JP6504240B2 - Electronic device, image processing method, and image processing program - Google Patents

Electronic device, image processing method, and image processing program Download PDF

Info

Publication number
JP6504240B2
JP6504240B2 JP2017245437A JP2017245437A JP6504240B2 JP 6504240 B2 JP6504240 B2 JP 6504240B2 JP 2017245437 A JP2017245437 A JP 2017245437A JP 2017245437 A JP2017245437 A JP 2017245437A JP 6504240 B2 JP6504240 B2 JP 6504240B2
Authority
JP
Japan
Prior art keywords
image
image processing
parameter
display
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017245437A
Other languages
Japanese (ja)
Other versions
JP2018057038A (en
Inventor
成倫 藤尾
成倫 藤尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2017245437A priority Critical patent/JP6504240B2/en
Publication of JP2018057038A publication Critical patent/JP2018057038A/en
Application granted granted Critical
Publication of JP6504240B2 publication Critical patent/JP6504240B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、電子機器、画像処理方法、および画像処理プログラムに関する。   The present invention relates to an electronic device, an image processing method, and an image processing program.

ユーザによって指定された被写体の種類を検出し、検出した被写体の種類に応じた画質パラメータを変更するためのパラメータ変更情報を画面に表示するカメラが知られている(特許文献1参照)。   There is known a camera which detects, on a screen, parameter change information for detecting a type of a subject specified by a user and changing an image quality parameter according to the type of the detected subject (see Patent Document 1).

特開2011−10273号公報JP, 2011-10273, A

上記従来技術では、撮像画像の中に複数の被写体が存在していても、ユーザによって指定されるのは1つの被写体であるため、指定された被写体の種類に応じた画質パラメータしか変更できず、その他の被写体については適切な画質パラメータを変更できなかった。このように、上記従来技術では、撮像画像の中に複数の被写体が存在する場合に、各被写体に対して適切な画像処理を行うことができなかった。   In the above-described conventional technology, even if a plurality of subjects are present in the captured image, only one subject is designated by the user, so only image quality parameters can be changed according to the designated subject type. The appropriate image quality parameters could not be changed for other subjects. As described above, in the above-described conventional technology, when there are a plurality of subjects in the captured image, it is not possible to perform appropriate image processing on each subject.

本発明の第1の態様によると、電子機器は、画像を表示する表示部と、前記表示部に表示された画像中の第1の部分画像に対して設定された複数の第1の画像処理のうち少なくとも2つの画像処理を施す比率に関する第1のパラメータを変更する第1の操作用画像を前記表示部に表示し、前記表示部に表示された画像中の第2の部分画像に対して設定された複数の第2の画像処理のうち少なくとも2つの画像処理を施す比率に関する第2のパラメータを変更する第2の操作用画像を前記表示部に表示する表示制御部と、前記第1の操作用画像に対する操作により前記第1のパラメータを変更し、前記第2の操作用画像に対する操作により前記第2のパラメータを変更する制御を行う制御部と、前記第1の部分画像に対して前記第1のパラメータに基づいて画像処理を行い、前記第2の部分画像に対して前記第2のパラメータに基づいて画像処理を行う画像処理部と、を備える。
本発明の第2の態様によると、画像処理方法は、表示部に画像を表示する第1表示工程と、前記表示部に表示された画像中の第1の部分画像に対して設定された複数の第1の画像処理のうち少なくとも2つの画像処理を前記第1の部分画像に施す比率を変更する第1の操作用画像を前記表示部に表示し、前記表示部に表示された画像中の第2の部分画像に対して設定された複数の第2の画像処理のうち少なくとも2つの画像処理を前記第2の部分画像に施す比率を変更する第2の操作用画像を前記表示部に表示する第2表示工程と、前記第1の操作用画像に対する操作により第1のパラメータを変更し、前記第2の操作用画像に対する操作により第2のパラメータを変更する変更工程と、前記第1の部分画像に対して前記第1のパラメータに基づいて画像処理を行い、前記第2の部分画像に対して前記第2のパラメータに基づいて画像処理を行う画像処理工程と、を有する。
本発明の第3の態様によると、画像処理プログラムは、第2の態様による画像処理方法をコンピュータに実行させる。
According to a first aspect of the present invention, an electronic apparatus includes a display unit for displaying an image and a first plurality of first image processing set for the partial image of the image displayed on the display unit at least two image processing relating to the ratio to perform the first operation image for changing the first parameter is displayed on the display unit, against the second partial image in the image displayed on the display unit of the A display control unit for displaying on the display unit a second operation image for changing a second parameter relating to a ratio of performing at least two image processing among the plurality of set second image processing; change the first parameter in response to the operation on the operation image, and a control unit that performs control for changing the second parameter in response to the operation on the second operation image, relative to the first partial image the Te first path Ramee Performs image processing based on, and an image processing section performing image processing based on the second parameter to the second partial image.
Multiple According to a second aspect of the present invention, an image processing method comprises a first display step of displaying an image on a display unit, which is set for the first partial image of the image displayed on the display unit A first operation image for changing a ratio of applying at least two of the first image processing to the first partial image in the first image processing is displayed on the display unit; displaying a second operation image for changing the ratio of the at least two image processing performed on the second partial image of the second plurality of second image processing set for the partial image on the display unit second display step, the first to change the first parameter Ri by the operation on the operation image, changing step of changing the second parameter Ri by the operation with respect to the second operating image for If, on the first parameter to the first partial image It performs image processing Zui, having an image processing step of performing image processing based on the second parameter to the second partial image.
According to a third aspect of the present invention, an image processing program causes a computer to execute an image processing method according to the second aspect.

本発明によれば、撮像画像の中に複数の被写体が存在する場合にも、各被写体に対して適切な画像処理を行うことができる。   According to the present invention, even when a plurality of subjects are present in a captured image, it is possible to perform appropriate image processing on each subject.

本発明の一実施の形態によるデジタルカメラの構成例を説明するブロック図である。It is a block diagram explaining the example of composition of the digital camera by one embodiment of the present invention. リング画像を説明する図である。It is a figure explaining a ring image. カーソルの位置に応じた画像処理を説明する図である。It is a figure explaining the image processing according to the position of the cursor. 被写体の種類に応じた画像処理の組合せを説明する図である。It is a figure explaining the combination of the image processing according to the kind of to-be-photographed object. 撮像画像を被写体ごとの領域に分割し、分割領域ごとにリング画像を表示する処理を説明する図である。It is a figure explaining the process which divides | segments a captured image into the area | region for every object, and displays a ring image for every divided area. リング画像の表示位置を移動する様子を説明する図である。It is a figure explaining a mode that the display position of a ring image is moved. 分割領域同士の境目部分に施す画像処理を説明する図である。It is a figure explaining the image processing given to the boundary part of division fields. クリエイティブモードにおける処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of processing in creative mode. 図8に続く処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process following FIG. カーソルの位置に応じた画像処理の流れを説明するフローチャートである。5 is a flowchart illustrating the flow of image processing according to the position of a cursor. プログラムの提供の様子を説明する図である。It is a figure explaining the mode of provision of a program.

以下、図面を参照して本発明の一実施形態について説明する。図1は、本実施形態に係るデジタルカメラ1の構成を示すブロック図である。デジタルカメラ1は、撮像光学系11と、撮像素子12と、レンズ駆動回路13と、制御部14と、操作部材16と、表示部17とを備えている。デジタルカメラ1には、例えばメモリカードなどの記録媒体18が着脱可能である。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a digital camera 1 according to the present embodiment. The digital camera 1 includes an imaging optical system 11, an imaging element 12, a lens drive circuit 13, a control unit 14, an operation member 16, and a display unit 17. A recording medium 18 such as, for example, a memory card is removable from the digital camera 1.

撮像光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の受光面に結像させる。なお、図1を簡単にするため、撮像光学系11を単レンズとして図示している。   The imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and forms an object image on the light receiving surface of the imaging element 12. In addition, in order to simplify FIG. 1, the imaging optical system 11 is illustrated as a single lens.

レンズ駆動回路13は、制御部14の制御のもと、撮像光学系11のズームレンズを駆動して焦点距離を調節するとともに、撮像光学系11のフォーカシングレンズを駆動して焦点調節を行う。   The lens drive circuit 13 drives the zoom lens of the imaging optical system 11 to adjust the focal length under the control of the control unit 14 and drives the focusing lens of the imaging optical system 11 to perform focus adjustment.

撮像素子12は、例えばCMOS撮像素子などのイメージセンサであり、撮像光学系11により結像した被写体像を撮像して、得られた画像信号を制御部14へ出力する。   The imaging device 12 is an image sensor such as a CMOS imaging device, for example, and captures an object image formed by the imaging optical system 11 and outputs an obtained image signal to the control unit 14.

制御部14は、表示制御部14a、パラメータ変更部14b、画像処理部14c、および領域分割部14dを有する。制御部14は、CPU、メモリ、およびその周辺回路から構成され、メモリに格納された制御プログラムを実行することにより、これらの各部の機能を実現している。各部の機能の内容については、後で詳しく説明する。   The control unit 14 includes a display control unit 14a, a parameter change unit 14b, an image processing unit 14c, and a region division unit 14d. The control unit 14 includes a CPU, a memory, and their peripheral circuits, and realizes the functions of these units by executing a control program stored in the memory. The contents of the functions of each part will be described in detail later.

表示部17は、デジタルカメラ1の背面に搭載された液晶モニタ(背面モニタ)等で構成され、撮像素子12により撮像された撮像画像や各種設定メニューなどが表示される。   The display unit 17 is configured by a liquid crystal monitor (rear monitor) or the like mounted on the rear surface of the digital camera 1 and displays a captured image captured by the image sensor 12 and various setting menus.

操作部材16は、シャッターボタン16aと、表示部17上に配置されたタッチパネル16bと、を含む。また、操作部材16は、この他、録画ボタン、モード切替ボタン、十字キー、OKボタン、ディスプレイボタンなどを含む。操作部材16は、各操作部材が操作されると、その操作に応じた操作信号を制御部14へ出力する。   The operation member 16 includes a shutter button 16 a and a touch panel 16 b disposed on the display unit 17. In addition, the operation member 16 includes a recording button, a mode switching button, an arrow key, an OK button, a display button, and the like. The operation member 16 outputs an operation signal corresponding to the operation to the control unit 14 when each operation member is operated.

操作部材16からの操作信号に応じて撮影モードに設定されると、制御部14は、撮像素子12に所定のフレームレートでスルー画用の撮像処理を行わせ、撮像素子12から時系列で得られる各フレーム画像から表示用のフレーム画像を生成して表示部17に出力する。これによって表示部17には、スルー画がリアルタイムで表示される。   When the imaging mode is set according to the operation signal from the operation member 16, the control unit 14 causes the imaging element 12 to perform imaging processing for a through image at a predetermined frame rate, and is obtained from the imaging element 12 in time series. A frame image for display is generated from each frame image to be output and output to the display unit 17. As a result, the through image is displayed on the display unit 17 in real time.

そして、シャッターボタンが押下操作されることにより撮影指示が行われると、制御部14は、撮像素子12に記録用の撮像処理を行わせ、撮像素子12から取得した画像信号に対して所定の画像処理を行って静止画データを生成し、JPEGなどの所定の方式により圧縮処理を行って、記録媒体18に記録する。   Then, when a photographing instruction is issued by pressing the shutter button, the control unit 14 causes the imaging element 12 to perform imaging processing for recording, and a predetermined image is generated for the image signal acquired from the imaging element 12 Processing is performed to generate still image data, compression processing is performed according to a predetermined method such as JPEG, and recording is performed on the recording medium 18.

また、操作部材16からの操作信号に応じて再生モードに設定されると、制御部14は、記録媒体18に記録された静止画データを読み出して再生し、表示部17に表示する。   When the reproduction mode is set according to the operation signal from the operation member 16, the control unit 14 reads and reproduces still image data recorded on the recording medium 18 and displays the data on the display unit 17.

本実施形態のデジタルカメラ1では、撮影モードとして、通常モードの他に、種々の画像処理を施した撮像画像を得ることのできるクリエイティブモードが設けられている。以下、このクリエイティブモードについて説明する。   In addition to the normal mode, the digital camera 1 according to the present embodiment is provided with a creative mode capable of obtaining a captured image subjected to various image processing, in addition to the normal mode. The following describes this creative mode.

クリエイティブモードにおいて、制御部14の表示制御部14aは、図2に示すように、撮像画像に施す画像処理の画像処理パラメータを変更するための画像(以下、リング画像と表記する)50を表示部17に表示する。リング画像50は、リング51とカーソル52とを表示する画像である。カーソル52は、リング51上において現在選択されている位置を示す。表示制御部14aは、ユーザのタッチパネル16bに対するタッチ操作に応じて、カーソル52の表示位置(すなわち選択位置)をリング51に沿って移動させる。表示制御部14aは、たとえば、カーソル52に対するドラッグ操作(カーソル52の表示位置をたとえば指でタッチした後、タッチしたまま指を移動する操作)に応じて、カーソル52を移動させる。   In the creative mode, as shown in FIG. 2, the display control unit 14 a of the control unit 14 displays an image (hereinafter referred to as a ring image) 50 for changing an image processing parameter of image processing applied to a captured image. Display on 17. The ring image 50 is an image for displaying the ring 51 and the cursor 52. The cursor 52 indicates the currently selected position on the ring 51. The display control unit 14 a moves the display position (that is, the selection position) of the cursor 52 along the ring 51 in response to the touch operation on the touch panel 16 b by the user. The display control unit 14a moves the cursor 52, for example, in response to a drag operation on the cursor 52 (an operation of touching the display position of the cursor 52 with, for example, a finger, and then moving the finger while touching).

制御部14のパラメータ変更部14bは、リング51上でのカーソル52の位置(すなわち選択位置)に応じて、撮像画像に施す画像処理の画像処理パラメータを設定する。すなわち、パラメータ変更部14bは、カーソル52の移動に応じて、撮像画像に施す画像処理の画像処理パラメータを変更する。制御部14の画像処理部14cは、撮像画像に対して、パラメータ変更部14bにより設定された画像処理パラメータに基づいて画像処理を行う。表示制御部14aは、画像処理部16cによる画像処理後の撮像画像を表示部17に表示する。   The parameter changing unit 14 b of the control unit 14 sets an image processing parameter of the image processing to be performed on the captured image according to the position (that is, the selection position) of the cursor 52 on the ring 51. That is, in response to the movement of the cursor 52, the parameter changing unit 14b changes the image processing parameter of the image processing to be performed on the captured image. The image processing unit 14c of the control unit 14 performs image processing on the captured image based on the image processing parameter set by the parameter changing unit 14b. The display control unit 14a causes the display unit 17 to display a captured image after image processing by the image processing unit 16c.

なお、本実施形態において、画像処理パラメータは、リング画像50に設定された4つの画像処理(以下、第1画像処理〜第4画像処理と表記する)のうち、どの画像処理をどのくらいの比率で行うかを示すパラメータである。第1画像処理〜第4画像処理の内容について、詳しくは後述する。   In the present embodiment, among the four image processes (hereinafter, referred to as first to fourth image processes) set as the ring image 50, the image processing parameter is which image process at a ratio of how much. It is a parameter indicating whether to perform. The details of the first to fourth image processes will be described later in detail.

リング画像50には、リング51の頂上地点P0から時計周りに第0位置〜第65位置の66か所の位置が設定されており、その位置を示す目盛がリング51の内側に表示されている。リング51の頂上地点P0が第0位置であり、その右隣の位置P1が第1位置である。第0位置P0から時計周りに90度離れた位置P17が第17位置である。第1位置P1から第17位置P17の間には、第2位置〜第16位置の15か所の位置が等間隔に設定される。第0位置P0から180度離れた位置P33が第33位置である。第17位置P17から第33位置P33の間には、第18位置〜第32位置の15か所の位置が等間隔に設定される。第0位置P0から時計周りに270度離れた位置P49が第49位置である。第33位置P33から第49位置P49の間には、第34位置〜第48位置の15か所の位置が等間隔に設定される。第0位置P0の左隣の位置P65は第65位置である。第49位置P49から第65位置P65の間には、第50位置〜第64位置の15か所の位置が等間隔に設定される。図3は、各位置において設定される画像処理パラメータを説明する図である。図3では、0〜65の番号が第0位置〜第65位置を示し、番号の下にその番号が示す位置において設定される画像処理パラメータの内容を記載している。   In the ring image 50, 66 positions from the 0th position to the 65th position are set clockwise from the top point P0 of the ring 51, and a scale indicating the position is displayed inside the ring 51. . The top point P0 of the ring 51 is the zeroth position, and the position P1 next to the right is the first position. A seventeenth position is a position P17 that is 90 degrees away from the zeroth position P0 in the clockwise direction. Between the first position P1 to the seventeenth position P17, fifteen positions from the second position to the sixteenth position are set at equal intervals. The position P33 which is 180 degrees away from the zeroth position P0 is the 33rd position. Between the seventeenth position P17 and the thirty-third position P33, fifteen positions from the eighteenth position to the thirty-second position are set at equal intervals. A position P49 which is separated by 270 degrees clockwise from the 0th position P0 is a 49th position. Between the thirty-third position P33 and the forty-ninth position P49, fifteen positions from the thirty-fourth position to the forty-eighth position are set at equal intervals. The position P65 adjacent to the left of the zeroth position P0 is the 65th position. Between the 49th position P49 and the 65th position P65, 15 positions of the 50th position to the 64th position are set at equal intervals. FIG. 3 is a diagram for explaining image processing parameters set at each position. In FIG. 3, the numbers 0 to 65 indicate the 0th position to the 65th position, and the contents of the image processing parameters set at the positions indicated by the numbers are described below the numbers.

リング画像50の表示を開始した時点において、表示制御部14aは、リング51の頂上地点(第0位置)P0にカーソル52を表示する。このとき、パラメータ変更部14bは、第1画像処理〜第4画像処理のいずれも行わないように設定する。したがって、表示部17には、第1画像処理〜第4画像処理のいずれも施していない状態の撮像画像、すなわち元画像が表示される。   When the display of the ring image 50 is started, the display control unit 14 a displays the cursor 52 at the top point (0th position) P 0 of the ring 51. At this time, the parameter changing unit 14 b is set to perform neither the first image processing nor the fourth image processing. Therefore, the display unit 17 displays a captured image in a state in which neither the first image processing nor the fourth image processing has been performed, that is, the original image.

カーソル52が第0位置P0の右隣の第1位置P1にある場合、パラメータ変更部14bは、第1画像処理のみを(すなわち第1画像処理を100%の比率で)行うように設定する。したがって、カーソル52が第0位置P0から第1位置P1に時計周りに移動すると、表示部17に表示される撮像画像は、元画像の状態から第1画像処理のみを施した状態へと変化する。   When the cursor 52 is at the first position P1 on the right of the zeroth position P0, the parameter change unit 14b sets only the first image processing (that is, the first image processing at a ratio of 100%). Therefore, when the cursor 52 moves clockwise from the zero position P 0 to the first position P 1, the captured image displayed on the display unit 17 changes from the state of the original image to the state where only the first image processing is performed. .

カーソル52が第0位置P0から時計周りに90度離れた第17位置P17にある場合、パラメータ変更部14bは、第2画像処理のみを(すなわち第2画像処理を100%の比率で)行うように設定する。したがって、カーソル52が第1位置P1から第17位置P17へと時計周りに移動すると、表示部17に表示される撮像画像は、第1画像処理のみを施した状態から第2画像処理のみを施した状態へと変化する。このとき、表示部17に表示される撮像画像は、第1画像処理のみを施した状態から第2画像処理のみを施した状態へ15段階で徐々に遷移するようになっている。すなわち、カーソル52が第2位置から第16位置にある間、パラメータ変更部14bは、第1画像処理および第2画像処理の両方を行う(すなわち第1画像処理および第2画像処理を重ねがけする)ように設定する。このときパラメータ変更部14bは、カーソル52が第1位置P1に近いほど第1画像処理の比率を高くして第2画像処理の比率を低くし、カーソル52が第17位置P17に近いほど第2画像処理の比率を高くして第1画像処理の比率を低くするように設定する。たとえば、パラメータ変更部14bは、カーソル52が第5位置にあるときは、第1画像処理を75%、第2画像処理を25%の比率で、カーソル52が第9位置にあるときは、第1画像処理を50%、第2画像処理を50%の比率で、カーソル52が第13位置にあるときは、第1画像処理を25%、第2画像処理を75%の比率で行うように設定する。なお、第1画像処理を75%の比率で行うとは、たとえば、撮像画像に第1画像処理のみを施したとき(すなわち第1画像処理を100%施したとき)における撮像画像の変化の度合いを100%としたときに、その度合いの75%程度撮像画像が変化するように第1画像処理を施すことである。   When the cursor 52 is at the seventeenth position P17 that is 90 degrees clockwise from the zeroth position P0, the parameter changing unit 14b performs only the second image processing (that is, the second image processing at a ratio of 100%) Set to Therefore, when the cursor 52 moves clockwise from the first position P1 to the seventeenth position P17, the captured image displayed on the display unit 17 is subjected to only the second image processing from the state where only the first image processing is applied. Change to the At this time, the captured image displayed on the display unit 17 is gradually transitioned from the state in which only the first image processing is performed to the state in which only the second image processing is performed in 15 steps. That is, while the cursor 52 is from the second position to the sixteenth position, the parameter changing unit 14b performs both the first image processing and the second image processing (that is, overlaps the first image processing and the second image processing) Set as). At this time, the parameter changing unit 14b increases the ratio of the first image processing as the cursor 52 approaches the first position P1 and lowers the ratio of the second image processing, and the second as the cursor 52 approaches the seventeenth position P17. The ratio of image processing is set high and the ratio of first image processing is set low. For example, when the cursor 52 is at the fifth position, the parameter changing unit 14b performs the first image processing at a ratio of 75% and the second image processing at a ratio of 25%. When the cursor 52 is at the 13th position at a ratio of 50% for one image processing and 50% for the second image processing, the first image processing is performed at a ratio of 25% and the second image processing is for 75%. Set Note that performing the first image processing at a ratio of 75% means, for example, the degree of change in the captured image when only the first image processing is performed on the captured image (that is, when 100% of the first image processing is performed). The first image processing is performed such that the captured image changes by about 75% of the degree, where

カーソル52が第0位置P0から180度離れた第33位置P33にある場合、パラメータ変更部14bは、第3画像処理のみを(すなわち第3画像処理を100%の比率で)行うように設定する。したがって、カーソル52が第17位置P17から第33位置P33へと時計周りに移動すると、表示部17に表示される撮像画像は、第2画像処理のみを施した状態から第3画像処理のみを施した状態へと変化する。このとき、表示部17に表示される撮像画像は、第2画像処理のみを施した状態から第3画像処理のみを施した状態へ15段階で徐々に遷移するようになっている。すなわち、カーソル52が第18位置から第32位置にある間、パラメータ変更部14bは、第2画像処理および第3画像処理の両方を行う(すなわち第2画像処理および第3画像処理を重ねがけする)ように設定する。このときパラメータ変更部14bは、カーソル52が第17位置P17に近いほど第2画像処理の比率を高くして第3画像処理の比率を低くし、カーソル52が第33位置P33に近いほど第3画像処理の比率を高くして第2画像処理の比率を低くするように設定する。   When the cursor 52 is at the 33rd position P33 which is 180 degrees away from the 0th position P0, the parameter changing unit 14b sets only the third image processing (that is, the third image processing at a ratio of 100%). . Therefore, when the cursor 52 moves clockwise from the 17th position P17 to the 33rd position P33, the captured image displayed on the display unit 17 is subjected to only the third image processing from the state where only the second image processing is applied. Change to the At this time, the captured image displayed on the display unit 17 gradually transitions from the state in which only the second image processing is performed to the state in which only the third image processing is performed in 15 steps. That is, while the cursor 52 is from the eighteenth position to the thirty-second position, the parameter changing unit 14b performs both the second image processing and the third image processing (that is, overlaps the second image processing and the third image processing) Set as). At this time, the parameter changing unit 14b increases the ratio of the second image processing to lower the ratio of the second image processing as the cursor 52 approaches the seventeenth position P17 and lowers the ratio of the third image processing, and the third as the cursor 52 approaches the 33rd position P33. The ratio of the image processing is set high and the ratio of the second image processing is set low.

カーソル52が第0位置P0から時計周りに270度離れた第49位置P49にある場合、パラメータ変更部14bは、第4画像処理のみを(すなわち第4画像処理を100%の比率で)行うように設定する。したがって、カーソル52が第33位置P33から第49位置P49へと時計周りに移動されると、表示部17に表示される撮像画像は、第3画像処理のみを施した状態から第4画像処理のみを施した状態へと変化する。このとき、表示部17に表示される撮像画像は、第3画像処理のみを施した状態から第4画像処理のみを施した状態へ15段階で徐々に遷移するようになっている。すなわち、カーソル52が第34位置から第48位置にある間、パラメータ変更部14bは、第3画像処理および第4画像処理の両方を行う(すなわち第3画像処理および第4画像処理を重ねがけする)ように設定する。このときパラメータ変更部14bは、カーソル52が第33位置P33に近いほど第3画像処理の比率を高くして第4画像処理の比率を低くし、カーソル52が第49位置P49に近いほど第4画像処理の比率を高くして第3画像処理の比率を低くするように設定する。   When the cursor 52 is at the 49th position P49, which is 270 degrees clockwise from the 0th position P0, the parameter changing unit 14b performs only the fourth image processing (that is, the fourth image processing at a ratio of 100%) Set to Therefore, when the cursor 52 is moved clockwise from the 33rd position P33 to the 49th position P49, the captured image displayed on the display unit 17 is only subjected to the fourth image processing from the state where only the third image processing is performed. Change to the state where At this time, the captured image displayed on the display unit 17 is gradually transitioned from the state in which only the third image processing is performed to the state in which only the fourth image processing is performed in 15 steps. That is, while the cursor 52 is from the 34th position to the 48th position, the parameter changing unit 14b performs both the third image processing and the fourth image processing (that is, overlaps the third image processing and the fourth image processing) Set as). At this time, the parameter changing unit 14b increases the ratio of the third image processing to lower the ratio of the third image processing as the cursor 52 approaches the 33rd position P33, and lowers the ratio of the fourth image processing. The ratio of the image processing is set high and the ratio of the third image processing is set low.

カーソル52が第0位置P0の左隣の第65位置P65にある場合、パラメータ変更部14bは、第1画像処理のみを(すなわち第1画像処理を100%の比率で)行うように設定する。したがって、カーソル52が第49位置P49から第65位置P65へと時計周りに移動すると、表示部17に表示される撮像画像は、第4画像処理のみを施した状態から第1画像処理のみを施した状態へと変化する。このとき、表示部17に表示される撮像画像は、第4画像処理のみを施した状態から第1画像処理のみを施した状態へ15段階で徐々に遷移するようになっている。すなわち、カーソル52が第50位置から第64位置にある間、パラメータ変更部14bは、第4画像処理および第1画像処理の両方を行う(すなわち第4画像処理および第1画像処理を重ねがけする)ように設定する。このときパラメータ変更部14bは、カーソル52が第49位置P49に近いほど第4画像処理の比率を高くして第1画像処理の比率を低くし、カーソル52が第65位置P65に近いほど第1画像処理の比率を高くして第4画像処理の比率を低くするように設定する。   When the cursor 52 is at the 65th position P65 next to the 0th position P0, the parameter changing unit 14b sets only the first image processing (that is, the first image processing at a ratio of 100%). Therefore, when the cursor 52 moves clockwise from the 49th position P49 to the 65th position P65, the captured image displayed on the display unit 17 is subjected to only the first image processing from the state where only the fourth image processing is applied. Change to the At this time, the captured image displayed on the display unit 17 gradually transitions from the state in which only the fourth image processing is performed to the state in which only the first image processing is performed in 15 steps. That is, while the cursor 52 is from the 50th position to the 64th position, the parameter changing unit 14b performs both the fourth image processing and the first image processing (that is, overlaps the fourth image processing and the first image processing) Set as). At this time, the parameter changing unit 14b increases the ratio of the fourth image processing to lower the ratio of the fourth image processing as the cursor 52 is closer to the 49th position P49 and lowers the ratio of the first image processing. The ratio of the image processing is set high and the ratio of the fourth image processing is set low.

また、カーソル52が第65位置P65から第0位置P0へと時計周りに移動すると、表示部17に表示される撮像画像は、第1画像処理のみ施した状態から元画像の状態へと戻る。   When the cursor 52 moves clockwise from the 65th position P65 to the 0th position P0, the captured image displayed on the display unit 17 returns from the state where only the first image processing is performed to the state of the original image.

このように、カーソル52が第0位置P0から時計周りに1回転すると、撮像画像に施される画像処理が、元画像から、第1画像処理、第2画像処理、第3画像処理、第4画像処理の順で連続的に変更された後、再度第1画像処理に戻って、元画像に戻る。なお、カーソル52が反時計回りに1回転する場合は、撮像画像に施される画像処理は、上述した時計周りに1回転する場合と逆の順で変化する。また、必ずしもカーソル52が1回転しなくてもよく、たとえば、カーソル52が時計周りに半周回転した後に反時計回りに移動して、画像処理の変化を戻すことも可能となっている。   As described above, when the cursor 52 rotates clockwise from the zero position P0, the image processing performed on the captured image is the first image processing, the second image processing, the third image processing, the fourth from the original image. After being sequentially changed in the order of image processing, the process returns to the first image processing again to return to the original image. When the cursor 52 rotates one turn counterclockwise, the image processing applied to the captured image changes in the reverse order of the case where the cursor 52 rotates one turn. In addition, the cursor 52 does not necessarily have to make one rotation, and for example, it is possible to return the change in image processing by moving the cursor 52 counterclockwise after rotating it clockwise by half.

このようにリング画像50では、リング51上でカーソル52を移動させることにより、撮像画像に施す画像処理について、第1画像処理〜第4画像処理のうち、どの画像処理をどれくらいの比率で行うかを変更することができる。   As described above, in the ring image 50, by moving the cursor 52 on the ring 51, which image processing of the first to fourth image processings is to be performed at what ratio with respect to the image processing applied to the captured image Can be changed.

次に、リング画像50に設定される第1画像処理〜第4画像処理の内容について、詳しく説明する。なお、本説明において、画像処理には、たとえば彩度やコントラスト、ホワイトバランスなどのパラメータを変えることで画作りを行う処理や、たとえばフィルタをかけてぼかしたり周辺を暗くしてトイカメラ風にしたりするなど画像効果をかける処理が含まれるとする。クリエイティブモードでは、被写体の種類を判別し、被写体の種類に応じた4つの画像処理を、第1画像処理〜第4画像処理としてリング画像50に設定するようになっている。すなわち、被写体の種類によって、リング画像50に設定される第1画像処理〜第4画像処理の内容が異なっている。   Next, the contents of the first to fourth image processings set in the ring image 50 will be described in detail. In the present description, for image processing, for example, processing for creating an image by changing parameters such as saturation, contrast, white balance, etc., for example, applying a filter or blurring or darkening the periphery to make it a toy camera It is assumed that processing such as applying an image effect is included. In the creative mode, the type of subject is determined, and four image processes according to the type of subject are set in the ring image 50 as first to fourth image processes. That is, the contents of the first to fourth image processes set in the ring image 50 differ depending on the type of subject.

判別される被写体の種類としては、「人物」、「風景」、「空」などがある。なお、これは一例であり、この他、近くの被写体である「接写」や、「夕景」など種々の被写体の種類を判別してもよい。図4は、被写体の種類に応じた第1画像処理〜第4画像処理の組合せを説明する図である。被写体の種類ごとに、それぞれの種類に適した4つの画像処理が第1画像処理〜第4画像処理として予め設定されている。たとえば、被写体「人物」用のリング画像50pには、第1画像処理として「ポートレート」、第2画像処理として「モノクローム」、第3画像処理として「ハイキー」、第4画像処理として「クロスプロセス(R)」が設定されている。被写体「風景」用のリング画像50gには、第1画像処理として「クロスプロセス(G)」、第2画像処理として「風景」、第3画像処理として「フィルターモノクロ(セピア)」、第4画像処理として「アヴァンギャルド」が設定されている。被写体「空」用のリング画像50sには、第1画像処理として「ビビッド」、第2画像処理として「ハイキー」、第3画像処理として「モノクローム」、第4画像処理として「クロスプロセス(B)」が設定されている。   The types of subjects to be determined include "person", "landscape", "sky" and the like. Note that this is an example, and in addition to this, it is also possible to determine the types of various subjects such as “close-up” and “evening scene” that are nearby subjects. FIG. 4 is a diagram for explaining combinations of first to fourth image processing according to the type of subject. For each type of subject, four image processing suitable for each type are preset as first to fourth image processing. For example, in the ring image 50p for the subject "person", "portrait" as the first image processing, "monochrome" as the second image processing, "high key" as the third image processing, and "cross process as the fourth image processing" (R) is set. The ring image 50g for the subject "scenery" is "cross process (G)" as the first image processing, "scenery" as the second image processing, "filter monochrome (sepia)" as the third image processing, the fourth image "Avant-garde" is set as the process. The ring image 50s for the subject "sky" is "bivid" as the first image processing, "high key" as the second image processing, "monochrome" as the third image processing, and "cross process (B) as the fourth image processing. "Is set.

「ポートレート」は、人物の肌をきれいに見せる画作りを行うための画像処理である。「モノクローム」は、白黒の濃淡のみの画作りを行うための画像処理である。「ハイキー」は、画面全体が明るく陰影の少ない画作りを行うための画像処理である。「クロスプロセス(R)」、「クロスプロセス(G)」、および「クロスプロセス(B)」は、クロスプロセス(ポジフィルムを使いネガ用の現像を行う銀塩写真の手法)を行ったような画像効果を得るための画像処理である。なお、「クロスプロセス(R)」では赤みの強い画像が得られ、「クロスプロセス(G)」では緑みの強い画像が得られ、「クロスプロセス(B)」では青みの強い画像が得られる。「ビビッド」は、コントラストが強調された色鮮やかな画作りを行うための画像処理である。「風景」は、自然や街並みなどの景観に適した画作りを行うための画像処理である。「フィルターモノクロ(セピア)」は、セピア色の濃淡のみの画作りを行うための画像処理である。「アヴァンギャルド」は、「ビビッド」よりもさらにコントラストと彩度を上げて独特の画作りを行うための画像処理である。   "Portrait" is image processing for creating an image that makes the skin of a person look clean. "Monochrome" is image processing for creating an image of only black and white shades. The "high key" is image processing for creating an image that is bright on the entire screen and has few shadows. "Cross Process (R)", "Cross Process (G)", and "Cross Process (B)" are similar to the cross process (a method of silver salt photography that uses a positive film to develop for negatives) Image processing for obtaining an image effect. In addition, an image with strong redness is obtained in "Cross Process (R)", an image with strong greenness is obtained in "Cross Process (G)", and an image with strong blue color is obtained in "Cross Process (B)" . "Vivid" is image processing for creating a vivid image with enhanced contrast. "Landscape" is image processing for creating an image suitable for a landscape such as nature or a cityscape. "Filtered monochrome (sepia)" is image processing for creating an image of sepia only with shades of light. "Avant-garde" is an image processing to create a unique picture by increasing the contrast and saturation more than "vivid".

なお、被写体の種類ごとの第1画像処理〜第4画像処理の組合せに関する情報は、デジタルカメラ1内の不図示のメモリに予め記憶されている。   Information on the combination of the first image processing to the fourth image processing for each type of subject is stored in advance in a memory (not shown) in the digital camera 1.

次に、クリエイティブモードにおいて、撮像画像を被写体ごとの領域に分割し、分割した領域ごとに画像処理を施す処理について説明する。図5(a)は、撮像画像の一例を示す図である。制御部14の領域分割部14dは、図5(b)に示すように、撮像画像を所定数(たとえば2×2の4等分)の領域に分割する。なお、ここで分割する領域の数、形状および大きさについては、予め決められている。領域分割部14dは、分割した領域71〜74のそれぞれにおいて、被写体の種類を判別する被写体判別処理を実行する。なお、この被写体判別処理については、公知の方法を用いればよいので、詳細な説明は省略する。図5(c)は、被写体判別処理の結果の一例を示す。たとえば、領域71および73は、被写体が「風景」であると判別され、領域72は被写体が「空」であると判別され、領域74は被写体が「人物」であると判別される。   Next, processing in which a captured image is divided into areas for each subject in the creative mode and image processing is performed for each divided area will be described. FIG. 5A shows an example of a captured image. As illustrated in FIG. 5B, the area dividing unit 14d of the control unit 14 divides the captured image into a predetermined number (for example, 2 × 2 equal parts of 4) of areas. The number, shape, and size of the areas to be divided here are determined in advance. The area division unit 14d executes subject determination processing for determining the type of subject in each of the divided areas 71 to 74. In addition, since a known method may be used for the subject discrimination process, the detailed description will be omitted. FIG. 5C shows an example of the result of the subject discrimination process. For example, in the areas 71 and 73, it is determined that the subject is "landscape", in the area 72 it is determined that the subject is "sky", and in the area 74 it is determined that the subject is "person".

領域分割部14dは、上記被写体判別処理の結果、撮像画像において複数種類の被写体を検出すると、次に、撮像画像を被写体ごとの領域に分割する処理を行う。領域分割部14dは、たとえば、同じ特徴量を有する領域は同じ被写体を含むと判別することにより、被写体ごとの領域を検出する。なお、このような処理についても、公知の方法を用いればよいので、詳細な説明は省略する。図5(d)は、被写体ごとに分割された領域の一例を示す。たとえば、被写体「風景」が含まれる分割領域80gと、被写体「空」が含まれる分割領域80sと、被写体「人物」が含まれる分割領域80pとの3つの領域に、撮像画像が分割される。   When the area division unit 14d detects a plurality of types of subjects in the captured image as a result of the subject determination process, the area division unit 14d next performs a process of dividing the captured image into areas for each subject. The area dividing unit 14d detects an area for each subject by determining that areas having the same feature amount include the same subject, for example. In addition, since a well-known method may be used also for such processing, detailed description will be omitted. FIG. 5D shows an example of the area divided for each subject. For example, the captured image is divided into three areas: a divided area 80g including the subject "landscape", a divided area 80s including the subject "sky", and a divided area 80p including the subject "person".

表示制御部14aは、領域分割部14dにより分割された分割領域80g,80s,80pごとに、それぞれの被写体の種類に応じた画像処理を設定するためのリング画像50g,50s,50pをスルー画に重ねて表示する。たとえば、図5(e)に示すように、表示制御部14aは、「風景」用のリング画像50gを「風景」の分割領域80g上に表示し、「風景」用のリング画像50gの近傍に、これが「風景」用であることを示す風景アイコン90gを表示する。また、表示制御部14aは、「空」用のリング画像50sを「空」の分割領域80s上に表示し、「空」用のリング画像50sの近傍に、これが「空」用であることを示す空アイコン90sを表示する。また、表示制御部14aは、「人物」用のリング画像50pを「人物」の分割領域80p上に表示し、「人物」用のリング画像50pの近傍に、これが「人物」用であることを示す人物アイコン90pを表示する。   The display control unit 14a sets, as through images, ring images 50g, 50s, and 50p for setting image processing according to the type of the subject for each of the divided regions 80g, 80s, and 80p divided by the region dividing unit 14d. Overlap and display. For example, as shown in FIG. 5E, the display control unit 14a displays the ring image 50g for "landscape" on the divided area 80g of "landscape", and in the vicinity of the ring image 50g for "landscape". , A landscape icon 90g indicating that this is for "landscape" is displayed. In addition, the display control unit 14a displays the ring image 50s for "sky" on the "sky" divided area 80s, and indicates that the ring image 50s for "sky" is for "sky" in the vicinity of the ring image 50s for "sky". Display a blank icon 90s shown. In addition, the display control unit 14a displays the ring image 50p for "person" on the divided area 80p for "person", and indicates that the ring image 50p for "person" is for "person" in the vicinity of the ring image 50p for "person". Display the person icon 90p shown.

ユーザは、タッチパネル16bに対するドラッグ操作によって、「風景」用のリング画像50gのカーソル52g、「空」用のリング画像50sのカーソル52g、および「人物」用のリング画像50pのカーソル52pをそれぞれ移動することができる。パラメータ変更部14bは、「風景」用のリング画像50gのカーソル52gの位置に応じて、「風景」の分割領域80gに施す画像処理パラメータを設定する。パラメータ変更部14bは、「空」用のリング画像50sのカーソル52sの位置に応じて、「空」の分割領域80sに施す画像処理パラメータを設定する。パラメータ変更部14bは、「人物」用のリング画像50pのカーソル52pの位置に応じて、「人物」の分割領域80pに施す画像処理パラメータを設定する。   The user moves the cursor 52g of the ring image 50g for "landscape", the cursor 52g of the ring image 50s for "sky", and the cursor 52p of the ring image 50p for "person" by the drag operation on the touch panel 16b. be able to. The parameter changing unit 14 b sets an image processing parameter to be applied to the divided area 80 g of “landscape” according to the position of the cursor 52 g of the ring image 50 g for “landscape”. The parameter changing unit 14 b sets an image processing parameter to be applied to the “empty” divided area 80 s according to the position of the cursor 52 s of the “empty” ring image 50 s. The parameter changing unit 14 b sets an image processing parameter to be applied to the divided area 80 p of “person” according to the position of the cursor 52 p of the ring image 50 p for “person”.

画像処理部14cは、「風景」用のリング画像50gにおいて設定された画像処理パラメータに基づく画像処理を、「風景」の分割領域80gに対して行う。画像処理部14cは、「空」用のリング画像50sにおいて設定された画像処理パラメータに基づく画像処理を、「空」の分割領域80sに対して行う。画像処理部14cは、「人物」用のリング画像50pにおいて設定された画像処理パラメータに基づく画像処理を、「人物」の分割領域80pに対して行う。   The image processing unit 14c performs image processing based on the image processing parameters set in the ring image 50g for "landscape" on the divided area 80g of "landscape". The image processing unit 14 c performs image processing based on the image processing parameter set in the ring image 50 s for “sky” on the divided area 80 s of “sky”. The image processing unit 14 c performs image processing based on the image processing parameters set in the ring image 50 p for “person” on the divided region 80 p of “person”.

なお、このような画像処理は、スルー画として表示される撮像画像に対して(すなわち撮像素子12により所定のフレームレートで撮像される各フレーム画像に対して)行われる。デジタルカメラ1は、ユーザ操作により複数のリング画像50のいずれかにおいてカーソル52が移動されるごとに、その移動に応じて、対応する分割領域の画像処理パラメータを変更し、変更後の画像処理パラメータに基づく画像処理が行われた撮像画像をリアルタイムで表示部17に表示する。   Note that such image processing is performed on a captured image displayed as a through image (that is, on each frame image captured by the imaging element 12 at a predetermined frame rate). Every time the cursor 52 is moved in any of the plurality of ring images 50 by the user operation, the digital camera 1 changes the image processing parameter of the corresponding divided area according to the movement, and the image processing parameter after the change Is displayed on the display unit 17 in real time.

以上のような構成により、デジタルカメラ1では、「風景」の分割領域80gに対しては「風景」に適した画像処理を行うことができ、「空」の分割領域80sに対しては「空」に適した画像処理を行うことができ、「人物」の分割領域80pに対しては「人物」に適した画像処理を行うことができる。また、ユーザは、「風景」用のリング画像50gにおいて、「風景」の分割領域80gに施す画像処理を、「風景」に適した4つの画像処理の中で変更することができる。「空」用のリング画像50sと「人物」用のリング画像50pにおいても同様である。   With the above configuration, the digital camera 1 can perform image processing suitable for "scenery" on the "scenery" division area 80g, and "sky" for the "sky" division area 80s. Image processing suitable for “person” can be performed on the division region 80 p of “person”. In addition, in the ring image 50g for "scenery", the user can change the image processing to be applied to the "scenery" divided area 80g among the four image processes suitable for the "scenery". The same applies to the ring image 50s for "sky" and the ring image 50p for "person".

また、クリエイティブモードでは、ユーザがリング画像50のリング51に対するドラッグ操作(リング51をたとえば指でタッチし、タッチしたまま指を移動する操作)を行うことにより、リング画像50自体の表示位置を表示部17の表示画面内で自由に移動できるようになっている。たとえば、図6に示すように、「風景」用のリング画像50gのリング51gに対してドラッグ操作が行われると、表示制御部14aは、このドラッグ操作に応じて「風景」用のリング画像50gの表示位置を移動する。なお、図6(a)は、「風景」用のリング画像50gの移動前、図6(b)は移動後を示している。   Further, in the creative mode, the display position of the ring image 50 itself is displayed by the user performing a drag operation on the ring 51 of the ring image 50 (for example, an operation of touching the ring 51 with a finger and moving the finger while touching). It can move freely within the display screen of the section 17. For example, as shown in FIG. 6, when a drag operation is performed on the ring 51g of the ring image 50g for "landscape", the display control unit 14a responds to the drag operation for the ring image 50g for "landscape". Move the display position of. 6 (a) shows the state before the movement of the ring image 50g for "landscape", and FIG. 6 (b) shows the state after the movement.

画像処理部14cは、2つの分割領域同士の境目部分に対して所定の画像処理を行うようになっており、これら2つの分割領域に対応する2つのリング画像50同士の距離に応じて、その画像処理の度合いを調節するようになっている。したがって、ユーザは、リング画像50の表示位置を動かしてリング画像50同士の距離を変えることで、これらのリング画像50に対応する分割領域同士の境目部分に施す画像処理の度合いを調節することができる。   The image processing unit 14c is configured to perform predetermined image processing on the boundary between two divided areas, and the image processing unit 14c is configured to perform the image processing according to the distance between the two ring images 50 corresponding to these two divided areas. It is designed to adjust the degree of image processing. Therefore, the user moves the display position of the ring image 50 to change the distance between the ring images 50, thereby adjusting the degree of image processing to be applied to the boundary between divided areas corresponding to the ring images 50. it can.

たとえば、画像処理部14cは、「風景」用のリング画像50gの中心と「空」用のリング画像50sの中心との間の距離Lgsに応じて、「風景」の分割領域80gと「空」の分割領域80sとの境目部分に施す画像処理の度合いを調節する。画像処理部14cは、「空」用のリング画像50sの中心と「人物」用のリング画像50pの中心との間の距離Lspに応じて、「空」の分割領域80sと「人物」の分割領域80pとの境目部分に施す画像処理の度合いを調節する。画像処理部14cは、「人物」用のリング画像50pの中心と「風景」用のリング画像50gの中心との間の距離Lpgに応じて、「人物」の分割領域80pと「風景」の分割領域80gとの境目部分に施す画像処理の度合いを調節する。   For example, the image processing unit 14c determines that the divided area 80g of "landscape" and "sky" according to the distance Lgs between the center of the ring image 50g for "landscape" and the center of the ring image 50s for "sky". The degree of image processing to be applied to the boundary with the divided area 80s of The image processing unit 14c divides the “sky” division area 80s and the “person” according to the distance Lsp between the center of the “sky” ring image 50s and the center of the “person” ring image 50p. The degree of image processing to be applied to the boundary with the region 80p is adjusted. The image processing unit 14c divides the divided area 80p of the “person” and the “landscape” according to the distance Lpg between the center of the ring image 50p for “person” and the center of the ring image 50g for “landscape”. The degree of image processing to be applied to the boundary with the area 80g is adjusted.

図7は、分割領域同士の境目部分に施す画像処理の内容を説明する図である。たとえば、図7(a)に示す「人物」の分割領域80pと「風景」の分割領域80gとの境目部分81pgに対して画像処理を行う場合を例に挙げて説明する。図7(b)は、分割領域同士の境目部分に対してグラデーション処理を行う例を説明する図である。上述したように、画像処理部14cは、「人物」の分割領域80pに対しては、「人物」用のリング画像50pにおいて設定された「人物」用の画像処理を行い、「風景」の分割領域80gに対しては、「風景」用のリング画像50gによって設定された「風景」用の画像処理を行う。図7(b)に示す場合、画像処理部14cは、「人物」の分割領域80pと「風景」の分割領域80gとの境目部分81pgに対しては、「人物」用の画像処理が施された状態から、「風景」用の画像処理が施された状態へと段階的に(すなわちグラデーションで)変化するように画像処理を行う。このとき、画像処理部14cは、「人物」用のリング画像50pと「風景」用のリング画像50gとの間の距離が長いほど、グラデーションの幅を長くする。一方、画像処理部14cは、「人物」用のリング画像50pと「風景」用のリング画像50gの間の距離が短いほど、グラデーションの幅を短くする。画像処理部14cは、「人物」用のリング画像50pと「風景」用のリング画像50gとが最も接近した場合は、グラデーションをなしとする(すなわち画像処理を段階的に変化させるのではなく、境目部分81pgにおいて一気に変化させる)。   FIG. 7 is a diagram for explaining the contents of image processing applied to the boundary between divided areas. For example, the case where image processing is performed on the boundary 81pg between the divided area 80p of "person" and the divided area 80g of "landscape" shown in FIG. 7A will be described as an example. FIG. 7B is a diagram for explaining an example in which gradation processing is performed on the boundary between divided areas. As described above, the image processing unit 14c performs image processing for the “person” set in the ring image 50p for the “person” on the divided area 80p of the “person”, and divides the “landscape”. Image processing for “landscape” set by the ring image 50 g for “landscape” is performed on the area 80 g. In the case shown in FIG. 7B, the image processing unit 14c performs image processing for "person" on the boundary 81pg between the division region 80p of "person" and the division region 80g of "landscape". The image processing is performed so as to change stepwise (that is, with gradation) to a state where image processing for “landscape” is performed from the normal state. At this time, the image processing unit 14c lengthens the gradation width as the distance between the ring image 50p for “person” and the ring image 50g for “landscape” is longer. On the other hand, the image processing unit 14c shortens the width of gradation as the distance between the ring image 50p for “person” and the ring image 50g for “landscape” is shorter. When the ring image 50p for "person" and the ring image 50g for "scenery" come closest to each other, the image processing unit 14c performs no gradation (that is, does not change the image processing in stages, Change at a stretch at the boundary 81pg).

図7(c)は、分割領域同士の境目部分に対して縁取りを施す例を説明する図である。画像処理部14cは、「人物」の分割領域80pと「風景」の分割領域80gとの境目部分81pgに対して縁取りを施す。このとき、画像処理部14cは、「人物」用のリング画像50pと「風景」用のリング画像50gの間の距離が長いほど、境目部分81pgの縁取りを太くする。一方、画像処理部14cは、「人物」用のリング画像50pと「風景」用のリング画像50gの間の距離が短いほど、境目部分81pgの縁取りを細くする。   FIG. 7C is a view for explaining an example in which the border portion between the divided areas is subjected to the border trimming. The image processing unit 14c performs bordering on a boundary portion 81pg between the divided region 80p of the “person” and the divided region 80g of the “landscape”. At this time, the image processing unit 14c thickens the border of the boundary portion 81pg as the distance between the ring image 50p for “person” and the ring image 50g for “landscape” is longer. On the other hand, as the distance between the ring image 50p for “person” and the ring image 50g for “landscape” is shorter, the image processing unit 14c makes the border of the boundary portion 81pg thinner.

なお、分割領域同士の境目部分に対して、図7(b)に示したようにグラデーション処理を行うか、図7(c)に示したように縁取り処理を行うかについては、どちらの処理を行ってもよい。たとえば、予め設定メニューなどで、ユーザが設定できるようにしてもよい。   As to whether to perform gradation processing as shown in FIG. 7 (b) or border processing as shown in FIG. 7 (c) on the boundary between divided areas, which processing is used. You may go. For example, the setting may be made beforehand by the user using a setting menu or the like.

次に、クリエイティブモードにおいて制御部14が実行する処理の流れを、図8および図9に示すフローチャートを用いて説明する。なお、図8および図9に示す処理は、撮影モードがクリエイティブモードに設定されている間、繰り返し行われる。撮影モードがクリエイティブモードに切り替えられると、制御部14は、スルー画の表示処理を開始すると共に、不図示のメモリに記録された図8および図9に示す処理を行うプログラムを起動して、当該処理を開始する。   Next, the flow of processing executed by the control unit 14 in the creative mode will be described using the flowcharts shown in FIGS. 8 and 9. The processes shown in FIGS. 8 and 9 are repeated while the shooting mode is set to the creative mode. When the shooting mode is switched to the creative mode, the control unit 14 starts the processing for displaying the through image and starts the program for performing the processing shown in FIG. 8 and FIG. 9 recorded in the memory (not shown). Start processing

図8のステップS1において、領域分割部14dは、上述したように、撮像素子12から得られる撮像画像を所定数の領域に分割し、分割した領域のそれぞれにおいて、被写体の種類を判別する被写体判別処理を行って、ステップS2へ進む。   In step S1 of FIG. 8, as described above, the area division unit 14d divides the captured image obtained from the imaging device 12 into a predetermined number of areas, and determines the type of subject in each of the divided areas. After the process, the process proceeds to step S2.

ステップS2において、領域分割部14dは、ステップS1での被写体判別処理の結果、撮像画像内に複数種類の被写体が検出されたか否かを判定する。1種類の被写体しか検出されなかった(すなわち、判別された被写体の種類が分割領域の全てで同じだった)場合には、領域分割部14dは、ステップS2を否定判定してステップS13へ進む。一方、複数種類の被写体が検出された(すなわち、判別された被写体の種類が互いに異なる分割領域があった)場合には、領域分割部14dは、ステップS2を肯定判定してステップS3へ進む。   In step S2, the area division unit 14d determines whether or not a plurality of types of subjects have been detected in the captured image as a result of the subject determination process in step S1. If only one type of subject is detected (that is, the type of the determined subject is the same in all the divided areas), the area division unit 14d makes a negative decision in step S2 and proceeds to step S13. On the other hand, when a plurality of types of subjects are detected (that is, there are divided areas in which the types of the determined subjects are different from each other), the area division unit 14d makes an affirmative determination in step S2 and proceeds to step S3.

ステップS3において、領域分割部14dは、上述したように、撮像画像を被写体ごとの領域に分割する処理を行って、ステップS4へ進む。   In step S3, as described above, the area division unit 14d performs a process of dividing the captured image into areas for each subject, and proceeds to step S4.

ステップS4において、表示制御部14aは、ステップS3で分割された分割領域ごとに、それぞれの被写体の種類に応じた画像処理を設定するためのリング画像50を表示して、ステップS5へ進む。   In step S4, the display control unit 14a displays, for each of the divided areas divided in step S3, a ring image 50 for setting image processing according to the type of the subject, and the process proceeds to step S5.

ステップS5において、制御部14は、タッチパネル16bに対して、ステップS4で表示したリング画像50のカーソル52を移動するための操作(すなわちカーソル52に対するドラッグ操作)が行われたか否かを判定する。制御部14は、当該操作が行われた場合にはステップS6へ進み、当該操作が行われていない場合にはステップS7へ進む。   In step S5, the control unit 14 determines whether an operation for moving the cursor 52 of the ring image 50 displayed in step S4 (that is, a drag operation on the cursor 52) is performed on the touch panel 16b. The control unit 14 proceeds to step S6 when the operation is performed, and proceeds to step S7 when the operation is not performed.

ステップS6において、制御部14は、上述したように、分割領域ごとに、リング画像50のカーソル52の位置に応じて画像処理を行う。この処理の流れを、図10に示すフローチャートを用いて説明する。ステップS51において、表示制御部14aは、上記カーソル52に対するドラッグ操作に応じて、カーソル52の表示位置を移動させ、ステップS52へ進む。   In step S6, as described above, the control unit 14 performs image processing in accordance with the position of the cursor 52 of the ring image 50 for each divided area. The flow of this process will be described using the flowchart shown in FIG. In step S51, the display control unit 14a moves the display position of the cursor 52 in accordance with the drag operation on the cursor 52, and proceeds to step S52.

ステップS52において、パラメータ変更部14bは、ステップS51でのカーソル52の移動に応じて、上記ドラッグ操作が行われたリング画像50に対応する分割領域の画像処理パラメータを変更し、ステップS53へ進む。   In step S52, the parameter changing unit 14b changes the image processing parameter of the divided area corresponding to the ring image 50 on which the drag operation has been performed according to the movement of the cursor 52 in step S51, and the process proceeds to step S53.

ステップS53において、画像処理部14cは、撮像画像において、上記ドラッグ操作が行われたリング画像50に対応する分割領域に対して、ステップS52で変更された画像処理パラメータに基づいて画像処理を行い、ステップS54へ進む。   In step S53, the image processing unit 14c performs image processing on the divided area corresponding to the ring image 50 subjected to the drag operation in the captured image, based on the image processing parameter changed in step S52. The process proceeds to step S54.

ステップS54において、表示制御部14aは、ステップS53での画像処理後の撮像画像をスルー画として表示部17に表示し、図10に示す処理を終了して、図8のステップS7へ進む。   In step S54, the display control unit 14a causes the display unit 17 to display the captured image after the image processing in step S53 as a through image on the display unit 17, ends the process shown in FIG. 10, and proceeds to step S7 in FIG.

図8のステップS7において、制御部14は、タッチパネル16bに対して、ステップS4で表示したリング画像50を移動するための操作(すなわちリング画像50のリング51に対するドラッグ操作)が行われたか否かを判定する。制御部14は、当該操作が行われた場合にはステップS8へ進み、当該操作が行われていない場合にはステップS9へ進む。   In step S7 of FIG. 8, the control unit 14 determines whether or not an operation for moving the ring image 50 displayed in step S4 (that is, a drag operation on the ring 51 of the ring image 50) is performed on the touch panel 16b. Determine When the operation is performed, the control unit 14 proceeds to step S8, and when the operation is not performed, the control unit 14 proceeds to step S9.

ステップS8において、表示制御部14aは、上記リング51に対するドラッグ操作に応じて、リング画像50の表示位置を移動させて、ステップS9(図9)へ進む。   In step S8, the display control unit 14a moves the display position of the ring image 50 in accordance with the drag operation on the ring 51, and proceeds to step S9 (FIG. 9).

図9のステップS9において、制御部14は、ユーザにより撮影指示が行われたか(すなわちシャッターボタン16aが押下されたか)否かを判定する。制御部14は、撮影指示が行われた場合にはステップS10へ進み、撮影指示が行われていない場合にはステップS5へ戻る。すなわち、撮影指示が行われるまで、制御部14は、ステップS5〜S9の処理を繰り返す。   In step S9 in FIG. 9, the control unit 14 determines whether the user has issued a shooting instruction (that is, the shutter button 16a has been pressed). The control unit 14 proceeds to step S10 when the imaging instruction is issued, and returns to step S5 when the imaging instruction is not issued. That is, the control unit 14 repeats the processes of steps S5 to S9 until the photographing instruction is issued.

ステップS10において、表示制御部14aは、上記撮影指示の時点における各リング画像50間の距離をそれぞれ算出して、ステップS11へ進む。たとえば、図5(e)に示したように、「風景」用、「空」用、「人物」用の3つのリング画像50g,50s,50pを表示している場合は、「風景」用リング画像50gと「空」用リング画像50sとの間の距離、「空」用リング画像50sと「人物」用リング画像50pとの間の距離、「人物」用リング画像50pと「風景」用リング画像50gとの間の距離を、それぞれ算出する。   In step S10, the display control unit 14a calculates the distances between the ring images 50 at the time of the photographing instruction, and the process proceeds to step S11. For example, as shown in FIG. 5E, when three ring images 50g, 50s, and 50p for "landscape", "sky", and "person" are displayed, the ring for "landscape" is displayed. The distance between the image 50g and the "sky" ring image 50s, the distance between the "sky" ring image 50s and the "person" ring image 50p, the "person" ring image 50p and the "landscape" ring The distances to the image 50g are respectively calculated.

ステップS11において、画像処理部14cは、ステップS10で算出されたリング画像50同士の距離に応じて、これらのリング画像50に対応する分割領域同士の境目部分に対して行う画像処理の度合いを決定し、ステップS12へ進む。   In step S11, the image processing unit 14c determines the degree of image processing to be performed on the boundary between divided areas corresponding to the ring images 50 according to the distance between the ring images 50 calculated in step S10. And go to step S12.

ステップS12において、制御部14は、撮像素子12に記録用の撮像処理を行わせる。画像処理部14cは、当該撮像処理により得られた撮像画像データにおいて、上記撮影指示の時点で各分割領域において設定されていた画像処理パラメータに基づく画像処理を、各分割領域に対して行う。そして、制御部14は、当該画像処理が施された撮像画像データを、静止画データとして記録媒体18に記録し、図8および図9に示す処理を終了する。   In step S12, the control unit 14 causes the imaging device 12 to perform imaging processing for recording. The image processing unit 14 c performs image processing based on the image processing parameter set in each divided area at the time of the photographing instruction in the captured image data obtained by the imaging process on each divided area. Then, the control unit 14 records the captured image data subjected to the image processing in the recording medium 18 as still image data, and ends the processing illustrated in FIGS. 8 and 9.

一方、撮像画像において1種類の被写体しか検出されなかった場合にステップS2を否定判定して進むステップS13(図8)において、表示制御部14aは、当該検出された被写体の種類に応じた画像処理を設定するための1つのリング画像50を表示して、ステップS14へ進む。   On the other hand, when only one type of subject is detected in the captured image, the display control unit 14a performs image processing according to the type of the detected subject in step S13 (FIG. 8) that proceeds with a negative determination in step S2 Are displayed, and the process proceeds to step S14.

ステップS14において、制御部14は、タッチパネル16bに対して、ステップS13で表示したリング画像50のカーソル52を移動するための操作(すなわちカーソル52に対するドラッグ操作)が行われたか否かを判定する。制御部14は、当該操作が行われた場合にはステップS15へ進み、当該操作が行われていない場合にはステップS16へ進む。   In step S14, the control unit 14 determines whether an operation for moving the cursor 52 of the ring image 50 displayed in step S13 (that is, a drag operation on the cursor 52) is performed on the touch panel 16b. When the operation is performed, the control unit 14 proceeds to step S15. When the operation is not performed, the control unit 14 proceeds to step S16.

ステップS15において、制御部14は、撮像画像全体に対して、リング画像50のカーソル52の位置に応じて画像処理を行い、ステップS16へ進む。なお、この処理は、リング画像50が1つであり、撮像画像全体に対して一様に画像処理を行う点以外は、上記ステップS6の処理(図10に示した処理)と同じであるため、説明を省略する。   In step S15, the control unit 14 performs image processing on the entire captured image according to the position of the cursor 52 of the ring image 50, and the process proceeds to step S16. Note that this process is the same as the process of step S6 (the process shown in FIG. 10) except that the ring image 50 is one and image processing is uniformly performed on the entire captured image. , I omit the explanation.

ステップS16において、制御部14は、ユーザにより撮影指示が行われた(すなわちシャッターボタン16aが押下された)か否かを判定する。制御部14は、撮影指示が行われた場合にはステップS17へ進み、撮影指示が行われていない場合にはステップS14へ戻る。すなわち、撮影指示が行われるまで、制御部14は、ステップS14〜S16の処理を繰り返す。   In step S16, the control unit 14 determines whether the user has issued a shooting instruction (that is, the shutter button 16a has been pressed). The control unit 14 proceeds to step S17 when the imaging instruction is issued, and returns to step S14 when the imaging instruction is not issued. That is, the control unit 14 repeats the processes of steps S14 to S16 until the photographing instruction is issued.

ステップS17において、制御部14は、撮像素子12に記録用の撮像処理を行わせる。画像処理部14cは、当該撮像処理により得られた撮像画像データに対して、上記撮影指示の時点で設定されていた画像処理パラメータに基づく画像処理を行う。そして、制御部14は、当該画像処理が施された撮像画像データを、静止画データとして記録媒体18に記録し、図8および図9に示す処理を終了する。   In step S17, the control unit 14 causes the imaging element 12 to perform an imaging process for recording. The image processing unit 14 c performs image processing on the captured image data obtained by the imaging processing based on the image processing parameter set at the time of the imaging instruction. Then, the control unit 14 records the captured image data subjected to the image processing in the recording medium 18 as still image data, and ends the processing illustrated in FIGS. 8 and 9.

以上説明した実施の形態によれば、次の作用効果が得られる。
(1)デジタルカメラ1において、領域分割部14dは、撮像素子12により撮像された撮像画像を、被写体の種類に応じた複数の領域(たとえば、「風景」の分割領域80g、「空」の分割領域80s、「人物」の分割領域80p)分割する。表示制御部14aは、分割領域ごとに、その分割領域に含まれる被写体の種類に応じた画像処理に係る画像処理パラメータを変更するためのリング画像50(たとえば、「風景」用のリング画像50g、「空」用のリング画像50s、「人物」用のリング画像50p)を表示する。パラメータ変更部14bは、リング画像50に対するユーザ操作(カーソル52に対するドラッグ操作)に応じて、当該ユーザ操作が行われたリング画像50に対応する画像処理パラメータを変更する。画像処理部14cは、当該ユーザ操作が行われたリング画像50に対応する分割領域に対して、パラメータ変更部14bにより変更された画像処理パラメータに基づいて画像処理を施す。これにより、デジタルカメラ1は、被写体ごとに分割した分割領域ごとに、その分割領域に含まれる被写体に応じた画像処理を行うことができる。したがって、デジタルカメラ1は、撮像画像の中に複数の被写体が存在する場合にも、各被写体に対して適切な画像処理を行うことができる。
According to the embodiment described above, the following effects can be obtained.
(1) In the digital camera 1, the area dividing unit 14d divides the captured image captured by the imaging element 12 into a plurality of areas (for example, the “landscape” divided area 80g, “sky” divided according to the type of subject) Region 80s, divided region 80p of "person" is divided. The display control unit 14a controls, for each divided area, a ring image 50 (for example, a ring image 50g for “landscape”, for changing image processing parameters related to image processing according to the type of subject included in the divided area). The ring image 50s for "sky" and the ring image 50p for "person" are displayed. The parameter changing unit 14 b changes an image processing parameter corresponding to the ring image 50 on which the user operation has been performed, in accordance with the user operation on the ring image 50 (drag operation on the cursor 52). The image processing unit 14 c performs image processing on the divided area corresponding to the ring image 50 on which the user operation has been performed, based on the image processing parameter changed by the parameter changing unit 14 b. Thereby, the digital camera 1 can perform image processing according to the subject included in the divided area for each divided area divided for each subject. Therefore, the digital camera 1 can perform appropriate image processing on each subject even when a plurality of subjects are present in the captured image.

(2)デジタルカメラ1において、表示制御部14aは、リング画像50のリング51に対するドラッグ操作に応じて、リング画像50の表示位置を変更する。画像処理部14cは、2つの分割領域同士の境目部分に対して、これら2つの分割領域に対応する2つのリング画像50同士の表示位置の間の距離に応じた画像処理を行う。これにより、ユーザは、リング画像50の表示位置を動かして2つのリング画像50間の距離を変えることで、これら2つのリング画像50に対応する2つの分割領域同士の境目部分に対して施す画像処理の度合いを調節することができる。 (2) In the digital camera 1, the display control unit 14 a changes the display position of the ring image 50 in response to a drag operation on the ring 51 of the ring image 50. The image processing unit 14 c performs image processing according to the distance between the display positions of the two ring images 50 corresponding to the two divided areas on the boundary between the two divided areas. Thus, the user moves the display position of the ring image 50 to change the distance between the two ring images 50, thereby applying an image to the boundary between two divided areas corresponding to the two ring images 50. The degree of treatment can be adjusted.

(3)デジタルカメラ1において、リング画像50では、これに対応する分割領域に含まれる被写体に応じた第1画像処理〜第4画像処理のうち1つまたは2つの画像処理を当該分割領域に施す画像処理として設定可能であり、且つ2つの画像処理を設定する場合はその比率を設定可能である。これにより、デジタルカメラ1は、ユーザに、被写体に適した複数の画像処理の中から所望の画像処理を選択させることができる。 (3) In the digital camera 1, in the ring image 50, one or two of the first image processing to the fourth image processing according to the subject included in the divided area corresponding to the ring image 50 is applied to the divided area It can be set as image processing, and when setting two image processing, the ratio can be set. Thereby, the digital camera 1 can allow the user to select desired image processing from among a plurality of image processing suitable for the subject.

(4)デジタルカメラ1において、画像処理パラメータを変更するためのリング画像50を、リング51と、リング51上における複数の位置(第1位置〜第65位置)の中から選択される選択位置を示すカーソル52とを表示する画像とした。またパラメータ変更部14bは、上記選択位置(カーソル52の位置)がユーザ操作に応じて変更されることにより、当該ユーザ操作が行われたリング画像50に対応する画像処理パラメータを変更するようにした。これにより、カーソル52がリング51に沿って1回転分移動すると、元画像から第1画像処理、第2画像処理、第3画像処理、第4画像処理を経て第1画像処理に戻り、元画像に戻るという画像処理の変化がユーザにとって直観的にわかりやすい。 (4) In the digital camera 1, the ring image 50 for changing the image processing parameter is selected from the ring 51 and the selected position selected from the plurality of positions (first position to 65th position) on the ring 51. It is set as the image which displays the cursor 52 shown. The parameter changing unit 14 b changes the image processing parameter corresponding to the ring image 50 on which the user operation has been performed by changing the selected position (the position of the cursor 52) in accordance with the user operation. . Thereby, when the cursor 52 moves by one rotation along the ring 51, the original image is subjected to the first image processing, the second image processing, the third image processing, the fourth image processing, and then returns to the first image processing. It is intuitively easy for the user to change the image processing to return to.

(5)デジタルカメラ1において、表示制御部14aは、リング画像50の近傍に、これに対応する分割領域に含まれる被写体の種類を示すアイコンを表示するようにした。これにより、リング画像50がどの被写体の領域に対応するのかをわかりやすくすることができる。 (5) In the digital camera 1, the display control unit 14a displays, near the ring image 50, an icon indicating the type of the subject included in the corresponding divided area. This makes it easy to understand which subject area the ring image 50 corresponds to.

(変形例1)
上述した実施の形態において、あるリング画像50の表示位置が移動されて、別のリング画像50の表示位置に重ねられた場合、これらのリング画像50に対応する2つの分割領域同士を合わせて1つの分割領域とみなすようにしてもよい。たとえば、「風景」用のリング画像50gが移動されて「空」用のリング画像50sに重ねられた場合、これらのリング画像50を非表示にして、「空」と「風景」共用のリング画像50を新たに表示する。「空」と「風景」共用のリング画像50に設定される第1〜第4画像処理は、たとえば、移動された方のリング画像(ここでは「風景」用のリング画像)50に設定されていた第1〜第4画像処理とする。パラメータ変更部14bは、「空」の分割領域80sと「風景」の分割領域80gとを合わせて1つの分割領域とみなし、この1つの分割領域に対して施す画像処理の画像処理パラメータを、「空」と「風景」共用のリング画像50のカーソル52の位置に応じて設定する。
(Modification 1)
In the embodiment described above, when the display position of a ring image 50 is moved and superimposed on the display position of another ring image 50, two divided areas corresponding to these ring images 50 are combined together 1 It may be regarded as one divided area. For example, when the ring image 50g for "landscape" is moved and superimposed on the ring image 50s for "sky", these ring images 50 are hidden and the ring image shared by "sky" and "landscape" is displayed. Display 50 anew. The first to fourth image processing set to the ring image 50 common to "sky" and "scenery" is set to, for example, the ring image of the moved one (here, the ring image for "scenery") 50 The first to fourth image processing is performed. The parameter changing unit 14 b regards the “sky” divided area 80 s and the “landscape” divided area 80 g as one combined area, and the image processing parameter of the image processing to be applied to this one divided area is “ It sets according to the position of the cursor 52 of the ring image 50 of "sky" and "scenery" common use.

また、制御部14は、この「空」と「風景」共用のリング画像50に対して、ピンチアウト操作(たとえば2本の指をタッチし、これらの指の間隔を広げる操作)が行われた場合には、元の状態(すなわち、「風景」用のリング画像50gと「空」用のリング画像50sとが別々に表示され、「空」の分割領域80sと「風景」の分割領域80gとが分かれている状態)に戻すようにしてもよい。   Further, the control unit 14 performs a pinch-out operation (for example, an operation of touching two fingers and widening the distance between the “sky” and “landscape” shared ring image 50). In the case, the ring image 50g for the "scenery" and the ring image 50s for the "sky" are displayed separately, and the "sky" split area 80s and the "landscape" split area 80g are displayed separately. May be restored).

(変形例2)
上述した実施の形態では、リング画像50によって変更できる画像処理パラメータが、第1画像処理〜第4画像処理のうち、どの画像処理をどのくらいの比率で行うかを示すパラメータである例について説明した。しかしながら、リング画像50によって変更できる画像処理パラメータは、この他のパラメータであってもよい。
(Modification 2)
In the embodiment described above, an example has been described in which the image processing parameter that can be changed by the ring image 50 is a parameter indicating which image processing is to be performed at what ratio among the first to fourth image processing. However, the image processing parameters that can be changed by the ring image 50 may be other parameters.

たとえば、リング画像50によって変更できる画像処理パラメータが、ある1つの画像処理の強度であるようにしてもよい。この場合、被写体の種類ごとに、画像処理が1つのみ設定されるとする。たとえば、被写体「人物」に対して「ハイキー」のみが設定される場合、パラメータ変更部14bは、「人物」用のリング画像50pにおけるカーソル52の位置に応じて、「人物」の分割領域80pに施す「ハイキー」の強度を設定する。   For example, the image processing parameter that can be changed by the ring image 50 may be the intensity of one image processing. In this case, it is assumed that only one image processing is set for each type of subject. For example, when only the "high key" is set for the subject "person", the parameter changing unit 14b sets the divided area 80p of the "person" according to the position of the cursor 52 in the ring image 50p for "person". Set the strength of the "high key" to be applied.

また、たとえば、リング画像50によって変更できる画像処理パラメータが、複数の画像処理のうちどの画像処理を行うかのみを示すパラメータであってもよい。たとえば、「人物」用のリング画像50に対して8種類の画像処理が設定されているとする。この場合、パラメータ変更部14bは、「人物」用のリング画像50p上のカーソル52の位置に応じて、上記8種類の画像処理の中から「人物」の分割領域80pに施す画像処理を選択する。   Further, for example, the image processing parameter that can be changed by the ring image 50 may be a parameter indicating only which image processing is to be performed among a plurality of image processing. For example, it is assumed that eight types of image processing are set for the ring image 50 for “person”. In this case, the parameter changing unit 14b selects the image processing to be applied to the divided area 80p of the “person” from the eight types of image processing according to the position of the cursor 52 on the ring image 50p for “person”. .

(変形例3)
上述した実施の形態では、撮影指示が行われると、リング画像50同士の表示位置の距離をそれぞれ算出し、これらのリング画像50に対応する分割領域同士の境目部分に対して行う画像処理の度合いを決定する例について説明した。しかしながら、リング画像50の表示位置が変更される度に、リング画像50同士の表示位置の距離をそれぞれ算出し、算出した距離に応じてこれらのリング画像50に対応する分割領域同士の境目部分に対して行う画像処理の度合いを決定し、決定した度合いに応じた画像処理を当該境目部分に対して行うようにしてもよい。
(Modification 3)
In the embodiment described above, when a photographing instruction is issued, the distance between the display positions of the ring images 50 is calculated, and the degree of image processing performed on the boundary between divided areas corresponding to the ring images 50. An example of determining However, whenever the display position of the ring image 50 is changed, the distance between the display positions of the ring images 50 is calculated, and the boundary portion between the divided areas corresponding to the ring images 50 is calculated according to the calculated distance. The degree of image processing to be performed may be determined, and the image processing corresponding to the determined degree may be performed on the boundary portion.

(変形例4)
上述した実施の形態では、領域分割部14dが撮像画像を被写体ごとの領域に分割する例について説明したが、撮像画像を複数の領域に分割する方法はこれに限らなくてもよい。たとえば、AF(Auto Focus)処理によって検出される被写体距離(デジタルカメラ1から被写体までの距離)に基づいて撮像画像を複数の領域に分割してもよい。また、たとえば、ユーザがタッチパネル16bを介して分割したい領域の輪郭線を入力できるようにし、当該入力された輪郭線に基づいて撮像画像を複数の領域に分割してもよい。
(Modification 4)
In the embodiment described above, an example in which the area division unit 14d divides the captured image into areas for each subject has been described, but the method of dividing the captured image into a plurality of areas is not limited to this. For example, the captured image may be divided into a plurality of areas based on the subject distance (the distance from the digital camera 1 to the subject) detected by AF (Auto Focus) processing. Alternatively, for example, the user may input the outline of the area to be divided through the touch panel 16b, and the captured image may be divided into a plurality of areas based on the input outline.

(変形例5)
上述した実施の形態では、リング画像50において、4種類の画像処理(第1画像処理〜第4画像処理)の中から1つまたは2つの画像処理を選択可能とする例について説明した。しかしながら、リング画像50において選択可能とする画像処理の選択肢の数はこれに限らなくてよく、2種類または3種類であってもよいし、5種類以上であってもよい。
(Modification 5)
In the embodiment described above, an example in which one or two image processings can be selected from the four types of image processing (first to fourth image processing) in the ring image 50 has been described. However, the number of image processing options to be selectable in the ring image 50 is not limited to this, and may be two or three, or five or more.

(変形例6)
上述した実施の形態では、カーソル52の表示位置を移動させることによりリング51上におけるカーソル52の位置(選択位置)を変更する例について説明した。しかしながら、カーソル52を動かさずにリング51を回転させて、リング51上の各位置とカーソル52との相対位置を変更することで、選択位置を変更するようにしてもよい。
(Modification 6)
In the embodiment described above, an example in which the position (selected position) of the cursor 52 on the ring 51 is changed by moving the display position of the cursor 52 has been described. However, the selected position may be changed by rotating the ring 51 without moving the cursor 52 and changing the relative position between each position on the ring 51 and the cursor 52.

(変形例7)
上述した実施の形態では、選択位置を示すマークとしてカーソル52を表示する例について説明した。しかしながら、選択位置を示すマークはカーソル52に限らなくてもよく、たとえば、アイコンなどであってもよい。またたとえば、リング画像50の目盛の色を変えたり点滅させたりすることで、選択位置を示すマークとして機能させるようにしてもよい。
(Modification 7)
In the embodiment described above, the example in which the cursor 52 is displayed as a mark indicating the selected position has been described. However, the mark indicating the selected position is not limited to the cursor 52, and may be, for example, an icon. Further, for example, the color of the scale of the ring image 50 may be changed or blinked to function as a mark indicating the selected position.

(変形例8)
上述した実施の形態では、画像処理パラメータを変更可能とするパラメータ変更情報として、リング画像50を表示する例について説明した。しかしながら、パラメータ変更情報は、リングを表示する画像に限らなくてもよく、たとえば、バーやアイコンを表示する画像や、テキスト情報などであってもよい。
(Modification 8)
In the embodiment described above, an example in which the ring image 50 is displayed as parameter change information that enables change of an image processing parameter has been described. However, the parameter change information need not be limited to the image for displaying the ring, and may be, for example, an image for displaying a bar or an icon, or text information.

(変形例9)
上述した実施の形態では、デジタルカメラ1の制御部14が不図示のメモリに記録されたプログラムを実行することで、上述した図8〜図10の処理を行う例について説明した。このプログラムは、製品出荷時に予め記録されていてもよいし、製品出荷後、メモリカードなどの記録媒体やインターネットなどのデータ信号を通じて提供されてもよい。図11はその様子を示す図である。デジタルカメラ1は、メモリカードなどの記録媒体18を介してプログラムの提供を受ける。また、デジタルカメラ1は通信回線101との接続機能を有する。コンピュータ102は上記プログラムを提供するサーバコンピュータであり、ハードディスク103などの記録媒体にプログラムを格納する。通信回線101は、インターネット、パソコン通信などの通信回線、あるいは専用通信回線などである。コンピュータ102はハードディスク103を使用してプログラムを読み出し、通信回線101を介してプログラムをデジタルカメラ1に送信する。すなわち、プログラムをデータ信号として搬送波を介して、通信回線101を介して送信する。このように、プログラムは、記録媒体やデータ信号(搬送波)などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給できる。
(Modification 9)
In the above-described embodiment, the control unit 14 of the digital camera 1 executes the program stored in the memory (not shown) to perform the processes in FIGS. 8 to 10 described above. This program may be recorded in advance at the time of product shipment, or may be provided via a recording medium such as a memory card or a data signal such as the Internet after product shipment. FIG. 11 shows the situation. The digital camera 1 receives provision of a program via a recording medium 18 such as a memory card. The digital camera 1 also has a connection function with the communication line 101. The computer 102 is a server computer that provides the above program, and stores the program in a recording medium such as the hard disk 103. The communication line 101 is a communication line such as the Internet, personal computer communication, or a dedicated communication line. The computer 102 reads the program using the hard disk 103, and transmits the program to the digital camera 1 via the communication line 101. That is, the program is transmitted as a data signal via the communication line 101 via a carrier wave. Thus, the program can be supplied as various forms of computer readable computer program products such as a recording medium and a data signal (carrier wave).

(変形例10)
上述した実施の形態では、デジタルカメラに本発明を適用する例について説明したが、これに限らなくてよく、この他の撮像装置(たとえばカメラ付き携帯端末など、撮像手段を有する電子機器)に本発明を適用するようにしてもよい。
(Modification 10)
Although the embodiment described above describes an example in which the present invention is applied to a digital camera, the present invention is not limited to this, and other imaging devices (for example, electronic devices having an imaging unit such as a mobile terminal with a camera) may be used. The invention may be applied.

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。   Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments considered within the scope of the technical idea of the present invention are also included within the scope of the present invention.

1…デジタルカメラ、11…撮像光学系、12…撮像素子、14…制御部、14a…表示制御部、14b…パラメータ変更部、14c…画像処理部、14d…領域分割部、16…操作部材、17…表示部、18…記録媒体 Reference Signs List 1 digital camera 11 imaging optical system 12 imaging element 14 control unit 14a display control unit 14b parameter change unit 14c image processing unit 14d area division unit 16 operation member 17 ... display unit, 18 ... recording medium

Claims (9)

画像を表示する表示部と、
前記表示部に表示された画像中の第1の部分画像に対して設定された複数の第1の画像処理のうち少なくとも2つの画像処理を施す比率に関する第1のパラメータを変更する第1の操作用画像を前記表示部に表示し、前記表示部に表示された画像中の第2の部分画像に対して設定された複数の第2の画像処理のうち少なくとも2つの画像処理を施す比率に関する第2のパラメータを変更する第2の操作用画像を前記表示部に表示する表示制御部と、
前記第1の操作用画像に対する操作により前記第1のパラメータを変更し、前記第2の操作用画像に対する操作により前記第2のパラメータを変更する制御を行う制御部と、
前記第1の部分画像に対して前記第1のパラメータに基づいて画像処理を行い、前記第2の部分画像に対して前記第2のパラメータに基づいて画像処理を行う画像処理部と、
を備える電子機器。
A display unit for displaying an image;
First operation of changing the first parameter relating the ratio to perform at least two image processing of the first partial image of the plurality of set for the first image processing in the image displayed on the display unit displays use image on the display unit, the related proportions of applying at least two image processing among the plurality of second image processing set for the second partial image in the image displayed on the display unit A display control unit for displaying on the display unit a second operation image for changing the parameter of 2;
A control unit for controlling said response to the operation on the first operation image changes the first parameter, to change the second parameter in response to the operation on the second operating image,
Said performing image processing based on the first parameter relative to the first partial image, the image processing unit which performs image processing based on the second parameter to the second partial image,
An electronic device comprising the
画像を表示する表示部と、A display unit for displaying an image;
前記表示部に表示された画像中の第1の部分画像に対する複数の第1の画像処理に関する第1のパラメータを変更する第1の操作用画像を前記表示部に表示し、前記表示部に表示された画像中の第2の部分画像に対する複数の第2の画像処理に関する第2のパラメータを変更する第2の操作用画像を前記表示部に表示する表示制御部と、A first operation image for changing a first parameter related to a plurality of first image processing on a first partial image in the image displayed on the display unit is displayed on the display unit, and displayed on the display unit A display control unit for displaying on the display unit a second operation image for changing a second parameter related to a plurality of second image processing on a second partial image in the selected image;
前記第1の操作用画像に対する操作により前記第1のパラメータを変更し、前記第2の操作用画像に対する操作により前記第2のパラメータを変更する制御を行う制御部と、A control unit configured to change the first parameter by the operation on the first operation image, and change the second parameter by the operation on the second operation image;
前記第1の部分画像に対して前記第1のパラメータに基づいて画像処理を行い、前記第2の部分画像に対して前記第2のパラメータに基づいて画像処理を行い、前記第1の部分画像と前記第2の部分画像との境目部分に対して前記第1の操作用画像の表示位置と前記第2の操作用画像の表示位置との間の距離に応じた画像処理を行う画像処理部と、Image processing is performed on the first partial image based on the first parameter, image processing is performed on the second partial image based on the second parameter, and the first partial image is processed. Image processing unit that performs image processing according to the distance between the display position of the first operation image and the display position of the second operation image with respect to the boundary between the first partial image and the second partial image When,
を備える電子機器。An electronic device comprising the
請求項1または2に記載の電子機器において、
前記表示制御部は、前記複数の第1の画像処理の少なくとも一つの画像処理を、前記複数の第2の画像処理と異なる画像処理に設定する電子機器。
In the electronic device according to claim 1 or 2 ,
The display control unit is an electronic device that sets at least one image processing of the plurality of first image processing to an image processing different from the plurality of second image processing.
請求項1から3のいずれか一項に記載の電子機器において、
前記表示制御部は、前記第1の操作用画像に対する操作により前記第1の操作用画像の表示位置を変更し、前記第2の操作用画像に対する操作により前記第2の操作用画像の表示位置を変更する電子機器。
The electronic device according to any one of claims 1 to 3 .
The display control unit changes the display position of the first operation image by the operation on the first operation image, and the display position of the second operation image by the operation on the second operation image. Change electronic equipment.
請求項1からのいずれか一項に記載の電子機器において、
前記表示制御部は、前記第1の部分画像に含まれる第1の被写体像の種類を示す情報を前記第1の操作用画像の近傍に表示し、前記第2の部分画像に含まれる第2の被写体像の種類を示す情報を前記第2の操作用画像の近傍に表示する電子機器。
The electronic device according to any one of claims 1 to 4 .
The display control unit displays information indicating the type of the first subject image included in the first partial image in the vicinity of the first operation image, and the second control unit includes the second information included in the second partial image. The electronic device which displays the information which shows the kind of to-be-photographed object image in the vicinity of the said 2nd image for operation.
請求項1からのいずれか一項に記載の電子機器において、
前記第1の操作用画像は、環状の第1画像と、前記第1画像上における複数の位置の中から選択された位置を示すマークとを表示する第1環状画像であり、
前記第2の操作用画像は、環状の第2画像と、前記第2画像上における複数の位置の中から選択された位置を示すマークとを表示する第2環状画像であり、
前記制御部は、前記第1環状画像における前記選択された位置が操作によって変更されることにより前記第1のパラメータを変更し、前記第2環状画像における前記選択された位置が操作によって変更されることにより前記第2のパラメータを変更する制御を行う電子機器。
The electronic device according to any one of claims 1 to 5 .
The first operation image is a first annular image that displays an annular first image and a mark indicating a position selected from a plurality of positions on the first image,
The second operation image is a second annular image that displays an annular second image and a mark indicating a position selected from a plurality of positions on the second image,
The control unit changes the first parameter by changing the selected position in the first ring image by an operation, and the selected position in the second ring image is changed by the operation The electronic device which performs control which changes the said 2nd parameter by this.
表示部に画像を表示する第1表示工程と、
前記表示部に表示された画像中の第1の部分画像に対して設定された複数の第1の画像処理のうち少なくとも2つの画像処理を前記第1の部分画像に施す比率を変更する第1の操作用画像を前記表示部に表示し、前記表示部に表示された画像中の第2の部分画像に対して設定された複数の第2の画像処理のうち少なくとも2つの画像処理を前記第2の部分画像に施す比率を変更する第2の操作用画像を前記表示部に表示する第2表示工程と、
前記第1の操作用画像に対する操作により第1のパラメータを変更し、前記第2の操作用画像に対する操作により第2のパラメータを変更する変更工程と、
前記第1の部分画像に対して前記第1のパラメータに基づいて画像処理を行い、前記第2の部分画像に対して前記第2のパラメータに基づいて画像処理を行う画像処理工程と、
を有する画像処理方法。
A first display step of displaying an image on a display unit;
First varying the ratio of applying at least two image processing of the first plurality of first image processing set for the partial image in the image displayed on the display unit in the first partial image of the operation image displayed on the display unit, the at least two image processing of the second plurality of second image processing set for the partial image in the image displayed on the display unit first A second display step of displaying a second operation image for changing a ratio to be applied to the partial image of 2 on the display unit;
A changing step of the first changes the first parameter Ri by the operation on the operation image, changing the second parameter Ri by the operation with respect to the second operating image,
An image processing step of performing image processing based on the second parameter to the performing image processing based on the first parameter relative to the first partial image, the second partial image,
An image processing method having:
表示部に画像を表示する第1表示工程と、
前記表示部に表示された画像中の第1の部分画像に対する複数の第1のパラメータを変更する第1の操作用画像を前記表示部に表示し、前記表示部に表示された画像中の第2の部分画像に対する複数の第2のパラメータを変更する第2の操作用画像を前記表示部に表示する第2表示工程と、
前記第1の操作用画像に対する操作により前記第1のパラメータを変更し、前記第2の操作用画像に対する操作により前記第2のパラメータを変更する変更工程と、
前記第1の部分画像に対して前記第1のパラメータに基づいて画像処理を行い、前記第2の部分画像に対して前記第2のパラメータに基づいて画像処理を行い、前記第1の部分画像と前記第2の部分画像との境目部分に対して前記第1の操作用画像の表示位置と前記第2の操作用画像の表示位置との間の距離に応じた画像処理を行う画像処理工程と、
を有する画像処理方法。
A first display step of displaying an image on a display unit;
A first operation image for changing a plurality of first parameters for a first partial image in the image displayed on the display unit is displayed on the display unit, and the first operation image displayed on the display unit is displayed on the display unit. A second display step of displaying on the display unit a second operation image for changing a plurality of second parameters for the two partial images ;
A changing step of changing the first parameter by the operation on the first operation image, and changing the second parameter by the operation on the second operation image;
Image processing is performed on the first partial image based on the first parameter, image processing is performed on the second partial image based on the second parameter, and the first partial image is processed. Image processing step of performing image processing according to the distance between the display position of the first operation image and the display position of the second operation image with respect to the boundary portion between the second partial image and the second partial image When,
An image processing method having:
請求項7または8に記載の画像処理方法をコンピュータに実行させる画像処理プログラム。 An image processing program that causes a computer to execute the image processing method according to claim 7 or 8.
JP2017245437A 2017-12-21 2017-12-21 Electronic device, image processing method, and image processing program Active JP6504240B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017245437A JP6504240B2 (en) 2017-12-21 2017-12-21 Electronic device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017245437A JP6504240B2 (en) 2017-12-21 2017-12-21 Electronic device, image processing method, and image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013245023A Division JP6263986B2 (en) 2013-11-27 2013-11-27 Electronic device, image processing method, and image processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019063715A Division JP2019149805A (en) 2019-03-28 2019-03-28 Electronic apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2018057038A JP2018057038A (en) 2018-04-05
JP6504240B2 true JP6504240B2 (en) 2019-04-24

Family

ID=61833126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017245437A Active JP6504240B2 (en) 2017-12-21 2017-12-21 Electronic device, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6504240B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4307301B2 (en) * 2003-07-31 2009-08-05 キヤノン株式会社 Image processing apparatus and method
JP2005275977A (en) * 2004-03-25 2005-10-06 Fuji Photo Film Co Ltd Image display method, image display device, and image display program
JP2008282204A (en) * 2007-05-10 2008-11-20 Seiko Epson Corp Image processor and image processing method
JP2010211497A (en) * 2009-03-10 2010-09-24 Nikon Corp Digital camera and image processing program
JP5695335B2 (en) * 2009-05-22 2015-04-01 オリンパスイメージング株式会社 Imaging condition control device, camera, image quality control device, and program
JP5464083B2 (en) * 2010-07-07 2014-04-09 ソニー株式会社 Information processing apparatus, information processing method, and program
JP5769516B2 (en) * 2011-06-27 2015-08-26 キヤノン株式会社 Image processing apparatus and control method thereof
JP5677496B2 (en) * 2013-04-03 2015-02-25 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2018057038A (en) 2018-04-05

Similar Documents

Publication Publication Date Title
WO2015030126A1 (en) Image processing device and image processing program
JP6512810B2 (en) Image pickup apparatus, control method and program
JP2013219556A (en) Imaging apparatus
JP2014023083A (en) Display device, imaging device, and image editing program
JPWO2015049899A1 (en) Image display device and image display method
JP2007236008A (en) Camera with image display
JP7418104B2 (en) Image processing device and method of controlling the image processing device
JP2010130069A (en) Digital camera, image processor, and image processing program
JP7195790B2 (en) Imaging device and its control method
JP6263986B2 (en) Electronic device, image processing method, and image processing program
JP6104077B2 (en) Photographing equipment and photographing method
JP2017143354A (en) Image processing apparatus and image processing method
JP2017005626A (en) Image effect processing support device, image effect processing support method, and image effect processing support program
US11064135B2 (en) Image capturing apparatus, control method for image capturing apparatus, and control program for image capturing apparatus
JP6504240B2 (en) Electronic device, image processing method, and image processing program
JP2011193066A (en) Image sensing device
JP2019149805A (en) Electronic apparatus and image processing method
KR20130024021A (en) Digital photographing apparatus and control method thereof
US20200137284A1 (en) Image capturing apparatus, control method for image capturing apparatus, and control program for image capturing apparatus
JP2018148420A (en) Image processing device and image processing method
JP2018207531A (en) Image processing apparatus, imaging device, and image processing program
JP2013017068A (en) Image reproducer, image reproduction method and image reproduction program
JP2012039204A (en) Electronic camera
JP2017069673A (en) Imaging apparatus, imaging method, and imaging program
JP5921646B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181026

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190311

R150 Certificate of patent or registration of utility model

Ref document number: 6504240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250