JP6602679B2 - Image display device, image display method, and image display program - Google Patents

Image display device, image display method, and image display program Download PDF

Info

Publication number
JP6602679B2
JP6602679B2 JP2016012721A JP2016012721A JP6602679B2 JP 6602679 B2 JP6602679 B2 JP 6602679B2 JP 2016012721 A JP2016012721 A JP 2016012721A JP 2016012721 A JP2016012721 A JP 2016012721A JP 6602679 B2 JP6602679 B2 JP 6602679B2
Authority
JP
Japan
Prior art keywords
image
display
processing
unit
effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016012721A
Other languages
Japanese (ja)
Other versions
JP2017135511A (en
Inventor
敏 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2016012721A priority Critical patent/JP6602679B2/en
Publication of JP2017135511A publication Critical patent/JP2017135511A/en
Application granted granted Critical
Publication of JP6602679B2 publication Critical patent/JP6602679B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、撮像装置のビューファインダとして好適な画像表示装置、画像表示方法及び画像表示プログラムに関する。   The present invention relates to an image display device, an image display method, and an image display program suitable as a viewfinder of an imaging device.

近年、デジタルカメラなどの撮影機能付き携帯機器(撮影機器)が普及している。この種の撮影機器においては表示部を有して、撮影画像を表示する機能を有するものもある。また、表示部にメニュー画面を表示して、撮影機器の操作を容易にしたものもある。ユーザは撮影時に、この表示部に表示されたスルー画を確認しながら撮影、観察操作をすることも可能である。このような表示部は、携帯機器本体の背面に設けられることが多く、ユーザは撮影時に、背面の表示部に表示されたスルー画を確認しながら撮影操作をすることも可能である。   In recent years, portable devices with a photographing function (photographing devices) such as digital cameras have become widespread. Some types of photographing apparatuses have a display unit and a function of displaying a photographed image. Some display screens display a menu screen to facilitate operation of the photographing device. At the time of shooting, the user can perform shooting and observation operations while confirming the through image displayed on the display unit. Such a display unit is often provided on the back surface of the mobile device body, and the user can also perform a shooting operation while confirming a through image displayed on the display unit on the back side during shooting.

また、撮影機器においては、例えば撮影機器本体の上面にビューファインダ(接眼部)が設けられることもある。一眼デジタルカメラ、デジタルビデオカメラなどにおいては、画像の構図や撮影のタイミングを確認するためにビューファインダが設けられており、ビューファインダを覗きながら撮影するユーザも少なくない。特に周りが明るく、背面の表示部の視認性が悪化している場合には、ビューファインダを覗いての撮影が有効である。また、特に大型のレンズが装着された場合等、安定した構えでカメラを支持しながら撮影を行う場合も、ビューファインダを覗きながら撮影した方が有利であることが多い。   Further, in a photographing device, for example, a viewfinder (eyepiece) may be provided on the upper surface of the photographing device main body. In a single-lens digital camera, a digital video camera, and the like, a viewfinder is provided in order to check the composition of an image and the timing of shooting, and there are many users who take pictures while looking through the viewfinder. In particular, when the surroundings are bright and the visibility of the display unit on the back surface is deteriorated, photographing through the viewfinder is effective. Also, when taking a picture while supporting the camera in a stable posture, particularly when a large lens is attached, it is often advantageous to take a picture while looking through the viewfinder.

ところで、撮像画像に例えば、色合いの変化や明るさの調整等、所定の効果処理を施して撮影を行いたい場合がある。通常、背面液晶パネルにはこのような効果処理後の画像の表示が可能であり、ユーザはスルー画によって所定の効果が施された画像を確認することができる。   By the way, there is a case where it is desired to perform photographing on a captured image by performing predetermined effect processing such as change in hue and adjustment of brightness. Normally, an image after such effect processing can be displayed on the rear liquid crystal panel, and the user can confirm an image on which a predetermined effect has been applied by a through image.

なお、特許文献1においては、ライブビューの表示モードが静止画の露出をシミュレーションする表示モードである場合において、露出補正量の制限に伴い露出のシミュレーションができていないことをユーザに報知する技術が開示されている。   In Patent Document 1, when the live view display mode is a display mode for simulating exposure of a still image, there is a technique for notifying the user that the exposure cannot be simulated due to the limitation of the exposure correction amount. It is disclosed.

特開2011−49642号公報     JP 2011-49642 A

しかしながら、背面液晶パネルでは、光の具合によってライブビュー表示が見にくい場合があり、また、ビューファインダから目を離さずに撮影を行いたいユーザもいる。このような場合を考慮すると、ビューファインダとしてLCD等を用いた電子ビューファインダ(以下、EVFともいう)を用いた方がよく、EVFによって所定の効果処理を施した画像をライブビュー表示によって確認することが可能である。ところが、レンズを介して入射する被写体の光学像を直接見る光学ビューファインダ(以下、OVFともいう)によって、撮影される画像を確認したいと考えるユーザもいる。このようなOVFを採用するユーザにとっては、所定の効果処理を施す撮影を行う場合でも、ビューファインダから目を背面液晶パネルに移さない限り、事前に所定の効果処理による画像効果を撮影前に確認することはできない。例えば、撮影直前の画像をビューファインダによって確認したいユーザにとっては、シャッタチャンスを考慮すると、ビューファインダから背面液晶パネルに目を移すことができず、所定の効果処理の効果については具体的な確認は困難であった。   However, on the rear liquid crystal panel, live view display may be difficult to see depending on the light condition, and there are also users who want to take a picture without taking their eyes off the viewfinder. In consideration of such a case, it is better to use an electronic viewfinder (hereinafter also referred to as EVF) using an LCD or the like as a viewfinder, and an image subjected to predetermined effect processing by the EVF is confirmed by live view display. It is possible. However, there are users who want to confirm an image to be captured by an optical viewfinder (hereinafter also referred to as OVF) that directly looks at an optical image of a subject incident through a lens. For users adopting such an OVF, even when shooting with predetermined effect processing, the image effect by the predetermined effect processing is confirmed before shooting unless the eye is transferred from the viewfinder to the rear liquid crystal panel. I can't do it. For example, for a user who wants to check an image immediately before shooting with a viewfinder, considering the shutter chance, the user cannot move his eyes from the viewfinder to the rear liquid crystal panel. It was difficult.

本発明は、同一画面上に、所定の効果処理を施した撮像画像及び視認性を優先させた撮像画像を表示可能にして、ユーザが希望する画像の撮影を行うための操作性を向上させることができる画像表示装置、画像表示方法及び画像表示プログラムを提供することを目的とする。   The present invention makes it possible to display a captured image on which a predetermined effect process has been performed and a captured image prioritizing visibility on the same screen, and improve operability for capturing a desired image by the user. An object is to provide an image display device, an image display method, and an image display program.

本発明の一態様による画像表示装置は、対象物を撮像して得られる撮像画像を取得する画像取得部と、上記撮像画像に対する色調整を含まない第1の画像処理によって視認性優先画像を生成する第1の画像処理部と、上記撮像画像に対する所定の第2の画像処理によって画像効果が付与された効果処理画像を生成する第2の画像処理部と、上記視認性優先画像を電子ビューファインダに表示すると共に、上記第2の画像処理の設定を変更するユーザ操作に基づいて第1の期間を設定し、設定した上記第1の期間に上記第2の画像処理の設定の変更に応じて変化する上記効果処理画像を背面表示パネルに表示し、上記電子ビューファインダに対する接眼状態を検出するアイセンサの出力によって上記撮像画像を出力する撮像部の撮影開始のための操作を検出すると上記第1の期間を終了させて上記効果処理画像の表示を終了させる表示制御部とを具備する。 An image display device according to an aspect of the present invention generates a visibility priority image by an image acquisition unit that acquires a captured image obtained by capturing an object and first image processing that does not include color adjustment for the captured image. A first image processing unit that generates an effect-processed image to which an image effect is given by predetermined second image processing on the captured image, and an electronic viewfinder that displays the visibility priority image. in addition to the display, the based on the second image processing user operation for changing the settings to set the first period, in accordance with the configuration changes to the second image processing the set the first period displays the effect processing changing images on the rear display panel, since the image pickup start of the image pickup unit for outputting the captured image by the output of the eye sensor for detecting the ocular condition for the electronic viewfinder When detecting an operation to terminate the first period and a display control unit to terminate the display of the effect processing image.

また、本発明の一態様による画像表示方法は、対象物を撮像して得られる撮像画像を取得し、上記撮像画像に対する色調整を含まない第1の画像処理によって視認性優先画像を生成し、上記撮像画像に対する所定の第2の画像処理によって画像効果が付与された効果処理画像を生成し、上記視認性優先画像を電子ビューファインダに表示すると共に、上記第2の画像処理の設定を変更するユーザ操作に基づいて第1の期間を設定し、設定した上記第1の期間に上記第2の画像処理の設定の変更に応じて変化する上記効果処理画像を背面表示パネルに表示し、上記電子ビューファインダに対する接眼状態を検出するアイセンサの出力によって上記撮像画像を出力する撮像部の撮影開始のための操作を検出すると上記第1の期間を終了させて上記効果処理画像の表示を終了させる。 The image display method according to an aspect of the present invention acquires a captured image obtained by capturing an object, generates a visibility priority image by first image processing that does not include color adjustment for the captured image, An effect-processed image to which an image effect is given by the predetermined second image processing on the captured image is generated, the visibility priority image is displayed on the electronic viewfinder, and the setting of the second image processing is changed. A first period is set based on a user operation, and the effect processing image that changes according to a change in the setting of the second image processing in the set first period is displayed on the rear display panel, and the electronic When an operation for starting shooting of the imaging unit that outputs the captured image is detected based on an output of an eye sensor that detects an eyepiece state with respect to the viewfinder, the first period ends and the first period ends. To end the display of fruit processing image.

また、本発明の一態様による画像表示プログラムは、コンピュータに、対象物を撮像して得られる撮像画像を取得する手順と、上記撮像画像に対する色調整を含まない第1の画像処理によって視認性優先画像を生成する手順と、上記撮像画像に対する所定の第2の画像処理によって画像効果が付与された効果処理画像を生成する手順と、上記視認性優先画像を電子ビューファインダに表示すると共に、上記第2の画像処理の設定を変更するユーザ操作に基づいて第1の期間を設定し、設定した上記第1の期間に上記第2の画像処理の設定の変更に応じて変化する上記効果処理画像を背面表示パネルに表示し、上記電子ビューファインダに対する接眼状態を検出するアイセンサの出力によって上記撮像画像を出力する撮像部の撮影開始のための操作を検出すると上記第1の期間を終了させて上記効果処理画像の表示を終了させる手順とを実行させる。 The image display program according to an aspect of the present invention is a computer program that obtains a captured image obtained by capturing an image of an object on a computer and first image processing that does not include color adjustment for the captured image. A procedure for generating an image, a procedure for generating an effect-processed image to which an image effect is given by predetermined second image processing on the captured image, and displaying the visibility priority image on an electronic viewfinder . The first period is set based on a user operation to change the setting of the second image processing, and the effect processing image that changes in accordance with the change in the setting of the second image processing in the set first period. displayed on the rear display panel, the output of the eye sensor for detecting the ocular condition for the electronic view finder for the start of photographing the image pickup unit for outputting the captured image Upon detection of the work Terminate the first period to execute a procedure for terminating the display of the effect processing image.

本発明によれば、同一画面上に、所定の効果処理を施した撮像画像及び視認性を優先させた撮像画像を表示可能にして、ユーザが希望する画像の撮影を行うための操作性を向上させることができるという効果を有する。   According to the present invention, it is possible to display a captured image that has been subjected to predetermined effect processing and a captured image that prioritizes visibility on the same screen, thereby improving operability for capturing a desired image by the user. It has the effect that it can be made.

本発明の第1の実施の形態に係る画像表示装置が組み込まれた撮影機器を示すブロック図。1 is a block diagram showing a photographing device in which an image display device according to a first embodiment of the present invention is incorporated. 効果処理画像を説明するための説明図。Explanatory drawing for demonstrating an effect process image. 効果処理画像を説明するための説明図。Explanatory drawing for demonstrating an effect process image. 視認性優先画像を説明するための説明図。Explanatory drawing for demonstrating a visibility priority image. 撮影機器10の外観を示す説明図。FIG. 3 is an explanatory diagram showing an appearance of the photographing device 10. 撮影機器10の外観を示す説明図。FIG. 3 is an explanatory diagram showing an appearance of the photographing device 10. カメラ制御を示すフローチャート。The flowchart which shows camera control. 効果処理画像表示期間における画像表示の一例を示す説明図。Explanatory drawing which shows an example of the image display in an effect process image display period. 本発明の第2の実施の形態において採用されるカメラ制御を示すフローチャート。The flowchart which shows the camera control employ | adopted in the 2nd Embodiment of this invention. 第2の実施の形態に係る画像表示装置が組み込まれた撮影機器の外観を示す斜視図。The perspective view which shows the external appearance of the imaging device with which the image display apparatus which concerns on 2nd Embodiment was integrated. 第2の実施の形態に係る画像表示装置が組み込まれた撮影機器の外観を示す斜視図。The perspective view which shows the external appearance of the imaging device with which the image display apparatus which concerns on 2nd Embodiment was integrated. 図7中のステップS34におけるライブビュー表示の具体的な動作フローの一例を示すフローチャート。The flowchart which shows an example of the specific operation | movement flow of the live view display in step S34 in FIG. ライブビュー表示の処理タイミングを説明するための説明図。Explanatory drawing for demonstrating the processing timing of a live view display. ライブビュー表示の処理タイミングを説明するための説明図。Explanatory drawing for demonstrating the processing timing of a live view display. 第2の実施の形態を説明するための説明図。Explanatory drawing for demonstrating 2nd Embodiment. 第2の実施の形態を説明するための説明図。Explanatory drawing for demonstrating 2nd Embodiment. 第2の実施の形態を説明するための説明図。Explanatory drawing for demonstrating 2nd Embodiment. 第2の実施の形態を説明するための説明図。Explanatory drawing for demonstrating 2nd Embodiment. 第2の実施の形態を説明するための説明図。Explanatory drawing for demonstrating 2nd Embodiment. 第2の実施の形態を説明するためのフローチャート。The flowchart for demonstrating 2nd Embodiment. 第2の実施の形態を説明するためのフローチャート。The flowchart for demonstrating 2nd Embodiment. 第2の実施の形態を説明するためのフローチャート。The flowchart for demonstrating 2nd Embodiment. 第2の実施の形態を説明するためのフローチャート。The flowchart for demonstrating 2nd Embodiment.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係る画像表示装置が組み込まれた撮影機器を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a photographing apparatus in which an image display device according to a first embodiment of the present invention is incorporated.

本実施の形態は、撮像画像に画像効果を付与する特殊効果等の所定の効果処理(以下、単に画像効果処理という)を施した画像(以下、効果処理画像という)と被写体を肉眼で見ているときと同様の画像表示を可能にする画像処理(以下、視認性優先画像処理という)を撮像素子の出力に対して施すことによって得られる画像(以下、視認性優先画像という)とを同一の表示画面上に表示可能にすると共に、ユーザの操作に応じて効果処理画像と視認性優先画像との表示を制御するものである。これにより、ユーザは、画像効果処理を施した場合の画像効果を確認しつつ、OVFを利用した場合と同様の視認性で被写体を捉えながら撮影を行うことを可能にする。   In the present embodiment, an image (hereinafter referred to simply as “effect processed image”) that has been subjected to predetermined effect processing (hereinafter simply referred to as “image effect processing”) such as a special effect that imparts an image effect to a captured image and a subject are viewed with the naked eye. The image obtained by performing image processing (hereinafter referred to as visibility priority image processing) that enables the same image display as when the image is output on the output of the image sensor (hereinafter referred to as visibility priority image) is the same In addition to enabling display on the display screen, the display of the effect processing image and the visibility priority image is controlled in accordance with a user operation. Thus, the user can take an image while capturing the subject with the same visibility as when the OVF is used while confirming the image effect when the image effect processing is performed.

なお、効果処理画像を得る画像効果処理とは、色やコントラストや明るさや画像の粒状性等を変えてユーザの主観により作品的、レポート的、説明的な絵作りを行うときの画像処理である。効果処理画像は、肉眼で見たときと色や描写が変わるため、視認性が悪くなることがある。また、露出等は数値化し表示すれば撮影参考になるが、色や描写等は目で見て確認した方が分かりやすい 。外光などによる影響を受けるので、EVFでの観察が好ましい。   Note that the image effect processing for obtaining an effect processing image is image processing when creating a work-like, report-like or explanatory picture according to the user's subjectivity by changing the color, contrast, brightness, image graininess, etc. . The effect-processed image may have poor visibility because it changes color and description when viewed with the naked eye. In addition, exposure and the like can be used as a reference for shooting if they are quantified and displayed, but it is easier to understand the colors and descriptions by visual inspection. Observation by EVF is preferable because it is affected by external light.

また、視認性優先画像処理とは、被写体の色や明暗を目で見た状態に合わせてカメラで見ているときと肉眼でダイレクトに見ているときを合わせるような画像処理をいう。例えば、HDR処理、フレームレート 等、で肉眼の見え方に合わせている。暗いときなどは、被写体が見えるように明るく見せるための処理を行ってもよい が、基本的には光学ファインダを覗いたときと同様の画像にするための処理である。EVFにより撮影を行う場合には、被写体を追いながら集中して撮影することができるので、EVFによって視認性優先画像を表示することで、撮影の操作性を向上させることができる。なお、撮影の直前は、被写体の表情や姿勢や構図を確認するために、視認性優先画像を表示させた方が好ましい場合がある。状況に応じて、制御部負荷の重い画像処理をしないで、フレームレートを上げることを視認性優先としても良い。効果処理も制御部負荷で画像処理時間が増加する方向なので(フレームレートが落ちる方向なので)、被写体の動きや撮影者のパンニング動作などで画像が追いつかない場合などは、通常の画像処理で処理時間をかけず、フレームレートを上げることで視認性を優先させる。つまり、状況や被写体に応じて、スピード優先の処理や自然に見える画像処理などを適用して、視認性の考え方を変えてもよい。負荷の軽い画像処理でフレームレートを上げることで、視認性を向上させる例を示したが、逆にフレームレートを落として(撮像時間をかけて)暗いシーンの視認性を向上させることも視認性向上(優先)処理と言える。人間が見て、状況を把握できるように、自然に観察しやすくした画像表示を視認性優先処理と呼んでいる。つまり、ユーザが意図的に画像効果を付与して、そのままでは表現できないような画像処理を選んだ場合(効果処理)以外の画像は、視認性を優先したものとする。状況に応じて、視認性の効果を変えても良いし、対象物が良く確認できるようにユーザが選んでも良い。視認性には優先度があり、一般にはフレームレートが速く、表示装置上の画像があたかも、表示装置がない時と同じに見えるような画像処理を行った画像の方が、装置を使用して観察した時と装置を使用しないで観察した時の差異や違和感がなく視認性が高いと言える。特に、色などは強調しすぎると、直接見た時との整合性がなくなり見失いやすくなる。   Visibility priority image processing is image processing that matches the color and brightness of a subject when viewed with a camera and the direct viewing with the naked eye according to the state of viewing with the eye. For example, HDR processing, frame rate, etc. are matched to how the naked eye can be seen. When it is dark, you may perform processing to make it appear bright so that you can see the subject, but basically it is processing to make the image the same as when looking through the optical viewfinder. When shooting with EVF, it is possible to focus and shoot while chasing the subject. Therefore, by displaying the visibility priority image with EVF, shooting operability can be improved. Note that it may be preferable to display a visibility priority image immediately before shooting in order to confirm the facial expression, posture, and composition of the subject. Depending on the situation, priority may be given to increasing the frame rate without performing heavy image processing on the control unit. Since the effect processing is also in the direction in which the image processing time increases due to the load on the control unit (because the frame rate decreases), if the image cannot catch up due to the movement of the subject or the panning operation of the photographer, the processing time in normal image processing Priority is given to visibility by raising the frame rate. That is, depending on the situation and the subject, the concept of visibility may be changed by applying speed priority processing, natural image processing, or the like. Although an example of improving the visibility by increasing the frame rate with light image processing has been shown, conversely, it is also possible to improve the visibility of dark scenes by reducing the frame rate (over the imaging time) This is an improvement (priority) process. An image display that is naturally observable so that a human can see and grasp the situation is called visibility priority processing. That is, visibility is given priority to images other than when the user intentionally gives an image effect and selects image processing that cannot be expressed as it is (effect processing). Depending on the situation, the effect of visibility may be changed, or the user may select so that the object can be confirmed well. Visibility has priority, generally the frame rate is fast, and images that have been processed so that the image on the display device looks the same as when there is no display device use the device. It can be said that there is no difference or uncomfortable feeling when observed without using the device. In particular, if the color or the like is emphasized too much, the consistency with the direct viewing is lost and it is easy to lose sight.

図2A及び図2Bは効果処理画像を説明するための説明図である。図2A及び図2Bに示す効果処理画像21,22は同一被写体について撮像した1枚の撮像画像に対して相互に異なる所定の画像効果処理を施して得られた画像である。効果処理画像21は比較的暗い背景の画像部分21aと雲等の比較的明るい背景の画像部分21bと人物の画像部分21cとを含む。また、効果処理画像22は比較的暗い背景の画像部分22aと雲等の比較的明るい背景の画像部分22bと人物の画像部分22cとを含む。   2A and 2B are explanatory diagrams for explaining the effect processing image. The effect processing images 21 and 22 shown in FIGS. 2A and 2B are images obtained by performing different predetermined image effect processing on a single captured image captured for the same subject. The effect processed image 21 includes an image portion 21a having a relatively dark background, an image portion 21b having a relatively bright background such as a cloud, and an image portion 21c of a person. The effect processed image 22 includes an image portion 22a having a relatively dark background, an image portion 22b having a relatively bright background such as a cloud, and an image portion 22c of a person.

図2A及び図2Bでは、ハッチングによって、各画像部分21aと22aに対して、画像部分21bと22bに対して、画像部分21cと22cに対して相互に異なる画像処理が施された結果、例えば色や明るさ等が相互に異なることを示している。   In FIG. 2A and FIG. 2B, as a result of performing different image processing on the image portions 21 c and 22 c on the image portions 21 b and 22 b by hatching, for example, color images And brightness are different from each other.

図3は視認性優先画像を説明するための説明図である。図3は図2A及び図2Bの効果処理画像の処理前の撮像画像に対して、視認性優先画像処理を施すことによって得られる視認性優先画像23を示している。この視認性優先画像23は、撮像画像に対して、例えばHDR処理を施すことによって得られる。視認性優先画像23は比較的暗い背景の画像部分23aと雲等の比較的明るい背景の画像部分23bと人物の画像部分23cとを含む。各画像部分23a〜23cは、ハッチングを変えて、図2A及び図2Bの各画像部分21a〜21c,22a〜22cよりも高いダイナミックレンジの画像部分であることを示している。視認性優先画像23は、撮像画像に対して色調整等の処理を施しておらず、HDR処理によってダイナミックレンジのみを拡大させた処理を施しており、OVFによって得られる画像表示と同様の画像表示をEVFによって実現するものである。これにより、視認性優先画像23の各画像部分23a〜23cは、肉眼で被写体を観察した場合と同様に、視認性に優れている。   FIG. 3 is an explanatory diagram for explaining the visibility priority image. FIG. 3 shows the visibility priority image 23 obtained by performing the visibility priority image processing on the captured image before the processing of the effect processing images of FIGS. 2A and 2B. The visibility priority image 23 is obtained by performing, for example, HDR processing on the captured image. The visibility priority image 23 includes a relatively dark background image portion 23a, a relatively bright background image portion 23b such as a cloud, and a human image portion 23c. The image portions 23a to 23c are hatched to indicate that the image portions have a higher dynamic range than the image portions 21a to 21c and 22a to 22c in FIGS. 2A and 2B. The visibility priority image 23 is not subjected to processing such as color adjustment on the captured image, but is subjected to processing in which only the dynamic range is expanded by HDR processing, and is similar to the image display obtained by OVF. Is realized by EVF. Thereby, each image part 23a-23c of the visibility priority image 23 is excellent in visibility similarly to the case where the subject is observed with the naked eye.

図1において、撮影機器10には、前面に撮像部12が設けられている。撮像部12は、CCDやCMOSセンサ等の撮像素子によって構成された図示しない撮像素子を有している。また、撮像部12は、撮像素子に被写体光学像を導く図示しないレンズ部を有している。レンズ部は、ズームやフォーカシングのための図示しないレンズ等を備えており、これらのレンズは制御部11の撮影制御部11aによって駆動制御されるようになっている。撮像部12は、撮影制御部11aによって、ピント位置、ズーム位置及び絞り等が制御される。撮像素子は、レンズ部からの被写体光学像を光電変換して撮影画像を得る。   In FIG. 1, the imaging device 10 is provided with an imaging unit 12 on the front surface. The imaging unit 12 includes an imaging element (not shown) configured by an imaging element such as a CCD or a CMOS sensor. Further, the imaging unit 12 includes a lens unit (not shown) that guides the subject optical image to the imaging element. The lens unit includes a lens (not shown) for zooming and focusing. These lenses are driven and controlled by the imaging control unit 11a of the control unit 11. In the imaging unit 12, the focus position, the zoom position, the aperture, and the like are controlled by the imaging control unit 11a. The image sensor photoelectrically converts a subject optical image from the lens unit to obtain a captured image.

制御部11は、例えば、図示しないCPU等のプロセッサによって構成されて、メモリに記憶されたプログラムに従ってカメラ制御を行うものであってもよい。撮影制御部11aは、撮像部12に撮像素子の駆動信号を出力してシャッタースピード、露光時間等を制御すると共に、撮像部12からの撮影画像を読み出す。画像取得部としての制御部11は、読み出した撮影画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。   For example, the control unit 11 may be configured by a processor such as a CPU (not shown) and perform camera control according to a program stored in the memory. The imaging control unit 11a outputs a drive signal of the imaging element to the imaging unit 12 to control the shutter speed, the exposure time, and the like, and reads a captured image from the imaging unit 12. The control unit 11 as an image acquisition unit performs predetermined signal processing, for example, color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing on the read captured image.

図4A及び図4Bは撮影機器10の外観を示す説明図である。図4Aに示すように、撮影機器10の筐体10aは、前面にレンズ鏡筒12aが設けられ、上面にファインダ部18aが設けられている。レンズ鏡筒12a内に、撮像部12のレンズ部が収納される。また、筐体10aの上面にはシャッタボタン32及び2つのダイヤル操作部33a,33bが配設されている。ユーザは例えば左手35の指でリング操作部31の部分を挟み、左右の手35,36で筐体10aを支持しながらレンズ鏡筒12aを被写体に向けて構える。   4A and 4B are explanatory views showing the appearance of the photographing apparatus 10. FIG. As shown in FIG. 4A, the housing 10a of the photographing apparatus 10 has a lens barrel 12a on the front surface and a finder portion 18a on the top surface. The lens unit of the imaging unit 12 is housed in the lens barrel 12a. A shutter button 32 and two dial operation parts 33a and 33b are disposed on the upper surface of the housing 10a. The user holds the lens barrel 12a toward the subject while holding the case 10a with the left and right hands 35 and 36, for example, with the finger of the left hand 35 sandwiching the ring operation unit 31.

なお、ユーザは、撮影機器10を構えた状態で、例えば、ファインダ部18aを覗きながら、シャッタボタン32を人差し指36bで押圧操作することができるだけでなく、図4Bに示すように、右手の親指36aによってダイヤル操作部33aを、人差し指36bによってダイヤル操作部33bを簡単に操作することができる。   Note that the user can not only press the shutter button 32 with the index finger 36b while looking into the viewfinder 18a, for example, while holding the photographing device 10, but also the thumb 36a of the right hand as shown in FIG. 4B. The dial operation unit 33a can be easily operated, and the dial operation unit 33b can be easily operated by the index finger 36b.

図1において、操作部13は、これらのリング操作部31、シャッタボタン32及びダイヤル操作部33a,33bや図示しないファンクションボタンや撮影モード設定等の各種スイッチ等を含む。制御部11中の操作判定部11eは、これらの操作部13からユーザ操作に基づく操作信号が与えられて、ユーザ操作の内容を判定するようになっている。制御部11は、操作判定結果に基づいて、各部を制御する。   In FIG. 1, the operation unit 13 includes a ring operation unit 31, a shutter button 32, dial operation units 33a and 33b, function buttons (not shown), various switches for shooting mode setting, and the like. An operation determination unit 11e in the control unit 11 receives an operation signal based on a user operation from the operation unit 13 and determines the content of the user operation. The control unit 11 controls each unit based on the operation determination result.

制御部11は、撮像画像の記録及び再生に関する処理を行うことができる。例えば、制御部11は、信号処理後の撮影画像を圧縮処理し、圧縮後の画像を記録部15に与えて記録させることができる。記録部15としては、例えばカードインターフェースを採用することができ、記録部15はメモリカード等の記録媒体に画像情報及び音声情報等を記録可能である。   The control unit 11 can perform processing related to recording and reproduction of captured images. For example, the control unit 11 can compress the captured image after signal processing, and can apply the compressed image to the recording unit 15 for recording. As the recording unit 15, for example, a card interface can be adopted, and the recording unit 15 can record image information, audio information, and the like on a recording medium such as a memory card.

また、撮影機器10には時計部14が設けられている。時計部14は時間情報を生成して制御部11に出力する。 計時部として、露出時間の計時や後述の「操作終了後の所定期間」計時等に使用する。   In addition, the photographing device 10 is provided with a clock unit 14. The clock unit 14 generates time information and outputs it to the control unit 11. As a timekeeping unit, it is used for measuring the exposure time, measuring the “predetermined period after the end of operation” described later, and the like.

制御部11の表示制御部11bは表示に関する各種処理を実行する。表示制御部11bは、信号処理後の撮影画像を背面に設けられた表示部17及びファインダ表示部(F表示部)18に与えることができる。表示部17,18は、LCD等の表示画面を有しており、表示制御部11bから与えられた画像を表示する。また、表示制御部11bは、各種メニュー表示等を表示部17,18の表示画面に表示させることもできるようになっている。   The display control unit 11b of the control unit 11 executes various processes related to display. The display control unit 11b can give the captured image after the signal processing to the display unit 17 and the finder display unit (F display unit) 18 provided on the back surface. The display parts 17 and 18 have display screens, such as LCD, and display the image given from the display control part 11b. In addition, the display control unit 11b can display various menu displays on the display screens of the display units 17 and 18.

制御部11は、記録部15に記録されている撮像画像を読み出して伸張処理することができる。表示制御部11bは伸張処理された撮像画像を表示部17,18に与えることで、記録画像の再生が可能である。   The control unit 11 can read the captured image recorded in the recording unit 15 and perform expansion processing. The display control unit 11b can reproduce the recorded image by giving the expanded captured image to the display units 17 and 18.

例えば筐体10aの背面に設けられた表示部17は、後述するように、撮像画像を表示する表示画面17aを有している。また、表示画面17a上には、タッチパネル17bが設けられている。タッチパネル17bは、ユーザが指で指し示した表示画面17a上の位置に応じた操作信号を発生することができる。この操作信号は、制御部11に供給される。これにより、制御部11の操作判定部11eは、ユーザが表示画面17a上をタッチしたりスライドさせたりした場合には、ユーザのタッチ位置、指を閉じ離間させる操作(ピンチ操作)、スライド操作やスライド操作によって到達した位置、スライド方向、タッチしている期間等の各種操作を検出することができる。これにより、制御部11はユーザのタッチパネル操作に対応した処理を実行することができるようになっている。   For example, the display unit 17 provided on the back surface of the housing 10a has a display screen 17a for displaying a captured image, as will be described later. A touch panel 17b is provided on the display screen 17a. The touch panel 17b can generate an operation signal corresponding to the position on the display screen 17a pointed to by the user with a finger. This operation signal is supplied to the control unit 11. Thereby, when the user touches or slides on the display screen 17a, the operation determination unit 11e of the control unit 11 performs the user's touch position, the operation of closing and separating the finger (pinch operation), the slide operation, Various operations such as a position reached by a slide operation, a slide direction, and a touch period can be detected. Thereby, the control part 11 can perform the process corresponding to a user's touch panel operation.

なお、背面の表示部17は、図4Bに示すように、撮影機器10の筐体10aの例えば背面の略全域を占めるように配設されており、撮影者は、撮影時に背面の表示部17の表示画面17a上に表示されたスルー画を確認することができ、スルー画を確認しながら撮影操作を行うこともできる。   As shown in FIG. 4B, the rear display unit 17 is disposed so as to occupy substantially the entire rear surface of the housing 10 a of the photographing apparatus 10, and the photographer can display the rear display unit 17 during photographing. The through image displayed on the display screen 17a can be confirmed, and the photographing operation can be performed while confirming the through image.

図4Bに示すように、F表示部18は、筐体10aの上面に設けたファインダ部18aに収納されている。ファインダ部18aの近傍にはアイセンサ19が設けられており、アイセンサ19は、ユーザが目をファインダ部18aに近接させたことを検出し、検出結果を制御部11に出力するようになっている。表示制御部11bは、アイセンサ19の検出結果によって、画像の出力先を背面の表示部17とF表示部18とで切換えることができるようになっていてもよい。   As shown in FIG. 4B, the F display unit 18 is housed in a finder unit 18a provided on the upper surface of the housing 10a. An eye sensor 19 is provided in the vicinity of the finder unit 18a. The eye sensor 19 detects that the user has brought his eye close to the finder unit 18a, and outputs the detection result to the control unit 11. The display control unit 11b may be configured to switch the image output destination between the display unit 17 on the back and the F display unit 18 according to the detection result of the eye sensor 19.

制御部11には画像効果処理部11dが設けられている。第2の画像処理部としての画像効果処理部11dは、撮像画像に所定の画像効果処理を施すことができるようになっている。例えば、画像効果処理部11dは、撮像画像の色、コントラスト、明るさ、画像の粒状性等を変化させる所定の効果処理を施すことができる。制御部11は、画像効果処理を施した撮像画像を記録部15に与えて記録するだけでなく、画像効果処理を施した後の撮像画像をスルー画として表示制御部11bに与えて表示させることができるようになっている。   The control unit 11 is provided with an image effect processing unit 11d. The image effect processing unit 11d as the second image processing unit can perform predetermined image effect processing on the captured image. For example, the image effect processing unit 11d can perform predetermined effect processing for changing the color, contrast, brightness, graininess, and the like of the captured image. The control unit 11 not only gives and records the captured image subjected to the image effect processing to the recording unit 15, but also gives the captured image after the image effect processing to the display control unit 11 b for display as a through image. Can be done.

本実施の形態においては、制御部11には視認性優先処理部11cが設けられている。第1の画像処理部としての視認性優先処理部11cは、撮像画像に視認性優先画像処理を施すことができるようになっている。例えば、視認性優先処理部11cは、異なる露出で撮影された複数の画像に対するHDR合成処理によって、高いダイナミックレンジの視認性優先画像を生成することができる。制御部11は、視認性優先画像をスルー画として表示制御部11bに与えて表示させることができるようになっている。   In the present embodiment, the control unit 11 is provided with a visibility priority processing unit 11c. The visibility priority processing unit 11c as the first image processing unit can perform visibility priority image processing on a captured image. For example, the visibility priority processing unit 11c can generate a visibility priority image with a high dynamic range by HDR synthesis processing for a plurality of images shot at different exposures. The control unit 11 can give and display the visibility priority image as a through image to the display control unit 11b.

また、本実施の形態においては、撮影制御部11aは、操作判定部11eの操作判定結果に基づいて、視認性優先処理部11c、画像効果処理部11d及び表示制御部11bを制御して、視認性優先画像及び効果処理画像の表示先、表示タイミング及び表示方法を変更することができるようになっている。例えば、撮影制御部11aは、視認性優先画像をF表示部18に表示させ、効果処理画像を表示部17に表示させるようにしてもよい。また、撮影制御部11aは、表示制御部11bを制御して、通常時は視認性優先画像を表示させ、画像効果処理のための操作期間またはこの操作の開始から操作終了後の所定期間までの期間(以下、効果処理画像表示期間)に、効果処理画像を表示させるようにしてもよい。また、撮影制御部11aは、通常時と効果処理画像表示期間とで、視認性優先画像と効果処理画像とを切換えて表示させるようにしてもよく、また、通常時には視認性優先画像を表示させ、効果処理画像表示期間には、視認性優先画像と効果処理画像との両方を表示するようにしてもよい。例えば、視認性優先画像中の子画面に効果処理画像を子画面表示するようにしてもよい。   In the present embodiment, the imaging control unit 11a controls the visibility priority processing unit 11c, the image effect processing unit 11d, and the display control unit 11b on the basis of the operation determination result of the operation determination unit 11e, thereby visually recognizing. The display destination, display timing, and display method of the sex priority image and the effect processing image can be changed. For example, the imaging control unit 11 a may display the visibility priority image on the F display unit 18 and display the effect processing image on the display unit 17. In addition, the imaging control unit 11a controls the display control unit 11b to display the visibility priority image during normal operation, and an operation period for image effect processing or from the start of this operation to a predetermined period after the operation ends. You may make it display an effect process image in a period (henceforth an effect process image display period). In addition, the imaging control unit 11a may switch and display the visibility priority image and the effect processing image between the normal time and the effect processing image display period, and display the visibility priority image at the normal time. In the effect processing image display period, both the visibility priority image and the effect processing image may be displayed. For example, the effect processing image may be displayed on the small screen in the visibility priority image.

なお、撮影制御部11aは、ユーザによる撮影のための操作が行われる前の時点 で、効果処理画像表示期間を終了させるようになっていてもよい。つまり、具体的には、シャッタボタンの半押し(撮影に移行する操作)や、表示部17に効果処理画像を表示している場合には、ファインダを覗いたとき(アイセンサが反応したとき)、即ち撮影に移行する動作に応じて、効果処理表示を終了させてもよい。   Note that the shooting control unit 11a may end the effect processing image display period at a time before an operation for shooting by the user is performed. Specifically, when the shutter button is pressed halfway (operation for shifting to shooting) or when an effect processing image is displayed on the display unit 17, when looking through the viewfinder (when the eye sensor reacts), That is, the effect process display may be terminated in accordance with the operation for shifting to shooting.

次に、このように構成された実施の形態の動作について図5及び図6を参照して説明する。図5はカメラ制御を示すフローチャートであり、図6は効果処理画像表示期間における画像表示の一例を示す説明図である。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS. FIG. 5 is a flowchart showing camera control, and FIG. 6 is an explanatory diagram showing an example of image display in the effect processing image display period.

制御部11の撮影制御部11aは、ステップS1において、画像効果処理を行う撮影モード(以下、効果処理撮影モードという)が指定されているか否かを判定する。効果処理撮影モードが指定されていない場合には、撮影制御部11aは、処理をステップS2に移行してその他の撮影モードが指定されているか否かを判定する。撮影制御部11aは、その他の撮影モードが指定されている場合には、処理をステップS3に移行してその他の撮影モードを実行する。   In step S1, the shooting control unit 11a of the control unit 11 determines whether or not a shooting mode for performing image effect processing (hereinafter referred to as an effect processing shooting mode) is designated. If the effect processing shooting mode is not specified, the shooting control unit 11a shifts the processing to step S2 and determines whether another shooting mode is specified. If another shooting mode is designated, the shooting control unit 11a moves the process to step S3 and executes another shooting mode.

制御部11は、ステップS2においてその他の撮影モードが指定されていないと判定した場合には、処理をステップS5に移行して再生が指示されているか否かを判定する。再生が指示されている場合には、制御部11はステップS6において画像の再生を行う。ユーザが再生画像の変更を指示すると、制御部11は、ステップS7から処理をステップS8に移行して画像の変更を行う。なお、制御部11は、ステップS5において再生モードが指定されていない場合には、ステップS9において画像ファイルを取得するモードに移行する。   If the control unit 11 determines in step S2 that no other shooting mode is designated, the control unit 11 proceeds to step S5 and determines whether or not reproduction is instructed. If reproduction is instructed, the control unit 11 reproduces an image in step S6. When the user instructs to change the reproduction image, the control unit 11 shifts the process from step S7 to step S8 and changes the image. If the playback mode is not designated in step S5, the control unit 11 shifts to a mode for acquiring an image file in step S9.

撮影制御部11aは、ステップS1において効果処理撮影モードが指定されているものと判定した場合には、ステップS11において、画像効果処理部11dを制御して、撮像画像に対して設定された条件で画像効果処理を施す。画像効果処理部11dは、画像効果処理を施した効果処理画像を表示制御部11bに与え、表示制御部11bは、効果処理画像を表示部17及びF表示部18に出力する。   If the shooting control unit 11a determines that the effect processing shooting mode is designated in step S1, the shooting control unit 11a controls the image effect processing unit 11d in step S11 under the conditions set for the captured image. Apply image effect processing. The image effect processing unit 11d gives the effect processing image subjected to the image effect processing to the display control unit 11b, and the display control unit 11b outputs the effect processing image to the display unit 17 and the F display unit 18.

撮影制御部11aは、ステップS12において、ユーザがファインダ部18aに接眼しているか否かをアイセンサ19の出力によって確認する。撮影制御部11aは、ユーザがファインダ部18aに接眼している場合にはステップS13において表示部17の表示をオフにし、接眼していない場合にはステップS21においてF表示部18の表示をオフにする。   In step S12, the imaging control unit 11a checks whether or not the user is in contact with the finder unit 18a based on the output of the eye sensor 19. The imaging control unit 11a turns off the display of the display unit 17 in step S13 when the user is in contact with the viewfinder unit 18a, and turns off the display of the F display unit 18 in step S21 when the user is not in contact with the eyepiece. To do.

ユーザがファインダ部18aに接眼している場合には、撮影制御部11aは、ステップS14において、視認性優先画像を表示させる視認性優先モードが指定されているか否かを判定する。視認性優先モードが指定されていない場合には、撮影制御部11aは、ステップS15において、表示制御部11bを制御して、画像効果処理部11dからの効果処理画像をF表示部18に表示させる。視認性優先モードが指定されている場合には、撮影制御部11aは、ステップS16において視認性優先処理部11cを制御して、撮像画像に対して、視認性優先画像処理を実行させる。   When the user is in contact with the finder unit 18a, the imaging control unit 11a determines whether or not the visibility priority mode for displaying the visibility priority image is specified in step S14. If the visibility priority mode is not designated, the imaging control unit 11a controls the display control unit 11b to display the effect processing image from the image effect processing unit 11d on the F display unit 18 in step S15. . If the visibility priority mode is designated, the imaging control unit 11a controls the visibility priority processing unit 11c in step S16 to execute the visibility priority image processing on the captured image.

視認性優先処理部11cは、例えば、露出を変えながら複数回の撮像を行った複数枚の撮像画像のHDR合成処理によって、ダイナミックレンジが拡大された視認性優先画像を得る。視認性優先処理部11cによって得られる視認性優先画像は、肉眼で被写体を観察する場合のOVFによる画像表示に近似した広いダイナミックレンジの画像表示を可能にするものである。撮影制御部11aは、表示制御部11bを制御して、視認性優先画像をF表示部18に表示させる。   The visibility priority processing unit 11c obtains a visibility priority image with an expanded dynamic range by, for example, HDR synthesis processing of a plurality of captured images that have been captured a plurality of times while changing the exposure. The visibility priority image obtained by the visibility priority processing unit 11c enables image display with a wide dynamic range similar to the image display by OVF when the subject is observed with the naked eye. The imaging control unit 11 a controls the display control unit 11 b to display the visibility priority image on the F display unit 18.

ユーザはファインダ部18aを覗き込むことによって、F表示部18の表示画面に表示された視認性優先画像を見ることができる。即ち、ユーザは、EVFの表示画面上で、OVFに表示される画像に近似した画像を見ながら、撮影操作を行うことができる。   The user can see the visibility priority image displayed on the display screen of the F display unit 18 by looking into the finder unit 18a. That is, the user can perform a shooting operation while viewing an image approximate to the image displayed on the OVF on the EVF display screen.

ここで、ユーザは、画像効果処理の設定を変更する操作、即ち、画像効果の種類や強さ等を変更する操作等を行うものとする。例えば、画像効果処理が画像の粒状感を変化させるものである場合には、粒状感を与える粒のサイズを変化させる操作を行うものとする。ユーザは、例えばダイヤル操作部33a,33bを用いることで、ファインダ部18aから目を離すことなく、画像効果処理の設定の変更操作等の各種操作を行うことが可能である。撮影制御部11aは、ステップS17において画像効果処理の設定を変更する操作が行われているか否かを判定する。   Here, it is assumed that the user performs an operation for changing the setting of the image effect processing, that is, an operation for changing the type and intensity of the image effect. For example, when the image effect process is to change the graininess of the image, an operation to change the size of the grain that gives the graininess is performed. For example, by using the dial operation units 33a and 33b, the user can perform various operations such as an operation for changing the setting of the image effect processing without taking his eyes off the finder unit 18a. The imaging control unit 11a determines whether or not an operation for changing the setting of the image effect processing is performed in step S17.

本実施の形態においては、撮影制御部11aは、画像効果処理の設定操作が行われると、少なくとも設定操作の期間を効果処理画像表示期間に設定して、この期間には、画像効果処理に対応した効果処理画像をF表示部18に表示させるようになっている。図5の例では、表示制御部11bは、ステップS18において、視認性優先画像に加えて効果処理画像を確認可能なガイド表示 を表示させる。ガイド表示は図6の子画面に限らず、操作中のみ全面に効果処理画像を表示させてもよい(より効果を確認しやすくなる)。また、図9で説明するように設定のためのGUIを表示することも含めるものとする。   In the present embodiment, when the setting operation of the image effect processing is performed, the imaging control unit 11a sets at least the setting operation period to the effect processing image display period, and corresponds to the image effect processing during this period. The effect processed image is displayed on the F display unit 18. In the example of FIG. 5, in step S18, the display control unit 11b displays a guide display capable of confirming the effect processing image in addition to the visibility priority image. The guide display is not limited to the sub-screen shown in FIG. 6, and the effect processing image may be displayed on the entire surface only during the operation (the effect can be confirmed more easily). In addition, display of a GUI for setting as described in FIG. 9 is also included.

図6はこの場合に表示される画像を示している。効果処理画像表示期間においては、F表示部18の表示画面には、例えば図6に示す画像51が表示される。画像51は、図3の視認性優先画像23に対応するものであり、視認性に優れた画像部分51a,51b,51cを含む。更に、画像51にはガイド表示41aが表示されている。ガイド表示41aは、画像効果処理によって得られる効果処理画像を子画面表示したものである。ユーザが画像効果処理の設定を変更する操作を行うことにより効果処理画像は変化し、ガイド表示41a内の画像も変化する。   FIG. 6 shows an image displayed in this case. In the effect processing image display period, for example, an image 51 shown in FIG. 6 is displayed on the display screen of the F display unit 18. The image 51 corresponds to the visibility priority image 23 of FIG. 3 and includes image portions 51a, 51b, and 51c having excellent visibility. Further, a guide display 41a is displayed on the image 51. The guide display 41a displays an effect processing image obtained by the image effect processing on a small screen. When the user performs an operation for changing the setting of the image effect processing, the effect processing image changes, and the image in the guide display 41a also changes.

ユーザはF表示部18の表示画面上に表示されたガイド表示41aによって、現在の画像効果処理によって得られる画像を確認することができる。即ち、本実施の形態においては、F表示部18において、OVFを用いた場合と同様の視認性優先画像を表示させると共に、画像効果処理が反映された効果処理画像を表示させることができる。OVFを用いた場合でも、画像効果処理における設定の設定値(画像パラメータ)を文字表示等によって表示させることは可能である。しかしながら、数値では画像効果の確認は困難である場合がある。例えば、露出等については数値化によって画像効果処理の効果を予測することは可能な場合があるが、色を数値化したとしても、一般的には画像効果処理によって付与された色を認識することは極めて困難である。本実施の形態においては、撮影する被写体を視認性優先画像によって良好な視認性で確認することができると共に、各種画像効果処理による色、明るさ、粒状感等の画像効果を、効果処理画像によって確認することが可能であり、ユーザは自分が希望する画像を比較的容易に撮影することが可能である。   The user can confirm the image obtained by the current image effect processing by the guide display 41 a displayed on the display screen of the F display unit 18. In other words, in the present embodiment, the F display unit 18 can display the same priority image for visibility as when OVF is used, and can display the effect processing image reflecting the image effect processing. Even when OVF is used, it is possible to display setting values (image parameters) set in image effect processing by character display or the like. However, it may be difficult to confirm the image effect with numerical values. For example, although it may be possible to predict the effect of image effect processing by quantification of exposure, etc., even if the color is quantified, generally the color given by the image effect processing is recognized. Is extremely difficult. In the present embodiment, the subject to be photographed can be confirmed with good visibility by the visibility priority image, and image effects such as color, brightness, and graininess by various image effect processing can be obtained by the effect processing image. It is possible to confirm the image, and the user can take a desired image relatively easily.

設定操作が終了して、効果処理画像表示期間が経過すると、撮影制御部11aは、ステップS19においてガイド表示をオフにする。これにより、ユーザは、例えば撮影操作の直前のタイミングでは、F表示部18において視認性優先画像によって被写体を良好な視認性で確認することができる。   When the setting operation is finished and the effect processing image display period elapses, the imaging control unit 11a turns off the guide display in step S19. Accordingly, the user can confirm the subject with good visibility by the visibility priority image on the F display unit 18 at the timing immediately before the photographing operation, for example.

なお、図5及び図6の例では、効果処理画像表示期間において、視認性優先画像と効果処理画像の両方を表示する例を説明したが、視認性優先画像に代えて効果処理画像のみを表示するようにしてもよい。   In the example of FIGS. 5 and 6, the example in which both the visibility priority image and the effect processing image are displayed in the effect processing image display period has been described, but only the effect processing image is displayed instead of the visibility priority image. You may make it do.

また、ユーザがファインダ部18aに接眼していない場合には、撮影制御部11aは、ステップS12からステップS21に処理を移行してF表示部18をオフにし、ステップS22において背面パネルである表示部17に、画像効果処理の設定操作を反映させた効果処理画像を表示する。   If the user does not have an eye on the finder unit 18a, the imaging control unit 11a shifts the processing from step S12 to step S21 to turn off the F display unit 18, and in step S22, the display unit that is a rear panel. 17 displays an effect processing image reflecting the setting operation of the image effect processing.

図4Bは背面パネルである表示部17の表示画面17a上に、効果処理画像41が表示されている様子を示している。効果処理画像41は、図2A,図2Bに対応した効果処理画像であり、画像部分41a〜41cを含む。更に、画像41には、画像効果処理の設定を変更するための表示43も表示されている。例えば、ユーザが表示43の左右矢印をタッチ操作することで設定が変更され、中央枠をタッチ操作することで設定を反映させることができる。   FIG. 4B shows a state in which the effect processing image 41 is displayed on the display screen 17a of the display unit 17 which is a rear panel. The effect processed image 41 is an effect processed image corresponding to FIGS. 2A and 2B and includes image portions 41a to 41c. Further, the image 41 also has a display 43 for changing image effect processing settings. For example, the setting is changed when the user touches the left and right arrows on the display 43, and the setting can be reflected by touching the center frame.

撮影制御部11aは、ステップS23において、ユーザによる撮影操作が行われたか否かを判定する。撮影操作が行われると、撮影制御部11aは、撮影により取得した画像を記録部15に記録させる。   In step S23, the imaging control unit 11a determines whether an imaging operation by the user has been performed. When a shooting operation is performed, the shooting control unit 11a causes the recording unit 15 to record an image acquired by shooting.

なお、図5及び図6の例では、視認性優先画像をF表示部18のみに表示し、表示部17には効果処理画像のみを表示する例を説明したが、両方の表示部に視認性優先画像及び効果処理画像を表示するようにしてもよい。   In the example of FIGS. 5 and 6, the example in which the visibility priority image is displayed only on the F display unit 18 and only the effect processing image is displayed on the display unit 17 has been described. You may make it display a priority image and an effect process image.

このように本実施の形態においては、同一画面上に、所定の効果処理を施した撮像画像だけでなく、視認性を優先させた撮像画像を表示可能である。そして、例えばファインダ部のファインダ表示部に視認性優先画像を表示させることで、ユーザは被写体を肉眼で観察する場合に近い感覚で、被写体を確認しながら撮影操作を行うことができる。また、撮像画像に画像効果処理を施す場合には、その設定操作に基づく効果処理画像表示期間において、F表示部の表示画面上で画像処理を反映させた効果処理画像を確認することができ、ユーザはファインダ部から目を離すことなく画像効果を確認しながら設定操作を行うことができる。これにより、ユーザが希望する画像効果処理を付与した撮影を行うための操作性を著しく向上させることができる。   As described above, in the present embodiment, it is possible to display not only a captured image that has been subjected to a predetermined effect process but also a captured image that prioritizes visibility on the same screen. For example, by displaying the visibility priority image on the finder display unit of the finder unit, the user can perform a shooting operation while confirming the subject with a feeling close to that when observing the subject with the naked eye. In addition, when image effect processing is performed on a captured image, an effect processing image reflecting image processing can be confirmed on the display screen of the F display unit in an effect processing image display period based on the setting operation. The user can perform the setting operation while confirming the image effect without taking his eyes off the viewfinder. Thereby, the operativity for performing the imaging | photography which provided the image effect process which a user desires can be improved significantly.

(第2の実施の形態)
図7は本発明の第2の実施の形態において採用されるカメラ制御を示すフローチャートである。本実施の形態における回路構成は、図1の第1の実施の形態と同様である。また、図8A及び図8Bは本実施の形態に係る画像表示装置が組み込まれた撮影機器の外観の一例を示す斜視図である。
(Second Embodiment)
FIG. 7 is a flowchart showing camera control employed in the second embodiment of the present invention. The circuit configuration in this embodiment is the same as that of the first embodiment in FIG. 8A and 8B are perspective views showing an example of the appearance of a photographing apparatus in which the image display apparatus according to this embodiment is incorporated.

従来、色フィルタや偏光フィルタ等のレンズフィルタを用いた撮影が行われることがある。本実施の形態においては、このようなフィルタを用いた特殊効果撮影によって得られる画像を、画像処理によって実現する撮影機器に適用した例である。   Conventionally, photographing using a lens filter such as a color filter or a polarization filter may be performed. The present embodiment is an example in which an image obtained by special effect shooting using such a filter is applied to a shooting device that realizes image processing.

先ず、図8A及び図8Bを参照して、撮影機器の外観の概略構成について説明をする。図8A及び図8Bに示すように、撮影機器61は、筐体62内に、例えば制御回路等が実装されたメイン基板、バッテリを含む電源回路等が実装された電源基板等、各種の電気基板が収納されており、これらの電気基板上に図1と同様の回路が構成されている。   First, with reference to FIG. 8A and FIG. 8B, the schematic structure of the external appearance of the imaging device will be described. As shown in FIGS. 8A and 8B, the photographing apparatus 61 includes various electrical boards such as a main board on which a control circuit and the like are mounted in a housing 62, a power board on which a power circuit including a battery and the like are mounted. Are housed, and a circuit similar to FIG. 1 is formed on these electric boards.

筐体62の前面62aの略中央部分には、レンズ鏡筒63が図示しないレンズマウント部に着脱自在に取り付けられている。また、筐体62の背面62bには、略全域に表示部17(図1参照)が配設されており、表示部17の表示画面17aには、タッチパネル17bが配設されている。更に、背面62bの上端の一部には、F表示部18を構成するファインダ部64が配設されている。   A lens barrel 63 is detachably attached to a lens mount portion (not shown) at a substantially central portion of the front surface 62a of the housing 62. In addition, a display unit 17 (see FIG. 1) is disposed on substantially the entire rear surface 62b of the housing 62, and a touch panel 17b is disposed on the display screen 17a of the display unit 17. Further, a finder portion 64 constituting the F display portion 18 is disposed at a part of the upper end of the back surface 62b.

撮影機器61は、筐体62の前面62a,背面62b及び上面62cに各種の操作部13が配設されている。例えば、操作部13として、上面62cには、電源ボタン71、シャッタボタン72、フロントダイヤル73a及びリアダイヤル73b等が設けられている。また、背面62bには、操作部13として、INFOボタン74、モードボタン75、PICTボタン76、十字キー及びOKボタン77、再生ボタン78、メニューボタン79等が設けられている。また、前面62aには、操作部13として、ピクチャモードダイヤル80が設けられている。   In the photographing device 61, various operation units 13 are disposed on the front surface 62a, the back surface 62b, and the upper surface 62c of the housing 62. For example, as the operation unit 13, a power button 71, a shutter button 72, a front dial 73a, a rear dial 73b, and the like are provided on the upper surface 62c. On the rear surface 62b, an INFO button 74, a mode button 75, a PICT button 76, a cross key and OK button 77, a playback button 78, a menu button 79, and the like are provided as the operation unit 13. Further, a picture mode dial 80 is provided as an operation unit 13 on the front surface 62a.

フロントダイヤル73a、リアダイヤル73b及びピクチャモードダイヤル80は、筐体62の固定部分に対して回動自在に軸支されるダイヤル形状の操作部材である。   The front dial 73a, the rear dial 73b, and the picture mode dial 80 are dial-shaped operation members that are pivotally supported with respect to a fixed portion of the housing 62.

これらの操作部13の操作は操作判定部11eによって検出される。撮影制御部11aは、操作判定部11eの判定結果によってユーザの指示を認識する。例えば、撮影制御部11aは、視認性優先モードにおいて、PICTボタン76が操作された場合には、ユーザによって画像効果処理の設定を変更する操作が行われること、即ち、画像パラメータ設定中であるものと判定して、効果処理画像表示期間を設定するようになっている。また、撮影制御部11aは、効果処理画像表示期間においてPICTボタン76が操作された場合には、効果処理画像表示期間を終了させて視認性優先画像のみを表示させるようになっていてもよい。   The operations of the operation unit 13 are detected by the operation determination unit 11e. The imaging control unit 11a recognizes the user instruction based on the determination result of the operation determination unit 11e. For example, when the PICT button 76 is operated in the visibility priority mode, the imaging control unit 11a performs an operation for changing the setting of the image effect processing by the user, that is, the image parameter is being set. And the effect processing image display period is set. Further, when the PICT button 76 is operated during the effect processing image display period, the imaging control unit 11a may end the effect processing image display period and display only the visibility priority image.

ところで、色フィルタ等のレンズフィルタは、レンズ前面に装着される。装着するレンズフィルタを取り替えることで、特殊効果撮影の種類を変更することができる。本実施の形態においては、このような特殊効果撮影の種類の変更作業を、レンズフィルタの取付け時と同様の感覚で行えるように、カメラの前面に設けたピクチャモードダイヤル80によって行う。撮影制御部11aは、操作判定部11eの出力によってピクチャモードダイヤル80の状態を認識する。撮影制御部11aは、ピクチャモードダイヤル80を回転させることによって、フィルタの種類を変えた場合と同様に、画像効果処理部11dを制御して、画像効果処理の種類を変更することができるようになっている。   Incidentally, a lens filter such as a color filter is mounted on the front surface of the lens. By changing the lens filter to be mounted, the type of special effect shooting can be changed. In the present embodiment, such a change operation of the type of special effect shooting is performed by the picture mode dial 80 provided on the front surface of the camera so that it can be performed in the same manner as when the lens filter is attached. The shooting control unit 11a recognizes the state of the picture mode dial 80 based on the output of the operation determination unit 11e. The imaging control unit 11a can change the type of image effect processing by controlling the image effect processing unit 11d by rotating the picture mode dial 80 in the same manner as when the type of filter is changed. It has become.

次に、このように構成された実施の形態の動作について説明する。図9は図7中のステップS34におけるライブビュー表示の具体的な動作フローの一例を示すフローチャートである。なお、図9には各処理よって得られる画像の例も示している。また、図10A及び図10Bはライブビュー表示の処理タイミングを説明するための説明図である。   Next, the operation of the embodiment configured as described above will be described. FIG. 9 is a flowchart showing an example of a specific operation flow of live view display in step S34 in FIG. FIG. 9 also shows an example of an image obtained by each process. 10A and 10B are explanatory diagrams for explaining the processing timing of live view display.

電源が投入されることで、制御部11は動作を開始し、図7のステップS31において、各部に電力を供給する。撮影制御部11aは、ステップS32において、前回の電源オフ時に記録部15又は図示しないメモリに記録した各種モードデータ及び画像効果処理の処理を決定する画像パラメータを読出し、モード設定 や、パラメータ設定中フラグのクリアを行う。撮影制御部11aは、ステップS33において撮像部や図示しない測光部 によって測光を行い、測光値を用いてステップS34において適正な明るさでライブビュー表示を行う。なお、ステップS34のライブビュー表示については後述する。撮影制御部11aは、ステップS35においてカメラ操作が発生したか否かを判定し、カメラ操作が行われていない場合には、処理をステップS33に戻して測光及びライブビュー表示を繰り返す。   When the power is turned on, the control unit 11 starts operating, and supplies power to each unit in step S31 of FIG. In step S32, the imaging control unit 11a reads out various mode data recorded in the recording unit 15 or a memory (not shown) at the previous power-off and an image parameter for determining the processing of the image effect processing, and sets the mode setting and parameter setting flag. Clear. In step S33, the imaging control unit 11a performs photometry with an imaging unit or a photometric unit (not shown), and performs live view display with appropriate brightness in step S34 using the photometric value. The live view display in step S34 will be described later. The imaging control unit 11a determines whether or not a camera operation has occurred in step S35. If the camera operation has not been performed, the process returns to step S33 to repeat photometry and live view display.

カメラ操作が行われた場合には、撮影制御部11aは、このカメラ操作がシャッタボタン72の1段目の押下操作であるか否かを判定する(ステップS36)。撮影制御部11aは、シャッタボタン72の操作でない(OFF)ものと判定した場合には、次のステップS37において、操作が画像パラメータの設定操作であるか否かを判定する。   When a camera operation is performed, the imaging control unit 11a determines whether or not this camera operation is a first-pressing operation of the shutter button 72 (step S36). If it is determined that the shutter button 72 is not operated (OFF), the imaging control unit 11a determines whether or not the operation is an image parameter setting operation in the next step S37.

例えば、撮影制御部11aは、PICTボタン76が押下されると、画像パラメータの設定操作及び設定解除が行われるものと判定する 。撮影制御部11aは、パラメータの設定操作が行われると、パラメータ設定中フラグを設定中を示す値に切換える (ステップS38)。つまり、S37でPICTボタンの操作の有無を判定し、PICTボタンが押される度に、[設定モード]⇔[非設定モード]のトグル切り換えを想定しているので、最初にS32でクリアしたフラグを 、[クリア]⇒[セット]、[セット]⇒[クリア]する。このように、パラメータ設定中フラグのセット/クリアを切り換える。パラメータ設定中フラグがパラメータ設定中である場合 (フラグがセットされている場合)に効果処理画像表示期間が設定される。なお、設定された画像パラメータは、ステップS34のライブビュー表示に反映させるために図示しないメモリ等に記憶されると共に、後述するステップS51において記録部15又は図示しない不揮発性のメモリに記録される。   For example, when the PICT button 76 is pressed, the imaging control unit 11a determines that an image parameter setting operation and setting cancellation are performed. When the parameter setting operation is performed, the imaging control unit 11a switches the parameter setting flag to a value indicating that the parameter is being set (step S38). That is, in S37, it is determined whether or not the PICT button has been operated, and every time the PICT button is pressed, it is assumed that toggle between [Setting mode] and [Non-setting mode]. , [Clear] ⇒ [Set], [Set] ⇒ [Clear]. In this way, the parameter setting flag is switched / set. The effect processing image display period is set when the parameter setting flag is being set (when the flag is set). The set image parameters are stored in a memory (not shown) or the like to be reflected in the live view display in step S34, and are recorded in the recording unit 15 or a non-volatile memory (not shown) in step S51 described later.

撮影制御部11aは、ステップS39においてモード変更操作があったか否かを判定する。画像効果処理のモードの変更操作があった場合には、画像効果処理部11dは画像効果処理モードを指定されたモードに変更する(ステップS40)。撮影制御部11aは、ステップS41において電源スイッチの状態がオン状態であるかオフ状態であるかを判定し、オン状態の場合には、処理をステップS33に戻す。   The imaging control unit 11a determines whether or not a mode change operation has been performed in step S39. When the image effect processing mode is changed, the image effect processing unit 11d changes the image effect processing mode to the designated mode (step S40). In step S41, the imaging control unit 11a determines whether the power switch is on or off, and if it is on, the process returns to step S33.

撮影制御部11aは、ステップS36においてシャッタボタン72の1段目が押下されたものと判定した場合には、処理をステップS45に移行して、オートフォーカス処理(AF)及び測光処理を行う。次に、撮影制御部11aは、ステップS46においてパラメータ設定中フラグをクリアし、シャッタボタンの2段目が押下されたか否かを判定する(ステップS47)。   If it is determined in step S36 that the first step of the shutter button 72 has been pressed, the imaging control unit 11a moves the process to step S45, and performs autofocus processing (AF) and photometry processing. Next, the imaging control unit 11a clears the parameter setting flag in step S46, and determines whether or not the second stage of the shutter button has been pressed (step S47).

パラメータ設定中フラグのクリアによって効果処理画像表示期間が終了し、ステップS47,S33を経由してステップS34おけるライブビュー表示が行われて、ファインダ部64のF表示部18の表示画面には、後述のように視認性優先画像が表示される。こうして、ユーザは、シャッタボタン72の1段目を押下した後の撮影直前の状態では、肉眼で被写体を観察した場合と同様に、例えば広いダイナミックレンジの視認性優先画像によるライブビュー画像を見ながら撮影操作を行うことができる。   By clearing the parameter setting flag, the effect processing image display period ends, live view display in step S34 is performed via steps S47 and S33, and the display screen of the F display unit 18 of the finder unit 64 is described later. A visibility priority image is displayed as shown in FIG. In this way, in the state immediately before shooting after the first stage of the shutter button 72 is pressed, the user looks at the live view image based on the visibility priority image having a wide dynamic range, for example, as in the case of observing the subject with the naked eye. Shooting operation can be performed.

撮影制御部11aは、ステップS47において、シャッタボタン72の2段目が押下されていないと判定した場合には、上述したように、ステップS33に処理を戻して、ライブビュー表示を行う。一方、シャッタボタン72の2段目が押下された場合には、撮影制御部11aは撮影を行う。画像効果処理部11dによって画像効果処理が施された撮像画像は、記録部15に与えられて記録される。   If it is determined in step S47 that the second stage of the shutter button 72 has not been pressed, the imaging control unit 11a returns the process to step S33 to perform live view display as described above. On the other hand, when the second stage of the shutter button 72 is pressed, the imaging control unit 11a performs imaging. The captured image subjected to the image effect processing by the image effect processing unit 11d is given to the recording unit 15 and recorded.

なお、PICTボタン76の押下から極めて短時間にシャッタボタン72の1段目の押下が行われた場合には、効果処理画像の表示後の短時間に効果処理画像表示期間が終了して、ユーザは効果処理画像を十分に確認することができないことが考えられる。そこで、このような場合には、PICTボタン76の押下操作から所定時間後まで、効果処理画像表示期間を継続させるようになっていてもよい。また、図7の例では、シャッタボタン72の1段目の押下操作によって、効果処理画像表示期間が終了する例を示しているが、効果処理画像表示期間中にPICTボタン76を押下操作することで、効果処理画像表示期間を終了させるようになっていてもよい。   If the first step of the shutter button 72 is pressed in a very short time after pressing the PICT button 76, the effect processing image display period ends in a short time after the display of the effect processing image, and the user It is conceivable that the effect processing image cannot be sufficiently confirmed. Therefore, in such a case, the effect processing image display period may be continued from the pressing operation of the PICT button 76 until a predetermined time later. In the example of FIG. 7, the effect processing image display period is ended by pressing the first step of the shutter button 72. However, the PICT button 76 is pressed during the effect processing image display period. Thus, the effect processing image display period may be ended.

撮影制御部11aは、ステップS41において電源スイッチがオフになっているものと判定すると、ステップS51において画像効果処理のモードを含む各種モード及び画像パラメータを記録部15又は図示しない不揮発性メモリに記録させる。制御部11は、ステップS52において、各部への電源の供給を停止させて処理を終了する。   If it is determined in step S41 that the power switch is turned off, the imaging control unit 11a records various modes and image parameters including the image effect processing mode in the recording unit 15 or a non-illustrated non-volatile memory in step S51. . In step S52, the control unit 11 stops the supply of power to each unit and ends the process.

(ライブビュー表示)
図9のステップS60において、撮影制御部11aは、ファインダ表示モードであるか否かを判定する。ファインダ表示モードでないと判定した場合には、撮影制御部11aは、背面の表示部17にライブビュー表示を行う。即ち、この場合には、撮影制御部11aは、ステップS71において撮像部12に対して撮像を指示する。撮像部12は被写体を撮像し、撮像画像を制御部11に出力する。画像効果処理部11dはステップS72において、指定された画像効果処理モードで、ユーザ操作に基づく画像効果パラメータを反映させた画像効果処理を行い、効果処理画像を生成する。この効果処理画像は、表示制御部11bによって表示部17に表示される(ステップS73)。
(Live view display)
In step S60 of FIG. 9, the imaging control unit 11a determines whether or not the finder display mode is set. If it is determined that the mode is not the finder display mode, the imaging control unit 11a performs live view display on the display unit 17 on the back. That is, in this case, the imaging control unit 11a instructs the imaging unit 12 to perform imaging in step S71. The imaging unit 12 images the subject and outputs the captured image to the control unit 11. In step S72, the image effect processing unit 11d performs image effect processing that reflects image effect parameters based on user operations in the designated image effect processing mode, and generates an effect processed image. This effect processing image is displayed on the display unit 17 by the display control unit 11b (step S73).

撮影制御部11aは、ステップS74において画像処理の画像パラメータの設定中であるか否かをパラメータ設定中フラグによって判定する。撮影制御部11aは、画像パラメータの設定中でない場合には処理を終了する。例えば、この場合には、表示部17の表示画面17a上には、効果処理画像131が表示される。また、撮影制御部11aは、画像パラメータの設定中である場合には、ステップS75において、後述する図12Aのカラーフィルタ選択GUI83等の設定GUI131aを表示部17の表示画面17aに表示させる。例えば、この場合には、表示部17の表示画面17a上には、効果処理画像131に設定GUI131aが重ねて表示される。   In step S74, the imaging control unit 11a determines whether or not an image parameter for image processing is being set based on the parameter setting flag. The imaging control unit 11a ends the process when the image parameter is not being set. For example, in this case, the effect processing image 131 is displayed on the display screen 17 a of the display unit 17. Further, when the image parameter is being set, the imaging control unit 11a displays a setting GUI 131a such as a color filter selection GUI 83 in FIG. 12A described later on the display screen 17a of the display unit 17 in step S75. For example, in this case, the setting GUI 131 a is displayed on the effect processing image 131 on the display screen 17 a of the display unit 17.

図10Aはこの場合における制御部11の処理を示している。図10Aに示すように、撮像、画像処理及びライブビュー表示が順次繰り返される。   FIG. 10A shows processing of the control unit 11 in this case. As shown in FIG. 10A, imaging, image processing, and live view display are sequentially repeated.

撮影制御部11aは、ステップS60においてファインダ表示モードが設定されていると判定した場合には、処理をステップS61に移行して、画像パラメータの設定中であるか否かをパラメータ設定中フラグによって判定する。本実施の形態においても、画像パラメータの設定中でない場合には、視認性優先画像の表示が行われ、画像パラメータの設定中の場合には、効果処理画像の表示が行われる。   If it is determined in step S60 that the finder display mode is set, the imaging control unit 11a proceeds to step S61 and determines whether or not the image parameter is being set by using the parameter setting flag. To do. Also in this embodiment, when the image parameter is not being set, the visibility priority image is displayed, and when the image parameter is being set, the effect processing image is displayed.

即ち、撮影制御部11aは、ステップS61において画像パラメータの設定中でないと判定した場合には、ステップS62において、撮像部12にHDR合成処理のための2回の撮像を指示する。撮像部12は異なる露出で被写体を2回撮像し、2枚の撮像画像を制御部11に出力する。視認性優先処理部11cは、ステップS65において、2枚の撮像画像を用いたHDR合成処理によってダイナミンクレンジが拡張された画像、即ち、視認性優先画像132を生成する。図10Bは制御部11のこのような処理を示している。図10に示すように、2回の撮像、HDR合成処理及びライブビュー表示が順次繰り返される。
なお、図10は一例であり、1回撮像で画像処理によるダイナミックレンジの拡張をしても良いし、前述のように通常ライブビューや、暗所でのフレームレートを落としてのライブビューでもよい。要するに、視認性を向上させられればよい。さらに、負荷の大きい効果処理を行わないで、フレームレートを確保する通常のスルー画を持って視認性(被写体の変化、動きにスルー画を追従させることを優先)優先としてもよい。
That is, if it is determined in step S61 that the image parameter is not being set, the imaging control unit 11a instructs the imaging unit 12 to perform two imaging operations for the HDR composition process in step S62. The imaging unit 12 images the subject twice with different exposures, and outputs two captured images to the control unit 11. In step S65, the visibility priority processing unit 11c generates an image in which the dynamic range is expanded by the HDR synthesis processing using two captured images, that is, the visibility priority image 132. FIG. 10B shows such processing of the control unit 11. As shown in FIG. 10, the two imaging operations, the HDR synthesis process, and the live view display are sequentially repeated.
Note that FIG. 10 is an example, and the dynamic range may be expanded by image processing by one imaging, or a normal live view or a live view with a reduced frame rate in a dark place may be used as described above. . In short, it is only necessary to improve visibility. Further, it is possible to prioritize visibility (priority is to follow the live view to the change and movement of the subject) with a normal live view image that secures the frame rate without performing an effect process with a large load.

なお、図9の例では、視認性優先画像132だけでなく、効果処理画像の縮小画像83をF表示部18の表示画面に同時に表示させる例を示している。即ち、画像効果処理部11dは、ステップS63において、撮像画像に対して指定されている画像効果処理モードでユーザ操作に基づく画像パラメータを反映させた画像効果処理を施す。なお、ステップS62におけるHDR合成のための撮像では、一般的に露出オーバー及び露出アンダーで撮影が行われ、適正露出での撮影が行われていない可能性がある。そこで、画像効果処理部11dは、ステップS63の画像効果処理に際して、撮像画像をゲインアップ又はゲインダウンした後、画像効果処理を施すようにしてもよい。表示制御部11bは、画像効果処理部11dからの効果処理画像を縮小画像に変換して、F表示部18の表示画面に表示させる。なお、この縮小画像83の表示はオプションであり、必ずしも表示する必要はない。   In the example of FIG. 9, not only the visibility priority image 132 but also the reduced image 83 of the effect processing image is displayed on the display screen of the F display unit 18 at the same time. That is, in step S63, the image effect processing unit 11d performs image effect processing that reflects image parameters based on user operations in the image effect processing mode specified for the captured image. Note that, in the imaging for HDR composition in step S62, there is a possibility that shooting is generally performed with overexposure and underexposure and is not performed with proper exposure. Therefore, the image effect processing unit 11d may perform image effect processing after gain-up or gain-down of the captured image in the image effect processing in step S63. The display control unit 11 b converts the effect processed image from the image effect processing unit 11 d into a reduced image and displays the reduced image on the display screen of the F display unit 18. Note that the display of the reduced image 83 is an option and is not necessarily displayed.

表示制御部11bは、ステップS66において、F表示部18の表示画面上に、視認性優先画像132を表示すると共に、この視認性優先画像132の一部の領域(ファインダ補助画面)に効果処理画像に基づく縮小画像133を表示する。こうして、ユーザはF表示部18の表示画面上において、視認性優先画像132を確認しながら撮影を行うことができる。   In step S <b> 66, the display control unit 11 b displays the visibility priority image 132 on the display screen of the F display unit 18, and the effect processing image in a partial region (finder auxiliary screen) of the visibility priority image 132. The reduced image 133 based on is displayed. Thus, the user can take a picture while confirming the visibility priority image 132 on the display screen of the F display unit 18.

ここで、ユーザが画像効果処理の画像パラメータの変更操作を行うものとする。そうすると、処理はステップS61からステップS67に移行して、撮影制御部11aは、撮像部12に対して1回の撮像を指示する。撮像部12は被写体を撮像し、撮像画像を制御部11に出力する。画像効果処理部11dはステップS68において、指定された画像効果処理モードでユーザが設定した画像パラメータを用いて画像効果処理を行い、効果処理画像を生成する。この効果処理画像131は、表示制御部11bによってF表示部18に表示される(ステップS69)。また、撮影制御部11aは、ステップS70において、設定GUI131aをF表示部18の表示画面に効果処理画像131に重ねて表示させる。この場合においても、図10Aに示すように、撮像、画像処理及びライブビュー表示が順次繰り返される。   Here, it is assumed that the user performs an operation for changing the image parameter of the image effect processing. Then, the process proceeds from step S61 to step S67, and the imaging control unit 11a instructs the imaging unit 12 to perform one imaging. The imaging unit 12 images the subject and outputs the captured image to the control unit 11. In step S68, the image effect processing unit 11d performs image effect processing using the image parameters set by the user in the designated image effect processing mode, and generates an effect processed image. The effect processed image 131 is displayed on the F display unit 18 by the display control unit 11b (step S69). In step S <b> 70, the imaging control unit 11 a displays the setting GUI 131 a on the display screen of the F display unit 18 so as to overlap the effect processing image 131. Also in this case, as shown in FIG. 10A, imaging, image processing, and live view display are sequentially repeated.

このように、画像パラメータを設定していない期間には視認性優先画像がF表示部18に表示されるので、ユーザはダイナミックレンジが拡張された見やすい画像を見ながら、撮影操作を行うことができる。ダイナミックレンジ拡張は、光学ファインダに慣れた人には見慣れた像に近く、被逆光等の輝度差の大きなシーンでも見易くなる例であるが、前述のように、ダイナミックレンジの拡張に限定されることはなく、視認性優先画像としては要するに見易すい画像であればよい。
また、画像パラメータの設定中は、画像効果処理部において設定された画像パラメータを反映させた画像効果処理が行われて、ユーザの画像パラメータの変更操作が効果処理画像及び設定GUIに逐次反映される。これにより、ユーザは自分の設定操作による画像の変化をF表示部18において確認しながら、画像パラメータの設定が可能である。即ち、ユーザはファインダ部64から目を離すことなく、見やすい画像による被写体の確認及び画像効果処理の効果の確認が可能である。
In this manner, the visibility priority image is displayed on the F display unit 18 during the period when the image parameter is not set, so that the user can perform a shooting operation while viewing an easy-to-view image with an expanded dynamic range. . Dynamic range expansion is an example that is close to familiar images for those who are used to optical viewfinders and easy to see even in scenes with large brightness differences such as backlit, but as described above, it is limited to expansion of dynamic range In short, the visibility priority image may be an easily viewable image.
Further, during the setting of the image parameter, an image effect process reflecting the image parameter set in the image effect processing unit is performed, and the user's image parameter changing operation is sequentially reflected in the effect processed image and the setting GUI. . As a result, the user can set the image parameter while confirming the change in the image due to his / her setting operation on the F display unit 18. That is, the user can check the subject with an easy-to-see image and the effect of the image effect processing without taking his eyes off the finder unit 64.

次に、図11A乃至図11Eの説明図及び図12A乃至図12Dのフローチャートを参照して本実施の形態において採用可能な具体的な画像効果処理の例について説明する。なお、図12A乃至図12Dはそれぞれ図11A乃至図11Dに対応しており、図9のステップS63,S68,S72における画像効果処理部11dの各処理フローを示している。また、図11A〜図11Eでは、色が異なることをハッチングの種類や濃淡を変えて示している。   Next, specific examples of image effect processing that can be employed in the present embodiment will be described with reference to the explanatory diagrams of FIGS. 11A to 11E and the flowcharts of FIGS. 12A to 12D. 12A to 12D correspond to FIGS. 11A to 11D, respectively, and show respective processing flows of the image effect processing unit 11d in steps S63, S68, and S72 of FIG. Moreover, in FIG. 11A-FIG. 11E, it shows that the color differs, changing the kind and shade of hatching.

撮影機器61においては、ピクチャモードダイヤル80によって、画像効果処理モードを切換える。図11A〜図11Eの例では、画像効果処理として5つの処理が可能な例を示している。図11A〜図11Eは、同一の被写体について異なる画像効果処理を施した場合における視認性優先画像及び効果処理画像の例を示している。   In the photographing device 61, the image effect processing mode is switched by the picture mode dial 80. In the example of FIGS. 11A to 11E, an example in which five processes are possible as the image effect process is shown. 11A to 11E show examples of the visibility priority image and the effect processing image when different image effect processing is performed on the same subject.

視認性優先モードにおいては、効果処理の設定を変更する操作である画像パラメータの設定操作が行われない場合には、F表示部18には視認性優先画像が表示される。図11Aの左の画像81はファインダ部64のF表示部18に表示されている視認性優先画像を示している。視認性優先画像81は、チューリップの赤い花びらの画像部分85、チューリップの緑の葉の画像部分86、草木等の緑色っぽいの背景の画像部分87及び空等の青色っぽい背景の画像部分88を含む。   In the visibility priority mode, when an image parameter setting operation, which is an operation for changing the setting of the effect process, is not performed, a visibility priority image is displayed on the F display unit 18. The left image 81 in FIG. 11A shows the visibility priority image displayed on the F display unit 18 of the finder unit 64. The visibility priority image 81 includes an image portion 85 of a red petal of a tulip, an image portion 86 of a green leaf of a tulip, an image portion 87 of a greenish background such as a plant, and an image portion 88 of a blueish background such as the sky. .

図11Aは画像効果処理のモードがモノクローム(モノクロ)モードの例を示している。図11Aの中央及び右側の画像82a,82bは、ピクチャモードダイヤル80がM(モノクローム)モードの場合において、視認性優先画像81が表示されている状態でPICTボタン76が押されたときに、ファインダ部64のF表示部18の表示画面に表示される効果処理画像を示している。モノクロームモードは、カラーフィルタを配置してモノクロでの撮影を行った場合と同様の画像効果を得るものである。モノクロームモードにおいて、PICTボタン76が押下されると、撮影制御部11aは、画像効果処理部11d及び表示制御部11bを制御して、モノクローム撮影用のカラーフィルタ選択GUI83を表示させる。   FIG. 11A shows an example in which the image effect processing mode is a monochrome (monochrome) mode. The images 82a and 82b on the center and right side of FIG. 11A are displayed when the PICT button 76 is pressed with the visibility priority image 81 displayed when the picture mode dial 80 is in the M (monochrome) mode. The effect processing image displayed on the display screen of F display part 18 of the part 64 is shown. In the monochrome mode, an image effect similar to that obtained when a color filter is arranged and monochrome photography is performed is obtained. When the PICT button 76 is pressed in the monochrome mode, the imaging control unit 11a controls the image effect processing unit 11d and the display control unit 11b to display the color filter selection GUI 83 for monochrome imaging.

モノクロームモードは、レンズ前に装着した色付きフィルタによって得られる画像と略等価な画像を画像処理によって得るもので、フロントダイヤル73aを回すことで、12色の中から選択するフィルタの色を指定することができる。また、リアダイヤル73bの操作によって、選択している色フィルタの強度(濃度)を例えば3段階から選択することができるようになっている。   In the monochrome mode, an image substantially equivalent to an image obtained by a colored filter attached in front of the lens is obtained by image processing. By turning the front dial 73a, a filter color to be selected from 12 colors is designated. Can do. Further, the intensity (density) of the selected color filter can be selected from, for example, three levels by operating the rear dial 73b.

画像効果処理部11dはユーザの選択操作に従って、図12AのステップS81において上記フロントダイヤル73a、リアダイヤル73bにて設定された色フィルタの設定情報等を取得し、ステップS82においてモノクロ係数を算出する。画像効果処理部11dは、ステップS83において、撮像画像に対して標準の画像処理を施した後、モノクロ係数を用いてモノクローム画像を生成する(ステップS85)。また、画像効果処理部11dは、表示制御部11bを制御して、ユーザの選択操作に応じたカラーフィルタ選択GUI83を表示させる。ユーザは、カラーフィルタ選択GUI83によって、色及び強度の選択の状態を確認することができる。なお、カラーフィルタ選択GUI83は、例えば円周方向に色の変化を示し、径方向に強度を示すものである。   In accordance with the user's selection operation, the image effect processing unit 11d acquires the color filter setting information set by the front dial 73a and the rear dial 73b in step S81 of FIG. 12A, and calculates a monochrome coefficient in step S82. In step S83, the image effect processing unit 11d performs standard image processing on the captured image, and then generates a monochrome image using the monochrome coefficient (step S85). In addition, the image effect processing unit 11d controls the display control unit 11b to display the color filter selection GUI 83 according to the user's selection operation. The user can confirm the state of selection of color and intensity by the color filter selection GUI 83. The color filter selection GUI 83 indicates, for example, a color change in the circumferential direction and a strength in the radial direction.

撮影制御部11aは、フィルタ設定中において、撮像中の被写体に基づく効果処理画像をライブビュー画像としてF表示部18に表示するために出力する(ステップS85)。図11Aの例では、赤系フィルタの選択中は、赤い花の部分の透過光が多いので、効果処理画像82aについては花の画像部分85aは高輝度となり、白っぽくなる。また、背景の空(青)や葉(緑)の部分は、フィルタを透過する光量が減少するので、低輝度となり黒っぽくなる。逆に、緑系フィルタを選択した場合には、効果処理画像82bのように、花の画像部分85bは黒くなり、空や葉の画像部分は白くなる。   The shooting control unit 11a outputs an effect processing image based on the subject being imaged for display on the F display unit 18 as a live view image during filter setting (step S85). In the example of FIG. 11A, while the red filter is selected, there is a lot of transmitted light through the red flower portion, and therefore the flower image portion 85a of the effect processing image 82a becomes high in brightness and becomes whitish. Also, the sky (blue) and leaf (green) portions of the background are reduced in brightness and darkened because the amount of light transmitted through the filter is reduced. On the other hand, when the green filter is selected, the flower image portion 85b is black and the sky and leaf image portions are white as in the effect processing image 82b.

図11Bは画像効果処理のモードがカラープロファイルモードの例を示している。図11Bの中央及び右側の画像92a,92bは、ピクチャモードダイヤル80がC(カラープロファイル)モードの場合において、視認性優先画像81が表示されている状態でPICTボタン76が押されたときに、ファインダ部64のF表示部18の表示画面に表示される効果処理画像を示している。カラープロファイルモードは、色の彩度を自在に調整するものである。カラープロファイルモードにおいて、PICTボタン76が押下されると、撮影制御部11aは、画像効果処理部11d及び表示制御部11bを制御して、カラープロファイル撮影用の各色の彩度設定GUI93を表示させる。   FIG. 11B shows an example in which the image effect processing mode is the color profile mode. When the picture mode dial 80 is in the C (color profile) mode and the PICT button 76 is pressed while the visibility priority image 81 is displayed, the middle and right images 92a and 92b in FIG. The effect processing image displayed on the display screen of F display part 18 of finder part 64 is shown. The color profile mode freely adjusts the color saturation. When the PICT button 76 is pressed in the color profile mode, the imaging control unit 11a controls the image effect processing unit 11d and the display control unit 11b to display the saturation setting GUI 93 for each color for color profile imaging.

画像効果処理部11dによって、カラープロファイルモードでは、例えば12色の各色をそれぞれ11段階(彩度アップ5段階、彩度ダウン5段階)で調整することができるようになっている。例えば、フロントダイヤル73aを回して彩度を調整する色を選択し、リアダイヤル73bで彩度を調整することができるようになっている。   In the color profile mode, for example, each of the twelve colors can be adjusted in 11 steps (saturation up 5 steps, saturation down 5 steps) by the image effect processing unit 11d. For example, the front dial 73a is turned to select a color for adjusting the saturation, and the rear dial 73b can be used to adjust the saturation.

画像効果処理部11dは、図12BのステップS91において、撮像画像に対して標準の画像処理を施す。画像効果処理部11dは、色を指定する変数nに12を代入し(ステップS92)、nで指定した色の設定値をユーザ操作に基づいて取得し(ステップS93)、設定値を用いて指定された色COLOR(n)の色補正処理を行う(ステップS94)。画像効果処理部11dは、変数nをデクリメントし(ステップS95)、nがn>0を満足しなくなるまでステップS93〜S95の処理を繰り返して、撮像画像の各色を補正する。12色の全ての補正が終了すると、撮影制御部11aは、ステップS96からステップS97に処理を移行して、撮像中の被写体に基づく効果処理画像をライブビュー画像としてF表示部18に表示するために出力する。   In step S91 of FIG. 12B, the image effect processing unit 11d performs standard image processing on the captured image. The image effect processing unit 11d substitutes 12 for the variable n for designating the color (step S92), acquires the set value of the color designated by n based on the user operation (step S93), and designates it using the set value. A color correction process for the color COLOR (n) is performed (step S94). The image effect processing unit 11d decrements the variable n (step S95), repeats the processing of steps S93 to S95 until n does not satisfy n> 0, and corrects each color of the captured image. When all 12 colors have been corrected, the imaging control unit 11a shifts the process from step S96 to step S97, and displays an effect processing image based on the subject being imaged on the F display unit 18 as a live view image. Output to.

図11Bの効果処理画像92aは、赤と緑の彩度を下げて、花と葉の画像部分95a,96aを落ち着いた雰囲気に仕上げたことを示している。また、図11Bの効果処理画像92bは、緑、青の彩度を上げて、空と葉の画像部分95b,96bを鮮やかに表現することを示している。このように、カラープロファイルモードでは、自由自在に色を表現することができるようになっている。   The effect processing image 92a in FIG. 11B shows that the saturation of the image portions 95a and 96a of flowers and leaves is finished by reducing the saturation of red and green. Further, the effect processing image 92b of FIG. 11B shows that the saturations of green and blue are increased to express the sky and leaf image portions 95b and 96b vividly. Thus, in the color profile mode, colors can be freely expressed.

図11Cは画像効果処理のモードがホワイトバランスモードの例を示している。図11Cの中央及び右側の画像102a,102bは、ピクチャモードダイヤル80がWB(ホワイトバランス)モードの場合において、視認性優先画像81が表示されている状態でPICTボタン76が押されたときに、ファインダ部64のF表示部18の表示画面に表示される効果処理画像を示している。図11Cに示すホワイトバランスモードは、一般的なホワイトバランス処理を各色に対して行うもので、特定の色方向に画像全体の色をシフトさせるものである。ホワイトバランスモードにおいて、PICTボタン76が押下されると、撮影制御部11aは、画像効果処理部11d及び表示制御部11bを制御して、WB調整用の選択GUI103を表示させる。   FIG. 11C shows an example in which the image effect processing mode is the white balance mode. When the picture mode dial 80 is in the WB (white balance) mode and the visibility button 81 is displayed and the PICT button 76 is pressed, the center and right images 102a and 102b in FIG. The effect processing image displayed on the display screen of F display part 18 of finder part 64 is shown. The white balance mode shown in FIG. 11C performs general white balance processing for each color, and shifts the color of the entire image in a specific color direction. When the PICT button 76 is pressed in the white balance mode, the imaging control unit 11a controls the image effect processing unit 11d and the display control unit 11b to display the selection GUI 103 for WB adjustment.

ホワイトバランスモードでは、画像効果処理部11dによって、ホワイトバランス調整を自動で行って得た画像が特定の色方向にシフトされる。フロントダイヤル73aを回して、例えば12色から色を選択し、選択した色に対してリアダイヤル73bを回すことで、7段階(0±3段階)で調整量を調整することができるようになっている。   In the white balance mode, an image obtained by automatically performing white balance adjustment is shifted in a specific color direction by the image effect processing unit 11d. By turning the front dial 73a, for example, selecting a color from twelve colors, and turning the rear dial 73b for the selected color, the adjustment amount can be adjusted in seven steps (0 ± 3 steps). ing.

画像効果処理部11dはユーザの選択操作に従って、図12CのステップS101において設定値を取得し、ステップS102において、撮像画像に対して標準の画像処理を施した後、取得した設定値を用いて色味補正処理を行う(ステップS103)。撮影制御部11aは、パラメータ設定中において、撮像中の被写体に基づく効果処理画像をライブビュー画像としてF表示部18に表示するために出力する(ステップS104)。   The image effect processing unit 11d acquires a setting value in step S101 in FIG. 12C according to the user's selection operation, performs standard image processing on the captured image in step S102, and then uses the acquired setting value to perform color processing. A taste correction process is performed (step S103). During parameter setting, the imaging control unit 11a outputs an effect processing image based on the subject being imaged for display on the F display unit 18 as a live view image (step S104).

図11Cの効果処理画像102aは、青を+方向に調整して全体を寒色系にシフトしたことを示している。また、図11Cの効果処理画像102bは、黄緑を+方向に調整して葉を鮮やかに仕上げたことを示している。   The effect processing image 102a in FIG. 11C shows that the whole is shifted to the cold color system by adjusting blue in the + direction. Further, the effect processing image 102b in FIG. 11C shows that the leaves are vividly finished by adjusting yellowish green in the + direction.

図11Dは画像効果処理のモードがART(アート)モードの例を示している。図11Dの中央及び右側の画像112a,112bは、ピクチャモードダイヤル80がART(アート)モードの場合において、視認性優先画像81が表示されている状態でPICTボタン76が押されたときに、ファインダ部64のF表示部18の表示画面に表示される効果処理画像を示している。図11Dに示すアートモードは、選択された特定の色成分以外の彩度を低下させる処理を行うものである。アートモードにおいて、PICTボタン76が押下されると、撮影制御部11aは、画像効果処理部11d及び表示制御部11bを制御して、パートカラー用の選択GUI113を表示させる。   FIG. 11D shows an example in which the image effect processing mode is ART (art) mode. The middle and right images 112a and 112b in FIG. 11D are displayed when the PICT button 76 is pressed with the visibility priority image 81 displayed when the picture mode dial 80 is in ART (art) mode. The effect processing image displayed on the display screen of F display part 18 of the part 64 is shown. The art mode shown in FIG. 11D performs processing for reducing the saturation other than the selected specific color component. When the PICT button 76 is pressed in the art mode, the imaging control unit 11a controls the image effect processing unit 11d and the display control unit 11b to display the part color selection GUI 113.

画像効果処理部11dによって、アートモードでは、選択された特定の色成分以外の彩度が低下される。フロントダイヤル73a又はリアダイヤル73bを回して、例えば12色から特定色を選択し、選択した色以外の色の彩度を低下させることができるようになっている。   The image effect processing unit 11d reduces the saturation other than the selected specific color component in the art mode. By turning the front dial 73a or the rear dial 73b, for example, a specific color is selected from 12 colors, and the saturation of colors other than the selected color can be reduced.

画像効果処理部11dはユーザの選択操作に従って、図12DのステップS105において設定値を取得し、ステップS106において、撮像画像に対して標準の画像処理を施した後、取得した設定値を用いてパートカラー処理を行う(ステップS107)。撮影制御部11aは、パラメータ設定中において、撮像中の被写体に基づく効果処理画像をライブビュー画像としてF表示部18に表示するために出力する(ステップS108)。   The image effect processing unit 11d acquires a setting value in step S105 of FIG. 12D according to the user's selection operation, performs standard image processing on the captured image in step S106, and then uses the acquired setting value to Color processing is performed (step S107). During parameter setting, the imaging control unit 11a outputs an effect processing image based on the subject being imaged for display on the F display unit 18 as a live view image (step S108).

図11Dの効果処理画像112aは、赤を選択することにより、赤い花の画像部分115a以外の部分がモノクロになったことを示している。図11Dの効果処理画像112bは、緑を選択することにより、緑の葉の画像部分116b以外の部分がモノクロになったことを示している。   The effect-processed image 112a in FIG. 11D shows that the portion other than the red flower image portion 115a has become monochrome by selecting red. The effect-processed image 112b in FIG. 11D shows that the portion other than the green leaf image portion 116b has become monochrome by selecting green.

図11Eは画像効果処理のモードがN(露出補正)モードの例を示している。このNモードは、特殊な処理を施さない通常の撮影モードであり、Nモードでは、撮像画像に露出補正のみが反映される。言い換えると、露出補正は画像効果処理の1つのモードで実行されるようになっており、視認性優先画像では、露出補正さえも撮像画像に反映させないようになっている。
図11Eの中央及び右側の画像122a,122bは、ピクチャモードダイヤル80がN(露出補正)モードの場合において、視認性優先画像81が表示されている状態でフロントダイヤル73aが回転されたときに、ファインダ部64のF表示部18の表示画面に表示される効果処理画像を示している。なお、撮影制御部11aは、ピクチャモードダイヤル80の選択に拘わらず、フロントダイヤル73aの回転によって露出補正を行うように制御してもよい。露出補正モードにおいて、フロントダイヤル73aが回転されると、撮影制御部11aは、画像効果処理部11d及び表示制御部11bを制御して、露出値表示127及び露出バー128を表示させる。
FIG. 11E shows an example in which the image effect processing mode is N (exposure correction) mode. The N mode is a normal shooting mode in which no special processing is performed. In the N mode, only exposure correction is reflected on the captured image. In other words, exposure correction is executed in one mode of image effect processing, and even in the visibility priority image, even exposure correction is not reflected in the captured image.
The images 122a and 122b at the center and the right side of FIG. 11E are obtained when the front dial 73a is rotated while the visibility priority image 81 is displayed when the picture mode dial 80 is in the N (exposure correction) mode. The effect processing image displayed on the display screen of F display part 18 of finder part 64 is shown. Note that the shooting control unit 11a may perform control so that exposure correction is performed by rotating the front dial 73a regardless of the selection of the picture mode dial 80. In the exposure correction mode, when the front dial 73a is rotated, the photographing control unit 11a controls the image effect processing unit 11d and the display control unit 11b to display the exposure value display 127 and the exposure bar 128.

図11Eの効果処理画像122aは、−1.3EV補正により、明るく白飛びしがちな空の画像部分が適正となり、雲の画像129aの細部が観察できるようになったことを示している。また、図11Eの効果処理画像122bは、+2.3EV補正によって、逆光によって暗くなった花の画像部分125bが適正となり、花弁の細部を観察できるようになったことを示している。   The effect-processed image 122a in FIG. 11E shows that, by the -1.3 EV correction, a bright sky-clear image portion is appropriate, and the details of the cloud image 129a can be observed. In addition, the effect-processed image 122b in FIG. 11E shows that the flower image portion 125b darkened by the backlight is appropriate by the + 2.3EV correction, and the petal details can be observed.

このように本実施の形態においても、第1の実施の形態と同様の効果を得ることができる。   As described above, also in this embodiment, the same effect as that of the first embodiment can be obtained.

上記各実施の形態においては、視認性優先モードにおいて、ファインダ表示部に、視認性優先画像のみを表示するか又は一部に効果処理画像を含む視認性優先画像を表示し、画像効果処理の設定中等の効果処理画像表示期間においては、ファインダ表示部に、効果処理画像のみを表示するか又は一部に効果処理画像を含む視認性優先画像を表示する例について説明した。しかし、通常時に視認性優先画像を表示し、効果処理画像表示期間に効果処理画像を表示することができれば、どのような表示の仕方でもよい。例えば、画像効果の確認のために、効果処理画像を背面表示部に表示させるようにしてもよく、また、背面表示部において、視認性優先画像と効果処理画像とを切換えて表示するようにしてもよい。   In each of the above embodiments, in the visibility priority mode, only the visibility priority image is displayed on the finder display unit, or the visibility priority image including the effect processing image is partially displayed, and the image effect processing is set. In the middle effect processing image display period, the example in which only the effect processing image is displayed or the visibility priority image including the effect processing image in part is displayed on the finder display unit has been described. However, any display method may be used as long as the visibility priority image can be displayed in the normal state and the effect processing image can be displayed in the effect processing image display period. For example, the effect processing image may be displayed on the rear display unit for confirmation of the image effect, and the visibility priority image and the effect processing image are switched and displayed on the rear display unit. Also good.

なお、上記各実施の形態においては、視認性優先画像として、HDR合成処理によってダイナミックレンジを拡大した画像を採用する例について説明したが、これに限定されるものではなく、色調整をしなければHDR合成処理を行っていない撮像画像を用いてもよい。また、暗いシーンであっても、視認性優先モードでは、フレームレートを調整して明るく見やすい表示にするようにしてもよい。   In each of the above embodiments, an example in which an image whose dynamic range is expanded by HDR synthesis processing is adopted as the visibility priority image has been described. However, the present invention is not limited to this, and color adjustment is not performed. You may use the captured image which has not performed the HDR synthetic | combination process. Even in a dark scene, in the visibility priority mode, the frame rate may be adjusted to make the display bright and easy to see.

また、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。また、内視鏡、顕微鏡のような産業用、医療用の光学機器でもよい。表示機器でなくとも、このような工夫によって、ユーザが希望する画像を撮影するための表示が可能な観察装置、表示装置を提供することが可能となる。視認性優先画像と効果処理画像とを切換えて表示することができることから、対象物を詳細に観察し、診断に有効利用できることは言うまでもない。   In each embodiment of the present invention, a digital camera has been described as an apparatus for photographing. However, the camera may be a digital single lens reflex camera or a compact digital camera, such as a video camera or a movie camera. A camera for moving images may be used, and a camera built in a personal digital assistant (PDA) such as a mobile phone or a smartphone may of course be used. Also, industrial and medical optical instruments such as endoscopes and microscopes may be used. Even if it is not a display device, it is possible to provide an observation device and a display device capable of displaying for capturing an image desired by the user by such a device. Since the visibility priority image and the effect processing image can be switched and displayed, it goes without saying that the object can be observed in detail and effectively used for diagnosis.

本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。   It should be noted that even if the operation flow in the claims, the description, and the drawings is described using “first,” “next,” etc. for convenience, it is essential to carry out in this order. It doesn't mean. In addition, it goes without saying that the steps constituting these operation flows can be omitted as appropriate for portions that do not affect the essence of the invention.

また、ここで説明した技術のうち、主にフローチャートで説明した制御や機能は、多くがプログラムにより設定可能であり、そのプログラムをコンピュータが読み取り実行することで上述した制御や機能を実現することができる。そのプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD−ROM等、不揮発性メモリ等の可搬媒体や、ハードディスク、揮発性メモリ等の記憶媒体に、その全体あるいは一部を記録又は記憶することができ、製品出荷時又は可搬媒体或いは通信回線を介して流通又は提供可能である。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールすることで、容易に本実施の形態の画像表示装置を実現することができる。   Of the technologies described here, many of the controls and functions mainly described in the flowcharts can be set by a program, and the above-described controls and functions can be realized by a computer reading and executing the program. it can. As a computer program product, the program may be recorded or stored in whole or in part on a portable medium such as a non-volatile memory such as a flexible disk or a CD-ROM, or a storage medium such as a hard disk or a volatile memory. It can be distributed or provided at the time of product shipment or via a portable medium or communication line. The user can easily realize the image display apparatus according to the present embodiment by downloading the program via a communication network and installing the program on the computer, or by installing the program on the computer from a recording medium.

10…撮影機器、11…制御部、11a…撮影制御部、11b…表示制御部、11c…視認性優先処理部、11d…画像効果処理部、11e…操作判定部、12…撮像部、13…操作部、14…時計部、15…記録部、17…表示部、17a…タッチパネル、18…F表示部。   DESCRIPTION OF SYMBOLS 10 ... Imaging device, 11 ... Control part, 11a ... Shooting control part, 11b ... Display control part, 11c ... Visibility priority processing part, 11d ... Image effect processing part, 11e ... Operation determination part, 12 ... Imaging part, 13 ... Operation unit, 14 ... clock unit, 15 ... recording unit, 17 ... display unit, 17a ... touch panel, 18 ... F display unit.

Claims (6)

対象物を撮像して得られる撮像画像を取得する画像取得部と、
上記撮像画像に対する色調整を含まない第1の画像処理によって視認性優先画像を生成する第1の画像処理部と、
上記撮像画像に対する所定の第2の画像処理によって画像効果が付与された効果処理画像を生成する第2の画像処理部と、
上記視認性優先画像を電子ビューファインダに表示すると共に、上記第2の画像処理の設定を変更するユーザ操作に基づいて第1の期間を設定し、設定した上記第1の期間に上記第2の画像処理の設定の変更に応じて変化する上記効果処理画像を背面表示パネルに表示し、上記電子ビューファインダに対する接眼状態を検出するアイセンサの出力によって上記撮像画像を出力する撮像部の撮影開始のための操作を検出すると上記第1の期間を終了させて上記効果処理画像の表示を終了させる表示制御部とを具備したことを特徴とする画像表示装置。
An image acquisition unit that acquires a captured image obtained by imaging a target;
A first image processing unit that generates a visibility priority image by first image processing that does not include color adjustment for the captured image;
A second image processing unit that generates an effect processed image to which an image effect is given by predetermined second image processing on the captured image;
The visibility priority image and displays the electronic viewfinder, the based on the second image processing user operation for changing the settings to set the first period, the second of the set the first period The image processing unit that displays the effect processing image that changes according to the change of the image processing setting on the rear display panel and outputs the captured image by the output of the eye sensor that detects the eyepiece state with respect to the electronic viewfinder is started. An image display device comprising: a display control unit that terminates the first period when the operation is detected and terminates the display of the effect processed image .
上記表示制御部は、上記第1の期間以外の第2の期間に上記視認性優先画像のみを表示させ、上記第1の期間に上記効果処理画像のみを表示させることを特徴とする請求項に記載の画像表示装置。 The display control unit according to claim, characterized in that the the second period other than the first period to display only the visibility priority image to display only the effect processing image in the first period 1 The image display device described in 1. 上記表示制御部は、上記第1の期間以外の第2の期間に上記視認性優先画像のみを表示させ、上記第1の期間に上記視認性優先画像及び上記効果処理画像を同時に表示させることを特徴とする請求項に記載の画像表示装置。 The display control unit displays only the visibility priority image in a second period other than the first period, and simultaneously displays the visibility priority image and the effect processing image in the first period. The image display device according to claim 1 , wherein 上記第1の画像処理は、ハイダイナミックレンジ処理であり、
上記第2の画像処理は、ユーザの操作に基づく処理であることを特徴とする請求項1乃至のいずれか1つに記載の画像表示装置。
The first image processing is high dynamic range processing,
The second image processing, the image display apparatus according to any one of claims 1 to 3, characterized in that a process based on the user's operation.
対象物を撮像して得られる撮像画像を取得し、
上記撮像画像に対する色調整を含まない第1の画像処理によって視認性優先画像を生成し、
上記撮像画像に対する所定の第2の画像処理によって画像効果が付与された効果処理画像を生成し、
上記視認性優先画像を電子ビューファインダに表示すると共に、上記第2の画像処理の設定を変更するユーザ操作に基づいて第1の期間を設定し、設定した上記第1の期間に上記第2の画像処理の設定の変更に応じて変化する上記効果処理画像を背面表示パネルに表示し、上記電子ビューファインダに対する接眼状態を検出するアイセンサの出力によって上記撮像画像を出力する撮像部の撮影開始のための操作を検出すると上記第1の期間を終了させて上記効果処理画像の表示を終了させることを特徴とする画像表示方法。
Obtain a captured image obtained by imaging the object,
A visibility priority image is generated by first image processing that does not include color adjustment for the captured image,
Generating an effect processed image to which an image effect is given by predetermined second image processing on the captured image;
The visibility priority image and displays the electronic viewfinder, the based on the second image processing user operation for changing the settings to set the first period, the second of the set the first period The image processing unit that displays the effect processing image that changes according to the change of the image processing setting on the rear display panel and outputs the captured image by the output of the eye sensor that detects the eyepiece state with respect to the electronic viewfinder is started. An image display method characterized in that when the operation is detected, the first period is ended and the display of the effect processed image is ended .
コンピュータに、
対象物を撮像して得られる撮像画像を取得する手順と、
上記撮像画像に対する色調整を含まない第1の画像処理によって視認性優先画像を生成する手順と、
上記撮像画像に対する所定の第2の画像処理によって画像効果が付与された効果処理画像を生成する手順と、
上記視認性優先画像を電子ビューファインダに表示すると共に、上記第2の画像処理の設定を変更するユーザ操作に基づいて第1の期間を設定し、設定した上記第1の期間に上記第2の画像処理の設定の変更に応じて変化する上記効果処理画像を背面表示パネルに表示し、上記電子ビューファインダに対する接眼状態を検出するアイセンサの出力によって上記撮像画像を出力する撮像部の撮影開始のための操作を検出すると上記第1の期間を終了させて上記効果処理画像の表示を終了させる手順とを実行させるための画像表示プログラム。
On the computer,
A procedure for acquiring a captured image obtained by imaging a target;
A procedure for generating a visibility priority image by first image processing that does not include color adjustment for the captured image;
A procedure for generating an effect processed image to which an image effect is given by predetermined second image processing on the captured image;
The visibility priority image and displays the electronic viewfinder, the based on the second image processing user operation for changing the settings to set the first period, the second of the set the first period The image processing unit that displays the effect processing image that changes according to the change of the image processing setting on the rear display panel and outputs the captured image by the output of the eye sensor that detects the eyepiece state with respect to the electronic viewfinder is started. An image display program for executing the procedure of ending the first period and ending the display of the effect processing image when detecting the operation .
JP2016012721A 2016-01-26 2016-01-26 Image display device, image display method, and image display program Active JP6602679B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016012721A JP6602679B2 (en) 2016-01-26 2016-01-26 Image display device, image display method, and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016012721A JP6602679B2 (en) 2016-01-26 2016-01-26 Image display device, image display method, and image display program

Publications (2)

Publication Number Publication Date
JP2017135511A JP2017135511A (en) 2017-08-03
JP6602679B2 true JP6602679B2 (en) 2019-11-06

Family

ID=59504541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016012721A Active JP6602679B2 (en) 2016-01-26 2016-01-26 Image display device, image display method, and image display program

Country Status (1)

Country Link
JP (1) JP6602679B2 (en)

Also Published As

Publication number Publication date
JP2017135511A (en) 2017-08-03

Similar Documents

Publication Publication Date Title
JP7071137B2 (en) Electronic devices and their control methods
KR101058011B1 (en) How to Operate Digital Camera Using Touch Screen
EP1981261B1 (en) Imaging device, display control method, and program
KR20090120314A (en) Apparatus and method for blurring an image background in digital image processing device
JP2004254256A (en) Camera apparatus, display method, and program
CN113395421B (en) Image processing apparatus, image capturing apparatus, control method, and storage medium
US10205872B2 (en) Display control apparatus and method for controlling the same
US9172874B2 (en) Imaging apparatus and image generation method for generating one piece of image including a moving image and still image
US20140281966A1 (en) Electronic apparatus, and control method therefor
JP5400486B2 (en) Imaging apparatus and imaging method
JP2016103777A (en) Imaging device, and control method and program therefor
JP2014154991A (en) Imaging apparatus, imaging method, and program
JP5914829B2 (en) Imaging device
JP2013012852A (en) Imaging apparatus and control method thereof, program, and storage medium
JP2004236287A (en) Electronic camera
JP5646960B2 (en) Imaging apparatus, imaging method, and imaging program
JP6602679B2 (en) Image display device, image display method, and image display program
JP2017163339A (en) Video processing apparatus, video processing method and program
JP2011078143A (en) Photographing apparatus, face detecting method thereof and image recording method
JP2006295774A (en) Imaging apparatus, control method thereof, and image processing program for digital camera
US20040085471A1 (en) Method of controlling a camera for users having impaired vision
JP2017118427A (en) Information terminal device, imaging device, image information processing system, and image information processing method
JP2023108866A (en) Image processing apparatus, imaging apparatus, image processing apparatus control method, and program
JP2016092798A (en) Imaging apparatus and control method of the same
JP6319619B2 (en) Imaging apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190708

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191009

R151 Written notification of patent or utility model registration

Ref document number: 6602679

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250