JP6604760B2 - Image processing apparatus, control method therefor, and program - Google Patents
Image processing apparatus, control method therefor, and program Download PDFInfo
- Publication number
- JP6604760B2 JP6604760B2 JP2015138848A JP2015138848A JP6604760B2 JP 6604760 B2 JP6604760 B2 JP 6604760B2 JP 2015138848 A JP2015138848 A JP 2015138848A JP 2015138848 A JP2015138848 A JP 2015138848A JP 6604760 B2 JP6604760 B2 JP 6604760B2
- Authority
- JP
- Japan
- Prior art keywords
- distance information
- contour
- focus
- specific display
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Focusing (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
Description
本発明は、画像処理装置及びその制御方法、並びにプログラムに関し、特に、マニュアルフォーカスを行う画像処理装置及びその制御方法、並びにプログラムに関する。 The present invention relates to an image processing apparatus, a control method therefor, and a program, and more particularly, to an image processing apparatus that performs manual focus, a control method therefor, and a program.
マニュアルフォーカスを行う際、撮影された画像において焦点が合った領域(以下、「合焦領域」という。)のみについて特定の表示を行うピーキング機能を有する画像処理装置としてのカメラが知られている。カメラでは、当該カメラに設けられるLCDモニタに撮影された画像が表示され、ピーキング機能を用いた場合、LCDモニタに表示された画像のうち合焦領域に含まれる被写体の輪郭が特定の色、例えば、赤色で表示される。これにより、ユーザは表示された画像において合焦領域を容易に特定可能である。また、ピーキング機能を用いた場合、マニュアルフォーカスの操作を補助する補助情報もLCDモニタに表示される。例えば、撮影時のフォーカスレンズの位置から当該フォーカスレンズを所定の方向へ移動させたとき、焦点が被写体に近付くために鮮明さが増す領域及び焦点が被写体から離れるために鮮明さが減る領域が互いに異なる特定の色で表示される。これにより、ユーザは、合焦領域と異なる所望の領域に焦点を合わせる際の適切なフォーカスレンズの移動方向を容易に判断可能である。補助情報は、所定の位置のフォーカスレンズによって撮影された画像及びフォーカスレンズを所定の位置から移動させて撮影された画像の差分に基づいて表示される(例えば、特許文献1参照)。 2. Description of the Related Art When performing manual focus, a camera is known as an image processing apparatus having a peaking function for performing specific display only on a focused area (hereinafter referred to as “focused area”) in a captured image. In the camera, an image taken on an LCD monitor provided in the camera is displayed, and when the peaking function is used, the outline of the subject included in the in-focus area in the image displayed on the LCD monitor is a specific color, for example, , Displayed in red. Thereby, the user can easily specify the focus area in the displayed image. When the peaking function is used, auxiliary information for assisting manual focus operation is also displayed on the LCD monitor. For example, when the focus lens is moved in a predetermined direction from the position of the focus lens at the time of shooting, a region where the sharpness increases because the focus approaches the subject and a region where the sharpness decreases because the focus moves away from the subject are mutually connected. Displayed in different specific colors. Thus, the user can easily determine an appropriate moving direction of the focus lens when focusing on a desired area different from the in-focus area. The auxiliary information is displayed based on the difference between the image captured by the focus lens at a predetermined position and the image captured by moving the focus lens from the predetermined position (see, for example, Patent Document 1).
しかしながら、特許文献1の技術では、補助情報を表示するために、フォーカスレンズを移動させる必要があり、補助情報を表示するまでに一定の時間を要してしまう。 However, in the technique of Patent Document 1, it is necessary to move the focus lens in order to display auxiliary information, and a certain time is required until the auxiliary information is displayed.
本発明の目的は、一定の時間を要することなくマニュアルフォーカスの操作を補助する補助情報を表示することができる画像処理装置及びその制御方法、並びにプログラムを提供することにある。 An object of the present invention is to provide an image processing apparatus capable of displaying auxiliary information for assisting a manual focus operation without requiring a certain time, a control method therefor, and a program.
上記目的を達成するために、本発明の画像処理装置は、撮像された画像から各被写体の輪郭部を抽出する画像処理手段と、前記撮像された画像において合焦された合焦領域を特定する第1の特定手段と、前記撮像された画像において合焦されない非合焦領域を特定する第2の特定手段と、前記合焦領域の距離情報を算出する算出手段と、前記非合焦領域の撮像面位相差検出の結果に基づいて前記非合焦領域のデフォーカス量を決定する決定手段と、前記撮像された画像の表示を制御する表示制御手段とを備え、前記算出手段は、前記合焦領域の距離情報及び前記デフォーカス量に基づいて前記非合焦領域の距離情報を算出し、前記表示制御手段は、前記画像処理手段により抽出された輪郭部であって前記非合焦領域において前記合焦領域の距離情報より大きい距離情報を有する第1の非合焦領域に含まれる輪郭部を第1の特定表示で表示するように制御し、前記画像処理手段により抽出された輪郭部であって前記非合焦領域において前記合焦領域の距離情報より小さい距離情報を有する第2の非合焦領域に含まれる輪郭部を前記第1の特定表示と異なる第2の特定表示で表示するように制御し、前記画像処理手段により抽出された輪郭部であって前記合焦領域に含まれる輪郭部を前記第1の特定表示及び前記第2の特定表示と異なる第3の特定表示で表示するように制御することを特徴とする。 In order to achieve the above object, the image processing apparatus of the present invention, the specific image processing means for extracting an outline portion of the object from the captured image, a focus area that is focused in the captured image a first specifying means, a second specifying means for specifying a non-focus area which is not focused in the captured image, calculating means for calculating the distance information of the focusing area, the out-of-focus region comprising a determination unit configured to determine a defocus amount of the non-focused region based on a result of an imaging plane phase difference detection, and a display control means for controlling the display of the captured image, the calculation unit, the The distance information of the out-of-focus area is calculated based on the distance information of the in-focus area and the defocus amount, and the display control means is a contour portion extracted by the image processing means, and is the non-focus area. distance before Kigoase area Te smell Said contour portion contained in the first out-of-focus region with a larger distance information from information controls to display in the first specific display, a contour extracted by the image processing unit unfocused and controls to display the outline portion included in the second out-of-focus region with a smaller distance information from the distance information of the focused region in the first specific display different from the second specific display in the region, the Controlling the contour portion extracted by the image processing means to be displayed in a third specific display different from the first specific display and the second specific display. It is characterized by.
本発明によれば、一定の時間を要することなくマニュアルフォーカスの操作を補助する補助情報を表示することができる。 According to the present invention, it is possible to display auxiliary information that assists the manual focus operation without requiring a certain time.
以下、本発明の実施の形態を図面を参照しながら詳述する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の実施の形態に係る画像処理装置としてのカメラ100の構成を概略的に示すブロック図である。 FIG. 1 is a block diagram schematically showing a configuration of a camera 100 as an image processing apparatus according to an embodiment of the present invention.
図1において、カメラ100は、撮像光学系101、撮像光学系操作部102、撮像部103、撮像信号処理部104、表示部105(表示手段)、操作部106、CPU107、ROM108、RAM109、及びメモリスロット110を備える。撮像光学系操作部102、撮像信号処理部104、表示部105、操作部106、CPU107、ROM108、RAM109、及びメモリスロット110はシステムバス112を介して互いに接続されている。撮像光学系101は撮像光学系操作部102及び撮像部103と夫々接続され、撮像部103は撮像信号処理部104と接続されている。 In FIG. 1, a camera 100 includes an imaging optical system 101, an imaging optical system operation unit 102, an imaging unit 103, an imaging signal processing unit 104, a display unit 105 (display unit), an operation unit 106, a CPU 107, a ROM 108, a RAM 109, and a memory. A slot 110 is provided. The imaging optical system operation unit 102, the imaging signal processing unit 104, the display unit 105, the operation unit 106, the CPU 107, the ROM 108, the RAM 109, and the memory slot 110 are connected to each other via a system bus 112. The imaging optical system 101 is connected to the imaging optical system operation unit 102 and the imaging unit 103, and the imaging unit 103 is connected to the imaging signal processing unit 104.
カメラ100は、ユーザが被写体に対するピントの調整をマニュアルフォーカスで行う際に用いられるピーキング機能を有し、ピーキング機能によって当該マニュアルフォーカスの操作を補助する各種補助情報を表示部105に表示する。撮像光学系101は図示しないズームレンズやフォーカスレンズ等を含むレンズ群である。本実施の形態では、フォーカスレンズの位置を移動させて被写体に対するピントの調整を行う。撮像光学系操作部102は、各種レンズの操作を指示する制御信号をCPU107から受信し、受信された制御信号に基づいて撮像光学系101に設けられる各種レンズ群の位置を制御する。 The camera 100 has a peaking function that is used when the user adjusts the focus on the subject with manual focus, and displays various auxiliary information for assisting the manual focus operation on the display unit 105 using the peaking function. The imaging optical system 101 is a lens group including a zoom lens, a focus lens, and the like (not shown). In the present embodiment, the focus lens is adjusted by moving the position of the focus lens. The imaging optical system operation unit 102 receives a control signal instructing operation of various lenses from the CPU 107, and controls the positions of various lens groups provided in the imaging optical system 101 based on the received control signals.
撮像部103は受光した光を光電変換処理する画素領域を含み、当該画素領域には複数の画素が配置され、各画素によって撮像光学系101を透過した光束を電気的なアナログ画像信号に光電変換する。撮像部103には画像を形成するためのアナログ画像信号を光電変換する画像形成用画素の他に、像面位相差検出を行うためのアナログ画像信号を光電変換する位相差検出用画素が配置されている。画像形成用画素によって光電変換されたアナログ画像信号と検出用画素によって光電変換されたアナログ画像信号の位相差に基づいて各被写体に対する焦点のずれ量が検知される。位相差検出用画素は、全画素領域、又は画素領域の一部に配置され、本実施の形態では、一例として、位相差検出用画素が全画素領域に配置されている場合について説明する。また、撮像部103は、光電変換されたアナログ画像信号をデジタル画像信号に変換し、変換されたデジタル画像信号を撮像信号処理部104に出力する。 The imaging unit 103 includes a pixel region that performs photoelectric conversion processing on received light, and a plurality of pixels are arranged in the pixel region, and a light beam that has passed through the imaging optical system 101 by each pixel is photoelectrically converted into an electrical analog image signal. To do. In addition to image forming pixels that photoelectrically convert analog image signals for forming images, the imaging unit 103 includes phase difference detection pixels that photoelectrically convert analog image signals for performing image plane phase difference detection. ing. Based on the phase difference between the analog image signal photoelectrically converted by the image forming pixel and the analog image signal photoelectrically converted by the detection pixel, a defocus amount for each subject is detected. The phase difference detection pixels are arranged in the whole pixel region or a part of the pixel region. In this embodiment, as an example, a case where the phase difference detection pixels are arranged in the whole pixel region will be described. The imaging unit 103 converts the photoelectrically converted analog image signal into a digital image signal, and outputs the converted digital image signal to the imaging signal processing unit 104.
撮像信号処理部104は撮像部103から出力されたデジタル画像信号を変換して画像情報データを生成する。また、撮像信号処理部104は、検知された各被写体に対する焦点のずれ量に基づいて各被写体に対する焦点のずれを補正するためのデフォーカス量を算出する。算出されたデフォーカス量はRAM109に格納される。表示部105は各種画像や各種設定メニューを表示する。本実施の形態では、表示部105は撮像信号処理部104で生成された画像情報データに基づく各種画像を表示する。また、表示部105はピーキング機能によるマニュアルフォーカスの操作を補助する補助情報として、例えば、後述する図5(a)の破線で示す特定表示を表示する。 The imaging signal processing unit 104 converts the digital image signal output from the imaging unit 103 to generate image information data. Further, the imaging signal processing unit 104 calculates a defocus amount for correcting a focus shift with respect to each subject based on the detected focus shift amount with respect to each subject. The calculated defocus amount is stored in the RAM 109. The display unit 105 displays various images and various setting menus. In the present embodiment, the display unit 105 displays various images based on the image information data generated by the imaging signal processing unit 104. Further, the display unit 105 displays, for example, a specific display indicated by a broken line in FIG. 5A described later as auxiliary information for assisting the manual focus operation by the peaking function.
図2は、図1におけるカメラ100で実行される特定表示処理の手順を示すフローチャートである。 FIG. 2 is a flowchart showing the procedure of the specific display process executed by the camera 100 in FIG.
図2の処理は、CPU107がROM108に格納された各種プログラムを実行することによって行われる。また、図2の処理は、一定の間隔で実行され、当該実行結果に基づいて後述する図5(a)の各特定表示が更新されることを前提とする。 The processing in FIG. 2 is performed by the CPU 107 executing various programs stored in the ROM 108. Further, it is assumed that the processing in FIG. 2 is executed at regular intervals, and each specific display in FIG. 5A to be described later is updated based on the execution result.
ここで、ユーザがカメラ100を用いて、図3(a)に示すように、光軸300に沿う方向に被写体301〜303を撮影する場合、ピーキング機能を設定してマニュアルフォーカスの操作を行う。マニュアルフォーカスの操作によって被写体301に合焦させると、表示部105には図3(b)の画像304が表示される。画像304では、被写体301に図3(b)の破線で示すように当該被写体301が合焦していることを示す特定表示が表示される。その後、ユーザが被写体301から被写体302に合焦するようにマニュアルフォーカスの操作を行う際、被写体302が被写体301の手前に存在するのか若しくは奥に存在するのかを特定可能な補助情報が表示されると、ユーザは当該補助情報を用いて被写体302に容易にピント調整可能である。このような補助情報として、従来のカメラでは、例えば、所定の位置のフォーカスレンズによって撮影された画像及びフォーカスレンズを所定の位置から移動させて撮影された画像の差分に基づく情報を表示していた。この場合、フォーカスレンズを移動させる必要があり、補助情報を表示するまでに一定の時間を要してしまう問題が生じる。 Here, when the user uses the camera 100 to photograph the subjects 301 to 303 in the direction along the optical axis 300 as shown in FIG. 3A, the peaking function is set and the manual focus operation is performed. When the subject 301 is focused by the manual focus operation, the image 304 in FIG. 3B is displayed on the display unit 105. In the image 304, a specific display indicating that the subject 301 is in focus is displayed on the subject 301 as indicated by a broken line in FIG. After that, when the user performs a manual focus operation so that the subject 301 is focused on the subject 302, auxiliary information that can specify whether the subject 302 exists in front of or behind the subject 301 is displayed. Then, the user can easily adjust the focus on the subject 302 using the auxiliary information. As such auxiliary information, in a conventional camera, for example, information based on a difference between an image captured by a focus lens at a predetermined position and an image captured by moving the focus lens from the predetermined position is displayed. . In this case, there is a problem that it is necessary to move the focus lens, and it takes a certain time until the auxiliary information is displayed.
これに対応して、本実施の形態では、合焦された後述するメイン輪郭部の距離情報及び合焦されていない後述する各サブ輪郭部のデフォーカス量が算出される。該メイン輪郭部の距離情報及び各サブ輪郭部のデフォーカス量に基づいて後述する各サブ輪郭部の距離情報が算出される。また、各サブ輪郭部において、メイン輪郭部の距離情報より大きい距離情報を有する第1のサブ輪郭部が当該第1のサブ輪郭部を特定する特定表示(以下、「第1のサブ輪郭特定表示」という。)で表示される。さらに、メイン輪郭部の距離情報より小さい距離情報を有する第2のサブ輪郭部が第1のサブ輪郭特定表示と異なる、当該第2のサブ輪郭部を特定する特定表示(以下、「第2のサブ輪郭特定表示」という。)で表示される。 Correspondingly, in the present embodiment, distance information of a focused main contour portion described later and a defocus amount of each sub-contour portion described later that is not focused are calculated. Based on the distance information of the main contour portion and the defocus amount of each sub contour portion, distance information of each sub contour portion described later is calculated. Further, in each sub-contour part, the first sub-contour part having distance information larger than the distance information of the main contour part identifies the first sub-contour part (hereinafter referred to as “first sub-contour specific display”). "). Further, the second sub-contour portion having distance information smaller than the distance information of the main contour portion is different from the first sub-contour specification display, and a specific display for specifying the second sub-contour portion (hereinafter referred to as “second "Sub-contour specific display").
図2において、まず、CPU107は撮像信号処理部104で生成された画像情報データに含まれる周波数成分を解析し、当該画像情報データに基づく画像における各被写体の輪郭の一部を占める輪郭部を抽出する(ステップS201)。本実施の形態では、CPU107は、画像情報データに含まれる周波数成分のうち所定の周波数以上の高周波数成分を輪郭部として抽出する。輪郭部は周波数が高くなるにつれて鮮明に表示される。以下、輪郭部の鮮明さは輪郭度として説明する。また、CPU107は抽出された各輪郭部に各被写体の輪郭に対応する輪郭方向を設定する。次いで、CPU107は、抽出された輪郭部を輪郭度に基づいて分類する(ステップS202)。ステップS202では、予め設定された第1の閾値及び第2の閾値に基づいて分類する。第1の閾値は合焦された輪郭部(合焦領域)の輪郭度に相当し、第2の閾値は合焦されていないがユーザが輪郭として認識可能な鮮明さの輪郭度に相当する。 In FIG. 2, first, the CPU 107 analyzes a frequency component included in the image information data generated by the imaging signal processing unit 104, and extracts a contour portion that occupies a part of the contour of each subject in the image based on the image information data. (Step S201). In the present embodiment, the CPU 107 extracts a high frequency component equal to or higher than a predetermined frequency from the frequency components included in the image information data as a contour portion. The contour is displayed more clearly as the frequency increases. Hereinafter, the sharpness of the contour part will be described as the degree of contour. Further, the CPU 107 sets a contour direction corresponding to the contour of each subject in each extracted contour portion. Next, the CPU 107 classifies the extracted contour portion based on the contour degree (step S202). In step S202, classification is performed based on a preset first threshold value and second threshold value. The first threshold value corresponds to the contour degree of the focused contour portion (in-focus area), and the second threshold value corresponds to the sharpness contour degree that is not focused but can be recognized as a contour by the user.
ステップS202において、CPU107は輪郭度が第1の閾値以上の輪郭部を合焦された輪郭部として特定する(ステップS203)(第1の特定手段)。その後、CPU107は当該輪郭部を合焦された輪郭部であることを示すメイン輪郭部に設定し、抽出された全ての輪郭部の分類処理が完了したか否かを判別する(ステップS205)。 In step S202, the CPU 107 identifies a contour portion having a contour degree equal to or greater than the first threshold as a focused contour portion (step S203) (first identifying means). Thereafter, the CPU 107 sets the contour portion as a main contour portion indicating that it is a focused contour portion, and determines whether or not the classification processing of all the extracted contour portions has been completed (step S205).
また、ステップS202において、CPU107は、輪郭度が第2の閾値以上であって且つ第1の閾値未満の輪郭部を合焦されていない輪郭部(非合焦領域)ステップS204)(第2の特定手段)。その後、CPU107は、当該輪郭部を合焦されていないが、ユーザが輪郭として認識可能な鮮明さの輪郭部であることを示すサブ輪郭部に設定し、ステップS205の処理に進む。 In step S202, the CPU 107 sets a contour portion (out-of-focus region) where the contour degree is equal to or greater than the second threshold and less than the first threshold (step S204) (second focus). Specific means). Thereafter, the CPU 107 sets the contour portion as a sub-contour portion indicating that the contour portion is not focused but is a clear contour portion that the user can recognize as the contour, and the process proceeds to step S205.
さらに、ステップS202において、CPU107は、輪郭度が第2の閾値未満の輪郭部を、合焦されていない輪郭部として特定するが(第2の特定手段)、メイン輪郭部及びサブ輪郭部のいずれにも設定することなく、ステップS205の処理に進む。すなわち、本実施の形態では、画像情報データから抽出された輪郭部のうち第2の閾値以上の輪郭度を有する輪郭部のみを抽出し、さらに、抽出された輪郭部を、図4に示すように、第1の閾値を用いてメイン輪郭部及びサブ輪郭部のいずれかに設定する。 Furthermore, in step S202, the CPU 107 specifies a contour portion having a contour degree less than the second threshold as a contour portion that is not focused (second specifying means), but any of the main contour portion and the sub-contour portion. Also, the process proceeds to step S205 without setting. That is, in the present embodiment, only the contour portion having the contour degree equal to or higher than the second threshold value is extracted from the contour portions extracted from the image information data, and the extracted contour portion is as shown in FIG. In addition, it is set to either the main contour portion or the sub contour portion using the first threshold value.
ステップS205の判別の結果、抽出されたいずれかの輪郭部の分類処理が完了しないとき、CPU107は、ステップS202の処理に戻る。一方、ステップS205の判別の結果、抽出された全ての輪郭部の分類処理が完了したとき、CPU107は、メイン輪郭部をメイン輪郭特定表示で表示する(ステップS206)。具体的に、CPU107は、メイン輪郭特定表示としてメイン輪郭部を、例えば、赤色で表示する(例えば、図5(a)の破線で示す被写体501の表示)。 As a result of the determination in step S205, when the classification process for any of the extracted contour portions is not completed, the CPU 107 returns to the process in step S202. On the other hand, as a result of the determination in step S205, when the classification processing of all the extracted contour portions is completed, the CPU 107 displays the main contour portion in the main contour specifying display (step S206). Specifically, the CPU 107 displays the main contour portion in, for example, red as the main contour specifying display (for example, display of the subject 501 indicated by a broken line in FIG. 5A).
次いで、CPU107は、撮像光学系101に含まれるフォーカスレンズの位置に基づいてメイン輪郭部の距離情報、例えば、図5(b)のカメラ100からメイン輪郭部に対応する被写体501までの距離502を算出する(ステップS207)(算出手段)。次いで、CPU107は設定された各サブ輪郭部のデフォーカス量を決定する(ステップS208)(決定手段)。次いで、CPU107は、算出されたメイン輪郭部の距離情報及び各サブ輪郭部のデフォーカス量に基づいて各サブ輪郭部の距離情報を算出する(ステップS209)(算出手段)。各サブ輪郭部の距離情報は、例えば、図5(b)のカメラ100からサブ輪郭部に対応する被写体503,504までの距離505,506である。すなわち、本実施の形態では、CPU107は、撮像光学系101に含まれるフォーカスレンズ等を移動することなく、各サブ輪郭部の距離情報を算出可能である。なお、本実施の形態では、ステップS206の処理の後にステップS207〜S209の処理を行う場合について説明したが、ステップS207〜S209は後述するステップS210の処理を行う前に行われていればよい。例えば、ステップS207〜S209の処理は、ステップS201で各被写体の輪郭部を抽出した際に行ってもよい。また、予めステップS207〜S209の処理を行い、それぞれの算出結果をROM108に格納し、後述するステップS210の処理において、格納された各算出結果を用いてもよい。 Next, the CPU 107 calculates the distance information of the main contour portion based on the position of the focus lens included in the imaging optical system 101, for example, the distance 502 from the camera 100 in FIG. 5B to the subject 501 corresponding to the main contour portion. Calculate (step S207) (calculation means). Next, the CPU 107 determines the set defocus amount of each sub-contour part (step S208) (determination means). Next, the CPU 107 calculates distance information of each sub-contour portion based on the calculated distance information of the main contour portion and the defocus amount of each sub-contour portion (step S209) (calculation means). The distance information of each sub-contour part is, for example, distances 505 and 506 from the camera 100 in FIG. 5B to the subjects 503 and 504 corresponding to the sub-contour part. That is, in the present embodiment, the CPU 107 can calculate the distance information of each sub-contour part without moving the focus lens or the like included in the imaging optical system 101. In the present embodiment, the case where the processes of steps S207 to S209 are performed after the process of step S206 has been described. However, steps S207 to S209 may be performed before the process of step S210 described later is performed. For example, the processing in steps S207 to S209 may be performed when the contour portion of each subject is extracted in step S201. Alternatively, the processes of steps S207 to S209 may be performed in advance, and the respective calculation results may be stored in the ROM 108, and the stored calculation results may be used in the process of step S210 described later.
次いで、CPU107は、全てのサブ輪郭部に対し、各サブ輪郭部の距離情報がメイン輪郭部の距離情報より大きいか否か判別する(ステップS210)。 Next, the CPU 107 determines whether or not the distance information of each sub-contour portion is larger than the distance information of the main contour portion for all sub-contour portions (step S210).
ステップS210の判別の結果、サブ輪郭部の距離情報がメイン輪郭部の距離情報より大きいとき、CPU107は、メイン輪郭部の距離情報より大きい距離情報を有するサブ輪郭部を第1のサブ輪郭部に設定する。例えば、図5(b)において、被写体501の距離502より大きい距離506の被写体504を示す輪郭部が第1のサブ輪郭部に設定される。その後、CPU107は、第1のサブ輪郭部を第1のサブ輪郭特定表示で表示する(ステップS211)。具体的に、CPU107は、第1のサブ輪郭部を、例えば、青色で表示する(例えば、図5(a)の二点鎖線で示す被写体504の表示)。次いで、CPU107はステップS213の処理に進む。 As a result of the determination in step S210, when the distance information of the sub contour portion is larger than the distance information of the main contour portion, the CPU 107 sets the sub contour portion having the distance information larger than the distance information of the main contour portion as the first sub contour portion. Set. For example, in FIG. 5B, a contour portion indicating the subject 504 having a distance 506 larger than the distance 502 of the subject 501 is set as the first sub-contour portion. Thereafter, the CPU 107 displays the first sub-contour part in the first sub-contour specifying display (step S211). Specifically, the CPU 107 displays the first sub-contour portion in, for example, blue (for example, display of the subject 504 indicated by a two-dot chain line in FIG. 5A). Next, the CPU 107 proceeds to the process of step S213.
ステップS210の判別の結果、サブ輪郭部の距離情報がメイン輪郭部の距離情報より小さいとき、CPU107は、メイン輪郭部の距離情報より小さい距離情報を有するサブ輪郭部を第2のサブ輪郭部に設定する。例えば、図5(b)において、被写体501の距離502より小さい距離505の被写体503が第2のサブ輪郭部に設定される。その後、CPU107は、第2のサブ輪郭部を第2のサブ輪郭特定表示で表示する(ステップS212)。具体的に、CPU107は、第2のサブ輪郭部を、例えば、黄色で表示する(例えば、図5(a)の一点鎖線で示す被写体503の表示)。すなわち、本実施の形態では、メイン輪郭特定表示、第1のサブ輪郭特定表示、及び第2のサブ輪郭特定表示は、互いに異なる特定の色で表示される。次いで、CPU107は、全てのサブ輪郭部に対する判別処理が完了したか否かを判別する(ステップS213)。 When the distance information of the sub contour portion is smaller than the distance information of the main contour portion as a result of the determination in step S210, the CPU 107 sets the sub contour portion having distance information smaller than the distance information of the main contour portion as the second sub contour portion. Set. For example, in FIG. 5B, a subject 503 having a distance 505 smaller than the distance 502 of the subject 501 is set as the second sub-contour part. Thereafter, the CPU 107 displays the second sub-contour part in the second sub-contour specifying display (step S212). Specifically, the CPU 107 displays the second sub-contour portion in, for example, yellow (for example, display of the subject 503 indicated by a one-dot chain line in FIG. 5A). That is, in the present embodiment, the main contour specifying display, the first sub-contour specifying display, and the second sub-contour specifying display are displayed in different specific colors. Next, the CPU 107 determines whether or not the determination process for all the sub-contour portions has been completed (step S213).
ステップS213の判別の結果、いずれかのサブ輪郭部に対する判別処理が完了しないとき、CPU107はステップS210の処理に戻る。一方、ステップS213の判別の結果、全てのサブ輪郭部に対する判別処理が完了したとき、CPU107は本処理を終了する。 As a result of the determination in step S213, when the determination process for any sub-contour part is not completed, the CPU 107 returns to the process in step S210. On the other hand, when the determination processing for all the sub-contour portions is completed as a result of the determination in step S213, the CPU 107 ends this processing.
上述した図2の処理によれば、メイン輪郭部の距離情報及び各サブ輪郭部のデフォーカス量に基づいて各サブ輪郭部の距離情報が算出される。そのため、撮像光学系101に含まれるフォーカスレンズの移動等を行うことなく、各サブ輪郭部の距離情報を取得することができる。その結果、被写体503を示すサブ輪郭部が第1のサブ輪郭部及び第2のサブ輪郭部のいずれに該当するかを一定の時間を要することなく判定することができる。 According to the process of FIG. 2 described above, the distance information of each sub-contour part is calculated based on the distance information of the main contour part and the defocus amount of each sub-contour part. Therefore, it is possible to acquire distance information of each sub-contour part without moving the focus lens included in the imaging optical system 101 or the like. As a result, it can be determined without taking a certain time whether the sub-contour portion indicating the subject 503 corresponds to the first sub-contour portion or the second sub-contour portion.
また、図2の処理によれば、第1のサブ輪郭部が第1のサブ輪郭特定表示で表示され、第2のサブ輪郭部が第2のサブ輪郭特定表示で表示される。ここで、ユーザは、被写体503を示すサブ輪郭部が、第1のサブ輪郭特定表示及び第2のサブ輪郭特定表示のいずれかで表示されるかを判別することにより、当該サブ輪郭部の距離情報がメイン輪郭部の距離情報より小さいか大きいかを判別することができる。すなわち、第1のサブ輪郭特定表示及び第2のサブ輪郭特定表示はマニュアルフォーカスの操作を補助する補助情報に他ならない。 In addition, according to the processing of FIG. 2, the first sub-contour part is displayed with the first sub-contour specifying display, and the second sub-contour part is displayed with the second sub-contour specifying display. Here, the user determines whether the sub-contour part indicating the subject 503 is displayed in either the first sub-contour specification display or the second sub-contour specification display, thereby determining the distance of the sub-contour part. Whether the information is smaller or larger than the distance information of the main contour portion can be determined. That is, the first sub-contour specifying display and the second sub-contour specifying display are nothing but auxiliary information for assisting the manual focus operation.
図2の処理によれば、被写体503を示すサブ輪郭部が第1のサブ輪郭部及び第2のサブ輪郭部のいずれに該当するかを一定の時間を要することなく判定することができる。そのため、カメラ100は補助情報に該当する第1のサブ輪郭特定表示及び第2のサブ輪郭特定表示を一定の時間を要することなく行うことができる。 According to the processing in FIG. 2, it can be determined without taking a certain time whether the sub-contour portion indicating the subject 503 corresponds to the first sub-contour portion or the second sub-contour portion. Therefore, the camera 100 can perform the first sub-contour specifying display and the second sub-contour specifying display corresponding to the auxiliary information without requiring a certain time.
また、上述した図2の処理では、メイン輪郭部が第1のサブ輪郭特定表示及び第2のサブ輪郭特定表示と異なる色のメイン輪郭特定表示で表示される。これにより、ユーザが合焦された被写体の輪郭を容易に特定することができ、もって、ユーザが所望する被写体に合焦されているか否かをユーザが容易に判別することができる。 In the process of FIG. 2 described above, the main contour portion is displayed in a main contour specifying display having a different color from the first sub contour specifying display and the second sub contour specifying display. As a result, the contour of the subject focused by the user can be easily specified, and thus the user can easily determine whether or not the subject desired by the user is focused.
以上、本発明について実施の形態を用いて説明したが、本発明は上述した実施の形態に限定されるものではない。 Although the present invention has been described above by using the embodiment, the present invention is not limited to the above-described embodiment.
例えば、メイン輪郭特定表示、第1のサブ輪郭特定表示、及び第2のサブ輪郭特定表示は、破線、一点鎖線、二点鎖線を含む互いに異なる特定の種類の線や、互いに異なる特定の間隔の点滅であってもよい。この場合も、ユーザがメイン輪郭部、第1のサブ輪郭部、及び第2のサブ輪郭部を確実に特定することができ、もって、ユーザがメイン輪郭部、第1のサブ輪郭部、及び第2のサブ輪郭部の各々を見誤るのを防止することができる。 For example, the main contour specifying display, the first sub-contour specifying display, and the second sub-contour specifying display are different types of specific types of lines including broken lines, one-dot chain lines, two-dot chain lines, and different specific intervals. It may be blinking. Also in this case, the user can reliably specify the main contour portion, the first sub-contour portion, and the second sub-contour portion, so that the user can specify the main contour portion, the first sub-contour portion, and the first sub-contour portion, and It is possible to prevent mistaking each of the two sub-contour portions.
また、本実施の形態では、位相差検出用画素が撮像部103の全画素領域に配置されている場合に限定されず、位相差検出用画素が画素領域の一部に配置されている場合であってもよい。この場合、生成された画像情報データに基づく画像のうち、配置された位相差検出用画素が検知可能な位相差検出可能領域のみサブ輪郭部の距離情報が算出される。位相差検出可能領域は、例えば、図6(a)の部分領域601を含む斜線のライン状の各部分領域や、図6(b)の部分領域602を含む斜線の矩形状の各部分領域である。すなわち、図6(a)及び図6(b)の斜線で示す各部分領域以外のサブ輪郭部の距離情報が欠落し、その結果、補助情報を表示することができない可能性がある。 In the present embodiment, the present invention is not limited to the case where the phase difference detection pixels are arranged in the entire pixel region of the imaging unit 103, and the case where the phase difference detection pixels are arranged in a part of the pixel region. There may be. In this case, in the image based on the generated image information data, the distance information of the sub-contour part is calculated only in the phase difference detectable region that can be detected by the arranged phase difference detection pixels. The phase difference detectable region is, for example, each hatched line-shaped partial region including the partial region 601 in FIG. 6A and each hatched rectangular partial region including the partial region 602 in FIG. is there. That is, there is a possibility that the distance information of the sub-contour portions other than the partial areas indicated by the oblique lines in FIGS. 6A and 6B is lost, and as a result, the auxiliary information cannot be displayed.
これに対応して、本実施の形態では、サブ輪郭部の距離情報が存在しない場合、画像情報データに基づく画像において距離情報無しサブ輪郭部に近接する距離情報有りサブ輪郭部の距離情報が、距離情報無しサブ輪郭部の距離情報として用いられる。距離情報無しサブ輪郭部と距離情報有りサブ輪郭部については後述する。 Correspondingly, in this embodiment, when there is no distance information of the sub-contour part, the distance information of the sub-contour part with distance information in the image based on the image information data is close to the sub-contour part with distance information, This is used as distance information of the sub-contour part without distance information. The sub-contour part without distance information and the sub-contour part with distance information will be described later.
図7A及び図7Bは、図2の特定表示処理の変形例の手順を示すフローチャートである。 7A and 7B are flowcharts showing the procedure of a modification of the specific display process of FIG.
図7A及び図7Bの処理は、CPU107がROM108に格納された各種プログラムを実行することによって行われる。また、図7A及び図7Bの処理は、一定の間隔で実行され、当該実行結果に基づいて後述する図8(a)の各特定表示が更新されることを前提とする。 The processing in FIGS. 7A and 7B is performed by the CPU 107 executing various programs stored in the ROM 108. 7A and 7B are executed at regular intervals, and it is assumed that each specific display in FIG. 8A described later is updated based on the execution result.
図7A及び図7Bにおいて、まず、CPU107は、図2のステップS201〜S209と同様の処理を実行する。次いで、CPU107は、設定された全てのサブ輪郭部の距離情報が存在するか否かを判別する(ステップS701)。 7A and 7B, first, the CPU 107 executes processing similar to steps S201 to S209 in FIG. Next, the CPU 107 determines whether there is distance information of all the set sub-contour portions (step S701).
ステップS701の判別の結果、設定された全てのサブ輪郭部の距離情報が存在するとき、CPU107は、図2のステップS210〜S213と同様の処理を行って、本処理を終了する。一方、ステップS701の判別の結果、設定されたいずれかのサブ輪郭部の距離情報が存在しないとき、CPU107は判別処理を行う。具体的に、CPU107は、画像情報データに基づく画像において、距離情報を有しないサブ輪郭部の近接に距離情報を有するサブ輪郭部が存在するか否かを判別する(ステップS702)。以下、距離情報を有するサブ輪郭部は距離情報有りサブ輪郭部とし、距離情報を有しないサブ輪郭部は距離情報無しサブ輪郭部として説明する。 As a result of the determination in step S701, when there is distance information of all the set sub-contour portions, the CPU 107 performs the same processing as that in steps S210 to S213 in FIG. 2 and ends this processing. On the other hand, as a result of the determination in step S701, when there is no distance information of any set sub-contour part, the CPU 107 performs a determination process. Specifically, the CPU 107 determines whether or not there is a sub-contour part having distance information in the vicinity of the sub-contour part having no distance information in the image based on the image information data (step S702). Hereinafter, the sub-contour part having distance information will be described as a sub-contour part with distance information, and the sub-contour part without distance information will be described as a sub-contour part without distance information.
ステップS702の判別の結果、距離情報無しサブ輪郭部の近接に1つの距離情報有りサブ輪郭部が存在するとき、CPU107は、近接する距離情報有りサブ輪郭部の距離情報を距離情報無しサブ輪郭部の距離情報として用いる(ステップS703)。次いで、CPU107は、図2のステップS210の処理に進む。 As a result of the determination in step S702, when one sub-contour part with distance information exists in the vicinity of the sub-contour part without distance information, the CPU 107 displays the distance information of the sub-contour part with distance information nearby without the distance information. Is used as distance information (step S703). Next, the CPU 107 proceeds to the process of step S210 in FIG.
ステップS702の判別の結果、距離情報無しサブ輪郭部の近接に複数の距離情報有りサブ輪郭部が存在するとき、CPU107は、当該複数の距離情報有りサブ輪郭部の全ての距離情報が一致するか否かを判別する(ステップS704)。例えば、図8(a)に示すようにカメラ100との距離情報が夫々異なる被写体801,802を含む図8(b)の画像800において、領域803では、被写体801の輪郭部のみが含まれ、複数の距離情報有りサブ輪郭部の全ての距離情報が一致する。一方、領域804では、被写体801の輪郭部及び当該被写体801と距離情報の異なる被写体802の輪郭部の各々が含まれるので、複数の距離情報有りサブ輪郭部のいずれかの距離情報が一致しない。 As a result of the determination in step S702, when there are a plurality of sub-contour parts with distance information in the vicinity of the sub-contour part without distance information, the CPU 107 determines whether all the distance information of the plurality of sub-contour parts with distance information matches. It is determined whether or not (step S704). For example, as shown in FIG. 8A, in the image 800 in FIG. 8B including the subjects 801 and 802 having different distance information from the camera 100, the region 803 includes only the outline of the subject 801. All the distance information of the sub-contour part with a plurality of distance information matches. On the other hand, the area 804 includes the contour portion of the subject 801 and the contour portion of the subject 802 having distance information different from that of the subject 801, so that the distance information of any of the plurality of sub-contour portions with distance information does not match.
ステップS704の判別の結果、複数の距離情報有りサブ輪郭部の全ての距離情報が一致するとき、CPU107は、ステップS703の処理に進む。一方、ステップS704の判別の結果、複数の距離情報有りサブ輪郭部の距離情報のうちいずれかの距離情報が一致しないとき、CPU107は選択処理を行う。具体的に、CPU107は、複数の距離情報有りサブ輪郭部の距離情報のうち距離情報無しサブ輪郭部の輪郭方向に最も近い輪郭方向の距離情報有りサブ輪郭部の距離情報を選択する。例えば、図9の矢印で示す輪郭方向が夫々設定された距離情報無しサブ輪郭部901及び距離情報有りサブ輪郭部902,903,904において、CPU107は、距離情報有りサブ輪郭部902,903,904の距離情報のうち距離情報無しサブ輪郭部901の輪郭方向に最も近い距離情報有りサブ輪郭部902の距離情報を距離情報無しサブ輪郭部901の距離情報として選択する。なお、本実施の形態では、複数の距離情報有りサブ輪郭部の距離情報うち、一致する距離情報の数が最も多い距離情報を選択してもよい。その後、CPU107は、選択された距離情報を距離情報無しサブ輪郭部のサブ輪郭距離情報として用いる(ステップS705)。次いで、CPU107は、ステップS210の処理に進む。 As a result of the determination in step S704, when all the distance information of the plurality of sub-contour parts with distance information match, the CPU 107 proceeds to the process of step S703. On the other hand, as a result of the determination in step S704, when any one of the distance information of the plurality of distance information sub-contour portions does not match, the CPU 107 performs a selection process. Specifically, the CPU 107 selects distance information of the sub-contour part with distance information in the contour direction closest to the contour direction of the sub-contour part without distance information among the plurality of distance information of the sub-contour part with distance information. For example, in the sub-contour portion 901 without distance information and the sub-contour portions 902, 903, and 904 with distance information in which the contour directions indicated by the arrows in FIG. 9 are set, the CPU 107 displays the sub-contour portions 902, 903, and 904 with distance information. The distance information of the sub-contour part 902 with distance information closest to the contour direction of the sub-contour part 901 without distance information is selected as the distance information of the sub-contour part 901 without distance information. In the present embodiment, the distance information with the largest number of matching distance information may be selected from among the distance information of the plurality of sub-contour parts with distance information. Thereafter, the CPU 107 uses the selected distance information as the sub-contour distance information of the sub-contour part without distance information (step S705). Next, the CPU 107 proceeds to the process of step S210.
ステップS702の判別の結果、距離情報無しサブ輪郭部の近接に距離情報有りサブ輪郭部が存在しないとき、CPU107は、距離情報無しサブ輪郭部に対してサブ輪郭部の設定を解除し、ステップS213の処理に進む。 As a result of the determination in step S702, when there is no sub-contour part with distance information in the vicinity of the sub-contour part without distance information, the CPU 107 cancels the setting of the sub-contour part for the sub-contour part without distance information, and step S213. Proceed to the process.
上述した図7A及び図7Bの処理では、サブ輪郭部の距離情報が存在しない場合、生成された画像情報データに基づく画像において距離情報無しサブ輪郭部に近接する距離情報有りサブ輪郭部の距離情報が距離情報無しサブ輪郭部の距離情報として用いられる。これにより、上記画像における一部のサブ輪郭部の距離情報が算出されていなくても、上記画像を構成する全てのサブ輪郭部の距離情報を取得することができる。その結果、例えば、一部のサブ輪郭部の距離情報が存在していなくても、補助情報を確実に表示することができる。 In the processing of FIGS. 7A and 7B described above, when there is no distance information of the sub-contour part, the distance information of the sub-contour part with distance information close to the sub-contour part without distance information in the image based on the generated image information data Is used as the distance information of the sub-contour part without distance information. Thereby, even if the distance information of some sub-contour parts in the image is not calculated, the distance information of all the sub-contour parts constituting the image can be acquired. As a result, for example, auxiliary information can be reliably displayed even if distance information of some sub-contour portions does not exist.
また、上述した図7A及び図7Bの処理では、全てのサブ輪郭部には輪郭方向が設定され、複数の距離情報有りサブ輪郭部の距離情報が互いに異なる場合、複数の距離情報有りサブ輪郭部の距離情報のうち距離情報無しサブ輪郭部に設定された輪郭方向に最も近い輪郭方向が設定されている距離情報有りサブ輪郭部の距離情報が距離情報無しサブ輪郭部の距離情報として用いられる。これにより、上記画像において、距離情報無しサブ輪郭部に近接する複数の距離情報有りサブ輪郭部が互いに異なる距離情報を有していても、距離情報無しサブ輪郭部の輪郭に似た輪郭を含む距離情報有りサブ輪郭部の距離情報が選択されるため、傾向が異なる距離情報有りサブ輪郭部の距離情報が距離情報無しサブ輪郭部の距離情報として用いられるのを防止することができ、もって、距離情報無しサブ輪郭部の距離情報の信頼性を向上することができる。 7A and 7B described above, when the contour direction is set for all the sub-contour parts and the distance information of the sub-contour parts with a plurality of distance information is different from each other, the sub-contour parts with a plurality of distance information are provided. The distance information of the sub-contour part with distance information in which the contour direction closest to the contour direction set in the sub-contour part without distance information is set is used as the distance information of the sub-contour part without distance information. As a result, the image includes a contour similar to the contour of the sub-contour portion without distance information even if the plurality of sub-contour portions with distance information adjacent to the sub-contour portion without distance information have different distance information. Since the distance information of the sub-contour part with the distance information is selected, it is possible to prevent the distance information of the sub-contour part with the distance information having a different tendency from being used as the distance information of the sub-contour part without the distance information, It is possible to improve the reliability of the distance information of the sub-contour part without distance information.
本発明は、上述の実施の形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read the program. It can also be realized by processing executed in the above. The present invention can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 カメラ
104 撮像信号処理部
105 表示部
107 CPU
100 Camera 104 Imaging signal processing unit 105 Display unit 107 CPU
Claims (8)
前記撮像された画像において合焦された合焦領域を特定する第1の特定手段と、
前記撮像された画像において合焦されない非合焦領域を特定する第2の特定手段と、
前記合焦領域の距離情報を算出する算出手段と、
前記非合焦領域の撮像面位相差検出の結果に基づいて前記非合焦領域のデフォーカス量を決定する決定手段と、
前記撮像された画像の表示を制御する表示制御手段とを備え、
前記算出手段は、前記合焦領域の距離情報及び前記デフォーカス量に基づいて前記非合焦領域の距離情報を算出し、
前記表示制御手段は、前記画像処理手段により抽出された輪郭部であって前記非合焦領域において前記合焦領域の距離情報より大きい距離情報を有する第1の非合焦領域に含まれる輪郭部を第1の特定表示で表示するように制御し、前記画像処理手段により抽出された輪郭部であって前記非合焦領域において前記合焦領域の距離情報より小さい距離情報を有する第2の非合焦領域に含まれる輪郭部を前記第1の特定表示と異なる第2の特定表示で表示するように制御し、前記画像処理手段により抽出された輪郭部であって前記合焦領域に含まれる輪郭部を前記第1の特定表示及び前記第2の特定表示と異なる第3の特定表示で表示するように制御することを特徴とする画像処理装置。 Image processing means for extracting an outline portion of the object from the captured image,
A first specifying means for specifying the focused focus regions in the captured image,
Second specifying means for specifying a non-focus area which is not focused in the captured image,
Calculating means for calculating distance information of the in-focus area;
Determining means for determining a defocus amount of the out-of-focus region based on the out-of-focus of an imaging plane phase difference detection area result,
And display control means for controlling the display of the captured image,
The calculating means calculates distance information of the out-of-focus area based on the distance information of the in-focus area and the defocus amount;
Wherein the display control unit, included in the first out-of-focus region with a larger distance information from the distance information before Kigoase region Te wherein a contour extracted unfocused region odor by the image processing unit A second contour control is performed to display the contour portion in the first specific display, and the contour portion is extracted by the image processing means and has distance information smaller than the distance information of the in-focus region in the out-of-focus region. The contour portion included in the non-focused area is controlled to be displayed in a second specific display different from the first specific display, and is the contour extracted by the image processing means, An image processing apparatus that controls to display a contour portion included in a third specific display different from the first specific display and the second specific display .
前記他の部分領域が複数存在し、前記複数の他の部分領域の各々には、当該部分領域に含まれる輪郭部であって前記画像処理手段により抽出された輪郭部に基づいて輪郭方向が設定され、
前記複数の他の部分領域の前記距離情報が互いに異なる場合、前記複数の他の部分領域の距離情報のうち前記部分領域に設定された輪郭方向に最も近い輪郭方向が設定されている前記他の部分領域の距離情報を前記部分領域の距離情報として用いることを特徴とする請求項5記載の画像処理装置。 In the partial region, a contour direction is set based on a contour portion included in the partial region and extracted by the image processing unit ,
A plurality of the other partial areas exist, and a contour direction is set in each of the plurality of other partial areas based on a contour part included in the partial area and extracted by the image processing unit. And
When the distance information of the plurality of other partial areas is different from each other, the contour direction closest to the contour direction set to the partial area is set among the distance information of the plurality of other partial areas. 6. The image processing apparatus according to claim 5 , wherein the distance information of the partial area is used as the distance information of the partial area.
前記撮像された画像において合焦された合焦領域を特定する第1の特定ステップと、
前記撮像された画像において合焦されない非合焦領域を特定する第2の特定ステップと、
前記合焦領域の距離情報を算出する算出ステップと、
前記非合焦領域の撮像面位相差検出の結果に基づいて前記非合焦領域のデフォーカス量を決定する決定ステップと、
前記撮像された画像を表示する表示制御ステップとを備え、
前記算出ステップは、前記合焦領域の距離情報及び前記デフォーカス量に基づいて前記非合焦領域の距離情報を算出し、
前記表示制御ステップは、前記画像処理ステップで抽出された輪郭部であって前記非合焦領域において前記合焦領域の距離情報より大きい距離情報を有する第1の非合焦領域に含まれる輪郭部を第1の特定表示で表示するように制御し、前記画像処理ステップで抽出された輪郭部であって前記非合焦領域において前記合焦領域の距離情報より小さい距離情報を有する第2の非合焦領域に含まれる輪郭部を前記第1の特定表示と異なる第2の特定表示で表示するように制御し、前記画像処理ステップで抽出された輪郭部であって前記合焦領域に含まれる輪郭部を前記第1の特定表示及び前記第2の特定表示と異なる第3の特定表示で表示するように制御することを特徴とする画像処理装置の制御方法。 An image processing step of extracting the contour of the object from the captured image,
A first specifying step of specifying a focused focal regions in the captured image,
A second specifying step of specifying a non-focus area which is not focused in the captured image,
A calculation step of calculating distance information of the in-focus area;
A determination step of determining a defocus amount of the out-of-focus region based on the out-of-focus of an imaging plane phase difference detection area result,
And a display control step of displaying the captured image,
The calculating step calculates distance information of the out-of-focus area based on the distance information of the in-focus area and the defocus amount;
The display control step is included in the first out-of-focus region with a larger distance information from the distance information before Kigoase area the image processing a contour extracted in step Te said out-of-focus regions smell A second contour control is performed to display the contour portion in the first specific display, and the contour portion is extracted in the image processing step and has distance information smaller than the distance information of the in-focus region in the out-of-focus region. The contour portion included in the out-of-focus region is controlled to be displayed in a second specific display different from the first specific display, and is the contour portion extracted in the image processing step. A control method for an image processing apparatus, comprising: controlling a contour portion included in a third specific display different from the first specific display and the second specific display .
前記画像処理装置の制御方法は、
撮像された画像から各被写体の輪郭部を抽出する画像処理ステップと、
前記撮像された画像において合焦された合焦領域を特定する第1の特定ステップと、
前記撮像された画像において合焦されない非合焦領域を特定する第2の特定ステップと、
前記合焦領域の距離情報を算出する算出ステップと、
前記非合焦領域の撮像面位相差検出の結果に基づいて前記非合焦領域のデフォーカス量を決定する決定ステップと、
前記撮像された画像を表示する表示制御ステップとを備え、
前記算出ステップは、前記合焦領域の距離情報及び前記デフォーカス量に基づいて前記非合焦領域の距離情報を算出し、
前記表示制御ステップは、前記画像処理ステップで抽出された輪郭部であって前記非合焦領域において前記合焦領域の距離情報より大きい距離情報を有する第1の非合焦領域に含まれる輪郭部を第1の特定表示で表示するように制御し、前記画像処理ステップで抽出された輪郭部であって前記非合焦領域において前記合焦領域の距離情報より小さい距離情報を有する第2の非合焦領域に含まれる輪郭部を前記第1の特定表示と異なる第2の特定表示で表示するように制御し、前記画像処理ステップで抽出された輪郭部であって前記合焦領域に含まれる輪郭部を前記第1の特定表示及び前記第2の特定表示と異なる第3の特定表示で表示するように制御することを特徴とするプログラム。 A program for executing a control method for images processing device to the computer,
The control method of the image processing apparatus is:
An image processing step of extracting a contour portion of each subject from the captured image;
A first specifying step of specifying a focused focal regions in the captured image,
A second specifying step of specifying a non-focus area which is not focused in the captured image,
A calculation step of calculating distance information of the in-focus area;
A determination step of determining a defocus amount of the out-of-focus region based on the out-of-focus of an imaging plane phase difference detection area result,
And a display control step of displaying the captured image,
The calculating step calculates distance information of the out-of-focus area based on the distance information of the in-focus area and the defocus amount;
The display control step is included in the first out-of-focus region with a larger distance information from the distance information before Kigoase area the image processing a contour extracted in step Te said out-of-focus regions smell A second contour control is performed to display the contour portion in the first specific display, and the contour portion is extracted in the image processing step and has distance information smaller than the distance information of the in-focus region in the out-of-focus region. The contour portion included in the out-of-focus region is controlled to be displayed in a second specific display different from the first specific display, and is the contour portion extracted in the image processing step. The program which controls to display the outline part contained in the 3rd specific display different from the 1st specific display and the 2nd specific display .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015138848A JP6604760B2 (en) | 2015-07-10 | 2015-07-10 | Image processing apparatus, control method therefor, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015138848A JP6604760B2 (en) | 2015-07-10 | 2015-07-10 | Image processing apparatus, control method therefor, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017022565A JP2017022565A (en) | 2017-01-26 |
JP6604760B2 true JP6604760B2 (en) | 2019-11-13 |
Family
ID=57889920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015138848A Active JP6604760B2 (en) | 2015-07-10 | 2015-07-10 | Image processing apparatus, control method therefor, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6604760B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019187502A1 (en) * | 2018-03-29 | 2019-10-03 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP7113327B1 (en) * | 2021-07-12 | 2022-08-05 | パナソニックIpマネジメント株式会社 | Imaging device |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007124281A (en) * | 2005-10-28 | 2007-05-17 | Nikon Corp | Imaging apparatus |
JP2008116848A (en) * | 2006-11-07 | 2008-05-22 | Canon Inc | Imaging apparatus |
US20090080876A1 (en) * | 2007-09-25 | 2009-03-26 | Mikhail Brusnitsyn | Method For Distance Estimation Using AutoFocus Image Sensors And An Image Capture Device Employing The Same |
JP5039570B2 (en) * | 2008-01-09 | 2012-10-03 | キヤノン株式会社 | Display device, video display system, and display method |
JP5178553B2 (en) * | 2009-01-27 | 2013-04-10 | オリンパス株式会社 | Imaging device |
JP2010213105A (en) * | 2009-03-11 | 2010-09-24 | Olympus Corp | Imaging apparatus |
US8432434B2 (en) * | 2011-07-08 | 2013-04-30 | Mitsubishi Electric Research Laboratories, Inc. | Camera and method for focus based depth reconstruction of dynamic scenes |
CN104041009B (en) * | 2011-12-28 | 2016-02-03 | 富士胶片株式会社 | Imaging apparatus and camera head |
JP5919998B2 (en) * | 2012-04-27 | 2016-05-18 | 株式会社ニコン | Imaging apparatus, image processing apparatus, image processing method, and program |
JP6063662B2 (en) * | 2012-07-25 | 2017-01-18 | オリンパス株式会社 | Imaging apparatus and imaging method |
JP6112925B2 (en) * | 2013-03-15 | 2017-04-12 | オリンパス株式会社 | Display device and display method |
JP6175878B2 (en) * | 2013-04-25 | 2017-08-09 | 富士通株式会社 | Image processing circuit, image processing apparatus, and image processing method |
FR3013491B1 (en) * | 2013-11-19 | 2016-01-15 | Commissariat Energie Atomique | DETERMINATION OF THE DEPTH MAP IMAGE OF A SCENE |
JP5964937B2 (en) * | 2014-12-05 | 2016-08-03 | オリンパス株式会社 | Image processing method, electronic device, and program |
-
2015
- 2015-07-10 JP JP2015138848A patent/JP6604760B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017022565A (en) | 2017-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9992478B2 (en) | Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images | |
JP5374119B2 (en) | Distance information acquisition device, imaging device, and program | |
JP7289621B2 (en) | Control device, imaging device, control method, and program | |
JP7154758B2 (en) | Image processing device and its control method | |
JP5619124B2 (en) | Image processing apparatus, imaging apparatus, image processing program, and image processing method | |
US10097806B2 (en) | Image processing apparatus, image pickup apparatus, image processing method, non-transitory computer-readable storage medium for improving quality of image | |
JP6525809B2 (en) | Focus detection apparatus and control method thereof | |
JP6395429B2 (en) | Image processing apparatus, control method thereof, and storage medium | |
JP6604760B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2009047498A (en) | Stereoscopic imaging device, control method of stereoscopic imaging device, and program | |
JP6431429B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP6381434B2 (en) | FOCUS CONTROL DEVICE, OPTICAL DEVICE, AND FOCUS CONTROL METHOD | |
JP6005246B2 (en) | Imaging apparatus, histogram display method, program, and image processing apparatus | |
JP7373297B2 (en) | Image processing device, image processing method and program | |
JP6648916B2 (en) | Imaging device | |
KR101599434B1 (en) | Space detecting apparatus for image pickup apparatus using auto focusing and the method thereof | |
JP6501512B2 (en) | Focus control apparatus, focus control method and focus control program | |
US20160065941A1 (en) | Three-dimensional image capturing apparatus and storage medium storing three-dimensional image capturing program | |
JP2010154323A (en) | Image processing apparatus, image extraction method, and, program | |
JP2020086216A (en) | Imaging control device, imaging apparatus and imaging control program | |
JP7020387B2 (en) | Imaging control device, imaging device and imaging control program | |
JP7437915B2 (en) | Image processing device, imaging device, image processing method, and program | |
JP2016161759A (en) | Imaging device | |
JP2016080738A (en) | Imaging apparatus and automatic focusing method | |
JP6066765B2 (en) | Imaging device, control method thereof, and control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180619 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190917 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191015 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6604760 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |