JP5967172B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP5967172B2
JP5967172B2 JP2014224148A JP2014224148A JP5967172B2 JP 5967172 B2 JP5967172 B2 JP 5967172B2 JP 2014224148 A JP2014224148 A JP 2014224148A JP 2014224148 A JP2014224148 A JP 2014224148A JP 5967172 B2 JP5967172 B2 JP 5967172B2
Authority
JP
Japan
Prior art keywords
image
pixel
image processing
processing apparatus
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014224148A
Other languages
Japanese (ja)
Other versions
JP2015079519A (en
Inventor
奈穂 鈴木
奈穂 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014224148A priority Critical patent/JP5967172B2/en
Publication of JP2015079519A publication Critical patent/JP2015079519A/en
Application granted granted Critical
Publication of JP5967172B2 publication Critical patent/JP5967172B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置等に係り、ボカシ処理等の画像処理を行う画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing apparatus or the like, an image processing apparatus that performs image processing of the blurring process and the like, relates to an image processing method and an image processing program.

近年、デジタルカメラの普及により、デジタルカメラによる静止画像の撮影後に、撮影された静止画像に対して様々なデジタル画像処理が行われるようになっている。ボカシ処理もその一つである。ボカシ処理とは、静止画像のボケ量を変更する処理のことである。   In recent years, with the widespread use of digital cameras, various digital image processing has been performed on captured still images after the still images are captured by the digital cameras. The blur processing is one of them. The blur process is a process for changing the blur amount of a still image.

ボカシ処理の技術として、静止画像に対して合焦させたい画素を選択すると、この画素に対応する部分に合焦されるように、一意に静止画像の各画素に対応する部分のボケ量を変更してボケ画像を生成するという技術がある。この技術は、同一のシーンの静止画像を焦点距離に応じて複数枚用意し、これらの複数枚の静止画像を元に3次元的な距離を算出することで、ボケ量を変更している(例えば、特許文献1参照)。   As a blur processing technique, when a pixel to be focused on a still image is selected, the blur amount of the portion corresponding to each pixel of the still image is uniquely changed so that the portion corresponding to the pixel is focused. Then, there is a technique of generating a blurred image. This technology changes the amount of blur by preparing a plurality of still images of the same scene according to the focal length and calculating a three-dimensional distance based on these still images. For example, see Patent Document 1).

しかし、ボカシ処理を行うために、複数の焦点距離で取得した静止画像が必要であり、1枚の静止画像だけでボカシ処理を行うことができなかった。   However, in order to perform blur processing, still images acquired at a plurality of focal lengths are necessary, and blur processing cannot be performed with only one still image.

そこで、1枚の静止画像が表示された表示部に指でタッチすると、タッチした位置の画素(以下、「注目画素」という)に対応する部分に合焦するように、当該静止画像のデプス・マップ(Depth Map)に応じてボカシ処理を行う技術が提案された(例えば、特許文献2参照)。デプス・マップとは、撮影時のレンズと被写体との距離(以下、「レンズ−被写体間距離」という)を示す距離データを、撮影した静止画像に写り込んだ被写体を構成している複数の画素のかたまりごと若しくは画素ごとに対応させたものの集合をいう。したがって、デプス・マップの距離データを参照することにより、レンズ−被写体間距離がわかる。   Therefore, when a finger touches the display unit on which one still image is displayed, the depth / depth of the still image is focused so that the portion corresponding to the pixel at the touched position (hereinafter referred to as “target pixel”) is focused. A technique for performing blur processing according to a map (Depth Map) has been proposed (see, for example, Patent Document 2). A depth map is a plurality of pixels constituting a subject in which distance data indicating a distance between a lens and a subject at the time of shooting (hereinafter referred to as “lens-subject distance”) is reflected in a shot still image. A set of objects corresponding to each lump or pixel. Accordingly, the distance between the lens and the subject can be determined by referring to the distance data of the depth map.

図14は、表示部に表示された静止画像を示す説明図である。
静止画像702は、犬の被写体703およびこの被写体703に近接する猫の被写体704を含む画像である。
FIG. 14 is an explanatory diagram showing a still image displayed on the display unit.
The still image 702 is an image including a dog subject 703 and a cat subject 704 close to the subject 703.

図15は、撮影時(静止画像702取得時)の撮像レンズ706と被写体703,704の位置関係を示す説明図である。
図15に示すように、被写体703は、被写体704よりも撮像レンズ706から近い位置にある。一方、被写体704は、被写体703よりも撮像レンズ706から遠い位置にある。すなわち、静止画像702において、被写体703を構成する各画素に対応する部分のレンズ−被写体間距離は、被写体704を構成する各画素に対応する部分のレンズ−被写体間距離よりも近くなる。
FIG. 15 is an explanatory diagram showing the positional relationship between the imaging lens 706 and the subjects 703 and 704 at the time of shooting (when the still image 702 is acquired).
As shown in FIG. 15, the subject 703 is closer to the imaging lens 706 than the subject 704. On the other hand, the subject 704 is located farther from the imaging lens 706 than the subject 703. That is, in the still image 702, the lens-to-subject distance of the portion corresponding to each pixel constituting the subject 703 is closer than the lens-subject distance of the portion corresponding to each pixel constituting the subject 704.

図16は、図14に示した静止画像702の水平方向の破線位置の各画素に対応する部分のデプス・マップを示す分布図である。
縦軸は各画素に対応する部分の距離データが示すレンズ−被写体間距離を表しており、横軸は各画素の画素番号を示している。
被写体703の左端である鼻の位置707に対応する画素番号711のレンズ−被写体間距離が最も近くなる。一方、被写体704の浮き輪の右端の位置708に対応する画素番号712のレンズ−被写体間距離が最も遠くなる。なお、画素番号711の画素(以下、「鼻画素」という)および画素番号712の画素(以下、「浮き輪画素」という)は互いに近隣画素であるが、それぞれの画素間でレンズ−被写体間距離が大幅に異なっている。
FIG. 16 is a distribution diagram showing a depth map of a portion corresponding to each pixel at the position of the horizontal broken line in the still image 702 shown in FIG.
The vertical axis represents the lens-subject distance indicated by the distance data of the portion corresponding to each pixel, and the horizontal axis represents the pixel number of each pixel.
The lens-to-subject distance of pixel number 711 corresponding to the nose position 707 at the left end of the subject 703 is the shortest. On the other hand, the lens-to-subject distance of pixel number 712 corresponding to the right end position 708 of the floating ring of the subject 704 is the longest. It should be noted that the pixel number 711 (hereinafter referred to as “nose pixel”) and the pixel number 712 (hereinafter referred to as “floating ring pixel”) are neighboring pixels, but the lens-subject distance between the respective pixels. Are significantly different.

図17は、図14〜図16で説明したような静止画像702に対してユーザが注目画素の選択を行う様子を示す説明図である。
ユーザは、鼻画素を注目画素として選択したい場合、静止画像702の鼻付近を指705でタッチする。このとき鼻画素が正確にタッチされていれば、鼻画素が注目画素として選択され、この鼻画素に対応する部分に合焦するようにボカシ処理がなされる。
FIG. 17 is an explanatory diagram illustrating a state in which the user selects a target pixel for the still image 702 described with reference to FIGS. 14 to 16.
When the user wants to select the nose pixel as the target pixel, the user touches the vicinity of the nose of the still image 702 with the finger 705. At this time, if the nose pixel is touched correctly, the nose pixel is selected as the target pixel, and blur processing is performed so as to focus on the portion corresponding to the nose pixel.

特開2003−141506号公報JP 2003-141506 A 特開2009−15828号公報JP 2009-15828 A

しかしながら、ユーザの指705の太さや接触する面積の違いにより、鼻画素の近隣画素である浮き輪画素が注目画素として選択される可能性がある。この場合、合焦したい鼻画素に対応する部分と大きくレンズ−被写体間距離が異なる浮き輪画素に対応する部分に合焦するようにボカシ処理がなされてしまう。   However, depending on the thickness of the user's finger 705 and the contact area, a floating ring pixel that is a neighboring pixel of the nose pixel may be selected as the target pixel. In this case, the blurring process is performed so as to focus on a portion corresponding to a floating ring pixel having a lens-subject distance greatly different from a portion corresponding to a nose pixel to be focused.

以上のように、特許文献2に記載された技術では、ユーザが希望する画素を選択できていないことがあり、ユーザが合焦させたいと指示した画素の位置(以下、「合焦ポイント」)がずれる可能性があるが、合焦ポイントがどこかを確認する手段がない。そのため、近隣画素間でレンズ−被写体間距離が大幅に異なるような静止画像で、ユーザの意図しないボカシ処理が行われてしまうという問題が生じる。   As described above, in the technique described in Patent Document 2, the user may not be able to select a desired pixel, and the position of the pixel instructed by the user to focus (hereinafter, “focus point”). However, there is no means for confirming where the in-focus point is. Therefore, there arises a problem that blur processing unintended by the user is performed on a still image in which the distance between the lens and the subject is significantly different between neighboring pixels.

なお、特許文献1に記載された技術においても、合焦ポイントがどこかを確認する手段がない。そのため、近接する画素間でレンズ−被写体間距離が大幅に異なるような静止画像で合焦ポイントがずれていても気づかずに、意図しないボカシ処理が行われてしまうという、特許文献2に記載された技術と同様の問題がある。   In the technique described in Patent Document 1, there is no means for confirming where the in-focus point is. Therefore, it is described in Patent Document 2 that unintentional blur processing is performed without noticing even if the focus point is shifted in a still image in which the lens-subject distance is greatly different between adjacent pixels. There are similar problems with other technologies.

本発明は、斯かる点に鑑みてなされたものであり、自身が選択した合焦ポイントに基づいて、ユーザの思い通りのボケ画像を得られるようにすることを目的とする。 The present invention has been made in view of such a point, and an object of the present invention is to obtain a user-desired blur image based on a focus point selected by the user.

上記課題を解決するため、本発明は、表示部に表示される画像に対応する距離情報に基づいて、その画像に対する指示体の位置に対応する部分である注目画素に合焦した画像を画像処理部に生成させる。そして、ボケ量調節部に対する指示に応じて、その画像の合焦の度合いを変更した画像を画像処理部に生成させるIn order to solve the above-described problems, the present invention performs image processing on an image focused on a target pixel , which is a portion corresponding to the position of an indicator with respect to the image , based on distance information corresponding to the image displayed on the display unit. To generate. Then, in response to an instruction to the blur amount adjusting unit , the image processing unit is caused to generate an image in which the degree of focusing of the image is changed .

本発明の上述した構成によれば、ボケ量調節部に対するユーザの指示に応じて、指示体の位置に対応する部分である注目画素に合焦した画像(ボケ画像)に対する各画素の合焦の度合い(ボケ量)が変更される。 According to the above-described configuration of the present invention, in response to a user instruction to the blur amount adjustment unit, each pixel is focused on an image (blurred image) focused on a target pixel that is a portion corresponding to the position of the pointer. The degree (blur amount) is changed.

本発明によれば、ユーザはボケ量調節部に対して指示することにより、自分が選択した注目画素に基づいて、ユーザの思い通りのボケ画像を得ることができる、という効果がある。 According to the present invention, Yu chromatography The is by instructing the blur amount adjustment unit, based on the pixel of interest of your choice, it is possible to obtain he wanted blurred image of the user, there is an effect that.

本発明の一実施形態に係る画像処理装置を示す外観構成図である。1 is an external configuration diagram illustrating an image processing apparatus according to an embodiment of the present invention. 本発明の一実施形態に係る画像処理装置の構成を示す機能ブロック図である。1 is a functional block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention. 本発明の一実施形態に係る画像処理装置の動作を示すフローチャートである。4 is a flowchart illustrating an operation of the image processing apparatus according to the embodiment of the present invention. 図3のステップS6の処理のとき表示パネルに表示される画面を示す説明図である。It is explanatory drawing which shows the screen displayed on a display panel at the time of the process of step S6 of FIG. 図3のステップS8の処理のとき表示パネルに表示される画面を示す説明図である。It is explanatory drawing which shows the screen displayed on a display panel at the time of the process of step S8 of FIG. 図3のステップS9の処理のとき表示パネルに表示される画面を示す説明図である。It is explanatory drawing which shows the screen displayed on a display panel at the time of the process of step S9 of FIG. 図3のステップS10の処理のとき表示パネルに表示される画面を示す説明図である。It is explanatory drawing which shows the screen displayed on a display panel at the time of the process of step S10 of FIG. 図3のステップS11の処理のとき表示パネルに表示される画面を示す説明図である。It is explanatory drawing which shows the screen displayed on a display panel at the time of the process of step S11 of FIG. 図3のステップS12の処理のとき表示パネルに表示される画面を示す説明図である。It is explanatory drawing which shows the screen displayed on a display panel at the time of the process of step S12 of FIG. 図3のステップS14の処理のとき表示パネルに表示される画面を示す説明図である。It is explanatory drawing which shows the screen displayed on a display panel at the time of the process of step S14 of FIG. 図3のステップS15の処理のとき表示パネルに表示される画面を示す説明図である。It is explanatory drawing which shows the screen displayed on a display panel at the time of the process of step S15 of FIG. 本発明の一実施形態に係る画像処理装置による注目輪郭検出処理を示す説明図である。It is explanatory drawing which shows the attention outline detection process by the image processing apparatus which concerns on one Embodiment of this invention. 変形例に係る画像処理装置を示す説明図である。It is explanatory drawing which shows the image processing apparatus which concerns on a modification. 従来の画像処理装置の表示部に表示された静止画像を示す説明図である。It is explanatory drawing which shows the still image displayed on the display part of the conventional image processing apparatus. 図14に示す静止画像取得時の撮像レンズと被写体の位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of an imaging lens and a to-be-photographed object at the time of the still image acquisition shown in FIG. 図14に示す点線の位置にある各画素に対応する部分のデプス・マップを示す分布図である。It is a distribution map which shows the depth map of the part corresponding to each pixel in the position of the dotted line shown in FIG. 図14に示す静止画像に対してユーザが注目画素の選択を行う様子を示す説明図である。It is explanatory drawing which shows a mode that a user selects an attention pixel with respect to the still image shown in FIG.

以下、本発明を実施するための実施形態例について説明する。以下に述べる実施の形態例は、本発明の好適な具体例である。そのため、技術的に好ましい種々の限定が付されている。しかしながら、本発明は、下記の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。例えば、以下の説明で挙げる各パラメータの数値的条件は好適例に過ぎず、説明に用いた各図における寸法、形状および配置関係も概略的なものである。   Embodiments for carrying out the present invention will be described below. The embodiments described below are preferable specific examples of the present invention. Therefore, various technically preferable limitations are attached. However, the present invention is not limited to these forms unless otherwise specified in the following description. For example, the numerical conditions of each parameter given in the following description are only suitable examples, and the dimensions, shapes, and arrangement relationships in the drawings used for the description are also schematic.

以下の手順で説明を行う。
<一実施形態例>
1.画像処理装置の外観構成
2.画像処理装置の機能的構成
3.画像処理装置の動作
The description will be made in the following procedure.
<One Embodiment>
1. 1. External configuration of image processing apparatus 2. Functional configuration of image processing apparatus Operation of the image processing device

<本発明の一実施形態例>
本発明の一実施形態の例を、図1〜図12を参照して説明する。
[1.画像処理装置の外観構成]
<One Embodiment of the Present Invention>
An example of an embodiment of the present invention will be described with reference to FIGS.
[1. Appearance configuration of image processing apparatus]

図1は、本発明の一実施形態に係る画像処理装置を示す外観構成図である。
画像処理装置100は、例えば、パーソナルコンピュータ、デジタルスチルカメラ、デジタルビデオカメラ、携帯電話機、テレビジョン放送受像機およびデジタルフォトフレーム等である。画像処理装置100は、CPU(Central Processing Unit)やメモリ等で構成される電子機器を内蔵する筐体102と、筐体102の表面に組み込まれる表示部103とを備える。表示部103は、画像を表示する表示パネル104と、この表示パネル104に積層され、検出面に触れたり置かれたりした指示体の検出面上での位置を検出する位置検出パネル105とで構成されている。なお、指示体とは、例えばユーザの指やタッチペン等である。
FIG. 1 is an external configuration diagram showing an image processing apparatus according to an embodiment of the present invention.
The image processing apparatus 100 is, for example, a personal computer, a digital still camera, a digital video camera, a mobile phone, a television broadcast receiver, a digital photo frame, or the like. The image processing apparatus 100 includes a housing 102 containing an electronic device including a CPU (Central Processing Unit), a memory, and the like, and a display unit 103 incorporated on the surface of the housing 102. The display unit 103 includes a display panel 104 that displays an image, and a position detection panel 105 that detects the position on the detection surface of the indicator that is stacked on the display panel 104 and touches or is placed on the detection surface. Has been. The indicator is, for example, a user's finger or a touch pen.

このような画像処理装置100は、ユーザの位置検出パネル105に対する操作に基づいて、表示パネル104に表示中の画像を構成する各画素におけるボケ量を変更する処理(以下、「ボカシ処理」)を行い、ボケ画像を生成する。なお、ボカシ処理に係る演算は、筐体102に内蔵されている電子機器によって実行される。   Such an image processing apparatus 100 performs a process of changing the amount of blur in each pixel constituting an image being displayed on the display panel 104 (hereinafter, “blurring process”) based on a user operation on the position detection panel 105. And generate a blurred image. Note that the calculation related to the blur processing is executed by an electronic device built in the housing 102.

[2.画像処理装置の機能的構成]
次に、ボカシ処理を実現するための画像処理装置100の機能的な構成について図2を参照して説明する。
図2は、本発明の一実施形態に係る画像処理装置の構成を示す機能ブロック図である。
[2. Functional configuration of image processing apparatus]
Next, a functional configuration of the image processing apparatus 100 for realizing blur processing will be described with reference to FIG.
FIG. 2 is a functional block diagram showing the configuration of the image processing apparatus according to the embodiment of the present invention.

画像処理装置100は、前述したように、表示部103に相当する表示パネル104および位置検出パネル105を備える。さらに、筐体102(図1を参照)に内蔵される電子機器に相当する制御部201、第1メモリ部204、記録媒体205、画像処理部206および第2メモリ部207を備える。   As described above, the image processing apparatus 100 includes the display panel 104 and the position detection panel 105 corresponding to the display unit 103. Furthermore, a control unit 201, a first memory unit 204, a recording medium 205, an image processing unit 206, and a second memory unit 207 corresponding to an electronic device built in the housing 102 (see FIG. 1) are provided.

記録媒体205は、例えばハードディスクやフラッシュメモリ等の不揮発性の記録媒体であり、ボカシ処理やその他の処理を行うための各種プログラム、予め撮像された画像、当該画像に係るメータデータとしてデプスマップ(Depth Map)等が記録されている。また、記録媒体205には、ボカシ処理により生成されるボケ画像も記録される。なお、この記録媒体205は、内蔵記録媒体でも外付けの記録媒体でもどちらでもよい。   The recording medium 205 is a non-volatile recording medium such as a hard disk or a flash memory, for example. Various programs for performing blur processing and other processing, pre-captured images, and depth maps (Depth) as meter data related to the images. Map) etc. are recorded. The recording medium 205 also records a blurred image generated by blurring processing. The recording medium 205 may be either an internal recording medium or an external recording medium.

ここで、デプス・マップとは、撮影時のレンズと被写体との距離(以下、「レンズ−被写体間距離」という)を示す距離データを、撮影した静止画像に写り込んだ被写体を構成している複数の画素のかたまりごと若しくは画素ごとに対応させたものの集合であり、いわゆる距離データ分布である。また、距離データは、静止画像の各画素に対応する部分の奥行きの深さを示す情報ともいえる。デプス・マップの距離データを参照することにより、レンズ−被写体間距離がわかる。 Here, the de TOPS map, the distance between the shooting lens and the object (hereinafter, - referred to as "lens distance between the subject") the distance data indicating, constitute a subject of elaborate-through to the still pictures This is a group of a plurality of pixels or a set of those corresponding to each pixel, which is a so-called distance data distribution. The distance data can also be said to be information indicating the depth of the portion corresponding to each pixel of the still image. By referring to the depth map distance data, the distance between the lens and the subject can be determined.

この距離データを得る方法としては、例えばTOF(Time of flight)方式やボケ量解析(Depth from Defocus)等を採用することができる。ここで、TOF法式とは、光源から出射された光が対象物で反射し、センサに到達するまでの光の遅れ時間と光の速度とから被写体までの距離を得る手法である。またボケ量解析とは、画像中のボケ量(合焦度合い)の解析結果から被写体までの距離を算出するものである。なお、これらの手法を実現するための具体的な構成としては、例えば特開2009−15828号公報に記載されている。   As a method for obtaining the distance data, for example, a TOF (Time of Flight) method, a blur amount analysis (Depth from Defocus), or the like can be employed. Here, the TOF method is a method for obtaining the distance to the subject from the light delay time until the light emitted from the light source is reflected by the object and reaches the sensor and the speed of the light. The blur amount analysis is to calculate the distance to the subject from the analysis result of the blur amount (focus degree) in the image. A specific configuration for realizing these methods is described in, for example, Japanese Patent Application Laid-Open No. 2009-15828.

制御部201は、記録媒体205から取得し、第1メモリ部204に展開したプログラムに基づいて、制御部201内の各ブロックを機能させるための制御を行うものである。詳細は後述するが、制御部201は、記録媒体205から選択された画像を取得し、取得した画像(以下、「選択画像」という)を表示パネル104に表示させたり、当該選択画像に関する様々な画像を生成して表示パネル104に表示させたりする。この選択画像は画像処理部206にも出力される。なお、第1メモリ部204は、例えばRAM(Random Access Memory)等で構成され、制御部201が動作するのに必要なデータを一時的に記録する。   The control unit 201 performs control for causing each block in the control unit 201 to function based on a program acquired from the recording medium 205 and expanded in the first memory unit 204. As will be described in detail later, the control unit 201 acquires a selected image from the recording medium 205, displays the acquired image (hereinafter referred to as “selected image”) on the display panel 104, and performs various operations related to the selected image. An image is generated and displayed on the display panel 104. This selected image is also output to the image processing unit 206. The first memory unit 204 is composed of, for example, a RAM (Random Access Memory) or the like, and temporarily records data necessary for the control unit 201 to operate.

画像処理部206は、制御部201から入力される選択画像に対して、後述する注目画素に対応する部分に合焦するようにボカシ処理を施すものである。ボカシ処理は、選択画像に係るデプス・マップに基づいて実行される。   The image processing unit 206 performs blurring processing on the selected image input from the control unit 201 so as to focus on a portion corresponding to a target pixel described later. The blur processing is executed based on the depth map related to the selected image.

画像処理部206は、ボカシ処理を実行する際に必要なデータ(デプス・マップ等)を一時的に第2メモリ部207に記録する。生成されたボケ画像は、制御部201を介して記録媒体205に記録されるとともに、表示パネル104に出力される。なお、第2メモリ部207は第1メモリ部204と同じRAM等であり、第1メモリ部204と共通としてもよい。   The image processing unit 206 temporarily records in the second memory unit 207 data (depth map, etc.) necessary for executing the blur processing. The generated blurred image is recorded on the recording medium 205 via the control unit 201 and is output to the display panel 104. The second memory unit 207 is the same RAM or the like as the first memory unit 204, and may be shared with the first memory unit 204.

次に、制御部201のより詳細な構成について説明する。
制御部201は、表示パネル104に表示する様々な表示画面を生成するために、GUI表示制御部208と、拡大表示制御部209と、アイコン表示制御部210と、輪郭表示制御部211とを備える。
Next, a more detailed configuration of the control unit 201 will be described.
The control unit 201 includes a GUI display control unit 208, an enlarged display control unit 209, an icon display control unit 210, and a contour display control unit 211 in order to generate various display screens to be displayed on the display panel 104. .

GUI表示制御部208は、第1メモリ部204に記録されたプログラムに基づいて、表示パネル104に所定の操作画面や設定画面等を表示して、グラフィカル・ユーザ・インターフェイス(Graphical User Interface:GUI)を実現するためのものである。さらに、位置検出パネル105に対するユーザの操作に応じて、当該ユーザの所望する処理を制御部201に実行させるための操作入力信号を生成する。   The GUI display control unit 208 displays a predetermined operation screen, setting screen, and the like on the display panel 104 based on a program recorded in the first memory unit 204, and a graphical user interface (GUI). It is for realizing. Further, in response to a user operation on the position detection panel 105, an operation input signal for causing the control unit 201 to execute a process desired by the user is generated.

拡大表示制御部209は、選択画像の一部を拡大表示するためのものである。選択画像が表示パネル104に表示されているときに、位置検出パネル105により指示体の位置が検出されると、当該指示体の位置(以下、「指示体検出位置」という)に対応する画素(以下、「注目画素」)を、選択画像を構成する各画素の中から検出する。そして、表示パネル104内の一部領域を小ウィンドウ(子画面の一例)に割り当て、この小ウィンドウ内に、注目画素を含む所定領域の画像を拡大した拡大画像を表示する。なお、拡大画像の拡大率は、選択画像の解像度に応じて変更可能である。例えば、選択画像の解像度が表示パネルの画面解像度よりも大きい場合、選択画像を圧縮処理せず解像度をそのままにして選択画像の一部領域を小ウィンドウに出力すれば、最も拡大された拡大画像が小ウィンドウに表示される。   The enlarged display control unit 209 is for enlarging and displaying a part of the selected image. When the position of the indicator is detected by the position detection panel 105 while the selected image is displayed on the display panel 104, a pixel (hereinafter referred to as “indicator detection position”) corresponding to the position of the indicator (hereinafter referred to as “indicator detection position”). Hereinafter, “a pixel of interest”) is detected from each pixel constituting the selected image. Then, a partial area in the display panel 104 is assigned to a small window (an example of a small screen), and an enlarged image obtained by enlarging an image of a predetermined area including the target pixel is displayed in the small window. Note that the enlargement ratio of the enlarged image can be changed according to the resolution of the selected image. For example, when the resolution of the selected image is larger than the screen resolution of the display panel, if the selected image is not subjected to compression processing and the partial area of the selected image is output to a small window without changing the resolution, the most enlarged image is enlarged. Appears in a small window.

アイコン表示制御部210は、ボケ処理を行う際の基準となる注目画素の位置を示すアイコンを表示するためのものである。拡大画像が表示パネル104に表示されているとき、この拡大画像を構成する各画素の中から、選択画像における注目画素に対応する画素(以下、「対応画素」)を特定する。そして、この対応画素を示すためのアイコンを表示パネル104の小ウィンドウに表示する。また、アイコン表示制御部210は、ユーザの検出パネルに対する指示体の操作に基づき、アイコンを移動させる。アイコンが移動すると対応画素が変更されるので、このアイコンの移動に伴って注目画素も変更される。   The icon display control unit 210 is for displaying an icon indicating the position of a target pixel that is a reference when performing blur processing. When the enlarged image is displayed on the display panel 104, a pixel corresponding to the pixel of interest in the selected image (hereinafter, “corresponding pixel”) is specified from among the pixels constituting the enlarged image. Then, an icon for indicating the corresponding pixel is displayed in a small window of the display panel 104. Moreover, the icon display control part 210 moves an icon based on operation of the indicator with respect to a user's detection panel. Since the corresponding pixel is changed when the icon is moved, the target pixel is also changed as the icon is moved.

輪郭表示制御部211は、被写体の輪郭を明確にして表示するためのものである。拡大画像が表示パネル104に表示されている状態のとき、アイコン表示制御部210で特定された注目画素を含む被写体の輪郭(以下、「注目輪郭」という)を検出する。そして、この注目輪郭が明確になるような表示を表示パネル104に対して行う。例えば、注目輪郭の色を強調色に変更したり、注目輪郭で囲まれる領域の色を変更したりすることにより、注目輪郭を明確にする。   The contour display control unit 211 is for clearly displaying the contour of the subject. When the enlarged image is displayed on the display panel 104, the contour of the subject including the target pixel identified by the icon display control unit 210 (hereinafter referred to as “target contour”) is detected. Then, the display panel 104 is displayed so that the noticeable outline becomes clear. For example, the noticeable outline is clarified by changing the color of the noticeable outline to an emphasized color or changing the color of the region surrounded by the noticeable outline.

[3.画像処理装置の動作]
次に、画像処理装置の動作について、図3〜図11を参照して説明する。
図3は、本発明の一実施形態に係る画像処理装置の動作の流れを示すフローチャートである。図2に示した構成で実現される本発明の特徴部分の処理は、特に以下に示すステップS9〜ステップS16の処理である。
[3. Operation of image processing apparatus]
Next, the operation of the image processing apparatus will be described with reference to FIGS.
FIG. 3 is a flowchart showing an operation flow of the image processing apparatus according to the embodiment of the present invention. The processing of the characteristic part of the present invention realized by the configuration shown in FIG. 2 is particularly processing of steps S9 to S16 described below.

まず、ユーザは、画像処理装置100の電源をONする(ステップS1)。すると、制御部201は、現在の編集モードが静止画像の編集モード(以下、静止画編集モード)に設定されているか否かを確認する(ステップS2)。   First, the user turns on the image processing apparatus 100 (step S1). Then, the control unit 201 confirms whether or not the current editing mode is set to a still image editing mode (hereinafter, still image editing mode) (step S2).

静止画像編集モードに設定されていないならば(ステップS2のNO)、処理を終了する。静止画像編集モードに設定されているならば(ステップS2のYES)、制御部201は、現在の編集モードが静止画像のボケ量を編集するモード(以下、「ボケ量編集モード」という)に設定されているか否かをさらに確認する(ステップS3)。   If the still image editing mode is not set (NO in step S2), the process ends. If the still image editing mode is set (YES in step S2), the control unit 201 sets the current editing mode to a mode for editing the blur amount of the still image (hereinafter referred to as “blur amount editing mode”). It is further confirmed whether or not it has been performed (step S3).

ボケ量編集モードに設定されていないならば(ステップS3のNO)、処理を終了する。ボケ量編集モードに設定されているならば(ステップS3のYES)、制御部201は、記録媒体205に記録されている静止画像の一覧を表示パネル104に表示する(ステップS4)。   If the blur amount edit mode is not set (NO in step S3), the process is terminated. If the blur amount editing mode is set (YES in step S3), the control unit 201 displays a list of still images recorded on the recording medium 205 on the display panel 104 (step S4).

ユーザは、位置検出パネル105を用いて、表示パネル104上に表示された静止画像の中から、編集する画像を選択する(ステップS5のYES)。すると、制御部201は、図4に示すように、選択された静止画像を選択画像402として表示パネル104に表示する(ステップS6)。   The user uses the position detection panel 105 to select an image to be edited from the still images displayed on the display panel 104 (YES in step S5). Then, as shown in FIG. 4, the control unit 201 displays the selected still image on the display panel 104 as the selected image 402 (step S6).

続いて、GUI表示制御部208は、「合焦させたいポイントをタッチしてください。」という文章を含むGUIを生成し、表示パネル104に一時的に表示する(ステップS7)。このGUIが表示パネル104から消去された後に、制御部201は、位置検出パネル105が指示体でタッチされた(指示体の位置検出を行った)か否かを確認する(ステップS8)。位置検出パネル105が一定時間タッチされていないならば(ステップS8のNO)、ステップS7の処理に戻る。   Subsequently, the GUI display control unit 208 generates a GUI including a sentence “Please touch the point you want to focus on” and temporarily displays it on the display panel 104 (step S7). After the GUI is erased from the display panel 104, the control unit 201 confirms whether or not the position detection panel 105 has been touched with the indicator (position detection of the indicator has been performed) (step S8). If the position detection panel 105 has not been touched for a certain period of time (NO in step S8), the process returns to step S7.

例えば、図5に示すように、指示体403で位置検出パネル105がタッチされたならば(ステップS8のYES)、拡大表示制御部209は、選択画像402を構成する各画素の中から、指示体403の位置に対応する注目画素を検出する。そして、図6に示すように、表示パネル104の例えば右下の一部領域を小ウィンドウ404に割り当て、この小ウィンドウ404内に、注目画素を含む所定領域の選択画像402を拡大した拡大画像405を表示する(ステップS9)。   For example, as shown in FIG. 5, when the position detection panel 105 is touched with the indicator 403 (YES in step S8), the enlarged display control unit 209 instructs the pixel from among the pixels constituting the selected image 402. A pixel of interest corresponding to the position of the body 403 is detected. Then, as shown in FIG. 6, for example, a lower right partial region of the display panel 104 is allocated to the small window 404, and an enlarged image 405 in which the selected image 402 of a predetermined region including the target pixel is enlarged in the small window 404. Is displayed (step S9).

続いて、アイコン表示制御部210は、拡大画像405を構成する各画素の中から、ステップS9の処理で特定された注目画素に対応する対応画素を特定する。そして、図7に示すように、特定した対応画素の位置を示すための「○(丸印)」のアイコン406を小ウィンドウ404内に表示する(ステップS10)。   Subsequently, the icon display control unit 210 identifies a corresponding pixel corresponding to the target pixel identified in the process of step S <b> 9 from each pixel constituting the enlarged image 405. Then, as shown in FIG. 7, a “◯ (circle)” icon 406 for indicating the position of the identified corresponding pixel is displayed in the small window 404 (step S10).

ステップS10の処理で対応画素が特定されると、輪郭表示制御部211は、図7に示すように、対応画素を含む被写体である「浮き輪」の輪郭を注目輪郭407として検出する。そして、注目輪郭407に所定の色をつけて小ウィンドウ404内に表示する。なお、注目輪郭407の検出方法については、図12を参照して後述する。   When the corresponding pixel is specified in the process of step S <b> 10, the contour display control unit 211 detects the contour of the “floating ring” that is the subject including the corresponding pixel as the target contour 407 as illustrated in FIG. 7. Then, the attention outline 407 is displayed in the small window 404 with a predetermined color. Note that a method of detecting the target contour 407 will be described later with reference to FIG.

ここで、現在の注目画素を合焦ポイントにするか否かをユーザに確認させる。すなわち、GUI表示制御部208は、図8に示すように、「現在のポイントで焦点を合わせますか?」という文章、「YES」ボタンおよび「NO」ボタンを含む確認用GUI408を生成する。そして、表示パネル104の小ウィンドウ404以外の領域に確認用GUI408を表示する(ステップS11)。   Here, the user is confirmed whether or not the current pixel of interest is set as a focusing point. That is, the GUI display control unit 208 generates a confirmation GUI 408 including a sentence “Do you want to focus at the current point?”, “YES” button, and “NO” button, as shown in FIG. Then, the confirmation GUI 408 is displayed in an area other than the small window 404 of the display panel 104 (step S11).

「YES」ボタンが指示体403でタッチされたならば(ステップS11のYES)、拡大表示制御部209は、小ウィンドウ404の表示を停止する(ステップS17)。そして、画像処理部206は、選択画像402のデプス・マップを利用して、選択画像402を構成する各画素毎に、現在の注目画素に対応する部分に合焦されるようなボケ量(以下、「注目画素合焦ボケ量」という)を計算する(ステップS18)。そして、選択画像402を構成する各画毎のボケ量を注目画素合焦ボケ量に変更する(ステップS19)。すると、ボケ量が変更された選択画像(以下、「編集画像」という)が、表示パネル104に入力・表示される(ステップS20)。 If the “YES” button is touched with the indicator 403 (YES in step S11), the enlarged display control unit 209 stops displaying the small window 404 (step S17). Then, the image processing unit 206 uses the depth map of the selected image 402 for each pixel constituting the selected image 402 so as to be focused on a portion corresponding to the current target pixel (hereinafter referred to as a blur amount). , “Referred to as a focused pixel focusing blur amount”) (step S18). Then, to change the blurring amount of each Kakue element constituting the selected image 402 to the pixel of interest focus blur (step S19). Then, the selected image whose amount of blur has been changed (hereinafter referred to as “edited image”) is input and displayed on the display panel 104 (step S20).

以上の処理が完了した後、現在のボケ量でいいか否かをユーザに確認させる。すなわち、GUI表示制御部208は、ステップS10の処理と同様に、「今のボケ量の設定で良いですか?」という文章、「YES」ボタンおよび「NO」ボタンを含む確認用GUIを生成する。そして、生成した確認用GUIを表示パネル104に表示する(ステップS21)。「YES」のボタンが指示体403でタッチされたならば(ステップS21のYES)、GUI表示制御部208は、当該確認用GUIの表示パネル104に対する表示を停止する。そして、「編集した画像を保存しますか?」という文章、「YES」ボタンおよび「NO」ボタンを含む確認用GUIを生成し、表示パネル104に表示する(ステップS26)。「NO」ボタンが指示体403でタッチされたならば(ステップS26のNO)、ステップS3の処理に戻る。   After the above processing is completed, the user is confirmed whether or not the current blur amount is acceptable. That is, the GUI display control unit 208 generates a confirmation GUI including the sentence “Is it OK to set the current blur amount?”, “YES” button, and “NO” button, as in the process of step S10. . Then, the generated confirmation GUI is displayed on the display panel 104 (step S21). If the “YES” button is touched with the indicator 403 (YES in step S21), the GUI display control unit 208 stops displaying the confirmation GUI on the display panel 104. Then, a confirmation GUI including a sentence “Do you want to save the edited image?”, A “YES” button and a “NO” button is generated and displayed on the display panel 104 (step S26). If the “NO” button is touched with the indicator 403 (NO in step S26), the process returns to step S3.

「YES」ボタンが指示体403でタッチされたならば(ステップS26のYES)、画像処理部206は、編集画像のデータをJPEG(Joint Photographic Experts Group)圧縮する。そして、Jpeg方式による画像ファイルを生成する(ステップS27)。制御部201は、ステップS27の処理で生成された画像ファイルのファイル名をインクリメントして記録媒体205に記録し(ステップS28)、処理を終了する。なお、ステップS28の処理は、記録媒体205に記録される画像ファイルのファイル名を、前回生成された画像ファイルのファイル名と異なるファイル名にするための処理である。   If the “YES” button is touched with the indicator 403 (YES in step S26), the image processing unit 206 compresses the edited image data by JPEG (Joint Photographic Experts Group). Then, an image file according to the Jpeg method is generated (step S27). The control unit 201 increments the file name of the image file generated by the process of step S27 and records it on the recording medium 205 (step S28), and ends the process. The process in step S28 is a process for changing the file name of the image file recorded on the recording medium 205 to a file name different from the file name of the previously generated image file.

ところで、確認用GUI408(図8を参照)の「NO」ボタンが指示体403でタッチされたならば(ステップS11のNO)、GUI表示制御部208は、確認用GUI408の表示を停止する。そして、図9に示すように、「○マークを上下に動かしてください。」という文章および「OK」ボタンを含む確認用GUI409を新たに生成する。続いて、表示パネル104の小ウィンドウ404以外の領域に確認用GUI409を表示する(ステップS12)。   If the “NO” button of the confirmation GUI 408 (see FIG. 8) is touched with the indicator 403 (NO in step S11), the GUI display control unit 208 stops displaying the confirmation GUI 408. Then, as shown in FIG. 9, a confirmation GUI 409 including a sentence “Move the circle mark up and down” and an “OK” button is newly generated. Subsequently, the confirmation GUI 409 is displayed in an area other than the small window 404 of the display panel 104 (step S12).

確認用GUI409の「OK」ボタンが指示体403でタッチされたならば(ステップS13のYES)、GUI表示制御部208は、確認用GUI409の表示を停止する。そして、「○(丸印)」のアイコン406の位置を変更するための位置調節用GUI410および「位置が決定したら決定を押してください。」という文章と「決定」ボタンとを含む確認用GUI411を生成する。生成された位置調節用GUI410および確認用GUI411は、図10に示すように表示パネル104の小ウィンドウ404以外の領域に表示される(ステップS14)。   If the “OK” button of the confirmation GUI 409 is touched with the indicator 403 (YES in step S13), the GUI display control unit 208 stops the display of the confirmation GUI 409. Then, a position adjustment GUI 410 for changing the position of the “circle (circle)” icon 406, and a confirmation GUI 411 including a sentence “Please press determination when the position is determined.” And a “decision” button are generated. To do. The generated position adjustment GUI 410 and confirmation GUI 411 are displayed in an area other than the small window 404 of the display panel 104 as shown in FIG. 10 (step S14).

ユーザは、位置調節用GUI410としてアイコン表示されているカーソルキーを指示体403で操作することにより、アイコンの位置を小ウィンドウ404上で移動させる(ステップS15)。このアイコン406の移動に伴い、対応画素を含む被写体が「浮き輪」から「犬」に変更された場合(図11を参照)、輪郭表示制御部211は、「犬」の輪郭を注目輪郭412として検出する。そして、注目輪郭412に所定の色をつけて小ウィンドウ404内に表示する。   The user moves the position of the icon on the small window 404 by operating the cursor key displayed as an icon as the position adjustment GUI 410 with the indicator 403 (step S15). When the subject including the corresponding pixel is changed from “Float” to “Dog” as the icon 406 moves (see FIG. 11), the contour display control unit 211 changes the contour of “Dog” to the target contour 412. Detect as. Then, the attention outline 412 is displayed in the small window 404 with a predetermined color.

以上の処理が完了した後、制御部201は、確認用GUI411の「決定」ボタンが指示体403でタッチされたか否かを確認する(ステップS16)。「決定」ボタンがタッチされていないならば(ステップS16のNO)、ステップS15の処理に戻り、「○(丸印)」のアイコン406の位置をさらに変更する。「決定」ボタンがタッチされたならば(ステップS16のYES)、前述のステップS11の処理に移行する。   After the above processing is completed, the control unit 201 confirms whether or not the “OK” button of the confirmation GUI 411 is touched with the indicator 403 (step S16). If the “OK” button is not touched (NO in step S16), the process returns to step S15 to further change the position of the icon 406 of “◯ (circle)”. If the “OK” button is touched (YES in step S16), the process proceeds to step S11 described above.

一方、ステップS21の処理で生成された確認用GUIの「NO」のボタンがタッチされたならば(ステップS21のNO)、GUI表示制御部208は、ステップS20の処理で生成された編集画像のボケ量を調節するためのボケ量調節用GUIを生成する。そして、生成したボケ量調節用GUIを表示パネル104に表示する(ステップS22)。このボケ量調節用GUIは「+」ボタンと「−」ボタンで構成されており、「+」ボタンが押されると編集画像のボケ量を上げ、「−」ボタンが押されると編集画像のボケ量を下げるものである。   On the other hand, if the “NO” button of the confirmation GUI generated in the process of step S21 is touched (NO in step S21), the GUI display control unit 208 displays the edited image generated in the process of step S20. A blur amount adjustment GUI for adjusting the blur amount is generated. Then, the generated blur amount adjustment GUI is displayed on the display panel 104 (step S22). This blur amount adjustment GUI is composed of a “+” button and a “−” button. When the “+” button is pressed, the amount of blur of the edited image is increased. When the “−” button is pressed, the blur of the edited image is increased. The amount is reduced.

このとき、さらに、GUI表示制御部208は、「ボケ量を変更して最適な値になったら決定ボタンを押してください。」という文書および「決定」ボタンを含む確認用GUIを生成する。そして、生成した確認用GUIを表示パネル104に表示する(ステップS23)。   At this time, the GUI display control unit 208 further generates a confirmation GUI including a document “Please press the decision button when the amount of blur is changed to an optimum value” and a “decision” button. Then, the generated confirmation GUI is displayed on the display panel 104 (step S23).

ユーザがボケ量調節用GUIの「+」ボタンおよび「−」ボタンを操作する。すると、画像処理部は、編集画像を構成する各画素における現在のボケ量を、「+」ボタンおよび「−」ボタンに対するユーザの操作に応じたボケ量に変更して新たな編集画像を生成する(ステップS24)。   The user operates the “+” button and the “−” button of the blur amount adjustment GUI. Then, the image processing unit changes the current blur amount in each pixel constituting the edited image to a blur amount corresponding to the user's operation on the “+” button and the “−” button, and generates a new edited image. (Step S24).

以上の処理が完了した後、制御部201は、ステップS23の処理で生成された確認用GUIの「決定」ボタンが指示体403でタッチされたか否かを確認する(ステップS25)。「決定」ボタンがタッチされていないならば(ステップS25のNO)、ステップS23の処理に戻る。「決定」ボタンがタッチされたならば(ステップS25のYES)、GUI表示制御部208は、当該確認用GUIおよびボケ調節用GUIの表示パネル104に対する表示を停止し、ステップS26の処理に移行する。   After the above process is completed, the control unit 201 confirms whether or not the “determine” button of the confirmation GUI generated in the process of step S23 is touched with the indicator 403 (step S25). If the “OK” button has not been touched (NO in step S25), the process returns to step S23. If the “OK” button is touched (YES in step S25), the GUI display control unit 208 stops displaying the confirmation GUI and the blur adjustment GUI on the display panel 104, and the process proceeds to step S26. .

次に、ステップS10やステップS15の処理において、輪郭表示制御部211が注目輪郭407,412を検出する処理(以下、「注目輪郭検出処理」という)について図12を参照して説明する。
図12は、本発明の一実施形態に係る画像処理装置による注目輪郭検出処理を示す説明図である。
図12(a)は、小ウィンドウ内に表示される拡大画像を示す説明図である。
図12(b)は、図12(a)に示す破線部分の各画素に対応する部分のデプス・マップを示す分布図である。縦軸は、前述の距離データが示すレンズ−被写体間距離を表しており、横軸は各画素の画素番号を示している。
Next, processing in which the contour display control unit 211 detects the attention contours 407 and 412 in the processing of step S10 and step S15 (hereinafter referred to as “target contour detection processing”) will be described with reference to FIG.
FIG. 12 is an explanatory diagram showing attention contour detection processing by the image processing apparatus according to the embodiment of the present invention.
FIG. 12A is an explanatory diagram showing an enlarged image displayed in the small window.
FIG. 12B is a distribution diagram showing a depth map of a portion corresponding to each pixel of the broken line portion shown in FIG. The vertical axis represents the lens-to-subject distance indicated by the distance data, and the horizontal axis represents the pixel number of each pixel.

注目輪郭検出処理が開始されると、輪郭表示制御部211は、拡大画像405において、現在の対応画素502を含む行方向の各画素(以下、「n行目の各画素」という)におけるデプス・マップ(n行目の各画素に対応する部分の距離データ)を取得する。なお、n行目の各画素は図12に示す破線部分に相当する。そして、拡大画像405においてレンズ−被写体間距離が急激に変化している部分、すなわちn行目の輪郭を形成している輪郭画素503がどの画素番号かを調べるため、取得したデプス・マップを画素番号で微分して微分デプス・マップを算出する(処理1)。   When the target contour detection process is started, the contour display control unit 211 in the enlarged image 405 includes the depth / number at each pixel in the row direction including the current corresponding pixel 502 (hereinafter referred to as “each pixel in the nth row”). A map (distance data of a portion corresponding to each pixel in the nth row) is acquired. Note that each pixel in the n-th row corresponds to a broken line portion shown in FIG. Then, in order to determine which pixel number the contour pixel 503 forming the contour of the n-th row in the enlarged image 405, that is, the lens-subject distance changes rapidly, the obtained depth map is used as a pixel. A differential depth map is calculated by differentiating with a number (processing 1).

続いて、輪郭表示制御部211は、算出した微分デプス・マップの絶対値が所定のしきい値よりも大きい画素番号を検出する。検出した画素番号の画素が輪郭画素503に相当する(処理2)。   Subsequently, the contour display control unit 211 detects a pixel number in which the absolute value of the calculated differential depth map is larger than a predetermined threshold value. The pixel with the detected pixel number corresponds to the contour pixel 503 (processing 2).

次に、輪郭表示制御部211は、対応画素502から最も近い2つの輪郭画素503a,503bを、注目輪郭を形成する各画素の一部の画素(以下、「該当画素」という)として認定する(処理3)。   Next, the contour display control unit 211 recognizes the two contour pixels 503a and 503b that are closest to the corresponding pixel 502 as a part of the pixels that form the target contour (hereinafter referred to as “corresponding pixels”) ( Process 3).

ここで、輪郭表示制御部211は、n+1行目の各画素におけるデプス・マップ(n+1行目の各画素に対応する部分の距離データ)を取得する。そして、取得したデプス・マップを画素番号で微分して微分被写界強度分布を算出する(処理4)。そして、処理4で算出した微分被写界強度分布に対して、処理2と同じ処理を行う(処理5)。   Here, the contour display control unit 211 acquires a depth map (distance data of a portion corresponding to each pixel in the n + 1 row) in each pixel in the n + 1 row. Then, the obtained depth map is differentiated by the pixel number to calculate a differential field intensity distribution (processing 4). Then, the same processing as the processing 2 is performed on the differential field intensity distribution calculated in the processing 4 (processing 5).

続いて、輪郭表示制御部211は、n+1行目の輪郭画素の中で、n行目の該当画素(輪郭画素503a,503b)と隣接する画素を、n+1行目の該当画素として認定する(処理6)。   Subsequently, the contour display control unit 211 recognizes a pixel adjacent to the corresponding pixel in the nth row (contour pixels 503a and 503b) among the contour pixels in the n + 1th row as a corresponding pixel in the n + 1th row (processing). 6).

以上の処理が完了した後、輪郭表示制御部211は、処理4〜処理6を繰り返す(処理7)。そして、拡大画像の列方向に対しても処理1〜処理7を行うことにより、注目輪郭が二次元的に検出される(処理8)。   After the above processing is completed, the contour display control unit 211 repeats processing 4 to processing 6 (processing 7). Then, by performing the processing 1 to processing 7 also in the column direction of the enlarged image, the target contour is detected two-dimensionally (processing 8).

以上説明したように、本発明の一実施形態では、注目画素を含む拡大画像およびこの注目画素に対応する対応画素の位置を示すアイコンを小ウィンドウ内に表示することができる。これにより、ユーザは自身が選択した注目画素を拡大画像ではっきり把握することができ、注目画素の選択ミスを防止できる。その結果、ユーザの思い通りのボケ画像を得ることができる、という効果がある。   As described above, in one embodiment of the present invention, an enlarged image including the target pixel and an icon indicating the position of the corresponding pixel corresponding to the target pixel can be displayed in the small window. As a result, the user can clearly grasp the target pixel selected by the user in the enlarged image, and can prevent selection errors of the target pixel. As a result, there is an effect that a blurred image as desired by the user can be obtained.

また、本発明の一実施形態では、アイコンを小ウィンドウ上で移動させることにより、対応画素に対応している注目画素も変更することができる。これにより、変更後の注目画素を把握することができ、注目画像の選択ミスをより確実に防止できる。   In one embodiment of the present invention, the pixel of interest corresponding to the corresponding pixel can be changed by moving the icon on the small window. Thereby, the target pixel after the change can be grasped, and a selection error of the target image can be prevented more reliably.

また、本発明の一実施形態では、注目画素を含む被写体の輪郭を強調した拡大画像を、小ウィンドウに表示することができる。これにより、注目画素がどの被写体に含まれるものかを、ユーザにより分かりやすく知らせることができる。その結果、注目画像の選択ミスをより確実に防止できる。   In one embodiment of the present invention, an enlarged image in which the contour of the subject including the target pixel is emphasized can be displayed in a small window. As a result, it is possible to inform the user in an easy-to-understand manner to which subject the target pixel is included. As a result, it is possible to more reliably prevent an erroneous selection of the target image.

なお、上述した一実施形態では、拡大画像405上で対応画素を示すアイコン406を動かして、注目画素を選択するようにした。しかし、図13に示すように、注目画素を示すアイコン602を選択画像402上に表示するようにし、この選択画像402上でアイコン602を動かして注目画素を直接選択できるようにしてもよい。このようにした場合、処理するデータ量を減らすことができるので、処理の高速化を図ることができる。なお、選択画像において、注目画素を含む被写体の輪郭を強調して表示するようにしてもよいことはいうまでもない。   In the above-described embodiment, the target pixel is selected by moving the icon 406 indicating the corresponding pixel on the enlarged image 405. However, as shown in FIG. 13, an icon 602 indicating the target pixel may be displayed on the selected image 402, and the target pixel may be directly selected by moving the icon 602 on the selected image 402. In this case, the amount of data to be processed can be reduced, so that the processing speed can be increased. Needless to say, in the selected image, the outline of the subject including the target pixel may be highlighted.

また、上述した一実施形態では、注目輪郭の検出を行う際に、デプス・マップの微分を利用して境界画素を検出した。しかし、デプス・マップの二重微分を利用して境界画素を検出することもできる。具体的には、拡大画像を構成する各画素におけるデプス・マップの二重微分値がゼロになるものが境界画素に相当する。   In the above-described embodiment, the boundary pixel is detected using the differential of the depth map when detecting the target contour. However, boundary pixels can also be detected using double differentiation of the depth map. Specifically, a pixel in which the double differential value of the depth map at each pixel constituting the enlarged image becomes zero corresponds to a boundary pixel.

また、上述した一実施形態では、注目輪郭の検出には距離データを用いたが、輝度を利用して注目輪郭を検出することもできる。例えば、拡大画像の任意の画素と隣接画素の輝度を比較して、この隣接画素との輝度差が所定値以上の画素から注目輪郭を検出する。その他、濃淡画像による物体検出により、注目輪郭を検出したりしてもよいことはいうまでもない。   In the above-described embodiment, the distance data is used to detect the target contour. However, the target contour can also be detected using luminance. For example, the brightness of an arbitrary pixel of an enlarged image is compared with the brightness of an adjacent pixel, and a target contour is detected from a pixel having a brightness difference between the adjacent pixel and a predetermined value. In addition, it goes without saying that the contour of interest may be detected by detecting an object based on a grayscale image.

また、上述した一実施形態では、位置調節用GUI410を用いてアイコン406の位置を変更するようにしたが、小ウィンドウ404において指示体でタッチした位置にアイコン406を移動させるようにしてもよい。   In the above-described embodiment, the position of the icon 406 is changed using the position adjustment GUI 410. However, the icon 406 may be moved to the position touched by the indicator in the small window 404.

また、上述した一実施形態では、「○(丸印)」のアイコンとしたが、アイコンはこれに限られない。例えば、「×(バツ印)」でもよい。その場合、「×」のアイコンは「○」のアイコンと比較して背景の画像が隠れる部分が少なくなり、ユーザはより多くの情報を得られる。   In the above-described embodiment, the “O (circle)” icon is used, but the icon is not limited thereto. For example, “× (cross mark)” may be used. In this case, the “x” icon has fewer portions where the background image is hidden compared to the “◯” icon, and the user can obtain more information.

また、上述した一実施形態では、ステップS14,16,22,23,25の各処理においてGUIに対して操作するようにしたが、装置本体にハードキーを設け、このハードキーで操作できるようにしてもよい。   In the above-described embodiment, the GUI is operated in the processes of steps S14, S16, S22, S23, and S25. However, a hard key is provided in the apparatus body so that the hard key can be operated. May be.

また、上述した一実施形態では、編集画像データをJPEG方式で圧縮したが、これに限られない。圧縮方式は、例えば、GIF(Graphics Interchange Format)方式、PNG(Portable Network Graphics)方式、BMP(Bitmap)方式あるいはTIFF(Tagged Image File Format)方式であってもよい。   In the above-described embodiment, the edited image data is compressed by the JPEG method. However, the present invention is not limited to this. The compression method may be, for example, a GIF (Graphics Interchange Format) method, a PNG (Portable Network Graphics) method, a BMP (Bitmap) method, or a TIFF (Tagged Image File Format) method.

また、上述した一実施形態では、新たに生成した画像ファイルのファイル名をインクリメントするようにしたが、フォルダ名をインクリメントしたフォルダを生成し、当該フォルダ内に、新たに生成したファイルを保存するようにしてもよい。   In the above-described embodiment, the file name of the newly generated image file is incremented. However, a folder with the folder name incremented is generated, and the newly generated file is stored in the folder. It may be.

また、上述した一実施形態では、表示パネルの右下の一部領域を小ウィンドウに割当てて、この小ウィンドウに拡大画像を表示するようにしたが、これに限られない。例えば、表示パネルにおいて、自分が選択した注目画素が中心となるような一部領域を小ウィンドウに割当てて、この小ウィンドウに拡大画像を重畳して表示するようにしてもよい。これにより、ユーザは、自分で選択した注目画素に対応する位置から目線を動かさずに対応画素の確認が行えるようになるので、表示パネルの右下に小ウィンドウを表示する場合と比較して対応画素の選択がよりしやすくなる、という効果がある。   In the above-described embodiment, a partial area at the lower right of the display panel is assigned to a small window and an enlarged image is displayed in the small window. However, the present invention is not limited to this. For example, on the display panel, a partial area centered on the pixel of interest selected by the user may be assigned to the small window, and the enlarged image may be superimposed and displayed on the small window. As a result, the user can check the corresponding pixel without moving the line of sight from the position corresponding to the pixel of interest selected by himself / herself, which is compared with the case where a small window is displayed at the lower right of the display panel. There is an effect that the selection of pixels becomes easier.

また、上述した一実施形態において、ボケ画像を生成する際に、撮影モード、シーン確認、被写体検出もしくはユーザのボケ画像編集の学習履歴等に基づいてボケ量を決定するようにしてもよい。   In the above-described embodiment, when a blurred image is generated, the amount of blur may be determined based on a shooting history, scene confirmation, subject detection, or a user's blurred image editing learning history.

また、上述した一実施形態では、注目画素に対応する位置に合焦するように静止画像のボケ量を調節するようにしたが、各フレーム毎の注目画素に対応する位置に合焦するようにして動画像のボケ量を調節することもできる。動画像のボケ量を調節する手順は以下のとおりである。動画像のボケ量の調節は、上述した一実施形態と同様に画像処理部206と制御部201により実行することができる。   In the embodiment described above, the blur amount of the still image is adjusted so as to focus on the position corresponding to the target pixel. However, the focus is set on the position corresponding to the target pixel for each frame. You can also adjust the amount of motion blur. The procedure for adjusting the amount of blur of a moving image is as follows. Adjustment of the blur amount of the moving image can be executed by the image processing unit 206 and the control unit 201 as in the above-described embodiment.

まず、ユーザは動画編集モードを選択して、動画像の編集を開始する。そして、編集したい動画像を選択する。次に、選択された動画像を再生させ、ユーザが編集したいと思うフレームの画像(選択画像)を選択する。そして、選択画像において、上述した一実施形態と同様にして注目画素を決定する。   First, the user selects a moving image editing mode and starts editing a moving image. Then, a moving image to be edited is selected. Next, the selected moving image is reproduced, and the image (selected image) of the frame that the user wants to edit is selected. Then, in the selected image, the target pixel is determined in the same manner as in the above-described embodiment.

注目画素を決定後、動画像の再生が再開されると、画像処理部206は、動画像に関して、各フレームにおける注目画素に対応する位置に合焦するようなボカシ処理を実行する。具体的には、現在の注目画素を含む所定の範囲(周辺領域)の画素から構成される画像(以下、「テンプレート画像」)を選択画像から切り出す。このテンプレート画像を、動画像を構成する各フレームの画像それぞれと比較してテンプレートマッチングを行う。なお、テンプレート画像と各フレームの画像それぞれとの比較には、輝度、距離データが示すレンズ−被写体間距離あるいは色等が用いられる。   When the reproduction of the moving image is resumed after determining the pixel of interest, the image processing unit 206 performs a blurring process on the moving image so as to focus on the position corresponding to the pixel of interest in each frame. Specifically, an image composed of pixels in a predetermined range (peripheral region) including the current pixel of interest (hereinafter referred to as “template image”) is cut out from the selected image. This template image is compared with each frame image constituting the moving image to perform template matching. For comparison between the template image and each frame image, the lens-to-subject distance or color indicated by the luminance and distance data is used.

次に、テンプレート画像と似ている、すなわちテンプレート画像の輝度、距離データが示すレンズ−被写体間距離あるいは色等を示す値が最も近い該当箇所をフレーム毎に検出する。そして、検出した各フレームの該当箇所毎に、注目画素に対応する部分と最もレンズ−被写体間距離が近い画素をそれぞれ特定することにより、各フレームにおける注目画素を追跡する。続いて、各フレームの注目画素の位置に合焦するように、デプス・マップ(Depth Map)に基づいて各フレームの画像のボケ量を調節する。   Next, a corresponding portion that is similar to the template image, that is, the closest value indicating the lens-to-subject distance or color indicated by the brightness and distance data of the template image is detected for each frame. Then, the pixel of interest in each frame is tracked by identifying the pixel having the closest lens-to-subject distance to the portion corresponding to the pixel of interest for each detected portion of each frame. Subsequently, the blur amount of the image of each frame is adjusted based on a depth map so as to focus on the position of the target pixel of each frame.

なお、動画像のボケ量を調節する他の方法として、注目画素を含む被写体画像の動体検出(動き検出)を各フレームで行い、テンプレートマッチングを行う際に、動体検出した各被写体画像をテンプレート画像の比較対象としてもよい。また、動画像が例えばMPEG(Moving Picture Experts Group)方式でエンコードされたものである場合、上述の動体検出の処理をMPEG方式の信号処理と共通化して実施することも可能である。この場合、この動画像をMPEG方式でデコードしながら同時に前述のような動体検出を行うこともできる。   As another method for adjusting the blur amount of the moving image, the moving object detection (motion detection) of the subject image including the target pixel is performed in each frame, and when performing template matching, each moving subject detected subject image is a template image. It is good also as a comparison object. In addition, when a moving image is encoded by, for example, an MPEG (Moving Picture Experts Group) method, the above-described moving object detection processing can be performed in common with MPEG signal processing. In this case, it is possible to simultaneously detect the moving object as described above while decoding the moving image by the MPEG method.

以上のボカシ処理が完了した後、制御部201は、ボケ量が調節された動画像を動画像ファイルとして記録媒体205に記録するとともに、動画像ファイルのファイル名をインクリメントする。このようにして記録媒体205に保存された動画ファイルに対して、ファイルの分割やつなぎ合わせる処理を行うことで、ボカシ処理にて生成した動画像をより有効活用できる、という効果がある。   After the above blur processing is completed, the control unit 201 records the moving image whose blur amount is adjusted as a moving image file on the recording medium 205 and increments the file name of the moving image file. In this way, the moving image generated by the blurring process can be used more effectively by performing the process of dividing and joining the moving image files stored in the recording medium 205.

以上、本発明の各実施形態の例について説明したが、本発明は上記各実施形態例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含むことはいうまでもない。   As mentioned above, although the example of each embodiment of the present invention was explained, the present invention is not limited to the above-mentioned each embodiment, and it is not limited to the scope of the present invention described in the claims. Needless to say, modifications and application examples are included.

100…画像処理装置、102…筐体、103…表示部、104…表示パネル、105…位置検出パネル、201…制御部、204…第1メモリ部、205…記録媒体、206…画像処理部、207…第2メモリ部、208…GUI表示制御部、209…拡大表示制御部、210…アイコン表示制御部、211…輪郭表示制御部、402…選択画像、403…指示体、404…小ウィンドウ、405…拡大画像、406…アイコン、407…注目輪郭、408…確認用GUI、409…確認用GUI、410…位置調節用GUI、411…確認用GUI、412…注目輪郭、702…静止画像、703,704…被写体、705…指、707,708…位置、709,710…画素   DESCRIPTION OF SYMBOLS 100 ... Image processing apparatus, 102 ... Housing | casing, 103 ... Display part, 104 ... Display panel, 105 ... Position detection panel, 201 ... Control part, 204 ... 1st memory part, 205 ... Recording medium, 206 ... Image processing part, 207 ... second memory unit, 208 ... GUI display control unit, 209 ... enlarged display control unit, 210 ... icon display control unit, 211 ... contour display control unit, 402 ... selected image, 403 ... indicator, 404 ... small window, 405: enlarged image, 406: icon, 407: attention outline, 408 ... confirmation GUI, 409 ... confirmation GUI, 410: position adjustment GUI, 411 ... confirmation GUI, 412 ... attention outline, 702: still image, 703 , 704 ... Subject, 705 ... Finger, 707, 708 ... Position, 709, 710 ... Pixel

Claims (20)

表示部に表示される画像に対応する距離情報に基づいて、前記画像に対するユーザの指示に応じた位置に対応する部分である注目画素に合焦した画像が生成され、
前記注目画素に合焦した前記画像の前記距離情報に基づき計算されるボケ量を、前記ボケ量を加える操作部および前記ボケ量を減じる操作部のそれぞれに対するユーザの操作に応じて変更した前記画像が生成され、
前記ボケ量を変更した前記画像が生成された後、前記ユーザの指示に基づき当該ボケ量で前記画像を決定する処理が実行されるよう制御する画像処理制御部、を備える
画像処理装置。
Based on the distance information corresponding to the image displayed on the display unit, an image focused on the target pixel, which is a portion corresponding to the position corresponding to the user's instruction for the image, is generated,
The image obtained by changing the blur amount calculated based on the distance information of the image focused on the target pixel in accordance with a user operation on each of the operation unit for adding the blur amount and the operation unit for reducing the blur amount. Is generated,
An image processing apparatus comprising: an image processing control unit configured to perform control so as to execute a process of determining the image with the amount of blur based on an instruction of the user after the image with the amount of blur being changed is generated.
前記ボケ量の変更は、前記注目画素に合焦した前記画像を構成する各画素に対して行われる
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the blur amount is changed for each pixel constituting the image focused on the target pixel.
前記画像処理制御部は、前記ボケ量を加える前記操作部および前記ボケ量を減じる前記操作部を、GUIとして前記表示部に表示するように制御する
請求項1又は2に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image processing control unit controls the operation unit that adds the blur amount and the operation unit that reduces the blur amount to be displayed on the display unit as a GUI.
前記ユーザの指示に応じた指示体の位置に対応した画素にアイコンを表示する表示制御部、を更に備える
請求項1乃至3のいずれかに記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising: a display control unit that displays an icon on a pixel corresponding to a position of an indicator according to the user's instruction.
前記アイコンの表示は、前記指示体の指示に応じて切り替えられる
請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the display of the icon is switched according to an instruction from the indicator.
前記指示体の位置に対応する画素である注目画素もしくは前記注目画素に対応する画素を含む注目輪郭の表示が、前記指示体の指示に応じて切り替えられる
請求項4又は5に記載の画像処理装置。
The image processing apparatus according to claim 4 or 5 , wherein display of a target pixel that is a pixel corresponding to the position of the indicator or a target contour including a pixel corresponding to the target pixel is switched according to an instruction from the indicator. .
前記距離情報は、撮影レンズと被写体に基づく距離と画素との関係を示す関数で表され、
前記注目輪郭は、前記距離情報の前記関数を前記画素で微分して求められる微分値が所定のしきい値よりも大きい画素から形成される
請求項6に記載の画像処理装置。
The distance information is represented by a function indicating a relationship between a distance based on a photographing lens and a subject and a pixel,
The image processing device according to claim 6, wherein the target contour is formed of pixels having a differential value obtained by differentiating the function of the distance information with the pixels and larger than a predetermined threshold value.
前記距離情報は、撮影レンズと被写体に基づく距離と画素との関係を示す関数であり、
前記注目輪郭は、前記距離情報の前記関数を前記画素で二重微分して求められる二重微分値がゼロになる画素から形成される
請求項6に記載の画像処理装置。
The distance information is a function indicating a relationship between a distance based on a photographing lens and a subject and a pixel,
The image processing device according to claim 6, wherein the target contour is formed from a pixel in which a double differential value obtained by double differentiation of the function of the distance information with the pixel is zero.
前記画像の前記注目画素に対応する部分の拡大画像を含む子画面を前記表示部に表示する拡大表示制御部、を更に備え、
前記表示制御部は、前記拡大画像が前記表示部に表示されているとき、前記拡大画像を構成する各画素の中から前記注目画素に対応する画素を特定し、該注目画素に対応する画素を示すための前記アイコンを前記子画面上に表示する
請求項4又は5に記載の画像処理装置。
An enlarged display control unit that displays a child screen including an enlarged image of a portion corresponding to the target pixel of the image on the display unit;
When the enlarged image is displayed on the display unit, the display control unit specifies a pixel corresponding to the pixel of interest from each pixel constituting the enlarged image, and selects a pixel corresponding to the pixel of interest. The image processing apparatus according to claim 4, wherein the icon for indicating is displayed on the sub-screen.
前記拡大表示制御部は、前記画像の前記注目画素に対応する部分を含む領域に重ねて前記子画面を前記表示部に表示する
請求項9に記載の画像処理装置。
The image processing apparatus according to claim 9, wherein the enlarged display control unit displays the child screen on the display unit so as to overlap with a region including a portion corresponding to the target pixel of the image.
前記距離情報は、撮影レンズと被写体に基づく距離と画素との関係を示す関数であり、
前記表示制御部は、前記子画面に表示された前記拡大画像の前記距離情報の前記関数を前記画素で微分した微分値が所定のしきい値よりも大きくなる画素から、前記指示体の位置に対応する画素である注目画素もしくは前記注目画素に対応する画素を含む注目輪郭を検出する
請求項9又は10に記載の画像処理装置。
The distance information is a function indicating a relationship between a distance based on a photographing lens and a subject and a pixel,
The display control unit moves from the pixel whose differential value obtained by differentiating the function of the distance information of the enlarged image displayed on the child screen to a position of the indicator is larger than a predetermined threshold value. The image processing apparatus according to claim 9, wherein a target contour that is a corresponding pixel or a target contour including a pixel corresponding to the target pixel is detected.
前記距離情報は、撮影レンズと被写体に基づく距離と画素との関係を示す関数であり、
前記表示制御部は、前記子画面に表示された前記拡大画像の前記距離情報の前記関数を前記画素で二重微分した二重微分値がゼロになる画素から、前記指示体の位置に対応する画素である注目画素もしくは前記注目画素に対応する画素を含む注目輪郭を検出する
請求項9又は10に記載の画像処理装置。
The distance information is a function indicating a relationship between a distance based on a photographing lens and a subject and a pixel,
The display control unit corresponds to a position of the indicator from a pixel in which a double differential value obtained by double differentiation of the function of the distance information of the enlarged image displayed on the sub-screen is zero. The image processing apparatus according to claim 9, wherein a target contour including a target pixel that is a pixel or a pixel corresponding to the target pixel is detected.
前記画像は、記録部に記録された静止画である
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image is a still image recorded in a recording unit.
前記静止画は、前記距離情報とともに前記記録部に記録される
請求項13に記載の画像処理装置。
The image processing device according to claim 13, wherein the still image is recorded in the recording unit together with the distance information.
前記静止画は、前記記録部に記録された動画像を構成する静止画である
請求項13に記載の画像処理装置。
The image processing device according to claim 13, wherein the still image is a still image constituting a moving image recorded in the recording unit.
前記静止画に対する合焦の度合いの変更に基づき、前記動画像を構成する前記注目画素を含む他の静止画の合焦の度合いも変更される
請求項15に記載の画像処理装置。
The image processing apparatus according to claim 15, wherein the degree of focusing of another still image including the target pixel constituting the moving image is also changed based on the change of the degree of focusing on the still image.
前記表示部は、前記画像を表示する表示パネルと前記ユーザの指示に応じた指示体の検出面における位置を検出する位置検出パネルとから構成される
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the display unit includes a display panel that displays the image and a position detection panel that detects a position on a detection surface of an indicator according to an instruction from the user.
前記画像に対する前記指示体の位置は、前記指示体の前記位置検出パネルに対する接触に基づき決定される
請求項17に記載の画像処理装置。
The image processing apparatus according to claim 17, wherein the position of the indicator with respect to the image is determined based on contact of the indicator with the position detection panel.
画像処理制御部により、表示部に表示される画像に対応する距離情報に基づいて、前記画像に対するユーザの指示に応じた位置に対応する部分である注目画素に合焦した画像が生成されるように制御するステップと、
前記画像処理制御部により、前記注目画素に合焦した前記画像の前記距離情報に基づき計算されるボケ量を、前記ボケ量を加える操作部および前記ボケ量を減じる操作部のそれぞれに対するユーザの操作に応じて変更した前記画像が生成されるように制御するステップと、
前記画像処理制御部により、前記ボケ量を変更した前記画像が生成された後、前記ユーザの指示に基づき当該ボケ量で前記画像を決定する処理が実行されるよう制御するステップと、を備える
画像処理方法。
Based on the distance information corresponding to the image displayed on the display unit, the image processing control unit generates an image focused on the target pixel, which is a portion corresponding to the position corresponding to the user's instruction for the image. Step to control,
A user operation on each of an operation unit for adding the blur amount and an operation unit for reducing the blur amount calculated by the image processing control unit based on the distance information of the image focused on the target pixel. Controlling to generate the image modified according to:
And a step of controlling the image processing control unit to execute a process of determining the image with the blur amount based on an instruction from the user after the image with the blur amount changed is generated. Processing method.
表示部に表示される画像に対応する距離情報に基づいて、前記画像に対するユーザの指示に応じた位置に対応する部分である注目画素に合焦した画像を生成する処理と、
前記注目画素に合焦した前記画像の前記距離情報に基づき計算されるボケ量を、前記ボケ量を加える操作部および前記ボケ量を減じる操作部のそれぞれに対するユーザの操作に応じて変更した前記画像を生成する処理と、
前記ボケ量を変更した前記画像が生成された後、前記ユーザの指示に基づき当該ボケ量で前記画像を決定する処理とを、
コンピュータに実行させる画像処理プログラム。
Based on distance information corresponding to the image displayed on the display unit, a process of generating an image focused on the target pixel, which is a portion corresponding to a position corresponding to the user's instruction for the image,
The image obtained by changing the blur amount calculated based on the distance information of the image focused on the target pixel in accordance with a user operation on each of the operation unit for adding the blur amount and the operation unit for reducing the blur amount. Processing to generate
After the image with the blur amount changed is generated, a process of determining the image with the blur amount based on an instruction from the user.
An image processing program to be executed by a computer.
JP2014224148A 2014-11-04 2014-11-04 Image processing apparatus, image processing method, and image processing program Active JP5967172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014224148A JP5967172B2 (en) 2014-11-04 2014-11-04 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014224148A JP5967172B2 (en) 2014-11-04 2014-11-04 Image processing apparatus, image processing method, and image processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010065022A Division JP5760324B2 (en) 2010-03-19 2010-03-19 Image processing apparatus, image processing method, image processing program, and recording medium on which the image processing program is recorded

Publications (2)

Publication Number Publication Date
JP2015079519A JP2015079519A (en) 2015-04-23
JP5967172B2 true JP5967172B2 (en) 2016-08-10

Family

ID=53010830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014224148A Active JP5967172B2 (en) 2014-11-04 2014-11-04 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5967172B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6593629B2 (en) 2015-09-09 2019-10-23 ソニー株式会社 Image processing apparatus, solid-state imaging device, and electronic device

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331806A (en) * 2000-05-22 2001-11-30 Nec Corp Image processing system
JP2003141506A (en) * 2001-11-01 2003-05-16 Seiko Epson Corp Image processing apparatus and image processing program
JP2004152217A (en) * 2002-11-01 2004-05-27 Canon Electronics Inc Display device with touch panel
JP2004289383A (en) * 2003-03-20 2004-10-14 Seiko Epson Corp Image pickup device, image data generating device, image data processor, and image data processing program
JP4882319B2 (en) * 2005-09-08 2012-02-22 パナソニック株式会社 Information display device
JP2008021228A (en) * 2006-07-14 2008-01-31 Renesas Technology Corp Data processor
JP5109803B2 (en) * 2007-06-06 2012-12-26 ソニー株式会社 Image processing apparatus, image processing method, and image processing program
JP5012396B2 (en) * 2007-10-16 2012-08-29 日産自動車株式会社 White line detection device, parking and stopping support device, and white line detection method
JP2009218806A (en) * 2008-03-10 2009-09-24 Seiko Epson Corp Device and method for processing image, and program therefor
JP4900723B2 (en) * 2008-03-14 2012-03-21 ソニー株式会社 Image processing apparatus, image processing program, and display apparatus
JP2009253873A (en) * 2008-04-10 2009-10-29 Sony Corp Device and method for processing image, and program
JP5110588B2 (en) * 2008-06-12 2012-12-26 シャープ株式会社 Portable information terminal, control method thereof, control program, and recording medium

Also Published As

Publication number Publication date
JP2015079519A (en) 2015-04-23

Similar Documents

Publication Publication Date Title
JP5760324B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium on which the image processing program is recorded
JP5652652B2 (en) Display control apparatus and method
JP5613187B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND SUSTAINABLE COMPUTER-READABLE MEDIUM CONTAINING CODE FOR CAUSING COMPUTER TO CONTROL IMAGING DEVICE
JP6366395B2 (en) Zoom control device, imaging device, control method for zoom control device, control program for subject detection device, and storage medium
US20050134719A1 (en) Display device with automatic area of importance display
US20080284900A1 (en) Digital camera
JP6370140B2 (en) Zoom control device, imaging device, control method for zoom control device, control program for zoom control device, and storage medium
JP2006148260A (en) Automatic tracking device, image abnormality detector, automatic tracking method, image abnormality detecting method, program and storage medium
JP6500535B2 (en) Image processing apparatus, image processing method and program
JP2019176249A (en) Image processing device, image processing method, image processing program, and imaging device
WO2017130522A1 (en) Image processing device, image capturing device, image processing method and program
KR20120002834A (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
JP5266701B2 (en) Imaging apparatus, subject separation method, and program
JP2013058861A (en) Image processor, and method and program for controlling image processor
JP5967172B2 (en) Image processing apparatus, image processing method, and image processing program
JP4967938B2 (en) Program, image processing apparatus, and image processing method
JP2010016693A (en) Electronic camera
JP2019041188A (en) Image processing apparatus, imaging apparatus, control method of image processing apparatus, and program
JP5570348B2 (en) Image processing apparatus, image processing method, and program
JP2018006803A (en) Imaging apparatus, control method for imaging apparatus, and program
JP2009049457A (en) Imaging device and program
JP2006094202A (en) Imaging apparatus, focusing processing method, and program
JP2016039513A (en) Image generation apparatus, image generation method, and program
KR101477540B1 (en) Photographing apparatus with automatic panning shot function and photographing method for panning shot
JP6104022B2 (en) Imaging apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160620

R151 Written notification of patent or utility model registration

Ref document number: 5967172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250