JP2016092807A - Image processing apparatus and control method of image processing apparatus - Google Patents

Image processing apparatus and control method of image processing apparatus Download PDF

Info

Publication number
JP2016092807A
JP2016092807A JP2014229342A JP2014229342A JP2016092807A JP 2016092807 A JP2016092807 A JP 2016092807A JP 2014229342 A JP2014229342 A JP 2014229342A JP 2014229342 A JP2014229342 A JP 2014229342A JP 2016092807 A JP2016092807 A JP 2016092807A
Authority
JP
Japan
Prior art keywords
image processing
subject
region
image
attention area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014229342A
Other languages
Japanese (ja)
Inventor
桂一 齊藤
Keiichi Saito
桂一 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014229342A priority Critical patent/JP2016092807A/en
Publication of JP2016092807A publication Critical patent/JP2016092807A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device which prevents partial blurring of a subject across the boundary of an area not wanted to be blurred, when performing image processing of diorama.SOLUTION: An image processing apparatus performing image processing of an input image has detection means for detecting a subject in an input image, specification means for specifying an attention area in the image, determination means for determining overlap of an area specified by the specification means and an area corresponding to a subject detected by the detection means, and image processing means performing different image processing of the attention area specified by the specification means and other area, and outputting a diorama image. The image processing means deforms the attention area according to the detection results from the detection means, and performs different image processing of the deformed attention area and other area.SELECTED DRAWING: Figure 1

Description

本発明は、特に撮像された画像に特殊効果を施す画像処理装置及び画像処理装置の制御方法に関する。   The present invention relates to an image processing apparatus that applies a special effect to a captured image, and a control method for the image processing apparatus.

近年のデジタルカメラなどの撮像装置には、撮像画像に画像処理を施し、ジオラマ風やトイカメラ風といったさまざまな効果を演出する機能を有するものが多い。   Many imaging devices such as digital cameras in recent years have a function of performing image processing on captured images and producing various effects such as a diorama style or a toy camera style.

例えばジオラマ風の画像処理は、一般的に以下の手順で実施される。
1.ジオラマの主となる被写体を含む任意の領域(以後、注目領域)を設定する。
2.注目領域以外にぼかし処理を施す。
3.画像全体のコントラストや色合いを強めるという画像処理を施す。
For example, diorama-like image processing is generally performed in the following procedure.
1. An arbitrary area (hereinafter referred to as an attention area) including the main subject of the diorama is set.
2. Blur processing is applied to areas other than the attention area.
3. Image processing is performed to increase the contrast and hue of the entire image.

画像処理は、撮像時に撮像装置側で加工する方法と、撮影後にパソコンなどにおいてレタッチソフト等を用いて撮像した画像を加工する方法のいずれかが一般的である。   As for image processing, either a method of processing on the imaging device side at the time of image capturing or a method of processing an image captured using retouch software or the like on a personal computer or the like after shooting is generally used.

撮像装置で撮影時に実施するジオラマ風画像処理例として、特許文献1では自動でピントが合っている位置を注目領域としてジオラマ画像処理することが開示されている。   As an example of diorama-like image processing performed at the time of shooting with an imaging device, Patent Document 1 discloses that diorama image processing is performed with a focused position as an attention area automatically.

また、特許文献2ではジオラマ写真化をする際に注目領域を帯状の領域で選択する。注目領域の幅と位置は元画像から被写体までの距離から決定される。   In Patent Document 2, a region of interest is selected as a band-shaped region when diorama photography is performed. The width and position of the attention area are determined from the distance from the original image to the subject.

特開2011−120143号公報JP 2011-120143 A 特開2011−010243号公報JP 2011-010243 A

しかしながら、上述の特許文献に開示された従来技術では、注目領域の境界を跨る被写体は一部分がぼかされ、残りの部分がぼかされていないといった不自然に見える画像になってしまう。   However, in the related art disclosed in the above-described patent document, an image that looks unnatural, such that a subject straddling the boundary of a region of interest is partially blurred and the remaining portion is not blurred.

そこで、本発明の目的は注目領域の境界に跨る複数の被写体に対して、一部分だけがぼけることを防ぐ撮像装置を提供することである。   Accordingly, an object of the present invention is to provide an imaging device that prevents only a part of a plurality of subjects straddling the boundary of a region of interest from being blurred.

上記課題に鑑み、本発明の画像処理装置は、入力画像内の被写体を検出する検出手段と、画像内の注目領域を指定する指定手段と、前記指定手段により指定される領域と前記検出手段により検出された被写体に対応する領域との重なりを判定する判定手段と、前記指定手段により指定される注目領域とそれ以外に異なる画像処理を施してジオラマ画像を出力する画像処理手段と、を有し、前記画像処理手段は、前記注目領域を前記検出手段による検出結果に従って変形し、当該変形された注目領域とそれ以外に異なる画像処理を施すことを特徴とする。   In view of the above problems, an image processing apparatus according to the present invention includes a detection unit that detects a subject in an input image, a designation unit that designates a region of interest in an image, a region that is designated by the designation unit, and the detection unit. A determination unit that determines an overlap with a region corresponding to the detected subject, and an image processing unit that outputs a diorama image by performing different image processing on the region of interest specified by the specifying unit and other than that. The image processing means is characterized in that the attention area is deformed according to a detection result by the detection means, and image processing different from the deformed attention area is performed.

また、本発明の画像処理装置は、入力画像に対して画像処理を行う画像処理装置において、入力画像内の複数の領域の被写体距離を検出する距離検出手段と、画像内の注目領域を指定する指定手段と、前記指定手段により指定される注目領域とそれ以外に異なる画像処理を施してジオラマ画像を出力する画像処理手段と、を有し、前記画像処理手段は、前記指定手段により指定される注目領域と連続しており、かつ被写体距離が対応する領域を含むように注目領域を変形し、当該変形された注目領域とそれ以外に異なる画像処理を施すことを特徴とする。   Further, an image processing apparatus according to the present invention specifies distance detection means for detecting subject distances of a plurality of areas in an input image and an attention area in the image in an image processing apparatus that performs image processing on an input image. An image processing unit that outputs a diorama image by performing different image processing in addition to the attention area specified by the specifying unit, and the image processing unit is specified by the specifying unit The attention area is deformed so as to include an area that is continuous with the attention area and corresponds to the subject distance, and image processing different from the deformed attention area is performed.

本発明によれば、注目領域と被写体の位置関係から被写体が注目被写体か判定をおこない被写体の一部だけがぼかされる不自然な画像を防ぐことができることができる。   According to the present invention, it is possible to prevent an unnatural image in which only a part of a subject is blurred by determining whether the subject is a target subject from the positional relationship between the region of interest and the subject.

実施例1のブロック図である。1 is a block diagram of Example 1. FIG. 入力画像内の被写体の図である。It is a figure of the to-be-photographed object in an input image. 注目被写体判定のフローチャートである。It is a flowchart of attention object determination. 入力画像内の注目領域の図である。It is a figure of the attention area in an input image. 検出した被写体と注目領域の重なりを示す図である。It is a figure which shows the overlap of the detected to-be-photographed object and attention area. 重なりフラグと変形注目領域を示す図である。It is a figure which shows an overlap flag and a deformation | transformation attention area. 図4とは別配置の入力画像内の検出した被写体と注目領域を示す図である。FIG. 5 is a diagram showing detected subjects and attention areas in an input image arranged differently from FIG. 4. 図7の重なりフラグと変形注目領域を示す図である。It is a figure which shows the overlap flag and deformation | transformation attention area | region of FIG. 図4と図7とは別配置の入力画像内の検出した被写体と注目領域を示す図である。FIG. 8 is a diagram showing a detected subject and a region of interest in an input image arranged differently from FIG. 4 and FIG. 図9の重なりフラグと変形注目領域を示す図である。It is a figure which shows the overlap flag and deformation | transformation attention area | region of FIG. 矩形以外の注目領域の形を示す図である。It is a figure which shows the shape of the attention area | regions other than a rectangle. 実施例2のブロック図である。6 is a block diagram of Embodiment 2. FIG. 実施例3のブロック図である。10 is a block diagram of Example 3. FIG. 注目領域内の距離計測ポイントを示す図である。It is a figure which shows the distance measurement point in an attention area. 入力画像に直交座標を表示した図である。It is the figure which displayed the orthogonal coordinate on the input image. 撮像装置の右側面を下にした時の入力画像に直交座標を表示した図である。It is the figure which displayed the orthogonal coordinate on the input image when the right side of an imaging device is turned down. 撮像装置の左側面を下にした時の入力画像に直交座標を表示した図である。It is the figure which displayed the orthogonal coordinate on the input image when the left side of an imaging device is turned down.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1は、本発明の実施形態にかかわる撮像装置1のブロック図である。また、以下に説明する各ブロックは、例えば撮像装置1が有する制御部112が、HDD等の記録装置に記録された対応するアプリケーションプログラムをRAM等に展開して実行することで実現される、各モジュールであるものとして説明する。しかしながら、本発明の実施において画像処理はプログラムにより実現されるものに限らず、その一部が1以上のモジュールに対応する機能を有する情報処理回路等のハードウェアによって動作が実現されるものであってもよい。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram of an imaging apparatus 1 according to an embodiment of the present invention. Each block described below is realized by, for example, the control unit 112 included in the imaging device 1 developing and executing a corresponding application program recorded in a recording device such as an HDD on a RAM or the like. It will be described as a module. However, in the embodiment of the present invention, the image processing is not limited to being realized by a program, and a part of the image processing is realized by hardware such as an information processing circuit having a function corresponding to one or more modules. May be.

検出撮像部100は、撮像素子と、被写体からの光束を撮像素子に導く撮像光学系を含むものであり、デジタルの撮像データを入力画像101として出力する。検出
被写体検出部102は入力画像101内にそれぞれ写っている被写体の形状を検出して、2次元の直交座標系で表せられる被写体位置情報を検出結果として出力する。形状の検出はエッジ検出や輝度値の検出より行う。
The detection imaging unit 100 includes an imaging element and an imaging optical system that guides a light beam from a subject to the imaging element, and outputs digital imaging data as an input image 101. Detection The subject detection unit 102 detects the shape of each subject shown in the input image 101, and outputs subject position information represented by a two-dimensional orthogonal coordinate system as a detection result. The shape is detected by edge detection or luminance value detection.

直交座標系について図15を用いて説明する。図15は入力画像に直交座標を表示した図である。   The orthogonal coordinate system will be described with reference to FIG. FIG. 15 is a diagram in which Cartesian coordinates are displayed on the input image.

1500は原点(0,0)、1501は原点からx軸方向へx1の距離だけ移動した点(x1,0)、1502は原点からy軸方向へy1の距離だけ移動した点である。   1500 is the origin (0, 0), 1501 is a point (x1, 0) moved from the origin by x1 in the x-axis direction, and 1502 is a point moved by y1 from the origin in the y-axis direction.

更に1503は原点からx軸方向へx1、y軸方向へy1の距離だけ移動した点(x1、y1)である。   Reference numeral 1503 denotes a point (x1, y1) moved from the origin by a distance of x1 in the x-axis direction and y1 in the y-axis direction.

1504は点(0、y1)と点(x1、y1)を結んで出来る線を底辺とした検出した被写体207の高さである。1505は注目領域400の高さである。ここでx1は入力画像101の横方向の長さ、y1は入力画像101の縦方向の長さである。   Reference numeral 1504 denotes the height of the detected subject 207 with the line formed by connecting the point (0, y1) and the point (x1, y1) as the base. 1505 is the height of the attention area 400. Here, x1 is the horizontal length of the input image 101, and y1 is the vertical length of the input image 101.

図2は被写体検出部102にて検出された入力画像101内に存在する被写体を簡易的に表した図である。説明のため図2において被写体は簡易な矩形図で表現しているが、実際にはこれらの被写体は人物であったり、建物であったりと複雑な形をしている。   FIG. 2 is a diagram simply showing a subject existing in the input image 101 detected by the subject detection unit 102. For the sake of explanation, the subject is represented by a simple rectangular diagram in FIG. 2, but in reality, these subjects have a complicated shape such as a person or a building.

ここで200〜209は被写体を表わしている。200〜209は被写体検出部102により検出されている。   Here, reference numerals 200 to 209 represent subjects. 200 to 209 are detected by the subject detection unit 102.

操作部108は、ユーザからのさまざまな入力に従って指示情報107を出力する。注目領域選択部103に出力される指示情報107は画面上に注目領域を設定するため位置情報である。ユーザはタッチパネル等を用いて注目領域を設定すると、指示情報107として注目領域選択部103に入力される。   The operation unit 108 outputs instruction information 107 according to various inputs from the user. The instruction information 107 output to the attention area selection unit 103 is position information for setting the attention area on the screen. When the user sets an attention area using a touch panel or the like, the attention information is input to the attention area selection unit 103 as instruction information 107.

注目領域の選択方法として、例えば左上の角と右下の角の二点をタッチすることで四角形の領域を選択することができる。   As a method of selecting a region of interest, for example, a quadrangular region can be selected by touching two points, the upper left corner and the lower right corner.

あるいは、指でタッチパネルをなぞることで任意の形の領域を指定してもよい。または画像の条件(画面中央に目立つ物体があるなど)に応じて自動的に最適な領域を選択して指示情報107として入力されてもよい。   Alternatively, an area of an arbitrary shape may be specified by tracing the touch panel with a finger. Alternatively, an optimum region may be automatically selected and input as the instruction information 107 according to image conditions (such as an object that stands out in the center of the screen).

指示情報107の生成方法については本発明では特に限定しない。   The method for generating the instruction information 107 is not particularly limited in the present invention.

注目領域選択部103は指示情報107によって指示される入力画像内の領域をを注目領域とし、注目領域位置情報を出力する。   The attention area selection unit 103 sets an area in the input image indicated by the instruction information 107 as an attention area, and outputs attention area position information.

注目被写体判定部104はそれぞれの被写体位置情報と注目領域位置情報から、注目被写体判定情報を出力する。注目被写体判定情報は被写体の位置情報と重なりフラグで構成される。   The target subject determination unit 104 outputs target subject determination information from each subject position information and target region position information. The subject-of-interest determination information includes subject position information and an overlap flag.

注目領域変形部105は、注目被写体判定部104で注目被写体だと判定された領域に基づいて、注目領域を変形する。   The attention area deforming unit 105 deforms the attention area based on the area determined as the attention subject by the attention subject determination section 104.

画像処理部106は、変形された注目領域に基づいて、注目領域以外の領域を注目領域に比べてぼかす画像処理を施したり、輝度、色を変更することにより、入力画像に対してジオラマ風の画像処理を施す。また、ジオラマ風の画像処理を施さない、通常の入力画像も含めて、入力画像に、ホワイトバランス処理、現像処理、色空間変換、歪み補正処理、ガンマ補正処理、符号化、圧縮処理などの一般的な画像処理を施す。   Based on the deformed attention area, the image processing unit 106 performs image processing for blurring the area other than the attention area as compared with the attention area, or changes the luminance and the color so that the input image has a diorama style. Apply image processing. In addition, general input images such as white balance processing, development processing, color space conversion, distortion correction processing, gamma correction processing, encoding, compression processing, etc., including normal input images that are not subjected to diorama-like image processing. Perform typical image processing.

表示部109は、画像処理部106から出力される画像が表示部109、記録部110へ出力され、それぞれ所定のデータ形式で表示、記録がなされる。   The display unit 109 outputs the image output from the image processing unit 106 to the display unit 109 and the recording unit 110, and displays and records them in predetermined data formats, respectively.

重なりフラグについて説明する、検出した被写体位置情報が注目領域位置情報と重なる領域が有る場合は重なりフラグを“1”とし、重なる領域がない場合は重なりフラグを“0”と定義する。   The overlap flag will be described. When there is an area where the detected subject position information overlaps the attention area position information, the overlap flag is defined as “1”, and when there is no overlap area, the overlap flag is defined as “0”.

そして重なりフラグは1ビットの情報量で、1つの被写体位置情報につき1つの重なりフラグを備える。   The overlap flag has an information amount of 1 bit, and includes one overlap flag for each subject position information.

注目被写体判定方法について図3を用いて説明する。図3は注目被写体判定のフローチャートである。   The attention subject determination method will be described with reference to FIG. FIG. 3 is a flowchart for determining the subject of interest.

ステップS300では、注目被写体判定部104が検出した被写体の領域が注目領域に重なっているか判定する。   In step S300, it is determined whether the subject region detected by the subject-of-interest determination unit 104 overlaps the region of interest.

検出した被写体位置情報と注目領域位置情報が一部でも同じ座標を持つ場合は重なっていると判定しステップS301に進む。重なっていない場合はステップS302に進む。   If the detected subject position information and the attention area position information have the same coordinates even in part, it is determined that they overlap, and the process proceeds to step S301. If not, the process proceeds to step S302.

ステップS302では、注目被写体判定部104が検出した被写体の被写体位置情報に重なりフラグの“0”を与える。処理が終了したらステップS305に進む。   In step S302, an overlap flag “0” is given to the subject position information of the subject detected by the subject of interest determination unit 104. When the process is finished, step S305 follows.

ステップS301では、注目被写体判定部104が検出した被写体の領域の最下端が注目領域よりも下にあるか判定する。すなわち本実施形態では、検出された被写体に対応する領域で、初期設定の注目領域に跨がる(注目領域と連続している)領域については基本的に領域全体が注目領域に含まれるように注目領域を変形する。ただし、本実施形態では注目領域の下端に跨がる領域については、注目領域に含めないように、被写体毎に制御する。従って、ステップS301をもって注目領域の下端に跨がる被写体を判定し、当該被写体に対応する領域については注目領域(ぼかしの対象領域)としない。判定方法は検出した被写体位置情報と注目領域位置情報の座標系において点1502と点1503を結んだ直線からの距離を高さとして比較することである。   In step S301, it is determined whether the lowest end of the subject area detected by the target subject determination unit 104 is below the target region. In other words, in the present embodiment, the region corresponding to the detected subject and straddling the initial region of interest (continuous to the region of interest) is basically such that the entire region is included in the region of interest. Deform the region of interest. However, in the present embodiment, control is performed for each subject so that the region straddling the lower end of the region of interest is not included in the region of interest. Accordingly, a subject straddling the lower end of the attention area is determined in step S301, and the area corresponding to the subject is not regarded as the attention area (blurring target area). The determination method is to compare the distance from the straight line connecting the points 1502 and 1503 as the height in the coordinate system of the detected subject position information and attention area position information.

検出した被写体位置情報の高さが注目領域位置情報の高さよりも低い時はステップS304に進む。検出した被写体位置情報の高さが注目領域位置情報の高さよりも高い時はステップS303に進む。   When the height of the detected subject position information is lower than the height of the attention area position information, the process proceeds to step S304. When the height of the detected subject position information is higher than the height of the attention area position information, the process proceeds to step S303.

ステップS303では、注目被写体判定部104が検出した被写体の被写体位置情報に重なりフラグの“1”を与える。処理が終了したらステップS305に進む。   In step S303, an overlap flag “1” is given to the subject position information of the subject detected by the subject of interest determination unit 104. When the process is finished, step S305 follows.

ステップS304では、注目被写体判定部104が検出した被写体の被写体位置情報に重なりフラグの“0”を与える。処理が終了したらステップS305に進む。   In step S304, the overlap flag “0” is given to the subject position information of the subject detected by the subject of interest determination unit 104. When the process is finished, step S305 follows.

ステップS305では、注目被写体判定部104が検出した全ての被写体について判定を終了したか判定する。終了しない場合はステップS300に進み、終了した場合はフローチャートを終了する。   In step S <b> 305, it is determined whether the determination has been completed for all the objects detected by the target object determination unit 104. If not completed, the process proceeds to step S300, and if completed, the flowchart ends.

図2、図3、図4、図5、図6を使用して検出した被写体別の注目被写体判定について体例を上げて説明する。   The subject-of-interest determination for each subject detected using FIG. 2, FIG. 3, FIG. 4, FIG. 5, and FIG.

図4は図2に対する注目領域400を示している図である。説明簡略化のため、図4は注目領域を矩形で示している。注目領域400は注目領域選択部103の出力である。   FIG. 4 is a diagram showing a region of interest 400 with respect to FIG. For simplification of explanation, FIG. 4 shows the region of interest as a rectangle. The attention area 400 is an output of the attention area selection unit 103.

図5は被写体と注目領域が重なっている部分を示している図である。図6は図3のフローチャートの流れに従って重なりフラグを付加された被写体と変形された注目領域を示している図である。   FIG. 5 is a diagram showing a portion where the subject and the attention area overlap. FIG. 6 is a diagram showing a subject to which an overlap flag is added and a deformed attention area according to the flow of the flowchart of FIG.

図5は被写体200〜209と注目領域400が重なっているかどうかをS300にて判定した結果を示している。   FIG. 5 shows the result of determining whether or not the subjects 200 to 209 overlap with the attention area 400 in S300.

被写体200から被写体208までは一部分でも重なっているので、S301の判定に進む。それに対して被写体209は全く重なっていないので、S302に進み、重なりフラグ“0”が検出した被写体の被写体位置情報に付加される。   Since the subject 200 to the subject 208 are partially overlapped, the process proceeds to S301. On the other hand, since the subject 209 does not overlap at all, the process proceeds to S302, where the overlap flag “0” is added to the subject position information of the detected subject.

図6はS301にて判定を行って付加された重なりフラグと変形された注目領域を表わしている。   FIG. 6 shows the overlap flag added by the determination in S301 and the deformed attention area.

600〜605は重なりフラグ“1”を持つ被写体、606は変形注目領域である。   Reference numerals 600 to 605 denote subjects having an overlap flag “1”, and reference numeral 606 denotes a deformation attention area.

被写体203、204、205はS301にて被写体の最下端が注目領域400よりも下にあると判定され、S304にて重なりフラグ“0”が検出した被写体の被写体位置情報に付加されている。   The subjects 203, 204, and 205 are determined in S301 that the lowest end of the subject is below the attention area 400, and in S304, the overlap flag “0” is added to the subject position information of the detected subject.

それ以外の被写体はS301にて被写体の最下端が注目領域400より上にあるので、S303にて進み重なりフラグ“1”が付加されている。   For other subjects, since the lowest end of the subject is above the attention area 400 in S301, the overlap flag “1” is added in S303.

まず注目領域400から重なりフラグ“0”を持つ被写体位置情報と注目領域400が重なる領域を削除する。次に注目領域400と重なりフラグ“1”を持つ被写体位置情報の領域を合わせて変形注目領域606とする。   First, an area where the object position information having the overlap flag “0” overlaps the attention area 400 is deleted from the attention area 400. Next, the region of subject position information having the overlap flag “1” with the attention region 400 is combined into a deformation attention region 606.

その結果、図6で示している斜線の部分が最終的に変形注目領域606となる。   As a result, the hatched portion shown in FIG.

画像処理部106は変形注目領域位置情報で表せられる領域とそれ以外の領域にそれぞれ異なった画像処理を行い処理画像を出力する。   The image processing unit 106 performs different image processing on the region represented by the deformation attention region position information and the other region, and outputs a processed image.

ジオラマ化用の画像処理は、変形注目領域位置情報606で示される領域とそれ以外の領域の明るさ、彩度、コントラストを調整し、変形注目領域位置情報で示される領域以外の領域をローパスフィルタ処理等でぼかすといった処理を施すことである。   The image processing for diorama is performed by adjusting the brightness, saturation, and contrast of the region indicated by the deformation attention region position information 606 and the other region, and low-pass filtering the region other than the region indicated by the deformation attention region position information. It is to perform processing such as blurring by processing.

検出した被写体と注目領域400の配置が図4と違う図7と図10の2つのパターンについてその時の注目被写体判定と注目領域の変形を説明する。   The subject-of-interest determination and deformation of the region of interest at that time will be described with respect to the two patterns in FIGS.

図7では注目領域400を横方向にまたぐような建物等の大きな被写体が存在した例を示している。   FIG. 7 shows an example in which there is a large subject such as a building that straddles the attention area 400 in the horizontal direction.

700、701、702は被写体である。   Reference numerals 700, 701, and 702 are subjects.

被写体700は注目領域400の左右の境界線をまたぐように配置されている。被写体701は注目領域400の左右と下の境界線をまたぐように配置されている。被写体702は注目領域400の左右と上の境界線をまたぐように配置されている。   The subject 700 is arranged so as to straddle the left and right boundary lines of the attention area 400. The subject 701 is arranged so as to straddle the left and right boundary lines of the attention area 400. The subject 702 is arranged so as to straddle the left and right boundary lines of the attention area 400.

注目領域の変形を図8を使用して説明する。図8は図7の重なりフラグと変形注目領域を示す図である。   The deformation of the attention area will be described with reference to FIG. FIG. 8 is a diagram showing the overlap flag and the deformation attention area of FIG.

801〜802は重なりフラグ“1”を持つ被写体、803は変形注目領域である。   Reference numerals 801 to 802 denote subjects having an overlap flag “1”, and reference numeral 803 denotes a deformation attention area.

被写体700と被写体701は注目領域400と重なる領域があり、注目領域よりも高さが上にあるのでステップS303で重なりフラグ“1”を付加される。   Since the subject 700 and the subject 701 have an area overlapping the attention area 400 and are higher than the attention area, the overlap flag “1” is added in step S303.

被写体701は注目領域400と重なる領域があるが、注目領域400より高さが低い領域があるので重なりフラグ“0”が付加される。   The subject 701 has an area that overlaps the attention area 400, but since there is an area that is lower than the attention area 400, an overlap flag “0” is added.

まず注目領域400から重なりフラグ“0”を持つ被写体位置情報と注目領域400が重なる領域を削除する。次に注目領域400と重なりフラグ“1”を持つ被写体位置情報の領域を合わせて変形注目領域とする。   First, an area where the object position information having the overlap flag “0” overlaps the attention area 400 is deleted from the attention area 400. Next, the region of subject position information having the overlap flag “1” with the region of interest 400 is combined into a region of interest for deformation.

その結果、図8で示している斜線の部分が最終的に変形注目領域802となる。   As a result, the hatched portion shown in FIG.

図9では注目領域400を縦方向にまたぐような建物等の大きな被写体が存在した例を示している。   FIG. 9 shows an example in which there is a large subject such as a building that straddles the attention area 400 in the vertical direction.

900、901、902は被写体である。   Reference numerals 900, 901, and 902 denote subjects.

被写体900は注目領域400の上下の境界線をまたぐように配置されている。被写体901は注目領域400の上下と右の境界線をまたぐように配置されている。被写体902は注目領域400の上下と左の境界線をまたぐように配置されている。   The subject 900 is arranged so as to straddle the upper and lower boundary lines of the attention area 400. The subject 901 is arranged so as to straddle the upper and lower and right boundary lines of the attention area 400. The subject 902 is arranged so as to straddle the upper and lower boundary lines of the attention area 400.

注目領域の変形を図10を使用して説明する。図10は図9の重なりフラグと変形注目領域を示す図である。   The deformation of the attention area will be described with reference to FIG. FIG. 10 is a diagram showing the overlap flag and the deformation attention area in FIG.

901〜902は重なりフラグ“1”を持つ被写体、1000は変形注目領域である。   Reference numerals 901 to 902 denote subjects having an overlap flag “1”, and reference numeral 1000 denotes a deformation attention area.

被写体900〜被写体902は注目領域400と重なる領域があるが、注目領域400より高さが低い領域があるので重なりフラグ“0”が付加される。   Although the subject 900 to the subject 902 have a region that overlaps the region of interest 400, an overlap flag “0” is added because there is a region that is lower than the region of interest 400.

まず注目領域400から重なりフラグ“0”を持つ被写体位置情報と注目領域400が重なる領域を変形注目領域とする。その結果、図10で示している斜線の部分が最終的に変形注目領域1000となる。   First, an area where the subject position information having the overlap flag “0” and the attention area 400 overlap from the attention area 400 is set as a deformation attention area. As a result, the hatched portion shown in FIG.

この図10では注目領域が分断されて複数になっているが、注目領域の数は問題にはならない。   In FIG. 10, the region of interest is divided into a plurality of regions, but the number of regions of interest does not matter.

前述したように説明簡略化のため、注目領域400が矩形で指定されている場合について説明したが、図11に示したように注目領域は矩形でなくてもよい。図11の1100は任意の形で示されている注目領域である。   As described above, for simplification of description, the case where the attention area 400 is designated by a rectangle has been described. However, as shown in FIG. 11, the attention area may not be a rectangle. Reference numeral 1100 in FIG. 11 is a region of interest shown in an arbitrary form.

このような場合においても、図3のフローチャートで示す処理内容を実行することで自然なジオラマ画像が得られる。   Even in such a case, a natural diorama image can be obtained by executing the processing contents shown in the flowchart of FIG.

以上のように、本実施形態1では、検出した被写体と注目領域の位置関係からぼかし処理を制限する注目領域を変形してジオラマ画像処理するので被写体が不自然なぼけかたになるのを防ぐことができる。   As described above, in the first embodiment, the attention area that restricts the blurring process is deformed from the positional relationship between the detected object and the attention area, and the diorama image processing is performed, thereby preventing the subject from being unnaturally blurred. be able to.

以下、図12、を参照して、本発明の第2の実施例による、撮像装置の縦横検知情報と被写体の位置と注目領域と外部からの指示による注目領域修正を考慮した注目領域の変形方法について説明する。   Hereinafter, referring to FIG. 12, a method of deforming a region of interest in consideration of correction of the region of interest according to the vertical / horizontal detection information of the imaging apparatus, the position of the subject, the region of interest, and the region of interest by an external instruction according to the second embodiment of the present invention Will be described.

図12は実施例2を示すブロック図である。   FIG. 12 is a block diagram illustrating the second embodiment.

符号が図1と重複しているものは機能が同じなので説明を省略する。   Those having the same reference numerals as those in FIG.

1201は縦横検知部である。1202は注目被写体判定部である。各処理部の動作について説明する。   Reference numeral 1201 denotes a vertical / horizontal detection unit. Reference numeral 1202 denotes an attention subject determination unit. The operation of each processing unit will be described.

縦横検知手段1201は、撮像装置が縦になっているのか横になっているのかを検出して縦横情報を出力する。   The vertical / horizontal detection means 1201 detects whether the imaging device is vertical or horizontal and outputs vertical / horizontal information.

撮像装置を用いた縦横の検知方法は、例えば特開平11−024150で述べられている方法等が考えられる。本特許では撮像装置の縦横の検知方法については特に言及しない。   For example, a method described in Japanese Patent Application Laid-Open No. 11-024150 is conceivable as a vertical / horizontal detection method using an imaging apparatus. In this patent, no particular reference is made to the vertical and horizontal detection method of the imaging apparatus.

注目被写体判定部1202は検出したそれぞれの被写体位置情報と注目領域位置情報と縦横情報から、検出した被写体それぞれの注目被写体判定情報を出力する。   The subject-of-interest determination unit 1202 outputs the subject-of-interest determination information of each detected subject from the detected subject position information, the attention area position information, and the vertical / horizontal information.

注目被写体判方法について説明する。   A method for determining the subject of interest will be described.

注目被写体判定部1202は縦横情報を用いて撮像装置が縦撮像になっているか確認をする。   The subject-of-interest determination unit 1202 uses vertical / horizontal information to check whether the imaging device is in vertical imaging.

撮像装置が横になっている場合は図3のフローチャートと同じ処理を行う。縦の場合は、右側面が下になっていれば右側面の領域を下として処理をする。   When the imaging device is lying down, the same processing as that in the flowchart of FIG. 3 is performed. In the vertical case, if the right side is down, processing is performed with the area on the right side as the bottom.

撮像装置の右側面を下にした時の直交座標系と被写体と注目領域の高さの扱いについて図16を用いて説明する。   The orthogonal coordinate system and the handling of the subject and the height of the attention area when the right side surface of the imaging apparatus is faced down will be described with reference to FIG.

図16は撮像装置の右側面を下にした時の直交座標系と被写体と注目領域の高さを表示した図である。それぞれの座標系は図15の座標系を左方向に90°回転したものになっている。   FIG. 16 is a diagram displaying the orthogonal coordinate system, the subject, and the height of the region of interest when the right side surface of the imaging apparatus is faced down. Each coordinate system is obtained by rotating the coordinate system of FIG. 15 by 90 ° to the left.

1600は原点(0,0)、1601は原点からx軸方向へy1の距離だけ移動した点(y1,0)、1602は原点からy軸方向へx1の距離だけ移動した点である。   Reference numeral 1600 denotes an origin (0, 0), 1601 denotes a point (y1, 0) moved from the origin by a distance y1 in the x-axis direction, and 1602 denotes a point moved from the origin by a distance x1 in the y-axis direction.

更に1603は原点からx軸方向へy1、y軸方向へx1の距離だけ移動した点(y1、x1)である。   Reference numeral 1603 denotes a point (y1, x1) moved from the origin by a distance of y1 in the x-axis direction and x1 in the y-axis direction.

1604は点(0、x1)と点(y1、x1)を結んで出来る線を底辺とした検出した被写体207までの高さである。1605は注目領域400の高さである。   Reference numeral 1604 denotes the height to the detected object 207 with the line formed by connecting the point (0, x1) and the point (y1, x1) as the base. Reference numeral 1605 denotes the height of the attention area 400.

逆に左側面が下になっている場合は左側面を下とした時の座標系と被写体の高さと注目領域の高さの扱い方を図17を用いて説明する。   On the contrary, when the left side is down, the coordinate system when the left side is down and how to handle the height of the subject and the attention area will be described with reference to FIG.

図17は撮像装置の右側面を下にした時の直交座標系と被写体と注目領域の高さを表示した図である。それぞれの座標系は図15の座標系を右方向に90°回転したものになっている。   FIG. 17 is a diagram displaying the orthogonal coordinate system, the subject, and the height of the region of interest when the right side surface of the imaging apparatus is faced down. Each coordinate system is obtained by rotating the coordinate system of FIG. 15 by 90 ° to the right.

1700は原点(0,0)、1701は原点からx軸方向へy1の距離だけ移動した点(y1,0)、1702は原点からy軸方向へx1の距離だけ移動した点である。   Reference numeral 1700 denotes an origin (0, 0), 1701 denotes a point (y1, 0) moved from the origin by a distance y1 in the x-axis direction, and 1702 denotes a point moved from the origin by a distance x1 in the y-axis direction.

更に1703は原点からx軸方向へy1、y軸方向へx1の距離だけ移動した点(y1、x1)である。   Reference numeral 1703 denotes a point (y1, x1) moved from the origin by a distance y1 in the x-axis direction and x1 in the y-axis direction.

1704は点(0、x1)と点(y1、x1)を結んで出来る線を底辺とした検出した被写体207までの高さである。1705は注目領域400の高さである。   Reference numeral 1704 denotes the height to the detected object 207 with the line formed by connecting the point (0, x1) and the point (y1, x1) as the base. Reference numeral 1705 denotes the height of the attention area 400.

撮像装置が縦撮影になっているときは座標系を回転させることで対応が可能である。   When the imaging device is in vertical shooting, it can be handled by rotating the coordinate system.

本実施形態2では、撮像装置の縦横情報と被写体の位置情報と注目領域の位置関係から注目領域を変形してジオラマ画像処理をするので被写体が不自然なぼけかたになるのを防ぐことができる。   In the second embodiment, the diorama image processing is performed by deforming the attention area based on the vertical / horizontal information of the imaging apparatus, the positional information of the object, and the positional relation of the attention area, thereby preventing the subject from being unnaturally blurred. it can.

以下、図13を参照して、本発明の第3の実施例による、撮像装置と注目領域までの距離と撮像装置と検出したそれぞれの被写体の距離を考慮して注目領域を変形する方法について説明する。   Hereinafter, with reference to FIG. 13, a method for deforming a region of interest in consideration of the distance between the imaging device and the region of interest and the distance between the imaging device and each detected subject according to the third embodiment of the present invention will be described. To do.

図13は実施例3を示すブロック図である。   FIG. 13 is a block diagram illustrating the third embodiment.

図1、図12と符号が重複する箇所については処理方法が同じなので省略する。   Since the processing method is the same for portions having the same reference numerals as those in FIGS.

1301は距離計測部である。1302は注目領域距離計測部である。1303は注目被写体距離判定部である。   Reference numeral 1301 denotes a distance measuring unit. Reference numeral 1302 denotes an attention area distance measurement unit. Reference numeral 1303 denotes an attention subject distance determination unit.

各処理部の動作について説明する。   The operation of each processing unit will be described.

距離計測部1301は検出した被写体位置情報から、撮像装置300から検出した被写体までの距離検出を行い、検出された被写体距離情報を出力する。   The distance measuring unit 1301 detects the distance from the detected subject position information to the detected subject from the imaging apparatus 300, and outputs the detected subject distance information.

撮像装置を用いた距離の計測の方法は、例えば特開平06−331874で述べられている方法等が考えられる。本特許では距離の計測方法については特に言及しない。   As a method for measuring the distance using the imaging device, for example, the method described in Japanese Patent Laid-Open No. 06-331874 can be considered. This patent does not specifically mention the distance measurement method.

注目領域距離計測手段1302は注目領域位置情報から撮像装置300から注目領域の領域内の複数の位置の距離の平均値を算出した平均距離を出力する。   The attention area distance measuring unit 1302 outputs an average distance obtained by calculating an average value of distances of a plurality of positions in the attention area from the imaging apparatus 300 based on the attention area position information.

撮像装置から注目領域の平均距離の計測について図14を用いて説明する。   The measurement of the average distance of the attention area from the imaging device will be described with reference to FIG.

図14は注目領域400内の距離計測ポイントを示す図である。   FIG. 14 is a diagram showing distance measurement points in the attention area 400.

1400〜1408は注目領域400内の距離計測ポイントである。   Reference numerals 1400 to 1408 denote distance measurement points in the attention area 400.

注目領域距離計測部1202は複数の距離計測ポイント1400〜1408でそれぞれ撮像装置からの距離(被写体距離)を計測して注目領域の平均を出力する。   The attention area distance measurement unit 1202 measures the distance (subject distance) from the imaging device at each of a plurality of distance measurement points 1400 to 1408, and outputs the average of the attention area.

距離計測ポイントは任意の個数と任意の位置で構わない。   The number of distance measurement points may be any number and any position.

注目被写体判定部1303は検出した被写体の位置情報と被写体の距離情報と注目領域の平均距離からそれぞれの注目被写体判定情報を出力する。   The target subject determination unit 1303 outputs each target subject determination information based on the detected subject position information, subject distance information, and the average distance of the target region.

注目被写体判定部1303は検出した被写体の位置情報に重なりフラグを付加する。注目被写体判定情報とは検出した被写体の位置情報と重なりフラグを合わせたものである。   The subject-of-interest determination unit 1303 adds an overlap flag to the detected position information of the subject. The subject-of-interest determination information is a combination of detected subject position information and an overlap flag.

注目被写体判定方法について説明する。   A focused subject determination method will be described.

検出したそれぞれの被写体距離情報と注目領域の平均距離と比較する。   Each detected object distance information is compared with the average distance of the attention area.

検出した被写体距離情報が注目領域の平均距離の10パーセント以内の距離にある場合は重なりフラグ“1”を付加する。それ以外の被写体距離情報には重なりフラグ“0”を付加する。   If the detected subject distance information is within 10% of the average distance of the attention area, an overlap flag “1” is added. The overlap flag “0” is added to the other subject distance information.

本特許では特に比較に使用する注目領域の平均距離と検出した被写体の距離情報の差は限定しない。   In this patent, the difference between the average distance of the attention area used for comparison and the distance information of the detected subject is not particularly limited.

本実施形態3では、注目領域の平均距離と検出した被写体の距離を考慮して注目領域を変形するので被写体が不自然なぼけかたになるのを防ぐことができる。   In the third embodiment, since the attention area is deformed in consideration of the average distance of the attention area and the detected distance of the object, it is possible to prevent the subject from becoming unnaturally blurred.

(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
(Other embodiments)
The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software in which a procedure for realizing the functions of the above-described embodiments is described is recorded is supplied to the system or apparatus. The computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。   Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, a CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, nonvolatile memory card, ROM, or the like can also be used.

また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。   Further, by making the program code read by the computer executable, the functions of the above-described embodiments are realized. Furthermore, when the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, the functions of the above-described embodiments are realized by the processing. Is also included.

更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。   Furthermore, the following cases are also included. First, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

また、本発明はデジタルカメラのような撮影を主目的とした機器にかぎらず、携帯電話、パーソナルコンピュータ(ラップトップ型、デスクトップ型、タブレット型など)、ゲーム機など、撮像装置を内蔵もしくは外部接続する任意の機器に適用可能である。従って、本明細書における「撮像装置」は、撮像機能を備えた任意の電子機器を包含することが意図されている。   In addition, the present invention is not limited to devices such as digital cameras, but includes built-in or external connection of imaging devices such as mobile phones, personal computers (laptop type, desktop type, tablet type, etc.), game machines, etc. It can be applied to any device. Therefore, the “imaging device” in this specification is intended to include any electronic device having an imaging function.

101 入力画像
102 被写体検出部
103 注目領域選択部
104 注目被写体判定部
105 注目領域変形部
106 画像処理部
107 指示情報
DESCRIPTION OF SYMBOLS 101 Input image 102 Subject detection part 103 Attention area selection part 104 Attention subject determination part 105 Attention area deformation | transformation part 106 Image processing part 107 Instruction information

Claims (10)

入力画像に対して画像処理を行う画像処理装置において、
入力画像内の被写体を検出する検出手段と、
入力画像内の注目領域を指定する指定手段と、
前記指定手段により指定される領域と前記検出手段により検出された被写体に対応する領域との重なりを判定する判定手段と、前記注目領域を前記検出手段による検出結果に従って変形し、当該注目領域以外の領域にぼかし処理を施す画像処理手段と、
を有することを特徴とする画像処理装置。
In an image processing apparatus that performs image processing on an input image,
Detecting means for detecting a subject in the input image;
A designation means for designating a region of interest in the input image;
Determining means for determining an overlap between the area designated by the designation means and the area corresponding to the subject detected by the detection means; and transforming the attention area according to a detection result by the detection means, Image processing means for blurring the area;
An image processing apparatus comprising:
前記画像処理手段は、前記重なりを前記入力画像の撮像される撮像装置の縦横情報に基づいて判定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image processing unit determines the overlap based on vertical and horizontal information of an imaging apparatus in which the input image is captured. 前記画像処理手段は、前記注目領域に前記検出手段により検出された被写体に対応する領域が重なっている場合、当該重なっている被写体の領域全体が注目領域に含まれるように前記変形を行うことを特徴とする請求項1または2に記載の画像処理装置。   When the region corresponding to the subject detected by the detection unit overlaps the attention region, the image processing unit performs the deformation so that the entire region of the overlapping subject is included in the attention region. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 前記画像処理手段は、前記注目領域に前記検出手段により検出された被写体に対応する領域が重なっている場合、当該重なっている被写体に対応する領域を注目領域に含めるかいなかを被写体毎に制御して前記変形を行うことを特徴とする請求項1または2に記載の画像処理装置。   When the region corresponding to the subject detected by the detection unit overlaps the target region, the image processing unit controls for each subject whether the region corresponding to the overlapping subject is included in the target region. The image processing apparatus according to claim 1, wherein the deformation is performed. 入力画像に対して画像処理を行う画像処理装置において、
入力画像内の複数の領域の被写体距離を検出する距離検出手段と、
入力画像内の注目領域を指定する指定手段と、
前記指定手段により指定される注目領域とそれ以外に異なる画像処理を施してジオラマ画像を出力する画像処理手段と、を有し、
前記画像処理手段は、前記指定手段により指定される注目領域と連続しており、かつ被写体距離が対応する領域を含むように注目領域を変形し、当該変形された注目領域とそれ以外に異なる画像処理を施すことを特徴とする画像処理装置。
In an image processing apparatus that performs image processing on an input image,
Distance detecting means for detecting subject distances of a plurality of regions in the input image;
A designation means for designating a region of interest in the input image;
Image processing means for outputting a diorama image by performing different image processing on the attention area specified by the specifying means, and other than that,
The image processing means deforms the attention area so as to include an area that is continuous with the attention area designated by the designation means and includes a subject distance, and an image different from the deformed attention area. An image processing apparatus that performs processing.
請求項4に記載の画像処理装置において、
前記距離検出手段は領域内の複数の位置の距離の平均値を出力する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 4.
The distance detection means outputs an average value of distances of a plurality of positions in the region.
請求項1乃至6のいずれか1つに記載の画像処理装置において、
前記指定手段は画面上の二点の座標を指定されることを受けて、矩形で注目領域を指定すること
を特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The image processing apparatus according to claim 1, wherein the designation means designates a region of interest with a rectangle in response to designation of coordinates of two points on the screen.
請求項1乃至6のいずれか1つに記載の画像処理装置において、
前記指定手段は画面上で示された複数の座標を結んだものを注目領域とされること
を特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The image processing apparatus according to claim 1, wherein the designation means uses a region connecting a plurality of coordinates shown on the screen as a region of interest.
入力画像に対して画像処理を行う画像処理装置の制御方法において、
入力画像内の被写体を検出する検出ステップと、
画像内の注目領域を指定する指定ステップと、
前記指定ステップにて指定される領域と前記検出ステップにより検出された被写体に対応する領域との重なりを判定する判定ステップと、
前記指定ステップにて指定される注目領域とそれ以外に異なる画像処理を施してジオラマ画像を出力する画像処理ステップと、を有し、
前記画像処理ステップでは、前記注目領域を前記検出ステップによる検出結果に従って変形し、当該変形された注目領域とそれ以外に異なる画像処理を施すことを特徴とする画像処理装置の制御方法。
In a control method of an image processing apparatus that performs image processing on an input image,
A detection step for detecting a subject in the input image;
A designation step for designating a region of interest in the image;
A determination step of determining an overlap between the region specified in the specifying step and the region corresponding to the subject detected in the detection step;
An image processing step that outputs a diorama image by performing different image processing on the attention area specified in the specifying step;
In the image processing step, the region of interest is deformed according to the detection result of the detecting step, and image processing different from the deformed region of interest is applied to the deformed region of interest.
入力画像に対して画像処理を行う画像処理装置の制御方法において、
入力画像内の複数の領域の被写体距離を検出する距離検出ステップと、
画像内の注目領域を指定する指定ステップと、
前記指定ステップにて指定される注目領域とそれ以外に異なる画像処理を施してジオラマ画像を出力する画像処理ステップと、を有し、
前記画像処理ステップでは、前記指定ステップにより指定される注目領域と連続しており、かつ被写体距離が対応する領域を含むように注目領域を変形し、当該変形された注目領域とそれ以外に異なる画像処理を施すことを特徴とする画像処理装置の制御方法。
In a control method of an image processing apparatus that performs image processing on an input image,
A distance detection step for detecting subject distances of a plurality of regions in the input image;
A designation step for designating a region of interest in the image;
An image processing step that outputs a diorama image by performing different image processing on the attention area specified in the specifying step;
In the image processing step, the attention area is deformed so as to include an area that is continuous with the attention area specified in the specifying step and the subject distance corresponds to, and an image different from the deformed attention area. A control method for an image processing apparatus, characterized by performing processing.
JP2014229342A 2014-11-11 2014-11-11 Image processing apparatus and control method of image processing apparatus Pending JP2016092807A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014229342A JP2016092807A (en) 2014-11-11 2014-11-11 Image processing apparatus and control method of image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014229342A JP2016092807A (en) 2014-11-11 2014-11-11 Image processing apparatus and control method of image processing apparatus

Publications (1)

Publication Number Publication Date
JP2016092807A true JP2016092807A (en) 2016-05-23

Family

ID=56019172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014229342A Pending JP2016092807A (en) 2014-11-11 2014-11-11 Image processing apparatus and control method of image processing apparatus

Country Status (1)

Country Link
JP (1) JP2016092807A (en)

Similar Documents

Publication Publication Date Title
US10304161B2 (en) Image processing apparatus, control method, and recording medium
JP4986864B2 (en) Image projection device
US9865032B2 (en) Focal length warping
JP6079297B2 (en) Editing apparatus, editing method, and editing program
JP2009165106A (en) Image distortion correction
JP2011081775A (en) Projection image area detecting device
US11477432B2 (en) Information processing apparatus, information processing method and storage medium
WO2013179560A1 (en) Image processing device and image processing method
EP3822757A1 (en) Method and apparatus for setting background of ui control
JP2019146155A (en) Image processing device, image processing method, and program
JP2010072813A (en) Image processing device and image processing program
JP6623565B2 (en) Shelf allocation information generation device, shelf allocation information generation system, shelf allocation information generation method, imaging device, and program
US11037323B2 (en) Image processing apparatus, image processing method and storage medium
JP5750744B2 (en) Bar code display device
JP2018041201A (en) Display control program, display control method and information processing device
JP2005018195A (en) Image processing apparatus and image processing program
US12096110B2 (en) Image-processing apparatus for indicating a range within an input image, processing method, and medium
JP2011059775A (en) Image display method, program, image display device, and image pickup device
JP2016092807A (en) Image processing apparatus and control method of image processing apparatus
JP6933273B2 (en) Shelf allocation information generation system
JP2018097310A (en) Display control program, display control method and display control device
JP2021192245A (en) Shelf allocation information generation system, shelf allocation information generation method, and program
JP2005217721A (en) Apparatus and method for generating still picture
JP6399808B2 (en) Image processing apparatus, image processing method, and program
JP2013131811A (en) Image display device