JP6622546B2 - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP6622546B2
JP6622546B2 JP2015200469A JP2015200469A JP6622546B2 JP 6622546 B2 JP6622546 B2 JP 6622546B2 JP 2015200469 A JP2015200469 A JP 2015200469A JP 2015200469 A JP2015200469 A JP 2015200469A JP 6622546 B2 JP6622546 B2 JP 6622546B2
Authority
JP
Japan
Prior art keywords
subject
area
distance
focus position
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015200469A
Other languages
Japanese (ja)
Other versions
JP2017073704A (en
Inventor
椿原 一志
一志 椿原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015200469A priority Critical patent/JP6622546B2/en
Publication of JP2017073704A publication Critical patent/JP2017073704A/en
Application granted granted Critical
Publication of JP6622546B2 publication Critical patent/JP6622546B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、例えば撮影画像や再生画像の一部を拡大表示可能なデジタルカメラやスマートフォンなどの画像処理装置及び方法に関する。   The present invention relates to an image processing apparatus and method such as a digital camera or a smartphone capable of enlarging and displaying a part of a captured image or a reproduced image, for example.

画像の撮影時、撮影後の再生確認時、合焦状況を確認するために画像を拡大表示できる機能を有するデジタルカメラ等の画像処理装置が存在する。従来の画像処理装置では、装置が検出している合焦位置を中心にした一部の矩形領域の拡大表示や、画像を等分(例えば縦横3x3の9等分、4x4の16等分)に分割したそれぞれの領域について、最も高周波数成分を含む矩形領域を拡大表示する画像処理装置が存在する。   There is an image processing apparatus such as a digital camera having a function capable of enlarging and displaying an image in order to confirm an in-focus state at the time of capturing an image, confirming reproduction after capturing. In a conventional image processing apparatus, an enlarged display of a part of a rectangular area centering on the in-focus position detected by the apparatus, and an image are equally divided (for example, 9 × 3 × 3, 4 × 16). There is an image processing apparatus that enlarges and displays a rectangular area including the highest frequency component for each divided area.

特開2004−186872号公報Japanese Patent Laid-Open No. 2004-186872

従来の画像処理装置のような拡大表示では、被写体に合わせた拡大表示を行なう訳ではないため、拡大表示された結果だけを見ても、それが被写体の一部分のみの表示となってしまった場合には、被写体が何であるかを認識しづらい拡大表示となる場合がある。   In the enlarged display as in the conventional image processing apparatus, the enlarged display is not performed according to the subject, so even if only the enlarged result is viewed, only a part of the subject is displayed. In some cases, the enlarged display is difficult to recognize what the subject is.

本発明は上記従来例に鑑みて成されたもので、撮影する画像または撮影した画像を、合焦位置を含めて適応的に拡大表示することができる画像処理装置及び方法を提供することを目的とする。
The present invention has been made in view of the above conventional example, and an object thereof is to provide an image processing apparatus and method capable of adaptively enlarging and displaying a photographed image or a photographed image including a focus position. And

上記目的を達成するために本発明の画像処理装置は、撮影位置と被写体との距離情報を含む画像データにおける合焦位置を特定する手段と、前記距離画像に基づいて、前記合焦位置の被写体を含む領域を拡大領域として特定する特定手段と、前記拡大領域を拡大して表示する表示手段とを有し、前記特定手段は、前記距離画像に基づいて、前記合焦位置の被写体の距離との差が所定値以内であるような距離の被写体を含む領域も前記拡大領域としてさらに特定することを特徴とする。 In order to achieve the above object, an image processing apparatus according to the present invention includes means for specifying a focus position in image data including distance information between a shooting position and a subject, and the subject at the focus position based on the distance image. Specifying means for specifying an area including the enlarged area and display means for displaying the enlarged area in an enlarged manner, the specifying means, based on the distance image, the distance of the subject at the in-focus position, An area including a subject with a distance such that the difference between them is within a predetermined value is further specified as the enlarged area.

本発明によれば、撮影する画像または撮影した画像を、合焦位置を含めて適応的に拡大表示することができる。   According to the present invention, a captured image or a captured image can be adaptively enlarged and displayed including the in-focus position.

画像処理装置(デジタルカメラ)の構成図Configuration diagram of image processing device (digital camera) 画像処理エンジンを示す図Diagram showing image processing engine 撮影画像拡大処理フローチャートCaptured image enlargement process flowchart 領域分割処理フローチャートRegion division processing flowchart 領域分割処理の説明図Explanatory drawing of area division processing 拡大領域決定処理フローチャートEnlarged area determination process flowchart サブ領域判定処理フローチャートSub-area determination processing flowchart 拡大表示例1を示す図The figure which shows the enlarged display example 1 拡大表示例2を示す図Diagram showing enlarged display example 2 拡大表示例3を示す図Diagram showing enlarged display example 3 拡大表示例4を示す図The figure which shows the enlarged display example 4 再生画像拡大処理フローチャートPlayback image enlargement process flowchart

以下に、添付図面を参照して本発明を実施するための形態について詳細に説明する。以下に説明する実施の形態は、本発明の実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。   EMBODIMENT OF THE INVENTION Below, the form for implementing this invention with reference to an accompanying drawing is demonstrated in detail. The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed according to the configuration of the apparatus to which the present invention is applied and various conditions. The present invention is described below. It is not limited to the form.

[実施例1]
図1に本発明の画像処理装置の一例であるデジタルカメラの構成図を示す。
制御部(CPU)101はデジタルカメラ全体の制御を担う。レンズ102は焦点距離や絞りの状態を変更可能なレンズであり、撮像素子103は例えばCMOSセンサで、レンズ102により結像した光を電気信号に変換する機能を有し、また同時に、距離情報の取得も可能なセンサである。例えば、RGB画素の下層に、ToF(time-of-flight)方式で距離情報が取得可能なZ画素を積層するセンサなどが知られている。画素ごとに距離情報を対応付けた情報を距離マップ情報あるいは距離画像情報と呼ぶ。
信号処理部104は、入力動画像信号に対しホワイトバランスやガンマ補正等の所定の信号処理を行い、バス110を介して、メモリ109に画像データを格納する機能を有する。また同時に、距離情報についても距離情報値のみで構成された距離画像情報をメモリ109に格納する機能を有する。さらに本実施例のデジタルカメラにおいては、画像中のどの位置に合焦位置があるかを判定する合焦位置取得機能も有する。
JPEG符号/復号化部105は、メモリ109上に格納された画像データをJPEG形式の圧縮画像データに符号化したり、逆にメモリ109上に保持されたJPEG画像データを復号したりする機能を有する。
メモリカードコントローラ106は、メモリ109上に保持された各種データのメモリカード107への記録や、逆にメモリカード107に記録されている各種データをメモリ109上に読み込む機能を有する。また制御部101で処理されるファイルシステムを通じて、各種ファイルの記録、読み込みを行うことができる。
フラッシュメモリ108は、制御部101で動作させるプログラムの格納および各種設定データの保存等に利用され、本デバイスに記録されたデータは、本装置の電源が切られた状態でも保持される。
メモリ109は、前述のように画像データ等のデータを保持する事が可能な大容量のメモリである。
バス110は、制御部101からのコマンドの各ブロックへの伝達や、メモリ109と各ブロック間のデータの伝達を行う機能を有する。
画像処理エンジン111は、制御部101からの設定、制御により、メモリ109上に保持された画像データに対し、各種画像処理を高速に行う機能を有する。例えば図2に示すように、現像処理部201、距離情報生成部202、領域分割処理部203、拡大縮小処理部204、トリミング処理部205、顔検出部206、領域決定処理部207、その他様々な処理部で構成されている。これらの処理部は、本実施例のように、それぞれの処理毎の専用のハードウェアで構成されても良いし、画像処理専用の画像処理プロセッサと、そのプロセッサ上で動作するソフトウェア、あるいは制御部101と、101上で動作するソフトウェアで構成されても良い。本実施例では、専用のハードウェアで構成されており、それぞれの処理部は同時に並列処理可能な構成となっている。
表示部112は、復号された画像データの表示デバイスとしての機能、また、撮影時のビューファインダーとしての機能も有する。また、ユーザが本装置を操作する場合の操作画面としての機能も兼ね備える。
[Example 1]
FIG. 1 shows a configuration diagram of a digital camera which is an example of an image processing apparatus of the present invention.
A control unit (CPU) 101 controls the entire digital camera. The lens 102 is a lens that can change the focal length and the state of the diaphragm. The image sensor 103 is a CMOS sensor, for example, and has a function of converting light imaged by the lens 102 into an electrical signal. It is a sensor that can also be acquired. For example, a sensor in which a Z pixel that can acquire distance information by a ToF (time-of-flight) method is stacked below a RGB pixel is known. Information in which distance information is associated with each pixel is referred to as distance map information or distance image information.
The signal processing unit 104 has a function of performing predetermined signal processing such as white balance and gamma correction on the input moving image signal and storing the image data in the memory 109 via the bus 110. At the same time, the distance information has a function of storing in the memory 109 distance image information composed only of distance information values. Further, the digital camera of this embodiment also has a focus position acquisition function for determining which position in the image is the focus position.
The JPEG encoding / decoding unit 105 has a function of encoding image data stored in the memory 109 into compressed image data in JPEG format, and conversely decoding JPEG image data held on the memory 109. .
The memory card controller 106 has a function of recording various data stored in the memory 109 on the memory card 107 and conversely reading various data recorded on the memory card 107 onto the memory 109. Various files can be recorded and read through the file system processed by the control unit 101.
The flash memory 108 is used for storing a program operated by the control unit 101 and storing various setting data, and the data recorded in the device is retained even when the power of the apparatus is turned off.
The memory 109 is a large-capacity memory capable of holding data such as image data as described above.
The bus 110 has a function of transmitting a command from the control unit 101 to each block and transmitting data between the memory 109 and each block.
The image processing engine 111 has a function of performing various image processing on the image data held on the memory 109 at high speed by setting and control from the control unit 101. For example, as shown in FIG. 2, a development processing unit 201, a distance information generation unit 202, an area division processing unit 203, an enlargement / reduction processing unit 204, a trimming processing unit 205, a face detection unit 206, an area determination processing unit 207, and other various types. It consists of a processing unit. These processing units may be configured by dedicated hardware for each processing, as in this embodiment, an image processing processor dedicated to image processing, software operating on the processor, or a control unit 101 and software operating on 101 may be used. In this embodiment, it is configured by dedicated hardware, and each processing unit is configured to be capable of parallel processing simultaneously.
The display unit 112 has a function as a display device for the decoded image data, and also has a function as a viewfinder at the time of shooting. Further, it also has a function as an operation screen when the user operates the apparatus.

<画像拡大機能>
続いて、本実施形態の画像処理装置の特徴である、撮像時における合焦位置付近の画像拡大機能について、その処理内容を図3のフローチャートを用いて説明する。図3の各ステップは図2に示した画像処理エンジン111により実行されるが、上述の通り制御部101により実行されてもよい。
撮像時にユーザ指示により画像(これを着目画像あるいは着目フレームと呼ぶ)の拡大が要求されると、ステップS301の撮影画像拡大処理が開始される。なお着目画像はまさに撮影中の画像であり、静止画像であっても動画像のフレームであってもよい。
ステップS302では、撮像素子103から取得された画像データ(RAWデータ)と距離情報とが、信号処理部104を経て、メモリ109に格納される。ここで取得した画像データを着目画像データとも呼ぶ。
ステップS303では、信号処理部104より、ステップS302で取得した画像データに対する合焦位置を取得する。合焦位置は、撮影位置からの距離が焦点距離と等しい被写体上の位置である。合焦位置は、たとえば画像を小領域に分割し、空間周波数が閾値を超える領域のうち、最も空間周波数が高い領域を合焦位置を含む領域として特定できる。また撮影時に特定されている合焦位置を本ステップで用いてもよい。あるいは、現在の焦点距離と等しい距離の画素あるいは領域を距離画像に基づいて特定し、そこを合焦位置と特定してもよい。
ステップS304では、メモリ109に格納された画像データ(RAWデータ)に対し、画像処理エンジン111の現像処理部201により、色変換処理やノイズリダクション処理等の現像処理を行う。本処理により、例えば図8(a)のような静止画像(写真)が生成される。
ステップS305は顔検知処理であり、メモリ109に格納された静止画像に対し、画像処理エンジン111の顔検出部206により、静止画像中の顔の検出が行なわれる。顔が検出された場合には、顔の数および、それぞれの検出された顔に対して、その画像位置(座標)、サイズ等の情報が、メモリ109に一時保持される。
ステップS304、S305の処理と並行して、ステップS306、S307の処理が実行される。ステップS306では、距離情報生成部202により画像データと同時に取得され、メモリ109に格納された距離情報から距離画像(図8(b))を生成する。距離情報は、画素毎に0〜255の8ビットで表現されるデータであり、本例では、撮影位置と被写体との実際の距離からリニアに変換されるものではなく非線形に(例えば近距離ほど高精度に)変換された8ビットのデータである。ステップS306ではその距離情報を画素値として画像サイズ(すなわち着目フレームのサイズ)にならべた距離画像を生成する。図8(b)の場合、距離が近いものほど白く、遠いものほど黒くなるように表現されている。
ステップS307では、ステップS306で生成された距離画像に対し、領域分割処理部203により合焦位置に対して図4を参照して後述する領域分割処理を行なう事で、着目フレームから合焦領域を分割する。
<Image enlargement function>
Next, the processing content of the image enlargement function near the in-focus position at the time of imaging, which is a feature of the image processing apparatus of the present embodiment, will be described with reference to the flowchart of FIG. 3 are executed by the image processing engine 111 shown in FIG. 2, but may be executed by the control unit 101 as described above.
When enlargement of an image (referred to as a noticed image or a noticed frame) is requested by a user instruction at the time of imaging, the captured image enlargement process in step S301 is started. Note that the image of interest is an image being captured, and may be a still image or a frame of a moving image.
In step S <b> 302, image data (RAW data) and distance information acquired from the image sensor 103 are stored in the memory 109 via the signal processing unit 104. The image data acquired here is also called image data of interest.
In step S303, the signal processing unit 104 acquires the in-focus position for the image data acquired in step S302. The in-focus position is a position on the subject whose distance from the shooting position is equal to the focal length. The in-focus position can be specified, for example, by dividing an image into small regions, and among regions where the spatial frequency exceeds the threshold, the region with the highest spatial frequency can be specified as the region including the in-focus position. The in-focus position specified at the time of shooting may be used in this step. Alternatively, a pixel or region having a distance equal to the current focal length may be specified based on the distance image, and this may be specified as the in-focus position.
In step S304, development processing such as color conversion processing or noise reduction processing is performed on the image data (RAW data) stored in the memory 109 by the development processing unit 201 of the image processing engine 111. By this processing, for example, a still image (photograph) as shown in FIG. 8A is generated.
Step S305 is a face detection process. A face in the still image is detected by the face detection unit 206 of the image processing engine 111 for the still image stored in the memory 109. When a face is detected, information such as the number of faces and the image position (coordinates) and size of each detected face is temporarily stored in the memory 109.
In parallel with the processes in steps S304 and S305, the processes in steps S306 and S307 are executed. In step S <b> 306, the distance information (FIG. 8B) is generated from the distance information acquired by the distance information generation unit 202 at the same time as the image data and stored in the memory 109. The distance information is data represented by 8 bits from 0 to 255 for each pixel. In this example, the distance information is not linearly converted from the actual distance between the shooting position and the subject, but is nonlinear (for example, as the distance is shorter). This is 8-bit data converted (with high accuracy). In step S306, a distance image is generated in accordance with the image size (that is, the size of the frame of interest) using the distance information as a pixel value. In the case of FIG. 8B, the distance is expressed as white as the distance is short, and black as the distance is long.
In step S307, the region division processing unit 203 performs region division processing, which will be described later with reference to FIG. To divide.

ステップS305の顔検知処理と、ステップS307の領域分割処理とが完了すると、顔検出の結果と領域分割の結果および距離画像に基づいて、ステップS308の拡大領域決定処理(詳細は図6を参照して後述)が領域決定処理部207により実行される。拡大領域とは拡大処理及び表示の対象となる矩形領域である。決定された矩形領域はステップS309で拡大縮小処理部204により表示部112に拡大表示する。こうすることで、撮影画像拡大処理が実行される。撮影画像拡大処理は、ユーザからの拡大表示指示が続く限り、撮影されたフレーム毎に実施される。また、動画像に対して図3の撮影画像拡大処理が実行されており、ステップS302からS309までの処理時間を単純に加算すると1フレーム時間を超えてしまうような場合には、実時間で拡大画像を表示することが困難である。そこでそのような場合には一連の処理を1フレーム時間内に処理可能な複数の処理に分割し(例えば、S302〜S307とS308〜S309の2分割)、それぞれをパイプライン処理する必要がある。そのような場合には、S302の処理からS309の表示処理までの遅延時間が大きくなってしまうため、画像処理エンジン111の処理能力は高ければ高いほど、表示遅延が少なくて良い。なおたとえば静止画像であれば1フレーム時間の制約は考慮しなくともよい。   When the face detection process in step S305 and the area division process in step S307 are completed, an enlarged area determination process in step S308 (refer to FIG. 6 for details) based on the face detection result, the area division result, and the distance image. Are executed by the area determination processing unit 207. The enlargement area is a rectangular area to be enlarged and displayed. The determined rectangular area is enlarged and displayed on the display unit 112 by the enlargement / reduction processing unit 204 in step S309. In this way, the captured image enlargement process is executed. The captured image enlargement process is performed for each captured frame as long as an enlarged display instruction from the user continues. In addition, when the captured image enlargement process of FIG. 3 is performed on the moving image and the processing time from step S302 to S309 is simply added, it will exceed one frame time, and the enlargement is performed in real time. It is difficult to display an image. Therefore, in such a case, it is necessary to divide a series of processes into a plurality of processes that can be processed within one frame time (for example, two divisions of S302 to S307 and S308 to S309), and perform pipeline processing for each. In such a case, since the delay time from the process of S302 to the display process of S309 increases, the higher the processing capability of the image processing engine 111, the smaller the display delay. For example, in the case of a still image, the restriction of one frame time does not need to be considered.

<領域分割処理の詳細>
ここで、ステップS307における領域分割処理について図4および図5を用いて説明する。
領域分割処理ではまず、初期注目画素の設定を行なう。ステップS307の領域分割処理においては、ステップS303で取得した合焦位置に相当する画素を初期注目画素として設定する。図5(a)は合焦位置に相当する画素付近の距離画像を拡大した図であり、1と書かれた画素が、合焦位置に相当する画素=注目画素である。注目画素を設定後、ステップS403で注目画素の画素値=距離情報値を取得する。さらにステップS404では、注目画素と隣接する8画素の距離情報値を取得する。ステップS405では、注目画素の距離情報値と、それぞれの隣接画素の距離情報値との比較を行ない、情報値の差が所定の閾値α以内の場合には、その隣接画素を新たな注目画素として設定する。当然ながら、複数の注目画素が設定される場合がある。図5(b)においては、2と記載された画素が、新たに設定された注目画素を示している。×と書かれた画素は、閾値αを超えるため、新たな注目画素には設定されなかった画素を示している。この閾値αは、撮像装置の撮影モードに応じて変化させても良い。例えばマクロ撮影モードなど被写界深度が浅くなるようなモードでは閾値αを小さく、被写界深度が深くなるようなモードでは閾値αを大きくする事が考えられる。
ステップS406において、新たに設定された注目画素の有無を判定する。注目画素が存在する場合には、ステップS403に戻り、処理を繰り返す。複数の注目画素が設定された場合には、それぞれの画素について、ステップS403からの処理を実行する。図5(c)において、3と記載された画素は注目画素2に対して、新たに設定された注目画素である。最終的には、注目画素がなくなり、ステップS407に進み、領域分割処理が終了する。図5(d)において、注目画素5に対する新たな注目画素は存在しない(6と記載されるべき画素がない)ため、この状態で領域分割処理は終了する。
初期注目画素も含め、処理中に注目画素に設定された画素(図5において、1〜5の番号が付与された画素)の集合が、1つの領域として分割される。図5(e)において、斜め線がかけられた領域が、本領域分割処理によって分割された初期注目画素=合焦画素(符号501)を含む領域となる。
以上のように初期注目画素の距離と同程度の距離を有する、初期注目画素に連結した画素群を特定し、それを初期注目画素に係る連結領域として特定する。この連結領域を特定するための情報が得られれば、画像データそのものを分割しなくともよい。
<Details of area division processing>
Here, the region division processing in step S307 will be described with reference to FIGS.
In the area dividing process, first, an initial target pixel is set. In the area dividing process in step S307, the pixel corresponding to the in-focus position acquired in step S303 is set as the initial target pixel. FIG. 5A is an enlarged view of the distance image near the pixel corresponding to the in-focus position. A pixel written as 1 is a pixel corresponding to the in-focus position = a target pixel. After setting the target pixel, the pixel value of the target pixel = distance information value is acquired in step S403. In step S404, distance information values of 8 pixels adjacent to the target pixel are acquired. In step S405, the distance information value of the target pixel is compared with the distance information value of each adjacent pixel. If the difference between the information values is within a predetermined threshold value α, the adjacent pixel is set as a new target pixel. Set. Of course, a plurality of target pixels may be set. In FIG. 5B, a pixel described as 2 indicates a newly set target pixel. A pixel written as “x” indicates a pixel that has not been set as a new pixel of interest because it exceeds the threshold value α. The threshold α may be changed according to the shooting mode of the imaging device. For example, it is conceivable that the threshold value α is decreased in a mode where the depth of field is shallow, such as the macro shooting mode, and the threshold value α is increased in a mode where the depth of field is deep.
In step S406, the presence / absence of a newly set target pixel is determined. If there is a pixel of interest, the process returns to step S403 and the process is repeated. When a plurality of target pixels are set, the processing from step S403 is executed for each pixel. In FIG. 5C, the pixel described as 3 is the target pixel newly set for the target pixel 2. Eventually, the pixel of interest disappears, and the process proceeds to step S407, where the region division process ends. In FIG. 5D, since there is no new target pixel for the target pixel 5 (there is no pixel to be described as 6), the region division process ends in this state.
A set of pixels (pixels assigned numbers 1 to 5 in FIG. 5) set as the target pixel during processing, including the initial target pixel, is divided as one region. In FIG. 5 (e), a region with a diagonal line is a region including the initial pixel of interest = the focused pixel (reference numeral 501) divided by this region dividing process.
As described above, a group of pixels connected to the initial target pixel having a distance approximately equal to the distance of the initial target pixel is specified, and this is specified as a connected region related to the initial target pixel. If information for specifying the connected area is obtained, the image data itself may not be divided.

<拡大領域決定処理>
次に、先に述べたステップS308の拡大領域決定処理の詳細について、図6のフローチャートで説明する。
ステップS601で拡大領域決定処理が開始されると、ステップS602では、図3のフローチャート中、ステップS307で取得した合焦領域と、ステップS305で取得した顔検知情報から、合焦領域が顔領域かどうかを判定する。顔領域と判定された場合にはステップS605に進み、顔領域とは判定されなかった場合にはステップS603に進む。ステップS602では、たとえば顔領域に合焦領域が含まれていれば合焦領域は顔であると判定してよい。また例えば、顔領域と合焦領域とが重複しており、重複した部分が合焦領域に対して一定の割合を超えていれば合焦領域は顔であると判定してもよい。
ステップS603では、合焦領域を拡大領域と決定し、ステップS604のサブ領域判定処理に進む。ステップS603では、合焦領域を含む例えば矩形領域を拡大領域と決定する。そのために例えば、合焦領域と連結された画素群であって、合焦領域の色との色差が所定値以内の画素群を合焦位置を含む被写体であると特定し、その被写体を含む矩形領域を拡大領域とする。また例えば、合焦領域と連結された画素群であって、合焦領域の画素の距離との差が所定値以内の画素群を合焦位置を含む被写体であると特定し、その被写体を含む矩形領域を拡大領域とする。後者の場合には、たとえば、閾値αの値を適宜設定して図4の手順を実行することで被写体の領域を特定でき、それを含むように拡大領域を決定できる。この場合閾値αは、合焦位置の領域すなわち合焦領域を特定する場合よりも大きい値を用いるのが望ましい。
ステップS604のサブ領域判定処理は、合焦領域以外に合焦領域と同等の距離情報を持つ領域が静止画像中に存在しないかを判定し、存在する場合には、それらの領域をサブ領域と判定する処理である。具体的な処理内容を図7のフローチャートを用いて、以下に説明する。
<Enlarged area determination processing>
Next, details of the enlargement area determination processing in step S308 described above will be described with reference to the flowchart of FIG.
When the enlargement area determination process is started in step S601, in step S602, the focus area is determined to be a face area from the focus area acquired in step S307 and the face detection information acquired in step S305 in the flowchart of FIG. Determine if. If it is determined as a face area, the process proceeds to step S605. If it is not determined as a face area, the process proceeds to step S603. In step S602, for example, if the focus area is included in the face area, it may be determined that the focus area is a face. Further, for example, if the face area and the in-focus area overlap, and the overlapped portion exceeds a certain ratio with respect to the in-focus area, the in-focus area may be determined to be a face.
In step S603, the in-focus area is determined as an enlarged area, and the process proceeds to the sub-area determination process in step S604. In step S603, for example, a rectangular area including the in-focus area is determined as an enlarged area. For this purpose, for example, a pixel group connected to the in-focus area, a pixel group having a color difference with a color in the in-focus area within a predetermined value is identified as an object including the in-focus position, and a rectangle including the object Let the region be an enlarged region. Further, for example, a pixel group that is connected to the in-focus area and that has a difference from a pixel distance in the in-focus area within a predetermined value is identified as an object including the in-focus position, and includes the object. A rectangular area is set as an enlarged area. In the latter case, for example, the region of the subject can be specified by appropriately setting the value of the threshold value α and executing the procedure of FIG. 4, and the enlarged region can be determined so as to include it. In this case, it is desirable to use a larger value for the threshold value α than in the case of specifying the focus position area, that is, the focus area.
The sub-region determination processing in step S604 determines whether or not there is an area having distance information equivalent to the in-focus area other than the in-focus area in the still image. This is a process of determining. Specific processing contents will be described below with reference to the flowchart of FIG.

ステップS701でサブ領域判定処理が開始されると、ステップS702で、合焦位置と同じ距離情報値を持つ画素Aの探索を、距離画像に対して行なう。
画素Aが存在した場合には、ステップS703に進み、注目画素として画素Aを設定して、ステップS704の領域分割処理を行なう。領域分割処理は図4のフローチャートで示した処理である。
ステップS705では、領域分割処理によって抽出された領域に対し、その領域を構成する画素数が所定の画素数以上かどうかの判定を行なう。所定数以上であった場合には、ステップS706に進み、抽出された領域をサブ領域の1つとして領域の情報を保持する。所定数に満たなかった場合には、ステップS702に戻り、処理を繰り返す。ステップS702で、画素Aが無くなるまで処理が繰り返され、サブ領域判定処理は終了する。サブ領域は、利用者の指定に応じて拡大表示される領域であり、本例では、合焦位置を含む領域の表示と切り替えつつ表示される。サブ領域が複数ある場合には、ステップS309においては、サブ領域の表示指定操作に応じて、順次、表示される領域が切り替えられる。サブ領域を矩形領域とするためには、ステップS706において登録前に、たとえばステップS603で説明した要領で色差や距離差に基づいて被写体の画素群を特定し、被写体を含む矩形領域をサブ領域とすればよい。
When the sub-region determination process is started in step S701, the pixel A having the same distance information value as the in-focus position is searched for the distance image in step S702.
If the pixel A exists, the process proceeds to step S703, where the pixel A is set as the target pixel, and the region division process in step S704 is performed. The area dividing process is the process shown in the flowchart of FIG.
In step S705, it is determined whether or not the number of pixels constituting the area is greater than or equal to a predetermined number for the area extracted by the area dividing process. If the number is greater than or equal to the predetermined number, the process proceeds to step S706, and the extracted area is set as one of the sub areas, and the area information is held. If the predetermined number is not reached, the process returns to step S702 and the process is repeated. In step S702, the process is repeated until there is no pixel A, and the sub-region determination process ends. The sub-area is an area that is enlarged and displayed according to the user's designation. In this example, the sub-area is displayed while switching to the display of the area including the in-focus position. If there are a plurality of sub-regions, in step S309, the displayed regions are sequentially switched in accordance with the sub-region display designation operation. In order to make a sub-region a rectangular region, before registration in step S706, for example, a pixel group of a subject is specified based on a color difference or a distance difference in the manner described in step S603, and the rectangular region including the subject is defined as a sub-region. do it.

図6のフローチャートに戻り、拡大領域決定処理の続きについて説明する。
ステップS602において合焦領域が顔領域であると判定されてステップS605に進んだ場合には、合焦領域の近傍に、他の顔が存在するかどうかを判定する。たとえば互いの距離が一定値以内であれば近傍と判定できる。なお合焦領域である顔領域は近傍には含めない。合焦領域の近傍に他の顔領域がなかった場合には、ステップS606において、合焦領域の顔領域部分(あるいはその顔領域を含む矩形領域)を拡大領域と決定する。一方、近傍に他の顔領域が有りと判定された場合には、ステップS607に進み、近傍の全ての顔領域に対し、距離画像から距離情報値を取得し、ステップS607において、合焦領域と距離情報値が近い顔領域かどうかの判定を行なう。比較対象の顔領域の距離情報が合焦領域の距離情報に近くない場合には、ステップS606に進む。距離情報が近い場合には、距離情報の近い顔領域全てを含む矩形領域を特定して、その矩形領域を拡大領域として決定し、拡大領域決定処理を終了する。拡大領域の縦横比は、もとのフレームの縦横比と一致しているのが望ましい。なお、距離情報の比較は、たとえば各画素の距離情報により示される距離の平均値を領域ごとに求め、それぞれの領域の平均距離の差が所定値以内であれば、撮影位置からの距離が近い領域であると判定することができる。あるいは、比較対象の領域のすべての画素の距離情報に基づいて、最大の距離と最小の距離と持つ画素を特定し、それら画素が同一の領域に属するか、あるいはその差が所定値以内であれば撮影地点から同程度の距離にある被写体の領域であると判定することもできる。
Returning to the flowchart of FIG. 6, the continuation of the enlarged region determination process will be described.
If it is determined in step S602 that the focus area is a face area and the process proceeds to step S605, it is determined whether another face exists in the vicinity of the focus area. For example, if the distance between each other is within a certain value, it can be determined to be near. Note that the face area that is the focus area is not included in the vicinity. If there is no other face area in the vicinity of the focused area, in step S606, the face area portion of the focused area (or a rectangular area including the face area) is determined as an enlarged area. On the other hand, if it is determined that there is another face area in the vicinity, the process proceeds to step S607, and distance information values are acquired from the distance image for all the face areas in the vicinity. It is determined whether or not the face area has a close distance information value. If the distance information of the face area to be compared is not close to the distance information of the focused area, the process proceeds to step S606. When the distance information is close, a rectangular area including all face areas with close distance information is specified, the rectangular area is determined as an enlarged area, and the enlarged area determining process is terminated. The aspect ratio of the enlarged region is preferably the same as the aspect ratio of the original frame. For comparison of distance information, for example, an average value of distances indicated by distance information of each pixel is obtained for each region, and if the difference between the average distances of the respective regions is within a predetermined value, the distance from the shooting position is short. It can be determined that the area. Alternatively, based on the distance information of all the pixels in the comparison target area, the pixels having the maximum distance and the minimum distance are specified, and the pixels belong to the same area or the difference is within a predetermined value. For example, it is possible to determine that the area is a subject area at a similar distance from the shooting point.

<拡大表示例>
ここで、上述した撮影画像拡大処理を用いた画像拡大表示について、具体的な表示例を図8〜図11に示す。
図8〜図11の各(a)、(b)は、メモリ109上に保持されている静止画像と、それに対応する距離画像を表している。ユーザからの拡大表示指示があるまでは、各図の(a)の画像が表示部112に、センサから画像データをキャプチャするごとに表示されている状態である。
<Example of enlarged display>
Here, specific display examples of the image enlargement display using the captured image enlargement process described above are shown in FIGS.
Each of (a) and (b) in FIGS. 8 to 11 represents a still image held on the memory 109 and a distance image corresponding to the still image. Until there is an enlarged display instruction from the user, the image of (a) in each figure is displayed on the display unit 112 every time image data is captured from the sensor.

図8の場合には、合焦位置801を含む合焦領域は車両が被写体として撮影された領域である。この状態でユーザから拡大表示指示があると、図6の拡大領域決定処理が実行され、合焦領域は顔領域ではないのでステップS602、S603、S604と処理され、ステップS604のサブ領域判定処理が実行される。サブ領域は1つもないと判定され、最終的には、合焦領域を含む矩形領域802が拡大領域として決定される。上記処理により、表示部112には、矩形領域802が拡大表示され、図8(c)のような表示状態となる。   In the case of FIG. 8, the in-focus area including the in-focus position 801 is an area where the vehicle is photographed as a subject. If there is an enlargement display instruction from the user in this state, the enlargement area determination process of FIG. 6 is executed. Since the in-focus area is not a face area, steps S602, S603, and S604 are processed, and the sub-area determination process of step S604 is performed. Executed. It is determined that there is no sub-region, and finally, a rectangular region 802 including a focused region is determined as an enlarged region. By the above processing, the rectangular area 802 is enlarged and displayed on the display unit 112, and a display state as shown in FIG.

図9の場合には、合焦位置902を含む合焦領域は車両が被写体として撮影された領域である。この状態でユーザから拡大表示指示があると、図6の拡大領域決定処理が実行され、合焦領域は顔領域ではないのでステップS602、S603、S604と処理され、ステップS604のサブ領域判定処理が実行される。サブ領域判定処理では、領域903が、合焦領域に近い距離情報値を持つ画素群から成る領域と判定され、その結果、領域903を含む矩形領域904がサブ領域と判定される。最終的には、合焦領域を含む矩形領域902と、矩形領域904とが拡大領域として決定される。上記の処理により、表示部112には、矩形領域902が拡大され、図9(c)のような表示状態となる。この時、サブ領域がある事を示すためにのマーク905を表示部112に表示する。ユーザ操作により、サブ領域の切り替えが指示された場合には、矩形領域904が拡大され、図9(d)のような表示となる。図9(c)と同様にサブ領域が存在する事を示すマーク906が画面上に表示され、ユーザ操作によりサブ領域の切り替えが指示された場合には、図9(c)の表示に戻り、以降指示がある毎に図9(c)(d)の表示切り替えが行なわれる。   In the case of FIG. 9, the in-focus area including the in-focus position 902 is an area where the vehicle is photographed as a subject. If there is an enlargement display instruction from the user in this state, the enlargement area determination process of FIG. 6 is executed. Executed. In the sub-region determination process, the region 903 is determined as a region including a pixel group having a distance information value close to the in-focus region, and as a result, the rectangular region 904 including the region 903 is determined as a sub-region. Eventually, the rectangular area 902 including the in-focus area and the rectangular area 904 are determined as the enlarged areas. Through the above processing, the rectangular area 902 is enlarged on the display unit 112, and a display state as shown in FIG. At this time, a mark 905 is displayed on the display unit 112 to indicate that there is a sub area. When switching of the sub area is instructed by a user operation, the rectangular area 904 is enlarged and a display as shown in FIG. Similarly to FIG. 9C, a mark 906 indicating that a sub area exists is displayed on the screen, and when switching of the sub area is instructed by a user operation, the display returns to the display of FIG. Every time there is an instruction thereafter, the display is switched as shown in FIGS.

図10の場合には、合焦位置1001を含む合焦領域は顔領域に含まれる。この状態でユーザから拡大表示指示があると、図6の拡大領域決定処理が実行され、合焦領域は顔領域1002に含まれるため、ステップS602からステップS605へと処理が進む。合焦領域には近傍の顔領域1004が存在するため、ステップS607へと処理が進む。この時、近傍の顔領域1004の距離情報値は、顔領域1002の距離情報値とは近くないため、ステップS606へと処理が進む。最終的には、矩形領域1003が拡大領域として決定される。上記処理により、表示部112には、矩形領域1003が拡大表示され、図10(c)のような表示状態となる。   In the case of FIG. 10, the focus area including the focus position 1001 is included in the face area. If there is an enlargement display instruction from the user in this state, the enlargement area determination process of FIG. 6 is executed, and since the in-focus area is included in the face area 1002, the process proceeds from step S602 to step S605. Since there is a nearby face area 1004 in the focused area, the process proceeds to step S607. At this time, since the distance information value of the nearby face area 1004 is not close to the distance information value of the face area 1002, the process proceeds to step S606. Eventually, the rectangular area 1003 is determined as the enlarged area. By the above processing, the rectangular area 1003 is enlarged and displayed on the display unit 112, and a display state as shown in FIG.

図11の場合には、合焦位置1101を含む合焦領域は顔領域に含まれる。この状態でユーザから拡大表示指示があると、図6の拡大領域決定処理が実行され、合焦領域は顔領域1102に含まれるため、ステップS602からステップS605へと処理が進む。合焦領域には近傍の顔領域1103、1104が存在するため、ステップS607へと処理が進む。この時、近傍の顔領域1104の距離情報値は、顔領域1102の距離情報値とは近くなく、一方顔領域1003は距離情報値が近いため、ステップS608へと処理が進む。最終的には、矩形領域1105が拡大領域として決定される。上記処理により、表示部112には、矩形領域1105が拡大表示され、図11(c)のような表示状態となる。こうして、合焦位置の被写体およびその被写体とほぼ等距離にある被写体とをそれぞれ含む矩形領域またはそれらを共に含む矩形領域を拡大表示の対象として決定し、拡大表示することができる。なおステップS607では、合焦領域と顔領域との画面に沿った距離が所定値以内であることを判定し、ステップS608では、合焦領域と顔領域との奥行き方向の距離が所定値以内であることを判定しているということもできる。すなわちこれらステップでは、合焦位置の被写体と顔領域の被写体とが3次元空間において所定範囲内にあることが判定できる。   In the case of FIG. 11, the focus area including the focus position 1101 is included in the face area. If there is an enlargement display instruction from the user in this state, the enlargement area determination process of FIG. 6 is executed, and since the focus area is included in the face area 1102, the process proceeds from step S602 to step S605. Since there are neighboring face areas 1103 and 1104 in the focus area, the process proceeds to step S607. At this time, since the distance information value of the nearby face area 1104 is not close to the distance information value of the face area 1102, while the face area 1003 has a close distance information value, the process proceeds to step S608. Eventually, the rectangular area 1105 is determined as the enlarged area. By the above processing, the rectangular area 1105 is enlarged and displayed on the display unit 112, and a display state as shown in FIG. In this way, a rectangular region that includes the subject at the in-focus position and a subject that is approximately equidistant from the subject or a rectangular region that includes both of them can be determined as an enlargement display target, and can be enlarged and displayed. In step S607, it is determined that the distance along the screen between the in-focus area and the face area is within a predetermined value. In step S608, the distance in the depth direction between the in-focus area and the face area is within the predetermined value. It can also be said that there is a certain thing. That is, in these steps, it can be determined that the subject at the in-focus position and the subject in the face area are within a predetermined range in the three-dimensional space.

以上説明した通り、本実施形態の画像処理装置では、距離画像に対する領域分割処理結果と、顔情報とを組み合わせて処理する事により、表示する画像に対して適応的な拡大領域の決定を行なう事ができ、拡大表示の利便性を向上させる事ができる。特に、画像中の合焦位置即ちピント位置を含む領域を適応的に拡大表示することで、合焦位置の確認と被写体の確認とを両立させることができる。また合焦位置と等距離にある被写体を拡大表示することで、画像中の複数の合焦位置を確認できる。   As described above, the image processing apparatus according to the present embodiment performs a combination of the region division processing result on the distance image and the face information to determine an adaptive enlarged region for the image to be displayed. It is possible to improve the convenience of enlarged display. In particular, by adaptively enlarging and displaying a region including the in-focus position, that is, the focus position in the image, both confirmation of the in-focus position and confirmation of the subject can be achieved. In addition, a plurality of in-focus positions in the image can be confirmed by magnifying and displaying a subject equidistant from the in-focus position.

なおステップS602、S605にいては顔領域であることを判定しているが、同一種類の被写体である場合にS607に分岐するように構成してもよい。   In steps S602 and S605, the face area is determined. However, if the subject is of the same type, the process may be branched to S607.

[実施例2]
実施例1では画像撮影時の拡大表示方法について説明した。本実施例では、画像再生時の拡大表示方法について説明する。画像処理装置としては、実施例1と同様に図1のデジタルカメラの構成で説明するが、本実施例では必ずしも撮影機能は必要としない。
[Example 2]
In the first embodiment, the enlarged display method at the time of image shooting has been described. In this embodiment, an enlarged display method during image reproduction will be described. The image processing apparatus will be described with the configuration of the digital camera shown in FIG. 1 as in the first embodiment, but the photographing function is not necessarily required in the present embodiment.

本実施例で扱う画像は、静止画像がJPEGファイルとして記録され、対応する距離画像データがJPEGファイルと関連付けられて、記録媒体(メモリカード107)に記録されているものとする。静止画像には、合焦位置情報や顔位置情報もメタデータとして付与され、JPEGファイル中に記録されている。これらメタデータは例えば、撮影時にカメラによって特定され、メタデータとして静止画像に添付されている。   In the image handled in this embodiment, a still image is recorded as a JPEG file, and corresponding distance image data is associated with the JPEG file and recorded on a recording medium (memory card 107). The still image is also provided with in-focus position information and face position information as metadata, and is recorded in the JPEG file. For example, these metadata are specified by a camera at the time of shooting and attached to a still image as metadata.

再生時の画像拡大処理について図12のフローチャートを用いて説明する。
ステップS1201においてユーザ指示により再生画像拡大処理が開始されると、ステップS1202で、メモリカード107からJPEGファイルの読み込みが行なわれ、メモリ109に保持される。ステップS1203ではJGEGファイル中のメタデータから合焦位置、および顔位置情報を取得し、メモリ109に保持する。
続いてステップS1204で、JPEG符号/復号化部105によりメモリ109上のJPEGファイルの復号が行なわれ、再生静止画像がメモリ109上に展開される。この再生静止画像は、実施例1の図8〜図11における(a)に相当する静止画像である。
次にステップS1205で、記録媒体から距離画像ファイルが読み込まれ、メモリ109に距離画像が展開される。この距離画像は、実施例1の図8〜11における(b)に相当する距離画像である。
ステップS1206で、メモリ109上の距離画像において、ステップS1203で取得した合焦位置に対して領域分割処理が実行される。領域分割処理の内容は、実施例1の図4のフローチャートと同じである。続いてステップ1207の拡大領域決定処理が実行される。拡大領域決定処理についても、実施例1の図6のフローチャートと同じで良い。拡大領域が決定すると、ステップS1208ではその領域を拡大して表示部112に表示する。
Image enlargement processing during reproduction will be described with reference to the flowchart of FIG.
When the reproduction image enlargement process is started in accordance with a user instruction in step S1201, a JPEG file is read from the memory card 107 and stored in the memory 109 in step S1202. In step S1203, the focus position and face position information are acquired from the metadata in the JGEG file and stored in the memory 109.
In step S1204, the JPEG encoding / decoding unit 105 decodes the JPEG file on the memory 109, and the reproduced still image is expanded on the memory 109. This reproduced still image is a still image corresponding to (a) in FIGS. 8 to 11 of the first embodiment.
In step S1205, the distance image file is read from the recording medium, and the distance image is developed in the memory 109. This distance image is a distance image corresponding to (b) in FIGS.
In step S1206, region division processing is executed on the in-focus position acquired in step S1203 in the distance image on the memory 109. The contents of the area division processing are the same as those in the flowchart of FIG. Subsequently, an enlargement area determination process in step 1207 is executed. The enlarged region determination process may be the same as the flowchart in FIG. 6 of the first embodiment. When the enlargement area is determined, the area is enlarged and displayed on the display unit 112 in step S1208.

ここで、再生時には、ステップS1208において、たとえば選択されている複数枚の画像を並べて表示部112に表示する場合があり、その場合、個々の画像については縮小して表示される事になる。このような表示において、それぞれの個々の画像に対して、再生画像拡大処理を適用する事で、複数画像表示時にも、画像の内容が確認しやすくなるように表示しても良い。複数の画像に対して処理を行なう必要があるが、本発明では画像としては単純な距離情報画像に対する領域分割処理を利用するため、1つ1つの画像に対する処理が軽く、複数枚の画像への処理でも実行時間を短くする事ができる。   Here, at the time of reproduction, in step S1208, for example, a plurality of selected images may be displayed side by side on the display unit 112. In this case, each image is displayed in a reduced size. In such a display, a reproduction image enlargement process may be applied to each individual image so that the content of the image can be easily confirmed even when a plurality of images are displayed. Although it is necessary to perform processing on a plurality of images, in the present invention, since the area division processing on a simple distance information image is used as an image, the processing on each image is light and the processing on a plurality of images is performed. Execution time can be shortened even in processing.

以上の手順により、予め記録されている画像データに対しても、実施例1と同様に、合焦位置の被写体およびその被写体とほぼ等距離にある被写体とを含む矩形領域を拡大表示の対象として決定し、拡大表示することができる。   As described in the first embodiment, a rectangular area including a subject at the in-focus position and a subject that is substantially equidistant from the subject is used as an enlargement display target for image data recorded in advance by the above procedure. It can be determined and enlarged.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101:制御部、102:レンズ、103:撮像素子、104:信号処理部、105:JPEG符号/復号化部、106:メモリカードコントローラ、107:メモリカード、108:フラッシュメモリ、109:メモリ、111:画像処理エンジン、112:表示部 101: Control unit, 102: Lens, 103: Image sensor, 104: Signal processing unit, 105: JPEG encoding / decoding unit, 106: Memory card controller, 107: Memory card, 108: Flash memory, 109: Memory, 111 : Image processing engine, 112: Display unit

Claims (10)

撮影位置と被写体との距離情報を含む画像データにおける合焦位置を特定する手段と、
前記画像データに基づいて、前記合焦位置の被写体を含む領域を拡大領域として特定する特定手段と、
前記拡大領域を拡大して表示する表示手段とを有し、
前記特定手段は、前記画像データに基づいて、前記合焦位置の被写体の距離との差が所定値以内であるような距離の被写体を含む領域も前記拡大領域としてさらに特定することを特徴とする画像処理装置。
Means for specifying a focus position in image data including distance information between a shooting position and a subject;
Based on the image data , specifying means for specifying an area including the subject at the in-focus position as an enlarged area;
Have a display means for displaying an enlarged the expansion area,
The specifying unit further specifies, as the enlarged region, an area including a subject having a distance such that a difference between the focus position and the subject distance is within a predetermined value based on the image data. Image processing device.
前記画像データから顔領域を特定する手段を更に有し、
前記特定手段は、前記合焦位置の被写体が顔ではない場合に、前記合焦位置の被写体の距離との差が所定値以内であるような距離の被写体を含む領域も前記拡大領域としてさらに特定することを特徴とする請求項に記載の画像処理装置。
Means for identifying a face region from the image data;
The specifying unit further specifies, as the enlarged region, an area including a subject whose distance is such that a difference from the distance of the subject at the in-focus position is within a predetermined value when the in-focus subject is not a face. The image processing apparatus according to claim 1 , wherein:
前記特定手段は、前記画像データに基づいて、前記合焦位置の被写体と同じ種類の被写体が、3次元空間において前記合焦位置の被写体の所定範囲内にあるか判定し、所定範囲内にあると判定された場合には、前記合焦位置の被写体と同じ種類の前記被写体をさらに含む領域を前記拡大領域として特定することを特徴とする請求項1または2に記載の画像処理装置。 The specifying unit determines whether a subject of the same type as the subject at the in-focus position is within a predetermined range of the subject at the in-focus position in a three-dimensional space based on the image data. 3. The image processing apparatus according to claim 1, wherein an area further including the same type of subject as the subject at the in-focus position is specified as the enlarged region. 前記表示手段は、複数の拡大領域が特定された場合には、前記拡大領域を表示する画面に、表示を切り替えるためのマークを表示し、該マークに対する指示に応じて、前記複数の拡大領域を切り替えて表示することを特徴とする請求項1乃至のいずれか一項に記載の画像処理装置。 When a plurality of enlargement areas are specified, the display means displays a mark for switching display on a screen for displaying the enlargement area, and the plurality of enlargement areas are displayed according to an instruction for the mark. the image processing apparatus according to any one of claims 1 to 3, characterized in that switching the display. 前記画像データから顔領域を特定する手段を更に有し、
前記特定手段は、前記合焦位置の被写体が顔の場合に、前記画像データに基づいて、他の顔が、3次元空間において前記合焦位置の顔の所定範囲内にあるか判定し、所定範囲内にあると判定された場合には、前記他の顔をさらに含む領域を前記拡大領域として特定することを特徴とする請求項に記載の画像処理装置。
Means for identifying a face region from the image data;
When the subject at the in-focus position is a face, the specifying unit determines whether another face is within a predetermined range of the face at the in-focus position in a three-dimensional space based on the image data. If it is determined to be within range, the image processing apparatus according to claim 1, wherein the identifying further comprises region the other face as the enlarged region.
前記特定手段は、前記合焦位置の被写体と、該合焦位置の被写体と同じ種類の被写体とが、画像の上で所定範囲内にあり、かつ、前記合焦位置の被写体と、該合焦位置の被写体と同じ種類の被写体との前記撮影位置からの距離の差が所定値以内の場合に、3次元空間において前記合焦位置の被写体の前記所定範囲内にあると判定することを特徴とする請求項に記載の画像処理装置。 The specifying means includes a subject at the focus position and a subject of the same type as the subject at the focus position within a predetermined range on the image, and the subject at the focus position and the focus. Determining that the subject at the in-focus position is within the predetermined range in a three-dimensional space when a difference in distance from the shooting position between the subject at the position and the subject of the same type is within a predetermined value. The image processing apparatus according to claim 3 . 被写体を撮影することで、撮影位置と被写体との距離を画素ごとに示す距離画像と対応した画像データを取得する手段を更に有することを特徴とする請求項1乃至のいずれか一項に記載の画像処理装置。 By photographing a subject, according to any one of claims 1 to 6, characterized by further comprising means for acquiring image data corresponding to the distance image showing the distance between the shooting position and the object for each pixel Image processing apparatus. 記録媒体から読み出すことで、撮影位置と被写体との距離を画素ごとに示す距離画像と対応した画像データを取得する手段を更に有することを特徴とする請求項1乃至のいずれか一項に記載の画像処理装置。 By reading from the recording medium, according to any one of claims 1 to 6, characterized by further comprising means for acquiring image data corresponding to the distance image showing the distance between the shooting position and the object for each pixel Image processing apparatus. 請求項1乃至のいずれか一項に記載の画像処理装置としてコンピュータを機能させるためのプログラム。 A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 8 . 撮影位置と被写体との距離情報を含む画像データにおける合焦位置を特定する工程と、
前記画像データに基づいて、前記合焦位置の被写体を含む領域を拡大領域として特定する特定工程と、
前記拡大領域を拡大して表示する表示工程とを有し、
前記特定工程では、前記画像データに基づいて、前記合焦位置の被写体の距離との差が所定値以内であるような距離の被写体を含む領域も前記拡大領域としてさらに特定することを特徴とする画像処理方法。
Identifying a focus position in image data including distance information between a shooting position and a subject;
A specifying step of specifying an area including the subject at the in-focus position as an enlarged area based on the image data ;
Have a display step of displaying by enlarging the enlargement area,
In the specifying step, based on the image data, an area including a subject having a distance such that a difference from the distance of the subject at the in-focus position is within a predetermined value is further specified as the enlarged region. Image processing method.
JP2015200469A 2015-10-08 2015-10-08 Image processing apparatus and method Active JP6622546B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015200469A JP6622546B2 (en) 2015-10-08 2015-10-08 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015200469A JP6622546B2 (en) 2015-10-08 2015-10-08 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2017073704A JP2017073704A (en) 2017-04-13
JP6622546B2 true JP6622546B2 (en) 2019-12-18

Family

ID=58537931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015200469A Active JP6622546B2 (en) 2015-10-08 2015-10-08 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP6622546B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240303981A1 (en) * 2021-01-22 2024-09-12 Sony Group Corporation Image processing device, image processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003143444A (en) * 2001-11-06 2003-05-16 Canon Inc Image pickup device, its control method, program and storage medium
JP2005295418A (en) * 2004-04-05 2005-10-20 Sony Corp Image pickup device and image pickup and display method
JP2012160863A (en) * 2011-01-31 2012-08-23 Sanyo Electric Co Ltd Imaging apparatus, image reproducing apparatus, and image processing apparatus

Also Published As

Publication number Publication date
JP2017073704A (en) 2017-04-13

Similar Documents

Publication Publication Date Title
US9569831B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium for extracting information embedded in a printed material
US10033931B2 (en) Image processing apparatus and image processing method for processing still image data
US10237491B2 (en) Electronic apparatus, method of controlling the same, for capturing, storing, and reproducing multifocal images
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
KR20100052563A (en) Image generation method, device, its program and recording medium with program recorded therein
US20110043656A1 (en) Image processing device, imaging device, and image processing program
JP2015040941A (en) Image-capturing device, control method therefor, and program
US8334919B2 (en) Apparatus and method for digital photographing to correct subject area distortion caused by a lens
JP6056551B2 (en) Image processing program and digital camera
JP2009047498A (en) Stereoscopic imaging device, control method of stereoscopic imaging device, and program
US10122939B2 (en) Image processing device for processing image data and map data with regard to depth distribution of a subject, image processing system, imaging apparatus, image processing method, and recording medium
JP6622546B2 (en) Image processing apparatus and method
JP6645711B2 (en) Image processing apparatus, image processing method, and program
JP5509621B2 (en) Image processing apparatus, camera, and program
CN116456191A (en) Image generation method, device, equipment and computer readable storage medium
JP6351255B2 (en) Imaging apparatus, imaging method, program, and storage medium
JP6218520B2 (en) Image processing apparatus, image processing method, and program
JP6632374B2 (en) Data processing device, communication device, and control method
JP2007124150A (en) Apparatus and method for image processing, and for processing image data file, computer program, and recording medium
US11711607B2 (en) Information processing apparatus capable of applying image processing based on evaluation results, image processing apparatus, and method of controlling the same
JP5818515B2 (en) Image processing apparatus, image processing method and program thereof
JP2011253099A (en) Focus detector
JP6335064B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP2018054815A (en) Region discrimination device, control method therefor, and control program, and imaging apparatus
JP6126638B2 (en) Image processing apparatus, image processing method and program thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151014

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191122

R151 Written notification of patent or utility model registration

Ref document number: 6622546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151