JP6622546B2 - Image processing apparatus and method - Google Patents
Image processing apparatus and method Download PDFInfo
- Publication number
- JP6622546B2 JP6622546B2 JP2015200469A JP2015200469A JP6622546B2 JP 6622546 B2 JP6622546 B2 JP 6622546B2 JP 2015200469 A JP2015200469 A JP 2015200469A JP 2015200469 A JP2015200469 A JP 2015200469A JP 6622546 B2 JP6622546 B2 JP 6622546B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- area
- distance
- focus position
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、例えば撮影画像や再生画像の一部を拡大表示可能なデジタルカメラやスマートフォンなどの画像処理装置及び方法に関する。 The present invention relates to an image processing apparatus and method such as a digital camera or a smartphone capable of enlarging and displaying a part of a captured image or a reproduced image, for example.
画像の撮影時、撮影後の再生確認時、合焦状況を確認するために画像を拡大表示できる機能を有するデジタルカメラ等の画像処理装置が存在する。従来の画像処理装置では、装置が検出している合焦位置を中心にした一部の矩形領域の拡大表示や、画像を等分(例えば縦横3x3の9等分、4x4の16等分)に分割したそれぞれの領域について、最も高周波数成分を含む矩形領域を拡大表示する画像処理装置が存在する。 There is an image processing apparatus such as a digital camera having a function capable of enlarging and displaying an image in order to confirm an in-focus state at the time of capturing an image, confirming reproduction after capturing. In a conventional image processing apparatus, an enlarged display of a part of a rectangular area centering on the in-focus position detected by the apparatus, and an image are equally divided (for example, 9 × 3 × 3, 4 × 16). There is an image processing apparatus that enlarges and displays a rectangular area including the highest frequency component for each divided area.
従来の画像処理装置のような拡大表示では、被写体に合わせた拡大表示を行なう訳ではないため、拡大表示された結果だけを見ても、それが被写体の一部分のみの表示となってしまった場合には、被写体が何であるかを認識しづらい拡大表示となる場合がある。 In the enlarged display as in the conventional image processing apparatus, the enlarged display is not performed according to the subject, so even if only the enlarged result is viewed, only a part of the subject is displayed. In some cases, the enlarged display is difficult to recognize what the subject is.
本発明は上記従来例に鑑みて成されたもので、撮影する画像または撮影した画像を、合焦位置を含めて適応的に拡大表示することができる画像処理装置及び方法を提供することを目的とする。
The present invention has been made in view of the above conventional example, and an object thereof is to provide an image processing apparatus and method capable of adaptively enlarging and displaying a photographed image or a photographed image including a focus position. And
上記目的を達成するために本発明の画像処理装置は、撮影位置と被写体との距離情報を含む画像データにおける合焦位置を特定する手段と、前記距離画像に基づいて、前記合焦位置の被写体を含む領域を拡大領域として特定する特定手段と、前記拡大領域を拡大して表示する表示手段とを有し、前記特定手段は、前記距離画像に基づいて、前記合焦位置の被写体の距離との差が所定値以内であるような距離の被写体を含む領域も前記拡大領域としてさらに特定することを特徴とする。 In order to achieve the above object, an image processing apparatus according to the present invention includes means for specifying a focus position in image data including distance information between a shooting position and a subject, and the subject at the focus position based on the distance image. Specifying means for specifying an area including the enlarged area and display means for displaying the enlarged area in an enlarged manner, the specifying means, based on the distance image, the distance of the subject at the in-focus position, An area including a subject with a distance such that the difference between them is within a predetermined value is further specified as the enlarged area.
本発明によれば、撮影する画像または撮影した画像を、合焦位置を含めて適応的に拡大表示することができる。 According to the present invention, a captured image or a captured image can be adaptively enlarged and displayed including the in-focus position.
以下に、添付図面を参照して本発明を実施するための形態について詳細に説明する。以下に説明する実施の形態は、本発明の実現するための一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。 EMBODIMENT OF THE INVENTION Below, the form for implementing this invention with reference to an accompanying drawing is demonstrated in detail. The embodiment described below is an example for realizing the present invention, and should be appropriately modified or changed according to the configuration of the apparatus to which the present invention is applied and various conditions. The present invention is described below. It is not limited to the form.
[実施例1]
図1に本発明の画像処理装置の一例であるデジタルカメラの構成図を示す。
制御部(CPU)101はデジタルカメラ全体の制御を担う。レンズ102は焦点距離や絞りの状態を変更可能なレンズであり、撮像素子103は例えばCMOSセンサで、レンズ102により結像した光を電気信号に変換する機能を有し、また同時に、距離情報の取得も可能なセンサである。例えば、RGB画素の下層に、ToF(time-of-flight)方式で距離情報が取得可能なZ画素を積層するセンサなどが知られている。画素ごとに距離情報を対応付けた情報を距離マップ情報あるいは距離画像情報と呼ぶ。
信号処理部104は、入力動画像信号に対しホワイトバランスやガンマ補正等の所定の信号処理を行い、バス110を介して、メモリ109に画像データを格納する機能を有する。また同時に、距離情報についても距離情報値のみで構成された距離画像情報をメモリ109に格納する機能を有する。さらに本実施例のデジタルカメラにおいては、画像中のどの位置に合焦位置があるかを判定する合焦位置取得機能も有する。
JPEG符号/復号化部105は、メモリ109上に格納された画像データをJPEG形式の圧縮画像データに符号化したり、逆にメモリ109上に保持されたJPEG画像データを復号したりする機能を有する。
メモリカードコントローラ106は、メモリ109上に保持された各種データのメモリカード107への記録や、逆にメモリカード107に記録されている各種データをメモリ109上に読み込む機能を有する。また制御部101で処理されるファイルシステムを通じて、各種ファイルの記録、読み込みを行うことができる。
フラッシュメモリ108は、制御部101で動作させるプログラムの格納および各種設定データの保存等に利用され、本デバイスに記録されたデータは、本装置の電源が切られた状態でも保持される。
メモリ109は、前述のように画像データ等のデータを保持する事が可能な大容量のメモリである。
バス110は、制御部101からのコマンドの各ブロックへの伝達や、メモリ109と各ブロック間のデータの伝達を行う機能を有する。
画像処理エンジン111は、制御部101からの設定、制御により、メモリ109上に保持された画像データに対し、各種画像処理を高速に行う機能を有する。例えば図2に示すように、現像処理部201、距離情報生成部202、領域分割処理部203、拡大縮小処理部204、トリミング処理部205、顔検出部206、領域決定処理部207、その他様々な処理部で構成されている。これらの処理部は、本実施例のように、それぞれの処理毎の専用のハードウェアで構成されても良いし、画像処理専用の画像処理プロセッサと、そのプロセッサ上で動作するソフトウェア、あるいは制御部101と、101上で動作するソフトウェアで構成されても良い。本実施例では、専用のハードウェアで構成されており、それぞれの処理部は同時に並列処理可能な構成となっている。
表示部112は、復号された画像データの表示デバイスとしての機能、また、撮影時のビューファインダーとしての機能も有する。また、ユーザが本装置を操作する場合の操作画面としての機能も兼ね備える。
[Example 1]
FIG. 1 shows a configuration diagram of a digital camera which is an example of an image processing apparatus of the present invention.
A control unit (CPU) 101 controls the entire digital camera. The
The
The JPEG encoding /
The
The
The
The
The
The
<画像拡大機能>
続いて、本実施形態の画像処理装置の特徴である、撮像時における合焦位置付近の画像拡大機能について、その処理内容を図3のフローチャートを用いて説明する。図3の各ステップは図2に示した画像処理エンジン111により実行されるが、上述の通り制御部101により実行されてもよい。
撮像時にユーザ指示により画像(これを着目画像あるいは着目フレームと呼ぶ)の拡大が要求されると、ステップS301の撮影画像拡大処理が開始される。なお着目画像はまさに撮影中の画像であり、静止画像であっても動画像のフレームであってもよい。
ステップS302では、撮像素子103から取得された画像データ(RAWデータ)と距離情報とが、信号処理部104を経て、メモリ109に格納される。ここで取得した画像データを着目画像データとも呼ぶ。
ステップS303では、信号処理部104より、ステップS302で取得した画像データに対する合焦位置を取得する。合焦位置は、撮影位置からの距離が焦点距離と等しい被写体上の位置である。合焦位置は、たとえば画像を小領域に分割し、空間周波数が閾値を超える領域のうち、最も空間周波数が高い領域を合焦位置を含む領域として特定できる。また撮影時に特定されている合焦位置を本ステップで用いてもよい。あるいは、現在の焦点距離と等しい距離の画素あるいは領域を距離画像に基づいて特定し、そこを合焦位置と特定してもよい。
ステップS304では、メモリ109に格納された画像データ(RAWデータ)に対し、画像処理エンジン111の現像処理部201により、色変換処理やノイズリダクション処理等の現像処理を行う。本処理により、例えば図8(a)のような静止画像(写真)が生成される。
ステップS305は顔検知処理であり、メモリ109に格納された静止画像に対し、画像処理エンジン111の顔検出部206により、静止画像中の顔の検出が行なわれる。顔が検出された場合には、顔の数および、それぞれの検出された顔に対して、その画像位置(座標)、サイズ等の情報が、メモリ109に一時保持される。
ステップS304、S305の処理と並行して、ステップS306、S307の処理が実行される。ステップS306では、距離情報生成部202により画像データと同時に取得され、メモリ109に格納された距離情報から距離画像(図8(b))を生成する。距離情報は、画素毎に0〜255の8ビットで表現されるデータであり、本例では、撮影位置と被写体との実際の距離からリニアに変換されるものではなく非線形に(例えば近距離ほど高精度に)変換された8ビットのデータである。ステップS306ではその距離情報を画素値として画像サイズ(すなわち着目フレームのサイズ)にならべた距離画像を生成する。図8(b)の場合、距離が近いものほど白く、遠いものほど黒くなるように表現されている。
ステップS307では、ステップS306で生成された距離画像に対し、領域分割処理部203により合焦位置に対して図4を参照して後述する領域分割処理を行なう事で、着目フレームから合焦領域を分割する。
<Image enlargement function>
Next, the processing content of the image enlargement function near the in-focus position at the time of imaging, which is a feature of the image processing apparatus of the present embodiment, will be described with reference to the flowchart of FIG. 3 are executed by the
When enlargement of an image (referred to as a noticed image or a noticed frame) is requested by a user instruction at the time of imaging, the captured image enlargement process in step S301 is started. Note that the image of interest is an image being captured, and may be a still image or a frame of a moving image.
In step S <b> 302, image data (RAW data) and distance information acquired from the
In step S303, the
In step S304, development processing such as color conversion processing or noise reduction processing is performed on the image data (RAW data) stored in the
Step S305 is a face detection process. A face in the still image is detected by the
In parallel with the processes in steps S304 and S305, the processes in steps S306 and S307 are executed. In step S <b> 306, the distance information (FIG. 8B) is generated from the distance information acquired by the distance
In step S307, the region
ステップS305の顔検知処理と、ステップS307の領域分割処理とが完了すると、顔検出の結果と領域分割の結果および距離画像に基づいて、ステップS308の拡大領域決定処理(詳細は図6を参照して後述)が領域決定処理部207により実行される。拡大領域とは拡大処理及び表示の対象となる矩形領域である。決定された矩形領域はステップS309で拡大縮小処理部204により表示部112に拡大表示する。こうすることで、撮影画像拡大処理が実行される。撮影画像拡大処理は、ユーザからの拡大表示指示が続く限り、撮影されたフレーム毎に実施される。また、動画像に対して図3の撮影画像拡大処理が実行されており、ステップS302からS309までの処理時間を単純に加算すると1フレーム時間を超えてしまうような場合には、実時間で拡大画像を表示することが困難である。そこでそのような場合には一連の処理を1フレーム時間内に処理可能な複数の処理に分割し(例えば、S302〜S307とS308〜S309の2分割)、それぞれをパイプライン処理する必要がある。そのような場合には、S302の処理からS309の表示処理までの遅延時間が大きくなってしまうため、画像処理エンジン111の処理能力は高ければ高いほど、表示遅延が少なくて良い。なおたとえば静止画像であれば1フレーム時間の制約は考慮しなくともよい。
When the face detection process in step S305 and the area division process in step S307 are completed, an enlarged area determination process in step S308 (refer to FIG. 6 for details) based on the face detection result, the area division result, and the distance image. Are executed by the area
<領域分割処理の詳細>
ここで、ステップS307における領域分割処理について図4および図5を用いて説明する。
領域分割処理ではまず、初期注目画素の設定を行なう。ステップS307の領域分割処理においては、ステップS303で取得した合焦位置に相当する画素を初期注目画素として設定する。図5(a)は合焦位置に相当する画素付近の距離画像を拡大した図であり、1と書かれた画素が、合焦位置に相当する画素=注目画素である。注目画素を設定後、ステップS403で注目画素の画素値=距離情報値を取得する。さらにステップS404では、注目画素と隣接する8画素の距離情報値を取得する。ステップS405では、注目画素の距離情報値と、それぞれの隣接画素の距離情報値との比較を行ない、情報値の差が所定の閾値α以内の場合には、その隣接画素を新たな注目画素として設定する。当然ながら、複数の注目画素が設定される場合がある。図5(b)においては、2と記載された画素が、新たに設定された注目画素を示している。×と書かれた画素は、閾値αを超えるため、新たな注目画素には設定されなかった画素を示している。この閾値αは、撮像装置の撮影モードに応じて変化させても良い。例えばマクロ撮影モードなど被写界深度が浅くなるようなモードでは閾値αを小さく、被写界深度が深くなるようなモードでは閾値αを大きくする事が考えられる。
ステップS406において、新たに設定された注目画素の有無を判定する。注目画素が存在する場合には、ステップS403に戻り、処理を繰り返す。複数の注目画素が設定された場合には、それぞれの画素について、ステップS403からの処理を実行する。図5(c)において、3と記載された画素は注目画素2に対して、新たに設定された注目画素である。最終的には、注目画素がなくなり、ステップS407に進み、領域分割処理が終了する。図5(d)において、注目画素5に対する新たな注目画素は存在しない(6と記載されるべき画素がない)ため、この状態で領域分割処理は終了する。
初期注目画素も含め、処理中に注目画素に設定された画素(図5において、1〜5の番号が付与された画素)の集合が、1つの領域として分割される。図5(e)において、斜め線がかけられた領域が、本領域分割処理によって分割された初期注目画素=合焦画素(符号501)を含む領域となる。
以上のように初期注目画素の距離と同程度の距離を有する、初期注目画素に連結した画素群を特定し、それを初期注目画素に係る連結領域として特定する。この連結領域を特定するための情報が得られれば、画像データそのものを分割しなくともよい。
<Details of area division processing>
Here, the region division processing in step S307 will be described with reference to FIGS.
In the area dividing process, first, an initial target pixel is set. In the area dividing process in step S307, the pixel corresponding to the in-focus position acquired in step S303 is set as the initial target pixel. FIG. 5A is an enlarged view of the distance image near the pixel corresponding to the in-focus position. A pixel written as 1 is a pixel corresponding to the in-focus position = a target pixel. After setting the target pixel, the pixel value of the target pixel = distance information value is acquired in step S403. In step S404, distance information values of 8 pixels adjacent to the target pixel are acquired. In step S405, the distance information value of the target pixel is compared with the distance information value of each adjacent pixel. If the difference between the information values is within a predetermined threshold value α, the adjacent pixel is set as a new target pixel. Set. Of course, a plurality of target pixels may be set. In FIG. 5B, a pixel described as 2 indicates a newly set target pixel. A pixel written as “x” indicates a pixel that has not been set as a new pixel of interest because it exceeds the threshold value α. The threshold α may be changed according to the shooting mode of the imaging device. For example, it is conceivable that the threshold value α is decreased in a mode where the depth of field is shallow, such as the macro shooting mode, and the threshold value α is increased in a mode where the depth of field is deep.
In step S406, the presence / absence of a newly set target pixel is determined. If there is a pixel of interest, the process returns to step S403 and the process is repeated. When a plurality of target pixels are set, the processing from step S403 is executed for each pixel. In FIG. 5C, the pixel described as 3 is the target pixel newly set for the
A set of pixels (pixels assigned numbers 1 to 5 in FIG. 5) set as the target pixel during processing, including the initial target pixel, is divided as one region. In FIG. 5 (e), a region with a diagonal line is a region including the initial pixel of interest = the focused pixel (reference numeral 501) divided by this region dividing process.
As described above, a group of pixels connected to the initial target pixel having a distance approximately equal to the distance of the initial target pixel is specified, and this is specified as a connected region related to the initial target pixel. If information for specifying the connected area is obtained, the image data itself may not be divided.
<拡大領域決定処理>
次に、先に述べたステップS308の拡大領域決定処理の詳細について、図6のフローチャートで説明する。
ステップS601で拡大領域決定処理が開始されると、ステップS602では、図3のフローチャート中、ステップS307で取得した合焦領域と、ステップS305で取得した顔検知情報から、合焦領域が顔領域かどうかを判定する。顔領域と判定された場合にはステップS605に進み、顔領域とは判定されなかった場合にはステップS603に進む。ステップS602では、たとえば顔領域に合焦領域が含まれていれば合焦領域は顔であると判定してよい。また例えば、顔領域と合焦領域とが重複しており、重複した部分が合焦領域に対して一定の割合を超えていれば合焦領域は顔であると判定してもよい。
ステップS603では、合焦領域を拡大領域と決定し、ステップS604のサブ領域判定処理に進む。ステップS603では、合焦領域を含む例えば矩形領域を拡大領域と決定する。そのために例えば、合焦領域と連結された画素群であって、合焦領域の色との色差が所定値以内の画素群を合焦位置を含む被写体であると特定し、その被写体を含む矩形領域を拡大領域とする。また例えば、合焦領域と連結された画素群であって、合焦領域の画素の距離との差が所定値以内の画素群を合焦位置を含む被写体であると特定し、その被写体を含む矩形領域を拡大領域とする。後者の場合には、たとえば、閾値αの値を適宜設定して図4の手順を実行することで被写体の領域を特定でき、それを含むように拡大領域を決定できる。この場合閾値αは、合焦位置の領域すなわち合焦領域を特定する場合よりも大きい値を用いるのが望ましい。
ステップS604のサブ領域判定処理は、合焦領域以外に合焦領域と同等の距離情報を持つ領域が静止画像中に存在しないかを判定し、存在する場合には、それらの領域をサブ領域と判定する処理である。具体的な処理内容を図7のフローチャートを用いて、以下に説明する。
<Enlarged area determination processing>
Next, details of the enlargement area determination processing in step S308 described above will be described with reference to the flowchart of FIG.
When the enlargement area determination process is started in step S601, in step S602, the focus area is determined to be a face area from the focus area acquired in step S307 and the face detection information acquired in step S305 in the flowchart of FIG. Determine if. If it is determined as a face area, the process proceeds to step S605. If it is not determined as a face area, the process proceeds to step S603. In step S602, for example, if the focus area is included in the face area, it may be determined that the focus area is a face. Further, for example, if the face area and the in-focus area overlap, and the overlapped portion exceeds a certain ratio with respect to the in-focus area, the in-focus area may be determined to be a face.
In step S603, the in-focus area is determined as an enlarged area, and the process proceeds to the sub-area determination process in step S604. In step S603, for example, a rectangular area including the in-focus area is determined as an enlarged area. For this purpose, for example, a pixel group connected to the in-focus area, a pixel group having a color difference with a color in the in-focus area within a predetermined value is identified as an object including the in-focus position, and a rectangle including the object Let the region be an enlarged region. Further, for example, a pixel group that is connected to the in-focus area and that has a difference from a pixel distance in the in-focus area within a predetermined value is identified as an object including the in-focus position, and includes the object. A rectangular area is set as an enlarged area. In the latter case, for example, the region of the subject can be specified by appropriately setting the value of the threshold value α and executing the procedure of FIG. 4, and the enlarged region can be determined so as to include it. In this case, it is desirable to use a larger value for the threshold value α than in the case of specifying the focus position area, that is, the focus area.
The sub-region determination processing in step S604 determines whether or not there is an area having distance information equivalent to the in-focus area other than the in-focus area in the still image. This is a process of determining. Specific processing contents will be described below with reference to the flowchart of FIG.
ステップS701でサブ領域判定処理が開始されると、ステップS702で、合焦位置と同じ距離情報値を持つ画素Aの探索を、距離画像に対して行なう。
画素Aが存在した場合には、ステップS703に進み、注目画素として画素Aを設定して、ステップS704の領域分割処理を行なう。領域分割処理は図4のフローチャートで示した処理である。
ステップS705では、領域分割処理によって抽出された領域に対し、その領域を構成する画素数が所定の画素数以上かどうかの判定を行なう。所定数以上であった場合には、ステップS706に進み、抽出された領域をサブ領域の1つとして領域の情報を保持する。所定数に満たなかった場合には、ステップS702に戻り、処理を繰り返す。ステップS702で、画素Aが無くなるまで処理が繰り返され、サブ領域判定処理は終了する。サブ領域は、利用者の指定に応じて拡大表示される領域であり、本例では、合焦位置を含む領域の表示と切り替えつつ表示される。サブ領域が複数ある場合には、ステップS309においては、サブ領域の表示指定操作に応じて、順次、表示される領域が切り替えられる。サブ領域を矩形領域とするためには、ステップS706において登録前に、たとえばステップS603で説明した要領で色差や距離差に基づいて被写体の画素群を特定し、被写体を含む矩形領域をサブ領域とすればよい。
When the sub-region determination process is started in step S701, the pixel A having the same distance information value as the in-focus position is searched for the distance image in step S702.
If the pixel A exists, the process proceeds to step S703, where the pixel A is set as the target pixel, and the region division process in step S704 is performed. The area dividing process is the process shown in the flowchart of FIG.
In step S705, it is determined whether or not the number of pixels constituting the area is greater than or equal to a predetermined number for the area extracted by the area dividing process. If the number is greater than or equal to the predetermined number, the process proceeds to step S706, and the extracted area is set as one of the sub areas, and the area information is held. If the predetermined number is not reached, the process returns to step S702 and the process is repeated. In step S702, the process is repeated until there is no pixel A, and the sub-region determination process ends. The sub-area is an area that is enlarged and displayed according to the user's designation. In this example, the sub-area is displayed while switching to the display of the area including the in-focus position. If there are a plurality of sub-regions, in step S309, the displayed regions are sequentially switched in accordance with the sub-region display designation operation. In order to make a sub-region a rectangular region, before registration in step S706, for example, a pixel group of a subject is specified based on a color difference or a distance difference in the manner described in step S603, and the rectangular region including the subject is defined as a sub-region. do it.
図6のフローチャートに戻り、拡大領域決定処理の続きについて説明する。
ステップS602において合焦領域が顔領域であると判定されてステップS605に進んだ場合には、合焦領域の近傍に、他の顔が存在するかどうかを判定する。たとえば互いの距離が一定値以内であれば近傍と判定できる。なお合焦領域である顔領域は近傍には含めない。合焦領域の近傍に他の顔領域がなかった場合には、ステップS606において、合焦領域の顔領域部分(あるいはその顔領域を含む矩形領域)を拡大領域と決定する。一方、近傍に他の顔領域が有りと判定された場合には、ステップS607に進み、近傍の全ての顔領域に対し、距離画像から距離情報値を取得し、ステップS607において、合焦領域と距離情報値が近い顔領域かどうかの判定を行なう。比較対象の顔領域の距離情報が合焦領域の距離情報に近くない場合には、ステップS606に進む。距離情報が近い場合には、距離情報の近い顔領域全てを含む矩形領域を特定して、その矩形領域を拡大領域として決定し、拡大領域決定処理を終了する。拡大領域の縦横比は、もとのフレームの縦横比と一致しているのが望ましい。なお、距離情報の比較は、たとえば各画素の距離情報により示される距離の平均値を領域ごとに求め、それぞれの領域の平均距離の差が所定値以内であれば、撮影位置からの距離が近い領域であると判定することができる。あるいは、比較対象の領域のすべての画素の距離情報に基づいて、最大の距離と最小の距離と持つ画素を特定し、それら画素が同一の領域に属するか、あるいはその差が所定値以内であれば撮影地点から同程度の距離にある被写体の領域であると判定することもできる。
Returning to the flowchart of FIG. 6, the continuation of the enlarged region determination process will be described.
If it is determined in step S602 that the focus area is a face area and the process proceeds to step S605, it is determined whether another face exists in the vicinity of the focus area. For example, if the distance between each other is within a certain value, it can be determined to be near. Note that the face area that is the focus area is not included in the vicinity. If there is no other face area in the vicinity of the focused area, in step S606, the face area portion of the focused area (or a rectangular area including the face area) is determined as an enlarged area. On the other hand, if it is determined that there is another face area in the vicinity, the process proceeds to step S607, and distance information values are acquired from the distance image for all the face areas in the vicinity. It is determined whether or not the face area has a close distance information value. If the distance information of the face area to be compared is not close to the distance information of the focused area, the process proceeds to step S606. When the distance information is close, a rectangular area including all face areas with close distance information is specified, the rectangular area is determined as an enlarged area, and the enlarged area determining process is terminated. The aspect ratio of the enlarged region is preferably the same as the aspect ratio of the original frame. For comparison of distance information, for example, an average value of distances indicated by distance information of each pixel is obtained for each region, and if the difference between the average distances of the respective regions is within a predetermined value, the distance from the shooting position is short. It can be determined that the area. Alternatively, based on the distance information of all the pixels in the comparison target area, the pixels having the maximum distance and the minimum distance are specified, and the pixels belong to the same area or the difference is within a predetermined value. For example, it is possible to determine that the area is a subject area at a similar distance from the shooting point.
<拡大表示例>
ここで、上述した撮影画像拡大処理を用いた画像拡大表示について、具体的な表示例を図8〜図11に示す。
図8〜図11の各(a)、(b)は、メモリ109上に保持されている静止画像と、それに対応する距離画像を表している。ユーザからの拡大表示指示があるまでは、各図の(a)の画像が表示部112に、センサから画像データをキャプチャするごとに表示されている状態である。
<Example of enlarged display>
Here, specific display examples of the image enlargement display using the captured image enlargement process described above are shown in FIGS.
Each of (a) and (b) in FIGS. 8 to 11 represents a still image held on the
図8の場合には、合焦位置801を含む合焦領域は車両が被写体として撮影された領域である。この状態でユーザから拡大表示指示があると、図6の拡大領域決定処理が実行され、合焦領域は顔領域ではないのでステップS602、S603、S604と処理され、ステップS604のサブ領域判定処理が実行される。サブ領域は1つもないと判定され、最終的には、合焦領域を含む矩形領域802が拡大領域として決定される。上記処理により、表示部112には、矩形領域802が拡大表示され、図8(c)のような表示状態となる。
In the case of FIG. 8, the in-focus area including the in-
図9の場合には、合焦位置902を含む合焦領域は車両が被写体として撮影された領域である。この状態でユーザから拡大表示指示があると、図6の拡大領域決定処理が実行され、合焦領域は顔領域ではないのでステップS602、S603、S604と処理され、ステップS604のサブ領域判定処理が実行される。サブ領域判定処理では、領域903が、合焦領域に近い距離情報値を持つ画素群から成る領域と判定され、その結果、領域903を含む矩形領域904がサブ領域と判定される。最終的には、合焦領域を含む矩形領域902と、矩形領域904とが拡大領域として決定される。上記の処理により、表示部112には、矩形領域902が拡大され、図9(c)のような表示状態となる。この時、サブ領域がある事を示すためにのマーク905を表示部112に表示する。ユーザ操作により、サブ領域の切り替えが指示された場合には、矩形領域904が拡大され、図9(d)のような表示となる。図9(c)と同様にサブ領域が存在する事を示すマーク906が画面上に表示され、ユーザ操作によりサブ領域の切り替えが指示された場合には、図9(c)の表示に戻り、以降指示がある毎に図9(c)(d)の表示切り替えが行なわれる。
In the case of FIG. 9, the in-focus area including the in-
図10の場合には、合焦位置1001を含む合焦領域は顔領域に含まれる。この状態でユーザから拡大表示指示があると、図6の拡大領域決定処理が実行され、合焦領域は顔領域1002に含まれるため、ステップS602からステップS605へと処理が進む。合焦領域には近傍の顔領域1004が存在するため、ステップS607へと処理が進む。この時、近傍の顔領域1004の距離情報値は、顔領域1002の距離情報値とは近くないため、ステップS606へと処理が進む。最終的には、矩形領域1003が拡大領域として決定される。上記処理により、表示部112には、矩形領域1003が拡大表示され、図10(c)のような表示状態となる。
In the case of FIG. 10, the focus area including the
図11の場合には、合焦位置1101を含む合焦領域は顔領域に含まれる。この状態でユーザから拡大表示指示があると、図6の拡大領域決定処理が実行され、合焦領域は顔領域1102に含まれるため、ステップS602からステップS605へと処理が進む。合焦領域には近傍の顔領域1103、1104が存在するため、ステップS607へと処理が進む。この時、近傍の顔領域1104の距離情報値は、顔領域1102の距離情報値とは近くなく、一方顔領域1003は距離情報値が近いため、ステップS608へと処理が進む。最終的には、矩形領域1105が拡大領域として決定される。上記処理により、表示部112には、矩形領域1105が拡大表示され、図11(c)のような表示状態となる。こうして、合焦位置の被写体およびその被写体とほぼ等距離にある被写体とをそれぞれ含む矩形領域またはそれらを共に含む矩形領域を拡大表示の対象として決定し、拡大表示することができる。なおステップS607では、合焦領域と顔領域との画面に沿った距離が所定値以内であることを判定し、ステップS608では、合焦領域と顔領域との奥行き方向の距離が所定値以内であることを判定しているということもできる。すなわちこれらステップでは、合焦位置の被写体と顔領域の被写体とが3次元空間において所定範囲内にあることが判定できる。
In the case of FIG. 11, the focus area including the focus position 1101 is included in the face area. If there is an enlargement display instruction from the user in this state, the enlargement area determination process of FIG. 6 is executed, and since the focus area is included in the face area 1102, the process proceeds from step S602 to step S605. Since there are neighboring face areas 1103 and 1104 in the focus area, the process proceeds to step S607. At this time, since the distance information value of the nearby face area 1104 is not close to the distance information value of the face area 1102, while the
以上説明した通り、本実施形態の画像処理装置では、距離画像に対する領域分割処理結果と、顔情報とを組み合わせて処理する事により、表示する画像に対して適応的な拡大領域の決定を行なう事ができ、拡大表示の利便性を向上させる事ができる。特に、画像中の合焦位置即ちピント位置を含む領域を適応的に拡大表示することで、合焦位置の確認と被写体の確認とを両立させることができる。また合焦位置と等距離にある被写体を拡大表示することで、画像中の複数の合焦位置を確認できる。 As described above, the image processing apparatus according to the present embodiment performs a combination of the region division processing result on the distance image and the face information to determine an adaptive enlarged region for the image to be displayed. It is possible to improve the convenience of enlarged display. In particular, by adaptively enlarging and displaying a region including the in-focus position, that is, the focus position in the image, both confirmation of the in-focus position and confirmation of the subject can be achieved. In addition, a plurality of in-focus positions in the image can be confirmed by magnifying and displaying a subject equidistant from the in-focus position.
なおステップS602、S605にいては顔領域であることを判定しているが、同一種類の被写体である場合にS607に分岐するように構成してもよい。 In steps S602 and S605, the face area is determined. However, if the subject is of the same type, the process may be branched to S607.
[実施例2]
実施例1では画像撮影時の拡大表示方法について説明した。本実施例では、画像再生時の拡大表示方法について説明する。画像処理装置としては、実施例1と同様に図1のデジタルカメラの構成で説明するが、本実施例では必ずしも撮影機能は必要としない。
[Example 2]
In the first embodiment, the enlarged display method at the time of image shooting has been described. In this embodiment, an enlarged display method during image reproduction will be described. The image processing apparatus will be described with the configuration of the digital camera shown in FIG. 1 as in the first embodiment, but the photographing function is not necessarily required in the present embodiment.
本実施例で扱う画像は、静止画像がJPEGファイルとして記録され、対応する距離画像データがJPEGファイルと関連付けられて、記録媒体(メモリカード107)に記録されているものとする。静止画像には、合焦位置情報や顔位置情報もメタデータとして付与され、JPEGファイル中に記録されている。これらメタデータは例えば、撮影時にカメラによって特定され、メタデータとして静止画像に添付されている。 In the image handled in this embodiment, a still image is recorded as a JPEG file, and corresponding distance image data is associated with the JPEG file and recorded on a recording medium (memory card 107). The still image is also provided with in-focus position information and face position information as metadata, and is recorded in the JPEG file. For example, these metadata are specified by a camera at the time of shooting and attached to a still image as metadata.
再生時の画像拡大処理について図12のフローチャートを用いて説明する。
ステップS1201においてユーザ指示により再生画像拡大処理が開始されると、ステップS1202で、メモリカード107からJPEGファイルの読み込みが行なわれ、メモリ109に保持される。ステップS1203ではJGEGファイル中のメタデータから合焦位置、および顔位置情報を取得し、メモリ109に保持する。
続いてステップS1204で、JPEG符号/復号化部105によりメモリ109上のJPEGファイルの復号が行なわれ、再生静止画像がメモリ109上に展開される。この再生静止画像は、実施例1の図8〜図11における(a)に相当する静止画像である。
次にステップS1205で、記録媒体から距離画像ファイルが読み込まれ、メモリ109に距離画像が展開される。この距離画像は、実施例1の図8〜11における(b)に相当する距離画像である。
ステップS1206で、メモリ109上の距離画像において、ステップS1203で取得した合焦位置に対して領域分割処理が実行される。領域分割処理の内容は、実施例1の図4のフローチャートと同じである。続いてステップ1207の拡大領域決定処理が実行される。拡大領域決定処理についても、実施例1の図6のフローチャートと同じで良い。拡大領域が決定すると、ステップS1208ではその領域を拡大して表示部112に表示する。
Image enlargement processing during reproduction will be described with reference to the flowchart of FIG.
When the reproduction image enlargement process is started in accordance with a user instruction in step S1201, a JPEG file is read from the
In step S1204, the JPEG encoding /
In step S1205, the distance image file is read from the recording medium, and the distance image is developed in the
In step S1206, region division processing is executed on the in-focus position acquired in step S1203 in the distance image on the
ここで、再生時には、ステップS1208において、たとえば選択されている複数枚の画像を並べて表示部112に表示する場合があり、その場合、個々の画像については縮小して表示される事になる。このような表示において、それぞれの個々の画像に対して、再生画像拡大処理を適用する事で、複数画像表示時にも、画像の内容が確認しやすくなるように表示しても良い。複数の画像に対して処理を行なう必要があるが、本発明では画像としては単純な距離情報画像に対する領域分割処理を利用するため、1つ1つの画像に対する処理が軽く、複数枚の画像への処理でも実行時間を短くする事ができる。
Here, at the time of reproduction, in step S1208, for example, a plurality of selected images may be displayed side by side on the
以上の手順により、予め記録されている画像データに対しても、実施例1と同様に、合焦位置の被写体およびその被写体とほぼ等距離にある被写体とを含む矩形領域を拡大表示の対象として決定し、拡大表示することができる。 As described in the first embodiment, a rectangular area including a subject at the in-focus position and a subject that is substantially equidistant from the subject is used as an enlargement display target for image data recorded in advance by the above procedure. It can be determined and enlarged.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101:制御部、102:レンズ、103:撮像素子、104:信号処理部、105:JPEG符号/復号化部、106:メモリカードコントローラ、107:メモリカード、108:フラッシュメモリ、109:メモリ、111:画像処理エンジン、112:表示部 101: Control unit, 102: Lens, 103: Image sensor, 104: Signal processing unit, 105: JPEG encoding / decoding unit, 106: Memory card controller, 107: Memory card, 108: Flash memory, 109: Memory, 111 : Image processing engine, 112: Display unit
Claims (10)
前記画像データに基づいて、前記合焦位置の被写体を含む領域を拡大領域として特定する特定手段と、
前記拡大領域を拡大して表示する表示手段とを有し、
前記特定手段は、前記画像データに基づいて、前記合焦位置の被写体の距離との差が所定値以内であるような距離の被写体を含む領域も前記拡大領域としてさらに特定することを特徴とする画像処理装置。 Means for specifying a focus position in image data including distance information between a shooting position and a subject;
Based on the image data , specifying means for specifying an area including the subject at the in-focus position as an enlarged area;
Have a display means for displaying an enlarged the expansion area,
The specifying unit further specifies, as the enlarged region, an area including a subject having a distance such that a difference between the focus position and the subject distance is within a predetermined value based on the image data. Image processing device.
前記特定手段は、前記合焦位置の被写体が顔ではない場合に、前記合焦位置の被写体の距離との差が所定値以内であるような距離の被写体を含む領域も前記拡大領域としてさらに特定することを特徴とする請求項1に記載の画像処理装置。 Means for identifying a face region from the image data;
The specifying unit further specifies, as the enlarged region, an area including a subject whose distance is such that a difference from the distance of the subject at the in-focus position is within a predetermined value when the in-focus subject is not a face. The image processing apparatus according to claim 1 , wherein:
前記特定手段は、前記合焦位置の被写体が顔の場合に、前記画像データに基づいて、他の顔が、3次元空間において前記合焦位置の顔の所定範囲内にあるか判定し、所定範囲内にあると判定された場合には、前記他の顔をさらに含む領域を前記拡大領域として特定することを特徴とする請求項1に記載の画像処理装置。 Means for identifying a face region from the image data;
When the subject at the in-focus position is a face, the specifying unit determines whether another face is within a predetermined range of the face at the in-focus position in a three-dimensional space based on the image data. If it is determined to be within range, the image processing apparatus according to claim 1, wherein the identifying further comprises region the other face as the enlarged region.
前記画像データに基づいて、前記合焦位置の被写体を含む領域を拡大領域として特定する特定工程と、
前記拡大領域を拡大して表示する表示工程とを有し、
前記特定工程では、前記画像データに基づいて、前記合焦位置の被写体の距離との差が所定値以内であるような距離の被写体を含む領域も前記拡大領域としてさらに特定することを特徴とする画像処理方法。 Identifying a focus position in image data including distance information between a shooting position and a subject;
A specifying step of specifying an area including the subject at the in-focus position as an enlarged area based on the image data ;
Have a display step of displaying by enlarging the enlargement area,
In the specifying step, based on the image data, an area including a subject having a distance such that a difference from the distance of the subject at the in-focus position is within a predetermined value is further specified as the enlarged region. Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015200469A JP6622546B2 (en) | 2015-10-08 | 2015-10-08 | Image processing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015200469A JP6622546B2 (en) | 2015-10-08 | 2015-10-08 | Image processing apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017073704A JP2017073704A (en) | 2017-04-13 |
JP6622546B2 true JP6622546B2 (en) | 2019-12-18 |
Family
ID=58537931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015200469A Active JP6622546B2 (en) | 2015-10-08 | 2015-10-08 | Image processing apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6622546B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20240303981A1 (en) * | 2021-01-22 | 2024-09-12 | Sony Group Corporation | Image processing device, image processing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003143444A (en) * | 2001-11-06 | 2003-05-16 | Canon Inc | Image pickup device, its control method, program and storage medium |
JP2005295418A (en) * | 2004-04-05 | 2005-10-20 | Sony Corp | Image pickup device and image pickup and display method |
JP2012160863A (en) * | 2011-01-31 | 2012-08-23 | Sanyo Electric Co Ltd | Imaging apparatus, image reproducing apparatus, and image processing apparatus |
-
2015
- 2015-10-08 JP JP2015200469A patent/JP6622546B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017073704A (en) | 2017-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9569831B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium for extracting information embedded in a printed material | |
US10033931B2 (en) | Image processing apparatus and image processing method for processing still image data | |
US10237491B2 (en) | Electronic apparatus, method of controlling the same, for capturing, storing, and reproducing multifocal images | |
US9332195B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
KR20100052563A (en) | Image generation method, device, its program and recording medium with program recorded therein | |
US20110043656A1 (en) | Image processing device, imaging device, and image processing program | |
JP2015040941A (en) | Image-capturing device, control method therefor, and program | |
US8334919B2 (en) | Apparatus and method for digital photographing to correct subject area distortion caused by a lens | |
JP6056551B2 (en) | Image processing program and digital camera | |
JP2009047498A (en) | Stereoscopic imaging device, control method of stereoscopic imaging device, and program | |
US10122939B2 (en) | Image processing device for processing image data and map data with regard to depth distribution of a subject, image processing system, imaging apparatus, image processing method, and recording medium | |
JP6622546B2 (en) | Image processing apparatus and method | |
JP6645711B2 (en) | Image processing apparatus, image processing method, and program | |
JP5509621B2 (en) | Image processing apparatus, camera, and program | |
CN116456191A (en) | Image generation method, device, equipment and computer readable storage medium | |
JP6351255B2 (en) | Imaging apparatus, imaging method, program, and storage medium | |
JP6218520B2 (en) | Image processing apparatus, image processing method, and program | |
JP6632374B2 (en) | Data processing device, communication device, and control method | |
JP2007124150A (en) | Apparatus and method for image processing, and for processing image data file, computer program, and recording medium | |
US11711607B2 (en) | Information processing apparatus capable of applying image processing based on evaluation results, image processing apparatus, and method of controlling the same | |
JP5818515B2 (en) | Image processing apparatus, image processing method and program thereof | |
JP2011253099A (en) | Focus detector | |
JP6335064B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM | |
JP2018054815A (en) | Region discrimination device, control method therefor, and control program, and imaging apparatus | |
JP6126638B2 (en) | Image processing apparatus, image processing method and program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151014 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181009 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190712 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190813 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191025 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191122 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6622546 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |