JP5197469B2 - Front subject image extraction apparatus and operation control method thereof - Google Patents

Front subject image extraction apparatus and operation control method thereof Download PDF

Info

Publication number
JP5197469B2
JP5197469B2 JP2009092776A JP2009092776A JP5197469B2 JP 5197469 B2 JP5197469 B2 JP 5197469B2 JP 2009092776 A JP2009092776 A JP 2009092776A JP 2009092776 A JP2009092776 A JP 2009092776A JP 5197469 B2 JP5197469 B2 JP 5197469B2
Authority
JP
Japan
Prior art keywords
image
occlusion
superimposed
generated
generation means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009092776A
Other languages
Japanese (ja)
Other versions
JP2010245864A (en
Inventor
恒史 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009092776A priority Critical patent/JP5197469B2/en
Publication of JP2010245864A publication Critical patent/JP2010245864A/en
Application granted granted Critical
Publication of JP5197469B2 publication Critical patent/JP5197469B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は,前方被写体像抽出装置およびその動作制御方法に関する。   The present invention relates to a front subject image extraction device and an operation control method thereof.

視点の異なる2つの画像を利用することが種々考えられている。たとえば,左右画像のエッジ画像を生成し,両方のエッジ画像を一致させて特定の被写体像を抽出するものがある(特許文献1)。また,視点の異なる2つの画像から2つの画像の任意の視点に対応する中間像を生成するものもある(特許文献2)。さらに,被写体の背景面までの距離を測定するものもある(特許文献3)。   Various use of two images having different viewpoints is considered. For example, there is an apparatus that generates edge images of left and right images and extracts a specific subject image by matching both edge images (Patent Document 1). Also, there is an apparatus that generates an intermediate image corresponding to an arbitrary viewpoint of two images from two images having different viewpoints (Patent Document 2). In addition, there is a device that measures the distance to the background of the subject (Patent Document 3).

しかしながら,いずれも所望の被写体像を比較的簡単に抽出することは考えられていない。   However, it is not considered to extract a desired subject image relatively easily.

特開平8−210847号公報JP-A-8-210847 特開平9−27969号公報JP 9-27969 A 特開2000-125196号公報JP 2000-125196 A

この発明は,比較的簡単に所望の被写体像を抽出することを目的とする。   An object of the present invention is to extract a desired subject image relatively easily.

この発明による前方被写体像抽出装置は,第1の視点および第2の視点から撮像された第1の画像を表す第1の画像データおよび第2の画像を表す第2の画像データを入力する画像入力手段,上記第1の画像のうち,上記第1の画像には見えているが上記第2の画像には見えていない画像部分が遮蔽部分領域として表される第1の遮蔽画像を生成する第1の遮蔽画像生成手段,上記第2の画像のうち,上記第2の画像には見えているが上記第1の画像には見えていない画像部分が遮蔽部分領域として表される第2の遮蔽画像を生成する第2の遮蔽画像生成手段,抽出する対象画像部分の一部分または一点(たとえば顔の中心)が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像とを重ね合わせて重畳画像を生成する重畳画像生成手段,ならびに上記重畳画像生成手段によって生成された重畳画像の中から,上記一部分または一点を含む遮蔽画像部分領域内に存在する画像部分(たとえば,顔の中心を含む人物像全体),またはユーザによって指定された遮蔽画像部分領域内に存在する画像部分を抽出する抽出手段を備えていることを特徴とする。   The front subject image extraction device according to the present invention inputs first image data representing a first image captured from a first viewpoint and a second viewpoint, and second image data representing a second image. The input means generates a first occlusion image in which an image portion that is visible in the first image but not in the second image is represented as an occlusion partial region in the first image. Of the second image, the first occlusion image generation means is a second image in which an image portion that is visible in the second image but not in the first image is represented as an occlusion portion area. A second occlusion image generating means for generating an occlusion image; a first occlusion image generated by the first occlusion image generation means so that a part or one point (for example, the center of the face) of the target image portion to be extracted matches. Image and second shielding image generation means Superimposed image generating means for generating a superimposed image by superimposing the second occluded image generated in this way, and a shielded image partial region including the part or one point from the superimposed image generated by the superimposed image generating means The image processing apparatus includes extraction means for extracting an image portion existing in the image (for example, the entire person image including the center of the face) or an image portion existing in the occlusion image portion area designated by the user.

この発明は,上記前方被写体像抽出装置に適した動作制御方法も提供している。すなわち,この方法は,画像入力手段が,第1の視点および第2の視点から撮像された第1の画像を表す第1の画像データおよび第2の画像を表す第2の画像データを入力し,第1の遮蔽画像生成手段が,上記第1の画像のうち,上記第1の画像には見えているが上記第2の画像には見えていない画像部分が遮蔽部分領域として表される第1の遮蔽画像を生成し,第2の遮蔽画像生成手段が,上記第2の画像のうち,上記第2の画像には見えているが上記第1の画像には見えていない画像部分が遮蔽部分領域として表される第2の遮蔽画像を生成し,重畳画像生成手段が,抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像とを重ね合わせて重畳画像を生成し,抽出手段が,上記重畳画像生成手段によって生成された重畳画像の中から,上記一部分または一点を含む遮蔽画像部分領域内に存在する画像部分,またはユーザによって指定された遮蔽画像部分領域内に存在する画像部分を抽出するものである。   The present invention also provides an operation control method suitable for the front subject image extraction apparatus. That is, in this method, the image input means inputs the first image data representing the first image captured from the first viewpoint and the second viewpoint, and the second image data representing the second image. The first occlusion image generation means is configured to display an image portion of the first image that is visible in the first image but not in the second image as a occlusion portion area. The first occlusion image is generated, and the second occlusion image generation means occludes an image portion of the second image that is visible in the second image but not in the first image. A second occlusion image represented as a partial area is generated, and the first image generated by the first occlusion image generation unit is generated by the superimposed image generation unit so that a part or one point of the target image portion to be extracted matches. Produced by the second occlusion image generation means and the second occlusion image generation means. A superimposition image is generated by superimposing the second occlusion image, and an extraction unit exists in the occlusion image partial region including the part or one point from the superimposition image generated by the superimposition image generation unit. The image part to be extracted or the image part existing in the occlusion image part region designated by the user is extracted.

この発明は,上記前方被写体像抽出装置の動作制御方法を実施するのに適したプログラムも格納している。また,そのようなプログラムを格納した記録媒体も提供するようにしてもよい。   The present invention also stores a program suitable for carrying out the operation control method for the front subject image extraction apparatus. Also, a recording medium storing such a program may be provided.

この発明によると,少なくとも第1の視点から撮像された第1の画像と第2の視点から撮像された第2の画像とが利用される。第1の画像のうち,第1の画像には見えている(存在している)が第2の画像には見えていない(存在していない)画像部分が遮蔽部分領域(オクルージョン領域)として表される第1の遮蔽画像が生成される。同様に,第2の画像のうち,第2の画像には見えているが第1の画像には見えていない画像部分が遮蔽部分領域として表わされる第2の遮蔽画像が生成される。抽出する対象画像部分の一部分または一点が一致するように,第1の遮蔽画像と第2の遮蔽画像とが重ね合わせられて重畳画像が生成される。重畳画像の中から,上記一部分または一点を含む遮蔽部分領域内に存在する画像部分,またはユーザによって指定された遮蔽画像部分領域内に存在する画像部分が抽出される。   According to the present invention, at least the first image captured from the first viewpoint and the second image captured from the second viewpoint are used. Of the first image, an image portion that is visible (present) in the first image but not visible (not present) in the second image is represented as a shielded partial region (occlusion region). A first occlusion image is generated. Similarly, a second occlusion image is generated in which the image portion that is visible in the second image but not in the first image is represented as the occlusion portion area. The first occlusion image and the second occlusion image are superimposed so that a part or one point of the target image portion to be extracted matches, and a superimposed image is generated. From the superimposed image, an image portion existing in the occlusion partial region including the part or one point or an image portion existing in the occlusion image partial region designated by the user is extracted.

視点が異なる2つの画像には,被写体の陰となって,一方の画像には見えているが他方の画像には見えていない遮蔽部分が生じる。その遮蔽部分は,前方の被写体ほど大きくなるため,第1の遮蔽画像と第2の遮蔽画像とを,所望の対象画像部分の一部分または一点が一致するように重畳画像を生成し,その重畳画像に含まれる上記一部分または一点を含む遮蔽部分領域内に存在する画像部分が抽出されることにより,抽出された画像部分は前方の所望の被写体像となる。比較的簡単に所望の被写体像部分を抽出できる。   Two images with different viewpoints are shaded by the subject, resulting in a shielded portion that is visible in one image but not in the other image. Since the occluded portion becomes larger as the subject ahead, the superimposed image is generated by making the first occluded image and the second occluded image coincide with a part or one point of the desired target image portion. By extracting the image part existing in the shielding part region including the part or one point included in the extracted part, the extracted image part becomes a desired object image in front. A desired subject image portion can be extracted relatively easily.

上記抽出手段は,たとえば,上記第1の視点と上記第2の視点とを結ぶ直線と平行の2本の直線であって,上記もっとも大きな遮蔽部分領域に接する2本の直線と,上記もっとも大きな遮蔽部分領域と,で囲まれる画像部分を抽出するものである。   The extraction means is, for example, two straight lines parallel to a straight line connecting the first viewpoint and the second viewpoint, the two straight lines in contact with the largest shielding portion area, and the largest The image part surrounded by the shielding part area is extracted.

上記入力手段は,たとえば,同一直線上に存在しない3つの第1の視点,第2の視点および第3の視点から撮像された3駒の第1の画像を表す第1の画像データ,第2の画像を表す第2の画像データおよび第3の画像を表す第3の画像データを入力するものであり,上記第1の遮蔽画像生成手段は,上記第1の画像には見えているが,上記第2の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第1の遮蔽画像を生成するものであり,上記第2の遮蔽画像生成手段は,上記第2の画像には見えているが,上記第1の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第2の遮蔽画像を生成するものである。   The input means includes, for example, first image data representing first images of three frames taken from three first viewpoints, second viewpoints, and third viewpoints that do not exist on the same straight line; The second image data representing the image and the third image data representing the third image are input. The first occlusion image generating means is visible in the first image, but The second occlusion image generation means generates the first occlusion image in which the image portion not visible in the second image or the third image is represented as an occlusion image region. A second occlusion image is generated in which an image portion that is visible in the first image but not in the first image or the third image is represented as a occlusion image region.

また,この場合,上記第3の画像には見えているが,上記第1の画像および上記第2の画像には見えていない画像部分が遮蔽画像領域として表される第3の遮蔽画像を生成する第3の遮蔽画像生成手段をさらに備える。さらに,上記重畳画像生成手段は,抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像と上記第3の遮蔽画像生成手段によって生成された第3の遮蔽画像とを重ね合わせた重畳画像を生成するものとなろう。   In this case, a third occlusion image is generated in which an image portion that is visible in the third image but not in the first image and the second image is represented as an occlusion image region. And a third occlusion image generating means. Further, the superimposed image generation means includes the first occlusion image generated by the first occlusion image generation means and the second occlusion image generation means so that a part or one point of the target image portion to be extracted matches. The second occlusion image generated by the above and the third occlusion image generated by the third occlusion image generation unit will generate a superimposed image.

抽出する対象画像部分が人物像の場合には,上記重畳画像生成手段は,たとえば,人物像に含まれる顔画像部分のうち少なくとも一点が一致するようにして重畳画像を生成するものである。上記抽出手段は,生成された重畳画像の中から(上記一部分または一点を含み),もっとも大きなまたはもっとも幅の広い遮蔽画像部分領域内に存在する画像部分,上記一部分または一点からもっとも近い遮蔽部分領域内に存在する画像部分を抽出するものでもよい。   When the target image portion to be extracted is a human image, the superimposed image generating means generates a superimposed image so that, for example, at least one point in the face image portion included in the human image matches. The extraction means includes an image part existing in the largest or widest occlusion image partial area from the generated superimposed image (including the part or one point), and the occluded partial area closest to the part or one point. An image portion existing in the image may be extracted.

ディジタル・スチル・カメラの電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a digital still camera. ディジタル・スチル・カメラの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a digital still camera. (A)および(B)は,異なる視点から撮像された2駒の画像の一例である。(A) and (B) are examples of two frames taken from different viewpoints. (A)および(B)は遮蔽画像の一例である。(A) and (B) are examples of the occlusion image. 重畳画像の一例である。It is an example of a superimposed image. 重畳画像において,被写体像抽出に用いられる直線を示している。In the superimposed image, a straight line used for subject image extraction is shown. 抽出された被写体像を示している。The extracted subject image is shown. 遮蔽画像生成処理手順を示すフローチャートである。It is a flowchart which shows the shielding image generation process procedure. 撮像装置の構成を示している。The structure of an imaging device is shown. 撮像装置の位置関係を示している。The positional relationship of an imaging device is shown. ディジタル・スチル・カメラの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a digital still camera. 撮像により得られた画像の一例である。It is an example of the image obtained by imaging. 遮蔽画像の一例である。It is an example of a shielding image. 重畳画像の一例である。It is an example of a superimposed image. 遮蔽画像生成処理手順を示すフローチャートである。It is a flowchart which shows the shielding image generation process procedure.

図1は,この発明の実施例を示すもので,ディジタル・スチル・カメラの電気的構成を示すブロック図である。   FIG. 1 shows an embodiment of the present invention and is a block diagram showing an electrical configuration of a digital still camera.

ディジタル・スチル・カメラの全体の動作は,CPU11によって統括される。   The overall operation of the digital still camera is controlled by the CPU 11.

ディジタル・スチル・カメラには,後述する動作プログラム,その他のデータが格納されているメモリ16が含まれている。動作プログラムは,メモリ・カード19等の記録媒体に書き込まれて,そのようなメモリ・カード19から読み出されてディジタル・スチル・カメラにインストールされてもよいし,プレ・インストールされていてもよい。   The digital still camera includes a memory 16 in which an operation program described later and other data are stored. The operation program may be written in a recording medium such as the memory card 19 and read from the memory card 19 and installed in the digital still camera or may be pre-installed. .

ディジタル・スチル・カメラには,シャッタ・レリーズ・ボタン12およびモード・スイッチ13が含まれている。シャッタ・レリーズ・ボタン12の押し下げを示す信号は,CPU11に入力する。モード・スイッチ13は,撮像モードまたは再生モードを選択するもので,スイッチS1またはS2を選択的にオンすることができる。スイッチS1がオンされることにより撮像モードが設定され,スイッチS2がオンされることにより再生モードが設定される。   The digital still camera includes a shutter release button 12 and a mode switch 13. A signal indicating depression of the shutter release button 12 is input to the CPU 11. The mode switch 13 is used to select an imaging mode or a reproduction mode, and the switch S1 or S2 can be selectively turned on. The imaging mode is set when the switch S1 is turned on, and the reproduction mode is set when the switch S2 is turned on.

この実施例によるディジタル・スチル・カメラは,左右(上下,斜め方向でもよい)に視差のある2駒の画像を同時(同時でなくともよい)に撮像することができる。このために,左右に所定距離だけ離れた第1の撮像装置1および第2の撮像装置2がディジタル・スチル・カメラに設けられている。   The digital still camera according to this embodiment can capture two frames of images with parallax on the left and right (upper and lower, or diagonal directions) simultaneously (not necessarily simultaneously). For this purpose, a digital still camera is provided with a first imaging device 1 and a second imaging device 2 that are separated from each other by a predetermined distance.

モード・スイッチ13によって撮像モードが設定されると,第1の撮像装置1または第2の撮像装置2の一方によって一定周期(例えば,1/30秒周期)で被写体が撮像される。被写体像を表す映像信号は,一定周期で第1の撮像装置1または第2の撮像装置2から出力し,アナログ/ディジタル変換回路9に入力する。映像信号は,アナログ/ディジタル変換回路9においてディジタル画像データに変換される。   When the imaging mode is set by the mode switch 13, the subject is imaged by one of the first imaging device 1 and the second imaging device 2 at a constant cycle (for example, 1/30 second cycle). A video signal representing the subject image is output from the first image pickup device 1 or the second image pickup device 2 at a constant period and is input to the analog / digital conversion circuit 9. The video signal is converted into digital image data by the analog / digital conversion circuit 9.

ディジタル画像データは,画像入力コントローラ5によって画像信号処理回路6に入力し,ガンマ補正などの所定の信号処理が行われる。ディジタル画像データは,VRAM(ビデオ・ランダム・アクセス・メモリ)17に書き込まれた後に,読み出されて画像表示装置10に与えられることにより,画像表示装置27の表示画面に動画として表示(一定周期で表示)される。   The digital image data is input to the image signal processing circuit 6 by the image input controller 5 and subjected to predetermined signal processing such as gamma correction. The digital image data is written in a VRAM (Video Random Access Memory) 17 and then read out and given to the image display device 10 so that it is displayed as a moving image on the display screen of the image display device 27 (fixed cycle). Displayed).

この実施例によるディジタル・スチル・カメラ1においては撮像により得られた被写体像に含まれる顔画像部分を検出することができる。このために,ディジタル・スチル・カメラには,顔検出回路8が含まれている。   The digital still camera 1 according to this embodiment can detect a face image portion included in a subject image obtained by imaging. For this purpose, the digital still camera includes a face detection circuit 8.

撮像によって得られたディジタル画像データおよび検出された顔画像部分の位置を示すデータは,AF(自動合焦)検出回路14に入力する。AF検出回路14において,検出された顔画像部分が合焦するように,ズーム・レンズ(図示略,第1の撮像装置1および第2の撮像装置2の中に含まれている)のズーム位置が制御される。また,撮像によって得られたディジタル画像データおよび検出された顔画像部分の位置を示すデータは,AE(自動露光)/AWB(自動白バランス)検出回路15にも入力する。AE/AWB検出回路15において,検出された顔画像部分の明るさが適正な明るさとなるように絞り(図示略,第1の撮像装置1および第2の撮像装置2の中に含まれている)の絞りが決定される。さらに,AE/AWB検出回路15において白バランス調整も行われる。もちろん,絞り,ズーム・レンズが不要であれば,第1の撮像装置1および第2の撮像装置2の中に絞り,ズーム・レンズが含まれなくともよい。   Digital image data obtained by imaging and data indicating the position of the detected face image portion are input to an AF (autofocus) detection circuit 14. The zoom position of the zoom lens (not shown, included in the first imaging device 1 and the second imaging device 2) so that the detected face image portion is focused in the AF detection circuit 14. Is controlled. The digital image data obtained by imaging and the data indicating the position of the detected face image portion are also input to the AE (automatic exposure) / AWB (automatic white balance) detection circuit 15. In the AE / AWB detection circuit 15, a stop (not shown, included in the first imaging device 1 and the second imaging device 2) so that the brightness of the detected face image portion becomes an appropriate brightness. ) Is determined. Further, white balance adjustment is also performed in the AE / AWB detection circuit 15. Of course, if the aperture and zoom lens are unnecessary, the aperture and zoom lens may not be included in the first imaging device 1 and the second imaging device 2.

シャッタ・レリーズ・ボタン12が押されると,第1の撮像装置1および第2の撮像装置2の両方の撮像装置1,2によって被写体が撮像される。第1の撮像装置1の撮像により得られた第1の画像データおよび第2の撮像装置により得られた第2の画像データは,いずれも圧縮処理回路7に入力する。圧縮処理回路7において所定の圧縮処理が行われた第1の画像データおよび第2の画像データはビデオ・エンコーダ20に入力してエンコーディングされる。エンコーディングされた第1の画像データおよび第2の画像データがメモリ・カード・コントローラ18の制御のもとにメモリ・カード19に記録される。   When the shutter release button 12 is pressed, the subject is imaged by the imaging devices 1 and 2 of both the first imaging device 1 and the second imaging device 2. Both the first image data obtained by imaging by the first imaging device 1 and the second image data obtained by the second imaging device are input to the compression processing circuit 7. The first image data and the second image data subjected to predetermined compression processing in the compression processing circuit 7 are input to the video encoder 20 and encoded. The encoded first image data and second image data are recorded on the memory card 19 under the control of the memory card controller 18.

モード・スイッチ4によって再生モードが設定されると,メモリ・カード28に記録されている第1の画像データおよび第2の画像データが読み取られる。第1の画像データと第2の画像データとは視差が生じる異なる視点から撮像されているから,第1の画像データによって表される第1の画像(右画像)には,第1の画像には見えているが第2の画像には見えていない遮蔽画像部分が含まれている。同様に,第2の画像データによって表される第2の画像(左画像)には,第2の画像には見えているが第1の画像には見えていない遮蔽画像部分が含まれている。この実施例では,これらの遮蔽画像部分を用いて第1の画像(第2の画像)から,所望の被写体像が抽出される。抽出された被写体像が画像表示装置10の表示画面に表示される。   When the playback mode is set by the mode switch 4, the first image data and the second image data recorded on the memory card 28 are read. Since the first image data and the second image data are picked up from different viewpoints where parallax occurs, the first image (right image) represented by the first image data includes the first image data. The occluded image portion that is visible but not visible in the second image is included. Similarly, the second image (left image) represented by the second image data includes a shielded image portion that is visible in the second image but not in the first image. . In this embodiment, a desired subject image is extracted from the first image (second image) using these shielding image portions. The extracted subject image is displayed on the display screen of the image display device 10.

図2は,ディジタル・スチル・カメラの処理手順を示すフローチャートである。図3(A),(B)から図7は画像の一例である。   FIG. 2 is a flowchart showing the processing procedure of the digital still camera. 3A and 3B to FIG. 7 are examples of images.

異なる2つの第1の視点および第2の視点において撮像された第1の画像データおよび第2の画像データがメモリ・カード19から読み取られ,第1の画像データによって表される右画像および第2の画像データによって表される左画像が得られる(ステップ31)。得られた右画像および左画像から右遮蔽画像および左遮蔽画像が生成される(ステップ32)。   First image data and second image data captured at two different first viewpoints and second viewpoints are read from the memory card 19, and the right image and the second image represented by the first image data are displayed. A left image represented by the image data is obtained (step 31). A right occlusion image and a left occlusion image are generated from the obtained right image and left image (step 32).

図3(A)は左画像の一例であり,図3(B)は右画像の一例である。図3(A)の左画像40は上述のように第2の撮像装置2によって撮像されたものであり,図3(B)の右画像50は第1の撮像装置1によって撮像されたものである。左画像40および右画像50は実質的に同時と見なされるタイミングで撮像されている。   FIG. 3A is an example of a left image, and FIG. 3B is an example of a right image. The left image 40 in FIG. 3A is taken by the second imaging device 2 as described above, and the right image 50 in FIG. 3B is taken by the first imaging device 1. is there. The left image 40 and the right image 50 are captured at a timing that is considered to be substantially the same.

図3(A)に示すように左画像40には,前方に人物像41の被写体像が含まれている。この人物像40の後方に樹木の画像42,43および44が含まれている。図3(B)に示すように右画像50にも前方に人物像51の被写体像が含まれている。この人物像51の後方に樹木の画像52,53および54が含まれている。左画像40に含まれている人物像41の人物と右画像50に含まれている人物像51の人物とは同一人物である。また,左画像40に含まれている樹木の画像42,43および44のそれぞれの樹木と右画像50に含まれている樹木の画像52,53および54のそれぞれの樹木とは同じものである。   As shown in FIG. 3A, the left image 40 includes a subject image of a human image 41 ahead. Tree images 42, 43 and 44 are included behind the human figure 40. As shown in FIG. 3B, the right image 50 also includes a subject image of the person image 51 in front. Tree images 52, 53, and 54 are included behind the human figure 51. The person of the person image 41 included in the left image 40 and the person of the person image 51 included in the right image 50 are the same person. Further, the trees 42, 43 and 44 included in the left image 40 and the trees 52, 53 and 54 included in the right image 50 are the same.

左画像40と右画像50とは異なる視点で撮像されているので,上述のように,左画像40には見えているが右画像50には見えていない画像部分が存在する。同様に,右画像50には見えているが左画像40には見えていない画像部分が存在する(このように見えていない画像部分を遮蔽部分領域といい,遮蔽部分領域を表した画像を遮蔽画像ということにする)。   Since the left image 40 and the right image 50 are captured from different viewpoints, as described above, there are image portions that are visible in the left image 40 but not in the right image 50. Similarly, there is an image portion that is visible in the right image 50 but not in the left image 40 (the image portion that does not look like this is called a shielded partial region, and an image that represents the shielded partial region is blocked. I will call it an image).

図4(A)は左遮蔽画像の一例であり,図4(B)は右遮蔽画像の一例である。   4A is an example of a left occlusion image, and FIG. 4B is an example of a right occlusion image.

図4(A)を参照して,左遮蔽画像60には,人物像41の左側に遮蔽部分領域45が表示されている。この遮蔽部分領域45は,図3(A)に示す左画像40には見えているが,図3(B)に示す右画像50には見えていない部分である。同様に,図4(B)を参照して,人物像51の右側に遮蔽部分領域55が表示されている。この遮蔽部分領域55は,図3(B)に示す右画像50には見えているが,図3(A)に示す左画像40には見えていない部分である。このように左遮蔽画像60および右遮蔽画像70が生成される。左遮蔽画像60および右遮蔽画像70の生成方法の詳細は後述する。   Referring to FIG. 4A, in the left occlusion image 60, an occlusion partial area 45 is displayed on the left side of the person image 41. The shielded partial region 45 is a portion that is visible in the left image 40 shown in FIG. 3A but is not visible in the right image 50 shown in FIG. Similarly, with reference to FIG. 4B, a shielded partial area 55 is displayed on the right side of the person image 51. This shielded partial region 55 is a portion that is visible in the right image 50 shown in FIG. 3B but is not visible in the left image 40 shown in FIG. In this way, the left occlusion image 60 and the right occlusion image 70 are generated. Details of the method for generating the left occlusion image 60 and the right occlusion image 70 will be described later.

図4(A)においては,人物像41の左部分に形成されている遮蔽画像部分45のほかに樹木画像42,43および44の左側にも遮蔽画像部分が生じるが,それらの樹木画像42,43および44の左側に生じる遮蔽画像部分は小さいので図示を省略する。同様に,図4(B)においては,人物像51の右側に形成されている遮蔽画像部分55のほかに樹木画像52,53および54の右側にも遮蔽画像部分が生じるが,樹木画像52,53および54の右側に生じる遮蔽画像部分は小さいので図示を省略する。   In FIG. 4A, in addition to the occlusion image portion 45 formed on the left portion of the person image 41, an occlusion image portion is also generated on the left side of the tree images 42, 43 and 44. Since the occlusion image portion generated on the left side of 43 and 44 is small, the illustration is omitted. Similarly, in FIG. 4B, in addition to the occluded image portion 55 formed on the right side of the person image 51, an occluded image portion is also generated on the right side of the tree images 52, 53 and 54. Since the occlusion image portion generated on the right side of 53 and 54 is small, the illustration is omitted.

図2に戻って,左遮蔽画像60および右遮蔽画像70が生成されると,それぞれの画像60,70に含まれている人物像41,51の顔画像が検出され,検出された顔画像(の中心)が一致するように重ね合わせられる(ステップ34)。   Returning to FIG. 2, when the left occlusion image 60 and the right occlusion image 70 are generated, the face images of the human images 41 and 51 included in the respective images 60 and 70 are detected, and the detected face images ( Are superimposed so that the centers of the two coincide (step 34).

図5は,このようにして生成された重畳画像80の一例である。   FIG. 5 is an example of the superimposed image 80 generated in this way.

左遮蔽画像60と右遮蔽画像70とが,左遮蔽画像60の顔画像と右遮蔽画像70の顔画像とが一致するように重ね合わせられると,人物像81がぶれていない重畳画像80となる。人物像81の背景には,左遮蔽画像60に含まれている樹木画像42,43および44ならびに右遮蔽画像70に含まれている樹木画像52,53および54が含まれている。人物像81の左側には,左遮蔽画像60に含まれている遮蔽部分領域45が表示されている。同様に,人物像の右側には,右遮蔽画像70に含まれている遮蔽部分領域55が表示されている。   When the left occlusion image 60 and the right occlusion image 70 are superimposed so that the face image of the left occlusion image 60 and the face image of the right occlusion image 70 coincide with each other, a person image 81 is not blurred. . The background of the person image 81 includes tree images 42, 43 and 44 included in the left occlusion image 60 and tree images 52, 53 and 54 included in the right occlusion image 70. On the left side of the person image 81, a shielding partial area 45 included in the left shielding image 60 is displayed. Similarly, the occlusion partial area 55 included in the right occlusion image 70 is displayed on the right side of the person image.

重畳画像80の生成に利用された顔の中心は遮蔽部分領域45および55で囲まれている画像部分に含まれている。したがって遮蔽部分領域45および55で囲まれる画像部分が抽出する画像部分であると考えられる。   The center of the face used for the generation of the superimposed image 80 is included in the image part surrounded by the shield part regions 45 and 55. Therefore, it is considered that the image part surrounded by the shielding part regions 45 and 55 is the image part to be extracted.

再び,図2に戻って,顔の中心を含む遮蔽部分領域45,55の上端同士を結ぶ直線と下端同士を結ぶ直線とが算出される(ステップ35)。   Returning to FIG. 2 again, a straight line connecting the upper ends of the shielding partial regions 45 and 55 including the center of the face and a straight line connecting the lower ends are calculated (step 35).

図6は,重畳画像80において,顔の中心を含む遮蔽部分領域45,55の上端同士を結ぶ直線L1および下端同士を結ぶ直線L2を示している。   FIG. 6 shows a straight line L1 connecting the upper ends of the shielded partial areas 45 and 55 including the center of the face and a straight line L2 connecting the lower ends in the superimposed image 80.

顔の中心を含む遮蔽部分領域45,55の上端同士を結ぶ直線が求められることにより,直線L1が得られる。同様に,顔の中心を含む遮蔽部分領域45,55の下端同士を結ぶ直線が求められることにより,直線L2が得られる。   A straight line L1 is obtained by obtaining a straight line connecting the upper ends of the shielded partial regions 45 and 55 including the center of the face. Similarly, a straight line L2 is obtained by obtaining a straight line connecting the lower ends of the shielded partial areas 45 and 55 including the center of the face.

再び,図2を参照して,重畳画像80において,顔の中心を含む遮蔽部分領域45,55ならびに上端同士を結ぶ直線L1および下端同士を結ぶ直線L2で囲まれる画像部分が抽出される(ステップ36)。   Referring to FIG. 2 again, in the superimposed image 80, an image part surrounded by the shielding part regions 45 and 55 including the center of the face, a straight line L1 connecting the upper ends, and a straight line L2 connecting the lower ends is extracted (step). 36).

図7は,重畳画像80から,顔の中心を含む遮蔽部分領域45,55ならびに上端同士を結ぶ直線L1および下端同士を結ぶ直線L2で囲まれる画像部分が抽出された画像の一例である。抽出された人物像81を含む画像90が得られるようになる。この人物像81全体が抽出する所望の被写体像である。顔画像から,顔画像を含む人物像81の全体を抽出できることとなる。   FIG. 7 is an example of an image obtained by extracting from the superimposed image 80 an image portion surrounded by shielded partial areas 45 and 55 including the center of the face, a straight line L1 connecting the upper ends, and a straight line L2 connecting the lower ends. An image 90 including the extracted person image 81 is obtained. The entire person image 81 is a desired subject image to be extracted. The entire person image 81 including the face image can be extracted from the face image.

この実施例においては,左右の視差が生じている左画像40と右画像50とが用いられているから,抽出する画像の上下範囲を規定するために顔の中心を含む遮蔽部分領域45,55の上端同士と下端同士とをそれぞれ結ぶ直線が利用されているが,上下の視差が生じる2つの画像が用いられる場合には,顔の中心を含む遮蔽部分領域の左端同士および右端同士を結ぶ直線が利用されて,所望の被写体像が抽出されるのはいうまでもない。また,視差が斜め方向である場合には,その斜め方向と垂直に斜めな方向の2本の直線を利用して,前方の被写体像が抽出されることとなろう。   In this embodiment, the left image 40 and the right image 50 in which left and right parallax are generated are used. Therefore, in order to define the vertical range of the image to be extracted, the shielded partial regions 45 and 55 including the center of the face are used. A straight line connecting the top and bottom edges of each other is used, but when two images with top and bottom parallax are used, the straight lines connecting the left and right edges of the shielded partial area including the center of the face Needless to say, a desired subject image is extracted using. If the parallax is in an oblique direction, a subject image in front will be extracted using two straight lines oblique to the oblique direction.

また,上述の実施例においては,抽出する画像の上下範囲を規定するためにもっとも大きい遮蔽部分領域45,55の上端同士と下端同士とをそれぞれ結ぶ直線が利用されているが,抽出すべき画像部分が顔の中心を含む遮蔽部分で囲まれている場合には,これらの直線を利用せずに,もっとも大きい遮蔽部分領域で囲まれる画像部分を抽出するようにしてもよい。   In the above-described embodiment, straight lines connecting the upper ends and the lower ends of the largest shielding partial regions 45 and 55 are used to define the upper and lower ranges of the image to be extracted. When the part is surrounded by a shielding part including the center of the face, an image part surrounded by the largest shielding part region may be extracted without using these straight lines.

図8は,遮蔽画像生成処理手順(図2ステップ32の処理手順)を示すフローチャートである。この処理は,左画像の遮蔽画像(左遮蔽画像)を生成するものである。   FIG. 8 is a flowchart showing the occlusion image generation processing procedure (the processing procedure of step 32 in FIG. 2). This process generates a left occlusion image (left occlusion image).

左画像40の画像の画素pが検出される(ステップ101)。右画像50において,その画素pに対応する画素が検出される(ステップ102)。   The pixel p of the image of the left image 40 is detected (step 101). In the right image 50, a pixel corresponding to the pixel p is detected (step 102).

右画像において,その画素pに対応する画素が見つかると(ステップ103でYES),左画像の画素pが,生成しようとする左画像の遮蔽画像の対応する位置に貼り付けられる(ステップ104)。右画像において,その画素pに対応する画素が見つからないと(ステップ103でNO),遮蔽画像において,その画素pに対応する位置に遮蔽画像部分であることを示すフラグが立てられる(ステップ105)。フラグを立てられた画素によって特定される部分が上述の遮蔽画像部分となる。   When a pixel corresponding to the pixel p is found in the right image (YES in step 103), the pixel p of the left image is pasted to the corresponding position of the occlusion image of the left image to be generated (step 104). If a pixel corresponding to the pixel p is not found in the right image (NO in step 103), a flag indicating that it is a shielded image portion is set at a position corresponding to the pixel p in the shielded image (step 105). . The portion specified by the flagged pixel is the above-described occlusion image portion.

すべての画素について上述の処理が終了するまで(ステップ106),画素pが1つずつインクレメントされながら繰り返される(ステップ107)。左画像のすべての画素について上述の処理が行われるように,上述した画素pがインクレメントされる。   Until the above processing is completed for all the pixels (step 106), the pixel p is repeated while being incremented one by one (step 107). The above-described pixel p is incremented so that the above-described processing is performed for all the pixels of the left image.

左画像の遮蔽画像が生成されると,同様に右画像の遮蔽画像が生成される。   When the occlusion image of the left image is generated, the occlusion image of the right image is similarly generated.

図9から図16は,他の実施例を示すものである。上述の実施例が,2つの異なる視差によって撮像された2駒の画像を利用したものであるのに対し,この実施例は,3つの異なる視差によって撮像された3駒の画像を利用するものである。   9 to 16 show another embodiment. The above-described embodiment uses two frames imaged with two different parallaxes, whereas this embodiment uses three frame images imaged with three different parallaxes.

図9は,ディジタル・スチル・カメラに含まれる撮像装置の電気的構成を示すブロック図である。図10は,ディジタル・スチル・カメラに含まれる撮像装置の位置関係を示している。   FIG. 9 is a block diagram showing an electrical configuration of an image pickup apparatus included in the digital still camera. FIG. 10 shows the positional relationship of the imaging devices included in the digital still camera.

この実施例では,3つの撮像装置1,2,および3が利用される。第1の撮像装置1および第2の撮像装置2は上述したように,カメラを水平に構えた場合に,上下の視差は生じないが左右の視差が生じるように左右の異なる視点から撮像するように位置決めされている。第3の撮像装置3は,カメラを水平に構えた場合に,第1の撮像装置および第2の撮像装置と上下の視差が生じるように位置決めされている。また,第3の撮像装置3は,第1の撮像装置1と第2の撮像装置2との水平方向における中間の位置に位置決めされている。   In this embodiment, three imaging devices 1, 2, and 3 are used. As described above, when the camera is held horizontally, the first imaging device 1 and the second imaging device 2 are configured to capture images from different left and right viewpoints so that left and right parallax do not occur. Is positioned. The third imaging device 3 is positioned so as to generate vertical parallax with the first imaging device and the second imaging device when the camera is held horizontally. The third imaging device 3 is positioned at an intermediate position in the horizontal direction between the first imaging device 1 and the second imaging device 2.

第1の撮像装置1,第2の撮像装置2および第3の撮像装置3によって被写体が撮像されることにより,それぞれの撮像装置1,2および3から被写体像を表す映像信号が出力する。出力した映像信号は,アナログ/ディジタル変換回路4に入力し,ディジタル画像データに変換される。変換されたディジタル画像データは上述のようにしてメモリ・カード19に記録される。   When the subject is imaged by the first imaging device 1, the second imaging device 2, and the third imaging device 3, video signals representing the subject image are output from the imaging devices 1, 2, and 3. The output video signal is input to the analog / digital conversion circuit 4 and converted into digital image data. The converted digital image data is recorded on the memory card 19 as described above.

上述のように,第1の撮像装置1を用いて撮像された画像は右画像であり(図3(B)),第2の撮像装置2を用いて撮像された画像は左画像である(図3(A))。また,第3の撮像装置3を用いて撮像された画像は後述する上画像となる(図12)。   As described above, an image captured using the first imaging device 1 is a right image (FIG. 3B), and an image captured using the second imaging device 2 is a left image ( FIG. 3 (A)). Further, an image captured using the third imaging device 3 is an upper image described later (FIG. 12).

図11は,ディジタル・スチル・カメラの処理手順を示すフローチャートであり,図2の処理手順に対応している。   FIG. 11 is a flowchart showing the processing procedure of the digital still camera, and corresponds to the processing procedure of FIG.

左右に視差のある2駒の画像と,その2駒の画像と上下に視差のある1駒の画像を表す画像データがメモリ・カード19に記録されており,それらの3駒の画像データがメモリ・カード19から読み取られる(ステップ111)。左右に視差のある2駒の画像は,図3(A)および図3(B)に示した左画像40および右画像50であり,残りの一駒の画像が図12に示す上画像120である。左画像40は,被写体に対して左側から撮像された画像であり,右画像50は,被写体に対して右側から撮像された画像であり,上画像120は被写体に対して上から撮像された画像である。   Two frames of images with parallax on the left and right, and two frames of images and image data representing an image of one frame with parallax on the top and bottom are recorded on the memory card 19, and these three frames of image data are recorded from the memory card 19. It is read (step 111). The two frames having left and right parallax are the left image 40 and the right image 50 shown in FIGS. 3A and 3B, and the remaining one frame is the upper image 120 shown in FIG. The left image 40 is an image taken from the left side of the subject, the right image 50 is an image taken from the right side of the subject, and the upper image 120 is an image taken from above the subject. It is.

図12を参照して,上画像120には,人物像121が前方に表示されている。この人物像121の後方には樹木画像122,123および124が表示されている。上画像120に含まれている樹木画像122は,左画像40に含まれている樹木画像42および右画像50に含まれている樹木画像52と同じ樹木である。また,上画像120に含まれている樹木画像123は,左画像40に含まれている樹木画像43および右画像50に含まれている樹木画像53と同じ樹木である。同様に,上画像120に含まれている樹木画像124は,左画像40に含まれている樹木画像44および右画像50に含まれている樹木画像54と同じ樹木である。   Referring to FIG. 12, in upper image 120, person image 121 is displayed forward. Tree images 122, 123 and 124 are displayed behind the person image 121. The tree image 122 included in the upper image 120 is the same tree as the tree image 42 included in the left image 40 and the tree image 52 included in the right image 50. The tree image 123 included in the upper image 120 is the same tree as the tree image 43 included in the left image 40 and the tree image 53 included in the right image 50. Similarly, the tree image 124 included in the upper image 120 is the same tree as the tree image 44 included in the left image 40 and the tree image 54 included in the right image 50.

図11に戻って,異なる視点をもつ3つの画像のそれぞれについて遮蔽画像が生成されて3つの遮蔽画像が生成される(ステップ112)。左画像40および右画像50については,上述のように左遮蔽画像60(図4(A))および右遮蔽画像70(図4(B))が生成される。上画像120についても上遮蔽画像が生成される。   Returning to FIG. 11, the occlusion image is generated for each of the three images having different viewpoints, and three occlusion images are generated (step 112). For the left image 40 and the right image 50, the left occlusion image 60 (FIG. 4A) and the right occlusion image 70 (FIG. 4B) are generated as described above. An upper occlusion image is also generated for the upper image 120.

図13は上遮蔽画像130の一例である。   FIG. 13 is an example of the upper occlusion image 130.

左遮蔽画像60,右遮蔽画像70と同様に,上遮蔽画像130にも上画像120には見えているが左画像40または右画像50には見えていない部分がある。その部分が遮蔽部分領域125として上遮蔽画像130に表示される。上画像120は,左画像40および右画像50と比べて被写体を上から撮像したものであるから,上画像120には被写体像121の上部分が見えているが,左画像40および右画像50には被写体像121の上の部分に相当する部分は見えていないことは理解できよう。また,上画像120と左右画像40,50との間には上下の視差だけでなく左右の視差もあるため,人物像121の左側,右側にも見えない部分が生じる。したがって,被写体像121の上側ならびに左側および右側に遮蔽部分領域125が形成される。但し,上画像120を撮像する第3の撮像装置3は右画像50を撮像する第1の撮像装置1と左画像40を撮像する第2の撮像装置2との中間にあるから,左側および右側の遮蔽部分領域125の幅は遮蔽部分領域45,55の幅の半分となる。   Similar to the left occlusion image 60 and the right occlusion image 70, the upper occlusion image 130 has a portion that is visible in the upper image 120 but not in the left image 40 or the right image 50. That part is displayed as a shield part region 125 in the top shield image 130. Since the upper image 120 is obtained by capturing the subject from above as compared with the left image 40 and the right image 50, the upper image 120 shows the upper part of the subject image 121, but the left image 40 and the right image 50 are visible. It can be understood that the portion corresponding to the upper portion of the subject image 121 is not visible. In addition, since the upper image 120 and the left and right images 40 and 50 have not only upper and lower parallaxes but also left and right parallaxes, portions that cannot be seen on the left and right sides of the human image 121 are generated. Therefore, the shielding partial area 125 is formed on the upper side, the left side, and the right side of the subject image 121. However, since the third imaging device 3 that captures the upper image 120 is in the middle of the first imaging device 1 that captures the right image 50 and the second imaging device 2 that captures the left image 40, the left and right sides. The width of the shielding part region 125 is half the width of the shielding part regions 45 and 55.

図2に戻って,3駒の遮蔽画像のそれぞれの画像60,70および130から顔画像が検出され(ステップ113),検出された顔画像(の中心)が一致するように3駒の遮蔽画像60,70および130が重ね合わせられる(ステップ114)。   Returning to FIG. 2, a face image is detected from each of the images 60, 70 and 130 of the three frames of occlusion images (step 113), and the three frames of occlusion images 60, so that the detected face images (centers) coincide with each other. 70 and 130 are superimposed (step 114).

図14は,3駒の遮蔽画像60,70および130が重ね合わせられた重畳画像150の一例である。   FIG. 14 is an example of a superimposed image 150 in which the three occluded images 60, 70, and 130 are superimposed.

重畳画像150には,人物像131が表示されている。この人物像131は,左画像40の人物像41,右画像50の人物像51および上画像120の人物像121を代表して表したものである。人物像131の上には,遮蔽部分領域125が表示されている。また,人物像131の左には遮蔽部分領域45が表示されている。さらに,人物像131の右側には遮蔽部分領域55が表示されている。人物像131の後方には樹木画像42,43および44,樹木画像52,53および54ならびに樹木画像122,123および124が表示されている。   In the superimposed image 150, a person image 131 is displayed. The person image 131 represents the person image 41 of the left image 40, the person image 51 of the right image 50, and the person image 121 of the upper image 120. On the person image 131, a shielded partial area 125 is displayed. In addition, a shielded partial area 45 is displayed on the left of the person image 131. Further, a shielded partial area 55 is displayed on the right side of the person image 131. Behind the person image 131, tree images 42, 43 and 44, tree images 52, 53 and 54 and tree images 122, 123 and 124 are displayed.

ふたたび図11に戻って,重畳画像150の中の顔を含む遮蔽部分領域45,55および125によって囲まれている画像部分が抽出される(ステップ115)。これにより,図7に示すように人物像81が抽出された画像が得られる。遮蔽部分領域によって画像部分が囲まれていない場合には,画像の四辺のいずれかの辺と遮蔽部分領域によって囲まれている部分が抽出される。   Returning again to FIG. 11, the image portion surrounded by the occluded portion regions 45, 55 and 125 including the face in the superimposed image 150 is extracted (step 115). As a result, an image from which the person image 81 is extracted is obtained as shown in FIG. When the image part is not surrounded by the shielding part area, a part surrounded by any one of the four sides of the image and the shielding part area is extracted.

図15は,遮蔽画像生成処理手順を示すフローチャートであり,図8の処理手順に対応している。   FIG. 15 is a flowchart showing the occlusion image generation processing procedure, which corresponds to the processing procedure of FIG.

3駒の画像のうち,一の画像の画素pが検出され(ステップ161),他の2駒の画像において,その画素pに対応する画素が検出される(ステップ162)。   Among the three frames, the pixel p of one image is detected (step 161), and in the other two frames, the pixel corresponding to the pixel p is detected (step 162).

他の2駒の画像のいずれにおいても対応する画素が見つかると(ステップ163でYES),一の画像の画素pが生成しようとする遮蔽画像の対応する位置に貼り付けられる(ステップ164)。他の2駒の画像のいずれかにおいて対応する画素が見つからなければ(ステップ163でNO),遮蔽画像において,その画素pに対応する位置に遮蔽画像部分フラグが立てられる(ステップ165)。   If a corresponding pixel is found in any of the other two frames (YES in step 163), the pixel p of one image is pasted to the corresponding position of the occlusion image to be generated (step 164). If the corresponding pixel is not found in any of the other two frames (NO in step 163), the occlusion image partial flag is set at the position corresponding to the pixel p in the occlusion image (step 165).

すべての画素について上述の処理が繰り返される(ステップ166,167)。   The above process is repeated for all pixels (steps 166 and 167).

上記の実施例においては,2つまたは3つの撮像装置によって2駒または3駒の視点の異なる画像を得ているが,1つの撮像装置を用いて異なる2つまたは3つの視点から被写体を撮像して2駒または3駒の被写体像を得てもよい。また,1台のカメラを用いて撮像してもよいし,2台または3台のカメラを用いて撮像してもよい。   In the above-described embodiment, two or three imaging devices obtain images with two or three frames of different viewpoints. However, a single imaging device is used to image a subject from two or three different viewpoints. Two or three subject images may be obtained. Further, imaging may be performed using one camera, or imaging may be performed using two or three cameras.

上述した実施例においては,重畳画像の中から,重畳画像を生成するのに用いられた顔画像(抽出する対象画像部分の一部分または一点)を含む遮蔽画像部分領域内の人物像が抽出されているが,もっとも大きなまたはもっとも幅の広い遮蔽画像部分領域内(顔画像を含む遮蔽画像部分領域内)に存在する画像部分を抽出するようにしてもよい。また,遮蔽画像部分領域が複数存在する場合,その複数の遮蔽画像部分領域の中からユーザが所望の遮蔽画像部分領域を指定し,その指定された遮蔽画像部分領域内の画像部分を抽出するようにしてもよい。たとえば,表示画面上にタッチパネルを形成し,所望の遮蔽画像部分領域をタッチすることにより,所望の遮蔽画像部分領域を指定することができる。   In the embodiment described above, a person image in the occluded image partial region including the face image (a part or one point of the target image portion to be extracted) used to generate the superimposed image is extracted from the superimposed image. However, an image portion existing in the largest or widest occlusion image partial region (in the occlusion image partial region including the face image) may be extracted. In addition, when there are a plurality of occlusion image partial areas, the user designates a desired occlusion image partial area from the plurality of occlusion image partial areas, and extracts an image part in the designated occlusion image partial area. It may be. For example, a desired shielding image partial area can be designated by forming a touch panel on the display screen and touching the desired shielding image partial area.

1,2,3 撮像装置(画像入力手段)
11 CPU(第1の遮蔽画像生成手段,第2の遮蔽画像生成手段,重畳画像生成手段,抽出手段)
1, 2, 3 Imaging device (image input means)
11 CPU (first occlusion image generation means, second occlusion image generation means, superimposed image generation means, extraction means)

Claims (8)

第1の視点および第2の視点から撮像された第1の画像を表す第1の画像データおよび第2の画像を表す第2の画像データを入力する画像入力手段,
上記第1の画像のうち,上記第1の画像には見えているが上記第2の画像には見えていない画像部分が遮蔽部分領域として表される第1の遮蔽画像を生成する第1の遮蔽画像生成手段,
上記第2の画像のうち,上記第2の画像には見えているが上記第1の画像には見えていない画像部分が遮蔽部分領域として表される第2の遮蔽画像を生成する第2の遮蔽画像生成手段,
抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像とを重ね合わせて重畳画像を生成する重畳画像生成手段,ならびに
上記重畳画像生成手段によって生成された重畳画像の中から,上記第1の視点と上記第2の視点とを結ぶ直線と平行の2本の直線であって,上記もっとも大きな遮蔽部分領域に接する2本の直線と,上記もっとも大きな遮蔽部分領域と,で囲まれる画像部分を抽出する抽出手段,
を備えた前方被写体像抽出装置。
Image input means for inputting first image data representing a first image captured from a first viewpoint and a second viewpoint, and second image data representing a second image;
Among the first images, a first image that generates a first occlusion image in which an image portion that is visible in the first image but not in the second image is represented as an occluded portion area. Occlusion image generation means,
Of the second image, a second image that generates a second occluded image in which an image portion that is visible in the second image but not in the first image is represented as a occluded portion area. Occlusion image generation means,
The first occlusion image generated by the first occlusion image generation means and the second occlusion image generated by the second occlusion image generation means so that a part or one point of the target image portion to be extracted matches. And a superimposed image generating means for generating a superimposed image, and 2 parallel to a straight line connecting the first viewpoint and the second viewpoint from among the superimposed images generated by the superimposed image generating means. Extraction means for extracting an image portion surrounded by two straight lines that are in contact with the largest shielding part area and the largest shielding part area ;
A forward subject image extraction device.
上記入力手段は,
同一直線上に存在しない3つの第1の視点,第2の視点および第3の視点から撮像された3駒の第1の画像を表す第1の画像データ,第2の画像を表す第2の画像データおよび第3の画像を表す第3の画像データを入力するものであり,
上記第1の遮蔽画像生成手段は,
上記第1の画像には見えているが,上記第2の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第1の遮蔽画像を生成するものであり,
上記第2の遮蔽画像生成手段は,
上記第2の画像には見えているが,上記第1の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第2の遮蔽画像を生成するものであり,
上記第3の画像には見えているが,上記第1の画像および上記第2の画像には見えていない画像部分が遮蔽画像領域として表される第3の遮蔽画像を生成する第3の遮蔽画像生成手段をさらに備え,
上記重畳画像生成手段は,
抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像と上記第3の遮蔽画像生成手段によって生成された第3の遮蔽画像とを重ね合わせた重畳画像を生成するものである,
請求項1に記載の前方被写体像抽出装置。
The input means is
First image data representing a first image of three frames captured from three first viewpoints, a second viewpoint, and a third viewpoint that do not exist on the same straight line, and a second image representing a second image Inputting data and third image data representing a third image;
The first occlusion image generation means includes:
Generating a first occlusion image in which an image portion that is visible in the first image but not in the second image or the third image is represented as an occlusion image region;
The second occlusion image generation means includes:
Generating a second occlusion image in which an image portion that is visible in the second image but not in the first image or the third image is represented as an occlusion image region;
A third occlusion that generates a third occlusion image in which an image portion that is visible in the third image but not in the first image and the second image is represented as an occlusion image region. An image generating means;
The superimposed image generating means includes
The first occlusion image generated by the first occlusion image generation means and the second occlusion image generated by the second occlusion image generation means so that a part or one point of the target image portion to be extracted matches. And a superimposed image obtained by superimposing the third occlusion image generated by the third occlusion image generation means,
The front subject image extraction device according to claim 1 .
抽出する対象画像部分が人物像であり,
上記重畳画像生成手段は,
人物像に含まれる顔画像部分のうち少なくとも一点が一致するようにして重畳画像を生成するものである,
請求項1または2に記載の前方被写体像抽出装置。
The target image part to be extracted is a human figure,
The superimposed image generating means includes
A superimposed image is generated so that at least one point in the face image portion included in the human image matches.
The front subject image extraction device according to claim 1 or 2 .
画像入力手段が,第1の視点および第2の視点から撮像された第1の画像を表す第1の画像データおよび第2の画像を表す第2の画像データを入力し,
第1の遮蔽画像生成手段が,上記第1の画像のうち,上記第1の画像には見えているが上記第2の画像には見えていない画像部分が遮蔽部分領域として表される第1の遮蔽画像を生成し,
第2の遮蔽画像生成手段が,上記第2の画像のうち,上記第2の画像には見えているが上記第1の画像には見えていない画像部分が遮蔽部分領域として表される第2の遮蔽画像を生成し,
重畳画像生成手段が,抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像とを重ね合わせて重畳画像を生成し,
抽出手段が,上記重畳画像生成手段によって生成された重畳画像の中から,上記第1の視点と上記第2の視点とを結ぶ直線と平行の2本の直線であって,上記もっとも大きな遮蔽部分領域に接する2本の直線と,上記もっとも大きな遮蔽部分領域と,で囲まれる画像部分を抽出する,
前方被写体像抽出装置の動作制御方法。
The image input means inputs first image data representing the first image captured from the first viewpoint and the second viewpoint, and second image data representing the second image,
The first occlusion image generating means is a first image in which an image portion that is visible in the first image but not in the second image is represented as an occlusion portion area. Generate occlusion images for
The second occluded image generation means is a second image in which an image portion that is visible in the second image but not in the first image is represented as an occluded portion area. Generate occlusion images for
The superimposed image generation means is generated by the first occlusion image generated by the first occlusion image generation means and the second occlusion image generation means so that a part or one point of the target image portion to be extracted matches. A superimposed image is generated by superimposing the second occlusion image,
The extracting means is two straight lines parallel to a straight line connecting the first viewpoint and the second viewpoint out of the superimposed images generated by the superimposed image generating means, and the largest shielding portion Extract the image part surrounded by the two straight lines that touch the area and the largest occluded part area .
Operation control method of front subject image extraction device.
前方被写体像抽出装置のコンピュータを制御するプログラムであって,
第1の視点および第2の視点から撮像された第1の画像を表す第1の画像データおよび第2の画像を表す第2の画像データを入力させ,
上記第1の画像のうち,上記第1の画像には見えているが上記第2の画像には見えていない画像部分が遮蔽部分領域として表される第1の遮蔽画像を生成させ,
上記第2の画像のうち,上記第2の画像には見えているが上記第1の画像には見えていない画像部分が遮蔽部分領域として表される第2の遮蔽画像を生成させ,
抽出する対象画像部分の一部分または一点が一致するように,生成された第1の遮蔽画像と生成された第2の遮蔽画像とを重ね合わせて重畳画像を生成させ,
重畳画像の中から,上記第1の視点と上記第2の視点とを結ぶ直線と平行の2本の直線であって,上記もっとも大きな遮蔽部分領域に接する2本の直線と,上記もっとも大きな遮蔽部分領域と,で囲まれる画像部分を抽出させるように前方被写体像抽出装置のコンピュータを制御するコンピュータ読み取り可能なプログラム。
A program for controlling a computer of a front subject image extraction device,
First image data representing a first image captured from a first viewpoint and a second viewpoint, and second image data representing a second image are input,
Generating a first occlusion image in which an image portion of the first image that is visible in the first image but not in the second image is represented as a occlusion portion region;
Generating a second occlusion image in which an image portion of the second image that is visible in the second image but not in the first image is represented as a occlusion portion region;
A superimposed image is generated by superimposing the generated first occlusion image and the generated second occlusion image so that a part or one point of the target image portion to be extracted matches.
Among the superimposed images, two straight lines parallel to a straight line connecting the first viewpoint and the second viewpoint, which are in contact with the largest shielding partial area, and the largest shielding. A computer-readable program for controlling the computer of the front subject image extraction device so as to extract the image portion surrounded by the partial region .
同一直線上に存在しない3つの第1の視点第2の視点および第3の視点から撮像された3駒の第1の画像を表す第1の画像データ第2の画像を表す第2の画像データおよび第3の画像を表す第3の画像データを入力する画像入力手段,
上記第1の画像には見えているが,上記第2の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第1の遮蔽画像を生成する第1の遮蔽画像生成手段,
上記第2の画像には見えているが,上記第1の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第2の遮蔽画像を生成する第2の遮蔽画像生成手段,
上記第3の画像には見えているが,上記第1の画像および上記第2の画像には見えていない画像部分が遮蔽画像領域として表される第3の遮蔽画像を生成する第3の遮蔽画像生成手段,
抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像と上記第3の遮蔽画像生成手段によって生成された第3の遮蔽画像とを重ね合わせ重畳画像を生成する重畳画像生成手段,ならびに
上記重畳画像生成手段によって生成された重畳画像の中から,上記一部分または一点を含む遮蔽画像部分領域内に存在する画像部分,またはユーザによって指定された遮蔽画像部分領域内に存在する画像部分を抽出する抽出手段,
を備えた前方被写体像抽出装置。
Three first viewpoint does not exist on the same straight line, a second viewpoint and a third of the first image data representing a three Komano first image captured from the viewpoint, the second image representing the second image Image input means for inputting data and third image data representing the third image ;
A first occlusion that generates a first occlusion image in which an image portion that is visible in the first image but not in the second image or the third image is represented as an occlusion image region. Image generation means,
A second occlusion that generates a second occlusion image in which an image portion that is visible in the second image but not in the first image or the third image is represented as an occlusion image region. Image generation means,
A third occlusion that generates a third occlusion image in which an image portion that is visible in the third image but not in the first image and the second image is represented as an occlusion image region. Image generation means,
The first occlusion image generated by the first occlusion image generation means and the second occlusion image generated by the second occlusion image generation means so that a part or one point of the target image portion to be extracted matches. and the third shield third shielding image and superimposed image generating means for generating a superimposed image in which superposed generated by the image generating means, and
From the superimposed image generated by the superimposed image generation means , extract an image portion existing in the occlusion image partial region including the part or one point or an image portion existing in the occluded image partial region designated by the user Extraction means to perform,
A forward subject image extraction device.
画像入力手段が,同一直線上に存在しない3つの第1の視点,第2の視点および第3の視点から撮像された3駒の第1の画像を表す第1の画像データ,第2の画像を表す第2の画像データおよび第3の画像を表す第3の画像データを入力し,
第1の遮蔽画像生成手段が,上記第1の画像には見えているが,上記第2の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第1の遮蔽画像を生成し,
第2の遮蔽画像生成手段が,上記第2の画像には見えているが,上記第1の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第2の遮蔽画像を生成し,
第3の遮蔽画像生成手段が,上記第3の画像には見えているが,上記第1の画像および上記第2の画像には見えていない画像部分が遮蔽画像領域として表される第3の遮蔽画像を生成し,
重畳画像生成手段が,抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像生成手段によって生成された第1の遮蔽画像と上記第2の遮蔽画像生成手段によって生成された第2の遮蔽画像と上記第3の遮蔽画像生成手段によって生成された第3の遮蔽画像とを重ね合わせた重畳画像を生成し,
抽出手段が,上記重畳画像生成手段によって生成された重畳画像の中から,上記一部分または一点を含む遮蔽画像部分領域内に存在する画像部分,またはユーザによって指定された遮蔽画像部分領域内に存在する画像部分を抽出する
前方被写体像抽出装置の動作制御方法
The image input means outputs first image data and second image representing three first images captured from three first viewpoints, second viewpoints, and third viewpoints that do not exist on the same straight line. Inputting second image data representing and third image data representing a third image;
The first occlusion image generation means is a first image in which an image portion that is visible in the first image but not in the second image or the third image is represented as an occlusion image region. Generate occlusion images,
The second occlusion image generation means is a second image in which an image portion that is visible in the second image but not in the first image or the third image is represented as an occlusion image region. Generate occlusion images,
The third occlusion image generation means is a third occluded image area that is visible in the third image but not in the first image and the second image. Generate occlusion images,
The superimposed image generation means is generated by the first occlusion image generated by the first occlusion image generation means and the second occlusion image generation means so that a part or one point of the target image portion to be extracted matches. Generating a superimposed image obtained by superimposing the second occlusion image and the third occlusion image generated by the third occlusion image generation unit,
The extraction means exists in the image portion existing in the occlusion image partial area including the part or one point, or in the occlusion image partial area designated by the user, from among the superimposed images generated by the superimposed image generation means. Extract the image part ,
Operation control method of front subject image extraction device .
前方被写体像抽出装置のコンピュータを制御するプログラムであって,A program for controlling a computer of a front subject image extraction device,
同一直線上に存在しない3つの第1の視点,第2の視点および第3の視点から撮像された3駒の第1の画像を表す第1の画像データ,第2の画像を表す第2の画像データおよび第3の画像を表す第3の画像データを入力させ,First image data representing a first image of three frames captured from three first viewpoints, a second viewpoint, and a third viewpoint that do not exist on the same straight line, and a second image representing a second image Input data and third image data representing a third image;
上記第1の画像には見えているが,上記第2の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第1の遮蔽画像を生成させ,Generating a first occlusion image in which an image portion that is visible in the first image but not in the second image or the third image is represented as an occlusion image region;
上記第2の画像には見えているが,上記第1の画像または上記第3の画像には見えていない画像部分が遮蔽画像領域として表される第2の遮蔽画像を生成させ,Generating a second occlusion image in which an image portion that is visible in the second image but not in the first image or the third image is represented as an occlusion image region;
上記第3の画像には見えているが,上記第1の画像および上記第2の画像には見えていない画像部分が遮蔽画像領域として表される第3の遮蔽画像を生成させ,Generating a third occlusion image in which an image portion that is visible in the third image but not in the first image and the second image is represented as an occlusion image region;
抽出する対象画像部分の一部分または一点が一致するように,上記第1の遮蔽画像と上記第2の遮蔽画像と上記第3の遮蔽画像とを重ね合わせた重畳画像を生成させ,Generating a superimposed image in which the first occlusion image, the second occlusion image, and the third occlusion image are superimposed so that a part or one point of the target image portion to be extracted matches,
生成された重畳画像の中から,上記一部分または一点を含む遮蔽画像部分領域内に存在する画像部分,またはユーザによって指定された遮蔽画像部分領域内に存在する画像部分を抽出させるように前方被写体像抽出装置のコンピュータを制御するコンピュータ読み取り可能なプログラム。From the generated superimposed image, the front subject image is extracted so as to extract the image part existing in the occlusion image partial area including the part or one point, or the image part existing in the occlusion image partial area specified by the user. A computer readable program for controlling the computer of the extraction device.
JP2009092776A 2009-04-07 2009-04-07 Front subject image extraction apparatus and operation control method thereof Expired - Fee Related JP5197469B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009092776A JP5197469B2 (en) 2009-04-07 2009-04-07 Front subject image extraction apparatus and operation control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009092776A JP5197469B2 (en) 2009-04-07 2009-04-07 Front subject image extraction apparatus and operation control method thereof

Publications (2)

Publication Number Publication Date
JP2010245864A JP2010245864A (en) 2010-10-28
JP5197469B2 true JP5197469B2 (en) 2013-05-15

Family

ID=43098396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009092776A Expired - Fee Related JP5197469B2 (en) 2009-04-07 2009-04-07 Front subject image extraction apparatus and operation control method thereof

Country Status (1)

Country Link
JP (1) JP5197469B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061440A (en) * 2011-09-13 2013-04-04 Canon Inc Imaging device and control method of imaging device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203143A (en) * 1992-12-28 1994-07-22 Canon Inc Extracting method for object

Also Published As

Publication number Publication date
JP2010245864A (en) 2010-10-28

Similar Documents

Publication Publication Date Title
JP5640143B2 (en) Imaging apparatus and imaging method
KR101396743B1 (en) An image processing device, an image processing method, and a recording medium
JP5526233B2 (en) Stereoscopic image photographing apparatus and control method thereof
JP5803467B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5284306B2 (en) Stereoscopic imaging device, ghost image processing device, and ghost image processing method
JP5469258B2 (en) Imaging apparatus and imaging method
JP5612774B2 (en) Tracking frame initial position setting device and operation control method thereof
WO2011125461A1 (en) Image generation device, method, and printer
JP2010041586A (en) Imaging device
US8878910B2 (en) Stereoscopic image partial area enlargement and compound-eye imaging apparatus and recording medium
JP5978573B2 (en) Video signal processing apparatus and video signal processing method
JP2011087128A (en) Pantoscopic camera and method for discrimination of object
JP2013055565A5 (en)
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
US9532034B2 (en) Three-dimensional imaging apparatus and three-dimensional image display method
JP2011048295A (en) Compound eye photographing device and method for detecting posture of the same
JP5197469B2 (en) Front subject image extraction apparatus and operation control method thereof
JP2010154311A (en) Compound-eye imaging device and method of obtaining stereoscopic image
WO2012147368A1 (en) Image capturing apparatus
JP5704885B2 (en) Imaging device, imaging method, and imaging control program
TWI516120B (en) Method for generating panoramic image and image capturing device thereof
JPWO2012002039A1 (en) Representative image determination device, image compression device, operation control method thereof, and program thereof
JP4887461B2 (en) 3D image pickup apparatus and 3D image display method
JP2016036081A (en) Image processing device, method and program, and recording medium
JP2013046343A (en) Image pickup device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees