JP2007194695A - Three-dimensional image cutting-out position calculating apparatus and program thereof, and three-dimensional image cutting-out apparatus and program thereof - Google Patents

Three-dimensional image cutting-out position calculating apparatus and program thereof, and three-dimensional image cutting-out apparatus and program thereof Download PDF

Info

Publication number
JP2007194695A
JP2007194695A JP2006008431A JP2006008431A JP2007194695A JP 2007194695 A JP2007194695 A JP 2007194695A JP 2006008431 A JP2006008431 A JP 2006008431A JP 2006008431 A JP2006008431 A JP 2006008431A JP 2007194695 A JP2007194695 A JP 2007194695A
Authority
JP
Japan
Prior art keywords
image
eye
extracted
photographed
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006008431A
Other languages
Japanese (ja)
Other versions
JP4249188B2 (en
Inventor
Shiro Ozawa
史朗 小澤
Tsukuru Kamiya
造 神谷
Hisao Abe
尚生 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2006008431A priority Critical patent/JP4249188B2/en
Publication of JP2007194695A publication Critical patent/JP2007194695A/en
Application granted granted Critical
Publication of JP4249188B2 publication Critical patent/JP4249188B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional image cutting-out apparatus for generating a three-dimensional image less causing a burden on a viewer. <P>SOLUTION: An image input section 3 and an image input section 4 respectively receive inputs of photographed images for left and right eyes. An image separation processing 5 and an image separation processing 6 respectively generate left eye and right eye extracted images resulting from separating only a photographing object from the photographed images for the left and right eyes. A cutting-out position detection processing 7 compares the left eye extracted image with the right eye extracted image sequentially shifted laterally and detects a position with a least difference as a cutting-out position as a result of the comparison. A cutting-out processing 11 and a cutting-out processing 12 respectively cut out a cutting-out region wherein the left eye photographed image and the right eye photographed image shifted laterally up to the cutting-out position are overlapped respectively from the left eye photographed image and the right eye photographed image. A three-dimensional image generating processing 13 generates a three-dimensional image from the images cut out by the cutting-out processing 11 and the cutting-out processing 12. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、2台のカメラにより撮影された立体画像を処理する立体画像切出し位置算出装置並びにそのプログラムおよび立体画像切出し装置並びにプログラムに関する。   The present invention relates to a stereoscopic image cut-out position calculation device that processes a stereoscopic image taken by two cameras, a program thereof, a stereoscopic image cut-out device, and a program.

従来様々な立体表示装置が発明されており、立体データを立体表示装置で再現する方法が試されている。バリア方式三次元ディスプレイや偏光グラス・シャッター式グラスなどの眼鏡を使用した三次元ディスプレイに立体データを表示する際にはあらかじめ左右の目に対応する2視点の画像を用意しておき、三次元立体ディスプレイ上で合成することで人間が立体的に知覚することができる。これらのディスプレイに表示する画像を作成するには、図7に示すように、2台のカメラを平行に並べて撮影を行い、対象との位置に応じて左右の画角の交わる、切出し位置からの切出し領域の画像を切り出す処理を行う必要がある。
従来技術では、当該三次元ディスプレイに表示するための三次元実写映像を作成するには、2台のカメラで撮影した映像をコンピュータやメモリに取り込み、撮影対象までの距離を計測した上で左右カメラの画角が重複する切り出し領域の大きさを算出して切り出している。このため、撮影対象が動的に変化するようなシーンでは、一定の距離を対象にした三次元実写映像となっている。また、特許文献1では、左右の映像の相関から差がもっとも小さくなるように切り出し領域を求めている
特開2002−223458号公報
Conventionally, various stereoscopic display devices have been invented, and a method of reproducing stereoscopic data on a stereoscopic display device has been tried. When displaying 3D data on a 3D display using glasses such as a barrier 3D display or polarized glasses / shutter glasses, two viewpoint images corresponding to the left and right eyes are prepared in advance. Humans can perceive three-dimensionally by compositing on the display. In order to create an image to be displayed on these displays, as shown in FIG. 7, two cameras are arranged in parallel, and shooting is performed from the cutout position where the left and right angles of view intersect according to the position of the target. It is necessary to perform a process of cutting out the image of the cutout area.
In the prior art, in order to create a 3D live-action image to be displayed on the 3D display, the images taken by the two cameras are taken into a computer or memory, and the distance to the object is measured before the left and right cameras The size of the cutout area where the angle of view overlaps is calculated and cut out. For this reason, in a scene in which the shooting target dynamically changes, a three-dimensional live-action image targeting a certain distance is obtained. Moreover, in patent document 1, the cut-out area | region is calculated | required so that a difference may become the minimum from the correlation of a video on either side.
JP 2002-223458 A

しかしながら、特許文献1に示す立体映像作成装置にあっては、背景などが多くを占めるシーンでは背景の相関が高いため、左目用と右目用の画像で、背景の位置は一致するが、撮影の対象物の位置が離れてしまうことがあり、この対象物を見ようとすると、左目の視点と右目の視点とが別々になり、見る人の負担となり疲れやすいという問題がある。   However, in the stereoscopic image creating apparatus shown in Patent Document 1, since the background correlation is high in a scene in which the background occupies a large amount, the position of the background is the same in the left-eye and right-eye images. There is a case where the position of the target object is separated, and when looking at the target object, the viewpoint of the left eye and the viewpoint of the right eye are separated, and there is a problem that the viewer is burdened and easily tired.

本発明は、このような事情に鑑みてなされたもので、その目的は、見る人の負担が少ない立体画像を生成する立体画像切出し位置算出装置および立体画像切出し装置を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a stereoscopic image extraction position calculation device and a stereoscopic image extraction device that generate a stereoscopic image with less burden on the viewer.

この発明は上述した課題を解決するためになされたもので、請求項1に記載の発明は、撮影の対象物のみが抽出されている左目用の抽出画像の入力を受け付ける第1の画像受付手段と、前記左目用の抽出画像と同じ大きさの画像であり、撮影の対象物のみが抽出されている右目用の抽出画像の入力を受け付ける第2の画像受付手段と、前記左目用の抽出画像または前記右目用の抽出画像を横方向に遂次ずらしつつ、前記左目用の抽出画像と前記右目用の抽出画像とを比較し、比較の結果、最も差異が少ないときの前記左目用の抽出画像または前記右目用の抽出画像の位置を切出し位置として検出する切出し位置検出手段とを備えることを特徴とする立体画像切出し位置算出装置である。   The present invention has been made to solve the above-described problems, and the invention according to claim 1 is a first image receiving means for receiving an input of an extracted image for the left eye from which only an object to be photographed is extracted. A second image receiving means for receiving an input of an extracted image for the right eye, which is an image having the same size as the extracted image for the left eye and from which only the object to be photographed is extracted, and the extracted image for the left eye Alternatively, the left-eye extraction image is compared with the right-eye extraction image while sequentially shifting the right-eye extraction image in the horizontal direction, and as a result of comparison, the left-eye extraction image when the difference is the smallest Alternatively, the stereoscopic image cut-out position calculating device includes cut-out position detecting means for detecting the position of the extracted image for the right eye as a cut-out position.

また、請求項2に記載の発明は、撮影の対象物のみが抽出されている左目用の抽出画像の入力を受け付ける第1の画像受付手段と、前記左目用の抽出画像と同じ大きさの画像であり、撮影の対象物のみが抽出されている右目用の抽出画像の入力を受け付ける第2の画像受付手段と、前記左目用の抽出画像の横方向の各画素位置における前記対象物の縦方向の画素数を算出する第1の投影手段と、前記右目用の抽出画像の横方向の各画素位置における前記対象物の縦方向の画素数を算出する第2の投影手段と、前記左目用の抽出画像または前記右目用の抽出画像を横方向に遂次ずらしつつ、前記第1の投影手段の算出結果と前記第2の投影手段の算出結果との各画素位置での差の絶対値を合計した値を算出し、前記算出した値が最も小さくなるときの前記左目用の抽出画像または前記右目用の抽出画像の位置を切出し位置として検出する投影比較手段とを備えることを特徴とする立体画像切出し位置算出装置である。   According to a second aspect of the present invention, there is provided a first image receiving means for receiving an input of an extracted image for the left eye from which only an object to be photographed is extracted, and an image having the same size as the extracted image for the left eye. A second image receiving means for receiving an input of an extracted image for the right eye from which only the object to be photographed is extracted, and a vertical direction of the object at each pixel position in the horizontal direction of the extracted image for the left eye First projection means for calculating the number of pixels of the object, second projection means for calculating the number of pixels in the vertical direction of the object at each pixel position in the horizontal direction of the extracted image for the right eye, and for the left eye The absolute value of the difference at each pixel position between the calculation result of the first projection means and the calculation result of the second projection means is summed up while sequentially shifting the extraction image or the extraction image for the right eye in the horizontal direction. The calculated value is the smallest. Kino wherein a three-dimensional image extraction position calculating device, characterized in that it comprises a projection comparing means for detecting as an extracted image or the position cut out position of the extracted image for the right eye left eye.

また、請求項3に記載の発明は、左目用の撮影画像の入力を受け付ける第1の画像入力手段と、前記左目用の撮影画像と同じ大きさの右目用の撮影画像の入力を受け付ける第2の画像入力手段と、前記第1の画像入力手段が受け付けた、前記左目用の撮影画像から、撮影の対象物のみを分離した左目用の抽出画像を生成する第1の画像分離手段と、前記第2の画像入力手段が受け付けた、前記右目用の撮影画像から、撮影の対象物のみを分離した右目用の抽出画像を生成する第2の画像分離手段と、前記左目用の抽出画像または前記右目用の抽出画像を横方向に遂次ずらしつつ、前記左目用の抽出画像と前記右目用の抽出画像とを比較し、比較の結果、最も差異が少ないときの前記左目用の抽出画像または前記右目用の抽出画像の位置を切出し位置xcとして検出する切出し位置検出手段と、前記切出し位置検出手段が検出した切出し位置xcまで横方向にずらした前記左目用の撮影画像または前記左目用の撮影画像と、前記右目用の撮影画像または前記左目用の撮影画像とが重なる切出し領域の画像を、前記左目用の撮影画像から切出す第1の切出し手段と、前記切出し位置検出手段が検出した切出し位置xcまで横方向にずらした前記左目用の撮影画像または前記左目用の撮影画像と、前記右目用の撮影画像または前記左目用の撮影画像とが重なる切出し領域の画像を、前記右目用の撮影画像から切出す第2の切出し手段と、前記第1の切出し手段が切出した画像と、前記第2の切出し手段が切出した画像とから、立体画像を生成する立体画像生成手段とを備えることを特徴とする立体画像切出し装置である。   According to a third aspect of the present invention, there is provided a first image input means for accepting an input of a left-eye photographed image and a second image input means for accepting an input of a right-eye photographed image having the same size as the left-eye photographed image. Image input means, and first image separation means for generating an extracted image for the left eye obtained by separating only the object to be photographed from the photographed image for the left eye received by the first image input means, Second image separation means for generating an extracted image for the right eye obtained by separating only the object to be photographed from the photographed image for the right eye received by the second image input means; and the extracted image for the left eye or the The left-eye extracted image is compared with the right-eye extracted image while sequentially shifting the right-eye extracted image in the horizontal direction, and as a result of comparison, the left-eye extracted image or the Cut out the position of the extracted image for the right eye A cut-out position detection unit that detects the position xc, a left-eye shot image or the left-eye shot image that is shifted laterally to the cut-out position xc detected by the cut-out position detection unit, and the right-eye shot image or The left eye shifted laterally to a cutout position xc detected by the cutout position detecting means and a first cutout means that cuts out an image of a cutout region that overlaps the lefteye shot image from the lefteye shot image. A second cutout unit that cuts out an image of a cutout region where the shot image for the left eye or the shot image for the left eye overlaps the shot image for the right eye or the shot image for the left eye from the shot image for the right eye; A stereoscopic image generating means for generating a stereoscopic image from the image cut out by the first cutting out means and the image cut out by the second cutting out means. That a three-dimensional image extraction apparatus.

また、請求項4に記載の発明は、請求項3に記載の立体画像切出し位置算出装置であって、前記切出し位置検出手段は、前記左目用の抽出画像の横方向の各画素位置における前記対象物の縦方向の画素数を算出する第1の投影手段と、前記右目用の抽出画像の横方向の各画素位置における前記対象物の縦方向の画素数を算出する第2の投影手段と、前記左目用の抽出画像または前記右目用の抽出画像を横方向に遂次ずらしつつ、前記第1の投影手段の算出結果と前記第2の投影手段の算出結果との各画素位置での差の絶対値を合計した値を算出し、前記算出した値が最も小さくなるときの前記左目用の抽出画像または前記右目用の抽出画像の位置を切出し位置xcとして検出する投影比較手段とを備えることを特徴とする。   The invention according to claim 4 is the stereoscopic image cut-out position calculating device according to claim 3, wherein the cut-out position detecting means is the target at each pixel position in the horizontal direction of the extracted image for the left eye. First projecting means for calculating the number of pixels in the vertical direction of the object; and second projecting means for calculating the number of pixels in the vertical direction of the object at each pixel position in the horizontal direction of the extracted image for the right eye; While sequentially shifting the extracted image for the left eye or the extracted image for the right eye in the horizontal direction, the difference in each pixel position between the calculation result of the first projection means and the calculation result of the second projection means Projection comparison means for calculating a value obtained by summing absolute values and detecting the position of the extracted image for the left eye or the extracted image for the right eye when the calculated value is the smallest as the cutout position xc. Features.

また、請求項5に記載の発明は、請求項3または請求項4に記載の立体画像切出し装置であって、焦点距離がfであり、入力された距離に焦点を合わせて、前記左目用の撮影画像を撮影する第1のカメラと、前記第1のカメラの右側に配置間隔Bc離れた位置に、前記第1のカメラと平行に設置され、焦点距離がfであり、入力された距離に焦点を合わせて、前記右目用の撮影画像を撮影する第2のカメラと、距離Dcを、Dc=Bc・f/(Q・xc)(Qは、単位あわせの係数)により算出し、前記距離Dcを前記第1のカメラおよび第2のカメラに出力する距離算出手段とを備えることを特徴とする。   The invention according to claim 5 is the stereoscopic image cutting device according to claim 3 or claim 4, wherein the focal length is f, the focus is set to the input distance, and the left eye is focused. A first camera that captures a photographed image is installed in parallel with the first camera at a position spaced apart from the first camera by an arrangement interval Bc, has a focal length of f, and an input distance. The second camera that captures the right-eye photographed image in focus and the distance Dc is calculated by Dc = Bc · f / (Q · xc) (Q is a unit adjustment factor), and the distance And a distance calculating means for outputting Dc to the first camera and the second camera.

また、請求項6に記載の発明は、コンピュータを、撮影の対象物のみが抽出されている左目用の抽出画像の入力を受け付ける第1の画像受付手段、前記左目用の抽出画像と同じ大きさの画像であり、撮影の対象物のみが抽出されている右目用の抽出画像の入力を受け付ける第2の画像受付手段、前記左目用の抽出画像または前記右目用の抽出画像を横方向に遂次ずらしつつ、前記左目用の抽出画像と前記右目用の抽出画像とを比較し、比較の結果、最も差異が少ないときの前記左目用の抽出画像または前記右目用の抽出画像の位置を切出し位置として検出する切出し位置検出手段として機能させるためのプログラムである。   Further, the invention described in claim 6 is a first image receiving means for receiving an input of an extracted image for the left eye from which only a subject to be photographed is extracted, and the same size as the extracted image for the left eye. Second image receiving means for receiving an input of an extracted image for the right eye from which only the object to be photographed is extracted, and sequentially extracting the extracted image for the left eye or the extracted image for the right eye in the horizontal direction. While shifting, the extracted image for the left eye and the extracted image for the right eye are compared, and the position of the extracted image for the left eye or the extracted image for the right eye when the difference is the smallest as a result of comparison is set as a cut-out position. It is a program for functioning as a cut-out position detecting means for detecting.

また、請求項7に記載の発明は、コンピュータを左目用の撮影画像の入力を受け付ける第1の画像入力手段、前記左目用の撮影画像と同じ大きさの右目用の撮影画像の入力を受け付ける第2の画像入力手段、前記第1の画像入力手段が受け付けた、前記左目用の撮影画像から、撮影の対象物のみを分離した左目用の抽出画像を生成する第1の画像分離手段、前記第2の画像入力手段が受け付けた、前記右目用の撮影画像から、撮影の対象物のみを分離した右目用の抽出画像を生成する第2の画像分離手段、前記左目用の抽出画像または前記右目用の抽出画像を横方向に遂次ずらしつつ、前記左目用の抽出画像と前記右目用の抽出画像とを比較し、比較の結果、最も差異が少ないときの前記左目用の抽出画像または前記右目用の抽出画像の位置を切出し位置として検出する切出し位置検出手段、前記切出し位置検出手段が検出した切出し位置まで横方向にずらした前記左目用の撮影画像または前記左目用の撮影画像と、前記右目用の撮影画像または前記左目用の撮影画像とが重なる切出し領域の画像を、前記左目用の撮影画像から切出す第1の切出し手段、前記切出し位置検出手段が検出した切出し位置まで横方向にずらした前記左目用の撮影画像または前記左目用の撮影画像と、前記右目用の撮影画像または前記左目用の撮影画像とが重なる切出し領域の画像を、前記右目用の撮影画像から切出す第2の切出し手段、前記第1の切出し手段が切出した画像と、前記第2の切出し手段が切出した画像とから、立体画像を生成する立体画像生成手段として機能させるためのプログラムである。   According to a seventh aspect of the present invention, there is provided a first image input means for accepting an input of a left-eye photographed image from a computer, a first image input means for accepting an input of a right-eye photographed image having the same size as the left-eye photographed image. Second image input means, first image separation means for generating an extracted image for the left eye obtained by separating only the object to be photographed from the photographed image for the left eye received by the first image input means, 2nd image separation means for generating an extracted image for the right eye obtained by separating only the object to be photographed from the photographed image for the right eye received by the second image input means, the extracted image for the left eye or the right eye The extracted image for the left eye and the extracted image for the right eye are compared with each other while sequentially shifting the extracted image of the left eye and the extracted image for the right eye as a result of the comparison. Extracted image position Cutout position detection means for detecting as a cutout position, the left eye shot image or the left eye shot image, and the right eye shot image or the left eye shifted laterally to the cutout position detected by the cutout position detection means The left-eye photographic image obtained by laterally shifting the image of the cut-out area that overlaps with the photographic image for use to the cut-out position detected by the first cut-out means and the cut-out position detection means cut out from the left-eye shoot image Or a second cut-out means for cutting out an image of a cut-out area where the left-eye shot image and the right-eye shot image or the left-eye shot image overlap, from the right-eye shot image; A program for functioning as a stereoscopic image generating means for generating a stereoscopic image from an image cut out by the cutting means and an image cut out by the second cutting means. That.

この発明によれば、撮影画像から対象物のみを抽出した第1の抽出画像と、第2の抽出画像を横方向にずらして比較し、最も差異が少ない位置を切出し位置として出力するため、該切出し位置を用いて撮影画像の切出しをすると、左目用の画像と右目用の画像で、撮影の対象物が同じ場所となり、見る人への負担が少ない立体画像を生成することができる。   According to the present invention, the first extracted image obtained by extracting only the object from the photographed image and the second extracted image are compared while being shifted in the horizontal direction, and the position with the smallest difference is output as the cutout position. When a captured image is cut out using the cut-out position, a stereoscopic image with less burden on the viewer can be generated in the left eye image and the right eye image with the same shooting target.

また、本発明によれば、撮影画像から対象物のみを抽出した左目用の抽出画像と、右目用の抽出画像を横方向にずらして比較し、最も差異が少ない位置を基準にして、撮影画像の切出しをするため、左目用の画像と右目用の画像で、撮影の対象物が同じ場所となり、見る人への負担が少ない立体画像を生成することができる。   Further, according to the present invention, the extracted image for the left eye obtained by extracting only the object from the photographed image and the extracted image for the right eye are compared while being shifted in the horizontal direction, and the photographed image is based on the position with the smallest difference. Therefore, in the left-eye image and the right-eye image, the object to be photographed becomes the same place, and a stereoscopic image with less burden on the viewer can be generated.

また、本発明によれば、左目用の画像と右目用の画像における撮影の対象物の位置関係から算出した対象物までの距離に基づき第1のカメラおよび第2のカメラの焦点をあわせるので、第1のカメラおよび第2のカメラの焦点を、対象物にあわせることができる。   Further, according to the present invention, the first camera and the second camera are focused on the basis of the distance to the object calculated from the positional relationship of the object to be photographed in the image for the left eye and the image for the right eye. The first camera and the second camera can be focused on the object.

最初に、本発明の実施の形態について、図1を参照して概要を説明する。本実施形態では、左目用と右目用の2台のカメラを平行に設置して、それぞれのカメラで対象物を撮影する立体画像撮影を行なう。それぞれの撮影した画像から、対象物だけを分離抽出したが蔵を生成する。このとき、左目用のカメラで写した画像に比べて、右目用のカメラで写した画像では、画像内での対象物の位置が横方向左側にずれている。そこで、左目用および右目用のそれぞれについて、横方向の各画素位置での縦方向の画素数の分布をとる投影処理を行った後に、右目用の画素数の分布を横方向にずらしていき、左目用の画素数の分布と右目用の画素数の分布がマッチングする位置を探す。そして、左右がマッチングするときのずらした位置を切出し位置として、それぞれの撮影画像から切出し領域の画像を切出して、立体画像を生成し、表示する。   First, an outline of an embodiment of the present invention will be described with reference to FIG. In the present embodiment, two cameras for the left eye and the right eye are installed in parallel, and stereoscopic image shooting is performed for shooting an object with each camera. Only the object is separated and extracted from each photographed image, but a warehouse is generated. At this time, in the image taken with the right eye camera, the position of the object in the image is shifted to the left in the horizontal direction compared to the image taken with the left eye camera. Therefore, for each of the left eye and right eye, after performing a projection process that takes the distribution of the number of pixels in the vertical direction at each pixel position in the horizontal direction, the distribution of the number of pixels for the right eye is shifted in the horizontal direction, A position where the distribution of the number of pixels for the left eye and the distribution of the number of pixels for the right eye match is searched. Then, using the shifted position when the left and right are matched as the cutout position, the image of the cutout area is cut out from each captured image, and a stereoscopic image is generated and displayed.

以下、図面を参照して、本発明の実施の形態について説明する。図2は、この発明の一実施形態による立体画像切出し装置の構成を示す概略ブロック図である。1は、焦点距離がfであり、距離算出処理15から入力された距離に焦点を合わせて撮影し、左目用の撮影画像データを出力するカメラである。2は、カメラ1から右側に配置間隔Bc離れた位置に、カメラ1と平行に設置され、焦点距離がfであり、距離算出処理15から入力された距離に焦点を合わせて撮影し、右目用の撮影画像データを出力するカメラ1と同様のカメラである。3は、カメラ1が撮影した左目用の撮影画像データの入力を受け付ける画像入力部である。4は、画像入力部3と同様に、カメラ2が撮影した右目用の撮影画像データの入力を受け付ける画像入力部である。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 2 is a schematic block diagram showing the configuration of the stereoscopic image cutting device according to one embodiment of the present invention. Reference numeral 1 denotes a camera that has a focal length f, shoots while focusing on the distance input from the distance calculation processing 15, and outputs captured image data for the left eye. 2 is installed in parallel with the camera 1 at a position distant from the camera 1 on the right side by the arrangement interval Bc, has a focal length f, and takes a picture focused on the distance input from the distance calculation processing 15 for the right eye. This is the same camera as the camera 1 that outputs the captured image data. Reference numeral 3 denotes an image input unit that receives input of captured image data for the left eye captured by the camera 1. Similarly to the image input unit 3, 4 is an image input unit that accepts input of captured image data for the right eye captured by the camera 2.

5は、画像入力部3が受け付けた、左目用の撮影画像データから、撮影の対象物のみを分離した左目用の抽出画像データを生成する画像分離処理である。6は、画像分離処理5と同様に、画像入力部4が受け付けた、右目用の撮影画像データから、撮影の対象物のみを分離した右目用の抽出画像データを生成する画像分離処理である。7は、投影処理8、9と投影比較処理10からなる切出し位置検出処理である。投影処理8は、左目用の抽出画像データの横方向の各位置における対象物の縦方向の画素数を算出した左の投影結果を出力する。投影処理9は、投影処理8と同様に、右目用の抽出画像データの横方向の各位置における対象物の縦方向の画素数を算出した右の投影結果を出力する。投影比較処理10は、図6の(a)と(b)に例を示すように、左の投影結果と、右方向に位置xc(−L<xc<Lで、Lは抽出画像データの横方向の画素数、xcは整数)までずらした右の投影結果との各位置での差の絶対値を合計した値S(xc)を、全ての位置xcについて算出し、値S(xc)が最も小さくなるときの位置xcを切出し位置として検出する。   Reference numeral 5 denotes image separation processing that is received by the image input unit 3 and generates extracted image data for the left eye obtained by separating only the object to be photographed from the captured image data for the left eye. Similar to the image separation process 5, 6 is an image separation process that is received by the image input unit 4 and generates extracted image data for the right eye obtained by separating only the object to be photographed from the photographed image data for the right eye. Reference numeral 7 denotes a cut-out position detection process including projection processes 8 and 9 and a projection comparison process 10. The projection process 8 outputs the left projection result obtained by calculating the number of pixels in the vertical direction of the object at each position in the horizontal direction of the extracted image data for the left eye. Similar to the projection process 8, the projection process 9 outputs the right projection result obtained by calculating the number of pixels in the vertical direction of the object at each position in the horizontal direction of the extracted image data for the right eye. As shown in FIGS. 6A and 6B, the projection comparison process 10 includes the left projection result and the position xc in the right direction (−L <xc <L, where L is the horizontal direction of the extracted image data. A value S (xc) obtained by summing the absolute values of the differences at each position from the right projection result shifted to the number of pixels in the direction (xc is an integer) is calculated for all positions xc, and the value S (xc) is The position xc when it becomes the smallest is detected as the cutout position.

11は、投影比較処理10が検出した切出し位置xcまで横方向にずらした右目用の撮影画像データと、左目用の撮影画像データとが重なった切出し領域を、左目用の撮影画像データから切出す切出し処理である。12は、切出し処理11と同様に、投影比較処理10が検出した切出し位置xcまで横方向にずらした右目用の撮影画像データと、左目用の撮影画像データとが重なった切出し領域を、右目用の撮影画像データから切出す切出し処理である。13は、切出し処理11が切出した画像データと、切出し処理12が切出した画像データとから、立体画像データを生成する立体画像生成処理である。14は、バリア方式三次元ディスプレイや偏光グラス・シャッター式グラスなどの眼鏡を使用した三次元ディスプレイなどの立体画像を表示する立体画像表示装置である。距離算出処理15は、投影比較処理10から切出し位置xcを取得して、距離Dcを、Dc=Bc・f/(Q・xc)(Qは、単位あわせの係数)により算出し、距離Dcをカメラ1およびカメラ2に出力する。なお、前述のように、ここで、Bcはカメラ1とカメラ2の配置間隔、fはカメラ1およびカメラ2の焦点距離である。   11 cuts out from the left-eye shot image data a cut-out area where the right-eye shot image data and the left-eye shot image data that have been shifted laterally to the cut-out position xc detected by the projection comparison processing 10 overlap. Cutting process. 12, similarly to the cutout process 11, a cutout area in which the right-eye shot image data shifted to the cutout position xc detected by the projection comparison process 10 and the left-eye shot image data overlap is used for the right eye. This is a cut-out process for cutting out from the captured image data. Reference numeral 13 denotes a stereoscopic image generation process for generating stereoscopic image data from the image data extracted by the extraction process 11 and the image data extracted by the extraction process 12. Reference numeral 14 denotes a stereoscopic image display device for displaying a stereoscopic image such as a barrier type three-dimensional display or a three-dimensional display using glasses such as polarizing glasses and shutter glasses. The distance calculation process 15 acquires the cut-out position xc from the projection comparison process 10, calculates the distance Dc by Dc = Bc · f / (Q · xc) (Q is a unit adjustment coefficient), and calculates the distance Dc. Output to camera 1 and camera 2. As described above, here, Bc is an arrangement interval between the camera 1 and the camera 2, and f is a focal length of the camera 1 and the camera 2.

なお、これらの画像分離処理5、6、切出し位置検出処置7、切出し処理11、12、立体画像生成処理13、距離算出処理15は、専用のハードウェアにより実現されるものであってもよく、また、これらの処理は、メモリおよびCPU(中央演算装置)により構成され、これらの処理の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。   Note that these image separation processes 5 and 6, cut-out position detection treatment 7, cut-out processes 11 and 12, stereoscopic image generation process 13, and distance calculation process 15 may be realized by dedicated hardware, In addition, these processes are configured by a memory and a CPU (central processing unit), and a program for realizing the functions of these processes is loaded into the memory and executed to realize the functions. Good.

次に、この立体画像切出し装置の動作を説明する。まず、図3のように、間隔Bcの距離をおき、左側に設置したカメラ1と、カメラ1と平行に設置したカメラ2とで、距離Dc先にある対象物を背景とともに動画で撮影して、カメラ1は左目用の撮影画像データを、カメラ2は右目用の撮影画像データを出力する。カメラ1とカメラ2のそれぞれが出力した撮影画像データは、カメラ1が出力した左目用の撮影画像データは画像入力部3が受け付け、カメラ2が出力した右目用の撮影画像データは画像入力部4が受け付ける。画像入力部3および画像入力部4は、受け付けた撮影画像データを1フレームずつ分離して、それぞれ、画像入力部3は画像分離処理5に出力し、画像入力部4は画像分離処理6に出力する。   Next, the operation of this stereoscopic image cutting device will be described. First, as shown in FIG. 3, a distance Bc is set and a camera 1 installed on the left side and a camera 2 installed in parallel with the camera 1 are used to shoot an object at a distance Dc ahead with a moving image. The camera 1 outputs left-eye shot image data, and the camera 2 outputs right-eye shot image data. The captured image data output by the camera 1 and the camera 2 is received by the image input unit 3 for the left-eye captured image data output by the camera 1, and the captured image data for the right eye output by the camera 2 is the image input unit 4. Accept. The image input unit 3 and the image input unit 4 separate the received captured image data frame by frame, the image input unit 3 outputs the image separation process 5, and the image input unit 4 outputs the image separation process 6. To do.

画像分離処理5および画像分離処理6は、それぞれ、左目用と右目用の撮影画像データを1フレームずつ受けると、それをそのまま、それぞれ、画像分離処理5は切出し処理11に出力し、画像分離処理6は切出し処理12に出力するとともに、図4のフローチャートに示すように、1フレームずつ受けた撮影画像データの各画素のデータを、後に詳述する背景画像データの各画素のデータと比較する。データが一致する画素は背景として取り除き、データが一致しない画素は対象物として抽出し、画像分離処理5および画像分離処理6は、それぞれ、左目用と右目用の抽出画像データを生成する。そして、画像分離処理5は生成した左目用の抽出画像データを投影処理8に出力し、画像分離処理6は生成した抽出画像データを投影処理9に出力する(S1)。なお、ここで用いている背景画像データは、該動画撮影に先立って、カメラ1およびカメラ2で、対象物を取り除いた状態で背景のみを撮影し、それぞれ画像入力3、4を介して、画像分離処理5、6が取得し、格納しておいたデータである。   When the image separation process 5 and the image separation process 6 receive the captured image data for the left eye and the right eye one frame at a time, the image separation process 5 outputs the received image data as it is to the cutout process 11, respectively. 6 is output to the clipping process 12 and, as shown in the flowchart of FIG. 4, the data of each pixel of the captured image data received frame by frame is compared with the data of each pixel of the background image data described later. Pixels that match the data are removed as the background, pixels that do not match the data are extracted as objects, and the image separation process 5 and the image separation process 6 generate extracted image data for the left eye and the right eye, respectively. Then, the image separation process 5 outputs the generated extracted image data for the left eye to the projection process 8, and the image separation process 6 outputs the generated extracted image data to the projection process 9 (S1). Note that the background image data used here is the image of only the background with the camera 1 and the camera 2 removed, and the image input 3 and 4 via the image inputs 3 and 4, respectively, prior to the moving image shooting. This is the data acquired and stored by the separation processes 5 and 6.

投影処理8および投影処理9は、それぞれ、左目用と右目用の抽出画像データを受けると、図5に示すように、水平方向の各位置について、縦方向に走査して空白でない画素の数を算出する。図5の例では、水平方向の位置0〜11について、それぞれ「0」、「0」、「0」、「0」、「4」、「6」、「8」、「8」、「8」、「6」、「4」、「0」となる。投影処理8は、左目用の抽出画像データを受けて、上記のように算出した左の投影結果を投影比較処理10に出力し、投影処理9は、右目用の抽出画像データを受けて、上記のように算出した右の投影結果を投影比較処理10に出力する(S2)。   When the projection process 8 and the projection process 9 receive the extracted image data for the left eye and the right eye, respectively, as shown in FIG. 5, the number of non-blank pixels is obtained by scanning in the vertical direction for each position in the horizontal direction. calculate. In the example of FIG. 5, “0”, “0”, “0”, “0”, “4”, “6”, “8”, “8”, “8” are provided for the positions 0 to 11 in the horizontal direction. ”,“ 6 ”,“ 4 ”,“ 0 ”. The projection process 8 receives the extracted image data for the left eye and outputs the left projection result calculated as described above to the projection comparison process 10, and the projection process 9 receives the extracted image data for the right eye and The right projection result calculated as described above is output to the projection comparison process 10 (S2).

投影比較処理10は、左の投影結果と右の投影結果を受けると、図6(b)のように横方向の画素数Lが12の場合は、左の投影結果に対して、右の投影結果を画素数Lより1少ない11画素分左にずらす。このとき、ずらした先の位置xcを、右方向をプラスとして、xc=−11と表記する。投影比較処理10は、後に詳述するように、ずらした状態での各位置における差の絶対値をとり、それらの合計値S(xc)を算出する(S3)。次に、位置xcに1加えてxc=−10となるように、先にxc=−11までずらした右の投影結果を右に1つずらす(S4)。次に、ステップS5では、判定条件は位置xcが最大より大きいことであるが、位置xcの最大は、左の投影結果と右の投影結果が重ならなくなる1つ手前のxc=L−1=11なので、xc=−10では、判定条件のxcが最大より大きいことは成立していないと投影比較処理10は判断し、再度ステップS3に戻る。このようにして、投影比較処理10は、ステップS3の処理をxc=−11からxc=11まで繰り返す。すると、xc=L=12となり、ステップS5の判定条件を満たすため、ステップS6に遷移する。ステップS6では、投影比較処理10は、先に算出した値S(xc)の中で、値S(xc)が最も小さな値となるときの位置xc(図6(b)ではS(xc)=0となるxc=3)を切出し位置として選択し、切出し処理11、12および距離算出処理15に出力する。   When the projection comparison process 10 receives the left projection result and the right projection result, when the number of pixels L in the horizontal direction is 12, as shown in FIG. The result is shifted to the left by 11 pixels, which is 1 less than the number of pixels L. At this time, the shifted position xc is expressed as xc = -11, with the right direction being a plus. As will be described later in detail, the projection comparison process 10 takes the absolute value of the difference at each position in the shifted state and calculates the total value S (xc) (S3). Next, the right projection result previously shifted to xc = -11 is shifted by one to the right so that xc = −10 is added to the position xc (S4). Next, in step S5, the determination condition is that the position xc is larger than the maximum. The maximum of the position xc is xc = L−1 = the previous one where the left projection result and the right projection result do not overlap. Therefore, when xc = −10, the projection comparison process 10 determines that the determination condition xc is not greater than the maximum, and the process returns to step S3 again. Thus, the projection comparison process 10 repeats the process of step S3 from xc = -11 to xc = 11. Then, xc = L = 12, and since the determination condition of step S5 is satisfied, the process proceeds to step S6. In step S6, the projection comparison processing 10 performs the position xc when the value S (xc) is the smallest value among the previously calculated values S (xc) (S (xc) = in FIG. 6B). Xc = 3), which is 0, is selected as the extraction position, and is output to the extraction processes 11 and 12 and the distance calculation process 15.

切出し処理11は、投影比較処理10から切出し位置xcを受けると、図3のように右目用の撮影画像データを切出し位置xcまでずらしたときに左目用の撮影画像データと重なる幅である切出し幅分の切出し領域の画像データを、画像分離処理5から受けた左目用の撮影画像データの右端から抽出して立体画像生成処理13に出力する(S7)。切出し処理12は、投影比較処理10から切出し位置xcを受けると、図3のように右目用の撮影画像データを切出し位置xcまでずらしたときに左目用の撮影画像データと重なる幅である切出し幅分の切出し領域の画像データを、画像分離処理6から受けた右目用の撮影画像データの左端から抽出して立体画像生成処理13に出力する(S7)。立体画像生成処理13は、切出し処理11、12から受けた画像データに基づき、立体画像表示装置14用に立体画像データを生成して出力する。立体画像表示装置14は、立体画像データを受けて、立体画像を表示する。   When the cut-out process 11 receives the cut-out position xc from the projection comparison process 10, the cut-out width is a width that overlaps the left-eye shot image data when the right-eye shot image data is shifted to the cut-out position xc as shown in FIG. The image data of the cut-out area is extracted from the right end of the left-eye photographed image data received from the image separation process 5 and output to the stereoscopic image generation process 13 (S7). When the cut-out process 12 receives the cut-out position xc from the projection comparison process 10, the cut-out width that overlaps the left-eye shot image data when the right-eye shot image data is shifted to the cut-out position xc as shown in FIG. The image data of the cut-out area is extracted from the left end of the captured image data for the right eye received from the image separation process 6 and output to the stereoscopic image generation process 13 (S7). The stereoscopic image generation process 13 generates and outputs stereoscopic image data for the stereoscopic image display device 14 based on the image data received from the clipping processes 11 and 12. The stereoscopic image display device 14 receives stereoscopic image data and displays a stereoscopic image.

一方、切出し位置xcを受けた距離算出処理15は、対象物までの距離Dcを式(4)にて算出する。
Dc=Bc・f/(Q・xc)…(4)
ここで、Bcはカメラ1とカメラ2の設置間隔
fはカメラ1およびカメラ2の焦点距離
Qは単位を合わせるための係数
xcは切出し位置
距離算出処理15は、算出した距離Dcをカメラ1およびカメラ2に出力する。カメラ1とカメラ2は、距離Dcを受けると、距離Dcに焦点をあわせる。
このため、カメラ1およびカメラ2は、撮影の対象物に焦点をあわせることができる。
On the other hand, the distance calculation process 15 that has received the cut-out position xc calculates the distance Dc to the object by the equation (4).
Dc = Bc · f / (Q · xc) (4)
Where Bc is the installation interval between camera 1 and camera 2
f is the focal length of camera 1 and camera 2
Q is a coefficient for matching units
xc is the cut-out position The distance calculation process 15 outputs the calculated distance Dc to the camera 1 and the camera 2. Upon receiving the distance Dc, the camera 1 and the camera 2 focus on the distance Dc.
For this reason, the camera 1 and the camera 2 can focus on the object to be photographed.

ここで、xc=0の場合を例にとり、先に詳述するとした投影比較処理10のステップS3における処理内容について説明する。xc=0の場合、図6(a)のように、左の投影結果である下記(1)と、ずらしていない右の投影結果である下記(2)とについて、各位置における差の絶対値をとると、下記(3)となる。
「0」、「0」、「0」、「0」、「4」、「6」、「8」、「8」、「8」、「6」、「4」、「0」…(1)
「0」、「4」、「6」、「8」、「8」、「8」、「6」、「4」、「0」、「0」、「0」、「0」…(2)
|0−0|=0、|0−4|=4、|0−6|=6、|0−8|=8、|4−8|=4、|6−8|=2、|8−6|=2、|8−4|=4、|8−0|=8、|6−0|=6、|4−0|=4、|0−0|=0、|0−0|=0…(3)
次に、(3)の各値の合計S(0)を算出すると、S(0)=0+4+6+8+4+2+2+4+8+6+4+0+0=48となる。
Here, taking the case of xc = 0 as an example, the processing contents in step S3 of the projection comparison processing 10 described in detail above will be described. When xc = 0, as shown in FIG. 6A, the absolute value of the difference at each position between the following (1) that is the left projection result and the following (2) that is the right projection result that is not shifted. The following (3) is obtained.
“0”, “0”, “0”, “0”, “4”, “6”, “8”, “8”, “8”, “6”, “4”, “0” (1) )
“0”, “4”, “6”, “8”, “8”, “8”, “6”, “4”, “0”, “0”, “0”, “0” (2) )
| 0-0 | = 0, | 0-4 | = 4, | 0-6 | = 6, | 0-8 | = 8, | 4-8 | = 4, | 6-8 | = 2, | 8 −6 | = 2, | 8-4 | = 4, | 8-0 | = 8, | 6-0 | = 6, | 4-0 | = 4, | 0-0 | = 0, | 0-0 | = 0 (3)
Next, when the sum S (0) of each value of (3) is calculated, S (0) = 0 + 4 + 6 + 8 + 4 + 2 + 2 + 4 + 8 + 6 + 4 + 0 + 0 = 48.

なお、上記実施形態において、投影比較処理10は、差の絶対値の合計S(xc)を算出する切出し位置xcの範囲を−L<xc<Lとしたが、左目用の画像に対して右目用の画像は必ず左側にずれているので、差の絶対値の合計S(xc)を算出する切出し位置xcの範囲を0≦xc<Lとすることで、計算量を少なくしてもよい。   In the above embodiment, the projection comparison process 10 sets the range of the cutout position xc for calculating the sum S (xc) of the absolute values of differences as −L <xc <L. Therefore, the amount of calculation may be reduced by setting the range of the cutout position xc for calculating the sum S (xc) of the absolute values of the differences to 0 ≦ xc <L.

また、画像分離処理5、6において、予め背景のみを撮影して取り込んだ背景画像データと比較することで、撮影の対象物を抽出する抽出画像データを生成するとしたが、スタジオなどで撮影する場合は、対象物を撮影する際に背景を特定の色のみとなるようにしておき、画像分離処理5、6において、予め該特定の色を記憶しておき、該特定の色と色が一致しない画素を対象物として抽出し、抽出画像データを生成するクロマキー処理を用いてもよい。   Further, in the image separation processes 5 and 6, the extracted image data for extracting the object to be photographed is generated by comparing with the background image data obtained by photographing only the background in advance. When shooting an object, only a specific color is used for the background, and the specific color is stored in advance in the image separation processes 5 and 6 so that the color does not match the specific color. You may use the chroma key process which extracts a pixel as a target object and produces | generates extraction image data.

また、本実施形態では、動画を対象としたが、静止画を対象としてもよい。また、カメラ1とカメラ2は平行に設置するとしたが、内側に向けるなどしてもよい。なお、カメラ1とカメラ2を平行に設置しない場合、式(4)は、カメラ1とカメラ2の配置関係に応じて、変更する必要がある。   In the present embodiment, a moving image is targeted, but a still image may be targeted. Further, although the camera 1 and the camera 2 are installed in parallel, they may be directed inward. When the camera 1 and the camera 2 are not installed in parallel, the equation (4) needs to be changed according to the arrangement relationship between the camera 1 and the camera 2.

また、本発明の他の実施形態として、本実施形態における切出し位置検出処理7に、投影処理8と投影処理9にそれぞれ抽出画像データを入力する2つの画像受付部を備えた独立した装置である切出し位置算出装置としてもよい。   As another embodiment of the present invention, the cut-out position detection process 7 according to this embodiment is an independent apparatus including two image receiving units for inputting extracted image data to the projection process 8 and the projection process 9, respectively. A cutting position calculation device may be used.

以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes a design and the like within the scope not departing from the gist of the present invention.

この発明の一実施形態による立体画像切出し装置の概要を説明する図である。It is a figure explaining the outline | summary of the stereo image cutting device by one Embodiment of this invention. 同実施形態による立体画像切出し装置の構成を示すブロック図である。It is a block diagram which shows the structure of the stereo image cutting device by the same embodiment. 同実施形態におけるカメラ1、カメラ2および撮影の対象物の位置関係を説明する図である。It is a figure explaining the positional relationship of the camera 1, the camera 2, and the imaging | photography target object in the embodiment. 同実施形態による立体画像切出し装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the stereo image cutting device by the embodiment. 同実施形態における投影処理8、9の動作を説明する図である。It is a figure explaining operation | movement of the projection processes 8 and 9 in the embodiment. 同実施形態における投影比較処理10の動作を説明する図である。It is a figure explaining operation | movement of the projection comparison process 10 in the embodiment. 従来の技術を説明する図である。It is a figure explaining the prior art.

符号の説明Explanation of symbols

1、2…カメラ
3、4…画像入力部
5、6…画像分離処理
7…切出し位置検出処理
8、9…投影処理
10…投影比較処理
11、12…切出し処理
13…立体画像生成処理
14…立体画像表示装置
15…距離算出処理

DESCRIPTION OF SYMBOLS 1, 2 ... Camera 3, 4 ... Image input part 5, 6 ... Image separation process 7 ... Extraction position detection process 8, 9 ... Projection process 10 ... Projection comparison process 11, 12 ... Extraction process 13 ... Three-dimensional image generation process 14 ... Stereoscopic image display device 15 ... distance calculation processing

Claims (7)

撮影の対象物のみが抽出されている左目用の抽出画像の入力を受け付ける第1の画像受付手段と、
前記左目用の抽出画像と同じ大きさの画像であり、撮影の対象物のみが抽出されている右目用の抽出画像の入力を受け付ける第2の画像受付手段と、
前記左目用の抽出画像または前記右目用の抽出画像を横方向に遂次ずらしつつ、前記左目用の抽出画像と前記右目用の抽出画像とを比較し、比較の結果、最も差異が少ないときの前記左目用の抽出画像または前記右目用の抽出画像の位置を切出し位置として検出する切出し位置検出手段と
を備えることを特徴とする立体画像切出し位置算出装置。
A first image receiving means for receiving an input of an extracted image for the left eye from which only an object to be photographed is extracted;
A second image receiving means for receiving an input of an extracted image for the right eye, which is an image having the same size as the extracted image for the left eye and from which only the object to be photographed is extracted;
The left-eye extraction image or the right-eye extraction image is sequentially shifted in the horizontal direction while comparing the left-eye extraction image with the right-eye extraction image. A three-dimensional image cut-out position calculating device comprising: a cut-out position detecting unit that detects a position of the extracted image for the left eye or the extracted image for the right eye as a cut-out position.
撮影の対象物のみが抽出されている左目用の抽出画像の入力を受け付ける第1の画像受付手段と、
前記左目用の抽出画像と同じ大きさの画像であり、撮影の対象物のみが抽出されている右目用の抽出画像の入力を受け付ける第2の画像受付手段と、
前記左目用の抽出画像の横方向の各画素位置における前記対象物の縦方向の画素数を算出する第1の投影手段と、
前記右目用の抽出画像の横方向の各画素位置における前記対象物の縦方向の画素数を算出する第2の投影手段と、
前記左目用の抽出画像または前記右目用の抽出画像を横方向に遂次ずらしつつ、前記第1の投影手段の算出結果と前記第2の投影手段の算出結果との各画素位置での差の絶対値を合計した値を算出し、前記算出した値が最も小さくなるときの前記左目用の抽出画像または前記右目用の抽出画像の位置を切出し位置として検出する投影比較手段と
を備えることを特徴とする立体画像切出し位置算出装置。
A first image receiving means for receiving an input of an extracted image for the left eye from which only an object to be photographed is extracted;
A second image receiving means for receiving an input of an extracted image for the right eye, which is an image having the same size as the extracted image for the left eye and from which only the object to be photographed is extracted;
First projecting means for calculating the number of pixels in the vertical direction of the object at each pixel position in the horizontal direction of the extracted image for the left eye;
Second projecting means for calculating the number of pixels in the vertical direction of the object at each pixel position in the horizontal direction of the extracted image for the right eye;
While sequentially shifting the extracted image for the left eye or the extracted image for the right eye in the horizontal direction, the difference in each pixel position between the calculation result of the first projection means and the calculation result of the second projection means Projection comparing means for calculating a value obtained by summing absolute values, and detecting a position of the extracted image for the left eye or the extracted image for the right eye when the calculated value is the smallest as a cutout position. A stereoscopic image cut-out position calculating device.
左目用の撮影画像の入力を受け付ける第1の画像入力手段と、
前記左目用の撮影画像と同じ大きさの右目用の撮影画像の入力を受け付ける第2の画像入力手段と、
前記第1の画像入力手段が受け付けた、前記左目用の撮影画像から、撮影の対象物のみを分離した左目用の抽出画像を生成する第1の画像分離手段と、
前記第2の画像入力手段が受け付けた、前記右目用の撮影画像から、撮影の対象物のみを分離した右目用の抽出画像を生成する第2の画像分離手段と、
前記左目用の抽出画像または前記右目用の抽出画像を横方向に遂次ずらしつつ、前記左目用の抽出画像と前記右目用の抽出画像とを比較し、比較の結果、最も差異が少ないときの前記左目用の抽出画像または前記右目用の抽出画像の位置を切出し位置xcとして検出する切出し位置検出手段と、
前記切出し位置検出手段が検出した切出し位置xcまで横方向にずらした前記左目用の撮影画像または前記左目用の撮影画像と、前記右目用の撮影画像または前記左目用の撮影画像とが重なる切出し領域の画像を、前記左目用の撮影画像から切出す第1の切出し手段と、
前記切出し位置検出手段が検出した切出し位置xcまで横方向にずらした前記左目用の撮影画像または前記左目用の撮影画像と、前記右目用の撮影画像または前記左目用の撮影画像とが重なる切出し領域の画像を、前記右目用の撮影画像から切出す第2の切出し手段と、
前記第1の切出し手段が切出した画像と、前記第2の切出し手段が切出した画像とから、立体画像を生成する立体画像生成手段と
を備えることを特徴とする立体画像切出し装置。
First image input means for receiving input of a left-eye photographed image;
Second image input means for accepting an input of a right-eye shot image having the same size as the left-eye shot image;
First image separation means for generating an extracted image for the left eye obtained by separating only the object to be photographed from the photographed image for the left eye received by the first image input means;
Second image separation means for generating an extracted image for the right eye obtained by separating only the object to be photographed from the photographed image for the right eye received by the second image input means;
The left-eye extraction image or the right-eye extraction image is sequentially shifted in the horizontal direction while comparing the left-eye extraction image with the right-eye extraction image. Cutout position detecting means for detecting the position of the extracted image for the left eye or the extracted image for the right eye as a cutout position xc;
A cutout region in which the left-eye shot image or the left-eye shot image and the right-eye shot image or the left-eye shot image overlap each other, shifted laterally to the cutout position xc detected by the cutout position detection unit. First cutting means for cutting out the image of the left eye photographed image,
A cutout region in which the left-eye shot image or the left-eye shot image and the right-eye shot image or the left-eye shot image overlap each other, shifted laterally to the cutout position xc detected by the cutout position detection unit. A second cutting-out means for cutting out the image from the right-eye photographed image;
A stereoscopic image extraction apparatus comprising: a stereoscopic image generation unit that generates a stereoscopic image from the image extracted by the first extraction unit and the image extracted by the second extraction unit.
前記切出し位置検出手段は、
前記左目用の抽出画像の横方向の各画素位置における前記対象物の縦方向の画素数を算出する第1の投影手段と、
前記右目用の抽出画像の横方向の各画素位置における前記対象物の縦方向の画素数を算出する第2の投影手段と、
前記左目用の抽出画像または前記右目用の抽出画像を横方向に遂次ずらしつつ、前記第1の投影手段の算出結果と前記第2の投影手段の算出結果との各画素位置での差の絶対値を合計した値を算出し、前記算出した値が最も小さくなるときの前記左目用の抽出画像または前記右目用の抽出画像の位置を切出し位置xcとして検出する投影比較手段と
を備えること
を特徴とする請求項3に記載の立体画像切出し位置算出装置。
The cutout position detecting means includes
First projecting means for calculating the number of pixels in the vertical direction of the object at each pixel position in the horizontal direction of the extracted image for the left eye;
Second projecting means for calculating the number of pixels in the vertical direction of the object at each pixel position in the horizontal direction of the extracted image for the right eye;
While sequentially shifting the extracted image for the left eye or the extracted image for the right eye in the horizontal direction, the difference in each pixel position between the calculation result of the first projection means and the calculation result of the second projection means A projection comparing means for calculating a value obtained by summing absolute values and detecting a position of the extracted image for the left eye or the extracted image for the right eye when the calculated value is the smallest as the cutout position xc. The three-dimensional image cutout position calculating device according to claim 3, wherein
焦点距離がfであり、入力された距離に焦点を合わせて、前記左目用の撮影画像を撮影する第1のカメラと、
前記第1のカメラの右側に配置間隔Bc離れた位置に、前記第1のカメラと平行に設置され、焦点距離がfであり、入力された距離に焦点を合わせて、前記右目用の撮影画像を撮影する第2のカメラと、
距離Dcを、Dc=Bc・f/(Q・xc)(Qは、単位あわせの係数)により算出し、前記距離Dcを前記第1のカメラおよび第2のカメラに出力する距離算出手段と
を備えることを特徴とする請求項3または請求項4に記載の立体画像切出し装置。
A first camera having a focal length f and focusing on the input distance to shoot the left-eye shot image;
The right-eye photographed image for the right eye, which is disposed on the right side of the first camera at a disposition distance Bc in parallel with the first camera, has a focal length of f, and focuses on the input distance. A second camera for shooting
A distance calculating unit that calculates the distance Dc by Dc = Bc · f / (Q · xc) (Q is a unit adjustment coefficient) and outputs the distance Dc to the first camera and the second camera; The stereoscopic image cutting device according to claim 3 or 4, further comprising:
コンピュータを、
撮影の対象物のみが抽出されている左目用の抽出画像の入力を受け付ける第1の画像受付手段、
前記左目用の抽出画像と同じ大きさの画像であり、撮影の対象物のみが抽出されている右目用の抽出画像の入力を受け付ける第2の画像受付手段、
前記左目用の抽出画像または前記右目用の抽出画像を横方向に遂次ずらしつつ、前記左目用の抽出画像と前記右目用の抽出画像とを比較し、比較の結果、最も差異が少ないときの前記左目用の抽出画像または前記右目用の抽出画像の位置を切出し位置として検出する切出し位置検出手段
として機能させるためのプログラム。
Computer
A first image receiving means for receiving an input of an extracted image for the left eye from which only a shooting object is extracted;
A second image receiving means for receiving an input of an extracted image for the right eye, which is an image having the same size as the extracted image for the left eye and from which only the object to be photographed is extracted;
The left-eye extraction image or the right-eye extraction image is sequentially shifted in the horizontal direction while comparing the left-eye extraction image with the right-eye extraction image. A program for functioning as cutout position detecting means for detecting the position of the extracted image for the left eye or the extracted image for the right eye as a cutout position.
コンピュータを
左目用の撮影画像の入力を受け付ける第1の画像入力手段、
前記左目用の撮影画像と同じ大きさの右目用の撮影画像の入力を受け付ける第2の画像入力手段、
前記第1の画像入力手段が受け付けた、前記左目用の撮影画像から、撮影の対象物のみを分離した左目用の抽出画像を生成する第1の画像分離手段、
前記第2の画像入力手段が受け付けた、前記右目用の撮影画像から、撮影の対象物のみを分離した右目用の抽出画像を生成する第2の画像分離手段、
前記左目用の抽出画像または前記右目用の抽出画像を横方向に遂次ずらしつつ、前記左目用の抽出画像と前記右目用の抽出画像とを比較し、比較の結果、最も差異が少ないときの前記左目用の抽出画像または前記右目用の抽出画像の位置を切出し位置として検出する切出し位置検出手段、
前記切出し位置検出手段が検出した切出し位置まで横方向にずらした前記左目用の撮影画像または前記左目用の撮影画像と、前記右目用の撮影画像または前記左目用の撮影画像とが重なる切出し領域の画像を、前記左目用の撮影画像から切出す第1の切出し手段、
前記切出し位置検出手段が検出した切出し位置まで横方向にずらした前記左目用の撮影画像または前記左目用の撮影画像と、前記右目用の撮影画像または前記左目用の撮影画像とが重なる切出し領域の画像を、前記右目用の撮影画像から切出す第2の切出し手段、
前記第1の切出し手段が切出した画像と、前記第2の切出し手段が切出した画像とから、立体画像を生成する立体画像生成手段
として機能させるためのプログラム。

First image input means for accepting an input of a left eye photographed image;
A second image input means for receiving an input of a right-eye photographed image having the same size as the left-eye photographed image;
First image separation means for generating an extracted image for the left eye obtained by separating only the object to be photographed from the photographed image for the left eye received by the first image input means;
Second image separating means for generating an extracted image for the right eye obtained by separating only the object to be photographed from the photographed image for the right eye received by the second image input means;
The left-eye extraction image or the right-eye extraction image is sequentially shifted in the horizontal direction while comparing the left-eye extraction image with the right-eye extraction image. Cutout position detecting means for detecting the position of the extracted image for the left eye or the extracted image for the right eye as a cutout position;
A cutout region in which the left-eye photographed image or the left-eye photographed image and the right-eye photographed image or the left-eye photographed image, which are laterally shifted to the cutout position detected by the cutout position detecting means, overlap. First cutout means for cutting out an image from the photographed image for the left eye;
A cutout region in which the left-eye photographed image or the left-eye photographed image and the right-eye photographed image or the left-eye photographed image, which are laterally shifted to the cutout position detected by the cutout position detecting means, overlap. A second cutting means for cutting an image from the right-eye photographed image;
A program for functioning as a stereoscopic image generating unit that generates a stereoscopic image from an image cut out by the first cutting unit and an image cut out by the second cutting unit.

JP2006008431A 2006-01-17 2006-01-17 Stereoscopic image cut-out position calculating device, program thereof, stereoscopic image cutout device, and program thereof Expired - Fee Related JP4249188B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006008431A JP4249188B2 (en) 2006-01-17 2006-01-17 Stereoscopic image cut-out position calculating device, program thereof, stereoscopic image cutout device, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006008431A JP4249188B2 (en) 2006-01-17 2006-01-17 Stereoscopic image cut-out position calculating device, program thereof, stereoscopic image cutout device, and program thereof

Publications (2)

Publication Number Publication Date
JP2007194695A true JP2007194695A (en) 2007-08-02
JP4249188B2 JP4249188B2 (en) 2009-04-02

Family

ID=38450076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006008431A Expired - Fee Related JP4249188B2 (en) 2006-01-17 2006-01-17 Stereoscopic image cut-out position calculating device, program thereof, stereoscopic image cutout device, and program thereof

Country Status (1)

Country Link
JP (1) JP4249188B2 (en)

Also Published As

Publication number Publication date
JP4249188B2 (en) 2009-04-02

Similar Documents

Publication Publication Date Title
EP2549762B1 (en) Stereovision-image position matching apparatus, stereovision-image position matching method, and program therefor
CN102939764B (en) Image processor, image display apparatus, and imaging device
US8810635B2 (en) Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional images
EP2618584B1 (en) Stereoscopic video creation device and stereoscopic video creation method
CN102722080B (en) A kind of multi purpose spatial image capture method based on many lens shootings
US8130259B2 (en) Three-dimensional display device and method as well as program
US20120120202A1 (en) Method for improving 3 dimensional effect and reducing visual fatigue and apparatus enabling the same
WO2012086120A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
US20140240471A1 (en) Method, device and apparatus for generating stereoscopic images using a non-stereoscopic camera
WO2011078066A1 (en) Device, method and program for image processing
US20160117820A1 (en) Image registration method
JP2010278878A (en) Stereoscopic image device and display image switching method thereof
JP2009210840A (en) Stereoscopic image display device and method, and program
US20130162764A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
KR20110071528A (en) Stereoscopic image, multi-view image and depth image acquisition appratus and its control method
JP2006251683A (en) Stereoscopic image photographing system
JP2013041103A (en) Image pickup apparatus, control method thereof, and program
US8711208B2 (en) Imaging device, method and computer readable medium
JP2006267767A (en) Image display device
JP4249188B2 (en) Stereoscopic image cut-out position calculating device, program thereof, stereoscopic image cutout device, and program thereof
JP4249187B2 (en) 3D image processing apparatus and program thereof
US9973745B2 (en) Stereoscopic focus point adjustment
JP2007194694A (en) Three-dimensional video photographing apparatus and program thereof
US9674500B2 (en) Stereoscopic depth adjustment
Cho et al. Stereo panoramic image stitching with a single camera

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081007

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120123

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140123

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150123

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees