JP2013115467A - Stereoscopic photographing device and portable terminal device using the same - Google Patents
Stereoscopic photographing device and portable terminal device using the same Download PDFInfo
- Publication number
- JP2013115467A JP2013115467A JP2011257274A JP2011257274A JP2013115467A JP 2013115467 A JP2013115467 A JP 2013115467A JP 2011257274 A JP2011257274 A JP 2011257274A JP 2011257274 A JP2011257274 A JP 2011257274A JP 2013115467 A JP2013115467 A JP 2013115467A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- sub
- imaging
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、カメラを搭載して立体画像が撮影可能な立体撮影装置およびそれを用いた携帯端末装置に関する。 The present invention relates to a stereoscopic imaging apparatus that can mount a camera and can capture a stereoscopic image, and a portable terminal apparatus using the same.
近年、CCDなどの固体撮像素子を搭載したカメラ機能を有する携帯電話が登場してきており、静止画及び動画が撮影可能となっている。さらには、立体画像の撮影も可能とするものも登場してきている。 In recent years, mobile phones having a camera function equipped with a solid-state imaging device such as a CCD have appeared, and still images and moving images can be taken. In addition, those that can shoot stereoscopic images have also appeared.
次に画像が3D(3Dimension:3次元)に見える原理を図に示す。
図11のような風景を例にする。図12に人間が左目から見える風景と右目から見える風景を示す。図12のように左目と右目には距離があるため、その左右に見える風景に差(視差)を感じることにより立体感が生じる。
Next, the principle that an image looks 3D (3 dimensions) is shown in the figure.
Take the scenery as shown in FIG. 11 as an example. FIG. 12 shows a landscape that a human can see from the left eye and a landscape that can be seen from the right eye. Since there is a distance between the left eye and the right eye as shown in FIG. 12, a stereoscopic effect is generated by feeling a difference (parallax) between the scenery seen on the left and right.
2D(2Dimension:2次元)の写真や動画像を、3Dに見せるには図12のように左目から見える背景(画像)と右目から見える背景(画像)をそれぞれ用意する必要がある。そして左目用の背景(画像)には左目だけで見えるようにし、そして右目用の背景(画像)には右目だけで見えるようにすると立体的に見える。3D化のための左目用画像と右目用画像を得るための技術としては次のような手法がある。 In order to display a 2D (2Dimension) photograph or moving image in 3D, it is necessary to prepare a background (image) visible from the left eye and a background (image) visible from the right eye as shown in FIG. When the background (image) for the left eye is visible only with the left eye and the background (image) for the right eye is visible only with the right eye, the image appears three-dimensional. As a technique for obtaining a left-eye image and a right-eye image for 3D conversion, there are the following methods.
次の(1)〜(3)はハードウェアによる3D撮影の従来技術の例である。(4)はソフトウェアによる3D化の従来技術の例である。 The following (1) to (3) are examples of the prior art of 3D shooting by hardware. (4) is an example of the prior art of 3D conversion by software.
(1)撮像装置に2つの同一の撮像部を平行に実装する方法(特許文献1,2参照)
図13のように、撮像装置に2つの同一の撮像部を視差の距離だけ離し、平行に実装することで左目、右目両方の画像を得ることができる。静止画像、動画像の両方を得ることができることが特徴である。
(1) Method of mounting two identical imaging units in parallel on an imaging device (see
As shown in FIG. 13, two identical imaging units are separated from each other by a parallax distance and mounted in parallel in the imaging apparatus, so that images of both the left eye and the right eye can be obtained. The feature is that both still images and moving images can be obtained.
(2)レンズ部を2つ持ち、1つの撮像部に2つの画像を撮影する方法
図14のように、撮像装置に2つのレンズを視差の距離だけ離し、平行に実装することで左目、右目両方の画像を1つのセンサに入力する。静止画像、動画像の両方を得ることができることが特徴である。
(2) Method of photographing two images in one imaging unit having two lens units As shown in FIG. 14, the left eye and the right eye are mounted on the imaging device by separating the two lenses by a distance of parallax and mounting them in parallel. Both images are input to one sensor. The feature is that both still images and moving images can be obtained.
(3)1つの撮像部のみを有する撮像装置にて、その撮像装置を平行移動させて連続して撮影する方法
図15のように、撮像装置を左目位置で撮影し画像を得る。次に手動で移動させて右目位置で撮影し、画像を得る。左目位置の画像と右目位置の画像を利用して3D画像を得る。
(3) A method of continuously capturing images by translating the imaging device with an imaging device having only one imaging unit As shown in FIG. 15, the imaging device is imaged at the left eye position to obtain an image. Next, it is moved manually and photographed at the right eye position to obtain an image. A 3D image is obtained using the image of the left eye position and the image of the right eye position.
(4)ソフトウェアによる3D化
画像を3D化するには元画像から左目から見える画像に基づいて右目から見える画像に変換する処理を行うことである。概略の流れを図16に示す。図は構造物が2つあり、その構造物を立体的に見せるための処理である。
(a)構図を識別し、画角と奥行きの情報を得る。
(b)各奥行きにある構造物A,Bを識別し、切り出す。
(c)(a)の奥行き情報に基づき構造物を、左目視点の画像と右目視点の画像に、視差分移動を行う。
(d)左目視点の画像と右目視点の画像に対し、構造物を移動して欠けている背景、構造物の隠れていた部分を補完する。
(4) 3D conversion by software In order to convert an image into 3D, a process of converting an original image into an image viewed from the right eye based on an image viewed from the left eye is performed. A schematic flow is shown in FIG. In the figure, there are two structures, and the structure is a process for making the structures appear three-dimensional.
(A) Identify the composition and obtain information on the angle of view and depth.
(B) Identify and cut out structures A and B at each depth.
(C) Based on the depth information of (a), the structure is moved by the amount of parallax between the left-eye viewpoint image and the right-eye viewpoint image.
(D) For the left-eye viewpoint image and the right-eye viewpoint image, the structure is moved to complement the missing background and the hidden part of the structure.
しかしながら、上記従来技術では次のような問題点がある。
(1)撮像装置に2つの同一の撮像部を平行に実装する方法
2つの同一の撮像部を装備する必要があり、高価であり、装置が大型化するという欠点がある。
(2)レンズ部を2つ持ち、1つの撮像部に2つの画像を撮影する方法
1つのセンサに両目の画像を得るため、それぞれの画像を分離する必要がある。またセンサのもつ縦方向の解像度(画素数)が半分以下になる。一般的にレンズが小さくなるため、感度が低くなるという欠点がある。
However, the above prior art has the following problems.
(1) Method of mounting two identical image pickup units in parallel on an image pickup device It is necessary to equip two same image pickup units, which is expensive and has the disadvantage that the device is enlarged.
(2) Method of taking two images in one imaging unit having two lens units In order to obtain images of both eyes in one sensor, it is necessary to separate the respective images. In addition, the vertical resolution (number of pixels) of the sensor is less than half. In general, since the lens becomes small, there is a drawback that sensitivity is lowered.
(3)1つの撮像部のみを有する撮像装置にて、その撮像装置を平行移動させて連続して撮影する方法
左目位置の画像と右目位置の画像の撮影時間の差が生じるため、移動対象物を撮影すると正しい3D用の画像を得られない。また動画像を得ることができないという欠点がある。
(3) A method of continuously capturing images by translating the image capturing apparatus in an image capturing apparatus having only one image capturing unit. Since there is a difference in capturing time between the image at the left eye position and the image at the right eye position, the moving object If you shoot, you will not get the correct 3D image. Moreover, there is a drawback that a moving image cannot be obtained.
(4)ソフトウェアによる3D化
(a)の構図の識別に間違いがあると、正しく3D画像が生成されない。また同様に(b)の構造物の識別を誤ると正しく3D画像が生成されない。
また、ソフトウェアにより(a)〜(d)の処理を実行するため非常に時間がかかり、リアルタイムに3D用の動画像データを作成するには処理装置に高い処理能力が必要である。
(4) 3D conversion by software If there is an error in the identification of the composition in (a), a 3D image cannot be generated correctly. Similarly, if the structure (b) is mistakenly identified, a 3D image cannot be generated correctly.
In addition, since the processes (a) to (d) are executed by software, it takes a very long time, and a high processing capacity is required for the processing apparatus to create 3D moving image data in real time.
さらに動画像を含めた画像の3D撮影をするためには(1)のように2つの同一の撮像部を用意するか1つの撮像素子に左目、右目、2つの画像が入力するように構成する必要がある。 Furthermore, in order to perform 3D imaging of images including moving images, two identical imaging units are prepared as in (1), or the left eye, right eye, and two images are input to one imaging element. There is a need.
一般の携帯端末装置では背面に撮影用に大型のイメージセンサをもつ撮像部と、TV電話などの用途に使用する小型のイメージセンサをもつ撮像部2つを備えているものが多く、同一の撮像部を2つ配置するとなると3つの撮像部が必要となり、現実的ではなかった。 Many common mobile terminal devices include an imaging unit having a large image sensor for photographing on the back side and two imaging units having a small image sensor used for a TV phone or the like. If two parts are arranged, three imaging parts are required, which is not realistic.
本発明は、斯かる実情に鑑み、正面撮影を行うメインカメラと,自分撮影用のサブカメラを利用して画像特性が良い立体画像撮影を可能とする立体撮影装置およびそれを用いた携帯端末装置を提供することを目的とする。 SUMMARY OF THE INVENTION In view of such circumstances, the present invention provides a stereoscopic camera capable of shooting a stereoscopic image with good image characteristics using a main camera that performs front-side shooting and a sub-camera for self-shooting, and a mobile terminal device using the same. The purpose is to provide.
本発明は、筐体に正面撮影用の主撮像部と自分撮影用の副撮像部とを備えた立体撮影装置において、
前記主撮像部と前記副撮像部を同一方向に配置して前記撮像部間の距離を視差とする同方向配置構造と、前記主撮像部で撮影した画像を元画像データとして用い、前記副撮像部で撮影した画像から視差情報を取得し、前記元画像データを、前記視差情報に基づいて、前記副撮像部の視差を有する画像を生成する画像データ処理部と、を備えたことを特徴とする。
The present invention provides a stereoscopic imaging device having a main imaging unit for frontal imaging and a sub-imaging unit for self-imaging in a housing.
The sub-imaging is performed using the main imaging unit and the sub-imaging unit arranged in the same direction and using the same-direction arrangement structure in which the distance between the imaging units is parallax and an image captured by the main imaging unit as original image data. An image data processing unit that acquires parallax information from an image captured by a unit and generates an image having parallax of the sub-imaging unit based on the parallax information based on the original image data. To do.
また、本発明の立体撮影装置において、前記画像データ処理部は、前記元画像データに対し構造物解析を行い、構造物と背景画像を抽出し、前記副撮像部の画像から構造物位置情報を抽出し、前記視差情報と前記構造物位置情報に基づいて、前記元画像の構造物を移動して配置することを特徴とする。 In the stereoscopic imaging device of the present invention, the image data processing unit performs a structure analysis on the original image data, extracts a structure and a background image, and extracts structure position information from the image of the sub-imaging unit. Extracting and moving and arranging the structure of the original image based on the parallax information and the structure position information.
また、本発明の立体撮影装置において、前記画像データ処理部は、前記元画像データの隠れた部分の情報を、前記副撮像部の画像から画像情報を抽出して、隠れた部分の画像を生成することを特徴とする。 Further, in the stereoscopic imaging apparatus of the present invention, the image data processing unit extracts hidden part information of the original image data, and extracts image information from the image of the sub-imaging unit, thereby generating a hidden part image. It is characterized by doing.
本発明は、前記立体撮影装置を備えたことを特徴とする携帯端末装置である。 The present invention is a portable terminal device including the stereoscopic photographing device.
本発明によれば、主撮像部で撮影した画像を元に、副撮像部で撮影した画像の視差情報から、主撮像部の特性と同じ画像を生成するので、画像特性の良い立体画像を取得することができる。
また、元画像データから構造物と背景画像を抽出し、副撮像部の画像からの視差情報と構造物位置情報を抽出して、元画像の構造物を移動して配置するので、正確な視差画像を生成できる。
また、元画像データの隠れた部分の情報を、前記副撮像部の画像から画像情報を抽出して画像生成を行うので、正確な視差画像を生成できる。
According to the present invention, since the same image as the characteristics of the main imaging unit is generated from the parallax information of the image captured by the sub-imaging unit based on the image captured by the main imaging unit, a stereoscopic image with good image characteristics is acquired. can do.
In addition, the structure and the background image are extracted from the original image data, the parallax information and the structure position information from the image of the sub-imaging unit are extracted, and the structure of the original image is moved and arranged, so that the accurate parallax An image can be generated.
In addition, since the image information is extracted from the image of the sub-imaging unit for the information of the hidden portion of the original image data, an accurate parallax image can be generated.
以下、本発明の実施の形態を添付図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the accompanying drawings.
[発明の概要]
本発明は、同一でない2つの撮像素子を用いて静止画像、動画像問わず精度の高い3D画像を得ることにある。つまり、撮影した画像特性が良い方を用いて、もう一方で撮影した画像を生成し直す処理を行い、より特性のよい画像をえるものである。したがって従来技術の「(3)1つの撮像部のみを有する撮像装置にて、その撮像装置を平行移動させて連続して撮影する方法」は本発明とは関連しない。また、従来技術の「(1)撮像装置に2つの同一の撮像部を平行に実装する方法」については同一の撮像部を持つため、それぞれの撮像部に対して同一の処理で3D画像を得ることができるが、同一の撮像部を2つ持たせることはメインの撮像素子とサブの撮像素子に同一の撮像部を持たせると端末のサイズ、形状デザインに制限が生じてしまう。またメインの撮像素子に同一の撮像部を持たせ、サブの撮像部と分けると、3つの撮像部を持たせることになり、コスト面で現実的ではない。
[Summary of Invention]
It is an object of the present invention to obtain a highly accurate 3D image regardless of whether it is a still image or a moving image using two non-identical image sensors. In other words, using the one with the better captured image characteristics, the other image is regenerated to obtain an image with better characteristics. Therefore, “(3) a method of continuously capturing images by translating the imaging device with an imaging device having only one imaging unit” is not relevant to the present invention. In addition, since “(1) a method of mounting two identical imaging units in parallel in an imaging apparatus” in the prior art has the same imaging unit, a 3D image is obtained by the same processing for each imaging unit. However, providing two identical image pickup units restricts the size and shape design of the terminal if the main image pickup device and the sub image pickup device have the same image pickup unit. Further, if the main imaging element has the same imaging unit and is separated from the sub imaging unit, three imaging units are provided, which is not practical in terms of cost.
本発明は、正面撮影用のメインカメラと、自分撮影用のサブカメラとの2つの撮像部を持つ撮影装置にて3D画像を得ることを実現することである。従来技術「(2)レンズ部に2つの視差をもたせるためのコンバージョンレンズを使用し1つの撮像部に2つの画像を撮影する方法」については、専用の構造を持たせることが必要であり、本発明とは関連しない。 The present invention realizes that a 3D image is obtained by an imaging apparatus having two imaging units, a main camera for frontal imaging and a sub camera for self-imaging. Regarding the conventional technique “(2) Method of photographing two images on one imaging unit using a conversion lens for giving two parallaxes to the lens unit”, it is necessary to provide a dedicated structure. It is not related to the invention.
ソフトウェアでの3D化については、1つの撮像部から得られた画像に対して構造解析し、3D化をするが、本発明は2つの同一でない撮像部から得られた画像に対して、1つを3D化する画像の対象とし、もう1つを3D化するための構造解析の補助、精度向上の役割を果たすための情報とする。 As for 3D conversion by software, a structure analysis is performed on an image obtained from one imaging unit, and 3D conversion is performed. However, in the present invention, one image is obtained from two non-identical imaging units. Is the object of the image to be converted to 3D, and the other is information for assisting the structural analysis for converting to 3D and for improving accuracy.
[撮像部の配置と端末構造]
本発明の立体撮影装置を用いた実施形態として携帯端末を例に説明する。2つの撮像素子を使用して3D撮影する場合においては、メインカメラとサブカメラの撮像部を水平に並べて視差を設ける必要がある。その実現例として図1、図3、図4のような構造がある。以下順に説明する。
[Imaging unit location and terminal structure]
A portable terminal will be described as an example of an embodiment using the stereoscopic imaging device of the present invention. When 3D shooting is performed using two image sensors, it is necessary to provide parallax by horizontally aligning the imaging units of the main camera and the sub camera. As an implementation example, there are structures as shown in FIGS. This will be described in order below.
<第1の実施例>
図1は、折りたたみ型の携帯端末での第1の実施例を示す図である。
携帯端末10は、上筐体11と下筐体12から構成される。上筐体11には、メイン画面13、サブ画面14が表裏に配置されている。上筐体11は、回転ヒンジ15により、携帯端末10の開閉時に下筐体12に対して180度回転することが出来る(図1(b)(f)参照)。さらに、上筐体11は、回転ヒンジ16により、3D撮影時には携帯端末11を開いた状態で、下筐体12の表面に対して180度回転して裏返しにすることができる(図1(c)〜(e)参照)。
<First embodiment>
FIG. 1 is a diagram showing a first embodiment of a foldable portable terminal.
The
メインカメラ(主撮像部)17は、下筐体12の裏面に有し、一般の被写体に向けて撮影するものである。メインカメラ17での撮影では、図1の(b)もしくは(f)の状態で、利用者がメイン画面13をファインダーとして撮影する。
サブカメラ18は、上筐体11の上部に有し、TV電話等の主に利用者本人を撮影するために使用するカメラであり、メインカメラ17よりも解像度等の特性は劣る。
The main camera (main imaging unit) 17 is provided on the back surface of the
The
図1(e)は、携帯端末10の開状態で、下筐体12に対して180度回転した状態で有り、メインカメラ17とサブカメラ18が同一方向に向けて配置されることになる。このときメインカメラ17とサブカメラ18の距離は、視差距離に該当する程度である。3D撮影時には、利用者は、図1(e)のような状態でサブ画面14をファインダーとして撮影する。図1はカメラ16,17が垂直方向に配置されているが、携帯端末10を水平にし、カメラ16,17を水平になるよう配置する。回転ヒンジ15による回転により、図1(a)の状態でメイン画面13を保護でき、図1(b)及び(f)のような状態で携帯端末10を使用可能状態とする。図1(e)の状態は、3D撮影の時にのみに使用する状態である。
FIG. 1E shows a state in which the
回転ヒンジ16部分に、メインカメラ17とサブカメラ18が同一方向を向く3D撮影モードになっているかを検出する同一方向検出部19を設ける。例えば、回転ヒンジ16の下筐体12側に磁石19a、上筐体11側に磁気センサ19bを設ける。そして。図1(e)の状態で、磁石19aと磁気センサ19bが近接して対向する位置になり、3D撮影モードを検出できる。この検出結果に基づいて、ファインダーとなっているサブ画面14に、「3Dカメラ撮影モードになったことを報知する表示」、もしくは「3Dカメラ撮影モードに入るかをどうかを問う表示」を行う機能を実装することが出来る。図1(e)以外の状態の時は、3D撮影モードにしないようにする。
The same direction detector 19 for detecting whether or not the main camera 17 and the
さらに図2(a)に示すように、加速度センサ(水平検出部)20を実装することで、メインカメラ17とサブカメラ18が水平位置になっているかを検出する。ファインダーとなっているサブ画面14に検出角度を表示する機能を実装することが出来る。図2(a)のように、水平度が3D撮影に適していれば、3D撮影可能であることをサブ画面14に表示してもよい。
Further, as shown in FIG. 2A, by mounting an acceleration sensor (horizontal detection unit) 20, it is detected whether the main camera 17 and the
また、図2(b)のように、3Dカメラ撮影モード中に3D撮影が難しくなる角度に達すると「水平になるよう促す警告メッセージ」を、サブ画面14に表示することも出来る。また、同一方向検出部19の検出結果により、3Dカメラ撮影モード中に図1(e)の状態以外になった場合には、3D撮影が不可能なため、自動で3Dカメラ撮影モードを解除する機能を実装することが出来る。 In addition, as shown in FIG. 2B, a “warning message prompting to be level” can be displayed on the sub-screen 14 when an angle at which 3D shooting becomes difficult during the 3D camera shooting mode is reached. Also, if the result of detection by the same direction detection unit 19 results in a state other than that shown in FIG. 1E during the 3D camera shooting mode, 3D shooting is not possible, so the 3D camera shooting mode is automatically canceled. Function can be implemented.
<第2の実施例>
図3は、折りたたみ型の携帯端末での第2の実施例を示す図である。
携帯端末30は、上筐体31と下筐体32から構成される。上筐体31は、さらに第1の上筐体31aと第2の上筐体31bとから構成され、第1の上筐体31aには表面側にサブ画面34が配置され、第2の上筐体31bの表面側(第1の上筐体31aの表面とは反対側の面)にメイン画面33が配置されている。上筐体31は回転ヒンジ35を有し、携帯端末30の開閉時に下筐体32に対して180度回転することが出来る(図3(b)参照)。さらに第1の上筐体31aと第2の上筐体31bとの間にサイクロイド回転構造を有し、90度回転することが出来る(図3(c)〜(e)参照)。メインカメラ36は下筐体32の裏面に有し、メインカメラ36での撮影では図3の(c)もしくは(e)の状態でメイン画面33をファインダーとして撮影する。
<Second embodiment>
FIG. 3 is a diagram illustrating a second embodiment of the folding portable terminal.
The
サブカメラ37は第2の上筐体31bの上部に配置され、TV電話等の主に利用者本人を撮影するために使用するカメラである。3D撮影時には、図3(g)のような状態で、サブ画面34をファインダーとして撮影する。図3(g)の状態では、カメラ36,37は水平方向に配置され、3D撮影モードとして撮影が可能となる。
The
同一方向検出部として磁石39aと磁気センサ39bを設け、磁石39aは下筐体32、磁気センサ39bは第2の上筐体31bに設ける。その機能は、第1の実施例と同じなので詳しい説明は省略する。
また、水平方向検出部として加速度センサを設けるのも第1の実施例と同じなので詳しい説明は省略する。
A
Further, since an acceleration sensor is provided as a horizontal direction detection unit as in the first embodiment, detailed description thereof is omitted.
<第3の実施例>
図4は、折りたたみ型の携帯端末での第3の実施例を示す図である。
携帯端末50は、上筐体51と下筐体52から構成される。上筐体51には、メイン画面53、サブ画面54が表裏に配置されている。上筐体51は、回転ヒンジ55により、携帯端末50の開閉時に下筐体52に対して180度回転することが出来る。
メインカメラ(主撮像部)57は、下筐体52の裏面に有し、一般の被写体に向けて撮影するものである。メインカメラ17での撮影では、利用者がメイン画面53をファインダーとして撮影する。
<Third embodiment>
FIG. 4 is a diagram showing a third embodiment of the folding portable terminal.
The
The main camera (main imaging unit) 57 is provided on the back surface of the
サブカメラ18は、上筐体11の上部に有し、TV電話等の主に利用者本人を撮影するために使用するカメラであり、メインカメラ17よりも解像度等の特性は劣る。
The
サブカメラ58は上筐体51の上部に有し、TV電話等の主に本人を撮影するために使用するカメラである。本人撮影には(a)の状態で、3D撮影時には(c)のような状態でサブ画面54をファインダーとして撮影する。
The
本実施例は3D撮影のためにサブカメラ58に回転機構を実装しており、180度の回転が可能である。従って、向きを上筐体51の表面から裏面へと向きを変えることができる((a)〜(c))。サブカメラ58の向きをセンサで検知し、(c)の方向にカメラが向いたとき、自動的に3D撮影のモードに入ることも可能である。
In this embodiment, a rotation mechanism is mounted on the
実施例では折りたたみ型の携帯端末であるが、とくに折りたたみ型である必要性はない。また、サブカメラ58に回転機構を実施しているため、図1、図3と異なり、メイン画面をファインダーとして使用できるためより快適な撮影が可能である。
In the embodiment, the portable terminal is a foldable type, but it is not particularly necessary to be a foldable type. In addition, since the rotation mechanism is implemented in the
メイン画面をファインダーとして使用せず、サブ画面をファインダーとして使用する場合にはメインカメラに回転機構を有してもよい。本構造においても図2(b)のように3Dカメラ撮影モード中に3D撮影が難しくなる角度に達すると水平になるよう促す警告メッセージを出すことも出来る。また3Dカメラ撮影モード中に図4(c)の状態以外になった場合には3D撮影が不可能なため自動で3Dカメラ撮影前のモードに戻るようにすることが出来る。 When the main screen is not used as a finder and the sub screen is used as a finder, the main camera may have a rotation mechanism. Also in this structure, as shown in FIG. 2 (b), a warning message for prompting to be horizontal can be issued when an angle at which 3D shooting becomes difficult is reached during the 3D camera shooting mode. Further, when the state other than the state shown in FIG. 4C occurs during the 3D camera shooting mode, 3D shooting is impossible, so that the mode before the 3D camera shooting can be automatically returned.
[携帯端末の機能構成]
上記に説明した携帯端末の機能構成について説明する。
図5は、メインカメラとサブカメラを有して立体撮影を可能とする携帯端末の機能構成を示すブロック図である。この携帯端末100は、メインカメラ(主撮像部)110、サブカメラ(副撮像部)111、同一方向検出部120、水平検出部121、処理部130、表示部150,151、RAM160、ROM161、補助記憶装置162の各機能ブロックから構成される。メインカメラ110にはイメージセンサ112、サブカメラ111にはイメージセンサ113が備えられている。処理部130には、ビデオI/F131,132、センサI/F133、画像データ処理部135、CPU136、ディスプレイI/F137,138が備えられている。
以下に各部の説明をする。
[Functional configuration of mobile terminal]
A functional configuration of the mobile terminal described above will be described.
FIG. 5 is a block diagram illustrating a functional configuration of a mobile terminal that has a main camera and a sub camera and enables stereoscopic shooting. The portable terminal 100 includes a main camera (main imaging unit) 110, a sub camera (sub imaging unit) 111, a same
Each part will be described below.
・カメラ110,111
上述したように、メインカメラ110は、正面撮影用の撮像部である。一方、サブカメラ111は、利用者自身を撮影する撮像部である。
メインカメラ110とサブカメラ111にはイメージセンサ112と113がそれぞれ備えられている。イメージセンサ112,113は、レンズから入射した光を取り込み、その光を電気信号に変換する半導体素子である。
図5のように素子をマトリックス状(ROW−COLMN)に配置し、被写体をセンサの受光面に結像させ、結像した像の光の明暗を電気信号に変換して、変換した信号を順次読み出すことで、画像データとして得ることができる。
一般的に素子の受光面積が広いほど受光感度が上がり、素子数が多くなればなるほど画像の解像度が高くなる。携帯端末のような背面と表面の両方に撮像部を持つ端末は目的別に背面側には大面積、高解像度の撮像部が使用され、表面側には背面と比較し、小面積で低解像度の撮像部が使用されることが多い。
・
As described above, the main camera 110 is an imaging unit for front-side shooting. On the other hand, the
The main camera 110 and the
As shown in FIG. 5, the elements are arranged in a matrix (ROW-COLMN), the subject is imaged on the light receiving surface of the sensor, the light and darkness of the imaged image is converted into an electrical signal, and the converted signals are sequentially By reading, it can be obtained as image data.
In general, the larger the light receiving area of the element, the higher the light receiving sensitivity, and the larger the number of elements, the higher the resolution of the image. A terminal with an imaging unit on both the back and front, such as a portable terminal, uses a large-area, high-resolution imaging unit on the back side for each purpose, and has a small area and low resolution on the front side compared to the back side. An imaging unit is often used.
・同一方向検出部120、水平検出部121
同一方向検出部120は、メインカメラ110とサブカメラ111が同一方向を向いて配置されているかを検出するセンサであり、図1に示す磁石と磁気センサに該当する。同一方向検出部120により携帯端末110が3D撮影モードにできるかを検出する。
水平検出部121は、図1に示す加速度センサに該当するものであり、メインカメラ110とサブカメラ111が3D撮影に適する水平位置にあるかを検出するものである。
The same
The same
The
・処理部
ビデオI/F131,132は、メインカメラ110とサブカメラ111から検出された画像データが入力され、画像データ処理部135に送る。
センサI/F133は、同一方向検出部120と水平検出部121から検出結果が入力され、CPU136に送る。
画像データ処理部135は、CPU136から与えられたパラメータや命令に従い、イメージセンサ112,113からの画像データを取得しRAM160やCPU136に出力する。表示を行うためにイメージセンサ112,113からの取得したデータやCPU136/RAM160からの画像データを表示部(メイン画面150、サブ画面151)への出力を行う。また、画像のデータの入出力時に色情報や解像度の変換を行う。
CPU136は、ROM161に格納されたプログラムを処理、実行し、携帯端末100の3D撮像システムを起動する。そして、補助記憶装置162に格納されたプログラムをRAM160に転送し、RAM160に一時格納されたプログラムを処理、実行する。
ディスプレイI/F137,138は、画像データ処理部135の処理データを表示部150,151に送る。
Processing Unit The video I /
The sensor I /
The image
The
The display I /
・ROM(Read Only Memory)161
コンピュータを動作させるための基本プログラム(IPL:Initial Program Loader/OS:Operating System)や固定データが格納されている。
-ROM (Read Only Memory) 161
A basic program (IPL: Initial Program Loader / OS: Operating System) for operating the computer and fixed data are stored.
・RAM(Random Access Memory)160
プログラムを実行するための作業領域やイメージセンサ112,113から得られた画像データを一時的に格納するための記憶装置である。補助記憶装置162より本発明に使用されるプログラムを高速に実行するために一時的に読み出し、格納する。処理部130はそのプログラムをRAM160から読み出し、実行する。
-RAM (Random Access Memory) 160
This is a storage device for temporarily storing a work area for executing a program and image data obtained from the
・補助記憶装置162
一般的には磁気記録装置HDD(Hard Disk Drive)、半導体記録装置SSD(Solid State Drive)、光学式記録装置(CD,DVD,BLU−RAY Disk)等を指す。プログラムや、画像データ、動画像データを格納する。従って、本発明に使用される3D処理用プログラムも格納されている。またイメージセンサ112,113の色や解像度の変換のための情報が格納されている。
Generally, it refers to a magnetic recording device HDD (Hard Disk Drive), a semiconductor recording device SSD (Solid State Drive), an optical recording device (CD, DVD, BLU-RAY Disk) and the like. Stores programs, image data, and moving image data. Therefore, a 3D processing program used in the present invention is also stored. Information for converting the color and resolution of the
・表示部(メイン画面150、サブ画面151)
処理部130より表示用のデータを受け取り、表示する。例えばイメージセンサ112,113から得たRAM160に格納されたデータを表示部150に出力し、表示する。
Display unit (
Data for display is received from the
[3D画像データ処理]
撮像装置に異なる特性をもつ2つの撮像部を平行に配置し3D画像を得る方法では、ソフトウェアによる画像解析を必要とせずに3D画像を得ることができる。しかしながら、サブカメラの解像度/色特性の基本的に特性の悪いほうを基準とした3D画像となる。高解像度、高(色特性)品位の画像で3D化するにはメインカメラの画像を基準としたほうがよい。
[3D image data processing]
In a method for obtaining a 3D image by arranging two imaging units having different characteristics in parallel in an imaging apparatus, a 3D image can be obtained without requiring image analysis by software. However, the resolution / color characteristics of the sub camera are basically 3D images based on the poor characteristics. In order to make 3D images with high resolution and high (color characteristic) quality, it is better to use the image of the main camera as a reference.
図6は、メインカメラ画像を基準としたソフトウェアの画像解析による3D化の例を示す図である。3D化の処理手順は図16のソフトウェアによる3D化と同様である。
(a)は3D化の右目画像を作成するための元となるメインカメラ撮影による左目画像である。(e)はメインカメラ撮影時に同時に撮影した右目位置にあるサブカメラ撮影画像である。従来では(a)の画像データから構図を解析し構図物を抽出していたが、さらに(f)のサブカメラ撮影画像から視差分の画像差を抽出し、確実に構造物を得ることが出来る。
FIG. 6 is a diagram showing an example of 3D conversion by software image analysis based on the main camera image. The processing procedure for 3D conversion is the same as that for 3D conversion by software shown in FIG.
(A) is a left-eye image taken by the main camera, which is a source for creating a 3D right-eye image. (E) is a sub-camera photographed image at the right eye position photographed simultaneously with the main camera photographing. Conventionally, the composition was extracted by analyzing the composition from the image data of (a), but further, the structure can be reliably obtained by extracting the image difference corresponding to the parallax from the image captured by the sub camera of (f). .
(b)では構造物を確定し、背景画像からの切り出しを行う。(g)では、サブカメラの画像から構造物位置情報を抽出し、(c)では、それに基づいて構造物をメインカメラで得られた画像位置から移動する。従来では移動位置は構造解析を実施し、奥行き情報から移動位置を推測して移動していたため、精度が十分ではなかったが、このような処理を行うことにより、精度を高めることができる。 In (b), the structure is confirmed and cut out from the background image. In (g), structure position information is extracted from the image of the sub camera, and in (c), the structure is moved from the image position obtained by the main camera based on the extracted position information. Conventionally, the moving position is structurally analyzed and moved by estimating the moving position from the depth information. Therefore, the accuracy is not sufficient. However, by performing such processing, the accuracy can be improved.
(d)では、背景と隠れたオブジェクトを補正する。従来では隠れた部分については画像情報がないため、周囲の情報から推測にて補正をしており、間違った補正をする可能性があったが、(h)のように、サブカメラ画像の画像情報からメインカメラで撮影した画像では隠れた部分の画像情報を生成するので、間違いのない補正が可能である。 In (d), the background and the hidden object are corrected. Conventionally, since there is no image information for the hidden part, the correction was made by guessing from the surrounding information, and there was a possibility that the correction was incorrect, but as shown in (h), the image of the sub-camera image Since the image information of the hidden part is generated from the information captured by the main camera from the information, correction without error is possible.
[3D撮影における動作]
図7は、センサを利用した3D撮影モードへの移行の動作を示すフローチャートである。機能ブロックが図5、端末構造が図1、図2であるとして、説明する。
[Operation in 3D shooting]
FIG. 7 is a flowchart showing an operation of shifting to the 3D shooting mode using the sensor. Description will be made assuming that the functional block is FIG. 5 and the terminal structure is FIG. 1 and FIG.
CPU136が同一方向検出部120である磁気センサ19bのON/OFFを検出する(ステップS1)。ステップS2において、磁気センサ19bがONしていれば(磁気センサ19bが磁石19aに近接していれば)、CPU136は水平検出部121である加速度センサ20による携帯端末100(図1では携帯端末10)の傾きを検出する(ステップS3)。ステップS4において、携帯端末100が水平位置になっていれば(3D撮影可能な角度の範囲内になっていれば)、ステップS5に進む。ステップS2,S4において、NOであれば、ステップS1に戻る。
The
ステップS5において、CPU136は、3D撮影モードへ自動的に移行させる。もしくは、CPU136は3D撮影モードへ移行するかどうかのメッセージを画像データ処理部135に生成させ、表示部150,151のいずれかに表示させる。
In step S5, the
再び、CPU136が同一方向検出部120である磁気センサ19bのON/OFFを検出する(ステップS6)。ステップS7において、磁気センサ19bがONしていれば(磁気センサ19bが磁石19aに近接していれば)、CPU136は水平検出部121である加速度センサ20による携帯端末100(図1では携帯端末10)の傾きを検出する(ステップS8)。ステップS9において、携帯端末100が水平位置になっていれば(3D撮影可能な角度の範囲内になっていれば)、ステップS10に進み、CPU136は、3D撮影モードを維持する。ステップS9において、NOであれば、ステップS6に戻る。
Again, the
ステップS7において、NOであれば、ステップS11において、CPU136は、3D撮影モードから、元のモードへ自動で戻す。若しくは、CPU136は、元の撮影モードへ移行するかどうかのメッセージを画像データ処理部135に生成させ、表示部150,151のいずれかに表示させる。
If NO in step S7, the
図8、図9、図10は、メインカメラの画像データに基づいて、サブカメラの画像情報を参照しながらサブカメラの画像を生成する処理を示すフローチャートである。メインカメラの画像とサブカメラの画像では解像度や、色情報の違いはあるが右目側の画像データとして参照できるため、メインカメラ画像から、高い精度で3D用の右目画像データの作成が可能である。図5の機能ブロックと図6を参照しながら説明する。 FIG. 8, FIG. 9, and FIG. 10 are flowcharts showing processing for generating an image of the sub camera based on the image data of the main camera while referring to the image information of the sub camera. Although there are differences in resolution and color information between the image of the main camera and the image of the sub camera, it can be referred to as image data on the right eye side, so it is possible to create right eye image data for 3D with high accuracy from the main camera image. . This will be described with reference to the functional block of FIG. 5 and FIG.
ステップS21において、画像データ処理部135は、メインカメラ110により撮影した撮影画像データ(図6(a))の構造物解析を行う。そして、ステップS22において、メインカメラ110の撮像画像データのなかで、3D化可能性のあるオブジェクト(構造物)の抽出し、そのオブジェクトの形状、座標の抽出を行う(図6(b))。3D化可能性のあるオブジェクト数=M個とする。図6(b)では構造物A、Bの2つである。各オブジェクトの形状、座標等のデータをRAM160内に配列MO(M)として格納する。
In step S <b> 21, the image
ステップS23において、サブカメラ111の撮影画像データ(図6(e))の構造物解析を行う。そして、ステップS24において、サブカメラの3D化可能性のあるオブジェクトの抽出を行う(図6(f))。オブジェクトの形状、座標の抽出が抽出され、3D化可能性のあるオブジェクト数=S個とする。各オブジェクトの形状、座標等のデータをRAM160内に配列SO(S)として格納する。
In step S23, the structure analysis of the captured image data of the sub camera 111 (FIG. 6E) is performed. In step S24, an object that can be converted into 3D from the sub camera is extracted (FIG. 6F). Extraction of the shape and coordinates of the object is extracted, and the number of objects that can be converted to 3D = S. Data such as the shape and coordinates of each object is stored in the
ステップS25において、画像データ処理部135は、変数K=0、配列変数MK(0:M−1)=0とする。ここで、変数Kとは、3D化オブジェクト数を表わす。配列変数MK(0:M−1)は、3D化するオブジェクト番号を示し、MK(0:M−1)=0であれば、「3D対象でない」ということであり、MK(0:M−1)=1であれば、「3D対象である」ということである。
In step S25, the image
ステップS26において、画像データ処理部135は、ループカウンターに対し、I=0とする。ステップS27において、I=Mかを確認し、NOであればステップS28に進み、YESであれば、ステップS35に進む。
In step S26, the image
ステップS28において、画像データ処理部135は、ループカウンターに対し、J=0とする。ステップS29において、J=Sかを確認し、NOであればステップS30に進み、YESであれば、ステップS33に進む。
In step S28, the image
ステップS30において、画像データ処理部135は、メインカメラオブジェクトMO(I)とサブカメラオブジェクトSO(J)は同一形状かを確認する。同一形状であれば、ステップS31において、メインカメラのオブジェクトMO(I)とサブカメラのオブジェクトSO(J)は視差分座標がずれた位置にあるかを確認する。視差分座標がずれた位置にあれば、ステップS32に進む。
ステップS30、31において、NOであれば、ステップS34において、J=J+1とする。
In step S30, the image
If NO in steps S30 and 31, J = J + 1 in step S34.
ステップS32において、K=K+1、MK(I)=1とする。ステップS33において、I=I+1とし、ステップS27に戻る。 In step S32, K = K + 1 and MK (I) = 1. In step S33, I = I + 1 is set, and the process returns to step S27.
ステップS35において、I=0とし、ステップS36において、K=Iであるかを確認する。YESであれば、処理は終了する。
K=Iでなければ、ステップS37において、MO(MK(I))のオブジェクトデータの座標をSO(MK(I))のオブジェクトデータの座標に変更に変更する。
In step S35, I = 0, and in step S36, it is confirmed whether K = I. If yes, the process ends.
If K = I is not satisfied, in step S37, the coordinates of the object data of MO (MK (I)) are changed to the coordinates of the object data of SO (MK (I)).
ステップS38において、画像データ処理部135は、移動したMO(MK(I))のオブジェクトデータの座標で隠れた部分のデータをSO(MK(I))の周囲データを参照して補正する。そして、ステップS39においてK=K+1とし、ステップS36に戻る。
In step S <b> 38, the image
こうして、メインカメラで撮影した画像を元に、サブカメラで撮影した画像の情報から、メインカメラの特性と同じ画像を生成するので、画像特性の良い立体画像を取得することができる。 In this way, since the same image as the characteristics of the main camera is generated from the information of the image captured by the sub camera based on the image captured by the main camera, a stereoscopic image with good image characteristics can be acquired.
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and the design and the like within the scope of the present invention are also within the scope of the claims. include.
10,30,50,100 携帯端末
11,31,51 上筐体
12,32,52 下筐体
13,33,53,150 表示部(メイン画面)
14,34,54,151 表示部(サブ画面)
15,16,35 回転ヒンジ
17,36,57,110 メインカメラ(主撮像部)
18,37,58,111 サブカメラ(副撮像部)
19a 磁石
19b 磁気センサ
20 加速度センサ
112,113 イメージセンサ
120 同一方向検出部
121 水平検出部
130 処理部
135 画像データ処理部
136 CPU
10, 30, 50, 100
14, 34, 54, 151 Display section (sub-screen)
15, 16, 35 Rotating hinges 17, 36, 57, 110 Main camera (main imaging unit)
18, 37, 58, 111 Sub camera (sub imaging unit)
Claims (4)
前記主撮像部と前記副撮像部を同一方向に配置して前記撮像部間の距離を視差とする同方向配置構造と、
前記主撮像部で撮影した画像を元画像データとして用い、前記副撮像部で撮影した画像から視差情報を取得し、前記元画像データを、前記視差情報に基づいて、前記副撮像部の視差を有する画像を生成する画像データ処理部と、
を備えたことを特徴とする立体撮影装置。 In a stereoscopic imaging device having a main imaging unit for frontal imaging and a sub-imaging unit for self-imaging in a housing,
A same-direction arrangement structure in which the main imaging unit and the sub-imaging unit are arranged in the same direction and the distance between the imaging units is parallax;
The image captured by the main imaging unit is used as original image data, parallax information is acquired from the image captured by the sub imaging unit, and the parallax of the sub imaging unit is obtained based on the parallax information. An image data processing unit for generating an image having;
A stereoscopic photographing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011257274A JP2013115467A (en) | 2011-11-25 | 2011-11-25 | Stereoscopic photographing device and portable terminal device using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011257274A JP2013115467A (en) | 2011-11-25 | 2011-11-25 | Stereoscopic photographing device and portable terminal device using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013115467A true JP2013115467A (en) | 2013-06-10 |
Family
ID=48710669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011257274A Pending JP2013115467A (en) | 2011-11-25 | 2011-11-25 | Stereoscopic photographing device and portable terminal device using the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013115467A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101451813B1 (en) * | 2013-02-07 | 2014-10-16 | 주식회사 로커스 | Method for processing image using top-view matrix when making three-dimensional image and image processing device using the same and record medium having the same |
-
2011
- 2011-11-25 JP JP2011257274A patent/JP2013115467A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101451813B1 (en) * | 2013-02-07 | 2014-10-16 | 주식회사 로커스 | Method for processing image using top-view matrix when making three-dimensional image and image processing device using the same and record medium having the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102013978B1 (en) | Method and apparatus for fusion of images | |
EP2518993A1 (en) | Image capturing device, azimuth information processing method, and program | |
TWI433530B (en) | Camera system and image-shooting method with guide for taking stereo photo and method for automatically adjusting stereo photo | |
JP4763827B2 (en) | Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program | |
WO2015081563A1 (en) | Method for generating picture and twin-lens device | |
WO2015192547A1 (en) | Method for taking three-dimensional picture based on mobile terminal, and mobile terminal | |
KR20140000205A (en) | Image processing device, imaging device, and image processing method and program | |
JP2009200560A (en) | Imaging apparatus, imaging method, and program | |
JP2011259168A (en) | Stereoscopic panoramic image capturing device | |
JP2012085258A (en) | Camera body, imaging device, camera body control method, program, and recording medium on which program is recorded | |
JPWO2011086636A1 (en) | Stereo image pickup device, stereo image pickup method, stereo image display device, and program | |
TW201224635A (en) | Image processing device, image capture device, image processing method, and program | |
JP5923595B2 (en) | Image processing apparatus and method, and imaging apparatus | |
JP5614268B2 (en) | Image processing apparatus, image processing method, and program | |
JP5214547B2 (en) | Image display apparatus and method, and program | |
JP2010226362A (en) | Imaging apparatus and control method thereof | |
JP2016504828A (en) | Method and system for capturing 3D images using a single camera | |
JP6016180B2 (en) | Image processing method and image processing apparatus | |
JP2010114577A (en) | Imaging apparatus, image processor, control method and image processing method of imaging apparatus | |
WO2012014347A1 (en) | Camera body, interchangeable lens unit, image capturing device, method for controlling camera body, program, and recording medium on which program is recorded | |
JP2013113877A (en) | Stereoscopic photographing device, and portable terminal device using the same | |
JP2013115467A (en) | Stereoscopic photographing device and portable terminal device using the same | |
JP2012085252A (en) | Image generation device, image generation method, program, and recording medium with program recorded thereon | |
JP2016036081A (en) | Image processing device, method and program, and recording medium | |
JP2011135374A (en) | Three-dimensional digital camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140918 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150618 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150714 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151117 |