JP2013115467A - Stereoscopic photographing device and portable terminal device using the same - Google Patents

Stereoscopic photographing device and portable terminal device using the same Download PDF

Info

Publication number
JP2013115467A
JP2013115467A JP2011257274A JP2011257274A JP2013115467A JP 2013115467 A JP2013115467 A JP 2013115467A JP 2011257274 A JP2011257274 A JP 2011257274A JP 2011257274 A JP2011257274 A JP 2011257274A JP 2013115467 A JP2013115467 A JP 2013115467A
Authority
JP
Japan
Prior art keywords
image
camera
sub
imaging
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011257274A
Other languages
Japanese (ja)
Inventor
Hirotsugu Ota
洋次 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011257274A priority Critical patent/JP2013115467A/en
Publication of JP2013115467A publication Critical patent/JP2013115467A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic photographing device capable of stereoscopic image photographing of a still image or moving image by using a main camera for front photographing and a sub-camera for photographing a photographer, and to provide a portable terminal device using the same.SOLUTION: The image data processing part 135 determines a structure from an image of the main camera 110, and cuts it out from a background image. Structure position information is extracted from an image of the sub-camera 111 and, based on this, the structure is moved from a camera position obtained by a main camera. The background and a hidden object are corrected. In addition, image information about a portion hidden in an image photographed by the main camera 110 is created from information about the image of the sub-camera 111. Accordingly error-free correction is possible.

Description

本発明は、カメラを搭載して立体画像が撮影可能な立体撮影装置およびそれを用いた携帯端末装置に関する。   The present invention relates to a stereoscopic imaging apparatus that can mount a camera and can capture a stereoscopic image, and a portable terminal apparatus using the same.

近年、CCDなどの固体撮像素子を搭載したカメラ機能を有する携帯電話が登場してきており、静止画及び動画が撮影可能となっている。さらには、立体画像の撮影も可能とするものも登場してきている。   In recent years, mobile phones having a camera function equipped with a solid-state imaging device such as a CCD have appeared, and still images and moving images can be taken. In addition, those that can shoot stereoscopic images have also appeared.

次に画像が3D(3Dimension:3次元)に見える原理を図に示す。
図11のような風景を例にする。図12に人間が左目から見える風景と右目から見える風景を示す。図12のように左目と右目には距離があるため、その左右に見える風景に差(視差)を感じることにより立体感が生じる。
Next, the principle that an image looks 3D (3 dimensions) is shown in the figure.
Take the scenery as shown in FIG. 11 as an example. FIG. 12 shows a landscape that a human can see from the left eye and a landscape that can be seen from the right eye. Since there is a distance between the left eye and the right eye as shown in FIG. 12, a stereoscopic effect is generated by feeling a difference (parallax) between the scenery seen on the left and right.

2D(2Dimension:2次元)の写真や動画像を、3Dに見せるには図12のように左目から見える背景(画像)と右目から見える背景(画像)をそれぞれ用意する必要がある。そして左目用の背景(画像)には左目だけで見えるようにし、そして右目用の背景(画像)には右目だけで見えるようにすると立体的に見える。3D化のための左目用画像と右目用画像を得るための技術としては次のような手法がある。   In order to display a 2D (2Dimension) photograph or moving image in 3D, it is necessary to prepare a background (image) visible from the left eye and a background (image) visible from the right eye as shown in FIG. When the background (image) for the left eye is visible only with the left eye and the background (image) for the right eye is visible only with the right eye, the image appears three-dimensional. As a technique for obtaining a left-eye image and a right-eye image for 3D conversion, there are the following methods.

次の(1)〜(3)はハードウェアによる3D撮影の従来技術の例である。(4)はソフトウェアによる3D化の従来技術の例である。   The following (1) to (3) are examples of the prior art of 3D shooting by hardware. (4) is an example of the prior art of 3D conversion by software.

(1)撮像装置に2つの同一の撮像部を平行に実装する方法(特許文献1,2参照)
図13のように、撮像装置に2つの同一の撮像部を視差の距離だけ離し、平行に実装することで左目、右目両方の画像を得ることができる。静止画像、動画像の両方を得ることができることが特徴である。
(1) Method of mounting two identical imaging units in parallel on an imaging device (see Patent Documents 1 and 2)
As shown in FIG. 13, two identical imaging units are separated from each other by a parallax distance and mounted in parallel in the imaging apparatus, so that images of both the left eye and the right eye can be obtained. The feature is that both still images and moving images can be obtained.

(2)レンズ部を2つ持ち、1つの撮像部に2つの画像を撮影する方法
図14のように、撮像装置に2つのレンズを視差の距離だけ離し、平行に実装することで左目、右目両方の画像を1つのセンサに入力する。静止画像、動画像の両方を得ることができることが特徴である。
(2) Method of photographing two images in one imaging unit having two lens units As shown in FIG. 14, the left eye and the right eye are mounted on the imaging device by separating the two lenses by a distance of parallax and mounting them in parallel. Both images are input to one sensor. The feature is that both still images and moving images can be obtained.

(3)1つの撮像部のみを有する撮像装置にて、その撮像装置を平行移動させて連続して撮影する方法
図15のように、撮像装置を左目位置で撮影し画像を得る。次に手動で移動させて右目位置で撮影し、画像を得る。左目位置の画像と右目位置の画像を利用して3D画像を得る。
(3) A method of continuously capturing images by translating the imaging device with an imaging device having only one imaging unit As shown in FIG. 15, the imaging device is imaged at the left eye position to obtain an image. Next, it is moved manually and photographed at the right eye position to obtain an image. A 3D image is obtained using the image of the left eye position and the image of the right eye position.

(4)ソフトウェアによる3D化
画像を3D化するには元画像から左目から見える画像に基づいて右目から見える画像に変換する処理を行うことである。概略の流れを図16に示す。図は構造物が2つあり、その構造物を立体的に見せるための処理である。
(a)構図を識別し、画角と奥行きの情報を得る。
(b)各奥行きにある構造物A,Bを識別し、切り出す。
(c)(a)の奥行き情報に基づき構造物を、左目視点の画像と右目視点の画像に、視差分移動を行う。
(d)左目視点の画像と右目視点の画像に対し、構造物を移動して欠けている背景、構造物の隠れていた部分を補完する。
(4) 3D conversion by software In order to convert an image into 3D, a process of converting an original image into an image viewed from the right eye based on an image viewed from the left eye is performed. A schematic flow is shown in FIG. In the figure, there are two structures, and the structure is a process for making the structures appear three-dimensional.
(A) Identify the composition and obtain information on the angle of view and depth.
(B) Identify and cut out structures A and B at each depth.
(C) Based on the depth information of (a), the structure is moved by the amount of parallax between the left-eye viewpoint image and the right-eye viewpoint image.
(D) For the left-eye viewpoint image and the right-eye viewpoint image, the structure is moved to complement the missing background and the hidden part of the structure.

特開2005−250396号公報JP 2005-250396 A 特開2006−345246号公報JP 2006-345246 A

しかしながら、上記従来技術では次のような問題点がある。
(1)撮像装置に2つの同一の撮像部を平行に実装する方法
2つの同一の撮像部を装備する必要があり、高価であり、装置が大型化するという欠点がある。
(2)レンズ部を2つ持ち、1つの撮像部に2つの画像を撮影する方法
1つのセンサに両目の画像を得るため、それぞれの画像を分離する必要がある。またセンサのもつ縦方向の解像度(画素数)が半分以下になる。一般的にレンズが小さくなるため、感度が低くなるという欠点がある。
However, the above prior art has the following problems.
(1) Method of mounting two identical image pickup units in parallel on an image pickup device It is necessary to equip two same image pickup units, which is expensive and has the disadvantage that the device is enlarged.
(2) Method of taking two images in one imaging unit having two lens units In order to obtain images of both eyes in one sensor, it is necessary to separate the respective images. In addition, the vertical resolution (number of pixels) of the sensor is less than half. In general, since the lens becomes small, there is a drawback that sensitivity is lowered.

(3)1つの撮像部のみを有する撮像装置にて、その撮像装置を平行移動させて連続して撮影する方法
左目位置の画像と右目位置の画像の撮影時間の差が生じるため、移動対象物を撮影すると正しい3D用の画像を得られない。また動画像を得ることができないという欠点がある。
(3) A method of continuously capturing images by translating the image capturing apparatus in an image capturing apparatus having only one image capturing unit. Since there is a difference in capturing time between the image at the left eye position and the image at the right eye position, the moving object If you shoot, you will not get the correct 3D image. Moreover, there is a drawback that a moving image cannot be obtained.

(4)ソフトウェアによる3D化
(a)の構図の識別に間違いがあると、正しく3D画像が生成されない。また同様に(b)の構造物の識別を誤ると正しく3D画像が生成されない。
また、ソフトウェアにより(a)〜(d)の処理を実行するため非常に時間がかかり、リアルタイムに3D用の動画像データを作成するには処理装置に高い処理能力が必要である。
(4) 3D conversion by software If there is an error in the identification of the composition in (a), a 3D image cannot be generated correctly. Similarly, if the structure (b) is mistakenly identified, a 3D image cannot be generated correctly.
In addition, since the processes (a) to (d) are executed by software, it takes a very long time, and a high processing capacity is required for the processing apparatus to create 3D moving image data in real time.

さらに動画像を含めた画像の3D撮影をするためには(1)のように2つの同一の撮像部を用意するか1つの撮像素子に左目、右目、2つの画像が入力するように構成する必要がある。   Furthermore, in order to perform 3D imaging of images including moving images, two identical imaging units are prepared as in (1), or the left eye, right eye, and two images are input to one imaging element. There is a need.

一般の携帯端末装置では背面に撮影用に大型のイメージセンサをもつ撮像部と、TV電話などの用途に使用する小型のイメージセンサをもつ撮像部2つを備えているものが多く、同一の撮像部を2つ配置するとなると3つの撮像部が必要となり、現実的ではなかった。   Many common mobile terminal devices include an imaging unit having a large image sensor for photographing on the back side and two imaging units having a small image sensor used for a TV phone or the like. If two parts are arranged, three imaging parts are required, which is not realistic.

本発明は、斯かる実情に鑑み、正面撮影を行うメインカメラと,自分撮影用のサブカメラを利用して画像特性が良い立体画像撮影を可能とする立体撮影装置およびそれを用いた携帯端末装置を提供することを目的とする。   SUMMARY OF THE INVENTION In view of such circumstances, the present invention provides a stereoscopic camera capable of shooting a stereoscopic image with good image characteristics using a main camera that performs front-side shooting and a sub-camera for self-shooting, and a mobile terminal device using the same. The purpose is to provide.

本発明は、筐体に正面撮影用の主撮像部と自分撮影用の副撮像部とを備えた立体撮影装置において、
前記主撮像部と前記副撮像部を同一方向に配置して前記撮像部間の距離を視差とする同方向配置構造と、前記主撮像部で撮影した画像を元画像データとして用い、前記副撮像部で撮影した画像から視差情報を取得し、前記元画像データを、前記視差情報に基づいて、前記副撮像部の視差を有する画像を生成する画像データ処理部と、を備えたことを特徴とする。
The present invention provides a stereoscopic imaging device having a main imaging unit for frontal imaging and a sub-imaging unit for self-imaging in a housing.
The sub-imaging is performed using the main imaging unit and the sub-imaging unit arranged in the same direction and using the same-direction arrangement structure in which the distance between the imaging units is parallax and an image captured by the main imaging unit as original image data. An image data processing unit that acquires parallax information from an image captured by a unit and generates an image having parallax of the sub-imaging unit based on the parallax information based on the original image data. To do.

また、本発明の立体撮影装置において、前記画像データ処理部は、前記元画像データに対し構造物解析を行い、構造物と背景画像を抽出し、前記副撮像部の画像から構造物位置情報を抽出し、前記視差情報と前記構造物位置情報に基づいて、前記元画像の構造物を移動して配置することを特徴とする。   In the stereoscopic imaging device of the present invention, the image data processing unit performs a structure analysis on the original image data, extracts a structure and a background image, and extracts structure position information from the image of the sub-imaging unit. Extracting and moving and arranging the structure of the original image based on the parallax information and the structure position information.

また、本発明の立体撮影装置において、前記画像データ処理部は、前記元画像データの隠れた部分の情報を、前記副撮像部の画像から画像情報を抽出して、隠れた部分の画像を生成することを特徴とする。   Further, in the stereoscopic imaging apparatus of the present invention, the image data processing unit extracts hidden part information of the original image data, and extracts image information from the image of the sub-imaging unit, thereby generating a hidden part image. It is characterized by doing.

本発明は、前記立体撮影装置を備えたことを特徴とする携帯端末装置である。   The present invention is a portable terminal device including the stereoscopic photographing device.

本発明によれば、主撮像部で撮影した画像を元に、副撮像部で撮影した画像の視差情報から、主撮像部の特性と同じ画像を生成するので、画像特性の良い立体画像を取得することができる。
また、元画像データから構造物と背景画像を抽出し、副撮像部の画像からの視差情報と構造物位置情報を抽出して、元画像の構造物を移動して配置するので、正確な視差画像を生成できる。
また、元画像データの隠れた部分の情報を、前記副撮像部の画像から画像情報を抽出して画像生成を行うので、正確な視差画像を生成できる。
According to the present invention, since the same image as the characteristics of the main imaging unit is generated from the parallax information of the image captured by the sub-imaging unit based on the image captured by the main imaging unit, a stereoscopic image with good image characteristics is acquired. can do.
In addition, the structure and the background image are extracted from the original image data, the parallax information and the structure position information from the image of the sub-imaging unit are extracted, and the structure of the original image is moved and arranged, so that the accurate parallax An image can be generated.
In addition, since the image information is extracted from the image of the sub-imaging unit for the information of the hidden portion of the original image data, an accurate parallax image can be generated.

折りたたみ型の携帯端末での第1の実施例を示す図である。It is a figure which shows the 1st Example in a foldable portable terminal. 第1の実施例に加速度センサを実装して水平状態を検出する図である。It is a figure which mounts an acceleration sensor in the 1st example and detects a horizontal state. 折りたたみ型の携帯端末での第2の実施例を示す図である。It is a figure which shows the 2nd Example in a foldable portable terminal. 折りたたみ型の携帯端末での第3の実施例を示す図である。It is a figure which shows the 3rd Example in a foldable portable terminal. メインカメラとサブカメラを有して立体撮影を可能とする携帯端末の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the portable terminal which has a main camera and a sub camera, and enables three-dimensional photography. メインカメラ画像を基準としたソフトウェアの画像解析による3D化の例を示す図である。It is a figure which shows the example of 3D conversion by the image analysis of the software on the basis of the main camera image. センサを利用した3D撮影モードへの移行の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of transfer to 3D imaging | photography mode using a sensor. メインカメラの画像データに基づいて、サブカメラの画像情報を参照しながらサブカメラの画像を生成する処理を示すフローチャートである。It is a flowchart which shows the process which produces | generates the image of a sub camera, referring the image information of a sub camera based on the image data of a main camera. 図8に続くフローチャートである。It is a flowchart following FIG. 図9に続くフローチャートである。It is a flowchart following FIG. 撮影対象である風景を示す図である。It is a figure which shows the scenery which is imaging | photography object. 左目から見える風景と右目から見える風景を示す図である。It is a figure which shows the scenery seen from a left eye and the scenery seen from a right eye. 2つの同一の撮像部を平行に実装して立体画像を得る従来の撮影装置を示す図である。It is a figure which shows the conventional imaging device which mounts two identical imaging parts in parallel, and obtains a stereo image. 2つのレンズを視差の距離だけ離し平行に実装して立体画像を得る従来の撮影装置を示す図である。It is a figure which shows the conventional imaging device which mounts two lenses by the distance of parallax, and mounts them in parallel, and acquires a stereo image. 1つの撮像部のみを実装して立体画像を得る従来の撮影装置を示す図である。It is a figure which shows the conventional imaging device which mounts only one imaging part and obtains a stereo image. 元画像から左目から見える画像に基づいて右目から見える画像に変換処理する従来の3D化方式を示す図である。It is a figure which shows the conventional 3D system which converts into the image seen from a right eye based on the image seen from a left eye from an original image.

以下、本発明の実施の形態を添付図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the accompanying drawings.

[発明の概要]
本発明は、同一でない2つの撮像素子を用いて静止画像、動画像問わず精度の高い3D画像を得ることにある。つまり、撮影した画像特性が良い方を用いて、もう一方で撮影した画像を生成し直す処理を行い、より特性のよい画像をえるものである。したがって従来技術の「(3)1つの撮像部のみを有する撮像装置にて、その撮像装置を平行移動させて連続して撮影する方法」は本発明とは関連しない。また、従来技術の「(1)撮像装置に2つの同一の撮像部を平行に実装する方法」については同一の撮像部を持つため、それぞれの撮像部に対して同一の処理で3D画像を得ることができるが、同一の撮像部を2つ持たせることはメインの撮像素子とサブの撮像素子に同一の撮像部を持たせると端末のサイズ、形状デザインに制限が生じてしまう。またメインの撮像素子に同一の撮像部を持たせ、サブの撮像部と分けると、3つの撮像部を持たせることになり、コスト面で現実的ではない。
[Summary of Invention]
It is an object of the present invention to obtain a highly accurate 3D image regardless of whether it is a still image or a moving image using two non-identical image sensors. In other words, using the one with the better captured image characteristics, the other image is regenerated to obtain an image with better characteristics. Therefore, “(3) a method of continuously capturing images by translating the imaging device with an imaging device having only one imaging unit” is not relevant to the present invention. In addition, since “(1) a method of mounting two identical imaging units in parallel in an imaging apparatus” in the prior art has the same imaging unit, a 3D image is obtained by the same processing for each imaging unit. However, providing two identical image pickup units restricts the size and shape design of the terminal if the main image pickup device and the sub image pickup device have the same image pickup unit. Further, if the main imaging element has the same imaging unit and is separated from the sub imaging unit, three imaging units are provided, which is not practical in terms of cost.

本発明は、正面撮影用のメインカメラと、自分撮影用のサブカメラとの2つの撮像部を持つ撮影装置にて3D画像を得ることを実現することである。従来技術「(2)レンズ部に2つの視差をもたせるためのコンバージョンレンズを使用し1つの撮像部に2つの画像を撮影する方法」については、専用の構造を持たせることが必要であり、本発明とは関連しない。   The present invention realizes that a 3D image is obtained by an imaging apparatus having two imaging units, a main camera for frontal imaging and a sub camera for self-imaging. Regarding the conventional technique “(2) Method of photographing two images on one imaging unit using a conversion lens for giving two parallaxes to the lens unit”, it is necessary to provide a dedicated structure. It is not related to the invention.

ソフトウェアでの3D化については、1つの撮像部から得られた画像に対して構造解析し、3D化をするが、本発明は2つの同一でない撮像部から得られた画像に対して、1つを3D化する画像の対象とし、もう1つを3D化するための構造解析の補助、精度向上の役割を果たすための情報とする。   As for 3D conversion by software, a structure analysis is performed on an image obtained from one imaging unit, and 3D conversion is performed. However, in the present invention, one image is obtained from two non-identical imaging units. Is the object of the image to be converted to 3D, and the other is information for assisting the structural analysis for converting to 3D and for improving accuracy.

[撮像部の配置と端末構造]
本発明の立体撮影装置を用いた実施形態として携帯端末を例に説明する。2つの撮像素子を使用して3D撮影する場合においては、メインカメラとサブカメラの撮像部を水平に並べて視差を設ける必要がある。その実現例として図1、図3、図4のような構造がある。以下順に説明する。
[Imaging unit location and terminal structure]
A portable terminal will be described as an example of an embodiment using the stereoscopic imaging device of the present invention. When 3D shooting is performed using two image sensors, it is necessary to provide parallax by horizontally aligning the imaging units of the main camera and the sub camera. As an implementation example, there are structures as shown in FIGS. This will be described in order below.

<第1の実施例>
図1は、折りたたみ型の携帯端末での第1の実施例を示す図である。
携帯端末10は、上筐体11と下筐体12から構成される。上筐体11には、メイン画面13、サブ画面14が表裏に配置されている。上筐体11は、回転ヒンジ15により、携帯端末10の開閉時に下筐体12に対して180度回転することが出来る(図1(b)(f)参照)。さらに、上筐体11は、回転ヒンジ16により、3D撮影時には携帯端末11を開いた状態で、下筐体12の表面に対して180度回転して裏返しにすることができる(図1(c)〜(e)参照)。
<First embodiment>
FIG. 1 is a diagram showing a first embodiment of a foldable portable terminal.
The mobile terminal 10 includes an upper housing 11 and a lower housing 12. In the upper housing 11, a main screen 13 and a sub screen 14 are arranged on the front and back. The upper housing 11 can be rotated 180 degrees with respect to the lower housing 12 when the mobile terminal 10 is opened and closed by the rotary hinge 15 (see FIGS. 1B and 1F). Furthermore, the upper casing 11 can be turned upside down by rotating 180 degrees with respect to the surface of the lower casing 12 with the portable terminal 11 opened at the time of 3D shooting by the rotary hinge 16 (FIG. 1 (c). ) To (e)).

メインカメラ(主撮像部)17は、下筐体12の裏面に有し、一般の被写体に向けて撮影するものである。メインカメラ17での撮影では、図1の(b)もしくは(f)の状態で、利用者がメイン画面13をファインダーとして撮影する。
サブカメラ18は、上筐体11の上部に有し、TV電話等の主に利用者本人を撮影するために使用するカメラであり、メインカメラ17よりも解像度等の特性は劣る。
The main camera (main imaging unit) 17 is provided on the back surface of the lower housing 12 and shoots toward a general subject. In shooting with the main camera 17, the user takes a picture with the main screen 13 as a viewfinder in the state of (b) or (f) of FIG.
The sub camera 18 is provided on the upper portion of the upper housing 11 and is a camera used mainly for photographing a user himself such as a TV phone. The sub camera 18 is inferior to the main camera 17 in characteristics such as resolution.

図1(e)は、携帯端末10の開状態で、下筐体12に対して180度回転した状態で有り、メインカメラ17とサブカメラ18が同一方向に向けて配置されることになる。このときメインカメラ17とサブカメラ18の距離は、視差距離に該当する程度である。3D撮影時には、利用者は、図1(e)のような状態でサブ画面14をファインダーとして撮影する。図1はカメラ16,17が垂直方向に配置されているが、携帯端末10を水平にし、カメラ16,17を水平になるよう配置する。回転ヒンジ15による回転により、図1(a)の状態でメイン画面13を保護でき、図1(b)及び(f)のような状態で携帯端末10を使用可能状態とする。図1(e)の状態は、3D撮影の時にのみに使用する状態である。   FIG. 1E shows a state in which the mobile terminal 10 is opened and rotated 180 degrees with respect to the lower housing 12, and the main camera 17 and the sub camera 18 are arranged in the same direction. At this time, the distance between the main camera 17 and the sub camera 18 is a degree corresponding to the parallax distance. At the time of 3D photographing, the user photographs the sub screen 14 as a viewfinder in a state as shown in FIG. In FIG. 1, the cameras 16 and 17 are arranged in the vertical direction, but the mobile terminal 10 is placed horizontally and the cameras 16 and 17 are placed horizontally. The main screen 13 can be protected in the state shown in FIG. 1A by the rotation of the rotary hinge 15, and the portable terminal 10 can be used in the states shown in FIGS. 1B and 1F. The state of FIG. 1E is a state used only for 3D shooting.

回転ヒンジ16部分に、メインカメラ17とサブカメラ18が同一方向を向く3D撮影モードになっているかを検出する同一方向検出部19を設ける。例えば、回転ヒンジ16の下筐体12側に磁石19a、上筐体11側に磁気センサ19bを設ける。そして。図1(e)の状態で、磁石19aと磁気センサ19bが近接して対向する位置になり、3D撮影モードを検出できる。この検出結果に基づいて、ファインダーとなっているサブ画面14に、「3Dカメラ撮影モードになったことを報知する表示」、もしくは「3Dカメラ撮影モードに入るかをどうかを問う表示」を行う機能を実装することが出来る。図1(e)以外の状態の時は、3D撮影モードにしないようにする。   The same direction detector 19 for detecting whether or not the main camera 17 and the sub camera 18 are in the 3D shooting mode in the same direction is provided in the rotary hinge 16 portion. For example, a magnet 19a is provided on the lower housing 12 side of the rotary hinge 16, and a magnetic sensor 19b is provided on the upper housing 11 side. And then. In the state of FIG. 1 (e), the magnet 19a and the magnetic sensor 19b are close to each other and face each other, and the 3D shooting mode can be detected. Based on the detection result, a function of performing “display for notifying that the camera is in the 3D camera shooting mode” or “display for asking whether to enter the 3D camera shooting mode” on the sub-screen 14 serving as a viewfinder Can be implemented. In the state other than FIG. 1E, the 3D shooting mode is not set.

さらに図2(a)に示すように、加速度センサ(水平検出部)20を実装することで、メインカメラ17とサブカメラ18が水平位置になっているかを検出する。ファインダーとなっているサブ画面14に検出角度を表示する機能を実装することが出来る。図2(a)のように、水平度が3D撮影に適していれば、3D撮影可能であることをサブ画面14に表示してもよい。   Further, as shown in FIG. 2A, by mounting an acceleration sensor (horizontal detection unit) 20, it is detected whether the main camera 17 and the sub camera 18 are in the horizontal position. A function of displaying the detection angle on the sub screen 14 serving as a finder can be implemented. As shown in FIG. 2A, if the level is suitable for 3D shooting, it may be displayed on the sub-screen 14 that 3D shooting is possible.

また、図2(b)のように、3Dカメラ撮影モード中に3D撮影が難しくなる角度に達すると「水平になるよう促す警告メッセージ」を、サブ画面14に表示することも出来る。また、同一方向検出部19の検出結果により、3Dカメラ撮影モード中に図1(e)の状態以外になった場合には、3D撮影が不可能なため、自動で3Dカメラ撮影モードを解除する機能を実装することが出来る。   In addition, as shown in FIG. 2B, a “warning message prompting to be level” can be displayed on the sub-screen 14 when an angle at which 3D shooting becomes difficult during the 3D camera shooting mode is reached. Also, if the result of detection by the same direction detection unit 19 results in a state other than that shown in FIG. 1E during the 3D camera shooting mode, 3D shooting is not possible, so the 3D camera shooting mode is automatically canceled. Function can be implemented.

<第2の実施例>
図3は、折りたたみ型の携帯端末での第2の実施例を示す図である。
携帯端末30は、上筐体31と下筐体32から構成される。上筐体31は、さらに第1の上筐体31aと第2の上筐体31bとから構成され、第1の上筐体31aには表面側にサブ画面34が配置され、第2の上筐体31bの表面側(第1の上筐体31aの表面とは反対側の面)にメイン画面33が配置されている。上筐体31は回転ヒンジ35を有し、携帯端末30の開閉時に下筐体32に対して180度回転することが出来る(図3(b)参照)。さらに第1の上筐体31aと第2の上筐体31bとの間にサイクロイド回転構造を有し、90度回転することが出来る(図3(c)〜(e)参照)。メインカメラ36は下筐体32の裏面に有し、メインカメラ36での撮影では図3の(c)もしくは(e)の状態でメイン画面33をファインダーとして撮影する。
<Second embodiment>
FIG. 3 is a diagram illustrating a second embodiment of the folding portable terminal.
The mobile terminal 30 includes an upper housing 31 and a lower housing 32. The upper casing 31 further includes a first upper casing 31a and a second upper casing 31b. The first upper casing 31a has a sub screen 34 disposed on the surface side, and the second upper casing 31a. A main screen 33 is disposed on the surface side of the housing 31b (the surface opposite to the surface of the first upper housing 31a). The upper casing 31 has a rotating hinge 35 and can rotate 180 degrees with respect to the lower casing 32 when the portable terminal 30 is opened and closed (see FIG. 3B). Furthermore, it has a cycloid rotation structure between the first upper casing 31a and the second upper casing 31b, and can rotate 90 degrees (see FIGS. 3C to 3E). The main camera 36 is provided on the back surface of the lower housing 32, and when shooting with the main camera 36, the main screen 33 is shot using the main screen 33 as a viewfinder in the state of (c) or (e) of FIG.

サブカメラ37は第2の上筐体31bの上部に配置され、TV電話等の主に利用者本人を撮影するために使用するカメラである。3D撮影時には、図3(g)のような状態で、サブ画面34をファインダーとして撮影する。図3(g)の状態では、カメラ36,37は水平方向に配置され、3D撮影モードとして撮影が可能となる。   The sub camera 37 is a camera that is disposed on the upper portion of the second upper casing 31b and is used mainly for photographing the user himself / herself such as a TV phone. At the time of 3D shooting, shooting is performed using the sub screen 34 as a viewfinder in the state shown in FIG. In the state of FIG. 3G, the cameras 36 and 37 are arranged in the horizontal direction, and shooting is possible in the 3D shooting mode.

同一方向検出部として磁石39aと磁気センサ39bを設け、磁石39aは下筐体32、磁気センサ39bは第2の上筐体31bに設ける。その機能は、第1の実施例と同じなので詳しい説明は省略する。
また、水平方向検出部として加速度センサを設けるのも第1の実施例と同じなので詳しい説明は省略する。
A magnet 39a and a magnetic sensor 39b are provided as the same direction detection unit, the magnet 39a is provided in the lower casing 32, and the magnetic sensor 39b is provided in the second upper casing 31b. Since its function is the same as that of the first embodiment, detailed description thereof is omitted.
Further, since an acceleration sensor is provided as a horizontal direction detection unit as in the first embodiment, detailed description thereof is omitted.

<第3の実施例>
図4は、折りたたみ型の携帯端末での第3の実施例を示す図である。
携帯端末50は、上筐体51と下筐体52から構成される。上筐体51には、メイン画面53、サブ画面54が表裏に配置されている。上筐体51は、回転ヒンジ55により、携帯端末50の開閉時に下筐体52に対して180度回転することが出来る。
メインカメラ(主撮像部)57は、下筐体52の裏面に有し、一般の被写体に向けて撮影するものである。メインカメラ17での撮影では、利用者がメイン画面53をファインダーとして撮影する。
<Third embodiment>
FIG. 4 is a diagram showing a third embodiment of the folding portable terminal.
The mobile terminal 50 includes an upper housing 51 and a lower housing 52. In the upper casing 51, a main screen 53 and a sub screen 54 are arranged on the front and back sides. The upper casing 51 can rotate 180 degrees with respect to the lower casing 52 when the portable terminal 50 is opened and closed by the rotary hinge 55.
The main camera (main imaging unit) 57 is provided on the back surface of the lower housing 52 and shoots toward a general subject. In photographing with the main camera 17, the user photographs using the main screen 53 as a viewfinder.

サブカメラ18は、上筐体11の上部に有し、TV電話等の主に利用者本人を撮影するために使用するカメラであり、メインカメラ17よりも解像度等の特性は劣る。   The sub camera 18 is provided on the upper portion of the upper housing 11 and is a camera used mainly for photographing a user himself such as a TV phone.

サブカメラ58は上筐体51の上部に有し、TV電話等の主に本人を撮影するために使用するカメラである。本人撮影には(a)の状態で、3D撮影時には(c)のような状態でサブ画面54をファインダーとして撮影する。   The sub camera 58 is provided on the upper part of the upper casing 51, and is a camera used mainly for photographing a person such as a TV phone. In the state of (a) for the person photographing, the sub screen 54 is photographed as the viewfinder in the state of (c) during the 3D photographing.

本実施例は3D撮影のためにサブカメラ58に回転機構を実装しており、180度の回転が可能である。従って、向きを上筐体51の表面から裏面へと向きを変えることができる((a)〜(c))。サブカメラ58の向きをセンサで検知し、(c)の方向にカメラが向いたとき、自動的に3D撮影のモードに入ることも可能である。   In this embodiment, a rotation mechanism is mounted on the sub camera 58 for 3D shooting, and rotation by 180 degrees is possible. Therefore, the direction can be changed from the front surface to the back surface of the upper casing 51 ((a) to (c)). It is also possible to automatically enter the 3D shooting mode when the orientation of the sub camera 58 is detected by a sensor and the camera faces in the direction (c).

実施例では折りたたみ型の携帯端末であるが、とくに折りたたみ型である必要性はない。また、サブカメラ58に回転機構を実施しているため、図1、図3と異なり、メイン画面をファインダーとして使用できるためより快適な撮影が可能である。   In the embodiment, the portable terminal is a foldable type, but it is not particularly necessary to be a foldable type. In addition, since the rotation mechanism is implemented in the sub camera 58, the main screen can be used as a viewfinder unlike in FIGS. 1 and 3, so that more comfortable shooting is possible.

メイン画面をファインダーとして使用せず、サブ画面をファインダーとして使用する場合にはメインカメラに回転機構を有してもよい。本構造においても図2(b)のように3Dカメラ撮影モード中に3D撮影が難しくなる角度に達すると水平になるよう促す警告メッセージを出すことも出来る。また3Dカメラ撮影モード中に図4(c)の状態以外になった場合には3D撮影が不可能なため自動で3Dカメラ撮影前のモードに戻るようにすることが出来る。   When the main screen is not used as a finder and the sub screen is used as a finder, the main camera may have a rotation mechanism. Also in this structure, as shown in FIG. 2 (b), a warning message for prompting to be horizontal can be issued when an angle at which 3D shooting becomes difficult is reached during the 3D camera shooting mode. Further, when the state other than the state shown in FIG. 4C occurs during the 3D camera shooting mode, 3D shooting is impossible, so that the mode before the 3D camera shooting can be automatically returned.

[携帯端末の機能構成]
上記に説明した携帯端末の機能構成について説明する。
図5は、メインカメラとサブカメラを有して立体撮影を可能とする携帯端末の機能構成を示すブロック図である。この携帯端末100は、メインカメラ(主撮像部)110、サブカメラ(副撮像部)111、同一方向検出部120、水平検出部121、処理部130、表示部150,151、RAM160、ROM161、補助記憶装置162の各機能ブロックから構成される。メインカメラ110にはイメージセンサ112、サブカメラ111にはイメージセンサ113が備えられている。処理部130には、ビデオI/F131,132、センサI/F133、画像データ処理部135、CPU136、ディスプレイI/F137,138が備えられている。
以下に各部の説明をする。
[Functional configuration of mobile terminal]
A functional configuration of the mobile terminal described above will be described.
FIG. 5 is a block diagram illustrating a functional configuration of a mobile terminal that has a main camera and a sub camera and enables stereoscopic shooting. The portable terminal 100 includes a main camera (main imaging unit) 110, a sub camera (sub imaging unit) 111, a same direction detection unit 120, a horizontal detection unit 121, a processing unit 130, display units 150 and 151, a RAM 160, a ROM 161, and an auxiliary device. It is composed of functional blocks of the storage device 162. The main camera 110 includes an image sensor 112, and the sub camera 111 includes an image sensor 113. The processing unit 130 includes video I / Fs 131 and 132, a sensor I / F 133, an image data processing unit 135, a CPU 136, and display I / Fs 137 and 138.
Each part will be described below.

・カメラ110,111
上述したように、メインカメラ110は、正面撮影用の撮像部である。一方、サブカメラ111は、利用者自身を撮影する撮像部である。
メインカメラ110とサブカメラ111にはイメージセンサ112と113がそれぞれ備えられている。イメージセンサ112,113は、レンズから入射した光を取り込み、その光を電気信号に変換する半導体素子である。
図5のように素子をマトリックス状(ROW−COLMN)に配置し、被写体をセンサの受光面に結像させ、結像した像の光の明暗を電気信号に変換して、変換した信号を順次読み出すことで、画像データとして得ることができる。
一般的に素子の受光面積が広いほど受光感度が上がり、素子数が多くなればなるほど画像の解像度が高くなる。携帯端末のような背面と表面の両方に撮像部を持つ端末は目的別に背面側には大面積、高解像度の撮像部が使用され、表面側には背面と比較し、小面積で低解像度の撮像部が使用されることが多い。
Camera 110, 111
As described above, the main camera 110 is an imaging unit for front-side shooting. On the other hand, the sub camera 111 is an image capturing unit that captures an image of the user.
The main camera 110 and the sub camera 111 are provided with image sensors 112 and 113, respectively. The image sensors 112 and 113 are semiconductor elements that take in light incident from a lens and convert the light into an electric signal.
As shown in FIG. 5, the elements are arranged in a matrix (ROW-COLMN), the subject is imaged on the light receiving surface of the sensor, the light and darkness of the imaged image is converted into an electrical signal, and the converted signals are sequentially By reading, it can be obtained as image data.
In general, the larger the light receiving area of the element, the higher the light receiving sensitivity, and the larger the number of elements, the higher the resolution of the image. A terminal with an imaging unit on both the back and front, such as a portable terminal, uses a large-area, high-resolution imaging unit on the back side for each purpose, and has a small area and low resolution on the front side compared to the back side. An imaging unit is often used.

・同一方向検出部120、水平検出部121
同一方向検出部120は、メインカメラ110とサブカメラ111が同一方向を向いて配置されているかを検出するセンサであり、図1に示す磁石と磁気センサに該当する。同一方向検出部120により携帯端末110が3D撮影モードにできるかを検出する。
水平検出部121は、図1に示す加速度センサに該当するものであり、メインカメラ110とサブカメラ111が3D撮影に適する水平位置にあるかを検出するものである。
The same direction detection unit 120 and the horizontal detection unit 121
The same direction detection unit 120 is a sensor that detects whether the main camera 110 and the sub camera 111 are arranged in the same direction, and corresponds to the magnet and the magnetic sensor shown in FIG. The same direction detection unit 120 detects whether the mobile terminal 110 can be set to the 3D shooting mode.
The horizontal detection unit 121 corresponds to the acceleration sensor shown in FIG. 1 and detects whether the main camera 110 and the sub camera 111 are in a horizontal position suitable for 3D shooting.

・処理部
ビデオI/F131,132は、メインカメラ110とサブカメラ111から検出された画像データが入力され、画像データ処理部135に送る。
センサI/F133は、同一方向検出部120と水平検出部121から検出結果が入力され、CPU136に送る。
画像データ処理部135は、CPU136から与えられたパラメータや命令に従い、イメージセンサ112,113からの画像データを取得しRAM160やCPU136に出力する。表示を行うためにイメージセンサ112,113からの取得したデータやCPU136/RAM160からの画像データを表示部(メイン画面150、サブ画面151)への出力を行う。また、画像のデータの入出力時に色情報や解像度の変換を行う。
CPU136は、ROM161に格納されたプログラムを処理、実行し、携帯端末100の3D撮像システムを起動する。そして、補助記憶装置162に格納されたプログラムをRAM160に転送し、RAM160に一時格納されたプログラムを処理、実行する。
ディスプレイI/F137,138は、画像データ処理部135の処理データを表示部150,151に送る。
Processing Unit The video I / Fs 131 and 132 receive image data detected from the main camera 110 and the sub camera 111 and send them to the image data processing unit 135.
The sensor I / F 133 receives detection results from the same direction detection unit 120 and the horizontal detection unit 121 and sends the detection results to the CPU 136.
The image data processing unit 135 acquires image data from the image sensors 112 and 113 in accordance with parameters and instructions given from the CPU 136 and outputs them to the RAM 160 and the CPU 136. In order to perform the display, the data acquired from the image sensors 112 and 113 and the image data from the CPU 136 / RAM 160 are output to the display unit (main screen 150, sub screen 151). Also, color information and resolution are converted when image data is input and output.
The CPU 136 processes and executes a program stored in the ROM 161, and activates the 3D imaging system of the mobile terminal 100. Then, the program stored in the auxiliary storage device 162 is transferred to the RAM 160, and the program temporarily stored in the RAM 160 is processed and executed.
The display I / Fs 137 and 138 send the processing data of the image data processing unit 135 to the display units 150 and 151.

・ROM(Read Only Memory)161
コンピュータを動作させるための基本プログラム(IPL:Initial Program Loader/OS:Operating System)や固定データが格納されている。
-ROM (Read Only Memory) 161
A basic program (IPL: Initial Program Loader / OS: Operating System) for operating the computer and fixed data are stored.

・RAM(Random Access Memory)160
プログラムを実行するための作業領域やイメージセンサ112,113から得られた画像データを一時的に格納するための記憶装置である。補助記憶装置162より本発明に使用されるプログラムを高速に実行するために一時的に読み出し、格納する。処理部130はそのプログラムをRAM160から読み出し、実行する。
-RAM (Random Access Memory) 160
This is a storage device for temporarily storing a work area for executing a program and image data obtained from the image sensors 112 and 113. The program used in the present invention is temporarily read from the auxiliary storage device 162 and stored in order to execute at high speed. The processing unit 130 reads the program from the RAM 160 and executes it.

・補助記憶装置162
一般的には磁気記録装置HDD(Hard Disk Drive)、半導体記録装置SSD(Solid State Drive)、光学式記録装置(CD,DVD,BLU−RAY Disk)等を指す。プログラムや、画像データ、動画像データを格納する。従って、本発明に使用される3D処理用プログラムも格納されている。またイメージセンサ112,113の色や解像度の変換のための情報が格納されている。
Auxiliary storage device 162
Generally, it refers to a magnetic recording device HDD (Hard Disk Drive), a semiconductor recording device SSD (Solid State Drive), an optical recording device (CD, DVD, BLU-RAY Disk) and the like. Stores programs, image data, and moving image data. Therefore, a 3D processing program used in the present invention is also stored. Information for converting the color and resolution of the image sensors 112 and 113 is also stored.

・表示部(メイン画面150、サブ画面151)
処理部130より表示用のデータを受け取り、表示する。例えばイメージセンサ112,113から得たRAM160に格納されたデータを表示部150に出力し、表示する。
Display unit (main screen 150, sub screen 151)
Data for display is received from the processing unit 130 and displayed. For example, data stored in the RAM 160 obtained from the image sensors 112 and 113 is output to the display unit 150 and displayed.

[3D画像データ処理]
撮像装置に異なる特性をもつ2つの撮像部を平行に配置し3D画像を得る方法では、ソフトウェアによる画像解析を必要とせずに3D画像を得ることができる。しかしながら、サブカメラの解像度/色特性の基本的に特性の悪いほうを基準とした3D画像となる。高解像度、高(色特性)品位の画像で3D化するにはメインカメラの画像を基準としたほうがよい。
[3D image data processing]
In a method for obtaining a 3D image by arranging two imaging units having different characteristics in parallel in an imaging apparatus, a 3D image can be obtained without requiring image analysis by software. However, the resolution / color characteristics of the sub camera are basically 3D images based on the poor characteristics. In order to make 3D images with high resolution and high (color characteristic) quality, it is better to use the image of the main camera as a reference.

図6は、メインカメラ画像を基準としたソフトウェアの画像解析による3D化の例を示す図である。3D化の処理手順は図16のソフトウェアによる3D化と同様である。
(a)は3D化の右目画像を作成するための元となるメインカメラ撮影による左目画像である。(e)はメインカメラ撮影時に同時に撮影した右目位置にあるサブカメラ撮影画像である。従来では(a)の画像データから構図を解析し構図物を抽出していたが、さらに(f)のサブカメラ撮影画像から視差分の画像差を抽出し、確実に構造物を得ることが出来る。
FIG. 6 is a diagram showing an example of 3D conversion by software image analysis based on the main camera image. The processing procedure for 3D conversion is the same as that for 3D conversion by software shown in FIG.
(A) is a left-eye image taken by the main camera, which is a source for creating a 3D right-eye image. (E) is a sub-camera photographed image at the right eye position photographed simultaneously with the main camera photographing. Conventionally, the composition was extracted by analyzing the composition from the image data of (a), but further, the structure can be reliably obtained by extracting the image difference corresponding to the parallax from the image captured by the sub camera of (f). .

(b)では構造物を確定し、背景画像からの切り出しを行う。(g)では、サブカメラの画像から構造物位置情報を抽出し、(c)では、それに基づいて構造物をメインカメラで得られた画像位置から移動する。従来では移動位置は構造解析を実施し、奥行き情報から移動位置を推測して移動していたため、精度が十分ではなかったが、このような処理を行うことにより、精度を高めることができる。   In (b), the structure is confirmed and cut out from the background image. In (g), structure position information is extracted from the image of the sub camera, and in (c), the structure is moved from the image position obtained by the main camera based on the extracted position information. Conventionally, the moving position is structurally analyzed and moved by estimating the moving position from the depth information. Therefore, the accuracy is not sufficient. However, by performing such processing, the accuracy can be improved.

(d)では、背景と隠れたオブジェクトを補正する。従来では隠れた部分については画像情報がないため、周囲の情報から推測にて補正をしており、間違った補正をする可能性があったが、(h)のように、サブカメラ画像の画像情報からメインカメラで撮影した画像では隠れた部分の画像情報を生成するので、間違いのない補正が可能である。   In (d), the background and the hidden object are corrected. Conventionally, since there is no image information for the hidden part, the correction was made by guessing from the surrounding information, and there was a possibility that the correction was incorrect, but as shown in (h), the image of the sub-camera image Since the image information of the hidden part is generated from the information captured by the main camera from the information, correction without error is possible.

[3D撮影における動作]
図7は、センサを利用した3D撮影モードへの移行の動作を示すフローチャートである。機能ブロックが図5、端末構造が図1、図2であるとして、説明する。
[Operation in 3D shooting]
FIG. 7 is a flowchart showing an operation of shifting to the 3D shooting mode using the sensor. Description will be made assuming that the functional block is FIG. 5 and the terminal structure is FIG. 1 and FIG.

CPU136が同一方向検出部120である磁気センサ19bのON/OFFを検出する(ステップS1)。ステップS2において、磁気センサ19bがONしていれば(磁気センサ19bが磁石19aに近接していれば)、CPU136は水平検出部121である加速度センサ20による携帯端末100(図1では携帯端末10)の傾きを検出する(ステップS3)。ステップS4において、携帯端末100が水平位置になっていれば(3D撮影可能な角度の範囲内になっていれば)、ステップS5に進む。ステップS2,S4において、NOであれば、ステップS1に戻る。   The CPU 136 detects ON / OFF of the magnetic sensor 19b which is the same direction detection unit 120 (step S1). In step S2, if the magnetic sensor 19b is ON (if the magnetic sensor 19b is close to the magnet 19a), the CPU 136 uses the mobile terminal 100 (in FIG. 1, the mobile terminal 10 in the acceleration sensor 20). ) Is detected (step S3). In step S4, if the portable terminal 100 is in the horizontal position (if it is within the range of angles capable of 3D shooting), the process proceeds to step S5. If NO in steps S2 and S4, the process returns to step S1.

ステップS5において、CPU136は、3D撮影モードへ自動的に移行させる。もしくは、CPU136は3D撮影モードへ移行するかどうかのメッセージを画像データ処理部135に生成させ、表示部150,151のいずれかに表示させる。   In step S5, the CPU 136 automatically shifts to the 3D shooting mode. Alternatively, the CPU 136 causes the image data processing unit 135 to generate a message indicating whether or not to shift to the 3D shooting mode, and displays the message on one of the display units 150 and 151.

再び、CPU136が同一方向検出部120である磁気センサ19bのON/OFFを検出する(ステップS6)。ステップS7において、磁気センサ19bがONしていれば(磁気センサ19bが磁石19aに近接していれば)、CPU136は水平検出部121である加速度センサ20による携帯端末100(図1では携帯端末10)の傾きを検出する(ステップS8)。ステップS9において、携帯端末100が水平位置になっていれば(3D撮影可能な角度の範囲内になっていれば)、ステップS10に進み、CPU136は、3D撮影モードを維持する。ステップS9において、NOであれば、ステップS6に戻る。   Again, the CPU 136 detects ON / OFF of the magnetic sensor 19b which is the same direction detection unit 120 (step S6). In step S7, if the magnetic sensor 19b is ON (if the magnetic sensor 19b is close to the magnet 19a), the CPU 136 uses the mobile terminal 100 (in FIG. 1, the mobile terminal 10 in the acceleration sensor 20). ) Is detected (step S8). In step S9, if the portable terminal 100 is in the horizontal position (if it is within the range of angles capable of 3D shooting), the process proceeds to step S10, and the CPU 136 maintains the 3D shooting mode. If NO in step S9, the process returns to step S6.

ステップS7において、NOであれば、ステップS11において、CPU136は、3D撮影モードから、元のモードへ自動で戻す。若しくは、CPU136は、元の撮影モードへ移行するかどうかのメッセージを画像データ処理部135に生成させ、表示部150,151のいずれかに表示させる。   If NO in step S7, the CPU 136 automatically returns from the 3D shooting mode to the original mode in step S11. Alternatively, the CPU 136 causes the image data processing unit 135 to generate a message indicating whether or not to shift to the original shooting mode, and displays the message on one of the display units 150 and 151.

図8、図9、図10は、メインカメラの画像データに基づいて、サブカメラの画像情報を参照しながらサブカメラの画像を生成する処理を示すフローチャートである。メインカメラの画像とサブカメラの画像では解像度や、色情報の違いはあるが右目側の画像データとして参照できるため、メインカメラ画像から、高い精度で3D用の右目画像データの作成が可能である。図5の機能ブロックと図6を参照しながら説明する。   FIG. 8, FIG. 9, and FIG. 10 are flowcharts showing processing for generating an image of the sub camera based on the image data of the main camera while referring to the image information of the sub camera. Although there are differences in resolution and color information between the image of the main camera and the image of the sub camera, it can be referred to as image data on the right eye side, so it is possible to create right eye image data for 3D with high accuracy from the main camera image. . This will be described with reference to the functional block of FIG. 5 and FIG.

ステップS21において、画像データ処理部135は、メインカメラ110により撮影した撮影画像データ(図6(a))の構造物解析を行う。そして、ステップS22において、メインカメラ110の撮像画像データのなかで、3D化可能性のあるオブジェクト(構造物)の抽出し、そのオブジェクトの形状、座標の抽出を行う(図6(b))。3D化可能性のあるオブジェクト数=M個とする。図6(b)では構造物A、Bの2つである。各オブジェクトの形状、座標等のデータをRAM160内に配列MO(M)として格納する。   In step S <b> 21, the image data processing unit 135 performs a structure analysis of the captured image data (FIG. 6A) captured by the main camera 110. In step S22, an object (structure) that can be converted to 3D is extracted from the captured image data of the main camera 110, and the shape and coordinates of the object are extracted (FIG. 6B). The number of objects that can be converted to 3D = M. In FIG. 6B, there are two structures A and B. Data such as the shape and coordinates of each object is stored in the RAM 160 as an array MO (M).

ステップS23において、サブカメラ111の撮影画像データ(図6(e))の構造物解析を行う。そして、ステップS24において、サブカメラの3D化可能性のあるオブジェクトの抽出を行う(図6(f))。オブジェクトの形状、座標の抽出が抽出され、3D化可能性のあるオブジェクト数=S個とする。各オブジェクトの形状、座標等のデータをRAM160内に配列SO(S)として格納する。   In step S23, the structure analysis of the captured image data of the sub camera 111 (FIG. 6E) is performed. In step S24, an object that can be converted into 3D from the sub camera is extracted (FIG. 6F). Extraction of the shape and coordinates of the object is extracted, and the number of objects that can be converted to 3D = S. Data such as the shape and coordinates of each object is stored in the RAM 160 as an array SO (S).

ステップS25において、画像データ処理部135は、変数K=0、配列変数MK(0:M−1)=0とする。ここで、変数Kとは、3D化オブジェクト数を表わす。配列変数MK(0:M−1)は、3D化するオブジェクト番号を示し、MK(0:M−1)=0であれば、「3D対象でない」ということであり、MK(0:M−1)=1であれば、「3D対象である」ということである。   In step S25, the image data processing unit 135 sets variable K = 0 and array variable MK (0: M−1) = 0. Here, the variable K represents the number of 3D objects. The array variable MK (0: M−1) indicates the object number to be converted into 3D. If MK (0: M−1) = 0, it means “not 3D target”, and MK (0: M− If 1) = 1, it means “3D object”.

ステップS26において、画像データ処理部135は、ループカウンターに対し、I=0とする。ステップS27において、I=Mかを確認し、NOであればステップS28に進み、YESであれば、ステップS35に進む。   In step S26, the image data processing unit 135 sets I = 0 for the loop counter. In step S27, it is confirmed whether I = M. If NO, the process proceeds to step S28, and if YES, the process proceeds to step S35.

ステップS28において、画像データ処理部135は、ループカウンターに対し、J=0とする。ステップS29において、J=Sかを確認し、NOであればステップS30に進み、YESであれば、ステップS33に進む。   In step S28, the image data processing unit 135 sets J = 0 for the loop counter. In step S29, it is confirmed whether J = S. If NO, the process proceeds to step S30, and if YES, the process proceeds to step S33.

ステップS30において、画像データ処理部135は、メインカメラオブジェクトMO(I)とサブカメラオブジェクトSO(J)は同一形状かを確認する。同一形状であれば、ステップS31において、メインカメラのオブジェクトMO(I)とサブカメラのオブジェクトSO(J)は視差分座標がずれた位置にあるかを確認する。視差分座標がずれた位置にあれば、ステップS32に進む。
ステップS30、31において、NOであれば、ステップS34において、J=J+1とする。
In step S30, the image data processing unit 135 checks whether the main camera object MO (I) and the sub camera object SO (J) have the same shape. If they have the same shape, in step S31, it is confirmed whether the object MO (I) of the main camera and the object SO (J) of the sub camera are at positions where the coordinates for the parallax are shifted. If there is a position where the parallax coordinates are shifted, the process proceeds to step S32.
If NO in steps S30 and 31, J = J + 1 in step S34.

ステップS32において、K=K+1、MK(I)=1とする。ステップS33において、I=I+1とし、ステップS27に戻る。   In step S32, K = K + 1 and MK (I) = 1. In step S33, I = I + 1 is set, and the process returns to step S27.

ステップS35において、I=0とし、ステップS36において、K=Iであるかを確認する。YESであれば、処理は終了する。
K=Iでなければ、ステップS37において、MO(MK(I))のオブジェクトデータの座標をSO(MK(I))のオブジェクトデータの座標に変更に変更する。
In step S35, I = 0, and in step S36, it is confirmed whether K = I. If yes, the process ends.
If K = I is not satisfied, in step S37, the coordinates of the object data of MO (MK (I)) are changed to the coordinates of the object data of SO (MK (I)).

ステップS38において、画像データ処理部135は、移動したMO(MK(I))のオブジェクトデータの座標で隠れた部分のデータをSO(MK(I))の周囲データを参照して補正する。そして、ステップS39においてK=K+1とし、ステップS36に戻る。   In step S <b> 38, the image data processing unit 135 corrects the data hidden in the moved MO (MK (I)) object data coordinates with reference to the surrounding data of SO (MK (I)). In step S39, K = K + 1 is set, and the process returns to step S36.

こうして、メインカメラで撮影した画像を元に、サブカメラで撮影した画像の情報から、メインカメラの特性と同じ画像を生成するので、画像特性の良い立体画像を取得することができる。   In this way, since the same image as the characteristics of the main camera is generated from the information of the image captured by the sub camera based on the image captured by the main camera, a stereoscopic image with good image characteristics can be acquired.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and the design and the like within the scope of the present invention are also within the scope of the claims. include.

10,30,50,100 携帯端末
11,31,51 上筐体
12,32,52 下筐体
13,33,53,150 表示部(メイン画面)
14,34,54,151 表示部(サブ画面)
15,16,35 回転ヒンジ
17,36,57,110 メインカメラ(主撮像部)
18,37,58,111 サブカメラ(副撮像部)
19a 磁石
19b 磁気センサ
20 加速度センサ
112,113 イメージセンサ
120 同一方向検出部
121 水平検出部
130 処理部
135 画像データ処理部
136 CPU
10, 30, 50, 100 Mobile terminal 11, 31, 51 Upper casing 12, 32, 52 Lower casing 13, 33, 53, 150 Display unit (main screen)
14, 34, 54, 151 Display section (sub-screen)
15, 16, 35 Rotating hinges 17, 36, 57, 110 Main camera (main imaging unit)
18, 37, 58, 111 Sub camera (sub imaging unit)
19a Magnet 19b Magnetic sensor 20 Acceleration sensors 112 and 113 Image sensor 120 Same direction detection unit 121 Horizontal detection unit 130 Processing unit 135 Image data processing unit 136 CPU

Claims (4)

筐体に正面撮影用の主撮像部と自分撮影用の副撮像部とを備えた立体撮影装置において、
前記主撮像部と前記副撮像部を同一方向に配置して前記撮像部間の距離を視差とする同方向配置構造と、
前記主撮像部で撮影した画像を元画像データとして用い、前記副撮像部で撮影した画像から視差情報を取得し、前記元画像データを、前記視差情報に基づいて、前記副撮像部の視差を有する画像を生成する画像データ処理部と、
を備えたことを特徴とする立体撮影装置。
In a stereoscopic imaging device having a main imaging unit for frontal imaging and a sub-imaging unit for self-imaging in a housing,
A same-direction arrangement structure in which the main imaging unit and the sub-imaging unit are arranged in the same direction and the distance between the imaging units is parallax;
The image captured by the main imaging unit is used as original image data, parallax information is acquired from the image captured by the sub imaging unit, and the parallax of the sub imaging unit is obtained based on the parallax information. An image data processing unit for generating an image having;
A stereoscopic photographing apparatus comprising:
前記画像データ処理部は、前記元画像データに対し構造物解析を行い、構造物と背景画像を抽出し、前記副撮像部の画像から構造物位置情報を抽出し、前記視差情報と前記構造物位置情報に基づいて、前記元画像の構造物を移動して配置することを特徴とする請求項1に記載の立体撮影装置。   The image data processing unit performs a structure analysis on the original image data, extracts a structure and a background image, extracts structure position information from an image of the sub-imaging unit, and extracts the parallax information and the structure. The stereoscopic imaging apparatus according to claim 1, wherein the structure of the original image is moved and arranged based on position information. 前記画像データ処理部は、前記元画像データの隠れた部分の情報を、前記副撮像部の画像から画像情報を抽出して、隠れた部分の画像を生成することを特徴とする請求項1または2に記載の立体撮影装置。   The image data processing unit extracts information of a hidden portion of the original image data from an image of the sub-imaging unit, and generates an image of the hidden portion. The stereoscopic photographing apparatus according to 2. 請求項1から3のいずれか一項に記載の立体撮影装置を備えたことを特徴とする携帯端末装置。   A portable terminal device comprising the stereoscopic photographing device according to any one of claims 1 to 3.
JP2011257274A 2011-11-25 2011-11-25 Stereoscopic photographing device and portable terminal device using the same Pending JP2013115467A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011257274A JP2013115467A (en) 2011-11-25 2011-11-25 Stereoscopic photographing device and portable terminal device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011257274A JP2013115467A (en) 2011-11-25 2011-11-25 Stereoscopic photographing device and portable terminal device using the same

Publications (1)

Publication Number Publication Date
JP2013115467A true JP2013115467A (en) 2013-06-10

Family

ID=48710669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011257274A Pending JP2013115467A (en) 2011-11-25 2011-11-25 Stereoscopic photographing device and portable terminal device using the same

Country Status (1)

Country Link
JP (1) JP2013115467A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101451813B1 (en) * 2013-02-07 2014-10-16 주식회사 로커스 Method for processing image using top-view matrix when making three-dimensional image and image processing device using the same and record medium having the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101451813B1 (en) * 2013-02-07 2014-10-16 주식회사 로커스 Method for processing image using top-view matrix when making three-dimensional image and image processing device using the same and record medium having the same

Similar Documents

Publication Publication Date Title
KR102013978B1 (en) Method and apparatus for fusion of images
EP2518993A1 (en) Image capturing device, azimuth information processing method, and program
TWI433530B (en) Camera system and image-shooting method with guide for taking stereo photo and method for automatically adjusting stereo photo
JP4763827B2 (en) Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program
WO2015081563A1 (en) Method for generating picture and twin-lens device
WO2015192547A1 (en) Method for taking three-dimensional picture based on mobile terminal, and mobile terminal
KR20140000205A (en) Image processing device, imaging device, and image processing method and program
JP2009200560A (en) Imaging apparatus, imaging method, and program
JP2011259168A (en) Stereoscopic panoramic image capturing device
JP2012085258A (en) Camera body, imaging device, camera body control method, program, and recording medium on which program is recorded
JPWO2011086636A1 (en) Stereo image pickup device, stereo image pickup method, stereo image display device, and program
TW201224635A (en) Image processing device, image capture device, image processing method, and program
JP5923595B2 (en) Image processing apparatus and method, and imaging apparatus
JP5614268B2 (en) Image processing apparatus, image processing method, and program
JP5214547B2 (en) Image display apparatus and method, and program
JP2010226362A (en) Imaging apparatus and control method thereof
JP2016504828A (en) Method and system for capturing 3D images using a single camera
JP6016180B2 (en) Image processing method and image processing apparatus
JP2010114577A (en) Imaging apparatus, image processor, control method and image processing method of imaging apparatus
WO2012014347A1 (en) Camera body, interchangeable lens unit, image capturing device, method for controlling camera body, program, and recording medium on which program is recorded
JP2013113877A (en) Stereoscopic photographing device, and portable terminal device using the same
JP2013115467A (en) Stereoscopic photographing device and portable terminal device using the same
JP2012085252A (en) Image generation device, image generation method, program, and recording medium with program recorded thereon
JP2016036081A (en) Image processing device, method and program, and recording medium
JP2011135374A (en) Three-dimensional digital camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151117