JP2016131297A - Stereoscopic image generation device, stereoscopic image generation method and program - Google Patents

Stereoscopic image generation device, stereoscopic image generation method and program Download PDF

Info

Publication number
JP2016131297A
JP2016131297A JP2015004513A JP2015004513A JP2016131297A JP 2016131297 A JP2016131297 A JP 2016131297A JP 2015004513 A JP2015004513 A JP 2015004513A JP 2015004513 A JP2015004513 A JP 2015004513A JP 2016131297 A JP2016131297 A JP 2016131297A
Authority
JP
Japan
Prior art keywords
stereoscopic image
image
subject
background surface
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015004513A
Other languages
Japanese (ja)
Inventor
松山 一郎
Ichiro Matsuyama
一郎 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015004513A priority Critical patent/JP2016131297A/en
Publication of JP2016131297A publication Critical patent/JP2016131297A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable an image picked up from a subject to be efficiently output as a stereoscopic image.SOLUTION: A stereoscopic image generation device has generating means for converting an image achieved by imaging a subject on the basis of distance information concerning the subject to generate a stereoscopic image. In the generating means, the respective pixels of the image are arranged in the depth direction based on the distance information to generate data. In the data, a background face and a foreground face which have predetermined inclinations in the depth direction and are in parallel to each other are set so as to sandwich the image constituting the subject therebetween, and pixels which are located at the rear side of the background face in the depth direction are projected to the background face to generate the stereoscopic image.SELECTED DRAWING: Figure 1

Description

本発明は、立体画像生成装置及び、立体画像生成方法及びプログラムに関する。   The present invention relates to a stereoscopic image generation device, a stereoscopic image generation method, and a program.

近年、3Dプリンタが広く普及し始めている。3Dプリンタは樹脂や石膏粉末などの記録材を積層することで立体を造形する装置である。これを用いて、撮影画像と、その奥行きを示す距離情報とを元に、撮影画像を立体的なレリーフ、即ち立体画像を出力する装置やシステムが提供されるようになった。   In recent years, 3D printers have begun to spread widely. A 3D printer is a device that forms a solid by stacking recording materials such as resin and gypsum powder. By using this, a device or system for outputting a three-dimensional relief of a photographed image, that is, a three-dimensional image, based on the photographed image and distance information indicating the depth has been provided.

こうした立体画像は、従来の平面的な写真に代えて、室内などで鑑賞用に用いられる。写真を飾る場合は、写真立てに入れ、スタンドや壁で支持して斜めに傾けられることが多い。立体画像も同様に、斜めに傾けて飾ることができれば、見やすく、かつ、倒れにくくすることができる。   Such a stereoscopic image is used for viewing in a room or the like, instead of a conventional planar photograph. When decorating a photo, it is often placed in a photo stand and supported by a stand or wall and tilted at an angle. Similarly, if a stereoscopic image can be displayed obliquely, it can be easily viewed and can be prevented from falling down.

また、こうした立体画像を出力する方法には、3Dプリンタ以外にも、熱膨張性シートを熱変形させることで立体を造形する方法や、型押し印刷やエンボス加工印刷や、レーザー彫刻など様々なものがある。いずれの出力方法も、出力する立体画像の最大高低差に制約があったり、高低差を付けるほど多くの記録材を積層するためコストがかかるといった特徴がある。   In addition to the 3D printer, there are various methods such as a method of forming a solid by thermally deforming a thermally expandable sheet, embossing printing, embossing printing, laser engraving, etc. There is. Each of the output methods is characterized in that there is a restriction on the maximum height difference of the stereoscopic image to be output, and the more the recording material is stacked, the more cost is required.

例えば、背の低い人物が手前に、背の高い人物が奥にいるような典型的な撮影画像を立体化する場合、最大高低差の範囲内でそれぞれの人物に奥行きを付けることになる。よって、人物の立体感だけでなく人物の位置関係を出すためにも高低差が利用されることになるので、各人物の立体感が薄れてしまう。   For example, when a typical photographed image in which a short person is in front and a tall person is in the back is three-dimensionalized, each person is given a depth within the range of the maximum height difference. Therefore, the difference in height is used not only for the three-dimensional effect of the person but also for the positional relationship of the person, so that the three-dimensional effect of each person is diminished.

特許文献1の装置では、入力された画像を線画にして、被写体の距離情報に対応する厚さの立体層を媒体に形成する際に、上部を厚く、下部に向かうに従って薄くなるよう立体化することで、立体感を強調している。また、特許文献2の装置では、最大高低差に制約がある立体画像の出力方法において、画素毎の高さを最大高低差で除して、その剰余に画素の高さを置き換えて、立体画像を出力することで、最大高低差の制約を満たしている。特許文献3の装置では、粉体材料を記録材とする3Dプリンタにおいて、出力したい本体を囲う枠体を同時に出力することで、枠体の外の記録材を不要としている。   In the apparatus of Patent Document 1, when an input image is converted into a line drawing and a three-dimensional layer having a thickness corresponding to the distance information of the subject is formed on the medium, the upper part is thickened and the three-dimensional object is thinned toward the lower part. In this way, the three-dimensional effect is emphasized. Further, in the apparatus of Patent Document 2, in a stereoscopic image output method in which the maximum height difference is limited, the height of each pixel is divided by the maximum height difference, and the height of the pixel is replaced with the remainder, thereby generating a stereoscopic image. Is output to satisfy the maximum height difference constraint. In the apparatus of Patent Document 3, in a 3D printer using a powder material as a recording material, a frame surrounding the main body to be output is output simultaneously, thereby eliminating the need for a recording material outside the frame.

特開2013−157597号公報JP 2013-157597 A 特開2009−199230号公報JP 2009-199230 A 特開2011−156783号公報JP 2011-156783 A

しかしながら、特許文献1は入力画像を線画とするため、被写体の立体的な形状を十分に表現できない場合がある。また、下部に向かうほど薄くなることで、被写体の本来の立体的な形状が表現できない場合がある。特許文献2の装置では、撮影画像の光軸方向の高さがなだらかに変化する領域が、最大高低差で割り切れる毎に高さがノコギリ状に変化してしまうので、人物などの被写体を立体的に表現すると見た目の違和感が大きい立体画像となってしまう。特許文献3の装置では、z軸方向に対しては、入力された画像と距離情報が持つ高低差の記録材をそのまま積層するので、高低差が大きい場合には大量の記録材が必要になってしまう。   However, since Patent Document 1 uses an input image as a line drawing, there are cases where the three-dimensional shape of the subject cannot be expressed sufficiently. In addition, the original three-dimensional shape of the subject may not be expressed by being thinner toward the bottom. In the apparatus of Patent Document 2, the area in which the height in the optical axis direction of the photographed image changes gently is changed in a saw-tooth shape every time it is divisible by the maximum height difference. If it expresses, it will become a three-dimensional image with a great discomfort. In the apparatus of Patent Document 3, since the recording material having the difference in elevation between the input image and the distance information is laminated as it is in the z-axis direction, a large amount of recording material is required when the elevation difference is large. End up.

そこで本発明では、被写体が写った画像を効率的に立体画像として出力可能とする。   Therefore, in the present invention, it is possible to efficiently output an image showing a subject as a stereoscopic image.

上記課題を解決するための本発明は、立体画像生成装置であって、
被写体を撮像して得られた画像を、前記被写体に関する距離情報に基づき変換して立体画像を生成する生成手段であって、
前記画像の各画素を前記距離情報に基づき奥行き方向に配置して生成されたデータにおいて、前記奥行き方向に所定の傾きを有する互いに平行な背景面と前景面とを、前記被写体を構成する画素を挟むように設定し、
前記データにおいて前記背景面よりも奥行き方向で後方に位置する画素を前記背景面に投影することにより前記立体画像を生成する生成手段を備える。
The present invention for solving the above problems is a stereoscopic image generating device,
Generation means for converting an image obtained by imaging a subject based on distance information about the subject to generate a stereoscopic image;
In the data generated by arranging each pixel of the image in the depth direction based on the distance information, a pixel constituting the subject is composed of a parallel background surface and a foreground surface having a predetermined inclination in the depth direction. Set to pinch,
The image processing apparatus includes a generating unit configured to generate the stereoscopic image by projecting, on the background surface, pixels positioned rearward in the depth direction from the background surface in the data.

本発明によれば、被写体が写った画像を効率的に立体画像として出力できる。   According to the present invention, an image showing a subject can be efficiently output as a stereoscopic image.

発明の実施形態1に対応する立体画像生成装置の構成例を示す図。The figure which shows the structural example of the stereo image production | generation apparatus corresponding to Embodiment 1 of invention. 発明の実施形態1に対応する立体画像生成のための条件を設定する方法、及び、立体画像撮影時のプレビュー画面の一例を説明するための図。The figure for demonstrating an example of the method of setting the conditions for the stereo image production | generation corresponding to Embodiment 1 of invention, and the preview screen at the time of stereo image imaging | photography. 発明の実施形態に対応する撮影画像と距離情報とを説明するための図。The figure for demonstrating the picked-up image and distance information corresponding to embodiment of invention. 発明の実施形態1に対応する立体画像の生成処理の一例を示すフローチャート及び生成処理を説明するための図。The flowchart for demonstrating an example of the production | generation process of the stereo image corresponding to Embodiment 1 of invention, and a production | generation process. 発明の実施形態2に対応する画像撮影時のプレビュー画面の一例を示す図。The figure which shows an example of the preview screen at the time of the image photography corresponding to Embodiment 2 of invention. 発明の実施形態3に対応する立体画像生成装置の構成例を示す図。The figure which shows the structural example of the stereo image production | generation apparatus corresponding to Embodiment 3 of invention. 発明の実施形態3に対応する立体画像の生成処理の一例を示すフローチャート。The flowchart which shows an example of the production | generation process of the stereo image corresponding to Embodiment 3 of invention. 発明の実施形態3に対応する立体画像の生成処理を説明するための図。The figure for demonstrating the production | generation process of the stereo image corresponding to Embodiment 3 of invention. 発明の実施形態4に対応する立体画像の見え方を説明するための図。The figure for demonstrating the appearance of the stereo image corresponding to Embodiment 4 of invention. 発明の実施形態4に対応する立体画像の生成処理を説明するための図。The figure for demonstrating the production | generation process of the stereo image corresponding to Embodiment 4 of invention. 発明の実施形態4に対応する背景面の処理の一例を説明するための図。The figure for demonstrating an example of the process of the background surface corresponding to Embodiment 4 of invention.

[実施形態1]
発明の第1の実施形態として、立体画像データ出力機能を有する立体画像生成装置を説明する。まず、図1を参照して、発明の実施形態に対応する立体画像生成装置の構成例を説明する。発明の実施形態に対応する装置は、たとえばデジタルカメラとして構成される。それ以外に、例えばパーソナルコンピュータ、携帯電話、スマートフォン、PDA、タブレット端末、デジタルビデオカメラなどの任意の情報処理端末或いは撮像装置とすることができる。なお、本発明の実施形態に対応する立体画像生成処理は、撮影画像と、該画像に含まれる被写体の距離情報が用意できればよいので、係る情報が得られるのであれば立体画像生成装置は必ずしも撮影機能及び測距機能を有していなくても良い。その場合、外部で撮影された画像と、その距離情報の入力に基づき立体画像を出力する3Dプリンタなどの出力装置やコンピュータ上のプログラムとして構成されても良い。
[Embodiment 1]
As a first embodiment of the invention, a stereoscopic image generating apparatus having a stereoscopic image data output function will be described. First, with reference to FIG. 1, the example of a structure of the stereo image production | generation apparatus corresponding to embodiment of invention is demonstrated. An apparatus corresponding to an embodiment of the invention is configured as a digital camera, for example. In addition, any information processing terminal such as a personal computer, a mobile phone, a smartphone, a PDA, a tablet terminal, a digital video camera, or an imaging device can be used. Note that the stereoscopic image generation processing corresponding to the embodiment of the present invention only needs to be able to prepare a captured image and distance information of the subject included in the image. The function and the distance measuring function may not be provided. In that case, it may be configured as a program on an output device such as a 3D printer or a computer that outputs a stereoscopic image based on an externally captured image and distance information input.

図1(a)において、デジタルカメラ100は、以下の構成を有する。なお、デジタルカメラ100において、撮像素子、表示素子のような物理的デバイスを除き、各ブロックは専用ロジック回路やメモリを用いてハードウェア的に構成されてもよい。或いは、メモリに記憶されている処理プログラムをCPU等のコンピュータが実行することにより、ソフトウェア的に構成されてもよい。   In FIG. 1A, a digital camera 100 has the following configuration. In the digital camera 100, each block may be configured by hardware using a dedicated logic circuit or memory, except for physical devices such as an image sensor and a display element. Alternatively, the processing program stored in the memory may be configured by software by a computer such as a CPU executing the processing program.

制御部101は、内部バス102で接続された各ブロックの制御を行う。FLASHメモリコントローラ103は制御部101からの要求に基づき、FLASHメモリ104に対する不揮発性データの読み書きを行う。制御部101はFLASHメモリ104に格納されたプログラムを元に動作し、撮影した画像などの不揮発性のデータをFLASHメモリ104に格納する。   The control unit 101 controls each block connected by the internal bus 102. The FLASH memory controller 103 reads / writes nonvolatile data from / to the FLASH memory 104 based on a request from the control unit 101. The control unit 101 operates based on a program stored in the FLASH memory 104 and stores nonvolatile data such as a captured image in the FLASH memory 104.

DRAMコントローラ105は、各ブロックからの要求に基づきDRAM106に対するデータの読み書きを行う。制御部101や各ブロックは、動作中の一時データなどをDRAM106に格納して用いる。操作部107はデジタルカメラ100の外装に設けられたシャッターボタン等で構成され、使用者のボタン操作を、制御部101へ伝える。カメラ信号処理部108は制御部101の指示に基づき、カメラ109を制御して被写体を撮影して、得られた画像データをDRAM106に格納する。   The DRAM controller 105 reads and writes data to and from the DRAM 106 based on requests from each block. The control unit 101 and each block use temporary data during operation stored in the DRAM 106. The operation unit 107 includes a shutter button or the like provided on the exterior of the digital camera 100, and transmits the user's button operation to the control unit 101. The camera signal processing unit 108 controls the camera 109 based on an instruction from the control unit 101 to photograph the subject, and stores the obtained image data in the DRAM 106.

本実施形態のカメラ109は、複数の視差画像を一度の撮影(露光)で取得することができる。このようなカメラとしてはステレオカメラの様な多眼カメラを代表としてさまざまなものが知られているが、本実施形態では、撮像素子が受光面上に撮像レンズの射出瞳を分割するマイクロレンズアレイ(以下、MLA)を備えている。図1(b)は撮像素子4をカメラ1の正面および側方から見た状態を模式的に示している。撮像素子4が有する画素群143の受光面上にはMLA141が形成され、画素群143を構成する各画素は、図1(c)に示すように、一つのマイクロレンズ142と二つのフォトダイオード(光電変換領域)143a、143bで構成される。   The camera 109 of the present embodiment can acquire a plurality of parallax images by one shooting (exposure). Various cameras are known as representative cameras such as a multi-lens camera such as a stereo camera. In this embodiment, a microlens array in which an imaging device divides an exit pupil of an imaging lens on a light receiving surface. (Hereinafter referred to as MLA). FIG. 1B schematically shows a state in which the image sensor 4 is viewed from the front and side of the camera 1. An MLA 141 is formed on the light receiving surface of the pixel group 143 included in the image pickup device 4, and each pixel constituting the pixel group 143 includes one microlens 142 and two photodiodes (see FIG. 1C). Photoelectric conversion region) 143a and 143b.

また図1(c)は撮像レンズ2の射出瞳144を概念的に示しており、A像瞳145aとAピクセル143a、B像瞳145bとBピクセル143bは、それぞれマイクロレンズ142により共役の関係を有する。従って、撮像素子の各画素は瞳分割機能を有し、Aピクセル143aには射出瞳144の右半分のA像瞳145aを通過した光束が、Bピクセル143bには射出瞳144の左半分のB像瞳145bを通過した光束が入射する。従って、Aピクセル群からなる画像と、Bピクセル群からなる画像は視差画像である。そして、このような撮像素子で得られる複数の視差画像の位相差を検出することで、被写体の距離情報(奥行き情報)を得ることができる。また、各視差画像や視差画像を加算した加算画像は、被写体の2次元情報として用いることができる。   FIG. 1C conceptually shows the exit pupil 144 of the imaging lens 2. The A image pupil 145a and the A pixel 143a, and the B image pupil 145b and the B pixel 143b are conjugated by the microlens 142, respectively. Have. Accordingly, each pixel of the image pickup device has a pupil division function. A light beam that has passed through the A image pupil 145a in the right half of the exit pupil 144 is transmitted to the A pixel 143a, and B in the left half of the exit pupil 144 is applied to the B pixel 143b. The light beam that has passed through the image pupil 145b enters. Therefore, an image composed of the A pixel group and an image composed of the B pixel group are parallax images. Then, by detecting the phase difference between a plurality of parallax images obtained by such an image sensor, distance information (depth information) of the subject can be obtained. Also, each parallax image or an added image obtained by adding the parallax images can be used as two-dimensional information of the subject.

カメラ信号処理部108は、カメラ109からの電気信号をデジタル信号に変換するA/D変換や、ガンマ処理、ノイズ低減処理、エッジ強調処理等の現像処理を行う。また、撮影と同時に、カメラ109によって被写体の領域毎のデフォーカス量を測定して、画像データとともにDRAM106に格納する。また、画像データを表示用に縮小して、DRAM106に設けた表示用フレームメモリに格納する。   The camera signal processing unit 108 performs development processing such as A / D conversion for converting an electrical signal from the camera 109 into a digital signal, gamma processing, noise reduction processing, and edge enhancement processing. Simultaneously with the shooting, the camera 109 measures the defocus amount for each area of the subject, and stores it in the DRAM 106 together with the image data. Further, the image data is reduced for display and stored in a display frame memory provided in the DRAM 106.

カメラ109は、例えばフォーカスレンズや絞り、シャッター等の光学系、センサ、及び撮像制御部を含むことができる。センサは、光学系において結像された被写体の光量を光電変換によって電気信号に変換し、例えばCMOSやCCD等の撮像素子として構成される。撮像制御部は光学系のフォーカスや絞り、シャッターや撮像素子の撮影感度等の制御を行う。   The camera 109 can include, for example, an optical system such as a focus lens, a diaphragm, and a shutter, a sensor, and an imaging control unit. The sensor converts the amount of light of the subject imaged in the optical system into an electrical signal by photoelectric conversion, and is configured as an image sensor such as a CMOS or CCD. The imaging control unit controls the focus and aperture of the optical system, the shooting sensitivity of the shutter and the image sensor, and the like.

距離マップ生成部111はDRAM106に格納された領域毎のデフォーカス量から、画像の領域毎に距離情報生成を行い、DRAM106に格納する。立体画像生成部112は、DRAM106に格納された画像データと、距離情報を元に、制御部101の制御に応じて立体画像データを生成して、DRAM106に格納する。メモリカードコントローラ113は、DRAM106に格納された立体画像データをデジタルカメラ100本体に接続されたメモリカード150に記録する。立体画像データの最終的な記録(出力)形式としては例えばSTL形式とする。このメモリカードに格納した立体画像データを外部の3Dプリンタなどで出力することで、立体画像データを実体化することができる。   The distance map generation unit 111 generates distance information for each image area from the defocus amount for each area stored in the DRAM 106 and stores the distance information in the DRAM 106. The stereoscopic image generation unit 112 generates stereoscopic image data according to the control of the control unit 101 based on the image data stored in the DRAM 106 and the distance information, and stores the generated stereoscopic image data in the DRAM 106. The memory card controller 113 records the stereoscopic image data stored in the DRAM 106 on a memory card 150 connected to the digital camera 100 main body. The final recording (output) format of the stereoscopic image data is, for example, the STL format. By outputting the stereoscopic image data stored in the memory card with an external 3D printer or the like, the stereoscopic image data can be materialized.

グラフィック描画部114は制御部101の指示に基づき、使用者に通知する情報などを、DRAM106に確保した表示用フレームメモリに文字や図形として描画する。LCD(Liquid Crystal Display)コントローラ115は、DRAM106に格納された表示用フレームメモリの内容を読みだして、LCDタッチパネル116で表示する。タッチパネルコントローラ117は、LCDタッチパネル116に対する使用者のタッチ操作を検出し、制御部101に伝える。   Based on an instruction from the control unit 101, the graphic drawing unit 114 draws information to be notified to the user as characters and figures in the display frame memory secured in the DRAM 106. An LCD (Liquid Crystal Display) controller 115 reads the content of the display frame memory stored in the DRAM 106 and displays it on the LCD touch panel 116. The touch panel controller 117 detects a user's touch operation on the LCD touch panel 116 and transmits the detected operation to the control unit 101.

次に、図2を参照して、立体画像生成のための条件を設定する方法、及び、立体画像撮影時のプレビュー画面の一例を説明する。まず、図2(a)は、デジタルカメラ100のLCDタッチパネル116に表示される入力画面200の一例を示す。当該入力画面200を用いることでデジタルカメラ100の使用者は、出力する立体画像のサイズと角度を入力することができる。また、使用者(ユーザ)に少なくとも奥行きを含む3次元情報を入力させて、その領域(直方体)に収まるように、入力画像のサイズ及び傾きが設定されるようにしてもよい。   Next, an example of a method for setting a condition for generating a stereoscopic image and an example of a preview screen at the time of capturing a stereoscopic image will be described with reference to FIG. First, FIG. 2A shows an example of the input screen 200 displayed on the LCD touch panel 116 of the digital camera 100. By using the input screen 200, the user of the digital camera 100 can input the size and angle of the stereoscopic image to be output. Alternatively, the user (user) may input three-dimensional information including at least the depth, and the size and inclination of the input image may be set so that the user (user) fits in the region (cuboid).

具体的に入力画面200では、立体画像の背景面であるベース部分201と、ベース部分201から手前方向に最大高低差を隔てた前景面202が示される。使用者は入力画面200を見ながら、立体画像のサイズを、画像の幅w203、画像の高さh204の各入力ボックスにより設定できる。また、ベース部分201と前景面202との距離、即ち、立体画像の奥行き方向の最大高低差205を設定することができる。さらに、立体画像を設置する際の設置角度θ206を設定することができる。   Specifically, the input screen 200 shows a base portion 201 that is a background surface of a stereoscopic image and a foreground surface 202 that is separated from the base portion 201 by a maximum height difference in the front direction. While viewing the input screen 200, the user can set the size of the stereoscopic image by using the input boxes for the image width w203 and the image height h204. In addition, the distance between the base portion 201 and the foreground surface 202, that is, the maximum height difference 205 in the depth direction of the stereoscopic image can be set. Furthermore, it is possible to set an installation angle θ206 when installing a stereoscopic image.

使用者がいずれかの入力ボックスにタッチすると、制御部101はLCDタッチパネル116にテンキー等を表示する。使用者は、LCDタッチパネル116に対してタッチ操作を行い各値を設定することができる。なお、テンキー等の表示や、それに対するタッチ操作は一般的であるので、ここでは図示を省略する。キャンセルボタン207は画面で入力した値を使用者が取り消すためのボタンである。決定ボタン208は、画面で入力した値の設定を使用者が確定させるためのボタンである。決定ボタン208が操作されると、入力画面200で設定されたサイズ、角度、奥行きの値に従い、これ以降で立体画像の生成が行われる。   When the user touches any input box, the control unit 101 displays a numeric keypad or the like on the LCD touch panel 116. The user can set each value by touching the LCD touch panel 116. In addition, since display of a numeric keypad and the touch operation with respect to it are common, illustration is abbreviate | omitted here. A cancel button 207 is a button for the user to cancel the value input on the screen. The decision button 208 is a button for the user to confirm the setting of the value input on the screen. When the enter button 208 is operated, a stereoscopic image is generated thereafter according to the size, angle, and depth values set on the input screen 200.

次に、図2(b)は画像撮影時のプレビュー画面の一例を示す。LCDタッチパネル116に表示されているのは、カメラ109で撮影された撮影画像211である。撮影画像211は図2(a)で示した入力画面200で入力された立体画像の所定のサイズ及び角度に応じたアスペクト比となっている。即ち、立体画像の幅w、高さh、角度θとにつき、撮影画像のアスペクト比はw/(h・cosθ)となる。LCDタッチパネル116の幅をWidth、高さをHeightとすると、本図の例ではWidth/Height<w/(h・cosθ)であって、撮影画像211の方が横長であるとする。そこで、撮影画像211はLCDタッチパネル116の幅Wに合わせて表示され、撮影画像211がLCDタッチパネルの高さHeightに足りない部分は上下に黒帯212と213を付けて表示される。   Next, FIG. 2B shows an example of a preview screen during image shooting. What is displayed on the LCD touch panel 116 is a captured image 211 captured by the camera 109. The captured image 211 has an aspect ratio corresponding to a predetermined size and angle of the stereoscopic image input on the input screen 200 shown in FIG. That is, the aspect ratio of the captured image is w / (h · cos θ) with respect to the width w, height h, and angle θ of the stereoscopic image. Assuming that the width of the LCD touch panel 116 is Width and the height is Height, Width / Height <w / (h · cos θ) in the example of this figure, and the captured image 211 is assumed to be horizontally long. Therefore, the photographed image 211 is displayed in accordance with the width W of the LCD touch panel 116, and a portion where the photographed image 211 is not sufficient for the height Height of the LCD touch panel is displayed with black bands 212 and 213 on the top and bottom.

次に、図3を参照して、撮影画像と距離情報の例について説明する。図3(a)はデジタルカメラ100で画像を撮影している状況を横から俯瞰した概略図である。この例では、デジタルカメラ100の撮影方向に、被写体301と被写体302とが異なる距離d1、d2で位置している。なお、図3では被写体として人物を例として示しているが、被写体は人物に限定されない。zはカメラの光軸で、yは天地方向の軸を示している。図3(b)は、図3(a)で撮影された画像の一例を示す。画像310には被写体301と302に加えて、背景に太陽303が写っている。xは水平方向、yは天地方向の軸を示している。   Next, an example of a captured image and distance information will be described with reference to FIG. FIG. 3A is a schematic view of a situation where an image is being taken by the digital camera 100 as seen from the side. In this example, the subject 301 and the subject 302 are located at different distances d1 and d2 in the shooting direction of the digital camera 100. Although FIG. 3 shows a person as an example of a subject, the subject is not limited to a person. z is the optical axis of the camera, and y is the vertical axis. FIG. 3B shows an example of the image photographed in FIG. In the image 310, in addition to the subjects 301 and 302, the sun 303 is shown in the background. x indicates the horizontal direction, and y indicates the vertical axis.

図3(c)は、図3(a)に示す撮影時に得られた画像310に対応する距離情報の一例を示す。距離情報320では、色が濃い領域が手前、薄い領域が奥に位置する。デジタルカメラ100に近い被写体301が比較的濃く、次いで被写体302がやや濃くなっている。太陽303は無限遠に位置するため距離情報は得られない。なお、図3(d)は、画像310に対して、特徴検出部601が注目被写体として検出した被写体301と302の顔の位置とサイズを枠311と312で囲って示した図である。図3(d)は、後述する第3の実施形態で参照する。   FIG. 3C shows an example of distance information corresponding to the image 310 obtained at the time of shooting shown in FIG. In the distance information 320, a dark color region is positioned on the near side and a thin region is positioned on the back side. A subject 301 close to the digital camera 100 is relatively dark, and then a subject 302 is slightly dark. Since the sun 303 is located at infinity, distance information cannot be obtained. FIG. 3D is a diagram showing the positions and sizes of the faces of the subjects 301 and 302 detected by the feature detection unit 601 as the subject of interest surrounded by frames 311 and 312 with respect to the image 310. FIG. 3D is referred to in a third embodiment to be described later.

次に、図4を参照して、立体画像の生成処理の流れを説明する。図4(a)は制御部101の制御に基づき、立体画像生成部112が立体画像を生成する処理の一例を示すフローチャートである。また、図4(b)から(e)は生成処理の各ステップにおいて、立体画像生成部112が一時的または最終的に生成した立体画像データの例を示す。   Next, with reference to FIG. 4, the flow of the stereoscopic image generation process will be described. FIG. 4A is a flowchart illustrating an example of a process in which the stereoscopic image generation unit 112 generates a stereoscopic image based on the control of the control unit 101. 4B to 4E show examples of stereoscopic image data generated temporarily or finally by the stereoscopic image generation unit 112 in each step of the generation process.

図4のフローチャートに対応する処理は、例えば、立体画像生成部112として機能する1以上のプロセッサが対応するプログラム(ROM等に格納)を実行することにより実現できる。まずS401において、DRAM106に格納された撮影画像と距離情報を元に、撮影画像の各画素を奥行き方向(z方向)に配置して、立体画像の元となるデータを生成する。図4(b)は、撮影画像310に含まれる被写体301と302とを距離情報320に基づき立体化した立体画像421を横から見た図である。画像の領域毎にz軸方向に奥行きが付けられ、無限遠の領域が背景411となり、被写体301と302とは奥行きを付けて立体化されている。
次にS402において、S401で得られた立体画像に対して前景面と背景面とを設定する。図4(c)は、立体画像421に対して前景面412と背景面413とを設定した場合を示す図である。前景面412は背景411に対して予め入力された角度θだけ傾けて設けられ、立体画像421にz軸方向の手前側で接する位置に配置される。また、背景面413は前景面412よりもz軸方向の奥側に予め定められた最大高低差Hを隔てて、前景面412と平行に配置される。これにより、前景面412と背景面413とは、被写体301と302とを構成する画素を挟むように設定されることになる。
The process corresponding to the flowchart of FIG. 4 can be realized by executing a program (stored in a ROM or the like) corresponding to one or more processors functioning as the stereoscopic image generation unit 112, for example. First, in S401, based on the captured image and distance information stored in the DRAM 106, each pixel of the captured image is arranged in the depth direction (z direction) to generate data that is the source of the stereoscopic image. FIG. 4B is a view of a stereoscopic image 421 obtained by stereoscopicizing the subjects 301 and 302 included in the captured image 310 based on the distance information 320 from the side. A depth is added to each image region in the z-axis direction, an infinite region is the background 411, and the subjects 301 and 302 are three-dimensionalized with a depth.
Next, in S402, a foreground surface and a background surface are set for the stereoscopic image obtained in S401. FIG. 4C is a diagram illustrating a case where a foreground surface 412 and a background surface 413 are set for the stereoscopic image 421. The foreground surface 412 is provided to be inclined with respect to the background 411 by a previously input angle θ, and is disposed at a position in contact with the stereoscopic image 421 on the near side in the z-axis direction. Further, the background surface 413 is arranged in parallel to the foreground surface 412 with a predetermined maximum height difference H on the far side in the z-axis direction from the foreground surface 412. Thereby, the foreground surface 412 and the background surface 413 are set so as to sandwich the pixels constituting the subjects 301 and 302.

次にS403において、背景面413への投影を行う。先に示した図4(c)において、背景面413より奥行き方向(z方向)で後方にある被写体の領域を、z軸方向に背景面413に投影する。その結果が図4(d)で、背景面413に投影された背景414を持つ立体画像422となる。   In step S403, projection onto the background surface 413 is performed. In FIG. 4C described above, the area of the subject behind the background surface 413 in the depth direction (z direction) is projected onto the background surface 413 in the z-axis direction. The result is a stereoscopic image 422 having a background 414 projected on the background surface 413 in FIG.

更にS404において、立体画像の回転を行う。先に示した図4(d)の背景414がベースとなるように立体画像422を90度−θだけ回転する。図4(e)は回転後の立体画像422を示す。z軸とy軸に対して、90度−θだけ回転したr軸とq軸を設けて、これらの軸を基準として立体画像422のデータをDRAM106に格納することで、立体画像の生成処理を終える。   In step S404, the stereoscopic image is rotated. The stereoscopic image 422 is rotated by 90 degrees −θ so that the background 414 in FIG. FIG. 4E shows the stereoscopic image 422 after rotation. By providing an r-axis and a q-axis rotated by 90 degrees −θ with respect to the z-axis and the y-axis, and storing the data of the stereoscopic image 422 in the DRAM 106 with reference to these axes, a stereoscopic image generation process is performed. Finish.

なお、本実施形態の説明では、立体画像を実体として出力する方式として、3Dプリンタを挙げているが、従来技術に記載した他の方式で立体画像を出力する場合でも、同様の効果が得られる。また、本実施形態の説明では、距離マップをカメラから得た領域毎のデフォーカス量から生成しているが、2眼の撮像系により得た視差画像を用いたり、異なる焦点距離で撮影した複数枚の画像から焦点距離毎の領域を検出するなど他の方法で生成しても良い。   In the description of the present embodiment, a 3D printer is cited as a method for outputting a stereoscopic image as an entity, but the same effect can be obtained even when a stereoscopic image is output by another method described in the related art. . Further, in the description of the present embodiment, the distance map is generated from the defocus amount for each region obtained from the camera. However, a plurality of images obtained by using parallax images obtained by a two-lens imaging system or photographed at different focal lengths are used. You may produce | generate by another method, such as detecting the area | region for every focal distance from the image of 1 sheet.

また、本実施形態の説明では、前景面を配置する際に、立体画像全体のz軸方向の手前側で接するようにしているが、画像中の複数の被写体のうちで注目被写体を検出して、注目被写体が前景面と背景面の間に収まるように配置するよう構成しても良い。その場合、前景面より奥行き方向で前方にも被写体が存在することがあるので、背景面413に対して投影を行うのと同様に、前景面412より手前の被写体をz軸方向に前景面412に投影する。   Further, in the description of the present embodiment, when the foreground plane is arranged, the foreground plane is in contact with the near side in the z-axis direction of the entire stereoscopic image. However, the subject of interest is detected from a plurality of subjects in the image. The subject of interest may be arranged so as to fit between the foreground surface and the background surface. In this case, since there may be a subject in the depth direction from the foreground surface, the subject in front of the foreground surface 412 is placed in the z-axis direction in the foreground surface 412 in the same manner as when the projection is performed on the background surface 413. Project to.

[実施形態2]
次に、発明の第2の実施形態を説明する。本実施形態では、画像撮影時のプレビュー画面表示中に、プレビュー画像を元に立体画像を生成して、どの領域が立体となるかを表示する点が第1の実施形態と異なる。
[Embodiment 2]
Next, a second embodiment of the invention will be described. This embodiment is different from the first embodiment in that a three-dimensional image is generated based on a preview image and a region is displayed as a three-dimensional image while the preview screen is displayed during image shooting.

図5を参照して本実施形態における画像撮影時のプレビュー画面を説明する。図5は画像撮影時のプレビュー画面の一例を示す。実施形態1の図2と異なるのは、背景面に投影されて平面となる領域を識別可能に示す点である。例えば、図5のように、平面になる領域にゼブラパターン(縞模様)を重畳して、立体表示がされる領域と平面表示される領域とを識別可能とすることができる。図5では、画像311の背景に加えて、被写体の背景面に投影される部分501と502とに対して、ゼブラパターンが重畳されている。また、500は立体画像が前景面と接する領域を示す点滅パターンである。例えば、白色と透過色とを交互に表示させて点滅させてもよい。   With reference to FIG. 5, a preview screen at the time of image capturing in the present embodiment will be described. FIG. 5 shows an example of a preview screen at the time of image shooting. The difference from FIG. 2 of the first embodiment is that the region projected onto the background surface and becomes a flat surface is identifiable. For example, as shown in FIG. 5, a zebra pattern (striped pattern) can be superimposed on an area that becomes a flat surface, so that an area that is displayed three-dimensionally and an area that is displayed flat can be identified. In FIG. 5, a zebra pattern is superimposed on portions 501 and 502 projected on the background of the subject in addition to the background of the image 311. Reference numeral 500 denotes a blinking pattern indicating a region where the stereoscopic image is in contact with the foreground surface. For example, white and transparent colors may be alternately displayed and blinked.

本実施形態ではプレビュー画面の表示中に、立体画像生成部112が制御部101の制御に基づき、図4(a)のフローチャートに対応する立体画像生成処理を撮影画像に対して繰り返し行う。制御部101はDRAM106に格納された立体画像データから、背景面となる領域を抽出し、グラフィック描画部114がDRAM106に格納された表示用フレームに対してゼブラパターンの描画を行う。また、前景面に接する領域を抽出して、DRAM106に格納された表示用フレームに対して点滅パターンの描画を行う。なお、前景面に被写体が投影される場合は、当該前景面に投影された部分を、背景面とは異なるパターンを用いて識別可能に表示しても良い。   In the present embodiment, the stereoscopic image generation unit 112 repeatedly performs a stereoscopic image generation process corresponding to the flowchart of FIG. 4A on the captured image based on the control of the control unit 101 while the preview screen is displayed. The control unit 101 extracts a region serving as a background surface from the stereoscopic image data stored in the DRAM 106, and the graphic drawing unit 114 draws a zebra pattern on the display frame stored in the DRAM 106. Further, an area in contact with the foreground surface is extracted, and a blinking pattern is drawn on the display frame stored in the DRAM 106. When the subject is projected on the foreground surface, the portion projected on the foreground surface may be displayed so as to be identifiable using a pattern different from the background surface.

こうしたプレビュー表示により、使用者はこのまま撮影を行うと、被写体のどの領域が立体化されるか認識することができる。   With such a preview display, the user can recognize which region of the subject is three-dimensionalized by photographing as it is.

[実施形態3]
次に、上述の実施形態1及び2の変形例として発明の第3の実施形態を説明する。図6は、本実施形態に対応する立体画像生成装置としてのデジタルカメラ600の構成を示す図である。デジタルカメラ600は実施形態1及び2のデジタルカメラ100と基本的な構成は同一であり、対応するブロックには同一の参照番号を付している。以下、デジタルカメラ600に特有の構成について説明し、図1と共通の構成については説明を省略する。
[Embodiment 3]
Next, a third embodiment of the invention will be described as a modification of the above-described first and second embodiments. FIG. 6 is a diagram illustrating a configuration of a digital camera 600 as a stereoscopic image generating apparatus corresponding to the present embodiment. The basic configuration of the digital camera 600 is the same as that of the digital camera 100 of the first and second embodiments, and corresponding blocks are denoted by the same reference numerals. Hereinafter, a configuration unique to the digital camera 600 will be described, and description of the configuration common to FIG. 1 will be omitted.

特徴検出部601は、DRAM106に格納された画像データから、注目被写体として人物の顔を検出し、その位置とサイズを制御部101に通知する。制御部は位置とサイズを元に、注目被写体のスコアを付け、最もスコアが高い注目被写体を主被写体として取り扱う。立体画像出力部602は、DRAM106に格納された立体画像データを外部に出力する。出力先として外部の3Dプリンタなどを接続することで、立体画像データを実体化した出力結果を得ることができる。或いは、立体画像出力部602自体が3Dプリンタとして機能しても良い。LCD603は液晶表示装置であって図1のLCDタッチパネル116の代わりに用いられる。本実施形態では図1のLCDタッチパネル116のようにタッチパネルでなくても良いが、LCDタッチパネル116をそのまま用いても良い。   The feature detection unit 601 detects the face of a person as the subject of interest from the image data stored in the DRAM 106 and notifies the control unit 101 of the position and size. Based on the position and size, the control unit assigns a score of the subject of interest and treats the subject of interest with the highest score as the main subject. The stereoscopic image output unit 602 outputs the stereoscopic image data stored in the DRAM 106 to the outside. By connecting an external 3D printer or the like as an output destination, it is possible to obtain an output result that materializes stereoscopic image data. Alternatively, the stereoscopic image output unit 602 itself may function as a 3D printer. The LCD 603 is a liquid crystal display device and is used instead of the LCD touch panel 116 of FIG. In the present embodiment, the LCD touch panel 116 may not be a touch panel like the LCD touch panel 116 of FIG. 1, but the LCD touch panel 116 may be used as it is.

次に、図7及び図8を参照して、本実施形態における立体画像の生成処理の流れを説明する。図7は制御部101の制御に基づき、立体画像生成部112が立体画像を生成する処理の一例を示すフローチャートである。また、図8は生成処理の各ステップにおいて、立体画像生成部112が一時的または最終的に生成した立体画像データの例を示す。図7のフローチャートに対応する処理は、例えば、立体画像生成部112として機能する1以上のプロセッサが対応するプログラム(ROM等に格納)を実行することにより実現できる。   Next, with reference to FIG. 7 and FIG. 8, the flow of the stereoscopic image generation process in the present embodiment will be described. FIG. 7 is a flowchart illustrating an example of processing in which the stereoscopic image generation unit 112 generates a stereoscopic image based on the control of the control unit 101. FIG. 8 shows an example of stereoscopic image data generated temporarily or finally by the stereoscopic image generation unit 112 in each step of the generation process. The processing corresponding to the flowchart of FIG. 7 can be realized by executing a program (stored in a ROM or the like) corresponding to one or more processors functioning as the stereoscopic image generation unit 112, for example.

まずS701において、DRAM106に格納された撮影画像と距離情報を元に、画像の立体化を行う。図8(a)が、撮影画像310に含まれる被写体301と302とを距離情報320に基づき立体化した立体画像811を横から見た図である。画像の領域毎にz軸方向に奥行きが付けられ、無限遠の領域が背景801となり、被写体301と302とは奥行きを付けて立体化されている。   First, in step S <b> 701, the image is three-dimensionalized based on the captured image and distance information stored in the DRAM 106. FIG. 8A is a view of a stereoscopic image 811 obtained by stereoscopicizing the subjects 301 and 302 included in the captured image 310 based on the distance information 320 from the side. A depth is added in the z-axis direction for each image area, an infinite area is the background 801, and the subjects 301 and 302 are three-dimensionalized with a depth.

次にS702において、立体画像811に対して背景面と前景面とを初期設定する。まず、図8(b)に示すように背景面803と前景面802が予め定められた初期設定位置に仮に設定される。ここで、背景面803は無限遠の背景801と同一面に配置され、予め定められた最大高低差Hを隔てて、手前に背景面803と平行な前景面802が配置される。なお、図8(b)に示す枠311と枠312は、特徴検出部601が検出した図3(d)に示す被写体301と302の顔枠に対応する。   In step S <b> 702, a background surface and a foreground surface are initially set for the stereoscopic image 811. First, as shown in FIG. 8B, the background surface 803 and the foreground surface 802 are provisionally set at predetermined initial setting positions. Here, the background surface 803 is disposed on the same plane as the infinitely distant background 801, and a foreground surface 802 parallel to the background surface 803 is disposed in front of the background surface 803 with a predetermined maximum height difference H therebetween. 8B correspond to the face frames of the subjects 301 and 302 shown in FIG. 3D detected by the feature detection unit 601.

続くS703において、背景面803と前景面802の移動および回転を行う。枠311と312は、顔が検出された位置とその領域の距離情報を元に配置され、検出されたサイズに応じた奥行きをz軸方向に設けて立体化されている。これらの枠が、少なくとも一部において背景面803と前景面802とに挟まれた空間内に含まれるように、背景面803と前景面802を最大高低差Hの間隔を保ったまま、移動および回転させる。なお、図3(d)では、特徴検出部601が検出した被写体301と302の顔の位置とサイズを枠311と312で示し、人物の顔を特徴領域として利用する場合を示した。しかし、被写体には人物以外も含まれうるので、被写体に応じた特徴領域を設定することができる。例えば植物であれば、花や実の部分を特徴領域として枠を設定することができる。その他、被写体の種類に応じてユーザが感心を有する特徴領域を設定することができる。   In subsequent S703, the background surface 803 and the foreground surface 802 are moved and rotated. The frames 311 and 312 are arranged based on the position where the face is detected and the distance information of the area, and are three-dimensionalized by providing a depth corresponding to the detected size in the z-axis direction. The background surface 803 and the foreground surface 802 are moved and kept at the maximum height difference H so that these frames are at least partially included in a space sandwiched between the background surface 803 and the foreground surface 802. Rotate. In FIG. 3D, the positions and sizes of the faces of the subjects 301 and 302 detected by the feature detection unit 601 are indicated by frames 311 and 312, and a case where a person's face is used as a feature region is shown. However, since the subject can include other than a person, a feature region corresponding to the subject can be set. For example, in the case of a plant, a frame can be set with a flower or fruit portion as a feature region. In addition, it is possible to set a feature region that the user is impressed according to the type of subject.

図8(c)は背景面803及び前景面802の移動及び回転の結果を示す。ここでは背景面803と前景面802とに挟まれる空間内に、主被写体である被写体301の枠311と、他の注目被写体である被写体302の枠312とが含まれている。ここでは、背景面803と前景面802がy軸に対してθの角度まで回転されているが、この回転角度には予め制約を設けることができる。例えば、説明に用いている画像のように、水平方向に光軸をとって撮影した撮影画像から生成した立体画像データを、実体化してフォトフレームとして立てて飾る場合、傾ける角度の範囲としては、θを0〜30度程度とすることが適当である。   FIG. 8C shows the result of movement and rotation of the background surface 803 and the foreground surface 802. Here, the space between the background surface 803 and the foreground surface 802 includes a frame 311 of the subject 301 that is the main subject and a frame 312 of the subject 302 that is another subject of interest. Here, the background surface 803 and the foreground surface 802 are rotated to an angle of θ with respect to the y-axis, but this rotation angle can be constrained in advance. For example, when the stereoscopic image data generated from the photographed image taken with the optical axis in the horizontal direction as the image used for the description is materialized and decorated as a photo frame, the range of the tilt angle is as follows: It is appropriate to set θ to about 0 to 30 degrees.

背景面と前景面の移動および回転は、上記空間内に主被写体の枠を納めることを最優先として行い、次いで空間内に収まった注目被写体のスコアの合計値が最も高くなるように行う。それらを満たした上で、移動および回転の余地があれば、回転角度をできる限り0度に近づける。それでも、移動の余地があれば、奥にずらしたときに背景面より奥の被写体が占める領域と、手前にずらしたときに前景面より手前の被写体が占める領域の大きさを比較する。前者であれば、手前より奥の被写体が占める領域が大きいので、背景面と前景面を余地の範囲内で奥にずらし、後者であれば手前にずらす。   The movement and rotation of the background surface and the foreground surface are performed with the highest priority given to placing the frame of the main subject in the space, and then performed so that the total score of the subject of interest within the space becomes the highest. If there is room for movement and rotation after satisfying them, the rotation angle is made as close to 0 degree as possible. If there is still room for movement, the size of the area occupied by the subject behind the background when shifted to the back is compared with the size of the area occupied by the subject before the foreground when shifted forward. In the former case, the area occupied by the subject in the back is larger than that in the front, so the background surface and the foreground surface are shifted to the back within the range of the room, and in the latter case, they are shifted to the front.

次にS704において、背景面と前景面への投影を行う。先に示した図8(c)において、背景面803より後ろにある被写体の領域を、z軸方向に背景面803に投影する。この例では、前景面802より手前には被写体が存在しないが、存在する場合にはその領域をz軸方向に前景面802に投影する。その結果が図8(d)で、背景面803に投影された背景804を持つ立体画像812となる。   In step S704, projection is performed on the background surface and the foreground surface. In FIG. 8C described above, the area of the subject behind the background surface 803 is projected onto the background surface 803 in the z-axis direction. In this example, there is no subject in front of the foreground surface 802, but when it exists, the region is projected onto the foreground surface 802 in the z-axis direction. The result is a stereoscopic image 812 having a background 804 projected onto the background surface 803 in FIG.

続くS705において、立体画像の回転を行う。先に示した図8(d)の背景804がベースとなるように立体画像812を90度−θだけ回転する。図8(e)が回転後の立体画像812を示す図である。z軸とy軸に対して、90度−θだけ回転したr軸とq軸を設けて、これらの軸を基準として立体画像812のデータをDRAM106に格納することで、立体画像の生成処理を終える。こうして生成された立体画像812は、立体画像出力部602によって、背景804から順次スライス状に出力することで、接続された外部の3Dプリンタなどで実体化することができる。   In subsequent S705, the stereoscopic image is rotated. The stereoscopic image 812 is rotated by 90 degrees −θ so that the background 804 in FIG. FIG. 8E is a diagram illustrating the stereoscopic image 812 after rotation. By providing an r-axis and a q-axis rotated by 90 degrees −θ with respect to the z-axis and the y-axis, and storing the data of the stereoscopic image 812 in the DRAM 106 with reference to these axes, a stereoscopic image generation process is performed. Finish. The stereoscopic image 812 generated in this way can be materialized by a connected external 3D printer or the like by sequentially outputting the stereoscopic image output unit 602 in a slice form from the background 804.

本実施形態に対応する立体画像出力装置としてのデジタルカメラ600によれば、撮影画像に写った複数の注目被写体を立体表現する際に、ベースとなる背景面の傾きにより、立体表現に必要な記録剤を少なくすることができる。また、立体画像を出力する装置に最大高低差の制約がある場合でも、制約の範囲内で複数の注目被写体を効率よく立体表現することができる。   According to the digital camera 600 as a stereoscopic image output apparatus corresponding to the present embodiment, when a plurality of objects of interest shown in a captured image are three-dimensionally expressed, recording necessary for three-dimensional expression is performed due to the inclination of the base background surface. The agent can be reduced. In addition, even when a device for outputting a stereoscopic image has a maximum height difference restriction, a plurality of subjects of interest can be efficiently three-dimensionally represented within the restriction range.

なお、本実施形態の説明では、単純化のために、背景面と前景面をx軸を基準に回転する構成で説明を行ったが、y軸を含めて回転を行うよう構成してもよい。そのように構成すれば、複数の人物が異なる距離で、カメラから見て横並びになっている画像に対しても、本発明の効果を得ることができる。また、複数の注目被写体として、複数人数の人物の顔を例として説明しているが、1つの注目被写体の複数箇所を、それぞれ複数の注目被写体として扱っても、本発明の効果を得ることができる。   In the description of the present embodiment, for the sake of simplicity, the background surface and the foreground surface have been described as rotating with respect to the x axis. However, the rotation may be performed including the y axis. . With such a configuration, the effect of the present invention can be obtained even for images in which a plurality of persons are side by side as viewed from the camera at different distances. In addition, the face of a plurality of persons has been described as an example of a plurality of attention subjects, but the effect of the present invention can be obtained even if a plurality of portions of one attention subject are handled as a plurality of attention subjects, respectively. it can.

[実施形態4]
次に、上述の実施形態1乃至3の変形例として発明の第4の実施形態を説明する。本実施形態では、制御部101の制御に応じて立体画像を生成する立体画像生成部112が、傾けた背景面の法線方向から立体画像を見たときの違和感を少なくするように、立体画像を生成する。
[Embodiment 4]
Next, a fourth embodiment of the invention will be described as a modification of the above-described first to third embodiments. In the present embodiment, the stereoscopic image generating unit 112 that generates a stereoscopic image in accordance with the control of the control unit 101 reduces the uncomfortable feeling when viewing the stereoscopic image from the normal direction of the inclined background surface. Is generated.

図9を参照して、背景面の法線方向からの立体画像の見え方を説明する。図9(a)の立体画像812は実施形態3に対応する立体画像生成処理により生成した立体画像である。図9(b)の立体画像912は本実施形態に対応する立体画像生成処理により生成した立体画像である。   With reference to FIG. 9, how the stereoscopic image is seen from the normal direction of the background surface will be described. A stereoscopic image 812 in FIG. 9A is a stereoscopic image generated by the stereoscopic image generation processing corresponding to the third embodiment. A stereoscopic image 912 in FIG. 9B is a stereoscopic image generated by a stereoscopic image generation process corresponding to the present embodiment.

まず、図9(a)では、撮影時の光軸方向の視点901から立体画像412を見ると、画像921に示すように撮影画像と同等に見える。一方で、背景面804の法線方向の視点902から立体画像812を見ると、画像922に示すように奥行きが付けられ、立体化された被写体301と302の一部の領域961、962が延びて見えてしまう。また、画像922では、θの角度まで傾けられた背景面に投影された撮影画像を法線方向から見ているため、画像921ではhだった縦方向の長さが、画像922では(h/cosθ)に延びて見えてしまう。   First, in FIG. 9A, when the stereoscopic image 412 is viewed from the viewpoint 901 in the optical axis direction at the time of shooting, the image 921 looks equivalent to the shot image. On the other hand, when the stereoscopic image 812 is viewed from the viewpoint 902 in the normal direction of the background surface 804, as shown in the image 922, a depth is added, and partial areas 961 and 962 of the three-dimensional objects 301 and 302 extend. It looks like. In addition, in the image 922, since the captured image projected on the background surface inclined to the angle θ is viewed from the normal direction, the length in the vertical direction, which was h in the image 921, is (h / cos θ).

これに対して、図9(b)では立体画像912に対して、被写体301と302の奥行きの付け方を、撮影時の光軸方向から背景面の法線方向へ変更している。これにより視点902から立体画像912を見ると、932に示す画像のように見える。画像932では、先に示した画像922のように、被写体301と302の一部が延びて見えることはない。なお、頭部の奥に描かれている領域971、972は、後述する処理により背景面に平坦に描かれた影である。   In contrast, in FIG. 9B, the depth of the subjects 301 and 302 is changed from the optical axis direction at the time of shooting to the normal direction of the background surface with respect to the stereoscopic image 912. Accordingly, when the stereoscopic image 912 is viewed from the viewpoint 902, it looks like an image indicated by 932. In the image 932, unlike the image 922 shown above, a part of the subjects 301 and 302 does not appear to extend. It should be noted that the areas 971 and 972 drawn in the back of the head are shadows drawn flat on the background surface by processing to be described later.

一方、視点901から立体画像912を見ると、画像931のように見える。画像931では、先に示した画像921に比べて、被写体301と302の首の後ろに、奥行きを付けて立体化された被写体の一部の領域981、982が延長部分として見えてしまう。ただ、図9(a)の画像922での領域961、962に比べれば見える範囲は小さいため、相対的には見た目の違和感は小さい。また、延びて見える領域981、982は画像の下側方向(地面方向)に向いているので、立体画像912を照らす照明が天井方向にあれば、これらの面は影になるため目立ちにくく、より違和感が小さくなる。もしくは、奥行きを付けて立体化した部分について、撮影画像に写っていない面に対しては、その面が地面方向を向いている割合に応じて、明度を下げて影のように描き出力してもよい。   On the other hand, when the stereoscopic image 912 is viewed from the viewpoint 901, it looks like an image 931. In the image 931, compared to the image 921 shown above, some areas 981 and 982 of the subject that are three-dimensionalized with a depth appear behind the necks of the subjects 301 and 302 as extended portions. However, since the visible range is small compared to the regions 961 and 962 in the image 922 in FIG. 9A, the visual discomfort is relatively small. In addition, since the regions 981 and 982 that appear to extend extend toward the lower direction (the ground direction) of the image, if the illumination that illuminates the stereoscopic image 912 is in the ceiling direction, these surfaces become shadows and are less noticeable. Discomfort is reduced. Or, for a three-dimensional part with depth, for a surface that is not shown in the captured image, draw and output like a shadow with a reduced brightness according to the proportion of the surface facing the ground. Also good.

さらに、図9(b)の立体画像912の背景面904は、図9(a)で示した立体画像812の背景面804に対して、縦方向の長さを(cosθ+1)/2倍に縮めている。これにより、視点902から見た背景面は縦方向の長さがh(1+1/cosθ)/2と延び具合が緩和される。一方で、視点901から見た背景面は縦方向の長さがh(cosθ+1)/2と撮影画像よりも縮んで見えるが、先に示した画像922の縦方向の延び具合に比べれば違和感が小さい。   Further, the background surface 904 of the stereoscopic image 912 in FIG. 9B is reduced in length in the vertical direction to (cos θ + 1) / 2 times the background surface 804 of the stereoscopic image 812 shown in FIG. ing. As a result, the length of the background surface viewed from the viewpoint 902 is reduced to a length of h (1 + 1 / cos θ) / 2 in the vertical direction. On the other hand, the background surface viewed from the viewpoint 901 has a length in the vertical direction h (cos θ + 1) / 2, which appears to be shorter than the photographed image, but is uncomfortable as compared with the vertical extension of the image 922 described above. small.

次に、図10を参照して本実施形態に対応する立体画像の生成処理を説明する。図10は、本実施形態に対応する立体画像の生成処理において、立体画像生成部112が一時的または最終的に生成した立体画像データの一例を示す。本実施形態の立体画像の生成処理は、途中まで実施形態1の図4や実施形態3の図7における処理と同様であるため、以降の差異のある部分のみ図示して説明する。   Next, a stereoscopic image generation process corresponding to the present embodiment will be described with reference to FIG. FIG. 10 illustrates an example of stereoscopic image data generated temporarily or finally by the stereoscopic image generation unit 112 in the stereoscopic image generation processing corresponding to the present embodiment. Since the stereoscopic image generation process of the present embodiment is the same as the process in FIG. 4 of the first embodiment and FIG. 7 of the third embodiment to the middle, only the differences will be illustrated and described.

図10(a)は、図4(e)の立体画像422や図8(e)で示した立体画像812に対して、撮影画像には写っていない、即ち撮影画像の画素を構成しないz軸方向の奥行きを付けた領域1001、1002を斜線で示している。本実施形態では、この領域1001及び1002を取り除き、替わって背景面804と直交するr軸方向の奥行きを付けて立体化を行う。図10(b)は、r軸方向に奥行きを付けて立体化した立体画像1012を示す。   FIG. 10A shows a z-axis that does not appear in the captured image, that is, does not constitute a pixel of the captured image, with respect to the stereoscopic image 422 in FIG. 4E or the stereoscopic image 812 illustrated in FIG. Areas 1001 and 1002 with directional depths are indicated by hatching. In this embodiment, the regions 1001 and 1002 are removed, and the three-dimensionalization is performed by adding a depth in the r-axis direction orthogonal to the background surface 804 instead. FIG. 10B shows a stereoscopic image 1012 that is three-dimensionalized with a depth in the r-axis direction.

さらに本実施形態では、背景面804をq軸方向に(cosθ+1)/2倍に縮める。図10(c)は背景面を縮めて得られた立体画像912を示す。立体画像912の背景面904の縦方向の長さはh(1+1/cosθ)/2に縮められる。こうして得られたr軸とq軸を基準とする立体画像912のデータをDRAM106に格納することで、立体画像の生成処理を終える。   Furthermore, in the present embodiment, the background surface 804 is reduced by (cos θ + 1) / 2 times in the q-axis direction. FIG. 10C shows a stereoscopic image 912 obtained by reducing the background surface. The vertical length of the background surface 904 of the stereoscopic image 912 is reduced to h (1 + 1 / cos θ) / 2. By storing the data of the stereoscopic image 912 based on the r-axis and the q-axis thus obtained in the DRAM 106, the stereoscopic image generation process is completed.

次に、図11を参照して立体画像1012の背景面の処理を説明する。本実施形態では、撮影時の光軸とは異なる方向に奥行きを付ける処理や、背景面を縦方向に縮める処理を行うため、背景面に対して投影される撮影画像が不足する領域が生じる。図11では、背景面に対して投影される撮影画像が不足する領域を示す。   Next, processing of the background surface of the stereoscopic image 1012 will be described with reference to FIG. In the present embodiment, processing for adding a depth in a direction different from the optical axis at the time of shooting and processing for reducing the background surface in the vertical direction are performed, so that an area where a captured image projected onto the background surface is insufficient is generated. FIG. 11 shows an area where the captured image projected onto the background surface is insufficient.

図11(a)は立体画像生成部112が一時的に生成した立体画像812に対して、背景面804をz軸方向から見たときに、背景面804より手前の被写体が存在する領域1101、1102を示している。背景面804の領域1101と1102には、投影すべき撮影画像は無い。   FIG. 11A illustrates an area 1101 in which a subject in front of the background surface 804 exists when the background surface 804 is viewed from the z-axis direction with respect to the stereoscopic image 812 temporarily generated by the stereoscopic image generation unit 112. 1102 is shown. There are no captured images to be projected in the areas 1101 and 1102 of the background surface 804.

図11(b)は立体画像生成部112が最終的に生成した図10(c)の立体画像912の背景面904において、図11(a)の背景面804で領域1101と1102が占めていた領域を1111、1112として示している。背景面804をq軸方向に縮めて背景面904としているので、これらの領域もq軸方向に縮んでいる。背景面904の領域1111と1112には、投影すべき撮影画像は無い。   FIG. 11B shows the background surface 904 of the stereoscopic image 912 of FIG. 10C finally generated by the stereoscopic image generation unit 112, where the areas 1101 and 1102 occupy the background surface 804 of FIG. Regions are shown as 1111 and 1112. Since the background surface 804 is contracted in the q-axis direction to form the background surface 904, these regions are also contracted in the q-axis direction. There are no captured images to be projected in the areas 1111 and 1112 of the background surface 904.

図11(c)は立体画像生成部112が一時的に生成した図10(b)の立体画像1012に対して、背景面804をz軸方向から見たときに、立体化された部分を背景面804で切断した断面1121、1122を示している。これらの断面には、撮影画像を投影する必要はない。   FIG. 11C shows a three-dimensional portion of the stereoscopic image 1012 of FIG. 10B temporarily generated by the stereoscopic image generation unit 112 when the background surface 804 is viewed from the z-axis direction. Cross sections 1121 and 1122 cut along a surface 804 are shown. It is not necessary to project a captured image on these cross sections.

図11(d)は立体画像生成部112が最終的に生成した図10(c)立体画像912の背景面において、立体化された部分を背景面904で切断した断面1121と1122を示している。断面1121と1122の位置や形状は(c)と変化がない。また、(d)に示した領域1131、1132は、(b)で示した背景面904の領域1111、1112のうち、断面1121、1122に重ならない部分である。これらの領域1131、1132が背景面に対して投影される撮影画像が不足する領域である。これらの領域に対して、立体画像生成部112は、背景面上の周辺画素領域に基づき補間する。例えば、周辺画素領域の輝度と色の平均値を求め、得られた画素値に対して明度を落とした影を描いて領域を補間する。これにより、背景面の法線方向から立体画像512を見たときに、撮影画像が不足する背景面の領域についても、違和感が小さくなる。   FIG. 11D shows cross sections 1121 and 1122 obtained by cutting the three-dimensional portion with the background surface 904 in the background surface of the stereoscopic image 912 in FIG. 10C finally generated by the stereoscopic image generation unit 112. . The positions and shapes of the cross sections 1121 and 1122 are not changed from (c). Regions 1131 and 1132 shown in (d) are portions that do not overlap the cross sections 1121 and 1122 in the regions 1111 and 1112 of the background surface 904 shown in (b). These areas 1131 and 1132 are areas where a captured image projected onto the background surface is insufficient. For these areas, the stereoscopic image generating unit 112 interpolates based on peripheral pixel areas on the background surface. For example, the average value of the luminance and color of the peripheral pixel region is obtained, and the region is interpolated by drawing a shadow with reduced brightness with respect to the obtained pixel value. Thereby, when the stereoscopic image 512 is viewed from the normal direction of the background surface, the uncomfortable feeling is reduced even in the background surface region where the captured image is insufficient.

このように構成することで、傾けた背景面の法線方向から立体画像を見たときの違和感を少なくすることができる。   With this configuration, it is possible to reduce a sense of incongruity when a stereoscopic image is viewed from the normal direction of the inclined background surface.

なお、本実施形態では、前景面より手前には被写体が存在しない撮影画像を例に挙げて説明したが、それらが存在する場合、前景面は縦方向の長さを変えるように構成しても、変えないように構成しても、それらを切り替えるよう構成してもよい。前景面は背景面よりも、投影する撮影画像が不足した領域が目立つため、画像の内容によっては違和感が大きくなることがある。しかし、前景面に投影される撮影画像のデフォーカス量が大きく、不足した領域に対して、周辺領域の輝度と色の平均値で埋めることで、違和感が大きくならない場合もある。そのため、前景面に投影される撮影画像に応じて、長さを変えるか否かを切り替えても良い。   Note that, in the present embodiment, a captured image in which no subject is present in front of the foreground surface has been described as an example. However, when these images are present, the foreground surface may be configured to change the length in the vertical direction. It may be configured not to change, or may be configured to switch between them. Since the foreground surface is more conspicuous than the background surface, there are cases where the sense of discomfort may be greater depending on the content of the image. However, there may be a case where the sense of incongruity does not increase by filling the shortage area with the average value of the luminance and color of the peripheral area for the defocus amount of the captured image projected on the foreground surface. Therefore, whether or not to change the length may be switched according to the captured image projected on the foreground surface.

また、本実施形態では、単純化のために、背景面と前景面をx軸を基準に回転する構成で説明を行ったが、y軸を含めて回転を行うよう構成してもよい。そのように構成する場合は、背景面と前景面の縦方向の長さだけではなく、横方向の長さも変えることで、背景面の法線方向から見た場合の違和感を軽減させることができる。   Further, in the present embodiment, for the sake of simplicity, the background and foreground planes have been described as rotating with respect to the x axis, but the rotation may be performed including the y axis. In such a configuration, not only the length of the background surface and the foreground surface in the vertical direction but also the length in the horizontal direction can be changed to reduce the sense of incongruity when viewed from the normal direction of the background surface. .

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:立体画像生成装置、101:制御部、102:内部バス、103:FLASHメモリコントローラ、104:FLASHメモリ、105:DRAMコントローラ、106:DRAM、107:操作部、108:カメラ信号処理部、109:カメラ、111:距離情報生成部、112:立体画像生成部、113:メモリカードコントローラ、114:グラフィック描画部、115:LCDコントローラ、116:LCDタッチパネル、117:タッチパネルコントローラ、150:メモリカード、601:特徴検出部、602:立体画像出力部、603:LCD   100: stereoscopic image generating apparatus, 101: control unit, 102: internal bus, 103: FLASH memory controller, 104: FLASH memory, 105: DRAM controller, 106: DRAM, 107: operation unit, 108: camera signal processing unit, 109 : Camera, 111: Distance information generation unit, 112: Stereo image generation unit, 113: Memory card controller, 114: Graphic drawing unit, 115: LCD controller, 116: LCD touch panel, 117: Touch panel controller, 150: Memory card, 601 : Feature detection unit, 602: Stereoscopic image output unit, 603: LCD

Claims (15)

被写体を撮像して得られた画像を、前記被写体に関する距離情報に基づき変換して立体画像を生成する生成手段であって、
前記画像の各画素を前記距離情報に基づき奥行き方向に配置して生成されたデータにおいて、前記奥行き方向に所定の傾きを有する互いに平行な背景面と前景面とを、前記被写体を構成する画素を挟むように設定し、
前記データにおいて前記背景面よりも奥行き方向で後方に位置する画素を前記背景面に投影することにより前記立体画像を生成する
生成手段を備えることを特徴とする立体画像生成装置。
Generation means for converting an image obtained by imaging a subject based on distance information about the subject to generate a stereoscopic image;
In the data generated by arranging each pixel of the image in the depth direction based on the distance information, a pixel constituting the subject is composed of a parallel background surface and a foreground surface having a predetermined inclination in the depth direction. Set to pinch,
A stereoscopic image generating apparatus, comprising: generating means for generating the stereoscopic image by projecting, on the background plane, pixels located behind the background plane in the depth direction in the data.
前記生成手段は、前記データにおいて前記前景面よりも奥行き方向で前方に位置する画素を前記前景面に投影することにより前記立体画像を生成することを特徴とする請求項1に記載の立体画像生成装置。   2. The stereoscopic image generation according to claim 1, wherein the generation unit generates the stereoscopic image by projecting, on the foreground plane, a pixel located forward in the depth direction with respect to the foreground plane in the data. apparatus. 前記画像が複数の被写体を含む場合、前記生成手段は、少なくとも1つの被写体を構成する画素が前記背景面と前記前景面とに挟まれるように、前記背景面と前記前景面とを設定することを特徴とする請求項1又は2に記載の立体画像生成装置。   When the image includes a plurality of subjects, the generation unit sets the background surface and the foreground surface so that pixels constituting at least one subject are sandwiched between the background surface and the foreground surface. The three-dimensional image generation device according to claim 1, wherein: 前記生成手段は、前記画像から検出された前記被写体の特徴領域に基づき、前記背景面と前記前景面とを設定することを特徴とする請求項1乃至3のいずれか1項に記載の立体画像生成装置。   4. The stereoscopic image according to claim 1, wherein the generation unit sets the background surface and the foreground surface based on a feature region of the subject detected from the image. 5. Generator. 前記特徴領域は領域の大きさに応じた奥行きを有し、前記生成手段は、前記特徴領域の奥行きの少なくとも一部が前記背景面と前記前景面とに挟まれた空間内に含まれるように、前記背景面と前記前景面とを設定することを特徴とする請求項4に記載の立体画像生成装置。   The feature region has a depth corresponding to the size of the region, and the generation unit includes at least a part of the depth of the feature region included in a space sandwiched between the background surface and the foreground surface. The stereoscopic image generating apparatus according to claim 4, wherein the background plane and the foreground plane are set. 前記生成手段は、前記被写体を構成する画素と前記背景面とを接続する奥行き領域が、前記背景面と直交するように前記立体画像を生成することを特徴とする請求項1乃至5のいずれか1項に記載の立体画像生成装置。   6. The three-dimensional image according to claim 1, wherein the generation unit generates the stereoscopic image so that a depth region connecting a pixel constituting the subject and the background surface is orthogonal to the background surface. The stereoscopic image generating apparatus according to item 1. 前記生成手段は、前記背景面における前記奥行き領域が接している領域のうち、前記被写体を構成する画素を前記背景面に投影した領域と重ならない部分について、前記背景面に投影された周辺画素の情報により補間することを特徴とする請求項6に記載の立体画像生成装置。   The generating means includes a peripheral pixel projected on the background surface of a portion of the background surface that is in contact with the depth region and that does not overlap with a region where the pixel constituting the subject is projected on the background surface. The stereoscopic image generating apparatus according to claim 6, wherein interpolation is performed based on information. 前記生成手段は、前記傾きに応じて前記背景面を縮小することを特徴とする請求項1乃至7のいずれか1項に記載の立体画像生成装置。   The stereoscopic image generation apparatus according to claim 1, wherein the generation unit reduces the background surface according to the inclination. 被写体を撮像し、前記画像を生成する撮像手段と、
前記距離情報を生成する距離情報生成手段と、
前記撮像手段が撮像した画像をプレビュー表示する表示手段と
を更に備え、
前記表示手段は、前記生成手段が前記画像を立体画像に変換した場合に、該画像において立体表示される領域と前記背景面に投影される領域とを識別可能に表示することを特徴とする請求項1乃至8のいずれか1項に記載の立体画像生成装置。
Imaging means for imaging a subject and generating the image;
Distance information generating means for generating the distance information;
Display means for displaying a preview of the image captured by the imaging means;
The display means displays, when the generating means converts the image into a stereoscopic image, an area that is stereoscopically displayed in the image and an area that is projected onto the background surface are distinguishable. Item 9. The stereoscopic image generation device according to any one of Items 1 to 8.
前記立体画像を出力する出力手段を更に備えることを特徴とする請求項1乃至9のいずれか1項に記載の立体画像生成装置。   The stereoscopic image generation apparatus according to claim 1, further comprising an output unit that outputs the stereoscopic image. 前記所定の傾きは、前記立体画像の出力結果を設置する際の設置角度に基づき決定されることを特徴とする請求項1乃至10のいずれか1項に記載の立体画像生成装置。   The stereoscopic image generation apparatus according to any one of claims 1 to 10, wherein the predetermined inclination is determined based on an installation angle when the output result of the stereoscopic image is installed. 前記傾きは、前記立体画像の奥行き方向に直交する平面に対する傾きであることを特徴とする請求項1乃至11のいずれか1項に記載の立体画像生成装置。   The stereoscopic image generating apparatus according to claim 1, wherein the inclination is an inclination with respect to a plane orthogonal to a depth direction of the stereoscopic image. 前記背景面と前記前景面との距離は、前記立体画像を出力する際の最大高低差に基づくことを特徴とする請求項1乃至12のいずれか1項に記載の立体画像生成装置。   The stereoscopic image generating apparatus according to claim 1, wherein the distance between the background surface and the foreground surface is based on a maximum height difference when the stereoscopic image is output. 被写体を撮像して得られた画像を、前記被写体に関する距離情報に基づき変換して立体画像を生成する立体画像生成方法であって、
前記画像の各画素を前記距離情報に基づき奥行き方向に配置して生成されたデータにおいて、前記奥行き方向に所定の傾きを有する互いに平行な背景面と前景面とを、前記被写体を構成する画素を挟むように設定する工程と、
前記データにおいて前記背景面よりも奥行き方向で後方に位置する画素を前記背景面に投影することにより前記立体画像を生成する工程と
を有することを特徴とする立体画像生成方法。
A stereoscopic image generation method for generating a stereoscopic image by converting an image obtained by imaging a subject based on distance information about the subject,
In the data generated by arranging each pixel of the image in the depth direction based on the distance information, a pixel constituting the subject is composed of a parallel background surface and a foreground surface having a predetermined inclination in the depth direction. A step of setting to sandwich,
A method of generating the stereoscopic image by projecting, on the background surface, a pixel located rearward in the depth direction from the background surface in the data.
コンピュータを請求項1乃至13のいずれか1項に記載の生成手段として機能させることを特徴とするプログラム。   A program that causes a computer to function as the generation unit according to any one of claims 1 to 13.
JP2015004513A 2015-01-13 2015-01-13 Stereoscopic image generation device, stereoscopic image generation method and program Pending JP2016131297A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015004513A JP2016131297A (en) 2015-01-13 2015-01-13 Stereoscopic image generation device, stereoscopic image generation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015004513A JP2016131297A (en) 2015-01-13 2015-01-13 Stereoscopic image generation device, stereoscopic image generation method and program

Publications (1)

Publication Number Publication Date
JP2016131297A true JP2016131297A (en) 2016-07-21

Family

ID=56415665

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015004513A Pending JP2016131297A (en) 2015-01-13 2015-01-13 Stereoscopic image generation device, stereoscopic image generation method and program

Country Status (1)

Country Link
JP (1) JP2016131297A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018042106A (en) * 2016-09-07 2018-03-15 キヤノン株式会社 Image output device, image output method, and imaging apparatus
JP2020071394A (en) * 2018-10-31 2020-05-07 キヤノン株式会社 Information processing device, information processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018042106A (en) * 2016-09-07 2018-03-15 キヤノン株式会社 Image output device, image output method, and imaging apparatus
JP2020071394A (en) * 2018-10-31 2020-05-07 キヤノン株式会社 Information processing device, information processing method, and program
JP7175715B2 (en) 2018-10-31 2022-11-21 キヤノン株式会社 Information processing device, information processing method and program

Similar Documents

Publication Publication Date Title
CN108718373B (en) Image device
JP6021541B2 (en) Image processing apparatus and method
EP3067746B1 (en) Photographing method for dual-camera device and dual-camera device
JP5456020B2 (en) Information processing apparatus and method
US8130259B2 (en) Three-dimensional display device and method as well as program
WO2015081870A1 (en) Image processing method, device and terminal
JP2017505004A (en) Image generation method and dual lens apparatus
US9008412B2 (en) Image processing device, image processing method and recording medium for combining image data using depth and color information
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
CN104782110A (en) Image processing device, imaging device, program, and image processing method
JP2013009274A (en) Image processing device, image processing method, and program
US9596455B2 (en) Image processing device and method, and imaging device
US10356381B2 (en) Image output apparatus, control method, image pickup apparatus, and storage medium
US8908012B2 (en) Electronic device and method for creating three-dimensional image
JP2013223008A (en) Image processing device and method
US9177382B2 (en) Image processing apparatus for forming synthetic image and image processing method for forming synthetic image
JP2016131297A (en) Stereoscopic image generation device, stereoscopic image generation method and program
KR20220121533A (en) Method and device for restoring image obtained from array camera
JP2018109946A (en) Display device, program, and method for display
JP2011211551A (en) Image processor and image processing method
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2013074473A (en) Panorama imaging apparatus
JP5202448B2 (en) Image processing system and method
JP2006211383A (en) Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method
JP5744642B2 (en) Image processing apparatus, image processing method, and program.