JP5516199B2 - Image processing apparatus, image processing method, projection apparatus, and program - Google Patents

Image processing apparatus, image processing method, projection apparatus, and program Download PDF

Info

Publication number
JP5516199B2
JP5516199B2 JP2010172498A JP2010172498A JP5516199B2 JP 5516199 B2 JP5516199 B2 JP 5516199B2 JP 2010172498 A JP2010172498 A JP 2010172498A JP 2010172498 A JP2010172498 A JP 2010172498A JP 5516199 B2 JP5516199 B2 JP 5516199B2
Authority
JP
Japan
Prior art keywords
image
distance
unit
shadow
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010172498A
Other languages
Japanese (ja)
Other versions
JP2012034214A (en
Inventor
隆志 安田
潔 尾田
哲郎 成川
和靖 深野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010172498A priority Critical patent/JP5516199B2/en
Publication of JP2012034214A publication Critical patent/JP2012034214A/en
Application granted granted Critical
Publication of JP5516199B2 publication Critical patent/JP5516199B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、2次元画像から3次元画像を作成する画像処理装置、画像処理方法、投影装置及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, a projection apparatus, and a program for creating a three-dimensional image from a two-dimensional image.

2次元画像から違和感のない3次元画像を作成するべく、例えば2次元画像の水平方向の輪郭成分を検出し、検出した輪郭成分の水平方向の最大点に応じて左目用画像と右目用画像とを作成するようにした技術が考えられている。(例えば、特許文献1)   In order to create an uncomfortable 3D image from the 2D image, for example, a horizontal contour component of the 2D image is detected, and a left eye image and a right eye image are detected according to the horizontal maximum point of the detected contour component. The technology that has been made to create is considered. (For example, Patent Document 1)

特開2004−320189号公報JP 2004-320189 A

上記特許文献に記載された技術では、矩形の画像中の位置に応じて仮想の奥行き位置を設定し、あるいは画像の水平方向の輪郭成分を検出することで画像中の被写体に対する距離を設定して左目用画像と右目用画像との作成するようにしている。   In the technique described in the above patent document, a virtual depth position is set according to a position in a rectangular image, or a distance to a subject in the image is set by detecting a horizontal contour component of the image. A left-eye image and a right-eye image are created.

しかしながら、実際に撮影される多くの画像では、予めパターン化された構図以外の構図で撮影されるものや、ピントがあっているが明確な距離感のある水平方向の輪郭成分が得られないようなものが多々あると思われる。したがって、画像中の位置等により設定する奥行き位置あるいは輪郭部分の距離の内容が正しいとは限らず、却って違和感のある3次元画像となる可能性も考えられる。   However, in many images that are actually photographed, it is difficult to obtain a contour component in the horizontal direction that is photographed with a composition other than a pre-patterned composition or that is in focus but has a clear sense of distance. There seems to be many things. Accordingly, the depth position set by the position in the image or the content of the distance of the contour portion is not always correct, and on the contrary, there is a possibility that a 3D image with a sense of incongruity may be obtained.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、すでにある2次元画像から、違和感がなく、より自然な立体感の描写となる3次元画像を作成することが可能な画像処理装置、画像処理方法、投影装置及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and the object of the present invention is to create a three-dimensional image that has no sense of incongruity and is a more natural three-dimensional description from an existing two-dimensional image. An image processing apparatus, an image processing method, a projection apparatus, and a program are provided.

請求項1記載の発明は、画像処理装置であって、それぞれ影を含んだ複数の被写体が写り込んでいる2次元画像を入力する画像入力部と、上記画像入力部で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出部と、上記抽出部で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測部と、上記距離推測部で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成部とを具備したことを特徴とする。 The invention according to claim 1 is an image processing apparatus, wherein an image input unit that inputs a two-dimensional image in which a plurality of subjects each including a shadow are reflected, and a two-dimensional image input by the image input unit The subject part and its shadow part are extracted, and the distance to the subject part is estimated according to the distance from the closest subject part to the lower side of the image from the corresponding subject part of the plurality of shadow parts extracted by the extraction part A distance estimation unit, and an image creation unit that creates an image for both left and right eyes in which the subject part and the shadow part are shifted based on the distance obtained by the distance estimation unit are provided.

請求項2記載の発明は、上記請求項1記載の発明において、上記画像入力部が入力する2次元画像は撮影画角を含む撮影条件情報を付帯し、上記距離推測部は、上記複数の影部分の位置関係に加え、上記撮影条件情報に含まれる撮影画角の情報を参照して対応する被写体部分までの距離を推測することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the two-dimensional image input by the image input unit includes shooting condition information including a shooting angle of view, and the distance estimation unit includes the plurality of shadows. In addition to the positional relationship of the portions, the distance to the corresponding subject portion is estimated by referring to the information of the shooting angle of view included in the shooting condition information.

請求項3記載の発明は、上記請求項1記載の発明において、上記距離推測部は、複数の影部分それぞれの最も対応する被写体寄りの位置間の関係によって、対応する被写体部分までの距離を推測することを特徴とする。   According to a third aspect of the present invention, in the first aspect of the invention, the distance estimation unit estimates a distance to a corresponding subject portion based on a relationship between positions closest to the subject in each of the plurality of shadow portions. It is characterized by doing.

請求項4記載の発明は、画像処理方法であって、それぞれ影を含んだ複数の被写体が写り込んでいる2次元画像を入力する画像入力工程と、上記画像入力工程で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出工程と、上記抽出工程で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測工程と、上記距離推測工程で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成工程とを有したことを特徴とする。 The invention according to claim 4 is an image processing method, wherein an image input step of inputting a two-dimensional image in which a plurality of subjects each including a shadow is reflected, and the two-dimensional image input in the image input step An extraction step of extracting the subject portion and its shadow portion, and estimating the distance to the subject portion according to the distance from the closest position to the lower side of the image from the corresponding subject portion of the plurality of shadow portions extracted in the extraction step The method includes a distance estimation step and an image creation step of creating an image for both left and right eyes in which the subject portion and the shadow portion are shifted based on the distance obtained in the distance estimation step.

請求項5記載の発明は、投影装置であって、それぞれ影を含んだ複数の被写体が写り込んでいる2次元画像を入力する画像入力部と、上記画像入力部で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出部と、上記抽出部で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測部と、上記距離推測部で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成部と、上記画像作成部で作成した左右両眼用の画像を投影する投影部とを具備したことを特徴とする。 The invention according to claim 5 is a projection apparatus, wherein an image input unit that inputs a two-dimensional image in which a plurality of subjects each including a shadow are reflected, and a two-dimensional image input by the image input unit An extraction unit that extracts a subject part and its shadow part, and a distance that estimates the distance to the subject part according to the distance from the closest position to the lower side of the image from the corresponding subject part of the plurality of shadow parts extracted by the extraction unit An estimation unit, an image creation unit that creates images for left and right eyes that are shifted from the subject part and the shadow part based on the distance obtained by the distance estimation unit, and for both left and right eyes created by the image creation unit And a projection unit for projecting the image.

請求項6記載の発明は、上記請求項5記載の発明において、上記投影部が画像を投影する被投影対象までの距離を取得する距離取得部をさらに具備し、上記画像作成部は、上記距離推測部で得た距離と上記距離取得部で取得した距離とに基づいて該当部分をずらした左右両眼用の画像を作成することを特徴とする。   The invention described in claim 6 is the invention described in claim 5, further comprising a distance acquisition unit that acquires a distance to a projection target on which the projection unit projects an image, and the image creation unit includes the distance It is characterized in that an image for left and right eyes is generated by shifting the corresponding part based on the distance obtained by the estimation unit and the distance obtained by the distance obtaining unit.

請求項7記載の発明は、画像処理装置が内蔵したコンピュータが実行するプログラムであって、当該プログラムを、それぞれ影を含んだ複数の被写体が写り込んでいる2次元画像を入力する画像入力部、上記画像入力部で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出部、上記抽出部で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測部、及び上記距離推測部で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成部として機能させる。 The invention according to claim 7 is a program executed by a computer built in the image processing apparatus, and an image input unit that inputs a two-dimensional image in which a plurality of subjects each including a shadow are reflected. An extraction unit for extracting the subject part and its shadow part in the two-dimensional image input by the image input unit, and a distance from a position closest to the corresponding subject part of the plurality of shadow parts extracted by the extraction unit to the lower side of the image And a distance estimation unit that estimates the distance to the subject part, and an image creation unit that creates images for the left and right eyes with the subject part and the shadow part shifted based on the distance obtained by the distance estimation unit. Let

本発明によれば、すでにある2次元画像中の複数の被写体がそれぞれ影と共に写り込んでいる場合に、上記各被写体の位置関係を再現し、違和感がなく、より自然な立体感の描写となる3次元画像を作成することが可能となる。   According to the present invention, when a plurality of subjects in an existing two-dimensional image are reflected together with shadows, the positional relationship of each subject is reproduced, and there is no sense of incongruity, resulting in a more natural three-dimensional depiction. A three-dimensional image can be created.

本発明の一実施形態に係るデータプロジェクタ装置の機能回路の構成を示すブロック図。The block diagram which shows the structure of the functional circuit of the data projector apparatus which concerns on one Embodiment of this invention. 同実施形態に係る2次元の静止画像データを用いた立体画像投影の処理内容を示すフローチャート。3 is a flowchart showing processing details of stereoscopic image projection using two-dimensional still image data according to the embodiment. 同実施形態に係る静止画像の一例を示す図。The figure which shows an example of the still image which concerns on the same embodiment. 同実施形態に係る静止画像の一例を示す図。The figure which shows an example of the still image which concerns on the same embodiment. 同実施形態に係る被写体の撮影距離pと、係数k、撮影画角、及び画像下辺からの距離Dとの関係を示す図。The figure which shows the relationship between the imaging distance p of the to-be-photographed object which concerns on the embodiment, the coefficient k, the imaging | photography angle of view, and the distance D from the image lower side. 同実施形態に係る遠近感を付与するための、視差に基づくずらし量の概念を説明する図。The figure explaining the concept of the shift amount based on parallax for providing the perspective which concerns on the embodiment. 同実施形態に係る液晶シャッタ眼鏡方式における各投影タイミングを示すタイミングチャート。6 is a timing chart showing projection timings in the liquid crystal shutter glasses method according to the embodiment.

以下本発明を、立体画像の投影を行なう、DLP(Digital Light Processing)(登録商標)方式のデータプロジェクタ装置に適用した場合の一実施形態について図面を参照して説明する。   An embodiment in which the present invention is applied to a data projector apparatus of DLP (Digital Light Processing) (registered trademark) system that projects a stereoscopic image will be described below with reference to the drawings.

なお、立体画像の投影に関しては、例えば液晶シャッタ眼鏡方式の画像を作成するものとする。この液晶シャッタ眼鏡方式は、フィールドシーケンシャル方式、アクティブ・ステレオ方式とも呼称され、1フレーム分の画像を2フィールドに分けて投影するもので、第1フィールドで左目用画像を、第2フィールドで右目用画像を投影する。   As for the projection of the stereoscopic image, for example, an image of a liquid crystal shutter glasses type is created. This liquid crystal shutter glasses method is also called a field sequential method or an active stereo method and projects an image for one frame divided into two fields. The image for the left eye in the first field and the image for the right eye in the second field. Project an image.

例えば、可視光範囲を外れた赤外光を第1フィールドにのみ画像に重畳して投影させる。この投影に対してユーザが、液晶シャッタ眼鏡を装着する。該液晶シャッタ眼鏡側では、上記赤外光をセンサで検出して、第1フィールドでは右目側を、第2フィールドでは左目側をシャッタ動作する。したがってユーザは、意識せずに左目では左目用の画像のみを、右目では右目用画像のみを分離して見ることができる。   For example, infrared light outside the visible light range is projected on the image only in the first field. The user wears liquid crystal shutter glasses for this projection. On the liquid crystal shutter glasses side, the infrared light is detected by a sensor, and the right eye side is shuttered in the first field, and the left eye side is shuttered in the second field. Therefore, the user can see only the image for the left eye with the left eye and the image for the right eye separately with the right eye without being aware of it.

なお、液晶シャッタ眼鏡方式で使用する液晶シャッタ眼鏡自体は、市販の3Dテレビ受像機用のものがそのまま使用可能であるものとし、本実施形態では特に構成や動作等については説明を省略する。   It should be noted that liquid crystal shutter glasses used in the liquid crystal shutter glasses themselves can be used as they are for commercially available 3D television receivers, and in this embodiment, description of the configuration, operation, etc. is omitted.

図1は、本実施形態に係るデータプロジェクタ装置10の機能回路の概略構成を示すブロック図である。
符号11は入力部である。この入力部11は、例えばピンジャック(RCA)タイプのビデオ入力端子、D−sub15タイプのRGB入力端子、HDMI(High−Definition Multimedia Interface)規格の画像/音声入力端子、及びUSB(Universal Serial Bus)コネクタを介して、有線接続される外部機器からのアナログ値の画像信号及び音声信号を入力し、フロントエンド処理としてA/D変換、その他所定の処理を施してデジタル化する。
FIG. 1 is a block diagram showing a schematic configuration of a functional circuit of a data projector device 10 according to the present embodiment.
Reference numeral 11 denotes an input unit. The input unit 11 includes, for example, a pin jack (RCA) type video input terminal, a D-sub 15 type RGB input terminal, an HDMI (High-Definition Multimedia Interface) standard image / audio input terminal, and a USB (Universal Serial Bus). An analog image signal and audio signal from an external device connected by wire are input via a connector, and digitized by performing A / D conversion and other predetermined processing as front-end processing.

入力部11で入力してデジタル化した各種規格の画像信号は、システムバスSBを介して投影画像処理部12に送られる。   The image signals of various standards input and digitized by the input unit 11 are sent to the projection image processing unit 12 via the system bus SB.

投影画像処理部12は、入力される画像信号を投影に適した所定のフォーマットの画像信号に統一し、表示用のビデオメモリ13に適宜書込んだ後に、書込んだ画像信号をビデオメモリ13から読出して投影画像駆動部14へ送る。   The projection image processing unit 12 unifies the input image signal into an image signal of a predetermined format suitable for projection, writes the image signal to the display video memory 13 as appropriate, and then writes the written image signal from the video memory 13. Read out and send to the projected image drive unit 14.

この際、OSD(On Screen Display)用の各種動作状態を示すシンボルやガイドメッセージ等のキャラクタデータも、必要に応じて投影画像処理部12によりビデオメモリ13で画像信号に重畳加工され、加工後の画像信号が読出されて投影画像駆動部14へ送られる。   At this time, symbol data indicating various operation states for OSD (On Screen Display) and character data such as a guide message are also superimposed on the image signal in the video memory 13 by the projection image processing unit 12 as necessary. The image signal is read and sent to the projection image drive unit 14.

投影画像駆動部14は、送られてきた画像信号に応じて、所定のフォーマットに従ったフレームレート、例えば120[フレーム/秒]と色成分の分割数、及び表示階調数を乗算した、より高速な時分割駆動により、空間的光変調素子(SLM)であるマイクロミラー素子15を表示駆動する。   The projection image drive unit 14 multiplies a frame rate according to a predetermined format, for example, 120 [frames / second], the number of color component divisions, and the number of display gradations, in accordance with the transmitted image signal. The micromirror element 15 that is a spatial light modulation element (SLM) is driven to display by high-speed time-division driving.

このマイクロミラー素子15は、アレイ状に配列された複数、例えばXGA(横1024画素×縦768画素)分の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することで、その反射光により光像を形成する。   The micromirror element 15 performs display operation by individually turning on / off each tilt angle of a plurality of micromirrors arranged in an array, for example, XGA (horizontal 1024 pixels × vertical 768 pixels) at high speed. Then, an optical image is formed by the reflected light.

一方で、光源部16から時分割でR,G,Bの原色光が循環的に出射される。この光源部16からの原色光が、ミラー17で全反射して上記マイクロミラー素子15に照射される。   On the other hand, R, G, B primary color lights are emitted cyclically from the light source unit 16 in a time-sharing manner. The primary color light from the light source unit 16 is totally reflected by the mirror 17 and applied to the micromirror element 15.

そして、マイクロミラー素子15での反射光で光像が形成され、形成された光像が投影レンズユニット18を介して、投影対象となる図示しないスクリーンに投影表示される。   Then, an optical image is formed by the reflected light from the micromirror element 15, and the formed optical image is projected and displayed on a screen (not shown) to be projected via the projection lens unit 18.

投影レンズユニット18は、内部にズームレンズ及びフォーカスレンズを有し、各レンズの移動により投影画角及び合焦位置を可変可能とする。   The projection lens unit 18 has a zoom lens and a focus lens inside, and can change the projection angle of view and the focus position by moving each lens.

光源部16は、赤外光(Ir)を発する発光ダイオード(以下「Ir−LED」と称する)19、赤色(R)光を発する発光ダイオード(以下「R−LED」と称する)20、緑色(G)光を発する発光ダイオード(以下「G−LED」と称する)21、及び青色(B)光を発する発光ダイオード(以下「B−LED」と称する)22を有する。   The light source unit 16 includes a light emitting diode (hereinafter referred to as “Ir-LED”) 19 that emits infrared light (Ir), a light emitting diode (hereinafter referred to as “R-LED”) 20 that emits red (R) light, and green ( G) a light emitting diode (hereinafter referred to as “G-LED”) 21 that emits light, and a light emitting diode (hereinafter referred to as “B-LED”) 22 that emits blue (B) light.

Ir−LED19は、他のR−LED20、G−LED21、及びB−LED22と異なり、立体画像投影時にフィールド単位で点灯/消灯を切り替えて発光駆動される。Ir−LED19の発する赤外光は、ダイクロイックミラー23を透過した後、インテグレータ24で輝度分布が略均一な光束とされた後に上記ミラー17へ送られる。   Unlike the other R-LED 20, G-LED 21, and B-LED 22, the Ir-LED 19 is driven to emit light by switching on / off in units of fields when projecting a stereoscopic image. Infrared light emitted from the Ir-LED 19 is transmitted through the dichroic mirror 23, converted into a luminous flux having a substantially uniform luminance distribution by the integrator 24, and then sent to the mirror 17.

R−LED20の発する赤色光は、ダイクロイックミラー25で反射された後、上記ダイクロイックミラー23でも反射され、インテグレータ24で輝度分布が略均一な光束とされた後に上記ミラー17へ送られる。   The red light emitted from the R-LED 20 is reflected by the dichroic mirror 25 and then by the dichroic mirror 23, and is sent to the mirror 17 after the luminance distribution is made substantially uniform by the integrator 24.

G−LED21の発する緑色光は、ダイクロイックミラー26で反射された後、上記ダイクロイックミラー25を透過し、それから上記ダイクロイックミラー23でも反射され、上記インテグレータ24を介して上記ミラー17へ送られる。   The green light emitted from the G-LED 21 is reflected by the dichroic mirror 26, then passes through the dichroic mirror 25, is then reflected by the dichroic mirror 23, and is sent to the mirror 17 through the integrator 24.

B−LED22の発する青色光は、ミラー27で反射された後に上記ダイクロイックミラー26,25を透過し、その後に上記ダイクロイックミラー23で反射され、上記インテグレータ24を介して上記ミラー17へ送られる。
上記ダイクロイックミラー23は、赤外光を透過する一方で、赤色光、緑色光及び青色光を反射する。上記ダイクロイックミラー25は、赤色光を反射する一方で、緑色光及び青色光を透過する。上記ダイクロイックミラー26は、緑色光を反射する一方で、青色光を透過する。
The blue light emitted from the B-LED 22 is reflected by the mirror 27, passes through the dichroic mirrors 26 and 25, is then reflected by the dichroic mirror 23, and is sent to the mirror 17 through the integrator 24.
The dichroic mirror 23 transmits infrared light while reflecting red light, green light, and blue light. The dichroic mirror 25 reflects red light and transmits green light and blue light. The dichroic mirror 26 reflects green light while transmitting blue light.

光源部16の各LED19〜22の発光タイミングや駆動信号の波形等を投影光駆動部28が統括して制御する。投影光駆動部28は、上記投影画像駆動部14から与えられる画像データのタイミングと後述するCPU29の制御に応じて上記LED19〜22の発光動作を制御する。   The projection light drive unit 28 controls the light emission timing of each of the LEDs 19 to 22 of the light source unit 16 and the waveform of the drive signal. The projection light drive unit 28 controls the light emission operation of the LEDs 19 to 22 according to the timing of the image data given from the projection image drive unit 14 and the control of the CPU 29 described later.

上記各回路の動作すべてをCPU29が制御する。このCPU29は、メインメモリ30及びプログラムメモリ31と直接接続される。メインメモリ30は、DRAMで構成され、CPU29のワークメモリとして機能する。プログラムメモリ31は、電気的書換可能な不揮発性メモリで構成され、CPU29が実行する動作プログラムや各種定型データ等を記憶する。   The CPU 29 controls all the operations of the above circuits. The CPU 29 is directly connected to the main memory 30 and the program memory 31. The main memory 30 is composed of a DRAM and functions as a work memory for the CPU 29. The program memory 31 is composed of an electrically rewritable nonvolatile memory, and stores an operation program executed by the CPU 29, various fixed data, and the like.

CPU29は、上記プログラムメモリ31に記憶されている動作プログラムや各種定型データ等を読出し、メインメモリ30に展開して記憶させた上で当該プログラムを実行することにより、このデータプロジェクタ装置10を統括して制御する。   The CPU 29 controls the data projector device 10 by reading out the operation program and various fixed data stored in the program memory 31, expanding and storing them in the main memory 30, and executing the program. Control.

上記CPU29は、操作部32からのキー操作信号に応じて各種投影動作を実行する。
この操作部32は、データプロジェクタ装置10の本体に設けられるキー操作部と、このデータプロジェクタ装置10専用の図示しないリモートコントローラからの赤外光を受光するレーザ受光部とを含む。操作部32は、ユーザが本体のキー操作部またはリモートコントローラで操作したキーに基づくキー操作信号をCPU29へ直接出力する。
The CPU 29 executes various projection operations in accordance with key operation signals from the operation unit 32.
The operation unit 32 includes a key operation unit provided in the main body of the data projector device 10 and a laser light receiving unit that receives infrared light from a remote controller (not shown) dedicated to the data projector device 10. The operation unit 32 directly outputs to the CPU 29 a key operation signal based on a key operated by a user with a key operation unit of the main body or a remote controller.

本体のキー操作部またはリモートコントローラには、具体的には、電源キー、入力切換キー、フォーカス・アップ/ダウン・キー、ズーム・アップ/ダウン・キー、メニューキー、カーソル(「↑」「↓」「←」「→」)キー、セットキー、キャンセルキー、台形補正キー等が備えられる。   Specifically, the power key, input switch key, focus up / down key, zoom up / down key, menu key, cursor ("↑" "↓") “←” “→”) key, set key, cancel key, keystone correction key, and the like.

上記CPU29はさらに、上記システムバスSBを介して画像メモリ33、画像加工部34、及び音声処理部35と接続される。
画像メモリ33は、上記入力部11を介して送られてきた各種画像データを複数記憶可能な記憶容量を有する。画像加工部34は、CPU29の制御の下に、画像メモリ33に記憶される画像データに対する、立体画像投影用のデータ作成を含む画像加工処理を行なう。
The CPU 29 is further connected to the image memory 33, the image processing unit 34, and the sound processing unit 35 via the system bus SB.
The image memory 33 has a storage capacity capable of storing a plurality of various image data sent via the input unit 11. Under the control of the CPU 29, the image processing unit 34 performs image processing including image data generation for stereoscopic image projection on the image data stored in the image memory 33.

音声処理部35は、PCM音源等の音源回路を備え、投影動作時に与えられる音声データをアナログ化し、スピーカ部36を駆動して拡声放音させ、あるいは必要によりビープ音等を発生させる。   The sound processing unit 35 includes a sound source circuit such as a PCM sound source, converts the sound data given during the projection operation into an analog signal, drives the speaker unit 36 to emit a loud sound, or generates a beep sound or the like as necessary.

次に上記実施形態の動作について説明する。
なお、上述した如く、マイクロミラー素子15で表示する画像を投影画像処理部12がビデオメモリ13を用いて作成し、作成した画像を投影画像駆動部14がマイクロミラー素子15で表示し、マイクロミラー素子15での表示に合わせてLED19〜22を投影光駆動部28が発光駆動する。
Next, the operation of the above embodiment will be described.
As described above, the projection image processing unit 12 creates an image to be displayed on the micromirror element 15 using the video memory 13, and the projection image driving unit 14 displays the created image on the micromirror element 15. The projection light drive unit 28 drives the LEDs 19 to 22 to emit light in accordance with the display on the element 15.

これら投影画像処理部12、ビデオメモリ13、投影画像駆動部14、及び投影光駆動部28は、いずれもCPU29の制御の下に動作する。CPU29は、以下に示す処理も含め、プログラムメモリ31に記憶されている動作プログラムや固定データ等を読出し、メインメモリ30に展開した上で制御処理を実行する。
また、画像メモリ33が記憶する画像データに対する立体画像データ化するための各種処理は、CPU29の制御の下に画像加工部34が実行する。
The projection image processing unit 12, the video memory 13, the projection image driving unit 14, and the projection light driving unit 28 all operate under the control of the CPU 29. The CPU 29 reads out an operation program, fixed data, and the like stored in the program memory 31 including the processing described below, and executes the control processing after developing it in the main memory 30.
Various processes for converting the image data stored in the image memory 33 into stereoscopic image data are executed by the image processing unit 34 under the control of the CPU 29.

図2は、入力部11から入力され、画像メモリ33に記憶された複数の2次元の静止画像データ及び動画像データを用いて、立体画像の投影を行なう場合の一連の処理内容を示すフローチャートである。   FIG. 2 is a flowchart showing a series of processing contents when a stereoscopic image is projected using a plurality of two-dimensional still image data and moving image data input from the input unit 11 and stored in the image memory 33. is there.

その処理当初には、画像メモリ33に記憶される複数の静止画像データ中から、背景となる静止画像データがユーザにより選択されるのを受付ける(ステップS101)。   At the beginning of the processing, it is accepted that a user selects still image data as a background from among a plurality of still image data stored in the image memory 33 (step S101).

この場合、例えば画像メモリ33に記憶されるすべての静止画像データのサムネイル画像を作成し、それらの一覧画像を作成した上で、そのいずれかを選択するようなガイドメッセージを添えて投影する。   In this case, for example, thumbnail images of all the still image data stored in the image memory 33 are created, and after creating a list image thereof, a guide message for selecting one of the thumbnail images is projected.

この投影内容に対してユーザが操作部32でカーソルキーを操作すると、その操作内容に応じて一覧画像中の選択画像の位置を可変し、セットキーが操作された時点で選択されている画像を背景画像に決定する。
次いで、同じく画像メモリ33に記憶される複数の動画像データ中から、上記背景の画像上に重ねて投影する被写体のパーツ画像がユーザにより選択されるのを受付ける(ステップS102)。
When the user operates the cursor key on the operation unit 32 with respect to the projection content, the position of the selected image in the list image is changed according to the operation content, and the image selected when the set key is operated is selected. Determine the background image.
Next, it is accepted that the part image of the subject to be projected on the background image is selected by the user from the plurality of moving image data stored in the image memory 33 (step S102).

この場合、画像メモリ33に記憶されるすべての動画像データの各先頭に位置する静止画像を用いてサムネイル画像を作成し、それらの一覧画像を作成した上で、そのいずれかを選択するようなガイドメッセージを添えて投影する。   In this case, thumbnail images are created using still images located at the heads of all the moving image data stored in the image memory 33, a list of those images is created, and one of them is selected. Project with a guide message.

この投影内容に対してユーザが操作部32でカーソルキーを操作すると、その操作内容に応じて一覧画像中の選択画像の位置を可変し、セットキーが操作された時点で選択されている画像をパーツ画像に決定する。   When the user operates the cursor key on the operation unit 32 with respect to the projection content, the position of the selected image in the list image is changed according to the operation content, and the image selected when the set key is operated is selected. Decide on a part image.

こうして背景の静止画像とそれに合成するためのパーツとなる動画像の選択を終えると、次に背景として選択した静止画像データに対し、画像中の被写体とその影部分をそれぞれ抽出する(ステップS103)。   When the selection of the background still image and the moving image to be combined with the background still has been completed, the subject and its shadow portion in the image are extracted from the still image data selected as the background (step S103). .

被写体部分を抽出するに当たっては、例えば画像の輪郭抽出等の処理を行なって、周囲画像から輪郭で囲まれた領域の形状をパターン認識した上で切出すことにより実行される。
また、被写体に対する影部分を抽出するに当たっては、R,G,Bの各色成分画像に分解した後に影領域(光源からの光が直接当たっていない領域)の抽出と非影領域との境界(影境界)の抽出処理とを行ない、各抽出結果から影部分を認識する。この影部分の認識処理に関しては、例えば特開平2007−272292号公報に記載されているように公知の技術であるため、その詳細については説明を省略する。
In extracting the subject portion, for example, processing such as image contour extraction is performed, and the shape of the region surrounded by the contour is recognized from the surrounding image and then cut out.
Further, in extracting a shadow portion for a subject, after extracting the color component images of R, G, and B, after extracting the shadow area (area where the light from the light source is not directly hit) and the boundary (shadow shadow) of the non-shadow area (Boundary) extraction processing is performed, and a shadow portion is recognized from each extraction result. The shadow portion recognition process is a known technique as described in, for example, Japanese Patent Application Laid-Open No. 2007-272292, and therefore, detailed description thereof is omitted.

次いで、直前のステップS103で抽出した影部分についてのみ注目し(ステップS104)、被写体部分と対応して抽出できた影部分の数が複数あるか否かにより、被写体部分と共に写り込んでいる影部分が複数あるか否かを判断する(ステップS105)。   Next, attention is paid only to the shadow portion extracted in the immediately preceding step S103 (step S104), and the shadow portion that is reflected together with the subject portion depending on whether there are a plurality of shadow portions that can be extracted corresponding to the subject portion. It is determined whether or not there is a plurality (step S105).

ここで、被写体部分と対応して抽出できた影部分が複数あると判断した場合には、次に上記投影レンズユニット18を構成する複数の光学レンズ中、その時点のフォーカスレンズの駆動位置から、合焦位置にある筈のスクリーンまでの距離を、図示しないレンズ駆動モータとその回動位置を検出するロータリエンコーダ等により検出する(ステップS106)。   Here, when it is determined that there are a plurality of shadow portions that can be extracted corresponding to the subject portion, among the plurality of optical lenses constituting the projection lens unit 18, from the focus lens driving position at that time, The distance to the eyelid screen at the in-focus position is detected by a lens drive motor (not shown) and a rotary encoder for detecting the rotation position (step S106).

そして、上記ステップS104で抽出した複数の影部分の前後、奥行きの位置関係を判定する(ステップS107)。
図3は、複数の人物が被写体として写り込んだ静止画像の第1の例を示す。同図では、影を伴ういくつかの被写体としての人物が写り込んでいる。そのうちの例えば人物S11,S12に着目すると、抽出した影部分H11,H12について、それぞれ被写体との至近ポイントP11,P12を求める。そして、該至近ポイントP11,P12から画像下辺までの距離D11,D12を求める。
Then, the positional relationship between the front and rear and the depth of the plurality of shadow portions extracted in step S104 is determined (step S107).
FIG. 3 shows a first example of a still image in which a plurality of persons are captured as subjects. In the figure, there are some people as subjects with shadows. When attention is paid to, for example, the persons S11 and S12, the closest points P11 and P12 with the subject are obtained for the extracted shadow portions H11 and H12, respectively. Then, distances D11 and D12 from the closest points P11 and P12 to the lower side of the image are obtained.

このように画像下辺からの距離Dの値がより大きい方が、より短いものに比して奥行きの関係でより遠くに位置しているものと推測する。この場合、上記距離D11,D12は、当該距離に対する画素数の、この静止画像データの縦方向の画像サイズ(画素数)に対する比で表すものとしても良い。   Thus, it is estimated that the larger value of the distance D from the lower side of the image is located farther in relation to the depth than the shorter one. In this case, the distances D11 and D12 may be represented by a ratio of the number of pixels with respect to the distance to the vertical image size (number of pixels) of the still image data.

また図4は、主に二人の人物が被写体として写り込んだ静止画像の第2の例を示す。同図で影を伴う二人の人物S21,S22に着目すると、影部分H21,H22が抽出できる。この場合、人物S22はジャンプした状態であり、影部分H22とは離れている。   FIG. 4 shows a second example of a still image in which mainly two persons are captured as subjects. Focusing on two persons S21 and S22 with shadows in the figure, shadow portions H21 and H22 can be extracted. In this case, the person S22 is in a jumped state and is away from the shadow portion H22.

これら影部分H21,H22のそれぞれについて、それぞれ対応する被写体との至近ポイントP21,P22を求める。そして、該至近ポイントP21,P22から画像下辺までの距離D21,D22を求める。   For each of the shadow portions H21 and H22, the closest points P21 and P22 with the corresponding subject are obtained. Then, distances D21 and D22 from the closest points P21 and P22 to the lower side of the image are obtained.

次に、この静止画像データに撮影条件情報が付加されているか否かを判断する(ステップS108)。   Next, it is determined whether or not shooting condition information is added to the still image data (step S108).

通常、静止画像データがDCF(Design rule for Camera File system)規格に準拠したものであれば、撮影日やシャッタ速度、絞り値等と共に、撮影時の焦点距離、撮像素子のサイズの各情報が撮影条件情報として付帯されており、これらの情報から撮影画角を算出することができる。   Normally, if the still image data conforms to the DCF (Design rule for Camera File system) standard, each information of the focal length at the time of shooting and the size of the image sensor is taken together with the shooting date, shutter speed, aperture value, etc. It is attached as condition information, and the shooting angle of view can be calculated from this information.

したがって、上記ステップS108で静止画像データに撮影条件情報が付加されていると判断した場合には、画像中の各被写体の奥行き位置に対応した前後関係で、影にリンクした被写体の3次元画像におけるずらし量を、撮影画角を考慮して決定する(ステップS109)。   Therefore, if it is determined in step S108 that the shooting condition information is added to the still image data, the three-dimensional image of the subject linked to the shadow has a front-rear relationship corresponding to the depth position of each subject in the image. The shift amount is determined in consideration of the shooting angle of view (step S109).

図5は、各被写体の撮影距離pと、係数k、撮影画角、及び上記画像下辺からの距離Dとの関係を示す図である。この図に示す関係に基づいて被写体までの距離pを推測した上で、その距離pに応じたずらし量を決定する。   FIG. 5 is a diagram showing the relationship between the shooting distance p of each subject, the coefficient k, the shooting angle of view, and the distance D from the lower side of the image. After estimating the distance p to the subject based on the relationship shown in this figure, a shift amount corresponding to the distance p is determined.

被写体Sの大きさが変化しない場合、被写体までの距離と見た目での大きさは反比例する。よって、被写体までの距離をs、拡大率をrとした場合に、被写体までの距離pをs/rとして算出した上で、算出した距離pから、左右の目それぞれのずらし量を算出する。   When the size of the subject S does not change, the distance to the subject and the apparent size are inversely proportional. Therefore, when the distance to the subject is s and the magnification is r, the distance p to the subject is calculated as s / r, and the shift amounts of the left and right eyes are calculated from the calculated distance p.

図6は、背景画像の位置を投影対象のスクリーンSCの位置とした場合の、被写体Sの位置に応じた表現を説明する。
図6(A)は、スクリーンSCより遠くにある被写体Sの表現を示す。図6(B)は、スクリーンSCより近くにある被写体Sの表現を示す。
FIG. 6 illustrates an expression corresponding to the position of the subject S when the position of the background image is the position of the screen SC to be projected.
FIG. 6A shows a representation of the subject S that is farther from the screen SC. FIG. 6B shows a representation of the subject S located closer to the screen SC.

右目用画像を右に、左目用画像を左にずらす場合を正の値とし、右目用画像を左に、左目用画像を右にずらす場合を負の値とすると、ずらし量は次式で表される。すなわち、
w=d・(1−(s/p)) …(1)
(但し、w:ずらし量、
d:左右の目の中心位置の間隔、
s:スクリーンまでの距離、
p:被写体までの距離。)
上記式(1)中、スクリーンSCまでの距離sは、上記ステップS106で取得済みである。
If the right-eye image is shifted to the right, the left-eye image shifted to the left is a positive value, the right-eye image is shifted to the left, and the left-eye image is shifted to the right, the shift amount is expressed by the following equation. Is done. That is,
w = d · (1− (s / p)) (1)
(W: Shift amount,
d: the distance between the center positions of the left and right eyes,
s: distance to the screen,
p: Distance to the subject. )
In the above formula (1), the distance s to the screen SC has already been acquired in step S106.

また、上記ステップS108で静止画像データに撮影条件情報が付加されていないと判断した場合には、画像中の各被写体の奥行き位置に対応した前後関係で、影にリンクした被写体の3次元画像におけるずらし量を、撮影画角を考慮せずに決定する(ステップS110)。   If it is determined in step S108 that the shooting condition information is not added to the still image data, the three-dimensional image of the subject linked to the shadow has a front-to-back relationship corresponding to the depth position of each subject in the image. The shift amount is determined without considering the shooting angle of view (step S110).

こうして算出した各ずらし量に基づいて、さらに上記ステップS102で選択したパーツ画像としての動画像データを合成するようにして左右各目用の動画像を作成する(ステップS111)。   Based on the shift amounts calculated in this way, the moving image data for the left and right eyes is created by further combining the moving image data as the part image selected in step S102 (step S111).

このように作成された左目用画像と右目用画像からなる動画像データを、上述した液晶シャッタ眼鏡方式で定められているフォーマットに従って画像加工部34で画像データ化し、画像メモリ33に記憶する(ステップS112)。   The moving image data composed of the left-eye image and the right-eye image created in this way is converted into image data by the image processing unit 34 in accordance with the format defined by the liquid crystal shutter glasses method described above, and is stored in the image memory 33 (step) S112).

次いで、この画像メモリ33に記憶した左目用画像と右目用画像の各動画像データに基づいて液晶シャッタ眼鏡方式による立体画像の投影を実行し(ステップS113)、以上で画像データの選択から選択した画像データに基づく立体画像の投影までの一連の処理を終了する。   Next, the projection of a stereoscopic image by the liquid crystal shutter glasses method is executed based on the moving image data of the left-eye image and the right-eye image stored in the image memory 33 (step S113). A series of processes up to the projection of the stereoscopic image based on the image data is completed.

図7は、液晶シャッタ眼鏡方式における各投影タイミングを示す。上述した如く液晶シャッタ眼鏡方式では、1フレーム分の画像を2フィールドに分け、第1フィールドで左目用画像を、第2フィールドで右目用画像を投影する。   FIG. 7 shows each projection timing in the liquid crystal shutter glasses method. As described above, in the liquid crystal shutter glasses method, an image for one frame is divided into two fields, and a left-eye image is projected in the first field and a right-eye image is projected in the second field.

図7(A)は、1フレーム2フィールド中の第1フィールドのみ点灯するIr−LED19の発光駆動波形を示す。このIr−LED19の発する赤外光が画像光に重畳されて投影レンズユニット18より出射されることで、ユーザの使用する液晶シャッタ眼鏡(図示せず)側に設けられた赤外線センサがその赤外線を検出し、左目用画像と右目用画像の切換えが行なわれる。   FIG. 7A shows a light emission drive waveform of the Ir-LED 19 that is lit only in the first field in one field and two fields. The infrared light emitted from the Ir-LED 19 is superimposed on the image light and emitted from the projection lens unit 18, so that an infrared sensor provided on the liquid crystal shutter glasses (not shown) used by the user emits the infrared light. Then, switching between the left-eye image and the right-eye image is performed.

R−LED20、G−LED21、及びB−LED22は、図7(B)〜図7(D)に示すように各フィールド内において時分割で順次発光する。   The R-LED 20, the G-LED 21, and the B-LED 22 emit light sequentially in a time division manner in each field as shown in FIGS. 7B to 7D.

これら原色LED20〜22の発光に同期してマイクロミラー素子15で図7(E)に示すように第1フィールドで左目用の赤色(R)画像、緑色(G)画像、及び青色(B)画像を、第2フィールドで右目用の赤色(R)画像、緑色(G)画像、及び青色(B)画像を循環的に表示することで、それらの各反射光により光像が形成され、投影レンズユニット18によってスクリーンSCに投影される。   In synchronization with the light emission of these primary color LEDs 20 to 22, the micromirror element 15 causes the red (R) image, green (G) image, and blue (B) image for the left eye in the first field as shown in FIG. In the second field, a red (R) image, a green (G) image, and a blue (B) image for the right eye are cyclically displayed, so that a light image is formed by each reflected light thereof, and the projection lens Projected onto the screen SC by the unit 18.

また、上記ステップS105で被写体部分と共に写り込んでいる影部分が複数ないと判断した場合には、背景となる静止画像中の各被写体に対する立体的な投影は行なわないものとして、そのまま上記ステップS111に進み、上記ステップS102で選択したパーツ画像としての動画像データを単に合成するようにして動画像を作成する。   Further, when it is determined in step S105 that there are not a plurality of shadow portions reflected together with the subject portion, the three-dimensional projection is not performed on each subject in the still image as the background, and the process directly proceeds to step S111. In step S102, a moving image is created by simply synthesizing the moving image data as the part image selected in step S102.

そして、作成した動画像データを、再生用のフォーマットに従って画像加工部34で画像データ化し、画像メモリ33に記憶する(ステップS112)。   The created moving image data is converted into image data by the image processing unit 34 in accordance with the reproduction format and stored in the image memory 33 (step S112).

次いで、この画像メモリ33に記憶した動画像データに基づいて投影を実行し(ステップS113)、以上で画像データの選択から選択した画像データに基づく合成動画像の投影までの一連の処理を終了する。   Next, the projection is executed based on the moving image data stored in the image memory 33 (step S113), and the series of processes from the selection of the image data to the projection of the synthesized moving image based on the selected image data is completed. .

以上詳述した如く本実施形態によれば、すでにある2次元画像中の複数の被写体がそれぞれ影と共に写り込んでいる場合に、上記各被写体の位置関係を再現し、違和感がなく、より自然な立体感の描写となる3次元画像を作成することが可能となる。   As described above in detail, according to the present embodiment, when a plurality of subjects in an existing two-dimensional image are reflected together with shadows, the positional relationship of each subject is reproduced, and there is no sense of incongruity and is more natural. It is possible to create a three-dimensional image that represents a three-dimensional effect.

加えて上記実施形態では、静止画像データが撮影画角を含む撮影条件情報を付帯している場合に、撮影画角も考慮して被写体までの距離を推測するものとした。これによって、例えば望遠レンズを用いて撮影した静止画像中の被写体の位置を広角レンズを用いて撮影した静止画像中の表示の位置よりも遠くにあるものとして推測するように、被写体までの距離を画角に応じてより正確に推測するものとしたので、遠近感が正確で、より自然な描写での立体画像を投影させることができる。   In addition, in the above embodiment, when the still image data includes shooting condition information including the shooting angle of view, the distance to the subject is estimated in consideration of the shooting angle of view. Thus, for example, the distance to the subject is estimated so that the position of the subject in the still image photographed using the telephoto lens is assumed to be farther than the display position in the still image photographed using the wide-angle lens. Since the estimation is made more accurately according to the angle of view, it is possible to project a stereoscopic image with a more accurate description and a more natural description.

さらに上記実施形態では、影部分の中で最も対応する被写体よりの位置を基準として距離を推測するものとしたので、順光、逆光等の光源と被写体との方向に影響を受けず、常に正確に被写体の位置関係、撮影距離を正確に推測することができる。   Furthermore, in the above embodiment, since the distance is estimated based on the position of the most corresponding subject in the shadow portion, it is always accurate without being influenced by the direction of the light source and the subject such as follow light and backlight. In addition, the positional relationship of the subject and the shooting distance can be accurately estimated.

また上記実施形態は、本発明を投影装置に適用した場合について説明し、投影対象のスクリーンまでの距離を取得し、その取得した距離を基準として画像に付与する立体感を調整するものとした。   In the above embodiment, the case where the present invention is applied to a projection apparatus will be described. The distance to the projection target screen is acquired, and the stereoscopic effect to be added to the image is adjusted based on the acquired distance.

これにより、投影内容を観賞するユーザにとって画像の立体感がきわめて自然であり、違和感のない描写とすることができる。   As a result, the stereoscopic effect of the image is very natural for the user who appreciates the projection content, and the image can be rendered without any sense of incongruity.

なお、上記実施形態では、立体画像の投影方式として液晶シャッタ眼鏡方式を採用した場合について説明したが、本発明はこれに限らず、デュアルストリーム形式、サイドバイサイドフォーマット、トップアンドボトムフォーマット、フィールドシーケンシャルフォーマット、インタレースフォーマット等の立体画像を投影する場合にも同様に対応可能である。   In the above embodiment, the case where the liquid crystal shutter glasses method is employed as the stereoscopic image projection method has been described, but the present invention is not limited to this, and the dual stream format, the side-by-side format, the top and bottom format, the field sequential format, The same can be applied to the case of projecting a stereoscopic image such as an interlace format.

また、上記実施形態はDLP(登録商標)方式のプロジェクタ装置に適用した場合について述べたが、本発明は投影方式についても限定することなく、透過型のカラー液晶パネルを用いたもの、透過型のモノクロ液晶パネルで光源に複数色の光源を時分割駆動するようにしたもの等、各種適用可能である。   Although the above embodiment has been described with respect to a case where the present invention is applied to a DLP (registered trademark) projector device, the present invention is not limited to the projection method, and a transmissive color liquid crystal panel is used. Various applications such as a monochrome liquid crystal panel in which light sources of a plurality of colors are driven in a time-sharing manner are applicable.

さらには投影装置に限定することなく、立体画像を生成して表示するような各種画像表示機能を有する電子装置、例えばパーソナルコンピュータやテレビ受像機、デジタルカメラ、DVD(Digital Versatile Disc)プレーヤや電子ブック、携帯電話端末、メディアプレーヤ等でも適用することが可能となる。   Furthermore, the present invention is not limited to a projection apparatus, and an electronic apparatus having various image display functions for generating and displaying a stereoscopic image, such as a personal computer, a television receiver, a digital camera, a DVD (Digital Versatile Disc) player, and an electronic book. It can also be applied to mobile phone terminals, media players, and the like.

その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

10…データプロジェクタ装置、11…入力部、12…投影画像処理部、13…ビデオメモリ、14…投影画像駆動部、15…マイクロミラー素子、16…光源部、17…ミラー、18…投影レンズユニット、19…Ir−LED、20…R−LED、21…G−LED、22…B−LED、23…ダイクロイックミラー、24…インテグレータ、25,26…ダイクロイックミラー、27…ミラー、28…投影光駆動部、29…CPU、30…メインメモリ、31…プログラムメモリ、32…操作部、33…画像メモリ、34…画像加工部、35…音声処理部、36…スピーカ部、SB…システムバス。   DESCRIPTION OF SYMBOLS 10 ... Data projector apparatus, 11 ... Input part, 12 ... Projection image process part, 13 ... Video memory, 14 ... Projection image drive part, 15 ... Micromirror element, 16 ... Light source part, 17 ... Mirror, 18 ... Projection lens unit 19 ... Ir-LED, 20 ... R-LED, 21 ... G-LED, 22 ... B-LED, 23 ... Dichroic mirror, 24 ... Integrator, 25,26 ... Dichroic mirror, 27 ... Mirror, 28 ... Projection light drive , 29 ... CPU, 30 ... main memory, 31 ... program memory, 32 ... operation unit, 33 ... image memory, 34 ... image processing unit, 35 ... audio processing unit, 36 ... speaker unit, SB ... system bus.

Claims (7)

それぞれ影を含んだ複数の被写体が写り込んでいる2次元画像を入力する画像入力部と、
上記画像入力部で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出部と、
上記抽出部で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測部と、
上記距離推測部で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成部と
を具備したことを特徴とする画像処理装置。
An image input unit for inputting a two-dimensional image in which a plurality of subjects each including a shadow are reflected;
An extraction unit for extracting a subject part and its shadow part in the two-dimensional image input by the image input unit;
A distance estimation unit that estimates the distance to the subject portion according to the distance from the closest position to the lower side of the image from the corresponding subject portion of the plurality of shadow portions extracted by the extraction unit;
An image processing apparatus, comprising: an image creating unit that creates an image for both left and right eyes in which the subject part and the shadow part are shifted based on the distance obtained by the distance estimating unit.
上記画像入力部が入力する2次元画像は撮影画角を含む撮影条件情報を付帯し、
上記距離推測部は、上記複数の影部分の位置関係に加え、上記撮影条件情報に含まれる撮影画角の情報を参照して対応する被写体部分までの距離を推測する
ことを特徴とする請求項1記載の画像処理装置。
The two-dimensional image input by the image input unit includes shooting condition information including a shooting angle of view,
The distance estimation unit estimates a distance to a corresponding subject portion with reference to information on a shooting angle of view included in the shooting condition information in addition to the positional relationship of the plurality of shadow portions. The image processing apparatus according to 1.
上記距離推測部は、複数の影部分それぞれの最も対応する被写体寄りの位置間の関係によって、対応する被写体部分までの距離を推測することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the distance estimation unit estimates a distance to a corresponding subject portion based on a relationship between positions closest to the subject in each of the plurality of shadow portions. それぞれ影を含んだ複数の被写体が写り込んでいる2次元画像を入力する画像入力工程と、
上記画像入力工程で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出工程と、
上記抽出工程で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測工程と、
上記距離推測工程で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成工程と
を有したことを特徴とする画像処理方法。
An image input step of inputting a two-dimensional image in which a plurality of subjects each including a shadow are reflected;
An extraction step of extracting the subject portion and its shadow portion in the two-dimensional image input in the image input step;
A distance estimation step of estimating the distance to the subject portion according to the distance from the closest position to the lower side of the image from the corresponding subject portion of the plurality of shadow portions extracted in the extraction step;
An image processing method comprising: an image creation step of creating an image for left and right eyes, in which the subject portion and the shadow portion are shifted based on the distance obtained in the distance estimation step.
それぞれ影を含んだ複数の被写体が写り込んでいる2次元画像を入力する画像入力部と、
上記画像入力部で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出部と、
上記抽出部で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測部と、
上記距離推測部で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成部と、
上記画像作成部で作成した左右両眼用の画像を投影する投影部と
を具備したことを特徴とする投影装置。
An image input unit for inputting a two-dimensional image in which a plurality of subjects each including a shadow are reflected;
An extraction unit for extracting a subject part and its shadow part in the two-dimensional image input by the image input unit;
A distance estimation unit that estimates the distance to the subject portion according to the distance from the closest position to the lower side of the image from the corresponding subject portion of the plurality of shadow portions extracted by the extraction unit;
An image creating unit that creates an image for both left and right eyes in which the subject part and the shadow part are shifted based on the distance obtained by the distance estimating unit;
A projection apparatus comprising: a projection unit configured to project an image for both left and right eyes created by the image creation unit.
上記投影部が画像を投影する被投影対象までの距離を取得する距離取得部をさらに具備し、
上記画像作成部は、上記距離推測部で得た距離と上記距離取得部で取得した距離とに基づいて該当部分をずらした左右両眼用の画像を作成する
ことを特徴とする請求項5記載の投影装置。
The projection unit further includes a distance acquisition unit that acquires a distance to a projection target on which an image is projected,
The image creating unit according to claim 5, characterized in that to create the image for the right and left eyes shifted that part based on the distance obtained by the distance and the distance obtaining unit obtained by the distance estimating unit Projection device.
画像処理装置が内蔵したコンピュータが実行するプログラムであって、
当該プログラムを、
それぞれ影を含んだ複数の被写体が写り込んでいる2次元画像を入力する画像入力部、
上記画像入力部で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出部、
上記抽出部で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測部、及び
上記距離推測部で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成部
として機能させるためのプログラム。
A program executed by a computer built in the image processing apparatus,
The program
An image input unit for inputting a two-dimensional image in which a plurality of subjects each including a shadow are reflected;
An extraction unit for extracting a subject part and its shadow part in the two-dimensional image input by the image input unit;
The distance estimation unit for estimating the distance to the subject part according to the distance from the closest position to the lower side of the image from the corresponding subject part of the plurality of shadow parts extracted by the extraction unit, and the distance obtained by the distance estimation unit A program for functioning as an image creation unit for creating an image for both left and right eyes, in which the subject part and the shadow part are shifted based on each other.
JP2010172498A 2010-07-30 2010-07-30 Image processing apparatus, image processing method, projection apparatus, and program Active JP5516199B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010172498A JP5516199B2 (en) 2010-07-30 2010-07-30 Image processing apparatus, image processing method, projection apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010172498A JP5516199B2 (en) 2010-07-30 2010-07-30 Image processing apparatus, image processing method, projection apparatus, and program

Publications (2)

Publication Number Publication Date
JP2012034214A JP2012034214A (en) 2012-02-16
JP5516199B2 true JP5516199B2 (en) 2014-06-11

Family

ID=45847084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010172498A Active JP5516199B2 (en) 2010-07-30 2010-07-30 Image processing apparatus, image processing method, projection apparatus, and program

Country Status (1)

Country Link
JP (1) JP5516199B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108028037A (en) * 2015-09-30 2018-05-11 索尼公司 Image processing equipment, image processing method and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03109612A (en) * 1989-09-22 1991-05-09 Toshiba Lighting & Technol Corp Range finder for distance to object
JP2001320731A (en) * 1999-11-26 2001-11-16 Sanyo Electric Co Ltd Device for converting two-dimensional image into there dimensional image and its method
JP2009008752A (en) * 2007-06-26 2009-01-15 Casio Comput Co Ltd Projection device, method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108028037A (en) * 2015-09-30 2018-05-11 索尼公司 Image processing equipment, image processing method and program

Also Published As

Publication number Publication date
JP2012034214A (en) 2012-02-16

Similar Documents

Publication Publication Date Title
US9619693B2 (en) Display system, display device, projection device and program
JP4717728B2 (en) Stereo display device and control method thereof
JP4755565B2 (en) Stereoscopic image processing device
JP4661824B2 (en) Image processing apparatus, method, and program
JPWO2012086326A1 (en) Stereoscopic panorama image creation device, stereo panorama image creation method, stereo panorama image creation program, stereo panorama image playback device, stereo panorama image playback method, stereo panorama image playback program, and recording medium
US20120320050A1 (en) 3d-image display apparatus, 3d-image capturing apparatus, and 3d-image display method
US20120236131A1 (en) Display device, display system, and method for controlling display device
JP2013197797A (en) Image display device and image display method
CN111432201A (en) Display system, control method thereof, information processing apparatus, and recording medium
WO2013108285A1 (en) Image recording device, three-dimensional image reproduction device, image recording method, and three-dimensional image reproduction method
EP2466362A2 (en) Method and apparatus for providing stereoscopic image
JP2013073076A (en) Projection type video display device
JP2013083755A (en) Display device, method of controlling display device, and program
JP5516199B2 (en) Image processing apparatus, image processing method, projection apparatus, and program
JP5549421B2 (en) Projection apparatus, projection method, and program
JP4129786B2 (en) Image processing apparatus and method, recording medium, and program
JP5786315B2 (en) Display device, display device control method, and program
JP2013021550A (en) Imaging apparatus and control method of the same
JP5560964B2 (en) Image processing apparatus, image processing method, projection apparatus, and program
JP2013251593A (en) Display device and control method for the same
JP5789960B2 (en) Display device, display device control method, and program
JP5222718B2 (en) Stereoscopic image reproduction apparatus, stereoscopic image reproduction program, and imaging apparatus
US8907933B2 (en) Display system, image output apparatus, control method, and recording medium
JP5002997B2 (en) Projection apparatus and program
JP4969684B2 (en) Image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140317

R150 Certificate of patent or registration of utility model

Ref document number: 5516199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150