JP5516199B2 - Image processing apparatus, image processing method, projection apparatus, and program - Google Patents
Image processing apparatus, image processing method, projection apparatus, and program Download PDFInfo
- Publication number
- JP5516199B2 JP5516199B2 JP2010172498A JP2010172498A JP5516199B2 JP 5516199 B2 JP5516199 B2 JP 5516199B2 JP 2010172498 A JP2010172498 A JP 2010172498A JP 2010172498 A JP2010172498 A JP 2010172498A JP 5516199 B2 JP5516199 B2 JP 5516199B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance
- unit
- shadow
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Projection Apparatus (AREA)
- Image Processing (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本発明は、2次元画像から3次元画像を作成する画像処理装置、画像処理方法、投影装置及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, a projection apparatus, and a program for creating a three-dimensional image from a two-dimensional image.
2次元画像から違和感のない3次元画像を作成するべく、例えば2次元画像の水平方向の輪郭成分を検出し、検出した輪郭成分の水平方向の最大点に応じて左目用画像と右目用画像とを作成するようにした技術が考えられている。(例えば、特許文献1) In order to create an uncomfortable 3D image from the 2D image, for example, a horizontal contour component of the 2D image is detected, and a left eye image and a right eye image are detected according to the horizontal maximum point of the detected contour component. The technology that has been made to create is considered. (For example, Patent Document 1)
上記特許文献に記載された技術では、矩形の画像中の位置に応じて仮想の奥行き位置を設定し、あるいは画像の水平方向の輪郭成分を検出することで画像中の被写体に対する距離を設定して左目用画像と右目用画像との作成するようにしている。 In the technique described in the above patent document, a virtual depth position is set according to a position in a rectangular image, or a distance to a subject in the image is set by detecting a horizontal contour component of the image. A left-eye image and a right-eye image are created.
しかしながら、実際に撮影される多くの画像では、予めパターン化された構図以外の構図で撮影されるものや、ピントがあっているが明確な距離感のある水平方向の輪郭成分が得られないようなものが多々あると思われる。したがって、画像中の位置等により設定する奥行き位置あるいは輪郭部分の距離の内容が正しいとは限らず、却って違和感のある3次元画像となる可能性も考えられる。 However, in many images that are actually photographed, it is difficult to obtain a contour component in the horizontal direction that is photographed with a composition other than a pre-patterned composition or that is in focus but has a clear sense of distance. There seems to be many things. Accordingly, the depth position set by the position in the image or the content of the distance of the contour portion is not always correct, and on the contrary, there is a possibility that a 3D image with a sense of incongruity may be obtained.
本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、すでにある2次元画像から、違和感がなく、より自然な立体感の描写となる3次元画像を作成することが可能な画像処理装置、画像処理方法、投影装置及びプログラムを提供することにある。 The present invention has been made in view of the above circumstances, and the object of the present invention is to create a three-dimensional image that has no sense of incongruity and is a more natural three-dimensional description from an existing two-dimensional image. An image processing apparatus, an image processing method, a projection apparatus, and a program are provided.
請求項1記載の発明は、画像処理装置であって、それぞれ影を含んだ複数の被写体が写り込んでいる2次元画像を入力する画像入力部と、上記画像入力部で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出部と、上記抽出部で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測部と、上記距離推測部で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成部とを具備したことを特徴とする。
The invention according to
請求項2記載の発明は、上記請求項1記載の発明において、上記画像入力部が入力する2次元画像は撮影画角を含む撮影条件情報を付帯し、上記距離推測部は、上記複数の影部分の位置関係に加え、上記撮影条件情報に含まれる撮影画角の情報を参照して対応する被写体部分までの距離を推測することを特徴とする。 According to a second aspect of the present invention, in the first aspect of the invention, the two-dimensional image input by the image input unit includes shooting condition information including a shooting angle of view, and the distance estimation unit includes the plurality of shadows. In addition to the positional relationship of the portions, the distance to the corresponding subject portion is estimated by referring to the information of the shooting angle of view included in the shooting condition information.
請求項3記載の発明は、上記請求項1記載の発明において、上記距離推測部は、複数の影部分それぞれの最も対応する被写体寄りの位置間の関係によって、対応する被写体部分までの距離を推測することを特徴とする。 According to a third aspect of the present invention, in the first aspect of the invention, the distance estimation unit estimates a distance to a corresponding subject portion based on a relationship between positions closest to the subject in each of the plurality of shadow portions. It is characterized by doing.
請求項4記載の発明は、画像処理方法であって、それぞれ影を含んだ複数の被写体が写り込んでいる2次元画像を入力する画像入力工程と、上記画像入力工程で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出工程と、上記抽出工程で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測工程と、上記距離推測工程で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成工程とを有したことを特徴とする。 The invention according to claim 4 is an image processing method, wherein an image input step of inputting a two-dimensional image in which a plurality of subjects each including a shadow is reflected, and the two-dimensional image input in the image input step An extraction step of extracting the subject portion and its shadow portion, and estimating the distance to the subject portion according to the distance from the closest position to the lower side of the image from the corresponding subject portion of the plurality of shadow portions extracted in the extraction step The method includes a distance estimation step and an image creation step of creating an image for both left and right eyes in which the subject portion and the shadow portion are shifted based on the distance obtained in the distance estimation step.
請求項5記載の発明は、投影装置であって、それぞれ影を含んだ複数の被写体が写り込んでいる2次元画像を入力する画像入力部と、上記画像入力部で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出部と、上記抽出部で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測部と、上記距離推測部で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成部と、上記画像作成部で作成した左右両眼用の画像を投影する投影部とを具備したことを特徴とする。 The invention according to claim 5 is a projection apparatus, wherein an image input unit that inputs a two-dimensional image in which a plurality of subjects each including a shadow are reflected, and a two-dimensional image input by the image input unit An extraction unit that extracts a subject part and its shadow part, and a distance that estimates the distance to the subject part according to the distance from the closest position to the lower side of the image from the corresponding subject part of the plurality of shadow parts extracted by the extraction unit An estimation unit, an image creation unit that creates images for left and right eyes that are shifted from the subject part and the shadow part based on the distance obtained by the distance estimation unit, and for both left and right eyes created by the image creation unit And a projection unit for projecting the image.
請求項6記載の発明は、上記請求項5記載の発明において、上記投影部が画像を投影する被投影対象までの距離を取得する距離取得部をさらに具備し、上記画像作成部は、上記距離推測部で得た距離と上記距離取得部で取得した距離とに基づいて該当部分をずらした左右両眼用の画像を作成することを特徴とする。 The invention described in claim 6 is the invention described in claim 5, further comprising a distance acquisition unit that acquires a distance to a projection target on which the projection unit projects an image, and the image creation unit includes the distance It is characterized in that an image for left and right eyes is generated by shifting the corresponding part based on the distance obtained by the estimation unit and the distance obtained by the distance obtaining unit.
請求項7記載の発明は、画像処理装置が内蔵したコンピュータが実行するプログラムであって、当該プログラムを、それぞれ影を含んだ複数の被写体が写り込んでいる2次元画像を入力する画像入力部、上記画像入力部で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出部、上記抽出部で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測部、及び上記距離推測部で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成部として機能させる。
The invention according to
本発明によれば、すでにある2次元画像中の複数の被写体がそれぞれ影と共に写り込んでいる場合に、上記各被写体の位置関係を再現し、違和感がなく、より自然な立体感の描写となる3次元画像を作成することが可能となる。 According to the present invention, when a plurality of subjects in an existing two-dimensional image are reflected together with shadows, the positional relationship of each subject is reproduced, and there is no sense of incongruity, resulting in a more natural three-dimensional depiction. A three-dimensional image can be created.
以下本発明を、立体画像の投影を行なう、DLP(Digital Light Processing)(登録商標)方式のデータプロジェクタ装置に適用した場合の一実施形態について図面を参照して説明する。 An embodiment in which the present invention is applied to a data projector apparatus of DLP (Digital Light Processing) (registered trademark) system that projects a stereoscopic image will be described below with reference to the drawings.
なお、立体画像の投影に関しては、例えば液晶シャッタ眼鏡方式の画像を作成するものとする。この液晶シャッタ眼鏡方式は、フィールドシーケンシャル方式、アクティブ・ステレオ方式とも呼称され、1フレーム分の画像を2フィールドに分けて投影するもので、第1フィールドで左目用画像を、第2フィールドで右目用画像を投影する。 As for the projection of the stereoscopic image, for example, an image of a liquid crystal shutter glasses type is created. This liquid crystal shutter glasses method is also called a field sequential method or an active stereo method and projects an image for one frame divided into two fields. The image for the left eye in the first field and the image for the right eye in the second field. Project an image.
例えば、可視光範囲を外れた赤外光を第1フィールドにのみ画像に重畳して投影させる。この投影に対してユーザが、液晶シャッタ眼鏡を装着する。該液晶シャッタ眼鏡側では、上記赤外光をセンサで検出して、第1フィールドでは右目側を、第2フィールドでは左目側をシャッタ動作する。したがってユーザは、意識せずに左目では左目用の画像のみを、右目では右目用画像のみを分離して見ることができる。 For example, infrared light outside the visible light range is projected on the image only in the first field. The user wears liquid crystal shutter glasses for this projection. On the liquid crystal shutter glasses side, the infrared light is detected by a sensor, and the right eye side is shuttered in the first field, and the left eye side is shuttered in the second field. Therefore, the user can see only the image for the left eye with the left eye and the image for the right eye separately with the right eye without being aware of it.
なお、液晶シャッタ眼鏡方式で使用する液晶シャッタ眼鏡自体は、市販の3Dテレビ受像機用のものがそのまま使用可能であるものとし、本実施形態では特に構成や動作等については説明を省略する。 It should be noted that liquid crystal shutter glasses used in the liquid crystal shutter glasses themselves can be used as they are for commercially available 3D television receivers, and in this embodiment, description of the configuration, operation, etc. is omitted.
図1は、本実施形態に係るデータプロジェクタ装置10の機能回路の概略構成を示すブロック図である。
符号11は入力部である。この入力部11は、例えばピンジャック(RCA)タイプのビデオ入力端子、D−sub15タイプのRGB入力端子、HDMI(High−Definition Multimedia Interface)規格の画像/音声入力端子、及びUSB(Universal Serial Bus)コネクタを介して、有線接続される外部機器からのアナログ値の画像信号及び音声信号を入力し、フロントエンド処理としてA/D変換、その他所定の処理を施してデジタル化する。
FIG. 1 is a block diagram showing a schematic configuration of a functional circuit of a
入力部11で入力してデジタル化した各種規格の画像信号は、システムバスSBを介して投影画像処理部12に送られる。
The image signals of various standards input and digitized by the
投影画像処理部12は、入力される画像信号を投影に適した所定のフォーマットの画像信号に統一し、表示用のビデオメモリ13に適宜書込んだ後に、書込んだ画像信号をビデオメモリ13から読出して投影画像駆動部14へ送る。
The projection
この際、OSD(On Screen Display)用の各種動作状態を示すシンボルやガイドメッセージ等のキャラクタデータも、必要に応じて投影画像処理部12によりビデオメモリ13で画像信号に重畳加工され、加工後の画像信号が読出されて投影画像駆動部14へ送られる。
At this time, symbol data indicating various operation states for OSD (On Screen Display) and character data such as a guide message are also superimposed on the image signal in the
投影画像駆動部14は、送られてきた画像信号に応じて、所定のフォーマットに従ったフレームレート、例えば120[フレーム/秒]と色成分の分割数、及び表示階調数を乗算した、より高速な時分割駆動により、空間的光変調素子(SLM)であるマイクロミラー素子15を表示駆動する。
The projection
このマイクロミラー素子15は、アレイ状に配列された複数、例えばXGA(横1024画素×縦768画素)分の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することで、その反射光により光像を形成する。
The
一方で、光源部16から時分割でR,G,Bの原色光が循環的に出射される。この光源部16からの原色光が、ミラー17で全反射して上記マイクロミラー素子15に照射される。
On the other hand, R, G, B primary color lights are emitted cyclically from the
そして、マイクロミラー素子15での反射光で光像が形成され、形成された光像が投影レンズユニット18を介して、投影対象となる図示しないスクリーンに投影表示される。
Then, an optical image is formed by the reflected light from the
投影レンズユニット18は、内部にズームレンズ及びフォーカスレンズを有し、各レンズの移動により投影画角及び合焦位置を可変可能とする。
The
光源部16は、赤外光(Ir)を発する発光ダイオード(以下「Ir−LED」と称する)19、赤色(R)光を発する発光ダイオード(以下「R−LED」と称する)20、緑色(G)光を発する発光ダイオード(以下「G−LED」と称する)21、及び青色(B)光を発する発光ダイオード(以下「B−LED」と称する)22を有する。
The
Ir−LED19は、他のR−LED20、G−LED21、及びB−LED22と異なり、立体画像投影時にフィールド単位で点灯/消灯を切り替えて発光駆動される。Ir−LED19の発する赤外光は、ダイクロイックミラー23を透過した後、インテグレータ24で輝度分布が略均一な光束とされた後に上記ミラー17へ送られる。
Unlike the other R-
R−LED20の発する赤色光は、ダイクロイックミラー25で反射された後、上記ダイクロイックミラー23でも反射され、インテグレータ24で輝度分布が略均一な光束とされた後に上記ミラー17へ送られる。
The red light emitted from the R-
G−LED21の発する緑色光は、ダイクロイックミラー26で反射された後、上記ダイクロイックミラー25を透過し、それから上記ダイクロイックミラー23でも反射され、上記インテグレータ24を介して上記ミラー17へ送られる。
The green light emitted from the G-
B−LED22の発する青色光は、ミラー27で反射された後に上記ダイクロイックミラー26,25を透過し、その後に上記ダイクロイックミラー23で反射され、上記インテグレータ24を介して上記ミラー17へ送られる。
上記ダイクロイックミラー23は、赤外光を透過する一方で、赤色光、緑色光及び青色光を反射する。上記ダイクロイックミラー25は、赤色光を反射する一方で、緑色光及び青色光を透過する。上記ダイクロイックミラー26は、緑色光を反射する一方で、青色光を透過する。
The blue light emitted from the B-
The
光源部16の各LED19〜22の発光タイミングや駆動信号の波形等を投影光駆動部28が統括して制御する。投影光駆動部28は、上記投影画像駆動部14から与えられる画像データのタイミングと後述するCPU29の制御に応じて上記LED19〜22の発光動作を制御する。
The projection
上記各回路の動作すべてをCPU29が制御する。このCPU29は、メインメモリ30及びプログラムメモリ31と直接接続される。メインメモリ30は、DRAMで構成され、CPU29のワークメモリとして機能する。プログラムメモリ31は、電気的書換可能な不揮発性メモリで構成され、CPU29が実行する動作プログラムや各種定型データ等を記憶する。
The
CPU29は、上記プログラムメモリ31に記憶されている動作プログラムや各種定型データ等を読出し、メインメモリ30に展開して記憶させた上で当該プログラムを実行することにより、このデータプロジェクタ装置10を統括して制御する。
The
上記CPU29は、操作部32からのキー操作信号に応じて各種投影動作を実行する。
この操作部32は、データプロジェクタ装置10の本体に設けられるキー操作部と、このデータプロジェクタ装置10専用の図示しないリモートコントローラからの赤外光を受光するレーザ受光部とを含む。操作部32は、ユーザが本体のキー操作部またはリモートコントローラで操作したキーに基づくキー操作信号をCPU29へ直接出力する。
The
The
本体のキー操作部またはリモートコントローラには、具体的には、電源キー、入力切換キー、フォーカス・アップ/ダウン・キー、ズーム・アップ/ダウン・キー、メニューキー、カーソル(「↑」「↓」「←」「→」)キー、セットキー、キャンセルキー、台形補正キー等が備えられる。 Specifically, the power key, input switch key, focus up / down key, zoom up / down key, menu key, cursor ("↑" "↓") “←” “→”) key, set key, cancel key, keystone correction key, and the like.
上記CPU29はさらに、上記システムバスSBを介して画像メモリ33、画像加工部34、及び音声処理部35と接続される。
画像メモリ33は、上記入力部11を介して送られてきた各種画像データを複数記憶可能な記憶容量を有する。画像加工部34は、CPU29の制御の下に、画像メモリ33に記憶される画像データに対する、立体画像投影用のデータ作成を含む画像加工処理を行なう。
The
The
音声処理部35は、PCM音源等の音源回路を備え、投影動作時に与えられる音声データをアナログ化し、スピーカ部36を駆動して拡声放音させ、あるいは必要によりビープ音等を発生させる。
The
次に上記実施形態の動作について説明する。
なお、上述した如く、マイクロミラー素子15で表示する画像を投影画像処理部12がビデオメモリ13を用いて作成し、作成した画像を投影画像駆動部14がマイクロミラー素子15で表示し、マイクロミラー素子15での表示に合わせてLED19〜22を投影光駆動部28が発光駆動する。
Next, the operation of the above embodiment will be described.
As described above, the projection
これら投影画像処理部12、ビデオメモリ13、投影画像駆動部14、及び投影光駆動部28は、いずれもCPU29の制御の下に動作する。CPU29は、以下に示す処理も含め、プログラムメモリ31に記憶されている動作プログラムや固定データ等を読出し、メインメモリ30に展開した上で制御処理を実行する。
また、画像メモリ33が記憶する画像データに対する立体画像データ化するための各種処理は、CPU29の制御の下に画像加工部34が実行する。
The projection
Various processes for converting the image data stored in the
図2は、入力部11から入力され、画像メモリ33に記憶された複数の2次元の静止画像データ及び動画像データを用いて、立体画像の投影を行なう場合の一連の処理内容を示すフローチャートである。
FIG. 2 is a flowchart showing a series of processing contents when a stereoscopic image is projected using a plurality of two-dimensional still image data and moving image data input from the
その処理当初には、画像メモリ33に記憶される複数の静止画像データ中から、背景となる静止画像データがユーザにより選択されるのを受付ける(ステップS101)。 At the beginning of the processing, it is accepted that a user selects still image data as a background from among a plurality of still image data stored in the image memory 33 (step S101).
この場合、例えば画像メモリ33に記憶されるすべての静止画像データのサムネイル画像を作成し、それらの一覧画像を作成した上で、そのいずれかを選択するようなガイドメッセージを添えて投影する。
In this case, for example, thumbnail images of all the still image data stored in the
この投影内容に対してユーザが操作部32でカーソルキーを操作すると、その操作内容に応じて一覧画像中の選択画像の位置を可変し、セットキーが操作された時点で選択されている画像を背景画像に決定する。
次いで、同じく画像メモリ33に記憶される複数の動画像データ中から、上記背景の画像上に重ねて投影する被写体のパーツ画像がユーザにより選択されるのを受付ける(ステップS102)。
When the user operates the cursor key on the
Next, it is accepted that the part image of the subject to be projected on the background image is selected by the user from the plurality of moving image data stored in the image memory 33 (step S102).
この場合、画像メモリ33に記憶されるすべての動画像データの各先頭に位置する静止画像を用いてサムネイル画像を作成し、それらの一覧画像を作成した上で、そのいずれかを選択するようなガイドメッセージを添えて投影する。
In this case, thumbnail images are created using still images located at the heads of all the moving image data stored in the
この投影内容に対してユーザが操作部32でカーソルキーを操作すると、その操作内容に応じて一覧画像中の選択画像の位置を可変し、セットキーが操作された時点で選択されている画像をパーツ画像に決定する。
When the user operates the cursor key on the
こうして背景の静止画像とそれに合成するためのパーツとなる動画像の選択を終えると、次に背景として選択した静止画像データに対し、画像中の被写体とその影部分をそれぞれ抽出する(ステップS103)。 When the selection of the background still image and the moving image to be combined with the background still has been completed, the subject and its shadow portion in the image are extracted from the still image data selected as the background (step S103). .
被写体部分を抽出するに当たっては、例えば画像の輪郭抽出等の処理を行なって、周囲画像から輪郭で囲まれた領域の形状をパターン認識した上で切出すことにより実行される。
また、被写体に対する影部分を抽出するに当たっては、R,G,Bの各色成分画像に分解した後に影領域(光源からの光が直接当たっていない領域)の抽出と非影領域との境界(影境界)の抽出処理とを行ない、各抽出結果から影部分を認識する。この影部分の認識処理に関しては、例えば特開平2007−272292号公報に記載されているように公知の技術であるため、その詳細については説明を省略する。
In extracting the subject portion, for example, processing such as image contour extraction is performed, and the shape of the region surrounded by the contour is recognized from the surrounding image and then cut out.
Further, in extracting a shadow portion for a subject, after extracting the color component images of R, G, and B, after extracting the shadow area (area where the light from the light source is not directly hit) and the boundary (shadow shadow) of the non-shadow area (Boundary) extraction processing is performed, and a shadow portion is recognized from each extraction result. The shadow portion recognition process is a known technique as described in, for example, Japanese Patent Application Laid-Open No. 2007-272292, and therefore, detailed description thereof is omitted.
次いで、直前のステップS103で抽出した影部分についてのみ注目し(ステップS104)、被写体部分と対応して抽出できた影部分の数が複数あるか否かにより、被写体部分と共に写り込んでいる影部分が複数あるか否かを判断する(ステップS105)。 Next, attention is paid only to the shadow portion extracted in the immediately preceding step S103 (step S104), and the shadow portion that is reflected together with the subject portion depending on whether there are a plurality of shadow portions that can be extracted corresponding to the subject portion. It is determined whether or not there is a plurality (step S105).
ここで、被写体部分と対応して抽出できた影部分が複数あると判断した場合には、次に上記投影レンズユニット18を構成する複数の光学レンズ中、その時点のフォーカスレンズの駆動位置から、合焦位置にある筈のスクリーンまでの距離を、図示しないレンズ駆動モータとその回動位置を検出するロータリエンコーダ等により検出する(ステップS106)。
Here, when it is determined that there are a plurality of shadow portions that can be extracted corresponding to the subject portion, among the plurality of optical lenses constituting the
そして、上記ステップS104で抽出した複数の影部分の前後、奥行きの位置関係を判定する(ステップS107)。
図3は、複数の人物が被写体として写り込んだ静止画像の第1の例を示す。同図では、影を伴ういくつかの被写体としての人物が写り込んでいる。そのうちの例えば人物S11,S12に着目すると、抽出した影部分H11,H12について、それぞれ被写体との至近ポイントP11,P12を求める。そして、該至近ポイントP11,P12から画像下辺までの距離D11,D12を求める。
Then, the positional relationship between the front and rear and the depth of the plurality of shadow portions extracted in step S104 is determined (step S107).
FIG. 3 shows a first example of a still image in which a plurality of persons are captured as subjects. In the figure, there are some people as subjects with shadows. When attention is paid to, for example, the persons S11 and S12, the closest points P11 and P12 with the subject are obtained for the extracted shadow portions H11 and H12, respectively. Then, distances D11 and D12 from the closest points P11 and P12 to the lower side of the image are obtained.
このように画像下辺からの距離Dの値がより大きい方が、より短いものに比して奥行きの関係でより遠くに位置しているものと推測する。この場合、上記距離D11,D12は、当該距離に対する画素数の、この静止画像データの縦方向の画像サイズ(画素数)に対する比で表すものとしても良い。 Thus, it is estimated that the larger value of the distance D from the lower side of the image is located farther in relation to the depth than the shorter one. In this case, the distances D11 and D12 may be represented by a ratio of the number of pixels with respect to the distance to the vertical image size (number of pixels) of the still image data.
また図4は、主に二人の人物が被写体として写り込んだ静止画像の第2の例を示す。同図で影を伴う二人の人物S21,S22に着目すると、影部分H21,H22が抽出できる。この場合、人物S22はジャンプした状態であり、影部分H22とは離れている。 FIG. 4 shows a second example of a still image in which mainly two persons are captured as subjects. Focusing on two persons S21 and S22 with shadows in the figure, shadow portions H21 and H22 can be extracted. In this case, the person S22 is in a jumped state and is away from the shadow portion H22.
これら影部分H21,H22のそれぞれについて、それぞれ対応する被写体との至近ポイントP21,P22を求める。そして、該至近ポイントP21,P22から画像下辺までの距離D21,D22を求める。 For each of the shadow portions H21 and H22, the closest points P21 and P22 with the corresponding subject are obtained. Then, distances D21 and D22 from the closest points P21 and P22 to the lower side of the image are obtained.
次に、この静止画像データに撮影条件情報が付加されているか否かを判断する(ステップS108)。 Next, it is determined whether or not shooting condition information is added to the still image data (step S108).
通常、静止画像データがDCF(Design rule for Camera File system)規格に準拠したものであれば、撮影日やシャッタ速度、絞り値等と共に、撮影時の焦点距離、撮像素子のサイズの各情報が撮影条件情報として付帯されており、これらの情報から撮影画角を算出することができる。 Normally, if the still image data conforms to the DCF (Design rule for Camera File system) standard, each information of the focal length at the time of shooting and the size of the image sensor is taken together with the shooting date, shutter speed, aperture value, etc. It is attached as condition information, and the shooting angle of view can be calculated from this information.
したがって、上記ステップS108で静止画像データに撮影条件情報が付加されていると判断した場合には、画像中の各被写体の奥行き位置に対応した前後関係で、影にリンクした被写体の3次元画像におけるずらし量を、撮影画角を考慮して決定する(ステップS109)。 Therefore, if it is determined in step S108 that the shooting condition information is added to the still image data, the three-dimensional image of the subject linked to the shadow has a front-rear relationship corresponding to the depth position of each subject in the image. The shift amount is determined in consideration of the shooting angle of view (step S109).
図5は、各被写体の撮影距離pと、係数k、撮影画角、及び上記画像下辺からの距離Dとの関係を示す図である。この図に示す関係に基づいて被写体までの距離pを推測した上で、その距離pに応じたずらし量を決定する。 FIG. 5 is a diagram showing the relationship between the shooting distance p of each subject, the coefficient k, the shooting angle of view, and the distance D from the lower side of the image. After estimating the distance p to the subject based on the relationship shown in this figure, a shift amount corresponding to the distance p is determined.
被写体Sの大きさが変化しない場合、被写体までの距離と見た目での大きさは反比例する。よって、被写体までの距離をs、拡大率をrとした場合に、被写体までの距離pをs/rとして算出した上で、算出した距離pから、左右の目それぞれのずらし量を算出する。 When the size of the subject S does not change, the distance to the subject and the apparent size are inversely proportional. Therefore, when the distance to the subject is s and the magnification is r, the distance p to the subject is calculated as s / r, and the shift amounts of the left and right eyes are calculated from the calculated distance p.
図6は、背景画像の位置を投影対象のスクリーンSCの位置とした場合の、被写体Sの位置に応じた表現を説明する。
図6(A)は、スクリーンSCより遠くにある被写体Sの表現を示す。図6(B)は、スクリーンSCより近くにある被写体Sの表現を示す。
FIG. 6 illustrates an expression corresponding to the position of the subject S when the position of the background image is the position of the screen SC to be projected.
FIG. 6A shows a representation of the subject S that is farther from the screen SC. FIG. 6B shows a representation of the subject S located closer to the screen SC.
右目用画像を右に、左目用画像を左にずらす場合を正の値とし、右目用画像を左に、左目用画像を右にずらす場合を負の値とすると、ずらし量は次式で表される。すなわち、
w=d・(1−(s/p)) …(1)
(但し、w:ずらし量、
d:左右の目の中心位置の間隔、
s:スクリーンまでの距離、
p:被写体までの距離。)
上記式(1)中、スクリーンSCまでの距離sは、上記ステップS106で取得済みである。
If the right-eye image is shifted to the right, the left-eye image shifted to the left is a positive value, the right-eye image is shifted to the left, and the left-eye image is shifted to the right, the shift amount is expressed by the following equation. Is done. That is,
w = d · (1− (s / p)) (1)
(W: Shift amount,
d: the distance between the center positions of the left and right eyes,
s: distance to the screen,
p: Distance to the subject. )
In the above formula (1), the distance s to the screen SC has already been acquired in step S106.
また、上記ステップS108で静止画像データに撮影条件情報が付加されていないと判断した場合には、画像中の各被写体の奥行き位置に対応した前後関係で、影にリンクした被写体の3次元画像におけるずらし量を、撮影画角を考慮せずに決定する(ステップS110)。 If it is determined in step S108 that the shooting condition information is not added to the still image data, the three-dimensional image of the subject linked to the shadow has a front-to-back relationship corresponding to the depth position of each subject in the image. The shift amount is determined without considering the shooting angle of view (step S110).
こうして算出した各ずらし量に基づいて、さらに上記ステップS102で選択したパーツ画像としての動画像データを合成するようにして左右各目用の動画像を作成する(ステップS111)。 Based on the shift amounts calculated in this way, the moving image data for the left and right eyes is created by further combining the moving image data as the part image selected in step S102 (step S111).
このように作成された左目用画像と右目用画像からなる動画像データを、上述した液晶シャッタ眼鏡方式で定められているフォーマットに従って画像加工部34で画像データ化し、画像メモリ33に記憶する(ステップS112)。
The moving image data composed of the left-eye image and the right-eye image created in this way is converted into image data by the
次いで、この画像メモリ33に記憶した左目用画像と右目用画像の各動画像データに基づいて液晶シャッタ眼鏡方式による立体画像の投影を実行し(ステップS113)、以上で画像データの選択から選択した画像データに基づく立体画像の投影までの一連の処理を終了する。 Next, the projection of a stereoscopic image by the liquid crystal shutter glasses method is executed based on the moving image data of the left-eye image and the right-eye image stored in the image memory 33 (step S113). A series of processes up to the projection of the stereoscopic image based on the image data is completed.
図7は、液晶シャッタ眼鏡方式における各投影タイミングを示す。上述した如く液晶シャッタ眼鏡方式では、1フレーム分の画像を2フィールドに分け、第1フィールドで左目用画像を、第2フィールドで右目用画像を投影する。 FIG. 7 shows each projection timing in the liquid crystal shutter glasses method. As described above, in the liquid crystal shutter glasses method, an image for one frame is divided into two fields, and a left-eye image is projected in the first field and a right-eye image is projected in the second field.
図7(A)は、1フレーム2フィールド中の第1フィールドのみ点灯するIr−LED19の発光駆動波形を示す。このIr−LED19の発する赤外光が画像光に重畳されて投影レンズユニット18より出射されることで、ユーザの使用する液晶シャッタ眼鏡(図示せず)側に設けられた赤外線センサがその赤外線を検出し、左目用画像と右目用画像の切換えが行なわれる。
FIG. 7A shows a light emission drive waveform of the Ir-
R−LED20、G−LED21、及びB−LED22は、図7(B)〜図7(D)に示すように各フィールド内において時分割で順次発光する。
The R-
これら原色LED20〜22の発光に同期してマイクロミラー素子15で図7(E)に示すように第1フィールドで左目用の赤色(R)画像、緑色(G)画像、及び青色(B)画像を、第2フィールドで右目用の赤色(R)画像、緑色(G)画像、及び青色(B)画像を循環的に表示することで、それらの各反射光により光像が形成され、投影レンズユニット18によってスクリーンSCに投影される。
In synchronization with the light emission of these
また、上記ステップS105で被写体部分と共に写り込んでいる影部分が複数ないと判断した場合には、背景となる静止画像中の各被写体に対する立体的な投影は行なわないものとして、そのまま上記ステップS111に進み、上記ステップS102で選択したパーツ画像としての動画像データを単に合成するようにして動画像を作成する。 Further, when it is determined in step S105 that there are not a plurality of shadow portions reflected together with the subject portion, the three-dimensional projection is not performed on each subject in the still image as the background, and the process directly proceeds to step S111. In step S102, a moving image is created by simply synthesizing the moving image data as the part image selected in step S102.
そして、作成した動画像データを、再生用のフォーマットに従って画像加工部34で画像データ化し、画像メモリ33に記憶する(ステップS112)。
The created moving image data is converted into image data by the
次いで、この画像メモリ33に記憶した動画像データに基づいて投影を実行し(ステップS113)、以上で画像データの選択から選択した画像データに基づく合成動画像の投影までの一連の処理を終了する。 Next, the projection is executed based on the moving image data stored in the image memory 33 (step S113), and the series of processes from the selection of the image data to the projection of the synthesized moving image based on the selected image data is completed. .
以上詳述した如く本実施形態によれば、すでにある2次元画像中の複数の被写体がそれぞれ影と共に写り込んでいる場合に、上記各被写体の位置関係を再現し、違和感がなく、より自然な立体感の描写となる3次元画像を作成することが可能となる。 As described above in detail, according to the present embodiment, when a plurality of subjects in an existing two-dimensional image are reflected together with shadows, the positional relationship of each subject is reproduced, and there is no sense of incongruity and is more natural. It is possible to create a three-dimensional image that represents a three-dimensional effect.
加えて上記実施形態では、静止画像データが撮影画角を含む撮影条件情報を付帯している場合に、撮影画角も考慮して被写体までの距離を推測するものとした。これによって、例えば望遠レンズを用いて撮影した静止画像中の被写体の位置を広角レンズを用いて撮影した静止画像中の表示の位置よりも遠くにあるものとして推測するように、被写体までの距離を画角に応じてより正確に推測するものとしたので、遠近感が正確で、より自然な描写での立体画像を投影させることができる。 In addition, in the above embodiment, when the still image data includes shooting condition information including the shooting angle of view, the distance to the subject is estimated in consideration of the shooting angle of view. Thus, for example, the distance to the subject is estimated so that the position of the subject in the still image photographed using the telephoto lens is assumed to be farther than the display position in the still image photographed using the wide-angle lens. Since the estimation is made more accurately according to the angle of view, it is possible to project a stereoscopic image with a more accurate description and a more natural description.
さらに上記実施形態では、影部分の中で最も対応する被写体よりの位置を基準として距離を推測するものとしたので、順光、逆光等の光源と被写体との方向に影響を受けず、常に正確に被写体の位置関係、撮影距離を正確に推測することができる。 Furthermore, in the above embodiment, since the distance is estimated based on the position of the most corresponding subject in the shadow portion, it is always accurate without being influenced by the direction of the light source and the subject such as follow light and backlight. In addition, the positional relationship of the subject and the shooting distance can be accurately estimated.
また上記実施形態は、本発明を投影装置に適用した場合について説明し、投影対象のスクリーンまでの距離を取得し、その取得した距離を基準として画像に付与する立体感を調整するものとした。 In the above embodiment, the case where the present invention is applied to a projection apparatus will be described. The distance to the projection target screen is acquired, and the stereoscopic effect to be added to the image is adjusted based on the acquired distance.
これにより、投影内容を観賞するユーザにとって画像の立体感がきわめて自然であり、違和感のない描写とすることができる。 As a result, the stereoscopic effect of the image is very natural for the user who appreciates the projection content, and the image can be rendered without any sense of incongruity.
なお、上記実施形態では、立体画像の投影方式として液晶シャッタ眼鏡方式を採用した場合について説明したが、本発明はこれに限らず、デュアルストリーム形式、サイドバイサイドフォーマット、トップアンドボトムフォーマット、フィールドシーケンシャルフォーマット、インタレースフォーマット等の立体画像を投影する場合にも同様に対応可能である。 In the above embodiment, the case where the liquid crystal shutter glasses method is employed as the stereoscopic image projection method has been described, but the present invention is not limited to this, and the dual stream format, the side-by-side format, the top and bottom format, the field sequential format, The same can be applied to the case of projecting a stereoscopic image such as an interlace format.
また、上記実施形態はDLP(登録商標)方式のプロジェクタ装置に適用した場合について述べたが、本発明は投影方式についても限定することなく、透過型のカラー液晶パネルを用いたもの、透過型のモノクロ液晶パネルで光源に複数色の光源を時分割駆動するようにしたもの等、各種適用可能である。 Although the above embodiment has been described with respect to a case where the present invention is applied to a DLP (registered trademark) projector device, the present invention is not limited to the projection method, and a transmissive color liquid crystal panel is used. Various applications such as a monochrome liquid crystal panel in which light sources of a plurality of colors are driven in a time-sharing manner are applicable.
さらには投影装置に限定することなく、立体画像を生成して表示するような各種画像表示機能を有する電子装置、例えばパーソナルコンピュータやテレビ受像機、デジタルカメラ、DVD(Digital Versatile Disc)プレーヤや電子ブック、携帯電話端末、メディアプレーヤ等でも適用することが可能となる。 Furthermore, the present invention is not limited to a projection apparatus, and an electronic apparatus having various image display functions for generating and displaying a stereoscopic image, such as a personal computer, a television receiver, a digital camera, a DVD (Digital Versatile Disc) player, and an electronic book. It can also be applied to mobile phone terminals, media players, and the like.
その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。 In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.
10…データプロジェクタ装置、11…入力部、12…投影画像処理部、13…ビデオメモリ、14…投影画像駆動部、15…マイクロミラー素子、16…光源部、17…ミラー、18…投影レンズユニット、19…Ir−LED、20…R−LED、21…G−LED、22…B−LED、23…ダイクロイックミラー、24…インテグレータ、25,26…ダイクロイックミラー、27…ミラー、28…投影光駆動部、29…CPU、30…メインメモリ、31…プログラムメモリ、32…操作部、33…画像メモリ、34…画像加工部、35…音声処理部、36…スピーカ部、SB…システムバス。
DESCRIPTION OF
Claims (7)
上記画像入力部で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出部と、
上記抽出部で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測部と、
上記距離推測部で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成部と
を具備したことを特徴とする画像処理装置。 An image input unit for inputting a two-dimensional image in which a plurality of subjects each including a shadow are reflected;
An extraction unit for extracting a subject part and its shadow part in the two-dimensional image input by the image input unit;
A distance estimation unit that estimates the distance to the subject portion according to the distance from the closest position to the lower side of the image from the corresponding subject portion of the plurality of shadow portions extracted by the extraction unit;
An image processing apparatus, comprising: an image creating unit that creates an image for both left and right eyes in which the subject part and the shadow part are shifted based on the distance obtained by the distance estimating unit.
上記距離推測部は、上記複数の影部分の位置関係に加え、上記撮影条件情報に含まれる撮影画角の情報を参照して対応する被写体部分までの距離を推測する
ことを特徴とする請求項1記載の画像処理装置。 The two-dimensional image input by the image input unit includes shooting condition information including a shooting angle of view,
The distance estimation unit estimates a distance to a corresponding subject portion with reference to information on a shooting angle of view included in the shooting condition information in addition to the positional relationship of the plurality of shadow portions. The image processing apparatus according to 1.
上記画像入力工程で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出工程と、
上記抽出工程で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測工程と、
上記距離推測工程で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成工程と
を有したことを特徴とする画像処理方法。 An image input step of inputting a two-dimensional image in which a plurality of subjects each including a shadow are reflected;
An extraction step of extracting the subject portion and its shadow portion in the two-dimensional image input in the image input step;
A distance estimation step of estimating the distance to the subject portion according to the distance from the closest position to the lower side of the image from the corresponding subject portion of the plurality of shadow portions extracted in the extraction step;
An image processing method comprising: an image creation step of creating an image for left and right eyes, in which the subject portion and the shadow portion are shifted based on the distance obtained in the distance estimation step.
上記画像入力部で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出部と、
上記抽出部で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測部と、
上記距離推測部で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成部と、
上記画像作成部で作成した左右両眼用の画像を投影する投影部と
を具備したことを特徴とする投影装置。 An image input unit for inputting a two-dimensional image in which a plurality of subjects each including a shadow are reflected;
An extraction unit for extracting a subject part and its shadow part in the two-dimensional image input by the image input unit;
A distance estimation unit that estimates the distance to the subject portion according to the distance from the closest position to the lower side of the image from the corresponding subject portion of the plurality of shadow portions extracted by the extraction unit;
An image creating unit that creates an image for both left and right eyes in which the subject part and the shadow part are shifted based on the distance obtained by the distance estimating unit;
A projection apparatus comprising: a projection unit configured to project an image for both left and right eyes created by the image creation unit.
上記画像作成部は、上記距離推測部で得た距離と上記距離取得部で取得した距離とに基づいて該当部分をずらした左右両眼用の画像を作成する
ことを特徴とする請求項5記載の投影装置。 The projection unit further includes a distance acquisition unit that acquires a distance to a projection target on which an image is projected,
The image creating unit according to claim 5, characterized in that to create the image for the right and left eyes shifted that part based on the distance obtained by the distance and the distance obtaining unit obtained by the distance estimating unit Projection device.
当該プログラムを、
それぞれ影を含んだ複数の被写体が写り込んでいる2次元画像を入力する画像入力部、
上記画像入力部で入力した2次元画像中の被写体部分及びその影部分を抽出する抽出部、
上記抽出部で抽出した複数の影部分の対応する被写体部分から最も近い位置から画像下辺までの距離に応じて被写体部分までの距離を推測する距離推測部、及び
上記距離推測部で得た距離に基づいて該当被写体部分と影部分をそれぞれずらした左右両眼用の画像を作成する画像作成部
として機能させるためのプログラム。 A program executed by a computer built in the image processing apparatus,
The program
An image input unit for inputting a two-dimensional image in which a plurality of subjects each including a shadow are reflected;
An extraction unit for extracting a subject part and its shadow part in the two-dimensional image input by the image input unit;
The distance estimation unit for estimating the distance to the subject part according to the distance from the closest position to the lower side of the image from the corresponding subject part of the plurality of shadow parts extracted by the extraction unit, and the distance obtained by the distance estimation unit A program for functioning as an image creation unit for creating an image for both left and right eyes, in which the subject part and the shadow part are shifted based on each other.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010172498A JP5516199B2 (en) | 2010-07-30 | 2010-07-30 | Image processing apparatus, image processing method, projection apparatus, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010172498A JP5516199B2 (en) | 2010-07-30 | 2010-07-30 | Image processing apparatus, image processing method, projection apparatus, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012034214A JP2012034214A (en) | 2012-02-16 |
JP5516199B2 true JP5516199B2 (en) | 2014-06-11 |
Family
ID=45847084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010172498A Active JP5516199B2 (en) | 2010-07-30 | 2010-07-30 | Image processing apparatus, image processing method, projection apparatus, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5516199B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108028037A (en) * | 2015-09-30 | 2018-05-11 | 索尼公司 | Image processing equipment, image processing method and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03109612A (en) * | 1989-09-22 | 1991-05-09 | Toshiba Lighting & Technol Corp | Range finder for distance to object |
JP2001320731A (en) * | 1999-11-26 | 2001-11-16 | Sanyo Electric Co Ltd | Device for converting two-dimensional image into there dimensional image and its method |
JP2009008752A (en) * | 2007-06-26 | 2009-01-15 | Casio Comput Co Ltd | Projection device, method and program |
-
2010
- 2010-07-30 JP JP2010172498A patent/JP5516199B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108028037A (en) * | 2015-09-30 | 2018-05-11 | 索尼公司 | Image processing equipment, image processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP2012034214A (en) | 2012-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9619693B2 (en) | Display system, display device, projection device and program | |
JP4717728B2 (en) | Stereo display device and control method thereof | |
JP4755565B2 (en) | Stereoscopic image processing device | |
JP4661824B2 (en) | Image processing apparatus, method, and program | |
JPWO2012086326A1 (en) | Stereoscopic panorama image creation device, stereo panorama image creation method, stereo panorama image creation program, stereo panorama image playback device, stereo panorama image playback method, stereo panorama image playback program, and recording medium | |
US20120320050A1 (en) | 3d-image display apparatus, 3d-image capturing apparatus, and 3d-image display method | |
US20120236131A1 (en) | Display device, display system, and method for controlling display device | |
JP2013197797A (en) | Image display device and image display method | |
CN111432201A (en) | Display system, control method thereof, information processing apparatus, and recording medium | |
WO2013108285A1 (en) | Image recording device, three-dimensional image reproduction device, image recording method, and three-dimensional image reproduction method | |
EP2466362A2 (en) | Method and apparatus for providing stereoscopic image | |
JP2013073076A (en) | Projection type video display device | |
JP2013083755A (en) | Display device, method of controlling display device, and program | |
JP5516199B2 (en) | Image processing apparatus, image processing method, projection apparatus, and program | |
JP5549421B2 (en) | Projection apparatus, projection method, and program | |
JP4129786B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP5786315B2 (en) | Display device, display device control method, and program | |
JP2013021550A (en) | Imaging apparatus and control method of the same | |
JP5560964B2 (en) | Image processing apparatus, image processing method, projection apparatus, and program | |
JP2013251593A (en) | Display device and control method for the same | |
JP5789960B2 (en) | Display device, display device control method, and program | |
JP5222718B2 (en) | Stereoscopic image reproduction apparatus, stereoscopic image reproduction program, and imaging apparatus | |
US8907933B2 (en) | Display system, image output apparatus, control method, and recording medium | |
JP5002997B2 (en) | Projection apparatus and program | |
JP4969684B2 (en) | Image display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130724 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140304 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140317 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5516199 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |