JP4589277B2 - 3D display method - Google Patents

3D display method Download PDF

Info

Publication number
JP4589277B2
JP4589277B2 JP2006217098A JP2006217098A JP4589277B2 JP 4589277 B2 JP4589277 B2 JP 4589277B2 JP 2006217098 A JP2006217098 A JP 2006217098A JP 2006217098 A JP2006217098 A JP 2006217098A JP 4589277 B2 JP4589277 B2 JP 4589277B2
Authority
JP
Japan
Prior art keywords
image
dimensional
display
depth
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006217098A
Other languages
Japanese (ja)
Other versions
JP2008042745A (en
Inventor
一夫 木村
香織 昼間
英明 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006217098A priority Critical patent/JP4589277B2/en
Publication of JP2008042745A publication Critical patent/JP2008042745A/en
Application granted granted Critical
Publication of JP4589277B2 publication Critical patent/JP4589277B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、3次元表示方法に係り、特に、DFD(Depth Fused 3D)方式の3次元表示方法において、視野角特性の広い高画質な3次元立体像の表示方法に関する。   The present invention relates to a three-dimensional display method, and more particularly, to a high-quality three-dimensional stereoscopic image display method having a wide viewing angle characteristic in a DFD (Depth Fused 3D) type three-dimensional display method.

従来の立体表示方式として、前面、後面の前後2面の輝度比変化のみで連続的な奥行きを表現できるDFD(Depth Fused 3D)方式の3次元表示方法が提案されている。(下記、非特許文献1、非特許文献2参照)   As a conventional stereoscopic display method, a three-dimensional display method of a DFD (Depth Fused 3D) method capable of expressing a continuous depth only by changing the luminance ratio between the front and rear two front and rear surfaces has been proposed. (See Non-Patent Document 1 and Non-Patent Document 2 below)

なお、本願発明に関連する先行技術文献としては以下のものがある。
高田英明、陶山史朗、大塚作一、上平員丈、酒井重信、「新方式メガネなし3次元ディスプレイ」、3次元画像コンファレンス2000講演論文集、4-5、pp.99-102(2000) 陶山史朗、高田英明、「新現象に基づく3Dディスプレイを開発」、NTT技術ジャ−ナル、2002.8、Vol.14 No.8、pp.74-77
As prior art documents related to the invention of the present application, there are the following.
Hideaki Takada, Shiro Suyama, Sakuichi Otsuka, Jinjo Kamihira, Shigenobu Sakai, “Three-dimensional display without new glasses”, 3D Image Conference 2000 Proceedings, 4-5, pp.99-102 (2000) Shiro Suyama, Hideaki Takada, "Development of 3D display based on new phenomenon", NTT Technology Journal, 2002.8, Vol.14 No.8, pp.74-77

前述の非特許文献1、あるいは、非特許文献2に記載のDFD方式の3次元表示方法では、表示対象物体の表示範囲は、基本的に2枚の積層した表示面(例えば、透過型ディスプレイ)の間に3次元立体像が表示される奥行き表現型の立体表示方式であり、前面の2次元画像と後面の2次元像がある視点から見た場合一つに重なる(融合して知覚される)提示条件にて、3次元立体表示を行うものである。
このため、このDFD方式の3次元表示方法では、前面の2次元画像(表示位置にも依存)と、後面の2次元画像(表示位置にも依存)と、視点位置に制約を受け、視野角の広い立体表示は原理的に難しいという課題があった。
本発明は、前記従来技術の問題点を解決するためになされたものであり、本発明の目的は、視野角特性の広い高画質な3次元立体像を表示できるDFD(Depth Fused 3D)方式の3次元表示方法を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかにする。
In the three-dimensional display method of the DFD method described in Non-Patent Document 1 or Non-Patent Document 2, the display range of the display target object is basically two stacked display surfaces (for example, a transmissive display). This is a depth representation type stereoscopic display method in which a three-dimensional stereoscopic image is displayed between the two, and when viewed from a viewpoint with a two-dimensional image on the front and a two-dimensional image on the rear, they are overlapped (performed by being fused) ) Three-dimensional display is performed under the presentation conditions.
For this reason, in the three-dimensional display method of the DFD system, the front-view two-dimensional image (which also depends on the display position), the rear-surface two-dimensional image (which also depends on the display position), and the viewpoint position are restricted, and the viewing angle There is a problem that a wide stereoscopic display is difficult in principle.
The present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to use a DFD (Depth Fused 3D) method capable of displaying a high-quality three-dimensional stereoscopic image having a wide viewing angle characteristic. It is to provide a three-dimensional display method.
The above and other objects and novel features of the present invention will become apparent from the description of this specification and the accompanying drawings.

前述の課題を解決するために、本発明では、観察者から見て異なった奥行き位置にある複数の表示面に、表示対象物体を前記観察者の視線方向から射影した2次元像をそれぞれ表示し、当該表示される2次元像の輝度を前記各表示面毎にそれぞれ独立に変化させて、3次元立体像を表示する3次元表示方法において、互いに隣接する1対の表示面の中で、前記観察者に近い側の表示面を前面、前記観察者から遠い側の表示面を後面とするとき、表示したい3次元立体像のテクスチャ画像と、奥行き情報を入力値として用い、前記テクスチャ画像に対して、当該テクスチャ画像に対応する前記奥行き情報の奥行き値を参照し、奥行き値に応じてそれぞれ帯域通過特性が異なる画像処理フィルタを適用して画像処理を行い、前記画像処理を行った後のテクスチャ画像と、前記奥行き情報とから、前記前面に表示する2次元像の輝度と、前記後面に表示する2次元像の輝度を計算することを特徴とする。
これにより、観察者の視点位置が、表示装置の正面からずれても、前面に表示された2次元像と、後面に表示された2次元像による2重像が目立たず、自然な立体感を得ることが可能となる。
In order to solve the above-described problem, in the present invention, two-dimensional images obtained by projecting a display target object from the viewing direction of the observer are displayed on a plurality of display surfaces at different depth positions as viewed from the observer. In the three-dimensional display method for displaying a three-dimensional stereoscopic image by independently changing the luminance of the displayed two-dimensional image for each display surface, the pair of display surfaces adjacent to each other, When the display surface closer to the observer is the front surface and the display surface far from the observer is the rear surface, the texture image of the 3D stereoscopic image to be displayed and the depth information are used as input values, and the texture image The image processing is performed by referring to the depth value of the depth information corresponding to the texture image, applying image processing filters having different band pass characteristics according to the depth value, and performing the image processing. And texture images, from said depth information, and the luminance of the two-dimensional image to be displayed on the front, and calculates the luminance of the two-dimensional image to be displayed on the rear surface.
As a result, even if the viewpoint position of the observer is deviated from the front of the display device, the two-dimensional image displayed on the front surface and the double image displayed on the rear surface are not conspicuous, giving a natural three-dimensional effect. Can be obtained.

また、本発明では、DFD立体錯視現象のメカニズム(網膜像の画像の境界;エッジの認識が網膜像の低域通過成分に依存している)に従い、前記奥行き値に応じてそれぞれ帯域通過特性が異なる画像処理フィルタとして、テクスチャ画像の高域空間周波数をカットする特性を有する画像処理フィルタを用いることを特徴とする。
これにより、DFD錯視現象が発生する画像提示条件から視野角が外れた場合(例えば、後述する図2−1の通常の状態)でも、左右眼の網膜像がDFD錯視現象が現れた状態(例えば、後述する図2−1の重なった状態)に近づけることができるため、DFD表示の提示条件が緩和され、視野角の拡大、画質の向上を実現することが可能となる。
Further, according to the present invention, according to the mechanism of the DFD stereoscopic illusion phenomenon (the boundary of the image of the retinal image; the recognition of the edge depends on the low-pass component of the retinal image), the band pass characteristics are respectively set according to the depth value. As a different image processing filter, an image processing filter having a characteristic of cutting a high frequency spatial frequency of a texture image is used.
As a result, even when the viewing angle deviates from the image presentation condition in which the DFD illusion phenomenon occurs (for example, the normal state of FIG. 2-1 described later), the retinal images of the left and right eyes have the DFD illusion phenomenon (for example, Therefore, the DFD display presentation conditions are relaxed, and the viewing angle can be enlarged and the image quality can be improved.

また、本発明では、画像処理計算量を削減する目的と、画像のシャープさを保つ両方の目的で、前記奥行き値が、0あるいは1の場合(後面、あるいは、前面のみの表示となる場合)に、画像処理フィルタ処理を省略することを特徴とする。
これにより、高速処理を必要とするDFD動画への対応が容易となることは勿論、前面、あるいは、後面どちらかに2次元像が表示される場合は、画像処理フィルタを用いた画像処理による2次元像のボケの発生を防ぐことができ、シャープで高画質な立体像を表示することが可能である。
Further, in the present invention, when the depth value is 0 or 1 for the purpose of reducing the amount of image processing calculation and maintaining the sharpness of the image (when only the rear surface or the front surface is displayed). Further, the image processing filter processing is omitted.
This facilitates the handling of DFD moving images that require high-speed processing. In addition, when a two-dimensional image is displayed on either the front surface or the rear surface, 2 by image processing using an image processing filter. It is possible to prevent blurring of a dimensional image and display a sharp and high-quality stereoscopic image.

本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば、下記の通りである。
本発明のDFD(Depth Fused 3D)方式の3次元表示方法によれば、視野角特性の広い高画質な3次元立体像を表示することが可能となる。
The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows.
According to the DFD (Depth Fused 3D) type three-dimensional display method of the present invention, it is possible to display a high-quality three-dimensional stereoscopic image having a wide viewing angle characteristic.

以下、図面を参照して本発明の実施例を詳細に説明する。
なお、実施例を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
[従来のDFD方式の3次元表示装置の概要]
図3は、従来のDFD表示装置の一例の概略構成を示すブロック図である。同図において、901は、前面を構成する透過型表示装置、902は、後面を構成する透過型表示装置、903はバックライト、904は画素である。図3に示すDFD表示装置は、2枚(前面と後面)の透過型表示装置を積層した表示装置である。
透過型表示装置(901,902)は、例えば、透過型の液晶ディスプレイで構成することができるが、透過型表示装置(901,902)は、透過型であれば表示素子(有機EL、無機EL、液晶表示素子)はどのようなものであってもその機能実現には支障とならない。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
In all the drawings for explaining the embodiments, parts having the same functions are given the same reference numerals, and repeated explanation thereof is omitted.
[Outline of conventional DFD 3D display device]
FIG. 3 is a block diagram showing a schematic configuration of an example of a conventional DFD display device. In the figure, reference numeral 901 denotes a transmissive display device constituting the front surface, 902 a transmissive display device constituting the rear surface, 903 a backlight, and 904 a pixel. The DFD display device shown in FIG. 3 is a display device in which two (front and rear) transmissive display devices are stacked.
The transmissive display device (901, 902) can be configured by, for example, a transmissive liquid crystal display. If the transmissive display device (901, 902) is a transmissive display device (organic EL, inorganic EL), for example. The liquid crystal display element) does not hinder the realization of any function.

図4は、従来のDFD表示装置に表示される3次元立体像を説明するための図である。 同図において、1001は透過型表示面(前面)、1002は透過型表示面(後面)、1003は前面表示画像、1004は後面表示画像、1005は立体表示物(即ち、知覚される立体表示物)、1006は観察視点(通常、両眼の中央の点)である。
図4に示すように、透過型表示面1001及び透過型表示面1002に対して、表示対象物体を観察視点1006の方向から射影した2次元像を、それぞれ前面画像1003の絵柄、後面画像1004の絵柄としている。
また、それぞれの2次元の輝度は、立体表示物1005の表示位置(奥行き位置:Z)に応じて輝度分配される。なお、前面及び後面の表示面が、透過型表示面の場合には、立体表示物1005の表示位置(奥行き位置:Z)に応じた輝度分配とは、立体表示物1005の表示位置(奥行き位置:Z)に応じて透過度を分配し、観察者から見た輝度を変化させることを意味する。
図5は、従来のDFD表示装置の入出力画像の一例を示す図である。
図5に示す例では、表示したい3次元立体像のテクスチャ(RGB)画像と、奥行き(Z)画像を入力とし、それらから輝度分配処理を行い、前面画像と後面画像を生成している。
FIG. 4 is a diagram for explaining a three-dimensional stereoscopic image displayed on a conventional DFD display device. In the figure, 1001 is a transmissive display surface (front surface), 1002 is a transmissive display surface (rear surface), 1003 is a front surface display image, 1004 is a rear surface display image, and 1005 is a three-dimensional display object (that is, a perceived three-dimensional display object). ), 1006 is an observation viewpoint (usually a center point between both eyes).
As shown in FIG. 4, two-dimensional images obtained by projecting the display target object from the direction of the observation viewpoint 1006 on the transmissive display surface 1001 and the transmissive display surface 1002 are respectively a pattern of the front image 1003 and a rear image 1004. It is a pattern.
Further, the respective two-dimensional luminances are distributed in accordance with the display position (depth position: Z) of the stereoscopic display object 1005. When the front and rear display surfaces are transmissive display surfaces, the luminance distribution according to the display position (depth position: Z) of the stereoscopic display object 1005 is the display position (depth position) of the stereoscopic display object 1005. : Distributes the transmittance according to Z), and means to change the luminance seen by the observer.
FIG. 5 is a diagram illustrating an example of an input / output image of a conventional DFD display device.
In the example shown in FIG. 5, a texture (RGB) image and a depth (Z) image of a three-dimensional stereoscopic image to be displayed are input, and luminance distribution processing is performed from them to generate a front image and a rear image.

[本実施例の3次元表示方法のDFD画像生成処理の概要]
図1−1は、本実施例の3次元表示方法のDFD画像生成処理の概要を説明するための図である。
図1−1(a)は、従来のDFD画像生成処理を説明するための図であり、輝度分配処理ブロック10において、入力されるテクスチャ(RGB)画像の輝度を、そのテクスチャ(RGB)画像の画素毎の奥行き値(Z)を画像の形で表現した奥行き(Z)画像(デプス・マップ)に基づき分配し、前面画像(F)と後面画像(R)を出力する。
図1−1(b)は、本実施例のDFD画像生成処理を説明するためのであり、輝度分配処理ブロック12の前段に、テクスチャ(RGB)画像を、奥行き(Z)画像の各奥行き値(Z)毎にそれぞれ対応する帯域通過特性を有する画像処理フィルタを用いて画像処理を行うRGB画像前処理ブロック11が追加されている。
図1−1(b)に示すGB画像前処理ブロック11の入力は、テクスチャ(RGB)画像と奥行き(Z)画像(デプス・マップ)で、出力は、RGB画像前処理後の画像(RGB')と奥行き(Z)画像となる。そして、前処理後のテクスチャ画像(RGB')を新たに輝度分配処理ブロック12の入力に用い、前面画像(F)と後面画像(R)を生成している。
[Outline of DFD Image Generation Processing of 3D Display Method of Embodiment]
FIG. 1-1 is a diagram for explaining an outline of the DFD image generation processing of the three-dimensional display method according to the present embodiment.
FIG. 1-1A is a diagram for explaining conventional DFD image generation processing. In the luminance distribution processing block 10, the luminance of an input texture (RGB) image is set as the luminance of the texture (RGB) image. A depth value (Z) for each pixel is distributed based on a depth (Z) image (depth map) expressed in the form of an image, and a front image (F) and a rear image (R) are output.
FIG. 1B is a diagram for explaining the DFD image generation processing according to the present embodiment. In the preceding stage of the luminance distribution processing block 12, a texture (RGB) image is converted to each depth value (Z) image depth value (Z) image. An RGB image preprocessing block 11 for performing image processing using an image processing filter having a band pass characteristic corresponding to each Z) is added.
The input of the GB image preprocessing block 11 shown in FIG. 1-1 (b) is a texture (RGB) image and a depth (Z) image (depth map), and the output is an RGB image preprocessed image (RGB ′). ) And depth (Z) images. Then, the texture image (RGB ′) after the preprocessing is newly used as the input of the luminance distribution processing block 12, and the front image (F) and the rear image (R) are generated.

図1−2は、図1−1(b)に示すRGB画像前処理ブロック11の処理手順を示すフローチャートである。
初めに、奥行き情報のZ値毎に、対応する画像処理フィルタのパラメータを設定し記憶する(ステップ101)。
次に、テクスチャ(RGB)画像と奥行き(Z)画像とが入力されると(ステップ102)、奥行き(Z)画像のZ値に応じて画像処理フィルタ一つ選択し、そのテクスチャ(RGB)画像の画素に、前述の画像処理フィルタを用いて画像処理を行う(ステップ104)。
前述した処理を全画素に対して実行し(ステップ103、ステップ105)、全画素に対して処理が完了した時に、画像処理を加えた画像を新たなRGB画像(RGB’画像)として記憶する(ステップ106)。
FIG. 1-2 is a flowchart illustrating a processing procedure of the RGB image preprocessing block 11 illustrated in FIG. 1-1B.
First, for each Z value of the depth information, a corresponding image processing filter parameter is set and stored (step 101).
Next, when a texture (RGB) image and a depth (Z) image are input (step 102), one image processing filter is selected according to the Z value of the depth (Z) image, and the texture (RGB) image is selected. Image processing is performed on these pixels using the above-described image processing filter (step 104).
The above-described processing is executed for all the pixels (Step 103 and Step 105), and when the processing is completed for all the pixels, the image subjected to the image processing is stored as a new RGB image (RGB ′ image) ( Step 106).

図1−3は、本実施例の画像処理フィルタの一例を説明するための図である。図1−3では、画像処理フィルタとして、Gaussianフィルタを用いたが、平均値フィルタ、2次元離散フーリエ変換フィルタ(2次元DFTフィルタ)などの他の高域空間周波数をカットする特性を有する画像処理フィルタを用いても良い。
図1−3(a)は、画像処理フィルタにGaussianフィルタを用いた場合の一般的な設定例(設定の考え方)を説明するための図である。
表示する対象物の奥行き位置(ここでは、Z値を正規化し、0≦Z≦1とする)に応じてGaussianフィルタの分散値を変化させた例である。
テクスチャ(RGB)画像が、前面と後面にほぼ等分に輝度分配されるZ=0.5の条件では、前面に表示される2次元像と後面に表示される2次元像のずれが、他のZ値に比較して目立ちやすくなるため、Gaussianフィルタの分散値を大きく設定している。
一方、Z=0あるいは1の場合は、テクスチャ(RGB)画像は、前面に表示される2次元像、あるいは、後面に表示される2次元像のどちらか一方にのみ輝度分配されるため、前面に表示される2次元像と後面に表示される2次元像のずれが発生しない。
この場合は、Gaussianフィルタの分散値を0に設定し、GaussianフィルタによるRGB画像のボケが発生しないようにしている。
FIG. 1-3 is a diagram for explaining an example of the image processing filter of the present embodiment. Although a Gaussian filter is used as an image processing filter in FIGS. 1-3, image processing having a characteristic of cutting other high-frequency spatial frequencies such as an average value filter, a two-dimensional discrete Fourier transform filter (two-dimensional DFT filter), etc. A filter may be used.
FIG. 1-3A is a diagram for explaining a general setting example (setting concept) when a Gaussian filter is used as an image processing filter.
This is an example in which the variance value of the Gaussian filter is changed according to the depth position of the object to be displayed (here, the Z value is normalized and 0 ≦ Z ≦ 1).
Under the condition of Z = 0.5 in which the texture (RGB) image is almost equally divided between the front and rear surfaces, the difference between the two-dimensional image displayed on the front surface and the two-dimensional image displayed on the rear surface is The dispersion value of the Gaussian filter is set large so that it becomes more conspicuous than the Z value.
On the other hand, when Z = 0 or 1, the texture (RGB) image is distributed in luminance only to either the two-dimensional image displayed on the front surface or the two-dimensional image displayed on the rear surface. There is no deviation between the two-dimensional image displayed on the screen and the two-dimensional image displayed on the rear surface.
In this case, the variance value of the Gaussian filter is set to 0 so that the RGB image is not blurred by the Gaussian filter.

図1−3(b)は、より具体的な画像処理フィルタの設定例である。
Zの値が0≦Z≦Zaの場合は、σ=0の画像処理フィルタを用い、Za<Z≦Zbの時は、σ=1の画像処理フィルタを用い、Zb<Z≦Zcの時は、σ=2の画像処理フィルタを用い、Zc<Z≦Zdの時は、σ=1の画像処理フィルタを用い、Zd<Z≦1の時はσ=0の画像処理フィルタを用いる例である。
図1−3(c)に具体的なGaussianフィルタの例を示す。
Gaussianフィルタの一つ目は、σ=0で、入力がそのまま出力となる画像処理フィルタの例である(この場合は、処理を省略できる)。
Gaussianフィルタの二つ目は、σ=1で、3×3のGaussianフィルタの例である。
Gaussianフィルタの三つ目は、σ=2で、5×5のGaussianフィルタの例である。
ここでは、Z値の設定を3レベルに分けて設定する例を示したが、これ以外の複数レベルに分けて、また、画像処理フィルタの内容もそれぞれ変えて設定する方法も、同様に容易に実現可能であることは説明するまでもない。
FIG. 1B is a more specific image processing filter setting example.
When the value of Z is 0 ≦ Z ≦ Za, an image processing filter with σ = 0 is used, when Za <Z ≦ Zb, an image processing filter with σ = 1 is used, and when Zb <Z ≦ Zc, , Σ = 2, an image processing filter with σ = 1 is used when Zc <Z ≦ Zd, and an image processing filter with σ = 0 is used when Zd <Z ≦ 1. .
An example of a specific Gaussian filter is shown in FIG.
The first Gaussian filter is an example of an image processing filter in which σ = 0 and an input is directly output (in this case, the processing can be omitted).
The second Gaussian filter is an example of a 3 × 3 Gaussian filter with σ = 1.
The third Gaussian filter is an example of a 5 × 5 Gaussian filter with σ = 2.
Here, an example is shown in which the Z value setting is divided into three levels. However, the method of setting the values by dividing them into a plurality of other levels and changing the contents of the image processing filter is also easy. Needless to say, this is feasible.

図1−4は、本実施例において、テクスチャ(RGB)画像に対して、RGB画像前処理を行った中間出力画像(RGB’)の一例を示す図である。
図1−4に示す例では、入力画像は、白色の円板のテクスチャ(RGB)画像と、Z=0から1までの0.25刻みの一定の値を持つ奥行き(Z)画像の例である。
Z=0あるいはZ=1の場合は、σ=0の画像処理フィルタを用いる。この時は、入力のテクスチャ(RGB)画像は、そのまま中間出力画像(RGB')画像となるので、場合分けを行い、入力画像をそのまま出力画像とすることができる。
この場合は、テクスチャ(RGB)画像の円板の白と黒の境界(エッジ)は、特に変化がなく、シャープな境界となったままである。
Za<Z=0.25<Zb、Zc<Z=0.75<Zdの場合を想定すると、Z=0.25、あるいは、Z=0.75の場合では、σ=1の画像処理フィルタを用いて画像処理を行う。このため、中間出力画像(RGB')の円板の白と黒の境界(エッジ)は、画像処理フィルタの効果でわずかになだらかに変化するようになる。
Z=0.5の場合、σ=2の画像処理フィルタを用い、入力のRGB画像を前処理する。この時、中間出力画像(RGB')の円板の白と黒の境界(エッジ)は、σ=1の画像処理フィルタを用いる場合に比較してさらになだらかに変化する。
FIG. 1-4 is a diagram illustrating an example of an intermediate output image (RGB ′) obtained by performing RGB image preprocessing on a texture (RGB) image in the present embodiment.
In the example shown in FIG. 1-4, the input image is an example of a white disk texture (RGB) image and a depth (Z) image having a constant value in increments of 0.25 from Z = 0 to 1. is there.
When Z = 0 or Z = 1, an image processing filter with σ = 0 is used. At this time, since the input texture (RGB) image becomes the intermediate output image (RGB ′) image as it is, the input image can be used as the output image as it is by dividing the case.
In this case, the white / black boundary (edge) of the disk of the texture (RGB) image is not particularly changed and remains a sharp boundary.
Assuming the case of Za <Z = 0.25 <Zb and Zc <Z = 0.75 <Zd, if Z = 0.25 or Z = 0.75, an image processing filter with σ = 1 is selected. To perform image processing. For this reason, the white (black) boundary (edge) of the disk of the intermediate output image (RGB ′) changes slightly gently due to the effect of the image processing filter.
In the case of Z = 0.5, an input RGB image is preprocessed using an image processing filter with σ = 2. At this time, the white / black boundary (edge) of the disk of the intermediate output image (RGB ′) changes more gently as compared with the case where the image processing filter with σ = 1 is used.

図1−5は、図1−1(b)に示す輝度分配処理ブロック12の処理手順を示すフローチャートである。
図1−2のステップ106の後に、中間出力画像(RGB’画像)と奥行き(Z)画像を用いて、中間出力画像(RGB’画像)の輝度を分配し、前面に表示する2次元像の各画素の輝度と、後面に表示する2次元像の各画素の輝度を計算する(ステップ112)。
前述した処理を全画素に対して実行し(ステップ111、ステップ113)、全画素に対して処理が完了した時に、各視点毎に、前面に表示する2次元像と後面に表示する2次元像の結果を記憶し、DFD表示装置に出力する(ステップ114)。
FIG. 1-5 is a flowchart illustrating a processing procedure of the luminance distribution processing block 12 illustrated in FIG.
After step 106 in FIG. 1-2, the luminance of the intermediate output image (RGB ′ image) is distributed using the intermediate output image (RGB ′ image) and the depth (Z) image, and the two-dimensional image displayed on the front surface is displayed. The luminance of each pixel and the luminance of each pixel of the two-dimensional image displayed on the rear surface are calculated (step 112).
The above-described processing is executed for all pixels (steps 111 and 113), and when processing is completed for all pixels, a two-dimensional image displayed on the front surface and a two-dimensional image displayed on the rear surface are displayed for each viewpoint. Are stored and output to the DFD display device (step 114).

図1−6は、本実施例において、中間出力画像(RGB’)に対して輝度分配処理を行った出力画像の一例を示す図である。
図1−6に示す例では、入力画像は、白色の円板のテクスチャ(RGB)画像と、Z=0から1までの0.25刻みの一定の値を持つ奥行き(Z)画像の例である。
図1−4に示す、前処理が実行された中間出力画像(RGB’)が、前面に表示される2次元像(F)と、後面に表示される2次元像(R)へ輝度分配されている。
図1−7は、本実施例の画像処理フィルタの変形例を説明するための図である。
図1−3に示す画像処理フィルタでは、Z値に依存してGaussianフィルタの分散値(σ)を変更しているが、画像処理フィルタの分散値(σ)をZ値に依存して変更せずに一定とすることも可能である。
図1−7(a)は、画像処理フィルタの分散値(σ)を固定した例であり、図1−7(b)は、その場合の画像処理フィルタとして、σ=2の5×5のGaussianフィルタを設定した例を示す。
ここでは、高域空間周波数をカットする特性を有する画像処理フィルタとして、Gaussianフィルタを用いたが、これ以外の、例えば、平均値フィルタ、2次元離散フーリエ変換フィルタ(2次元DFTフィルタ)などの高域空間周波数をカットする特性を有する画像処理フィルタを用いることが可能であることは説明するまでもない。
FIG. 1-6 is a diagram illustrating an example of an output image obtained by performing luminance distribution processing on the intermediate output image (RGB ′) in the present embodiment.
In the example shown in FIGS. 1-6, the input image is an example of a white disk texture (RGB) image and a depth (Z) image having a constant value in increments of 0.25 from Z = 0 to 1. is there.
The intermediate output image (RGB ′) on which the preprocessing shown in FIG. 1-4 is performed is divided in luminance into a two-dimensional image (F) displayed on the front surface and a two-dimensional image (R) displayed on the rear surface. ing.
FIGS. 1-7 is a figure for demonstrating the modification of the image processing filter of a present Example.
In the image processing filter shown in FIG. 1-3, the variance value (σ) of the Gaussian filter is changed depending on the Z value, but the variance value (σ) of the image processing filter is changed depending on the Z value. It is also possible to make it constant.
FIG. 1-7 (a) is an example in which the dispersion value (σ) of the image processing filter is fixed. FIG. 1-7 (b) shows an image processing filter in that case as 5 × 5 of σ = 2. An example of setting a Gaussian filter is shown.
Here, a Gaussian filter is used as an image processing filter having a characteristic of cutting a high-frequency spatial frequency. However, other high-frequency filters such as an average value filter and a two-dimensional discrete Fourier transform filter (two-dimensional DFT filter) are used. Needless to say, it is possible to use an image processing filter having a characteristic of cutting the local spatial frequency.

図2−1は、DFD錯視現象の知覚モデル(奥行き方向の融合)を説明するための図である。
図2−1に示す通常の状態では、後面像のエッジC、Dと、前面像のエッジA、Bについて、左眼像ではCL,AL,DL,BLの順にエッジが現れ、右眼像ではCR,AR,DR,BRの順にエッジが現れる。左眼像と右眼像で、エッジの現れる順番が同じなのでそれぞれのエッジの対応が付き、前面と後面の2重像として知覚される。
一方、図2−1に示す前面像と後面像が重なった状態では、それらのエッジの現れ方が、左眼像ではCL,AL,DL,BLの順に現れるが、右眼像ではAR,CR,BR,DRの順に現れ、左眼像と右眼像でエッジの現れる順番が異なる。このような状態では、前面と後面のエッジの対応が付かなくなるためDFD錯視現象が発生する。
ここで、前画像と後画像のそれぞれについて、本実施例に示したように、画像のエッジの輝度変化を緩和する画像処理を行うと、例えば、図2−1の通常の状態の右眼像は、その像の両脇の部分(前面像と後面像の重なりからはずれた、後面像のみ網膜に映った部分と、前面像のみ網膜に映った部分)は、輝度の段差が緩和され、また、その両脇部分が拡大される。左眼像でも右眼像と同様の変化が現れるが、図2−1に示した場合では、右眼像の方が左眼像よりもその効果が大きく現れる。
このときの右眼、左眼いずれの網膜像においても、前面像と後面像が重なった状態(DFD)に近づいてくる。この効果により、DFDの視野角の制限が緩和され、通常の状態においても、従来、前面と後面の2重像に見える場合も、DFD錯視現象と類似した立体錯視現象が現れ、立体表示が可能とすることができる。
FIGS. 2-1 is a figure for demonstrating the perception model (fusion of the depth direction) of a DFD illusion phenomenon.
In the normal state shown in FIG. 2-1, the edges C and D of the rear image and the edges A and B of the front image appear in the order of CL, AL, DL, and BL in the left eye image, Edges appear in the order of CR, AR, DR, BR. Since the order in which the edges appear in the left eye image and the right eye image is the same, each edge corresponds to each other and is perceived as a double image of the front surface and the rear surface.
On the other hand, in the state where the front image and the rear image overlap each other as shown in FIG. 2A, the appearance of the edges appears in the order of CL, AL, DL, BL in the left eye image, but AR, CR in the right eye image. , BR, DR, and the order in which edges appear in the left eye image and the right eye image is different. In such a state, the front edge and the rear edge are not matched, and the DFD illusion phenomenon occurs.
Here, for each of the front image and the rear image, as shown in the present embodiment, when the image processing for reducing the luminance change of the edge of the image is performed, for example, the right-eye image in the normal state of FIG. The brightness difference between the parts on both sides of the image (the part where only the rear image is reflected in the retina and the part where only the front image is reflected in the retina) , Both sides are enlarged. A change similar to that of the right eye image appears in the left eye image, but in the case illustrated in FIG. 2A, the effect of the right eye image is greater than that of the left eye image.
At this time, both the right eye and left eye retinal images approach the state in which the front image and the rear image overlap (DFD). Due to this effect, the restriction on the viewing angle of DFD is relaxed, and a stereoscopic illusion phenomenon similar to the DFD illusion phenomenon appears in both the normal state and the conventional case where the front and rear images are viewed as a double image. It can be.

図2−2は、DFD錯視現象の知覚モデル(連続的な奥行き変化)を説明するための図である。
前面像と後面像が重なった状態(DFD)では、左眼像、右眼像ともに図2−2(a)に示す通り、輝度変化に段差を持った像となる。この像を人間の視覚の認識処理部分において、網膜像の低周波成分を用いて画像のエッジを検出し、左眼と右眼の対応点をとり、立体知覚を行っている(図2−2(b)参照)。
前面と後面の画像の輝度比を連続的に変化することにより、知覚される左眼と右眼の仮エッジの位置が連続的に変化するため、連続的な奥行き知覚が現れている。
本実施例に示すテクスチャ(RGB)画像の前処理を行うことで、図2−2に対応する網膜像は、物理的にも連続する曲線で表した輝度曲線のようになり、DFD錯視現象と同様に、連続的な奥行き知覚が現れる。
FIG. 2-2 is a diagram for explaining a perception model (continuous depth change) of the DFD illusion phenomenon.
In a state in which the front image and the rear image overlap (DFD), both the left eye image and the right eye image are images having a step difference in luminance change, as shown in FIG. In the human visual recognition processing part, the edge of the image is detected using the low-frequency component of the retinal image, the corresponding points of the left eye and the right eye are taken, and stereoscopic perception is performed (FIG. 2-2). (See (b)).
By continuously changing the luminance ratio of the front and rear images, the perceived positions of the temporary edges of the left eye and right eye change continuously, so that continuous depth perception appears.
By performing the preprocessing of the texture (RGB) image shown in the present embodiment, the retinal image corresponding to FIG. 2-2 becomes a luminance curve represented by a physically continuous curve, and the DFD illusion phenomenon Similarly, continuous depth perception appears.

以上説明したように、本実施例によれば、観察者から見て異なった奥行き位置にある複数の表示面に、表示対象物体を観察者の視線方向から射影した2次元像をそれぞれ表示し、当該表示される2次元像の輝度を前記各表示面毎にそれぞれ独立に変化させて、3次元立体像を表示するDFD方式の3次元表示方法において、隣接する一対の表示面の中の前面に表示される2次元像と、後面に表示される2次元像に対して、帯域通過フィルタ画像処理を適用することで、従来の連続的な奥行き表現をそのまま生かしたまま、前面の2次元像と、後面の2次元像とが完全に重なって見える位置から少しずれた所から観察した時に、像が2重に見える2重像の問題を、奥行き値に応じて異なる画像処理フィルタを適用することで画像の劣化(画像のボケ)を最小限に抑えつつ、緩和できる。
これにより、3次元表示方法の視野角特性が向上し、3次元立体像として知覚できる範囲が広げられるので、使用用途を拡大することができる。
さらに、奥行き(Z)画像のZ値より、前面もしくは後面にのみ2次元像を表示する場合には、元のテクスチャ(RGB)画像に画像処理フィルタを適用する前処理を省略することで、画像処理にかかる負担を軽減でき、リアルタイムに立体動画像の表示を容易に実現できる。
As described above, according to the present embodiment, two-dimensional images obtained by projecting the display target object from the observer's line-of-sight direction are displayed on a plurality of display surfaces at different depth positions as viewed from the observer, In a DFD three-dimensional display method for displaying a three-dimensional stereoscopic image by changing the luminance of the displayed two-dimensional image independently for each of the display surfaces, a front surface of a pair of adjacent display surfaces By applying band-pass filter image processing to the displayed two-dimensional image and the two-dimensional image displayed on the rear surface, the two-dimensional image of the front surface Applying different image processing filters according to the depth value for the problem of a double image in which the image looks double when observed from a position slightly shifted from the position where the two-dimensional image on the rear surface appears to overlap completely Image degradation (image While suppressing hair) to a minimum, it can be alleviated.
As a result, the viewing angle characteristics of the three-dimensional display method are improved, and the range that can be perceived as a three-dimensional stereoscopic image is expanded.
Further, when a two-dimensional image is displayed only on the front surface or rear surface from the Z value of the depth (Z) image, the preprocessing for applying the image processing filter to the original texture (RGB) image is omitted, thereby The burden on processing can be reduced, and the display of stereoscopic moving images can be easily realized in real time.

なお、本実施例において、奥行き(Z)画像は、必ずしも画像となっていなくても良く、テクスチャ画像に対応する奥行き値からなる奥行き情報であればよい。即ち、奥行き情報は、画像情報として受け取るのではなく、テクスチャ画像と対応がとれる形で奥行き値が与えられれば、画像である必要はない。
また、テクスチャ画像と奥行き情報が別々に与えられる必要もなく、テクスチャ画像と奥行き値の両方を含んだ一つの画像データとして受け渡しすることも可能である。
また、前述の説明では、テクスチャ画像として、RGB画像を使用した場合について説明したが、RGB画像はテクスチャ画像の一例であり、各色独立の画像であったり、あるいは、輝度・色相・明度で表現された2次元像などであってもよい。
以上、本発明者によってなされた発明を、前記実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
In this embodiment, the depth (Z) image does not necessarily have to be an image, and may be depth information including a depth value corresponding to the texture image. That is, the depth information is not received as image information, but need not be an image if the depth value is given in a form that can be associated with the texture image.
Further, it is not necessary to separately provide the texture image and the depth information, and it is also possible to pass the image as one image data including both the texture image and the depth value.
In the above description, the case where an RGB image is used as the texture image has been described. However, the RGB image is an example of a texture image and may be an image independent of each color or expressed by luminance, hue, and brightness. Alternatively, it may be a two-dimensional image.
As mentioned above, the invention made by the present inventor has been specifically described based on the above embodiments. However, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the invention. Of course.

本発明の実施例の3次元表示方法のDFD画像生成処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the DFD image generation process of the three-dimensional display method of the Example of this invention. 図1−1に示すRGB画像前処理ブロックの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the RGB image pre-processing block shown to FIGS. 1-1. 本発明の実施例の画像処理フィルタの一例を説明するための図である。It is a figure for demonstrating an example of the image processing filter of the Example of this invention. 本発明の実施例において、テクスチャ(RGB)画像に対して、RGB画像前処理を行った中間出力画像(RGB’)の一例を示す図である。In the Example of this invention, it is a figure which shows an example of the intermediate output image (RGB ') which performed RGB image pre-processing with respect to the texture (RGB) image. 図1−1(b)に示す輝度分配処理ブロックの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the luminance distribution process block shown to FIGS. 1-1 (b). 本発明の実施例において、中間出力画像(RGB’)に対して輝度分配処理を行った出力画像の一例を示す図である。In the Example of this invention, it is a figure which shows an example of the output image which performed the luminance distribution process with respect to intermediate output image (RGB '). 本発明の実施例の画像処理フィルタの変形例を説明するための図である。It is a figure for demonstrating the modification of the image processing filter of the Example of this invention. DFD錯視現象の知覚モデル(奥行き方向の融合)を説明するための図である。It is a figure for demonstrating the perception model (fusion of the depth direction) of a DFD illusion phenomenon. DFD錯視現象の知覚モデル(連続的な奥行き変化)を説明するための図である。It is a figure for demonstrating the perception model (continuous depth change) of a DFD illusion phenomenon. 従来のDFD表示装置の一例の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of an example of the conventional DFD display apparatus. 従来のDFD表示装置に表示される3次元立体像を説明するための図である。It is a figure for demonstrating the three-dimensional solid image displayed on the conventional DFD display apparatus. 従来のDFD表示装置の入出力画像の一例を示す図である。It is a figure which shows an example of the input-output image of the conventional DFD display apparatus.

符号の説明Explanation of symbols

10,12 輝度分配処理ブロック
11 RGB画像前処理ブロック
901 前面を構成する透過型表示装置
902 後面を構成する透過型表示装置
903 バックライト
904 画素
1001 透過型表示面(前面)
1002 透過型表示面(後面)
1003 前面表示画像
1004 後面表示画像
1005 立体表示物(即ち、知覚される立体表示物)
1006 観察視点(通常、両眼の中央の点)
F 前面画像
R 後面画像
DESCRIPTION OF SYMBOLS 10,12 Luminance distribution processing block 11 RGB image pre-processing block 901 The transmissive display apparatus which comprises a front surface 902 The transmissive display apparatus which comprises a rear surface 903 Backlight 904 Pixel 1001 A transmissive display surface (front surface)
1002 Transparent display surface (rear surface)
1003 Front display image 1004 Rear display image 1005 3D display object (that is, perceived 3D display object)
1006 Observation viewpoint (usually the center point of both eyes)
F Front image R Rear image

Claims (3)

観察者から見て異なった奥行き位置にある複数の表示面に、表示対象物体を前記観察者の視線方向から射影した2次元像をそれぞれ表示し、当該表示される2次元像の輝度を前記各表示面毎にそれぞれ独立に変化させて、3次元立体像を表示する3次元表示方法において、
互いに隣接する1対の表示面の中で、前記観察者に近い側の表示面を前面、前記観察者から遠い側の表示面を後面とするとき、
表示したい3次元立体像のテクスチャ画像と、奥行き情報を入力値として用い、
前記テクスチャ画像に対して、当該テクスチャ画像に対応する前記奥行き情報の奥行き値を参照し、奥行き値に応じてそれぞれ帯域通過特性が異なる画像処理フィルタを適用して画像処理を行うステップ1と、
前記ステップ1で画像処理を行った後のテクスチャ画像と、前記奥行き情報とから、前記前面に表示する2次元像の輝度と、前記後面に表示する2次元像の輝度を計算するステップ2とを有することを特徴とする3次元表示方法。
A two-dimensional image obtained by projecting the display target object from the viewing direction of the observer is displayed on a plurality of display surfaces at different depth positions as viewed from the observer, and the luminance of the displayed two-dimensional image is set to each of the above-described two-dimensional images. In a three-dimensional display method of displaying a three-dimensional stereoscopic image by changing each display surface independently,
Among a pair of display surfaces adjacent to each other, when the display surface closer to the observer is the front surface, and the display surface far from the observer is the rear surface,
Using the texture image of the 3D stereoscopic image to be displayed and the depth information as input values,
Step 1 for performing image processing on the texture image by referring to a depth value of the depth information corresponding to the texture image and applying an image processing filter having different bandpass characteristics according to the depth value;
Step 2 of calculating the luminance of the two-dimensional image displayed on the front surface and the luminance of the two-dimensional image displayed on the rear surface from the texture image after performing the image processing in step 1 and the depth information. A three-dimensional display method comprising:
前記奥行き値に応じてそれぞれ帯域通過特性が異なる画像処理フィルタとして、テクスチャ画像の高域空間周波数をカットする特性を有する画像処理フィルタを用いることを特徴とする請求項1に記載の3次元表示方法。   The three-dimensional display method according to claim 1, wherein an image processing filter having a characteristic of cutting a high-frequency spatial frequency of a texture image is used as an image processing filter having different bandpass characteristics depending on the depth value. . 前記奥行き値が、0あるいは1の場合に、前記ステップ1を省略することを特徴とする請求項1または請求項2に記載の3次元表示方法。   The three-dimensional display method according to claim 1, wherein when the depth value is 0 or 1, the step 1 is omitted.
JP2006217098A 2006-08-09 2006-08-09 3D display method Expired - Fee Related JP4589277B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006217098A JP4589277B2 (en) 2006-08-09 2006-08-09 3D display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006217098A JP4589277B2 (en) 2006-08-09 2006-08-09 3D display method

Publications (2)

Publication Number Publication Date
JP2008042745A JP2008042745A (en) 2008-02-21
JP4589277B2 true JP4589277B2 (en) 2010-12-01

Family

ID=39177246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006217098A Expired - Fee Related JP4589277B2 (en) 2006-08-09 2006-08-09 3D display method

Country Status (1)

Country Link
JP (1) JP4589277B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5478357B2 (en) * 2010-05-14 2014-04-23 日本電信電話株式会社 Display device and display method
KR20120003147A (en) 2010-07-02 2012-01-10 삼성전자주식회사 Depth map coding and decoding apparatus using loop-filter
JP5868026B2 (en) * 2011-05-24 2016-02-24 株式会社東芝 Ultrasonic diagnostic equipment
WO2013089249A1 (en) * 2011-12-15 2013-06-20 株式会社ニコン Display device, display control device, display control program, and program
JP2013168781A (en) * 2012-02-15 2013-08-29 Nikon Corp Display device
WO2014119555A1 (en) * 2013-01-31 2014-08-07 株式会社ニコン Image processing device, display device and program
JP6179282B2 (en) * 2013-08-30 2017-08-16 三菱電機株式会社 3D image display apparatus and 3D image display method
KR102185130B1 (en) 2015-05-21 2020-12-01 삼성전자주식회사 Multi view image display apparatus and contorl method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207191A (en) * 2000-05-12 2002-07-26 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional display device, and method for three- dimensional display
JP2005500578A (en) * 2001-08-20 2005-01-06 ライトスペース・テクノロジーズ・アクチボラグ Multi-plane volumetric display system using three-dimensional anti-aliasing and its operation method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002207191A (en) * 2000-05-12 2002-07-26 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional display device, and method for three- dimensional display
JP2005500578A (en) * 2001-08-20 2005-01-06 ライトスペース・テクノロジーズ・アクチボラグ Multi-plane volumetric display system using three-dimensional anti-aliasing and its operation method

Also Published As

Publication number Publication date
JP2008042745A (en) 2008-02-21

Similar Documents

Publication Publication Date Title
JP4589277B2 (en) 3D display method
CN105763865B (en) A kind of method and device of the bore hole 3D augmented realities based on transparent liquid crystal
EP2259601B1 (en) Image processing method, image processing device, and recording medium
CN104539935B (en) The adjusting method and adjusting means of brightness of image, display device
CN109716761B (en) Image generation device, image generation method, and recording medium
CN105824128B (en) Three-dimensional enhanced reality display system based on complex amplitude Grating Modulation
WO2011096280A1 (en) Image display device, image display system, and image display method
JP6615824B2 (en) Image generating apparatus, image generating method, and program
JP4593513B2 (en) 3D display method, 3D display device, and program
CN107707901B (en) It is a kind of for the display methods of naked eye 3D display screen, device and equipment
JP6457964B2 (en) Apparatus, projection apparatus, display apparatus, image generation apparatus, method thereof, and program
US20220020132A1 (en) Device and method for enhancing images
KR20110082907A (en) Method and device for stereoscopic image conversion
JP7498288B2 (en) Multiview style transfer system and method
US11495151B2 (en) Illusion presentation system, and illusion presentation method
JP4283232B2 (en) 3D display method and 3D display device
Balram Fundamentals of light field imaging and display systems
JP2006285112A (en) Three-dimensional display method and three-dimensional display device
JP2009237310A (en) False three-dimensional display method and false three-dimensional display apparatus
US11410630B2 (en) Image generation device, image generation method, and program
US11462138B2 (en) Image generation device, image generation method, and program
JP2019013012A (en) data structure
JP2006221128A (en) Three-dimensional display method and three-dimensional display device
WO2013061439A1 (en) Three-dimensional video display device
WO2019208143A1 (en) Image generation device, image generation method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100909

R150 Certificate of patent or registration of utility model

Ref document number: 4589277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130917

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees