JP2005157910A - Pseudo three-dimensional image creating device for imparting pseudo depth to image having discrete depth, and method and program for creating pseudo three-dimensional image - Google Patents

Pseudo three-dimensional image creating device for imparting pseudo depth to image having discrete depth, and method and program for creating pseudo three-dimensional image Download PDF

Info

Publication number
JP2005157910A
JP2005157910A JP2003398022A JP2003398022A JP2005157910A JP 2005157910 A JP2005157910 A JP 2005157910A JP 2003398022 A JP2003398022 A JP 2003398022A JP 2003398022 A JP2003398022 A JP 2003398022A JP 2005157910 A JP2005157910 A JP 2005157910A
Authority
JP
Japan
Prior art keywords
depth
pseudo
dimensional image
image generation
integrated object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003398022A
Other languages
Japanese (ja)
Other versions
JP4075782B2 (en
Inventor
Hajime Noto
肇 能登
Kazuo Kimura
一夫 木村
Kenji Nakazawa
憲二 中沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003398022A priority Critical patent/JP4075782B2/en
Publication of JP2005157910A publication Critical patent/JP2005157910A/en
Application granted granted Critical
Publication of JP4075782B2 publication Critical patent/JP4075782B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To impart a relief-like depth to an image having a discrete depth. <P>SOLUTION: A pseudo three-dimensional image creating device imparts a pseudo depth to the image having a discrete depth. The device consists of an object creating means creating an object by connecting adjacent pixels which are included in the image and whose discrete depths are equal and unifying the adjacent created objects when they exist, a depth imparting method deciding means for drawing segments on the created integrated object and a pseudo depth operating means for imparting continuous and a smooth depth on the pixel on the segments drawn densely by defining a depth function on the segments drawn densely. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は擬似的3次元画像の生成装置、生成方法、生成プログラム、及びプログラムを記録した記録媒体に関する。より具体的には、離散的奥行きを有する画像に連続的かつ滑らかな奥行きを付与する擬似的3次元画像生成装置、擬似的3次元画像生成方法、擬似的3次元画像生成プログラム、及びプログラムを記録した記録媒体に関する。   The present invention relates to a pseudo three-dimensional image generation device, a generation method, a generation program, and a recording medium on which the program is recorded. More specifically, a pseudo three-dimensional image generation device, a pseudo three-dimensional image generation method, a pseudo three-dimensional image generation program, and a program for providing a continuous and smooth depth to an image having a discrete depth are recorded. The recording medium.

画像処理技術の発達に伴い、3次元画像の入力技術が盛んに研究されている。3次元画像の入力方法には、撮影対象の3次元画像を入力する方法としてステレオ法や光切断法など種々の方法があり、画像の用途や撮影対象の性質などにより使い分けられている。しかし、いずれの方法においても入力装置が高価であり大型であるという問題がある。   With the development of image processing technology, three-dimensional image input technology has been actively studied. As a method for inputting a 3D image, there are various methods such as a stereo method and a light cutting method as a method for inputting a 3D image to be photographed. However, both methods have a problem that the input device is expensive and large.

一方、離散的奥行きを有する画像を比較的容易に入力する方法が提案されている。例えば、フラッシュを発光させて撮影した画像と発光させないで撮影した画像を比較し、撮影対象の輝度の変化率を求め、その変化率が予め決めた閾値以上であればその撮影対象は近くにあり、その変化率が閾値より小さければ遠くにあると判定することによって、相対的にではあるが離散的奥行きを決定することが可能である。   On the other hand, a method for inputting an image having a discrete depth relatively easily has been proposed. For example, an image shot with the flash fired and an image shot without the flash are compared to determine the rate of change in luminance of the shooting target. If the rate of change is equal to or greater than a predetermined threshold, the shooting target is near. If the rate of change is smaller than a threshold value, it is possible to determine a relatively but discrete depth by determining that the distance is far.

このように離散的奥行きを有する画像を3次元画像表示装置に表示した場合、撮影対象の奥行きの変化が離散的であるため、いわゆる書割現象を生じ、見る者に不自然な印象を与えてしまうという問題がある。この問題を解決するため、離散的奥行きを有する画像に連続的で滑らかな奥行きを付与できればよい。   When an image having a discrete depth is displayed on the three-dimensional image display device in this way, since the change in the depth of the subject to be photographed is discrete, a so-called book breaking phenomenon occurs, giving the viewer an unnatural impression. There is a problem of end. In order to solve this problem, it is only necessary to provide a continuous and smooth depth to an image having a discrete depth.

離散的奥行きを有する画像にレリーフ状の奥行きを付与する方法が提案されている。   A method for providing a relief-like depth to an image having a discrete depth has been proposed.

例えば、背景部分と絵柄部分とからなる二値画像をモチーフとしたレリーフ模様を、コンピュータを利用して作成することができる。モチーフとなる二値画像はラスターデータまたは輪郭線データとして、コンピュータ内に用意される。この二値画像上に複数の基準線が定義され、この基準線に基いて万線が作成される。万線は、モチーフとなる二値画像の背景部分と絵柄部分との境界線で曲折するように作成される。この万線によってレリーフ模様を構成するようにすれば、元になったモチーフが視覚的に浮き出たように見える(例えば特許文献1参照)。   For example, a relief pattern using a binary image composed of a background portion and a pattern portion as a motif can be created using a computer. A binary image serving as a motif is prepared in the computer as raster data or contour data. A plurality of reference lines are defined on the binary image, and lines are created based on the reference lines. The line is created so as to bend at the boundary line between the background portion and the pattern portion of the binary image as a motif. If the relief pattern is formed by this line, the original motif appears to be visually raised (see, for example, Patent Document 1).

また、複数の画素からなる階調画像をモチーフとしたレリーフ模様を、コンピュータを利用して作成することができる。モチーフとなる階調画像は、濃度値が定義された画素の配列データとして、コンピュータ内に用意される。この階調画像に基づいて二値画像が作成され、この二値画像に基づいて画像に含まれる輪郭線を抽出することができる。また、階調画像上に複数の基準線が定義され、この基準線に基いて万線が作成される。作成された万線は、モチーフとなる階調画像に含まれる絵柄の部分では、その画素の濃度値に応じて曲折した線になる。この万線によってレリーフ模様を構成するようにすれば、もとになったモチーフが視覚的に浮き出たように見える(例えば特許文献2参照)。   In addition, a relief pattern using a gradation image composed of a plurality of pixels as a motif can be created using a computer. A gradation image as a motif is prepared in a computer as pixel array data in which density values are defined. A binary image is created based on the gradation image, and a contour line included in the image can be extracted based on the binary image. In addition, a plurality of reference lines are defined on the gradation image, and all lines are created based on the reference lines. The created line is a curved line corresponding to the density value of the pixel in the pattern portion included in the gradation image as the motif. If the relief pattern is formed by this line, the original motif appears to be visually raised (see, for example, Patent Document 2).

また、線画をモチーフとして、滑らかな立体感をもったレリーフ模様を容易に作成することのできる方法が提案されている。この方法では、モチーフとなる線画はデジタルデータとして、コンピュータ内に用意される。この線画上には、複数の基準線が定義され、この基準線に基いて万線が作成される。万線は、モチーフとなる線画と交差する近傍において曲折するように作成される。この万線によってレリーフ模様を構成するようにすれば、もとになったモチーフが視覚的に浮き出たように見える。また、モチーフとなった線画が、互いに交差する複数の線のパターンを有する場合、各線の交差点付近において、各線についての万線の曲折状態が融和される処理が行われるため、立体感のあるレリーフ模様の作成が可能になる(例えば特許文献3、4、5参照)。   In addition, a method has been proposed that can easily create a relief pattern having a smooth three-dimensional effect using a line drawing as a motif. In this method, a line drawing as a motif is prepared in a computer as digital data. On this line drawing, a plurality of reference lines are defined, and lines are created based on the reference lines. A line is created so that it bends in the vicinity where it intersects with a line drawing as a motif. If the relief pattern is made up of these lines, the original motif appears to be visually raised. In addition, when the line drawing used as a motif has a pattern of multiple lines that intersect each other, a process that combines the bending state of all the lines for each line is performed near the intersection of each line, so a relief with a three-dimensional effect A pattern can be created (see, for example, Patent Documents 3, 4, and 5).

また、写真の任意の領域を指定し、指定した領域を切り取って書割状のアクセサリを作る方法が提案されている。この方法では、原写真シートの原写真画像より抽出された所望の抽出領域画像を有する写真シートを、原写真シートから切り取って、切取写真シートを作成する。原写真シートの前方、又は切り取った残りの残存領域画像を有する残存写真シートの前方に、写真シート同士を適宜離して保持するシート保持手段を介して前記切取写真シートを配置するとともに、原写真シートないし残存写真シート、シート保持手段、および切取写真シートから成る立体工作物を、少なくとも前面が透明体で構成されたケース内に収容した構成にしてある(例えば、特許文献6参照)。
特開平5−120450号公報 特開平5−158207号公報 特開平5−158208号公報 特開平5−158209号公報 特開平5−158210号公報 特開2000−153700号公報
In addition, a method has been proposed in which an arbitrary area of a photograph is designated and the designated area is cut out to make a book-like accessory. In this method, a photographic sheet having a desired extracted region image extracted from the original photographic image of the original photographic sheet is cut out from the original photographic sheet to create a cut-out photographic sheet. The cut-out photographic sheet is disposed in front of the original photographic sheet, or in front of the remaining photographic sheet having the remaining cut-out residual area image, through sheet holding means for holding the photographic sheets appropriately separated from each other. In addition, a three-dimensional workpiece including a remaining photographic sheet, a sheet holding unit, and a cut-out photographic sheet is accommodated in a case having at least a front surface made of a transparent body (see, for example, Patent Document 6).
Japanese Patent Laid-Open No. 5-120450 Japanese Patent Laid-Open No. 5-158207 JP-A-5-158208 Japanese Patent Laid-Open No. 5-158209 Japanese Patent Laid-Open No. 5-158210 JP 2000-153700 A

これらの方法は、2次元画像からレリーフ模様を生成するものである。レリーフ模様は立体形状を2次元平面に表現した模様であり、万線の傾斜により奥行きを表現するものである。これらの方法でレリーフ模様を生成する際に基準線を密にすれば、画像全体の奥行きを生成することができる。   These methods generate a relief pattern from a two-dimensional image. The relief pattern is a pattern in which a three-dimensional shape is expressed in a two-dimensional plane, and expresses the depth by the inclination of a line. If the reference line is made dense when the relief pattern is generated by these methods, the depth of the entire image can be generated.

しかし、特許文献1記載の方法では、2段階の奥行きを有する画像にしか対応しておらず、多段階の奥行きを有する画像には対応できない。また、生成されるのは直線的に変化する奥行きであり、書割現象を生じる。レリーフ模様としては十分であっても、擬似3次元画像の奥行きとしては不十分である。   However, the method described in Patent Document 1 only supports images having two levels of depth, and cannot support images having multiple levels of depth. Moreover, what is generated is a linearly changing depth, which causes a book breaking phenomenon. Even if the relief pattern is sufficient, the depth of the pseudo three-dimensional image is insufficient.

また、特許文献2記載の方法も同様に、2段階の奥行きを有する画像にしか対応しておらず、多段階の奥行きを有する画像には対応できない。また、凹凸がテクスチャの濃度に左右されるため、模様がない部分の奥行きは直線的となり、やはり書割現象を生じるおそれがある。逆に、格子縞のようにテクスチャの濃度が極端な変化を繰り返す部分は、連続的な奥行きとならず、見る者に不自然な印象を与える傾向がある。   Similarly, the method described in Patent Document 2 only supports images having two levels of depth, and cannot handle images having multiple levels of depth. In addition, since the unevenness depends on the density of the texture, the depth of the portion without the pattern becomes linear, and there is a possibility that the cracking phenomenon may occur. On the contrary, a portion where the density of the texture repeats an extreme change like a checkered pattern does not have a continuous depth and tends to give an unnatural impression to the viewer.

また、特許文献3乃至5記載の方法では、線分に対してレリーフ模様をつけるため、輪郭部分のみが浮き上がってしまい不自然となる。   In addition, in the methods described in Patent Documents 3 to 5, since a relief pattern is applied to a line segment, only the contour portion is lifted, which is unnatural.

また、特許文献6記載の方法では、滑らかな立体感を表現できないという問題がある。   Further, the method described in Patent Document 6 has a problem that a smooth stereoscopic effect cannot be expressed.

本発明は上記の課題を鑑みて発明されたものであり、滑らかな立体感を持ったレリーフ状の奥行きを容易に又は自動的に作成できる擬似的3次元画像生成装置、擬似的3次元画像生成方法、及び擬似的3次元画像生成プログラムを提供することを目的とする。   The present invention has been invented in view of the above problems, and a pseudo three-dimensional image generation apparatus and pseudo three-dimensional image generation capable of easily or automatically creating a relief-like depth having a smooth stereoscopic effect. It is an object to provide a method and a pseudo three-dimensional image generation program.

上記目的を達成するため、本発明による擬似的3次元画像生成装置は、離散的奥行きを有する画像に擬似的奥行きを付与する擬似的3次元画像生成装置であって、前記離散的奥行きを有する画像に含まれる画素であって離散的奥行きが等しくかつ隣接する画素を接続することによりオブジェクトを生成し、前記オブジェクトであって隣接するものがある場合にはこれを統合することにより統合オブジェクトを生成し、隣接するものがない場合には前記オブジェクトをそのまま統合オブジェクトとするオブジェクト生成手段と、前記統合オブジェクト上に線分を密に描く奥行き付与方法決定手段と、前記線分上で奥行き関数を定義することにより、前記線分上の画素に連続的かつ滑らかな奥行きを付与する擬似奥行き演算手段とが設けられたことを特徴とする。   In order to achieve the above object, a pseudo three-dimensional image generation apparatus according to the present invention is a pseudo three-dimensional image generation apparatus that gives a pseudo depth to an image having a discrete depth, and the image having the discrete depth. An object is generated by connecting adjacent pixels having the same discrete depth and the same depth, and if there are adjacent objects, an integrated object is generated by integrating them. When there is no adjacent object, an object generating unit that directly uses the object as an integrated object, a depth giving method determining unit that draws a line segment densely on the integrated object, and a depth function is defined on the line segment Thus, there is provided pseudo depth calculation means for providing a continuous and smooth depth to the pixels on the line segment. The features.

本発明に係る擬似的3次元画像生成装置において、オブジェクト生成手段が生成した統合オブジェクトに対し、奥行き付与方法決定手段が各統合オブジェクトの中心または基準方向を決定し、決定した中心を始点とする放射線分または決定した基準方向の平行線分を、各統合オブジェクトを構成する画素を覆いつくすように描く。この操作により、オブジェクトを構成する画素は、少なくとも1本の放射線分または平行線分に対応付けられる。奥行き演算手段が、この放射線分または平行線分上で滑らかな連続関数(奥行き関数)を定義することにより、その関数値を各画素に連続的かつ滑らかな奥行きとして付与する。   In the pseudo three-dimensional image generating apparatus according to the present invention, a depth giving method determining unit determines a center or a reference direction of each integrated object with respect to the integrated object generated by the object generating unit, and radiation starting from the determined center Minutes or determined parallel lines in the reference direction are drawn so as to cover the pixels constituting each integrated object. By this operation, the pixels constituting the object are associated with at least one radiation component or parallel line segment. The depth calculation means defines a smooth continuous function (depth function) on this radiation component or parallel line segment, and gives the function value to each pixel as a continuous and smooth depth.

各統合オブジェクトを構成する画素を1次元の放射線分または基準方向の平行線分上に位置づけることにより、滑らかな連続的奥行きの付与が容易になる。また、多段階の奥行きを有するオブジェクトに滑らかで連続的奥行きを付与することにより、オブジェクトにレリーフ状の奥行きを付与することができ、書割現象を防止し、より自然な立体感を見る者に与えることができる。   By positioning the pixels constituting each integrated object on the one-dimensional radiation component or the parallel line segment in the reference direction, it becomes easy to give a smooth continuous depth. In addition, by giving a smooth and continuous depth to an object having multiple levels of depth, it is possible to give a relief-like depth to the object, to prevent the picture-breaking phenomenon, and to those who see a more natural three-dimensional effect Can be given.

本発明を実施するための最良の形態を、図面を参照して説明する。
[第1の実施形態]
図1は、第1の実施形態に係る擬似的3次元画像生成装置の構成を示す図である。図1を参照して、第1の実施形態に係る擬似的3次元画像生成装置100の概略を説明する。
The best mode for carrying out the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration of a pseudo three-dimensional image generation apparatus according to the first embodiment. With reference to FIG. 1, an outline of a pseudo three-dimensional image generation apparatus 100 according to the first embodiment will be described.

図1に示した擬似的3次元画像生成装置100には、入力部110、オブジェクト生成部120、奥行き付け方法決定部130、擬似奥行き演算部140、および出力部150が設けられている。入力部110は、離散的奥行きを有する画像10が入力されると、必要に応じてその解像度を低下する。オブジェクト生成部120は、画像10から離散的奥行きが等しい隣接する画素を抽出することによってオブジェクトを生成する。また、複数のオブジェクトが隣接していれば、そのオブジェクトを統合し、統合オブジェクトとする。なお、離散的奥行きが最も遠い画素、または所定の奥行きよりも奥行きが遠い画素は背景を構成する画素とされ、擬似的奥行き付与の対象からはずされる。また、背景に囲まれ隣接するオブジェクトがないオブジェクトは、そのまま統合オブジェクトとされる。   The pseudo three-dimensional image generation apparatus 100 illustrated in FIG. 1 includes an input unit 110, an object generation unit 120, a depth setting method determination unit 130, a pseudo depth calculation unit 140, and an output unit 150. When the image 10 having a discrete depth is input, the input unit 110 reduces the resolution as necessary. The object generation unit 120 generates an object by extracting adjacent pixels having the same discrete depth from the image 10. If a plurality of objects are adjacent to each other, the objects are integrated into an integrated object. Note that a pixel having a farthest discrete depth or a pixel having a depth farther than a predetermined depth is regarded as a pixel constituting the background, and is excluded from a target for providing a pseudo depth. An object surrounded by a background and having no adjacent object is directly used as an integrated object.

奥行き付け方法決定部130は、オブジェクト生成部120が生成した統合オブジェクト上に、中心を決定し、決定した中心を始点とし統合オブジェクトの輪郭線を終点とする密な放射線分を描く。放射線分はオブジェクトを構成する画素が少なくとも1本の放射線分上に乗るように描く。擬似奥行き演算部140は、奥行き付け方法決定部130が密に描いた放射線上で、オブジェクトの離散的奥行きに基づき、滑らかな連続関数(奥行き関数)を定義し、奥行き関数の関数値を放射線分上の画素に擬似的奥行きとして付与する。出力部150は、擬似奥行き演算部140により擬似的奥行きが付与された画像10を、擬似的3次元画像として、例えばファイルや表示装置(図示せず)に出力する。   The depth setting method determination unit 130 determines a center on the integrated object generated by the object generation unit 120, and draws a dense radiation component having the determined center as a start point and an outline of the integrated object as an end point. The radiation component is drawn so that the pixels constituting the object are on at least one radiation component. The pseudo depth calculation unit 140 defines a smooth continuous function (depth function) based on the discrete depth of the object on the radiation densely drawn by the depth setting method determination unit 130, and determines the function value of the depth function as the radiation component. A pseudo depth is given to the upper pixel. The output unit 150 outputs the image 10 to which the pseudo depth is given by the pseudo depth calculation unit 140 as a pseudo three-dimensional image, for example, to a file or a display device (not shown).

図2は、第1の実施形態に係る擬似的3次元画像生成装置100の動作を示すフローチャートである。図2を参照しながら、擬似的3次元画像生成装置100の各構成要素の機能及び動作についてさらに詳しく説明する。   FIG. 2 is a flowchart showing the operation of the pseudo 3D image generation apparatus 100 according to the first embodiment. With reference to FIG. 2, functions and operations of each component of the pseudo three-dimensional image generation apparatus 100 will be described in more detail.

ステップS11において、入力部110は、離散的奥行きを有する画像10を取り込む。画像10の各画素は離散的奥行きを有している。ここで、「奥行き」とは、画像の奥行き方向の位置、即ち、画像を見る者の視線方向の遠近を表すものとする。奥行きが「近い」画素は見る者の近くにあり、奥行きが「遠い」画素は見る者から遠くにある。奥行きは具体的に遠近の距離を示すものでもよいし、相対的な遠近を数値化して示すものでもよい。「離散的奥行き」とは、この奥行きが離散的データであり連続的データではないものを意味する。   In step S11, the input unit 110 captures the image 10 having a discrete depth. Each pixel of the image 10 has a discrete depth. Here, “depth” represents the position in the depth direction of the image, that is, the perspective in the line of sight of the viewer of the image. Pixels that are “near” in the depth are near the viewer and pixels that are “far” in the depth are far from the viewer. Depth may specifically indicate the distance of perspective, or may indicate the relative perspective numerically. “Discrete depth” means that this depth is discrete data and not continuous data.

入力部110は必要に応じて、取り込んだ画像10の解像度を低下させてもよい。例えば、画像を構成する全画素のうち、縦横方向において1画素おきに処理すべき画素を選べば、解像度は1/4となる。解像度を低下させることにより、擬似的3次元画像生成装置100が処理するデータの計算量を減少することができる。したがって、処理能力の小さい中央演算装置(CPU)を利用して、本発明に係る擬似的3次元画像生成装置を実現することができる。入力部110は解像度低下手段に対応する。   The input unit 110 may reduce the resolution of the captured image 10 as necessary. For example, if a pixel to be processed every other pixel in the vertical and horizontal directions is selected from all the pixels constituting the image, the resolution becomes ¼. By reducing the resolution, the calculation amount of data processed by the pseudo 3D image generation apparatus 100 can be reduced. Therefore, the pseudo three-dimensional image generation apparatus according to the present invention can be realized using a central processing unit (CPU) having a small processing capability. The input unit 110 corresponds to resolution reduction means.

ステップS12において、オブジェクト生成部120は、入力部110から転送された画像10からオブジェクトを生成する。オブジェクトの生成は、例えば、画像10に含まれる画素のうち離散的奥行きが等しくかつ隣接する画素を抽出し、オブジェクトの構成要素として登録することにより行う。なお、離散的奥行きが最も遠い画素、または所定の奥行きよりも奥行きが遠い画素は背景を構成する画素とし、擬似的奥行きは付与しない。   In step S <b> 12, the object generation unit 120 generates an object from the image 10 transferred from the input unit 110. For example, the object is generated by extracting adjacent pixels having the same discrete depth among the pixels included in the image 10 and registering them as components of the object. It should be noted that a pixel with the farthest discrete depth or a pixel with a depth farther than a predetermined depth is a pixel constituting the background, and no pseudo depth is given.

ステップS13において、オブジェクト生成部120は、生成したオブジェクトであって隣接する複数のオブジェクトがある場合、その複数のオブジェクトを統合して、統合オブジェクトを生成する。統合オブジェクトは、その内部に離散的奥行きが異なる複数の領域を有するものである。また、隣接するオブジェクトがない孤立したオブジェクトも、単独で統合オブジェクトを構成するものとしてもよい。孤立したオブジェクトからなる統合オブジェクトは、離散的奥行きが等しい画素からなる単一の領域のみを有するものである。統合オブジェクトの生成は、例えば、隣接する複数のオブジェクトをひとつの統合オブジェクトとして登録することにより行う。   In step S13, when there are a plurality of adjacent objects that are generated objects, the object generation unit 120 integrates the plurality of objects to generate an integrated object. The integrated object has a plurality of regions having different discrete depths therein. An isolated object having no adjacent object may also constitute an integrated object alone. An integrated object made up of isolated objects has only a single region made up of pixels with the same discrete depth. For example, the integrated object is generated by registering a plurality of adjacent objects as one integrated object.

図3を参照して、ステップS12及びS13で統合オブジェクトが生成されるまでの過程を説明する。図3は、第1の実施形態において、オブジェクトの生成・統合を説明するための図であり、離散的奥行きを有する画像10の中に、離散的奥行きが等しく隣接する画素からなる領域11〜18が示されている。オブジェクト生成部120は、例えば、離散的奥行きが相等しく、かつ隣接する画素から構成されている領域11を抽出し、オブジェクト11とする。また、離散的奥行きが相等しく、かつ隣接する画素から構成されている領域12を抽出し、オブジェクト12とする。ただし、オブジェクト11を構成する画素の離散的奥行きとオブジェクト12を構成する画素の離散的奥行きとは相違しているため、オブジェクト11及び12は2つの異なるオブジェクトである。   With reference to FIG. 3, the process until the integrated object is generated in steps S12 and S13 will be described. FIG. 3 is a diagram for explaining object generation / integration in the first embodiment. In an image 10 having a discrete depth, regions 11 to 18 having pixels having the same discrete depth and adjacent to each other. It is shown. For example, the object generation unit 120 extracts the region 11 having the same discrete depth and composed of adjacent pixels as the object 11. A region 12 having the same discrete depth and composed of adjacent pixels is extracted as an object 12. However, since the discrete depths of the pixels constituting the object 11 are different from the discrete depths of the pixels constituting the object 12, the objects 11 and 12 are two different objects.

オブジェクト生成部120は、ステップS13において、さらにオブジェクト11及び12が隣接しているので、隣接しているオブジェクト11及び12を統合し、1つの統合オブジェクトを生成する。以下の説明では、オブジェクト11及び12が統合されて生成された統合オブジェクトを、統合オブジェクト(11、12)と呼ぶ。統合オブジェクト(11、12)はその内部に離散的奥行きが異なる2つの領域11、12を有している。同様に、オブジェクト生成部120は、領域13〜16を抽出し、オブジェクト13〜16を生成する。これらは隣接するので、統合して統合オブジェクト(13、14、15、16)を生成する。ここで、例えば、オブジェクト15及びオブジェクト16は直接的には隣接していないが、オブジェクト13を経由して間接的に隣接しているため、統合オブジェクト(13、14、15、16)として統合される。   In step S13, since the objects 11 and 12 are further adjacent to each other, the object generation unit 120 integrates the adjacent objects 11 and 12 to generate one integrated object. In the following description, an integrated object generated by integrating the objects 11 and 12 is referred to as an integrated object (11, 12). The integrated object (11, 12) has two regions 11, 12 having different discrete depths therein. Similarly, the object generation unit 120 extracts the regions 13 to 16 and generates the objects 13 to 16. Since these are adjacent, they are integrated to generate an integrated object (13, 14, 15, 16). Here, for example, the object 15 and the object 16 are not directly adjacent to each other, but are indirectly adjacent via the object 13, so that they are integrated as an integrated object (13, 14, 15, 16). The

領域18は、画像10に含まれる画素のうち離散的奥行きが最も遠い画素であるか、又は所定の奥行きよりも遠い画素の集まりである。領域18は背景18として奥行き付与の対象とはされない。   The region 18 is a pixel having the longest discrete depth among the pixels included in the image 10 or a group of pixels farther than a predetermined depth. The region 18 is not set as a depth addition target as the background 18.

オブジェクト17は背景18の中に孤立したオブジェクトである。孤立したオブジェクトは他のオブジェクトと統合されずに、単独で統合オブジェクト17としてもよい。従って、統合オブジェクト17は、単一の離散的奥行きを有する画素からなる。オブジェクト17はドーナツ形状をしており、その内側は背景18である。   The object 17 is an object isolated in the background 18. The isolated object may not be integrated with other objects but may be used alone as the integrated object 17. Accordingly, the integrated object 17 is composed of pixels having a single discrete depth. The object 17 has a donut shape, and the inside is a background 18.

ステップS14及びS15において、奥行き付け方法決定部130は、画像10の各統合オブジェクトに擬似的奥行きを付与する方法を決定する。擬似的奥行きを付与する方法には、種々の方法がある。第1の実施形態においては、各統合オブジェクトの中心を決定し、決定した中心を始点、統合オブジェクトの輪郭線を終点とする複数の放射線分を描く方法を使用する。   In steps S <b> 14 and S <b> 15, the depth setting method determination unit 130 determines a method for giving a pseudo depth to each integrated object of the image 10. There are various methods for providing the pseudo depth. In the first embodiment, a method is used in which the center of each integrated object is determined, and a plurality of radiation components are drawn with the determined center as the start point and the contour line of the integrated object as the end point.

具体的には、ステップS14において、奥行き付け方法決定部130は、画像10の各統合オブジェクトの中心を求める。そして、ステップS15において、ステップS14で求めた中心を始点とし、統合オブジェクトの輪郭線を終点とする放射線分を密に描く。   Specifically, in step S <b> 14, the depth setting method determination unit 130 obtains the center of each integrated object in the image 10. In step S15, the radiation component having the center obtained in step S14 as the start point and the contour line of the integrated object as the end point is drawn densely.

図4は、第1の実施形態において、各統合オブジェクトの中心を求め放射線分を描く動作を説明するための図である。図4において、統合オブジェクト(11、12)、(13、14、15、16)、及び17の中心がそれぞれ「×」印で示されている。また、統合オブジェクト(11、12)、(13、14、15、16)及び17の中心を始点とする放射線分21、22、23が描かれている。ここで、「描く」とは、統合オブジェクトを構成する画素と放射線分とを対応させることを意味し、必ずしも統合オブジェクト上に物理的に放射線分を描く必要はない。   FIG. 4 is a diagram for explaining the operation of drawing the radiation for the center of each integrated object in the first embodiment. In FIG. 4, the centers of the integrated objects (11, 12), (13, 14, 15, 16), and 17 are indicated by “x” marks. Further, radiation components 21, 22, and 23 starting from the centers of the integrated objects (11, 12), (13, 14, 15, 16), and 17 are drawn. Here, “draw” means that the pixels constituting the integrated object correspond to the radiation component, and it is not always necessary to physically draw the radiation component on the integrated object.

オブジェクトの中心の定義方法には多くの種類がある。例えば、オブジェクトの画像中心、オブジェクトの垂直分割線の中点、オブジェクトの重心である。図5は、オブジェクトの中心を決定する方法を説明するための図である。図5(a)は、中心を求めようとしているオブジェクト50の形状を示す。図5(b)は、オブジェクト50の画像中心51の求め方を説明するための図である。画像中心51は、オブジェクト50を囲む最小の矩形の対角線の交点51として求めることができる。図5(c)は、オブジェクト50の垂直分割線の中点52の求め方を説明するための図である。オブジェクト50の垂直分割線は、オブジェクト50を水平方向に切る水平線分の中点の集合である。垂直分割線の中点52をオブジェクト50の中心とする。図5(d)は、オブジェクト50の重心の求め方を説明するための図である。重心は、オブジェクト50を構成する画素の位置の平均値として求めることができる。   There are many ways to define the center of an object. For example, the image center of the object, the midpoint of the vertical dividing line of the object, and the center of gravity of the object. FIG. 5 is a diagram for explaining a method of determining the center of an object. FIG. 5A shows the shape of the object 50 whose center is to be obtained. FIG. 5B is a diagram for explaining how to obtain the image center 51 of the object 50. The image center 51 can be obtained as the intersection 51 of the smallest rectangular diagonal lines surrounding the object 50. FIG. 5C is a diagram for explaining how to obtain the midpoint 52 of the vertical dividing line of the object 50. The vertical dividing line of the object 50 is a set of midpoints of horizontal lines that cut the object 50 in the horizontal direction. The midpoint 52 of the vertical dividing line is set as the center of the object 50. FIG. 5D is a diagram for explaining how to obtain the center of gravity of the object 50. The center of gravity can be obtained as an average value of the positions of the pixels constituting the object 50.

必要に応じて、適当な中心を選択して使用すればよい。また、すべての統合オブジェクトについて、特定種類の中心を使用してもよいし、各統合オブジェクトについて、使用する中心の種類を変えてもよい。   If necessary, an appropriate center may be selected and used. Also, a specific type of center may be used for all integrated objects, or the type of center used may be changed for each integrated object.

使用する中心の種類を選択する場合、オペレータが選択できるようにしてもよいし、例えば、統合オブジェクトの特徴量を基準として自動的に選択されるようにしてもよい。特徴量とは、統合オブジェクトの特徴を示す数値であり、例えば円形度、面積、長さ、対称性などがある。円形度は統合オブジェクトの面積と周囲長の比によって、その統合オブジェクトの形状の複雑さを判定する数値であり、具体的には
特徴量(円形度) e=4π×(面積)÷(周囲長)
で定義される。但し、πは円周率である。円形度は、円の場合に最大値1となる。正方形の場合、円形度は0.79となる。
When the type of the center to be used is selected, the operator may be able to select it, or for example, it may be automatically selected based on the feature amount of the integrated object. The feature amount is a numerical value indicating the feature of the integrated object, and includes, for example, circularity, area, length, symmetry, and the like. Circularity is a numerical value that determines the complexity of the shape of an integrated object based on the ratio of the area and circumference of the integrated object.
Feature (circularity) e = 4π × (area) ÷ (perimeter)
Defined by Here, π is the circumference ratio. The circularity has a maximum value of 1 in the case of a circle. In the case of a square, the circularity is 0.79.

例えば、統合オブジェクトの円形度に基づいてその統合オブジェクトに適用する中心の種類を変えることができる。円形度が0.7以上のものには画像中心を使用し、0.7未満のものには重心を使用するなど、特徴量の範囲によって使用する中心の種類を変えることもできる。   For example, the center type applied to the integrated object can be changed based on the circularity of the integrated object. The center type used can be changed depending on the range of the feature amount, such as using the image center for a circularity of 0.7 or more and using the center of gravity for a circularity of less than 0.7.

ステップ16において、擬似奥行き演算部140は、この放射線分上の各画素に奥行きを付与するため、この放射線分に沿って滑らかな連続関数(奥行き関数)を適当に決定し、奥行き関数の関数値に基づき放射線分上の画素に奥行きを付与する。   In step 16, the pseudo depth calculation unit 140 appropriately determines a smooth continuous function (depth function) along the radiation component in order to add a depth to each pixel on the radiation component. Based on the above, a depth is given to the pixel on the radiation component.

図6は、画像10の統合オブジェクト(13、14、15、16)の放射線分22上で定義された奥行き関数32を説明するための図である。図6において、他の統合オブジェクト(11,12)および17の図示は省略されている(図7、8においても同様である)。統合オブジェクト(13、14、15、16)の離散的奥行きは、放射線分22上のA1に対応する位置(始点)においてY1であり、A2、A3、及びA4に対応する位置において、それぞれY1からY2、Y2からY3、Y3から背景18の奥行きに変化している。換言すると、離散的奥行きは、放射線分22上のA1とA2の間の領域でY1、A2とA3の間の領域でY2,A3とA4の間の領域でY3である。   FIG. 6 is a diagram for explaining the depth function 32 defined on the radiation component 22 of the integrated object (13, 14, 15, 16) of the image 10. In FIG. 6, the other integrated objects (11, 12) and 17 are not shown (the same applies to FIGS. 7 and 8). The discrete depth of the integrated object (13, 14, 15, 16) is Y1 at a position (start point) corresponding to A1 on the radiation component 22, and from Y1 at positions corresponding to A2, A3, and A4, respectively. Y2, Y2 to Y3, and Y3 to the depth of the background 18 are changed. In other words, the discrete depth is Y1 in the region between A1 and A2 on the radiation component 22, Y2 in the region between A2 and A3, and Y3 in the region between A3 and A4.

ここで、放射線分22上で奥行き関数32を定義するため、奥行き関数32が通過すべき通過点P1、P2、P3、P4を放射線分22上で指定する。通過点は、離散的奥行きを代表する放射線分22上の特定の位置を決めることにより指定することができる。例えば、通過点P1は放射線分22上の位置A1で、Y1の奥行きを有する点である。通過点P2は位置A2とA3の中点で、Y2の奥行きを有する点である。通過点P3は位置A3とA4の中点で、Y3の奥行きを有する点である。通過点P4は位置A4で、背景18の奥行きを有する点である。通過点は、必ずしも中点とする必要はなく、A2とA3の間、またはA3とA4の間の任意の点とすることも可能である。   Here, in order to define the depth function 32 on the radiation component 22, pass points P1, P2, P3, and P4 through which the depth function 32 should pass are designated on the radiation component 22. The passing point can be specified by determining a specific position on the radiation component 22 representing the discrete depth. For example, the passing point P1 is a position A1 on the radiation component 22 and has a depth of Y1. The passing point P2 is a midpoint between the positions A2 and A3 and has a depth of Y2. The passing point P3 is a midpoint between the positions A3 and A4 and has a depth of Y3. A passing point P4 is a point having a depth of the background 18 at a position A4. The passing point does not necessarily need to be the middle point, and can be any point between A2 and A3 or between A3 and A4.

さらにステップS16において、擬似奥行き演算部140は、指定した通過点P1、P2、P3、P4を通る滑らかな連続関数を決定し、奥行き関数とする。滑らかな連続関数としては、例えばベジェ曲線、B−スプライン曲線、高次関数(通過点の個数分の次数をもつもの)が使用できるが、これらに限定されるものではない。ベジェ曲線を使用した場合、最も滑らかな奥行き関数が得られるが、計算負荷は大きくなる。   Further, in step S16, the pseudo depth calculation unit 140 determines a smooth continuous function that passes through the designated passing points P1, P2, P3, and P4, and sets it as a depth function. As the smooth continuous function, for example, a Bezier curve, a B-spline curve, and a higher-order function (having orders corresponding to the number of passing points) can be used, but the invention is not limited to these. When a Bezier curve is used, the smoothest depth function can be obtained, but the calculation load increases.

奥行き関数32の関数値を放射線分22上の画素の擬似的奥行きとする。放射線分は統合オブジェクト(13、14、15、16)を構成するすべての画素の上を通るように密に描かれる。ここで「密に描く」とは、統合オブジェクト(13、14、15、16)を構成するすべての画素が少なくとも1本の放射線分に乗るような密度で、放射線分を描くことを意味する。1本1本の放射線分上で奥行き関数を定義することにより、統合オブジェクト(13、14、15、16)を構成するすべての画素に擬似的奥行きを付与することができる。   The function value of the depth function 32 is set as the pseudo depth of the pixel on the radiation component 22. The radiation component is drawn densely so as to pass over all the pixels constituting the integrated object (13, 14, 15, 16). Here, “densely draw” means that the radiation component is drawn at such a density that all the pixels constituting the integrated object (13, 14, 15, 16) ride on at least one radiation component. By defining the depth function on each radiation component, a pseudo depth can be given to all the pixels constituting the integrated object (13, 14, 15, 16).

統合オブジェクト上に放射線分を密に描き、各放射線分上で奥行き関数を定義することで、離散的奥行きを有する画像に連続的な奥行きを付与できる。したがって、書割のような不自然さがなくなり、滑らかな立体感をもったレリーフ状の擬似3次元画像を容易に作成できる。自動化も可能である。   By drawing a radiation component densely on the integrated object and defining a depth function on each radiation component, it is possible to give a continuous depth to an image having a discrete depth. Accordingly, unnaturalness such as book splits is eliminated, and a relief-like pseudo three-dimensional image having a smooth stereoscopic effect can be easily created. Automation is also possible.

上記の通り、放射線分22が、始点から終点までの間に、離散的奥行きが異なる領域を通過するたびに1つの通過点を指定してもよいが、統合オブジェクトの離散的奥行きが異なる領域の一部において、通過点の指定を省略することも可能である。図7は、通過点の指定を省略して擬似的奥行きを付与する場合を説明するための図である。図7において、統合オブジェクト(11,12)及び17は省略されている(図8においても同様である)。例えば、放射線分22上のA3とA4の間の通過点(図6のP3に相当するもの)は省略されている。そのため、奥行き関数33の形状は図6に示した奥行き関数32の形状と異なる。通過点の指定を省略することにより、奥行き関数は統合オブジェクトの離散的奥行きの変化を忠実に表さなくなるが、計算負荷を削減することができる。   As described above, each time the radiation component 22 passes through a region having a different discrete depth between the start point and the end point, one passing point may be designated. In some cases, it is also possible to omit specification of a passing point. FIG. 7 is a diagram for explaining a case where pseudo depth is given by omitting designation of a passing point. In FIG. 7, the integrated objects (11, 12) and 17 are omitted (the same applies to FIG. 8). For example, a passing point (corresponding to P3 in FIG. 6) between A3 and A4 on the radiation component 22 is omitted. Therefore, the shape of the depth function 33 is different from the shape of the depth function 32 shown in FIG. By omitting the designation of the passing point, the depth function does not faithfully represent the discrete depth change of the integrated object, but the calculation load can be reduced.

オブジェクトの中心を含み、幅をもった中心領域に、最も近い奥行きを付与することもできる。図8は、オブジェクト(13,14,15,16)の中心を始点とする放射線分22上において、始点から終点方向に30%の長さに相当する領域にある画素に最も近い奥行きY1を付与する場合を示す図である。図8に示す奥行き関数34は、始点に対応するC1から終点に対応するC6までの距離の30%の範囲(C1〜C3)で一定値Y1であり、この範囲が最も近い位置にあることを示している。ここで中心領域とは、奥行き関数13が一定であるオブジェクト内の領域をいう。   It is also possible to give the closest depth to a center region including the center of the object and having a width. FIG. 8 gives a depth Y1 closest to a pixel in a region corresponding to a length of 30% from the start point to the end point on the radiation component 22 starting from the center of the object (13, 14, 15, 16). It is a figure which shows the case where it does. The depth function 34 shown in FIG. 8 has a constant value Y1 in a range (C1 to C3) of 30% of the distance from C1 corresponding to the start point to C6 corresponding to the end point, and this range is at the closest position. Show. Here, the central region refers to a region in the object in which the depth function 13 is constant.

幅をもった中心領域に最も近い奥行きを付与することにより、レリーフ状の立体形状を出力する際に統合オブジェクトをより飛び出させることになり、立体感を強調できる。また複数の奥行きの相違する統合オブジェクトがある場合に、距離の近いオブジェクトのみにこの処理を施すことにより、その統合オブジェクトを強調できる。   By providing the depth closest to the center region having the width, the integrated object is more popped out when outputting the relief-like three-dimensional shape, and the three-dimensional effect can be emphasized. In addition, when there are a plurality of integrated objects having different depths, the integrated object can be emphasized by performing this process only on objects having a short distance.

なお、図8において、放射線分22は、C4において統合オブジェクト(13、14、15、16)から背景18に入り、C5において再び背景18から統合オブジェクト(13、14、15、16)に入っている。この場合、画素の離散的奥行きは、C4とC5の間において背景18の奥行きと等しくなる。かかる場合にC4とC5の間における背景18の奥行きを奥行き関数の計算に使うと、付与される奥行きが急峻になり、見る者に不自然な印象を与えることがある。そこで、C4とC5の間には通過点を指定せずに、奥行き関数34を決定してもよい。   In FIG. 8, the radiation component 22 enters the background 18 from the integrated object (13, 14, 15, 16) at C4, and enters the integrated object (13, 14, 15, 16) from the background 18 again at C5. Yes. In this case, the discrete depth of the pixel is equal to the depth of the background 18 between C4 and C5. In such a case, if the depth of the background 18 between C4 and C5 is used for the calculation of the depth function, the given depth becomes steep and may give an unnatural impression to the viewer. Therefore, the depth function 34 may be determined without specifying a passing point between C4 and C5.

奥行き関数に基づいて擬似的奥行きを付与した画像10を、ローパスフィルタを用いてより滑らかにしてもよい。図9はローパスフィルタの一例を示す図である。図9のローパスフィルタは、各画素の奥行きを、その画素を中心とする周辺7×7画素の奥行きの平均値とするものである。即ち、7×7画素に含まれるすべての画素の奥行きにそれぞれ1/49をかけ、足し合わせた結果を、中心の画素の奥行きとする。ここで、ローパスフィルタのサイズは任意だが、例えば画像全体の面積の0.05〜0.1%程度の比較的大きいサイズのローパスフィルタを使用した方が、処理結果が滑らかとなる。   The image 10 to which the pseudo depth is given based on the depth function may be smoothed using a low-pass filter. FIG. 9 is a diagram illustrating an example of a low-pass filter. In the low-pass filter of FIG. 9, the depth of each pixel is an average value of the depths of the surrounding 7 × 7 pixels centered on the pixel. That is, the depth of all pixels included in the 7 × 7 pixel is multiplied by 1/49, and the result of addition is set as the depth of the center pixel. Here, the size of the low-pass filter is arbitrary, but the processing result is smoother when a low-pass filter having a relatively large size, for example, about 0.05 to 0.1% of the area of the entire image is used.

また計算量を減らすために、ローパスフィルタを画像全体ではなく一部の領域のみに掛けてもよい。例えばローパスフィルタを掛ける領域を、統合オブジェクトの内部のみ、統合オブジェクトの輪郭線のみ、統合オブジェクトの輪郭線とその近傍数画素のみなどの領域から選択できるようにすればよい。また領域ごとに使用するローパスフィルタのサイズや形状を変えてもよい。例えば、オブジェクトの内部のみにローパスフィルタを掛ける場合、オブジェクトの縦横方向のサイズの1/4のサイズをもつ矩形のローパスフィルタを使用する方法がある。   In order to reduce the amount of calculation, a low-pass filter may be applied to only a part of the region instead of the entire image. For example, the area to be subjected to the low-pass filter may be selected from areas such as only the inside of the integrated object, only the outline of the integrated object, only the outline of the integrated object and its neighboring pixels. Further, the size and shape of the low-pass filter used for each region may be changed. For example, when a low-pass filter is applied only to the inside of an object, there is a method of using a rectangular low-pass filter having a size that is 1/4 of the size of the object in the vertical and horizontal directions.

奥行き関数に基づいて擬似的奥行きを付与しただけでは得られない、より滑らかな擬似3次元画像を実現できる。
[第2の実施形態]
第2の実施形態を説明する。第2の実施形態に係る擬似的3次元画像生成装置の構成は、図1に示した第1の実施形態に係る擬似的3次元画像生成装置の構成と基本的に同じである。相違点は、第2の実施形態に係る擬似的3次元画像生成装置の奥行き付け方法決定部130が、各オブジェクトの基準方向を決定し、決定した基準方向の平行線分を描くことである。
It is possible to realize a smoother pseudo three-dimensional image that cannot be obtained simply by adding a pseudo depth based on the depth function.
[Second Embodiment]
A second embodiment will be described. The configuration of the pseudo 3D image generation apparatus according to the second embodiment is basically the same as that of the pseudo 3D image generation apparatus according to the first embodiment shown in FIG. The difference is that the depth setting method determination unit 130 of the pseudo three-dimensional image generation device according to the second embodiment determines the reference direction of each object and draws parallel lines of the determined reference direction.

図10は、第2の実施形態に係る擬似3次元画像生成装置の処理を示すフローチャートである。ステップS21において、入力部110は、離散的奥行きを有する画像10を取り込む。このステップS21で、画像10の解像度を低下させてもよいことは、第1の実施形態と同様である。ステップS22において、オブジェクト生成部120は、画像10のうち離散的奥行きが等しくかつ隣接する画素を抽出し、オブジェクトを生成する。   FIG. 10 is a flowchart illustrating a process of the pseudo 3D image generation device according to the second embodiment. In step S21, the input unit 110 captures the image 10 having a discrete depth. Similar to the first embodiment, the resolution of the image 10 may be reduced in step S21. In step S22, the object generation unit 120 extracts adjacent pixels having the same discrete depth from the image 10, and generates an object.

ステップS23において、生成したオブジェクトのうち隣接する複数のオブジェクトがあれば、それらを統合することにより、統合オブジェクトを生成する。ステップS24において、奥行き付け方法決定部130は、各統合オブジェクトの基準方向を決定する。ステップS25において、基準方向の平行線が統合オブジェクトの輪郭線と最初に交わる点を始点、最後に交わる点を終点とする平行線分を密に描く。ここで、「密に描く」とは、統合オブジェクトを構成する画素を覆いつくすような線分の集合を決定し、各画素を少なくとも一本の線分に対応させることを意味し、必ずしも物理的に線分を描く必要はない。   In step S23, if there are a plurality of adjacent objects among the generated objects, an integrated object is generated by integrating them. In step S24, the depth setting method determination unit 130 determines the reference direction of each integrated object. In step S25, a parallel line segment is drawn densely, starting from the point where the parallel line in the reference direction first intersects with the outline of the integrated object, and ending at the point where the last line intersects. Here, “densely draw” means to determine a set of line segments that cover the pixels constituting the integrated object, and to correspond each pixel to at least one line segment, and is not necessarily a physical object. There is no need to draw line segments.

図11(a)、11(b)は、画像10の基準方向を決定する動作を説明するための図である。図11(a)は、画像10の特定方向をあらかじめ基準方向として決定しておく場合を示す図である。この場合、画像10に含まれるすべての統合オブジェクト(11、12)、(13、14、15、16)、及び17の基準方向は同一の方向と決められている。また、別の実施形態においては、図11(b)に示すように、各統合オブジェクトの基準方向は、オブジェクトごとに異なる方向としてもよい。その際、第1の実施形態において説明したのと同様に、各統合オブジェクトの特徴量に基づき決定してもよい。図11(b)の場合、統合オブジェクト(13、14、15、16)の基準方向は、その特徴量の一種であるオブジェクトの長さを基準として決められている。統合オブジェクト(13、14、15、16)は縦方向に長いので、それと直行する水平方向をやはり基準方向としたものである。   FIGS. 11A and 11B are diagrams for explaining the operation of determining the reference direction of the image 10. FIG. 11A is a diagram illustrating a case where a specific direction of the image 10 is determined in advance as a reference direction. In this case, the reference directions of all the integrated objects (11, 12), (13, 14, 15, 16), and 17 included in the image 10 are determined to be the same direction. In another embodiment, as shown in FIG. 11B, the reference direction of each integrated object may be a different direction for each object. At that time, as described in the first embodiment, the determination may be made based on the feature amount of each integrated object. In the case of FIG. 11B, the reference direction of the integrated object (13, 14, 15, 16) is determined based on the length of the object which is a kind of the feature amount. Since the integrated objects (13, 14, 15, 16) are long in the vertical direction, the horizontal direction perpendicular thereto is also set as the reference direction.

図12は、第2の実施形態において各統合オブジェクトに平行線分を密に描く動作を説明するための図である。図12において、画像10に含まれる統合オブジェクト(11,12)、(13、14,15,16)及び17の基準方向はすべて水平方向である。例えば、統合オブジェクト(13、14、15、16)において、水平方向の平行線は、平行線分62の左端の点(始点)S1で統合オブジェクト(13、14、15、16)の輪郭線と最初に交わり、平行線分62の右端の点(終点)S2で統合オブジェクト(13、14、15、16)の輪郭線と最後に交わっている。平行線分の始点と終点をあわせて端点と呼ぶ。このような平行線分を、少なくとも1本の平行線分が、統合オブジェクト(13、14、15、16)を構成するすべての画素を通るような密度で描けばよい。   FIG. 12 is a diagram for explaining the operation of densely drawing parallel lines on each integrated object in the second embodiment. In FIG. 12, the reference directions of the integrated objects (11, 12), (13, 14, 15, 16) and 17 included in the image 10 are all horizontal. For example, in the integrated object (13, 14, 15, 16), the horizontal parallel line is the contour line of the integrated object (13, 14, 15, 16) at the leftmost point (start point) S1 of the parallel line segment 62. It intersects first, and finally intersects with the outline of the integrated object (13, 14, 15, 16) at the right end point (end point) S2 of the parallel line segment 62. The start point and end point of the parallel line segment are collectively called end points. Such a parallel line segment may be drawn at such a density that at least one parallel line segment passes through all the pixels constituting the integrated object (13, 14, 15, 16).

図10に戻って、ステップS26において、擬似奥行き演算部140は、ステップS25において密に描かれた平行線分上の各画素に擬似的奥行きを付与するため、平行線分上で滑らかな連続関数(奥行き関数)を決定する。   Returning to FIG. 10, in step S26, the pseudo depth calculation unit 140 gives a pseudo depth to each pixel on the parallel line segment densely drawn in step S25, so that a smooth continuous function on the parallel line segment is obtained. (Depth function) is determined.

図13は、画像10の統合オブジェクト(13,14,15,16)の平行線分62上で定義された奥行き関数72を説明するための図である。図13において、その他の統合オブジェクト(11,12)及び17は、図示を省略されている(図14、15においても同様である)。統合オブジェクト(13,14,15,16)の離散的奥行きは、水平線分62上のD1(始点に対応する)、D2、D3、D4、D5(終点に対応する)に対応する位置において、それぞれ背景18の奥行きからY2、Y2からY1、Y1からY2、Y2からY3、Y3から背景18の奥行きに変化している。換言すると、離散的奥行きは、平行線分62上において、D1とD2の間の領域でY2、D2とD3の間の領域でY1、D3とD4の間の領域でY2、D4とD5の間の領域でY3である。   FIG. 13 is a diagram for explaining the depth function 72 defined on the parallel line segment 62 of the integrated object (13, 14, 15, 16) of the image 10. In FIG. 13, the other integrated objects (11, 12) and 17 are not shown (the same applies to FIGS. 14 and 15). The discrete depths of the integrated objects (13, 14, 15, 16) are respectively determined at positions corresponding to D1 (corresponding to the start point), D2, D3, D4, and D5 (corresponding to the end point) on the horizontal line segment 62. The depth of the background 18 changes to Y2, Y2 to Y1, Y1 to Y2, Y2 to Y3, and Y3 to the depth of the background 18. In other words, the discrete depth on the parallel line segment 62 is Y2 in the region between D1 and D2, Y1 in the region between D2 and D3, Y2 in the region between D3 and D4, and between D2, D4 and D5. Y3 in this area.

ここで、平行線分62上で奥行き関数72を定義するため、奥行き関数72が通過すべき通過点R1、R2、R3、R4、R5、R6を平行線分62上で指定する。通過点は離散的奥行きを代表する平行線分62上の特定の位置を決めることにより指定することができる。例えば、通過点R1は平行線分62上の位置D1で、背景18の奥行きを有する点である。通過点R2は位置D1とD2の中点で、Y2の奥行きを有する点である。通過点R3は位置D2とD3の中点で、Y1の奥行きを有する点である。通過点R4は位置D3とD4の中点で、Y2の奥行きを有する点である。通過点R5は位置D4とD5の中点で、Y3の奥行きを有する点である。   Here, in order to define the depth function 72 on the parallel line segment 62, passing points R1, R2, R3, R4, R5, and R6 through which the depth function 72 should pass are specified on the parallel line segment 62. The passing point can be specified by determining a specific position on the parallel line segment 62 representing the discrete depth. For example, the passing point R1 is a point having a depth of the background 18 at a position D1 on the parallel line segment 62. The passing point R2 is a midpoint between the positions D1 and D2 and has a depth of Y2. The passing point R3 is a midpoint between the positions D2 and D3 and has a depth of Y1. The passing point R4 is a midpoint between the positions D3 and D4 and has a depth of Y2. The passing point R5 is a midpoint between the positions D4 and D5 and has a depth of Y3.

さらにステップS26において、擬似奥行き演算部140は、指定した通過点R1、R2、R3、R4、R5、R6を通る滑らかな連続関数を決定し、奥行き関数とする。滑らかな連続関数としては、第1の実施形態と同様に、例えばベジェ曲線、B−スプライン曲線、高次関数(通過点の個数分の次数をもつもの)が使用できるが、これらに限定されるものではない。   Furthermore, in step S26, the pseudo depth calculation unit 140 determines a smooth continuous function that passes through the designated passing points R1, R2, R3, R4, R5, and R6, and sets it as a depth function. As the smooth continuous function, as in the first embodiment, for example, a Bezier curve, a B-spline curve, or a higher-order function (having a degree corresponding to the number of passing points) can be used, but is not limited thereto. It is not a thing.

奥行き関数72の関数値を平行線分62上の画素の擬似的奥行きとする。平行線分は統合オブジェクト(13、14、15、16)を構成するすべての画素の上を通るように密に描かれる。1本1本の放射線分上で奥行き関数を定義することにより、統合オブジェクト(13、14、15、16)を構成するすべての画素に擬似的奥行きを付与することができる。   The function value of the depth function 72 is set as the pseudo depth of the pixel on the parallel line segment 62. The parallel line segments are drawn densely so as to pass over all the pixels constituting the integrated object (13, 14, 15, 16). By defining the depth function on each radiation component, a pseudo depth can be given to all the pixels constituting the integrated object (13, 14, 15, 16).

統合オブジェクト上に平行線分を密に描き、密に描かれた各平行線分上で奥行き関数を定義することで、離散的奥行きを有する画像に連続的な奥行きを付与できる。したがって、書割のような不自然さがなくなり、滑らかな立体感をもったレリーフ状の擬似3次元画像を容易に作成できる。自動化も可能である。   By drawing parallel lines densely on the integrated object and defining a depth function on each densely drawn parallel line, continuous depth can be given to an image having discrete depths. Accordingly, unnaturalness such as book splits is eliminated, and a relief-like pseudo three-dimensional image having a smooth stereoscopic effect can be easily created. Automation is also possible.

上記の通り、平行線分62が、始点から終点までの間に、離散的奥行きが異なる領域を通過するたびに1つの通過点を指定してもよいが、統合オブジェクトの離散的奥行きが異なる領域の一部において、通過点の指定を省略することも可能である。図14は、通過点の指定を省略して擬似的奥行きを付与する場合を説明するための図である。図14において、統合オブジェクト(11、12)及び17は図示を省略した(図15においても同様である)。例えば統合オブジェクト(13,14,15,16)の平行線分62上において、D4とD5の間の通過点(図13のR5に相当するもの)は省略されている。そのため、奥行き関数73の形状は図13に示した奥行き関数72の形状と異なる。通過点の指定を省略することにより、奥行き関数が統合オブジェクト内の離散的奥行きの変化を忠実に表さなくなるが、計算負荷を削減することができる。   As described above, each time the parallel line segment 62 passes through a region having a different discrete depth between the start point and the end point, one passing point may be designated, but a region where the discrete depth of the integrated object is different. It is also possible to omit the designation of the passing point in a part of. FIG. 14 is a diagram for explaining a case where pseudo depth is given by omitting designation of a passing point. In FIG. 14, the integrated objects (11, 12) and 17 are not shown (the same applies to FIG. 15). For example, a passing point (corresponding to R5 in FIG. 13) between D4 and D5 is omitted on the parallel line segment 62 of the integrated object (13, 14, 15, 16). Therefore, the shape of the depth function 73 is different from the shape of the depth function 72 shown in FIG. By omitting the designation of the passing point, the depth function does not faithfully represent the discrete depth change in the integrated object, but the calculation load can be reduced.

統合オブジェクトの中心を含み、幅をもった中心領域に、最も近い奥行きを付与することもできる。図15は、統合オブジェクト(13、14、15、16)の平行線分62上において、平行線分62の30%の長さに相当する中心領域を構成する画素に、最も近い奥行きY1を付与する場合を示す図である。図15に示す奥行き関数74は、平行線分62の30%の長さに相当するE1とE2の間の領域(中心領域)で一定値Y1であり、この範囲が最も近い位置にあることを示している。ここで中心領域とは、奥行き関数74が一定である統合オブジェクト内の領域をいう。   It is also possible to give the closest depth to the central region including the center of the integrated object and having a width. FIG. 15 shows that on the parallel line segment 62 of the integrated object (13, 14, 15, 16), the closest depth Y1 is given to the pixels constituting the central region corresponding to the length of 30% of the parallel line segment 62. It is a figure which shows the case where it does. The depth function 74 shown in FIG. 15 has a constant value Y1 in a region (center region) between E1 and E2 corresponding to 30% of the length of the parallel line segment 62, and this range is the closest position. Show. Here, the central region refers to a region in the integrated object in which the depth function 74 is constant.

幅をもった中心領域に最も近い奥行きを付与することにより、レリーフ状の立体形状を出力する際に統合オブジェクトをより飛び出させることになり、立体感を強調できる。また複数の奥行きの相違する統合オブジェクトがある場合に、距離の近い統合オブジェクトのみにこの処理を施すことにより、その統合オブジェクトを強調できる。   By providing the depth closest to the center region having the width, the integrated object is more popped out when outputting the relief-like three-dimensional shape, and the three-dimensional effect can be emphasized. Further, when there are a plurality of integrated objects having different depths, the integrated object can be emphasized by performing this process only on the integrated objects having a short distance.

第1の実施形態と同様に、奥行き関数に基づいて擬似的奥行きを付与した画像10を、図9に示したローパスフィルタを用いてより滑らかにしてもよい。擬似的奥行きを付与した画像にローパスフィルタをかければ、奥行き関数で奥行きを付与しただけでは得られないより滑らかな擬似3次元画像を実現できる。   Similarly to the first embodiment, the image 10 to which the pseudo depth is given based on the depth function may be smoothed using the low-pass filter shown in FIG. If a low-pass filter is applied to an image to which a pseudo depth is added, a smoother pseudo three-dimensional image that cannot be obtained simply by adding a depth by a depth function can be realized.

なお、奥行き付け方法決定部130は、一つの画像10内において、統合オブジェクトごとに第1の実施形態に係る放射線分による奥行き付け方法と第2の実施形態に係る平行線分による奥行き付け方法とを混在して使用してもよい。各統合オブジェクトの奥行き付け方法は、その特徴量により決定してもよく、オペレータが選択してもよい。   It should be noted that the depth adding method determination unit 130 includes, for each integrated object, a depth adding method according to the radiation component according to the first embodiment and a depth adding method according to the parallel line segment according to the second embodiment. May be used in combination. The method for adding depth to each integrated object may be determined by the feature amount or may be selected by the operator.

第1及び第2の実施形態に係る擬似的3次元画像装置は、コンピュータ及びそれで実行するプログラムとして実現可能である。そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも可能である。
[第3の実施形態]
第3の実施形態に係る擬似3次元画像生成システムについて説明する。
The pseudo three-dimensional image apparatus according to the first and second embodiments can be realized as a computer and a program executed by the computer. It is also possible to provide the program by recording it on a computer-readable recording medium.
[Third Embodiment]
A pseudo three-dimensional image generation system according to the third embodiment will be described.

図16は、第3の実施形態に係る擬似3次元画像生成システム200の構成を示すブロック図である。擬似3次元画像生成システムとは、例えばデジタルカメラであり、単体のデジタルカメラだけでなく、携帯電話、パーソナルデータアシスタント(PDA)、パーソナルコンピュータ(PC)等に組み込まれたものでもよい。図16の擬似3次元画像生成システム200は、撮像部210、画像記憶部220、離散的奥行き画像生成部230、擬似的奥行き画像生成部240、表示部250、及び照明部260から構成される。   FIG. 16 is a block diagram showing a configuration of a pseudo 3D image generation system 200 according to the third embodiment. The pseudo three-dimensional image generation system is, for example, a digital camera, and may be incorporated in a mobile phone, a personal data assistant (PDA), a personal computer (PC) or the like as well as a single digital camera. 16 includes an imaging unit 210, an image storage unit 220, a discrete depth image generation unit 230, a pseudo depth image generation unit 240, a display unit 250, and an illumination unit 260.

照明部260は、例えば、制御部(図示せず)からの制御信号に応じて撮影対象を照明するフラッシュである。撮像部210は、例えば、CCDイメージセンサやCMOSイメージセンサを含み、制御部(図示せず)からの制御信号に応じて、撮影対象の画像をデータとして取り込む。画像記憶部220は、複数の画像を格納する複数のフレームメモリ(図示せず)から構成され、撮像部210により取り込まれた画像が格納される。離散的奥行き画像生成部230は、画像記憶部220のフレームメモリに格納された画像を処理し、離散的奥行きが付与された画像を生成する。生成された離散的奥行きを有する画像は、擬似的奥行き画像生成部240に送られる。擬似的奥行き画像生成部240は、例えば本発明の第1又は第2の実施形態に係る擬似3次元画像生成装置である。入力された離散的奥行きを有する画像に連続的かつ滑らかな奥行きを付与する。連続的かつ滑らかな奥行きを付与された画像は、表示部250に表示される。表示部250は、例えば真の3次元ディスプレイ装置である。   The illumination unit 260 is, for example, a flash that illuminates a subject to be photographed according to a control signal from a control unit (not shown). The imaging unit 210 includes, for example, a CCD image sensor or a CMOS image sensor, and captures an image to be captured as data in accordance with a control signal from a control unit (not shown). The image storage unit 220 includes a plurality of frame memories (not shown) that store a plurality of images, and stores images captured by the imaging unit 210. The discrete depth image generation unit 230 processes the image stored in the frame memory of the image storage unit 220, and generates an image with a discrete depth. The generated image having discrete depth is sent to the pseudo depth image generation unit 240. The pseudo depth image generation unit 240 is, for example, a pseudo three-dimensional image generation apparatus according to the first or second embodiment of the present invention. A continuous and smooth depth is given to the input image having a discrete depth. An image to which continuous and smooth depth is given is displayed on the display unit 250. The display unit 250 is, for example, a true three-dimensional display device.

擬似的3次元画像生成システム200により、撮影対象の2次元画像を取り込み、擬似的奥行き画像生成部240において、取り込まれた2次元画像に連続的で滑らかな奥行きを付与することができる。したがって、見る者に滑らかな立体感を与えるレリーフ状の奥行きを有する擬似3次元画像を容易に生成することができる。   The pseudo three-dimensional image generation system 200 can capture a two-dimensional image to be photographed, and the pseudo depth image generation unit 240 can give a continuous and smooth depth to the captured two-dimensional image. Therefore, it is possible to easily generate a pseudo three-dimensional image having a relief-like depth that gives a smooth three-dimensional effect to the viewer.

以上、本発明の実施の形態を説明した。本発明は上記の具体的に開示された実施例に限定されず、本発明の範囲から逸脱することなく様々な変形、改良が可能であろう。   The embodiment of the present invention has been described above. The present invention is not limited to the specifically disclosed embodiments described above, and various modifications and improvements may be made without departing from the scope of the present invention.

離散的奥行きを有する画像から擬似的3次元画像を容易に生成できる擬似的3次元画像生成装置を作ることができる。また、撮影対象を撮影して擬似的3次元画像を出力できる擬似的3次元画像生成システムを作ることができる。   A pseudo three-dimensional image generation apparatus that can easily generate a pseudo three-dimensional image from an image having a discrete depth can be produced. In addition, a pseudo 3D image generation system capable of shooting a shooting target and outputting a pseudo 3D image can be created.

第1の実施形態に係る擬似的3次元画像生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the pseudo | simulated three-dimensional image generation apparatus which concerns on 1st Embodiment. 第1の実施形態に係る擬似的3次元画像生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the pseudo | simulation three-dimensional image generation apparatus which concerns on 1st Embodiment. 第1の実施形態においてオブジェクトを生成・統合する動作を説明するための図である。It is a figure for demonstrating the operation | movement which produces | generates and integrates an object in 1st Embodiment. 第1の実施形態において各統合オブジェクトの中心を決定する動作を説明するための図である。It is a figure for demonstrating the operation | movement which determines the center of each integrated object in 1st Embodiment. 第1の実施形態において統合オブジェクトの中心を決定する方法を説明するための図である。It is a figure for demonstrating the method to determine the center of an integrated object in 1st Embodiment. 第1の実施形態において放射線上の画素に擬似的奥行きを付与する方法を説明するための図である。It is a figure for demonstrating the method to provide pseudo depth to the pixel on radiation in 1st Embodiment. 図6において通過点を省略して擬似的奥行きを付与する場合を説明するための図である。It is a figure for demonstrating the case where a passing point is abbreviate | omitted in FIG. 6, and giving pseudo depth. 図6において始点からの距離が所定割合の画素に最も近い奥行きを付与する場合を説明するための図である。It is a figure for demonstrating the case where the distance from the starting point in FIG. 6 provides the closest depth to the pixel of a predetermined ratio. 第1の実施形態において付与した擬似的奥行きをさらに滑らかにするために使用するローパスフィルタの一例を示す図である。It is a figure which shows an example of the low-pass filter used in order to make the pseudo depth provided in 1st Embodiment further smooth. 第2の実施形態に係る擬似的3次元画像生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the pseudo | simulation three-dimensional image generation apparatus which concerns on 2nd Embodiment. 第2の実施形態において各統合オブジェクトの基準方向を決定する動作を説明するための図である。It is a figure for demonstrating the operation | movement which determines the reference | standard direction of each integrated object in 2nd Embodiment. 第2の実施形態において各統合オブジェクトに平行線を描く動作を説明するための図である。It is a figure for demonstrating the operation | movement which draws a parallel line in each integrated object in 2nd Embodiment. 第2の実施形態において平行線上の画素に擬似的奥行きを付与する方法を説明するための図である。It is a figure for demonstrating the method to provide pseudo depth to the pixel on a parallel line in 2nd Embodiment. 図13において通過点を省略して擬似的奥行きを付与する場合を説明するための図である。It is a figure for demonstrating the case where a passing point is abbreviate | omitted in FIG. 13, and giving pseudo depth. 図13において平行線の中点からの距離が所定割合の画素に最も近い奥行きを付与する場合を説明するための図である。It is a figure for demonstrating the case where the distance from the midpoint of a parallel line gives the depth nearest to the pixel of a predetermined ratio in FIG. 第3の実施形態に係る擬似的3次元画像生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of the pseudo | simulated three-dimensional image generation system which concerns on 3rd Embodiment.

符号の説明Explanation of symbols

10 離散的奥行きを有する画像
11、12、13 オブジェクト
14、15、16 オブジェクト
17 オブジェクト
18 背景
21、22、23 放射線分
62 平行線分
32、33、34 奥行き関数
72、73 奥行き関数
50 オブジェクト形状例
51 交点
52 中点
100 擬似的3次元画像生成装置
110 入力部
120 オブジェクト生成部
130 奥行き付け方法決定部
140 擬似奥行き演算部
150 出力部
200 擬似的3次元画像生成システム
210 撮像部
220 画像記憶部
230 離散的奥行き画像生成部
240 擬似的奥行き画像生成部
250 表示部
260 照明部
DESCRIPTION OF SYMBOLS 10 Image with discrete depth 11, 12, 13 Object 14, 15, 16 Object 17 Object 18 Background 21, 22, 23 Radiation component 62 Parallel line segment 32, 33, 34 Depth function 72, 73 Depth function 50 Object shape example 51 Intersection 52 Midpoint 100 Pseudo 3D Image Generation Device 110 Input Unit 120 Object Generation Unit 130 Depth Method Determination Unit 140 Pseudo Depth Calculation Unit 150 Output Unit 200 Pseudo 3D Image Generation System 210 Imaging Unit 220 Image Storage Unit 230 Discrete depth image generation unit 240 Pseudo depth image generation unit 250 Display unit 260 Illumination unit

Claims (35)

離散的奥行きを有する画像に擬似的奥行きを付与する擬似的3次元画像生成装置であって、
前記離散的奥行きを有する画像に含まれる画素であって離散的奥行きが等しくかつ隣接する画素を接続することによりオブジェクトを生成し、前記オブジェクトであって隣接するものがある場合にはこれを統合することにより統合オブジェクトを生成し、隣接するものがない場合には前記オブジェクトをそのまま統合オブジェクトとするオブジェクト生成手段と、
前記統合オブジェクト上に線分を密に描く奥行き付与方法決定手段と、
前記線分上で奥行き関数を定義することにより、前記線分上の画素に連続的かつ滑らかな奥行きを付与する擬似奥行き演算手段と
が設けられた擬似的3次元画像生成装置。
A pseudo three-dimensional image generation device that gives a pseudo depth to an image having a discrete depth,
An object is generated by connecting adjacent pixels that are included in the image having the discrete depth and have the same discrete depth, and if there is an adjacent object, these are integrated. To generate an integrated object, and when there is no adjacent object, an object generating means that directly uses the object as an integrated object;
Depth providing method determining means for densely drawing a line segment on the integrated object;
A pseudo three-dimensional image generation apparatus provided with pseudo depth calculation means for providing a continuous and smooth depth to pixels on the line segment by defining a depth function on the line segment.
請求項1記載の擬似的3次元画像生成装置であって、
さらに前記離散的奥行きを有する画像を取得し解像度を低下させる解像度低下手段が設けられた擬似的3次元画像生成装置。
The pseudo three-dimensional image generation device according to claim 1,
Furthermore, a pseudo three-dimensional image generation apparatus provided with resolution reduction means for acquiring an image having the discrete depth and reducing the resolution.
請求項1又は2記載の擬似的3次元画像生成装置であって、
前記奥行き付与方法決定手段は、前記統合オブジェクトの中心を求め、前記中心を始点とし前記統合オブジェクトの輪郭線を終点とする放射線分を密に描くことを特徴とする擬似的3次元画像生成装置。
The pseudo three-dimensional image generation device according to claim 1 or 2,
The depth imparting method determining means obtains the center of the integrated object, and densely draws a radiation component having the center as a start point and the outline of the integrated object as an end point.
請求項3記載の擬似的3次元画像生成装置であって、
前記中心は統合オブジェクトの画像中心、垂直分割線の中点、及び重心のいずれか一つであることを特徴とする擬似的3次元画像生成装置。
The pseudo three-dimensional image generation device according to claim 3,
The pseudo three-dimensional image generation apparatus, wherein the center is one of an image center of an integrated object, a midpoint of a vertical dividing line, and a center of gravity.
請求項1又は2記載の擬似的3次元画像生成装置であって、
前記奥行き付与方法決定手段は、前記統合オブジェクトの基準方向を決定し、前記基準方向に平行な線分であって、前記統合オブジェクトの輪郭線を端点とする線分を描くことを特徴とする擬似的3次元画像生成装置。
The pseudo three-dimensional image generation device according to claim 1 or 2,
The depth imparting method determining means determines a reference direction of the integrated object, and draws a line segment that is parallel to the reference direction and that has a contour line of the integrated object as an end point. 3D image generator.
請求項3乃至5いずれか一項記載の擬似的3次元画像生成装置であって、
前記奥行き付与方法決定手段は、前記統合オブジェクトの特徴量に基づき、中心の種類または基準方向を選択することを特徴とする擬似的3次元画像生成装置。
The pseudo three-dimensional image generation device according to any one of claims 3 to 5,
The depth imparting method determining means selects a center type or a reference direction based on a feature amount of the integrated object, and a pseudo three-dimensional image generating apparatus.
請求項1乃至6いずれか一項記載の擬似的3次元画像生成装置であって、
前記オブジェクト生成手段は、離散的奥行きが所定の奥行きより遠い画素を背景とすることを特徴とする擬似的3次元画像生成装置。
The pseudo three-dimensional image generation device according to any one of claims 1 to 6,
The pseudo three-dimensional image generation apparatus, wherein the object generation means uses a pixel whose discrete depth is farther than a predetermined depth as a background.
請求項1乃至7いずれか一項記載の擬似的3次元画像生成装置であって、
前記擬似奥行き演算手段は、前記線分が前記統合オブジェクトの離散的奥行きが異なる領域を通過するとき、通過する領域の一部または全てにおいて領域内に通過点を設定し、前記通過点を通る滑らかな連続関数を奥行き関数とすることを特徴とする擬似的3次元画像生成装置。
The pseudo three-dimensional image generation device according to any one of claims 1 to 7,
When the line segment passes through an area where the discrete depth of the integrated object is different, the pseudo depth calculation means sets a passing point in a part or all of the passing area, and smoothly passes through the passing point. A pseudo three-dimensional image generation apparatus characterized in that a continuous function is a depth function.
請求項8記載の擬似的3次元画像生成装置であって、
前記擬似奥行き演算手段は、前記線分が通過する前記統合オブジェクトの離散的奥行きが異なる領域の一部または全てにおいて領域の中点を前記通過点として設定し、前記線分が通過する前記統合オブジェクトの輪郭線上にある画素に最も遠い奥行きを付与することを特徴とする擬似的3次元画像生成装置。
The pseudo three-dimensional image generation device according to claim 8,
The pseudo depth calculation means sets a midpoint of the region as the passing point in a part or all of the region where the discrete depth of the integrated object through which the line passes passes, and the integrated object through which the line passes. A pseudo three-dimensional image generation apparatus, characterized in that a farthest depth is given to a pixel on the contour line of.
請求項1乃至9いずれか一項記載の擬似的3次元画像生成装置であって、
前記擬似奥行き演算手段は、前記統合オブジェクトの中心領域の画素に最も近い奥行きを付与することを特徴とする擬似的3次元画像生成装置。
The pseudo three-dimensional image generation apparatus according to any one of claims 1 to 9,
The pseudo three-dimensional image generation apparatus, wherein the pseudo depth calculation unit gives a depth closest to a pixel in a central region of the integrated object.
請求項1乃至10いずれか一項記載の擬似的3次元画像生成装置であって、
前記奥行き演算手段は、ローパスフィルタを用いて、付与した奥行きデータを平滑化することを特徴とする擬似的3次元画像生成装置。
The pseudo three-dimensional image generation device according to any one of claims 1 to 10,
The depth calculation means smoothes the given depth data using a low-pass filter, and the pseudo three-dimensional image generation apparatus characterized by the above-mentioned.
離散的奥行きを有する画像に擬似的奥行きを付与する擬似的3次元画像生成方法であって、
前記離散的奥行きを有する画像に含まれる画素であって離散的奥行きが等しくかつ隣接する画素を接続することによりオブジェクトを生成し、前記オブジェクトであって隣接するものがある場合にはこれを統合することにより統合オブジェクトを生成し、隣接するものがない場合には前記オブジェクトをそのまま統合オブジェクトとするオブジェクト生成過程と、
前記統合オブジェクト上に線分を密に描く奥行き付与方法決定過程と、
前記線分上で奥行き関数を定義することにより、前記線分上の画素に連続的かつ滑らかな奥行きを付与する擬似奥行き演算過程と
を有する擬似的3次元画像生成方法。
A pseudo three-dimensional image generation method for adding a pseudo depth to an image having a discrete depth,
An object is generated by connecting adjacent pixels that are included in the image having the discrete depth and have the same discrete depth, and if there is an adjacent object, these are integrated. To generate an integrated object, and when there is no adjacent object, an object generation process using the object as an integrated object as it is,
Depth imparting method determination process for drawing a line segment densely on the integrated object;
A pseudo three-dimensional image generation method comprising: a pseudo depth calculation process for providing a continuous and smooth depth to pixels on the line segment by defining a depth function on the line segment.
請求項12記載の擬似的3次元画像生成方法であって、
さらに前記離散的奥行きを有する画像を取得し解像度を低下させる解像度低下過程を有する擬似的3次元画像生成方法。
A pseudo three-dimensional image generation method according to claim 12,
A pseudo three-dimensional image generation method further comprising a resolution reduction process of acquiring an image having the discrete depth and reducing the resolution.
請求項12又は13記載の擬似的3次元画像生成方法であって、
前記奥行き付与方法決定過程において、前記統合オブジェクトの中心を求め、前記中心を始点とし前記統合オブジェクトの輪郭線を終点とする放射線分を密に描くことを特徴とする擬似的3次元画像生成方法。
The pseudo three-dimensional image generation method according to claim 12 or 13,
A pseudo three-dimensional image generation method characterized in that, in the depth providing method determination step, a center of the integrated object is obtained, and a radiation component having the center as a start point and the outline of the integrated object as an end point is densely drawn.
請求項14記載の擬似的3次元画像生成方法であって、
前記中心は統合オブジェクトの画像中心、垂直分割線の中点、及び重心のいずれか一つであることを特徴とする擬似的3次元画像生成方法。
15. The pseudo three-dimensional image generation method according to claim 14,
The pseudo three-dimensional image generation method, wherein the center is one of an image center of an integrated object, a midpoint of a vertical dividing line, and a center of gravity.
請求項12又は13記載の擬似的3次元画像生成方法であって、
前記奥行き付与方法決定過程において、前記統合オブジェクトの基準方向を決定し、前記基準方向に平行な線分であって、前記統合オブジェクトの輪郭線を端点とする線分を描くことを特徴とする擬似的3次元画像生成方法。
The pseudo three-dimensional image generation method according to claim 12 or 13,
In the depth determination method determining step, a reference direction of the integrated object is determined, and a line segment that is parallel to the reference direction and that has a contour line of the integrated object as an end point is drawn. 3D image generation method.
請求項14乃至16いずれか一項記載の擬似的3次元画像生成方法であって、
前記奥行き付与方法決定過程において、前記統合オブジェクトの特徴量に基づき、中心の種類または基準方向を選択することを特徴とする擬似的3次元画像生成方法。
The pseudo three-dimensional image generation method according to any one of claims 14 to 16,
A pseudo three-dimensional image generation method, characterized in that, in the depth assignment method determination step, a center type or a reference direction is selected based on a feature amount of the integrated object.
請求項12乃至17いずれか一項記載の擬似的3次元画像生成方法であって、
前記オブジェクト生成過程において、離散的奥行きが所定の奥行きより遠い画素を背景とすることを特徴とする擬似的3次元画像生成方法。
The pseudo three-dimensional image generation method according to any one of claims 12 to 17,
In the object generation process, a pseudo three-dimensional image generation method characterized in that a pixel having a discrete depth farther than a predetermined depth is used as a background.
請求項12乃至18いずれか一項記載の擬似的3次元画像生成方法であって、
前記擬似奥行き演算過程において、前記線分が前記統合オブジェクトの離散的奥行きが異なる領域を通過するとき、通過する領域の一部または全てにおいて領域内に通過点を設定し、前記通過点を通る滑らかな連続関数を奥行き関数とすることを特徴とする擬似的3次元画像生成方法。
The pseudo three-dimensional image generation method according to any one of claims 12 to 18,
In the pseudo depth calculation process, when the line segment passes through a region where the discrete depth of the integrated object is different, a passing point is set in the region in part or all of the passing region, and the smooth passing through the passing point is set. A pseudo three-dimensional image generation method, wherein a continuous function is a depth function.
請求項19記載の擬似的3次元画像生成方法であって、
前記擬似奥行き演算過程において、前記線分が通過する前記統合オブジェクトの離散的奥行きが異なる領域の一部または全てにおいて領域の中点を前記通過点として設定し、前記線分が通過する前記統合オブジェクトの輪郭線上にある画素に最も遠い奥行きを付与することを特徴とする擬似的3次元画像生成方法。
The pseudo three-dimensional image generation method according to claim 19,
In the pseudo depth calculation process, the integrated object through which the line segment passes is set by setting a midpoint of the area as the passing point in a part or all of the area where the discrete depth of the integrated object through which the line segment passes differs. A pseudo three-dimensional image generation method, characterized in that a farthest depth is given to a pixel on the contour line of.
請求項12乃至20いずれか一項記載の擬似的3次元画像生成方法であって、
前記擬似奥行き演算過程において、前記統合オブジェクトの中心領域の画素に最も近い奥行きを付与することを特徴とする擬似的3次元画像生成方法。
A pseudo three-dimensional image generation method according to any one of claims 12 to 20,
A pseudo three-dimensional image generation method, wherein a depth closest to a pixel in a central region of the integrated object is given in the pseudo depth calculation process.
請求項12乃至21いずれか一項記載の擬似的3次元画像生成方法であって、
前記奥行き演算過程において、ローパスフィルタを用いて、付与した奥行きデータを平滑化することを特徴とする擬似的3次元画像生成方法。
The pseudo three-dimensional image generation method according to any one of claims 12 to 21,
A pseudo three-dimensional image generation method characterized in that, in the depth calculation process, the applied depth data is smoothed using a low-pass filter.
離散的奥行きを有する画像に擬似的奥行きを付与する擬似的3次元画像生成プログラムであって、コンピュータを、
前記離散的奥行きを有する画像に含まれる画素であって離散的奥行きが等しくかつ隣接する画素を接続することによりオブジェクトを生成し、前記オブジェクトであって隣接するものがある場合にはこれを統合することにより統合オブジェクトを生成し、隣接するものがない場合には前記オブジェクトをそのまま統合オブジェクトとするオブジェクト生成手段と、
前記統合オブジェクト上に線分を密に描く奥行き付与方法決定手段と、
前記線分上で奥行き関数を定義することにより、前記線分上の画素に連続的かつ滑らかな奥行きを付与する擬似奥行き演算手段と
して機能させることを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program for adding a pseudo depth to an image having a discrete depth, the computer comprising:
An object is generated by connecting adjacent pixels that are included in the image having the discrete depth and have the same discrete depth, and if there is an adjacent object, these are integrated. To generate an integrated object, and when there is no adjacent object, an object generating means that directly uses the object as an integrated object;
Depth providing method determining means for densely drawing a line segment on the integrated object;
A pseudo three-dimensional image generation program that functions as a pseudo depth calculation unit that gives a continuous and smooth depth to pixels on the line segment by defining a depth function on the line segment.
請求項23記載の擬似的3次元画像生成プログラムであって、コンピュータをさらに前記離散的奥行きを有する画像の解像度を低下させる解像度低下手段として機能させることを特徴とする擬似的3次元画像生成プログラム。   24. The pseudo three-dimensional image generation program according to claim 23, further causing a computer to function as resolution reduction means for reducing the resolution of the image having the discrete depth. 請求項23又は24記載の擬似的3次元画像生成プログラムであって、
前記奥行き付与方法決定手段としてのコンピュータは、前記統合オブジェクトの中心を求め、前記中心を始点とし前記統合オブジェクトの輪郭線を終点とする放射線分を描くことを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program according to claim 23 or 24,
The computer as the depth assigning method determining means finds the center of the integrated object and draws a radiation component starting from the center and ending with the outline of the integrated object. .
請求項25記載の擬似的3次元画像生成プログラムであって、
前記中心は統合オブジェクトの画像中心、垂直分割線の中点、及び重心のいずれか一つであることを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program according to claim 25,
The pseudo three-dimensional image generation program, wherein the center is one of an image center of an integrated object, a midpoint of a vertical dividing line, and a center of gravity.
請求項23又は24記載の擬似的3次元画像生成プログラムであって、
前記奥行き付与方法決定手段としてのコンピュータは、前記統合オブジェクトの基準方向を決定し、前記基準方向に平行な線分であって、前記統合オブジェクトの輪郭線を端点とする線分を描くことを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program according to claim 23 or 24,
The computer as the depth assigning method determining unit determines a reference direction of the integrated object, and draws a line segment parallel to the reference direction, the line segment having the outline of the integrated object as an end point. A pseudo three-dimensional image generation program.
請求項25乃至27いずれか一項記載の擬似的3次元画像生成プログラムであって、
前記奥行き付与方法決定手段としてのコンピュータは、前記統合オブジェクトの特徴量に基づき、中心の種類または基準方向を選択することを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program according to any one of claims 25 to 27,
The computer as the depth giving method determining means selects a center type or a reference direction based on a feature amount of the integrated object, and a pseudo three-dimensional image generation program.
請求項23乃至28いずれか一項記載の擬似的3次元画像生成プログラムであって、
前記オブジェクト生成手段としてのコンピュータは、離散的奥行きが所定の奥行きより遠い画素を背景とすることを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program according to any one of claims 23 to 28,
The computer as the object generating means uses a pseudo three-dimensional image generation program as a background of pixels whose discrete depth is farther than a predetermined depth.
請求項23乃至29いずれか一項記載の擬似的3次元画像生成プログラムであって、
前記擬似奥行き演算手段としてのコンピュータは、前記線分が前記統合オブジェクトの離散的奥行きが異なる領域を通過するとき、通過する領域の一部または全てにおいて領域内に通過点を設定し、前記通過点を通る滑らかな連続関数を奥行き関数とすることを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program according to any one of claims 23 to 29,
When the line segment passes through an area where the discrete depth of the integrated object is different, the computer as the pseudo depth calculation means sets a passing point in a part or all of the passing area, and the passing point A pseudo three-dimensional image generation program, characterized in that a smooth continuous function passing through is a depth function.
請求項30記載の擬似的3次元画像生成プログラムであって、
前記擬似奥行き演算手段としてのコンピュータは、前記線分が通過する前記統合オブジェクトの離散的奥行きが異なる領域の一部または全てにおいて領域の中点を前記通過点として設定し、前記線分が通過する前記統合オブジェクトの輪郭線上にある画素に最も遠い奥行きを付与することを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program according to claim 30,
The computer as the pseudo depth calculation means sets a midpoint of the region as the passing point in a part or all of the region where the discrete depth of the integrated object through which the line passes differs, and the line passes. A pseudo three-dimensional image generation program, wherein a farthest depth is given to a pixel on the outline of the integrated object.
請求項23乃至31いずれか一項記載の擬似的3次元画像生成プログラムであって、
前記擬似奥行き演算手段としてのコンピュータは、前記統合オブジェクトの中心領域の画素に最も近い奥行きを付与することを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program according to any one of claims 23 to 31,
The pseudo three-dimensional image generation program characterized in that the computer as the pseudo depth calculation means gives the depth closest to the pixel in the central region of the integrated object.
請求項23乃至32いずれか一項記載の擬似的3次元画像生成プログラムであって、
前記奥行き演算手段としてのコンピュータは、ローパスフィルタを用いて、付与した奥行きデータを平滑化することを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program according to any one of claims 23 to 32, wherein
The computer as the depth calculation means smoothes the given depth data using a low-pass filter.
請求項23乃至33いずれか一項記載の擬似的3次元画像生成プログラムを記録したコンピュータ読み取り可能な記録媒体。   34. A computer-readable recording medium on which the pseudo three-dimensional image generation program according to any one of claims 23 to 33 is recorded. 撮影対象の擬似3次元画像を生成する画像生成システムであって、
前記撮影対象の画像データから離散的奥行きを有する画像を生成する離散的奥行き画像生成部と、
前記離散的奥行きを有する画像に擬似的奥行きデータを付与する擬似的奥行き画像生成部とが設けられ、
前記擬似的奥行き画像生成部には
前記離散的奥行きを有する画像に含まれる画素であって離散的奥行きが等しくかつ隣接する画素を接続することによりオブジェクトを生成し、前記オブジェクトであって隣接するものがある場合にはこれを統合することにより統合オブジェクトを生成し、隣接するものがない場合には前記オブジェクトをそのまま統合オブジェクトとするオブジェクト生成手段と、
前記統合オブジェクト上に線分を密に描く奥行き付与方法決定手段と、
前記線分上で奥行き関数を定義することにより、前記線分上の画素に連続的かつ滑らかな奥行きを付与する擬似奥行き演算手段と
が設けられた画像生成システム。
An image generation system for generating a pseudo three-dimensional image to be photographed,
A discrete depth image generating unit for generating an image having a discrete depth from the image data to be imaged;
A pseudo depth image generating unit for providing pseudo depth data to the image having the discrete depth,
The pseudo depth image generation unit generates an object by connecting adjacent pixels that are included in the image having the discrete depth and have the same discrete depth, and the object is an adjacent object If there is, an integrated object is generated by integrating the object, and if there is no adjacent object, an object generating means that directly uses the object as an integrated object;
Depth providing method determining means for densely drawing a line segment on the integrated object;
An image generation system provided with pseudo depth calculation means for providing a continuous and smooth depth to pixels on the line segment by defining a depth function on the line segment.
JP2003398022A 2003-11-27 2003-11-27 Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program for imparting pseudo depth to an image having discrete depth Expired - Fee Related JP4075782B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003398022A JP4075782B2 (en) 2003-11-27 2003-11-27 Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program for imparting pseudo depth to an image having discrete depth

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003398022A JP4075782B2 (en) 2003-11-27 2003-11-27 Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program for imparting pseudo depth to an image having discrete depth

Publications (2)

Publication Number Publication Date
JP2005157910A true JP2005157910A (en) 2005-06-16
JP4075782B2 JP4075782B2 (en) 2008-04-16

Family

ID=34723008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003398022A Expired - Fee Related JP4075782B2 (en) 2003-11-27 2003-11-27 Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program for imparting pseudo depth to an image having discrete depth

Country Status (1)

Country Link
JP (1) JP4075782B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014090303A1 (en) * 2012-12-12 2014-06-19 Huawei Technologies Co., Ltd. Method and apparatus for segmentation of 3d image data
CN108141593A (en) * 2015-07-31 2018-06-08 港大科桥有限公司 For be directed to the efficient intraframe coding of deep video based on the discontinuous method of depth

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014090303A1 (en) * 2012-12-12 2014-06-19 Huawei Technologies Co., Ltd. Method and apparatus for segmentation of 3d image data
CN104982032A (en) * 2012-12-12 2015-10-14 华为技术有限公司 Method and apparatus for segmentation of 3D image data
US10096116B2 (en) 2012-12-12 2018-10-09 Huawei Technologies Co., Ltd. Method and apparatus for segmentation of 3D image data
EP2932710B1 (en) * 2012-12-12 2019-02-20 Huawei Technologies Co., Ltd. Method and apparatus for segmentation of 3d image data
CN108141593A (en) * 2015-07-31 2018-06-08 港大科桥有限公司 For be directed to the efficient intraframe coding of deep video based on the discontinuous method of depth

Also Published As

Publication number Publication date
JP4075782B2 (en) 2008-04-16

Similar Documents

Publication Publication Date Title
JP6021541B2 (en) Image processing apparatus and method
KR101297177B1 (en) The method and system of adaptive reformatting of digital images
JP5704975B2 (en) Image processing apparatus, image processing method, and program
JP2011250125A (en) Image processing apparatus and method thereof
US11398007B2 (en) Video generation device, video generation method, program, and data structure
JP4541397B2 (en) Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program
JP2020036310A (en) Image processing method, image processing apparatus, imaging apparatus, lens device, program, storage medium, and image processing system
JP6128748B2 (en) Image processing apparatus and method
JP2003047027A (en) Stereogram formation system and method therefor, and program and record medium
JP4990876B2 (en) Image processing device
JP3938122B2 (en) Pseudo three-dimensional image generation apparatus, generation method, program therefor, and recording medium
JP6355315B2 (en) Image processing apparatus, image processing method, and program
JP4075782B2 (en) Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program for imparting pseudo depth to an image having discrete depth
JP4392082B2 (en) Engraving style halftone image generation method and apparatus
JP2008090750A (en) Method and device for generating three-dimensional image
JP4075778B2 (en) Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program
JP2001118074A (en) Method and device for producing three-dimensional image and program recording medium
JP2005114642A (en) System for forming three-dimensional object and method
JP2006211383A (en) Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method
JP6704700B2 (en) Image processing apparatus, control method thereof, and program
JP2016131297A (en) Stereoscopic image generation device, stereoscopic image generation method and program
JP4155401B2 (en) 3D image generation method, 3D image generation apparatus, 3D image generation program, and recording medium
JP2007304743A (en) Parallax interpolation processing method and processor
JP6657880B2 (en) Image processing apparatus, image processing method, and program
JP6468751B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080121

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110208

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110208

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120208

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130208

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees