JP2008084338A - Pseudo three-dimensional image forming device, pseudo three-dimensional image forming method and pseudo three-dimensional image forming program - Google Patents

Pseudo three-dimensional image forming device, pseudo three-dimensional image forming method and pseudo three-dimensional image forming program Download PDF

Info

Publication number
JP2008084338A
JP2008084338A JP2007287760A JP2007287760A JP2008084338A JP 2008084338 A JP2008084338 A JP 2008084338A JP 2007287760 A JP2007287760 A JP 2007287760A JP 2007287760 A JP2007287760 A JP 2007287760A JP 2008084338 A JP2008084338 A JP 2008084338A
Authority
JP
Japan
Prior art keywords
pseudo
dimensional image
depth
image generation
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007287760A
Other languages
Japanese (ja)
Other versions
JP4541397B2 (en
Inventor
Hajime Noto
肇 能登
Kazuo Kimura
一夫 木村
Kenji Nakazawa
憲二 中沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2007287760A priority Critical patent/JP4541397B2/en
Publication of JP2008084338A publication Critical patent/JP2008084338A/en
Application granted granted Critical
Publication of JP4541397B2 publication Critical patent/JP4541397B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To impart a relief-like depth to texture data divided into objects. <P>SOLUTION: This pseudo three-dimensional image forming device imparts pseudo depth data to the texture data divided into objects. The device has a depth imparting method determining means for drawing line segments to cover all of each object of the texture data divided into objects, and a depth computing means for imparting continuous depth data to pixels on the drawn line segments. The depth imparting method determining means selects the kind of the center based on the feature amount of each object, determines the center of each object and draws a radiation line segment using the determined center starting point and using the outline of the object as a terminal point. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は擬似的3次元画像の生成装置、生成方法、生成プログラム、及びプログラムを記録した記録媒体に関する。より具体的には、オブジェクト分割されたテクスチャデータに連続的な奥行きデータを付与する擬似的3次元画像生成装置、擬似的3次元画像生成方法、擬似的3次元画像生成プログラム、及びプログラムを記録した記録媒体に関する。   The present invention relates to a pseudo three-dimensional image generation device, a generation method, a generation program, and a recording medium on which the program is recorded. More specifically, a pseudo three-dimensional image generation device, a pseudo three-dimensional image generation method, a pseudo three-dimensional image generation program, and a program for adding continuous depth data to texture data obtained by dividing an object are recorded. The present invention relates to a recording medium.

画像処理技術の発達に伴い、3次元画像の入力技術が盛んに研究されている。3次元画像の入力方法には、ステレオ法や光切断法など種々の方法があり、画像の用途や撮影対象の性質などにより一長一短がある。また、いずれもの方法においても入力装置が高価で大型であるという問題がある。   With the development of image processing technology, three-dimensional image input technology has been actively studied. There are various methods for inputting a three-dimensional image, such as a stereo method and a light cutting method. Further, in any of the methods, there is a problem that the input device is expensive and large.

一方、3次元画像を手軽に生成する方法として、3次元画像を入力するのではなく、2次元画像に奥行きデータを付与することにより、擬似的な3次元画像を生成する方法が提案されている。   On the other hand, as a method for easily generating a three-dimensional image, there has been proposed a method for generating a pseudo three-dimensional image by adding depth data to a two-dimensional image instead of inputting the three-dimensional image. .

例えば、背景部分と絵柄部分とからなる二値画像をモチーフとしたレリーフ模様を、コンピュータを利用して作成することができる。モチーフとなる二値画像はラスターデータまたは輪郭線データとして、コンピュータ内に用意される。この二値画像上に複数の基準線が定義され、この基準線に基いて万線が作成される。万線は、モチーフとなる二値画像の背景部分と絵柄部分との境界線で曲折するように作成される。この万線によってレリーフ模様を構成するようにすれば、元になったモチーフが視覚的に浮き出たように見える(例えば特許文献1参照)。   For example, a relief pattern using a binary image composed of a background portion and a pattern portion as a motif can be created using a computer. A binary image serving as a motif is prepared in the computer as raster data or contour data. A plurality of reference lines are defined on the binary image, and lines are created based on the reference lines. The line is created so as to bend at the boundary line between the background portion and the pattern portion of the binary image as a motif. If the relief pattern is formed by this line, the original motif appears to be visually raised (see, for example, Patent Document 1).

また、複数の画素からなる階調画像をモチーフとしたレリーフ模様を、コンピュータを利用して作成することができる。モチーフとなる階調画像は、濃度値が定義された画素の配列データとして、コンピュータ内に用意される。この階調画像に基づいて二値画像が作成され、この二値画像に基づいて画像に含まれる輪郭線を抽出することができる。また、階調画像上に複数の基準線が定義され、この基準線に基いて万線が作成される。作成された万線は、モチーフとなる階調画像に含まれる絵柄の部分では、その画素の濃度値に応じて曲折した線になる。この万線によってレリーフ模様を構成するようにすれば、もとになったモチーフが視覚的に浮き出たように見える(例えば特許文献2参照)。   In addition, a relief pattern using a gradation image composed of a plurality of pixels as a motif can be created using a computer. A gradation image as a motif is prepared in a computer as pixel array data in which density values are defined. A binary image is created based on the gradation image, and a contour line included in the image can be extracted based on the binary image. In addition, a plurality of reference lines are defined on the gradation image, and all lines are created based on the reference lines. The created line is a curved line corresponding to the density value of the pixel in the pattern portion included in the gradation image as the motif. If the relief pattern is formed by this line, the original motif appears to be visually raised (see, for example, Patent Document 2).

また、線画をモチーフとして、滑らかな立体感をもったレリーフ模様を容易に作成することのできる方法が提案されている。この方法では、モチーフとなる線画はデジタルデータとして、コンピュータ内に用意される。この線画上には、複数の基準線が定義され、この基準線に基いて万線が作成される。万線は、モチーフとなる線画と交差する近傍において曲折するように作成される。この万線によってレリーフ模様を構成するようにすれば、もとになったモチーフが視覚的に浮き出たように見える。また、モチーフとなった線画が、互いに交差する複数の線のパターンを有する場合、各線の交差点付近において、各線についての万線の曲折状態が融和される処理が行われるため、立体感のあるレリーフ模様の作成が可能になる(例えば特許文献3、4、5参照)。   In addition, a method has been proposed that can easily create a relief pattern having a smooth three-dimensional effect using a line drawing as a motif. In this method, a line drawing as a motif is prepared in a computer as digital data. On this line drawing, a plurality of reference lines are defined, and lines are created based on the reference lines. A line is created so that it bends in the vicinity where it intersects with a line drawing as a motif. If the relief pattern is made up of these lines, the original motif appears to be visually raised. In addition, when the line drawing used as a motif has a pattern of multiple lines that intersect with each other, a process in which the bent state of each line is integrated near the intersection of each line is performed, so a relief with a three-dimensional effect A pattern can be created (see, for example, Patent Documents 3, 4, and 5).

また、写真の任意の領域を指定し、指定した領域を切り取って書割状のアクセサリを作る方法が提案されている。この方法では、原写真シートの原写真画像より抽出された所望の抽出領域画像を有する写真シートを、原写真シートから切り取って、切取写真シートを作成する。原写真シートの前方、又は切り取った残りの残存領域画像を有する残存写真シートの前方に、写真シート同士を適宜離して保持するシート保持手段を介して前記切取写真シートを配置するとともに、原写真シートないし残存写真シート、シート保持手段、および切取写真シートから成る立体工作物を、少なくとも前面が透明体で構成されたケース内に収容した構成にしてある(例えば、特許文献6参照)。
特開平5−120450号公報 特開平5−158207号公報 特開平5−158208号公報 特開平5−158209号公報 特開平5−158210号公報 特開2000−153700号公報
In addition, a method has been proposed in which an arbitrary area of a photograph is designated and the designated area is cut out to make a book-like accessory. In this method, a photographic sheet having a desired extracted region image extracted from the original photographic image of the original photographic sheet is cut out from the original photographic sheet to create a cut-out photographic sheet. The cut-out photographic sheet is disposed in front of the original photographic sheet, or in front of the remaining photographic sheet having the remaining cut-out residual area image, through sheet holding means for holding the photographic sheets appropriately separated from each other. In addition, a three-dimensional workpiece including a remaining photographic sheet, a sheet holding unit, and a cut-out photographic sheet is accommodated in a case having at least a front surface made of a transparent body (see, for example, Patent Document 6).
Japanese Patent Laid-Open No. 5-120450 Japanese Patent Laid-Open No. 5-158207 JP-A-5-158208 Japanese Patent Laid-Open No. 5-158209 Japanese Patent Laid-Open No. 5-158210 JP 2000-153700 A

これらの方法は、2次元画像からレリーフ模様を生成するものである。レリーフ模様は立体形状を2次元平面に表現した模様であり、万線の傾斜により奥行きを表現するものである。これらの方法でレリーフ模様を生成する際に基準線を密にすれば、画像全体の奥行きデータを生成することができる。   These methods generate a relief pattern from a two-dimensional image. The relief pattern is a pattern in which a three-dimensional shape is expressed in a two-dimensional plane, and expresses the depth by the inclination of a line. If the reference line is made dense when the relief pattern is generated by these methods, the depth data of the entire image can be generated.

しかし、特許文献1記載の方法では、生成されるのは直線的に変化する奥行きデータであり、書割現象を生じる。レリーフ模様としては十分であっても、擬似3次元画像の奥行きとしては不十分である。   However, in the method described in Patent Document 1, it is the depth data that changes linearly, and a cracking phenomenon occurs. Even if the relief pattern is sufficient, the depth of the pseudo three-dimensional image is insufficient.

また、特許文献2記載の方法では、凹凸がテクスチャの濃度に左右されるため、模様がない部分の奥行きデータは直線的となり、やはり書割現象を生じるおそれがある。逆に、格子縞のようにテクスチャの濃度が極端な変化を繰り返す部分は、連続的な奥行きとならず、見る者に不自然な印象を与える傾向がある。   Further, in the method described in Patent Document 2, since the unevenness depends on the density of the texture, the depth data of the portion without the pattern becomes linear, and there is a possibility that a cracking phenomenon may occur. On the contrary, a portion where the density of the texture repeats an extreme change like a checkered pattern does not have a continuous depth and tends to give an unnatural impression to the viewer.

また、特許文献3乃至5記載の方法では、線分に対してレリーフ模様をつけるため、輪郭部分のみが浮き上がってしまい不自然となる。   In addition, in the methods described in Patent Documents 3 to 5, since a relief pattern is applied to a line segment, only the contour portion is lifted, which is unnatural.

また、特許文献6記載の方法では、滑らかな立体感を表現できないという問題がある。   Further, the method described in Patent Document 6 has a problem that a smooth stereoscopic effect cannot be expressed.

本発明は上記の課題を鑑みて発明されたものであり、滑らかな立体感を持ったレリーフ状の奥行きを容易に又は自動的に作成できる擬似的3次元画像生成装置、擬似的3次元画像生成方法、及び擬似的3次元画像生成プログラムを提供することを目的とする。   The present invention has been invented in view of the above problems, and a pseudo three-dimensional image generation apparatus and pseudo three-dimensional image generation capable of easily or automatically creating a relief-like depth having a smooth stereoscopic effect It is an object to provide a method and a pseudo three-dimensional image generation program.

本発明による擬似的3次元画像生成装置は、オブジェクト分割されたテクスチャデータに擬似的奥行きデータを付与する擬似的3次元画像生成装置であって、前記オブジェクト分割されたテクスチャデータを覆いつくすように線分を描く奥行き付与方法決定手段と、前記描かれた線分上の画素に連続的な奥行きデータを付与する奥行き演算手段とが設けられたことを特徴とする。   A pseudo three-dimensional image generation apparatus according to the present invention is a pseudo three-dimensional image generation apparatus that adds pseudo depth data to texture data obtained by dividing an object, and includes a line so as to cover the texture data obtained by dividing the object. A depth providing method determining means for drawing a minute and a depth calculating means for giving continuous depth data to the pixels on the drawn line segment are provided.

本発明に係る擬似的3次元画像生成装置において、奥行き付与方法決定手段は、このテクスチャデータの各オブジェクトに対し、オブジェクトの中心または基準方向を決定し、決定した中心を始点とする放射線分または決定した基準方向の平行線分を描き、各オブジェクトを構成する画素を覆いつくす。この操作により、オブジェクトを構成する画素は、少なくとも1本の放射線分または平行線分上に位置する。奥行き演算手段は、この放射線分または平行線分上で適当な連続関数を定義することにより、その関数値を各画素に奥行きデータとして付与する。   In the pseudo three-dimensional image generation apparatus according to the present invention, the depth imparting method determining means determines the center or reference direction of the object for each object of the texture data, and determines the radiation component or the determination starting from the determined center. Draw parallel lines in the reference direction and cover the pixels that make up each object. By this operation, the pixels constituting the object are positioned on at least one radiation component or parallel line segment. The depth calculation means defines an appropriate continuous function on the radiation or parallel line segment, and gives the function value to each pixel as depth data.

各オブジェクトを構成する画素を1次元の放射線分または基準方向の平行線分上に位置づけることにより、連続的な奥行きデータの付与が容易になる。また、オブジェクトの輪郭線上にある画素に背景と同じ最も遠い奥行きを付与することにより、オブジェクトにレリーフ状の奥行きを付与することができ、書割現象を防止し、より自然な立体感を見る者に与えることができる。   By positioning the pixels constituting each object on the one-dimensional radiation component or the parallel line segment in the reference direction, it becomes easy to apply continuous depth data. Also, by giving the pixels on the outline of the object the same farthest depth as the background, it is possible to give the object a relief-like depth, which prevents the cracking phenomenon and gives a more natural three-dimensional effect Can be given to.

本発明を実施するための最良の形態を、図面を参照して説明する。
[第1の実施形態]
図1は、第1の実施形態に係る擬似的3次元画像生成装置の構成を示す図である。図1に示した擬似的3次元画像生成装置100には、入力部110、奥行き付与方法決定部120、擬似奥行き演算部130、および出力部140が設けられている。擬似的3次元画像生成装置100によって、オブジェクト分割されたテクスチャデータ10が取り込まれ、入力されたテクスチャデータ10に擬似的奥行きデータが付与され、擬似的3次元画像として出力される。
The best mode for carrying out the present invention will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration of a pseudo three-dimensional image generation apparatus according to the first embodiment. The pseudo three-dimensional image generation apparatus 100 illustrated in FIG. 1 includes an input unit 110, a depth provision method determination unit 120, a pseudo depth calculation unit 130, and an output unit 140. The pseudo three-dimensional image generation apparatus 100 takes in the texture data 10 obtained by dividing the object, adds pseudo depth data to the input texture data 10, and outputs it as a pseudo three-dimensional image.

オブジェクト分割されたテクスチャデータ10は、カラーまたはモノクロの濃淡画像である。オブジェクト分割されたテクスチャデータ10については、後でより詳しく説明する。   The object-divided texture data 10 is a color or monochrome grayscale image. The object-divided texture data 10 will be described in more detail later.

擬似的3次元画像生成装置100の各構成要素について説明する。   Each component of the pseudo 3D image generation apparatus 100 will be described.

入力部110は、オブジェクト分割されたテクスチャデータ10を取り込み、奥行き付与方法決定部120に送る。入力部110は必要に応じて、取り込んだオブジェクト分割されたテクスチャデータの解像度を低下させてもよい。解像度を低下させることにより、擬似的3次元画像生成装置100が処理するデータの計算量を減少することができる。テクスチャデータの解像度を低下させる入力部110が解像度低下手段に対応する。   The input unit 110 captures the texture data 10 obtained by dividing the object, and sends the texture data 10 to the depth assignment method determination unit 120. The input unit 110 may reduce the resolution of the captured texture data obtained by dividing the object as necessary. By reducing the resolution, the calculation amount of data processed by the pseudo 3D image generation apparatus 100 can be reduced. The input unit 110 that reduces the resolution of the texture data corresponds to a resolution reduction unit.

奥行き付与方法決定部120は、テクスチャデータ10の各オブジェクトに応じて、奥行きデータを付与する方法を決定する。奥行きデータを付与する方法には、種々の方法がある。第1の実施形態においては、各オブジェクトの中心を決定し、決定した中心を始点、オブジェクトの輪郭線を終点とする複数の放射線分を描く方法を使用する。奥行きデータを付与する方法については、後で詳しく説明する。   The depth giving method determining unit 120 determines a method for giving depth data according to each object of the texture data 10. There are various methods for adding depth data. In the first embodiment, a method is used in which the center of each object is determined, and a plurality of radiation components having the determined center as the start point and the contour line of the object as the end point are drawn. A method of giving depth data will be described in detail later.

擬似奥行き演算部130は、この放射線分上の各画素に奥行きデータを付与する。具体的には、この放射線分に沿って適当な連続関数(奥行き関数)を決定し、奥行き関数に基づき放射線分上の画素に奥行きデータを付与する。   The pseudo depth calculation unit 130 gives depth data to each pixel on the radiation component. Specifically, an appropriate continuous function (depth function) is determined along the radiation component, and depth data is given to pixels on the radiation component based on the depth function.

出力部140は、擬似奥行き演算部130により奥行きデータが付与されたテクスチャデータ10を、擬似的3次元画像として、例えばファイルや表示装置(図示せず)に出力する。   The output unit 140 outputs the texture data 10 to which the depth data is added by the pseudo depth calculation unit 130 as a pseudo three-dimensional image, for example, to a file or a display device (not shown).

第1の実施形態に係る擬似的3次元画像生成装置の奥行き付与方法決定部120と擬似奥行き演算部130の機能について、さらに詳しく説明する。   The functions of the depth imparting method determination unit 120 and the pseudo depth calculation unit 130 of the pseudo 3D image generation device according to the first embodiment will be described in more detail.

図2は、第1の実施形態に係る擬似3次元画像生成装置による処理を説明するためのフローチャートである。   FIG. 2 is a flowchart for explaining processing by the pseudo three-dimensional image generation apparatus according to the first embodiment.

ステップS10において、オブジェクト分割されたテクスチャデータを取り込む。図3は、ステップS10で取り込まれるテクスチャデータ10の一例を示す図である。このテクスチャデータ10は、予め適当な方法により6個のオブジェクト1〜6に分割されている。テクスチャデータをオブジェクト分割する方法については後述する。   In step S10, texture data obtained by dividing an object is fetched. FIG. 3 is a diagram illustrating an example of the texture data 10 captured in step S10. The texture data 10 is divided into six objects 1 to 6 in advance by an appropriate method. A method of dividing texture data into objects will be described later.

必要に応じて、取り込んだテクスチャデータの解像度を低下させてもよい。例えば、テクスチャデータを構成する全画素のうち、縦横方向において1画素おきに処理すべき画素を選べば、解像度は1/4となる。解像度を低下させることにより、処理すべきデータの計算量を減らすことができる。したがって、処理能力の小さい中央演算装置(CPU)を利用して、本発明に係る擬似的3次元画像生成装置を実現することができる。   If necessary, the resolution of the captured texture data may be reduced. For example, if a pixel to be processed every other pixel in the vertical and horizontal directions is selected from all the pixels constituting the texture data, the resolution is 1/4. By reducing the resolution, the calculation amount of data to be processed can be reduced. Therefore, the pseudo three-dimensional image generation apparatus according to the present invention can be realized using a central processing unit (CPU) having a small processing capability.

図2にもどって、ステップS11において、テクスチャデータの各オブジェクトの中心を求める。ステップS12において、ステップS11で求めた中心を始点とし、オブジェクトの輪郭線を終点とする密な放射線分を描く。ここで、「描く」とは、必ずしも物理的に線分を描く必要はなく、テクスチャデータ10内のオブジェクトを構成する画素と線分とを対応させるだけでよい。   Returning to FIG. 2, in step S11, the center of each object of the texture data is obtained. In step S12, a dense radiation component is drawn starting from the center obtained in step S11 and ending with the contour of the object. Here, “drawing” does not necessarily need to physically draw a line segment, and it is only necessary to associate the pixels constituting the object in the texture data 10 with the line segment.

図4は、テクスチャデータ10の各オブジェクト1〜6の中心を求め、求めた各オブジェクト1〜6の中心を「×」印で示した図である。また、オブジェクト1の中心を始点とする一本の放射線分11を示している。オブジェクトの中心の定義方法には多くの種類がある。例えば、オブジェクトの画像中心、オブジェクトの垂直分割線の中点、オブジェクトの重心である。   FIG. 4 is a diagram in which the centers of the objects 1 to 6 in the texture data 10 are obtained and the centers of the obtained objects 1 to 6 are indicated by “x” marks. In addition, one radiation component 11 starting from the center of the object 1 is shown. There are many ways to define the center of an object. For example, the image center of the object, the midpoint of the vertical dividing line of the object, and the center of gravity of the object.

図5は、オブジェクトの中心を説明するための図である。図5(a)は、中心を求めようとしているオブジェクト50の形状を示す。図5(b)は、オブジェクト50の画像中心51の求め方を説明するための図である。画像中心51は、オブジェクト50を囲む最小の矩形を求め、その矩形の対角線の交点51として求めることができる。図5(c)は、オブジェクト50の垂直分割線の中点52の求め方を説明するための図である。オブジェクト50の垂直分割線は、オブジェクト50を水平方向に切る水平線分の中点の集合である。垂直分割線の中点52をオブジェクト50の中心とする。図5(d)は、オブジェクト50の重心の求め方を説明するための図である。重心は、オブジェクト50を構成する画素の位置の平均値として求めることができる。   FIG. 5 is a diagram for explaining the center of an object. FIG. 5A shows the shape of the object 50 whose center is to be obtained. FIG. 5B is a diagram for explaining how to obtain the image center 51 of the object 50. The image center 51 can be obtained as an intersection 51 of diagonal lines of a rectangle obtained by obtaining a minimum rectangle surrounding the object 50. FIG. 5C is a diagram for explaining how to obtain the midpoint 52 of the vertical dividing line of the object 50. The vertical dividing line of the object 50 is a set of midpoints of horizontal lines that cut the object 50 in the horizontal direction. The midpoint 52 of the vertical dividing line is set as the center of the object 50. FIG. 5D is a diagram for explaining how to obtain the center of gravity of the object 50. The center of gravity can be obtained as an average value of the positions of the pixels constituting the object 50.

必要に応じて、適当な中心を選択して使用すればよい。また、すべてのオブジェクトについて、1種類の中心を使用してもよいし、各オブジェクトで使用する中心の種類を変えてもよい。   If necessary, an appropriate center may be selected and used. Further, for all objects, one type of center may be used, or the type of center used for each object may be changed.

使用する中心の種類を選択する場合、ユーザが選択できるようにしてもよいし、オブジェクトの特徴量を基準として自動的に選択されるようにしてもよい。特徴量とは、オブジェクトの特徴を示す数値であり、例えば円形度、面積、長さ、対称性などがある。円形度は、オブジェクトの面積と周囲長の比によって、そのオブジェクトの形状の複雑さを判定する数値であり、具体的には
特徴量 e=4π×(面積)÷(周囲長)
で定義される。但し、πは円周率である。円形度は、円の場合に最大値1となる。正方形の場合、円形度は0.79となる。オブジェクトの円形度に基づいて使用する中心の種類を変えることができる。例えば、円形度が0.7以上のものには画像中心を使用し、0.7未満のものには重心を使用するようなことができる。
When selecting the type of the center to be used, the user may be able to select it, or it may be automatically selected on the basis of the feature amount of the object. The feature amount is a numerical value indicating the feature of the object, and includes, for example, circularity, area, length, symmetry, and the like. Circularity is a numerical value that determines the complexity of the shape of an object based on the ratio of the area of the object to the perimeter.
Feature amount e = 4π × (Area) ÷ (Perimeter length)
Defined by Here, π is the circumference ratio. The circularity has a maximum value of 1 in the case of a circle. In the case of a square, the circularity is 0.79. The type of center used can be changed based on the circularity of the object. For example, the center of the image can be used when the circularity is 0.7 or more, and the center of gravity can be used when the circularity is less than 0.7.

図6はオブジェクトに分割されたテクスチャデータ10において、各オブジェクト1〜6の重心及びオブジェクト1の中心を始点とする放射線分11を描いた図である。この放射線分の密度は、オブジェクト1を構成する全画素が少なくとも1本の放射線分上に乗る密度とする。すなわち、放射線分11がオブジェクト1を構成する画素を覆いつくすように描く。ここで、「描く」とは、必ずしも物理的に線分を描くことではなく、テクスチャデータ10内のオブジェクトを構成する画素を覆いつくすような線分の集合を考え、各画素を少なくとも一本の線分に対応させることをいう。   FIG. 6 is a diagram depicting the radiation component 11 starting from the center of gravity of the objects 1 to 6 and the center of the object 1 in the texture data 10 divided into objects. The density of the radiation component is a density at which all pixels constituting the object 1 are placed on at least one radiation component. That is, the radiation component 11 is drawn so as to cover the pixels constituting the object 1. Here, “drawing” does not necessarily physically draw a line segment, but considers a set of line segments that cover the pixels constituting the object in the texture data 10, and each pixel is represented by at least one pixel. To correspond to a line segment.

図2にもどって、ステップ13において、放射線分11上の各画素に奥行きデータを付与するため、適当な関数(奥行き関数)を決定する。奥行き関数について、図7を参照して説明する。   Returning to FIG. 2, in step 13, an appropriate function (depth function) is determined in order to give depth data to each pixel on the radiation component 11. The depth function will be described with reference to FIG.

図7は、オブジェクト1の放射線分11上で定義された奥行き関数12を説明するための図である。奥行き関数12は、放射線分11上の画素に、奥行きデータを対応させる関数である。オブジェクトの輪郭線上の画素の奥行きデータが最も遠くなるような関数であればよい。奥行きデータを、テクスチャデータのオブジェクトでない部分(背景部分)と連続的に接続するためである。奥行き関数12としては、例えば2次関数などの高次関数やステップ関数である。   FIG. 7 is a diagram for explaining the depth function 12 defined on the radiation component 11 of the object 1. The depth function 12 is a function that associates depth data with the pixels on the radiation component 11. Any function may be used as long as the depth data of the pixel on the contour line of the object is the farthest. This is because the depth data is continuously connected to a portion (background portion) that is not an object of the texture data. The depth function 12 is, for example, a high-order function such as a quadratic function or a step function.

ここで、「奥行き」とは、テクスチャデータの奥行き方向の位置、即ち、テクスチャデータを見る者の視線方向の遠近を表すものとする。奥行きデータが「近い」画素は見る者の近くにあり、奥行きデータが「遠い」画素は見る者から遠くにある。奥行きデータは、具体的に遠近の距離を示してもよいし、相対的な遠近を数値化したものでもよい。   Here, “depth” represents the position of the texture data in the depth direction, that is, the perspective of the person viewing the texture data in the line of sight. Pixels with “near” depth data are near the viewer and pixels with depth data “far” are far from the viewer. The depth data may specifically indicate the distance of perspective, or may be a numerical value of relative perspective.

オブジェクト上に放射線分を考え、放射線分上で奥行き関数を定義することで、テクスチャデータに連続的な奥行きデータを付与できる。したがって、書割のような不自然さがなくなり、滑らかな立体感をもったレリーフ状の擬似3次元画像を容易に作成できる。自動化も可能である。   By considering the radiation component on the object and defining the depth function on the radiation component, continuous depth data can be added to the texture data. Accordingly, unnaturalness such as book splits is eliminated, and a relief-like pseudo three-dimensional image having a smooth stereoscopic effect can be easily created. Automation is also possible.

オブジェクトの中心を含み、幅をもった中心領域に、最も近い奥行きデータを付与することもできる。図8は、オブジェクト1の重心を始点とする放射線分11上において始点から終点方向に、30%の長さにある画素に最も近い奥行きデータを付与する場合を示す図である。図8(a)に示す奥行き関数13は、始点から終点までの30%の範囲で一定であり、最も近い位置にあることを示している。ここで中心領域とは、奥行き関数13が一定であるオブジェクト内の領域をいう。   The closest depth data can also be given to a center region including the center of the object and having a width. FIG. 8 is a diagram showing a case where depth data closest to a pixel having a length of 30% is given from the start point to the end point on the radiation component 11 starting from the center of gravity of the object 1. The depth function 13 shown in FIG. 8A is constant in the range of 30% from the start point to the end point, and indicates that it is at the closest position. Here, the central region refers to a region in the object in which the depth function 13 is constant.

図8(b)は各オブジェクトの中心領域を斜線で示した図である。幅をもった中心領域に最も近い奥行きデータを付与することにより、レリーフ状の立体形状を出力する際にオブジェクトをより飛び出させることになり、立体感を強調できる。また複数のオブジェクトがある場合に、強調したいオブジェクトのみに処理を施すことにより、オブジェクトごとの立体感を異ならせ、見る者に距離の差を擬似的に感じさせることが可能となる。強調したいオブジェクトはオペレータが手動で任意に選んでもよいし、最も面積の大きいオブジェクトや、画像の中心にあるオブジェクトを自動的に選ぶようにしてもよい。   FIG. 8B is a diagram in which the center area of each object is indicated by hatching. By giving the depth data closest to the center area having the width, the object is more popped out when outputting the relief-like three-dimensional shape, and the three-dimensional effect can be emphasized. In addition, when there are a plurality of objects, by processing only the object to be emphasized, it is possible to make the stereoscopic effect of each object different and make the viewer feel the difference in distance in a pseudo manner. The object to be emphasized may be arbitrarily selected manually by the operator, or the object having the largest area or the object at the center of the image may be automatically selected.

奥行きデータを付与したテクスチャデータを、ローパスフィルタを用いてより滑らかにしてもよい。図9はローパスフィルタの一例を示す図である。図9のローパスフィルタは、各画素の奥行きデータを、その画素を中心とする周辺7×7画素の奥行きデータの平均値とするものである。即ち、7×7画素に含まれるすべての画素の奥行きデータにそれぞれ1/49をかけ、足し合わせた結果を、中心の画素の奥行きデータとする。ここで、ローパスフィルタのサイズは任意だが、例えばテクスチャデータ全体の面積の0.05〜0.1%程度の比較的大きいサイズのローパスフィルタを使用した方が、処理結果が滑らかとなる。   The texture data to which the depth data is added may be smoothed using a low-pass filter. FIG. 9 is a diagram illustrating an example of a low-pass filter. The low-pass filter of FIG. 9 uses the depth data of each pixel as an average value of the depth data of 7 × 7 pixels around the pixel. That is, the depth data of all the pixels included in the 7 × 7 pixels is multiplied by 1/49, and the result of addition is set as the depth data of the center pixel. Here, the size of the low-pass filter is arbitrary, but the processing result becomes smoother when a relatively large low-pass filter of about 0.05 to 0.1% of the area of the entire texture data is used, for example.

また計算量を減らすために、ローパスフィルタをテクスチャデータ全体ではなく一部の領域のみに掛けてもよい。ローパスフィルタをテクスチャデータの一部の領域のみにかける場合、例えばオブジェクトの内部のみ、オブジェクトの輪郭線のみ、またはオブジェクトの輪郭線とその近傍数画素のみなどの領域から選択できるようにすればよい。また、領域ごとにローパスフィルタのサイズや形状を変えてもよい。例えば、オブジェクトの内部のみにローパスフィルタを掛ける場合、オブジェクトの縦横方向のサイズの1/4のサイズをもつ矩形のローパスフィルタを使用する方法がある。   In order to reduce the amount of calculation, a low-pass filter may be applied to only a part of the area instead of the entire texture data. When the low-pass filter is applied only to a part of the area of the texture data, for example, only the inside of the object, only the outline of the object, or only the outline of the object and a few pixels in the vicinity may be selected. Further, the size and shape of the low-pass filter may be changed for each region. For example, when a low-pass filter is applied only to the inside of an object, there is a method of using a rectangular low-pass filter having a size that is 1/4 of the size of the object in the vertical and horizontal directions.

奥行きデータを付与したテクスチャデータにローパスフィルタをかければ、連続的な奥行きデータの付与だけでは得られない滑らかな擬似3次元画像を実現できる。   If a low-pass filter is applied to the texture data to which the depth data is added, a smooth pseudo three-dimensional image that cannot be obtained only by adding continuous depth data can be realized.

ここで、図10及び図11を参照して、テクスチャデータのオブジェクト分割について説明する。図10はオブジェクト分割される前のテクスチャデータを示す図である。テクスチャデータはカラーもしくはモノクロの濃淡画像である。図11は、図10のテクスチャデータからオブジェクト1〜6を分割する処理を説明するための図である。図11(a)は、オペレータがマウス等のポインティングデバイスを操作して、手動で各オブジェクト1〜6の輪郭を入力し、オブジェクト1〜6を抽出する方法を示している。図11(b)は、オペレータがポインティングデバイスを操作して、手動でオブジェクト化したい領域上の点を指定し、後述する色相、輝度、彩度、またはこれらを組み合わせてベクトルとした画像の特徴を基準として、オブジェクト分割する方法である。図11(c)は、オペレータが手動でオブジェクト化したい領域上の点を指定する代わりに、予めテクスチャデータ上に格子点を設定し、各格子点上の画素の特徴を基準として、オブジェクト分割する方法を示す。   Here, the object division of the texture data will be described with reference to FIGS. FIG. 10 is a diagram showing texture data before object division. The texture data is a color or monochrome grayscale image. FIG. 11 is a diagram for explaining a process of dividing the objects 1 to 6 from the texture data of FIG. FIG. 11A shows a method in which an operator operates a pointing device such as a mouse to manually input the contours of the objects 1 to 6 and extract the objects 1 to 6. In FIG. 11B, an operator operates a pointing device to manually specify a point on an area to be converted into an object, and the hue, brightness, saturation, or a combination of these, which will be described later, is a vector feature. This is a method of dividing an object as a reference. In FIG. 11C, instead of manually specifying the points on the region to be converted into an object by the operator, grid points are set in advance on the texture data, and the object is divided based on the characteristics of the pixels on each grid point. The method is shown.

ここでオブジェクト分割に用いる画像の特徴の例を説明する。カラーのテクスチャデータの各画素は通常RGBの濃度情報をもっている。図10において、オブジェクト分割後にオブジェクト1〜6となる領域は、それぞれ近似するRGBの濃度情報を有しているので、このRGBの濃度情報を画像の特徴として直接利用して、テクスチャデータからオブジェクト1〜6を分割することができる。あるいは、RGBの濃度情報から画素の色相、輝度、彩度を求めて、これらを画像の特徴として利用してオブジェクト分割する方法も一般的である。   Here, an example of image features used for object division will be described. Each pixel of the color texture data usually has RGB density information. In FIG. 10, since the regions that become the objects 1 to 6 after the object division have RGB density information that approximates each other, the RGB density information is directly used as image features, and the object 1 is obtained from the texture data. ~ 6 can be divided. Alternatively, a method is generally used in which the hue, luminance, and saturation of a pixel are obtained from RGB density information, and these are used as image features to divide the object.

まず、RGBの濃度情報から次の関係式を使って輝度信号Yと色差信号C1、C2を求める。 First, the luminance signal Y and the color difference signals C 1 and C 2 are obtained from the RGB density information using the following relational expression.

輝度信号: Y=0.299R+0.587G+0.114B
色差信号: C1=R-Y、 C2=B-Y
次に、色を定量的に表すために、色相H、輝度L、彩度Sを求める。色相Hは色の種類を表し、輝度Lは色の明暗を表し、彩度Sは色の濃度を表す。
Luminance signal: Y = 0.299R + 0.587G + 0.114B
Color difference signal: C 1 = RY, C 2 = BY
Next, in order to quantitatively represent the color, a hue H, luminance L, and saturation S are obtained. Hue H represents the type of color, luminance L represents the brightness of the color, and saturation S represents the color density.

モノクロ画像の場合は、輝度信号が濃度値として使われる。 In the case of a monochrome image, the luminance signal is used as the density value.

こうして求めた色相、輝度、彩度などの画像の特徴を利用してテクスチャデータをオブジェクト分割する方法には、例えば2値化による方法と近似領域による方法がある。   As a method of dividing texture data into objects using image characteristics such as hue, luminance, and saturation obtained in this way, there are, for example, a binarization method and an approximate region method.

2値化による方法は、例えば画素の色相・輝度・彩度を所定の閾値と比較して、閾値より高い画素と低い画素に分割する方法である。近似領域による方法は、予め決めた色相・輝度・彩度に近い値を有する画素をオブジェクトとして分割する方法である。例えば、色相が予め決めた値±2°以内の画素をオブジェクトとして分割する。また、例えば、輝度が予め決めた値の±10階調以内である画素をオブジェクトの構成要素として分割してもよい。彩度の場合も同様である。あるいは、色相・輝度・彩度をベクトルと考え、ベクトルの向きと大きさが近い画素をオブジェクトの構成要素として分割してもよい。
[第2の実施形態]
第2の実施形態を説明する。第2の実施形態に係る擬似的3次元画像生成装置の構成は、図1に示した第1の実施形態に係る擬似的3次元画像生成装置の構成と基本的に同じである。相違点は、第2の実施形態に係る擬似的3次元画像生成装置の奥行き付与方法決定部120が、各オブジェクトの基準方向を決定し、決定した基準方向の平行線分を描くことである。以下の説明において、第1の実施形態と同じ構成要素には同じ参照符号を付し、その説明は省略する。
The binarization method is, for example, a method in which the hue, luminance, and saturation of a pixel are compared with a predetermined threshold value and divided into pixels that are higher and lower than the threshold value. The method using the approximate region is a method of dividing a pixel having a value close to a predetermined hue, luminance, and saturation as an object. For example, a pixel whose hue is within a predetermined value ± 2 ° is divided as an object. Further, for example, a pixel whose luminance is within ± 10 gradations of a predetermined value may be divided as a component of the object. The same applies to saturation. Alternatively, the hue, luminance, and saturation may be considered as a vector, and a pixel having a vector direction and size close to each other may be divided as a component of the object.
[Second Embodiment]
A second embodiment will be described. The configuration of the pseudo 3D image generation apparatus according to the second embodiment is basically the same as that of the pseudo 3D image generation apparatus according to the first embodiment shown in FIG. The difference is that the depth imparting method determination unit 120 of the pseudo three-dimensional image generation device according to the second embodiment determines the reference direction of each object and draws a parallel line segment of the determined reference direction. In the following description, the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

図12は、第2の実施形態に係る擬似3次元画像生成装置の処理を示すフローチャートである。ステップS20において、オブジェクト分割されたテクスチャデータ10を取り込む。このステップS20で、テクスチャデータの解像度を低下させてもよいことは、第1の実施形態と同様である。   FIG. 12 is a flowchart illustrating processing of the pseudo 3D image generation device according to the second embodiment. In step S20, the object-divided texture data 10 is captured. As in the first embodiment, the resolution of the texture data may be reduced in step S20.

ステップS21において、テクスチャデータの基準方向を決定し、ステップS22において、基準方向の平行線がオブジェクトの輪郭線と最初に交わる点を始点、最後に交わる点を終点とする密な平行線分を描く。ここで、「描く」とは、必ずしも物理的に線分を描く必要はなく、テクスチャデータ10内のオブジェクトを構成する画素を覆いつくすような線分の集合を考え、各画素を少なくとも一本の線分に対応させればよい。   In step S21, the reference direction of the texture data is determined, and in step S22, a dense parallel line segment is drawn starting from the point where the parallel line in the reference direction first intersects the contour of the object, and ending at the last point. . Here, “drawing” does not necessarily need to physically draw a line segment, but considers a set of line segments that cover the pixels constituting the object in the texture data 10, and each pixel is represented by at least one line. What is necessary is just to make it respond | correspond to a line segment.

図13は、テクスチャデータ10の水平方向を基準方向として決定した場合を示す図である。このように、テクスチャデータのすべてのオブジェクトに共通な基準方向を決めてもよい。   FIG. 13 is a diagram illustrating a case where the horizontal direction of the texture data 10 is determined as the reference direction. In this way, a common reference direction may be determined for all objects of texture data.

また、別の実施形態においては、図14に示すように、オブジェクト1〜6ごとに異なる基準方向を決定してもよい。オブジェクトの基準方向は、第1の実施形態に関して説明したのと同様に、各オブジェクトの特徴量に基づき決定してもよい。図14の場合、オブジェクト1の基準方向は縦方向であり、オブジェクト2の基準方向は横方向である。   In another embodiment, different reference directions may be determined for each of the objects 1 to 6 as shown in FIG. The reference direction of the object may be determined based on the feature amount of each object, as described with respect to the first embodiment. In the case of FIG. 14, the reference direction of the object 1 is the vertical direction, and the reference direction of the object 2 is the horizontal direction.

図12にもどり、ステップ22において、基準方向の平行線がオブジェクトの輪郭線と最初に交わる点を始点とし、最後に交わる点を終点とする密な線分を描く。図15において、テクスチャデータ10の基準方向は水平方向となっている。例えば、オブジェクト1において、水平方向の平行線は、点23でオブジェクト1の輪郭線と最初に交わり、点22でオブジェクト1の輪郭線と最後に交わる。そこで、点23を始点とし、点22を終点とする平行線分21が描かれる。始点と終点をあわせて端点という。   Returning to FIG. 12, in step 22, a dense line segment is drawn starting from the point where the parallel line in the reference direction first intersects with the contour of the object and ending at the last intersecting point. In FIG. 15, the reference direction of the texture data 10 is the horizontal direction. For example, in object 1, the horizontal parallel line first intersects with the outline of object 1 at point 23, and finally intersects with the outline of object 1 at point 22. Therefore, a parallel line segment 21 starting from the point 23 and ending at the point 22 is drawn. The start point and end point are collectively called end points.

少なくとも1本の平行線分が、オブジェクト1を構成するすべての画素を通るような密度で平行線分を描けばよい。   The parallel line segments may be drawn at a density such that at least one parallel line segment passes through all the pixels constituting the object 1.

図12にもどって、ステップS23において、平行線分21上の各画素に奥行きデータを付与するため、平行線分21上で適当な関数(奥行き関数)を決定する。図16を参照して説明する。   Returning to FIG. 12, in step S23, an appropriate function (depth function) is determined on the parallel line segment 21 in order to give depth data to each pixel on the parallel line segment 21. This will be described with reference to FIG.

図16は、オブジェクト1の平行線分21上で定義された奥行き関数24を説明するための図である。奥行き関数24は、平行線分21上にある各画素に奥行きデータを付与するものである。奥行き関数は、オブジェクトの輪郭線上の画素の奥行きデータが最も遠くなるような関数であればよい。奥行きデータを、テクスチャデータのオブジェクトでない部分(背景部分)と連続的に接続するためである。奥行き関数12としては、2次関数などの高次関数やステップ関数などがある。図16の奥行き関数24は、平行線分21の中点に対して対称な関数となっていが、必ずしも対称なものでなくてもよい。また、中点で奥行きが最も近くなるような関数となっているが、必ずしもその必要はない。   FIG. 16 is a diagram for explaining the depth function 24 defined on the parallel line segment 21 of the object 1. The depth function 24 gives depth data to each pixel on the parallel line segment 21. The depth function may be a function that makes the depth data of the pixel on the contour line of the object the farthest. This is because the depth data is continuously connected to a portion (background portion) that is not an object of the texture data. The depth function 12 includes a high-order function such as a quadratic function or a step function. Although the depth function 24 in FIG. 16 is a symmetric function with respect to the midpoint of the parallel line segment 21, it does not necessarily have to be symmetric. In addition, the function is such that the depth is closest to the midpoint, but this is not always necessary.

このように、オブジェクト上に平行線分を考え、平行線分上で奥行き関数を定義することで、テクスチャデータに連続的な奥行きデータを付与できる。したがって、書割のような不自然さがなくなり、滑らかな立体感をもったレリーフ状の擬似3次元画像を容易に作成できる。自動化も可能である。   Thus, continuous depth data can be given to texture data by considering parallel line segments on the object and defining a depth function on the parallel line segments. Accordingly, unnaturalness such as book splits is eliminated, and a relief-like pseudo three-dimensional image having a smooth stereoscopic effect can be easily created. Automation is also possible.

オブジェクトの中心を含み、幅をもった中心領域に、最も近い奥行きデータを付与することもできる。図17は、オブジェクト1の平行線分21上において、例えば中央部分30%の長さにある画素に、最も近い奥行きデータを付与する場合を示す図である。図17(a)に示す奥行き関数25は、平行線分21の中央部分30%の範囲で一定であり、最も近い位置にあることを示している。   The closest depth data can also be given to a center region including the center of the object and having a width. FIG. 17 is a diagram illustrating a case in which the closest depth data is given to a pixel having a length of, for example, 30% of the central portion on the parallel line segment 21 of the object 1. The depth function 25 shown in FIG. 17A is constant within the range of the central portion 30% of the parallel line segment 21 and indicates that it is at the closest position.

図17(b)は、図17(a)で示した奥行き関数によって、幅をもった中心領域に最も近い奥行きデータを付与されたテクスチャデータ10を示す図である。最も近い奥行きデータを付与された中心領域を斜線で表している。幅をもった中心領域の奥行きデータを最も近くすることにより、レリーフ状の立体形状を出力する際にオブジェクトをより飛び出させることになり、立体感を強調することができる。また複数のオブジェクトがある場合に、強調したいオブジェクトのみに上記処理を施すことにより、オブジェクトごとの立体感を異ならせ、見る者に擬似的な距離の差を感じさせることが可能となる。強調したいオブジェクトはオペレータが手動で任意に選んでもよいし、最も面積が大きいオブジェクトや、テクスチャデータの中心にあるオブジェクトを自動的に選ぶようにしてもよい。   FIG. 17B is a diagram showing the texture data 10 to which the depth data closest to the central region having the width is given by the depth function shown in FIG. The central region to which the closest depth data is assigned is indicated by hatching. By making the depth data of the center region having the width closest, the object is more popped out when outputting the relief-like three-dimensional shape, and the three-dimensional effect can be emphasized. In addition, when there are a plurality of objects, the above processing is performed only on the object to be emphasized, so that the stereoscopic effect for each object can be made different, and the viewer can feel a pseudo distance difference. An object to be emphasized may be arbitrarily selected manually by an operator, or an object having the largest area or an object at the center of texture data may be automatically selected.

第1の実施形態と同様に、奥行きデータを付与したテクスチャデータを、例えば図9に示したローパスフィルタを用いてより滑らかにしてもよい。奥行きデータを付与したテクスチャデータにローパスフィルタをかければ、連続的な奥行きデータを付与しただけでは得られない滑らかな擬似3次元画像を実現できる。   Similarly to the first embodiment, texture data to which depth data is added may be made smoother by using, for example, a low-pass filter shown in FIG. If a low-pass filter is applied to the texture data to which depth data is added, a smooth pseudo three-dimensional image that cannot be obtained only by adding continuous depth data can be realized.

第1及び第2の実施形態に係る擬似的3次元画像装置は、コンピュータ及びそれで実行するプログラムとして実現可能である。そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも可能である。
[第3の実施形態]
第3の実施形態に係る擬似3次元画像生成システムについて説明する。
The pseudo three-dimensional image apparatus according to the first and second embodiments can be realized as a computer and a program executed by the computer. It is also possible to provide the program by recording it on a computer-readable recording medium.
[Third Embodiment]
A pseudo three-dimensional image generation system according to the third embodiment will be described.

図18は、第3の実施形態に係る擬似3次元画像生成システム200の構成を示すブロック図である。擬似3次元画像生成システムとは、例えばデジタルカメラであり、単体のデジタルカメラだけでなく、携帯電話、パーソナルデータアシスタント(PDA)、パーソナルコンピュータ(PC)に組み込まれたものでもよい。図18の擬似3次元画像生成システム200は、撮像部210、画像記憶部220、テクスチャデータ生成部230、奥行きデータ生成部240、表示部250、及び照明部260から構成される。   FIG. 18 is a block diagram illustrating a configuration of a pseudo 3D image generation system 200 according to the third embodiment. The pseudo three-dimensional image generation system is, for example, a digital camera and may be incorporated in a mobile phone, a personal data assistant (PDA), or a personal computer (PC) as well as a single digital camera. The pseudo three-dimensional image generation system 200 in FIG. 18 includes an imaging unit 210, an image storage unit 220, a texture data generation unit 230, a depth data generation unit 240, a display unit 250, and an illumination unit 260.

照明部260は、例えば、制御部(図示せず)からの制御信号に応じて撮影対象を照明するフラッシュである。撮像部210は、例えば、CCDイメージセンサやCMOSイメージセンサを含み、制御部(図示せず)からの制御信号に応じて、撮影対象の画像をデータとして取り込む。画像記憶部220は、複数の画像を格納する複数のフレームメモリ(図示せず)から構成され、撮像部210により取り込まれた画像が格納される。テクスチャデータ生成部は、画像記憶部220のフレームメモリに格納された画像を処理し、画像中のオブジェクトを適当なオブジェクト分割方法を利用して分割し、オブジェクト分割されたテクスチャデータを生成する。   The illumination unit 260 is, for example, a flash that illuminates a subject to be photographed according to a control signal from a control unit (not shown). The imaging unit 210 includes, for example, a CCD image sensor or a CMOS image sensor, and captures an image to be captured as data in accordance with a control signal from a control unit (not shown). The image storage unit 220 includes a plurality of frame memories (not shown) that store a plurality of images, and stores images captured by the imaging unit 210. The texture data generation unit processes an image stored in the frame memory of the image storage unit 220, divides an object in the image using an appropriate object division method, and generates texture data obtained by dividing the object.

テクスチャデータをオブジェクト分割する方法には、第1の実施形態に関連して説明した色相、輝度、彩度等による方法がある。さらに別の実施形態として、同じ撮影対象を撮影した複数の画像を用いる方法もある。複数の画像を用いれば、色以外の基準を用いてオブジェクトを分割することができる。色以外の基準としては、例えばオブジェクトまでの距離やオブジェクトの動きがある。オブジェクトまでの距離を使用する場合、例えばフラッシュを点灯して撮影した画像と、フラッシュを点灯しないで撮影した画像を比較して、フラッシュにより、より明るくなった領域は近くにある撮影対象であるとみなすことができるので、距離ごとに切り出してオブジェクト化することができる。あるいは、撮影対象が動いている場合は、撮影部210を固定して動いている撮影対象を撮影し、複数のフレーム間で差分を取り、変化した領域をオブジェクトとして切り出すことができる。   As a method for dividing texture data into objects, there is a method based on hue, luminance, saturation, etc. described in connection with the first embodiment. As yet another embodiment, there is a method using a plurality of images obtained by photographing the same subject. If a plurality of images are used, the object can be divided using a standard other than the color. References other than color include, for example, the distance to the object and the movement of the object. When using the distance to the object, for example, comparing an image shot with the flash on and an image shot without the flash on, the area brightened by the flash is a nearby shooting target Since they can be regarded, they can be cut out into objects for each distance. Alternatively, when the shooting target is moving, the moving shooting target 210 is fixed, the moving shooting target is shot, a difference is taken between a plurality of frames, and the changed area can be cut out as an object.

生成されたオブジェクト分割されたテクスチャデータは、奥行きデータ生成部240に送られる。奥行きデータ生成部240は、例えば第1又は第2の実施形態に係る擬似3次元画像生成装置であり、入力されたテクスチャデータに奥行きデータを付与する。奥行きデータを付与されたテクスチャデータは、表示部250に表示される。表示部250は、例えば真の3次元ディスプレイ装置である。   The generated object-divided texture data is sent to the depth data generation unit 240. The depth data generation unit 240 is a pseudo 3D image generation apparatus according to the first or second embodiment, for example, and adds depth data to the input texture data. The texture data to which the depth data is assigned is displayed on the display unit 250. The display unit 250 is, for example, a true three-dimensional display device.

擬似的3次元画像生成システム200により、撮影対象の2次元画像を取り込み、奥行きデータ生成部240において、取り込まれた2次元画像に擬似的な奥行きデータを付与することができる。したがって、見る者に滑らかな立体感を与えるレリーフ状の奥行きを有する擬似3次元画像を容易に生成することができる。   The pseudo three-dimensional image generation system 200 can capture a two-dimensional image to be captured, and the depth data generation unit 240 can add pseudo depth data to the captured two-dimensional image. Therefore, it is possible to easily generate a pseudo three-dimensional image having a relief-like depth that gives a smooth three-dimensional effect to the viewer.

以上、本発明の実施の形態を説明した。本発明は上述の具体的に開示された実施例に限定されず、本発明の範囲から逸脱することなく様々な変形、改良が可能であろう。   The embodiment of the present invention has been described above. The present invention is not limited to the specifically disclosed embodiments described above, and various modifications and improvements may be made without departing from the scope of the present invention.

なお、本発明のいくつかの態様を整理すると以下の通りである。
(付記1) オブジェクト分割されたテクスチャデータに擬似的奥行きデータを付与する擬似的3次元画像生成装置であって、
前記オブジェクト分割されたテクスチャデータの各オブジェクトを覆いつくすように線分を描く奥行き付与方法決定手段と、
前記描かれた線分上の画素に連続的な奥行きデータを付与する奥行き演算手段と
が設けられた擬似的3次元画像生成装置。
(付記2) 付記1記載の擬似的3次元画像生成装置であって、
前記奥行き付与方法決定手段は、各オブジェクトの中心を求め、求めた中心を始点とし前記オブジェクトの輪郭線を終点とする放射線分を描くことを特徴とする擬似的3次元画像生成装置。
(付記3) 付記2記載の擬似的3次元画像生成装置であって、
前記中心はオブジェクトの画像中心、垂直分割線の中点、または重心のいずれか一つであることを特徴とする擬似的3次元画像生成装置。
(付記4) 付記1記載の擬似的3次元画像生成装置であって、
前記奥行き付与方法決定手段は、各オブジェクトの基準方向を決定し、前記決定した基準方向に平行な線分であって、各オブジェクトの輪郭線を端点とする線分を描くことを特徴とする擬似的3次元画像生成装置。
(付記5) 付記1乃至4いずれか一項記載の擬似的3次元画像生成装置であって、
前記奥行き付与方法決定手段は、各オブジェクトの特徴量に基づき、中心の種類または基準方向を選択することを特徴とする擬似的3次元画像生成装置。
(付記6) 付記1乃至5いずれか一項記載の擬似的3次元画像生成装置であって、
前記奥行き演算手段は、前記オブジェクトの輪郭線上の画素に最も遠い奥行きデータを付与することを特徴とする擬似的3次元画像生成装置。
(付記7) 付記1乃至6いずれか一項記載の擬似的3次元画像生成装置であって、
前記奥行き演算手段は、連続関数を用いて奥行きデータを付与することを特徴とする擬似的3次元画像生成装置。
(付記8) 付記1乃至7いずれか一項記載の擬似的3次元画像生成装置であって、
前記奥行き演算手段は、前記オブジェクトの中心領域の画素に最も近い奥行きデータを付与することを特徴とする擬似的3次元画像生成装置。
(付記9) 付記1乃至8いずれか一項記載の擬似的3次元画像生成装置であって、
前記奥行き演算手段は、ローパスフィルタを用いて、付与した奥行きデータを平滑化することを特徴とする擬似的3次元画像生成装置。
(付記10) 付記1乃至9いずれか一項記載の擬似的3次元画像生成装置であって、
前記オブジェクト分割されたテクスチャデータの解像度を低下させる解像度低下手段がさらに設けられている擬似的3次元画像生成装置。
(付記11) オブジェクト分割されたテクスチャデータに擬似的奥行きデータを付与する擬似的3次元画像生成方法であって、
前記オブジェクト分割されたテクスチャデータの各オブジェクトを覆いつくすように線分を描く奥行き付与方法決定過程と、
前記描かれた線分上の画素に連続的な奥行きデータを付与する奥行き演算過程と
を有する擬似的3次元画像生成方法。
(付記12) 付記11記載の擬似的3次元画像生成方法であって、
前記奥行き付与方法決定過程において、各オブジェクトの中心を求め、求めた中心を始点とし前記オブジェクトの輪郭線を終点とする放射線分を描くことを特徴とする擬似的3次元画像生成方法。
(付記13) 付記12記載の擬似的3次元画像生成方法であって、
前記中心はオブジェクトの画像中心、垂直分割線の中点、または重心のいずれか一つであることを特徴とする擬似的3次元画像生成方法。
(付記14) 付記11記載の擬似的3次元画像生成方法であって、
前記奥行き付与方法決定過程において、各オブジェクトの基準方向を決定し、前記決定した基準方向に平行な線分であって、各オブジェクトの輪郭線を端点とする線分を描くことを特徴とする擬似的3次元画像生成方法。
(付記15) 付記11乃至14いずれか一項記載の擬似的3次元画像生成方法であって、
前記奥行き付与方法決定過程において、各オブジェクトの特徴量に基づき、中心の種類または基準方向を選択することを特徴とする擬似的3次元画像生成方法。
(付記16) 付記11乃至15いずれか一項記載の擬似的3次元画像生成方法であって、
前記奥行き演算過程において、前記オブジェクトの輪郭線上の画素に最も遠い奥行きデータを付与することを特徴とする擬似的3次元画像生成方法。
(付記17) 付記11乃至16いずれか一項記載の擬似的3次元画像生成方法であって、
前記奥行き演算過程において、連続関数を用いて奥行きデータを付与することを特徴とする擬似的3次元画像生成方法。
(付記18) 付記11乃至17いずれか一項記載の擬似的3次元画像生成方法であって、
前記奥行き演算過程において、前記オブジェクトの中心領域の画素に最も近い奥行きデータを付与することを特徴とする擬似的3次元画像生成方法。
(付記19) 付記11乃至18いずれか一項記載の擬似的3次元画像生成方法であって、
前記奥行き演算過程において、ローパスフィルタを用いて、付与した奥行きデータを平滑化することを特徴とする擬似的3次元画像生成方法。
(付記20) 付記11乃至19いずれか一項記載の擬似的3次元画像生成方法であって、
前記オブジェクト分割されたテクスチャデータの解像度を低下させる解像度低下過程をさらに有する擬似的3次元画像生成方法。
(付記21)オブジェクト分割されたテクスチャデータに擬似的奥行きデータを付与する擬似的3次元画像生成プログラムであって、コンピュータを、
前記オブジェクト分割されたテクスチャデータを覆いつくすように線分を描く奥行き付与方法決定手段と、
前記描かれた線分上の画素に連続的な奥行きデータを付与する奥行き演算手段として機能させることを特徴とする擬似的3次元画像生成プログラム。
(付記22) 付記21記載の擬似的3次元画像生成プログラムであって、
前記奥行き付与方法決定手段としてのコンピュータは、各オブジェクトの中心を求め、中心を始点とし前記オブジェクトの輪郭線を終点とする放射線分を描くことを特徴とする擬似的3次元画像生成プログラム。
(付記23) 付記22記載の擬似的3次元画像生成プログラムであって、
前記中心はオブジェクトの画像中心、垂直分割線の中点、または重心のいずれか一つであることを特徴とする擬似的3次元画像生成プログラム。
(付記24) 付記21記載の擬似的3次元画像生成プログラムであって、
前記奥行き付与方法決定手段としてのコンピュータは、各オブジェクトの基準方向を決定し、前記決定した基準方向に平行な線分であって、各オブジェクトの輪郭線を端点とする線分を描くことを特徴とする擬似的3次元画像生成プログラム。
(付記25) 付記21乃至24いずれか一項記載の擬似的3次元画像生成プログラムであって、
前記奥行き付与方法決定手段としてのコンピュータは、各オブジェクトの特徴量に基づき、中心の種類を選択することを特徴とする擬似的3次元画像生成プログラム。
(付記26) 付記21乃至25いずれか一項記載の擬似的3次元画像生成プログラムであって、
前記奥行き演算手段としてのコンピュータは、前記オブジェクトの輪郭線上の画素に最も遠い奥行きデータを付与することを特徴とする擬似的3次元画像生成プログラム。
(付記27) 付記21乃至26いずれか一項記載の擬似的3次元画像生成プログラムであって、
前記奥行き演算手段としてのコンピュータは、連続関数を用いて奥行きデータを付与することを特徴とする擬似的3次元画像生成プログラム。
(付記28) 付記21乃至27いずれか一項記載の擬似的3次元画像生成プログラムであって、
前記奥行き演算手段としてのコンピュータは、前記オブジェクトの中心領域の画素に最も近い奥行きデータを付与することを特徴とする擬似的3次元画像生成プログラム。
(付記29) 付記21乃至28いずれか一項記載の擬似的3次元画像生成プログラムであって、
前記奥行き演算手段としてのコンピュータは、ローパスフィルタを用いて、付与した奥行きデータを平滑化することを特徴とする擬似的3次元画像生成プログラム。
(付記30) 付記21乃至29いずれか一項記載の擬似的3次元画像生成プログラムであって、コンピュータを
前記オブジェクト分割されたテクスチャデータの解像度を低下させる解像度低下手段として機能させる擬似的3次元画像生成プログラム。
(付記31) 付記21乃至30いずれか一項記載の擬似的3次元画像生成プログラムを記録したコンピュータ読み取り可能な記録媒体。
(付記32) 撮影対象のテクスチャデータから擬似3次元画像を生成する画像生成システムであって、
前記撮影対象の画像データからオブジェクト分割されたテクスチャデータを生成するテクスチャデータ生成部と、
前記オブジェクト分割されたテクスチャデータに擬似的奥行きデータを付与する擬似的3次元画像生成部とが設けられ、
前記擬似的3次元画像生成部には
前記テクスチャデータ生成部から前記テクスチャデータを入力する入力手段と、
前記入力したテクスチャデータを覆いつくすように線分を描く奥行き付与方法決定手段と、
前記描かれた線分上の画素に連続的な奥行きデータを付与する奥行き演算手段と
が設けられた画像生成システム。
Some aspects of the present invention are summarized as follows.
(Supplementary Note 1) A pseudo three-dimensional image generation apparatus that adds pseudo depth data to texture data obtained by dividing an object,
Depth providing method determining means for drawing a line segment so as to cover each object of the texture data divided into objects,
A pseudo three-dimensional image generation apparatus provided with depth calculation means for providing continuous depth data to pixels on the drawn line segment.
(Supplementary note 2) The pseudo three-dimensional image generation device according to supplementary note 1, wherein
The depth imparting method determining means obtains the center of each object, and draws a radiation component having the obtained center as a start point and the contour line of the object as an end point.
(Supplementary note 3) The pseudo three-dimensional image generation device according to supplementary note 2,
The pseudo three-dimensional image generating apparatus, wherein the center is any one of an image center of an object, a midpoint of a vertical dividing line, and a center of gravity.
(Supplementary note 4) The pseudo three-dimensional image generation device according to supplementary note 1,
The depth imparting method determining means determines a reference direction of each object, and draws a line segment that is parallel to the determined reference direction and that has a contour line of each object as an end point. 3D image generator.
(Supplementary note 5) The pseudo three-dimensional image generation device according to any one of supplementary notes 1 to 4,
The pseudo-three-dimensional image generation apparatus characterized in that the depth providing method determining means selects a center type or a reference direction based on a feature amount of each object.
(Supplementary note 6) The pseudo three-dimensional image generation device according to any one of supplementary notes 1 to 5,
The depth calculation means assigns the furthest depth data to the pixels on the contour line of the object.
(Supplementary note 7) The pseudo three-dimensional image generation device according to any one of supplementary notes 1 to 6,
The pseudo three-dimensional image generation apparatus, wherein the depth calculation means gives depth data using a continuous function.
(Supplementary note 8) The pseudo three-dimensional image generation device according to any one of supplementary notes 1 to 7,
The pseudo three-dimensional image generation apparatus, wherein the depth calculation unit gives depth data closest to a pixel in a central region of the object.
(Supplementary note 9) The pseudo three-dimensional image generation device according to any one of supplementary notes 1 to 8,
The depth calculation means smoothes the given depth data using a low-pass filter, and the pseudo three-dimensional image generation apparatus characterized by the above-mentioned.
(Supplementary note 10) The pseudo three-dimensional image generation device according to any one of supplementary notes 1 to 9,
A pseudo three-dimensional image generation apparatus, further comprising resolution reduction means for reducing the resolution of the texture data divided into objects.
(Supplementary Note 11) A pseudo three-dimensional image generation method for adding pseudo depth data to texture data obtained by dividing an object,
Depth imparting method determination step of drawing a line segment so as to cover each object of the texture data divided into objects,
A pseudo three-dimensional image generation method comprising: a depth calculation process for providing continuous depth data to pixels on the drawn line segment.
(Supplementary note 12) The pseudo three-dimensional image generation method according to supplementary note 11,
A pseudo three-dimensional image generation method characterized in that, in the depth giving method determining step, a center of each object is obtained, and a radiation component having the obtained center as a start point and an outline of the object as an end point is drawn.
(Supplementary note 13) The pseudo three-dimensional image generation method according to supplementary note 12,
The pseudo three-dimensional image generation method, wherein the center is one of an image center of an object, a midpoint of a vertical dividing line, and a center of gravity.
(Supplementary note 14) The pseudo three-dimensional image generation method according to supplementary note 11,
In the depth giving method determining step, a reference direction of each object is determined, and a line segment parallel to the determined reference direction and having a contour line of each object as an end point is drawn. 3D image generation method.
(Supplementary note 15) The pseudo three-dimensional image generation method according to any one of supplementary notes 11 to 14,
A pseudo three-dimensional image generation method, characterized in that, in the depth determination method determination step, a center type or a reference direction is selected based on a feature amount of each object.
(Supplementary note 16) The pseudo three-dimensional image generation method according to any one of supplementary notes 11 to 15,
A pseudo three-dimensional image generation method, characterized in that, in the depth calculation process, depth data farthest is given to a pixel on the contour line of the object.
(Supplementary note 17) The pseudo three-dimensional image generation method according to any one of supplementary notes 11 to 16,
In the depth calculation process, depth data is given using a continuous function.
(Supplementary note 18) The pseudo three-dimensional image generation method according to any one of supplementary notes 11 to 17,
In the depth calculation process, depth data closest to a pixel in a central area of the object is given, and a pseudo three-dimensional image generation method is provided.
(Supplementary note 19) The pseudo three-dimensional image generation method according to any one of supplementary notes 11 to 18,
A pseudo three-dimensional image generation method characterized in that, in the depth calculation process, the applied depth data is smoothed using a low-pass filter.
(Supplementary note 20) The pseudo three-dimensional image generation method according to any one of supplementary notes 11 to 19,
A pseudo three-dimensional image generation method further comprising a resolution reduction process for reducing the resolution of the texture data divided into objects.
(Supplementary note 21) A pseudo three-dimensional image generation program for adding pseudo depth data to texture data obtained by dividing an object.
Depth providing method determining means for drawing a line segment so as to cover the object-divided texture data;
A pseudo three-dimensional image generation program that functions as a depth calculation unit that gives continuous depth data to pixels on the drawn line segment.
(Supplementary note 22) The pseudo three-dimensional image generation program according to supplementary note 21,
A computer as the depth assigning method determining means finds the center of each object and draws a radiation component starting from the center and ending with the contour of the object.
(Supplementary note 23) A pseudo three-dimensional image generation program according to supplementary note 22,
The pseudo three-dimensional image generation program, wherein the center is any one of an image center of an object, a midpoint of a vertical dividing line, and a center of gravity.
(Supplementary Note 24) A pseudo three-dimensional image generation program according to supplementary note 21,
The computer as the depth giving method determining means determines a reference direction of each object, and draws a line segment that is parallel to the determined reference direction and that has a contour line of each object as an end point. A pseudo three-dimensional image generation program.
(Supplementary note 25) The pseudo three-dimensional image generation program according to any one of supplementary notes 21 to 24,
A pseudo three-dimensional image generation program characterized in that the computer as the depth assigning method determination means selects a center type based on a feature amount of each object.
(Supplementary note 26) The pseudo three-dimensional image generation program according to any one of supplementary notes 21 to 25,
A pseudo three-dimensional image generation program characterized in that the computer as the depth calculation means gives the furthest depth data to the pixels on the contour line of the object.
(Supplementary note 27) The pseudo three-dimensional image generation program according to any one of supplementary notes 21 to 26,
A computer as the depth calculation means assigns depth data using a continuous function, and a pseudo three-dimensional image generation program.
(Supplementary note 28) The pseudo three-dimensional image generation program according to any one of supplementary notes 21 to 27,
A computer as the depth calculation means assigns depth data closest to a pixel in a central area of the object, and a pseudo three-dimensional image generation program.
(Supplementary note 29) The pseudo three-dimensional image generation program according to any one of supplementary notes 21 to 28,
The computer as the depth calculation means smoothes the given depth data using a low-pass filter.
(Supplementary note 30) The pseudo three-dimensional image generation program according to any one of supplementary notes 21 to 29, wherein the computer functions as a resolution reduction unit that reduces the resolution of the texture data divided into objects. Generation program.
(Additional remark 31) The computer-readable recording medium which recorded the pseudo | simulation three-dimensional image generation program as described in any one of additional remark 21 thru | or 30.
(Supplementary Note 32) An image generation system for generating a pseudo three-dimensional image from texture data to be imaged,
A texture data generating unit that generates texture data obtained by dividing an object from the image data to be imaged;
A pseudo three-dimensional image generation unit that adds pseudo depth data to the texture data obtained by the object division;
The pseudo three-dimensional image generation unit includes an input unit that inputs the texture data from the texture data generation unit;
Depth providing method determining means for drawing a line segment so as to cover the input texture data;
An image generation system provided with depth calculation means for providing continuous depth data to pixels on the drawn line segment.

オブジェクト分割されたテクスチャデータから擬似的3次元画像を容易に生成できる擬似的3次元画像生成装置を作ることができる。また、撮影対象を撮影して擬似的3次元画像を出力できる擬似的3次元画像生成システムを作ることができる。   A pseudo three-dimensional image generation apparatus that can easily generate a pseudo three-dimensional image from texture data obtained by dividing an object can be created. In addition, a pseudo 3D image generation system capable of shooting a shooting target and outputting a pseudo 3D image can be created.

第1の実施形態に係る擬似的3次元画像生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the pseudo | simulated three-dimensional image generation apparatus which concerns on 1st Embodiment. 第1の実施形態に係る擬似的3次元画像生成装置による処理を示すフローチャートである。It is a flowchart which shows the process by the pseudo | simulation three-dimensional image generation apparatus which concerns on 1st Embodiment. 第1の実施形態に係る擬似的3次元画像生成装置に入力されるオブジェクト分割されたテクスチャデータを説明するための図である。It is a figure for demonstrating the texture data by which the object division | segmentation input into the pseudo | simulation three-dimensional image generation apparatus which concerns on 1st Embodiment was input. 第1の実施形態において、各オブジェクトの中心を決定し、中心を始点として放射線を描く方法を説明するための図である。In a 1st embodiment, it is a figure for deciding the center of each object, and explaining the method of drawing radiation from the center as a starting point. 第1の実施形態においてオブジェクトの中心を決定する方法を説明するための図である。It is a figure for demonstrating the method to determine the center of an object in 1st Embodiment. 第1の実施形態において、重心を始点として放射線を描く方法を説明するための図である。In 1st Embodiment, it is a figure for demonstrating the method of drawing a radiation from a gravity center as a starting point. 第1の実施形態において、放射線上の各画素に奥行きデータを付与する方法を説明するための図である。In 1st Embodiment, it is a figure for demonstrating the method to provide depth data to each pixel on radiation. 第1の実施形態において、中心領域の奥行きデータを最も近くする場合を説明するための図である。In 1st Embodiment, it is a figure for demonstrating the case where the depth data of a center area | region are the nearest. 第1の実施形態において用いるローパスフィルタの一例を示す図である。It is a figure which shows an example of the low pass filter used in 1st Embodiment. オブジェクトを分離する前のテクスチャデータを示す図である。It is a figure which shows the texture data before isolate | separating an object. 図10に示したテクスチャデータのオブジェクトを分離する処理を説明するための図である。It is a figure for demonstrating the process which isolate | separates the object of the texture data shown in FIG. 第2の実施形態に係る擬似的3次元画像生成装置による処理を示すフローチャートである。It is a flowchart which shows the process by the pseudo | simulated three-dimensional image generation apparatus which concerns on 2nd Embodiment. 第2の実施形態において、基準方向が予め決められている場合を説明するための図である。In 2nd Embodiment, it is a figure for demonstrating the case where the reference direction is predetermined. 第2の実施形態において、オブジェクトごとに基準方向を決定する場合を説明するための図である。It is a figure for demonstrating the case where a reference direction is determined for every object in 2nd Embodiment. 第2の実施形態において、密な平行線分の描画を説明するための図である。In a 2nd embodiment, it is a figure for explaining drawing of a dense parallel line segment. 第2の実施形態において、平行線分上の各画素に奥行きデータを付与する方法を説明するための図である。It is a figure for demonstrating the method to provide depth data to each pixel on a parallel line segment in 2nd Embodiment. 第2の実施形態において、中心領域の奥行きデータを最も近くする場合を説明するための図である。In 2nd Embodiment, it is a figure for demonstrating the case where the depth data of a center area | region are the nearest. 第3の実施形態に係る擬似的3次元画像生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of the pseudo | simulated three-dimensional image generation system which concerns on 3rd Embodiment.

符号の説明Explanation of symbols

1、2、3、4、5、6 オブジェクト
10 オブジェクト分割されたテクスチャデータ
11 放射線分
12、13 奥行き関数
21 平行線分
22、23 平行線とオブジェクトの輪郭線との交点
24、25 奥行き関数
50 オブジェクト形状例
51 交点
52 中点
100 擬似的3次元画像生成装置
110 入力部
120 奥行き付与方法決定部
130 擬似奥行き演算部
140 出力部
200 擬似的3次元画像生成システム
210 撮像部
220 画像記憶部
230 テクスチャデータ生成部
240 奥行きデータ生成部
250 表示部
260 照明部
1, 2, 3, 4, 5, 6 Object 10 Texture data divided into objects 11 Radiation component 12, 13 Depth function 21 Parallel segment 22, 23 Intersection point of parallel line and object outline 24, 25 Depth function 50 Object Shape Example 51 Intersection 52 Midpoint 100 Pseudo 3D Image Generation Device 110 Input Unit 120 Depth Assignment Method Determination Unit 130 Pseudo Depth Calculation Unit 140 Output Unit 200 Pseudo 3D Image Generation System 210 Imaging Unit 220 Image Storage Unit 230 Texture Data generation unit 240 Depth data generation unit 250 Display unit 260 Illumination unit

Claims (23)

オブジェクト分割されたテクスチャデータに擬似的奥行きデータを付与する擬似的3次元画像生成装置であって、
前記オブジェクト分割されたテクスチャデータの各オブジェクトを覆いつくすように線分を描く奥行き付与方法決定手段と、
前記描かれた線分上の画素に連続的な奥行きデータを付与する奥行き演算手段とを有し、
前記奥行き付与方法決定手段は、各オブジェクトの特徴量に基づき中心の種類を選択し、各オブジェクトの中心を求め、求めた中心を始点とし前記オブジェクトの輪郭線を終点とする放射線分を描くことを特徴とする擬似的3次元画像生成装置。
A pseudo three-dimensional image generation apparatus that adds pseudo depth data to texture data obtained by dividing an object,
Depth providing method determining means for drawing a line segment so as to cover each object of the texture data divided into objects,
Depth calculation means for giving continuous depth data to pixels on the drawn line segment,
The depth providing method determining means selects a center type based on a feature amount of each object, obtains the center of each object, and draws a radiation component having the obtained center as a start point and the contour line of the object as an end point. A pseudo three-dimensional image generation device as a feature.
請求項1記載の擬似的3次元画像生成装置であって、
前記中心はオブジェクトの画像中心、垂直分割線の中点、または重心のいずれか一つであることを特徴とする擬似的3次元画像生成装置。
The pseudo three-dimensional image generation device according to claim 1,
The pseudo three-dimensional image generating apparatus, wherein the center is any one of an image center of an object, a midpoint of a vertical dividing line, and a center of gravity.
請求項1または2記載の擬似的3次元画像生成装置であって、
前記奥行き演算手段は、前記オブジェクトの輪郭線上の画素に最も遠い奥行きデータを付与することを特徴とする擬似的3次元画像生成装置。
The pseudo three-dimensional image generation apparatus according to claim 1 or 2,
The depth calculation means assigns the furthest depth data to the pixels on the contour line of the object.
請求項1乃至3いずれか一項記載の擬似的3次元画像生成装置であって、
前記奥行き演算手段は、連続関数を用いて奥行きデータを付与することを特徴とする擬似的3次元画像生成装置。
The pseudo three-dimensional image generation device according to any one of claims 1 to 3,
The pseudo three-dimensional image generation apparatus, wherein the depth calculation means gives depth data using a continuous function.
請求項1乃至4いずれか一項記載の擬似的3次元画像生成装置であって、
前記奥行き演算手段は、前記オブジェクトの中心領域の画素に最も近い奥行きデータを付与することを特徴とする擬似的3次元画像生成装置。
The pseudo three-dimensional image generation device according to any one of claims 1 to 4,
The pseudo three-dimensional image generation apparatus, wherein the depth calculation unit gives depth data closest to a pixel in a central region of the object.
請求項1乃至5いずれか一項記載の擬似的3次元画像生成装置であって、
前記奥行き演算手段は、ローパスフィルタを用いて、付与した奥行きデータを平滑化することを特徴とする擬似的3次元画像生成装置。
The pseudo three-dimensional image generation device according to any one of claims 1 to 5,
The depth calculation means smoothes the given depth data using a low-pass filter, and the pseudo three-dimensional image generation apparatus characterized by the above-mentioned.
請求項1乃至6いずれか一項記載の擬似的3次元画像生成装置であって、
前記オブジェクト分割されたテクスチャデータの解像度を低下させる解像度低下手段がさらに設けられている擬似的3次元画像生成装置。
The pseudo three-dimensional image generation device according to any one of claims 1 to 6,
A pseudo three-dimensional image generation apparatus, further comprising resolution reduction means for reducing the resolution of the texture data divided into objects.
オブジェクト分割されたテクスチャデータに擬似的奥行きデータを付与する擬似的3次元画像生成方法であって、
奥行き付与方法決定手段が、前記オブジェクト分割されたテクスチャデータの各オブジェクトを覆いつくすように線分を描く奥行き付与方法決定過程と、
奥行き演算手段が、前記描かれた線分上の画素に連続的な奥行きデータを付与する奥行き演算過程とを有し、
前記奥行き付与方法決定過程において、前記奥行き付与方法決定手段が、各オブジェクトの特徴量に基づき中心の種類を選択し、各オブジェクトの中心を求め、求めた中心を始点とし前記オブジェクトの輪郭線を終点とする放射線分を描くことを特徴とする擬似的3次元画像生成方法。
A pseudo three-dimensional image generation method for adding pseudo depth data to texture data divided into objects,
Depth providing method determining means, a depth adding method determining step for drawing a line segment so as to cover each object of the texture data divided into objects,
A depth calculation means having a depth calculation process of giving continuous depth data to pixels on the drawn line segment;
In the depth giving method determining step, the depth giving method determining means selects a center type based on the feature amount of each object, obtains the center of each object, uses the found center as a start point, and sets the contour line of the object as an end point A pseudo three-dimensional image generation method characterized by drawing a radiation component.
請求項8記載の擬似的3次元画像生成方法であって、
前記中心はオブジェクトの画像中心、垂直分割線の中点、または重心のいずれか一つであることを特徴とする擬似的3次元画像生成方法。
The pseudo three-dimensional image generation method according to claim 8,
The pseudo three-dimensional image generation method, wherein the center is one of an image center of an object, a midpoint of a vertical dividing line, and a center of gravity.
請求項8または9記載の擬似的3次元画像生成方法であって、
前記奥行き演算過程は、さらに、前記オブジェクトの輪郭線上の画素に最も遠い奥行きデータを付与する過程を含むことを特徴とする擬似的3次元画像生成方法。
The pseudo three-dimensional image generation method according to claim 8 or 9,
The method for generating a pseudo three-dimensional image, wherein the depth calculation step further includes a step of giving depth data farthest to the pixels on the contour line of the object.
請求項8乃至10いずれか一項記載の擬似的3次元画像生成方法であって、
前記奥行き演算過程は、さらに、連続関数を用いて奥行きデータを付与する過程を含むことを特徴とする擬似的3次元画像生成方法。
A pseudo three-dimensional image generation method according to any one of claims 8 to 10,
The pseudo three-dimensional image generation method, wherein the depth calculation process further includes a process of adding depth data using a continuous function.
請求項8乃至11いずれか一項記載の擬似的3次元画像生成方法であって、
前記奥行き演算過程は、さらに、前記オブジェクトの中心領域の画素に最も近い奥行きデータを付与する過程を含むことを特徴とする擬似的3次元画像生成方法。
A pseudo three-dimensional image generation method according to any one of claims 8 to 11,
The pseudo three-dimensional image generation method, wherein the depth calculation step further includes a step of giving depth data closest to a pixel in a central region of the object.
請求項8乃至12いずれか一項記載の擬似的3次元画像生成方法であって、
前記奥行き演算過程は、さらに、ローパスフィルタを用いて、付与した奥行きデータを平滑化する過程を含むことを特徴とする擬似的3次元画像生成方法。
A pseudo three-dimensional image generation method according to any one of claims 8 to 12,
The depth calculation process further includes a process of smoothing the given depth data using a low-pass filter.
請求項8乃至13いずれか一項記載の擬似的3次元画像生成方法であって、
解像度低下手段が、前記オブジェクト分割されたテクスチャデータの解像度を低下させる解像度低下過程をさらに有する擬似的3次元画像生成方法。
A pseudo three-dimensional image generation method according to any one of claims 8 to 13,
A pseudo three-dimensional image generation method, wherein the resolution reduction means further includes a resolution reduction process for reducing the resolution of the texture data divided by the object.
オブジェクト分割されたテクスチャデータに擬似的奥行きデータを付与する擬似的3次元画像生成プログラムであって、コンピュータを、
前記オブジェクト分割されたテクスチャデータを覆いつくすように線分を描く奥行き付与方法決定手段と、
前記描かれた線分上の画素に連続的な奥行きデータを付与する奥行き演算手段として機能させ、
前記奥行き付与方法決定手段は、各オブジェクトの特徴量に基づき中心の種類を選択し、各オブジェクトの中心を求め、求めた中心を始点とし前記オブジェクトの輪郭線を終点とする放射線分を描くことを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program for adding pseudo depth data to texture data obtained by dividing an object, the computer comprising:
Depth providing method determining means for drawing a line segment so as to cover the object-divided texture data;
Function as depth calculation means for giving continuous depth data to pixels on the drawn line segment,
The depth providing method determining means selects a center type based on a feature amount of each object, obtains the center of each object, and draws a radiation component having the obtained center as a start point and the contour line of the object as an end point. A pseudo three-dimensional image generation program characterized.
請求項15記載の擬似的3次元画像生成プログラムであって、
前記中心はオブジェクトの画像中心、垂直分割線の中点、または重心のいずれか一つであることを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program according to claim 15,
The pseudo three-dimensional image generation program, wherein the center is any one of an image center of an object, a midpoint of a vertical dividing line, and a center of gravity.
請求項15または16記載の擬似的3次元画像生成プログラムであって、
前記奥行き演算手段としてのコンピュータは、前記オブジェクトの輪郭線上の画素に最も遠い奥行きデータを付与することを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program according to claim 15 or 16,
A pseudo three-dimensional image generation program characterized in that the computer as the depth calculation means gives the furthest depth data to the pixels on the contour line of the object.
請求項15乃至17いずれか一項記載の擬似的3次元画像生成プログラムであって、
前記奥行き演算手段としてのコンピュータは、連続関数を用いて奥行きデータを付与することを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program according to any one of claims 15 to 17,
A computer as the depth calculation means assigns depth data using a continuous function, and a pseudo three-dimensional image generation program.
請求項15乃至18いずれか一項記載の擬似的3次元画像生成プログラムであって、
前記奥行き演算手段としてのコンピュータは、前記オブジェクトの中心領域の画素に最も近い奥行きデータを付与することを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program according to any one of claims 15 to 18,
A computer as the depth calculation means assigns depth data closest to a pixel in a central area of the object, and a pseudo three-dimensional image generation program.
請求項15乃至19いずれか一項記載の擬似的3次元画像生成プログラムであって、
前記奥行き演算手段としてのコンピュータは、ローパスフィルタを用いて、付与した奥行きデータを平滑化することを特徴とする擬似的3次元画像生成プログラム。
A pseudo three-dimensional image generation program according to any one of claims 15 to 19,
The computer as the depth calculation means smoothes the given depth data using a low-pass filter.
請求項15乃至20いずれか一項記載の擬似的3次元画像生成プログラムであって、コンピュータを
前記オブジェクト分割されたテクスチャデータの解像度を低下させる解像度低下手段として機能させる擬似的3次元画像生成プログラム。
The pseudo three-dimensional image generation program according to any one of claims 15 to 20, wherein the computer functions as a resolution reduction unit that reduces the resolution of the texture data divided into objects.
請求項15乃至21いずれか一項記載の擬似的3次元画像生成プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the pseudo three-dimensional image generation program according to any one of claims 15 to 21 is recorded. 撮影対象のテクスチャデータから擬似3次元画像を生成する画像生成システムであって、
前記撮影対象の画像データからオブジェクト分割されたテクスチャデータを生成するテクスチャデータ生成部と、
前記オブジェクト分割されたテクスチャデータに擬似的奥行きデータを付与する擬似的3次元画像生成部とが設けられ、
前記擬似的3次元画像生成部には
前記テクスチャデータ生成部から前記テクスチャデータを入力する入力手段と、
前記入力したテクスチャデータを覆いつくすように線分を描く奥行き付与方法決定手段と、
前記描かれた線分上の画素に連続的な奥行きデータを付与する奥行き演算手段と
が設けられ
前記奥行き付与方法決定手段は、各オブジェクトの特徴量に基づき中心の種類を選択し、各オブジェクトの中心を求め、求めた中心を始点とし前記オブジェクトの輪郭線を終点とする放射線分を描くことを特徴とする画像生成システム。
An image generation system that generates a pseudo three-dimensional image from texture data to be imaged,
A texture data generating unit that generates texture data obtained by dividing an object from the image data to be imaged;
A pseudo three-dimensional image generation unit that adds pseudo depth data to the texture data obtained by the object division;
The pseudo three-dimensional image generation unit includes an input unit that inputs the texture data from the texture data generation unit;
Depth providing method determining means for drawing a line segment so as to cover the input texture data;
Depth calculation means for providing continuous depth data to pixels on the drawn line segment is provided, and the depth assignment method determination means selects a center type based on the feature amount of each object, and An image generation system characterized in that a center is obtained and a radiation component is drawn with the obtained center as a start point and the contour line of the object as an end point.
JP2007287760A 2007-11-05 2007-11-05 Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program Expired - Fee Related JP4541397B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007287760A JP4541397B2 (en) 2007-11-05 2007-11-05 Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007287760A JP4541397B2 (en) 2007-11-05 2007-11-05 Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003392874A Division JP4075778B2 (en) 2003-11-21 2003-11-21 Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program

Publications (2)

Publication Number Publication Date
JP2008084338A true JP2008084338A (en) 2008-04-10
JP4541397B2 JP4541397B2 (en) 2010-09-08

Family

ID=39355063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007287760A Expired - Fee Related JP4541397B2 (en) 2007-11-05 2007-11-05 Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program

Country Status (1)

Country Link
JP (1) JP4541397B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048586A (en) * 2009-08-26 2011-03-10 Sony Corp Image processing apparatus, image processing method and program
JP2013085133A (en) * 2011-10-11 2013-05-09 Dainippon Printing Co Ltd Depth creating support device, depth creating support method and program
JP5830705B2 (en) * 2012-09-25 2015-12-09 パナソニックIpマネジメント株式会社 Image signal processing apparatus and image signal processing method
JP5920858B1 (en) * 2015-07-01 2016-05-18 株式会社Live2D Program, information processing apparatus, depth definition method, and recording medium
US9581910B2 (en) 2013-01-17 2017-02-28 Carl Zeiss Smt Gmbh Method of lithographically transferring a pattern on a light sensitive surface and illumination system of a microlithographic projection exposure apparatus

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348208A (en) * 1999-06-07 2000-12-15 Minolta Co Ltd Device and method for generating three-dimensional data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348208A (en) * 1999-06-07 2000-12-15 Minolta Co Ltd Device and method for generating three-dimensional data

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048586A (en) * 2009-08-26 2011-03-10 Sony Corp Image processing apparatus, image processing method and program
JP2013085133A (en) * 2011-10-11 2013-05-09 Dainippon Printing Co Ltd Depth creating support device, depth creating support method and program
JP5830705B2 (en) * 2012-09-25 2015-12-09 パナソニックIpマネジメント株式会社 Image signal processing apparatus and image signal processing method
US9581910B2 (en) 2013-01-17 2017-02-28 Carl Zeiss Smt Gmbh Method of lithographically transferring a pattern on a light sensitive surface and illumination system of a microlithographic projection exposure apparatus
JP5920858B1 (en) * 2015-07-01 2016-05-18 株式会社Live2D Program, information processing apparatus, depth definition method, and recording medium
WO2017002483A1 (en) * 2015-07-01 2017-01-05 株式会社Live2D Program, information processing device, depth definition method, and recording medium
US10297036B2 (en) 2015-07-01 2019-05-21 Live2D Inc. Recording medium, information processing apparatus, and depth definition method

Also Published As

Publication number Publication date
JP4541397B2 (en) 2010-09-08

Similar Documents

Publication Publication Date Title
JP6685827B2 (en) Image processing apparatus, image processing method and program
US9813614B2 (en) Method and system for analog/digital image simplification and stylization
JP6576083B2 (en) Image processing apparatus, image processing method, and program
JP2010154422A (en) Image processor
US11398007B2 (en) Video generation device, video generation method, program, and data structure
JP4541397B2 (en) Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program
CN113039576A (en) Image enhancement system and method
JP2018107593A (en) Image processing apparatus, image processing method, and program
JP2017103569A (en) Image processing device and image processing method
CN114627175A (en) Image processing method, intelligent terminal and computer readable storage medium
JP5862635B2 (en) Image processing apparatus, three-dimensional data generation method, and program
JP2004133919A (en) Device and method for generating pseudo three-dimensional image, and program and recording medium therefor
JP2017059041A (en) Image processing device, image processing method, and program
JP4075778B2 (en) Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program
US8086060B1 (en) Systems and methods for three-dimensional enhancement of two-dimensional images
JP5807569B2 (en) Image processing apparatus, image processing method, and image processing program
JP6896811B2 (en) Image processing equipment, image processing methods, and programs
JP2006186983A (en) Exposure correction method for color image
JP4075782B2 (en) Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program for imparting pseudo depth to an image having discrete depth
WO2018180860A1 (en) Image processing device, image processing method, and program
US20230092409A1 (en) Image processing systems and methods
JP5887966B2 (en) Image processing apparatus, image processing method, and image processing program
JP2023153534A (en) Image processing apparatus, image processing method, and program
JP2021069004A (en) Image processing device, image processing method, and program
JP2023017018A (en) Three-dimensional graphic data creation method, program and three-dimensional graphic data creation system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100623

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130702

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees