JP2016045641A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2016045641A
JP2016045641A JP2014168571A JP2014168571A JP2016045641A JP 2016045641 A JP2016045641 A JP 2016045641A JP 2014168571 A JP2014168571 A JP 2014168571A JP 2014168571 A JP2014168571 A JP 2014168571A JP 2016045641 A JP2016045641 A JP 2016045641A
Authority
JP
Japan
Prior art keywords
dimensional model
model
image processing
artifact
natural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014168571A
Other languages
Japanese (ja)
Other versions
JP6421493B2 (en
Inventor
松永 和久
Kazuhisa Matsunaga
和久 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014168571A priority Critical patent/JP6421493B2/en
Publication of JP2016045641A publication Critical patent/JP2016045641A/en
Application granted granted Critical
Publication of JP6421493B2 publication Critical patent/JP6421493B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To generate a natural 3D model.SOLUTION: A 3D model reception unit 111 of an image processing device 100 accepts an inputted 3D model. An information acquisition unit 112 acquires additional information added to the 3D model. A discrimination unit 113 discriminates whether the accepted 3D model is a 3D model of a natural object or a 3D model of an artifact on the basis of the acquired additional information. A subdivision processing unit 114 subdivides a mesh of the 3D model of a natural model a prescribed number of times in the case where the discrimination unit 113 discriminates that the 3D model is a 3D model of a natural object, and does not subdivide the mesh of a 3D model of an artifact in the case where the discrimination unit discriminates that the 3D model is a 3D model of an artifact.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

近年、コンピュータ・グラフィックス(CG:Computer Graphics)技術の進歩により、ポリゴンで制作された3Dモデル(以下、三次元モデルともいう)が広く用いられている。
この3Dモデルは、一般的に、頂点、辺及び面からなる多角形(ポリゴン)の集合で構成され、そのポリゴンの集合をメッシュと呼ぶ。
3Dモデルの技術に関して、例えば、非特許文献1には、3Dモデル同士を滑らかに接続するために、接続部分のメッシュを局所的に細分割する技術が開示されている。
In recent years, with the advance of computer graphics (CG) technology, 3D models (hereinafter also referred to as three-dimensional models) produced with polygons are widely used.
This 3D model is generally composed of a set of polygons (polygons) composed of vertices, sides and faces, and the set of polygons is called a mesh.
Regarding the 3D model technique, for example, Non-Patent Document 1 discloses a technique for locally subdividing a mesh of a connection portion in order to smoothly connect 3D models.

山田英史、外2名、「局所的詳細化に基づく細分割曲面接続手法」、芸術科学会、2000年11月Hidefumi Yamada, 2 others, “Subdivision Surface Connection Method Based on Local Refinement”, Art Science Society, November 2000

ところで、滑らかな曲面を得るために3Dモデルのメッシュを細分割した場合、3Dモデルによっては逆に不自然になってしまうという問題があった。例えば、人為的に製造・建造された人工物の3Dモデルの場合、その3Dモデルに対して細分割処理を行うと原形が失われ不自然な形状となってしまう。   By the way, when the mesh of the 3D model is subdivided to obtain a smooth curved surface, there is a problem that it becomes unnatural depending on the 3D model. For example, in the case of an artificially manufactured and built 3D model, if the subdivision process is performed on the 3D model, the original shape is lost and the shape becomes unnatural.

そこで、本発明は、上述した問題に鑑みてなされたものであって、自然な3Dモデルを生成する場合に好適な画像処理装置等を提供することを目的とする。   Accordingly, the present invention has been made in view of the above-described problems, and an object thereof is to provide an image processing apparatus and the like suitable for generating a natural 3D model.

上記目的を達成するため、この発明の画像処理装置は、
入力されたポリゴンから構成される三次元モデルを受け付ける受付手段と、
前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別する判別手段と、
前記判別手段の判別結果に応じて、前記三次元モデルに異なる処理を行う処理手段と、
を備えたことを特徴とする。
In order to achieve the above object, an image processing apparatus according to the present invention provides:
Accepting means for accepting a three-dimensional model composed of input polygons;
Discriminating means for discriminating whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact;
Processing means for performing different processing on the three-dimensional model according to the determination result of the determination means;
It is provided with.

上記目的を達成するため、この発明の画像処理方法は、
入力されたポリゴンから構成される三次元モデルを受け付ける受付ステップと、
前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別する判別ステップと、
前記判別ステップにおける判別結果に応じて、前記三次元モデルに異なる処理を行う処理ステップと、
を含むことを特徴とする。
In order to achieve the above object, an image processing method of the present invention comprises:
A reception step for receiving a three-dimensional model composed of the input polygons;
A determination step of determining whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact;
A processing step for performing different processing on the three-dimensional model according to the determination result in the determination step;
It is characterized by including.

上記目的を達成するため、この発明のプログラムは、
コンピュータを、
入力されたポリゴンから構成される三次元モデルを受け付ける受付手段、
前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別する判別手段、
前記判別手段の判別結果に応じて、前記三次元モデルに異なる処理を行う処理手段、
として機能させることを特徴とする。
In order to achieve the above object, the program of the present invention provides:
Computer
Accepting means for accepting a three-dimensional model composed of input polygons;
A discriminating means for discriminating whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact;
Processing means for performing different processing on the three-dimensional model according to the determination result of the determination means;
It is made to function as.

本発明によれば、自然な3Dモデルを生成することができる。   According to the present invention, a natural 3D model can be generated.

画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of an image processing apparatus. 入力された蟻(アリ)の3Dモデルの一例を示す図である。It is a figure which shows an example of the 3D model of the input ant (ant). 辞書テーブルの一例を示す図である。It is a figure which shows an example of a dictionary table. 細分割を1回行った後のアリの3Dモデルを示す図である。It is a figure which shows the 3D model of an ant after performing subdivision once. 細分割を2回行った後のアリの3Dモデルを示す図である。It is a figure which shows the 3D model of an ant after performing subdivision twice. バウンディングボックスの一例を示す図である。It is a figure which shows an example of a bounding box. 球面上に複数の視点が設定された球体を模式的に示す図である。It is a figure which shows typically the spherical body by which the several viewpoint was set on the spherical surface. 細分割処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a subdivision process. 入力されたスロットマシーンの3Dモデルの一例を示す図である。It is a figure which shows an example of the 3D model of the input slot machine. 細分割を1回行った後のスロットマシーンの3Dモデルを示す図である。It is a figure which shows the 3D model of the slot machine after performing subdivision once. 細分割を2回行った後のスロットマシーンの3Dモデルを示す図である。It is a figure which shows the 3D model of the slot machine after performing subdivision twice.

以下、この発明の実施形態を図面に基づいて説明する。
図1に示すように、画像処理装置100は、制御部110、表示部120及び記憶部130を備える。この画像処理装置100は、仮想三次元空間に配置される人、動物、構造物などの立体的な3Dモデルの画像処理を行う。
Embodiments of the present invention will be described below with reference to the drawings.
As illustrated in FIG. 1, the image processing apparatus 100 includes a control unit 110, a display unit 120, and a storage unit 130. The image processing apparatus 100 performs image processing of a three-dimensional 3D model such as a person, an animal, or a structure arranged in a virtual three-dimensional space.

制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などから構成される。制御部110のCPUは、ROMに記憶されている3Dモデルの画像処理用のプログラムを読み出して実行することにより、各機能(3Dモデル受付部111、情報取得部112、判別部113、細分割処理部114、バウンディングボックス設定部115、視点設定部116、視点受付部117、回転部118及び線画生成部119)を実現する。   The control unit 110 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU of the control unit 110 reads out and executes a 3D model image processing program stored in the ROM, thereby executing each function (3D model reception unit 111, information acquisition unit 112, determination unit 113, subdivision processing). Unit 114, bounding box setting unit 115, viewpoint setting unit 116, viewpoint reception unit 117, rotation unit 118, and line drawing generation unit 119).

表示部120は、液晶や有機EL(Electroluminescence)などのディスプレイとそのディスプレイを均一に光らせるバックライトなどの光源から構成される。表示部120は、3Dモデルを表示する表示画面(スクリーン)121を備える。
記憶部130は、HDD(Hard Disk Drive)などの不揮発性メモリである。この記憶部130は、辞書テーブル131と視点データ記憶部132とを備える。これらについては後述する。
The display unit 120 includes a display such as liquid crystal or organic EL (Electroluminescence), and a light source such as a backlight that uniformly illuminates the display. The display unit 120 includes a display screen (screen) 121 that displays a 3D model.
The storage unit 130 is a nonvolatile memory such as an HDD (Hard Disk Drive). The storage unit 130 includes a dictionary table 131 and a viewpoint data storage unit 132. These will be described later.

次に、制御部110の各機能について説明する。
3Dモデル受付部111は、入力された3Dモデルを受け付ける。具体的には、3Dモデル受付部111は、CAD(Computer Aided Design)などの3Dモデリング機能を備えたソフトウェアにより制作された、ポリゴンで構成される3Dモデルを受け付ける。
Next, each function of the control unit 110 will be described.
The 3D model reception unit 111 receives the input 3D model. Specifically, the 3D model reception unit 111 receives a 3D model composed of polygons created by software having a 3D modeling function such as CAD (Computer Aided Design).

この3Dモデルは、ユーザが線画を生成するための素材として入力するものである。この3Dモデルの入力の仕方は任意である。例えば、画像処理装置100外からネットワークを介して入力してもいいし、画像処理装置100内で制作され予め記憶部130に記憶しておいた3Dモデルを入力してもいい。なお、3Dモデル受付部111は、受付手段に相当する。   This 3D model is input by the user as a material for generating a line drawing. The method of inputting the 3D model is arbitrary. For example, it may be input from outside the image processing apparatus 100 via a network, or a 3D model produced in the image processing apparatus 100 and stored in the storage unit 130 in advance may be input. The 3D model receiving unit 111 corresponds to a receiving unit.

図2に、入力された3Dモデルの一例を示す。図中に示すように、仮想三次元空間においては、X軸、Y軸及びZ軸が互いに直角に交差して、幅と高さと奥行きを持つワールド座標系を持つ。なお、以下の説明においては、入力された蟻(アリ)の3Dモデル10を適宜例にとって説明し、上位概念としての一般的な3Dモデルとは区別して説明する。また、図中のアリの3Dモデル10は天地が一致しているが、天地が一致していない場合(例えば、アリが逆さまになって天地が逆転している場合)、天地補正を行って天地を一致させておく。   FIG. 2 shows an example of the input 3D model. As shown in the figure, the virtual three-dimensional space has a world coordinate system having a width, a height, and a depth by intersecting the X axis, the Y axis, and the Z axis at right angles. In the following description, the input ant 3D model 10 will be described as an example, and will be described separately from a general 3D model as a superordinate concept. Also, in the ant 3D model 10 in the figure, the top and bottom are the same, but the top and bottom are not the same (for example, when the ant is turned upside down and the top and bottom are reversed), the top and bottom are corrected. Keep them consistent.

図1に戻って、情報取得部112は、3Dモデルに付帯する付帯情報を取得する。この付帯情報は、この実施形態においては、3Dモデルの名称を示す名称情報である。図2に示すアリの3Dモデル10の場合、名称情報が示す名称はアリとなる。
なお、ユーザは、3Dモデルの入力時に付帯情報をあわせて入力してもいいし、3Dモデルの制作時に付帯情報を入力しておいてもよい。要は、入力された3Dモデルに対応付けられた付帯情報(この実施形態では名称情報)があればよい。なお、情報取得部112は、情報取得手段に相当する。
Returning to FIG. 1, the information acquisition unit 112 acquires incidental information attached to the 3D model. This supplementary information is name information indicating the name of the 3D model in this embodiment. In the case of the ant 3D model 10 illustrated in FIG. 2, the name indicated by the name information is an ant.
In addition, the user may input incidental information together when inputting the 3D model, or may input incidental information when creating the 3D model. In short, there may be incidental information (name information in this embodiment) associated with the input 3D model. The information acquisition unit 112 corresponds to an information acquisition unit.

次に、判別部113は、3Dモデルが自然物の3Dモデルか、人工物の3Dモデルか、を判別する。具体的には、判別部113は、名称情報が示す名称が自然物の名称か又は人工物の名称かを示す辞書テーブル131に基づいて、受け付けた3Dモデルが自然物の3Dモデルか、人工物の3Dモデルか、を判別する。   Next, the determination unit 113 determines whether the 3D model is a natural 3D model or an artificial 3D model. Specifically, the determination unit 113 determines whether the received 3D model is a natural object 3D model or an artificial object 3D based on a dictionary table 131 indicating whether the name indicated by the name information is a natural object name or an artificial object name. Determine whether it is a model.

ここで、辞書テーブル131は、図3に示すように、名称と属性とを対応付けたテーブルである。属性は、対応付けられた名称が人為的に製造・建造された人工物か、又は非人工物である自然物か、を示す。
例えば、アリの3Dモデル10の場合、名称情報が示す名称はアリなので、判別部113は、辞書テーブル131を参照してアリの3Dモデルは自然物の3Dモデルと判別する。なお、判別部113は、判別手段に相当する。
Here, the dictionary table 131 is a table in which names and attributes are associated with each other as shown in FIG. The attribute indicates whether an associated name is an artificially manufactured or constructed artificial object or a non-artificial natural object.
For example, in the case of the ant 3D model 10, the name indicated by the name information is ant, and therefore the determination unit 113 refers to the dictionary table 131 to determine that the ant 3D model is a natural 3D model. Note that the determination unit 113 corresponds to a determination unit.

図1に戻って、細分割処理部114は、判別部113の判別結果に応じて、3Dモデルに異なる処理を行う。具体的には、細分割処理部114は、判別部113により、3Dモデルが自然物の3Dモデルであると判別した場合その自然物の3Dモデルに所定の処理を行う。一方で、3Dモデルが人工物の3Dモデルであると判別した場合その人工物の3Dモデルには所定の処理を行わない。
例えば、細分割処理部114は、判別部113により自然物の3Dモデルと判別されたアリの3Dモデル10には所定の処理を行う。
Returning to FIG. 1, the subdivision processing unit 114 performs different processing on the 3D model according to the determination result of the determination unit 113. Specifically, when the determination unit 113 determines that the 3D model is a 3D model of a natural object, the subdivision processing unit 114 performs predetermined processing on the 3D model of the natural object. On the other hand, when it is determined that the 3D model is a 3D model of an artifact, predetermined processing is not performed on the 3D model of the artifact.
For example, the subdivision processing unit 114 performs predetermined processing on the ant 3D model 10 that is determined as a natural 3D model by the determination unit 113.

ここで、所定の処理とは、3Dモデルを構成するポリゴンの集合であるメッシュを、所定回数細分割して、そのポリゴンの面を平面から曲面にする処理である。換言すると、3Dモデルの形状における角を丸くする処理である。
この実施形態において、細分割処理部114は、アリの3Dモデル10のメッシュを2回細分割する。1回目の細分割を行った後のアリの3Dモデル10を図4に、2回目の細分割を行った後のアリの3Dモデル10を図5に、それぞれ示す。図中から細分割の都度、アリの3Dモデル10の角が丸くなっていくのが分かる。なお、細分割処理部114は、処理手段に相当する。
Here, the predetermined process is a process of subdividing a mesh, which is a set of polygons constituting the 3D model, a predetermined number of times to change the surface of the polygon from a plane to a curved surface. In other words, it is a process of rounding corners in the shape of the 3D model.
In this embodiment, the subdivision processing unit 114 subdivides the mesh of the ant 3D model 10 twice. FIG. 4 shows the ant 3D model 10 after the first subdivision, and FIG. 5 shows the ant 3D model 10 after the second subdivision, respectively. From the figure, it can be seen that the corner of the 3D model 10 of the ant is rounded with each subdivision. The subdivision processing unit 114 corresponds to a processing unit.

図1に戻って、バウンディングボックス設定部115は、視点(ビューポイント)の設定とスケールの正規化のために、3Dモデルに対して、その3Dモデルを取り囲むバウンディングボックスを設定する。図6の例では、2回細分割した後のアリの3Dモデル10を取り囲むバウンディングボックス20が破線で示される。   Returning to FIG. 1, the bounding box setting unit 115 sets a bounding box surrounding the 3D model for the 3D model in order to set the viewpoint (viewpoint) and normalize the scale. In the example of FIG. 6, the bounding box 20 surrounding the ant 3D model 10 after being subdivided twice is indicated by a broken line.

次に、視点設定部116は、バウンディングボックス20に基づいて球体を生成し、その球体の面上に複数の視点を設定する。具体的には、視点設定部116は、まず、バウンディングボックス20の2つの対角線の交点を球体の中心とし、対角線長を球体の直径とする球体を生成する。これにより、まず、アリの3Dモデル10を取り囲む球体を生成する。なお、直径は、ユーザの所望するスケールに応じて、対角線長に係数を乗じたものを用いてもよい。   Next, the viewpoint setting unit 116 generates a sphere based on the bounding box 20 and sets a plurality of viewpoints on the surface of the sphere. Specifically, the viewpoint setting unit 116 first generates a sphere having the intersection of two diagonal lines of the bounding box 20 as the center of the sphere and the diagonal length as the diameter of the sphere. Thus, first, a sphere surrounding the ant 3D model 10 is generated. The diameter may be obtained by multiplying the diagonal length by a coefficient according to the scale desired by the user.

次に、視点設定部116は、視点データ記憶部132に記憶される複数の視点それぞれの位置情報に基づいて、球面上に複数の視点を設定する。位置情報は、球面上における視点の位置の情報であって、ユーザが予め登録したものである。視点設定部116は、この位置情報に基づいて、生成した球体に視点を配置していき、図7に模式的に示すような、等間隔の視点が球面上に複数設定された球体30を得る。   Next, the viewpoint setting unit 116 sets a plurality of viewpoints on the spherical surface based on the position information of each of the plurality of viewpoints stored in the viewpoint data storage unit 132. The position information is information on the position of the viewpoint on the spherical surface, and is registered in advance by the user. The viewpoint setting unit 116 arranges viewpoints on the generated sphere based on this position information, and obtains a sphere 30 in which a plurality of equally spaced viewpoints are set on a spherical surface as schematically shown in FIG. .

これにより、受け付けたアリの3Dモデル10の大きさに応じた球体30の面上に複数の視点が設定され、複数の視点それぞれの座標が定まる。なお、以下では、アリの3Dモデル10を取り囲むバウンディングボックス20と、アリの3Dモデル10に基づいて生成された球体30と、を上位概念としてのバウンディングボックスと球体とは区別して説明する。   Thereby, a plurality of viewpoints are set on the surface of the sphere 30 corresponding to the size of the received ant 3D model 10, and the coordinates of each of the plurality of viewpoints are determined. Hereinafter, the bounding box 20 surrounding the ant 3D model 10 and the sphere 30 generated based on the ant 3D model 10 will be described separately from the bounding box and the sphere as a superordinate concept.

以上、球面上に複数の視点を設定するところまでが、3Dモデルから線画を生成するにあたって必要となる前処理である。以下では、この前処理を前提として、3Dモデルから線画を生成するまでの流れについて説明する。   As described above, the process up to setting a plurality of viewpoints on the spherical surface is the preprocessing necessary for generating a line drawing from the 3D model. Below, on the premise of this pre-processing, a flow from generation of a line drawing from a 3D model will be described.

図1に戻って、視点受付部117は、ユーザにより指定された線画生成のためのターゲットとなる視点(ターゲットビューポイント)を受け付ける。具体的には、視点受付部117は、アリの3Dモデル10を取り囲む球体30上の複数の視点のうちから、指定されたターゲットとなる視点を受け付ける。
ユーザによる視点の指定は、任意の手法で行われる。例えば、ユーザがマウスなどにより指定したい視点を選択してもいいし、キーボードを用いて指定したい視点の座標を直接入力してもいい。
Returning to FIG. 1, the viewpoint reception unit 117 receives a viewpoint (target viewpoint) that is a target for generating a line drawing specified by the user. Specifically, the viewpoint reception unit 117 receives a viewpoint as a designated target from among a plurality of viewpoints on the sphere 30 surrounding the ant 3D model 10.
Designation of the viewpoint by the user is performed by an arbitrary method. For example, the user may select a viewpoint to be specified with a mouse or the like, or the coordinates of the viewpoint to be specified may be directly input using a keyboard.

また、ユーザが指定する視点の数は、複数でもよい。また、所望する線画の視点が前処理の段階から決まっているならば、ユーザは、複数の視点(例えば、100個の視点)を予め指定しておいてもよい。この指定は、例えば、ユーザが視点の位置情報を視点データ記憶部132に登録する際にあわせて行うことができる。   The number of viewpoints specified by the user may be plural. In addition, if the viewpoints of the desired line drawing are determined from the preprocessing stage, the user may designate a plurality of viewpoints (for example, 100 viewpoints) in advance. This designation can be performed, for example, when the user registers the position information of the viewpoint in the viewpoint data storage unit 132.

次に、回転部118は、ターゲットとなる視点を受け付けると、3Dモデルの天地を維持しながらその3Dモデルを回転させて、受け付けた視点を表示画面121の中央に移動させる。   Next, when receiving the target viewpoint, the rotation unit 118 rotates the 3D model while maintaining the top and bottom of the 3D model, and moves the received viewpoint to the center of the display screen 121.

次に、線画生成部119は、表示画面121の中央にある視点から見た3Dモデルに基づいて、その3Dモデルの線画を生成する。線画は、線だけで描画した2次元の画像であって、3Dモデルに基づいて、任意の手法により生成される。例えば、線画生成部119は、3Dモデルのエッジを抽出してトレースすることにより線画を生成する。
なお、ターゲットとなる視点が複数ある場合、その複数の視点毎の線画を生成する。これにより、複数の視点から見たアリの3Dモデル10の線画が得られる。
Next, the line drawing generation unit 119 generates a line drawing of the 3D model based on the 3D model viewed from the viewpoint at the center of the display screen 121. The line drawing is a two-dimensional image drawn with only lines, and is generated by an arbitrary method based on the 3D model. For example, the line drawing generation unit 119 generates a line drawing by extracting and tracing the edge of the 3D model.
When there are a plurality of target viewpoints, a line drawing is generated for each of the plurality of viewpoints. Thereby, the line drawing of the 3D model 10 of the ant seen from the several viewpoint is obtained.

以上、図1乃至図7を参照しながら説明した、3Dモデルの受け付けから線画を生成するまでの流れにおいて、1つの特徴は、受け付けた3Dモデルの属性(自然物/人工物)に応じて行う細分割処理である。そこで、以下この細分割処理について、図8のフローチャートを参照しながら説明する。画像処理装置100は、3Dモデルを受け付けるまで待機しておき(ステップS11;No)、3Dモデル受付部111が3Dモデルを受け付けると(ステップS11;Yes)、以下の処理を順に行う。   As described above, in the flow from reception of a 3D model to generation of a line drawing described with reference to FIGS. 1 to 7, one feature is a detail performed according to the attribute (natural object / artificial object) of the received 3D model. This is a division process. Therefore, the subdivision processing will be described below with reference to the flowchart of FIG. The image processing apparatus 100 stands by until a 3D model is received (step S11; No). When the 3D model reception unit 111 receives a 3D model (step S11; Yes), the following processing is performed in order.

判別部113は、受け付けた3Dモデルは自然物の3Dモデルか否か判別する(ステップS12)。具体的には、判別部113は、情報取得部112により取得した名称情報が示す名称と対応付けられた属性を、辞書テーブル131を参照して特定して、自然物の3Dモデルか否か判別する。   The determination unit 113 determines whether the received 3D model is a 3D model of a natural object (step S12). Specifically, the determination unit 113 specifies an attribute associated with the name indicated by the name information acquired by the information acquisition unit 112 with reference to the dictionary table 131, and determines whether the attribute is a 3D model of a natural object. .

ここで、受け付けた3Dモデルが自然物の3Dモデルの場合(ステップS12;Yes)、細分割処理部114は、その3Dモデルに細分割を2回実行して(ステップS13)、処理を終了する。例えば、受け付けた3Dモデルが自然物であるアリの3Dモデル10の場合、細分割処理部114は、アリの3Dモデル10のメッシュの細分割を2回実行する(図4、図5参照)。   Here, when the received 3D model is a natural 3D model (step S12; Yes), the subdivision processing unit 114 executes subdivision twice on the 3D model (step S13), and ends the process. For example, when the received 3D model is an ant 3D model 10 that is a natural object, the subdivision processing unit 114 executes subdivision of the mesh of the ant 3D model 10 twice (see FIGS. 4 and 5).

一方で、受け付けた3Dモデルが自然物の3Dモデルではない場合(ステップS12;No)、すなわち3Dモデルが人工物の3Dモデルの場合、その人工物の3Dモデルに対して細分割を実行せずに処理を終了する。   On the other hand, when the received 3D model is not a natural 3D model (step S12; No), that is, when the 3D model is a 3D model of an artifact, the subdivision is not performed on the 3D model of the artifact. The process ends.

ここで、受け付けた3Dモデルが図9に示すスロットマシーンの3Dモデル11だった場合を例にとって説明する。判別部113は、名称情報が示す名称スロットマシーンと対応付けられた属性を、辞書テーブル131を参照して人工物と特定し、自然物ではないと判別する(ステップS12;No)。すると、細分割処理部114は、このスロットマシーンの3Dモデル11のメッシュには細分割を行わずに処理を終了する。   Here, the case where the received 3D model is the 3D model 11 of the slot machine shown in FIG. 9 will be described as an example. The determination unit 113 identifies the attribute associated with the name slot machine indicated by the name information as an artificial object with reference to the dictionary table 131, and determines that the attribute is not a natural object (step S12; No). Then, the subdivision processing unit 114 ends the process without performing subdivision on the mesh of the 3D model 11 of the slot machine.

ここで、この実施形態の細分割処理に依らずに、図9に示したスロットマシーンの3Dモデル11のメッシュを細分割した場合の比較例を図10及び図11を参照しながら説明する。図10は細分割を1回行った後のスロットマシーン11の3Dモデルを、図11は細分割を2回行った後のスロットマシーン11の3Dモデルを、それぞれ示す図である。これら比較例から明らかなように、人工物の3Dモデルに細分割を繰り返した場合、原形が失われ不自然な形状となってしまう。   Here, a comparative example when the mesh of the 3D model 11 of the slot machine shown in FIG. 9 is subdivided without depending on the subdivision processing of this embodiment will be described with reference to FIGS. FIG. 10 is a diagram showing a 3D model of the slot machine 11 after the subdivision is performed once, and FIG. 11 is a diagram showing a 3D model of the slot machine 11 after the subdivision is performed twice. As is clear from these comparative examples, when subdivision is repeated for a 3D model of an artifact, the original shape is lost and the shape becomes unnatural.

以上の比較例を踏まえて、この実施形態においては、画像処理装置100が判別部113と細分割処理部114とを備えたことにより、受け付けた3Dモデルが自然物の3Dモデルか、人工物の3Dモデルか、を判別し、自然物の3Dモデルの場合のみメッシュの細分割を行うようにしている。   Based on the comparative example described above, in this embodiment, the image processing apparatus 100 includes the determination unit 113 and the subdivision processing unit 114, so that the received 3D model is a natural 3D model or an artificial 3D model. The model is discriminated, and mesh subdivision is performed only in the case of a 3D model of a natural object.

このため、自然物の3Dモデルに対してはメッシュの細分割により、滑らかな曲面が得られるので、より自然な3Dモデルを生成することができる。また、人工物の3Dモデルの場合にはメッシュの細分割を行わないので、受け付けた人工物の3Dモデルを自然な形状のままにすることができる。したがって、自然物・人工物何れの場合も自然な3Dモデルにすることができる。   For this reason, since a smooth curved surface can be obtained by subdividing the mesh for a natural 3D model, a more natural 3D model can be generated. Further, since the mesh is not subdivided in the case of the 3D model of the artifact, the accepted 3D model of the artifact can be left in a natural shape. Therefore, a natural 3D model can be obtained for both natural and artificial objects.

また、この画像処理装置100によれば、自然な3Dモデルに基づいて生成した線画(自然物であれば曲線が多い線画、人工物であれば直線が多い線画)をデータベース化しておくことができる。このため、後でユーザがこのデータベースに対して、自身がスケッチした線画や撮った写真などをクエリとして検索をかける場合に、線画検索の精度を向上することができる。スケッチや写真では、自然物であれば曲線が多く、人工物であれば直線が多いのが通常だからである。   Further, according to the image processing apparatus 100, a line drawing generated based on a natural 3D model (a line drawing with many curves for a natural object and a line drawing with many straight lines for an artifact) can be stored in a database. Therefore, the accuracy of line drawing search can be improved when the user later searches the database using a line drawing sketched or a photograph taken by the user as a query. This is because sketches and photographs usually have many curves for natural objects and many straight lines for artifacts.

以上で実施形態の説明を終了するが、画像処理装置100の具体的な構成や図8に示した細分割処理の内容が上述の実施形態で説明したものに限られないことはもちろんである。   Although the description of the embodiment has been completed, the specific configuration of the image processing apparatus 100 and the details of the subdivision processing illustrated in FIG. 8 are not limited to those described in the above embodiment.

(変形例)
上述した実施形態において判別部113は、受け付けた3Dモデルが自然物か人工物かを判別するために、その3Dモデルの付帯情報である名称情報を用いたが、これに限られない。例えば、付帯情報を3Dモデルが自然物の3Dモデルか、人工物の3Dモデルか、を示すラベル情報にすることができる。これにより、判別部113は、このラベル情報に基づいて、自然物か人工物かの判別をすることができる。このため、辞書テーブル131などを参照しなくてすむので画像処理装置100の処理負荷を軽減することができる。
(Modification)
In the embodiment described above, the determination unit 113 uses the name information that is incidental information of the 3D model in order to determine whether the received 3D model is a natural object or an artificial object, but is not limited thereto. For example, the incidental information can be label information indicating whether the 3D model is a natural 3D model or an artificial 3D model. Thereby, the discrimination | determination part 113 can discriminate | determine whether it is a natural thing or an artifact based on this label information. For this reason, it is not necessary to refer to the dictionary table 131 and the like, so that the processing load of the image processing apparatus 100 can be reduced.

また、判別部113は、付帯情報に依らずに、受け付けた3Dモデルを構成する線分情報に基づいて、自然物か人工物かの判別をしてもよい。例えば、判別部113は、直線同士で直交する角が多ければ人工物と判別してもいいし、予め人工物・自然物に見られる特徴的な線分情報をデータベース化しておき、それとのマッチングにより自然物か人工物かの判別をしてもよい。   Further, the determination unit 113 may determine whether the object is a natural object or an artificial object based on the line segment information constituting the received 3D model without depending on the incidental information. For example, the discriminating unit 113 may discriminate an artificial object as long as there are many orthogonal angles between straight lines, or a database of characteristic line segment information found in an artificial object / natural object in advance, and matching with it. It may be determined whether the object is a natural object or an artificial object.

また、上述した実施形態において細分割処理部114は、2回細分割を実行するようにしたが、これに限られない。例えば、自然物に含まれるグループ(植物や動物など)に応じて最適回数があるならば、そのグループ毎に異なる最適回数だけ細分割を行うとよい。   In the above-described embodiment, the subdivision processing unit 114 performs subdivision twice. However, the present invention is not limited to this. For example, if there is an optimum number of times according to a group (plants, animals, etc.) included in a natural object, it is good to perform subdivision for a different optimum number for each group.

また、細分割処理部114は、メッシュの細分割以外に3Dモデルの面上に生じた凹凸を平滑化する平滑化処理をあわせて行ってもよい。例えば、この平滑化処理を図8に示した細分割処理において3Dモデルを受け付けた後に行うことができる。これにより、3Dモデルのノイズを除去することができるので、ポリゴンの数を増やすことなくより自然な3Dモデルを得ることができる。   Further, the subdivision processing unit 114 may perform a smoothing process for smoothing the unevenness generated on the surface of the 3D model in addition to the subdivision of the mesh. For example, this smoothing process can be performed after receiving a 3D model in the subdivision process shown in FIG. Thereby, since the noise of the 3D model can be removed, a more natural 3D model can be obtained without increasing the number of polygons.

また、上述した画像処理装置100は、3Dモデルの画像処理を行う様々な装置に適用することができる。例えば、PC(Personal Computer)に適用することができる。なお、PCに限らず、表示画面121を備えた装置であれば、例えば、カメラや複合プリンタなどにも適用することができる。複合プリンタの記憶部に視点の異なる複数の線画をデータベース化しておけば、スキャナなどの読取手段でユーザがスケッチした紙を読み取って、その読み取ったスケッチにマッチする線画をデータベースから検索することができる。   Further, the above-described image processing apparatus 100 can be applied to various apparatuses that perform 3D model image processing. For example, the present invention can be applied to a PC (Personal Computer). Note that the present invention is not limited to a PC, and any apparatus having a display screen 121 can be applied to, for example, a camera or a composite printer. If a plurality of line drawings with different viewpoints are stored in a database in the storage unit of the composite printer, it is possible to read the paper sketched by the user with a reading unit such as a scanner and search the database for line drawings that match the read sketch. .

また、この発明の画像処理装置100の各機能は、通常のPC等のコンピュータによっても実施することができる。
具体的には、上記実施形態では、3Dモデルの画像処理用のプログラムが、制御部110のROMに予め記憶されているものとして説明した。しかし、図1の各部の機能を実現させるためのプログラムを、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)及びMO(Magneto-Optical Disc)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータにインストールすることにより、上述の各部の機能を実現することができるコンピュータを構成してもよい。
また、プログラムをインターネット等の通信ネットワーク上のサーバ装置が有するディスク装置等に格納しておき、例えば、コンピュータがダウンロード等をすることができるようにしてもよい。
Each function of the image processing apparatus 100 of the present invention can also be implemented by a computer such as a normal PC.
Specifically, in the above-described embodiment, the 3D model image processing program has been described as being stored in advance in the ROM of the control unit 110. However, the programs for realizing the functions of the respective units in FIG. 1 can be read by a computer such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), a DVD (Digital Versatile Disc), and an MO (Magneto-Optical Disc). You may comprise the computer which can implement | achieve the function of each above-mentioned part by storing in a recording medium, distributing, and installing the program in a computer.
Further, the program may be stored in a disk device or the like of a server device on a communication network such as the Internet so that, for example, a computer can download it.

以上、本発明の実施形態について説明したが、この実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態をとることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、特許請求の範囲に記載された発明とその均等の範囲とに含まれる。以下に、本願出願当初の特許請求の範囲に記載された発明を付記する。   As mentioned above, although embodiment of this invention was described, this embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take various other embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the invention described in the claims and the equivalent scope thereof. The invention described in the scope of claims at the beginning of the present application will be appended.

(付記1)
入力されたポリゴンから構成される三次元モデルを受け付ける受付手段と、
前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別する判別手段と、
前記判別手段の判別結果に応じて、前記三次元モデルに異なる処理を行う処理手段と、
を備えたことを特徴とする画像処理装置。
(Appendix 1)
Accepting means for accepting a three-dimensional model composed of input polygons;
Discriminating means for discriminating whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact;
Processing means for performing different processing on the three-dimensional model according to the determination result of the determination means;
An image processing apparatus comprising:

(付記2)
前記処理手段は、前記判別手段により、前記三次元モデルが自然物の三次元モデルであると判別した場合当該自然物の三次元モデルに所定の処理を行い、前記三次元モデルが人工物の三次元モデルであると判別した場合当該人工物の三次元モデルに前記所定の処理を行わない、ことを特徴とする付記1に記載の画像処理装置。
(Appendix 2)
When the determining means determines that the three-dimensional model is a three-dimensional model of a natural object, the processing means performs a predetermined process on the three-dimensional model of the natural object, and the three-dimensional model becomes a three-dimensional model of an artifact. The image processing apparatus according to appendix 1, wherein the predetermined processing is not performed on the three-dimensional model of the artifact when it is determined that

(付記3)
前記所定の処理は、前記自然物の三次元モデルを構成するポリゴンの面を曲面にする処理であることを特徴とする付記2に記載の画像処理装置。
(Appendix 3)
The image processing apparatus according to appendix 2, wherein the predetermined process is a process of making a surface of a polygon constituting the three-dimensional model of the natural object a curved surface.

(付記4)
前記曲面にする処理は、前記自然物の三次元モデルのメッシュを、所定回数細分割することで行われることを特徴とする付記3に記載の画像処理装置。
(Appendix 4)
The image processing apparatus according to appendix 3, wherein the process of making the curved surface is performed by subdividing a mesh of the three-dimensional model of the natural object a predetermined number of times.

(付記5)
前記三次元モデルに付帯する付帯情報を取得する情報取得手段を備え、
前記判別手段は、前記情報取得手段により取得した前記付帯情報に基づいて、前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別することを特徴とする付記1乃至4の何れか一つに記載の画像処理装置。
(Appendix 5)
Comprising information acquisition means for acquiring incidental information incidental to the three-dimensional model,
The discriminating means discriminates whether the three-dimensional model is a natural three-dimensional model or an artificial three-dimensional model based on the incidental information acquired by the information acquiring means. 5. The image processing device according to any one of 4.

(付記6)
前記付帯情報は、前記三次元モデルの名称を示す名称情報であり、
前記判別手段は、前記名称情報が示す名称が自然物の名称か又は人工物の名称かを示す辞書情報に基づいて、前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別することを特徴とする付記5に記載の画像処理装置。
(Appendix 6)
The incidental information is name information indicating the name of the three-dimensional model,
Based on the dictionary information indicating whether the name indicated by the name information is the name of a natural object or the name of an artifact, whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact, The image processing apparatus according to appendix 5, characterized in that

(付記7)
前記付帯情報は、前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を示すラベル情報であり、
前記判別手段は、前記ラベル情報に基づいて、前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別することを特徴とする付記5に記載の画像処理装置。
(Appendix 7)
The incidental information is label information indicating whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact.
6. The image processing apparatus according to appendix 5, wherein the determination unit determines whether the three-dimensional model is a natural three-dimensional model or an artificial three-dimensional model based on the label information.

(付記8)
前記判別手段は、前記三次元モデルを構成する線分情報に基づいて、当該三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別することを特徴とする付記1乃至4の何れか一つに記載の画像処理装置。
(Appendix 8)
The discriminating means discriminates whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact based on line segment information constituting the three-dimensional model. 5. The image processing device according to any one of 4.

(付記9)
前記受付手段が受け付けた前記三次元モデルを構成するポリゴンの面上の凹凸を平滑化する、
ことを特徴とする付記1乃至8の何れか一つに記載の画像処理装置。
(Appendix 9)
Smoothing irregularities on the surface of the polygon constituting the three-dimensional model received by the receiving means;
The image processing apparatus according to any one of appendices 1 to 8, characterized in that:

(付記10)
入力されたポリゴンから構成される三次元モデルを受け付ける受付ステップと、
前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別する判別ステップと、
前記判別ステップにおける判別結果に応じて、前記三次元モデルに異なる処理を行う処理ステップと、
を含むことを特徴とする画像処理方法。
(Appendix 10)
A reception step for receiving a three-dimensional model composed of the input polygons;
A determination step of determining whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact;
A processing step for performing different processing on the three-dimensional model according to the determination result in the determination step;
An image processing method comprising:

(付記11)
コンピュータを、
入力されたポリゴンから構成される三次元モデルを受け付ける受付手段、
前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別する判別手段、
前記判別手段の判別結果に応じて、前記三次元モデルに異なる処理を行う処理手段、
として機能させるためのプログラム。
(Appendix 11)
Computer
Accepting means for accepting a three-dimensional model composed of input polygons;
A discriminating means for discriminating whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact;
Processing means for performing different processing on the three-dimensional model according to the determination result of the determination means;
Program to function as.

10…蟻(アリ)の3Dモデル、11…スロットマシーンの3Dモデル、20…バウンディングボックス、30…球体、100…画像処理装置、110…制御部、111…3Dモデル受付部、112…情報取得部、113…判別部、114…細分割処理部、115…バウンディングボックス設定部、116…視点設定部、117…視点受付部、118…回転部、119…線画生成部、120…表示部、121…表示画面、130…記憶部、131…辞書テーブル、132…視点データ記憶部 DESCRIPTION OF SYMBOLS 10 ... 3D model of an ant (11), 11 ... 3D model of a slot machine, 20 ... Bounding box, 30 ... Sphere, 100 ... Image processing apparatus, 110 ... Control part, 111 ... 3D model reception part, 112 ... Information acquisition part , 113: discriminating unit, 114: subdivision processing unit, 115 ... bounding box setting unit, 116 ... viewpoint setting unit, 117 ... viewpoint accepting unit, 118 ... rotation unit, 119 ... line drawing generation unit, 120 ... display unit, 121 ... Display screen, 130 ... storage unit, 131 ... dictionary table, 132 ... viewpoint data storage unit

Claims (11)

入力されたポリゴンから構成される三次元モデルを受け付ける受付手段と、
前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別する判別手段と、
前記判別手段の判別結果に応じて、前記三次元モデルに異なる処理を行う処理手段と、
を備えたことを特徴とする画像処理装置。
Accepting means for accepting a three-dimensional model composed of input polygons;
Discriminating means for discriminating whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact;
Processing means for performing different processing on the three-dimensional model according to the determination result of the determination means;
An image processing apparatus comprising:
前記処理手段は、前記判別手段により、前記三次元モデルが自然物の三次元モデルであると判別した場合当該自然物の三次元モデルに所定の処理を行い、前記三次元モデルが人工物の三次元モデルであると判別した場合当該人工物の三次元モデルに前記所定の処理を行わない、ことを特徴とする請求項1に記載の画像処理装置。   When the determining means determines that the three-dimensional model is a three-dimensional model of a natural object, the processing means performs a predetermined process on the three-dimensional model of the natural object, and the three-dimensional model becomes a three-dimensional model of an artifact. 2. The image processing apparatus according to claim 1, wherein the predetermined processing is not performed on the three-dimensional model of the artifact when it is determined that 前記所定の処理は、前記自然物の三次元モデルを構成するポリゴンの面を曲面にする処理であることを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the predetermined process is a process of making a surface of a polygon constituting the three-dimensional model of the natural object a curved surface. 前記曲面にする処理は、前記自然物の三次元モデルのメッシュを、所定回数細分割することで行われることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the process of making the curved surface is performed by subdividing a mesh of the three-dimensional model of the natural object a predetermined number of times. 前記三次元モデルに付帯する付帯情報を取得する情報取得手段を備え、
前記判別手段は、前記情報取得手段により取得した前記付帯情報に基づいて、前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別することを特徴とする請求項1乃至4の何れか一項に記載の画像処理装置。
Comprising information acquisition means for acquiring incidental information incidental to the three-dimensional model;
2. The discriminating unit discriminates whether the three-dimensional model is a natural three-dimensional model or an artificial three-dimensional model based on the incidental information acquired by the information acquiring unit. 5. The image processing device according to any one of items 4 to 4.
前記付帯情報は、前記三次元モデルの名称を示す名称情報であり、
前記判別手段は、前記名称情報が示す名称が自然物の名称か又は人工物の名称かを示す辞書情報に基づいて、前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別することを特徴とする請求項5に記載の画像処理装置。
The incidental information is name information indicating the name of the three-dimensional model,
Based on the dictionary information indicating whether the name indicated by the name information is the name of a natural object or the name of an artifact, whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact, The image processing apparatus according to claim 5, wherein:
前記付帯情報は、前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を示すラベル情報であり、
前記判別手段は、前記ラベル情報に基づいて、前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別することを特徴とする請求項5に記載の画像処理装置。
The incidental information is label information indicating whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact.
The image processing apparatus according to claim 5, wherein the determination unit determines whether the three-dimensional model is a natural three-dimensional model or an artificial three-dimensional model based on the label information.
前記判別手段は、前記三次元モデルを構成する線分情報に基づいて、当該三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別することを特徴とする請求項1乃至4の何れか一項に記載の画像処理装置。   2. The discrimination means discriminates whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact based on line segment information constituting the three-dimensional model. 5. The image processing device according to any one of items 4 to 4. 前記受付手段が受け付けた前記三次元モデルを構成するポリゴンの面上の凹凸を平滑化する、
ことを特徴とする請求項1乃至8の何れか一項に記載の画像処理装置。
Smoothing irregularities on the surface of the polygon constituting the three-dimensional model received by the receiving means;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
入力されたポリゴンから構成される三次元モデルを受け付ける受付ステップと、
前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別する判別ステップと、
前記判別ステップにおける判別結果に応じて、前記三次元モデルに異なる処理を行う処理ステップと、
を含むことを特徴とする画像処理方法。
A reception step for receiving a three-dimensional model composed of the input polygons;
A determination step of determining whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact;
A processing step for performing different processing on the three-dimensional model according to the determination result in the determination step;
An image processing method comprising:
コンピュータを、
入力されたポリゴンから構成される三次元モデルを受け付ける受付手段、
前記三次元モデルが自然物の三次元モデルか、人工物の三次元モデルか、を判別する判別手段、
前記判別手段の判別結果に応じて、前記三次元モデルに異なる処理を行う処理手段、
として機能させるためのプログラム。
Computer
Accepting means for accepting a three-dimensional model composed of input polygons;
A discriminating means for discriminating whether the three-dimensional model is a three-dimensional model of a natural object or a three-dimensional model of an artifact;
Processing means for performing different processing on the three-dimensional model according to the determination result of the determination means;
Program to function as.
JP2014168571A 2014-08-21 2014-08-21 Image processing apparatus, image processing method, and program Active JP6421493B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014168571A JP6421493B2 (en) 2014-08-21 2014-08-21 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014168571A JP6421493B2 (en) 2014-08-21 2014-08-21 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2016045641A true JP2016045641A (en) 2016-04-04
JP6421493B2 JP6421493B2 (en) 2018-11-14

Family

ID=55636175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014168571A Active JP6421493B2 (en) 2014-08-21 2014-08-21 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6421493B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08329280A (en) * 1995-06-01 1996-12-13 Matsushita Electric Ind Co Ltd Image composition device
JP2009110073A (en) * 2007-10-26 2009-05-21 Toyota Motor Corp Design support device, design support method, and design support program
JP2012517652A (en) * 2009-02-13 2012-08-02 ハリス コーポレイション Fusion of 2D electro-optic images and 3D point cloud data for scene interpolation and registration performance evaluation
WO2013114557A1 (en) * 2012-01-31 2013-08-08 三菱電機株式会社 Map drawing device, navigation device and map drawing method
JP2014085836A (en) * 2012-10-24 2014-05-12 Geo Technical Laboratory Co Ltd Three dimensional natural planimetric feature drawing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08329280A (en) * 1995-06-01 1996-12-13 Matsushita Electric Ind Co Ltd Image composition device
JP2009110073A (en) * 2007-10-26 2009-05-21 Toyota Motor Corp Design support device, design support method, and design support program
JP2012517652A (en) * 2009-02-13 2012-08-02 ハリス コーポレイション Fusion of 2D electro-optic images and 3D point cloud data for scene interpolation and registration performance evaluation
WO2013114557A1 (en) * 2012-01-31 2013-08-08 三菱電機株式会社 Map drawing device, navigation device and map drawing method
JP2014085836A (en) * 2012-10-24 2014-05-12 Geo Technical Laboratory Co Ltd Three dimensional natural planimetric feature drawing system

Also Published As

Publication number Publication date
JP6421493B2 (en) 2018-11-14

Similar Documents

Publication Publication Date Title
KR102024078B1 (en) Slicing and/or texturing for three-dimensional printing
CN105678683B (en) A kind of two-dimensional storage method of threedimensional model
US8368714B2 (en) Curved surface rendering system and method
JP7343963B2 (en) Dataset for learning functions that take images as input
US9898860B2 (en) Method, apparatus and terminal for reconstructing three-dimensional object
US10262447B2 (en) Systems and methods for virtual entity animation
CN106997613B (en) 3D model generation from 2D images
CN108122277A (en) A kind of modeling method and device
TW201616449A (en) System and method for simplifying grids of point clouds
JP2011048586A (en) Image processing apparatus, image processing method and program
JP7294788B2 (en) Classification of 2D images according to the type of 3D placement
Inui et al. Thickness and clearance visualization based on distance field of 3D objects
KR101853237B1 (en) 3D geometry denoising method and apparatus using deep learning
Comes et al. Methodology to create 3D models for augmented reality applications using scanned point clouds
EP2996086A1 (en) System, method and computer program product for automatic optimization of 3d textured models for network transfer and real-time rendering
Governi et al. Digital bas-relief design: A novel shape from shading-based method
Lai et al. A high-resolution texture mapping technique for 3D textured model
JP4948273B2 (en) Information processing method and information processing apparatus
KR20150081992A (en) Method for generating template of building component, method for generating primitive, and apparatus for modelling bulding component
KR20160068204A (en) Data processing method for mesh geometry and computer readable storage medium of recording the same
JP6421493B2 (en) Image processing apparatus, image processing method, and program
JP4425734B2 (en) How to provide a vector image with hidden lines removed
Naim et al. An algorithm for haptically rendering objects described by point clouds
US8659600B2 (en) Generating vector displacement maps using parameterized sculpted meshes
Phothong et al. Quality improvement of 3D models reconstructed from silhouettes of multiple images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181001

R150 Certificate of patent or registration of utility model

Ref document number: 6421493

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150