JP2019034487A - Image processing apparatus and image processing program - Google Patents
Image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP2019034487A JP2019034487A JP2017157748A JP2017157748A JP2019034487A JP 2019034487 A JP2019034487 A JP 2019034487A JP 2017157748 A JP2017157748 A JP 2017157748A JP 2017157748 A JP2017157748 A JP 2017157748A JP 2019034487 A JP2019034487 A JP 2019034487A
- Authority
- JP
- Japan
- Prior art keywords
- color
- edge detection
- voxel
- signal
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像処理装置及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program.
立体モデルの形状データに基づいて、断面形状を積層することにより3次元物体を造形する3次元造形装置が知られている。例えば、ステージ上に紫外線硬化型のインクを吐出させることによって断面形状を形成して積み重ねていくことにより3次元の形状を造形する光造形型3次元プリンタが知られている。このような3次元造形装置では、3次元物体の表面となる部分に色インクを吐出させることによって、形状のみならず色彩も反映させた3次元物体を形成することができる。 A three-dimensional modeling apparatus that models a three-dimensional object by stacking cross-sectional shapes based on shape data of a three-dimensional model is known. For example, an optical modeling type three-dimensional printer that forms a three-dimensional shape by forming and stacking cross-sectional shapes by discharging ultraviolet curable ink on a stage is known. In such a three-dimensional modeling apparatus, it is possible to form a three-dimensional object reflecting not only the shape but also the color by ejecting color ink onto a portion that becomes the surface of the three-dimensional object.
特許文献1には、シアン(C)、マゼンダ(M)、イエロー(Y)、ホワイト(W)のトナーを用いて、透明シート上を白トナー層で全面を覆った後に彩色トナー層を形成することによって表面色の階調性と色調性を高めた3次元造形物の製造方法が開示されている。また、特許文献2には、立体造形粉体を造形液により固化させることで3次元造形物を形成する装置において、造形物の表面部に対応する表面画素集合体に誤差拡散処理を適用して造形データを作成することで造形物に生ずる色の縦筋を抑制した立体造形データ作成装置が開示されている。 In Patent Document 1, cyan (C), magenta (M), yellow (Y), and white (W) toners are used to form a color toner layer after covering the entire surface of a transparent sheet with a white toner layer. Thus, a method of manufacturing a three-dimensional structure with improved surface color gradation and color tone is disclosed. In Patent Document 2, an error diffusion process is applied to a surface pixel aggregate corresponding to a surface portion of a modeled object in an apparatus that forms a three-dimensional modeled object by solidifying a three-dimensional modeled powder with a modeling liquid. A three-dimensional modeling data creation device that suppresses vertical stripes of color generated in a modeled object by creating modeling data is disclosed.
ところで、3次元造形装置において3次元物体を造形する際に、物体表面にある文字や線等のエッジのぼけを改善して明確に再現したいという要望がある。2次元の画像に対しては、エッジ部分の画素とエッジ部分でない画素とで適用する画像処理を変えることでエッジを強調させる方法が開示されている。しかしながら、3次元物体の表面におけるエッジを適切に処理する方法は知られていない。 By the way, when modeling a three-dimensional object in a three-dimensional modeling apparatus, there is a desire to improve and clearly reproduce the blurring of edges such as characters and lines on the object surface. For a two-dimensional image, a method is disclosed in which an edge is emphasized by changing image processing applied between pixels in an edge portion and pixels that are not an edge portion. However, there is no known method for appropriately processing edges on the surface of a three-dimensional object.
請求項1に記載の発明は、3次元空間を表す画素毎に階調値が割り当てられた3次元物体のデータについて各画素に対してエッジを検出するエッジ検出手段と、前記エッジ検出手段による画素に対するエッジの検出結果を、当該画素から3次元物体の表面に対して垂直方向にある画素に対するエッジの検出結果として割り当てる検出結果割当手段と、を備えることを特徴とする画像処理装置である。 According to a first aspect of the present invention, there is provided an edge detection means for detecting an edge for each pixel in the data of a three-dimensional object to which a gradation value is assigned for each pixel representing a three-dimensional space, and a pixel by the edge detection means. And a detection result allocating means for allocating the edge detection result for the pixel as an edge detection result for a pixel perpendicular to the surface of the three-dimensional object from the pixel.
請求項2に記載の発明は、前記エッジ検出手段は、階調値が割り当てられている画素の範囲内にエッジ検出フィルタの適用範囲が収まっている画素に対してエッジを検出することを特徴とする請求項1に記載の画像処理装置である。 The invention according to claim 2 is characterized in that the edge detection means detects an edge with respect to a pixel in which an application range of the edge detection filter is within a range of a pixel to which a gradation value is assigned. The image processing apparatus according to claim 1.
請求項3に記載の発明は、前記検出結果割当手段は、階調値が割り当てられている画素の範囲内にエッジ検出フィルタの適用範囲が収まっていない画素に対してエッジの検出結果を割り当てることを特徴とする請求項1又は2に記載の画像処理装置である。 According to a third aspect of the present invention, the detection result assigning means assigns an edge detection result to a pixel in which an application range of the edge detection filter does not fall within a pixel range to which a gradation value is assigned. The image processing apparatus according to claim 1, wherein:
請求項4に記載の発明は、前記検出結果割当手段において割り当てられたエッジの検出結果を用いて画素の階調値を補正する階調補正手段を備えることを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置である。 According to a fourth aspect of the present invention, there is provided gradation correction means for correcting a gradation value of a pixel using an edge detection result assigned by the detection result assignment means. An image processing apparatus according to any one of the preceding claims.
請求項5に記載の発明は、3次元空間を表す画素毎に階調値が割り当てられた3次元物体のデータについて各画素に対してエッジを検出するエッジ検出手段と、前記エッジ検出手段による画素に対するエッジの検出結果を、当該画素から3次元物体の表面に対して垂直方向にある画素に対するエッジの検出結果として割り当てる検出結果割当手段と、して機能させることを特徴とする画像処理プログラムである。 According to a fifth aspect of the present invention, there is provided an edge detection means for detecting an edge for each pixel in the data of a three-dimensional object to which a gradation value is assigned for each pixel representing a three-dimensional space, and a pixel by the edge detection means. This is an image processing program that functions as a detection result assigning unit that assigns an edge detection result for a pixel as an edge detection result for a pixel perpendicular to the surface of the three-dimensional object from the pixel. .
請求項1又は5に記載の発明によれば、エッジ検出フィルタを直接適用できない画素に対しても適切なエッジの検出結果を拡張して割り当てることができる。 According to the invention described in claim 1 or 5, an appropriate edge detection result can be extended and assigned to a pixel to which the edge detection filter cannot be directly applied.
請求項2に記載の発明によれば、エッジ検出フィルタの適用範囲内にある画素についてはエッジ検出フィルタを適用してエッジを適切に検出することができる。 According to the second aspect of the present invention, an edge can be appropriately detected by applying the edge detection filter to pixels within the application range of the edge detection filter.
請求項3に記載の発明によれば、エッジ検出フィルタの適用範囲内にない画素については他の画素に対するエッジの検出結果を適切に割り当てることができる。 According to the third aspect of the present invention, the edge detection result for other pixels can be appropriately assigned to pixels that are not within the application range of the edge detection filter.
請求項4に記載の発明によれば、各画素に対して適切に設定されたエッジの検出結果に基づいて画素の階調値を適切に補正することができる。 According to the fourth aspect of the present invention, the gradation value of the pixel can be appropriately corrected based on the edge detection result appropriately set for each pixel.
本発明の実施の形態における3次元造形装置100は、図1に示すように、造形部102及び制御部104を含んで構成される。制御部104は、3次元物体を表す立体データから表面色も考慮した造形データを生成し、造形データに基づいて造形部102を制御して3次元物体を造形させる。
A three-
なお、図1では、造形部102と制御部104が直接接続された構成を示しているが、インターネット等の情報通信網を介して造形部102と制御部104とを接続する構成としてもよい。
1 shows a configuration in which the
造形部102は、図2に示すように、造形台10、ステージ12、インクタンク14、インクヘッド16及びヘッド駆動部18を含んで構成される。造形台10は、造形部102を機械的に支持する土台となる構成要素である。造形台10の上に、ステージ12、インクタンク14、インクヘッド16及びヘッド駆動部18が配置される。
As shown in FIG. 2, the
ステージ12は、造形物を形成するための台となる構成要素である。ステージ12の上面は、造形物を形成するために適した形状、例えば平面とすることが好適である。なお、本実施の形態では、便宜上、鉛直方向(上方向)をZ軸方向として説明する。ステージ12は、ステージ駆動機構を備える。ステージ12は、制御部104からの制御信号にしたがってZ軸方向に沿って上下させることができる。
The
インクタンク14は、造形される3次元物体を構成するためのインクを蓄えるための構成要素である。本実施の形態では、造形物はカラーの表面を有する3次元物体とするので、インクタンク14は出力色を構成する色成分のインクを蓄えるインク貯蔵部を備える。本実施の形態では、出力色を構成する色成分は、シアン(C)、マゼンダ(M)及びイエロー(Y)とする。ただし、これに限定されるものではない。また、インクタンク14は、ベース色のインクを蓄えるインク貯蔵部も備える。ベース色は、造形される3次元物体の表面領域以外の内部領域を構成するインクの色である。ベース色は、明るい無彩色とすることが好適である。具体的には、ベース色は、白(W)又は透明(T)とするとよい。本実施の形態では、ベース色は白(W)とする。
The
インクヘッド16は、インクタンク14から供給されるインクを吐出させる構成要素である。インクヘッド16は、出力色を構成する色成分及びベース色のインクを吐出できるだけの数のインクノズルを備える。インクヘッド16は、ステージ12上に配置される。
The
図3は、インクヘッド16の構成例を示す。インクヘッド16は、Y軸方向にCMYWの各色に対応するインクノズル16C、16M、16Y及び16Wが配置されたノズル群16Aを備える。また、インクヘッド16は、ノズル群16AをX軸方向に沿って複数並べて配置したノズルアレイ構造とされる。ノズル群16Aは、ステージ12のX軸方向の幅に亘って造形物を形成するために必要な数だけ配置することが好適である。
FIG. 3 shows a configuration example of the
また、造形部102において使用するインクが紫外線硬化型である場合、インクヘッド16に紫外線照射手段16Vを併設してもよい。紫外線照射手段16Vとしては、紫外線ランプや紫外線レーザ等を適用することができる。なお、紫外線照射手段16Vは、インクヘッド16とは別に設けてもよい。
Further, when the ink used in the
ヘッド駆動部18は、ステージ12上にてインクヘッド16を移動させるための構成要素である。ヘッド駆動部18は、Y軸方向に沿って配置されたレール18aを備える。また、インクヘッド16をレール18aに沿って移動させるためのモータ(図示しない)を含んで構成することができる。インクヘッド16は、レール18aによってY軸方向に移動可能に支持されると共に、ボールネジ等の駆動部材を介してモータに結合される。ヘッド駆動部18は、制御部104からの制御信号にしたがってモータを回転駆動させることによってインクヘッド16をレール18aに沿って、すなわちY軸方向に沿って移動させることができる。ただし、ヘッド駆動部18の構成は、これに限定されるものではなく、3次元物体を造形するためにインクヘッド16をステージ12に対して相対的に移動させることができる構成であればよい。
The
造形部102は、3次元物体を構成する画素(ボクセル:体積要素)の位置情報及び当該ボクセルの色情報を含む造形データを制御部104から受信する。造形部102は、制御部104から受信した位置情報に応じたZ軸方向の位置にステージ12を上下させると共に、当該位置情報に応じたY軸方向の位置にインクヘッド16を移動させる。そして、当該位置情報に応じたX軸方向のインクノズル16C,16M,16Y,16Wのいずれか1つから、当該ボクセルの色情報により特定される色のインクを吐出させる。インクノズル16C,16M,16Y,16Wからインクを吐出後、紫外線照射手段16Vから紫外線を照射することによりインクを硬化させることができる。
The
3次元物体は、X軸方向−Y軸方向−Z軸方向の格子単位であるボクセル(体積要素)の群からなる立体データで表される。立体データは、X軸−Y軸平面に沿って厚さ1ボクセル毎に1層とされる。造形部102は、インクヘッド16をY軸方向に移動させながらX軸−Y軸平面に沿ってインクを吐出させ、1層分の造形が終了すると、ステージ12をZ軸方向に沿って下方移動させて次の層の造形に移る。造形部102は、これを繰り返すことによって、3次元物体を造形する。
A three-dimensional object is represented by three-dimensional data including a group of voxels (volume elements) which are lattice units in the X-axis direction-Y-axis direction-Z-axis direction. The three-dimensional data has one layer for each voxel thickness along the X-axis-Y-axis plane. The
制御部104は、図4に示すように、処理部30、記憶部32、入力部34、出力部36及び通信部38を含んで構成される。制御部104は、一般的なコンピュータにより構成することができる。処理部30は、CPU等の演算処理を行う手段を含む。処理部30は、記憶部32に記憶されている画像処理プログラムを実行することによって、本実施の形態における画像や色信号の処理を実現する。これにより、制御部104は、画像処理装置として機能する。また、制御部104は、記憶部32に記憶されている造形処理プログラムを実行することにより、造形部102に対してインクを吐出させる信号を出力して制御する。記憶部32は、半導体メモリやメモリカード等の記憶手段を含む。記憶部32は、処理部30とアクセス可能に接続され、画像処理プログラム、造形処理プログラム、それらの処理に必要な情報を記憶する。入力部34は、情報を入力する手段を含む。入力部34は、例えば、使用者からの指令の入力を受けるキーボード、タッチパネル、ボタン等を備える。出力部36は、使用者に対して処理に関する情報を呈示する。出力部36は、例えば、使用者に対して画像を表示するディスプレイとすることができる。通信部38は、造形部102に対して位置情報や色情報等の情報を出力するためのインターフェースを含む。また、通信部38は、インターネット等の情報通信網を介して造形対象となる3次元物体の3次元データを外部から取得するためのインターフェースを備えてもよい。
As shown in FIG. 4, the
なお、本実施の形態では、制御部104は、一般的なコンピュータにおいてプログラムを実行することによって実現するものとしたが、その一部又は全部をASIC等のハードウェアで実現してもよい。
In the present embodiment, the
また、色信号処理プログラム及び造形処理プログラム等の各種プログラムは、通信部38を介して提供されてもよいし、CDROM等の記録媒体によって提供されてもよい。
Various programs such as a color signal processing program and a modeling processing program may be provided via the
以下、図5に示すフローチャートを参照して、本実施の形態における3次元物体の造形処理について説明する。制御部104にて、画像処理プログラム及び造形処理プログラムを実行することにより以下の処理が行われる。なお、以下の処理によって、3次元造形装置100は、図6の機能ブロック図に示す各手段として機能する。
Hereinafter, with reference to the flowchart shown in FIG. 5, the modeling process of the three-dimensional object in this Embodiment is demonstrated. The
ステップS10では、3次元データの取得処理が行われる。当該ステップでの処理によって、制御部104は3次元データ取得手段150として機能する。処理部30は、入力部34又は通信部38を介して、造形対象となる3次元物体の外形を表す3次元データを取得する。取得された3次元データは、記憶部32に記憶される。3次元データは、CAD等によって設計された3次元物体の形状のデータや3次元形状計測器等によって計測された3次元物体の形状のデータを含む。
In step S10, three-dimensional data acquisition processing is performed. The
また、3次元データは、3次元物体の表面の色データ(第1色信号)も含む。すなわち、3次元データ取得手段150は、色信号取得手段を含む。本実施の形態では、3次元データには3次元物体の表面色を赤(R信号)、緑(G信号)、青(B信号)の色成分によって構成されるRGB色空間で表した色データが含まれているものとする。
The three-dimensional data also includes color data (first color signal) of the surface of the three-dimensional object. That is, the three-dimensional
ステップS12では、ボクセル化処理が行われる。当該ステップでの処理によって、制御部104はボクセル化処理手段152として機能する。処理部30は、記憶部32からステップS10において取得した3次元データを読み出し、3次元データをボクセルデータに変換する。ボクセルデータは、3次元データによって表される3次元物体を3次元空間における正規格子単位(ボクセル)の集合として表したデータである。ボクセルデータにおいて、各ボクセルは、ボクセルの位置を示す情報、3次元データで定義されている3次元物体を構成しているか否かを示す情報及び物体表面からの距離を示す情報を含む。
In step S12, voxelization processing is performed. By the processing in this step, the
ボクセル化処理は、例えば、次のように行われる。3次元空間を分割の単位となる形状及び大きさのボクセルに分割し、3次元物体の表面で覆われた空間内に含まれるボクセルには3次元物体を構成していることを示すデータ(例えば”1”)を割り当て、当該空間外にあるボクセルには3次元物体を構成していないことを示すデータ(例えば”0”)を割り当てる。より具体的には、例えば、図7に示すように、Z軸方向に沿って3次元物体200をボクセルの幅で切り出す。さらに、切り出されたX軸−Y軸平面内の物体の断面形状の内部をボクセルの幅の格子で区切ってボクセルBとする。そして、ボクセルB毎に3次元物体を構成していることを示すデータを割り当てる。また、各ボクセルBに対して、3次元物体の表面からボクセルBの中心点までの最短距離を算出して割り当てる。このような処理を、3次元物体のZ軸方向に沿って繰り返し、ボクセルの層を積層することによってボクセル化処理が行われる。生成されたボクセルデータは、記憶部32に記憶される。
The voxelization process is performed as follows, for example. Data indicating that the three-dimensional space is divided into voxels having a shape and size as a unit of division and the voxels included in the space covered by the surface of the three-dimensional object constitute a three-dimensional object (for example, “1”) is assigned, and data (for example, “0”) indicating that a three-dimensional object is not configured is assigned to voxels outside the space. More specifically, for example, as shown in FIG. 7, the three-
ステップS14では、ボクセルへのカラー情報の割り当て処理が行われる。当該ステップでの処理によって、制御部104はカラー情報割当手段154として機能する。処理部30は、ステップS12によって得られたボクセルデータの各ボクセルに対して3次元データに含まれている色データ(第1色信号)を割り当てる。3次元物体を構成していることを示すデータが割り当てられているボクセルのうち3次元物体の表面に位置するボクセルには、3次元データの当該表面位置の色データ(第1色信号)をマッピングして割り当てる。また、3次元物体の内部に位置するボクセルには、そのボクセルに最も近い物体表面のボクセルの色データを割り当てる。
In step S14, color information is assigned to voxels. The
なお、3次元物体の表面から基準となる距離D1以内のボクセルのみに色データを割り当て、当該距離D1を超える深部のボクセルにはベース色を割り当てるようにしてもよい。すなわち、距離D1を閾値として、距離D1より表面側に位置するボクセルには表面色を割り当て、距離D1より物体内側に位置するボクセルにはベース色を割り当てる。また、ボクセルの物体表面からの距離に応じて割り当てる色データの値に重み付けをしてもよい。例えば、物体の表面からの距離が大きくなるほど表面色の値が小さくなり、ベース色の値が大きくなるように重み付けする。また、ボクセルの位置の物体表面に対する法線方向からのずれに応じて割り当てる色データの値に重み付けをしてもよい。例えば、ボクセルの法線方向からずれの角度の余弦値によって重み付けした色データの値を当該ボクセルに割り当てればよい。さらに、これらの方法を組み合わせてもよい。 Note that color data may be assigned only to voxels within the reference distance D1 from the surface of the three-dimensional object, and a base color may be assigned to deep voxels exceeding the distance D1. That is, with the distance D1 as a threshold value, a surface color is assigned to a voxel located on the surface side of the distance D1, and a base color is assigned to a voxel located on the object inside of the distance D1. Further, the color data value assigned according to the distance of the voxel from the object surface may be weighted. For example, weighting is performed so that the surface color value decreases as the distance from the surface of the object increases, and the base color value increases. In addition, the value of the color data to be assigned may be weighted according to the deviation of the voxel position from the normal direction with respect to the object surface. For example, the value of color data weighted by the cosine value of the angle shifted from the normal direction of the voxel may be assigned to the voxel. Furthermore, these methods may be combined.
ステップS16では、3次元データとして取得された色データ(第1色信号)を造形部102へ出力される出力色を表すための色データへ変換する色空間変換処理が行われる。当該処理により、制御部104は色空間変換手段156として機能する。ステップS10において取得された3次元データは、第1の色成分(本実施の形態ではRGB)から構成される第1色空間からなる色データ(第1色信号)を含む。造形部102へ出力される出力色は、造形部102で使用されるインクによって表現できる第2の色成分(本実施の形態ではCMY)から構成される第2色空間からなる色データで表される。当該ステップでは、ステップS14において色データが割り当てられたボクセル毎に第1色空間から第2色空間への色空間変換処理が行われる。
In step S <b> 16, color space conversion processing is performed for converting the color data (first color signal) acquired as the three-dimensional data into color data for representing the output color output to the
本実施の形態では、出力色は、造形部102で使用されるインクによって表現できるシアン(C1信号)、マゼンダ(M1信号)、イエロー(Y1信号)の色成分によって構成されるCMY色空間で表した色データ(色信号)で表す。ただし、出力色を構成する色成分はこれらに限定されるものではない。RGB色空間からCMY色空間への色空間変換には、既存の補色変換処理や3D−LUT(3次元ルックアップテーブル)を用いた変換処理を適用すればよい。
In the present embodiment, the output color is a CMY color composed of cyan (C 1 signal), magenta (M 1 signal), and yellow (Y 1 signal) color components that can be expressed by the ink used in the
ステップS18では、エッジ検出処理が行われる。当該処理によって、制御部104はエッジ検出手段158として機能する。制御部104は、各ボクセルについて3次元的にエッジに相当するか否かを検出する。
In step S18, edge detection processing is performed. By this processing, the
具体的には、3次元データにおいて物体を構成する各ボクセルを順に注目ボクセルとして、注目ボクセルの近傍にある周辺ボクセルとの関係に基づいて注目ボクセルがエッジ部分に該当するか否かを判定する。図8は、エッジ検出の対象となるボクセルの集合体300を説明するための図である。集合体300は、注目ボクセルAを中心として、X軸−Y軸平面に沿った9個のボクセルからなる集合体302、集合体302をY軸に沿って回転させた集合体304、集合体302をX軸に沿って回転させた集合体306を組み合わせて構成される。
Specifically, each voxel constituting the object in the three-dimensional data is set as the target voxel in order, and it is determined whether the target voxel corresponds to the edge portion based on the relationship with the neighboring voxels in the vicinity of the target voxel. FIG. 8 is a diagram for explaining a
制御部104は、注目ボクセルAに対して、集合体302,304,306毎にエッジ検出処理を適用する。図9は、エッジ検出フィルタ(エッジ検出器)の例を示す。図9では、集合体302,304,306のそれぞれについて第1エッジ検出フィルタ、第2エッジ検出フィルタ及び第3エッジ検出フィルタを適用する。第1エッジ検出フィルタは、集合体302において注目ボクセルAの周辺にある3個のボクセルB(左斜線のハッチングを施したボクセル)の階調の和と3個のボクセルC(右斜線のハッチングを施したボクセル)の階調の和との差が基準値よりも大きいときに注目ボクセルAがエッジに該当すると判定する。同様に、第2エッジ検出フィルタ及び第3エッジ検出フィルタはそれぞれ集合体304及び306について、注目ボクセルAの周辺にある3個のボクセルB(左斜線のハッチングを施したボクセル)の階調の和と3個のボクセルC(右斜線のハッチングを施したボクセル)の階調の和との差が基準値よりも大きいときに注目ボクセルAがエッジに該当すると判定する。
The
図10〜図12は、エッジ検出フィルタの別例を示す。図9と同様に、集合体302,304,306において注目ボクセルAの周辺にある3個のボクセルB(左斜線のハッチングを施したボクセル)の階調の和と3個のボクセルC(右斜線のハッチングを施したボクセル)の階調の和との差が基準値よりも大きいときに注目ボクセルAがエッジに該当すると判定する。
10 to 12 show other examples of the edge detection filter. As in FIG. 9, in the
なお、各ボクセルの階調は、各ボクセルの色信号(C1信号、M1信号、Y1信号)の各々の強度とすることができる。この場合、各ボクセルの各色についてそれぞれエッジに相当するか否かが判定される。また、各ボクセルの階調は、各ボクセルの色信号全体の強度とすることができる。色信号全体の強度は、各色信号(C1信号、M1信号、Y1信号)の和や二乗平方根等の値とすればよい。この場合、各ボクセルの色全体の強度についてエッジに相当するか否かが判定される。 Note that the gradation of each voxel can be the intensity of each voxel color signal (C 1 signal, M 1 signal, Y 1 signal). In this case, it is determined whether each color of each voxel corresponds to an edge. The gradation of each voxel can be the intensity of the entire color signal of each voxel. The intensity of the entire color signal may be a value such as the sum or square root of each color signal (C 1 signal, M 1 signal, Y 1 signal). In this case, it is determined whether the intensity of the entire color of each voxel corresponds to an edge.
図13は、エッジ検出フィルタの別例を示す。当該例では、立方体310を構成する27個のボクセルについてエッジ検出処理を適用する。注目ボクセルAは、立方体310の中心のボクセルとする。立方体310は、注目ボクセルAを中心として、X軸−Y軸平面に沿った9つのボクセルからなる最上層の集合体312、中間層の集合体314及び最下層の集合体316を組み合わせて構成される。
FIG. 13 shows another example of the edge detection filter. In this example, the edge detection process is applied to 27 voxels constituting the
制御部104は、注目ボクセルAに対して、集合体312,314,316を組み合わせてエッジ検出処理を適用する。図14は、エッジ検出フィルタの例を示す。立方体310の左上奥の角に位置するボクセルB及びそれに隣接する3つのボクセルB(左斜線のハッチングを施したボクセル)の階調の和と右下手前の角に位置するボクセルC及びそれに隣接する3つのボクセルC(右斜線のハッチングを施したボクセル)の階調の和との差が基準値よりも大きいときに注目ボクセルAがエッジに該当すると判定する。図15〜図17は、図14に示したエッジ検出フィルタをZ軸に沿って逆時計方向にそれぞれ90°、180°及び270°回転させたエッジ検出フィルタを示す。これらのエッジ検出フィルタにおいても、注目ボクセルAの周辺にある4つのボクセルB(左斜線のハッチングを施したボクセル)の階調の和と4つのボクセルC(右斜線のハッチングを施したボクセル)の階調の和との差が基準値よりも大きいときに注目ボクセルAがエッジに該当すると判定する。
The
なお、上記のエッジ検出フィルタを組み合わせて使用してもよい。複数種のエッジ検出フィルタを組み合わせて使用することによって、ノイズ等の影響によるエッジの誤検出を抑制することができる。 Note that the above edge detection filters may be used in combination. By using a plurality of types of edge detection filters in combination, erroneous detection of edges due to the influence of noise or the like can be suppressed.
ところで、3次元物体の表面近傍では、階調値(色情報)を有する3次元物体の表面にあるボクセル及び3次元物体の内部のボクセルと、階調値(色情報)を有さない物体の外部のボクセルが混在する。3次元物体の外部に位置するボクセル、すなわち3次元物体を構成しないボクセルは階調値を持たない。したがって、3次元物体の表面では、物体の外のボクセルの影響をうけてエッジ検出が適切にできないおそれがある。そこで、3次元物体を構成するボクセルであってエッジが検出できないボクセルについてステップS20の処理を適用する。 By the way, in the vicinity of the surface of the three-dimensional object, there are voxels on the surface of the three-dimensional object having gradation values (color information) and voxels inside the three-dimensional object, and objects having no gradation values (color information). A mix of external voxels. A voxel located outside the three-dimensional object, that is, a voxel that does not constitute a three-dimensional object does not have a gradation value. Therefore, on the surface of the three-dimensional object, there is a possibility that edge detection cannot be performed properly due to the influence of voxels outside the object. Therefore, the process of step S20 is applied to voxels that constitute a three-dimensional object and that cannot detect edges.
ステップS20では、エッジ検出手段158において得られたエッジの検出結果を他のボクセルのエッジの検出結果として割り当てる処理が行われる。当該処理により、制御部104は検出結果割当手段160として機能する。
In step S20, processing for assigning the edge detection result obtained by the edge detection means 158 as the detection result of the edge of another voxel is performed. With this processing, the
図18は、3次元物体の表面近傍の一部を切り出した構造体320を示す図である。構造体320は、構造体320の外側にある最上層の構造体322、構造体320の表面を構成するボクセルを含む構造体324及び構造体326、構造体320の表面を構成するボクセルを含まず内部を構成するボクセルのみから構成される構造体328,330に分解できる。図18において、3次元物体を構成するボクセルは実線で示し、3次元物体を構成していないボクセルは破線で示す。
FIG. 18 is a diagram illustrating a
ここで、構造体320について上記図9〜図17に示したエッジ検出フィルタの適用範囲を検討する。構造体320の内部を構成する構造体326に含まれるボクセルB2についてエッジ検出フィルタを適用しようとしたとき、階調値が割り当てられているボクセルの範囲内にエッジ検出フィルタの適用範囲が収まっているのでエッジを適切に検出することができる。一方、構造体320の表面を構成する構造体324及び構造体326に含まれるボクセルB1についてエッジ検出フィルタを適用しようとしたとき、階調値が割り当てられているボクセルの範囲内にエッジ検出フィルタの適用範囲が収まっていなのでエッジを適切に検出することができない。
Here, the application range of the edge detection filter shown in FIGS. When an edge detection filter is applied to the voxel B2 included in the
そこで、検出結果割当手段160において、エッジ検出フィルタを適用できないボクセルB1についてエッジ検出フィルタを適用できるボクセルB2のエッジの検出結果を割り当てる処理を行う。具体的には、エッジ検出フィルタを適用できないボクセルB1に対して3次元物体の表面の垂直方向に位置するエッジ検出フィルタを適用できるボクセルB2のエッジの検出結果を割り当てる。
Therefore, the detection
例えば、構造体326の中央に位置するボクセルB1には、ボクセルB1から表面法線方向(Z軸方向)に沿って最も近くに位置し、エッジ検出フィルタが適用可能な構造体328の中央に位置するボクセルB2の値を拡張して割り当てる。また、例えば、構造体324の中央に位置するボクセルB1にも、ボクセルB1から表面法線方向(Z軸方向)に沿って最も近くに位置し、エッジ検出フィルタが適用可能な構造体328の中央に位置するボクセルB2の値を拡張して割り当てる。
For example, the voxel B1 positioned at the center of the
このように、3次元物体においてエッジ検出フィルタを直接適用することができないボクセルに対して、エッジ検出フィルタを適用することができるボクセルのエッジ検出結果を拡張して適用する。これによって、エッジ検出フィルタを直接適用することができないボクセルについてもエッジの有無が設定される。 As described above, the voxel edge detection result to which the edge detection filter can be applied is expanded and applied to the voxel to which the edge detection filter cannot be directly applied in the three-dimensional object. Thereby, the presence / absence of an edge is also set for voxels to which the edge detection filter cannot be directly applied.
ここで、3次元物体では、表面の面内における階調値の分布は、そのまま3次元物体の内部における面内の階調値の分布に引き継がれていることが多い。すなわち、3次元物体の着色領域を構成するボクセルの各層の階調値の面内での分布は物体表面から内部に向かって引き継がれている可能性が高い。例えば、3次元物体の最表面のボクセルにおける階調値の分布は、第2層目のボクセルにおける階調値の分布に近いことが多い。したがって、3次元物体の表面に対して垂直方向に位置するボクセル同士においてエッジの検出結果は似通っている可能性が高い。そこで、本実施の形態では、エッジ検出フィルタを適用できないボクセルに対して表面の垂直方向に位置するボクセルのエッジの検出結果を割り当てることで、より適切なエッジの検出結果が拡張して割り当てられる。 Here, in a three-dimensional object, the distribution of gradation values in the surface of the surface is often handed over to the distribution of gradation values in the surface within the three-dimensional object. That is, it is highly possible that the in-plane distribution of gradation values of each layer of voxels constituting the colored region of the three-dimensional object is inherited from the object surface toward the inside. For example, the distribution of gradation values in the voxels on the outermost surface of a three-dimensional object is often close to the distribution of gradation values in the voxels of the second layer. Therefore, it is highly possible that the edge detection results are similar between voxels positioned in the direction perpendicular to the surface of the three-dimensional object. Therefore, in this embodiment, by assigning the detection result of the edge of the voxel positioned in the vertical direction of the surface to the voxel to which the edge detection filter cannot be applied, the more appropriate detection result of the edge is assigned.
なお、3次元物体の表面は、以下の方法にて判断することができる。所定の大きさの立方体を構成するボクセルを選択し、立方体の6面の各々において最も物体を構成しないボクセルが多い面を表面として判断する。図19のように、27個のボクセルからなる立方体332を選択した場合、立方体332の正面、背面、上面、下面、右側面、左側面のうち最も物体を構成しないボクセルが多い上面が立方体332の表面であると判断される。したがって、立方体332の表面法線方向は、上面に対して垂直な方向、すなわちZ軸方向に設定される。
The surface of the three-dimensional object can be determined by the following method. A voxel constituting a cube of a predetermined size is selected, and a surface having the most voxels that do not constitute an object is determined as a surface in each of the six faces of the cube. As shown in FIG. 19, when a
また、本実施の形態では、ボクセルの階調に対するエッジ検出処理について説明したが、エッジ検出の対象は階調に限定されるものではない。ボクセルの他の属性値についても同様にエッジ検出処理を適用することができる。 In the present embodiment, edge detection processing for voxel gradation has been described. However, the target of edge detection is not limited to gradation. Edge detection processing can be similarly applied to other attribute values of voxels.
ステップS22では、エッジに位置するボクセルに対するか階調補正処理が行われる。当該ステップにおける処理によって、制御部104は階調補正手段162として機能する。階調補正手段162における処理は、特に限定されるものではないが、例えばステップS18及びステップS20においてエッジであると判定された各ボクセルに対して3次元のエッジ強調フィルタを適用するものとすればよい。
In step S22, gradation correction processing is performed on the voxel located at the edge. By the processing in this step, the
ステップS24では、第2色空間に変換された色データから第2色成分を表す第2色成分信号と第1色信号の大きさに応じたベース色信号とを含む色データ(第2色信号)を生成する処理が行われる。当該処理によって、制御部104は第2色信号生成手段164として機能する。本実施の形態では、上述のとおりベース色を白(W)とする。すなわち、処理部30は、第2色空間に変換され、エッジ補正処理が適用された色データ(C1M1Y1信号)から第2色成分を表す第2色成分信号とベース色信号とを含む色データ(第2色信号:C2M2Y2W2信号)への変換処理を行う。
In step S24, color data including a second color component signal representing the second color component from the color data converted into the second color space and a base color signal corresponding to the magnitude of the first color signal (second color signal). ) Is generated. By this processing, the
まず、処理部30は、エッジ補正処理が適用されたC1M1Y1信号からW2信号を生成する。W2信号は、数式(1)にて求めることができる。ここで、C1,M1、Y1及びW2は、それぞれC1信号、M1信号、Y1信号及びW2信号の大きさを示し、0以上1以下の実数である。
(数1)
W2= (1-C1)(1-M1)(1-Y1) ・・・(1)
First, the
(Equation 1)
W 2 = (1-C 1 ) (1-M 1 ) (1-Y 1 ) (1)
数式(1)に示されるように、W2信号は、C1信号、M1信号、Y1信号の大きさに応じた値となる。ここで、C1信号、M1信号、Y1信号は、第1色信号(R信号、G信号、B信号)の大きさに応じて得られる。したがって、W2信号は、第1色信号の大きさに応じた値となる。 As shown in Equation (1), the W 2 signal has a value corresponding to the magnitudes of the C 1 signal, the M 1 signal, and the Y 1 signal. Here, the C 1 signal, the M 1 signal, and the Y 1 signal are obtained according to the magnitudes of the first color signals (R signal, G signal, and B signal). Thus, W 2 signal has a value corresponding to the magnitude of the first color signal.
さらに、処理部30は、W2信号を含む第2色信号において第1色信号によって表現される色が維持されるように、W2信号に応じて第2の色成分の色データ(C1信号、M1信号、Y1信号)を修正した修正CMYデータ(C2信号、M2信号、Y2信号)を生成する。当該処理によって、処理部30は第2色信号修正手段166として機能する。
Further, the
修正CMYデータ(C2信号、M2信号、Y2信号)は、数式(2)により求めることができる。
(数2)
C2 = C1(1-M1)(1-Y1)+C1M1(1-Y1)/2+C1(1-M1)Y1/2+C1M1Y1/3
M2= (1-C1)M1(1-Y1)+C1M1(1-Y1)/2+(1-C1)M1Y1/2+C1M1Y1/3
Y2= (1-C1)(1-M1)Y1+C1(1-M1)Y1/2+(1-C1)M1Y1/2+C1M1Y1/3 ・・・(2)
The corrected CMY data (C 2 signal, M 2 signal, Y 2 signal) can be obtained by Equation (2).
(Equation 2)
C 2 = C 1 (1- M 1) (1-Y 1) + C 1 M 1 (1-Y 1) / 2 + C 1 (1-M 1) Y 1/2 + C 1 M 1 Y 1 / 3
M 2 = (1-C 1 ) M 1 (1-Y 1) + C 1 M 1 (1-Y 1) / 2 + (1-C 1) M 1 Y 1/2 + C 1 M 1 Y 1 / 3
Y 2 = (1-C 1 ) (1-M 1) Y 1 + C 1 (1-M 1) Y 1/2 + (1-C 1) M 1 Y 1/2 + C 1 M 1 Y 1 / 3 (2)
ステップS26では、造形部102にて各ボクセルに対して吐出されるインクの色の選択処理が行われる。当該ステップでの処理によって、制御部104はインク色選択手段168として機能する。本実施の形態における造形部102では、インクヘッド16から1つのボクセルに対してシアン(C)、マゼンダ(M)、イエロー(Y)及びベース色(W)のうち1つのインクのみを吐出することができる。処理部30は、修正CMY信号に基づいて各ボクセルに対するインクの色を選択する処理を行う。インクの選択処理は、特に限定されるものではないが、シアン(C)、マゼンダ(M)、イエロー(Y)及びベース色(W)から選択される色の選択率がC3’信号、M3’信号、Y3’信号及びW3’信号のそれぞれの値の大きさの割合に応じたものとなるように色を選択することが好適である。
In step S <b> 26, the
例えば、数列発生手段によって発生させた基準値aに対して、C3’信号>aの場合にシアン(C)を選択し、(C3’信号+M3’信号)>aの場合にマゼンタ(M)を選択し、(C3’信号+M3’信号+Y3’信号)>aの場合にイエロー(Y)を選択し、それ以外の場合にベース色(W)を選択する処理とする。また、オーダードディザ法を適用してもよい。すなわち、各ボクセルに対する基準値aとして数列(ディザ行列)を適用し、C3’信号>aの場合にシアン(C)を選択し、(C3’信号+M3’信号)>aの場合にマゼンタ(M)を選択し、(C3’信号+M3’信号+Y3’信号)>aの場合にイエロー(Y)を選択し、それ以外の場合にベース色(W)を選択する処理とする。また、誤差拡散法(Error Diffusion)を適用してもよい。この方法では、基準値aとして固定値を使用するが、あるボクセルに対するインク色の選択の際に生じた誤差を周囲のボクセルの選択処理に拡散させるものである。さらに、特開2006−295899号公報に開示された方法にて、各ボクセルに対するインクの選択を行ってもよい。 For example, the reference value a that caused by sequence generating means, C 3 'signal> select cyan (C) in the case of a, (C 3' magenta in the case of the signal + M 3 'signal)> a ( M) is selected, and when (C 3 ′ signal + M 3 ′ signal + Y 3 ′ signal)> a, yellow (Y) is selected, and in other cases, the base color (W) is selected. Further, an ordered dither method may be applied. That is, a sequence (dither matrix) is applied as the reference value a for each voxel, cyan (C) is selected when C 3 ′ signal> a, and when (C 3 ′ signal + M 3 ′ signal)> a. A process of selecting magenta (M), selecting yellow (Y) when (C 3 ′ signal + M 3 ′ signal + Y 3 ′ signal)> a, and selecting a base color (W) otherwise. To do. Further, an error diffusion method (Error Diffusion) may be applied. In this method, a fixed value is used as the reference value a, but an error that occurs when an ink color is selected for a certain voxel is diffused in the selection process of surrounding voxels. Furthermore, ink may be selected for each voxel by the method disclosed in Japanese Patent Laid-Open No. 2006-295899.
また、白色雑音法やブルーノイズマスク法等を適用してもよい。白色雑音法は、各ボクセルに対する基準値aとして白色雑音(一様乱数)を適用する方法である。また、ブルーノイズマスク法は、基準値aに適用するディザ行列について空間周波数分布が人間の視覚の感度が低くなる空間周波数以上となるようにディザ行列のサイズを大きくしたものである。 Further, a white noise method, a blue noise mask method, or the like may be applied. The white noise method is a method in which white noise (uniform random number) is applied as the reference value a for each voxel. In the blue noise mask method, the size of the dither matrix is increased so that the spatial frequency distribution of the dither matrix applied to the reference value a is equal to or higher than the spatial frequency at which the human visual sensitivity is low.
ステップS28では、造形部102において造形される各層を切り出すスライス処理が行われる。当該処理によって、制御部104はスライス処理手段170として機能する。処理部30は、ステップS12でのボクセル化処理におけるZ軸方向へのスライシングと同様に、3次元物体を構成するボクセルをZ軸方向に沿ってスライシングして1ボクセル毎に1層として切り出す。すなわち、造形部102のインクヘッド16が1走査で吐出できる層を抽出する。そして、1層毎にその層に含まれているボクセルの各々について選択されたインクの色を記憶部32から読み出して造形部102へ出力する造形データとする。造形データには、各ボクセルの位置を示す情報及び選択されたインクの色の情報が含まれる。
In step S <b> 28, slicing processing for cutting out each layer to be modeled in the
ステップS30では、造形部102においてインク吐出処理が行われる。当該ステップにおける処理によって、造形部102はインク吐出手段172として機能する。処理部30は、3次元物体を構成する層毎に各ボクセルに対して選択された色のインクを吐出させる。インク吐出処理を、Z軸方向に沿って最下層から順に最上層まで繰り返すことによって、各層を積み重ねる。これにより、入力された3次元データに基づく3次元物体が造形される。
In step S <b> 30, an ink ejection process is performed in the
本実施の形態における3次元造形装置100では、1ボクセルに対して1色のインクのみを吐出する造形部102を用いて、表面色の粒状性を改善し、吐出できるインクの色の中間色を適切に表現した3次元物体が造形される。また、3次元物体におけるエッジを適切に検出し、エッジを強調する処理等を施したうえで3次元物体が造形される。
In the three-
10 造形台、12 ステージ、14 インクタンク、16 インクヘッド、16A ノズル群、16C,16M,16Y,16W インクノズル、16V 紫外線照射手段、18 ヘッド駆動部、18a レール、30 処理部、32 記憶部、34 入力部、36 出力部、38 通信部、100 3次元造形装置、102 造形部、104 制御部、150 3次元データ取得手段、152 ボクセル化処理手段、154 カラー情報割当手段、156 色空間変換手段、158 エッジ検出手段、160 検出結果割当手段、162 階調補正手段、164 色信号生成手段、166 色信号修正手段、168 インク色選択手段、170 スライス処理手段、172 インク吐出手段、200 3次元物体、302,304,306 集合体、310 立方体、312,314,316 集合体、320〜330 構造体、332 立方体。
10 modeling stand, 12 stage, 14 ink tank, 16 ink head, 16A nozzle group, 16C, 16M, 16Y, 16W ink nozzle, 16V ultraviolet irradiation means, 18 head drive unit, 18a rail, 30 processing unit, 32 storage unit, 34 input unit, 36 output unit, 38 communication unit, 100 three-dimensional modeling apparatus, 102 modeling unit, 104 control unit, 150 three-dimensional data acquisition unit, 152 voxelization processing unit, 154 color information allocation unit, 156 color
Claims (5)
前記エッジ検出手段による画素に対するエッジの検出結果を、当該画素から3次元物体の表面に対して垂直方向にある画素に対するエッジの検出結果として割り当てる検出結果割当手段と、
を備えることを特徴とする画像処理装置。 Edge detection means for detecting an edge for each pixel of data of a three-dimensional object in which gradation values are assigned to each pixel representing a three-dimensional space;
A detection result assigning means for assigning an edge detection result for the pixel by the edge detection means as an edge detection result for a pixel perpendicular to the surface of the three-dimensional object from the pixel;
An image processing apparatus comprising:
前記エッジ検出手段による画素に対するエッジの検出結果を、当該画素から3次元物体の表面に対して垂直方向にある画素に対するエッジの検出結果として割り当てる検出結果割当手段と、
して機能させることを特徴とする画像処理プログラム。 Edge detection means for detecting an edge for each pixel of data of a three-dimensional object in which gradation values are assigned to each pixel representing a three-dimensional space;
A detection result assigning means for assigning an edge detection result for the pixel by the edge detection means as an edge detection result for a pixel perpendicular to the surface of the three-dimensional object from the pixel;
An image processing program characterized by being made to function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017157748A JP2019034487A (en) | 2017-08-18 | 2017-08-18 | Image processing apparatus and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017157748A JP2019034487A (en) | 2017-08-18 | 2017-08-18 | Image processing apparatus and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019034487A true JP2019034487A (en) | 2019-03-07 |
Family
ID=65636491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017157748A Pending JP2019034487A (en) | 2017-08-18 | 2017-08-18 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019034487A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111319266A (en) * | 2020-03-10 | 2020-06-23 | 嘉兴学院 | Functional gradient material 3D printing path planning method based on contour line |
-
2017
- 2017-08-18 JP JP2017157748A patent/JP2019034487A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111319266A (en) * | 2020-03-10 | 2020-06-23 | 嘉兴学院 | Functional gradient material 3D printing path planning method based on contour line |
CN111319266B (en) * | 2020-03-10 | 2021-06-22 | 嘉兴学院 | Functional gradient material 3D printing path planning method based on contour line |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6911163B2 (en) | Coloring of 3D print objects | |
US10279545B2 (en) | Method for three-dimensional color printing and a three-dimensional color printing device | |
US10717235B2 (en) | Method for joint color and translucency 3D printing and a joint color and translucency 3D printing device | |
EP0550243A1 (en) | Color image processing | |
KR102268271B1 (en) | Color conversion look-up table generating device, color conversion look-up table correction method, and storage medium | |
US8941885B2 (en) | Image processing apparatus and image processing method | |
CN107967715B (en) | Data processing apparatus, three-dimensional object creation system, and data processing method | |
JP2018039126A (en) | Three-dimensional molding production data generation device, three-dimensional molding production data generation program, and three-dimensional molding | |
EP2469836B1 (en) | Color chart | |
JP2005178180A (en) | Color image data correcting device, color image data correcting method, and program for creating color correcting table | |
EP2899964A2 (en) | Method for generating lookup table and color conversion device | |
JP2017120571A (en) | Information processing apparatus, three-dimensional modeling device, and three-dimensional modeling system | |
JP2018065290A (en) | Data processing device, solid molding system and program | |
TWI647691B (en) | Method for rendering color images | |
JP2018065289A (en) | Data processing device, solid molding system and program | |
JP2019034487A (en) | Image processing apparatus and image processing program | |
EP2884731A1 (en) | Lookup table generation method, lookup table generation apparatus and color conversion apparatus | |
JP2018049460A (en) | Image processing apparatus and image processing program | |
JP2018065293A (en) | Data processing device, solid molding system and program | |
JP6433283B2 (en) | Image processing apparatus, image processing method, and program | |
JP2019034459A (en) | Image processing apparatus, 3D modeling apparatus, and image processing program | |
JP2018047603A (en) | Color signal processing device, three-dimensional molding device and color signal processing program | |
JP2018047607A (en) | Color signal processing device, three-dimensional molding device and color signal processing program | |
JP2019031061A (en) | Color signal processing unit, three-dimensional molding apparatus and color signal processing program | |
US10915092B2 (en) | Information processing apparatus and information processing method for reproducing the material appearance of an object on a recording medium |