JP2019034487A - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP2019034487A
JP2019034487A JP2017157748A JP2017157748A JP2019034487A JP 2019034487 A JP2019034487 A JP 2019034487A JP 2017157748 A JP2017157748 A JP 2017157748A JP 2017157748 A JP2017157748 A JP 2017157748A JP 2019034487 A JP2019034487 A JP 2019034487A
Authority
JP
Japan
Prior art keywords
color
edge detection
voxel
signal
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017157748A
Other languages
Japanese (ja)
Inventor
健児 原
Kenji Hara
健児 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017157748A priority Critical patent/JP2019034487A/en
Publication of JP2019034487A publication Critical patent/JP2019034487A/en
Pending legal-status Critical Current

Links

Images

Abstract

To create a three-dimensional object with edges properly represented.SOLUTION: An edge is detected for voxels of data of a three-dimensional object in which gradation values are assigned to voxels representing a three-dimensional space, and a detection result of the edge for a certain voxel B2 is assigned as a detection result of the edge for voxel B1 aligned with the voxel B2 in a vertical direction with respect to a surface of the three-dimensional object.SELECTED DRAWING: Figure 18

Description

本発明は、画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program.

立体モデルの形状データに基づいて、断面形状を積層することにより3次元物体を造形する3次元造形装置が知られている。例えば、ステージ上に紫外線硬化型のインクを吐出させることによって断面形状を形成して積み重ねていくことにより3次元の形状を造形する光造形型3次元プリンタが知られている。このような3次元造形装置では、3次元物体の表面となる部分に色インクを吐出させることによって、形状のみならず色彩も反映させた3次元物体を形成することができる。   A three-dimensional modeling apparatus that models a three-dimensional object by stacking cross-sectional shapes based on shape data of a three-dimensional model is known. For example, an optical modeling type three-dimensional printer that forms a three-dimensional shape by forming and stacking cross-sectional shapes by discharging ultraviolet curable ink on a stage is known. In such a three-dimensional modeling apparatus, it is possible to form a three-dimensional object reflecting not only the shape but also the color by ejecting color ink onto a portion that becomes the surface of the three-dimensional object.

特許文献1には、シアン(C)、マゼンダ(M)、イエロー(Y)、ホワイト(W)のトナーを用いて、透明シート上を白トナー層で全面を覆った後に彩色トナー層を形成することによって表面色の階調性と色調性を高めた3次元造形物の製造方法が開示されている。また、特許文献2には、立体造形粉体を造形液により固化させることで3次元造形物を形成する装置において、造形物の表面部に対応する表面画素集合体に誤差拡散処理を適用して造形データを作成することで造形物に生ずる色の縦筋を抑制した立体造形データ作成装置が開示されている。   In Patent Document 1, cyan (C), magenta (M), yellow (Y), and white (W) toners are used to form a color toner layer after covering the entire surface of a transparent sheet with a white toner layer. Thus, a method of manufacturing a three-dimensional structure with improved surface color gradation and color tone is disclosed. In Patent Document 2, an error diffusion process is applied to a surface pixel aggregate corresponding to a surface portion of a modeled object in an apparatus that forms a three-dimensional modeled object by solidifying a three-dimensional modeled powder with a modeling liquid. A three-dimensional modeling data creation device that suppresses vertical stripes of color generated in a modeled object by creating modeling data is disclosed.

特開2000−246804号公報JP 2000-246804 A 特開2015−44299号公報JP 2015-44299 A

ところで、3次元造形装置において3次元物体を造形する際に、物体表面にある文字や線等のエッジのぼけを改善して明確に再現したいという要望がある。2次元の画像に対しては、エッジ部分の画素とエッジ部分でない画素とで適用する画像処理を変えることでエッジを強調させる方法が開示されている。しかしながら、3次元物体の表面におけるエッジを適切に処理する方法は知られていない。   By the way, when modeling a three-dimensional object in a three-dimensional modeling apparatus, there is a desire to improve and clearly reproduce the blurring of edges such as characters and lines on the object surface. For a two-dimensional image, a method is disclosed in which an edge is emphasized by changing image processing applied between pixels in an edge portion and pixels that are not an edge portion. However, there is no known method for appropriately processing edges on the surface of a three-dimensional object.

請求項1に記載の発明は、3次元空間を表す画素毎に階調値が割り当てられた3次元物体のデータについて各画素に対してエッジを検出するエッジ検出手段と、前記エッジ検出手段による画素に対するエッジの検出結果を、当該画素から3次元物体の表面に対して垂直方向にある画素に対するエッジの検出結果として割り当てる検出結果割当手段と、を備えることを特徴とする画像処理装置である。   According to a first aspect of the present invention, there is provided an edge detection means for detecting an edge for each pixel in the data of a three-dimensional object to which a gradation value is assigned for each pixel representing a three-dimensional space, and a pixel by the edge detection means. And a detection result allocating means for allocating the edge detection result for the pixel as an edge detection result for a pixel perpendicular to the surface of the three-dimensional object from the pixel.

請求項2に記載の発明は、前記エッジ検出手段は、階調値が割り当てられている画素の範囲内にエッジ検出フィルタの適用範囲が収まっている画素に対してエッジを検出することを特徴とする請求項1に記載の画像処理装置である。   The invention according to claim 2 is characterized in that the edge detection means detects an edge with respect to a pixel in which an application range of the edge detection filter is within a range of a pixel to which a gradation value is assigned. The image processing apparatus according to claim 1.

請求項3に記載の発明は、前記検出結果割当手段は、階調値が割り当てられている画素の範囲内にエッジ検出フィルタの適用範囲が収まっていない画素に対してエッジの検出結果を割り当てることを特徴とする請求項1又は2に記載の画像処理装置である。   According to a third aspect of the present invention, the detection result assigning means assigns an edge detection result to a pixel in which an application range of the edge detection filter does not fall within a pixel range to which a gradation value is assigned. The image processing apparatus according to claim 1, wherein:

請求項4に記載の発明は、前記検出結果割当手段において割り当てられたエッジの検出結果を用いて画素の階調値を補正する階調補正手段を備えることを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置である。   According to a fourth aspect of the present invention, there is provided gradation correction means for correcting a gradation value of a pixel using an edge detection result assigned by the detection result assignment means. An image processing apparatus according to any one of the preceding claims.

請求項5に記載の発明は、3次元空間を表す画素毎に階調値が割り当てられた3次元物体のデータについて各画素に対してエッジを検出するエッジ検出手段と、前記エッジ検出手段による画素に対するエッジの検出結果を、当該画素から3次元物体の表面に対して垂直方向にある画素に対するエッジの検出結果として割り当てる検出結果割当手段と、して機能させることを特徴とする画像処理プログラムである。   According to a fifth aspect of the present invention, there is provided an edge detection means for detecting an edge for each pixel in the data of a three-dimensional object to which a gradation value is assigned for each pixel representing a three-dimensional space, and a pixel by the edge detection means. This is an image processing program that functions as a detection result assigning unit that assigns an edge detection result for a pixel as an edge detection result for a pixel perpendicular to the surface of the three-dimensional object from the pixel. .

請求項1又は5に記載の発明によれば、エッジ検出フィルタを直接適用できない画素に対しても適切なエッジの検出結果を拡張して割り当てることができる。   According to the invention described in claim 1 or 5, an appropriate edge detection result can be extended and assigned to a pixel to which the edge detection filter cannot be directly applied.

請求項2に記載の発明によれば、エッジ検出フィルタの適用範囲内にある画素についてはエッジ検出フィルタを適用してエッジを適切に検出することができる。   According to the second aspect of the present invention, an edge can be appropriately detected by applying the edge detection filter to pixels within the application range of the edge detection filter.

請求項3に記載の発明によれば、エッジ検出フィルタの適用範囲内にない画素については他の画素に対するエッジの検出結果を適切に割り当てることができる。   According to the third aspect of the present invention, the edge detection result for other pixels can be appropriately assigned to pixels that are not within the application range of the edge detection filter.

請求項4に記載の発明によれば、各画素に対して適切に設定されたエッジの検出結果に基づいて画素の階調値を適切に補正することができる。   According to the fourth aspect of the present invention, the gradation value of the pixel can be appropriately corrected based on the edge detection result appropriately set for each pixel.

本発明の実施の形態における3次元造形装置の構成を示す図である。It is a figure which shows the structure of the three-dimensional modeling apparatus in embodiment of this invention. 本発明の実施の形態における造形部の構成を示す図である。It is a figure which shows the structure of the modeling part in embodiment of this invention. 本発明の実施の形態におけるインクヘッドの構成を示す図である。It is a figure which shows the structure of the ink head in embodiment of this invention. 本発明の実施の形態における制御部の構成を示す図である。It is a figure which shows the structure of the control part in embodiment of this invention. 本発明の実施の形態における色信号処理及び造形処理を示すフローチャートである。It is a flowchart which shows the color signal process and modeling process in embodiment of this invention. 本発明の実施の形態における3次元造形装置の機能ブロック図である。It is a functional block diagram of the three-dimensional modeling apparatus in embodiment of this invention. 本発明の実施の形態におけるボクセル化処理を説明する図である。It is a figure explaining the voxelization process in embodiment of this invention. 本発明の実施の形態におけるエッジ検出の対象となるボクセルを説明する図である。It is a figure explaining the voxel used as the object of edge detection in an embodiment of the invention. 本発明の実施の形態におけるエッジ検出フィルタの例を示す図である。It is a figure which shows the example of the edge detection filter in embodiment of this invention. 本発明の実施の形態におけるエッジ検出フィルタの別例を示す図である。It is a figure which shows another example of the edge detection filter in embodiment of this invention. 本発明の実施の形態におけるエッジ検出フィルタの別例を示す図である。It is a figure which shows another example of the edge detection filter in embodiment of this invention. 本発明の実施の形態におけるエッジ検出フィルタの別例を示す図である。It is a figure which shows another example of the edge detection filter in embodiment of this invention. 本発明の実施の形態におけるエッジ検出フィルタの構成を説明する図である。It is a figure explaining the structure of the edge detection filter in embodiment of this invention. 本発明の実施の形態におけるエッジ検出フィルタの分解図である。It is an exploded view of the edge detection filter in embodiment of this invention. 本発明の実施の形態におけるエッジ検出フィルタの分解図である。It is an exploded view of the edge detection filter in embodiment of this invention. 本発明の実施の形態におけるエッジ検出フィルタの分解図である。It is an exploded view of the edge detection filter in embodiment of this invention. 本発明の実施の形態におけるエッジ検出フィルタの分解図である。It is an exploded view of the edge detection filter in embodiment of this invention. 本発明の実施の形態におけるエッジの検出結果割当処理を説明するための図である。It is a figure for demonstrating the detection result allocation process of the edge in embodiment of this invention. 発明の実施の形態における3次元物体の表面を特定する処理を説明する図である。It is a figure explaining the process which specifies the surface of the three-dimensional object in embodiment of invention.

本発明の実施の形態における3次元造形装置100は、図1に示すように、造形部102及び制御部104を含んで構成される。制御部104は、3次元物体を表す立体データから表面色も考慮した造形データを生成し、造形データに基づいて造形部102を制御して3次元物体を造形させる。   A three-dimensional modeling apparatus 100 according to an embodiment of the present invention includes a modeling unit 102 and a control unit 104 as shown in FIG. The control unit 104 generates modeling data considering the surface color from the three-dimensional data representing the three-dimensional object, and controls the modeling unit 102 based on the modeling data to model the three-dimensional object.

なお、図1では、造形部102と制御部104が直接接続された構成を示しているが、インターネット等の情報通信網を介して造形部102と制御部104とを接続する構成としてもよい。   1 shows a configuration in which the modeling unit 102 and the control unit 104 are directly connected, but the modeling unit 102 and the control unit 104 may be connected via an information communication network such as the Internet.

造形部102は、図2に示すように、造形台10、ステージ12、インクタンク14、インクヘッド16及びヘッド駆動部18を含んで構成される。造形台10は、造形部102を機械的に支持する土台となる構成要素である。造形台10の上に、ステージ12、インクタンク14、インクヘッド16及びヘッド駆動部18が配置される。   As shown in FIG. 2, the modeling unit 102 includes a modeling table 10, a stage 12, an ink tank 14, an ink head 16, and a head driving unit 18. The modeling table 10 is a component that serves as a foundation for mechanically supporting the modeling unit 102. On the modeling table 10, a stage 12, an ink tank 14, an ink head 16, and a head driving unit 18 are arranged.

ステージ12は、造形物を形成するための台となる構成要素である。ステージ12の上面は、造形物を形成するために適した形状、例えば平面とすることが好適である。なお、本実施の形態では、便宜上、鉛直方向(上方向)をZ軸方向として説明する。ステージ12は、ステージ駆動機構を備える。ステージ12は、制御部104からの制御信号にしたがってZ軸方向に沿って上下させることができる。   The stage 12 is a component serving as a table for forming a modeled object. The upper surface of the stage 12 is preferably a shape suitable for forming a modeled object, for example, a flat surface. In the present embodiment, the vertical direction (upward direction) is described as the Z-axis direction for convenience. The stage 12 includes a stage driving mechanism. The stage 12 can be moved up and down along the Z-axis direction according to a control signal from the control unit 104.

インクタンク14は、造形される3次元物体を構成するためのインクを蓄えるための構成要素である。本実施の形態では、造形物はカラーの表面を有する3次元物体とするので、インクタンク14は出力色を構成する色成分のインクを蓄えるインク貯蔵部を備える。本実施の形態では、出力色を構成する色成分は、シアン(C)、マゼンダ(M)及びイエロー(Y)とする。ただし、これに限定されるものではない。また、インクタンク14は、ベース色のインクを蓄えるインク貯蔵部も備える。ベース色は、造形される3次元物体の表面領域以外の内部領域を構成するインクの色である。ベース色は、明るい無彩色とすることが好適である。具体的には、ベース色は、白(W)又は透明(T)とするとよい。本実施の形態では、ベース色は白(W)とする。   The ink tank 14 is a component for storing ink for constituting a three-dimensional object to be shaped. In the present embodiment, since the modeled object is a three-dimensional object having a color surface, the ink tank 14 includes an ink storage unit that stores ink of color components constituting the output color. In the present embodiment, the color components constituting the output color are cyan (C), magenta (M), and yellow (Y). However, it is not limited to this. The ink tank 14 also includes an ink storage unit that stores base color ink. The base color is the color of ink that forms an internal region other than the surface region of the three-dimensional object to be shaped. The base color is preferably a bright achromatic color. Specifically, the base color may be white (W) or transparent (T). In this embodiment, the base color is white (W).

インクヘッド16は、インクタンク14から供給されるインクを吐出させる構成要素である。インクヘッド16は、出力色を構成する色成分及びベース色のインクを吐出できるだけの数のインクノズルを備える。インクヘッド16は、ステージ12上に配置される。   The ink head 16 is a component that discharges ink supplied from the ink tank 14. The ink head 16 includes a number of ink nozzles that can eject the color components constituting the output color and the base color ink. The ink head 16 is disposed on the stage 12.

図3は、インクヘッド16の構成例を示す。インクヘッド16は、Y軸方向にCMYWの各色に対応するインクノズル16C、16M、16Y及び16Wが配置されたノズル群16Aを備える。また、インクヘッド16は、ノズル群16AをX軸方向に沿って複数並べて配置したノズルアレイ構造とされる。ノズル群16Aは、ステージ12のX軸方向の幅に亘って造形物を形成するために必要な数だけ配置することが好適である。   FIG. 3 shows a configuration example of the ink head 16. The ink head 16 includes a nozzle group 16A in which ink nozzles 16C, 16M, 16Y, and 16W corresponding to CMYW colors are arranged in the Y-axis direction. The ink head 16 has a nozzle array structure in which a plurality of nozzle groups 16A are arranged along the X-axis direction. It is preferable that the nozzle group 16 </ b> A is arranged as many as necessary to form a modeled object across the width of the stage 12 in the X-axis direction.

また、造形部102において使用するインクが紫外線硬化型である場合、インクヘッド16に紫外線照射手段16Vを併設してもよい。紫外線照射手段16Vとしては、紫外線ランプや紫外線レーザ等を適用することができる。なお、紫外線照射手段16Vは、インクヘッド16とは別に設けてもよい。   Further, when the ink used in the modeling unit 102 is an ultraviolet curable type, the ultraviolet irradiation means 16 </ b> V may be provided in the ink head 16. As the ultraviolet irradiation means 16V, an ultraviolet lamp, an ultraviolet laser, or the like can be applied. The ultraviolet irradiation means 16V may be provided separately from the ink head 16.

ヘッド駆動部18は、ステージ12上にてインクヘッド16を移動させるための構成要素である。ヘッド駆動部18は、Y軸方向に沿って配置されたレール18aを備える。また、インクヘッド16をレール18aに沿って移動させるためのモータ(図示しない)を含んで構成することができる。インクヘッド16は、レール18aによってY軸方向に移動可能に支持されると共に、ボールネジ等の駆動部材を介してモータに結合される。ヘッド駆動部18は、制御部104からの制御信号にしたがってモータを回転駆動させることによってインクヘッド16をレール18aに沿って、すなわちY軸方向に沿って移動させることができる。ただし、ヘッド駆動部18の構成は、これに限定されるものではなく、3次元物体を造形するためにインクヘッド16をステージ12に対して相対的に移動させることができる構成であればよい。   The head drive unit 18 is a component for moving the ink head 16 on the stage 12. The head drive unit 18 includes a rail 18a arranged along the Y-axis direction. Further, it may be configured to include a motor (not shown) for moving the ink head 16 along the rail 18a. The ink head 16 is supported by a rail 18a so as to be movable in the Y-axis direction, and is coupled to a motor via a driving member such as a ball screw. The head driving unit 18 can move the ink head 16 along the rail 18a, that is, along the Y-axis direction by rotating the motor in accordance with a control signal from the control unit 104. However, the configuration of the head drive unit 18 is not limited to this, and any configuration may be used as long as the ink head 16 can be moved relative to the stage 12 in order to form a three-dimensional object.

造形部102は、3次元物体を構成する画素(ボクセル:体積要素)の位置情報及び当該ボクセルの色情報を含む造形データを制御部104から受信する。造形部102は、制御部104から受信した位置情報に応じたZ軸方向の位置にステージ12を上下させると共に、当該位置情報に応じたY軸方向の位置にインクヘッド16を移動させる。そして、当該位置情報に応じたX軸方向のインクノズル16C,16M,16Y,16Wのいずれか1つから、当該ボクセルの色情報により特定される色のインクを吐出させる。インクノズル16C,16M,16Y,16Wからインクを吐出後、紫外線照射手段16Vから紫外線を照射することによりインクを硬化させることができる。   The modeling unit 102 receives from the control unit 104 modeling data including position information of pixels (voxels: volume elements) constituting the three-dimensional object and color information of the voxels. The modeling unit 102 moves the stage 12 up and down to a position in the Z-axis direction corresponding to the position information received from the control unit 104, and moves the ink head 16 to a position in the Y-axis direction corresponding to the position information. Then, the ink of the color specified by the color information of the voxel is ejected from any one of the ink nozzles 16C, 16M, 16Y, and 16W in the X-axis direction corresponding to the position information. After the ink is ejected from the ink nozzles 16C, 16M, 16Y, and 16W, the ink can be cured by irradiating the ultraviolet rays from the ultraviolet irradiation means 16V.

3次元物体は、X軸方向−Y軸方向−Z軸方向の格子単位であるボクセル(体積要素)の群からなる立体データで表される。立体データは、X軸−Y軸平面に沿って厚さ1ボクセル毎に1層とされる。造形部102は、インクヘッド16をY軸方向に移動させながらX軸−Y軸平面に沿ってインクを吐出させ、1層分の造形が終了すると、ステージ12をZ軸方向に沿って下方移動させて次の層の造形に移る。造形部102は、これを繰り返すことによって、3次元物体を造形する。   A three-dimensional object is represented by three-dimensional data including a group of voxels (volume elements) which are lattice units in the X-axis direction-Y-axis direction-Z-axis direction. The three-dimensional data has one layer for each voxel thickness along the X-axis-Y-axis plane. The modeling unit 102 ejects ink along the X-axis-Y-axis plane while moving the ink head 16 in the Y-axis direction. When modeling for one layer is completed, the stage 12 is moved downward along the Z-axis direction. Let me move on to the next layer. The modeling unit 102 models a three-dimensional object by repeating this.

制御部104は、図4に示すように、処理部30、記憶部32、入力部34、出力部36及び通信部38を含んで構成される。制御部104は、一般的なコンピュータにより構成することができる。処理部30は、CPU等の演算処理を行う手段を含む。処理部30は、記憶部32に記憶されている画像処理プログラムを実行することによって、本実施の形態における画像や色信号の処理を実現する。これにより、制御部104は、画像処理装置として機能する。また、制御部104は、記憶部32に記憶されている造形処理プログラムを実行することにより、造形部102に対してインクを吐出させる信号を出力して制御する。記憶部32は、半導体メモリやメモリカード等の記憶手段を含む。記憶部32は、処理部30とアクセス可能に接続され、画像処理プログラム、造形処理プログラム、それらの処理に必要な情報を記憶する。入力部34は、情報を入力する手段を含む。入力部34は、例えば、使用者からの指令の入力を受けるキーボード、タッチパネル、ボタン等を備える。出力部36は、使用者に対して処理に関する情報を呈示する。出力部36は、例えば、使用者に対して画像を表示するディスプレイとすることができる。通信部38は、造形部102に対して位置情報や色情報等の情報を出力するためのインターフェースを含む。また、通信部38は、インターネット等の情報通信網を介して造形対象となる3次元物体の3次元データを外部から取得するためのインターフェースを備えてもよい。   As shown in FIG. 4, the control unit 104 includes a processing unit 30, a storage unit 32, an input unit 34, an output unit 36, and a communication unit 38. The control unit 104 can be configured by a general computer. The processing unit 30 includes means for performing arithmetic processing such as a CPU. The processing unit 30 executes the image processing program stored in the storage unit 32 to realize the processing of images and color signals in the present embodiment. Thereby, the control unit 104 functions as an image processing apparatus. In addition, the control unit 104 executes a modeling process program stored in the storage unit 32 to output and control a signal that causes the modeling unit 102 to eject ink. The storage unit 32 includes storage means such as a semiconductor memory or a memory card. The storage unit 32 is connected to the processing unit 30 so as to be accessible, and stores an image processing program, a modeling processing program, and information necessary for the processing. The input unit 34 includes means for inputting information. The input unit 34 includes, for example, a keyboard, a touch panel, and a button that receive a command input from the user. The output unit 36 presents information regarding processing to the user. The output unit 36 can be, for example, a display that displays an image to the user. The communication unit 38 includes an interface for outputting information such as position information and color information to the modeling unit 102. Moreover, the communication part 38 may be provided with the interface for acquiring the three-dimensional data of the three-dimensional object used as modeling object from the outside via information communication networks, such as the internet.

なお、本実施の形態では、制御部104は、一般的なコンピュータにおいてプログラムを実行することによって実現するものとしたが、その一部又は全部をASIC等のハードウェアで実現してもよい。   In the present embodiment, the control unit 104 is realized by executing a program in a general computer, but part or all of the control unit 104 may be realized by hardware such as an ASIC.

また、色信号処理プログラム及び造形処理プログラム等の各種プログラムは、通信部38を介して提供されてもよいし、CDROM等の記録媒体によって提供されてもよい。   Various programs such as a color signal processing program and a modeling processing program may be provided via the communication unit 38 or may be provided by a recording medium such as a CDROM.

以下、図5に示すフローチャートを参照して、本実施の形態における3次元物体の造形処理について説明する。制御部104にて、画像処理プログラム及び造形処理プログラムを実行することにより以下の処理が行われる。なお、以下の処理によって、3次元造形装置100は、図6の機能ブロック図に示す各手段として機能する。   Hereinafter, with reference to the flowchart shown in FIG. 5, the modeling process of the three-dimensional object in this Embodiment is demonstrated. The control unit 104 executes the following processing by executing the image processing program and the modeling processing program. The three-dimensional modeling apparatus 100 functions as each unit shown in the functional block diagram of FIG. 6 by the following processing.

ステップS10では、3次元データの取得処理が行われる。当該ステップでの処理によって、制御部104は3次元データ取得手段150として機能する。処理部30は、入力部34又は通信部38を介して、造形対象となる3次元物体の外形を表す3次元データを取得する。取得された3次元データは、記憶部32に記憶される。3次元データは、CAD等によって設計された3次元物体の形状のデータや3次元形状計測器等によって計測された3次元物体の形状のデータを含む。   In step S10, three-dimensional data acquisition processing is performed. The control unit 104 functions as the three-dimensional data acquisition unit 150 by the processing in this step. The processing unit 30 acquires three-dimensional data representing the outer shape of the three-dimensional object to be modeled via the input unit 34 or the communication unit 38. The acquired three-dimensional data is stored in the storage unit 32. The three-dimensional data includes three-dimensional object shape data designed by CAD or the like, or three-dimensional object shape data measured by a three-dimensional shape measuring instrument or the like.

また、3次元データは、3次元物体の表面の色データ(第1色信号)も含む。すなわち、3次元データ取得手段150は、色信号取得手段を含む。本実施の形態では、3次元データには3次元物体の表面色を赤(R信号)、緑(G信号)、青(B信号)の色成分によって構成されるRGB色空間で表した色データが含まれているものとする。   The three-dimensional data also includes color data (first color signal) of the surface of the three-dimensional object. That is, the three-dimensional data acquisition unit 150 includes a color signal acquisition unit. In the present embodiment, the three-dimensional data includes color data representing the surface color of a three-dimensional object in an RGB color space composed of red (R signal), green (G signal), and blue (B signal) color components. Is included.

ステップS12では、ボクセル化処理が行われる。当該ステップでの処理によって、制御部104はボクセル化処理手段152として機能する。処理部30は、記憶部32からステップS10において取得した3次元データを読み出し、3次元データをボクセルデータに変換する。ボクセルデータは、3次元データによって表される3次元物体を3次元空間における正規格子単位(ボクセル)の集合として表したデータである。ボクセルデータにおいて、各ボクセルは、ボクセルの位置を示す情報、3次元データで定義されている3次元物体を構成しているか否かを示す情報及び物体表面からの距離を示す情報を含む。   In step S12, voxelization processing is performed. By the processing in this step, the control unit 104 functions as the voxelization processing unit 152. The processing unit 30 reads the three-dimensional data acquired in step S10 from the storage unit 32, and converts the three-dimensional data into voxel data. The voxel data is data representing a three-dimensional object represented by three-dimensional data as a set of normal lattice units (voxels) in a three-dimensional space. In the voxel data, each voxel includes information indicating the position of the voxel, information indicating whether or not a three-dimensional object defined by the three-dimensional data is configured, and information indicating a distance from the object surface.

ボクセル化処理は、例えば、次のように行われる。3次元空間を分割の単位となる形状及び大きさのボクセルに分割し、3次元物体の表面で覆われた空間内に含まれるボクセルには3次元物体を構成していることを示すデータ(例えば”1”)を割り当て、当該空間外にあるボクセルには3次元物体を構成していないことを示すデータ(例えば”0”)を割り当てる。より具体的には、例えば、図7に示すように、Z軸方向に沿って3次元物体200をボクセルの幅で切り出す。さらに、切り出されたX軸−Y軸平面内の物体の断面形状の内部をボクセルの幅の格子で区切ってボクセルBとする。そして、ボクセルB毎に3次元物体を構成していることを示すデータを割り当てる。また、各ボクセルBに対して、3次元物体の表面からボクセルBの中心点までの最短距離を算出して割り当てる。このような処理を、3次元物体のZ軸方向に沿って繰り返し、ボクセルの層を積層することによってボクセル化処理が行われる。生成されたボクセルデータは、記憶部32に記憶される。   The voxelization process is performed as follows, for example. Data indicating that the three-dimensional space is divided into voxels having a shape and size as a unit of division and the voxels included in the space covered by the surface of the three-dimensional object constitute a three-dimensional object (for example, “1”) is assigned, and data (for example, “0”) indicating that a three-dimensional object is not configured is assigned to voxels outside the space. More specifically, for example, as shown in FIG. 7, the three-dimensional object 200 is cut out with the width of the voxel along the Z-axis direction. Furthermore, the inside of the cross-sectional shape of the object in the cut out X-axis-Y-axis plane is divided into a voxel width grid to obtain a voxel B. Then, data indicating that a three-dimensional object is configured is assigned to each voxel B. Further, the shortest distance from the surface of the three-dimensional object to the center point of the voxel B is calculated and assigned to each voxel B. Such processing is repeated along the Z-axis direction of the three-dimensional object, and voxel processing is performed by stacking voxel layers. The generated voxel data is stored in the storage unit 32.

ステップS14では、ボクセルへのカラー情報の割り当て処理が行われる。当該ステップでの処理によって、制御部104はカラー情報割当手段154として機能する。処理部30は、ステップS12によって得られたボクセルデータの各ボクセルに対して3次元データに含まれている色データ(第1色信号)を割り当てる。3次元物体を構成していることを示すデータが割り当てられているボクセルのうち3次元物体の表面に位置するボクセルには、3次元データの当該表面位置の色データ(第1色信号)をマッピングして割り当てる。また、3次元物体の内部に位置するボクセルには、そのボクセルに最も近い物体表面のボクセルの色データを割り当てる。   In step S14, color information is assigned to voxels. The control unit 104 functions as the color information assigning unit 154 by the processing in this step. The processing unit 30 assigns the color data (first color signal) included in the three-dimensional data to each voxel of the voxel data obtained in step S12. Among the voxels to which data indicating that a three-dimensional object is configured is assigned, the color data (first color signal) of the surface position of the three-dimensional data is mapped to the voxel located on the surface of the three-dimensional object. And assign. Further, the color data of the voxel on the object surface closest to the voxel is assigned to the voxel located inside the three-dimensional object.

なお、3次元物体の表面から基準となる距離D1以内のボクセルのみに色データを割り当て、当該距離D1を超える深部のボクセルにはベース色を割り当てるようにしてもよい。すなわち、距離D1を閾値として、距離D1より表面側に位置するボクセルには表面色を割り当て、距離D1より物体内側に位置するボクセルにはベース色を割り当てる。また、ボクセルの物体表面からの距離に応じて割り当てる色データの値に重み付けをしてもよい。例えば、物体の表面からの距離が大きくなるほど表面色の値が小さくなり、ベース色の値が大きくなるように重み付けする。また、ボクセルの位置の物体表面に対する法線方向からのずれに応じて割り当てる色データの値に重み付けをしてもよい。例えば、ボクセルの法線方向からずれの角度の余弦値によって重み付けした色データの値を当該ボクセルに割り当てればよい。さらに、これらの方法を組み合わせてもよい。   Note that color data may be assigned only to voxels within the reference distance D1 from the surface of the three-dimensional object, and a base color may be assigned to deep voxels exceeding the distance D1. That is, with the distance D1 as a threshold value, a surface color is assigned to a voxel located on the surface side of the distance D1, and a base color is assigned to a voxel located on the object inside of the distance D1. Further, the color data value assigned according to the distance of the voxel from the object surface may be weighted. For example, weighting is performed so that the surface color value decreases as the distance from the surface of the object increases, and the base color value increases. In addition, the value of the color data to be assigned may be weighted according to the deviation of the voxel position from the normal direction with respect to the object surface. For example, the value of color data weighted by the cosine value of the angle shifted from the normal direction of the voxel may be assigned to the voxel. Furthermore, these methods may be combined.

ステップS16では、3次元データとして取得された色データ(第1色信号)を造形部102へ出力される出力色を表すための色データへ変換する色空間変換処理が行われる。当該処理により、制御部104は色空間変換手段156として機能する。ステップS10において取得された3次元データは、第1の色成分(本実施の形態ではRGB)から構成される第1色空間からなる色データ(第1色信号)を含む。造形部102へ出力される出力色は、造形部102で使用されるインクによって表現できる第2の色成分(本実施の形態ではCMY)から構成される第2色空間からなる色データで表される。当該ステップでは、ステップS14において色データが割り当てられたボクセル毎に第1色空間から第2色空間への色空間変換処理が行われる。   In step S <b> 16, color space conversion processing is performed for converting the color data (first color signal) acquired as the three-dimensional data into color data for representing the output color output to the modeling unit 102. By this processing, the control unit 104 functions as the color space conversion unit 156. The three-dimensional data acquired in step S10 includes color data (first color signal) composed of a first color space composed of a first color component (RGB in the present embodiment). The output color output to the modeling unit 102 is represented by color data including a second color space composed of a second color component (CMY in the present embodiment) that can be expressed by the ink used in the modeling unit 102. The In this step, color space conversion processing from the first color space to the second color space is performed for each voxel to which color data is assigned in step S14.

本実施の形態では、出力色は、造形部102で使用されるインクによって表現できるシアン(C信号)、マゼンダ(M信号)、イエロー(Y信号)の色成分によって構成されるCMY色空間で表した色データ(色信号)で表す。ただし、出力色を構成する色成分はこれらに限定されるものではない。RGB色空間からCMY色空間への色空間変換には、既存の補色変換処理や3D−LUT(3次元ルックアップテーブル)を用いた変換処理を適用すればよい。 In the present embodiment, the output color is a CMY color composed of cyan (C 1 signal), magenta (M 1 signal), and yellow (Y 1 signal) color components that can be expressed by the ink used in the modeling unit 102. It is represented by color data (color signal) expressed in space. However, the color components constituting the output color are not limited to these. For color space conversion from the RGB color space to the CMY color space, existing complementary color conversion processing or conversion processing using a 3D-LUT (three-dimensional lookup table) may be applied.

ステップS18では、エッジ検出処理が行われる。当該処理によって、制御部104はエッジ検出手段158として機能する。制御部104は、各ボクセルについて3次元的にエッジに相当するか否かを検出する。   In step S18, edge detection processing is performed. By this processing, the control unit 104 functions as the edge detection unit 158. The control unit 104 detects whether each voxel corresponds to an edge three-dimensionally.

具体的には、3次元データにおいて物体を構成する各ボクセルを順に注目ボクセルとして、注目ボクセルの近傍にある周辺ボクセルとの関係に基づいて注目ボクセルがエッジ部分に該当するか否かを判定する。図8は、エッジ検出の対象となるボクセルの集合体300を説明するための図である。集合体300は、注目ボクセルAを中心として、X軸−Y軸平面に沿った9個のボクセルからなる集合体302、集合体302をY軸に沿って回転させた集合体304、集合体302をX軸に沿って回転させた集合体306を組み合わせて構成される。   Specifically, each voxel constituting the object in the three-dimensional data is set as the target voxel in order, and it is determined whether the target voxel corresponds to the edge portion based on the relationship with the neighboring voxels in the vicinity of the target voxel. FIG. 8 is a diagram for explaining a collection 300 of voxels to be subjected to edge detection. The aggregate 300 is composed of an aggregate 302 composed of nine voxels along the X-axis-Y-axis plane around the target voxel A, an aggregate 304 obtained by rotating the aggregate 302 along the Y-axis, and an aggregate 302 Are combined with an assembly 306 that is rotated along the X axis.

制御部104は、注目ボクセルAに対して、集合体302,304,306毎にエッジ検出処理を適用する。図9は、エッジ検出フィルタ(エッジ検出器)の例を示す。図9では、集合体302,304,306のそれぞれについて第1エッジ検出フィルタ、第2エッジ検出フィルタ及び第3エッジ検出フィルタを適用する。第1エッジ検出フィルタは、集合体302において注目ボクセルAの周辺にある3個のボクセルB(左斜線のハッチングを施したボクセル)の階調の和と3個のボクセルC(右斜線のハッチングを施したボクセル)の階調の和との差が基準値よりも大きいときに注目ボクセルAがエッジに該当すると判定する。同様に、第2エッジ検出フィルタ及び第3エッジ検出フィルタはそれぞれ集合体304及び306について、注目ボクセルAの周辺にある3個のボクセルB(左斜線のハッチングを施したボクセル)の階調の和と3個のボクセルC(右斜線のハッチングを施したボクセル)の階調の和との差が基準値よりも大きいときに注目ボクセルAがエッジに該当すると判定する。   The control unit 104 applies edge detection processing to the target voxel A for each of the aggregates 302, 304, and 306. FIG. 9 shows an example of an edge detection filter (edge detector). In FIG. 9, the first edge detection filter, the second edge detection filter, and the third edge detection filter are applied to each of the aggregates 302, 304, and 306. The first edge detection filter performs summation of gradations of three voxels B (voxels hatched with left oblique lines) and three voxels C (right oblique hatching) around the target voxel A in the aggregate 302. It is determined that the target voxel A corresponds to the edge when the difference between the gradation of the applied voxel) and the sum of gradations is larger than the reference value. Similarly, the second edge detection filter and the third edge detection filter are the sum of the gray levels of the three voxels B (the voxels hatched with left oblique lines) around the target voxel A for the aggregates 304 and 306, respectively. And the three voxels C (voxels hatched with right oblique lines) are larger than the reference value, it is determined that the target voxel A corresponds to an edge.

図10〜図12は、エッジ検出フィルタの別例を示す。図9と同様に、集合体302,304,306において注目ボクセルAの周辺にある3個のボクセルB(左斜線のハッチングを施したボクセル)の階調の和と3個のボクセルC(右斜線のハッチングを施したボクセル)の階調の和との差が基準値よりも大きいときに注目ボクセルAがエッジに該当すると判定する。   10 to 12 show other examples of the edge detection filter. As in FIG. 9, in the aggregates 302, 304, and 306, the sum of the gray levels of the three voxels B (the voxels with hatched left diagonal lines) around the target voxel A and the three voxels C (right diagonal lines) When the difference between the shaded voxel) and the sum of gradations is larger than the reference value, it is determined that the target voxel A corresponds to an edge.

なお、各ボクセルの階調は、各ボクセルの色信号(C信号、M信号、Y信号)の各々の強度とすることができる。この場合、各ボクセルの各色についてそれぞれエッジに相当するか否かが判定される。また、各ボクセルの階調は、各ボクセルの色信号全体の強度とすることができる。色信号全体の強度は、各色信号(C信号、M信号、Y信号)の和や二乗平方根等の値とすればよい。この場合、各ボクセルの色全体の強度についてエッジに相当するか否かが判定される。 Note that the gradation of each voxel can be the intensity of each voxel color signal (C 1 signal, M 1 signal, Y 1 signal). In this case, it is determined whether each color of each voxel corresponds to an edge. The gradation of each voxel can be the intensity of the entire color signal of each voxel. The intensity of the entire color signal may be a value such as the sum or square root of each color signal (C 1 signal, M 1 signal, Y 1 signal). In this case, it is determined whether the intensity of the entire color of each voxel corresponds to an edge.

図13は、エッジ検出フィルタの別例を示す。当該例では、立方体310を構成する27個のボクセルについてエッジ検出処理を適用する。注目ボクセルAは、立方体310の中心のボクセルとする。立方体310は、注目ボクセルAを中心として、X軸−Y軸平面に沿った9つのボクセルからなる最上層の集合体312、中間層の集合体314及び最下層の集合体316を組み合わせて構成される。   FIG. 13 shows another example of the edge detection filter. In this example, the edge detection process is applied to 27 voxels constituting the cube 310. The target voxel A is a voxel at the center of the cube 310. The cube 310 is formed by combining the uppermost layer aggregate 312, the intermediate layer aggregate 314, and the lowermost layer aggregate 316 including nine voxels along the X-axis / Y-axis plane with the target voxel A as the center. The

制御部104は、注目ボクセルAに対して、集合体312,314,316を組み合わせてエッジ検出処理を適用する。図14は、エッジ検出フィルタの例を示す。立方体310の左上奥の角に位置するボクセルB及びそれに隣接する3つのボクセルB(左斜線のハッチングを施したボクセル)の階調の和と右下手前の角に位置するボクセルC及びそれに隣接する3つのボクセルC(右斜線のハッチングを施したボクセル)の階調の和との差が基準値よりも大きいときに注目ボクセルAがエッジに該当すると判定する。図15〜図17は、図14に示したエッジ検出フィルタをZ軸に沿って逆時計方向にそれぞれ90°、180°及び270°回転させたエッジ検出フィルタを示す。これらのエッジ検出フィルタにおいても、注目ボクセルAの周辺にある4つのボクセルB(左斜線のハッチングを施したボクセル)の階調の和と4つのボクセルC(右斜線のハッチングを施したボクセル)の階調の和との差が基準値よりも大きいときに注目ボクセルAがエッジに該当すると判定する。   The control unit 104 applies edge detection processing to the target voxel A by combining the aggregates 312, 314, and 316. FIG. 14 shows an example of an edge detection filter. The sum of the gradation of the voxel B located at the upper left corner of the cube 310 and the three voxels B adjacent to it (hatched with hatched left diagonal lines) and the voxel C located at the lower right corner and adjacent thereto It is determined that the target voxel A corresponds to an edge when the difference between the gradations of the three voxels C (the voxels hatched with right oblique lines) is larger than the reference value. 15 to 17 show edge detection filters obtained by rotating the edge detection filter shown in FIG. 14 by 90 °, 180 °, and 270 ° counterclockwise along the Z axis, respectively. Also in these edge detection filters, the sum of the gradations of four voxels B (voxels with hatched left diagonal lines) and four voxels C (voxels with hatched right diagonal lines) around the target voxel A When the difference from the sum of gradations is larger than the reference value, it is determined that the target voxel A corresponds to an edge.

なお、上記のエッジ検出フィルタを組み合わせて使用してもよい。複数種のエッジ検出フィルタを組み合わせて使用することによって、ノイズ等の影響によるエッジの誤検出を抑制することができる。   Note that the above edge detection filters may be used in combination. By using a plurality of types of edge detection filters in combination, erroneous detection of edges due to the influence of noise or the like can be suppressed.

ところで、3次元物体の表面近傍では、階調値(色情報)を有する3次元物体の表面にあるボクセル及び3次元物体の内部のボクセルと、階調値(色情報)を有さない物体の外部のボクセルが混在する。3次元物体の外部に位置するボクセル、すなわち3次元物体を構成しないボクセルは階調値を持たない。したがって、3次元物体の表面では、物体の外のボクセルの影響をうけてエッジ検出が適切にできないおそれがある。そこで、3次元物体を構成するボクセルであってエッジが検出できないボクセルについてステップS20の処理を適用する。   By the way, in the vicinity of the surface of the three-dimensional object, there are voxels on the surface of the three-dimensional object having gradation values (color information) and voxels inside the three-dimensional object, and objects having no gradation values (color information). A mix of external voxels. A voxel located outside the three-dimensional object, that is, a voxel that does not constitute a three-dimensional object does not have a gradation value. Therefore, on the surface of the three-dimensional object, there is a possibility that edge detection cannot be performed properly due to the influence of voxels outside the object. Therefore, the process of step S20 is applied to voxels that constitute a three-dimensional object and that cannot detect edges.

ステップS20では、エッジ検出手段158において得られたエッジの検出結果を他のボクセルのエッジの検出結果として割り当てる処理が行われる。当該処理により、制御部104は検出結果割当手段160として機能する。   In step S20, processing for assigning the edge detection result obtained by the edge detection means 158 as the detection result of the edge of another voxel is performed. With this processing, the control unit 104 functions as the detection result assignment unit 160.

図18は、3次元物体の表面近傍の一部を切り出した構造体320を示す図である。構造体320は、構造体320の外側にある最上層の構造体322、構造体320の表面を構成するボクセルを含む構造体324及び構造体326、構造体320の表面を構成するボクセルを含まず内部を構成するボクセルのみから構成される構造体328,330に分解できる。図18において、3次元物体を構成するボクセルは実線で示し、3次元物体を構成していないボクセルは破線で示す。   FIG. 18 is a diagram illustrating a structure 320 obtained by cutting out a part near the surface of a three-dimensional object. The structure 320 does not include the uppermost structure 322 outside the structure 320, the structure 324 including the voxels that configure the surface of the structure 320, the structure 326, and the voxels that configure the surface of the structure 320. It can be decomposed into structures 328 and 330 composed only of voxels constituting the inside. In FIG. 18, voxels constituting the three-dimensional object are indicated by solid lines, and voxels not constituting the three-dimensional object are indicated by broken lines.

ここで、構造体320について上記図9〜図17に示したエッジ検出フィルタの適用範囲を検討する。構造体320の内部を構成する構造体326に含まれるボクセルB2についてエッジ検出フィルタを適用しようとしたとき、階調値が割り当てられているボクセルの範囲内にエッジ検出フィルタの適用範囲が収まっているのでエッジを適切に検出することができる。一方、構造体320の表面を構成する構造体324及び構造体326に含まれるボクセルB1についてエッジ検出フィルタを適用しようとしたとき、階調値が割り当てられているボクセルの範囲内にエッジ検出フィルタの適用範囲が収まっていなのでエッジを適切に検出することができない。   Here, the application range of the edge detection filter shown in FIGS. When an edge detection filter is applied to the voxel B2 included in the structure 326 constituting the structure 320, the application range of the edge detection filter is within the range of voxels to which gradation values are assigned. Therefore, the edge can be detected appropriately. On the other hand, when an edge detection filter is applied to the structure 324 and the voxel B1 included in the structure 326 constituting the surface of the structure 320, the edge detection filter is within the range of voxels to which the gradation value is assigned. Since the application range is within the range, the edge cannot be detected properly.

そこで、検出結果割当手段160において、エッジ検出フィルタを適用できないボクセルB1についてエッジ検出フィルタを適用できるボクセルB2のエッジの検出結果を割り当てる処理を行う。具体的には、エッジ検出フィルタを適用できないボクセルB1に対して3次元物体の表面の垂直方向に位置するエッジ検出フィルタを適用できるボクセルB2のエッジの検出結果を割り当てる。   Therefore, the detection result assignment unit 160 performs processing for assigning the edge detection result of the voxel B2 to which the edge detection filter can be applied to the voxel B1 to which the edge detection filter is not applicable. Specifically, the edge detection result of the voxel B2 to which the edge detection filter located in the vertical direction of the surface of the three-dimensional object can be applied is assigned to the voxel B1 to which the edge detection filter is not applicable.

例えば、構造体326の中央に位置するボクセルB1には、ボクセルB1から表面法線方向(Z軸方向)に沿って最も近くに位置し、エッジ検出フィルタが適用可能な構造体328の中央に位置するボクセルB2の値を拡張して割り当てる。また、例えば、構造体324の中央に位置するボクセルB1にも、ボクセルB1から表面法線方向(Z軸方向)に沿って最も近くに位置し、エッジ検出フィルタが適用可能な構造体328の中央に位置するボクセルB2の値を拡張して割り当てる。   For example, the voxel B1 positioned at the center of the structure 326 is positioned closest to the voxel B1 along the surface normal direction (Z-axis direction) and is positioned at the center of the structure 328 to which the edge detection filter can be applied. The value of voxel B2 to be expanded is assigned. Further, for example, the voxel B1 located at the center of the structure 324 is also located closest to the voxel B1 along the surface normal direction (Z-axis direction), and the center of the structure 328 to which the edge detection filter can be applied. The value of voxel B2 located in is expanded and assigned.

このように、3次元物体においてエッジ検出フィルタを直接適用することができないボクセルに対して、エッジ検出フィルタを適用することができるボクセルのエッジ検出結果を拡張して適用する。これによって、エッジ検出フィルタを直接適用することができないボクセルについてもエッジの有無が設定される。   As described above, the voxel edge detection result to which the edge detection filter can be applied is expanded and applied to the voxel to which the edge detection filter cannot be directly applied in the three-dimensional object. Thereby, the presence / absence of an edge is also set for voxels to which the edge detection filter cannot be directly applied.

ここで、3次元物体では、表面の面内における階調値の分布は、そのまま3次元物体の内部における面内の階調値の分布に引き継がれていることが多い。すなわち、3次元物体の着色領域を構成するボクセルの各層の階調値の面内での分布は物体表面から内部に向かって引き継がれている可能性が高い。例えば、3次元物体の最表面のボクセルにおける階調値の分布は、第2層目のボクセルにおける階調値の分布に近いことが多い。したがって、3次元物体の表面に対して垂直方向に位置するボクセル同士においてエッジの検出結果は似通っている可能性が高い。そこで、本実施の形態では、エッジ検出フィルタを適用できないボクセルに対して表面の垂直方向に位置するボクセルのエッジの検出結果を割り当てることで、より適切なエッジの検出結果が拡張して割り当てられる。   Here, in a three-dimensional object, the distribution of gradation values in the surface of the surface is often handed over to the distribution of gradation values in the surface within the three-dimensional object. That is, it is highly possible that the in-plane distribution of gradation values of each layer of voxels constituting the colored region of the three-dimensional object is inherited from the object surface toward the inside. For example, the distribution of gradation values in the voxels on the outermost surface of a three-dimensional object is often close to the distribution of gradation values in the voxels of the second layer. Therefore, it is highly possible that the edge detection results are similar between voxels positioned in the direction perpendicular to the surface of the three-dimensional object. Therefore, in this embodiment, by assigning the detection result of the edge of the voxel positioned in the vertical direction of the surface to the voxel to which the edge detection filter cannot be applied, the more appropriate detection result of the edge is assigned.

なお、3次元物体の表面は、以下の方法にて判断することができる。所定の大きさの立方体を構成するボクセルを選択し、立方体の6面の各々において最も物体を構成しないボクセルが多い面を表面として判断する。図19のように、27個のボクセルからなる立方体332を選択した場合、立方体332の正面、背面、上面、下面、右側面、左側面のうち最も物体を構成しないボクセルが多い上面が立方体332の表面であると判断される。したがって、立方体332の表面法線方向は、上面に対して垂直な方向、すなわちZ軸方向に設定される。   The surface of the three-dimensional object can be determined by the following method. A voxel constituting a cube of a predetermined size is selected, and a surface having the most voxels that do not constitute an object is determined as a surface in each of the six faces of the cube. As shown in FIG. 19, when a cube 332 composed of 27 voxels is selected, the top surface of the cube 332 that has the most voxels that do not constitute an object among the front surface, back surface, top surface, bottom surface, right side surface, and left side surface of the cube 332 Judged to be surface. Therefore, the surface normal direction of the cube 332 is set to a direction perpendicular to the upper surface, that is, the Z-axis direction.

また、本実施の形態では、ボクセルの階調に対するエッジ検出処理について説明したが、エッジ検出の対象は階調に限定されるものではない。ボクセルの他の属性値についても同様にエッジ検出処理を適用することができる。   In the present embodiment, edge detection processing for voxel gradation has been described. However, the target of edge detection is not limited to gradation. Edge detection processing can be similarly applied to other attribute values of voxels.

ステップS22では、エッジに位置するボクセルに対するか階調補正処理が行われる。当該ステップにおける処理によって、制御部104は階調補正手段162として機能する。階調補正手段162における処理は、特に限定されるものではないが、例えばステップS18及びステップS20においてエッジであると判定された各ボクセルに対して3次元のエッジ強調フィルタを適用するものとすればよい。   In step S22, gradation correction processing is performed on the voxel located at the edge. By the processing in this step, the control unit 104 functions as the gradation correction unit 162. The processing in the gradation correction unit 162 is not particularly limited. For example, if a three-dimensional edge enhancement filter is applied to each voxel determined to be an edge in step S18 and step S20. Good.

ステップS24では、第2色空間に変換された色データから第2色成分を表す第2色成分信号と第1色信号の大きさに応じたベース色信号とを含む色データ(第2色信号)を生成する処理が行われる。当該処理によって、制御部104は第2色信号生成手段164として機能する。本実施の形態では、上述のとおりベース色を白(W)とする。すなわち、処理部30は、第2色空間に変換され、エッジ補正処理が適用された色データ(C信号)から第2色成分を表す第2色成分信号とベース色信号とを含む色データ(第2色信号:C信号)への変換処理を行う。 In step S24, color data including a second color component signal representing the second color component from the color data converted into the second color space and a base color signal corresponding to the magnitude of the first color signal (second color signal). ) Is generated. By this processing, the control unit 104 functions as the second color signal generation unit 164. In the present embodiment, the base color is white (W) as described above. That is, the processing unit 30 converts the second color component signal representing the second color component and the base color signal from the color data (C 1 M 1 Y 1 signal) converted into the second color space and applied with the edge correction process. Is converted to color data (second color signal: C 2 M 2 Y 2 W 2 signal).

まず、処理部30は、エッジ補正処理が適用されたC信号からW信号を生成する。W信号は、数式(1)にて求めることができる。ここで、C,M、Y及びWは、それぞれC信号、M信号、Y信号及びW信号の大きさを示し、0以上1以下の実数である。
(数1)
W2= (1-C1)(1-M1)(1-Y1) ・・・(1)
First, the processing unit 30 generates a W 2 signal from the C 1 M 1 Y 1 signal to which the edge correction process is applied. The W 2 signal can be obtained by Expression (1). Here, C 1 , M 1 , Y 1 and W 2 indicate the magnitudes of the C 1 signal, the M 1 signal, the Y 1 signal and the W 2 signal, respectively, and are real numbers from 0 to 1.
(Equation 1)
W 2 = (1-C 1 ) (1-M 1 ) (1-Y 1 ) (1)

数式(1)に示されるように、W信号は、C信号、M信号、Y信号の大きさに応じた値となる。ここで、C信号、M信号、Y信号は、第1色信号(R信号、G信号、B信号)の大きさに応じて得られる。したがって、W信号は、第1色信号の大きさに応じた値となる。 As shown in Equation (1), the W 2 signal has a value corresponding to the magnitudes of the C 1 signal, the M 1 signal, and the Y 1 signal. Here, the C 1 signal, the M 1 signal, and the Y 1 signal are obtained according to the magnitudes of the first color signals (R signal, G signal, and B signal). Thus, W 2 signal has a value corresponding to the magnitude of the first color signal.

さらに、処理部30は、W信号を含む第2色信号において第1色信号によって表現される色が維持されるように、W信号に応じて第2の色成分の色データ(C信号、M信号、Y信号)を修正した修正CMYデータ(C信号、M信号、Y信号)を生成する。当該処理によって、処理部30は第2色信号修正手段166として機能する。 Further, the processing unit 30, such that the color represented by the first color signal in a second color signal containing W 2 signal is maintained, the color data of the second color component in accordance with the W 2 signal (C 1 Modified CMY data (C 2 signal, M 2 signal, Y 2 signal) is generated by modifying the signal, M 1 signal, Y 1 signal). By this processing, the processing unit 30 functions as the second color signal correcting unit 166.

修正CMYデータ(C信号、M信号、Y信号)は、数式(2)により求めることができる。
(数2)
C2 = C1(1-M1)(1-Y1)+C1M1(1-Y1)/2+C1(1-M1)Y1/2+C1M1Y1/3
M2= (1-C1)M1(1-Y1)+C1M1(1-Y1)/2+(1-C1)M1Y1/2+C1M1Y1/3
Y2= (1-C1)(1-M1)Y1+C1(1-M1)Y1/2+(1-C1)M1Y1/2+C1M1Y1/3 ・・・(2)
The corrected CMY data (C 2 signal, M 2 signal, Y 2 signal) can be obtained by Equation (2).
(Equation 2)
C 2 = C 1 (1- M 1) (1-Y 1) + C 1 M 1 (1-Y 1) / 2 + C 1 (1-M 1) Y 1/2 + C 1 M 1 Y 1 / 3
M 2 = (1-C 1 ) M 1 (1-Y 1) + C 1 M 1 (1-Y 1) / 2 + (1-C 1) M 1 Y 1/2 + C 1 M 1 Y 1 / 3
Y 2 = (1-C 1 ) (1-M 1) Y 1 + C 1 (1-M 1) Y 1/2 + (1-C 1) M 1 Y 1/2 + C 1 M 1 Y 1 / 3 (2)

ステップS26では、造形部102にて各ボクセルに対して吐出されるインクの色の選択処理が行われる。当該ステップでの処理によって、制御部104はインク色選択手段168として機能する。本実施の形態における造形部102では、インクヘッド16から1つのボクセルに対してシアン(C)、マゼンダ(M)、イエロー(Y)及びベース色(W)のうち1つのインクのみを吐出することができる。処理部30は、修正CMY信号に基づいて各ボクセルに対するインクの色を選択する処理を行う。インクの選択処理は、特に限定されるものではないが、シアン(C)、マゼンダ(M)、イエロー(Y)及びベース色(W)から選択される色の選択率がC’信号、M’信号、Y’信号及びW’信号のそれぞれの値の大きさの割合に応じたものとなるように色を選択することが好適である。 In step S <b> 26, the modeling unit 102 performs a process for selecting the color of ink ejected to each voxel. By the processing in this step, the control unit 104 functions as the ink color selection unit 168. In the modeling unit 102 in the present embodiment, only one ink of cyan (C), magenta (M), yellow (Y), and base color (W) is ejected from the ink head 16 to one voxel. Can do. The processing unit 30 performs a process of selecting an ink color for each voxel based on the corrected CMY signal. The ink selection process is not particularly limited, but the color selection rate selected from cyan (C), magenta (M), yellow (Y), and base color (W) is C 3 'signal, M It is preferable to select a color so as to correspond to the ratio of the magnitude of each value of the 3 ′ signal, the Y 3 ′ signal, and the W 3 ′ signal.

例えば、数列発生手段によって発生させた基準値aに対して、C’信号>aの場合にシアン(C)を選択し、(C’信号+M’信号)>aの場合にマゼンタ(M)を選択し、(C’信号+M’信号+Y’信号)>aの場合にイエロー(Y)を選択し、それ以外の場合にベース色(W)を選択する処理とする。また、オーダードディザ法を適用してもよい。すなわち、各ボクセルに対する基準値aとして数列(ディザ行列)を適用し、C’信号>aの場合にシアン(C)を選択し、(C’信号+M’信号)>aの場合にマゼンタ(M)を選択し、(C’信号+M’信号+Y’信号)>aの場合にイエロー(Y)を選択し、それ以外の場合にベース色(W)を選択する処理とする。また、誤差拡散法(Error Diffusion)を適用してもよい。この方法では、基準値aとして固定値を使用するが、あるボクセルに対するインク色の選択の際に生じた誤差を周囲のボクセルの選択処理に拡散させるものである。さらに、特開2006−295899号公報に開示された方法にて、各ボクセルに対するインクの選択を行ってもよい。 For example, the reference value a that caused by sequence generating means, C 3 'signal> select cyan (C) in the case of a, (C 3' magenta in the case of the signal + M 3 'signal)> a ( M) is selected, and when (C 3 ′ signal + M 3 ′ signal + Y 3 ′ signal)> a, yellow (Y) is selected, and in other cases, the base color (W) is selected. Further, an ordered dither method may be applied. That is, a sequence (dither matrix) is applied as the reference value a for each voxel, cyan (C) is selected when C 3 ′ signal> a, and when (C 3 ′ signal + M 3 ′ signal)> a. A process of selecting magenta (M), selecting yellow (Y) when (C 3 ′ signal + M 3 ′ signal + Y 3 ′ signal)> a, and selecting a base color (W) otherwise. To do. Further, an error diffusion method (Error Diffusion) may be applied. In this method, a fixed value is used as the reference value a, but an error that occurs when an ink color is selected for a certain voxel is diffused in the selection process of surrounding voxels. Furthermore, ink may be selected for each voxel by the method disclosed in Japanese Patent Laid-Open No. 2006-295899.

また、白色雑音法やブルーノイズマスク法等を適用してもよい。白色雑音法は、各ボクセルに対する基準値aとして白色雑音(一様乱数)を適用する方法である。また、ブルーノイズマスク法は、基準値aに適用するディザ行列について空間周波数分布が人間の視覚の感度が低くなる空間周波数以上となるようにディザ行列のサイズを大きくしたものである。   Further, a white noise method, a blue noise mask method, or the like may be applied. The white noise method is a method in which white noise (uniform random number) is applied as the reference value a for each voxel. In the blue noise mask method, the size of the dither matrix is increased so that the spatial frequency distribution of the dither matrix applied to the reference value a is equal to or higher than the spatial frequency at which the human visual sensitivity is low.

ステップS28では、造形部102において造形される各層を切り出すスライス処理が行われる。当該処理によって、制御部104はスライス処理手段170として機能する。処理部30は、ステップS12でのボクセル化処理におけるZ軸方向へのスライシングと同様に、3次元物体を構成するボクセルをZ軸方向に沿ってスライシングして1ボクセル毎に1層として切り出す。すなわち、造形部102のインクヘッド16が1走査で吐出できる層を抽出する。そして、1層毎にその層に含まれているボクセルの各々について選択されたインクの色を記憶部32から読み出して造形部102へ出力する造形データとする。造形データには、各ボクセルの位置を示す情報及び選択されたインクの色の情報が含まれる。   In step S <b> 28, slicing processing for cutting out each layer to be modeled in the modeling unit 102 is performed. By this processing, the control unit 104 functions as the slice processing unit 170. Similar to the slicing in the Z-axis direction in the voxelization process in step S12, the processing unit 30 slices the voxels constituting the three-dimensional object along the Z-axis direction and cuts out one layer for each voxel. That is, the ink head 16 of the modeling unit 102 extracts a layer that can be ejected in one scan. For each layer, the ink color selected for each voxel included in the layer is read from the storage unit 32 and is used as modeling data to be output to the modeling unit 102. The modeling data includes information indicating the position of each voxel and information on the color of the selected ink.

ステップS30では、造形部102においてインク吐出処理が行われる。当該ステップにおける処理によって、造形部102はインク吐出手段172として機能する。処理部30は、3次元物体を構成する層毎に各ボクセルに対して選択された色のインクを吐出させる。インク吐出処理を、Z軸方向に沿って最下層から順に最上層まで繰り返すことによって、各層を積み重ねる。これにより、入力された3次元データに基づく3次元物体が造形される。   In step S <b> 30, an ink ejection process is performed in the modeling unit 102. By the processing in this step, the modeling unit 102 functions as the ink ejection unit 172. The processing unit 30 ejects ink of a selected color for each voxel for each layer constituting the three-dimensional object. Each layer is stacked by repeating the ink ejection process from the lowermost layer to the uppermost layer in order along the Z-axis direction. Thereby, the three-dimensional object based on the input three-dimensional data is modeled.

本実施の形態における3次元造形装置100では、1ボクセルに対して1色のインクのみを吐出する造形部102を用いて、表面色の粒状性を改善し、吐出できるインクの色の中間色を適切に表現した3次元物体が造形される。また、3次元物体におけるエッジを適切に検出し、エッジを強調する処理等を施したうえで3次元物体が造形される。   In the three-dimensional modeling apparatus 100 according to the present embodiment, the modeling unit 102 that ejects only one color ink per voxel is used to improve the granularity of the surface color and appropriately set the intermediate color of the ink that can be ejected. The three-dimensional object expressed in In addition, the three-dimensional object is formed after appropriately detecting the edge in the three-dimensional object and performing processing for enhancing the edge.

10 造形台、12 ステージ、14 インクタンク、16 インクヘッド、16A ノズル群、16C,16M,16Y,16W インクノズル、16V 紫外線照射手段、18 ヘッド駆動部、18a レール、30 処理部、32 記憶部、34 入力部、36 出力部、38 通信部、100 3次元造形装置、102 造形部、104 制御部、150 3次元データ取得手段、152 ボクセル化処理手段、154 カラー情報割当手段、156 色空間変換手段、158 エッジ検出手段、160 検出結果割当手段、162 階調補正手段、164 色信号生成手段、166 色信号修正手段、168 インク色選択手段、170 スライス処理手段、172 インク吐出手段、200 3次元物体、302,304,306 集合体、310 立方体、312,314,316 集合体、320〜330 構造体、332 立方体。   10 modeling stand, 12 stage, 14 ink tank, 16 ink head, 16A nozzle group, 16C, 16M, 16Y, 16W ink nozzle, 16V ultraviolet irradiation means, 18 head drive unit, 18a rail, 30 processing unit, 32 storage unit, 34 input unit, 36 output unit, 38 communication unit, 100 three-dimensional modeling apparatus, 102 modeling unit, 104 control unit, 150 three-dimensional data acquisition unit, 152 voxelization processing unit, 154 color information allocation unit, 156 color space conversion unit 158 Edge detection means 160 Detection result assignment means 162 Gradation correction means 164 Color signal generation means 166 Color signal correction means 168 Ink color selection means 170 Slice processing means 172 Ink ejection means 200 Three-dimensional object , 302, 304, 306 aggregate, 310 standing Cuboid, 312, 314, 316 aggregate, 320-330 structure, 332 cube.

Claims (5)

3次元空間を表す画素毎に階調値が割り当てられた3次元物体のデータについて各画素に対してエッジを検出するエッジ検出手段と、
前記エッジ検出手段による画素に対するエッジの検出結果を、当該画素から3次元物体の表面に対して垂直方向にある画素に対するエッジの検出結果として割り当てる検出結果割当手段と、
を備えることを特徴とする画像処理装置。
Edge detection means for detecting an edge for each pixel of data of a three-dimensional object in which gradation values are assigned to each pixel representing a three-dimensional space;
A detection result assigning means for assigning an edge detection result for the pixel by the edge detection means as an edge detection result for a pixel perpendicular to the surface of the three-dimensional object from the pixel;
An image processing apparatus comprising:
前記エッジ検出手段は、階調値が割り当てられている画素の範囲内にエッジ検出フィルタの適用範囲が収まっている画素に対してエッジを検出することを特徴とする請求項1に記載の画像処理装置。   The image processing according to claim 1, wherein the edge detection unit detects an edge of a pixel in which an application range of the edge detection filter is within a range of pixels to which gradation values are assigned. apparatus. 前記検出結果割当手段は、階調値が割り当てられている画素の範囲内にエッジ検出フィルタの適用範囲が収まっていない画素に対してエッジの検出結果を割り当てることを特徴とする請求項1又は2に記載の画像処理装置。   3. The detection result assigning means assigns an edge detection result to a pixel in which an application range of an edge detection filter does not fall within a pixel range to which a gradation value is assigned. An image processing apparatus according to 1. 前記検出結果割当手段において割り当てられたエッジの検出結果を用いて画素の階調値を補正する階調補正手段を備えることを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。   The image processing according to claim 1, further comprising a gradation correction unit that corrects a gradation value of a pixel using an edge detection result assigned by the detection result assignment unit. apparatus. 3次元空間を表す画素毎に階調値が割り当てられた3次元物体のデータについて各画素に対してエッジを検出するエッジ検出手段と、
前記エッジ検出手段による画素に対するエッジの検出結果を、当該画素から3次元物体の表面に対して垂直方向にある画素に対するエッジの検出結果として割り当てる検出結果割当手段と、
して機能させることを特徴とする画像処理プログラム。
Edge detection means for detecting an edge for each pixel of data of a three-dimensional object in which gradation values are assigned to each pixel representing a three-dimensional space;
A detection result assigning means for assigning an edge detection result for the pixel by the edge detection means as an edge detection result for a pixel perpendicular to the surface of the three-dimensional object from the pixel;
An image processing program characterized by being made to function.
JP2017157748A 2017-08-18 2017-08-18 Image processing apparatus and image processing program Pending JP2019034487A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017157748A JP2019034487A (en) 2017-08-18 2017-08-18 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017157748A JP2019034487A (en) 2017-08-18 2017-08-18 Image processing apparatus and image processing program

Publications (1)

Publication Number Publication Date
JP2019034487A true JP2019034487A (en) 2019-03-07

Family

ID=65636491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017157748A Pending JP2019034487A (en) 2017-08-18 2017-08-18 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP2019034487A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111319266A (en) * 2020-03-10 2020-06-23 嘉兴学院 Functional gradient material 3D printing path planning method based on contour line

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111319266A (en) * 2020-03-10 2020-06-23 嘉兴学院 Functional gradient material 3D printing path planning method based on contour line
CN111319266B (en) * 2020-03-10 2021-06-22 嘉兴学院 Functional gradient material 3D printing path planning method based on contour line

Similar Documents

Publication Publication Date Title
JP6911163B2 (en) Coloring of 3D print objects
US10279545B2 (en) Method for three-dimensional color printing and a three-dimensional color printing device
US10717235B2 (en) Method for joint color and translucency 3D printing and a joint color and translucency 3D printing device
EP0550243A1 (en) Color image processing
KR102268271B1 (en) Color conversion look-up table generating device, color conversion look-up table correction method, and storage medium
US8941885B2 (en) Image processing apparatus and image processing method
CN107967715B (en) Data processing apparatus, three-dimensional object creation system, and data processing method
JP2018039126A (en) Three-dimensional molding production data generation device, three-dimensional molding production data generation program, and three-dimensional molding
EP2469836B1 (en) Color chart
JP2005178180A (en) Color image data correcting device, color image data correcting method, and program for creating color correcting table
EP2899964A2 (en) Method for generating lookup table and color conversion device
JP2017120571A (en) Information processing apparatus, three-dimensional modeling device, and three-dimensional modeling system
JP2018065290A (en) Data processing device, solid molding system and program
TWI647691B (en) Method for rendering color images
JP2018065289A (en) Data processing device, solid molding system and program
JP2019034487A (en) Image processing apparatus and image processing program
EP2884731A1 (en) Lookup table generation method, lookup table generation apparatus and color conversion apparatus
JP2018049460A (en) Image processing apparatus and image processing program
JP2018065293A (en) Data processing device, solid molding system and program
JP6433283B2 (en) Image processing apparatus, image processing method, and program
JP2019034459A (en) Image processing apparatus, 3D modeling apparatus, and image processing program
JP2018047603A (en) Color signal processing device, three-dimensional molding device and color signal processing program
JP2018047607A (en) Color signal processing device, three-dimensional molding device and color signal processing program
JP2019031061A (en) Color signal processing unit, three-dimensional molding apparatus and color signal processing program
US10915092B2 (en) Information processing apparatus and information processing method for reproducing the material appearance of an object on a recording medium