JP2002084407A - Data generator and solid surface recording device - Google Patents

Data generator and solid surface recording device

Info

Publication number
JP2002084407A
JP2002084407A JP2000275105A JP2000275105A JP2002084407A JP 2002084407 A JP2002084407 A JP 2002084407A JP 2000275105 A JP2000275105 A JP 2000275105A JP 2000275105 A JP2000275105 A JP 2000275105A JP 2002084407 A JP2002084407 A JP 2002084407A
Authority
JP
Japan
Prior art keywords
data
sample point
model data
coloring
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000275105A
Other languages
Japanese (ja)
Inventor
Koji Fujiwara
浩次 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2000275105A priority Critical patent/JP2002084407A/en
Publication of JP2002084407A publication Critical patent/JP2002084407A/en
Pending legal-status Critical Current

Links

Landscapes

  • Ink Jet (AREA)
  • Dot-Matrix Printers And Others (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)
  • Fax Reproducing Arrangements (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a solid surface recording device that can properly record an image on a surface of a coloring object having an optional stereoscopic shape. SOLUTION: A main scanning drive mechanism 12 of the solid surface recording device 1 is provided with a sensor unit 8 that senses a three-dimensional shape of an object supported by an object attitude revision section 20. Furthermore, the solid surface recording device 1 stores stereoscopic model data to be recorded onto objects. Then corresponding points between sensor data obtained by the sensor unit 8 and the model data stored in advance are specified so as to match a form of an upper side part of the object supported by the object attitude revision section 20 (that is, a part being a coloring object by an ink jet head 10) with a form of the model data. Then generating coloring control data can properly record the image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、立体的な彩色対
象物の表面に画像記録を行う立体表面記録装置、及び立
体的な彩色対象物の表面に画像記録を行う際に使用する
彩色制御データを生成するデータ生成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional surface recording apparatus for recording an image on the surface of a three-dimensional coloring object, and coloring control data used when recording an image on the surface of a three-dimensional coloring object. The present invention relates to a data generation device that generates

【0002】[0002]

【従来の技術】任意の形状の立体物表面に自由に彩色し
たいという要望は大きい。このとき立体物の表面のどの
部分にどの色を彩色するかは極めて重要であるため、彩
色対象物へ記録すべき画像を、実際の彩色対象物の表面
の位置へと対応させる必要がある。
2. Description of the Related Art There is a great demand for freely coloring the surface of a three-dimensional object having an arbitrary shape. At this time, since it is extremely important which part of the surface of the three-dimensional object is to be colored with which color, it is necessary to make the image to be recorded on the coloring object correspond to the actual position of the surface of the coloring object.

【0003】ここで、彩色対象物の形状が常に一定のも
のであれば、例えば位置決めピンや光電スイッチ等を使
用した専用の位置決め機構を設けて、彩色対象物と画像
との位置合わせを行うことが可能である。
Here, if the shape of the coloring object is always constant, a dedicated positioning mechanism using, for example, a positioning pin or a photoelectric switch is provided to align the coloring object with the image. Is possible.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、任意の
立体的形状の彩色対象物に彩色を行う場合には、彩色対
象物の形状が予め分かっていないため、専用の位置決め
機構を予め準備しておくことはできない。このため、従
来においては、任意の立体的形状の彩色対象物に対して
適切に彩色を行うことが困難であった。
However, when coloring a colored object having an arbitrary three-dimensional shape, a dedicated positioning mechanism is prepared in advance because the shape of the colored object is not known in advance. It is not possible. For this reason, conventionally, it has been difficult to appropriately color a coloring object having an arbitrary three-dimensional shape.

【0005】そこで、この発明は、上記課題に鑑みてな
されたものであって、任意の立体的形状を有する彩色対
象物の表面に適切に画像記録を行うことのできる立体表
面記録装置を提供するとともに、任意の立体的形状を有
する彩色対象物の表面に適切に画像記録を行うことを可
能とする彩色制御データを生成するためのデータ生成装
置を提供することを目的とする。
Accordingly, the present invention has been made in view of the above problems, and provides a three-dimensional surface recording apparatus capable of appropriately recording an image on the surface of a coloring object having an arbitrary three-dimensional shape. It is another object of the present invention to provide a data generation device for generating coloring control data that enables appropriate image recording on the surface of a coloring object having an arbitrary three-dimensional shape.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
に、請求項1に記載の発明は、立体的な彩色対象物の表
面に画像記録を行う際に使用する彩色制御データを生成
するデータ生成装置であって、前記彩色対象物に対して
記録すべき立体的なモデルデータを記憶する手段と、前
記彩色対象物をセンシングしてセンサデータを生成する
センシング手段と、前記モデルデータと前記センサデー
タとの間で対応点を特定し、前記彩色制御データを生成
するデータ処理手段とを備えている。
According to one aspect of the present invention, there is provided a data processing apparatus for generating coloring control data for use in recording an image on the surface of a three-dimensional coloring object. A generating device, a unit for storing three-dimensional model data to be recorded for the coloring object, a sensing unit for sensing the coloring object to generate sensor data, the model data and the sensor Data processing means for specifying a corresponding point between the data and the color control data.

【0007】請求項2に記載の発明は、請求項1に記載
のデータ生成装置において、前記データ処理手段が、前
記センサデータに基づいて第1のサンプル点を設定する
とともに、前記モデルデータに基づいて第2のサンプル
点を設定し、前記第1のサンプル点に対する前記第2の
サンプル点の相対位置の評価を行って、前記モデルデー
タの変換を行うことを特徴としている。
According to a second aspect of the present invention, in the data generating apparatus according to the first aspect, the data processing means sets a first sample point based on the sensor data and sets the first sample point based on the model data. The second sample point is set by using the first sample point, the relative position of the second sample point with respect to the first sample point is evaluated, and the conversion of the model data is performed.

【0008】請求項3に記載の発明は、請求項2に記載
のデータ生成装置において、前記データ処理手段が、前
記相対位置の評価に基づいて、前記モデルデータの倍率
を変換することを特徴としている。
According to a third aspect of the present invention, in the data generating apparatus according to the second aspect, the data processing means converts a magnification of the model data based on the evaluation of the relative position. I have.

【0009】請求項4に記載の発明は、請求項2又は請
求項3に記載のデータ生成装置において、前記データ処
理手段が、前記第2のサンプル点の設定と、前記相対位
置の評価と、前記モデルデータの変換と、を繰り返し行
うことによって、前記第1のサンプル点に対する前記第
2のサンプル点の相対位置関係を所定の位置関係とした
状態で、前記彩色制御データを生成することを特徴とし
ている。
According to a fourth aspect of the present invention, in the data generating apparatus according to the second or third aspect, the data processing means sets the second sample point, evaluates the relative position, Repeating the conversion of the model data to generate the coloring control data in a state where the relative positional relationship of the second sample point with respect to the first sample point is a predetermined positional relationship. And

【0010】請求項5に記載の発明は、請求項2ないし
請求項4のいずれかに記載のデータ生成装置において、
前記データ処理手段が、前記センサデータは前記彩色対
象物のカラー情報を含んでおり、前記第1のサンプル点
と前記第2のサンプル点との色差の評価をも行うことを
特徴としている。
According to a fifth aspect of the present invention, in the data generation device according to any one of the second to fourth aspects,
The data processing means is characterized in that the sensor data includes color information of the coloring object, and also evaluates a color difference between the first sample point and the second sample point.

【0011】請求項6に記載の発明は、立体的な彩色対
象物の表面に画像記録を行う立体表面記録装置であっ
て、前記彩色対象物に対して記録すべき立体的なモデル
データを記憶する手段と、前記彩色対象物をセンシング
してセンサデータを生成するセンシング手段と、前記モ
デルデータと前記センサデータとの間で対応点を特定
し、彩色制御データを生成するデータ処理手段と、前記
彩色制御データに基づいて前記彩色対象物に画像記録を
行う記録手段とを備えている。
According to a sixth aspect of the present invention, there is provided a three-dimensional surface recording apparatus for recording an image on the surface of a three-dimensional coloring object, wherein three-dimensional model data to be recorded on the coloring object is stored. Means for sensing, the sensing means for sensing the coloring object to generate sensor data, identifying a corresponding point between the model data and the sensor data, data processing means for generating coloring control data, Recording means for recording an image on the coloring object based on the coloring control data.

【0012】請求項7に記載の発明は、請求項6に記載
の立体表面記録装置において、前記データ処理手段が、
前記センサデータに基づいて第1のサンプル点を設定す
るとともに、前記モデルデータに基づいて第2のサンプ
ル点を設定し、前記第1のサンプル点に対する前記第2
のサンプル点の相対位置の評価を行って、前記モデルデ
ータの変換を行うことを特徴としている。
According to a seventh aspect of the present invention, in the three-dimensional surface recording apparatus according to the sixth aspect, the data processing means comprises:
A first sample point is set based on the sensor data, a second sample point is set based on the model data, and the second sample point is set with respect to the first sample point.
Is characterized in that the relative positions of the sample points are evaluated to convert the model data.

【0013】請求項8に記載の発明は、請求項7に記載
の立体表面記録装置において、前記データ処理手段が、
前記相対位置の評価に基づいて、前記モデルデータの倍
率を変換することを特徴としている。
According to an eighth aspect of the present invention, in the three-dimensional surface recording apparatus according to the seventh aspect, the data processing means comprises:
The magnification of the model data is converted based on the evaluation of the relative position.

【0014】請求項9に記載の発明は、請求項7又は請
求項8に記載の立体表面記録装置において、前記データ
処理手段が、前記第2のサンプル点の設定と、前記相対
位置の評価と、前記モデルデータの変換と、を繰り返し
行うことによって、前記第1のサンプル点に対する前記
第2のサンプル点の相対位置関係を所定の位置関係とし
た状態で、前記彩色制御データを生成することを特徴と
している。
According to a ninth aspect of the present invention, in the three-dimensional surface recording apparatus according to the seventh or eighth aspect, the data processing means sets the second sample point and evaluates the relative position. And repeating the conversion of the model data to generate the coloring control data in a state where a relative positional relationship of the second sample point with respect to the first sample point is a predetermined positional relationship. Features.

【0015】請求項10に記載の発明は、請求項7ない
し請求項9のいずれかに記載の立体表面記録装置におい
て、前記データ処理手段が、前記センサデータは前記彩
色対象物のカラー情報を含んでおり、前記第1のサンプ
ル点と前記第2のサンプル点との色差の評価をも行うこ
とを特徴としている。
According to a tenth aspect of the present invention, in the three-dimensional surface recording apparatus according to any one of the seventh to ninth aspects, the data processing means includes the sensor data including color information of the coloring object. In this case, the color difference between the first sample point and the second sample point is also evaluated.

【0016】[0016]

【発明の実施の形態】以下、この発明の実施の形態につ
いて図面を参照しつつ詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0017】<1.装置の全体的構成>まず、本発明の
実施の形態である立体表面記録装置1の機構的構成につ
いて説明する。図1は、この発明の実施の形態に係る立
体表面記録装置1を正面から見た概略図であり、図2は
立体表面記録装置の対象物姿勢変更部20の機構図であ
る。また、図3は立体表面記録装置1の駆動制御系の構
成を示すブロック図である。以下、図1〜図3を参照し
つつ、立体表面記録装置1の機構的構成について説明す
る。
<1. Overall Configuration of Apparatus> First, a mechanical configuration of a three-dimensional surface recording apparatus 1 according to an embodiment of the present invention will be described. FIG. 1 is a schematic view of a three-dimensional surface recording apparatus 1 according to an embodiment of the present invention as viewed from the front, and FIG. 2 is a mechanism diagram of an object posture changing unit 20 of the three-dimensional surface recording apparatus. FIG. 3 is a block diagram illustrating a configuration of a drive control system of the three-dimensional surface recording apparatus 1. Hereinafter, the mechanical configuration of the three-dimensional surface recording device 1 will be described with reference to FIGS.

【0018】立体表面記録装置1は基台11に設けられ
た2つの支持台13の間にリニアガイド15が水平に設
けられており、リニアガイド15に沿って主走査駆動機
構12が摺動自在に取り付けられている。
In the three-dimensional surface recording apparatus 1, a linear guide 15 is horizontally provided between two supports 13 provided on a base 11, and a main scanning drive mechanism 12 is slidable along the linear guide 15. Attached to.

【0019】主走査駆動機構12内には主走査駆動モー
タ91(図3参照)が設けられており、リニアガイド1
5には図示しないラックが設けられており、また、主走
査駆動モータ91の回転軸には図示しないピニオンが設
けられており、主走査駆動モータ91の回転により主走
査駆動機構12は主走査方向XDに駆動される。
A main scanning drive motor 91 (see FIG. 3) is provided in the main scanning driving mechanism 12, and the linear guide 1 is provided.
5, a rack (not shown) is provided, and a pinion (not shown) is provided on a rotating shaft of the main scanning drive motor 91. The rotation of the main scanning drive motor 91 causes the main scanning drive mechanism 12 to move in the main scanning direction. Driven by XD.

【0020】2つの支持台13には、それぞれ副走査駆
動機構14が設けられており、各副走査駆動機構14内
にはそれぞれ副走査駆動モータ92(図3参照)が設け
られている。そして、各副走査駆動モータ92の回転軸
には図示しないタイミングベルトが掛けられており、両
タイミングベルトにはリニアガイド15が取り付けら
れ、各副走査駆動モータ92によるタイミングベルトの
駆動によりリニアガイド15およびそれに取り付けられ
た主走査駆動機構12が副走査方向YDに駆動される。
Each of the two supports 13 is provided with a sub-scanning drive mechanism 14, and each sub-scanning drive mechanism 14 is provided with a sub-scanning drive motor 92 (see FIG. 3). A timing belt (not shown) is hung around the rotation shaft of each sub-scanning drive motor 92, and a linear guide 15 is attached to both timing belts. The main scanning drive mechanism 12 attached thereto is driven in the sub scanning direction YD.

【0021】インクジェットヘッド10は、主走査駆動
機構12とともに主走査方向に移動しながら、与えられ
た描画すべき画像(以下「描画画像」という)データに
従って液滴状のインクを下方に噴出する。
While moving in the main scanning direction together with the main scanning drive mechanism 12, the ink jet head 10 ejects ink droplets downward in accordance with given image data to be drawn (hereinafter referred to as "drawn image").

【0022】主走査方向への一走査分の描画が終わる
と、副走査駆動機構14によって副走査方向(紙面垂直
方向)にインクドットの1ドット分だけ送られる。
When drawing for one scan in the main scanning direction is completed, the sub-scanning drive mechanism 14 sends one ink dot in the sub-scanning direction (perpendicular to the paper surface).

【0023】また、主走査駆動機構12内には昇降駆動
機構16が設けられている。昇降駆動機構16内には図
示しないボールネジが設けられるとともに、そのボール
ネジに取り付けられた垂直軸16aが昇降駆動機構16
下端、さらには主走査駆動機構12の下端から下方に向
けて上下動可能に突出している。また、昇降駆動機構1
6内にはボールネジを回転させる昇降駆動モータ90
(図3参照)が設けられており、その駆動により垂直軸
の下端に取り付けられたインクジェットヘッド10を上
下に駆動可能となっている。このような機構により対象
物(彩色対象物)28の表面上の描画対象領域に対する
インクジェットヘッド10の距離を調節可能となってい
る。
A lifting drive mechanism 16 is provided in the main scanning drive mechanism 12. A ball screw (not shown) is provided in the elevation drive mechanism 16, and a vertical shaft 16 a attached to the ball screw is connected to the elevation drive mechanism 16.
It protrudes downward and downward from the lower end, and further from the lower end of the main scanning drive mechanism 12. The lifting drive mechanism 1
A lifting drive motor 90 for rotating a ball screw is provided in 6.
(See FIG. 3), and the ink jet head 10 attached to the lower end of the vertical axis can be driven up and down by the drive. With such a mechanism, the distance of the inkjet head 10 from the drawing target area on the surface of the target (colored target) 28 can be adjusted.

【0024】また、基台11上面中央には対象物28を
保持し、その姿勢を変更する対象物姿勢変更部20が設
けられている。図2に示すように、対象物姿勢変更部2
0はロール、ピッチ、ヨーの3軸を備えている。ロール
軸駆動モータ18、ピッチ軸駆動モータ22、ヨー軸駆
動モータ24は対象物28を任意の姿勢に保持する。基
台11内部に設けられたロール軸駆動モータ18は、対
象物姿勢変更部20のロール軸回転ステージ21を矢印
A1のようにロール軸回りに回転させる。また、ロール
軸回転ステージ21には支持台26を介してピッチ軸駆
動モータ22が固定されており、ピッチ軸駆動モータ2
2は支持リング23を矢印A2のようにピッチ軸周りに
回転させる。さらに、支持リング23にはヨー軸駆動モ
ータ24が固定されている。ヨー軸駆動モータの回転軸
24aの先端は対象物28を保持するためのネジ締めの
機構が設けられており、対向するもう一方の回転軸24
bとの両方で対象物28を挟み込み保持する機構になっ
ている。そして、ヨー軸駆動モータ24は対象物28を
矢印A3のようにヨー軸回りに回転させる。
In the center of the upper surface of the base 11, there is provided an object posture changing section 20 for holding the object 28 and changing its posture. As shown in FIG. 2, the object posture changing unit 2
0 has three axes of roll, pitch, and yaw. The roll axis drive motor 18, the pitch axis drive motor 22, and the yaw axis drive motor 24 hold the object 28 in an arbitrary posture. The roll axis drive motor 18 provided inside the base 11 rotates the roll axis rotation stage 21 of the object posture changing unit 20 around the roll axis as indicated by an arrow A1. A pitch axis drive motor 22 is fixed to the roll axis rotation stage 21 via a support 26.
2 rotates the support ring 23 around the pitch axis as indicated by an arrow A2. Further, a yaw axis drive motor 24 is fixed to the support ring 23. The tip of the rotation shaft 24a of the yaw axis drive motor is provided with a screw fastening mechanism for holding the object 28, and the other rotation shaft 24
This is a mechanism for sandwiching and holding the target object 28 with both of them. Then, the yaw axis drive motor 24 rotates the object 28 around the yaw axis as indicated by an arrow A3.

【0025】なお、以上のロール、ピッチ、ヨーの3軸
は1点で垂直に交差する。以上のように、立体表面記録
装置1は6軸(ロール、ピッチ、ヨー、昇降、主走査、
副走査)の駆動機構を有することによって対象物28を
任意の姿勢とするとともに、インクジェットヘッド10
を可動空間範囲内で任意位置に移動させることができ
る。
The roll, pitch, and yaw axes intersect perpendicularly at one point. As described above, the three-dimensional surface recording apparatus 1 has six axes (roll, pitch, yaw, elevation, main scanning,
The object 28 can be set to an arbitrary posture by having a driving mechanism of
Can be moved to any position within the movable space range.

【0026】このような立体表面記録装置で特徴的なの
は、対象領域に対するインクジェットヘッド10の初期
位置決めには、6軸すべての駆動機構が使用されるが、
描画対象領域の描画(彩色)の際には主走査駆動機構1
2および副走査駆動機構14の2つしか用いられないこ
とである。このようにすることにより、平面印刷用の通
常プリンタと同様、高速かつ精度の良い描画が可能とな
る。これは、一般に駆動する軸が増えるほど、軌道計算
が複雑になり、しかも位置決め精度は悪化することが知
られているからである。
A characteristic feature of such a three-dimensional surface recording apparatus is that the drive mechanism of all six axes is used for the initial positioning of the ink jet head 10 with respect to the target area.
When drawing (coloring) the drawing target area, the main scanning drive mechanism 1
2 and the sub-scanning drive mechanism 14 only. By doing so, high-speed and high-precision drawing can be performed as in the case of a normal printer for planar printing. This is because it is generally known that as the number of driven axes increases, the trajectory calculation becomes complicated and the positioning accuracy deteriorates.

【0027】また、主走査駆動機構12には、対象物姿
勢変更部20によって支持される対象物28の三次元形
状をセンシングするセンサユニット8が設けられてい
る。センサユニット8は、対象物28の3次元形状を計
測して3次元形状データを生成する3次元形状入力セン
サ8aと、対象物28の2次元的なカラー画像を撮影し
てカラー画像データを生成するカラー画像入力センサ8
bとを備えている。
The main scanning drive mechanism 12 is provided with a sensor unit 8 for sensing the three-dimensional shape of the object 28 supported by the object posture changing unit 20. The sensor unit 8 measures a three-dimensional shape of the target object 28 to generate three-dimensional shape data, and a two-dimensional color image of the target object 28 to generate color image data. Color image input sensor 8
b.

【0028】3次元形状入力センサ8aは、対象物28
の上方側表面を光切断法、パターン光投影法、ステレオ
法等によって計測することにより、対象物28の上部側
で計測可能な範囲内の3次元形状を密に入力するセンサ
である。また、カラー画像入力センサ8bは、対象物2
8の2次元的なカラー画像を上方側から撮影する撮像カ
メラ等によって構成される。したがって、3次元形状入
力センサ8a及びカラー画像入力センサ8bはいずれ
も、対象物姿勢変更部20によって支持された状態にあ
る対象物28の上部側の計測可能範囲内についてのセン
サデータを生成することができる。なお、センサデータ
は3次元形状データとカラー画像データとを含むデータ
を意味する。
The three-dimensional shape input sensor 8a
Is a sensor that densely inputs a three-dimensional shape within a measurable range on the upper side of the object 28 by measuring the upper surface of the object 28 by a light cutting method, a pattern light projection method, a stereo method, or the like. In addition, the color image input sensor 8b
It is constituted by an imaging camera or the like that shoots the eight two-dimensional color images from above. Therefore, both the three-dimensional shape input sensor 8a and the color image input sensor 8b generate sensor data within the measurable range on the upper side of the object 28 supported by the object posture changing unit 20. Can be. Note that the sensor data means data including three-dimensional shape data and color image data.

【0029】また、図3に示すように、立体表面記録装
置1の内部には、CPU81にメモリ82、記憶装置8
3、センサユニット8、インタフェース85、表示部8
6、及び操作入力部87が接続されたデータ処理部2が
設けられている。操作入力部87には、キーボードやマ
ウス等が含まれる。また、インタフェース85にはCA
D等の外部機器を接続することが可能となっており、イ
ンタフェース85を介して外部機器より対象物28のモ
デルデータが入力され、記憶装置83に格納される。
As shown in FIG. 3, a memory 82 and a storage device 8
3, sensor unit 8, interface 85, display unit 8
6 and a data processing unit 2 to which an operation input unit 87 is connected. The operation input unit 87 includes a keyboard, a mouse, and the like. The interface 85 has a CA
An external device such as D can be connected, and model data of the object 28 is input from the external device via the interface 85 and stored in the storage device 83.

【0030】モデルデータは、対象物28の全体的な3
次元形状データや彩色する際に使用される描画画像が含
まれており、描画画像は全体的な3次元形状データと対
応付けられている。このため、対象物28のどのような
位置にどのような描画を行うかは、モデルデータによっ
て特定されることになる。
The model data is the overall 3
The image data includes three-dimensional shape data and drawing images used for coloring, and the drawing images are associated with the entire three-dimensional shape data. Therefore, what kind of position and what kind of drawing to perform on the object 28 is specified by the model data.

【0031】ところが、立体表面記録装置1では、実際
の対象物28に対してモデルデータに基づいた描画を行
う際に、モデルデータと対象物28との位置関係を対応
づけておくことが必要となるため、データ処理部2で
は、センサユニット8から得られるデータに基づいてモ
デルデータの変換を行うことによって、モデルデータと
対象物28との位置関係の対応付けが行われる。
However, in the three-dimensional surface recording apparatus 1, it is necessary to associate the positional relationship between the model data and the object 28 when drawing the actual object 28 based on the model data. Therefore, the data processing unit 2 performs the conversion of the model data based on the data obtained from the sensor unit 8, thereby associating the positional relationship between the model data and the object 28.

【0032】そして、データ処理部2において対象物2
8とモデルデータとの対応付けが行われて変換された変
換後のモデルデータは、彩色制御用として使用される彩
色制御データに変換されて、記録機構部3に含まれる彩
色制御部31に与えられる。彩色制御部31は、対象物
28に描画を行う際に、各駆動部を駆動制御するように
機能する。そして、彩色制御部31がデータ処理部2か
ら入力する彩色制御データに基づいて各駆動部を駆動制
御することにより、対象物28の表面に対して正確に描
画を行うことが可能となる。
Then, in the data processing unit 2, the object 2
The converted model data obtained by associating model data 8 with the model data is converted into color control data used for color control, and given to a color control unit 31 included in the recording mechanism unit 3. Can be The coloring control unit 31 functions to drive and control each driving unit when drawing on the object 28. Then, the coloring control section 31 drives and controls each driving section based on the coloring control data input from the data processing section 2, thereby enabling accurate drawing on the surface of the object 28.

【0033】より具体的には、彩色制御部31が、昇降
駆動モータ90、主走査駆動モータ91、副走査駆動モ
ータ92、を駆動制御することによりインクジェットヘ
ッド10の対象物28に対する位置を制御するととも
に、ロール軸駆動モータ18、ピッチ軸駆動モータ2
2、ヨー軸駆動モータ24を駆動制御することにより対
象物28の姿勢を変更し、さらに、データ処理部2より
与えられる彩色制御データを基にタイミングを制御しつ
つインクジェットヘッド10からインクを対象物28へ
向けて噴射させることにより、対象物28の任意の位置
に対して正確に描画を行うことが可能になるのである。
More specifically, the coloring control section 31 controls the position of the inkjet head 10 with respect to the object 28 by controlling the driving of the elevation drive motor 90, the main scan drive motor 91, and the sub-scan drive motor 92. Together with the roll axis drive motor 18 and the pitch axis drive motor 2
2. The attitude of the object 28 is changed by controlling the driving of the yaw axis drive motor 24, and the ink is transferred from the inkjet head 10 to the object while controlling the timing based on the color control data given from the data processing unit 2. By jetting the light toward the object 28, it is possible to draw accurately at an arbitrary position of the object 28.

【0034】<2.処理手順>次に、上記のような立体
表面記録装置1によって、対象物28に彩色を行う際の
処理手順を詳細に説明する。図4及び図5は、立体表面
記録装置1における処理手順を示すフローチャートであ
る。
<2. Processing Procedure> Next, a processing procedure for coloring the object 28 by the three-dimensional surface recording apparatus 1 will be described in detail. 4 and 5 are flowcharts showing the processing procedure in the three-dimensional surface recording device 1.

【0035】立体表面記録装置1に対象物28がセット
されると、立体表面記録装置1の処理が開始される。ま
ず、センサデータの取得と表示が行われる(ステップS
10)。具体的には、ユーザが操作入力部87に対して
所定の入力操作を行うことにより、センサユニット8を
機能させる。そして、センサユニット8が対象物姿勢変
更部20によって支持された状態にある対象物28のセ
ンシングを行い、対象物28の3次元形状データとカラ
ー画像データとで構成されるセンサデータを取得する。
取得されたセンサデータは、センサユニット8からメモ
リ82へと転送されて、メモリ82に一時的に保存され
る。
When the object 28 is set in the three-dimensional surface recording device 1, the processing of the three-dimensional surface recording device 1 is started. First, acquisition and display of sensor data are performed (step S
10). Specifically, the user performs a predetermined input operation on the operation input unit 87 to make the sensor unit 8 function. Then, the sensor unit 8 senses the target object 28 in a state supported by the target object posture changing unit 20, and acquires sensor data including three-dimensional shape data of the target object 28 and color image data.
The acquired sensor data is transferred from the sensor unit 8 to the memory 82, and is temporarily stored in the memory 82.

【0036】CPU81は、メモリ82に格納されたセ
ンサデータを読み出し、センサデータに基づいてデータ
処理部2の表示部86に対して対象物28を撮影したカ
ラー画像を表示する。このとき、CPU81はセンサデ
ータに対して仮想カメラを設定し、その仮想カメラから
みた対象物のカラー画像を演算によって生成し、表示さ
せる。
The CPU 81 reads out the sensor data stored in the memory 82 and displays a color image of the object 28 on the display unit 86 of the data processing unit 2 based on the sensor data. At this time, the CPU 81 sets a virtual camera for the sensor data, generates a color image of the object viewed from the virtual camera by calculation, and displays the color image.

【0037】図6は、表示部86の表示画面861を示
す図である。表示画面861は、左右に2分割されてお
り、一方はモデルデータ表示領域86a、他方は彩色対
象物表示領域86bとされている。
FIG. 6 is a diagram showing a display screen 861 of the display unit 86. The display screen 861 is divided into two right and left sides, one of which is a model data display area 86a and the other is a coloring object display area 86b.

【0038】そして、データ処理部2はセンサデータを
取得すると、表示部86の彩色対象物表示領域86bに
対象物28のカラー画像を表示する。カラー画像を表示
する際の仮想カメラの位置(すなわち、視点の位置)
は、ユーザが操作入力部87に対して所定の操作を行う
ことにより変更することができる。
When the data processing unit 2 acquires the sensor data, the data processing unit 2 displays a color image of the object 28 in the coloring object display area 86b of the display unit 86. The position of the virtual camera when displaying a color image (that is, the position of the viewpoint)
Can be changed by the user performing a predetermined operation on the operation input unit 87.

【0039】なお、この彩色対象物表示領域86bには
カラー画像でなく、センシングして得られた3次元形状
をテクスチャマッピングさせた3次元形状を2次元的に
表示することもでき、そのようなテクスチャマッピング
させた画像を表示させてもよく、また、仮想カメラを設
定することなく、単にセンシングして得られたカラー画
像をそのまま表示してもよい。
In the coloring object display area 86b, not a color image but a three-dimensional shape obtained by texture-mapping a three-dimensional shape obtained by sensing can be displayed two-dimensionally. A texture-mapped image may be displayed, or a color image obtained simply by sensing without displaying a virtual camera may be displayed as it is.

【0040】そして、ステップS12に進み、データ処
理部2のCPU11が、記憶装置83に記憶されている
モデルデータを読み出して、そのモデルデータに基づく
3次元形状を表示部86のモデルデータ表示領域86a
に表示する。
Then, the process proceeds to step S12, in which the CPU 11 of the data processing unit 2 reads out the model data stored in the storage device 83, and displays the three-dimensional shape based on the model data in the model data display area 86a of the display unit 86.
To be displayed.

【0041】具体的には、ユーザが操作入力部87より
記憶装置83に記憶されているモデルデータを指定する
ことにより、CPU81がそのモデルデータをメモリ8
2に読み出し、そのモデルデータに基づく3次元形状を
例えば仮想カメラからみたテクスチャ画像付きのポリゴ
ンメッシュで表現してモデルデータ表示領域86aに表
示する。なお、表示されるモデルデータの3次元形状の
位置・姿勢・大きさ及び仮想カメラの位置は、操作入力
部87を介してユーザが任意に調整することができるよ
うになっている。
More specifically, when the user specifies the model data stored in the storage device 83 through the operation input unit 87, the CPU 81 stores the model data in the memory 8
2 and a three-dimensional shape based on the model data is represented by, for example, a polygon mesh with a texture image viewed from a virtual camera and displayed in the model data display area 86a. The position, orientation, and size of the three-dimensional shape of the displayed model data and the position of the virtual camera can be arbitrarily adjusted by the user via the operation input unit 87.

【0042】したがって、このステップS12の処理が
行われると、表示部86の表示画面861には、モデル
データに基づく3次元形状とセンサデータに基づくカラ
ー画像との双方が表示されることとなるため、ユーザは
この表示画面861を視認することによって2つの表示
領域に表示された画像を容易に対比させることができ
る。
Therefore, when the process in step S12 is performed, both the three-dimensional shape based on the model data and the color image based on the sensor data are displayed on the display screen 861 of the display unit 86. By visually recognizing the display screen 861, the user can easily compare the images displayed in the two display areas.

【0043】なお、表示画面861に表示されるモデル
データに基づく3次元形状とセンサデータに基づくカラ
ー画像とは、それぞれ別の領域に表示されるものではな
く、αブレンディング等の手法を用いて同一の領域に重
ね合わせた状態で表示するようにしてもよい。
It should be noted that the three-dimensional shape based on the model data and the color image based on the sensor data displayed on the display screen 861 are not displayed in separate areas, but are the same by using a method such as α blending. May be displayed in a state of being superimposed on the area of.

【0044】そして、モデルデータに基づく3次元形状
の表示が完了すると、ステップS14に進む。
When the display of the three-dimensional shape based on the model data is completed, the process proceeds to step S14.

【0045】ステップS14では、モデルデータとセン
サデータとの大きさ及び位置を合わせるための処理が行
われる。ステップS14の処理の詳細は図5に示すフロ
ーチャートである。
In step S14, a process for adjusting the size and position of the model data and the sensor data is performed. Details of the processing in step S14 are a flowchart shown in FIG.

【0046】ステップS140では、まず、モデルデー
タ表示領域86aに表示されるモデルの形態と、彩色対
象物表示領域86bに表示される対象物28の形態とが
見かけ上ほぼ一致するように、ユーザが操作入力部87
を介してそれぞれの仮想カメラの位置と視線方向とを調
整する。そして、彩色対象物表示領域86bに表示され
る対象物28の形態に対してサンプル点(第1のサンプ
ル点)を指定するとともに、モデルデータ表示領域86
aに表示されるモデルの形態に対してもサンプル点(第
2のサンプル点)を指定する。第2のサンプル点は、モ
デルデータ上で第1のサンプル点の位置に対応するもの
である。そして第1のサンプル点及び第2のサンプルの
組は最低4個以上指定されることとし、第1のサンプル
点と第2のサンプル点とがそれぞれに対応づけられる。
このようにして、センサデータとモデルデータとの対応
するサンプル点の組が複数個決定される。
In step S140, the user first sets the form of the model displayed in the model data display area 86a and the form of the object 28 displayed in the colored object display area 86b so that the appearance substantially matches. Operation input unit 87
To adjust the position and the line-of-sight direction of each virtual camera. Then, a sample point (first sample point) is designated for the form of the object 28 displayed in the colored object display area 86b, and the model data display area 86
A sample point (second sample point) is also specified for the form of the model displayed in a. The second sample point corresponds to the position of the first sample point on the model data. At least four pairs of the first sample point and the second sample are specified, and the first sample point and the second sample point are associated with each other.
In this way, a plurality of sets of sample points corresponding to the sensor data and the model data are determined.

【0047】このようにして決定されるサンプル点の組
は、ユーザが自由意志によって任意に設定することが可
能であるため、それぞれのサンプル点の対応関係が正確
であるかどうかという点に鑑みれば、それほど精度の高
いものではない。このため、サンプル点の精度を高める
ために後述するステップS142〜S148の処理が行
われる。
Since the set of sample points determined in this way can be arbitrarily set by the user at will, it is necessary to consider whether the correspondence between the sample points is accurate or not. , Not very accurate. Therefore, the processing of steps S142 to S148 described below is performed to improve the accuracy of the sample points.

【0048】また、ステップS140において、ユーザ
がサンプル点の組を指定しない場合であってもデータ処
理部2が自動的にサンプル点の組を複数個指定すること
ができる。例えば、センサデータに含まれる3次元形状
データからセンシングした対象物28のポリゴンメッシ
ュを生成し、各ポリゴンメッシュの頂点全てを対象物2
8の形態におけるサンプル点(第1のサンプル点)と
し、そのセンサデータにおける対象物28の形態に対し
てモデルデータから導かれるモデルの形態を重ね合わ
せ、センサデータにおけるサンプル点と仮想カメラの視
点とを結ぶ視線上で、最も仮想カメラ側にあるモデル上
の位置をモデルデータのサンプル点(第2のサンプル
点)とすればよい。
In step S140, even when the user does not specify a set of sample points, the data processing unit 2 can automatically specify a plurality of sets of sample points. For example, a polygon mesh of the object 28 sensed from the three-dimensional shape data included in the sensor data is generated, and all vertices of each polygon mesh are set in the object 2
8, and the form of the model derived from the model data is superimposed on the form of the object 28 in the sensor data, and the sample point in the sensor data and the viewpoint of the virtual camera are set. , The position on the model closest to the virtual camera may be set as the sample point (second sample point) of the model data.

【0049】図7は、自動的にサンプル点の組を指定す
る際の概念図である。図7に示すように、センサデータ
の示す形状SD1上の任意のサンプル点をxiとする
と、そのサンプル点xiと仮想カメラVCの視点とを結
ぶ視線L上で、最も仮想カメラ側にあるモデルデータの
示す形状MD1上の位置をモデルデータのサンプル点y
iとするのである。このようにすれば、ユーザがサンプ
ル点を指定しない場合であってもデータ処理部2におい
て自動的にサンプル点の組を指定することができる。
FIG. 7 is a conceptual diagram when a set of sample points is automatically designated. As shown in FIG. 7, when an arbitrary sample point on the shape SD1 indicated by the sensor data is xi, the model data closest to the virtual camera on the line of sight L connecting the sample point xi and the viewpoint of the virtual camera VC. Is the sample point y of the model data
i. In this way, even when the user does not specify a sample point, the data processing unit 2 can automatically specify a set of sample points.

【0050】ただし、この場合においても、センサデー
タとモデルデータとの視点位置の調整が行われていない
ため、第1のサンプル点と第2のサンプル点との対応関
係の精度は低いものとなるが、後述するステップS14
2〜S148の処理を行うことにより、サンプル点の精
度を高めることができる。
However, also in this case, since the viewpoint positions of the sensor data and the model data are not adjusted, the accuracy of the correspondence between the first sample points and the second sample points is low. Will be described later in step S14.
By performing the processing of 2 to S148, the accuracy of the sample points can be improved.

【0051】次に、ステップS142に進み、センサデ
ータのサンプル点とモデルデータのサンプル点との位置
関係が最も一致するように、モデルデータを変換する。
モデルデータの変換は、データ処理部2のCPU81が
モデルデータの座標変換を行うことにより、モデルデー
タが示すモデルの形態の位置・姿勢・大きさを変化させ
ることで行われる。
Next, in step S142, the model data is converted so that the positional relationship between the sample points of the sensor data and the sample points of the model data is the best.
The conversion of the model data is performed by the CPU 81 of the data processing unit 2 changing the position, orientation, and size of the model form indicated by the model data by performing coordinate conversion of the model data.

【0052】具体的には、センサデータとモデルデータ
との対応するサンプル点同士の距離の2乗和が最小とな
るように、モデルデータに回転、移動、拡大・縮小の変
換が行われる。つまり、センサデータにおけるi番目の
サンプル点の位置座標をxiとし、これに対応するi番
目のモデルデータにおけるサンプル点の位置座標をyi
とすると、
More specifically, model data is subjected to rotation, movement, and enlargement / reduction conversion so that the sum of the squares of the distances between the corresponding sample points of the sensor data and the model data is minimized. That is, the position coordinate of the i-th sample point in the sensor data is xi, and the position coordinate of the corresponding sample point in the i-th model data is yi.
Then

【0053】[0053]

【数1】 (Equation 1)

【0054】で表される2乗和Jが最小となるように、
CPU81が変数s,R,tを決定するのである。ここ
で、変数sは、モデルデータの示すモデルの拡大・縮小
を行うための倍率を変更するパラメータであり、s>1
であれば拡大、s<1であれば縮小となる。また、変数
Rはモデルデータの示すモデルの回転を行うためのパラ
メータであり、3×3の実回転行列である。また、変数
tはモデルデータの示すモデルの位置を変更するための
パラメータであり、3次元ベクトルの各成分ごとに移動
パラメータを有する。ここで、拡大・縮小を行うための
変数sを含めるのは、例えば対象物28がモデルデータ
の示す形状の縮小モデル等として実現された場合であっ
ても適切な描画を行うためである。
In order to minimize the sum of squares J expressed by
The CPU 81 determines the variables s, R, and t. Here, the variable s is a parameter for changing the magnification for enlarging / reducing the model indicated by the model data, and s> 1
If s <1, then enlargement is performed, and if s <1, reduction is performed. The variable R is a parameter for rotating the model indicated by the model data, and is a 3 × 3 actual rotation matrix. The variable t is a parameter for changing the position of the model indicated by the model data, and has a movement parameter for each component of the three-dimensional vector. Here, the reason for including the variable s for enlargement / reduction is to perform appropriate drawing even when the object 28 is realized as a reduced model having the shape indicated by the model data, for example.

【0055】CPU81が、2乗和Jを最小にする変数
s,R,tを求める際には、例えば最急降下法等の数学
的解法が適用されたコンピュータプログラムを実行する
ことにより容易に求めることが可能である。CPU81
は上記のような演算を行うことで2乗和Jを最小にする
変数s,R,tを求めると、それらの変数s,R,tと
最小の2乗和Jを一時的にメモリ82に格納する。
When the CPU 81 obtains the variables s, R, and t that minimize the sum of squares J, the variables are easily obtained by executing a computer program to which a mathematical solution such as a steepest descent method is applied. Is possible. CPU81
Calculates the variables s, R, and t that minimize the sum of squares J by performing the above operation, and temporarily stores the variables s, R, and t and the minimum sum of squares J in the memory 82. Store.

【0056】そして、CPU81は、メモリ82に格納
された変数s,R,tを用いて、モデルデータを変換す
る。つまり、CPU81は、
The CPU 81 uses the variables s, R, and t stored in the memory 82 to convert the model data. That is, the CPU 81

【0057】[0057]

【数2】 (Equation 2)

【0058】の演算を行うことにより、モデルデータに
おける任意の点座標yiをy'iに変換するのである。数
2に基づく演算を行うことにより、モデルデータの示す
形態が回転、移動、拡大・縮小され、仮想カメラからみ
たモデルデータの示す形態とセンサデータの示す形態と
が同一の形態に近づくことになる。
By performing the above operation, the arbitrary point coordinates yi in the model data are converted to y'i. By performing the calculation based on Equation 2, the form indicated by the model data is rotated, moved, enlarged / reduced, and the form indicated by the model data and the form indicated by the sensor data as viewed from the virtual camera approach the same form. .

【0059】次に、ステップS144に進み、センサデ
ータによって示される形態のポリゴンメッシュの頂点全
てを第1のサンプル点として抽出する。そして、ステッ
プS142において変換されたモデルデータに基づい
て、モデルデータとセンサデータとの各点の位置関係、
及び各点の色差によって定義される特徴空間内におい
て、第1のサンプル点と第2のサンプル点との2乗距離
dが最も小さくなるようなモデルデータにおける第2の
サンプル点を特定する。具体的には、
Next, the process proceeds to step S144, in which all vertices of the polygon mesh having the form indicated by the sensor data are extracted as first sample points. Then, based on the model data converted in step S142, the positional relationship of each point between the model data and the sensor data,
And a second sample point in the model data in which the square distance d between the first sample point and the second sample point is the smallest in the feature space defined by the color difference of each point. In particular,

【0060】[0060]

【数3】 (Equation 3)

【0061】により、2乗距離dを最小にするモデルデ
ータにおけるサンプル点yjを求めるのである。なお、
数3においてw1,w2は重み付け係数であり、各点の
位置関係と色差とのうちのいずれを重視してサンプル点
yjを決定するかを示すパラメータである。また、biは
サンプル点xiにおけるカラー情報を示しており、cjは
サンプル点yjにおけるカラー情報を示している。この
ようにカラー情報をも考慮して変換されたモデルデータ
からサンプル点yjを決定することにより、例えば対象
物28の表面に一部着色されている領域がある場合に、
その着色された領域と描画される際に記録される描画画
像との整合性を高めることができ、立体表面記録装置1
において最適な描画記録を行うことが可能になる。
Thus, the sample point yj in the model data that minimizes the square distance d is obtained. In addition,
In Equation 3, w1 and w2 are weighting coefficients, and are parameters indicating which of the positional relationship of each point and the color difference is emphasized to determine the sample point yj. Bi indicates color information at the sample point xi, and cj indicates color information at the sample point yj. By determining the sample points yj from the model data converted in consideration of the color information as described above, for example, when there is a partially colored area on the surface of the object 28,
The consistency between the colored area and the drawn image recorded at the time of drawing can be improved, and the three-dimensional surface recording device 1
It is possible to perform the optimal drawing recording in.

【0062】したがって、データ処理部2におけるCP
U81が数3に基づいて2乗距離dを最小にするモデル
データ上のサンプル点yjを特定することにより、サン
プル点yjはステップS142で変換されたモデルデー
タにおいて、サンプル点xiに対して最も近似する点が
特定されることになる。なお、特定される第2のサンプ
ル点yjの数は、第1のサンプル点xiの数と同数であ
り、各第2のサンプル点yjは第1のサンプル点xiの一
つに対応することは上記の場合と同様である。
Therefore, the CP in the data processing unit 2
U81 specifies the sample point yj on the model data that minimizes the square distance d based on Equation 3, so that the sample point yj is the closest to the sample point xi in the model data converted in step S142. Points to be specified. Note that the number of specified second sample points yj is the same as the number of first sample points xi, and that each second sample point yj corresponds to one of the first sample points xi. Same as above.

【0063】次に、ステップS146に進み、ステップ
S142と同様に、センサデータのサンプル点とモデル
データのサンプル点との位置関係が最も一致するよう
に、モデルデータの変換が行われる。このステップS1
46においてセンサデータのサンプル点及びモデルデー
タのサンプル点は、ステップS144において特定され
たサンプル点である。
Next, the process proceeds to step S146, where the model data is converted so that the positional relationship between the sample points of the sensor data and the sample points of the model data is the same as in step S142. This step S1
At 46, the sample points of the sensor data and the sample points of the model data are the sample points specified at step S144.

【0064】具体的には、ステップS142の場合と同
様に、センサデータとモデルデータとの対応するサンプ
ル点同士の距離の2乗和J(上記数1の式参照)が最小
となるように、モデルデータに回転、移動、拡大・縮小
の変換が行われる。
More specifically, as in the case of step S142, the sum of the squares J of the distances between the corresponding sample points of the sensor data and the model data (see the above equation (1)) is minimized. Conversion of rotation, movement, enlargement / reduction is performed on the model data.

【0065】ただし、このステップS146において数
1に基づく演算を行う際には、変数sを1に固定したま
まで行うようにしてもよい。この理由は、倍率の変更は
既にステップS142においてほぼ正確な状態となって
いると考えられるからである。そして、変数sを1に固
定したままで演算を行うようにすれば、求める変数の数
が減少するため、演算時間の短縮化を図ることが可能に
なる。
However, when performing the calculation based on Equation 1 in step S146, the calculation may be performed with the variable s fixed at 1. The reason is that it is considered that the change of the magnification is already almost accurate in step S142. If the calculation is performed while the variable s is fixed at 1, the number of variables to be obtained is reduced, so that the calculation time can be reduced.

【0066】このとき、CPU81は演算を行うことで
2乗和Jを最小にする変数s,R,tを求めると、それ
らの変数s,R,tと最小の2乗和J(J’)を一時的
にメモリ82に格納する。
At this time, the CPU 81 obtains the variables s, R, and t that minimize the sum of squares J by performing calculations, and obtains the variables s, R, and t and the minimum sum of squares J (J ′). Is temporarily stored in the memory 82.

【0067】そして、CPU81は、メモリ82に格納
された変数s,R,tを用いて、モデルデータを変換す
る。つまり、CPU81は、上記の数2の式の演算を行
うことにより、モデルデータにおける任意の点座標yi
をy'iに変換するのである。数2に基づく演算を行うこ
とにより、モデルデータの示す形態が回転、移動、拡大
・縮小され、仮想カメラからみたモデルデータの示す形
態とセンサデータの示す形態とが更に同一の形態に近づ
くことになる。
Then, the CPU 81 converts the model data using the variables s, R, and t stored in the memory 82. That is, the CPU 81 calculates the arbitrary point coordinates yi in the model data by performing the operation of the above equation (2).
Is converted to y'i. By performing the operation based on Equation 2, the form indicated by the model data is rotated, moved, enlarged / reduced, and the form indicated by the model data and the form indicated by the sensor data as viewed from the virtual camera further approach the same form. Become.

【0068】次に、ステップS148に進み、CPU8
1は前回計算された最小の2乗和Jと、今回ステップS
146において計算された最小の2乗和J’とのそれぞ
れを評価値として、評価値の差分(J−J’)を求め、
該差分(J−J’)が所定の閾値以下となったか否かを
判断することにより、収束したか否かを判断する。ここ
で収束とは、仮想カメラからみたモデルデータの示す形
態とセンサデータの示す形態との双方とがほぼ一致する
ようになることを意味する。
Next, the process proceeds to step S148, where the CPU 8
1 is the minimum sum of squares J calculated last time and this time step S
Each of the minimum sum of squares J ′ calculated in 146 is used as an evaluation value, and a difference (J−J ′) between the evaluation values is calculated.
It is determined whether or not the difference (JJ ′) has converged by determining whether or not the difference is equal to or less than a predetermined threshold. Here, convergence means that both the form indicated by the model data and the form indicated by the sensor data as viewed from the virtual camera substantially match.

【0069】そして収束したと判断した場合には、ステ
ップS146で変換されたモデルデータに基づいて対象
物28に彩色制御を行えばよいこととなるため、図5の
フローチャートの処理を抜けて図4のフローチャートの
ステップS16に進むことになる。
If it is determined that the convergence has been achieved, the color control of the object 28 should be performed based on the model data converted in step S146. The process proceeds to step S16 of the flowchart of FIG.

【0070】一方、未だ収束していないと判断した場合
には、再度変換後のモデルデータからサンプル点を抽出
するとともに、センサデータとモデルデータとのサンプ
ル点同士での位置関係の評価を行ってモデルデータの変
換を行うべく、ステップS144からの処理を繰り返す
ことになる。そして、ステップS144〜S148の処
理を繰り返すことにより、いずれ評価値の差分(J−
J’)は所定の閾値以下となり、仮想カメラからみたモ
デルデータの示す形態とセンサデータの示す形態との双
方とがほぼ一致するようになる。
On the other hand, if it is determined that the convergence has not yet occurred, sample points are extracted again from the converted model data, and the positional relationship between the sample points of the sensor data and the model data is evaluated. In order to convert the model data, the processing from step S144 is repeated. Then, by repeating the processing of steps S144 to S148, the difference (J−
J ′) becomes equal to or less than a predetermined threshold value, and both the form indicated by the model data and the form indicated by the sensor data as viewed from the virtual camera substantially match.

【0071】そしてステップS16に進むと、データ処
理部2のCPU81は変換された結果、センサデータと
ほぼ同一状態に対応づけられたモデルデータ中で彩色対
象とする領域とそれ以外の領域とを指定する。CPU8
1による彩色対象領域の指定は、ユーザが操作入力部8
7より指定した領域に基づいて行うようにしてもよい
し、モデルデータやセンサデータに基づいて自動的に指
定するようにしてもよい。自動的に指定する場合には、
例えばモデルデータのカラー情報に基づいてCPU81
が自動的に指定することが可能である。これにより、彩
色したい領域にのみ描画を行うことができる。
When the process proceeds to step S16, the CPU 81 of the data processing unit 2 designates an area to be colored and other areas in the model data associated with almost the same state as the sensor data as a result of the conversion. I do. CPU8
The user designates the coloring target area by the operation input unit 8.
7 may be performed based on the area specified, or may be automatically specified based on model data or sensor data. If you specify it automatically,
For example, based on the color information of the model data, the CPU 81
Can be specified automatically. As a result, drawing can be performed only in a region to be colored.

【0072】そしてデータ処理部2では、変換されたモ
デルデータに基づいて、指定された彩色対象領域につい
ての彩色制御データが生成される。そして、彩色制御デ
ータはデータ処理部2から記録機構部3の彩色制御部3
1に与えられる。
The data processing unit 2 generates coloring control data for the designated coloring target area based on the converted model data. The coloring control data is sent from the data processing unit 2 to the coloring control unit 3 of the recording mechanism unit 3.
Given to one.

【0073】次に、ステップS18に進み、彩色制御部
31は彩色制御データに基づいて主走査駆動モータ9
1、副走査駆動モータ92、昇降駆動モータ90、ロー
ル軸駆動モータ18、ピッチ軸駆動モータ22、ヨー軸
駆動モータ24を駆動して、立体表面記録装置1にセッ
トされた対象物28の彩色対象領域に対するインクジェ
ットヘッド10の走査を行うとともに、各インク吐出位
置にて所定のインクを吐出させる。
Next, proceeding to step S18, the coloring control section 31 performs the main scanning drive motor 9 based on the coloring control data.
1. The sub-scanning drive motor 92, the elevation drive motor 90, the roll axis drive motor 18, the pitch axis drive motor 22, and the yaw axis drive motor 24 are driven to color the object 28 set on the three-dimensional surface recording apparatus 1. The inkjet head 10 scans the area and ejects a predetermined ink at each ink ejection position.

【0074】このとき、彩色制御部31は、彩色対象領
域をさらに複数の対象領域に分割し、分割した各対象領
域の描画画像を例えば主走査方向と副走査方向とによっ
て規定される平面に射影する。そして、得られる射影画
像に基づいて、インクジェットヘッド10を移動させつ
つインクを吐出することで各対象領域の描画を行う。こ
のように制御することによって、インクジェットヘッド
10の対象物28に対する相対的な姿勢の制御回数を減
少させることができ、高速に対象物28の表面に描画を
行うことが可能になる。
At this time, the coloring control unit 31 further divides the coloring target region into a plurality of target regions, and projects the drawn image of each of the divided target regions onto, for example, a plane defined by the main scanning direction and the sub-scanning direction. I do. Then, based on the obtained projected image, drawing of each target area is performed by ejecting ink while moving the inkjet head 10. By performing such control, the number of times of controlling the attitude of the inkjet head 10 relative to the target object 28 can be reduced, and it is possible to perform drawing on the surface of the target object 28 at high speed.

【0075】以上説明したように、本実施形態の立体表
面記録装置1によれば、対象物28の表面に対して記録
すべき内容を含んだ立体的なモデルデータと、実際にセ
ットされた対象物28をセンサユニット8によってセン
シングして得られるセンサデータとの間で対応点を特定
して彩色制御データを生成するように構成されているた
め、任意の立体的形状を有する対象物28の表面に適切
に画像記録を行うことができる。
As described above, according to the three-dimensional surface recording apparatus 1 of the present embodiment, the three-dimensional model data including the contents to be recorded on the surface of the object 28 and the actually set object Since the color matching control data is generated by specifying the corresponding points between the sensor data obtained by sensing the object 28 by the sensor unit 8, the surface of the object 28 having an arbitrary three-dimensional shape Image recording can be performed appropriately.

【0076】すなわち、上記処理手順のうちで、ステッ
プS14のモデルデータとセンサデータとの大きさ及び
位置を合わせるための処理において、ステップS140
(図5参照)の処理が行われた時点で精度は低いもの
の、サンプル点同士の一応の対応関係が規定されること
になる。したがって、この時点で図5のフローチャート
を抜けてステップS16,S18へと進んで、彩色制御
を行うようにしても従来に比べれば比較的正確な画像記
録を行うことが可能となっている。
That is, in the processing for matching the size and position between the model data and the sensor data in step S14 in the processing procedure, step S140
Although the accuracy is low when the process of FIG. 5 is performed, a tentative correspondence between the sample points is defined. Therefore, at this point, the process goes out of the flowchart of FIG. 5 and proceeds to steps S16 and S18, and even if color control is performed, it is possible to perform relatively accurate image recording as compared with the related art.

【0077】そしてさらに、上述のようにステップS1
40〜S148(図5参照)の全ての処理を行うことに
よって、より正確な画像記録を実現することが可能にな
る。つまり、データ処理部2が、センサユニット8から
得られるセンサデータに基づいて第1のサンプル点を設
定するとともに、モデルデータに基づいて第2のサンプ
ル点を設定し、各サンプル点の相対位置の評価を行っ
て、モデルデータの変換を行うことにより、任意の立体
的形状を有する対象物28の表面に対してより正確に画
像記録を行うことが可能になるのである。
Further, as described above, step S1
By performing all the processes of S40 to S148 (see FIG. 5), more accurate image recording can be realized. That is, the data processing unit 2 sets the first sample point based on the sensor data obtained from the sensor unit 8, sets the second sample point based on the model data, and sets the relative position of each sample point. By performing the evaluation and converting the model data, it is possible to more accurately record an image on the surface of the object 28 having an arbitrary three-dimensional shape.

【0078】また、モデルデータの変換を行う際に、モ
デルデータの倍率を変換するようにも構成されているの
で、対象物28がモデルデータの縮小モデル等として実
現された場合であっても、適切に画像記録を行うことが
可能になる。
Further, when the model data is converted, the magnification of the model data is also converted. Therefore, even if the object 28 is realized as a reduced model of the model data, Image recording can be appropriately performed.

【0079】<3.変形例>以上、この発明の実施の形
態について説明したが、この発明は上記説明した内容の
ものに限定されるものではない。
<3. Modifications> Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the contents described above.

【0080】例えば、上記ステップS144では、モデ
ルデータとセンサデータとの各点の位置関係、及び各点
の色差によって定義される特徴空間内において、第1の
サンプル点と第2のサンプル点との2乗距離dが最も小
さくなるような第2のサンプル点を特定する場合につい
て説明した。
For example, in the above step S144, in the feature space defined by the positional relationship between each point of the model data and the sensor data and the color difference of each point, the first sample point and the second sample point The case where the second sample point that minimizes the square distance d is specified has been described.

【0081】しかし、色差を評価に用いることなく、各
点の位置関係のみを用いて2乗距離dが最小になるよう
な第2のサンプル点を特定するようにしてもよい。具体
的には、ステップS144において、
However, the second sample point that minimizes the square distance d may be specified by using only the positional relationship of each point without using the color difference for evaluation. Specifically, in step S144,

【0082】[0082]

【数4】 (Equation 4)

【0083】により、データ処理部2が2乗距離dを最
小にするモデルデータにおけるサンプル点yjを求める
のである。
Thus, the data processing unit 2 obtains a sample point yj in the model data that minimizes the square distance d.

【0084】このようにステップS144の評価におい
てカラー情報を用いることなく、モデルデータとセンサ
データとの大きさ・位置合わせを行うことができるの
で、立体表面記録装置1のセンサユニット8にカラー画
像入力センサ8bを設ける必要がなく、装置のコスト低
減及び小型化を図ることができるとともに、処理の高速
化を図ることもできる。なお、この場合には、彩色対象
物表示領域86b(図6参照)にはテクスチャなしのシ
ェーディング画像が表示されることになる。
As described above, the size and the position of the model data and the sensor data can be aligned without using the color information in the evaluation in step S144. Since it is not necessary to provide the sensor 8b, the cost and size of the apparatus can be reduced, and the processing can be speeded up. In this case, a shading image without texture is displayed in the coloring object display area 86b (see FIG. 6).

【0085】ただし、立体表面記録装置1のセンサユニ
ット8にカラー画像入力センサ8bを設けたまま、ステ
ップS144の処理おいてカラー情報を用いないように
してもよい。この場合、カラー画像はステップS140
でユーザが大まかな位置合わせを行うためにのみ使用さ
れ、それ以外の処理では使用されないことになる。
However, the color information may not be used in the process of step S144 while the color image input sensor 8b is provided in the sensor unit 8 of the three-dimensional surface recording apparatus 1. In this case, the color image is stored in step S140.
Is used only for rough alignment by the user, and is not used in other processes.

【0086】また、上記説明においては、モデルデータ
はインタフェース85を介して外部機器より入力する例
について説明したが、上述のように立体表面記録装置1
には対象物28の三次元形状やカラー画像を取り込むた
めのセンサユニット8が設けられているため、このセン
サユニット8を用いてモデルデータを生成することもで
きる。つまり、予め対象物28として完成品(表面に完
全な彩色が行われた物)をセットし、センサユニット8
をスキャナとして使用することにより、完成品の表面全
体に関するモデルデータを生成するのである。このよう
に構成すれば、完成品がひとつ存在する一方、未彩色の
対象物がいくつか存在する場合に、完成品の表面の彩色
状態を他の未済色の対象物にコピーすることが可能にな
る。
In the above description, an example in which model data is input from an external device via the interface 85 has been described.
Is provided with a sensor unit 8 for taking in a three-dimensional shape and a color image of the object 28, and the sensor unit 8 can be used to generate model data. That is, a completed product (a product whose surface is completely colored) is set as the target object 28 in advance, and the sensor unit 8
Is used as a scanner to generate model data for the entire surface of the finished product. With this configuration, it is possible to copy the coloring state of the surface of the finished product to other unfinished objects when there is one finished product and there are several uncolored objects. Become.

【0087】また、上記説明においては、立体表面記録
装置1がデータ処理部2を備える構成例について説明し
たが、データ処理部2を独立したデータ生成装置として
実現してもよい。この場合、データ生成装置で生成され
る彩色制御データは、別体として実現された記録機構部
3を備える立体表面記録装置に対して出力されることに
なる。
In the above description, the configuration example in which the three-dimensional surface recording device 1 includes the data processing unit 2 has been described. However, the data processing unit 2 may be realized as an independent data generation device. In this case, the coloring control data generated by the data generating device is output to the three-dimensional surface recording device including the recording mechanism unit 3 realized as a separate unit.

【0088】[0088]

【発明の効果】以上説明したように、請求項1及び請求
項6に記載の発明によれば、彩色対象物に対して記録す
べき立体的なモデルデータと、彩色対象物をセンシング
して得られるセンサデータとの間で対応点を特定し、彩
色制御データを生成するように構成されているため、位
置決め機構等を用いることなく、任意の立体的形状を有
する彩色対象物の状態とモデルデータの姿勢等との関係
を適切な状態にすることができる。そして生成された彩
色制御データに基づいて画像記録を行えば、任意の立体
的形状を有する彩色対象物の表面に適切に画像記録を行
うことができる。
As described above, according to the first and sixth aspects of the present invention, three-dimensional model data to be recorded on a coloring object and sensing of the coloring object can be obtained. It is configured to specify the corresponding points between the sensor data and the generated color control data, so that the state of the colored object having an arbitrary three-dimensional shape and model data without using a positioning mechanism or the like. The relationship with the posture of the user can be made appropriate. If image recording is performed based on the generated coloring control data, image recording can be appropriately performed on the surface of a coloring object having an arbitrary three-dimensional shape.

【0089】請求項2及び請求項7に記載の発明によれ
ば、センサデータに基づいて第1のサンプル点を設定す
るとともに、モデルデータに基づいて第2のサンプル点
を設定し、第1のサンプル点に対する第2のサンプル点
の相対位置の評価を行って、モデルデータの変換を行う
ように構成されているため、任意の立体的形状を有する
彩色対象物の表面に対してより正確に画像記録を行うた
めの彩色制御データを生成することができる。そしてこ
の彩色制御データに基づいて画像記録を行えば、任意の
立体的形状を有する彩色対象物の表面により正確に画像
記録を行うことができる。
According to the second and seventh aspects of the present invention, the first sample point is set based on the sensor data, and the second sample point is set based on the model data. Since the configuration is such that the relative position of the second sample point with respect to the sample point is evaluated and the model data is converted, the image can be more accurately displayed on the surface of the coloring object having an arbitrary three-dimensional shape. Coloring control data for recording can be generated. If image recording is performed based on the coloring control data, image recording can be performed more accurately on the surface of a coloring object having an arbitrary three-dimensional shape.

【0090】請求項3及び請求項8に記載の発明によれ
ば、相対位置の評価に基づいて、モデルデータの倍率を
変換するように構成されているため、彩色対象物がモデ
ルデータの縮小モデル等として実現された場合であって
も、適切に画像記録を行うための彩色制データを生成す
ることができる。そしてこの彩色制御データに基づいて
画像記録を行えば、彩色対象物のサイズとモデルデータ
の示すサイズとが異なる場合であっても、彩色対象物の
表面により正確に画像記録を行うことができる。
According to the third and eighth aspects of the present invention, since the magnification of the model data is converted based on the evaluation of the relative position, the object to be colored is a reduced model of the model data. Even if it is realized as such, it is possible to generate coloring system data for appropriately performing image recording. If image recording is performed based on the coloring control data, even if the size of the coloring object is different from the size indicated by the model data, the image can be recorded more accurately on the surface of the coloring object.

【0091】請求項4及び請求項9に記載の発明によれ
ば、第2のサンプル点の設定と、相対位置の評価と、モ
デルデータの変換と、を繰り返し行うことによって、第
1のサンプル点に対する第2のサンプル点の相対位置関
係を所定の位置関係とした状態で、彩色制御データを生
成するように構成されているため、任意の立体的形状を
有する彩色対象物の表面に対して最適な画像記録を行う
ための彩色制御データを生成することができる。そして
この彩色制御データに基づいて画像記録を行えば、任意
の立体的形状を有する彩色対象物の表面に最適な画像記
録を行うことができる。
According to the fourth and ninth aspects of the present invention, the setting of the second sample point, the evaluation of the relative position, and the conversion of the model data are repeatedly performed to obtain the first sample point. Is configured to generate the coloring control data in a state where the relative positional relationship of the second sample point with respect to is set to a predetermined positional relationship. It is possible to generate coloring control data for performing accurate image recording. By performing image recording based on the coloring control data, it is possible to perform optimal image recording on the surface of a coloring object having an arbitrary three-dimensional shape.

【0092】請求項5及び請求項10に記載の発明によ
れば、センサデータが彩色対象物のカラー情報を含んで
おり、第1のサンプル点と第2のサンプル点との色差の
評価をも行うように構成されているため、例えば、彩色
対象物の表面に一部着色されている領域がある場合であ
っても、その着色された領域と描画される際に記録され
る描画画像との整合性を高めることができ、最適な画像
記録を行うことが可能になる。
According to the fifth and tenth aspects of the present invention, the sensor data includes the color information of the coloring object, and the evaluation of the color difference between the first sample point and the second sample point is also performed. For example, even if there is a partially colored region on the surface of the coloring object, the colored region and the drawing image recorded when the drawing is performed are configured. Consistency can be improved, and optimal image recording can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施の形態に係る立体表面記録装置
を正面から見た概略図である。
FIG. 1 is a schematic view of a three-dimensional surface recording apparatus according to an embodiment of the present invention as viewed from the front.

【図2】立体表面記録装置の対象物姿勢変更部の機構図
である。
FIG. 2 is a mechanism diagram of an object posture changing unit of the three-dimensional surface recording device.

【図3】立体表面記録装置の駆動制御系の構成を示すブ
ロック図である。
FIG. 3 is a block diagram illustrating a configuration of a drive control system of the three-dimensional surface recording device.

【図4】立体表面記録装置における処理手順を示すフロ
ーチャートである。
FIG. 4 is a flowchart illustrating a processing procedure in the three-dimensional surface recording device.

【図5】立体表面記録装置における処理手順を示すフロ
ーチャートである。
FIG. 5 is a flowchart illustrating a processing procedure in the three-dimensional surface recording device.

【図6】表示部の表示画面を示す図である。FIG. 6 is a diagram showing a display screen of a display unit.

【図7】自動的にサンプル点の組を指定する際の概念図
である。
FIG. 7 is a conceptual diagram when a set of sample points is automatically designated.

【符号の説明】[Explanation of symbols]

1 立体表面記録装置 2 データ処理部 3 記録機構部 8 センサユニット 8a 3次元形状入力センサ 8b カラー画像入力センサ 10 インクジェットヘッド 20 対象物姿勢変更部 28 対象物(彩色対象物) 31 彩色制御部 81 CPU 82 メモリ 83 記憶装置 REFERENCE SIGNS LIST 1 solid surface recording device 2 data processing unit 3 recording mechanism unit 8 sensor unit 8a three-dimensional shape input sensor 8b color image input sensor 10 inkjet head 20 target posture changing unit 28 target (colored target) 31 coloring control unit 81 CPU 82 memory 83 storage device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 420 B41J 3/04 101Z // G01B 11/24 G01B 11/24 A Fターム(参考) 2C056 EA04 EB13 EB29 EC07 EC11 EC12 EC33 EC34 EC35 EC69 FA15 FB01 HA12 2C062 RA01 2F065 AA53 BB05 FF01 FF02 FF05 FF09 HH05 HH07 PP01 QQ23 SS02 SS13 5B047 AA01 AB04 BA02 BB04 CA05 CA07 CA17 CB17 5C074 BB16 BB21 CC26 DD15 DD16 EE04 EE08 FF15 GG01 GG19──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 1/00 420 B41J 3/04 101Z // G01B 11/24 G01B 11/24 A F-term (Reference) 2C056 EA04 EB13 EB29 EC07 EC11 EC12 EC33 EC34 EC35 EC69 FA15 FB01 HA12 2C062 RA01 2F065 AA53 BB05 FF01 FF02 FF05 FF09 HH05 HH07 PP01 QQ23 SS02 SS13 5B047 AA01 AB04 BA02 BB04 CA05 CA07 CB16 DD075

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 立体的な彩色対象物の表面に画像記録を
行う際に使用する彩色制御データを生成するデータ生成
装置であって、 前記彩色対象物に対して記録すべき立体的なモデルデー
タを記憶する手段と、 前記彩色対象物をセンシングしてセンサデータを生成す
るセンシング手段と、 前記モデルデータと前記センサデータとの間で対応点を
特定し、前記彩色制御データを生成するデータ処理手段
と、を備えることを特徴とするデータ生成装置。
1. A data generating apparatus for generating color control data used for recording an image on the surface of a three-dimensional colored object, comprising: three-dimensional model data to be recorded on the colored object. Means for sensing the coloring object and generating sensor data; and a data processing means for specifying a corresponding point between the model data and the sensor data and generating the coloring control data. And a data generation device.
【請求項2】 請求項1に記載のデータ生成装置におい
て、 前記データ処理手段は、前記センサデータに基づいて第
1のサンプル点を設定するとともに、前記モデルデータ
に基づいて第2のサンプル点を設定し、前記第1のサン
プル点に対する前記第2のサンプル点の相対位置の評価
を行って、前記モデルデータの変換を行うことを特徴と
するデータ生成装置。
2. The data generation device according to claim 1, wherein the data processing unit sets a first sample point based on the sensor data, and sets a second sample point based on the model data. A data generation device configured to set and evaluate the relative position of the second sample point with respect to the first sample point to convert the model data.
【請求項3】 請求項2に記載のデータ生成装置におい
て、 前記データ処理手段は、前記相対位置の評価に基づい
て、前記モデルデータの倍率を変換することを特徴とす
るデータ生成装置。
3. The data generating apparatus according to claim 2, wherein the data processing means converts a magnification of the model data based on the evaluation of the relative position.
【請求項4】 請求項2又は請求項3に記載のデータ生
成装置において、 前記データ処理手段は、前記第2のサンプル点の設定
と、前記相対位置の評価と、前記モデルデータの変換
と、を繰り返し行うことによって、前記第1のサンプル
点に対する前記第2のサンプル点の相対位置関係を所定
の位置関係とした状態で、前記彩色制御データを生成す
ることを特徴とするデータ生成装置。
4. The data generation device according to claim 2, wherein the data processing unit sets the second sample point, evaluates the relative position, converts the model data, By repeatedly performing the above, the color control data is generated in a state where the relative positional relationship between the second sample point and the first sample point is a predetermined positional relationship.
【請求項5】 請求項2ないし請求項4のいずれかに記
載のデータ生成装置において、 前記データ処理手段は、前記センサデータは前記彩色対
象物のカラー情報を含んでおり、前記第1のサンプル点
と前記第2のサンプル点との色差の評価をも行うことを
特徴とするデータ生成装置。
5. The data generation device according to claim 2, wherein the data processing unit includes: the sensor data includes color information of the coloring object; A data generating apparatus for evaluating a color difference between a point and the second sample point.
【請求項6】 立体的な彩色対象物の表面に画像記録を
行う立体表面記録装置であって、 前記彩色対象物に対して記録すべき立体的なモデルデー
タを記憶する手段と、 前記彩色対象物をセンシングしてセンサデータを生成す
るセンシング手段と、 前記モデルデータと前記センサデータとの間で対応点を
特定し、彩色制御データを生成するデータ処理手段と、 前記彩色制御データに基づいて前記彩色対象物に画像記
録を行う記録手段と、を備えることを特徴とする立体表
面記録装置。
6. A three-dimensional surface recording apparatus for recording an image on the surface of a three-dimensional coloring object, comprising: means for storing three-dimensional model data to be recorded on the coloring object; Sensing means for sensing an object to generate sensor data; identifying corresponding points between the model data and the sensor data; and data processing means for generating color control data; and Recording means for recording an image on a colored object.
【請求項7】 請求項6に記載の立体表面記録装置にお
いて、 前記データ処理手段は、前記センサデータに基づいて第
1のサンプル点を設定するとともに、前記モデルデータ
に基づいて第2のサンプル点を設定し、前記第1のサン
プル点に対する前記第2のサンプル点の相対位置の評価
を行って、前記モデルデータの変換を行うことを特徴と
する立体表面記録装置。
7. The three-dimensional surface recording apparatus according to claim 6, wherein the data processing means sets a first sample point based on the sensor data and a second sample point based on the model data. The three-dimensional surface recording apparatus performs the conversion of the model data by evaluating the relative position of the second sample point with respect to the first sample point.
【請求項8】 請求項7に記載の立体表面記録装置にお
いて、 前記データ処理手段は、前記相対位置の評価に基づい
て、前記モデルデータの倍率を変換することを特徴とす
る立体表面記録装置。
8. The three-dimensional surface recording apparatus according to claim 7, wherein the data processing means converts a magnification of the model data based on the evaluation of the relative position.
【請求項9】 請求項7又は請求項8に記載の立体表面
記録装置において、 前記データ処理手段は、前記第2のサンプル点の設定
と、前記相対位置の評価と、前記モデルデータの変換
と、を繰り返し行うことによって、前記第1のサンプル
点に対する前記第2のサンプル点の相対位置関係を所定
の位置関係とした状態で、前記彩色制御データを生成す
ることを特徴とする立体表面記録装置。
9. The three-dimensional surface recording apparatus according to claim 7, wherein the data processing unit sets the second sample point, evaluates the relative position, and converts the model data. , The coloring control data is generated in a state where the relative positional relationship of the second sample point with respect to the first sample point is set to a predetermined positional relationship. .
【請求項10】 請求項7ないし請求項9のいずれかに
記載の立体表面記録装置において、 前記データ処理手段は、前記センサデータは前記彩色対
象物のカラー情報を含んでおり、前記第1のサンプル点
と前記第2のサンプル点との色差の評価をも行うことを
特徴とするデータ生成装置。
10. The three-dimensional surface recording apparatus according to claim 7, wherein said data processing means includes: said sensor data including color information of said coloring object; A data generation apparatus for evaluating a color difference between a sample point and the second sample point.
JP2000275105A 2000-09-11 2000-09-11 Data generator and solid surface recording device Pending JP2002084407A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000275105A JP2002084407A (en) 2000-09-11 2000-09-11 Data generator and solid surface recording device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000275105A JP2002084407A (en) 2000-09-11 2000-09-11 Data generator and solid surface recording device

Publications (1)

Publication Number Publication Date
JP2002084407A true JP2002084407A (en) 2002-03-22

Family

ID=18760771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000275105A Pending JP2002084407A (en) 2000-09-11 2000-09-11 Data generator and solid surface recording device

Country Status (1)

Country Link
JP (1) JP2002084407A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7438380B2 (en) 2005-08-31 2008-10-21 Brother Kogyo Kabushiki Kaisha Image forming apparatus
JP2009184121A (en) * 2008-02-01 2009-08-20 Mimaki Engineering Co Ltd Three-dimensional printer
JP2009184119A (en) * 2008-02-01 2009-08-20 Mimaki Engineering Co Ltd Three-dimensional printer
JP2009184118A (en) * 2008-02-01 2009-08-20 Mimaki Engineering Co Ltd Three-dimensional printer
JP2009184112A (en) * 2008-02-01 2009-08-20 Mimaki Engineering Co Ltd Three-dimensional printer
JP2010125757A (en) * 2008-11-28 2010-06-10 Mimaki Engineering Co Ltd Inkjet printer
JP2010125744A (en) * 2008-11-28 2010-06-10 Mimaki Engineering Co Ltd Inkjet printer
JP2012101146A (en) * 2010-11-08 2012-05-31 Lac:Kk Curved-face coating device
JP2014087753A (en) * 2012-10-30 2014-05-15 Mimaki Engineering Co Ltd Ink jet printer, printed body holding member, and printing method
JP2014117930A (en) * 2012-12-19 2014-06-30 Yokohama Rubber Co Ltd:The Curved surface printer
WO2015159933A1 (en) * 2014-04-16 2015-10-22 株式会社ミマキエンジニアリング Inkjet printer and printing method
JP2015202491A (en) * 2014-04-16 2015-11-16 株式会社ミマキエンジニアリング Ink jet printer
JP2017001395A (en) * 2016-07-25 2017-01-05 セイコーエプソン株式会社 Liquid discharge device
US9827786B2 (en) 2014-07-11 2017-11-28 Seiko Epson Corporation Recording apparatus and recording method
JP2018012314A (en) * 2016-07-22 2018-01-25 株式会社ミマキエンジニアリング Printing object body holding jig and ink jet printer having the same
JP2018183920A (en) * 2017-04-25 2018-11-22 株式会社イビソク Comment printer for relic
JP2019142020A (en) * 2018-02-16 2019-08-29 株式会社バンダイ Holding device and control device
WO2019243440A1 (en) * 2018-06-21 2019-12-26 Smrc Automotive Holdings Netherlands B.V. Facility for printing or coating surfaces of three-dimensional parts
RU2779266C2 (en) * 2018-06-21 2022-09-05 Смрк Аутомотив Холдингз Нетерлендз Б.В. Installation for printing or for application of coating to surfaces of three-dimensional parts

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7438380B2 (en) 2005-08-31 2008-10-21 Brother Kogyo Kabushiki Kaisha Image forming apparatus
JP2009184121A (en) * 2008-02-01 2009-08-20 Mimaki Engineering Co Ltd Three-dimensional printer
JP2009184119A (en) * 2008-02-01 2009-08-20 Mimaki Engineering Co Ltd Three-dimensional printer
JP2009184118A (en) * 2008-02-01 2009-08-20 Mimaki Engineering Co Ltd Three-dimensional printer
JP2009184112A (en) * 2008-02-01 2009-08-20 Mimaki Engineering Co Ltd Three-dimensional printer
JP2010125744A (en) * 2008-11-28 2010-06-10 Mimaki Engineering Co Ltd Inkjet printer
JP2010125757A (en) * 2008-11-28 2010-06-10 Mimaki Engineering Co Ltd Inkjet printer
JP2012101146A (en) * 2010-11-08 2012-05-31 Lac:Kk Curved-face coating device
JP2014087753A (en) * 2012-10-30 2014-05-15 Mimaki Engineering Co Ltd Ink jet printer, printed body holding member, and printing method
JP2014117930A (en) * 2012-12-19 2014-06-30 Yokohama Rubber Co Ltd:The Curved surface printer
US10035359B2 (en) 2014-04-16 2018-07-31 Mimaki Engineering Co., Ltd. Inkjet printer and printing method
WO2015159933A1 (en) * 2014-04-16 2015-10-22 株式会社ミマキエンジニアリング Inkjet printer and printing method
JP2015202491A (en) * 2014-04-16 2015-11-16 株式会社ミマキエンジニアリング Ink jet printer
US9827786B2 (en) 2014-07-11 2017-11-28 Seiko Epson Corporation Recording apparatus and recording method
JP2018012314A (en) * 2016-07-22 2018-01-25 株式会社ミマキエンジニアリング Printing object body holding jig and ink jet printer having the same
JP2017001395A (en) * 2016-07-25 2017-01-05 セイコーエプソン株式会社 Liquid discharge device
JP2018183920A (en) * 2017-04-25 2018-11-22 株式会社イビソク Comment printer for relic
JP2019142020A (en) * 2018-02-16 2019-08-29 株式会社バンダイ Holding device and control device
JP7055032B2 (en) 2018-02-16 2022-04-15 株式会社バンダイ Holding device and control device
WO2019243440A1 (en) * 2018-06-21 2019-12-26 Smrc Automotive Holdings Netherlands B.V. Facility for printing or coating surfaces of three-dimensional parts
FR3082780A1 (en) * 2018-06-21 2019-12-27 Reydel Automotive B.V. THREE-DIMENSIONAL WORKPIECE PRINTING OR COATING SYSTEM
CN112492879A (en) * 2018-06-21 2021-03-12 Smrc汽车控股荷兰有限公司 Apparatus for printing or coating the surface of three-dimensional parts
RU2779266C2 (en) * 2018-06-21 2022-09-05 Смрк Аутомотив Холдингз Нетерлендз Б.В. Installation for printing or for application of coating to surfaces of three-dimensional parts
US11794489B2 (en) 2018-06-21 2023-10-24 Smrc Automotive Holdings Netherlands B.V. Facility for printing or coating surfaces of three-dimensional parts

Similar Documents

Publication Publication Date Title
JP2002084407A (en) Data generator and solid surface recording device
US8840206B2 (en) Nail print apparatus and printing control method
CN105433577B (en) Nail information detector, describing device and nail information detecting method
JP3842233B2 (en) Image processing apparatus and robot system
US6066829A (en) Apparatus for entering, formatting, and storing a variety of characters, symbols, and figures for use in a laser marking system
US6775403B1 (en) Device for and method of processing 3-D shape data
US7046838B1 (en) Three-dimensional data input method and apparatus
US6738131B2 (en) Distance measuring method and image input device with distance measuring function
CN108274092A (en) Groove automatic cutting system and cutting method based on 3D vision and Model Matching
CN108780586A (en) Image processing method, display equipment and inspection system
JP2011112402A (en) Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor
JPH07239219A (en) Method and device for measuring profile shape of tire edge without contact
JP2015134410A (en) Printer and printing method
US20240065781A1 (en) Surgical robot, and graphical control device and graphic display method therefor
WO2007083600A1 (en) Makeup simulation system, makeup simulation device, makeup simulation method, and makeup simulation program
JP2018116599A (en) Information processor, method for processing information, and program
JPH11314357A (en) Method and apparatus for marking profile surface with complicated topology
JP2009237619A (en) Detection of face area and organ area in image
KR20150101836A (en) Full body high speed three dimesional scanning apparatus
US20090285457A1 (en) Detection of Organ Area Corresponding to Facial Organ Image in Image
JP5198078B2 (en) Measuring device and measuring method
JP2017010271A (en) Information processing apparatus, image forming system, image forming apparatus, and program
JP2001301137A (en) Apparatus and method for recording on three- dimensional surface
JP2010170184A (en) Specifying position of characteristic portion of face image
CN108549484A (en) Man-machine interaction method and device based on human body dynamic posture

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613