JP3495717B2 - Method of expressing solid model inside transparent object, transparent object in which solid model is expressed, and order receiving system - Google Patents
Method of expressing solid model inside transparent object, transparent object in which solid model is expressed, and order receiving systemInfo
- Publication number
- JP3495717B2 JP3495717B2 JP2001076381A JP2001076381A JP3495717B2 JP 3495717 B2 JP3495717 B2 JP 3495717B2 JP 2001076381 A JP2001076381 A JP 2001076381A JP 2001076381 A JP2001076381 A JP 2001076381A JP 3495717 B2 JP3495717 B2 JP 3495717B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional model
- computer
- manufacturing
- transparent body
- order
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 29
- 239000007787 solid Substances 0.000 title description 3
- 238000004519 manufacturing process Methods 0.000 claims description 31
- 238000012545 processing Methods 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 5
- 230000037237 body shape Effects 0.000 claims 1
- 239000011521 glass Substances 0.000 description 12
- 238000007726 management method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000012937 correction Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 238000010147 laser engraving Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 239000004925 Acrylic resin Substances 0.000 description 1
- 229920000178 Acrylic resin Polymers 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000156 glass melt Substances 0.000 description 1
- 239000000113 methacrylic resin Substances 0.000 description 1
- 229920005668 polycarbonate resin Polymers 0.000 description 1
- 239000004431 polycarbonate resin Substances 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B44—DECORATIVE ARTS
- B44F—SPECIAL DESIGNS OR PICTURES
- B44F1/00—Designs or pictures characterised by special or unusual light effects
- B44F1/06—Designs or pictures characterised by special or unusual light effects produced by transmitted light, e.g. transparencies, imitations of glass paintings
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B44—DECORATIVE ARTS
- B44C—PRODUCING DECORATIVE EFFECTS; MOSAICS; TARSIA WORK; PAPERHANGING
- B44C1/00—Processes, not specifically provided for elsewhere, for producing decorative surface effects
- B44C1/22—Removing surface-material, e.g. by engraving, by etching
- B44C1/228—Removing surface-material, e.g. by engraving, by etching by laser radiation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B44—DECORATIVE ARTS
- B44C—PRODUCING DECORATIVE EFFECTS; MOSAICS; TARSIA WORK; PAPERHANGING
- B44C3/00—Processes, not specifically provided for elsewhere, for producing ornamental structures
- B44C3/04—Modelling plastic materials, e.g. clay
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B44—DECORATIVE ARTS
- B44C—PRODUCING DECORATIVE EFFECTS; MOSAICS; TARSIA WORK; PAPERHANGING
- B44C5/00—Processes for producing special ornamental bodies
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B44—DECORATIVE ARTS
- B44F—SPECIAL DESIGNS OR PICTURES
- B44F1/00—Designs or pictures characterised by special or unusual light effects
Landscapes
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Toxicology (AREA)
- Chemical & Material Sciences (AREA)
- Dispersion Chemistry (AREA)
- Surface Treatment Of Glass (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Processing Or Creating Images (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、透明体内部に、光
のスポット照射により、立体モデルの形状を表現する方
法、立体モデルが表現された透明体、及びその受注シス
テムに関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of expressing the shape of a three-dimensional model by irradiating a light spot inside a transparent body, a transparent body in which the three-dimensional model is expressed, and an order receiving system for the same.
【0002】[0002]
【従来の技術】立体モデルの表面形状を、ガラス体の中
にレーザ彫刻する方法が知られている。この方法は、レ
ーザ光線をガラス体の中に集束させて紡錘状のスポット
を形成する。その部分の温度は高くなるのでガラスは溶
融する。冷却後、スポットの部分は、不透明又は半透明
になって残り、立体モデル表面形状を彫刻することがで
きる。2. Description of the Related Art A method of laser engraving the surface shape of a three-dimensional model in a glass body is known. This method focuses a laser beam into a glass body to form a spindle-shaped spot. Since the temperature of that portion becomes high, the glass melts. After cooling, the spots remain opaque or translucent and can engrave the three-dimensional model surface shape.
【0003】[0003]
【発明が解決しようとする課題】ところが、前述の方法
では、彫刻物表面は、まったく濃淡が表現されておら
ず、立体モデルの明度情報(例えばテクスチュア)を再
現できなかった。図7は、濃淡(明度差)のついた球状
の立体モデル21を、従来の方法でガラス体5の中にレ
ーザ彫刻した結果物を示す図である。ガラス体5の中に
彫刻されたものは、濃淡表現がなく、一様に白い物体と
して映る。However, in the above-mentioned method, the surface of the sculpture does not express any shade, and the lightness information (for example, texture) of the three-dimensional model cannot be reproduced. FIG. 7 is a view showing a result of laser engraving a spherical three-dimensional model 21 with light and shade (difference in lightness) in a glass body 5 by a conventional method. The object carved in the glass body 5 has no grayscale expression and appears as a uniformly white object.
【0004】これは、彫刻物表面に一様な密度でレーザ
光線を集束させていたからである。そこで、本発明は、
彫刻物表面に濃淡を表現することのできる透明体内部へ
の立体モデルの表現方法、立体モデルが表現された透明
体、及びその受注システムを提供することを目的とす
る。This is because the laser beam was focused on the surface of the engraved object at a uniform density. Therefore, the present invention is
An object of the present invention is to provide a method of expressing a three-dimensional model inside a transparent body capable of expressing light and shade on the surface of a sculpture, a transparent body in which the three-dimensional model is expressed, and an ordering system therefor.
【0005】[0005]
【課題を解決するための手段及び発明の効果】(1)本
発明の透明体内部への立体モデルの表現方法は、透明体
内部に、レーザ光線が回転ミラーにより単位角度ずつ振
られて照射される光のスポット照射により、立体モデル
の形状を表現する方法であって、立体モデルの濃淡情報
を抽出し、この抽出された濃淡情報に基づいて、前記単
位角度ごとの1画素あたりに照射される光のスポットの
数により、透明体内部の立体モデルの形状表面に濃淡を
表現する方法である。前記の方法によれば、透明体内部
の立体モデルの形状表面に濃淡が表現される。したがっ
て、実際の立体モデルに、より近づいたリアルな表現が
できる。[Means for Solving the Problems and Effects of the Invention] (1) In the method for expressing a three-dimensional model inside a transparent body of the present invention, a laser beam is oscillated by a rotating mirror inside the transparent body by a unit angle.
By spot irradiation of light beams are directed to a method of representing the shape of the three-dimensional model, to extract the gray-scale information of the three-dimensional model, based on the the extracted gray-scale information, the single
This is a method of expressing light and shade on the shape surface of the three-dimensional model inside the transparent body by the number of light spots irradiated per pixel for each position angle . According to the above-mentioned method, the shading is expressed on the shape surface of the three-dimensional model inside the transparent body. Therefore, it is possible to make a realistic expression closer to the actual three-dimensional model.
【0006】前記濃淡表現は、透明体内部の立体モデル
の形状表面において、レーザ照射間隔ごとにスポットを
照射するか否かに基づいて、決定することができる。よ
り具体的には、立体モデル形状表面の点群の座標値及び
輝度値をレーザ照射間隔に応じて抽出し、方向別の2次
元投影画像を生成し、その2次元投影画像に対して、濃
淡表現可能な2値化処理を行い、各点の2値レベルに応
じて各点にスポットを照射するか否かを決定する。The grayscale expression can be determined on the basis of whether or not a spot is irradiated at each laser irradiation interval on the shape surface of the three-dimensional model inside the transparent body. More specifically, the coordinate value and the brightness value of the point group on the surface of the three-dimensional model shape are extracted according to the laser irradiation interval, a two-dimensional projected image for each direction is generated, and the two-dimensional projected image is shaded. Representable binarization processing is performed, and it is determined whether to irradiate a spot on each point according to the binary level of each point.
【0007】この方法によれば、立体モデルの淡い部分
(明るい部分)については、透明体内部の立体モデルの
形状表面に不透明ないし半透明のスポットが残るので、
明るく見える。濃い部分は、スポットが照射されないの
で、透明なままとなり、相対的に暗く見える。したがっ
て、立体モデルの濃淡を再現することができる。
(2) 本発明の透明体は、レーザ光線が回転ミラーにより
単位角度ずつ振られて照射される光のスポット照射によ
り、立体モデルの形状が内部に表現されたものであっ
て、立体モデルの濃淡情報を抽出し、この抽出された濃
淡情報に基づいて、前記単位角度ごとの1画素あたりに
照射される光のスポットの数により、立体モデルの表面
形状に濃淡が表現されていることを特徴とする。これに
よれば、内部の立体モデルの形状表面に濃淡が表現され
た透明体を得ることができる。したがって、実際の立体
モデルにより近づいたリアルな表現のモデルの彫刻がな
された透明体を提供することができる。したがって、透
明体の価値を高めることができる。According to this method, with respect to the light portion (bright portion) of the three-dimensional model, an opaque or semi-transparent spot remains on the shape surface of the three-dimensional model inside the transparent body.
Looks bright. The dark portion remains transparent because the spot is not illuminated, and appears relatively dark. Therefore, it is possible to reproduce the shade of the stereo model. (2) In the transparent body of the present invention, the laser beam is rotated by the rotating mirror.
By spot irradiation of the light irradiated swung by a unit angle, and be one shape of three-dimensional model is represented internally, extracts grayscale information of the three-dimensional model, based on the the extracted gray-scale information, It is characterized in that the surface shape of the three-dimensional model expresses shading depending on the number of light spots irradiated per pixel for each unit angle . According to this, it is possible to obtain a transparent body in which shading is expressed on the surface of the shape of the internal three-dimensional model. Therefore, it is possible to provide a transparent body on which a model of a realistic expression closer to that of an actual three-dimensional model is engraved. Therefore, the value of the transparent body can be increased.
【0008】(3)本発明の受注システムは、店頭に配備
された受注コンピュータと、事業者の管理部門に配備さ
れる受付処理コンピュータと、事業者の製造部門に配備
される製造管理コンピュータとを通信回線でつないだ、
請求項3記載の立体モデルが表現された透明体、の受注
システムであって、店頭には立体物の情報入力装置が備
えられ、請求項5記載の(a)〜(d)の処理が可能である。
この受注システムによれば、顧客、管理部門及び製造部
門間で、迅速かつ正確な情報の提供が可能となり、業務
の効率化を図ることができる。(3) The order receiving system of the present invention comprises an order receiving computer installed in a store, a reception processing computer installed in the management department of the business operator, and a manufacturing management computer installed in the manufacturing department of the business operator. Connected by communication line,
It is an ordering system for a transparent body in which a three-dimensional model according to claim 3 is expressed, and an information input device for a three-dimensional object is provided at a store, and the processing of (a) to (d) according to claim 5 is possible. Is.
According to this order receiving system, it is possible to provide quick and accurate information between the customer, the management department, and the manufacturing department, so that the efficiency of the work can be improved.
【0009】特に、店頭の受注コンピュータ又は他の任
意のコンピュータにより、発注した情報の確認、進捗状
況の確認ができることとすれば、顧客にとって、簡便
に、かつ即座に必要な情報の提示を受けることができ
る。また、店頭の受注コンピュータ又は他の任意のコン
ピュータにより、発注した情報の修正、追加ができれ
ば、顧客は、画面を見ながら、的確に修正、変更の指示
を出すことができる。[0009] In particular, if the ordered information can be confirmed and the progress can be confirmed by the order-accepting computer at the store or any other computer, the customer can easily and immediately receive the necessary information. You can Further, if the ordered information can be corrected or added by the order-accepting computer at the store or any other computer, the customer can accurately give an instruction for correction or change while looking at the screen.
【0010】[0010]
【発明の実施の形態】以下、本発明の実施の形態を、添
付図面を参照しながら詳細に説明する。本実施の形態で
は、ガラス体の中に、近赤外YAGレーザを照射して立
体モデル(例えば人の顔)を彫刻する方法を説明する。
図1は、立体モデルの平面図である。立体モデル1を正
面、背面、右面、左面からカメラ2で撮像し、それぞれ
の投影画像3a〜3d(以下総称するときは「投影画像
3」という)を作成する。これにより立体モデル1の形
状情報及び濃淡情報を得る。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the accompanying drawings. In the present embodiment, a method for irradiating a glass body with a near-infrared YAG laser to engrave a three-dimensional model (for example, a human face) will be described.
FIG. 1 is a plan view of a stereo model. The three-dimensional model 1 is imaged from the front, the back, the right surface, and the left surface by the camera 2, and the respective projected images 3a to 3d (hereinafter collectively referred to as "projected image 3") are created. Thereby, the shape information and the grayscale information of the stereo model 1 are obtained.
【0011】詳しくいえば、立体モデルを円筒体の中に
入れ、円筒体を、円柱座標で表した場合の単位領域(ボ
クセル)に分割する。カメラの投影中心を頂点とし、投
影画像中の物体像を断面形状とする錐状の領域(仮定存
在領域)を決定する。円筒体の仮定存在領域に「1」を
投票する(ボーティング処理)。このようなボーティン
グ処理をすべて方向からの投影画像に対して行う。そし
て、閾値を設けて、この閾値以上の投票数を持つ部分
を、立体モデルの立体形状とする(特開平10-124704
号公報参照)。More specifically, the three-dimensional model is put in a cylindrical body, and the cylindrical body is divided into unit areas (voxels) represented by cylindrical coordinates. A pyramidal region (hypothetical existing region) having a cross-sectional shape of the object image in the projected image with the projection center of the camera as the vertex is determined. Vote “1” for the assumed existence area of the cylinder (voting process). Such voting processing is performed on projection images from all directions. Then, a threshold value is set, and a portion having the number of votes greater than or equal to this threshold value is set as the stereoscopic shape of the stereo model (Japanese Patent Laid-Open No. 10-124704).
(See Japanese Patent Publication).
【0012】さらに、前記投影画像3に表れる輝度値に
基づき、立体モデル1のテクスチュア(濃淡情報)を取
得する。これらのカメラ2、及び立体モデル1の形状情
報及び濃淡情報を得るコンピュータ(図示せず)を含め
て、映像入力装置30ということにする。次に、直方体
であるガラス体5の所定方向(例えば、正面、背面、右
面、左面の4方向)から、集光手段(レンズ、凹面鏡な
ど)で絞ったレーザ光線を照射する。Further, the texture (grayscale information) of the stereo model 1 is acquired based on the brightness value appearing in the projection image 3. The camera 2 and a computer (not shown) that obtains the shape information and the grayscale information of the stereo model 1 will be referred to as a video input device 30. Next, a laser beam focused by a condensing means (lens, concave mirror, etc.) is irradiated from a predetermined direction (for example, four directions of front surface, back surface, right surface, left surface) of the glass body 5 which is a rectangular parallelepiped.
【0013】図2は、レーザ装置7からガラス体5にレ
ーザ光線を照射する様子を示す図である。レーザ光線
は、回転ミラー6により、単位角度ずつ振られて照射さ
れる。この単位角度を「レーザ照射間隔」という。レー
ザ光線は、前記濃淡情報により、強度変調されている。
図3は、「レーザ照射間隔」ごとの各点(以下「画素」
ということがある)における濃淡の表現方法の一例を示
す図である。1つの画素は、ここでは4つのサブ画素に
区画している。白丸はレーザスポットを示す。1画素あ
たり、暗い階調ほどレーザスポットの数を減らし、明る
い階調ほどレーザスポットの数を増やしていく。これに
より、0から4まで5段階の諧調が表現できる。FIG. 2 is a diagram showing how the laser device 7 irradiates the glass body 5 with a laser beam. The laser beam is radiated by being rotated by the rotating mirror 6 by a unit angle. This unit angle is called "laser irradiation interval". The intensity of the laser beam is modulated by the density information.
Figure 3 shows each point (hereinafter "pixel") for each "laser irradiation interval".
FIG. 6 is a diagram showing an example of a grayscale expression method in (in some cases). Here, one pixel is divided into four sub-pixels. White circles indicate laser spots. The darker gradation reduces the number of laser spots per pixel, and the brighter gradation increases the number of laser spots. As a result, a gradation of 5 levels from 0 to 4 can be expressed.
【0014】なお、階調数は、前記例に限られない。例
えば、1画素=1サブ画素という設定をして、レーザス
ポットの有無で、0か1かの2段階の階調を表現しても
よい。また、濃淡の表現として、前記の他にディザ処
理、誤差拡散法を施すことも可能である。図4は、濃淡
表現の具体例を描いた図である。上の段は、正面、右
面、背面、左面の投影画像3a〜3dを示し、下の段
は、レーザ光線の照射により再現された濃淡を示してい
る。明るい部分ほど、レーザスポット密度が高く、白ベ
タに映っている。The number of gradations is not limited to the above example. For example, one pixel = 1 sub-pixel may be set, and two levels of gradation, 0 or 1, may be expressed depending on the presence or absence of a laser spot. In addition to the above, dither processing and error diffusion method may be applied as the gradation expression. FIG. 4 is a diagram depicting a specific example of grayscale expression. The upper row shows the front, right, back, and left projection images 3a to 3d, and the lower row shows the light and shade reproduced by the irradiation of the laser beam. The brighter the area, the higher the laser spot density and the more solid the image appears.
【0015】図5は、以上に述べた濃淡表現方法を実施
する手順を説明するためのフローチャートである。ま
ず、各方向からカメラで撮像し、レーザ照射間隔ごとの
点群データを抽出して形状を決定する(ステップS
1)。そして、各点の輝度情報を得(ステップS2)、
この輝度値情報に基づいて投影画像を作成する(ステッ
プS3)。次に濃淡表現用の2値化処理を行う(ステッ
プS4)。具体的には、図3を用いて説明した処理であ
る。この2値化処理に基づいて各画像の重複個所をなく
した上でレーザ照射点群を抽出し(ステップS5)、レ
ーザ加工を行う(ステップS6)。FIG. 5 is a flow chart for explaining the procedure for carrying out the above-described grayscale expression method. First, an image is taken with a camera from each direction, point cloud data for each laser irradiation interval is extracted, and a shape is determined (step S
1). Then, the brightness information of each point is obtained (step S2),
A projection image is created based on this brightness value information (step S3). Next, binarization processing for gradation expression is performed (step S4). Specifically, it is the process described with reference to FIG. Based on this binarization processing, the overlapping points of the respective images are eliminated, the laser irradiation point cloud is extracted (step S5), and laser processing is performed (step S6).
【0016】レーザスポットは、不透明になって残る。
明るい部分は、レーザスポット密度が増えて、白く見え
るようになる。暗い部分は、レーザスポット密度が減
り、白い部分に比べて黒っぽく見える。したがって、も
との立体モデルの濃淡情報を忠実に再現できる。以上
で、本発明の実施の形態を説明したが、本発明の実施
は、前記の形態に限定されるものではない。例えば、濃
淡の表現方法として、図3に示した方法以外に、図6に
示すように、レーザ出力を複数段階に変えていく方法も
採用できる。レーザ出力が高ければ温度が高く、スポッ
トは大きくなり、白っぽく見える。レーザ出力が低いほ
ど温度は低く、スポットは小さく、全体として暗く見え
る。図6では、レーザ出力を段階的に変えているが、連
続的に変化させることもできる。また、レーザの照射時
間を変える方法も可能である。The laser spot remains opaque.
The bright spot becomes white due to the increased laser spot density. The dark spot has a reduced laser spot density and appears darker than the white spot. Therefore, the grayscale information of the original stereo model can be faithfully reproduced. Although the embodiment of the invention has been described above, the embodiment of the invention is not limited to the above embodiment. For example, as a grayscale expression method, in addition to the method shown in FIG. 3, a method of changing the laser output in a plurality of steps as shown in FIG. 6 can be adopted. If the laser output is high, the temperature is high and the spot becomes large, and it looks whitish. The lower the laser power, the lower the temperature, the smaller the spot, and the darker it looks. Although the laser output is changed stepwise in FIG. 6, it can be changed continuously. A method of changing the laser irradiation time is also possible.
【0017】また、前記の形態では、実物の立体モデル
の投影画像を撮影して、その画像に基づいて濃淡表現を
行った。しかしこれ以外に、立体モデルのCG(コンピ
ュータグラフィックス)データ(その立体モデルは想像
上作成したものでもよい)や、CADデータ、2次元デ
ータに基づいて、濃淡画像を作成してもよい。前記の形
態では、近赤外YAGレーザを使用していたが、これ以
外の種類のレーザ光源を用いてもよく、発光ダイオード
などのノンコヒーレントな光源を用いてもよい。Further, in the above-described embodiment, a projection image of a real three-dimensional model is photographed, and grayscale expression is performed based on the image. However, in addition to this, a grayscale image may be created based on CG (computer graphics) data of the stereo model (the stereo model may be created imaginarily), CAD data, or two-dimensional data. Although the near-infrared YAG laser is used in the above-described embodiment, other types of laser light sources may be used, and non-coherent light sources such as light emitting diodes may be used.
【0018】また、ガラス体の中に、立体モデルを彫刻
していたが、ガラスに代えてアクリル樹脂、メタクリル
樹脂、ポリカーボネート樹脂等、を採用してもよい。こ
の場合、最適なレーザ光線の波長、出力等は、樹脂に応
じて決定されるものとなる。図8は、立体モデルの彫刻
受注システムの概念図である。図8では、矢印付きの細
線は、データ通信回線を表し、太線は、配送経路を表し
ている。事業者は複数の店頭、管理部門(営業所)、製
造部門(工場)を有している。店頭には、立体モデルの
映像入力装置(図1参照)30を含む受注コンピュータ
31が備えられている。管理部門には、受付処理をする
コンピュータ32が備えられているとともに、各種デー
タを保存するサーバ33が備えられている。製造部門
は、立体モデルを製造する製造プロセス及び製造管理コ
ンピュータ34が配置され、製品を検査する検査装置3
5、検査合格後製品を出荷する出荷部36を有してい
る。Although the three-dimensional model is engraved in the glass body, acrylic resin, methacrylic resin, polycarbonate resin or the like may be adopted instead of glass. In this case, the optimum laser beam wavelength, output, etc. are determined according to the resin. FIG. 8 is a conceptual diagram of a three-dimensional model engraving order receiving system. In FIG. 8, thin lines with arrows represent data communication lines, and thick lines represent delivery routes. The business operator has a plurality of stores, a management department (sales office), and a manufacturing department (factory). At the store, an order-accepting computer 31 including a three-dimensional model video input device (see FIG. 1) 30 is provided. The management department is provided with a computer 32 that performs a reception process and a server 33 that stores various data. In the manufacturing department, a manufacturing process for manufacturing a three-dimensional model and a manufacturing management computer 34 are arranged, and an inspection device 3 for inspecting a product.
5. It has a shipping section 36 for shipping products after passing the inspection.
【0019】受注コンピュータ31と、管理部門の受付
処理コンピュータ32及びサーバ33とは、データ通信
回線41で結ばれている。また、受付処理コンピュータ
32及びサーバ33と、製造部門の製造管理コンピュー
タ34、検査装置35のコンピュータとは、データ通信
回線42で結ばれている。出荷部36から出荷された製
品は、配送業者により、店頭又は依頼者に直接配送され
る。The order receiving computer 31, the acceptance processing computer 32 of the management department and the server 33 are connected by a data communication line 41. Further, the acceptance processing computer 32 and the server 33 are connected to the manufacturing management computer 34 of the manufacturing department and the computer of the inspection device 35 by a data communication line 42. The product shipped from the shipping unit 36 is directly delivered to the store or the client by the delivery company.
【0020】以上のシステムにおいて、顧客は、サーバ
33のウェブ画面を開いて、受注コンピュータ31の操
作により、立体画像を、映像入力装置30を通して入力
するとともに、依頼する立体モデルの種類の指定を行う
ことができる。受付処理コンピュータ32は、入力され
た受注内容をサーバ33に登録し、その受注内容を製造
管理コンピュータ34に送信する。製造管理コンピュー
タ34は、受注内容に基づき製造の指示をし、製造プロ
セスを管理する。また、出来上がり予想画面を作成す
る。In the above system, the customer opens the web screen of the server 33, operates the order-accepting computer 31, inputs a stereoscopic image through the video input device 30, and specifies the type of stereoscopic model to be requested. be able to. The acceptance processing computer 32 registers the input order contents in the server 33 and sends the order contents to the manufacturing management computer 34. The manufacturing management computer 34 gives an instruction for manufacturing based on the contents of the order and manages the manufacturing process. Also, create a forecast screen.
【0021】受付処理コンピュータ32は、製造管理コ
ンピュータ34から製造状況の報告を受け、製造進捗状
況を管理する。また必要な時に、製造管理コンピュータ
34から出来上がり予想画面を取得する。顧客は、店頭
の受注コンピュータ31により、発注した情報の確認、
進捗状況の確認ができる。また、顧客は、店頭の受注コ
ンピュータ31又は家庭等に設置したコンピュータ37
により、発注した内容の修正、追加ができる。The acceptance processing computer 32 receives a report on the manufacturing status from the manufacturing management computer 34 and manages the manufacturing progress status. Also, when it is necessary, the completion forecast screen is acquired from the manufacturing control computer 34. The customer confirms the ordered information using the order reception computer 31 at the store,
You can check the progress. In addition, the customer uses the order-accepting computer 31 at the store or the computer 37 installed at home or the like.
Allows you to modify or add the ordered contents.
【0022】図9は、家庭に設置したコンピュータ37
により、発注した内容の修正、追加をする様子を示す図
である。コンピュータ37の画面には、出来上がり予想
画面が映し出されてあり、顧客は、この画面の上で、修
正、背景の追加等をしている。この修正、追加内容は、
製造管理コンピュータ34に送られ、ここにおいて、受
注内容の修正、追加がなされて、サーバ33に変更登録
される。そして、その変更内容が製造管理コンピュータ
34に送信され、製造プロセスの変更が行われる。FIG. 9 shows a computer 37 installed at home.
It is a figure which shows a mode that the contents of ordering are corrected and added by. A predicted completion screen is displayed on the screen of the computer 37, and the customer is making corrections, adding backgrounds, etc. on this screen. This correction and addition contents are
The information is sent to the manufacturing control computer 34, where the order details are corrected and added, and the change is registered in the server 33. Then, the changed contents are transmitted to the manufacturing control computer 34, and the manufacturing process is changed.
【図1】立体モデルの平面図である。FIG. 1 is a plan view of a stereo model.
【図2】レーザ装置7からガラス体5にレーザ光線を照
射する様子を示す図である。FIG. 2 is a diagram showing how a laser device 7 irradiates a glass body 5 with a laser beam.
【図3】濃淡の表現方法の一例を示す図である。FIG. 3 is a diagram showing an example of a grayscale expression method.
【図4】濃淡表現の具体例を示す図である。FIG. 4 is a diagram showing a specific example of grayscale expression.
【図5】濃淡表現方法を実施する手順を説明するための
フローチャートである。FIG. 5 is a flowchart for explaining a procedure for implementing a grayscale expression method.
【図6】濃淡の表現方法の他の具体例を示す図である。FIG. 6 is a diagram showing another specific example of the grayscale expression method.
【図7】濃淡(明度差)のついた球状の立体モデル21
を、従来の方法でガラス体5の中にレーザ彫刻した結果
物を示す図である。FIG. 7: Spherical three-dimensional model 21 with shading (brightness difference)
It is a figure which shows the result of laser engraving in the glass body 5 by the conventional method.
【図8】立体モデルの彫刻受注システムの概念図であ
る。FIG. 8 is a conceptual diagram of a three-dimensional model engraving order receiving system.
【図9】家庭に設置したコンピュータ37により、発注
した内容の修正、追加をする様子を示す図である。FIG. 9 is a diagram showing how a computer 37 installed at home corrects or adds the contents of an order.
1 立体モデル 2 カメラ 3、3a〜3d 投影画像 5 ガラス体 6 回転ミラー 7 レーザ装置 31 受注コンピュータ 32 受付処理コンピュータ 33 サーバ 34 製造管理コンピュータ 1 three-dimensional model 2 camera 3, 3a-3d projection image 5 glass bodies 6 rotating mirror 7 Laser device 31 Ordering computer 32 Reception processing computer 33 servers 34 Manufacturing control computer
フロントページの続き (51)Int.Cl.7 識別記号 FI G06F 17/60 318 G06F 17/60 318E (72)発明者 中川 龍幸 大阪府守口市京阪本通2丁目5番5号 三洋電機株式会社内 (72)発明者 中山 隆文 大阪府守口市京阪本通2丁目5番5号 三洋電機株式会社内 (72)発明者 野口 孔明 大阪府守口市京阪本通2丁目5番5号 三洋電機株式会社内 (56)参考文献 特開 平7−136782(JP,A) 特開 平10−124704(JP,A) 特開 平1−307803(JP,A) 特開 昭63−178098(JP,A) 特開 平1−233082(JP,A) (58)調査した分野(Int.Cl.7,DB名) B44F 7/00 B44C 1/22 C03B 23/00 C03C 23/00 G06F 17/60 302 G06F 17/60 318 Front page continuation (51) Int.Cl. 7 Identification code FI G06F 17/60 318 G06F 17/60 318E (72) Inventor Tatsuyuki Nakagawa 2-5-5 Keihan Hon-dori, Moriguchi City, Osaka Sanyo Electric Co., Ltd. (72) Inventor Takafumi Nakayama 2-5-5 Keihan Hon-dori, Moriguchi-shi, Osaka Sanyo Electric Co., Ltd. (72) Inoue Komei 2-5-5 Keihan-hondori, Moriguchi-shi, Osaka Sanyo Electric Co., Ltd. (56) References JP-A-7-136782 (JP, A) JP-A-10-124704 (JP, A) JP-A-1-307803 (JP, A) JP-A-63-178098 (JP, A) Kaihei 1-233082 (JP, A) (58) Fields surveyed (Int.Cl. 7 , DB name) B44F 7/00 B44C 1/22 C03B 23/00 C03C 23/00 G06F 17/60 302 G06F 17 / 60 318
Claims (6)
より単位角度ずつ振られて照射される光のスポット照射
により、立体モデルの形状を表現する方法であって、 立体モデルの濃淡情報を抽出し、この抽出された濃淡情
報に基づいて、前記単位角度ごとの1画素あたりに照射
される光のスポットの数により、透明体内部の立体モデ
ルの形状表面に濃淡を表現することを特徴とする透明体
内部への立体モデルの表現方法。1. A laser beam is applied to a rotating mirror inside a transparent body.
By spot irradiation of the light irradiated swung by more unit angle, a method for expressing the shape of the three-dimensional model, to extract the gray-scale information of the three-dimensional model, based on the the extracted gray-scale information, the unit A method for expressing a three-dimensional model inside a transparent body, characterized by expressing shading on the surface of the shape of the three-dimensional model inside the transparent body by the number of light spots irradiated per pixel at each angle .
度値をレーザ照射間隔に応じて抽出し、方向別の2次元
投影画像を生成し、その2次元投影画像に対して、濃淡
表現可能な2値化処理を行い、各点の2値レベルに応じ
て各点にスポットを照射するか否かを決定することを特
徴とする請求項1記載の透明体内部への立体モデルの表
現方法。2. A coordinate value and a brightness value of a point group on the surface of a three-dimensional model shape are extracted according to a laser irradiation interval, a two-dimensional projected image for each direction is generated, and a gray scale is expressed for the two-dimensional projected image. The representation of the three-dimensional model inside the transparent body according to claim 1, characterized in that possible binarization processing is performed and whether or not to irradiate a spot with a spot is determined according to a binary level of each point. Method.
つ振られて照射される光のスポット照射により、立体モ
デルの形状が内部に表現された透明体であって、 立体モデルの濃淡情報を抽出し、この抽出された濃淡情
報に基づいて、前記単位角度ごとの1画素あたりに照射
される光のスポットの数により、透明体内部の立体モデ
ルの形状表面に濃淡が表現されていることを特徴とす
る、立体モデルが表現された透明体。3. A laser beam is rotated by a rotating mirror without a unit angle.
One swung by spot irradiation of light irradiated, a transparent body shape is expressed in the interior of the three-dimensional model, to extract the gray-scale information of the three-dimensional model, based on the the extracted gray-scale information, wherein A transparent body in which a three-dimensional model is represented, in which light and shade are represented on the shape surface of the three-dimensional model inside the transparent body by the number of light spots irradiated per pixel at each unit angle .
業者の管理部門に配備される受付処理コンピュータと、
事業者の製造部門に配備される製造管理コンピュータと
を通信回線でつないだ、請求項3記載の立体モデルが表
現された透明体、の受注システムであって、 店頭には立体物の情報入力装置が備えられ、次の(a)〜
(d)の処理が可能であることを特徴とする受注システ
ム。 (a)顧客は、受注コンピュータの操作により、立体モデ
ルの画像を、情報入力装置を通して入力する。 (b)受付処理コンピュータは、入力された受注内容を登
録し、その受注内容を製造管理コンピュータに送信す
る。 (c)製造管理コンピュータは、受注内容に基づき製造の
指示をし、製造プロセスを管理する。 (d)受付処理コンピュータは、製造管理コンピュータか
ら製造プロセスの報告を受け、製造進捗状況を管理す
る。4. An order receiving computer installed in a store, a reception processing computer installed in a management department of a business operator,
A transparent object ordering system in which a three-dimensional model according to claim 3 is connected to a manufacturing control computer installed in a manufacturing department of a business operator through a communication line, and a three-dimensional object information input device is provided at a store. The following (a) ~
An ordering system characterized by being capable of processing (d). (a) The customer inputs the image of the three-dimensional model through the information input device by operating the order receiving computer. (b) The acceptance processing computer registers the input order contents and sends the order contents to the manufacturing management computer. (c) The manufacturing control computer gives instructions for manufacturing based on the contents of the order, and controls the manufacturing process. (d) The reception processing computer receives a report of the manufacturing process from the manufacturing management computer and manages the manufacturing progress status.
任意のコンピュータにより、発注した情報の確認、進捗
状況の確認ができることを特徴とする請求項4記載の受
注システム。5. The order-accepting system according to claim 4, wherein the customer can confirm the ordered information and the progress status by using the order-accepting computer at the store or any other computer.
任意のコンピュータにより、発注した情報の修正、追加
ができることを特徴とする請求項5記載の受注システ
ム。6. The order receiving system according to claim 5, wherein the customer can correct or add the ordered information by using the order receiving computer at the store or any other computer.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001076381A JP3495717B2 (en) | 2001-03-16 | 2001-03-16 | Method of expressing solid model inside transparent object, transparent object in which solid model is expressed, and order receiving system |
KR10-2003-7012078A KR20030085001A (en) | 2001-03-16 | 2002-03-12 | Method for expressing three-dimensional model in transparent body, transparent body in which three-dimensional model is expressed, and system for accepting order of the same |
PCT/JP2002/002288 WO2002074554A1 (en) | 2001-03-16 | 2002-03-12 | Method for expressing three-dimensional model in transparent body, transparent body in which three-dimensional model is expressed, and system for accepting order of the same |
TW091104830A TW556119B (en) | 2001-03-16 | 2002-03-14 | Exhibiting method for 3D model in transparent object, transparent object exhibiting 3D model, and the ordering system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001076381A JP3495717B2 (en) | 2001-03-16 | 2001-03-16 | Method of expressing solid model inside transparent object, transparent object in which solid model is expressed, and order receiving system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002274100A JP2002274100A (en) | 2002-09-25 |
JP3495717B2 true JP3495717B2 (en) | 2004-02-09 |
Family
ID=18933326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001076381A Expired - Fee Related JP3495717B2 (en) | 2001-03-16 | 2001-03-16 | Method of expressing solid model inside transparent object, transparent object in which solid model is expressed, and order receiving system |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP3495717B2 (en) |
KR (1) | KR20030085001A (en) |
TW (1) | TW556119B (en) |
WO (1) | WO2002074554A1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005026968B4 (en) * | 2005-06-10 | 2007-06-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for permanently applying a grayscale image to a matte surface |
KR100753213B1 (en) * | 2006-04-05 | 2007-08-30 | 강남대학교 산학협력단 | Interior processed system of clear material using laser and method thereof |
JP2008292618A (en) * | 2007-05-23 | 2008-12-04 | Isao Nakano | Color image display device |
JP5645010B2 (en) * | 2010-10-14 | 2014-12-24 | 国立大学法人 千葉大学 | How to create a stereoscopic image |
JP6133203B2 (en) | 2013-04-08 | 2017-05-24 | トリニティ工業株式会社 | Decorative device and decoration method for vehicle interior parts, vehicle interior parts |
CN109420852A (en) * | 2017-09-04 | 2019-03-05 | 福鼎市久盛标牌有限公司 | The method and apparatus of naked eye solid picture and text is processed on reflecting film material |
CN109108478B (en) * | 2018-09-21 | 2021-04-27 | 大族激光科技产业集团股份有限公司 | Laser engraving method and application of 3D (three-dimensional) graph |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63178098A (en) * | 1987-01-19 | 1988-07-22 | 日本マイクロエンジニアリング株式会社 | Seal carving system |
JPH01307803A (en) * | 1988-06-06 | 1989-12-12 | Nec Corp | Inter-subsystem control system of production order progress management file |
US5637244A (en) * | 1993-05-13 | 1997-06-10 | Podarok International, Inc. | Method and apparatus for creating an image by a pulsed laser beam inside a transparent material |
CN1480903A (en) * | 1996-08-29 | 2004-03-10 | ������������ʽ���� | Specificity information assignment, object extraction and 3-D model generation method and appts thereof |
-
2001
- 2001-03-16 JP JP2001076381A patent/JP3495717B2/en not_active Expired - Fee Related
-
2002
- 2002-03-12 KR KR10-2003-7012078A patent/KR20030085001A/en active IP Right Grant
- 2002-03-12 WO PCT/JP2002/002288 patent/WO2002074554A1/en active Application Filing
- 2002-03-14 TW TW091104830A patent/TW556119B/en active
Also Published As
Publication number | Publication date |
---|---|
JP2002274100A (en) | 2002-09-25 |
TW556119B (en) | 2003-10-01 |
KR20030085001A (en) | 2003-11-01 |
WO2002074554A1 (en) | 2002-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200057831A1 (en) | Real-time generation of synthetic data from multi-shot structured light sensors for three-dimensional object pose estimation | |
JP3819662B2 (en) | Three-dimensional modeling apparatus, method and medium, and tertiary shape data recording apparatus, method and medium | |
JP2009080578A (en) | Multiview-data generating apparatus, method, and program | |
US20050051522A1 (en) | Laser-computer graphics system for generating portrait and 3-D sculpture reproductions inside optically transparent material | |
KR102291162B1 (en) | Apparatus and method for generating virtual data for artificial intelligence learning | |
JP3495717B2 (en) | Method of expressing solid model inside transparent object, transparent object in which solid model is expressed, and order receiving system | |
US6740846B1 (en) | Method for production of 3D laser-induced head image inside transparent material by using several 2D portraits | |
WO1998010379A2 (en) | Method for displaying an object design | |
CN115205492A (en) | Method and device for real-time mapping of laser beam on three-dimensional model | |
EP0831423B1 (en) | Image generation using a light space | |
KR20010074504A (en) | 3D image processing method and apparatus | |
JP4174133B2 (en) | Image generation method | |
US11562679B2 (en) | Systems and methods for mask-based temporal dithering | |
JP3061812B2 (en) | Pattern recognition method and apparatus | |
EP0753184B1 (en) | Bump mapping in 3-d computer graphics | |
JP2010066327A (en) | Software mask calculation program and projection system | |
CN117274428A (en) | Laser coloring method, device, terminal equipment and storage medium | |
CN116452459B (en) | Shadow mask generation method, shadow removal method and device | |
CN113012225B (en) | Quick positioning method for minimum circumscribed rectangular frame of material image of color sorter | |
JP7292542B1 (en) | LIGHT PRODUCTION SYSTEM, LIGHT PRODUCTION METHOD, PROGRAM, AND CONTROL DEVICE | |
JP5186849B2 (en) | Relief recording medium manufacturing method and concavo-convex structure data generation apparatus used therefor | |
JPH07152925A (en) | Image generating device | |
JPH06274648A (en) | Image generator | |
CN118014782A (en) | Digitalized text travel management system | |
CN118709535A (en) | Free-play museum scene simulation system based on simulation projection technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081121 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081121 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091121 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |