JPH10277878A - Three-dimensional duplicate forming device - Google Patents

Three-dimensional duplicate forming device

Info

Publication number
JPH10277878A
JPH10277878A JP9102800A JP10280097A JPH10277878A JP H10277878 A JPH10277878 A JP H10277878A JP 9102800 A JP9102800 A JP 9102800A JP 10280097 A JP10280097 A JP 10280097A JP H10277878 A JPH10277878 A JP H10277878A
Authority
JP
Japan
Prior art keywords
data
processing
dimensional
shape
shape data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9102800A
Other languages
Japanese (ja)
Other versions
JP3395569B2 (en
Inventor
Shingo Asai
真吾 浅井
Koji Sugie
幸治 杉江
Nobufumi Mishima
伸史 三島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP10280097A priority Critical patent/JP3395569B2/en
Priority to US09/054,499 priority patent/US6424877B1/en
Publication of JPH10277878A publication Critical patent/JPH10277878A/en
Application granted granted Critical
Publication of JP3395569B2 publication Critical patent/JP3395569B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P80/00Climate change mitigation technologies for sector-wide applications
    • Y02P80/40Minimising material used in manufacturing processes

Landscapes

  • Numerical Control (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional duplicate forming device which allows shortening of the time required to perform processing. SOLUTION: The features are extracted from the entered three-dimensional shape data, and the optimum material to suit the given features is selected automatically. A material supply part holds materials which have been previously processed coarsely in several sorts of patterns and feeds material according to the selected sort by a material selecting device. The material fed by the material supply part is processed on the basis of the three-dimensional shape data. This system permits determining automatically the optimum material free of necessity to execute coarse processing to lead to shortening of the time of processing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、3次元形状データ
に基づいて立体物を製造する装置に関する。
The present invention relates to an apparatus for producing a three-dimensional object based on three-dimensional shape data.

【0002】[0002]

【従来の技術】従来の立体複製物作成装置では、一般的
に、3次元形状データに基づいて、加工機が加工するた
めの加工データを作成する。そして、加工機がこの加工
データに基づいて素材を加工して立体複製物を作成す
る。
2. Description of the Related Art In a conventional three-dimensional reproduction device, generally, processing data for processing by a processing machine is generated based on three-dimensional shape data. Then, the processing machine processes the material based on the processing data to create a three-dimensional reproduction.

【0003】[0003]

【発明が解決しようとする課題】ところが、従来の立体
複製物作成装置では、一定の形状の素材から加工をす
る。このため、素材が形状データの大きさと大きく異な
る場合は、素材を形状データに近い大きさまで加工する
粗取り加工から始めねばならない。したがって、加工に
時間がかかってしまうという問題があった。
However, in a conventional three-dimensional reproduction device, a material having a predetermined shape is processed. Therefore, when the material is significantly different from the size of the shape data, it is necessary to start with a roughing process of processing the material to a size close to the shape data. Therefore, there is a problem that it takes time for processing.

【0004】本発明の目的は、加工に要する時間を短縮
した立体複製物作成装置を提供することである。
[0004] It is an object of the present invention to provide an apparatus for producing a three-dimensional reproduction, in which the time required for processing is reduced.

【0005】[0005]

【課題を解決するための手段】本発明に係る立体複製物
作成装置は、入力された3次元形状データより特徴を抽
出する特徴抽出装置と、特徴抽出装置により抽出された
特徴に最適な素材を自動的に選択する素材選択装置と、
あらかじめ複数のパターンに粗加工されている素材を保
有し、素材選択装置により選択された素材を供給する材
料供給部と、3次元形状データに基づいて、材料供給部
から供給された素材を加工する加工機とを備える。すな
わち、入力された3次元形状データより特徴を抽出し
て、粗加工が不要な最適な素材を自動的に決定でき、加
工時間が短縮される。
According to the present invention, there is provided a three-dimensional reproduction creating apparatus for extracting a feature from input three-dimensional shape data, and a material optimal for the feature extracted by the feature extracting apparatus. A material selection device that selects automatically,
A material supply unit that holds a material that has been roughly processed into a plurality of patterns in advance and supplies the material selected by the material selection device, and processes the material supplied from the material supply unit based on the three-dimensional shape data. And a processing machine. That is, features can be extracted from the input three-dimensional shape data, and an optimum material that does not require rough processing can be automatically determined, and the processing time is reduced.

【0006】[0006]

【発明の実施の形態】以下、添付の図面を参照して本発
明による実施形態について説明する。図1は、立体複製
物作成装置の斜視図である。この装置は、その前に立つ
人(ユーザー)の顔の立体複製物をその場で加工する。
立体複製物には種々のものが考えらえるが、たとえば四
角形の板からユーザーの顔の前半部の複製物が突き出て
いるような立体物である。3次元複製物に背景部分を合
成することもできる。この作成装置は、立体複製物をそ
の場で加工し提供する。立体複製物作成装置の箱10の
前面に、投光窓12と受光窓14が設けられる。ユーザ
ーが、箱10の前に立つと、投光窓12から投光された
光が、人の顔により反射され、受光窓14により受光さ
れる。これにより、顔の3次元形状データが測定され
る。ユーザーの姿勢すなわち構図が決まると、ユーザー
の顔が3次元で測定される。得られた3次元像は、表示
装置16に表示される。ユーザーがこの構図に不満であ
ると、新たに異なった構図をとり、再び顔の測定と表示
がなされる。操作パネル18により、ユーザーが表示装
置16に表示された3次元像でよいとの確認の指示をす
ると、箱10の内部に設けられた加工装置により立体複
製物が加工される。ユーザーは、作成された立体複製物
を取出口20から取り出す。3次元像の測定は、本実施
形態では光切断法を用いるが、パターン光投影法、ステ
レオ視方式、干渉縞方式などを用いてもよい。
Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a perspective view of a three-dimensional duplicate creation device. This device processes a three-dimensional reproduction of the face of a person standing in front of it (user) on the spot.
Although various types of three-dimensional reproductions can be considered, for example, a three-dimensional reproduction in which a reproduction in the first half of the user's face protrudes from a square plate. A background portion can be combined with a three-dimensional copy. This creation device processes and provides a three-dimensional copy on the spot. A light projecting window 12 and a light receiving window 14 are provided on the front surface of the box 10 of the three-dimensional copy creating apparatus. When the user stands in front of the box 10, light emitted from the light emitting window 12 is reflected by a human face and received by the light receiving window 14. Thereby, the three-dimensional shape data of the face is measured. Once the posture or composition of the user is determined, the user's face is measured in three dimensions. The obtained three-dimensional image is displayed on the display device 16. If the user is dissatisfied with this composition, a new composition is taken and the face is measured and displayed again. When the user gives an instruction to confirm that a three-dimensional image displayed on the display device 16 is sufficient by using the operation panel 18, a three-dimensional reproduction is processed by a processing device provided inside the box 10. The user takes out the created three-dimensional copy from the exit 20. In the present embodiment, a three-dimensional image is measured using a light section method, but a pattern light projection method, a stereoscopic method, an interference fringe method, or the like may be used.

【0007】図2は、立体複製物作成装置の機器構成を
示すブロック図である。立体複製物作成装置の全体の制
御をする制御部30に、表示装置(モニタを含む)1
6、操作部50、測定部60および加工部70が接続さ
れる。制御部30は、メインコントローラ32を備え、
特性データ記憶部34、データ変換部36、加工データ
作成部38を備える。また、立体複製物の取り出しを検
出する取出口センサ40が取出口20に設置され、メイ
ンコントローラ32に接続される。操作部50は、操作
パネル18を備える。測定部60は、3次元測定部64
(投光窓12と受光窓14を備える)と2次元画像撮像
部66(投光窓12と受光窓14を共用する)66とを
備え、これらは測定機コントローラ62により制御され
る。加工部70は、加工機コントローラ74により制御
される加工機72を備え、加工機72は、材料供給機7
6から供給される素材を加工する。なお、測定器コント
ローラ62と加工機コントローラ74の機能をメインコ
ントローラ32に持たせ、メインコントローラ32によ
りすべてを制御するようにしてもよい。
FIG. 2 is a block diagram showing a device configuration of the three-dimensional copy creation apparatus. A display unit (including a monitor) 1 is provided to a control unit 30 for controlling the entire three-dimensional copy creating apparatus.
6. The operation unit 50, the measurement unit 60, and the processing unit 70 are connected. The control unit 30 includes a main controller 32,
A characteristic data storage unit 34, a data conversion unit 36, and a processed data creation unit 38 are provided. Further, an outlet sensor 40 for detecting the removal of the three-dimensional copy is installed in the outlet 20 and connected to the main controller 32. The operation unit 50 includes an operation panel 18. The measuring unit 60 includes a three-dimensional measuring unit 64
(Including the light projecting window 12 and the light receiving window 14) and a two-dimensional image capturing unit 66 (commonly used for the light projecting window 12 and the light receiving window 14) 66, which are controlled by the measuring instrument controller 62. The processing unit 70 includes a processing machine 72 controlled by a processing machine controller 74.
The material supplied from 6 is processed. The functions of the measuring instrument controller 62 and the processing machine controller 74 may be provided in the main controller 32, and all of the functions may be controlled by the main controller 32.

【0008】図3は、操作パネル18を示す。操作パネ
ル18には、スタートボタン50、確認ボタン52、キ
ャンセルボタン54が備えられる。さらに、表示装置1
6にジョイスティック56(図式的に示す)が備えられ
る。スタートボタン50は、構図を決めたときに押さ
れ、確認ボタン52は、3次元表示を確認するときに押
され、キャンセルボタン54は、3次元表示がユーザー
が想像していたのと異なる場合に再度別の構図をとるた
めに押される。ジョイスティック56は、表示装置16
に3次元画像を3次元の様々な方向で回転して表示する
場合に、画像の回転を指示するために備えられる。
FIG. 3 shows the operation panel 18. The operation panel 18 includes a start button 50, a confirmation button 52, and a cancel button 54. Further, the display device 1
6 is provided with a joystick 56 (illustrated schematically). The start button 50 is pressed when deciding the composition, the confirmation button 52 is pressed when confirming the three-dimensional display, and the cancel button 54 is used when the three-dimensional display is different from what the user imagined. Pressed to take another composition again. The joystick 56 is connected to the display device 16.
In the case where a three-dimensional image is rotated in various three-dimensional directions and displayed, it is provided to instruct rotation of the image.

【0009】図4は、押出方式の加工部70の加工機7
2と材料供給機76の斜視図である。加工用の材料は、
加工テーブル200において、2個の位置決め治具20
2とクランプ治具204により固定される。加工用工具
206は、ドリル208で材料を切削する。8種の材料
が材料供給機76の2つの材料ストック部210に備え
られる。材料ストック部210において8種の加工用材
料は、それぞれエレベータ220の上に積み重ねられ、
最上層の材料が押し出し工具218により移送路212
へ押し出される(矢印参照)。押出し引抜き治具214
が、材料ストック部210の間に設けた移送路212の
端に備えられ、材料ストック部210から移送路212
に押し出された材料216を、加工テーブル200に押
し出す(矢印参照)。また、押出し引抜き治具214
は、加工テーブル200で加工された材料を引き抜き、
製品取出口222から送り出す。なお、押出し引抜き治
具214を備える代わりに、移送路212自体をすべり
台として材料を移動することができる。
FIG. 4 shows a processing machine 7 of a processing section 70 of the extrusion system.
FIG. 2 is a perspective view of a material supply device 2 and a material supply device 76. Materials for processing are
In the processing table 200, the two positioning jigs 20
2 and clamp jig 204. The processing tool 206 cuts a material with a drill 208. Eight materials are provided in the two material stock sections 210 of the material feeder 76. In the material stock section 210, eight kinds of processing materials are stacked on the elevator 220, respectively.
The material of the uppermost layer is moved by the extrusion tool 218 to the transfer path 212.
(See arrow). Extrusion drawing jig 214
Is provided at the end of the transfer path 212 provided between the material stock sections 210, and is transferred from the material stock section 210 to the transfer path 212.
The material 216 extruded into the processing table 200 is extruded (see the arrow). Also, the extrusion pulling jig 214
Pulls out the material processed on the processing table 200,
The product is sent out from the product outlet 222. It should be noted that the material can be moved using the transfer path 212 itself as a slide, instead of including the extrusion pulling jig 214.

【0010】図5は、エレベータ方式の加工部70の加
工機72と材料供給機76の変形例の斜視図である。材
料ストック部250に6種類の加工用材料が備えられ
る。これらの材料は、左右に3段づつ配置される。材料
ストック部250から選択された材料252が、材料ス
トック部250の間に位置されるエレベータ248の台
の上に押し出される。この台には、位置決め治具とクラ
ンプ治具が備えられ、材料252を固定する。エレベー
タ248が所定位置まで上昇すると、加工用工具240
はドリル242で材料252を切削する。
FIG. 5 is a perspective view of a modification of the processing machine 72 and the material feeder 76 of the processing section 70 of the elevator system. The material stock section 250 is provided with six types of processing materials. These materials are arranged on the left and right in three steps. Material 252 selected from the material stock section 250 is extruded onto a platform of an elevator 248 located between the material stock sections 250. The table is provided with a positioning jig and a clamp jig, and fixes the material 252. When the elevator 248 is raised to a predetermined position, the processing tool 240
Cuts the material 252 with the drill 242.

【0011】図6は、加工部70の加工機72と材料供
給機76の別の変形例の斜視図である。加工コントロー
ラ72は、ロボット260、素材ストッカー264およ
び加工具270を制御する。素材ストッカー264は、
複数種の材料266をストックする。ロボット260
は、材料ストッカー264から1個の材料266を加工
ステージ268上に運ぶ。材料266は、加工ステージ
268上で位置決め治具272により加工位置に固定さ
れ、加工具270により加工される。加工後は、複製品
は取り出し口274に送られる。なお、図4〜図6に示
した加工機は、切削により材料を加工するが、積層造形
法(光造形法を含む)、レーザー加工(熱加工)、成型
加工(加圧など)などを用いて加工してもよい。図4〜
図6に示したように、材料供給機76からは複数種の材
料のなかから選択された材料が供給される。材料が起伏
のある形状の場合は材料供給機76内において積み重ね
が難しいが、筒のようなガイドを設けることにより供給
が可能である。これらの材料として、標準的な顔の形状
の素材を複数種用意して、それから選択するようにして
もよい。
FIG. 6 is a perspective view of another modification of the processing machine 72 and the material feeder 76 of the processing section 70. The processing controller 72 controls the robot 260, the material stocker 264, and the processing tool 270. The material stocker 264,
A plurality of types of materials 266 are stocked. Robot 260
Transports one material 266 from a material stocker 264 onto a processing stage 268. The material 266 is fixed at a processing position on a processing stage 268 by a positioning jig 272, and is processed by the processing tool 270. After processing, the duplicate is sent to the take-out port 274. In addition, the processing machine shown in FIGS. 4 to 6 processes a material by cutting, but uses a lamination molding method (including an optical molding method), a laser processing (thermal processing), a molding processing (pressing and the like), and the like. May be processed. FIG. 4-
As shown in FIG. 6, a material selected from a plurality of types of materials is supplied from the material supply device 76. When the material has an undulating shape, it is difficult to stack the material in the material supply device 76, but the supply can be performed by providing a guide such as a cylinder. As these materials, a plurality of materials having a standard face shape may be prepared and selected from them.

【0012】図7は、制御部30のメインコントローラ
32のメインフローを示す。操作パネル18でスタート
ボタン50が押されるまで、2次元画像が動画として表
示装置16に表示される。これにより、ユーザーは所望
の構図を決めることができる。まず、2次元画像撮像部
66によりユーザーの顔の2次元画像が撮像され(ステ
ップS100)、得られた2次元画像が表示装置16に
表示される(ステップS102)。そして、ユーザーが
スタートボタン50を押すのを待つ(ステップS10
4)。ユーザーが構図に満足するまで、この2次元画像
の表示が繰り返される。ユーザーは、構図を決めると、
操作パネル18のスタートボタン50を押す。スタート
ボタン50の押下が検出されると(ステップS114で
YES)、2次元画像撮像部66によりユーザーの顔の
2次元画像が撮像され(ステップS106)、3次元測
定部64によりユーザーの顔の3次元画像が測定される
(ステップS108)。次に測定データについてデータ
処理がなされる(ステップS110)。ここで、後で説
明するように、奥行き補正により形状データが高さ方向
に圧縮されるので、素材の加工時間が短縮できる。ま
た、後で説明するように、出力したい生成物すなわち3
次元形状モデルについて形状や品質に応じたデータの変
換が行われる。これにより、出力すべき加工生成物(3
次元モデル)の形状(サイズなど)や品質(粗密さ、滑
らかさなど)に応じて形状測定データが自動的に変換さ
れ、形状データ入力から加工までの一連のプロセスが簡
単化される。次に、データ処理後の3次元形状が表示装
置16に表示され、ユーザーの指示を待つ。この表示に
よりユーザーは、実際に加工される結果を確認できる。
3次元表示としては、影を表示するなどの種々の公知の
手法を用いる。ユーザーが操作パネル18で確認ボタン
52を押すと、確認ボタン52の押下が検出され(ステ
ップS114でYES)、加工動作に移る。しかし、3
次元表示(ステップS112)の後でユーザーが操作パ
ネル18でキャンセルボタン54を押すと(ステップS
116でYES)、フローはステップS100に戻り、
ユーザーは別の構図をとることができる。このように、
データ処理後の画像についてユーザーの確認をまって加
工を始めるので、ユーザーの希望する立体複製物が作成
できるとともに、加工用材料がむだになることがない。
なお、メインコントローラ32に外部からデータを入力
する画像入力部を設けてもよい。これにより、外部から
対象物の画像データ(または対象物の画像データと色
彩)を入力する。加工は入力データに基づいて行われ
る。
FIG. 7 shows a main flow of the main controller 32 of the control unit 30. Until the start button 50 is pressed on the operation panel 18, a two-dimensional image is displayed on the display device 16 as a moving image. Thus, the user can determine a desired composition. First, a two-dimensional image of the user's face is captured by the two-dimensional image capturing unit 66 (step S100), and the obtained two-dimensional image is displayed on the display device 16 (step S102). Then, it waits for the user to press the start button 50 (step S10).
4). The display of the two-dimensional image is repeated until the user is satisfied with the composition. When the user decides on the composition,
The start button 50 on the operation panel 18 is pressed. When the press of the start button 50 is detected (YES in step S114), the two-dimensional image capturing unit 66 captures a two-dimensional image of the user's face (step S106), and the three-dimensional measuring unit 64 captures the three-dimensional image of the user's face. A two-dimensional image is measured (step S108). Next, data processing is performed on the measurement data (step S110). Here, as described later, since the shape data is compressed in the height direction by the depth correction, the processing time of the material can be reduced. Also, as described later, the product to be output, ie, 3
Data conversion is performed on the two-dimensional shape model according to the shape and quality. Thereby, the processing product (3
The shape measurement data is automatically converted according to the shape (size, etc.) and quality (roughness, smoothness, etc.) of the dimensional model, and a series of processes from shape data input to machining are simplified. Next, the three-dimensional shape after the data processing is displayed on the display device 16 and waits for a user's instruction. This display allows the user to confirm the result of the actual processing.
For the three-dimensional display, various known methods such as displaying a shadow are used. When the user presses the confirmation button 52 on the operation panel 18, the depression of the confirmation button 52 is detected (YES in step S114), and the process proceeds to a machining operation. But 3
When the user presses the cancel button 54 on the operation panel 18 after the dimension display (step S112) (step S112).
YES at 116), the flow returns to step S100,
The user can take another composition. in this way,
Since processing is started after the user confirms the image after data processing, a three-dimensional copy desired by the user can be created, and the processing material is not wasted.
The main controller 32 may be provided with an image input unit for inputting data from outside. Thereby, the image data of the target object (or the image data and color of the target object) is input from outside. Processing is performed based on input data.

【0013】図8は、ジョイスティック56を用いた変
形例のフローを示す。ユーザーは、ジョイスティック5
6により様々な方向からデータ処理後の画像を確認でき
る。図4のデータ処理(ステップS110)の後で、表
示装置16に正面(Z方向)からの3次元表示をする
(ステップS140)。次にユーザーがジョイスティッ
ク56を作動すると(ステップS142)、フローは、
ジョイスティック56からの回転指示信号により分岐す
る。X方向、Y方向、Z方向の回転指示に対応して、X
方向(ステップS144)、Y方向(ステップS14
6)、Z方向(ステップS148)の回転がなされ、そ
れに対応した3次元表示がなされる(ステップS15
0)。こうしてユーザーは様々な方向から立体複製物を
確認できる。ここで、ユーザーが操作パネル18で確認
ボタン52を押すと(ステップS152でYES)、図
6のステップS118に進み加工動作に移る。また、ユ
ーザーが操作パネル18でキャンセルボタン54を押す
と(ステップS154でYES)、フローはステップS
100に戻り、ユーザーは別の構図をとることができ
る。
FIG. 8 shows a flow of a modification using the joystick 56. The user has a joystick 5
6, images after data processing can be confirmed from various directions. After the data processing in FIG. 4 (step S110), three-dimensional display is performed on the display device 16 from the front (Z direction) (step S140). Next, when the user operates the joystick 56 (step S142), the flow is as follows.
Branching is performed according to a rotation instruction signal from the joystick 56. In response to rotation instructions in the X, Y, and Z directions, X
Direction (step S144), Y direction (step S14)
6), rotation in the Z direction (step S148) is performed, and a corresponding three-dimensional display is performed (step S15).
0). Thus, the user can confirm the three-dimensional reproduction from various directions. Here, if the user presses the confirmation button 52 on the operation panel 18 (YES in step S152), the process proceeds to step S118 in FIG. If the user presses cancel button 54 on operation panel 18 (YES in step S154), the flow proceeds to step S154.
Returning to 100, the user can take another composition.

【0014】図7に戻り説明を続けると、加工において
は、まず、形状データから、加工条件データベースを参
照して加工データが作成される(ステップS118)。
加工データは加工部70に送られ、加工部70では材料
を加工して3次元加工モデルを作成する(ステップS1
20)。加工物が排出され(ステップS122)、取出
口センサ40により、加工された生成物が取り出された
ことを検出すると(ステップS124でYES)、フロ
ーは、ステップS100に戻り、次の立体複製物生成を
行なう。
Referring back to FIG. 7, in the processing, first, in the processing, processing data is created by referring to a processing condition database from the shape data (step S118).
The processing data is sent to the processing unit 70, and the processing unit 70 processes the material to create a three-dimensional processing model (step S1).
20). When the workpiece is discharged (step S122) and the outlet sensor 40 detects that the processed product has been taken out (YES in step S124), the flow returns to step S100, and the next three-dimensional replicated product is generated. Perform

【0015】以下で、立体複製物の生成についてさらに
詳細に説明する。3次元測定(図7、ステップS11
2)において、立体物(顔)の3次元形状が測定され
る。3次元測定部64は、図9に示すように、透視投影
面上で格子状に配置された点を通る視線が対象物表面と
初めて交わる点までの(測定部64からの)距離を測定
する。したがって、形状データは、3次元測定部64の
所定の位置を座標中心とする3次元直交座標における座
標値と距離値とをもつ、格子状に並んだ点列データとし
て与えられる。また、このとき、測定点が測定範囲外で
あるなどの理由で測定を行えない測定点は、欠損である
印をつけたデータとして格納されている。このように、
本実施形態では透視投影面上でのサンプリングをおこな
ったが、3次元測定において、図10に示すように、平
行投影面上で格子状に配置された点を通る視線が対象物
表面と初めて交わる点までの(3次元測定部64から
の)距離を測定してもよい。
Hereinafter, the generation of a three-dimensional reproduction will be described in more detail. Three-dimensional measurement (FIG. 7, step S11)
In 2), the three-dimensional shape of the three-dimensional object (face) is measured. As shown in FIG. 9, the three-dimensional measuring unit 64 measures a distance (from the measuring unit 64) to a point where a line of sight passing through points arranged in a grid on the perspective projection plane intersects the object surface for the first time. . Therefore, the shape data is provided as point sequence data arranged in a grid, having coordinate values and distance values in three-dimensional orthogonal coordinates with the predetermined position of the three-dimensional measuring unit 64 as the coordinate center. At this time, the measurement points at which measurement cannot be performed because the measurement points are out of the measurement range or the like are stored as data marked as missing. in this way,
In this embodiment, sampling is performed on the perspective projection plane. However, in three-dimensional measurement, as shown in FIG. 10, a line of sight passing through points arranged in a grid on the parallel projection plane intersects the object surface for the first time. The distance to the point (from the three-dimensional measuring unit 64) may be measured.

【0016】図11は、データ処理(図7、ステップS
110)のフローを示す。ここで、3次元測定部64に
より入力された形状データに対して、加工時間を短くす
るための処理を含む各種処理がなされる。まず、測定デ
ータについて平滑化処理により、ノイズなどの非正規な
データを除く(ステップS200)。次に、再標本化処
理を行う(ステップS202)。たとえば、顔が斜めを
向いていた場合などにおいて、入力データを加工方向に
正対させるため、ある方向から平行投影した等間隔の格
子点により整列されたデータに変換する。図12は、1
例を示す。たとえば人の顔の鼻の下が陰になって測定で
きない場合、顔を上向きにして3次元測定をした後で、
通常の正面を向いた顔を表すようにデータを変換でき
る。格子点が射影された位置に計測点がない場合(たと
えば図12のa)には、その周囲の計測値により線形補
完を行う。このとき、射影された方向が加工する際の鉛
直上方となり、それぞれの格子点は、高さのデータを持
つ。また、入力データが透視投影など平行投影でなかっ
た場合などでは、この処理により入力データを平行投影
データに変換できる。
FIG. 11 shows the data processing (FIG. 7, step S
110). Here, various processes including a process for shortening the processing time are performed on the shape data input by the three-dimensional measuring unit 64. First, irregular data such as noise is removed from the measured data by a smoothing process (step S200). Next, re-sampling processing is performed (step S202). For example, when the face is facing obliquely, the input data is converted into data aligned by grid points at equal intervals projected in parallel from a certain direction in order to directly face the input data in the processing direction. FIG.
Here is an example. For example, if a person's face is under the nose and cannot be measured due to shadows, after performing a three-dimensional measurement with the face facing up,
The data can be converted to represent a normal frontal face. When there is no measurement point at the position where the grid point is projected (for example, a in FIG. 12), linear interpolation is performed using measurement values around the measurement point. At this time, the projected direction is vertically above when processing, and each grid point has height data. Further, when the input data is not parallel projection such as perspective projection, the input data can be converted into parallel projection data by this processing.

【0017】次に、補完処理(図11、ステップS20
4)をおこない、データのない欠損部分を補完する。補
完の方法としては、線形補完、重み付け補完などの種々
の手法が用いられる。たとえば、データの欠損している
部分をすべて固定値で置き換える(単純補完)。固定値
としては、(a)あらかじめ定められた値、(b)最小の高
さ、(c)データ外周部の平均値が用いられる。また、欠
損部がデータで完全に囲まれている場合は、周りのデー
タから線形補完をする。また、たとえば、人の顔におけ
る黒い眉や髪などのように、対象の性質から光学式の3
次元測定部64ではデータが得られない場合がある。こ
のような場合、データが欠損している部分は、所定の3
次元形状データと置き換える。このため、所定の標準顔
データを用意しておき、欠損部ではそのモデルデータを
使用する。この際、位置およびサイズの調整が必要とな
る。この調整では、たとえば、図7のステップS106
で得られたカラー画像の両目と口に対応する3次元形状
データ中の三角形を、モデルの対応する三角形と同じに
なるような線形変換をする。この合成は、顔の欠損部分
に限らず、任意の3次元形状データを使用することが可
能である。
Next, a complementing process (FIG. 11, step S20)
4) is performed to compensate for missing data. Various methods such as linear interpolation and weighted interpolation are used as the complementing method. For example, replace all missing data with fixed values (simple interpolation). As the fixed value, (a) a predetermined value, (b) a minimum height, and (c) an average value of the data outer peripheral portion are used. If the missing part is completely surrounded by data, linear interpolation is performed from surrounding data. Also, for example, an optical type 3 such as a black eyebrow or hair on a human face is used.
Data may not be obtained by the dimension measurement unit 64 in some cases. In such a case, the part where the data is missing is a predetermined 3
Replace with dimensional shape data. For this reason, predetermined standard face data is prepared, and the model data is used in the missing part. At this time, the position and size need to be adjusted. In this adjustment, for example, step S106 in FIG.
The linear transformation is performed so that the triangles in the three-dimensional shape data corresponding to both eyes and the mouth of the color image obtained in step 3 become the same as the corresponding triangles of the model. This synthesis can use not only the missing part of the face but also any three-dimensional shape data.

【0018】次に、高さ圧縮処理(図11、ステップS
206)をおこない、形状データを奥行き方向に圧縮
し、高さ方向の範囲を元のデータより狭くする。奥行き
方向の凹凸が大きいと加工時間が長くなるが、奥行き方
向に圧縮することにより加工部分を少なくして、加工時
間を短縮できる。また、極端に奥行きが深い部分(背景
部)について、所定のデータ(奥行きの浅いデータ)に
変換することにより、同様に加工部分を少なくして加工
時間を短縮できる。以下に、高さ圧縮について詳細に説
明する。高さ圧縮の手法は、加工対象の性質に応じて適
切なものを採用する。高さ圧縮の手法には、一様圧縮処
理と非一様圧縮処理とがある。一様圧縮処理には、たと
えば図13〜17に示すような種々のアルゴリズムが用
いられる。一様圧縮では、各格子点iにおける高さzi
を、Z=f(zi)なる関数により変換した値に置き換え
る。1つの手法は、線形変換f1(z)=az+b(ここに
zが高さ、a,bが定数であり、0<a<1である)で
ある。図13は、線形変換の一例(f1(z)=0.5z)
を示す。
Next, height compression processing (FIG. 11, step S
206), the shape data is compressed in the depth direction, and the range in the height direction is made narrower than the original data. If the unevenness in the depth direction is large, the processing time becomes longer. However, by compressing in the depth direction, the processing portion can be reduced and the processing time can be reduced. Also, by converting an extremely deep portion (background portion) into predetermined data (shallow depth data), the number of processed portions can be similarly reduced and the processing time can be reduced. Hereinafter, the height compression will be described in detail. An appropriate height compression method is adopted according to the nature of the processing target. Height compression techniques include uniform compression processing and non-uniform compression processing. For the uniform compression process, for example, various algorithms as shown in FIGS. In uniform compression, the height z i at each grid point i
Is replaced by a value converted by a function of Z = f (z i ). One approach is a linear transformation f 1 (z) = az + b (where z is the height, a and b are constants and 0 <a <1). FIG. 13 shows an example of linear conversion (f 1 (z) = 0.5z).
Is shown.

【0019】図14と図15は、非線形連続変換の例を
示す。特に人の顔などのデータでは、特徴的な部分は高
いところ(3次元データ入力時には3次元測定部からみ
て手前側であったところ)に集中していると考えられる
ので、低い部分では圧縮の度合を大きくする。1つの手
法は、二乗変換f2(z)=a(z−b)2+c(ここにzが
高さ、a,b,cが定数であり、0<aである)であ
る。図14は、二乗変換の1例(f2(z)=0.005
2)を示す。他の1つの手法は、指数変換f3(z)=c
az+d(ここに1<aである)である。図15は、指
数変換の1例(f3(z)=8*1.02z)を示す。図1
6と図17は、不必要な部分を削除する非線形不連続変
換の例を示す。1つの手法は、次の式で示される中抜き
変換である。 f4(z)=z ここに、z<d1 =d1 ここに、d1≦z≦d2 =z+d1−d2 ここに、d2<z この変換は、たとえば、人の顔において、耳からほおま
でを省くために用いられる。図16は、d1=20、d2
=60の例を示す。他の1つの手法は、たとえば次の式
で示されるクリッピング処理であり、所定範囲外のデー
タは一定値にされる。図17は、クリッピング処理の1
例を示す。 f5(z)=0 ここに、z<30 =z ここに、30≦z≦80 =50 ここに、80<z 所定値以下のデータzは0にされ、また、所定値以上の
データzは一定値にされる。
FIGS. 14 and 15 show examples of nonlinear continuous conversion. In particular, in data such as a human face, it is considered that characteristic portions are concentrated in high places (where they are near when viewed from the three-dimensional measurement unit when inputting three-dimensional data). Increase the degree. One approach is the square transformation f 2 (z) = a (z−b) 2 + c (where z is the height, a, b, and c are constants and 0 <a). FIG. 14 shows an example of the square transformation (f 2 (z) = 0.005).
z 2 ). Another approach is the exponential transformation f 3 (z) = c
b az + d (where 1 <a). FIG. 15 shows an example of the exponential conversion (f 3 (z) = 8 * 1.02 z ). FIG.
6 and 17 show examples of the nonlinear discontinuous transform for removing unnecessary portions. One approach is a hollow transform, as shown in the following equation. f 4 (z) = z where z <d 1 = d 1 where d 1 ≦ z ≦ d 2 = z + d 1 −d 2 where d 2 <z , Used to eliminate from the ear to the cheek. FIG. 16 shows that d 1 = 20 and d 2
= 60 is shown. Another method is, for example, a clipping process represented by the following equation, and data outside a predetermined range is set to a constant value. FIG. 17 shows the first clipping process.
Here is an example. f 5 (z) = 0, where z <30 = z, where 30 ≦ z ≦ 80 = 50, where 80 <z Data z that is equal to or less than a predetermined value is set to 0, and data z that is equal to or greater than a predetermined value Is set to a constant value.

【0020】また、非一様圧縮処理では、各格子点iに
おける高さziを、Z=g(xi,yi,zi)なる関数によ
り変換した値に置き換える。ここにx,yは格子の座標
である。特に人の顔などのデータでは、特徴的な部分は
中心に集中していると考えられるので、端の部分では圧
縮の度合を大きくする。なお、この際にはデータの中心
となる部分を3次元データやカラー画像データから推定
する必要がある。たとえば、x,yデータの重心、また
は、顔などのときはカラー画像から抽出した両目と口と
で構成される3角形に対応する3次元データの重心をデ
ータの中心とする。または、データを入力する際に、対
象物の中心が所定位置にくるように位置決めをすること
が必要となる。1つの手法は点対称変換である。次の式
は点対称変換の1例を示す。 g1(z)=zf(c−((x−a)2+(y−b)2)1/2) ここに、fは上述の一様圧縮変換で説明した関数のいず
れかであり、y=bはデータ中心の座標である。また、
他の1つの手法は線対称変換である。次の式は線対称変
換の1例を示す。 g2(z)=zf(c−|y−b|) ここに、fは上述の一様圧縮変換で説明した関数のいず
れかであり、(x,y)=(a,b)はデータ中心の座標で
ある。たとえば顔の左右について線対象変換をおこな
う。なお、一様圧縮変換と非一様圧縮変換とを併用する
こともできる。たとえば、次の式が1例を示す。 g3(z)=f(z)f(c−((x−a)2+(y−b)2)1/2) ここに、fは上述の一様圧縮変換で説明した関数のいず
れかである。
In the non-uniform compression processing, the height z i at each grid point i is replaced with a value converted by a function Z = g (x i , y i , z i ). Here, x and y are the coordinates of the grid. In particular, in data such as human faces, characteristic portions are considered to be concentrated at the center, and therefore the degree of compression is increased at the end portions. In this case, it is necessary to estimate a central part of the data from the three-dimensional data and the color image data. For example, the center of the data is the center of gravity of x, y data, or the center of gravity of three-dimensional data corresponding to a triangle formed by eyes and mouths extracted from a color image in the case of a face or the like. Alternatively, when inputting data, it is necessary to position the object such that the center of the object is at a predetermined position. One approach is a point-symmetric transformation. The following equation shows an example of the point symmetric transformation. g 1 (z) = zf (c − ((x−a) 2 + (y−b) 2 ) 1/2 ) where f is any of the functions described in the above uniform compression conversion, y = b is the coordinates of the data center. Also,
Another approach is a line-symmetric transformation. The following equation shows an example of the line symmetric transformation. g 2 (z) = zf (c− | y−b |) Here, f is any of the functions described in the above uniform compression conversion, and (x, y) = (a, b) is the data The coordinates of the center. For example, line object conversion is performed on the left and right sides of the face. Note that the uniform compression conversion and the non-uniform compression conversion can be used together. For example, the following equation shows one example. g 3 (z) = f (z) f (c − ((x−a) 2 + (y−b) 2 ) 1/2 ) where f is any of the functions described in the uniform compression conversion described above. Is.

【0021】図11に戻り説明を続けると、次に、3次
元形状データの背景部分を検出する(ステップS20
8)。極端に奥行きが深い部分(背景部)について所定
の奥行きの浅いデータに変換することにより、加工時間
を短縮する。次に、この背景部分を所定形状データに変
換して物体の3次元形状データと合成する(ステップS
210)。この所定形状データは、一定の高さのデータ
としてもよいし、凹凸のある形状データでもよい。さら
には、別の立体物、たとえば花や木などの形状データを
用いてもよい。背景検出の具体例としては、測定物の後
をブルーバックとしておき、奥行きが所定値以上かつそ
の領域の2次元画像の色がブルーであれば背景であると
判定する。
Returning to FIG. 11, the description is continued. Next, the background portion of the three-dimensional shape data is detected (step S20).
8). The processing time is shortened by converting an extremely deep portion (background portion) into data having a predetermined shallow depth. Next, the background portion is converted into predetermined shape data and synthesized with the three-dimensional shape data of the object (step S).
210). The predetermined shape data may be data having a fixed height or shape data having irregularities. Further, shape data of another three-dimensional object such as a flower or a tree may be used. As a specific example of background detection, a blue background is set after the measured object, and if the depth is equal to or more than a predetermined value and the color of the two-dimensional image in the area is blue, it is determined that the area is the background.

【0022】次に、3次元モデルの形状や品質の特性に
基づいた3次元形状データの変換について説明する(図
11、ステップS212〜S216)。まず、サイズ調
整(図11、ステップS212)をおこない、データが
加工できる範囲内または加工物の大きさに応じて、座標
値に定数を乗じることにより、スケールを調整する。図
18に示すように、左側のデータを右側のデータに変換
し、加工物の大きさ(破線で示す)に対応させる。図1
9は、サイズ調整の1例であるサイズ変換のフローを示
す。3次元測定部64より入力した3次元測定データに
ついて形状解析をする(ステップS220)。形状解析
の結果として算出した対象物の大きさ(縦、横、奥行
き)と特性データ記憶部にて設定している出力モデルの
形状サイズとを比較し、対象物を出力モデルサイズに合
わせ込む3次元形状の倍率を変換する(ステップS22
2)。この倍率を用いて3次元形状データを出力モデル
サイズに倍率を変換し、出力モデル形状を生成する。こ
うして作成した出力モデル形状を基に、制御部30内の
特性データ記憶部36において設定されている加工条件
により加工データを作成する(図7、ステップS11
8)。この加工データを加工部70に転送し、3次元加
工を行い、3次元モデルを生成する。こうして、出力す
べき形状と品質に基づき、形状測定データが自動的に変
換されるので、3次元形状データを所定の仕様に簡単に
安定に生成する。
Next, conversion of three-dimensional shape data based on the characteristics of the shape and quality of the three-dimensional model will be described (FIG. 11, steps S212 to S216). First, the size is adjusted (FIG. 11, step S212), and the scale is adjusted by multiplying the coordinate value by a constant according to the size of the processed object or the size of the processed object. As shown in FIG. 18, the data on the left is converted into data on the right, and is made to correspond to the size of the workpiece (indicated by a broken line). FIG.
9 shows a flow of size conversion as an example of size adjustment. The shape analysis is performed on the three-dimensional measurement data input from the three-dimensional measurement unit 64 (step S220). The size (vertical, horizontal, depth) of the object calculated as a result of the shape analysis is compared with the shape size of the output model set in the characteristic data storage unit, and the object is adjusted to the output model size 3 The magnification of the dimensional shape is converted (step S22)
2). Using this magnification, the magnification is converted from the three-dimensional shape data to the output model size, and an output model shape is generated. Based on the output model shape thus created, machining data is created under the machining conditions set in the characteristic data storage unit 36 in the control unit 30 (FIG. 7, step S11).
8). The processing data is transferred to the processing unit 70, and three-dimensional processing is performed to generate a three-dimensional model. In this way, the shape measurement data is automatically converted based on the shape and quality to be output, so that three-dimensional shape data can be easily and stably generated to a predetermined specification.

【0023】図20は、サイズ変換のフローの変形例で
ある加工サイズ縮小化のフローを示す。このフローで
は、形状データの縦、横、高さの方向にスケールをか
け、一定の大きさの素材に収まるサイズに縮小する。こ
れにより加工部分の体積を減らし、加工時間を短縮す
る。まず、データ形状を入力し(ステップS230)、
入力された形状データの現状のサイズを認識する(ステ
ップS232)。次に、標準的に使用する素材のサイズ
(特性データ記憶部36から読み出す)に合わせ現在の
サイズにスケールをかけ、縦、横、高さを縮小する(ス
テップS234)。また、特に高さ方向に極端に圧縮さ
せれば、加工速度も高速化できる。
FIG. 20 shows a processing size reduction flow which is a modification of the size conversion flow. In this flow, the shape data is scaled in the vertical, horizontal, and height directions, and reduced to a size that can be accommodated in a material of a fixed size. As a result, the volume of the processed portion is reduced, and the processing time is reduced. First, a data shape is input (step S230).
The current size of the input shape data is recognized (step S232). Next, the current size is scaled according to the size of the material to be used as standard (read from the characteristic data storage unit 36), and the height, width, and height are reduced (step S234). In addition, the processing speed can be increased by particularly extremely compressing in the height direction.

【0024】次に、解像度変換(図11、ステップS2
14)をおこない、加工機72の精度に合わせて格子の
幅の違う格子点で再標本化する。この処理は、ステップ
S202の再標本化とほぼ同様であるが、投影する方向
はz方向(鉛直上方)に固定されている。図21に示す
ように、左側に示されるデータの格子点を、右側に示す
加工機の格子点に合わせる。解像度は、ステップS20
8でサイズを加工に応じて調整した後で、解像度に併せ
て形状データを変換するので、加工機72の加工精度の
ほうが粗くても、適切な形状データが得られる。
Next, resolution conversion (FIG. 11, step S2)
14) is performed, and resampled at grid points having different grid widths in accordance with the accuracy of the processing machine 72. This process is almost the same as the resampling in step S202, but the projection direction is fixed in the z direction (vertically upward). As shown in FIG. 21, the grid points of the data shown on the left are matched with the grid points of the processing machine shown on the right. The resolution is determined in step S20.
After adjusting the size in accordance with the processing in step 8, the shape data is converted in accordance with the resolution, so that even if the processing accuracy of the processing machine 72 is lower, appropriate shape data can be obtained.

【0025】図22は、解像度変換(図11、ステップ
S214)のためのデータ数変換のフローを示す。サイ
ズ出力モデルの形状品質を、構成点群を点間ピッチとベ
クトル変化量で定義し、ベクトル変化量に対応する点間
ピッチ範囲を特性データ記憶部36から読み出して設定
する。点間ピッチがその範囲からはずれる場合、範囲内
に入るようにデータ変換(解像度変換)を行う。図22
のフローでは、図19で得られた倍率に対応した形状デ
ータを解析し形状データの点間ピッチとベクトル変化量
を得る(ステップS240)。点間ピッチと、ベクトル
変化量に応じて設定された点間ピッチ範囲とから、設定
された範囲内にあるか否かを判断する(ステップS24
2)。この判断は、入力装置が確定していない場合に必
要になる。測定器や測定条件によって解像度が変わるた
めである。もし設定された範囲内になければ、データを
変換する(ステップS244)。ベクトル変化量の大き
い複雑な部分は、ピッチとして大きな値の範囲が設定さ
れ、ベクトル変化量の小さい部分はピッチとして小さな
値の範囲が設定され、いずれの場合も、ピッチが小さす
ぎるときは、データを間引いてピッチを大きくし、ピッ
チが大きすぎる場合、データを補間してピッチを小さく
して範囲内になるようにする。
FIG. 22 shows the flow of data number conversion for resolution conversion (step S214 in FIG. 11). The shape quality of the size output model is defined by defining a group of constituent points by a point-to-point pitch and a vector change amount, and reading and setting a point-to-point pitch range corresponding to the vector change amount from the characteristic data storage unit 36. When the pitch between points deviates from the range, data conversion (resolution conversion) is performed so as to fall within the range. FIG.
In the flow shown in FIG. 19, the shape data corresponding to the magnification obtained in FIG. 19 is analyzed to obtain a point-to-point pitch and a vector change amount of the shape data (step S240). It is determined from the inter-point pitch and the inter-point pitch range set according to the vector change amount whether or not it is within the set range (step S24).
2). This determination is required when the input device has not been determined. This is because the resolution changes depending on the measuring instrument and the measuring conditions. If it is not within the set range, the data is converted (step S244). For a complex part with a large vector change, a large value range is set as the pitch.For a part with a small vector change, a small value range is set for the pitch. Is thinned to increase the pitch. If the pitch is too large, data is interpolated to reduce the pitch so that the pitch falls within the range.

【0026】測定された形状データが充分な解像度の場
合、間引く処理だけを行うことでよい。以下は、その例
である。図23は、データ数変換のための形状データの
間引きのフローを示す。このフローでは、必要とされる
形状精度(上記の点間ピッチ、ベクトル変化量)などに
応じて、省略できるデータを間引く。これにより高速な
加工を行うことができる。まず、入力された形状データ
の細かさ(点間ピッチ、ベクトル変化量)を認識する
(ステップS260)。次に、認識された点間ピッチ、
ベクトル変化量を、ベクトル変化量に対応したピッチ範
囲と比較し(ステップS262)、データの間引きが可
能であれば、間引きをおこなう(ステップS264)。
データ処理において、最後に、位置合わせ(図11、ス
テップS216)をおこなう。3次元データの基準位置
が加工範囲の基準位置にあうように座標原点を平行移動
する。
When the measured shape data has a sufficient resolution, only the thinning process may be performed. The following is an example. FIG. 23 shows a flow of thinning out shape data for data number conversion. In this flow, data that can be omitted is thinned out in accordance with the required shape accuracy (the above-described pitch between points and vector variation). Thereby, high-speed processing can be performed. First, the fineness (point-to-point pitch, vector change amount) of the input shape data is recognized (step S260). Next, the recognized pitch between points,
The vector change amount is compared with a pitch range corresponding to the vector change amount (step S262). If data can be thinned out, thinning is performed (step S264).
In the data processing, finally, positioning (FIG. 11, step S216) is performed. The coordinate origin is translated so that the reference position of the three-dimensional data coincides with the reference position of the processing range.

【0027】次に、加工データ作成(図7、ステップS
118)について説明する。加工部70の材料供給部7
6には、複数種類の素材が用意されている。そこで、入
力された形状データの特徴を抽出し、それに近い形状の
素材を選択して使用する。これにより、加工する部分の
体積を減らし、加工時間を短くする。また、素材形状を
決定するための粗加工が不要になり、加工時間を短くで
き、工具の寿命も長くなる。特徴としては種々の量があ
げられるが、以下の例では、パターンマッチングを用
い、形状データのパターンと素材のパターンを比較し、
最も近いパターンの素材を選択する。図24は、加工デ
ータ作成のフローの1例を示す。3次元測定部64によ
り得られたデータは、データ処理により形状データ(座
標データ)に変換されている。ここで、形状データをパ
ターン化し、素材データベース(DB)に記憶されてい
る素材の形状データ(素材パターン)と比較できるレベ
ルにして、形状データと素材の形状データとを比較し、
特徴を抽出する(ステップS300)。たとえば、高さ
方向の差の合計を求める。そして、この比較に基づいて
素材の形状を決定する(ステップS302)。たとえば
差の合計が最も小さい素材を選択する。次に、素材形状
決定の際の偏差値を偏差基準値と比較し(ステップS3
04)、偏差基準値より大きい場合は、特性データ記憶
部の加工条件データベースを参照して、粗取り加工用の
加工データを作成する(ステップS306)。次に、加
工条件データベースを参照して、仕上げ用加工データを
作成する(ステップS308)。なお、粗取り用と仕上
げ用の加工データは、加工機72の動き方を示すデータ
である。加工部70は、決定された素材を加工位置へ搬
送し、加工データに基づいて加工する(ステップS12
0)。上述のフローでは、偏差基準値を越える部分につ
いて粗削りをするが、粗削りを行わずに、その部分の加
工速度を遅くするようにしてもよい。これにより、工具
の負荷が軽減され、加工機の故障を防止できる。
Next, processing data is created (FIG. 7, step S
118) will be described. Material supply section 7 of processing section 70
6, a plurality of types of materials are prepared. Therefore, features of the input shape data are extracted, and a material having a shape close to the extracted shape data is selected and used. This reduces the volume of the portion to be processed and shortens the processing time. Further, rough machining for determining the material shape is not required, so that the machining time can be shortened and the life of the tool is prolonged. There are various quantities as features, but in the following example, pattern matching is used to compare the pattern of shape data with the pattern of material,
Select the material with the closest pattern. FIG. 24 shows an example of a flow of processing data creation. The data obtained by the three-dimensional measuring unit 64 has been converted into shape data (coordinate data) by data processing. Here, the shape data is patterned and set to a level that can be compared with the material shape data (material pattern) stored in the material database (DB), and the shape data and the material shape data are compared.
Features are extracted (step S300). For example, the sum of the differences in the height direction is obtained. Then, the shape of the material is determined based on the comparison (step S302). For example, a material having the smallest difference is selected. Next, the deviation value in determining the material shape is compared with the deviation reference value (step S3).
04) If it is larger than the deviation reference value, processing data for roughing processing is created with reference to the processing condition database in the characteristic data storage unit (step S306). Next, finishing processing data is created with reference to the processing condition database (step S308). The processing data for roughing and finishing is data indicating how the processing machine 72 moves. The processing unit 70 conveys the determined material to the processing position, and performs processing based on the processing data (step S12).
0). In the above-described flow, the rough cutting is performed on a portion exceeding the deviation reference value. However, the processing speed of the portion may be reduced without performing the rough cutting. As a result, the load on the tool is reduced, and failure of the processing machine can be prevented.

【0028】加工データ作成(ステップS306,S3
08)には時間がかかる。そこで、時間を短縮するため
に、あらかじめ用意された加工データを使用してもよ
い。図25は、変形例のフローを示す。まず、形状デー
タの部分ごとにパターンを認識し、部分ごとのパターン
のデータベースを参照して比較し、合致(または類似)
するパターンを検索する(ステップS320)。次に、
検索されたパターンと、先に決定された素材とを基に、
表1に示すようなパターンごとの加工データのデータベ
ース(テーブル)から加工データを特定し、その加工デ
ータをつなぎ合わせて全体の加工データとする(ステッ
プS322)。
Creation of processing data (steps S306, S3
08) takes time. Therefore, in order to reduce the time, processed data prepared in advance may be used. FIG. 25 shows a flow of the modification. First, a pattern is recognized for each part of the shape data, and a comparison is made with reference to a pattern database for each part, and a match (or similarity)
A pattern to be searched is searched (step S320). next,
Based on the searched pattern and the material determined earlier,
Processing data is specified from a database (table) of processing data for each pattern as shown in Table 1, and the processed data is connected to form the entire processed data (step S322).

【表1】 [Table 1]

【0029】また、別の変形実施形態では、加工する素
材を基本パーツの組み合わせから作る。図26は、この
場合のフローを示す。まず、部分(基本パーツ)ごとに
パターンを認識し、部分ごとのパターンのデータベース
を参照して比較し、合致(または類似)する基本パーツ
を検索する(ステップS400)。次に、先に決定され
た基本パーツを組み合わせ、加工用の素材とする(ステ
ップS402)。次に、この素材を用いて図24のステ
ップS304に進み、加工データを作成し、加工をおこ
なう。
In another modified embodiment, the material to be processed is made from a combination of basic parts. FIG. 26 shows a flow in this case. First, a pattern is recognized for each part (basic part), and a comparison is made with reference to a pattern database for each part to search for a matching (or similar) basic part (step S400). Next, the previously determined basic parts are combined into a material for processing (step S402). Next, the process proceeds to step S304 in FIG. 24 using this material to create processing data and perform processing.

【0030】[0030]

【発明の効果】入力された3次元形状の特徴から、加工
の基となる素材の形状を決定するので、形状データごと
に最適な素材を使用する。これにより、粗取り加工が不
要になり、加工に要する時間を短縮できる。
According to the present invention, since the shape of the raw material to be processed is determined from the characteristics of the input three-dimensional shape, the optimum raw material is used for each shape data. This eliminates the need for roughing, and can reduce the time required for the processing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 立体複製物作成装置の斜視図である。FIG. 1 is a perspective view of a three-dimensional duplicate creation device.

【図2】 立体複製物作成装置のブロック図である。FIG. 2 is a block diagram of a three-dimensional duplicate creation device.

【図3】 操作パネルの平面図である。FIG. 3 is a plan view of an operation panel.

【図4】 加工部の斜視図である。FIG. 4 is a perspective view of a processing unit.

【図5】 加工部の変形例の斜視図である。FIG. 5 is a perspective view of a modification of a processing unit.

【図6】 加工部の他の変形例の斜視図である。FIG. 6 is a perspective view of another modification of the processing section.

【図7】 メインコントローラのメインフローチャート
である。
FIG. 7 is a main flowchart of the main controller.

【図8】 変形例におけるメインコントローラのメイン
フローチャートである。
FIG. 8 is a main flowchart of a main controller in a modified example.

【図9】 透視投影面上でのサンプリングを示す図であ
る。
FIG. 9 is a diagram showing sampling on a perspective projection plane.

【図10】 平行投影面上でのサンプリングを示す図で
ある。
FIG. 10 is a diagram showing sampling on a parallel projection plane.

【図11】 データ処理のフローチャートである。FIG. 11 is a flowchart of data processing.

【図12】 再標本化を説明するための図である。FIG. 12 is a diagram for explaining resampling.

【図13】 高さ圧縮処理の1例の図である。FIG. 13 is a diagram illustrating an example of a height compression process.

【図14】 高さ圧縮処理の1例の図である。FIG. 14 is a diagram illustrating an example of a height compression process.

【図15】 高さ圧縮処理の1例の図である。FIG. 15 is a diagram illustrating an example of a height compression process;

【図16】 高さ圧縮処理の1例の図である。FIG. 16 is a diagram illustrating an example of a height compression process.

【図17】 高さ圧縮処理の1例の図である。FIG. 17 is a diagram illustrating an example of a height compression process;

【図18】 サイズ調整と位置合わせを示す図である。FIG. 18 is a diagram illustrating size adjustment and alignment.

【図19】 サイズ変換のフローチャートである。FIG. 19 is a flowchart of size conversion.

【図20】 形状縮小化のフローチャートである。FIG. 20 is a flowchart of shape reduction.

【図21】 解像度変換を示す図である。FIG. 21 is a diagram illustrating resolution conversion.

【図22】 データ間引きのフローチャートである。FIG. 22 is a flowchart of data thinning.

【図23】 データ数変換のフローチャートである。FIG. 23 is a flowchart of data number conversion.

【図24】 加工データ作成のフローチャートである。FIG. 24 is a flowchart of processing data creation.

【図25】 加工データ作成のフローチャートである。FIG. 25 is a flowchart of processing data creation.

【図26】 加工データ作成のフローチャートである。FIG. 26 is a flowchart of processing data creation.

【符号の説明】[Explanation of symbols]

16 表示部、 30 制御部、 34 データ処理
部、 36 特定データ記憶部、 38 加工データ生
成部、 50 操作部、 64 3次元測定部、70
加工部、 72 加工機、 76 材料供給機。
16 display unit, 30 control unit, 34 data processing unit, 36 specific data storage unit, 38 processing data generation unit, 50 operation unit, 64 three-dimensional measurement unit, 70
Processing section, 72 Processing machine, 76 Material supply machine.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 入力された3次元形状データより特徴を
抽出する特徴抽出装置と、 特徴抽出装置により抽出された特徴に最適な素材を自動
的に選択する素材選択装置と、 あらかじめ複数種のパターンに粗加工されている素材を
保有し、素材選択装置により選択された種類の素材を供
給する材料供給部と、 3次元形状データに基づいて、材料供給部から供給され
た素材を加工する加工機とを備えることを特徴とする立
体複製物作成装置。
1. A feature extracting device for extracting features from input three-dimensional shape data, a material selecting device for automatically selecting a material optimal for the features extracted by the feature extracting device, and a plurality of types of patterns A material supply unit that holds a material that has been roughly processed and supplies the material of the type selected by the material selection device, and a processing machine that processes the material supplied from the material supply unit based on the three-dimensional shape data And a three-dimensional reproduction making apparatus.
JP10280097A 1997-04-04 1997-04-04 3D reproduction device Expired - Fee Related JP3395569B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP10280097A JP3395569B2 (en) 1997-04-04 1997-04-04 3D reproduction device
US09/054,499 US6424877B1 (en) 1997-04-04 1998-04-03 Reproduction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10280097A JP3395569B2 (en) 1997-04-04 1997-04-04 3D reproduction device

Publications (2)

Publication Number Publication Date
JPH10277878A true JPH10277878A (en) 1998-10-20
JP3395569B2 JP3395569B2 (en) 2003-04-14

Family

ID=14337158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10280097A Expired - Fee Related JP3395569B2 (en) 1997-04-04 1997-04-04 3D reproduction device

Country Status (1)

Country Link
JP (1) JP3395569B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016115332A (en) * 2014-12-15 2016-06-23 キヤノン株式会社 Image processing device and control method and program therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016115332A (en) * 2014-12-15 2016-06-23 キヤノン株式会社 Image processing device and control method and program therefor

Also Published As

Publication number Publication date
JP3395569B2 (en) 2003-04-14

Similar Documents

Publication Publication Date Title
US6823080B2 (en) Three-dimensional information processing apparatus and method
US7860340B2 (en) Three-dimensional shape estimation system and image generation system
EP0398352B1 (en) An automatic engraving system
JP2919284B2 (en) Object recognition method
US6775403B1 (en) Device for and method of processing 3-D shape data
EP1424656B1 (en) Apparatus for generating three-dimensional model data for a machine tool
CN111915662B (en) Three-dimensional laser point cloud data preprocessing method and device
JP2008145431A (en) Apparatus and method for 3-dimensional surface geometry reconstruction
US6424877B1 (en) Reproduction apparatus
US6999072B2 (en) Data processing method, data processing program and recording medium
JPH11325853A (en) Three-dimensional shape input device
US7068835B1 (en) Data processing apparatus for processing a 3-dimensional data of an object and a method therefor
JP3582293B2 (en) 3D creation device
He et al. Deployment of a deep-learning based multi-view stereo approach for measurement of ship shell plates
JPH10277878A (en) Three-dimensional duplicate forming device
JPH10277884A (en) Three-dimensional duplicate preparing device
JP2000339498A (en) Three-dimensional shape data processor
JPH10277881A (en) Three-dimensional shape cutting device
US6980301B2 (en) Method and apparatus for three-dimensional surface morphometry
JPH11312228A (en) Three-dimensional shape data processor
CN115945743A (en) Method and system for trial machining of non-standard parts
JP3832065B2 (en) 3D shape data processing device
JP2001012922A (en) Three-dimensional data-processing device
JPH11207568A (en) Three-dimensional object manufacturing system
JP2000074643A (en) Method and device for converting three-dimensional distance data and storing medium storing program for data conversion

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees