JP2004132944A - System and method for evaluating manufacturing error and program for the same - Google Patents

System and method for evaluating manufacturing error and program for the same Download PDF

Info

Publication number
JP2004132944A
JP2004132944A JP2002366589A JP2002366589A JP2004132944A JP 2004132944 A JP2004132944 A JP 2004132944A JP 2002366589 A JP2002366589 A JP 2002366589A JP 2002366589 A JP2002366589 A JP 2002366589A JP 2004132944 A JP2004132944 A JP 2004132944A
Authority
JP
Japan
Prior art keywords
dimensional
cad data
data
image
ray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002366589A
Other languages
Japanese (ja)
Inventor
Nobuhiro Yoshikawa
吉川 暢宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foundation for the Promotion of Industrial Science
Original Assignee
Foundation for the Promotion of Industrial Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foundation for the Promotion of Industrial Science filed Critical Foundation for the Promotion of Industrial Science
Priority to JP2002366589A priority Critical patent/JP2004132944A/en
Publication of JP2004132944A publication Critical patent/JP2004132944A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length-Measuring Devices Using Wave Or Particle Radiation (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system for evaluating manufacturing errors for surely feeding back to manufacturing/working equipment with information for modifying the errors by quantitatively evaluating the shape errors in 3-D space accompanied by the manufacturing for the equipment composed of various parts of complicated shape. <P>SOLUTION: This system for evaluating manufacturing errors uses a 3-D fluoroscopic image. Each pixel of CAD perspective image is moved in 3-D (spatially) using a specified arithmetic expression. A simulation is continued till the image after moving the CAD perspective image coincide with the actual fluoroscopic image, while altering coefficients of the arithmetic expression. When the CAD perspective image after moving and actual fluoroscopic image are nearly coincident in each pixel distribution having similar gradation, each coefficient of the arithmetic expression is extracted. Based on these coefficients, errors of each pixel in the actual fluoroscopic image is calculated. Based on the amount of the errors, information for reducing errors in various parts is fed back to the manufacturing/working equipment. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、設計時の3次元CAD(Computer Aided Design)データと、加工及び製造後のX線等による3次元透視画像と、の比較により得られる誤差量に基づき、加工及び製造誤差を削減して、設計に対応した加工を行う製造誤差評価システムに係わるものである。
【0002】
【従来の技術】
近年、機器の加工および製造を行う場合、設計図面が3次元データ化、いわゆる3次元CADデータとして加工機械(例えば、NC(Numerical Control)工作機)及び製造機械(例えば、プラスチック成型器)に受け渡され、自動的に加工及び製造が行われ、加工及び製造作業の効率化が図られている。
しかし、実際に加工及び製造された製品には、上記3次元CADデータに対して、製造及び加工結果の各部の寸法が異なり、すなわち種々の加工および製造における加工誤差及び製造誤差が必ず生じる。
【0003】
このため、製品の加工及び製造精度を向上させるため、加工誤差及び製造誤差をフィードバックして、加工機械及び製造機械の加工寸法の設定を、各誤差に対応させて調整する必要がある。
ここで、加工及び製造誤差を評価する従来の手法は、2点間の距離が設計図上の寸法と、実際に加工及び製造されたものの寸法とにおいて、どの程度異なるかを数値的に評価する(異なる量を誤差量とする)という、長さに関する誤差量の評価を行っている。
【0004】
例えば、図4において、実線が設計値として加工したい面(CADの加工寸法のデータ)を表し、破線がNC加工機において切削することで、実際に加工された面とする。
NC加工機に入力するCADデータは離散的に設定した○印で示す点の座標値であり、加工の精度を上げるためにはこの○印の間隔を充分細かく、すなわち、加工面を示すCADデータを細かい単位で設定する必要がある。
また、NC加工機による切削加工の後、加工面をX線CTまたはモアレを用いて測定した結果が□印で示されている(例えば、非特許文献1参照)。
【0005】
上述した□印の示す測定結果から、○印との差を求めることで誤差量を算出し、NC加工機に入力するCADデータを、各○印で示す座標値毎に修正することにより、加工の精度を向上させることができる。
しかし、○印で示すCADデータを修正するため、各○印毎の座標値が、加工後におけるどの□印の座標値に変位したかの対応付けをする必要がある。
ここで、図4に示す四角形の部品を加工し、破線のように加工面が形成される場合、○印と□印との対応付けを容易に行うことができ、厚みと幅とに関する誤差評価が容易に行える(長さで誤差評価可能な部品形状)。
【0006】
【非特許文献1】
高堂積,姫井志乃夫,有田宏志,他、Prceeding of 6th Symposium on ”Microjoining and Assembly Technology in Electronics”,85−90
【0007】
【発明が解決しようとする課題】
上述ように、従来の長さに関する誤差評価でも、図4に示す四角形のように、単純な形状の部品または製品であれば、加工誤差及び製造誤差(以降、2つをまとめて形状誤差とする)の補正を行う情報を、ある程度は定量的に製造機械または加工機械にフィードバックすることが可能である。
しかしながら、複雑な形状をした部品及び製品においては、2つの座標値の選択によって、2点間の距離が異なり、誤差量としての形状誤差において、数値的に大きな違いが発生してしまい、評価の基準として容易に用いることができない。
【0008】
例えば、図5に示す曲面(または複雑な3次元の曲面)の加工を行う場合、CADデータで指定された○印の座標値が、加工後の□印の座標値のいずれに対応するかの特定が容易に行えない。
すなわち、従来の長さで誤差評価を行う方法では、一つの○印の座標値が変位後の座標値として、近接した2つの□印のいずれであるかは、形状が複雑になると容易に特定できず、○印毎の正確な誤差量を得ることができず、○印の座標値、すなわちCADデータの修正を適切に行うことができない。
【0009】
したがって、長さに関する誤差評価では、複雑な形状の各部の誤差量を得ることが困難であり、形状全体にわたる加工及び製造の際の加工及び製造誤差を削減するために必要かつ適切な情報(誤差量)を、NC加工機などに、フィードバックすることができない。
【0010】
本発明はこのような背景の下になされたもので、複雑な形状をした部品及び製品に関して、設計図のCADデータにおける寸法と、NC加工機などにより実際に加工・製造された部品及び製品の各部の寸法との形状誤差(誤差量)を,3次元空間で定量的に評価し、その誤差評価結果を製造・加工機械にフィードバックすることにより、加工及び製造の精度を向上させることが可能な製造誤差評価システムを提供する。
【0011】
【課題を解決するための手段】
本発明の製造誤差評価システムは、X線源と複数のX線検出器とを有し、被試験体の断面に関するX線データを収集するX線CT装置と、前記X線データに基づき被試験体の3次元透視画像を生成する画像処理部と、被試験体の設計データである3次元CADデータ,及びこの3次元CADデータに基づき加工された前記被試験体の3次元透視画像を記憶する画像記憶部と、この3次元CADデータの各ピクセルを所定の演算により移動させ、この3次元CADデータと3次元透視画像との形状を一致させ、3次元CADデータのピクセルの移動による変位を誤差量として求める誤差量演算部とを有することを特徴とする。
【0012】
本発明の製造誤差評価システムは、前記誤差量演算部が、前記所定の演算式の係数及び定数を逐次変更しつつ、前記3次元CADデータの各ピクセルの移動を行うことにより、前記3次元CADデータと前記3次元透視画像との形状を一致させることを特徴とする。
本発明の製造誤差評価システムは、前記誤差量演算部が、前記3次元透視画像と移動後の3次元CADデータとにおける各ピクセル毎の階調度を比較し、階調度の分布が同様か否により、3次元CADデータと3次元透視画像との形状の一致を判定することを特徴とする。
【0013】
本発明の製造誤差評価方法は、X線源と複数のX線検出器とを有したX線CT装置から、被試験体の断面に関するX線データを収集するデータ収集過程と、前記X線データに基づいて、被試験体の3次元透視画像が生成される画像処理過程と、被試験体の設計データである3次元CADデータ,及びこの3次元CADデータに基づき加工された前記被試験体の3次元透視画像が画像記憶部に記憶される画像記憶過程と、この3次元CADデータの各ピクセルを所定の演算により移動させ、3次元CADデータと3次元透視画像との形状を一致させ、各ピクセルの移動量に基づき、製造における誤差量を求める誤差量演算過程とを有することを特徴とする。
【0014】
本発明の製造誤差評価方法は、前記誤差量演算過程において、前記所定の演算式の係数及び定数を逐次変更しつつ、各ピクセルの移動を行うことで、3次元CADデータと3次元透視画像との形状を一致させることを特徴とする。
本発明の製造誤差評価方法は、前記誤差量演算過程において、3次元透視画像と移動後の3次元CADデータとにおける各ピクセルを各々の階調度に基づき対応させて、3次元CADデータと3次元透視画像との形状の一致を判定することを特徴とする。
【0015】
本発明の製造誤差評価プログラムは、X線源と複数のX線検出器とを有したX線CT装置から、被試験体の断面に関するX線データを収集するデータ収集処理と、前記X線データに基づいて、被試験体の3次元透視画像が生成される画像処理と、被試験体の設計データである3次元CADデータ,及びこの3次元CADデータに基づき加工された前記被試験体の3次元透視画像が画像記憶部に記憶される画像記憶処理と、この3次元CADデータの各ピクセルを所定の演算により移動させ、3次元CADデータと3次元透視画像との形状を一致させ、各ピクセルの移動量に基づき、製造における誤差量を求める誤差量演算処理とを有することを特徴とするコンピュータにより実行可能なプログラムである。
本発明の記録媒体は、上記製造誤差評価プログラムが記録されたコンピュータが読み取り可能な記録媒体である。
【0016】
【発明の実施の形態】
本願発明は、あらかじめ設計図を3次元化したCADデータに基づく被試験体(CADにより設計された部品または製品)の3次元透視画像(以下、CAD透視画像)と、X線CT装置からのX線の透過強度に基づくX線データから生成される、実際に加工(製造)された被試験体の3次元透視画像(以下、実透視画像)とを準備する。
以降、X線CT装置を用いることで得られる3次元透視画像により、本願発明の製造誤差評価システムの説明を行う。
しかしながら、本発明はX線CT装置に限らず、MRI(磁気共鳴画像)や超音波装置による、加工された部品の3次元透視画像を用いることも可能である。ここで、CAD透視画像及び実透視画像の3次元ボクセルモデルとして、各々CADボクセルモデル,実ボクセルモデルが生成される。
そして、後に述べる誤差量演算部4は、所定の演算式を用いて各ピクセルの座標変換を行い、CADボクセルモデルの各ピクセルを、実ボクセルモデルと同様な分布形状、すなわち、階調度のピクセルの分布形状が一致するまで3次元的(空間的)に移動させる。
【0017】
このとき、この座標変換によるピクセルの移動後のCADボクセルモデルと、上記実ボクセルモデルとの、同様な階調度のピクセルの分布形状が一致するまで、演算式の係数及び定数の数値を逐次変更させながらシミュレーション(所定の演算式に基づいた座標変換によるピクセルの3次元移動)を行う。
すなわち、上記誤差量演算部4は、移動後のCADボクセルモデルと上記実ボクセルモデルとにおいて、同様な階調度を有するピクセルの分布形状が一致または略一致したときに、上記実ボクセルモデルと各ピクセルを移動させたCAD透視画像との形状が一致したとする。
ここで、略一致とは、予め、CADボクセルモデル及び実ボクセルモデルにおいて、各画像全体のピクセル数に対して、座標変換により一致したピクセルの割合を設定しておき、この割合を超えた場合を示すこととする。
【0018】
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の一実施形態による製造誤差評価システムの構成例を示すブロック図である。この図において、本発明の製造誤差評価システムは、少なくとも、X線CT装置1,画像処理部2,画像記憶部3,及び誤差量演算部4を有している。
X線CT装置1は、被試験体に対してX線を照射し、被試験体を透過するX線の強度、すなわち透過強度に基づいたX線データを出力する。
【0019】
次に、図2を参照して、上記X線CT装置1の構成を簡単に説明する。図2はX線CT装置の構成例を示す概念図である。
X線CT装置1は、X線を放射するX線管11と、このX線の強度を検出するX線検出器13とを対向する位置に有し、被試験体14(3次元CADデータに従いNC加工機6が加工した部品)がX線管11とX線検出器13との間に、図示しない固定装置により固定されている。
【0020】
この固定装置は、被試験体14の体軸に沿って、この被試験体をR方向に、360°の角度範囲において回転させることができる。
ここで、X線管11が扇状に広がるX線12を放射するため、固定装置は、この扇状に広がったX線12が被試験体14の横幅となるように、X線管11及びX線検出器13の位置を調整する。
そして、X線検出器13は、例えば、被試験体14の断面14nの部分において、被試験体14を透過した後のX線12のX線強度を測定する。
【0021】
また、上記固定装置は、上記体軸に沿って、Z1方向またはZ2方向に移動可能となっている。
そして、X線CT装置1は、固定装置の回転及び上下の移動を制御し、被試験対14を回転及び移動させつつ、この被試験体14を透過するX線12のX線強度の測定を行う。
このとき、X線CT装置1は、被試験体14に対して、この被試験体14を透過するX線12のX線強度の測定を行う。
X線CT装置は、3次元透視画像が得られるものであれば、どのような構成のものでもかまわない。
【0022】
図1に戻り、上述した構成により、X線CT装置1は、被試験体(図2における被試験体14)の断面のX線データを出力する。
そして、画像処理部2は、X線CT装置1から出力される、被試験体が360°回転する間のX線データ(X線透視画像)を集積し、この集積されたX線データを再構成演算を行うことにより、被試験体の断面、すなわち体軸に垂直な被試験体の断層像を生成する。
【0023】
また、画像処理部2は、体軸に沿って、同期してZ1方向またはZ2方向に、微少間隔に移動させて得られた上記断層像を、体軸方向に重ねて、被試験体の3次元透視画像(すなわち実透視画像)を生成する。
このとき、X線CT装置において、上述の処理により実透視画像を、画像処理部2に生成させる。
さらに、画像処理2は、得られた実透視画像を画像記憶部3に記憶させるとともに、この実透視画像を、図示しない画像表示装置の表示画面に表示する。
【0024】
CADシステム5は、作業者の設計処理により、NC加工機6で部品の加工に用いる、部品の立体的な設計データである3次元CADデータを生成する。
また、CADシステム5は、上記3次元CADデータから、部品の完成時の形状を示す3次元画像であるCAD透視画像を生成し、このCAD透視画像を3次元CADデータとともに、画像記憶部3へ書き込んで登録する(記憶させる)。NC加工機6は、上記3次元CADデータを画像記憶部3から読み出し、この3次元CADデータに基づいて、例えば、部品の切削加工を行うものとする。
【0025】
以下、誤差量演算部4で行われる演算の演算式及びアルゴリズムの説明を、図3を用いて行う。図3は、誤差量演算部4の誤差量算出の動作例を示すフローチャートである。
ステップS1において、画像処理部2は、画像記憶部3から上記CAD透視画像及び上記実透視画像を読み出し、以降の演算に対応するように、各3次元透視画像を所定の画像サイズ(例えば、「ピクセル数/単位体積」で表される分解能)で各ピクセルの階調度を抽出し、この各ピクセルの階調度を示すピクセル値の分布で構成される3次元画像(3次元ボクセルモデル)を生成する。
【0026】
このとき、画像処理部2は、CAD透視画像及び実透視画像各々において、輪郭部等にある最大値の階調度を用いて、画像全体のピクセルの階調度の規格化を行う。
例えば、階調度をrとし、規格化を0≦r≦1とした場合、最大の階調度が「1」として表せられる。
これにより、CADボクセルモデルのピクセルを移動させ、各ピクセルの階調度の分布と、実ボクセルモデルのピクセルの階調度の分布とを比較して、分布状態の一致を検出する場合、分布状態の比較において、各ピクセルの対応が付け易くなる。
【0027】
ここで、CAD透視画像から生成した3次元ボクセルモデル(以下、CADボクセルモデル)において、x,y,及びzの座標で示す位置にある各ピクセルの階調度をピクセル値p(x、y、z)で表し、実透視画像から生成した3次元ボクセルモデル(以下、実ボクセルモデル)において、x,y,及びzの座標で示す位置にある各ピクセルの階調度をピクセル値P(x、y、z)で表す。
【0028】
次に、ステップS2において、誤差量演算部4は、以下に示す(1)式,(2)式,(3)式を用いることにより、各ピクセルのx,y及びz方向それぞれにおける誤差量u(x,y,z),v(x,y,z),w(x,y,z)を求める。
このとき、(1),(2),(3)式(誤差関数)で各々用いる係数aum〜jwm,定数p〜rは、仮の値とする。
ここで、上記仮の値とは、すでに誤差評価が終了した他部品のなかにおいて、形状が近いと思われる部品に対して求められた上記(1)〜(3)式における係数aum〜jwm,定数p〜rを代用した値である。
【数1】

Figure 2004132944
【数2】
Figure 2004132944
【数3】
Figure 2004132944
【0029】
この各々の式において、各大括弧のなかの第1項(中括弧の項)は被試験体14の誤差の周期性を示すフーリエ級数であり、第2項はべき乗的な誤差の量を示しており、第3項は上記定数である。
上記第1項のフーリエ級数は、被試験体14の誤差の周期性に対応している。上述した各係数及び定数の仮の値とは、同様な材料及び加工形状の部品の誤差評価によって、以前に求められた値などの、ある程度実際に近い(上記誤差関数に対応可能)と考えられる値が用いられる。
【0030】
次に、ステップS3において、誤差量演算部4は、(1),(2),(3)式の誤差関数による演算(所定の演算)から求められた誤差量u(x,y,z),v(x,y,z),w(x,y,z)に基づき、各々のピクセルを移動させる。この座標変換による移動により、各々の座標値が変位した数値を誤差量としている。
すなわち、上記誤差量u,v,wに基づき、p(x,y,z)を移動させることにより、(x,y,z)の位置に合ったピクセルは、(x+u,y+v,z+w)の位置に移動し、すなわち、p(x,y,z)がp(x+u,y+v,z+w)となる。
【0031】
このピクセル値p(x+u,y+v,z+w)を、ピクセル値p(X,Y,Z)とする。ここで、X=x+u,Y=y+v,Z=z+wである。
そして、誤差量演算部4は、上述したピクセルの3次元座標における移動の処理を、CADボクセルモデルを構成する各ピクセルに対して行う。
ここで、ピクセル値p(X,Y,Z)は、誤差量演算部4により求められた仮想の加工後の試料のボクセルモデル、すなわち、シミュレーション結果としての、移動後のCADボクセルモデル(シミュレーションボクセルモデル)である。
【0032】
次に、ステップS4において、誤差量演算部4は、実ボクセルモデルにおける座標値(X,Y,Z)におけるピクセル値P(X、Y、Z)と、上記ピクセル値p(X,Y,Z)との数値の比較を、実ボクセルモデルにおける各座標値において行う。
すなわち、誤差量演算部4は、実ボクセルモデルの各座標値におけるピクセル値P(X、Y、Z)の数値と、移動後のCADボクセルモデルの各座標値におけるピクセル値p(X,Y,Z)の数値とが一致(または所定の範囲を有していて、略一致する場合も含む)するか否かの判定を行う。
【0033】
ここで、誤差量演算部4は、実ボクセルモデルの各座標値におけるピクセル値P(X、Y、Z)の数値と、移動後のCADボクセルモデルの各座標値におけるピクセル値p(X,Y,Z)の数値とが一致した場合(このCADボクセルモデルピクセルの移動量が誤差量に対応する)、各係数aun〜jwm及び定数p〜rを出力して処理を終了するが、一致しない場合、処理をステップS5へ進める。
このとき、誤差量演算部4は、差分関数である下記に示す(4)式により、ボクセルモデル全体のピクセル値に対して、ピクセル値P(x,y,z)が移動されたピクセル値P(X,Y,Z)と、p(X,Y,Z)との差分を合計して、255(階調度)×Mにより正規化して、差分関数fとして出力する。
【数4】
Figure 2004132944
ここで、Mは総ボクセル数であり、Σは画像内の全ボクセルに対して総和を取ることを表している。
そして、誤差量演算部4は、差分関数fの差分関数値が求められる毎に、順次前回のfの数値と比較して、上記差分関数値の谷(最も差分関数値の小さい点、すなわち最小値)を検出し、この点をボクセルモデル全体の各ピクセル値の階調度の一致した点とする。
【0034】
次に、ステップS5において、誤差量演算部4は、各係数aun〜jwm及び定数p〜rの変更量を、非線形計画法などの最適化手法によって、このアルゴリズに従った演算により、上記係数及び定数の数値を逐次変更する。
そして、誤差量演算部4は、変更された各係数aun〜jwm及び定数p〜rにより、新たな誤差量u(x,y,z),v(x,y,z),w(x,y,z)を求めるため、処理をステップS2へ戻す。
【0035】
上述したように、誤差量演算部4は、実ボクセルモデルの各座標値におけるピクセル値P(X、Y、Z)の数値と、移動後のCADボクセルモデルの各座標値におけるピクセル値p(X,Y,Z)の数値とが一致するまで、ステップS2からステップS5の処理を繰り返して行う。
そして、誤差量演算部4は、最終的に、実ボクセルモデルの各座標値におけるピクセル値P(X、Y、Z)の数値と、移動後のCADボクセルモデルの各座標値におけるピクセル値p(X,Y,Z)の数値とが一致(階調度が一致)すると、このときの各係数aun〜jwm及び定数p〜rを出力する。
【0036】
これにより、誤差量演算部4は、(1)式から(3)式において、各係数aun〜jwm及び定数p〜rが求まることにより、この(1)式から(3)式を各CADボクセルモデルと実ボクセルモデルとの各々の座標値における誤差量を求める誤差関数として用いることとなる。
すなわち、上記誤差関数は、図5に示す加工面において、○印と□印(実ボクセルモデル)との座標値の差(誤差量)が、○印の点(CADボクセルモデル)の座標値の関数として表される。
【0037】
次に、ステップS6において、誤差量演算部4は、所定のCADボクセルモデルの座標値(x、y、z)に基づき、各座標値に対応する誤差量の演算を行う。これにより、誤差量演算部4は、上記誤差関数により、任意に入力されるCADボクセルモデルにおける座標値に基づいて、CADボクセルモデルと実ボクセルモデルとの誤差量を、3次元的に求めることができる。
【0038】
ここで、任意に入力される座標値のデータは、3次元CADデータにおける座標値である。
そして、誤差量演算部4は、各座標値毎に得られた誤差量に対して「−1」を乗じて、この乗算の結果を、CADシステム5に入力する、CADボクセルモデルの座標値修正データとして出力する。
ここで、「−1」を誤差量に対して乗算する理由は、3次元CADデータの座標値に加算することにより、加工後に発生する誤差量を、あらかじめ打ち消すために行われる。
【0039】
次に、ステップS7において、誤差量演算部4は、上記座標修正データをCADシステム5に対して出力する。
これにより、CADシステム5は、入力される座標修正データに基づいて、対応する部品の3次元CADデータの修正を行う。
すなわち、CADシステム5は、3次元CADデータにおける対応する座標値に対して、入力される座標修正データを加算することで、3次元CADデータの修正を行う。
【0040】
そして、CADシステム5は、誤差量に基づいた上述した修正処理により、修正された3次元CADデータを、NC加工機6へ出力する。
これにより、NC加工機6は、部品の加工に使用していた3次元加工データを、入力される修正された3次元CADデータと置き換え、この修正された3次元データを用い、以降の部品の加工を行う。
【0041】
したがって、修正された3次元CADデータにより、加工された部品の加工面の形状が、CADシステム5において元々の設計で生成された(誤差量による修正前の)3次元CADデータ、すなわち加工したい面に近い形状に加工されることになる。
また、図3のフローチャートの処理を複数回繰り返すことにより、誤差関数の誤差量算出の精度がより向上し、NC加工機による加工後の部品の形状を、当初CADにより設計された形状に近づけることが可能となる。
【0042】
上記ステップS3において、誤差量演算部4の行う各ピクセル値P(X,Y,Z)の値の求め方について、以下に説明する。
まず、誤差量演算部4は、図6(a)に示すボクセルモデルにおいて、各画素に対応して空間格子を作成し、図6(b)に示すように、各ピクセル値を対応する格子の重心に各々割り付ける。
そして、誤差量演算部4は、演算した「u,v,w」により上記重心を、図6(c)に移動させる(重心を変形写像により移動させる、(Mapping,x=D(X))。移動後の重心(以下、移動点(Mapped Points):黒丸)と、変形画像を構成する空間固定格子の重心(以下、対応点(Fixed Points):白丸)とは、図6(c)で分かるように一般的には一致しない。
次に、誤差量演算部4は、最終的に、各空間固定格子毎に、移動点のピクセル値を、対応点に割り付けることにより、図6(d)に示すように、シミュレーションボクセルモデルを生成する。
【0043】
このため、以下の条件により、各移動点のピクセル値から、各空間固定格子の対応点のピクセル値を決定する。
基本的に、本実施形態においては、各対応点に対して最も近傍に存在する移動点のピクセル値を、この対応点のピクセル値とする、最近隣内挿法を基礎とした8近傍最近隣近似法を用いている。
すなわち、誤差量演算部4は、移動点が、対応点を含む空間固定格子内へ移動したとき、移動点がこの空間固定格子内に1つの場合、移動点のピクセル値を対応点のピクセル値とし、移動点が空間固定格子内に複数ある場合、これら移動点のピクセル値の平均値を演算し、この平均値を対応点のピクセル値とする。
【0044】
また、対応点の空間固定格子内に移動点が存在しない場合、その周囲3×3格子内の8近傍格子内の探索を行う。
このとき、周囲3×3格子内に移動点が存在しない場合、ピクセル値を「0」とし、移動点が存在する場合、その移動点のなかから対応点の位置に最も近傍にある移動点のピクセル値を、この対応点のピクセル値とする。
上述の説明は説明を簡略化するために2次元で行ったが、三次元の場合には、その空間固定格子内に移動点が無い場合、近接格子周囲3×3×3格子内の26格子として移動点の探索を行い、8近傍格子の場合と同様の手法により対応点の格子点を決定する。
【0045】
次に、ステップS5における各係数及び定数各々の数値の求め方について説明する。
すでに述べたように、ステップS5において、誤差量演算部4は、上述したように、各係数aun〜jwm及び定数p〜rの変更量を、非線形計画法などの最適化手法によって、このアルゴリズに従った演算により、上記係数及び定数の数値を逐次変更する。
ここで、ボクセル値は離散値であるため、また最近隣近似に基づいて離散的な画像処理を行うため、目的関数の感度情報(各係数及び定数の変化量に対応する数値fの変化の度合い)を得ることができない。
【0046】
このため、本実施形態において、誤差量演算部4は、遺伝的アルゴリズム(Genetic Algorithm)等(以下説明するa)及びb)のアルゴリズム)の離散的最適化方法により差分関数fの最小化処理を行う。
a)遺伝的アルゴリズムを用いる場合
誤差量演算部4は、例えば、変数及び定数のデータ容量として、各々8ビットバイナリを割り当て、各変数及び定数毎に256段階の数値を有しているとする。
この256段階の数値は、予め変形の範囲(探索範囲として)として想定される所定の範囲(ボクセルモデルのピクセル数や寸法など)を、255分割したものである。
そして、遺伝的アルゴリズムのシミュレーションの条件として、各個体は、誤差量演算部4において、上記各変数及び定数の数値から選択されて、1000個の組み合わせとして構成される。
各個体の組み合わせを変更する遺伝子操作としては、一様交叉(交叉率75%),線形ランキング選択,エリート戦略及び突然変異(突然変異率1.0%)などを用いた。
【0047】
b)SCE−UA(Shuffled Complex Evolution Method developed at the UniversityArizona)法
このSCE−UA方法は、遺伝的アルゴリズム類似の進化手法を取り入れ、物理的な意味を持つ解の探索領域を設定できることと、計算の途中で、複数の個体群で独立に進化させるため、最終的に解を得る場合、計算不能や発散などが発生せず、必ず解が求まることを特徴としている。
すなわち、SCE−UA法は、競争進化及び集団混合の概念を組み合わせた帯域探索による最適化手法である。以下に計算手順を簡単に示す。
▲1▼ 決定変数((1)〜(3)式における係数aun〜jwm及び定数p〜r、または(1’)〜(3’)式における変数au13(k,k,k)等)の個数n,集団数p,各集団内の個体数m(=2n+1)を設定し、各個体を決定変数を座標値とするn次元空間上の点とみなす。
例えば、係数および定数の数が合計n個ある場合、p個の集団に、各々「2n+1」個の個体群を振り分ける。
▲2▼ 初期世代として、各決定変数値をランダムに与え、例えば、(4)式の差分関数の差分関数値が低い順に個体を並べる。
▲3▼ ▲2▼において並べた順に、先頭の個体から、1番目の個体を第1集団に含め、2番目の個体を第2集団へ、…、p番目の個体を第p集団へ、p+1番目の個体を第1番目の集団へ、2p(すなわち、p+p)番目の個体を第p集団へ、…と、全ての集団へ順次個体を振り分ける。
すなわち、この振り分け方法は、p(X,Y,Z)と、このピクセル値に対応する各係数および定数を選択して組み合わせて演算されたp(X,Y,Z)とにより、差分関数fを求めて、差分関数値が小さい順にp個の各集団に順次振り分けていく。
例えば、係数および定数の数が合計n個ある場合、p個の集団に、各々「2n+1」個の個体群を振り分ける。
▲4▼ 各集団毎に独立させて、CCE(Conditional Class Entropy)アルゴリズムにより、個体群の進化を行わせる。
上記CCEアルゴリズムにおいては、差分関数fの差分関数値が高い個体を、より差分関数値の低い個体とするよう、係数および定数を変化させて、各個体を進化させてゆく。
▲5▼ 最終的に、p個の集団を、すなわち全集団を1つにまとめて、全集団に含まれていた全個体を、再度、差分関数値の低い順番に並べ替えて、この全個体の内の最も優れた個体の差分関数値が、予め設定された収束判定値の範囲内になるか、または、係数および定数の最適化処理の繰り返し回数が予め設定された繰り返し設定値となるか、のいずれかに対応するまで、▲3▼〜▲5▼を繰り返して、係数および定数の最適化処理を行う。
【0048】
次に、誤差量演算部4が誤差量u,v,wの算出に用いている(1),(2)及び(3)式を、下記に示す各々(1’),(2’)及び(3’)に換えて、誤差量u,v,wを算出する場合について説明する。
【数5】
Figure 2004132944
【数6】
Figure 2004132944
【数7】
Figure 2004132944
【0049】
これら(1’),(2’)及び(3’)式は、(1),(2),(3)式各々に対して、フーリエ級数の項に、複数の座標軸における誤差の影響を含ませたものである。
(1’),(2’)及び(3’)式各々において、Mu,Mv,Mw及びNu,Nv,Nwは各々整数値で問題により適宜設定する定数であり、ωは基本周波数であり、同様に問題により適宜設定する定数である。
また、αijk,βijk,γijkは、i,j,kが異なれば、異なる変数として定義され、GA等の最適化アルゴリズムにより、差分関数から求められる差分関数値が最小となるように決定される変数である。
そして、au13(k1,k2,k3),av13(k1,k2,k3),aw13(k1,k2,k3)等も、k1,k2,k3が異なれば、異なる変数として定義され、GA等の最適化アルゴリズムにより、差分関数から求められる差分関数値が最小となるように決定される変数である。
このため、(1’),(2’)及び(3’)式を用いることにより、各々の座標軸方向の変位に対して、他座標軸方向からの影響、すなわち補正量を含ませることとなり、(1),(2),(3)式を用いた場合に比較して、誤差量u,v,wを算出する際に、より精度の高いシミュレーションが行える。
【0050】
上述した本願発明の製造誤差評価システムを用いることにより、従来、NC加工機6で切削加工を行った部品の誤差評価が長さの単位でしか行えず、複雑な加工形状を有する部品の加工において、高い精度で各座標値における誤差量を得ることができなかったものが、座標値に対応した誤差量を演算する誤差関数を用いることにより、3次元CADデータの任意の座標値において、加工の結果生じる誤差量を高い精度で演算して得ることができ、この誤差量を3次元CADデータにフィードバックすることにより、予め発生する誤差量を予測した3次元CADデータを生成することが可能となり、従来に比較して高い精度で部品の加工及び製造を行うことが可能となる。
【0051】
すなわち、本願発明の製造誤差評価システムを用いることにより、複雑な加工形状をした部品について、その加工及び製造に付随する形状の誤差を、X線CT装置1から得られた実透視画像に基づく3次元の実ボクセルモデルと、CADシステム5の3次元CADデータから得られるCADボクセルモデルとの比較により、誤差量演算部4が座標値に対応した誤差量を演算する誤差関数を求め、座標値毎に数値的に誤差量を評価することができるので、部品の各部における誤差量を3次元空間で定量的に表すことが可能となり、その誤差量を修正するためのフィードバック情報として座標値修正データを、CADシステム5に戻し、設計時の3次元CADデータと誤差量とから加工時に発生する誤差をあらかじめ推定した3次元CADデータを新たに生成し、この推定した3次元CADデータをNC加工機6へ出力して、的確に誤差量をフィードバックさせることで、CADシステム5で設計した部品の形状(実際に必要な寸法として設計されたCADデータ;つまり、設計時のCADデータ)に、NC加工機6による部品の加工形状を高い精度で近づけることができる。
【0052】
なお、上記した本発明の実施形態においては、製造誤差評価システムにおいて実行される手順をコンピュータ読取り可能な記録媒体に記録し、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより本発明の製造誤差評価システムが実現されるものとする。ここでいうコンピュータシステムとは、OSや周辺機器等のハードウアを含むものである。
【0053】
更に、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のシステムやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
【0054】
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
【0055】
以上、本発明の一実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等があっても本発明に含まれる。
【0056】
【発明の効果】
本発明の製造誤差評価システムによれば、複雑な加工形状をした部品について、その加工及び製造に付随する形状の誤差を、X線CTから得られた3次元ボクセルモデルと、3次元CADデータから得られる3次元ボクセルモデルとのピクセルの階調度の分布状態の比較を数値的に評価することができ、部品の各部における誤差量を3次元空間で定量的に表すことが可能となるため、その誤差量をフィードバック情報として、製造・加工機器に的確に供給することができるので、加工後の部品の形状を、CADで設計した3次元CADデータに、高い精度で近づけることができる。
【図面の簡単な説明】
【図1】本発明の一実施形態による製造誤差評価システムの構成例を示すブロック図である。
【図2】図1のX線CT装置1の構成を示す概念図である。
【図3】図1における誤差量演算部4の誤差量算出の動作例を示すフローチャートである。
【図4】実透視画像とCAD透視画像とにより、設計時の部品の形状と加工された部品の形状の比較を示す概念図である。
【図5】実透視画像とCAD透視画像とにより、設計時の部品の形状と加工された部品の形状の比較を示す概念図である。
【図6】誤差量演算部4における各ピクセル値P(X,Y,Z)の値の算出方法の説明を行う概念図である。
【符号の説明】
1 X線CT装置
2 画像処理装置
3 画像記憶部
4 誤差量演算部
5 CADシステム
6 NC加工機
11 X線管
12 X線
13 X線検出装置
14 被試験体[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention reduces processing and manufacturing errors based on an error amount obtained by comparing three-dimensional CAD (Computer Aided Design) data at the time of design with a three-dimensional perspective image obtained by X-rays and the like after processing and manufacturing. Also, the present invention relates to a manufacturing error evaluation system for performing processing corresponding to a design.
[0002]
[Prior art]
2. Description of the Related Art In recent years, when processing and manufacturing equipment, a design drawing is converted into three-dimensional data, that is, received as a so-called three-dimensional CAD data by a processing machine (for example, an NC (Numerical Control) machine tool) and a manufacturing machine (for example, a plastic molding machine). The processing and manufacturing are automatically performed, and the efficiency of the processing and manufacturing operations is improved.
However, in the actually processed and manufactured product, the dimensions of each part of the manufacturing and processing result are different from the three-dimensional CAD data, that is, processing errors and manufacturing errors in various processing and manufacturing always occur.
[0003]
Therefore, in order to improve the processing and manufacturing accuracy of the product, it is necessary to feed back the processing error and the manufacturing error, and adjust the setting of the processing dimensions of the processing machine and the manufacturing machine in accordance with each error.
Here, the conventional method of evaluating processing and manufacturing errors numerically evaluates how much the distance between two points differs between a dimension on a design drawing and a dimension of an actually processed and manufactured product. (A different amount is referred to as an error amount).
[0004]
For example, in FIG. 4, a solid line represents a surface to be machined as a design value (data of a machining dimension of CAD), and a broken line represents a surface actually machined by cutting with an NC machine.
The CAD data input to the NC processing machine is coordinate values of points set by discrete circles, and the intervals between the circles are sufficiently small in order to increase the processing accuracy. Needs to be set in fine units.
Further, the results of measuring the processed surface using X-ray CT or moiré after cutting by the NC processing machine are indicated by □ (for example, see Non-Patent Document 1).
[0005]
From the measurement results indicated by the □ marks, the amount of error is calculated by calculating the difference from the 印 marks, and the CAD data input to the NC processing machine is corrected for each coordinate value indicated by the 印 marks to process. Accuracy can be improved.
However, in order to correct the CAD data indicated by the 印 mark, it is necessary to associate the coordinate value of each □ mark with the coordinate value of the □ mark after processing.
Here, when a square part shown in FIG. 4 is machined and a machined surface is formed as shown by a broken line, it is possible to easily associate a circle with a square and evaluate an error with respect to thickness and width. Can be performed easily (part shape that can be evaluated for error by length).
[0006]
[Non-patent document 1]
Shizuka Kodo, Shino Himei, Hiroshi Arita, et al., Prceeding of 6th Symposium on "Microjoining and Assembly Technology in Electronics", 85-90.
[0007]
[Problems to be solved by the invention]
As described above, even in the conventional error evaluation regarding the length, if the component or product has a simple shape such as a square shown in FIG. 4, a processing error and a manufacturing error (hereinafter, the two are collectively regarded as a shape error) ) Can be quantitatively fed back to a manufacturing machine or a processing machine to some extent quantitatively.
However, in a part or product having a complicated shape, the distance between the two points differs depending on the selection of the two coordinate values, and a large numerical difference occurs in the shape error as an error amount. It cannot be easily used as a reference.
[0008]
For example, when processing a curved surface (or a complicated three-dimensional curved surface) shown in FIG. 5, which of the coordinate values of the 印 marks designated by the CAD data corresponds to the coordinate values of the □ marks after the processing. Identification cannot be performed easily.
In other words, in the conventional method of evaluating an error using a length, it is easy to specify which of two adjacent □ marks is the coordinate value after displacement as the coordinate value after displacement when the shape becomes complicated. Therefore, it is not possible to obtain an accurate error amount for each mark, and it is not possible to appropriately correct the coordinate value of the mark, ie, the CAD data.
[0009]
Therefore, it is difficult to obtain an error amount of each part having a complicated shape in the error evaluation regarding the length, and necessary and appropriate information (errors) for reducing the processing and manufacturing errors in processing and manufacturing the entire shape. ) Cannot be fed back to an NC machine or the like.
[0010]
The present invention has been made under such a background. With respect to parts and products having complicated shapes, dimensions in CAD data of design drawings and parts and products actually processed / manufactured by an NC processing machine or the like are described. It is possible to improve the machining and manufacturing accuracy by quantitatively evaluating the shape error (error amount) with the dimensions of each part in a three-dimensional space and feeding back the error evaluation result to the manufacturing / processing machine. A manufacturing error evaluation system is provided.
[0011]
[Means for Solving the Problems]
A manufacturing error evaluation system according to the present invention includes an X-ray CT apparatus that has an X-ray source and a plurality of X-ray detectors and collects X-ray data on a cross section of a test object. An image processing unit that generates a three-dimensional perspective image of the body; three-dimensional CAD data that is design data of the test object; and a three-dimensional perspective image of the test object that is processed based on the three-dimensional CAD data. The image storage unit and each pixel of the three-dimensional CAD data are moved by a predetermined operation, the shapes of the three-dimensional CAD data and the three-dimensional perspective image are matched, and the displacement due to the movement of the pixels of the three-dimensional CAD data is changed by an error. And an error amount calculating unit for obtaining the amount.
[0012]
In the manufacturing error evaluation system according to the present invention, the error amount calculation unit moves each pixel of the three-dimensional CAD data while sequentially changing a coefficient and a constant of the predetermined calculation expression, thereby obtaining the three-dimensional CAD. The data and the three-dimensional perspective image are matched in shape.
In the manufacturing error evaluation system according to the present invention, the error amount calculation unit compares the gradient of each pixel between the three-dimensional perspective image and the three-dimensional CAD data after the movement, and determines whether the distribution of the gradient is the same. It is characterized in that it is determined whether the shapes of the three-dimensional CAD data and the three-dimensional perspective image match.
[0013]
A manufacturing error evaluation method according to the present invention includes a data collection step of collecting X-ray data relating to a cross section of a test object from an X-ray CT apparatus having an X-ray source and a plurality of X-ray detectors; An image processing process in which a three-dimensional perspective image of the test object is generated based on the three-dimensional CAD data, three-dimensional CAD data that is design data of the test object, and the three-dimensional CAD data processed based on the three-dimensional CAD data The image storing process in which the three-dimensional perspective image is stored in the image storage unit, and moving each pixel of the three-dimensional CAD data by a predetermined operation to match the shapes of the three-dimensional CAD data and the three-dimensional perspective image, And calculating an error amount in manufacturing based on the pixel movement amount.
[0014]
In the manufacturing error evaluation method of the present invention, the three-dimensional CAD data and the three-dimensional perspective image can be obtained by moving each pixel while sequentially changing coefficients and constants of the predetermined arithmetic expression in the error amount calculating process. Are matched.
In the manufacturing error evaluation method according to the present invention, the three-dimensional CAD data and the three-dimensional CAD data are associated with each other in the three-dimensional perspective image and the three-dimensional CAD data after the movement in the error amount calculation process based on each gradient. It is characterized in that the matching of the shape with the perspective image is determined.
[0015]
A manufacturing error evaluation program according to the present invention includes a data collection process for collecting X-ray data relating to a cross section of a test object from an X-ray CT apparatus having an X-ray source and a plurality of X-ray detectors; Image processing for generating a three-dimensional perspective image of the test object based on the three-dimensional CAD data, which is design data of the test object, and three-dimensional CAD data processed based on the three-dimensional CAD data. An image storage process in which a three-dimensional perspective image is stored in an image storage unit, and each pixel of the three-dimensional CAD data is moved by a predetermined operation so that the shapes of the three-dimensional CAD data and the three-dimensional perspective image are matched to each other. And an error amount calculation process for obtaining an error amount in manufacturing based on the movement amount of the computer.
A recording medium of the present invention is a computer-readable recording medium on which the above-described manufacturing error evaluation program is recorded.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
The present invention provides a three-dimensional fluoroscopic image (hereinafter referred to as a CAD fluoroscopic image) of a test object (a part or product designed by CAD) based on CAD data in which a design drawing is three-dimensionalized in advance, and an X-ray CT image from an X-ray CT apparatus. An actually processed (manufactured) three-dimensional perspective image (hereinafter referred to as an actual perspective image) of the test object generated from X-ray data based on the transmission intensity of the line is prepared.
Hereinafter, the manufacturing error evaluation system of the present invention will be described using a three-dimensional fluoroscopic image obtained by using an X-ray CT apparatus.
However, the present invention is not limited to the X-ray CT apparatus, and it is also possible to use a three-dimensional perspective image of a processed part by an MRI (magnetic resonance image) or an ultrasonic apparatus. Here, a CAD voxel model and a real voxel model are generated as three-dimensional voxel models of the CAD fluoroscopic image and the real fluoroscopic image, respectively.
Then, the error amount calculation unit 4 described later performs coordinate conversion of each pixel using a predetermined calculation expression, and converts each pixel of the CAD voxel model to a distribution shape similar to the real voxel model, that is, a pixel of a gradient. Move three-dimensionally (spatially) until the distribution shapes match.
[0017]
At this time, until the CAD voxel model after the movement of the pixels by the coordinate transformation and the actual voxel model have the same pixel distribution shape with the same gradient, the numerical values of the coefficients and the constants of the arithmetic expression are sequentially changed. Simulation (three-dimensional movement of pixels by coordinate transformation based on a predetermined arithmetic expression) is performed.
That is, when the distribution shape of the pixels having the same gradient in the CAD voxel model after the movement and the actual voxel model match or substantially match, the error amount calculation unit 4 calculates the actual voxel model and each pixel. Is assumed to match the shape of the CAD fluoroscopic image to which is moved.
Here, “substantially coincident” means that, in advance, in the CAD voxel model and the actual voxel model, the ratio of pixels that have been matched by coordinate transformation with respect to the number of pixels in each image is set. It will be shown.
[0018]
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of a manufacturing error evaluation system according to an embodiment of the present invention. In this figure, the manufacturing error evaluation system of the present invention includes at least an X-ray CT apparatus 1, an image processing unit 2, an image storage unit 3, and an error amount calculation unit 4.
The X-ray CT apparatus 1 irradiates an X-ray to the device under test and outputs X-ray data based on the intensity of the X-ray transmitted through the device under test, that is, the transmission intensity.
[0019]
Next, the configuration of the X-ray CT apparatus 1 will be briefly described with reference to FIG. FIG. 2 is a conceptual diagram illustrating a configuration example of the X-ray CT apparatus.
The X-ray CT apparatus 1 has an X-ray tube 11 that emits X-rays and an X-ray detector 13 that detects the intensity of the X-rays at opposing positions, and a test object 14 (according to three-dimensional CAD data). The parts processed by the NC processing machine 6) are fixed between the X-ray tube 11 and the X-ray detector 13 by a fixing device (not shown).
[0020]
The fixing device is capable of rotating the device under test along the body axis of the device under test 14 in the R direction within an angle range of 360 °.
Here, since the X-ray tube 11 radiates the X-rays 12 spreading in a fan shape, the fixing device controls the X-ray tube 11 and the X-rays so that the X-rays 12 spreading in the fan shape become the width of the test object 14. The position of the detector 13 is adjusted.
The X-ray detector 13 measures, for example, the X-ray intensity of the X-rays 12 transmitted through the DUT 14 at the section 14 n of the DUT 14.
[0021]
The fixing device is movable in the Z1 direction or the Z2 direction along the body axis.
The X-ray CT apparatus 1 controls the rotation and the vertical movement of the fixing device, and measures the X-ray intensity of the X-rays 12 transmitted through the DUT 14 while rotating and moving the DUT 14. Do.
At this time, the X-ray CT apparatus 1 measures the X-ray intensity of the X-rays 12 transmitted through the DUT 14 with respect to the DUT 14.
The X-ray CT apparatus may have any configuration as long as a three-dimensional fluoroscopic image can be obtained.
[0022]
Returning to FIG. 1, with the configuration described above, the X-ray CT apparatus 1 outputs the X-ray data of the cross section of the test object (the test object 14 in FIG. 2).
Then, the image processing unit 2 accumulates the X-ray data (X-ray fluoroscopic image) output from the X-ray CT apparatus 1 during the rotation of the device under test by 360 °, and reproduces the accumulated X-ray data. By performing the configuration calculation, a cross section of the test object, that is, a tomographic image of the test object perpendicular to the body axis is generated.
[0023]
Further, the image processing unit 2 superimposes the tomographic images obtained by synchronously moving the tomographic images along the body axis in the Z1 direction or the Z2 direction at minute intervals in the body axis direction, and A two-dimensional perspective image (that is, an actual perspective image) is generated.
At this time, the X-ray CT apparatus causes the image processing unit 2 to generate a real fluoroscopic image by the above-described processing.
Further, the image processing 2 stores the obtained real fluoroscopic image in the image storage unit 3 and displays the real fluoroscopic image on a display screen of an image display device (not shown).
[0024]
The CAD system 5 generates three-dimensional CAD data, which is three-dimensional design data of a part, used for processing of the part by the NC processing machine 6 by an operator's design process.
Further, the CAD system 5 generates a CAD fluoroscopic image, which is a three-dimensional image showing the shape of the part at the time of completion from the three-dimensional CAD data, and transmits the CAD fluoroscopic image to the image storage unit 3 together with the three-dimensional CAD data. Write and register (store). The NC processing machine 6 reads the three-dimensional CAD data from the image storage unit 3 and performs, for example, cutting of a part based on the three-dimensional CAD data.
[0025]
Hereinafter, the arithmetic expression and algorithm of the arithmetic performed by the error amount arithmetic unit 4 will be described with reference to FIG. FIG. 3 is a flowchart showing an operation example of the error amount calculation of the error amount calculation unit 4.
In step S1, the image processing unit 2 reads the CAD perspective image and the actual perspective image from the image storage unit 3, and converts each three-dimensional perspective image to a predetermined image size (for example, “ The gradient of each pixel is extracted with the resolution expressed by “number of pixels / unit volume”, and a three-dimensional image (three-dimensional voxel model) composed of a distribution of pixel values indicating the gradient of each pixel is generated. .
[0026]
At this time, in each of the CAD perspective image and the actual perspective image, the image processing unit 2 normalizes the gradient of the pixels of the entire image using the gradient of the maximum value in the contour and the like.
For example, when the gradient is r and the standardization is 0 ≦ r ≦ 1, the maximum gradient is expressed as “1”.
Thereby, the pixels of the CAD voxel model are moved, and the distribution of the gradient of each pixel is compared with the distribution of the gradient of the pixels of the actual voxel model. In, it becomes easy to associate each pixel.
[0027]
Here, in the three-dimensional voxel model generated from the CAD perspective image (hereinafter, CAD voxel model), the gradient of each pixel at the position indicated by the coordinates of x, y, and z is represented by a pixel value p (x, y, z). ), And in a three-dimensional voxel model generated from an actual perspective image (hereinafter, an actual voxel model), the gradient of each pixel at a position indicated by x, y, and z coordinates is represented by a pixel value P (x, y, z).
[0028]
Next, in step S2, the error amount calculation unit 4 calculates the error amount u in each of the x, y, and z directions of each pixel by using the following Expressions (1), (2), and (3). (X, y, z), v (x, y, z), and w (x, y, z) are obtained.
At this time, the coefficient a used in each of the equations (1), (2), and (3) (error function) um ~ J wm , Constant p u ~ R w Is a temporary value.
Here, the tentative value is a coefficient a in the above-described equations (1) to (3) obtained for a part that is considered to have a similar shape among other parts for which error evaluation has already been completed. um ~ J wm , Constant p u ~ R w Is a substitute value.
(Equation 1)
Figure 2004132944
(Equation 2)
Figure 2004132944
[Equation 3]
Figure 2004132944
[0029]
In each of the equations, the first term (braces) in each square bracket is a Fourier series indicating the periodicity of the error of the device under test 14, and the second term indicates the power-like error amount. And the third term is the above constant.
The Fourier series of the first term corresponds to the periodicity of the error of the device under test 14. The above-described provisional values of the coefficients and constants are considered to be somewhat close to actual values (corresponding to the above-described error function), such as values previously obtained by error evaluation of parts having similar materials and processed shapes. The value is used.
[0030]
Next, in step S3, the error amount calculator 4 calculates the error amount u (x, y, z) obtained from the operation (predetermined operation) using the error function of the equations (1), (2), and (3). , V (x, y, z), w (x, y, z) to move each pixel. A numerical value in which each coordinate value is displaced by the movement by the coordinate conversion is set as an error amount.
In other words, by moving p (x, y, z) based on the error amounts u, v, w, the pixel matching the position of (x, y, z) becomes (x + u, y + v, z + w) Move to the position, that is, p (x, y, z) becomes p (x + u, y + v, z + w).
[0031]
This pixel value p (x + u, y + v, z + w) is converted to a pixel value p * (X, Y, Z). Here, X = x + u, Y = y + v, and Z = z + w.
Then, the error amount calculation unit 4 performs the above-described process of moving the pixel in the three-dimensional coordinates for each pixel constituting the CAD voxel model.
Where the pixel value p * (X, Y, Z) is a virtual voxel model of the sample after processing obtained by the error amount calculation unit 4, that is, a CAD voxel model (simulation voxel model) after movement as a simulation result.
[0032]
Next, in step S4, the error amount calculator 4 calculates the pixel value P (X, Y, Z) at the coordinate value (X, Y, Z) in the real voxel model and the pixel value p. * Comparison of the numerical value with (X, Y, Z) is performed for each coordinate value in the actual voxel model.
That is, the error amount calculator 4 calculates the pixel value P (X, Y, Z) at each coordinate value of the real voxel model and the pixel value p at each coordinate value of the CAD voxel model after the movement. * It is determined whether or not the numerical value of (X, Y, Z) matches (or has a predetermined range and includes substantially the same).
[0033]
Here, the error amount calculation unit 4 calculates the pixel value P (X, Y, Z) at each coordinate value of the actual voxel model and the pixel value p at each coordinate value of the CAD voxel model after movement. * When the numerical value of (X, Y, Z) matches (the movement amount of the CAD voxel model pixel corresponds to the error amount), each coefficient a un ~ J wm And the constant p u ~ R w Is output and the process ends, but if they do not match, the process proceeds to step S5.
At this time, the error amount calculation unit 4 calculates the pixel value P (x, y, z) by shifting the pixel value P (x, y, z) with respect to the pixel value of the entire voxel model by the following equation (4) which is a difference function. (X, Y, Z) and p * The difference from (X, Y, Z) is summed, normalized by 255 (gradation) × M, and output as a difference function f.
(Equation 4)
Figure 2004132944
Here, M is the total number of voxels, and Σ indicates that the sum is calculated for all the voxels in the image.
Each time the difference function value of the difference function f is obtained, the error amount calculation unit 4 sequentially compares the difference function value with the previous value of f to determine the valley of the difference function value (the point where the difference function value is the smallest, that is, ) Is detected, and this point is defined as a point where the gradient of each pixel value of the entire voxel model matches.
[0034]
Next, in step S5, the error amount calculation unit 4 sets each coefficient a un ~ J wm And the constant p u ~ R w Is changed sequentially by an optimization method such as a non-linear programming method by an operation according to the algorithm.
Then, the error amount calculation unit 4 calculates the changed coefficient a un ~ J wm And the constant p u ~ R w Then, the process returns to step S2 to obtain new error amounts u (x, y, z), v (x, y, z), and w (x, y, z).
[0035]
As described above, the error amount calculation unit 4 calculates the pixel value P (X, Y, Z) at each coordinate value of the real voxel model and the pixel value p at each coordinate value of the CAD voxel model after movement. * Until the numerical value of (X, Y, Z) matches, the processing from step S2 to step S5 is repeated.
Then, the error amount calculation unit 4 finally calculates the pixel value P (X, Y, Z) at each coordinate value of the actual voxel model and the pixel value p at each coordinate value of the CAD voxel model after the movement. * When the numerical values of (X, Y, Z) match (the gradations match), each coefficient a at this time is un ~ J wm And the constant p u ~ R w Is output.
[0036]
Accordingly, the error amount calculation unit 4 calculates each coefficient a in the equations (1) to (3). un ~ J wm And the constant p u ~ R w Is obtained, the equations (1) to (3) are used as an error function for calculating an error amount in each coordinate value between each CAD voxel model and the actual voxel model.
That is, in the above-mentioned error function, the difference (error amount) between the coordinate values of the mark and the mark (actual voxel model) on the machined surface shown in FIG. Expressed as a function.
[0037]
Next, in step S6, the error amount calculation unit 4 calculates an error amount corresponding to each coordinate value based on the coordinate value (x, y, z) of the predetermined CAD voxel model. Thus, the error amount calculation unit 4 can three-dimensionally calculate the error amount between the CAD voxel model and the actual voxel model based on the arbitrarily input coordinate values in the CAD voxel model by the error function. it can.
[0038]
Here, the coordinate value data arbitrarily input is coordinate values in the three-dimensional CAD data.
Then, the error amount calculation unit 4 multiplies the error amount obtained for each coordinate value by “−1” and inputs the result of the multiplication to the CAD system 5 to correct the coordinate value of the CAD voxel model. Output as data.
Here, the reason why the error amount is multiplied by “−1” is that the error amount generated after machining is canceled in advance by adding the coordinate value to the coordinate value of the three-dimensional CAD data.
[0039]
Next, in step S7, the error amount calculator 4 outputs the coordinate correction data to the CAD system 5.
Thus, the CAD system 5 corrects the three-dimensional CAD data of the corresponding component based on the input coordinate correction data.
That is, the CAD system 5 corrects the three-dimensional CAD data by adding the input coordinate correction data to the corresponding coordinate values in the three-dimensional CAD data.
[0040]
Then, the CAD system 5 outputs the corrected three-dimensional CAD data to the NC processing machine 6 by the above-described correction processing based on the error amount.
Thus, the NC processing machine 6 replaces the three-dimensional processing data used for processing the part with the input corrected three-dimensional CAD data, and uses the corrected three-dimensional data to perform subsequent parts processing. Perform processing.
[0041]
Therefore, based on the corrected three-dimensional CAD data, the shape of the processed surface of the processed part is generated by the original design in the CAD system 5 (before correction by the error amount), that is, the surface to be processed. It will be processed into a shape close to.
In addition, by repeating the processing of the flowchart of FIG. 3 a plurality of times, the accuracy of calculating the error amount of the error function is further improved, and the shape of the part processed by the NC processing machine is made closer to the shape originally designed by CAD. Becomes possible.
[0042]
In the above step S3, each pixel value P * A method for obtaining the value of (X, Y, Z) will be described below.
First, the error amount calculation unit 4 creates a spatial grid corresponding to each pixel in the voxel model shown in FIG. 6A, and, as shown in FIG. Assign each to the center of gravity.
Then, the error amount calculation unit 4 moves the center of gravity to the state shown in FIG. 6C by using the calculated “u, v, w” (move the center of gravity by deformation mapping, (Mapping, x = D (X))). The center of gravity after movement (hereinafter referred to as “moved points (Mapped Points): black circles)” and the center of gravity of the spatial fixed grid constituting the deformed image (hereinafter referred to as “corresponding points (Fixed Points): white circles)” are shown in FIG. As you can see, they generally do not match.
Next, the error amount calculation unit 4 finally generates a simulation voxel model as shown in FIG. 6D by allocating the pixel value of the moving point to the corresponding point for each spatial fixed grid. I do.
[0043]
Therefore, the pixel value of the corresponding point of each spatial fixed grid is determined from the pixel value of each moving point under the following conditions.
Basically, in the present embodiment, the pixel value of the moving point that is closest to each corresponding point is set as the pixel value of the corresponding point, and the eight nearest neighbors based on the nearest neighbor interpolation method are used. The approximation method is used.
That is, when the moving point moves into the spatial fixed grid including the corresponding point and the moving point is one in the spatial fixed grid, the error amount calculating unit 4 determines the pixel value of the moving point as the pixel value of the corresponding point. When there are a plurality of moving points in the spatial fixed grid, the average value of the pixel values of these moving points is calculated, and this average value is set as the pixel value of the corresponding point.
[0044]
If there is no moving point in the space fixed grid of the corresponding point, a search is performed in eight neighboring grids in a 3 × 3 grid around the moving point.
At this time, if there is no moving point in the surrounding 3 × 3 grid, the pixel value is set to “0”. If there is a moving point, the moving point closest to the position of the corresponding point among the moving points is set. Let the pixel value be the pixel value of this corresponding point.
The above description has been made in two dimensions for the sake of simplicity, but in the case of three dimensions, if there is no moving point in the space fixed grid, 26 grids in the 3 × 3 × 3 grid around the neighboring grid Then, a search for a moving point is performed, and the grid point of the corresponding point is determined by the same method as that for the 8-neighbor grid.
[0045]
Next, a description will be given of how to calculate the numerical values of each coefficient and each constant in step S5.
As described above, in step S5, the error amount calculation unit 4 determines, as described above, each coefficient a un ~ J wm And the constant p u ~ R w Is changed sequentially by an optimization method such as a non-linear programming method by an operation according to the algorithm.
Here, since the voxel values are discrete values and the discrete image processing is performed based on the nearest neighbor approximation, the sensitivity information of the objective function (the degree of change of the numerical value f corresponding to the amount of change of each coefficient and constant) ) Can not get.
[0046]
Therefore, in the present embodiment, the error amount calculation unit 4 performs the minimization processing of the difference function f by a discrete optimization method such as a genetic algorithm (Genetic Algorithm) or the like (algorithms a) and b) described below). Do.
a) When using a genetic algorithm
For example, it is assumed that the error amount calculation unit 4 assigns an 8-bit binary as the data capacity of a variable and a constant, and has 256 levels of numerical values for each variable and constant.
The 256-step numerical value is obtained by dividing a predetermined range (the number of pixels and dimensions of the voxel model, etc.), which is assumed as a deformation range (as a search range) in advance, into 255.
Then, as conditions for the simulation of the genetic algorithm, each individual is selected from the above variables and constants in the error amount calculation unit 4 and configured as 1000 combinations.
Genetic manipulation to change the combination of each individual included uniform crossover (crossover rate 75%), linear ranking selection, elite strategy, and mutation (mutation rate 1.0%).
[0047]
b) SCE-UA (Shuffled Complex Evolution Method developed at the University Arizona) method
This SCE-UA method adopts an evolution method similar to a genetic algorithm, and can set a search area for a solution having a physical meaning. In addition, during the calculation, it evolves independently in a plurality of populations. When a solution is obtained, it is characterized in that no solution or divergence occurs and a solution is always obtained.
That is, the SCE-UA method is an optimization method based on band search that combines the concepts of competitive evolution and group mixing. The calculation procedure is briefly described below.
(1) Decision variable (coefficient a in equations (1) to (3)) un ~ J wm And the constant p u ~ R w Or the variable a in the equations (1 ′) to (3 ′) u13 (K 1 , K 2 , K 3 )), The number n of groups, the number p of groups, and the number m of individuals in each group (= 2n + 1) are set, and each individual is regarded as a point on an n-dimensional space having coordinate values of decision variables.
For example, when there are a total of n coefficients and constants, “2n + 1” individual groups are assigned to p groups.
{Circle around (2)} As the initial generation, each decision variable value is given at random, and for example, individuals are arranged in ascending order of the difference function value of the difference function of the equation (4).
(3) In the order arranged in (2), from the first individual, the first individual is included in the first group, the second individual is included in the second group, ..., the p-th individual is included in the p-th group, and p + 1 Individuals are sequentially allocated to all groups, such as the second individual to the first population, the 2p (ie, p + p) th individual to the p-th population, and so on.
That is, in this sorting method, p (X, Y, Z) and p, calculated by selecting and combining each coefficient and constant corresponding to this pixel value, are used. * With (X, Y, Z), a difference function f is obtained, and is sequentially allocated to each of the p groups in ascending order of the difference function value.
For example, when there are a total of n coefficients and constants, “2n + 1” individual groups are assigned to p groups.
{Circle around (4)} The population is independently evolved by the CCE (Conditional Class Entropy) algorithm independently for each group.
In the above CCE algorithm, each individual is evolved by changing coefficients and constants so that an individual having a higher differential function value of the differential function f is an individual having a lower differential function value.
{Circle around (5)} Finally, the p groups, that is, all the groups are put together into one, and all the individuals included in the entire group are rearranged again in ascending order of the difference function value. Is the difference function value of the best individual within the range of the preset convergence determination value, or the number of repetitions of the optimization process of the coefficient and the constant is the preset repeat set value And (3) to (5) are repeated until the coefficients correspond to any of the above.
[0048]
Next, the equations (1), (2) and (3) used by the error amount calculator 4 for calculating the error amounts u, v and w are expressed by the following equations (1 ′), (2 ′) and (2 ′), respectively. The case of calculating the error amounts u, v, w instead of (3 ′) will be described.
(Equation 5)
Figure 2004132944
(Equation 6)
Figure 2004132944
(Equation 7)
Figure 2004132944
[0049]
Equations (1 ′), (2 ′), and (3 ′) include, for each of equations (1), (2), and (3), the effects of errors in a plurality of coordinate axes in the terms of the Fourier series. It was not.
In each of the equations (1 ′), (2 ′) and (3 ′), Mu, Mv, Mw and Nu, Nv, Nw are integer values, and are constants appropriately set according to a problem, ω is a fundamental frequency, Similarly, the constant is appropriately set depending on the problem.
Also, α ijk , Β ijk , Γ ijk Is a variable that is defined as a different variable when i, j, and k are different, and is determined by an optimization algorithm such as GA so as to minimize the difference function value obtained from the difference function.
And a u13 (K1, k2, k3), a v13 (K1, k2, k3), a w13 (K1, k2, k3) and the like are defined as different variables when k1, k2, and k3 are different, and are determined by an optimization algorithm such as GA so that the difference function value obtained from the difference function is minimized. Variable.
Therefore, by using the equations (1 ′), (2 ′) and (3 ′), the displacement in each coordinate axis direction includes the influence from other coordinate axis directions, that is, the correction amount. Compared to the case where the equations (1), (2) and (3) are used, a more accurate simulation can be performed when calculating the error amounts u, v and w.
[0050]
By using the above-described manufacturing error evaluation system of the present invention, it is possible to evaluate an error of a part that has been cut by the NC processing machine 6 only in units of length, and to process a part having a complicated processing shape. Although the error amount in each coordinate value could not be obtained with high accuracy, the processing of the arbitrary coordinate value of the three-dimensional CAD data was performed by using the error function for calculating the error amount corresponding to the coordinate value. The resulting error amount can be calculated and obtained with high accuracy, and by feeding back this error amount to the three-dimensional CAD data, it becomes possible to generate three-dimensional CAD data in which the error amount generated in advance is predicted. Processing and manufacturing of parts can be performed with higher precision than before.
[0051]
That is, by using the manufacturing error evaluation system of the present invention, for a component having a complicated processing shape, the error of the shape accompanying the processing and manufacturing is calculated based on the actual fluoroscopic image obtained from the X-ray CT apparatus 1. By comparing the three-dimensional real voxel model with the CAD voxel model obtained from the three-dimensional CAD data of the CAD system 5, the error amount calculator 4 calculates an error function for calculating the error amount corresponding to the coordinate value, and Since the error amount can be evaluated numerically, the error amount in each part of the component can be quantitatively represented in a three-dimensional space, and coordinate value correction data is used as feedback information for correcting the error amount. , Returning to the CAD system 5, and three-dimensional CAD data in which an error generated during machining is estimated in advance from the three-dimensional CAD data at the time of design and the amount of error. By newly generating and outputting the estimated three-dimensional CAD data to the NC processing machine 6 and accurately feeding back the error amount, the shape of the part designed by the CAD system 5 (designed as an actually required dimension) (Ie, CAD data at the time of design), the machining shape of the part by the NC machine 6 can be approximated with high accuracy.
[0052]
In the embodiment of the present invention described above, the procedure executed in the manufacturing error evaluation system is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read and executed by the computer system. As a result, the manufacturing error evaluation system of the present invention is realized. The computer system here includes an OS and hardware such as peripheral devices.
[0053]
Further, the "computer system" includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, and a storage device such as a hard disk built in a computer system. Further, the “computer-readable recording medium” is a system such as a volatile memory (RAM) in a computer system which is a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. In addition, those that hold programs for a certain period of time are also included.
[0054]
Further, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting a program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
[0055]
As described above, one embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and there are design changes and the like within a range not departing from the gist of the present invention. Are also included in the present invention.
[0056]
【The invention's effect】
According to the manufacturing error evaluation system of the present invention, for a part having a complicated processing shape, a shape error accompanying the processing and manufacturing is calculated from a three-dimensional voxel model obtained from X-ray CT and three-dimensional CAD data. The comparison of the distribution state of the gradient of the pixel with the obtained three-dimensional voxel model can be numerically evaluated, and the error amount in each part of the component can be quantitatively represented in the three-dimensional space. Since the error amount can be accurately supplied to the manufacturing / processing equipment as feedback information, the shape of the processed part can be brought close to the three-dimensional CAD data designed by CAD with high accuracy.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a manufacturing error evaluation system according to an embodiment of the present invention.
FIG. 2 is a conceptual diagram showing a configuration of the X-ray CT apparatus 1 of FIG.
FIG. 3 is a flowchart illustrating an example of an operation of calculating an error amount by an error amount calculation unit 4 in FIG.
FIG. 4 is a conceptual diagram showing a comparison between the shape of a part at the time of design and the shape of a processed part using an actual perspective image and a CAD perspective image.
FIG. 5 is a conceptual diagram showing a comparison between the shape of a part at the time of design and the shape of a processed part using an actual perspective image and a CAD perspective image.
FIG. 6 shows each pixel value P in the error amount calculation unit 4. * It is a conceptual diagram explaining the calculation method of the value of (X, Y, Z).
[Explanation of symbols]
1 X-ray CT system
2 Image processing device
3 Image storage unit
4 Error calculation unit
5 CAD system
6 NC processing machine
11 X-ray tube
12 X-ray
13 X-ray detector
14 DUT

Claims (8)

X線源と複数のX線検出器とを有し、被試験体の断面に関するX線データを収集するX線CT装置と、
前記X線データに基づき被試験体の3次元透視画像を生成する画像処理部と、
被試験体の設計データである3次元CADデータ,及びこの3次元CADデータに基づき加工された前記被試験体の3次元透視画像を記憶する画像記憶部と、
この3次元CADデータの各ピクセルを所定の演算により移動させ、この3次元CADデータと3次元透視画像との形状を一致させ、3次元CADデータのピクセルの移動による変位を誤差量として求める誤差量演算部と
を有することを特徴とする製造誤差評価システム。
An X-ray CT apparatus having an X-ray source and a plurality of X-ray detectors, and collecting X-ray data on a cross section of the test object;
An image processing unit that generates a three-dimensional perspective image of the test object based on the X-ray data;
An image storage unit that stores three-dimensional CAD data that is design data of the test object and a three-dimensional perspective image of the test object that is processed based on the three-dimensional CAD data;
Each pixel of the three-dimensional CAD data is moved by a predetermined operation, the shape of the three-dimensional CAD data is matched with the shape of the three-dimensional perspective image, and an error amount for obtaining a displacement due to the movement of the pixel of the three-dimensional CAD data as an error amount. A manufacturing error evaluation system, comprising: a calculation unit.
前記誤差量演算部が、前記所定の演算式の係数及び定数を逐次変更しつつ、前記3次元CADデータの各ピクセルの移動を行うことにより、前記3次元CADデータと前記3次元透視画像との形状を一致させることを特徴とする請求項1記載の製造誤差評価システム。The error amount calculation unit moves each pixel of the three-dimensional CAD data while sequentially changing the coefficients and constants of the predetermined calculation expression, so that the three-dimensional CAD data and the three-dimensional perspective image are compared. 2. The manufacturing error evaluation system according to claim 1, wherein the shapes are matched. 前記誤差量演算部が、前記3次元透視画像と移動後の3次元CADデータとにおける各ピクセル毎の階調度を比較し、階調度の分布が同様か否により、3次元CADデータと3次元透視画像との形状の一致を判定することを特徴とする請求項1または請求項2に記載の製造誤差評価システム。The error amount calculation unit compares the gradient of each pixel between the three-dimensional perspective image and the three-dimensional CAD data after moving, and determines whether or not the distribution of the gradient is the same. The manufacturing error evaluation system according to claim 1, wherein the matching of the shape with the image is determined. X線源と複数のX線検出器とを有したX線CT装置から、被試験体の断面に関するX線データを収集するデータ収集過程と、
前記X線データに基づいて、被試験体の3次元透視画像が生成される画像処理過程と、
被試験体の設計データである3次元CADデータ,及びこの3次元CADデータに基づき加工された前記被試験体の3次元透視画像が画像記憶部に記憶される画像記憶過程と、
この3次元CADデータの各ピクセルを所定の演算により移動させ、3次元CADデータと3次元透視画像との形状を一致させ、各ピクセルの移動量に基づき、製造における誤差量を求める誤差量演算過程と
を有することを特徴とする製造誤差評価方法。
A data acquisition step of acquiring X-ray data on a cross section of the test object from an X-ray CT apparatus having an X-ray source and a plurality of X-ray detectors;
An image processing step of generating a three-dimensional perspective image of the test object based on the X-ray data;
An image storage process in which three-dimensional CAD data as design data of the test object and a three-dimensional perspective image of the test object processed based on the three-dimensional CAD data are stored in an image storage unit;
Each pixel of the three-dimensional CAD data is moved by a predetermined operation, the shape of the three-dimensional CAD data and the shape of the three-dimensional perspective image are matched, and an error amount calculating process for obtaining an error amount in manufacturing based on the movement amount of each pixel. And a manufacturing error evaluation method.
前記誤差量演算過程において、前記所定の演算式の係数及び定数を逐次変更しつつ、各ピクセルの移動を行うことで、3次元CADデータと3次元透視画像との形状を一致させることを特徴とする請求項4に記載の製造誤差評価方法。In the error amount calculation step, the shape of the three-dimensional CAD data and the shape of the three-dimensional perspective image are matched by sequentially moving each pixel while sequentially changing the coefficients and constants of the predetermined calculation expression. The method for evaluating a manufacturing error according to claim 4. 前記誤差量演算過程において、3次元透視画像と移動後の3次元CADデータとにおける各ピクセルを各々の階調度に基づき対応させて、3次元CADデータと3次元透視画像との形状の一致を判定することを特徴とする請求項4または請求項5に記載の製造誤差評価方法。In the error amount calculation step, each pixel in the three-dimensional perspective image and the three-dimensional CAD data after movement are made to correspond to each other based on the respective gradients, and the shape coincidence between the three-dimensional CAD data and the three-dimensional perspective image is determined. The manufacturing error evaluation method according to claim 4, wherein the method is performed. X線源と複数のX線検出器とを有したX線CT装置から、被試験体の断面に関するX線データを収集するデータ収集処理と、
前記X線データに基づいて、被試験体の3次元透視画像が生成される画像処理と、
被試験体の設計データである3次元CADデータ,及びこの3次元CADデータに基づき加工された前記被試験体の3次元透視画像が画像記憶部に記憶される画像記憶処理と、
この3次元CADデータの各ピクセルを所定の演算により移動させ、3次元CADデータと3次元透視画像との形状を一致させ、各ピクセルの移動量に基づき、製造における誤差量を求める誤差量演算処理と
を有することを特徴とするコンピュータにより実行可能な製造誤差評価プログラム。
A data collection process of collecting X-ray data on a cross section of a test object from an X-ray CT apparatus having an X-ray source and a plurality of X-ray detectors;
Image processing for generating a three-dimensional perspective image of the test object based on the X-ray data;
Image storage processing in which three-dimensional CAD data as design data of the test object and a three-dimensional perspective image of the test object processed based on the three-dimensional CAD data are stored in an image storage unit;
Each pixel of the three-dimensional CAD data is moved by a predetermined calculation, the shape of the three-dimensional CAD data and the shape of the three-dimensional perspective image are matched, and an error amount calculation process for obtaining an error amount in manufacturing based on the movement amount of each pixel. And a computer-executable manufacturing error evaluation program.
請求項7に記載の製造誤差評価プログラムが記録されたコンピュータが読み取り可能な記録媒体。A computer-readable recording medium on which the manufacturing error evaluation program according to claim 7 is recorded.
JP2002366589A 2002-08-16 2002-12-18 System and method for evaluating manufacturing error and program for the same Pending JP2004132944A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002366589A JP2004132944A (en) 2002-08-16 2002-12-18 System and method for evaluating manufacturing error and program for the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002237459 2002-08-16
JP2002366589A JP2004132944A (en) 2002-08-16 2002-12-18 System and method for evaluating manufacturing error and program for the same

Publications (1)

Publication Number Publication Date
JP2004132944A true JP2004132944A (en) 2004-04-30

Family

ID=32301059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002366589A Pending JP2004132944A (en) 2002-08-16 2002-12-18 System and method for evaluating manufacturing error and program for the same

Country Status (1)

Country Link
JP (1) JP2004132944A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006062132A1 (en) * 2004-12-07 2006-06-15 The University Of Tokyo Stereoscopic image reconfiguration device, stereoscopic image reconfiguration method, and stereoscopic image reconfiguration program
JP2008545127A (en) * 2005-07-06 2008-12-11 カール ツァイス インドゥストリエレ メステヒニク ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for inspecting a measurement object using invasive radiation
JP2008309671A (en) * 2007-06-15 2008-12-25 Ihi Corp Object recognition method and device
JP2009128097A (en) * 2007-11-21 2009-06-11 Ihi Corp Method and device for recognizing flash or deficiency, and deflashing method and device
JP2016175404A (en) * 2015-03-20 2016-10-06 地方独立行政法人東京都立産業技術研究センター Lamination shaping method using lamination shaping device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03115805A (en) * 1989-09-29 1991-05-16 Toshiba Corp Ct-type measuring device
JPH09204532A (en) * 1996-01-25 1997-08-05 Hitachi Ltd Image recognition method and image display method
JP2001264047A (en) * 2000-03-17 2001-09-26 Hitachi Ltd Processing method for three-dimensional object modeling work

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03115805A (en) * 1989-09-29 1991-05-16 Toshiba Corp Ct-type measuring device
JPH09204532A (en) * 1996-01-25 1997-08-05 Hitachi Ltd Image recognition method and image display method
JP2001264047A (en) * 2000-03-17 2001-09-26 Hitachi Ltd Processing method for three-dimensional object modeling work

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006062132A1 (en) * 2004-12-07 2006-06-15 The University Of Tokyo Stereoscopic image reconfiguration device, stereoscopic image reconfiguration method, and stereoscopic image reconfiguration program
US7853069B2 (en) 2004-12-07 2010-12-14 The University Of Tokyo Stereoscopic image regenerating apparatus, stereoscopic image regenerating method, and stereoscopic image regenerating program
JP2008545127A (en) * 2005-07-06 2008-12-11 カール ツァイス インドゥストリエレ メステヒニク ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for inspecting a measurement object using invasive radiation
JP2008309671A (en) * 2007-06-15 2008-12-25 Ihi Corp Object recognition method and device
JP2009128097A (en) * 2007-11-21 2009-06-11 Ihi Corp Method and device for recognizing flash or deficiency, and deflashing method and device
JP2016175404A (en) * 2015-03-20 2016-10-06 地方独立行政法人東京都立産業技術研究センター Lamination shaping method using lamination shaping device

Similar Documents

Publication Publication Date Title
Castillo et al. A framework for evaluation of deformable image registration spatial accuracy using large landmark point sets
JP6437812B2 (en) Method and radiation therapy system for optimizing radiation dose for radiation therapy treatment
CN105931202B (en) The bearing calibration of geometric correction die body and system
US7215810B2 (en) Method for creating single 3D surface model from a point cloud
JP2563700B2 (en) Custom joint replacement manufacturing method
CN103501702B (en) Medical image-processing apparatus, medical image processing method
CN107837090B (en) Sinogram-based scattered ray correction in computed tomography
CN103218803B (en) Computer tomograph and for the method for the volume information for determining body
CN101111758A (en) Apparatus and method for correction or extension of x-ray projections
CN103619259A (en) Image reconstruction device and image reconstruction method
CN107093198A (en) System of selection for artifact correction algorithm, data processing equipment and medical image system for performing this method
CN103262124B (en) For the imaging system to region of interest domain imaging
US10445904B2 (en) Method and device for the automatic generation of synthetic projections
CN114332378B (en) Human skeleton three-dimensional model acquisition method and system based on two-dimensional medical image
GB2608900A (en) X-ray imaging system
Arrieta et al. Quantitative assessments of geometric errors for rapid prototyping in medical applications
Kim et al. Reliability and accuracy of a method for measuring temporomandibular joint condylar volume
KR102236191B1 (en) A System Providing Auto Revision of Pattern with Artificial Neural Network
Uribe et al. A hybrid Gibbs sampler for edge-preserving tomographic reconstruction with uncertain view angles
JP2004132944A (en) System and method for evaluating manufacturing error and program for the same
Gupta et al. Differentiable uncalibrated imaging
JP3855005B2 (en) Material analysis system and material test system
US6400841B1 (en) Method for evaluating three-dimensional rendering systems
Zhang et al. The minimum knowledge base for predicting organ-at-risk dose–volume levels and plan-related complications in IMRT planning
Giannelli et al. Leveraging moving parameterization and adaptive THB-splines for CAD surface reconstruction of aircraft engine components

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040430

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070313