WO2014080622A1 - Method and device for three-dimensional image processing of fibrous filler within composite material - Google Patents

Method and device for three-dimensional image processing of fibrous filler within composite material Download PDF

Info

Publication number
WO2014080622A1
WO2014080622A1 PCT/JP2013/006806 JP2013006806W WO2014080622A1 WO 2014080622 A1 WO2014080622 A1 WO 2014080622A1 JP 2013006806 W JP2013006806 W JP 2013006806W WO 2014080622 A1 WO2014080622 A1 WO 2014080622A1
Authority
WO
WIPO (PCT)
Prior art keywords
composite material
filler
dimensional image
image processing
evaluation
Prior art date
Application number
PCT/JP2013/006806
Other languages
French (fr)
Japanese (ja)
Inventor
鈴木 亨
寿夫 杉田
雅宏 瀬戸
昌 山部
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2014548459A priority Critical patent/JP5844921B2/en
Publication of WO2014080622A1 publication Critical patent/WO2014080622A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • G01N23/046Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material using tomography, e.g. computed tomography [CT]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/419Imaging computed tomograph
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/615Specific applications or type of materials composite materials, multilayer laminates

Abstract

Provided are a method and device for three-dimensional image processing of a fibrous filler within a composite material, where it is possible to quantitatively extract, from a three-dimensional image of a composite material including a fibrous filler in a base material, orientation information of the individual fibers in the composite material. This method comprises a data input step (#0), a region selection step (#1), a model setting step (S1), and an extraction main step (S2). In the data input step (#0), input of a three-dimensional image of the fibrous filler in a composite material is received as voxel data. In the region selection step (#1), a candidate region which includes the filler is selected on the basis of a voxel data value. In the model setting step (S1), a shape model is set which is configured to reproduce the fiber shape, said shape model having parameters whereby shape and positioning are changed. In the extraction main step (S2), a shape model, which is fitted to the candidate region by the shape model parameters being changed on the basis of the Monte Carlo method, is quantitatively extracted as orientation information of the filler.

Description

複合材料中の繊維状フィラーの3次元画像処理方法および3次元画像処理装置Three-dimensional image processing method and three-dimensional image processing apparatus for fibrous filler in composite material
 本発明は、複合材料中の繊維状フィラーの3次元画像処理方法および3次元画像処理装置に関する。 The present invention relates to a three-dimensional image processing method and a three-dimensional image processing apparatus for fibrous filler in a composite material.
 近年、樹脂の射出成形による電子部品は、小型化の進む電子機器用に小型精密化と薄肉化が進んでいる。このような電子部品を構成する樹脂射出による成形品は、その剛性を向上させたり線膨張係数を調整したりするために、樹脂母材にガラス繊維等の繊維状フィラーを混入させた複合材料を用いて成形される。成形品は、寸法精度を確保するために、成形後の反り変形を事前に予測して設計すること、および反り変形が発生しにくい条件で成形することが重要である。成形品の反り変形は、成形品の形状、成形品への熱履歴の分布、成形品における線膨張係数やヤング率などの熱的機械的特性の分布、および成形品への熱負荷などの要因が複合して発生する。反り変形は、熱負荷等に対する成形品の応答として発生し、成形品の熱的特性の分布および機械的特性の分布に依存する。これらの特性分布は成形品内の各点における繊維状フィラーの量の分布と繊維状フィラーの長手方向の向きの分布(配向分布)に依存する。従って、成形品中の繊維状フィラーの分布と配向分布とを把握することにより、これらの分布を最適化できるように成形条件や成形金型を最適化して、成形品の反り変形を抑制したり制御したりすることができる。 In recent years, electronic parts made by resin injection molding have become smaller and more precise and thinner for electronic devices that are becoming smaller. In order to improve the rigidity and adjust the linear expansion coefficient of molded products by resin injection that constitute such electronic parts, composite materials in which fibrous fillers such as glass fibers are mixed in the resin base material are used. To be molded. In order to ensure dimensional accuracy, it is important to design a molded product by predicting warpage deformation after molding in advance and molding under a condition in which warpage deformation hardly occurs. The warpage deformation of a molded product is caused by factors such as the shape of the molded product, the distribution of thermal history on the molded product, the distribution of thermal mechanical properties such as the linear expansion coefficient and Young's modulus in the molded product, and the thermal load on the molded product. Occur in combination. Warpage deformation occurs as a response of the molded product to a thermal load or the like, and depends on the distribution of thermal properties and mechanical properties of the molded product. These characteristic distributions depend on the distribution of the amount of fibrous filler at each point in the molded product and the distribution of the longitudinal direction of the fibrous filler (orientation distribution). Therefore, by grasping the distribution and orientation distribution of the fibrous filler in the molded product, the molding conditions and the mold can be optimized so that these distributions can be optimized, and warping deformation of the molded product can be suppressed. And can be controlled.
 成形品中の繊維状フィラーの配向分布を非破壊で評価する方法として、X線CT(コンピュータトモグラフィ)を用いて成形品の3次元画像を求め、その3次元画像を解析して繊維の形態や分布を求めて評価する方法が知られている(例えば、非特許文献1参照)。この評価方法は、互いに複雑につながった繊維同士が形成する3次元的な経路についての迂回度を指標に用いて、繊維配向の傾向を評価するものである。迂回度は、3次元画像から層状の矩形領域を切り出し、矩形領域の繊維の画像の細線化処理を行い、矩形領域の両端に両端点を有する経路について、両端点間の経路のうち最短の経路の経路長と両端点間の直線距離との比を求め、その比によって定義されている。 As a method for non-destructively evaluating the orientation distribution of the fibrous filler in the molded product, a three-dimensional image of the molded product is obtained using X-ray CT (computer tomography), and the three-dimensional image is analyzed to analyze the fiber morphology. A method for obtaining and evaluating the distribution is known (for example, see Non-Patent Document 1). This evaluation method evaluates the tendency of fiber orientation by using as an index the degree of detour for a three-dimensional path formed by mutually complicated fibers. The degree of detour is obtained by cutting out a layered rectangular area from a three-dimensional image, thinning the image of the fiber in the rectangular area, and regarding the path having both end points at both ends of the rectangular area, the shortest path among the paths between the end points The ratio between the path length and the linear distance between the two end points is obtained and defined by the ratio.
 また、半導体パッケージにおける樹脂で封止されたワイヤおよび生物体内の血管や神経系の3次元座標を非破壊的に直接的に抽出する方法が知られている(例えば、特許文献1参照)。この方法は、被検体の所定の方向と交差する複数の断層画像を求め、隣接する2つの画像の各々から被検体内の線状素の断面に対応するものとして求めた2つの構成点を、線状素を表すベクトルの始点および終点とする。断層画像はX線CTまたはMRIなどによって得られる。断層画像中の構成点は線状素の断面を表す円または楕円の画像の重心によって決定され、始点と終点の対は、隣接画像間で互いに最短距離となる2点が選択される。線状素のベクトルを、順次、互いに隣接する断層画像間で接続することにより、被検体に含まれる線状素の3次元座標が抽出される。 Also, a method of directly and non-destructively extracting a wire sealed with resin in a semiconductor package and a three-dimensional coordinate of a blood vessel or a nervous system in a living body is known (for example, see Patent Document 1). In this method, a plurality of tomographic images intersecting with a predetermined direction of the subject are obtained, and two constituent points obtained as corresponding to the cross-section of the linear element in the subject are obtained from each of the two adjacent images, Let it be the start point and end point of a vector representing a linear element. A tomographic image is obtained by X-ray CT or MRI. The constituent points in the tomographic image are determined by the center of gravity of the circle or ellipse image representing the cross section of the linear element, and two points that are the shortest distance between the adjacent images are selected as the pair of the start point and the end point. By connecting the linear element vectors sequentially between the tomographic images adjacent to each other, the three-dimensional coordinates of the linear elements included in the subject are extracted.
特開2012-32293号公報JP 2012-32293 A
 しかしながら、上述した非特許文献1に示されるような繊維状フィラーの配向分布の評価方法においては、画像に細線化処理を行うので、画像中のノイズ部分をフィラーとして抽出してしまう可能性がある。これは、細線化の処理によって繊維の太さの情報が失われてしまい、ノイズと繊維とを区別できなくなることによる。また、個々のフィラーを独立に抽出する方法ではないので、繊維配向の傾向という定性的な情報しか得られない。また、上述した特許文献1に示されるような線状素の3次元座標を抽出する方法においては、線状素の方向が被検体の所定の方向として既知であることが前提とされており、フィラーが任意の方向を向いて複雑に配向している場合には適用できない。 However, in the evaluation method of the orientation distribution of the fibrous filler as shown in Non-Patent Document 1 described above, since the thinning process is performed on the image, there is a possibility that a noise portion in the image is extracted as a filler. . This is because the information on the thickness of the fiber is lost by the thinning process, and noise and the fiber cannot be distinguished. Moreover, since it is not the method of extracting each filler independently, only the qualitative information of the tendency of fiber orientation can be obtained. Further, in the method for extracting the three-dimensional coordinates of the linear element as shown in Patent Document 1 described above, it is assumed that the direction of the linear element is known as the predetermined direction of the subject, It cannot be applied when the filler is oriented in a complicated direction in an arbitrary direction.
 本発明は、上記課題を解消するものであって、母材に繊維状のフィラーを含む複合材料の3次元画像から個々のフィラーの配向情報を定量的に抽出できる複合材料中の繊維状フィラーの3次元画像処理方法および3次元画像処理装置を提供することを目的とする。 The present invention solves the above-mentioned problem, and is a method for producing a fibrous filler in a composite material capable of quantitatively extracting orientation information of individual fillers from a three-dimensional image of the composite material including a fibrous filler in a base material. It is an object to provide a three-dimensional image processing method and a three-dimensional image processing apparatus.
 上記課題を達成するために、本発明の複合材料中の繊維状フィラーの3次元画像処理方法は、母材に繊維状のフィラーを含有させた複合材料の3次元画像から前記フィラーの配向情報を抽出する複合材料中の繊維状フィラーの3次元画像処理方法において、複合材料の3次元画像からフィラーを表す画素を含むと推定される候補領域を所定の閾値を参照することにより選出する領域選出工程と、フィラーの形状モデルの形状と配置を変化させるパラメータをランダムに変化させるモンテカルロ法を用いて、領域選出工程によって選出された候補領域に形状モデルをフィッティングさせてフィラーの配向情報を抽出する抽出工程と、を備えることを特徴とする。 In order to achieve the above object, the three-dimensional image processing method for a fibrous filler in a composite material according to the present invention obtains orientation information of the filler from a three-dimensional image of a composite material containing a fibrous filler in a base material. In a three-dimensional image processing method for fibrous filler in a composite material to be extracted, a region selection step of selecting a candidate region estimated to include a pixel representing a filler from a three-dimensional image of the composite material by referring to a predetermined threshold value And an extraction process for extracting filler orientation information by fitting the shape model to the candidate area selected by the area selection process using the Monte Carlo method that randomly changes the parameters that change the shape and arrangement of the filler shape model. And.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、抽出工程は、候補領域から1本のフィラーの配向情報を抽出した後に、抽出に関与した領域を除去し、除去後の候補領域に対してモンテカルロ法による抽出を繰り返してもよい。 In the three-dimensional image processing method of the fibrous filler in the composite material, the extraction step extracts the orientation information of one filler from the candidate area, and then removes the area involved in the extraction, to the candidate area after the removal On the other hand, extraction by the Monte Carlo method may be repeated.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、3次元画像をボクセルデータとして入力するデータ入力工程を備え、ボクセルデータは、複合材料のX線CTによって取得され、ボクセルデータの各ボクセルは、X線の強度値に基づく値をデータ値として有してもよい。 The method for processing a three-dimensional image of fibrous filler in a composite material includes a data input step of inputting a three-dimensional image as voxel data. The voxel data is acquired by X-ray CT of the composite material, and each voxel of the voxel data is obtained. May have a value based on the X-ray intensity value as a data value.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、データ入力工程は、データ値を各ボクセル間で線形補間した値をデータ値とするボクセルを有する新たなボクセルデータを構成する補間工程を備えてもよい。 In the three-dimensional image processing method of the fibrous filler in the composite material, the data input step includes an interpolation step of forming new voxel data having voxels whose data values are values obtained by linear interpolation of data values between the voxels. You may prepare.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、領域選出工程は、ボクセルのデータ値とX線の強度値に基づく所定の閾値とを比較し、閾値よりも大きいデータ値を有するボクセルの集合を候補領域としてもよい。 In the three-dimensional image processing method of the fibrous filler in the composite material, the region selecting step compares the voxel data value with a predetermined threshold value based on the X-ray intensity value, and has a voxel having a data value larger than the threshold value. A set of candidate regions may be used.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、候補領域に属するボクセルから、互いに隣接するボクセルで成る群を生成し、生成された個々の群をそれぞれ新たな候補領域としてもよい。 In the three-dimensional image processing method for the fibrous filler in the composite material, a group of voxels adjacent to each other may be generated from the voxels belonging to the candidate area, and the generated individual groups may be used as new candidate areas.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、抽出工程は、形状モデルとして仮想円柱を用い、候補領域内で仮想円柱の形状と配置を表すパラメータを変化させ、その仮想円柱と候補領域とのフィッティングの度合いを、仮想円柱に含まれるボクセルのデータ値に基づく評価値の積算値によって評価してもよい。 In the three-dimensional image processing method of the fibrous filler in the composite material, the extraction step uses a virtual cylinder as a shape model, changes parameters representing the shape and arrangement of the virtual cylinder in the candidate area, and the virtual cylinder and the candidate The degree of fitting with a region may be evaluated by an integrated value of evaluation values based on data values of voxels included in the virtual cylinder.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、抽出工程は、仮想円柱によるフィッティングを行った後に、形状モデルとして複数の制御点によって定義されるスプライン曲線を中心軸とする仮想パイプを用い、候補領域内で制御点の座標をパラメータとしてランダムに変化させ、その仮想パイプと候補領域とのフィッティングの度合いを評価し、仮想円柱による評価よりも仮想パイプによる評価が所定割合以上改善する場合に、仮想パイプによるフィッティングを採用し、そうでない場合は仮想円柱によるフィッティングを採用してフィラーの配向情報を抽出してもよい。 In the three-dimensional image processing method of the fibrous filler in the composite material, the extraction step includes fitting a virtual pipe with a virtual cylinder, and then, as a shape model, a virtual pipe having a spline curve defined by a plurality of control points as a central axis. When the coordinates of the control points are changed randomly as parameters in the candidate area, the degree of fitting between the virtual pipe and the candidate area is evaluated, and the evaluation using the virtual pipe improves by a predetermined percentage or more than the evaluation using the virtual cylinder Alternatively, fitting information using a virtual pipe may be employed, and if not, fitting information using a virtual cylinder may be employed to extract filler orientation information.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、抽出工程は、形状モデルとして複数の制御点によって定義されるスプライン曲線を中心軸とする仮想パイプを用い、候補領域内で制御点の座標をパラメータとしてランダムに変化させ、その仮想パイプと候補領域とのフィッティングの度合いを、仮想パイプに含まれるボクセルのデータ値に基づく評価値の積算値によって評価してもよい。 In the three-dimensional image processing method of the fibrous filler in the composite material, the extraction step uses a virtual pipe having a spline curve defined by a plurality of control points as a shape model as a shape model and uses control pipes in the candidate region. Coordinates may be randomly changed as parameters, and the degree of fitting between the virtual pipe and the candidate area may be evaluated by an integrated value of evaluation values based on data values of voxels included in the virtual pipe.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、抽出工程は、スプライン曲線の複数の制御点について順次1つずつ座標をランダムに変化させ、その1つの制御点を変化させる毎にスプライン曲線を決定してフィッティングの度合いを評価し、その次の制御点を変化させる前に、決定されたスプライン曲線上で全ての制御点を等間隔に再配置してもよい。 In the three-dimensional image processing method of the fibrous filler in the composite material, the extraction step sequentially changes the coordinates one by one for a plurality of control points of the spline curve one by one, and each time the one control point is changed, the spline is changed. All control points may be rearranged at equal intervals on the determined spline curve before the curve is determined to evaluate the degree of fitting and the next control point is changed.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、抽出工程は、形状モデル内にボクセルのサイズ以下の間隔で評価点を設定し、その評価点にボクセルのデータ値に基づく評価値を付与し、評価点に付与した評価値の積算値によってフィッティングの度合いを評価してもよい。 In the three-dimensional image processing method for the fibrous filler in the composite material, the extraction step sets evaluation points at intervals equal to or smaller than the voxel size in the shape model, and sets evaluation values based on the voxel data values to the evaluation points. The degree of fitting may be evaluated by the integrated value of the evaluation values given to the evaluation points.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、抽出工程は、形状モデルの中心軸に垂直な面に同心円状に評価点を配置してもよい。 In the three-dimensional image processing method for the fibrous filler in the composite material, the extraction step may arrange the evaluation points concentrically on a plane perpendicular to the central axis of the shape model.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、評価点に付与する評価値は、ボクセルのデータ値を用いて線形補間して得られる値としてもよい。 In the three-dimensional image processing method of the fibrous filler in the composite material, the evaluation value given to the evaluation point may be a value obtained by linear interpolation using the voxel data value.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、抽出工程は、評価値から閾値を差し引いた値を新たな評価値として用いてもよい。 In the three-dimensional image processing method of the fibrous filler in the composite material, the extraction step may use a value obtained by subtracting the threshold value from the evaluation value as a new evaluation value.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、抽出工程は、新たな評価値が負の場合に、その値に所定の正数を掛けた値を新たな評価値として用いてもよい。 In the three-dimensional image processing method of the fibrous filler in the composite material, when the new evaluation value is negative, the extraction step may use a value obtained by multiplying the value by a predetermined positive number as the new evaluation value. Good.
 この複合材料中の繊維状フィラーの3次元画像処理方法において、抽出工程は、形状モデルの中心軸に近い位置の評価値ほど大きくなるように重み付けをして積算値を算出してもよい。 In the three-dimensional image processing method of the fibrous filler in the composite material, the extraction step may calculate the integrated value by weighting so that the evaluation value at a position closer to the central axis of the shape model becomes larger.
 本発明の複合材料中の繊維状フィラーの3次元画像処理装置は、母材に繊維状のフィラーを含有させた複合材料の3次元画像からフィラーの配向情報を抽出する3次元画像処理装置において、複合材料の3次元画像からフィラーを表す画素を含むと推定される候補領域を所定の閾値を参照することにより選出する領域選出手段と、フィラーの形状モデルの形状と配置を変化させるパラメータをランダムに変化させるモンテカルロ法を用いて、領域選出手段によって選出された候補領域に形状モデルをフィッティングさせてフィラーの配向情報を抽出する抽出手段と、を備えることを特徴とする。 The three-dimensional image processing apparatus for fibrous filler in the composite material of the present invention is a three-dimensional image processing apparatus for extracting filler orientation information from a three-dimensional image of a composite material containing a fibrous filler in a base material. A region selection means for selecting a candidate region estimated to include a pixel representing a filler from a three-dimensional image of the composite material by referring to a predetermined threshold, and a parameter for changing the shape and arrangement of the filler shape model at random Extracting means for extracting filler orientation information by fitting a shape model to a candidate area selected by the area selecting means using a changing Monte Carlo method.
 本発明の複合材料中の繊維状フィラーの3次元画像処理方法によれば、形状と配置を変化させるパラメータを有するフィラーの形状モデルとモンテカルロ法とに基づいて3次元画像から個々のフィラーを抽出するので、フィラーの配向情報を定量的に抽出できる。 According to the three-dimensional image processing method of the fibrous filler in the composite material of the present invention, individual fillers are extracted from the three-dimensional image based on the filler shape model having a parameter that changes the shape and arrangement and the Monte Carlo method. Therefore, the filler orientation information can be extracted quantitatively.
本発明の一実施形態に係る複合材料中の繊維状フィラーの3次元画像処理方法についてのフローチャート。The flowchart about the three-dimensional image processing method of the fibrous filler in the composite material which concerns on one Embodiment of this invention. 同画像処理方法の変形例のフローチャート。The flowchart of the modification of the image processing method. (a)は同画像処理方法の処理対象物の例を示す複合材料の斜視図、(b)は(a)の複合材料の一部を示す斜視図。(A) is a perspective view of the composite material which shows the example of the process target object of the image processing method, (b) is a perspective view which shows a part of composite material of (a). 図3(b)に示した複合材料のX線CTによる3次元画像を示す図。The figure which shows the three-dimensional image by X-ray CT of the composite material shown in FIG.3 (b). (a)は複合材料中の繊維状フィラーの3次元画像を閾値処理した例を示す3次元画像を示す図、(b)は(a)の画像の白黒反転画像を示す図。(A) is a figure which shows the three-dimensional image which shows the example which threshold-processed the three-dimensional image of the fibrous filler in a composite material, (b) is a figure which shows the black-and-white reversal image of the image of (a). 同画像処理方法の他の変形例のフローチャート。The flowchart of the other modification of the image processing method. (a)(b)は同変形例における補間工程を説明するボクセルの平面図。(A) and (b) are the top views of the voxel explaining the interpolation process in the modification. 同補間工程の他の例を説明するボクセルの立体図。The three-dimensional view of the voxel explaining the other example of the interpolation process. 同画像処理方法の他の変形例のフローチャート。The flowchart of the other modification of the image processing method. 同変形例における分割工程によって生成された候補領域の例を示す3次元画像を示す図。The figure which shows the three-dimensional image which shows the example of the candidate area | region produced | generated by the division | segmentation process in the modification. (a)は同画像処理方法で用いられる仮想円柱の斜視図、(b)は同仮想円柱をXYZ座標空間に表現した斜視図、(c)は同仮想円柱を極座標空間に表現した斜視図。(A) is a perspective view of a virtual cylinder used in the image processing method, (b) is a perspective view expressing the virtual cylinder in an XYZ coordinate space, and (c) is a perspective view expressing the virtual cylinder in a polar coordinate space. 同画像処理方法の抽出工程のフローチャート。The flowchart of the extraction process of the image processing method. 同抽出工程における評価値の積算を説明するボクセルと形状モデルの断面図。Sectional drawing of the voxel and shape model explaining the integration | accumulation of the evaluation value in the extraction process. (a)(b)(c)はそれぞれ異なる視点から見た候補領域とその領域中の仮想円柱の3次元画像を示す図。(A) (b) (c) is a figure which shows the candidate area | region seen from a different viewpoint, respectively, and the three-dimensional image of the virtual cylinder in the area | region. 同画像処理方法の抽出工程の変形例のフローチャート。The flowchart of the modification of the extraction process of the image processing method. 同画像処理方法の抽出工程の他の変形例のフローチャート。The flowchart of the other modification of the extraction process of the image processing method. 同画像処理方法の抽出工程の他の変形例のフローチャート。The flowchart of the other modification of the extraction process of the image processing method. (a)は同画像処理方法の抽出工程の他の変形例に関し、仮想円柱の端点の位置を変動させる様子を示す斜視図、(b)は端点を変動させた後の仮想円柱の斜視図、(c)は(b)の仮想円柱に設定する評価点を説明する平面図。(A) is the perspective view which shows a mode that the position of the end point of a virtual cylinder is changed regarding the other modification of the extraction process of the image processing method, (b) is the perspective view of the virtual cylinder after changing the end point, (C) is a top view explaining the evaluation point set to the virtual cylinder of (b). 同仮想円柱に評価点を設定した状態の3次元画像を示す図。The figure which shows the three-dimensional image of the state which set the evaluation point to the virtual cylinder. 同仮想円柱と評価点とを用いる抽出工程のフローチャート。The flowchart of the extraction process using the same virtual cylinder and an evaluation point. 複合材料中に曲がった繊維状フィラーが含まれる場合の3次元画像を示す図。The figure which shows a three-dimensional image in case the fibrous filler bent in the composite material is contained. 曲がった繊維状フィラーに対して仮想円柱モデルをフィッティングした様子を模式的に示す斜視図。The perspective view which shows typically a mode that the virtual cylinder model was fitted with respect to the bent fibrous filler. 同画像処理方法の抽出工程の他の変形例のフローチャート。The flowchart of the other modification of the extraction process of the image processing method. (a)は仮想パイプを制御点とスプライン曲線とによって示す斜視図、(b)は同制御点の1つを変動させた場合の同スプライン曲線の斜視図。(A) is a perspective view showing a virtual pipe by a control point and a spline curve, (b) is a perspective view of the spline curve when one of the control points is changed. (a)は同仮想パイプのスプライン曲線に沿って評価点設定用の円盤を配置した斜視図、(b)は同円盤に評価点を配置した平面図。(A) is the perspective view which has arrange | positioned the disk for evaluation point setting along the spline curve of the virtual pipe, (b) is the top view which has arrange | positioned the evaluation point to the same disk. 仮想パイプに評価点を設定した状態の3次元画像を示す図。The figure which shows the three-dimensional image of the state which set the evaluation score to the virtual pipe. 仮想パイプを用いたフィッティング途中の3次元画像を示す図。The figure which shows the three-dimensional image in the middle of fitting using a virtual pipe. (a)(b)(c)はそれぞれ同仮想パイプの各制御点を変動させる互いに異なる手順の例を示す概念図。(A) (b) (c) is a conceptual diagram which shows the example of a mutually different procedure which fluctuates each control point of the virtual pipe, respectively. 同画像処理方法の他の変形例を示すフローチャート。The flowchart which shows the other modification of the image processing method. (a)~(h)はそれぞれ同仮想パイプを用いて各制御点を変動させてフィッティングを行う手順を説明する概念図。(A)-(h) is a conceptual diagram explaining the procedure of performing fitting by changing each control point using the virtual pipe. 一実施形態に係る複合材料中の繊維状フィラーの3次元画像処理装置のブロック構成図。The block block diagram of the three-dimensional image processing apparatus of the fibrous filler in the composite material which concerns on one Embodiment. 同画像処理方法および同画像処理装置によって抽出された繊維状フィラーを3次元画像に重ねて表示した3次元画像を示す図。The figure which shows the three-dimensional image which displayed the fibrous filler extracted by the image processing method and the image processing apparatus on the three-dimensional image. 同画像処理方法および同画像処理装置によって抽出された繊維状フィラーの繊維長の度数割合を示す度数分布図。The frequency distribution figure which shows the frequency ratio of the fiber length of the fibrous filler extracted by the image processing method and the image processing apparatus.
 以下、本発明の一実施形態に係る複合材料中の繊維状フィラーの3次元画像処理方法および3次元画像処理装置について、図面を参照して説明する。図1は、一実施形態に係る複合材料中の繊維状フィラーの3次元画像処理方法(以下、画像処理方法という)を示す。本画像処理方法は、図1に示すように、領域選出工程(#1)と、抽出工程(#2)とを備え、これらの工程を実行して、母材に繊維状フィラーを含む複合材料の3次元画像から複合材料中のフィラーの配向情報を抽出する。配向情報は、例えば、フィラーが、どのような場所で、どのような形状と向きで配置されているかという情報である。領域選出工程(#1)は、複合材料の3次元画像を与えられ、その3次元画像からフィラーを表す画素(立体画素)を含むと推定される候補領域を所定の閾値を参照することにより選出する。抽出工程(#2)は、決定されたフィラーの形状モデルの形状と配置を規定するパラメータをランダムに変化させるモンテカルロ法を用いて、領域選出工程によって選出された候補領域に形状モデルをフィッティングさせてフィラーの配向情報を抽出する。フィラーの配向情報は、フィッティング結果の形状モデルの形状と配置から抽出される。処理対象の複合材料は、例えば、液晶ポリマーから成る母材に、繊維状のフィラーとして強化用のガラス繊維を含有させたガラス繊維強化樹脂である。この複合材料の場合、本画像処理方法は、液晶ポリマー樹脂中のガラス繊維の配向情報を抽出する。 Hereinafter, a three-dimensional image processing method and a three-dimensional image processing apparatus for fibrous filler in a composite material according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows a three-dimensional image processing method (hereinafter referred to as an image processing method) of a fibrous filler in a composite material according to an embodiment. As shown in FIG. 1, this image processing method includes a region selection step (# 1) and an extraction step (# 2), and these steps are executed to include a composite material including a fibrous filler in the base material. The orientation information of the filler in the composite material is extracted from the three-dimensional image. The orientation information is, for example, information on where the filler is arranged, in what shape and orientation. In the region selection step (# 1), a three-dimensional image of the composite material is given, and a candidate region estimated to include a pixel (stereoscopic pixel) representing a filler is selected from the three-dimensional image by referring to a predetermined threshold value. To do. In the extraction step (# 2), the shape model is fitted to the candidate region selected in the region selection step by using the Monte Carlo method that randomly changes the parameters defining the shape and arrangement of the determined filler shape model. Extract filler orientation information. The filler orientation information is extracted from the shape and arrangement of the shape model of the fitting result. The composite material to be treated is, for example, a glass fiber reinforced resin in which a glass fiber for reinforcement is contained as a fibrous filler in a base material made of a liquid crystal polymer. In the case of this composite material, this image processing method extracts the orientation information of the glass fiber in the liquid crystal polymer resin.
 図2は、上述の画像処理方法の変形例を示す。この画像処理方法は、上述の図1の実施形態において、領域選出工程(#1)の前工程としてデータ入力工程(#0)を備え、抽出工程(#2)が、モデル設定工程(S1)と、抽出メイン工程(S2)と、反復処理工程(S3,S4)とを備えている。 FIG. 2 shows a modification of the above-described image processing method. This image processing method includes a data input step (# 0) as a previous step of the region selection step (# 1) in the embodiment of FIG. 1 described above, and the extraction step (# 2) is a model setting step (S1). And an extraction main process (S2) and an iterative processing process (S3, S4).
 データ入力工程(#0)は、複合材料中の繊維状フィラーの3次元画像をボクセルデータとして入力する。ボクセルデータは、複合材料のX線CTによって取得され、ボクセルデータの各ボクセルは、X線の強度値に基づく値をデータ値として有する。例えば、図3(a)(b)に示すように、複合材料Cは、長い箱状に射出成形されたガラス繊維強化された樹脂成形品1の一部である。このような樹脂成形品1において、矢印aで示す長手方向に樹脂注入が行われると、ガラス繊維は、大略その矢印aの方向に沿って配向する。 In the data input step (# 0), a three-dimensional image of the fibrous filler in the composite material is input as voxel data. The voxel data is acquired by X-ray CT of the composite material, and each voxel of the voxel data has a value based on the X-ray intensity value as a data value. For example, as shown in FIGS. 3A and 3B, the composite material C is a part of a glass fiber reinforced resin molded product 1 that is injection-molded into a long box shape. In such a resin molded product 1, when resin injection is performed in the longitudinal direction indicated by the arrow a, the glass fibers are generally oriented along the direction of the arrow a.
 図4は、図3(b)に示した複合材料CのX線CTによる3次元画像G1を示す。3次元画像G1は、複合材料Cに様々な方向からX線を透過させ、X線の吸収量の分布に応じて形成されるプロファイルを収集し、それらのプロファイルから複合材料Cの多数の断層像を白黒の濃淡画像として再構成して3次元表示したものである。母材(例えば、液晶ポリマー)と繊維状フィラー(例えば、ガラス繊維)とのX線の吸収量の違いにより、繊維状フィラーの3次元画像情報を含む3次元画像G1が得られる。ボクセルのデータ値は、フィラーの存在率を表す。ボクセルのデータ値は、例えば、繊維状フィラーを表示するために濃淡や白黒の何れを用いるかに応じて、また、データ値を使用する目的に応じて、任意に設定することができる。ボクセルの用語は、本来、3次元画像空間を構成する一般的な立体画素の意味であるが、本画像処理方法においては、ある閾値で選択された画像処理の対象となる立体画素の意味で、例えば、候補領域からボクセルを削除する、等の表現で限定的に用いることがある。 FIG. 4 shows a three-dimensional image G1 by X-ray CT of the composite material C shown in FIG. The three-dimensional image G1 allows the composite material C to transmit X-rays from various directions, collects profiles formed according to the distribution of the amount of X-ray absorption, and obtains a number of tomographic images of the composite material C from these profiles. Is reconstructed as a black and white grayscale image and displayed three-dimensionally. The three-dimensional image G1 including the three-dimensional image information of the fibrous filler is obtained by the difference in the amount of X-ray absorption between the base material (for example, liquid crystal polymer) and the fibrous filler (for example, glass fiber). The voxel data value represents the abundance of the filler. The data value of the voxel can be arbitrarily set depending on, for example, whether to use gray or black and white to display the fibrous filler, and depending on the purpose of using the data value. The term voxel originally means a general three-dimensional pixel that constitutes a three-dimensional image space, but in this image processing method, it means a three-dimensional pixel that is a target of image processing selected with a certain threshold, For example, the expression may be used in a limited manner such as deleting voxels from the candidate area.
 領域選出工程(#1)は、複合材料Cの3次元画像中にフィラーを表す画素を含む領域であると推定される領域を含む候補領域を選出する。領域選出工程(#1)は、ボクセルのデータ値を候補領域選出用の閾値によって判別し、例えば、その閾値よりも大きいデータ値を有するボクセルの集合を候補領域とする。この場合、データ値はX線の強度値であり、その閾値は、X線の強度値の分布に基づいて設定される。図5(a)(b)の3次元画像G2,G3は、それぞれこのような閾値処理によって候補領域を選出した例を示す。この領域選出工程(#1)によって、フィラーを表す画素の領域がバックグラウンド領域から切り出される。 In the region selection step (# 1), a candidate region including a region estimated to be a region including a pixel representing a filler in the three-dimensional image of the composite material C is selected. In the region selection step (# 1), the data value of the voxel is discriminated by a threshold for selecting the candidate region, and for example, a set of voxels having a data value larger than the threshold is set as the candidate region. In this case, the data value is an X-ray intensity value, and the threshold value is set based on the distribution of X-ray intensity values. The three-dimensional images G2 and G3 in FIGS. 5A and 5B show examples in which candidate regions are selected by such threshold processing. By this region selection step (# 1), the pixel region representing the filler is cut out from the background region.
 抽出工程(#2)のモデル設定工程(S1)は、領域選出工程(#1)によって設定された候補領域に対し、形状と配置をそれぞれ変化させるパラメータを有してフィラーの形状を再現できるように構成された形状モデルを設定する。形状モデルの形状は、複合材料中に含有されるフィラーの形状に応じて設定される。例えば、円柱、長楕円、角柱、複数の円柱が曲線に沿って連続した曲線チューブなどが形状モデルとされる。いずれも長手方向が定義される配向性を有するものである。 The model setting step (S1) of the extraction step (# 2) can reproduce the filler shape with parameters for changing the shape and the arrangement of the candidate region set by the region selection step (# 1). Set the configured shape model. The shape of the shape model is set according to the shape of the filler contained in the composite material. For example, the shape model is a cylinder, an ellipse, a prism, a curved tube in which a plurality of cylinders are continuous along a curve, or the like. All have the orientation in which the longitudinal direction is defined.
 形状モデルの形状のパラメータは、形状モデルの形と大きさを決めるものであり、例えば、円柱の場合は半径と長さ、長楕円の場合は3次元楕円の3軸長、角柱の場合は断面形状と大きさ、および角柱の長さ、などを、所定の範囲内で変化させるように設定する。曲線チューブ(パイプ)の場合は、半径、曲線長、曲線の曲がり具合(例えば、折れ線近似して、各線分長、相互の折れ角度の方向と大きさ等)等を、所定の範囲内で変化させるように、形状のパラメータを設定すればよい。また、形状モデルの配置のパラメータは、3次元空間座標軸が設定された空間における候補領域に対して、形状が定まった形状モデルの位置と姿勢を定めるものであり、例えば、形状モデルの長手方向の両端の位置座標を配置のパラメータとすることができる。配置のパラメータは、形状モデルの配置を一意的に決定できるものであればよく、形状モデルの中心位置座標と方位角などを用いてもよい。 The shape model shape parameters determine the shape and size of the shape model. For example, in the case of a cylinder, the radius and length, in the case of a long ellipse, the three-axis length of a three-dimensional ellipse, and in the case of a prism, the cross section The shape and size, the length of the prism, etc. are set to change within a predetermined range. In the case of a curved tube (pipe), the radius, curve length, curve bending (for example, approximating the broken line, the length of each line segment, the direction and size of the mutual folding angle, etc.), etc., vary within the specified range. The shape parameters may be set so that the In addition, the shape model placement parameters determine the position and orientation of the shape model whose shape is determined with respect to the candidate area in the space in which the three-dimensional space coordinate axis is set. The position coordinates at both ends can be used as parameters for the arrangement. The arrangement parameters may be any parameters that can uniquely determine the arrangement of the shape model, and the center position coordinates and azimuth angle of the shape model may be used.
 抽出メイン工程(S2)は、モデル設定工程(S1)によって設定された形状モデルのパラメータを変化させて候補領域に形状モデルをフィッティングさせ、そのフィッティングした形状モデルの形状と配置の情報をフィラーの配向情報とする。抽出メイン工程(S2)は、形状モデルのパラメータをランダムに変化させてフィッティングさせる処理をモンテカルロ法に基づいて行う。モンテカルロ法では、フィラーが存在する確率が高いボクセル群に対し、乱数を用いてパラメータを一定範囲内で変動させ、より評価の高くなるパラメータを採用するように、形状モデルのパラメータが最適化される。モンテカルロ法において、パラメータを変化させる毎に候補領域と形状モデルのフィッティングの度合いが所定の方法で求められた全体評価値によって評価される。その全体評価値が改善する方向に更新されなくなった時点で、そのときの形状モデルをフィラーと見倣して、1本のフィラーの抽出処理が収束する。 In the extraction main step (S2), the shape model parameters set in the model setting step (S1) are changed to fit the shape model to the candidate region, and the shape and arrangement information of the fitted shape model is used to determine the filler orientation. Information. In the extraction main step (S2), a process of fitting by changing the parameters of the shape model at random is performed based on the Monte Carlo method. In the Monte Carlo method, the parameters of the shape model are optimized so that a parameter with a higher evaluation is adopted for a voxel group that has a high probability of the presence of fillers by using random numbers to vary the parameter within a certain range. . In the Monte Carlo method, each time a parameter is changed, the degree of fitting between a candidate area and a shape model is evaluated based on an overall evaluation value obtained by a predetermined method. When the overall evaluation value is no longer updated in the improving direction, the shape model at that time is regarded as a filler, and the extraction processing of one filler converges.
 反復のための処理工程(S3)は、候補領域から抽出メイン工程(S2)によって1本のフィラーの配向情報を抽出する処理を繰り返して、複数のフィラーが含まれる候補領域の全域から全てのフィラーの配向情報を抽出するための処理を行う。反復のための処理工程(S3)は、1本のフィラーが抽出された後に、後続する次回の抽出を効率的に行うために、1つの形状モデルの最終のフィッティングに関与した領域を候補領域から除去する。その領域を除去したあとに、候補領域の残存領域があれば(S4でYes)、モデル設定工程(S1)からの処理が繰り返され、なければ(S4でNo)、画像処理が終了する。 In the process step (S3) for repetition, the process of extracting the orientation information of one filler from the candidate region by the extraction main step (S2) is repeated, and all fillers are included from the entire candidate region including a plurality of fillers. The process for extracting the orientation information is performed. In the processing step (S3) for the iteration, after one filler is extracted, the region involved in the final fitting of one shape model is selected from the candidate regions in order to efficiently perform the next extraction that follows. Remove. After the area is removed, if there is a remaining candidate area (Yes in S4), the process from the model setting step (S1) is repeated (No in S4), and the image processing ends.
 本実施形態の画像処理方法によれば、形状と配置を変化させるパラメータを有するフィラーの形状モデルとモンテカルロ法とに基づいて3次元画像から個々のフィラーを抽出するので、フィラーの配向情報を定量的に抽出できる。また、本画像処理方法は、複合材料中の繊維状フィラーの3次元画像が、X線CTなどによって非破壊で得られることにより、非破壊でフィラーの配向情報を定量的に抽出できる。 According to the image processing method of the present embodiment, since individual fillers are extracted from a three-dimensional image based on a filler shape model having a parameter that changes the shape and arrangement and the Monte Carlo method, the filler orientation information is quantitatively determined. Can be extracted. Moreover, this image processing method can extract the orientation information of a filler quantitatively nondestructively, when the three-dimensional image of the fibrous filler in a composite material is obtained nondestructively by X-ray CT etc.
 図6は、上述した画像処理方法の他の変形例を示す。この変形例は、複合材料中の繊維状フィラーの3次元画像処理方法において、データ入力工程(#0)が、ボクセルのデータ値を各ボクセル間で線形補間する補間工程(#0a)を備えるものである。その線形補間は、例えば、三重線形補間を用いて行うことができる。 FIG. 6 shows another modification of the image processing method described above. In this modification, in the three-dimensional image processing method for fibrous filler in a composite material, the data input step (# 0) includes an interpolation step (# 0a) for linearly interpolating voxel data values between the voxels. It is. The linear interpolation can be performed using triple linear interpolation, for example.
 図7(a)に示すように、3次元画像データには、データ値を有するボクセルBxと、測定条件の影響などにより、本来有しているべきデータ値を有さないボクセルB0がある。補間工程(#0a)は、図7(b)に示すように、このようなボクセルB0に、その周辺のボクセルBxのデータ値に基づくデータ値を付与する。これにより、フィッティングの精度を向上できる。また、補間工程(#0a)は、図8に示すように、各ボクセルBx間でデータ値を線形補間して得た値をデータ値とする新たなボクセルbxを有する新たなボクセルデータを構成することができる。すなわち、データ入力工程(#0)は、ボクセルBxを分割して小さなボクセルbxを生成し、ボクセルBx間で線形補間した値をボクセルbxのデータ値とする。このボクセルの分割補間は、ボクセルのサイズが、フィラーのサイズと同程度か、より大きい場合などに、フィッティングの精度を向上できる。 As shown in FIG. 7A, the three-dimensional image data includes a voxel Bx having a data value and a voxel B0 not having a data value that should be originally included due to the influence of measurement conditions. In the interpolation step (# 0a), as shown in FIG. 7B, data values based on the data values of the neighboring voxels Bx are assigned to such voxels B0. Thereby, the precision of fitting can be improved. Further, as shown in FIG. 8, the interpolation step (# 0a) constitutes new voxel data having a new voxel bx whose data value is a value obtained by linearly interpolating data values between the voxels Bx. be able to. That is, in the data input step (# 0), the voxel Bx is divided to generate a small voxel bx, and a value obtained by linear interpolation between the voxels Bx is used as the data value of the voxel bx. This voxel divided interpolation can improve the fitting accuracy when the size of the voxel is the same as or larger than the size of the filler.
 図9、図10は、上述した画像処理方法のさらに他の変形例を示す。この変形例は、図9に示すように、上述の領域選出工程(#1)が、大きな候補領域を、より小さな候補領域に分割する分割工程(#1a)を備えるものである。分割工程(#1a)では、候補領域に属するボクセルから、互いに隣接するボクセルで成る群(グループ)を生成し、個々の群をそれぞれ新たな候補領域とする。ボクセルは、2つのボクセルが互いに隣接する状況として、面間隣接、辺間隣接、および、頂点間隣接がある。そこで、例えば、互いに面間隣接するボクセルの集合であって所定個数以上のボクセルからなる集合を群と認定し、その群を新たな個別の候補領域とする。面間隣接したボクセルであっても、それらの集合が所定個数以上のボクセルを含まない場合、および、面間隣接していない孤立したボクセルは、候補領域から削除する。 9 and 10 show still another modification of the above-described image processing method. In this modified example, as shown in FIG. 9, the above-described region selection step (# 1) includes a division step (# 1a) for dividing a large candidate region into smaller candidate regions. In the dividing step (# 1a), a group (group) composed of voxels adjacent to each other is generated from the voxels belonging to the candidate area, and each group is set as a new candidate area. Voxels include inter-surface adjacency, inter-edge adjacency, and inter-vertex adjacency as situations where two voxels are adjacent to each other. Therefore, for example, a set of voxels adjacent to each other and having a predetermined number or more is recognized as a group, and the group is set as a new individual candidate area. Even if the set of voxels adjacent to each other does not include a predetermined number or more of voxels, and isolated voxels that are not adjacent to each other are deleted from the candidate area.
 もともと閾値より大きいデータ値を有するボクセルの1つの集合として選出されていた候補領域は、この分割工程(#1a)を経て複数の候補領域に細分化される。さらに、フィラーを構成するとは認められない所定個数以下に離散した島状のボクセルは排除される。その所定個数は、フィラーの形状その他の事前の知見、または試験的に抽出メイン工程(S2)を実行して得られる知見などに基づいて設定される。図10の3次元画像G4は、分割工程(#1a)を経て設定された候補領域の例を示す。なお、これらの分割工程の処理に際し、面間隣接だけでなく、辺間隣接、さらには頂点間隣接したボクセルも群に含めるようにしてもよい。 The candidate area originally selected as one set of voxels having a data value larger than the threshold is subdivided into a plurality of candidate areas through this division step (# 1a). Further, island-like voxels that are not recognized as constituting a filler and are dispersed to a predetermined number or less are excluded. The predetermined number is set based on the shape of the filler and other prior knowledge, or knowledge obtained by executing the extraction main process (S2) experimentally. A three-dimensional image G4 in FIG. 10 shows an example of a candidate region set through the division step (# 1a). In the process of these division processes, not only the inter-surface adjacency but also the inter-adjacent adjacency and further the inter-vertex adjacent voxels may be included in the group.
 本画像処理方法は、このような分割工程(#1a)を備えることにより、モンテカルロ法による探索の範囲を狭くできるので、効率よく画像処理でき、抽出メイン工程(S2)の計算負荷を軽減することができる。また、本方法は、隣接するボクセルによって候補領域を設定するので、座標によるグループ分けをする場合における、グループ間をまたがるフィラーが分断されて2本のフィラーとして判定されてしまう、という弊害を回避できる。分割工程(#1a)は、上述の補間工程(#0a)を経たデータに適用できる。 Since this image processing method includes such a division step (# 1a), the search range by the Monte Carlo method can be narrowed, so that image processing can be performed efficiently and the calculation load of the extraction main step (S2) can be reduced. Can do. In addition, since this method sets candidate regions based on adjacent voxels, it is possible to avoid the adverse effect that fillers that cross between groups are divided and determined as two fillers when grouping by coordinates. . The dividing step (# 1a) can be applied to the data that has undergone the above-described interpolation step (# 0a).
 図11乃至図14は、上述した画像処理方法のさらに他の変形例を示す。この変形例は、図11(a)(b)(c)に示すように、フィラーの形状を再現する形状モデルとして仮想円柱Mを用いるものである。仮想円柱Mは、その半径Rと長さLとによって形状が決定され、その中心軸上の両端点P1,P2の座標P1(x1,y1,z1),P2(x2,y2,z2)によって、XYZ直交座標空間における空間配置が決定されるので、8つのパラメータを有する。両端点P1,P2間の距離が長さLを与えるので、パラメータを7つにできる。フィラーの直径が既知で、一定の値に固定できる場合は、半径Rを固定して、6つのパラメータとすることができる。仮想円柱Mの配置は、両端点P1,P2の座標による表示に限らず、中心点Pcの座標を用いたり、極座標(r,θ,φ)を用いて仮想円柱の傾きを表示したりすることができる。 11 to 14 show still another modification of the above-described image processing method. In this modification, as shown in FIGS. 11A, 11B, and 11C, a virtual cylinder M is used as a shape model that reproduces the shape of the filler. The shape of the virtual cylinder M is determined by the radius R and the length L, and the coordinates P1 (x1, y1, z1) and P2 (x2, y2, z2) of the end points P1, P2 on the central axis are Since the spatial arrangement in the XYZ rectangular coordinate space is determined, it has eight parameters. Since the distance between the end points P1 and P2 gives the length L, the number of parameters can be seven. When the diameter of the filler is known and can be fixed to a constant value, the radius R can be fixed to obtain six parameters. The arrangement of the virtual cylinder M is not limited to the display using the coordinates of the end points P1 and P2, but the coordinates of the center point Pc are used, or the inclination of the virtual cylinder is displayed using the polar coordinates (r, θ, φ). Can do.
 このように、仮想円柱のパラメータとして、両端点の3次元座標、中心の3次元座標、方向(方位、高度)、長さ、半径などがあり、これらのうち、独立しているものは一部であり、残りは他の独立変数から導かれる。独立変数と従属変数の関係は相補的なものであり、どれを独立変数として扱うかは、ソフトウェア内で柔軟に変更することができる。例えば、端点の位置を変動する場合は、中心位置、長さ、および方向は端点の位置から導かれる。長さを変動する場合は、端点の位置は中心位置と長さから導かれる。フィラーの直径が既知である場合、円柱のパラメータとして、両端点の3次元座標(3×2=6自由度)のみを最適化すればよい。 As described above, the parameters of the virtual cylinder include the three-dimensional coordinates of the end points, the three-dimensional coordinates of the center, the direction (azimuth, altitude), the length, the radius, and the like. And the rest is derived from other independent variables. The relationship between the independent variable and the dependent variable is complementary, and which one is treated as an independent variable can be flexibly changed within the software. For example, when the position of the end point is changed, the center position, the length, and the direction are derived from the position of the end point. When the length is varied, the position of the end point is derived from the center position and the length. When the diameter of the filler is known, only the three-dimensional coordinates (3 × 2 = 6 degrees of freedom) of both end points need be optimized as the parameters of the cylinder.
 この画像処理方法は、図12に示すように、抽出工程(#2)のモデル設定工程(S1)においてフィラーの形状を再現する形状モデルとして仮想円柱を設定し、抽出メイン工程(S2)において仮想円柱を用いてフィラーの抽出を行う。抽出メイン工程(S2)では、候補領域内で仮想円柱Mの形状(半径、長さ)と配置(両端の座標等)のパラメータをランダムに変化させ、変化した形状と配置を有する仮想円柱と候補領域とのフィッティングの度合いを評価してフィラーが抽出される。フィッティングの度合いは、図13に示すように、各ボクセルBxの内、仮想円柱Mに含まれるボクセルBx(黒丸で示されている)のデータ値を評価値として、その評価値の積算値によって評価される。評価は、例えば、その積算値、仮想円柱Mに含まれるボクセルBxの個数N、積算値を個数Nで除算して規格化した値などを用いて、総合的に行われる。例えば、規格化した値が一定で個数Nが増大傾向にある場合は、フィッティングがまだ収束してなく、仮想円柱Mをさらに伸張できる、と判断される。積算値が最大となる仮想円柱Mの形状と配置が、フィラーの配向情報として抽出される。総合評価値、例えば、図14(a)(b)(c)の3次元画像G5は、それぞれ異なる視点から見た候補領域の3次元画像とその領域中でフィッティングされた1つの仮想円柱Mを示す。 In this image processing method, as shown in FIG. 12, a virtual cylinder is set as a shape model that reproduces the shape of the filler in the model setting step (S1) of the extraction step (# 2), and the virtual cylinder is extracted in the extraction main step (S2). The filler is extracted using a cylinder. In the extraction main process (S2), parameters of the shape (radius, length) and arrangement (coordinates at both ends) of the virtual cylinder M are randomly changed in the candidate area, and the virtual cylinder and candidate having the changed shape and arrangement are changed. The filler is extracted by evaluating the degree of fitting with the region. As shown in FIG. 13, the degree of fitting is evaluated based on the integrated value of the evaluation values with the data value of the voxel Bx (shown by a black circle) included in the virtual cylinder M among the voxels Bx as an evaluation value. Is done. The evaluation is comprehensively performed using, for example, the integrated value, the number N of voxels Bx included in the virtual cylinder M, a value obtained by dividing the integrated value by the number N, and the like. For example, when the normalized value is constant and the number N tends to increase, it is determined that the fitting has not yet converged and the virtual cylinder M can be further expanded. The shape and arrangement of the virtual cylinder M with the maximum integrated value are extracted as filler orientation information. The three-dimensional image G5 of FIGS. 14A, 14B, and 14C, for example, is a comprehensive evaluation value, and a three-dimensional image of a candidate region viewed from different viewpoints and one virtual cylinder M fitted in the region. Show.
 上述の仮想円柱Mを用いるフィラーの抽出処理をより詳細に説明する。フィラーの3次元画像、例えば、上述の3次元画像G4は、複数の候補領域の群を含み、各群は、それぞれ複数本のフィラーの画像を含んでいると考えられる。そこで、モデル設定工程(S1)において、それらのうちの1つの群について、複数の仮想円柱Mをランダムに生成し、各仮想円柱Mについて適合度を評価し、最も評価の高い仮想円柱Mを選択し、そのパラメータを初期パラメータとして採用する。次に、抽出メイン工程(S2)において、その初期パラメータから開始して、所定の変動範囲内で、パラメータをランダムに動かして評価し、評価が改善したら、パラメータを更新する。すなわち、最適化の基本アルゴリズムにはモンテカルロ法を用い、乱数を用いてパラメータを一定範囲内で変動させ、適合度の評価がより高くなるパラメータを採用する。この手順を、選択された仮想円柱について反復し、評価が改善しなくなったら、収束したとしてパラメータを確定し、これにより、1本のフィラーが抽出される。 The filler extraction process using the virtual cylinder M will be described in more detail. The filler three-dimensional image, for example, the above-described three-dimensional image G4 includes a group of a plurality of candidate regions, and each group is considered to include a plurality of filler images. Therefore, in the model setting step (S1), a plurality of virtual cylinders M are randomly generated for one group of them, the degree of fitness is evaluated for each virtual cylinder M, and the highest evaluation virtual cylinder M is selected. Then, the parameter is adopted as an initial parameter. Next, in the extraction main process (S2), starting from the initial parameters, evaluation is performed by moving the parameters randomly within a predetermined variation range, and the parameters are updated when the evaluation is improved. In other words, the Monte Carlo method is used as the optimization basic algorithm, and the parameter is varied within a certain range by using a random number, and a parameter with higher evaluation of the fitness is adopted. This procedure is repeated for the selected virtual cylinder, and if the evaluation does not improve, the parameters are determined as converged, thereby extracting one filler.
 次に、反復のための処理工程(S3)において、その抽出されたフィラーに関するボクセル、すなわち仮想円柱Mに属するボクセルは、候補領域から削除し、残りの候補領域について、同一群内で再度、初期パラメータを採用する手順から以後の手順を繰り返す。ボクセルが仮想円柱Mに属するか否かは、例えば、ボクセルの中心や1頂点などの、ボクセルに予め設定した点が仮想円柱M内に含まれているか否かで決めればよい。1つの群内でフィラーを抽出できなくなったら、他の群についてフィラーの抽出を行う。全ての群についてフィラーの抽出が終わった時点で、抽出工程(#2)が終了する。なお、1本のフィラーを抽出した後に候補領域からボクセルを削除する際に、所定の複数個数以下の島状のボクセルの組が発生したら、その島状のボクセルを同時に削除し、その後の処理の計算負荷を減らす。また、群内で、処理対象のボクセルの数が所定の個数以下になったとき、その群内でフィラーを抽出できなくなった、すなわち、群内で抽出が完了したと判断する。 Next, in the processing step (S3) for repetition, the voxels relating to the extracted filler, that is, the voxels belonging to the virtual cylinder M are deleted from the candidate areas, and the remaining candidate areas are again initialized within the same group. The subsequent procedure is repeated from the procedure of adopting the parameter. Whether or not the voxel belongs to the virtual cylinder M may be determined based on whether or not a point preset in the voxel such as the center or one vertex of the voxel is included in the virtual cylinder M. If fillers cannot be extracted within one group, fillers are extracted for the other group. When the filler extraction is completed for all groups, the extraction step (# 2) ends. In addition, when deleting a voxel from a candidate area after extracting one filler, if a set of a plurality of island-shaped voxels or less is generated, the island-shaped voxel is deleted at the same time, and the subsequent processing Reduce computational load. Further, when the number of voxels to be processed in the group becomes equal to or less than the predetermined number, it is determined that the filler cannot be extracted in the group, that is, the extraction is completed in the group.
 図15は、上述した画像処理方法のさらに他の変形例を示す。この画像処理方法の抽出工程(#2)は、上述のモデル設定工程(S1)の後の抽出メイン工程(S2)が、評価点設定工程(S21)を備えるものである。評価点設定工程(S21)は、仮想円柱M内にボクセルのサイズ以下の間隔で多数の評価点(サンプリング点)を設定し、各評価点にボクセルのデータ値に基づく評価値を付与する。 FIG. 15 shows still another modification of the above-described image processing method. In the extraction step (# 2) of this image processing method, the extraction main step (S2) after the model setting step (S1) includes an evaluation point setting step (S21). In the evaluation point setting step (S21), a large number of evaluation points (sampling points) are set in the virtual cylinder M at intervals equal to or smaller than the size of the voxel, and an evaluation value based on the data value of the voxel is given to each evaluation point.
 評価点は、例えば、上述の図13に示した仮想円柱M内のボクセルBxを上述の図8に示したように細分化して得た小さなボクセルの代表点、および、元の大きなボクセルの代表点とすればよい。各評価点の評価値は、細分化で生成されたボクセルを含む元の大きなボクセルのデータ値である。このような評価点と評価値は、仮想円柱M内だけで生成される。これにより、ボクセルデータの全体でデータ密度を上げる場合(例えば、図8)に比べて、計算を局所的に済ますことができる利点がある。評価点は、ボクセルの位置とデータ値とで構成されるボクセルデータ空間に固定された点であり、仮想円柱Mは、そのパラメータの変動に伴って、ボクセルデータ空間内で位置を変え、伸縮し、取り込んだ評価点によって、評価される。 The evaluation points are, for example, the representative points of small voxels obtained by subdividing the voxel Bx in the virtual cylinder M shown in FIG. 13 as shown in FIG. 8 and the representative points of the original large voxel. And it is sufficient. The evaluation value of each evaluation point is a data value of an original large voxel including voxels generated by subdivision. Such evaluation points and evaluation values are generated only within the virtual cylinder M. Accordingly, there is an advantage that the calculation can be completed locally as compared with the case where the data density is increased in the entire voxel data (for example, FIG. 8). The evaluation point is a point fixed in the voxel data space composed of the position of the voxel and the data value, and the virtual cylinder M changes its position in the voxel data space and expands / contracts as its parameters change. It is evaluated according to the acquired evaluation points.
 抽出メイン工程(S2)は、上述の図12の抽出メイン工程(S2)におけるボクセルのデータ値の積算値に代えて、各評価点に付与された評価値の積算値を用いて、フィッティングの度合いを評価する。このようなボクセルの細分化による評価点とその評価値を用いることにより、仮想円柱M内に含まれるボクセルの体積をより精度良く積算値に取り込んで、フィッティングの度合いを、より精度良く評価することができる。 In the extraction main step (S2), instead of the integrated value of the voxel data values in the extraction main step (S2) of FIG. 12 described above, the integrated value of the evaluation value given to each evaluation point is used, and the degree of fitting To evaluate. By using the evaluation points and evaluation values of such voxel subdivision, the volume of the voxels contained in the virtual cylinder M can be taken into the integrated value with higher accuracy, and the degree of fitting can be evaluated with higher accuracy. Can do.
 図16は、上述した画像処理方法のさらに他の変形例を示す。この画像処理方法の抽出工程(#2)は、上述の評価点設定工程(S21)の後に、評価値補間工程(S22)を備えるものである。すなわち、評価値補間工程(S22)は、評価点に付与する評価値として、元のボクセルのデータ値を用いて線形補間して得られる値を、評価点の評価値とする。この場合、評価点は、ボクセルの代表点およびボクセルの代表点間に内挿した点であり、内挿による評価点の評価値はボクセルのデータ値を用いた線形補間で与えられる。線形補間の方法として、三重線形補間を用いることができる。例えば、各ボクセル間の中間位置に評価点を設定する場合、その評価点を囲む8つのボクセルのデータ値(評価値)の三重線形補間によって、評価点の評価値を決定すればよい。このような評価値補間工程(S22)を備えることにより、フィッティングの度合いを、より精度良く評価することができる。 FIG. 16 shows still another modification of the above-described image processing method. The extraction step (# 2) of the image processing method includes an evaluation value interpolation step (S22) after the above-described evaluation point setting step (S21). That is, in the evaluation value interpolation step (S22), a value obtained by linear interpolation using the data value of the original voxel is used as the evaluation value of the evaluation point as the evaluation value to be given to the evaluation point. In this case, the evaluation point is a point interpolated between the representative point of the voxel and the representative point of the voxel, and the evaluation value of the evaluation point by the interpolation is given by linear interpolation using the data value of the voxel. Triple linear interpolation can be used as a linear interpolation method. For example, when an evaluation point is set at an intermediate position between each voxel, the evaluation value of the evaluation point may be determined by triple linear interpolation of data values (evaluation values) of eight voxels surrounding the evaluation point. By providing such an evaluation value interpolation step (S22), the degree of fitting can be evaluated more accurately.
 図17は、上述した画像処理方法のさらに他の変形例を示す。この画像処理方法の抽出工程(#2)は、上述の評価値補間工程(S22)の後に、評価値減算工程(S23)、ペナルティ工程(S24)、重み付け工程(S25)をさらに備えている。評価値減算工程(S23)は、評価値から所定の閾値を差し引いた値を新たに評価値とする。ペナルティ工程(S24)は、評価値が負の場合に、その値に所定の正数を掛けた値を新たな評価値とする。例えば、評価値が負の値を取る場合に評価値を10倍した値を新たな評価値とする。これらにより、仮想円柱がフィラー領域から出ることを抑止でき、フィラーの抽出効率を向上できる。重み付け工程(S25)は、仮想円柱の中心軸に近い位置の評価値ほど大きくなるように重み付けをする、例えば、中心軸からの距離の逆数に比例するように重み付けをする工程である。このような重み付けにより、仮想円柱の中心軸が、評価値の高い部分に早く近づくように、処理を加速することができる。 FIG. 17 shows still another modification of the above-described image processing method. The extraction step (# 2) of the image processing method further includes an evaluation value subtraction step (S23), a penalty step (S24), and a weighting step (S25) after the evaluation value interpolation step (S22). In the evaluation value subtraction step (S23), a value obtained by subtracting a predetermined threshold value from the evaluation value is newly set as the evaluation value. In the penalty step (S24), when the evaluation value is negative, a value obtained by multiplying the value by a predetermined positive number is set as a new evaluation value. For example, when the evaluation value takes a negative value, a value obtained by multiplying the evaluation value by 10 is set as a new evaluation value. By these, it can suppress that a virtual cylinder comes out of a filler area | region, and can improve the extraction efficiency of a filler. The weighting step (S25) is a step of weighting so that the evaluation value at a position closer to the central axis of the virtual cylinder becomes larger, for example, weighting so as to be proportional to the reciprocal of the distance from the central axis. By such weighting, the processing can be accelerated so that the central axis of the virtual cylinder quickly approaches a portion with a high evaluation value.
 図18、図19、図20は、画像処理方法のさらに他の変形例を示す。この画像処理方法は、上述した方法におけるボクセルデータ空間に固定された評価点を用いることに替えて、形状モデル(仮想円柱M)の位置、姿勢、形状の変化に合わせて位置が変化する評価点を用いるものである。図18(a)に示すように、パラメータの変動により、長さL0の仮想円柱Mの端点P1が位置Pxに移動した場合を考える。フィッティングの評価は、図18(b)に示す、端点P1,P2を有する長さLの傾いた仮想円柱Mについて行われる。端点P1は、元の位置P0から位置Pxに移動している。図18(b)(c)に示すように、評価点bは、仮想円柱M(形状モデル)の中心軸に垂直な円盤Bを端点P1,P2間に一定の間隔Δ1で設定し、各円盤B上に同心円状に配置設定される。円盤B上の評価点bは、半径R方向に一定の間隔Δ2、円周方向に一定の間隔Δ3で配置される。図19は、仮想円柱Mを、高さ、半径、円周方向のそれぞれについて細かく分割し、各分割点に評価点bを設定した様子を示す。画像G6中の仮想円柱Mの周辺のグレー部分は、閾値以上のデータ値を有して候補領域を形成しているボクセルを表す。 FIG. 18, FIG. 19, and FIG. 20 show still another modification of the image processing method. In this image processing method, instead of using the evaluation point fixed in the voxel data space in the above-described method, the evaluation point whose position changes in accordance with the change in the position, posture, and shape of the shape model (virtual cylinder M) Is used. As shown in FIG. 18A, a case is considered in which the end point P1 of the virtual cylinder M having the length L0 is moved to the position Px due to the change of the parameter. Fitting evaluation is performed on an inclined virtual cylinder M having a length L and having end points P1 and P2 shown in FIG. The end point P1 has moved from the original position P0 to the position Px. As shown in FIGS. 18B and 18C, the evaluation point b is set such that a disk B perpendicular to the central axis of the virtual cylinder M (shape model) is set at a constant interval Δ1 between the end points P1 and P2. A concentric arrangement is set on B. Evaluation points b on the disk B are arranged at a constant interval Δ2 in the radius R direction and at a constant interval Δ3 in the circumferential direction. FIG. 19 shows a state in which the virtual cylinder M is finely divided in each of height, radius, and circumferential direction, and evaluation points b are set at the respective division points. A gray portion around the virtual cylinder M in the image G6 represents a voxel having a data value equal to or greater than a threshold value and forming a candidate area.
 図20を参照して、この画像処理方法の抽出工程(#2)を説明する。モデル設定工程(S1)では、仮想円柱Mの端点P1,P2の位置および半径Rの初期値が設定される。抽出メイン工程(S2)は、単一の直線上のフィラーを抽出するため、工程(S101~S110)を繰り返す。モデル設定工程(S1)と抽出メイン工程(S2)とを合わせて、単一直線工程(#21)と称することにする。 The extraction process (# 2) of this image processing method will be described with reference to FIG. In the model setting step (S1), the positions of the end points P1, P2 of the virtual cylinder M and the initial value of the radius R are set. In the extraction main step (S2), the steps (S101 to S110) are repeated to extract fillers on a single straight line. The model setting process (S1) and the extraction main process (S2) are collectively referred to as a single straight line process (# 21).
 抽出メイン工程(S2)の最初に、変数Piに端点P1を設定し(S101)、端点P1の位置を変動させる(S102)。端点P2と変動後の端点P1の間に、等間隔に円盤Bを配置し(S103)、各円盤Bに同心円状に評価点b(サンプリング点)を配置する(S104)。円盤Bは、端点P1,P2にも配置される。評価点bは、仮想円柱Mに対して設定されるため、ボクセルデータ空間に対して非固定であり、任意の配置となる。各評価点bに、ボクセルのデータ値に基づいて3重線形補間で求めた評価値を付与する(S105)。仮想円柱M内の全ての評価点bの評価値を積算し、その積算値によってフィッティングの度合いが評価される(S106)。 At the beginning of the extraction main process (S2), the end point P1 is set to the variable Pi (S101), and the position of the end point P1 is changed (S102). Discs B are arranged at equal intervals between the end point P2 and the changed end point P1 (S103), and evaluation points b (sampling points) are arranged concentrically on each disc B (S104). The disk B is also arranged at the end points P1 and P2. Since the evaluation point b is set for the virtual cylinder M, the evaluation point b is not fixed with respect to the voxel data space and is arbitrarily arranged. An evaluation value obtained by triple linear interpolation based on the voxel data value is assigned to each evaluation point b (S105). The evaluation values of all evaluation points b in the virtual cylinder M are integrated, and the degree of fitting is evaluated by the integrated value (S106).
 端点P1の変動に対する評価の結果、モンテカルロ法における処理が収束していなければ(S107でNo)、工程(S102)からの処理が繰り返される。処理が収束ならば(S107でYes)、工程(S108)を経由して、変数Piに端点P2を設定し(S109)、端点P2について、端点P1の場合と同様に工程(S102~S107)が行われる。両端点P1,P2の各々についての収束が確認されると(S108でYes)、収束判断のために、工程(S101)からの処理が少なくとも1回強制的に繰り返される。両端点P1,P2の変動に対する評価の向上が収束したと判断されると(S110でYes)、抽出メイン工程(S2)が終了する。これにより、単一直線工程(#21)が終了する。工程(S3、S4)は上記同様である。 As a result of the evaluation with respect to the fluctuation of the end point P1, if the processing in the Monte Carlo method has not converged (No in S107), the processing from the step (S102) is repeated. If the process is converged (Yes in S107), the end point P2 is set to the variable Pi via the step (S108) (S109), and the steps (S102 to S107) are performed for the end point P2 as in the case of the end point P1. Done. When convergence is confirmed for each of the two end points P1 and P2 (Yes in S108), the process from step (S101) is forcibly repeated at least once to determine convergence. If it is determined that the improvement in evaluation with respect to the fluctuations of the end points P1 and P2 has converged (Yes in S110), the extraction main process (S2) ends. Thereby, a single straight line process (# 21) is complete | finished. Steps (S3, S4) are the same as above.
 上述の円盤B上の同心円状に配置した評価点bを用いることにより、形状モデルすなわち仮想円柱Mに含まれる情報を、仮想円柱Mの外形境界部分において取りこぼすことなく有効利用できる。上述の工程(S106)におけるフィッティングの度合いの評価には、上述した図17における評価値減算工程(S23)、ペナルティ工程(S24)、重み付け工程(S25)の手法を用いることができる。 By using the evaluation points b arranged concentrically on the above-described disk B, the information included in the shape model, that is, the virtual cylinder M can be effectively used without being missed in the outer boundary portion of the virtual cylinder M. For the evaluation of the degree of fitting in the above-described step (S106), the methods of the evaluation value subtraction step (S23), penalty step (S24), and weighting step (S25) in FIG. 17 described above can be used.
 図21乃至図28は、画像処理方法のさらに他の変形例を示す。この画像処理方法は、湾曲したフィラーに対応できる形状モデルを用いるものである。図21の画像G7に示すように、複合材料中の繊維状フィラーの3次元画像中に湾曲したフィラーFが発生することがある。これは、複合材料の強度向上のために繊維状のフィラーの長繊維化が図られる結果、フィラーが、より湾曲しやすいことによる。図22の画像G8に示すように、このような湾曲したフィラーについて仮想円柱Mによるフィッティングを行うと、複数の短い仮想円柱Mに分断された結果が得られる。そこで、湾曲したフィラーに対応できる形状モデルとして、複数の制御点によって定義されるスプライン曲線を中心軸とする一定半径の仮想パイプ(チューブ)を用いる。 21 to 28 show still another modification of the image processing method. This image processing method uses a shape model that can cope with a curved filler. As shown in an image G7 in FIG. 21, a curved filler F may be generated in the three-dimensional image of the fibrous filler in the composite material. This is because the filler is more easily bent as a result of increasing the length of the fibrous filler to improve the strength of the composite material. As shown in an image G8 in FIG. 22, when such a curved filler is fitted with the virtual cylinder M, a result of being divided into a plurality of short virtual cylinders M is obtained. Therefore, a virtual pipe (tube) having a constant radius having a spline curve defined by a plurality of control points as a central axis is used as a shape model that can deal with a curved filler.
 図23に示すように、この画像処理方法の抽出工程(#2)は、モデル設定工程(S1)と抽出メイン工程(S2)とを合わせた単一曲線工程(#22)と、その後の工程(S3,S4)とを備えている。モデル設定工程(S1)では、端点P1,P2間に、n個の制御点{Ci:i=1,・・,n},C1=P1,Cn=P2を等間隔に配置し、初期値として直線状のスプライン曲線が設定される。このスプライン曲線に半径Rを付加して、スプライン曲線を中心軸とする一定半径Rの仮想パイプMPが設定される。スプライン曲線は、制御点間を任意の多項式で接続した曲線であり、従って、その曲線は必ず制御点を通る曲線または直線である。 As shown in FIG. 23, the extraction process (# 2) of this image processing method includes a single curve process (# 22) in which the model setting process (S1) and the extraction main process (S2) are combined, and subsequent processes. (S3, S4). In the model setting step (S1), n control points {Ci: i = 1,..., N}, C1 = P1, Cn = P2 are arranged at equal intervals between the end points P1 and P2, and used as initial values. A straight spline curve is set. A radius R is added to the spline curve to set a virtual pipe MP having a constant radius R with the spline curve as the central axis. A spline curve is a curve in which control points are connected by an arbitrary polynomial. Therefore, the curve is always a curve or a straight line passing through the control points.
 抽出メイン工程(S2)では、全制御点Ciがスプライン曲線上に等間隔に再配置され(S200)、変数i=1とされ(S201)、端点P1=C1の位置が変動される(S202)。図24(a)に、スプライン曲線Spと制御点{Ci:i=1,・・,n}を備えた仮想パイプMPが示されている。制御点C1(端点P1)の位置が移動される様子が示されている。なお、図24(b)は、制御点C1が移動した後、工程(S200)によって、スプライン曲線Sp上で全制御点Ciが等間隔に再配置される様子を示す。 In the extraction main process (S2), all control points Ci are rearranged at equal intervals on the spline curve (S200), the variable i is set to 1 (S201), and the position of the end point P1 = C1 is changed (S202). . FIG. 24A shows a virtual pipe MP having a spline curve Sp and control points {Ci: i = 1,..., N}. A state in which the position of the control point C1 (end point P1) is moved is shown. FIG. 24B shows a state in which all control points Ci are rearranged at equal intervals on the spline curve Sp by the step (S200) after the control point C1 is moved.
 上述の工程(S202)による制御点C1(一般化して制御点Ci)の位置変動後に、図25(a)に示すように、スプライン曲線Spすなわち仮想パイプの中心軸に沿って、その中心軸に垂直に、等間隔に、円盤Bが配置される(S203)。各円盤Bには、図25(b)に示すように、同心円状に評価点bが配置される(S204)。この円盤Bの配置間隔の設定や円盤B上の評価点の配置は、上述した図18(b)(c)に示したΔ1,Δ2,Δ3と同様の値を用いて行えばよい。評価点bは、仮想パイプMPに対して設定されるため、ボクセルデータ空間に対して非固定であり、任意の配置となる。 After the position change of the control point C1 (generally, the control point Ci) in the above-described step (S202), as shown in FIG. 25A, along the spline curve Sp, that is, along the central axis of the virtual pipe, The disks B are arranged vertically and at equal intervals (S203). In each disk B, as shown in FIG. 25B, the evaluation points b are arranged concentrically (S204). The setting of the arrangement interval of the disks B and the arrangement of the evaluation points on the disks B may be performed using the same values as Δ1, Δ2, and Δ3 shown in FIGS. Since the evaluation point b is set for the virtual pipe MP, it is not fixed with respect to the voxel data space and is arbitrarily arranged.
 各評価点bには、ボクセルのデータ値に基づいて3重線形補間で求めた評価値が付与される(S205)。仮想パイプMP内の全ての評価点bの評価値を積算し、その積算値によってフィッティングの度合いが評価される(S206)。単一の制御点Ciの変動に対する評価の結果、モンテカルロ法における処理が収束していなければ(S207でNo)、工程(S202)からの処理が繰り返される。処理が収束ならば(S207でYes)、工程(S208)を経由して、変数iについて、i=i+1とされ(S209)、次の制御点Ciについて、上記同様に工程(S202~S207)が行われる。 Each evaluation point b is given an evaluation value obtained by triple linear interpolation based on the voxel data value (S205). The evaluation values of all evaluation points b in the virtual pipe MP are integrated, and the degree of fitting is evaluated based on the integrated value (S206). As a result of the evaluation with respect to the fluctuation of the single control point Ci, if the processing in the Monte Carlo method has not converged (No in S207), the processing from the step (S202) is repeated. If the process is converged (Yes in S207), the variable i is set to i = i + 1 (S209) via the step (S208), and the steps (S202 to S207) are performed for the next control point Ci in the same manner as described above. Done.
 全制御点C1~Cnの各々についての収束が確認されると(S108でYes)、収束判断のために、工程(S201)からの処理が少なくとも1回強制的に繰り返される。両端点P1,P2の変動に対する評価の向上が収束したと判断されると(S210でYes)、抽出メイン工程(S2)が終了する。これにより、単一曲線工程(#22)が終了する。工程(S3、S4)は上記同様である。図26の画像G9は、仮想パイプMPに評価点bを設定した状態を示す。図27の画像G10は、仮想パイプMPを用いたフィッティング途中の状態を示す。 When convergence for each of all the control points C1 to Cn is confirmed (Yes in S108), the process from step (S201) is forcibly repeated at least once to determine convergence. If it is determined that the improvement in evaluation with respect to the fluctuations of the end points P1 and P2 has converged (Yes in S210), the extraction main process (S2) ends. Thereby, a single curve process (# 22) is complete | finished. Steps (S3, S4) are the same as above. An image G9 in FIG. 26 shows a state in which the evaluation point b is set for the virtual pipe MP. An image G10 in FIG. 27 shows a state during fitting using the virtual pipe MP.
 上記において、制御点Ciの数nを可変としてもよい。例えば、最初はn=2、すなわち仮想円柱Mとし、制御点Ciを際配置する工程(S200~S208)のタイミングで、nを増やせばよい。また、上記において、制御点{Ci:i=1,・・,n}は、図28(a)に示すように、その並びの順番に、制御点C1から位置の変動を行い、全体の繰り返しの際も、同じく制御点C1から位置の変動を行っている。これに対し、図28(b)に示すように、制御点C1から位置の変動を行い、全体の繰り返しの際には、逆順で制御点Cnから位置の変動を行うようにしてもよい。また、図28(c)に示すように、制御点{Ci:i=1,・・,n}の両端から、交互に、制御点Ciの位置の変動を行うようにしてもよい。制御点Ciの位置の変動の順番は、例えば、変動量の大きいところを先に変動させることで早期に収束させるために、任意に選択することができる。 In the above, the number n of the control points Ci may be variable. For example, initially, n = 2, that is, a virtual cylinder M, and n may be increased at the timing of the step (S200 to S208) for arranging the control points Ci. Further, in the above, the control points {Ci: i = 1,..., N} are changed in position from the control point C1 in the order of arrangement as shown in FIG. Also in this case, the position is changed from the control point C1. On the other hand, as shown in FIG. 28B, the position may be changed from the control point C1, and the position may be changed from the control point Cn in the reverse order when the whole is repeated. Further, as shown in FIG. 28C, the position of the control point Ci may be changed alternately from both ends of the control point {Ci: i = 1,..., N}. The order of variation of the position of the control point Ci can be arbitrarily selected, for example, in order to converge at an early stage by first varying the portion where the variation amount is large.
 図29、図30は、画像処理方法のさらに他の変形例を示す。この画像処理方法は、図29に示すように、上述の図20に示した単一直線工程(#21)と、図23に示した単一曲線工程(#22)と、その後の新たな判定工程(#23)と、を組み合わせた処理方法である。すなわち、この画像処理方法は、仮想円柱Mによる単一のフィラーに対するフィッティングを行い(#21)、決定された仮想円柱Mの両端点P1,P2を端点とする仮想パイプMPを用いて単一のフィラーに対するフィッティングを行う(#22)。その後、判定工程(#23)において、単一直線工程(#21)による評価結果と、単一曲線工程(#22)による評価結果とを比較する(S30)。比較の結果、仮想パイプMPによる評価が所定割合、例えば10%以上、改善している場合に(S30でYes)、仮想パイプMPによるフィッティング結果を採用し(S31)、そうでない場合は(S30でNo)、仮想円柱Mによる結果を採用する(S32)。 29 and 30 show still another modification of the image processing method. As shown in FIG. 29, this image processing method includes the single straight line process (# 21) shown in FIG. 20, the single curve process (# 22) shown in FIG. 23, and a new determination process thereafter. (# 23). That is, in this image processing method, fitting to a single filler by the virtual cylinder M is performed (# 21), and a single virtual pipe MP having the endpoints P1 and P2 of the determined virtual cylinder M as end points is used. Fitting to the filler is performed (# 22). Thereafter, in the determination step (# 23), the evaluation result by the single straight line step (# 21) is compared with the evaluation result by the single curve step (# 22) (S30). As a result of the comparison, if the evaluation by the virtual pipe MP is improved by a predetermined ratio, for example, 10% or more (Yes in S30), the fitting result by the virtual pipe MP is adopted (S31), and otherwise (in S30) No), the result by the virtual cylinder M is adopted (S32).
 図30(a)~(h)を参照して、上述の処理の具体例を説明する。図30(a)に示すように、直線状の形状モデルである仮想円柱Mによってフィッティングを行うと4つの仮想円柱Mでフィッティングされるような、湾曲した1本のフィラーを想定する。湾曲したフィラーの全長に対して、単一直線工程(#21)によって、短い仮想円柱Mが抽出されている。図30(b)に示すように、抽出された仮想円柱Mに対して、単一曲線工程(#22)により、直線状のスプライン曲線Spが設定され、端点P1に位置する制御点C1の位置が変動される。図30(c)に示すように、制御点C1の位置が変動される毎に、制御点Ciの再配置とフィッティングの評価が行われ、さらに、制御点C1の位置が変動される。図30(d)に示すように、制御点C1の位置がフィラーの端部に至ると、制御点C1の位置の変動が収束する。 A specific example of the above process will be described with reference to FIGS. 30 (a) to 30 (h). As shown in FIG. 30 (a), a curved filler that is fitted with four virtual cylinders M when fitting with a virtual cylinder M that is a linear shape model is assumed. The short virtual cylinder M is extracted by the single linear process (# 21) with respect to the entire length of the curved filler. As shown in FIG. 30B, a straight spline curve Sp is set for the extracted virtual cylinder M by the single curve step (# 22), and the position of the control point C1 located at the end point P1 Is fluctuated. As shown in FIG. 30C, each time the position of the control point C1 is changed, the rearrangement of the control point Ci and the evaluation of the fitting are performed, and the position of the control point C1 is further changed. As shown in FIG. 30 (d), when the position of the control point C1 reaches the end of the filler, the variation in the position of the control point C1 converges.
 その後、図30(e)~(g)に示すように、制御点C2,C3,・・,Cnと順番に位置の変動と評価が行われ、制御点Cnの位置がフィラーの他端部に至ると、制御点Cnの位置の変動が収束する。この後、再度、制御点C1から順に、制御点Cnまで位置の変動と評価が行われ、評価の向上の変化具合に基づいて、1本のフィラーに対する抽出の収束が確認される。その結果、図30(h)に示すように、湾曲した1本のフィラーに対する仮想パイプMPが決定される。 Thereafter, as shown in FIGS. 30 (e) to 30 (g), position variation and evaluation are performed in order of the control points C2, C3,..., Cn, and the position of the control point Cn is at the other end of the filler. As a result, the fluctuation of the position of the control point Cn converges. Thereafter, the position variation and the evaluation are performed again sequentially from the control point C1 to the control point Cn, and the convergence of the extraction for one filler is confirmed based on the degree of change in the evaluation. As a result, as shown in FIG. 30H, the virtual pipe MP for one curved filler is determined.
 図31は、一実施形態に係る複合材料中の繊維状フィラーの3次元画像処理装置(以下、画像処理装置2という)を示す。画像処理装置2は領域選出部11、モデル設定部12、抽出メイン部13、データ入力部14、操作部15、表示部16、および、これらを制御する制御部10とを備え、母材に繊維状のフィラーを含有した複合材料の3次元画像からフィラーの配向情報を抽出する。3次元画像は、データ入力部14から入力される。制御部10は、コンピュータで構成され、領域選出部11、モデル設定部12、および、抽出部メイン13は、コンピュータ上で動作するプログラムで構成されている。データ入力部14、操作部15、および表示部16は、通常のコンピュータに備えられる、USBポート、DVDプレーヤ、ハードディスク、キーボード、マウス、ポインタ、フラットパネルディスプレイ等の機器からなる。 FIG. 31 shows a three-dimensional image processing apparatus (hereinafter referred to as image processing apparatus 2) for fibrous filler in a composite material according to an embodiment. The image processing apparatus 2 includes an area selection unit 11, a model setting unit 12, an extraction main unit 13, a data input unit 14, an operation unit 15, a display unit 16, and a control unit 10 that controls these, and a fiber as a base material. The orientation information of the filler is extracted from the three-dimensional image of the composite material containing the filler. The three-dimensional image is input from the data input unit 14. The control unit 10 is configured by a computer, and the region selection unit 11, the model setting unit 12, and the extraction unit main 13 are configured by programs that run on the computer. The data input unit 14, the operation unit 15, and the display unit 16 include devices such as a USB port, a DVD player, a hard disk, a keyboard, a mouse, a pointer, and a flat panel display that are provided in a normal computer.
 領域選出部11は、複合材料の3次元画像中にフィラーを表す領域であると推定される領域を含む候補領域を選出して設定する。モデル設定部12は、領域選出部11によって設定された候補領域に対し、形状と配置をそれぞれ変化させるパラメータを有してフィラーの形状を再現する形状モデルを設定する。抽出メイン部13は、モデル設定部12によって設定された形状モデルのパラメータをランダムに変化させることによりモンテカルロ法に基づいて候補領域に形状モデルをフィッティングさせる。抽出メイン部13は、そのフィッティングした形状モデルの形状と配置をフィラーの配向情報として抽出する。制御部10は、3次元画像中のフィラーの抽出が完了するまで、モデル設定部12と抽出メイン部13の動作を反復させる。領域選出部11、モデル設定部12、抽出メイン部13、およびデータ入力部14は、上述した図2における領域選出工程(#1)、モデル設定工程(S1)、抽出メイン工程(S2)、およびデータ入力工程(#0)の各処理を実行する。また、画像処理装置2は、図1、図2のフローチャートによって説明した処理に限らず、他のフローチャートによって説明した処理を行うことができる。 The region selection unit 11 selects and sets candidate regions including a region estimated to be a region representing a filler in a three-dimensional image of a composite material. The model setting unit 12 sets a shape model that reproduces the filler shape with parameters that change the shape and the arrangement of the candidate region set by the region selection unit 11. The extraction main unit 13 fits the shape model to the candidate region based on the Monte Carlo method by randomly changing the parameters of the shape model set by the model setting unit 12. The extraction main unit 13 extracts the shape and arrangement of the fitted shape model as filler orientation information. The control unit 10 repeats the operations of the model setting unit 12 and the extraction main unit 13 until extraction of the filler in the three-dimensional image is completed. The region selection unit 11, the model setting unit 12, the extraction main unit 13, and the data input unit 14 are the region selection step (# 1), the model setting step (S1), the extraction main step (S2) in FIG. Each process of the data input process (# 0) is executed. In addition, the image processing apparatus 2 is not limited to the processing described with reference to the flowcharts of FIGS. 1 and 2 and can perform the processing described with reference to other flowcharts.
 (実施例)
 図32、図33は実施例を示す。図32は、図3(b)に示した複合材料Cについて、本画像処理方法および画像処理装置を用いて抽出した繊維状フィラーの3次元画像G11を示す。複合材料C(供試材料)は、上述の図3(a)に示した、外形長さ17.8×幅1.83×高さ0.4mm、開口部長さ16.5mm、底面部厚み0.12mm、側面厚み0.163mmの各寸法を有する箱形状の薄肉射出成形品1の中央部を切り出したものである。複合材料Cは、平均繊維長88μmのガラス繊維をフィラーとして添加した超耐熱性のI型と呼ばれる液晶ポリマーであり、成形は最大型締力196kNのプリプラ式射出成形機を用いて行った。
(Example)
32 and 33 show an embodiment. FIG. 32 shows a three-dimensional image G11 of the fibrous filler extracted from the composite material C shown in FIG. 3B by using the present image processing method and image processing apparatus. The composite material C (test material) has the outer length 17.8 × width 1.83 × height 0.4 mm, opening length 16.5 mm, bottom surface thickness 0 shown in FIG. The central part of a box-shaped thin-walled injection-molded product 1 having dimensions of 12 mm and a side surface thickness of 0.163 mm is cut out. The composite material C is a super heat-resistant type I liquid crystal polymer to which glass fibers having an average fiber length of 88 μm are added as a filler, and molding was performed using a pre-plastic injection molding machine having a maximum clamping force of 196 kN.
 X線CTによる3次元画像は、マイクロフォーカスX線CTを用いて撮像した成形品の断層画像のデータから再構成した。再構成した画像は、上述の図4に3次元画像G1として示されており、L字型の成形品形状と、内部のガラス繊維の存在を目視確認できる。3次元画像データの大きさは、300×348×200ボクセルであり、1ボクセルの1辺の実サイズは約3μmである。この実施例では、形状モデルとして仮想円柱を用いて抽出を行った。ガラス繊維の直径が10μmと既知である。従って、仮想円柱のパラメータとして、両端点の3次元座標(3×2=6自由度)のみを、モンテカルロ法によって変化させて最適化した。適合度(フィッティングの度合い)の評価は、図18,図19に示した評価点b(サンプリング点)を用いる方法で行った。 The 3D image by X-ray CT was reconstructed from the tomographic image data of the molded product imaged using microfocus X-ray CT. The reconstructed image is shown as the three-dimensional image G1 in FIG. 4 described above, and the L-shaped molded product shape and the presence of the internal glass fiber can be visually confirmed. The size of the three-dimensional image data is 300 × 348 × 200 voxels, and the actual size of one side of one voxel is about 3 μm. In this example, extraction was performed using a virtual cylinder as a shape model. The diameter of the glass fiber is known as 10 μm. Therefore, only the three-dimensional coordinates (3 × 2 = 6 degrees of freedom) of both end points were optimized by changing the parameters of the virtual cylinder by the Monte Carlo method. Evaluation of the fitness (degree of fitting) was performed by a method using the evaluation point b (sampling point) shown in FIGS.
 図33は、本画像処理方法および画像処理装置を用いて抽出したフィラーの繊維長の分布を示す実施例であり、実測したフィラーの繊維長の分布を比較例として、一緒に示す。比較例の実測値は、供試材料の樹脂部分を焼いてガラス繊維のみを取り出し、その長さを実測して得たものである。実施例と比較例の両者の繊維長分布は、良い一致を示している。また、例えば、度数の最大を与える60~80μmのビンにおいて、実施例では22.2%であり、比較例では27.0%であり、その差は4.8%に納まっている。また、本画像処理方法および画像処理装置を用いる実施例により、供試材料を破壊することなく、非破壊で、フィラーの配向情報を抽出することができた。ここでは、フィラーの配向情報を抽出する際に得られるフィラーの繊維長の分布のみを示したが、複合材料C(供試材料)におけるフィラーの配向や配向度の分布は、個々のフィラーの配向情報から、直接、定量的に算出することができる。 FIG. 33 is an example showing the fiber length distribution of the filler extracted using the present image processing method and image processing apparatus, and the measured fiber length distribution of the filler is shown together as a comparative example. The measured values of the comparative examples are obtained by baking only the glass fiber by baking the resin portion of the test material and measuring the length. The fiber length distributions of both the example and the comparative example show good agreement. Further, for example, in the bottle of 60 to 80 μm that gives the maximum frequency, it is 22.2% in the example and 27.0% in the comparative example, and the difference is within 4.8%. Further, according to the example using the image processing method and the image processing apparatus, the orientation information of the filler could be extracted non-destructively without destroying the test material. Here, only the fiber length distribution of the filler obtained when extracting the filler orientation information is shown, but the filler orientation and orientation degree distribution in the composite material C (test material) are the individual filler orientations. It can be directly calculated quantitatively from the information.
 なお、本発明は、上記構成に限られることなく種々の変形が可能である。例えば、上述した各実施形態および変形例の構成を互いに組み合わせた構成とすることができ、また、各工程の順番を適宜入れ替えた構成とすることができる。例えば、評価点設定工程(S21)は、領域選出工程(#1)の後であって、モデル設定工程(S1)よりも前に、備える構成としてもよい。この場合、評価点(サンプリング点)は、例えば、ボクセルを細分化した各分割点に設定すればよく、形状モデルに依存することなく3次元画像空間に固定した評価点とすることができる。また、評価値減算工程(S23)、ペナルティ工程(S24)、および、重み付け工程(S25)は、評価点を用いない場合、すなわち、ボクセルのデータ値を評価値とする場合にも適用することができる。 It should be noted that the present invention is not limited to the above configuration and can be variously modified. For example, it can be set as the structure which mutually combined the structure of each embodiment and modification which were mentioned above, and can be set as the structure which replaced the order of each process suitably. For example, the evaluation point setting step (S21) may be provided after the region selection step (# 1) and before the model setting step (S1). In this case, the evaluation points (sampling points) may be set to, for example, each division point obtained by subdividing the voxels, and can be set as evaluation points fixed in the three-dimensional image space without depending on the shape model. The evaluation value subtraction step (S23), penalty step (S24), and weighting step (S25) can also be applied to the case where no evaluation score is used, that is, the case where the voxel data value is used as the evaluation value. it can.
 また、3次元画像の分解能が高く、ボクセルのサイズが形状モデル(フィラー)のサイズよりも十分小さい場合には、評価点(サンプリング点)を設定する必要はなく、逆に、ボクセルを統合する工程を備える構成とすることができる。例えば、4つのボクセルをそれらのデータ値の平均値を新たなデータ値とする1つの大きなボクセルとすればよい。3次元画像のデータは、X線CTによるデータに限らず、任意の3次元画像取得手段によるデータを用いることができる。例えば、MRI画像データを用いることができ、また、透明樹脂の場合には光学的CT画像データを用いることができる。また、それらのデータ形式は、ボクセルに限らず、任意形状の立体画素を用いることができる。 If the resolution of the three-dimensional image is high and the size of the voxel is sufficiently smaller than the size of the shape model (filler), there is no need to set an evaluation point (sampling point), and conversely, a step of integrating voxels It can be set as the structure provided with. For example, four voxels may be one large voxel with the average value of the data values as a new data value. The three-dimensional image data is not limited to data obtained by X-ray CT, and data obtained by an arbitrary three-dimensional image acquisition unit can be used. For example, MRI image data can be used, and in the case of a transparent resin, optical CT image data can be used. Moreover, those data formats are not limited to voxels, and arbitrary-shaped solid pixels can be used.
 11  領域選出部(領域選出手段)
 12  モデル設定部(モデル設定手段)
 13  抽出メイン部(抽出手段)
 2  3次元画像処理装置
 b  評価点(サンプリング点)
 Bx  ボクセル
 C  複合材料
 C1,・・,Cn,Ci  制御点
 F  フィラー
 G1~G11  3次元画像
 M  仮想円柱(形状モデル)
 MP  仮想パイプ(形状モデル)
 Sp  スプライン曲線
11 area selection part (area selection means)
12 Model setting section (model setting means)
13 Extraction main part (extraction means)
2 3D image processing equipment b Evaluation points (sampling points)
Bx Voxel C Composite material C1, ..., Cn, Ci Control point F Filler G1 to G11 3D image M Virtual cylinder (shape model)
MP virtual pipe (shape model)
Sp spline curve

Claims (17)

  1.  母材に繊維状のフィラーを含有させた複合材料の3次元画像から前記フィラーの配向情報を抽出する複合材料中の繊維状フィラーの3次元画像処理方法において、
     前記複合材料の3次元画像からフィラーを表す画素を含むと推定される候補領域を所定の閾値を参照することにより選出する領域選出工程と、
     フィラーの形状モデルの形状と配置を変化させるパラメータをランダムに変化させるモンテカルロ法を用いて、前記領域選出工程によって選出された候補領域に前記形状モデルをフィッティングさせてフィラーの配向情報を抽出する抽出工程と、を備えることを特徴とする複合材料中の繊維状フィラーの3次元画像処理方法。
    In the three-dimensional image processing method of the fibrous filler in the composite material, which extracts the orientation information of the filler from the three-dimensional image of the composite material containing the fibrous filler in the base material,
    A region selection step of selecting a candidate region estimated to include a pixel representing a filler from the three-dimensional image of the composite material by referring to a predetermined threshold;
    Extraction step of extracting filler orientation information by fitting the shape model to the candidate region selected by the region selection step using a Monte Carlo method that randomly changes parameters that change the shape and arrangement of the filler shape model And a three-dimensional image processing method of a fibrous filler in a composite material.
  2.  前記抽出工程は、前記候補領域から1本のフィラーの配向情報を抽出した後に、前記抽出に関与した領域を除去し、除去後の候補領域に対して前記モンテカルロ法による抽出を繰り返すことを特徴とする請求項1に記載の複合材料中の繊維状フィラーの3次元画像処理方法。 The extraction step is characterized in that after extracting orientation information of one filler from the candidate region, the region involved in the extraction is removed, and the extraction by the Monte Carlo method is repeated for the candidate region after the removal. The three-dimensional image processing method of the fibrous filler in the composite material of Claim 1.
  3.  前記3次元画像をボクセルデータとして入力するデータ入力工程を備え、
     前記ボクセルデータは、複合材料のX線CTによって取得され、前記ボクセルデータの各ボクセルは、X線の強度値に基づく値をデータ値として有することを特徴とする請求項1または請求項2に記載の複合材料中の繊維状フィラーの3次元画像処理方法。
    A data input step of inputting the three-dimensional image as voxel data;
    The voxel data is acquired by X-ray CT of a composite material, and each voxel of the voxel data has a value based on an X-ray intensity value as a data value. The three-dimensional image processing method of the fibrous filler in the composite material.
  4.  前記データ入力工程は、前記データ値を各ボクセル間で線形補間した値をデータ値とするボクセルを有する新たなボクセルデータを構成する補間工程を備えることを特徴とする請求項3に記載の複合材料中の繊維状フィラーの3次元画像処理方法。 The composite material according to claim 3, wherein the data input step includes an interpolation step of forming new voxel data having voxels whose data values are values obtained by linearly interpolating the data values between the voxels. 3D image processing method of fibrous filler in the inside.
  5.  前記領域選出工程は、前記ボクセルのデータ値とX線の強度値に基づく所定の閾値とを比較し、前記閾値よりも大きいデータ値を有するボクセルの集合を候補領域とすることを特徴とする請求項3または請求項4に記載の複合材料中の繊維状フィラーの3次元画像処理方法。 The region selection step compares the data value of the voxel with a predetermined threshold value based on an X-ray intensity value, and sets a set of voxels having a data value larger than the threshold value as a candidate region. Item 5. A method for processing a three-dimensional image of a fibrous filler in a composite material according to Item 3.
  6.  前記候補領域に属するボクセルから、互いに隣接するボクセルで成る群を生成し、前記生成された個々の群をそれぞれ新たな候補領域とすることを特徴とする請求項5に記載の複合材料中の繊維状フィラーの3次元画像処理方法。 The fiber in the composite material according to claim 5, wherein a group of voxels adjacent to each other is generated from the voxels belonging to the candidate region, and each of the generated individual groups is set as a new candidate region. -Dimensional filler three-dimensional image processing method.
  7.  前記抽出工程は、前記形状モデルとして仮想円柱を用い、前記候補領域内で前記仮想円柱の形状と配置を表すパラメータを変化させ、その仮想円柱と前記候補領域とのフィッティングの度合いを、前記仮想円柱に含まれるボクセルのデータ値に基づく評価値の積算値によって評価することを特徴とする請求項3乃至請求項6の何れか一項に記載の複合材料中の繊維状フィラーの3次元画像処理方法。 The extraction step uses a virtual cylinder as the shape model, changes parameters representing the shape and arrangement of the virtual cylinder in the candidate area, and determines the degree of fitting between the virtual cylinder and the candidate area as the virtual cylinder. The three-dimensional image processing method for fibrous filler in a composite material according to any one of claims 3 to 6, wherein the evaluation is performed by an integrated value of evaluation values based on data values of voxels contained in .
  8.  前記抽出工程は、前記仮想円柱によるフィッティングを行った後に、前記形状モデルとして複数の制御点によって定義されるスプライン曲線を中心軸とする仮想パイプを用い、前記候補領域内で前記制御点の座標をパラメータとしてランダムに変化させ、その仮想パイプと前記候補領域とのフィッティングの度合いを評価し、前記仮想円柱による評価よりも前記仮想パイプによる評価が所定割合以上改善する場合に、前記仮想パイプによるフィッティングを採用し、そうでない場合は前記仮想円柱によるフィッティングを採用してフィラーの配向情報を抽出することを特徴とする請求項7に記載の複合材料中の繊維状フィラーの3次元画像処理方法。 The extraction step uses a virtual pipe having a spline curve defined by a plurality of control points as a central axis as the shape model after fitting with the virtual cylinder, and coordinates of the control points in the candidate region. Randomly changing as a parameter, the degree of fitting between the virtual pipe and the candidate area is evaluated, and when the evaluation by the virtual pipe is improved by a predetermined ratio or more than the evaluation by the virtual cylinder, the fitting by the virtual pipe is performed. 8. The method for processing a three-dimensional image of a fibrous filler in a composite material according to claim 7, wherein the information on the orientation of the filler is extracted by adopting the fitting using the virtual cylinder if not adopted.
  9.  前記抽出工程は、前記形状モデルとして複数の制御点によって定義されるスプライン曲線を中心軸とする仮想パイプを用い、前記候補領域内で前記制御点の座標をパラメータとしてランダムに変化させ、その仮想パイプと前記候補領域とのフィッティングの度合いを、前記仮想パイプに含まれるボクセルのデータ値に基づく評価値の積算値によって評価することを特徴とする請求項3乃至請求項6のいずれか一項に記載の複合材料中の繊維状フィラーの3次元画像処理方法。 The extraction step uses a virtual pipe having a spline curve defined by a plurality of control points as a central axis as the shape model, randomly changes the coordinates of the control points as parameters in the candidate area, and the virtual pipe The degree of fitting between the candidate area and the candidate area is evaluated by an integrated value of evaluation values based on data values of voxels included in the virtual pipe. The three-dimensional image processing method of the fibrous filler in the composite material.
  10.  前記抽出工程は、前記スプライン曲線の前記複数の制御点について順次1つずつ座標をランダムに変化させ、その1つの制御点を変化させる毎に前記スプライン曲線を決定して前記フィッティングの度合いを評価し、その次の制御点を変化させる前に、前記決定されたスプライン曲線上で前記全ての制御点を等間隔に再配置することを特徴とする請求項8または請求項9に記載の複合材料中の繊維状フィラーの3次元画像処理方法。 In the extraction step, the coordinates of the plurality of control points of the spline curve are sequentially changed one by one at random, and each time the control point is changed, the spline curve is determined and the degree of fitting is evaluated. The composite material according to claim 8 or 9, wherein all the control points are rearranged at equal intervals on the determined spline curve before changing the next control point. 3D image processing method for fibrous filler.
  11.  前記抽出工程は、前記形状モデル内に前記ボクセルのサイズ以下の間隔で評価点を設定し、その評価点にボクセルのデータ値に基づく評価値を付与し、前記評価点に付与した評価値の積算値によって前記フィッティングの度合いを評価することを特徴とする請求項7乃至請求項10の何れか一項に記載の複合材料中の繊維状フィラーの3次元画像処理方法。 In the extraction step, evaluation points are set in the shape model at intervals equal to or smaller than the size of the voxel, an evaluation value based on the data value of the voxel is given to the evaluation point, and the evaluation value given to the evaluation point is integrated The three-dimensional image processing method for fibrous filler in a composite material according to any one of claims 7 to 10, wherein the degree of fitting is evaluated based on a value.
  12.  前記抽出工程は、前記形状モデルの中心軸に垂直な面に同心円状に前記評価点を配置することを特徴とする請求項11に記載の複合材料中の繊維状フィラーの3次元画像処理方法。 12. The three-dimensional image processing method for fibrous filler in a composite material according to claim 11, wherein in the extraction step, the evaluation points are arranged concentrically on a plane perpendicular to a central axis of the shape model.
  13.  前記評価点に付与する評価値は、前記ボクセルのデータ値を用いて線形補間して得られる値とすることを特徴とする請求項11または請求項12に記載の複合材料中繊維状フィラーの3次元画像処理方法。 13. The fibrous filler in composite material according to claim 11, wherein the evaluation value given to the evaluation point is a value obtained by linear interpolation using a data value of the voxel. Dimensional image processing method.
  14.  前記抽出工程は、前記評価値から閾値を差し引いた値を新たな評価値として用いることを特徴とする請求項7乃至請求項13の何れか一項に記載の複合材料中の繊維状フィラーの3次元画像処理方法。 14. The fibrous filler in a composite material according to claim 7, wherein the extraction step uses a value obtained by subtracting a threshold value from the evaluation value as a new evaluation value. 15. Dimensional image processing method.
  15.  前記抽出工程は、前記新たな評価値が負の場合に、その値に所定の正数を掛けた値を新たな評価値として用いることを特徴とする請求項14に記載の複合材料中の繊維状フィラーの3次元画像処理方法。 The fiber in the composite material according to claim 14, wherein when the new evaluation value is negative, the extraction step uses a value obtained by multiplying the value by a predetermined positive number as a new evaluation value. -Dimensional filler three-dimensional image processing method.
  16.  前記抽出工程は、前記形状モデルの中心軸に近い位置の評価値ほど大きくなるように重み付けをして前記積算値を算出することを特徴とする請求項7乃至請求項15の何れか一項に記載の複合材料中の繊維状フィラーの3次元画像処理方法。 16. The extraction step according to claim 7, wherein the integrated value is calculated by weighting an evaluation value closer to a central axis of the shape model so as to increase. A method for processing a three-dimensional image of a fibrous filler in the composite material described.
  17.  母材に繊維状のフィラーを含有させた複合材料の3次元画像から前記フィラーの配向情報を抽出する複合材料中の繊維状フィラーの3次元画像処理装置において、
     前記複合材料の3次元画像からフィラーを表す画素を含むと推定される候補領域を所定の閾値を参照することにより選出する領域選出手段と、
     フィラーの形状モデルの形状と配置を変化させるパラメータをランダムに変化させるモンテカルロ法を用いて、前記領域選出手段によって選出された候補領域に前記形状モデルをフィッティングさせてフィラーの配向情報を抽出する抽出手段と、を備えることを特徴とする複合材料中の繊維状フィラーの3次元画像処理装置。
    In a three-dimensional image processing apparatus for fibrous filler in a composite material that extracts orientation information of the filler from a three-dimensional image of a composite material containing a fibrous filler in a base material,
    A region selecting means for selecting a candidate region estimated to include a pixel representing a filler from the three-dimensional image of the composite material by referring to a predetermined threshold;
    Extraction means for extracting filler orientation information by fitting the shape model to a candidate area selected by the area selection means using a Monte Carlo method that randomly changes parameters that change the shape and arrangement of the filler shape model. And a three-dimensional image processing device for fibrous filler in a composite material.
PCT/JP2013/006806 2012-11-21 2013-11-20 Method and device for three-dimensional image processing of fibrous filler within composite material WO2014080622A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014548459A JP5844921B2 (en) 2012-11-21 2013-11-20 Three-dimensional image processing method and three-dimensional image processing apparatus for fibrous filler in composite material

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-255658 2012-11-21
JP2012255658 2012-11-21

Publications (1)

Publication Number Publication Date
WO2014080622A1 true WO2014080622A1 (en) 2014-05-30

Family

ID=50775817

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/006806 WO2014080622A1 (en) 2012-11-21 2013-11-20 Method and device for three-dimensional image processing of fibrous filler within composite material

Country Status (3)

Country Link
JP (1) JP5844921B2 (en)
TW (1) TWI497063B (en)
WO (1) WO2014080622A1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015046534A1 (en) * 2013-09-30 2015-04-02 株式会社Ihi Image analysis device and program
JP2017068808A (en) * 2015-10-02 2017-04-06 富士通株式会社 Voxel processing method, voxel processing program, and information processing apparatus
JP2017156271A (en) * 2016-03-03 2017-09-07 株式会社Ihi Structure analyzing device, structure analyzing method, and three-dimensional fiber material manufacturing method
JP2020524295A (en) * 2017-06-01 2020-08-13 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Method and device for creating accurate road map in lane
CN112164134A (en) * 2020-09-28 2021-01-01 华南理工大学 Random curve modeling method based on image processing
JP2021120636A (en) * 2020-01-30 2021-08-19 ポリプラスチックス株式会社 Method and system for inspecting unfibrillated filler in fibrous filler-containing pellet
WO2022038825A1 (en) 2020-08-18 2022-02-24 株式会社Ihi System for evaluating distribution of fiber bundles in fiber-reinforced material
JP2022093509A (en) * 2018-04-12 2022-06-23 コニカミノルタ株式会社 X-ray imaging system

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6939101B2 (en) * 2017-06-06 2021-09-22 富士フイルムビジネスイノベーション株式会社 Path data generation device for 3D modeling and route data generation program for 3D modeling
TWI706121B (en) * 2018-11-29 2020-10-01 財團法人工業技術研究院 Fiber three-dimensional measuring device and method thereof
CN116128957B (en) * 2023-04-20 2023-06-30 博志生物科技(深圳)有限公司 Vertebral bone cavity analysis method, device, equipment and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11254545A (en) * 1998-03-13 1999-09-21 Kawasaki Heavy Ind Ltd Method for inspecting fiber reinforced plastic structure
JP2012002547A (en) * 2010-06-14 2012-01-05 Polyplastics Co Orientation analysis method of filler

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9706174D0 (en) * 1997-03-25 1997-11-19 Secr Defence Recognition system
US8078255B2 (en) * 2006-03-29 2011-12-13 University Of Georgia Research Foundation, Inc. Virtual surgical systems and methods
US8199981B2 (en) * 2006-05-18 2012-06-12 Elekta Ltd. Methods and systems for segmentation using boundary reparameterization
JP2008122178A (en) * 2006-11-10 2008-05-29 Toray Ind Inc Method of inspecting stacked state of laminate
US10098563B2 (en) * 2006-11-22 2018-10-16 Toshiba Medical Systems Corporation Magnetic resonance imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11254545A (en) * 1998-03-13 1999-09-21 Kawasaki Heavy Ind Ltd Method for inspecting fiber reinforced plastic structure
JP2012002547A (en) * 2010-06-14 2012-01-05 Polyplastics Co Orientation analysis method of filler

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KATSUHIKO TAKI ET AL.: "X-sen CT ni yoru Jushi Seikeihin Chu no Glass Sen'i no Kansatsu to Sanjigen Kaiseki", HOSHASEN NI YORU HIHAKAI HYOKA SYMPOSIUM KOEN RONBUNSHU, 2008, pages 7 - 13, Retrieved from the Internet <URL:http://www.nvs.co.jp/files/1513/6963/8014/rd200801.pdf> *
YOSHINORI KANETO ET AL.: "X-sen CT ni yoru Seikeihin Naibu no Glass Sen'i Haiko Kyodo no Kaiseki", SEIKEI KAKO (NENJI TAIKAI), vol. 22, 5 June 2011 (2011-06-05), pages 61 - 62 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015046534A1 (en) * 2013-09-30 2015-04-02 株式会社Ihi Image analysis device and program
US9824435B2 (en) 2013-09-30 2017-11-21 Ihi Corporation Image analyzing apparatus and program
JP2017068808A (en) * 2015-10-02 2017-04-06 富士通株式会社 Voxel processing method, voxel processing program, and information processing apparatus
JP2017156271A (en) * 2016-03-03 2017-09-07 株式会社Ihi Structure analyzing device, structure analyzing method, and three-dimensional fiber material manufacturing method
JP2020524295A (en) * 2017-06-01 2020-08-13 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Method and device for creating accurate road map in lane
JP7306528B2 (en) 2018-04-12 2023-07-11 コニカミノルタ株式会社 Control device, display method and inspection method
JP2022093509A (en) * 2018-04-12 2022-06-23 コニカミノルタ株式会社 X-ray imaging system
JP2021120636A (en) * 2020-01-30 2021-08-19 ポリプラスチックス株式会社 Method and system for inspecting unfibrillated filler in fibrous filler-containing pellet
JP7356365B2 (en) 2020-01-30 2023-10-04 ポリプラスチックス株式会社 Inspection method and system for undefibrated filler in pellets containing fibrous filler
WO2022038825A1 (en) 2020-08-18 2022-02-24 株式会社Ihi System for evaluating distribution of fiber bundles in fiber-reinforced material
JP7425423B2 (en) 2020-08-18 2024-01-31 株式会社Ihi System for evaluating fiber bundle distribution in fiber reinforced materials
CN112164134A (en) * 2020-09-28 2021-01-01 华南理工大学 Random curve modeling method based on image processing
CN112164134B (en) * 2020-09-28 2024-03-22 华南理工大学 Random curve modeling method based on image processing

Also Published As

Publication number Publication date
JP5844921B2 (en) 2016-01-20
TW201425919A (en) 2014-07-01
JPWO2014080622A1 (en) 2017-01-05
TWI497063B (en) 2015-08-21

Similar Documents

Publication Publication Date Title
JP5844921B2 (en) Three-dimensional image processing method and three-dimensional image processing apparatus for fibrous filler in composite material
JP5703396B2 (en) Tolerance evaluation with reduced measurement points
US7215810B2 (en) Method for creating single 3D surface model from a point cloud
KR101159855B1 (en) Geometric model forming method, and computer program and geometric model forming system therefor
Melenka et al. Micro-computed tomography analysis of tubular braided composites
Newton et al. Feature-based characterisation of Ti6Al4V electron beam powder bed fusion surfaces fabricated at different surface orientations
JP2007523402A (en) Mesh model with internal individual elements
JP6659407B2 (en) Analysis apparatus, analysis method and analysis program
JP2020115339A (en) Extraction of feature tree from mesh
KR20170078723A (en) Determination of localised quality measurements from a volumetric image record
Ying et al. An intrinsic algorithm for parallel poisson disk sampling on arbitrary surfaces
JP2012523033A (en) Interactive ICP algorithm for organ segmentation
Lin et al. Automatic generation of mold-piece regions and parting curves for complex CAD models in multi-piece mold design
CN105631876A (en) CT image resolution automatic test method based on global binarization
CN105389410A (en) three-dimensional model generating method and three-dimensional model generating system
JP6681221B2 (en) Structure analysis device, structure analysis method, and three-dimensional woven fiber material manufacturing method
Chi et al. Accelerating parallel digital image correlation computation with feature mesh interpolation
JP4852372B2 (en) Structural optimization system
JP2005249426A (en) Casting inside flaw inspection support device and inspection support method using the same
CN105765398A (en) System for measuring cortical thickness from MR scan information
JP6209506B2 (en) Method and program for forming mesh for fiber analysis
JP2004110212A (en) Method and device for generating hexahedron mesh, method and device for analyzing transformation of solid object, computer program, and recording medium
CN111383341A (en) Generating a structured 3D model from an original mesh
US7304642B2 (en) Analysis model producing/assisting apparatus
JP2017013437A (en) Computer-aided resin behavior analysis device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13856909

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014548459

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13856909

Country of ref document: EP

Kind code of ref document: A1