JP2021128485A - Target partial shape generation device from composite shape with multiple graphic elements - Google Patents
Target partial shape generation device from composite shape with multiple graphic elements Download PDFInfo
- Publication number
- JP2021128485A JP2021128485A JP2020022066A JP2020022066A JP2021128485A JP 2021128485 A JP2021128485 A JP 2021128485A JP 2020022066 A JP2020022066 A JP 2020022066A JP 2020022066 A JP2020022066 A JP 2020022066A JP 2021128485 A JP2021128485 A JP 2021128485A
- Authority
- JP
- Japan
- Prior art keywords
- shape
- graphic
- data
- processing unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Generation (AREA)
Abstract
Description
本発明は、複数の図形要素を有する複合形状から対象部分形状を生成する装置に関する。 The present invention relates to an apparatus that generates a target partial shape from a composite shape having a plurality of graphic elements.
CAD(Computer Aided Design)およびCG(Computer Graphics)の分野において、複数の部分形状を含む複合形状から特定の部分形状を自動的に抽出する方法が知られている。たとえば特許文献1では、複合形状を各部分形状に分け、各部分形状から予め登録される参照形状と特徴量が類似する部分形状を抽出する方法が開示されている。
In the fields of CAD (Computer Aided Design) and CG (Computer Graphics), a method of automatically extracting a specific partial shape from a composite shape including a plurality of partial shapes is known. For example,
しかし特許文献1に記載の方法は、作業者によって予め登録された参照形状を用いるため、作業者の予測が困難な複雑形状を有する部分形状に対しては適用できないという問題がある。また、複合形状から特定の部分形状を抽出するために、機械学習等により生成される予測モデルを用いることが考えられるが、抽出対象の部分形状が複雑である場合、予測モデルに入力する情報量が増大し、計算コストが高くなるという問題がある。
However, since the method described in
本発明は、上記の問題を解決するためになされたものであり、複合形状から抽出対象の部分形状をより効率良く生成することができる装置を提供することを目的とするものである。 The present invention has been made to solve the above problems, and an object of the present invention is to provide an apparatus capable of more efficiently generating a partial shape to be extracted from a composite shape.
本発明による装置は、複数の図形要素を含む複合形状から対象部分形状を生成する装置である。装置は、前記複数の図形要素に対応する図形分類情報に基づいて、前記複数の図形要素のそれぞれに対して、その図形要素の位置を代表する代表位置情報を決定する代表決定部と、前記複数の図形要素の前記代表位置情報を用いて、学習用の複合形状および学習用の部分形状に基づいて機械学習により生成される予測モデルにより、対象部分形状に対応する図形要素の代表位置情報を推定する推定部と、推定された前記図形要素の代表位置情報および前記図形要素の図形分類情報に基づいて前記対象部分形状を生成する形状生成部とを備える。 The device according to the present invention is a device that generates a target partial shape from a composite shape including a plurality of graphic elements. The apparatus includes a representative determination unit that determines representative position information representing the position of the graphic element for each of the plurality of graphic elements based on the graphic classification information corresponding to the plurality of graphic elements, and the plurality of the representative determination units. Using the representative position information of the graphic element of, the representative position information of the graphic element corresponding to the target partial shape is estimated by the prediction model generated by machine learning based on the composite shape for learning and the partial shape for learning. The estimation unit is provided, and a shape generation unit that generates the target partial shape based on the estimated representative position information of the graphic element and the graphic classification information of the graphic element.
本発明では、代表位置情報を用いて対象部分形状を推定するため、入力する情報量の増大を抑制し、複合形状から抽出対象の部分形状をより効率良く生成することができる。 In the present invention, since the target partial shape is estimated using the representative position information, it is possible to suppress an increase in the amount of input information and more efficiently generate the partial shape to be extracted from the composite shape.
本発明により、複合形状から抽出対象の部分形状をより効率良く生成することができる装置を提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide an apparatus capable of more efficiently generating a partial shape to be extracted from a composite shape.
実施形態1.
まず図1〜8を用いて、本発明の実施形態1について説明する。図1は、実施形態1にかかる複合形状1の一部を示す概略図である。
複合形状1は、三次元CADデータ等の形状データを用いて、三次元CADシステムにより生成される三次元形状である。一例として複合形状1は、CAE(Computer Aided Engineering)によってエンジン内部のオイル攪拌の気流解析を行う場合の、エンジンの壁面の集合を表す三次元形状である。複合形状1は、複数の部分形状を備える。本図では、複合形状1は、部分形状2、5および7を備える。
First,
The
部分形状は、複合形状1を構成する部品の壁面である。一例として、部分形状は、シリンダヘッドおよびマニホールド等のエンジン部品の壁面である。部分形状は、1または複数の図形要素3を有する。本図では、部分形状2は、図形要素4a,4b,4cを有し、部分形状5は、図形要素6を有し、部分形状7は、図形要素8を有する。
The partial shape is the wall surface of the parts constituting the
図形要素3は、それぞれ図形の形状を分類する図形分類を有する。本図では、図形要素4a,4cの図形分類は単純平面であり、図形要素4bの図形分類はフィレットであり、図形要素6および8の図形分類は円筒面である。
たとえば本図の部分形状2に含まれる図形要素4a,4b,4cのように、部分形状に複数の図形要素3が含まれる場合は、いずれかの図形要素同士がその辺または面を共有して互いに結合する構造をとってよい。
Each
For example, when a plurality of
実施形態1では、複合形状1を構成する部分形状のうち、特定の部分形状(対象部分形状)を抽出し、対象部分形状にかかる形状データを生成する。対象部分形状は、解析対象領域である空間の壁面の集合である。たとえば複合形状1が形成する空間内部の気流解析をする場合に、対象部分形状は、複合形状1を構成する部分形状のうち、流体との境界面である部分形状の壁面のみを含む形状である。たとえば本実施形態1では、複合形状1から対象部分形状として部分形状2および6を抽出し、対象部分形状にかかる形状データを生成する。
In the first embodiment, a specific partial shape (target partial shape) is extracted from the partial shapes constituting the
次に、このような対象部分形状にかかる形状データを生成するために用いられる装置10について、図2〜7を用いて説明する。図2は、実施形態1にかかる装置10の構成図である。装置10は、複合形状1から抽出対象である対象部分形状を生成する。装置10は、パーソナルコンピュータ、ノート型コンピュータ、スマートフォンまたはその他の入出力可能な装置である。装置10は、記憶部100と、取得部110と、変換処理部120と、推定部140と、形状生成部160と、予測モデル生成部180と、学習データベース190とを備える。
Next, the
記憶部100は、複合形状1にかかる形状データ等の各種情報を記憶する記憶媒体である。記憶部100は、取得部110に接続され、取得部110に複合形状1にかかる形状データ等の各種情報を提供する。ここで形状データは、各図形要素3について、図形分類と当該図形要素3を形成する頂点の位置を示す情報とを含む。本実施形態1で図形分類は、例えば単純平面、フィレット、円筒面および自由曲面等である。また本実施形態1で頂点の位置を示す情報は、X軸、Y軸、Z軸を用いた空間における頂点の位置座標(x0,y0,z0)である。形状データの形式は、一例として、STEP(Standard for the Exchange of Product model data)、IGES(Initial Graphics Exchange Specification)、DWG(DRAWING)およびDXF(Drawing Exchange Format)等であってよい。
The
取得部110は、記憶部100から複合形状1にかかる形状データ等の各種情報を取得する。取得部110は、変換処理部120に接続され、変換処理部120に複合形状1にかかる形状データ等の各種情報を出力する。
The
変換処理部120は、推定部140に接続され、複合形状1にかかる形状データから推定部140で用いる予測モデルの入力データへの変換処理を行う。変換処理部120は、代表決定部122と、マッピング処理部124とを有する。
The
代表決定部122は、形状データに基づいて、複数の図形要素3のそれぞれに対して、その図形要素3の位置を代表する代表位置情報を決定する。代表位置情報については、後述で説明する。代表決定部122は、マッピング処理部124に接続され、マッピング処理部124に代表位置情報を図形分類情報とともに出力する。
The
マッピング処理部124は、複数の図形要素3の代表位置情報または複数の図形要素3の図形分類情報を1または複数のマトリクス図にマッピングする。マトリクス図については、後述で説明する。マッピング処理部124は、推定部140に接続され、マトリクス図を推定部140に出力する。
The
推定部140は、複合形状1の複数の図形要素3の代表位置情報および図形分類情報を含むマトリクス図を用いて、予測モデルにより、対象部分形状に対応する図形要素3の代表位置情報およびその図形分類情報を推定する。ここで予測モデルは、たとえばニューラルネットワークを含む。本実施形態1では、ニューラルネットワークは、畳み込みニューラルネットワーク(Convolutional neural network,CNN)である。本実施形態1では、予測モデルは、マトリクス図の種類に応じた数の予測モデルを有する。推定部140は、形状生成部160に接続され、対象部分形状に対応する図形要素3の代表位置情報およびその図形分類情報を形状生成部160に出力する。
The
形状生成部160は、推定された図形要素3の代表位置情報および図形要素3の図形分類情報に基づいて対象部分形状の形状データを生成する。
The
予測モデル生成部180は、学習用の複合形状および学習用の対象部分形状に基づいて機械学習により予測モデルを生成する。また予測モデル生成部180は、変換処理部120および推定部140に接続され、これらとの間で各種情報の入出力を行う。予測モデル生成部180は、学習処理部182と、予測モデル決定部184とを備える。
The prediction
学習処理部182は、予測モデルの学習データを管理する。学習処理部182は、学習データベース190、変換処理部120および予測モデル決定部184に接続される。学習処理部182は、学習データベース190から取得した学習用の複合形状および学習用の対象部分形状の形状データを予測モデル用の学習データに変換するように変換処理部120に要求する。そして学習処理部182は、変換処理部120から出力された学習データを予測モデル決定部184に出力する。
なお、本実施形態1で学習データは、学習用の複合形状および学習用の対象部分形状ごとに、各形状データから取得される代表位置情報または図形分類情報に基づいて生成された1または複数のマトリクス図である。
The
In the first embodiment, the learning data is one or more generated based on the representative position information or the graphic classification information acquired from each shape data for each of the compound shape for learning and the target partial shape for learning. It is a matrix diagram.
予測モデル決定部184は、学習データを用いて機械学習により予測モデルを決定する。予測モデル決定部184は、推定部140に接続され、推定部140に決定した予測モデルを出力する。
The prediction
学習データベース190は、学習用の複合形状および学習用の対象部分形状の形状データおよび、これらに対応する、学習処理部182から提供される学習データ等の各種情報を記憶する。
The
図3は、実施形態1にかかる代表決定部122により出力される情報のデータ構造の一例を示す図である。当該情報は、図形要素識別番号と、図形分類情報Kと、代表位置情報Rとを備える。
FIG. 3 is a diagram showing an example of a data structure of information output by the
図形要素識別番号は、各図形要素3を一意に識別する番号である。本実施形態1では図形要素識別番号は、形状データに基づいて代表決定部122により割り当てられる。
図形分類情報は、その図形要素3の図形分類を示す情報である。図形分類情報は、形状データに含まれる図形要素3に基づいて割り当てられる番号である。本実施形態1では、図形分類情報は、図形分類の種類がN個(Nは自然数)である場合、K=kn(kはN以下の自然数、nを任意の自然数の定数)で表現される。本図では、n=10である。
たとえば図形要素3が単純平面の場合、図形分類情報の値Kは10(k=1)であり、図形要素3がフィレットである場合、図形分類情報の値Kは20(k=2)であり、図形要素3が円筒面である場合、図形分類情報の値Kは30(k=3)である。
The graphic element identification number is a number that uniquely identifies each
The graphic classification information is information indicating the graphic classification of the
For example, when the
代表位置情報は、代表点の位置座標を規格化し、離散化した座標であり、R=(Rx,Ry,Rz)で表される。ここで代表点は、対応する図形要素3の位置を代表する点である。代表点の位置座標(x1,y1,z1)は、図形分類情報Kおよび対応する図形要素3の頂点の位置座標(x0,y0,z0)に基づいて、決定される。
たとえば、図形要素3が単純平面またはフィレットである場合、代表点は、単純平面の重心であってよい。一例として、図形要素3が4つの角(頂点)で形成される単純平面である場合、代表点の位置座標の各成分は、その4つの頂点を成分ごとに足し合わせて、頂点の数(ここでは、4)で割った値であってよい。また、たとえば図形要素3が円筒面である場合、代表点は、円筒面の中心軸上の中点であってよい。これに代えて、代表点は、図形要素3を形成する複数の頂点のうち任意の1点であってもよい。
The representative position information is the coordinates obtained by standardizing the position coordinates of the representative points and discretizing them, and is represented by R = (R x , R y , R z ). Here, the representative point is a point representing the position of the corresponding
For example, when the
代表位置情報は、本図に示す通り、X軸、Y軸およびZ軸方向の成分Rx,Ry,Rzを有する。本図では、図形要素識別番号1の図形要素は、図形分類情報10および代表位置情報(1,2,2)を有し、図形要素識別番号2の図形要素は、図形分類情報20および代表位置情報(1,2,1)を有し、図形要素識別番号3の図形要素は、図形分類情報10および代表位置情報(5,5,3)を有する。
なお本実施形態1では規格化および離散化についての詳細は後述で説明する。
このように、複合形状1の図形要素3を代表位置情報に変換することによって、後述の予測モデルを用いた推定処理の効率が向上する。
As shown in this figure, the representative position information has components R x , R y , and R z in the X-axis, Y-axis, and Z-axis directions. In this figure, the graphic element of the graphic
In the first embodiment, details of standardization and discretization will be described later.
By converting the
図4は、実施形態1にかかるマトリクス図の概略図である。図4(a)は、マトリクス図の各ピクセルに割り当てられる値を示し、図4(b)は、各ピクセルの値に基づいて画像化したマトリクス図を示す。本実施形態1では、マトリクス図は、第1〜第3マトリクス図50と、第4〜第6マトリクス図52とを有する。 FIG. 4 is a schematic diagram of a matrix diagram according to the first embodiment. FIG. 4A shows a value assigned to each pixel of the matrix diagram, and FIG. 4B shows an imaged matrix diagram based on the value of each pixel. In the first embodiment, the matrix diagram has the first to third matrix diagrams 50 and the fourth to sixth matrix diagrams 52.
図4(a)および(b)に示すように、各マトリクス図は、行および列を用いて指定されるピクセルを有する。本図では、各マトリクス図の行および列の数は、それぞれS個であり、1つのマトリクス図が有するピクセル数は、S×S個である。ここでピクセル数は、マトリクス図の解像度を示す。すなわち本図では、マトリクス図は、S×Sの解像度を有する。 As shown in FIGS. 4A and 4B, each matrix diagram has pixels specified using rows and columns. In this figure, the number of rows and columns of each matrix diagram is S, and the number of pixels of one matrix diagram is S × S. Here, the number of pixels indicates the resolution of the matrix diagram. That is, in this figure, the matrix diagram has a resolution of S × S.
ここで行および列の値はそれぞれ、図形要素3の代表位置情報Rの第1および第2方向の座標成分の値R1,R2に対応する。たとえば第1および第2方向は、X、YおよびZ軸方向の中から選択された軸方向のペアである。本実施形態1では、第1および第4マトリクス図50a,52aの第1および第2方向は、X軸方向およびY軸方向であり、第2および第5マトリクス図50b,52bの第1および第2方向は、Y軸方向およびZ軸方向であり、第3および第6マトリクス図50c,52cの第1および第2方向は、Z軸方向およびX軸方向である。すなわち、第1および第4マトリクス図50a,52aのR1,R2は、Rx,Ryであり、第2および第5マトリクス図50b,52bのR1,R2は、Ry,Rzであり、第3および第6マトリクス図50c,52cのR1,R2は、Rz,Rxである。
そして、図形要素3ごとに、その代表位置情報Rの第1および第2方向の座標成分R1,R2に基づいて、各マトリクス図のピクセルの位置が割り当てられる。
Here, the row and column values correspond to the values R 1 and R 2 of the coordinate components in the first and second directions of the representative position information R of the
Then, for each
次に図4(a)に示すピクセルの値について説明する。本実施形態1において、ピクセルの値の定義は、第1〜第3マトリクス図50と、第4〜第6マトリクス図52とで異なる。
第1〜第3マトリクス図50のピクセルの値は、そのピクセルの位置に割り当てられた全ての図形要素3の代表位置情報Rの第3方向の座標成分の値R3の和に対応する。本実施形態1では、第1、第2および第3マトリクス図50a,50b,50cの第3方向はそれぞれ、Z、XおよびY軸方向である。すなわち、第1、第2および第3マトリクス図50a,50b,50cの代表位置情報Rの第3方向の座標成分R3の値はそれぞれ、Rz、Rx、およびRyである。
第4〜第6マトリクス図52のピクセルの値は、そのピクセルの位置に割り当てられた全ての図形要素の図形分類情報の値Kの和に対応する。
Next, the pixel values shown in FIG. 4A will be described. In the first embodiment, the definition of the pixel value is different between the first to third matrix diagrams 50 and the fourth to sixth matrix diagrams 52.
The value of the first to third matrix Figure 50 pixels corresponds to the sum of the values R 3 of coordinate components in the third direction of the representative position information R of all the
The values of the pixels in FIGS. 52 of the 4th to 6th matrices correspond to the sum of the values K of the graphic classification information of all the graphic elements assigned to the positions of the pixels.
ここで図3に示す情報を例に、図4(a)の各ピクセルの値の具体例を説明する。たとえば、2行1列目のピクセルの位置は、(x,y)=(1,2)である図形要素識別番号1および2に対応する。したがって、第1マトリクス図50aの2行1列目のピクセルの値は、図形要素識別番号1および2の代表位置情報のZ軸座標Rzの和である3(=2+1)となる。また、第4マトリクス図52aの2行1列目のピクセルの値は、図形要素識別番号1および2の図形分類情報の値Kの和である30(=10+20)となる。
一方、5行目5列目のピクセルの位置は、(x,y)=(5,5)である図形要素識別番号3のみに対応する。したがって、第1マトリクス図50aの5行5列目のピクセルの値は、図形要素識別番号3の代表位置情報のZ軸座標Rzである3となる。また、第4マトリクス図52aの5行5列目のピクセルの値は、図形要素識別番号3の図形分類情報の値Kである10となる。
Here, a specific example of the value of each pixel in FIG. 4A will be described using the information shown in FIG. 3 as an example. For example, the positions of the pixels in the second row and the first column correspond to the graphic
On the other hand, the positions of the pixels in the 5th row and 5th column correspond only to the graphic
次に、図4(b)について説明する。図4(b)に示すように、マトリクス図は、各ピクセルに格納される値を色の明度(コントラスト)に変換し、画像化した図である。たとえばピクセルの色は、そのピクセルの値が大きいほど、高い明度を有してよく、そのピクセルの値が小さいほど、低い明度を有してよい。なお本実施形態1では、図4(a)を画像化するために明度を用いたが、これに限らず、色相および彩度等を用いてもよい。
このように画像化したマトリクス図を生成することで、後述のCNNを用いた予測モデルによる推定処理の効率が向上する。
Next, FIG. 4B will be described. As shown in FIG. 4B, the matrix diagram is a diagram in which the values stored in each pixel are converted into color brightness (contrast) and imaged. For example, the color of a pixel may have a higher brightness as the value of the pixel is larger, and may have a lower brightness as the value of the pixel is smaller. In the first embodiment, the lightness is used to image FIG. 4A, but the present invention is not limited to this, and hue, saturation, and the like may be used.
By generating the matrix diagram imaged in this way, the efficiency of the estimation process by the prediction model using the CNN described later is improved.
図5は、実施形態1にかかる装置10の対象部分形状生成処理の一例を示すフローチャートである。
まずS10において、取得部110は、記憶部100から複合形状1にかかる形状データを取得し、当該形状データを変換処理部120の代表決定部122に出力する。このとき取得部110はまた、記憶部100から予め定められた解像度S×Sの値を取得し、当該値を変換処理部120の代表決定部122に出力する。
FIG. 5 is a flowchart showing an example of the target partial shape generation process of the
First, in S10, the
次にS11において、代表決定部122は、取得した形状データ含まれる各図形要素3の図形分類情報Kおよび頂点の位置座標(x0,y0,z0)に基づいて、図形要素3ごとに代表点の位置座標(x1,y1,z1)を決定し、代表点の位置座標に基づいて代表位置情報R=(Rx,Ry,Rz)を決定する。このとき、代表決定部122は、代表点の位置座標(x1,y1,z1)の各成分を解像度S×Sに基づいて規格化および離散化することで、代表位置情報R=(Rx,Ry,Rz)の各成分を決定する。
たとえば、代表点のX軸方向の座標x1の値は、次のように規格化される。
x’=S×(x1−X0min)/(X0max−X0min)
ここで、X0minは、取得した形状データに含まれる図形要素3の頂点のX軸方向の座標(x0)の最小値であり、X0maxは、取得した形状データに含まれる図形要素3の頂点のX軸方向の座標(x0)の最大値である。Sは、解像度の平方根の値である。これにより、x’はS以下の値となる。
Next, in S11, the
For example, the value of the coordinate x 1 in the X-axis direction of the representative point is standardized as follows.
x'= S × (x 1 −X 0 min ) / (X 0max −X 0 min )
Here, X 0min is the minimum value of the acquired vertices of the
また、たとえば離散化は、x1を規格化したx’について、m−1<x’≦m(mはS以下の自然数)である場合、Rx=mと変換する。これにより、Rxは、S以下の自然数となる。 Further, for example, discretization, 'for, m-1 <x' x normalized to x 1 (m is a natural number equal to or less than S) ≦ m if it is to convert the R x = m. As a result, R x becomes a natural number less than or equal to S.
なお、本実施形態1で代表決定部122は、頂点の位置座標(x0,y0,z0)から代表点の位置座標(x1,y1,z1)を算出し、(x1,y1,z1)を規格化および離散化して代表位置情報R=(Rx,Ry,Rz)を算出した。しかしこれに限らず、代表決定部122は、頂点の位置座標(x0,y0,z0)を規格化した後に、規格化空間における図形要素の代表点の位置座標(x1,y1,z1)を算出し、これを離散化して代表位置情報R=(Rx,Ry,Rz)を算出してもよい。
In the first embodiment, the
そして、代表決定部122は、算出した代表位置情報R=(Rx,Ry,Rz)を図形分類情報とともにマッピング処理部124に出力する。
Then, the
次にS12において、マッピング処理部124は、代表位置情報の第1および第2方向の座標成分R1,R2にそれぞれ対応する行および列を有するマトリクス図を生成する。本実施形態1では、マッピング処理部124は、第1〜第3マトリクス図50を生成する。たとえばマッピング処理部124は、複数の図形要素3のそれぞれに対して、対応する代表位置情報の第1および第2方向の座標R1,R2に対応したピクセルの位置を割り当てる。そして、マッピング処理部124は、ピクセルごとに、割り当てられた図形要素3の第3方向の座標値R3の和を取る。その和に応じてピクセルの明度を決定し、マトリクス図の第1〜第3マトリクス図50を生成する。
またマッピング処理部124は、第4〜第6マトリクス図52を生成する。たとえばマッピング処理部124は、ピクセルごとに、割り当てられた図形要素3の図形分類情報の値Kの和を取る。マッピング処理部124は、その和に応じてピクセルの明度を決定し、マトリクス図の第4〜第6マトリクス図52を生成する。
このように、マッピング処理部124は、6つのマトリクス図を生成する。そしてマッピング処理部124は、6つのマトリクス図を推定部140に出力する。
Next, in S12, the
Further, the
In this way, the
S13において、推定部140は、予測モデル決定部184から予測モデルを取得する。本実施形態1で推定部140は、各マトリクス図に対してそれぞれ1つの予測モデル(CNN)を取得する。つまり推定部140は、第1〜第3マトリクス図50に対応する第1〜第3予測モデルと、第4〜第6マトリクス図52に対応する第4〜第6予測モデルとを予測モデル決定部184から取得する。
In S13, the
次にS14において、推定部140は、複数の図形要素3の代表位置情報Rおよび図形分類情報Kに基づいたマトリクス図を用いて、予測モデルにより、対象部分形状に対応する図形要素3の代表位置情報R’および図形分類情報K’を推定する。たとえば推定部140は、各マトリクス図の各ピクセルの明度から各ピクセルの値を取得し、対応する予測モデルの入力層に各ピクセルの値を入力し、その予測モデルの出力層から各ピクセルの予測値を取得する。本実施形態1では推定部140は、この処理を第1〜第6マトリクス図に対して行う。これにより推定部140は、第1〜第6マトリクス図に対応する第1〜第6予測マトリクス図を得る。つまり推定部140は、第1〜第6マトリクス図の各ピクセルの値を用いて、対象部分形状に対応する図形要素の代表位置情報の予測値R’および図形分類情報の予測値K’を含む第1〜第6予測マトリクス図を取得する。
そして推定部140は、これらの予測マトリクス図を形状生成用データとして、形状生成部160に出力する。
Next, in S14, the
Then, the
S15において、形状生成部160は、取得した形状生成用データに基づいて、対象部分形状の形状データを生成する。なお、形状生成部160は、形状生成用データに基づいて、削除すべき形状の予測マトリクス図を生成し、当該予測マトリクス図に基づいて、複合形状1の形状データから対象部分形状の形状データを抽出してよい。このとき形状生成部160は、予測モデルの入力に用いるマトリクス図と、形状生成用データに含まれる、予測モデルから出力される予測マトリクス図との差分をとることにより、削除すべき形状の予測マトリクス図を取得してよい。そして形状生成部160は、当該削除すべき形状の予測マトリクス図に基づいて、削除すべき形状の形状データを生成し、複合形状1の形状データから当該削除すべき形状の形状データを差し引いてよい。しかしこれに限らず、形状生成部160は、任意の方法で当該削除すべき形状の予測マトリクス図に基づいて、複合形状1の形状データから対象部分形状の形状データを抽出してもよい。これにより、対象部分形状の形状データは、元となる複合形状1の形状データを保持したまま、そこから不要な部分だけが除去されたものとなるため、対象部分形状をより正確に抽出することができる。
In S15, the
このように実施形態1によれば、装置10は、機械学習(特に、深層学習)に基づく予測モデルを用いて、複数の図形要素3の代表位置情報Rから対象部分形状に対応する図形要素3の代表位置座標R’を推定する。したがって複合形状1の形状データではなく、単純化されたデータが予測モデルの入力データとなる。これにより、予測モデルの精度を維持しつつ計算コストを抑えることができる。したがって、複合形状1から複雑な対象部分形状をより効率良く生成することができる。
As described above, according to the first embodiment, the
また、実施形態1によれば、予測モデルの入力データには、複数の図形要素3の代表位置情報Rに加えて、複数の図形要素3の図形分類情報Kが含まれる。したがって、対象部分形状の形状データの予測精度をさらに向上させることができる。
Further, according to the first embodiment, the input data of the prediction model includes the graphic classification information K of the plurality of
また実施形態1によれば、装置10は、複数の図形要素3の代表位置情報Rおよび図形分類情報Kに基づいて、予測モデルであるCNNと親和性の良いマトリクス図を生成し、これをCNNの入力データとして用いる。したがって、複合形状1から複雑な対象部分形状をさらに効率良く生成することができる。
Further, according to the first embodiment, the
なお、本実施形態1では予測モデルの入力データは、マトリクス図であるが、これに限らず、代表決定部122で生成される代表位置情報Rと、これに対応する図形分類情報Kとを含むテキストデータであってもよい。この場合、S12における明度の決定処理およびS14における明度からピクセルの値を取得する処理等は省略される。
In the first embodiment, the input data of the prediction model is a matrix diagram, but is not limited to this, and includes the representative position information R generated by the
また、本実施形態1では、S13において推定部140は第1〜第6マトリクス図に対応する6つの予測モデルを予測モデル決定部184から取得する。しかし、これに限らず、たとえば推定部140は、第1〜第6マトリクス図の全てに対応した1つの予測モデルを取得してもよく、第1〜第3マトリクス図に対応した予測モデルと、第4〜第6マトリクス図に対応した予測モデルの2つを取得してもよい。
Further, in the first embodiment, in S13, the
次に、予測モデルを生成するための処理について図6〜7を用いて説明する。図6は、実施形態1にかかる装置10の学習データ処理の一例を示すフローチャートである。
まずS20において、学習処理部182は、学習用の複合形状および学習用の対象部分形状の形状データを学習データベース190から取得する。そして学習処理部182は、代表決定部122に取得した形状データを代表決定部122に出力する。
Next, the process for generating the prediction model will be described with reference to FIGS. 6 to 7. FIG. 6 is a flowchart showing an example of learning data processing of the
First, in S20, the
S21において、代表決定部122は、取得した形状データに対して図5のS11に示す処理と同様の処理を行うことにより、図形要素3の代表位置情報Rを決定する。代表決定部122は、マッピング処理部124に決定した図形要素3の代表位置情報Rを図形分類情報Kとともに出力する。
In S21, the
S22において、マッピング処理部124は、取得した代表位置情報Rおよび図形分類情報Kに対して、図5に示すS12と同様の処理を行うことにより、形状データごとに6種類のマトリクス図を生成する。マッピング処理部124は、これらのマトリクス図を学習処理部182に出力する。
In S22, the
S23において、学習処理部182は、学習データベース190の対応する形状データのレコードに、取得したマトリクス図を予測モデルの学習データとして格納する。なお予測モデル決定処理時に交差検定を行う場合、学習処理部182は、学習データを、訓練データと、テストデータとに分類してよい。学習処理部182は、取得したマトリクス図が訓練データであるか、またはテストデータであるかを判定し、取得したマトリクス図をその分類とともに学習データベース190に格納してよい。なお、学習用の複合形状に対応するマトリクス図は、予測モデルに入力される入力データとなる。また、学習用の対象部分形状に対応するマトリクス図は、入力データに対応する教師データとなる。
In S23, the
このように実施形態1によれば、装置10は、予測モデルの学習データを学習データベース190に事前に格納するため、後続の予測モデル決定処理において学習データを即時に取得することができる。
As described above, according to the first embodiment, since the
図7は、実施形態1にかかる装置10の予測モデル決定処理の一例を示すフローチャートである。
まずS30において、学習処理部182は、学習データベース190から訓練データとして、学習用の複合形状に関する訓練入力データおよび学習用の対象部分形状に関する訓練教師データを取得する。また学習処理部182は、学習データベース190からテストデータとして、学習用の複合形状に関するテスト入力データおよび学習用の対象部分形状に関するテスト教師データを取得する。学習処理部182は、予測モデル決定部184に各種データを出力する。
FIG. 7 is a flowchart showing an example of the prediction model determination process of the
First, in S30, the
次にS31において、予測モデル決定部184は、訓練入力データの6つのマトリクス図のうちの1つを選択し、選択したマトリクス図の種類に対応する予測モデルを取得する。
次にS32において、予測モデル決定部184は、S31において取得した予測モデルの各種パラメータを取得する。
そしてS33において、予測モデル決定部184は、選択したマトリクス図のピクセルの明度からピクセルの値を取得し、その値を予測モデルの入力層に入力し、予測モデルの出力層からピクセルの予測値を取得する。
Next, in S31, the prediction
Next, in S32, the prediction
Then, in S33, the prediction
S34において、予測モデル決定部184は、選択したマトリクス図に対応する、訓練教師データにおけるマトリクス図のピクセルの明度からピクセルの値を取得し、予測値との間の誤差を算出する。
S35において、予測モデル決定部184は、誤差が閾値未満か否かを判定する。予測モデル決定部184は、閾値未満であれば(S35でY)、処理をS37に進め、そうでなければ(S35でN)、処理をS36に進める。
In S34, the prediction
In S35, the prediction
S36において、予測モデル決定部184は、誤差に基づいて予測モデルの各種パラメータを更新する。このとき予測モデル決定部184は、たとえば誤差逆伝播法を用いて、各種パラメータを更新してよい。そして予測モデル決定部184は処理をS32に戻す。
In S36, the prediction
S37において、予測モデル決定部184は、テストデータについてS31〜S34の処理と同様の処理を行い、予測値とテスト教師データのピクセルの値との間の誤差を算出する。
S38において、予測モデル決定部184は、誤差が閾値未満か否かを判定する。予測モデル決定部184は、閾値未満であれば(S38でY)、処理をS40に進め、そうでなければ(S38でN)、処理をS39に進める。
In S37, the prediction
In S38, the prediction
S39において、予測モデル決定部184は、誤差に基づいて予測モデルを更新する。予測モデル決定部184は、S31に処理を戻す。
In S39, the prediction
S40において、予測モデル決定部184は、選択したマトリクス図に対応する予測モデルを決定する。そして予測モデル決定部184は、残りのマトリクス図に対しても、S31〜S40と同様の処理を行い、予測モデルのすべての予測モデルを決定する。
In S40, the prediction
このように実施形態1によると、装置10は、学習データを用いて、複合形状に関するマトリクス図から対象部分形状に関するマトリクス図を予測する予測モデルを生成することができる。
As described above, according to the first embodiment, the
なお本実施形態1では、学習データベース190は、装置10に含まれなくてもよい。例えば、学習データベース190は、外部の装置(不図示)に含まれてよい。この場合、予測モデル生成部180が通信手段(不図示)を介して外部の装置と接続され、外部の装置との間で学習データベース190に格納される情報の送受信をおこなってよい。
In the first embodiment, the
実施形態2.
次に図8〜9を用いて、本発明の実施形態2について説明する。実施形態2は、推定部140で生成される代表位置情報の予測値に対して補正処理を行うことを特徴とする。
図8は、実施形態2にかかる装置20の構成図である。装置20は、基本的には実施形態1の図2に示す装置10と同様の構成および機能を有するが、これに加えて補正処理部250を備える点で相違する。なお、図8において図2と同様の箇所については、同一の符号を付して適宜説明を省略する。
Next,
FIG. 8 is a configuration diagram of the
補正処理部250は、複合形状1の複数の図形要素3の代表位置情報に対応するピクセルに割り当てられる値と、推定した対象部分形状に対応する図形要素3の代表位置情報Rに対応するピクセルに割り当てられる値(予測値R’)との差分を取り、差分に基づいて推定した対象部分形状に対応する図形要素3の代表位置情報の予測値R’を補正する。つまり、補正処理部250は、予測モデルの入力データRと、予測モデルの出力データである予測値R’を含む形状生成用データとを推定部140から取得し、入力データRと予測値R’との間の比較に基づいて、形状生成用データの補正を行う。そして、補正処理部250は、補正した形状生成用データを形状生成部160に出力する。
The
図9は、実施形態2にかかる装置20の補正処理の一例を説明するための図である。
まず補正処理部250は、推定部140から出力される予測マトリクス図の各ピクセルを、A〜Dグループに分類する。
(Aグループ)
たとえば図9(a)に示すように、ピクセルの入力値Rが0かつ予測値R’が0でない場合、すなわちR=0かつR−R’<0の場合、そのピクセルをAグループに分類する。Aグループのピクセルは、もともと図形要素3が含まれていなかったのにも関わらず、図形要素3を含むと予測されたピクセルであり、予測の過程で位置ずれが生じた可能性のある、いわゆる「位置ずれ先ピクセル」である。
(Bグループ)
また、ピクセルの入力値Rが0でなく、かつ予測値R’がRと異なる値を有する場合、R≠0かつ|R−R’|>0の場合、そのピクセルをBグループに分類する。Bグループのピクセルは、削除が成功した(すなわち抽出されなかった)ピクセル、または予測の過程で位置ずれが発生したことにより誤って削除されたピクセルを含む。したがってBグループのピクセルは、いわゆる「削除成功ピクセル」または「位置ずれ元ピクセル」である。
(Cグループ)
また、ピクセルの入力値Rが0でなく、かつ予測値R’が0でなく、かつR’とRとが同じ値を有する場合、すなわちR≠0かつR’≠0かつR−R’=0の場合、そのピクセルをCグループに分類する。Cグループのピクセルは、抽出が成功した「抽出成功ピクセル」である。
(Dグループ)
最後に、A〜Cグループ以外のピクセルをDグループに分類する。たとえばDグループのピクセルは、もともと図形要素3が含まれておらず、予測の結果、削除も抽出もされなかったピクセルを含む。
Dグループのピクセルは、形状生成用データのうち削除すべき形状にかかる<削除ピクセルデータ>に、その予測値R’と関連付けられて登録されてよい。
FIG. 9 is a diagram for explaining an example of the correction process of the
First, the
(Group A)
For example, as shown in FIG. 9A, when the input value R of a pixel is 0 and the predicted value R'is not 0, that is, when R = 0 and R-R'<0, the pixel is classified into group A. .. The pixels of group A are pixels that are predicted to contain
(Group B)
Further, when the input value R of the pixel is not 0 and the predicted value R'has a value different from R, and when R ≠ 0 and | R-R'|> 0, the pixel is classified into the B group. Pixels in Group B include pixels that were successfully deleted (ie, were not extracted) or were accidentally deleted due to misalignment during the prediction process. Therefore, the pixels of group B are so-called "deleted successful pixels" or "misaligned source pixels".
(Group C)
Further, when the input value R of the pixel is not 0, the predicted value R'is not 0, and R'and R have the same value, that is, R ≠ 0 and R'≠ 0 and R-R'=. If it is 0, the pixel is classified into C group. Pixels in group C are "extracted successful pixels" that have been successfully extracted.
(Group D)
Finally, the pixels other than the A to C groups are classified into the D group. For example, the pixels of the D group originally do not include the
The pixels of the D group may be registered in the <deleted pixel data> related to the shape to be deleted in the shape generation data in association with the predicted value R'.
次に図9(b)を用いて、実施形態2にかかる装置20の補正処理フローを説明する。
まずS60において、補正処理部250は、マトリクス図の任意のピクセルXを選択する。そして、補正処理部250は、ピクセルXがCグループに属するか否かを判定する。補正処理部250は、ピクセルXがCグループに属する場合(S60でY)、すなわちピクセルXは「抽出成功ピクセル」であり、処理をS67に進める。補正処理部250は、そうでない場合(S60でN)、処理をS62に進める。
Next, the correction processing flow of the
First, in S60, the
S62において、補正処理部250は、ピクセルXがBグループに属するか否かを判定する。補正処理部250は、ピクセルXがBグループに属する場合(S62でY)、すなわちピクセルXは「削除成功ピクセル」または「位置ずれ元ピクセル」であり、処理をS64に進める。補正処理部250は、そうでない場合(S62でN)、処理をS69に進める。
In S62, the
S64において、補正処理部250は、ピクセルXの周辺のピクセルを検索する。たとえば補正処理部250は、ピクセルAを中心にε×ε(εはS以下の自然数)の範囲のピクセルを検索してよい。なおεは、予め定められてよく、ユーザからの入力により設定されてもよい。そして補正処理部250は、ピクセルXの周辺にAグループのピクセル(すなわち「位置ずれ先ピクセル」)があり、そのAグループのピクセルの予測値R’がピクセルXの入力値Rと等しい値を有するか否かを判定する。補正処理部250は、条件を満たせば(S64でY)ピクセルXを当該Aグループのピクセルにずれて出力された「位置ずれ元ピクセル」であるとみなし、処理をS66に進める。補正処理部250は、条件を満たさなければ(S64でN)、ピクセルXを「削除成功ピクセル」とみなし、処理をS68に進める。
In S64, the
次にS66において、補正処理部250は、ピクセルXの予測値R’の値をピクセルXの入力値Rの値に変更し、ピクセルXの予測値R’の値を補正する。そして補正処理部250は、処理をS67に進める。
Next, in S66, the
S67において、補正処理部250は、ピクセルXを、形状生成用データの抽出すべき形状にかかる<抽出ピクセルデータ>に、その予測値R’と関連付けて登録する。補正処理部250は、処理をS69に進める。
In S67, the
S68において、補正処理部250は、「削除成功ピクセル」であるピクセルXを、その予測値R’と関連付けて<削除ピクセルデータ>に登録する。そして補正処理部250は、処理をS69に進める。
S69において、補正処理部250は、すべてのピクセルについて処理を終了したか否かを判定する。補正処理部250は、終了していれば処理を終了し、そうでなければ処理をS60に戻す。
なお補正処理部250の処理が終了したことに応じて、形状生成部160は、補正処理部250から出力された形状生成用データの<抽出ピクセルデータ>および<削除ピクセルデータ>の少なくとも一方に基づいて、対象部分形状の形状データを生成する。
In S68, the
In S69, the
In response to the completion of the processing of the
実施形態2によれば、装置20は、形状生成用データの予測値R’に位置ずれが生じていた場合に、当該位置ずれを適切に補正することができる。これにより、形状生成用データに基づいて生成される対象部分形状の形状データの精度が向上する。
According to the second embodiment, when the predicted value R'of the shape generation data has a misalignment, the
実施形態3.
次に図10〜13を用いて、本発明の実施形態3について説明する。実施形態3は、マトリクス図へのマッピング時にリダクションされる情報を考慮して対象部分形状の形状データを生成することを特徴とする。
図10は、実施形態3にかかる装置30の構成図である。装置30は、基本的には実施形態2の図8に示す装置20と同様の構成および機能を有するが、変換処理部120、推定部140および予測モデル生成部180に代えて、変換処理部320、推定部340、重複処理部350および予測モデル生成部380を備える点で相違する。なお、図10において図8と同様の箇所については、同一の符号を付して適宜説明を省略する。
Next,
FIG. 10 is a configuration diagram of the
変換処理部320は、基本的には変換処理部120と同様の構成および機能を有するが、マッピング処理部124に代えてマッピング処理部324を有する。
マッピング処理部324は、基本的にはマッピング処理部124と同様の構成および機能を有する。マッピング処理部324は、マッピング処理部124と同様に、各図形要素3にピクセルの位置を割り当てる。次にマッピング処理部324は、各ピクセルに対して、そのピクセルに対応する図形要素の代表位置情報Rまたは図形分類情報Kの値の和を算出し、マトリクス図を生成する。ただしマッピング処理部324は、マッピング処理部124に加えて重複前処理部330を含む。
The
The
重複前処理部330は、マトリクス図の各ピクセルに対して、そのピクセルに対応する図形要素3の数(重複値m)を算出し、重複値mをマトリクス図に変換した重複データを生成する。
The
推定部340は、基本的には推定部140と同様の構成および機能を有する。ただし推定部340はこれに加えて、重複前処理部330から取得した重複データおよび、予測モデル生成部380の予測モデル決定部384から取得した予測モデルを用いて、重複値の予測値(重複予測値)m’を推定する。推定部340は、補正処理部250を介して重複処理部350に重複予測値m’を出力する。
The
重複処理部350は、重複予測値m’、図形要素3の代表位置情報R’および図形分類情報の予測値K’から、1つのピクセルに対応する図形要素3の組み合わせを組み合わせ数だけ算出し、1つの組み合わせを決定する。重複処理部350の重複処理の詳細については、後述で説明する。
The
予測モデル生成部380は、基本的には予測モデル生成部180と同様であるが、学習処理部182および予測モデル決定部184に代えて、学習処理部382および予測モデル決定部384を有する。
学習処理部382は、基本的には学習処理部182と同様であるが、実施形態2の学習データに加えて重複値mのマトリクス図を予測モデルの学習データとして、管理する。
予測モデル決定部384は、基本的には予測モデル決定部184と同様であるが、実施形態2のマトリクス図に加えて、重複値mのマトリクス図に対応する予測モデルを決定し、決定した予測モデルを推定部340に出力する。
The prediction
The
The prediction
図11(a)は、実施形態3にかかる代表位置情報の予測値R’に関する予測マトリクス図に格納される値の概略図である。図11(b)は、実施形態3にかかる代表位置情報の予測値R’に対応する重複予測値m’に関する予測マトリクス図に格納される値の概略図である。
本実施形態3ではこれらのマトリクス図は、推定部340から補正処理部250を介して出力される形状生成用データに含まれる予測マトリクス図である。なお本図の予測マトリクス図は、8×8(すなわちS=8)の解像度を有する。
FIG. 11A is a schematic diagram of the values stored in the prediction matrix diagram regarding the predicted value R'of the representative position information according to the third embodiment. FIG. 11B is a schematic diagram of the values stored in the prediction matrix diagram regarding the overlapping predicted value m'corresponding to the predicted value R'of the representative position information according to the third embodiment.
In the third embodiment, these matrix diagrams are prediction matrix diagrams included in the shape generation data output from the
図11(a)および(b)に示すように、たとえば7行2列目のピクセルの代表位置情報R’の値は10であり、重複予測値m’は3である。したがってこのピクセルには代表位置情報R’の合計値が10である3つの図形要素3が割り当てられていることになる。なお、1つの図形要素3の代表位置情報R’の値はS以下であるところ、このピクセルは代表位置情報R’の値がSより大きいため、複数の図形要素3が確実に割り当てられていることがR’の値からわかる。
同様に、2行5列目のピクセルの代表位置情報R’の値は7であり、重複予測値m’は2である。したがってこのピクセルには代表位置情報R’の合計値が7である2つの図形要素3が割り当てられていることになる。このように重複予測値m’は、R’の値がS以下である場合でも、ピクセルに割り当てられた図形要素3の数を示すことができる。
As shown in FIGS. 11A and 11B, for example, the value of the representative position information R'of the pixel in the 7th row and the 2nd column is 10, and the overlap
Similarly, the value of the representative position information R'of the pixels in the second row and the fifth column is 7, and the overlap
次に、本実施形態3にかかる対象部分形状生成処理および学習データ処理について図12を用いて説明する。図12(a)は、実施形態3にかかる装置30の対象部分形状生成処理の一例を示すフローチャートであり、図12(b)は、実施形態3にかかる装置30の学習データ処理の一例を示すフローチャートである。なお、図5および6と同様のステップについては、同様の符号を付して説明を省略する。
Next, the target partial shape generation process and the learning data process according to the third embodiment will be described with reference to FIG. FIG. 12A is a flowchart showing an example of the target partial shape generation process of the
図12(a)について、S70において、重複前処理部330は、各マトリクス図の各ピクセルに対して重複値mを決定し、各マトリクス図に対して重複値mのマトリクス図を生成する。そして重複前処理部330は、すべてのマトリクス図を推定部340に出力する。
S72において、推定部340は、図5のS13に加えて、重複値mのマトリクス図についても、対応する予測モデルを予測モデル決定部384から取得する。
Regarding FIG. 12A, in S70, the
In S72, the
S74において、推定部340は、図5のS14に加えて、重複値mのマトリクス図についても、予測モデルを用いて予測値m’を推定し、予測マトリクス図を生成する。そして推定部340は、補正処理部250を介して重複処理部350に予測値m’の予測マトリクス図を出力する。
S75において、補正処理部250は、推定部340から出力される代表位置情報の予測マトリクス図を含む形状生成用データに対して図9(b)に示すステップと同様の補正処理を行い、補正後の形状生成用データを生成する。
In S74, the
In S75, the
S76において、重複処理部350は、取得した予測値m’の予測マトリクス図および補正処理部250から出力される形状生成用データを用いて、後述する重複処理を実行する。これにより重複処理部350は、1つのピクセルにリダクションされた複数の図形要素3の組み合わせを決定する。そして重複処理部350は、形状生成用データに、決定した図形要素3に対応するデータを登録して、形状生成用データを更新する。重複処理部350は、形状生成用データを形状生成部160に出力する。そして重複処理部350は、処理をS15に進める。
In S76, the
また、図12(b)に示すように、S80において、重複前処理部330はS70と同様の処理を行う。
Further, as shown in FIG. 12B, in S80, the
図13は、実施形態3にかかる装置30の重複処理の一例を示すフローチャートである。
まずS90において、重複処理部350は、補正処理部250から形状生成用データの<抽出ピクセルデータ>を取得する。
FIG. 13 is a flowchart showing an example of duplicate processing of the
First, in S90, the
次にS91において、重複処理部350は、形状生成用データの抽出ピクセルデータに含まれる任意のピクセルについて、重複予測値m’が2以上であるか否かを判定する。重複処理部350は、m’が2以上であれば(S91でY)、処理をS93に進め、そうでなければ(S91でN)、処理をS92に進める。
Next, in S91, the
S92において、重複処理部350は、当該代表位置情報の予測値R’を形状生成用データの<抽出ピクセルデータ>として残す。そして重複処理部350は、処理をS98に進める。
S93において、重複処理部350は、重複予測値m’が2以上であることに応じて、形状生成用データの<抽出ピクセルデータ>から当該代表位置情報の予測値R’を削除する。
In S92, the
In S93, the
S94において、重複処理部350は、削除した代表位置情報のピクセルに対応する図形分類情報の予測値K’を取得する。
S95において、重複処理部350は、重複予測値m’および図形分類情報の予測値K’に基づいて、そのピクセルに含まれる重複した図形要素3の組み合わせを計算する。たとえば、m’=2である場合、そのピクセルには2つの図形要素3が含まれていることとなる。ここでK’=40である場合、そのピクセルに、図形分類情報が10および30の図形要素3が含まれている場合と、図形分類情報が20および20の図形要素3が含まれている場合との、2通りの組み合わせを計算することができる。
In S94, the
In S95, the
S96において、重複処理部350は、重複した図形要素3の組み合わせを決定する。本実施形態3では、重複処理部350が組み合わせに応じた図形要素3を組み合わせの数だけ生成し、複合形状1の形状データとの比較により図形要素3の組み合わせを選択し、決定する。なお、図形要素3の組み合わせの決定は、ユーザからの入力を受けて決定してもよい。
In S96, the
S97において、重複処理部350は、形状生成用データの<抽出ピクセルデータ>に、決定した図形要素3の組み合わせに対応するデータを登録し、形状生成用データを更新する。
S98において、重複処理部350は、すべての代表位置情報の予測値R’について処理を行ったか否かを判定する。重複処理部350は、行っている場合(S98でY)処理を終了し、そうでない場合(S98でN)処理をS91に戻す。
そして重複処理部350の処理が終了したことに応じて、形状生成部160は、出力された形状生成用データの<抽出ピクセルデータ>に基づいて、対象部分形状の形状データを生成する。なお、形状生成部160が形状生成用データの<削除ピクセルデータ>に基づいて、対象部分形状の形状データを生成する場合は、重複処理部350は、図13に示す各ステップを、<抽出ピクセルデータ>から<削除ピクセルデータ>に読み替えて実行してよい。
In S97, the
In S98, the
Then, in response to the completion of the processing of the
このように、実施形態3によれば、装置30が重複処理を行うため、マトリクス図へのマッピング時にリダクションされる情報を考慮して対象部分形状の形状データを生成することができる。したがって、生成される対象部分形状の形状データの精度が向上する。
As described above, according to the third embodiment, since the
なお実施形態3では推定部340が重複予測値m’を推定するとしたが、本推定は省略されてもよい。この場合、図10に示す重複処理部350は、重複予測値m’に代えて重複値mと、図形要素3の代表位置情報R’と、図形分類情報の予測値K’とから、1つのピクセルに対応する図形要素3の組み合わせを組み合わせ数だけ算出した上で、組み合わせを決定する。このとき重複処理部350は、図13に示す各ステップを、重複予測値m’から重複値mに読み替えて、実行してよい。
In the third embodiment, the
図14は、実施形態1〜3にかかるコンピュータ1900の構成図である。図14に示すように、コンピュータ1900は、システム全体を制御するための制御部1000を備えている。この制御部1000には、データバス等のバスラインを介して、記憶装置1200、記憶媒体駆動装置1300、通信制御装置1400、および入出力I/F1500が接続されている。
FIG. 14 is a configuration diagram of the
制御部1000は、CPU1010と、ROM1020と、RAM1030とを備えている。
CPU1010は、ROM1020や記憶装置1200等の各種記憶部に記憶されたプログラムに従って、各種の情報処理や制御を行う。
ROM1020は、CPU1010が各種制御や演算を行うための各種プログラムやデータが予め格納されたリードオンリーメモリである。
The
The
The
RAM1030は、CPU1010にワーキングメモリとして使用されるランダムアクセスメモリである。このRAM1030には、本実施形態1〜3による各種処理を行うための各種エリアが確保可能になっている。
The
入力装置1050は、キーボード、マウスおよびタッチパネル等のユーザからの入力を受け付ける入力装置である。たとえばキーボードは、テンキー、各種機能を実行するための機能キーおよびカーソルキー等の各種キーが配置されている。マウスは、ポインティングデバイスであり、表示装置1100に表示されたキーやアイコン等をクリックすることで対応する機能の指定を行う入力装置である。タッチパネルは、表示装置1100の表面に配置される入力機器で、表示装置1100に画面表示された各種操作キーに対応した、ユーザのタッチ位置を特定し、当該タッチ位置に対応して表示された操作キーの入力を受け付ける。
The
表示装置1100は、例えばCRTや液晶ディスプレイ等が使用される。この表示装置には、キーボードやマウスによる入力結果が表示されたり、最終的に検索されたイメージ情報が表示されたりするようになっている。また表示装置1100は、コンピュータ1900の各種機能に応じて、タッチパネルから必要な各種操作を行うための操作キーを画像表示する。
As the
記憶装置1200は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータ等の各種情報を読み書きするための駆動装置で構成されている。
この記憶装置1200に使用される記憶媒体としては、主としてハードディスクが使用されるが、後述の記憶媒体駆動装置1300で使用される各種記憶媒体のうちの読み書き可能な記憶媒体を使用するようにしてもよい。
記憶装置1200は、データ格納部1210、プログラム格納部1220および図示しないその他の格納部(例えば、この記憶装置1200内に格納されているプログラムやデータ等をバックアップするための格納部)等を有している。プログラム格納部1220には、本実施形態1〜3における各種処理を実現するためのプログラムが格納されている。データ格納部1210には、本実施形態1〜3にかかる各種データベースの各種データを格納する。
The
A hard disk is mainly used as the storage medium used in the
The
記憶媒体駆動装置1300は、CPU1010が外部の記憶媒体(外部記憶媒体)からコンピュータプログラムや文書を含むデータ等を読み込むための駆動装置である。
ここで、外部記憶媒体とは、コンピュータプログラムやデータ等が記憶される記憶媒体をいう。外部記憶媒体は、具体的には、フロッピーディスク、ハードディスク、磁気テープ等の磁気記憶媒体、メモリチップやICカード等の半導体記憶媒体、CD−ROMやMO、PD(相変化書換型光ディスク)等の光学的に情報が読み取られる記憶媒体が含まれてよい。また外部記憶媒体は、紙カードや紙テープ等の用紙(および、用紙に相当する機能を持った媒体)を用いた記憶媒体、その他各種方法でコンピュータプログラム等が記憶される記憶媒体が含まれてよい。
記憶媒体駆動装置1300は、これらの各種外部記憶媒体からコンピュータプログラムを読み込むことが可能である。このほか、記憶媒体駆動装置1300は、フロッピーディスクのような書き込み可能な外部記憶媒体に対してRAM1030や記憶装置1200に格納されているデータ等を書き込むことが可能である。
The storage
Here, the external storage medium means a storage medium in which a computer program, data, or the like is stored. Specific examples of the external storage medium include magnetic storage media such as floppy disks, hard disks, and magnetic tapes, semiconductor storage media such as memory chips and IC cards, and CD-ROMs, MOs, PDs (phase change rewritable optical discs), and the like. A storage medium from which information can be read optically may be included. Further, the external storage medium may include a storage medium using paper (and a medium having a function equivalent to paper) such as a paper card or paper tape, and a storage medium in which a computer program or the like is stored by various other methods. ..
The storage
コンピュータ1900は、制御部1000のCPU1010が、記憶媒体駆動装置1300にセットされた外部の記憶媒体からコンピュータプログラムを読み込んで、記憶装置1200の各部に格納(インストール)する。
In the
そして、コンピュータ1900が各種処理を実行する場合、記憶装置1200から該当プログラムをRAM1030に読み込み、実行するようになっている。但しコンピュータ1900は、記憶装置1200からではなく、記憶媒体駆動装置1300により外部の記憶媒体からRAM1030に直接プログラムを読み込んで実行することも可能である。また、コンピュータによっては各種プログラム等を予めROM1020に記憶させておき、これをCPU1010が実行するようにしてもよい。さらに、コンピュータ1900は、各種プログラムやデータを、通信制御装置1400を介して他の記憶媒体からダウンロードし、実行するようにしてもよい。
Then, when the
通信制御装置1400は、コンピュータ1900と他のパーソナルコンピュータやワードプロセッサ等の各種外部電子機器との間をネットワーク接続するための制御装置である。通信制御装置1400は、これら各種外部電子機器からコンピュータ1900にアクセスすることを可能とする。
The
入出力I/F1500は、パラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続するためのインターフェースである。
The input / output I /
本実施形態1〜3では、コンピュータ1900は、パーソナルコンピュータやワードプロセッサ等を含むコンピュータシステムで構成される。しかしこれに限らず、コンピュータ1900は、LAN(ローカル・エリア・ネットワーク)のサーバ、コンピュータ(パソコン)通信のホスト、インターネット上に接続されたコンピュータシステム等によって構成されることも可能である。また、ネットワーク上の各機器に機能分散させ、ネットワーク全体でコンピュータ1900を構成することも可能である。
In the first to third embodiments, the
なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。その様な変更を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present disclosure is not limited to the above embodiment, and can be appropriately modified without departing from the spirit. It is clear from the description of the claims that such modified forms may also be included in the technical scope of the present disclosure.
特許請求の範囲、明細書、および図面中において示した装置および方法における各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのではない限り、任意の順序で実現しうる。特許請求の範囲、明細書および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順序で実施することが必須であることを意味するものではない。 The execution order of each process in the apparatus and method shown in the claims, the specification, and the drawings is not specified as "before", "prior to", etc., and the order of execution of the previous processes is not specified. It can be achieved in any order unless the output is used in later processing. Even if the scope of claims, the description, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it means that it is essential to carry out in this order. is not it.
なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。 The present disclosure is not limited to the above embodiment, and can be appropriately modified without departing from the spirit.
1 複合形状、2,5,7 部分形状、3,4a,4b,4c,6,8 図形要素、9 内部空間、10,20,30 装置、50 第1〜第3マトリクス図、52 第4〜第6マトリクス図、100 記憶部、110 取得部、120,320 変換処理部、122 代表決定部、124,324 マッピング処理部、140,340 推定部、160 形状生成部、180,380 予測モデル生成部、182,382 学習処理部、184,384 予測モデル決定部、190 学習データベース、250 補正処理部、330 重複前処理部、350 重複処理部、1000 制御部、1010 CPU、1020 ROM、1030 RAM、1100 表示装置、1200 記憶装置、1210 データ格納部、1220 プログラム格納部、1300 記憶媒体駆動装置、1400 通信制御装置、1500 入出力I/F、1900 コンピュータ 1 Composite shape, 2, 5, 7 partial shape, 3, 4a, 4b, 4c, 6, 8 graphic elements, 9 internal space, 10, 20, 30 devices, 50 1st to 3rd matrix diagrams, 52 4th to 6th matrix diagram, 100 storage unit, 110 acquisition unit, 120, 320 conversion processing unit, 122 representative determination unit, 124,324 mapping processing unit, 140,340 estimation unit, 160 shape generation unit, 180,380 prediction model generation unit , 182,382 learning processing unit, 184,384 prediction model determination unit, 190 learning database, 250 correction processing unit, 330 duplication preprocessing unit, 350 duplication processing unit, 1000 control unit, 1010 CPU, 1020 ROM, 1030 RAM, 1100 Display device, 1200 storage device, 1210 data storage unit, 1220 program storage unit, 1300 storage medium drive device, 1400 communication control device, 1500 input / output I / F, 1900 computer
Claims (1)
前記複数の図形要素に対応する図形分類情報に基づいて、前記複数の図形要素のそれぞれに対して、その図形要素の位置を代表する代表位置情報を決定する代表決定部と、
前記複数の図形要素の前記代表位置情報を用いて、学習用の複合形状および学習用の対象部分形状に基づいて機械学習により生成される予測モデルにより、対象部分形状に対応する図形要素の代表位置情報を推定する推定部と、
推定された前記図形要素の代表位置情報および前記図形要素の図形分類情報に基づいて前記対象部分形状を生成する形状生成部と
を備える装置。 A device that generates a target partial shape from a composite shape having multiple graphic elements.
A representative determination unit that determines representative position information representing the position of the graphic element for each of the plurality of graphic elements based on the graphic classification information corresponding to the plurality of graphic elements.
Using the representative position information of the plurality of graphic elements, the representative position of the graphic element corresponding to the target partial shape by the prediction model generated by machine learning based on the composite shape for learning and the target partial shape for learning. An estimation unit that estimates information and
A device including a shape generating unit that generates the target partial shape based on the estimated representative position information of the graphic element and the graphic classification information of the graphic element.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020022066A JP2021128485A (en) | 2020-02-13 | 2020-02-13 | Target partial shape generation device from composite shape with multiple graphic elements |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020022066A JP2021128485A (en) | 2020-02-13 | 2020-02-13 | Target partial shape generation device from composite shape with multiple graphic elements |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021128485A true JP2021128485A (en) | 2021-09-02 |
Family
ID=77488630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020022066A Pending JP2021128485A (en) | 2020-02-13 | 2020-02-13 | Target partial shape generation device from composite shape with multiple graphic elements |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021128485A (en) |
-
2020
- 2020-02-13 JP JP2020022066A patent/JP2021128485A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7266419B2 (en) | Search for similar sheet metal part models | |
US6219586B1 (en) | Apparatus and method for managing and distributing design and manufacturing information throughout a sheet metal production facility | |
US5886897A (en) | Apparatus and method for managing and distributing design and manufacturing information throughout a sheet metal production facility | |
JP4785598B2 (en) | Similar shape search device | |
US20080065625A1 (en) | CAD data evaluation method and evaluation apparatus | |
CN103914504A (en) | Information processing apparatus and method for generating graphs | |
US20090070686A1 (en) | Method, system, and program product for controlling a display on a data editing screen | |
US8041549B2 (en) | Analyzation apparatus and control method thereof | |
CN108154191A (en) | The recognition methods of file and picture and system | |
US9304981B1 (en) | System and method for providing an inter-application overlay to communicate information between users and tools in the EDA design flow | |
Corvo et al. | Visual analytics for hypothesis-driven exploration in computational pathology | |
JP2021128485A (en) | Target partial shape generation device from composite shape with multiple graphic elements | |
JP4733414B2 (en) | Model selection program in CAD system | |
CN111507265A (en) | Form key point detection model training method, device, equipment and storage medium | |
Han et al. | A study on structural CAD data conversion between AVEVA MARINE® and Intergraph Smart 3D® | |
JP2019207663A (en) | Analysis model display processing program, analysis model display processing method, and information processing device | |
JP5482175B2 (en) | Boundary particle search system, boundary particle search device, control method, and program | |
EP4207073A1 (en) | Method and system for tracking a cad model in real time based on particle filters | |
US20230185977A1 (en) | Method and system for performing seamless analysis of geometric components in multi-domain collaborative simulation environments | |
WO2024095636A1 (en) | Design assistance device, design assistance program, and design assistance method | |
KR100886657B1 (en) | System and Method for making Basic Document of Dimensional Accuracy Check Sheet for Block in Ship Production | |
KR100813940B1 (en) | System and methodology for the management of spatial data using large scale DBMS | |
Aljaloud et al. | An Innovative Metric-based Clustering Approach for Increased Scalability and Dependency Elimination in Monolithic Legacy Systems | |
Kelly et al. | evoVision3D: a multiscale visualization of evolutionary histories | |
CN118154259A (en) | Product price data acquisition method and device and electronic equipment |