JP2021128485A - Target partial shape generation device from composite shape with multiple graphic elements - Google Patents

Target partial shape generation device from composite shape with multiple graphic elements Download PDF

Info

Publication number
JP2021128485A
JP2021128485A JP2020022066A JP2020022066A JP2021128485A JP 2021128485 A JP2021128485 A JP 2021128485A JP 2020022066 A JP2020022066 A JP 2020022066A JP 2020022066 A JP2020022066 A JP 2020022066A JP 2021128485 A JP2021128485 A JP 2021128485A
Authority
JP
Japan
Prior art keywords
shape
graphic
data
processing unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020022066A
Other languages
Japanese (ja)
Inventor
基 八丁
Motoi Haccho
基 八丁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020022066A priority Critical patent/JP2021128485A/en
Publication of JP2021128485A publication Critical patent/JP2021128485A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)

Abstract

To provide a device capable of more efficiently generating a complicated partial shape from a composite shape.SOLUTION: The device according to the present invention is a device for generating a target partial shape from a composite shape including a plurality of graphic elements. The device includes a representative determination unit that determines representative position information representing a position of a graphic element for each of a plurality of graphic elements based on graphic classification information corresponding to the plurality of graphic elements, an estimation unit that estimates the representative position information of the graphic element corresponding to a target partial shape by a prediction model generated by machine learning based on the composite shape for learning and the partial shape for learning using the representative position information of the plurality of graphic elements, and a shape generation unit that generates the target partial shape based on the estimated representative position information of the graphic element and the graphic classification information of the graphic element.SELECTED DRAWING: Figure 2

Description

本発明は、複数の図形要素を有する複合形状から対象部分形状を生成する装置に関する。 The present invention relates to an apparatus that generates a target partial shape from a composite shape having a plurality of graphic elements.

CAD(Computer Aided Design)およびCG(Computer Graphics)の分野において、複数の部分形状を含む複合形状から特定の部分形状を自動的に抽出する方法が知られている。たとえば特許文献1では、複合形状を各部分形状に分け、各部分形状から予め登録される参照形状と特徴量が類似する部分形状を抽出する方法が開示されている。 In the fields of CAD (Computer Aided Design) and CG (Computer Graphics), a method of automatically extracting a specific partial shape from a composite shape including a plurality of partial shapes is known. For example, Patent Document 1 discloses a method of dividing a composite shape into each partial shape and extracting a partial shape having a feature amount similar to that of a reference shape registered in advance from each partial shape.

特開2007−280129号公報JP-A-2007-280129

しかし特許文献1に記載の方法は、作業者によって予め登録された参照形状を用いるため、作業者の予測が困難な複雑形状を有する部分形状に対しては適用できないという問題がある。また、複合形状から特定の部分形状を抽出するために、機械学習等により生成される予測モデルを用いることが考えられるが、抽出対象の部分形状が複雑である場合、予測モデルに入力する情報量が増大し、計算コストが高くなるという問題がある。 However, since the method described in Patent Document 1 uses a reference shape registered in advance by the worker, there is a problem that it cannot be applied to a partial shape having a complicated shape that is difficult for the worker to predict. Further, in order to extract a specific partial shape from the composite shape, it is conceivable to use a prediction model generated by machine learning or the like, but when the partial shape to be extracted is complicated, the amount of information to be input to the prediction model. There is a problem that the calculation cost increases.

本発明は、上記の問題を解決するためになされたものであり、複合形状から抽出対象の部分形状をより効率良く生成することができる装置を提供することを目的とするものである。 The present invention has been made to solve the above problems, and an object of the present invention is to provide an apparatus capable of more efficiently generating a partial shape to be extracted from a composite shape.

本発明による装置は、複数の図形要素を含む複合形状から対象部分形状を生成する装置である。装置は、前記複数の図形要素に対応する図形分類情報に基づいて、前記複数の図形要素のそれぞれに対して、その図形要素の位置を代表する代表位置情報を決定する代表決定部と、前記複数の図形要素の前記代表位置情報を用いて、学習用の複合形状および学習用の部分形状に基づいて機械学習により生成される予測モデルにより、対象部分形状に対応する図形要素の代表位置情報を推定する推定部と、推定された前記図形要素の代表位置情報および前記図形要素の図形分類情報に基づいて前記対象部分形状を生成する形状生成部とを備える。 The device according to the present invention is a device that generates a target partial shape from a composite shape including a plurality of graphic elements. The apparatus includes a representative determination unit that determines representative position information representing the position of the graphic element for each of the plurality of graphic elements based on the graphic classification information corresponding to the plurality of graphic elements, and the plurality of the representative determination units. Using the representative position information of the graphic element of, the representative position information of the graphic element corresponding to the target partial shape is estimated by the prediction model generated by machine learning based on the composite shape for learning and the partial shape for learning. The estimation unit is provided, and a shape generation unit that generates the target partial shape based on the estimated representative position information of the graphic element and the graphic classification information of the graphic element.

本発明では、代表位置情報を用いて対象部分形状を推定するため、入力する情報量の増大を抑制し、複合形状から抽出対象の部分形状をより効率良く生成することができる。 In the present invention, since the target partial shape is estimated using the representative position information, it is possible to suppress an increase in the amount of input information and more efficiently generate the partial shape to be extracted from the composite shape.

本発明により、複合形状から抽出対象の部分形状をより効率良く生成することができる装置を提供することができる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide an apparatus capable of more efficiently generating a partial shape to be extracted from a composite shape.

実施形態1にかかる複合形状の一部を示す概略図である。It is the schematic which shows a part of the composite shape which concerns on Embodiment 1. FIG. 実施形態1にかかる装置の構成図である。It is a block diagram of the apparatus which concerns on Embodiment 1. FIG. 実施形態1にかかる代表決定部により出力される情報のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the information output by the representative determination part which concerns on Embodiment 1. FIG. 実施形態1にかかるマトリクス図の概略図である。It is the schematic of the matrix diagram which concerns on Embodiment 1. FIG. 実施形態1にかかる装置の対象部分形状生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the target partial shape generation processing of the apparatus which concerns on Embodiment 1. FIG. 実施形態1にかかる装置の学習データ処理の一例を示すフローチャートである。It is a flowchart which shows an example of the learning data processing of the apparatus which concerns on Embodiment 1. FIG. 実施形態1にかかる装置の予測モデル決定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the prediction model determination process of the apparatus which concerns on Embodiment 1. FIG. 実施形態2にかかる装置の構成図である。It is a block diagram of the apparatus which concerns on Embodiment 2. FIG. 実施形態2にかかる装置の補正処理の一例を説明するための図である。It is a figure for demonstrating an example of the correction process of the apparatus which concerns on Embodiment 2. FIG. 実施形態3にかかる装置の構成図である。It is a block diagram of the apparatus which concerns on Embodiment 3. FIG. 実施形態3にかかる代表位置情報の予測値および代表位置情報の予測値に対応する重複値の予測値に関する予測マトリクス図に格納される値の概略図である。It is a schematic diagram of the value stored in the prediction matrix diagram about the predicted value of the representative position information and the predicted value of the duplicate value corresponding to the predicted value of the representative position information according to the third embodiment. 実施形態3にかかる装置の対象部分形状生成処理の一例と、学習データ処理の一例とを示すフローチャートである。It is a flowchart which shows an example of the target partial shape generation processing of the apparatus which concerns on Embodiment 3 and an example of learning data processing. 実施形態3にかかる装置の重複処理の一例を示すフローチャートである。It is a flowchart which shows an example of the duplication process of the apparatus which concerns on Embodiment 3. FIG. 実施形態1〜3にかかるコンピュータの構成図である。It is a block diagram of the computer which concerns on Embodiments 1-3.

実施形態1.
まず図1〜8を用いて、本発明の実施形態1について説明する。図1は、実施形態1にかかる複合形状1の一部を示す概略図である。
複合形状1は、三次元CADデータ等の形状データを用いて、三次元CADシステムにより生成される三次元形状である。一例として複合形状1は、CAE(Computer Aided Engineering)によってエンジン内部のオイル攪拌の気流解析を行う場合の、エンジンの壁面の集合を表す三次元形状である。複合形状1は、複数の部分形状を備える。本図では、複合形状1は、部分形状2、5および7を備える。
Embodiment 1.
First, Embodiment 1 of the present invention will be described with reference to FIGS. 1 to 8. FIG. 1 is a schematic view showing a part of the composite shape 1 according to the first embodiment.
The composite shape 1 is a three-dimensional shape generated by a three-dimensional CAD system using shape data such as three-dimensional CAD data. As an example, the composite shape 1 is a three-dimensional shape representing a set of wall surfaces of an engine when the airflow analysis of oil agitation inside the engine is performed by CAE (Computer Aided Engineering). The composite shape 1 includes a plurality of partial shapes. In this figure, the composite shape 1 includes partial shapes 2, 5 and 7.

部分形状は、複合形状1を構成する部品の壁面である。一例として、部分形状は、シリンダヘッドおよびマニホールド等のエンジン部品の壁面である。部分形状は、1または複数の図形要素3を有する。本図では、部分形状2は、図形要素4a,4b,4cを有し、部分形状5は、図形要素6を有し、部分形状7は、図形要素8を有する。 The partial shape is the wall surface of the parts constituting the composite shape 1. As an example, the partial shape is the wall surface of an engine component such as a cylinder head and a manifold. The partial shape has one or more graphic elements 3. In this figure, the partial shape 2 has graphic elements 4a, 4b, 4c, the partial shape 5 has a graphic element 6, and the partial shape 7 has a graphic element 8.

図形要素3は、それぞれ図形の形状を分類する図形分類を有する。本図では、図形要素4a,4cの図形分類は単純平面であり、図形要素4bの図形分類はフィレットであり、図形要素6および8の図形分類は円筒面である。
たとえば本図の部分形状2に含まれる図形要素4a,4b,4cのように、部分形状に複数の図形要素3が含まれる場合は、いずれかの図形要素同士がその辺または面を共有して互いに結合する構造をとってよい。
Each graphic element 3 has a graphic classification that classifies the shape of the graphic. In this figure, the graphic classification of the graphic elements 4a and 4c is a simple plane, the graphic classification of the graphic element 4b is a fillet, and the graphic classification of the graphic elements 6 and 8 is a cylindrical surface.
For example, when a plurality of graphic elements 3 are included in the partial shape as in the graphic elements 4a, 4b, and 4c included in the partial shape 2 of this figure, any of the graphic elements share the side or the surface. It may have a structure that connects to each other.

実施形態1では、複合形状1を構成する部分形状のうち、特定の部分形状(対象部分形状)を抽出し、対象部分形状にかかる形状データを生成する。対象部分形状は、解析対象領域である空間の壁面の集合である。たとえば複合形状1が形成する空間内部の気流解析をする場合に、対象部分形状は、複合形状1を構成する部分形状のうち、流体との境界面である部分形状の壁面のみを含む形状である。たとえば本実施形態1では、複合形状1から対象部分形状として部分形状2および6を抽出し、対象部分形状にかかる形状データを生成する。 In the first embodiment, a specific partial shape (target partial shape) is extracted from the partial shapes constituting the composite shape 1, and shape data related to the target partial shape is generated. The target partial shape is a set of wall surfaces of a space that is an analysis target area. For example, when analyzing the airflow inside the space formed by the composite shape 1, the target partial shape is a shape including only the wall surface of the partial shape which is the boundary surface with the fluid among the partial shapes constituting the composite shape 1. .. For example, in the first embodiment, the partial shapes 2 and 6 are extracted from the composite shape 1 as the target partial shape, and the shape data related to the target partial shape is generated.

次に、このような対象部分形状にかかる形状データを生成するために用いられる装置10について、図2〜7を用いて説明する。図2は、実施形態1にかかる装置10の構成図である。装置10は、複合形状1から抽出対象である対象部分形状を生成する。装置10は、パーソナルコンピュータ、ノート型コンピュータ、スマートフォンまたはその他の入出力可能な装置である。装置10は、記憶部100と、取得部110と、変換処理部120と、推定部140と、形状生成部160と、予測モデル生成部180と、学習データベース190とを備える。 Next, the apparatus 10 used for generating shape data relating to such a target partial shape will be described with reference to FIGS. 2 to 7. FIG. 2 is a configuration diagram of the device 10 according to the first embodiment. The device 10 generates a target partial shape to be extracted from the composite shape 1. The device 10 is a personal computer, a notebook computer, a smartphone or other device capable of input / output. The device 10 includes a storage unit 100, an acquisition unit 110, a conversion processing unit 120, an estimation unit 140, a shape generation unit 160, a prediction model generation unit 180, and a learning database 190.

記憶部100は、複合形状1にかかる形状データ等の各種情報を記憶する記憶媒体である。記憶部100は、取得部110に接続され、取得部110に複合形状1にかかる形状データ等の各種情報を提供する。ここで形状データは、各図形要素3について、図形分類と当該図形要素3を形成する頂点の位置を示す情報とを含む。本実施形態1で図形分類は、例えば単純平面、フィレット、円筒面および自由曲面等である。また本実施形態1で頂点の位置を示す情報は、X軸、Y軸、Z軸を用いた空間における頂点の位置座標(x,y,z)である。形状データの形式は、一例として、STEP(Standard for the Exchange of Product model data)、IGES(Initial Graphics Exchange Specification)、DWG(DRAWING)およびDXF(Drawing Exchange Format)等であってよい。 The storage unit 100 is a storage medium that stores various information such as shape data related to the composite shape 1. The storage unit 100 is connected to the acquisition unit 110 and provides the acquisition unit 110 with various information such as shape data related to the composite shape 1. Here, the shape data includes, for each graphic element 3, information indicating the graphic classification and the positions of the vertices forming the graphic element 3. In the first embodiment, the graphic classification is, for example, a simple plane, a fillet, a cylindrical surface, a free curved surface, or the like. Further, the information indicating the position of the apex in the first embodiment is the position coordinates (x 0 , y 0 , z 0 ) of the apex in the space using the X-axis, the Y-axis, and the Z-axis. The format of the shape data is, for example, STEP (Standard for the Exchange model data), IGES (Initial Graphics Expert Specialization), DWG (DRAWING), etc., and DX (DRAWING) and DX.

取得部110は、記憶部100から複合形状1にかかる形状データ等の各種情報を取得する。取得部110は、変換処理部120に接続され、変換処理部120に複合形状1にかかる形状データ等の各種情報を出力する。 The acquisition unit 110 acquires various information such as shape data related to the composite shape 1 from the storage unit 100. The acquisition unit 110 is connected to the conversion processing unit 120, and outputs various information such as shape data related to the composite shape 1 to the conversion processing unit 120.

変換処理部120は、推定部140に接続され、複合形状1にかかる形状データから推定部140で用いる予測モデルの入力データへの変換処理を行う。変換処理部120は、代表決定部122と、マッピング処理部124とを有する。 The conversion processing unit 120 is connected to the estimation unit 140 and performs conversion processing from the shape data related to the composite shape 1 to the input data of the prediction model used by the estimation unit 140. The conversion processing unit 120 has a representative determination unit 122 and a mapping processing unit 124.

代表決定部122は、形状データに基づいて、複数の図形要素3のそれぞれに対して、その図形要素3の位置を代表する代表位置情報を決定する。代表位置情報については、後述で説明する。代表決定部122は、マッピング処理部124に接続され、マッピング処理部124に代表位置情報を図形分類情報とともに出力する。 The representative determination unit 122 determines representative position information representing the position of the graphic element 3 for each of the plurality of graphic elements 3 based on the shape data. The representative position information will be described later. The representative determination unit 122 is connected to the mapping processing unit 124, and outputs the representative position information to the mapping processing unit 124 together with the graphic classification information.

マッピング処理部124は、複数の図形要素3の代表位置情報または複数の図形要素3の図形分類情報を1または複数のマトリクス図にマッピングする。マトリクス図については、後述で説明する。マッピング処理部124は、推定部140に接続され、マトリクス図を推定部140に出力する。 The mapping processing unit 124 maps the representative position information of the plurality of graphic elements 3 or the graphic classification information of the plurality of graphic elements 3 to one or a plurality of matrix diagrams. The matrix diagram will be described later. The mapping processing unit 124 is connected to the estimation unit 140 and outputs a matrix diagram to the estimation unit 140.

推定部140は、複合形状1の複数の図形要素3の代表位置情報および図形分類情報を含むマトリクス図を用いて、予測モデルにより、対象部分形状に対応する図形要素3の代表位置情報およびその図形分類情報を推定する。ここで予測モデルは、たとえばニューラルネットワークを含む。本実施形態1では、ニューラルネットワークは、畳み込みニューラルネットワーク(Convolutional neural network,CNN)である。本実施形態1では、予測モデルは、マトリクス図の種類に応じた数の予測モデルを有する。推定部140は、形状生成部160に接続され、対象部分形状に対応する図形要素3の代表位置情報およびその図形分類情報を形状生成部160に出力する。 The estimation unit 140 uses a matrix diagram including representative position information and graphic classification information of a plurality of graphic elements 3 of the composite shape 1, and uses a prediction model to obtain representative position information of the graphic element 3 corresponding to the target partial shape and its graphic. Estimate classification information. Here, the prediction model includes, for example, a neural network. In the first embodiment, the neural network is a convolutional neural network (CNN). In the first embodiment, the prediction model has a number of prediction models according to the type of matrix diagram. The estimation unit 140 is connected to the shape generation unit 160, and outputs the representative position information of the graphic element 3 corresponding to the target partial shape and the graphic classification information thereof to the shape generation unit 160.

形状生成部160は、推定された図形要素3の代表位置情報および図形要素3の図形分類情報に基づいて対象部分形状の形状データを生成する。 The shape generation unit 160 generates shape data of the target partial shape based on the estimated representative position information of the graphic element 3 and the graphic classification information of the graphic element 3.

予測モデル生成部180は、学習用の複合形状および学習用の対象部分形状に基づいて機械学習により予測モデルを生成する。また予測モデル生成部180は、変換処理部120および推定部140に接続され、これらとの間で各種情報の入出力を行う。予測モデル生成部180は、学習処理部182と、予測モデル決定部184とを備える。 The prediction model generation unit 180 generates a prediction model by machine learning based on the composite shape for learning and the target partial shape for learning. Further, the prediction model generation unit 180 is connected to the conversion processing unit 120 and the estimation unit 140, and inputs and outputs various information between them. The prediction model generation unit 180 includes a learning processing unit 182 and a prediction model determination unit 184.

学習処理部182は、予測モデルの学習データを管理する。学習処理部182は、学習データベース190、変換処理部120および予測モデル決定部184に接続される。学習処理部182は、学習データベース190から取得した学習用の複合形状および学習用の対象部分形状の形状データを予測モデル用の学習データに変換するように変換処理部120に要求する。そして学習処理部182は、変換処理部120から出力された学習データを予測モデル決定部184に出力する。
なお、本実施形態1で学習データは、学習用の複合形状および学習用の対象部分形状ごとに、各形状データから取得される代表位置情報または図形分類情報に基づいて生成された1または複数のマトリクス図である。
The learning processing unit 182 manages the learning data of the prediction model. The learning processing unit 182 is connected to the learning database 190, the conversion processing unit 120, and the prediction model determination unit 184. The learning processing unit 182 requests the conversion processing unit 120 to convert the shape data of the composite shape for learning and the target partial shape for learning acquired from the learning database 190 into the learning data for the prediction model. Then, the learning processing unit 182 outputs the learning data output from the conversion processing unit 120 to the prediction model determination unit 184.
In the first embodiment, the learning data is one or more generated based on the representative position information or the graphic classification information acquired from each shape data for each of the compound shape for learning and the target partial shape for learning. It is a matrix diagram.

予測モデル決定部184は、学習データを用いて機械学習により予測モデルを決定する。予測モデル決定部184は、推定部140に接続され、推定部140に決定した予測モデルを出力する。 The prediction model determination unit 184 determines the prediction model by machine learning using the training data. The prediction model determination unit 184 is connected to the estimation unit 140 and outputs the determined prediction model to the estimation unit 140.

学習データベース190は、学習用の複合形状および学習用の対象部分形状の形状データおよび、これらに対応する、学習処理部182から提供される学習データ等の各種情報を記憶する。 The learning database 190 stores various information such as shape data of a composite shape for learning and a target partial shape for learning, and learning data provided by the learning processing unit 182 corresponding thereto.

図3は、実施形態1にかかる代表決定部122により出力される情報のデータ構造の一例を示す図である。当該情報は、図形要素識別番号と、図形分類情報Kと、代表位置情報Rとを備える。 FIG. 3 is a diagram showing an example of a data structure of information output by the representative determination unit 122 according to the first embodiment. The information includes a graphic element identification number, graphic classification information K, and representative position information R.

図形要素識別番号は、各図形要素3を一意に識別する番号である。本実施形態1では図形要素識別番号は、形状データに基づいて代表決定部122により割り当てられる。
図形分類情報は、その図形要素3の図形分類を示す情報である。図形分類情報は、形状データに含まれる図形要素3に基づいて割り当てられる番号である。本実施形態1では、図形分類情報は、図形分類の種類がN個(Nは自然数)である場合、K=kn(kはN以下の自然数、nを任意の自然数の定数)で表現される。本図では、n=10である。
たとえば図形要素3が単純平面の場合、図形分類情報の値Kは10(k=1)であり、図形要素3がフィレットである場合、図形分類情報の値Kは20(k=2)であり、図形要素3が円筒面である場合、図形分類情報の値Kは30(k=3)である。
The graphic element identification number is a number that uniquely identifies each graphic element 3. In the first embodiment, the graphic element identification number is assigned by the representative determination unit 122 based on the shape data.
The graphic classification information is information indicating the graphic classification of the graphic element 3. The graphic classification information is a number assigned based on the graphic element 3 included in the shape data. In the first embodiment, when the types of graphic classification are N (N is a natural number), the graphic classification information is represented by K = kn (k is a natural number less than or equal to N, and n is a constant of an arbitrary natural number). .. In this figure, n = 10.
For example, when the graphic element 3 is a simple plane, the value K of the graphic classification information is 10 (k = 1), and when the graphic element 3 is a fillet, the value K of the graphic classification information is 20 (k = 2). When the graphic element 3 is a cylindrical surface, the value K of the graphic classification information is 30 (k = 3).

代表位置情報は、代表点の位置座標を規格化し、離散化した座標であり、R=(R,R,R)で表される。ここで代表点は、対応する図形要素3の位置を代表する点である。代表点の位置座標(x,y,z)は、図形分類情報Kおよび対応する図形要素3の頂点の位置座標(x,y,z)に基づいて、決定される。
たとえば、図形要素3が単純平面またはフィレットである場合、代表点は、単純平面の重心であってよい。一例として、図形要素3が4つの角(頂点)で形成される単純平面である場合、代表点の位置座標の各成分は、その4つの頂点を成分ごとに足し合わせて、頂点の数(ここでは、4)で割った値であってよい。また、たとえば図形要素3が円筒面である場合、代表点は、円筒面の中心軸上の中点であってよい。これに代えて、代表点は、図形要素3を形成する複数の頂点のうち任意の1点であってもよい。
The representative position information is the coordinates obtained by standardizing the position coordinates of the representative points and discretizing them, and is represented by R = (R x , R y , R z ). Here, the representative point is a point representing the position of the corresponding graphic element 3. The position coordinates (x 1 , y 1 , z 1 ) of the representative point are determined based on the figure classification information K and the position coordinates (x 0 , y 0 , z 0 ) of the vertices of the corresponding graphic element 3.
For example, when the graphic element 3 is a simple plane or a fillet, the representative point may be the center of gravity of the simple plane. As an example, when the graphic element 3 is a simple plane formed by four corners (vertices), each component of the position coordinate of the representative point is the number of vertices (here) by adding the four vertices for each component. Then, it may be a value divided by 4). Further, for example, when the graphic element 3 is a cylindrical surface, the representative point may be a midpoint on the central axis of the cylindrical surface. Instead, the representative point may be any one of the plurality of vertices forming the graphic element 3.

代表位置情報は、本図に示す通り、X軸、Y軸およびZ軸方向の成分R,R,Rを有する。本図では、図形要素識別番号1の図形要素は、図形分類情報10および代表位置情報(1,2,2)を有し、図形要素識別番号2の図形要素は、図形分類情報20および代表位置情報(1,2,1)を有し、図形要素識別番号3の図形要素は、図形分類情報10および代表位置情報(5,5,3)を有する。
なお本実施形態1では規格化および離散化についての詳細は後述で説明する。
このように、複合形状1の図形要素3を代表位置情報に変換することによって、後述の予測モデルを用いた推定処理の効率が向上する。
As shown in this figure, the representative position information has components R x , R y , and R z in the X-axis, Y-axis, and Z-axis directions. In this figure, the graphic element of the graphic element identification number 1 has the graphic classification information 10 and the representative position information (1, 2, 2), and the graphic element of the graphic element identification number 2 has the graphic classification information 20 and the representative position. It has information (1, 2, 1), and the graphic element of the graphic element identification number 3 has graphic classification information 10 and representative position information (5, 5, 3).
In the first embodiment, details of standardization and discretization will be described later.
By converting the graphic element 3 of the composite shape 1 into the representative position information in this way, the efficiency of the estimation process using the prediction model described later is improved.

図4は、実施形態1にかかるマトリクス図の概略図である。図4(a)は、マトリクス図の各ピクセルに割り当てられる値を示し、図4(b)は、各ピクセルの値に基づいて画像化したマトリクス図を示す。本実施形態1では、マトリクス図は、第1〜第3マトリクス図50と、第4〜第6マトリクス図52とを有する。 FIG. 4 is a schematic diagram of a matrix diagram according to the first embodiment. FIG. 4A shows a value assigned to each pixel of the matrix diagram, and FIG. 4B shows an imaged matrix diagram based on the value of each pixel. In the first embodiment, the matrix diagram has the first to third matrix diagrams 50 and the fourth to sixth matrix diagrams 52.

図4(a)および(b)に示すように、各マトリクス図は、行および列を用いて指定されるピクセルを有する。本図では、各マトリクス図の行および列の数は、それぞれS個であり、1つのマトリクス図が有するピクセル数は、S×S個である。ここでピクセル数は、マトリクス図の解像度を示す。すなわち本図では、マトリクス図は、S×Sの解像度を有する。 As shown in FIGS. 4A and 4B, each matrix diagram has pixels specified using rows and columns. In this figure, the number of rows and columns of each matrix diagram is S, and the number of pixels of one matrix diagram is S × S. Here, the number of pixels indicates the resolution of the matrix diagram. That is, in this figure, the matrix diagram has a resolution of S × S.

ここで行および列の値はそれぞれ、図形要素3の代表位置情報Rの第1および第2方向の座標成分の値R,Rに対応する。たとえば第1および第2方向は、X、YおよびZ軸方向の中から選択された軸方向のペアである。本実施形態1では、第1および第4マトリクス図50a,52aの第1および第2方向は、X軸方向およびY軸方向であり、第2および第5マトリクス図50b,52bの第1および第2方向は、Y軸方向およびZ軸方向であり、第3および第6マトリクス図50c,52cの第1および第2方向は、Z軸方向およびX軸方向である。すなわち、第1および第4マトリクス図50a,52aのR,Rは、R,Rであり、第2および第5マトリクス図50b,52bのR,Rは、R,Rであり、第3および第6マトリクス図50c,52cのR,Rは、R,Rである。
そして、図形要素3ごとに、その代表位置情報Rの第1および第2方向の座標成分R,Rに基づいて、各マトリクス図のピクセルの位置が割り当てられる。
Here, the row and column values correspond to the values R 1 and R 2 of the coordinate components in the first and second directions of the representative position information R of the graphic element 3, respectively. For example, the first and second directions are a pair of axial directions selected from the X, Y, and Z axis directions. In the first embodiment, the first and second directions of the first and fourth matrix diagrams 50a and 52a are the X-axis direction and the Y-axis direction, and the first and second directions of the second and fifth matrix diagrams 50b and 52b. The two directions are the Y-axis direction and the Z-axis direction, and the first and second directions in the third and sixth matrix diagrams 50c and 52c are the Z-axis direction and the X-axis direction. That is, the first and fourth matrix Figure 50a, R 1, R 2 of 52a is, R x, a R y, second and fifth matrix Figure 50b, R 1, R 2 and 52b is, R y, R z , and R 1 and R 2 in the third and sixth matrix diagrams 50c and 52c are R z and R x .
Then, for each graphic element 3, the positions of the pixels in each matrix diagram are assigned based on the coordinate components R 1 and R 2 in the first and second directions of the representative position information R.

次に図4(a)に示すピクセルの値について説明する。本実施形態1において、ピクセルの値の定義は、第1〜第3マトリクス図50と、第4〜第6マトリクス図52とで異なる。
第1〜第3マトリクス図50のピクセルの値は、そのピクセルの位置に割り当てられた全ての図形要素3の代表位置情報Rの第3方向の座標成分の値Rの和に対応する。本実施形態1では、第1、第2および第3マトリクス図50a,50b,50cの第3方向はそれぞれ、Z、XおよびY軸方向である。すなわち、第1、第2および第3マトリクス図50a,50b,50cの代表位置情報Rの第3方向の座標成分Rの値はそれぞれ、R、R、およびRである。
第4〜第6マトリクス図52のピクセルの値は、そのピクセルの位置に割り当てられた全ての図形要素の図形分類情報の値Kの和に対応する。
Next, the pixel values shown in FIG. 4A will be described. In the first embodiment, the definition of the pixel value is different between the first to third matrix diagrams 50 and the fourth to sixth matrix diagrams 52.
The value of the first to third matrix Figure 50 pixels corresponds to the sum of the values R 3 of coordinate components in the third direction of the representative position information R of all the graphic elements 3 which is assigned to the position of that pixel. In the first embodiment, the third directions of the first, second and third matrix diagrams 50a, 50b and 50c are the Z, X and Y axis directions, respectively. That is, the values of the coordinate component R 3 in the third direction of the representative position information R of the first, second, and third matrix diagrams 50a, 50b, and 50c are R z , R x , and R y , respectively.
The values of the pixels in FIGS. 52 of the 4th to 6th matrices correspond to the sum of the values K of the graphic classification information of all the graphic elements assigned to the positions of the pixels.

ここで図3に示す情報を例に、図4(a)の各ピクセルの値の具体例を説明する。たとえば、2行1列目のピクセルの位置は、(x,y)=(1,2)である図形要素識別番号1および2に対応する。したがって、第1マトリクス図50aの2行1列目のピクセルの値は、図形要素識別番号1および2の代表位置情報のZ軸座標Rの和である3(=2+1)となる。また、第4マトリクス図52aの2行1列目のピクセルの値は、図形要素識別番号1および2の図形分類情報の値Kの和である30(=10+20)となる。
一方、5行目5列目のピクセルの位置は、(x,y)=(5,5)である図形要素識別番号3のみに対応する。したがって、第1マトリクス図50aの5行5列目のピクセルの値は、図形要素識別番号3の代表位置情報のZ軸座標Rである3となる。また、第4マトリクス図52aの5行5列目のピクセルの値は、図形要素識別番号3の図形分類情報の値Kである10となる。
Here, a specific example of the value of each pixel in FIG. 4A will be described using the information shown in FIG. 3 as an example. For example, the positions of the pixels in the second row and the first column correspond to the graphic element identification numbers 1 and 2 in which (x, y) = (1, 2). Therefore, the value of the pixel in the second row and the first column of the first matrix diagram 50a is 3 (= 2 + 1), which is the sum of the Z-axis coordinates Rz of the representative position information of the graphic element identification numbers 1 and 2. Further, the value of the pixel in the second row and the first column of the fourth matrix FIG. 52a is 30 (= 10 + 20), which is the sum of the values K of the graphic classification information of the graphic element identification numbers 1 and 2.
On the other hand, the positions of the pixels in the 5th row and 5th column correspond only to the graphic element identification number 3 in which (x, y) = (5, 5). Therefore, the value of the pixel in the 5th row and 5th column of the first matrix diagram 50a is 3, which is the Z-axis coordinate Rz of the representative position information of the graphic element identification number 3. Further, the value of the pixel in the 5th row and 5th column of the fourth matrix diagram 52a is 10, which is the value K of the graphic classification information of the graphic element identification number 3.

次に、図4(b)について説明する。図4(b)に示すように、マトリクス図は、各ピクセルに格納される値を色の明度(コントラスト)に変換し、画像化した図である。たとえばピクセルの色は、そのピクセルの値が大きいほど、高い明度を有してよく、そのピクセルの値が小さいほど、低い明度を有してよい。なお本実施形態1では、図4(a)を画像化するために明度を用いたが、これに限らず、色相および彩度等を用いてもよい。
このように画像化したマトリクス図を生成することで、後述のCNNを用いた予測モデルによる推定処理の効率が向上する。
Next, FIG. 4B will be described. As shown in FIG. 4B, the matrix diagram is a diagram in which the values stored in each pixel are converted into color brightness (contrast) and imaged. For example, the color of a pixel may have a higher brightness as the value of the pixel is larger, and may have a lower brightness as the value of the pixel is smaller. In the first embodiment, the lightness is used to image FIG. 4A, but the present invention is not limited to this, and hue, saturation, and the like may be used.
By generating the matrix diagram imaged in this way, the efficiency of the estimation process by the prediction model using the CNN described later is improved.

図5は、実施形態1にかかる装置10の対象部分形状生成処理の一例を示すフローチャートである。
まずS10において、取得部110は、記憶部100から複合形状1にかかる形状データを取得し、当該形状データを変換処理部120の代表決定部122に出力する。このとき取得部110はまた、記憶部100から予め定められた解像度S×Sの値を取得し、当該値を変換処理部120の代表決定部122に出力する。
FIG. 5 is a flowchart showing an example of the target partial shape generation process of the device 10 according to the first embodiment.
First, in S10, the acquisition unit 110 acquires the shape data related to the composite shape 1 from the storage unit 100, and outputs the shape data to the representative determination unit 122 of the conversion processing unit 120. At this time, the acquisition unit 110 also acquires a predetermined resolution S × S value from the storage unit 100 and outputs the value to the representative determination unit 122 of the conversion processing unit 120.

次にS11において、代表決定部122は、取得した形状データ含まれる各図形要素3の図形分類情報Kおよび頂点の位置座標(x,y,z)に基づいて、図形要素3ごとに代表点の位置座標(x,y,z)を決定し、代表点の位置座標に基づいて代表位置情報R=(R,R,R)を決定する。このとき、代表決定部122は、代表点の位置座標(x,y,z)の各成分を解像度S×Sに基づいて規格化および離散化することで、代表位置情報R=(R,R,R)の各成分を決定する。
たとえば、代表点のX軸方向の座標xの値は、次のように規格化される。
x’=S×(x−X0min)/(X0max−X0min
ここで、X0minは、取得した形状データに含まれる図形要素3の頂点のX軸方向の座標(x)の最小値であり、X0maxは、取得した形状データに含まれる図形要素3の頂点のX軸方向の座標(x)の最大値である。Sは、解像度の平方根の値である。これにより、x’はS以下の値となる。
Next, in S11, the representative determination unit 122 determines each graphic element 3 based on the graphic classification information K of each graphic element 3 included in the acquired shape data and the position coordinates (x 0 , y 0 , z 0 ) of the vertices. The position coordinates of the representative point (x 1 , y 1 , z 1 ) are determined, and the representative position information R = (R x , R y , R z ) is determined based on the position coordinates of the representative point. At this time, the representative determination unit 122 standardizes and discretizes each component of the position coordinates (x 1 , y 1 , z 1 ) of the representative point based on the resolution S × S, so that the representative position information R = ( Each component of R x , R y , R z ) is determined.
For example, the value of the coordinate x 1 in the X-axis direction of the representative point is standardized as follows.
x'= S × (x 1 −X 0 min ) / (X 0max −X 0 min )
Here, X 0min is the minimum value of the acquired vertices of the graphic elements 3 included in the shape data X-axis direction of the coordinates (x 0), X 0max is the graphical elements 3 included in the acquired shape data It is the maximum value of the coordinates (x 0 ) of the vertices in the X-axis direction. S is the square root value of the resolution. As a result, x'becomes a value less than or equal to S.

また、たとえば離散化は、xを規格化したx’について、m−1<x’≦m(mはS以下の自然数)である場合、R=mと変換する。これにより、Rは、S以下の自然数となる。 Further, for example, discretization, 'for, m-1 <x' x normalized to x 1 (m is a natural number equal to or less than S) ≦ m if it is to convert the R x = m. As a result, R x becomes a natural number less than or equal to S.

なお、本実施形態1で代表決定部122は、頂点の位置座標(x,y,z)から代表点の位置座標(x,y,z)を算出し、(x,y,z)を規格化および離散化して代表位置情報R=(R,R,R)を算出した。しかしこれに限らず、代表決定部122は、頂点の位置座標(x,y,z)を規格化した後に、規格化空間における図形要素の代表点の位置座標(x,y,z)を算出し、これを離散化して代表位置情報R=(R,R,R)を算出してもよい。 In the first embodiment, the representative determination unit 122 calculates the position coordinates (x 1 , y 1 , z 1 ) of the representative point from the position coordinates (x 0 , y 0 , z 0 ) of the apex, and (x 1). , Y 1 , z 1 ) were standardized and discriminated to calculate the representative position information R = (R x , R y , R z). However, the present invention is not limited thereto, the representative determining unit 122, the vertex coordinates (x 0, y 0, z 0) after normalization, the position coordinates of the representative point of the graphic element in the normalized spatial (x 1, y 1 , Z 1 ) may be calculated, and this may be differentiated to calculate the representative position information R = (R x , R y , R z ).

そして、代表決定部122は、算出した代表位置情報R=(R,R,R)を図形分類情報とともにマッピング処理部124に出力する。 Then, the representative determination unit 122 outputs the calculated representative position information R = (R x , R y , R z ) to the mapping processing unit 124 together with the graphic classification information.

次にS12において、マッピング処理部124は、代表位置情報の第1および第2方向の座標成分R,Rにそれぞれ対応する行および列を有するマトリクス図を生成する。本実施形態1では、マッピング処理部124は、第1〜第3マトリクス図50を生成する。たとえばマッピング処理部124は、複数の図形要素3のそれぞれに対して、対応する代表位置情報の第1および第2方向の座標R,Rに対応したピクセルの位置を割り当てる。そして、マッピング処理部124は、ピクセルごとに、割り当てられた図形要素3の第3方向の座標値Rの和を取る。その和に応じてピクセルの明度を決定し、マトリクス図の第1〜第3マトリクス図50を生成する。
またマッピング処理部124は、第4〜第6マトリクス図52を生成する。たとえばマッピング処理部124は、ピクセルごとに、割り当てられた図形要素3の図形分類情報の値Kの和を取る。マッピング処理部124は、その和に応じてピクセルの明度を決定し、マトリクス図の第4〜第6マトリクス図52を生成する。
このように、マッピング処理部124は、6つのマトリクス図を生成する。そしてマッピング処理部124は、6つのマトリクス図を推定部140に出力する。
Next, in S12, the mapping processing unit 124 generates a matrix diagram having rows and columns corresponding to the coordinate components R 1 and R 2 in the first and second directions of the representative position information, respectively. In the first embodiment, the mapping processing unit 124 generates the first to third matrix FIGS. 50. For example, the mapping processing unit 124 assigns pixel positions corresponding to the coordinates R 1 and R 2 in the first and second directions of the corresponding representative position information to each of the plurality of graphic elements 3. Then, the mapping processing unit 124 takes the sum of the coordinate values R 3 in the third direction of the assigned graphic element 3 for each pixel. The brightness of the pixels is determined according to the sum, and the first to third matrix diagrams 50 of the matrix diagram are generated.
Further, the mapping processing unit 124 generates the fourth to sixth matrix FIGS. 52. For example, the mapping processing unit 124 takes the sum of the values K of the graphic classification information of the assigned graphic element 3 for each pixel. The mapping processing unit 124 determines the brightness of the pixels according to the sum thereof, and generates the fourth to sixth matrix diagrams 52 of the matrix diagram.
In this way, the mapping processing unit 124 generates six matrix diagrams. Then, the mapping processing unit 124 outputs the six matrix diagrams to the estimation unit 140.

S13において、推定部140は、予測モデル決定部184から予測モデルを取得する。本実施形態1で推定部140は、各マトリクス図に対してそれぞれ1つの予測モデル(CNN)を取得する。つまり推定部140は、第1〜第3マトリクス図50に対応する第1〜第3予測モデルと、第4〜第6マトリクス図52に対応する第4〜第6予測モデルとを予測モデル決定部184から取得する。 In S13, the estimation unit 140 acquires a prediction model from the prediction model determination unit 184. In the first embodiment, the estimation unit 140 acquires one prediction model (CNN) for each matrix diagram. That is, the estimation unit 140 determines the first to third prediction models corresponding to the first to third matrix FIGS. 50 and the fourth to sixth prediction models corresponding to the fourth to sixth matrix FIGS. 52. Obtained from 184.

次にS14において、推定部140は、複数の図形要素3の代表位置情報Rおよび図形分類情報Kに基づいたマトリクス図を用いて、予測モデルにより、対象部分形状に対応する図形要素3の代表位置情報R’および図形分類情報K’を推定する。たとえば推定部140は、各マトリクス図の各ピクセルの明度から各ピクセルの値を取得し、対応する予測モデルの入力層に各ピクセルの値を入力し、その予測モデルの出力層から各ピクセルの予測値を取得する。本実施形態1では推定部140は、この処理を第1〜第6マトリクス図に対して行う。これにより推定部140は、第1〜第6マトリクス図に対応する第1〜第6予測マトリクス図を得る。つまり推定部140は、第1〜第6マトリクス図の各ピクセルの値を用いて、対象部分形状に対応する図形要素の代表位置情報の予測値R’および図形分類情報の予測値K’を含む第1〜第6予測マトリクス図を取得する。
そして推定部140は、これらの予測マトリクス図を形状生成用データとして、形状生成部160に出力する。
Next, in S14, the estimation unit 140 uses a matrix diagram based on the representative position information R and the graphic classification information K of the plurality of graphic elements 3, and the representative position of the graphic element 3 corresponding to the target partial shape by the prediction model. The information R'and the graphic classification information K'are estimated. For example, the estimation unit 140 acquires the value of each pixel from the brightness of each pixel of each matrix diagram, inputs the value of each pixel into the input layer of the corresponding prediction model, and predicts each pixel from the output layer of the prediction model. Get the value. In the first embodiment, the estimation unit 140 performs this process on the first to sixth matrix diagrams. As a result, the estimation unit 140 obtains the first to sixth prediction matrix diagrams corresponding to the first to sixth matrix diagrams. That is, the estimation unit 140 includes the predicted value R'of the representative position information of the graphic element corresponding to the target partial shape and the predicted value K'of the graphic classification information using the values of each pixel in the first to sixth matrix diagrams. The first to sixth prediction matrix diagrams are acquired.
Then, the estimation unit 140 outputs these prediction matrix diagrams as shape generation data to the shape generation unit 160.

S15において、形状生成部160は、取得した形状生成用データに基づいて、対象部分形状の形状データを生成する。なお、形状生成部160は、形状生成用データに基づいて、削除すべき形状の予測マトリクス図を生成し、当該予測マトリクス図に基づいて、複合形状1の形状データから対象部分形状の形状データを抽出してよい。このとき形状生成部160は、予測モデルの入力に用いるマトリクス図と、形状生成用データに含まれる、予測モデルから出力される予測マトリクス図との差分をとることにより、削除すべき形状の予測マトリクス図を取得してよい。そして形状生成部160は、当該削除すべき形状の予測マトリクス図に基づいて、削除すべき形状の形状データを生成し、複合形状1の形状データから当該削除すべき形状の形状データを差し引いてよい。しかしこれに限らず、形状生成部160は、任意の方法で当該削除すべき形状の予測マトリクス図に基づいて、複合形状1の形状データから対象部分形状の形状データを抽出してもよい。これにより、対象部分形状の形状データは、元となる複合形状1の形状データを保持したまま、そこから不要な部分だけが除去されたものとなるため、対象部分形状をより正確に抽出することができる。 In S15, the shape generation unit 160 generates shape data of the target partial shape based on the acquired shape generation data. The shape generation unit 160 generates a prediction matrix diagram of the shape to be deleted based on the shape generation data, and based on the prediction matrix diagram, generates the shape data of the target partial shape from the shape data of the composite shape 1. It may be extracted. At this time, the shape generation unit 160 takes a difference between the matrix diagram used for inputting the prediction model and the prediction matrix diagram output from the prediction model included in the shape generation data, so that the shape generation unit 160 has a prediction matrix of the shape to be deleted. You may get the figure. Then, the shape generation unit 160 may generate shape data of the shape to be deleted based on the prediction matrix diagram of the shape to be deleted, and subtract the shape data of the shape to be deleted from the shape data of the composite shape 1. .. However, the present invention is not limited to this, and the shape generation unit 160 may extract the shape data of the target partial shape from the shape data of the composite shape 1 based on the prediction matrix diagram of the shape to be deleted by any method. As a result, the shape data of the target partial shape is obtained by removing only unnecessary parts from the shape data of the original composite shape 1 while retaining the shape data, so that the target partial shape can be extracted more accurately. Can be done.

このように実施形態1によれば、装置10は、機械学習(特に、深層学習)に基づく予測モデルを用いて、複数の図形要素3の代表位置情報Rから対象部分形状に対応する図形要素3の代表位置座標R’を推定する。したがって複合形状1の形状データではなく、単純化されたデータが予測モデルの入力データとなる。これにより、予測モデルの精度を維持しつつ計算コストを抑えることができる。したがって、複合形状1から複雑な対象部分形状をより効率良く生成することができる。 As described above, according to the first embodiment, the device 10 uses the prediction model based on machine learning (particularly deep learning), and the graphic element 3 corresponding to the target partial shape from the representative position information R of the plurality of graphic elements 3. Estimate the representative position coordinate R'of. Therefore, the simplified data is the input data of the prediction model, not the shape data of the composite shape 1. As a result, the calculation cost can be suppressed while maintaining the accuracy of the prediction model. Therefore, it is possible to more efficiently generate a complicated target partial shape from the composite shape 1.

また、実施形態1によれば、予測モデルの入力データには、複数の図形要素3の代表位置情報Rに加えて、複数の図形要素3の図形分類情報Kが含まれる。したがって、対象部分形状の形状データの予測精度をさらに向上させることができる。 Further, according to the first embodiment, the input data of the prediction model includes the graphic classification information K of the plurality of graphic elements 3 in addition to the representative position information R of the plurality of graphic elements 3. Therefore, the prediction accuracy of the shape data of the target partial shape can be further improved.

また実施形態1によれば、装置10は、複数の図形要素3の代表位置情報Rおよび図形分類情報Kに基づいて、予測モデルであるCNNと親和性の良いマトリクス図を生成し、これをCNNの入力データとして用いる。したがって、複合形状1から複雑な対象部分形状をさらに効率良く生成することができる。 Further, according to the first embodiment, the apparatus 10 generates a matrix diagram having a good affinity with the CNN which is a prediction model based on the representative position information R and the graphic classification information K of the plurality of graphic elements 3, and this is used as a CNN. Used as input data for. Therefore, it is possible to more efficiently generate a complicated target partial shape from the composite shape 1.

なお、本実施形態1では予測モデルの入力データは、マトリクス図であるが、これに限らず、代表決定部122で生成される代表位置情報Rと、これに対応する図形分類情報Kとを含むテキストデータであってもよい。この場合、S12における明度の決定処理およびS14における明度からピクセルの値を取得する処理等は省略される。 In the first embodiment, the input data of the prediction model is a matrix diagram, but is not limited to this, and includes the representative position information R generated by the representative determination unit 122 and the corresponding graphic classification information K. It may be text data. In this case, the process of determining the lightness in S12 and the process of acquiring the pixel value from the lightness in S14 are omitted.

また、本実施形態1では、S13において推定部140は第1〜第6マトリクス図に対応する6つの予測モデルを予測モデル決定部184から取得する。しかし、これに限らず、たとえば推定部140は、第1〜第6マトリクス図の全てに対応した1つの予測モデルを取得してもよく、第1〜第3マトリクス図に対応した予測モデルと、第4〜第6マトリクス図に対応した予測モデルの2つを取得してもよい。 Further, in the first embodiment, in S13, the estimation unit 140 acquires six prediction models corresponding to the first to sixth matrix diagrams from the prediction model determination unit 184. However, the present invention is not limited to this, and for example, the estimation unit 140 may acquire one prediction model corresponding to all of the first to sixth matrix diagrams, and the prediction model corresponding to the first to third matrix diagrams and the prediction model. Two prediction models corresponding to the 4th to 6th matrix diagrams may be acquired.

次に、予測モデルを生成するための処理について図6〜7を用いて説明する。図6は、実施形態1にかかる装置10の学習データ処理の一例を示すフローチャートである。
まずS20において、学習処理部182は、学習用の複合形状および学習用の対象部分形状の形状データを学習データベース190から取得する。そして学習処理部182は、代表決定部122に取得した形状データを代表決定部122に出力する。
Next, the process for generating the prediction model will be described with reference to FIGS. 6 to 7. FIG. 6 is a flowchart showing an example of learning data processing of the apparatus 10 according to the first embodiment.
First, in S20, the learning processing unit 182 acquires shape data of the composite shape for learning and the target partial shape for learning from the learning database 190. Then, the learning processing unit 182 outputs the shape data acquired by the representative determination unit 122 to the representative determination unit 122.

S21において、代表決定部122は、取得した形状データに対して図5のS11に示す処理と同様の処理を行うことにより、図形要素3の代表位置情報Rを決定する。代表決定部122は、マッピング処理部124に決定した図形要素3の代表位置情報Rを図形分類情報Kとともに出力する。 In S21, the representative determination unit 122 determines the representative position information R of the graphic element 3 by performing the same processing as the processing shown in S11 of FIG. 5 on the acquired shape data. The representative determination unit 122 outputs the representative position information R of the graphic element 3 determined by the mapping processing unit 124 together with the graphic classification information K.

S22において、マッピング処理部124は、取得した代表位置情報Rおよび図形分類情報Kに対して、図5に示すS12と同様の処理を行うことにより、形状データごとに6種類のマトリクス図を生成する。マッピング処理部124は、これらのマトリクス図を学習処理部182に出力する。 In S22, the mapping processing unit 124 generates 6 types of matrix diagrams for each shape data by performing the same processing as in S12 shown in FIG. 5 on the acquired representative position information R and graphic classification information K. .. The mapping processing unit 124 outputs these matrix diagrams to the learning processing unit 182.

S23において、学習処理部182は、学習データベース190の対応する形状データのレコードに、取得したマトリクス図を予測モデルの学習データとして格納する。なお予測モデル決定処理時に交差検定を行う場合、学習処理部182は、学習データを、訓練データと、テストデータとに分類してよい。学習処理部182は、取得したマトリクス図が訓練データであるか、またはテストデータであるかを判定し、取得したマトリクス図をその分類とともに学習データベース190に格納してよい。なお、学習用の複合形状に対応するマトリクス図は、予測モデルに入力される入力データとなる。また、学習用の対象部分形状に対応するマトリクス図は、入力データに対応する教師データとなる。 In S23, the learning processing unit 182 stores the acquired matrix diagram as the learning data of the prediction model in the record of the corresponding shape data of the learning database 190. When performing cross-validation at the time of predictive model determination processing, the learning processing unit 182 may classify the learning data into training data and test data. The learning processing unit 182 may determine whether the acquired matrix diagram is training data or test data, and store the acquired matrix diagram together with the classification in the learning database 190. The matrix diagram corresponding to the composite shape for learning is the input data input to the prediction model. Further, the matrix diagram corresponding to the target partial shape for learning becomes the teacher data corresponding to the input data.

このように実施形態1によれば、装置10は、予測モデルの学習データを学習データベース190に事前に格納するため、後続の予測モデル決定処理において学習データを即時に取得することができる。 As described above, according to the first embodiment, since the apparatus 10 stores the learning data of the prediction model in the learning database 190 in advance, the learning data can be immediately acquired in the subsequent prediction model determination process.

図7は、実施形態1にかかる装置10の予測モデル決定処理の一例を示すフローチャートである。
まずS30において、学習処理部182は、学習データベース190から訓練データとして、学習用の複合形状に関する訓練入力データおよび学習用の対象部分形状に関する訓練教師データを取得する。また学習処理部182は、学習データベース190からテストデータとして、学習用の複合形状に関するテスト入力データおよび学習用の対象部分形状に関するテスト教師データを取得する。学習処理部182は、予測モデル決定部184に各種データを出力する。
FIG. 7 is a flowchart showing an example of the prediction model determination process of the apparatus 10 according to the first embodiment.
First, in S30, the learning processing unit 182 acquires training input data regarding the composite shape for learning and training teacher data regarding the target partial shape for learning as training data from the learning database 190. Further, the learning processing unit 182 acquires test input data regarding the composite shape for learning and test teacher data regarding the target partial shape for learning as test data from the learning database 190. The learning processing unit 182 outputs various data to the prediction model determination unit 184.

次にS31において、予測モデル決定部184は、訓練入力データの6つのマトリクス図のうちの1つを選択し、選択したマトリクス図の種類に対応する予測モデルを取得する。
次にS32において、予測モデル決定部184は、S31において取得した予測モデルの各種パラメータを取得する。
そしてS33において、予測モデル決定部184は、選択したマトリクス図のピクセルの明度からピクセルの値を取得し、その値を予測モデルの入力層に入力し、予測モデルの出力層からピクセルの予測値を取得する。
Next, in S31, the prediction model determination unit 184 selects one of the six matrix diagrams of the training input data and acquires the prediction model corresponding to the selected matrix diagram type.
Next, in S32, the prediction model determination unit 184 acquires various parameters of the prediction model acquired in S31.
Then, in S33, the prediction model determination unit 184 acquires the pixel value from the brightness of the pixel of the selected matrix diagram, inputs the value to the input layer of the prediction model, and inputs the prediction value of the pixel from the output layer of the prediction model. get.

S34において、予測モデル決定部184は、選択したマトリクス図に対応する、訓練教師データにおけるマトリクス図のピクセルの明度からピクセルの値を取得し、予測値との間の誤差を算出する。
S35において、予測モデル決定部184は、誤差が閾値未満か否かを判定する。予測モデル決定部184は、閾値未満であれば(S35でY)、処理をS37に進め、そうでなければ(S35でN)、処理をS36に進める。
In S34, the prediction model determination unit 184 acquires the pixel value from the pixel brightness of the matrix diagram in the training teacher data corresponding to the selected matrix diagram, and calculates the error from the prediction value.
In S35, the prediction model determination unit 184 determines whether or not the error is less than the threshold value. If the prediction model determination unit 184 is less than the threshold value (Y in S35), the process proceeds to S37, and if not (N in S35), the process proceeds to S36.

S36において、予測モデル決定部184は、誤差に基づいて予測モデルの各種パラメータを更新する。このとき予測モデル決定部184は、たとえば誤差逆伝播法を用いて、各種パラメータを更新してよい。そして予測モデル決定部184は処理をS32に戻す。 In S36, the prediction model determination unit 184 updates various parameters of the prediction model based on the error. At this time, the prediction model determination unit 184 may update various parameters by using, for example, the backpropagation method. Then, the prediction model determination unit 184 returns the process to S32.

S37において、予測モデル決定部184は、テストデータについてS31〜S34の処理と同様の処理を行い、予測値とテスト教師データのピクセルの値との間の誤差を算出する。
S38において、予測モデル決定部184は、誤差が閾値未満か否かを判定する。予測モデル決定部184は、閾値未満であれば(S38でY)、処理をS40に進め、そうでなければ(S38でN)、処理をS39に進める。
In S37, the prediction model determination unit 184 performs the same processing as the processing of S31 to S34 for the test data, and calculates an error between the prediction value and the pixel value of the test teacher data.
In S38, the prediction model determination unit 184 determines whether or not the error is less than the threshold value. If the prediction model determination unit 184 is less than the threshold value (Y in S38), the process proceeds to S40, and if not (N in S38), the process proceeds to S39.

S39において、予測モデル決定部184は、誤差に基づいて予測モデルを更新する。予測モデル決定部184は、S31に処理を戻す。 In S39, the prediction model determination unit 184 updates the prediction model based on the error. The prediction model determination unit 184 returns the process to S31.

S40において、予測モデル決定部184は、選択したマトリクス図に対応する予測モデルを決定する。そして予測モデル決定部184は、残りのマトリクス図に対しても、S31〜S40と同様の処理を行い、予測モデルのすべての予測モデルを決定する。 In S40, the prediction model determination unit 184 determines the prediction model corresponding to the selected matrix diagram. Then, the prediction model determination unit 184 performs the same processing as in S31 to S40 for the remaining matrix diagrams, and determines all the prediction models of the prediction model.

このように実施形態1によると、装置10は、学習データを用いて、複合形状に関するマトリクス図から対象部分形状に関するマトリクス図を予測する予測モデルを生成することができる。 As described above, according to the first embodiment, the apparatus 10 can generate a prediction model for predicting the matrix diagram for the target partial shape from the matrix diagram for the composite shape by using the learning data.

なお本実施形態1では、学習データベース190は、装置10に含まれなくてもよい。例えば、学習データベース190は、外部の装置(不図示)に含まれてよい。この場合、予測モデル生成部180が通信手段(不図示)を介して外部の装置と接続され、外部の装置との間で学習データベース190に格納される情報の送受信をおこなってよい。 In the first embodiment, the learning database 190 does not have to be included in the device 10. For example, the learning database 190 may be included in an external device (not shown). In this case, the prediction model generation unit 180 may be connected to an external device via a communication means (not shown) to send and receive information stored in the learning database 190 to and from the external device.

実施形態2.
次に図8〜9を用いて、本発明の実施形態2について説明する。実施形態2は、推定部140で生成される代表位置情報の予測値に対して補正処理を行うことを特徴とする。
図8は、実施形態2にかかる装置20の構成図である。装置20は、基本的には実施形態1の図2に示す装置10と同様の構成および機能を有するが、これに加えて補正処理部250を備える点で相違する。なお、図8において図2と同様の箇所については、同一の符号を付して適宜説明を省略する。
Embodiment 2.
Next, Embodiment 2 of the present invention will be described with reference to FIGS. 8 to 9. The second embodiment is characterized in that correction processing is performed on the predicted value of the representative position information generated by the estimation unit 140.
FIG. 8 is a configuration diagram of the device 20 according to the second embodiment. The device 20 basically has the same configuration and function as the device 10 shown in FIG. 2 of the first embodiment, but is different in that it includes a correction processing unit 250 in addition to the same structure and function. In FIG. 8, the same parts as those in FIG. 2 are designated by the same reference numerals, and the description thereof will be omitted as appropriate.

補正処理部250は、複合形状1の複数の図形要素3の代表位置情報に対応するピクセルに割り当てられる値と、推定した対象部分形状に対応する図形要素3の代表位置情報Rに対応するピクセルに割り当てられる値(予測値R’)との差分を取り、差分に基づいて推定した対象部分形状に対応する図形要素3の代表位置情報の予測値R’を補正する。つまり、補正処理部250は、予測モデルの入力データRと、予測モデルの出力データである予測値R’を含む形状生成用データとを推定部140から取得し、入力データRと予測値R’との間の比較に基づいて、形状生成用データの補正を行う。そして、補正処理部250は、補正した形状生成用データを形状生成部160に出力する。 The correction processing unit 250 sets the value assigned to the pixel corresponding to the representative position information of the plurality of graphic elements 3 of the composite shape 1 and the pixel corresponding to the representative position information R of the graphic element 3 corresponding to the estimated target partial shape. The difference from the assigned value (predicted value R') is taken, and the predicted value R'of the representative position information of the graphic element 3 corresponding to the target partial shape estimated based on the difference is corrected. That is, the correction processing unit 250 acquires the input data R of the prediction model and the shape generation data including the prediction value R'which is the output data of the prediction model from the estimation unit 140, and the input data R and the prediction value R' The shape generation data is corrected based on the comparison with. Then, the correction processing unit 250 outputs the corrected shape generation data to the shape generation unit 160.

図9は、実施形態2にかかる装置20の補正処理の一例を説明するための図である。
まず補正処理部250は、推定部140から出力される予測マトリクス図の各ピクセルを、A〜Dグループに分類する。
(Aグループ)
たとえば図9(a)に示すように、ピクセルの入力値Rが0かつ予測値R’が0でない場合、すなわちR=0かつR−R’<0の場合、そのピクセルをAグループに分類する。Aグループのピクセルは、もともと図形要素3が含まれていなかったのにも関わらず、図形要素3を含むと予測されたピクセルであり、予測の過程で位置ずれが生じた可能性のある、いわゆる「位置ずれ先ピクセル」である。
(Bグループ)
また、ピクセルの入力値Rが0でなく、かつ予測値R’がRと異なる値を有する場合、R≠0かつ|R−R’|>0の場合、そのピクセルをBグループに分類する。Bグループのピクセルは、削除が成功した(すなわち抽出されなかった)ピクセル、または予測の過程で位置ずれが発生したことにより誤って削除されたピクセルを含む。したがってBグループのピクセルは、いわゆる「削除成功ピクセル」または「位置ずれ元ピクセル」である。
(Cグループ)
また、ピクセルの入力値Rが0でなく、かつ予測値R’が0でなく、かつR’とRとが同じ値を有する場合、すなわちR≠0かつR’≠0かつR−R’=0の場合、そのピクセルをCグループに分類する。Cグループのピクセルは、抽出が成功した「抽出成功ピクセル」である。
(Dグループ)
最後に、A〜Cグループ以外のピクセルをDグループに分類する。たとえばDグループのピクセルは、もともと図形要素3が含まれておらず、予測の結果、削除も抽出もされなかったピクセルを含む。
Dグループのピクセルは、形状生成用データのうち削除すべき形状にかかる<削除ピクセルデータ>に、その予測値R’と関連付けられて登録されてよい。
FIG. 9 is a diagram for explaining an example of the correction process of the apparatus 20 according to the second embodiment.
First, the correction processing unit 250 classifies each pixel of the prediction matrix diagram output from the estimation unit 140 into groups A to D.
(Group A)
For example, as shown in FIG. 9A, when the input value R of a pixel is 0 and the predicted value R'is not 0, that is, when R = 0 and R-R'<0, the pixel is classified into group A. .. The pixels of group A are pixels that are predicted to contain graphic element 3 even though they originally did not contain graphic element 3, and there is a possibility that misalignment may have occurred in the process of prediction, so-called. It is a "misaligned pixel".
(Group B)
Further, when the input value R of the pixel is not 0 and the predicted value R'has a value different from R, and when R ≠ 0 and | R-R'|> 0, the pixel is classified into the B group. Pixels in Group B include pixels that were successfully deleted (ie, were not extracted) or were accidentally deleted due to misalignment during the prediction process. Therefore, the pixels of group B are so-called "deleted successful pixels" or "misaligned source pixels".
(Group C)
Further, when the input value R of the pixel is not 0, the predicted value R'is not 0, and R'and R have the same value, that is, R ≠ 0 and R'≠ 0 and R-R'=. If it is 0, the pixel is classified into C group. Pixels in group C are "extracted successful pixels" that have been successfully extracted.
(Group D)
Finally, the pixels other than the A to C groups are classified into the D group. For example, the pixels of the D group originally do not include the graphic element 3, and include pixels that have not been deleted or extracted as a result of prediction.
The pixels of the D group may be registered in the <deleted pixel data> related to the shape to be deleted in the shape generation data in association with the predicted value R'.

次に図9(b)を用いて、実施形態2にかかる装置20の補正処理フローを説明する。
まずS60において、補正処理部250は、マトリクス図の任意のピクセルXを選択する。そして、補正処理部250は、ピクセルXがCグループに属するか否かを判定する。補正処理部250は、ピクセルXがCグループに属する場合(S60でY)、すなわちピクセルXは「抽出成功ピクセル」であり、処理をS67に進める。補正処理部250は、そうでない場合(S60でN)、処理をS62に進める。
Next, the correction processing flow of the apparatus 20 according to the second embodiment will be described with reference to FIG. 9B.
First, in S60, the correction processing unit 250 selects an arbitrary pixel X in the matrix diagram. Then, the correction processing unit 250 determines whether or not the pixel X belongs to the C group. The correction processing unit 250 advances the processing to S67 when the pixel X belongs to the C group (Y in S60), that is, the pixel X is an “extraction successful pixel”. If not (N in S60), the correction processing unit 250 advances the processing to S62.

S62において、補正処理部250は、ピクセルXがBグループに属するか否かを判定する。補正処理部250は、ピクセルXがBグループに属する場合(S62でY)、すなわちピクセルXは「削除成功ピクセル」または「位置ずれ元ピクセル」であり、処理をS64に進める。補正処理部250は、そうでない場合(S62でN)、処理をS69に進める。 In S62, the correction processing unit 250 determines whether or not the pixel X belongs to the B group. The correction processing unit 250 advances the processing to S64 when the pixel X belongs to the B group (Y in S62), that is, the pixel X is a “delete successful pixel” or a “misalignment source pixel”. If not (N in S62), the correction processing unit 250 advances the processing to S69.

S64において、補正処理部250は、ピクセルXの周辺のピクセルを検索する。たとえば補正処理部250は、ピクセルAを中心にε×ε(εはS以下の自然数)の範囲のピクセルを検索してよい。なおεは、予め定められてよく、ユーザからの入力により設定されてもよい。そして補正処理部250は、ピクセルXの周辺にAグループのピクセル(すなわち「位置ずれ先ピクセル」)があり、そのAグループのピクセルの予測値R’がピクセルXの入力値Rと等しい値を有するか否かを判定する。補正処理部250は、条件を満たせば(S64でY)ピクセルXを当該Aグループのピクセルにずれて出力された「位置ずれ元ピクセル」であるとみなし、処理をS66に進める。補正処理部250は、条件を満たさなければ(S64でN)、ピクセルXを「削除成功ピクセル」とみなし、処理をS68に進める。 In S64, the correction processing unit 250 searches for pixels around the pixel X. For example, the correction processing unit 250 may search for pixels in the range of ε × ε (ε is a natural number of S or less) centered on pixel A. Note that ε may be predetermined and may be set by input from the user. Then, the correction processing unit 250 has pixels in group A (that is, "misaligned pixels") around pixel X, and the predicted value R'of the pixels in group A has a value equal to the input value R of pixel X. Judge whether or not. If the condition is satisfied (Y in S64), the correction processing unit 250 considers the pixel X to be the “positional deviation source pixel” output by shifting the pixel X to the pixel of the A group, and proceeds to the process in S66. If the condition is not satisfied (N in S64), the correction processing unit 250 considers the pixel X as a "deleted successful pixel" and proceeds to the process in S68.

次にS66において、補正処理部250は、ピクセルXの予測値R’の値をピクセルXの入力値Rの値に変更し、ピクセルXの予測値R’の値を補正する。そして補正処理部250は、処理をS67に進める。 Next, in S66, the correction processing unit 250 changes the value of the predicted value R'of the pixel X to the value of the input value R of the pixel X, and corrects the value of the predicted value R'of the pixel X. Then, the correction processing unit 250 advances the processing to S67.

S67において、補正処理部250は、ピクセルXを、形状生成用データの抽出すべき形状にかかる<抽出ピクセルデータ>に、その予測値R’と関連付けて登録する。補正処理部250は、処理をS69に進める。 In S67, the correction processing unit 250 registers the pixel X in the <extracted pixel data> related to the shape to be extracted of the shape generation data in association with the predicted value R'. The correction processing unit 250 advances the processing to S69.

S68において、補正処理部250は、「削除成功ピクセル」であるピクセルXを、その予測値R’と関連付けて<削除ピクセルデータ>に登録する。そして補正処理部250は、処理をS69に進める。
S69において、補正処理部250は、すべてのピクセルについて処理を終了したか否かを判定する。補正処理部250は、終了していれば処理を終了し、そうでなければ処理をS60に戻す。
なお補正処理部250の処理が終了したことに応じて、形状生成部160は、補正処理部250から出力された形状生成用データの<抽出ピクセルデータ>および<削除ピクセルデータ>の少なくとも一方に基づいて、対象部分形状の形状データを生成する。
In S68, the correction processing unit 250 registers the pixel X, which is the “deleted successful pixel”, in the <deleted pixel data> in association with the predicted value R'. Then, the correction processing unit 250 advances the processing to S69.
In S69, the correction processing unit 250 determines whether or not the processing has been completed for all the pixels. The correction processing unit 250 ends the processing if it has ended, and returns the processing to S60 otherwise.
In response to the completion of the processing of the correction processing unit 250, the shape generation unit 160 is based on at least one of the <extracted pixel data> and the <deleted pixel data> of the shape generation data output from the correction processing unit 250. To generate shape data of the target partial shape.

実施形態2によれば、装置20は、形状生成用データの予測値R’に位置ずれが生じていた場合に、当該位置ずれを適切に補正することができる。これにより、形状生成用データに基づいて生成される対象部分形状の形状データの精度が向上する。 According to the second embodiment, when the predicted value R'of the shape generation data has a misalignment, the apparatus 20 can appropriately correct the misalignment. As a result, the accuracy of the shape data of the target partial shape generated based on the shape generation data is improved.

実施形態3.
次に図10〜13を用いて、本発明の実施形態3について説明する。実施形態3は、マトリクス図へのマッピング時にリダクションされる情報を考慮して対象部分形状の形状データを生成することを特徴とする。
図10は、実施形態3にかかる装置30の構成図である。装置30は、基本的には実施形態2の図8に示す装置20と同様の構成および機能を有するが、変換処理部120、推定部140および予測モデル生成部180に代えて、変換処理部320、推定部340、重複処理部350および予測モデル生成部380を備える点で相違する。なお、図10において図8と同様の箇所については、同一の符号を付して適宜説明を省略する。
Embodiment 3.
Next, Embodiment 3 of the present invention will be described with reference to FIGS. 10 to 13. The third embodiment is characterized in that the shape data of the target partial shape is generated in consideration of the information reduced at the time of mapping to the matrix diagram.
FIG. 10 is a configuration diagram of the device 30 according to the third embodiment. The apparatus 30 basically has the same configuration and functions as the apparatus 20 shown in FIG. 8 of the second embodiment, but instead of the conversion processing unit 120, the estimation unit 140, and the prediction model generation unit 180, the conversion processing unit 320 , The estimation unit 340, the duplication processing unit 350, and the prediction model generation unit 380 are provided. In FIG. 10, the same parts as those in FIG. 8 are designated by the same reference numerals, and the description thereof will be omitted as appropriate.

変換処理部320は、基本的には変換処理部120と同様の構成および機能を有するが、マッピング処理部124に代えてマッピング処理部324を有する。
マッピング処理部324は、基本的にはマッピング処理部124と同様の構成および機能を有する。マッピング処理部324は、マッピング処理部124と同様に、各図形要素3にピクセルの位置を割り当てる。次にマッピング処理部324は、各ピクセルに対して、そのピクセルに対応する図形要素の代表位置情報Rまたは図形分類情報Kの値の和を算出し、マトリクス図を生成する。ただしマッピング処理部324は、マッピング処理部124に加えて重複前処理部330を含む。
The conversion processing unit 320 basically has the same configuration and function as the conversion processing unit 120, but has a mapping processing unit 324 instead of the mapping processing unit 124.
The mapping processing unit 324 basically has the same configuration and function as the mapping processing unit 124. The mapping processing unit 324 assigns pixel positions to each graphic element 3 in the same manner as the mapping processing unit 124. Next, the mapping processing unit 324 calculates the sum of the values of the representative position information R or the graphic classification information K of the graphic element corresponding to the pixel for each pixel, and generates a matrix diagram. However, the mapping processing unit 324 includes the duplication preprocessing unit 330 in addition to the mapping processing unit 124.

重複前処理部330は、マトリクス図の各ピクセルに対して、そのピクセルに対応する図形要素3の数(重複値m)を算出し、重複値mをマトリクス図に変換した重複データを生成する。 The duplication preprocessing unit 330 calculates the number of graphic elements 3 (overlapping value m) corresponding to each pixel of the matrix diagram, and generates duplicate data in which the duplication value m is converted into the matrix diagram.

推定部340は、基本的には推定部140と同様の構成および機能を有する。ただし推定部340はこれに加えて、重複前処理部330から取得した重複データおよび、予測モデル生成部380の予測モデル決定部384から取得した予測モデルを用いて、重複値の予測値(重複予測値)m’を推定する。推定部340は、補正処理部250を介して重複処理部350に重複予測値m’を出力する。 The estimation unit 340 basically has the same configuration and function as the estimation unit 140. However, in addition to this, the estimation unit 340 uses the duplication data acquired from the duplication preprocessing unit 330 and the prediction model acquired from the prediction model determination unit 384 of the prediction model generation unit 380 to predict the duplication value (overlapping prediction). Value) m'is estimated. The estimation unit 340 outputs the overlap prediction value m'to the overlap processing unit 350 via the correction processing unit 250.

重複処理部350は、重複予測値m’、図形要素3の代表位置情報R’および図形分類情報の予測値K’から、1つのピクセルに対応する図形要素3の組み合わせを組み合わせ数だけ算出し、1つの組み合わせを決定する。重複処理部350の重複処理の詳細については、後述で説明する。 The duplication processing unit 350 calculates the number of combinations of the graphic elements 3 corresponding to one pixel from the overlapping predicted value m', the representative position information R'of the graphic element 3 and the predicted value K'of the graphic classification information, and calculates the number of combinations. Determine one combination. The details of the duplication processing of the duplication processing unit 350 will be described later.

予測モデル生成部380は、基本的には予測モデル生成部180と同様であるが、学習処理部182および予測モデル決定部184に代えて、学習処理部382および予測モデル決定部384を有する。
学習処理部382は、基本的には学習処理部182と同様であるが、実施形態2の学習データに加えて重複値mのマトリクス図を予測モデルの学習データとして、管理する。
予測モデル決定部384は、基本的には予測モデル決定部184と同様であるが、実施形態2のマトリクス図に加えて、重複値mのマトリクス図に対応する予測モデルを決定し、決定した予測モデルを推定部340に出力する。
The prediction model generation unit 380 is basically the same as the prediction model generation unit 180, but has a learning processing unit 382 and a prediction model determination unit 384 in place of the learning processing unit 182 and the prediction model determination unit 184.
The learning processing unit 382 is basically the same as the learning processing unit 182, but manages a matrix diagram having an overlapping value m as learning data of the prediction model in addition to the learning data of the second embodiment.
The prediction model determination unit 384 is basically the same as the prediction model determination unit 184, but in addition to the matrix diagram of the second embodiment, the prediction model corresponding to the matrix diagram of the overlapping value m is determined and determined. The model is output to the estimation unit 340.

図11(a)は、実施形態3にかかる代表位置情報の予測値R’に関する予測マトリクス図に格納される値の概略図である。図11(b)は、実施形態3にかかる代表位置情報の予測値R’に対応する重複予測値m’に関する予測マトリクス図に格納される値の概略図である。
本実施形態3ではこれらのマトリクス図は、推定部340から補正処理部250を介して出力される形状生成用データに含まれる予測マトリクス図である。なお本図の予測マトリクス図は、8×8(すなわちS=8)の解像度を有する。
FIG. 11A is a schematic diagram of the values stored in the prediction matrix diagram regarding the predicted value R'of the representative position information according to the third embodiment. FIG. 11B is a schematic diagram of the values stored in the prediction matrix diagram regarding the overlapping predicted value m'corresponding to the predicted value R'of the representative position information according to the third embodiment.
In the third embodiment, these matrix diagrams are prediction matrix diagrams included in the shape generation data output from the estimation unit 340 via the correction processing unit 250. The prediction matrix diagram in this figure has a resolution of 8 × 8 (that is, S = 8).

図11(a)および(b)に示すように、たとえば7行2列目のピクセルの代表位置情報R’の値は10であり、重複予測値m’は3である。したがってこのピクセルには代表位置情報R’の合計値が10である3つの図形要素3が割り当てられていることになる。なお、1つの図形要素3の代表位置情報R’の値はS以下であるところ、このピクセルは代表位置情報R’の値がSより大きいため、複数の図形要素3が確実に割り当てられていることがR’の値からわかる。
同様に、2行5列目のピクセルの代表位置情報R’の値は7であり、重複予測値m’は2である。したがってこのピクセルには代表位置情報R’の合計値が7である2つの図形要素3が割り当てられていることになる。このように重複予測値m’は、R’の値がS以下である場合でも、ピクセルに割り当てられた図形要素3の数を示すことができる。
As shown in FIGS. 11A and 11B, for example, the value of the representative position information R'of the pixel in the 7th row and the 2nd column is 10, and the overlap prediction value m'is 3. Therefore, three graphic elements 3 whose total value of the representative position information R'is 10 are assigned to this pixel. In addition, where the value of the representative position information R'of one graphic element 3 is S or less, since the value of the representative position information R'is larger than S in this pixel, a plurality of graphic elements 3 are surely assigned. This can be seen from the value of R'.
Similarly, the value of the representative position information R'of the pixels in the second row and the fifth column is 7, and the overlap prediction value m'is 2. Therefore, two graphic elements 3 whose total value of the representative position information R'is 7 are assigned to this pixel. As described above, the duplicate prediction value m'can indicate the number of graphic elements 3 assigned to the pixels even when the value of R'is S or less.

次に、本実施形態3にかかる対象部分形状生成処理および学習データ処理について図12を用いて説明する。図12(a)は、実施形態3にかかる装置30の対象部分形状生成処理の一例を示すフローチャートであり、図12(b)は、実施形態3にかかる装置30の学習データ処理の一例を示すフローチャートである。なお、図5および6と同様のステップについては、同様の符号を付して説明を省略する。 Next, the target partial shape generation process and the learning data process according to the third embodiment will be described with reference to FIG. FIG. 12A is a flowchart showing an example of the target partial shape generation process of the apparatus 30 according to the third embodiment, and FIG. 12B shows an example of the learning data processing of the apparatus 30 according to the third embodiment. It is a flowchart. The same steps as those in FIGS. 5 and 6 are designated by the same reference numerals and the description thereof will be omitted.

図12(a)について、S70において、重複前処理部330は、各マトリクス図の各ピクセルに対して重複値mを決定し、各マトリクス図に対して重複値mのマトリクス図を生成する。そして重複前処理部330は、すべてのマトリクス図を推定部340に出力する。
S72において、推定部340は、図5のS13に加えて、重複値mのマトリクス図についても、対応する予測モデルを予測モデル決定部384から取得する。
Regarding FIG. 12A, in S70, the overlap preprocessing unit 330 determines the overlap value m for each pixel of each matrix diagram, and generates a matrix diagram of the overlap value m for each matrix diagram. Then, the overlap preprocessing unit 330 outputs all the matrix diagrams to the estimation unit 340.
In S72, the estimation unit 340 acquires the corresponding prediction model from the prediction model determination unit 384 for the matrix diagram of the overlapping value m in addition to S13 in FIG.

S74において、推定部340は、図5のS14に加えて、重複値mのマトリクス図についても、予測モデルを用いて予測値m’を推定し、予測マトリクス図を生成する。そして推定部340は、補正処理部250を介して重複処理部350に予測値m’の予測マトリクス図を出力する。
S75において、補正処理部250は、推定部340から出力される代表位置情報の予測マトリクス図を含む形状生成用データに対して図9(b)に示すステップと同様の補正処理を行い、補正後の形状生成用データを生成する。
In S74, the estimation unit 340 estimates the predicted value m'using the prediction model for the matrix diagram having the overlapping value m in addition to S14 in FIG. 5, and generates the prediction matrix diagram. Then, the estimation unit 340 outputs a prediction matrix diagram of the predicted value m'to the overlapping processing unit 350 via the correction processing unit 250.
In S75, the correction processing unit 250 performs the same correction processing as the step shown in FIG. 9B on the shape generation data including the prediction matrix diagram of the representative position information output from the estimation unit 340, and after the correction. Generate data for shape generation.

S76において、重複処理部350は、取得した予測値m’の予測マトリクス図および補正処理部250から出力される形状生成用データを用いて、後述する重複処理を実行する。これにより重複処理部350は、1つのピクセルにリダクションされた複数の図形要素3の組み合わせを決定する。そして重複処理部350は、形状生成用データに、決定した図形要素3に対応するデータを登録して、形状生成用データを更新する。重複処理部350は、形状生成用データを形状生成部160に出力する。そして重複処理部350は、処理をS15に進める。 In S76, the duplication processing unit 350 executes the duplication processing described later using the prediction matrix diagram of the acquired predicted value m'and the shape generation data output from the correction processing unit 250. As a result, the duplication processing unit 350 determines the combination of the plurality of graphic elements 3 reduced to one pixel. Then, the duplication processing unit 350 registers the data corresponding to the determined graphic element 3 in the shape generation data, and updates the shape generation data. The duplication processing unit 350 outputs the shape generation data to the shape generation unit 160. Then, the duplicate processing unit 350 advances the processing to S15.

また、図12(b)に示すように、S80において、重複前処理部330はS70と同様の処理を行う。 Further, as shown in FIG. 12B, in S80, the overlap pretreatment unit 330 performs the same processing as in S70.

図13は、実施形態3にかかる装置30の重複処理の一例を示すフローチャートである。
まずS90において、重複処理部350は、補正処理部250から形状生成用データの<抽出ピクセルデータ>を取得する。
FIG. 13 is a flowchart showing an example of duplicate processing of the apparatus 30 according to the third embodiment.
First, in S90, the duplication processing unit 350 acquires <extracted pixel data> of shape generation data from the correction processing unit 250.

次にS91において、重複処理部350は、形状生成用データの抽出ピクセルデータに含まれる任意のピクセルについて、重複予測値m’が2以上であるか否かを判定する。重複処理部350は、m’が2以上であれば(S91でY)、処理をS93に進め、そうでなければ(S91でN)、処理をS92に進める。 Next, in S91, the duplication processing unit 350 determines whether or not the duplication prediction value m'is 2 or more for any pixel included in the extraction pixel data of the shape generation data. If m'is 2 or more (Y in S91), the duplicate processing unit 350 advances the process to S93, and if not (N in S91), advances the process to S92.

S92において、重複処理部350は、当該代表位置情報の予測値R’を形状生成用データの<抽出ピクセルデータ>として残す。そして重複処理部350は、処理をS98に進める。
S93において、重複処理部350は、重複予測値m’が2以上であることに応じて、形状生成用データの<抽出ピクセルデータ>から当該代表位置情報の予測値R’を削除する。
In S92, the duplication processing unit 350 leaves the predicted value R'of the representative position information as <extracted pixel data> of the shape generation data. Then, the duplicate processing unit 350 advances the processing to S98.
In S93, the duplication processing unit 350 deletes the prediction value R'of the representative position information from the <extracted pixel data> of the shape generation data according to the duplication prediction value m'being 2 or more.

S94において、重複処理部350は、削除した代表位置情報のピクセルに対応する図形分類情報の予測値K’を取得する。
S95において、重複処理部350は、重複予測値m’および図形分類情報の予測値K’に基づいて、そのピクセルに含まれる重複した図形要素3の組み合わせを計算する。たとえば、m’=2である場合、そのピクセルには2つの図形要素3が含まれていることとなる。ここでK’=40である場合、そのピクセルに、図形分類情報が10および30の図形要素3が含まれている場合と、図形分類情報が20および20の図形要素3が含まれている場合との、2通りの組み合わせを計算することができる。
In S94, the duplication processing unit 350 acquires the predicted value K'of the graphic classification information corresponding to the pixel of the deleted representative position information.
In S95, the duplication processing unit 350 calculates the combination of the duplication graphic elements 3 included in the pixel based on the duplication prediction value m'and the prediction value K'of the graphic classification information. For example, when m'= 2, the pixel contains two graphic elements 3. Here, when K'= 40, the pixel contains the graphic element 3 having the graphic classification information of 10 and 30, and the pixel contains the graphic element 3 having the graphic classification information of 20 and 20. It is possible to calculate two combinations of and.

S96において、重複処理部350は、重複した図形要素3の組み合わせを決定する。本実施形態3では、重複処理部350が組み合わせに応じた図形要素3を組み合わせの数だけ生成し、複合形状1の形状データとの比較により図形要素3の組み合わせを選択し、決定する。なお、図形要素3の組み合わせの決定は、ユーザからの入力を受けて決定してもよい。 In S96, the duplication processing unit 350 determines the combination of the overlapping graphic elements 3. In the third embodiment, the duplication processing unit 350 generates as many graphic elements 3 as the number of combinations according to the combination, and selects and determines the combination of the graphic elements 3 by comparing with the shape data of the composite shape 1. The combination of the graphic elements 3 may be determined by receiving an input from the user.

S97において、重複処理部350は、形状生成用データの<抽出ピクセルデータ>に、決定した図形要素3の組み合わせに対応するデータを登録し、形状生成用データを更新する。
S98において、重複処理部350は、すべての代表位置情報の予測値R’について処理を行ったか否かを判定する。重複処理部350は、行っている場合(S98でY)処理を終了し、そうでない場合(S98でN)処理をS91に戻す。
そして重複処理部350の処理が終了したことに応じて、形状生成部160は、出力された形状生成用データの<抽出ピクセルデータ>に基づいて、対象部分形状の形状データを生成する。なお、形状生成部160が形状生成用データの<削除ピクセルデータ>に基づいて、対象部分形状の形状データを生成する場合は、重複処理部350は、図13に示す各ステップを、<抽出ピクセルデータ>から<削除ピクセルデータ>に読み替えて実行してよい。
In S97, the duplication processing unit 350 registers the data corresponding to the determined combination of the graphic elements 3 in the <extracted pixel data> of the shape generation data, and updates the shape generation data.
In S98, the duplicate processing unit 350 determines whether or not processing has been performed on the predicted values R'of all the representative position information. The duplicate processing unit 350 ends the processing if it is being performed (Y in S98), and returns the processing to S91 if it is not (N in S98).
Then, in response to the completion of the processing of the duplication processing unit 350, the shape generation unit 160 generates the shape data of the target partial shape based on the <extracted pixel data> of the output shape generation data. When the shape generation unit 160 generates the shape data of the target partial shape based on the <deleted pixel data> of the shape generation data, the duplication processing unit 350 performs each step shown in FIG. 13 as <extracted pixels. It may be executed by reading from <data> to <deleted pixel data>.

このように、実施形態3によれば、装置30が重複処理を行うため、マトリクス図へのマッピング時にリダクションされる情報を考慮して対象部分形状の形状データを生成することができる。したがって、生成される対象部分形状の形状データの精度が向上する。 As described above, according to the third embodiment, since the apparatus 30 performs the duplication processing, it is possible to generate the shape data of the target partial shape in consideration of the information reduced at the time of mapping to the matrix diagram. Therefore, the accuracy of the shape data of the generated target partial shape is improved.

なお実施形態3では推定部340が重複予測値m’を推定するとしたが、本推定は省略されてもよい。この場合、図10に示す重複処理部350は、重複予測値m’に代えて重複値mと、図形要素3の代表位置情報R’と、図形分類情報の予測値K’とから、1つのピクセルに対応する図形要素3の組み合わせを組み合わせ数だけ算出した上で、組み合わせを決定する。このとき重複処理部350は、図13に示す各ステップを、重複予測値m’から重複値mに読み替えて、実行してよい。 In the third embodiment, the estimation unit 340 estimates the overlap prediction value m', but this estimation may be omitted. In this case, the duplication processing unit 350 shown in FIG. 10 has one duplication value m instead of the duplication prediction value m', the representative position information R'of the graphic element 3, and the prediction value K'of the graphic classification information. The combination is determined after calculating the number of combinations of the graphic elements 3 corresponding to the pixels. At this time, the duplication processing unit 350 may read each step shown in FIG. 13 from the duplication prediction value m'to the duplication value m and execute the step.

図14は、実施形態1〜3にかかるコンピュータ1900の構成図である。図14に示すように、コンピュータ1900は、システム全体を制御するための制御部1000を備えている。この制御部1000には、データバス等のバスラインを介して、記憶装置1200、記憶媒体駆動装置1300、通信制御装置1400、および入出力I/F1500が接続されている。 FIG. 14 is a configuration diagram of the computer 1900 according to the first to third embodiments. As shown in FIG. 14, the computer 1900 includes a control unit 1000 for controlling the entire system. A storage device 1200, a storage medium drive device 1300, a communication control device 1400, and an input / output I / F 1500 are connected to the control unit 1000 via a bus line such as a data bus.

制御部1000は、CPU1010と、ROM1020と、RAM1030とを備えている。
CPU1010は、ROM1020や記憶装置1200等の各種記憶部に記憶されたプログラムに従って、各種の情報処理や制御を行う。
ROM1020は、CPU1010が各種制御や演算を行うための各種プログラムやデータが予め格納されたリードオンリーメモリである。
The control unit 1000 includes a CPU 1010, a ROM 1020, and a RAM 1030.
The CPU 1010 performs various information processing and control according to a program stored in various storage units such as the ROM 1020 and the storage device 1200.
The ROM 1020 is a read-only memory in which various programs and data for the CPU 1010 to perform various controls and calculations are stored in advance.

RAM1030は、CPU1010にワーキングメモリとして使用されるランダムアクセスメモリである。このRAM1030には、本実施形態1〜3による各種処理を行うための各種エリアが確保可能になっている。 The RAM 1030 is a random access memory used by the CPU 1010 as a working memory. In the RAM 1030, various areas for performing various processes according to the first to third embodiments can be secured.

入力装置1050は、キーボード、マウスおよびタッチパネル等のユーザからの入力を受け付ける入力装置である。たとえばキーボードは、テンキー、各種機能を実行するための機能キーおよびカーソルキー等の各種キーが配置されている。マウスは、ポインティングデバイスであり、表示装置1100に表示されたキーやアイコン等をクリックすることで対応する機能の指定を行う入力装置である。タッチパネルは、表示装置1100の表面に配置される入力機器で、表示装置1100に画面表示された各種操作キーに対応した、ユーザのタッチ位置を特定し、当該タッチ位置に対応して表示された操作キーの入力を受け付ける。 The input device 1050 is an input device that receives input from a user such as a keyboard, a mouse, and a touch panel. For example, the keyboard is provided with various keys such as a numeric keypad, function keys for executing various functions, and cursor keys. The mouse is a pointing device, and is an input device that specifies a corresponding function by clicking a key, an icon, or the like displayed on the display device 1100. The touch panel is an input device arranged on the surface of the display device 1100. It identifies a user's touch position corresponding to various operation keys displayed on the screen of the display device 1100, and an operation displayed corresponding to the touch position. Accepts key input.

表示装置1100は、例えばCRTや液晶ディスプレイ等が使用される。この表示装置には、キーボードやマウスによる入力結果が表示されたり、最終的に検索されたイメージ情報が表示されたりするようになっている。また表示装置1100は、コンピュータ1900の各種機能に応じて、タッチパネルから必要な各種操作を行うための操作キーを画像表示する。 As the display device 1100, for example, a CRT, a liquid crystal display, or the like is used. The display device displays the input result by the keyboard and the mouse, and displays the finally searched image information. Further, the display device 1100 displays an image of operation keys for performing various necessary operations from the touch panel according to various functions of the computer 1900.

記憶装置1200は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータ等の各種情報を読み書きするための駆動装置で構成されている。
この記憶装置1200に使用される記憶媒体としては、主としてハードディスクが使用されるが、後述の記憶媒体駆動装置1300で使用される各種記憶媒体のうちの読み書き可能な記憶媒体を使用するようにしてもよい。
記憶装置1200は、データ格納部1210、プログラム格納部1220および図示しないその他の格納部(例えば、この記憶装置1200内に格納されているプログラムやデータ等をバックアップするための格納部)等を有している。プログラム格納部1220には、本実施形態1〜3における各種処理を実現するためのプログラムが格納されている。データ格納部1210には、本実施形態1〜3にかかる各種データベースの各種データを格納する。
The storage device 1200 includes a readable and writable storage medium and a drive device for reading and writing various information such as programs and data to and from the storage medium.
A hard disk is mainly used as the storage medium used in the storage device 1200, but a literate storage medium among various storage media used in the storage medium drive device 1300 described later may be used. good.
The storage device 1200 has a data storage unit 1210, a program storage unit 1220, and other storage units (for example, a storage unit for backing up programs and data stored in the storage device 1200) and the like (for example, a storage unit for backing up programs and data stored in the storage device 1200). ing. The program storage unit 1220 stores programs for realizing various processes according to the first to third embodiments. The data storage unit 1210 stores various data of various databases according to the first to third embodiments.

記憶媒体駆動装置1300は、CPU1010が外部の記憶媒体(外部記憶媒体)からコンピュータプログラムや文書を含むデータ等を読み込むための駆動装置である。
ここで、外部記憶媒体とは、コンピュータプログラムやデータ等が記憶される記憶媒体をいう。外部記憶媒体は、具体的には、フロッピーディスク、ハードディスク、磁気テープ等の磁気記憶媒体、メモリチップやICカード等の半導体記憶媒体、CD−ROMやMO、PD(相変化書換型光ディスク)等の光学的に情報が読み取られる記憶媒体が含まれてよい。また外部記憶媒体は、紙カードや紙テープ等の用紙(および、用紙に相当する機能を持った媒体)を用いた記憶媒体、その他各種方法でコンピュータプログラム等が記憶される記憶媒体が含まれてよい。
記憶媒体駆動装置1300は、これらの各種外部記憶媒体からコンピュータプログラムを読み込むことが可能である。このほか、記憶媒体駆動装置1300は、フロッピーディスクのような書き込み可能な外部記憶媒体に対してRAM1030や記憶装置1200に格納されているデータ等を書き込むことが可能である。
The storage medium drive device 1300 is a drive device for the CPU 1010 to read data including computer programs and documents from an external storage medium (external storage medium).
Here, the external storage medium means a storage medium in which a computer program, data, or the like is stored. Specific examples of the external storage medium include magnetic storage media such as floppy disks, hard disks, and magnetic tapes, semiconductor storage media such as memory chips and IC cards, and CD-ROMs, MOs, PDs (phase change rewritable optical discs), and the like. A storage medium from which information can be read optically may be included. Further, the external storage medium may include a storage medium using paper (and a medium having a function equivalent to paper) such as a paper card or paper tape, and a storage medium in which a computer program or the like is stored by various other methods. ..
The storage medium drive device 1300 can read a computer program from these various external storage media. In addition, the storage medium drive device 1300 can write data and the like stored in the RAM 1030 and the storage device 1200 to a writable external storage medium such as a floppy disk.

コンピュータ1900は、制御部1000のCPU1010が、記憶媒体駆動装置1300にセットされた外部の記憶媒体からコンピュータプログラムを読み込んで、記憶装置1200の各部に格納(インストール)する。 In the computer 1900, the CPU 1010 of the control unit 1000 reads a computer program from an external storage medium set in the storage medium driving device 1300 and stores (installs) it in each unit of the storage device 1200.

そして、コンピュータ1900が各種処理を実行する場合、記憶装置1200から該当プログラムをRAM1030に読み込み、実行するようになっている。但しコンピュータ1900は、記憶装置1200からではなく、記憶媒体駆動装置1300により外部の記憶媒体からRAM1030に直接プログラムを読み込んで実行することも可能である。また、コンピュータによっては各種プログラム等を予めROM1020に記憶させておき、これをCPU1010が実行するようにしてもよい。さらに、コンピュータ1900は、各種プログラムやデータを、通信制御装置1400を介して他の記憶媒体からダウンロードし、実行するようにしてもよい。 Then, when the computer 1900 executes various processes, the corresponding program is read from the storage device 1200 into the RAM 1030 and executed. However, the computer 1900 can also read and execute the program directly from the external storage medium into the RAM 1030 by the storage medium driving device 1300 instead of from the storage device 1200. Further, depending on the computer, various programs and the like may be stored in the ROM 1020 in advance, and the CPU 1010 may execute the programs. Further, the computer 1900 may download various programs and data from another storage medium via the communication control device 1400 and execute the programs and data.

通信制御装置1400は、コンピュータ1900と他のパーソナルコンピュータやワードプロセッサ等の各種外部電子機器との間をネットワーク接続するための制御装置である。通信制御装置1400は、これら各種外部電子機器からコンピュータ1900にアクセスすることを可能とする。 The communication control device 1400 is a control device for connecting the computer 1900 to various external electronic devices such as other personal computers and word processors via a network. The communication control device 1400 makes it possible to access the computer 1900 from these various external electronic devices.

入出力I/F1500は、パラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続するためのインターフェースである。 The input / output I / F 1500 is an interface for connecting various input / output devices via a parallel port, a serial port, a keyboard port, a mouse port, and the like.

本実施形態1〜3では、コンピュータ1900は、パーソナルコンピュータやワードプロセッサ等を含むコンピュータシステムで構成される。しかしこれに限らず、コンピュータ1900は、LAN(ローカル・エリア・ネットワーク)のサーバ、コンピュータ(パソコン)通信のホスト、インターネット上に接続されたコンピュータシステム等によって構成されることも可能である。また、ネットワーク上の各機器に機能分散させ、ネットワーク全体でコンピュータ1900を構成することも可能である。 In the first to third embodiments, the computer 1900 is composed of a computer system including a personal computer, a word processor, and the like. However, the present invention is not limited to this, and the computer 1900 can be configured by a LAN (local area network) server, a computer (personal computer) communication host, a computer system connected on the Internet, and the like. It is also possible to distribute the functions to each device on the network and configure the computer 1900 in the entire network.

なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。その様な変更を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present disclosure is not limited to the above embodiment, and can be appropriately modified without departing from the spirit. It is clear from the description of the claims that such modified forms may also be included in the technical scope of the present disclosure.

特許請求の範囲、明細書、および図面中において示した装置および方法における各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのではない限り、任意の順序で実現しうる。特許請求の範囲、明細書および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順序で実施することが必須であることを意味するものではない。 The execution order of each process in the apparatus and method shown in the claims, the specification, and the drawings is not specified as "before", "prior to", etc., and the order of execution of the previous processes is not specified. It can be achieved in any order unless the output is used in later processing. Even if the scope of claims, the description, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it means that it is essential to carry out in this order. is not it.

なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。 The present disclosure is not limited to the above embodiment, and can be appropriately modified without departing from the spirit.

1 複合形状、2,5,7 部分形状、3,4a,4b,4c,6,8 図形要素、9 内部空間、10,20,30 装置、50 第1〜第3マトリクス図、52 第4〜第6マトリクス図、100 記憶部、110 取得部、120,320 変換処理部、122 代表決定部、124,324 マッピング処理部、140,340 推定部、160 形状生成部、180,380 予測モデル生成部、182,382 学習処理部、184,384 予測モデル決定部、190 学習データベース、250 補正処理部、330 重複前処理部、350 重複処理部、1000 制御部、1010 CPU、1020 ROM、1030 RAM、1100 表示装置、1200 記憶装置、1210 データ格納部、1220 プログラム格納部、1300 記憶媒体駆動装置、1400 通信制御装置、1500 入出力I/F、1900 コンピュータ 1 Composite shape, 2, 5, 7 partial shape, 3, 4a, 4b, 4c, 6, 8 graphic elements, 9 internal space, 10, 20, 30 devices, 50 1st to 3rd matrix diagrams, 52 4th to 6th matrix diagram, 100 storage unit, 110 acquisition unit, 120, 320 conversion processing unit, 122 representative determination unit, 124,324 mapping processing unit, 140,340 estimation unit, 160 shape generation unit, 180,380 prediction model generation unit , 182,382 learning processing unit, 184,384 prediction model determination unit, 190 learning database, 250 correction processing unit, 330 duplication preprocessing unit, 350 duplication processing unit, 1000 control unit, 1010 CPU, 1020 ROM, 1030 RAM, 1100 Display device, 1200 storage device, 1210 data storage unit, 1220 program storage unit, 1300 storage medium drive device, 1400 communication control device, 1500 input / output I / F, 1900 computer

Claims (1)

複数の図形要素を有する複合形状から対象部分形状を生成する装置であって、
前記複数の図形要素に対応する図形分類情報に基づいて、前記複数の図形要素のそれぞれに対して、その図形要素の位置を代表する代表位置情報を決定する代表決定部と、
前記複数の図形要素の前記代表位置情報を用いて、学習用の複合形状および学習用の対象部分形状に基づいて機械学習により生成される予測モデルにより、対象部分形状に対応する図形要素の代表位置情報を推定する推定部と、
推定された前記図形要素の代表位置情報および前記図形要素の図形分類情報に基づいて前記対象部分形状を生成する形状生成部と
を備える装置。
A device that generates a target partial shape from a composite shape having multiple graphic elements.
A representative determination unit that determines representative position information representing the position of the graphic element for each of the plurality of graphic elements based on the graphic classification information corresponding to the plurality of graphic elements.
Using the representative position information of the plurality of graphic elements, the representative position of the graphic element corresponding to the target partial shape by the prediction model generated by machine learning based on the composite shape for learning and the target partial shape for learning. An estimation unit that estimates information and
A device including a shape generating unit that generates the target partial shape based on the estimated representative position information of the graphic element and the graphic classification information of the graphic element.
JP2020022066A 2020-02-13 2020-02-13 Target partial shape generation device from composite shape with multiple graphic elements Pending JP2021128485A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020022066A JP2021128485A (en) 2020-02-13 2020-02-13 Target partial shape generation device from composite shape with multiple graphic elements

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020022066A JP2021128485A (en) 2020-02-13 2020-02-13 Target partial shape generation device from composite shape with multiple graphic elements

Publications (1)

Publication Number Publication Date
JP2021128485A true JP2021128485A (en) 2021-09-02

Family

ID=77488630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020022066A Pending JP2021128485A (en) 2020-02-13 2020-02-13 Target partial shape generation device from composite shape with multiple graphic elements

Country Status (1)

Country Link
JP (1) JP2021128485A (en)

Similar Documents

Publication Publication Date Title
US7266419B2 (en) Search for similar sheet metal part models
US6219586B1 (en) Apparatus and method for managing and distributing design and manufacturing information throughout a sheet metal production facility
US5886897A (en) Apparatus and method for managing and distributing design and manufacturing information throughout a sheet metal production facility
JP4785598B2 (en) Similar shape search device
US20080065625A1 (en) CAD data evaluation method and evaluation apparatus
CN103914504A (en) Information processing apparatus and method for generating graphs
US20090070686A1 (en) Method, system, and program product for controlling a display on a data editing screen
US8041549B2 (en) Analyzation apparatus and control method thereof
CN108154191A (en) The recognition methods of file and picture and system
US9304981B1 (en) System and method for providing an inter-application overlay to communicate information between users and tools in the EDA design flow
Corvo et al. Visual analytics for hypothesis-driven exploration in computational pathology
JP2021128485A (en) Target partial shape generation device from composite shape with multiple graphic elements
JP4733414B2 (en) Model selection program in CAD system
CN111507265A (en) Form key point detection model training method, device, equipment and storage medium
Han et al. A study on structural CAD data conversion between AVEVA MARINE® and Intergraph Smart 3D®
JP2019207663A (en) Analysis model display processing program, analysis model display processing method, and information processing device
JP5482175B2 (en) Boundary particle search system, boundary particle search device, control method, and program
EP4207073A1 (en) Method and system for tracking a cad model in real time based on particle filters
US20230185977A1 (en) Method and system for performing seamless analysis of geometric components in multi-domain collaborative simulation environments
WO2024095636A1 (en) Design assistance device, design assistance program, and design assistance method
KR100886657B1 (en) System and Method for making Basic Document of Dimensional Accuracy Check Sheet for Block in Ship Production
KR100813940B1 (en) System and methodology for the management of spatial data using large scale DBMS
Aljaloud et al. An Innovative Metric-based Clustering Approach for Increased Scalability and Dependency Elimination in Monolithic Legacy Systems
Kelly et al. evoVision3D: a multiscale visualization of evolutionary histories
CN118154259A (en) Product price data acquisition method and device and electronic equipment