JP7481173B2 - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP7481173B2
JP7481173B2 JP2020109666A JP2020109666A JP7481173B2 JP 7481173 B2 JP7481173 B2 JP 7481173B2 JP 2020109666 A JP2020109666 A JP 2020109666A JP 2020109666 A JP2020109666 A JP 2020109666A JP 7481173 B2 JP7481173 B2 JP 7481173B2
Authority
JP
Japan
Prior art keywords
image
trained model
images
information processing
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020109666A
Other languages
Japanese (ja)
Other versions
JP2022007021A (en
Inventor
文一 安藤
侑心 豊暉原
譲 兼森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NS Solutions Corp
Nippon Steel Stainless Steel Corp
Original Assignee
NS Solutions Corp
Nippon Steel Stainless Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NS Solutions Corp, Nippon Steel Stainless Steel Corp filed Critical NS Solutions Corp
Priority to JP2020109666A priority Critical patent/JP7481173B2/en
Publication of JP2022007021A publication Critical patent/JP2022007021A/en
Application granted granted Critical
Publication of JP7481173B2 publication Critical patent/JP7481173B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

近年、人工知能(AI:Artificial Intelligence)を利用した画像認識が行われている。例えば、写真に写っている動物が何であるのか画像認識により判定することができるが、この判定を行わせるためには、認識対象となる物の特徴をあらわす特徴量を使ってコンピュータ等の情報処理装置に予め学習させておく必要がある。そして、この学習に用いる教師データ(ラベル付きの学習データ)の量がAIによる画像認識の認識精度に大きく影響を及ぼす。 In recent years, image recognition using artificial intelligence (AI) has become common. For example, image recognition can be used to determine what animal is in a photograph, but in order to make this determination, it is necessary to have an information processing device such as a computer learn in advance using feature quantities that represent the characteristics of the object to be recognized. Furthermore, the amount of training data (labeled learning data) used for this learning has a significant impact on the accuracy of image recognition by AI.

しかし、十分な学習を行うためのデータを用意することが困難な場合もあり、不十分な学習状況のもと画像認識を行うと、認識精度が低下して適切な結果が得られないこともある。また、未学習のものや認識対象外のものについては、学習済みの結果から一番近いものを選ぶ動作をするため、未学習や認識対象外の画像を正しく判定させることは非常に困難である。 However, it can be difficult to prepare enough data for sufficient learning, and performing image recognition under insufficient learning conditions can result in reduced recognition accuracy and inappropriate results. In addition, for unlearned or non-recognition targets, the system will select the closest result from the learned results, making it extremely difficult to correctly identify unlearned or non-recognition targets.

特許文献1には、顔判別に係る教師データを作成する技術が開示されている。特許文献1には、対象画像中の種々の方向を向いた顔を判別器を用いて検出することが記載されており、検出対象画像上で順次切り出した部分画像に対して左右反転処理や90度単位の回転処理を施すことにより、部分画像の反転/回転画像を生成し、これらの画像に対して所定の種類の判別器を用いて当該画像が所定の顔の向きおよび天地方向にある顔であるか否かを判別する。 Patent Document 1 discloses a technology for creating training data for face discrimination. It describes the use of a discriminator to detect faces facing in various directions in a target image, and performs left-right flipping and 90-degree rotation processing on partial images cut out sequentially from the detection target image to generate inverted/rotated images of the partial images, and uses a specified type of discriminator on these images to determine whether or not the image is of a face facing a specified facial orientation and top-to-bottom direction.

特開2006-350704号公報JP 2006-350704 A

しかしながら、特許文献1に記載の技術では、部分画像の反転や回転により教師データとなる画像を生成しており、反転処理や回転処理により得られる画像には限りがあるため必ずしも十分な量の教師データが得られるものではない。本発明は、このような事情に鑑みてなされたものであり、より多くの教師データを作成し、画像認識の認識精度を高めることを目的とする。 However, in the technology described in Patent Document 1, images that serve as training data are generated by inverting or rotating partial images, and since there is a limit to the images that can be obtained by inverting or rotating, a sufficient amount of training data cannot always be obtained. The present invention has been made in consideration of these circumstances, and aims to create more training data and improve the recognition accuracy of image recognition.

本発明に係る情報処理装置は、画像認識による型式の判定処理に用いる学習済みモデルを生成する情報処理装置であって、対象となる被写体を含む複数の第1の画像を取得する画像取得手段と、取得された前記第1の画像のそれぞれに対して、前記第1の画像に含まれる前記被写体に係る複数の要素についてのラベルを付与するラベル付与手段と、前記ラベルが付与された前記第1の画像に基づいて前記要素毎の前記学習済みモデルを生成するモデル生成手段と、生成された前記要素毎の前記学習済みモデルに基づいて前記型式の判定処理を行う被写体を含む第2の画像の各要素を判定し、前記各要素の判定結果の組み合わせと、前記型式との対応を示す判定情報を用いて、各要素の判定結果の組み合わせに対応する前記型式を判定する判定手段とを有することを特徴とする。 The information processing device of the present invention is an information processing device that generates a trained model used in type determination processing by image recognition, and is characterized in that it has an image acquisition means for acquiring a plurality of first images including a target subject, a label assignment means for assigning labels for a plurality of elements related to the subject included in the first image to each of the acquired first images, a model generation means for generating the trained model for each of the elements based on the first image to which the labels have been assigned, and a determination means for determining each element of a second image including a subject for which the type determination processing is performed based on the generated trained model for each of the elements, and determining the type corresponding to the combination of the determination results of each element using determination information indicating the correspondence between the combination of the determination results of each element and the type .

本発明によれば、より多くの教師データを作成でき、画像認識の認識精度を高めることが可能となる。 The present invention makes it possible to create more training data and improve the recognition accuracy of image recognition.

本実施形態における情報処理装置のハードウェア構成の例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of an information processing device according to the present embodiment. 本実施形態における情報処理装置の機能構成の例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration of an information processing device according to the present embodiment. 処理対象の一例を説明する図である。FIG. 13 is a diagram illustrating an example of a processing target. 本実施形態における判定情報の例を示す図である。FIG. 4 is a diagram showing an example of determination information in the present embodiment. 本実施形態における情報処理装置の動作を説明する図である。FIG. 2 is a diagram illustrating the operation of the information processing device according to the present embodiment. 本実施形態における情報処理装置の処理例を示すフローチャートである。4 is a flowchart showing an example of processing by the information processing device in the present embodiment. 本実施形態における梱包型式判定を説明する図である。FIG. 4 is a diagram for explaining packaging type determination in the present embodiment. 本実施形態における情報処理装置の処理例を示すフローチャートである。4 is a flowchart showing an example of processing by the information processing device in the present embodiment.

以下、本発明の実施形態を図面に基づいて説明する。 The following describes an embodiment of the present invention with reference to the drawings.

図1は、本発明の一実施形態における情報処理装置100のハードウェア構成の一例を示す図である。情報処理装置100は、例えばパーソナルコンピュータ(PC)、サーバ装置、タブレット端末等の情報処理装置である。情報処理装置100は、CPU101、主記憶装置102、補助記憶装置103、入力I/F104、出力I/F105、及びネットワークI/F106を有する。CPU101、主記憶装置102、補助記憶装置103、入力I/F104、出力I/F105、及びネットワークI/F106は、システムバス107を介して、互いに通信可能に接続されている。 FIG. 1 is a diagram showing an example of the hardware configuration of an information processing device 100 in one embodiment of the present invention. The information processing device 100 is, for example, an information processing device such as a personal computer (PC), a server device, or a tablet terminal. The information processing device 100 has a CPU 101, a main memory device 102, an auxiliary memory device 103, an input I/F 104, an output I/F 105, and a network I/F 106. The CPU 101, the main memory device 102, the auxiliary memory device 103, the input I/F 104, the output I/F 105, and the network I/F 106 are connected to each other via a system bus 107 so as to be able to communicate with each other.

CPU(Central Processing Unit)101は、情報処理装置100を制御する中央演算装置である。主記憶装置102は、CPU101のワークエリアやデータの一時的な記憶場所として機能する記憶装置である。主記憶装置102は、例えばRAM(Random Access Memory)等を用いて実装される。補助記憶装置103は、プログラム、画像データ、各種処理に係る情報等を記憶する記憶装置である。補助記憶装置103は、例えばROM(Read Only Memory)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)等を用いて実装される。 The CPU (Central Processing Unit) 101 is a central processing unit that controls the information processing device 100. The main memory 102 is a memory device that functions as a work area for the CPU 101 and a temporary storage location for data. The main memory 102 is implemented using, for example, a RAM (Random Access Memory). The auxiliary memory 103 is a memory device that stores programs, image data, information related to various processes, etc. The auxiliary memory 103 is implemented using, for example, a ROM (Read Only Memory), a hard disk drive (HDD), a solid state drive (SSD), etc.

入力I/F104は、マウス、キーボード、タッチパネルの操作部、撮像装置(カメラ)等の入力装置との接続に利用されるインターフェースである。CPU101は、入力I/F104を介して、入力I/F104に接続された入力装置からの入力を受け付ける。出力I/F105は、モニタ、スピーカ、タッチパネルの表示部等の出力装置との接続に利用されるインターフェースである。ネットワークI/F106は、例えばインターネットやLAN(Local Area Network)等のネットワークを介した、外部のサーバや装置等との通信に利用されるインターフェースである。 The input I/F 104 is an interface used to connect to input devices such as a mouse, a keyboard, a touch panel operation unit, an imaging device (camera), etc. The CPU 101 accepts input from the input device connected to the input I/F 104 via the input I/F 104. The output I/F 105 is an interface used to connect to output devices such as a monitor, a speaker, a touch panel display unit, etc. The network I/F 106 is an interface used to communicate with external servers, devices, etc. via a network such as the Internet or a LAN (Local Area Network).

CPU101が、補助記憶装置103に記憶されたプログラムに基づいて処理を実行することによって、図2に示す情報処理装置100の各機能、及び後述するフローチャートに示す各処理等が実現される。 The CPU 101 executes processing based on a program stored in the auxiliary storage device 103, thereby realizing each function of the information processing device 100 shown in FIG. 2 and each process shown in the flowchart described below.

図2は、本実施形態における情報処理装置100の機能構成の一例を示す図である。情報処理装置100は、画像取得部201、ラベル付与部202、モデル生成部203、判定部204、及び記憶部205を有する。 FIG. 2 is a diagram showing an example of the functional configuration of the information processing device 100 in this embodiment. The information processing device 100 has an image acquisition unit 201, a label assignment unit 202, a model generation unit 203, a determination unit 204, and a storage unit 205.

画像取得部201は、撮像装置等により撮影された対象となる被写体を含む画像を、外部の撮像装置や記憶装置等から取得する。画像取得部201により取得される画像には、学習に用いる画像や判定処理される画像を含む。 The image acquisition unit 201 acquires images including a target subject captured by an imaging device or the like from an external imaging device, storage device, or the like. The images acquired by the image acquisition unit 201 include images used for learning and images to be subjected to judgment processing.

ラベル付与部202は、画像取得部201により取得された、学習に用いる画像に対して、画像に含まれる各要素に係るラベルを付与する。ラベル付与部202は、学習に用いる画像に対して付与するラベルの情報の入力を受け付け、入力されるラベルを画像に付与する。ラベル付与部202は、学習に用いる画像の各画像に対して、複数の要素、すなわち複数の項目からなるラベル情報を付与する。以下では、学習に用いる画像について、画像に対するラベル付与の有無に応じて、ラベルが付与されていない画像を「学習データ」とも称し、ラベル付与部202によりラベルが付与された画像を「教師データ」とも称する。 The label assignment unit 202 assigns labels relating to each element contained in the image to the image used for learning acquired by the image acquisition unit 201. The label assignment unit 202 accepts input of information on labels to be assigned to the images used for learning, and assigns the input labels to the images. The label assignment unit 202 assigns label information consisting of multiple elements, i.e. multiple items, to each image used for learning. Hereinafter, with regard to the images used for learning, images to which no labels have been assigned will also be referred to as "learning data", and images to which labels have been assigned by the label assignment unit 202 will also be referred to as "teaching data", depending on whether or not the image has been assigned a label.

モデル生成部203は、ラベル付与部202によりラベルが付与された、学習に用いる画像である教師データを用いて学習を行い、学習済みモデルを生成する。モデル生成部203は、教師データとなる画像から特徴量を抽出し、抽出した特徴量に基づいて学習し学習済みモデルを生成する。モデル生成部203は、ラベルとして付与された各要素のそれぞれについて、学習済みモデルを生成する。 The model generation unit 203 performs learning using training data, which are images used for learning and to which labels have been assigned by the label assignment unit 202, and generates a trained model. The model generation unit 203 extracts features from the images that are training data, and learns based on the extracted features to generate a trained model. The model generation unit 203 generates a trained model for each element that has been assigned a label.

判定部204は、画像取得部201により取得された、判定対象の画像について、モデル生成部203により生成された学習済みモデルを用いて、各要素に係る判定処理を行う。また、判定部204は、判定処理により得られた各要素の判定結果の組み合わせに基づいて、判定対象の画像に含まれる被写体の種別を判定する。 The determination unit 204 performs a determination process for each element of the image to be determined, acquired by the image acquisition unit 201, using the trained model generated by the model generation unit 203. The determination unit 204 also determines the type of subject included in the image to be determined, based on a combination of the determination results of each element obtained by the determination process.

記憶部205は、画像取得部201により取得された画像(学習データとしての画像や判定処理される画像等)やラベル付与部202によりラベルが付与された画像(教師データ)等を記憶する。また、記憶部205は、モデル生成部203により生成された学習済みモデルや判定部204での被写体の種別の判定に用いる判定情報等を記憶する。 The storage unit 205 stores images acquired by the image acquisition unit 201 (images as learning data, images to be subjected to judgment processing, etc.) and images (teacher data) to which labels have been assigned by the label assignment unit 202. The storage unit 205 also stores a trained model generated by the model generation unit 203 and judgment information used to judge the type of subject by the judgment unit 204.

なお、図2に示した例では、画像取得部201、ラベル付与部202、モデル生成部203、判定部204、及び記憶部205を有する情報処理装置100を一例として示したが、これに限定されるものではない。例えば、学習に係る機能部、すなわち学習に用いる画像(学習データ)を取得する画像取得部201、ラベル付与部202、及びモデル生成部203と、判定に係る機能部、すなわち判定部204とは、異なる情報処理装置が有するような構成であってもよい。また、記憶部205が、情報処理装置と接続される外部の記憶装置であってもよい。 2 shows an example of an information processing device 100 having an image acquisition unit 201, a label assignment unit 202, a model generation unit 203, a judgment unit 204, and a storage unit 205, but is not limited to this. For example, the functional units related to learning, i.e., the image acquisition unit 201, the label assignment unit 202, and the model generation unit 203 that acquire images (learning data) used in learning, and the functional unit related to judgment, i.e., the judgment unit 204, may be configured to be included in different information processing devices. Also, the storage unit 205 may be an external storage device connected to the information processing device.

図3に示すような「コイル」を梱包材で梱包した「梱包済みコイル」の梱包型式の判定を例に、本実施形態における情報処理装置100の動作について説明する。図3(A)に、コイルの一例を示す。図3(A)に示すように、コイル301は、鋼板等の金属材を巻き取ったものである。なお、コイルは、金属材に限らず、板状の樹脂シートやゴムシートを巻き取ったものなどであってもよい。図3(B)は梱包済みコイルの一例を示す図であり、図3(B)には、図3(A)に示したようなコイルを、梱包紙で覆い、リング部材及び結束バンドを施した例を示している。図3(B)において、311は梱包済みコイルにおける内リング部材(内周梱包部材)であり、312は梱包済みコイルにおける外リング部材(外周梱包部材)であり、313は梱包済みコイルにおける結束バンド(フープ)である。なお、図3(B)に示した梱包済みコイルは一例であり、このような梱包に限定されるものではない。例えば、コイルを、梱包紙、リング部材、及び結束バンドの内の少なくとも1つを用いて梱包したものであってもよい。以下においては、梱包済みコイルにおける結束数、内リング部材、及び外リング部材に基づいて梱包型式の判定を行うものとするが、これは一例であり、梱包型式を判定するための要素は適宜設定することが可能である。 The operation of the information processing device 100 in this embodiment will be described using as an example the determination of the packaging type of a "packaged coil" in which a "coil" as shown in FIG. 3 is packed in a packing material. FIG. 3(A) shows an example of a coil. As shown in FIG. 3(A), the coil 301 is made by winding up a metal material such as a steel plate. Note that the coil is not limited to a metal material, and may be made by winding up a plate-shaped resin sheet or a rubber sheet. FIG. 3(B) shows an example of a packed coil, and FIG. 3(B) shows an example in which a coil as shown in FIG. 3(A) is covered with packing paper and is provided with a ring member and a cable tie. In FIG. 3(B), 311 is an inner ring member (inner peripheral packing member) in the packed coil, 312 is an outer ring member (outer peripheral packing member) in the packed coil, and 313 is a cable tie (hoop) in the packed coil. Note that the packed coil shown in FIG. 3(B) is an example, and is not limited to such packaging. For example, the coil may be packed using at least one of packing paper, ring members, and cable ties. In the following, the packaging type will be determined based on the number of bundles, inner ring members, and outer ring members in the packaged coil, but this is just one example, and the elements for determining the packaging type can be set as appropriate.

本実施形態における情報処理装置100を梱包型式の判定に適用する場合、図2に示した各機能部は、下記のように動作する。以下の説明において「コイル画像」とは、梱包済みコイルを被写体として含む画像を示すものとする。画像取得部201は、学習データとしてのコイル画像や判定処理される(判定対象の)コイル画像を取得する。ラベル付与部202は、画像取得部201により取得された学習データとしての画像のそれぞれに対して、結束数、内リング部材、及び外リング部材に関するラベル情報を付与する。例えば、ラベル付与部202は、学習データのある画像に対して“結束数:3、内リング部材:A、外リング部材:α”といったラベル情報を付与する。 When the information processing device 100 of this embodiment is applied to determining the packaging type, each functional unit shown in FIG. 2 operates as follows. In the following description, "coil image" refers to an image that includes a packed coil as a subject. The image acquisition unit 201 acquires coil images as learning data and coil images to be determined (as objects of determination). The label assignment unit 202 assigns label information regarding the number of bundles, inner ring member, and outer ring member to each of the images acquired as learning data by the image acquisition unit 201. For example, the label assignment unit 202 assigns label information such as "number of bundles: 3, inner ring member: A, outer ring member: α" to an image of the learning data.

ここで、結束数は、梱包済みコイルにおける縦方向及び横方向のすべての結束数であってもよいし、縦方向又は横方向の一方向の結束数であってもよい。また、縦方向と横方向の結束数を区別してラベルとして付与するようにしてもよい。内リング部材及び外リング部材については、例えば部材の色を示す情報や部材の有無を示す情報をラベルとして付与する。本実施形態では、ラベル付与部202は、学習データとしての画像のそれぞれに対して、結束数、内リング部材、及び外リング部材に関するラベル情報を付与するものとしたが、これに限らず、他の要素についてのラベル情報を含んでもよい。 The number of ties may be the number of ties in both the vertical and horizontal directions in the packed coil, or the number of ties in one of the vertical or horizontal directions. The number of ties in the vertical and horizontal directions may be distinguished and assigned as labels. For the inner ring members and outer ring members, information indicating the color of the member or information indicating the presence or absence of the member is assigned as a label. In this embodiment, the label assignment unit 202 assigns label information regarding the number of ties, inner ring members, and outer ring members to each image as learning data, but is not limited to this and may include label information regarding other elements.

モデル生成部203は、ラベル付与部202によりラベルが付与された教師データに基づいて学習機を用いた学習を行って、結束数、内リング部材、及び外リング部材のそれぞれについての学習済みモデルを生成する。モデル生成部203は、教師データとなるコイル画像から特徴量を抽出し、抽出した特徴量に基づいて学習し、結束数、内リング部材、及び外リング部材の各要素についての学習済みモデルを生成する。判定部204は、生成された結束数、内リング部材、及び外リング部材の各学習済みモデルを用いて、画像取得部201により取得された判定対象の画像における各要素(結束数、内リング部材、及び外リング部材)の判定処理を行う。また、判定部204は、図4に示すような判定情報(判定テーブル)に基づいて、判定対象のコイルの梱包型式を判定する。 The model generation unit 203 performs learning using a learning machine based on the teacher data labeled by the labeling unit 202, and generates a learned model for each of the number of ties, the inner ring member, and the outer ring member. The model generation unit 203 extracts features from the coil image serving as the teacher data, learns based on the extracted features, and generates a learned model for each element of the number of ties, the inner ring member, and the outer ring member. The determination unit 204 performs a determination process for each element (number of ties, inner ring member, and outer ring member) in the image of the determination target acquired by the image acquisition unit 201 using the generated learned models of the number of ties, the inner ring member, and the outer ring member. The determination unit 204 also determines the packaging type of the coil to be determined based on the determination information (determination table) as shown in FIG. 4.

図4は、コイルの梱包型式を判定する判定情報(判定テーブル)の例を示す図である。図4に一例を示す判定情報(判定テーブル)は、例えば記憶部205に記憶され、判定部204は、記憶された判定情報(判定テーブル)を参照して処理を行う。図4には、結束数が3又は4を判定可能な学習済みモデルを有し、内リング部材がA、B、又はCを判定可能な学習済みモデルを有し、外リング部材がα又はβを判定可能な学習済みモデルを有する場合の判定情報(判定テーブル)を示している。 Figure 4 is a diagram showing an example of judgment information (judgment table) for determining the packaging type of a coil. The judgment information (judgment table) shown as an example in Figure 4 is stored in, for example, the memory unit 205, and the judgment unit 204 performs processing by referring to the stored judgment information (judgment table). Figure 4 shows judgment information (judgment table) for a case in which the number of bundles has a trained model capable of determining 3 or 4, the inner ring member has a trained model capable of determining A, B, or C, and the outer ring member has a trained model capable of determining α or β.

例えば、判定部204は、結束数が3、内リング部材がA、及び外リング部材がαとの判定結果が得られた場合には、梱包済みコイルの梱包型式が型式1であると判定する。また、例えば、判定部204は、結束数が4、内リング部材がA、及び外リング部材がαとの判定結果が得られた場合には、梱包済みコイルの梱包型式が未知の型式であると判定する。また、判定部204は、結束数が4、内リング部材がBとの判定結果が得られた場合には、外リング部材の判定結果にかかわらず梱包済みコイルの梱包型式が未知の型式であると判定する。なお、図4においては、結束数及び外リング部材についてそれぞれ2種類、内リング部材について3種類の例を示したが、これは一例であり、各要素についての学習済みモデルが判定可能な種類の数に応じた判定情報(判定テーブル)を用意すればよい。 For example, when the determination result shows that the number of ties is 3, the inner ring member is A, and the outer ring member is α, the determination unit 204 determines that the packaging type of the packed coil is type 1. Also, when the determination result shows that the number of ties is 4, the inner ring member is A, and the outer ring member is α, the determination unit 204 determines that the packaging type of the packed coil is unknown. Also, when the determination result shows that the number of ties is 4 and the inner ring member is B, the determination unit 204 determines that the packaging type of the packed coil is unknown regardless of the determination result of the outer ring member. Note that in FIG. 4, an example is shown in which there are two types of number of ties and two types of outer ring members, and three types of inner ring members, but this is just an example, and it is sufficient to prepare determination information (determination table) according to the number of types that the learned model for each element can determine.

図5を参照して、本実施形態における情報処理装置100において梱包済みコイルの梱包型式を判定する動作について説明する。学習済みモデルを生成する学習フェーズにおいては、撮像装置501により梱包済みコイルを被写体として含む画像を撮影して、撮影されたコイル画像を画像取得部201が学習データ502として取得する。画像取得部201は、学習データ502として複数のコイル画像を取得する。なお、学習データ502としてのコイル画像は、撮像装置501から直接取得するものに限らず、予め撮影され記憶装置等に記憶されたコイル画像を取得するようにしてもよい。 The operation of determining the packaging type of a packed coil in the information processing device 100 in this embodiment will be described with reference to FIG. 5. In the learning phase for generating a trained model, an image including the packed coil as a subject is captured by the imaging device 501, and the captured coil image is acquired by the image acquisition unit 201 as learning data 502. The image acquisition unit 201 acquires a plurality of coil images as the learning data 502. Note that the coil images as the learning data 502 are not limited to those acquired directly from the imaging device 501, and may be coil images that have been captured in advance and stored in a storage device or the like.

続いて、学習データ502として取得されたコイル画像のそれぞれに対して、ラベル付与部202が各要素(結束数、内リング部材、及び外リング部材)に係るラベルを付与して、ラベルが付与された画像である教師データ503を生成する。このように、本実施形態では、1つの学習データとしての画像に対して、結束数、内リング部材、及び外リング部材の3つのラベルを付与することにより、1つの学習データから3つの教師データを作成することができる。例えば、1つの学習データに対して、M種類のラベルを付与すれば、1つの学習データからM個の教師データを生成することができ、より多くの教師データを得ることが可能となる。 Then, the labeling unit 202 assigns labels for each element (bundle number, inner ring member, and outer ring member) to each of the coil images acquired as the training data 502, generating teacher data 503, which is a labeled image. In this manner, in this embodiment, by assigning three labels, the bundle number, the inner ring member, and the outer ring member, to an image as one training data, three teacher data can be created from one training data. For example, by assigning M types of labels to one training data, M pieces of teacher data can be generated from one training data, making it possible to obtain more teacher data.

次に、モデル生成部203が、作成された教師データ503を用いて学習機504で学習し、コイル画像に含まれる各要素についての学習済みモデル505を生成する。この生成された学習済みモデル505は、判定処理を行う判定フェーズにおいて、判定部204での判定処理に用いられる。 Next, the model generation unit 203 uses the created teacher data 503 to train the learning machine 504, and generates a trained model 505 for each element included in the coil image. This generated trained model 505 is used for the judgment process in the judgment unit 204 in the judgment phase in which the judgment process is performed.

判定対象のコイル画像から梱包型式を判定する判定フェーズでは、撮像装置511により梱包済みコイルを被写体として含む画像を撮影して、撮影されたコイル画像を画像取得部201が判定対象の画像データ512として取得する。なお、判定対象の画像は、梱包済みコイル全体が写り込んだ1つの画像に限られるものではなく、判定処理に適した部分が写り込むように複数の撮像装置511によって撮影された画像であってもよい。次に、判定部204が、取得された判定対象の画像データ512を、判定機506を用いて学習済みモデルにより各要素について判定処理を行い、判定結果を出力する。 In the determination phase for determining the packaging type from the coil image of the determination target, an image including the packed coil as a subject is captured by the imaging device 511, and the captured coil image is acquired by the image acquisition unit 201 as image data 512 of the determination target. Note that the image of the determination target is not limited to one image that captures the entire packed coil, but may be images captured by multiple imaging devices 511 so that parts suitable for the determination process are captured. Next, the determination unit 204 performs a determination process for each element of the acquired image data 512 of the determination target using the determiner 506 based on the trained model, and outputs the determination result.

次に、図6を参照して、梱包済みコイルの梱包型式を判定する情報処理装置100の処理例について説明する。まず、学習済みモデルを生成する学習フェーズにおいては、ステップS601にて、画像取得部201は、学習データとしての複数のコイル画像611を取得する。ステップS601において取得された学習データとしてのコイル画像611は、ラベル付与部202により、各要素についてのラベルが付与されて教師データとして例えば記憶部205に記憶される。 Next, referring to FIG. 6, an example of processing by the information processing device 100 for determining the packaging type of a packed coil will be described. First, in the learning phase for generating a trained model, in step S601, the image acquisition unit 201 acquires a plurality of coil images 611 as training data. The coil images 611 as training data acquired in step S601 are assigned labels for each element by the label assignment unit 202, and are stored as teacher data, for example, in the storage unit 205.

次に、ステップS602にて、モデル生成部203は、ステップS601において生成された教師データを用いて、結束数の分類に係る深層学習(ディープラーニング)を行い、結束数の判定に用いる学習済みモデル612を生成する。ステップS603にて、モデル生成部203は、ステップS601において生成された教師データを用いて、内リング部材の分類に係る深層学習を行い、内リング部材の判定に用いる学習済みモデル613を生成する。 Next, in step S602, the model generation unit 203 uses the training data generated in step S601 to perform deep learning related to the classification of the cohesion number, and generates a trained model 612 to be used for determining the cohesion number. In step S603, the model generation unit 203 uses the training data generated in step S601 to perform deep learning related to the classification of the inner ring members, and generates a trained model 613 to be used for determining the inner ring members.

ステップS604にて、モデル生成部203は、ステップS601において生成された教師データを用いて、外リング部材の分類に係る深層学習を行い、外リング部材の判定に用いる学習済みモデル614を生成し、学習フェーズの処理を終了する。ステップS602~S604において生成された学習済みモデル612~614は、例えば記憶部205に記憶される。なお、学習フェーズにおけるステップS602、S603、及びS604の処理を実行する順序は、図6に示した例に限定されるものではなく、任意である。本実施形態では各要素について深層学習を行って学習済みモデルを生成するようにしているが、深層学習に限らず、その他の教師あり機械学習でも学習済みモデルを生成することが可能である。学習済みモデルを生成するための教師あり機械学習としては、例えばニューラルネットワーク、K近傍法、線形回帰などがある。 In step S604, the model generation unit 203 performs deep learning for the classification of the outer ring members using the teacher data generated in step S601, generates a trained model 614 used to determine the outer ring members, and ends the learning phase processing. The trained models 612 to 614 generated in steps S602 to S604 are stored in, for example, the storage unit 205. Note that the order of executing the processing of steps S602, S603, and S604 in the learning phase is not limited to the example shown in FIG. 6, and is arbitrary. In this embodiment, a trained model is generated by performing deep learning on each element, but it is possible to generate a trained model using other supervised machine learning methods other than deep learning. Examples of supervised machine learning for generating a trained model include neural networks, K-nearest neighbor methods, and linear regression.

また、判定対象のコイル画像から梱包型式を判定する判定フェーズでは、ステップS651にて、画像取得部201は、判定対象のコイル画像661を取得する。次に、ステップS652にて、判定部204は、判定対象のコイル画像661と結束数を判定するための学習済みモデル612とを用いて判定処理を行い、判定対象のコイル画像661での梱包済みコイルにおける結束数を判定する。ステップS653にて、判定部204は、判定対象のコイル画像661と内リング部材を判定するための学習済みモデル613とを用いて判定処理を行い、判定対象のコイル画像661での梱包済みコイルにおける内リング部材を判定する。 In the determination phase for determining the packaging type from the coil image of the determination target, in step S651, the image acquisition unit 201 acquires the coil image 661 of the determination target. Next, in step S652, the determination unit 204 performs a determination process using the coil image 661 of the determination target and the trained model 612 for determining the number of ties, and determines the number of ties in the packed coil in the coil image 661 of the determination target. In step S653, the determination unit 204 performs a determination process using the coil image 661 of the determination target and the trained model 613 for determining the inner ring member, and determines the inner ring member in the packed coil in the coil image 661 of the determination target.

ステップS654にて、判定部204は、判定対象のコイル画像661と外リング部材を判定するための学習済みモデル614とを用いて判定処理を行い、判定対象のコイル画像661での梱包済みコイルにおける外リング部材を判定する。なお、判定フェーズにおいても、ステップS652、S653、及びS654の処理を実行する順序は、図6に示した例に限定されるものではなく、任意である。 In step S654, the determination unit 204 performs a determination process using the coil image 661 to be determined and the trained model 614 for determining the outer ring member, and determines the outer ring member of the packed coil in the coil image 661 to be determined. Note that, even in the determination phase, the order of executing the processes of steps S652, S653, and S654 is not limited to the example shown in FIG. 6, and is arbitrary.

次に、ステップS655にて、判定部204は、前述したステップS652~S654での判定処理により得られた判定結果に基づいて、判定対象のコイル画像に含まれる梱包済みコイルの梱包型式を判定する。判定部204は、前述した判定処理により得られた判定結果の組み合わせと、判定情報(判定テーブル)とを比較して、判定対象のコイル画像での梱包済みコイルの梱包型式を判定する。 Next, in step S655, the determination unit 204 determines the packaging type of the packed coil included in the coil image to be determined based on the determination results obtained by the determination processes in steps S652 to S654 described above. The determination unit 204 compares the combination of the determination results obtained by the determination processes described above with the determination information (determination table) to determine the packaging type of the packed coil in the coil image to be determined.

次に、ステップS656において、梱包済みコイルの梱包型式についての追加学習が必要であるか否かを判定する。追加学習が必要であると判定した場合には、ステップS657にて、判定対象のコイル画像を学習データとして追加する追加学習準備処理を行い、学習フェーズに戻る。追加学習が不要であると判定した場合には、判定フェーズの処理を終了する。 Next, in step S656, it is determined whether additional learning is necessary regarding the packaging type of the packed coil. If it is determined that additional learning is necessary, in step S657, additional learning preparation processing is performed to add the coil image to be judged as learning data, and the process returns to the learning phase. If it is determined that additional learning is not necessary, the processing of the judgment phase ends.

本実施形態によれば、学習データとしての複数の画像のそれぞれに対して、画像に含まれる各要素についてのラベルを付与して教師データを作成することで、学習データからより多くの教師データを作成することができ、より多くの教師データを用いて学習済みモデルを生成することで画像認識の認識精度を高めることが可能となる。 According to this embodiment, by creating training data by assigning labels for each element contained in each of multiple images used as training data, it is possible to create more training data from the training data, and by generating a trained model using more training data, it is possible to improve the recognition accuracy of image recognition.

また、本実施形態では、判定するための要素を学習可能なレベルに分解して各要素についての学習済みモデルを生成し、それらを用いて画像認識を行う。このように判定するための要素を学習可能なレベルにまで分け、各要素の判定結果の組み合わせに基づいて判定することで、未学習や認識対象外の画像を正しく判定することが可能となる。 In addition, in this embodiment, the elements to be judged are broken down into a learnable level, a trained model is generated for each element, and image recognition is performed using these. In this way, by breaking down the elements to be judged into a learnable level and making judgments based on a combination of the judgment results of each element, it becomes possible to correctly judge images that have not been learned or are not eligible for recognition.

なお、ラベル付与部202による学習データへのラベルの付与は、各要素に付与するラベルの情報の入力を要素毎に受け付けて付与するようにしてもよいし、図4に示したような情報を保持しておき、梱包型式の入力を受け付けて入力された梱包型式に対応する各要素のラベルを付与するようにしてもよい。また、コイル画像に人等が写り込んでいる場合には、そのコイル画像は無効データにして処理に用いないようにしてもよい。また、梱包型式を判定する際、同一の判定対象に対して複数の画像を用いて複数回の判定を行い、判定結果の梱包型式が一致している場合、もしくは一致度が所定の閾値を越えた場合に、判定結果が正しいものであると判定するようにしてもよい。 The labeling unit 202 may assign labels to the learning data by accepting input of label information to be assigned to each element for each element, or may hold information such as that shown in FIG. 4 and accept input of the packaging type and assign a label to each element corresponding to the input packaging type. In addition, if a person or the like is captured in the coil image, the coil image may be invalidated and not used for processing. In addition, when determining the packaging type, multiple judgments may be made using multiple images of the same object, and if the packaging types in the judgment results match, or if the degree of match exceeds a predetermined threshold, the judgment result may be determined to be correct.

ここで、判定部204による判定処理を、結束数、内リング部材、外リング部材の順で行った場合、図4に例示した判定情報に基づく梱包済みコイルの梱包型式の判定過程は、図7に示すようになる。図7においては、梱包型式が特定できる判定結果を実線で示し、梱包型式が特定できない判定結果を破線で示している。 Here, when the determination process by the determination unit 204 is performed in the order of the number of bundles, the inner ring member, and the outer ring member, the process of determining the packaging type of the packed coil based on the determination information exemplified in FIG. 4 is as shown in FIG. 7. In FIG. 7, the determination results in which the packaging type can be identified are shown by solid lines, and the determination results in which the packaging type cannot be identified are shown by dashed lines.

判定部204による判定処理を、結束数、内リング部材、外リング部材の順で行った場合、図7に701で示したように、結束数の判定結果が4であり、内リング部材の判定結果がBであると、外リング部材の判定結果にかかわらず、梱包済みコイルの梱包型式は特定できずに未知の型式とされる。そこで、図7に示した例のように、判定処理の結果が梱包済みコイルの梱包型式が特定できない状態となった場合には、それ以降の判定処理を行わないようにして処理量を低減するようにしてもよい。 When the determination process by the determination unit 204 is performed in the order of number of bundles, inner ring member, and outer ring member, as shown in 701 in FIG. 7, if the determination result of the number of bundles is 4 and the determination result of the inner ring member is B, regardless of the determination result of the outer ring member, the packaging type of the packed coil cannot be identified and is considered to be an unknown type. Therefore, as in the example shown in FIG. 7, when the result of the determination process is such that the packaging type of the packed coil cannot be identified, it is possible to reduce the amount of processing by not performing subsequent determination processes.

この場合、情報処理装置100は、例えば図8に示すように判定フェーズの処理を実行すればよい。図8は、本実施形態における情報処理装置100の他の処理例を示すフローチャートである。なお、学習フェーズの処理は前述した実施形態と同様であるので、図8には判定フェーズでの処理のみを示している。 In this case, the information processing device 100 may execute the process of the judgment phase, for example, as shown in FIG. 8. FIG. 8 is a flowchart showing another example of the process of the information processing device 100 in this embodiment. Note that the process of the learning phase is similar to that in the previously described embodiment, so FIG. 8 shows only the process in the judgment phase.

図8に示すように、ステップS801にて、画像取得部201は、判定対象のコイル画像を取得する。次に、ステップS802にて、判定部204は、判定対象のコイル画像と結束数を判定するための学習済みモデルとを用いて判定処理を行い、判定対象のコイル画像での梱包済みコイルにおける結束数を判定する。次に、ステップS803にて、判定部204は、判定結果として得られた結束数となる型式の候補があるか否かを判定する。判定部204は、判定結果として得られた結束数となる型式の候補があると判定した場合にはステップS804へ進み、型式の候補がないと判定した場合には未知の型式と判定してステップS809へ進む。 As shown in FIG. 8, in step S801, the image acquisition unit 201 acquires a coil image to be determined. Next, in step S802, the determination unit 204 performs a determination process using the coil image to be determined and a trained model for determining the bundling number, and determines the bundling number of the packed coil in the coil image to be determined. Next, in step S803, the determination unit 204 determines whether or not there is a candidate type for the bundling number obtained as the determination result. If the determination unit 204 determines that there is a candidate type for the bundling number obtained as the determination result, the process proceeds to step S804, and if it determines that there is no candidate type, the determination unit 204 determines that the type is unknown and proceeds to step S809.

ステップS804にて、判定部204は、判定対象のコイル画像と内リング部材を判定するための学習済みモデルとを用いて判定処理を行い、判定対象のコイル画像での梱包済みコイルにおける内リング部材を判定する。次に、ステップS805にて、判定部204は、判定結果として得られた結束数及び内リング部材の組み合わせとなる型式の候補があるか否かを判定する。判定部204は、判定結果として得られた結束数及び内リング部材の組み合わせとなる型式の候補があると判定した場合にはステップS806へ進み、型式の候補がないと判定した場合には未知の型式と判定してステップS809へ進む。 In step S804, the determination unit 204 performs a determination process using the coil image to be determined and a trained model for determining the inner ring member, and determines the inner ring member in the packed coil in the coil image to be determined. Next, in step S805, the determination unit 204 determines whether there is a candidate type for the combination of the number of bundles and the inner ring member obtained as the determination result. If the determination unit 204 determines that there is a candidate type for the combination of the number of bundles and the inner ring member obtained as the determination result, the process proceeds to step S806, and if it determines that there is no candidate type, the determination unit 204 determines that the type is unknown and proceeds to step S809.

ステップS806にて、判定部204は、判定対象のコイル画像と外リング部材を判定するための学習済みモデルとを用いて判定処理を行い、判定対象のコイル画像での梱包済みコイルにおける外リング部材を判定する。次に、ステップS807にて、判定部204は、判定結果として得られた結束数、内リング部材、及び外リング部材の組み合わせとなる型式の候補があるか否かを判定する。判定部204は、判定結果として得られた結束数、内リング部材、及び外リング部材の組み合わせとなる型式の候補があると判定した場合にはステップS808へ進み、型式の候補がないと判定した場合には未知の型式と判定してステップS809へ進む。 In step S806, the determination unit 204 performs a determination process using the coil image to be determined and a trained model for determining the outer ring member, and determines the outer ring member in the packed coil in the coil image to be determined. Next, in step S807, the determination unit 204 determines whether there is a candidate type for the combination of the number of bundles, inner ring member, and outer ring member obtained as the determination result. If the determination unit 204 determines that there is a candidate type for the combination of the number of bundles, inner ring member, and outer ring member obtained as the determination result, the process proceeds to step S808, and if it determines that there is no candidate type, the determination unit 204 determines that the type is unknown and proceeds to step S809.

ステップS808にて、判定部204は、前述したステップS802、S804、S806での判定処理により得られた判定結果に基づいて、判定対象のコイル画像に含まれる梱包済みコイルの梱包型式を判定する。判定部204は、前述した判定処理により得られた判定結果の組み合わせと、判定情報(判定テーブル)とを比較して、判定対象のコイル画像での梱包済みコイルの梱包型式を判定する。 In step S808, the determination unit 204 determines the packaging type of the packed coil included in the coil image to be determined based on the determination results obtained by the determination processes in steps S802, S804, and S806 described above. The determination unit 204 compares the combination of the determination results obtained by the determination processes described above with the determination information (determination table) to determine the packaging type of the packed coil in the coil image to be determined.

ステップS809において、梱包済みコイルの梱包型式についての追加学習が必要であるか否かを判定する。追加学習が必要であると判定した場合には、ステップS810にて、追加学習に係る処理を行い、追加学習が不要であると判定した場合には、判定フェーズの処理を終了する。このように判定結果の組み合わせに該当する型式の候補がない場合には、以降の判定処理を行わないことで、処理量を低減することができる。 In step S809, it is determined whether or not additional learning is required regarding the packaging type of the packed coil. If it is determined that additional learning is required, processing related to the additional learning is performed in step S810, and if it is determined that additional learning is not required, the processing of the determination phase is terminated. In this way, if there are no candidate types that match the combination of determination results, the subsequent determination processing is not performed, thereby reducing the amount of processing.

なお、判定処理を、結束数、内リング部材、外リング部材の順で行う場合を説明したが、これは一例であり、判定処理の実行順序は、梱包済みコイルの判定情報に基づいて、処理量を低減できる適切な順序となるように設定すればよい。 Note that, although the judgment process has been described as being performed in the order of number of bundles, inner ring member, and outer ring member, this is merely an example, and the execution order of the judgment process can be set to an appropriate order that reduces the amount of processing, based on the judgment information of the packed coils.

前述した実施形態に対して、対象の梱包済みコイルを物体検出して画像から検出部位を切り出す方法や、梱包の部材を物体検出した抽出する方法などを適用するようにしてもよい。これらの方法を組み合わせることで、画像認識の認識精度の向上を図ることが可能となる。 A method of detecting the target packed coil as an object and extracting the detected portion from the image, or a method of detecting and extracting the packaging components as an object, may be applied to the above-described embodiment. By combining these methods, it is possible to improve the recognition accuracy of image recognition.

また、対象の梱包済みコイルの大きさが判定結果に影響を及ぼさない画像の学習について、大小さまざまな画像を学習させることにより、大きさによる違いがないことや周囲に写っている他の装置等がノイズであることを認識させてもよい。この場合、大小さまざまなサイズの画像を用意する必要があるため、画像処理や物体検出等で画像に占める対象物の大きさが常に同じになるように切り出して学習し、同様の処理を施した画像に対して判定処理を行うようにすれば、大小さまざまな画像を用意して大きさによる違いがないことを認識させる必要がないため、より少ない教師データでも効果を得ることができる。 In addition, when learning images in which the size of the target packed coil does not affect the judgment result, images of various sizes may be trained to recognize that there is no difference due to size and that other devices appearing in the vicinity are noise. In this case, since it is necessary to prepare images of various sizes, it is possible to cut out and learn images so that the size of the target object in the image is always the same using image processing or object detection, and to perform judgment processing on images that have been similarly processed, eliminating the need to prepare images of various sizes to recognize that there is no difference due to size, and thus achieving results with less training data.

また、情報処理装置100での画像認識による判定結果とユーザ(人)による判定結果とを組み合わせて型式の判定を行う場合、情報処理装置100において、入力されたユーザによる判定結果とは異なる判定結果となったときには判定結果が相違している旨をユーザに報知するようにしてもよい。 In addition, when determining the type by combining the determination result by image recognition in the information processing device 100 and the determination result by the user (person), the information processing device 100 may be configured to notify the user that the determination results are different when the determination result differs from the inputted user determination result.

なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above embodiments are merely examples of the implementation of the present invention, and the technical scope of the present invention should not be interpreted in a limiting manner based on these. In other words, the present invention can be implemented in various forms without departing from its technical concept or main features.

100 情報処理装置
101 CPU
102 主記憶装置
103 補助記憶装置
104 入力I/F
105 出力I/F
106 ネットワークI/F
107 システムバス
201 画像取得部
202 ラベル付与部
203 モデル生成部
204 判定部
205 記憶部
100 Information processing device 101 CPU
102 Main memory device 103 Auxiliary memory device 104 Input I/F
105 Output I/F
106 Network I/F
107 System bus 201 Image acquisition unit 202 Labeling unit 203 Model generation unit 204 Determination unit 205 Storage unit

Claims (13)

画像認識による型式の判定処理に用いる学習済みモデルを生成する情報処理装置であって、
対象となる被写体を含む複数の第1の画像を取得する画像取得手段と、
取得された前記第1の画像のそれぞれに対して、前記第1の画像に含まれる前記被写体に係る複数の要素についてのラベルを付与するラベル付与手段と、
前記ラベルが付与された前記第1の画像に基づいて前記要素毎の前記学習済みモデルを生成するモデル生成手段と
生成された前記要素毎の前記学習済みモデルに基づいて前記型式の判定処理を行う被写体を含む第2の画像の各要素を判定し、前記各要素の判定結果の組み合わせと、前記型式との対応を示す判定情報を用いて、各要素の判定結果の組み合わせに対応する前記型式を判定する判定手段とを有することを特徴とする情報処理装置。
An information processing device that generates a trained model used in a type determination process by image recognition,
an image capture means for capturing a plurality of first images including a subject of interest;
A labeling means for assigning labels to each of the acquired first images with respect to a plurality of elements related to the subject included in the first images;
A model generation means for generating the trained model for each of the elements based on the first image to which the label is assigned ;
and a determination means for determining each element of a second image including a subject for which the type determination process is performed based on the generated trained model for each of the elements, and determining the type corresponding to the combination of the determination results of each element using determination information indicating a correspondence between the combination of the determination results of each element and the type .
前記判定手段は、同一の被写体を含む複数の前記第2の画像を用いて複数回の前記判定処理を行うことを特徴とする請求項1に記載の情報処理装置。The information processing apparatus according to claim 1 , wherein the determining unit performs the determination process a plurality of times using a plurality of the second images including the same subject. 複数の要素毎の学習済みモデルを用いて判定対象の画像における各要素の判定を行い得られた各要素の判定結果の組み合わせから型式を特定する、画像認識による型式の判定処理に用いる前記学習済みモデルを生成する情報処理装置であって、An information processing device that generates a trained model used in a type determination process by image recognition, the trained model being used to determine each element in an image to be determined using a trained model for each element, and identifying a type from a combination of the determination results of each element obtained,
対象となる被写体を含む複数の第1の画像を取得する画像取得手段と、an image capture means for capturing a plurality of first images including a subject of interest;
取得された前記第1の画像のそれぞれに対して、前記第1の画像に含まれる前記被写体に係る複数の要素についてのラベルを付与するラベル付与手段と、A labeling means for assigning labels to each of the acquired first images with respect to a plurality of elements related to the subject included in the first images;
前記ラベルが付与された前記第1の画像に基づいて前記要素毎の前記学習済みモデルを生成するモデル生成手段とを有することを特徴とする情報処理装置。and a model generation means for generating the trained model for each of the elements based on the first image to which the label has been assigned.
前記ラベル付与手段は、前記第1の画像に対して付与する各要素のラベルの情報の入力を受け付けて前記ラベルを付与することを特徴とする請求項1~3の何れか1項に記載の情報処理装置。 4. The information processing apparatus according to claim 1 , wherein the labeling means receives input of information on a label of each element to be assigned to the first image, and assigns the label. 前記ラベル付与手段は、前記第1の画像における前記被写体の型式を示す情報の入力を受け付けて、入力された前記型式を示す情報に対応する前記ラベルを付与することを特徴とする請求項1~3の何れか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 3, characterized in that the label assignment means accepts input of information indicating a type of the subject in the first image, and assigns the label corresponding to the input information indicating the type . 前記モデル生成手段は、前記ラベルが付与された前記第1の画像を用いて教師あり機械学習を行い前記学習済みモデルを生成することを特徴とする請求項1~の何れか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 5 , characterized in that the model generation means performs supervised machine learning using the first image to which the label has been assigned to generate the trained model. 前記モデル生成手段は、前記ラベルが付与された前記第1の画像を用いて深層学習を行い前記学習済みモデルを生成することを特徴とする請求項1~の何れか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 5 , wherein the model generation means performs deep learning using the first image to which the label has been assigned to generate the trained model. 前記被写体は梱包済みコイルであり、前記型式は前記梱包済みコイルの梱包型式であることを特徴とする請求項1~の何れか1項に記載の情報処理装置。 8. The information processing apparatus according to claim 1, wherein the subject is a packed coil, and the type is a packing type of the packed coil. 前記複数の要素は、前記梱包済みコイルにおける結束数、内リング部材、及び外リング部材のうちの少なくとも1つを含むことを特徴とする請求項に記載の情報処理装置。 The information processing device according to claim 8 , wherein the plurality of elements include at least one of a number of bundles, an inner ring member, and an outer ring member in the packed coil. 画像認識による型式の判定処理に用いる学習済みモデルを生成する情報処理装置の情報処理方法であって、
対象となる被写体を含む複数の第1の画像を取得する画像取得工程と、
取得された前記第1の画像のそれぞれに対して、前記第1の画像に含まれる前記被写体に係る複数の要素についてのラベルを付与するラベル付与工程と、
前記ラベルが付与された前記第1の画像に基づいて前記要素毎の前記学習済みモデルを生成するモデル生成工程と
生成された前記要素毎の前記学習済みモデルに基づいて前記型式の判定処理を行う被写体を含む第2の画像の各要素を判定し、前記各要素の判定結果の組み合わせと、前記型式との対応を示す判定情報を用いて、各要素の判定結果の組み合わせに対応する前記型式を判定する判定工程とを有することを特徴とする情報処理方法。
An information processing method of an information processing device that generates a trained model used in a type determination process by image recognition,
an image acquisition step of acquiring a plurality of first images including a subject of interest;
a labeling step of assigning labels to each of the acquired first images with respect to a plurality of elements related to the subject included in the first images;
A model generation process of generating the trained model for each of the elements based on the first image to which the label is assigned ;
An information processing method comprising: a determination step of determining each element of a second image including a subject for which a type determination process is performed based on the generated trained model for each of the elements; and determining the type corresponding to the combination of the determination results of each element using determination information indicating a correspondence between a combination of the determination results of each element and the type .
複数の要素毎の学習済みモデルを用いて判定対象の画像における各要素の判定を行い得られた各要素の判定結果の組み合わせから型式を特定する、画像認識による型式の判定処理に用いる前記学習済みモデルを生成する情報処理装置の情報処理方法であって、An information processing method of an information processing device that generates a trained model used in a type determination process by image recognition, the trained model being used to determine each element in an image to be determined using a trained model for each element, and identifying a type from a combination of the determination results of each element obtained,
対象となる被写体を含む複数の第1の画像を取得する画像取得工程と、an image acquisition step of acquiring a plurality of first images including a subject of interest;
取得された前記第1の画像のそれぞれに対して、前記第1の画像に含まれる前記被写体に係る複数の要素についてのラベルを付与するラベル付与工程と、a labeling step of assigning labels to each of the acquired first images with respect to a plurality of elements related to the subject included in the first images;
前記ラベルが付与された前記第1の画像に基づいて前記要素毎の前記学習済みモデルを生成するモデル生成工程とを有することを特徴とする情報処理方法。and a model generation step of generating the trained model for each of the elements based on the first image to which the label has been assigned.
画像認識による型式の判定処理に用いる学習済みモデルを生成する情報処理装置のコンピュータに、
対象となる被写体を含む複数の第1の画像を取得する画像取得ステップと、
取得された前記第1の画像のそれぞれに対して、前記第1の画像に含まれる前記被写体に係る複数の要素についてのラベルを付与するラベル付与ステップと、
前記ラベルが付与された前記第1の画像に基づいて前記要素毎の前記学習済みモデルを生成するモデル生成ステップと
生成された前記要素毎の前記学習済みモデルに基づいて前記型式の判定処理を行う被写体を含む第2の画像の各要素を判定し、前記各要素の判定結果の組み合わせと、前記型式との対応を示す判定情報を用いて、各要素の判定結果の組み合わせに対応する前記型式を判定する判定ステップとを実行させるためのプログラム。
A computer of an information processing device that generates a trained model used in a type determination process by image recognition,
an image acquisition step of acquiring a plurality of first images including a subject of interest;
a labeling step of assigning labels to each of the acquired first images with respect to a plurality of elements related to the subject included in the first images;
A model generation step of generating the trained model for each of the elements based on the first image to which the label is assigned ;
A program for executing a determination step of determining each element of a second image including a subject for which the type determination process is performed based on the generated trained model for each of the elements, and determining the type corresponding to the combination of the determination results of each element using determination information indicating the correspondence between the combination of the determination results of each element and the type .
複数の要素毎の学習済みモデルを用いて判定対象の画像における各要素の判定を行い得られた各要素の判定結果の組み合わせから型式を特定する、画像認識による型式の判定処理に用いる前記学習済みモデルを生成する情報処理装置のコンピュータに、A computer of an information processing device generates a trained model used in a type determination process by image recognition, the trained model being used to determine each element in an image to be determined using a trained model for each element, and identifying a type from a combination of the determination results of each element obtained,
対象となる被写体を含む複数の第1の画像を取得する画像取得ステップと、an image acquisition step of acquiring a plurality of first images including a subject of interest;
取得された前記第1の画像のそれぞれに対して、前記第1の画像に含まれる前記被写体に係る複数の要素についてのラベルを付与するラベル付与ステップと、a labeling step of assigning labels to each of the acquired first images with respect to a plurality of elements related to the subject included in the first images;
前記ラベルが付与された前記第1の画像に基づいて前記要素毎の前記学習済みモデルを生成するモデル生成ステップとを実行させるためのプログラム。and a model generation step of generating the trained model for each of the elements based on the first image to which the label has been assigned.
JP2020109666A 2020-06-25 2020-06-25 Information processing device, information processing method, and program Active JP7481173B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020109666A JP7481173B2 (en) 2020-06-25 2020-06-25 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020109666A JP7481173B2 (en) 2020-06-25 2020-06-25 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2022007021A JP2022007021A (en) 2022-01-13
JP7481173B2 true JP7481173B2 (en) 2024-05-10

Family

ID=80111152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020109666A Active JP7481173B2 (en) 2020-06-25 2020-06-25 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7481173B2 (en)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杉本昭彦,深層学習でクルマの写真から型式を特定 オークネットIBSが中古車ディーラー用システム,日経ビッグデータ,日経BP社,2016年11月10日,第33号,第11頁

Also Published As

Publication number Publication date
JP2022007021A (en) 2022-01-13

Similar Documents

Publication Publication Date Title
US10936911B2 (en) Logo detection
JP6161257B2 (en) Event detection apparatus and method, operation recognition apparatus and method, and program
JP2018151748A (en) Image processing device, image processing method, template generation device, object recognition processing device, and program
JP7316731B2 (en) Systems and methods for detecting and classifying patterns in images in vision systems
KR20190072074A (en) Malware detection system and method thereof
TW201123026A (en) Methods and systems for gesture recognition, and computer program products thereof
JP2019101919A (en) Information processor, information processing method, computer program, and storage medium
US8538171B2 (en) Method and system for object detection in images utilizing adaptive scanning
WO2023165616A1 (en) Method and system for detecting concealed backdoor of image model, storage medium, and terminal
US11455801B2 (en) Generating signatures within a network that includes a plurality of computing devices of varying processing capabilities
TW202004528A (en) Product specification device, program, and learning method
JP2013206458A (en) Object classification based on external appearance and context in image
US12020510B2 (en) Person authentication apparatus, control method, and non-transitory storage medium
Aly et al. Arabic sign language recognition using spatio-temporal local binary patterns and support vector machine
US10997407B2 (en) Detecting document objects
JP7481173B2 (en) Information processing device, information processing method, and program
CA3035387A1 (en) Digitization of industrial inspection sheets by inferring visual relations
JP7251078B2 (en) Image processing device and program
CN110751065B (en) Training data acquisition method and device
JP5084798B2 (en) Application state recognition method, apparatus and program
JP7473186B2 (en) Image processing device, image processing method, and program
Henderson et al. Reflection invariance: an important consideration of image orientation
US11741732B2 (en) Techniques for detecting text
JP7445364B2 (en) Image processing program, image processing method, and image processing device
US20220301314A1 (en) System and method for automated foreign material exclusion attendant

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240425

R150 Certificate of patent or registration of utility model

Ref document number: 7481173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150