JP7219023B2 - Information processing device and object determination program - Google Patents

Information processing device and object determination program Download PDF

Info

Publication number
JP7219023B2
JP7219023B2 JP2018119346A JP2018119346A JP7219023B2 JP 7219023 B2 JP7219023 B2 JP 7219023B2 JP 2018119346 A JP2018119346 A JP 2018119346A JP 2018119346 A JP2018119346 A JP 2018119346A JP 7219023 B2 JP7219023 B2 JP 7219023B2
Authority
JP
Japan
Prior art keywords
unit
image
extraction
classification
extraction unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018119346A
Other languages
Japanese (ja)
Other versions
JP2019220116A (en
Inventor
栄進 遠藤
淳 杉本
良太 井岡
誠一 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Zosen Corp
Original Assignee
Hitachi Zosen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Zosen Corp filed Critical Hitachi Zosen Corp
Priority to JP2018119346A priority Critical patent/JP7219023B2/en
Publication of JP2019220116A publication Critical patent/JP2019220116A/en
Application granted granted Critical
Publication of JP7219023B2 publication Critical patent/JP7219023B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、対象物を撮影した画像から当該対象物の分類カテゴリを判定する情報処理装置等に関する。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus and the like for determining a classification category of an object from an image of the object.

対象物を撮像した画像から、対象物を検出する技術や、検出した対象物を分類する技術が従来から知られている。例えば、下記の特許文献1には、商品を撮像した画像から商品の種別および商品に付された値引きシールの情報を認識することにより、故意または過誤により誤った値引きシールが付されていることを検出する商品登録装置が記載されている。 2. Description of the Related Art Techniques for detecting objects from captured images of the objects and techniques for classifying the detected objects are conventionally known. For example, in Patent Document 1 below, by recognizing the type of product and the information on the discount sticker attached to the product from an image of the product, it is possible to identify whether a wrong discount sticker is attached intentionally or by mistake. A product registration device for detection is described.

特開2016-177419号公報JP 2016-177419 A

一般に、値引きシールのサイズは、商品のサイズと比べれば小さいものであり、このため、撮像された画像の画像領域全体に占める、値引きシールが写っている領域の割合は低いものとなる。それゆえ、上述のような従来技術には、値引きシールを高精度に認識することが難しいという問題がある。また、このような問題は、値引きシールの内容認識を行う装置に限られず、対象物が画像の一部分に写っている画像に基づいて当該対象物を識別あるいは分類する装置に共通して生じる課題である。 In general, the size of the discount sticker is smaller than the size of the product, so the ratio of the area showing the discount sticker to the entire image area of the captured image is low. Therefore, the conventional technology as described above has a problem that it is difficult to recognize the discount sticker with high accuracy. Moreover, such a problem is not limited to devices for recognizing the content of discount stickers, but is common to devices that identify or classify objects based on images in which the objects are part of the image. be.

本発明の一態様は、上記の問題点に鑑みてなされたものであり、その目的は、画像に写る対象物の分類精度を従来よりも向上させることが可能な情報処理装置等を実現することを目的とする。 An aspect of the present invention has been made in view of the above problems, and an object thereof is to realize an information processing apparatus and the like capable of improving classification accuracy of an object appearing in an image as compared with conventional ones. With the goal.

上記の課題を解決するために、本発明の一態様に係る情報処理装置は、対象物を撮影した対象画像から、当該対象物の分類カテゴリが、所定の複数の分類カテゴリの何れに該当するかを判定する情報処理装置であって、機械学習の結果に基づき、上記対象画像から上記対象物が写っている領域を抽出して部分画像を生成する機械学習抽出部と、機械学習の結果に基づき、上記部分画像から上記対象物の分類カテゴリを判定する分類部と、を備えている。 In order to solve the above problems, an information processing apparatus according to an aspect of the present invention determines which of a plurality of predetermined classification categories a classification category of a target object corresponds to from a target image obtained by photographing the target object. a machine learning extraction unit for extracting a region in which the target object is shown from the target image based on the result of machine learning to generate a partial image; and based on the result of machine learning, and a classification unit for determining a classification category of the object from the partial image.

また、本発明の一態様に係る判定方法は、上記の課題を解決するために、1または複数の装置により、対象物を撮影した対象画像から、当該対象物の分類カテゴリが、所定の複数の分類カテゴリの何れに該当するかを判定する判定方法であって、機械学習の結果に基づき、上記対象画像から上記対象物が写っている領域を抽出して部分画像を生成する抽出ステップと、機械学習の結果に基づき、上記部分画像から上記対象物の分類カテゴリを判定する分類ステップと、を含む。 Further, in order to solve the above problems, a determination method according to an aspect of the present invention uses one or a plurality of devices to classify an object into a plurality of predetermined classification categories from target images obtained by photographing the object. A determination method for determining which classification category the object belongs to, comprising: an extraction step of extracting a region in which the target object is captured from the target image to generate a partial image based on the results of machine learning; and a classification step of determining a classification category of the object from the partial image based on the learning result.

本発明の一態様によれば、画像に写る対象物の分類精度を従来よりも向上させることが可能になる。 According to one aspect of the present invention, it is possible to improve the classification accuracy of an object appearing in an image as compared with the conventional art.

本発明の一実施形態に係る判定装置の要部構成の一例を示すブロック図である。1 is a block diagram showing an example of a main configuration of a determination device according to one embodiment of the present invention; FIG. 食品生産工場において、生産された食品を判定装置の判定対象物として撮影した例を示す図である。FIG. 10 is a diagram showing an example in which food produced in a food production factory is photographed as an object to be judged by the judgment device; 上記判定装置が実行する判定処理の一例を示すフローチャートである。It is a flow chart which shows an example of the judgment processing which the above-mentioned judgment device performs. 上記判定装置の判定結果の表示例を示す図である。It is a figure which shows the example of a display of the determination result of the said determination apparatus. 上記判定装置が、新規対象物画像が所定数以上記憶されたことを契機として開始する機械学習に関する処理の一例を示すフローチャートである。4 is a flow chart showing an example of processing related to machine learning, which is started by the determination device when a predetermined number or more of new object images are stored. 機械学習に関する処理において表示装置に表示させる画像例を示す図である。FIG. 10 is a diagram showing an example of an image displayed on a display device in processing related to machine learning;

〔判定システムの概要〕
本発明の一実施形態について図1~図6に基づいて説明する。まず、本実施形態に係る判定装置(情報処理装置)1の概要を図1に基づいて説明する。図1は、判定装置1の要部構成の一例を示すブロック図である。
[Outline of Judgment System]
An embodiment of the present invention will be described with reference to FIGS. 1 to 6. FIG. First, an overview of a determination device (information processing device) 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing an example of the main configuration of the determination device 1. As shown in FIG.

判定装置1は、複数の対象物をそれぞれ撮影した画像201から各対象物の分類カテゴリを判定する。詳細は以下説明するが、判定装置1は、まず画像201において対象物が写っている領域を機械学習結果に基づいて抽出し、次に抽出した領域の部分画像から上記対象物の分類カテゴリを機械学習結果に基づいて判定するという特徴的構成を備えている。これにより、対象物の分類カテゴリを高精度に判定することができる。また、詳細は以下説明するが、判定装置1は、上記の機械学習に用いる訓練データの生成に関する特徴点も有している。 The determination device 1 determines the classification category of each object from images 201 obtained by photographing a plurality of objects. Although the details will be described below, the determination device 1 first extracts a region in which the object appears in the image 201 based on the results of machine learning, and then automatically classifies the classification category of the object from a partial image of the extracted region. It has a characteristic configuration of making decisions based on learning results. As a result, the classification category of the object can be determined with high accuracy. In addition, although the details will be described below, the determination device 1 also has a characteristic point related to the generation of training data used for the above machine learning.

判定装置1は、判定装置1の各部を統括して制御する制御部10、および、判定装置1が使用する各種データを記憶する記憶部20を備えている。また、判定装置1は、判定装置1に対するデータの入力を受け付ける入力部30、判定装置1が他の装置と通信するための通信部40、および判定装置1がデータを出力するための出力部50を備えている。 The determination device 1 includes a control unit 10 that controls all units of the determination device 1 and a storage unit 20 that stores various data used by the determination device 1 . The determination device 1 also includes an input unit 30 for receiving data input to the determination device 1, a communication unit 40 for the determination device 1 to communicate with other devices, and an output unit 50 for the determination device 1 to output data. It has

制御部10には、画像取得部101、第1抽出部(抽出部)102、第2抽出部(機械学習抽出部)103、抽出成否判定部104、分類部105、分類成否判定部106、目視判定部107、合否判定部108、学習部109、抽出精度判定部110、画像加工部111、訓練データ生成部(分類部訓練データ生成部、抽出部訓練データ生成部)112、および領域入力受付部113が含まれている。また、記憶部20には、画像(対象画像)201、新規対象物画像(訓練用画像)202、分類部訓練データセット203、および抽出部訓練データセット204が記憶されている。 The control unit 10 includes an image acquisition unit 101, a first extraction unit (extraction unit) 102, a second extraction unit (machine learning extraction unit) 103, an extraction success/failure determination unit 104, a classification unit 105, a classification success/failure determination unit 106, and visual inspection. Determination unit 107, pass/fail determination unit 108, learning unit 109, extraction accuracy determination unit 110, image processing unit 111, training data generation unit (classification unit training data generation unit, extraction unit training data generation unit) 112, and region input reception unit 113 are included. The storage unit 20 also stores an image (target image) 201 , a new target object image (training image) 202 , a classification unit training data set 203 , and an extraction unit training data set 204 .

画像取得部101は、判定装置1による判定の対象物を撮影した画像を取得する。本実施形態では、対象物を撮影した画像は、入力部30を介して判定装置1に入力されて、記憶部20に画像201として記憶される。このため、画像取得部101は、記憶部20から画像201を取得する。無論、画像取得部101が画像201を取得する方法は特に限定されない。例えば、画像取得部101は、撮像装置を制御して対象物を撮像させ、当該撮像装置から画像201を取得してもよい。 The image acquisition unit 101 acquires a photographed image of an object for determination by the determination device 1 . In this embodiment, an image obtained by photographing an object is input to the determination device 1 via the input unit 30 and stored in the storage unit 20 as an image 201 . Therefore, the image acquisition unit 101 acquires the image 201 from the storage unit 20 . Of course, the method by which the image acquisition unit 101 acquires the image 201 is not particularly limited. For example, the image acquisition unit 101 may control an imaging device to capture an image of an object and acquire the image 201 from the imaging device.

第1抽出部102は、第2抽出部103および分類部105の機械学習用の訓練データの元になる画像である新規対象物画像202から対象物が写っている領域を抽出して部分画像を生成する。なお、領域抽出(例えば対象物が写っている領域を示す座標値の出力)と、部分画像の生成を別のブロックで実行するようにしてもよい。第1抽出部102は、第2抽出部103と同様に、画像から対象物が写っている領域を抽出して部分画像を生成する機能を有しているが、抽出の手法が第2抽出部103とは異なっている。第1抽出部102の抽出手法は、第2抽出部103では領域抽出が難しい画像からの抽出が可能なものであることが望ましい。例えば、第1抽出部102は、機械学習を行うことなく対象物の抽出を行うものであってもよい。本実施形態では、第1抽出部102が特徴点マッチングにより対象物を抽出する例を説明する。無論、これは一例であり、例えばパターンマッチング等他の手法を適用することも可能である。 The first extraction unit 102 extracts a region containing the object from the new object image 202, which is the original image of training data for machine learning of the second extraction unit 103 and the classification unit 105, and generates a partial image. Generate. It should be noted that area extraction (for example, output of coordinate values indicating an area in which an object is captured) and generation of partial images may be executed in separate blocks. Similar to the second extraction unit 103, the first extraction unit 102 has a function of extracting a region in which a target object is shown from an image and generating a partial image. 103 is different. It is desirable that the extraction method of the first extraction unit 102 is capable of extracting from an image from which it is difficult for the second extraction unit 103 to extract regions. For example, the first extraction unit 102 may extract the object without performing machine learning. In this embodiment, an example in which the first extraction unit 102 extracts a target object by feature point matching will be described. Of course, this is just an example, and other methods such as pattern matching can also be applied.

第2抽出部103は、機械学習の結果に基づき、画像201から対象物が写っている領域を抽出して部分画像を生成する。なお、領域抽出(例えば対象物が写っている領域を示す座標値の出力)と、部分画像の生成を別のブロックで実行するようにしてもよい。第2抽出部103を対象物の写り方(サイズ、向き、光の当り具合、ピント等)が異なる様々な画像で機械学習させておくことにより、対象物の写り方が変わっても高精度で対象物を抽出することができる。 The second extraction unit 103 extracts a region in which the target object is shown from the image 201 and generates a partial image based on the result of machine learning. It should be noted that area extraction (for example, output of coordinate values indicating an area in which an object is captured) and generation of partial images may be executed in separate blocks. By allowing the second extraction unit 103 to perform machine learning using various images in which the appearance of the object (size, orientation, lighting condition, focus, etc.) is different, even if the appearance of the object changes, high accuracy can be obtained. Objects can be extracted.

機械学習するアルゴリズムは特に限定されないが、高い判定精度が望まれる場合、ニューラルネットワーク等の機械学習アルゴリズムを利用することが好ましく、特に深層学習したニューラルネットワークにより判定を行うものとすることがより好ましい。本実施形態では、第2抽出部103としてYolo(You Only Look Once)を適用する例を説明する。なお、Yoloは、対象物が写っている領域を抽出する機能と、対象物を識別(分類)する機能とを備えているが、そのうち領域抽出機能のみを第2抽出部103として利用する。 The machine learning algorithm is not particularly limited, but when high determination accuracy is desired, it is preferable to use a machine learning algorithm such as a neural network, and in particular, it is more preferable to use a deep learning neural network for determination. In this embodiment, an example in which Yolo (You Only Look Once) is applied as the second extraction unit 103 will be described. Yolo has a function of extracting an area in which an object is captured and a function of identifying (classifying) the object.

抽出成否判定部104は、第1抽出部102による抽出が成功したか否かを判定する。また、抽出成否判定部104は、第2抽出部103による抽出が成功したか否かを判定する。具体的には、抽出成否判定部104は、抽出した領域の面積が、所定の範囲内であるか否かにより、抽出の成否を判定する。つまり、ここでは、画像201において対象物が占める面積がどの程度であるかが既知であることを想定している。なお、抽出の成否を判定する方法はこの例に限られない。例えば、抽出成否判定部104は、第1抽出部102の抽出結果を示す画像(例えば抽出元の画像に抽出領域を示す情報を重畳した画像)を表示装置に表示させ、その画像の閲覧者(目視検査員)に抽出成否を入力させることにより、抽出成否を判定してもよい。または、闘値を設け、第2抽出部103が算出する確度(抽出結果の確からしさ)が、上記闘値を上回るか下回るかで抽出の成否を判定してもよい。第2抽出部103による抽出の成否の判定も同様である。なお、第1抽出部102による抽出の成否と、第2抽出部103による抽出の成否を別のブロックで判定してもよい。 The extraction success/failure determination unit 104 determines whether or not the extraction by the first extraction unit 102 has succeeded. Also, the extraction success/failure determination unit 104 determines whether or not the extraction by the second extraction unit 103 has succeeded. Specifically, the extraction success/failure determining unit 104 determines success/failure of the extraction based on whether the area of the extracted region is within a predetermined range. In other words, it is assumed here that the area occupied by the object in the image 201 is already known. Note that the method of judging success or failure of extraction is not limited to this example. For example, the extraction success/failure determination unit 104 causes the display device to display an image indicating the extraction result of the first extraction unit 102 (for example, an image obtained by superimposing information indicating an extraction region on an extraction source image), and the viewer of the image ( The success or failure of the extraction may be determined by having a visual inspector) input the success or failure of the extraction. Alternatively, a threshold value may be provided, and the success or failure of extraction may be determined based on whether the accuracy (probability of extraction result) calculated by the second extraction unit 103 exceeds or falls below the threshold value. The same applies to the determination of success or failure of extraction by the second extraction unit 103 . The success or failure of the extraction by the first extraction unit 102 and the success or failure of the extraction by the second extraction unit 103 may be determined in separate blocks.

分類部105は、第2抽出部103が出力する部分画像に基づいて対象物の分類カテゴリを判定する。この判定は、画像と該画像に写る対象物の分類カテゴリとの対応関係を機械学習した結果に基づいて行われる。この機械学習には、複数の分類カテゴリのそれぞれに該当する対象物がそれぞれ写っている画像から当該対象物が写っている領域を抽出して生成された部分画像を訓練データとして用いることが好ましい。これにより、機械学習に対する対象物の背景の影響をゼロにするかまたは低減することができるので、分類部105の機械学習を短時間で完了させることが可能になると共に、背景を含む画像で機械学習させる場合よりも判定精度を高めることが可能になる。 The classification unit 105 determines the classification category of the object based on the partial images output by the second extraction unit 103 . This determination is made based on the result of machine learning of the correspondence relationship between the image and the classification category of the object appearing in the image. For this machine learning, it is preferable to use, as training data, partial images generated by extracting regions in which objects corresponding to a plurality of classification categories are captured from images in which the objects are captured. This makes it possible to eliminate or reduce the influence of the background of the object on machine learning. It is possible to improve the determination accuracy more than in the case of learning.

分類部105として適用可能なアルゴリズムは特に限定されないが、高い判定精度が望まれる場合、ニューラルネットワーク等の機械学習アルゴリズムを利用することが好ましく、特に深層学習したニューラルネットワーク(例えばResNet:Residual Network等)により判定を行うものとすることがより好ましい。本実施形態では分類部105が、部分画像を入力データとして、所定の複数の分類カテゴリのそれぞれのスコアを出力するResNetである例を説明する。このスコアは、部分画像に写る対象物が各分類カテゴリに該当する確度(確からしさ)を示す数値であり、スコアが最も高い分類カテゴリが、対象物の分類カテゴリとして最も確からしいということになる。したがって、スコアが最も高い分類カテゴリが分類部105の判定結果ということになる。 Algorithms that can be applied as the classification unit 105 are not particularly limited, but when high determination accuracy is desired, it is preferable to use a machine learning algorithm such as a neural network, particularly a deep learning neural network (for example, ResNet: Residual Network, etc.). It is more preferable that the determination is made by In this embodiment, an example will be described in which the classification unit 105 is a ResNet that uses partial images as input data and outputs scores for each of a plurality of predetermined classification categories. This score is a numerical value that indicates the degree of certainty (probability) that an object captured in a partial image corresponds to each classification category, and the classification category with the highest score is the most likely classification category for the object. Therefore, the classification category with the highest score is the determination result of the classification unit 105 .

分類成否判定部106は、分類部105の判定結果が所定の評価基準を満たしているか否かを判定する。具体的には、分類成否判定部106は、分類部105が出力するスコアと閾値とを比較することで評価基準を満たしているか否かを判定する。そして、分類成否判定部106は、分類部105が各分類カテゴリについて出力したスコアの何れもが評価基準を満たしていなければ分類部105の分類は失敗と判定し、評価基準を満たしているスコアがあれば分類成功と判定する。なお、分類カテゴリごとにスコアの精度が異なる場合、分類成否判定部106は、各分類カテゴリに応じた値の閾値を用いることが好ましい。 The classification success/failure determination unit 106 determines whether the determination result of the classification unit 105 satisfies a predetermined evaluation criterion. Specifically, the classification success/failure determination unit 106 determines whether or not the evaluation criteria are satisfied by comparing the score output by the classification unit 105 with a threshold value. Then, the classification success/failure determination unit 106 determines that the classification by the classification unit 105 fails if none of the scores output by the classification unit 105 for each classification category satisfies the evaluation criteria. If there is, it is determined that the classification is successful. Note that if the score accuracy differs for each classification category, the classification success/failure determination unit 106 preferably uses a threshold value corresponding to each classification category.

目視判定部107は、画像201に写る対象物が所定の分類カテゴリの何れにも該当しない場合、画像201を表示装置に表示させて、目視検査員による分類カテゴリの入力を受け付けることにより、対象物の分類カテゴリを判定する。また、目視判定部107は、分類成否判定部106が、分類部105の判定結果の確度が閾値未満であると判定した場合にも同様にして対象物の分類カテゴリを判定する。 When the object shown in the image 201 does not correspond to any of the predetermined classification categories, the visual judgment unit 107 displays the image 201 on the display device and accepts the input of the classification category by the visual inspector. determine the classification category of The visual determination unit 107 similarly determines the classification category of the object when the classification success/failure determination unit 106 determines that the accuracy of the determination result of the classification unit 105 is less than the threshold.

なお、本実施形態では、上記表示装置が、目視検査員が使用する目視検査端末に接続された(または目視検査端末が備える)表示装置である例を説明する。目視検査端末は、目視検査員の入力を受け付けて、その入力内容を判定装置1に有線または無線通信で通知する。よって、目視判定部107は、通信部40を介してこの通知を受信することにより、対象物の分類カテゴリを判定する。目視検査端末は、対象物がある施設(例えば、対象物が工場で生産される製品であれば工場内)に配置されていてもよいし、当該施設外に配置されていてもよく、据え置き型の装置であってもよいし、携帯型の装置であってもよい。また、目視検査端末および目視検査員の数は、複数であってもよい。 In this embodiment, an example will be described in which the display device is a display device connected to (or equipped with) a visual inspection terminal used by a visual inspector. The visual inspection terminal accepts the input of the visual inspector and notifies the determination device 1 of the input content by wire or wireless communication. Therefore, the visual determination unit 107 determines the classification category of the object by receiving this notification via the communication unit 40 . The visual inspection terminal may be placed in a facility where the object is located (for example, in the factory if the object is a product produced in a factory) or outside the facility. device or a portable device. Moreover, the number of visual inspection terminals and visual inspectors may be plural.

なお、目視検査員が、対象物自体を目視できるのであれば、目視判定部107は、対象物を目視した目視検査員による対象物の分類カテゴリの入力を受け付けることにより、対象物の分類カテゴリを判定してもよい。この場合、表示装置に画像201を表示させる必要はない。また、上記入力は目視検査端末で受け付けて判定装置1に送信する構成としてもよいし、入力部30で受け付ける構成としてもよい。 Note that if the visual inspector can visually see the object itself, the visual determination unit 107 receives the input of the classification category of the object by the visual inspector who visually inspects the object, and determines the classification category of the object. You can judge. In this case, it is not necessary to display the image 201 on the display device. Further, the input may be received by the visual inspection terminal and transmitted to the determination device 1 or may be received by the input unit 30 .

合否判定部108は、分類部105の判定結果と、画像201に本来写っているべき対象物を示す情報を照合して、画像201に写る対象物の合否を判定する。合否判定部108は、例えば、後述する図2の例のように生産ライン600にて食品601が搬送される場合に、食品601に正しいラベル6011が貼り付けられているかを確認するために用いられる。 A pass/fail determination unit 108 collates the determination result of the classification unit 105 with information indicating an object that should be captured in the image 201 to determine whether the object is captured in the image 201 . The pass/fail determination unit 108 is used, for example, to confirm whether the correct label 6011 is attached to the food 601 when the food 601 is conveyed in the production line 600 as in the example of FIG. 2 described later. .

例えば、「XXファーム 和牛」と印字されたラベル6011を貼り付けた食品601搬送しているときに撮影された画像201に基づき、分類部105が「XXファーム 和牛」のラベルと判定した場合には、正しいラベル6011が貼り付けられている。よって、この場合には、合否判定部108は、合格と判定する。一方、この場合に、分類部105が「XXファーム 黒豚」のラベルと判定した場合には、誤ったラベル6011が貼り付けられた食品601が搬送されているので、合否判定部108は不合格と判定する。これにより、誤ったラベル6011が貼り付けられた食品601が搬送されているのを自動で検出することが可能になる。なお、このような検出が不要であれば、合否判定部108を省略してもよい。 For example, if the classification unit 105 determines that the label is "XX Farm Wagyu" based on the image 201 captured while transporting the food 601 to which the label 6011 printed with "XX Farm Wagyu" is attached, , the correct label 6011 is affixed. Therefore, in this case, the pass/fail determination unit 108 determines that the application has passed. On the other hand, in this case, when the classification unit 105 determines that the label is “XX farm black pig”, the food 601 is conveyed with the wrong label 6011 attached, so the pass/fail determination unit 108 fails. I judge. This makes it possible to automatically detect that the food 601 with the wrong label 6011 is being conveyed. If such detection is unnecessary, the pass/fail determination unit 108 may be omitted.

学習部109は、抽出精度判定部110が算出する評価値(詳細は後述)に基づいて第2抽出部103の再学習を行うタイミングを決定し、決定したタイミングで第2抽出部103の再学習を行う。第2抽出部103の再学習には、抽出部訓練データセット204に記憶されている訓練データ(抽出部訓練データ)を用いる。また、学習部109は、分類部訓練データセット203に記憶されている訓練データ(分類部訓練データ)を用いて、分類部105の再学習を行う。なお、再学習を行うタイミングの決定と、再学習を行う処理とは別のブロックで実行するようにしてもよい。また、分類部105の再学習を学習部109とは別のブロックで実行するようにしてもよい。 The learning unit 109 determines the timing for re-learning the second extraction unit 103 based on the evaluation value (details will be described later) calculated by the extraction accuracy determination unit 110, and re-learns the second extraction unit 103 at the determined timing. I do. For re-learning of the second extraction unit 103, training data (extraction unit training data) stored in the extraction unit training data set 204 is used. Also, the learning unit 109 re-learns the classifying unit 105 using the training data (classifying unit training data) stored in the classifying unit training data set 203 . Note that the determination of the timing of re-learning and the processing of re-learning may be executed in separate blocks. Also, the re-learning of the classifying unit 105 may be performed by a block separate from the learning unit 109 .

抽出精度判定部110は、第1抽出部102の抽出結果と第2抽出部103の抽出結果に基づいて第2抽出部の抽出精度の評価値を算出する。この評価値は、第2抽出部の抽出精度を示すものであればよい。本実施形態では、抽出精度判定部110が、第1抽出部102が新規対象物画像202から抽出した領域と、第2抽出部103が新規対象物画像202から抽出した領域との重なり合いの程度を示す評価値(IoU:Intersection over Union)を算出する例を説明する。IoUは、第1抽出部102が抽出した領域と、第2抽出部が抽出した領域とが完全に重なっていれば100(%)、全く重なっていなければ0(%)となる。なお、人の手間が増える点が許容できるのであれば、第1抽出部102の抽出結果を用いる代わりに、目視検査員が対象物の写る領域を抽出した結果と、第2抽出部103の抽出結果に基づいてIoUを算出してもよい。 The extraction accuracy determination unit 110 calculates an evaluation value of the extraction accuracy of the second extraction unit based on the extraction result of the first extraction unit 102 and the extraction result of the second extraction unit 103 . This evaluation value may indicate the extraction accuracy of the second extraction unit. In this embodiment, the extraction accuracy determination unit 110 determines the degree of overlap between the region extracted from the new object image 202 by the first extraction unit 102 and the region extracted from the new object image 202 by the second extraction unit 103. An example of calculating an evaluation value (IoU: Intersection over Union) will be described. IoU is 100(%) if the region extracted by the first extraction unit 102 and the region extracted by the second extraction unit completely overlap, and 0(%) if they do not overlap at all. Note that if the increase in human labor is acceptable, instead of using the extraction result of the first extraction unit 102, the result of the visual inspector extracting the area where the object is captured and the extraction of the second extraction unit 103 The IoU may be calculated based on the results.

画像加工部111は、新規対象物画像202に所定の画像処理を施すことによって1または複数の画像を生成する。これにより、第2抽出部103の機械学習に用いる訓練用画像の数を増やし、第2抽出部103の再学習の効果を高めることができる。特に、対象物の写り方の変化に対する第2抽出部103の適応性を高めることができる。所定の画像処理は、新規対象物画像202とは異なる画像であって、第2抽出部103の訓練データとして使用可能な画像を生成するものであればよい。例えば、画像加工部111は、新規対象物画像202にアフィン変換(affine transformation)を施して、新規対象物画像202の内容は変えずに回転等の変換を加えた画像を生成してもよい。また、例えば、画像加工部111は、アフィン変換の代わりに、あるいはアフィン変換に加えて、輝度値やコントラスト等を変化させる画像処理を施してもよい。 The image processing unit 111 generates one or more images by performing predetermined image processing on the new object image 202 . As a result, the number of training images used for machine learning by the second extraction unit 103 can be increased, and the re-learning effect of the second extraction unit 103 can be enhanced. In particular, it is possible to enhance the adaptability of the second extraction unit 103 to changes in how the object is captured. The predetermined image processing may generate an image that is different from the new object image 202 and that can be used as training data for the second extraction unit 103 . For example, the image processing unit 111 may apply affine transformation to the new object image 202 to generate an image in which the new object image 202 is transformed such as by rotation without changing the content of the new object image 202 . Further, for example, the image processing unit 111 may perform image processing for changing the brightness value, contrast, etc. instead of or in addition to the affine transformation.

訓練データ生成部112は、訓練用画像(新規対象物画像202および新規対象物画像202を加工した画像)と第1抽出部102または領域入力受付部113が抽出した領域とを対応付けて、第2抽出部103の機械学習用の訓練データ(抽出部訓練データ)を生成する。また、訓練データ生成部112は、第1抽出部102が生成した部分画像と、該部分画像に写る対象物の分類カテゴリとを対応付けて、分類部105の機械学習用の訓練データ(分類部訓練データ)を生成する。なお、抽出部訓練データの生成と、分類部訓練データの生成を別のブロックで実行するようにしてもよい。 The training data generation unit 112 associates the training image (the new object image 202 and the image obtained by processing the new object image 202) with the region extracted by the first extraction unit 102 or the region input reception unit 113, 2 Generate training data for machine learning of the extraction unit 103 (extraction unit training data). Further, the training data generating unit 112 associates the partial image generated by the first extracting unit 102 with the classification category of the object appearing in the partial image, and trains the classification unit 105 for machine learning training data (classification unit training data). Note that the generation of the extraction unit training data and the generation of the classification unit training data may be executed in separate blocks.

領域入力受付部113は、第1抽出部102および第2抽出部103の何れによっても対象物が写った領域の抽出が困難である場合に、上述した目視検査端末の表示装置に画像を表示させて、その画像の閲覧者(目視検査員)による領域の入力を受け付ける。そして、領域入力受付部113は、入力された領域を抽出して部分画像を生成する。なお、領域抽出と、部分画像の生成を別のブロックで実行するようにしてもよい。 When it is difficult for both the first extraction unit 102 and the second extraction unit 103 to extract the area in which the object is captured, the area input reception unit 113 causes the display device of the visual inspection terminal described above to display an image. to accept the input of the region by the viewer (visual inspector) of the image. Then, the area input reception unit 113 extracts the input area and generates a partial image. Region extraction and partial image generation may be performed in separate blocks.

画像201は、上述のとおり、判定の対象物を撮影した画像である。また、新規対象物画像202は、判定の対象物を撮影した画像のうち、分類部105が学習済みの分類カテゴリの何れにも該当しない対象物、つまり新規(未学習)の対象物が写っている画像である。新規対象物画像202は、第2抽出部103および分類部105の訓練データとして用いられる。 The image 201 is a photographed image of the determination target, as described above. The new target object image 202 is a target object that does not correspond to any of the classification categories that the classification unit 105 has already learned, that is, a new (unlearned) target object. It is an image with The new object image 202 is used as training data for the second extraction unit 103 and the classification unit 105 .

分類部訓練データセット203は、分類部105の機械学習に用いる訓練データセットである。また、抽出部訓練データセット204は、第2抽出部103の機械学習に用いる訓練データセットである。 The classifier training data set 203 is a training data set used for machine learning of the classifier 105 . Also, the extraction unit training data set 204 is a training data set used for machine learning of the second extraction unit 103 .

〔判定装置の用途一例〕
判定装置1の用途は特に限定されないが、例えば食品生産工場の品質管理に利用することができる。これについて図2に基づいて説明する。図2は、食品生産工場において、生産された食品を判定装置1の判定対象物として撮影した例を示す図である。
[Example of use of determination device]
The use of the determination device 1 is not particularly limited, but it can be used for quality control in food production factories, for example. This will be described with reference to FIG. FIG. 2 is a diagram showing an example in which food produced in a food production factory is photographed as an object to be judged by the judgment device 1. As shown in FIG.

図2の(a)には、食品の生産ライン600の一部を示している。生産ライン600には、食品601を同図の白抜き矢印の方向に搬送する搬送部602が含まれている。また、搬送部602には、搬送部602の上方に撮像装置603を保持する撮像台604が設けられている。これにより、搬送部602にて搬送されている食品601を真上から撮影することができる。 FIG. 2(a) shows part of a food production line 600. As shown in FIG. The production line 600 includes a transport section 602 that transports food 601 in the direction of the white arrow in the figure. Further, the transport unit 602 is provided with an imaging table 604 that holds the imaging device 603 above the transport unit 602 . As a result, the food 601 being conveyed by the conveying section 602 can be photographed from directly above.

図2の(b)には、同図の(a)の撮像装置603で撮影された画像201の例を示している。この画像201には、パック詰めされた食肉である食品601が写っている。また、画像201には、食品601のパックに貼られたラベル6011と値札シール6012も写っている。ラベル6011は、食品601の標識として貼り付けられたものであり、例えば食品601の製造元、生産者、およびブランドの少なくとも何れかを示すものであってもよい。値札シール6012は、食品601の値段等を示すものであり、値札シール6012にはバーコード等も印字されている。 FIG. 2(b) shows an example of an image 201 taken by the imaging device 603 of FIG. 2(a). This image 201 shows food 601, which is packed meat. The image 201 also shows a label 6011 and a price tag sticker 6012 attached to the pack of food 601 . The label 6011 is affixed as an indicator of the food 601 and may indicate at least one of the manufacturer, producer, and brand of the food 601, for example. The price tag sticker 6012 indicates the price of the food 601 and the like, and a bar code or the like is also printed on the price tag sticker 6012 .

判定装置1により、生産ライン600上の食品601に貼られたラベル6011の種別を判定することにより、食品601に貼られたラベル6011が正しいか否かを確認することができる。図2の(b)の例のように、画像201に占めるラベル6011の領域は小さいが、判定装置1によれば、ラベル6011の領域を抽出した上で、ラベル6011の種別を判定するので、高精度な判定が可能になる。そして、これによりラベル6011の貼り間違えによる食品601の品質誤認等の問題の発生を未然に回避することができる。 By determining the type of the label 6011 attached to the food 601 on the production line 600 by the determination device 1, it is possible to confirm whether the label 6011 attached to the food 601 is correct. As in the example of FIG. 2B, although the area of the label 6011 occupying the image 201 is small, the determination apparatus 1 extracts the area of the label 6011 and determines the type of the label 6011. Highly accurate judgment becomes possible. As a result, it is possible to prevent problems such as misidentification of the quality of the food 601 due to incorrect attachment of the label 6011 .

なお、値札シール6012は、ラベル6011と外観が類似しているため、ラベル6011が写っている領域を精度よく抽出させるためには、ラベル6011と値札シール6012とを識別機能を判定装置1に持たせることが好ましい。 Since the price tag sticker 6012 is similar in appearance to the label 6011, in order to accurately extract the region where the label 6011 is shown, the determination device 1 should have a function of identifying the label 6011 and the price tag sticker 6012. It is preferable to

例えば、本実施形態では第2抽出部103としてYoloを利用しているが、Yoloには対象物を識別(分類)する機能があるから、この機能を利用して、抽出時に対象物の分類も行うようにしてもよい。この場合、判定装置1は、上記分類の結果がラベルである領域を抽出して部分画像を生成する。これにより、値札シール6012が写っている領域を誤って抽出しまうことを防ぎ、ラベル領域の抽出精度を高めることができる。なお、この場合、ラベル6011と値札シール6012とを分類できるように、使用するYoloについて予め機械学習を行っておく。 For example, in this embodiment, Yolo is used as the second extraction unit 103. Since Yolo has a function to identify (classify) objects, this function can be used to classify objects at the time of extraction. You can do it. In this case, the determination device 1 generates a partial image by extracting an area whose classification result is a label. As a result, it is possible to prevent the area where the price tag sticker 6012 is shown from being mistakenly extracted, and to improve the accuracy of extracting the label area. In this case, machine learning is performed in advance for the Yolo to be used so that the label 6011 and the price tag sticker 6012 can be classified.

また、例えば、分類部105(ResNet)をラベル6011と値札シール6012との分類ができるように機械学習しておいてもよい。この場合、第2抽出部103または第1抽出部102により、値札シール6012の領域が抽出されたとしても、分類部105にてその領域に写る対象物が値札シール6012であると分類されるので、ラベル6011の分類には影響がない。 Also, for example, the classification unit 105 (ResNet) may be machine-learned so that it can classify the label 6011 and the price tag sticker 6012 . In this case, even if the region of the price tag sticker 6012 is extracted by the second extraction unit 103 or the first extraction unit 102, the classification unit 105 classifies the object appearing in that region as the price tag sticker 6012. , label 6011 is unaffected.

この他にも、例えば値札シール6012またはラベル6011の位置(食品601が写っている領域内の位置)に基づいて、値札シール6012とラベル6011を識別することも可能である。例えば、値札シール6012を、食品601を真正面から見てその右下隅の位置に貼り付けることが決まっている場合、第1抽出部102および第2抽出部103は、食品601の右下隅以外の領域を対象としてラベル領域を抽出してもよい。また、例えばラベル6011を値札シールの対角(食品601の左上隅)の位置に貼り付けることが決まっている場合、第1抽出部102および第2抽出部103は、食品601の右上隅の領域からラベル領域を抽出してもよい。 Alternatively, the price tag sticker 6012 and the label 6011 can be identified, for example, based on the position of the price tag sticker 6012 or label 6011 (the position within the area where the food 601 is shown). For example, if it is decided that the price tag sticker 6012 should be attached to the lower right corner of the food 601 when viewed from the front, the first extraction unit 102 and the second extraction unit 103 extract the area other than the lower right corner of the food 601. may be extracted as a label region. Further, for example, if it is decided to affix the label 6011 to the diagonal position of the price tag sticker (the upper left corner of the food 601), the first extraction unit 102 and the second extraction unit 103 select the area of the upper right corner of the food 601. You may extract the label region from

〔判定処理の流れ〕
判定装置1が実行する判定処理の流れを図3に基づいて説明する。図3は、判定装置1が実行する判定処理(判定方法)の一例を示すフローチャートである。なお、以下では、パック詰めされた食品の表面に貼り付けられたラベルの分類カテゴリを判定装置1が判定する例を説明する。
[Flow of judgment processing]
The flow of determination processing executed by the determination device 1 will be described with reference to FIG. FIG. 3 is a flow chart showing an example of determination processing (determination method) executed by the determination device 1 . In the following, an example will be described in which the determination device 1 determines the classification category of the label attached to the surface of the packed food.

S1では、画像取得部101が、記憶部20に記憶されている画像201を取得する。この画像201は、例えば撮像装置603で撮影した食品601の画像であってもよい(図2参照)。また、合否判定部108は、上記ラベルの種類を示すラベルIDを取得する。なお、図2のような生産ライン600では、所定のラベルが貼り付けられた食品を搬送するので、搬送されている食品に貼り付けられたラベルのラベルIDを取得することができる。ただし、誤って他の種類のラベルが貼り付けられることがあり得るので、判定装置1による判定を行って、誤ったラベルが貼り付けられた食品601を検出する。 In S<b>1 , the image acquisition unit 101 acquires the image 201 stored in the storage unit 20 . This image 201 may be, for example, an image of food 601 captured by an imaging device 603 (see FIG. 2). Also, the pass/fail determination unit 108 acquires a label ID indicating the type of the label. In addition, in the production line 600 as shown in FIG. 2, since food to which a predetermined label is attached is conveyed, the label ID of the label attached to the conveyed food can be acquired. However, since it is possible that another type of label is attached by mistake, the determination device 1 performs determination to detect the food 601 to which the wrong label is attached.

S2では、画像取得部101は、S1で取得した画像201が新規ラベルの画像であるか否かを判定する。新規ラベルとは、そのラベルの画像を用いた機械学習が行われていないラベルである。新規ラベルの画像であるか否かは、例えばS1で取得されたラベルIDと、機械学習に用いた各ラベルのラベルIDとを照合することで判定できる。S2で新規ラベルであると判定された場合(S2でYES)、処理はS3に進む。一方、S2で新規ラベルではないと判定された場合(S2でNO)、処理はS5に進む。 In S2, the image acquisition unit 101 determines whether the image 201 acquired in S1 is an image of a new label. A new label is a label that has not undergone machine learning using the label image. Whether or not the image is a new label image can be determined, for example, by comparing the label ID acquired in S1 with the label ID of each label used in machine learning. If it is determined in S2 that the label is a new label (YES in S2), the process proceeds to S3. On the other hand, if it is determined in S2 that the label is not a new label (NO in S2), the process proceeds to S5.

S3では、画像取得部101は、S1で取得した画像201を新規ラベルの画像として記憶部20に記憶する。なお、図1における新規対象物画像202が、この新規ラベルの画像に対応している。上述のように、新規対象物画像202は、機械学習の訓練データの生成に用いられる。 In S3, the image acquisition unit 101 stores the image 201 acquired in S1 in the storage unit 20 as an image of the new label. The new object image 202 in FIG. 1 corresponds to this new label image. As described above, new object images 202 are used to generate training data for machine learning.

S4では、目視判定部107が、目視判定を行う。具体的には、目視判定部107は、画像201(またはS3で記憶した新規対象物画像202)を上述した目視検査端末の表示装置に表示させて、目視検査員による分類カテゴリの入力を受け付けることにより、対象物の分類カテゴリを判定する。判定装置1が目視判定部107を備えていることにより、新規ラベルの分類カテゴリや、第2抽出部103と分類部105では十分な精度の判定結果が得られなかった場合にも、正確な判定を行うことが可能になる。 In S4, the visual determination unit 107 performs visual determination. Specifically, the visual determination unit 107 displays the image 201 (or the new object image 202 stored in S3) on the display device of the visual inspection terminal described above, and accepts the input of the classification category by the visual inspector. determines the classification category of the object. Since the determination device 1 is provided with the visual determination unit 107, accurate determination can be performed even when the classification category of the new label or the determination result of the second extraction unit 103 and the classification unit 105 cannot be obtained with sufficient accuracy. It becomes possible to do

また、目視判定部107は、目視検査員にラベルの合否判定(正しいラベルが貼り付けられているか否かの判定)を行わせ、その判定結果の入力を受け付ける。その後、目視判定部107は、判定結果を出力部50に出力させてもよい。S4の処理の終了により、判定処理は終了する。 In addition, the visual judgment unit 107 makes a visual inspector judge whether the label is acceptable (judgment as to whether or not the correct label is attached), and receives the input of the judgment result. After that, the visual determination unit 107 may cause the output unit 50 to output the determination result. The determination process ends when the process of S4 ends.

また、目視判定部107は、目視検査員に対象物の領域を入力させてもよい。そして、訓練データ生成部112は、入力された領域と目視判定部107が判定の対象とした画像とを対応付けて抽出部訓練データセット204に追加してもよい。さらに、訓練データ生成部112は、入力された上記領域の部分画像と、入力された分類カテゴリとを対応付けて分類部訓練データセット203に追加してもよい。 Further, the visual determination unit 107 may cause the visual inspector to input the area of the object. Then, the training data generation unit 112 may associate the input region with the image to be determined by the visual determination unit 107 and add them to the extraction unit training data set 204 . Furthermore, the training data generation unit 112 may associate the input partial image of the region with the input classification category and add them to the classification unit training data set 203 .

S5(抽出ステップ)では、第2抽出部103が、S1で取得された画像201から、当該画像201の画像領域のうち、ラベルが写っている領域であるラベル領域を抽出する。そして、第2抽出部103は、上記抽出結果に基づいて画像201の部分画像を生成する。この部分画像は、画像201の画像領域のうち、ラベル領域の部分を含む画像である。なお、部分画像はラベル領域の部分の全体を含み、他の部分を含まないことが好ましい。ただし、分類部105の判定精度に大きく影響しない範囲であれば、部分画像において、ラベル領域の一部が欠けていたり、ラベル以外の部分が含まれていたりしても許容できる。また、この抽出における演算処理は、処理負荷が大きくなる場合がある。このため、第2抽出部103は、この演算処理を外部のサーバに行わせて、抽出結果を当該サーバから取得してもよい。 In S5 (extraction step), the second extraction unit 103 extracts the label area, which is the area in which the label appears, from the image 201 acquired in S1. Then, the second extraction unit 103 generates a partial image of the image 201 based on the extraction result. This partial image is an image that includes the label area portion of the image area of the image 201 . Note that the partial image preferably includes the entire label area portion and does not include other portions. However, as long as it does not greatly affect the determination accuracy of the classification unit 105, it is permissible for the partial image to lack a part of the label region or include a portion other than the label. Moreover, the computational processing in this extraction may increase the processing load. Therefore, the second extraction unit 103 may cause an external server to perform this arithmetic processing and obtain the extraction result from the server.

S6では、抽出成否判定部104が、S5の抽出が成功したか否かを判定する。この判定は、例えば、S5で抽出された領域の面積と既知のラベル面積との関係に基づいて行ってもよい。具体的には、抽出成否判定部104は、S5で抽出された領域の面積が、既知のラベル面積の所定範囲内であれば抽出成功と判定し、所定範囲外であれば抽出失敗と判定してもよい。S6で抽出成功と判定された場合(S6でYES)、処理はS7に進む。一方、S6で抽出失敗と判定された場合(S6でNO)、処理はS4に進む。 In S6, the extraction success/failure determination unit 104 determines whether or not the extraction in S5 was successful. This determination may be made, for example, based on the relationship between the area of the region extracted in S5 and the known label area. Specifically, the extraction success/failure determining unit 104 determines that the extraction is successful if the area of the region extracted in S5 is within a predetermined range of the known label area, and determines that the extraction is unsuccessful if it is outside the predetermined range. may If the extraction is determined to be successful in S6 (YES in S6), the process proceeds to S7. On the other hand, if it is determined in S6 that the extraction has failed (NO in S6), the process proceeds to S4.

S7(分類ステップ)では、分類部105が、ラベルの分類カテゴリを判定する。具体的には、分類部105は、S5で生成された部分画像を入力データとして、予め設定された複数の分類カテゴリ(ラベルの種類)のそれぞれについて、当該分類カテゴリに該当する確度を示すスコアを出力する。部分画像を入力データとするため、S1で取得された画像201をそのまま入力データとする構成と比べて、高精度な分類結果を得ることができる。なお、この判定における演算処理は、処理負荷が大きくなる場合がある。このため、分類部105は、この演算処理を外部のサーバに行わせて、演算結果であるスコアを当該サーバから取得してもよい。 In S7 (classification step), the classification unit 105 determines the classification category of the label. Specifically, the classification unit 105 uses the partial image generated in S5 as input data, and for each of a plurality of preset classification categories (types of labels), calculates a score indicating the probability of matching the classification category. Output. Since the partial image is used as the input data, a highly accurate classification result can be obtained compared to the configuration in which the image 201 acquired in S1 is used as the input data. It should be noted that the arithmetic processing in this determination may increase the processing load. For this reason, the classification unit 105 may cause an external server to perform this calculation process, and acquire the score, which is the calculation result, from the server.

S8では、分類成否判定部106が、S7の分類が成功したか否かを判定する。具体的には、分類成否判定部106は、S7の判定結果に閾値以上のスコアが含まれているか否かを判定する。閾値以上のスコアが含まれていれば分類成功、含まれていなければ分類失敗ということになる。S8において、分類成否判定部106は、分類成功(閾値以上のスコアが含まれる)と判定した場合(S8でYES)、スコアが最も大きかった分類カテゴリを合否判定部108に通知し、処理はS9に進む。一方、S8で分類失敗(閾値以上のスコアが含まれない)と判定された場合(S8でNO)、処理はS4に進む。 In S8, the classification success/failure determination unit 106 determines whether or not the classification in S7 was successful. Specifically, the classification success/failure determination unit 106 determines whether or not the determination result of S7 includes a score equal to or greater than a threshold. If the scores above the threshold are included, the classification is successful, and if not included, the classification is unsuccessful. In S8, if the classification success/failure determination unit 106 determines that the classification is successful (the scores equal to or greater than the threshold are included) (YES in S8), it notifies the classification category with the highest score to the success/failure determination unit 108, and the process proceeds to S9. proceed to On the other hand, if it is determined in S8 that the classification has failed (the score above the threshold is not included) (NO in S8), the process proceeds to S4.

S9では、合否判定部108が、S7の分類結果に基づいてラベルの合否判定を行う。具体的には、合否判定部108は、分類成否判定部106から通知された分類カテゴリ(スコアが最も大きかった分類カテゴリ)と、S1で取得したラベルIDの示す種類とが一致すれば合格と判定し、判定処理は終了する。一方、一致しなければ合否判定部108は不合格と判定し、処理はS4に進む。これにより、不合格と判定された画像201のうち、合否判定部108の判定(分類部105の分類)が誤りであった場合については、目視検査により正しい分類カテゴリが定められる。よって、目視検査により定められた正しい分類カテゴリと当該画像201とを対応付けて分類部105の訓練データとすることができる。また、合否判定部108の判定が誤りであった場合に、それを目視検査により検出することもできる。なお、合否判定部108は、判定結果を出力部50に出力させてもよい。 In S9, the pass/fail judgment unit 108 makes a pass/fail judgment of the label based on the classification result of S7. Specifically, if the classification category notified from the classification success/failure determination unit 106 (the classification category with the highest score) matches the type indicated by the label ID obtained in S1, the pass/fail determination unit 108 determines that the classification is passed. Then, the judgment processing ends. On the other hand, if they do not match, the pass/fail determination unit 108 determines that the pass/fail is rejected, and the process proceeds to S4. As a result, for images 201 that have been determined to be unacceptable, if the determination by the pass/fail determination unit 108 (classification by the classification unit 105) is erroneous, the correct classification category is determined by visual inspection. Therefore, the correct classification category determined by visual inspection can be associated with the image 201 and used as training data for the classification unit 105 . In addition, when the determination by the pass/fail determination unit 108 is erroneous, it can be detected by visual inspection. Note that the pass/fail determination unit 108 may cause the output unit 50 to output the determination result.

なお、判定結果の出力の態様は任意である。例えば、出力部50が表示装置であれば、合格または不合格であることを示す画像を表示させてもよい。また、分類カテゴリのスコアを表示してもよい。また、表示以外の態様で出力を行ってもよい。例えば不合格である場合にはブザー等の音を出力することにより、誤ったラベルが貼られた食品601があることを報知してもよい。また、例えば生産ライン600に搬送中の食品601の搬送経路を分岐させる機構が設けられている場合には、その機構を制御して、不合格と判定された食品601を生産ライン600から除外してもよい。 Note that the mode of outputting the determination result is arbitrary. For example, if the output unit 50 is a display device, an image indicating pass or fail may be displayed. Moreover, you may display the score of a classification category. In addition, output may be performed in a mode other than display. For example, in the case of rejection, by outputting a sound such as a buzzer, it may be notified that there is food 601 with an incorrect label attached. Further, for example, if the production line 600 is provided with a mechanism for branching the conveying route of the food 601 being conveyed, the mechanism is controlled to exclude the food 601 determined to be rejected from the production line 600. may

〔判定結果の表示例〕
上述のように、合否判定部108は、判定結果を出力部50に出力させてもよい。ここでは、分類部105の判定結果を表示出力させる例を図4に基づいて説明する。図4は、判定結果の表示例を示す図である。
[Display example of judgment result]
As described above, the pass/fail determination unit 108 may cause the output unit 50 to output the determination result. Here, an example of displaying and outputting the determination result of the classification unit 105 will be described with reference to FIG. FIG. 4 is a diagram showing a display example of determination results.

図4の表示例における判定結果は、スコアが大きい上位3つの分類カテゴリ(第1~第3候補)と、そのスコアの値を含む。このような表示により、判定結果の確からしさをユーザに認識させることができる。この例では、第1候補のラベル「XXファーム 和牛」のスコアが、第2、第3候補と比較して十分に大きく、これにより、この判定結果が信頼できるものであることをユーザに認識させることができる。また、図4の表示例には、第1~第3候補のラベルの画像が含まれる。これにより、判定結果がどのような外観のラベルとなったかを、ユーザに容易に認識させることができる。 The determination results in the display example of FIG. 4 include the top three classification categories (first to third candidates) with the highest scores and their score values. Such a display allows the user to recognize the certainty of the determination result. In this example, the score of the label "XX Farm Wagyu" of the first candidate is sufficiently large compared to the second and third candidates, thereby making the user aware that this judgment result is reliable. be able to. The display example of FIG. 4 also includes images of the labels of the first to third candidates. This makes it possible for the user to easily recognize the appearance of the label as a result of determination.

〔新規対象物画像を用いた機械学習に関する処理の流れ〕
判定装置1では、新規対象物画像202が所定数(例えば10個)以上記憶されたことを契機として、機械学習に関する処理が行われる。これについて、図5に基づいて説明する。図5は、新規対象物画像202が所定数以上記憶されたことを契機として開始される機械学習に関する処理の一例を示すフローチャートである。なお、所定数の新規対象物画像202は、何れも同じ分類カテゴリに属するラベルが写った画像であるとする。また、新規対象物画像202が所定数記憶されたことは、例えば画像取得部101が検出する構成とすればよい。
[Flow of processing related to machine learning using new object images]
In the determination device 1, when a predetermined number (for example, 10) or more new object images 202 are stored, processing related to machine learning is performed. This will be described with reference to FIG. FIG. 5 is a flowchart showing an example of processing related to machine learning that is started when a predetermined number or more of new object images 202 are stored. It should be noted that the predetermined number of new object images 202 are all images containing labels belonging to the same classification category. Further, the fact that a predetermined number of new object images 202 have been stored may be configured to be detected by the image acquiring unit 101, for example.

S21では、第1抽出部102が、新規ラベルの画像である新規対象物画像202からラベル領域を抽出する。そして、第1抽出部102は、上記抽出結果に基づいて新規対象物画像202の部分画像を生成する。これらの処理は、新規対象物画像202のそれぞれについて行う。 In S21, the first extraction unit 102 extracts a label region from the new object image 202, which is the image of the new label. Then, the first extraction unit 102 generates a partial image of the new object image 202 based on the extraction result. These processes are performed for each new object image 202 .

なお、S21の抽出精度を高めるため、S21の処理前の新規対象物画像202に前処理を施してもよい。例えば、新規ラベルが貼られている商品が、透明フィルムで包装された食肉であれば、赤色(食肉の色)の領域はラベル領域ではないと推定される。このため、新規対象物画像202のうち赤色の領域を検出し、その領域を抽出対象外とする処理をS21の前処理として行うことにより、抽出範囲を適切に絞り込むことができるので、S21の抽出精度を高めることができる。 In addition, in order to improve the extraction accuracy of S21, preprocessing may be performed on the new object image 202 before the processing of S21. For example, if the product to which the new label is affixed is meat packaged with a transparent film, it is presumed that the red (meat color) area is not the label area. Therefore, by detecting a red region in the new target object image 202 and excluding that region from the extraction target as preprocessing of S21, the extraction range can be appropriately narrowed down. Accuracy can be improved.

S22では、抽出成否判定部104が、S21の抽出の成否を判定する。この判定は、例えばS21の抽出結果を示す情報を重畳した新規対象物画像202を、上述した目視検査端末の表示装置に表示させ、目視検査員に抽出成否を判断させて、その判断結果の入力を受け付けることによって行ってもよい。無論、抽出成否判定部104は、抽出された領域の面積に基づいて抽出成否を判定してもよく、この場合は目視検査員による判定は不要である。ただし、S22で抽出成功と判定された場合、その抽出結果に基づく部分画像がそのまま分類部105の訓練データとして用いられるので、S22ではできるだけ高精度な判定を行うことが好ましい。後述するS25の判定も同様である。 In S22, the extraction success/failure determination unit 104 determines whether the extraction in S21 succeeded or failed. For this determination, for example, the new object image 202 superimposed with the information indicating the extraction result of S21 is displayed on the display device of the above-described visual inspection terminal, the visual inspector judges whether the extraction is successful or not, and the judgment result is input. may be done by accepting Of course, the extraction success/failure determination unit 104 may determine the success/failure of extraction based on the area of the extracted region, and in this case, determination by a visual inspector is unnecessary. However, if the extraction is determined to be successful in S22, the partial image based on the extraction result is used as training data for the classification unit 105 as it is. The same applies to the determination in S25, which will be described later.

S23では、訓練データ生成部112が、S22で抽出成功と判定された新規対象物画像202の部分画像をラベルの分類カテゴリと対応付けて、分類部105の訓練データセット(図1の「分類部訓練データセット203」)に追加する。このように、判定装置1では、ラベル領域の抽出と、訓練データの生成が自動で行われるので、分類部訓練データの生成にかかる手間を著しく低減することができる。 In S23, the training data generation unit 112 associates the partial images of the new target object image 202 determined to be successfully extracted in S22 with the label classification categories, and creates a training data set for the classification unit 105 (“classification unit training data set 203''). As described above, the determination device 1 automatically extracts the label region and generates the training data, so that it is possible to significantly reduce the labor involved in generating the training data for the classifier.

S24では、第2抽出部103が、S22で抽出失敗と判定された新規対象物画像202からラベル領域を抽出し、部分画像を生成する。S22で抽出失敗と判定された新規対象物画像202が複数ある場合には、第2抽出部103はそのそれぞれからラベル領域を抽出し、部分画像を生成する。なお、ラベル6011の外形形状は、分類カテゴリが変わっても同様である場合も多いため、新規対象物画像202からであっても第2抽出部103がラベル領域を正確に抽出できる可能性がある。このように、第1抽出部102が抽出失敗した場合に、第2抽出部103が抽出する構成としたことにより、新規対象物画像202の大部分から自動でラベル領域を抽出することが可能になる。 In S24, the second extraction unit 103 extracts a label region from the new target object image 202 determined as extraction failure in S22, and generates a partial image. If there are a plurality of new object images 202 determined to be unsuccessful in extraction in S22, the second extraction unit 103 extracts label regions from each of them to generate partial images. Note that the outer shape of the label 6011 is often the same even if the classification category changes, so there is a possibility that the second extraction unit 103 can accurately extract the label area even from the new object image 202. . In this way, when the first extraction unit 102 fails to extract, the second extraction unit 103 extracts, so that the label area can be automatically extracted from most of the new object image 202. Become.

S25では、S22と同様にして、抽出成否判定部104が、S24の抽出の成否を判定する。S25で抽出成功と判定(S25でYES)された新規対象物画像202については、S27の処理が行われる。一方、S25で抽出失敗と判定(S25でNO)された新規対象物画像202については、S26の処理が行われる。 In S25, similarly to S22, the extraction success/failure determination unit 104 determines whether the extraction in S24 succeeded or failed. The processing of S27 is performed for the new target object image 202 determined to be successfully extracted in S25 (YES in S25). On the other hand, the processing of S26 is performed for the new target object image 202 determined to be unsuccessful in extraction in S25 (NO in S25).

ここで、S25では、抽出成否判定部104は、例えば図6の(a)のような画像を上述した目視検査端末の表示装置に表示させて、抽出の成否を目視検査員に判断させてもよい。図6は、抽出成否判定部104が表示させる画像の一例を示す図である。同図の(a)の画像には、ラベル6011が写った新規対象物画像202が含まれている。また、この画像においては、新規対象物画像202に重畳して、第2抽出部103が抽出したラベル領域を示す枠線301が表示されている。 Here, in S25, the extraction success/failure determination unit 104 displays, for example, an image such as (a) in FIG. good. FIG. 6 is a diagram showing an example of an image displayed by the extraction success/failure determination unit 104. As shown in FIG. The image of (a) of FIG. 2 includes a new object image 202 in which the label 6011 is shown. In this image, a frame line 301 indicating the label area extracted by the second extraction unit 103 is displayed superimposed on the new object image 202 .

このような表示を見た目視検査員は、ラベル6011が枠線301の内側に収まっているか、また収まっている場合には枠線301の内側にラベル6011ではない領域が多く含まれていないか確認する。そして、何れの確認結果も肯定的であれば抽出成功と判断して、抽出成功である旨を入力部30に入力し、一方、何れかの確認結果が否定的であれば抽出失敗と判断して、抽出失敗である旨を入力部30に入力する。なお、抽出失敗した場合のみ入力部30に入力する構成としてもよい。この場合、抽出成否判定部104は、所定時間内に目視検査員の入力が確認されなければ抽出成功と判定する。 A visual inspector checks such a display whether the label 6011 is within the frame line 301, and if it is within the frame line 301, whether the frame line 301 includes many areas other than the label 6011. do. If any of the confirmation results are positive, it is determined that the extraction is successful, and the fact that the extraction is successful is input to the input unit 30. On the other hand, if any of the confirmation results are negative, it is determined that the extraction has failed. to input to the input unit 30 that the extraction has failed. It should be noted that the input unit 30 may be configured to input only when the extraction fails. In this case, the extraction success/failure determination unit 104 determines that the extraction is successful if the visual inspector's input is not confirmed within a predetermined time.

S26では、領域入力受付部113が、目視検査員が入力した領域をラベル領域として抽出する。例えば、図6の(a)に示すような画像を表示していた場合、目視検査端末は、枠線301に対する入力操作を受け付けてラベル領域を特定し、そのラベル領域を判定装置1に通知する。そして、領域入力受付部113は、通知されたラベル領域を抽出する。 In S26, the area input reception unit 113 extracts the area input by the visual inspector as a label area. For example, when an image as shown in FIG. 6(a) is displayed, the visual inspection terminal receives an input operation on the frame line 301, specifies the label area, and notifies the determination device 1 of the label area. . Then, the area input reception unit 113 extracts the notified label area.

この場合、枠線301の位置および範囲は、目視検査端末に対する入力操作により任意に変更可能としておく。これにより、目視検査員は、目視検査端末に対する入力操作により枠線301の位置および範囲を変更して、図6の(b)に示すように、ラベル6011が写っている領域と一致する状態とすることができる。そして、この状態で、目視検査員がラベル領域を確定させる操作を行ったことに応じて、目視検査端末は、該操作時において枠線301が示す画像領域をラベル領域として特定することができる。 In this case, the position and range of the frame line 301 can be arbitrarily changed by an input operation on the visual inspection terminal. As a result, the visual inspector changes the position and range of the frame line 301 by performing an input operation on the visual inspection terminal so that the label 6011 matches the area where the label 6011 is shown, as shown in FIG. 6B. can do. In this state, when the visual inspector performs an operation to confirm the label area, the visual inspection terminal can specify the image area indicated by the frame line 301 at the time of the operation as the label area.

S27では、訓練データ生成部112が、S25で抽出成功と判定された新規対象物画像202の部分画像と、S26でラベル領域が抽出された新規対象物画像202の部分画像を分類部訓練データセット203に追加する。なお、S23と同様に、訓練データ生成部112は、部分画像とラベルの分類カテゴリとを対応付けて追加する。 In S27, the training data generation unit 112 converts the partial images of the new object image 202 determined to be extracted successfully in S25 and the partial images of the new object image 202 from which the label region was extracted in S26 into a classification unit training data set. 203. As in S23, the training data generation unit 112 associates and adds the partial image and the classification category of the label.

S28では、画像加工部111が、新規対象物画像202を加工する。加工する新規対象物画像202は、S22で抽出成功と判定された新規対象物画像202、S25で抽出成功と判定された新規対象物画像202、およびS26でラベル領域が抽出された新規対象物画像202である。 In S<b>28 , the image processing unit 111 processes the new object image 202 . The new object images 202 to be processed are the new object images 202 determined to be extracted successfully in S22, the new object images 202 determined to be extracted successfully in S25, and the new object images from which the label regions were extracted in S26. 202.

S29では、訓練データ生成部112が、S28の加工後の新規対象物画像202(加工前の新規対象物画像202を含んでいてもよい)に、S21、S24、またはS26で抽出された領域と対応付けて抽出部訓練データを生成する。そして、生成した抽出部訓練データを抽出部訓練データセット204に追加する。このように、判定装置1では、ラベル領域の抽出と、訓練データの生成が自動で行われるので、抽出部訓練データの生成にかかる手間を著しく低減することができる。 In S29, the training data generation unit 112 adds the area extracted in S21, S24, or S26 to the new object image 202 after processing in S28 (which may include the new object image 202 before processing). Generate extractor training data in correspondence. Then, the generated extractor training data is added to the extractor training data set 204 . As described above, the determination device 1 automatically extracts the label region and generates the training data, so that the effort required to generate the extraction unit training data can be significantly reduced.

S30では、第2抽出部103の抽出テストが行われる。この抽出テストでは、第2抽出部103が、S28の加工後の新規対象物画像202からラベル領域を抽出する。S28の加工後の新規対象物画像202が複数ある場合、第2抽出部103そのそれぞれからラベル領域を抽出する。 In S30, an extraction test of the second extraction unit 103 is performed. In this extraction test, the second extraction unit 103 extracts a label region from the new object image 202 after processing in S28. If there are a plurality of new object images 202 after processing in S28, the second extraction unit 103 extracts a label region from each of them.

S31では、抽出精度判定部110が、S30の抽出の精度を示す評価値を算出し、学習部109が、この評価値に基づいて第2抽出部103の再学習を行うタイミングを決定する。具体的には、抽出精度判定部110は、S21において抽出したラベル領域と、S30で第2抽出部103が抽出したラベル領域との重なり合いの程度を示す評価値(IoU)を算出する。なお、新規対象物画像202は、第2抽出部103の機械学習に用いられていない画像であるから、新規対象物画像202からの抽出精度は、基本的に第1抽出部102の方が高い。このため、IoUが高いほど第2抽出部103の抽出精度は高いといえる。また、S31において、抽出精度判定部110は、S24またはS26において抽出したラベル領域と、S30で第2抽出部103が抽出したラベル領域との重なり合いの程度を示す評価値を算出してもよい。 In S31, the extraction accuracy determination unit 110 calculates an evaluation value indicating the accuracy of the extraction in S30, and the learning unit 109 determines the timing for re-learning the second extraction unit 103 based on this evaluation value. Specifically, the extraction accuracy determination unit 110 calculates an evaluation value (IoU) indicating the degree of overlap between the label area extracted in S21 and the label area extracted by the second extraction unit 103 in S30. Since the new target object image 202 is an image that is not used for machine learning by the second extraction unit 103, basically the first extraction unit 102 has higher extraction accuracy from the new target object image 202. . Therefore, it can be said that the higher the IoU, the higher the extraction accuracy of the second extraction unit 103 . Also, in S31, the extraction accuracy determination unit 110 may calculate an evaluation value indicating the degree of overlap between the label area extracted in S24 or S26 and the label area extracted by the second extraction unit 103 in S30.

そして、学習部109は、算出された評価値が所定の閾値以上であるか否かを判定する。閾値は必要な判定精度に応じて適宜決めておけばよく、例えば80(%)としてもよい。なお、S30で複数の新規対象物画像202からラベル領域を抽出した場合、S31では、抽出精度判定部110は、各抽出結果について指標を算出し、学習部109は、その平均値が閾値以上であるかを判定してもよい。S31で閾値以上と判定された場合(S31でYES)、図5の処理は終了する。一方、S31で閾値未満と判定された場合(S31でNO)、処理はS32に進む。 Then, the learning unit 109 determines whether or not the calculated evaluation value is equal to or greater than a predetermined threshold. The threshold may be appropriately determined according to the required determination accuracy, and may be set to 80(%), for example. Note that when label regions are extracted from a plurality of new target object images 202 in S30, in S31 the extraction accuracy determination unit 110 calculates an index for each extraction result, and the learning unit 109 determines if the average value is equal to or greater than the threshold. You can determine if there is If it is determined in S31 that it is equal to or greater than the threshold (YES in S31), the processing of FIG. 5 ends. On the other hand, if it is determined to be less than the threshold in S31 (NO in S31), the process proceeds to S32.

S32では、学習部109が、抽出部訓練データセット204を用いて、第2抽出部103の再学習を行い、これにより図5の処理は終了する。抽出部訓練データセット204には、新規対象物画像202を加工した画像が含まれているので、この再学習により、第2抽出部103は、新規ラベルの画像から精度よくラベル領域を抽出することが可能になる。このように、判定装置1は、第2抽出部103の再学習を行うタイミングを自動で決定するので、判定装置1のユーザが再学習のタイミングを判断することなく、適切なタイミングで再学習を行い、判定精度を維持することができる。 In S32, the learning unit 109 re-learns the second extraction unit 103 using the extraction unit training data set 204, thereby ending the processing in FIG. Since the extraction unit training data set 204 includes an image obtained by processing the new object image 202, this re-learning allows the second extraction unit 103 to accurately extract the label region from the image of the new label. becomes possible. In this way, since the determination device 1 automatically determines the timing of re-learning of the second extraction unit 103, the user of the determination device 1 does not need to determine the timing of re-learning, and re-learning can be performed at an appropriate timing. It is possible to maintain the judgment accuracy.

なお、図5の例と比べて目視検査員の作業量が増えることを許容するのであれば、新規対象物画像202を用いた訓練データの生成において、目視判定部107は、新規対象物画像202のそれぞれについて、目視検査員に対象物の領域を入力させてもよい。そして、訓練データ生成部112は、入力された領域と目視判定部107が判定の対象とした画像とを対応付けて抽出部訓練データセット204に追加してもよい。さらに、訓練データ生成部112は、入力された上記領域の部分画像と、入力された分類カテゴリとを対応付けて分類部訓練データセット203に追加してもよい。 Note that if an increase in the workload of the visual inspector is allowed compared to the example of FIG. , the visual inspector may enter the region of the object. Then, the training data generation unit 112 may associate the input region with the image to be determined by the visual determination unit 107 and add them to the extraction unit training data set 204 . Furthermore, the training data generation unit 112 may associate the input partial image of the region with the input classification category and add them to the classification unit training data set 203 .

〔他の適用例〕
判定装置1は、食品に貼り付けられたラベルに限られず、任意の対象物の分類カテゴリの判定に利用できる。特に、判定装置1は第2抽出部103を備えていることから、画像中に占める領域が狭い対象物の分類カテゴリの判定に好適である。例えば、衣類に付されたタグの分類カテゴリの判定などにも好適に利用できる。
[Other application examples]
The determination device 1 can be used to determine the classification category of any object, not limited to the label attached to the food. In particular, since the determination device 1 includes the second extraction unit 103, it is suitable for determining the classification category of an object that occupies a narrow area in the image. For example, it can be suitably used for determining classification categories of tags attached to clothing.

また、判定装置1は、第1抽出部102の抽出結果に基づいて、抽出部訓練データを生成し、第2抽出部103の抽出精度を判定する。この観点からは、対象物や判定の対象の画像は、第1抽出部102による抽出が容易なものであることが好ましいといえる。例えば、第1抽出部102が特徴点マッチングによる抽出を行うものである場合、対象物は矩形や円形など単純な外形を有するものであることが好ましく、対象物の背景には対象物と紛らわしい外形のものが写っていないことが好ましい。 The determination device 1 also generates extraction unit training data based on the extraction result of the first extraction unit 102 and determines the extraction accuracy of the second extraction unit 103 . From this point of view, it can be said that it is preferable that the first extraction unit 102 can easily extract the image of the target object or the determination target. For example, when the first extraction unit 102 performs extraction by feature point matching, the target object preferably has a simple outer shape such as a rectangle or a circle. It is preferable that the

具体例を挙げれば、判定装置1は、例えば路面を撮影した画像から標識が写っている領域を抽出し、その標識の分類カテゴリを判定するという用途にも利用できる。また、例えば、判定装置1は、レシートを撮影した画像からレシートが写っている領域や、レシート中の特定の項目を抽出し、その内容を判定するという用途にも利用できる。この場合、分類部105としては、例えばTextBoxesのような文字認識性能の高い機械学習アルゴリズムを適用することが好ましい。名刺などの紙片についても同様である。このように、判定装置1は、文字が描かれた対象物を判定対象とし、その文字の内容を加味した分類を行うことも可能である。 As a specific example, the determination device 1 can also be used to extract a region in which a sign is captured from an image of a road surface and determine the classification category of the sign. Further, for example, the determination device 1 can be used for the purpose of extracting a region in which a receipt is shown or a specific item in the receipt from an image of the receipt and determining the contents thereof. In this case, the classification unit 105 preferably uses a machine learning algorithm with high character recognition performance, such as TextBoxes. The same applies to pieces of paper such as business cards. In this way, the determination device 1 can also classify an object on which characters are drawn as a determination target, taking into consideration the contents of the characters.

〔システムによる実現例〕
判定装置1の機能は、相互に通信可能な複数の装置からなるシステムで実現することもできる。この場合、上述の各処理は、該システムを構成する複数の装置の何れかが行う。例えば、第1抽出部102および訓練データ生成部112を備えた情報処理装置により、分類部訓練データを生成する構成とし、判定装置1はこの分類部訓練データを用いて機械学習を行う構成としてもよい。また、例えば、抽出精度判定部110および学習部109を備えた情報処理装置により、第2抽出部103の再学習を行うタイミングを決定する構成とし、判定装置1は決定されたタイミングで再学習を行う構成としてもよい。なお、再学習は、情報処理装置の制御によって行ってもよいし、ユーザが判定装置1を操作して行うようにしてもよい。
[Example of system implementation]
The function of the determination device 1 can also be realized by a system composed of a plurality of mutually communicable devices. In this case, each of the processes described above is performed by one of the plurality of devices that constitute the system. For example, an information processing apparatus including the first extraction unit 102 and the training data generation unit 112 may be configured to generate classification unit training data, and the determination device 1 may be configured to perform machine learning using the classification unit training data. good. Further, for example, an information processing device including the extraction accuracy determination unit 110 and the learning unit 109 may be configured to determine the timing for re-learning the second extraction unit 103, and the determination device 1 performs re-learning at the determined timing. It is good also as a structure to carry out. The re-learning may be performed under the control of the information processing device, or may be performed by the user operating the determination device 1 .

〔ソフトウェアによる実現例〕
判定装置1の制御ブロック(特に制御部10に含まれる各部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
The control block of the determination device 1 (especially each unit included in the control unit 10) may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software. .

後者の場合、判定装置1は、各機能を実現するソフトウェアであるプログラム(対象物判定プログラム)の命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the determination device 1 includes a computer that executes commands of a program (object determination program) that is software for realizing each function. This computer includes, for example, one or more processors, and a computer-readable recording medium storing the program. In the computer, the processor reads the program from the recording medium and executes it, thereby achieving the object of the present invention. As the processor, for example, a CPU (Central Processing Unit) can be used. As the recording medium, a "non-temporary tangible medium" such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. In addition, a RAM (Random Access Memory) for developing the above program may be further provided. Also, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. Note that one aspect of the present invention can also be implemented in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.

〔付記事項〕
本発明の一態様にかかる情報処理装置は、対象物を撮影した対象画像から、当該対象物の分類カテゴリが、所定の複数の分類カテゴリの何れに該当するかを判定する情報処理装置であって、機械学習の結果に基づき、上記対象画像から上記対象物が写っている領域を抽出して部分画像を生成する機械学習抽出部と、機械学習の結果に基づき、上記部分画像から上記対象物の分類カテゴリを判定する分類部と、を備えている。
[Additional notes]
An information processing apparatus according to an aspect of the present invention is an information processing apparatus that determines to which of a plurality of predetermined classification categories a classification category of an object corresponds from a target image obtained by photographing the object. a machine learning extraction unit for extracting a region in which the object is captured from the target image based on the result of machine learning and generating a partial image; and extracting the object from the partial image based on the result of machine learning. and a classification unit that determines the classification category.

上記分類部は、上記複数の分類カテゴリのそれぞれに該当する対象物がそれぞれ写っている画像から当該対象物が写っている領域を抽出して生成された部分画像を訓練データとした機械学習の結果に基づいて上記対象物の分類カテゴリを判定する構成であってもよい。 The classification unit performs machine learning using partial images generated by extracting regions in which objects corresponding to each of the plurality of classification categories are shown as training data from images in which the objects are shown. The classification category of the object may be determined based on.

上記情報処理装置は、上記対象画像に写る上記対象物が上記複数の分類カテゴリの何れにも該当しない場合、または上記分類部の判定結果の確度が閾値未満であった場合に、上記対象画像または上記対象物の閲覧者による分類カテゴリの入力を受け付けることにより、上記対象物の分類カテゴリを判定する目視判定部を備えている構成であってもよい。 When the object in the target image does not correspond to any of the plurality of classification categories, or when the accuracy of the determination result of the classification unit is less than a threshold, the information processing device determines whether the target image or The configuration may include a visual determination unit that determines the classification category of the object by receiving an input of the classification category by the viewer of the object.

上記情報処理装置は、上記分類部の機械学習用の分類部訓練データの元になる訓練用画像から上記対象物が写っている領域を抽出して部分画像を生成する抽出部と、上記抽出部が生成した部分画像と、該部分画像に写る対象物の分類カテゴリとを対応付けて、上記分類部訓練データを生成する分類部訓練データ生成部と、を備えている構成であってもよい。 The information processing device includes an extraction unit that extracts a region in which the object is shown from a training image that is a source of classification unit training data for machine learning of the classification unit to generate a partial image, and the extraction unit. and a classification section training data generation section that generates the classification section training data by associating the partial image generated by with the classification category of the object appearing in the partial image.

上記情報処理装置は、上記抽出部が上記訓練用画像から上記領域を抽出できなかった場合に、上記機械学習抽出部が上記訓練用画像から上記領域を抽出して、上記分類部訓練データの生成に用いる部分画像を生成する構成であってもよい。 In the information processing device, when the extraction unit fails to extract the region from the training image, the machine learning extraction unit extracts the region from the training image to generate the classification unit training data. may be configured to generate a partial image to be used for.

上記情報処理装置は、上記抽出部の抽出結果と上記機械学習抽出部の抽出結果に基づいて上記機械学習抽出部の抽出精度の評価値を算出する抽出精度判定部と、上記評価値に基づいて上記機械学習抽出部の再学習を行うタイミングを決定する学習部と、を備えている構成であってもよい。 The information processing device includes an extraction accuracy determination unit that calculates an evaluation value of the extraction accuracy of the machine learning extraction unit based on the extraction result of the extraction unit and the extraction result of the machine learning extraction unit; and a learning unit that determines the timing of re-learning of the machine learning extraction unit.

上記情報処理装置は、上記訓練用画像と上記抽出部が抽出した上記領域とを対応付けて、上記機械学習抽出部の機械学習用の抽出部訓練データを生成する抽出部訓練データ生成部を備えている構成であってもよい。 The information processing device includes an extraction unit training data generation unit that generates extraction unit training data for machine learning of the machine learning extraction unit by associating the training image with the region extracted by the extraction unit. It may be a configuration that

上記情報処理装置においては、上記抽出部訓練データ生成部は、上記訓練用画像に所定の画像処理を施すことによって生成された1または複数の画像のそれぞれと、上記抽出部が抽出した上記領域とを対応付けて上記抽出部訓練データを生成する構成であってもよい。 In the information processing device, the extraction unit training data generation unit generates each of one or more images generated by performing predetermined image processing on the training image, and the region extracted by the extraction unit. may be associated with each other to generate the extraction unit training data.

本発明の一態様にかかる判定方法は、1または複数の装置により、対象物を撮影した対象画像から、当該対象物の分類カテゴリが、所定の複数の分類カテゴリの何れに該当するかを判定する判定方法であって、機械学習の結果に基づき、上記対象画像から上記対象物が写っている領域を抽出して部分画像を生成する抽出ステップと、機械学習の結果に基づき、上記部分画像から上記対象物の分類カテゴリを判定する分類ステップと、を含む。 A determination method according to an aspect of the present invention determines to which of a plurality of predetermined classification categories a classification category of an object corresponds from a target image obtained by photographing the object using one or more devices. A determination method, comprising: an extraction step of extracting a region in which the object is captured from the target image based on a result of machine learning to generate a partial image; and a classification step of determining the classification category of the object.

上記情報処理装置としてコンピュータを機能させるための対象物判定プログラムであって、上記機械学習抽出部および上記分類部としてコンピュータを機能させるための対象物判定プログラムも本発明の範疇に含まれる。 An object determination program for causing a computer to function as the information processing apparatus, the object determination program for causing the computer to function as the machine learning extraction section and the classification section is also included in the scope of the present invention.

本発明の他の一態様にかかる情報処理装置は、画像から該画像に写る対象物の分類カテゴリを判定する分類部の機械学習に用いる分類部訓練データを生成する情報処理装置であって、上記分類部訓練データの元になる訓練用画像から上記対象物が写っている領域を抽出して部分画像を生成する抽出部と、上記抽出部が生成した部分画像と、該部分画像に写る対象物の分類カテゴリとを対応付けて、上記分類部訓練データを生成する分類部訓練データ生成部と、を備えている。 An information processing apparatus according to another aspect of the present invention is an information processing apparatus that generates classification unit training data used for machine learning of a classification unit that determines, from an image, a classification category of an object appearing in the image, An extraction unit that extracts a region in which the object appears from a training image that is the basis of the classification unit training data and generates a partial image, a partial image generated by the extraction unit, and the object that appears in the partial image and a classifier training data generation unit that generates the classifier training data by associating the classification categories with the classification categories.

本発明のさらに他の一態様にかかる情報処理装置は、機械学習の結果に基づき、画像から対象物が写っている領域を抽出する機械学習抽出部の再学習のタイミングを決定する情報処理装置であって、上記画像から上記対象物が写っている領域を抽出する抽出部の抽出結果と、上記機械学習抽出部が上記画像から上記対象物が写っている領域を抽出した抽出結果とに基づいて、上記機械学習抽出部の抽出精度の評価値を算出する抽出精度判定部と、上記評価値に基づいて上記機械学習抽出部の再学習を行うタイミングを決定する学習部と、を備えている。 An information processing apparatus according to still another aspect of the present invention is an information processing apparatus that determines re-learning timing of a machine-learning extraction unit that extracts a region in which a target object is shown from an image based on a result of machine learning. Based on the extraction result of the extraction unit that extracts the area in which the object is shown from the image and the extraction result that the machine learning extraction unit extracts the area in which the object is shown from the image , an extraction accuracy determination unit that calculates an evaluation value of the extraction accuracy of the machine learning extraction unit; and a learning unit that determines timing for re-learning the machine learning extraction unit based on the evaluation value.

1 判定装置(情報処理装置)
102 第1抽出部(抽出部)
103 第2抽出部(機械学習抽出部)
105 分類部
107 目視判定部
109 学習部
110 抽出精度判定部
112 訓練データ生成部(分類部訓練データ生成部、抽出部訓練データ生成部)
201 画像(対象画像)
1 Determination device (information processing device)
102 first extraction unit (extraction unit)
103 second extraction unit (machine learning extraction unit)
105 classification unit 107 visual determination unit 109 learning unit 110 extraction accuracy determination unit 112 training data generation unit (classification unit training data generation unit, extraction unit training data generation unit)
201 images (target images)

Claims (7)

対象物を撮影した対象画像から、当該対象物の分類カテゴリが、所定の複数の分類カテゴリの何れに該当するかを判定する情報処理装置であって、
画像と該画像において上記対象物が写っている領域を示す座標値との関係を機械学習した結果に基づき、上記対象画像から上記対象物が写っている領域を抽出して部分画像を生成する機械学習抽出部と、
画像と該画像に写る上記対象物の分類カテゴリとの対応関係を機械学習した結果に基づき、上記部分画像から上記対象物の分類カテゴリを判定する分類部と、
上記分類部の機械学習用の分類部訓練データの元になる訓練用画像から上記対象物が写っている領域を抽出して部分画像を生成する抽出部と、
上記抽出部が生成した部分画像と、該部分画像に写る対象物の分類カテゴリとを対応付けて、上記分類部訓練データを生成する分類部訓練データ生成部と、を備え、
上記抽出部が上記訓練用画像から上記領域を抽出できなかった場合に、上記機械学習抽出部が上記訓練用画像から上記領域を抽出して、上記分類部訓練データの生成に用いる部分画像を生成し、
上記抽出部は、機械学習によらず上記対象物が写っている領域を抽出する、ことを特徴とする情報処理装置。
An information processing device for determining to which of a plurality of predetermined classification categories a classification category of an object corresponds from a target image obtained by photographing the object,
A machine that generates a partial image by extracting an area in which the object appears from the target image based on the results of machine learning of the relationship between the image and the coordinate values indicating the area in the image in which the object appears. a learning extractor;
a classification unit that determines the classification category of the object from the partial image based on the results of machine learning of the correspondence relationship between the image and the classification category of the object that appears in the image;
an extracting unit that extracts a region in which the object is shown from a training image that is a source of training data for the classifying unit for machine learning of the classifying unit and generates a partial image;
a classification unit training data generation unit that generates the classification unit training data by associating the partial image generated by the extraction unit with the classification category of the object appearing in the partial image;
When the extraction unit fails to extract the region from the training image, the machine learning extraction unit extracts the region from the training image to generate a partial image used to generate the classification unit training data. death,
The information processing apparatus, wherein the extracting unit extracts the area in which the object is captured without using machine learning .
上記分類部は、上記複数の分類カテゴリのそれぞれに該当する対象物がそれぞれ写っている画像から当該対象物が写っている領域を抽出して生成された部分画像を訓練データとした機械学習の結果に基づいて上記対象物の分類カテゴリを判定することを特徴とする請求項1に記載の情報処理装置。 The classification unit performs machine learning using partial images generated by extracting regions in which objects corresponding to each of the plurality of classification categories are captured from images in which the objects are captured as training data. 2. The information processing apparatus according to claim 1, wherein the classification category of the object is determined based on. 上記対象画像に写る上記対象物が上記複数の分類カテゴリの何れにも該当しない場合、または上記分類部の判定結果の確度が閾値未満であった場合に、上記対象画像または上記対象物の閲覧者による分類カテゴリの入力を受け付けることにより、上記対象物の分類カテゴリを判定する目視判定部を備えていることを特徴とする請求項1または2に記載の情報処理装置。 When the object in the target image does not fall under any of the plurality of classification categories, or when the accuracy of the determination result of the classification unit is less than a threshold, a viewer of the target image or the object 3. The information processing apparatus according to claim 1, further comprising a visual judgment unit for judging the classification category of the object by receiving an input of the classification category. 上記抽出部の抽出結果と上記機械学習抽出部の抽出結果に基づいて上記機械学習抽出部の抽出精度の評価値を算出する抽出精度判定部と、
上記評価値に基づいて上記機械学習抽出部の再学習を行うタイミングを決定する学習部と、を備えていることを特徴とする請求項1から3の何れか1項に記載の情報処理装置。
an extraction accuracy determination unit that calculates an evaluation value of the extraction accuracy of the machine learning extraction unit based on the extraction result of the extraction unit and the extraction result of the machine learning extraction unit;
4. The information processing apparatus according to any one of claims 1 to 3, further comprising a learning unit that determines timing for re-learning by the machine learning extraction unit based on the evaluation value.
上記訓練用画像と上記抽出部が抽出した上記領域または上記機械学習抽出部が抽出した上記領域とを対応付けて、上記機械学習抽出部の機械学習用の抽出部訓練データを生成する抽出部訓練データ生成部を備えていることを特徴とする請求項1から4の何れか1項に記載の情報処理装置。 An extraction unit that associates the training image with the region extracted by the extraction unit or the region extracted by the machine learning extraction unit to generate extraction unit training data for machine learning of the machine learning extraction unit. 5. The information processing apparatus according to any one of claims 1 to 4 , further comprising a training data generator. 上記抽出部訓練データ生成部は、上記訓練用画像に所定の画像処理を施すことによって生成された1または複数の画像のそれぞれと、上記抽出部が抽出した上記領域または上記機械学習抽出部が抽出した上記領域とを対応付けて上記抽出部訓練データを生成することを特徴とする請求項に記載の情報処理装置。 The extraction unit training data generation unit extracts each of one or more images generated by performing predetermined image processing on the training image and the region extracted by the extraction unit or extracted by the machine learning extraction unit. 6. The information processing apparatus according to claim 5 , wherein the extraction unit training data is generated by associating the region with the extracted region. 請求項1に記載の情報処理装置としてコンピュータを機能させるための対象物判定プログラムであって、上記機械学習抽出部上記分類部、上記抽出部、および上記分類部訓練データ生成部としてコンピュータを機能させるための対象物判定プログラム。 2. An object determination program for causing a computer to function as the information processing apparatus according to claim 1, wherein the computer functions as the machine learning extraction unit , the classification unit , the extraction unit, and the classification unit training data generation unit . Object determination program for
JP2018119346A 2018-06-22 2018-06-22 Information processing device and object determination program Active JP7219023B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018119346A JP7219023B2 (en) 2018-06-22 2018-06-22 Information processing device and object determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018119346A JP7219023B2 (en) 2018-06-22 2018-06-22 Information processing device and object determination program

Publications (2)

Publication Number Publication Date
JP2019220116A JP2019220116A (en) 2019-12-26
JP7219023B2 true JP7219023B2 (en) 2023-02-07

Family

ID=69096793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018119346A Active JP7219023B2 (en) 2018-06-22 2018-06-22 Information processing device and object determination program

Country Status (1)

Country Link
JP (1) JP7219023B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111476234B (en) * 2020-03-17 2024-05-24 平安科技(深圳)有限公司 License plate character shielding recognition method and device, storage medium and intelligent equipment
WO2021214991A1 (en) * 2020-04-24 2021-10-28 日本電気株式会社 Model generation system, shape recognition system, model generation method, shape recognition method, and computer program
JP7502448B2 (en) 2020-07-27 2024-06-18 ファナック株式会社 Inspection Equipment

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003515942A (en) 1999-11-29 2003-05-07 ケイエルエイ−テンコー コーポレイション Power-assisted automatic monitoring and classifier fabrication tool for semiconductor defects
JP2015191666A (en) 2014-03-28 2015-11-02 ゼロックス コーポレイションXerox Corporation Extending data-driven detection to prediction of object part locations
JP2016527646A (en) 2013-08-05 2016-09-08 フェイスブック,インク. Image classification system and method by correlating context cues with images
JP2016176907A (en) 2015-03-23 2016-10-06 石川県 Position measurement system, position measurement device, position measurement method, and program
JP2016194925A (en) 2015-04-01 2016-11-17 株式会社リコー Method and device of detecting road boundary object
JP2016218999A (en) 2015-05-21 2016-12-22 三菱電機株式会社 Method for training classifier to detect object represented in image of target environment
JP2017027227A (en) 2015-07-17 2017-02-02 日本電信電話株式会社 Label estimation function learning device, method, label estimation device, method and program
WO2017109918A1 (en) 2015-12-24 2017-06-29 富士通株式会社 Image processing device, image processing method, and image processing program
WO2017132167A1 (en) 2016-01-28 2017-08-03 Siemens Healthcare Diagnostics Inc. Methods and apparatus adapted to identify a specimen container from multiple lateral views
WO2017194399A1 (en) 2016-05-12 2017-11-16 Bayer Cropscience Aktiengesellschaft Recognition of weed in a natural environment
WO2018089938A1 (en) 2016-11-14 2018-05-17 Siemens Healthcare Diagnostics Inc. Methods, apparatus, and quality check modules for detecting hemolysis, icterus, lipemia, or normality of a specimen

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3279831A1 (en) * 2016-08-03 2018-02-07 Bayer CropScience AG Recognition of weed in a natural environment using a digital image

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003515942A (en) 1999-11-29 2003-05-07 ケイエルエイ−テンコー コーポレイション Power-assisted automatic monitoring and classifier fabrication tool for semiconductor defects
JP2016527646A (en) 2013-08-05 2016-09-08 フェイスブック,インク. Image classification system and method by correlating context cues with images
JP2015191666A (en) 2014-03-28 2015-11-02 ゼロックス コーポレイションXerox Corporation Extending data-driven detection to prediction of object part locations
JP2016176907A (en) 2015-03-23 2016-10-06 石川県 Position measurement system, position measurement device, position measurement method, and program
JP2016194925A (en) 2015-04-01 2016-11-17 株式会社リコー Method and device of detecting road boundary object
JP2016218999A (en) 2015-05-21 2016-12-22 三菱電機株式会社 Method for training classifier to detect object represented in image of target environment
JP2017027227A (en) 2015-07-17 2017-02-02 日本電信電話株式会社 Label estimation function learning device, method, label estimation device, method and program
WO2017109918A1 (en) 2015-12-24 2017-06-29 富士通株式会社 Image processing device, image processing method, and image processing program
WO2017132167A1 (en) 2016-01-28 2017-08-03 Siemens Healthcare Diagnostics Inc. Methods and apparatus adapted to identify a specimen container from multiple lateral views
WO2017194399A1 (en) 2016-05-12 2017-11-16 Bayer Cropscience Aktiengesellschaft Recognition of weed in a natural environment
WO2018089938A1 (en) 2016-11-14 2018-05-17 Siemens Healthcare Diagnostics Inc. Methods, apparatus, and quality check modules for detecting hemolysis, icterus, lipemia, or normality of a specimen

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤田 一弥 外,実装 ディープラーニング,第1版,日本,株式会社オーム社,2016年11月30日,pp. 150-167

Also Published As

Publication number Publication date
JP2019220116A (en) 2019-12-26

Similar Documents

Publication Publication Date Title
US10853702B2 (en) Method and apparatus for checkout based on image identification technique of convolutional neural network
US20190236614A1 (en) Artificial intelligence counterfeit detection
JP7219023B2 (en) Information processing device and object determination program
EP3008666B1 (en) Image based object classification
US9836665B2 (en) Management system, list production device, method, computer readable recording medium, data structure, and printed label
CN110880175B (en) Welding spot defect detection method, system and equipment
KR20180022677A (en) Device and computer implementation method for fingerprint-based authentication
US11107231B2 (en) Object detection device, object detection method, and object detection program
US11741685B2 (en) Commodity identification device, non-transitory computer-readable storage medium, and learning method
WO2022227103A1 (en) Intelligent detection and mark system and method for parts
JP7219016B2 (en) Determination device, determination method, and object determination program
CN115302963A (en) Bar code printing control method, system and medium based on machine vision
CN114445843A (en) Card image character recognition method and device of fixed format
JP2014126445A (en) Alignment device, defect inspection device, alignment method and control program
US11948374B2 (en) Systems and methods for detecting text of interest
CN110443306B (en) Authenticity identification method for wine cork
JP2010243451A (en) Apparatus and method for visual inspection
CN109035686B (en) Loss prevention alarm method and device
CN111950538B (en) Label detection method and device and computer readable storage medium
KR101997498B1 (en) Apparatus for judging a counterfeit product using QR code authentication of package box
CN117474924B (en) Label defect detection method based on machine vision
JPWO2020071188A1 (en) Print inspection device
WO2023171132A1 (en) Information processing system
US20170200383A1 (en) Automated review of forms through augmented reality
US20240087346A1 (en) Detecting reliability using augmented reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230126

R150 Certificate of patent or registration of utility model

Ref document number: 7219023

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150