JP2023026342A - Information processor, information processing method, and program - Google Patents

Information processor, information processing method, and program Download PDF

Info

Publication number
JP2023026342A
JP2023026342A JP2022120715A JP2022120715A JP2023026342A JP 2023026342 A JP2023026342 A JP 2023026342A JP 2022120715 A JP2022120715 A JP 2022120715A JP 2022120715 A JP2022120715 A JP 2022120715A JP 2023026342 A JP2023026342 A JP 2023026342A
Authority
JP
Japan
Prior art keywords
imaging
information processing
processing apparatus
label
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022120715A
Other languages
Japanese (ja)
Inventor
武 大屋
Takeshi Oya
克彦 長崎
Katsuhiko Nagasaki
博一 尾上
Hirokazu Onoe
礼展 斎藤
Hironobu Saito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US17/818,678 priority Critical patent/US20230047614A1/en
Publication of JP2023026342A publication Critical patent/JP2023026342A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

To provide a classification system in which a time required for processing of identification information reading for an article group in which identification information positions or types are different is reduced, algorithm is simple, and addition of a new classification target is made to be easier.SOLUTION: A general type of an object to which identification information is assigned is determined from a first imaged picture obtained by imaging the object. On the basis of the general type of the object is set an imaging condition for imaging a picture for obtaining the identification information. The identification information is identified from a second imaged picture obtained by imaging the object on the set imaging condition and a detailed type of the object is determined on the basis of a result of the identification.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

リサイクル品などの物品の分類を行う際に、カメラで物品を撮像し、画像処理により分類を行うシステムが考案されている。特許文献1には、廃家電品を上面方向及び側面方向から撮像し、それらの撮像信号から得た3次元画像情報によって廃家電品の種別を判定するシステムが開示されている。 2. Description of the Related Art A system has been devised in which an image of an article is captured by a camera and the article is classified by image processing when sorting articles such as recycled articles. Japanese Unexamined Patent Application Publication No. 2002-200002 discloses a system that captures images of a waste home appliance from the top and side directions and determines the type of the waste home appliance based on three-dimensional image information obtained from these imaging signals.

特開平11-83461号公報JP-A-11-83461

特許文献1に記載のシステムでは、テレビ、洗濯機、冷蔵庫等のような概略種別の判定は可能であるものの、より詳細な分類を行うことができなかった。 In the system described in Patent Document 1, although it is possible to determine general types such as televisions, washing machines, refrigerators, etc., it is not possible to perform more detailed classification.

一方で、物品に貼り付けられているラベル記載情報を読み取ることで、その物品の詳細な分類を行うことが考えられる。しかしながら、ラベルの位置やサイズ、記載形式の種類などが異なる物品群に対して単一の画像処理でラベルの記載を読み取ろうとする場合には、画像処理に時間がかかりやすいという問題があった。またこの場合、アルゴリズムが複雑になり、新たな分類対象の追加が困難となる可能性が高かった。 On the other hand, it is conceivable to classify the article in detail by reading the information written on the label attached to the article. However, there is a problem that image processing tends to take a long time when trying to read descriptions on labels with a single image processing for a group of articles having different label positions, sizes, types of description formats, and the like. Moreover, in this case, the algorithm becomes complicated, and there is a high possibility that addition of new classification targets becomes difficult.

本発明の実施形態は、識別情報の位置又は種類が異なる物品群における識別情報を読み取る処理の時間が減少し、アルゴリズムが単純で新たな分類対象の追加がより容易となる分類システムを提供する。 Embodiments of the present invention provide a sorting system that reduces the processing time of reading identification information for a group of items with different locations or types of identification information, simpler algorithms, and easier addition of new classification targets.

本発明の目的を達成するために、例えば、一実施形態に係る情報処理装置は以下の構成を備える。すなわち、識別情報が付された物体を第1の撮像条件に従って撮像した撮像画像から、前記識別情報に関する第1の情報を取得する取得手段と、前記第1の情報に基づいて、前記識別情報に関する第2の情報を得るための第2の撮像条件を設定する設定手段と、前記物体を前記第2の撮像条件に従って撮像した撮像画像から前記第2の情報を取得し、前記第2の情報に基づいて前記識別情報を識別し、前記識別の結果に基づいて前記物体の分類を行う第1の分類手段と、を備える。 In order to achieve the object of the present invention, for example, an information processing apparatus according to one embodiment has the following configuration. That is, acquisition means for acquiring first information related to the identification information from a captured image obtained by capturing an object to which identification information is attached according to a first imaging condition; setting means for setting a second imaging condition for obtaining second information; obtaining the second information from a captured image obtained by imaging the object according to the second imaging condition; and a first classification means for identifying the identification information based on the identification information and classifying the object based on the identification result.

識別情報の位置又は種類が異なる物品群における識別情報を読み取る処理の時間が減少し、アルゴリズムが単純で新たな分類対象の追加がより容易となる分類システムを提供できる。 It is possible to provide a classification system that reduces processing time for reading identification information in a group of articles having different identification information positions or types, and that has a simple algorithm and makes it easier to add new classification targets.

実施形態1に係る分類システムの情報処理装置の構成を示すブロック図。FIG. 2 is a block diagram showing the configuration of the information processing device of the classification system according to the first embodiment; FIG. 実施形態1に係る分類システムにおける撮像機構の一例を示す図。FIG. 4 is a diagram showing an example of an imaging mechanism in the classification system according to the first embodiment; 実施形態1に係る分類システムにおける物体及びラベルの一例を示す図。FIG. 4 is a diagram showing an example of objects and labels in the classification system according to the first embodiment; 実施形態1に係る情報処理の一例を示すフローチャート。4 is a flowchart showing an example of information processing according to the first embodiment; 実施形態1に係る情報処理装置による撮像条件の設定例を示す図。4A and 4B are diagrams showing examples of settings of imaging conditions by the information processing apparatus according to the first embodiment; FIG. 実施形態1に係る情報処理装置による撮像条件の設定例を示す図。4A and 4B are diagrams showing examples of settings of imaging conditions by the information processing apparatus according to the first embodiment; FIG. 実施形態1に係るパターンマッチング処理を説明するための図。4A and 4B are diagrams for explaining pattern matching processing according to the first embodiment; FIG. 実施形態2に係る分類システムにおける物体及びラベルの一例を示す図。FIG. 10 is a diagram showing an example of objects and labels in the classification system according to the second embodiment; 実施形態2に係る識別、分類処理の例を示す図。FIG. 9 is a diagram showing an example of identification and classification processing according to the second embodiment; 実施形態3に係る情報処理の一例を示すフローチャート。10 is a flowchart showing an example of information processing according to the third embodiment; 実施形態4に係る情報処理の一例を示すフローチャート。10 is a flowchart showing an example of information processing according to the fourth embodiment; 実施形態5に係る情報処理の一例を示すフローチャート。14 is a flowchart showing an example of information processing according to the fifth embodiment; スコアによる判定結果の概念を示す図。The figure which shows the concept of the determination result by a score. 分類手段の特性を示す図。The figure which shows the characteristic of a classification means. 分類手段の特性を示す図。The figure which shows the characteristic of a classification means. 振り分けを変更した分類手段の特性を示す図。The figure which shows the characteristic of the classification means which changed distribution. 実施形態6に係る情報処理の一例を示すフローチャート。13 is a flowchart showing an example of information processing according to the sixth embodiment;

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In addition, the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.

[実施形態1]
本実施形態に係る情報処理装置は、識別情報が付された物体を撮像した第1の撮像画像から、物体の概略種別を判別する。次いで、判別した概略種別に基づいて、識別情報を得る画像を撮像するための撮像条件を設定し、設定された撮像条件で物体を撮像した第2の撮像画像から識別情報を識別することで、物体の詳細種別を判別する。
[Embodiment 1]
The information processing apparatus according to the present embodiment determines the general type of the object from the first captured image obtained by capturing the object to which the identification information is attached. Next, based on the determined general type, by setting imaging conditions for imaging an image for obtaining identification information, and identifying the identification information from a second captured image obtained by imaging the object under the set imaging conditions, Determine the detailed type of the object.

図1は、本実施形態に係る情報処理装置を含む分類システムの構成の一例を示すブロック図である。ここで、本実施形態に係る分類システムは、第1の処理部(前段部分)と第2の処理部(後段部分)とを有するが、これらの処理部は基本的に同一の処理が可能である。 FIG. 1 is a block diagram showing an example configuration of a classification system including an information processing apparatus according to this embodiment. Here, the classification system according to the present embodiment has a first processing section (previous stage) and a second processing section (posterior stage), and these processing sections can basically perform the same processing. be.

第1の処理部は、撮像部011、撮像制御部021、画像処理部031、及び光源センサ091を備える。撮像部011は、物品(物体)を撮像して撮像データを取得するカメラ部である。撮像制御部021は、撮像部011による撮像を制御する。図1の例では、撮像制御部021は、分類対象となる物品を検知する光源センサ091からの信号を受信した場合に、(例えば、所定のディレイの後に)撮像部011に撮像を行わせてもよい。表示部06は(PC、又はカメラなどに備え付けられる)ディスプレイであり、処理の結果を表示する。操作部07はユーザの入力を受け付ける機能部であり、例えばキーボード及びマウスなどであってもよく、タッチパネルであってもよく、カメラの有する機械式ボタンなどであってもよい。PLC08は制御部であり、第2の処理部による処理など、本実施形態に係る処理を制御可能である。記憶部04はメモリであり、各機能部による処理結果、撮像部による撮像画像、又は後述する処理で扱うテーブルなどを格納し、またワークメモリとしても機能する。 The first processing unit includes an imaging unit 011 , an imaging control unit 021 , an image processing unit 031 and a light source sensor 091 . The image capturing unit 011 is a camera unit that captures an image of an article (object) and acquires image data. The imaging control unit 021 controls imaging by the imaging unit 011 . In the example of FIG. 1, the imaging control unit 021 causes the imaging unit 011 to perform imaging (for example, after a predetermined delay) when receiving a signal from the light source sensor 091 that detects articles to be classified. good too. A display unit 06 is a display (installed in a PC, a camera, or the like) and displays the result of processing. The operation unit 07 is a functional unit that receives user input, and may be, for example, a keyboard and mouse, a touch panel, or mechanical buttons of a camera. The PLC 08 is a control unit, and can control processing according to the present embodiment, such as processing by the second processing unit. The storage unit 04 is a memory that stores the results of processing by each functional unit, images captured by the imaging unit, or tables used in processing to be described later, and also functions as a work memory.

図2は、本実施形態に係る各撮像部による撮像処理を説明するための図である。この例においては、ベルトコンベア10上を流れてくる分類対象(物品)であるリサイクル品を、まず光源センサ091からの検知信号に応じて撮像部011が撮像する。この例では、撮像部011は、リサイクル品の上部(ベルトコンベア10の上面側)から撮像を行っている。本実施形態に係る画像処理部031は、撮像部011による物品の撮像画像から、物品の識別情報に関する情報を取得する。ここで、識別情報とは、物品を識別するための文字又は記号であり、画像処理によって認識され読み取られることにより、その物品の分類が可能となる情報である。本実施形態においては、識別情報は物品上に付されるラベルに記載されているものとして説明を行うが、例えば物品に直接(凹凸、又は着色などにより)印字されてもよく、撮像画像から物品と関連付けて読み取り可能であれば特にその記載形態は限定されない。 FIG. 2 is a diagram for explaining imaging processing by each imaging unit according to the present embodiment. In this example, the imaging unit 011 first captures an image of a recycled product, which is a classification target (article) flowing on the belt conveyor 10, according to a detection signal from the light source sensor 091. FIG. In this example, the image capturing unit 011 captures the image from above the recycled product (the upper surface side of the belt conveyor 10). The image processing unit 031 according to the present embodiment acquires information regarding the identification information of the article from the image of the article captured by the imaging unit 011 . Here, the identification information is characters or symbols for identifying an article, and is information that enables classification of the article by being recognized and read by image processing. In this embodiment, the identification information is described on a label attached to the article. The description form is not particularly limited as long as it can be read in association with.

例えば、ラベルが物品の側面に付されている場合には、物品の上面側から撮像するよりも側面側から撮像する方がそのラベルの記載を把握しやすくなることが考えられる。また例えば、ラベルが一般的なものよりも暗い色を有している場合には、撮像の露出条件を調整することでラベルの記載を把握しやすくすることが考えられる。そのような観点から、本実施形態に係る情報処理装置は、撮像部011による撮像画像から、ラベルの記載、すなわち識別情報をより高精度に識別可能とするための撮像条件(ラベル撮像条件)を設定する。本実施形態に係る画像処理部031は、学習済みのモデルを用いて、画像内の物品(及びラベルなど)の特徴に基づいてラベル撮像条件を設定するものとするが、上述のように識別情報の識別に適した撮像条件を設定できるのであれば任意の方法でラベル撮像条件を設定してもよい。 For example, if a label is affixed to the side of an article, it is conceivable that it is easier to grasp the description on the label if the image is taken from the side rather than from the top side of the article. Further, for example, if the label has a darker color than the general one, it is conceivable to make it easier to grasp the description on the label by adjusting the imaging exposure conditions. From such a point of view, the information processing apparatus according to the present embodiment sets an imaging condition (label imaging condition) for making it possible to more accurately identify the description of the label, that is, the identification information, from the image captured by the imaging unit 011. set. The image processing unit 031 according to the present embodiment uses a learned model to set the label imaging conditions based on the features of the article (and the label, etc.) in the image. Any method may be used to set the label imaging conditions as long as the imaging conditions suitable for identifying the label can be set.

画像処理部031は、撮像画像から取得される情報に基づいてラベル撮像条件を設定する。本実施形態に係る画像処理部031は、撮像した物品に関する形状などの特徴量に基づいて、ラベル撮像条件を設定することができる。例えば画像処理部031は、学習済みのモデルに撮像画像を入力することで物品の特徴に基づいて物品の概略種別の判別を行い、その概略種別に基づいてラベル撮像条件を設定することができる。このように、物品の形状によってラベル撮像条件を決定することにより、概略種別が同一の、すなわちラベルの位置、サイズ及び形状が同一であり識別情報によって詳細種別の分類がなされる物品について、その位置、サイズ及び形状のラベルを認識しやすい撮像条件を決定することが可能となる。 The image processing unit 031 sets label imaging conditions based on information acquired from the captured image. The image processing unit 031 according to the present embodiment can set the label imaging condition based on the feature amount such as the shape of the imaged article. For example, the image processing unit 031 can determine the general type of the article based on the characteristics of the article by inputting the captured image to the trained model, and set the label imaging condition based on the general type. In this way, by determining the label imaging conditions according to the shape of the article, it is possible to determine the position of the articles that have the same general type, that is, that have the same label position, size, and shape, and that are classified into detailed types based on the identification information. , size and shape of the label can be easily recognized.

なお、ここでは、物品の概略種別とラベル撮像条件との対応関係を示すテーブルが予め用意され、概略種別の分類結果に基づいて、画像処理部031がそのテーブルを参照することによってラベル撮像条件が設定されるものとする。しかしながら、学習モデルがラベル撮像条件の一部または全てを出力してもよく、学習モデルの出力結果に基づいてラベル撮像条件が設定されるのであれば任意の処理が行われてもよい。また本実施形態において、ラベル撮像条件は撮像部による撮像条件であるが、それに加えてその撮像条件で撮像した画像への画像処理の条件(例えば、ゲインの値の調整、又は画像中の分類処理を行うRoIの範囲)を含んでいてもよい。 Here, a table showing the correspondence relationship between the general types of goods and the label imaging conditions is prepared in advance, and the image processing unit 031 refers to the table based on the classification result of the general types to determine the label imaging conditions. shall be set. However, the learning model may output some or all of the label imaging conditions, and arbitrary processing may be performed as long as the label imaging conditions are set based on the output results of the learning model. In this embodiment, the label imaging condition is the imaging condition by the imaging unit. range of RoI to perform).

以下、上述のように物品の形状などからラベル撮像条件を決定する例について説明を行う。図3は、本実施形態におけるリサイクル品(物品)とラベルとを説明するための図である。図3(a)においては、リサイクル品111~114にそれぞれラベル1111、1121、1131、及び1141が付されている様子が示されている。リサイクル品はそれぞれサイズが異なり、またラベルが付されている位置及びラベルの大きさも異なる。 An example of determining the label imaging condition from the shape of the article as described above will be described below. FIG. 3 is a diagram for explaining recycled products (goods) and labels in this embodiment. FIG. 3(a) shows how labels 1111, 1121, 1131, and 1141 are attached to the recycled products 111 to 114, respectively. Recycled products have different sizes, and also different label positions and different label sizes.

図3(b)においては種類の異なるラベル11111~11114が示されている。本実施形態に係るラベルには、付された物品の分類に用いられる文字列又は記号などの情報が記載されている。ここでは、同一のラベル撮像条件が設定される物品では、ラベル内の文字表示位置、文字数、文字フォントなどが略同一(幅を持たせてもよい)であり、それぞれ記載されている文字の内容が異なっているものとする。ラベル11111~11114は、リサイクル品111に付されるラベル1111のバリエーションの例であり、このように同一のラベル撮像条件が設定されるラベルは複数の種類を持ってよい。また、各ラベルは、ラベル11114のように文字だけでなく特定の記号が追加で記載されていてもよい。 Different kinds of labels 11111 to 11114 are shown in FIG. 3(b). The label according to the present embodiment describes information such as a character string or a symbol used for classifying the attached article. Here, for articles for which the same label imaging conditions are set, the character display position, the number of characters, the character font, etc. in the label are substantially the same (the width may be given), and the contents of the characters described respectively are different. Labels 11111 to 11114 are examples of variations of the label 1111 attached to the recyclable product 111, and labels for which the same label imaging conditions are set may have a plurality of types. Also, each label may additionally include a specific symbol in addition to letters, such as label 11114 .

リサイクル品112~114においても、図3(b)と同様、同様のラベル撮像条件が設定されるラベルが複数種類存在する。図3(c)~(e)におけるラベル11211、11311、及び11411は、それぞれリサイクル品112~114に付されるラベルの一例を示している。この例では、ラベル11211は黒地に白い文字で識別情報を有しており、ラベル11311は白地に黒い文字とバーコードで識別情報を有しており、ラベル11411は白地に黒い文字で識別情報を有しており、それぞれラベルのサイズ及び形状が異なる。 In the recycled products 112 to 114 as well, there are a plurality of types of labels for which similar label imaging conditions are set, as in FIG. 3B. Labels 11211, 11311, and 11411 in FIGS. 3(c)-(e) show examples of labels attached to the recycled products 112-114, respectively. In this example, the label 11211 has identification information in white characters on a black background, the label 11311 has identification information in black characters and a barcode on a white background, and the label 11411 has identification information in black characters on a white background. each with a different label size and shape.

次いで、本実施形態においては、設定したラベル撮像条件を用いて、第2の処理部における撮像部0121~0123が物品の撮像を行い、撮像した画像から画像処理部0321~0323が物品の分類を行う。このように、本実施形態に係る処理では、物品を撮像した画像から第1の処理部が物品の概略分類を行ってラベル撮像条件を設定する前段処理を行う。そして、ラベル撮像条件で物品を撮像した画像から第2の処理部が物品の詳細分類を行う後段処理を行う。なお、以下においては第1の処理部と第2の処理部が別個の装置であるものとして説明を行うが、これらの撮像処理が1つの撮像部により行われてもよい。また、前段処理と後段処理とで異なる撮像部を用いるが、画像処理部031の処理と画像処理部0321~0323の処理とが共通の処理部によって行われてもよい。さらに、撮像部の数は特に説明する例のものに限定されるわけではなく、第1の処理部の有する撮像部が複数存在していてもよく、第2の処理部の有する撮像部が1つであってもよい。例えば、1つの物品に対してラベルが複数存在する場合には、後段処理において複数の撮像部を用いてそれぞれのラベルを撮像することが考えられる。 Next, in the present embodiment, the image capturing units 0121 to 0123 in the second processing unit capture images of the articles using the set label capturing conditions, and the image processing units 0321 to 0323 classify the items from the captured images. conduct. As described above, in the processing according to the present embodiment, the first processing unit roughly classifies the articles based on the image of the articles and performs the pre-processing of setting label imaging conditions. Then, the second processing unit performs a post-stage process of classifying the articles in detail based on the images obtained by imaging the articles under the label imaging conditions. In the following description, it is assumed that the first processing unit and the second processing unit are separate devices, but these imaging processes may be performed by one imaging unit. Also, although different imaging units are used for the pre-processing and post-processing, the processing of the image processing unit 031 and the processing of the image processing units 0321 to 0323 may be performed by a common processing unit. Furthermore, the number of imaging units is not limited to the example described, and the first processing unit may have a plurality of imaging units. can be one. For example, when a plurality of labels exist for one article, it is conceivable to image each label using a plurality of imaging units in the post-processing.

上述のように画像処理部031は、第1の撮像画像から取得される情報に基づいてラベル撮像条件を設定する(すなわち、ラベルを読み取りやすいように撮像の条件を調整する)。撮像環境、ラベルや物品の色合いなどによっては、露出条件を変更した方がラベルの読み取りが容易になる場合が考えられる。そのようなケースを考慮して、画像処理部031は、第2の撮像画像を撮像するラベル撮像条件として、例えば撮像の露出条件を変更してもよい。ここで、露出条件とは、撮像の際のゲインの値、露光時間、レンズ絞り、又は光源の光量などを指すものとする。例えば、ラベル1111とラベル1121とを比較すると、ラベル1121の方が暗い色合いとなっている。そのため、ラベル1111を撮像した画像を入力した場合と、ラベル1121を撮像した画像を入力した場合とでは、ラベル1121を用いた場合の方が(例えば)ゲインの値が高く設定される。また、露出条件として光源の角度が設定されてもよい。 As described above, the image processing unit 031 sets the label imaging condition based on the information acquired from the first captured image (that is, adjusts the imaging condition so that the label can be easily read). Depending on the imaging environment, the color of the label and the article, etc., changing the exposure conditions may make it easier to read the label. Considering such a case, the image processing unit 031 may change, for example, the imaging exposure condition as the label imaging condition for imaging the second captured image. Here, the exposure condition refers to a gain value, exposure time, lens aperture, light amount of a light source, or the like at the time of imaging. For example, when label 1111 and label 1121 are compared, label 1121 has a darker shade. Therefore, when the image obtained by imaging the label 1111 is input and when the image obtained by imaging the label 1121 is input, the gain value is set higher (for example) when the label 1121 is used. Also, the angle of the light source may be set as the exposure condition.

また、ラベルのサイズ、又はラベルに記載される文字(記号)のサイズによっては、解像度を変更する方がラベルの読み取りが容易になる場合が考えられる。そのために、画像処理部031は、ラベル撮像条件として解像度を設定してもよい。この「解像度」は、総画素数を表す絶対解像度と、画素の密度を表す相対解像度とを含むものとして以下の説明を行う。図5は、リサイクル品を撮像する際の撮像部とリサイクル品との関係を示す模式図である。ここで、撮像部0111は、リサイクル品の形状からラベル撮像条件を設定するために、リサイクル品111の全体を撮像範囲に収めるように第1の撮像画像の撮像を行っている。一方で、ラベルに記載される識別情報を読み取る際にはラベル全体が画角に収まっていればいいことから、ここではラベル1111全体が収まるような画角に、ラベル撮像条件が設定されている。リサイクル品112の場合においても同様に、ラベル1121全体が画角に収まるように撮像範囲が設定されている。このように、画像処理部031は、物品を撮像した第1の撮像画像に基づいて、ラベルを画角内に収めてかつより識別情報を鮮明に映すことができるように第2の撮像画像の撮像範囲を設定することが可能である。 Also, depending on the size of the label or the size of characters (symbols) written on the label, it may be easier to read the label if the resolution is changed. Therefore, the image processing unit 031 may set the resolution as a label imaging condition. In the following description, this "resolution" includes absolute resolution representing the total number of pixels and relative resolution representing the density of pixels. FIG. 5 is a schematic diagram showing the relationship between the imaging unit and the recycled product when capturing an image of the recycled product. Here, in order to set the label imaging condition based on the shape of the recycled product, the imaging unit 0111 captures the first captured image so that the entire recycled product 111 is included in the imaging range. On the other hand, when the identification information written on the label is read, it is sufficient that the entire label is within the angle of view. Therefore, here, the label imaging condition is set to an angle of view that allows the entire label 1111 to be included. . Similarly, in the case of the recycled product 112, the imaging range is set so that the entire label 1121 is within the angle of view. In this way, the image processing unit 031, based on the first captured image of the article, converts the second captured image so that the label can be contained within the angle of view and the identification information can be displayed more clearly. It is possible to set the imaging range.

また画像処理部031は、撮像部と物品とのワーキングディスタンスを設定することによって、ラベル撮像条件として解像度の設定を行ってもよい。図6は、ラベル撮像条件の設定により、撮像部とリサイクル品との距離を変更する場合の一例を示す模式図である。ラベル1111とラベル1141とを比較すると、ラベル1141の方がラベルのサイズが小さく、記載される文字も細かくなっている。したがって、画像処理部031は、ラベル1141については、ラベル1111における場合よりも撮像部とラベルとの距離がより近くなるように撮像部0121の位置を設定している。このような処理によれば、文字のより細かいラベルの記載を読み取りやすくするために、空間解像度を上げたラベル撮像条件を設定することが可能となる。なお、解像度の設定は、ラベルに応じて記載の読み取り精度を向上させられるのであれば特にその方法自体に制限はなく、例えばレンズの焦点距離を設定してもよい。また画像処理部031は、識別情報の読み取りに必要な個所はラベル部分のみであることから、ラベル撮像条件として、物体の分類処理を行うRegion of Interest(RoI)の切り出し位置を設定してもよい。すなわち、ラベルの認識処理を行うために切り出す撮像画像中の範囲(部分領域)を、ラベル撮像条件として設定してもよい。 Also, the image processing unit 031 may set the resolution as the label imaging condition by setting the working distance between the imaging unit and the article. FIG. 6 is a schematic diagram showing an example of changing the distance between the imaging unit and the recyclable product by setting label imaging conditions. When the label 1111 and the label 1141 are compared, the label size of the label 1141 is smaller and the printed characters are finer. Therefore, the image processing unit 031 sets the position of the imaging unit 0121 so that the distance between the imaging unit and the label is closer to the label 1141 than in the case of the label 1111 . According to such a process, it is possible to set the label imaging condition with an increased spatial resolution in order to make it easier to read the description of the label with finer characters. Note that the method of setting the resolution is not particularly limited as long as the reading accuracy of the description can be improved according to the label, and for example, the focal length of the lens may be set. In addition, since the image processing unit 031 only needs to read the identification information from the label portion, the image processing unit 031 may set the extraction position of the Region of Interest (RoI) for classifying the object as the label imaging condition. . That is, a range (partial region) in the captured image to be cut out for label recognition processing may be set as the label imaging condition.

また、例えば側面にラベルが付された物品を上部から撮像する場合など、ラベルの位置によっては、撮像位置を変更する方がラベルの読み取りが容易になる場合が考えられる。そのような観点から、画像処理部031は、撮像条件として撮像位置を設定してもよい。図1及び2の例では、第2の処理部が撮像部0121~0123の3つを有しており、これらのうちからラベル撮像条件によって1つの撮像部を選択し、選択された撮像部から、物品の詳細分類に用いる画像が取得される。例えば、リサイクル品111又は112のようにラベルが上面に付されている物品に対しては、上部から撮像を行う撮像部0121による撮像画像を用いて物品の詳細分類が行われる。また、リサイクル品113のようにラベルが側面に付されている物品に対しては、その側面側に対応する撮像部(ここでは、撮像部0122)による撮像画像を用いて物品の詳細分類が行われる。なお、上述した通り識別情報の認識にあたり撮像部を複数用いる必要はなく、例えばラベル撮像条件として、単一の撮像部の位置及び姿勢が設定されてもよい。そのために、ラベル撮像条件は、識別情報の認識に用いる撮像部の数を指定してもよく、使用する撮像部を指定してもよい。 In addition, depending on the position of the label, for example, when an article with a label attached to the side thereof is imaged from above, it may be easier to read the label by changing the imaging position. From such a point of view, the image processing unit 031 may set the imaging position as the imaging condition. In the example of FIGS. 1 and 2, the second processing unit has three imaging units 0121 to 0123, from which one imaging unit is selected according to label imaging conditions, and from the selected imaging unit , an image is acquired for detailed classification of the article. For example, for articles with a label attached to the upper surface, such as the recycle items 111 and 112, detailed classification of the articles is performed using an image captured by the imaging unit 0121 that captures images from above. Further, for articles with labels attached to the side surfaces, such as the recycle product 113, detailed classification of the articles is performed using an image captured by the imaging unit (here, the imaging unit 0122) corresponding to the side surface. will be Note that, as described above, it is not necessary to use a plurality of imaging units for recognizing identification information, and for example, the position and orientation of a single imaging unit may be set as label imaging conditions. Therefore, the label imaging condition may specify the number of imaging units used for recognition of identification information, or may specify the imaging units to be used.

第2の処理部は、画像処理部031が設定したラベル撮像条件で物品のラベルを撮像し、ラベルの識別情報を読み取って物品の詳細分類を行う。図1及び図2の例では、第2の処理部は上述のように撮像部0121~0123の3つの撮像部を有しており、そのそれぞれについて第1の処理部と同様に撮像制御部(0221~0223)及び画像処理部(0321~0323)と、光源センサ092とを備える。本実施形態においては、図1及び図2に示されるように、まず撮像部0111による物体の撮像画像からラベル撮像条件が設定され、次いでラベル撮像条件を用いた撮像部0121~0123による物品の撮像及び分類が行われるものとして説明を行う。統合制御部051は、画像処理部031の処理結果を第2の処理部へと送信する。以下、特別に区別する必要がない場合、画像処理部0321~0323をまとめて画像処理部032、撮像部0121~0123をまとめて撮像部012と表すものとする。 The second processing section captures an image of the label of the article under the label imaging conditions set by the image processing section 031, reads the identification information of the label, and performs detailed classification of the article. In the example of FIGS. 1 and 2, the second processing unit has three imaging units 0121 to 0123 as described above, and each of them has an imaging control unit ( 0221 to 0223), an image processing unit (0321 to 0323), and a light source sensor 092. In this embodiment, as shown in FIGS. 1 and 2, label imaging conditions are first set from the image of the object captured by the imaging unit 0111, and then the article is captured by the imaging units 0121 to 0123 using the label imaging conditions. and classification are performed. The integrated control unit 051 transmits the processing result of the image processing unit 031 to the second processing unit. Hereinafter, the image processing units 0321 to 0323 are collectively referred to as the image processing unit 032, and the image capturing units 0121 to 0123 are collectively referred to as the image capturing unit 012, unless special distinction is required.

画像処理部032は、設定されたラベル撮像条件で物品のラベルを撮像する。ここでは、第2の処理部においては、設定されたラベル撮像条件に対応する撮像部が選択されてもよく、ラベル撮像条件に応じて撮像部の各パラメータが設定されてもよく、これらが同時に行われてもよい。また、画像処理部032が複数の撮像部を用いて設定されたラベル撮像条件で物品のラベルを撮像して、それぞれの撮像画像から物品の詳細分類を行い、統合判定部052が複数の詳細分類結果を統合して最終的な物品の詳細分類を決定してもよい。その場合、統合判定部052は、それぞれの分類時に算出されるスコア(尤度など)に基づいて統合結果を決定してもよく、複数の分類結果において最も多く分類された分類を最終的な分類として決定してもよい。 The image processing unit 032 images the label of the article under the set label imaging conditions. Here, in the second processing unit, an imaging unit corresponding to the set label imaging conditions may be selected, and each parameter of the imaging unit may be set according to the label imaging conditions. may be done. In addition, the image processing unit 032 uses a plurality of imaging units to image labels of articles under set label imaging conditions, performs detailed classification of articles from the respective captured images, and an integrated determination unit 052 performs a plurality of detailed classifications. The results may be combined to determine the final product subclass. In that case, the integrated determination unit 052 may determine the integrated result based on the score (likelihood, etc.) calculated at the time of each classification, and select the most frequently classified classification among the plurality of classification results as the final classification. may be determined as

撮像制御部022は、撮像制御部021と同様に各撮像部による撮像を制御する。なお、ラベル撮像条件として撮像を行うタイミング(光源センサ092による物品の検知から撮像までのディレイ時間)が設定されてもよい。撮像を行うタイミングを変えることにより、例えば光源からのラベルの光の反射度合いが変わり、ラベルの読み取りが容易になることが考えられる。 The imaging control unit 022 controls imaging by each imaging unit in the same manner as the imaging control unit 021 . Note that the timing of image capturing (the delay time from the detection of the article by the light source sensor 092 to the image capturing) may be set as the label image capturing condition. By changing the imaging timing, it is conceivable that, for example, the degree of reflection of light from the light source on the label changes, making it easier to read the label.

画像処理部032は、撮像部012による撮像画像から、ラベルの識別情報を読み取って物品の分類を行う。画像処理部032は、識別情報として、ラベルに記載された文字及び記号を認識し、最終的な物品の分類を行うことができる。ここで、画像処理部032は、画像処理として文字読み取り(OCR)を用いて識別情報の読み取りを行うものとするが、例えば文字及び記号を画像としてパターンマッチングで認識するなど、文字及び記号の判別が可能であればその手法は特に限定されない。また画像処理部032は、識別情報として、図3(d)のラベル11311に記載されるような(一次元)バーコード、又はQRコード(登録商標)のような2次元バーコードなどを読み取り、物品の分類を行ってもよい。ここで画像処理部032は、ラベル撮像条件に応じて、識別情報の識別形式を切り替えてもよい。すなわち画像処理部032は、ラベル撮像条件(又は物品の概略種別)に応じて、ラベルから文字又は記号の読み取りを行うか、バーコードの読み取りを行うか、QRコードの読み取りを行うか、又はこれらの2以上を同時に行うかなどの識別形式を切り替えることができる。また、ラベル11114に記載されるような特定の記号の有無が物品の詳細分類に関わる場合を想定して、ラベル撮像条件に応じてラベル内で特定の記号の有無を確認するか否かを決定してもよい。なお、ラベル撮像条件として、例えば識別情報の読み取りの際のパターンマッチングの探索領域、探索角度、又は探索閾値など、識別情報の識別の条件としてのパラメータが設定されていてもよい。また画像処理部032は、ラベル撮像条件(又は物品の概略種別)に応じて、撮像画像の色変更の処理を行ってもよい(例えば、グレースケール化など、公知の任意の色処理が可能である)。画像処理部032は、例えば識別情報と物品の詳細種別との対応関係を示すテーブルを保持しており、このテーブルを参照して対応する詳細種別を出力することが可能である。これらの認識処理は公知の技術であり、詳細な説明は省略する。 The image processing unit 032 reads the identification information of the label from the image captured by the imaging unit 012 and classifies the articles. The image processing unit 032 can recognize characters and symbols written on the label as identification information, and can finally classify the articles. Here, the image processing unit 032 reads identification information using character reading (OCR) as image processing. The method is not particularly limited as long as it is possible. In addition, the image processing unit 032 reads, as identification information, a (one-dimensional) barcode as described in the label 11311 in FIG. Classification of articles may be performed. Here, the image processing unit 032 may switch the identification format of the identification information according to the label imaging conditions. That is, the image processing unit 032 reads characters or symbols from a label, reads a bar code, reads a QR code, or The identification format can be switched, such as whether two or more of Also, assuming that the presence or absence of a specific symbol described on the label 11114 is related to the detailed classification of the article, it is determined whether or not to confirm the presence or absence of the specific symbol within the label according to the label imaging conditions. You may As the label imaging condition, a parameter as a condition for identifying the identification information, such as a pattern matching search area, a search angle, or a search threshold when reading the identification information, may be set. In addition, the image processing unit 032 may change the color of the captured image according to the label imaging conditions (or the general type of the article) (for example, any known color processing such as grayscaling is possible). be). The image processing unit 032 holds, for example, a table indicating the correspondence between identification information and detailed types of articles, and can refer to this table to output the corresponding detailed types. These recognition processes are well-known techniques, and detailed description thereof will be omitted.

ここで、ラベル11114に記載されているような特定の記号の有無が物品の分類に関わる場合、記号の周囲が汚れていたり、光の反射度合いによっては記号を読み取れない可能性がある。即ち、記号有りの物品を記号無しの物品と誤判別する可能性がある。これは記号の有無で判別する場合に特有の事情である。この場合には分類時に算出されるスコア(尤度など)の判定基準を一つではなく二つ設定し、記号有り、記号無し、及び判定不可の三通りに分類することが考えられる。図13A、Bは、それぞれ判定基準が一つの場合と、判定基準が二つの場合とのスコアによる判定結果の概念を示す図である。このような三通りの分類とすることで記号有りの物品を誤って記号無しと分類する確率を減少させ、適切な対応を取ることが可能となる効果がある。 Here, if the presence or absence of a specific symbol such as that described on the label 11114 is related to the classification of the article, there is a possibility that the surrounding of the symbol will be dirty or that the symbol cannot be read depending on the degree of light reflection. That is, there is a possibility that an article with a symbol is misidentified as an article without a symbol. This is a circumstance peculiar to the case of discrimination based on the presence or absence of symbols. In this case, it is conceivable to set not one but two decision criteria for the score (likelihood, etc.) calculated at the time of classification, and classify into three types: with symbols, without symbols, and undecidable. FIGS. 13A and 13B are diagrams showing the concept of determination results based on scores when there is one determination criterion and when there are two determination criteria, respectively. Such three-way classification has the effect of reducing the probability of erroneously classifying items with symbols as those without symbols, and making it possible to take appropriate measures.

図7は、ラベル11111~11114の認識をそれぞれパターンマッチングで行う場合の、テンプレートと探索範囲との設定処理の一例を説明するための図である。図7の例では、識別情報となる文字列がテンプレート(ここでは破線で示される)として設定され、その探索範囲(ここでは一点鎖線で示される)が設定される。ここで、例えばラベル11114に示されるような記号(三角マーク)についても同様にテンプレートと探索範囲との設定が可能である。画像処理部032は、ラベル撮像条件の設定により、これらのテンプレートと探索範囲との設定を切り替えることができる。 FIG. 7 is a diagram for explaining an example of processing for setting a template and a search range when each of the labels 11111 to 11114 is recognized by pattern matching. In the example of FIG. 7, a character string serving as identification information is set as a template (indicated by a dashed line here), and its search range (indicated by a dashed line here) is set. Here, it is possible to similarly set a template and a search range for a symbol (triangular mark) as indicated by the label 11114, for example. The image processing unit 032 can switch between these template and search range settings by setting label imaging conditions.

図4は、本実施形態に係る情報処理装置による分類システムにおける処理の一例を示すフローチャートである。図4の処理は、例えば図2に示すベルトコンベア10において、分類対象となる物品を光源センサが検知した場合に開始される。 FIG. 4 is a flow chart showing an example of processing in the classification system by the information processing apparatus according to this embodiment. The process of FIG. 4 is started when the light source sensor detects an article to be sorted, for example, on the belt conveyor 10 shown in FIG.

S401で光源センサ091は、ベルトコンベア上を流れてくる物品を検知し、その物品を処理対象とする。S402で撮像部0111は、光源センサ091による検知から所定のディレイを待ってから物品の撮像を行う。ここで、所定のディレイは任意の時間として設定されてよい。 In S401, the light source sensor 091 detects an article flowing on the belt conveyor and treats the article as a processing target. In S402, the imaging unit 0111 waits for a predetermined delay from detection by the light source sensor 091, and then images the article. Here, the predetermined delay may be set as any time.

S403で画像処理部031は、S402で撮像された撮像画像に基づいて、物品の概略種別を分類する。ここでは、撮像画像を入力として、学習済みのモデルから物品の概略種別の分類が出力される。S404では、画像処理部031が物品の種別に基づいてラベル撮像条件を設定し、設定したラベル撮像条件を統合制御部051が第2の処理部へと送信する。 In S403, the image processing unit 031 classifies the general type of the article based on the captured image captured in S402. Here, a captured image is used as an input, and a rough classification of the article type is output from the trained model. In S404, the image processing unit 031 sets label imaging conditions based on the type of article, and the integrated control unit 051 transmits the set label imaging conditions to the second processing unit.

S405で光源センサ092は、ベルトコンベア上を流れてくる処理対象を検知する。S406で撮像部0121~0123は、S404で設定したラベル撮像条件に従って処理対象のラベルの撮像を行う。この処理においては、ラベル撮像条件によって選択された撮像部のみが撮像を行ってもよい。あるいは、ラベル撮像条件に関わらず全撮像部が撮像を行い、それらの撮像画像の中から物品の詳細種別の分類に用いられる画像の選択にラベル撮像条件が用いられてもよい。 In S405, the light source sensor 092 detects the processing target flowing on the belt conveyor. In S406, the imaging units 0121 to 0123 image the label to be processed according to the label imaging conditions set in S404. In this process, only the imaging unit selected according to the label imaging conditions may perform imaging. Alternatively, all the imaging units may perform imaging regardless of the label imaging conditions, and the label imaging conditions may be used to select an image to be used for classifying the detailed types of articles from among the captured images.

S407で画像処理部032は、ラベル撮像条件に従って画像の処理(ゲインの値の調節など)を行い、ラベルの識別情報を読み取って物品の詳細分類を行う。S408で統合判定部052は、最終的な物品の分類結果として詳細種別を判別し、分類結果をPLC008へと送信して処理を終了する。 In S407, the image processing unit 032 performs image processing (adjustment of gain value, etc.) according to the label imaging conditions, reads the identification information of the label, and performs detailed classification of the article. In S408, the integrated determination unit 052 determines the detailed type as the final product classification result, transmits the classification result to the PLC 008, and ends the process.

このような処理によれば、まず物品を撮像した画像から、物品に付されたラベルの識別情報をより高精度に識別するための撮像条件を設定することができる。次いで、設定した撮像条件で撮像した物品上のラベルの識別情報から物品の詳細分類を行うことが可能となる。したがって、ラベルの認識に適した条件で撮像した画像からのみ詳細分類の画像処理を行えばよく、処理時間を短縮し、新たな分類対象の追加が可能となる単純なアルゴリズムの分類システムを提供することが可能となる。 According to such processing, it is possible to first set the imaging conditions for identifying the identification information of the label attached to the article with higher accuracy from the image of the article. Next, it becomes possible to classify the articles in detail based on the identification information of the labels on the articles imaged under the set imaging conditions. Therefore, it is sufficient to perform image processing for detailed classification only from images captured under conditions suitable for label recognition, and to provide a simple algorithm classification system that reduces processing time and enables the addition of new classification targets. becomes possible.

なお、図2などでは分類対象となる物品の例としてリサイクル品を用いたが、例えば物流倉庫における物品の分類など、任意の物品の分類において本実施形態に係る情報処理装置の分類システムを使用することが可能である。 In FIG. 2 and the like, recycled products are used as examples of articles to be classified, but the classification system of the information processing apparatus according to the present embodiment can be used to classify arbitrary articles, such as article classification in distribution warehouses. Is possible.

[実施形態2]
例えば図8に示されるように、形状が若干異なるが類似している(すなわち、実施形態1に係る処理では、ラベル撮像条件が同一に設定され得る)物品であるものの、各物品上の識別情報が付されている位置などが大きく異なる場合が想定される。そのような場合には、これらの異なるラベルの両方から物品の分類が行えるような画像処理を行う必要が生じる。本実施形態に係る情報処理装置は、実施形態1と同様の処理が可能であることに加えて、物品の形状は類似しているがラベルの位置が異なる複数の物品が存在する場合に、そのいずれであってもより高精度に識別を行うためのラベル撮像条件を設定する。
[Embodiment 2]
For example, as shown in FIG. 8, although the articles have slightly different shapes but are similar (that is, in the processing according to the first embodiment, the same label imaging conditions can be set), the identification information on each article It is assumed that the positions marked with are significantly different. In such cases, it is necessary to perform image processing such that the article can be classified from both of these different labels. The information processing apparatus according to the present embodiment can perform processing similar to that of the first embodiment. In any case, the label imaging conditions are set for performing identification with higher accuracy.

図8は上述したように、形状が類似するがラベルの位置及び記載内容は異なるリサイクル品111(ラベル1111)及びリサイクル品115(ラベル1151)を表す図である。図8(a)は各リサイクル品の外観を示しており、図8(b)及び図8(c)はそれぞれラベル1111及びラベル1151が包含する複数種類のラベルの例である。 As described above, FIG. 8 is a diagram showing recycled product 111 (label 1111) and recycled product 115 (label 1151) that are similar in shape but different in label position and description. FIG. 8(a) shows the appearance of each recycled product, and FIGS. 8(b) and 8(c) are examples of multiple types of labels included in the labels 1111 and 1151, respectively.

ここで、画像処理部031は、第1の物品(リサイクル品111)と第2の物品(リサイクル品115)とのどちらの画像を入力としても同一のラベル撮像条件を出力するように学習されたモデルを用いてラベル撮像条件を設定することができる。すなわち、第1の物品におけるラベルの認識と、第2の物品におけるラベルの認識と、の両方が可能となるようにラベル撮像条件を設定することができる。この処理について図9を参照して説明を行う。図9(a)は、実施形態1に係る処理により、リサイクル品111とリサイクル品115とで別々のラベル撮像条件が行われた場合を示す図である。 Here, the image processing unit 031 has been learned to output the same label imaging condition regardless of whether the image of the first article (recycled product 111) or the second article (recycled product 115) is input. A model can be used to set label imaging conditions. That is, the label imaging conditions can be set so that both the recognition of the label of the first article and the recognition of the label of the second article are possible. This processing will be described with reference to FIG. FIG. 9A is a diagram showing a case where different label imaging conditions are performed for the recycled product 111 and the recycled product 115 by the processing according to the first embodiment.

図9(b)は、入力された撮像画像にリサイクル品111とリサイクル品115とのいずれが写っていても、「111+115」として物品の種別の認識処理を行うよう学習されたモデルを説明する図である。この例では、画像処理部031は、リサイクル品111でも115でも共通に分類される「111+115」に応じたラベル撮像条件を設定して、かつ物品の分類処理ではラベル1111とラベル1115との両方を想定した分類処理を行う。この「両方を想定した分類処理」とは、両方が同時に、又は順に分類可能である処理であり、この例では、両パターンを用いたパターンマッチングである。 FIG. 9(b) is a diagram for explaining a model that has been learned to recognize the item type as "111+115" regardless of whether the recycle item 111 or the recycle item 115 appears in the input captured image. is. In this example, the image processing unit 031 sets label imaging conditions according to "111+115", which is commonly classified for both recycled products 111 and 115. Perform the expected classification process. This "classification process assuming both" is a process in which both can be classified simultaneously or in order, and in this example, it is pattern matching using both patterns.

また画像処理部031は、学習モデルによって第1の物品(リサイクル品111)と第2の物品(リサイクル品115)とで異なる種別に分類されるが、そのどちらの分類であっても両物品を想定したラベル撮像条件を設定してもよい。図9(c)は、そのような物品の分類処理を行うケースを説明するための図である。この例では、学習済みモデルによってリサイクル品111とリサイクル品115とでそれぞれ異なる種別として分類が行われている。ここで画像処理部031は、物品の分類された種別がリサイクル品111であってもリサイクル品115であっても、その両方を想定した分類処理を行う。 The image processing unit 031 classifies the first item (recycled item 111) and the second item (recycled item 115) into different types according to the learning model. An assumed label imaging condition may be set. FIG. 9(c) is a diagram for explaining a case in which such an article classification process is performed. In this example, the recycle product 111 and the recycle product 115 are classified as different types by the learned model. Here, the image processing unit 031 performs classification processing assuming both of the classified types of the articles are the recycled products 111 and the recycled products 115 .

このような処理によれば、物品の形状から学習済みのモデルによる識別(物品の概略種別の分類)を誤りやすい場合であっても、物品の詳細種別の分類処理を正確に行うための撮像条件の設定を行うことが可能となる。 According to such a process, even if it is easy to make an error in the identification (classification of the general type of the article) by the model that has already learned from the shape of the article, the imaging condition for accurately performing the classification process of the detailed type of the article can be set.

[実施形態3]
実施形態1及び2に係る情報処理装置は、学習モデルによって物品の概略種別の分類を行い、その分類に基づいてラベル撮像条件を設定した。一方、実施形態3に係る情報処理装置は、学習済みの学習モデルを用いて物体検知を行うことにより、画像から識別情報の位置・種類(ラベル位置・種類)を特定し、特定したラベル位置・種類を用いてラベル撮像条件を設定する。本実施形態に係る情報処理装置は、実施形態1と同様の処理部を有し、同様の処理が可能であるため、重複する説明は省略する。
[Embodiment 3]
The information processing apparatuses according to Embodiments 1 and 2 roughly classify articles by learning model, and set label imaging conditions based on the classification. On the other hand, the information processing apparatus according to the third embodiment identifies the position/type (label position/type) of the identification information from the image by performing object detection using the learned model, and identifies the identified label position/type. The type is used to set label imaging conditions. The information processing apparatus according to the present embodiment has processing units similar to those of the first embodiment, and is capable of performing similar processing, so redundant description will be omitted.

上述のように、本実施形態に係る情報処理装置が用いる学習モデルは、物品を撮像した画像から、物品上のラベルの位置・種類などを出力する。そこで、画像処理部031は、学習モデルの出力に応じたラベル撮像条件の設定を行うことが可能である。例えば、ラベルの位置に基づいて画像の解像度を変更する、又はラベル位置における画像の鮮鋭度によって合焦に関する撮像パラメータを調整することができる。 As described above, the learning model used by the information processing apparatus according to the present embodiment outputs the position, type, etc. of the label on the article from the captured image of the article. Therefore, the image processing unit 031 can set label imaging conditions according to the output of the learning model. For example, image resolution can be changed based on label position, or imaging parameters related to focus can be adjusted by image sharpness at label position.

図10は、本実施形態に係る情報処理装置による分類システムにおける処理の一例を示すフローチャートである。図10に記載される処理は、S403及びS404に代わってS1001及びS1002が行われることを除き、図4と同様であるため、重複する説明は省略する。 FIG. 10 is a flow chart showing an example of processing in the classification system by the information processing apparatus according to this embodiment. The processing described in FIG. 10 is the same as that in FIG. 4 except that S1001 and S1002 are performed instead of S403 and S404, so redundant description will be omitted.

S1001で画像処理部031は、学習モデルを用いた物体検知によって、S402で撮像した撮像画像から物品の概略種別を判別し、物品のラベル位置・種類を特定する。S1002で画像処理部031は、S1001で特定したラベル位置・種類を用いてラベル撮像条件の設定を行い、処理をS405へと進める。 In S1001, the image processing unit 031 determines the general type of the article from the captured image captured in S402 by object detection using the learning model, and identifies the label position and type of the article. In S1002, the image processing unit 031 sets label imaging conditions using the label position/type identified in S1001, and advances the process to S405.

このような処理によれば、画像から特定したラベルの位置・種類を用いて、物品の分類に用いるラベル撮像条件を設定することが可能となる。したがって、形状が類似している(形状による種別の分類に誤りが生じやすい)物品についても、ラベルの位置・種類を特定することによってラベル撮像条件を設定することが可能となる。なお、1つの物品に対してラベルが複数付されており、そのそれぞれが物品の別の面に存在する場合には、複数の撮像部011によって各ラベルが撮像され、各々について後続する処理が行われてもよい。 According to such processing, it is possible to set the label imaging conditions used for classifying the articles by using the position and type of the label specified from the image. Therefore, it is possible to set the label imaging condition by specifying the position and type of the label even for articles with similar shapes (errors are likely to occur in the classification of the type based on the shape). If a plurality of labels are affixed to one article and each label is present on a different surface of the article, each label is imaged by a plurality of imaging units 011, and subsequent processing is performed for each label. may be broken.

[実施形態4]
実施形態1~3に係る情報処理装置では、画像処理部031は単一の学習モデルを用いて処理を行うことを想定していたが、これを二つ以上の複数の学習モデルに適用することも可能である。図11は、本実施形態に係る情報処理装置による分類システムにおける処理の一例を示すフローチャートである。尚、説明は本実施形態に特有の箇所のみ行う。
[Embodiment 4]
In the information processing apparatus according to Embodiments 1 to 3, the image processing unit 031 is assumed to perform processing using a single learning model, but it is possible to apply this to a plurality of learning models of two or more. is also possible. FIG. 11 is a flow chart showing an example of processing in the classification system by the information processing apparatus according to this embodiment. Note that the description will be made only for the parts unique to the present embodiment.

本実施形態では、学習モデルAと学習モデルBの二つの学習モデルを備えた場合について説明する。S1101で画像処理部031は、学習モデルAを用いて、S402で撮像した撮像画像から物品の種別を分類する。また、S1102で画像処理部031は、学習モデルBを用いて、S402で撮像した撮像画像から物品の種別を分類する。次にS1103で画像処理部031は、S1101とS1102の分類結果からよりスコアの高い、すなわち分類精度の高い結果を概略種別として決定する。以降の処理は実施形態1と同様である。 In this embodiment, a case in which two learning models, learning model A and learning model B, are provided will be described. In S1101, the image processing unit 031 uses the learning model A to classify the type of article from the captured image captured in S402. Also, in S1102, the image processing unit 031 uses the learning model B to classify the type of article from the captured image captured in S402. Next, in S1103, the image processing unit 031 determines a result with a higher score from the classification results of S1101 and S1102, that is, a result with higher classification accuracy, as the outline type. Subsequent processing is the same as in the first embodiment.

上記のような処理によれば、複数の学習モデルによる処理を踏まえて種別を決定するので、分類精度を向上させる効果が期待できる。尚、本実施形態では、二つの学習モデルを備えた場合を説明したが、三つ以上の学習モデルを備えていても良い。 According to the processing described above, the type is determined based on the processing by a plurality of learning models, so an effect of improving the classification accuracy can be expected. In this embodiment, the case where two learning models are provided has been described, but three or more learning models may be provided.

[実施形態5]
実施形態4に係る情報処理装置は、画像処理部031での複数の学習モデルを用いた処理結果である複数の概略種別から単一の概略種別を決定していた。これに対し、本実施形態では、複数の概略種別のそれぞれを用いて撮像部012での撮像を複数行い、それぞれの詳細種別の判別結果から詳細種別を決定する構成とする。図12は、本実施形態に係る情報処理装置による分類システムにおける処理の一例を示すフローチャートである。尚、説明は本実施形態に特有の箇所のみ行う。
[Embodiment 5]
The information processing apparatus according to the fourth embodiment determines a single outline type from a plurality of outline types that are processing results using a plurality of learning models in the image processing unit 031 . On the other hand, in the present embodiment, a plurality of images are captured by the imaging unit 012 using each of a plurality of general types, and the detailed type is determined from the detailed type determination results. FIG. 12 is a flow chart showing an example of processing in the classification system by the information processing apparatus according to this embodiment. Note that the description will be made only for the parts unique to the present embodiment.

S1201では、画像処理部031が複数の概略種別の各々に対して、ラベル撮像条件を設定し、設定した複数のラベル撮像条件を統合制御部05が第2の処理部へと送信する。 In S1201, the image processing unit 031 sets label imaging conditions for each of a plurality of outline types, and the integrated control unit 05 transmits the set label imaging conditions to the second processing unit.

S1202では、撮像部012はS1201で設定した学習モデルAの判別結果である概略種別に基づくラベル撮像条件に従って撮像を行う。S1203では、画像処理部032は、学習モデルAの判別結果に基づくラベル撮像条件に対応する画像処理の条件に従って画像の処理(ゲインの値の調節など)を行い、ラベルの識別情報を読み取って物品の詳細種別の分類を行う。 In S1202, the imaging unit 012 performs imaging according to the label imaging conditions based on the general type, which is the discrimination result of the learning model A set in S1201. In S1203, the image processing unit 032 performs image processing (adjustment of gain value, etc.) according to image processing conditions corresponding to the label imaging conditions based on the determination result of learning model A, reads the label identification information, and reads the article. Classify the detailed type of

S1204では、撮像部012はS1201で設定した学習モデルBの判別結果である概略種別に基づくラベル撮像条件に従って撮像を行う。S1205では、画像処理部032は学習モデルBの判別結果に基づくラベル撮像条件に対応する画像処理の条件に従って画像の処理(ゲインの値の調節など)を行い、ラベルの識別情報を読み取って物品の詳細種別の分類を行う。 In S1204, the imaging unit 012 performs imaging according to the label imaging condition based on the general type, which is the discrimination result of the learning model B set in S1201. In S1205, the image processing unit 032 performs image processing (adjustment of gain value, etc.) according to the image processing conditions corresponding to the label imaging conditions based on the determination result of the learning model B, reads the identification information of the label, and identifies the article. Perform detailed classification.

S1206では、画像処理部032は、S1203とS1205のそれぞれの分類結果である詳細種別からよりスコアの高い、すなわち分類精度の高い分類結果を詳細種別として決定する。上記のような処理によれば、複数の学習モデルに基づく処理結果に応じて複数の撮像条件に基づく撮像を行い、詳細種別を決定するので、さらなる分類精度の向上が期待出来る。 In S1206, the image processing unit 032 determines, as the detailed type, a classification result with a higher score, ie, a higher classification accuracy, from the detailed types that are the classification results of S1203 and S1205. According to the above-described processing, imaging is performed based on a plurality of imaging conditions according to processing results based on a plurality of learning models, and detailed types are determined, so further improvement in classification accuracy can be expected.

[実施形態6]
前述までの実施形態に係る情報処理装置において、画像処理部031及び画像処理部032での物品の分類処理の特性として、分類の対象となる物品の対象数(以下、分類種別数と称する)が増加しても必要な処理時間はほぼ一定の特性を持つ分類処理Aと、分類種別数の増加と共に必要な処理時間が増加していく特性を持つ分類処理Bが存在する。図14Aには分類処理Aの特性を、図14Bには分類処理Bの特性を模式図で示す。例えば、学習モデルを用いた分類は分類処理Aであり、パターンマッチングなどを用いた分類は分類処理Bである。
[Embodiment 6]
In the information processing apparatus according to the embodiments described above, as a characteristic of the classification processing of articles in the image processing unit 031 and the image processing unit 032, the number of objects to be classified (hereinafter referred to as the number of classification types) is There are a classification process A that has a characteristic that the required processing time is almost constant even if the number of classification types increases, and a classification process B that has a characteristic that the required processing time increases as the number of classification types increases. FIG. 14A shows the characteristic of the classification process A, and FIG. 14B shows the characteristic of the classification process B in a schematic diagram. For example, classification using a learning model is classification processing A, and classification using pattern matching or the like is classification processing B.

例えば、画像処理部031における概略種別の分類処理に分類処理Aを、画像処理部032における詳細種別の分類処理に分類処理Bを適用するとする。この場合、対象となる全分類種別数を分類処理Aと分類処理Bのどちらにどれだけ振り分けるかによって全体の処理時間は異なってくる。即ち、分類処理Bに振り分ける数が多い程、全体の処理時間は多くなる。一方で、全体の処理時間は装置として要求される時間を下回ることが求められる。また、振り分けには本実施形態で挙げた分類処理Aと分類処理Bの処理時間だけでなく、最終的な分類精度の要求を達成可能なことも考慮して決定する必要がある。図15A~Bには全体の処理時間が要求を達成出来ていない場合の一例を示す。図15Aにおいて、1501は分類特性Aに振り分けられた分類種別数を示している。図15Bにおいて、1502は分類特性Bに振り分けられた分類種別数を示している。図15Bでは要求処理時間を超えてしまっていることを示している。 For example, it is assumed that the classification processing A is applied to the general type classification processing in the image processing unit 031 and the classification processing B is applied to the detailed type classification processing in the image processing unit 032 . In this case, the total processing time differs depending on whether the total number of target classification types is allocated to classification processing A or classification processing B. FIG. That is, the greater the number of items sorted into the classification process B, the longer the overall processing time. On the other hand, the total processing time is required to be less than the time required for the device. In addition, it is necessary to determine the allocation in consideration of not only the processing time of the classification processing A and the classification processing B cited in this embodiment, but also the ability to achieve the final classification accuracy requirement. 15A and 15B show an example of the case where the total processing time cannot meet the requirements. In FIG. 15A, 1501 indicates the number of classification types assigned to the classification characteristic A. In FIG. In FIG. 15B, 1502 indicates the number of classification types assigned to the classification characteristics B. In FIG. FIG. 15B shows that the requested processing time has been exceeded.

図16A~Bは、図15A~Bとは振り分けを変更した例である。図16Aでは1601が分類特性Aに新たに振り分けられた分類種別数を示している。図16Bでは1602が分類特性Bに新たに振り分けられた分類種別数を示している。1502よりも分類種別数を減らしたことで、要求処理時間を下回っていることを示している。 16A and 16B are examples in which the distribution is changed from that of FIGS. 15A and 15B. In FIG. 16A, 1601 indicates the number of classification types newly assigned to the classification characteristic A. In FIG. In FIG. 16B, 1602 indicates the number of classification types newly assigned to the classification characteristic B. In FIG. By reducing the number of classification types from 1502, it is shown that it is less than the required processing time.

装置の動作に際して、対象となる全分類種別数の振り分けについては、上記を踏まえて決定する必要がある。図17は、本実施形態に係る情報処理装置による分類システムにおける処理の一例を示すフローチャートである。S1701では、対象となる全分類種別を確定させる。S1702では、統合制御部05が、全分類種別を画像処理部031及び画像処理部032のどちらで分類させるかを振り分ける。S1703では、統合制御部05が、振り分けた結果を基に処理時間及び分類精度を算出する。算出には予め撮像した物品の画像を用いて、処理を試行するなどの処理が考えられる。また、学習モデルの再学習が必要な場合は再学習を実施し、その結果を用いて算出する。各画像処理部がそれぞれの処理時間及び分類精度を算出して、統合制御部05に通知するようにしてもよい。 In the operation of the apparatus, it is necessary to determine the allocation of all target classification types based on the above. FIG. 17 is a flowchart showing an example of processing in the classification system by the information processing apparatus according to this embodiment. In S1701, all target classification types are determined. In S1702, the integrated control unit 05 sorts out by which of the image processing unit 031 and the image processing unit 032 all classification types are to be classified. In S1703, the integrated control unit 05 calculates the processing time and classification accuracy based on the result of sorting. For the calculation, processing such as trial processing using an image of the article captured in advance can be considered. Also, if the learning model needs to be re-learned, the re-learning is performed, and the result is used for the calculation. Each image processing unit may calculate its own processing time and classification accuracy and notify the integrated control unit 05 of them.

S1704では、統合制御部05が、算出した処理時間及び分類精度が要求を満たしているかを判定する。要求を満たしていない場合は、S1507へ進み、再度、分類種別数の振り分けを行う。要求を満たしている場合は、S1705にて、統合制御部05が、振り分け情報を記憶部04へ記憶しておき、実際の動作に備える。要求を満たすまで、上記処理を繰り返す。 In S1704, the integrated control unit 05 determines whether the calculated processing time and classification accuracy satisfy the requirements. If the request is not satisfied, the process advances to S1507 to sort the number of classification types again. If the request is satisfied, in S1705 the integrated control unit 05 stores the sorting information in the storage unit 04 in preparation for the actual operation. The above process is repeated until the requirements are met.

上記のような処理によれば、分類処理の特性に応じた分類種別数の振り分けを行い、要求を達成させることが可能となる。また、装置の運用途中に対象となる分類種別数が増加する場合も考えられる。その場合にも、図17のフローチャートを実行することで、増加した分類種別数に対する要求を満たした上での動作を継続することが出来る。 According to the processing as described above, it is possible to sort the number of classification types according to the characteristics of the classification processing and to achieve the request. Also, it is conceivable that the number of target classification types increases during the operation of the apparatus. Even in such a case, by executing the flowchart of FIG. 17, the operation can be continued after satisfying the increased number of classification types.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.

011:撮像部、021:撮像制御部、031:画像処理部、051:統合制御部 011: imaging unit, 021: imaging control unit, 031: image processing unit, 051: integrated control unit

Claims (26)

識別情報が付された物体を撮像した第1の撮像画像から、前記物体の概略種別を判別する概略判別手段と、
前記物体の概略種別に基づいて、前記識別情報を得る画像を撮像するための撮像条件を設定する設定手段と、
前記物体を前記撮像条件で撮像した第2の撮像画像から前記識別情報を識別し、前記識別の結果に基づいて前記物体の詳細種別を判別する詳細判別手段と
を備えることを特徴とする情報処理装置。
general discrimination means for discriminating a general type of an object from a first captured image obtained by capturing an object to which identification information is attached;
setting means for setting imaging conditions for imaging an image for obtaining the identification information based on the general type of the object;
and detailed discrimination means for discriminating the identification information from a second captured image obtained by capturing the object under the imaging conditions, and discriminating a detailed type of the object based on the result of the discrimination. Device.
前記設定手段は、前記物体の概略種別と撮像条件とを対応付けたテーブルを参照して前記撮像条件を設定することを特徴とする、請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein said setting means sets said imaging condition by referring to a table in which said rough type of said object and said imaging condition are associated with each other. 前記概略判別手段は、前記第1の撮像画像から前記物体の特徴を取得し、
物体の特徴から物体を概略種別に分類するように学習された学習モデルを用いて、前記第1の撮像画像から取得した物体の特徴から前記物体の概略種別を判別することを特徴とする、請求項1に記載の情報処理装置。
The rough discrimination means acquires the features of the object from the first captured image,
A general classification of the object is determined from the characteristics of the object acquired from the first captured image using a learning model trained to classify the object into general classifications based on the characteristics of the object. Item 1. The information processing apparatus according to item 1.
前記物体の特徴が、前記物体の形状を表す特徴であることを特徴とする、請求項2に記載の情報処理装置。 3. The information processing apparatus according to claim 2, wherein the feature of said object is a feature representing the shape of said object. 前記概略判別手段は、入力された画像中の物体を概略種別に分類するように学習された複数の学習モデルをそれぞれ用いて、前記物体に対して複数の分類結果を求め、該複数の分類結果から概略種別の最終結果を判定することを特徴とする、請求項1に記載の情報処理装置。 The rough discriminating means obtains a plurality of classification results for the object using a plurality of learning models trained to roughly classify the object in the input image, and obtains the plurality of classification results. 2. The information processing apparatus according to claim 1, wherein the final result of the general type is determined from the. 前記概略判別手段は、入力された画像中の物体を概略種別に分類するように学習された複数の学習モデルをそれぞれ用いて、前記物体の概略種別に対する複数の分類結果及び複数の撮像条件を導出し、複数の詳細種別を求め、該複数の詳細種別から詳細種別の最終結果を判定することを特徴とする、請求項1に記載の情報処理装置。 The rough discriminating means derives a plurality of classification results and a plurality of imaging conditions for the rough classification of the object using a plurality of learning models trained to classify the object in the input image into the rough classification. 2. The information processing apparatus according to claim 1, wherein a plurality of detailed types are obtained, and a final result of the detailed types is determined from the plurality of detailed types. 前記設定手段は、第1の物体に付された前記識別情報と、前記第1の物体と類似する第2の物体に付された前記識別情報と、のいずれをも識別するための撮像条件を設定することを特徴とする、請求項1に記載の情報処理装置。 The setting means sets imaging conditions for identifying both the identification information attached to the first object and the identification information attached to the second object similar to the first object. 2. The information processing apparatus according to claim 1, wherein the setting is performed. 前記概略判別手段は、前記第1の物体と、前記第2の物体と、を共通の概略種別と判別し、
前記設定手段は、前記共通の概略種別に基づいて、前記撮像条件を設定することを特徴とする、請求項7に記載の情報処理装置。
The rough discrimination means discriminates the first object and the second object as common rough types,
8. The information processing apparatus according to claim 7, wherein said setting means sets said imaging conditions based on said common outline type.
前記撮像条件が、前記第1の撮像画像における前記識別情報の位置に対応する撮像位置を含むことを特徴とする、請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein said imaging condition includes an imaging position corresponding to a position of said identification information in said first captured image. 前記撮像条件が、撮像の露出条件を含むことを特徴とする、請求項1に記載の情報処理装置。 2. An information processing apparatus according to claim 1, wherein said imaging conditions include imaging exposure conditions. 前記露出条件は、ゲイン、露光時間、レンズ絞り、光源の光量、又は光源の角度の少なくとも1つを含むことを特徴とする、請求項10に記載の情報処理装置。 11. The information processing apparatus according to claim 10, wherein said exposure condition includes at least one of gain, exposure time, lens aperture, amount of light of light source, and angle of light source. 前記撮像条件が撮像の解像度を含むことを特徴とする、請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein said imaging conditions include imaging resolution. 前記設定手段は、撮像部の位置又は姿勢を設定する、撮像の焦点距離を設定する、又は前記識別情報の識別を行う範囲を設定することにより前記解像度を設定することを特徴とする、請求項12に記載の情報処理装置。 The setting means sets the resolution by setting the position or orientation of the imaging unit, setting the focal length of imaging, or setting the range for identifying the identification information. 13. The information processing device according to 12. 前記撮像条件が撮像のタイミングを含むことを特徴とする、請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein said imaging condition includes imaging timing. 前記概略種別に基づいて、前記詳細判別手段が前記識別情報の識別を行う識別形式を決定する決定手段をさらに備えることを特徴とする、請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, further comprising determining means for determining, based on said general classification, an identification format for identifying said identification information by said detailed determination means. 前記決定手段が、前記識別形式を、文字又は記号の読み取りを行う形式、前記識別情報をパターンマッチングにより認識する形式、バーコードの読み取りを行う形式、QRコードの読み取りを行う形式、又は特定の記号の有無を確認する形式として決定することを特徴とする、請求項15に記載の情報処理装置。 The determination means determines the identification format as a format for reading characters or symbols, a format for recognizing the identification information by pattern matching, a format for reading barcodes, a format for reading QR codes, or a specific symbol 16. The information processing apparatus according to claim 15, wherein the determination is made as a format for confirming the presence or absence of. 前記決定手段が、前記識別形式を、前記特定の記号の有無を確認する形式に決定している場合、識別結果を特定記号の有無及び識別不可の3つに分類することを特徴とする、請求項16に記載の情報処理装置。 wherein said determining means classifies the identification results into three categories of presence/absence of a specific symbol and non-identifiable when the identification format is determined to confirm the presence/absence of the specific symbol. Item 17. The information processing device according to item 16. 前記決定手段は、前記概略種別に基づいて、前記識別情報の識別を行う際のパラメータをさらに決定することを特徴とする、請求項15に記載の情報処理装置。 16. The information processing apparatus according to claim 15, wherein said determining means further determines a parameter for identifying said identification information based on said general type. 前記決定手段は、前記識別形式を、前記識別情報をパターンマッチングにより認識する形式に決定している場合に、前記パラメータとして、前記パターンマッチングによる探索領域、探索角度、又は探索閾値をさらに決定することを特徴とする、請求項18に記載の情報処理装置。 When the identification format is determined to be a format for recognizing the identification information by pattern matching, the determining means further determines, as the parameter, a search area, a search angle, or a search threshold by the pattern matching. 19. The information processing apparatus according to claim 18, characterized by: 前記詳細判別手段が、前記物体を前記撮像条件に従って撮像した撮像画像を色変更した画像から前記識別情報を識別し、
前記決定手段は、前記識別形式において、前記色変更の形式を決定することを特徴とする、請求項15に記載の情報処理装置。
The detailed determination means identifies the identification information from an image obtained by changing the color of the captured image of the object captured according to the imaging condition,
16. The information processing apparatus according to claim 15, wherein said determination means determines said color change format in said identification format.
前記第2の撮像画像を撮像可能な複数の撮像装置を備えており、前記撮像条件が、前記第2の撮像画像を撮像する撮像装置の数、又は前記第2の撮像画像を撮像する撮像装置の指定であることを特徴とする、請求項1に記載の情報処理装置。 A plurality of imaging devices capable of imaging the second captured image are provided, and the imaging condition is the number of imaging devices that capture the second captured image or the imaging devices that capture the second captured image. 2. The information processing apparatus according to claim 1, wherein the designation is . 前記第2の撮像画像を撮像可能な複数の撮像装置を備えており、前記詳細判別手段が、当該複数の撮像装置から前記識別に用いる第2の撮像画像を取得する撮像装置を選択することを特徴とする、請求項1に記載の情報処理装置。 A plurality of imaging devices capable of imaging the second captured image are provided, and the detail determination means selects an imaging device that acquires the second captured image used for identification from the plurality of imaging devices. The information processing apparatus according to claim 1, characterized in that. 前記識別情報が、前記物体に付されるラベルに記載されていることを特徴とする、請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein said identification information is written on a label attached to said object. 前記概略判別手段及び前記詳細判別手段における分類精度と処理時間とに基づいて、前記概略判別手段及び前記詳細判別手段のそれぞれによって分類すべき種別の数を振り分けることを特徴とする、請求項1に記載の情報処理装置。 The method according to claim 1, characterized in that the number of types to be classified by each of said rough discrimination means and said detailed discrimination means is distributed based on classification accuracy and processing time in said rough discrimination means and said detailed discrimination means. The information processing device described. 識別情報が付された物体を撮像した第1の撮像画像から、前記物体の概略種別を判別する工程と、
前記物体の概略種別に基づいて、前記識別情報を得る画像を撮像するための撮像条件を設定する工程と、
前記物体を前記撮像条件で撮像した第2の撮像画像から前記識別情報を識別し、前記識別の結果に基づいて前記物体の詳細種別を判別する工程と
を備えることを特徴とする情報処理方法。
a step of determining a rough type of the object from a first captured image obtained by capturing the object to which the identification information is attached;
setting imaging conditions for capturing an image for obtaining the identification information based on the general type of the object;
and identifying the identification information from a second captured image obtained by capturing the object under the imaging conditions, and determining a detailed type of the object based on the result of the identification.
コンピュータを、請求項1乃至24の何れか一項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 24.
JP2022120715A 2021-08-13 2022-07-28 Information processor, information processing method, and program Pending JP2023026342A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/818,678 US20230047614A1 (en) 2021-08-13 2022-08-09 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021132068 2021-08-13
JP2021132068 2021-08-13

Publications (1)

Publication Number Publication Date
JP2023026342A true JP2023026342A (en) 2023-02-24

Family

ID=85252440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022120715A Pending JP2023026342A (en) 2021-08-13 2022-07-28 Information processor, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2023026342A (en)

Similar Documents

Publication Publication Date Title
US6592033B2 (en) Item recognition method and apparatus
CN109409398B (en) Image processing apparatus, image processing method, and storage medium
WO2015115274A1 (en) Object assessment device, image sensor, and object assessment method
JPH08249475A (en) Size featuring/deciding system of object
US5805740A (en) Bar-code field detecting apparatus performing differential process and bar-code reading apparatus
JP7049983B2 (en) Object recognition device and object recognition method
JP6831951B2 (en) Image recognition system
CN109741551B (en) Commodity identification settlement method, device and system
US7106896B2 (en) ID recognition apparatus and ID recognition sorter system for semiconductor wafer
JP6628336B2 (en) Information processing system
US20230289545A1 (en) Optical information reading device
JP2019185684A (en) Display state determination system
CN117275011A (en) Commodity identification and commodity price tag matching method, system, terminal and medium
JP2023026342A (en) Information processor, information processing method, and program
JP6885563B2 (en) Display status judgment system
JP7449505B2 (en) information processing system
CN116630946A (en) Locating code image regions in images of code-carrying objects
US20230047614A1 (en) Information processing apparatus, information processing method, and storage medium
JP6624120B2 (en) Character recognition device, character recognition method, character recognition program, and computer-readable recording medium storing character recognition program
JP6890849B2 (en) Information processing system
JP2004513410A (en) Find objects in images
AU763922B2 (en) Item recognition method and apparatus
KR100920457B1 (en) A method and system of recognizing objects for intelligent robot
WO2023171132A1 (en) Information processing system
US20220019792A1 (en) Method and device for the detection and classification of an object