JP6641396B2 - Article classification apparatus, article classification system, article classification method and program - Google Patents

Article classification apparatus, article classification system, article classification method and program Download PDF

Info

Publication number
JP6641396B2
JP6641396B2 JP2018011515A JP2018011515A JP6641396B2 JP 6641396 B2 JP6641396 B2 JP 6641396B2 JP 2018011515 A JP2018011515 A JP 2018011515A JP 2018011515 A JP2018011515 A JP 2018011515A JP 6641396 B2 JP6641396 B2 JP 6641396B2
Authority
JP
Japan
Prior art keywords
image data
article
similarity
type
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018011515A
Other languages
Japanese (ja)
Other versions
JP2019128881A (en
Inventor
林 泰弘
泰弘 林
バロ ヒョン
バロ ヒョン
Original Assignee
Kpmgコンサルティング株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kpmgコンサルティング株式会社 filed Critical Kpmgコンサルティング株式会社
Priority to JP2018011515A priority Critical patent/JP6641396B2/en
Publication of JP2019128881A publication Critical patent/JP2019128881A/en
Application granted granted Critical
Publication of JP6641396B2 publication Critical patent/JP6641396B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Processing (AREA)

Description

本開示は、種類の異なる複数の物品を種別毎に分類するための物品分類装置、物品分類システム、物品分類方法及びプログラムに関する。   The present disclosure relates to an article classification device, an article classification system, an article classification method, and a program for classifying a plurality of different types of articles for each type.

例えば、配管として用いるパイプ等の物品を工場等で生産する工程において、形状や仕様等の種類の異なる複数の物品が混在する場合がある。とりわけ、溶接後の後処理工程や仕上げ工程の後等では、物品毎に刻印されていた種別番号や記号等が消されてしまい、種別毎の分類が困難になる場合がある。   For example, in a process of producing an article such as a pipe used as a pipe in a factory or the like, a plurality of articles having different types such as shapes and specifications may be mixed. In particular, after a post-processing step, a finishing step, or the like after welding, the type number, symbol, or the like imprinted for each article is erased, and classification by type may become difficult.

この場合、例えば、U字状の物品、S字状の物品及びL字状の物品のように、形状が全く異なる物品の分類は、目視確認によって容易に行うことができる。ところが、例えば、それぞれほぼ同一の寸法からなる複数のL字状の物品において、90°に屈曲した物品と、88°に屈曲した物品と、86°に屈曲した物品のように、形状の差異が微小な物品の場合、目視確認が困難となり、分類の作業が煩雑になる虞がある。そのため、前述のように混在した複数種類の物品を容易かつ正確に分類する技術の開発が望まれている。   In this case, for example, articles having completely different shapes, such as U-shaped articles, S-shaped articles, and L-shaped articles, can be easily classified by visual confirmation. However, for example, in a plurality of L-shaped articles each having substantially the same size, a difference in shape such as an article bent at 90 °, an article bent at 88 °, and an article bent at 86 ° is obtained. In the case of a minute article, visual confirmation becomes difficult, and there is a possibility that the classification operation becomes complicated. Therefore, it is desired to develop a technique for easily and accurately classifying a plurality of types of mixed articles as described above.

ところで、近年、被写体の認識を行う際に、撮影した被写体データと、予め記憶された学習データとの照合に用いる特徴量のデータとして、被写体である物体の3次元形状データとテクスチャデータから2次元展開画像に変換し、2次元展開画像の特徴量データを用いて照合を行うことで、高速に被写体を認識する技術が知られている(例えば、特許文献1参照)。また、ニューラルネットワークを用いて、少ない演算量にて3次元画像を複数のクラスに精度よく分類できる技術が知られている(例えば、特許文献2参照)。   By the way, in recent years, when recognizing a subject, two-dimensional data based on three-dimensional shape data and texture data of an object, which is a subject, are used as feature amount data to be used for matching photographed subject data with learning data stored in advance. 2. Description of the Related Art There is known a technique for recognizing a subject at high speed by converting the image into a developed image and performing collation using feature amount data of the two-dimensional developed image (for example, see Patent Document 1). In addition, a technique is known that can classify a three-dimensional image into a plurality of classes with a small amount of computation using a neural network with high accuracy (for example, see Patent Document 2).

特開2012−178133号公報JP 2012-178133 A 特開2017−174039号公報JP 2017-174039 A

しかしながら、前述の特許文献1,2では、所定の照合処理を行うことで高速に被写体を認識したり(特許文献1)、少ない演算量で複数のクラスに精度よく分類したり(特許文献2)するものの、撮影した被写体データと、予め記憶された学習データとの照合に、これらデータに基づく形状の類似度を用いるという概念はなかった。また、前述の特許文献1,2では、3次元画像から2次元画像に変換する情報処理が煩雑であった。   However, in Patent Literatures 1 and 2 described above, a subject is recognized at high speed by performing a predetermined collation process (Patent Literature 1), or classified into a plurality of classes with a small amount of computation (Patent Literature 2). However, there is no concept of using the similarity of the shape based on these data in the comparison between the photographed subject data and the learning data stored in advance. Further, in the above-mentioned Patent Documents 1 and 2, information processing for converting a three-dimensional image into a two-dimensional image is complicated.

そこで、本開示は前述した事情に鑑みてなされたもので、混在した複数種類の物品を容易かつ正確に分類可能な物品分類装置、物品分類システム、物品分類方法及びプログラムを提供することを目的とする。   Therefore, the present disclosure has been made in view of the circumstances described above, and has as its object to provide an article classification device, an article classification system, an article classification method, and a program that can easily and accurately classify a plurality of types of mixed articles. I do.

上記目的を達成するため、本開示の第1の観点に係る物品分類装置は、複数種類の物品を種類別に分類する物品分類装置であって、分類の対象となる物品の撮像画像データを取得する撮像画像取得部と、物品毎に複数の異なる視点による二次元画像データが記憶される記憶部と、撮像画像データと二次元画像データとの類似度を計算する類似度計算部と、類似度に基づいて物品の分類を行う分類部と、を備えることを特徴とする。   In order to achieve the above object, an article classification device according to a first aspect of the present disclosure is an article classification device that classifies a plurality of types of articles by type, and acquires captured image data of an article to be classified. A captured image acquisition unit, a storage unit that stores two-dimensional image data from a plurality of different viewpoints for each article, a similarity calculation unit that calculates a similarity between the captured image data and the two-dimensional image data, And a classification unit that classifies the articles based on the classification.

また、上記目的を達成するため、本開示の第2の観点に係る物品分類システムは、複数種類の物品を種類別に分類する物品分類システムであって、分類対象となる物品の撮像画像データを撮像する撮像部と、物品の種類毎に各々複数の異なる視点による二次元画像データが記憶される記憶部と、撮像画像データと二次元画像データとの類似度を計算する類似度計算部と、類似度に基づいて物品を種類別に分類する分類部と、分類部が分類した結果を出力する出力部と、を備えることを特徴とする。   Further, in order to achieve the above object, an article classification system according to a second aspect of the present disclosure is an article classification system that classifies a plurality of types of articles by type, and captures image data of an article to be classified. An image capturing unit that stores two-dimensional image data from a plurality of different viewpoints for each type of article; a similarity calculating unit that calculates a similarity between the captured image data and the two-dimensional image data; It is characterized by comprising a classification unit that classifies articles by type based on the degree, and an output unit that outputs a result of classification by the classification unit.

また、上記目的を達成するため、本開示の第3の観点に係る物品分類方法は、複数種類の物品を種類別に分類する物品分類方法であって、分類対象となる物品の撮像画像データを取得する撮像画像取得ステップと、記憶部に記憶される物品の種類毎に各々複数の異なる視点による二次元画像データと、撮像画像データとの類似度を計算する類似度計算ステップと、類似度に基づいて物品を種類別に分類する分類ステップと、を含むことを特徴とする。   Further, in order to achieve the above object, an article classification method according to a third aspect of the present disclosure is an article classification method for classifying a plurality of types of articles by type, and acquires captured image data of an article to be classified. A captured image acquiring step, two-dimensional image data from a plurality of different viewpoints for each type of article stored in the storage unit, a similarity calculating step of calculating a similarity between the captured image data, and a similarity calculating step. And a classification step of classifying the articles by type.

また、上記目的を達成するため、本開示の第4の観点に係るプログラムは、コンピュータを、分類対象となる物品の撮像画像データを取得する撮像画像取得手段と、物品の種類毎に各々複数の異なる視点による二次元画像データが記憶される記憶手段、撮像画像データと二次元画像データとの類似度を計算する類似度計算手段、類似度に基づいて物品を種類別に分類する分類手段、として機能させる。   In order to achieve the above object, a program according to a fourth aspect of the present disclosure provides a computer with: a captured image acquisition unit configured to acquire captured image data of an article to be classified; Function as storage means for storing two-dimensional image data from different viewpoints, similarity calculating means for calculating similarity between captured image data and two-dimensional image data, classification means for classifying articles by type based on the similarity Let it.

本開示によれば、混在した複数種類の物品を容易かつ正確に分類することができる。   According to the present disclosure, a plurality of types of mixed articles can be easily and accurately classified.

物品分類システムの構成を概略的に示すブロック図である。It is a block diagram showing roughly composition of an article classification system. 撮像画像データの前処理の説明に供する図である。FIG. 9 is a diagram provided for describing pre-processing of captured image data. 記憶部に記憶されたデータの説明に供する図である。FIG. 4 is a diagram provided for description of data stored in a storage unit. 記憶部に記憶されたデータの一部を示す図である。FIG. 4 is a diagram illustrating a part of data stored in a storage unit. 第一実施形態における類似度の計算の説明に供する図である。FIG. 7 is a diagram provided for describing calculation of a similarity in the first embodiment. 分類処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a classification process. 第二実施形態における類似度の計算の説明に供する図である。FIG. 14 is a diagram provided for describing calculation of a similarity in the second embodiment. 第三実施形態における物品の分類の説明に供する図である。It is a figure offered for explanation of the classification of the goods in a third embodiment.

以下、本開示に係る物品分類装置、物品分類システム、物品分類方法及びプログラムの一実施形態について図面を参照しながら説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また、以下の実施形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。   Hereinafter, an embodiment of an article classification device, an article classification system, an article classification method, and a program according to the present disclosure will be described with reference to the drawings. The embodiments described below do not unduly limit the contents of the present disclosure described in the claims. In addition, all of the configurations described in the following embodiments are not necessarily essential components of the present disclosure.

<第一実施形態>
(構成)
図1に示すように、本開示に係る第一実施形態の物品分類システム1は、混在する種類の異なる複数の物品を種別毎に分類するためのものであり、撮像部10と、物品分類装置20と、出力部30とを備えて構成され、それぞれLAN(Local Area Network)等のネットワークNWを介して接続されている。このとき、LANは無線であってもよいし、有線であってもよい。また、撮像部10と、物品分類装置20と、出力部30は一体に構成されていてもよい。
<First embodiment>
(Constitution)
As illustrated in FIG. 1, an article classification system 1 according to a first embodiment of the present disclosure is for classifying a plurality of different types of mixed articles by type, and includes an imaging unit 10 and an article classification device. 20 and an output unit 30, and are connected to each other via a network NW such as a LAN (Local Area Network). At this time, the LAN may be wireless or wired. Further, the imaging unit 10, the article classification device 20, and the output unit 30 may be integrally configured.

撮像部10は、分類対象となる物品(以下、適宜、対象物と称する。)の撮像画像データを撮像するものであり、例えば、デジタルカメラやスマートフォン等の携帯端末におけるカメラ等からなる。この撮像部10は、撮像画像データを保存するためのメモリ(不図示)を有していることが好ましい。なお、撮像部10によって撮像された撮像画像データは、ネットワークを介して物品分類装置20や出力部30に、撮像と共に送信されてもよいし、一度、メモリに記録された後、選択的にまたは全てが送信されてもよい。また、メモリは、着脱自在な各種メモリカードのような記録媒体であってもよいし、内蔵されたHDD等の記憶媒体であってもよい。また、撮像部10による撮像画像データは、物品毎にそれぞれ所定の基準方向を中心として、当該基準方向における上下左右等の複数の異なる視点により撮像されることが好ましい。   The imaging unit 10 captures captured image data of an article to be classified (hereinafter, appropriately referred to as an object), and includes, for example, a digital camera, a camera in a mobile terminal such as a smartphone, or the like. Preferably, the imaging unit 10 has a memory (not shown) for storing the captured image data. The image data captured by the image capturing unit 10 may be transmitted together with the image capturing to the article classification device 20 or the output unit 30 via a network, or may be selectively or temporarily recorded in a memory. All may be sent. The memory may be a recording medium such as various removable memory cards, or may be a storage medium such as a built-in HDD. In addition, it is preferable that the image data captured by the imaging unit 10 is imaged from a plurality of different viewpoints such as up, down, left, and right in the reference direction with each article centering on a predetermined reference direction.

撮像部10は、撮像する対象物を載置するための不図示の台を備えており、この台に複数のカメラを配設し、前述の基準方向における上下左右等の複数の異なる視点から対象物を撮像するようにしてもよい。   The imaging unit 10 includes a table (not shown) on which an object to be imaged is placed. A plurality of cameras are arranged on the table, and the object is viewed from a plurality of different viewpoints such as up, down, left, and right in the above-described reference direction. An object may be imaged.

物品分類装置20は、大別すると、撮像画像取得部21と、記憶部22と、類似度計算部23と、分類部24と、を有して構成されている。   The article classification device 20 is roughly configured to include a captured image acquisition unit 21, a storage unit 22, a similarity calculation unit 23, and a classification unit 24.

撮像画像取得部21は、撮像部10によって撮像された対象物の撮像画像データを、ネットワークNWを介して取得する。この取得された撮像画像データは、例えば、不図示の制御部等によって、図2に示すように、まず背景を消して黒く処理する前処理を行い、その後さらに、予め設定する閾値より画素の値が上回っていれば白に変換し、下回っていれば黒に変換する二値化処理が行われる。そして、二値化処理後の撮像画像データは、類似度計算部23に伝送され、後述する二次元画像データとの類似度の計算に用いられる。   The captured image acquisition unit 21 acquires captured image data of an object captured by the imaging unit 10 via the network NW. The acquired captured image data is subjected to, for example, a control unit (not shown) or the like, as shown in FIG. If the value is higher than the value, the image is converted to white, and if the value is lower than the value, a binary conversion process is performed. Then, the captured image data after the binarization processing is transmitted to the similarity calculating unit 23, and is used for calculating the similarity with the two-dimensional image data described later.

記憶部22は、HDDやSSD等によって構成されており、分類対象となる物品の種類毎に、各々複数の異なる視点による二次元画像データが予め記憶されたデータベースとして機能する。具体的には、図3に示すように、それぞれ物品の種類(例えば、Aタイプ,Bタイプ,Cタイプ・・・)毎に、三次元画像データと、三次元画像データに対応した複数の異なる視点から投射された二次元画像データと、当該物品の寸法や重量及び縦横比データ等の仕様に関する情報からなる仕様書データと、から構成されるテーブルを有している。このテーブルにおいて、三次元画像データと対応する二次元画像データや仕様書データが各々紐付けられている。なお、ここでは、物品をA〜Cのタイプ別に表記しているが、物品の型番別や製品名別などに分類してもよく、この限りではない。また、二次元画像データは、予め記憶されることに限定されることはなく、例えば、必要に応じて、適宜、三次元画像データから展開するようにしてもよい。   The storage unit 22 is configured by an HDD, an SSD, or the like, and functions as a database in which two-dimensional image data from a plurality of different viewpoints is stored in advance for each type of article to be classified. Specifically, as shown in FIG. 3, for each type of article (for example, A type, B type, C type...), Three-dimensional image data and a plurality of different types corresponding to the three-dimensional image data are provided. It has a table composed of two-dimensional image data projected from a viewpoint and specification data including information on specifications such as dimensions, weight and aspect ratio data of the article. In this table, two-dimensional image data and specification data corresponding to the three-dimensional image data are associated with each other. Here, the articles are described by type of A to C, but may be classified by the model number of the article, the product name, or the like, and the present invention is not limited thereto. Further, the two-dimensional image data is not limited to being stored in advance, and for example, may be appropriately developed from the three-dimensional image data as needed.

この二次元画像データは、物品の種類毎に、例えば、互換性を有するiges方式の3DCADデータからなる三次元画像データに基づくファイル(a.iges、b.iges、c.iges・・・)を変換して生成されたビットマップ方式等のデータファイル(a.001.bmp・・・、b.010.bmp・・・、c.100.bmp・・・)からなる。このとき、二次元画像データは、三次元画像データに対応して直交する二軸を基準として所定の回転角ずつ回転させ二次元平面に投射することで、複数の異なる視点による画像データとして生成される。これらの二次元画像データは、図4に示すように二値化しておくことが好ましい。なお、二次元画像データは、ビットマップ方式に限らず、DXF方式等のベクタ形式の互換性を有するCADデータであってもよい。   The two-dimensional image data includes, for each type of article, a file (a.iges, b.iges, c.iges...) Based on three-dimensional image data composed of compatible 3D CAD data of the iges method. It is composed of data files (a.001.bmp..., B.010.bmp..., C.100.bmp...) Generated by conversion. At this time, the two-dimensional image data is generated as image data from a plurality of different viewpoints by rotating by a predetermined rotation angle with respect to two axes orthogonal to the three-dimensional image data and projecting the two-dimensional image onto a two-dimensional plane. You. These two-dimensional image data are preferably binarized as shown in FIG. Note that the two-dimensional image data is not limited to the bitmap method, but may be CAD data having a vector format compatibility such as the DXF method.

類似度計算部23は、撮像画像取得部21によって取得された撮像画像データと、記憶部22に記憶された複数の異なる視点による二次元画像データのそれぞれの類似度を計算する。この類似度の計算について、詳細は後述する。   The similarity calculation unit 23 calculates the similarity between the captured image data acquired by the captured image acquisition unit 21 and the two-dimensional image data from a plurality of different viewpoints stored in the storage unit 22. Details of the calculation of the similarity will be described later.

分類部24は、類似度計算部23によって算出された類似度に基づき、物品の種類毎の評価値を算出し、当該評価値の高い種類が、対象物の分類されるべき種類であると分類する。この評価値の算出、及び、分類の手法について、詳細は後述する。   The classification unit 24 calculates an evaluation value for each type of article based on the similarity calculated by the similarity calculation unit 23, and classifies the type having the higher evaluation value as the type to which the target object should be classified. I do. The details of the calculation of the evaluation value and the classification method will be described later.

出力部30は、物品分類装置20(より具体的には、分類部24)が分類した結果を出力する。例えば、出力部30は、分類部24による分類結果を表示するモニタ等の表示装置や、タブレット端末、スマートフォン等の携帯端末によって構成されることが好ましい。これにより、作業者は、物品分類装置20による対象物の分類結果を、適宜、目視確認できる。また、出力部30は、表示装置に限定されず、例えば物品を物理的に仕分けするための駆動機構に接続されたインターフェースであってもよい。当該機構を備えた物品分類装置20であれば、作業者の手を煩わすことなく、分類部24の分類結果に基づき、自動で物品の仕分けを行うことができる。   The output unit 30 outputs the result of the classification performed by the article classification device 20 (more specifically, the classification unit 24). For example, the output unit 30 is preferably configured by a display device such as a monitor that displays the classification result by the classification unit 24, or a portable terminal such as a tablet terminal or a smartphone. Thereby, the worker can visually confirm the classification result of the target object by the article classification device 20 as appropriate. The output unit 30 is not limited to the display device, and may be, for example, an interface connected to a drive mechanism for physically sorting articles. With the article classification device 20 provided with the mechanism, it is possible to automatically sort the articles based on the classification result of the classification unit 24 without bothering the operator.

(分類の手法)
次に、物品分類装置20における対象物の分類の手法について説明する。
具体的に、類似度計算部23は、図5に示すように、撮像画像取得部21による撮像画像データに対し、記憶部22に記憶された全ての二次元画像データを総当たりで比較する。なお、図5において、撮像画像データとしては、撮像画像データファイルImg1を表記している。また、二次元画像データとしては、物品の種類(ここでは、Aタイプ、Bタイプ、Cタイプ・・・)毎にそれぞれ二次元画像データファイルa.001.bmp、a.010.bmp、a.100.bmp・・・,b.001.bmp、b.010.bmp、b.100.bmp・・・,c.001.bmp、c.010.bmp、c.100.bmp・・・、を表記している。ここで、後述の評価値をより正確に算出するために、例えば「*.010」(*はaからcのアルファベットのいずれか)のように「.」以降の識別子が同じデータファイルについて、物品の種類毎に同じ角度から投射された二次元データを含むようにすることが好ましい。
(Classification method)
Next, a method of classifying an object in the article classification device 20 will be described.
Specifically, as shown in FIG. 5, the similarity calculation unit 23 compares all the two-dimensional image data stored in the storage unit 22 with the captured image data obtained by the captured image acquisition unit 21 on a brute force basis. In FIG. 5, the captured image data file Img1 is shown as the captured image data. The two-dimensional image data includes two-dimensional image data files a.001.bmp, a.010.bmp, and a.010.bmp for each type of article (here, type A, type B, type C,...). 100.bmp ..., b.001.bmp, b.010.bmp, b.100.bmp ..., c.001.bmp, c.010.bmp, c.100.bmp ... Notation. Here, in order to calculate an evaluation value described later more accurately, for example, for a data file having the same identifier after “.”, Such as “* .010” (* is one of the alphabets a to c), It is preferable to include two-dimensional data projected from the same angle for each type.

ここで、類似度計算部23は、撮像画像データに対する、二次元画像データのそれぞれの類似する度合いを計算する。すなわち、形状が似ているか、及び、突起部、屈曲部、凹部、開口部等の特徴となる部位が一致するか等について、それぞれ二値化された撮像画像データと二次元画像データとの形状を比較検討(所謂、シェイプマッチング)し、その結果を類似度として算出する。このとき、撮像画像データ及び二次元画像データは、二値化されていることにより、これら画像データ同士の比較が容易となっている。なお、ここでは、類似度の計算に際し、撮像画像データに対する二次元画像データの類似度を計算する(すなわち、撮像画像データを基準として、二次元画像データのそれぞれとの類似度を計算する)場合について述べるが、本開示はこれに限ることはなく、類似度の計算に際し、二次元画像データに対する撮像画像データの類似度を計算する(すなわち、二次元画像データを基準に、撮像画像データとの類似度を計算する)ようにしてもよい。   Here, the similarity calculation unit 23 calculates the similarity of each of the two-dimensional image data to the captured image data. That is, the shape of the binarized captured image data and the shape of the two-dimensional image data are respectively determined as to whether the shapes are similar, and whether characteristic portions such as protrusions, bent portions, concave portions, and openings match. (So-called shape matching), and the result is calculated as a similarity. At this time, since the captured image data and the two-dimensional image data are binarized, comparison between these image data is facilitated. Here, when calculating the similarity, the similarity of the two-dimensional image data to the captured image data is calculated (that is, the similarity to each of the two-dimensional image data is calculated based on the captured image data). However, the present disclosure is not limited to this. When calculating the similarity, the similarity of the captured image data to the two-dimensional image data is calculated (that is, based on the two-dimensional image data, (Similarity is calculated).

より具体的には、類似度計算部23は、シェイプマッチング技術を利用して、撮像画像取得部21により取得した対象物の撮像画像データファイルImg1と、記憶部22に記憶された各タイプの二次元画像データファイルa.001.bmp、a.010.bmp、a.100.bmp・・・、b.001.bmp、b.010.bmp、b.100.bmp・・・、c.001.bmp、c.010.bmp、c.100.bmp・・・との特徴点をそれぞれベクトル化する。そして、これら全てのベクトル同士のコサイン距離(コサイン類似度)を計算し、算出したコサイン距離(−1〜+1)に基づいて類似度(0〜1)を算出する。このとき、類似度は、例えば、コサイン距離に1を加算し、2で除算することにより算出する。また、類似度としては、「1」に近いほど類似度が高く(関連性が高い)、「0」に近いほど類似度が低い(関連性が低い)ものとする。   More specifically, the similarity calculation unit 23 uses the shape matching technology to store the captured image data file Img1 of the object acquired by the captured image acquisition unit 21 and the two types of each type stored in the storage unit 22. Dimensional image data files a.001.bmp, a.010.bmp, a.100.bmp ..., b.001.bmp, b.010.bmp, b.100.bmp ..., c.001. The feature points of bmp, c.010.bmp, c.100.bmp... are each vectorized. Then, the cosine distance (cosine similarity) between all these vectors is calculated, and the similarity (0 to 1) is calculated based on the calculated cosine distance (−1 to +1). At this time, the similarity is calculated, for example, by adding 1 to the cosine distance and dividing by 2. Further, as the similarity, the closer to “1”, the higher the similarity (higher relevance), and the closer to “0”, the lower the similarity (lower relevance).

図5においては、類似度計算部23による算出結果は、撮像画像データファイルImg1とAタイプの二次元画像データファイルa.001.bmpの類似度が「0.3」となっている。同様に、二次元画像データファイルa.010.bmpとの類似度が「0.3」、二次元画像データファイルa.100.bmpとの類似度が「0.1」となっている。また、Bタイプの二次元画像データファイルb.001.bmpとの類似度は「0.9」、二次元画像データファイルb.010.bmpとの類似度は「0.8」、二次元画像データファイルb.100.bmpとの類似度は「0.5」となっている。さらに、Cタイプの二次元画像データファイルc.001.bmpとの類似度は「0.6」、二次元画像データファイルc.010.bmpとの類似度は「0.6」、二次元画像データファイルc.100.bmpとの類似度は「0.3」となっている。   In FIG. 5, the similarity between the captured image data file Img1 and the A-type two-dimensional image data file a.001.bmp is “0.3” in the calculation result by the similarity calculator 23. Similarly, the similarity with the two-dimensional image data file a.010.bmp is “0.3”, and the similarity with the two-dimensional image data file a.100.bmp is “0.1”. The similarity with the B-type two-dimensional image data file b.001.bmp is “0.9”, the similarity with the two-dimensional image data file b.010.bmp is “0.8”, and the two-dimensional image The similarity with the data file b.100.bmp is “0.5”. Further, the similarity with the C type two-dimensional image data file c.001.bmp is “0.6”, the similarity with the two-dimensional image data file c.010.bmp is “0.6”, and the two-dimensional image The similarity with the data file c.100.bmp is “0.3”.

分類部24は、類似度計算部23によって算出された類似度に基づき、物品の種類毎の評価値を算出し、当該評価値の高い種類を、対象物の分類されるべき種類であると分類する。例えば、分類部24は、類似度計算部23によって算出された類似度の高さに基づくランキングに応じてポイントを付与するようにしてもよい。図5に示すような類似度の場合、Bタイプの二次元画像データファイルb.001.bmp(0.9)の類似度が最も高く、次いで、Bタイプの二次元画像データファイルb.010.bmpの類似度(0.8)、Cタイプの二次元画像データファイルc.001.bmp及びCタイプの二次元画像データファイルc.010.bmpの類似度(0.6)といった順にランキングされる。そして、このランキングに応じて、例えば、高い順に「10」、「7」、「5」・・・といったポイントを付与し、物品のタイプ毎にポイントを合計して評価値を算出するようになっている。そして、このように付与されたポイントを、タイプ(種類)毎にそれぞれ合計した値(この場合、Aタイプは「8」、Bタイプは「30」、Cタイプは「18」)が評価値として算出されることとなる。   The classification unit 24 calculates an evaluation value for each type of article based on the similarity calculated by the similarity calculation unit 23, and classifies a type having a high evaluation value as a type to which the target object should be classified. I do. For example, the classification unit 24 may give points according to a ranking based on the degree of similarity calculated by the similarity calculation unit 23. In the case of the similarity as shown in FIG. 5, the B type two-dimensional image data file b.001.bmp (0.9) has the highest similarity, and then the B type two-dimensional image data file b.010. bmp similarity (0.8), C type two-dimensional image data file c.001.bmp and C type two-dimensional image data file c.010.bmp similarity (0.6) . In accordance with this ranking, for example, points such as “10”, “7”, “5”,... Are assigned in descending order, and the points are totaled for each type of article to calculate an evaluation value. ing. The value obtained by summing the points thus given for each type (type) (in this case, “8” for the A type, “30” for the B type, and “18” for the C type) is used as the evaluation value. It will be calculated.

また、上記の手法に限られず、分類部24は、類似度計算部23により、物品の種類毎の類似度に基づいて算出されたスコアの合計から評価値を算出するようにしてもよい。このとき、分類部24は、類似度計算部23によって算出された類似度に応じてポイントを付与し、物品の種類毎に当該ポイントを合計することで評価値を算出するようにしてもよい。例えば、図5に示すような類似度の場合、類似度に10を乗じた値をポイントと定義し、Aタイプの二次元画像データファイルa.001.bmpのポイントを「3」、二次元画像データファイルa.010.bmpのポイントを「3」、二次元画像データファイルa.100.bmpのポイントを「1」とする。また、Bタイプの二次元画像データファイルb.001.bmpのポイントを「9」、二次元画像データファイルb.010.bmpのポイントを「8」、二次元画像データファイルb.100.bmpのポイントを「5」とする。さらに、Cタイプの二次元画像データファイルc.001.bmpのポイントを「6」、二次元画像データファイルc.010.bmpのポイントを「6」、二次元画像データファイルc.100.bmpのポイントを「3」とする。そして、このように付与されたポイントを、タイプ(種類)毎にそれぞれ合計し、当該合計した値を評価値として算出するようにしてもよい。さらには、上記のように、類似度計算部23によって算出された類似度の高さに基づくランキングにおける所定の順位以内(例えば、上位10位以内)のものに一律に同じスコア(例えば。「1」)を付与する。そして、このように付与されたポイントを、タイプ(種類)毎にそれぞれ合計し、当該合計した値を評価値として算出するようにしてもよい。その他、例えば、類似度計算部23によって算出された類似度の高さに基づくランキングの所定の順位以内(例えば、上位10位以内)における、タイプ毎の類似度の平均値を評価値として算出するようにしてもよい。   Further, the present invention is not limited to the above method, and the classification unit 24 may calculate the evaluation value from the total of the scores calculated based on the similarity for each type of article by the similarity calculation unit 23. At this time, the classification unit 24 may assign points according to the similarity calculated by the similarity calculation unit 23, and calculate the evaluation value by summing the points for each type of article. For example, in the case of the similarity as shown in FIG. 5, a value obtained by multiplying the similarity by 10 is defined as a point, the point of the A-type two-dimensional image data file a.001.bmp is set to “3”, and the two-dimensional image The point of the data file a.010.bmp is “3”, and the point of the two-dimensional image data file a.100.bmp is “1”. The point of the B type two-dimensional image data file b.001.bmp is “9”, the point of the two-dimensional image data file b.010.bmp is “8”, and the point of the two-dimensional image data file b.100.bmp is The point is “5”. Further, the point of the C type two-dimensional image data file c.001.bmp is “6”, the point of the two-dimensional image data file c.010.bmp is “6”, and the point of the two-dimensional image data file c.100.bmp is The point is “3”. Then, the points thus given may be totaled for each type (type), and the total value may be calculated as an evaluation value. Furthermore, as described above, the same score (for example, “1”) is uniformly assigned within a predetermined rank (for example, within the top 10) in the ranking based on the degree of similarity calculated by the similarity calculation unit 23. )). Then, the points thus given may be totaled for each type (type), and the total value may be calculated as an evaluation value. In addition, for example, an average value of similarities for each type within a predetermined order of ranking (for example, within the top 10) based on the degree of similarity calculated by the similarity calculating unit 23 is calculated as an evaluation value. You may do so.

このようにして、分類部24は、算出した評価値に基づき、当該評価値の高い種類を、対象物の分類されるべき種類であるとして分類する。よって、図5に示す場合において、分類部24は、撮像画像データファイルImg1の被写体である対象物の種別として、Bタイプが最も類似度が高く、関連性の高い種類であるとして分類する。   In this way, the classification unit 24 classifies a type having a high evaluation value as a type of the target object based on the calculated evaluation value. Therefore, in the case shown in FIG. 5, the classification unit 24 classifies the type B as the type of the target object, which is the subject of the captured image data file Img1, as the type having the highest similarity and the highest relevance.

(処理方法)
次に、物品分類装置20における対象物の分類手順について、図6に示すフローチャートを用いて説明する。
(Processing method)
Next, a classification procedure of the target object in the article classification device 20 will be described with reference to a flowchart shown in FIG.

ステップS10において、撮像部10は、分類対象となる物品(対象物)を撮像する。ステップS11において、物品分類装置20の撮像画像取得部21は、撮像部10によって撮像された対象物の撮像画像データを取得する(撮像画像取得ステップ)。そして、この取得された撮像画像データは、物品分類装置20の制御部等によって二値化され、類似度計算部23へと送られる。   In step S10, the imaging unit 10 captures an image of an article (target) to be classified. In step S11, the captured image acquisition unit 21 of the article classification device 20 acquires captured image data of the target imaged by the imaging unit 10 (captured image acquisition step). Then, the acquired captured image data is binarized by the control unit or the like of the article classification device 20 and sent to the similarity calculation unit 23.

ステップS12において、類似度計算部23は、記憶部22に予め記憶された物品の種類毎に各々複数の異なる視点による二次元画像データと、撮像画像取得部21によって取得された撮像画像データとの類似度を計算する(類似度計算ステップ)。   In step S <b> 12, the similarity calculation unit 23 compares the two-dimensional image data from a plurality of different viewpoints for each type of article stored in the storage unit 22 in advance with the captured image data acquired by the captured image acquisition unit 21. The similarity is calculated (similarity calculation step).

ここで、類似度計算部23は、図5に示すように、撮像画像取得部21による撮像画像データに対し、記憶部22に記憶された全ての二次元画像データを総当たりで比較する。このとき、撮像画像データと二次元画像データはそれぞれ二値化されており、これらをシェイプマッチングした結果を類似度として算出する。具体的に、類似度計算部23は、撮像画像取得部21により取得した対象物の撮像画像データと、記憶部22に記憶された全ての二次元画像データとの特徴点をそれぞれベクトル化し、これら全てのベクトル同士のコサイン距離を計算する。そして、算出したコサイン距離(−1〜+1)に基づいて類似度(0〜1)を算出する。類似度としては、「1」に近いほど類似度が高く(関連性が高い)、「0」に近いほど類似度が低く(関連性が低い)なる。   Here, as illustrated in FIG. 5, the similarity calculation unit 23 compares all the two-dimensional image data stored in the storage unit 22 with the captured image data obtained by the captured image acquisition unit 21 on a brute force basis. At this time, the captured image data and the two-dimensional image data are each binarized, and the result of shape matching of these is calculated as the similarity. Specifically, the similarity calculation unit 23 vectorizes the feature points of the captured image data of the object acquired by the captured image acquisition unit 21 and all the two-dimensional image data stored in the storage unit 22, respectively. Compute the cosine distance between all vectors. Then, the similarity (0 to 1) is calculated based on the calculated cosine distance (−1 to +1). As the similarity, the closer to “1”, the higher the similarity (higher relevance), and the closer to “0”, the lower the similarity (lower relevance).

ステップS13において、分類部24は、類似度計算部23によって算出された類似度の高さに基づいて、各二次元画像データのランキング付けを行う。すなわち、類似度が「1」に近い程ランキングが上位となり、「0」に近い程ランキングが下位となる。   In step S13, the classification unit 24 ranks each two-dimensional image data based on the similarity calculated by the similarity calculation unit 23. That is, the closer the similarity is to "1", the higher the ranking, and the closer the similarity is to "0", the lower the ranking.

ステップS14において、分類部24は、ステップS13におけるランキングに応じてポイントを付与する。すなわち、ランキングの上位から順に「10」、「7」、「5」といったポイントを付与する。   In step S14, the classification unit 24 gives points according to the ranking in step S13. That is, points such as “10”, “7”, and “5” are given in order from the top of the ranking.

ステップS15において、分類部24は、物品の種類毎にステップS14にて付与されたポイントを合計することで評価値を算出する。そして、ステップS16において、分類部24は、ステップS15にて算出した評価値に基づき、当該評価値の高い種類が、対象物の分類されるべき種類であると分類する。例えば、図5に示すような撮像画像データファイルImg1の場合、分類部24は、その種別として、Bタイプが最も類似度が高く、関連性の高い種類であると分類する。   In step S15, the classification unit 24 calculates the evaluation value by summing the points given in step S14 for each type of article. Then, in step S16, the classification unit 24 classifies, based on the evaluation value calculated in step S15, the type having the higher evaluation value as the type of the target object. For example, in the case of the captured image data file Img1 as shown in FIG. 5, the classification unit 24 classifies the type B as the type having the highest similarity and the high relevance.

なお、本実施形態の分類処理方法は、これに限らず、例えば、ステップS13のランキング付けは行わず、ステップS14においては、類似度計算部23によって算出された類似度に応じてポイントを付与するようにしてもよい。また、ステップS14のポイント付与も行わず、ステップS12から直接ステップS15へと移行し、類似度計算部23により、物品の種類毎の類似度に基づいて算出されたスコアの合計から評価値を算出するようにしてもよい。   The classification processing method of the present embodiment is not limited to this. For example, the ranking is not performed in step S13, and in step S14, points are given according to the similarity calculated by the similarity calculator 23. You may do so. In addition, the process directly proceeds from step S12 to step S15 without giving the points in step S14, and the similarity calculating unit 23 calculates the evaluation value from the sum of the scores calculated based on the similarity for each type of article. You may make it.

(効果)
以上、説明したように、本実施形態の物品分類システム1では、対象物の撮像画像データに対する、記憶部22の全ての二次元画像データとの類似度を計算し、算出された類似度に基づき、類似度にラインキング付けする。そして、このランキングに応じて付与するポイントの合計が高いものを、対象物が分類されるべき種類であると分類する。かくして混在した複数種類の物品を容易かつ正確に分類することができる。
(effect)
As described above, in the article classification system 1 of the present embodiment, the similarity between the captured image data of the target object and all the two-dimensional image data in the storage unit 22 is calculated, and based on the calculated similarity. , And lineking the similarity. Then, an object having a high total of points to be awarded according to the ranking is classified as a type to which the object is to be classified. Thus, a plurality of types of mixed articles can be easily and accurately classified.

なお、記憶部22には、図3に示すように、物品の仕様書に基づく、重さデータ、長さデータ、縦横比データの少なくとも一つの情報を含む仕様書データとしての仕様書データファイルa.001.spc、b.001.spc、c.001.spc・・・が記憶されている。   As shown in FIG. 3, the storage unit 22 stores a specification data file a as specification data including at least one of weight data, length data, and aspect ratio data based on the specification of the article. .001.spc, b.001.spc, c.001.spc... Are stored.

ここで、例えば、撮像部10の備える台に計量部を設けておき、物品を載せることでその重さを量るようにしてもよい。また、この台に寸法を測るためのスケールを設けておき、物品を載置した際に寸法を把握できるようにしてもよい。この場合、分類部24は、類似度計算部23によって算出された類似度に加えて、記憶部22の仕様書データに基づく、重さデータ、長さデータまたは縦横比データ等を用いて比較して分類を行うことで、対象物の種類をより正確に分類することができ、分類の正確性、信頼性を一段と向上させることができる。また、本実施形態において、類似度はコサイン距離に基づいて算出したが、他の方法を用いても良い。なお、記憶部22に記憶される重さデータ、長さデータ、縦横比データとしては、仕様書に基づくデータを用いてもよいし、別途測定した測定結果を用いてもよい。   Here, for example, a weighing unit may be provided on a base provided in the imaging unit 10 and the weight may be measured by placing an article on the weighing unit. Further, a scale for measuring the dimensions may be provided on the table so that the dimensions can be grasped when the articles are placed. In this case, in addition to the similarity calculated by the similarity calculation unit 23, the classification unit 24 performs comparison using weight data, length data, aspect ratio data, or the like based on the specification data in the storage unit 22. By performing the classification by the classification, the type of the target object can be classified more accurately, and the accuracy and reliability of the classification can be further improved. Further, in the present embodiment, the similarity is calculated based on the cosine distance, but another method may be used. In addition, as the weight data, length data, and aspect ratio data stored in the storage unit 22, data based on the specification may be used, or a measurement result measured separately may be used.

<第二実施形態>
上述した第一実施形態においては、撮像画像データとして、撮像画像データファイルImg1を適用し、これに対する二次元画像データの類似度を計算する場合について述べたが、本開示はこれに限ることはない。例えば、図5との対応部分に同一符号を付した図7に示すように、対象物の撮像画像データとして、撮像画像データファイルImg1に加え、当該対象物の異なる視点から投射された撮像画像データファイルImg2も適用し、これらに対する二次元画像データの類似度を計算するようにしてもよい。
<Second embodiment>
In the first embodiment described above, the case where the captured image data file Img1 is applied as the captured image data and the similarity of the two-dimensional image data to the captured image data file Img1 is calculated has been described, but the present disclosure is not limited thereto. . For example, as shown in FIG. 7 in which parts corresponding to those in FIG. 5 are denoted by the same reference numerals, in addition to a captured image data file Img1 as captured image data of an object, captured image data projected from a different viewpoint of the object. The file Img2 may also be applied, and the similarity of the two-dimensional image data to these may be calculated.

すなわち、撮像画像取得部21は、対象物毎に各々複数の異なる視点による撮像画像データ(撮像画像データファイルImg1と撮像画像データファイルImg2)を取得し、類似度計算部23は、二次元画像データに対する、これら複数の異なる視点による撮像画像データのそれぞれの類似度を計算する。そして、分類部24は類似度計算部23によって算出されたそれぞれの類似度に基づき、対象物を種類別に分類するようにしてもよい。   That is, the captured image acquisition unit 21 acquires captured image data (captured image data file Img1 and captured image data file Img2) from a plurality of different viewpoints for each object, and the similarity calculation unit 23 Is calculated for each of the captured image data from a plurality of different viewpoints. Then, the classification unit 24 may classify the target object by type based on each similarity calculated by the similarity calculation unit 23.

この場合、類似度計算部23は、例えば、図7に示すように、撮像画像取得部21による2つの撮像画像データ(撮像画像データファイルImg1及び撮像画像データファイルImg2)に対し、それぞれ記憶部22に記憶された全ての二次元画像データを総当たりで比較する。なお、ここでは、便宜上、1つの対象物における異なる2つの視点による撮像画像データを用いる場合について述べるが、本開示はこれに限らず、1つの対象物に対し、異なる3つ以上の視点から投射された撮像画像データを用いるようにしてもよい。   In this case, for example, as shown in FIG. 7, the similarity calculation unit 23 stores the two captured image data (the captured image data file Img1 and the captured image data file Img2) by the captured image acquisition unit 21 in the storage unit 22 respectively. All the two-dimensional image data stored in are compared on a brute force basis. Here, for convenience, a case will be described where captured image data from two different viewpoints in one object is used. However, the present disclosure is not limited to this, and one object is projected from three or more different viewpoints. The captured image data obtained may be used.

ここで、類似度計算部23は、2つの撮像画像データに対する、二次元画像データのそれぞれの類似する度合いを計算する。例えば、図7においては、類似度計算部23による算出結果は、撮像画像データファイルImg1とAタイプの二次元画像データファイルa.001.bmpの類似度が「0.2」、撮像画像データファイルImg2とAタイプの二次元画像データファイルa.001.bmpの類似度が「0.3」となっている。同様に、撮像画像データファイルImg1と二次元画像データファイルa.010.bmpとの類似度が「0.3」、撮像画像データファイルImg2と二次元画像データファイルa.010.bmpとの類似度が「0.1」となっている。さらに、撮像画像データファイルImg1と二次元画像データファイルa.100.bmpとの類似度が「0.1」、撮像画像データファイルImg2と二次元画像データファイルa.100.bmpとの類似度が「0.2」となっている。   Here, the similarity calculation unit 23 calculates the similarity of each of the two-dimensional image data with respect to the two pieces of captured image data. For example, in FIG. 7, the calculation result by the similarity calculation unit 23 is that the similarity between the captured image data file Img1 and the A-type two-dimensional image data file a.001.bmp is “0.2”, and the captured image data file The similarity between Img2 and the A-type two-dimensional image data file a.001.bmp is “0.3”. Similarly, the similarity between the captured image data file Img1 and the two-dimensional image data file a.010.bmp is “0.3”, and the similarity between the captured image data file Img2 and the two-dimensional image data file a.010.bmp Is "0.1". Furthermore, the similarity between the captured image data file Img1 and the two-dimensional image data file a.100.bmp is “0.1”, and the similarity between the captured image data file Img2 and the two-dimensional image data file a.100.bmp is It is "0.2".

また、撮像画像データファイルImg1とBタイプの二次元画像データファイルb.001.bmpとの類似度は「0.9」、撮像画像データファイルImg2と二次元画像データファイルb.001.bmpとの類似度は「0.9」となっている。同様に、撮像画像データファイルImg1と二次元画像データファイルb.010.bmpとの類似度は「0.8」、撮像画像データファイルImg2と二次元画像データファイルb.010.bmpとの類似度は「0.8」となっている。さらに、撮像画像データファイルImg1と二次元画像データファイルb.100.bmpとの類似度は「0.6」、撮像画像データファイルImg2と二次元画像データファイルb.100.bmpとの類似度は「0.8」となっている。   The similarity between the captured image data file Img1 and the B type two-dimensional image data file b.001.bmp is “0.9”, and the similarity between the captured image data file Img2 and the two-dimensional image data file b.001.bmp is The similarity is “0.9”. Similarly, the similarity between the captured image data file Img1 and the two-dimensional image data file b.010.bmp is “0.8”, and the similarity between the captured image data file Img2 and the two-dimensional image data file b.010.bmp Is "0.8". Further, the similarity between the captured image data file Img1 and the two-dimensional image data file b.100.bmp is “0.6”, and the similarity between the captured image data file Img2 and the two-dimensional image data file b.100.bmp is It is "0.8".

さらに、撮像画像データファイルImg1とCタイプの二次元画像データファイルc.001.bmpとの類似度は「0.5」、撮像画像データファイルImg2とCタイプの二次元画像データファイルc.001.bmpとの類似度は「0.6」となっている。同様に、撮像画像データファイルImg1と二次元画像データファイルc.010.bmpとの類似度は「0.4」、撮像画像データファイルImg2と二次元画像データファイルc.010.bmpとの類似度は「0.2」となっている。さらに、撮像画像データファイルImg1と二次元画像データファイルc.100.bmpとの類似度は「0.3」、撮像画像データファイルImg2と二次元画像データファイルc.100.bmpとの類似度は「0.3」となっている。   Further, the similarity between the captured image data file Img1 and the C type two-dimensional image data file c.001.bmp is “0.5”, and the captured image data file Img2 and the C type two-dimensional image data file c.001.b. The similarity with bmp is “0.6”. Similarly, the similarity between the captured image data file Img1 and the two-dimensional image data file c.010.bmp is “0.4”, and the similarity between the captured image data file Img2 and the two-dimensional image data file c.010.bmp. Is "0.2". Furthermore, the similarity between the captured image data file Img1 and the two-dimensional image data file c.100.bmp is “0.3”, and the similarity between the captured image data file Img2 and the two-dimensional image data file c.100.bmp is It is "0.3".

そして、分類部24は、類似度計算部23によって算出された2つの撮像画像データ毎の類似度を合算した値に応じてポイントを付与し、物品の種類毎に当該ポイントを合計することで評価値を算出する。つまり、類似度が「1」と「1」を合算した「2」に近い程ポイントが高くなり、「0」に近い程ポイントが低くなる。なお、評価値を算出する手法についてはこれに限らず、第一実施形態にて説明した様々な手法にて算出することができる。   Then, the classification unit 24 assigns points according to the value obtained by adding the similarities of the two pieces of captured image data calculated by the similarity calculation unit 23, and evaluates the points by summing the points for each type of article. Calculate the value. That is, the points are higher as the similarity is closer to “2”, which is the sum of “1” and “1”, and the points are lower as the similarity is closer to “0”. The method for calculating the evaluation value is not limited to this, and can be calculated by the various methods described in the first embodiment.

例えば、図7においては、Aタイプの二次元画像データファイルa.001.bmpのポイントが「3」、二次元画像データファイルa.010.bmpのポイントが「2」、二次元画像データファイルa.100.bmpのポイントが「1」となっている。また、Bタイプの二次元画像データファイルb.001.bmpのポイントが「9」、二次元画像データファイルb.010.bmpのポイントが「8」、二次元画像データファイルb.100.bmpのポイントが「7」となっている。さらに、Cタイプの二次元画像データファイルc.001.bmpのポイントが「5」、二次元画像データファイルc.010.bmpのポイントが「4」、二次元画像データファイルc.100.bmpのポイントが「4」となっている。そして、このように付与されたポイントを、タイプ(種類)毎にそれぞれ合計した値(この場合、Aタイプは「7」、Bタイプは「35」、Cタイプは「17」)が評価値として算出されることとなる。   For example, in FIG. 7, the point of the A type two-dimensional image data file a.001.bmp is “3”, the point of the two-dimensional image data file a.010.bmp is “2”, and the two-dimensional image data file a. The point of .100.bmp is "1". The point of the B type two-dimensional image data file b.001.bmp is “9”, the point of the two-dimensional image data file b.010.bmp is “8”, and the point of the two-dimensional image data file b.100.bmp is “9”. The point is “7”. Furthermore, the point of the C type two-dimensional image data file c.001.bmp is “5”, the point of the two-dimensional image data file c.010.bmp is “4”, and the point of the two-dimensional image data file c.100.bmp is The point is “4”. Then, the value obtained by summing the points thus given for each type (type) (in this case, “7” for the A type, “35” for the B type, and “17” for the C type) is used as the evaluation value. It will be calculated.

このようにして、分類部24は、算出した評価値に基づき、当該評価値の高い種類を、対象物の分類されるべき種類であるとして分類する。よって、図7に示す場合において、分類部24は、異なる視点から投射された2つの撮像画像データファイルImg1及びImg2の被写体である対象物の種別として、Bタイプが最も類似度が高く、関連性の高い種類であるとして分類する。   In this way, the classification unit 24 classifies a type having a high evaluation value as a type of the target object based on the calculated evaluation value. Therefore, in the case illustrated in FIG. 7, the classification unit 24 determines that the type B has the highest similarity as the type of the object as the subject of the two captured image data files Img1 and Img2 projected from different viewpoints, Is classified as a high type.

例えば、図8に示すように、三角錐状をなすEタイプの物品と、円筒状をなすFタイプの物品において、ある視点(例えば、底面側)から投射された撮像画像データでは、同一の形状(この場合、円形状)をしている。しかしながら、これらEタイプの物品と、Fタイプの物品とにおける、前述したある視点とは異なる視点から投射された撮像画像データでは、前者が三角形状をなし、後者が矩形状をなし、全く異なった物品であることがわかる。   For example, as shown in FIG. 8, in an E-type article having a triangular pyramid shape and an F-type article having a cylindrical shape, captured image data projected from a certain viewpoint (for example, the bottom side) has the same shape. (In this case, a circular shape). However, in the E-type article and the F-type article, in the captured image data projected from a viewpoint different from the above-mentioned certain viewpoint, the former has a triangular shape, the latter has a rectangular shape, and is completely different. It turns out that it is an article.

このように、第二実施形態の物品分類システム1では、1つの対象物に対して、異なる複数(ここでは、2つ)の視点から投射された撮像画像データを用いて類似度を計算することで、当該撮像画像データが1つの場合と比較して、より正確な類似度を算出でき、これに基づいてポイントや評価値を計算できるため、分類の正確性や信頼性を一段と向上させることができる。   As described above, in the article classification system 1 of the second embodiment, the similarity is calculated for one target object using the captured image data projected from a plurality of (here, two) different viewpoints. As compared with the case where the number of the captured image data is one, more accurate similarity can be calculated, and points and evaluation values can be calculated based on the similarity. Therefore, the accuracy and reliability of classification can be further improved. it can.

<第三実施形態>
なお、上述した第一及び第二実施形態においては、撮像部10がデジタルカメラやスマートフォン等の携帯端末におけるカメラ等からなる場合について述べたが、本開示はこれに限ることはない。
<Third embodiment>
Note that, in the first and second embodiments described above, the case where the imaging unit 10 includes a camera or the like in a portable terminal such as a digital camera or a smartphone has been described, but the present disclosure is not limited thereto.

例えば、撮像部10のカメラとして、作業者が装着するウエアラブル装置を用いてもよい。この場合、作業者が対象物を任意の位置から視認しながら、適宜、撮像可能とすることで、撮像部10は、撮像する対象物を複数の異なる任意の視点から順次撮像することができる。   For example, a wearable device worn by an operator may be used as the camera of the imaging unit 10. In this case, the imaging unit 10 can sequentially image the object to be imaged from a plurality of different arbitrary viewpoints by enabling the worker to appropriately image while observing the object from an arbitrary position.

従って、類似度計算部23は、撮像画像取得部21が複数の異なる任意の視点から投射された撮像画像データを取得する毎に類似度の計算を行い、分類部24は、当該類似度計算部23によって類似度が計算される毎に、算出された類似度に基づき評価値を算出して分類結果を更新することができる。つまり、この場合、撮像部10によって同一の対象物を複数の異なる任意の視点から撮像する都度、図6に示す分類処理のルーチンを繰り返すことで、分類部24による分類結果を更新することができる。よって、対象物に対する類似度、ひいては分類の正確性、信頼性をより一層向上させることができる。   Therefore, the similarity calculation unit 23 calculates the similarity every time the captured image acquisition unit 21 acquires the captured image data projected from a plurality of different arbitrary viewpoints. Each time the similarity is calculated by 23, an evaluation value can be calculated based on the calculated similarity and the classification result can be updated. That is, in this case, the classification result by the classification unit 24 can be updated by repeating the classification processing routine illustrated in FIG. 6 each time the same target is imaged by the imaging unit 10 from a plurality of different arbitrary viewpoints. . Therefore, the degree of similarity to the target object, and further, the accuracy and reliability of the classification can be further improved.

<第四実施形態>
また、上述した第一乃至第三実施形態においては、類似度の計算において、シェイプマッチング手法を用いる場合について述べたが、本開示はこれに限ることはない。例えば、上述した類似度の計算におけるシェイプマッチング手法に、更に対象物の重さに関する情報を加味するようにしてもよい。具体的に、撮像部10の台において、載置する対象物の重量を測定可能とし、当該測定した重量が、記憶部22の仕様書データに基づく重さの情報と合致するか否かの判断を含めて類似度を計算し、対象物の分類を行うようにしてもよい。これより、外観上は同一の形状に見える物品であっても、対象物の重さの情報に基づき、内部形状や内部構造において異なった物品(例えば、中空状の物品や、肉厚の異なる物品)を正確に分類することができる。なお、記憶部22に記憶される重さデータとしては、仕様書に基づくデータを用いてもよいし、別途測定した測定結果を用いてもよい。
<Fourth embodiment>
Further, in the above-described first to third embodiments, the case where the shape matching method is used in the calculation of the similarity has been described, but the present disclosure is not limited to this. For example, information on the weight of the target object may be added to the shape matching method in the above-described similarity calculation. Specifically, the weight of the object to be placed can be measured on the base of the imaging unit 10, and it is determined whether or not the measured weight matches the weight information based on the specification data in the storage unit 22. , The similarity may be calculated, and the object may be classified. Thus, even if the articles appear to have the same shape in appearance, articles having different internal shapes and structures (for example, hollow articles and articles having different thicknesses) based on the information on the weight of the target object. ) Can be accurately classified. In addition, as the weight data stored in the storage unit 22, data based on a specification may be used, or a measurement result measured separately may be used.

また、例えば、上述した類似度の計算におけるシェイプマッチング手法に、更に対象物の寸法に関する情報を加味するようにしてもよい。具体的に、撮像部10の台において、載置する対象物の寸法を測定するためのスケールを設けておき、当該台に載置した対象物の絶対的な寸法を測定可能とする。そして、当該測定した寸法が、記憶部22の仕様書データに基づく長さの情報と合致するか否かの判断を含めて類似度を計算し、対象物の分類を行うようにしてもよい。   Further, for example, information on the dimensions of the target object may be added to the shape matching method in the above-described similarity calculation. Specifically, a scale for measuring the size of the object to be mounted is provided on the table of the imaging unit 10 so that the absolute size of the object mounted on the table can be measured. Then, the similarity may be calculated including the determination as to whether or not the measured dimension matches the length information based on the specification data in the storage unit 22, and the target object may be classified.

さらに、例えば、上述した類似度の計算におけるシェイプマッチング手法に、更に対象物の縦横比に関する情報を加味するようにしてもよい。具体的に、撮像部10の台において、載置する対象物の寸法を測定するためのスケールを設けておき、当該台に載置した対象物の縦横比(レシオやアスペクト比等)を算出可能とする。そして、当該算出した縦横比が、記憶部22の仕様書データに基づく縦横比の情報と合致するか否かの判断を含めて類似度を計算し、対象物の分類を行うようにしてもよい。このように、撮像部10の台に対象物の寸法を測定するためのスケールを設けておき、仕様書データに基づく長さの情報や、縦横比の情報を用いることで、外観上は同一の形状に見える物品であっても、対象物の長さの情報に基づき、寸法の異なる物品をも正確に分類することができる。さらに加えて、仕様書データに基づく縦横比の情報を用いることで、対象物が等方的な収縮度を持つような物品(セラミックや粉末冶金等の焼結体やモールド部品等)で絶対寸法が多少変化している場合であっても正確に分類することができる。なお、記憶部22に記憶される長さデータ、縦横比データとしては、仕様書に基づくデータを用いてもよいし、別途測定した測定結果を用いてもよい。   Further, for example, information on the aspect ratio of the target object may be added to the shape matching method in the above-described similarity calculation. Specifically, a scale for measuring the size of the object to be mounted is provided on the table of the imaging unit 10, and the aspect ratio (ratio, aspect ratio, etc.) of the object mounted on the table can be calculated. And Then, the similarity may be calculated including determination of whether or not the calculated aspect ratio matches information on the aspect ratio based on the specification data in the storage unit 22, and the target object may be classified. . As described above, the scale for measuring the size of the object is provided on the base of the imaging unit 10, and the length information based on the specification data and the information of the aspect ratio are used to obtain the same appearance. Even if the article looks like a shape, articles having different dimensions can be correctly classified based on information on the length of the target object. In addition, by using the information of the aspect ratio based on the specification data, the absolute size of the object (sintered body such as ceramic or powder metallurgy or molded part) with the object having isotropic shrinkage degree can be obtained. Can be accurately classified even if the value slightly changes. In addition, as the length data and the aspect ratio data stored in the storage unit 22, data based on a specification may be used, or a measurement result measured separately may be used.

<プログラム>
なお、本実施形態では、主に、類似度に基づき、分類対象の物品と、その種類との関連性に鑑み、対象物に対して、類似度が高い種類がどれであるかを分類する物品分類システム1の構成と動作について説明したが、これに限らず、各構成要素を備え、記憶部11に予め記憶された物品の種類毎に各々複数の異なる視点による二次元画像データと、撮像部10によって撮像された撮像画像データとの類似度に基づき、対象物と物品の種類との関連性に鑑み、対象物に対して類似度が高い種類がどれであるかを計算するためのプログラムとして構成されてもよい。
<Program>
Note that, in the present embodiment, mainly based on the similarity, in consideration of the relevance between the article to be classified and the type, an article that classifies a type having a high similarity to the object is classified. Although the configuration and operation of the classification system 1 have been described, the present invention is not limited to this, but includes two-dimensional image data from a plurality of different viewpoints for each type of article stored in the storage unit 11 in advance. Based on the similarity with the image data captured by the image processing apparatus 10, in consideration of the relationship between the object and the type of the article, a program for calculating which type has a high similarity to the object is It may be configured.

また、物品分類システム1を構成する各機能を実現するためのプログラムをコンピュータで読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。   Further, a program for realizing each function constituting the article classification system 1 is recorded on a computer-readable recording medium, and the program recorded on this recording medium is read by a computer system and executed. May be.

具体的には、当該プログラムは、分類対象となる物品の撮像画像データを取得する撮像画像取得ステップと、記憶部22に予め記憶された物品の種類毎に各々複数の異なる視点による二次元画像データと、撮像画像データとの類似度を計算する類似度計算ステップと、類似度に基づいて物品を種類別に分類する分類ステップと、をコンピュータによって実現するためのプログラムである。   Specifically, the program includes a captured image acquisition step of acquiring captured image data of an article to be classified, and two-dimensional image data from a plurality of different viewpoints for each type of article stored in the storage unit 22 in advance. And a similarity calculating step of calculating a similarity with the captured image data, and a classifying step of classifying the articles by type based on the similarity by a computer.

さらに、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータで読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Further, the “computer system” here includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in a computer system.

さらに「コンピュータで読み取り可能な記録媒体」とは、有線または無線LANやインターネット等のネットワーク、または電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短期間で動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。   Further, a “computer-readable recording medium” is a dynamic medium in a short period of time, such as a communication line for transmitting a program via a network such as a wired or wireless LAN or the Internet, or a communication line such as a telephone line. And a program that holds a program for a certain period of time, such as a volatile memory in a computer system serving as a server or a client in that case. Further, the above-mentioned program may be for realizing a part of the functions described above, or may be for realizing the above-mentioned functions in combination with a program already recorded in a computer system. .

1…物品分類システム
10…撮像部
20…物品分類装置
21…撮像画像取得部
22…記憶部
23…類似度計算部
24…分類部
NW…ネットワーク


DESCRIPTION OF SYMBOLS 1 ... Article classification system 10 ... Imaging part 20 ... Article classification apparatus 21 ... Captured image acquisition part 22 ... Storage part 23 ... Similarity calculation part 24 ... Classification part NW ... Network


Claims (13)

複数種類の物品を種類別に分類する物品分類装置であって、
分類対象となる物品の撮像画像データを取得する撮像画像取得部と、
前記物品の種類毎に各々複数の異なる視点による二次元画像データが記憶される記憶部と、
前記撮像画像データと前記二次元画像データとのそれぞれの類似度を計算する類似度計算部と、
前記類似度に基づき、前記物品の種類毎の評価値を算出し、当該評価値が高い種類が前記分類対象となる物品の種類であると分類する分類部と、
を備えることを特徴とする物品分類装置。
An article classification device for classifying a plurality of types of articles by type,
A captured image acquisition unit that acquires captured image data of an article to be classified;
A storage unit in which two-dimensional image data from a plurality of different viewpoints are stored for each type of the article,
A similarity calculation unit that calculates respective similarities between the captured image data and the two-dimensional image data,
Said based-out similarity, and calculates an evaluation value for each type of the article, the classification unit that classifies with the evaluation value is high type is the type of article to be the classification target,
An article classification device comprising:
前記記憶部に記憶された二次元画像データは、三次元画像データから変換された複数の異なる視点から投射された画像データからなる、
ことを特徴とする請求項1に記載の物品分類装置。
The two-dimensional image data stored in the storage unit includes image data projected from a plurality of different viewpoints converted from the three-dimensional image data,
The article classification device according to claim 1, wherein:
前記分類部は、前記類似度計算部によって算出された類似度に応じてポイントを付与し、前記物品の種類毎に当該ポイントを合計することで前記評価値を算出する、
ことを特徴とする請求項1または2に記載の物品分類装置。
The classification unit is configured to add a point according to the similarity calculated by the similarity calculation unit, and calculate the evaluation value by summing the points for each type of the article.
The article classification device according to claim 1 or 2 , wherein:
前記分類部は、前記類似度計算部によって算出された類似度の高さに基づくランキングに応じて前記ポイントを付与する、
ことを特徴とする請求項に記載の物品分類装置。
The classifying unit assigns the points according to a ranking based on the height of the similarity calculated by the similarity calculating unit,
The article classification device according to claim 3 , wherein:
前記撮像画像取得部は、前記分類対象となる物品毎に各々複数の異なる視点による撮像画像データを取得し、
前記類似度計算部は、前記撮像画像取得部によって取得された前記複数の異なる視点による撮像画像データと、前記二次元画像データとの類似度を計算し、
前記分類部は、前記類似度計算部によって算出された類似度に基づき、前記物品を種類別に分類する、
ことを特徴とする請求項1乃至のいずれか一項に記載の物品分類装置。
The captured image acquiring unit acquires captured image data from a plurality of different viewpoints for each article to be classified,
The similarity calculation unit calculates the similarity between the captured image data obtained by the plurality of different viewpoints acquired by the captured image acquisition unit and the two-dimensional image data,
The classification unit classifies the articles by type based on the similarity calculated by the similarity calculation unit,
The article classification device according to any one of claims 1 to 4 , wherein:
前記分類部は、前記類似度計算部によって算出された類似度に基づき、前記物品の種類毎の評価値を算出し、当該評価値が高い種類が前記分類対象となる物品の種類であると分類する、
ことを特徴とする請求項に記載の物品分類装置。
The classification unit calculates an evaluation value for each type of the article based on the similarity calculated by the similarity calculation unit, and classifies the type having the higher evaluation value as the type of the article to be classified. Do
The article classification device according to claim 5 , wherein:
複数種類の物品を種類別に分類する物品分類装置であって、
分類対象となる物品の撮像画像データを取得する撮像画像取得部と、
前記物品の種類毎に各々複数の異なる視点による二次元画像データが記憶される記憶部と、
前記撮像画像取得部が前記撮像画像データを取得する毎に前記撮像画像データと前記二次元画像データとの類似度を計算する類似度計算部と、
前記類似度に基づいて前記物品を種類別に分類し、前記類似度計算部によって算出された前記類似度に基づき分類結果を更新する分類部と、
を備えることを特徴とする物品分類装置。
An article classification device for classifying a plurality of types of articles by type,
A captured image acquisition unit that acquires captured image data of an article to be classified;
A storage unit in which two-dimensional image data from a plurality of different viewpoints are stored for each type of the article,
A similarity calculation unit that calculates the similarity between the captured image data and the two-dimensional image data each time the captured image acquisition unit acquires the captured image data,
A classification unit that classifies the articles by type based on the similarity and updates a classification result based on the similarity calculated by the similarity calculation unit ;
An article classification device comprising:
複数種類の物品を種類別に分類する物品分類装置であって、
分類対象となる物品の撮像画像データを取得する撮像画像取得部と、
前記物品の種類毎に各々複数の異なる視点による二次元画像データ及び前記物品の重さデータ、長さデータ、縦横比データの少なくとも一つの情報が記憶される記憶部と、
前記撮像画像データと前記二次元画像データとの類似度を計算する類似度計算部と、
前記類似度と前記物品の重さデータ、長さデータまたは縦横比データを加味して前記物品を種類別に分類する分類部と、
を備えることを特徴とする物品分類装置。
An article classification device for classifying a plurality of types of articles by type,
A captured image acquisition unit that acquires captured image data of an article to be classified;
A storage unit in which at least one piece of information of two-dimensional image data and the weight data of the article, length data, and aspect ratio data is stored by a plurality of different viewpoints for each type of the article,
A similarity calculating unit that calculates a similarity between the captured image data and the two-dimensional image data,
A classification unit that classifies the articles by type in consideration of the similarity and the weight data, the length data, or the aspect ratio data of the articles,
An article classification device comprising:
前記類似度計算部は、前記類似度の計算に際し、前記撮像画像データに対する前記二次元画像データの類似度を計算する、
ことを特徴とする請求項1乃至のいずれか一項に記載の物品分類装置。
The similarity calculation unit, when calculating the similarity, calculates the similarity of the two-dimensional image data to the captured image data,
The article classification device according to any one of claims 1 to 8 , wherein:
前記類似度計算部は、前記類似度の計算に際し、前記二次元画像データに対する前記撮像画像データの類似度を計算する、
ことを特徴とする請求項1乃至のいずれか一項に記載の物品分類装置。
The similarity calculation unit calculates the similarity of the captured image data with respect to the two-dimensional image data when calculating the similarity,
The article classification device according to any one of claims 1 to 8 , wherein:
複数種類の物品を種類別に分類する物品分類システムであって、
分類対象となる物品の撮像画像データを撮像する撮像部と、
前記物品の種類毎に各々複数の異なる視点による二次元画像データが記憶される記憶部と、
前記撮像画像データと前記二次元画像データとのそれぞれの類似度を計算する類似度計算部と、
前記類似度に基づき、前記物品の種類毎の評価値を算出し、当該評価値が高い種類が前記分類対象となる物品の種類であると分類する分類部と、
前記分類部が分類した結果を出力する出力部と、
を備えることを特徴とする物品分類システム。
An article classification system for classifying a plurality of types of articles by type,
An imaging unit that captures captured image data of an article to be classified;
A storage unit in which two-dimensional image data from a plurality of different viewpoints are stored for each type of the article,
A similarity calculator that calculates respective similarities between the captured image data and the two-dimensional image data,
Said based-out similarity, and calculates an evaluation value for each type of the article, the classification unit that classifies with the evaluation value is high type is the type of article to be the classification target,
An output unit that outputs a result of the classification by the classification unit;
An article classification system comprising:
複数種類の物品を種類別に分類する物品分類方法であって、
分類対象となる物品の撮像画像データを取得する撮像画像取得ステップと、
記憶部に記憶される前記物品の種類毎に各々複数の異なる視点による二次元画像データと、前記撮像画像データとのそれぞれの類似度を計算する類似度計算ステップと、
前記類似度に基づき、前記物品の種類毎の評価値を算出し、当該評価値が高い種類が前記分類対象となる物品の種類であると分類する分類ステップと、
を含むことを特徴とする物品分類方法。
An article classification method for classifying a plurality of types of articles by type,
A captured image obtaining step of obtaining captured image data of an article to be classified;
Two-dimensional image data with a plurality of different viewpoints for each type of the article stored in the storage unit, and a similarity calculation step of calculating each similarity with the captured image data,
-Out based on the similarity, and calculates an evaluation value for each type of the article, a classification step of classifying with the evaluation value is high type is the type of article to be the classification target,
An article classification method comprising:
コンピュータを、
分類対象となる物品の撮像画像データを取得する撮像画像取得手段、
前記物品の種類毎に各々複数の異なる視点による二次元画像データが記憶される記憶手段、
前記撮像画像データと前記二次元画像データとのそれぞれの類似度を計算する類似度計算手段、
前記類似度に基づき、前記物品の種類毎の評価値を算出し、当該評価値が高い種類が前記分類対象となる物品の種類であると分類する分類手段、
として機能させるためのプログラム。
Computer
A captured image acquisition unit that acquires captured image data of an article to be classified;
Storage means for storing two-dimensional image data from a plurality of different viewpoints for each type of the article,
Similarity calculating means for calculating respective similarities between the captured image data and the two-dimensional image data,
Wherein based-out similarity, and calculates an evaluation value for each type of the article, classifying means for classifying with the evaluation value is high type is the type of article to be the classification target,
Program to function as
JP2018011515A 2018-01-26 2018-01-26 Article classification apparatus, article classification system, article classification method and program Active JP6641396B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018011515A JP6641396B2 (en) 2018-01-26 2018-01-26 Article classification apparatus, article classification system, article classification method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018011515A JP6641396B2 (en) 2018-01-26 2018-01-26 Article classification apparatus, article classification system, article classification method and program

Publications (2)

Publication Number Publication Date
JP2019128881A JP2019128881A (en) 2019-08-01
JP6641396B2 true JP6641396B2 (en) 2020-02-05

Family

ID=67473168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018011515A Active JP6641396B2 (en) 2018-01-26 2018-01-26 Article classification apparatus, article classification system, article classification method and program

Country Status (1)

Country Link
JP (1) JP6641396B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10410056B1 (en) * 2019-04-16 2019-09-10 Capital One Services, Llc Computer vision based asset evaluation
CN111666262B (en) * 2020-05-28 2021-06-22 重庆中联信息产业有限责任公司 Working method for extracting feature points of massive medical images in network attached storage NAS state

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3179407B1 (en) * 2015-12-07 2022-07-13 Dassault Systèmes Recognition of a 3d modeled object from a 2d image
JP6935207B2 (en) * 2017-02-28 2021-09-15 三菱重工業株式会社 Object determination device, object determination method, and program

Also Published As

Publication number Publication date
JP2019128881A (en) 2019-08-01

Similar Documents

Publication Publication Date Title
US11462031B2 (en) Systems and methods for performing a 3D match search in a 3D database based on 3D primitives and a connectivity graph
JP5134664B2 (en) Annotation device
JP6211407B2 (en) Image search system, image search device, search server device, image search method, and image search program
JP4653606B2 (en) Image recognition apparatus, method and program
JP6554900B2 (en) Template creation apparatus and template creation method
WO2015186436A1 (en) Image processing device, image processing method, and image processing program
US10373372B2 (en) System and method for object recognition
JP6719497B2 (en) Image generation method, image generation device, and image generation system
CN103946891A (en) Local feature amount extraction device, local feature amount extraction method, and program
CN110781911B (en) Image matching method, device, equipment and storage medium
JP4709668B2 (en) 3D object recognition system
JP6641396B2 (en) Article classification apparatus, article classification system, article classification method and program
JP6191727B1 (en) Modeling image management system, modeling image management device, modeling image management program
JP2015028702A (en) Information processor, information processing method, and program
Pratikakis et al. SHREC’16 track: Partial shape queries for 3d object retrieval
US11580693B1 (en) Two-dimensional image collection for three-dimensional body composition modeling
JP6035173B2 (en) Image search system and image search method
JP6403201B2 (en) Image feature registration apparatus, method, and program
US20150254527A1 (en) Methods for 3d object recognition and registration
CN111191065B (en) Homologous image determining method and device
CN117237681A (en) Image processing method, device and related equipment
JP2011022066A (en) Method of measuring position and attitude of three-dimensional object
WO2017042852A1 (en) Object recognition appratus, object recognition method and storage medium
Rianmora et al. Non-scanning acquisition technique for extracting small depth difference on the area of interest
JP6399651B2 (en) Registration device, search device, method and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180801

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191227

R150 Certificate of patent or registration of utility model

Ref document number: 6641396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250