JP6041156B2 - Information processing system, information processing method, and information processing program - Google Patents

Information processing system, information processing method, and information processing program Download PDF

Info

Publication number
JP6041156B2
JP6041156B2 JP2013549286A JP2013549286A JP6041156B2 JP 6041156 B2 JP6041156 B2 JP 6041156B2 JP 2013549286 A JP2013549286 A JP 2013549286A JP 2013549286 A JP2013549286 A JP 2013549286A JP 6041156 B2 JP6041156 B2 JP 6041156B2
Authority
JP
Japan
Prior art keywords
feature
local feature
local
product
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013549286A
Other languages
Japanese (ja)
Other versions
JPWO2013089145A1 (en
Inventor
野村 俊之
俊之 野村
山田 昭雄
昭雄 山田
岩元 浩太
浩太 岩元
亮太 間瀬
亮太 間瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2013089145A1 publication Critical patent/JPWO2013089145A1/en
Application granted granted Critical
Publication of JP6041156B2 publication Critical patent/JP6041156B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Description

本発明は、撮像した映像内の製品および部品を認識するための技術に関する。   The present invention relates to a technique for recognizing products and parts in captured images.

上記技術分野において、特許文献1には、画像認識によって基板上の部品が間違いなく取付けられているか否かを確認する技術が開示されている。   In the above technical field, Patent Document 1 discloses a technique for confirming whether or not components on a board are definitely attached by image recognition.

特開2006−245483号公報JP 2006-245483 A

しかしながら、上記文献に記載の技術では、その確認の精度およびスピードの面で十分な品質を達成することができていなかった。   However, the technique described in the above-mentioned document has not been able to achieve sufficient quality in terms of accuracy and speed of confirmation.

本発明の目的は、上述の課題を解決する技術を提供することにある。   The objective of this invention is providing the technique which solves the above-mentioned subject.

上記目的を達成するため、本発明に係るシステムは、
製品および該製品に取り付けられた部品の画像内のm個の特徴点のそれぞれを含むm個の局所領域のそれぞれについて生成された、それぞれ1次元からi次元までの特徴ベクトルからなるm個の第1局所特徴量を、前記製品または前記部品に対応付けて記憶する第1局所特徴量記憶手段と、
部品が取り付けられた製品全体を撮像する撮像手段と、
前記撮像手段が撮像した映像内からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成手段と、
前記第1局所特徴量の特徴ベクトルの次元数iおよび前記第2局所特徴量の特徴ベクトルの次元数jのうち、より少ない次元数を選択し、選択された前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択された前記次元数までの特徴ベクトルからなる前記m個の第1局所特徴量の所定割合以上が対応する、と判定した場合に、前記映像中に前記対象物が存在すると認識する認識手段と、
を備えたことを特徴とする。
In order to achieve the above object, a system according to the present invention provides:
M number of feature vectors, each consisting of 1-dimensional to i-dimensional feature vectors, generated for each of the m local regions including each of the m feature points in the image of the product and the part attached to the product. A first local feature quantity storage means for storing one local feature quantity in association with the product or the part;
Imaging means for imaging the entire product with the parts attached thereto;
N feature points are extracted from the image picked up by the image pickup means, and n local regions including the n feature points are respectively provided with n pieces of feature vectors from 1 to j dimensions. Second local feature quantity generating means for generating a second local feature quantity;
A smaller dimension number is selected from among the dimension number i of the feature vector of the first local feature quantity and the dimension number j of the feature vector of the second local feature quantity, and the feature vector includes up to the selected dimension number. When it is determined that the n second local feature values correspond to a predetermined ratio or more of the m first local feature values composed of feature vectors up to the selected number of dimensions, Recognition means for recognizing that the object exists;
It is provided with.

上記目的を達成するため、本発明に係る方法は、
部品が取り付けられた製品全体を撮像する撮像ステップと、
前記撮像ステップで撮像された映像内からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成ステップと、
対象物の画像内のm個の特徴点のそれぞれを含むm個の局所領域のそれぞれについてあらかじめ生成され第1局所特徴量記憶手段に記憶された、それぞれ1次元からi次元までの特徴ベクトルからなるm個の第1局所特徴量を、前記第1局所特徴量記憶手段から読出す読出ステップと、
前記第1局所特徴量の特徴ベクトルの次元数iおよび前記第2局所特徴量の特徴ベクトルの次元数jのうち、より少ない次元数を選択し、選択された前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択された前記次元数までの特徴ベクトルからなる前記m個の第1局所特徴量の所定割合以上が対応する、と判定した場合に、前記映像中に前記対象物が存在すると認識する認識ステップと、
を含むことを特徴とする。
In order to achieve the above object, the method according to the present invention comprises:
An imaging step for imaging the entire product with the parts attached;
N feature points are extracted from the image captured in the imaging step, and n local feature regions each including the n feature points are each composed of feature vectors from 1 to j dimensions. A second local feature generation step of generating the second local feature of
Each of the m local regions including each of the m feature points in the image of the object is made up of feature vectors from 1D to iD that are generated in advance and stored in the first local feature storage unit. a reading step of reading m first local feature values from the first local feature value storage means;
A smaller dimension number is selected from among the dimension number i of the feature vector of the first local feature quantity and the dimension number j of the feature vector of the second local feature quantity, and the feature vector includes up to the selected dimension number. When it is determined that the n second local feature values correspond to a predetermined ratio or more of the m first local feature values composed of feature vectors up to the selected number of dimensions, Recognizing that the object is present;
It is characterized by including.

上記目的を達成するため、本発明に係るプログラムは、
部品が取り付けられた製品全体を撮像する撮像ステップと、
前記撮像ステップで撮像された映像内からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成ステップと、
対象物の画像内のm個の特徴点のそれぞれを含むm個の局所領域のそれぞれについてあらかじめ生成され第1局所特徴量記憶手段に記憶された、それぞれ1次元からi次元までの特徴ベクトルからなるm個の第1局所特徴量を、前記第1局所特徴量記憶手段から読出す読出ステップと、
前記第1局所特徴量の特徴ベクトルの次元数iおよび前記第2局所特徴量の特徴ベクトルの次元数jのうち、より少ない次元数を選択し、選択された前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択された前記次元数までの特徴ベクトルからなる前記m個の第1局所特徴量の所定割合以上が対応する、と判定した場合に、前記映像中に前記対象物が存在すると認識する認識ステップと、
をコンピュータに実行させることを特徴とする。
In order to achieve the above object, a program according to the present invention provides:
An imaging step for imaging the entire product with the parts attached;
N feature points are extracted from the image captured in the imaging step, and n local feature regions each including the n feature points are each composed of feature vectors from 1 to j dimensions. A second local feature generation step of generating the second local feature of
Each of the m local regions including each of the m feature points in the image of the object is made up of feature vectors from 1D to iD that are generated in advance and stored in the first local feature storage unit. a reading step of reading m first local feature values from the first local feature value storage means;
A smaller dimension number is selected from among the dimension number i of the feature vector of the first local feature quantity and the dimension number j of the feature vector of the second local feature quantity, and the feature vector includes up to the selected dimension number. When it is determined that the n second local feature values correspond to a predetermined ratio or more of the m first local feature values composed of feature vectors up to the selected number of dimensions, Recognizing that the object is present;
Is executed by a computer.

本発明によれば、生産段階での製品のチェックを正確かつ即時に行なうことができ、ひいては製品品質を向上させることができる。   According to the present invention, the product can be checked accurately and immediately at the production stage, and the product quality can be improved.

本発明の第1実施形態に係る情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る情報処理システムの構成を示す図である。It is a figure which shows the structure of the information processing system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る情報処理システム全体の処理の流れを説明するためのシーケンス図である。It is a sequence diagram for demonstrating the flow of the process of the whole information processing system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る通信端末の構成を示すブロック図である。It is a block diagram which shows the structure of the communication terminal which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る工場コンピュータの構成を示すブロック図である。It is a block diagram which shows the structure of the factory computer which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る局所特徴量の生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of the local feature-value based on 2nd Embodiment of this invention. 本発明の第2実施形態に係る局所特徴量の生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of the local feature-value based on 2nd Embodiment of this invention. 本発明の第2実施形態に係る局所特徴量の生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of the local feature-value based on 2nd Embodiment of this invention. 本発明の第2実施形態に係る局所特徴量の生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of the local feature-value based on 2nd Embodiment of this invention. 本発明の第2実施形態に係る局所特徴量の生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of the local feature-value based on 2nd Embodiment of this invention. 本発明の第2実施形態に係る局所特徴量の生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of the local feature-value based on 2nd Embodiment of this invention. 本発明の第2実施形態に係る照合処理について説明するための図である。It is a figure for demonstrating the collation process which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る照合処理について説明するための図である。It is a figure for demonstrating the collation process which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る局所特徴量データベース310の内容について説明するための図である。It is a figure for demonstrating the content of the local feature-value database 310 which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る製品/部品データベース340の内容について説明するための図である。It is a figure for demonstrating the content of the product / part database 340 which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る在庫管理データベース330の内容について説明するための図である。It is a figure for demonstrating the content of the inventory management database 330 which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る通信端末のハードウェア構成を説明するための図である。It is a figure for demonstrating the hardware constitutions of the communication terminal which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る通信端末における局所特徴量生成テーブルを示す図である。It is a figure which shows the local feature-value production | generation table in the communication terminal which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る通信端末における処理の流れについて説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the process in the communication terminal which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る通信端末における処理の流れについて説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the process in the communication terminal which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る通信端末における処理の流れについて説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the process in the communication terminal which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る通信端末における処理の流れについて説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the process in the communication terminal which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る工場コンピュータにおける処理の流れについて説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the process in the factory computer which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る工場コンピュータにおける処理の流れについて説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the process in the factory computer which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る工場コンピュータにおける処理の流れについて説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the process in the factory computer which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る工場コンピュータにおける処理の流れについて説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the process in the factory computer which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る工場コンピュータにおける処理の流れについて説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the process in the factory computer which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る情報処理システムの処理について説明するための図である。It is a figure for demonstrating the process of the information processing system which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係る情報処理システムの処理について説明するための図である。It is a figure for demonstrating the process of the information processing system which concerns on 4th Embodiment of this invention.

以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素は単なる例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. However, the constituent elements described in the following embodiments are merely examples, and are not intended to limit the technical scope of the present invention only to them.

[第1実施形態]
本発明の第1実施形態としての情報処理システム100について、図1を用いて説明する。図1は、情報処理システム100の構成を示すブロック図である。図1に示すように、情報処理システム100は、第1局所特徴量記憶部110と、撮像部120と、第2局所特徴量生成部130と、認識部140とを含む。
[First Embodiment]
An information processing system 100 as a first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration of the information processing system 100. As illustrated in FIG. 1, the information processing system 100 includes a first local feature quantity storage unit 110, an imaging unit 120, a second local feature quantity generation unit 130, and a recognition unit 140.

第1局所特徴量記憶部110は、製品および該製品に取り付けられた部品111の画像内のm個の特徴点のそれぞれを含むm個の局所領域のそれぞれについて生成された、それぞれ1次元からi次元までの特徴ベクトルからなるm個の第1局所特徴量112を、製品または部品111に対応付けて記憶する。   The first local feature amount storage unit 110 is generated for each of the m local regions including each of the m feature points in the image of the product and the part 111 attached to the product. The m first local feature quantities 112 composed of feature vectors up to dimensions are stored in association with the product or part 111.

撮像部120は、部品が取り付けられた製品全体を撮像する。第2局所特徴量生成部130は、撮像部120が撮像した映像内からn個の特徴点131を抽出し、n個の特徴点131のそれぞれを含むn個の局所領域132について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量133を生成する。   The imaging unit 120 images the entire product to which the component is attached. The second local feature value generation unit 130 extracts n feature points 131 from the video imaged by the imaging unit 120, and each of the n local regions 132 including the n feature points 131 is one-dimensional. To j-dimensional feature vectors n second local feature values 133 are generated.

認識部140は、第2局所特徴量生成部130が生成したj次元までの特徴ベクトルからなるn個の第2局所特徴量133に、第1局所特徴量記憶部110に記憶されたj次元までの特徴ベクトルからなるm個の第1局所特徴量112の所定割合以上が対応すると判定した場合に、映像内に製品または部品111が存在すると認識する。   The recognizing unit 140 adds the n second local feature amounts 133 including the feature vectors up to the j dimension generated by the second local feature amount generating unit 130 to the j dimension stored in the first local feature amount storage unit 110. When it is determined that a predetermined ratio or more of the m first local feature values 112 composed of the feature vectors corresponds, it is recognized that the product or part 111 exists in the video.

以上の実施形態によれば、生産段階での製品のチェックを正確かつ即時に行なうことができ、ひいては製品品質を向上させることができる。   According to the above embodiment, the product can be checked accurately and immediately at the production stage, and the product quality can be improved.

[第2実施形態]
次に、本発明の第2実施形態に係る情報処理システムについて説明する。本実施形態の情報処理システムは、撮像した映像から通信端末が局所特徴量を生成して工場コンピュータに送信し、工場コンピュータでは組み立て製品や部品に対応付けて記憶した局所特徴量と照合して組み立て製品や部品を同定して、組み立て製品や部品の管理処理を行なう。
[Second Embodiment]
Next, an information processing system according to the second embodiment of the present invention will be described. In the information processing system according to the present embodiment, the communication terminal generates a local feature amount from the captured video and transmits the local feature amount to the factory computer. The factory computer assembles the local feature amount in association with the assembled product or component. Identify products and parts, and manage assembly products and parts.

本実施形態によれば、リアルタイムに個々の部品の向きや角度を精度良く認識できるので、精密な組み立て製品や部品の迅速なチェックが可能である。   According to this embodiment, since the direction and angle of each part can be recognized with high accuracy in real time, it is possible to quickly check a precise assembly product or part.

《情報処理システムの構成》
図2は、本実施形態に係る情報処理システム200の構成を示すブロック図である。図2の情報処理システム200は、部品を組み立てて製品を作成する生産システムである。
<Configuration of information processing system>
FIG. 2 is a block diagram illustrating a configuration of the information processing system 200 according to the present embodiment. An information processing system 200 in FIG. 2 is a production system that assembles parts to create a product.

工場201における製品組み立てエリア202には、部品入庫ゲート210と、部品チェックライン220と、組み立てチェックライン230−1および230−1と、組み立てた製品チェックライン240と、製品出荷ゲート250とを含むものとする。さらに、製品修理エリア203には、修理前チェックライン260と、修理後チェックライン270とが存在するものとする。なお、本実施形態は、上記処理に限定されず、複数部品の組み立てのリアルタイムチェックにおいて有用である。   The product assembly area 202 in the factory 201 includes a component receiving gate 210, a component check line 220, assembly check lines 230-1 and 230-1, an assembled product check line 240, and a product shipment gate 250. . Further, it is assumed that a pre-repair check line 260 and a post-repair check line 270 exist in the product repair area 203. The present embodiment is not limited to the above processing, and is useful in real-time checking of assembling a plurality of parts.

(部品入庫)
まず、部品入庫ゲート210においては、通信端末291が、輸送車から降ろされて工場201に入庫される入庫部品212を撮像して、その映像から局所特徴量を生成する。生成した局所特徴量を工場コンピュー280に送る。工場コンピュータ280において、局所特徴量から入庫品212を同定し、入庫処理を行なう。なお、部品入庫ゲート210において、撮像される入庫部品212はダンボール箱などの梱包ケースである。
(Parts receipt)
First, in the component storage gate 210, the communication terminal 291 images the storage component 212 that is unloaded from the transport vehicle and stored in the factory 201, and generates a local feature amount from the image. The generated local feature amount is sent to the factory computer 280. In the factory computer 280, the warehousing product 212 is identified from the local feature amount and the warehousing process is performed. In the parts storage gate 210, the storage part 212 to be imaged is a packing case such as a cardboard box.

(部品チェック)
次に、部品チェックライン220においては、通信端末292は、ベルトコンベアで運び入れられる組み立て用部品222あるいは223を撮影して局所特徴量を生成し、工場コンピュータ280は、間違った部品が混入していないかをチェックする。本実施形態によれば、個々の部品222や223がどの方向を向いていても、どんな角度であっても、さらに一部が他の部品で隠れていても認識が可能である。
(Parts check)
Next, in the component check line 220, the communication terminal 292 captures the assembly component 222 or 223 carried by the belt conveyor to generate a local feature amount, and the factory computer 280 includes a wrong component. Check for it. According to the present embodiment, it is possible to recognize whether the individual parts 222 and 223 are facing in any direction, at any angle, and even if a part is hidden by other parts.

(組立チェック)
次に、組立チェックライン230−1においては、通信端末293が、部品222や223が組み立てられた組立部品232や233を撮影して局所特徴量を生成し、部品222や223を間違わずにかつ正確な位置関係で組み立てられているかを、リアルタイムにチェックする。次に、組立チェックライン230−2においては、通信端末294が、組み立て中の製品および組立部品を撮影して局所特徴量を生成し、組立部品232や233から製品の組立が間違わずに行なわれているかを、組立部品の方向および配置などからチェックする。
(Assembly check)
Next, in the assembly check line 230-1, the communication terminal 293 captures the assembly parts 232 and 233 in which the parts 222 and 223 are assembled, generates local feature amounts, and does not mistake the parts 222 and 223. Check in real time whether it is assembled in the correct positional relationship. Next, in the assembly check line 230-2, the communication terminal 294 captures the product and assembly part being assembled to generate local feature amounts, and the assembly of the product from the assembly parts 232 and 233 is performed without error. It is checked from the direction and arrangement of the assembly parts.

(製品チェック)
製品チェックライン240において、通信端末295が製品とその部品を撮影して局所特徴量を生成し、工場コンピュータ280は、組立部品232や233から組立られた製品をチェックする。工場コンピュータ280は、各部品の構成は正しいか、組立部品は正しいか、製品およびその部品配置は正しいかを、リアルタイムにチェックする。
(Product check)
In the product check line 240, the communication terminal 295 captures the product and its parts to generate local features, and the factory computer 280 checks the product assembled from the assembly parts 232 and 233. The factory computer 280 checks in real time whether the configuration of each part is correct, the assembly part is correct, and whether the product and its part arrangement are correct.

(製品出荷)
製品出荷ゲート250においては、通信端末296が、製品チェック240でOKとなった製品252を撮影して局所特徴量を生成し、製品出荷を管理する。ここでも、部品入庫と同様に、出荷する製品252はダンボール箱などの梱包ケースである。
(Product shipment)
In the product shipment gate 250, the communication terminal 296 takes a picture of the product 252 that is OK in the product check 240, generates a local feature, and manages the product shipment. Here again, the product 252 to be shipped is a packaging case such as a cardboard box, as in the case of parts receipt.

(修理前チェック)
一方、製品および組立部品の修理エリア203においては、まず、修理前チェック260において、通信端末297が、故障あるいは定期検査などで持ち込まれた製品や組立部品262を撮影して局所特徴量を生成し、外見的な形状あるいは歪み、あるいは部品に位置移動などから故障があるか、あるいは故障はどこにあるかをチェックする。このように、撮影による正常製品や正常組立部品との工員では分かりにくい故障部位なども判定できる。また、故障部位をリアルタイムに認識できるので、修理に必要な部品は何か、その部品の在庫はあるか、在庫がなければどれぐらいの期間で部品入庫が可能かなどを、自動的に処理できる。
(Check before repair)
On the other hand, in the product and assembly part repair area 203, first, in the pre-repair check 260, the communication terminal 297 captures a product or assembly part 262 brought in due to a failure or periodic inspection and generates a local feature amount. Check whether there is a failure or where the failure is due to the appearance or distortion of the part, or the position movement of the part. In this way, it is possible to determine a faulty part or the like that is difficult for a worker to make a normal product or a normal assembly part by photographing. In addition, since the failure location can be recognized in real time, it is possible to automatically process what parts are required for repair, whether the parts are in stock, and how long it is possible to receive parts if they are not in stock. .

(修理後チェック)
修理後チェック270においては、製品チェック240と同様に、通信端末298が、製品とその部品272を撮影して局所特徴量を生成し、修理された製品と組立部品や部品をチェックして、修理が成功したことを判定する。
(Check after repair)
In the post-repair check 270, similar to the product check 240, the communication terminal 298 captures the product and its parts 272, generates local features, and checks the repaired product and the assembly parts and parts for repair. Determine that has succeeded.

このように、部品入庫ゲート210と、部品チェックライン220と、組立チェックライン230−1および230−2と、製品チェックライン240と、製品出荷ゲート250と、修理前チェックライン260と、修理後チェックライン270とを、それぞれ通信端末291〜298による撮像のみによって、リアルタイムに統一的に実現できる。   As described above, the parts receiving gate 210, the parts check line 220, the assembly check lines 230-1 and 230-2, the product check line 240, the product shipment gate 250, the pre-repair check line 260, and the post-repair check. The line 270 can be realized in a unified manner in real time only by imaging by the communication terminals 291 to 298, respectively.

《情報処理システムの動作手順》
図3Aは、本実施形態に係る情報処理シテム200の動作手順を示すシーケンス図である。
<< Operation procedure of information processing system >>
FIG. 3A is a sequence diagram showing an operation procedure of the information processing system 200 according to the present embodiment.

まず、ステップS300において、必要であれば、工場コンピュータ280から、各エリアにある通信端末291〜298に対して,本実施形態を実行するためのアプリケーションおよび/またはデータがダウンロードされる。そして、本実施形態の動作に際しては、ステップS301において、アプリケーションが起動されて初期化される。   First, in step S300, if necessary, an application and / or data for executing this embodiment is downloaded from the factory computer 280 to the communication terminals 291 to 298 in each area. In the operation of the present embodiment, the application is activated and initialized in step S301.

(部品チェック)
部品チェック220を行なう通信端末292は、ステップS303において、部品222や223を撮影する。そして、ステップS305において、局所特徴量を生成する。次に、ステップS307において、生成された局所特徴量と特徴点座標とを符号化する。ステップS309においては、符号化された局所特徴量と特徴点座標とが、通信端末292から工場コンピュータ280に送信される。
(Parts check)
The communication terminal 292 that performs the component check 220 photographs the components 222 and 223 in step S303. In step S305, a local feature amount is generated. Next, in step S307, the generated local feature and feature point coordinates are encoded. In step S309, the encoded local feature value and feature point coordinates are transmitted from the communication terminal 292 to the factory computer 280.

工場コンピュータ280では、ステップS311において、通信端末292から受信した局所特徴量に、部品や組立部品、製品にそれぞれ対応付けて局所特徴量データベース310に格納された局所特徴量が有るか否かが照合される。かかる照合の結果から部品を認識して、正しい部品であるかをチェックする。ステップS313において、工場コンピュータ280から通信端末292に、認識結果とエラーが検出されればエラー情報が返信される。   In the factory computer 280, in step S311, whether or not the local feature received from the communication terminal 292 has a local feature stored in the local feature database 310 in association with a part, an assembly part, or a product is checked. Is done. A part is recognized from the result of such collation, and it is checked whether it is a correct part. In step S313, if a recognition result and an error are detected from the factory computer 280 to the communication terminal 292, error information is returned.

通信端末292は、ステップS315において、工場コンピュータ280から受信した認識結果とエラーが有ればエラー情報を表示して提供される部品中に間違った、あるいはキズなどがある正常部品でないことと、それがどの部品であるかも通知される。   In step S315, the communication terminal 292 displays that the error information is displayed if there is an error and the recognition result received from the factory computer 280. It is also notified which part is.

一方、工場コンピュータ280では、ステップS317において、在庫管理データベース330を参照して、部品の在庫管理処理が行なわれる。この在庫管理データベース330は、工場コンピュータ280に付随して工場内に設置してもよいし、ネットワークを介して、複数の工場を管理する管理サーバ(不図示)に付随させて設定してもよい。   On the other hand, the factory computer 280 refers to the inventory management database 330 in step S317 to perform parts inventory management processing. The inventory management database 330 may be installed in the factory in association with the factory computer 280, or may be set in association with a management server (not shown) that manages a plurality of factories via a network. .

(組立チェック)
次に、組立チェック230−1および230−2を行なう通信端末293や294は、ステップS321において、組立部品232や233、あるいは組立製品235を撮影する。そして、ステップS323において、局所特徴量を生成する。次に、ステップS325において、生成された局所特徴量と特徴点座標とを符号化する。ステップS327においては、符号化された局所特徴量および特徴点座標が、通信端末293や294から工場コンピュータ280に送信される。
(Assembly check)
Next, the communication terminals 293 and 294 that perform the assembly checks 230-1 and 230-2 photograph the assembly parts 232 and 233 or the assembly product 235 in step S321. In step S323, a local feature amount is generated. Next, in step S325, the generated local feature and feature point coordinates are encoded. In step S327, the encoded local feature amount and feature point coordinates are transmitted from the communication terminals 293 and 294 to the factory computer 280.

工場コンピュータ280では、ステップS329において、通信端末293や294から受信した局所特徴量に、部品や組立部品、製品にそれぞれ対応付けて局所特徴量データベース310に格納された局所特徴量が有るか否かが照合される。また、製品と部品との相性や位置関係などが格納された製品/部品データベース340を参照して、製品/部品関係がチェックされる。かかる照合の結果から部品を認識して、正しい部品であるかと共に、その部品の配置が正しいか、方向が正しいか、ソフト的に部品の組み合わせが正しいかもチェックする。ステップS331において、工場コンピュータ280から通信端末293や294に、認識結果とエラーが検出されればエラー情報が返信される。   In the factory computer 280, whether or not the local feature amount received from the communication terminal 293 or 294 in step S329 has a local feature amount stored in the local feature amount database 310 in association with the component, the assembly component, or the product. Are matched. Further, the product / part relationship is checked with reference to the product / part database 340 in which the compatibility and positional relationship between the product and the part are stored. A part is recognized from the result of such collation, and it is checked whether it is a correct part, whether the arrangement of the part is correct, whether the direction is correct, or whether the combination of the parts is correct in software. In step S331, if a recognition result and an error are detected from the factory computer 280 to the communication terminals 293 and 294, error information is returned.

通信端末293や294は、ステップS333において、工場コンピュータ280から受信した認識結果とエラーが有ればエラー情報を表示して、提供される部品中に間違った、あるいはキズなどがある正常部品でないことと、それがどの部品であるかも通知されると共に、製品中の部品配置の間違いについても通知される。   In step S333, the communication terminals 293 and 294 display error information if there are any recognition results and errors received from the factory computer 280, and the provided parts are not normal parts that are wrong or have scratches. In addition to being notified of which part it is, it is also notified of an error in the arrangement of the parts in the product.

(製品チェック)
次に、製品チェック240を行なう通信端末295は、ステップS341において、製品242を撮影する。そして、ステップS343において、局所特徴量を生成する。次に、ステップS345において、生成された局所特徴量と特徴点座標とを符号化する。ステップS347においては、符号化された局所特徴量と特徴点座標が、通信端末295から工場コンピュータ280に送信される。
(Product check)
Next, the communication terminal 295 that performs the product check 240 photographs the product 242 in step S341. In step S343, a local feature amount is generated. Next, in step S345, the generated local feature and feature point coordinates are encoded. In step S347, the encoded local feature and feature point coordinates are transmitted from the communication terminal 295 to the factory computer 280.

工場コンピュータ280では、ステップS349において、通信端末295から受信した局所特徴量に、部品や組立部品、製品にそれぞれ対応付けて局所特徴量データベース310に格納された局所特徴量が有るか否かが照合される。かかる照合の結果から製品全体の映像の特徴を認識して、正しい製品であるかと共に、その部品の配置が正しいか、方向が正しいか、ソフト的に部品の組み合わせ正しいかもチェックされる。ステップS351において、工場コンピュータ280から通信端末295に、認識結果とエラーが検出されればエラー情報が返信される。   In step S349, the factory computer 280 checks whether or not the local feature received from the communication terminal 295 has a local feature stored in the local feature database 310 in association with each part, assembly component, or product. Is done. The feature of the image of the entire product is recognized from the result of such collation, and it is checked whether it is a correct product, whether the arrangement of the parts is correct, the direction is correct, and the combination of parts is correct in software. In step S351, if a recognition result and an error are detected from the factory computer 280 to the communication terminal 295, error information is returned.

通信端末295は、ステップS353において、工場コンピュータ280から受信した認識結果とエラーが有ればエラー情報を表示して、製品に正常部品との微妙な相違があるなどが通知される。   In step S353, the communication terminal 295 displays error information if there is an error and the recognition result received from the factory computer 280, and is notified that there is a slight difference between the product and the normal part.

《機能構成》
図3Bは、通信端末291〜298の内部機能構成を示すブロック図である。通信端末291〜298は、デジタルビデオカメラなどの撮像部311を有する。撮像部311に取得された映像は、画像展開部313に送られる。画像展開部313は、取得した映像を画像展開した後、展開された画像を、局所特徴量生成部320に出力する。局所特徴量生成部320は、展開された画像からn個の特徴点を抽出し、n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の局所特徴量を生成し、符号化部321に送る。符号化部321は、局所特徴量を符号化して、通信制御部323に渡す。通信制御部323は、符号化された局所特徴量を、工場コンピュータ280に送る。通信制御部323は、また、工場コンピュータ280から製品および部品の認識結果を受信し、認識結果報知部325に渡す。認識結果報知部325は、受信した認識結果を報知する。具体的には、製品として不具合や部品の取付ミスなどを検知すると、アラームを行ない、作業員に対してどの製品のどの部品にどんな問題があるのかを報知する。
<Functional configuration>
FIG. 3B is a block diagram illustrating an internal functional configuration of the communication terminals 291 to 298. The communication terminals 291 to 298 have an imaging unit 311 such as a digital video camera. The video acquired by the imaging unit 311 is sent to the image development unit 313. The image expanding unit 313 expands the acquired video image, and then outputs the expanded image to the local feature value generating unit 320. The local feature quantity generation unit 320 extracts n feature points from the developed image, and includes n 1-dimensional to j-dimensional feature vectors for n local regions each including the n feature points. n local feature values are generated and sent to the encoding unit 321. The encoding unit 321 encodes the local feature amount and passes it to the communication control unit 323. The communication control unit 323 sends the encoded local feature amount to the factory computer 280. The communication control unit 323 also receives the product and component recognition results from the factory computer 280 and passes them to the recognition result notification unit 325. The recognition result notification unit 325 notifies the received recognition result. Specifically, when a defect or a component installation error is detected as a product, an alarm is issued to notify the worker of which part of which product has which problem.

図3Cは、工場コンピュータ280の内部機能構成を示すブロック図である。工場コンピュータ280は、局所特徴量データベース310、および製品/部品データベース340を備えている。また、その他、工場コンピュータ280は、通信制御部331、局所特徴量復号部332、製品/部品認識部333、認識結果生成部334、部品配置判定部335を備えている。   FIG. 3C is a block diagram showing an internal functional configuration of the factory computer 280. The factory computer 280 includes a local feature database 310 and a product / part database 340. In addition, the factory computer 280 includes a communication control unit 331, a local feature amount decoding unit 332, a product / component recognition unit 333, a recognition result generation unit 334, and a component arrangement determination unit 335.

通信制御部3311は、通信端末291〜298から符号化された局所特徴量を受信し、局所特徴量復号部332に渡す。局所特徴量復号部332は、符号化された局所特徴量を復号して、製品/部品認識部333に渡す。製品/部品認識部333は、ネットワークを介して受信した局所特徴量と、あらかじめ局所特徴量データベース310に記憶された局所特徴量とを比較し、照合を行なう。ここに記憶されている局所特徴量は、対象物の画像内のm個の特徴点のそれぞれを含むm個の局所領域のそれぞれについて生成された、それぞれ1次元からi次元までの特徴ベクトルからなるm個の局所特徴量である。   The communication control unit 3311 receives the local feature amount encoded from the communication terminals 291 to 298 and passes it to the local feature amount decoding unit 332. The local feature amount decoding unit 332 decodes the encoded local feature amount and passes it to the product / part recognition unit 333. The product / part recognition unit 333 compares the local feature received via the network with the local feature stored in the local feature database 310 in advance and performs collation. The local feature values stored here are each composed of feature vectors from 1-dimensional to i-dimensional generated for each of m local regions including each of m feature points in the image of the object. There are m local features.

製品/部品認識部333は、局所特徴量復号部332および局所特徴量データベース310から取得した2つの局所特徴量の特徴ベクトルの次元数i、jのうち、より少ない次元数を選択する。そして、製品/部品認識部333は、局所特徴量復号部335から取得した局所特徴量であって、選択された次元数までの特徴ベクトルからなるn個の局所特徴量と、局所特徴量データベース310から取得した選択された次元数までの特徴ベクトルからなるm個の局所特徴量とを比較する。   The product / part recognition unit 333 selects a smaller number of dimensions from the dimension numbers i and j of the feature vectors of the two local feature values acquired from the local feature value decoding unit 332 and the local feature value database 310. Then, the product / part recognition unit 333 is the local feature amount acquired from the local feature amount decoding unit 335, n local feature amounts including feature vectors up to the selected number of dimensions, and the local feature amount database 310. Are compared with m local feature values composed of feature vectors up to the selected number of dimensions.

製品/部品認識部333は、これらの局所特徴量が所定割合以上においてマッチングすると判定した場合に、撮像画像中に製品および部品が適正に存在すると認識し、その認識結果を認識結果生成部334に渡す。一方、部品配置判定部335は、やはり特徴量のマッチングに基づいて、部品の配置が正しいかを判定する。認識結果生成部334は、部品配置判定部335の判定結果に応じて、認識結果を生成し、通信制御部331を介して通信端末291〜298に送信する。   If the product / part recognition unit 333 determines that these local feature quantities match at a predetermined ratio or more, the product / part recognition unit 333 recognizes that the product and the part are properly present in the captured image, and sends the recognition result to the recognition result generation unit 334. hand over. On the other hand, the component placement determination unit 335 also determines whether the placement of the components is correct based on the feature amount matching. The recognition result generation unit 334 generates a recognition result according to the determination result of the component placement determination unit 335 and transmits the recognition result to the communication terminals 291 to 298 via the communication control unit 331.

例えば、適正な部品が入庫したか、適正に部品を組み合わせた製品を出荷できているか、製品の組み立て工程で、逐次、適正な位置に適正な部品が配置され、取付られているかを判定できる。あるいは、修理の依頼のあった製品について、修理前と修理後で、それぞれ部品の種類、数、配置などが正しいか否かを判定することができる。   For example, it is possible to determine whether an appropriate part has been received, whether a product in which the parts are properly combined can be shipped, or whether an appropriate part is sequentially placed and attached at an appropriate position in the product assembly process. Alternatively, it is possible to determine whether the type, number, arrangement, etc. of the parts are correct before and after the repair for the requested product.

《局所特徴量生成部と符号化部の構成》
図4Aは、局所特徴量生成部320および符号化部321の構成を示すブロック図である。局所特徴量生成部320は、特徴点検出部401、局所領域取得部402、サブ領域分割部403、サブ領域特徴ベクトル生成部404、および次元選定部405を含む。特徴点検出部401は、画像データから特徴的な点(特徴点)を多数検出し、各特徴点の座標位置、スケール(大きさ)、および角度を出力する。局所領域取得部402は、検出された各特徴点の座標値、スケール、および角度から、特徴量抽出を行う局所領域を取得する。
<Configuration of local feature generator and encoder>
FIG. 4A is a block diagram showing configurations of local feature value generation section 320 and encoding section 321. The local feature quantity generation unit 320 includes a feature point detection unit 401, a local region acquisition unit 402, a sub region division unit 403, a sub region feature vector generation unit 404, and a dimension selection unit 405. The feature point detection unit 401 detects a number of characteristic points (feature points) from the image data, and outputs the coordinate position, scale (size), and angle of each feature point. The local region acquisition unit 402 acquires a local region for performing feature amount extraction from the detected coordinate value, scale, and angle of each feature point.

サブ領域分割部403は、局所領域をサブ領域に分割する。例えば、サブ領域分割部403は、局所領域を16ブロック(4×4ブロック)に分割することも、局所領域を25ブロック(5×5ブロック)に分割することもできる。なお、分割数は限定されない。以下、局所領域を25ブロック(5×5ブロック)に分割する場合を代表して説明する。   The sub area dividing unit 403 divides the local area into sub areas. For example, the sub-region dividing unit 403 can divide the local region into 16 blocks (4 × 4 blocks) or divide the local region into 25 blocks (5 × 5 blocks). The number of divisions is not limited. Hereinafter, a case where the local area is divided into 25 blocks (5 × 5 blocks) will be described as a representative.

サブ領域特徴ベクトル生成部404は、局所領域のサブ領域ごとに特徴ベクトルを生成する。サブ領域の特徴ベクトルとしては、例えば、勾配方向ヒストグラムを用いることができる。   The sub region feature vector generation unit 404 generates a feature vector for each sub region of the local region. As the feature vector of the sub-region, for example, a gradient direction histogram can be used.

次元選定部405は、サブ領域の位置関係に基づいて、近接するサブ領域の特徴ベクトル間の相関が低くなるように、局所特徴量として出力する次元を選定する(例えば、間引きする)。また、次元選定部405は、単に次元を選定するだけではなく、選定の優先順位を決定することができる。すなわち、次元選定部405は、例えば、隣接するサブ領域間では同一の勾配方向の次元が選定されないように、優先順位をつけて次元を選定することができる。そして、次元選定部405は、選定した次元から構成される特徴ベクトルを、局所特徴量として出力する。なお、次元選定部405は、優先順位に基づいて次元を並び替えた状態で、局所特徴量を出力することができる。   The dimension selection unit 405 selects (for example, thins out) a dimension to be output as a local feature amount based on the positional relationship between the sub-regions so that the correlation between feature vectors of adjacent sub-regions becomes low. In addition, the dimension selection unit 405 can determine not only the dimension but also the selection priority. That is, for example, the dimension selecting unit 405 can select dimensions with priorities so that the dimensions in the same gradient direction are not selected between adjacent sub-regions. Then, the dimension selection unit 405 outputs a feature vector composed of the selected dimensions as a local feature amount. Note that the dimension selection unit 405 can output the local feature amount in a state where the dimensions are rearranged based on the priority order.

符号化部321は、局所特徴量生成部320の特徴点検出部401から特徴点の座標を入力して、座標値を走査する座標値走査部407を有する。座標値走査部407は、画像をある特定の走査方法に従って走査し、特徴点の2次元座標値(X座標値とY座標値)を1次元のインデックス値に変換する。このインデックス値は、走査に従った原点からの走査距離である。なお、走査方向については、制限はない。   The encoding unit 321 includes a coordinate value scanning unit 407 that inputs the coordinates of feature points from the feature point detection unit 401 of the local feature quantity generation unit 320 and scans the coordinate values. The coordinate value scanning unit 407 scans the image according to a specific scanning method, and converts the two-dimensional coordinate values (X coordinate value and Y coordinate value) of the feature points into one-dimensional index values. This index value is a scanning distance from the origin according to scanning. There is no restriction on the scanning direction.

また、符号化部321は、特徴点のインデックス値をソートし、ソート後の順列の情報を出力するソート部408を有する。ここでソート部408は、例えば昇順にソートする。また降順にソートしてもよい。   The encoding unit 321 also includes a sorting unit 408 that sorts the index values of feature points and outputs permutation information after sorting. Here, the sorting unit 408 sorts, for example, in ascending order. You may also sort in descending order.

また、符号化部321は、ソートされたインデックス値における、隣接する2つのインデックス値の差分値を算出し、差分値の系列を出力する差分算出部409を有する。   In addition, the encoding unit 321 includes a difference calculation unit 409 that calculates a difference value between two adjacent index values in the sorted index value and outputs a series of difference values.

符号化部321は、さらに、差分値の系列を系列順に符号化する差分符号化部410を有する。差分値の系列の符号化は、例えば固定ビット長の符号化でもよい。固定ビット長で符号化する場合、そのビット長はあらかじめ規定されていてもよいが、これでは考えられうる差分値の最大値を表現するのに必要なビット数を要するため、符号化サイズは小さくならない。そこで、差分符号化部410は、固定ビット長で符号化する場合、入力された差分値の系列に基づいてビット長を決定することができる。具体的には、例えば、差分符号化部410は、入力された差分値の系列から差分値の最大値を求め、その最大値を表現するのに必要なビット数(表現ビット数)を求め、求められた表現ビット数で差分値の系列を符号化することができる。   The encoding unit 321 further includes a difference encoding unit 410 that encodes a sequence of difference values in sequence order. The sequence of the difference value may be encoded with a fixed bit length, for example. When encoding with a fixed bit length, the bit length may be specified in advance, but this requires the number of bits necessary to express the maximum possible difference value, so the encoding size is small. Don't be. Therefore, when encoding with a fixed bit length, the differential encoding unit 410 can determine the bit length based on the input sequence of difference values. Specifically, for example, the difference encoding unit 410 obtains the maximum value of the difference value from the input series of difference values, obtains the number of bits (expression bit number) necessary to express the maximum value, A series of difference values can be encoded with the obtained number of expression bits.

一方、ソートされた特徴点のインデックス値と同じ順列で、対応する特徴点の局所特徴量を符号化する局所特徴量符号化部406を有する。ソートされたインデックス値と同じ順列で符号化することで、差分符号化部410で符号化された座標値と、それに対応する局所特徴量とを1対1で対応付けることが可能となる。局所特徴量符号化部406は、1つの特徴点に対する150次元の局所特徴量から次元選定された局所特徴量を、例えば1次元を1バイトで符号化し、次元数のバイトで符号化することができる。   On the other hand, it has a local feature amount encoding unit 406 that encodes local feature amounts of corresponding feature points in the same permutation as the index values of the sorted feature points. By encoding with the same permutation as the sorted index value, it is possible to associate the coordinate value encoded by the differential encoding unit 410 and the corresponding local feature amount in a one-to-one relationship. The local feature encoding unit 406 may encode a local feature selected from the 150-dimensional local feature for one feature point, for example, one dimension with one byte and a number of dimensions. it can.

《局所特徴量生成処理》
次に、図4B〜図4Fを用いて、本実施形態に係る局所特徴量生成部320の処理について詳しく説明する。
<< Local feature generation process >>
Next, the process of the local feature-value production | generation part 320 which concerns on this embodiment is demonstrated in detail using FIG. 4B-FIG. 4F.

まず、図4Bは、局所特徴量生成部320における、特徴点検出/局所領域取得/サブ領域分割/サブ領域特徴ベクトル生成の一連の処理を示す図である。かかる一連の処理については、米国特許第6711293号明細書や、David G. Lowe著、「Distinctive image features from scale-invariant key points」、(米国)、International Journal of Computer Vision、60(2)、2004年、p. 91-110を参照されたい。   First, FIG. 4B is a diagram showing a series of processing of feature point detection / local region acquisition / sub-region division / sub-region feature vector generation in the local feature quantity generation unit 320. Such a series of processing is described in US Pat. No. 6,711,293, David G. Lowe, “Distinctive image features from scale-invariant key points” (US), International Journal of Computer Vision, 60 (2), 2004. See Years, p. 91-110.

(特徴点検出)
特徴点検出部401はまず、図4Bの左上に示すように、映像中の画像から特徴点421を検出する。以下、1つの特徴点421を代表させて局所特徴量の生成を説明する。それぞれの特徴点421には、周辺画素の、輝度や彩度、色相などの値の変化の方向と大きさを要素として持つ矢印が付随している。また、図4Bの例では、60度間隔の6方向のいずれかに量子化する例を説明するが、これに限定されない。
(Feature point detection)
The feature point detection unit 401 first detects a feature point 421 from an image in the video as shown in the upper left of FIG. 4B. Hereinafter, the generation of local feature amounts will be described by using one feature point 421 as a representative. Each feature point 421 is accompanied by an arrow having a direction and a magnitude of a change in value of luminance, saturation, hue, and the like of surrounding pixels as elements. Moreover, although the example of FIG. 4B demonstrates the example quantized to any of six directions of 60 degree | times intervals, it is not limited to this.

(局所領域取得)
次に、局所領域取得部402は、図4Bの右上に示すように、例えば、特徴点421を中心にガウス窓422aを生成し、このガウス窓422aをほぼ含む局所領域422を生成した状態である。図4Bの例では、局所領域取得部402は正方形の局所領域422を生成したが、局所領域は円形であっても他の形状であってもよい。この局所領域を各特徴点について取得する。局所領域が円形であれば、撮影方向に対してロバスト性が向上するという効果がある。
(Local area acquisition)
Next, as shown in the upper right of FIG. 4B, the local area acquisition unit 402 generates a Gaussian window 422a around the feature point 421 and generates a local area 422 that substantially includes the Gaussian window 422a, for example. . In the example of FIG. 4B, the local area acquisition unit 402 generates a square local area 422, but the local area may be circular or have another shape. This local region is acquired for each feature point. If the local area is circular, there is an effect that the robustness is improved with respect to the imaging direction.

(サブ領域分割)
状態サブ領域分割部403は、図4Bの左下に示すように、特徴点421の局所領域422に含まれる各画素のスケールおよび角度をサブ領域423に分割する。なお、図4Bでは4×4=16画素を1つのサブ領域としており、局所領域422は、合計5×5=25個のサブ領域に分割されている。しかし、サブ領域への分割の仕方およびその個数はこれに限定されるものではない。
(Sub-region division)
The state sub-region dividing unit 403 divides the scale and angle of each pixel included in the local region 422 of the feature point 421 into sub-regions 423 as shown in the lower left of FIG. 4B. In FIG. 4B, 4 × 4 = 16 pixels are used as one sub-region, and the local region 422 is divided into a total of 5 × 5 = 25 sub-regions. However, the method of dividing into sub-regions and the number thereof are not limited to this.

(サブ領域特徴ベクトル生成)
サブ領域特徴ベクトル生成部404は、図4Bの右下に示すように、サブ領域内の各画素のスケールを6方向の角度単位にヒストグラムを生成して量子化し、サブ領域の特徴ベクトル424とする。すなわち、特徴点検出部401が出力する角度に対して正規化された方向である。そして、サブ領域特徴ベクトル生成部404は、サブ領域ごとに量子化された6方向の頻度を集計し、ヒストグラムを生成する。この場合、サブ領域特徴ベクトル生成部404は、各特徴点に対して生成される25サブ領域ブロック×6方向=150次元のヒストグラムにより構成される特徴ベクトルを出力する。また、勾配方向を6方向に量子化するだけに限らず、4方向、8方向、10方向など任意の量子化数に量子化してよい。勾配方向をD方向に量子化する場合、量子化前の勾配方向をG(0〜2πラジアン)とすると、勾配方向の量子化値Qq(q=0,...,D−1)は、例えば式(1)や式(2)などで求めることができるが、これに限られない。
(Sub-region feature vector generation)
As shown in the lower right of FIG. 4B, the sub-region feature vector generation unit 404 generates and quantizes a histogram of the scale of each pixel in the sub-region in units of angles in six directions to obtain a sub-region feature vector 424. . That is, the direction is normalized with respect to the angle output by the feature point detection unit 401. Then, the sub-region feature vector generation unit 404 aggregates the frequencies in the six directions quantized for each sub-region, and generates a histogram. In this case, the sub-region feature vector generation unit 404 outputs a feature vector constituted by a histogram of 25 sub-region blocks × 6 directions = 150 dimensions generated for each feature point. In addition, the gradient direction is not limited to 6 directions, but may be quantized to an arbitrary quantization number such as 4 directions, 8 directions, and 10 directions. When the gradient direction is quantized in the D direction, if the gradient direction before quantization is G (0 to 2π radians), the quantized value Qq (q = 0,..., D−1) in the gradient direction is For example, although it can obtain | require by Formula (1), Formula (2), etc., it is not restricted to this.

Qq=floor(G×D/2π) ...(1)
Qq=round(G×D/2π)modD ...(2)
ここで、floor()は小数点以下を切り捨てる関数、round()は四捨五入を行う関数、modは剰余を求める演算である。また、サブ領域特徴ベクトル生成部404は勾配ヒストグラムを生成するときに、単純な頻度を集計するのではなく、勾配の大きさを加算して集計してもよい。また、サブ領域特徴ベクトル生成部404は勾配ヒストグラムを集計するときに、画素が属するサブ領域だけではなく、サブ領域間の距離に応じて近接するサブ領域(隣接するブロックなど)にも重み値を加算するようにしてもよい。また、サブ領域特徴ベクトル生成部404は量子化された勾配方向の前後の勾配方向にも重み値を加算するようにしてもよい。なお、サブ領域の特徴ベクトルは勾配方向ヒストグラムに限られず、色情報など、複数の次元(要素)を有するものであればよい。本実施形態においては、サブ領域の特徴ベクトルとして、勾配方向ヒストグラムを用いることとして説明する。
Qq = floor (G × D / 2π) (1)
Qq = round (G × D / 2π) mod D (2)
Here, floor () is a function for rounding off the decimal point, round () is a function for rounding off, and mod is an operation for obtaining a remainder. Further, when generating the gradient histogram, the sub-region feature vector generation unit 404 may add up the magnitudes of the gradients instead of adding up the simple frequencies. In addition, when the sub-region feature vector generation unit 404 adds up the gradient histogram, the sub-region feature vector generation unit 404 assigns weight values not only to the sub-region to which the pixel belongs, but also to sub-regions adjacent to each other (such as adjacent blocks) according to the distance between the sub-regions. You may make it add. Further, the sub-region feature vector generation unit 404 may add weight values to gradient directions before and after the quantized gradient direction. Note that the feature vector of the sub-region is not limited to the gradient direction histogram, and may be any one having a plurality of dimensions (elements) such as color information. In the present embodiment, it is assumed that a gradient direction histogram is used as the feature vector of the sub-region.

(次元選定)
次に、図4C〜図4Fに従って、次元選定部405が行なう次元選定処理について説明する。
(Dimension selection)
Next, the dimension selection process performed by the dimension selection unit 405 will be described with reference to FIGS. 4C to 4F.

次元選定部405は、サブ領域の位置関係に基づいて、近接するサブ領域の特徴ベクトル間の相関が低くなるように、局所特徴量として出力する次元(要素)を選定する(間引きする)。より具体的には、次元選定部405は、例えば、隣接するサブ領域間では少なくとも1つの勾配方向が異なるように次元を選定する。なお、本実施形態では、次元選定部405は近接するサブ領域として主に隣接するサブ領域を用いることとするが、近接するサブ領域は隣接するサブ領域に限られず、例えば、対象のサブ領域から所定距離内にあるサブ領域を近接するサブ領域とすることもできる。   The dimension selection unit 405 selects (decimates) a dimension (element) to be output as a local feature amount based on the positional relationship between the sub-regions so that the correlation between feature vectors of adjacent sub-regions becomes low. More specifically, the dimension selection unit 405 selects a dimension so that, for example, at least one gradient direction is different between adjacent sub-regions. In the present embodiment, the dimension selection unit 405 mainly uses adjacent subregions as adjacent subregions. However, the adjacent subregions are not limited to adjacent subregions, for example, from the target subregion. A sub-region within a predetermined distance may be a nearby sub-region.

図4Cは、局所領域を5×5ブロックのサブ領域に分割し、勾配方向を6方向431aに量子化して生成された150次元の勾配ヒストグラムの特徴ベクトル431から次元を選定する場合の一例を示す図である。図4Cの例では、150次元(5×5=25サブ領域ブロック×6方向)の特徴ベクトルから次元の選定が行われている。   FIG. 4C shows an example of selecting a dimension from a feature vector 431 of a 150-dimensional gradient histogram generated by dividing a local region into 5 × 5 block sub-regions and quantizing gradient directions into six directions 431a. FIG. In the example of FIG. 4C, dimensions are selected from feature vectors of 150 dimensions (5 × 5 = 25 sub-region blocks × 6 directions).

図4Cに示すように、次元選定部405は、150次元の勾配ヒストグラムの特徴ベクトル431から半分の75次元の勾配ヒストグラムの特徴ベクトル432を選定する。この場合、隣接する左右、上下のサブ領域ブロックでは、同一の勾配方向の次元が選定されないように、次元を選定することができる。   As illustrated in FIG. 4C, the dimension selection unit 405 selects a feature vector 432 of a half 75-dimensional gradient histogram from a feature vector 431 of a 150-dimensional gradient histogram. In this case, dimensions can be selected so that dimensions in the same gradient direction are not selected in adjacent left and right and upper and lower sub-region blocks.

この例では、勾配方向ヒストグラムにおける量子化された勾配方向をq(q=0,1,2,3,4,5)とした場合に、q=0,2,4の要素を選定するブロックと、q=1,3,5の要素を選定するサブ領域ブロックとが交互に並んでいる。そして、図4Cの例では、隣接するサブ領域ブロックで選定された勾配方向を合わせると、全6方向となっている。   In this example, when the quantized gradient direction in the gradient direction histogram is q (q = 0, 1, 2, 3, 4, 5), a block for selecting elements of q = 0, 2, 4 and , Q = 1, 3, and 5 are alternately arranged with sub-region blocks for selecting elements. In the example of FIG. 4C, when the gradient directions selected in the adjacent sub-region blocks are combined, there are six directions.

また、次元選定部405は、75次元の勾配ヒストグラムの特徴ベクトル432から50次元の勾配ヒストグラムの特徴ベクトル433を選定する。この場合、斜め45度に位置するサブ領域ブロック間で、1つの方向のみが同一になる(残り1つの方向は異なる)ように次元を選定することができる。   Further, the dimension selection unit 405 selects a feature vector 433 of a 50-dimensional gradient histogram from the feature vector 432 of the 75-dimensional gradient histogram. In this case, the dimension can be selected so that only one direction is the same (the remaining one direction is different) between the sub-region blocks positioned at an angle of 45 degrees.

また、次元選定部405は、50次元の勾配ヒストグラムの特徴ベクトル433から25次元の勾配ヒストグラムの特徴ベクトル434を選定する場合は、斜め45度に位置するサブ領域ブロック間で、選定される勾配方向が一致しないように次元を選定することができる。図4Cに示す例では、次元選定部405は、1次元から25次元までは各サブ領域から1つの勾配方向を選定し、26次元から50次元までは2つの勾配方向を選定し、51次元から75次元までは3つの勾配方向を選定している。   In addition, when the dimension selection unit 405 selects the feature vector 434 of the 25-dimensional gradient histogram from the feature vector 433 of the 50-dimensional gradient histogram, the gradient direction selected between the sub-region blocks located at an angle of 45 degrees. Dimension can be selected so that does not match. In the example shown in FIG. 4C, the dimension selection unit 405 selects one gradient direction from each sub-region from the first dimension to the 25th dimension, selects two gradient directions from the 26th dimension to the 50th dimension, and starts from the 51st dimension. Three gradient directions are selected up to 75 dimensions.

このように、隣接するサブ領域ブロック間で勾配方向が重ならないように、また全勾配方向が均等に選定されることが望ましい。また同時に、図4Cに示す例のように、局所領域の全体から均等に次元が選定されることが望ましい。なお、図4Cに示した次元選定方法は一例であり、この選定方法に限らない。   In this way, it is desirable that the gradient directions are selected uniformly so that the gradient directions do not overlap between adjacent sub-region blocks. At the same time, as in the example shown in FIG. 4C, it is desirable that dimensions be selected uniformly from the entire local region. Note that the dimension selection method illustrated in FIG. 4C is an example, and is not limited to this selection method.

(局所領域の優先順位)
図4Dは、局所特徴量生成部320における、サブ領域からの特徴ベクトルの選定順位の一例を示す図である。
(Local area priority)
FIG. 4D is a diagram illustrating an example of the selection order of feature vectors from sub-regions in the local feature value generation unit 320.

次元選定部405は、単に次元を選定するだけではなく、特徴点の特徴に寄与する次元から順に選定するように、選定の優先順位を決定することができる。すなわち、次元選定部405は、例えば、隣接するサブ領域ブロック間では同一の勾配方向の次元が選定されないように、優先順位をつけて次元を選定することができる。そして、次元選定部405は、選定した次元から構成される特徴ベクトルを、局所特徴量として出力する。なお、次元選定部405は、優先順位に基づいて次元を並び替えた状態で、局所特徴量を出力することができる。   The dimension selection unit 405 can determine the priority of selection so as to select not only the dimension but also the dimension that contributes to the feature point feature in order. That is, for example, the dimension selecting unit 405 can select dimensions with priorities so that dimensions in the same gradient direction are not selected between adjacent sub-area blocks. Then, the dimension selection unit 405 outputs a feature vector composed of the selected dimensions as a local feature amount. Note that the dimension selection unit 405 can output the local feature amount in a state where the dimensions are rearranged based on the priority order.

すなわち、次元選定部405は、1〜25次元、26次元〜50次元、51次元〜75次元の間は、例えば図4Dのマトリクス441に示すようなサブ領域ブロックの順番で次元を追加するように選定していってもよい。図4Dのマトリクス441に示す優先順位を用いる場合、次元選定部405は、中心に近いサブ領域ブロックの優先順位を高くして、勾配方向を選定していくことができる。   That is, the dimension selection unit 405 adds dimensions in the order of the sub-region blocks as shown in the matrix 441 in FIG. 4D, for example, between 1 to 25 dimensions, 26 dimensions to 50 dimensions, and 51 dimensions to 75 dimensions. It may be selected. When the priority order shown in the matrix 441 in FIG. 4D is used, the dimension selection unit 405 can select the gradient direction by increasing the priority order of the sub-region blocks close to the center.

図4Eのマトリクス451は、図4Dの選定順位に従って、150次元の特徴ベクトルの要素の番号の一例を示す図である。この例では、5×5=25ブロックをラスタスキャン順に番号p(p=0,1,...,25)で表し、量子化された勾配方向をq(q=0,1,2,3,4,5)とした場合に、特徴ベクトルの要素の番号を6×p+qとしている。   A matrix 451 in FIG. 4E is a diagram illustrating an example of element numbers of 150-dimensional feature vectors in accordance with the selection order in FIG. 4D. In this example, 5 × 5 = 25 blocks are represented by numbers p (p = 0, 1,..., 25) in raster scan order, and the quantized gradient direction is represented by q (q = 0, 1, 2, 3). , 4, 5), the element number of the feature vector is 6 × p + q.

図4Fのマトリクス461は、図4Eの選定順位による150次元の順位が、25次元単位に階層化されていることを示す図である。すなわち、図4Fのマトリクス461は、図4Dのマトリクス441に示した優先順位に従って図4Eに示した要素を選定していくことにより得られる局所特徴量の構成例を示す図である。次元選定部405は、図4Fに示す順序で次元要素を出力することができる。具体的には、次元選定部405は、例えば150次元の局所特徴量を出力する場合、図4Fに示す順序で全150次元の要素を出力することができる。また、次元選定部405は、例えば25次元の局所特徴量を出力する場合、図4Fに示す1行目(76番目、45番目、83番目、...、120番目)の要素471を図4Fに示す順(左から右)に出力することができる。また、次元選定部405は、例えば50次元の局所特徴量を出力する場合、図4Fに示す1行目に加えて、図4Fに示す2行目の要素472を図4Fに示す順(左から右)に出力することができる。   A matrix 461 in FIG. 4F is a diagram showing that the 150-dimensional order according to the selection order in FIG. 4E is hierarchized in units of 25 dimensions. That is, the matrix 461 in FIG. 4F is a diagram illustrating a configuration example of local feature amounts obtained by selecting the elements illustrated in FIG. 4E according to the priority order illustrated in the matrix 441 in FIG. 4D. The dimension selection unit 405 can output dimension elements in the order shown in FIG. 4F. Specifically, when outputting a 150-dimensional local feature amount, for example, the dimension selection unit 405 can output all 150-dimensional elements in the order shown in FIG. 4F. When the dimension selection unit 405 outputs, for example, a 25-dimensional local feature amount, the element 471 in the first row (76th, 45th, 83rd,..., 120th) shown in FIG. Can be output in the order shown in (from left to right). For example, when outputting a 50-dimensional local feature amount, the dimension selection unit 405 adds the elements 472 in the second row shown in FIG. 4F in the order shown in FIG. To the right).

ところで、図4Fに示す例では、局所特徴量は階層的な構造となっている。すなわち、例えば、25次元の局所特徴量と150次元の局所特徴量とにおいて、先頭の25次元分の局所特徴量における要素471〜476の並びは同一となっている。このように、次元選定部405は、階層的(プログレッシブ)に次元を選定することにより、アプリケーションや通信容量、端末スペックなどに応じて、任意の次元数の局所特徴量、すなわち任意のサイズの局所特徴量を抽出して出力することができる。また、次元選定部405が、階層的に次元を選定し、優先順位に基づいて次元を並び替えて出力することにより、異なる次元数の局所特徴量を用いて、画像の照合を行うことができる。例えば、75次元の局所特徴量と50次元の局所特徴量を用いて画像の照合が行われる場合、先頭の50次元だけを用いることにより、局所特徴量間の距離計算を行うことができる。   Incidentally, in the example shown in FIG. 4F, the local feature amount has a hierarchical structure. That is, for example, in the 25-dimensional local feature value and the 150-dimensional local feature value, the arrangement of the elements 471 to 476 in the first 25-dimensional local feature value is the same. In this way, the dimension selection unit 405 selects a dimension hierarchically (progressively), and thereby, according to the application, communication capacity, terminal specifications, etc., the local feature quantity of any number of dimensions, that is, the local size of any size. Feature quantities can be extracted and output. In addition, the dimension selection unit 405 can hierarchically select dimensions, rearrange the dimensions based on the priority order, and output them, thereby performing image matching using local feature amounts of different dimensions. . For example, when images are collated using a 75-dimensional local feature value and a 50-dimensional local feature value, the distance between the local feature values can be calculated by using only the first 50 dimensions.

なお、図4Dのマトリクス441から図4Fに示す優先順位は一例であり、次元を選定する際の順序はこれに限られない。例えば、ブロックの順番に関しては、図4Dのマトリクス441の例の他に、図4Dのマトリクス442や図4Dのマトリクス443に示すような順番でもよい。また、例えば、すべてのサブ領域からまんべんなく次元が選定されるように優先順位が定められることとしてもよい。また、局所領域の中央付近が重要として、中央付近のサブ領域の選定頻度が高くなるように優先順位が定められることとしてもよい。また、次元の選定順序を示す情報は、例えば、プログラムにおいて規定されていてもよいし、プログラムの実行時に参照されるテーブル等(選定順序記憶部)に記憶されていてもよい。   Note that the priorities shown in FIG. 4D from the matrix 441 to FIG. 4F are examples, and the order of selecting dimensions is not limited to this. For example, the order of blocks may be the order shown in the matrix 442 in FIG. 4D or the matrix 443 in FIG. 4D in addition to the example of the matrix 441 in FIG. 4D. Further, for example, the priority order may be set so that dimensions are selected from all the sub-regions. Also, the vicinity of the center of the local region may be important, and the priority order may be determined so that the selection frequency of the sub-region near the center is increased. Further, the information indicating the dimension selection order may be defined in the program, for example, or may be stored in a table or the like (selection order storage unit) referred to when the program is executed.

また、次元選定部405は、サブ領域ブロックを1つ飛びに選択して、次元の選定を行ってもよい。すなわち、あるサブ領域では6次元が選定され、当該サブ領域に近接する他のサブ領域では0次元が選定される。このような場合においても、近接するサブ領域間の相関が低くなるようにサブ領域ごとに次元が選定されていると言うことができる。   In addition, the dimension selection unit 405 may select a dimension by selecting one sub-region block. That is, 6 dimensions are selected in a certain sub-region, and 0 dimensions are selected in other sub-regions close to the sub-region. Even in such a case, it can be said that the dimension is selected for each sub-region so that the correlation between adjacent sub-regions becomes low.

また、局所領域やサブ領域の形状は、正方形に限られず、任意の形状とすることができる。例えば、局所領域取得部402が、円状の局所領域を取得することとしてもよい。この場合、サブ領域分割部403は、円状の局所領域を例えば複数の局所領域を有する同心円に9分割や17分割のサブ領域に分割することができる。この場合においても、次元選定部405は、各サブ領域において、次元を選定することができる。   Further, the shape of the local region and the sub-region is not limited to a square, and can be an arbitrary shape. For example, the local region acquisition unit 402 may acquire a circular local region. In this case, the sub-region dividing unit 403 can divide the circular local region into, for example, nine or seventeen sub-regions into concentric circles having a plurality of local regions. Even in this case, the dimension selection unit 405 can select a dimension in each sub-region.

以上、図4B〜図4Fに示したように、本実施形態の局所特徴量生成部320によれば、局所特徴量の情報量を維持しながら生成された特徴ベクトルの次元が階層的に選定される。この処理により、認識精度を維持しながらリアルタイムでの対象物認識と認識結果の表示が可能となる。なお、局所特徴量生成部320の構成および処理は本例に限定されない。認識精度を維持しながらリアルタイムでの対象物認識と認識結果の表示が可能となる他の処理が当然に適用できる。
(製品/部品認識部)
図4Gおよび図4Hは、本実施形態に係る製品/部品認識部333の処理を示す図である。
As described above, as illustrated in FIGS. 4B to 4F, according to the local feature value generation unit 320 of this embodiment, the dimensions of the feature vectors generated while maintaining the information amount of the local feature values are hierarchically selected. The This processing enables real-time object recognition and recognition result display while maintaining recognition accuracy. Note that the configuration and processing of the local feature value generation unit 320 are not limited to this example. Naturally, other processes that enable real-time object recognition and recognition result display while maintaining recognition accuracy can be applied.
(Product / Parts Recognition Department)
4G and 4H are diagrams showing processing of the product / part recognition unit 333 according to the present embodiment.

図4Gは、図2における部品チェック220時の製品/部品認識部333の処理を示す図である。図4Gに示す、あらかじめ1つの部品222や223の映像478から本実施形態に従い生成された局所特徴量は、局所特徴量データベース310に格納されている。一方、図4Gの左図の通信端末292で撮像された映像画面471からは、本実施形態に従い局所特徴量が生成される。そして、局所特徴量データベース310に格納された局所特徴量が、映像画面471から生成された局所特徴量中にあるか否かが照合される。   FIG. 4G is a diagram showing processing of the product / component recognition unit 333 at the time of the component check 220 in FIG. Local feature amounts generated according to the present embodiment from an image 478 of one component 222 or 223 shown in FIG. 4G in advance are stored in the local feature amount database 310. On the other hand, a local feature amount is generated according to the present embodiment from the video screen 471 captured by the communication terminal 292 in the left diagram of FIG. 4G. And it is collated whether the local feature-value stored in the local feature-value database 310 exists in the local feature-value produced | generated from the video screen 471.

図4Gに示すように、製品/部品認識部333は、局所特徴量データベース310に格納されている局所特徴量と局所特徴量とが合致する各特徴点を細線のように関連付ける。なお、製品/部品認識部333は、局所特徴量の所定割合以上が一致する場合を特徴点の合致とする。そして、製品/部品認識部333は、関連付けられた特徴点の集合間の位置関係が線形関係であれば、同じ製品あるいは同じ部品であると認識する。このような認識を行なえば、サイズの大小や向きの違い(視点の違い)、あるいは反転などによっても認識が可能である。また、所定数以上の関連付けられた特徴点があれば認識精度が得られるので、一部が視界から隠れていても商品の認識が可能である。   As shown in FIG. 4G, the product / part recognition unit 333 associates each feature point where the local feature quantity stored in the local feature quantity database 310 matches the local feature quantity like a thin line. Note that the product / part recognition unit 333 determines that the feature points match when a predetermined ratio or more of the local feature amounts match. The product / part recognition unit 333 recognizes the same product or the same part if the positional relationship between the associated feature point sets is a linear relationship. If such recognition is performed, it is possible to recognize by size difference, orientation difference (difference in viewpoint), or inversion. In addition, since the recognition accuracy can be obtained if there are a predetermined number or more of associated feature points, the product can be recognized even if a part of the feature points is hidden from view.

図4Gにおいては、映像478から生成されて局所特徴量データベース310に格納された1つの局所特徴量から、部品トレイ472の複数の部品に対して合致する特徴点を結ぶことになる。図4Gでは2つの部品に対して細線を引いているが、部品トレイ472に同じ部品が提供されていれば、すべての部品で対して細線のような関連付けがなされる。図4Gにおいては、部品トレイ472で提供された複数の符品の内、部品475が間違った部品であると判断できる。   In FIG. 4G, feature points that match a plurality of parts in the part tray 472 are connected from one local feature quantity generated from the video 478 and stored in the local feature quantity database 310. In FIG. 4G, thin lines are drawn for two parts, but if the same part is provided in the part tray 472, all parts are related like a thin line. In FIG. 4G, it can be determined that the component 475 is the wrong component among the plurality of symbols provided in the component tray 472.

図4Hは、図2における組立チェック230−2や製品チェック240時の製品/部品認識部333の処理を示す図である。図4Hに示す、あらかじめ1つの部品486〜488の映像483〜485から本実施形態に従い生成された局所特徴量は、局所特徴量データベース310に格納されている。一方、図4Hの左図の通信端末294や295で撮像された製品482の映像画面481からは、本実施形態に従い局所特徴量が生成される。そして、局所特徴量データベース310に格納された局所特徴量が、映像画面481から生成された局所特徴量中にあるか否かを照合する。   FIG. 4H is a diagram illustrating processing of the product / part recognition unit 333 at the time of the assembly check 230-2 and the product check 240 in FIG. Local feature amounts generated according to the present embodiment from videos 483 to 485 of one component 486 to 488 shown in FIG. 4H in advance are stored in the local feature amount database 310. On the other hand, a local feature amount is generated according to the present embodiment from the video screen 481 of the product 482 captured by the communication terminal 294 or 295 in the left diagram of FIG. 4H. Then, it is checked whether or not the local feature amount stored in the local feature amount database 310 is in the local feature amount generated from the video screen 481.

図4Hに示すように、製品/部品認識部333は、局所特徴量データベース310に格納されている局所特徴量と局所特徴量とが合致する各特徴点を細線のように関連付ける。なお、製品/部品認識部333の特徴点の合致条件は、図4Gの場合と同様であるが、その精密さや用途などを考慮して調整してもよい。図4Gと同様に、本実施形態のような認識を行なえば、サイズの大小や向きの違い(視点の違い)、あるいは反転などによっても認識が可能である。また、所定数以上の関連付けられた特徴点があれば認識精度が得られるので、一部が視界から隠れていても商品の認識が可能である。   As shown in FIG. 4H, the product / part recognition unit 333 associates each feature point where the local feature quantity stored in the local feature quantity database 310 matches the local feature quantity like a thin line. Note that the matching conditions of the feature points of the product / part recognition unit 333 are the same as those in the case of FIG. 4G, but may be adjusted in consideration of the precision and usage. Similar to FIG. 4G, if recognition is performed as in the present embodiment, recognition can be performed by size, direction difference (difference in viewpoint), or inversion. In addition, since the recognition accuracy can be obtained if there are a predetermined number or more of associated feature points, the product can be recognized even if a part of the feature points is hidden from view.

図4Hにおいては、各部品486〜488の映像483〜485から生成されて局所特徴量データベース310に格納された1つの局所特徴量から、製品482に搭載された複数の部品に対して合致する特徴点を結ぶ。図4Hでは3つの部品から製品482の部品に対して細線を引いているが、製品482上の全部品、あるいは重要な部品に対して細線で示すような関連付けを行なう。図4Hにおいては、3つの部品は正しく、正しい位置に搭載され、その方向なども正しい場合には、正常な製品と判定する。   In FIG. 4H, features that match a plurality of parts mounted on the product 482 from one local feature quantity generated from the images 483 to 485 of the parts 486 to 488 and stored in the local feature quantity database 310. Connect the dots. In FIG. 4H, thin lines are drawn from three parts to the parts of the product 482. However, all the parts on the product 482 or important parts are associated with each other as shown by thin lines. In FIG. 4H, if the three parts are correctly mounted at the correct position and the direction thereof is correct, it is determined that the product is a normal product.

図5は、局所特徴量データベース310の内容を示す図である。局所特徴量データベース310は、製品/部品IDと、製品名、部品名と、第1〜第n局所特徴量とを対応付けて記憶している。   FIG. 5 is a diagram showing the contents of the local feature quantity database 310. The local feature quantity database 310 stores product / part IDs, product names, part names, and first to nth local feature quantities in association with each other.

図6は、製品/部品データベース340の内容を示す図である。製品/部品データベース340は、製品IDに対応付けて、製品名、その製品に使用されている各種の部品およびその位置を登録している。   FIG. 6 is a diagram showing the contents of the product / part database 340. The product / part database 340 registers the product name, various parts used for the product, and their positions in association with the product ID.

図7は、在庫管理データベース330の内容を示す図である。在庫管理データベース330は、部品IDに対応付けて部品名、入庫履歴、使用履歴、在庫数、使用予測および入庫要否とその数を管理している。   FIG. 7 is a diagram showing the contents of the inventory management database 330. The inventory management database 330 manages a part name, a warehousing history, a usage history, a stock quantity, a usage prediction, necessity of warehousing, and the number thereof in association with the part ID.

《ハードウェア構成とそれぞれの処理》
図8は、通信端末291〜298のハードウェア構成を示す図である。CPU810は演算制御用のプロセッサであり、プログラムを実行することで通信端末の各機能構成部を実現する。ROM820は、初期データおよびプログラムなどの固定データおよびプログラムを記憶する。また、通信制御部440は、ネットワークを介して他の装置と通信する。なお、CPU810は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPU(Graphics Processing Unit)を含んでもよい。
<< Hardware configuration and each process >>
FIG. 8 is a diagram illustrating a hardware configuration of the communication terminals 291 to 298. The CPU 810 is a processor for calculation control, and implements each functional component of the communication terminal by executing a program. The ROM 820 stores fixed data and programs such as initial data and programs. In addition, the communication control unit 440 communicates with other devices via a network. Note that the number of CPUs 810 is not limited to one, and may be a plurality of CPUs or may include a graphics processing unit (GPU) for image processing.

RAM840は、CPU810が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM840には、本実施形態の実現に必要なデータを記憶する領域が確保されている。展開画像データ841は、撮像部311が撮像して入力されたデータである。特徴点データ842は、展開された画像データから検出した特徴点座標、スケール、角度を含むデータである。局所特徴量生成テーブル843は、局所特徴量の生成に関するデータを記憶するテーブルである。   The RAM 840 is a random access memory that the CPU 810 uses as a work area for temporary storage. The RAM 840 has an area for storing data necessary for realizing the present embodiment. The developed image data 841 is data input by the imaging unit 311. The feature point data 842 is data including feature point coordinates, scales, and angles detected from the developed image data. The local feature value generation table 843 is a table that stores data related to generation of local feature values.

ストレージ850には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。通信端末制御プログラム851は、通信端末全体を制御するプログラムである。局所特徴量生成モジュール852は、入力映像から図4B〜図4Fに従って局所特徴量を生成する。符号化モジュール853は、局所特徴量を符号化するモジュールであり、CPU810に実行されることにより符号化部321として機能する。結果報知モジュール854は、製品/部品の認識結果を報知するためのモジュールであり、CPU810に実行されることにより認識結果報知部325として機能する。   The storage 850 stores a database, various parameters, or the following data or programs necessary for realizing the present embodiment. The communication terminal control program 851 is a program that controls the entire communication terminal. The local feature value generation module 852 generates a local feature value from the input video according to FIGS. 4B to 4F. The encoding module 853 is a module that encodes local feature amounts, and functions as the encoding unit 321 when executed by the CPU 810. The result notification module 854 is a module for notifying the recognition result of the product / part, and functions as the recognition result notification unit 325 when executed by the CPU 810.

入出力インタフェース860は、入出力機器との入出力データを中継する。入出力インタフェース860には、表示部861、タッチパネル862、スピーカ864、マイク865、撮像部311が接続される。入出力機器は上記例に限定されない。また、GPS(Global Positioning System)位置生成部866は、GPS衛星からの信号に基づいて現在位置を取得する。   The input / output interface 860 relays input / output data with the input / output device. A display unit 861, a touch panel 862, a speaker 864, a microphone 865, and an imaging unit 311 are connected to the input / output interface 860. The input / output device is not limited to the above example. In addition, a GPS (Global Positioning System) position generation unit 866 acquires a current position based on a signal from a GPS satellite.

(局所特徴量生成データ)
図9は、本実施形態に係る局所特徴量生成テーブル843を示す図である。局所特徴量生成テーブル843は、入力画像IDに対応付けて、複数の検出された検出特徴点、特徴点座標および特徴点に対応する局所領域情報を記憶する。そして、各検出特徴点、特徴点座標および局所領域情報に対応付けて、複数のサブ領域ID、サブ領域情報、各サブ領域に対応する特徴ベクトルおよび優先順位を含む選定次元を記憶する。そしてさらに、入力画像に対して導かれた局所特徴量を記憶する。
(Local feature generation data)
FIG. 9 is a diagram showing a local feature value generation table 843 according to the present embodiment. The local feature amount generation table 843 stores a plurality of detected feature points, feature point coordinates, and local region information corresponding to the feature points in association with the input image ID. A selection dimension including a plurality of sub-region IDs, sub-region information, feature vectors corresponding to each sub-region, and priority order is stored in association with each detected feature point, feature point coordinates, and local region information. Further, the local feature amount derived for the input image is stored.

(通信端末における処理の流れ)
図10は、通信端末211における処理の流れを説明するためのフローチャートである。まずステップS1011において、画像を入力すると、ステップS1013で局所特徴量生成処理を行ない、さらに、ステップS1014において、局所特徴量を符号化する。さらに、ステップS1015において、符号化された局所特徴量を工場コンピュータ280に送信する。また、画像の入力ではなく、認証結果データの受信があった場合には、ステップS1011からステップS1021を経てステップS1025に進み、製品および部品の認識結果を作業員に報知する処理を行なう。
(Processing flow in communication terminals)
FIG. 10 is a flowchart for explaining the flow of processing in the communication terminal 211. First, in step S1011, when an image is input, local feature generation processing is performed in step S1013, and in step S1014, the local feature is encoded. Furthermore, in step S1015, the encoded local feature is transmitted to the factory computer 280. If authentication result data is received instead of inputting an image, the process advances from step S1011 to step S1021 to step S1025 to perform processing for notifying workers of product and component recognition results.

図11Aは、図10のステップS1013で行なわれる局所特徴量生成処理の流れについて説明するためのフローチャートである。ステップS1101においては、まず、特徴点検出部401が特徴点を検出する。次に、ステップS1103において、局所領域取得部402が、一つの特徴点の局所領域を取得する。さらにステップS1105において、サブ領域分割部403が、局所領域をサブ領域に分割する。ステップS1107においては、サブ領域特徴ベクトル生成部404が、サブ領域の特徴ベクトルを生成する。さらに、次元選定部405が、ステップS1109において、次元を選定する。ステップS1111では、すべての特徴点に対して次元選定処理が完了したか判断し、完了していなければ、ステップS1103に戻る。   FIG. 11A is a flowchart for explaining the flow of local feature generation processing performed in step S1013 of FIG. In step S1101, the feature point detection unit 401 first detects feature points. Next, in step S1103, the local region acquisition unit 402 acquires a local region of one feature point. Further, in step S1105, the sub-region dividing unit 403 divides the local region into sub-regions. In step S1107, the sub-region feature vector generation unit 404 generates a sub-region feature vector. Further, the dimension selection unit 405 selects a dimension in step S1109. In step S1111, it is determined whether the dimension selection processing has been completed for all feature points. If not, the process returns to step S1103.

図11Bは、本実施形態に係る符号化処理S1014の処理手順を示すフローチャートである。まず、ステップS1131において、特徴点の座標値を所望の順序で走査する。次に、ステップS1133において、走査した座標値をソートする。ステップS1135において、ソートした順に座標値の差分値を算出する。ステップS1137においては、差分値を符号化する。そして、ステップS1139において、座標値のソート順に局所特徴量を符号化する。なお、差分値の符号化と局所特徴量の符号化とは並列に行なってもよい。   FIG. 11B is a flowchart illustrating the processing procedure of the encoding processing S1014 according to the present embodiment. First, in step S1131, the coordinate values of feature points are scanned in a desired order. Next, in step S1133, the scanned coordinate values are sorted. In step S1135, a coordinate difference value is calculated in the sorted order. In step S1137, the difference value is encoded. In step S1139, the local feature values are encoded in the coordinate value sorting order. The difference value encoding and the local feature amount encoding may be performed in parallel.

(差分値の符号化処理)
図11Cは、差分値の符号化処理S1137の詳しい処理手順を示すフローチャートである。まず、ステップS1141において、差分値が符号化可能な値域内であるか否かを判定する。符号化可能な値域内であればステップS1147に進んで、差分値を符号化し、ステップS1149へ移行する。符号化可能な値域内でない場合(値域外)はステップS1143に進んで、エスケープコードを符号化した後、ステップS1145において、ステップS1147の符号化とは異なる符号化方法で差分値を符号化する。そして、ステップS1149へ移行する。ステップS1149では、処理された差分値が差分値の系列の最後の要素であるかを判定する。最後である場合は、処理が終了する。最後でない場合は、再度ステップS1141に戻って、差分値の系列の次の差分値に対する処理を実行する。
(Difference processing)
FIG. 11C is a flowchart illustrating a detailed processing procedure of difference value encoding processing S1137. First, in step S1141, it is determined whether or not the difference value is within a range that can be encoded. If it is in the range which can be encoded, it will progress to step S1147, will encode a difference value, and will transfer to step S1149. If it is not within the range that can be encoded (outside the range), the process proceeds to step S1143. After the escape code is encoded, the difference value is encoded in step S1145 by an encoding method different from the encoding in step S1147. Then, control goes to a step S1149. In step S1149, it is determined whether the processed difference value is the last element of the difference value series. If it is the last, the process ends. When it is not the last, it returns to step S1141 again and performs the process with respect to the next difference value of the series of difference values.

(工場コンピュータ280における処理)
図12は、工場コンピュータ280における処理の流れを説明するためのフローチャートである。まず、新製品の入荷時など、局所特徴量データベースを新たに生成(更新)する必要がある場合、ステップS1211から、ステップS1213において局所特徴量データベース生成処理を行なう。また、局所特徴量を、工場内の通信端末291〜298から受信した場合には、ステップS1221lからステップS1223に進み、製品/部品認識処理を行ない、さらにステップS1225において、部品配置認識処理を行なう。また、ステップS1227では認識結果を通信端末291〜298に返す。
(Processing in the factory computer 280)
FIG. 12 is a flowchart for explaining the flow of processing in the factory computer 280. First, when a new local feature database needs to be generated (updated), such as when a new product is received, local feature database generation processing is performed from step S1211 to step S1213. If the local feature amount is received from the communication terminals 291 to 298 in the factory, the process proceeds from step S1221l to step S1223, product / part recognition processing is performed, and further, component placement recognition processing is performed in step S1225. In step S1227, the recognition result is returned to the communication terminals 291 to 298.

(局所特徴量データベース生成処理)
図13は、本実施形態に係る局所特徴量データベース生成処理S1213の処理手順を示すフローチャートである。
(Local feature database generation processing)
FIG. 13 is a flowchart showing a processing procedure of local feature database generation processing S1213 according to the present embodiment.

まず、ステップS1301において、製品および部品の画像を取得する。ステップS1303においては、特徴点の位置座標、スケール、角度を検出する。ステップS1305において、ステップS1303で検出された特徴点の1つに対して局所領域を取得する。次に、ステップS1305において、一つの特徴点の局所領域を取得すると、ステップS1307において、その局所領域をサブ領域に分割する。ステップS1309においては、各サブ領域の特徴ベクトルを生成して局所領域の特徴ベクトルを生成する。   First, in step S1301, images of products and parts are acquired. In step S1303, the position coordinates, scale, and angle of the feature point are detected. In step S1305, a local region is acquired for one of the feature points detected in step S1303. Next, when a local region of one feature point is acquired in step S1305, the local region is divided into sub-regions in step S1307. In step S1309, a feature vector for each sub-region is generated to generate a feature vector for the local region.

次に、ステップS1311において、ステップS1309において生成された局所領域の特徴ベクトルに対して次元選定を実行する。なお、局所特徴量データベース310の生成においては、次元選定における階層化を実行するが、生成されたすべての特徴ベクトルを格納するのが望ましい。   Next, in step S1311, dimension selection is performed on the feature vector of the local region generated in step S1309. In generating the local feature quantity database 310, hierarchization is performed in dimension selection, but it is desirable to store all generated feature vectors.

ステップS1313においては、ステップS1303で検出した全特徴点について局所特徴量の生成と次元選定とが終了したかを判定する。終了していない場合はステップS1305に戻って、次の1つの特徴点について処理を繰り返す。全特徴点について終了した場合はステップS1315に進んで、認識商品に対応付けて局所特徴量と特徴点座標とを局所特徴量データベース310に登録する。   In step S1313, it is determined whether local feature generation and dimension selection have been completed for all feature points detected in step S1303. If not completed, the process returns to step S1305 to repeat the process for the next one feature point. If all feature points have been completed, the process advances to step S1315 to register local feature values and feature point coordinates in the local feature value database 310 in association with the recognized product.

ステップS1317においては、他の商品があるか否かを判定する。他の商品があればステップS1301に戻って、認識対象物の画像を取得して処理を繰り返す。   In step S1317, it is determined whether there is another product. If there is another product, the process returns to step S1301, and an image of the recognition target object is acquired and the process is repeated.

(製品/部品認識処理)
図14は、本実施形態に係る製品/部品認識処理S1223の処理手順を示すフローチャートである。
(Product / part recognition processing)
FIG. 14 is a flowchart showing the processing procedure of the product / part recognition processing S1223 according to this embodiment.

まず、ステップS1401において、局所特徴量データベース310から1つの製品または部品の局所特徴量を取得する。そして、ステップS1403において、製品または部品の局所特徴量と通信端末から受信した局所特徴量との照合を行なう(図15参照)。   First, in step S1401, the local feature amount of one product or part is acquired from the local feature amount database 310. In step S1403, the local feature amount of the product or part is compared with the local feature amount received from the communication terminal (see FIG. 15).

ステップS1405において、合致したか否かを判定する。合致していればステップS1411に進んで、合致した商製品または部品を記憶して通信端末に送信する。   In step S1405, it is determined whether or not they match. If they match, the process proceeds to step S1411 to store the matched commercial product or part and transmit it to the communication terminal.

合致しなければステップS1407においては、全製品および部品を照合したかを判定し、残りがあればステップS1401に戻って次の製品または部品の照合を繰り返す。なお、かかる照合においても、あらかじめ分野の限定を行なってもよい。   If they do not match, it is determined in step S1407 whether or not all products and parts have been collated, and if there is any remaining, the process returns to step S1401 to repeat collation of the next product or part. In such verification, the field may be limited in advance.

(照合処理)
図15は、本実施形態に係る照合処理S1403の処理手順を示すフローチャートである。
(Verification process)
FIG. 15 is a flowchart showing the processing procedure of the collation processing S1403 according to the present embodiment.

まず、ステップS1531において、初期化として、パラメータp=1,q=0を設定する。次に、ステップS1533において、ステップS1531において生成した局所特徴量の次元数jを取得する。   First, in step S1531, parameters p = 1 and q = 0 are set as initialization. Next, in step S1533, the dimension number j of the local feature amount generated in step S1531 is acquired.

ステップS1535〜S1545のループにおいて、p>m(m=商品の特徴点数)となるまで各局所特徴量の照合を繰り返す。まず、ステップS1535において、局所特徴量データベース310に格納された商品の第p番局所特徴量の次元数jのデータを取得する。すなわち、最初の1次元からj次元を取得する。次に、ステップS1537において、ステップS1535において取得した第p番局所特徴量と入力映像から生成した全特徴点の局所特徴量を順に照合して、類似か否かを判定する。ステップS1539においては、局所特徴量間の照合の結果から類似度が閾値αを超えるか否かを判断し、超える場合はステップS1541において、局所特徴量と、入力映像と商品とにおける合致した特徴点の位置関係との組みを記憶する。そして、合致した特徴点数のパラメータであるqを1つカウントアップする。ステップS1543においては、商品の特徴点を次の特徴点に進め(p←p+1)、商品の全特徴点の照合が終わってない場合には(p≦m)、ステップS1535に戻って合致する局所特徴量の照合を繰り返す。なお、閾値αは、商品によって求められる認識精度に対応して変更可能である。ここで、他の商品との相関が低い認識対象物であれば認識精度を低くしても、正確な認識が可能である。   In the loop of steps S1535 to S1545, the collation of each local feature amount is repeated until p> m (m = number of product feature points). First, in step S <b> 1535, the data of the dimension number j of the p-th local feature of the product stored in the local feature database 310 is acquired. That is, the j dimension is acquired from the first one dimension. Next, in step S1537, the p-th local feature amount acquired in step S1535 and the local feature amounts of all feature points generated from the input video are sequentially checked to determine whether or not they are similar. In step S1539, it is determined whether or not the similarity exceeds the threshold value α from the result of matching between the local feature quantities. If so, in step S1541, the local feature quantity and the matched feature points in the input video and the product are determined. The combination with the positional relationship is stored. Then, q, which is a parameter for the number of matched feature points, is incremented by one. In step S1543, the feature point of the product is advanced to the next feature point (p ← p + 1). If all feature points of the product have not been matched (p ≦ m), the process returns to step S1535 to match Repeat the feature verification. Note that the threshold value α can be changed according to the recognition accuracy required for each product. Here, if the recognition object has a low correlation with other products, accurate recognition is possible even if the recognition accuracy is lowered.

商品の全特徴点との照合が終了すると、ステップS1545からS1547に進んで、ステップS1547〜S1553において、商品が入力映像に存在するか否かが判定される。まず、ステップS1547において、商品の特徴点数pの内で入力映像の特徴点の局所特徴量と合致した特徴点数qの割合が、閾値βを超えたか否かを判定する。超えていればステップS1549に進んで、商品候補として、さらに、入力映像の特徴点と商品の特徴点との位置関係が、線形変換が可能な関係を有しているかを判定する。すなわち、ステップS1541において局所特徴量が合致したとして記憶した、入力映像の特徴点と商品の特徴点との位置関係が、回転や反転、視点の位置変更などの変化によっても可能な位置関係なのか、不可能な位置関係なのかを判定する。かかる判定方法は幾何学的に既知であるので、詳細な説明は省略する。ステップS1551において、線形変換可能か否かの判定結果により、線形変換可能であればステップS1553に進んで、照合した商品が入力映像に存在すると判定する。なお、閾値βは、商品によって求められる認識精度に対応して変更可能である。ここで、他の商品との相関が低い、あるいは一部分からでも特徴が判断可能な商品であれば合致した特徴点が少なくても、正確な認識が可能である。すなわち、一部分が隠れて見えなくても、あるいは特徴的な一部分が見えてさえいれば、商品の認識が可能である。   When collation with all feature points of the product is completed, the process proceeds from step S1545 to S1547, and in steps S1547 to S1553, it is determined whether the product exists in the input video. First, in step S1547, it is determined whether or not the ratio of the feature point number q that matches the local feature amount of the feature point of the input video among the feature point number p of the product exceeds the threshold value β. If it exceeds, the process proceeds to step S1549, and it is further determined as a product candidate whether the positional relationship between the feature point of the input video and the feature point of the product has a relationship that allows linear transformation. That is, whether the positional relationship between the feature point of the input video and the feature point of the product stored as the local feature amount is matched in step S1541 is a positional relationship that can be achieved by changes such as rotation, inversion, and change of the viewpoint position. Determine if the positional relationship is impossible. Since such a determination method is geometrically known, detailed description thereof is omitted. If it is determined in step S1551 that the linear conversion is possible, the process proceeds to step S1553, where it is determined that the verified product exists in the input video. Note that the threshold value β can be changed according to the recognition accuracy required for each product. Here, accurate recognition is possible even if there are few matching feature points as long as the product has a low correlation with other products or a product whose characteristics can be judged even from a part. That is, even if a part is hidden and cannot be seen, or a characteristic part can be seen, the product can be recognized.

ステップS1555においては、局所特徴量データベース310に未照合の商品が残っているか否かを判定する。まだ商品が残っていれば、ステップS1557において次の商品を設定して、パラメータp=1,q=0に初期化し、ステップS1535に戻って照合を繰り返す。   In step S 1555, it is determined whether or not unmatched products remain in the local feature database 310. If there is still a product, the next product is set in step S1557, parameters p = 1 and q = 0 are initialized, and the process returns to step S1535 to repeat the verification.

なお、かかる照合処理の説明からも明らかなように、あらゆる分野の商品を局所特徴量データベース310に記憶して、全商品を照合する処理は、負荷が非常に大きくなる。したがって、たとえば、入力映像からの商品認識の前にユーザが商品の分野をメニューから選択して、その分野を局所特徴量データベース310から検索して照合することが考えられる。また、局所特徴量データベース310にユーザが使用する分野の局所特徴量のみを記憶することによっても、負荷を軽減できる。   As is clear from the description of the collation processing, the processing for storing products in all fields in the local feature amount database 310 and collating all the products is very heavy. Therefore, for example, it is conceivable that the user selects a product field from a menu before product recognition from the input video, and searches and collates the field from the local feature amount database 310. Also, the load can be reduced by storing only the local feature amount of the field used by the user in the local feature amount database 310.

(部品配置認識処理)
図16は、本実施形態に係る部品配置認識処理S1225の処理手順を示すフローチャートである。
(Part placement recognition process)
FIG. 16 is a flowchart showing a processing procedure of component arrangement recognition processing S1225 according to the present embodiment.

まず、ステップS1601において、製品/部品DB320から製品中の部品の配置情報を取得して、局所特徴量から認識した製品と部品との位置関係と照合する。ステップS1603において、合致したか否かを判定する。合致していればステップS1605に進んで、製品中の部品配置がOKであると設定する。   First, in step S1601, the arrangement information of the parts in the product is acquired from the product / parts DB 320, and collated with the positional relationship between the product and the part recognized from the local feature amount. In step S1603, it is determined whether or not they match. If they match, the process advances to step S1605 to set that the component arrangement in the product is OK.

合致しなければステップS1607においては、製品/部品DB320から正しい部品配置を検索する。   If they do not match, in step S1607, a correct component arrangement is searched from the product / component DB 320.

以上の実施形態によれば、リアルタイムに個々の部品の向きや角度を精度良く認識できるので、精密な組み立て製品や部品の迅速なチェックが可能である。   According to the above embodiment, since the direction and angle of each part can be recognized with high accuracy in real time, it is possible to quickly check a precise assembly product or part.

[第3実施形態]
図17は、本発明の第3実施形態に係る情報処理シテムの動作を説明するための図である。本実施形態では、状況に応じて照合精度を制御する点で第2実施形態と異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については説明を省略する。
[Third Embodiment]
FIG. 17 is a diagram for explaining the operation of the information processing system according to the third embodiment of the present invention. This embodiment differs from the second embodiment in that the matching accuracy is controlled according to the situation. Other configurations and operations are the same as those of the second embodiment, and thus description of the same configurations and operations is omitted.

図17において、通信端末1701の表示画面1710には、撮像された製品である電子基板1711が表示されている。   In FIG. 17, an electronic board 1711 that is a captured product is displayed on a display screen 1710 of the communication terminal 1701.

図17の中央の表示画面1720は、低い精度(特徴点数が少なく、次元数が少ない制限)で電子基板1711の局所特徴量を生成した場合の図である。特徴点とそれを含む局所領域1721が黒丸で示されている。なお、特徴点とそれを含む局所領域1721は、画面に表示されてもされなくてもよい。なお、中央の表示画面1720に示した精度の局所特徴量によって、電子基板1711の種類や型などが認識されたものとする。   A display screen 1720 in the center of FIG. 17 is a diagram when a local feature amount of the electronic substrate 1711 is generated with low accuracy (a limit with a small number of feature points and a small number of dimensions). A feature point and a local region 1721 including the feature point are indicated by a black circle. Note that the feature point and the local region 1721 including the feature point may or may not be displayed on the screen. It is assumed that the type, type, and the like of the electronic substrate 1711 are recognized by the accurate local feature amount shown on the central display screen 1720.

表示画面1730は、電子基板1711の種類や型などが認識された結果、電子基板1711に搭載されるICチップなどの部品の範囲が絞られるので、電子基板1711内の領域について、高精度(特徴点数が多く、次元数が多い条件)で、局所特徴量を生成して、電子基板1711に搭載されるICチップなどの部品の認識を行なう。なお、前述の製品/部品DBのように、製品上の部品配置位置も分かるので、配置位置の領域のみをさらに高精度で認識してもよい。   As a result of the recognition of the type and type of the electronic substrate 1711, the display screen 1730 narrows the range of components such as IC chips mounted on the electronic substrate 1711. Under the condition that the number of points is large and the number of dimensions is large, local feature amounts are generated, and components such as an IC chip mounted on the electronic substrate 1711 are recognized. Since the component placement position on the product is also known as in the product / part DB described above, only the region of the placement position may be recognized with higher accuracy.

このように制御すれば、局所特徴量の生成時間や照合時間を大幅に削減することができる。   By controlling in this way, it is possible to significantly reduce the local feature generation time and collation time.

[第4実施形態]
次に、本発明の第4実施形態に係る情報処理システムについて説明する。本実施形態に係る情報処理システムは、上記第3実施形態と比べると、何らかの異常がある部品について、あるいはチェックが必要な部品について、限定して高精度の局所特徴量を生成して、チェックする点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については説明を省略する。
[Fourth Embodiment]
Next, an information processing system according to the fourth embodiment of the present invention will be described. Compared with the third embodiment, the information processing system according to the present embodiment generates a limited and highly accurate local feature amount for a part having an abnormality or a part that needs to be checked, and checks the part. It is different in point. Other configurations and operations are the same as those of the second embodiment, and thus description of the same configurations and operations is omitted.

《情報処理システムの処理》
図18は、本発明の第4実施形態に係る情報処理シテムの動作を示す図である。
<Processing of information processing system>
FIG. 18 is a diagram illustrating the operation of the information processing system according to the fourth embodiment of the present invention.

図18において、左図の通信端末1801の表示画面1810から3番目のひょい時画面1830までの処理は、第3実施形態と同様であるので、説明は省略する。   In FIG. 18, the processing from the display screen 1810 of the communication terminal 1801 to the third emergency screen 1830 in the left diagram is the same as in the third embodiment, and thus the description thereof is omitted.

左から3番目の表示画面1830に示した電子基板1811内の高精度の局所特徴量によって、電子基板1811の中で、右上のICチップに問題が発見されたものとする。   It is assumed that a problem has been found in the upper right IC chip in the electronic substrate 1811 due to the highly accurate local feature amount in the electronic substrate 1811 shown on the third display screen 1830 from the left.

図18の4番目の表示画面1840では、電子基板1811の右上のICチップに対して、最大の精度(最大特徴点数と最大次元数)で局所特徴量を生成した場合の特徴点とそれを含む局所領域1841が黒丸で示されている。このように、ICチップを特定して最大の精度によるチェックが可能となる。   The fourth display screen 1840 of FIG. 18 includes feature points when local feature amounts are generated with maximum accuracy (maximum feature points and maximum dimensions) with respect to the IC chip on the upper right of the electronic substrate 1811, and the feature points. The local area 1841 is indicated by a black circle. In this way, it is possible to specify the IC chip and check with the maximum accuracy.

[他の実施形態]
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
[Other Embodiments]
Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention. In addition, a system or an apparatus in which different features included in each embodiment are combined in any way is also included in the scope of the present invention.

また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する制御プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされる制御プログラム、あるいはその制御プログラムを格納した媒体、その制御プログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。   In addition, the present invention may be applied to a system composed of a plurality of devices, or may be applied to a single device. Furthermore, the present invention can also be applied to a case where a control program that realizes the functions of the embodiments is supplied directly or remotely to a system or apparatus. Therefore, in order to realize the functions of the present invention on a computer, a control program installed in the computer, a medium storing the control program, and a WWW (World Wide Web) server that downloads the control program are also included in the scope of the present invention. include.

この出願は、2011年12月16日に出願された日本出願特願2011−276523を基礎とする優先権を主張し、その開示の全てをここに取り込む。   This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2011-276523 for which it applied on December 16, 2011, and takes in those the indications of all here.

本実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
製品および該製品に取り付けられた部品の画像内のm個の特徴点のそれぞれを含むm個の局所領域のそれぞれについて生成された、それぞれ1次元からi次元までの特徴ベクトルからなるm個の第1局所特徴量を、前記製品または前記部品に対応付けて記憶する第1局所特徴量記憶手段と、
部品が取り付けられた製品全体を撮像する撮像手段と、
前記撮像手段が撮像した映像内からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成手段と、
前記第1局所特徴量の特徴ベクトルの次元数iおよび前記第2局所特徴量の特徴ベクトルの次元数jのうち、より少ない次元数を選択し、選択された前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択された前記次元数までの特徴ベクトルからなる前記m個の第1局所特徴量の所定割合以上が対応する、と判定した場合に、前記映像中に前記対象物が存在すると認識する認識手段と、
を備えたことを特徴とする情報処理システム。
(付記2)
前記認識手段は、前記第1局所特徴量の特定部分が前記第2局所特徴量と対応しない場合に、前記製品または前記部品に欠陥があると認識することを特徴とする付記1に記載の情報処理システム。
(付記3)
前記認識手段は、さらに、認識した前記製品の前記画像内における位置情報と認識した前記部品の前記画像内における位置情報とに基づいて、認識した前記製品中における認識した前記部品の配置を認識することを特徴とする付記1または2に記載の情報処理システム。
(付記4)
前記認識手段は、前記製品中の前記部品の正常配置を記憶する配置記憶手段を有し、認識した前記製品中における前記部品の配置が前記配置記憶手段に記憶された正常配置と異なる場合に、前記製品中の前記部品の配置ミスあるいは前記部品の選択ミスと認識することを特徴とする付記1乃至3のいずれか1つに記載の情報処理システム。
(付記5)
前記情報処理システムは、通信端末と、前記通信端末と通信回線で接続された情報処理装置とを有し、
前記通信端末が、前記撮像手段と前記第2局所特徴量生成手段と前記報知手段とを含んで、前記n個の第2局所特徴量を前記通信端末から前記情報処理装置へ送信し、
前記情報処理装置が、前記第1局所特徴量記憶手段と前記認識手段とを含んで、前記認識手段の認識結果を前記情報処理装置から前記通信端末へ送信することを特徴とする付記4に記載の情報処理システム。
(付記6)
前記認識手段による前記部品の認識に基づいて、前記部品の在庫管理を支援する管理支援手段を備えることを特徴とする付記1乃至5のいずれか1つに記載の情報処理システム。
(付記7)
前記第1局所特徴量および前記第2局所特徴量は、画像または映像中から抽出した特徴点を含む局所領域を複数のサブ領域に分割し、前記複数のサブ領域内の勾配方向のヒストグラムからなる複数次元の特徴ベクトルを生成することにより生成されることを特徴とする付記1乃至6のいずれか1つに記載の情報処理システム。
(付記8)
前記第1局所特徴量および前記第2局所特徴量は、前記生成した複数次元の特徴ベクトルから、隣接するサブ領域間の相関がより大きな次元を削除することにより生成されることを特徴とする付記7に記載の情報処理システム。
(付記9)
前記第1局所特徴量および前記第2局所特徴量は、画像中から抽出した前記複数の特徴点から、特徴情報のより少ないと判断された特徴点を削除することにより生成されることを特徴とする付記7または8に記載の情報処理システム。
(付記10)
前記特徴ベクトルの複数次元は、前記特徴点の特徴に寄与する次元から順に、かつ、前記局所特徴量に対して求められる精度の向上に応じて第1次元から順に選択できるよう、所定次元数ごとに前記局所領域内を一巡するよう配列することを特徴とする付記8および9のいずれか1つに記載の情報処理システム。
(付記11)
前記第2局所特徴量生成手段は、前記製品または前記部品間の相関性の高低に対応して、他の製品または部品に対してより高い前記相関性を有する製品または部品については、次元数のより多い前記第2局所特徴量を生成することを特徴とする付記11に記載の情報処理システム。
(付記12)
前記第1局所特徴量記憶手段は、前記製品または前記部品間の相関性の高低に対応して、他の製品または部品に対してより高い前記相関性を有する商品については、次元数のより多い前記第1局所特徴量を記憶することを特徴とする付記10または11に記載の情報処理システム。
(付記13)
前記部品に付加された識別子を読み取ることにより前記部品を識別する識別手段を、さらに備え、
前記認識手段は、認識した前記部品の方向を判定して、前記方向に基づいて前記部品に付加した前記識別子の位置を認識することを特徴とする付記1乃至12のいずれか1つに記載の情報処理システム。
(付記14)
部品が取り付けられた製品全体を撮像する撮像ステップと、
前記撮像ステップで撮像された映像内からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成ステップと、
対象物の画像内のm個の特徴点のそれぞれを含むm個の局所領域のそれぞれについてあらかじめ生成され第1局所特徴量記憶手段に記憶された、それぞれ1次元からi次元までの特徴ベクトルからなるm個の第1局所特徴量を、前記第1局所特徴量記憶手段から読出す読出ステップと、
前記第1局所特徴量の特徴ベクトルの次元数iおよび前記第2局所特徴量の特徴ベクトルの次元数jのうち、より少ない次元数を選択し、選択された前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択された前記次元数までの特徴ベクトルからなる前記m個の第1局所特徴量の所定割合以上が対応する、と判定した場合に、前記映像中に前記対象物が存在すると認識する認識ステップと、
を含むことを特徴とする情報処理方法。
(付記15)
部品が取り付けられた製品全体を撮像する撮像ステップと、
前記撮像ステップで撮像された映像内からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成ステップと、
対象物の画像内のm個の特徴点のそれぞれを含むm個の局所領域のそれぞれについてあらかじめ生成され第1局所特徴量記憶手段に記憶された、それぞれ1次元からi次元までの特徴ベクトルからなるm個の第1局所特徴量を、前記第1局所特徴量記憶手段から読出す読出ステップと、
前記第1局所特徴量の特徴ベクトルの次元数iおよび前記第2局所特徴量の特徴ベクトルの次元数jのうち、より少ない次元数を選択し、選択された前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択された前記次元数までの特徴ベクトルからなる前記m個の第1局所特徴量の所定割合以上が対応する、と判定した場合に、前記映像中に前記対象物が存在すると認識する認識ステップと、
をコンピュータに実行させることを特徴とする情報処理プログラム。
A part or all of the present embodiment can be described as in the following supplementary notes, but is not limited thereto.
(Appendix 1)
M number of feature vectors, each consisting of 1-dimensional to i-dimensional feature vectors, generated for each of the m local regions including each of the m feature points in the image of the product and the part attached to the product. A first local feature quantity storage means for storing one local feature quantity in association with the product or the part;
Imaging means for imaging the entire product with the parts attached thereto;
N feature points are extracted from the image picked up by the image pickup means, and n local regions including the n feature points are respectively provided with n pieces of feature vectors from 1 to j dimensions. Second local feature quantity generating means for generating a second local feature quantity;
A smaller dimension number is selected from among the dimension number i of the feature vector of the first local feature quantity and the dimension number j of the feature vector of the second local feature quantity, and the feature vector includes up to the selected dimension number. When it is determined that the n second local feature values correspond to a predetermined ratio or more of the m first local feature values composed of feature vectors up to the selected number of dimensions, Recognition means for recognizing that the object exists;
An information processing system comprising:
(Appendix 2)
The information according to claim 1, wherein the recognizing unit recognizes that the product or the part is defective when a specific portion of the first local feature amount does not correspond to the second local feature amount. Processing system.
(Appendix 3)
The recognizing unit further recognizes the arrangement of the recognized part in the recognized product based on position information of the recognized product in the image and position information of the recognized part in the image. The information processing system according to appendix 1 or 2, characterized in that:
(Appendix 4)
The recognizing means has an arrangement storage means for storing the normal arrangement of the parts in the product, and when the arrangement of the parts in the recognized product is different from the normal arrangement stored in the arrangement storage means, The information processing system according to any one of appendices 1 to 3, wherein the information processing unit is recognized as an arrangement error of the component in the product or a selection error of the component.
(Appendix 5)
The information processing system includes a communication terminal, and an information processing apparatus connected to the communication terminal via a communication line,
The communication terminal includes the imaging means, the second local feature quantity generation means, and the notification means, and transmits the n second local feature quantities from the communication terminal to the information processing apparatus;
The supplementary note 4, wherein the information processing apparatus includes the first local feature amount storage means and the recognition means, and transmits the recognition result of the recognition means from the information processing apparatus to the communication terminal. Information processing system.
(Appendix 6)
The information processing system according to any one of appendices 1 to 5, further comprising management support means for supporting inventory management of the parts based on recognition of the parts by the recognition means.
(Appendix 7)
The first local feature amount and the second local feature amount include a histogram of gradient directions in the plurality of sub-regions obtained by dividing a local region including feature points extracted from an image or video into a plurality of sub-regions. The information processing system according to any one of supplementary notes 1 to 6, wherein the information processing system is generated by generating a multidimensional feature vector.
(Appendix 8)
The first local feature and the second local feature are generated by deleting a dimension having a larger correlation between adjacent sub-regions from the generated multi-dimensional feature vector. 8. The information processing system according to 7.
(Appendix 9)
The first local feature amount and the second local feature amount are generated by deleting feature points determined to have less feature information from the plurality of feature points extracted from an image. The information processing system according to appendix 7 or 8.
(Appendix 10)
A plurality of dimensions of the feature vector can be selected in order from the dimension that contributes to the feature of the feature point, and from the first dimension according to the improvement in accuracy required for the local feature amount, for each predetermined number of dimensions The information processing system according to any one of appendices 8 and 9, wherein the information is arranged so as to make a round in the local region.
(Appendix 11)
The second local feature quantity generation means corresponds to the level of correlation between the product or the part, and the product or part having the higher correlation with respect to another product or part has a dimension number of The information processing system according to appendix 11, wherein more second local feature quantities are generated.
(Appendix 12)
The first local feature storage means has a higher number of dimensions for a product having the higher correlation with respect to other products or parts, corresponding to the level of correlation between the products or the parts. 12. The information processing system according to appendix 10 or 11, wherein the first local feature is stored.
(Appendix 13)
An identification means for identifying the component by reading an identifier added to the component;
The recognizing unit determines the direction of the recognized part and recognizes the position of the identifier added to the part based on the direction. Information processing system.
(Appendix 14)
An imaging step for imaging the entire product with the parts attached;
N feature points are extracted from the image captured in the imaging step, and n local feature regions each including the n feature points are each composed of feature vectors from 1 to j dimensions. A second local feature generation step of generating the second local feature of
Each of the m local regions including each of the m feature points in the image of the object is made up of feature vectors from 1D to iD that are generated in advance and stored in the first local feature storage unit. a reading step of reading m first local feature values from the first local feature value storage means;
A smaller dimension number is selected from among the dimension number i of the feature vector of the first local feature quantity and the dimension number j of the feature vector of the second local feature quantity, and the feature vector includes up to the selected dimension number. When it is determined that the n second local feature values correspond to a predetermined ratio or more of the m first local feature values composed of feature vectors up to the selected number of dimensions, Recognizing that the object is present;
An information processing method comprising:
(Appendix 15)
An imaging step for imaging the entire product with the parts attached;
N feature points are extracted from the image captured in the imaging step, and n local feature regions each including the n feature points are each composed of feature vectors from 1 to j dimensions. A second local feature generation step of generating the second local feature of
Each of the m local regions including each of the m feature points in the image of the object is made up of feature vectors from 1D to iD that are generated in advance and stored in the first local feature storage unit. a reading step of reading m first local feature values from the first local feature value storage means;
A smaller dimension number is selected from among the dimension number i of the feature vector of the first local feature quantity and the dimension number j of the feature vector of the second local feature quantity, and the feature vector includes up to the selected dimension number. When it is determined that the n second local feature values correspond to a predetermined ratio or more of the m first local feature values composed of feature vectors up to the selected number of dimensions, Recognizing that the object is present;
An information processing program for causing a computer to execute.

Claims (13)

製品および該製品に取り付けられた部品の画像内のm個の特徴点のそれぞれを含むm個の局所領域のそれぞれについて生成された、それぞれ1次元からi次元までの特徴ベクトルからなるm個の第1局所特徴量を、前記製品または前記部品に対応付けて記憶する第1局所特徴量記憶手段と、
部品が取り付けられた製品全体を撮像する撮像手段と、
前記撮像手段が撮像した映像内からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成手段と、
前記第1局所特徴量の特徴ベクトルの次元数iおよび前記第2局所特徴量の特徴ベクトルの次元数jのうち、より少ない次元数を選択し、選択された前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択された前記次元数までの特徴ベクトルからなる前記m個の第1局所特徴量の所定割合以上が対応する、と判定した場合に、前記映像中に前記対象物が存在すると認識する認識手段と、
を備え
前記第1局所特徴量および前記第2局所特徴量は、画像または映像中から抽出した特徴点を含む局所領域を複数のサブ領域に分割し、前記複数のサブ領域内の勾配方向のヒストグラムからなる複数次元の特徴ベクトルを生成することにより生成され、
前記第1局所特徴量および前記第2局所特徴量は、前記生成した複数次元の特徴ベクトルから、隣接するサブ領域間の相関がより大きな次元を削除することにより生成されることを特徴とする情報処理システム。
M number of feature vectors, each consisting of 1-dimensional to i-dimensional feature vectors, generated for each of the m local regions including each of the m feature points in the image of the product and the part attached to the product. A first local feature quantity storage means for storing one local feature quantity in association with the product or the part;
Imaging means for imaging the entire product with the parts attached thereto;
N feature points are extracted from the image picked up by the image pickup means, and n local regions including the n feature points are respectively provided with n pieces of feature vectors from 1 to j dimensions. Second local feature quantity generating means for generating a second local feature quantity;
A smaller dimension number is selected from among the dimension number i of the feature vector of the first local feature quantity and the dimension number j of the feature vector of the second local feature quantity, and the feature vector includes up to the selected dimension number. When it is determined that the n second local feature values correspond to a predetermined ratio or more of the m first local feature values composed of feature vectors up to the selected number of dimensions, Recognition means for recognizing that the object exists;
Equipped with a,
The first local feature amount and the second local feature amount include a histogram of gradient directions in the plurality of sub-regions obtained by dividing a local region including feature points extracted from an image or video into a plurality of sub-regions. Generated by generating multi-dimensional feature vectors,
The first local feature quantity and the second local feature quantity are generated by deleting a dimension having a larger correlation between adjacent sub-regions from the generated multi-dimensional feature vector. Processing system.
前記認識手段は、前記第1局所特徴量の特定部分が前記第2局所特徴量と対応しない場合に、前記製品または前記部品に欠陥があると認識することを特徴とする請求項1に記載の情報処理システム。   The said recognition means recognizes that the said product or the said part has a defect when the specific part of the said 1st local feature-value does not respond | correspond with the said 2nd local feature-value. Information processing system. 前記認識手段は、さらに、認識した前記製品の前記画像内における位置情報と認識した前記部品の前記画像内における位置情報とに基づいて、認識した前記製品中における認識した前記部品の配置を認識することを特徴とする請求項1または2に記載の情報処理システム。   The recognizing unit further recognizes the arrangement of the recognized part in the recognized product based on position information of the recognized product in the image and position information of the recognized part in the image. The information processing system according to claim 1 or 2. 前記認識手段は、前記製品中の前記部品の正常配置を記憶する配置記憶手段を有し、認識した前記製品中における前記部品の配置が前記配置記憶手段に記憶された正常配置と異なる場合に、前記製品中の前記部品の配置ミスあるいは前記部品の選択ミスと認識することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理システム。   The recognizing means has an arrangement storage means for storing the normal arrangement of the parts in the product, and when the arrangement of the parts in the recognized product is different from the normal arrangement stored in the arrangement storage means, The information processing system according to any one of claims 1 to 3, wherein the information processing system recognizes a misplacement of the parts in the product or a misselection of the parts. 前記情報処理システムは、通信端末と、前記通信端末と通信回線で接続された情報処理装置とを有し、
前記通信端末が、前記撮像手段と前記第2局所特徴量生成手段と報知手段とを含んで、前記n個の第2局所特徴量を前記通信端末から前記情報処理装置へ送信し、
前記情報処理装置が、前記第1局所特徴量記憶手段と前記認識手段とを含んで、前記認識手段の認識結果を前記情報処理装置から前記通信端末へ送信することを特徴とする請求項4に記載の情報処理システム。
The information processing system includes a communication terminal, and an information processing apparatus connected to the communication terminal via a communication line,
The communication terminal includes the imaging means, the second local feature quantity generation means, and a notification means, and transmits the n second local feature quantities from the communication terminal to the information processing apparatus.
The information processing apparatus includes the first local feature amount storage unit and the recognition unit, and transmits a recognition result of the recognition unit from the information processing apparatus to the communication terminal. The information processing system described.
前記認識手段による前記部品の認識に基づいて、前記部品の在庫管理を支援する管理支援手段を備えることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理システム。   6. The information processing system according to claim 1, further comprising management support means for supporting inventory management of the parts based on recognition of the parts by the recognition means. 前記第1局所特徴量および前記第2局所特徴量は、画像中から抽出した前記複数の特徴点から、特徴情報のより少ないと判断された特徴点を削除することにより生成されることを特徴とする請求項に記載の情報処理システム。 The first local feature amount and the second local feature amount are generated by deleting feature points determined to have less feature information from the plurality of feature points extracted from an image. The information processing system according to claim 1 . 前記特徴ベクトルの複数次元は、前記特徴点の特徴に寄与する次元から順に、かつ、前記局所特徴量に対して求められる精度の向上に応じて第1次元から順に選択できるよう、所定次元数ごとに前記局所領域内を一巡するよう配列することを特徴とする請求項に記載の情報処理システム。 A plurality of dimensions of the feature vector can be selected in order from the dimension that contributes to the feature of the feature point, and from the first dimension according to the improvement in accuracy required for the local feature amount, for each predetermined number of dimensions. The information processing system according to claim 7 , wherein the local area is arranged so as to make a round. 前記第2局所特徴量生成手段は、前記製品または前記部品間の相関性の高低に対応して、他の製品または部品に対してより高い前記相関性を有する製品または部品については、次元数のより多い前記第2局所特徴量を生成することを特徴とする請求項に記載の情報処理システム。 The second local feature quantity generation means corresponds to the level of correlation between the product or the part, and the product or part having the higher correlation with respect to another product or part has a dimension number of The information processing system according to claim 8 , wherein more second local feature quantities are generated. 前記第1局所特徴量記憶手段は、前記製品または前記部品間の相関性の高低に対応して、他の製品または部品に対してより高い前記相関性を有する商品については、次元数のより多い前記第1局所特徴量を記憶することを特徴とする請求項またはに記載の情報処理システム。 The first local feature storage means has a higher number of dimensions for a product having the higher correlation with respect to other products or parts, corresponding to the level of correlation between the products or the parts. The information processing system according to claim 8 or 9 , wherein the first local feature is stored. 前記部品に付加された識別子を読み取ることにより前記部品を識別する識別手段を、さらに備え、
前記認識手段は、認識した前記部品の方向を判定して、前記方向に基づいて前記部品に付加した前記識別子の位置を認識することを特徴とする請求項1乃至10のいずれか1項に記載の情報処理システム。
An identification means for identifying the component by reading an identifier added to the component;
The recognition means determines the direction of the component recognized, according to any one of claims 1 to 10, characterized in that to recognize the position of the identifier added to the component on the basis of the direction Information processing system.
部品が取り付けられた製品全体を撮像する撮像ステップと、
前記撮像ステップで撮像された映像内からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成ステップと、
対象物の画像内のm個の特徴点のそれぞれを含むm個の局所領域のそれぞれについてあらかじめ生成され第1局所特徴量記憶手段に記憶された、それぞれ1次元からi次元までの特徴ベクトルからなるm個の第1局所特徴量を、前記第1局所特徴量記憶手段から読出す読出ステップと、
前記第1局所特徴量の特徴ベクトルの次元数iおよび前記第2局所特徴量の特徴ベクトルの次元数jのうち、より少ない次元数を選択し、選択された前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択された前記次元数までの特徴ベクトルからなる前記m個の第1局所特徴量の所定割合以上が対応する、と判定した場合に、前記映像中に前記対象物が存在すると認識する認識ステップと、
を含み、
前記第1局所特徴量および前記第2局所特徴量は、画像または映像中から抽出した特徴点を含む局所領域を複数のサブ領域に分割し、前記複数のサブ領域内の勾配方向のヒストグラムからなる複数次元の特徴ベクトルを生成することにより生成され、
前記第1局所特徴量および前記第2局所特徴量は、前記生成した複数次元の特徴ベクトルから、隣接するサブ領域間の相関がより大きな次元を削除することにより生成されることを特徴とする情報処理方法。
An imaging step for imaging the entire product with the parts attached;
N feature points are extracted from the image captured in the imaging step, and n local feature regions each including the n feature points are each composed of feature vectors from 1 to j dimensions. A second local feature generation step of generating the second local feature of
Each of the m local regions including each of the m feature points in the image of the object is made up of feature vectors from 1D to iD that are generated in advance and stored in the first local feature storage unit. a reading step of reading m first local feature values from the first local feature value storage means;
A smaller dimension number is selected from among the dimension number i of the feature vector of the first local feature quantity and the dimension number j of the feature vector of the second local feature quantity, and the feature vector includes up to the selected dimension number. When it is determined that the n second local feature values correspond to a predetermined ratio or more of the m first local feature values composed of feature vectors up to the selected number of dimensions, Recognizing that the object is present;
Only including,
The first local feature amount and the second local feature amount include a histogram of gradient directions in the plurality of sub-regions obtained by dividing a local region including feature points extracted from an image or video into a plurality of sub-regions. Generated by generating multi-dimensional feature vectors,
The first local feature quantity and the second local feature quantity are generated by deleting a dimension having a larger correlation between adjacent sub-regions from the generated multi-dimensional feature vector. Processing method.
部品が取り付けられた製品全体を撮像する撮像ステップと、
前記撮像ステップで撮像された映像内からn個の特徴点を抽出し、前記n個の特徴点のそれぞれを含むn個の局所領域について、それぞれ1次元からj次元までの特徴ベクトルからなるn個の第2局所特徴量を生成する第2局所特徴量生成ステップと、
対象物の画像内のm個の特徴点のそれぞれを含むm個の局所領域のそれぞれについてあらかじめ生成され第1局所特徴量記憶手段に記憶された、それぞれ1次元からi次元までの特徴ベクトルからなるm個の第1局所特徴量を、前記第1局所特徴量記憶手段から読出す読出ステップと、
前記第1局所特徴量の特徴ベクトルの次元数iおよび前記第2局所特徴量の特徴ベクトルの次元数jのうち、より少ない次元数を選択し、選択された前記次元数までの特徴ベクトルからなる前記n個の第2局所特徴量に、選択された前記次元数までの特徴ベクトルからなる前記m個の第1局所特徴量の所定割合以上が対応する、と判定した場合に、前記映像中に前記対象物が存在すると認識する認識ステップと、
をコンピュータに実行させ
前記第1局所特徴量および前記第2局所特徴量は、画像または映像中から抽出した特徴点を含む局所領域を複数のサブ領域に分割し、前記複数のサブ領域内の勾配方向のヒストグラムからなる複数次元の特徴ベクトルを生成することにより生成され、
前記第1局所特徴量および前記第2局所特徴量は、前記生成した複数次元の特徴ベクトルから、隣接するサブ領域間の相関がより大きな次元を削除することにより生成されることを特徴とする情報処理プログラム。
An imaging step for imaging the entire product with the parts attached;
N feature points are extracted from the image captured in the imaging step, and n local feature regions each including the n feature points are each composed of feature vectors from 1 to j dimensions. A second local feature generation step of generating the second local feature of
Each of the m local regions including each of the m feature points in the image of the object is made up of feature vectors from 1D to iD that are generated in advance and stored in the first local feature storage unit. a reading step of reading m first local feature values from the first local feature value storage means;
A smaller dimension number is selected from among the dimension number i of the feature vector of the first local feature quantity and the dimension number j of the feature vector of the second local feature quantity, and the feature vector includes up to the selected dimension number. When it is determined that the n second local feature values correspond to a predetermined ratio or more of the m first local feature values composed of feature vectors up to the selected number of dimensions, Recognizing that the object is present;
To the computer ,
The first local feature amount and the second local feature amount include a histogram of gradient directions in the plurality of sub-regions obtained by dividing a local region including feature points extracted from an image or video into a plurality of sub-regions. Generated by generating multi-dimensional feature vectors,
Wherein the first local feature quantity and the second local feature quantity is information from a multi-dimensional feature vectors described above generated, wherein Rukoto generated by the correlation between adjacent sub-regions to remove a larger dimension Processing program.
JP2013549286A 2011-12-16 2012-12-12 Information processing system, information processing method, and information processing program Active JP6041156B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011276523 2011-12-16
JP2011276523 2011-12-16
PCT/JP2012/082228 WO2013089145A1 (en) 2011-12-16 2012-12-12 Information processing system, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JPWO2013089145A1 JPWO2013089145A1 (en) 2015-04-27
JP6041156B2 true JP6041156B2 (en) 2016-12-07

Family

ID=48612589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013549286A Active JP6041156B2 (en) 2011-12-16 2012-12-12 Information processing system, information processing method, and information processing program

Country Status (2)

Country Link
JP (1) JP6041156B2 (en)
WO (1) WO2013089145A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6648252B2 (en) * 2016-02-22 2020-02-14 株式会社Fuji Image processing system and image processing method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6325781A (en) * 1986-07-18 1988-02-03 Yokogawa Electric Corp Picture processor
CN100563417C (en) * 2003-08-26 2009-11-25 松下电器产业株式会社 Component collating method
JP3865316B2 (en) * 2005-03-17 2007-01-10 国立大学法人九州工業大学 Article discrimination method, article discrimination device, and program
JP5517638B2 (en) * 2009-01-29 2014-06-11 パナソニック株式会社 Mounting component inspection method, mounting component inspection apparatus for implementing the method, and component mounter equipped with the mounting component inspection device
JP5164222B2 (en) * 2009-06-25 2013-03-21 Kddi株式会社 Image search method and system
JP5521676B2 (en) * 2010-03-19 2014-06-18 富士通株式会社 Image processing apparatus and image processing program

Also Published As

Publication number Publication date
WO2013089145A1 (en) 2013-06-20
JPWO2013089145A1 (en) 2015-04-27

Similar Documents

Publication Publication Date Title
JP6270065B2 (en) Article management system, information processing apparatus, control method thereof, and control program
US9996551B2 (en) System and method for determining and maintaining object location and status
US7200270B2 (en) Pattern recognition apparatus and method using distributed model representation of partial images
JP6153087B2 (en) Information processing system, information processing method, information processing apparatus and control method and control program thereof, communication terminal and control method and control program thereof
JP6168355B2 (en) Information processing system, information processing method, communication terminal, control method thereof, and control program
WO2014030399A1 (en) Object discrimination device, object discrimination method, and program
US9418314B2 (en) Information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof
JP2015007992A (en) System and method for acquiring and identifying data
JP2016014914A (en) Image processor, image processing method and program
US9792528B2 (en) Information processing system, information processing method, information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof
JP2010267113A (en) Component management method, device, program and recording medium
JPWO2018100669A1 (en) Individual identification device
US20100104197A1 (en) Image processing apparatus, image processing method and program
JP2010266964A (en) Image retrieval device, its control method, and program
US20140376815A1 (en) Video Processing System, Video Processing Method, Video Processing Device for Mobile Terminal or Server and Control Method and Control Program Thereof
US8693781B2 (en) Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method, and program therefor
WO2017170260A1 (en) Inspection processing device, inspection system, commodity master registration device, inspection processing method, and program
JP6041156B2 (en) Information processing system, information processing method, and information processing program
EP2458556A1 (en) Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method, and program therefor
US20150254527A1 (en) Methods for 3d object recognition and registration
WO2013089004A1 (en) Video processing system, video processing method, video processing device for portable terminal or for server and method for controlling and program for controlling same
US20130306733A1 (en) Reader, reading method and computer program product
CN115018910A (en) Method and device for detecting target in point cloud data and computer readable storage medium
US10706319B2 (en) Template creation apparatus, object recognition processing apparatus, template creation method, and program
CN116091758B (en) Image processing method, device, equipment and storage medium based on detail extraction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161026

R150 Certificate of patent or registration of utility model

Ref document number: 6041156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150