JP2010267113A - Component management method, device, program and recording medium - Google Patents

Component management method, device, program and recording medium Download PDF

Info

Publication number
JP2010267113A
JP2010267113A JP2009118527A JP2009118527A JP2010267113A JP 2010267113 A JP2010267113 A JP 2010267113A JP 2009118527 A JP2009118527 A JP 2009118527A JP 2009118527 A JP2009118527 A JP 2009118527A JP 2010267113 A JP2010267113 A JP 2010267113A
Authority
JP
Japan
Prior art keywords
component
image
data
marker
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009118527A
Other languages
Japanese (ja)
Inventor
Yuai Kuroiwa
由愛 黒岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2009118527A priority Critical patent/JP2010267113A/en
Publication of JP2010267113A publication Critical patent/JP2010267113A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for managing the information of components specified by using an image photographed without receiving any restriction from photographic conditions. <P>SOLUTION: Replacement component management method is characterized to consist of: a component photographing step that portable terminal equipment photographs components with markers arranged at a prescribed position relation for components by an electronic camera, and transmits photographic image data to a component management device; a component CG image generating step that the component management device detects a marker image from the photographic image data, and calculates a coordinate conversion matrix by using the shape information of a standard marker, and generates a component CG image by applying the coordinate conversion matrix to three-dimensional CAD data; and a component information picture creation returning step that the component management device calculates similarity degree by comparing a component CG image with the component image of the photographic image data, and creates component information picture data by using the component data of the component CG image whose similarity is high, and returns the component information picture data to portable terminal equipment. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、部品撮影画像を用いて、部品情報を管理する方法、装置、プログラム、記録媒体に関するものである。

本発明は、特に、工事現場や整備工場において、部品を写真撮影した画像を用いて、多種類の部品の中から、類似形状の部品を交換部品候補として抽出することで、交換部品を特定する作業の能率を向上させる場合に有用である。
The present invention relates to a method, an apparatus, a program, and a recording medium for managing component information using a component captured image.

The present invention specifies a replacement part by extracting a part having a similar shape as a replacement part candidate from many types of parts using an image obtained by taking a photograph of the part, particularly at a construction site or a maintenance shop. This is useful for improving work efficiency.

建築物などの施設や自動車などの機械製品を維持管理するためには、故障破損箇所の修理や、定期点検による整備が不可欠である。
施設の工事現場や機械製品の整備工場において、修理や整備を円滑に進めるためには、故障破損した部品や定期点検した部品を速やかに特定し交換部品を手配することが、肝心である。
In order to maintain and manage facilities such as buildings and machinery products such as automobiles, it is indispensable to repair damaged parts and maintain them by regular inspections.
In order to facilitate smooth repairs and maintenance at the construction site of a facility or a machine product maintenance factory, it is important to quickly identify parts that have failed or have been regularly inspected and arrange replacement parts.

そこで、交換部品を特定する方法を説明する。
《 A.部品番号による部品の特定 》
交換部品を特定する方法としては、交換部品の部品番号を用いる方法が、一般的である。
部品番号は、補修部品に記されているものを読み取るか、部品カタログを参照して調べる。
たとえば、特許文献1では、インターネットに接続された端末に部品番号が入力されると、部品番号にて特定された部品の画像を端末に表示させて、交換部品を発送処理する技術が開示されている。

《 B.画像検索による部品の特定》
あるいは、交換部品を特定する方法としては、交換部品の画像を検索キーにして、部品データベースを検索して、交換部品を調べて特定する方法がある。
たとえば、特許文献2では、商品の手書き画像を入力してこれを検索キーに用いて、商品データベースの商品画像と比較して、商品を判定(=特定)する技術が開示されている。
あるいは、非特許文献1では、携帯電話で、部品を撮影して、部品撮影画像の特徴データを求めて、これをインターネットの該当Webサイトに送信させて、特徴データに対応する情報の返信を受けて、これを携帯電話に表示させる技術が開示されている。
Therefore, a method for specifying a replacement part will be described.
<< A. Part identification by part number >>
As a method for specifying a replacement part, a method using the part number of the replacement part is generally used.
The part number is checked by reading what is written on the repair part or referring to the part catalog.
For example, Patent Document 1 discloses a technique for sending a replacement part by displaying an image of a part specified by a part number on a terminal when the part number is input to a terminal connected to the Internet. Yes.

<< B. Part identification by image search >>
Alternatively, as a method for specifying a replacement part, there is a method for searching and specifying a replacement part by searching a part database using an image of the replacement part as a search key.
For example, Patent Document 2 discloses a technique for determining (= identifying) a product by inputting a handwritten image of the product and using it as a search key and comparing it with a product image in a product database.
Alternatively, in Non-Patent Document 1, a part is photographed with a mobile phone, feature data of the part photographed image is obtained, and this is transmitted to a corresponding website on the Internet, and a response corresponding to the feature data is received. A technique for displaying this on a mobile phone is disclosed.

特開2001−256382号公報(段落番号「0023」〜段落番号「0032」、図3)JP 2001-256382 A (paragraph number “0023” to paragraph number “0032”, FIG. 3) 特開2006−209260号公報(段落番号「0071」〜段落番号「0079」、図9)JP 2006-209260 A (paragraph number “0071” to paragraph number “0079”, FIG. 9)

オリンパス株式会社新事業企画部、“Sync★R(シンクる)”、サービス概要−特長(Sync★Rの概要)、オリンパス株式会社、[online]、[平成21年3月2日検索]、インターネット<http://gwmj.jp/>Olympus Corporation New Business Planning Department, “Sync ★ R”, Service Overview-Features (Outline of Sync ★ R), Olympus Corporation, [online], [Search March 2, 2009], Internet <Http://gwmj.jp/>

しかしながら、《A.部品番号による部品の特定 》の方法では、部品カタログの大量の部品情報の中から所望の部品を探し出して部品番号を調べる作業には、多大な時間を要するという問題点がある。また、故障や破損した設備器具・部品に記されている部品番号が不鮮明な場合には、読み取ることができないことがある。あるいは、故障や破損した設備器具・部品が古いなどの理由で、部品カタログに掲載されていないことがある。
また、《 B.画像検索による部品の特定 》の方法では、手書き画像にて像検索する場合には、手書き画像が部品の特徴を捉えていないと、所望の商品を検索できずに部品の特定ができないという欠点がある。あるいは、撮影画像を用いて画像検索する場合には、部品を所定の撮影角度等の撮影条件にて撮影しない場合には、正しい特徴データを生成できないので、該当Webサイトから正しい特徴データに対応する情報(たとえば、部品を特定する情報)を得られないという不都合が生じる。
However, << A. In the method of “part identification by part number”, there is a problem that it takes a lot of time to search for a desired part by searching for a desired part from a large amount of part information in the part catalog. In addition, when the part number written on a failure or damaged equipment / part is unclear, it may not be read. Or, it may not be listed in the parts catalog because the equipment / parts damaged or damaged are old.
In addition, << B. In the method of specifying a part by image search, when an image search is performed using a handwritten image, if the handwritten image does not capture the characteristics of the part, the desired product cannot be searched and the part cannot be specified. is there. Alternatively, when searching for an image using a photographed image, correct feature data cannot be generated unless the part is photographed under a photographing condition such as a predetermined photographing angle. There arises a disadvantage that information (for example, information for specifying a part) cannot be obtained.

本発明は以上のような点を解決するためになされたものであって、本発明の課題は、撮影条件に制約を受けずに撮影された画像を用いて特定した部品の情報を管理する方法、装置、プログラム、記録媒体を提供することである。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and an object of the present invention is to manage a component information specified by using an image captured without being restricted by an imaging condition. , Providing an apparatus, a program, and a recording medium.

本発明は、以下の各態様に記載の手段により、前記課題を解決する。
すなわち、本願発明の第1の発明は、
電子カメラ付携帯端末装置と画像認識プログラムを有する部品管理装置を用いる交換部品管理方法であって、
部品管理装置が備える、標準マーカー情報と、部品番号が対応付けられた三次元CADデータと部品データと、を管理する部品データベースとを用いる交換部品管理方法において、
携帯端末装置の電子カメラにより部品に対して所定の位置関係に配置されたマーカーと共に、部品を撮影して撮影画像データを生成する部品撮影ステップと、
撮影画像データを部品管理装置に送信する撮影画像送信ステップと、
部品管理装置が、受信した撮影画像データからマーカー画像を検出するマーカー検出ステップと、
部品管理装置が、検出したマーカー画像と標準マーカーの形状情報を用いて、座標変換行列を算出する撮影条件算出ステップと、
部品管理装置が、部品データベースから読み出した三次元CADデータに対して、算出した座標変換行列を適用して、レンダリング処理して、部品CG画像を生成して、部品番号と対応付ける部品CG画像生成ステップと、
部品管理装置が、画像認識プログラムを用いて生成した部品CG画像データと撮影画像データの部品画像を比較して類似度を算出して、高い類似度の部品CG画像に対応付けられた部品番号を抽出する部品特定ステップと、
部品管理装置が、抽出した部品番号の部品データを用いて部品情報画面データを作成して携帯端末装置に返信する部品情報画面作成返信ステップと、
を含んだ手順でなされることを特徴とする交換部品管理方法である。
This invention solves the said subject by the means as described in each following aspect.
That is, the first invention of the present invention is:
A replacement part management method using a portable terminal apparatus with an electronic camera and a part management apparatus having an image recognition program,
In a replacement part management method using a part database for managing standard marker information, three-dimensional CAD data and part data associated with a part number, provided in the part management apparatus,
A component photographing step of photographing a component and generating photographed image data together with a marker arranged in a predetermined positional relationship with respect to the component by an electronic camera of the mobile terminal device;
A captured image transmission step of transmitting the captured image data to the parts management device;
A marker detection step in which the component management device detects a marker image from the received captured image data;
An imaging condition calculation step in which the component management device calculates a coordinate transformation matrix using the detected marker image and the shape information of the standard marker,
The component management apparatus applies the calculated coordinate transformation matrix to the three-dimensional CAD data read from the component database, performs rendering processing, generates a component CG image, and associates the component number with the component CG image generation step. When,
The component management device compares the component CG image data generated using the image recognition program with the component image of the photographed image data, calculates the similarity, and determines the component number associated with the component CG image with a high similarity. A component identification step to be extracted;
A parts information screen creation reply step in which the parts management device creates part information screen data using the part data of the extracted part number and sends it back to the mobile terminal device;
This is a replacement part management method characterized by being performed in a procedure including

このように、マーカーを部品に対して所定の位置関係に配置することで、部品の撮影条件を算出することが可能である。
また、部品の撮影条件を用いて生成した部品CG画像を用いて、部品撮影画像を画像認識することで、撮影した部品の形状に類似した部品の部品データを容易に簡便に抽出することが可能である。
ここで、マーカーとは、点対称とならない図柄を有する正方形の図形である。マーカーの寸法と図柄が分かっているので、撮影されたマーカー形状の大きさと変形の程度から、カメラの撮影距離と撮影角度を算出することができる。ここで、マーカーは点対称とならない図柄を用いているので、マーカーが180度回転しても、同じ図柄とはならない。
In this way, by arranging the markers in a predetermined positional relationship with respect to the component, it is possible to calculate the imaging conditions for the component.
In addition, it is possible to easily and easily extract part data of parts similar to the shape of the photographed part by recognizing the part photographed image using the part CG image generated using the part photographing condition. It is.
Here, the marker is a square figure having a pattern that is not point-symmetric. Since the dimensions and pattern of the marker are known, the shooting distance and shooting angle of the camera can be calculated from the size of the photographed marker shape and the degree of deformation. Here, since the marker uses a symbol that is not point-symmetric, even if the marker rotates 180 degrees, the same symbol is not obtained.

本願発明の第2の発明は、標準マーカー情報を格納する標準マーカー格納領域と、
部品情報画面データを格納する部品情報画面格納領域と、
部品番号と対応付けた三次元CADデータと、部品番号と対応付けられた部品データを管理する、画像認識プログラムを有する部品データベースを格納する部品格納領域と、
部品画像とマーカー画像を含む撮影画像データを格納する撮影画像格納領域と、
を有する記憶手段と、
部品に対して所定の位置関係に配置されたマーカーと共に、部品を撮影した撮影画像データを携帯端末装置から受信する撮影画像受信手段と、
受信した撮影画像データからマーカー画像を検出するマーカー検出手段と、
検出したマーカー画像と標準マーカーの寸法情報を用いて、座標変換行列を算出する撮影条件算出手段と、
部品データベースから読み出した三次元CADデータに対して、撮影条件算出手段が算出した座標変換行列を適用して、レンダリング処理して、部品CG画像を生成して、部品番号と対応付ける部品CG画像生成手段と、
画像認識プログラムを有する部品データベースに対して、生成した部品CG画像データと撮影画像データの部品画像の類似度を算出させて、高い類似度の部品CG画像に対応付けられた部品番号を特定する部品特定手段と、
特定された部品番号を検索キーにして検索させて、抽出させた部品データを受け取る部品データ抽出手段と、
抽出した部品データを用いて部品情報画面データを作成する部品情報画面作成手段と、
作成した部品情報画面データを携帯端末装置に返信する部品情報画面返信手段と、
を備えることを特徴とする部品管理装置である。
The second invention of the present invention is a standard marker storage area for storing standard marker information;
Parts information screen storage area for storing parts information screen data,
A component storage area for storing a three-dimensional CAD data associated with a component number, a component database having an image recognition program for managing the component data associated with the component number;
A captured image storage area for storing captured image data including a component image and a marker image;
Storage means having
A photographed image receiving means for receiving photographed image data obtained by photographing a component together with a marker arranged in a predetermined positional relationship with respect to the component;
Marker detection means for detecting a marker image from received photographed image data;
An imaging condition calculation means for calculating a coordinate transformation matrix using the detected marker image and dimension information of the standard marker,
A component CG image generation unit that generates a component CG image by applying the coordinate transformation matrix calculated by the imaging condition calculation unit to the three-dimensional CAD data read from the component database, generates a component CG image, and associates it with the component number When,
A component that specifies a component number associated with a high-similarity component CG image by calculating the similarity between the generated component CG image data and the component image of the captured image data with respect to a component database having an image recognition program Specific means,
A part data extraction means for searching by using the specified part number as a search key and receiving the extracted part data;
Part information screen creation means for creating part information screen data using the extracted part data;
A component information screen return means for returning the created component information screen data to the mobile terminal device;
A component management device comprising:

本願発明の第3の発明は、コンピューターに組込むことによって、コンピューターを第2の発明に記載の部品管理装置として動作させるコンピュータプログラムである。 A third invention of the present invention is a computer program that causes a computer to operate as the component management device according to the second invention by being incorporated in the computer.

本願発明の第4の発明は、第3の発明に記載のコンピュータプログラムを記録したコンピューター読取り可能な記録媒体である。
A fourth invention of the present invention is a computer-readable recording medium on which the computer program according to the third invention is recorded.

本願発明によれば、
(1)部品に対して所定の位置関係に配置したマーカーを用いることで、撮影条件の制約を受けずに部品を撮影することが可能である。
(2)部品の撮影画像と同じ撮影条件(=同じ撮影角度、同じ撮影距離など)の部品CG画像をレンダリング処理して生成した部品CG画像を用いて、部品の撮影画像を画像認識することで、撮影した部品の形状に類似した交換部品候補を抽出することが可能である。
従って、所定の位置に配置されたマーカーと共に部品を撮影した画像を用いることで、交換部品を特定する作業の能率を向上できるという効果がある。
According to the present invention,
(1) By using a marker arranged in a predetermined positional relationship with respect to a part, it is possible to photograph the part without being restricted by photographing conditions.
(2) By recognizing the captured image of the component using the component CG image generated by rendering the component CG image under the same shooting conditions (= the same shooting angle, the same shooting distance, etc.) as the captured image of the component. It is possible to extract replacement part candidates similar to the shape of the photographed part.
Therefore, by using an image obtained by photographing a component together with a marker arranged at a predetermined position, there is an effect that it is possible to improve the efficiency of work for specifying a replacement component.

図1は、本発明の部品管理システムの全体構成である。(実施例1)FIG. 1 shows the overall configuration of the component management system of the present invention. (Example 1) 図2は、部品管理システムの大まかな作業手順を説明する図である。FIG. 2 is a diagram for explaining a rough work procedure of the component management system. 図3は、携帯端末装置の表示画面の例である。FIG. 3 is an example of a display screen of the mobile terminal device. 図4は、マーカーの例である。FIG. 4 is an example of a marker. 図5は、各座標系の関係を説明する図である。FIG. 5 is a diagram illustrating the relationship between the coordinate systems. 図6は、部品データベースを説明する図である。FIG. 6 is a diagram for explaining the component database. 図7は、(4)《撮影条件算出》の詳細な処理手順を説明する図である。FIG. 7 is a diagram illustrating a detailed processing procedure of (4) << Calculation condition calculation >>. 図8は、(5)《部品データの抽出》の詳細な処理手順を説明する図である。FIG. 8 is a diagram for explaining the detailed processing procedure of (5) << part data extraction >>. 図9は、サーバー装置の詳細な構成図を説明する図である。FIG. 9 is a diagram illustrating a detailed configuration diagram of the server apparatus. 図10は、情報処理装置の詳細な構成図を説明する図である。FIG. 10 is a diagram illustrating a detailed configuration diagram of the information processing apparatus. 図11は、(5)《部品データの抽出》の詳細な処理手順の例である。FIG. 11 is an example of a detailed processing procedure of (5) << part data extraction >>.

以下、図面等を参照しながら、本発明の実施の形態について、更に詳しく説明する。 Hereinafter, embodiments of the present invention will be described in more detail with reference to the drawings.

図1は、本発明の実施の形態による部品管理システム1の概要を説明する図である。
部品管理システム1は、部品情報サーバー装置100(=部品管理装置)と携帯端末装置300とから構成される。
FIG. 1 is a diagram illustrating an outline of a component management system 1 according to an embodiment of the present invention.
The component management system 1 includes a component information server device 100 (= component management device) and a mobile terminal device 300.

携帯端末装置300は、基地局600と無線接続して、ゲートウェー800を介して、ネットワーク900上の部品情報サーバー装置100と接続する。
携帯端末装置300は、既存の携帯電話やスマートフォンで、電子カメラを具備して、後述する専用プログラムを搭載する。
携帯端末装置300の電子カメラは、グレースケールまたはRGB値を有する二次元デジタル画像データを生成する。
The mobile terminal device 300 is wirelessly connected to the base station 600 and is connected to the component information server device 100 on the network 900 via the gateway 800.
The mobile terminal device 300 is an existing mobile phone or smartphone, and includes an electronic camera and is loaded with a dedicated program described later.
The electronic camera of the mobile terminal device 300 generates two-dimensional digital image data having a gray scale or RGB value.

部品情報サーバー装置100は、既存のデータベースシステムを備えたサーバーコンピューターに、周知技術による画像認識プログラムと後述する専用プログラムを搭載したものである。 The component information server apparatus 100 is a server computer equipped with an existing database system, in which an image recognition program by a well-known technique and a dedicated program described later are installed.

図2は部品管理システム1の大まかな作業手順を説明する。
(1)《部品撮影》工事業者は、携帯端末装置300の電子カメラで部品とマーカーを撮影する。
(2)《撮影画像送信》携帯端末装置300は、撮影画像データ(=二次元デジタル画像データ)を、たとえば、電子メールに添付して、部品管理サーバー装置に送信する。
(3)《撮影画像受信》部品情報サーバー装置100は、撮影画像データを受信する。
(4)《撮影条件の算出》部品情報サーバー装置100は、受信した撮影画像のマーカー画像の形状から、撮影条件を算出する。
(5)《部品データの抽出》部品情報サーバー装置100は、部品データベースの三次元CADデータに対して、この撮影条件を適用して生成した部品CG画像データ(=二次元デジタル画像データ)を、撮影画像データから切出した部品撮影画像と比較して、類似度を算出して、所定の閾値以上の類似度の部品CG画像の部品データを部品データベースから抽出する。
(6)《部品情報画面の返信》部品情報サーバー装置100は、抽出した部品データを用いて部品情報画面データを作成して、携帯端末装置500に返信する。
(7)《部品情報画面の表示》帯端末装置300は、部品情報画面データを受信して表示する。
(8)《交換部品注文》工事業者は、携帯端末装置300に表示された部品情報画面を閲覧して、交換商品を注文する情報を入力すると、携帯端末装置300はこの入力を受け付けて、注文情報を部品情報サーバー装置100に送信する。
FIG. 2 explains a rough work procedure of the parts management system 1.
(1) << Part photography >> The contractor photographs parts and markers with the electronic camera of the mobile terminal device 300.
(2) << Transmission of Captured Image >> The mobile terminal device 300 transmits captured image data (= two-dimensional digital image data) to, for example, an e-mail attached to the component management server device.
(3) << Received Captured Image >> The component information server apparatus 100 receives captured image data.
(4) << Calculation of shooting conditions >> The component information server device 100 calculates shooting conditions from the shape of the marker image of the received shot image.
(5) << Extraction of Part Data >> The part information server apparatus 100 generates part CG image data (= two-dimensional digital image data) generated by applying this photographing condition to the three-dimensional CAD data in the part database. Similarity is calculated in comparison with a component captured image cut out from the captured image data, and component data of a component CG image having a similarity equal to or higher than a predetermined threshold is extracted from the component database.
(6) << Reply of part information screen >> The part information server apparatus 100 creates part information screen data using the extracted part data and sends it back to the mobile terminal apparatus 500.
(7) << Display of Component Information Screen >> The band terminal device 300 receives and displays the component information screen data.
(8) << Replacement Parts Order >> When the construction contractor views the parts information screen displayed on the mobile terminal device 300 and inputs information for ordering a replacement product, the mobile terminal device 300 accepts this input and places an order. Information is transmitted to the component information server apparatus 100.

図4は、マーカー16の例である。
マーカー16は、正方形の黒い太枠の中に図形を有するパターンである。
この図形には、点対称とならない二次元コードパターンや絵柄や文字などを用いる。なお、点対称とならない図形を用いるので、180度回転しても、同じ図形とはならない。
マーカーの正方形枠の寸法は、事前に定められた既知の値(たとえば、正方形の1辺の長さ「L」)である。
FIG. 4 is an example of the marker 16.
The marker 16 is a pattern having a figure in a square black thick frame.
For this figure, a two-dimensional code pattern, a pattern, a character, or the like that is not point-symmetric is used. In addition, since the figure which does not become point symmetry is used, even if it rotates 180 degree | times, it does not become the same figure.
The dimension of the square frame of the marker is a predetermined value (for example, the length “L” of one side of the square).

図3は、携帯端末装置の表示画面106の例である。
図3の(a)には、撮影画像を表示した画面が例示されている。
例示されている画面106の撮影画像391は、部品14の撮影画像とマーカー16の撮影画像とを含んで構成される。
撮影画像391のマーカー16は、この部品14に対して、所定の位置関係に配置されている。所定の位置関係とは、たとえば、マーカー16を、部品14の正面の面に対して平行に立ててから、正面から奥に向かって倒して、水平に置いた状態である。
ここで、部品14の正面を基準にする理由は、部品正面と部品データベースの三次元CADデータの正面座標情報が対応付けられていて、撮影画像のマーカー画像の形状から算出した撮影条件を三次元CADデータに適用できるようにするためである。(詳細は後述する)なお、工事業者は、各部品14の正面はどこであるかを周知している。
FIG. 3 is an example of the display screen 106 of the mobile terminal device.
FIG. 3A illustrates a screen that displays a captured image.
The captured image 391 of the screen 106 illustrated includes a captured image of the component 14 and a captured image of the marker 16.
The marker 16 of the photographed image 391 is arranged in a predetermined positional relationship with respect to the component 14. The predetermined positional relationship is, for example, a state where the marker 16 is placed parallel to the front surface of the component 14 and then tilted from the front to the back and placed horizontally.
Here, the reason for using the front of the component 14 as a reference is that the front of the component is associated with the front coordinate information of the three-dimensional CAD data of the component database, and the imaging condition calculated from the shape of the marker image of the captured image is three-dimensional. This is to make it applicable to CAD data. (Details will be described later) The contractor knows where the front of each component 14 is.

図3の(b)には、部品情報画面が例示されている。
例示されている注文画面は、部品写真と部品番号と在庫ボタンと注文ボタンとが関連付けられて構成される。
なお、在庫ボタンは、在庫個数などの在庫情報の表示を要求するための指示を受け付けるボタンである。注文ボタンは、当該部品の注文情報を入力するときに用いるボタンである。
FIG. 3B illustrates a component information screen.
The illustrated order screen is configured by associating a part photo, a part number, an inventory button, and an order button.
The stock button is a button for receiving an instruction for requesting display of stock information such as the number of stocks. The order button is a button used when inputting order information of the part.

ここで、図6を用いて、部品管理システム1が扱う3つの座標系の説明をする。
部品管理システム1が扱う3つの座標系は、三次元空間座標系(Xm、Ym 、Zm )と、電子カメラ座標系(Xc 、Yc 、Zc )と、撮影画像平面座標系(Xp 、Yp )とである。
三次元空間座標系(Xm、Ym 、Zm )は、マーカーを原点とする三次元空間である。三次元空間座標系には、部品と携帯端末装置300の電子カメラが配置されている。
電子カメラ座標系(Xc 、Yc 、Zc )は、携帯端末装置300の電子カメラを原点とする三次元空間である。
撮影画像平面座標系(Xp 、Yp )は、携帯端末装置300の電子カメラが撮影した二次元画像を現わす二次元空間である。
Here, the three coordinate systems handled by the component management system 1 will be described with reference to FIG.
Three coordinate systems parts management system 1 is handled, three-dimensional space coordinate system (X m, Y m, Z m) and an electronic camera coordinate system (X c, Y c, Z c) and photographed image plane coordinate system (X p , Y p ).
The three-dimensional space coordinate system (X m , Y m , Z m ) is a three-dimensional space with the marker as the origin. In the three-dimensional space coordinate system, parts and the electronic camera of the mobile terminal device 300 are arranged.
The electronic camera coordinate system (X c , Y c , Z c ) is a three-dimensional space with the electronic camera of the mobile terminal device 300 as the origin.
The captured image plane coordinate system (X p , Y p ) is a two-dimensional space that represents a two-dimensional image captured by the electronic camera of the mobile terminal device 300.

図5は、部品データベースを説明する図である。
部品データベース193は、CADテーブル1931と部品情報テーブル1932を含んで管理する。
CADテーブル1931は、部品番号(主キー)19311とその部品番号で特定される部品の三次元CADデータ19312とを対応付けた表形式データである。
部品番号19311は、ユニークな文字列である。
三次元CADデータ19312は、部品の立体形状を表現する三次元空間座標系(Xm、Ym 、Zm )の数値データである。
部品情報テーブル1932は、部品番号(主キー)19321とその部品番号で特定される部品の部品データ19322とを対応付けた表形式データである。部品番号19321は、部品番号19311と同一である。部品データ19322は、部品在庫数量や部品番号などを含むデータである。
従って、三次元CADデータ19312と部品データ19322とは、部品番号にて関連付けられている。
FIG. 5 is a diagram for explaining the component database.
The component database 193 includes a CAD table 1931 and a component information table 1932 for management.
The CAD table 1931 is tabular data in which a part number (primary key) 19311 is associated with the three-dimensional CAD data 19312 of the part specified by the part number.
The part number 19311 is a unique character string.
The three-dimensional CAD data 19312 is numerical data of a three-dimensional spatial coordinate system (Xm, Ym, Zm) that represents the three-dimensional shape of the part.
The component information table 1932 is tabular data in which a component number (main key) 19321 is associated with component data 19322 of a component specified by the component number. The part number 19321 is the same as the part number 19311. The part data 19322 is data including a part inventory quantity and a part number.
Accordingly, the three-dimensional CAD data 19312 and the part data 19322 are associated with each other by a part number.

次に、図7を用いて、(4)《撮影条件の算出》の詳細な処理手順を説明する。
(4)《撮影条件の算出》
(4−1)《マーカーの抽出》
撮影画像から、以下の6つの手順によって、マーカー画像を切出す。
(4−1−1)《撮影画像の二値化処理》部品情報サーバー装置100は、撮影画像の明度情報(たとえば、RGB値の相加平均など)を用いて、適切な閾値(たとえば、明度情報の最高値の2分の1など)を用いて二値化処理して、二値化画像を生成する。
なお、撮影画像の明度情報は、たとえば、撮影画像がグレースケールの場合には、グレースケール値を用いる。また、撮影画像がRGB値を有する場合には、RGB値の相加平均や加重平均などにより算出すれば良い。
(4−1−2)《輪郭部画素抽出処理》品情報サーバー装置100は、二値化画像の黒画素領域を端から走査して、4連結画素を用いる輪郭抽出アルゴリズムを用いて、黒画素を抽出して、抽出した黒画素を輪郭部画素とする。
ここで、4連結画素を用いる輪郭抽出アルゴリズムとは、二値化画像を端から走査して、検出した未追跡黒画素を始点の輪郭部画素として、この画素を中心にした4連結画素を反時計回りに追跡して黒画素を検出して輪郭部画素として、この画素を次の中心にして、4連結画素追跡により黒画素を検出して、始点に戻るまで繰り返えすものである。輪郭抽出アルゴリズムは、8連結画素を用いてもよい。
(4−1−3)《四角形画像の切出し処理》部品情報サーバー装置100は、輪郭部画素に対して折れ線近似処理して線分を算出して、4本の算出された線分で囲まれた四角形画像を抽出して、マーカー候補画像とする。
なお、折れ線近似処理とは、たとえば、多数の輪郭部画素の並びから直線を検出できるということが数学的にすでに分かっているハフ変換式(下記の数式1)を用いて、以下の手順にて、画素を通る直線を算出すればよい。
(a)輪郭部画素に対してハフ変換式(下記の数式1)を適用して正弦曲線に変換する。
(b)正弦曲線を画素に対応付ける。
(c)所定の本数以上の正弦曲線が交差する点の座標(ρ0、θ0)を抽出する。
(d)抽出した点の座標(ρ0、θ0)をハフ変換式(下記の数式1)に代入して、この点に交差する正弦曲線に対応する画素を通る直線(下記の数式2)を算出する。

Figure 2010267113
Figure 2010267113
(4―1−4)《形状正規化処理》部品情報サーバー装置100は、マーカー候補画像の4本の線分の4つの交点座標(=4つの頂点座標)を用いて、マーカー候補画像を、正方形にアフィン変換処理して、正方形マーカー候補画像に変換する。
(4−1−5)《画素数正規化処理》部品情報サーバー装置100は、正方形マーカー候補画像に対して、標準マーカーの画素数と一致するように拡大/縮小処理して、正規化マーカー候補画像に変換する。
(4−1−6)《マーカー認識処理》部品情報サーバー装置100は、相互相関関数(たとえば、類似度を算出できるということが数学的にすでに分かっている下記の数式3)を用いて、正規化マーカー候補画像と標準マーカー画像(二次元画像)の類似度を算出して、最も類似度の高い正規化マーカー候補画像をマーカーとして認識して、検出する。
Figure 2010267113
なお、tは、標準マーカー画像である。
Mは、標準マーカー画像の横方向の画素数である。
Nは、標準マーカー画像の縦方向の画素数である。
fは、正規化マーカー候補画像である。
kは、正規化マーカー候補画像fまたは標準マーカー画像tの横方向の画素位置である。
lは、正規化マーカー候補画像fまたは標準マーカー画像tの縦方向の画素位置である。
f[k][l]は、正規化マーカー候補画像fの画素位置(k、l)の画素値(0または1)である。
t[k][l]は、標準マーカー画像tの画素位置(k、l)の画素値(0または1)である。
オーバーライン付fは、正規化マーカー候補画像fの画素値の平均値である。
オーバーライン付tは、標準マーカー画像tの画素値の平均値である。 Next, a detailed processing procedure of (4) << Calculation of shooting conditions >> will be described with reference to FIG.
(4) << Calculation of shooting conditions >>
(4-1) << Marker extraction >>
A marker image is cut out from the captured image by the following six procedures.
(4-1-1) << Binarization Processing of Captured Image >> The component information server apparatus 100 uses the brightness information (for example, arithmetic average of RGB values) of the captured image, and uses an appropriate threshold (for example, brightness). Binarization processing is performed using a half of the maximum value of information) to generate a binarized image.
Note that the brightness information of the captured image uses, for example, a gray scale value when the captured image is gray scale. In addition, when the captured image has RGB values, it may be calculated by an arithmetic average or a weighted average of RGB values.
(4-1-2) << Contour Part Pixel Extraction Process >> The product information server apparatus 100 scans the black pixel region of the binarized image from the end, and uses a contour extraction algorithm using four connected pixels to detect black pixels. And the extracted black pixel is used as a contour pixel.
Here, the contour extraction algorithm using four connected pixels is a scan of a binarized image from the end, with the detected untracked black pixel as the starting contour pixel, and the four connected pixels centered on this pixel as an inverse. The black pixel is detected by tracking clockwise and is used as a contour pixel, and the black pixel is detected by 4-connected pixel tracking with this pixel as the next center, and is repeated until the start point is returned. The contour extraction algorithm may use 8-connected pixels.
(4-1-3) << Rectangular Image Cutting Process >> The component information server apparatus 100 calculates a line segment by performing a polygonal line approximation process on the contour pixel, and is surrounded by four calculated line segments. The square image extracted is used as a marker candidate image.
The polygonal line approximation process is, for example, using the Hough transform formula (Formula 1 below) mathematically known that a straight line can be detected from an array of a large number of contour pixels, according to the following procedure. A straight line passing through the pixels may be calculated.
(A) A Hough transform formula (Formula 1 below) is applied to the contour pixel to convert it into a sine curve.
(B) A sine curve is associated with the pixel.
(C) Extract coordinates (ρ 0 , θ 0 ) of points where a predetermined number or more of sine curves intersect.
(D) Substituting the coordinates (ρ 0 , θ 0 ) of the extracted point into the Hough transform equation (the following equation 1), and passing through the pixel corresponding to the sine curve intersecting this point (the following equation 2) Is calculated.
Figure 2010267113
Figure 2010267113
(4-1-4) << Shape Normalization Process >> The component information server apparatus 100 uses the four intersection coordinates (= four vertex coordinates) of the four line segments of the marker candidate image to convert the marker candidate image into An affine transformation process into a square is performed to convert it into a square marker candidate image.
(4-1-5) << Pixel Number Normalization Process >> The component information server apparatus 100 enlarges / reduces the square marker candidate image so as to match the number of pixels of the standard marker, thereby normalizing marker candidates. Convert to image.
(4-1-6) << Marker Recognition Processing >> The component information server apparatus 100 uses the cross-correlation function (for example, the following mathematical expression 3 that has already been mathematically known to be able to calculate the similarity) The similarity between the normalized marker candidate image and the standard marker image (two-dimensional image) is calculated, and the normalized marker candidate image with the highest similarity is recognized and detected as a marker.
Figure 2010267113
Note that t is a standard marker image.
M is the number of pixels in the horizontal direction of the standard marker image.
N is the number of pixels in the vertical direction of the standard marker image.
f is a normalized marker candidate image.
k is the horizontal pixel position of the normalized marker candidate image f or the standard marker image t.
l is the vertical pixel position of the normalized marker candidate image f or the standard marker image t.
f [k] [l] is the pixel value (0 or 1) at the pixel position (k, l) of the normalized marker candidate image f.
t [k] [l] is a pixel value (0 or 1) at the pixel position (k, l) of the standard marker image t.
The overlined f is an average value of the pixel values of the normalized marker candidate image f.
The overlined t is an average value of the pixel values of the standard marker image t.

なお、たとえば、拡張現実感プログラミングライブラリーであるARToolKitのarDetectMarkerを用いることにより、撮影画像からマーカーを容易に抽出することができる。ここで、ARToolKitは、the University of Washingtonのthe Human Interface Technology Laboratoryが開発提供するオープンソースのプログラミングライブラリーである。 For example, by using arDetectMarker of ARToolKit which is an augmented reality programming library, a marker can be easily extracted from a captured image. ARToolKit is an open source programming library developed and provided by the Human Interface Technology Laboratory at the University of Washington.

(4−2)《撮影条件算出処理》部品情報サーバー装置100は、撮影画像から検出したマーカー画像の形状から、以下の2つの手順によって、撮影条件としての座標変換行列を算出する。
(4−2−1)《撮影画像の座標変換》
部品情報サーバー装置100は、周知のカメラキャリブレーション処理により算出したカメラキャリブレーション行列関係式(数式4)を用いて、撮影画像の撮影画像平面座標系(Xp 、Yp )の座標値を、カメラ座標系(Xc 、Yc 、Zc )の座標値に変換する。

Figure 2010267113
pは、撮影画像平面座標系における画像のX座標値である。Ypは、撮影画像平面座標系における画像のY座標値である。Pijは、所与のキャリブレーションの行列要素である。ここで、i,j=1、2,3である。hは、カメラ原点と画像平面の距離である。
(4−2−2)《座標変換行列の算出》
部品情報サーバー装置100は、座標変換行列関係式(たとえば、座標変換行列関係式として、すでに数学的に分かっている下記の数式5)に対して、カメラ座標系の撮影画像のマーカーの4つの頂点座標値[Xck 、Yck 、Zck ](k=1、2,3、4)と、三次元空間座標系の標準マーカーの4つの頂点座標値[Xmk、Ymk 、Zmk ](k=1、2,3、4)とを代入して、12個の式を作成してこれらを解いて、座標変換行列の回転移動成分の9つの行列要素Rij (i,j=1、2,3)と、座標変換行列の平行移動成分の3つの行列要素Ti (i=1、2,3)と、を算出して、電子カメラ座標系(Xc 、Yc 、Zc )と三次元空間座標系(Xm、Ym 、Zm )との座標変換行列関係式(下記の数式6)を算出する。
Figure 2010267113
c は、カメラ座標系における画像のX座標値である。Yc は、カメラ座標系における画像のY座標値である。Zc は、カメラ座標系における画像のZ座標値である。
mは、三次元空間座標系における画像のX座標値である。Ym は、三次元空間座標系における画像のY座標値である。Zm は、三次元空間座標系における画像のZ座標値である。
ij は、座標変換行列の回転移動成分の行列要素である。
i は、座標変換行列の平行移動成分の行列要素である。
ここで、i,j=1、2,3である。
Figure 2010267113
a 、Rb 、・・、Ri は、算出した回転移動成分の行列要素である。Ta 、Tb 、Tc は、算出した平行移動成分の行列要素である。
なお、たとえば、前述したARToolKitのarGetTransMat を用いることにより、撮影画像のマーカーを用いた座標変換行列関係式を、容易に求めることができる。 (4-2) << Shooting Condition Calculation Process >> The component information server apparatus 100 calculates a coordinate transformation matrix as a shooting condition from the shape of the marker image detected from the photographed image by the following two procedures.
(4-2-1) << Coordinate transformation of photographed image >>
The component information server apparatus 100 uses the camera calibration matrix relational expression (Formula 4) calculated by the well-known camera calibration process to calculate the coordinate value of the captured image plane coordinate system (X p , Y p ) of the captured image. Conversion into coordinate values of the camera coordinate system (X c , Y c , Z c ).
Figure 2010267113
X p is the X coordinate value of the image in the captured image plane coordinate system. Y p is the Y coordinate value of the image in the captured image plane coordinate system. P ij is a matrix element of a given calibration. Here, i, j = 1, 2, and 3. h is the distance between the camera origin and the image plane.
(4-2-2) << Calculation of coordinate transformation matrix >>
The component information server device 100 uses the four vertexes of the marker of the captured image in the camera coordinate system with respect to the coordinate transformation matrix relational expression (for example, the following mathematical expression 5 already mathematically known as the coordinate transformation matrix relational expression). The coordinate values [X ck , Y ck , Z ck ] (k = 1, 2, 3, 4) and the four vertex coordinate values [X mk , Y mk , Z mk ] ( Substituting k = 1, 2, 3, 4), twelve equations are created and solved, and nine matrix elements R ij (i, j = 1, 2, 3) and three matrix elements T i (i = 1, 2, 3) of the translation component of the coordinate transformation matrix, and the electronic camera coordinate system (X c , Y c , Z c ) And a coordinate transformation matrix relational expression (Formula 6 below) between the three-dimensional space coordinate system (X m , Y m , Z m ).
Figure 2010267113
X c is the X coordinate value of the image in the camera coordinate system. Y c is the Y coordinate value of the image in the camera coordinate system. Z c is the Z coordinate value of the image in the camera coordinate system.
X m is the X coordinate value of the image in the three-dimensional spatial coordinate system. Y m is the Y coordinate value of the image in the three-dimensional spatial coordinate system. Z m is the Z coordinate value of the image in the three-dimensional spatial coordinate system.
R ij is a matrix element of the rotational movement component of the coordinate transformation matrix.
T i is a matrix element of the translation component of the coordinate transformation matrix.
Here, i, j = 1, 2, and 3.
Figure 2010267113
R a , R b ,..., R i are matrix elements of the calculated rotational movement components. T a , T b and T c are matrix elements of the calculated translation component.
For example, by using arGetTransMat of ARTToolKit described above, a coordinate transformation matrix relational expression using a marker of a captured image can be easily obtained.

図8と図11とを用いて、(5)《部品データの抽出》の詳細な処理手順を説明する。
図8は、(5)《部品データの抽出》の詳細な処理手順を説明する図である。
(5)《部品データの抽出》
(5−1)《部品撮影画像の切出処理》部品情報サーバー装置100は、撮影画像から、背景画像と位置の分かっているマーカー画像を除去して、この画像を二値化処理して二値化画像を生成して、二値化画像の黒画素の最外郭四角形を作成して、この最外郭四角形を用いて撮影画像から部品撮影画像を切出す。
なお、撮影画像には、たとえば、部品の色とは異なる色のスクリーンを、部品の後ろに立てかけて撮影した撮影画像を用いればよい。この撮影画像の背景画像は、スクリーン色の画素であるので、これを除去することで、撮影画像から背景画像を除去することができる。
図11には、部品撮影画像の切出処理により切出された部品撮影画像3911の例が示されている。
The detailed processing procedure of (5) << part data extraction >> will be described with reference to FIGS.
FIG. 8 is a diagram for explaining the detailed processing procedure of (5) << part data extraction >>.
(5) << Part data extraction >>
(5-1) << Cutout Processing of Component Photographed Image >> The component information server apparatus 100 removes a marker image whose position is known from the background image from the photographed image, and binarizes this image to perform binary processing. A binarized image is generated, an outermost quadrangle of black pixels of the binarized image is created, and a component captured image is cut out from the captured image using the outermost quadrangle.
In addition, what is necessary is just to use the picked-up image which image | photographed the screen of the color different from the color of components, for example, leaning behind the components for the picked-up image. Since the background image of the photographed image is a pixel of screen color, the background image can be removed from the photographed image by removing it.
FIG. 11 shows an example of a component photographed image 3911 cut out by the component photographed image clipping process.

図8に戻って、(5)《部品データの抽出》の詳細な処理手順の説明を続ける。
(5−2)《部品CG画像生成処理》部品情報サーバー装置100は、部品データベース193から三次元CADデータ19312と部品番号を読み取って、このCADデータ19312を、算出した座標変換行列関係式(=数式5を用いて算出した関係式)の[Xm、Ym 、Zm ]に代入して、カメラ座標系の三次元CADデータ[Xc 、Yc 、Zc ]に変換して、変換した三次元CADデータをレンダリング処理して部品CG画像を生成して、この部品CG画像に読み取った部品番号を関連付ける。
図11には、部品CG画像生成処理の例が示されている。例示されている部品CG画像生成処理では、まず、算出した座標変換行列関係式195が、[Xm、Ym 、Zm ]に代入された三次元CADデータ19312を行列演算して、その結果を変換した三次元CADデータ19313として[Xc 、Yc 、Zc ]に出力する。
次に、例示されている部品CG画像生成処理では、変換した三次元CADデータ19313の入力を受け付けて、レンダリング処理して、部品CG画像19314を出力する。
Returning to FIG. 8, the detailed processing procedure of (5) << Part data extraction >> will be continued.
(5-2) << Part CG Image Generation Processing >> The part information server apparatus 100 reads the three-dimensional CAD data 19312 and the part number from the part database 193 and uses the CAD data 19312 as a calculated coordinate transformation matrix relational expression (= Substituting into [X m , Y m , Z m ] of the relational expression calculated using Equation 5 to convert to three-dimensional CAD data [X c , Y c , Z c ] of the camera coordinate system, The rendered three-dimensional CAD data is rendered to generate a part CG image, and the read part number is associated with the part CG image.
FIG. 11 shows an example of component CG image generation processing. In the illustrated component CG image generation process, first, the calculated coordinate transformation matrix relational expression 195 performs a matrix operation on the three-dimensional CAD data 19312 substituted for [X m , Y m , Z m ], and the result Is output to [X c , Y c , Z c ] as three-dimensional CAD data 19313 converted.
Next, in the illustrated part CG image generation process, the input of the converted three-dimensional CAD data 19313 is received, a rendering process is performed, and a part CG image 19314 is output.

図8に戻って、(5)《部品データの抽出》の詳細な処理手順の説明を続ける。
(5−3)《部品の画像認識処理》
部品情報サーバー装置100は、画像認識プログラムを呼び出して、この画像認識プログラムに、切出した部品撮影画像データ3911と生成した部品CG画像データ19314を渡して、画像認識プログラムが算出する類似度を受け取って、所定の閾値以上の類似度の部品CG画像に関連付けられた部品番号を、部品画像に似ている部品の部品番号として、保持する。
なお、画像認識プログラムは、受け取った部品撮影画像と部品CG画像のそれぞれの特徴量データを算出して両者を比較して類似度を算出する。この画像認識プログラムとしては、たとえば、非特許文献1の技術を用いればよい。
図11には、画像認識処理の例が示されている。例示されている画像認識処理は、画像認識プログラム183が、部品撮影画像3911と部品CG画像1934とを入力して、類似度196を出力する。
Returning to FIG. 8, the detailed processing procedure of (5) << Part data extraction >> will be continued.
(5-3) << Part Image Recognition Process >>
The component information server device 100 calls the image recognition program, passes the extracted component photographed image data 3911 and the generated component CG image data 19314 to the image recognition program, and receives the similarity calculated by the image recognition program. The part number associated with the part CG image having a similarity equal to or higher than a predetermined threshold is held as the part number of the part similar to the part image.
Note that the image recognition program calculates the feature amount data of the received component photographed image and component CG image, compares them, and calculates the similarity. As the image recognition program, for example, the technique of Non-Patent Document 1 may be used.
FIG. 11 shows an example of image recognition processing. In the illustrated image recognition process, the image recognition program 183 inputs the component photographed image 3911 and the component CG image 1934 and outputs the similarity 196.

図8に戻って、(5)《部品データの抽出》の詳細な処理手順を説明を続ける。
(5−4)《部品データの検索処理》部品情報サーバー装置100は、保持した部品番号19311を検索キーにして、部品データベース193の部品情報テーブル1932を検索して、検索キーと一致する部品番号19321に対応付けられた部品データ19322を読み出す。
Returning to FIG. 8, the detailed processing procedure of (5) << part data extraction >> will be continued.
(5-4) << Part Data Search Processing >> The part information server apparatus 100 searches the part information table 1932 of the part database 193 using the held part number 19311 as a search key, and matches the search key with the part number that matches the search key. The component data 19322 associated with 19321 is read out.

図9は、携帯端末装置300の詳細な構成図である。
携帯端末装置300は、CPU301と、表示部302と、操作部303と、カメラ部304と、ネットワーク通信部308と、記憶部309と専用プログラムとを備える。
CPU301と、表示部302と、入力部303と、カメラ部304と、通信部308と、記憶部309とは、BUS199で接続される。
FIG. 9 is a detailed configuration diagram of the mobile terminal device 300.
The mobile terminal device 300 includes a CPU 301, a display unit 302, an operation unit 303, a camera unit 304, a network communication unit 308, a storage unit 309, and a dedicated program.
The CPU 301, the display unit 302, the input unit 303, the camera unit 304, the communication unit 308, and the storage unit 309 are connected by BUS199.

CPU301は、中央演算装置である。
表示部302は、液晶表示装置や有機EL表示装置である。
操作部303は、キーボタンである。操作部302は、表示部103に表示されたソフトキーボタンであってもよい。
カメラ部304は、撮影対象を露光記録した撮像素子から電気信号を読み出してデジタル画像データを生成する電子カメラである。電子カメラ304は、工事現場の部品とマーカー16を撮影して、部品画像とマーカー画像を含む撮影画像データ391を生成する。
マイク305は、音声を入力する装置である。
スピーカー306は、音声を出力する装置である。
電源部307は、2次電池である。
通信部308は、基地局と相互に無線信号を通信する装置である。
The CPU 301 is a central processing unit.
The display unit 302 is a liquid crystal display device or an organic EL display device.
The operation unit 303 is a key button. The operation unit 302 may be a soft key button displayed on the display unit 103.
The camera unit 304 is an electronic camera that generates digital image data by reading an electrical signal from an imaging device that records an exposure target. The electronic camera 304 shoots the parts on the construction site and the marker 16 to generate photographic image data 391 including the part image and the marker image.
The microphone 305 is a device for inputting sound.
The speaker 306 is a device that outputs sound.
The power supply unit 307 is a secondary battery.
The communication unit 308 is a device that communicates radio signals with the base station.

記憶部309は、半導体メモリーや磁気メモリーである。
記憶部309は、撮影画像格納領域3091と、交換部品候補格納領域3092とを備えて、オペレーティングシステム385と、専用プログラムとを記憶する。
撮影画像格納領域3091は、撮影画像データ391を格納する。
部品情報画面格納領域3092は、部品情報画面データ197を格納する。
The storage unit 309 is a semiconductor memory or a magnetic memory.
The storage unit 309 includes a captured image storage area 3091 and a replacement part candidate storage area 3092, and stores the operating system 385 and a dedicated program.
The captured image storage area 3091 stores captured image data 391.
The component information screen storage area 3092 stores component information screen data 197.

オペレーティングシステム385は、携帯端末装置300のハードウェア(たとえば、CPU301と、表示部302と、入力部303と、カメラ部304と、ネットワーク通信部308と、記憶部309と、BUS399など)を管理・制御して、応用ソフトウエア(たとえば、専用プログラム)に対して、これらのハードウェアを利用できるようなサービスを提供する基本ソフトウエアである。 The operating system 385 manages and manages the hardware of the mobile terminal device 300 (for example, the CPU 301, the display unit 302, the input unit 303, the camera unit 304, the network communication unit 308, the storage unit 309, the BUS399, etc.). It is basic software that controls and provides a service that can use these hardware for application software (for example, a dedicated program).

このほかに、撮影画像送信手段310と、部品情報画面受信表示手段320と、を備える。これらの各手段は、それぞれの専用プログラムによって実現され、専用プログラムがCPU301に解釈・実行されることによって機能する。 In addition to this, a captured image transmission unit 310 and a component information screen reception display unit 320 are provided. Each of these means is realized by each dedicated program, and functions when the dedicated program is interpreted and executed by the CPU 301.

撮影画像送信手段310は、電子カメラ304が生成した、部品画像とマーカー画像を含む撮影画像データ391を通信部308および基地局を介して、部品管理サーバー装置100に送信する。
部品情報画面受信表示手段320は、部品管理サーバー装置100が返信する部品情報画面データ197を、基地局および通信部308を介して、受信して、これを表示部302に表示する。
The captured image transmission unit 310 transmits captured image data 391 including the component image and the marker image generated by the electronic camera 304 to the component management server apparatus 100 via the communication unit 308 and the base station.
The component information screen reception display means 320 receives the component information screen data 197 returned from the component management server apparatus 100 via the base station and the communication unit 308 and displays it on the display unit 302.

図10は、部品管理サーバー装置100の詳細な構成図である。
部品管理サーバー装置100は、CPU101と、ネットワーク通信部104と、記憶部109と専用プログラムとを備える。
CPU101と、ネットワーク通信部104と、記憶部109とは、BUS199で接続される。
FIG. 10 is a detailed configuration diagram of the component management server apparatus 100.
The component management server apparatus 100 includes a CPU 101, a network communication unit 104, a storage unit 109, and a dedicated program.
The CPU 101, the network communication unit 104, and the storage unit 109 are connected by BUS199.

CPU101は、中央演算装置である。
ネットワーク通信部104は、LANアダプターである。
The CPU 101 is a central processing unit.
The network communication unit 104 is a LAN adapter.

記憶部109は、半導体メモリーや磁気メモリーである。
記憶部109は、標準マーカー格納領域091と、部品情報画面格納領域092と、部品情報格納領域093と、撮影画像格納領域094と、座標変換行列格納領域095と、を備えて、データベースプログラム180と、画像認識プログラム183と、オペレーティングシステム185と、専用プログラムとを記憶する。
The storage unit 109 is a semiconductor memory or a magnetic memory.
The storage unit 109 includes a standard marker storage area 091, a parts information screen storage area 092, a parts information storage area 093, a captured image storage area 094, and a coordinate transformation matrix storage area 095, and a database program 180. The image recognition program 183, the operating system 185, and a dedicated program are stored.

標準マーカー格納領域091は、寸法情報を含む標準マーカー情報191を格納する。
部品情報画面格納領域092は、部品情報画面データ197を格納する。
部品格納領域093は、部品データベース193を格納する。
部品データベース193は、部品データや、三次元CADデータを有するデータベースで、データベースプログラム180により管理される。
撮影画像格納領域094は、撮影画像データ391を格納する。
座標変換行列格納領域095は、座標変換行列関係式データ195を格納する。
The standard marker storage area 091 stores standard marker information 191 including dimension information.
The component information screen storage area 092 stores component information screen data 197.
The component storage area 093 stores a component database 193.
The component database 193 is a database having component data and three-dimensional CAD data, and is managed by the database program 180.
The captured image storage area 094 stores captured image data 391.
The coordinate transformation matrix storage area 095 stores coordinate transformation matrix relational expression data 195.

画像認識プログラム183は、周知の画像認識アルゴリズムを用いたプログラムである。
オペレーティングシステム185は、コンピューターのハードウェア(たとえば、CPU101と、ネットワーク通信部104と、記憶部109と、BUS199など)を管理・制御して、応用ソフトウエア(たとえば、データベースプログラム180や専用プログラムなど)に対して、これらのハードウェアを利用できるようなサービスを提供する基本ソフトウエアである。
The image recognition program 183 is a program using a known image recognition algorithm.
The operating system 185 manages and controls computer hardware (for example, the CPU 101, the network communication unit 104, the storage unit 109, and the BUS 199), and applies application software (for example, the database program 180 and a dedicated program). On the other hand, it is basic software that provides services that can use these hardware.

このほかに、マーカー検出手段120と、撮影条件算出手段130と、部品CG画像生成手段140と、部品データ抽出手段150と、部品情報画面作成手段160と、撮影画像受信手段170と、部品情報画面返信手段175と、を備える。これらの各手段は、それぞれの専用プログラムによって実現され、専用プログラムがCPU101に解釈・実行されることによって機能する。 In addition, the marker detection means 120, the imaging condition calculation means 130, the part CG image generation means 140, the part data extraction means 150, the part information screen creation means 160, the captured image reception means 170, the part information screen. Replying means 175. Each of these means is realized by each dedicated program and functions by the CPU 101 interpreting and executing the dedicated program.

撮影画像受信170は、携帯端末装置300が送信する、部品画像とマーカー画像を含む撮影画像データ391を、ネットワーク通信部104を介して受信する。 The captured image reception 170 receives captured image data 391 including a component image and a marker image transmitted from the mobile terminal device 300 via the network communication unit 104.

マーカー検出手段120は、受信した撮影画像データ391からマーカー画像を検出する。
なお、マーカー検出手段120の処理の詳細は、図7の(4)《撮影条件の算出》の詳細な処理手順の説明における(4−1)《マーカーの抽出》の項で述べた。
The marker detection unit 120 detects a marker image from the received captured image data 391.
The details of the processing of the marker detection unit 120 are described in the section of (4-1) << Marker extraction >> in the description of the detailed processing procedure of (4) << Calculation of shooting conditions >> in FIG.

撮影条件算出手段130は、検出したマーカー画像の4つの頂点座標と、標準マーカー191の4つの頂点座標とを用いて、電子カメラ座標系(Xc 、Yc 、Zc )の座標と三次元空間座標系(Xm、Ym 、Zm )の座標との座標変換行列関係式195を算出する。
なお、撮影条件算出手段130の処理の詳細は、図7の(4)《撮影条件の算出》の詳細な処理手順の説明における(4−2)《撮影条件算出処理》の項で述べた。
The imaging condition calculation means 130 uses the four vertex coordinates of the detected marker image and the four vertex coordinates of the standard marker 191 to use the coordinates of the electronic camera coordinate system (X c , Y c , Z c ) and three-dimensional. A coordinate transformation matrix relational expression 195 with the coordinates of the spatial coordinate system (X m , Y m , Z m ) is calculated.
Details of the processing of the photographing condition calculation means 130 are described in the section of (4-2) << Shooting condition calculation processing >> in the description of the detailed processing procedure of (4) << Calculation of photographing conditions >> in FIG.

部品CG画像生成手段140は、部品データベース193のCADテーブル1931から三次元CADデータ19312を読み出して、この三次元CADデータ19312に対して、撮影条件算出手段130が算出した座標変換行列関係式195を適用して、レンダリング処理して、電子カメラ座標系(Xc 、Yc 、Zc )の部品CG画像(=二次元デジタル画像データ)を生成して、部品番号19311と対応付ける。 The component CG image generation unit 140 reads the three-dimensional CAD data 19312 from the CAD table 1931 of the component database 193, and uses the coordinate transformation matrix relational expression 195 calculated by the imaging condition calculation unit 130 for the three-dimensional CAD data 19312. By applying and rendering, a part CG image (= two-dimensional digital image data) of the electronic camera coordinate system (X c , Y c , Z c ) is generated and associated with the part number 19311.

部品特定手段155は、生成した部品CG画像データと、撮影画像データから切出した部品画像とを比較して画像認識して、所定の閾値以上の類似度で画像認識された部品CG画像データに対応付けられた部品番号19311を特定する。 The component specifying unit 155 compares the generated component CG image data with the component image cut out from the captured image data, recognizes the image, and corresponds to the component CG image data image-recognized with a similarity equal to or higher than a predetermined threshold. The assigned part number 19311 is specified.

部品特定手段155は、部品撮影画像切出機能と交換部品画像認識機能と検索機能を備える。
部品撮影画像切出機能の処理の詳細は、図8の(5)《部品データの抽出》の詳細な処理手順の説明における(5−2)《部品撮影画像の切出処理》の項で述べた。
交換部品画像認識機能の処理の詳細は、図8の(5)《部品データの抽出》の詳細な処理手順の説明における(5−3)《部品の画像認識処理》の項で述べた。
The component specifying unit 155 includes a component photographed image cutout function, a replacement component image recognition function, and a search function.
Details of the processing of the part photographed image cut-out function will be described in the section of (5-2) << Part photographed image cut-out process >> in the detailed processing procedure of (5) << Extraction of part data >> in FIG. It was.
Details of the processing of the replacement part image recognition function are described in the section of (5-3) << Part Image Recognition Process >> in the description of the detailed processing procedure of (5) << Extraction of Part Data >> in FIG.

部品データ抽出手段150は、特定された部品番号19311を検索キーにして、部品データベース193を検索して、部品データ19322を読み出す。
部品データ抽出手段150の処理の詳細は、図8の(5)《部品データの抽出》の詳細な処理手順の説明における(5−4)《部品データの検索処理》の項で述べた。
The component data extraction unit 150 searches the component database 193 using the identified component number 19311 as a search key, and reads the component data 19322.
Details of the processing of the part data extracting means 150 are described in the section of (5-4) << Parts Data Retrieval Process >> in the detailed processing procedure of (5) << Parts Data Extraction >> in FIG.

部品情報画面作成手段160は、読み出した部品データを用いて部品情報画面データ197を作成する。 The component information screen creation means 160 creates the component information screen data 197 using the read component data.

部品情報画面返信手段175は、作成した部品情報画面データ197を携帯端末装置300に返信する。
The component information screen reply unit 175 returns the created component information screen data 197 to the mobile terminal device 300.

1 部品管理システム
16 マーカー
100 部品管理サーバー装置
130 撮影条件算出手段
140 部品CG画像生成手段
150 部品データ抽出手段
160 部品情報画面作成手段
170 撮影画像受信手段
175 部品情報画面返信手段
193 部品データベース
1931 CADテーブル
19311 部品番号
19312 三次元CADデータ
1932 部品情報テーブル
19321 部品番号
19322 部品データ
195 座標変換行列関係式データ
197 部品情報画面データ
300 携帯端末装置
310 撮影画像送信手段
320 部品情報画面受信表示手段
391 撮影画像データ

DESCRIPTION OF SYMBOLS 1 Parts management system 16 Marker 100 Parts management server apparatus 130 Imaging condition calculation means 140 Parts CG image generation means 150 Parts data extraction means 160 Parts information screen creation means 170 Photographed image reception means 175 Parts information screen return means 193 Parts database 1931 CAD table 19311 Part number 1912 Three-dimensional CAD data 1932 Part information table 19321 Part number 19322 Part data 195 Coordinate transformation matrix relational data 197 Part information screen data 300 Portable terminal device 310 Photographed image transmission means 320 Part information screen reception display means 391 Photographed image data

Claims (4)

電子カメラ付携帯端末装置と画像認識プログラムを有する部品管理装置を用いる交換部品管理方法であって、
部品管理装置が備える、標準マーカー情報と、部品番号が対応付けられた三次元CADデータと部品データと、を管理する部品データベースとを用いる交換部品管理方法において、
携帯端末装置の電子カメラにより部品に対して所定の位置関係に配置されたマーカーと共に、部品を撮影して撮影画像データを生成する部品撮影ステップと、
撮影画像データを部品管理装置に送信する撮影画像送信ステップと、
部品管理装置が、受信した撮影画像データからマーカー画像を検出するマーカー検出ステップと、
部品管理装置が、検出したマーカー画像と標準マーカーの形状情報を用いて、座標変換行列を算出する撮影条件算出ステップと、
部品管理装置が、部品データベースから読み出した三次元CADデータに対して、算出した座標変換行列を適用して、レンダリング処理して、部品CG画像を生成して、部品番号と対応付ける部品CG画像生成ステップと、
部品管理装置が、画像認識プログラムを用いて、生成した部品CG画像データと撮影画像データの部品画像を比較して類似度を算出して、高い類似度の部品CG画像に対応付けられた部品番号を抽出する部品特定ステップと、
部品管理装置が、抽出した部品番号の部品データを用いて部品情報画面データを作成して携帯端末装置に返信する部品情報画面作成返信ステップと、
を含んだ手順でなされることを特徴とする交換部品管理方法。
A replacement part management method using a portable terminal apparatus with an electronic camera and a part management apparatus having an image recognition program,
In a replacement part management method using a part database for managing standard marker information, three-dimensional CAD data and part data associated with a part number, provided in the part management apparatus,
A component photographing step of photographing a component and generating photographed image data together with a marker arranged in a predetermined positional relationship with respect to the component by an electronic camera of the mobile terminal device;
A captured image transmission step of transmitting the captured image data to the parts management device;
A marker detection step in which the component management device detects a marker image from the received captured image data;
An imaging condition calculation step in which the component management device calculates a coordinate transformation matrix using the detected marker image and the shape information of the standard marker,
The component management apparatus applies the calculated coordinate transformation matrix to the three-dimensional CAD data read from the component database, performs rendering processing, generates a component CG image, and associates the component number with the component CG image generation step. When,
The component management apparatus calculates the similarity by comparing the generated component CG image data and the component image of the photographed image data using the image recognition program, and the component number associated with the component CG image having a high similarity A component identification step for extracting
A parts information screen creation reply step in which the parts management device creates part information screen data using the part data of the extracted part number and sends it back to the mobile terminal device;
A replacement part management method, characterized in that it is performed by a procedure including:
標準マーカー情報を格納する標準マーカー格納領域と、
部品情報画面データを格納する部品情報画面格納領域と、
部品番号と対応付けた三次元CADデータと、部品番号と対応付けられた部品データを管理する部品データベースを格納する部品格納領域と、
部品画像とマーカー画像を含む撮影画像データを格納する撮影画像格納領域と、
を有する記憶手段と、
部品に対して所定の位置関係に配置されたマーカーと共に、部品を撮影した撮影画像データを携帯端末装置から受信する撮影画像受信手段と、
受信した撮影画像データからマーカー画像を検出するマーカー検出手段と、
検出したマーカー画像と標準マーカーの寸法情報を用いて、座標変換行列を算出する撮影条件算出手段と、
部品データベースから読み出した三次元CADデータに対して、撮影条件算出手段が算出した座標変換行列を適用して、レンダリング処理して、部品CG画像を生成して、部品番号と対応付ける部品CG画像生成手段と、
画像認識プログラムを有する部品データベースに対して、生成した部品CG画像データと撮影画像データの部品画像の類似度を算出させて、高い類似度の部品CG画像に対応付けられた部品番号を特定する部品特定手段と、
特定された部品番号を検索キーにして検索させて、抽出させた部品データを受け取る部品データ抽出手段と、
抽出した部品データを用いて部品情報画面データを作成する部品情報画面作成手段と、
作成した部品情報画面データを携帯端末装置に返信する部品情報画面返信手段と、
を備えることを特徴とする部品管理装置。
Standard marker storage area for storing standard marker information;
Parts information screen storage area for storing parts information screen data,
Three-dimensional CAD data associated with a part number; a part storage area for storing a part database for managing part data associated with a part number;
A captured image storage area for storing captured image data including a component image and a marker image;
Storage means having
A photographed image receiving means for receiving photographed image data obtained by photographing a component together with a marker arranged in a predetermined positional relationship with respect to the component;
Marker detection means for detecting a marker image from received photographed image data;
An imaging condition calculation means for calculating a coordinate transformation matrix using the detected marker image and dimension information of the standard marker,
A component CG image generation unit that generates a component CG image by applying the coordinate transformation matrix calculated by the imaging condition calculation unit to the three-dimensional CAD data read from the component database, generates a component CG image, and associates it with the component number When,
A component that specifies a component number associated with a high-similarity component CG image by calculating the similarity between the generated component CG image data and the component image of the captured image data with respect to a component database having an image recognition program Specific means,
A part data extraction means for searching by using the specified part number as a search key and receiving the extracted part data;
Part information screen creation means for creating part information screen data using the extracted part data;
A component information screen return means for returning the created component information screen data to the mobile terminal device;
A component management apparatus comprising:
コンピューターに組込むことによって、コンピューターを請求項2に記載の部品管理装置として動作させるコンピュータプログラム。 A computer program that causes a computer to operate as the component management apparatus according to claim 2 by being incorporated in the computer. 請求項3に記載のコンピュータプログラムを記録したコンピューター読取り可能な記録媒体。
The computer-readable recording medium which recorded the computer program of Claim 3.
JP2009118527A 2009-05-15 2009-05-15 Component management method, device, program and recording medium Withdrawn JP2010267113A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009118527A JP2010267113A (en) 2009-05-15 2009-05-15 Component management method, device, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009118527A JP2010267113A (en) 2009-05-15 2009-05-15 Component management method, device, program and recording medium

Publications (1)

Publication Number Publication Date
JP2010267113A true JP2010267113A (en) 2010-11-25

Family

ID=43364024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009118527A Withdrawn JP2010267113A (en) 2009-05-15 2009-05-15 Component management method, device, program and recording medium

Country Status (1)

Country Link
JP (1) JP2010267113A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134343A (en) * 2011-02-24 2011-07-07 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system, and image processing method
JP2012212460A (en) * 2012-06-22 2012-11-01 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system, and image processing method
JP2013114455A (en) * 2011-11-29 2013-06-10 Fuji Mach Mfg Co Ltd Member information acquisition apparatus
JP2013220917A (en) * 2012-04-18 2013-10-28 Hitachi Building Systems Co Ltd Technological support system of elevator
US8571266B2 (en) 2011-02-24 2013-10-29 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8625898B2 (en) 2011-02-24 2014-01-07 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8705868B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8705869B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8718325B2 (en) 2011-02-24 2014-05-06 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
JP2015099413A (en) * 2013-11-18 2015-05-28 三菱電機株式会社 Systematic diagram searching system
JP2016031555A (en) * 2014-07-25 2016-03-07 株式会社クローバー Duplication order reception method for key, duplication order reception system for key, and photographing equipment for duplication order reception for key
JP2020113093A (en) * 2019-01-15 2020-07-27 積水ハウス株式会社 Design support apparatus, design support system, design support program
WO2023106243A1 (en) * 2021-12-06 2023-06-15 ダイキン工業株式会社 Part identification method and identification device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8718325B2 (en) 2011-02-24 2014-05-06 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8705869B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
JP2011134343A (en) * 2011-02-24 2011-07-07 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system, and image processing method
US8699749B2 (en) 2011-02-24 2014-04-15 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8571266B2 (en) 2011-02-24 2013-10-29 Nintendo Co., Ltd. Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US8625898B2 (en) 2011-02-24 2014-01-07 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
US8705868B2 (en) 2011-02-24 2014-04-22 Nintendo Co., Ltd. Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
JP2013114455A (en) * 2011-11-29 2013-06-10 Fuji Mach Mfg Co Ltd Member information acquisition apparatus
JP2013220917A (en) * 2012-04-18 2013-10-28 Hitachi Building Systems Co Ltd Technological support system of elevator
JP2012212460A (en) * 2012-06-22 2012-11-01 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system, and image processing method
JP2015099413A (en) * 2013-11-18 2015-05-28 三菱電機株式会社 Systematic diagram searching system
JP2016031555A (en) * 2014-07-25 2016-03-07 株式会社クローバー Duplication order reception method for key, duplication order reception system for key, and photographing equipment for duplication order reception for key
JP2020113093A (en) * 2019-01-15 2020-07-27 積水ハウス株式会社 Design support apparatus, design support system, design support program
JP7255188B2 (en) 2019-01-15 2023-04-11 積水ハウス株式会社 Design support device, design support system and design support program
WO2023106243A1 (en) * 2021-12-06 2023-06-15 ダイキン工業株式会社 Part identification method and identification device

Similar Documents

Publication Publication Date Title
JP2010267113A (en) Component management method, device, program and recording medium
JP6030240B2 (en) Method and apparatus for face recognition
JP4284288B2 (en) Pattern recognition apparatus and method
JP5487970B2 (en) Feature point arrangement collation apparatus, image collation apparatus, method and program thereof
Bae et al. Image-based localization and content authoring in structure-from-motion point cloud models for real-time field reporting applications
JP2019003621A (en) Determining architectural layout
JPWO2012077287A1 (en) Posture state estimation apparatus and posture state estimation method
US8542912B2 (en) Determining the uniqueness of a model for machine vision
US20130266228A1 (en) Automatic part identification and workflow generation
CN111354038A (en) Anchor object detection method and device, electronic equipment and storage medium
US20210374977A1 (en) Method for indoor localization and electronic device
JP5794427B2 (en) Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method and program thereof
JP2018055199A (en) Image processing program, image processing device, and image processing method
US8542905B2 (en) Determining the uniqueness of a model for machine vision
JP5700221B2 (en) Marker determination device, marker determination detection system, marker determination detection device, marker, marker determination method and program thereof
WO2015179695A1 (en) Point cloud systems and methods
JP5700220B2 (en) Marker generation device, marker generation detection system, marker generation detection device, marker, marker generation method and program thereof
JP5704909B2 (en) Attention area detection method, attention area detection apparatus, and program
CN112579810B (en) Printed circuit board classification method, device, computer equipment and storage medium
JP5278093B2 (en) Article related information providing method, apparatus, program, and recording medium
JP2015045919A (en) Image recognition method and robot
JP2014038566A (en) Image processor
Trucco et al. A framework for automatic progress assessment on construction sites using computer vision
JP5347798B2 (en) Object detection apparatus, object detection method, and object detection program
CN111429385B (en) Map generation method, device and equipment

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120807