JP2011048791A - Device, method and program for providing information - Google Patents

Device, method and program for providing information Download PDF

Info

Publication number
JP2011048791A
JP2011048791A JP2009198905A JP2009198905A JP2011048791A JP 2011048791 A JP2011048791 A JP 2011048791A JP 2009198905 A JP2009198905 A JP 2009198905A JP 2009198905 A JP2009198905 A JP 2009198905A JP 2011048791 A JP2011048791 A JP 2011048791A
Authority
JP
Japan
Prior art keywords
image
document
model
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009198905A
Other languages
Japanese (ja)
Other versions
JP5229161B2 (en
Inventor
Susumu Endo
進 遠藤
Masaki Ishihara
正樹 石原
Takayuki Baba
孝之 馬場
Shuichi Shiitani
秀一 椎谷
Daiki Masumoto
大器 増本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009198905A priority Critical patent/JP5229161B2/en
Publication of JP2011048791A publication Critical patent/JP2011048791A/en
Application granted granted Critical
Publication of JP5229161B2 publication Critical patent/JP5229161B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To attain effective use of knowledge information by allowing a user to execute search of documents related to the part of a component to be referred to. <P>SOLUTION: An information providing device 1 is configured to divide a 3D model of a component stored in a 3D model storage part 2 into parts, to extract, from a document stored in a document information storage part 3, image of a component added to the document, and to extract, from the extracted image, a symbol specifying a part of the image. The information providing device 1 is further configured to select, when the symbol is extracted, a part of the 3D model corresponding to the part of the image specified by the symbol and to store the selected part of the 3D model in a partial document information storage part 4 in association with the document related with the image of the part. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、情報提供装置、情報提供方法および情報提供プログラムに関する。   The present invention relates to an information providing apparatus, an information providing method, and an information providing program.

近年、商品の多品種少量化が進み、企業においては、類似する商品の開発プロジェクトが並行して進行することが多くなっている。このような開発体制下では、ある商品の開発において得られたノウハウを、他の商品の開発においても有効に活用することが開発効率を向上させるために非常に重要である。   In recent years, as a variety of products has been reduced in volume, companies have increasingly developed projects for similar products in parallel. Under such a development system, it is very important to effectively use the know-how acquired in the development of a certain product in the development of other products in order to improve the development efficiency.

ノウハウを蓄積し共有するための仕組みとして、ナレッジマネージメントシステムと呼ばれる情報提供システムが知られている。ナレッジマネージメントシステムは、各種ノウハウを記述した知識情報をデータベースに蓄積する。具体的には、ナレッジマネージメントシステムは、図47に示すように、3D(3dimensions)モデルで表現された部品と、障害情報などが記載された文書の情報とを関連付けてデータベースに保存する。   As a mechanism for accumulating and sharing know-how, an information providing system called a knowledge management system is known. The knowledge management system stores knowledge information describing various know-how in a database. Specifically, as shown in FIG. 47, the knowledge management system associates a part expressed in a 3D (3 dimensions) model with document information in which failure information and the like are stored in a database.

また、ナレッジマネージメントシステムは、利用者によって指定された部品に関する知識情報をデータベースから検索することができる。例えば、ナレッジマネージメントシステムでは、3Dモデルで部品を設計している場合に、設計中の部品に類似する部品をデータベース内の3Dモデルから検索し、検索された3Dモデルに関連付けられて記憶する文書を出力する。   In addition, the knowledge management system can search knowledge information about the parts designated by the user from the database. For example, in the knowledge management system, when a part is designed with a 3D model, a part similar to the part under design is searched from the 3D model in the database, and a document stored in association with the searched 3D model is stored. Output.

特開2008−262540号公報JP 2008-262540 A

しかしながら、上記した従来のナレッジマネージメントシステムの技術では、部品と文書を関連付けて記憶しているので、3Dモデルで表現された部品の一部分を選択し、選択された部分に関する文書情報を参照することができないという課題があった。   However, since the conventional knowledge management system technique described above stores parts and documents in association with each other, it is possible to select a part of a part represented by a 3D model and refer to document information relating to the selected part. There was a problem that it was not possible.

例えば、図48に示すように、利用者は、設計中の部品の部分に類似している過去の部品の部分について記載された障害情報などの文書を参照したいと考える場合がある。しかし、従来のナレッジマネージメントシステムの技術では、設計中の部品全体と類似する部品をデータベース内の3Dモデルから検索し、検索された3Dモデルに関連付けられて記憶する文書を検索する。   For example, as shown in FIG. 48, the user may want to refer to a document such as failure information described for a past part portion similar to the part portion being designed. However, in the conventional knowledge management system technique, a part similar to the whole part under design is searched from a 3D model in a database, and a document stored in association with the searched 3D model is searched.

このため、利用者が参照したい部分に関する文書以外にも関係ない文書を検索してしまう。この結果、利用者が参照したい部品の部分に関する文書を検索できず、知識情報を有効活用できないという課題があった。   For this reason, a document that is not related to a document other than the document related to the portion that the user wants to refer to is searched. As a result, there has been a problem that a document relating to a part portion that the user wants to reference cannot be searched, and knowledge information cannot be effectively used.

この発明は、上述した従来技術の課題を解決するためになされたものであり、3Dモデルの部分と文書とを関連付けて記憶し、利用者が参照したい部品の部分に関する文書を検索できるようして、知識情報の有効活用を効果的に実現することを目的とする。   The present invention has been made to solve the above-described problems of the prior art, and stores a 3D model part and a document in association with each other so that a user can search for a document related to a part part that the user wants to refer to. The objective is to effectively use knowledge information.

この発明では、3Dモデルに関連付けられている文書に、その3Dモデルの画像(部品の写真等)が含まれており、故障箇所などの注目すべき範囲を示す楕円や矢印等が画像に付与されているということを前提として、上述した課題を解決し、目的を達成するため、まず部品の3Dモデルを部分に分割する。同時に、3Dモデルに関連付けられて保存されている文書に付加された部品の画像に対し、画像中に写っている部品の部分を特定する記号(部分を囲む楕円や部分を指す矢印など)を抽出する。そして、記号が抽出された場合には、記号が特定する画像中に写っている部品の部分に対応する3Dモデルの部分を選択し、選択された3Dモデルの部分と部品の画像に関連付けられた文書とを対応付けて記憶部に格納する。   In the present invention, the document associated with the 3D model includes an image of the 3D model (such as a photograph of a part), and an ellipse or an arrow indicating a notable range such as a failure location is added to the image. In order to solve the above-described problems and achieve the purpose, the 3D model of the part is first divided into parts. At the same time, for the part image added to the document stored in association with the 3D model, a symbol (such as an ellipse surrounding the part or an arrow pointing to the part) that identifies the part in the image is extracted. To do. When the symbol is extracted, the part of the 3D model corresponding to the part of the part shown in the image specified by the symbol is selected, and the selected 3D model part and the part image are associated with each other. The document is associated with and stored in the storage unit.

本願の開示する情報提供装置の一つの態様によれば、3Dモデルの部分と文書とを関連付けて記憶するので、利用者が参照したい部品の部分に関する文書の検索を実行できる結果、知識情報の有効活用を効果的に実現できる。   According to one aspect of the information providing apparatus disclosed in the present application, since the 3D model part and the document are stored in association with each other, it is possible to perform a search of the document related to the part part that the user wants to refer to, so Effective use can be realized.

図1は、実施例1に係る情報提供装置の構成を示すブロック図である。FIG. 1 is a block diagram illustrating the configuration of the information providing apparatus according to the first embodiment. 図2は、実施例2に係る情報提供装置の構成を示すブロック図である。FIG. 2 is a block diagram illustrating the configuration of the information providing apparatus according to the second embodiment. 図3は、3Dモデルの一例を示す図である。FIG. 3 is a diagram illustrating an example of a 3D model. 図4は、文書情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of document information. 図5は、部品テーブルの一例を示す図である。FIG. 5 is a diagram illustrating an example of a component table. 図6は、部品・文書関連付けテーブルの一例を示す図である。FIG. 6 is a diagram illustrating an example of a component / document association table. 図7は、点情報テーブルの一例を示す図である。FIG. 7 is a diagram illustrating an example of the point information table. 図8は、面情報テーブルの一例を示す図である。FIG. 8 is a diagram illustrating an example of the surface information table. 図9は、セグメント情報テーブルの一例を示す図である。FIG. 9 is a diagram illustrating an example of the segment information table. 図10は、テキスト情報テーブルの一例を示す図である。FIG. 10 is a diagram illustrating an example of the text information table. 図11は、画像情報テーブルの一例を示す図である。FIG. 11 is a diagram illustrating an example of the image information table. 図12は、図形情報テーブルの一例を示す図である。FIG. 12 is a diagram illustrating an example of the graphic information table. 図13は、画素情報テーブルの一例を示す図である。FIG. 13 is a diagram illustrating an example of the pixel information table. 図14は、画像特徴量テーブルの一例を示す図である。FIG. 14 is a diagram illustrating an example of the image feature amount table. 図15は、視点位置情報テーブルの一例を示す図である。FIG. 15 is a diagram illustrating an example of the viewpoint position information table. 図16は、類似度計算テーブルの一例を示す図である。FIG. 16 is a diagram illustrating an example of a similarity calculation table. 図17は、文書参照情報テーブルの一例を示す図である。FIG. 17 is a diagram illustrating an example of a document reference information table. 図18は、クエリ点情報テーブルの一例を示す図である。FIG. 18 is a diagram illustrating an example of the query point information table. 図19は、クエリ・面情報テーブルの一例を示す図である。FIG. 19 is a diagram illustrating an example of a query / surface information table. 図20は、クエリ・セグメント情報テーブルの一例を示す図である。FIG. 20 is a diagram illustrating an example of a query segment information table. 図21は、クエリ・セグメント類似度計算テーブルの一例を示す図である。FIG. 21 is a diagram showing an example of a query / segment similarity calculation table. 図22は、クエリ・セグメント評価値計算テーブルの一例を示す図である。FIG. 22 is a diagram illustrating an example of a query segment evaluation value calculation table. 図23は、部分・文書関連付けテーブルの一例を示す図である。FIG. 23 is a diagram illustrating an example of a partial / document association table. 図24は、セグメンテーション手法の一例を説明する図である。FIG. 24 is a diagram for explaining an example of the segmentation technique. 図25は、HTMLファイル形式の文書の例を示す図である。FIG. 25 is a diagram illustrating an example of a document in the HTML file format. 図26は、指示マークの一例を示す図である。FIG. 26 is a diagram illustrating an example of an instruction mark. 図27は、指示マーク情報の一例を示す図である。FIG. 27 is a diagram illustrating an example of instruction mark information. 図28は、指示マークつきの画像情報の一例を示す図である。FIG. 28 is a diagram illustrating an example of image information with an instruction mark. 図29は、カラー画像の画素の配列形式を示す図である。FIG. 29 is a diagram illustrating an arrangement format of pixels of a color image. 図30は、モノクロ画像の画素の配列形式を示す図である。FIG. 30 is a diagram illustrating a pixel arrangement format of a monochrome image. 図31は、文書情報における画像と3Dモデルとの位置合わせを行う処理を説明する図である。FIG. 31 is a diagram illustrating processing for aligning an image and 3D model in document information. 図32は、エッジ抽出結果を説明するための図である。FIG. 32 is a diagram for explaining the edge extraction result. 図33は、面番号情報の一例を示す図である。FIG. 33 is a diagram illustrating an example of the surface number information. 図34は、指示マークの位置に対応する3Dモデルの部分を選択する処理を説明する図である。FIG. 34 is a diagram illustrating processing for selecting a portion of the 3D model corresponding to the position of the instruction mark. 図35は、指示マーク範囲画素情報の一例を示す図である。FIG. 35 is a diagram illustrating an example of instruction mark range pixel information. 図36は、画素ヒストグラム情報の一例を示す図である。FIG. 36 is a diagram illustrating an example of pixel histogram information. 図37は、文書中の画像と3Dモデルの部分とをマッチングする処理を説明する図である。FIG. 37 is a diagram illustrating processing for matching an image in a document with a 3D model portion. 図38は、検索処理を説明する図である。FIG. 38 is a diagram for explaining search processing. 図39は、検索結果の画面表示例を示す図である。FIG. 39 is a diagram illustrating a screen display example of search results. 図40は、参照情報が増加する処理を説明する図である。FIG. 40 is a diagram for describing processing for increasing reference information. 図41は、実施例2に係る情報提供装置の処理動作を示すフローチャートである。FIG. 41 is a flowchart illustrating the processing operation of the information providing apparatus according to the second embodiment. 図42は、実施例2に係る情報提供装置の処理動作を示すフローチャートである。FIG. 42 is a flowchart illustrating the processing operation of the information providing apparatus according to the second embodiment. 図43は、実施例2に係る情報提供装置の処理動作を示すフローチャートである。FIG. 43 is a flowchart illustrating the processing operation of the information providing apparatus according to the second embodiment. 図44は、実施例2に係る情報提供装置の処理動作を示すフローチャートである。FIG. 44 is a flowchart illustrating the processing operation of the information providing apparatus according to the second embodiment. 図45は、実施例2に係る情報提供装置の処理動作を示すフローチャートである。FIG. 45 is a flowchart illustrating the processing operation of the information providing apparatus according to the second embodiment. 図46は、情報提供プログラムを実行するコンピュータを示す図である。FIG. 46 is a diagram illustrating a computer that executes an information providing program. 図47は、従来技術を説明するための図である。FIG. 47 is a diagram for explaining the prior art. 図48は、従来技術を説明するための図である。FIG. 48 is a diagram for explaining the prior art.

以下に添付図面を参照して、この発明に係る情報提供装置、情報提供方法および情報提供プログラムの実施例を詳細に説明する。   Exemplary embodiments of an information providing apparatus, an information providing method, and an information providing program according to the present invention will be described below in detail with reference to the accompanying drawings.

以下の実施例では、実施例1に係る情報提供装置の構成および処理について図1を用いて説明する。図1は、実施例1に係る情報提供装置の構成示すブロック図である。実施例1に係る情報提供装置1は、図1に示すように、3Dモデル記憶部2、文書情報記憶部3、部分文書情報記憶部4、分割部5、画像抽出部6、特定記号抽出部7、部分選択部8、部分文書格納部9を有する。   In the following embodiment, the configuration and processing of the information providing apparatus according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating the configuration of the information providing apparatus according to the first embodiment. As shown in FIG. 1, the information providing apparatus 1 according to the first embodiment includes a 3D model storage unit 2, a document information storage unit 3, a partial document information storage unit 4, a division unit 5, an image extraction unit 6, and a specific symbol extraction unit. 7, a partial selection unit 8, and a partial document storage unit 9.

3Dモデル記憶部2は、部品の3Dモデルを記憶する。文書情報記憶部3は、部品の画像が付加された部品に関する文書を記憶する。部分文書情報記憶部4は、3Dモデルの部分と部品の画像に関連付けられた文書とを対応付けて記憶する。   The 3D model storage unit 2 stores a 3D model of a part. The document information storage unit 3 stores a document related to a component to which the component image is added. The partial document information storage unit 4 stores the 3D model part and the document associated with the part image in association with each other.

分割部5は、3Dモデル記憶部2に記憶された部品の3Dモデルを部分に分割する。画像抽出部6は、文書情報記憶部3に記憶された文書から文書に付加された部品の画像を抽出する。特定記号抽出部7は、画像抽出部6によって抽出された画像中に写っている部品の部分を特定する記号(部分を囲む楕円や部分を指す矢印など)を抽出する。   The dividing unit 5 divides the 3D model of the component stored in the 3D model storage unit 2 into parts. The image extraction unit 6 extracts an image of a part added to the document from the document stored in the document information storage unit 3. The specific symbol extraction unit 7 extracts a symbol (such as an ellipse surrounding the part or an arrow pointing to the part) that identifies the part of the part shown in the image extracted by the image extraction unit 6.

部分選択部8は、特定記号抽出部7によって記号が抽出された場合には、記号が特定する画像の部分に対応する3Dモデルの部分を選択する。部分文書格納部9は、部分選択部8によって選択された3Dモデルの部分と部品の画像に関連付けられた文書とを対応付けて部分文書情報記憶部4に格納する。   When the symbol is extracted by the specific symbol extraction unit 7, the portion selection unit 8 selects a part of the 3D model corresponding to the part of the image specified by the symbol. The partial document storage unit 9 stores the part of the 3D model selected by the partial selection unit 8 and the document associated with the part image in the partial document information storage unit 4 in association with each other.

このように、情報提供装置1は、3Dモデル記憶部2に記憶された部品の3Dモデルを部分に分割し、文書情報記憶部3に記憶された文書から文書に付加された部品の画像を抽出し、抽出された画像中に画像の一部分を特定する記号を抽出する。そして、情報提供装置1は、記号が抽出された場合には、記号が特定する画像の部分に対応する3Dモデルの部分を選択し、選択された3Dモデルの部分と部品の画像に関連付けられた文書とを対応付けて部分文書情報記憶部4に格納する。   As described above, the information providing apparatus 1 divides the 3D model of the component stored in the 3D model storage unit 2 into parts, and extracts the image of the component added to the document from the document stored in the document information storage unit 3. Then, a symbol specifying a part of the image is extracted from the extracted image. When the symbol is extracted, the information providing apparatus 1 selects a 3D model portion corresponding to the image portion specified by the symbol, and associates the selected 3D model portion with the image of the part. The document is stored in the partial document information storage unit 4 in association with the document.

このため、情報提供装置1は、3Dモデルの部分と文書とを関連付けて記憶し、利用者が参照したい部品の部分に関する文書を検索できるようして、知識情報の有効活用を効果的に実現することが可能である。   For this reason, the information providing apparatus 1 stores the 3D model part and the document in association with each other, and enables the user to search for a document related to the part part that the user wants to refer to, thereby effectively realizing the knowledge information. It is possible.

以下の実施例では、実施例2に係る情報提供装置の構成および処理の流れを順に説明し、最後に実施例2による効果を説明する。   In the following embodiments, the configuration and processing flow of the information providing apparatus according to the second embodiment will be described in order, and finally the effects of the second embodiment will be described.

[情報提供装置の構成]
まず最初に、図2を用いて、情報提供装置10の構成を説明する。図2は、実施例2に係る情報提供装置10の構成を示すブロック図である。図2に示すように、この情報提供装置10は、入力部11、出力部12、制御部13、記憶部14を有する。以下にこれらの各部の処理を説明する。
[Configuration of Information Providing Device]
First, the configuration of the information providing apparatus 10 will be described with reference to FIG. FIG. 2 is a block diagram illustrating the configuration of the information providing apparatus 10 according to the second embodiment. As illustrated in FIG. 2, the information providing apparatus 10 includes an input unit 11, an output unit 12, a control unit 13, and a storage unit 14. The processing of each of these units will be described below.

入力部11は、3Dモデルを設計するための操作指示や利用者が設計中に必要な情報を選択して表示させる指示などを入力するものであり、キーボードやマウス、マイクなどである。また、出力部12は、設計中の部品の3Dモデル、部品に関する知識情報である文書情報、利用者が設計中に必要な情報などを表示するものであり、モニタ(若しくはディスプレイ、タッチパネル)やスピーカである。   The input unit 11 inputs an operation instruction for designing a 3D model, an instruction for a user to select and display necessary information during design, and includes a keyboard, a mouse, a microphone, and the like. The output unit 12 displays a 3D model of the part under design, document information that is knowledge information about the part, information necessary for the user during design, a monitor (or display, touch panel), a speaker, and the like. It is.

記憶部14は、制御部13による各種処理に必要なデータおよびプログラムを格納するが、特に、3Dモデル情報記憶領域14a、文書情報記憶領域14b、テーブル記憶領域14c、部分文書情報記憶領域14dを有する。   The storage unit 14 stores data and programs necessary for various processes performed by the control unit 13, and particularly includes a 3D model information storage area 14a, a document information storage area 14b, a table storage area 14c, and a partial document information storage area 14d. .

3Dモデル情報記憶領域14aは、部品の3Dモデルを記憶する。具体的には、図3に示すように、3Dモデル情報記憶領域14aは、3Dモデルとともに、部品番号、設計者、設計日付を記憶している。図3は、3Dモデルの一例を示す図である。   The 3D model information storage area 14a stores a 3D model of a part. Specifically, as illustrated in FIG. 3, the 3D model information storage area 14a stores a part number, a designer, and a design date together with the 3D model. FIG. 3 is a diagram illustrating an example of a 3D model.

文書情報記憶領域14bは、部品の画像が付加された部品に関する文書を記憶する。例えば、図4に示すように、文書情報記憶領域14bは、設計された部品に関する情報として、部品の一部分に障害が発生しやすい旨を部品の画像とともに記憶する。図4は、文書情報の一例を示す図である。   The document information storage area 14b stores a document related to the component to which the component image is added. For example, as shown in FIG. 4, the document information storage area 14b stores, as information about the designed part, information that a failure is likely to occur in a part of the part together with an image of the part. FIG. 4 is a diagram illustrating an example of document information.

テーブル記憶領域14cは、制御部13による各種処理に必要な各種テーブルを記憶する。具体的には、テーブル記憶領域14cは、部品テーブル、部品・文書関連付けテーブル、点情報テーブル、面情報テーブル、セグメント情報テーブル、テキスト情報テーブル、画像情報テーブル、図形情報テーブル、画素情報テーブル、画像特徴量テーブルを有する。   The table storage area 14c stores various tables necessary for various processes by the control unit 13. Specifically, the table storage area 14c includes a component table, a component / document association table, a point information table, a surface information table, a segment information table, a text information table, an image information table, a graphic information table, a pixel information table, and an image feature. Has a quantity table.

また、テーブル記憶領域14cは、視点位置情報テーブル、類似度計算テーブル、文書参照情報テーブル、クエリ点情報テーブル、クエリ・面情報テーブル、クエリ・セグメント情報テーブルを有する。   The table storage area 14c includes a viewpoint position information table, a similarity calculation table, a document reference information table, a query point information table, a query / surface information table, and a query / segment information table.

また、テーブル記憶領域14cは、クエリ・セグメント類似度計算テーブル、クエリ・セグメント評価値計算テーブルを有する。なお、以下に各テーブルについて説明するが、各テーブルがどのような処理に利用されるかについては、後述する制御部13の説明で述べる。また、各テーブルにについて、テーブルの形式を取らなくてもよく、テーブルの構成以外のデータベースを用いてもよい。   The table storage area 14c includes a query / segment similarity calculation table and a query / segment evaluation value calculation table. In addition, although each table is demonstrated below, what kind of process each table is used for is described in description of the control part 13 mentioned later. Further, for each table, it is not necessary to take a table format, and a database other than the table configuration may be used.

部品テーブルは、3Dモデルで表現された部品の部品種別を記憶する。具体的には、部品テーブルは、図5に示すように、部品を一意に識別する部品番号と、部品の種別を示す部品種別とを対応付けて記憶する。図5は、部品テーブルの一例を示す図である。   The component table stores component types of components represented by a 3D model. Specifically, as illustrated in FIG. 5, the component table stores a component number that uniquely identifies a component and a component type that indicates the component type in association with each other. FIG. 5 is a diagram illustrating an example of a component table.

部品・文書関連付けテーブルは、3Dモデルの部品と文書情報との関連付けを記憶する。部品・文書関連付けテーブルは、図6に示すように、文書情報を一意に識別する文書番号と、文書情報のタイトルを示す文書タイトルと、文書情報のURLを示す文書URLと、部品番号とを対応付けて記憶する。図6は、部品・文書関連付けテーブルの一例を示す図である。   The part / document association table stores associations between parts of the 3D model and document information. As shown in FIG. 6, the component / document association table associates a document number that uniquely identifies document information, a document title that indicates the title of the document information, a document URL that indicates the URL of the document information, and a component number. Add and remember. FIG. 6 is a diagram illustrating an example of a component / document association table.

点情報テーブルは、3Dモデルのポリゴンデータの点の座標位置を示す座標情報を記憶する。具体的には、点情報テーブルは、図7に示すように、部品番号と、ポリゴンデータの点を一意に識別する点番号と、点のX座標を示すX座標と、点のY座標を示すY座標と、点のZ座標を示すZ座標とを対応付けて記憶する。図7は、点情報テーブルの一例を示す図である。   The point information table stores coordinate information indicating the coordinate position of a point of polygon data of the 3D model. Specifically, as shown in FIG. 7, the point information table indicates a part number, a point number for uniquely identifying a point of polygon data, an X coordinate indicating the X coordinate of the point, and a Y coordinate of the point. The Y coordinate and the Z coordinate indicating the Z coordinate of the point are stored in association with each other. FIG. 7 is a diagram illustrating an example of the point information table.

面情報テーブルは、3Dモデルのポリゴンデータの面に関する情報を記憶する。具体的には、面情報テーブルは、図8に示すように、部品番号と、ポリゴンデータの面を一意に識別する面番号と、面が有する点の点番号を示す点番号1〜3とを対応付けて記憶する。図8は、面情報テーブルの一例を示す図である。   The surface information table stores information regarding the surface of the polygon data of the 3D model. Specifically, as shown in FIG. 8, the surface information table includes a part number, a surface number that uniquely identifies the surface of the polygon data, and point numbers 1 to 3 that indicate the point numbers of the surfaces. Store in association with each other. FIG. 8 is a diagram illustrating an example of the surface information table.

セグメント情報テーブルは、セグメント(部分)に関する情報を記憶する。具体的には、セグメント情報テーブルは、図9に示すように、セグメンテーションが行われた部品番号と、セグメンテーションが行われた部品を一意に識別するセグメント番号と、セグメンテーション後の面番号と、セグメンテーション前の面番号と、セグメント(部分)の特徴量とを対応付けて記憶する。図9は、セグメント情報テーブルの一例を示す図である。   The segment information table stores information on segments (parts). Specifically, as shown in FIG. 9, the segment information table includes a segment number that has been segmented, a segment number that uniquely identifies the segmented component, a surface number after segmentation, and a pre-segmentation And the feature quantity of the segment (part) are stored in association with each other. FIG. 9 is a diagram illustrating an example of the segment information table.

テキスト情報テーブルは、文書情報におけるテキスト情報に関する情報を記憶する。具体的には、テキスト情報テーブルは、図10に示すように、文書番号と、文書情報における文字列のX座標およびY座標と、文字列の幅および高さと、文字列の内容とを対応付けて記憶する。図10は、テキスト情報テーブルの一例を示す図である。   The text information table stores information related to text information in document information. Specifically, as shown in FIG. 10, the text information table associates the document number, the X and Y coordinates of the character string in the document information, the width and height of the character string, and the contents of the character string. And remember. FIG. 10 is a diagram illustrating an example of the text information table.

画像情報テーブルは、文書情報における画像に関する情報を記憶する。具体的には、画像情報テーブルは、図11に示すように、文書番号と、文書情報における画像の位置であるX座標およびY座標と、画像の幅および高さと、画像ファイル名とを対応付けて記憶する。図11は、画像情報テーブルの一例を示す図である。   The image information table stores information related to images in document information. Specifically, as shown in FIG. 11, the image information table associates the document number, the X coordinate and the Y coordinate that are the position of the image in the document information, the image width and height, and the image file name. And remember. FIG. 11 is a diagram illustrating an example of the image information table.

図形情報テーブルは、画像の一部分を特定する図形に関する情報を記憶する。具体的には、図形情報テーブルは、図12に示すように、文書番号と、画像の一部分を特定する図名のX座標およびY座標と、画像の一部分を特定する図形の幅および高さと、図形の形状とを対応付けて記憶する。図12は、図形情報テーブルの一例を示す図である。   The graphic information table stores information related to a graphic that specifies a part of an image. Specifically, as shown in FIG. 12, the graphic information table includes a document number, an X coordinate and a Y coordinate of a graphic name that specifies a part of an image, a width and a height of a graphic that specifies a part of the image, The figure shape is associated and stored. FIG. 12 is a diagram illustrating an example of the graphic information table.

画素情報テーブルは、文書情報における画像の画素に関する情報を記憶する。具体的には、画素情報テーブルは、図13に示すように、画像番号と画素情報とを対応付けて記憶する。図13は、画素情報テーブルの一例を示す図である。画像特徴量テーブルは、文書情報における画像の特徴量を記憶する。具体的には、画像特徴量テーブルは、図14に示すように、画像番号と特徴量とを対応付けて記憶する。図14は、画像特徴量テーブルの一例を示す図である。   The pixel information table stores information related to image pixels in the document information. Specifically, as shown in FIG. 13, the pixel information table stores image numbers and pixel information in association with each other. FIG. 13 is a diagram illustrating an example of the pixel information table. The image feature amount table stores image feature amounts in document information. Specifically, as shown in FIG. 14, the image feature amount table stores an image number and a feature amount in association with each other. FIG. 14 is a diagram illustrating an example of the image feature amount table.

視点位置情報テーブルは、3Dモデルをレンダリングするための視点位置を設定するための情報を記憶する。具体的には、視点位置情報テーブルは、図15に示すように、部品番号と、セグメント番号と、3Dモデルの回転角度である回転角θおよび回転角γと、画像情報と、面番号情報と、特徴量情報とを対応付けて記憶する。図15は、視点位置情報テーブルの一例を示す図である。   The viewpoint position information table stores information for setting a viewpoint position for rendering the 3D model. Specifically, as shown in FIG. 15, the viewpoint position information table includes a part number, a segment number, a rotation angle θ and a rotation angle γ that are rotation angles of the 3D model, image information, and surface number information. The feature amount information is stored in association with each other. FIG. 15 is a diagram illustrating an example of the viewpoint position information table.

類似度計算テーブルは、各視点位置での3Dモデルと文書情報の画像との類似度を記憶する。具体的には、類似度計算テーブルは、図16に示すように、画像番号と、部品番号と、セグメント番号と、回転角θおよび回転角γと、3Dモデルと文書情報の画像との類似度を示す類似度とを対応付けて記憶する。図16は、類似度計算テーブルの一例を示す図である。   The similarity calculation table stores the similarity between the 3D model and the document information image at each viewpoint position. Specifically, as shown in FIG. 16, the similarity calculation table includes the image number, the part number, the segment number, the rotation angle θ and the rotation angle γ, and the similarity between the 3D model and the document information image. Are stored in association with each other. FIG. 16 is a diagram illustrating an example of a similarity calculation table.

文書参照情報テーブルは、各文書情報が参照された回数を記憶する。具体的には、文書参照情報テーブルは、図17に示すように、文書番号と、文書情報が参照された回数を示す参照回数とを対応付けて記憶する。図17は、文書参照情報テーブルの一例を示す図である。   The document reference information table stores the number of times each document information is referenced. Specifically, as shown in FIG. 17, the document reference information table stores a document number and a reference count indicating the number of times the document information is referred to in association with each other. FIG. 17 is a diagram illustrating an example of a document reference information table.

クエリ点情報テーブルは、検索のキーとなる部品の3Dモデルの点情報を記憶する。具体的には、クエリ点情報テーブルは、図18に示すように、3Dモデルの点を一意に識別する点番号と、点のX座標と、点のY座標と、点のZ座標とを対応付けて記憶する。図18は、クエリ点情報テーブルの一例を示す図である。   The query point information table stores the point information of the 3D model of the part that is a search key. Specifically, as shown in FIG. 18, the query point information table corresponds to the point number that uniquely identifies the point of the 3D model, the X coordinate of the point, the Y coordinate of the point, and the Z coordinate of the point. Add and remember. FIG. 18 is a diagram illustrating an example of the query point information table.

クエリ・面情報テーブルは、検索のキーとなる部品の3Dモデルの面情報を記憶する。具体的には、クエリ・面情報テーブルは、図19に示すように、3Dモデルの面を一意に識別する面番号と、面が有する点の点番号を示す点番号1〜3とを対応付けて記憶する。図19は、クエリ・面情報テーブルの一例を示す図である。   The query / surface information table stores the surface information of the 3D model of a part that is a key for search. Specifically, as shown in FIG. 19, the query / surface information table associates surface numbers that uniquely identify the surfaces of the 3D model with point numbers 1 to 3 that indicate the point numbers of the surfaces. And remember. FIG. 19 is a diagram illustrating an example of a query / surface information table.

クエリ・セグメント情報テーブルは、検索のキーとなる部品の3Dモデルのセグメントに関する情報を記憶する。具体的には、クエリ・セグメント情報テーブルは、図20に示すように、検索のキーとなる各部分のクエリ・セグメント番号と、セグメンテーション後の面番号と、セグメンテーション前の面番号と、セグメント(部分)の特徴量とを対応付けて記憶する。図20は、クエリ・セグメント情報テーブルの一例を示す図である。   The query segment information table stores information related to a segment of a 3D model of a part that is a key for search. Specifically, as shown in FIG. 20, the query segment information table includes a query segment number of each part that is a search key, a face number after segmentation, a face number before segmentation, and a segment (part ) Are stored in association with each other. FIG. 20 is a diagram illustrating an example of a query segment information table.

クエリ・セグメント類似度計算テーブルは、検索のキーとなる部品の3Dモデルの各部分と、検索の対象となる各部分との類似度を記憶する。具体的には、クエリ・セグメント類似度計算テーブルは、図21に示すように、クエリ・セグメント番号と、検索の対象となる各部品の部品番号と、検索の対象となる各セグメントのセグメント番号と、類似度を対応付けて記憶する。図21は、クエリ・セグメント類似度計算テーブルの一例を示す図である。   The query segment similarity calculation table stores the similarity between each part of the 3D model of a part that is a key for search and each part that is a search target. Specifically, as shown in FIG. 21, the query segment similarity calculation table includes a query segment number, a part number of each part to be searched, and a segment number of each segment to be searched. The similarity is stored in association with each other. FIG. 21 is a diagram showing an example of a query / segment similarity calculation table.

クエリ・セグメント評価値計算テーブルは、検索のキーとなる部品の3Dモデルの各部分と検索の対象となる各部分との類似度などを重み付けとして、ランキングを行うための評価値を記憶する。具体的には、クエリ・セグメント評価値計算テーブルは、図22に示すように、クエリ・セグメント番号と、検索の対象となる各部品の部品番号と、検索の対象となる各セグメントのセグメント番号と、評価値とを対応付けて記憶する。図22は、クエリ・セグメント評価値計算テーブルの一例を示す図である。   The query / segment evaluation value calculation table stores evaluation values for ranking by weighting the degree of similarity between each part of the 3D model of a part serving as a search key and each part to be searched. Specifically, as shown in FIG. 22, the query segment evaluation value calculation table includes a query segment number, a part number of each part to be searched, and a segment number of each segment to be searched. The evaluation values are stored in association with each other. FIG. 22 is a diagram illustrating an example of a query segment evaluation value calculation table.

部分文書情報記憶領域14dは、3Dモデルの部品の部分と文書情報とが関連付けられた部分・文書関連付けテーブルを記憶する。具体的には、部分文書情報記憶領域14dは、図23に示すように、文書番号と、部品番号と、セグメント番号とが対応付けられた部分・文書関連付けテーブルを記憶する。図23は、部分・文書関連付けテーブルの一例を示す図である。   The partial document information storage area 14d stores a part / document association table in which the part of the 3D model and the document information are associated with each other. Specifically, as shown in FIG. 23, the partial document information storage area 14d stores a partial / document association table in which document numbers, component numbers, and segment numbers are associated with each other. FIG. 23 is a diagram illustrating an example of a partial / document association table.

図2に戻って、制御部13は、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行する。制御部13は、3Dモデル分割部13a、3Dモデル特徴抽出部13b、文書画像抽出部13c、指示マーク抽出部13dを有する。また、制御部13は、エッジ抽出部13e、レンダリング部13f、形状特徴抽出部13g、画像対応抽出部13h、指示マーク部分対応抽出部13i、部分文書格納部13j、クエリ取得部13k、検索部13lを有する。   Returning to FIG. 2, the control unit 13 includes an internal memory for storing a program that defines various processing procedures and the necessary data, and executes various processes using these programs. The control unit 13 includes a 3D model dividing unit 13a, a 3D model feature extracting unit 13b, a document image extracting unit 13c, and an instruction mark extracting unit 13d. The control unit 13 includes an edge extraction unit 13e, a rendering unit 13f, a shape feature extraction unit 13g, an image correspondence extraction unit 13h, an instruction mark part correspondence extraction unit 13i, a partial document storage unit 13j, a query acquisition unit 13k, and a search unit 13l. Have

3Dモデル分割部13aは、部品の3Dモデルを部分に分割する。具体的には、3Dモデル分割部13aは、部品の3Dモデルを表現するポリゴンデータを既存のセグメンテーション方式で部分ごとに分割する。ポリゴンデータとは、点情報および面情報の組で表現されるものである。ポリゴンデータの点情報および面情報については、点情報テーブルおよび面情報テーブルに記憶されている(図7、図8参照)。   The 3D model dividing unit 13a divides the 3D model of the part into parts. Specifically, the 3D model dividing unit 13a divides polygon data representing a 3D model of a part for each part using an existing segmentation method. Polygon data is represented by a set of point information and surface information. The point information and the surface information of the polygon data are stored in the point information table and the surface information table (see FIGS. 7 and 8).

ここで、セグメンテーション方式について図24を用いて具体的に説明する。図24は、セグメンテーション手法の一例を説明する図である。図24に示すように、3Dモデル分割部13aは、3Dモデルの平面部分を検出し、3Dモデルの輪郭を抽出する。そして、3Dモデル分割部13aは、3Dモデルを分割可能な平面があれば、その平面で3Dモデルを分割し、各部分ごとにポリゴン化する。   Here, the segmentation method will be specifically described with reference to FIG. FIG. 24 is a diagram for explaining an example of the segmentation technique. As illustrated in FIG. 24, the 3D model dividing unit 13a detects a planar portion of the 3D model and extracts the outline of the 3D model. Then, if there is a plane that can divide the 3D model, the 3D model dividing unit 13a divides the 3D model with the plane, and polygonizes each part.

その後、3Dモデル分割部13aは、分割された部分ごとにセグメント番号を割り当て、セグメンテーション後の面番号とセグメンテーション前の面番号をセグメント情報テーブルに記憶させる。   Thereafter, the 3D model dividing unit 13a assigns a segment number to each divided part, and stores the segment number after segmentation and the segment number before segmentation in the segment information table.

3Dモデル特徴抽出部13bは、各部品のポリゴンデータから3次元の形状に関する特徴量を抽出する。例えば、3Dモデル特徴抽出部13bは、3次元の形状に関する特徴量として、3次元の形状の特徴量であるベクトル情報を抽出する。その後、3Dモデル特徴抽出部13bは、抽出された特徴量をセグメント情報テーブルに記憶させる。   The 3D model feature extraction unit 13b extracts a feature amount related to a three-dimensional shape from polygon data of each part. For example, the 3D model feature extraction unit 13b extracts vector information that is a feature amount of a three-dimensional shape as a feature amount related to the three-dimensional shape. Thereafter, the 3D model feature extraction unit 13b stores the extracted feature amount in the segment information table.

文書画像抽出部13cは、文書に関連付けられた部品の画像を抽出する。具体的には、文書画像抽出部13cは、文書情報を解析して、部品に関連付けられた文書情報から画像を抽出する。例えば、図25の例を用いて説明すると、指示マーク抽出部13dは、文書情報から画像情報を示す「image」を抽出する。図25は、HTMLファイル形式の文書の例を示す図である。   The document image extraction unit 13c extracts an image of a part associated with the document. Specifically, the document image extraction unit 13c analyzes the document information and extracts an image from the document information associated with the part. For example, referring to the example of FIG. 25, the instruction mark extraction unit 13d extracts “image” indicating image information from the document information. FIG. 25 is a diagram illustrating an example of a document in the HTML file format.

そして、文書画像抽出部13cは、画像情報を示す「image」を抽出すると、画像情報が位置するX座標「0」およびY座標「40」、画像サイズ(画像の幅および画像の高さ)、画像ファイル名を取得して、画像情報テーブルに記憶させる。なお、画像サイズは、画像ファイルのヘッダから取得できる。また、上述した例では、HTMLファイル形式の例で説明したが、他の形式の文書(PDF、PowerPoint、Word等)でも同様の処理を行う。   When the document image extraction unit 13c extracts “image” indicating the image information, the X coordinate “0” and the Y coordinate “40” where the image information is located, the image size (the width of the image and the height of the image), The image file name is acquired and stored in the image information table. The image size can be acquired from the header of the image file. In the above-described example, the HTML file format has been described. However, the same processing is performed for documents in other formats (PDF, PowerPoint, Word, etc.).

指示マーク抽出部13dは、抽出された画像の中から画像の一部分を特定する指示マークを抽出する。具体的には、指示マーク抽出部13dは、文書情報を解析して、部品に関連付けられた文書情報から指示マークを抽出する。例えば、図25の例を用いて説明すると、指示マーク抽出部13dは、図形を示す「oval」および「line」を抽出する。   The instruction mark extraction unit 13d extracts an instruction mark that specifies a part of the image from the extracted images. Specifically, the instruction mark extraction unit 13d analyzes the document information and extracts an instruction mark from the document information associated with the part. For example, referring to the example of FIG. 25, the instruction mark extraction unit 13d extracts “oval” and “line” indicating a graphic.

そして、指示マーク抽出部13dは、図形を示す「oval」および「line」を抽出すると、図形が位置するX座標およびY座標、図形のサイズ(図形の幅および図形の高さ)、図形形状を取得して、図形情報テーブルに記憶させる。   When the instruction mark extracting unit 13d extracts “oval” and “line” indicating the graphic, the X coordinate and the Y coordinate where the graphic is located, the graphic size (the graphic width and the graphic height), and the graphic shape are obtained. Acquired and stored in the graphic information table.

続いて、指示マーク抽出部13dは、図形情報テーブルを参照して、ドキュメント自体に図形情報が含まれていれば、そのうち、楕円や矢印の図形情報をすべて指示マーク候補とする。なお、ドキュメント自体に図形情報が含まれていない形式の場合でも、図形中に図形の一部として記述されていれば、ハフ(Hough)変換などの手法で抽出することができる。   Subsequently, the instruction mark extraction unit 13d refers to the graphic information table, and if graphic information is included in the document itself, all of the graphic information such as an ellipse and an arrow are used as instruction mark candidates. Even if the document itself does not include graphic information, it can be extracted by a technique such as Hough conversion if it is described as a part of the graphic in the graphic.

ここで、指示マーク抽出部13dは、指示マークの形状と位置に基づいて、指示マーク候補が正しい指示マークかどうか判定する。具体的には、指示マーク抽出部13dは、指示マーク候補の図形形状が楕円の場合には、図26に示すように、画像の位置に重なる位置に指示マークの図形の位置があるか判定する。図26は、指示マークの一例を示す図である。   Here, the instruction mark extraction unit 13d determines whether the instruction mark candidate is a correct instruction mark based on the shape and position of the instruction mark. Specifically, when the graphic shape of the instruction mark candidate is an ellipse, the instruction mark extraction unit 13d determines whether the position of the graphic of the instruction mark is at a position overlapping the image position as illustrated in FIG. . FIG. 26 is a diagram illustrating an example of an instruction mark.

この判定では、図形情報テーブルと画像情報テーブルの座標位置から容易に行うことができる。以下の説明では、指示マーク候補の位置と幅、高さが「shape_x,shape_y,shape_width,shape_height」、画像の位置と幅、高さが「image_x,image_y,image_width,image_height」で表される場合に、以下の(1)〜(4)式が真の場合を指示マークと判定する。   This determination can be easily made from the coordinate positions of the graphic information table and the image information table. In the following explanation, the position, width, and height of the instruction mark candidate are represented by “shape_x, shape_y, shape_width, shape_height”, and the position, width, and height of the image are represented by “image_x, image_y, image_width, image_height”. When the following expressions (1) to (4) are true, the instruction mark is determined.

Figure 2011048791
Figure 2011048791

Figure 2011048791
Figure 2011048791

Figure 2011048791
Figure 2011048791

Figure 2011048791
Figure 2011048791

ここでは、図形が画像位置を多少はみ出ることを想定したoffset値(offset_x、offset_y)を指定している。この値は固定でもよいし、画像サイズに対する相対値でもよい。また、指示マーク候補の図形形状が矢印の場合は、図26に示すように、矢印の先端が画像に重なっていることを判定する。以下の(5)〜(8)式が真の場合を指示マークとする。ここでは、矢印の先端(終端)を「shape_x,shape_y」とする。(図形情報テーブルから求める場合は、「shape_x」=[x座標]+[幅],「shape_y」=[y座標]+[高さ]となる。ここでは、楕円の場合と同じoffset値(offset_x、offset_y)を指定している。   Here, an offset value (offset_x, offset_y) is specified on the assumption that the figure slightly protrudes from the image position. This value may be fixed or a relative value with respect to the image size. When the graphic shape of the instruction mark candidate is an arrow, it is determined that the tip of the arrow overlaps the image as shown in FIG. When the following formulas (5) to (8) are true, the indication mark is used. Here, the tip (end) of the arrow is “shape_x, shape_y”. (When obtaining from the graphic information table, “shape_x” = [x coordinate] + [width], “shape_y” = [y coordinate] + [height]. Here, the same offset value (offset_x as in the case of an ellipse) , Offset_y).

Figure 2011048791
Figure 2011048791

Figure 2011048791
Figure 2011048791

Figure 2011048791
Figure 2011048791

Figure 2011048791
Figure 2011048791

その後、指示マーク抽出部13dは、図27に示すように、抽出された指示マークの情報を記憶する。図27は、指示マーク情報の一例を示す図である。そして、指示マーク抽出部13dは、図28に示すように、指示マークと画像を関連付けて保存する。図28は、指示マークつきの画像情報の一例を示す図である。指示マークには、重複しない番号である指示マーク番号が割り振られる。また、指示マークつきの画像情報に関しても、重複しない番号である画像番号が割り振られる。   Thereafter, as shown in FIG. 27, the instruction mark extraction unit 13d stores information on the extracted instruction mark. FIG. 27 is a diagram illustrating an example of instruction mark information. Then, the instruction mark extraction unit 13d stores the instruction mark and the image in association with each other as illustrated in FIG. FIG. 28 is a diagram illustrating an example of image information with an instruction mark. An instruction mark number that is a number that does not overlap is assigned to the instruction mark. Also, image numbers that are non-overlapping numbers are assigned to image information with instruction marks.

図2の説明に戻って、エッジ抽出部13e、レンダリング部13f、形状特徴抽出部13g、画像対応抽出部13hは、文書情報における画像と3Dモデルとの位置合わせを行うために各種処理を行う。ここでいう画像とは、指示マーク付きの画像情報に保存されているものであり、画像と部品の3Dモデルの対応は、部品テーブルおよび部品・文書関連付けテーブルから取得することができる。   Returning to the description of FIG. 2, the edge extraction unit 13 e, the rendering unit 13 f, the shape feature extraction unit 13 g, and the image correspondence extraction unit 13 h perform various processes in order to align the image and the 3D model in the document information. The image here is stored in image information with an instruction mark, and the correspondence between the image and the 3D model of the component can be acquired from the component table and the component / document association table.

画像形式は、Width×Heightの二次元配列になる。配列の各要素は、図29に示すように、通常R,G,Bの3つの要素を持つが、エッジ等の場合には、モノクロを対象とすることが多いため、図30に示すように、輝度値(I)の値ひとつを持つ場合でもかまわない。これらの画素情報は、画素情報テーブルにおいて画像番号と関連付けられて記憶されている。図29は、カラー画像の画素の配列形式を示す図である。図30は、モノクロ画像の画素の配列形式を示す図である。   The image format is a two-dimensional array of Width × Height. Each element of the array normally has three elements R, G, and B as shown in FIG. 29. However, in the case of an edge or the like, since it is often targeted for monochrome, as shown in FIG. The brightness value (I) may be one. These pieces of pixel information are stored in association with image numbers in the pixel information table. FIG. 29 is a diagram illustrating an arrangement format of pixels of a color image. FIG. 30 is a diagram illustrating a pixel arrangement format of a monochrome image.

また、エッジ抽出部13eは、レンダリング画像と画像の大きさをそろえて精度を向上させるため、あらかじめ画像から既存手法である背景除去などの手法を用いて物体部分を抽出する。そして、レンダリング部13fは、物体部分の大きさを求め、それに合わせてトリミングを行い、3Dモデルをそれに合わせてレンダリングする方法を行ってもよい。   In addition, the edge extraction unit 13e extracts an object part from an image in advance using an existing method such as background removal in order to improve the accuracy by aligning the size of the rendered image and the image. Then, the rendering unit 13f may obtain a size of the object part, perform trimming in accordance with the size, and perform a method of rendering the 3D model in accordance with the trimming.

画像の背景除去は、画像が淡色の背景などの場合に、画像の端に接する画素からその周りの画素の色を調べ、同一色部分である(または多少の誤差を許容して類似した色部分)場合のみ、そこを背景として判定し、背景として判定された範囲からさらにその周りの同一色部分を判定する動作を繰り返すことで行うことができる。   In the background removal of an image, when the image is a light background or the like, the color of the surrounding pixels is checked from the pixels in contact with the edge of the image, and the same color portion (or a similar color portion with some error allowed) ) Only when it is determined as a background and the same color portion around it is further determined from the range determined as the background.

これにより、画像に映っている物体の周りの同一色部分が抽出できるため、それ以外の範囲を囲む最小の四角形を抽出することで、画像に映っている物体の外接の四角形を抽出でき、その範囲だけの画像情報を生成する。後述する3Dモデルのレンダリング画像に関しても、レンダリング後に同様に物体の外接の四角形を抽出する。この二つの画像間で特徴量を抽出し、類似度計算を行うことで、精度が向上できる。   As a result, the same color portion around the object shown in the image can be extracted, so by extracting the smallest rectangle surrounding the other range, the circumscribed rectangle of the object shown in the image can be extracted. Image information for only the range is generated. Also for a rendering image of a 3D model to be described later, a rectangle that circumscribes the object is similarly extracted after rendering. The accuracy can be improved by extracting the feature amount between the two images and calculating the similarity.

上記したように、エッジ抽出部13e、レンダリング部13f、形状特徴抽出部13g、画像対応抽出部13hは、文書情報における画像と3Dモデルとの位置合わせを行うために各種処理を行う。ここで、エッジ抽出部13e、レンダリング部13f、形状特徴抽出部13g、画像対応抽出部13hについて、文書情報における画像と3Dモデルとの位置合わせ処理の全体の流れを図31を用いて説明する。図31は、文書情報における画像と3Dモデルとの位置合わせを行う処理を説明する図である。   As described above, the edge extraction unit 13e, the rendering unit 13f, the shape feature extraction unit 13g, and the image correspondence extraction unit 13h perform various processes in order to align the image and the 3D model in the document information. Here, with reference to FIG. 31, the overall flow of the alignment processing between the image in the document information and the 3D model for the edge extraction unit 13e, the rendering unit 13f, the shape feature extraction unit 13g, and the image correspondence extraction unit 13h will be described. FIG. 31 is a diagram illustrating processing for aligning an image and 3D model in document information.

図31に示すように、エッジ抽出部13eは、文書中の画像からエッジを抽出し、文書中の画像の形状特徴量を抽出する。また、レンダリング部13fは、3Dモデルの視点位置の設定を行い、設定した各視点位置から見たエッジレンダリング画像を生成する。そして、形状特徴抽出部13gは、各エッジレンダリング画像の形状特徴量をそれぞれ抽出する。   As shown in FIG. 31, the edge extraction unit 13e extracts edges from an image in a document, and extracts a shape feature amount of the image in the document. In addition, the rendering unit 13f sets the viewpoint position of the 3D model and generates an edge rendering image viewed from each set viewpoint position. Then, the shape feature extraction unit 13g extracts the shape feature amount of each edge rendering image.

そして、画像対応抽出部13hは、文書中の画像の形状特徴量と各エッジレンダリング画像の形状特徴量の類似度をそれぞれ算出し、一番類似度が高い視点位置を選択する。以下では、エッジ抽出部13e、レンダリング部13f、形状特徴抽出部13g、画像対応抽出部13hの各処理について詳しく説明する。   Then, the image correspondence extracting unit 13h calculates the similarity between the shape feature amount of the image in the document and the shape feature amount of each edge rendering image, and selects the viewpoint position with the highest similarity. Hereinafter, each process of the edge extraction unit 13e, the rendering unit 13f, the shape feature extraction unit 13g, and the image correspondence extraction unit 13h will be described in detail.

エッジ抽出部13eは、文書中の画像からエッジを抽出し、文書中の画像の形状特徴量を抽出する。具体的には、エッジ抽出部13eは、エッジ特徴抽出方法として、エッジ抽出オペレータを利用して、エッジ用の形状特徴量抽出手法用いる方法、または、ウェーブレット変換などのように、直接形状特徴量を抽出する方法などを利用する。ウェーブレット変換を利用する方法では、画像をウェーブレット変換することで、画像の各位置での周波数的な変化量を抽出し、それを特徴量とする。   The edge extraction unit 13e extracts an edge from an image in the document and extracts a shape feature amount of the image in the document. Specifically, the edge extraction unit 13e uses an edge extraction operator as an edge feature extraction method, directly using a shape feature amount extraction method for edges, or directly using a shape feature amount, such as wavelet transform. Use the extraction method. In a method using wavelet transform, an image is subjected to wavelet transform, and a frequency variation at each position of the image is extracted and used as a feature amount.

エッジ抽出オペレータを利用する方法では、エッジの抽出方法としてラプラシアン行列を用いられる。この手法では、ラプラシアン行列と呼ばれる3x3の行列を各画素に畳み込み演算することで、各画素におけるエッジ量を抽出する。エッジ量は画像サイズと同じ縦横サイズの整数または実数の2次元配列として表現することができる。   In a method using an edge extraction operator, a Laplacian matrix is used as an edge extraction method. In this technique, a 3 × 3 matrix called a Laplacian matrix is convolved with each pixel to extract an edge amount at each pixel. The edge amount can be expressed as a two-dimensional array of integers or real numbers having the same vertical and horizontal sizes as the image size.

画素列が並んでいる様子を2次元行列としてみた場合に、その値p(x,y)があり、畳み込み行列がq(x,y )とした場合に、変換後の行列p‘(x, y)が以下の(9)式で表される。また、ラプラシアン行列としては、以下の(10)式の行列が用いられる。エッジ抽出結果は、図32に示すように画像と同じサイズの二次元配列となる。図32は、エッジ抽出結果を説明するための図である。   When the state in which the pixel columns are arranged is viewed as a two-dimensional matrix, the value p (x, y) is present, and when the convolution matrix is q (x, y), the transformed matrix p ′ (x, y y) is expressed by the following equation (9). Further, as the Laplacian matrix, the following matrix (10) is used. The edge extraction result is a two-dimensional array having the same size as the image as shown in FIG. FIG. 32 is a diagram for explaining the edge extraction result.

Figure 2011048791
Figure 2011048791

Figure 2011048791
Figure 2011048791

エッジ抽出部13eは、エッジ抽出結果に対する特徴抽出手法として、Grid Fourierなどの手法を利用して、エッジ特徴量を抽出する。この手法では、画像を格子状に区切ったグリッドごとにエッジ量のヒストグラムを抽出し、この2次元フーリエ変換を行った結果を特徴量とする方法である。これにより二次元的な回転に不変な特徴量とすることができる。抽出された特徴量の結果は、一次元の固定長のベクトル値となる。   The edge extraction unit 13e extracts an edge feature amount by using a method such as Grid Fourier as a feature extraction method for the edge extraction result. In this method, a histogram of edge amounts is extracted for each grid obtained by dividing an image into a grid, and the result of performing the two-dimensional Fourier transform is used as a feature amount. This makes it possible to obtain a feature quantity that is invariant to two-dimensional rotation. The result of the extracted feature value is a one-dimensional fixed-length vector value.

エッジ抽出部13eは、特徴量の結果として、一次元の固定長のベクトル値を抽出する。そして、エッジ抽出部13eは、抽出された特徴量の結果について、指示マーク付きの画像情報に保存されている画像毎に抽出し、画像特徴量テーブルに保存する。   The edge extraction unit 13e extracts a one-dimensional fixed length vector value as a result of the feature amount. Then, the edge extraction unit 13e extracts the result of the extracted feature amount for each image stored in the image information with the instruction mark, and stores it in the image feature amount table.

レンダリング部13fは、3Dモデルをレンダリングするための視点位置の設定を行う。例えば、エッジ抽出部13eは、視点位置として、3Dモデルをまわりから見るためのカメラの位置と向きを設定する。   The rendering unit 13f sets the viewpoint position for rendering the 3D model. For example, the edge extraction unit 13e sets the position and orientation of the camera for viewing the 3D model from around as the viewpoint position.

ここで、上記のカメラ位置と向きの決定は以下の方法で行うことができる。ここで、3Dモデルの中心位置を(0,0,0)とし、カメラがその周りを回る場合には、カメラの位置c、向きf、上方ベクトルuは、回転角をθとγとし、距離をdとした場合に、以下の(11)式および(12)式で表される。   Here, the determination of the camera position and orientation can be performed by the following method. Here, when the center position of the 3D model is (0, 0, 0) and the camera rotates around it, the camera position c, orientation f, and upper vector u are rotation angles θ and γ, distance Is represented by the following formulas (11) and (12).

Figure 2011048791
Figure 2011048791

Figure 2011048791
Figure 2011048791

ここで、レンダリング部13fは、回転角θとγを適当な間隔で設定し、等間隔の2重ループで指定して視点位置情報テーブルに設定する。図15の例では、30度間隔で指定している。この各角度において、画像情報や特徴量情報を視点位置情報テーブルに記憶させる。   Here, the rendering unit 13f sets the rotation angles θ and γ at appropriate intervals, designates them in a double loop with equal intervals, and sets them in the viewpoint position information table. In the example of FIG. 15, it designates at intervals of 30 degrees. At each angle, image information and feature amount information are stored in the viewpoint position information table.

そして、レンダリング部13fは、設定した視点位置から見たレンダリング画像を生成する。ここで、レンダリング画像の生成処理手法の例について説明する。3Dモデル上の各点が画面上に投影されるとき、カメラの位置をcとし、カメラの向きをfとし、カメラの上方ベクトルをuとした場合に、3Dモデル上の点pは、以下の(13)式、(14)式で表される画面上の点p2に投影される。   Then, the rendering unit 13f generates a rendering image viewed from the set viewpoint position. Here, an example of a rendering image generation processing method will be described. When each point on the 3D model is projected on the screen, when the camera position is c, the camera orientation is f, and the camera upper vector is u, the point p on the 3D model is Projected to the point p2 on the screen represented by the equations (13) and (14).

Figure 2011048791
Figure 2011048791

Figure 2011048791
Figure 2011048791

レンダリング部13fは、ポリゴン上の各面をポリゴンの点を線形補間した位置に描画する。これにより、各ポリゴンを2次元の平面にマッピングした画像を生成することができる。また、レンダリング部13fは、p2の位置が重なる場合は、zの値が小さいもの(手前にあるもの)を優先して描画する。また、レンダリング部13fは、エッジのみをレンダリングするには、鋭角、または輪郭のエッジのみをレンダリングするようにすればよい。   The rendering unit 13f draws each surface on the polygon at a position obtained by linearly interpolating the polygon points. Thereby, an image in which each polygon is mapped on a two-dimensional plane can be generated. In addition, when the positions of p2 overlap, the rendering unit 13f preferentially draws the one having a small z value (the one in front). Further, in order to render only the edge, the rendering unit 13f may render only an acute angle or a contour edge.

ここで、二つの面のなす角度は、法線ベクトルの内積を求めることで得ることができる。(a・b=│a││b│cosθ)輪郭であるというのは、片方の面がカメラ方向を向き、片方の面がカメラ方向を向いていないことから求められる。カメラ方向を向いている面の法線ベクトルをa、向いていない法線ベクトルをbとした場合に、「f・a<0」、「f・a>0」の条件が満たされる線が輪郭に相当する。   Here, the angle formed by the two surfaces can be obtained by calculating the inner product of the normal vectors. The (a · b = | a || b | cos θ) contour is obtained because one surface faces the camera direction, and one surface does not face the camera direction. When the normal vector of the surface facing the camera direction is a and the normal vector not facing is b, the line that satisfies the conditions of “f · a <0” and “f · a> 0” is outlined. It corresponds to.

レンダリング部13fは、各ピクセルが、3Dモデルのどの位置に相当するかという情報を保持する。例えば、レンダリング部13fは、画像の画素数分だけある二次元配列を用意し、上記計算で行った画素に対応するポリゴンの面番号(セグメンテーション前の面番号)を面番号情報として、視点位置情報テーブルに保存しておく。   The rendering unit 13f holds information indicating which position in the 3D model each pixel corresponds to. For example, the rendering unit 13f prepares a two-dimensional array corresponding to the number of pixels of the image, and uses the surface number of the polygon corresponding to the pixel calculated in the above calculation (surface number before segmentation) as the surface number information, Save it in a table.

図33の例では、面番号0に対応するピクセルと、面番号1に対応するピクセル、どの面にも対応しないピクセル(−1のピクセル)に設定されている。図33は、面番号情報の一例を示す図である。この配列は、各要素を最初にどの面にも対応しないピクセル(−1)として初期化し、描画時の計算で、面を次元座標に変換したときの座標位置を対応する面番号に置き換えることで作成する。ここでは面番号を設定したが、セグメント情報テーブルを用いてセグメント番号を設定してもよい。   In the example of FIG. 33, the pixel corresponding to surface number 0, the pixel corresponding to surface number 1, and the pixel not corresponding to any surface (-1 pixel) are set. FIG. 33 is a diagram illustrating an example of the surface number information. This array is obtained by initializing each element as a pixel (-1) that does not correspond to any surface first, and by replacing the coordinate position when the surface is converted into dimensional coordinates with the corresponding surface number in the calculation at the time of drawing. create. Although the surface number is set here, the segment number may be set using a segment information table.

形状特徴抽出部13gは、各エッジレンダリング画像の形状特徴量をそれぞれ抽出する。具体的には、形状特徴抽出部13gは、上述した処理と同様に、エッジ抽出結果に対する特徴抽出手法として、Grid Fourierなどの手法を利用して、エッジ特徴量を抽出することができる。通常のレンダリング画像として生成した場合は、ウェーブレット変換特徴量などが使用できる。エッジのみをレンダリングした場合は、Grid Fourierなどのエッジ特徴量などが使用できる。抽出結果はベクトルになるので、その結果を視点位置情報テーブルに保存する。   The shape feature extraction unit 13g extracts the shape feature amount of each edge rendering image. Specifically, the shape feature extraction unit 13g can extract an edge feature amount by using a method such as Grid Fourier as a feature extraction method for the edge extraction result, similarly to the above-described processing. When the image is generated as a normal rendering image, a wavelet transform feature amount or the like can be used. When only the edge is rendered, an edge feature amount such as Grid Fourier can be used. Since the extraction result is a vector, the result is stored in the viewpoint position information table.

画像対応抽出部13hは、文書中の画像の形状特徴量と各エッジレンダリング画像の形状特徴量の類似度をそれぞれ算出し、一番類似度が高い視点位置を選択する。具体的には、画像対応抽出部13hは、文書中の画像の形状特徴量のベクトルと各エッジレンダリング画像の形状特徴量のベクトルとの間のユークリッド距離を計算する。つまり、形状特徴量は、ベクトルとして表現でき、同じ次元数のベクトル間の距離の距離はユークリッド距離で計算することができる。特徴量ベクトルf(i)とg(i)として、その次元数をmとしたとき、そのユークリッド距離は、以下の(15)式で計算できる。   The image correspondence extracting unit 13h calculates the similarity between the shape feature amount of the image in the document and the shape feature amount of each edge rendering image, and selects the viewpoint position with the highest similarity. Specifically, the image correspondence extracting unit 13h calculates the Euclidean distance between the shape feature amount vector of the image in the document and the shape feature amount vector of each edge rendering image. That is, the shape feature amount can be expressed as a vector, and the distance between the vectors having the same dimensionality can be calculated by the Euclidean distance. Assuming that feature vectors f (i) and g (i) are m, the Euclidean distance can be calculated by the following equation (15).

Figure 2011048791
Figure 2011048791

つまり、画像対応抽出部13hは、特徴間の距離が小さいほど、類似度が大きいと判定する。視点位置情報テーブルの情報をもとに、形状特徴抽出部13gによって抽出されたた各回転角に相当する画像特徴量と、エッジ抽出部13eで抽出された画像特徴量の類似度を(15)式で計算し、値が一番小さいものの視点位置情報テーブルのフィールドを一つ抽出する。これにより、画像対応抽出部13hは、対応する画像情報と面番号情報を取得できる。例えば、画像対応抽出部13hは、図16に例示する類似度計算テーブルの例では、最も類似度の値が小さい回転角θ=0、回転角γ=60のフィールドを選択する。   That is, the image correspondence extraction unit 13h determines that the similarity is higher as the distance between the features is smaller. Based on the information in the viewpoint position information table, the similarity between the image feature amount corresponding to each rotation angle extracted by the shape feature extraction unit 13g and the image feature amount extracted by the edge extraction unit 13e is expressed by (15). Calculate with the formula and extract one field of the viewpoint position information table with the smallest value. Thereby, the image correspondence extraction unit 13h can acquire corresponding image information and face number information. For example, in the example of the similarity calculation table illustrated in FIG. 16, the image correspondence extraction unit 13 h selects a field with the rotation angle θ = 0 and the rotation angle γ = 60 having the smallest similarity value.

指示マーク部分対応抽出部13iは、記号が特定する画像の部分に対応する3Dモデルの部分を選択する。具体的には、指示マーク部分対応抽出部13iは、図34に示すように、セグメンテーション済みの3Dモデルについて、各部分における指示マーク範囲内の面積を抽出し、部品面積中の範囲内の面積の割合を算出する。そして、指示マーク部分対応抽出部13iは、一番割合の高い部分を選択する。図34は、指示マークの位置に対応する3Dモデルの部分を選択する処理を説明する図である。   The instruction mark part correspondence extracting unit 13i selects a part of the 3D model corresponding to the part of the image specified by the symbol. Specifically, as shown in FIG. 34, the instruction mark part correspondence extraction unit 13i extracts the area within the instruction mark range in each part of the segmented 3D model, and calculates the area within the part area. Calculate the percentage. Then, the instruction mark part correspondence extracting unit 13i selects the part with the highest ratio. FIG. 34 is a diagram illustrating processing for selecting a portion of the 3D model corresponding to the position of the instruction mark.

例えば、指示マーク部分対応抽出部13iは、図34の例では、各部分を示す場所1〜5のうち、指示マーク範囲内に全面積「9」が含まれており、部品面積中の範囲内の面積の割合が「100%」で最も高い場所「1」の部分を選択する。   For example, in the example of FIG. 34, the instruction mark part correspondence extracting unit 13i includes the entire area “9” within the instruction mark range among the places 1 to 5 indicating each part, and is within the range in the component area. The portion of the place “1” having the highest area ratio of “100%” is selected.

ここで、記号が特定する画像の部分に対応する3Dモデルの部分を選択する処理について詳しく説明する。指示マーク部分対応抽出部13iは、指示マーク抽出部13dによって記憶された指示マーク情報から指示マークの種別と位置座標を取得し、画像対応抽出部13hによって選択された視点(回転角)の画像に対し、指示マークの範囲内かどうかの判定を行う。   Here, the process of selecting the part of the 3D model corresponding to the part of the image specified by the symbol will be described in detail. The instruction mark part correspondence extraction unit 13i acquires the type and position coordinates of the instruction mark from the instruction mark information stored by the instruction mark extraction unit 13d, and converts the instruction mark part correspondence extraction unit 13i into the image of the viewpoint (rotation angle) selected by the image correspondence extraction unit 13h. On the other hand, it is determined whether it is within the range of the instruction mark.

ここで、指示マークの種別が楕円の場合には、指示マークに対応する画像範囲が楕円の範囲内であると判定することができる。例えば、楕円の中心が(cx,cy)、x軸方向の半径、y軸方向の半径がa,bである場合には、(x,y)座標が範囲かどうかの判定は以下の(16)式で行うことができる。   Here, when the type of the instruction mark is an ellipse, it can be determined that the image range corresponding to the instruction mark is within the range of the ellipse. For example, when the center of the ellipse is (cx, cy), the radius in the x-axis direction, and the radius in the y-axis direction are a and b, it is determined whether the (x, y) coordinates are in the range (16 ).

Figure 2011048791
Figure 2011048791

また、指示マークの種別が矢印の場合には、矢印の先の空間を指示マークに対応する画像範囲とすることができる。空間としては円形として、その半径が固定でもよいし、矢印の長さによって変えてもよい。例えば、矢印の先端を(x1,y1)根元を(x2,y2)とした場合には、円の中心座標(cx,cy)、円の半径(r)は以下の(17)〜(19)式で行うことができる。そして、この場合の(x,y)座標が範囲かどうかの判定は以下の(20)式で行うことができる。   When the type of the instruction mark is an arrow, the space ahead of the arrow can be set as an image range corresponding to the instruction mark. The space may be circular, and its radius may be fixed, or may vary depending on the length of the arrow. For example, if the tip of the arrow is (x1, y1) and the root is (x2, y2), the center coordinates (cx, cy) of the circle and the radius (r) of the circle are the following (17) to (19) It can be done with a formula. In this case, whether or not the (x, y) coordinates are in the range can be determined by the following equation (20).

Figure 2011048791
Figure 2011048791

Figure 2011048791
Figure 2011048791

Figure 2011048791
Figure 2011048791

Figure 2011048791
Figure 2011048791

上述した判定の結果、指示マーク部分対応抽出部13iは、図35に示すように、指示マークの範囲内の画素に関する情報である指示マーク範囲画素情報を記憶する。図35に示すように、指示マーク部分対応抽出部13iは、指示マーク範囲画素情報として、指示マーク番号、指示マークに含まれる画素のX座標およびY座標、面番号、部品番号、セグメント番号をそれぞれ記憶する。図35は、指示マーク範囲画素情報の一例を示す図である。   As a result of the determination described above, the instruction mark part correspondence extraction unit 13i stores instruction mark range pixel information that is information regarding pixels within the range of the instruction mark, as illustrated in FIG. As shown in FIG. 35, the instruction mark part correspondence extracting unit 13i includes, as instruction mark range pixel information, an instruction mark number, an X coordinate and a Y coordinate of a pixel included in the instruction mark, a surface number, a part number, and a segment number, respectively. Remember. FIG. 35 is a diagram illustrating an example of instruction mark range pixel information.

ここで、指示マーク部分対応抽出部13iは、レンダリング部13fによって各画素に対応する面番号の配列(図33に例示する面番号情報)が取得されているので、面番号情報を参照して、画素に対応する面番号を取得できる。面番号情報では、対応する面番号が無い場合に−1をセットしているので、値をチェックし、面番号が−1以外の場合には、セグメント情報テーブル(図9参照)で面番号に対応するセグメント番号を取得する。なお、レンダリング部13fが各画素に対応するセグメント番号を設定する場合には、指示マーク部分対応抽出部13iは、直接セグメント番号を取得することができる。   Here, since the instruction mark portion correspondence extracting unit 13i has obtained an array of surface numbers corresponding to each pixel (surface number information illustrated in FIG. 33) by the rendering unit 13f, refer to the surface number information. The surface number corresponding to the pixel can be acquired. In the surface number information, since -1 is set when there is no corresponding surface number, the value is checked. If the surface number is other than -1, the surface number is set in the segment information table (see FIG. 9). Get the corresponding segment number. When the rendering unit 13f sets a segment number corresponding to each pixel, the instruction mark part correspondence extracting unit 13i can directly acquire the segment number.

続いて、指示マーク部分対応抽出部13iは、画素に対応する部分の面積を加算する。ここでいう面積とは、各セグメント番号の部分における指示マークに対応する画像範囲に対応する画素数である。また、指示マーク部分対応抽出部13iは、各画素に対応するセグメント番号がわかるため、各セグメント番号に対応する指示マークに対応する画素の個数を取得することができる。また、指示マーク部分対応抽出部13iは、全画素数に関しては、画素情報(図29、図30参照)を参照して、各セグメントに関する画素数を換算することで求める。   Subsequently, the instruction mark part correspondence extracting unit 13i adds the areas of the parts corresponding to the pixels. The area referred to here is the number of pixels corresponding to the image range corresponding to the indication mark in each segment number portion. In addition, since the instruction mark part correspondence extracting unit 13i knows the segment number corresponding to each pixel, it can acquire the number of pixels corresponding to the instruction mark corresponding to each segment number. Further, the instruction mark portion corresponding extraction unit 13i obtains the total number of pixels by referring to pixel information (see FIGS. 29 and 30) and converting the number of pixels related to each segment.

そして、指示マーク部分対応抽出部13iは、図36に示すように、指示マークに含まれる部分(セグメント)ごとに、指示マークに含まれる画素数、部分の全画素数、全画素数に対する指示マークに含まれる画素数の割合を記憶する。図36は、画素ヒストグラム情報の一例を示す図である。具体的には、指示マーク部分対応抽出部13iは、指示マーク番号、部品番号、指示マークに含まれる部分のセグメント番号、指示マークに含まれる画素数、部分の全画素数、全画素数に対する指示マークに含まれる画素数の割合をそれぞれ対応付けて記憶する。   Then, as shown in FIG. 36, the instruction mark part correspondence extracting unit 13i, for each part (segment) included in the instruction mark, indicates the number of pixels included in the instruction mark, the total number of pixels of the part, and the instruction mark for the total number of pixels. The ratio of the number of pixels included in is stored. FIG. 36 is a diagram illustrating an example of pixel histogram information. Specifically, the instruction mark part correspondence extracting unit 13i instructs the instruction mark number, the part number, the segment number of the part included in the instruction mark, the number of pixels included in the instruction mark, the total number of pixels in the part, and the total number of pixels. The ratio of the number of pixels included in the mark is stored in association with each other.

そして、指示マーク部分対応抽出部13iは、全画素数に対する指示マークに含まれる画素数の割合が最も高いセグメント番号の部分を選択する。なお、画素数が最も高いセグメント番号の部分を選択してもよい。   Then, the instruction mark part corresponding extraction unit 13i selects a part of the segment number having the highest ratio of the number of pixels included in the instruction mark to the total number of pixels. Note that the segment number having the highest number of pixels may be selected.

部分文書格納部13jは、選択された3Dモデルの部分と部品の画像に関連付けられた文書とを対応付けて部分文書情報記憶領域14dに格納する。具体的には、部分文書格納部13jは、指示マーク番号に対応する文書番号と、文書番号に対応する部分番号と、指示マーク部分対応抽出部13iによって選択された3Dモデルの部分とを対応付けて部分・文書関連付けテーブル(図23参照)に記憶する。   The partial document storage unit 13j associates the selected 3D model portion with the document associated with the part image, and stores them in the partial document information storage area 14d. Specifically, the partial document storage unit 13j associates the document number corresponding to the instruction mark number, the partial number corresponding to the document number, and the part of the 3D model selected by the instruction mark part correspondence extracting unit 13i. And stored in the part / document association table (see FIG. 23).

このように、情報提供装置10は、図37に示すように、障害情報などの文書情報中の画像に赤丸などで一部分が指定されている場合には、指定されている部分と3Dモデルのマッチングを行い、向きや位置を推定する。そして、情報提供装置10は、対応する部分だけを文書情報に紐付けてテーブルに記憶する。このため、利用者が明示的にデータベースに登録することなく、部品の部分と関連する文書情報を自動的に検索することができる。図37は、文書中の画像と3Dモデルの部分とをマッチングする処理を説明する図である。   Thus, as shown in FIG. 37, the information providing apparatus 10 matches the specified portion with the 3D model when a portion is specified by a red circle or the like in the image in the document information such as the failure information. To estimate the orientation and position. Then, the information providing apparatus 10 associates only the corresponding part with the document information and stores it in the table. For this reason, the user can automatically search for document information related to the part portion without explicitly registering it in the database. FIG. 37 is a diagram illustrating processing for matching an image in a document with a 3D model portion.

図2の説明に戻って、クエリ取得部13kは、設計中の部品から部分を抽出して部分の特徴量を算出する。具体的には、クエリ取得部13kは、CADを用いて部品の設計中に、検索のキーとなる部品の3Dモデルを取得する。なお、クエリ取得部13kは、CADで部品を一つだけ編集している場合には、その部品の3Dモデルを取得し、複数の部品を編集している場合には、現在選択している部品の3Dモデルを取得する。   Returning to the description of FIG. 2, the query acquisition unit 13k extracts a part from the part under design and calculates a feature amount of the part. Specifically, the query acquisition unit 13k acquires a 3D model of a component that is a search key during the design of the component using CAD. The query acquisition unit 13k acquires the 3D model of the part when only one part is edited with CAD, and the currently selected part when editing a plurality of parts. The 3D model is acquired.

クエリ取得部13kは、この部品について、クエリ点情報テーブル(図18参照)およびクエリ・面情報テーブル(図19参照)から点情報および面情報を取得する。そして、クエリ取得部13kは、設計中の部品から部分を抽出し、その部分特徴量を抽出する。ここで、設計中の部品から部分を抽出するには、前述したセグメンテーション手法が利用できる。また、同様に、部分特徴量の抽出では、前述した特徴抽出手法が利用できる。ここでは、各部分に対して重複しない番号であるクエリ・セグメント番号を付加し、クエリのすべてのセグメントに対して特徴量を抽出してクエリ・セグメント情報テーブル(図20参照)に記憶させる。   The query acquisition unit 13k acquires point information and surface information for the component from the query point information table (see FIG. 18) and the query / surface information table (see FIG. 19). And the query acquisition part 13k extracts a part from the components in design, and extracts the partial feature-value. Here, in order to extract a part from a part under design, the above-described segmentation technique can be used. Similarly, the feature extraction method described above can be used to extract the partial feature amount. Here, a query segment number that is a non-overlapping number is added to each part, and feature quantities are extracted from all segments of the query and stored in the query segment information table (see FIG. 20).

検索部13lは、3Dモデルの部品の部分の特徴量を取得して設計中の3Dモデルとの類似度を算出し、ランキングの評価値を算出し、設計中の3Dモデルの部分に関連する文書情報を検索して表示する。   The search unit 13l acquires the feature amount of the part of the 3D model, calculates the similarity with the 3D model under design, calculates the evaluation value of the ranking, and documents related to the part of the 3D model under design Search and display information.

具体的には、検索部13lは、検索対象となるセグメントと、設計中の3Dモデルの全セグメントとの間で類似度計算を行ってクエリ・セグメント類似度計算テーブルに類似度を記憶させる。検索部13lは、対象となるセグメントが前述のようにすべてのセグメントでもよく、ユーザが意図している部分のみに限定することも可能である。類似度の計算は、上述したベクトル間の距離を計算する手法を利用できる。計算された類似度(距離)の値が小さい方がより類似しているものとする。   Specifically, the search unit 13l performs similarity calculation between the search target segment and all segments of the 3D model under design, and stores the similarity in the query / segment similarity calculation table. As described above, the search unit 13l may be all segments as described above, and may be limited to only a portion intended by the user. For the calculation of the similarity, the above-described method for calculating the distance between vectors can be used. It is assumed that a smaller similarity (distance) value is more similar.

そして、検索部13lは、類似度計算した結果について、あらかじめ与えられた閾値以上の類似度(閾値以下の距離)の特徴量を持つ部分を検索する。例えば、検索部13lは、類似度が0.2以下の特徴量を持つ部分を検索する。例えば、検索部13lは、図38に示すように、設計中の3Dモデルの各部分に類似する3Dモデルおよび関連文書を検索し、検索された3Dモデルおよび関連文書のリンク数および参照数を取得する。図38は、検索処理を説明する図である。   Then, the search unit 13l searches for a part having a feature amount having a similarity (distance equal to or less than a threshold) equal to or greater than a predetermined threshold with respect to the result of similarity calculation. For example, the search unit 13l searches for a portion having a feature amount with a similarity of 0.2 or less. For example, as shown in FIG. 38, the search unit 131 searches for a 3D model and related documents similar to each part of the 3D model under design, and acquires the number of links and references of the searched 3D model and related documents. To do. FIG. 38 is a diagram for explaining search processing.

なお、検索部13lは、すべてのセグメントに対して処理を行うことも可能だが、ユーザが意図している部分のみに限定してもよい。例えば、現在視点位置から見えている部分のみを対象として検索を行う、または、マウスカーソルの下にある部分のみを対象として検索を行うなどが考えられる。   The search unit 13l can perform processing on all segments, but may be limited to only the portion intended by the user. For example, it is conceivable to perform a search only on a part that is currently visible from the viewpoint position, or perform a search only on a part under the mouse cursor.

そして、検索部13lは、検索した結果の部分について、ランキングを行うための評価値を算出する。(21)式に示すように、重み付きの評価値を用いて、評価値を計算し、クエリ・セグメント評価値計算テーブル(図22参照)に記憶させる。ここで、最大距離は、上で言う距離の閾値を利用してもよい。文書数は、同一文書に紐付けられた文書数であり、上の検索でヒットした文書数となる。参照回数は、文書タイトルをクリックして文書が表示された回数であり、文書情報テーブルから取得することができる。なお、ランキング用の評価値としては、距離をそのまま利用してもよい。   Then, the search unit 13l calculates an evaluation value for ranking the portion of the search result. As shown in the equation (21), the evaluation value is calculated using the weighted evaluation value and stored in the query segment evaluation value calculation table (see FIG. 22). Here, as the maximum distance, the above-described distance threshold may be used. The number of documents is the number of documents linked to the same document, and is the number of documents hit in the above search. The reference count is the number of times the document is displayed by clicking the document title, and can be acquired from the document information table. Note that the distance may be used as it is as an evaluation value for ranking.

Figure 2011048791
Figure 2011048791

その後、検索部13lは、クエリ・セグメント評価値計算テーブルについて、評価値で降順にソートすることで、ランキングを行うことができる。検索部13lは、図39に示すように、ランキングで上位にランクされた文書から順番に、文書タイトルをタスクバー等に表示する。図39は、検索結果の画面表示例を示す図である。   Thereafter, the search unit 13l can perform ranking by sorting the query segment evaluation value calculation table in descending order by evaluation value. As shown in FIG. 39, the search unit 13l displays document titles on a task bar or the like in order from documents ranked higher in the ranking. FIG. 39 is a diagram illustrating a screen display example of search results.

その後、ユーザがその内容に興味を持ち、もっと詳しく知りたいと思った場合は、文書のタイトル部分をクリックすることができる。情報提供装置10、図40に示すように、ユーザの操作を監視し、ユーザがクリックした場合に、元の文書を表示し、同時に文書参照情報テーブルの参照回数を1つ増加させる。ユーザがクリックしなかった場合は、上のランキングの次のデータを表示するようにする。図40は、参照情報が増加する処理を説明する図である。   Then, if the user is interested in the content and wants to know more, you can click on the title part of the document. As shown in FIG. 40, the information providing apparatus 10 monitors the user's operation. When the user clicks, the original document is displayed, and at the same time, the reference count of the document reference information table is increased by one. When the user does not click, the next data of the above ranking is displayed. FIG. 40 is a diagram for describing processing for increasing reference information.

[情報提供装置による処理]
次に、図41〜図45を用いて、実施例2に係る情報提供装置10による処理を説明する。図41〜図45は、実施例2に係る情報提供装置10の処理動作を示すフローチャートである。
[Processing by information provider]
Next, processing performed by the information providing apparatus 10 according to the second embodiment will be described with reference to FIGS. FIGS. 41 to 45 are flowcharts illustrating the processing operation of the information providing apparatus 10 according to the second embodiment.

同図に示すように、情報提供装置10は、部品を部分に分割し(ステップS101)、部分から3次元の形状に関する特徴量を抽出する(ステップS102)。そして、情報提供装置10は、画像と指示マークの対応付け処理(後に図42を用いて詳述)を行い(ステップS103)、画像と3Dモデルの位置合わせ処理(後に図43を用いて詳述)を行う(ステップS104)。   As shown in the figure, the information providing apparatus 10 divides a part into parts (step S101), and extracts a feature amount related to a three-dimensional shape from the part (step S102). Then, the information providing apparatus 10 performs processing for associating an image with an instruction mark (detailed later using FIG. 42) (step S103), and aligning the image and the 3D model (detailed later using FIG. 43). (Step S104).

そして、情報提供装置10は、指示マークに対応する部分を検出する処理(後に図44を用いて詳述)を行い(ステップS105)、文書と部分を関連付けて保存する(ステップS106)。   Then, the information providing apparatus 10 performs processing for detecting a portion corresponding to the instruction mark (detailed later with reference to FIG. 44) (step S105), and stores the document and the portion in association with each other (step S106).

ここで、図42を用いて画像と指示マークの対応付け処理について説明する。図42に示すように、情報提供装置10は、部品に関連付けられた文書から画像を抽出し(ステップS201)、指示マーク候補の図形を検出し(ステップS202)、画像と指示マーク候補の位置の判定を行う(ステップS203)。そして、情報提供装置10は、画像に対応する指示マークがある場合には(ステップS204肯定)、指示マークを画像に関連付けて保存する(ステップS205)。   Here, the process of associating an image with an instruction mark will be described with reference to FIG. As shown in FIG. 42, the information providing apparatus 10 extracts an image from a document associated with a part (step S201), detects an indication mark candidate graphic (step S202), and determines the position of the image and the indication mark candidate. A determination is made (step S203). If there is an instruction mark corresponding to the image (Yes at Step S204), the information providing apparatus 10 stores the instruction mark in association with the image (Step S205).

また、情報提供装置10は、画像に対応する指示マークがない場合には(ステップS204否定)、指示マークを画像に関連付けて保存せずに、ステップS206に進む。そして、情報提供装置10は、全ての指示マーク候補を処理したか判定し(ステップS206)、全ての指示マーク候補を処理した場合には(ステップS206肯定)、全ての画像を処理したか判定する(ステップS207)。この結果、情報提供装置10は、全ての画像を処理した場合には(ステップS207肯定)、処理を終了する。   If there is no instruction mark corresponding to the image (No at Step S204), the information providing apparatus 10 proceeds to Step S206 without storing the instruction mark in association with the image. The information providing apparatus 10 determines whether all instruction mark candidates have been processed (step S206). If all instruction mark candidates have been processed (Yes in step S206), the information providing apparatus 10 determines whether all images have been processed. (Step S207). As a result, when all of the images have been processed (Yes at Step S207), the information providing apparatus 10 ends the process.

また、情報提供装置10は、全ての指示マーク候補を処理していない場合には(ステップS206否定)、全ての画像を処理していない場合には(ステップS207否定)、S201に戻って処理を繰り返す。   Further, the information providing apparatus 10 returns to S201 and performs the process when not processing all the instruction mark candidates (No at Step S206), and when not processing all the images (No at Step S207). repeat.

ここで、図43を用いて画像と3Dモデルの位置合わせ処理について説明する。図43に示すように、図43に示すように、情報処理装置10は、画像からエッジを抽出し(ステップS301)、エッジ特徴量を抽出する(ステップS302)。そして、情報処理装置10は、3Dモデルの視点位置を設定し(ステップS303)、3Dモデルをエッジレンダリングし(ステップS304)、3Dモデルの面、セグメンテーションと画素を関連付けて保存する(ステップS305)。   Here, the alignment processing of the image and the 3D model will be described with reference to FIG. As shown in FIG. 43, as shown in FIG. 43, the information processing apparatus 10 extracts edges from the image (step S301), and extracts edge feature amounts (step S302). Then, the information processing apparatus 10 sets the viewpoint position of the 3D model (step S303), edge-renders the 3D model (step S304), and associates and saves the 3D model plane, segmentation, and pixels (step S305).

情報処理装置10は、エッジ特徴量を抽出し(ステップS306)、二つのエッジ抽出結果の類似度を計算して保存し(ステップS307)、全ての視点でレンダリングしたか判定する(ステップS308)。この結果、情報処理装置10は、全ての視点でレンダリングした場合には(ステップS308肯定)、一番類似度が高い視点を抽出して(ステップS309)。処理を終了する。また、情報処理装置10は、全ての視点でレンダリングしていない場合には(ステップS308否定)、ステップS303に戻ってステップS303〜S308の処理を繰り返す。   The information processing apparatus 10 extracts edge feature amounts (step S306), calculates and stores the similarity between the two edge extraction results (step S307), and determines whether rendering has been performed from all viewpoints (step S308). As a result, when rendering is performed with all viewpoints (Yes at Step S308), the information processing apparatus 10 extracts the viewpoint with the highest similarity (Step S309). The process ends. If the information processing apparatus 10 has not rendered all the viewpoints (No at Step S308), the information processing apparatus 10 returns to Step S303 and repeats the processes at Steps S303 to S308.

ここで、図44を用いて指示マークに対応する部分を検出する処理について説明する。図44に示すように、情報処理装置10は、指示マークに対応する画像範囲を抽出し(ステップS401)、指示マークに対応する画素の対応するセグメンテーション番号を取得する(ステップS402)。   Here, a process of detecting a portion corresponding to the instruction mark will be described with reference to FIG. As shown in FIG. 44, the information processing apparatus 10 extracts an image range corresponding to the instruction mark (step S401), and acquires a segmentation number corresponding to the pixel corresponding to the instruction mark (step S402).

そして、情報処理装置10は、対応する面があるか判定し(ステップS403)、対応する面がある場合には(ステップS403肯定)、画素に対応する部分の面積を加算する(ステップS404)。続いて、情報処理装置10は、すべての画素をチェックしたか判定し(ステップS405)、すべての画素をチェックした場合に(ステップS405肯定)、一番割合が大きい部分を選択して(ステップS406)、処理を終了する。また、情報処理装置10は、すべての画素をチェックしていない場合に(ステップS405否定)、ステップS402に戻って、処理を繰り返す。   Then, the information processing apparatus 10 determines whether there is a corresponding surface (step S403). If there is a corresponding surface (Yes in step S403), the area of the portion corresponding to the pixel is added (step S404). Subsequently, the information processing apparatus 10 determines whether all the pixels have been checked (step S405), and when all the pixels have been checked (step S405 affirmative), selects the portion with the largest ratio (step S406). ), The process is terminated. In addition, when all the pixels are not checked (No at Step S405), the information processing apparatus 10 returns to Step S402 and repeats the process.

次に、図45を用いて、情報提供装置の検索処理について説明する。図45に示すように、情報提供装置10は、設計中の部品を抽出し(ステップS501)、設計中の部品から部分を抽出し、その部分特徴量を抽出する(ステップS502)。そして、情報提供装置10は、全ての部分を抽出したか判定し(ステップS503)、全ての部分を抽出していない場合には(ステップS503否定)、ステップS501に戻る。   Next, the search process of the information providing apparatus will be described with reference to FIG. As shown in FIG. 45, the information providing apparatus 10 extracts a part under design (step S501), extracts a part from the part under design, and extracts a partial feature amount (step S502). Then, the information providing apparatus 10 determines whether all parts have been extracted (step S503). If all parts have not been extracted (No in step S503), the information providing apparatus 10 returns to step S501.

また、情報提供装置10は、全ての部分を抽出した場合には(ステップS503肯定)、データベースから部品の部分特徴量を取得し、類似度を計算する(ステップS504)。そして、情報提供装置10は、類似度が閾値以上であるか判定し(ステップS505)、類似度が閾値以上である場合には(ステップS505肯定)、ランキングの評価値を算出する(ステップS506)。   In addition, when all the parts are extracted (Yes at Step S503), the information providing apparatus 10 acquires the partial feature amount of the part from the database and calculates the similarity (Step S504). Then, the information providing apparatus 10 determines whether the similarity is equal to or higher than the threshold (step S505). If the similarity is equal to or higher than the threshold (Yes in step S505), the information providing apparatus 10 calculates a ranking evaluation value (step S506). .

そして、情報提供装置10は、全ての部品をチェックしたかを判定し(ステップS507)、全ての部品をチェックしていない場合には(ステップS507否定)、ステップS504に戻る。また、情報提供装置10は、全ての部品をチェックした場合には(ステップS507肯定)、ランキングを行い、ランクが高い部分を抽出する(ステップS508)。   Then, the information providing apparatus 10 determines whether all the components have been checked (step S507). If all the components have not been checked (No in step S507), the information providing apparatus 10 returns to step S504. Further, when all the components are checked (Yes at Step S507), the information providing apparatus 10 performs ranking and extracts a portion having a higher rank (Step S508).

そして、情報提供装置10は、文書のタイトルを提示し(ステップS509)、ユーザの入力チェックを行い(ステップS510)、ユーザが文書のタイトルをクリックしたか判定する(ステップS511)。この結果、情報提供装置10は、ユーザが文書のタイトルをクリックしたと判定した場合には(ステップS511肯定)、クリックされたタイトルに対応する文書を提示し(ステップS512)、参照回数を1つ増加する(ステップS513)。   Then, the information providing apparatus 10 presents the title of the document (step S509), performs a user input check (step S510), and determines whether the user has clicked on the title of the document (step S511). As a result, when the information providing apparatus 10 determines that the user has clicked on the title of the document (Yes in step S511), the information providing apparatus 10 presents the document corresponding to the clicked title (step S512), and increments the reference count by one. Increase (step S513).

[実施例2の効果]
上述してきたように、情報提供装置10は、3Dモデル情報記憶領域14aに記憶された部品の3Dモデルを部分に分割し、文書情報記憶領域14bに記憶された文書から文書に付加された部品の画像を抽出し、抽出された画像の中から画像の一部分を特定する記号を抽出する。そして、情報提供装置10は、記号が抽出された場合には、記号が特定する画像の部分に対応する3Dモデルの部分を選択し、選択された3Dモデルの部分と部品の画像に関連付けられた文書とを対応付けて部分文書情報記憶領域14dに格納する。このため、情報提供装置10は、3Dモデルの部分と文書とを関連付けて記憶し、利用者が参照したい部品の部分に関する文書を検索できるようして、知識情報の有効活用を効果的に実現することが可能である。
[Effect of Example 2]
As described above, the information providing apparatus 10 divides the 3D model of the part stored in the 3D model information storage area 14a into parts, and the part of the part added to the document from the document stored in the document information storage area 14b. An image is extracted, and a symbol specifying a part of the image is extracted from the extracted image. When the symbol is extracted, the information providing apparatus 10 selects the 3D model portion corresponding to the image portion specified by the symbol, and associates the selected 3D model portion with the image of the part. The document is associated and stored in the partial document information storage area 14d. For this reason, the information providing apparatus 10 stores the 3D model portion and the document in association with each other, and enables the user to search for the document related to the part portion that the user wants to refer to, thereby effectively realizing the knowledge information. It is possible.

また、実施例2によれば、抽出された指示マークが抽出された場合には、指示マークが特定する画像の部分とモデルの部分との類似度を算出し、類似度に応じて、指示マークが特定する画像の部分に対応する3Dモデルの部分を選択する。このため、指示マークが特定する画像の部分に対応する3Dモデルの部分を適切に選択することが可能である。   Further, according to the second embodiment, when the extracted instruction mark is extracted, the similarity between the image portion specified by the instruction mark and the model portion is calculated, and the instruction mark is determined according to the similarity. The part of the 3D model corresponding to the part of the image specified by is selected. For this reason, it is possible to appropriately select a portion of the 3D model corresponding to the portion of the image specified by the instruction mark.

また、実施例2によれば、所定の部分に類似する部分を3Dモデル記憶部14aから取得し、取得された部分に関連付けられた文書を部分文書情報記憶部14dから検索するので、部品の部分と関連する文書を適切に検索することが可能である。   Further, according to the second embodiment, a part similar to a predetermined part is acquired from the 3D model storage unit 14a, and a document associated with the acquired part is searched from the partial document information storage unit 14d. It is possible to appropriately search for documents related to.

また、実施例2によれば、部分文書情報記憶部14dから検索された文書が複数ある場合には、各文書の表示する順番を決めるための評価値を算出し、評価値が高い順に文書を表示する。このため、部品の部分と関連する文書を重要なものから順に表示することが可能である。   Further, according to the second embodiment, when there are a plurality of documents retrieved from the partial document information storage unit 14d, evaluation values for determining the display order of each document are calculated, and the documents are sorted in descending order of evaluation values. indicate. For this reason, it is possible to display documents related to the part portion in order from the most important one.

さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では実施例3として本発明に含まれる他の実施例を説明する。   Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the embodiments described above. Therefore, another embodiment included in the present invention will be described below as a third embodiment.

(1)システム構成等
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、3Dモデル分割部13aと3Dモデル特徴抽出部13bを統合してもよい。
(1) System Configuration, etc. Further, each component of each illustrated apparatus is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the 3D model dividing unit 13a and the 3D model feature extracting unit 13b may be integrated.

(2)プログラム
また、上記の実施例1、2で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することができる。そこで、以下では、図46を用いて、上記の実施例1、2と同様の機能を有する情報提供プログラムを実行するコンピュータの一例を説明する。図46は、情報提供プログラムを実行するコンピュータを示す図である。
(2) Program The various processes described in the first and second embodiments can be realized by executing a program prepared in advance on a computer system such as a personal computer or a workstation. Therefore, in the following, an example of a computer that executes an information providing program having the same function as in the first and second embodiments will be described with reference to FIG. FIG. 46 is a diagram illustrating a computer that executes an information providing program.

図46に示すように、情報提供装置としてのコンピュータ600は、RAM610、CPU620、HDD630および入出力インターフェース640をバスなどで接続して構成される。   As shown in FIG. 46, a computer 600 as an information providing apparatus is configured by connecting a RAM 610, a CPU 620, an HDD 630, and an input / output interface 640 with a bus or the like.

HDD630は、CPU620による各種処理の実行に必要な情報を記憶する。RAM610は、各種情報を一時的に記憶する。CPU620は、各種演算処理を実行する。   The HDD 630 stores information necessary for the CPU 620 to execute various processes. The RAM 610 temporarily stores various information. The CPU 620 executes various arithmetic processes.

そして、HDD630には、図46に示すように、上記の実施例1、2に示した、割込みコントローラの各処理部と同様の機能を発揮する情報提供プログラム611があらかじめ記憶されている。なお、この情報提供プログラム611を適宜分散させて、ネットワークを介して通信可能に接続された他のコンピュータの記憶部に記憶させておくこともできる。   As shown in FIG. 46, the HDD 630 stores in advance an information providing program 611 that exhibits the same function as each processing unit of the interrupt controller shown in the first and second embodiments. The information providing program 611 may be appropriately distributed and stored in a storage unit of another computer that is communicably connected via a network.

そして、CPU620が、この情報提供プログラム611をHDD630から読み出してRAM610に展開する。そして、情報提供プログラム611は、各種データをHDD630から読み出して、RAM610において自身に割り当てられた領域に展開し、この展開したデータ等に基づいて各種処理を実行する。   Then, the CPU 620 reads this information provision program 611 from the HDD 630 and expands it in the RAM 610. The information providing program 611 reads various data from the HDD 630, expands the data in an area allocated to itself in the RAM 610, and executes various processes based on the expanded data and the like.

なお、上記した情報提供プログラム611については、必ずしも最初からHDD630に記憶させておく必要はなく、例えば、コンピュータ600に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ600に接続される「他のコンピュータ(またはサーバ)」などに各プログラムを記憶させておき、コンピュータ600がこれらから各プログラムを読み出して実行するようにしてもよい。   The information providing program 611 is not necessarily stored in the HDD 630 from the beginning. For example, a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, and an IC inserted into the computer 600 are not necessary. Each program is stored in a “portable physical medium” such as a card, and “another computer (or server)” connected to the computer 600 via a public line, the Internet, a LAN, a WAN, or the like. The computer 600 may read out and execute each program from these.

以上の実施例1〜3を含む実施形態に関し、更に以下の付記を開示する。   The following appendices are further disclosed with respect to the embodiments including the first to third embodiments.

(付記1)部品の3Dモデルを記憶する3Dモデル記憶部と、
前記部品の画像が付加された該部品に関する文書を記憶する文書情報記憶部と、
前記3Dモデル記憶部に記憶された部品の3Dモデルを部分に分割する分割部と、
前記文書情報記憶部に記憶された文書から該文書に付加された部品の画像を抽出する画像抽出部と、
前記画像抽出部によって抽出された画像の中から、該画像の一部分を特定する記号を抽出する特定記号抽出部と、
前記特定記号抽出部によって記号が抽出された場合には、該記号が特定する画像の部分に対応する3Dモデルの部分を選択する部分選択部と、
前記部分選択部によって選択された3Dモデルの部分と前記部品の画像に関連付けられた文書とを対応付けて部分文書情報記憶部に格納する部分文書格納部と、
を備えることを特徴とする情報提供装置。
(Supplementary note 1) a 3D model storage unit that stores a 3D model of a part;
A document information storage unit for storing a document related to the part to which the image of the part is added;
A dividing unit that divides the 3D model of the part stored in the 3D model storage unit into parts;
An image extraction unit for extracting an image of a part added to the document from the document stored in the document information storage unit;
A specific symbol extraction unit for extracting a symbol for specifying a part of the image from the image extracted by the image extraction unit;
When a symbol is extracted by the specific symbol extraction unit, a partial selection unit that selects a part of the 3D model corresponding to the part of the image specified by the symbol;
A partial document storage unit that associates a portion of the 3D model selected by the partial selection unit with a document associated with the image of the component and stores the document in a partial document information storage unit;
An information providing apparatus comprising:

(付記2)前記部分選択部は、前記特定記号抽出部によって記号が抽出された場合には、該記号が特定する画像の部分と3Dモデルの部分との類似度を算出し、該類似度に応じて、該記号が特定する画像の部分に対応する3Dモデルの部分を選択することを特徴とする付記1に記載の情報提供装置。 (Supplementary Note 2) When a symbol is extracted by the specific symbol extraction unit, the partial selection unit calculates a similarity between an image portion specified by the symbol and a 3D model portion, and the similarity is calculated. The information providing apparatus according to appendix 1, wherein a part of the 3D model corresponding to the part of the image specified by the symbol is selected.

(付記3)所定の部分に類似する部分を前記3Dモデル記憶部から取得し、該取得された部分に関連付けられた文書を前記部分文書情報記憶部から検索する検索部をさらに備えることを特徴とする付記1または2に記載の情報提供装置。 (Additional remark 3) It further has a search part which acquires the part similar to a predetermined part from the said 3D model memory | storage part, and searches the document linked | related with the acquired part from the said partial document information storage part, It is characterized by the above-mentioned. The information provision apparatus according to Supplementary Note 1 or 2.

(付記4)前記検索部は、前記部分文書情報記憶部から検索された文書が複数ある場合には、各文書の表示する順番を決めるための評価値を算出し、該評価値が高い順に前記文書を表示することを特徴とする付記1〜3のいずれか一つに記載の情報提供装置。 (Supplementary Note 4) When there are a plurality of documents searched from the partial document information storage unit, the search unit calculates an evaluation value for determining the display order of each document, and the evaluation value is in descending order. The information providing apparatus according to any one of appendices 1 to 3, wherein the document is displayed.

(付記5)部品の3Dモデルを記憶する3Dモデル記憶部に記憶された部品の3Dモデルを部分に分割する分割ステップと、
前記部品の画像が付加された該部品に関する文書を記憶する文書情報記憶部に記憶された文書から該文書に付加された部品の画像を抽出する画像抽出ステップと、
前記画像抽出ステップによって抽出された画像の中から、該画像の一部分を特定する記号を抽出する特定記号抽出ステップと、
前記特定記号抽出ステップによって記号が抽出された場合には、該記号が特定する画像の部分に対応する3Dモデルの部分を選択する部分選択ステップと、
前記部分選択ステップによって選択された3Dモデルの部分と前記部品の画像に関連付けられた文書とを対応付けて部分文書情報記憶部に格納する部分文書格納ステップと、
を含んだことを特徴とする情報提供方法。
(Supplementary Note 5) A dividing step of dividing the part 3D model stored in the 3D model storage unit that stores the part 3D model into parts;
An image extracting step of extracting an image of the component added to the document from a document stored in a document information storage unit that stores a document related to the component to which the image of the component is added;
A specific symbol extraction step for extracting a symbol for specifying a part of the image from the image extracted by the image extraction step;
A partial selection step of selecting a portion of the 3D model corresponding to a portion of the image specified by the symbol when the symbol is extracted by the specific symbol extraction step;
A partial document storage step of storing the portion of the 3D model selected by the partial selection step and the document associated with the image of the part in association with each other and storing the partial document information in the partial document information storage unit;
An information providing method characterized by including

(付記6)前記部分選択ステップは、前記特定記号抽出ステップによって記号が抽出された場合には、該記号が特定する画像の部分と3Dモデルの部分との類似度を算出し、該類似度に応じて、該記号が特定する画像の部分に対応する3Dモデルの部分を選択することを特徴とする付記5に記載の情報提供方法。 (Supplementary Note 6) When the symbol is extracted by the specific symbol extraction step, the partial selection step calculates the similarity between the image portion specified by the symbol and the portion of the 3D model. The information providing method according to appendix 5, wherein a part of the 3D model corresponding to the part of the image specified by the symbol is selected.

(付記7)所定の部分に類似する部分を前記3Dモデル記憶部から取得し、該取得された部分に関連付けられた文書を前記部分文書情報記憶部から検索する検索ステップをさらに含んだことを特徴とする付記5または6に記載の情報提供方法。 (Supplementary note 7) The method further includes a retrieval step of acquiring a part similar to a predetermined part from the 3D model storage unit and searching the partial document information storage unit for a document associated with the acquired part. The information provision method according to appendix 5 or 6.

(付記8)前記検索ステップは、前記部分文書情報記憶ステップから検索された文書が複数ある場合には、各文書の表示する順番を決めるための評価値を算出し、該評価値が高い順に前記文書を表示することを特徴とする付記5〜7のいずれか一つに記載の情報提供方法。 (Supplementary note 8) When there are a plurality of documents searched from the partial document information storage step, the search step calculates an evaluation value for determining the display order of each document, and the evaluation value is in descending order. The information providing method according to any one of appendices 5 to 7, wherein the document is displayed.

(付記9)部品の3Dモデルを記憶する3Dモデル記憶部に記憶された部品の3Dモデルを部分に分割する分割手順と、
前記部品の画像が付加された該部品に関する文書を記憶する文書情報記憶部に記憶された文書から該文書に付加された部品の画像を抽出する画像抽出手順と、
前記画像抽出手順によって抽出された画像の中から、該画像の一部分を特定する記号を抽出する特定記号抽出手順と、
前記特定記号抽出手順によって記号が抽出された場合には、該記号が特定する画像の部分に対応する3Dモデルの部分を選択する部分選択手順と、
前記部分選択手順によって選択された3Dモデルの部分と前記部品の画像に関連付けられた文書とを対応付けて部分文書情報記憶部に格納する部分文書格納手順と、
をコンピュータに実行させることを特徴とする情報提供プログラム。
(Supplementary Note 9) A division procedure for dividing the part 3D model stored in the 3D model storage unit that stores the part 3D model into parts,
An image extraction procedure for extracting an image of a component added to the document from a document stored in a document information storage unit that stores a document related to the component to which the image of the component is added;
A specific symbol extraction procedure for extracting a symbol for specifying a part of the image from the images extracted by the image extraction procedure;
When a symbol is extracted by the specific symbol extraction procedure, a partial selection procedure for selecting a portion of the 3D model corresponding to a portion of the image specified by the symbol;
A partial document storage procedure for storing a portion of the 3D model selected by the partial selection procedure and a document associated with the image of the part in the partial document information storage unit;
An information providing program for causing a computer to execute.

(付記10)前記部分選択手順は、前記特定記号抽出手順によって記号が抽出された場合には、該記号が特定する画像の部分と3Dモデルの部分との類似度を算出し、該類似度に応じて、該記号が特定する画像の部分に対応する3Dモデルの部分を選択することを特徴とする付記9に記載の情報提供プログラム。 (Additional remark 10) When the symbol is extracted by the specific symbol extraction procedure, the partial selection procedure calculates the similarity between the part of the image specified by the symbol and the part of the 3D model. The information providing program according to appendix 9, wherein a part of the 3D model corresponding to the part of the image specified by the symbol is selected accordingly.

(付記11)所定の部分に類似する部分を前記3Dモデル記憶手順から取得し、該取得された部分に関連付けられた文書を前記部分文書情報記憶部から検索する検索手順をさらにコンピュータに実行させることを特徴とする付記9または10に記載の情報提供プログラム。 (Supplementary Note 11) Acquiring a part similar to a predetermined part from the 3D model storage procedure, and causing the computer to further execute a search procedure for searching a document associated with the acquired part from the partial document information storage unit. The information providing program according to appendix 9 or 10, characterized by:

(付記12)前記検索手順は、前記部分文書情報記憶手順から検索された文書が複数ある場合には、各文書の表示する順番を決めるための評価値を算出し、該評価値が高い順に前記文書を表示することを特徴とする付記9〜11のいずれか一つに記載の情報提供プログラム。 (Supplementary Note 12) When there are a plurality of documents searched from the partial document information storage procedure, the search procedure calculates an evaluation value for determining the display order of each document, and the evaluation value is in descending order. The information providing program according to any one of appendices 9 to 11, wherein the document is displayed.

1、10 情報提供装置
11 入力部
12 出力部
13 制御部
13a 3Dモデル分割部
13b 3Dモデル特徴抽出部
13c 文書画像抽出部
13d 指示マーク抽出部
13e エッジ抽出部
13f レンダリング部
13g 形状特徴抽出部
13h 画像対応抽出部
13i 指示マーク部分対応抽出部
13j 部分文書格納部
13k クエリ取得部
13l 検索部
14 記憶部
14a 3Dモデル情報記憶領域
14b 文書情報記憶領域
14c テーブル記憶領域
14d 部分文書情報記憶領域
DESCRIPTION OF SYMBOLS 1, 10 Information provision apparatus 11 Input part 12 Output part 13 Control part 13a 3D model division part 13b 3D model feature extraction part 13c Document image extraction part 13d Instruction mark extraction part 13e Edge extraction part 13f Rendering part 13g Shape feature extraction part 13h Image Correspondence extraction unit 13i Instruction mark part correspondence extraction unit 13j Partial document storage unit 13k Query acquisition unit 13l Search unit 14 Storage unit 14a 3D model information storage region 14b Document information storage region 14c Table storage region 14d Partial document information storage region

Claims (6)

部品の3Dモデルを記憶する3Dモデル記憶部と、
前記部品の画像が付加された該部品に関する文書を記憶する文書情報記憶部と、
前記3Dモデル記憶部に記憶された部品の3Dモデルを部分に分割する分割部と、
前記文書情報記憶部に記憶された文書から該文書に付加された部品の画像を抽出する画像抽出部と、
前記画像抽出部によって抽出された画像の中から、該画像の一部分を特定する記号を抽出する特定記号抽出部と、
前記特定記号抽出部によって記号が抽出された場合には、該記号が特定する画像の部分に対応する3Dモデルの部分を選択する部分選択部と、
前記部分選択部によって選択された3Dモデルの部分と前記部品の画像に関連付けられた文書とを対応付けて部分文書情報記憶部に格納する部分文書格納部と、
を備えることを特徴とする情報提供装置。
A 3D model storage unit for storing a 3D model of the component;
A document information storage unit for storing a document related to the part to which the image of the part is added;
A dividing unit that divides the 3D model of the part stored in the 3D model storage unit into parts;
An image extraction unit for extracting an image of a part added to the document from the document stored in the document information storage unit;
A specific symbol extraction unit for extracting a symbol for specifying a part of the image from the image extracted by the image extraction unit;
When a symbol is extracted by the specific symbol extraction unit, a partial selection unit that selects a part of the 3D model corresponding to the part of the image specified by the symbol;
A partial document storage unit that associates a portion of the 3D model selected by the partial selection unit with a document associated with the image of the component and stores the document in a partial document information storage unit;
An information providing apparatus comprising:
前記部分選択部は、前記特定記号抽出部によって記号が抽出された場合には、該記号が特定する画像の部分と3Dモデルの部分との類似度を算出し、該類似度に応じて、該記号が特定する画像の部分に対応する3Dモデルの部分を選択することを特徴とする請求項1に記載の情報提供装置。   When the symbol is extracted by the specific symbol extraction unit, the partial selection unit calculates the similarity between the image portion specified by the symbol and the 3D model portion, and according to the similarity, The information providing apparatus according to claim 1, wherein a part of the 3D model corresponding to the part of the image specified by the symbol is selected. 所定の部分に類似する部分を前記3Dモデル記憶部から取得し、該取得された部分に関連付けられた文書を前記部分文書情報記憶部から検索する検索部をさらに備えることを特徴とする請求項1または2に記載の情報提供装置。   2. The apparatus according to claim 1, further comprising a search unit that acquires a part similar to a predetermined part from the 3D model storage unit and searches the partial document information storage unit for a document associated with the acquired part. Or the information provision apparatus of 2. 前記検索部は、前記部分文書情報記憶部から検索された文書が複数ある場合には、各文書の表示する順番を決めるための評価値を算出し、該評価値が高い順に前記文書を表示することを特徴とする請求項1〜3のいずれか一つに記載の情報提供装置。   When there are a plurality of documents retrieved from the partial document information storage unit, the retrieval unit calculates an evaluation value for determining the display order of each document, and displays the documents in descending order of the evaluation value. The information providing apparatus according to claim 1, wherein the information providing apparatus is an information providing apparatus. 部品の3Dモデルを記憶する3Dモデル記憶部に記憶された部品の3Dモデルを部分に分割する分割ステップと、
前記部品の画像が付加された該部品に関する文書を記憶する文書情報記憶部に記憶された文書から該文書に付加された部品の画像を抽出する画像抽出ステップと、
前記画像抽出ステップによって抽出された画像の中から、該画像の一部分を特定する記号を抽出する特定記号抽出ステップと、
前記特定記号抽出ステップによって記号が抽出された場合には、該記号が特定する画像の部分に対応する3Dモデルの部分を選択する部分選択ステップと、
前記部分選択ステップによって選択された3Dモデルの部分と前記部品の画像に関連付けられた文書とを対応付けて部分文書情報記憶部に格納する部分文書格納ステップと、
を含んだことを特徴とする情報提供方法。
A dividing step of dividing the 3D model of the part stored in the 3D model storage unit that stores the 3D model of the part into parts;
An image extracting step of extracting an image of the component added to the document from a document stored in a document information storage unit that stores a document related to the component to which the image of the component is added;
A specific symbol extraction step for extracting a symbol for specifying a part of the image from the image extracted by the image extraction step;
A partial selection step of selecting a portion of the 3D model corresponding to a portion of the image specified by the symbol when the symbol is extracted by the specific symbol extraction step;
A partial document storage step of storing the portion of the 3D model selected by the partial selection step and the document associated with the image of the part in association with each other and storing the partial document information in the partial document information storage unit;
An information providing method characterized by including
部品の3Dモデルを記憶する3Dモデル記憶部に記憶された部品の3Dモデルを部分に分割する分割手順と、
前記部品の画像が付加された該部品に関する文書を記憶する文書情報記憶部に記憶された文書から該文書に付加された部品の画像を抽出する画像抽出手順と、
前記画像抽出手順によって抽出された画像の中から、該画像の一部分を特定する記号を抽出する特定記号抽出手順と、
前記特定記号抽出手順によって記号が抽出された場合には、該記号が特定する画像の部分に対応する3Dモデルの部分を選択する部分選択手順と、
前記部分選択手順によって選択された3Dモデルの部分と前記部品の画像に関連付けられた文書とを対応付けて部分文書情報記憶部に格納する部分文書格納手順と、
をコンピュータに実行させることを特徴とする情報提供プログラム。
A dividing procedure for dividing the 3D model of the part stored in the 3D model storage unit that stores the 3D model of the part into parts;
An image extraction procedure for extracting an image of a component added to the document from a document stored in a document information storage unit that stores a document related to the component to which the image of the component is added;
A specific symbol extraction procedure for extracting a symbol for specifying a part of the image from the images extracted by the image extraction procedure;
When a symbol is extracted by the specific symbol extraction procedure, a partial selection procedure for selecting a portion of the 3D model corresponding to a portion of the image specified by the symbol;
A partial document storage procedure for storing a portion of the 3D model selected by the partial selection procedure and a document associated with the image of the part in the partial document information storage unit;
An information providing program for causing a computer to execute.
JP2009198905A 2009-08-28 2009-08-28 Information providing apparatus, information providing method, and information providing program Active JP5229161B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009198905A JP5229161B2 (en) 2009-08-28 2009-08-28 Information providing apparatus, information providing method, and information providing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009198905A JP5229161B2 (en) 2009-08-28 2009-08-28 Information providing apparatus, information providing method, and information providing program

Publications (2)

Publication Number Publication Date
JP2011048791A true JP2011048791A (en) 2011-03-10
JP5229161B2 JP5229161B2 (en) 2013-07-03

Family

ID=43834999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009198905A Active JP5229161B2 (en) 2009-08-28 2009-08-28 Information providing apparatus, information providing method, and information providing program

Country Status (1)

Country Link
JP (1) JP5229161B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003395A (en) * 2010-06-15 2012-01-05 Honda Motor Co Ltd Shape data retrieval system and shape data retrieval method
JP2013097743A (en) * 2011-11-05 2013-05-20 Digital Collaborations Co Ltd Knowledge management device, terminal unit of knowledge management device and program of knowledge management device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0696164A (en) * 1992-09-14 1994-04-08 A T R Tsushin Syst Kenkyusho:Kk Three-dimensional image data base generating system
JPH0728882A (en) * 1993-07-09 1995-01-31 Nec Corp Cad device
JP2006520948A (en) * 2003-01-25 2006-09-14 パーデュー リサーチ ファンデーション Method, system and data structure for searching for 3D objects
JP2006268807A (en) * 2005-03-24 2006-10-05 Bit Solution Inc:Kk Engineering knowledge collection system
JP2007316743A (en) * 2006-05-23 2007-12-06 Fujitsu Ltd Partial document retrieving program, method and device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0696164A (en) * 1992-09-14 1994-04-08 A T R Tsushin Syst Kenkyusho:Kk Three-dimensional image data base generating system
JPH0728882A (en) * 1993-07-09 1995-01-31 Nec Corp Cad device
JP2006520948A (en) * 2003-01-25 2006-09-14 パーデュー リサーチ ファンデーション Method, system and data structure for searching for 3D objects
JP2006268807A (en) * 2005-03-24 2006-10-05 Bit Solution Inc:Kk Engineering knowledge collection system
JP2007316743A (en) * 2006-05-23 2007-12-06 Fujitsu Ltd Partial document retrieving program, method and device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
馬場孝之外6名: "機械系組立図面からの形状に基づく部品検索手法の提案", 電子情報通信学会技術研究報告, vol. 104, no. 741, JPN6013007491, 10 March 2005 (2005-03-10), pages 79 - 84, ISSN: 0002459712 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003395A (en) * 2010-06-15 2012-01-05 Honda Motor Co Ltd Shape data retrieval system and shape data retrieval method
JP2013097743A (en) * 2011-11-05 2013-05-20 Digital Collaborations Co Ltd Knowledge management device, terminal unit of knowledge management device and program of knowledge management device

Also Published As

Publication number Publication date
JP5229161B2 (en) 2013-07-03

Similar Documents

Publication Publication Date Title
US9507803B2 (en) Visual search using multiple visual input modalities
EP2612263B1 (en) Sketch-based image search
CN107256262B (en) Image retrieval method based on object detection
JP5665125B2 (en) Image processing method and image processing system
TWI559242B (en) Visual clothing retrieval
US7737966B2 (en) Method, apparatus, and system for processing geometric data of assembled parts
JP5241954B2 (en) Image search based on shape
JP4945813B2 (en) Print structured documents
US9535930B2 (en) System and method for using an image to provide search results
CN110413816B (en) Color Sketch Image Search
US9400808B2 (en) Color description analysis device, color description analysis method, and color description analysis program
US20190065913A1 (en) Search method and information processing apparatus
JP2004240750A (en) Picture retrieval device
Yang et al. Ranking 3D feature correspondences via consistency voting
JP2002288687A (en) Device and method for calculating feature amount
US20150169575A1 (en) Scoring images related to entities
EP3104335A1 (en) Analysis model creation assistance system, analysis model creation assistance device and analysis model creation assistance program
JP5229161B2 (en) Information providing apparatus, information providing method, and information providing program
JP5004082B2 (en) Document image search method, document image registration method, program and apparatus thereof
Yu et al. An effective method for figures and tables detection in academic literature
JP2013008142A (en) Image processing device, image processing method and image processing program
An et al. Towards content-based pixel retrieval in revisited oxford and paris
Pinho et al. Voromap: A voronoi-based tool for visual exploration of multi-dimensional data
Cheung et al. A shape-based searching system for industrial components
Wei et al. BuilDiff: 3D Building Shape Generation using Single-Image Conditional Point Cloud Diffusion Models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130304

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5229161

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150