JPH03138758A - Commodity specification determining and estimating device - Google Patents

Commodity specification determining and estimating device

Info

Publication number
JPH03138758A
JPH03138758A JP1276083A JP27608389A JPH03138758A JP H03138758 A JPH03138758 A JP H03138758A JP 1276083 A JP1276083 A JP 1276083A JP 27608389 A JP27608389 A JP 27608389A JP H03138758 A JPH03138758 A JP H03138758A
Authority
JP
Japan
Prior art keywords
product
data
sample
specifications
product specification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1276083A
Other languages
Japanese (ja)
Other versions
JP2642491B2 (en
Inventor
Yoshie Matsuzaki
松崎 吉衛
Kaoru Imai
薫 今井
Hideaki Suzuki
英明 鈴木
Hideaki Matoba
的場 秀彰
Hidetoshi Inaba
因幡 英敏
Masahiro Watanabe
正浩 渡辺
Mitsunobu Isobe
礒部 光庸
Takashi Onari
大成 尚
Yoshio Matsumoto
義雄 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP27608389A priority Critical patent/JP2642491B2/en
Publication of JPH03138758A publication Critical patent/JPH03138758A/en
Application granted granted Critical
Publication of JP2642491B2 publication Critical patent/JP2642491B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PURPOSE:To enable a customer to estimate the cost and the period corresponding to specifications with a high precision by providing an estimating means which estimates the cost and the period required for production of a commodity based on commodity specifications determined by a commodity specification determining means. CONSTITUTION:The fundamental structure of the commodity is stored as structure description data in a data base; and when the customer inputs the form and the color of a presented sample as a appearance specification request, appearance specification request recognition results are connected to fundamental structure data to easily determine specifications of the commodity having the appearance desired by the customer. When commodity specifications according with the customer's will are determined, the cost and period required for production are estimated based on commodity specification data and data where the structure method added to structure description data describing the structure of the commodity is described. Thus, the cost of production and the appointed date of delivery of the commodity suiting customer's taste are detected.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、商品に対する顧客の要求仕様を変更可として
入力・決定し、この決定された商品仕様に基づきその商
品の製造に要される費用、期間の見積を行なうための商
品仕様決定見積装置に係り、特に要求する商品の外観に
類似したサンプルを示すことによって入力される商品の
外観仕様と、更には別途入力される機能仕様とから、顧
客からの商品に対する要求仕様が決定されるようにした
商品仕様決定見積装置に関するものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention inputs and determines a customer's required specifications for a product as changeable, and calculates the cost required for manufacturing the product based on the determined product specifications. , relates to a product specification determination estimation device for estimating a period, in particular, from the appearance specifications of the product inputted by showing a sample similar to the appearance of the requested product, and furthermore the functional specifications inputted separately, The present invention relates to a product specification determination and quotation device that determines the specifications required by a customer for a product.

[従来の技術] これまで、この種の装置としては、特開昭63−120
68号公報に記載されているように、商品カタログの静
止画とその商品に関する情報が記載されているファイル
を備え、顧客から商品の種類が指定されると、その商品
の画像と商品情報を表示し、見積条件が入力されること
で、見積書が出力されるようになっている。
[Prior art] Until now, this type of device was disclosed in Japanese Patent Application Laid-open No. 63-120.
As described in Publication No. 68, it is equipped with a file containing a still image of a product catalog and information about the product, and when a customer specifies the type of product, the image and product information of that product are displayed. Once the quotation conditions are entered, a quotation will be output.

[発明が解決しようとする課題] しかしながら、上記従来技術にあっては、仕様が確定し
た商品に対する見積にしか適用し得ないものとなってい
る。一方、最近では顧客の商品に対するニーズが多様化
しており、顧客が自分の好みに合わせた商品を注文す′
ることは多々見受けられるようになっている。このよう
な場合、商品の仕様が一品毎に異なっていることから、
仕様を明確に入力しその仕様に応じて製造に要される費
用や、期間について見積を行なう必要があるが、これま
でにあっては、そのような見積を行なうことまでは考慮
されていないものとなっている。
[Problems to be Solved by the Invention] However, the above-mentioned prior art can only be applied to estimates for products whose specifications have been determined. On the other hand, recently, customer needs for products have become more diverse, and customers are now ordering products that suit their tastes.
This is becoming more and more common. In such cases, since the specifications of each product are different,
It is necessary to clearly input the specifications and estimate the cost and period required for manufacturing according to those specifications, but up until now, such estimates have not been taken into account. It becomes.

本発明の目的は、顧客が自分の好みに応じて商品の仕様
をサンプルを用い明確に入力し得るようにし、更にその
仕様に応じて、その商品を製造するうえで必要とされる
費用、期間について高精度な見積が可能とされた商品仕
様決定見積装置を供するにある。
The purpose of the present invention is to enable customers to clearly input product specifications according to their own preferences using samples, and also to determine the cost and period required to manufacture the product according to the specifications. To provide a product specification determination and estimation device that is capable of highly accurate estimation.

[課題を解決するための手段] 上記目的は、商品に対する顧客の要求仕様を変更可と1
7で入力・決定する商品仕様決定手段と、該手段によっ
て決定された商品仕様に基づき該商品の製造に要される
費用、期間の見積を行なう見積手段とを具備することで
達成される。より具体的には、商品仕様決定手段として
は少なくとも、各種商品の構造が記述された構造記述デ
ータを格納するデータベースと、商品に対する外観仕様
を示すサンプルの外観を人力する複数のセンサと、該セ
ンサによって得られたデータを解析しサンプルの外観を
認識する手段と、該認識結果を格納する手段と、該サン
プルの該認識結果データと上記構造記述データとを比較
して商品の構造要素に認識結果データを対応させる手段
と、該認識結果データから生成されたディスプレイ表示
用データに基づき認識結果を表示する手段と、該認識結
果データに対する変形指示を受け付ける手段と、該変形
指示に基づいて認識結果データを修正し再表示する手段
とを具備することで、また、見積手段としては、商品の
構造が記述された構造記述データに製造方法が記述され
たデータが付加されたものを格納するデータベースと、
商品に対する決定された商品仕様を格納する手段と、上
記構造記述データおよび商品に対する決定された要求仕
様を用い上記商品仕様の商品の製造に要される費用、期
間のデータを予測する手段とを具備することで達成され
る。特に、商品仕様としてのサンプルはその3次元形状
および色彩が、複数のセンサからのデータが解析される
ことによって、認識されるべく構成したものである。
[Means for solving the problem] The above purpose is to
This is achieved by providing a product specification determining means for inputting and determining the product specifications in step 7, and an estimating means for estimating the cost and period required for manufacturing the product based on the product specifications determined by the means. More specifically, the product specification determining means includes at least a database that stores structure description data that describes the structure of various products, a plurality of sensors that manually determine the appearance of samples that indicate the appearance specifications for the product, and the sensors. a means for analyzing the data obtained by the method and recognizing the appearance of the sample; a means for storing the recognition result; and a means for comparing the recognition result data of the sample with the structural description data and converting the recognition result into structural elements of the product. means for associating data; means for displaying recognition results based on display display data generated from the recognition result data; means for accepting transformation instructions for the recognition result data; and recognition result data based on the transformation instructions. In addition, as an estimation means, a database that stores structure description data describing the structure of the product to which data describing the manufacturing method is added;
The method includes means for storing the determined product specifications for the product, and means for predicting data on the cost and period required to manufacture the product according to the product specifications using the structural description data and the determined required specifications for the product. It is achieved by doing. In particular, the three-dimensional shape and color of a sample as a product specification are configured to be recognized by analyzing data from a plurality of sensors.

[作用] 商品の基本構造はデータベースに構造記述データとして
格納されているが、顧客が望む外観は顧客より提示され
たサンプルはその形状および色彩が外観仕様要求として
入力されるようにすれば、その基本構造データに外観仕
様要求認識結果が結び付けらることによって、顧客が望
む外観を有する商品の仕様が容易に決定され得るもので
ある。
[Function] The basic structure of the product is stored in the database as structural description data, but the appearance desired by the customer can be achieved by inputting the shape and color of the sample presented by the customer as appearance specification requirements. By linking the basic structure data with the appearance specification requirement recognition results, the specifications of a product having the appearance desired by the customer can be easily determined.

このようにして入力された外観仕様をディスプレイ表示
した状態で、顧客がそれに対して必要に応じ変形指示を
入力するようにすれば、これに基づき前認識結果データ
が修正されることで、サンプルとは異なる仕様も入力し
得るものである。
With the appearance specifications input in this way displayed on the display, if the customer inputs transformation instructions as necessary, the pre-recognition result data will be corrected based on this, and the sample It is possible to input different specifications.

ところで、顧客による変形指示としては、商品の部分各
々に対する細かいものだけではなく、商品全体に対する
一括したものであることも多いが、商品全体に対する一
括変形指示を商品の各々の部分に対する個別的指示に変
換するようにすれば、一括変形指示によっても、外観仕
様は容易に修正され得るものである。しかしながら、一
括変形指示はえてして感覚的であり、したがって、曖昧
な表現になりがちであるから、変形結果が顧客が意図し
たものと異なる場合は、グラフィックエディタを用い変
形結果を修正し、この修正値を用い一括した変形指示を
個別的指示に変換する機構で用いられるパラメータを変
更することにより、この変換パラメータを顧客の意図に
合致するように学習させることが可能となる。
By the way, the customer's transformation instructions are not only detailed instructions for each part of the product, but also general instructions for the entire product. If it is converted, the appearance specifications can be easily modified even by a batch transformation instruction. However, batch transformation instructions are often intuitive and therefore tend to be vaguely expressed, so if the transformation result is different from what the customer intended, use a graphic editor to modify the transformation result and use the modified value. By changing the parameters used in the mechanism that converts collective transformation instructions into individual instructions using , it becomes possible to learn the conversion parameters to match the customer's intentions.

以上のようにして、顧客の意図に合致した商品仕様が決
定されたならば、その商品仕様データと商品の構造を記
述した構造記述データに付加された製造方法を記述した
データからは、製造に要される費用、期間の見積が可能
となるものである。
Once the product specifications that match the customer's intentions have been determined as described above, the data describing the manufacturing method added to the product specification data and the structure description data describing the structure of the product can be used to determine the manufacturing method. It is possible to estimate the cost and period required.

その見積の際、製造ラインの状況を示すデータや、過去
での見積データと実際に製造に要された費用、期間の関
係を参照するようにすれば、見積の精度がより向上され
得るものである。
When making an estimate, the accuracy of the estimate can be further improved by referring to data showing the status of the production line and the relationship between past estimate data and the actual cost and period required for manufacturing. be.

[実施例] 以下、本発明を第1図から第12図により説明する。[Example] The present invention will be explained below with reference to FIGS. 1 to 12.

先ず本発明による商品仕様決定見積装置について説明す
れば、第1図はその一例での構成を商品仕様決定に係る
部分について示したものである。
First, the product specification determination and estimation device according to the present invention will be described. FIG. 1 shows the configuration of an example of the device relating to product specification determination.

これによる場合、データベース1には各種商品の構造が
記述された構造記述データが予め格納されており、また
、モデル化処理部2では顧客からの要求に基づき入力さ
れた商品の種類、属性を受け、その種類、属性に対応す
るデータをデータベース1から検索し、それらを組合せ
ることによって顧客が指定した商品の構造を記述したデ
ータが生成されたうえ、製品クラスオブジェクトベース
3に格納されるようになっている。製品に対する外観要
求仕様としてのサンプル外観は、センサ4によってその
サンプル外観の画像データが検出され、画像データはバ
ーセブション5で解析されることによって、そのサンプ
ル外観が認識されるものとなっている。その際、バーセ
ブション5での認識を補助すべく予測処理部6では製品
クラスオブジェクトベース3からサンプルの見え方(予
測モデル)が予測されたうえ予測モデルベース7に格納
されるようになっている。パーセプション5ではその予
測モデルを用い認識を行なうが、認識結果は認識オブジ
ェクトベース8に格納されるものとなっている。構造解
釈部9ではその認識オブジェクトベース8内に格納され
ているサンプルの認識結果と予測モデルベース7、およ
び製品クラスオブジェクトベース3内のデータを比較し
て商品の構造要素に認識結果データを対応させ、その結
果を製品インスタンスオブジェクトベース10に格納す
るようになっている。グラフィック処理部12ではその
製品インスタンスオブジェクトベースlO内のデータか
らディスプレイ表示用データを生成することによって、
顧客の提示したサンプルに基づく商品の外観および機能
仕様がディスプレイ13上に表示されることで、顧客は
その仕様を確認し得るものである。もしも、表示されて
いるその仕様を顧客が変更したい場合には、コマンド入
力部14から変更指示が入力されることで、この変更指
示に基づき仕様決定モジュール11では製品インスタン
スオブジェクトベース10内のデータを修正し、この結
果を表示して顧客に変更された仕様を確認させるように
なっている。この仕様変更の過程は、顧客が満足するま
で繰返されるものである。
In this case, the database 1 stores in advance structural description data that describes the structure of various products, and the modeling processing unit 2 receives product types and attributes input based on requests from customers. , the data corresponding to the type and attributes are searched from the database 1, and by combining them, data describing the structure of the product specified by the customer is generated and stored in the product class object base 3. It has become. The image data of the sample appearance as a required specification for the product is detected by the sensor 4, and the image data is analyzed by the recognition section 5, so that the sample appearance can be recognized. At this time, in order to assist recognition in the perception 5, the prediction processing unit 6 predicts the appearance of the sample (prediction model) from the product class object base 3 and stores it in the prediction model base 7. In perception 5, recognition is performed using the predictive model, and the recognition results are stored in recognition object base 8. The structure interpretation unit 9 compares the sample recognition results stored in the recognition object base 8 with the prediction model base 7 and the data in the product class object base 3, and matches the recognition result data to the structural elements of the product. , the results are stored in the product instance object base 10. The graphic processing unit 12 generates display data from the data in the product instance object base 10, thereby
By displaying the appearance and functional specifications of the product based on the sample presented by the customer on the display 13, the customer can confirm the specifications. If the customer wants to change the displayed specifications, a change instruction is input from the command input section 14, and the specification determination module 11 changes the data in the product instance object base 10 based on this change instruction. The results are displayed so that the customer can confirm the changed specifications. This process of changing specifications is repeated until the customer is satisfied.

第2図はその要部構成要素としてのセンサの一例での構
成を示したものである。本例でのものはサンプルの3次
元形状および色彩を入力するためのものであり、サンプ
ルはこれを保持するためのステージ4のそのフレーム内
側に取り付けられた透明ネット44上に置かれるように
なっており、このように置かれたサンプルのその3次元
形状とその色彩がその周囲からセンサによって検出され
るようになっている。具体的には、サンプルが置かれる
位置に対しては、その上下、左右、前後に6台のカラー
カメラ421,422,423424,425,426
がセンサとしては位置されているものであり、また、右
上、左上、右下、左下にはそれぞれスリット投光器43
1,432,433,434がそのサンプルにスリット
光を照射すべく配置されたものとなっている。それら6
台のカラーカメラの相互位置は予めキャリブレーション
パターンを用いて調べられており、また、スリット投光
器との位置関係も予め調べられたものとなっている。し
たがって、スリット光が照射されているサンプル部分で
の3次元位置が検出され得るものである。また、スリッ
ト光が照射されたサンプル部分でのカラー画像からはそ
のサンプルの3次元形状と色彩が一体として入力され得
るものである。
FIG. 2 shows the configuration of an example of a sensor as a main component thereof. In this example, the three-dimensional shape and color of the sample are input, and the sample is placed on a transparent net 44 attached to the inside of the frame of the stage 4 to hold it. The three-dimensional shape and color of the sample placed in this way can be detected by sensors from its surroundings. Specifically, for the position where the sample is placed, six color cameras 421, 422, 423, 424, 425, 426 are installed above, below, left and right, and in front and behind the sample.
are located as sensors, and slit projectors 43 are located at the upper right, upper left, lower right, and lower left, respectively.
1,432, 433, and 434 are arranged to irradiate the sample with slit light. those 6
The mutual positions of the color cameras on the stand have been checked in advance using a calibration pattern, and the positional relationship with the slit projector has also been checked in advance. Therefore, the three-dimensional position of the sample portion irradiated with the slit light can be detected. Furthermore, the three-dimensional shape and color of the sample can be input as one from the color image of the sample portion irradiated with the slit light.

以上のようなセンサ構成により透明ネット44上に置か
れるサンプルはその形状、色彩が全周囲から入力される
ものである。
With the sensor configuration as described above, the shape and color of the sample placed on the transparent net 44 are inputted from all around.

第3図は本発明に係る仕様決定モジュール11の一例で
の構成を示したものである。仕様決定モジュール11は
商品の外観に対する変形指示に基づき商品の外観仕様を
変更するためのものであり、変形指示の種類としては、
例えば模型飛行機に対して、「主翼を長く」といったよ
うな構造要素各々に対するものだけではなく、全体を「
細長く」といったような、全体に対するものも許容され
るようになっている。仕様決定モジュール11は図示の
ように、入力層111、中間層112および製品パラメ
ータ層113よりなる、3つに階層構成化されたユニッ
トと、コマンド解析部110と、学習機構114とから
構成されたものとなっている。このうち、製品パラメー
タ層113は製品インスタンスオブジェクトベース10
に接続されており、製品パラメータ層113からの出力
によって製品インスタンスオブジェクトベース10内デ
ータが修正されることによって、商品の外観仕様が変更
され得るものとなっている。また、入力層111は変形
指示の種類対応に存在するが、ここで変形指示コマンド
について説明すれば、その例は第4図に示すようである
FIG. 3 shows the configuration of an example of the specification determination module 11 according to the present invention. The specification determination module 11 is for changing the appearance specifications of the product based on transformation instructions for the appearance of the product, and the types of transformation instructions include:
For example, for a model airplane, it is not just about each structural element, such as making the main wing longer, but also about the whole thing.
It is now also acceptable to refer to the whole, such as "long and thin." As shown in the figure, the specification determination module 11 is composed of three hierarchical units consisting of an input layer 111, an intermediate layer 112, and a product parameter layer 113, a command analysis section 110, and a learning mechanism 114. It has become a thing. Among these, the product parameter layer 113 is the product instance object base 10
The appearance specifications of the product can be changed by modifying the data in the product instance object base 10 based on the output from the product parameter layer 113. Further, the input layer 111 exists for each type of transformation instruction, and an example of the transformation instruction command will be explained in FIG. 4.

図示のように、全体形状修飾語、形状色彩表現語、印象
表現語、価値表現語、環境表現語、機能表現記、程度修
飾語呂々について各種の語猜が用意されたものとなって
いる。ここで、例えば「細長く」といった変形指示が入
力された場合を想定すれば、この変形指示はコマンド解
析部110でデコードされ、「細長く」に対応する入カ
ニニット1111のみに所定の数値が出力されるように
なっている。この数値に基づき入カニニット1111で
は関数値を出力するが、入カニニブト各々からの関数値
には入カニニットおよび中間ユニット対応の中間層重み
係数が乗じられたうえ、それら和がその中間ユニットへ
の出力値f1として与えられるようになっている。即ち
、ある中間ユニットへの出力値f1m(mはその中間ユ
ニットについてのユニット番号)は、入カニニットのユ
ニット番号、を変数として以下のようにシグモイド関数
によって与えられるものとなっている。
As shown in the figure, various types of words are prepared for overall shape modifiers, shape and color expressions, impression expressions, value expressions, environmental expressions, function expressions, and degree modifiers. Here, for example, assuming that a transformation instruction such as "long and thin" is input, this transformation instruction is decoded by the command analysis unit 110, and a predetermined numerical value is output only to the input crab unit 1111 corresponding to "long and thin". It looks like this. Based on this value, the input crab unit 1111 outputs a function value, but the function value from each input crab unit is multiplied by the intermediate layer weighting coefficient corresponding to the input crab unit and the intermediate unit, and the sum is the output to that intermediate unit. It is designed to be given as a value f1. That is, the output value f1m to a certain intermediate unit (m is the unit number for that intermediate unit) is given by a sigmoid function as shown below, using the unit number of the input unit as a variable.

f 1m=Σ((入カニニット出力)1×(中間層重み
係数)1.)       ・・・・・・・・・(1)
中間ユニット各々には以上のようにしてfl++が与え
られるが、これに基づき中間ユニット各々ではまたある
関数値を出力され、製品パラメータユニットに与えられ
るようになっているものである。
f 1m=Σ((input crab unit output) 1×(middle layer weighting coefficient) 1.) ・・・・・・・・・(1)
Each intermediate unit is given fl++ as described above, but based on this, each intermediate unit also outputs a certain function value, which is then given to the product parameter unit.

中間ユニット各々と製品パラメータ各々との入出力関係
は入カニニブト各々と中間ユニット各々との入出力関係
に同様である。即ち、ある製品パラメータユニットへの
出力値f。。(nはその製品パラメータユニットについ
てのユニット番号)は、中間ユニットのユニット番号m
を変数として以下のように与えられるものとなっている
The input/output relationship between each intermediate unit and each product parameter is similar to the input/output relationship between each input crab and each intermediate unit. That is, the output value f to a certain product parameter unit. . (n is the unit number for that product parameter unit) is the unit number m of the intermediate unit
is given as a variable as follows.

f、。=Σ((中間ユニット出力)。×(製品パラメー
タ層重み係数)、。)  ・・・・・・・・・(2)さ
て、f6.、に基づき製品パラメータユニット各々から
はある関数値が得られるが、これら関数値に基づき製品
インスタンスオブジェクトベース10内のデータが変更
されるものである。このような処理により変形指示コマ
ンドに基づき製品パラメータが変換され得るものである
。なお、上記例での説明では、「細長く」に対応する入
カニニットが存在する場合でのものであるが、もしも、
それに対応する入カニニットが存在しなく、その代りに
例えば、「細く」、「長く」各々に対応する入カニニッ
トが存在する場合には、これら入カニニブト各々にはコ
マンド解析部110より所定の数値のl/2相当の数値
が与えられる、といった具合にして入カニニブト各々に
は数値が与えらるようになっている。
f. =Σ((intermediate unit output).×(product parameter layer weighting coefficient), .) ・・・・・・・・・(2) Now, f6. , a certain function value is obtained from each product parameter unit, and data in the product instance object base 10 is changed based on these function values. Through such processing, product parameters can be converted based on the modification instruction command. In addition, the explanation in the above example is for the case where there is a crab knit corresponding to "slender", but if
If there is no corresponding incoming crab knit, but instead there are incoming crab knits corresponding to "thin" and "long", each of these incoming crab knits is given a predetermined numerical value by the command analysis unit 110. Each incoming crab is given a numerical value, such as a numerical value equivalent to 1/2.

第5図は入力層111内各ユニツトの一例を示したもの
である。図示のように、「主翼を長く」「水平尾翼を長
く」といったように、各構造要素への変形指示の他に、
「細長く」といったような、全体に対する変形指示もあ
るので、一括した変形指示を各構造要素への変形指示に
変換することが可能となっている。また、「スマートに
」、「重厚に」といったように、感覚的な用語に対応す
る入カニニットもあるので、感覚的な変形指示を各構造
要素への変形指示へ変換することも、更には「高速に」
1「頑丈に」のように、機能を示す用語に対応する入カ
ニニットによっては、機能的指示を各構造要素への変形
指示に変換することも可能となっている。
FIG. 5 shows an example of each unit in the input layer 111. As shown in the diagram, in addition to instructions for deforming each structural element, such as ``lengthen the main wing'' and ``lengthen the horizontal stabilizer,''
Since there are deformation instructions for the entire structure, such as ``elongate and elongate,'' it is possible to convert a collective deformation instruction into a deformation instruction for each structural element. In addition, there are also irikannits that correspond to sensory terms such as "smartly" and "heavily," so it is possible to convert sensory deformation instructions into deformation instructions for each structural element. Fast”
1. Depending on the Ikaninit that corresponds to a term indicating a function, such as ``sturdy'', it is also possible to convert a functional instruction into a modification instruction for each structural element.

以上に示したように、変形指示を認識結果データに対す
る変形指示へ変換するためには、中間層重み係数や製品
パラメータ層重み係数等の変換パラメータを適切に設定
する必要があるが、この変換パラメータの決定方法を第
6図に示す。これによる場合、先ず変換パラメータは適
当に初期設定されるようになっている(処理601)。
As shown above, in order to convert transformation instructions into transformation instructions for recognition result data, it is necessary to appropriately set conversion parameters such as intermediate layer weighting coefficients and product parameter layer weighting coefficients. The method for determining is shown in Figure 6. In this case, first, the conversion parameters are initialized appropriately (process 601).

初期設定の方法としては、適当な変換パラメータが何等
かの方法で予測される場合はそれを用いてもよいが、予
測され得ない場合には、乱数を用いるようにしてもよい
。次に、何等かの変形指示が入力されれば(処理602
)、この変形指示に対し、設定されている変換パラメー
タによる変換を行ない、製品パラメータ層113から製
品インスタンスオブジェクトベース10内のデータに対
する修正量を出力しく処理603)、この修正量に基づ
き修正された商品仕様はディスプレイ13上に表示され
るようになっている(処理604)。この表示より修正
結果が意図した変形指示に合致したものであるか否かが
判定され得るが(処理605)、もしも修正結果が意図
したものならば一連の処理は終了されることになる。し
かしながら、上膜的には、当初の変換パラメータは適切
に定められているわけではないので、意図した変形指示
に合致しない、と容易に予想されるところである。この
ような場合には、意図した変形結果を希望変形値として
入力することで(処理606)、変換パラメータが修正
され得るものである(処理607)。例えば外観に関す
る変形指示の場合は、変換結果の画像に対し、グラフィ
ック処理部12でのグラフィックエディタ機能を用い意
図に合致すべく形状を修正するようにし、また、機能に
関する指示の場合には、意図した機能の数値を入力し、
この意図した結果と、当初の変換パラメータを用いて変
換した結果の差を求め、この差が減少するように変換パ
ラメータが修正されるものである。即ち、変形指示に対
する処理結果と、その変形指示を指示した者の意図を入
力し、その差が減少されるべく変換パラメータが修正さ
れることによって、変形指示の意図する内容が自動的に
学習されるものである。これにより数値的に明確に指定
し得る機能性能的要求だけでなく、明確に定義すること
が困難な感覚的仕様要求に対しても、その意図を入力し
理解し得ることになる。
As the initial setting method, if appropriate transformation parameters can be predicted by some method, that method may be used, but if they cannot be predicted, random numbers may be used. Next, if some transformation instruction is input (process 602
), in response to this transformation instruction, performs transformation using the set transformation parameters, outputs the amount of modification to the data in the product instance object base 10 from the product parameter layer 113 (603), and performs the modification based on this amount of modification. The product specifications are displayed on the display 13 (process 604). From this display, it can be determined whether the modified result matches the intended transformation instruction (process 605), but if the modified result is the intended one, the series of processes ends. However, from an epithelial point of view, the initial transformation parameters are not properly defined, so it is easy to predict that they will not match the intended transformation instructions. In such a case, the transformation parameters can be modified (process 607) by inputting the intended transformation result as the desired transformation value (process 606). For example, in the case of a transformation instruction regarding appearance, the shape of the converted image is modified using the graphic editor function of the graphic processing unit 12 to match the intention; Enter the value of the function you
The difference between this intended result and the result converted using the original conversion parameters is determined, and the conversion parameters are corrected so as to reduce this difference. That is, by inputting the processing result for the transformation instruction and the intention of the person who gave the transformation instruction, and modifying the transformation parameters to reduce the difference between them, the intended content of the transformation instruction is automatically learned. It is something that This makes it possible to input and understand the intent of not only functional and performance requirements that can be clearly specified numerically, but also sensory specification requirements that are difficult to clearly define.

次に、パーセブション5において、センサとして接続さ
れている複数のカメラやレンジファインダから如何なる
順にデータを取り込み、サンプルを認識するかについて
説明する。サンプルと一口にいっても、単純なものから
複雑なものまで各種存在していることから、複雑なサン
プルを認識するためには多数のセンサが要されることに
なる。
Next, in perception 5, the order in which data is taken in from a plurality of cameras and range finders connected as sensors and the samples are recognized will be explained. When it comes to samples, there are many types ranging from simple to complex, so a large number of sensors are required to recognize complex samples.

多数のセンサからデータを取り込んで認識を行なう場合
は、多くの時間が要されることになるが、サンプルが単
純な場合は、少数のセンサからのデータを処理するだけ
で充分な場合があることは明らかである。したがって、
必要最小限の時間でサンプルを認識するためには、サン
プルの形状に応じて使用されるセンサの数を決定するこ
とが有効となっている。パーセプション5では予測モデ
ルベース7を参照することによって、サンプルの予測さ
れる見え方が知れるが、これを用いたセンサの使用手順
の一例を第7図に示す。先ずカメラが第2図に示すよう
に6台ある場合には、サンプルの対称性が調べられ、対
称ならば片側の認識に必要なカメラのみが使用されるよ
うになっている。
Acquiring and recognizing data from a large number of sensors will require a lot of time, but if the sample is simple, processing data from a small number of sensors may be sufficient. is clear. therefore,
In order to recognize a sample in the minimum necessary time, it is effective to determine the number of sensors to be used depending on the shape of the sample. In perception 5, the predicted appearance of the sample can be known by referring to the prediction model base 7, and an example of the procedure for using the sensor using this is shown in FIG. First, when there are six cameras as shown in FIG. 2, the symmetry of the sample is checked, and if it is symmetrical, only the cameras necessary for recognizing one side are used.

例えば左右が対称であるサンプルの場合、上、下、前、
後、右側の5台のカメラのみ使用して順次画像を取込む
ようにすればよく、左側のカメラは不要であるというも
のである。また、サンプルが多面体であって、全ての稜
線が何れか2台以上のカメラから検出されるならば、カ
メラだけでステレオ法により3次元形状が認識され得、
レンジファインダの使用は不要となっている。以上の場
合以外は、カメラだけでは3次元形状を認識し得ないの
で、レンジファインダが使用される必要があるものとな
っている。この場合でもレンジファインダで3次元形状
を認識する必要のある部分は限定され得るので、その部
分についてだけ3次元形状を計測すればよいものとなっ
ている。更にサンプルの厚さが−様な2次元形状ならば
、上下2台のカメラだけで形状が認識され得るものであ
る、このようにして、予測形状の特徴と必要なセンサと
の関係は幾何学的な計算によって求められるものである
For example, in the case of a symmetrical sample, top, bottom, front,
After that, it is sufficient to use only the five cameras on the right side to sequentially capture images, and the camera on the left side is not necessary. Furthermore, if the sample is a polyhedron and all edges are detected by two or more cameras, the three-dimensional shape can be recognized by the stereo method using only the cameras.
There is no need to use a range finder. In cases other than the above, a three-dimensional shape cannot be recognized with a camera alone, so a range finder must be used. Even in this case, the portion where the three-dimensional shape needs to be recognized by the range finder can be limited, so it is only necessary to measure the three-dimensional shape of that portion. Furthermore, if the sample has a two-dimensional shape with a similar thickness, the shape can be recognized using only the upper and lower cameras.In this way, the relationship between the characteristics of the predicted shape and the necessary sensors can be determined based on geometry. It is determined by a mathematical calculation.

次に入力されたサンプルを基にして外観が決定された商
品の機能を予測する方法について説明すれば、第8図は
商品の構造が記述されたデータの一例を示したものであ
る。このデータには商品の構造が記述されたスロットの
他に、商品の機能を予測する手続が含まれており、更に
サンプルの認識結果データ、あるいはそれの修正データ
が指し示されている。したがつて、認識結果データに基
づいて商品の機能を予測することは、認識結果データを
パラメータとして、商品の機能を予測する手続を起動す
ることによって実現され得るものである。
Next, a method for predicting the function of a product whose appearance has been determined based on the input sample will be described. FIG. 8 shows an example of data describing the structure of the product. This data includes a slot in which the structure of the product is described, a procedure for predicting the function of the product, and further points to sample recognition result data or correction data thereof. Therefore, predicting the function of a product based on the recognition result data can be realized by starting a procedure for predicting the function of the product using the recognition result data as a parameter.

更にまた、認識結果を表示する際、認識結果の表示範囲
、方向、倍率の指示を受け付け、この指示に基づき表示
を行なう方法について説明すれば、このような表示方法
は認識結果を確認する場合や、認識結果を変更したい場
合に有効な機能となっている。即ち、2次元ディスプレ
イ上では、認識されたサンプルの片側だけしか表示され
ず、1画面だけからは全体の外観が判らないというわけ
である。また、商品の外観仕様を変更しようとした場合
にも、1画面だけでは変更に係る部分を表示し得ない場
合があることから、そのような表示方法は必要であるば
かりでなく、また、表示可とされる場合は認識結果の確
認や変更が速やかに行なわれ得ることになるものである
。第9図はそのような表示を可能ならしめる一例での構
成を示したものである。ここで、ダイヤル121は構造
記述データにおける商品形状記述の座標原点を中心とし
て、回転させる角度を入力するためのものであり、これ
より指定角度が入力されたならば、構造記述データが指
しているサンプルの認識結果データ、あるいはそれの修
正データの位置を回転させることによって、認識結果は
その表示方向が任意に変更可として表示され得るもので
ある。また、スティック122はそれ自体が上下、左右
方向に移動されることによって、構造記述データにおけ
る製品形状記述の座標原点を画面座標に対して上下、左
右方向に移動させること、即ち、上下、左右方向に画像
をスクロール表示するためのものであり、スティック1
23はそれ自体が上下方向に移動されることで、認識結
果の表示倍率を変更し得るものとなっている。グラフィ
ック処理部12ではそれら人力機器からの指示に基づき
その指示に応じた表示制御を行なうことで、ディスプレ
イ13上には認識結果の変更後の表示範囲や、表示方向
、表示倍率に係る画像が表示されるようになっているも
のである。
Furthermore, when displaying recognition results, it is possible to accept instructions for the display range, direction, and magnification of the recognition results, and to display the results based on these instructions. This is an effective function when you want to change the recognition results. That is, on a two-dimensional display, only one side of the recognized sample is displayed, and the entire appearance cannot be seen from only one screen. In addition, even when attempting to change the appearance specifications of a product, it may not be possible to display the changed part on one screen, so such a display method is not only necessary, but also If it is approved, the recognition results can be checked and changed quickly. FIG. 9 shows an example of a configuration that enables such display. Here, the dial 121 is for inputting the angle to be rotated around the coordinate origin of the product shape description in the structure description data, and if the specified angle is input from this, it is indicated by the structure description data. By rotating the position of the sample recognition result data or its modified data, the recognition results can be displayed in a display direction that can be changed arbitrarily. In addition, by moving the stick 122 vertically and horizontally, the coordinate origin of the product shape description in the structure description data can be moved vertically and horizontally with respect to the screen coordinates, that is, in the vertical and horizontal directions. This is for scrolling the image on the stick 1.
23 itself can be moved up and down to change the display magnification of the recognition results. The graphic processing unit 12 performs display control based on the instructions from these human-powered devices, so that images related to the display range, display direction, and display magnification after the recognition result has been changed are displayed on the display 13. This is what is meant to be done.

ところで、以上のようにして、サンプルの認識結果を各
方向から調べてみた場合、認識がされていない部分、あ
るいは認識に誤りがある部分が発見されることがあるが
、このような場合にはその部分についての認識を再度行
ない正しい認識結果を得る必要があるが、正しい認識結
果を得る方法について説明すれば、第1O図はその方法
手順を示したものである。これによる場合、先ず第9図
に示された手段によってサンプルの認識結果がチエツク
されるようになっている(処理101)。この結果、認
識がされていない部分、あるいは誤認識されている部分
が発見された場合には(処理102)、画面はその部分
が表示された画面に設定されるようになっている。この
画面設定では先ず画面上での再認識に係る範囲がマウス
124によって指定され(処理103)、この指定で再
認識に係る範囲を、構造記述データにおいて商品形状を
記述した座標で得ることが可能となるものである。この
座標位置をパーセブション5に与えるようにすれば(処
理104)、バーセプション5では認識対象としての位
置範囲に対し、適切なセンサを用い認識を行なわれるよ
うになっている(処理105)。より具体的には、パー
セブション5では、予め記憶されている、初めにその位
置範囲を認識するのに用いられたセンサ種類および認識
アルゴリズムの種類とは異なるセンサ、あるいは認識ア
ルゴリズムによって、認識対象としての位置範囲が認識
されるようになっているものである。以上の一連の処理
により前回とは異なる認識結果が得られたうえ表示され
るが、この認識結果が正しければこれで処理は終了され
るものである。もしも、認識結果が誤っていれば、正し
い認識結果が得られるまで、上記処理が繰返されるよう
になっているものである。
By the way, if you examine the sample recognition results from various directions as described above, you may find parts that are not recognized or parts that are incorrectly recognized. It is necessary to perform the recognition of that part again to obtain a correct recognition result, but the method for obtaining a correct recognition result will be described. FIG. 1O shows the procedure of the method. In this case, first, the recognition result of the sample is checked by the means shown in FIG. 9 (process 101). As a result, if an unrecognized portion or a misrecognized portion is found (process 102), the screen is set to the screen on which that portion is displayed. In this screen setting, first, the range related to re-recognition on the screen is specified using the mouse 124 (process 103), and with this specification, the range related to re-recognition can be obtained by the coordinates describing the product shape in the structure description data. This is the result. If this coordinate position is given to perception 5 (process 104), perception 5 will perform recognition using an appropriate sensor for the position range as a recognition target (process 105). More specifically, in perception 5, a recognition target is detected using a sensor or recognition algorithm different from the previously stored sensor type and recognition algorithm type used to initially recognize the position range. The position range of the location is recognized. Through the series of processes described above, a recognition result different from the previous one is obtained and displayed, but if this recognition result is correct, the process ends. If the recognition result is incorrect, the above process is repeated until a correct recognition result is obtained.

さて、以上のようにして、商品の仕様が決定され得るが
、この後はその仕様に係る商品の製造に要される費用、
期間が見積もられるようになっている。この見積の方法
について説明すれば、それら費用や期間はその商品につ
いての標準仕様にほぼ同一ならばほぼ一定となるが、商
品仕様決定見積装置で受注される、顧客からの要求を多
分に含む商品は一品毎にその仕様が異なっていることか
ら、製造に要される費用、期間もまた一品毎に異なった
ものとなっている。製造に要される費用、期間の見積を
行なうためには、第11図に示すように、商品の構造記
述データのスロットに製造方法を記述したデータと、製
造に要される費用、期間を予測する手続とが必要となっ
ている。その構造記述データにはサンプルの認識結果デ
ータ、あるいはその修正データ等、その商品に対する要
求仕様を示すデータと製造ラインの状況を示すデータも
併せて指し示していることから、これらデータをも参照
することで、見積が行なわれ得るものとなっている。即
ち、要求仕様に係る商品の製造に要される費用や期間は
、製造方法記述データ、製造ライン状況データ、更には
認識結果データ等の商品についての要求仕様データをパ
ラメータとして、製造に要される費用や期間を予測する
ための手続が起動されることによって、見積りされるよ
うになっているものである。
Now, the specifications of the product can be determined as described above, but after this, the cost required to manufacture the product according to the specifications,
The period is now estimated. To explain this estimation method, the cost and period will be almost constant if the standard specifications for the product are almost the same, but for products that are ordered using the product specification determination and quotation system and that include many requests from customers. Since the specifications differ for each item, the cost and time required for manufacturing also differ for each item. In order to estimate the cost and period required for manufacturing, as shown in Figure 11, data that describes the manufacturing method in the slot of the product structure description data and the estimated cost and period required for manufacturing are required. Procedures to do so are required. The structure description data also points to data indicating the required specifications for the product and data indicating the status of the manufacturing line, such as sample recognition result data or its correction data, so these data should also be referred to. Therefore, an estimate can be made. In other words, the cost and time required to manufacture a product according to the required specifications are determined based on the required specification data for the product, such as manufacturing method description data, production line status data, and recognition result data, as parameters. Estimates are made by invoking procedures to predict costs and periods.

費用や期間は以上のようにして見積りされるが、ここで
、見積予測精度を向上させる方法について説明すれば、
第12図は見積予測精度を向上させるための商品につい
ての構造記述データの例を示したものである。これによ
る場合、第11図に示すデータに加え、更に予測処理パ
ラメータ変更手続、予測処理パラメータ、過去の予測デ
ータ、実際に製造に要された費用・期間のデータが追加
されたものとなっている。このうち、予測処理パラメー
タ変更手続では過去の予測データと実際に製造に要され
た費用、期間のデータとの違いから予測処理パラメータ
が変更されるようになり−でいる。これにより予測処理
パラメータは予測データと実際に製造に要された費用、
期間のデータとが近づくように修正されるものである。
Costs and periods are estimated as described above, but here we will explain how to improve the estimation accuracy.
FIG. 12 shows an example of structural description data about products for improving estimate prediction accuracy. In this case, in addition to the data shown in Figure 11, the prediction processing parameter change procedure, prediction processing parameters, past prediction data, and data on the actual cost and period required for manufacturing are added. . Among these, in the prediction processing parameter change procedure, the prediction processing parameters are changed based on the difference between the past prediction data and the actual cost and period data required for manufacturing. As a result, the prediction processing parameters are calculated based on the prediction data and the actual manufacturing costs.
The data will be corrected so that it is closer to the period data.

なお、予測処理パラメータは製造に要される費用、期間
を予測する手続によって参照されるようになっている。
Note that the predicted processing parameters are referred to in the procedure for predicting the cost and period required for manufacturing.

[発明の効果] 以上説明したように、本発明による場合は、顧客による
商品に対する要求仕様を明確に入力し得、特に、仕様を
特定することが困難とされている外観形状をサンプルを
ベースにして、それを必要に応じて変形することによっ
て容易に外観仕様が入力され得るものとなっている(特
に請求項2.10に関連)。
[Effects of the Invention] As explained above, according to the present invention, it is possible to clearly input the specifications required by the customer for the product, and in particular, it is possible to input the external shape, which is difficult to specify, based on a sample. Therefore, the appearance specifications can be easily input by changing it as necessary (particularly related to claim 2.10).

その際、変形指示としては、局所的な範囲に対する幾何
学的変形指示だけでなく、全体形状に対する一括変形指
示や感覚的表現が可能とされていることから、極めて容
易にサンプルより認識された外観形状を変形し得るもの
となっている。しかも、そのような変形指示に対する変
換処理においては、顧客の意図を学習し得ることから、
曖昧な感覚的指示に対しても、次第に的確な変換を行な
い得るものとなっている(特に請求項2.12〜15に
関連)。
At this time, the deformation instructions are not only geometric deformation instructions for local areas, but also batch deformation instructions and sensory expressions for the entire shape, so it is extremely easy to recognize the appearance from the sample. The shape can be changed. Moreover, in the conversion process for such transformation instructions, the customer's intention can be learned.
Even ambiguous sensory instructions can be converted gradually and accurately (particularly related to claims 2.12 to 15).

更には、以上のようにして、商品仕様が入力された後は
、その商品仕様に基づき個別仕様の商品に対し、高精度
にその商品の製造に要される費用、期間が見積られるも
のとなっている(特に請求項3,16.17に関連)。
Furthermore, after the product specifications are input in the manner described above, the cost and period required to manufacture the product can be estimated with high accuracy for the individual specification product based on the product specifications. (particularly related to claims 3, 16 and 17).

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明による商品仕様人力装置の一例での構
成を示す図、第2図゛は、その1構成要素としてのセン
サの一例での構成を示す図、第3図は、同じくその1構
成要素としての仕様決定モジュールの一例での構成を示
す図、第4図は、商品の外観を変更する場合での各種変
形指示コマンドの例を示す図、第5図は、仕様決定モジ
ュールの1構成要素としての入力層ユニットの一例を示
す図、第6図は、変形指示を認識結果データに対する変
形指示へ変換するための変換パラメータの決定方法を示
す図、第7図は、センサ使用手順の一例を示す図、第8
図は、製品の機能予測を可能ならしめる製品構造記述デ
ータの一例を示す図、第9図は、認識結果の表示を各種
変化させる場合での一例での構成を示す図、第10図は
、認識結果のチエツク手順を示す図、第11図は、商品
の製造に要される費用や期間の見積を行なうための商品
構造記述データの一例を示す図、第12図は、その見積
精度を向上させるための商品構造記述データの一例を示
す図である。 l・・・データベース、2・・・モデル化処理部、3・
・・製造クラスオブジェクトベース、4・・・センサ、
5・・・パーセブション、6・・・予測処理部、7・・
・予測モデルベース、8・・・認識オブジェクトベース
、9・・・構造解釈部、IO・・・製品インスタンスオ
ブジェクトベース、11・・・仕様決定モジュール、1
2・・・グラフィック処理部、13・・・ディスプレイ
、14・・・コマンド入力部、41・・・ステージ、4
21〜426・・・カラーカメラ、431〜434・・
・スリット投光器、44・・・透明ネット、110・・
・コマンド解釈部、111・・・入力層、112・・・
中間層、113・・・製品パラメータ層、114・・・
学習機構、121・・・ダイヤル、122,123・・
・スティック、124・・・マウス
FIG. 1 is a diagram showing the configuration of an example of a product specification human-powered device according to the present invention, FIG. 2 is a diagram showing the configuration of an example of a sensor as one component of the device, and FIG. FIG. 4 is a diagram showing an example of the configuration of a specification determination module as one component. FIG. 4 is a diagram showing an example of various transformation instruction commands when changing the appearance of a product. FIG. FIG. 6 is a diagram showing an example of an input layer unit as one component, FIG. 6 is a diagram showing a method for determining conversion parameters for converting a deformation instruction into a deformation instruction for recognition result data, and FIG. 7 is a diagram showing a sensor usage procedure. Figure 8 showing an example of
The figure shows an example of product structure description data that makes it possible to predict the functions of a product, FIG. 9 shows an example of a configuration in which the display of recognition results is changed in various ways, and FIG. Figure 11 shows an example of product structure description data for estimating the cost and period required to manufacture a product. Figure 12 shows how to improve the estimation accuracy. FIG. 3 is a diagram showing an example of product structure description data for use in the product structure. l...Database, 2...Modeling processing unit, 3.
... Manufacturing class object base, 4... Sensor,
5... Perception, 6... Prediction processing unit, 7...
- Prediction model base, 8... Recognition object base, 9... Structure interpretation unit, IO... Product instance object base, 11... Specification determination module, 1
2... Graphic processing unit, 13... Display, 14... Command input unit, 41... Stage, 4
21-426...Color camera, 431-434...
・Slit floodlight, 44...Transparent net, 110...
・Command interpretation unit, 111... Input layer, 112...
Middle layer, 113...Product parameter layer, 114...
Learning mechanism, 121...Dial, 122, 123...
・Stick, 124...Mouse

Claims (1)

【特許請求の範囲】 1、商品に対する顧客の要求仕様を変更可として入力・
決定する商品仕様決定手段と、該手段によって決定され
た商品仕様に基づき該商品の製造に要される費用、期間
の見積を行なう見積手段とが具備されてなる構成の商品
仕様決定見積装置。 2、商品仕様決定手段として少なくとも、各種商品の構
造が記述された構造記述データを格納するデータベース
と、商品に対する外観仕様を示すサンプルの外観を入力
する複数のセンサと、該センサによって得られたデータ
を解析しサンプルの外観を認識する手段と、該認識結果
を格納する手段と、該サンプルの該認識結果データと上
記構造記述データとを比較して商品の構造要素に認識結
果データを対応させる手段と、該認識結果データから生
成されたディスプレイ表示用データに基づき認識結果を
表示する手段と、該認識結果データに対する変形指示を
受け付ける手段と、該変形指示に基づいて認識結果デー
タを修正し再表示する手段とが具備されている、請求項
1記載の商品仕様決定見積装置。 3、見積手段として、商品の構造が記述された構造記述
データに製造方法が記述されたデータが付加されたもの
を格納するデータベースと、商品に対する決定された商
品仕様を格納する手段と、上記構造記述データおよび商
品に対する決定された要求仕様を用い上記商品仕様の商
品の製造に要される費用、期間のデータを予測する手段
とが具備されている、請求項1、2の何れかに記載の商
品仕様決定見積装置。 4、商品に対する外観仕様を示すサンプルの外観を入力
する複数のセンサに関連して、該サンプルを透明ネット
上に保持するステージが具備されている、請求項2、3
の何れかに記載の商品仕様決定見積装置。 5、商品仕様決定手段には、商品の種類、属性の入力を
、受け付ける手段と、該種類、属性に対応する構造を記
述したデータを、各種商品の構造が記述された構造記述
データから検索、生成する手段とが具備されている、請
求項2〜4の何れかに記載の商品仕様決定見積装置。 6、複数のセンサによって得られたデータを解析しサン
プルの外観を認識する手段に関連しては、商品の構造記
述データから各センサに入力させるデータを予測し、認
識に有効なデータが得られるセンサから順にデータを入
力させる手段を具備されている、請求項2〜5の何れか
に記載の商品仕様入力装置。 7、商品の構造が記述された構造記述データに機能が記
述されたデータを付加し、各構造要素に対応付けられた
サンプルの認識結果データ、あるいは該データの修正デ
ータを用い機能を予測する手段が具備されている、請求
項2〜6の何れかに記載の商品仕様入力装置。 8、サンプルの認識結果データから生成されたディスプ
レイ表示用データに基づき認識結果を表示する手段に関
連して、該サンプルの認識結果の表示範囲、方向、倍率
の指示を受け付ける手段と、該指示に基づいて表示を行
なう手段とが具備されている、請求項2〜7の何れかに
記載の商品仕様入力装置。 9、表示された認識結果の特定の部分の再認識を指示す
る手段と、該部分の認識を前回とは異なる他の方法で再
度行なう手段と、再認識した結果を表示する手段とを具
備してなる、請求項2〜8の何れかに記載の商品仕様入
力装置。 10、サンプルの3次元形状および色彩を入力する複数
のセンサに関連して、該センサからのデータを解析し該
サンプルの3次元形状および色彩を認識する手段が具備
されている、請求項2〜9の何れかに記載の商品仕様決
定見積装置。 11、複数のセンサは、サンプルの上、下、左、右、前
、後に配置されたカラーカメラと、該サンプルの右上、
左上、右下、左下に配置されたスリット投光器とから構
成されている、請求項10記載の商品仕様決定見積装置
。 12、サンプルの認識結果データに対する変形指示を構
造要素毎に、あるいは商品全体に対して一括して受け付
け、一括した変形指示に対しては該指示を各構造要素へ
の変形指示に変換する手段が具備されている、請求項2
〜12の何れかに記載の商品仕様決定見積装置。 13、一括した変形指示として機能を示す指示を受け付
け、各構造要素への変形指示へ変換する手段が具備され
ている、請求項12記載の商品仕様決定見積装置。 14、一括した変形指示として感覚的な用語による指示
を受け付け、各構造要素への変形指示へ変換する手段が
具備されている、請求項12記載の商品仕様決定見積装
置。 15、変形指示から認識結果データに対する変形指示へ
変換する変換パラメータを、例示学習により生成する手
段が具備されている、請求項12〜14記載の商品仕様
決定見積装置。 16、商品の製造に要される費用、期間のデータを予測
する手段に関連して、製造ラインの状況を示すデータも
使用して費用、期間を予測する手段が具備されている、
請求項3〜16記載の商品仕様決定見積装置。 17、サンプルの構造が記述されたデータと、商品に対
する商品仕様を示すデータと、製造ラインの状況を示す
データとから商品の製造に要される費用、期間を予測す
る際、過去の該データと実際に製造に要された費用、期
間の関係を示すデータを用い予測に使用されるパラメー
タを変更する手段が具備されている、請求項3〜16記
載の商品仕様決定見積装置。
[Scope of Claims] 1. Input customer's required specifications for the product as changeable.
A product specification determining and estimating device comprising: product specification determining means for determining product specifications; and estimating means for estimating the cost and period required for manufacturing the product based on the product specifications determined by the means. 2. As a product specification determination means, at least a database that stores structure description data describing the structure of various products, a plurality of sensors that input the appearance of a sample indicating the appearance specifications for the product, and data obtained by the sensors means for analyzing and recognizing the external appearance of the sample, means for storing the recognition result, and means for comparing the recognition result data of the sample with the structural description data to correspond the recognition result data to the structural elements of the product. a means for displaying a recognition result based on display display data generated from the recognition result data; a means for receiving a transformation instruction for the recognition result data; and a means for correcting and re-displaying the recognition result data based on the transformation instruction. 2. The product specification determining and estimating device according to claim 1, further comprising means for determining and estimating product specifications. 3. As an estimation means, a database that stores structure description data that describes the structure of the product to which data that describes the manufacturing method is added, a means that stores determined product specifications for the product, and the structure described above. 3. The method according to claim 1, further comprising means for predicting data on cost and period required for manufacturing a product according to the product specifications using descriptive data and determined required specifications for the product. Product specification determination and quotation device. 4. Claims 2 and 3, further comprising a stage for holding the sample on a transparent net in association with a plurality of sensors that input the appearance of the sample indicating the appearance specifications for the product.
The product specification determination and estimation device described in any of the above. 5. The product specification determining means includes means for accepting input of product types and attributes, and searching for data describing structures corresponding to the types and attributes from structure description data describing structures of various products; The product specification determination and estimation device according to any one of claims 2 to 4, further comprising: generating means. 6. Regarding the means of analyzing data obtained by multiple sensors and recognizing the appearance of a sample, data useful for recognition can be obtained by predicting the data to be input to each sensor from the structural description data of the product. The product specification input device according to any one of claims 2 to 5, further comprising means for sequentially inputting data from a sensor. 7. Means for adding data describing functions to structural description data describing the structure of the product, and predicting functions using sample recognition result data associated with each structural element or modified data of the data. The product specification input device according to any one of claims 2 to 6, comprising:. 8. In relation to the means for displaying recognition results based on display data generated from recognition result data of the sample, means for receiving instructions regarding the display range, direction, and magnification of the recognition results of the sample; The product specification input device according to any one of claims 2 to 7, further comprising means for displaying based on the information. 9. A means for instructing re-recognition of a specific part of the displayed recognition result, a means for re-recognizing the part using another method different from the previous recognition, and a means for displaying the re-recognized result. The product specification input device according to any one of claims 2 to 8. 10. In connection with a plurality of sensors that input the three-dimensional shape and color of the sample, means for analyzing data from the sensor and recognizing the three-dimensional shape and color of the sample is provided. 9. The product specification determination and estimation device according to any one of 9. 11. The plurality of sensors include color cameras placed above, below, left, right, front, and rear of the sample;
11. The product specification determining and estimating device according to claim 10, comprising slit projectors arranged at the upper left, lower right, and lower left. 12. Means for receiving transformation instructions for sample recognition result data for each structural element or for the entire product at once, and for converting the collective transformation instructions into transformation instructions for each structural element. Claim 2 comprising:
12. The product specification determination and estimation device according to any one of 12 to 12. 13. The product specification determining and estimating device according to claim 12, further comprising means for receiving an instruction indicating a function as a collective modification instruction and converting it into a modification instruction for each structural element. 14. The product specification determining and estimating device according to claim 12, further comprising means for receiving an instruction in sensory terms as a collective modification instruction and converting it into a modification instruction for each structural element. 15. The product specification determining and estimating device according to any one of claims 12 to 14, further comprising means for generating a conversion parameter for converting a modification instruction into a modification instruction for recognition result data by example learning. 16. In relation to the means for predicting data on the cost and period required for manufacturing a product, there is provided a means for predicting the cost and period using data indicating the status of the production line.
A product specification determination and estimation device according to any one of claims 3 to 16. 17. When predicting the cost and period required to manufacture a product from data describing the structure of the sample, data indicating the product specifications for the product, and data indicating the status of the production line, it is necessary to use past data and 17. The product specification determining and estimating device according to claim 3, further comprising means for changing parameters used for prediction using data showing a relationship between costs and periods actually required for manufacturing.
JP27608389A 1989-10-25 1989-10-25 Product specification decision method, product specification decision estimation method and its device Expired - Lifetime JP2642491B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27608389A JP2642491B2 (en) 1989-10-25 1989-10-25 Product specification decision method, product specification decision estimation method and its device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27608389A JP2642491B2 (en) 1989-10-25 1989-10-25 Product specification decision method, product specification decision estimation method and its device

Publications (2)

Publication Number Publication Date
JPH03138758A true JPH03138758A (en) 1991-06-13
JP2642491B2 JP2642491B2 (en) 1997-08-20

Family

ID=17564571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27608389A Expired - Lifetime JP2642491B2 (en) 1989-10-25 1989-10-25 Product specification decision method, product specification decision estimation method and its device

Country Status (1)

Country Link
JP (1) JP2642491B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010231764A (en) * 2008-12-29 2010-10-14 Intel Corp System and method for transporting physical object from real physical life into virtual world
US10552550B2 (en) 2015-09-26 2020-02-04 Intel Corporation Technologies for physical programming

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62137681A (en) * 1985-12-11 1987-06-20 Omron Tateisi Electronics Co Observation device for body surface
JPH01116765A (en) * 1987-10-28 1989-05-09 Internatl Business Mach Corp <Ibm> Automatically interfacing for conceptual design tool and project management tool
JPH01116766A (en) * 1987-10-28 1989-05-09 Internatl Business Mach Corp <Ibm> Design aid

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62137681A (en) * 1985-12-11 1987-06-20 Omron Tateisi Electronics Co Observation device for body surface
JPH01116765A (en) * 1987-10-28 1989-05-09 Internatl Business Mach Corp <Ibm> Automatically interfacing for conceptual design tool and project management tool
JPH01116766A (en) * 1987-10-28 1989-05-09 Internatl Business Mach Corp <Ibm> Design aid

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010231764A (en) * 2008-12-29 2010-10-14 Intel Corp System and method for transporting physical object from real physical life into virtual world
US8754886B2 (en) 2008-12-29 2014-06-17 Intel Corporation Systems and methods for transporting physical objects from real physical life into virtual worlds
US10552550B2 (en) 2015-09-26 2020-02-04 Intel Corporation Technologies for physical programming

Also Published As

Publication number Publication date
JP2642491B2 (en) 1997-08-20

Similar Documents

Publication Publication Date Title
US11262597B2 (en) Method, device, and computer program for virtually adjusting a spectacle frame
EP3968217A1 (en) Article identification method and device, and computer readable storage medium
US20170249766A1 (en) Image processing device for displaying object detected from input picture image
WO2020033822A1 (en) Capture and adaptive data generation for training for machine vision
JP6487493B2 (en) Image processing system
CN111327828B (en) Photographing method and device, electronic equipment and storage medium
JPH08212329A (en) Adaptive recognition system
US11164384B2 (en) Mobile device image item replacements
US7046377B2 (en) Method for determining corresponding points in three-dimensional measurement
CN109409318B (en) Statistical model training method, statistical device and storage medium
US10558850B2 (en) Body information analysis apparatus and method of simulating face shape by using same
CN111797854A (en) Scene model establishing method and device, storage medium and electronic equipment
CN111798521A (en) Calibration method, calibration device, storage medium and electronic equipment
JP2012071394A (en) Simulation system and simulation program therefor
JPH03138758A (en) Commodity specification determining and estimating device
JP2021154935A (en) Vehicle simulation system, vehicle simulation method and computer program
US20230091536A1 (en) Camera Placement Guidance
Shitov et al. Method of automatic color rendering settings for machine vision systems
RU2718362C1 (en) System of automated virtual designing of clothes for users and method of its implementation
KR102299393B1 (en) Server for matching product with buyer and matching system having the same
JP3316818B2 (en) Product ordering system
WO2023054661A1 (en) Gaze position analysis system and gaze position analysis method
US11189095B1 (en) Virtual object positioning in augmented reality applications
US20150286384A1 (en) Method Of Establishing Multi-Sensor Measuring Machine Routines
JP2001076172A (en) Method and device for curved-surface generation and storage medium