JPH1021363A - Method and device for supporting evaluation - Google Patents

Method and device for supporting evaluation

Info

Publication number
JPH1021363A
JPH1021363A JP8169484A JP16948496A JPH1021363A JP H1021363 A JPH1021363 A JP H1021363A JP 8169484 A JP8169484 A JP 8169484A JP 16948496 A JP16948496 A JP 16948496A JP H1021363 A JPH1021363 A JP H1021363A
Authority
JP
Japan
Prior art keywords
image data
observer
evaluation
image
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8169484A
Other languages
Japanese (ja)
Inventor
Hiroshi Kano
浩 蚊野
Atsuo Saijo
淳夫 西條
Shoji Takeda
昭二 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP8169484A priority Critical patent/JPH1021363A/en
Publication of JPH1021363A publication Critical patent/JPH1021363A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an evaluation supporting device for reducing a time and labor required for developing a new product. SOLUTION: When a prototype model 1 is operated like a key operation is executed to a remote controller within the visual field angle of a CCD camera 21 in a state in which evaluation supporting spectacles 2 equipped with the CCD camera 21 and a display 22 is mounted, a touch panel 11 detects the operating position, and supplies a position detection signal P3 to a picture processing circuit 4. Also, first and second receivers 31 and 32 respectively detect the position and attitude of the prototype 1 and an observer head part, and supplies first and second detection signals P1 and P2 to the picture processing circuit 4. On the other hand, the CCD camera 21 supplies a sight in front of the observer to the picture processing circuit 4 as image pickup data D. The picture processing circuit 4 operates a picture processing to the image pickup data D based on the first and second detection signals P1 and P2, and the position detecting signal P3 in order to prepare synthetic image data E, and supplies it to a video display device 22.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、電子部品、電子機
器、日用品、文房具等の新製品を開発する過程におい
て、評価の対象となる新製品と同一の外形に形成された
原型モデルと、評価対象物の3次元グラフィックスデー
タとを用いて、評価対象物の外観や機能の評価を支援す
るための評価支援方法及び評価支援装置に関するもので
ある。
BACKGROUND OF THE INVENTION The present invention relates to a prototype model formed in the same outer shape as a new product to be evaluated in a process of developing a new product such as an electronic component, an electronic device, a daily necessity, and a stationery. The present invention relates to an evaluation support method and an evaluation support apparatus for supporting evaluation of the appearance and function of an evaluation object using three-dimensional graphics data of the object.

【0002】[0002]

【従来の技術】一般に、新製品の開発においては、先
ず、試作品を作製し、その試作品に対して外観及び機能
評価を行なう。評価の結果、その外観及び機能が満足す
べきものである場合には、その試作品に基づき、新製品
の製造を開始する。これに対し、外観及び機能が満足す
べきものでない場合は、その試作品に改良や変更を加え
て新たな試作品を作製し、その新たな試作品に対して再
度、外観及び機能評価を行なう。この様にして試作品の
作製及び評価を繰り返し、最終的に満足の得られる外観
及び機能を有する試作品に基づき、新製品の製造を開始
する。
2. Description of the Related Art Generally, in the development of a new product, first, a prototype is manufactured, and the appearance and function of the prototype are evaluated. As a result of the evaluation, if the appearance and function are satisfactory, production of a new product is started based on the prototype. On the other hand, if the appearance and function are not satisfactory, the prototype is modified or changed to produce a new prototype, and the new prototype is evaluated again for appearance and function. In this manner, the production and evaluation of the prototype are repeated, and the production of a new product is started based on the prototype having the appearance and function that can be finally obtained.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
外観及び機能評価においては、実物と同一の外観及び機
能を有する試作品を作製せねばならないので、その作製
に時間がかかるばかりでなく、上述の如く試作品の作製
を繰り返す必要があるため、新製品の開発に長い時間と
多大な労力を必要とする問題があった。本発明の目的
は、新製品の開発に要する時間及び労力を軽減すること
が出来る評価支援方法及び評価支援装置を提供すること
である。
However, in the conventional appearance and function evaluation, a prototype having the same appearance and function as the actual product must be manufactured, so that not only takes a long time to manufacture the prototype, but also the above-described process takes place. As described above, it is necessary to repeat the production of the prototype, so that there is a problem that development of a new product requires a long time and a great deal of labor. An object of the present invention is to provide an evaluation support method and an evaluation support device that can reduce the time and labor required for developing a new product.

【0004】[0004]

【課題を解決する為の手段】本発明に係る評価支援方法
は、撮像手段によって評価対象物の原型モデルを撮影し
て得られる撮像データの内、原型モデルを表わす撮像デ
ータを、評価対象物の外観を表わす画像データと置き換
え、これによって得られる合成映像データを映像表示手
段へ供給して、評価対象物の外観を評価するための映像
を映出する。
According to the present invention, there is provided an evaluation support method comprising the steps of: converting image data representing a prototype model from image data obtained by photographing the prototype model of the evaluation object by imaging means; The image data is replaced with the image data representing the appearance, and the synthesized image data obtained thereby is supplied to the image display means to display an image for evaluating the appearance of the evaluation object.

【0005】該評価支援方法において、映像表示手段に
は、原型モデルの表面に画像データに応じた色彩及び模
様が施された仮想的な評価対象物の映像が映し出される
ことになる。ここで、撮像手段によって原型モデルを様
々な方向から撮影すると、その方向に応じて、映像表示
手段に表示される評価対象物の映像は姿勢を変えること
になる。これによって、観察者は、様々な方向から仮想
的な評価対象物を観察することが出来、その外観を評価
することが出来る。
[0005] In the evaluation support method, the image display means displays an image of a virtual evaluation object having a color and a pattern corresponding to the image data on the surface of the prototype model. Here, when the prototype model is photographed from various directions by the imaging means, the image of the evaluation object displayed on the image display means changes its posture according to the direction. Thereby, the observer can observe the virtual evaluation object from various directions, and can evaluate the appearance.

【0006】又、本発明に係る評価支援方法は、撮像手
段によって評価対象物の原型モデルを撮影して得られる
撮像データの内、原型モデルを表わす撮像データを、評
価対象物の外観を表わすと共に原型モデルに対する操作
に応じて変化する画像データと置き換え、これによって
得られる合成映像データを映像表示手段へ供給して、評
価対象物の機能を評価するための映像を映出する。
In the evaluation support method according to the present invention, of the imaging data obtained by photographing the prototype model of the object to be evaluated by the imaging means, image data representing the prototype model is displayed together with the appearance of the object to be evaluated. The image data is replaced with image data that changes according to the operation on the prototype model, and the synthesized video data obtained by the replacement is supplied to the video display means, and a video for evaluating the function of the evaluation target is projected.

【0007】該評価支援方法においては、上記評価支援
方法と同様に、映像表示手段には、撮像手段の原型モデ
ルに対する撮影方向に応じた姿勢の仮想的な評価対象物
の映像が映し出される。ここで、映像表示手段によって
仮想的な評価対象物を観察しつつ、前記映像に基づい
て、原型モデルに対し評価対象物におけるある1つの動
作を実現するために必要な一連の操作を行なうと、映像
表示手段に表示される仮想的な評価対象物の映像は各操
作に応じて変化することになる。これによって、評価対
象物に対し、操作の手順等についての機能を評価するこ
とが出来る。
[0007] In this evaluation support method, as in the above-described evaluation support method, the image display means displays an image of a virtual evaluation object having a posture corresponding to the shooting direction with respect to the prototype model of the imaging means. Here, while observing the virtual evaluation object by the image display means, based on the image, performing a series of operations necessary for realizing one operation of the evaluation object on the prototype model, The image of the virtual evaluation object displayed on the image display means changes according to each operation. Thus, it is possible to evaluate the function of the operation procedure and the like for the evaluation object.

【0008】具体的には、映像表示手段は、評価対象物
を評価すべき観察者が装着すべき評価支援用メガネに、
観察者の眼と対向させて取り付けられている。又、具体
的には、撮像手段は、評価対象物を評価すべき観察者が
装着すべき評価支援用メガネに、観察者の前方へ向けて
取り付けられている。
[0008] Specifically, the image display means includes a pair of glasses for evaluation support to be worn by an observer who is to evaluate the object to be evaluated.
It is attached to face the observer's eye. Further, specifically, the imaging unit is attached to the evaluation support glasses to be worn by the observer who is to evaluate the evaluation object, and is attached to the front of the observer.

【0009】該具体的構成において、観察者が評価支援
用メガネを装着すると、撮像手段は、観察者の頭部前方
の情景を撮影し、撮影された情景は映像表示手段に映し
出される。ここで、撮像手段の撮像方向は、観察者の頭
部の位置及び向きに応じて変化するので、映像表示手段
に映し出される映像はこれらの変化に応じて変化する。
これによって、観察者は、映像表示装置により、頭部前
方の情景を恰も肉眼で見ているかの如く観察することが
出来る。
In this specific configuration, when the observer wears the glasses for evaluation support, the imaging means photographs the scene ahead of the observer's head, and the photographed scene is displayed on the image display means. Here, since the imaging direction of the imaging unit changes according to the position and orientation of the observer's head, the image displayed on the image display unit changes according to these changes.
Thereby, the observer can observe the scene in front of the head as if he / she were looking with the naked eye with the image display device.

【0010】本発明に係る評価支援装置は、評価対象物
と同一の外形に形成されると共に表面が特定の色彩に着
色された原型モデルと、評価対象物を評価すべき観察者
の頭部に装着される頭部装着ユニットと、原型モデルの
位置及び姿勢を検出する第1検出手段と、観察者の頭部
の位置及び姿勢を検出する第2検出手段と、観察者が観
察すべき映像を作成する画像処理回路とから構成され
る。
[0010] An evaluation support apparatus according to the present invention includes a prototype model formed in the same outer shape as an object to be evaluated and having a surface colored in a specific color; A head-mounted unit to be mounted, first detection means for detecting the position and orientation of the prototype model, second detection means for detecting the position and orientation of the observer's head, and an image to be observed by the observer. And an image processing circuit to be created.

【0011】頭部装着ユニットは、観察者の頭部から前
方へ向けて取り付けられた撮像装置と、観察者の眼に対
向させて設置され、画像処理回路によって作成された映
像を表示すべき映像表示装置とを具えている。
[0011] The head-mounted unit is provided with an imaging device attached to the front of the observer's head and a video image to be displayed by the image processing circuit. A display device.

【0012】又、画像処理回路は、評価対象物の3次元
グラフィックスデータに基づいて、評価対象物の外観を
表わす3次元の外観画像データを作成する画像作成手段
と、第1検出手段及び第2検出手段から得られる検出信
号に基づいて、観察者の頭部の位置及び姿勢に対する原
型モデルの位置及び姿勢の相対関係を導出する演算処理
手段と、導出された相対関係に基づいて、外観画像デー
タ作成手段から得られる3次元の外観画像データを、観
察者の頭部の位置から見える評価対象物を表わす2次元
の外観画像データに変換する画像変換手段と、前記撮像
装置から得られる1画面分の撮像データの内、前記特定
の色彩を有する撮像データを各撮像データと対応する位
置の2次元の外観画像データと置き換えて合成映像デー
タを作成し、映像表示装置へ供給するクロマキー合成手
段とを具えている。
The image processing circuit includes: an image creating means for creating three-dimensional appearance image data representing an appearance of the evaluation object based on the three-dimensional graphics data of the evaluation object; a first detecting means; (2) an arithmetic processing unit for deriving a relative relationship between the position and orientation of the prototype model with respect to the position and orientation of the observer's head based on a detection signal obtained from the detection unit, and an appearance image based on the derived relative relationship Image conversion means for converting the three-dimensional appearance image data obtained from the data creation means into two-dimensional appearance image data representing an evaluation object viewed from the position of the observer's head, and one screen obtained from the imaging device Image data having a specific color is replaced with two-dimensional appearance image data at a position corresponding to each of the image data, thereby creating composite video data; And it comprises a chroma key composition unit for supplying to the shown device.

【0013】上記評価支援装置は、主に評価対象物の外
観を評価する際に採用されるものである。評価対象物の
評価をすべき観察者は、頭部に頭部装着ユニットを装着
する。頭部装着ユニットに取り付けられた撮像装置は観
察者の頭部前方の情景を撮影し、撮影された情景は映像
表示装置に映し出される。ここで、撮像装置の撮影方向
は、観察者の頭部の位置及び向きに応じて変化するの
で、観察者は、映像表示装置によって、頭部前方の情景
を恰も肉眼で見ているかの如く観察することが出来る。
The above-mentioned evaluation support apparatus is mainly used when evaluating the appearance of an object to be evaluated. The observer who should evaluate the evaluation target wears the head-mounted unit on the head. The imaging device attached to the head mounted unit captures a scene in front of the observer's head, and the captured scene is displayed on a video display device. Here, the imaging direction of the imaging device changes according to the position and orientation of the observer's head, so that the observer can observe the scene in front of the head with the video display device as if he / she were looking with the naked eye. You can do it.

【0014】上記本発明の評価支援装置においては、評
価対象物と同一の外形を有すると共に表面に特定の色彩
を有する簡易な構成の原型モデルが予め作成される。こ
こで、原型モデルは、例えば特定の一色に着色されてい
る。観察者が、撮像装置の視野角内にて原型モデルを手
に持つと、撮像装置は、観察者の頭部の位置から原型モ
デルと背景を撮影し、その撮像データは画像処理回路へ
供給され、以下の処理が施される。
In the evaluation support apparatus of the present invention, a prototype model having the same outer shape as the object to be evaluated and a simple configuration having a specific color on the surface is created in advance. Here, the prototype model is colored, for example, in a specific color. When the observer holds the prototype model within the viewing angle of the imaging device, the imaging device photographs the prototype model and the background from the position of the observer's head, and the imaging data is supplied to the image processing circuit. The following processing is performed.

【0015】画像処理回路においては、評価対象物の3
次元グラフィックスデータが予め作成されており、画像
作成手段は、該3次元グラフィックスデータに基づい
て、例えばRGBデータからなる3次元の外観画像デー
タを作成する。又、演算処理手段は、第1検出手段及び
第2検出手段からの両検出信号に基づいて、観察者の頭
部の位置及び姿勢に対する原型モデルの位置及び姿勢の
相対関係を導出する。ここで、相対関係は、例えば原型
モデル上の3次元座標系を頭部装着ユニット上の3次元
座標系に変換する座標変換行列で表わされる。
In the image processing circuit, the evaluation object 3
The three-dimensional graphics data is created in advance, and the image creating means creates three-dimensional appearance image data composed of, for example, RGB data based on the three-dimensional graphics data. The arithmetic processing unit derives a relative relationship between the position and orientation of the prototype model with respect to the position and orientation of the observer's head based on both detection signals from the first detection unit and the second detection unit. Here, the relative relationship is represented by, for example, a coordinate conversion matrix for converting a three-dimensional coordinate system on the prototype model into a three-dimensional coordinate system on the head mounted unit.

【0016】前記作成された3次元の外観画像データ
は、画像変換手段に供給されて、前記導出された相対関
係に基づき、観察者の頭部の位置から見える評価対象物
の3次元外観画像データに座標変換された後、該3次元
外観画像データが観察者の頭部の位置から見える評価対
象物の2次元外観画像データに変換される。ここで、2
次元外観画像データによって表わされる評価対象物の映
像は、撮像装置から得られる原型モデルの映像と同じ姿
勢を有することになる。そして、クロマキー合成手段
は、前記撮像装置から得られる撮像データの内、前記特
定の色彩を有する撮像データを前記2次元外観画像デー
タと置き換える。これによって、原型モデルの撮像デー
タのみが評価対象物の外観画像データに置き換えられた
合成映像データが得られることになる。
The created three-dimensional appearance image data is supplied to image conversion means, and based on the derived relative relationship, three-dimensional appearance image data of the evaluation object viewed from the position of the observer's head. After the coordinate conversion, the three-dimensional appearance image data is converted into two-dimensional appearance image data of the evaluation target viewed from the position of the observer's head. Where 2
The image of the evaluation object represented by the two-dimensional appearance image data has the same posture as the image of the prototype model obtained from the imaging device. Then, the chroma key synthesizing unit replaces the imaging data having the specific color among the imaging data obtained from the imaging device with the two-dimensional appearance image data. As a result, synthesized video data in which only the imaging data of the prototype model is replaced with the appearance image data of the evaluation target is obtained.

【0017】作成された合成映像データが映像表示装置
へ供給されることによって、映像表示装置には、原型モ
デルの表面に外観画像データに応じた色彩及び模様が施
された仮想的な評価対象物の映像が映し出されることに
なる。ここで、手に持った原型モデルの姿勢や観察者の
頭部の姿勢を変えると、これらの姿勢の変化に応じて、
映像表示装置に表示される評価対象物の映像も姿勢を変
えることになる。これによって、観察者は、様々な方向
から仮想的な評価対象物を観察することが出来、その外
観を評価することが出来る。
By supplying the created composite video data to the video display device, the video display device provides a virtual evaluation object in which colors and patterns corresponding to the appearance image data are applied to the surface of the prototype model. Will be displayed. Here, if the posture of the prototype model held in the hand or the posture of the observer's head is changed, according to these changes in posture,
The image of the evaluation object displayed on the image display device also changes its posture. Thereby, the observer can observe the virtual evaluation object from various directions, and can evaluate the appearance.

【0018】又、本発明に係る評価支援装置は、キー操
作部及び表示部を具えてキー操作に応じて表示が行なわ
れる評価対象物の評価支援装置であって、評価対象物と
同一の外形に形成されると共に表面が特定の色彩に着色
された原型モデルと、評価対象物を評価すべき観察者の
頭部に装着される頭部装着ユニットと、原型モデルの位
置及び姿勢を検出する第1検出手段と、観察者の頭部の
位置及び姿勢を検出する第2検出手段と、観察者が観察
すべき映像を作成する画像処理回路とから構成される評
価支援装置である。
Further, the evaluation support apparatus according to the present invention is an evaluation support apparatus for an evaluation object provided with a key operation section and a display section, and a display is performed in response to a key operation, and has the same outer shape as the evaluation object. A prototype model formed on a surface and colored in a specific color, a head-mounted unit mounted on the head of an observer to be evaluated for the evaluation object, and a position and orientation for detecting the position and orientation of the prototype model This is an evaluation support device including: one detection unit; a second detection unit that detects the position and posture of the head of the observer; and an image processing circuit that creates a video to be observed by the observer.

【0019】原型モデルには、評価対象物のキー操作部
に対応する領域に操作位置検出手段が設置され、頭部装
着ユニットは、観察者の頭部から前方へ向けて取り付け
られた撮像装置と、観察者の眼に対向させて設置され、
画像処理回路によって作成された映像を表示すべき映像
表示装置とを具えている。
In the prototype model, operation position detecting means is provided in an area corresponding to the key operation section of the object to be evaluated, and the head-mounted unit includes an imaging device mounted forward from the observer's head. , Installed facing the eyes of the observer,
A video display device for displaying a video created by the image processing circuit.

【0020】又、画像処理回路は、操作位置検出手段か
らの位置検出信号に基づき、原型モデルに対する操作を
評価対象物に対するキー操作に対応づけて該キー操作に
基づく操作信号を作成する操作信号作成手段と、作成さ
れた操作信号に基づいて、前記キー操作に応じた表示制
御機能を実行する表示制御機能実行手段と、前記表示制
御機能実行手段から得られる表示制御データに基づい
て、評価対象物の表示部に表示すべき表示画像データを
作成する第1画像作成手段と、評価対象物の3次元グラ
フィックスデータに基づいて、評価対象物の外観を表わ
す3次元の外観画像データを作成する第2画像作成手段
と、第1検出手段及び第2検出手段から得られる検出信
号に基づいて、観察者の頭部の位置及び姿勢に対する原
型モデルの位置及び姿勢の相対関係を導出する演算処理
手段と、前記作成された外観画像データ及び表示画像デ
ータから、前記導出された相対関係に基づいて、表示部
に前記キー操作に応じた表示が行なわれると共に観察者
の頭部の位置から見える評価対象物を表わす2次元の合
成画像データを作成する画像処理手段と、前記撮像装置
から得られる1画面分の撮像データの内、前記特定の色
彩を有する撮像データを各撮像データと対応する位置の
2次元の合成画像データと置き換えて合成映像データを
作成し、映像表示装置へ供給するクロマキー合成手段と
を具えている。
The image processing circuit generates an operation signal based on the position detection signal from the operation position detection means, and associates an operation on the prototype model with a key operation on the evaluation object to generate an operation signal based on the key operation. Means, a display control function executing means for executing a display control function according to the key operation based on the generated operation signal, and an evaluation object based on display control data obtained from the display control function executing means. A first image creating means for creating display image data to be displayed on the display unit; and a third image creating means for creating three-dimensional appearance image data representing the appearance of the evaluation object based on the three-dimensional graphics data of the evaluation object. (2) the position of the prototype model with respect to the position and orientation of the observer's head based on the detection signals obtained from the two image creation means and the first and second detection means; A calculation processing means for deriving a relative relationship between the forces, and a display corresponding to the key operation is performed on the display unit based on the derived relative relationship from the created appearance image data and display image data, and observation is performed. Image processing means for creating two-dimensional composite image data representing an evaluation target visible from the position of the head of the user, and imaging data having the specific color among imaging data for one screen obtained from the imaging device Is replaced with two-dimensional composite image data at a position corresponding to each piece of imaging data to generate composite video data and supply the same to a video display device.

【0021】上記評価支援装置は、主に評価対象物の機
能を評価する際に採用されるものである。該評価支援装
置においては、評価対象物と同一の外形を有すると共に
表面に特定の色彩を有する簡易な構成の原型モデルが予
め作製される。又、原型モデルには、評価対象物のキー
操作部に対応する領域に操作位置検出手段が設置されて
いる。該評価支援装置において、観察者が撮像装置の視
野角内にて原型モデルを手に持つと、上記評価支援装置
と同様に、映像表示装置には、該原型モデルと同じ姿勢
の仮想的な評価対象物の映像が映し出される。該映像に
は、キー操作部の映像が含まれており、観察者は、該映
像に基づいて、評価対象物のキー操作部に対しキー操作
を行なう如く原型モデルを操作することが出来る。
The above-mentioned evaluation support apparatus is mainly used when evaluating the function of an evaluation object. In the evaluation support apparatus, a prototype model having a simple configuration having the same outer shape as the evaluation object and having a specific color on the surface is prepared in advance. Further, the prototype model is provided with an operation position detecting means in an area corresponding to the key operation unit of the evaluation object. In the evaluation support device, when the observer holds the prototype model within the viewing angle of the imaging device, the image display device performs virtual evaluation of the same posture as the prototype model similarly to the evaluation support device. The image of the object is projected. The image includes an image of the key operation unit, and the observer can operate the prototype model based on the image so as to perform a key operation on the key operation unit of the evaluation target.

【0022】そこで、観察者が、映像表示装置によって
仮想的な評価対象物の映像を観察しつつ、キー操作部の
映像に基づいて原型モデルを操作すると、該操作の位置
が、操作位置検出手段によって検出される。操作信号作
成手段は、操作位置検出手段からの位置信号に基づい
て、原型モデルに対する操作を評価対象物に対するキー
操作に対応づけ、該キー操作に基づく操作信号を作成す
る。
When the observer operates the prototype model based on the image of the key operation unit while observing the image of the virtual object to be evaluated on the image display device, the position of the operation is determined by the operation position detecting means. Is detected by The operation signal creation means associates an operation on the prototype model with a key operation on the evaluation target based on the position signal from the operation position detection means, and creates an operation signal based on the key operation.

【0023】そして、表示制御機能実行手段は、操作信
号に基づいて、評価対象物に対するキー操作に応じた表
示制御機能を実行し、第1画像作成手段は、表示機能実
行手段から得られる表示制御データに基づいて、表示画
像データを作成する。又、該評価支援装置の画像処理回
路においては、評価対象物を表わす3次元グラフィック
スデータが予め作成されており、第2画像作成手段は、
該3次元グラフィックスデータに基づいて、例えばRG
Bデータからなる3次元の外観画像データを作成する。
The display control function executing means executes a display control function according to a key operation on the evaluation object based on the operation signal, and the first image creating means controls the display control obtained from the display function executing means. Display image data is created based on the data. Further, in the image processing circuit of the evaluation support apparatus, three-dimensional graphics data representing the evaluation object is created in advance, and the second image creation means includes:
Based on the three-dimensional graphics data, for example, RG
Three-dimensional appearance image data composed of B data is created.

【0024】この様にして作成された外観画像データ及
び表示画像データは、画像処理手段に供給されて、演算
処理手段によって導出された相対関係に基づき、表示部
にキー操作に応じた表示が行われると共に観察者の頭部
の位置から見える評価対象物を表わす2次元の合成画像
データを作成する。該合成画像データの作成方法におい
ては、先ず、第2画像作成手段によって作成された3次
元の外観画像データの内、評価対象物の表示部の外観画
像データを対応する位置の表示画像データと置き換え
る。これによって、表示部にキー操作に応じた表示が行
なわれた評価対象物の3次元合成画像データが作成され
る。そして、該3次元合成画像データを、演算処理手段
によって導出された相対関係に基づき、観察者の頭部の
位置から見える評価対象物の3次元合成画像データに座
標変換した後、座標変換によって得られた3次元合成画
像データを、観察者の頭部の位置から見える評価対象物
の2次元合成画像データに変換する。ここで、2次元合
成画像データによって表わされる評価対象物の映像は、
撮像装置から得られる原型モデルの映像と同じ姿勢を有
することになる。
The appearance image data and the display image data thus created are supplied to the image processing means, and a display corresponding to the key operation is displayed on the display unit based on the relative relation derived by the arithmetic processing means. Then, two-dimensional composite image data representing the evaluation target that is viewed from the position of the observer's head and is viewed is created. In the method of creating the composite image data, first, of the three-dimensional appearance image data created by the second image creation means, the appearance image data of the display unit of the evaluation object is replaced with the display image data at the corresponding position. . As a result, three-dimensional composite image data of the evaluation object displayed on the display unit in accordance with the key operation is created. Then, based on the relative relationship derived by the arithmetic processing means, the three-dimensional combined image data is subjected to coordinate transformation into three-dimensional combined image data of the evaluation target visible from the position of the observer's head, and then obtained by coordinate transformation. The obtained three-dimensional composite image data is converted into two-dimensional composite image data of the evaluation target that can be seen from the position of the observer's head. Here, the video of the evaluation target represented by the two-dimensional composite image data is
It will have the same attitude as the image of the prototype model obtained from the imaging device.

【0025】又、合成画像データの他の作成方法におい
ては、先ず、第1画像作成手段及び第2画像処理手段に
よって夫々作成された表示画像データ及び外観画像デー
タを、演算処理手段によって導出された相対関係に基づ
き、観察者の頭部の位置から見える評価対象物の表示画
像データ及び外観画像データに座標変換する。次に、座
標変換によって得られた表示画像データ及び外観画像デ
ータを、観察者の頭部の位置から見える評価対象物の2
次元の表示画像データ及び外観画像データに変換する。
そして、前記2次元の外観画像データの内、評価対象物
の表示部の外観画像データを対応する位置の2次元の表
示画像データと置き換える。これによって、表示部にキ
ー操作に応じた表示が行なわれた評価対象物の2次元合
成画像データが作成される。
In another method of creating the composite image data, first, the display image data and the appearance image data respectively created by the first image creating means and the second image processing means are derived by the arithmetic processing means. Based on the relative relationship, the coordinates are converted into display image data and appearance image data of the evaluation target viewed from the position of the observer's head. Next, the display image data and the appearance image data obtained by the coordinate transformation are compared with the evaluation object 2 viewed from the position of the observer's head.
It is converted into dimensional display image data and appearance image data.
Then, of the two-dimensional appearance image data, the appearance image data of the display section of the evaluation object is replaced with the two-dimensional display image data at the corresponding position. As a result, two-dimensional composite image data of the evaluation object displayed on the display unit in accordance with the key operation is created.

【0026】この様にして作成された2次元合成画像デ
ータは、クロマキー合成手段へ供給されて、上記評価支
援装置と同様のクロマキー合成処理が施され、合成映像
データが作成される。作成された合成映像データが映像
表示装置へ供給されることによって、映像表示装置に
は、原型モデルの表面に外観画像データに応じた色彩及
び模様が施されると共に表示画像データに応じた表示が
行なわれた仮想的な評価対象物の映像が映し出されるこ
とになる。
The two-dimensional synthesized image data created in this way is supplied to the chroma key synthesizing means, where it is subjected to the same chroma key synthesizing processing as that of the above-mentioned evaluation support apparatus, and synthetic video data is created. By supplying the created composite video data to the video display device, the video display device is provided with a color and a pattern corresponding to the appearance image data on the surface of the prototype model, and a display corresponding to the display image data. An image of the virtual evaluation object that has been performed is displayed.

【0027】ここで、観察者が、原型モデルに対し、評
価対象物におけるある1つの動作を実現するために必要
な一連の操作を行なうと、映像表示装置に表示される仮
想的な評価対象物の表示部の映像は各操作に応じて変化
することになる。これによって、観察者は、評価対象物
に対し、キー操作の手順やキー配置についての機能を評
価することが出来る。
Here, when the observer performs a series of operations on the prototype model necessary for realizing a certain operation on the evaluation object, the virtual evaluation object displayed on the video display device is displayed. Will change according to each operation. Thereby, the observer can evaluate the function of the key operation procedure and the key arrangement for the evaluation object.

【0028】[0028]

【発明の効果】本発明に係る評価支援装置によれば、外
形のみを評価対象物と同一に形成した簡易な構成の原型
モデルを用いて、評価対象物の外観や機能を評価するこ
とが出来るので、従来の如く実物と同一の試作品を作製
する必要がない。然も、3次元グラフィックスデータを
書き換えるだけで、評価対象物の様々な外観を仮想的に
実現することが出来、外観についての評価を行なうこと
が出来る。又、操作信号作成手段による原型モデルに対
する操作と評価対象物に対するキー操作の対応関係、及
び表示制御機能実行手段による表示制御機能を変更する
だけで、評価対象物の様々な動作を仮想的に実現するこ
とが出来、機能についての評価を行なうことが出来る。
従って、従来の如く試作品の作製を繰り返す必要がな
く、新製品の開発に要する時間及び労力を、従来よりも
大幅に軽減することが出来る。
According to the evaluation support apparatus of the present invention, it is possible to evaluate the appearance and function of the evaluation object using a prototype model having a simple configuration in which only the outer shape is formed in the same manner as the evaluation object. Therefore, there is no need to produce a prototype identical to the actual product as in the related art. Needless to say, only by rewriting the three-dimensional graphics data, various appearances of the evaluation object can be virtually realized, and the appearance can be evaluated. Also, by simply changing the correspondence between the operation on the prototype model by the operation signal creating means and the key operation on the evaluation object, and the display control function by the display control function executing means, various operations of the evaluation object are virtually realized. And evaluate the function.
Therefore, there is no need to repeat the production of a prototype as in the conventional case, and the time and labor required for developing a new product can be significantly reduced as compared with the conventional case.

【0029】[0029]

【発明の実施の形態】以下、本発明を、操作キーと表示
パネルとを具えたビデオテープレコーダーのリモートコ
ントローラ(以下、リモコンと称する)の評価支援装置に
実施した例につき、図面に沿って具体的に説明する。本
実施例の評価支援装置は、図1に示す如く、リモコンと
同一の外形に形成されると共に表面が青一色に着色され
た原型モデル(1)と、リモコンを評価すべき観察者が装
着する評価支援用メガネ(2)と、マイクロコンピュータ
等から構成される画像処理回路(4)と、画像処理回路
(4)によって制御される磁場発生装置(3)とから構成さ
れる。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing an embodiment of the present invention applied to an evaluation support apparatus for a remote controller (hereinafter referred to as a remote controller) of a video tape recorder having operation keys and a display panel. Will be explained. As shown in FIG. 1, the evaluation support apparatus of the present embodiment has a prototype model (1) formed in the same outer shape as the remote controller and having a blue-colored surface, and an observer who is to evaluate the remote controller. Evaluation support glasses (2), an image processing circuit (4) composed of a microcomputer or the like, and an image processing circuit
And a magnetic field generator (3) controlled by (4).

【0030】原型モデル(1)には、リモコンの操作キー
に対応する領域に操作位置検出用のタッチパネル(11)が
取り付けられると共に、下部に第1受信器(31)が取り付
けられている。第1受信器(31)は、磁場発生装置(3)と
共に3次元位置センサとしての機能を発揮し、磁場発生
装置(3)を基準とする原型モデル(1)の位置及び姿勢を
検出する。又、評価支援用メガネ(2)には、観察者が評
価支援用メガネ(2)を装着したときに、撮影方向が観察
者の前方に向くようCCDカメラ(21)が取り付けられる
と共に、観察者の眼に対向するようディスプレイ(22)が
取り付けられる。又、評価支援用メガネ(2)の一方のつ
るの端部には第2受信器(32)が取り付けられ、第2受信
器(32)は、磁場発生装置(3)と共に3次元位置センサと
しての機能を発揮し、磁場発生装置(3)を基準とする観
察者の頭部の位置及び姿勢を検出する。
The prototype model (1) is provided with a touch panel (11) for detecting an operation position in an area corresponding to operation keys of a remote controller, and a first receiver (31) at a lower portion. The first receiver (31) functions as a three-dimensional position sensor together with the magnetic field generator (3), and detects the position and orientation of the prototype model (1) based on the magnetic field generator (3). The evaluation support glasses (2) are provided with a CCD camera (21) so that when the observer wears the evaluation support glasses (2), the photographing direction is directed to the front of the observer. A display (22) is attached to face the eye. A second receiver (32) is attached to one end of the vine of the glasses for evaluation support (2), and the second receiver (32) works together with the magnetic field generator (3) as a three-dimensional position sensor. And detects the position and orientation of the observer's head with respect to the magnetic field generator (3).

【0031】観察者が、評価支援用メガネ(2)を装着し
て、CCDカメラ(21)の視野角内にて原型モデル(1)を
手に持つと、CCDカメラ(21)は、原型モデル(1)及び
観察者の手を含む観察者の前方の情景を撮影して、その
撮像データDを画像処理回路(4)へ供給する。又、第1
受信器(31)は、磁場発生装置(3)からの磁気信号を受信
して、原型モデル(1)の位置及び姿勢を表わす第1検出
信号P1を作成する。一方、第2受信器(32)は、磁場発
生装置(3)からの磁気信号を受信して、観察者の頭部の
位置及び姿勢を表わす第2検出信号P2を作成する。両
検出信号P1、P2は、画像処理回路(4)へ供給され
る。画像処理回路(4)は、両検出信号P1、P2に基づ
き、撮像データDに後述の画像処理を施して合成映像デ
ータEを作成し、映像表示装置(22)へ供給する。
When the observer wears the glasses for evaluation support (2) and holds the prototype model (1) within the viewing angle of the CCD camera (21), the CCD camera (21) (1) and a scene in front of the observer including the observer's hand is photographed, and the image data D is supplied to the image processing circuit (4). Also, the first
The receiver (31) receives the magnetic signal from the magnetic field generator (3) and creates a first detection signal P1 representing the position and orientation of the prototype model (1). On the other hand, the second receiver (32) receives the magnetic signal from the magnetic field generator (3) and creates a second detection signal P2 representing the position and posture of the observer's head. Both detection signals P1 and P2 are supplied to the image processing circuit (4). The image processing circuit (4) performs synthesized image data E by performing image processing described later on the imaged data D based on the two detection signals P1 and P2, and supplies the synthesized image data E to the image display device (22).

【0032】図3は、画像処理回路(4)の主要部の構成
を表わしている。画像処理回路(4)においては、リモコ
ンの形状を表わす3次元のコンピュータグラフィックス
データが予め作成され、CGデータ格納メモリ(44)に格
納されている。外観画像データ作成回路(45)は、CGデ
ータ格納メモリ(44)からコンピュータグラフィックスデ
ータを読み出し、該データに基づいて図6(a)に示す如
き3次元の外観画像データAを作成する。ここで、外観
画像データAは、各画素位置におけるRGBデータから
構成され、3次元座標情報と色彩情報を含んでいる。作
成された外観画像データAは、図3に示す如く、合成回
路(46)へ供給される。ここで、原型モデル(1)を操作し
ない場合、表示画像データ作成回路(43)からは表示画像
データBが供給されないので、外観画像データAはその
まま3次元の合成画像データCとして変換回路(47)へ供
給される。
FIG. 3 shows the configuration of the main part of the image processing circuit (4). In the image processing circuit (4), three-dimensional computer graphics data representing the shape of the remote controller is created in advance and stored in the CG data storage memory (44). The appearance image data creation circuit (45) reads out the computer graphics data from the CG data storage memory (44) and creates three-dimensional appearance image data A as shown in FIG. 6A based on the data. Here, the appearance image data A is composed of RGB data at each pixel position, and includes three-dimensional coordinate information and color information. The created appearance image data A is supplied to the synthesizing circuit (46) as shown in FIG. Here, when the prototype model (1) is not operated, since the display image data B is not supplied from the display image data creation circuit (43), the appearance image data A is directly converted into three-dimensional composite image data C as the conversion circuit (47). ).

【0033】又、第1受信器(31)及び第2受信器(32)か
らの第1及び第2検出信号P1、P2は、座標変換行列
作成回路(48)へ供給される。座標変換行列作成回路(48)
は、合成回路(46)から得られる3次元合成画像データC
を、観察者の頭部の位置から見えるリモコンの3次元合
成画像データに変換するための座標変換行列を算出する
ものである。
The first and second detection signals P1 and P2 from the first receiver (31) and the second receiver (32) are supplied to a coordinate transformation matrix creation circuit (48). Coordinate transformation matrix creation circuit (48)
Represents three-dimensional combined image data C obtained from the combining circuit (46).
Is converted into a three-dimensional composite image data of the remote controller that can be seen from the position of the observer's head.

【0034】ここで、座標変換行列及び座標変換行列を
用いた座標変換の原理について、図2に基づき、具体的
に説明する。図示の如く、磁場発生装置(3)上に基準座
標系(Xo,Yo,Zo)、原型モデル(1)上に原型モデル
中心座標系(X′,Y′,Z′)、評価支援用メガネ(2)
上に評価支援用メガネ中心座標系(X,Y,Z)が夫々設
定されている。ここで、基準座標系(Xo,Yo,Zo)を
原型モデル中心座標系(X′,Y′,Z′)に変換するた
めの座標変換行列をM1、基準座標系(Xo,Yo,Zo)
を評価支援用メガネ中心座標系(X,Y,Z)に変換する
ための座標変換行列をM2とする。
Here, the coordinate conversion matrix and the principle of the coordinate conversion using the coordinate conversion matrix will be specifically described with reference to FIG. As shown, the reference coordinate system (Xo, Yo, Zo) on the magnetic field generator (3), the prototype model center coordinate system (X ', Y', Z ') on the prototype model (1), evaluation support glasses (2)
The eyeglass center coordinate system (X, Y, Z) for evaluation support is respectively set above. Here, a coordinate transformation matrix for transforming the reference coordinate system (Xo, Yo, Zo) into the prototype model center coordinate system (X ', Y', Z ') is M1, and the reference coordinate system (Xo, Yo, Zo).
Let M2 be a coordinate conversion matrix for converting into the evaluation support glasses center coordinate system (X, Y, Z).

【0035】原型モデル中心座標系(X′,Y′,Z′)
から評価支援用メガネ中心座標系(X,Y,Z)への変換
は、先ず、変換行列M1の逆行列M1-1により原型モデ
ル中心座標系(X′,Y′,Z′)を基準座標系(Xo,Y
o,Zo)に変換した後、変換行列M2により基準座標系
(Xo,Yo,Zo)を評価支援用メガネ中心座標系(X,
Y,Z)に変換することによって、実現することが出来
る。従って、原型モデル中心座標系(X′,Y′,Z′)
から評価支援用メガネ中心座標系(X,Y,Z)への変換
は、下記数1によって表わされる。
Prototype model center coordinate system (X ', Y', Z ')
Is converted into the evaluation support glasses center coordinate system (X, Y, Z) by first converting the prototype model center coordinate system (X ′, Y ′, Z ′) to the reference coordinates by the inverse matrix M1 −1 of the conversion matrix M1. System (Xo, Y
o, Zo), and then convert to the reference coordinate system using the transformation matrix M2.
(Xo, Yo, Zo) is converted to the eyeglass center coordinate system (X,
(Y, Z). Accordingly, the prototype model center coordinate system (X ', Y', Z ')
Is converted to the evaluation support glasses center coordinate system (X, Y, Z) by the following equation (1).

【数1】 ここで、W及びW′は、行列表現上、便宜的に必要な定
数である。
(Equation 1) Here, W and W 'are constants required for convenience in the matrix expression.

【0036】ところで、第1受信器(31)及び第2受信器
(32)からは夫々、第1及び第2検出信号P1、P2とし
て、基準座標系(Xo,Yo,Zo)における3次元座標値
と3軸回りの回転角が得られる。そこで、座標変換行列
作成回路(48)は、両検出信号P1、P2に基づいて、先
ず、下記数2によって、基準座標系(Xo,Yo,Zo)か
ら原型モデル中心座標系(X′,Y′,Z′)への座標変
換行列M1を算出すると共に、基準座標系(Xo,Yo,
Zo)から評価支援用メガネ中心座標系(X,Y,Z)への
座標変換行列M2を算出する。
The first receiver (31) and the second receiver
From (32), a three-dimensional coordinate value in the reference coordinate system (Xo, Yo, Zo) and a rotation angle around the three axes are obtained as the first and second detection signals P1 and P2, respectively. Therefore, the coordinate transformation matrix creating circuit (48) firstly converts the reference model coordinate system (Xo, Yo, Zo) from the reference model coordinate system (Xo, Yo, Zo) based on the two detection signals P1 and P2 into ', Z') and a reference coordinate system (Xo, Yo,
A coordinate conversion matrix M2 from Zo) to the glasses center coordinate system (X, Y, Z) for evaluation support is calculated.

【数2】 ここで、t1及びt2は夫々、3行1列の並進行列であ
って、両検出信号P1、P2から得られる原型モデル
(1)の位置を表わす3次元座標値及び観察者の頭部の位
置を表わす3次元座標値によって決定される。又、R1
は、原型モデル(1)の姿勢を表わす回転角から得られる
Xo軸に関する3行3列の回転行列、Yo軸に関する3行
3列の回転行列及びZo軸に関する3行3列の回転行列
を互いに掛け合わせることによって算出される。R2も
同様に、観察者の頭部の姿勢を表わす回転角から得られ
るXo軸に関する3行3列の回転行列、Yo軸に関する3
行3列の回転行列及びZo軸に関する3行3列の回転行
列を互いに掛け合わせることによって算出される。そし
て、座標変換行列作成回路(48)は、座標変換行列M1、
M2に基づいて、原型モデル中心座標系(X′,Y′,
Z′)を評価支援用メガネ中心座標系(X,Y,Z)に変
換するための座標変換行列(M2・M1-1)を算出する。
(Equation 2) Here, t1 and t2 are parallel rows of three rows and one column, respectively, and are prototype models obtained from both detection signals P1 and P2.
It is determined by the three-dimensional coordinate value representing the position of (1) and the three-dimensional coordinate value representing the position of the observer's head. Also, R1
Are the three-by-three rotation matrix on the Xo axis, the three-by-three rotation matrix on the Yo axis, and the three-by-three rotation matrix on the Zo axis obtained from the rotation angle representing the attitude of the prototype model (1). It is calculated by multiplying. Similarly, R2 is a 3-by-3 rotation matrix for the Xo axis obtained from the rotation angle representing the posture of the observer's head, and 3 for the Yo axis.
It is calculated by multiplying a rotation matrix of 3 rows and a rotation matrix of 3 rows and 3 columns with respect to the Zo axis. Then, the coordinate transformation matrix creation circuit (48) generates a coordinate transformation matrix M1,
Based on M2, the prototype model center coordinate system (X ', Y',
A coordinate transformation matrix (M2 · M1 −1 ) for transforming Z ′) into the evaluation support glasses center coordinate system (X, Y, Z) is calculated.

【0037】この様にして作成された座標変換行列(M
2・M1-1)は、図3に示す如く、変換回路(47)へ供給
され、これに応じて変換回路(47)は、先ず、合成回路(4
6)から得られる3次元合成画像データCを、観察者の頭
部の位置から見えるリモコンの3次元合成画像データに
変換する。ここで、変換回路(47)は、合成回路(46)から
得られる3次元合成画像データCの3次元座標系を原型
モデル中心座標系に対応づけて、原型モデル中心座標系
における3次元合成画像データ(X′,Y′,Z′)を作
成した後、該3次元合成画像データ(X′,Y′,Z′)
に座標変換行列(M2・M1-1)を乗算することによっ
て、3次元合成画像データ(X′,Y′,Z′)を観察者
の頭部の位置から見えるリモコンの3次元合成画像デー
タ(X,Y,Z)に変換する。
The coordinate transformation matrix (M
2 · M1 −1 ) is supplied to a conversion circuit (47), as shown in FIG.
The three-dimensional combined image data C obtained in 6) is converted into three-dimensional combined image data of the remote controller that can be seen from the position of the observer's head. Here, the conversion circuit (47) associates the three-dimensional coordinate system of the three-dimensional composite image data C obtained from the synthesis circuit (46) with the prototype model center coordinate system, and converts the three-dimensional composite image in the prototype model center coordinate system. After creating data (X ', Y', Z '), the three-dimensional composite image data (X', Y ', Z')
Is multiplied by a coordinate transformation matrix (M2 · M1 −1 ) to obtain three-dimensional composite image data (X ′, Y ′, Z ′) of the remote controller that can be viewed from the position of the observer's head. X, Y, Z).

【0038】次に、変換回路(47)は、上記3次元合成画
像データ(X,Y,Z)を2次元合成画像データC′
(X,Y)に変換する。ここで、3次元から2次元へのデ
ータ変換は、例えば観察者の前方方向にZ軸を採った場
合、前記3次元合成画像データ(X,Y,Z)のX座標値
及びY座標値をZ座標値で除算して2つの座標値(X/
Z,Y/Z)を導出すると共に、Z座標値を無視するこ
とによって実現することが出来る。これによって、遠近
感のある2次元合成画像データC′(X,Y)が得られ
る。
Next, the conversion circuit (47) converts the three-dimensional composite image data (X, Y, Z) into two-dimensional composite image data C '.
(X, Y). Here, in the data conversion from three-dimensional to two-dimensional, for example, when the Z-axis is taken in the forward direction of the observer, the X coordinate value and the Y coordinate value of the three-dimensional composite image data (X, Y, Z) are calculated. By dividing by the Z coordinate value, two coordinate values (X /
Z, Y / Z) and ignoring the Z coordinate value. As a result, two-dimensional composite image data C '(X, Y) having a perspective can be obtained.

【0039】この様にして得られた2次元合成画像デー
タC′(X,Y)は、ズーム率調整回路(51)へ供給され
る。ズーム率調整回路(51)には、CCDカメラ(21)の仕
様に応じて、2次元合成画像データC′(X,Y)により
形成される画像を適切な大きさに拡大、或いは縮小する
ためのズーム率が予め設定されており、ズーム率調整回
路(51)は、2次元合成画像データC′(X,Y)に該ズー
ム率を乗算して、その結果得られた2次元合成画像デー
タC″(X,Y)をクロマキー合成回路(5)へ供給する。
The two-dimensional composite image data C '(X, Y) obtained in this way is supplied to a zoom ratio adjusting circuit (51). The zoom ratio adjustment circuit (51) is used to enlarge or reduce an image formed by the two-dimensional composite image data C '(X, Y) to an appropriate size according to the specifications of the CCD camera (21). Is set in advance, and the zoom ratio adjustment circuit (51) multiplies the two-dimensional composite image data C ′ (X, Y) by the zoom ratio, and obtains the resulting two-dimensional composite image data. C "(X, Y) is supplied to the chroma key synthesizing circuit (5).

【0040】一方、CCDカメラ(21)から得られる撮像
データD(Xc,Yc)は、視野角調整回路(52)へ供給され
る。ここで、撮像データD(Xc,Yc)は、各画素位置
(Xc,Yc)におけるRGBデータから構成され、各画素
についての2次元座標情報と色彩情報を含んでいる。視
野角調整回路(52)は、撮像データD(Xc,Yc)に、人の
視野角に応じた定数を乗算し、図6(b)に示す如き撮像
データD′(Xc,Yc)を作成する。作成された撮像デー
タD′(Xc,Yc)は、図3に示す如くクロマキー合成回
路(5)へ供給される。
On the other hand, the image data D (Xc, Yc) obtained from the CCD camera (21) is supplied to a viewing angle adjusting circuit (52). Here, the imaging data D (Xc, Yc) is at each pixel position.
It is composed of RGB data at (Xc, Yc) and includes two-dimensional coordinate information and color information for each pixel. The viewing angle adjusting circuit (52) multiplies the imaging data D (Xc, Yc) by a constant corresponding to the human viewing angle to create imaging data D '(Xc, Yc) as shown in FIG. I do. The created image data D '(Xc, Yc) is supplied to the chroma key synthesizing circuit (5) as shown in FIG.

【0041】クロマキー合成回路(5)は、撮像データ
D′(Xc,Yc)の座標系を2次元合成画像データC″
(X,Y)の座標系に一致させた上で、1画面分の撮像デ
ータD′(X,Y)の内、青色の画素領域の撮像データ
D′(X,Y)を、同一座標上の2次元合成画像データ
C″(X,Y)と置き換える。これによって、原型モデル
(1)の撮像データD′(X,Y)のみが、コンピュータグ
ラフィックスにより作成されたリモコンの2次元合成画
像データC″(X,Y)に置き換えられて、図6(c)に示
す如き合成映像データE(X,Y)が得られることにな
る。この様にして作成された合成映像データE(X,Y)
は、図3に示す如くディスプレイ(22)へ供給され、映像
として表示される。
The chroma key synthesizing circuit (5) converts the coordinate system of the image data D '(Xc, Yc) into two-dimensional synthetic image data C ".
After matching the coordinate system of (X, Y), the imaging data D '(X, Y) of the blue pixel area in the imaging data D' (X, Y) for one screen is displayed on the same coordinates. Is replaced with the two-dimensional synthesized image data C ″ (X, Y).
Only the imaging data D '(X, Y) of (1) is replaced by two-dimensional composite image data C "(X, Y) of a remote controller created by computer graphics, as shown in FIG. 6 (c). The composite video data E (X, Y) is obtained, and the composite video data E (X, Y) created in this manner is obtained.
Is supplied to the display (22) as shown in FIG. 3 and is displayed as an image.

【0042】図4は、上記画像処理の一連の手続きを表
わしている。先ず、ステップS1にて、第1受信器(31)
により原型モデル(1)の位置及び姿勢を検出した後、ス
テップS2にて、第2受信器(32)により観察者の頭部の
位置及び姿勢を検出する。次に、ステップS3では、ス
テップS1及びステップS2における検出結果に基づい
て、前記数2で表わされる座標変換行列M1、M2を作
成した後、原型モデル中心座標系から評価支援用メガネ
中心座標系への座標変換行列(M2・M1-1)を作成す
る。
FIG. 4 shows a series of procedures of the image processing. First, in step S1, the first receiver (31)
After detecting the position and orientation of the prototype model (1), the position and orientation of the observer's head are detected by the second receiver (32) in step S2. Next, in step S3, based on the detection results in steps S1 and S2, coordinate transformation matrices M1 and M2 expressed by the above equation 2 are created, and then the prototype coordinate system is moved from the prototype model center coordinate system to the evaluation support glasses center coordinate system. (M2 · M1 −1 ) is created.

【0043】続いて、ステップS4にて、リモコンの外
観を表わす3次元外観画像データAを作成し、ステップ
S5では、タッチパネル(11)からの位置検出信号P3の
有無に基づいて、原型モデル(1)に対し操作が行なわれ
たか否かを判断する。ここで、原型モデル(1)に対し操
作が行なわれない場合はNOと判断されて、ステップS
10へ移行し、3次元外観画像データAを3次元合成画
像データCとして設定した後、ステップS11へ移行す
る。
Subsequently, in step S4, three-dimensional appearance image data A representing the appearance of the remote controller is created. In step S5, based on the presence or absence of the position detection signal P3 from the touch panel (11), the prototype model (1) is created. ) Is determined. Here, if the operation is not performed on the prototype model (1), it is determined as NO, and step S
The process proceeds to step S10, where the three-dimensional appearance image data A is set as the three-dimensional composite image data C, and then the process proceeds to step S11.

【0044】ステップS11では、変換回路(47)により
3次元合成画像データCを観察者の頭部の位置から見え
るリモコンの3次元合成画像データに座標変換し、更に
ステップS12にて、該3次元合成画像データを2次元
合成画像データC′に変換する。
In step S11, the conversion circuit (47) converts the coordinates of the three-dimensional composite image data C into three-dimensional composite image data of the remote controller that can be viewed from the position of the observer's head. The composite image data is converted into two-dimensional composite image data C '.

【0045】続いて、ステップS13にて、2次元合成
画像データC′にズーム率を乗算して2次元合成画像デ
ータC″を作成した後、ステップS14にて、クロマキ
ー合成により合成映像データEを作成する。ステップS
14におけるクロマキー合成の具体的手順については、
後述する。そして、ステップS15にて合成映像データ
Eをディスプレイ(22)へ供給した後、ステップS16に
て評価手続きを終了するか否かを判断し、NOの場合は
ステップS1へ戻って、同様の画像処理を繰り返す。一
方、YESの場合は手続きを終了する。
Subsequently, in step S13, the two-dimensional composite image data C 'is multiplied by the zoom ratio to generate two-dimensional composite image data C ". In step S14, the composite video data E is obtained by chroma key combination. Create step S
For the specific procedure of chromakey synthesis in 14,
It will be described later. Then, after supplying the composite video data E to the display (22) in step S15, it is determined in step S16 whether or not to terminate the evaluation procedure. If NO, the process returns to step S1, and the same image processing is performed. repeat. On the other hand, in the case of YES, the procedure ends.

【0046】図5は、上記手続きのステップS14にお
けるクロマキー合成の具体的手順を表わしている。ここ
で、X_IMG_SIZE及びY_IMG_SIZEは夫々、2次元合成画像
データC″(X,Y)によって形成される映像のサイズで
ある。先ず、ステップS20にて、撮像データD′(X
c,Yc)の座標系を2次元合成画像データC″(X,Y)
の座標系に一致させた後、ステップS21にてX及びY
を1に初期化する。次に、ステップS22では、撮像デ
ータD′(X,Y)が青色を表わしているか否かを判断
し、NOの場合はステップS23へ移行して、撮像デー
タD′(X,Y)を合成映像データE(X,Y)として設定
する。一方、YESの場合は、ステップS24へ移行し
て、2次元合成画像データC″(X,Y)を合成映像デー
タE(X,Y)として設定する。
FIG. 5 shows a specific procedure of chroma key synthesis in step S14 of the above procedure. Here, X_IMG_SIZE and Y_IMG_SIZE are the sizes of the images formed by the two-dimensional composite image data C ″ (X, Y), respectively. First, in step S20, the imaging data D ′ (X
c, Yc) is defined as the two-dimensional composite image data C ″ (X, Y)
Are made to coincide with the coordinate system of X and Y in step S21.
Is initialized to 1. Next, in step S22, it is determined whether or not the image data D '(X, Y) represents blue. If NO, the process proceeds to step S23 to synthesize the image data D' (X, Y). This is set as video data E (X, Y). On the other hand, in the case of YES, the process shifts to step S24 to set the two-dimensional composite image data C ″ (X, Y) as the composite video data E (X, Y).

【0047】続いて、ステップS25にてXをカウント
アップした後、ステップS26では、Xがその最大値X_
IMG_SIZE以下であるか否かを判断し、YESの場合はス
テップS22へ戻って、撮像データD′(X,Y)と2次
元合成画像データC″(X,Y)の置き換えを繰り返す。
その後、ステップS26にてNOと判断されたときは、
ステップS27へ移行して、Xを1に初期化すると同時
に、Yをカウントアップする。次に、ステップS28に
て、Yがその最大値Y_IMG_SIZE以下であるか否かを判断
し、YESの場合はステップS22へ戻って、撮像デー
タD′(X,Y)と2次元合成画像データC″(X,Y)の
置き換えを繰り返す。そして、ステップS28にてNO
と判断されたとき、手続きを終了する。これによって、
ディスプレイ(22)には、原型モデル(1)の表面に外観画
像データAに応じた色彩及び模様が施された仮想的なリ
モコンの映像が映し出されることになる。
Subsequently, after counting up X in step S25, in step S26, X becomes its maximum value X_
It is determined whether it is equal to or smaller than IMG_SIZE, and in the case of YES, the process returns to step S22 to repeat the replacement of the imaging data D ′ (X, Y) and the two-dimensional composite image data C ″ (X, Y).
Thereafter, when it is determined NO in step S26,
In step S27, X is initialized to 1 and Y is counted up. Next, in step S28, it is determined whether or not Y is equal to or less than the maximum value Y_IMG_SIZE. If YES, the process returns to step S22 to return the imaging data D '(X, Y) and the two-dimensional composite image data C "(X, Y) is repeated.
When it is determined, the procedure is terminated. by this,
On the display (22), an image of a virtual remote controller in which a color and a pattern corresponding to the appearance image data A are given on the surface of the prototype model (1) is projected.

【0048】そこで、観察者が、ディスプレイ(22)によ
って仮想的なリモコンの映像を観察しつつ、原型モデル
(1)に対し、録画予約する際のキー操作と同様の操作を
行なうと、タッチパネル(11)は該操作位置を検出して位
置検出信号P3を作成し、該位置検出信号P3は、図1
に示す如く画像処理回路(4)へ供給される。画像処理回
路(4)は、第1及び第2検出信号P1、P2、及び位置
検出信号P3に基づき、撮像データDに後述の画像処理
を施して合成映像データEを作成し、映像表示装置(22)
へ供給する。
Then, the observer observes the image of the virtual remote controller on the display (22), and
When the same operation as the key operation at the time of recording reservation is performed for (1), the touch panel (11) detects the operation position and creates a position detection signal P3.
Is supplied to the image processing circuit (4) as shown in FIG. The image processing circuit (4) performs image processing (described later) on the imaging data D based on the first and second detection signals P1, P2 and the position detection signal P3 to create composite video data E, and displays the video display device ( twenty two)
Supply to

【0049】前記位置検出信号P3は、図3に示す如く
画像処理回路(4)の操作信号作成回路(41)へ入力され
る。操作信号作成回路(41)は、位置検出信号P3に基づ
いて、前記原型モデル(1)に対する操作位置がリモコン
の何れの操作キーに対応するかを判断し、リモコンに対
するキー操作に基づく操作信号を作成する。作成された
操作信号は、表示制御機能実行回路(42)へ供給される。
The position detection signal P3 is input to an operation signal generation circuit (41) of the image processing circuit (4) as shown in FIG. The operation signal generation circuit (41) determines which operation key of the remote controller corresponds to the operation position on the prototype model (1) based on the position detection signal P3, and generates an operation signal based on the key operation on the remote controller. create. The created operation signal is supplied to the display control function execution circuit (42).

【0050】表示制御機能実行回路(42)は、操作信号に
基づいて、前記キー操作に応じた表示制御機能を実行し
て表示制御データを作成する。作成された表示制御デー
タは、表示画像データ作成回路(43)へ供給され、これに
応じて、表示画像データ作成回路(43)は、リモコンの表
示パネルに表示すべき表示画像データBを作成する。例
えば、図7(a)に示す如き表示画像データB「録画予約
終了」が作成され、該表示画像データBは、図3に示す
如く合成回路(46)へ供給される。
The display control function execution circuit (42) executes a display control function according to the key operation based on the operation signal to create display control data. The created display control data is supplied to the display image data creation circuit (43), and in response, the display image data creation circuit (43) creates the display image data B to be displayed on the display panel of the remote controller. . For example, as shown in FIG. 7 (a), display image data B "recording end" is generated, and the display image data B is supplied to the synthesizing circuit (46) as shown in FIG.

【0051】合成回路(46)には、表示画像データ作成回
路(43)によって作成された表示画像データBが供給され
ると共に、外観画像データ作成回路(45)によって作成さ
れた図7(a)に示す如き外観画像データAが供給され
る。合成回路(46)は、外観画像データAの内、リモコン
の表示パネルの外観画像データAを、同一座標上の表示
画像データBと置き換える。これによって、表示パネル
に「録画予約終了」の表示が行なわれたリモコンの3次
元合成画像データCが得られる。この様にして作成され
た合成画像データCは、変換回路(47)へ供給される。
The display image data B created by the display image data creation circuit (43) is supplied to the synthesizing circuit (46), and FIG. 7A created by the appearance image data creation circuit (45). Is supplied as shown in FIG. The synthesizing circuit (46) replaces the appearance image data A on the display panel of the remote controller with the display image data B on the same coordinates among the appearance image data A. As a result, three-dimensional composite image data C of the remote controller on which "recording end" is displayed on the display panel is obtained. The composite image data C created in this way is supplied to the conversion circuit (47).

【0052】そして、変換回路(47)及びズーム率調整回
路(51)は、上述の原型モデル(1)に対し操作を行なわな
い場合と同様に動作し、クロマキー合成回路(5)には、
表示パネルに「録画予約終了」の表示が行なわれると共
に観察者の頭部の位置から見えるリモコンの2次元合成
画像データC″(X,Y)が供給される。又、クロマキー
合成回路(5)には、視野角調整回路(52)から得られる図
7(b)に示す如き撮像データD′(Xc,Yc)が供給され
る。
The conversion circuit (47) and the zoom ratio adjustment circuit (51) operate in the same manner as when the operation is not performed on the prototype model (1), and the chroma key synthesis circuit (5) includes:
The display panel displays "recording end", and supplies two-dimensional composite image data C "(X, Y) of the remote controller, which can be viewed from the position of the observer's head. Is supplied with imaging data D '(Xc, Yc) as shown in FIG. 7B obtained from the viewing angle adjusting circuit (52).

【0053】クロマキー合成回路(5)は、撮像データ
D′(Xc,Yc)と2次元合成画像データC″(X,Y)に
基づいて、上述の原型モデル(1)に対し操作を行なわな
い場合と同様のクロマキー合成を行ない、原型モデル
(1)の撮像データD′(X,Y)のみを、コンピュータグ
ラフィックスにより作成されたリモコンの2次元合成画
像データC″(X,Y)に置き換えて、図7(c)に示す如
き合成映像データE(X,Y)を作成する。この様にして
作成された合成映像データE(X,Y)は、図3に示す如
くディスプレイ(22)へ供給され、映像として表示され
る。
The chroma key synthesizing circuit 5 does not perform an operation on the prototype model 1 based on the image data D '(Xc, Yc) and the two-dimensional synthesized image data C "(X, Y). Perform the same chromakey synthesis as in the original model
Only the imaging data D '(X, Y) of (1) is replaced with two-dimensional composite image data C "(X, Y) of a remote controller created by computer graphics, and the composite data as shown in FIG. The video data E (X, Y) is created, and the synthesized video data E (X, Y) thus created is supplied to the display (22) as shown in FIG.

【0054】図4に示す画像処理の手続きにおいて、原
型モデル(1)に対し操作を行なった場合は、ステップS
5にてYESと判断されて、ステップS6へ移行する。
ステップS6では、原型モデル(1)に対する操作をリモ
コンに対するキー操作に対応づけ、該キー操作に基づく
操作信号を作成する。次に、ステップS7にて、前記キ
ー操作に応じた表示制御機能を実行した後、ステップS
8では、リモコンの表示パネルに表示すべき表示画像デ
ータBを作成する。そして、ステップS9にて、外観画
像データAと表示画像データBを合成して3次元合成画
像データCを作成し、ステップS11へ移行する。以
下、原型モデル(1)に対し操作を行なわない場合と同様
の手続きを実行し、ステップS16にてYESと判断さ
れたとき、手続きを終了する。これによって、ディスプ
レイ(22)には、原型モデル(1)の表面に外観画像データ
Aに応じた色彩及び模様が施されると共に表示画像デー
タBに応じた表示が行なわれた仮想的なリモコンの映像
が映し出されることになる。
In the image processing procedure shown in FIG. 4, when an operation is performed on the prototype model (1), step S
It is determined YES at 5 and the process moves to step S6.
In step S6, the operation on the prototype model (1) is associated with the key operation on the remote controller, and an operation signal based on the key operation is created. Next, in step S7, after executing the display control function corresponding to the key operation, step S7 is executed.
In step 8, display image data B to be displayed on the display panel of the remote controller is created. Then, in step S9, the appearance image data A and the display image data B are combined to create three-dimensional combined image data C, and the process proceeds to step S11. Hereinafter, the same procedure as when no operation is performed on the prototype model (1) is executed, and when YES is determined in step S16, the procedure is terminated. Thereby, on the display (22), a color and a pattern corresponding to the appearance image data A are applied to the surface of the prototype model (1) and a display corresponding to the display image data B is performed. The video will be projected.

【0055】ここで、観察者が、原型モデルに対し、リ
モコンにおけるある1つの動作、例えば録画予約を実現
するために必要な一連の操作を行なうと、ディスプレイ
(22)に表示される仮想的なリモコンの表示パネルの映像
は各操作に応じて変化することになる。これによって、
観察者は、リモコンに対し、キー操作の手順やキー配置
についての機能を評価することが出来る。
Here, when the observer performs a certain operation on the remote controller, for example, a series of operations necessary for realizing the recording reservation, on the prototype model, the display is displayed.
The image on the display panel of the virtual remote controller displayed in (22) changes according to each operation. by this,
The observer can evaluate the key operation procedure and the key arrangement function of the remote controller.

【0056】本実施例の評価支援装置によれば、外形の
みをリモコンと同一に形成した簡易な構成の原型モデル
(1)を用いて、リモコンの機能を評価することが出来る
ので、従来の如く実物と同一の試作品を作製する必要が
ない。又、操作信号作成回路(41)による原型モデル(1)
に対する操作とリモコンに対するキー操作の対応関係、
及び表示制御機能実行回路(42)による表示制御機能を規
定するコンピュータプログラムを書き換えるだけで、リ
モコンの様々な動作を仮想的に実現することが出来、機
能についての評価を行なうことが出来る。従って、従来
の如く試作品の作製を繰り返す必要がなく、新製品の開
発に要する時間及び労力を、従来よりも大幅に軽減する
ことが出来る。又、CGデータ格納メモリ(44)の3次元
コンピュータグラフィックスデータを書き換えるだけ
で、リモコンの様々な外観を仮想的に実現することが出
来、外観についての評価も同時に行なうことが出来る。
According to the evaluation support apparatus of this embodiment, a prototype model having a simple configuration in which only the outer shape is formed in the same manner as the remote controller
Since the function of the remote controller can be evaluated using (1), there is no need to produce a prototype identical to the actual product as in the related art. Prototype model (1) by operation signal creation circuit (41)
Correspondence between the operation on the remote control and the key operation on the remote
By simply rewriting the computer program that defines the display control function by the display control function execution circuit (42), various operations of the remote controller can be virtually realized, and the function can be evaluated. Therefore, there is no need to repeat the production of a prototype as in the conventional case, and the time and labor required for developing a new product can be significantly reduced as compared with the conventional case. Also, by simply rewriting the three-dimensional computer graphics data in the CG data storage memory (44), various appearances of the remote controller can be virtually realized, and the evaluation of the appearance can be performed at the same time.

【0057】上記実施の形態の説明は、本発明を説明す
るためのものであって、特許請求の範囲に記載の発明を
限定し、或は範囲を減縮する様に解すべきではない。
又、本発明の各部構成は上記実施の形態に限らず、特許
請求の範囲に記載の技術的範囲内で種々の変形が可能で
あることは勿論である。
The description of the above embodiments is for the purpose of describing the present invention, and should not be construed as limiting the invention described in the claims or reducing the scope thereof.
In addition, the configuration of each part of the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made within the technical scope described in the claims.

【0058】上記実施例においては、本発明を操作キー
と表示パネルを具えたリモコンの評価支援装置に実施し
て、外観及び機能評価の両方を行なっているが、外観の
みが評価対象となる物品の評価支援装置に実施して、外
観評価のみを行なうことも可能である。この場合、タッ
チパネル(11)、操作信号作成回路(41)、表示制御機能実
行回路(42)、表示画像データ作成回路(43)及び合成回路
(46)は、省略することが可能である。
In the above embodiment, the present invention is applied to the evaluation support apparatus for a remote control having an operation key and a display panel to perform both the appearance and the function evaluation. It is also possible to perform only the appearance evaluation by implementing the evaluation support apparatus. In this case, the touch panel (11), the operation signal creation circuit (41), the display control function execution circuit (42), the display image data creation circuit (43), and the synthesis circuit
(46) can be omitted.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の評価支援装置の全体構成を表わす図で
ある。
FIG. 1 is a diagram illustrating an overall configuration of an evaluation support device according to the present invention.

【図2】画像処理回路における座標変換の原理を説明す
る図である。
FIG. 2 is a diagram illustrating the principle of coordinate conversion in an image processing circuit.

【図3】画像処理回路の主要部の構成を表わすブロック
図である。
FIG. 3 is a block diagram illustrating a configuration of a main part of the image processing circuit.

【図4】画像処理回路による画像処理の手続きを表わす
フローチャートである。
FIG. 4 is a flowchart illustrating a procedure of image processing by an image processing circuit.

【図5】画像処理回路におけるクロマキー合成の手続き
を表わすフローチャートである。
FIG. 5 is a flowchart illustrating a procedure of chroma key synthesis in the image processing circuit.

【図6】原型モデルに対し操作を行なわない場合の画像
合成の様子を表わす斜視図である。
FIG. 6 is a perspective view illustrating a state of image synthesis when no operation is performed on a prototype model.

【図7】原型モデルに対し操作を行なった場合の画像合
成の様子を表わす斜視図である。
FIG. 7 is a perspective view illustrating a state of image synthesis when an operation is performed on a prototype model.

【符号の説明】[Explanation of symbols]

(1) 原型モデル (11) タッチパネル (2) 評価支援用メガネ (21) CCDカメラ (22) ディスプレイ (3) 磁場発生装置 (31) 第1受信器 (32) 第2受信器 (4) 画像処理回路 (1) prototype model (11) touch panel (2) glasses for evaluation support (21) CCD camera (22) display (3) magnetic field generator (31) first receiver (32) second receiver (4) image processing circuit

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 撮像手段によって評価対象物の原型モデ
ルを撮影して得られる撮像データの内、原型モデルを表
わす撮像データを、評価対象物の外観を表わす画像デー
タと置き換え、これによって得られる合成映像データを
映像表示手段へ供給して、評価対象物の外観を評価する
ための映像を映出することを特徴とする評価支援方法。
1. An image data representing a prototype model of image data obtained by photographing a prototype model of an object to be evaluated by an image capturing means, is replaced with image data representing an appearance of the object to be evaluated, and a composite obtained by the replacement is obtained. An evaluation support method characterized by supplying video data to video display means and projecting a video for evaluating the appearance of an evaluation object.
【請求項2】 撮像手段によって評価対象物の原型モデ
ルを撮影して得られる撮像データの内、原型モデルを表
わす撮像データを、評価対象物の外観を表わすと共に原
型モデルに対する操作に応じて変化する画像データと置
き換え、これによって得られる合成映像データを映像表
示手段へ供給して、評価対象物の機能を評価するための
映像を映出することを特徴とする評価支援方法。
2. Among image data obtained by photographing a prototype model of an object to be evaluated by an imaging means, image data representing a prototype model is changed according to an operation on the prototype model while representing an appearance of the object to be evaluated. An evaluation support method characterized by replacing image data, supplying synthesized image data obtained by the replacement to image data, and projecting an image for evaluating a function of an evaluation object.
【請求項3】 映像表示手段は、評価対象物を評価すべ
き観察者が装着すべき評価支援用メガネに、観察者の眼
と対向させて取り付けられている請求項1又は請求項2
に記載の評価支援方法。
3. The image display means is attached to evaluation support glasses to be worn by an observer who is to evaluate the object to be evaluated, facing the eye of the observer.
Evaluation support method described in.
【請求項4】 撮像手段は、評価対象物を評価すべき観
察者が装着すべき評価支援用メガネに、観察者の前方へ
向けて取り付けられている請求項1乃至請求項3の何れ
かに記載の評価支援方法。
4. The imaging device according to claim 1, wherein the imaging unit is attached to the evaluation support glasses to be worn by an observer who is to evaluate the object to be evaluated, in a forward direction of the observer. Evaluation support method described.
【請求項5】 評価対象物と同一の外形に形成されると
共に表面が特定の色彩に着色された原型モデルと、評価
対象物を評価すべき観察者の頭部に装着される頭部装着
ユニットと、原型モデルの位置及び姿勢を検出する第1
検出手段と、観察者の頭部の位置及び姿勢を検出する第
2検出手段と、観察者が観察すべき映像を作成する画像
処理回路とから構成される評価支援装置であって、頭部
装着ユニットは、 観察者の頭部から前方へ向けて取り付けられた撮像装置
と、 観察者の眼に対向させて設置され、画像処理回路によっ
て作成された映像を表示すべき映像表示装置とを具え、
画像処理回路は、 評価対象物の3次元グラフィックスデータに基づいて、
評価対象物の外観を表わす3次元の外観画像データを作
成する画像作成手段と、 第1検出手段及び第2検出手段から得られる検出信号に
基づいて、観察者の頭部の位置及び姿勢に対する原型モ
デルの位置及び姿勢の相対関係を導出する演算処理手段
と、 導出された相対関係に基づいて、外観画像データ作成手
段から得られる3次元の外観画像データを、観察者の頭
部の位置から見える評価対象物を表わす2次元の外観画
像データに変換する画像変換手段と、 前記撮像装置から得られる1画面分の撮像データの内、
前記特定の色彩を有する撮像データを各撮像データと対
応する位置の2次元の外観画像データと置き換えて合成
映像データを作成し、映像表示装置へ供給するクロマキ
ー合成手段とを具えている評価支援装置。
5. A prototype model formed in the same outer shape as the object to be evaluated and having a surface colored in a specific color, and a head-mounted unit to be mounted on the head of an observer who is to evaluate the object to be evaluated. And a first for detecting the position and orientation of the prototype model
An evaluation support apparatus comprising: a detection unit; a second detection unit configured to detect a position and a posture of an observer's head; and an image processing circuit configured to create a video to be observed by the observer. The unit includes an imaging device mounted forward from the observer's head, and a video display device that is installed to face the observer's eyes and displays an image created by the image processing circuit.
The image processing circuit, based on the three-dimensional graphics data of the evaluation object,
An image creating means for creating three-dimensional appearance image data representing the appearance of the evaluation object; and a prototype for the position and orientation of the observer's head based on detection signals obtained from the first detection means and the second detection means. An arithmetic processing unit for deriving a relative relationship between the position and the posture of the model; and three-dimensional appearance image data obtained from the appearance image data creating unit on the basis of the derived relative relationship, which can be viewed from the position of the observer's head. Image conversion means for converting into two-dimensional appearance image data representing an evaluation object;
An evaluation support apparatus comprising: chromakey synthesizing means for generating synthesized video data by replacing the imaging data having the specific color with two-dimensional appearance image data at a position corresponding to each imaging data and supplying the synthesized video data to a video display device .
【請求項6】 キー操作部及び表示部を具えてキー操作
に応じて表示が行なわれる評価対象物の評価支援装置で
あって、評価対象物と同一の外形に形成されると共に表
面が特定の色彩に着色された原型モデルと、評価対象物
を評価すべき観察者の頭部に装着される頭部装着ユニッ
トと、原型モデルの位置及び姿勢を検出する第1検出手
段と、観察者の頭部の位置及び姿勢を検出する第2検出
手段と、観察者が観察すべき映像を作成する画像処理回
路とから構成され、原型モデルには、評価対象物のキー
操作部に対応する領域に操作位置検出手段が設置され、
頭部装着ユニットは、 観察者の頭部から前方へ向けて取り付けられた撮像装置
と、 観察者の眼に対向させて設置され、画像処理回路によっ
て作成された映像を表示すべき映像表示装置とを具え、
画像処理回路は、 操作位置検出手段からの位置検出信号に基づき、原型モ
デルに対する操作を評価対象物に対するキー操作に対応
づけて該キー操作に基づく操作信号を作成する操作信号
作成手段と、 作成された操作信号に基づいて、前記キー操作に応じた
表示制御機能を実行する表示制御機能実行手段と、 前記表示制御機能実行手段から得られる表示制御データ
に基づいて、評価対象物の表示部に表示すべき表示画像
データを作成する第1画像作成手段と、 評価対象物の3次元グラフィックスデータに基づいて、
評価対象物の外観を表わす3次元の外観画像データを作
成する第2画像作成手段と、 第1検出手段及び第2検出手段から得られる検出信号に
基づいて、観察者の頭部の位置及び姿勢に対する原型モ
デルの位置及び姿勢の相対関係を導出する演算処理手段
と、 前記作成された外観画像データ及び表示画像データか
ら、前記導出された相対関係に基づいて、表示部に前記
キー操作に応じた表示が行なわれると共に観察者の頭部
の位置から見える評価対象物を表わす2次元の合成画像
データを作成する画像処理手段と、 前記撮像装置から得られる1画面分の撮像データの内、
前記特定の色彩を有する撮像データを各撮像データと対
応する位置の2次元の合成画像データと置き換えて合成
映像データを作成し、映像表示装置へ供給するクロマキ
ー合成手段とを具えている評価支援装置。
6. An evaluation support apparatus for an evaluation object, which includes a key operation unit and a display unit and is displayed according to a key operation, wherein the evaluation object is formed in the same outer shape as the evaluation object and has a specific surface. A prototype model that is colored in color, a head-mounted unit that is mounted on the head of the observer whose evaluation target is to be evaluated, first detection means that detects the position and orientation of the prototype model, A second detection means for detecting the position and orientation of the part, and an image processing circuit for creating an image to be observed by the observer. Position detecting means is installed,
The head-mounted unit includes an imaging device mounted forward from the observer's head, a video display device installed to face the observer's eyes, and for displaying an image created by the image processing circuit. With
An image processing circuit configured to generate an operation signal based on the key operation by associating an operation on the prototype model with a key operation on the evaluation target based on the position detection signal from the operation position detection unit; Display control function executing means for executing a display control function according to the key operation based on the operation signal, and displaying on a display section of the evaluation object based on display control data obtained from the display control function executing means. A first image creating means for creating display image data to be created, and three-dimensional graphics data of the evaluation object,
A second image creating means for creating three-dimensional appearance image data representing the appearance of the evaluation object; and a position and orientation of the observer's head based on detection signals obtained from the first detection means and the second detection means. An arithmetic processing unit for deriving a relative relationship between the position and orientation of the prototype model with respect to, and based on the derived relative relationship from the created appearance image data and display image data, the display unit responds to the key operation. Image processing means for creating two-dimensional combined image data representing an evaluation target that is displayed and is viewed from the position of the observer's head; and one image data of one screen obtained from the imaging device,
An evaluation support apparatus comprising: a chroma key synthesizing unit that generates synthesized video data by replacing the imaging data having the specific color with two-dimensional synthesized image data at a position corresponding to each imaging data and supplies the synthesized video data to a video display device .
JP8169484A 1996-06-28 1996-06-28 Method and device for supporting evaluation Pending JPH1021363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8169484A JPH1021363A (en) 1996-06-28 1996-06-28 Method and device for supporting evaluation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8169484A JPH1021363A (en) 1996-06-28 1996-06-28 Method and device for supporting evaluation

Publications (1)

Publication Number Publication Date
JPH1021363A true JPH1021363A (en) 1998-01-23

Family

ID=15887398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8169484A Pending JPH1021363A (en) 1996-06-28 1996-06-28 Method and device for supporting evaluation

Country Status (1)

Country Link
JP (1) JPH1021363A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285221A (en) * 1999-03-29 2000-10-13 Sony Corp Method and device for processing signal
US7006079B2 (en) * 2002-08-30 2006-02-28 Nara Institute Of Science And Technology Information input system
JP2006126936A (en) * 2004-10-26 2006-05-18 Canon Inc Image processing method and image processing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285221A (en) * 1999-03-29 2000-10-13 Sony Corp Method and device for processing signal
US7006079B2 (en) * 2002-08-30 2006-02-28 Nara Institute Of Science And Technology Information input system
JP2006126936A (en) * 2004-10-26 2006-05-18 Canon Inc Image processing method and image processing device
JP4574323B2 (en) * 2004-10-26 2010-11-04 キヤノン株式会社 Image processing method and image processing apparatus

Similar Documents

Publication Publication Date Title
JP4933406B2 (en) Image processing apparatus and image processing method
US7782320B2 (en) Information processing method and information processing apparatus
US4870600A (en) Three-dimensional image display system using binocular parallax
Azuma A survey of augmented reality
Sauer et al. Augmented workspace: Designing an AR testbed
US20030185461A1 (en) Method and apparatus for processing information
KR19990030307A (en) 3D video display device
US20070146390A1 (en) Image processing method and image processing apparatus
JP7182920B2 (en) Image processing device, image processing method and program
JP2000172431A (en) Information input device and game device
KR20060090367A (en) 3d virtual studio using video texturing
US20080151044A1 (en) Method and apparatus for generating files for stereographic image display and method and apparatus for controlling stereographic image display
JP2011035638A (en) Virtual reality space video production system
CN115486091A (en) System and method for video processing using virtual reality devices
JP4046973B2 (en) Information processing method and image mixing apparatus
JPH1021363A (en) Method and device for supporting evaluation
JPH10336703A (en) Image compositing device, its method and storage medium
JPH11328443A (en) System and method for generating three-dimensional panorama image and recording media therefor
JP4006105B2 (en) Image processing apparatus and method
JPH03226198A (en) Stereoscopic picture display device
JP2000218575A (en) Image display device
JPH0923449A (en) Actual-photographic picture and three-dimensional model composing device
US6633291B1 (en) Method and apparatus for displaying an image
JPH08322064A (en) Head mount display device
CN113614675A (en) Head-mounted information processing device and head-mounted display system