WO2006051841A1 - 質感再現システム - Google Patents

質感再現システム Download PDF

Info

Publication number
WO2006051841A1
WO2006051841A1 PCT/JP2005/020588 JP2005020588W WO2006051841A1 WO 2006051841 A1 WO2006051841 A1 WO 2006051841A1 JP 2005020588 W JP2005020588 W JP 2005020588W WO 2006051841 A1 WO2006051841 A1 WO 2006051841A1
Authority
WO
WIPO (PCT)
Prior art keywords
luminance image
sample object
simulated
simulated object
sample
Prior art date
Application number
PCT/JP2005/020588
Other languages
English (en)
French (fr)
Inventor
Shoji Yamamoto
Keiichi Kenmotsu
Tetsuya Tomonaka
Yoichi Miyake
Norimichi Tsumura
Toshiya Nakaguchi
Original Assignee
Mitsubishi Heavy Industries, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries, Ltd. filed Critical Mitsubishi Heavy Industries, Ltd.
Publication of WO2006051841A1 publication Critical patent/WO2006051841A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects

Definitions

  • the present invention relates to a texture reproduction system that reproduces the texture of a sample object on a simulated object having a reflection characteristic different from that of the sample object.
  • 3D-CAD systems have been introduced at manufacturing sites, and it is possible to simulate finished quality on the Digital-Mock-up in combination with the above CG technology. This is very important for optimizing the manufacturing process.
  • the display medium is a self-luminous object, whereas the natural object is a reflective object, so that the display mode differs between the display object and the real object.
  • the display dynamic range is an important item for expressing the texture and the like.
  • the current display medium can only secure this dynamic range of about 200: 1.
  • the reflection characteristic processing and compression method shown in Fig. 2 will be adopted.
  • Patent Document 1 Japanese Patent No. 3254195
  • Patent Document 2 Japanese Patent No. 3311841 Disclosure of the invention
  • the conventional display reproduction technology is only through the display medium, it is difficult to match the texture with the real thing.
  • the display medium is a self-luminous object, whereas the natural object is a reflective object, so that the display mode and the real object are different.
  • the dynamic range (contrast) of display is an important item for expressing textures, etc., but the current self-luminous display media can only secure this dynamic range of about 200: 1.
  • the reflection characteristic processing and compression methods as shown in Patent Documents 1 and 2 must be adopted.
  • the object of the present invention is to provide a texture that can realistically reproduce the texture of a sample object on a simulated object having a reflection characteristic different from that of the sample object by using a projection display means. To provide a reproduction system.
  • the present invention is a texture reproduction system for reproducing the texture of a sample object on a simulated object having a reflection characteristic different from that of the sample object, and based on the reflection characteristic of the sample object, at a predetermined observation position.
  • First computing means for computing a luminance image of the sample object;
  • second computing means for computing a brightness image of the simulated object at the predetermined observation position based on reflection characteristics of the simulated object;
  • Third calculation means for calculating the difference between the luminance image of the sample object and the luminance image of the simulated object, and fourth calculation means for calculating a projection luminance image that eliminates the difference based on the difference.
  • the projection display means for projecting the projection luminance image onto the sample object and the Z or the simulated object.
  • the projected luminance image may be obtained, for example, by tracking the difference with a reverse ray.
  • the reflection characteristic of the sample object can be set as a function of the position of the sample object, the incident angle, the outgoing angle, the incident azimuth angle, the outgoing azimuth angle and the wavelength of the light in the sample object.
  • the fourth calculation means is based on means for searching for the maximum luminance value of the projection luminance image, the projection luminance image, the maximum luminance value, and the limit radiance of the projection display means.
  • the texture of the sample object is defined as the sample object using the projection display means having a reflective display function and a display dynamic range of 1000: 1 or more. It is possible to reproduce realistically on a simulated object having different reflection characteristics. Therefore, for example, when requesting manufacture of a product from a supplier to a manufacturing factory, there is an advantage that it is not necessary to send a product sample object to the manufacturing factory.
  • FIG. 1 is a perspective view conceptually showing an embodiment of a texture reproduction system according to the present invention.
  • FIG. 2 is a flowchart showing a procedure for reproducing a texture.
  • FIG. 3 is a perspective view showing a state in which the textures of a sample object and a simulated object are compared.
  • FIG. 4 is a schematic diagram showing a method for obtaining a luminance image at the viewpoint position of a sample object.
  • FIG. 5 is a schematic diagram showing a method for obtaining a luminance image at a viewpoint position of a simulated object.
  • FIG. 6 is a schematic diagram showing a method for obtaining a projection luminance image in the projection apparatus corresponding to the difference image at the viewpoint position.
  • FIG. 7 is a reflection characteristic diagram of an object.
  • FIG. 8 is a cross section of the reflection characteristic diagram.
  • FIG. 9 is a reflection characteristic diagram at one point of the sample object.
  • FIG. 10 is a reflection characteristic diagram at one point of the simulated object.
  • FIG. 11 is a reflection characteristic diagram in which the reflection characteristics shown in FIG. 9 are indicated by dotted lines and the reflection characteristics shown in FIG. 10 are indicated by solid lines.
  • FIG. 12 is a reflection characteristic diagram in which the luminance image of the sample object 7 at the viewpoint position is indicated by a dotted line and the final simulated object luminance image is indicated by a solid line.
  • FIG. 13 Reflection characteristics with the luminance image of the sample object before the change at the viewpoint position indicated by a thin solid line, and the luminance image of the sample object at the viewpoint position indicated by the solid solid line when the final projected luminance image is projected from the projection device FIG.
  • FIG. 14 is a flowchart showing a technique for improving the appearance of a simulated object by controlling the projection brightness of the sample object 7.
  • FIG. 1 is a schematic diagram showing an embodiment of a texture display system according to the present invention.
  • the database 5 of each processing computer 3 connected via the network 1 stores the reflection characteristics of the sample object and the simulated object.
  • the sample object is a finished product that has been subjected to a surface treatment such as chrome plating, and the simulated object is an unfinished product that has not been subjected to this surface treatment.
  • a semi-cylindrical sample object 7 and a simulated object 9 having the same shape as the sample object 7 are shown.
  • the reflection characteristic of the sample object 7 is measured in advance using the position of a light source (not shown) having a predetermined radiance and the position of the viewpoint of an observer observing the reflected light as parameters.
  • the reflection characteristics of the simulated object 9 are the same. Since this reflection characteristic measuring method is well known, the description thereof is omitted here.
  • the processing computer 3 captures the reflection characteristics of the simulated object 9 corresponding to the specified position of the light source, the viewpoint of the observer, and the object shape, based on the database 5 (step 107). Based on the reflection characteristics, the luminance image of the simulated object 9 at the observer's viewpoint is calculated (step 109), and the difference between the luminance image of the sample object 7 and the luminance image of the simulated object 9 is calculated. (Step 111).
  • the processing computer 3 performs reverse ray tracing of the difference luminance image obtained by the difference calculation (step 113).
  • FIGS. 4 to 6 are schematic diagrams for explaining the reverse ray tracing.
  • the sample object 7 and the simulated object 9 are shown as spheres.
  • a predetermined viewpoint position As shown in FIG. 4, when light of a predetermined radiance generated by a modulator (such as a liquid crystal or a mirror device) in the projection apparatus 11 is illuminated onto the sample object 7 through the lens 11a, a predetermined viewpoint position ( The reflected light forms an image on the retina via a lens made of a crystalline lens.
  • a luminance image recognized by the observer at this time is shown. This luminance image corresponds to the luminance image of the sample object calculated in step 105.
  • the luminance image of the simulated object 9 at the viewpoint position is the right part of FIG. As shown.
  • This luminance image corresponds to the luminance image of the simulated object calculated in step 109.
  • the luminance image shown on the right side of FIG. 6 is the luminance image of the sample object 7 at the viewpoint position shown in FIG. 4 and the luminance image of the simulated object 9 at the viewpoint position shown in FIG. It is a difference luminance image obtained by taking the difference.
  • This difference luminance image corresponds to the difference luminance image calculated in step 111.
  • the difference luminance image means the luminance deficiency of the simulated object 9 based on the luminance of the sample object 7. Therefore, if a luminance image that compensates for the above-described luminance deficiency is projected from the projection device 11 onto the simulated object 9 based on the difference luminance image, the appearance of the simulated object 9 matches that of the sample object 7. Become.
  • the projection luminance image on the projection device 11 can be obtained by tracking the difference luminance image from the viewpoint position to the projection device 11 based on the relationship between the viewpoint position, the position of the object, and the position of the projection device 11. . Since the reverse ray tracing method is well known, the specific description thereof is omitted here.
  • step 113 the difference luminance image at the visual point position obtained in step 111 is converted into a difference luminance image for the predetermined radiance currently projected by the projection device 11 by the inverse ray tracing method.
  • step 115 the difference luminance image at the viewpoint position, that is, the insufficient luminance of the simulated object 9 viewed from the viewpoint position is compensated based on the difference luminance image at the projection device 11.
  • a projection luminance image is generated, and the projection luminance image is output from the projection device 11 in the next step 117.
  • the insufficient luminance of the simulated object 9 viewed from the viewpoint position is compensated, and the appearance of the simulated object 9 (particularly gloss in this example) matches that of the sample object 7. Will do.
  • the appearance of the simulated object 9 can be evaluated by arranging the sample object 7 and the simulated object 9 adjacent to each other as shown in FIG. In this case, illumination light having a predetermined luminance is projected from the projection device 11 to the sample object 7, and the projection luminance image obtained in step 115 is output from the projection device 11 to the simulated object 9. As a result of such an evaluation, it was confirmed that the appearance of the simulated object 9 was very close to the appearance of the sample object 7.
  • any of the processing computers 3 connected via the network 1 can execute the above procedure. Therefore, according to this texture reproduction system, it is possible to view the simulated object 9 as an object having the force and the texture of the sample object 7 even in a remote place. As a result, for example, when requesting manufacture of a product from the supplier to the manufacturing plant, it is not necessary to send the product sample object to the manufacturing plant.
  • the manufactured product is arranged in the dotted frame shown in FIG. 1, and the manufactured product is compared with the simulated object 9 in which the texture of the sample object 7 is reproduced, and the manufactured product is compared. It is possible to evaluate the finishing power of products.
  • the projection device 11 has the limit radiance, when the maximum brightness of the projection brightness image generated in the step 115 exceeds the limit radiance, the simulation is viewed from the viewpoint position. This means that the lack of brightness of object 9 cannot be completely compensated.
  • the following countermeasures for controlling the projection brightness of the sample object 7 to improve the appearance of the simulated object 9 can be applied.
  • FIG. 7 illustrates the reflection characteristics at the viewpoint position of the sample object 7 shown in FIG. 4 and the simulated object 9 shown in FIG.
  • the reflected luminance lout is expressed as follows.
  • BRDF is the bidirectional reflection function (positions x and y of sample object 7 and simulated object 9, light incident angle ⁇ in, light output angle ⁇ out, azimuth angle ⁇ in of incident light, output light Is a function of the azimuth angle ⁇ out and the light wavelength ⁇ .
  • the AA ′ cross section of the reflection characteristic of the object 8 or 9 is expressed as shown in FIG.
  • the following explanation will be made using this AA 'cross section for easy understanding.
  • FIG. 9 and FIG. 10 illustrate the reflection characteristics (reflection characteristics viewed from the viewpoint position) at one point of the sample object 7 shown in FIG. 4 and the simulated object 9 shown in FIG. 5, respectively.
  • FIG. 11 shows the reflection characteristic shown in FIG. 9 by a dotted line and the reflection characteristic shown in FIG. 10 by a solid line.
  • the difference between the reflection characteristics shown in FIG. 11 is the difference between the luminance images of the sample object 7 and the simulated object 9 at the one point as seen from the viewpoint position.
  • this difference luminance image is calculated for all points centered on the object plane normal vector, so that the projection luminance image generated in step 115 of FIG. This is a projected luminance image for all points.
  • step 201 shown in FIG. 14 the maximum luminance value (cd / m 2) in the projection luminance image generated in step 115 of FIG. 2 is searched. Then, in the next step 203, the following calculation is performed based on the projection luminance image, the limit radiance of the projection device 11 and the searched maximum luminance value, and the limit radiance is set as the upper limit luminance.
  • the corrected projection luminance image for the simulated object 9 to be determined is determined.
  • Modified projection luminance image projection luminance image X (limit radiance / maximum luminance value) [0031]
  • step 205 the luminance image at the viewpoint position of the simulated object 9 when the modified projected luminance image is projected onto the simulated object 9. Is obtained as a final simulated object luminance image.
  • the final simulated object luminance image is obtained based on the following calculation.
  • a final projected luminance image for the sample 7 that matches the final simulated object luminance image is determined based on the following calculation.
  • the thin solid line shows the luminance image of the sample object before the change in the viewpoint position
  • the thick solid line shows the luminance of the sample object at the viewpoint position when the final projected luminance image is projected from the projection device. Show the image (changed brightness image).
  • the luminance image of the bold line matches the final simulated object luminance image shown by the solid line in FIG.
  • steps 201 to 207 can be inserted between step 115 and step 117 of Fig. 2 as required and executed by the processing computer 3. If the procedures of Steps 201 to 207 are executed, the simulated object luminance image that approximates the luminance image of the sample object can be reproduced by making the best use of the ability of the projection device 11.
  • the method in steps 201 to 207 described above adjusts the projected luminance image for the simulated object 9 and the sample object 7 in consideration of the limit radiance in the projection device 11, so that the simulated object is obtained as a result.
  • the projected brightness on 9 and Z or the sample object 7 may be reduced.
  • the texture and contrast of both objects 7 and 9 are preserved, and humans have the visual characteristic that they feel the texture with relative brightness instead of absolute brightness. Reproducibility is obtained.
  • the database 5 has reflection characteristics corresponding to those changes. Can provide sex.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 投影表示手段(11)を用いて、見本物体(7)の質感を見本物体(7)とは反射特性の異なる模擬物体(9)上にリアルに再現することが可能な質感再現システムを提供する。見本物体(7)の反射特性に基づいて、所定の観察位置における見本物体(7)の輝度画像を演算する第1の演算手段(105)と、見本物体(7)とは反射特性の異なる模擬物体(9)の反射特性に基づいて、所定の観察位置における模擬物体(9)の輝度画像を演算する第2の演算手段(109)と、見本物体7の輝度画像と模擬物体(9)の輝度画像との差分を演算する第3の演算手段(111)と、差分に基づいて、この差分がなくなるような投影用輝度画像を演算する第4の演算手段(115)と、模擬物体(9)に投影用輝度画像を投影する投影表示手段(11)と、を備える。

Description

明 細 書
質感再現システム
技術分野
[0001] 本発明は、見本物体の質感を該見本物体とは反射特性の異なる模擬物体上に再 現する質感再現システムに関するものである。
背景技術
[0002] 近年の計算機の発達に伴い、複雑な光線追跡を必要とする CGやレンダリングが高 速に処理できるようになり、関連する開発が盛んに行われている。そのため実写に見 劣りをしない、質感(光沢感ゃ透明感など)再現が可能となり、コマーシャルやインタ 一ネットショッピングに多用されている。
また製造現場においても 3D— CADシステムの導入が進み、上記 CG技術と組み 合わせた Digital— Mock— up上で出来上がり品質などをシミュレーションすることが 可能となっている。これは製造工程の最適化を図る上で、非常に重要な位置付けと なっている。
[0003] これら CGなどを用いた質感再現手法は、たとえば、特許文献 1や特許文献 2に記 載されている。光沢感などは物体の質感を左右する重要な項目であり、その加工方 法や表示方法にっレ、て、多くの特許出願がなされてレ、る。
し力、しながら、これらの表示再生はあくまでもディスプレイ媒体を通じたものであるた め、質感を実物と一致させることが困難である。特にディスプレイ媒体が自発光物体 であるのに対して、 自然物体は反射物体であるので、表示物体と実物とでは見えの モードが異なることになる。
[0004] また、質感などを表現する上では、表示ダイナミックレンジも重要な項目であるが、 現在のディスプレイ媒体ではこのダイナミックレンジが 200 : 1程度しか確保できず、そ のため、特許文献 1、 2に示すような反射特性の加工や圧縮手法を採用することにな る。
特許文献 1 :特許第 3254195号公報
特許文献 2 :特許第 3311841号公報 発明の開示
発明が解決しょうとする課題
[0005] し力しながら、従来の表示再生技術は、あくまでもディスプレイ媒体を通じたもので あるため、質感を実物と一致させることが困難である。特にディスプレイ媒体が自発光 物体であるのに対して、 自然物体は反射物体であるので、表示物体と実物とでは見 えのモードが異なることになる。
[0006] また、質感などを表現する上では、表示のダイナミックレンジ (コントラスト)も重要な 項目であるが、現在の自発光ディスプレイ媒体ではこのダイナミックレンジが 200: 1 程度しか確保できず、そのため、特許文献 1、 2に示すような反射特性の加工や圧縮 手法を採用しなければならないことになる。
[0007] 本発明の目的は、このような状況に鑑み、投影表示手段を用いて見本物体の質感 を該見本物体とは反射特性の異なる模擬物体上にリアルに再現することが可能な質 感再現システムを提供することにある。
課題を解決するための手段
[0008] 本発明は、見本物体の質感を、該見本物体とは反射特性の異なる模擬物体上に 再現する質感再現システムであって、前記見本物体の反射特性に基づいて、所定の 観察位置における前記見本物体の輝度画像を演算する第 1の演算手段と、前記模 擬物体の反射特性に基づいて、前記所定の観察位置における前記模擬物体の輝 度画像を演算する第 2の演算手段と、前記見本物体の輝度画像と前記模擬物体の 輝度画像との差分を演算する第 3の演算手段と、前記差分に基づいて、この差分が なくなるような投影用輝度画像を演算する第 4の演算手段と、前記見本物体および Z または模擬物体に前記投影用輝度画像を投影する投影表示手段と、を備えることに よって上記目的を達成してレ、る。
[0009] 前記投影輝度画像は、たとえば、前記差分を逆光線追跡することによって得るよう にしてもよい。
また、前記見本物体の反射特性は、該見本物体の位置、該見本物体における光の 入射角、出射角、入射方位角、出射方位角および波長の関数として設定することが できる。 [0010] 前記第 4の演算手段は、前記投影用輝度画像の最大輝度値を検索する手段と、前 記投影用輝度画像、前記最大輝度値、および前記投影表示手段の限界放射輝度 に基づいて、該限界放射輝度を上限輝度とする前記模擬物体に対する修正投影輝 度画像を演算する演算手段と、前記観察位置における前記模擬物体の反射特性お よび前記修正投影輝度画像に基づいて、最終的模擬物体輝度画像を演算する演算 手段と、 前記最終的模擬物体輝度画像および前記観察位置における前記見本物 体の反射特性に基づいて、最終的投影用輝度画像を演算する演算手段と、を備え ること力 sできる。
発明の効果
[0011] 本発明に係る質感再現システムによれば、反射表示機能を有しかつ 1000 : 1以上 の表示ダイナミックレンジを有した投影表示手段を用いて、見本物体の質感を該見 本物体とは反射特性の異なる模擬物体上にリアルに再現することが可能である。した がって、例えば、発注先から製造工場に製品の製造を依頼する場合、製品見本物体 を製造工場に送る必要がなくなるという利点が得られる。
図面の簡単な説明
[0012] [図 1]本発明に係る質感再現システムの実施形態を概念的に示す斜視図である。
[図 2]質感再現のための手順を示すフローチャートである。
[図 3]見本物体と模擬物体の質感を比較している状態を示す斜視図である。
[図 4]見本物体の視点位置での輝度画像を得るための手法を示す模式図である。
[図 5]模擬物体の視点位置での輝度画像を得るための手法を示す模式図である。
[図 6]視点位置での差分画像に対応する投影装置での投影輝度画像を得るための 手法を示す模式図である。
[図 7]物体の反射特性図である。
[図 8]上記反射特性図の断面である。
[図 9]見本物体の一つの点における反射特性図である。
[図 10]模擬物体の一つの点における反射特性図である。
[図 11]図 9に示す反射特性を点線で、図 10に示す反射特性を実線で示した反射特 十生図である。 [図 12]視点位置での見本物体 7の輝度画像を点線で、最終的模擬物体輝度画像を 実線で示した反射特性図である。
[図 13]視点位置における変更前の見本物体の輝度画像を細実線で、最終的投影輝 度画像を投影装置から投影した場合の視点位置における見本物体の輝度画像を太 実線で示した反射特性図である。
[図 14]見本物体 7の投影輝度を制御して模擬物体の見えを良くする手法を示すフロ 一チャートである。
発明を実施するための最良の形態
[0013] 図 1は、本発明に係る質感表示システムの実施形態を示す概略図である。この図 1 において、ネットワーク 1を介して接続された各処理コンピュータ 3のデータベース 5に は、見本物体および模擬物体の反射特性が格納されている。上記見本物体は、例え ばクロムめつき等の表面処理を施した完成品であり、模擬物体はこの表面処理を施 す前の未完成品である。図 3には、この見本物体および模擬物体の一例として、半円 筒状の見本物体 7および該見本物体 7と同一形状の模擬物体 9が示されている。
[0014] なお、全く同じ質感の製品を大量生産するような製造工場では、見本物体 7と模擬 物体 9の形状が同一でないと模擬物体 9の質感の再現判断が困難になる虞がある。 しかし、例えば、ガラス表面の研磨具合や、同じ材質への塗装具合による質感を再現 すること力 S目的である場合には、必ずしも見本物体 7と模擬物体 9の形状の同一性は 要求されない。
[0015] 見本物体 7の反射特性は、所定の放射輝度を有する光源(図示せず)の位置と、そ の反射光を観察する観察者の視点の位置とをパラメータとして予め計測される。模擬 物体 9の反射特性も同様である。なお、この反射特性の計測手法は周知であるので、 ここではその説明を省略する。
[0016] 以下、図 2を参照してこの実施形態において実行される質感表示手順の一例を説 明する。 模擬物体 9が設置された場所の処理コンピュータ 3では、上記光源の位置 、観察者の視点、および物体形状(見本物体 7の形状 =模擬物体 9の形状)がキーボ ードの操作等で指定される (ステップ 101)。コンピュータ 3は、この指定された光源の 位置、観察者の視点および物体形状に基づいて、これらに対応する見本物体 7の反 射特性をデータベース 5から取り込み (ステップ 103)、その反射特性に基づいて上 記観察者の視点における見本物体 7の輝度画像を演算する (ステップ 105)。
[0017] また、この処理コンピュータ 3は、指定された上記光源の位置、観察者の視点およ び物体形状に基づいて、これらに対応する模擬物体 9の反射特性をデータベース 5 力 取り込み (ステップ 107)、その反射特性に基づいて、上記観察者の視点におけ る模擬物体 9の輝度画像を演算し (ステップ 109)、上記見本物体 7の輝度画像とこの 模擬物体 9の輝度画像の差分を演算する (ステップ 111)。
[0018] 次に、処理コンピュータ 3は、上記差分演算によって得た差分輝度画像の逆光線追 跡を実行する (ステップ 113)。
図 4〜図 6は、上記逆光線追跡を説明する模式図である。なお、これらの図では、 説明を容易にするため、見本物体 7および模擬物体 9を球体として示している。
図 4に示すように、投影装置 11内の変調器 (液晶やミラーデバイス等)で生成された 所定放射輝度の光をレンズ 11aを介して見本物体 7に照明した場合、所定の視点位 置 (網膜上)には水晶体からなるレンズを介して反射光が結像することになる。この図 4 の右方部には、このときに観察者によって認識される輝度画像が示されている。この 輝度画像は、前記ステップ 105で演算される見本物体の輝度画像に対応している。
[0019] 次に、図 5に示すように、模擬物体を図 4の場合と同じ条件下で照明した場合、上 記視点位置での模擬物体 9の輝度画像は、この図 5の右方部に示すようになる。この 輝度画像は、前記ステップ 109で演算される模擬物体の輝度画像に対応する。
[0020] 図 6の右方部に示す輝度画像は、図 4に示した視点位置での見本物体 7の輝度画 像と図 5に示した該視点位置での模擬物体 9の輝度画像との差をとることによって得 られる差分輝度画像である。この差分輝度画像は、前記ステップ 111で演算される差 分輝度画像に対応している。
差分輝度画像は、見本物体 7の輝度を基準とする模擬物体 9の輝度不足分を意味 してレ、る。したがって、この差分輝度画像に基づいて、上記輝度不足分が補われるよ うな輝度画像を投影装置 11から模擬物体 9に投影すれば、該模擬物体 9の見えが 見本物体 7のそれと一致することになる。
[0021] 図 6に示す視点位置での差分輝度画像が得られれば、この差分輝度画像に対応 する投影装置 11での投影輝度画像は、視点位置、物体の位置および投影装置 11 の位置の関係に基づいて上記差分輝度画像を上記視点位置から投影装置 11まで 追跡することによって得ること力 Sできる。なお、逆光線追跡手法は周知であるので、こ こではその具体的な説明を省略する。
上記ステップ 113では、上記逆光線追跡手法によって、ステップ 111で得られた視 点位置での差分輝度画像が投影装置 11で現在投影されている所定放射輝度に対 する差分輝度画像として換算される。
[0022] ステップ 115では、上記投影装置 11での差分輝度画像に基づいて、上記視点位 置での差分輝度画像分、つまり、視点位置から見た模擬物体 9の輝度不足分が補わ れるような投影輝度画像を生成し、次のステップ 117でこの投影輝度画像を投影装 置 11から出力させる。
[0023] この結果、この実施形態によれば、視点位置から見た模擬物体 9の輝度不足分が 補われて、模擬物体 9の見え (この例では、特に光沢)が見本物体 7のそれと一致する ことになる。
[0024] 模擬物体 9の見えは、図 3に示すように、見本物体 7と模擬物体 9を隣接配置するこ とによって評価することができる。この場合、見本物体 7に対して投影装置 11から所 定輝度の照明光が投射され、模擬物体 9に対して投影装置 1 1から上記ステップ 115 で得た投影輝度画像が出力される。このような評価を行った結果、模擬物体 9の見え が見本物体 7の見えにきわめて近似していることが確認された。
[0025] この実施形態に係る質感再現システムでは、ネットワーク 1を介して接続された各処 理コンピュータ 3のいずれにおいても上記の手順を実行させることが可能である。した がって、この質感再現システムによれば、遠隔地においても模擬物体 9をあた力、も見 本物体 7の質感を有する物体として見ることが可能である。これにより、例えば、発注 先から製造工場に製品の製造を依頼する場合、製品見本物体を製造工場に送る必 要がなくなる。
また、上記実施形態によれば、図 1に示した点線枠内に製造品を配置して、この製 造品と見本物体 7の質感が再現された模擬物体 9とを比較して、上記製造品の仕上 力 Sり具合を評価することができる。 [0026] ところで、投影装置 11は、限界放射輝度を有するので、上記ステップ 115で生成さ れる投影輝度画像の最大輝度が限界放射輝度を越えている場合には、上記視点位 置から見た模擬物体 9の輝度不足分を完全に補うことができないことになる。このよう な場合、模擬物体 9の輝度不足分を補う代わりに、見本物体 7の投影輝度を制御して 模擬物体 9の見えを良くする以下のような対処法を適用することができる。
[0027] 図 7は、図 4に示す見本物体 7や図 5に示す模擬物体 9の前記視点位置における反 射特性を例示したものである。この図 7において、反射輝度 loutは、以下のように表さ れる。
Iout = BRDF-Iin
ここで、 Iinは投影輝度、 BRDFは双方向反射関数(見本物体 7と模擬物体 9の位置 x, y、光入射角 Θ in、光出射角 Θ out,入射光の方位角 φ in、出射光の方位角 φ out および光の波長 λの関数)である。
[0028] したがって、物体 8もしくは 9の反射特性の A—A'断面は、図 8のように表される。以 下、理解を容易にするためこの A—A'断面を用いて説明する。
図 9および図 10は、それぞれ図 4に示した見本物体 7および図 5に示した模擬物体 9の一つの点における反射特性 (視点位置から見た反射特性)を例示したものである 。また、図 11は、図 9に示す反射特性を点線で、図 10に示す反射特性を実線で示し たものである。
[0029] 図 11に示す各反射特性の差は、視点位置から見た上記一つの点における見本物 体 7と模擬物体 9の輝度画像の差分である。図 2のステップ 111における差分演算で は、上記物体面法線べクトノレを中心とする全ての点についてのこの差分輝度画像が 演算されるので、図 2のステップ 115で生成される投影輝度画像は全ての点につい ての投影輝度画像である。
[0030] 図 14に示すステップ 201においては、図 2のステップ 115で生成された投影輝度 画像における最大輝度値(cd/m2)が検索される。そして、次のステップ 203では、 上記投影輝度画像と、投影装置 11の限界放射輝度と、上記検索された最大輝度値 とに基づいて以下の演算を実行して、上記限界放射輝度を上限輝度とする模擬物 体 9に対する修正投影輝度画像を決定する。 修正投影輝度画像 =投影輝度画像 X (限界放射輝度/最大輝度値) [0031] ステップ 205では、上記修正投影輝度画像を模擬物体 9に投影した場合の該模擬 物体 9の視点位置での輝度画像を最終的模擬物体輝度画像として求める。図 12に おいて、点線を視点位置での見本物体 7の輝度画像、実線を上記最終的模擬物体 輝度画像とすると、この最終的模擬物体輝度画像は下記の演算に基づいて求めら れる。
最終的模擬物体輝度画像 =
視点位置での摸擬物体の BRDF X修正投影輝度画像
そこで、次のステップ 207では、上記最終的模擬物体輝度画像と一致する、見本物 体 7に対する最終的投影輝度画像を下記の演算に基づいて決定する。
最終的投影輝度画像 =
最終的模擬物体輝度画像/視点位置での見本物体の BRDF
[0032] 図 13において、細実線は視点位置における変更前の見本物体の輝度画像を示し 、太実線は上記最終的投影輝度画像を投影装置から投影した場合の視点位置にお ける見本物体の輝度画像 (変更された輝度画像)を示してレ、る。上記太線の輝度画 像は、図 12に実線で示す上記最終的模擬物体輝度画像に一致することになる。
[0033] 上記ステップ 201〜207の手順は、必要に応じて図 2のステップ 115とステップ 117 の間に挿入して、前記処理コンピュータ 3に実行させることができる。このステップ 20 1〜207の手順を実行すれば、投影装置 11の能力を最大限に活用して、見本物体 の輝度画像に近似する模擬物体輝度画像を再現することができる。
[0034] 上記ステップ 201〜207の手法は、投影装置 11における限界放射輝度を考慮して 、模擬物体 9と見本物体 7に対する投影輝度画像を調整するものであるから、結果と して、模擬物体 9および Zまたは見本物体 7に対する投影輝度が低下する場合もあり 得る。し力 ながら、両物体 7、 9の持つ質感やコントラストが保存され、しかも、絶対 的な輝度ではなくて相対的な輝度で質感を感じるという視覚特性を人間が有すること から、実用上十分な質感再現性が得られる。
[0035] なお、光源、物体 7と 9および視点の位置が変化されることも想定される力 S、図 7の 反射特性から明らかなように、前記データベース 5はそれらの変化に対応する反射特 性を提供することができる。

Claims

請求の範囲
[1] 見本物体の質感を、該見本物体とは反射特性の異なる模擬物体上に再現する質 感再現システムであって、
前記見本物体の反射特性に基づいて、所定の観察位置における前記見本物体の 輝度画像を演算する第 1の演算手段と、
前記模擬物体の反射特性に基づいて、前記所定の観察位置における前記模擬物 体の輝度画像を演算する第 2の演算手段と、
前記見本物体の輝度画像と前記模擬物体の輝度画像との差分を演算する第 3の 演算手段と、
前記差分に基づいて、この差分がなくなるような投影用輝度画像を演算する第 4の 演算手段と、
前記模擬物体に前記投影輝度画像を投影する投影表示手段と、
を備えることを特徴とする質感再現システム。
[2] 前記投影輝度画像は、前記差分を逆光線追跡することによって得ることを特徴とす る請求項 1に記載の質感再現システム。
[3] 前記見本物体の反射特性は、該見本物体の位置、該見本物体における光の入射 角、出射角、入射方位角、出射方位角および波長の関数として設定されることを特徴 とする請求項 1に記載の質感再現システム。
[4] 前記第 4の演算手段は、
前記投影輝度画像の最大輝度値を検索する手段と、
前記投影輝度画像、前記最大輝度値、および前記投影表示手段の限界放射輝度 に基づいて、該限界放射輝度を上限輝度とする前記模擬物体に対する修正投影輝 度画像を演算する演算手段と、
前記観察位置における前記模擬物体の反射特性および前記修正投影輝度画像 に基づレ、て、最終的模擬物体輝度画像を演算する演算手段と、
前記最終的模擬物体輝度画像および前記観察位置における前記見本物体の反 射特性に基づレ、て、最終的投影輝度画像を演算する演算手段と、
を備えることを特徴とする請求項 1に記載の質感再現システム。 見本物体の質感を、該見本物体とは反射特性の異なる模擬物体上に再現する質 感再現システムであって、
前記見本物体および模擬物体の反射特性を保存するデータベースと、 前記見本物体の反射特性に基づいて該見本物体の輝度画像を演算し、前記模擬 物体の反射特性に基づいて該模擬物体の輝度画像を演算する手段と、
前記見本物体および模擬物体の輝度画像に基づいて、前記見本物体の質感を模 擬物体上に再現するための投影用輝度画像を演算する手段と、
前記模擬物体に前記投影輝度画像を投影する投影手段と、
を備えることを特徴とする質感再現システム。
PCT/JP2005/020588 2004-11-15 2005-11-10 質感再現システム WO2006051841A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-331171 2004-11-15
JP2004331171A JP2006139726A (ja) 2004-11-15 2004-11-15 質感再現システム

Publications (1)

Publication Number Publication Date
WO2006051841A1 true WO2006051841A1 (ja) 2006-05-18

Family

ID=36336518

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/020588 WO2006051841A1 (ja) 2004-11-15 2005-11-10 質感再現システム

Country Status (2)

Country Link
JP (1) JP2006139726A (ja)
WO (1) WO2006051841A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009003166A (ja) * 2007-06-21 2009-01-08 Hitachi Ltd 質感映像表示装置
WO2019130726A1 (ja) * 2017-12-27 2019-07-04 富士フイルム株式会社 質感再現装置、質感再現方法、プログラムおよび記録媒体
WO2019130716A1 (ja) * 2017-12-27 2019-07-04 富士フイルム株式会社 質感再現装置、質感再現方法、プログラムおよび記録媒体

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100883311B1 (ko) * 2007-05-25 2009-02-11 한국과학기술연구원 입력 장치의 개발을 위한 시스템
US8982125B1 (en) * 2014-05-15 2015-03-17 Chaos Software Ltd. Shading CG representations of materials

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216970A (ja) * 2002-01-23 2003-07-31 Canon Inc 三次元画像処理装置、三次元画像処理システム、三次元画像処理方法および三次元画像処理プログラム
JP2003281565A (ja) * 2002-03-20 2003-10-03 Japan Science & Technology Corp 表示デバイスの特性に依存しない光沢感再現方法
JP2003331318A (ja) * 2002-05-14 2003-11-21 Fujitsu Ltd 物体データ生成装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216970A (ja) * 2002-01-23 2003-07-31 Canon Inc 三次元画像処理装置、三次元画像処理システム、三次元画像処理方法および三次元画像処理プログラム
JP2003281565A (ja) * 2002-03-20 2003-10-03 Japan Science & Technology Corp 表示デバイスの特性に依存しない光沢感再現方法
JP2003331318A (ja) * 2002-05-14 2003-11-21 Fujitsu Ltd 物体データ生成装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009003166A (ja) * 2007-06-21 2009-01-08 Hitachi Ltd 質感映像表示装置
WO2019130726A1 (ja) * 2017-12-27 2019-07-04 富士フイルム株式会社 質感再現装置、質感再現方法、プログラムおよび記録媒体
WO2019130716A1 (ja) * 2017-12-27 2019-07-04 富士フイルム株式会社 質感再現装置、質感再現方法、プログラムおよび記録媒体
JPWO2019130726A1 (ja) * 2017-12-27 2020-10-22 富士フイルム株式会社 質感再現装置、質感再現方法、プログラムおよび記録媒体
JPWO2019130716A1 (ja) * 2017-12-27 2020-10-22 富士フイルム株式会社 質感再現装置、質感再現方法、プログラムおよび記録媒体

Also Published As

Publication number Publication date
JP2006139726A (ja) 2006-06-01

Similar Documents

Publication Publication Date Title
US11470303B1 (en) Two dimensional to three dimensional moving image converter
Kim et al. Immersive spatial audio reproduction for vr/ar using room acoustic modelling from 360 images
Aldrian et al. Inverse rendering of faces with a 3D morphable model
US12014467B2 (en) Generating augmented reality prerenderings using template images
Alexiou et al. On the performance of metrics to predict quality in point cloud representations
WO2015166684A1 (ja) 画像処理装置と画像処理方法
Meilland et al. 3d high dynamic range dense visual slam and its application to real-time object re-lighting
WO2006051841A1 (ja) 質感再現システム
CN114925748B (zh) 模型训练及模态信息的预测方法、相关装置、设备、介质
Chalmers et al. Reconstructing reflection maps using a stacked-CNN for mixed reality rendering
Kneiphof et al. Real‐time Image‐based Lighting of Microfacet BRDFs with Varying Iridescence
US11734888B2 (en) Real-time 3D facial animation from binocular video
Zhi et al. Towards fast and convenient end-to-end HRTF personalization
Kim et al. Generating 3D texture models of vessel pipes using 2D texture transferred by object recognition
Haleem et al. Holography and its applications for industry 4.0: An overview
Marques et al. Spatially and color consistent environment lighting estimation using deep neural networks for mixed reality
CN102301399A (zh) 图像生成系统、图像生成方法、计算机程序及其记录介质
McGuigan et al. Automating RTI: Automatic light direction detection and correcting non-uniform lighting for more accurate surface normals
JP7279352B2 (ja) 質感調整支援システム、及び質感調整支援方法
Nader et al. Visual contrast sensitivity and discrimination for 3D meshes and their applications
Rohe An Optical Test Simulator Based on the Open-Source Blender Software.
Xu et al. Object-based illumination transferring and rendering for applications of mixed reality
Tsuchida et al. Development of BRDF and BTF measurement and computer-aided design systems based on multispectral imaging
Gigilashvili et al. Appearance manipulation in spatial augmented reality using image differences
Huraibat et al. Accurate physics-based digital reproduction of effect coatings

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05806002

Country of ref document: EP

Kind code of ref document: A1