JP6357513B2 - 視覚化デバイス - Google Patents

視覚化デバイス Download PDF

Info

Publication number
JP6357513B2
JP6357513B2 JP2016181643A JP2016181643A JP6357513B2 JP 6357513 B2 JP6357513 B2 JP 6357513B2 JP 2016181643 A JP2016181643 A JP 2016181643A JP 2016181643 A JP2016181643 A JP 2016181643A JP 6357513 B2 JP6357513 B2 JP 6357513B2
Authority
JP
Japan
Prior art keywords
virtual
light box
actual
computer
observer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016181643A
Other languages
English (en)
Other versions
JP2017097849A (ja
Inventor
ラミー フランシス
ラミー フランシス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
X Rite Switzerland GmbH
Original Assignee
X Rite Switzerland GmbH
X Rite Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by X Rite Switzerland GmbH, X Rite Europe GmbH filed Critical X Rite Switzerland GmbH
Publication of JP2017097849A publication Critical patent/JP2017097849A/ja
Application granted granted Critical
Publication of JP6357513B2 publication Critical patent/JP6357513B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Description

本願発明は、独立項である請求項1の前文に記載される視覚化デバイスに関する。
最も広義に、本願発明は、コンピュータグラフィック技術のアシストのもとで、スクリーン上において、物体または材料を視覚化する分野に属する。そこでは、実際の材料または実際の物体の表面のデジタル表現が任意の形式の仮想物体に適用され、そうしてシミュレートされた仮想物体の外観がユーザの選択した照明条件、および、観測方向でスクリーン上に表示される。
材料の外観は、物理的材料の視覚的印象、例えば、色彩および構造並びに異なる照明および観測条件のもとでの材料の性質によって与えられる、材料の表面を意味するものと理解される。材料特性は、例えば半透明を含む。外観データは、材料の外観のデジタル表現である。レンダリングは、材料の外観を記述するデータ、すなわち、外観データを、コンピュータグラフィック的に、仮想材料または物体の表面に適用し、かつ、仮想材料または物体を表示することを意味する。用語“外観”、“外観データ”“レンダリング”は、専門家によって確立されている。したがって、本願の説明においてもその意味で使用する。
製品デザインなどクリエイティブな応用において、外観データの包括的なデータベースが要求される。外観データおよび/またはデータセットの周知の例は、いわゆる双方向テクスチャ関数(BTF)および空間的に変化する双方向反射率分布関数(SVBRDF)を含む。例えば、実際の材料および/または実際の物体のBTFまたはSVBRDFのような外観データセットを得るために、問題の物体の代表的な表面領域は、典型的に多くのデジタルカラーカメラおよび、測定すべき材料の上および/または下の半球にわたって分布して配置された数百個の点光源を有する複雑な照明システムを含む複雑な照明システムを使って、多数の照明方向および観測方向に対して、画素単位で比色分析によって計測される。
実際の材料の有用な外観データは、入力データとして外観データを使用するデジタルレンダリング技術によって、任意の所望の照明上面および任意の所望の観測方向で、任意の形状の仮想物体に対してレンダリングされるように視覚化するため、すなわち、スクリーン上に材料を表示するために使用される。それは、このレンダリング技術が、任意の所与の照明方向および任意の所与の観測方向に対して、実際の材料の各画素用の外観データから色値(色反射率値)を減算することを単に言っているにすぎない。そこでは、中間値は、外観データ内に含まれる値どうしの間を補間することによって計算される。
上述した視覚化技術のすべての特定の応用において、すべての照明および観測条件のもとで、実際の材料および/または物体の外観と、実際の材料の外観がレンダリングされた仮想物体との間に、可能なかぎりの一致が要求される。使用されるレンダリング技術それ自身が十分にパワフルなものであると仮定すると、視覚化品質は、基本的な外観データの品質に主に依存する。また、いくつかの実際の材料の中には、シミュレートして視覚化するのに適当ではないものがある。究極的には、視覚化の品質は、実際の材料および/または物体を仮想物体と視覚的に比較することによって評価するしかないが、この視覚的な比較は、制御された照明および観測条件の下で実行するのは不可能である。
こうした背景に鑑みて、本願発明の目的は、直接的な視覚的評価および実際の物体を実際の物体のデジタル外観データのコンピュータベースのレンダリングによってスクリーン上に表示される仮想物体と比較することを可能とすることである。視覚化デバイスは、特に、制御された照明および観測条件の下での評価および/または比較を可能にすることを意図している。
本願発明のこの目的は、本願発明に従う視覚化デバイスによって解決され、それは請求項1の特徴によって特徴づけされる。本願発明に従う視覚化デバイスの有利な実施形態および変形例は、従属項の主題である。
本願発明の態様に従う視覚化デバイスは、照明アレイおよび観測者に対して後方の壁である制限壁を含む実際のライトボックスを有する。実際のライトボックスの背面制限壁は、スクリーンとして実施され、当該デバイスは、スクリーン上に仮想ライトボックスを表示するように実行されるコンピュータを有する。スクリーン上に表示される仮想ライトボックスは、実際のライトボックスの連続する後方延長部を形成するように見え、観測者は、それがひとつの連続するライトボックスであるという印象をもつ。また、コンピュータは、スクリーン上に少なくともひとつの物体を表示するように実行され、仮想物体は、仮想ライトボックス内に配置されているように見える。
本願発明に従う、実際のライトボックスと、実際のライトボックスの仮想的な延長を形成する仮想ライトボックスとの組みあわせにより、観測者は、仮想物体に対してレンダリングされたデジタル外観データを、極端な実際の条件のもとで、実際の物体と直接的に比較することによって、評価することができる。本願発明にしたがって集積された解により、良く定義されかつ標準化された観測環境によって、形状および光の影響に対して完全な制御を維持したまま、材料は制限されることなく評価可能である。
ひとつの有利な実施形態に従う実際のライトボックスは、実際の底面制限壁、実際の側面制限壁、および、実際の底面制限壁と、2つの実際の側面制限壁の各々との間にあってコンスタントまたはファセット形式で湾曲した実際の遷移領域を有する。さらに、仮想ライトボックス仮想底面制限壁および仮想側面制限壁および、仮想底面制限壁と2つの仮想側面制限壁との間に配置されるコンスタントまたはファセット形式で湾曲した仮想遷移領域を有する。さらに、実際の遷移領域および仮想遷移領域は、観測者にとって、互いにシームレスに遷移するように見える。そこでは、実際の遷移領域が、後方に有利に延長し、かつ、仮想遷移領域もまた対応して後方に向かって延長する。
仮想ライトボックスは、有利に、仮想背面制限壁および、仮想底面制限壁と仮想底面制限壁との間の仮想遷移領域を有する。この仮想遷移領域は、コンスタントまたはファセット形式で湾曲するように実施される。
仮想ライトボックスは、仮想背面制限壁と仮想側面制限壁との間の仮想遷移領域を有する。これらの仮想遷移領域は、コンスタントまたはファセット形式で湾曲するように実施される。
仮想背面制限壁、仮想側面制限壁、および仮想底面制限壁の間の仮想遷移領域は、有利にクロソイド曲線として形成される。
湾曲(コンスタントまたはファセット形式で)した遷移領域のために、視覚化ライトボックスのディスプレイ内の知覚可能な視差エラーが減少するかまたは無くなる。
視覚化デバイスは、有利に、観測者の眼の位置を検出するための第1センサーアレイを有する。第1センサーアレイおよびコンピュータは、サポートベース領域の上方の観測者の眼の高さを決定するように有利に実行される。当該デバイスは、サポートベース領域の上方の実際のライトボックスの高さを調節するために、コンピュータによって制御される手段を有する。そこでは、コンピュータは、サポートベース領域の上方の決定された観測者の眼の高さに基づいて、サポートベース領域の上方の実際のライトボックスの高さを設定するように実行される。これにより、それらの物理的な高さに無関係に、観測者は常に最適な視野条件を有する。
他の有利な実施形態に従い、第1センサーアレイおよびコンピュータは、実際のライトボックスに関する観測者の眼の位置を決定するように実行される。コンピュータは、観測者の眼の決定された位置に基づいて、仮想ライトボックスの立体表示を適応するよう実行され、仮想ライトボックスは、観測者にとって、観測者の任意の位置において、実際のライトボックスが連続して表示されているように見える。
コンピュータは、供給される実際の材料または物体の外観データをレンダリングし、仮想物体にレンダリングするように有利に実行される。
コンピュータは、観測者の眼の決定された位置に基づいて、仮想物体の立体表示を適応するように有利に実行される。したがって観測者は常に同じ視線から実際の物体および仮想物体を見ることになる。
本願発明に従う視覚化デバイスの他の有利な実施形態に従い、視線の異なる角度に基づいて複数のモニタープロファイルがコンピュータ内に格納される。実際のライトボックスに関する観測者の眼の決定した位置に従って、仮想ライトボックスおよび仮想物体をレンダリングするとき、コンピュータは格納されたモニタープロファイルからモニタープロファイルを選択または計算し、それを適用するように実行される。視線の角度に依存するモニタープロファイルを使うことで、ディスプレイの品質はさらに強化される。
有利な他の実施形態に従い、視覚化デバイスは、実際のライトボックス内に配置されたひとつ以上の実際の物体の空間的な方向を検出するための第2のセンサーアレイを有する。コンピュータは、実際の物体の検出された空間的な方向に対して、対応する仮想物体の空間的方向を適応するように実行される。
有利なことに、実際のライトボックス内の照明条件は、調節変更可能である。コンピュータは、実際のライトボックスの照明条件を仮想ライトボックスに複製し、仮想物体のレンダリングを対応して適応するように実行される。したがって、観測者は常に、同じ照明条件のもとで、実際の物体および仮想の物体を見ることができる。
有利な他の実施形態に従い、スクリーンは、2500〜5000cd/mの範囲の高い光度を示すスクリーンである。有利な他の実施形態に従い、スクリーンは、オートステレオスコピックスクリーンである。
有利な他の実施形態に従い、視覚化デバイスは、環境光を検出するための第3のセンサーアレイを有する。コンピュータは、検出された環境光に基づいて、仮想物体のレンダリングを適応するように実行される。これにより、環境光と無関係に、実際の物体と仮想物体とを客観的に比較することが可能になる。
有利な他の実施形態に従い、視覚化デバイスは、実際のライトボックスの照明を検出するための第4のセンサーアレイを有する。コンピュータは、検出された照明光に基づいて、仮想の物体のレンダリングを適応するように実行される。
例示的な視覚化デバイスは、照明アレイおよび/またはその光源の変化、特に、寿命による変化を補償するために、第4センサーアレイと協働する補償手段を有する。これは、視覚化デバイスの長期間の安定動作を与えおよび/または改善する。
本願発明に従う視覚化デバイスの変形例において、照明アレイは、コンピュータによって制御されるスクリーンによって形成される。これにより、照明光がそれぞれの要求に応じて、広範囲にかつ単純な方法で適応可能となる。
他の変形例において、実際のライトボックスの側面制限壁は、底面制限壁にも応用可能であるが、コンピュータによって制御されるスクリーンとして実行される。これにより、一方では実際の物体が照射され、他方では仮想の物体が完全な半球環境内で表示可能となる。ここで、角張った印象を回避するために、光伝導体材料が好適に2つの隣接するスクリーンのそれぞれの間に配置される。付加的または代替的に、スクリーンは、その側面に湾曲した遷移領域を有する。
本願発明は、図面を参照して以下で詳細に説明される。
図1は、本願発明に従う視覚化デバイスの実施形態の基本的構成を略示した全体図である。 図2は、図1の視覚化デバイスの詳細な図である。 図3は、図1の視覚化デバイスのコンピュータベースの制御ブロック図である。 図4は、図1の視覚化デバイスの詳細図である。 図5は、図4の線V−Vで取った断面の詳細図である。 図6は、図4の線VI−VIで取った断面の詳細図である。 図7は、図4の線VII−VIIで取った断面の詳細図である。 図8は、どのように立体表示が適応されるかを説明するブロック図である。 図9は、本願発明に従う視覚化デバイスの第2の実施形態の略示図である。
独立の参照番号が図面に付されていない場合には、他の図面および発明の詳細な説明の対応する部材を参照することとする。
図1に示すように、本願発明に従う視覚化デバイスは、実際の動作中、サポートベース領域に配置されて、デバイスのすべてのコンポーネントを収容する載置フレーム1を有する。観察者Bに対向する正面に向かって開放された実際のライトボックス100は、載置フレーム1の頂上部分に配置される。実際のライトボックス100は、スクリーン140によってその背面側が閉止されている。仮想ライトボックス200はスクリーン上に表示される。実際の物体Oは、実際のライトボックス100内に配置され、仮想物体Oはスクリーン上、すなわち、仮想ライトボックス200内に表示される。観察者Bは物体OおよびOの両方を同時に見ることができ、かつ、視覚的に比較することができる。
図2および4は、視覚化デバイスをより詳細に示す図である。正面の方向に開放された実際のライトボックス100は、底面制限壁110、2つの側面制限壁120、130およびスクリーン140によって形成された背面制限壁を有する(図4)。照明アレイ150は、ライトボックス100の頂部側に配置されており、光度および色温度および/またはスペクトル範囲が異なり、拡散光および/または点光を生成する多くの光源151、152、当該照明アレイ用のコントローラ153および/またはその光源を有する。照明アレイ150は代替的に、コンピュータ制御されたスクリーンによって形成されてもよい。
実際のライトボックス100は、この種の周知のライトボックスと本質的に同じ方法で実施される。したがって、これ以上の説明を省略する。照明アレイ150は、選択可能でかつ特に標準化された照明条件のもとで、例えば、所望かつ特定の標準化された品質の拡散光および/または点光によって、ライトボックス内に配置された実際の物体を照射する。
コンピュータ300は、実際のライトボックス100に対して横方向に隣接して配置され、視覚化デバイスのすべてのコンポーネントおよび/または機能を制御する。コンピュータ300用のユーザインターフェース160が配置されたプルアウト引き出しが、実際のライトボックス100の下方に配置されている。コンピュータ300にはデータインターフェース170(図3参照)も取り付けられる。それを通じて、データ、特に、外観データが外部から供給される。コンピュータ300は、その最も必須のエレメントとして、仮想ライトボックス200を表示し、かつ、外観データを仮想物体に適応して仮想物体をスクリーン140上に表示するためのレンダリングエンジン350(図3参照)を含む。
実際の物体をその上で支持するための、モータ駆動されかつコンピュータ300によって制御されるターンおよび/またはチルトテーブル180が、実際のライトボックス100の底面制限壁110に配置されている。
図2に従い、視覚化デバイスはまた、コンピュータ300と協働するさまざまなセンサーアレイを有する。それは以下で詳細に説明される。
第1のセンサーアレイは、2つのセンサーのグループ311および312を有し、コンピュータとともに、ボディおよびヘッド/フェース認識システムを形成する。第1のセンサーアレイ311、312およびコンピュータ300は、観察者の眼の位置を決定するように実行される。眼の位置とは、一方でサポートベース領域の上方の観察者の眼の高さを意味すると理解され、他方で実際のライトボックス100に関する観察者の眼の位置を意味すると理解される。2つのセンサーアレイは周知の方法で、例えば、ひとつ以上のカメラおよび赤外線センサーを具備する。
載置フレーム1は、油圧または電気モータによって出たり引っ込んだりするレッグ11を具備し、それを使って、サポートベース領域S上の実際のライトボックス100の高さが、抽象的に示されかつコンピュータ300によって制御される駆動手段190によって、検出されおよび/または計算された観察者の眼の高さに依存して、自動的に最適値に設定可能である。ここで、最適値または高さは、観察者がライトボックスに対して邪魔されない視界を有するが、照明アレイ150の光源を直接見ることはできないところの高さを意味すると理解すべきである。
実際のライトボックス100に対する観察者の眼の位置は、観察者がそこから実際のライトボックス100内を見ている空間的(立体)方向を与える。コンピュータ300は、実際のライトボックス100に対する観察者の眼の検出された位置に基づいて、仮想ライトボックス200およびその内部に表示される仮想物体Oの立体表示を適応するように実行され、観察者は実際の物体Oと同じ視線から仮想ライトボックス200およびその内部に表示される仮想物体Oを見ることができる。
第2のセンサーアレイは、この例では4つのカメラ321、322,323、324の複数のカメラによって構成される。それは、実際のライトボックス100内に配置されている実際の物体Oの空間的方向を検出するように機能する。コンピュータ300は、スクリーン140上に表示される仮想物体Oの空間的方向を、実際の物体Oの検出された空間的方向に適用するように実行される。
第3のセンサーアレイ331は、環境光を検出するためのセンサーを有する。このセンサーは、環境光測定機能を示すカラー測定デバイスとして実施されてよい。センサー331およびコンピュータ300によって、検出された環境光に基づいて、仮想ライトボックス200内の仮想物体Oのレンダリングを適用することが可能となる。
第4のセンサーアレイ341は、照明アレイ150によって生成される光をモニターし、照明の長期の安定性を保証するために、コントローラ153と協働して、照明アレイ150内の変化、例えば、寿命による変化を補償する。第4のセンサーアレイ341はセンサー331と類似または同一の方法で実施されてよい。付加的に、コンピュータ300は、仮想物体Oをレンダリングする際に、第4のセンサーアレイ341によって検出された照明光、および/または、その光の変化を考慮するべく実行される。
図3は、上述した視覚化デバイスのコンポーネントがどのようにコンピュータ300と相関するかを示すブロック図である。
本願発明に従う視覚化デバイスの最も重要な特徴は、仮想ライトボックス200が、観察者にとって、実際のライトボックス100の後方に延伸するように見える、すなわち、観察者はひとつのライトボックス(さらに後方に延伸する)の正面に立っている印象をもつように、コンピュータ300によってスクリーン140上に空間的に表示されるということである。仮想ライトボックス200は、ある程度、実際のライトボックス100の仮想的複製であり、コンピュータ300内でデジタル的に格納されている。スクリーン140上での仮想ライトボックス200の空間的表示は、観察者Bの位置(眼の位置)に従って、コンピュータ300によって変更および/または適応可能である。この目的のため、コンピュータ300は、センサーアレイ311〜312によって形成される眼追跡システムと協働して実際のライトボックス100に対する観察者の眼の位置を決定する。この位置は、観察者の視野を画定し、かつ、観察者の眼の位置に従って、仮想ライトボックス200の立体表示を適応するのに使用される。この目的のために、図8のブロック図に示すように、観察者の眼の位置(ボックス401)は、要求される投影を再計算する(ボックス402)のに使用され、その後、仮想ライトボックスの新しい合成画像が計算され(ボックス403)、最後に、この合成画像がスクリーン上に表示される(ボックス404)。仮想物体Oの立体表示が同じ方法で適応されることが理解されよう。
特に図4に示すように、実際のライトボックス100の2つの水平底面の四隅には、エッジが形成されておらず、角が丸められている。この目的のため、実際の底面制限壁110と、2つの側面制限壁120および130の各々との間で、丸められた実際の遷移領域121または131のそれぞれが実施され、必須ではないが、好適には、前方から後方に向かって伸長する。2つの実際の遷移領域の曲率半径は正面において約55mm、例えば、背面においてスクリーン140のすぐ近くで約105mmとして計測される。2つの遷移領域121および131は、ここでは円錐形状で示されている。互いに関して傾斜した並列の平面領域またはファセットによって原理的に形成されてもよい。遷移領域の曲率は、断面において一定ではなく、線形成分を有する。このような遷移領域を実施することは、以下では“ファセット形式”で丸められると呼ぶ。
仮想ライトボックス200は、仮想底面制限壁210、2つの仮想側面制限壁220、230、および、仮想背面制限壁240を有する。実際のライトボックス100と類似して、丸められた(コンスタントまたはファセット形式で)仮想遷移領域221または231は、仮想底面制限壁210と2つの仮想側面制限壁220、230の各々との間にそれぞれ配置される。ここで、仮想遷移領域は好適には、背面方向に同様に延伸し、実際のライトボックス100の実際の遷移領域121および131のそれぞれとシームレスに接触する。上述したように、仮想ライトボックス200の立体表示は、観察者(観察者の眼)の位置によって画定された視野に対して、コンピュータ300によって常に適応される。これにより、観察者は、たったひとつのライトボックスを見ている印象をもつ。
コンスタントまたはファセット形式で丸められた実際の遷移領域121、131、および、仮想遷移領域221、231により、観察者は仮想ライトボックス200の投影内で、視点の逸脱を知覚することはなく、そのことにより連続ライトボックスの幻覚が更に強調される。
ひとつの例において、仮想背面制限壁240と、仮想底面制限壁210、および、仮想ライトボックス200の仮想側面制限壁220、230との間の仮想遷移領域241、242、および243は、図5から7に概略的に示すように、丸められていてもよく、ここでは、3つの遷移領域241、242および243が好適にはクロソイド曲線として形成される。
複数の実際および/または仮想遷移領域、または、個々の実際および/または仮想遷移領域はまた、互いに対して傾斜した並列の平面領域またはファセットによって原理的に形成されてもよい。遷移領域の曲率は、断面内では一定ではなく、線形成分を有する。
コンピュータ300は、任意の種類のスクリーン140の少なくともひとつの仮想物体Oを表示するように実行される。この目的のために、仮想物体の物理的な形状を記述する対応するデータは、コンピュータ内に格納されるか、および/または、外部からコンピュータに供給される。ここで、仮想物体Oは任意の方向で表示されてよい。付加的に、コンピュータ300は、コンピュータ内に格納されるか外部からコンピュータに供給される実際の物体または材料の外観データをレンダリングするべく実行される。ここで、コンピュータ300は、実際のライトボックス100内で得られるのと同じ照明条件の下でレンダリングを実行する。仮想物体Oは、実際のライトボックス100内の実際の物体Oの観察者の視野と一致する投影(立体)として同様に表示される。実際のライトボックス100内の照明条件が変更された場合、それは仮想ライトボックス200内でも自動的に変更され、変更された照明条件は、レンダリングの際に考慮される。ここで、センサー331によって検出された環境光もまた考慮される。
実際のライトボックス100内に配置された実際の物体Oの空間位置および/または方向は、カメラ321〜324、および/または、それによって形成される第2センサーアレイ(コンピュータ300と協働する)によって検出される。付加的に、コンピュータ300は、実際のライトボックス100内の実際の物体Oの方向と同じ方向を有する仮想ライトボックス200内の仮想物体Oを表示するべく、スクリーン140上に表示されている仮想物体Oの空間的方向を、リアルタイムで実際の物体Oの検出した空間的方向へ適応するように実行される。
モニタープロファイルは、最適なスクリーン表示品質を達成するためにしばしば実行される。スクリーンによって表示されるカラーおよび/または輝度は、多かれ少なかれ視角に依存する。本願発明のひとつの利点に従い、使用中のスクリーン140に対して多くの異なるモニタープロファイルがコンピュータ300内に格納される。ここで、これらのモニタープロファイルは視線の異なる水平角および垂直角に対して、スクリーンをキャリブレーションしながら生成されたものである。コンピュータ300は、観察者(観察者の眼)の位置に応じて、適したモニタープロファイルを選択するべく、および、仮想ライトボックスおよびとりわけ仮想物体をレンダリングするときにこのモニタープロファイルを考慮するべく、実行される。モニタープロファイルが観察者の眼の位置によって与えられる視線の角度に適していなければ、コンピュータ300は、視線の実際の角度に隣接する視線の角度に対する格納されたモニタープロファイルどうしの間を、例えば補間することによって、適当なモニタープロファイルを形成してもよい。
図9は、本願発明に従う視覚化デバイスの他の実施形態の概略図である。
この実施形態において、実際のライトボックス100aの頂面制限壁、底面制限壁および側面制限壁は、コンピュータ300によって制御されたスクリーン150a、110a、120aおよび130aとして実施される。2つの結合されたスクリーンの間での角張った遷移の印象を避けるかまたは少なくとも減少するために、これらの遷移部分に光伝導材Lが配置されている。ひとの変形例において、実際のライトボックスの頂面制限壁および2つの側面制限壁のみがスクリーンによって形成される。
スクリーンは、角張った遷移を避けるために、湾曲しているか、および/またはそのエッジが丸められた遷移領域を有する。
トップスクリーン150aおよび2つの側面スクリーン120aおよび130a、および、底面スクリーン110aにも応用可能であるように、一方で実際の物体を照射し、他方で完全な半球環境またはシーン(前もって記録された)内で仮想物体を表示する。ここで、半球は、互いに対して直角に配置されたスクリーン上に対応して投影され、仮想物体を照射するべく選択された環境を使ってレンダリングが実行される。
リアルタイムで同期しかつ適応される外観レンダリング(照明光、環境光、観察者の位置、実際の物体の方向および位置)は、観察者が実体験するような印象を受けることを保証し、それにより、外観データおよびそれに基づくレンダリングの品質を正確かつ有意義に評価可能となり、実際のライトボックス内の実際の材料または物体が、仮想ライトボックス内の仮想物体と比較可能となる。

Claims (23)

  1. 照明アレイと観察者に対して後方にある背面側制限壁を有する実際のライトボックスを備える視覚化デバイスであって、
    前記実際のライトボックスの前記背面制限壁は、スクリーンとして実現され、前記視覚化デバイスは、前記スクリーン上に仮想ライトボックスを空間的に表示するべく実行されるコンピュータを備え、
    前記仮想ライトボックスは、前記実際のライトボックスの後方に連続的に延伸するように見え、
    前記観察者には、ひとつの連続のライトボックスであるように見え
    想物体が前記仮想ライトボックス内に配置されているように、前記コンピュータは、前記スクリーン上に少なくともひとつの前記仮想物体を表示し、
    前記実際のライトボックスは、実際の底面制限壁、実際の側面制限壁、および、前記実際の底面制限壁と2つの前記実際の側面制限壁の各々との間に構成された、角が丸められて構成されるか、または、ファセット形式で丸められて構成された実際の遷移領域を有し、
    前記仮想ライトボックスは、仮想底面制限壁、仮想側面制限壁、および、前記仮想底面制限壁と2つの前記仮想側面制限壁の各々との間に、角が丸められて構成されるか、または、ファセット形式で丸められて構成された仮想遷移領域を有し、
    前記実際の遷移領域および前記仮想遷移領域は互いにシームレスに遷移するように前記観察者に見える、
    ことを特徴とする視覚化デバイス。
  2. 前記実際の遷移領域および前記仮想遷移領域は背面方向に伸長する、ことを特徴とする請求項に記載のデバイス。
  3. 前記仮想ライトボックスは、仮想背面制限壁および、前記仮想底面制限壁と前記仮想背面制限壁との間の仮想遷移領域を有し、前記仮想遷移領域は角が丸められて構成されるか、または、ファセット形式で丸められて構成される、ことを特徴とする請求項またはに記載のデバイス。
  4. 前記仮想ライトボックスは、前記仮想背面制限壁と前記仮想側面制限壁との間の仮想遷移領域を有し、前記仮想遷移領域は角が丸められて構成されるか、または、ファセット形式で丸められて構成される、ことを特徴とする請求項に記載のデバイス。
  5. 前記仮想遷移領域は、クロソイド曲線として形成される、ことを特徴とする請求項に記載のデバイス。
  6. 前記観察者の眼の位置を検出するための第1のセンサーアレイをさらに備える、ことを特徴とする請求項1に記載のデバイス。
  7. 前記第1のセンサーアレイおよび前記コンピュータは、サポートベース領域の上方での前記観察者の眼の高さを決定するべく構成され、
    前記視覚化デバイスは、前記サポートベース領域の上方での前記実際のライトボックスの高さを調節するための、前記コンピュータによって制御された手段をさらに備え、
    前記コンピュータは、前記サポートベース領域の上方で、前記観察者の眼の決定された高さに基づいて前記サポートベース領域の上方での前記実際のライトボックスの高さを設定するように構成される、ことを特徴とする請求項に記載のデバイス。
  8. 前記第1のセンサーアレイおよび前記コンピュータは前記実際のライトボックスに対する前記観察者の眼の位置を決定するように構成され、
    前記コンピュータは、前記観察者の決定された眼の位置に基づいて、前記仮想ライトボックスの立体表示を行うように構成され、前記観察者にとって、前記仮想ライトボックスが前記観察者の任意の位置で前記実際のライトボックスの連続的な延伸を表示しているように見える、ことを特徴とする請求項に記載のデバイス。
  9. 前記コンピュータは、前記観察者の眼の決定された位置に基づいて前記仮想物体の立体表示を行うように構成されている、ことを特徴とする請求項に記載のデバイス。
  10. 異なる角度の視線に基づく複数のモニタープロファイルが前記コンピュータ内に格納されており、前記コンピュータは、前記実際のライトボックスに関する前記観察者の眼の決定された位置に従い、前記仮想ライトボックスおよび前記仮想物体をレンダリングする際に、前記格納されたモニタープロファイルからモニタープロファイルを選択または計算し、それを適用するよう構成されている、ことを特徴とする請求項に記載のデバイス。
  11. 前記コンピュータは、供給される実際の材料の外観データを前記仮想物体に対してレンダリングするように構成されている、ことを特徴とする請求項1に記載のデバイス。
  12. 前記実際のライトボックス内に配置されたひとつ以上の実際の物体の空間的方向を検出するための第2のセンサーアレイをさらに備え、
    前記コンピュータは、前記実際の物体の検出された前記空間的方向に、前記仮想物体の空間的方向を対応させるように構成されている、ことを特徴とする請求項に記載デバイス。
  13. 前記実際のライトボックス内の照明条件は、調節変更可能であり、
    前記コンピュータは、前記仮想ライトボックスにおいて、前記実際ライトボックスの前記照明条件を複製し、かつ、前記仮想物体のレンダリングを対応して行うよう構成されている、ことを特徴とする請求項1に記載のデバイス。
  14. 前記スクリーンは2500から5000cd/cmの範囲の高い光度を示すスクリーンである、ことを特徴とする請求項1から13のいずれか一項に記載のデバイス。
  15. 前記スクリーンは、オートステレオスコピックスクリーンである、ことを特徴とする請求項1に記載のデバイス。
  16. 環境光を検出するための第3のセンサーアレイをさらに備え、
    前記コンピュータは、検出された前記環境光に基づいて、前記仮想物体のレンダリングを行うように構成されている、ことを特徴とする請求項12に記載のデバイス。
  17. 前記実際のライトボックスの照明光を検出するための第4のセンサーアレイをさらに備え、
    前記コンピュータは、検出された前記照明光に基づいて、前記仮想物体のレンダリングを行うように構成されている、ことを特徴とする請求項16に記載のデバイス。
  18. 前記照明アレイの変化を補償するために、前記第4センサーアレイと協働する手段をさらに備える、ことを特徴とする請求項17に記載のデバイス。
  19. 前記実際のライトボックスは、前記照明アレイの代わりに、前記コンピュータによって制御されるスクリーンとして実現される頂面制限壁を有する、ことを特徴とする請求項1に記載のデバイス。
  20. 前記実際のライトボックスの前記側面制限壁は、前記コンピュータによって制御されるスクリーンとして実現される、ことを特徴とする請求項に記載のデバイス。
  21. 前記実際のライトボックスの前記底面制限壁は、前記コンピュータによって制御されるスクリーンとして実現される、ことを特徴とする請求項に記載のデバイス。
  22. 角を避けるために、2つの結合したスクリーンの各々の間に配置された光伝導体材をさらに備える、ことを特徴とする請求項19に記載のデバイス。
  23. 前記スクリーンは、その側面において丸みをおびた遷移領域を有する、ことを特徴とする請求項19に記載のデバイス。
JP2016181643A 2015-10-29 2016-09-16 視覚化デバイス Active JP6357513B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15192098.0 2015-10-29
EP15192098.0A EP3163358B1 (de) 2015-10-29 2015-10-29 Visualisierungsvorrichtung

Publications (2)

Publication Number Publication Date
JP2017097849A JP2017097849A (ja) 2017-06-01
JP6357513B2 true JP6357513B2 (ja) 2018-07-11

Family

ID=54544896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016181643A Active JP6357513B2 (ja) 2015-10-29 2016-09-16 視覚化デバイス

Country Status (4)

Country Link
US (2) US9704278B2 (ja)
EP (1) EP3163358B1 (ja)
JP (1) JP6357513B2 (ja)
CN (1) CN106997240B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3937133A1 (en) 2020-07-07 2022-01-12 X-Rite Europe GmbH Generating a destination texture from a plurality of source textures
EP3937136A1 (en) 2020-07-07 2022-01-12 X-Rite Europe GmbH Visualizing the appearance of at least two materials
EP3937137A1 (en) 2020-07-07 2022-01-12 X-Rite Europe GmbH Visualizing the appearances of at least two materials
EP3937138A1 (en) 2020-07-10 2022-01-12 X-Rite Europe GmbH Displaying a virtual object in a real-life scene
EP4209998A1 (en) 2022-01-07 2023-07-12 X-Rite Europe GmbH Method, computer and computer program for modifying texture images

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0602934B1 (en) * 1992-12-17 1999-03-10 Sharp Kabushiki Kaisha Autostereoscopic directional display apparatus
US7242152B2 (en) * 1997-08-26 2007-07-10 Color Kinetics Incorporated Systems and methods of controlling light systems
DE10339076B4 (de) * 2003-08-26 2007-10-31 Seereal Technologies Gmbh Autostereoskopisches Multi-User-Display
WO2005052751A2 (en) * 2003-11-20 2005-06-09 Color Kinetics Incorporated Light system manager
US7271378B2 (en) * 2003-12-15 2007-09-18 Eastman Kodak Company Ambient light detection circuit with control circuit for integration period signal
HU0401034D0 (en) * 2004-05-24 2004-08-30 Ratai Daniel System of three dimension induting computer technology, and method of executing spatial processes
US20080166111A1 (en) * 2004-12-01 2008-07-10 Richard Didow Back Light Screen for Chroma-Key Photography
JP2006318015A (ja) * 2005-05-10 2006-11-24 Sony Corp 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム
US20090019393A1 (en) * 2006-03-06 2009-01-15 Hiroshi Fukushima User interface processor and user interface processing method
US7470044B2 (en) * 2006-03-22 2008-12-30 The Picture People Light diffusion device
US8139059B2 (en) * 2006-03-31 2012-03-20 Microsoft Corporation Object illumination in a virtual environment
JP4804256B2 (ja) * 2006-07-27 2011-11-02 キヤノン株式会社 情報処理方法
US7680401B1 (en) * 2007-10-03 2010-03-16 Alan Adelstein Portable photography studio and method of assembly
EP2323602A2 (en) * 2008-08-25 2011-05-25 Universität Zürich Prorektorat Mnw Adjustable virtual reality system
US20120200600A1 (en) * 2010-06-23 2012-08-09 Kent Demaine Head and arm detection for virtual immersion systems and methods
US9386294B2 (en) * 2011-01-05 2016-07-05 Google Technology Holdings LLC Method and apparatus for 3DTV image adjustment
JP2013004001A (ja) * 2011-06-21 2013-01-07 Sony Corp 表示制御装置、表示制御方法、およびプログラム
US9417185B1 (en) * 2012-10-21 2016-08-16 Google Inc. Controlling light arrays to determine properties of an object
WO2014153022A1 (en) * 2013-03-14 2014-09-25 University Of Southern California Specular object scanner for measuring reflectance properties of objects
WO2015140813A1 (en) * 2014-03-17 2015-09-24 Vats Nitin Interactive display system with screen cut-to-shape of displayed object for realistic visualization and user interaction
JP6625801B2 (ja) * 2015-02-27 2019-12-25 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP6717302B2 (ja) * 2015-06-17 2020-07-01 凸版印刷株式会社 画像処理システム、方法、及びプログラム

Also Published As

Publication number Publication date
EP3163358B1 (de) 2018-03-28
CN106997240A (zh) 2017-08-01
CN106997240B (zh) 2020-06-09
JP2017097849A (ja) 2017-06-01
US10255706B2 (en) 2019-04-09
US9704278B2 (en) 2017-07-11
US20170124743A1 (en) 2017-05-04
EP3163358A1 (de) 2017-05-03
US20170372502A1 (en) 2017-12-28

Similar Documents

Publication Publication Date Title
JP6357513B2 (ja) 視覚化デバイス
US10621785B2 (en) Blended reality systems and methods
KR101740326B1 (ko) 증강현실 기반 실감체험 장치 및 제공 방법
KR101670927B1 (ko) 디스플레이 장치 및 방법
US6843564B2 (en) Three-dimensional image projection employing retro-reflective screens
KR101647536B1 (ko) 다중-프로젝터 시스템 및 방법
US8922644B2 (en) Tracking head position and orientation
KR101174551B1 (ko) 조명장치
CN102726050A (zh) 显示三维图像的方法及设备
US20160205393A1 (en) Method for producing an autostereoscopic display and autostereoscopic display
JP6695440B2 (ja) 深度感知システム
JP2005508016A (ja) 3次元画像の投影
US20150369447A1 (en) Lighting arrangement and method for producing an lighting arrangement
CN105939466B (zh) 光投影装置
JP4925369B2 (ja) 照明装置
CN109326242B (zh) 一种灰度调制方法及计算机可读存储介质
JP6373750B2 (ja) 肌評価方法及び肌評価支援システム
JP5162393B2 (ja) 照明装置
Kamimigaki et al. Real reproducing of 3D appearance with multi-projectors and cameras
JP2003057596A (ja) 三次元表示装置
WO2017046423A1 (en) A 3d display and method of operation thereof
BR102013030771A2 (pt) dispositivo de mídia de realidade aumentada sobreposta ao reflexo de usuário
WO2014154303A1 (en) Photographing objects supported by an illuminated support

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180618

R150 Certificate of patent or registration of utility model

Ref document number: 6357513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250