JP2019062532A - 映像レンダリング方法及び装置 - Google Patents

映像レンダリング方法及び装置 Download PDF

Info

Publication number
JP2019062532A
JP2019062532A JP2018169492A JP2018169492A JP2019062532A JP 2019062532 A JP2019062532 A JP 2019062532A JP 2018169492 A JP2018169492 A JP 2018169492A JP 2018169492 A JP2018169492 A JP 2018169492A JP 2019062532 A JP2019062532 A JP 2019062532A
Authority
JP
Japan
Prior art keywords
display area
rendering
image
video
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018169492A
Other languages
English (en)
Other versions
JP7290925B2 (ja
Inventor
柄敏 姜
Byong-Min Kang
柄敏 姜
東▲ぎょん▼ 南
Dong Kyung Nam
東▲ぎょん▼ 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2019062532A publication Critical patent/JP2019062532A/ja
Application granted granted Critical
Publication of JP7290925B2 publication Critical patent/JP7290925B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Instrument Panels (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】 映像レンダリング方法及び装置を提供する。【解決手段】映像レンダリング装置は、2D映像が出力される2Dディスプレイ領域と3D映像が出力される3Dディスプレイ領域のうち現在ピクセルがいずれのディスプレイ領域に含まれるかを判断し、現在ピクセルが2Dディスプレイ領域に含まれる場合、現在ピクセルの位置で2Dレンダリングを行い、現在ピクセルが3Dディスプレイ領域に含まれる場合、現在ピクセルの位置で3Dレンダリングを行う。【選択図】 図2

Description

本発明の説明は映像レンダリング方法及び装置に関する。
視聴者が3D(dimensional)映像の立体感を認知するためには、視聴者の両眼に見える映像が異なっていなければならない。視聴者の両眼に互いに異なる映像を見せるための方法に基づいて、偏光を用いた分割、時分割、原色の波長を互いに相違にした波長分割などにより所望する映像をフィルタリングするメガネ式(stereoscopic)方式、パララックスバリア(parallax barrier)、レンチキュラレンズ(lenticular lens)、又は、方向性バックライトユニットなどの3D光学素子を用いて映像を空間の特定視点ごとに見えるようにする裸眼式(autostereoscopic)等の方式がある。
本発明は、2Dディスプレイ領域及び3Dディスプレイ領域を含むディスプレイ領域によってリアリティ及び立体感の重要なコンテンツは3D映像として提供し、意味の伝達及び正確さが重要なコンテンツは2D映像として提供する映像レンダリング方法及び装置を提供する。
一実施形態に係る映像レンダリング装置は、2D映像が出力される2Dディスプレイ領域と3D映像が出力される3Dディスプレイ領域のうち、現在ピクセルがいずれのディスプレイ領域に含まれるかを判断するステップと、前記現在ピクセルが前記2Dディスプレイ領域に含まれる場合、前記現在ピクセルの位置で2Dレンダリングを行うステップと、前記現在ピクセルが前記3Dディスプレイ領域に含まれる場合、前記現在ピクセルの位置で3Dレンダリングを行うステップとを含む。
前記2Dディスプレイ領域と前記3Dディスプレイ領域は1つのスクリーンに含まれ得る。
前記2Dディスプレイ領域は前記3Dディスプレイ領域の周辺に位置し得る。
前記 映像レンダリング装置は、前記全体ピクセルそれぞれに対して前記2Dレンダリング又は前記3Dレンダリングを行って前記2D映像及び前記3D映像が混合した結果映像を生成するステップをさらに含み得る。
前記2Dディスプレイ領域は、テキスト及び案内表示のうち少なくとも1つを表示し得る。
前記2Dディスプレイ領域は、車両の運行情報を提供するためのテキスト及び案内表示のうち少なくとも1つを表示し得る。
前記3Dディスプレイ領域は3Dオブジェクトの映像を表示し得る。
前記3Dディスプレイ領域は、車両の走行経路をガイドするための3Dオブジェクトの映像を表示し得る。
前記3Dディスプレイ領域において、パララックスバリア及びレンチキュラレンズのうち少なくとも1つを用いて前記3Dオブジェクトの映像を表示するための複数の視域が生成され得る。
前記ディスプレイ装置は、ヘッドアップディスプレイ(HUD)装置であり得る。
コンピュータで読み出し可能な記録媒体は、前記方法をコンピュータで実行するためのプログラムを記録し得る。
一実施形態に係る映像レンダリング装置は、少なくとも1つのプロセッサと、2D映像が出力される2Dディスプレイ領域と3D映像が出力される3Dディスプレイ領域を含むディスプレイパネルと、を含み、前記プロセッサは、前記ディスプレイパネルを介して出力されるピクセルそれぞれに対して2Dレンダリング又は3Dレンダリングを行うことによって、前記2D映像及び前記3D映像が混合した結果映像を生成し、前記ディスプレイパネルは前記結果映像を出力する。
一実施形態に係る映像レンダリング方法は、ディスプレイ装置のスクリーンに表示される複合映像をレンダリングする映像レンダリング方法において、前記スクリーンは、複数の第1ピクセルを含む2Dディスプレイ領域及び複数の第2ピクセルを含む3Dディスプレイ領域に分割され、前記複数の第1ピクセルそれぞれに対して2Dレンダリングを行うステップと、前記複数の第2ピクセルそれぞれに対してユーザの右眼位置及び左眼位置を追跡するステップと、前記追跡された右眼位置及び前記追跡された左眼位置に基づいて3Dレンダリングを行うステップと、前記2Dディスプレイ領域に位置する2D映像及び前記3Dディスプレイ領域に位置する3D映像を含む前記複合映像を生成するステップとを含む。
一実施形態に係る映像レンダリング提供装置は、2Dディスプレイ領域及び3Dディスプレイ領域を含むディスプレイ領域によって、リアリティ及び立体感の重要なコンテンツは3D映像として提供し、意味の伝達及び正確さが重要なコンテンツは2D映像として提供することが可能である。
一実施形態に係るヘッドアップディスプレイ装置に適用された映像レンダリング装置の動作を説明するための図である。 一実施形態に係る映像レンダリング方法を説明するためのフローチャートである。 一実施形態に係る2Dディスプレイ領域と3Dディスプレイ領域を含むスクリーンの一例を示す図である。 一実施形態に係る映像レンダリング方法の一例を説明するためのフローチャートである。 一実施形態に係る映像レンダリング装置の構成を説明するための図である。 一実施形態に係るピクセルの位置に基づいて2Dレンダリング又は3Dレンダリングを行う過程を説明するための図である。 一実施形態に係る2Dディスプレイ領域と3Dディスプレイ領域を区分する方法を説明するための図である。 一実施形態に係る2Dディスプレイ領域と3Dディスプレイ領域が配置された構造の一例を示す図である。 一実施形態に係る2Dディスプレイ領域と3Dディスプレイ領域が配置された構造の一例を示す図である。 一実施形態に係る2Dディスプレイ領域と3Dディスプレイ領域が配置された構造の一例を示す図である。 一実施形態に係るレンチキュラレンズ又はパララックスバリアを含むディスプレイパネルの一例を示す図である。 一実施形態に係るレンチキュラレンズ又はパララックスバリアを含むディスプレイパネルの一例を示す図である。
実施形態に対する特定な構造的又は機能的な説明は単なる例示のための目的として開示されたものとして、様々な形態に変更され得る。したがって、実施形態は特定な開示形態に限定されるものではなく、本明細書の範囲は技術的な思想に含まれる変更、均等物ないし代替物を含む。
第1又は第2などの用語を複数の構成要素を説明するために用いることがあるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。
いずれかの構成要素が他の構成要素に「接続されて」いると言及された場合、その次の構成要素に直接的に接続されてもよく、又は中間に他の構成要素が存在することもあり得ると理解されなければならない。
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
以下、実施形態を添付する図面を参照しながら詳細に説明する。各図面に提示された同一の参照符号は同一の部材を示す。
図1は、一実施形態に係るヘッドアップディスプレイ装置に適用された映像レンダリング装置の動作を説明するための図である。
映像レンダリング装置100は、映像をレンダリングし、レンダリングの結果映像をユーザに提供する。ここで、映像レンダリング装置100は、2Dレンダリング及び3Dレンダリングを全て行う。映像レンダリング装置100は、2Dレンダリング及び3Dレンダリングを介して1つのスクリーンに2D映像及び3D映像を共に出力し得る。映像レンダリング装置100は、2D映像を表示するための2Dディスプレイ領域と、3D映像を表示するための3Dディスプレイ領域を全て有するディスプレイを備え、該当の2Dディスプレイ領域により2D映像を出力し、3Dディスプレイ領域により3D映像を出力する。
映像レンダリング装置100は、2D映像及び3D映像を一緒に提供できるアプリケーションに適用される。このようなアプリケーションで、映像レンダリング装置100は、2D映像及び3D映像が混合した映像コンテンツを提供する。例えば、映像レンダリング装置100は、図1に示すように、ヘッドアップディスプレイ装置で矢印のような経路案内指示子を3D映像に表示し、その他に、テキスト形態の運行情報(例えば、現在位置から目的先まで残っている距離及び目的先まで移動するためにかかる予想時間など)を2D映像に表示するために用いられる。異なる例として、映像レンダリング装置100は映像コンテンツを3D映像に提供し、字幕を2D映像に提供するよう、2D映像及び3D映像を混合して提供する映像システムで用いられる。その他に、映像レンダリング装置100は、拡張現実(augmented reality:AR)などの分野においても用いられる。映像レンダリング装置100は、立体的に表示することが効果的なコンテンツを3D映像に出力し、立体感よりも情報を正確で分かりやすく表示することが重要なコンテンツは2D映像に出力する。
図1を参照すれば、ヘッドアップディスプレイ装置に適用された映像レンダリング装置100は、自動車150に設置されて運転者140に2D映像121及び3D映像123が混合した結果映像120を提供する。結果映像120は、2D映像121及び3D映像123を含む。2D映像121及び3D映像123は様々な方式で配置され得る。例えば、図1に示すように、3D映像123は、2D映像121に取り囲まれた形態に配置されてもよい。しかし、これは例示に過ぎず、配置方式はこれに限定されることなく、2D映像121及び3D映像123は様々な形態に配置され得る。
映像レンダリング装置100は、テキストのように高解像度と高速演算とが求められるコンテンツを2D映像121に出力する。例えば、制限速度90km/h、現在速度92km/h、現在時刻13:00、予想到着時刻13:15、目的先まで残っている距離15kmのように、3D映像よりも2Dのテキストで表示することがより適切な運行情報131が、2D映像121に表示されている。
3D映像123は、リアリティ及び立体感が求められるコンテンツを3D映像123に出力し得る。例えば、経路案内指示子133は、3D映像123により、前方の道路状況と整合して運転者140へ効率的に立体的に表示される。3D映像123に含まれた経路案内指示子133は、運転者140の視点で道路と整合した案内表示135として立体的に見ることができるので、運転者140は、3D形態の経路案内指示子133により高いリアリティを実感できる。
他の実施形態において、映像レンダリング装置100は、3Dレンダリングを行うとき、運転者140の目の位置に左視点映像と右視点映像が正確に見えるようにするため運転者140の目の位置を追跡し、追跡された目の位置に基づいて3Dレンダリングを行う。図1に示すような実施形態において、視点追跡のためのカメラ(図示せず)が車両のバックミラー(rear view mirror)又はダッシュボード(dashboard)上に設置され、運転者140の目が示された映像を取得できる。映像レンダリング装置100は、カメラから該当のカメラを用いて取得された映像(又は、動画)を受信し、受信した映像から特徴点検出又はテンプレートマッチングなどの方式を用いて運転者140の目の位置を検出する。映像レンダリング装置100は、検出された目の位置に基づいて3Dレンダリング映像を構成する各ピクセルに左視点映像のピクセル値を割り当てるか、或いは右視点映像のピクセル値を割り当てるかを決定する。例えば、3Dディスプレイ領域を構成する表示ピクセルの光線方向が右眼よりも左眼に近い場合、該当の表示ピクセルに左視点映像のピクセル値が割り当てられ、該当の光線方向が左眼よりも右眼に近い場合には、該当の表示ピクセルに右視点映像のピクセル値が割り当てられる。このような過程を表示ピクセル全体に対して実行すれば、運転者140の目の位置に基づいた3Dレンダリング映像が生成され得る。ここで、表示ピクセルの光線方向は、3Dディスプレイ領域に含まれたレンチキュラレンズ又はパララックスバリアの3D光学素子の構造的な特徴によって決定され得る。
図1を参照すれば、ヘッドアップディスプレイ装置に適用された映像レンダリング装置100は、ディスプレイパネル101と1つ以上の反射鏡103、105を含んでレンダリングの結果映像120を運転者140に提供する。ディスプレイパネル101は、2D映像及び3D映像が混合したレンダリングの結果映像120を反射鏡103に出力し、反射鏡103は、他の反射鏡105を用いてレンダリングの結果映像が運転者140に提供される。
映像レンダリング装置100は、自動車150のウィンドシールド(windshield)111に運行情報を表示することで、運転者140は、運転状態で視線を移動させなくても運行情報が提供され得る。そのため、映像レンダリング装置100は、運転者140に優れた利便性を提供して事故の危険を減らすことができる。
ディスプレイパネル101のスクリーンは、2Dディスプレイ領域と3Dディスプレイ領域を全て含む。一実施形態に係る2Dディスプレイ領域は、3Dディスプレイ領域を取り囲んでもよいし、3Dディスプレイ領域の上側、下側、左側、又は右側に配置されてもよいし、3Dディスプレイ領域を挟んで両側に配置されるなど、多様に配置され得る。このような配置方式は例示に過ぎず、2Dディスプレイ領域と3Dディスプレイ領域の配置方式はこれらに限定されることはない。
3Dディスプレイ領域は、3D映像を表現するために運転者140の左眼及び右眼に見られる映像間の視点差を用いることができる。3Dディスプレイ領域は、メガネ式(stereoscopy)3Dディスプレイ、又は裸眼(autostereoscopic)3Dディスプレイにより実現される。裸眼式3Dディスプレイは、視点を分割する3D光学素子を用いてもよい。例えば、3Dディスプレイ領域は、レンチキュラレンズ又はパララックスバリアのように映像を互いに異なる視点方向に出力する3D光学素子を含む。
一実施形態に係る3Dディスプレイ領域は、3D映像のうち左視点映像を運転者140の左眼に表示し、右視点映像を運転者140の右眼に表示することで、運転者140がコンテンツの立体性を感じることができる。ここで、左視点映像と右視点映像の不完全な分離は、3D映像の画質を低下させるクロストーク(crosstalk)の現象を誘発する。クロストーク現象は、左視点映像と右視点映像が完全に分離できていない場合に、左視点映像の一部が右眼に見えたり、右視点映像の一部が左眼に見えてしまう現象を意味する。視点分離が充分に行われずにクロストーク現象が発生する場合、運転者140はめまいなどを感じてしまうことが懸念される。
実際の走行道路に整合して表示される矢印のような経路案内指示子とは異なり、テキストに表示されるコンテンツに対してクロストーク現象が生じた場合、運転者140は大きな不便を感じてしまうことが懸念され、これは運転の安全性等の観点からは好ましくない。したがって、全体ディスプレイ領域を一律に3Dディスプレイ領域に構成するよりも、テキスト等のように3Dよりも2Dで表現することがより適切なコンテンツは2Dで表示することが好ましい。
一実施形態によれば、映像レンダリング装置100は、テキストのように意味の伝達が重要なコンテンツは、2Dレンダリングを介して2D映像として提供することで、テキスト情報の提供においてクロストーク現象の発生を防止できる。2D映像は、3D映像とは異なって左眼及び右眼に同じ映像を提供するためクロストーク現象が発生しない。また、2Dレンダリングは、3Dレンダリングよりも演算速度が速いため、テキストのように意味の伝達が重要なコンテンツは2Dレンダリングを介してより速く正確に処理することができる。
上記のように、映像レンダリング装置100は、2Dディスプレイ領域と3Dディスプレイ領域を含むディスプレイ領域を介してリアリティ及び立体感の重要なコンテンツは3D映像として提供し、意味の伝達及び正確さが重要なコンテンツは2D映像として提供する。そのため、映像レンダリング装置100は、運転者140に3D映像のリアリティを提供する一方、テキスト情報をクロストークの現象なしに正確かつ迅速に提供できる。
図1に示された実施形態は、映像レンダリング装置100がヘッドアップディスプレイ装置に適用された実施形態を示しているが、ヘッドアップディスプレイ装置は例示に過ぎず、映像レンダリング装置100は他の形態のディスプレイ装置に適用されてもよい。例えば、映像レンダリング装置100は、自動車150の天井に取り付けたプロジェクターに適用されてもよい。その他に、映像レンダリング装置100は、2D映像及び3D映像を全て表示できるディスプレイ装置であれば、いずれも適用可能である。
図2は、一実施形態に係る映像レンダリング方法を説明するためのフローチャートである。
図2を参照すれば、ステップS201において、映像レンダリング装置は、2D映像が出力される2Dディスプレイ領域と、3D映像が出力される3Dディスプレイ領域のうち現在ピクセルがいずれのディスプレイ領域に含まれているかを判断する。2Dディスプレイ領域と3Dディスプレイ領域は、1つのスクリーンに含まれてもよい。一実施形態によれば、2Dディスプレイ領域は、3Dディスプレイ領域の周辺に位置し、3Dディスプレイ領域には該当の3Dディスプレイ領域の大きさに対応するレンチキュラレンズやパララックスバリアが配置される。ディスプレイパネルは複数のピクセルを含んでもよく、映像レンダリング装置は各ピクセルに対するレンダリングを順次又は並列的に処理し得る。
ピクセルを用いて出力される映像は、2D映像又は3D映像であってもよく、これはピクセルが2Dディスプレイ領域に含まれるか、又は、3Dディスプレイ領域に含まれるかの有無に応じて決定される。ステップS203において、現在ピクセルが2Dディスプレイ領域に含まれる場合、映像レンダリング装置は、現在ピクセルの位置で2Dレンダリングを行う。映像レンダリング装置は、2D入力映像から現在ピクセルに対応するピクセル値を検索し、該当のピクセル値を2Dディスプレイ領域に含まれた現在ピクセルに割り当てる。一実施形態によれば、2Dディスプレイ領域はテキスト又は案内表示を表示する。
ステップS205において、映像レンダリング装置は、現在ピクセルが3Dディスプレイ領域に含まれる場合、現在ピクセルの位置で3Dレンダリングを行う。映像レンダリング装置は、左視点映像及び右視点映像を用いて現在ピクセルに割り当てるピクセル値を決定し、該当のピクセル値を3Dディスプレイ領域に含まれた現在ピクセルに割り当てる。一実施形態によれば、3Dディスプレイ領域は、3Dオブジェクトを表示する。例えば、3Dディスプレイ領域は、車両の経路案内指示子を示すための3Dオブジェクトを表示する。映像レンダリング装置は、レンチキュラレンズ又はパララックスバリアのような3D光学素子を用いて左視点映像と右視点映像とを分離して提供する。3Dディスプレイ領域では、上記の3D光学素子を用いて3Dオブジェクトを表示するための複数の視域が生成される。
ステップS203又はステップS205が実行されると、ステップS207において、映像レンダリング装置は、全体ピクセルに対して2Dレンダリング又は3Dレンダリングが実行されたか否かを判断する。2Dレンダリング又は3Dレンダリングが、未だ全てのピクセルについては実行されていない場合、ステップS209において、映像レンダリング装置は次のピクセルを選択し、次のピクセルに対してステップS201ないしステップS207の過程を行う。
全てのピクセルに対して、2Dレンダリング又は3Dレンダリングが実行された場合、ステップS211において、映像レンダリング装置は、全てのピクセルそれぞれに対して2Dレンダリング又は3Dレンダリングを実行した結果として、2D映像及び3D映像が混合したレンダリングの結果映像を生成し、該当のレンダリングの結果映像を出力する。
図3は、一実施形態に係る2Dディスプレイ領域と3Dディスプレイ領域を含むスクリーンの一例を示す図である。
図3を参照すれば、ディスプレイ装置のスクリーン310は、2D映像が出力される2Dディスプレイ領域311と3D映像が出力される3Dディスプレイ領域321を含む。スクリーン310に表示されるレンダリングの結果映像において、矢印形態の経路案内指示子323は3Dディスプレイ領域321内で表示されル一方、制限速度、現在時刻、予想到着時間、及び目的先までの距離のような運行情報313は、2Dディスプレイ領域311に表示される。本実施形態のように、映像レンダリング装置は、2Dディスプレイ領域311を介して車両の運行情報を提供するためのテキスト又は案内表示を表示する一方、3Dディスプレイ領域321を介して車両の走行経路をガイドするための3Dオブジェクトを表示する。
図4は、一実施形態に係る映像レンダリング方法の一例を説明するためのフローチャートである。
図4を参照すれば、ステップS401において、映像レンダリング装置は、ディスプレイパネルでレンダリングを行うピクセルの位置を確認する。ディスプレイパネルでピクセルの位置は、2次元座標、例えばD(x、y)に表示される。
ステップS403において、映像レンダリング装置は、ピクセルの位置D(x、y)が3D映像を表示する3Dディスプレイ領域に含まれるか否かを判断する。一実施形態では、3Dディスプレイ領域が四角形の形態であると仮定すれば、3Dディスプレイ領域の範囲はOleft、Oright、Otop及びObottomのよう定義される。ここで、Oleftは3D映像ディスプレイ領域の左側境界のx座標であり、Orightは右側境界のx座標であり、Otopは上側境界のy座標であり、Obottomは下側境界のy座標である。
映像レンダリング装置は、ピクセルのx座標がx>Oleft及びx<Orightの条件を満足し、ピクセルのy座標がy<Otop及びy>Obottomの条件が満足されるか否かを判断する。上記の条件が満足される場合、ピクセルは、3Dディスプレイ領域に含まれると推定される。これとは異なって、上記の条件のうちいずれか1つでも満足しない場合、ピクセルは、2D映像を表示する2Dディスプレイ領域に含まれると推定される。
ステップS403において、ピクセルの位置が3Dディスプレイ領域に含まれると判断された場合、ステップS405において、映像レンダリング装置は、該当のピクセルの位置で3Dレンダリングを行う。映像レンダリング装置は、複数の視点映像に基づいて3Dレンダリングを行って、該当のピクセルに割り当てられるピクセル値を決定する。
ステップS403でピクセルの位置が2Dディスプレイ領域に含まれると判断された場合、ステップS407において、映像レンダリング装置は、該当のピクセルの位置で2Dレンダリングを行う。映像レンダリング装置は、入力映像から該当のピクセルのピクセル値を決定し、該当のピクセルにピクセル値を割り当てる。
図5は、一実施形態に係る映像レンダリング装置の構成を説明するための図である。
図5を参照すれば、映像レンダリング装置500は、ディスプレイパネル501、プロセッサ503、及びメモリ505を含む。
ディスプレイパネル501は、プロセッサ503によって生成されたレンダリングの結果映像を出力する。ディスプレイパネル501は、レンダリングの結果映像に基づいて2D映像及び3D映像が組み合わせた映像を出力する。ディスプレイパネル501は、2D映像が出力される2Dディスプレイ領域と3D映像が出力される3Dディスプレイ領域を含み、3Dディスプレイ領域は、レンダリングの結果映像を多重視点によって分離して3D映像の立体感を実現するための3D光学素子、例えば、パララックスバリア又はレンチキュラレンズを含む。
ディスプレイパネル501の2Dディスプレイ領域と3Dディスプレイ領域は様々な方式により配置され得る。例えば、2Dディスプレイ領域は、3Dディスプレイ領域を取り囲むように配置されてもよいし、又は3Dディスプレイ領域の一方の側又は両側に配置されてもよい。
プロセッサ503は映像レンダリング装置500を制御し、上記に説明した図1ないし図4を参照して説明した動作を行う。例えば、プロセッサ500は、図2及び図4を参照して説明した各ステップを行う。一実施形態では、プロセッサ503は、単一プロセッサ、マルチプロセッサ、ハードウェア加速器(hardware accelerator:HWA)、グラフィック処理ユニット(Graphic Processing Unit:GPU)又はその組み合せなどにより多様に構成され得る。
プロセッサ503は、ディスプレイパネル501を介して出力されるピクセルそれぞれに対して2Dレンダリング及び3Dレンダリングのいずれか1つを行い、2D映像及び3D映像が混合したレンダリングの結果映像を生成する。このために、プロセッサ503は、各ピクセルが2Dディスプレイ領域と3Dディスプレイ領域のいずれのディスプレイ領域に含まれるかを判断し、その判断結果に基づいて、該当のピクセルの位置で2Dレンダリング又は3Dレンダリングを行う。ピクセルが2Dディスプレイ領域に含まれている場合は該当のピクセルの位置で2Dレンダリングが実行され、ピクセルが3Dディスプレイ領域に含まれている場合は該当のピクセルの位置で3Dレンダリングが実行される。
メモリ505は、視点映像(例えば、左視点映像及び右視点映像のステレオ映像)、2D映像、パネル映像、プロセッサ503の動作のための命令、各種の関数、数式及び演算結果などのようなデータを格納する。また、メモリ505に保存されている該当のデータはプロセッサ503に送信されてもよいし、その他にメモリ505に格納されたデータがプロセッサ503に送信されてもよい。
図6Aは、一実施形態に係るピクセルの位置に基づいて2Dレンダリング又は3Dレンダリングを行う過程を説明するための図である。
図6Aを参照すれば、ディスプレイパネル610は、2Dディスプレイ領域611と3Dディスプレイ領域621を含み、2Dディスプレイ領域611と3Dディスプレイ領域621のそれぞれは複数のピクセルを含む。3Dディスプレイ領域621は3D光学素子を含む領域であって、3Dディスプレイ領域621の位置はディスプレイ装置が生産されるとき決定される。
一実施形態によれば、図6Aに示すように、3Dディスプレイ領域621は、2Dディスプレイ領域611に取り囲まれるように配置される。3Dディスプレイ領域621が四角形の形態であると仮定すれば、上記で説明したように、3Dディスプレイ領域621は、Oleft、Oright、Otop及びObottomに基づいて定義される。3Dディスプレイ領域621内の位置(x、y)は、Oleft<x<Oright、及びObottom<y<Otopの条件を満たす。
一実施形態では、映像レンダリング装置は、レンダリングされるピクセルの位置が上記の3Dディスプレイ領域に含まれるかの有無に基づいて、該当のピクセルの位置で実行されるレンダリングのタイプを決定する。一実施形態に係る映像レンダリング装置は、D(0、0)に位置するピクセルから順次に該当のピクセルが3Dディスプレイ領域621に位置するか否かを判断し、該当のピクセルが3Dディスプレイ領域621に存在するものとして決定される場合、該当のピクセルの位置で複数の視点映像に基づいて3Dレンダリングを行う。該当のピクセルの位置が3Dディスプレイ領域621でない2Dディスプレイ領域611に存在すると判断される場合、映像レンダリング装置は、該当のピクセルの位置で2Dレンダリングを行う。他の実施形態において、映像レンダリング装置は、複数のピクセルそれぞれに対して上記のような過程を並列的に処理し得る。
図6Bは、一実施形態に係る2Dディスプレイ領域と3Dディスプレイ領域を区分する方法を説明するための図である。
図6Bを参照すれば、映像レンダリング装置は、2Dディスプレイ領域611と3Dディスプレイ領域621を区分するためにテスト映像を出力する。一実施形態において、テスト映像は交差する2つの直線で構成する。2Dディスプレイ領域611では、該当の直線が鮮明に出力される。一方、3Dディスプレイ領域621では、3D光学素子によって2つの直線が鮮明には出力されない。鮮明には出力されない範囲に基づいて、3Dディスプレイ領域621の位置及び大きさが推定される。例えば、鮮明には出力されない部分の位置に基づいて、3Dディスプレイ領域621の境界を特定するためのOleft、Oright、Otop及びObottomが定義される。
図7Aは〜7Cは、一実施形態に係る2Dディスプレイ領域と3Dディスプレイ領域が配置された構造の一例を示す図である。
ディスプレイパネル700は、2Dディスプレイ領域と3Dディスプレイ領域を全て含み、2Dディスプレイ領域と3Dディスプレイ領域は、図7A〜図7Cに示すように様々な形態に配置され得る。ただし、図7A〜7Cに示された配置形態は例示に過ぎず、配置方式はこれに限定されることはない。
図7Aに示すように、2Dディスプレイ領域711は、3Dディスプレイ領域713を取り囲むように配置されてもよいし、又は7Bに示すように、2Dディスプレイ領域721は、3Dディスプレイ領域723の一方の側に配置されてもよい。他の実施形態によれば、図7Cに示すように、ディスプレイパネル700は、複数の2Dディスプレイ領域731、733を含んでもよい。ここで、2Dディスプレイ領域731、733のそれぞれは、3Dディスプレイ領域735の上下、左右に配置されてもよいし、3Dディスプレイ領域735をはさんで両側に配置されてもよい。ただし、配置の仕方はこれらに限定されない。
図8A及び図8Bは、一実施形態に係るレンチキュラレンズ又はパララックスバリアを含むディスプレイパネルの一例を示す図である。
一実施形態に係る映像レンダリング装置は、裸眼式3D表示方式により3D映像を実現し得る。映像レンダリング装置は、パララックスバリア又はレンチキュラレンズのような3D光学素子を用いてユーザの左眼及び右眼に互いに異なる映像を映すようにしてユーザに立体感を提供する。一実施形態によれば、3D光学素子は、ディスプレイパネルで3Dディスプレイ領域に対応する部分に配置される。
図8Aは、レンチキュラレンズを含むディスプレイパネルを示す。図8Aを参照すれば、レンチキュラレンズ813を用いた方式は、ディスプレイパネル前面にピッチの小さいシリンダレンズを数個配列し、左視点映像と右視点映像を互いに分離する。一実施形態に係るレンチキュラレンズ813は、図8Aに示すように、ピクセル811の前方に配置される。ピクセル811は、左視点映像に対応するピクセル「L」と右視点映像に対応するピクセル「R」に区分して配置される。レンチキュラレンズ813により映像が視点方向によって互いに分離して見られる領域である複数の視域821、823が形成される。
図8Bは、パララックスバリアを含むディスプレイパネルを示す。図8Bを参照すれば、パララックスバリア833を用いた方式は、ディスプレイパネルの前面に光の進行方向を制限するバリアを配置し、左視点映像と右視点映像を互いに分離する。一実施形態に係るバリアは、図8Bに示すように、ピクセル831の前方に配置されてもよいし、又はピクセル831の後方に配置されてもよい。レンチキュラレンズと同様に、パララックスバリア833によって複数の視域841、843が形成され得る。
以上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
実施形態に係る方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
上述したように実施形態をたとえ限定された図面によって説明したが、当該技術分野で通常の知識を有する者であれば、前記に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順に実行され、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、或いは、他の構成要素又は均等物によって置き換えられたとしても適切な結果を達成することができる。

Claims (20)

  1. ディスプレイ装置に出力される映像をレンダリングする映像レンダリング方法であって、
    2D映像が出力される2Dディスプレイ領域と3D映像が出力される3Dディスプレイ領域のうち、現在ピクセルがいずれのディスプレイ領域に含まれるかを判断するステップと、
    前記現在ピクセルが前記2Dディスプレイ領域に含まれる場合、前記現在ピクセルの位置で2Dレンダリングを行うステップと、
    前記現在ピクセルが前記3Dディスプレイ領域に含まれる場合、前記現在ピクセルの位置で3Dレンダリングを行うステップと、
    を含む映像レンダリング方法。
  2. 前記2Dディスプレイ領域と前記3Dディスプレイ領域は1つのスクリーンに含まれる、請求項1に記載の映像レンダリング方法。
  3. 前記2Dディスプレイ領域は前記3Dディスプレイ領域を取り囲んでいる、請求項2に記載の映像レンダリング方法。
  4. 全体ピクセルそれぞれに対して前記2Dレンダリング又は前記3Dレンダリングを行うことにより、前記2D映像及び前記3D映像が混合した結果映像を生成するステップをさらに含む、請求項1ないし3のうち何れか一項に記載の映像レンダリング方法。
  5. 前記2Dディスプレイ領域は、テキスト及び案内表示のうち少なくとも1つを表示する、請求項1ないし4のうち何れか一項に記載の映像レンダリング方法。
  6. 前記2Dディスプレイ領域は、車両の運行情報を提供するためのテキスト及び案内表示のうち少なくとも1つを表示する、請求項5に記載の映像レンダリング方法。
  7. 前記3Dディスプレイ領域は3Dオブジェクトの映像を表示する、請求項1ないし6のうち何れか一項に記載の映像レンダリング方法。
  8. 前記3Dディスプレイ領域は、車両の走行経路をガイドするための3Dオブジェクトの映像を表示する、請求項7に記載の映像レンダリング方法。
  9. 前記3Dディスプレイ領域において、パララックスバリア及びレンチキュラレンズのうち少なくとも1つを用いることにより、前記3Dオブジェクトの映像を表示するための複数の視域が生成される、請求項7に記載の映像レンダリング方法。
  10. 前記ディスプレイ装置は、ヘッドアップディスプレイ(HUD)装置である、請求項1ないし9のうち何れか一項に記載の映像レンダリング方法。
  11. ディスプレイ装置のスクリーンに表示される映像をレンダリングする映像レンダリング方法において、前記スクリーンは、複数の第1ピクセルを含む2Dディスプレイ領域及び複数の第2ピクセルを含む3Dディスプレイ領域に分割され、前記レンダリング方法は、
    前記複数の第1ピクセルそれぞれに対して2Dレンダリングを行うステップと、
    前記複数の第2ピクセルそれぞれに対してユーザの右眼位置及び左眼位置を追跡するステップと、
    前記追跡された右眼位置及び前記追跡された左眼位置に基づいて、前記複数の第2ピクセルそれぞれに対して3Dレンダリングを行うステップと、
    前記2Dディスプレイ領域に位置する2D映像及び前記3Dディスプレイ領域に位置する3D映像を含む複合映像を生成及びレンダリングするステップと、
    を含む、映像レンダリング方法。
  12. 少なくとも1つのプロセッサと、
    2D映像が出力される2Dディスプレイ領域と3D映像が出力される3Dディスプレイ領域とを含むディスプレイパネルと、を含み、
    前記プロセッサは、前記ディスプレイパネルを介して出力されるピクセルそれぞれに対して2Dレンダリング又は3Dレンダリングを行うことにより、前記2D映像及び前記3D映像が混合した結果映像を生成し、
    前記ディスプレイパネルは前記結果映像を出力する、映像レンダリング装置。
  13. 前記プロセッサは、
    現在ピクセルが前記2Dディスプレイ領域と前記3Dディスプレイ領域のうちいずれのディスプレイ領域に含まれるかを判断し、
    前記現在ピクセルが前記2Dディスプレイ領域に含まれる場合、前記現在ピクセルの位置で前記2Dレンダリングを行い、
    前記現在ピクセルが前記3Dディスプレイ領域に含まれる場合、前記現在ピクセルの位置で前記3Dレンダリングを行う、請求項12に記載の映像レンダリング装置。
  14. 前記ディスプレイパネルは、前記3D映像を表示するための複数の視域を生成するパララックスバリア及びレンチキュラレンズのうち少なくとも1つを含む、請求項12又は13に記載の映像レンダリング装置。
  15. 前記ディスプレイパネルに含まれる前記パララックスバリア及び前記レンチキュラレンズのうち少なくとも1つは、前記ディスプレイパネルで前記3Dディスプレイ領域に対応する一部分に配置される、請求項14に記載の映像レンダリング装置。
  16. 前記2Dディスプレイ領域は前記3Dディスプレイ領域を取り囲んでいる、請求項12ないし15のうち何れか一項に記載の映像レンダリング装置。
  17. 前記2Dディスプレイ領域は前記3Dディスプレイ領域の一方の側に配置される、請求項12ないし15のうち何れか一項に記載の映像レンダリング装置。
  18. 前記ディスプレイパネルは、複数の2Dディスプレイ領域を含み、
    前記複数の2Dディスプレイ領域は、前記3Dディスプレイ領域をはさんだ両側に配置される、請求項12ないし15のうち何れか一項に記載の映像レンダリング装置。
  19. 前記2Dディスプレイ領域は、車両に関する運行情報を提供するためのテキスト及び案内表示のうち少なくとも1つを表示し、
    前記3Dディスプレイ領域は、車両の走行経路をガイドするための3Dオブジェクトの映像を表示する、請求項12ないし18のうち何れか一項に記載の映像レンダリング装置。
  20. 請求項1ないし11のうち何れか一項に記載の映像レンダリング方法を映像レンダリング装置のコンピュータに実行させるコンピュータプログラム。
JP2018169492A 2017-09-25 2018-09-11 映像レンダリング方法及び装置 Active JP7290925B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0123202 2017-09-25
KR1020170123202A KR102427854B1 (ko) 2017-09-25 2017-09-25 영상 렌더링 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2019062532A true JP2019062532A (ja) 2019-04-18
JP7290925B2 JP7290925B2 (ja) 2023-06-14

Family

ID=62909334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018169492A Active JP7290925B2 (ja) 2017-09-25 2018-09-11 映像レンダリング方法及び装置

Country Status (5)

Country Link
US (1) US10497169B2 (ja)
EP (1) EP3461129B1 (ja)
JP (1) JP7290925B2 (ja)
KR (1) KR102427854B1 (ja)
CN (1) CN109561294B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166458A1 (ja) * 2019-02-12 2020-08-20 株式会社ジャパンディスプレイ 表示装置
JP2021067909A (ja) * 2019-10-28 2021-04-30 日本精機株式会社 立体表示装置及びヘッドアップディスプレイ装置
DE112022002430T5 (de) 2021-04-30 2024-02-15 Nippon Seiki Co., Ltd. Anzeigesteuervorrichtung, Head-up-Display-Vorrichtung und Anzeigesteuerverfahren

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3054899B1 (fr) * 2016-08-03 2018-08-17 Valeo Comfort And Driving Assistance Dispositif de generation d'images pour ecran et afficheur tete-haute
KR102565277B1 (ko) 2017-11-24 2023-08-09 삼성전자주식회사 영상 복원 장치 및 방법
JP7100523B2 (ja) * 2018-07-27 2022-07-13 京セラ株式会社 表示装置、表示システムおよび移動体
KR102030288B1 (ko) * 2018-11-01 2019-11-29 가부시키가이샤 덴소 헤드업 디스플레이 시스템
KR102650332B1 (ko) 2018-12-12 2024-03-22 삼성전자주식회사 3차원 영상을 표시하는 장치 및 방법
CN112584124A (zh) * 2019-09-30 2021-03-30 北京芯海视界三维科技有限公司 实现3d显示的方法及装置、3d显示终端
WO2021100917A1 (ko) * 2019-11-21 2021-05-27 엘지전자 주식회사 헤드업 디스플레이 장치
EP4070151A4 (en) * 2019-12-05 2024-01-10 3M Innovative Properties Company OPTICAL SYSTEM AND HEAD-UP DISPLAY SYSTEMS
CN112929643B (zh) * 2019-12-05 2022-06-28 北京芯海视界三维科技有限公司 3d显示设备、方法及终端
US11938817B2 (en) * 2020-08-24 2024-03-26 Samsung Electronics Co., Ltd. Method and apparatus for controlling head-up display based on eye tracking status
WO2024071537A1 (ko) * 2022-09-26 2024-04-04 엘지전자 주식회사 투사광학계를 이용한 큰 종횡비를 갖는 차량용 영상 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05122733A (ja) * 1991-10-28 1993-05-18 Nippon Hoso Kyokai <Nhk> 3次元画像表示装置
JPH10224825A (ja) * 1997-02-10 1998-08-21 Canon Inc 画像表示システム及び該システムにおける画像表示装置及び情報処理装置及びそれらの制御方法及び記憶媒体
JP2005301144A (ja) * 2004-04-15 2005-10-27 Denso Corp 虚像表示装置およびプログラム
JP2010193340A (ja) * 2009-02-20 2010-09-02 Fujifilm Corp 表示装置および方法
JP2012186653A (ja) * 2011-03-04 2012-09-27 Toshiba Corp 画像表示装置、方法およびプログラム
JP2015215510A (ja) * 2014-05-12 2015-12-03 パナソニックIpマネジメント株式会社 表示装置および表示方法
JP2016107945A (ja) * 2014-12-10 2016-06-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4309667A1 (de) 1993-03-26 1994-09-29 Univ Dresden Tech Optisches System zur zwei- und dreidimensionalen Darstellung von Information
JP2005269022A (ja) * 2004-03-17 2005-09-29 Ricoh Co Ltd 符号化装置およびその方法、符号データ編集装置およびその方法、並びに、プログラムおよび記録媒体
US8195386B2 (en) 2004-09-28 2012-06-05 National University Corporation Kumamoto University Movable-body navigation information display method and movable-body navigation information display unit
DE102006030990A1 (de) * 2005-11-14 2007-05-16 Univ Muenster Wilhelms Verfahren und Anordnung zum monoskopischen Darstellen wenigstens eines Bereiches eines Bildes auf einer autostereoskopischen Anzeigevorrichtung
KR101314601B1 (ko) 2006-10-30 2013-10-04 엘지전자 주식회사 콘텐츠 전송 장치, 콘텐츠 표출 장치, 콘텐츠 전송 방법 및 콘텐츠 표출 방법
US8493408B2 (en) * 2008-11-19 2013-07-23 Apple Inc. Techniques for manipulating panoramas
RU2538335C2 (ru) 2009-02-17 2015-01-10 Конинклейке Филипс Электроникс Н.В. Объединение данных 3d изображения и графических данных
JP2012010085A (ja) 2010-06-24 2012-01-12 Sony Corp 立体表示装置及び立体表示装置の制御方法
KR20120088467A (ko) * 2011-01-31 2012-08-08 삼성전자주식회사 2차원 영상 표시 영역 내에 부분 3차원 영상을 디스플레이 하는 방법 및 장치
CN102170579B (zh) * 2011-03-23 2013-10-09 深圳超多维光电子有限公司 一种图形图像处理系统、方法和芯片
JP5883723B2 (ja) 2012-03-21 2016-03-15 株式会社ジオ技術研究所 3次元画像表示システム
KR101360061B1 (ko) * 2012-12-05 2014-02-12 현대자동차 주식회사 증강 현실 제공 방법 및 그 장치
CN103149768B (zh) * 2013-03-11 2016-04-20 华映视讯(吴江)有限公司 裸视立体显示装置及其显示方法
JP6266229B2 (ja) 2013-05-14 2018-01-24 東芝メディカルシステムズ株式会社 画像処理装置、方法、及びプログラム
KR102071693B1 (ko) 2014-02-07 2020-01-30 엘지전자 주식회사 헤드 업 디스플레이 장치
US9756319B2 (en) 2014-02-27 2017-09-05 Harman International Industries, Incorporated Virtual see-through instrument cluster with live video
KR20160059783A (ko) 2014-11-19 2016-05-27 삼성전자주식회사 백라이트 유닛, 이를 포함하는 디스플레이 장치 및 백라이트 유닛 제조방법
GB2532954A (en) * 2014-12-02 2016-06-08 Ibm Display control system for an augmented reality display system
CN106604015B (zh) * 2016-12-20 2018-09-14 宇龙计算机通信科技(深圳)有限公司 一种图像处理方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05122733A (ja) * 1991-10-28 1993-05-18 Nippon Hoso Kyokai <Nhk> 3次元画像表示装置
JPH10224825A (ja) * 1997-02-10 1998-08-21 Canon Inc 画像表示システム及び該システムにおける画像表示装置及び情報処理装置及びそれらの制御方法及び記憶媒体
JP2005301144A (ja) * 2004-04-15 2005-10-27 Denso Corp 虚像表示装置およびプログラム
JP2010193340A (ja) * 2009-02-20 2010-09-02 Fujifilm Corp 表示装置および方法
JP2012186653A (ja) * 2011-03-04 2012-09-27 Toshiba Corp 画像表示装置、方法およびプログラム
JP2015215510A (ja) * 2014-05-12 2015-12-03 パナソニックIpマネジメント株式会社 表示装置および表示方法
JP2016107945A (ja) * 2014-12-10 2016-06-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166458A1 (ja) * 2019-02-12 2020-08-20 株式会社ジャパンディスプレイ 表示装置
JP2020134535A (ja) * 2019-02-12 2020-08-31 株式会社ジャパンディスプレイ 表示装置
JP7317517B2 (ja) 2019-02-12 2023-07-31 株式会社ジャパンディスプレイ 表示装置
JP2021067909A (ja) * 2019-10-28 2021-04-30 日本精機株式会社 立体表示装置及びヘッドアップディスプレイ装置
JP7358909B2 (ja) 2019-10-28 2023-10-11 日本精機株式会社 立体表示装置及びヘッドアップディスプレイ装置
DE112022002430T5 (de) 2021-04-30 2024-02-15 Nippon Seiki Co., Ltd. Anzeigesteuervorrichtung, Head-up-Display-Vorrichtung und Anzeigesteuerverfahren

Also Published As

Publication number Publication date
CN109561294A (zh) 2019-04-02
CN109561294B (zh) 2023-09-01
JP7290925B2 (ja) 2023-06-14
US10497169B2 (en) 2019-12-03
KR20190034775A (ko) 2019-04-03
KR102427854B1 (ko) 2022-08-01
EP3461129A1 (en) 2019-03-27
EP3461129B1 (en) 2022-04-27
US20190096121A1 (en) 2019-03-28

Similar Documents

Publication Publication Date Title
JP7290925B2 (ja) 映像レンダリング方法及び装置
JP6886253B2 (ja) 複数のユーザのためのレンダリング方法及び装置
KR101940971B1 (ko) 가속된 라이트 필드 디스플레이
US10573063B2 (en) Content visualizing device and method
CN109309828B (zh) 图像处理方法和图像处理装置
CN108090941B (zh) 三维(3d)图像渲染方法和设备
US10672311B2 (en) Head tracking based depth fusion
KR20140056748A (ko) 영상 처리 방법 및 영상 처리 장치
US11711502B2 (en) Method of outputting three-dimensional image and electronic device performing the method
JP6717576B2 (ja) 映像レンダリング装置及び方法
CN114077306A (zh) 实现内容可视化的装置和方法
JP7358909B2 (ja) 立体表示装置及びヘッドアップディスプレイ装置
US20220072957A1 (en) Method for Depicting a Virtual Element
KR20160025922A (ko) 영상 처리 방법 및 장치
CN108107595B (zh) 三维显示设备
US11778163B2 (en) Device and method to calibrate parallax optical element

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230602

R150 Certificate of patent or registration of utility model

Ref document number: 7290925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150