JP2023099443A - Ar処理方法及び装置 - Google Patents

Ar処理方法及び装置 Download PDF

Info

Publication number
JP2023099443A
JP2023099443A JP2022167314A JP2022167314A JP2023099443A JP 2023099443 A JP2023099443 A JP 2023099443A JP 2022167314 A JP2022167314 A JP 2022167314A JP 2022167314 A JP2022167314 A JP 2022167314A JP 2023099443 A JP2023099443 A JP 2023099443A
Authority
JP
Japan
Prior art keywords
image
virtual object
compensation
target
attenuation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022167314A
Other languages
English (en)
Inventor
仁友 河
Inwoo Ha
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2023099443A publication Critical patent/JP2023099443A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】AR処理方法及び装置が開示される。【解決手段】本方法は、現実世界のターゲット場面に対応する視覚情報がARデバイスのディスプレイ領域を経てユーザに提供されることで、ディスプレイ領域によって発生する視覚情報の光減衰を補償する補償パラメータを決定し、ARデバイスのカメラを用いて現実世界のターゲット場面を撮影して光減衰のない背景映像を生成し、補償パラメータを用いて背景映像の明るさを低減して光減衰を補償する補償映像を生成し、ターゲット場面にオーバーレイする仮想オブジェクト映像を生成し、補償映像及び仮想オブジェクト映像を合成してディスプレイ映像を生成し、ディスプレイ映像をディスプレイ領域に表示するステップを含む。【選択図】図1

Description

本発明は、AR処理方法及び装置に関する。
拡張現実(augmented reality、AR)では、ユーザが見る現実世界(real world)に付加的な情報を有する仮想映像をオーバーレイする。仮想映像は、現実世界の現実オブジェクトに関するコンテンツを含んでもよく、ユーザは、該当コンテンツによって現実世界に関する付加情報を便利に習得することができる。例えば、ARは、グラス(glass)、ゴーグル(goggle)、ヘッドマウントディスプレイ(head mounted display、hmd)形態のデバイスを介して提供され得る。ARデバイスは、一般に、現実世界の背景が映る特性を有する透明又は半透明ディスプレイに対して投射加算(projective addition)方式で仮想映像を表現することができる。
以下の実施形態の目的は、AR処理方法及び装置を提供することにある。
一実施形態によれば、AR処理方法は、現実世界のターゲット場面に対応する視覚情報がARデバイスのディスプレイ領域を経てユーザに提供されることで、前記ディスプレイ領域によって発生する前記視覚情報の光減衰を補償する補償パラメータを決定するステップと、前記ARデバイスのカメラを用いて前記現実世界の前記ターゲット場面を撮影し、前記光減衰のない背景映像を生成するステップと、前記補償パラメータを用いて前記背景映像の明るさを減少させ、前記光減衰を補償する補償映像を生成するステップと、前記ターゲット場面にオーバーレイする仮想オブジェクト映像を生成するステップと、前記補償映像及び前記仮想オブジェクト映像を合成してディスプレイ映像を生成するステップと、前記ディスプレイ映像を前記ディスプレイ領域に表示するステップとを含む。
一実施形態によれば、AR処理装置は、プロセッサと、前記プロセッサで実行可能な命令語を含むメモリと、を含む。前記命令語が前記プロセッサで実行されると、前記プロセッサは、現実世界のターゲット場面に対応する視覚情報がARデバイスのディスプレイ領域を経てユーザに提供されることにより、前記ディスプレイ領域において発生する前記視覚情報の光減衰を補償する補償パラメータを決定し、前記ARデバイスのカメラを用いて前記現実世界の前記ターゲット場面を撮影し、前記光減衰のない背景映像を生成し、前記補償パラメータを用いて前記背景映像の明るさを減少させ、前記光減衰を補償する補償映像を生成し、前記ディスプレイ映像を前記ディスプレイ領域に表示する。
一実施形態によれば、ARデバイスは、現実世界のターゲット場面を撮影するカメラと、ディスプレイ領域にディスプレイ映像を表示するディスプレイと、を含み、前記ターゲット場面に対応する視覚情報が前記ディスプレイ領域を経てユーザに提供されることで、前記ディスプレイ領域によって発生する前記視覚情報の光減衰を補償する補償パラメータを決定し、前記カメラを用いて前記ターゲット場面を撮影し、前記光減衰のない背景映像を生成し、前記補償パラメータを用いて前記背景映像の明るさを低減して前記光減衰を補償する補償映像を生成し、前記ターゲット場面にオーバーレイする仮想オブジェクト映像を生成し、前記補償映像及び前記仮想オブジェクト映像を合成して前記ディスプレイ映像を生成する、プロセッサを含む。
一実施形態によれば、ARグラスは、プロセッサであり、ターゲット場面に対応する視覚情報がARグラスのレンズを介してディスプレイされることに伴う前記レンズによって発生する視覚情報の光減衰を補償するための補償パラメータを決定し、前記ARグラスのカメラを用いて前記ターゲット場面を撮影し、前記光減衰のない背景映像を生成し、前記補償パラメータを用いて背景映像の明るさを低減して補償映像を生成し、前記ターゲット場面にオーバーレイする仮想オブジェクト映像を生成し、前記補償映像と前記仮想オブジェクト映像を合成してディスプレイ映像を生成する、プロセッサと、前記レンズ上に前記ディスプレイ映像を投射する少なくとも1つのプロジェクターと、を含む。
本発明の実施形態によれば、AR処理方法及び装置を提供することができる。
一実施形態に係る光減衰を用いたAR処理動作を示す。 一実施形態に係るディスプレイ映像の生成及び適用動作を示す。 一実施形態に係る仮想オブジェクト映像を導き出す動作を示す。 一実施形態に係る仮想オブジェクト映像を導き出す動作を示す。 一実施形態に係る仮想オブジェクト映像を導き出す動作を示す。 図3~図5に示す動作によって導き出された仮想オブジェクト映像を用いたディスプレイ映像の生成及び適用動作を示す。 一実施形態に係る補償映像とターゲット場面の整合のために補償映像を調整する動作を示す。 一実施形態に係るAR処理方法を示す。 一実施形態に係るAR処理装置の構成を示す。 一実施形態に係るARデバイスの構成及び構造を示す。 一実施形態に係る電子装置の構成を示す。
実施形態に対する特定的な構造的又は機能的な説明は、単なる例示のための目的として開示されたものであって、様々な形態に変更され得る。したがって、実施形態は、特定的な開示形態に限定されるものではなく、本明細書の範囲は、技術的な思想に含まれる変更、均等物ないし代替物を含む。
第1又は第2などの用語を複数の構成要素を説明するために用いることがあるが、このような用語は、1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は、第2構成要素と命名することができ、同様に、第2構成要素は、第1構成要素とも命名することができる。
いずれかの構成要素が他の構成要素に「連結」されているか、または、「接続」されていると言及されたときには、その他の構成要素に直接的に連結されているか又は接続されているが、中間に他の構成要素が存在し得るものと理解されなければならない。
単数の表現は、文脈上、明白に異なる意味をもたない限り、複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は、明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又、はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義されない限り、技術的又は科学的な用語を含んで、ここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈されなければならず、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
以下、添付する図面を参照しながら実施形態を詳細に説明する。各図面に提示された同じ参照符号は、同じ部材を示す。
図1は、一実施形態に係る光減衰を用いたAR処理動作を示す。図1を参照すると、現実世界のターゲット場面110に対応する視覚情報111が、ARデバイス(例えば、図10のARデバイス1000)のディスプレイ領域120を経て、ユーザの目130に提供される。視覚情報111は、光に対応している。ディスプレイ領域120によって視覚情報111に対応する光に減衰(attenuation)が生じる場合があり、視覚情報111は、視覚情報112と共に弱くなる。ここで、減衰は、光を弱化させる他の現像(例えば、散乱、反射など)をさらに含んでよく、または、そのうち少なくとも一部に交替されてよい。例えば、ディスプレイ領域120は、光の少なくとも一部を遮断する半透明素子を含んでもよく、遮断されない残りがディスプレイ領域120を通過しながら、光減衰が生じ得る。例えば、ディスプレイ領域120は、反射機能を介して仮想映像を提供する半透明レンズ、あるいは、ディスプレイ素子を介して仮想映像をディスプレイする半透明ディスプレイであってもよい。
AR処理装置は、暗い色(例えば、影、黒い瞳、黒いヘアーなど)を表現するために光減衰を使用してもよい。AR処理装置は、仮想映像を表現するために投射加算(projective addition)方式を用いてもよいが、投射加算方式は、実際の背景よりも暗い色を表現するのに限界がある。光減衰は、実際の背景を暗くするために、必要に応じて減衰状態を取捨選択して、減衰程度に対応する暗がりを表現できる。実感のあるレンダリングのために、暗い色表現は必須である。特に、影や陰影(shading)は、仮想映像の実感度に大きい影響を与える。
AR処理装置は、光減衰を補償する補償パラメータを決定する。一実施形態によれば、補償パラメータは、ディスプレイ領域120の透過率に基づいて決定されてもよい。例えば、ディスプレイ領域120の透過率が80%であれば、減衰した20%を補償するパラメータ値が決定され得る。他の一実施形態によれば、補償パラメータは、ユーザ設定に応じて決定されてもよい。ユーザがARデバイスを着用した状態で、ディスプレイ領域120を介して、現実世界を見て補償パラメータを調整することができ、ユーザの選択に応じて補償パラメータが決定される。例えば、ユーザが現実世界と最も近接している状態であると感じる補償を提供するパラメータ値が選択されてもよい。これとは異なり、ユーザが好む照度(例えば、サングラスを着用したような暗い程度)に適するパラメータ値が選択されてもよい。このようなユーザ設定は、ARデバイスの初期使用時に実行されるキャリブレーションの手続を介して行われる。
AR処理装置は、弱くなっている状態の視覚情報112を補償する視覚情報121を提供する。視覚情報121は、ディスプレイ領域120のディスプレイ映像によって提供される。ディスプレイ映像は、補償映像及び仮想オブジェクト映像に基づいて生成されてもよい。補償映像は、光減衰を補償することができる。例えば、ディスプレイ領域120によって20%の光が減衰する場合、補償映像が20%の光を補償して、現実のようなレベルの場面が、ユーザの目130に提供され得る。AR処理装置は、ARデバイスのカメラ140を用いて現実世界のターゲット場面を撮影して、光減衰のない背景映像を生成し、補償パラメータを用いて背景映像の明るさを低減して、光減衰を補償する補償映像を生成することができる。AR処理装置は、ターゲット場面にオーバーレイする仮想オブジェクト映像を生成し、補償映像及び仮想オブジェクト映像を合成して、ディスプレイ映像を生成し、ディスプレイ映像をディスプレイ領域120に表示する。
仮想オブジェクト映像は、光減衰を用いて暗い色を表現する減衰領域を含んでもよい。減衰領域は、ディスプレイ領域120による光減衰の少なくとも一部が保持された状態に表現され得る。例えば、減衰領域は、仮想オブジェクト映像の影要素を含んでもよい。AR処理装置は、補償映像で仮想オブジェクト映像の減衰領域の対応領域を決定し、減衰領域のピクセル値に基づいて、前記対応領域のピクセル値を差し引いて、対応領域を表現することができる。AR処理装置は、対応領域の補償値を0に減少させて、暗い色のうち最も暗い色を表現してもよい。例えば、ディスプレイ領域120によって20%の光が減衰する場合、10%に該当する補償値は、5%に該当する補償値に比べて暗くない色を表現し得る。0に該当する補償値は、最も暗い色を表現する。AR処理装置は、このような方式で影要素以外に黒い瞳、黒いヘアーなどの暗い色を表現できる。
暗い色の表現可能な範囲は、ディスプレイ領域120の減衰程度及び補償パラメータに応じて決定されてもよい。例えば、ディスプレイ領域120によって20%の光が減衰するために、補償パラメータ値が20%を全て補償できる補償値の範囲を提供すれば、暗い色は、ディスプレイ領域120によって減衰した20%に該当する表現範囲に表現される。これとは異なり、ディスプレイ領域120によって15%の光が減衰するために、補償パラメータ値が15%を全て補償できる補償値の範囲を提供し、または、ディスプレイ領域120によって20%の光が減衰するために、補償パラメータ値が10%だけ補償できる補償値の範囲を提供する場合、暗い色の表現可能な範囲は変わり得る。
図2は、一実施形態に係るディスプレイ映像の生成及び適用動作を示す。図2を参照すると、現実世界のターゲット場面210は、ARデバイスのディスプレイ領域を介して、観測場面220のように観測される。観測場面220は、光減衰状態に対応する。AR処理装置は、カメラを介してターゲット場面210を撮影して、背景映像(図示せず)を生成し、補償パラメータを用いて背景映像の明るさを低減して、補償映像230を生成することができる。例えば、ターゲット場面210の光量が100%であれば、観測場面220の光量は80%であってもよく、補償映像230の光量は20%であってもよい。そのため、ターゲット場面210の第1パターン211の明るさが150、第2パターン212の明るさが100であれば、補償映像230の第1パターン221の明るさは30、第2パターン222の明るさは20である。補償映像230がディスプレイ領域に表示されれば、ターゲット場面210に類似の場面が観測され得る。
AR処理装置は、ターゲット場面にオーバーレイする仮想オブジェクト映像240を生成する。仮想オブジェクト映像240は、オブジェクト要素241及び影要素242を含む。影要素242は、光減衰を用いて暗い色を表現する減衰領域である。そのため、影要素242は。ディスプレイ領域による光減衰の少なくとも一部が保持された状態に表現されてもよい。AR処理装置は、補償映像230及び仮想オブジェクト映像240を合成して、ディスプレイ映像250を生成し、ディスプレイ映像250をディスプレイ領域に表示する。ディスプレイ映像250によって光減衰が補償されることで、ディスプレイ領域を介して観測場面260が観測され得る。
図3~図5は、一実施形態に係る仮想オブジェクト映像を導き出す動作を示す。図3を参照すると、ターゲット場面310は、現実オブジェクト311を含む。AR処理装置は、ターゲット場面310を撮影して、光減衰のない背景映像320を生成することができる。背景映像320は、現実オブジェクト321を含む。AR処理装置は、初期仮想オブジェクト要素331を決定し、背景映像320と初期仮想オブジェクト要素331を融合して、仮想オブジェクト映像のオブジェクト要素を生成することができる。
AR処理装置は、背景映像320と初期仮想オブジェクト要素331の全てを考慮して、中間結果映像340をレンダリングすることができる。中間結果映像340は、現実オブジェクト344及び初期仮想オブジェクト要素341を含んでもよい。中間結果映像340は、影効果、反射効果、及び相互反射効果のような光源効果を含むことができる。例えば、中間結果映像340は、初期仮想オブジェクト要素341の初期影要素343及び初期仮想オブジェクト要素341と、現実オブジェクト344との間の相互反射要素342を含む。
AR処理装置は、背景映像320と中間結果映像340との間の差に対応する差映像(図示せず)を生成し、差映像にマスク映像350を適用して、差映像から影要素361を抽出することができる。マスク映像350は、差映像からマスクの外部領域に対応する部分を抽出する。AR処理装置は、中間結果映像340から背景映像320を差し引いて、差映像を生成することができる。これにより、影要素361は、マイナスの値を有する。影要素361が補償映像に適用されるとき、影要素361のマイナスの値によって補償映像の補償値が差し引きされる。そのため、減衰領域が形成され得る。
図4は、一実施形態に係るマスク映像を導き出す動作を示す。図4を参照すると、AR処理装置は、初期仮想オブジェクト要素410に対応するマスク420を生成し、マスク420を含むマスク映像421、422を生成する。マスク映像421は、入力映像でマスク420の内部領域に対応する部分を抽出でき、マスク映像422は、入力映像でマスク420の外部領域に対応する部分を抽出することができる。マスク映像421はmaskで示され、マスク映像422はmask-1で示している。図3のマスク映像350は、マスク映像422に対応する。
図5を参照すると、AR処理装置は、マスク映像520を用いて、中間結果映像510からオブジェクト要素を抽出することができる。マスク映像520は、中間結果映像510からマスクの内部領域に対応する部分を抽出することができる。マスク映像520は、図4に示すマスク映像421に対応する。AR処理装置は、オブジェクト要素及び影要素530を結合して、仮想オブジェクト映像550を生成する。影要素530は、図3に示す影要素361に対応する。仮想オブジェクト映像550は、光源効果を含んでもよい。光源効果は、仮想オブジェクト映像550の現実感を向上させ得る。特に、仮想オブジェクト映像550の影要素は、減衰領域を介して、暗い色を表現することができる。
図6は、図5に示す仮想オブジェクト映像を用いた、ディスプレイ映像の生成及び適用動作を示す。図6を参照すると、現実世界のターゲット場面610は、ARデバイスのディスプレイ領域を介して、観測場面620のように観測され得る。観測場面620は、光減衰状態に対応する。AR処理装置は、カメラを介してターゲット場面610を撮影して、背景映像(図示せず)を生成し、補償パラメータを用いて背景映像の明るさを低減し、補償映像630を生成する。
AR処理装置は、ターゲット場面にオーバーレイする仮想オブジェクト映像640を生成する。仮想オブジェクト映像640は、オブジェクト要素以外に、オブジェクト要素の相互反射要素及び影要素のような光源効果を含んでもよい。AR処理装置は、補償映像630及び仮想オブジェクト映像640を合成して、ディスプレイ映像650を生成する。仮想オブジェクト映像640の減衰領域(例えば、影要素)は、マイナスの値を有する。AR処理装置は、補償映像630で仮想オブジェクト映像640の減衰領域の対応領域を決定し、減衰領域のピクセル値に基づいて、対応領域のピクセル値を差し引いて、対応領域を表現し得る。対応領域の補償値が0になると、該当領域は、最も暗い色を表現する。
AR処理装置は、ディスプレイ映像650をディスプレイ領域に表示する。ディスプレイ映像650によって光減衰が補償され、ディスプレイ領域を介して、観測場面660が観測され得る。ここで、ディスプレイ映像650の減衰領域に対応する観測場面660の部分で光減衰が少なく補償され、または、少なく補償されなくてもよく、該当部分でディスプレイ領域による光減衰の少なくとも一部が保持されることで、該当部分に暗い色が表現され得る。
図7は、一実施形態に係る補償映像およびターゲット場面の整合のために補償映像を調整する動作を示す。AR処理装置は、3次元特性を考慮しないまま補償映像を表現してもよく、場面整合を行うことで、ナチュラルに補償効果を向上させることができる。ディスプレイ映像で現実世界のターゲット場面に対応する補償映像が該当ターゲット場面に円満に整合するほど、補償効果がより自然に示される。例えば、図2において背景映像230の第1パターン221は、ターゲット場面210の第1パターン211に重なって表現され、背景映像230の第2パターン222は、ターゲット場面210の第2パターン212に重なって表現されるときに、補償効果がナチュラルに示される。
AR処理装置は、ARデバイスから補償映像のターゲット領域701までのターゲット深度(Z)を決定し、カメラの撮影視点720とユーザの観測視点710との間の差に基づいて、キャリブレーション情報を決定し、ターゲット深度(Z)及びキャリブレーション情報に基づいて、ターゲット領域701に関する撮影視点720の映像721を観測視点710の映像722に変換する変換情報を決定することができる。例えば、キャリブレーション情報は、ベースライン(B)に関する情報を含んでもよい。キャリブレーション情報は、ARデバイスの初期使用時に実行されるキャリブレーションの手続を介して生成されてもよい。変換情報は、映像721、722のマッチング対の間のディスパリティ(disparity)情報を含んでもよい。
AR処理装置は、様々な方式で深度情報を決定することができる。一実施形態によれば、AR処理装置は、ターゲット場面で仮想オブジェクト映像を表示しようとするオブジェクト位置情報を取得し、オブジェクト位置情報に基づいて、ターゲット深度を決定してもよい。ディスプレイ映像をレンダリングする視点に仮想オブジェクト映像のオブジェクト表示位置がすでに決定されてもよい。オブジェクト表示位置は、現実世界の位置を特定し、オブジェクト表示位置を介して、深度情報が特定され得る。例えば、オブジェクト表示位置がAR処理装置から3メートル離れている場合、3メートルを深度情報として用いて、変換情報を生成することができる。
他の一実施形態によれば、AR処理装置は、ターゲット領域に対応するターゲット平面を推定して、ターゲット平面情報を決定し、ターゲット平面情報に基づいて、ターゲット深度を決定することができる。AR処理装置は、補償映像に基づいて、平面推定を実行し、補償映像内で少なくとも1つの平面の平面情報を決定することができる。平面情報を介して深度情報が特定されてもよい。補償映像から複数の平面が推定される場合、AR処理装置は、複数の平面のうち、仮想オブジェクトに関する一部についてのみ変換情報を決定し、該当の一部についてのみ再投射を行ってもよい。
更なる実施形態によれば、AR処理装置は、ターゲット領域に対応する空間情報を推定して、ターゲット空間情報を決定し、ターゲット空間情報に基づいて、ターゲット深度を決定することができる。AR処理装置は、SLAM(simultaneous localization and mapping)のような空間推定方式で希薄なマップポイントを推定し、マップポイント間の補間を行って、ターゲット領域の空間情報を推定することができる。これとは異なり、AR処理装置は、SLAMよりも稠密(dense)なマップポイントを有するボリューム基盤の空間モデルを推定して、ターゲット領域の空間情報を推定してもよい。
AR処理装置は、変換情報を用いて補償映像を調整することができる。AR処理装置は、補償映像のターゲット領域701と関連して、映像721を映像722に再投射(reprojection)して補償映像を調整してもよい。再投射は、ワーピング(warping)を含んでもよい。
図8は、一実施形態に係るAR処理方法を示す。図8を参照すると、ステップS810において、AR処理装置は、現実世界のターゲット場面に対応する視覚情報がARデバイスのディスプレイ領域を経てユーザに提供されることで、前記ディスプレイ領域によって発生する視覚情報の光減衰を補償する補償パラメータを決定する。
ステップS820において、AR処理装置は、ARデバイスのカメラを用いて現実世界のターゲット場面を撮影し、光減衰のない背景映像を生成する。ステップS830において、AR処理装置は、補償パラメータを用いて背景映像の明るさを低減して、光減衰を補償する補償映像を生成する。
AR処理装置は、補償映像とターゲット場面が整合である状態で、ユーザによって観測されるように補償映像を調整することができる。AR処理装置は、ARデバイスから補償映像のターゲット領域までのターゲット深度を決定し、カメラの撮影視点とユーザの観測視点との間の差に基づいて、キャリブレーション情報を決定し、ターゲット深度及びキャリブレーション情報に基づいて、ターゲット領域に関する撮影視点の映像を観測視点の映像に変換する変換情報を決定し、変換情報を用いて、補償映像を調整することができる。
AR処理装置は、ターゲット場面で仮想オブジェクト映像を表示しようとするオブジェクト位置情報を取得し、オブジェクト位置情報に基づいて、ターゲット深度を決定する。AR処理装置は、ターゲット領域に対応するターゲット平面を推定して、ターゲット平面情報を決定し、ターゲット平面情報に基づいて、ターゲット深度を決定する。AR処理装置は、ターゲット領域に対応する空間情報を推定して、ターゲット空間情報を決定し、ターゲット空間情報に基づいて、ターゲット深度を決定することができる。
ステップS840において、AR処理装置は、ターゲット場面にオーバーレイする仮想オブジェクト映像を生成する。仮想オブジェクト映像は、光減衰を用いて暗い色を表現する減衰領域を含んでもよい。仮想オブジェクト映像の減衰領域は、ディスプレイ領域による光減衰の少なくとも一部が保持された状態に表現されてもよい。例えば、仮想オブジェクト映像の減衰領域は、仮想オブジェクト映像の影要素を含んでもよい。
仮想オブジェクト映像は、オブジェクト要素及び影要素を含んでもよい。AR処理装置は、背景映像と初期仮想オブジェクト要素を融合してオブジェクト要素を生成し、背景映像と中間結果映像との間の差に基づいて影要素を生成し、オブジェクト要素及び影要素を結合して、仮想オブジェクト映像を生成することができる。
AR処理装置は、初期仮想オブジェクト要素に対応するマスクを含むマスク映像を生成することができる。AR処理装置は、背景映像および初期仮想オブジェクト要素を融合して、オブジェクト要素を含む中間結果映像を生成し、マスク映像のうちマスクの内部領域を用いて、中間結果映像からオブジェクト要素を抽出する。AR処理装置は、背景映像と中間結果映像との間の差に該当する差映像を生成し、マスク映像のうちマスクの外部領域を用いて、差映像から影要素を抽出することができる。
ステップS850において、AR処理装置は、補償映像及び仮想オブジェクト映像を合成して、ディスプレイ映像を生成する。AR処理装置は、補償映像で仮想オブジェクト映像の減衰領域の対応領域を決定し、減衰領域のピクセル値に基づいて、対応領域のピクセル値を差し引いて、対応領域を表現する。AR処理装置は、対応領域の補償値を0に減少させて、暗い色のうち、最も暗い色を表現し得る。
ステップS860において、AR処理装置は、ディスプレイ映像をディスプレイ領域に表示する。その他に、AR処理方法には、図1~図7及び図9~図11の説明が適用され得る。
図9は、一実施形態に係るAR処理装置の構成を示す。図9を参照すると、AR処理装置900は、プロセッサ910及びメモリ920を含む。メモリ920は、プロセッサ910に接続され、プロセッサ910によって実行可能な命令語、プロセッサ910が演算するデータ又はプロセッサ910によって処理されたデータを格納する。メモリ920は、非一時的なコンピュータで読み出し可能な記録媒体、例えば、高速ランダムアクセスメモリ及び/又は非揮発性コンピュータで読み出し可能格納媒体(例えば、1つ以上のディスクストレージ装置、フラッシュメモリ装置、又は、その他の非揮発性固体メモリ装置)を含んでもよい。
プロセッサ910は、図1~図8、図10及び図11に示す動作を行うための命令語を実行する。例えば、プロセッサ910は、現実世界のターゲット場面に対応する視覚情報がARデバイスのディスプレイ領域を経てユーザに提供されることで、ディスプレイ領域によって発生する視覚情報の光減衰を補償する補償パラメータを決定し、ARデバイスのカメラを用いて現実世界のターゲット場面を撮影して光減衰のない背景映像を生成し、補償パラメータを用いて背景映像の明るさを低減して光減衰を補償する補償映像を生成し、ターゲット場面にオーバーレイする仮想オブジェクト映像を生成し、補償映像及び仮想オブジェクト映像を合成してディスプレイ映像を生成し、ディスプレイ映像をディスプレイ領域に表示することができる。その他に、AR処理装置900には、図1~図8、図10及び図11の説明が適用され得る。
図10は、一実施形態に係るARデバイスの構成及び構造を示す。図10を参照すると、ARデバイス1000は、ARデバイス1000のブリッジに配置されるモノカメラ1033及び/又はARデバイス1000のそれぞれの端部(end piece)に配置されるステレオカメラ1031、1032を用いて背景映像を生成し、ディスプレイ領域1011、1012を介してディスプレイ映像を提供することができる。ディスプレイ領域1011、1012は、反射機能を介してディスプレイ映像を提供する半透明レンズ、あるいはディスプレイ素子を介してディスプレイ映像をディスプレイする半透明ディスプレイであってもよい。ディスプレイ領域1011、1012が半透明レンズである場合、ARデバイス1000のそれぞれのこめかみ(temple)に配置されているプロジェクター1021、1022を介してディスプレイ映像がディスプレイ領域1011、1012に投影され得る。ARデバイス1000は、図10に明示的に示された構成の他にも、図9に示すAR処理装置900、図11に示す電子装置1100、及びこの構成要素のうち少なくとも一部のような追加構成をさらに含んでもよい。
図11は、一実施形態に係る電子装置の構成を示す。図11を参照すると、電子装置1100は、プロセッサ1110、メモリ1120、カメラ1130、ストレージ装置1140、入力装置1150、出力装置1160、及びネットワークインターフェース1170を含み、これらは、通信バス1180を介して通信することができる。例えば、電子装置1100は、移動電話、スマートフォン、PDA、ネットブック、タブレットコンピュータ、ラップトップコンピュータなどのようなモバイル装置、スマートウォッチ、スマートバンド、スマートメガネ(例えば、ARグラス、ARゴーグル、AR HMD)などのようなウェアラブルデバイス、デスクトップ、サーバなどのようなコンピューティング装置、テレビ、スマートテレビ、冷蔵庫、スマート冷蔵庫などのような家電製品、ドアラック、セキュリティーキオスクなどのようなセキュリティー装置、自律走行車両、スマート車両などのような車両、の少なくとも一部として実現することができる。電子装置1100は、AR処理装置900を構造的及び/又は機能的に含み得る。
プロセッサ1110は、電子装置1100内で実行するための機能及び命令語を実行する。例えば、プロセッサ1110は、メモリ1120又はストレージ装置1140に格納された命令語を処理する。プロセッサ1110は、図1~図10を参照して説明された1つ以上の動作を行ってもよい。メモリ1120は、コンピュータで読み出し可能な格納媒体又はコンピュータで読み出し可能なストレージ装置を含んでもよい。メモリ1120は、プロセッサ1110によって実行するための命令語を格納し、電子装置1100によりソフトウェア及び/又はアプリケーションが実行される間に関連情報を格納することができる。
カメラ1130は、写真及び/又はビデオを撮影する。ストレージ装置1140は、コンピュータで読み出し可能な格納媒体又はコンピュータで読み出し可能なストレージ装置を含む。ストレージ装置1140は、メモリ1120よりもさらに多い量の情報を格納し、情報を長期間格納することができる。例えば、ストレージ装置1140は、磁気ハードディスク、光ディスク、フラッシュメモリ、フロッピー(登録商標)ディスク、又はこの技術分野で知られた他の形態の不揮発性メモリ、を含んでもよい。
入力装置1150は、キーボード及びマウスを通した伝統的な入力方式、及びタッチ入力、音声入力、及びイメージ入力のような新しい入力方式を介して、ユーザから入力を受信することができる。例えば、入力装置1150は、キーボード、マウス、タッチスクリーン、マイクロホン、又は、ユーザから入力を検出し、検出された入力を電子装置1100に伝達できる任意の他の装置を含んでもよい。出力装置1160は、視覚的、聴覚的、又は触覚的なチャネルを介して、ユーザに電子装置1100の出力を提供することができる。出力装置1160は、例えば、ディスプレイ、タッチスクリーン、スピーカ、振動発生装置、又はユーザに出力を提供できる任意の他の装置、を含んでもよい。ネットワークインターフェース1170は、有線又は無線ネットワークを介して、外部装置と通信できる。
以上で説明された実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組み合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答して、データをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当技術分野で通常の知識を有する者であれば、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことを把握するだろう。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの一つ以上の組合せを含み、希望の通りに動作するよう処理装置を構成し、または、独立的又は結合的に処理装置に命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈され、または、処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、もしくは、送信される信号波に、永久的又は一時的に具体化することができる。ソフトウェアは、ネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納され、または、実行され得る。ソフトウェア及びデータは、一つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例として、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような光磁気媒体、及び、ROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置、を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。
上記で説明したハードウェア装置は、本発明に示す動作を実行するために、1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述のように、実施形態は限定された図面によって説明されてきたが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて、様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が、説明された方法と異なる順に実行され、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態に結合又は組み合わせられてもよく、他の構成要素又は均等物によって置換されたとしても適切な結果を達成することができる。
したがって、他の具現、他の実施形態、および特許請求の範囲と均等なものも、後述する特許請求範囲の範囲に属する。
110 ターゲット場面
120 ディスプレイ領域
130 ユーザの目
140 カメラ
210 ターゲット場面
220 観測場面
230 補償映像
310 ターゲット場面
320 背景映像
340 中間結果映像
701 ターゲット領域
900 AR処理装置
1000 ARデバイス
1100 電子装置

Claims (24)

  1. 現実世界のターゲット場面に対応する視覚情報がARデバイスのディスプレイ領域を経てユーザに提供されることにより、前記ディスプレイ領域において発生する前記視覚情報の光減衰を補償する補償パラメータを決定するステップと、
    前記ARデバイスのカメラを用いて、前記現実世界の前記ターゲット場面を撮影し、前記光減衰のない背景映像を生成するステップと、
    前記補償パラメータを用いて、前記背景映像の明るさを減少させ、前記光減衰を補償する補償映像を生成するステップと、
    前記ターゲット場面にオーバーレイする仮想オブジェクト映像を生成するステップと、
    前記補償映像及び前記仮想オブジェクト映像を合成して、ディスプレイ映像を生成するステップと、
    前記ディスプレイ映像を前記ディスプレイ領域に表示するステップと、
    を含む、AR処理方法。
  2. 前記仮想オブジェクト映像は、前記光減衰を用いて暗い色を表現する減衰領域を含む、
    請求項1に記載のAR処理方法。
  3. 前記仮想オブジェクト映像の前記減衰領域は、前記ディスプレイ領域による前記光減衰の少なくとも一部が保持された状態に表現される、
    請求項2に記載のAR処理方法。
  4. 前記仮想オブジェクト映像の前記減衰領域は、前記仮想オブジェクト映像の影、黒い瞳、及び黒いヘアーのうち少なくとも一部を含む、
    請求項2に記載のAR処理方法。
  5. 前記ディスプレイ映像を生成する前記ステップは、
    前記補償映像において前記仮想オブジェクト映像の前記減衰領域の対応領域を決定するステップと、
    前記減衰領域のピクセル値に基づいて、前記対応領域のピクセル値を差し引いて、前記対応領域を表現するステップと、
    を含む、請求項2に記載のAR処理方法。
  6. 前記対応領域を表現するステップは、前記対応領域の補償値を0に減少させて、前記暗い色のうち最も暗い色を表現するステップ、を含む、
    請求項5に記載のAR処理方法。
  7. 前記仮想オブジェクト映像は、オブジェクト要素及び影要素を含み、
    前記仮想オブジェクト映像を生成する前記ステップは、
    前記背景映像と初期仮想オブジェクト要素を融合して、前記オブジェクト要素を生成するステップと、
    前記背景映像と中間結果映像との間の差に基づいて、前記影要素を生成するステップと、
    前記オブジェクト要素及び前記影要素を結合して、前記仮想オブジェクト映像を生成するステップと、
    を含む、請求項1に記載のAR処理方法。
  8. 前記仮想オブジェクト映像を生成する前記ステップは、さらに、前記初期仮想オブジェクト要素に対応するマスクを含むマスク映像を生成するステップ、を含み、
    前記オブジェクト要素を生成する前記ステップは、
    前記背景映像と初期仮想オブジェクト要素を融合して、前記オブジェクト要素を含む中間結果映像を生成するステップと、
    前記マスク映像のうち、前記マスクの内部領域を用いて前記中間結果映像から前記オブジェクト要素を抽出するステップと、
    を含む、請求項7に記載のAR処理方法。
  9. 前記仮想オブジェクト映像を生成する前記ステップは、さらに、前記初期仮想オブジェクト要素に対応するマスクを含むマスク映像を生成するステップ、を含み、
    前記影要素を生成する前記ステップは、
    前記背景映像と前記中間結果映像との間の差に該当する差映像を生成するステップと、
    前記マスク映像のうち、前記マスクの外部領域を用いて、前記差映像から前記影要素を抽出するステップと、
    を含む、請求項7に記載のAR処理方法。
  10. 前記AR処理方法は、さらに、
    前記補償映像と前記ターゲット場面が整合された状態で前記ユーザによって観測されるように前記補償映像を調整するステップ、を含む、
    請求項1に記載のAR処理方法。
  11. 前記補償映像を調整する前記ステップは、
    前記ARデバイスから前記補償映像のターゲット領域までのターゲット深度を決定するステップと、
    前記カメラの撮影視点と前記ユーザの観測視点との間の差に基づいて、キャリブレーション情報を決定するステップと、
    前記ターゲット深度及び前記キャリブレーション情報に基づいて、前記ターゲット領域に関する前記撮影視点の映像を前記観測視点の映像に変換する、変換情報を決定するステップと、
    前記変換情報を用いて、前記補償映像を調整するステップと、
    を含む、請求項10に記載のAR処理方法。
  12. 前記ターゲット深度を決定する前記ステップは、
    前記ターゲット場面で前記仮想オブジェクト映像を表示しようとするオブジェクト位置情報を取得するステップと、
    前記オブジェクト位置情報に基づいて、前記ターゲット深度を決定するステップと、
    を含む、請求項11に記載のAR処理方法。
  13. 前記ターゲット深度を決定する前記ステップは、
    前記ターゲット領域に対応するターゲット平面を推定して、ターゲット平面情報を決定するステップと、
    前記ターゲット平面情報に基づいて、前記ターゲット深度を決定するステップと、
    を含む、請求項11に記載のAR処理方法。
  14. 前記ターゲット深度を決定する前記ステップは、
    前記ターゲット領域に対応する空間情報を推定して、ターゲット空間情報を決定するステップと、
    前記ターゲット空間情報に基づいて、前記ターゲット深度を決定するステップと、
    を含む、請求項11に記載のAR処理方法。
  15. コンピュータで読み出し可能な記録媒体に格納されたコンピュータプログラムであって、
    プロセッサによって実行されると、前記コンピュータに請求項1~請求項14のいずれか一項に記載の方法を実行させる、
    コンピュータプログラム。
  16. プロセッサと、
    前記プロセッサで実行可能な命令語を含むメモリと、
    を含み、
    前記命令語が前記プロセッサで実行されると、前記プロセッサは、
    現実世界のターゲット場面に対応する視覚情報がARデバイスのディスプレイ領域を経てユーザに提供されることにより、前記ディスプレイ領域によって発生する前記視覚情報の光減衰を補償する補償パラメータを決定し、
    前記ARデバイスのカメラを用いて、前記現実世界の前記ターゲット場面を撮影し、前記光減衰のない背景映像を生成し、
    前記補償パラメータを用いて、前記背景映像の明るさを減少させ、前記光減衰を補償する補償映像を生成し、
    ディスプレイ映像を前記ディスプレイ領域に表示する、
    AR処理装置。
  17. 仮想オブジェクト映像は、前記光減衰を用いて暗い色を表現する減衰領域を含み、
    前記ディスプレイ領域による前記光減衰の少なくとも一部が保持された状態に表現される、
    請求項16に記載のAR処理装置。
  18. 前記プロセッサは、
    前記補償映像で前記仮想オブジェクト映像の前記減衰領域の対応領域を決定し、
    前記減衰領域のピクセル値に基づいて、前記対応領域のピクセル値を差し引いて、前記対応領域を表現する、
    請求項17に記載のAR処理装置。
  19. 現実世界のターゲット場面を撮影するカメラと、
    ディスプレイ領域にディスプレイ映像を表示するディスプレイと、
    を含み、
    前記ターゲット場面に対応する視覚情報が前記ディスプレイ領域を経てユーザに提供されることで、前記ディスプレイ領域によって発生する前記視覚情報の光減衰を補償する補償パラメータを決定し、
    前記カメラを用いて、前記ターゲット場面を撮影し、前記光減衰のない背景映像を生成し、
    前記補償パラメータを用いて、前記背景映像の明るさを低減して、前記光減衰を補償する補償映像を生成し、
    前記ターゲット場面にオーバーレイする仮想オブジェクト映像を生成し、
    前記補償映像及び前記仮想オブジェクト映像を合成して、前記ディスプレイ映像を生成する、
    プロセッサ、を含む、
    ARデバイス。
  20. 前記仮想オブジェクト映像は、前記光減衰を用いて暗い色を表現する減衰領域を含み、
    前記プロセッサは、前記補償映像で前記仮想オブジェクト映像の前記減衰領域の対応領域を決定し、
    前記減衰領域のピクセル値に基づいて、前記対応領域のピクセル値を差し引いて前記対応領域を表現する、請求項19に記載のARデバイス。
  21. プロセッサであり、
    ターゲット場面に対応する視覚情報がARグラスのレンズを介してディスプレイされることに伴う前記レンズによって発生する視覚情報の光減衰を補償するための補償パラメータを決定し、
    前記ARグラスのカメラを用いて前記ターゲット場面を撮影し、前記光減衰のない背景映像を生成し、
    前記補償パラメータを用いて背景映像の明るさを低減して補償映像を生成し、
    前記ターゲット場面にオーバーレイする仮想オブジェクト映像を生成し、
    前記補償映像と前記仮想オブジェクト映像を合成してディスプレイ映像を生成する、
    プロセッサと、
    前記レンズ上に前記ディスプレイ映像を投射する少なくとも1つのプロジェクターと、
    を含む、ARグラス。
  22. 前記少なくとも1つのプロジェクターは、ARグラスのそれぞれのこめかみにそれぞれ配置される2つのプロジェクターを含み、
    それぞれのプロジェクターは、前記レンズのそれぞれのレンズに前記ディスプレイ映像を投射する、
    請求項21に記載のARグラス。
  23. 前記カメラは、前記ARグラスのブリッジに配置され、
    前記プロセッサは、
    ARグラスから前記補償映像のターゲット領域までのターゲット深度を決定し、
    前記カメラの撮影視点と前記レンズの観測視点との間の差に基づいて、キャリブレーション情報を決定し、
    前記ターゲット深度及び前記キャリブレーション情報に基づいて、前記ターゲット領域に関する前記撮影視点の映像を前記観測視点の映像に変換する、変換情報を決定し、
    前記変換情報を用いて前記補償映像を調整する、
    請求項21に記載のARグラス。
  24. 前記仮想オブジェクト映像は、さらに、光源効果及び仮想オブジェクトの影を含む、
    請求項21に記載のARグラス。
JP2022167314A 2021-12-31 2022-10-19 Ar処理方法及び装置 Pending JP2023099443A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210194242A KR20230103379A (ko) 2021-12-31 2021-12-31 Ar 처리 방법 및 장치
KR10-2021-0194242 2021-12-31

Publications (1)

Publication Number Publication Date
JP2023099443A true JP2023099443A (ja) 2023-07-13

Family

ID=83283069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022167314A Pending JP2023099443A (ja) 2021-12-31 2022-10-19 Ar処理方法及び装置

Country Status (5)

Country Link
US (2) US11900553B2 (ja)
EP (1) EP4207086A1 (ja)
JP (1) JP2023099443A (ja)
KR (1) KR20230103379A (ja)
CN (1) CN116416415A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11922467B2 (en) * 2020-08-17 2024-03-05 ecoATM, Inc. Evaluating an electronic device using optical character recognition

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3164530C (en) 2011-10-28 2023-09-19 Magic Leap, Inc. System and method for augmented and virtual reality
KR102116697B1 (ko) 2011-11-23 2020-05-29 매직 립, 인코포레이티드 3차원 가상 및 증강 현실 디스플레이 시스템
KR102318391B1 (ko) 2013-03-15 2021-10-26 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
US9652892B2 (en) * 2013-10-29 2017-05-16 Microsoft Technology Licensing, Llc Mixed reality spotlight
CN107315249B (zh) 2013-11-27 2021-08-17 奇跃公司 虚拟和增强现实系统与方法
CN106133796B (zh) 2014-03-25 2019-07-16 苹果公司 用于在真实环境的视图中表示虚拟对象的方法和系统
WO2017015507A1 (en) 2015-07-21 2017-01-26 Dolby Laboratories Licensing Corporation Surround ambient light sensing, processing and adjustment
KR102180060B1 (ko) * 2016-03-15 2020-11-17 매직 립, 인코포레이티드 증강 현실 시스템에 대한 직접 광 보상 기법
CN109074680A (zh) 2016-04-14 2018-12-21 英特吉姆公司股份有限公司 基于通信的增强现实中实时图像和信号处理方法和系统
US10134198B2 (en) 2016-04-19 2018-11-20 Adobe Systems Incorporated Image compensation for an occluding direct-view augmented reality system
US11302041B2 (en) 2017-01-13 2022-04-12 Teledyne Flir, Llc High visibility overlay systems and methods
KR101873839B1 (ko) 2017-09-22 2018-07-04 한국해양과학기술원 수중건설 로봇의 증강현실 표시 시스템 및 표시 방법
KR102558106B1 (ko) 2018-05-30 2023-07-21 엘지디스플레이 주식회사 디스플레이 패널, 디스플레이 장치 및 가상 현실/증강 현실 장치
KR20200095985A (ko) 2019-02-01 2020-08-11 주식회사 피앤씨솔루션 변색렌즈 및 조도센서를 이용한 머리 착용형 디스플레이 장치
US10847117B1 (en) 2019-05-13 2020-11-24 Adobe Inc. Controlling an augmented reality display with transparency control using multiple sets of video buffers
US10529300B1 (en) 2019-06-20 2020-01-07 Capital One Services, Llc Adaptive image display based on colorspace conversions
US11423621B1 (en) * 2020-05-21 2022-08-23 Facebook Technologies, Llc. Adaptive rendering in artificial reality environments
CN112506797B (zh) 2020-12-22 2022-05-24 南京航空航天大学 一种针对医学影像识别系统的性能测试方法

Also Published As

Publication number Publication date
US20230215109A1 (en) 2023-07-06
US20240135657A1 (en) 2024-04-25
US11900553B2 (en) 2024-02-13
CN116416415A (zh) 2023-07-11
EP4207086A1 (en) 2023-07-05
KR20230103379A (ko) 2023-07-07

Similar Documents

Publication Publication Date Title
JP6759371B2 (ja) 3dプレノプティックビデオ画像を作成するためのシステムおよび方法
WO2021208648A1 (zh) 虚拟对象调整方法、装置、存储介质与增强现实设备
US11978175B2 (en) Mixed reality system with color virtual content warping and method of generating virtual content using same
US10204452B2 (en) Apparatus and method for providing augmented reality-based realistic experience
US9916517B2 (en) Image processing method and apparatus
US10964119B2 (en) Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
US20180158246A1 (en) Method and system of providing user facial displays in virtual or augmented reality for face occluding head mounted displays
US9311751B2 (en) Display of shadows via see-through display
US20140176591A1 (en) Low-latency fusing of color image data
US10482666B2 (en) Display control methods and apparatuses
US10171785B2 (en) Color balancing based on reference points
US11720996B2 (en) Camera-based transparent display
US11792531B2 (en) Gaze-based exposure
JP2019510991A (ja) 適応焦点面を有して仮想現実をレンダリングする構成
US11922602B2 (en) Virtual, augmented, and mixed reality systems and methods
JP2023099443A (ja) Ar処理方法及び装置
US20230106679A1 (en) Image Processing Systems and Methods
KR20170044319A (ko) 헤드 마운트 디스플레이의 시야 확장 방법
US11170578B1 (en) Occlusion detection
KR20230111088A (ko) 광학 투과형 디스플레이 장치 및 그에 있어서의 영상 합성 방법
KR20210036292A (ko) 증강 현실 디바이스들에 대한 최적의 휘도 매핑
CN116414230A (zh) 用于确定当前注视方向的方法和系统