JP6837279B2 - 3d表示のための装置及び方法 - Google Patents

3d表示のための装置及び方法 Download PDF

Info

Publication number
JP6837279B2
JP6837279B2 JP2015238715A JP2015238715A JP6837279B2 JP 6837279 B2 JP6837279 B2 JP 6837279B2 JP 2015238715 A JP2015238715 A JP 2015238715A JP 2015238715 A JP2015238715 A JP 2015238715A JP 6837279 B2 JP6837279 B2 JP 6837279B2
Authority
JP
Japan
Prior art keywords
position information
user
eye
time point
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015238715A
Other languages
English (en)
Other versions
JP2016116221A (ja
Inventor
柄 敏 姜
柄 敏 姜
珍 九 許
珍 九 許
東 ▲きょん▼ 南
東 ▲きょん▼ 南
碩 李
碩 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2016116221A publication Critical patent/JP2016116221A/ja
Application granted granted Critical
Publication of JP6837279B2 publication Critical patent/JP6837279B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

本明細書に記載された様々な実施形態は、目の位置を追跡することに基づく3Dディスプレイ等に関する。
近年、2Dディスプレイに比べてイメージを写実的に表現する3D表示技術が脚光を浴びている。様々な3D表示方式の中に、視標追跡(eye−tracking)ベースの裸眼3D表示方式がある。視標追跡ベースの裸眼3Dディスプレイは、ユーザの目の位置を検出して、3D映像を構成する左視点の映像と右視点の映像とをユーザの左目と右目のそれぞれに出力する表示方式である。視標追跡ベースの裸眼3Dディスプレイは、ユーザの目の位置に映像を正確に出力することが重要である。したがって、映像を出力する視点でユーザの目の位置を正確に把握することが要求される。
本発明の目的は、目の位置を追跡することに基づく3Dディスプレイのための装置及び方法を提供することにある。
一側面によると、3D表示装置は、ユーザの目の位置情報を決定する目位置追跡部と、サンプリング時間区間又はサンプリング時間間隔(sample time interval)の間の前記位置情報の変化量に基づいて目標時点(target time)における前記ユーザの目の予測位置情報を生成する目位置予測部と、前記予測位置情報により、3Dイメージをレンダリングするイメージ処理部とを含む。
前記目位置予測部は、前記サンプリング時間区間の間の前記位置情報の加重平均と前記目標時点の位置情報との合計に基づいて前記目標時点の前記予測位置情報を生成してもよい。
前記目位置予測部は、位置情報の変化量に関する加重平均値を算出して、前記加重平均値に基づいて前記予測位置情報を生成してもよい。
前記目位置予測部は、前記位置情報の変化量に加重値を付与するが、前記加重値は、前記サンプリング時間区間内における前記目標時点に近いほど大きい値を有してもよい。
前記加重値は、前記目標時点で最大値を有する正規分布に基づいて決定されてもよい。
前記予測位置情報は、前記位置情報の変化量に基づいて生成された1次予測位置情報及び前記1次予測位置情報の変化量に基づいて生成された2次予測位置情報を含んでもよい。
前記イメージ処理部は、前記2次予測位置情報により、前記3Dイメージをレンダリングしてもよい。
前記目位置予測部は、前記サンプリング時間区間の間のユーザの目の位置情報を格納する格納部を含んでもよく、前記格納部は、新しい位置情報が受信されるものに対応して、前記格納部にすでに格納された位置情報をシフトし、前記新しい位置情報を前記格納部に格納してもよい。
前記イメージ処理部は、前記格納部に格納された位置情報の量が予め決められた基準以下であるものに対応し、前記目標時点の位置情報に対応する3Dイメージをレンダリングしてもよい。
前記目位置追跡部は、ユーザのイメージに基づいて前記位置情報を決定してもよい。
一側面によると、目位置予測の装置は、サンプリング時間区間の間のユーザの目の位置情報を格納する格納部と、前記位置情報の変化量に関する加重平均値を算出する演算部と、前記加重平均値に基づいて目標時点のユーザの目の予測位置情報を生成する予測部とを含む。
前記演算部は、前記サンプリング時間区間の予測位置情報の変化量に関する第2加重平均値(the second weighted average value)を算出し、前記予測部は、前記第2加重平均値に基づいて前記目標時点のユーザの目の2次予測位置情報を生成する。
前記演算部は、前記位置情報の変化量に加重値を付与するが、前記加重値は、前記サンプリング時間区間内における前記目標時点に近いほど大きい値を有してもよい。
前記予測部は、前記サンプリング時間区間の間の前記位置情報の加重平均と前記目標時点の位置情報との合計に基づいて前記目標時点の前記予測位置情報を生成してもよい。
前記格納部は、新しい位置情報が受信されるものに対応して、前記格納部にすでに格納された位置情報をシフトし、前記新しい位置情報を前記格納部に格納する。
一側面によると、目位置予測の方法は、サンプリング時間区間の間のユーザの目の位置情報を受信するステップと、前記位置情報の変化量に関する加重平均値を算出するステップと、前記加重平均値に基づいて目標時点のユーザの目の予測位置情報を生成するステップとを含む。
前記目位置予測の方法は、前記サンプリング時間区間の予測位置情報の変化量に関する第2加重平均値を算出するステップと、前記第2加重平均値に基づいて前記目標時点のユーザの目の2次予測位置情報を生成するステップとをさらに含んでもよい。
前記位置情報の変化量に関する加重平均値を算出するステップは、前記位置情報の変化量に加重値を付与するステップを含んでもよく、前記加重値は、前記サンプリング時間区間内における前記目標時点に近いほど大きい値を有してもよい。
検出された目の位置に対するレンダリングと、予測された目の位置に対するレンダリングとを説明するための図である。 検出された目の位置に対するレンダリングと、予測された目の位置に対するレンダリングとを説明するための図である。 一実施形態に係る3D表示装置を示すブロック図である。 一実施形態に係る目位置予測部を示すブロック図である。 一実施形態に係る格納部の格納過程を説明するための図である。 一実施形態に係る格納部の格納過程を説明するための図である。 一実施形態に係る格納部の格納過程を説明するための図である。 一実施形態に係る1次予測位置情報を生成する過程を説明するための図である。 一実施形態に係る2次予測位置情報を生成する過程を説明するための図である。 一実施形態に係る3Dイメージ生成方法を示すフローチャートである。 一実施形態に係る目位置予測の方法を示すフローチャートである。
以下、添付する図面を参照しながら実施形態を詳細に説明する。各図面に提示された同一の参照符号は同一の部材を示す。
以下で説明する実施形態は様々な変更が加えられてもよい。以下で説明する実施形態は実施形態に対して限定しようとするものではなく、これに対する全ての変更、均等物ないし代替物を含むものとして理解しなければならない。
実施形態で用いる用語は、単に特定の実施形態を説明するために用いられたものとして、実施形態を限定しようとする意図は有しない。単数の表現は文脈上、明白に相違に意味しない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載された特徴、数字、ステップ、動作、構成要素、部品又はこれを組み合わせたものが存在することを指定しようとするものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
相違に定義されない限り、技術的でるか科学的な用語を含み、ここで用いられる全ての用語は、実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるのと同じ意味を有する。一般的に用いられる予め定義されているような用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈するべきであって、本出願で明白に定義しない限り、理想的であるか過度に形式的な意味と解釈されることはない。
また、添付図面を参照して説明することにおいて、図面符号に関係なく同一の構成要素は同一の参照符号を付与し、それに対する重複説明は省略することにする。実施形態の説明において関連の公知技術に対する具体的な説明が実施形態の要旨を不要に曖昧にすると判断される場合、その詳細な説明を省略する。
図1A及び図1Bは、検出された目の位置に対するレンダリングと、予測された目の位置に対するレンダリングとを説明するための図である。
図1Aは、検出された目の位置に対するレンダリングを示し、図1Bは、予測された目の位置に対するレンダリングを示す。視標追跡ベースの裸眼3Dディスプレイを行うためには、ユーザの目の位置を検出しなければならない。3D表示装置は、検出されたユーザの目の位置に対応する3Dイメージを表示する。ここで、3Dイメージは、ユーザの左目に出力されるイメージとユーザの右目に出力されるイメージとを含む。ユーザに鮮明な3Dイメージを提供するために、3D表示装置は、ユーザの目の位置を正確に検出し、3Dイメージをユーザの目の位置に正確に出力しなければならない。
ユーザが動く場合、ユーザの目の位置を正確に検出して、3Dイメージをユーザの目の位置に正確に出力する過程で障害が起こる。例えば、図1A及び図1Bのように、ユーザは、初期位置から検出位置を経てレンダリング時の位置へ動く。ここで、前記検出位置は、3D表示装置がユーザの目の位置を検出する時点におけるユーザの目の位置であり、レンダリング時の位置は、3D表示装置が3Dイメージをレンダリングする時点におけるユーザの目の位置である。
3D表示装置がユーザのイメージからユーザの目の位置を検出し、入力映像を3Dイメージでレンダリングするのに一定時間が必要とされる。したがって、ユーザが動く場合、前記一定時間の遅延によってクロストーク(crosstalk)が発生するかもしれない。例えば、図1Aのように、ユーザの目の位置が前記検出位置から前記レンダリング時の位置へ動く時、3D表示装置がユーザの目が検出される前記検出位置に3Dイメージを出力する場合、クロストークが発生するかもしれない。図1Bのように、ユーザの目のレンダリング時の位置を予測して、前記レンダリング時の位置に3Dイメージを出力する場合、クロストークは発生しない。したがって、ユーザの動きによる目の位置を予測して、予測される目の位置に3Dイメージを出力することが要求される。
図2は、一実施形態に係る3D表示装置を示すブロック図である。図2を参照すると、3D表示装置100は、目位置追跡部110、目位置予測部120、及びイメージ処理部130を含む。
目位置追跡部110は、ユーザのイメージに基づいてユーザの目の位置情報を決める。目位置追跡部110は、イメージセンサを含む。目位置追跡部110は、イメージセンサを用いてユーザのイメージをセンシングし、ユーザの目の位置情報を決めてもよい。位置情報は、ユーザのイメージから検出されたユーザの目の実際位置に関する情報である。位置情報は、ユーザの目の実際位置に関する座標値を含んでもよい。
目位置追跡部110は、ユーザのイメージからユーザの顔を検出し、検出されたユーザの顔からユーザの目の位置情報を決めてもよい。目位置追跡部110は、様々な形態の顔、様々な形態の目又は顔と目の相対的な位置についてトレーニングされたデータに基づいて位置情報を決めてもよい。
目位置追跡部110は、x−y−z軸の3次元空間でユーザの目の位置を追跡する。位置情報は、検出されるユーザの目の位置を示す3次元座標値を含んでもよい。位置情報は、ユーザの右目及び左目それぞれの位置を示す3次元座標値を含んでもよい。
目位置予測部120は、サンプリング時間区間の間の位置情報の変化量に基づいて目標時点におけるユーザの目の予測位置情報を生成してもよい。予測位置情報は、位置情報から算出されたユーザの目の予想位置に関する情報である。例えば、位置情報は、図1A及び図1Bに示された検出位置に対応され、予測位置情報は、図1A及び図1Bに示されたレンダリング時の位置に対応される。予測位置情報は、ユーザの目の予測位置に関する座標値を含んでもよい。
目標時点は、レンダリングの対象になる時点である。目標時点は、現在の時点を意味する。サンプリング時間区間は、目標時点の予測位置情報を生成するための標本を提供する時間区間である。サンプリング時間区間は、目標時点以前の一定の時間区間である。例えば、時間区間tがn−10〜nの場合、サンプリング時間区間は、n−10〜nであり、目標時点は、nである。
目位置予測部120は、サンプリング時間区間の間の位置情報の変化量に基づいて目標時点におけるユーザの目の予測位置情報を生成してもよい。予測位置情報は、位置情報の変化量に基づいて生成された1次予測位置情報及び1次予測位置情報の変化量に基づいて生成された2次予測位置情報を含んでもよい。つまり、目位置予測部120は、位置情報の変化量に基づいて1次予測位置情報を生成するか、1次予測位置情報の変化量に基づいて2次予測位置情報を生成する。以下、1次予測位置情報と2次予測位置情報との生成過程について詳細に説明する。
<1次予測位置情報の生成>
1次予測位置情報は、位置情報の変化量に基づいて生成された位置情報である。1次予測位置情報については、図5を参照して詳細に説明する。
図5は、一実施形態に係る1次予測位置情報を生成する過程を説明するための図である。図5を参照すると、サンプリング時間区間n−10〜nの間の位置情報と、目標時点nにおける1次予測位置情報に関する図が示されている。
位置情報及び1次予測位置情報は、x−y−z軸の3次元座標を含み、図5の位置情報及び1次予測位置情報は、3次元座標のうち1つの軸に対する座標値である。また、図5の位置情報及び1次予測位置情報は、ユーザの左目又は右目のうちいずれか1つに関する座標値である。したがって、以下で説明される方法を残りの軸と残りの目に適用する場合、両目の3次元1次予測位置情報(3D first prediction position information)が得られる。
目位置予測部120は、以下の式(1)により1次予測位置情報を生成することができる。
式(1)において、p1(n)は、nにおける1次予測位置情報を、m(n)は、nにおける位置情報を示す。m(t)−m(t−1)は、tとt−1における位置情報の変化量を示す。w(t)は、m(t)−m(t−1)に関する加重値を示し、Wは、加重値w(t)の総和を示す。αは、複数因子(multiple factor)を示す。αは、ユーザによって調節されてもよい。例えば、位置情報の生成又は3Dイメージのレンダリングのうち少なくとも1つの遅延が大きいほど、ユーザは、αを大きい値に設定することができる。Tは、1次予測位置情報の生成に用いられる位置情報の数を意味する。以下、同一のパラメータは、同じ意味を有する。
加重値は、サンプリング時間区間内における目標時点に近いほど大きい値を有してもよい。例えば、加重値は、目標時点で最大値を有する正規分布に基づいて決められてもよい。
式(2)は、一実施形態に係るw(t)を示す。
式(2)は、目標時点で最大値を有する正規分布を示す。式(2)におけるσ2は、正規分布の分散を示す。σは、ユーザによって調節され得る。以下の式(3)は、Wを示す。
先に説明されたパラメータの定義によって、式(1)の右辺は、サンプリング時間区間の間の位置情報の変化量の加重平均と目標時点の位置情報との合計を意味する。したがって、目位置予測部120は、サンプリング時間区間の間の位置情報の変化量の加重平均と目標時点の位置情報との合計に基づいて目標時点の1次予測位置情報を生成することができる。また、目位置予測部120は、位置情報の変化量に関する加重平均値を算出して、加重平均値に基づいて1次予測位置情報を生成してもよい。目位置予測部120は、1次予測位置情報に基づいて2次予測位置情報を生成してもよい。以下、2次予測位置情報について詳細に説明する。
<2次予測位置情報の生成>
2次予測位置情報は、1次予測位置情報の変化量に基づいて生成された位置情報である。2次予測位置情報については、図6を参照して詳細に説明する。
図6は、一実施形態に係る2次予測位置情報を生成する過程を説明するための図である。図6を参照すると、サンプリング時間区間n−10〜nの間の位置情報と、サンプリング時間区間n−10〜nの間の1次予測位置情報と、目標時点nにおける2次予測位置情報に関する図が示されている。
位置情報及び予測位置情報は、x−y−z軸の3次元座標を含み、図6の位置情報及び予測位置情報は、3次元座標のうち1つの軸に対する座標値である。また、図6の位置情報及び予測位置情報は、ユーザの左目又は右目のうちいずれか1つに対する座標値である。したがって、以下で説明される方法を残りの軸と残りの目に適用する場合、両目の3次元予測位置情報が得られる。
目位置予測部120は、以下の式(4)により2次予測位置情報を生成することができる。
式(4)において、p2(n)は、nにおける2次予測位置情報を、m(n)は、nにおける位置情報を示す。p1’(t)は、t=nの場合、m(t)を示し、t≠nの場合、p1(t)を示す。p1’(t)−p1(t−1)は、tとt−1における1次予測位置情報の変化量を示す。w(t)は、p1’(t)−p1(t−1)に対する加重値を示し、Wは、加重値w(t)の総和を示す。αは、複数因子を示す。αについては式(1)に対して説明した内容が適用される。Tは、予測位置情報の生成に用いられる位置情報の数を意味する。
加重値は、サンプリング時間区間内における目標時点に近いほど大きい値を有してよい。例えば、加重値は、目標時点で最大値を有する正規分布に基づいて決され得る。その他に、w(t)とWについては、式(2)及び式(3)に対して説明した内容が適用される。
先に説明されたパラメータの定義により、式(4)の右辺は、サンプリング時間区間の間の1次予測位置情報の変化量の加重平均と目標時点の位置情報との合計を意味する。したがって、目位置予測部120は、サンプリング時間区間の間の1次予測位置情報の変化量の加重平均と目標時点の位置情報との合計に基づいて目標時点の2次予測位置情報を生成することができる。本明細書において、サンプリング時間区間の間の1次予測位置情報の加重平均値を第2加重平均値という。
目位置予測部120は、1次予測位置情報の変化量に関する第2加重平均値を算出して、第2加重平均値に基づいて2次予測位置情報を生成する。
再度、図2を参照して3D表示装置100を説明する。図2において、イメージ処理部130は、予測位置情報に基づいて入力イメージに対する出力イメージを生成する。ここで、予測位置情報は、先に説明された1次予測位置情報又は2次予測位置情報であってもよい。また、入力イメージは、ステレオイメージであり、出力イメージは、予測位置情報に基づいてレンダリングされた3Dイメージである。出力イメージは、予測位置情報に係る座標値に対応される3Dイメージであってもよい。
目の位置を予測するためには、予め決められた基準以上の標本、すなわち十分な位置情報が要求される。例えば、目の位置を予測するために、追って説明される図5及び図6に示されているもののように、10個のフレームに対応される位置情報が要求される。目の位置を予測するのに十分な標本、すなわち十分な位置情報が格納されない場合、イメージ処理部130は、十分な標本が格納されるまで、位置情報に対応する3Dイメージをレンダリングする。つまり、イメージ処理部130は、すでに格納された位置情報の量が予め決められた基準以下であるものに対応し、目標時点の位置情報に対応する3Dイメージをレンダリングすることができる。
図3は、一実施形態に係る目位置予測部を示すブロック図である。図3を参照すると、目位置予測部120は、格納部121、演算部122、及び予測部123を含む。
格納部121は、サンプリング時間区間の間のユーザの目の位置情報を格納する。格納部121は、目位置追跡部110から位置情報を受信し、受信された位置情報を格納する。格納部121は、新しい位置情報が受信されるものに対応して、格納部121にすでに格納された位置情報をシフトし、新しい位置情報を格納部121に格納する。格納部121の動作は、図4A〜図4Cを参照して詳細に説明する。
図4A〜図4Cは、一実施形態に係る格納部の格納過程を説明するための図である。図4A〜図4Cを参照すると、格納部121及び位置情報の座標値LE[k]が示されている。一側面によると、格納部121は、バッファである。座標値LE[k]は、左目の座標を示す。格納部121は、右目の座標を示す座標値RE[k]を格納する。LE[k]及びRE[k]それぞれは、x−y−z軸の3次元座標値を含んでもよい。図4A〜図4Cにおいて、nは格納部121で用いられるフレームの数を示す。
図4Aは、すでに格納された位置情報LE[n−1]〜LE[n−7]を示し、図4Bは、新しい位置情報LE[n]の格納前に、すでに格納された位置情報LE[n−1]〜LE[n−7]のシフトを示し、図4Cは、シフト以降に、新しい位置情報LE[n]の格納を示す。格納部121は、図4A〜Cの過程を介して新しい位置情報LE[n]を格納する。位置情報は、時間の流れにより格納部121に格納されるため、格納部121は、別途のインデックスなしに位置情報を管理することができる。演算部122は、ごく最近格納された値に最も高い加重値を付与することによって、加重平均を算出する。
再度、図3を参照して目位置予測部120を説明する。演算部122は、位置情報の変化量に関する加重平均値を算出する。演算部122は、加重値に基づいて加重平均値を算出する。演算部122は、位置情報の変化量に加重値を付与するが、加重値は、サンプリング時間区間内における目標時点に近いほど大きい値を有する。また、演算部122は、サンプリング時間区間の1次予測位置情報の変化量に基づいて第2加重平均値を算出する。
予測部123は、加重平均値に基づいて目標時点のユーザの目の予測位置情報を生成する。予測部123は、生成された予測位置情報をイメージ処理部130へ送信してもよい。予測部123は、サンプリング時間区間の間の位置情報の変化量の加重平均と目標時点の位置情報との合計に基づいて目標時点の予測位置情報を生成してもよい。予測部123は、演算部122により算出された第2加重平均値に基づいて目標時点のユーザの目の2次予測位置情報を生成してもよい。
図7は、一実施形態に係る3Dイメージ生成方法を示すフローチャートである。図7を参照すると、ステップS310において、3D表示装置は、ユーザのイメージに基づいてユーザの目の位置情報を決める。3D表示装置は、位置情報を決めるためのイメージセンサを含んでよい。3D表示装置は、イメージセンサを用いてユーザのイメージをセンシングし、ユーザの目の位置情報を決めることができる。位置情報は、ユーザのイメージから検出されたユーザの目の実際位置に関する情報である。位置情報は、ユーザの目の実際位置に関する座標値を含む。
ステップS320において、3D表示装置は、サンプリング時間区間の間の位置情報の変化量に基づいて目標時点におけるユーザの目の予測位置情報を生成する。予測位置情報は、位置情報から算出されたユーザの目の予想位置に関する情報である。予測位置情報は、ユーザの目の予測位置に関する座標値を含んでもよい。予測位置情報は、1次予測位置情報及び2次予測位置情報を含んでもよい。位置情報及び予測位置情報に関しては、先に説明された内容が適用される。
ステップS330において、3D表示装置は、予測位置情報により3Dイメージをレンダリングする。3D表示装置は、予測位置情報に係る座標値に対応される3Dイメージをレンダリングすることができる。ユーザの動きがある場合にも、ユーザは、予測位置情報に対応する鮮明な3D映像を視聴することができる。
図8は、一実施形態に係る目位置予測の方法を示すフローチャートである。図8を参照すると、ステップS321において、目位置予測の装置は、サンプリング時間区間の間のユーザの目の位置情報を受信する。位置情報は、ユーザの目の位置に関する座標値を含む。
ステップS322において、目位置予測の装置は、位置情報を格納する。目位置予測の装置は、新しい位置情報が受信されるものに対応し、すでに格納された位置情報をシフトして、新しい位置情報を格納してもよい。目の位置を予測するのに十分な標本、すなわち十分な位置情報が格納されない場合、目位置予測の装置は、十分な標本が格納されるまで位置情報に対応する3Dイメージをレンダリングする。つまり、目位置予測の装置は、すでに格納された位置情報の量が予め決められた基準以下であるものに対応し、目標時点の位置情報に対応する3Dイメージをレンダリングすることができる。
ステップS323において、目位置予測の装置は、位置情報の変化量に関する加重平均値を算出する。目位置予測の装置は、加重値に基づいて加重平均値を算出してもよい。目位置予測の装置は、位置情報の変化量に加重値を付与するが、加重値は、サンプリング時間区間内における目標時点に近いほど大きい値を有する。また、目位置予測の装置は、サンプリング時間区間の1次予測位置情報の変化量に基づいて第2加重平均値を算出することができる。
ステップS324において、目位置予測の装置は、加重平均値に基づいて目標時点のユーザの目の予測位置情報を生成する。目位置予測の装置は、サンプリング時間区間の間の位置情報の変化量の加重平均と目標時点の位置情報との合計に基づいて目標時点の予測位置情報を生成してもよい。目位置予測の装置は、第2加重平均値に基づいて目標時点のユーザの目の2次予測位置情報を生成してもよい。
実施形態に係る方法は、様々なコンピュータ手段を介して実行することができるプログラム命令の形態で実現され、コンピュータで読取可能な媒体に記録されてもよい。前記コンピュータで読取可能な媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含んでもよい。前記媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものであり、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(floptical disk)のような光磁器媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例には、コンパイラによって作られるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行できる高級言語コードが含まれる。前記したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして動作するように構成されてもよく、その逆も同様である。
上述のように、本発明を特定の実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、前記の記載から様々な修正及び変形が可能である。例えば、説明された技術が説明された方法と異なる順序で実行される、および/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組合わされる、他の構成要素又は均等物によって代替、置換されても適切な結果が達成されてもよい。
したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲と均等なものなどによって定められるものである。
110 目位置追跡部
120 目位置予測部
130 イメージ処理部

Claims (15)

  1. ユーザの目の位置情報を決定する目位置追跡部と、
    サンプリング時間区間の間の前記位置情報の変化量に基づいて目標時点における前記ユーザの目の予測位置情報を生成する目位置予測部と、
    前記予測位置情報により、3Dイメージをレンダリングするイメージ処理部と、
    を含み、前記予測位置情報は、前記位置情報の変化量の加重平均に基づいて生成された1次予測位置情報と前記1次予測位置情報の変化量の加重平均に基づいて生成された2次予測位置情報とを含み、
    前記イメージ処理部は、前記2次予測位置情報により、前記3Dイメージをレンダリングする、3D表示装置。
  2. 前記目位置予測部は、前記サンプリング時間区間の間の前記位置情報の変化量の加重平均と前記目標時点の位置情報との合計に基づいて前記目標時点の前記1次予測位置情報を生成する、
    請求項1に記載の3D表示装置。
  3. 前記目位置予測部は、前記位置情報の変化量に加重値を付与し、前記加重値は、前記サンプリング時間区間内において前記目標時点に近いほど大きい値を有する、
    請求項1又は2に記載の3D表示装置。
  4. 前記加重値は、前記目標時点で最大値を有する正規分布に基づいて決められる、
    請求項3に記載の3D表示装置。
  5. 前記目位置予測部は、前記サンプリング時間区間の間のユーザの目の位置情報を格納する格納部を含み、
    前記格納部は、新しい位置情報が受信されたことに応じて、前記格納部にすでに格納されている位置情報をシフトすることにより、前記新しい位置情報を前記格納部に格納する、
    請求項1ないしのうちの何れか1項に記載の3D表示装置。
  6. 前記イメージ処理部は、前記格納部に格納された位置情報の量が予め決められた基準以下である場合に、前記目標時点の位置情報に対応する3Dイメージをレンダリングする、
    請求項に記載の3D表示装置。
  7. 前記目位置追跡部は、ユーザのイメージに基づいて前記位置情報を決める、
    請求項1ないしのうちの何れか1項に記載の3D表示装置。
  8. サンプリング時間区間の間のユーザの目の位置情報を格納する格納部と、
    前記位置情報の変化量に関する加重平均値を算出する演算部と、
    前記加重平均値に基づいて目標時点のユーザの目の1次予測位置情報を生成する予測部と、
    を含み、前記演算部は、前記サンプリング時間区間の1次予測位置情報の変化量に関する第2加重平均値を算出し、
    前記予測部は、前記第2加重平均値に基づいて前記目標時点のユーザの目の2次予測位置情報を生成する、目の位置を予測する装置。
  9. 前記演算部は、前記位置情報の変化量に加重値を付与し、前記加重値は、前記サンプリング時間区間内において前記目標時点に近いほど大きい値を有する、
    請求項に記載の目の位置を予測する装置。
  10. 前記予測部は、前記サンプリング時間区間の間の前記位置情報の変化量の加重平均と前記目標時点の位置情報との合計に基づいて前記目標時点の前記1次予測位置情報を生成する、
    請求項又はに記載の目の位置を予測する装置。
  11. 前記格納部は、新しい位置情報が受信されたことに応じて、前記格納部にすでに格納されている位置情報をシフトすることにより、前記新しい位置情報を前記格納部に格納する、
    請求項ないし10のうちの何れか1項に記載の目の位置を予測する装置。
  12. サンプリング時間区間の間のユーザの目の位置情報を受信するステップと、
    前記位置情報の変化量に関する加重平均値を算出するステップと、
    前記加重平均値に基づいて目標時点のユーザの目の1次予測位置情報を生成するステップと、
    前記サンプリング時間区間の1次予測位置情報の変化量に関する第2加重平均値を算出するステップと、
    前記第2加重平均値に基づいて前記目標時点のユーザの目の2次予測位置情報を生成するステップと、
    を含む目の位置を予測する方法。
  13. 前記位置情報の変化量に関する加重平均値を算出するステップは、前記位置情報の変化量に加重値を付与するステップを含み、
    前記加重値は、前記サンプリング時間区間内において前記目標時点に近いほど大きい値を有する、
    請求項12に記載の目の位置を予測する方法。
  14. 請求項12又は13に記載の方法を装置のコンピュータに実行させるコンピュータプログラム。
  15. 請求項14に記載のコンピュータプログラムを記憶する記憶媒体。
JP2015238715A 2014-12-10 2015-12-07 3d表示のための装置及び方法 Active JP6837279B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140177448A KR102333267B1 (ko) 2014-12-10 2014-12-10 눈 위치 예측 장치 및 방법
KR10-2014-0177448 2014-12-10

Publications (2)

Publication Number Publication Date
JP2016116221A JP2016116221A (ja) 2016-06-23
JP6837279B2 true JP6837279B2 (ja) 2021-03-03

Family

ID=54703832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015238715A Active JP6837279B2 (ja) 2014-12-10 2015-12-07 3d表示のための装置及び方法

Country Status (5)

Country Link
US (1) US10178380B2 (ja)
EP (1) EP3037922B1 (ja)
JP (1) JP6837279B2 (ja)
KR (1) KR102333267B1 (ja)
CN (2) CN108600731B (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102466996B1 (ko) 2016-01-06 2022-11-14 삼성전자주식회사 눈 위치 예측 방법 및 장치
KR20180061956A (ko) * 2016-11-30 2018-06-08 삼성전자주식회사 눈 위치 예측 방법 및 장치
CN107277376A (zh) * 2017-08-03 2017-10-20 上海闻泰电子科技有限公司 摄像头动态拍摄的方法及装置
JP6524371B1 (ja) 2018-07-06 2019-06-05 三菱電機株式会社 フィルタリング装置、センサ装置、フィルタリング方法及びプログラム
WO2020054193A1 (ja) * 2018-09-11 2020-03-19 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR102608471B1 (ko) 2018-11-06 2023-12-01 삼성전자주식회사 눈 추적 방법 및 장치
US20230067565A1 (en) * 2019-09-30 2023-03-02 Kyocera Corporation Three-dimensional display device, three-dimensional display system, head-up display, and mobile object
CN111309146B (zh) * 2020-02-10 2022-03-29 Oppo广东移动通信有限公司 图像显示方法及相关产品
CN111580665B (zh) * 2020-05-11 2023-01-10 Oppo广东移动通信有限公司 注视点预测方法、装置、移动终端及存储介质
US11938817B2 (en) 2020-08-24 2024-03-26 Samsung Electronics Co., Ltd. Method and apparatus for controlling head-up display based on eye tracking status
JP2022094223A (ja) * 2020-12-14 2022-06-24 京セラ株式会社 立体表示用コントローラ
WO2023013130A1 (ja) * 2021-08-05 2023-02-09 ソニーグループ株式会社 情報処理装置、情報処理方法、及び記録媒体

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03241574A (ja) * 1990-02-20 1991-10-28 Fujitsu Ltd トラックアクセス制御方式
JP2001147267A (ja) * 1999-11-19 2001-05-29 Mitsubishi Electric Corp 目標識別装置
JP4403626B2 (ja) * 2000-03-22 2010-01-27 ダイキン工業株式会社 Srモータセンサレス制御方法およびその装置
JP4615103B2 (ja) * 2000-08-25 2011-01-19 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 組織運動追跡方法および超音波診断装置
KR100380994B1 (ko) 2000-12-26 2003-04-26 한국전자통신연구원 응시지점을 따라가는 입체 영상 표시 장치 및 그 방법
JP2004029274A (ja) * 2002-06-25 2004-01-29 Fuji Xerox Co Ltd 信号パターン評価装置、信号パターン評価方法及び信号パターン評価プログラム
AU2003901528A0 (en) * 2003-03-31 2003-05-01 Seeing Machines Pty Ltd Eye tracking system and method
EP1602322A1 (en) 2004-06-02 2005-12-07 SensoMotoric Instruments GmbH Method and apparatus for eye tracking latency reduction
DE102007025069B4 (de) 2007-05-21 2018-05-24 Seereal Technologies S.A. Holographisches Rekonstruktionssystem
JP5217471B2 (ja) * 2008-02-04 2013-06-19 トヨタ自動車株式会社 車両用物体認識装置
US8374389B2 (en) * 2009-02-06 2013-02-12 Robert Bosch Gmbh Iris deblurring method based on global and local iris image statistics
US8203602B2 (en) * 2009-02-06 2012-06-19 Robert Bosch Gmbh Depth-aware blur kernel estimation method for iris deblurring
KR101729556B1 (ko) 2010-08-09 2017-04-24 엘지전자 주식회사 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치
KR101729023B1 (ko) 2010-10-05 2017-04-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
CN102098524B (zh) 2010-12-17 2011-11-16 深圳超多维光电子有限公司 跟踪式立体显示设备及跟踪式立体显示方法
KR101675961B1 (ko) 2010-12-29 2016-11-14 삼성전자주식회사 적응적 부화소 렌더링 장치 및 방법
BR112013017234A2 (pt) * 2011-01-04 2016-10-25 Samsung Electronics Co Ltd dispositivo de exibição 3d, e método de exibição 3d
KR101165764B1 (ko) 2011-05-31 2012-07-18 주식회사 넥서스칩스 Eye-tracking을 이용한 컨버전스 자동 조절 장치 및 그 방법
US9414049B2 (en) 2011-09-19 2016-08-09 Écrans Polaires Inc./Polar Screens Inc. Method and display for showing a stereoscopic image
KR101874494B1 (ko) 2011-11-25 2018-07-06 삼성전자주식회사 특징점의 삼차원 위치 계산 장치 및 방법
KR101953686B1 (ko) 2011-11-30 2019-05-23 삼성전자주식회사 부화소를 렌더링하는 영상 처리 장치 및 방법
KR20130080355A (ko) 2012-01-04 2013-07-12 삼성디스플레이 주식회사 시청자 위치 추적 방법 및 이를 적용한 표시 장치
CN103051909B (zh) 2012-12-28 2015-08-12 北京邮电大学 用于裸眼3d显示的蒙版变换人眼跟踪方法
JP2014149796A (ja) * 2013-02-04 2014-08-21 Sharp Corp 位置検出装置、画像処理装置及び位置検出方法
JP5942130B2 (ja) * 2013-03-28 2016-06-29 株式会社ジャパンディスプレイ 表示装置
US10432922B2 (en) * 2014-03-19 2019-10-01 Intuitive Surgical Operations, Inc. Medical devices, systems, and methods using eye gaze tracking for stereo viewer

Also Published As

Publication number Publication date
KR20160070465A (ko) 2016-06-20
CN108600731A (zh) 2018-09-28
CN108600731B (zh) 2020-07-14
EP3037922A1 (en) 2016-06-29
KR102333267B1 (ko) 2021-12-01
JP2016116221A (ja) 2016-06-23
CN105704471A (zh) 2016-06-22
EP3037922B1 (en) 2020-07-22
CN105704471B (zh) 2018-09-11
US10178380B2 (en) 2019-01-08
US20160173863A1 (en) 2016-06-16

Similar Documents

Publication Publication Date Title
JP6837279B2 (ja) 3d表示のための装置及び方法
JP5729915B2 (ja) 多視点映像表示装置、多視点映像表示方法及び記憶媒体
US8810564B2 (en) Apparatus and method for reducing three-dimensional visual fatigue
US9424469B2 (en) Differing region detection system and differing region detection method
EP2693753A1 (en) Method of converting 2-dimension images into 3-dimension images and display apparatus thereof
EP2549764A1 (en) Input apparatus of display apparatus, display system and control method thereof
EP2547113A1 (en) 3D image processing apparatus, implementation method thereof and computer-readable storage medium thereof
US10338879B2 (en) Synchronization object determining method, apparatus, and system
CN105530502B (zh) 根据立体相机拍摄的图像帧生成视差图的方法和装置
US11244145B2 (en) Information processing apparatus, information processing method, and recording medium
JP4892113B2 (ja) 画像処理方法及び装置
JP2013545149A (ja) マルチビュー生成のためのレンダリング装置およびその方法
KR20140080893A (ko) 하이브리드 멀티-뷰 랜더링 방법 및 장치
WO2013128765A1 (ja) 画像処理装置、画像処理方法およびコンピュータプログラム
CN105447885B (zh) 计算视差的方法和装置
US20180150134A1 (en) Method and apparatus for predicting eye position
JP2013027023A (ja) 画像処理装置および画像処理方法、プログラム
JP6425534B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
KR20120073804A (ko) 영상 처리 장치 및 방법
KR101526868B1 (ko) 스테레오 영상에 대한 다시점 영상 생성 장치 및 방법
CN104471933A (zh) 立体图片生成

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210209

R150 Certificate of patent or registration of utility model

Ref document number: 6837279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250