JPWO2015156128A1 - 表示制御装置、表示制御方法、及び、プログラム - Google Patents

表示制御装置、表示制御方法、及び、プログラム Download PDF

Info

Publication number
JPWO2015156128A1
JPWO2015156128A1 JP2016512656A JP2016512656A JPWO2015156128A1 JP WO2015156128 A1 JPWO2015156128 A1 JP WO2015156128A1 JP 2016512656 A JP2016512656 A JP 2016512656A JP 2016512656 A JP2016512656 A JP 2016512656A JP WO2015156128 A1 JPWO2015156128 A1 JP WO2015156128A1
Authority
JP
Japan
Prior art keywords
display surface
image
user
display
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016512656A
Other languages
English (en)
Other versions
JP6601392B2 (ja
Inventor
仕豪 温
仕豪 温
横山 一樹
一樹 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015156128A1 publication Critical patent/JPWO2015156128A1/ja
Application granted granted Critical
Publication of JP6601392B2 publication Critical patent/JP6601392B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/006Pseudo-stereoscopic systems, i.e. systems wherein a stereoscopic effect is obtained without sending different images to the viewer's eyes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本技術は、ユーザが、画像の中で、見たい領域を、直感的に選択することができるUIを実現することができるようにする表示制御装置、表示制御方法、及び、プログラムに関する。表示装置が画像を表示する表示面の位置を検出し、位置が検出された表示面の画素と、ユーザの位置とを通る直線に沿って、所定の画像の画像モデルを表示面上に射影した射影画像を、表示面に表示する。本技術は、例えば、スマートフォンや、タブレット端末等の画像を表示する機能を有する装置等に適用することができる。

Description

本技術は、表示制御装置、表示制御方法、及び、プログラムに関し、特に、例えば、ユーザが、画像の中で、見たい領域を、直感的に選択することができるUI(User Interface)を実現することができるようにする表示制御装置、表示制御方法、及び、プログラムに関する。
例えば、タブレット等の画像を表示する機能を有する画像表示装置において、カメラで撮影された静止画等の画像を、タッチパネルに表示する場合には、例えば、静止画が表示されたタッチパネルを操作することにより、タッチパネルの表示面に表示された静止画を拡大することや、縮小することができる。
なお、特許文献1には、ユーザAとBとがコミュニケーションを図る映像コミュニケーションシステムにおいて、ユーザBの2次元画像、及び、ディスプレイ面とユーザBとの距離に基づいて、ユーザBの2次元画像を、奥行き情報を有する3次元画像情報に変換する一方で、ユーザAの視点位置と、ユーザBの3次元画像情報とから、ユーザBの2次元画像を生成し、ユーザAのディスプレイ面に表示することで、ユーザに対話相手との距離感、現実感を与える技術が提案されている。
特開2011-077710号公報
ところで、例えば、上述のようなタブレットでの静止画等の画像の表示では、その静止画を見るユーザ(タブレットを持っているユーザ)の位置や、表示面の位置は考慮されない。
したがって、タブレットでの静止画の表示は、静止画が、表示面に、いわば貼り付いた貼り付き表示になる。そのため、ユーザや表示面が(平行)移動しても、タブレットの表示面に表示される静止画は、ユーザや表示面の移動に応じて変化しない。
以上のような貼り付き表示では、ユーザが、例えば、タブレットを動かして、表示面を移動させると、その表示面に表示された静止画は、表示面の移動に追従して、その表示面に貼り付いて移動するが、静止画の内容(表示面に表示されている静止画の各画素の画素値)は、変化しない。
したがって、貼り付き表示では、例えば、ユーザが、タブレットの表示面を窓として、その窓の向こう側にある画像を、窓からのぞき見るような感覚を享受することができるUI(User Interface)、ひいては、ユーザが、(窓の向こう側にある)画像の中で、見たい領域を、直感的に選択することができるUIを実現することは、困難である。
本技術は、このような状況に鑑みてなされたものであり、ユーザが、画像の中で、見たい領域を、直感的に選択することができるUIを実現することができるようにするものである。
本技術の表示制御装置、又は、プログラムは、表示装置が画像を表示する表示面の位置を検出する検出部と、前記検出部により位置が検出された前記表示面の画素と、ユーザの位置とを通る直線に沿って、所定の画像の画像モデルを前記表示面上に射影した射影画像を、前記表示面に表示するように、前記表示装置を制御する制御部とを備える表示制御装置、又は、そのような表示制御装置として、コンピュータを機能させるためのプログラムである。
本技術の表示制御方法は、表示装置が画像を表示する表示面の位置を検出し、位置が検出された前記表示面の画素と、ユーザの位置とを通る直線に沿って、所定の画像の画像モデルを前記表示面上に射影した射影画像を、前記表示面に表示するように、前記表示装置を制御するステップを含む表示制御方法である。
以上のような本技術の表示制御装置、表示制御方法、及び、プログラムにおいては、表示装置が画像を表示する表示面の位置が検出され、位置が検出された前記表示面の画素と、ユーザの位置とを通る直線に沿って、所定の画像の画像モデルを前記表示面上に射影した射影画像が、前記表示面に表示される。
なお、表示制御装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
また、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本技術によれば、ユーザが、画像の中で、見たい領域を、直感的に選択することができるUIを実現することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した画像表示装置の一実施の形態の構成例を示す斜視図である。 画像表示装置の機能的な構成例を示すブロック図である。 制御部24の構成例を示すブロック図である。 制御部24の処理の例を説明するフローチャートである。 画像生成部38による射影画像の生成の原理を説明する図である。 画像モデルの第1の例を示す図である。 画像モデルの第2の例を示す図である。 画像モデルの第3の例を示す図である。 表示面11が水平方向に移動する場合の射影画像の生成の例を説明する図である。 表示面11が水平方向に移動する場合の射影画像の生成の例を、さらに説明する図である。 ボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。 表示面11が垂直方向に移動する場合の射影画像の生成の例を説明する図である。 表示面11が垂直方向に移動する場合の射影画像の生成の例を、さらに説明する図である。 ボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。 表示面11が奥行き方向に移動する場合の射影画像の生成の例を説明する図である。 表示面11が奥行き方向に移動する場合の射影画像の生成の例を、さらに説明する図である。 ボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。 表示面11がピッチ方向に回転されて傾けられる場合の射影画像の生成の例を説明する図である。 表示面11がピッチ方向に傾けられる場合の射影画像の生成の例を、さらに説明する図である。 ボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。 ピッチ方向に傾けられた表示面11を、その表示面11に直交する方向から見た場合の、表示面11に表示された射影画像の例を示す図である。 表示面11がヨー方向に回転されて傾けられる場合の射影画像の生成の例を説明する図である。 表示面11がヨー方向に傾けられる場合の射影画像の生成の例を、さらに説明する図である。 ボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。 ヨー方向に傾けられた表示面11を、その表示面11に直交する方向から見た場合の、表示面11に表示された射影画像の例を示す図である。 表示面11がロール方向に回転されて傾けられる場合の射影画像の生成の例を説明する図である。 表示面11がロール方向に傾けられる場合の射影画像の生成の例を、さらに説明する図である。 表示面11がロール方向に傾けられる場合の射影画像の生成の例を、さらに説明する図である。 ボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。 ロール方向に傾けられた表示面11を、同様にロール方向に傾いて見た場合の、表示面11に表示された射影画像の例を示す図である。 ユーザが水平方向に移動する場合の射影画像の生成の例を説明する図である。 ユーザが水平方向に移動する場合の射影画像の生成の例を、さらに説明する図である。 ボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。 ユーザが垂直方向に移動する場合の射影画像の生成の例を説明する図である。 ユーザが垂直方向に移動する場合の射影画像の生成の例を、さらに説明する図である。 ボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。 ユーザが奥行き方向に移動する場合の射影画像の生成の例を説明する図である。 ユーザが奥行き方向に移動する場合の射影画像の生成の例を、さらに説明する図である。 ボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。 3D画像の画像モデルを用いる場合の射影画像の生成を説明する図である。 ユーザが水平方向に移動する場合の、3D画像モデルを用いた射影画像の生成の例を説明する図である。 ユーザが垂直方向に移動する場合の、3D画像モデルを用いた射影画像の生成の例を説明する図である。 ユーザが奥行き方向に移動する場合の、3D画像モデルを用いた射影画像の生成の例を説明する図である。 手ぶれによって、表示面11が動く場合に、その表示面11の動きに基づいて、射影画像に与える運動視差を説明する図である。 表示面11の動きに基づいて、運動視差がある射影画像を生成する方法の例を説明する図である。 運動視差の差異の拡大を説明する図である。 表示面11の他の構成例を説明する図である。 表示面11が湾曲面である場合の射影画像の生成の例を説明する図である。 表示面11の、さらに他の構成例を説明する図である。 左眼用の射影画像、及び、右眼用の射影画像の生成の例を説明する図である。 本技術を適用した画像表示装置の第2実施の形態の構成例を示す斜視図である。 本技術を適用した画像表示装置の第3実施の形態の構成例を示す斜視図である。 虫眼鏡モードを説明する図である。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
<本技術を適用した画像表示装置の第1実施の形態>
図1は、本技術を適用した画像表示装置の一実施の形態の構成例を示す斜視図である。
図1において、画像表示装置は、例えば、スマートフォン(又はタブレット)であり、正面側に、画像を表示する長方形状の表示面11と、画像を撮影するカメラ12とが設けられている。
なお、表示面11は、例えば、画像を表示するとともに、ユーザの入力(接触や近接)を受け付けるタッチパネルで構成される。
図2は、図1の画像表示装置としてのスマートフォンの機能的な構成例を示すブロック図である。
図2において、スマートフォンは、データ取得部21、表示面検出部22、ユーザ検出部23、制御部24、及び、表示部25を有する。
データ取得部21は、画像のコンテンツのデータを取得し、制御部24に供給する。
すなわち、データ取得部21は、例えば、記録(記憶)媒体を内蔵しており、その記録媒体に記録されているコンテンツのデータを読み出すことにより取得する。記録媒体には、例えば、コンピュータグラフィクスのデータや、アニメーションのデータ、ディジタル(スチル/ビデオ)カメラで撮影されたデータ等を記録しておくことができる。
また、データ取得部21は、例えば、ネットワークインターフェースであり、インターネット等のネットワーク上のサーバから、コンテンツのデータをダウンロードすることにより取得する。
なお、データ取得部21が取得するコンテンツのデータは、静止画のデータであっても良いし、動画のデータであっても良い。
また、データ取得部21が取得するコンテンツのデータは、2D(Dimensional)画像のデータであっても良いし、3D画像のデータであっても良い。
さらに、データ取得部21では、画像と、その画像に付随する音声(音響)とを含むコンテンツのデータを取得することができる。
また、データ取得部21では、スマートフォンの背面側に設けられた図示せぬカメラや、スマートフォンとの間で通信が可能な図示せぬカメラ等で、リアルタイムで撮影されている画像のデータを、制御部24に供給するコンテンツのデータとして取得することができる。
表示面検出部22は、スマートフォンの表示部25の表示面11の位置や姿勢(傾き)を検出し、表示面情報として、制御部24に供給する。表示面11の位置や姿勢としては、例えば、スマートフォンの位置や姿勢を採用することができる。
表示面検出部22としては、スマートフォンが内蔵する、例えば、加速度センサやジャイロ等の動きを検出するセンサ、磁界を検出する磁気センサ等を採用することができる。また、表示面検出部22としては、例えば、GPS(Global Positioning System)を採用することができる。
ここで、表示面検出部22が検出する表示面11の位置は、例えば、GPSから得られる緯度と経度のような絶対的な位置であっても良いし、あるタイミングの表示面11の位置を基準とする相対的な位置であっても良い。
さらに、表示面検出部22が検出する表示面11の姿勢としては、例えば、表示面11のピッチ方向、ヨー方向、及び、ロール方向のうちの1以上の回転角度を採用することができる。
また、表示面検出部22では、表示面11の位置及び姿勢の両方の他、表示面11の位置だけを検出することができる。
さらに、表示面検出部22では、表示面11の位置として、3次元空間における表示面11の水平方向、垂直方向、及び、奥行き方向のすべての位置を検出することもできるし、表示面11の水平方向、垂直方向、及び、奥行き方向のうちの1つ又は2つの位置を検出することもできる。
同様に、表示面検出部22では、表示面11の姿勢として、表示面11のピッチ方向、ヨー方向、及び、ロール方向のすべての回転角度を検出することもできるし、表示面11のピッチ方向、ヨー方向、及び、ロール方向のうちの1つ又は2つの回転角度を検出することもできる。
また、表示面検出部22での表示面11の位置や姿勢の検出精度は、特に限定されるものではない。
但し、スマートフォンでは、表示面11の位置や姿勢に基づいて、ユーザが、表示面11を窓として、コンテンツのデータから生成される画像モデルを見た場合に見える景色を再現した画像が提供される。そのため、表示面11の位置及び姿勢の両方を検出するか、又は、表示面11の位置だけを検出するかというファクタは、スマートフォンが提供する画像の再現性(いわば、表示面11の窓らしさ)に影響する。
表示面11の位置として、表示面11の水平方向、垂直方向、及び、奥行き方向のうちのいずれの位置を検出するかや、表示面11の姿勢として、表示面11のピッチ方向、ヨー方向、及び、ロール方向のうちのいずれの回転角度を検出するか、表示面11の位置及び姿勢の検出精度といったファクタも、同様に、スマートフォンが提供する画像の再現性に影響する。
ユーザ検出部23は、ユーザの位置を検出し、ユーザ位置情報として、制御部24に供給する。
ユーザ位置検出部23としては、例えば、スマートフォンの正面に設けられているカメラ12(図1)を採用することができる。この場合、ユーザ位置検出部23では、カメラ12で撮影されるユーザの画像に基づき、スマートフォンの位置を基準とするユーザの位置を検出することができる。
制御部24は、例えば、スマートフォンのCPU(Central Processing Unit)又はGPU(Graphics Processing Unit)で構成される、画像の表示を制御する表示制御装置であり、データ取得部21から供給される画像のコンテンツのデータから、画像モデルを生成する。
ここで、画像モデルは、ボクセルを構成要素として、そのボクセル(の集合)で構成される。ボクセルは、色と位置の情報を有し、ボクセルが有する位置に、そのボクセルが有する色を配置することで、画像のコンテンツが構成される。
制御部24は、画像モデルを生成し、その画像モデル、表示面検出部22から供給される表示面情報が表す表示面11の位置や姿勢、及び、ユーザ検出部23から供給されるユーザ位置情報が表すユーザの位置等に基づいて、表示部25の表示面11に表示する射影画像を生成し、その射影画像を表示するように、表示部25を制御する。
すなわち、制御部24は、所定の基準座標系における、表示面情報が表す位置(に対応する位置)に、表示面情報が表す姿勢で、表示面11を(仮想的に)配置するとともに、基準座標系における、ユーザ位置情報が表す位置(に対応する位置)に、ユーザ(の視点)を(仮想的に)配置する。
さらに、制御部24は、基準座標系における所定の位置(例えば、基準座標系におけるユーザから見て、表示面11の奥側の位置や、ユーザ及び表示面11を囲む位置等)に、画像モデルを配置する。
そして、制御部24は、基準座標系における表示面11の各画素と、ユーザの位置(視点)とを通る直線に沿って、画像モデルを表示面11(の各画素)上に射影した射影画像を生成し、表示部25に供給して、表示面11に表示させる。
表示部25は、例えば、スマートフォンのタッチパネル等の、画像を表示する表示装置であり、制御部24の制御に従い、射影画像を表示する。
ここで、表示部25において、射影画像が表示される面が、表示面11である。表示部25が、例えば、上述のように、タッチパネルである場合には、タッチパネルと表示面11とは、一体的であるため、表示面検出部22での、表示面11の位置及び姿勢の検出は、表示部25であるタッチパネル、ひいては、タッチパネルと一体的なスマートフォンの位置及び姿勢を検出することで行うことができる。
なお、制御部24は、ユーザ位置検出部23から供給されるユーザ位置情報を用いずに、射影画像を生成することができる。
ユーザ位置検出部23から供給されるユーザ位置情報を用いずに、射影画像を生成する場合、制御部24は、例えば、基準座標系において、表示面11に対向する所定の位置(例えば、表示面11の中心(重心)を通り、表示面11に直交する直線上の、表示面の中心から所定の距離の位置等)に、ユーザを配置して、射影画像を生成することができる。
制御部24において、ユーザ位置検出部23から供給されるユーザ位置情報を用いずに、射影画像を生成する場合、スマートフォンは、ユーザ位置検出部23を設けずに構成することができる。
また、表示面検出部22において、表示面11の位置だけ検出され、姿勢が検出されない場合には、制御部24では、表示面11の姿勢として、例えば、あらかじめ決められたデフォルトの姿勢を用いて、表示面11を、基準座標系に配置することができる。
さらに、表示面検出部22において、表示面11の位置として、水平方向、垂直方向、及び、奥行き方向のうちの、1つ又は2つが検出されない場合には、制御部24では、その検出されない方向の位置として、あらかじめ決められたデフォルトの位置を用いて、表示面11を、基準座標系に配置することができる。
ユーザ位置検出部23において、ユーザの位置として、水平方向、垂直方向、及び、奥行き方向のうちの、1つ又は2つが検出されない場合も、同様である。
<制御部24の構成例>
図3は、図2の制御部24の構成例を示すブロック図である。
図3において、制御部24は、基準座標系生成部31、表示面情報取得部32、画像モデル生成部33、ユーザ位置情報取得部34、表示面配置部35、画像モデル配置部36、ユーザ配置部37、及び、画像生成部38を有する。
基準座標系生成部31は、所定の3次元の座標系を、基準座標系として生成し、表示面配置部35、画像モデル配置部36、及び、ユーザ配置部37に供給する。
基準座標系生成部31は、例えば、ユーザによって、スマートフォンが、射影画像を表示するように操作されたとき等の所定のタイミング(以下、初期設定タイミングともいう)における表示面11に対して、xy平面が平行になる3次元の座標系等を、基準座標系として生成する。
表示面情報取得部32は、表示面検出部22から、表示面情報を取得し、表示面配置部35に供給する。ここで、表示面情報には、表示面11の位置や姿勢の他、表示面11の形状を、必要に応じて含めることができる。
画像モデル生成部33には、データ取得部21からコンテンツのデータが供給される。画像モデル生成部33は、データ取得部21からのコンテンツのデータを解析し、そのコンテンツのデータが、2D画像又は3D画像であること等を識別した上で、そのコンテンツのデータに対応する画像モデルを生成する。
そして、画像モデル生成部33は、画像モデルを、画像モデル配置部36に供給する。
ユーザ位置情報取得部34は、ユーザ検出部23から、ユーザ位置情報を取得し、ユーザ配置部37に供給する。
表示面配置部35は、表示面情報取得部32からの表示面情報に基づき、基準座標系生成部31からの基準座標系上に、表示面11を(仮想的に)配置し、その配置結果を、画像生成部38に供給する。
すなわち、表示面配置部35は、基準座標系における、表示面情報が表す位置(に対応する位置)に、表示面情報が表す姿勢で、表示面11を配置する。
なお、本実施の形態では、初期設定タイミングにおいて、表示面11は、基準座標系のxy平面と平行になるように、基準座標系に配置される。
また、ここでは、説明を簡単にするため、表示面11が、例えば、長方形状の面であり、初期設定タイミングにおいて、ユーザは、その長方形状の表示面11の長辺、及び、短辺のうちの一方である、例えば、長辺を水平方向に向けて持っていることとする。そして、表示面11は、例えば、その長辺がx軸と平行になり、他方である短編がy軸と平行になるように、基準座標系に配置されることとする。
画像モデル配置部36は、初期設定タイミングにおいて、基準座標系生成部31からの基準座標系上に、画像モデル生成部33から供給される画像モデルを(仮想的に)配置し、その配置結果を、画像生成部38に供給する。
すなわち、画像モデル配置部36は、初期設定タイミングにおいて、例えば、基準座標系におけるユーザから見て、表示面11の奥側の位置や、ユーザ及び表示面11を囲む位置等の所定の位置に、画像モデルを配置する。
ユーザ配置部37は、ユーザ位置情報取得部34からのユーザ位置情報に基づき、基準座標系生成部31からの基準座標系上に、ユーザ(の視点)を(仮想的に)配置し、その配置結果を、画像生成部38に供給する。
すなわち、ユーザ配置部37は、基準座標系における、ユーザ位置情報が表す位置(に対応する位置)に、ユーザを配置する。
画像生成部38は、表示面配置部35からの、表示面11の基準座標系への配置結果、画像モデル配置部36からの、画像モデルの基準座標系への配置結果、及び、ユーザ配置部37からの、ユーザの基準座標系への配置結果に基づき、ユーザが、表示面11を窓として、画像モデルを見た場合に見える景色を再現した画像を、表示面11に表示する射影画像として生成し、表示部25に供給する。
すなわち、画像生成部38は、基準座標系における表示面11の各画素と、ユーザの位置(視点)とを通る直線に沿って、画像モデルを表示面11(の各画素)上に射影した射影画像を生成する。
より具体的には、いま、基準座標系における表示面11のある画素を、注目する注目画素とすると、画像生成部38は、基準座標系における注目画素とユーザとを通る直線と交差する画像モデルの位置のボクセルを、交差ボクセルとして検出する。
さらに、画像生成部38は、交差ボクセルが有する色を、注目画素の画素値として採用し、以上の処理を、基準座標系における表示面11のすべての画素を、注目画素として行うことで、基準座標系における画像モデルの一部又は全部を、表示面11上に射影した射影画像を生成する。
図4は、図3の制御部24の処理の例を説明するフローチャートである。
ステップS11において、基準座標系生成部31は、基準座標系を生成し、表示面配置部35、画像モデル配置部36、及び、ユーザ配置部37に供給して、処理は、ステップS12に進む。
ステップS12では、画像モデル生成部33は、データ取得部21から供給されるコンテンツのデータから、そのコンテンツのデータに対応する画像モデルを生成し、画像モデル配置部36に供給して、処理は、ステップS13に進む。
ステップS13では、表示面情報取得部32が、表示面検出部22から、表示面情報を取得し、表示面配置部35に供給するとともに、ユーザ位置情報取得部34が、ユーザ検出部23から、ユーザ位置情報を取得し、ユーザ配置部37に供給して、処理は、ステップS14に進む。
ステップS14では、表示面配置部35が、表示面情報取得部32からの表示面情報に基づき、基準座標系生成部31からの基準座標系上に、表示面11を配置し、その配置結果を、画像生成部38に供給する。
さらに、ステップS14では、ユーザ配置部37が、ユーザ位置情報取得部34からのユーザ位置情報に基づき、基準座標系生成部31からの基準座標系上に、ユーザを配置し、その配置結果を、画像生成部38に供給する。
また、ステップS14では、画像モデル配置部36が、例えば、基準座標系におけるユーザから見て、表示面11の奥側の位置等の所定の位置に、画像モデルを配置し、処理は、ステップS15に進む。
ステップS15では、画像生成部38が、表示面配置部35からの、表示面11の基準座標系への配置結果、画像モデル配置部36からの、画像モデルの基準座標系への配置結果、及び、ユーザ配置部37からの、ユーザの基準座標系への配置結果に基づき、基準座標系における表示面11の各画素と、ユーザの位置(視点)とを通る直線に沿って、画像モデルを表示面11の各画素上に射影した射影画像を生成し、処理は、ステップS16に進む。
ステップS16では、画像生成部38は、射影画像を、表示部25に供給することで、表示面11に表示させ、処理は、ステップS17に進む。
ステップS17では、ステップS13と同様に、表示面情報取得部32が、表示面検出部22から、表示面情報を取得し、表示面配置部35に供給するとともに、ユーザ位置情報取得部34が、ユーザ検出部23から、ユーザ位置情報を取得し、ユーザ配置部37に供給して、処理は、ステップS18に進む。
ステップS18では、表示面配置部35が、表示面情報取得部32からの表示面情報に基づき、基準座標系生成部31からの基準座標系上に、表示面11を配置し、その配置結果を、画像生成部38に供給するとともに、ユーザ配置部37が、ユーザ位置情報取得部34からのユーザ位置情報に基づき、基準座標系生成部31からの基準座標系上に、ユーザを配置し、その配置結果を、画像生成部38に供給する。
そして、処理は、ステップS15に戻り、以下、同様の処理が繰り返される。
<射影画像の生成の原理>
図5は、図3の画像生成部38による射影画像の生成の原理を説明する図である。
図5では、表示面情報、及び、ユーザ位置情報に基づいて、基準座標系上に、ユーザ、表示面11、及び、画像モデルが配置されている。
いま、基準座標系における表示面11のある画素Pを、注目する注目画素Pとすると、画像生成部38は、基準座標系における注目画素Pとユーザとを通る直線(図5において、点線の矢印で示す)と交差する画像モデルの位置のボクセルVを、交差ボクセルVとして検出する。
さらに、画像生成部38は、交差ボクセルVが有する色を、注目画素Pの画素値として採用することで、交差ボクセルVを、注目画素Pに射影する。
そして、画像生成部38は、同様の処理を、基準座標系における表示面11のすべての画素を、注目画素として行うことで、表示面11に表示される射影画像を生成する。
なお、注目画素Pとユーザとを通る直線と交差する交差ボクセルとして、複数のボクセルが存在する場合、その複数の交差ボクセルのうちの、(ユーザから見て)最も手前側の交差ボクセルの色が、注目画素Pの画素値として採用される。
但し、交差ボクセルとして、複数のボクセルが存在する場合であっても、最も手前側の交差ボクセルの色が、透明性を有する色であるときには、その透明性に応じて、最も手前側の交差ボクセルの色と、手前から2番目(奥側)の交差ボクセルの色とを重畳した色が、注目画素Pの画素値として採用される。手前から2番目以降の交差ボクセルの色が透明性を有する場合も同様である。
また、基準座標系における注目画素Pとユーザとを通る直線と交差する画像モデルの位置(以下、モデル交差位置ともいう)に、ボクセルがないこと、すなわち、モデル交差位置と、ボクセルの位置とがずれていることがある。
この場合、画像生成部38は、例えば、モデル交差位置に最も近いボクセルを、交差ボクセルとして検出し、交差ボクセルが有する色を、注目画素Pの画素値として採用することができる。
又は、画像生成部38は、例えば、モデル交差位置に近接又は隣接する、最も手前側の複数のボクセルを、交差ボクセルの候補となる候補ボクセルとして検出し、その複数の候補ボクセルを用いた補間(内挿又は外挿)によって、モデル交差位置に、交差ボクセルを生成することができる。この場合、交差ボクセルが有する色として、複数の候補ボクセルのそれぞれが有する色を、各候補ボクセルとモデル交差位置との距離に応じて合成した合成色が生成される。その結果、そのような合成色が、注目画素Pの画素値として採用される。
以上のように、表示面情報、及び、ユーザ位置情報に基づいて、基準座標系上に、ユーザ、表示面11、及び、画像モデルを配置し、基準座標系における表示面11の画素Pと、ユーザとを通る直線に沿って、画像モデルを、表示面11の画素Pに射影することで、射影画像を生成することにより、ユーザが、表示面11を窓として、画像モデルを見た場合に見える景色を再現した画像を、射影画像として得ることができる。
したがって、ユーザが、表示面11に表示された射影画像を見た場合に、ユーザの網膜に射影される画像は、ユーザが、表示面11を窓として、その窓を通して画像モデルを見た場合に、ユーザの網膜に射影される画像と同様(同一又は類似)の画像となり、ユーザは、あたかも、画像モデルがユーザの目の前に定位しており、表示面11を窓として、その窓を通して、画像モデルを見ているかのような感覚を享受することができる。
ここで、上述のように、表示面11に表示される射影画像は、ユーザが、表示面11を窓として、画像モデルを見た場合に見える景色を再現した画像になるので、例えば、画像を撮影する撮影装置で撮影されたある場所Aの景色の画像(のコンテンツ)から得られる画像モデル(以下、場所Aの画像モデルともいう)を用いて、射影画像を生成することにより、ユーザは、実際に、場所Aに行かなくても、その場所Aにいるかのような感覚を享受することができる。
また、射影画像は、撮影装置による場所Aの撮影時の撮影装置の位置(絶対的な位置)及び姿勢にも基づいて生成することができる。
すなわち、場所Aの画像モデルを用いた射影画像は、スマートフォンを所持しているユーザが、実際に、場所Aにいるときに生成することができる。
そして、場所Aの画像モデルを用いた射影画像の生成は、場所Aの撮影時の撮影装置の位置及び姿勢に基づいて、場所Aの撮影時の景色を再現するように、場所Aの画像モデルを基準座標系に配置して行うことができる。
この場合、ユーザは、場所Aにおいて、窓としての表示面11から、場所Aの過去の景色を見る、いわば、時間窓(window of time)、あるいは、タイムマシンを体験することができる。
すなわち、実際に、場所Aにいるユーザは、場所Aの現在の景色を見ることができる。
さらに、ユーザが場所Aにいる場合には、場所Aの画像モデルを用いた射影画像の生成が、場所Aの撮影時の過去の景色を再現するように、場所Aの画像モデルを基準座標系に配置して行われるので、例えば、ユーザが、場所Aにおいて、ある方向Bに、スマートフォンを向けると、スマートフォンの表示面11には、撮影装置で場所Aを撮影したときの方向Bの過去の景色が、射影画像として表示される。
これにより、ユーザは、撮影装置での場所Aの撮影時に、その場所Aにいたならば見ることができた方向Bの過去の景色を、窓としての表示面11に表示された射影画像として見ることができる。
したがって、ユーザは、実際の景色として、場所Aの方向Bの現在の景色を見ることができるとともに、表示面11を窓として、その窓を通して、場所Aの方向Bの過去の景色を見ているかのような感覚を享受することができる。
<画像モデルの例>
図6は、画像モデルの第1の例を示す図である。
画像モデルは、位置と色の情報を有するボクセルで構成され、任意の形状の構造の画像を表現することができる。
図6は、2D画像の画像モデルの例を示している。2D画像の画像モデルは、例えば、長方形状の(平面の)構造を有する。2D画像の画像モデルのボクセルは、位置の情報として、水平方向、及び、垂直方向の位置の情報を有する。
図7は、画像モデルの第2の例を示す図である。
図7は、3D画像の画像モデルの例を示している。3D画像の画像モデルは、水平方向、垂直方向、及び、奥行き方向に広がる複雑な構造を有し、したがって、3D画像の画像モデルのボクセルは、位置の情報として、水平方向、垂直方向、及び、奥行き方向の位置の情報を有する。
図8は、画像モデルの第3の例を示す図である。
図8の画像モデルは、長方形を湾曲させた曲面の構造を有する。
画像モデルの構造としては、図6ないし図8に示した構造の他、例えば、球体等の任意の構造を採用することができる。
<射影画像の具体例>
以下、表示面11が、水平方向、垂直方向、及び、奥行き方向のそれぞれに(平行)移動(並進)する場合、表示面11が、ピッチ方向、ヨー方向、及び、ロール方向のそれぞれに回転する場合、並びに、ユーザが、水平方向、垂直方向、及び、奥行き方向のそれぞれに移動する場合のそれぞれにおいて生成される射影画像の具体例について説明する。
なお、ここでは、説明を分かりやすくするために、表示面11が、水平方向、垂直方向、及び、奥行き方向のそれぞれに移動する場合、表示面11が、ピッチ方向、ヨー方向、及び、ロール方向のそれぞれに回転する場合、並びに、ユーザが、水平方向、垂直方向、及び、奥行き方向のそれぞれに移動する場合のそれぞれに分けて、射影画像の生成の具体例について説明するが、射影画像は、これらの移動や回転の任意の組み合わせに対して生成することができる。
図9は、表示面11が水平方向に移動する場合の射影画像の生成の例を説明する図である。
なお、以下では、表示面11やユーザは、例えば、初期設定タイミングの状態から動くこととする。
また、基準座標系は、例えば、初期設定タイミングの表示面11の長辺方向の左から右方向を、x軸と、表示面11の短辺方向の下から上方向を、y軸と、表示面11と直交する、表示面11と対向する方向を、z軸とする3次元の座標系であることとする。
さらに、初期タイミングでは、基準座標系において、ユーザは、例えば、表示面11の中心を通る直線上の、表示面11と対向する側に配置されることとし、ユーザ及び表示面11の水平方向、垂直方向、及び、奥行き方向は、それぞれ、基準座標系のx軸、y軸、及び、z軸と平行な方向になっていることとする。
また、画像モデルとしては、例えば、2D画像の静止画の画像モデルを採用することとする。
図9のAは、初期設定タイミングにおける基準座標系上のユーザと表示面11の配置の例を示している。
表示面11の水平方向の移動では、表示面11は、ユーザによって、姿勢を変化させずに、初期設定タイミングにおける表示面11を含む平面(xy平面に平行な平面)内を、図9のAに実線の太い矢印で示すように、左方向に移動されるか、又は、図9のAに点線の太い矢印で示すように、右方向に移動される。
図9のBは、表示面11が、左方向に移動される場合に、その移動前(初期設定タイミング)に生成される射影画像と、移動後に生成される射影画像とを示している。
図9のBにおいて、表示面11の移動前では、図5で説明した原理に従って、ユーザの真正面に、窓としての表示面11があり、その窓から、ユーザが静止画の画像モデルを見ているかのような射影画像が生成される。
そして、表示面11が左方向に移動された後では、図5で説明した原理に従って、ユーザの正面の左側に、窓としての表示面11があり、その窓から、静止画の画像モデルを見ているかのような射影画像が生成される。
すなわち、表示面11が左方向に移動されても、窓としての表示面11の向こう側(奥側)に存在する静止画の画像モデルが、その場に留まっており、窓が移動することによって、画像モデルの見える範囲が、移動前よりも左側の範囲に変わったような射影画像が生成される。
図9のCは、表示面11が、右方向に移動される場合に、その移動前に生成される射影画像と、移動後に生成される射影画像とを示している。
表示面11が右方向に移動される場合も、窓としての表示面11の向こう側に存在する静止画の画像モデルが、その場に留まっており、窓が移動することによって、画像モデルの見える範囲が、移動前よりも右側の範囲に変わったような射影画像が生成される。
図10は、表示面11が水平方向に移動する場合の射影画像の生成の例を、さらに説明する図である。
図10は、基準座標系を、y軸の正方向から見た図であり、左から右方向、図に垂直な方向、及び、上から下方向が、それぞれ、基準座標系のx軸、y軸、及び、z軸になっている。
図10では、時刻Tにおいて、ユーザの真正面に位置していた表示面11が、時刻T+1において、ユーザの正面の左に移動されている。
なお、図10では、表示面11の移動前、及び、移動後のいずれにおいても、表示面11、及び、(2D画像の静止画の)画像モデルは、xy平面に平行になっている。
画像モデルのあるボクセルV#1は、表示面11の移動前の時刻Tでは、表示面11の左側の画素P#1に射影されるが、表示面11の左への移動後の時刻T+1では、表示面11の右側の画素P#2に射影される。
図11は、図10のボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。
画像モデルのボクセルV#1は、表示面11の移動前の時刻Tでは、窓としての表示面11の左に画素P#1として見え、表示面11の左への移動後の時刻T+1では、窓としての表示面11の右に画素P#2として見える。
その結果、ユーザは、あたかも、画像モデルがユーザの目の前に定位しており、表示面11を窓として、その窓を左に移動することにより、窓を通して見える画像モデルの範囲が変化したかのような感覚を享受することができる。
図12は、表示面11が垂直方向に移動する場合の射影画像の生成の例を説明する図である。
図12のAは、初期設定タイミングにおける基準座標系上のユーザと表示面11の配置の例を示している。
表示面11の垂直方向の移動では、表示面11は、ユーザによって、姿勢を変化させずに、初期設定タイミングにおける表示面11を含む平面(xy平面に平行な平面)内を、図12のAに実線の太い矢印で示すように、下方向に移動されるか、又は、図12のAに点線の太い矢印で示すように、上方向に移動される。
図12のBは、表示面11が、下方向に移動される場合に、その移動前(初期設定タイミング)に生成される射影画像と、移動後に生成される射影画像とを示している。
図12のBにおいて、表示面11の移動前では、図5で説明した原理に従って、ユーザの真正面に、窓としての表示面11があり、その窓から、静止画の画像モデルを見ているかのような射影画像が生成される。
そして、表示面11が下方向に移動された後では、図5で説明した原理に従って、ユーザの正面の下側に、窓としての表示面11があり、その窓から、ユーザが静止画の画像モデルを見ているかのような射影画像が生成される。
すなわち、表示面11が下方向に移動されても、窓としての表示面11の向こう側(奥側)に存在する静止画の画像モデルが、その場に留まっており、窓が移動することによって、画像モデルの見える範囲が、移動前よりも下側の範囲に変わったような射影画像が生成される。
図12のCは、表示面11が、上方向に移動される場合に、その移動前に生成される射影画像と、移動後に生成される射影画像とを示している。
表示面11が上方向に移動される場合も、窓としての表示面11の向こう側に存在する静止画の画像モデルが、その場に留まっており、窓が移動することによって、画像モデルの見える範囲が、移動前よりも上側の範囲に変わったような射影画像が生成される。
図13は、表示面11が垂直方向に移動する場合の射影画像の生成の例を、さらに説明する図である。
図13は、基準座標系を、x軸の正方向から見た図であり、図に垂直な方向、右から左方向、及び、上から下方向が、それぞれ、基準座標系のx軸、y軸、及び、z軸になっている。
図13では、時刻Tにおいて、ユーザの真正面に位置していた表示面11が、時刻T+1において、ユーザの正面の下に移動されている。
なお、図13では、表示面11の移動前、及び、移動後のいずれにおいても、表示面11、及び、(2D画像の静止画の)画像モデルは、xy平面に平行になっている。
画像モデルのあるボクセルV#1は、表示面11の移動前の時刻Tでは、表示面11の上下の中央付近の画素P#1に射影されるが、表示面11の下への移動後の時刻T+1では、表示面11の上側の画素P#2に射影される。
図14は、図13のボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。
画像モデルのボクセルV#1は、表示面11の移動前の時刻Tでは、窓としての表示面11の上下の中央付近に画素P#1として見え、表示面11の下への移動後の時刻T+1では、窓としての表示面11の上に画素P#2として見える。
その結果、ユーザは、あたかも、画像モデルがユーザの目の前に定位しており、表示面11を窓として、その窓を下に移動することにより、窓を通して見える画像モデルの範囲が変化したかのような感覚を享受することができる。
図15は、表示面11が奥行き方向に移動する場合の射影画像の生成の例を説明する図である。
図15のAは、初期設定タイミングにおける基準座標系上のユーザと表示面11の配置の例を示している。
表示面11の奥行き方向の移動では、表示面11は、ユーザによって、姿勢を変化させずに、初期設定タイミングにおける表示面11に直交する方向に(z軸の方向に)、図15のAに実線の太い矢印で示すように、手前方向(ユーザから見て手前側)に移動されるか、又は、図15のAに点線の太い矢印で示すように、奥方向(ユーザから見て奥側)に移動される。
図15のBは、表示面11が、手前方向に移動される場合に、その移動前(初期設定タイミング)に生成される射影画像と、移動後に生成される射影画像とを示している。
図15のBにおいて、表示面11の移動前では、図5で説明した原理に従って、ユーザの真正面に、窓としての表示面11があり、その窓から、静止画の画像モデルを見ているかのような射影画像が生成される。
そして、表示面11が手前方向に移動された後では、図5で説明した原理に従って、ユーザの真正面のより手前側に、窓としての表示面11があり、その窓から、ユーザが静止画の画像モデルを見ているかのような射影画像が生成される。
すなわち、表示面11が手前方向に移動されても、窓としての表示面11の向こう側(奥側)に存在する静止画の画像モデルが、その場に留まっており、窓が移動することによって、画像モデルの見える範囲が、移動前よりも広い範囲に変わったような射影画像が生成される。
図15のCは、表示面11が、奥方向に移動される場合に、その移動前に生成される射影画像と、移動後に生成される射影画像とを示している。
表示面11が奥方向に移動される場合も、窓としての表示面11の向こう側に存在する静止画の画像モデルが、その場に留まっており、窓が移動することによって、画像モデルの見える範囲が、移動前よりも狭い範囲に変わったような射影画像が生成される。
図16は、表示面11が奥行き方向に移動する場合の射影画像の生成の例を、さらに説明する図である。
図16は、基準座標系を、y軸の正方向から見た図であり、左から右方向、図に垂直な方向、及び、上から下方向が、それぞれ、基準座標系のx軸、y軸、及び、z軸になっている。
図16では、時刻Tにおいて、ユーザの真正面のある位置にあった表示面11が、時刻T+1において、ユーザの真正面のより手前に移動されている。
なお、図16では、表示面11の移動前、及び、移動後のいずれにおいても、表示面11、及び、(2D画像の静止画の)画像モデルは、xy平面に平行になっている。
画像モデルのあるボクセルV#1は、表示面11の移動前の時刻Tでは、表示面11の中心から遠い左側の画素P#1に射影されるが、表示面11の手前への移動後の時刻T+1では、表示面11の中心から近い左側の画素P#2に射影される。
図17は、図16のボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。
画像モデルのボクセルV#1は、表示面11の移動前の時刻Tでは、窓としての表示面11の中心から遠い左側に画素P#1として見え、表示面11の手前への移動後の時刻T+1では、窓としての表示面11の中心に近い左側に画素P#2として見える。
その結果、ユーザは、あたかも、画像モデルがユーザの目の前に定位しており、表示面11を窓として、その窓を手前に移動することにより、窓を通して見える画像モデルの範囲が変化したかのような感覚を享受することができる。
図18は、表示面11がピッチ方向に回転されて傾けられる場合の射影画像の生成の例を説明する図である。
図18のAは、初期設定タイミングにおける基準座標系上のユーザと表示面11の配置の例を示している。
表示面11のピッチ方向の回転(x軸回りの回転)では、表示面11は、ユーザによって、位置を変化させずに、例えば、初期設定タイミングにおける表示面11の中心を通るx軸に平行な直線を回転軸として、図18のAに実線の太い矢印で示すように、又は、その矢印の反対向きに回転されて傾けられる。
図18のBは、表示面11が、図18のAに実線の太い矢印で示すように、ピッチ方向に回転されて傾けられる場合に、表示面11が傾けられる前(初期設定タイミング)に生成される射影画像と、表示面11が傾けられた後に生成される射影画像とを示している。
図18のBにおいて、表示面11が傾けられる前では、図5で説明した原理に従って、ユーザの真正面に、ユーザに正対した状態の窓としての表示面11があり、その窓から、静止画の画像モデルを見ているかのような射影画像が生成される。
そして、表示面11が回転されてピッチ方向に傾けられた後では、図5で説明した原理に従って、ユーザの真正面に、ピッチ方向に傾いた状態の窓としての表示面11があり、その窓から、ユーザが静止画の画像モデルを見ているかのような射影画像が生成される。
すなわち、表示面11がピッチ方向に傾けられても、その傾いた窓としての表示面11の向こう側(奥側)に存在する静止画の画像モデルが、その場に留まっており、窓がピッチ方向に傾くことによって、画像モデルの見える範囲が、窓が傾く前よりも狭い範囲に変わったような射影画像が生成される。
図19は、表示面11がピッチ方向に傾けられる場合の射影画像の生成の例を、さらに説明する図である。
図19は、基準座標系を、x軸の負方向から見た図であり、図に垂直な方向、下から上方向、及び、左から右方向が、それぞれ、基準座標系のx軸、y軸、及び、z軸になっている。
図19では、時刻Tにおいて、ユーザの真正面に正対する状態になっていた表示面11が、時刻T+1において、ピッチ方向に傾けられている。
なお、図19では、(2D画像の静止画の)画像モデルは、表示面11が傾けられる前後のいずれにおいても、xy平面に平行になっている。
また、表示面11は、ピッチ方向に傾けられる前の時刻Tにおいては、xy平面に平行になっているが、ピッチ方向に傾けられた後の時刻T+1においては、xy平面と平行にはなっていない。
画像モデルのあるボクセルV#1は、表示面11がピッチ方向に傾けられる前の時刻Tでは、表示面11の中心から近い上側の画素P#1に射影されるが、表示面11が傾けられた後の時刻T+1では、表示面11の中心から遠い上側の画素P#2に射影される。
図20は、図19のボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。
画像モデルのボクセルV#1は、表示面11が傾けられる前の時刻Tでは、窓としての表示面11の中心から近い上側に画素P#1として見え、表示面11が傾けられた後の時刻T+1では、窓としての表示面11の中心から遠い上側(表示面11によって擬製される窓の窓枠内の上側)に画素P#2として見える。
その結果、ユーザは、あたかも、画像モデルがユーザの目の前に定位しており、表示面11を窓として、その窓をピッチ方向に傾けることにより、窓を通して見える画像モデルの範囲が変化したかのような感覚を享受することができる。
図21は、図20のピッチ方向に傾けられた表示面11を、その表示面11に直交する方向から見た場合の、表示面11に表示された射影画像の例を示す図である。
ピッチ方向に傾けられた状態の表示面11に表示される射影画像は、そのようにピッチ方向に傾けられた状態の表示面11を見た場合に、その傾けられた表示面11を窓として、その窓から画像モデルを見たときに見える景色の画像となるように、いわば、垂直方向に間延びした画像になっている。
図22は、表示面11がヨー方向に回転されて傾けられる場合の射影画像の生成の例を説明する図である。
図22のAは、初期設定タイミングにおける基準座標系上のユーザと表示面11の配置の例を示している。
表示面11のヨー方向の回転(y軸回りの回転)では、表示面11は、ユーザによって、位置を変化させずに、初期設定タイミングにおける表示面11の中心を通るy軸に平行な直線を回転軸として、図22のAに実線の太い矢印で示すように、又は、その矢印の反対向きに回転されて傾けられる。
図22のBは、表示面11が、図22のAに実線の太い矢印で示すように、ヨー方向に回転されて傾けられる場合に、表示面11が傾けられる前(初期設定タイミング)に生成される射影画像と、表示面11が傾けられた後に生成される射影画像とを示している。
図22のBにおいて、表示面11が傾けられる前では、図5で説明した原理に従って、ユーザの真正面に、ユーザに正対した状態の窓としての表示面11があり、その窓から、静止画の画像モデルを見ているかのような射影画像が生成される。
そして、表示面11が回転されてヨー方向に傾けられた後では、図5で説明した原理に従って、ユーザの真正面に、ヨー方向に傾いた状態の窓としての表示面11があり、その窓から、ユーザが静止画の画像モデルを見ているかのような射影画像が生成される。
すなわち、表示面11がヨー方向に傾けられても、その傾いた窓としての表示面11の向こう側(奥側)に存在する静止画の画像モデルが、その場に留まっており、窓がヨー方向に傾くことによって、画像モデルの見える範囲が、窓が傾く前よりも狭い範囲に変わったような射影画像が生成される。
図23は、表示面11がヨー方向に傾けられる場合の射影画像の生成の例を、さらに説明する図である。
図23は、基準座標系を、y軸の正方向から見た図であり、左から右方向、図に垂直な方向、及び、上から下方向が、それぞれ、基準座標系のx軸、y軸、及び、z軸になっている。
図23では、時刻Tにおいて、ユーザの真正面に正対する状態になっていた表示面11が、時刻T+1において、ヨー方向に傾けられている。
なお、図23では、(2D画像の静止画の)画像モデルは、表示面11が傾けられる前後のいずれにおいても、xy平面に平行になっている。
また、表示面11は、ヨー方向に傾けられる前の時刻Tにおいては、xy平面に平行になっているが、ヨー方向に傾けられた後の時刻T+1においては、xy平面と平行にはなっていない。
画像モデルのあるボクセルV#1は、表示面11がヨー方向に傾けられる前の時刻Tでは、表示面11の中心から近い左側の画素P#1に射影されるが、表示面11が傾けられた後の時刻T+1では、表示面11の中心から遠い左側の画素P#2に射影される。
図24は、図23のボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。
画像モデルのボクセルV#1は、表示面11が傾けられる前の時刻Tでは、窓としての表示面11の中心から近い左側に画素P#1として見え、表示面11が傾けられた後の時刻T+1では、窓としての表示面11の中心から遠い左側(表示面11によって擬製される窓の窓枠内の左側)に画素P#2として見える。
その結果、ユーザは、あたかも、画像モデルがユーザの目の前に定位しており、表示面11を窓として、その窓をヨー方向に傾けることにより、窓を通して見える画像モデルの範囲が変化したかのような感覚を享受することができる。
図25は、図24のヨー方向に傾けられた表示面11を、その表示面11に直交する方向から見た場合の、表示面11に表示された射影画像の例を示す図である。
ヨー方向に傾けられた状態の表示面11に表示される射影画像は、そのようにヨー方向に傾けられた状態の表示面11を見た場合に、その傾けられた表示面11を窓として、その窓から画像モデルを見たときに見える景色の画像となるように、いわば、水平方向に間延びした画像になっている。
図26は、表示面11がロール方向に回転されて傾けられる場合の射影画像の生成の例を説明する図である。
図26のAは、初期設定タイミングにおける基準座標系上のユーザと表示面11の配置の例を示している。
表示面11のロール方向の回転(z軸回りの回転)では、表示面11は、ユーザによって、位置を変化させずに、初期設定タイミングにおける表示面11の中心を通るz軸に平行な直線を回転軸として、図26のAに実線の太い矢印で示すように、又は、その矢印の反対向きに回転されて傾けられる。
図26のBは、表示面11が、図26のAに実線の太い矢印で示すように、ロール方向に回転されて傾けられる場合に、表示面11が傾けられる前(初期設定タイミング)に生成される射影画像と、表示面11が傾けられた後に生成される射影画像とを示している。
図26のBにおいて、表示面11が傾けられる前では、図5で説明した原理に従って、ユーザの真正面に、長辺及び短辺がユーザの左右方向及び上下方向をそれぞれ向いた状態の窓としての表示面11があり、その窓から、静止画の画像モデルを見ているかのような射影画像が生成される。
そして、表示面11が回転されてロール方向に傾けられた後では、図5で説明した原理に従って、ユーザの真正面に、ロール方向に傾いた状態の窓としての表示面11があり、その窓から、ユーザが静止画の画像モデルを見ているかのような射影画像が生成される。
すなわち、表示面11がロール方向に傾けられても、その傾いた窓としての表示面11の向こう側(奥側)に存在する静止画の画像モデルが、その場に留まっており、窓がロール方向に傾くことによって、画像モデルの見える範囲が、窓が傾く前とは異なる範囲に変わったような射影画像が生成される。
図27及び図28は、表示面11がロール方向に傾けられる場合の射影画像の生成の例を、さらに説明する図である。
図27は、基準座標系を、y軸の正方向から見た図であり、左から右方向、図に垂直な方向、及び、上から下方向が、それぞれ、基準座標系のx軸、y軸、及び、z軸になっている。
図28は、基準座標系を、z軸の正方向から見た図であり、左から右方向、下から上方向、及び、図に垂直な方向が、それぞれ、基準座標系のx軸、y軸、及び、z軸になっている。
図27及び図28では、時刻Tにおいて、ユーザの真正面に正対する状態(ロール方向に傾いていない状態)になっていた表示面11が、時刻T+1において、ロール方向に傾けられている。
なお、図27及び図28では、表示面11、及び、(2D画像の静止画の)画像モデルは、表示面11が傾けられる前後のいずれにおいても、xy平面に平行になっている。
画像モデルのあるボクセルV#1は、表示面11がロール方向に傾けられる前の時刻Tでは、表示面11の中心を通る、x軸に平行な直線上の画素P#1に射影されるが、表示面11が傾けられた後の時刻T+1では、(ロール方向に傾けられていない状態の)表示面11の中心から左下側の画素P#2に射影される。
図29は、図27及び図28のボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。
画像モデルのボクセルV#1は、表示面11が傾けられる前の時刻Tでは、窓としての表示面11の中心を通る、x軸に平行な直線上に画素P#1として見え、表示面11が傾けられた後の時刻T+1では、窓としての表示面11の中心から左下側(表示面11によって擬製される窓枠内の左下側)に画素P#2として見える。
その結果、ユーザは、あたかも、画像モデルがユーザの目の前に定位しており、表示面11を窓として、その窓をロール方向に傾けることにより、窓を通して見える画像モデルの範囲が変化したかのような感覚を享受することができる。
図30は、図29のロール方向に傾けられた表示面11を、同様にロール方向に傾いて見た場合の、表示面11に表示された射影画像の例を示す図である。
ロール方向に傾けられた状態の表示面11に表示される射影画像は、そのようにロール方向に傾けられた状態の表示面11を見た場合に、その傾けられた表示面11を窓として、その窓から画像モデルを見たときに見える景色の画像となるように、表示面11を傾けたロール方向とは逆のロール方向に傾いた画像になっている。
図31は、ユーザが水平方向に移動する場合の射影画像の生成の例を説明する図である。
図31のAは、初期設定タイミングにおける基準座標系上のユーザと表示面11の配置の例を示している。
ユーザの水平方向の移動では、ユーザは、初期設定タイミングにおける表示面11に平行な平面(xy平面に平行な平面)内を、図31のAに実線の太い矢印で示すように、左方向に移動するか、又は、図31のAに点線の太い矢印で示すように、右方向に移動する。
図31のBは、ユーザが、左方向に移動する場合に、その移動前(初期設定タイミング)に生成される射影画像と、移動後に生成される射影画像とを示している。
図31のBにおいて、ユーザの移動前では、図5で説明した原理に従って、ユーザの真正面に、窓としての表示面11があり、その窓から、ユーザが静止画の画像モデルを見ているかのような射影画像が生成される。
そして、ユーザが左方向に移動した後では、図5で説明した原理に従って、ユーザの正面の右側に、窓としての表示面11があり、その窓から、静止画の画像モデルを見ているかのような射影画像が生成される。
すなわち、ユーザが左方向に移動しても、窓としての表示面11の向こう側(奥側)に存在する静止画の画像モデルが、その場に留まっており、ユーザが移動することによって、画像モデルの見える範囲が、移動前よりも右側の範囲に変わったような射影画像が生成される。
図31のCは、ユーザが、右方向に移動する場合に、その移動前に生成される射影画像と、移動後に生成される射影画像とを示している。
ユーザが右方向に移動する場合も、窓としての表示面11の向こう側に存在する静止画の画像モデルが、その場に留まっており、ユーザが移動することによって、画像モデルの見える範囲が、移動前よりも左側の範囲に変わったような射影画像が生成される。
図32は、ユーザが水平方向に移動する場合の射影画像の生成の例を、さらに説明する図である。
図32は、基準座標系を、y軸の正方向から見た図であり、左から右方向、図に垂直な方向、及び、上から下方向が、それぞれ、基準座標系のx軸、y軸、及び、z軸になっている。
図32では、時刻Tにおいて、表示面11の真正面に位置していたユーザが、時刻T+1において、表示面11の正面の左に移動している。
なお、図32では、ユーザの移動前、及び、移動後のいずれにおいても、表示面11、及び、(2D画像の静止画の)画像モデルは、xy平面に平行になっている。
画像モデルのあるボクセルV#1は、ユーザの移動前の時刻Tでは、表示面11の中心の画素P#1に射影されるが、ユーザの左への移動後の時刻T+1では、表示面11の左側の画素P#2に射影される。
図33は、図32のボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。
画像モデルのボクセルV#1は、ユーザの移動前の時刻Tでは、窓としての表示面11の中心に画素P#1として見え、ユーザの左への移動後の時刻T+1では、窓としての表示面11の左に画素P#2として見える。
その結果、ユーザは、あたかも、画像モデルがユーザの目の前に定位しており、表示面11を窓として、ユーザが左に移動することにより、窓を通して見える画像モデルの範囲が変化したかのような感覚を享受することができる。
図34は、ユーザが垂直方向に移動する場合の射影画像の生成の例を説明する図である。
図34のAは、初期設定タイミングにおける基準座標系上のユーザと表示面11の配置の例を示している。
ユーザの垂直方向の移動では、ユーザは、初期設定タイミングにおける表示面11に平行な平面(xy平面に平行な平面)内を、図34のAに実線の太い矢印で示すように、上方向に移動するか、又は、図34のAに点線の太い矢印で示すように、下方向に移動する。
図34のBは、ユーザが、上方向に移動する場合に、その移動前(初期設定タイミング)に生成される射影画像と、移動後に生成される射影画像とを示している。
図34のBにおいて、ユーザの移動前では、図5で説明した原理に従って、ユーザの真正面に、窓としての表示面11があり、その窓から、ユーザが静止画の画像モデルを見ているかのような射影画像が生成される。
そして、ユーザが上方向に移動した後では、図5で説明した原理に従って、ユーザの正面の下側に、窓としての表示面11があり、その窓から、静止画の画像モデルを見ているかのような射影画像が生成される。
すなわち、ユーザが上方向に移動しても、窓としての表示面11の向こう側(奥側)に存在する静止画の画像モデルが、その場に留まっており、ユーザが移動することによって、画像モデルの見える範囲が、移動前よりも下側の範囲に変わったような射影画像が生成される。
図34のCは、ユーザが、下方向に移動する場合に、その移動前に生成される射影画像と、移動後に生成される射影画像とを示している。
ユーザが下方向に移動する場合も、窓としての表示面11の向こう側に存在する静止画の画像モデルが、その場に留まっており、ユーザが移動することによって、画像モデルの見える範囲が、移動前よりも上側の範囲に変わったような射影画像が生成される。
図35は、ユーザが垂直方向に移動する場合の射影画像の生成の例を、さらに説明する図である。
図35は、基準座標系を、x軸の正方向から見た図であり、図に垂直な方向、右から左方向、及び、上から下方向が、それぞれ、基準座標系のx軸、y軸、及び、z軸になっている。
図35では、時刻Tにおいて、表示面11の真正面に位置していたユーザが、時刻T+1において、表示面11の正面の上に移動している。
なお、図35では、ユーザの移動前、及び、移動後のいずれにおいても、表示面11、及び、(2D画像の静止画の)画像モデルは、xy平面に平行になっている。
画像モデルのあるボクセルV#1は、ユーザの移動前の時刻Tでは、表示面11の中心の画素P#1に射影されるが、ユーザの上への移動後の時刻T+1では、表示面11の上側の画素P#2に射影される。
図36は、図35のボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。
画像モデルのボクセルV#1は、ユーザの移動前の時刻Tでは、窓としての表示面11の中心に画素P#1として見え、ユーザの上への移動後の時刻T+1では、窓としての表示面11の上に画素P#2として見える。
その結果、ユーザは、あたかも、画像モデルがユーザの目の前に定位しており、表示面11を窓として、ユーザが上に移動することにより、窓を通して見える画像モデルの範囲が変化したかのような感覚を享受することができる。
図37は、ユーザが奥行き方向に移動する場合の射影画像の生成の例を説明する図である。
図37のAは、初期設定タイミングにおける基準座標系上のユーザと表示面11の配置の例を示している。
ユーザの奥行き方向の移動では、ユーザは、初期設定タイミングにおける表示面11に直交する方向に移動する。すなわち、ユーザは、図37のAに実線の太い矢印で示すように、奥方向(ユーザから表示面11に向かう方向)に移動するか、又は、図37のAに点線の太い矢印で示すように、手前方向(表示面11からユーザに向かう方向)に移動する。
図37のBは、ユーザが、奥方向に移動する場合に、その移動前(初期設定タイミング)に生成される射影画像と、移動後に生成される射影画像とを示している。
図37のBにおいて、ユーザの移動前では、図5で説明した原理に従って、ユーザの真正面に、窓としての表示面11があり、その窓から、ユーザが静止画の画像モデルを見ているかのような射影画像が生成される。
そして、ユーザが奥方向に移動した後では、図5で説明した原理に従って、ユーザの正面の近くに、窓としての表示面11があり、その窓から、静止画の画像モデルを見ているかのような射影画像が生成される。
すなわち、ユーザが奥方向に移動しても、窓としての表示面11の向こう側(奥側)に存在する静止画の画像モデルが、その場に留まっており、ユーザが移動することによって、画像モデルの見える範囲が、移動前よりも広い範囲に変わったような射影画像が生成される。
図37のCは、ユーザが、手前方向に移動する場合に、その移動前に生成される射影画像と、移動後に生成される射影画像とを示している。
ユーザが手前方向に移動する場合も、窓としての表示面11の向こう側に存在する静止画の画像モデルが、その場に留まっており、ユーザが移動することによって、画像モデルの見える範囲が、移動前よりも狭い範囲に変わったような射影画像が生成される。
図38は、ユーザが奥行き方向に移動する場合の射影画像の生成の例を、さらに説明する図である。
図38は、基準座標系を、y軸の正方向から見た図であり、左から右方向、図に垂直な方向、及び、上から下方向が、それぞれ、基準座標系のx軸、y軸、及び、z軸になっている。
図38では、時刻Tにおいて、表示面11の真正面に位置していたユーザが、時刻T+1において、表示面11の正面のより近い位置に移動している。
なお、図38では、ユーザの移動前、及び、移動後のいずれにおいても、表示面11、及び、(2D画像の静止画の)画像モデルは、xy平面に平行になっている。
画像モデルのあるボクセルV#1は、ユーザの移動前の時刻Tでは、表示面11の中心から離れた左の画素P#1に射影されるが、ユーザの奥への移動後の時刻T+1では、表示面11の中心に近い画素P#2に射影される。
ここで、ユーザが、奥方向に移動する場合には、ユーザと表示面11とが近くなり、窓としての表示面11から見える景色の視野角が大きくなる。
一方、図15ないし図17で説明した、表示面11が、手前方向に移動される場合も、ユーザと表示面11とが近くなるので、窓としての表示面11から見える景色の視野角が大きくなる。
したがって、ユーザが、奥方向に移動する場合と、表示面11が、手前方向に移動される場合とは、いずれも、窓としての表示面11から見える景色の視野角が大きくなる点で共通する。
但し、ユーザが、奥方向に移動する場合には、ユーザと画像モデルとが近くなるので、窓としての表示面11から見える景色を構成するオブジェクトのサイズは、ユーザの移動前よりも大きくなる。
一方、図15ないし図17で説明した、表示面11が、手前方向に移動される場合には、ユーザと画像モデルとの距離は変化しないため、窓としての表示面11から見える景色を構成するオブジェクトのサイズは、表示面11の移動前後で変化しない。
図39は、図38のボクセルV#1が画素P#1に射影された時刻Tの射影画像の表示例と、ボクセルV#1が画素P#2に射影された時刻T+1の射影画像の表示例とを示す図である。
画像モデルのボクセルV#1は、ユーザの移動前の時刻Tでは、窓としての表示面11の中心から離れた左に画素P#1として見え、ユーザの奥への移動後の時刻T+1では、窓としての表示面11の中心に近い位置に画素P#2として見える。
その結果、ユーザは、あたかも、画像モデルがユーザの目の前に定位しており、表示面11を窓として、ユーザが奥に移動することにより、窓を通して見える画像モデルの範囲が変化したかのような感覚を享受することができる。
<3D画像の画像モデルを用いる場合の射影画像の生成>
図40は、3D画像の画像モデルを用いる場合の射影画像の生成を説明する図である。
すなわち、図40は、ユーザ、表示面11、及び、3D画像の画像モデルが配置された基準座標系の例を示している。
ここで、図40において、3D画像の画像モデルは、奥行きの位置(デプス)が異なる4個のオブジェクトobj#1,obj#2,obj#3,obj#4から構成されている。
3D画像の画像モデルを用いる場合にも、図5で説明した原理に従って、射影画像が生成される。
ところで、2D画像の画像モデルを構成するボクセルは、位置の情報として、水平方向、及び、垂直方向の位置の情報を有し、奥行き方向の位置の情報を有していないか、又は、奥行き方向の位置の情報を有していても、その奥行き方向の位置の情報は、すべてのボクセルで、同一の情報になっている。
一方、3D画像の画像モデル(以下、3D画像モデルともいう)を構成するボクセルは、位置の情報として、水平方向、垂直方向、及び、奥行き方向の位置の情報を有し、奥行き方向の位置の情報は、同一の情報であるとは限らず、異なる情報であることがある。
そのため、ユーザが移動した場合には、窓としての表示面11には、実世界で奥行きのある物を見ている場合と同様の運動視差が生じた射影画像が表示される。
図41は、ユーザが水平方向に移動する場合の、3D画像モデルを用いた射影画像の生成の例を説明する図である。
図41のAは、初期設定タイミングにおける基準座標系上のユーザと表示面11の配置の例を示している。
ユーザの水平方向の移動では、ユーザは、初期設定タイミングにおける表示面11に平行な平面(xy平面に平行な平面)内を、図41のAに実線の太い矢印で示すように、左方向に移動するか、又は、図41のAに点線の太い矢印で示すように、右方向に移動する。
図41のBは、ユーザが、水平方向に移動する場合に、その移動前(初期設定タイミング)に生成される射影画像と、移動後に生成される射影画像とを示している。
図41のBにおいて、ユーザの移動前では、図5で説明した原理に従って、ユーザの真正面に、窓としての表示面11があり、その窓から、ユーザが3D画像モデルを見ているかのような射影画像が生成される。
ユーザの移動前においては、例えば、オブジェクトobj#1のほぼ真後ろにあるオブジェクトobj#2のほぼ全体が、オブジェクトobj#1の後ろに隠れている射影画像が生成されている。
そして、ユーザが、水平方向のうちの左方向に移動した後では、図5で説明した原理に従って、ユーザの正面の右側に、窓としての表示面11があり、その窓から、3D画像モデルを見ているかのような射影画像が生成される。
すなわち、ユーザが左方向に移動しても、窓としての表示面11の向こう側(奥側)に存在する3D画像モデルが、その場に留まっており、ユーザが移動することによって、画像モデルの見える範囲が、移動前よりも右側の範囲に変わったような射影画像が生成される。
さらに、ユーザが左方向に移動した場合には、実世界で奥行きのある物を見ながら、左に移動した場合と同様の運動視差が生じた射影画像が生成される。
そのため、ユーザが左方向に移動した後は、図41のBに示すように、オブジェクトobj#1のほぼ真後ろにあるオブジェクトobj#2が、オブジェクトobj#1の左側から見える射影画像が生成される。
同様に、ユーザが、水平方向のうちの右方向に移動する場合も、窓としての表示面11の向こう側に存在する3D画像モデルが、その場に留まっており、ユーザが移動することによって、画像モデルの見える範囲が、移動前よりも左側の範囲に変わったような射影画像が生成される。
さらに、ユーザが右方向に移動した場合には、実世界で奥行きのある物を見ながら、右に移動した場合と同様の運動視差が生じた射影画像が生成される。
そのため、ユーザが右方向に移動した後は、図41のBに示すように、オブジェクトobj#1のほぼ真後ろにあるオブジェクトobj#2が、オブジェクトobj#1の右側から見える射影画像が生成される。
図42は、ユーザが垂直方向に移動する場合の、3D画像モデルを用いた射影画像の生成の例を説明する図である。
図42のAは、初期設定タイミングにおける基準座標系上のユーザと表示面11の配置の例を示している。
ユーザの垂直方向の移動では、ユーザは、初期設定タイミングにおける表示面11に平行な平面(xy平面に平行な平面)内を、図42のAに実線の太い矢印で示すように、上方向に移動するか、又は、図42のAに点線の太い矢印で示すように、下方向に移動する。
図42のBは、ユーザが、垂直方向に移動する場合に、その移動前(初期設定タイミング)に生成される射影画像と、移動後に生成される射影画像とを示している。
図42のBにおいて、ユーザの移動前では、図5で説明した原理に従って、ユーザの真正面に、窓としての表示面11があり、その窓から、ユーザが3D画像モデルを見ているかのような射影画像が生成される。
ユーザの移動前においては、例えば、オブジェクトobj#1のほぼ真後ろにあるオブジェクトobj#2のほぼ全体が、オブジェクトobj#1の後ろに隠れている射影画像が生成されている。
そして、ユーザが、垂直方向のうちの上方向に移動した後では、図5で説明した原理に従って、ユーザの正面の下側に、窓としての表示面11があり、その窓から、3D画像モデルを見ているかのような射影画像が生成される。
すなわち、ユーザが上方向に移動しても、窓としての表示面11の向こう側(奥側)に存在する3D画像モデルが、その場に留まっており、ユーザが移動することによって、画像モデルの見える範囲が、移動前よりも下側の範囲に変わったような射影画像が生成される。
さらに、ユーザが上方向に移動した場合には、実世界で奥行きのある物を見ながら、上に移動した場合と同様の運動視差が生じた射影画像が生成される。
そのため、ユーザが上方向に移動した後は、図42のBに示すように、オブジェクトobj#1と、そのオブジェクトobj#1のほぼ真後ろにあるオブジェクトobj#2との高さの差が、移動前よりも小さくなったように見える射影画像が生成される。
同様に、ユーザが、垂直方向のうちの下方向に移動する場合も、窓としての表示面11の向こう側に存在する3D画像モデルが、その場に留まっており、ユーザが移動することによって、画像モデルの見える範囲が、移動前よりも上側の範囲に変わったような射影画像が生成される。
さらに、ユーザが下方向に移動した場合には、実世界で奥行きのある物を見ながら、下に移動した場合と同様の運動視差が生じた射影画像が生成される。
そのため、ユーザが下方向に移動した後は、図42のBに示すように、オブジェクトobj#1と、そのオブジェクトobj#1のほぼ真後ろにあるオブジェクトobj#2との高さの差が、移動前よりも大きくなったように見える射影画像が生成される。
図43は、ユーザが奥行き方向に移動する場合の、3D画像モデルを用いた射影画像の生成の例を説明する図である。
図43のAは、初期設定タイミングにおける基準座標系上のユーザと表示面11の配置の例を示している。
ユーザの奥行き方向の移動では、ユーザは、初期設定タイミングにおける表示面11に直交する方向に移動する。すなわち、ユーザは、図43のAに実線の太い矢印で示すように、奥方向(ユーザから表示面11に向かう方向)に移動するか、又は、図43のAに点線の太い矢印で示すように、手前方向(表示面11からユーザに向かう方向)に移動する。
図43のBは、ユーザが、奥行き方向に移動する場合に、その移動前(初期設定タイミング)に生成される射影画像と、移動後に生成される射影画像とを示している。
図43のBにおいて、ユーザの移動前では、図5で説明した原理に従って、ユーザの真正面に、窓としての表示面11があり、その窓から、ユーザが3D画像モデルを見ているかのような射影画像が生成される。
ユーザの移動前においては、例えば、オブジェクトobj#1のほぼ真後ろにあるオブジェクトobj#2のほぼ全体が、オブジェクトobj#1の後ろに隠れている射影画像が生成されている。
そして、ユーザが、奥行き方向のうちの奥方向に移動した後では、図5で説明した原理に従って、ユーザの正面の近くに、窓としての表示面11があり、その窓から、3D画像モデルを見ているかのような射影画像が生成される。
すなわち、ユーザが奥方向に移動しても、窓としての表示面11の向こう側(奥側)に存在する3D画像モデルが、その場に留まっており、ユーザが移動することによって、窓から見える画像モデルが、移動前よりも大きくなったような射影画像が生成される。
さらに、ユーザが奥方向に移動した場合には、実世界で奥行きのある物を見ながら、奥に移動した場合と同様の運動視差が生じた射影画像が生成される。
そのため、ユーザが奥方向に移動した後は、図43のBに示すように、オブジェクトobj#1と、そのオブジェクトobj#1のほぼ真後ろにあるオブジェクトobj#2とのサイズの差が、移動前よりも大きくなったように見える射影画像が生成される。
同様に、ユーザが、奥行き方向のうちの手前方向に移動する場合も、窓としての表示面11の向こう側に存在する3D画像モデルが、その場に留まっており、ユーザが移動することによって、窓から見える画像モデルが、移動前よりも小さくなったような射影画像が生成される。
さらに、ユーザが手前方向に移動した場合には、実世界で奥行きのある物を見ながら、手前に移動した場合と同様の運動視差が生じた射影画像が生成される。
そのため、ユーザが手前方向に移動した後は、図43のBに示すように、オブジェクトobj#1と、そのオブジェクトobj#1のほぼ真後ろにあるオブジェクトobj#2とのサイズの差が、移動前よりも小さくなったように見える射影画像が生成される。
以上のように、3D画像モデルを用いる場合には、ユーザの移動によって生じる運動視差がある射影画像が生成される。
運動視差は、3D画像モデルを構成するオブジェクトの奥行きの位置(デプス)によって異なるが、このような運動視差は、ユーザが移動する場合の他、表示面11が動く場合にも与えることができる。
すなわち、ユーザが、スマートフォンを持って、射影画像を見る場合には、手ぶれによって、表示面11が動く(振動する)が、運動視差は、そのような表示面11の動きに基づいて、射影画像に与えることができる。
図44は、手ぶれによって、表示面11が動く場合に、その表示面11の動きに基づいて、射影画像に与える運動視差を説明する図である。
図44のAは、例えば、スマートフォンが、テーブル等の上に置かれており、表示面11が動いていない場合の射影画像の例を示している。
表示面11が動いていない場合には、運動視差がない射影画像が生成される。
図44のBは、例えば、ユーザが、スマートフォンを手に持っており、手ぶれによって、表示面11が動く場合の射影画像の例を示している。
表示面11が、手ぶれによって、振動するような動きをしている場合、その動きに基づいて、運動視差がある射影画像が生成される。
図44のBでは、ユーザ(の視点)が左右に振動しているかのような運動視差がある射影画像が生成されている。
以上のように、表示面11が、手ぶれによって、振動するような動きをしている場合に、その表示面11の動きに基づいて、運動視差がある射影画像を生成することで、表示面11に表示される射影画像の立体感を強調することができる。
図45は、表示面11の動きに基づいて、運動視差がある射影画像を生成する方法の例を説明する図である。
すなわち、図45は、ユーザ、表示面11、及び、3D画像モデルが配置された基準座標系を示している。
例えば、ユーザが、表示面11の真正面から、水平方向に、表示面11の動きに対応する大きさで振動するようなわずかな移動、すなわち、図45において太い矢印で示すような、左方向への移動と右方向への移動とを繰り返す移動を行っていると仮定して、図31ないし図33で説明したように、射影画像を生成することで、表示面11の動きに基づく運動視差がある射影画像を生成することができる。
<運動視差の差異の拡大>
図46は、運動視差の差異の拡大を説明する図である。
上述したように、3D画像モデルを用いる場合には、ユーザが移動すると、運動視差がある射影画像が生成される。
運動視差は、3D画像モデルを構成するオブジェクトの奥行き方向の位置によって異なり、手前にあるオブジェクトほど、運動視差は大きい。
ユーザが移動する場合に、運動視差がある射影画像を生成するにあたっては、例えば、3D画像モデルを構成するオブジェクトごとに、運動視差を調整することができる。
図46は、ユーザが奥行き方向に移動する場合の、3D画像モデルを用いた射影画像の運動視差の調整の例を説明する図である。
図46のAは、初期設定タイミングにおける基準座標系上のユーザと表示面11の配置の例を示している。
ユーザの奥行き方向の移動では、ユーザは、初期設定タイミングにおける表示面11に直交する方向に移動する。すなわち、ユーザは、図46のAに実線の太い矢印で示すように、奥方向(ユーザから表示面11に向かう方向)に移動するか、又は、図46のAに点線の太い矢印で示すように、手前方向(表示面11からユーザに向かう方向)に移動する。
図46のBは、ユーザが、奥方向に移動する場合に、運動視差の調整なしで、移動前(初期設定タイミング)に生成される射影画像と、移動後に生成される射影画像とを示している。
運動視差の調整なしの場合には、図43で説明した射影画像が生成される。
すなわち、ユーザの移動前の時刻Tでは、図5で説明した原理に従って、ユーザの真正面に、窓としての表示面11があり、その窓から、ユーザが3D画像モデルを見ているかのような射影画像が生成される。
図46では、ユーザの移動前については、オブジェクトobj#1のほぼ真後ろにあるオブジェクトobj#2のほぼ全体が、オブジェクトobj#1の後ろに隠れている射影画像が生成されている。
そして、ユーザが、奥方向に移動した後の時刻T+1では、図5で説明した原理に従って、ユーザの正面の近くに、窓としての表示面11があり、その窓から、3D画像モデルを見ているかのような射影画像が生成される。
すなわち、ユーザが奥方向に移動しても、窓としての表示面11の向こう側(奥側)に存在する3D画像モデルが、その場に留まっており、ユーザが移動することによって、窓から見える画像モデルが、移動前よりも大きくなったような射影画像が生成される。
さらに、ユーザが奥方向に移動した場合には、実世界で奥行きのある物を見ながら、奥に移動した場合と同様の運動視差が生じた射影画像が生成される。
そのため、ユーザが奥方向に移動した後は、図46のBに示すように、オブジェクトobj#1と、そのオブジェクトobj#1のほぼ真後ろにあるオブジェクトobj#2とのサイズの差が、移動前よりも大きくなったように見える射影画像が生成される。
図46のCは、ユーザが、奥方向に移動する場合に、運動視差の調整ありで、移動前(初期設定タイミング)に生成される射影画像と、移動後に生成される射影画像とを示している。
ユーザの移動前の時刻Tでは、図5で説明した原理に従って、図46のBと同一の射影画像が生成される。
そして、ユーザが、奥方向に移動した後の時刻T+1では、図5で説明した原理に従って、ユーザの正面の近くに、窓としての表示面11があり、その窓から、3D画像モデルを見ているかのような射影画像が生成される。
すなわち、ユーザが奥方向に移動しても、窓としての表示面11の向こう側(奥側)に存在する3D画像モデルが、その場に留まっており、ユーザが移動することによって、窓から見える画像モデルが、移動前よりも大きくなったような射影画像が生成される。
但し、運動視差の調整ありの場合には、3D画像モデルを構成するオブジェクトのうちの、より手前にあるオブジェクトほど、運動視差の調整なしの場合よりも大きくなった射影画像が生成される。
なお、運動視差の調整ありの場合には、処理の簡素化のために、3D画像モデルを構成するオブジェクトobj#1ないしobj#4のうちの、例えば、最も手前にあるオブジェクトobj#1等の一部のオブジェクトだけ、運動視差の調整なしの場合よりも大きくした射影画像を生成することができる。
以上のように、運動視差の調整ありの場合には、3D画像モデルを構成するオブジェクトのうちの、手前にあるオブジェクトほど、運動視差の調整なしの場合よりも大きくなった射影画像が生成されるため、射影画像において、手前にあるオブジェクトと、奥側にあるオブジェクトとの運動視差の差が拡大する。
その結果、射影画像を見るユーザは、手前にあるオブジェクトと、奥側にあるオブジェクトとの奥行き方向の位置が大きく異なるように感じるので、射影画像の立体感を強調することができる。
<表示面11のバリエーション>
図47は、表示面11の他の構成例を説明する図である。
上述の場合には、表示面11が長方形状の面であることとしたが、表示面11としては、長方形状の面以外の所定の形状の面を採用することができる。
図47では、表示面11として、長方形を湾曲させた形状の面(以下、湾曲面ともいう)が採用され、ユーザ、及び、画像モデルとともに、基準座標系に配置されている。
本技術を、例えば、湾曲したタッチパネル等のディスプレイを有するタブレットやスマートフォン等に適用した場合に、表示面11は、図47に示したような湾曲面になる。
表示面11が湾曲面である場合も、図5で説明した原理に従って、射影画像が生成される。
図48は、表示面11が湾曲面である場合の射影画像の生成の例を説明する図である。
図48は、基準座標系を、y軸の正方向から見た図であり、左から右方向、図に垂直な方向、及び、上から下方向が、それぞれ、基準座標系のx軸、y軸、及び、z軸になっている。
湾曲面である表示面11に表示される射影画像は、ユーザと、湾曲面である表示面11の画素P#1とを通る直線と交差する画像モデルの位置のボクセルV#1が有する色を、画素P#1の画素値として、ボクセルV#1を、画素P#1に射影することで生成される。
なお、表示面11としては、固定の形状の面の他、可変の形状の面を採用することができる。
表示面11が可変の形状の面である場合も、図5で説明した原理に従って、射影画像を生成することができる。
可変の形状の表示面11を有する表示部25(図3)としては、例えば、ある程度歪曲させることができる薄膜の有機EL(Electro Luminescence)ディスプレイ等がある。
なお、表示面11が可変の形状である場合に、図5で説明した原理に従って、射影画像を生成するには、表示面11の形状が必要となるが、表示面11の形状は、例えば、表示面検出部22(図2)で検出することができる。
図49は、表示面11の、さらに他の構成例を説明する図である。
上述の場合には、表示面11として、1つの面を採用することとしたが、表示面11としては、複数の面を採用することができる。表示面11として、複数の面を採用する場合、その複数の面と同一の複数の数の射影画像が生成される。
図49では、表示面11として、水平方向に並んだ2つの表示面11L及び11Rが採用されている。
図49は、ユーザ、2つの表示面11L及び11R、及び、画像モデルが配置された基準座標系を示している。
表示面11として、2つの表示面11L及び11Rを採用する場合には、例えば、ユーザの左眼で観察される左眼用の射影画像と、ユーザの右眼で観察される右眼用の射影画像とを生成し、2つの表示面11L及び11Rのうちの左側の表示面11Lに、左眼用の射影画像を表示するとともに、右側の表示面11Rに、右眼用の射影画像を表示することができる。
この場合、ユーザは、表示面11Lに表示される左眼用の射影画像を、左眼で観察し、表示面11Rに表示される右眼用の射影画像を、右眼で観察する。
左眼用の射影画像は、ユーザが、表示面11Lに表示された左眼用の射影画像を見た場合にユーザの左眼の網膜に射影される画像が、表示面11Lを窓として、その窓を通して画像モデルを見た場合にユーザの左眼の網膜に射影される画像と同様の画像となるように、図5で説明した原理に従って生成される。
右眼用の射影画像も、ユーザが、表示面11Rに表示された右眼用の射影画像を見た場合にユーザの右眼の網膜に射影される画像が、表示面11Rを窓として、その窓を通して画像モデルを見た場合にユーザの右眼の網膜に射影される画像と同様の画像となるように、図5で説明した原理に従って生成される。
図50は、左眼用の射影画像、及び、右眼用の射影画像の生成の例を説明する図である。
図50は、基準座標系を、y軸の正方向から見た図であり、左から右方向、図に垂直な方向、及び、上から下方向が、それぞれ、基準座標系のx軸、y軸、及び、z軸になっている。
あるボクセルV#1について、左眼用の射影画像は、ユーザの左眼とボクセルV#1とを通る直線と交差する表示面11の画素PL#1に射影することで生成され、右眼用の射影画像は、ユーザの右眼とボクセルV#1とを通る直線と交差する表示面11Rの画素PR#1に射影することで生成される。
なお、左眼用の射影画像、及び、右眼用の射影画像は、上述のように、2つの表示面11L及び11Rにそれぞれ表示する他、1つの表示面11に表示することができる。
すなわち、左眼用の射影画像、及び、右眼用の射影画像は、例えば、1つの表示面11の左側の領域、及び、右側の領域に、それぞれ表示することができる。
また、左眼用の射影画像、及び、右眼用の射影画像は、例えば、3Dディスプレイと同様の原理で、1つの表示面11に表示することができる。
<本技術を適用した画像表示装置の第2実施の形態>
図51は、本技術を適用した画像表示装置の第2実施の形態の構成例を示す斜視図である。
図51において、画像表示装置は、双眼鏡として構成されており、双眼鏡内において、上述した第1実施の形態と同様の射影画像を表示する。
したがって、双眼鏡として構成される画像表示装置によれば、双眼鏡を覗くユーザに、双眼鏡で、画像モデルを、実際に観察しているかのような感覚を享受させることができる。
<本技術を適用した画像表示装置の第3実施の形態>
図52は、本技術を適用した画像表示装置の第3実施の形態の構成例を示す斜視図である。
図52において、画像表示装置は、プロジェクタとスクリーンとを有するプロジェクタシステムとして構成されており、スクリーンに、プロジェクタが発する射影画像の光に応じて、対応する画像を表示する。
プロジェクタシステムとして構成される画像表示装置では、表示面11は、スクリーン(スクリーンとして機能する壁等を含む)であり、表示面11であるスクリーンにおいて、プロジェクタが発する光に応じて表示される画像は、プロジェクタとスクリーンとの位置関係によって異なる。
すなわち、プロジェクタと、表示面11であるスクリーンとは、それぞれ独立して配置することができるため、プロジェクタとスクリーンとの位置関係は、プロジェクタとスクリーンとを、どのように配置するかによって変化する。そして、プロジェクタとスクリーンとの位置関係が変化する場合には、スクリーンにおいて、プロジェクタが発する射影画像の光に応じて表示される画像も変化する。
例えば、単純には、プロジェクタが、ある射影画像の光を発している場合に、プロジェクタとスクリーンとの距離を離すと、スクリーンに表示される画像のサイズは大になる。
したがって、ユーザが、表示面11であるスクリーンに表示された画像を見た場合に、スクリーンを窓として、その窓を通して画像モデルを見ているかのような感覚をユーザに享受させるには、プロジェクタシステムにおいて、プロジェクタとスクリーンとの位置関係を考慮して、射影画像を生成する必要がある。
そこで、プロジェクタシステムでは、表示面情報、及び、ユーザ位置情報の他、(スクリーンに)画像を表示する表示装置であるプロジェクタの位置を検出し、表示面情報、及び、ユーザ位置情報の他、プロジェクタの位置に基づき、プロジェクタとスクリーンとの位置関係をも考慮して、射影画像を生成する。
なお、プロジェクタシステムにおいて、プロジェクタの位置は、例えば、表示面検出部22(図2)に検出させることができる。
<虫眼鏡モード>
図53は、虫眼鏡モードを説明する図である。
ここで、例えば、第1実施の形態のスマートフォンには、動作モードとして、窓モードと虫眼鏡モードとを搭載することができる。
窓モードでは、上述したように、ユーザが、表示面11を窓として、その窓を通して画像モデルを見た場合に見える景色を再現した画像が、射影画像として生成され、表示面11に表示される。
一方、虫眼鏡モードでは、例えば、表示面11を虫眼鏡(のレンズ)として、その虫眼鏡を通して画像モデルを見た場合に見える虚像を再現した画像が、射影画像として生成され、表示面11に表示される。
図53は、動作モードが虫眼鏡モードである場合の射影画像の生成の例を示している。
図53のAは、初期設定タイミングにおける基準座標系上のユーザと表示面11の配置の例を示している。
虫眼鏡モードでは、ユーザは、例えば、表示面11(を有するスマートフォン)を、その姿勢を変化させずに、初期設定タイミングにおける表示面11と直交する方向に(z軸の方向に)、図53のAに実線の太い矢印で示すように、手前方向(ユーザから見て手前側)に移動するか、又は、図53のAに点線の太い矢印で示すように、奥方向(ユーザから見て奥側)に移動する。
図53のBは、表示面11が、手前方向に移動される場合に、その移動前(初期設定タイミング)に生成される射影画像と、移動後に生成される射影画像とを示している。
図53のBにおいて、表示面11の移動前では、ユーザの真正面に、虫眼鏡としての表示面11があり、その虫眼鏡を通して、虫眼鏡で観察する対象の画像モデルを見ているかのような射影画像が生成される。
そして、表示面11が手前方向に移動された後では、ユーザの真正面の手前側に、虫眼鏡としての表示面11があり、その虫眼鏡を通して、ユーザが画像モデルを見ているかのような射影画像が生成される。
すなわち、表示面11が手前方向に移動されても、虫眼鏡としての表示面11の向こう側(奥側)に存在する静止画の画像モデルが、その場に留まっており、虫眼鏡が移動することによって、画像モデルの見える範囲、つまり、視野角が、移動前よりも狭い範囲に変わって、結果として、移動前よりも画像モデルが拡大された射影画像が生成される。
図53のCは、表示面11が、奥方向に移動される場合に、その移動前に生成される射影画像と、移動後に生成される射影画像とを示している。
表示面11が奥方向に移動される場合も、虫眼鏡としての表示面11の向こう側に存在する画像モデルが、その場に留まっており、虫眼鏡が移動することによって、画像モデルの見える範囲、つまり、視野角が、移動前よりも広い範囲に変わって、結果として、移動前よりも画像モデルが縮小した射影画像が生成される。
以上のように、虫眼鏡モードでは、表示面11を奥行き方向に移動したときに表示面11に表示される射影画像が、窓モードにおいて、表示面11を奥行き方向に移動するときと逆になる。
すなわち、表示面11を、手前方向に移動した場合、窓モードでは、窓としての表示面11から見える画像モデルの範囲が広い範囲になるのに対して、虫眼鏡モードでは、虫眼鏡としての表示面11から見える画像モデルの範囲が狭くなる。
また、表示面11を、奥方向に移動した場合、窓モードでは、窓としての表示面11から見える画像モデルの範囲が狭い範囲になるのに対して、虫眼鏡モードでは、虫眼鏡としての表示面11から見える画像モデルの範囲が広くなる。
したがって、虫眼鏡モードでは、ユーザが表示面11を手前方向に移動したときには、基準座標系の表示面11を奥方向に移動し、ユーザが表示面11が奥方向に移動したときには、基準座標系の表示面11を手前方向に移動して、図5で説明した原理に従って、射影画像を生成することで、表示面11が手前方向に移動されたときに虫眼鏡としての表示面11から見える画像モデルの範囲が狭くなり、表示面11が奥方向に移動されたときに虫眼鏡としての表示面11から見える画像モデルの範囲が広くなった射影画像を生成することができる。
以上のように、本技術を適用した画像表示装置では、表示面11の少なくとも位置を検出し、位置が検出された表示面11の画素と、ユーザの位置とを通る直線に沿って、所定の画像の画像モデルを表示面11上に射影した射影画像を生成して、表示面11に表示するので、例えば、表示面11を動かすことで、ユーザが、所定の画像の中で、見たい領域を、直感的に選択することができるUIを実現することができる。
すなわち、ユーザは、例えば、表示面11を奥方向に移動することで、窓としての表示面11の向こう側に定位しているかのような静止画や動画の画像モデルの中の見たい部分を、容易に選択して見ることができる。また、ユーザは、例えば、表示面11を手前方向に移動することで、窓としての表示面11の向こう側に定位しているかのような静止画や動画の画像モデルの全体を、容易に眺めることができる。
さらに、ユーザは、窓としての表示面11の向こう側に、画像モデル(として表される構造)が留まって存在するかのような感覚や、窓としての表示面11を通して、その向こう側にある画像モデルを見ているかのような感覚を享受することができ、その結果、窓から画像モデルを実際に見ているかのような臨場感を感じることができる。
また、本技術を適用した画像表示装置では、画像モデルが3D画像モデルである場合に、表示面11の動きに基づいて、運動視差がある射影画像を生成することや、3D画像モデルの手前にあるオブジェクトと奥側にあるオブジェクトとの運動視差の差を拡大することができるので、表示面11に表示される射影画像の立体感を強調することができる。
さらに、本技術を適用した画像表示装置では、例えば、その画像表示装置としてのスマートフォンを所持しているユーザが、実際に、場所Aにいるときに、場所Aの過去の撮影時の撮影装置の位置及び姿勢を考慮して、場所Aの画像モデルを用いた射影画像を生成して表示面11に表示することができるので、ユーザは、表示面11を窓として、その窓を通して、場所Aの過去の景色を見ているかのような感覚を享受することができる。
なお、場所Aの撮影時に、場所Aの景色の画像の撮影とともに、音声(音響)の録音が行われている場合には、画像表示装置では、場所Aの景色の画像から得られる画像モデルを用いた射影画像を表示面11に表示するとともに、場所Aの撮影時に録音された音声を図示せぬスピーカから出力することができる。この場合、画像(射影画像)と音声との両方によって、場所Aの撮影時の状況を再現することができる。
<本技術を適用したコンピュータの説明>
次に、上述した制御部24の一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
そこで、図54は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。
あるいはまた、プログラムは、リムーバブル記録媒体111に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体111としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク105にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)102を内蔵しており、CPU102には、バス101を介して、入出力インタフェース110が接続されている。
CPU102は、入出力インタフェース110を介して、ユーザによって、入力部107が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、CPU102は、ハードディスク105に格納されたプログラムを、RAM(Random Access Memory)104にロードして実行する。
これにより、CPU102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。
なお、入力部107は、キーボードや、マウス、マイク等で構成される。また、出力部106は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
なお、本技術は、以下のような構成をとることができる。
<1>
表示装置が画像を表示する表示面の位置を検出する検出部と、
前記検出部により位置が検出された前記表示面の画素と、ユーザの位置とを通る直線に沿って、所定の画像の画像モデルを前記表示面上に射影した射影画像を、前記表示面に表示するように、前記表示装置を制御する制御部と
を備える表示制御装置。
<2>
前記検出部は、前記表示面の水平方向、垂直方向、及び、奥行き方向のうちの1以上の位置を検出する
<1>に記載の表示制御装置。
<3>
前記ユーザの位置を検出する他の検出部をさらに備え、
前記制御部は、前記検出部により位置が検出された前記表示面の画素と、前記他の検出部により検出された前記ユーザの位置とを通る直線に沿って、前記画像モデルを前記表示面上に射影した射影画像を、前記表示面に表示するように、前記表示装置を制御する
<2>に記載の表示制御装置。
<4>
前記他の検出部は、前記ユーザの水平方向、垂直方向、及び、奥行き方向のうちの1以上の位置を検出する
<3>に記載の表示制御装置。
<5>
前記検出部は、前記表示面の位置及び姿勢を検出し、
前記制御部は、前記検出部により位置及び姿勢が検出された前記表示面の画素と、前記他の検出部により検出された前記ユーザの位置とを通る直線に沿って、前記画像モデルを、前記表示面上に射影した射影画像を、前記表示面に表示するように、前記表示装置を制御する
<3>又は<4>に記載の表示制御装置。
<6>
前記検出部は、前記表示面のピッチ方向、ヨー方向、及び、ロール方向のうちの1以上の回転角度を、前記表示面の姿勢として検出する
<5>に記載の表示制御装置。
<7>
前記制御部は、前記表示面の位置及び姿勢、並びに、前記ユーザの位置を用いて、前記射影画像を生成する
<5>又は<6>のいずれかに記載の表示制御装置。
<8>
前記制御部は、前記表示面の位置及び姿勢、並びに、前記ユーザの位置を用いて、前記ユーザが、前記表示面を窓として、前記画像モデルを見た場合に見える景色を再現した画像を、前記射影画像として生成する
<7>に記載の表示制御装置。
<9>
前記画像モデルは、2D(Dimensional)画像、又は、3D画像のモデルである
<1>ないし<8>のいずれかに記載の表示制御装置。
<10>
前記画像モデルは、色と位置の情報を有するボクセルを構成要素として、前記ボクセルで構成される
<1>ないし<9>のいずれかに記載の表示制御装置。
<11>
前記制御部は、前記表示面の画素と、前記ユーザの位置とを通る直線と交差する前記ボクセルの色を、前記表示面の画素の色として射影した前記射影画像を生成する
<10>に記載の表示制御装置。
<12>
前記ボクセルは、前記ボクセルの水平方向、垂直方向、及び、奥行き方向の位置を有する
<10>又は<11>に記載の表示制御装置。
<13>
前記制御部は、前記射影画像内のオブジェクトのうちの、奥行き方向の位置が異なるオブジェクトの運動視差の差異を拡大した前記射影画像を生成する
<8>に記載の表示制御装置。
<14>
前記制御部は、前記表示面の動きに基づいて、運動視差を与えた前記射影画像を生成する
<8>に記載の表示制御装置。
<15>
前記表示面は、所定の形状の面である
<1>ないし<14>のいずれかに記載の表示制御装置。
<16>
前記表示面は、固定の形状の面、又は、可変の形状の面である
<1>ないし<15>のいずれかに記載の表示制御装置。
<17>
前記検出部は、前記表示装置の位置を、さらに検出し、
前記表示装置と前記表示面との位置関係が変化する場合、前記制御部は、前記表示面の位置及び姿勢、前記ユーザの位置、及び、前記表示装置の位置を用いて、前記射影画像を生成する
<8>に記載の表示制御装置。
<18>
前記制御部は、撮影装置において前記画像モデルとなるコンテンツを撮影したときの、前記撮影装置の位置及び姿勢に基づいて、前記画像モデルを配置して、前記射影画像を生成する
<8>に記載の表示制御装置。
<19>
前記制御部は、複数の前記射影画像を生成する
<8>に記載の表示制御装置。
<20>
前記制御部は、左眼用の射影画像と、右眼用の射影画像とを生成する
<19>に記載の表示制御装置。
<21>
前記左眼用の射影画像と、前記右眼用の射影画像とは、1つの表示面に表示される
<20>に記載の表示制御装置。
<22>
双眼鏡として構成される
<1>ないし<8>のいずれかに記載の表示制御装置。
<23>
表示装置が画像を表示する表示面の位置を検出し、
位置が検出された前記表示面の画素と、ユーザの位置とを通る直線に沿って、所定の画像の画像モデルを前記表示面上に射影した射影画像を、前記表示面に表示するように、前記表示装置を制御する
ステップを含む表示制御方法。
<24>
表示装置が画像を表示する表示面の位置を検出する検出部と、
前記検出部により位置が検出された前記表示面の画素と、ユーザの位置とを通る直線に沿って、所定の画像の画像モデルを前記表示面上に射影した射影画像を、前記表示面に表示するように、前記表示装置を制御する制御部と
して、コンピュータを機能させるためのプログラム。
11 表示面, 12 カメラ, 21 データ取得部, 22 表示面検出部, 23 ユーザ検出部, 24 制御部, 25 表示部, 31 基準座標系生成部, 32 表示面情報取得部, 33 画像モデル生成部, 34 ユーザ位置情報取得部, 35 表示面配置部, 36 画像モデル配置部, 37 ユーザ配置部, 38 画像生成部, 101 バス, 102 CPU, 103 ROM, 104 RAM, 105 ハードディスク, 106 出力部, 107 入力部, 108 通信部, 109 ドライブ, 110 入出力インタフェース, 111 リムーバブル記録媒体

Claims (24)

  1. 表示装置が画像を表示する表示面の位置を検出する検出部と、
    前記検出部により位置が検出された前記表示面の画素と、ユーザの位置とを通る直線に沿って、所定の画像の画像モデルを前記表示面上に射影した射影画像を、前記表示面に表示するように、前記表示装置を制御する制御部と
    を備える表示制御装置。
  2. 前記検出部は、前記表示面の水平方向、垂直方向、及び、奥行き方向のうちの1以上の位置を検出する
    請求項1に記載の表示制御装置。
  3. 前記ユーザの位置を検出する他の検出部をさらに備え、
    前記制御部は、前記検出部により位置が検出された前記表示面の画素と、前記他の検出部により検出された前記ユーザの位置とを通る直線に沿って、前記画像モデルを前記表示面上に射影した射影画像を、前記表示面に表示するように、前記表示装置を制御する
    請求項2に記載の表示制御装置。
  4. 前記他の検出部は、前記ユーザの水平方向、垂直方向、及び、奥行き方向のうちの1以上の位置を検出する
    請求項3に記載の表示制御装置。
  5. 前記検出部は、前記表示面の位置及び姿勢を検出し、
    前記制御部は、前記検出部により位置及び姿勢が検出された前記表示面の画素と、前記他の検出部により検出された前記ユーザの位置とを通る直線に沿って、前記画像モデルを、前記表示面上に射影した射影画像を、前記表示面に表示するように、前記表示装置を制御する
    請求項4に記載の表示制御装置。
  6. 前記検出部は、前記表示面のピッチ方向、ヨー方向、及び、ロール方向のうちの1以上の回転角度を、前記表示面の姿勢として検出する
    請求項5に記載の表示制御装置。
  7. 前記制御部は、前記表示面の位置及び姿勢、並びに、前記ユーザの位置を用いて、前記射影画像を生成する
    請求項6に記載の表示制御装置。
  8. 前記制御部は、前記表示面の位置及び姿勢、並びに、前記ユーザの位置を用いて、前記ユーザが、前記表示面を窓として、前記画像モデルを見た場合に見える景色を再現した画像を、前記射影画像として生成する
    請求項7に記載の表示制御装置。
  9. 前記画像モデルは、2D(Dimensional)画像、又は、3D画像のモデルである
    請求項8に記載の表示制御装置。
  10. 前記画像モデルは、色と位置の情報を有するボクセルを構成要素として、前記ボクセルで構成される
    請求項8に記載の表示制御装置。
  11. 前記制御部は、前記表示面の画素と、前記ユーザの位置とを通る直線と交差する前記ボクセルの色を、前記表示面の画素の色として射影した前記射影画像を生成する
    請求項10に記載の表示制御装置。
  12. 前記ボクセルは、前記ボクセルの水平方向、垂直方向、及び、奥行き方向の位置を有する
    請求項11に記載の表示制御装置。
  13. 前記制御部は、前記射影画像内のオブジェクトのうちの、奥行き方向の位置が異なるオブジェクトの運動視差の差異を拡大した前記射影画像を生成する
    請求項8に記載の表示制御装置。
  14. 前記制御部は、前記表示面の動きに基づいて、運動視差を与えた前記射影画像を生成する
    請求項8に記載の表示制御装置。
  15. 前記表示面は、所定の形状の面である
    請求項8に記載の表示制御装置。
  16. 前記表示面は、固定の形状の面、又は、可変の形状の面である
    請求項8に記載の表示制御装置。
  17. 前記検出部は、前記表示装置の位置を、さらに検出し、
    前記表示装置と前記表示面との位置関係が変化する場合、前記制御部は、前記表示面の位置及び姿勢、前記ユーザの位置、及び、前記表示装置の位置を用いて、前記射影画像を生成する
    請求項8に記載の表示制御装置。
  18. 前記制御部は、撮影装置において前記画像モデルとなるコンテンツを撮影したときの、前記撮影装置の位置及び姿勢に基づいて、前記画像モデルを配置して、前記射影画像を生成する
    請求項8に記載の表示制御装置。
  19. 前記制御部は、複数の前記射影画像を生成する
    請求項8に記載の表示制御装置。
  20. 前記制御部は、左眼用の射影画像と、右眼用の射影画像とを生成する
    請求項19に記載の表示制御装置。
  21. 前記左眼用の射影画像と、前記右眼用の射影画像とは、1つの表示面に表示される
    請求項20に記載の表示制御装置。
  22. 双眼鏡として構成される
    請求項8に記載の表示制御装置。
  23. 表示装置が画像を表示する表示面の位置を検出し、
    位置が検出された前記表示面の画素と、ユーザの位置とを通る直線に沿って、所定の画像の画像モデルを前記表示面上に射影した射影画像を、前記表示面に表示するように、前記表示装置を制御する
    ステップを含む表示制御方法。
  24. 表示装置が画像を表示する表示面の位置を検出する検出部と、
    前記検出部により位置が検出された前記表示面の画素と、ユーザの位置とを通る直線に沿って、所定の画像の画像モデルを前記表示面上に射影した射影画像を、前記表示面に表示するように、前記表示装置を制御する制御部と
    して、コンピュータを機能させるためのプログラム。
JP2016512656A 2014-04-07 2015-03-25 表示制御装置、表示制御方法、及び、プログラム Expired - Fee Related JP6601392B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014078590 2014-04-07
JP2014078590 2014-04-07
PCT/JP2015/059070 WO2015156128A1 (ja) 2014-04-07 2015-03-25 表示制御装置、表示制御方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JPWO2015156128A1 true JPWO2015156128A1 (ja) 2017-04-13
JP6601392B2 JP6601392B2 (ja) 2019-11-06

Family

ID=54287705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016512656A Expired - Fee Related JP6601392B2 (ja) 2014-04-07 2015-03-25 表示制御装置、表示制御方法、及び、プログラム

Country Status (4)

Country Link
US (1) US20170052684A1 (ja)
EP (1) EP3130994A4 (ja)
JP (1) JP6601392B2 (ja)
WO (1) WO2015156128A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021192178A (ja) * 2020-06-05 2021-12-16 ソニーグループ株式会社 デバイス、制御方法及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1118025A (ja) * 1997-06-24 1999-01-22 Fujitsu Ltd 画像呈示装置
JP2004309947A (ja) * 2003-04-10 2004-11-04 Sharp Corp データ表示装置、データ表示プログラム、および、プログラム記録媒体
JP2006184573A (ja) * 2004-12-27 2006-07-13 Toppan Printing Co Ltd 画像表示装置及び画像表示システム
JP2013121453A (ja) * 2011-12-12 2013-06-20 Toshiba Corp 超音波診断装置及び画像処理装置
WO2013108285A1 (ja) * 2012-01-16 2013-07-25 パナソニック株式会社 画像記録装置、立体画像再生装置、画像記録方法、及び立体画像再生方法
JP2013222447A (ja) * 2012-04-19 2013-10-28 Kddi Corp 情報提示システム
JP2014029690A (ja) * 2012-07-30 2014-02-13 Samsung Electronics Co Ltd ベンディングインタラクションガイドを提供するフレキシブル装置及びその制御方法
JP2014049866A (ja) * 2012-08-30 2014-03-17 Sharp Corp 画像処理装置及び画像表示装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU732652B2 (en) * 1997-04-15 2001-04-26 Research Foundation Of The State University Of New York, The Apparatus and method for parallel and perspective real-time volume visualization
JP2002329219A (ja) * 2001-04-27 2002-11-15 Mitsubishi Precision Co Ltd 3次元画像のピッキング方法及びプログラム並びに3次元画像処理装置
US7519918B2 (en) * 2002-05-30 2009-04-14 Intel Corporation Mobile virtual desktop
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US8842070B2 (en) * 2004-03-17 2014-09-23 Intel Corporation Integrated tracking for on screen navigation with small hand held devices
US7526378B2 (en) * 2004-11-22 2009-04-28 Genz Ryan T Mobile information system and device
WO2009144306A1 (en) * 2008-05-30 2009-12-03 3Dvisionlab Aps A system for and a method of providing image information to a user
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
WO2010022386A2 (en) * 2008-08-22 2010-02-25 Google Inc. Navigation in a three dimensional environment on a mobile device
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
JP5237234B2 (ja) * 2009-09-29 2013-07-17 日本電信電話株式会社 映像コミュニケーションシステム、及び映像コミュニケーション方法
US8339364B2 (en) * 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8581905B2 (en) * 2010-04-08 2013-11-12 Disney Enterprises, Inc. Interactive three dimensional displays on handheld devices
US8913056B2 (en) * 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
JP6243586B2 (ja) * 2010-08-06 2017-12-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US20120212405A1 (en) * 2010-10-07 2012-08-23 Benjamin Zeis Newhouse System and method for presenting virtual and augmented reality scenes to a user
GB2487039A (en) * 2010-10-11 2012-07-11 Michele Sciolette Visualizing Illustrated Books And Comics On Digital Devices
KR101915615B1 (ko) * 2010-10-14 2019-01-07 삼성전자주식회사 모션 기반 사용자 인터페이스 제어 장치 및 방법
US8872854B1 (en) * 2011-03-24 2014-10-28 David A. Levitt Methods for real-time navigation and display of virtual worlds
CA2737575A1 (en) * 2011-04-18 2012-10-18 Calgary Scientific Inc. Configurable depth-of-field raycaster for medical imaging
JP2013009196A (ja) * 2011-06-24 2013-01-10 Toshiba Corp 画像表示装置
JP5167439B1 (ja) * 2012-02-15 2013-03-21 パナソニック株式会社 立体画像表示装置及び立体画像表示方法
US8643951B1 (en) * 2012-03-15 2014-02-04 Google Inc. Graphical menu and interaction therewith through a viewing window
US9791897B2 (en) * 2012-06-29 2017-10-17 Monkeymedia, Inc. Handheld display device for navigating a virtual environment
SE536759C2 (sv) * 2012-10-18 2014-07-15 Ortoma Ab Metod och system för planering av position för implantatkomponent
US9279983B1 (en) * 2012-10-30 2016-03-08 Google Inc. Image cropping
GB201303707D0 (en) * 2013-03-01 2013-04-17 Tosas Bautista Martin System and method of interaction for mobile devices
US9213403B1 (en) * 2013-03-27 2015-12-15 Google Inc. Methods to pan, zoom, crop, and proportionally move on a head mountable display
KR102012254B1 (ko) * 2013-04-23 2019-08-21 한국전자통신연구원 이동 단말기를 이용한 사용자 응시점 추적 방법 및 그 장치
US20150123966A1 (en) * 2013-10-03 2015-05-07 Compedia - Software And Hardware Development Limited Interactive augmented virtual reality and perceptual computing platform

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1118025A (ja) * 1997-06-24 1999-01-22 Fujitsu Ltd 画像呈示装置
JP2004309947A (ja) * 2003-04-10 2004-11-04 Sharp Corp データ表示装置、データ表示プログラム、および、プログラム記録媒体
JP2006184573A (ja) * 2004-12-27 2006-07-13 Toppan Printing Co Ltd 画像表示装置及び画像表示システム
JP2013121453A (ja) * 2011-12-12 2013-06-20 Toshiba Corp 超音波診断装置及び画像処理装置
WO2013108285A1 (ja) * 2012-01-16 2013-07-25 パナソニック株式会社 画像記録装置、立体画像再生装置、画像記録方法、及び立体画像再生方法
JP2013222447A (ja) * 2012-04-19 2013-10-28 Kddi Corp 情報提示システム
JP2014029690A (ja) * 2012-07-30 2014-02-13 Samsung Electronics Co Ltd ベンディングインタラクションガイドを提供するフレキシブル装置及びその制御方法
JP2014049866A (ja) * 2012-08-30 2014-03-17 Sharp Corp 画像処理装置及び画像表示装置

Also Published As

Publication number Publication date
JP6601392B2 (ja) 2019-11-06
US20170052684A1 (en) 2017-02-23
EP3130994A1 (en) 2017-02-15
EP3130994A4 (en) 2018-01-03
WO2015156128A1 (ja) 2015-10-15

Similar Documents

Publication Publication Date Title
JP6643357B2 (ja) 全球状取込方法
US11010958B2 (en) Method and system for generating an image of a subject in a scene
US20190371072A1 (en) Static occluder
US9041743B2 (en) System and method for presenting virtual and augmented reality scenes to a user
US20150235408A1 (en) Parallax Depth Rendering
US10321109B1 (en) Large volume video data transfer over limited capacity bus
EP3106963B1 (en) Mediated reality
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
JP6899875B2 (ja) 情報処理装置、映像表示システム、情報処理装置の制御方法、及びプログラム
JP2010072477A (ja) 画像表示装置、画像表示方法及びプログラム
US11099392B2 (en) Stabilized and tracked enhanced reality images
US20130222363A1 (en) Stereoscopic imaging system and method thereof
JP7392105B2 (ja) 没入型ビデオコンテンツをフォービエイテッドメッシュを用いてレンダリングするための方法、システム、および媒体
CN111095348A (zh) 基于摄像头的透明显示器
JP2021527252A (ja) 自動化された表面選択設置およびコンテンツ配向設置を用いた拡張現実ビューア
JP2007019666A (ja) 立体画像表示装置及び立体画像表示方法
JP6601392B2 (ja) 表示制御装置、表示制御方法、及び、プログラム
JP4624588B2 (ja) 画像生成装置、プログラム及び情報記憶媒体
CN116583870A (zh) 用于多相机孔填充的方法和设备
EP4383700A1 (en) Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor
JP7118383B1 (ja) 表示システム、表示方法、及び表示プログラム
US10964056B1 (en) Dense-based object tracking using multiple reference images
KR20230039466A (ko) 복수의 카메라들로부터 획득된 이미지들에 기반하는 입체 사진을 생성하는 전자 장치 및 그 방법
CN118689363A (zh) 显示3d图像的方法、装置、电子设备和存储介质
KR20170090199A (ko) 3차원 모형을 이용한 증강현실 환경에서의 진동발생장치 및 그 방법

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20160902

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190923

R151 Written notification of patent or utility model registration

Ref document number: 6601392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees