JP6649010B2 - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP6649010B2
JP6649010B2 JP2015165084A JP2015165084A JP6649010B2 JP 6649010 B2 JP6649010 B2 JP 6649010B2 JP 2015165084 A JP2015165084 A JP 2015165084A JP 2015165084 A JP2015165084 A JP 2015165084A JP 6649010 B2 JP6649010 B2 JP 6649010B2
Authority
JP
Japan
Prior art keywords
display
image
display image
virtual screen
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015165084A
Other languages
Japanese (ja)
Other versions
JP2017046065A (en
Inventor
友博 大戸
友博 大戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2015165084A priority Critical patent/JP6649010B2/en
Publication of JP2017046065A publication Critical patent/JP2017046065A/en
Application granted granted Critical
Publication of JP6649010B2 publication Critical patent/JP6649010B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、映像表示装置に立体映像を表示させる情報処理装置、映像表示システム、映像表示装置の制御方法、及びプログラムに関する。   The present invention relates to an information processing apparatus for displaying a stereoscopic video on a video display device, a video display system, a control method for the video display device, and a program.

ユーザーの左目に左目用画像、右目には左目用画像とは異なる右目用画像を閲覧させることで、視差を利用した立体映像の表示を実現する映像表示装置が知られている。   2. Description of the Related Art An image display device that realizes display of a stereoscopic image using parallax by allowing a user to view a left-eye image and a right-eye image that is different from the left-eye image for the left eye of a user is known.

上述した映像表示装置が、立体視のために用意される画像を傾けた状態で表示した場合、左目用画像と右目用画像とで画像内に写っている同じ物体の高さ方向の位置がずれてしまう。そうすると、垂直視差が生じるため、ユーザーがその物体の奥行きを正しく認識できなくなり、違和感を感じるおそれがある。   When the image display apparatus described above displays an image prepared for stereoscopic viewing in an inclined state, the position of the same object in the image in the height direction is shifted between the left-eye image and the right-eye image. Would. Then, vertical parallax is generated, so that the user cannot correctly recognize the depth of the object, and may feel uncomfortable.

本発明は上記実情を考慮してなされたものであって、その目的の一つは、映像表示装置に傾けた状態の画像が表示される場合に、ユーザーが感じる違和感を軽減することのできる情報処理装置、映像表示システム、映像表示装置の制御方法、及びプログラムを提供することにある。   The present invention has been made in consideration of the above circumstances, and one of its objects is to provide information capable of reducing a user's uncomfortable feeling when an image in a tilted state is displayed on a video display device. An object of the present invention is to provide a processing device, a video display system, a control method for a video display device, and a program.

本発明に係る情報処理装置は、立体映像を表示する映像表示装置と接続される情報処理装置であって、撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得部と、前記取得した二つの撮影画像に基づいて二つの表示画像を描画して、立体映像として前記映像表示装置に表示させる表示画像描画部と、前記表示画像内におけるユーザーの注視点を特定する注視点特定部と、を含み、前記表示画像描画部は、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点の位置において、前記二つの撮影画像内で互いに対応する対応点の高さ方向のずれを低減させるように、前記二つの表示画像を描画することを特徴とする。   An information processing apparatus according to the present invention is an information processing apparatus connected to a video display apparatus that displays a stereoscopic video, and obtains two captured images representing scenes viewed from two shooting positions in a shooting space. Unit, a display image drawing unit that draws two display images based on the obtained two captured images, and displays the three-dimensional image on the video display device, and specifies a gazing point of the user in the display image. A gaze point specifying unit, wherein the display image drawing unit draws the two display images representing a state in which the scenery represented by the two captured images is tilted, at the position of the specified gaze point. The two display images are drawn so as to reduce a shift in a height direction between corresponding points corresponding to each other in the two captured images.

また、本発明に係る映像表示システムは、立体映像を表示する映像表示装置と、当該映像表示装置に接続される情報処理装置と、を含む映像表示システムであって、前記情報処理装置は、撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得部と、前記取得した二つの撮影画像に基づいて二つの表示画像を描画する表示画像描画部と、前記表示画像内におけるユーザーの注視点を特定する注視点特定部と、を含み、前記映像表示装置は、前記表示画像描画部が描画した二つの表示画像を立体映像として表示し、前記表示画像描画部は、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点の位置において、前記二つの撮影画像内で互いに対応する対応点の高さ方向のずれを低減させるように、前記二つの表示画像を描画することを特徴とする。   Also, the video display system according to the present invention is a video display system including a video display device for displaying a stereoscopic video and an information processing device connected to the video display device, wherein the information processing device An acquisition unit configured to acquire two captured images representing scenery viewed from two imaging positions in a space, a display image rendering unit configured to render two display images based on the acquired two captured images, and the display image A fixation point specifying unit that specifies a fixation point of the user in, the video display device displays two display images drawn by the display image drawing unit as a stereoscopic image, and the display image drawing unit includes: When rendering the two display images representing the state in which the scenes represented by the two captured images are tilted, at the position of the specified point of regard, the corresponding points in the two captured images corresponding to each other Is to reduce the direction of displacement, characterized in that drawing the two display images.

また、本発明に係る映像表示装置の制御方法は、立体映像を表示する映像表示装置の制御方法であって、撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得ステップと、前記取得した二つの撮影画像に基づいて二つの表示画像を描画して、立体映像として前記映像表示装置に表示させる表示画像描画ステップと、前記表示画像内におけるユーザーの注視点を特定する注視点特定ステップと、を含み、前記表示画像描画ステップでは、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点の位置において、前記二つの撮影画像内で互いに対応する対応点の高さ方向のずれを低減させるように、前記二つの表示画像を描画することを特徴とする。   Further, the control method for a video display device according to the present invention is a control method for a video display device that displays a stereoscopic video, and acquires two captured images representing a scene viewed from two capturing positions in a capturing space. An acquiring step, a display image rendering step of rendering two display images based on the acquired two captured images, and displaying the two display images as a stereoscopic image on the video display device, and specifying a point of interest of the user in the display image The display image drawing step, when drawing the two display images representing a state where the scenes represented by the two captured images are tilted, the position of the specified fixation point Wherein the two display images are drawn so as to reduce a shift in a height direction between corresponding points corresponding to each other in the two captured images.

また、本発明に係るプログラムは、立体映像を表示する映像表示装置と接続されるコンピュータを、撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得手段、前記取得した二つの撮影画像に基づいて二つの表示画像を描画して、立体映像として前記映像表示装置に表示させる表示画像描画手段、及び、前記表示画像内におけるユーザーの注視点を特定する注視点特定手段、として機能させるためのプログラムであって、前記表示画像描画手段は、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点の位置において、前記二つの撮影画像内で互いに対応する対応点の高さ方向のずれを低減させるように、前記二つの表示画像を描画することを特徴とする。このプログラムは、コンピュータ読み取り可能で非一時的な情報記憶媒体に格納されて提供されてよい。   Further, the program according to the present invention includes a computer connected to an image display device that displays a stereoscopic image, an acquisition unit that acquires two captured images representing scenes viewed from two imaging positions in an imaging space, Display image drawing means for drawing two display images based on the two photographed images thus obtained and displaying the display image as a stereoscopic image on the video display device, and fixation point specifying means for specifying a fixation point of the user in the display image Wherein the display image drawing means draws the two display images representing a state in which the scenery represented by the two captured images is tilted, At the position, the two display images are drawn so as to reduce a shift in a height direction between corresponding points corresponding to each other in the two captured images.This program may be stored in a computer-readable non-transitory information storage medium and provided.

本発明の実施の形態に係る情報処理装置を含んだ映像表示システムの構成を示す構成ブロック図である。1 is a configuration block diagram illustrating a configuration of a video display system including an information processing device according to an embodiment of the present invention. 本実施形態に係る情報処理装置の機能を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating functions of the information processing apparatus according to the embodiment. 撮影画像を撮影する際の撮影位置の位置関係を示す図である。It is a figure which shows the positional relationship of the imaging | photography position at the time of imaging | photographing a captured image. 視点カメラと仮想スクリーンの位置関係を示す図である。FIG. 4 is a diagram illustrating a positional relationship between a viewpoint camera and a virtual screen. 仮想スクリーン上の貼り付け対象領域を示す図である。FIG. 4 is a diagram illustrating a pasting target area on a virtual screen. 視点カメラが傾けられた状態における視野範囲を示す図である。It is a figure showing a field-of-view range in the state where a viewpoint camera was inclined. 視点カメラが傾けられた状態において表示画像内で生じる被写体の高さ方向のずれを説明する図である。FIG. 7 is a diagram illustrating a displacement of a subject in a height direction in a display image in a state where a viewpoint camera is tilted. 本実施形態に係る情報処理装置が実行する処理の流れの一例を示す図である。FIG. 6 is a diagram illustrating an example of a flow of a process executed by the information processing apparatus according to the embodiment. 全天周の景色を含んだ撮影画像に基づいて表示画像を描画する場合の視点カメラと仮想スクリーンの位置関係を示す図である。FIG. 6 is a diagram illustrating a positional relationship between a viewpoint camera and a virtual screen when a display image is drawn based on a captured image including a scene of the entire sky.

以下、本発明の実施形態について、図面に基づき詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態に係る情報処理装置10を含む映像表示システム1の構成を示す構成ブロック図である。同図に示されるように、映像表示システム1は、情報処理装置10と、操作デバイス20と、カメラ25と、中継装置30と、映像表示装置40と、を含んで構成されている。   FIG. 1 is a configuration block diagram illustrating a configuration of a video display system 1 including an information processing device 10 according to an embodiment of the present invention. As shown in FIG. 1, the video display system 1 includes an information processing device 10, an operation device 20, a camera 25, a relay device 30, and a video display device 40.

情報処理装置10は、映像表示装置40が表示すべき映像を供給する装置であって、例えば家庭用ゲーム機、携帯型ゲーム機、パーソナルコンピューター、スマートフォン、タブレット等であってよい。図1に示されるように、情報処理装置10は、制御部11と、記憶部12と、インタフェース部13と、を含んで構成される。   The information processing device 10 is a device that supplies an image to be displayed by the image display device 40, and may be, for example, a home game machine, a portable game machine, a personal computer, a smartphone, a tablet, or the like. As shown in FIG. 1, the information processing device 10 includes a control unit 11, a storage unit 12, and an interface unit 13.

制御部11は、CPU等のプロセッサーを少なくとも一つ含み、記憶部12に記憶されているプログラムを実行して各種の情報処理を実行する。なお、本実施形態において制御部11が実行する処理の具体例については、後述する。記憶部12は、RAM等のメモリデバイスを少なくとも一つ含み、制御部11が実行するプログラム、及び当該プログラムによって処理されるデータを格納する。   The control unit 11 includes at least one processor such as a CPU, and executes a program stored in the storage unit 12 to execute various types of information processing. Note that a specific example of the processing executed by the control unit 11 in the present embodiment will be described later. The storage unit 12 includes at least one memory device such as a RAM, and stores a program executed by the control unit 11 and data processed by the program.

インタフェース部13は、操作デバイス20、カメラ25、及び中継装置30との間のデータ通信のためのインタフェースである。情報処理装置10は、インタフェース部13を介して有線又は無線のいずれかで操作デバイス20、カメラ25及び中継装置30のそれぞれと接続される。具体例として、インタフェース部13は、情報処理装置10が供給する映像や音声を中継装置30に送信するために、HDMI(High-Definition Multimedia Interface:登録商標)などのマルチメディアインタフェースを含んでよい。また、中継装置30経由で映像表示装置40から各種の情報を受信したり、制御信号等を送信したりするために、USB等のデータ通信インタフェースを含んでよい。また、インタフェース部13は、操作デバイス20に対するユーザーの操作入力の内容を示す信号を受信するために、Bluetooth(登録商標)やUSB等のデータ通信インタフェースを含んでいる。さらにインタフェース部13は、カメラ25によって撮像された画像のデータを受信するために、USB等のデータ通信インタフェースを含んでいる。   The interface unit 13 is an interface for data communication between the operation device 20, the camera 25, and the relay device 30. The information processing device 10 is connected to each of the operation device 20, the camera 25, and the relay device 30 via the interface unit 13 in a wired or wireless manner. As a specific example, the interface unit 13 may include a multimedia interface such as HDMI (High-Definition Multimedia Interface: registered trademark) in order to transmit the video and audio supplied by the information processing device 10 to the relay device 30. Further, a data communication interface such as a USB may be included in order to receive various kinds of information from the video display device 40 via the relay device 30 and to transmit control signals and the like. Further, the interface unit 13 includes a data communication interface such as Bluetooth (registered trademark) or USB in order to receive a signal indicating the content of a user's operation input to the operation device 20. Further, the interface unit 13 includes a data communication interface such as a USB in order to receive data of an image captured by the camera 25.

操作デバイス20は、家庭用ゲーム機のコントローラ等であって、ユーザーが情報処理装置10に対して各種の指示操作を行うために使用される。操作デバイス20に対するユーザーの操作入力の内容は、有線又は無線のいずれかにより情報処理装置10に送信される。なお、操作デバイス20は情報処理装置10の筐体表面に配置された操作ボタンやタッチパネル等を含んでもよい。カメラ25は、本映像表示システム1を利用するユーザーの前方に設置され、ユーザーが装着する映像表示装置40を含んだ映像を撮像する。   The operation device 20 is a controller or the like of a home game machine, and is used by a user to perform various instruction operations on the information processing device 10. The content of the user's operation input to the operation device 20 is transmitted to the information processing apparatus 10 either by wire or wirelessly. The operation device 20 may include an operation button, a touch panel, and the like disposed on the surface of the housing of the information processing apparatus 10. The camera 25 is installed in front of the user using the video display system 1 and captures a video including the video display device 40 worn by the user.

中継装置30は、有線又は無線のいずれかにより映像表示装置40と接続されており、情報処理装置10から供給される映像のデータを受け付けて、受け付けたデータに応じた映像信号を映像表示装置40に対して出力する。このとき中継装置30は、必要に応じて、供給された映像データに対して、映像表示装置40の光学系によって生じる歪みを補正する処理などを実行し、補正された映像信号を出力してもよい。なお、中継装置30から映像表示装置40に供給される映像信号は、左目用映像、及び右目用映像の二つの映像を含んでいる。また、中継装置30は、映像データ以外にも、音声データや制御信号など、情報処理装置10と映像表示装置40との間で送受信される各種の情報を中継する。   The relay device 30 is connected to the video display device 40 either by wire or wirelessly, receives the video data supplied from the information processing device 10, and outputs a video signal corresponding to the received data to the video display device 40. Output to At this time, the relay device 30 may perform processing for correcting distortion generated by the optical system of the video display device 40 on the supplied video data as needed, and output the corrected video signal. Good. Note that the video signal supplied from the relay device 30 to the video display device 40 includes two videos: a left-eye video and a right-eye video. The relay device 30 relays various information transmitted and received between the information processing device 10 and the video display device 40, such as audio data and control signals, in addition to the video data.

映像表示装置40は、中継装置30から入力される映像信号に応じた映像を表示し、ユーザーに閲覧させる。本実施形態では、映像表示装置40はユーザーが頭部に装着して使用する映像表示装置であって、両目での映像の閲覧に対応しているものとする。すなわち映像表示装置40は、ユーザーの右目及び左目それぞれの目の前に映像を表示する。また、映像表示装置40は両眼視差を利用した立体映像の表示を行うものとする。図2に示すように、映像表示装置40は、映像表示素子41、光学素子42、発光素子43、モーションセンサー44、及び通信インタフェース45を含んで構成される。   The video display device 40 displays a video according to the video signal input from the relay device 30, and allows the user to browse. In the present embodiment, it is assumed that the video display device 40 is a video display device that is worn on the user's head and used for browsing video with both eyes. That is, the image display device 40 displays an image in front of each of the right eye and the left eye of the user. The video display device 40 displays a stereoscopic video using binocular parallax. As shown in FIG. 2, the video display device 40 includes a video display element 41, an optical element 42, a light emitting element 43, a motion sensor 44, and a communication interface 45.

映像表示素子41は、有機EL表示パネルや液晶表示パネルなどであって、中継装置30から供給される映像信号に応じた映像を表示する。本実施形態において映像表示素子41は、左目用映像、及び右目用映像の2つの映像を表示する。なお、映像表示素子41は、左目用映像及び右目用映像を並べて表示する1つの表示素子であってもよいし、それぞれの映像を独立に表示する2つの表示素子によって構成されてもよい。また、公知のスマートフォン等を映像表示素子41として用いてもよい。なお、映像表示素子41は、立体視を実現するために、左目用映像及び右目用映像として互いに異なる映像を表示するものとする。   The image display element 41 is an organic EL display panel, a liquid crystal display panel, or the like, and displays an image according to an image signal supplied from the relay device 30. In the present embodiment, the image display element 41 displays two images, a left-eye image and a right-eye image. Note that the video display element 41 may be a single display element that displays a left-eye video and a right-eye video side by side, or may be configured by two display elements that display each video independently. In addition, a known smartphone or the like may be used as the image display element 41. Note that the image display element 41 displays different images as a left-eye image and a right-eye image in order to realize stereoscopic viewing.

光学素子42は、ホログラムやプリズム、ハーフミラーなどであって、ユーザーの目の前に配置され、映像表示素子41が表示する映像の光を透過又は屈折させて、ユーザーの左右それぞれの目に入射させる。具体的に、映像表示素子41が表示する左目用映像は、光学素子42を経由してユーザーの左目に入射し、右目用映像は光学素子42を経由してユーザーの右目に入射する。これによりユーザーは、映像表示装置40を頭部に装着した状態で、左目用映像を左目で、右目用映像を右目で、それぞれ閲覧することができる。なお、本実施形態において映像表示装置40は、ユーザーが外界の様子を視認することができない非透過型の映像表示装置であるものとする。   The optical element 42 is a hologram, a prism, a half mirror, or the like, is arranged in front of the user's eyes, transmits or refracts light of an image displayed by the image display element 41, and is incident on the left and right eyes of the user. Let it. Specifically, the image for the left eye displayed by the image display element 41 enters the user's left eye via the optical element 42, and the image for the right eye enters the user's right eye via the optical element 42. This allows the user to view the left-eye video with the left eye and the right-eye video with the right eye with the video display device 40 mounted on the head. In the present embodiment, the video display device 40 is a non-transmissive video display device that does not allow the user to visually recognize the outside world.

発光素子43は、LED等であって、映像表示装置40の前面に配置され、情報処理装置10からの指示に応じて発光する。この発光素子43の光をカメラ25で撮影することによって、情報処理装置10はカメラ25の視野内における映像表示装置40の位置を特定することができる。すなわち、情報処理装置10は発光素子43の光を利用して映像表示装置40の位置や傾きの変化をトラッキングすることができる。なお、発光素子43は複数配置されてもよい。   The light emitting element 43 is an LED or the like, is arranged on the front of the video display device 40, and emits light in response to an instruction from the information processing device 10. By photographing the light of the light emitting element 43 with the camera 25, the information processing device 10 can specify the position of the video display device 40 within the field of view of the camera 25. That is, the information processing device 10 can track changes in the position and the inclination of the video display device 40 using the light of the light emitting element 43. Note that a plurality of light emitting elements 43 may be arranged.

モーションセンサー44は、映像表示装置40の位置や向き、動きに関する各種の情報を測定する。例えばモーションセンサー44は、加速度センサー、ジャイロスコープ、又は地磁気センサーなどを含んでよい。モーションセンサー44の測定結果は、中継装置30を経由して情報処理装置10に送信される。情報処理装置10は、映像表示装置40の動きや向きの変化を特定するために、このモーションセンサー44の測定結果を用いることができる。具体的に情報処理装置10は、加速度センサーの測定結果を用いることで、映像表示装置40の鉛直方向に対する傾きや平行移動を検出できる。また、ジャイロスコープや地磁気センサーの測定結果を用いることで、映像表示装置40の回転運動を検出できる。   The motion sensor 44 measures various information related to the position, the direction, and the movement of the video display device 40. For example, the motion sensor 44 may include an acceleration sensor, a gyroscope, a geomagnetic sensor, or the like. The measurement result of the motion sensor 44 is transmitted to the information processing device 10 via the relay device 30. The information processing device 10 can use the measurement result of the motion sensor 44 in order to specify a change in the motion or the direction of the video display device 40. Specifically, the information processing device 10 can detect the inclination or the parallel movement of the video display device 40 with respect to the vertical direction by using the measurement result of the acceleration sensor. In addition, by using the measurement result of the gyroscope or the geomagnetic sensor, the rotational movement of the image display device 40 can be detected.

通信インタフェース45は、中継装置30との間でデータ通信を行うためのインタフェースである。例えば映像表示装置40が中継装置30との間で無線LANやBluetoothなどの無線通信によりデータの送受信を行う場合、通信インタフェース45は通信用のアンテナ、及び通信モジュールを含む。また、通信インタフェース45は、中継装置30との間で有線によるデータ通信を行うためのHDMIやUSB等の通信インタフェースを含んでもよい。   The communication interface 45 is an interface for performing data communication with the relay device 30. For example, when the image display device 40 transmits and receives data to and from the relay device 30 by wireless communication such as a wireless LAN or Bluetooth, the communication interface 45 includes a communication antenna and a communication module. Further, the communication interface 45 may include a communication interface such as HDMI or USB for performing wired data communication with the relay device 30.

次に、情報処理装置10が実現する機能について図2を用いて説明する。図2に示すように、情報処理装置10は、機能的に、撮影画像取得部51と、表示画像描画部52と、視点制御部53と、注視点特定部54と、を含む。これらの機能は、制御部11が記憶部12に記憶されたプログラムを実行することにより実現される。このプログラムは、インターネット等の通信ネットワークを介して情報処理装置10に提供されてもよいし、光ディスク等のコンピュータ読み取り可能な情報記憶媒体に格納されて提供されてもよい。   Next, functions realized by the information processing apparatus 10 will be described with reference to FIG. As illustrated in FIG. 2, the information processing apparatus 10 functionally includes a captured image acquisition unit 51, a display image drawing unit 52, a viewpoint control unit 53, and a gazing point identification unit 54. These functions are realized by the control unit 11 executing a program stored in the storage unit 12. This program may be provided to the information processing apparatus 10 via a communication network such as the Internet, or may be provided by being stored in a computer-readable information storage medium such as an optical disk.

撮影画像取得部51は、撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する。ここでは具体的に、撮影空間は実空間であるものとし、撮影画像は実際の景色をカメラによって撮影したものとする。また、二つの撮影位置は、実空間において水平方向に沿って左右に並んだ位置である。この二つの撮影位置のそれぞれに設置したカメラから撮影空間内の被写体を撮影することによって、二つの撮影画像が得られる。以下、二つの撮影位置に配置されるカメラを左撮影カメラCL及び右撮影カメラCRとする。また、左撮影カメラCLで撮影空間を撮影して得られる撮影画像を左撮影画像PLと表記し、右撮影カメラCRで撮影空間を撮影して得られる撮影画像を右撮影画像PRと表記する。また、二つの撮影位置の中点を基準撮影位置Rcと表記する。二つの撮影位置は互いに距離dcだけ離れているものとする。   The photographed image acquiring unit 51 acquires two photographed images representing the scenery viewed from two photographing positions in the photographing space. Here, it is specifically assumed that the photographing space is a real space, and the photographed image is obtained by photographing an actual scene with a camera. Further, the two photographing positions are positions arranged right and left along the horizontal direction in the real space. By photographing a subject in the photographing space from the camera installed at each of the two photographing positions, two photographed images can be obtained. Hereinafter, the cameras arranged at the two photographing positions are referred to as a left photographing camera CL and a right photographing camera CR. Further, a photographed image obtained by photographing the photographing space with the left photographing camera CL is described as a left photographed image PL, and a photographed image obtained by photographing the photographing space with the right photographing camera CR is described as a right photographed image PR. The middle point between the two shooting positions is referred to as a reference shooting position Rc. It is assumed that the two photographing positions are separated from each other by a distance dc.

図3は、二つの撮影カメラにより撮影画像を撮影する様子を示す図であって、二つの撮影カメラを天頂方向から見た状態を示している。図中の破線は撮影カメラの水平画角を示しており、この破線で囲まれた撮影範囲内に存在する被写体が撮影画像に含まれる。なお、この図の例においては二つのカメラの光軸(撮影方向)は互いに平行であることとし、その撮影方向は二つの撮影位置を含む鉛直面に直交する向きになっている。また、ここでは具体例として、撮影画像内に被写体Sが含まれるものとし、二つの撮影位置から被写体Sまでの撮影方向に沿った距離をdxとする。   FIG. 3 is a diagram showing a state in which a photographed image is photographed by two photographing cameras, and shows a state in which the two photographing cameras are viewed from the zenith direction. The broken line in the figure indicates the horizontal angle of view of the photographing camera, and a subject existing within the photographing range surrounded by the broken line is included in the photographed image. In the example of this figure, the optical axes (photographing directions) of the two cameras are parallel to each other, and the photographing directions are orthogonal to the vertical plane including the two photographing positions. In addition, as a specific example, it is assumed that the captured image includes the subject S, and the distance from the two capturing positions to the subject S along the capturing direction is dx.

以下では、二つの撮影画像において撮影空間内の同じ位置が写っている点を対応点という。水平方向に沿って並んだ二つの撮影位置から撮影を行うことで、二つの撮影画像内の対応点は互いに水平方向にずれた位置に表示されることになる。なお、ここでは二つの撮影カメラの撮影方向が一致することとしているので、撮影位置からの距離が遠くなるほど二つの対応点は各撮影画像内の互いに近い位置に配置され、撮影位置からの距離が近くなるほど互いに離れた位置に配置される。この対応点の左右方向のずれによって、両眼視差による立体視が実現される。   Hereinafter, a point where the same position in the photographing space appears in two photographed images is referred to as a corresponding point. By photographing from two photographing positions arranged along the horizontal direction, the corresponding points in the two photographed images are displayed at positions shifted from each other in the horizontal direction. Here, since the shooting directions of the two shooting cameras are assumed to be the same, the two corresponding points are arranged closer to each other in each shot image as the distance from the shooting position increases, and the distance from the shooting position decreases. The closer to each other, the farther apart they are. Due to the shift of the corresponding point in the left-right direction, stereoscopic viewing by binocular parallax is realized.

表示画像描画部52は、撮影画像取得部51が取得した二つの撮影画像に基づいて二つの表示画像を描画して、描画した表示画像を中継装置30に対して出力することによって映像表示装置40に表示させる。具体的に表示画像描画部52は、左撮影画像PLに基づいて左目用表示画像DLを描画し、右撮影画像PRに基づいて右目用表示画像DRを描画する。そして、二つの表示画像を映像表示装置40に表示させることによって、左目用表示画像DLをユーザーの左目で、右目用表示画像DRを右目で、それぞれ閲覧させる。   The display image rendering unit 52 renders two display images based on the two captured images acquired by the captured image acquisition unit 51, and outputs the rendered display image to the relay device 30 so that the video display device 40 To be displayed. Specifically, the display image drawing unit 52 draws the left-eye display image DL based on the left captured image PL, and draws the right-eye display image DR based on the right captured image PR. Then, by displaying the two display images on the video display device 40, the left-view display image DL is viewed by the user's left eye and the right-view display image DR is viewed by the right eye.

本実施形態において表示画像描画部52は、左目用表示画像DL及び右目用表示画像DRのそれぞれを、以下のようにして描画する。すなわち、表示画像描画部52は、仮想空間内に平板状の仮想スクリーンVSを配置し、その仮想スクリーンVSの少なくとも一部を視野内に含めるような位置に、ユーザーの左右の目に対応する二つの視点カメラを配置する。以下ではこの二つの視点カメラを左視点カメラVL及び右視点カメラVRと表記する。左視点カメラVL及び右視点カメラVRは、人の左右の目と同様に互いに所定距離だけ離れて左右に並んで仮想空間内に配置される。以下では、二つの視点カメラの配置位置の中点を基準視点位置Rvと表記する。また、二つの視点カメラ間の距離をdvとする。なお、ここでは距離dvは、実空間における二つの撮影位置の間の距離dcに一致するものとする。また、二つの視点カメラの光軸(視線方向)は、撮影カメラの場合と同様に互いに平行であるものとする。   In the present embodiment, the display image drawing unit 52 draws each of the left-eye display image DL and the right-eye display image DR as follows. That is, the display image drawing unit 52 arranges the flat virtual screen VS in the virtual space, and positions the virtual screen VS corresponding to the left and right eyes of the user at a position where at least a part of the virtual screen VS is included in the visual field. Place two viewpoint cameras. Hereinafter, these two viewpoint cameras are referred to as a left viewpoint camera VL and a right viewpoint camera VR. The left viewpoint camera VL and the right viewpoint camera VR are arranged in the virtual space side by side at a predetermined distance from each other like the left and right eyes of a person. Hereinafter, the midpoint between the arrangement positions of the two viewpoint cameras is referred to as a reference viewpoint position Rv. The distance between the two viewpoint cameras is dv. Here, it is assumed that the distance dv matches the distance dc between the two photographing positions in the real space. The optical axes (viewing directions) of the two viewpoint cameras are parallel to each other as in the case of the photographing camera.

図4は、仮想スクリーンVS、及び二つの視点カメラが配置された仮想空間を上方から見た様子を示している。図中の破線は二つの視点カメラの水平画角を示している。同図においては、仮想スクリーンVSは基準視点位置Rvから視線方向に沿って距離dsだけ離れた位置に配置されている。また、ここでは二つの視点カメラは、仮想スクリーンVSに平行な平面内に配置され、その視線方向は仮想スクリーンVSの表面に直交している。   FIG. 4 illustrates a virtual screen VS and a virtual space in which two viewpoint cameras are arranged, as viewed from above. The broken line in the figure indicates the horizontal angle of view of the two viewpoint cameras. In the figure, the virtual screen VS is arranged at a position separated from the reference viewpoint position Rv by a distance ds along the line of sight. Also, here, the two viewpoint cameras are arranged in a plane parallel to the virtual screen VS, and the viewing direction is orthogonal to the surface of the virtual screen VS.

以上説明した条件下において、表示画像描画部52は、仮想スクリーンVSの表面に左撮影画像PLをテクスチャーとして貼り付け、この左撮影画像PLを左視点カメラVLから見た様子を示す画像を、左目用表示画像DLとして描画する。同様に、右撮影画像PRをテクスチャーとして貼り付けた仮想スクリーンVSの表面を右視点カメラVRから見た様子を示す画像を、右目用表示画像DRとして描画する。そして、描画した左目用表示画像DL及び右目用表示画像DRを映像表示装置40に表示させ、ユーザーに左右の目で閲覧させる。これによりユーザーは、二つの撮影位置から見た景色を立体的に認識することができる。   Under the conditions described above, the display image drawing unit 52 pastes the left captured image PL as a texture on the surface of the virtual screen VS, and displays the left captured image PL as viewed from the left viewpoint camera VL on the left eye. Is drawn as the display image DL for use. Similarly, an image showing the surface of the virtual screen VS on which the right captured image PR is pasted as a texture as viewed from the right viewpoint camera VR is drawn as a right-eye display image DR. Then, the rendered left-eye display image DL and right-eye display image DR are displayed on the video display device 40, and the user browses with the left and right eyes. Thus, the user can three-dimensionally recognize the scene viewed from the two shooting positions.

なお、二つの撮影画像のそれぞれを仮想スクリーンVS上に貼り付ける際の貼り付け位置及び大きさは、各撮影画像を撮影した撮影カメラの位置、及び画角に応じて決定される。具体的に、仮想空間内の基準視点位置Rvに基準撮影位置Rcが一致するように、二つの撮影カメラを撮影時の位置関係を保ったまま仮想空間内に配置したとする。このとき二つの撮影カメラは、撮影時と同様に水平方向に並び、かつ二つの撮影カメラを含む鉛直面が仮想スクリーンVSと平行になるように配置される。この場合に、各撮影カメラの画角に応じて決まる撮影範囲が仮想スクリーンVS上において占める領域が、撮影画像を貼り付ける領域となる。以下では、仮想スクリーンVS上の左撮影画像PLが貼り付けられる領域を貼り付け対象領域ALといい、右撮影画像PRが貼り付けられる領域を貼り付け対象領域ARという。貼り付け対象領域ALと貼り付け対象領域ARとは、仮想スクリーンVS上において水平方向に沿って互いに距離dcだけずれた領域となる。また、各貼り付け対象領域の大きさは、撮影カメラの画角と、基準視点位置Rvから仮想スクリーンVSまでの距離dsと、に応じて決定される。各撮影画像は、この貼り付け対象領域の大きさに合わせて拡大または縮小されて、対応する貼り付け対象領域に貼り付けられる。図5は、仮想スクリーンVS上の貼り付け対象領域AL及びARを示す図であって、二つの視点カメラの後方から仮想スクリーンVSを見た様子を示している。なお、図中の破線は二つの視点カメラの視野範囲を示している。   Note that the position and size of each of the two captured images when pasting them on the virtual screen VS are determined according to the position and angle of view of the camera that captured each captured image. Specifically, it is assumed that the two photographing cameras are arranged in the virtual space while maintaining the positional relationship at the time of photographing such that the reference photographing position Rc matches the reference viewpoint position Rv in the virtual space. At this time, the two photographing cameras are arranged in the horizontal direction as in photographing, and are arranged such that the vertical plane including the two photographing cameras is parallel to the virtual screen VS. In this case, an area occupied on the virtual screen VS by an imaging range determined according to the angle of view of each imaging camera is an area where a captured image is pasted. Hereinafter, the area on the virtual screen VS where the left captured image PL is pasted is referred to as a pasting target area AL, and the area where the right captured image PR is pasted is referred to as a pasting target area AR. The pasting target area AL and the pasting target area AR are areas shifted from each other by a distance dc along the horizontal direction on the virtual screen VS. The size of each pasting target area is determined according to the angle of view of the photographing camera and the distance ds from the reference viewpoint position Rv to the virtual screen VS. Each captured image is enlarged or reduced in accordance with the size of the paste target area, and is pasted on the corresponding paste target area. FIG. 5 is a diagram showing the pasting target areas AL and AR on the virtual screen VS, and shows a state in which the virtual screen VS is viewed from behind two viewpoint cameras. Note that the broken lines in the figure indicate the visual field ranges of the two viewpoint cameras.

視点制御部53は、仮想空間内に配置された二つの視点カメラの位置を制御する。本実施形態において視点制御部53は、映像表示装置40の傾きの変化に応じて二つの視点カメラを回転させる回転制御を実行する。具体的に視点制御部53は、一定時間おきにモーションセンサー44の測定結果、またはカメラ25による撮像画像を取得し、解析することによって、取得時点における映像表示装置40の傾きを特定する。ここで映像表示装置40の傾きは、映像表示装置40の前後方向を回転軸とした回転の回転量を表すロール角によって定義されるものとする。映像表示装置40はユーザーの頭部に固定された状態で使用されるので、この映像表示装置40の傾きは、そのままユーザーの顔の傾きに対応することになる。なお、ここでは映像表示装置40を装着した状態におけるユーザーの顔の正面に一致する方向を、映像表示装置40の前方向(正面方向)としている。また、ロール角の値は、ユーザーが顔を傾けずに左右の目が水平になっている状態を基準状態として、この基準状態からの回転量を表すものであってよい。   The viewpoint controller 53 controls the positions of two viewpoint cameras arranged in the virtual space. In the present embodiment, the viewpoint control unit 53 executes rotation control for rotating the two viewpoint cameras according to a change in the inclination of the video display device 40. Specifically, the viewpoint control unit 53 acquires the measurement result of the motion sensor 44 or the image captured by the camera 25 at regular time intervals, and analyzes the acquired image to specify the inclination of the video display device 40 at the time of acquisition. Here, the inclination of the video display device 40 is defined by a roll angle representing the amount of rotation of the video display device 40 with the front-back direction as a rotation axis. Since the video display device 40 is used while being fixed to the user's head, the tilt of the video display device 40 directly corresponds to the tilt of the user's face. Here, the direction that coincides with the front of the user's face when the video display device 40 is worn is defined as the front direction (front direction) of the video display device 40. Further, the value of the roll angle may represent the amount of rotation from this reference state with the state in which the left and right eyes are horizontal without the user tilting the face as a reference state.

視点制御部53は、特定した映像表示装置40の傾きの変化に連動して、二つの視点カメラを鉛直面内で回転させる。図6は視点カメラが回転した様子を示す図であって、図5と同様に仮想空間内に配置された二つの視点カメラを背面方向から見た様子を示している。また、図中の破線は二つの視点カメラの視野範囲を示している。同図に示されるように、二つの視点カメラは、基準視点位置Rvを回転中心として、視点カメラの視線方向を回転軸として回転する。その回転方向及び回転量φは、特定された映像表示装置40のロール角の値に一致してよい。図6に示されるように、視点カメラが回転したとしても、貼り付け対象領域AR及びALの位置、及び向きは変化しない。そのため、視点カメラの視野範囲内に含まれる撮影画像PR及びPLは、視点カメラの回転に連動して傾けられることになる。表示画像描画部52は、このように回転された各視点カメラから対応する撮影画像が貼り付けられた仮想スクリーンVSを見た様子を表示画像として描画する。これにより、ユーザーは、二つの撮影画像が表す景色を、自身の顔の傾きの変化に応じて傾けられた状態で閲覧することができる。   The viewpoint control unit 53 rotates the two viewpoint cameras in the vertical plane in conjunction with the change in the specified tilt of the video display device 40. FIG. 6 is a view showing a state in which the viewpoint camera is rotated, and shows a state in which two viewpoint cameras arranged in the virtual space are viewed from the back direction, similarly to FIG. The broken lines in the figure indicate the visual field ranges of the two viewpoint cameras. As shown in the drawing, the two viewpoint cameras rotate around the reference viewpoint position Rv as a rotation center and the viewing line direction of the viewpoint camera as a rotation axis. The rotation direction and the rotation amount φ may match the specified roll angle of the video display device 40. As shown in FIG. 6, even if the viewpoint camera rotates, the positions and directions of the pasting target areas AR and AL do not change. Therefore, the captured images PR and PL included in the visual field range of the viewpoint camera are tilted in conjunction with the rotation of the viewpoint camera. The display image drawing unit 52 draws, as a display image, a state of viewing the virtual screen VS on which the corresponding captured image is pasted from each viewpoint camera rotated in this way. This allows the user to view the scenery represented by the two captured images in a state where the scene is tilted according to a change in the inclination of his / her face.

なお、視点制御部53は、映像表示装置40の傾きだけでなく、映像表示装置40の前面が向いている方向を特定してもよい。例えば映像表示装置40の方向は、上下方向を回転軸とした回転量を表すヨー角と、左右方向を回転軸とした回転量を表すピッチ角と、によって定義される。ヨー角及びピッチ角の値は、それぞれ基準方向に対する回転量を表すものであってよい。ここで基準方向は、映像表示装置40の使用開始時などに決定される方向であってよい。また、視点制御部53は、映像表示装置40の傾き、方向だけでなく、映像表示装置40が平行移動してその位置が変化した場合に、平行移動の向き、及び移動量を特定してもよい。そして、視点制御部53は、この映像表示装置40の方向、及び位置の変化に応じて、仮想空間内に配置された二つの視点カメラの視線方向、及び位置を変化させてよい。これにより、視線カメラが撮影画像内の限られた領域だけを視野範囲としている場合に、ユーザーの頭の動きに連動して視点カメラの位置や向きを変化させて、撮影画像内の任意の位置を視点カメラの視野範囲に含めるようにすることができる。   Note that the viewpoint control unit 53 may specify not only the inclination of the video display device 40 but also the direction in which the front surface of the video display device 40 is facing. For example, the direction of the video display device 40 is defined by a yaw angle indicating a rotation amount with the vertical direction as a rotation axis, and a pitch angle indicating a rotation amount with the horizontal direction as a rotation axis. The values of the yaw angle and the pitch angle may each represent the amount of rotation with respect to the reference direction. Here, the reference direction may be a direction determined when the use of the video display device 40 is started. Further, the viewpoint control unit 53 specifies not only the inclination and the direction of the video display device 40 but also the direction and the amount of translation when the video display device 40 is translated and its position is changed. Good. Then, the viewpoint control unit 53 may change the line-of-sight directions and the positions of the two viewpoint cameras arranged in the virtual space according to the change in the direction and the position of the video display device 40. This allows the viewpoint camera to change the position and orientation of the viewpoint camera in conjunction with the movement of the user's head when the line-of-sight camera has only a limited area in the captured image as the field of view, and to set an arbitrary position in the captured image. Can be included in the field of view of the viewpoint camera.

しかしながら、前述したように二つの視点カメラを傾ける制御を行うと、撮影画像内の被写体に垂直視差が生じて、ユーザーが被写体を立体的に認識しにくくなることがある。これにつき、以下に説明する。前述したように、左撮影画像PLと右撮影画像PRとでは、撮影空間内の同じ位置に対応する対応点が左右方向にずれた位置に写っている。そのため、各撮影画像を傾けられた視点から見ると、二つの対応点の位置が高さ方向にずれることになる。図7は、この高さ方向のずれを説明する模式図であって、被写体Sが写っている左撮影画像PL及び右撮影画像PRに基づいて描画される左目用表示画像DL及び右目用表示画像DRを示している。また、上段は視点カメラを傾ける前の状態(視点カメラが水平方向に並んだ状態)、下段は視点カメラを傾けた状態の表示画像を示している。上段に示されるように、左目用表示画像DLと右目用表示画像DRの間では、被写体Sの高さ方向の位置は一致しているが、左右方向の位置にずれが生じている。この左右方向のずれにより、ユーザーは被写体Sを立体的に認識することができる。これに対して、回転された視点カメラから仮想スクリーンVSを見た場合、図7の下段に示すように、左目用表示画像DLと右目用表示画像DRとの間で、被写体Sの高さ方向の位置にずれが生じることが分かる。このような表示画像を表示した場合、垂直視差が生じてしまい、ユーザーが被写体Sの奥行きを両眼視差によって正しく認識するのが難しくなる。   However, when the control for tilting the two viewpoint cameras is performed as described above, a vertical parallax occurs in the subject in the captured image, and it may be difficult for the user to recognize the subject three-dimensionally. This will be described below. As described above, in the left photographed image PL and the right photographed image PR, the corresponding points corresponding to the same position in the photographing space are shown at positions shifted in the left-right direction. Therefore, when each photographed image is viewed from an inclined viewpoint, the positions of the two corresponding points are shifted in the height direction. FIG. 7 is a schematic diagram for explaining the displacement in the height direction, and is a left-eye display image DL and a right-eye display image drawn based on the left photographed image PL and the right photographed image PR in which the subject S is captured. DR is shown. The upper part shows a display image before tilting the viewpoint camera (state in which the viewpoint cameras are arranged in a horizontal direction), and the lower part shows a display image in a state where the viewpoint camera is tilted. As shown in the upper part, between the left-eye display image DL and the right-eye display image DR, the position of the subject S in the height direction matches, but the position in the left-right direction is shifted. The user can three-dimensionally recognize the subject S by the shift in the left-right direction. On the other hand, when the virtual screen VS is viewed from the rotated viewpoint camera, the height direction of the subject S is shifted between the left-eye display image DL and the right-eye display image DR as shown in the lower part of FIG. It can be seen that a shift occurs in the position of. When such a display image is displayed, vertical parallax occurs, and it is difficult for the user to correctly recognize the depth of the subject S based on binocular parallax.

そこで本実施形態に係る情報処理装置10は、撮影画像内においてユーザーが注目している位置に写っている被写体を立体映像としてユーザーが正しく認識できるように、表示画像を描画する。以下ではユーザーが注目する表示画像内の位置を注視点といい、撮影画像内における注視点に対応する位置を注目位置という。また、撮影画像内のおいて注目位置に写っている被写体を注目被写体という。以下に説明するような描画処理を実行することで、注目被写体以外の被写体(特に撮影位置からの距離が注目被写体と大きく異なる被写体)については上述したような垂直視差が生じるおそれがあるものの、注目被写体については正しく奥行きを認識することができるようになる。これにより、立体映像を閲覧中にユーザーが感じる違和感を軽減することができる。以下、このような描画処理の具体例について説明する。   Thus, the information processing apparatus 10 according to the present embodiment draws a display image so that the user can correctly recognize a subject appearing at a position of interest in the captured image as a stereoscopic video. Hereinafter, a position in the display image to which the user pays attention is referred to as a point of interest, and a position corresponding to the point of interest in the captured image is referred to as a point of interest. In addition, a subject appearing at a target position in a captured image is referred to as a target subject. By executing the drawing processing described below, the vertical parallax as described above may occur for subjects other than the subject of interest (especially subjects whose distance from the shooting position is significantly different from the subject of interest). The depth of the subject can be correctly recognized. This can reduce the discomfort felt by the user while viewing the stereoscopic video. Hereinafter, a specific example of such a drawing process will be described.

上述した描画処理を実現するために、注視点特定部54は、表示画像描画部52が描画した表示画像が映像表示装置40に表示される際に、ユーザーの注視点を特定する。具体的に、例えば注視点特定部54は、表示中の表示画像内においてユーザーが実際に視線を向けている位置を注視点として特定する。この場合、映像表示装置40内の、ユーザーの左右の目を撮像可能な位置に、カメラが取り付けられているものとする。注視点特定部54は、このカメラによって撮影されたユーザーの目の画像を解析して、ユーザーの左右それぞれの目の視線方向を特定する。そして、特定された視線方向が向いている表示画像内の位置を注視点として特定する。   In order to realize the above-described drawing process, the gazing point specifying unit 54 specifies the gazing point of the user when the display image drawn by the display image drawing unit 52 is displayed on the video display device 40. Specifically, for example, the gazing point specifying unit 54 specifies, as the gazing point, the position where the user is actually looking at the line of sight in the displayed image being displayed. In this case, it is assumed that the camera is mounted at a position in the video display device 40 where the left and right eyes of the user can be imaged. The gazing point identification unit 54 analyzes the image of the user's eyes captured by the camera, and identifies the line of sight of each of the left and right eyes of the user. Then, the position in the display image to which the specified line of sight is directed is specified as the point of gaze.

あるいは注視点特定部54は、ユーザーが表示画像の中心を注視していると仮定して、表示画像の中心位置を注視点として特定してもよい。この場合、表示画像内における注視点の位置は固定されて変化しないことになるが、視点カメラの向きや位置が変化した場合に、これに伴って撮影画像内の注目位置が変化することになる。   Alternatively, the gazing point specifying unit 54 may specify the center position of the display image as the gazing point, assuming that the user is gazing at the center of the display image. In this case, the position of the gazing point in the display image is fixed and does not change, but when the direction or the position of the viewpoint camera changes, the attention position in the captured image changes accordingly. .

また、注視点特定部54は、ユーザーの操作デバイス20に対する操作入力の内容に応じて注視点を特定してもよい。この場合、例えば注視点特定部54は、注視点を表すマーカーを表示画像と重ねて映像表示装置40に表示させ、ユーザーの方向を指示する操作入力に応じてこのマーカーを移動させる。そして、マーカーと重なる表示画像内の位置を、ユーザーの注視点として特定する。   Further, the gazing point specifying unit 54 may specify the gazing point according to the content of the operation input to the operation device 20 by the user. In this case, for example, the gazing point identifying unit 54 displays a marker indicating the gazing point on the video display device 40 so as to be superimposed on the display image, and moves the marker in accordance with an operation input indicating a user's direction. Then, the position in the display image overlapping the marker is specified as the user's point of gaze.

注視点特定部54が注視点を特定すると、表示画像描画部52は、特定された注視点の位置において、二つの撮影画像内の互いに対応する対応点の高さ方向のずれを低減させるように、二つの表示画像を描画する。これにより、少なくとも注視点の位置においては垂直視差が低減され、その位置に写っている注目被写体をユーザーが立体的に認識しやすくなる。以下、このような垂直視差を低減する描画方法の具体例について、説明する。   When the gazing point identifying unit 54 identifies the gazing point, the display image drawing unit 52 reduces the height-direction deviation of the corresponding points in the two captured images at the identified gazing point position. Draw two display images. Accordingly, the vertical parallax is reduced at least at the position of the gazing point, and it becomes easier for the user to three-dimensionally recognize the subject of interest at that position. Hereinafter, a specific example of a drawing method for reducing such vertical parallax will be described.

まず表示画像描画部52は、注視点に対応する撮影画像内の注目位置を特定する。具体的に、表示画像内の注視点を仮想スクリーンVS上の位置座標に変換することで、仮想スクリーンVSに貼り付けられた左撮影画像PL、又は右撮影画像PR内における注目位置を特定する。この注目位置に写っている被写体が注目被写体となる。   First, the display image drawing unit 52 specifies a position of interest in the captured image corresponding to the point of gaze. Specifically, the point of interest in the left photographed image PL or the right photographed image PR pasted on the virtual screen VS is specified by converting the point of gaze in the display image into position coordinates on the virtual screen VS. The subject shown in the noted position is the noted subject.

次に表示画像描画部52は、撮影空間内における撮影位置から注目被写体までの撮影方向に沿った距離dnを特定する。例えば表示画像描画部52は、二つの撮影画像内における注目位置の左右方向のずれ量(視差量)を計測することによって、この視差量を注目被写体までの距離dnに換算する。あるいは表示画像描画部52は、撮影画像とともに予め用意された距離画像(デプスマップ)を用いて注目被写体までの距離dnを特定してもよい。この場合、距離画像は、撮影画像の撮影を行う際に併せて距離センサーなどを用いて生成される。この距離画像は、撮影画像と同じ撮影範囲を含んだ画像であって、画像内の各画素の画素値が当該位置に存在する被写体までの距離を示す数値によって構成された画像である。このような距離画像を予め用意しておけば、表示画像描画部52は、この距離画像を参照することで容易に距離dnを特定できる。   Next, the display image drawing unit 52 specifies the distance dn along the shooting direction from the shooting position in the shooting space to the subject of interest. For example, the display image drawing unit 52 converts the amount of parallax into the distance dn to the subject of interest by measuring the amount of shift (parallax) in the left-right direction of the target position in the two captured images. Alternatively, the display image drawing unit 52 may specify the distance dn to the subject of interest using a distance image (depth map) prepared in advance together with the captured image. In this case, the distance image is generated using a distance sensor or the like at the time of capturing the captured image. This distance image is an image including the same shooting range as the shot image, and is an image in which the pixel value of each pixel in the image is a numerical value indicating the distance to the subject located at the position. If such a distance image is prepared in advance, the display image drawing unit 52 can easily specify the distance dn by referring to the distance image.

なお、表示画像描画部52は、距離dnを特定する際に、注視点に対応する注目位置の一点だけを用いてその一点に対応する注目被写体までの距離を特定するのではなく、撮影画像内における注目位置を含む所定の範囲内に写っている被写体までの距離を特定することによって、距離dnを決定してもよい。この場合の所定の範囲は、例えば注目位置を中心とした所定の大きさの矩形領域であってよい。この場合、表示画像描画部52は、撮影画像の所定の範囲内に含まれる複数の画素のそれぞれについて、当該画素に写っている被写体までの距離を特定する。そして、特定された画素ごとの距離の代表値を、求めるべき注目被写体までの距離dnとして算出する。この場合の代表値は、例えば平均値であってもよいし、最小値であってもよい。各画素に写っている被写体までの距離のうちの最小値を距離dnとして採用することによって、ユーザーが注目している範囲のうち最も手前側にある被写体を注目被写体とすることができる。このような制御によれば、表示画像描画部52が特定する距離dnの値が頻繁に変化しないようにすることができる。   In addition, when specifying the distance dn, the display image drawing unit 52 does not use only one point of interest corresponding to the gazing point to specify the distance to the object of interest corresponding to the one point. The distance dn may be determined by specifying the distance to the subject within a predetermined range including the target position in. The predetermined range in this case may be, for example, a rectangular area of a predetermined size centered on the target position. In this case, the display image drawing unit 52 specifies, for each of the plurality of pixels included in a predetermined range of the captured image, the distance to the subject shown in the pixel. Then, the representative value of the distance for each specified pixel is calculated as the distance dn to the target subject to be obtained. The representative value in this case may be, for example, an average value or a minimum value. By adopting the minimum value of the distances to the subject shown in each pixel as the distance dn, the subject located closest to the user in the range of interest of the user can be set as the subject of interest. According to such control, it is possible to prevent the value of the distance dn specified by the display image drawing unit 52 from frequently changing.

続いて表示画像描画部52は、特定された距離dnの値に応じて決まる仮想空間内の位置に仮想スクリーンVSを配置する。具体的には、距離dnと同じ距離だけ基準視点位置Rvから離れた位置に仮想スクリーンVSを配置する。このようにして決定された位置に仮想スクリーンVSを配置し、その表面に各撮影画像を貼り付けることによって、注目被写体の二つの撮影画像間の視差量が距離dcに一致し、左撮影画像PL内の注目被写体と右撮影画像PR内の注目被写体とが仮想スクリーンVS上の同じ位置に貼り付けられることになる。これにより、二つの視点カメラを傾けた状態で各視点カメラから仮想スクリーンVS上の撮影画像を見た場合に、注目被写体の高さ方向の位置が二つの表示画像間で互いに同じになる。そのため、垂直視差を生じさせずにユーザーは注目被写体を立体的に認識することができる。   Subsequently, the display image drawing unit 52 arranges the virtual screen VS at a position in the virtual space determined according to the specified value of the distance dn. Specifically, the virtual screen VS is arranged at a position separated from the reference viewpoint position Rv by the same distance as the distance dn. By arranging the virtual screen VS at the position determined in this way and pasting each photographed image on its surface, the amount of parallax between the two photographed images of the subject of interest matches the distance dc, and the left photographed image PL And the target object in the right photographed image PR are pasted at the same position on the virtual screen VS. Accordingly, when the captured images on the virtual screen VS are viewed from each viewpoint camera in a state where the two viewpoint cameras are tilted, the position in the height direction of the subject of interest becomes the same between the two display images. Therefore, the user can three-dimensionally recognize the subject of interest without causing vertical parallax.

具体例として、図3に示す撮影空間を撮影した場合において、ユーザーが被写体Sの写っている位置を注目したとする。この場合、基準撮影位置Rcから被写体Sまでの距離dxと基準視点位置Rvから仮想スクリーンVSまでの距離dsが一致するように仮想スクリーンVSを配置する。これにより、撮影カメラと同じ位置関係で仮想空間内に配置された二つの視点カメラのそれぞれから仮想スクリーンVSに貼り付けられた撮影画像を見た場合に、被写体Sが仮想スクリーンVS上の同じ位置に見えることになる。そのため、視点カメラを傾けても、二つの表示画像内の被写体Sに垂直視差が生じず、ユーザーは被写体Sの奥行きを正しく認識できる。   As a specific example, it is assumed that when photographing the photographing space shown in FIG. In this case, the virtual screen VS is arranged such that the distance dx from the reference shooting position Rc to the subject S matches the distance ds from the reference viewpoint position Rv to the virtual screen VS. Thereby, when the photographed image pasted on the virtual screen VS is viewed from each of the two viewpoint cameras arranged in the virtual space in the same positional relation as the photographing camera, the subject S is positioned at the same position on the virtual screen VS. Will look like Therefore, even if the viewpoint camera is tilted, no vertical parallax occurs between the subjects S in the two display images, and the user can correctly recognize the depth of the subjects S.

なお、ここでは二つの撮影位置間の距離dcと二つの視点カメラ間の距離dvとが一致すると仮定したが、距離dcと距離dvとが相違する場合であっても、基準視点位置Rcから仮想スクリーンVSまでの距離dsは、距離dvに関係なく基準撮影位置Rcから注目被写体までの距離dnに応じて決定することができる。すなわち、仮想スクリーンVSを配置する距離dsを基準撮影位置Rcから注目被写体までの距離dnに一致させることで、仮想スクリーンVS上の同じ位置に注目被写体が貼り付けられるので、左右二つの視点カメラから見た際に注目被写体に垂直視差が生じさせないように制御することができる。   Here, it is assumed that the distance dc between the two photographing positions and the distance dv between the two viewpoint cameras match, but even if the distance dc and the distance dv are different, the distance dc from the reference viewpoint position Rc is assumed to be virtual. The distance ds to the screen VS can be determined according to the distance dn from the reference shooting position Rc to the subject of interest regardless of the distance dv. That is, by matching the distance ds at which the virtual screen VS is arranged with the distance dn from the reference shooting position Rc to the target object, the target object is pasted at the same position on the virtual screen VS. Control can be performed such that vertical parallax does not occur in the target object when viewed.

また、以上の説明ではある時点での注視点を検出した後、直ちにその注視点に対応する注目被写体までの距離dnに応じて決まる位置に仮想スクリーンVSを配置することとした。しかしながら、このような制御によると、注視点の変化に伴って仮想スクリーンVSの位置が大きく前後に移動することになる。そこで、単位時間ごとに注視点に応じて決定される距離dnの数値列に対して、ローパスフィルタ処理を施して得られる値に基づいて、仮想スクリーンVSの配置位置を決定してもよい。これにより、仮想スクリーンVSの位置が急激に変動しないようにすることができる。   In the above description, after detecting the point of interest at a certain point in time, the virtual screen VS is immediately arranged at a position determined according to the distance dn to the target subject corresponding to the point of interest. However, according to such control, the position of the virtual screen VS greatly moves back and forth with a change in the point of regard. Therefore, the arrangement position of the virtual screen VS may be determined based on a value obtained by performing a low-pass filter process on a numerical sequence of the distance dn determined according to the point of gaze for each unit time. As a result, the position of the virtual screen VS can be prevented from suddenly changing.

以下、本実施形態に係る情報処理装置10が表示画像を描画する描画処理の流れの一例について、図8のフロー図を用いて説明する。この図に示す処理は、表示画像が映像表示装置40に表示されている間、所定時間ごとに繰り返し実行される。   Hereinafter, an example of a flow of a drawing process in which the information processing apparatus 10 according to the present embodiment draws a display image will be described with reference to a flowchart of FIG. The process shown in this figure is repeatedly executed at predetermined time intervals while the display image is displayed on the video display device 40.

まず視点制御部53が、当該処理の実行時点における映像表示装置40の姿勢(傾き、向き、及び位置)に関する情報を取得し(STEP1)、取得した情報に応じて仮想空間内における二つの視点カメラの配置位置を更新する(STEP2)。   First, the viewpoint control unit 53 acquires information on the posture (inclination, direction, and position) of the video display device 40 at the time of execution of the processing (STEP 1), and two viewpoint cameras in the virtual space according to the acquired information. Is updated (STEP 2).

次に注視点特定部54が、当該処理の実行時点におけるユーザーの注視点を特定する(STEP3)。そして、表示画像描画部52は、特定された注視点に対応する撮影画像内の注目位置に写っている被写体までの距離dnを用いて、仮想空間内における仮想スクリーンVSの配置位置を決定する(STEP4)。   Next, the gazing point specifying unit 54 specifies the gazing point of the user at the time of execution of the process (STEP 3). Then, the display image drawing unit 52 determines the arrangement position of the virtual screen VS in the virtual space, using the distance dn to the subject at the position of interest in the captured image corresponding to the specified point of gaze ( (STEP 4).

その後、表示画像描画部52は、STEP2で決定された位置に配置される二つの視点カメラのそれぞれから、STEP4で決定される位置に配置される仮想スクリーンVSに貼り付けられた撮影画像を見た様子を示す表示画像を描画する(STEP5)。そして、描画された二つの表示画像を中継装置30に対して出力することにより、映像表示装置40に表示させる(STEP6)。   After that, the display image drawing unit 52 sees the captured image pasted on the virtual screen VS arranged at the position determined in STEP 4 from each of the two viewpoint cameras arranged in the position determined in STEP 2 A display image showing the situation is drawn (STEP 5). Then, the rendered two display images are output to the relay device 30 to be displayed on the video display device 40 (STEP 6).

このような処理を所定時間ごとに繰り返し実行することによって、情報処理装置10は、ユーザーの注視点や頭の動きにリアルタイムで連動して、ユーザーがどのような姿勢でどの位置を見ている場合であっても、注目する被写体を立体的に認識できるような態様で立体映像を表示させることができる。   By repeatedly executing such processing at predetermined time intervals, the information processing apparatus 10 can link the user's gaze point and head movement in real time, However, the stereoscopic video can be displayed in such a manner that the subject of interest can be recognized three-dimensionally.

以上の説明では、撮影画像は一定の撮影範囲内の景色を含んだ画像であることとしたが、例えば全方位カメラなどによってより広い範囲を撮影して得られるパノラマ画像を撮影画像として用いてもよい。具体例として、全天周の景色を含んだパノラマ画像を撮影画像として使用する場合について、以下に説明する。なお、ここでは全天周の景色を含むパノラマ画像を例として説明するが、その一部範囲を撮影して得られる撮影画像を用いる場合にも、同様の処理を適用可能である。   In the above description, the photographed image is an image including a scene within a certain photographing range. However, for example, a panoramic image obtained by photographing a wider range with an omnidirectional camera or the like may be used as the photographed image. Good. As a specific example, a case where a panoramic image including the entire sky view is used as a captured image will be described below. Here, a panoramic image including an entire sky view will be described as an example, but the same processing can be applied to a case where a captured image obtained by capturing a partial range is used.

この例においても、水平方向に沿って並んだ二つの撮影位置のそれぞれから全天周の景色を撮影することによって、二つの撮影画像が生成される。例えば、二つの撮影カメラを並べて配置し、両者の中間点を回転中心として360度回転させながら撮影を行うことによってこのような撮影画像が生成される。これらの撮影画像は、正距円筒図法などのデータフォーマットで記録されてよい。   Also in this example, two shot images are generated by shooting the entire sky view from each of the two shooting positions arranged in the horizontal direction. For example, such a photographed image is generated by arranging two photographing cameras side by side and performing photographing while rotating 360 degrees around the midpoint between the two photographing cameras. These captured images may be recorded in a data format such as equirectangular projection.

情報処理装置10の表示画像描画部52は、このような撮影画像に基づいて二つの表示画像を描画する。具体的にこの例では、球の内面が仮想スクリーンVSになる。表示画像描画部52は、球状の仮想スクリーンVSを仮想空間内に配置するとともに、その球の中心に左右に並ぶ二つの視点カメラを配置する。表示画像描画部52は、左撮影画像PLに基づいて生成される、撮影位置から見た景色を表すテクスチャーを球の内面に貼り付けて、その様子を左視点カメラVLから見た様子を左目用表示画像DLとして描画する。同様に、右撮影画像PRに基づいて生成される景色を表すテクスチャーを球の内面に貼り付けて、その様子を右視点カメラVRから見た様子を右目用表示画像DRとして描画する。これら二つの表示画像を映像表示装置40に表示させることによって、前述した平面的な仮想スクリーンVSの例と同様に、ユーザーは撮影画像に写っている景色を立体映像として閲覧できる。   The display image drawing unit 52 of the information processing device 10 draws two display images based on such a captured image. Specifically, in this example, the inner surface of the sphere becomes the virtual screen VS. The display image drawing unit 52 arranges the spherical virtual screen VS in the virtual space, and arranges two viewpoint cameras arranged side by side at the center of the sphere. The display image drawing unit 52 pastes a texture, which is generated based on the left photographed image PL, representing the view seen from the photographing position on the inner surface of the sphere, and looks at the state viewed from the left viewpoint camera VL for the left eye. Draw as a display image DL. Similarly, a texture representing a scene generated based on the right photographed image PR is pasted on the inner surface of the sphere, and a state viewed from the right viewpoint camera VR is drawn as a right-eye display image DR. By displaying these two display images on the video display device 40, the user can view the scenery in the captured image as a stereoscopic image, as in the example of the flat virtual screen VS described above.

さらに、視点制御部53は、映像表示装置40の傾き、方向、及び位置の変化に応じて視点カメラの位置を制御する。特に映像表示装置40の方向の変化に応じて視点制御部53が視線カメラの視線方向を変化させることによって、ユーザーは全天周の任意の方向の景色を閲覧することができる。   Further, the viewpoint control unit 53 controls the position of the viewpoint camera according to the change in the inclination, direction, and position of the video display device 40. In particular, the viewpoint control unit 53 changes the line-of-sight direction of the line-of-sight camera in accordance with the change in the direction of the video display device 40, so that the user can view the landscape in any direction around the entire sky.

また、表示画像描画部52は、注視点特定部54が特定するユーザーの注視点の変化に応じて、注視点に対応する注目位置に写っている注目被写体が立体的に認識できるように、二つの表示画像を描画する。具体的には、前述した平板状の仮想スクリーンVSの例と同様に、基準撮影位置Rcから注目被写体までの距離dnと、基準視点位置Rvから仮想スクリーンVSまでの距離dsとが一致するように、仮想スクリーンVSを配置する。ここでは仮想スクリーンVSが球面であって、基準視点位置Rvは球の中心に位置しているので、基準視点位置Rvから仮想スクリーンVSまでの距離dsはこの球の半径となる。そのため表示画像描画部52は、球の大きさを距離dnに応じて変化させることになる。図9は、この例における二つの視点カメラと球状の仮想スクリーンVSの位置関係を示す図であって、上方から見た様子を示している。   Further, the display image drawing unit 52 performs two-dimensional recognition so that the target subject in the target position corresponding to the target point can be three-dimensionally recognized in accordance with the change in the user's target point specified by the target point specifying unit 54. Draw two display images. Specifically, similarly to the above-described example of the flat virtual screen VS, the distance dn from the reference shooting position Rc to the target object and the distance ds from the reference viewpoint position Rv to the virtual screen VS match. , A virtual screen VS is arranged. Here, since the virtual screen VS is a spherical surface and the reference viewpoint position Rv is located at the center of the sphere, the distance ds from the reference viewpoint position Rv to the virtual screen VS is the radius of the sphere. Therefore, the display image drawing unit 52 changes the size of the sphere according to the distance dn. FIG. 9 is a diagram showing a positional relationship between the two viewpoint cameras and the spherical virtual screen VS in this example, and shows a state viewed from above.

なお、表示画像描画部52は、仮想スクリーンVSの大きさだけでなく、仮想スクリーンVSに対する二つの撮影画像に基づくテクスチャーの貼り付け位置についても、注視点に応じて変化させる。具体的には、注目被写体の仮想スクリーンVS上の貼り付け位置が二つのテクスチャー間で一致するように、二つのテクスチャーの貼り付け位置をシフトさせる。これにより、距離dnに対応する視差量で注目被写体を二つの表示画像内に配置することができ、かつ、視点カメラを傾けても注目被写体に垂直視差が生じないようにすることができる。   Note that the display image drawing unit 52 changes not only the size of the virtual screen VS but also the position where the texture is attached to the virtual screen VS based on the two captured images according to the point of gaze. More specifically, the positions at which the two textures are pasted are shifted so that the pasting position of the subject of interest on the virtual screen VS matches between the two textures. Thereby, the subject of interest can be arranged in the two display images with the amount of parallax corresponding to the distance dn, and vertical parallax can be prevented from occurring in the subject of interest even when the viewpoint camera is tilted.

以上説明した本実施形態に係る情報処理装置10によれば、撮影画像を傾けた状態を表示画像として表示する場合に、ユーザーが注目している位置の垂直視差を低減し、その位置に写っている注目被写体をユーザーが立体的に認識できるような立体映像を表示することができる。そのため、ユーザーが立体映像を見る際の違和感を減らすことができる。   According to the information processing apparatus 10 according to the present embodiment described above, when a state where a captured image is tilted is displayed as a display image, the vertical parallax of the position of interest of the user is reduced, and the image is captured at that position. It is possible to display a stereoscopic image that allows the user to stereoscopically recognize an object of interest. Therefore, it is possible to reduce a sense of discomfort when the user views the stereoscopic video.

なお、本発明の実施の形態は以上説明したものに限られない。例えば以上の説明では、撮影空間は実空間であって、撮影画像は現実の景色を撮影して得られるものとしたが、これに限らず撮影画像は、仮想空間内に配置された撮影位置からその仮想空間を見た様子を示す画像であってもよい。   The embodiments of the present invention are not limited to those described above. For example, in the above description, the photographing space is a real space, and the photographed image is obtained by photographing a real scene. However, the photographed image is not limited thereto, and the photographed image may be obtained from a photographing position arranged in the virtual space. It may be an image showing the appearance of the virtual space.

また、以上の説明では映像表示装置40はユーザーの頭部に装着して使用される映像表示装置であることとしたが、これに限らず、立体映像を表示可能な表示装置であれば、部屋に設置して使用するタイプのものであってもよい。この場合、注視点特定部54は、ユーザーの前方に配置されたカメラを用いてユーザーの目を撮影することによって、ユーザーの注視点を特定してもよい。また、視点制御部53は、ユーザーの頭部の動きに応じて視点カメラの傾きや向きを変化させる代わりに、ユーザーの操作デバイス20に対する操作入力に応じて視点カメラを移動させてもよい。   In the above description, the video display device 40 is a video display device used by being worn on the head of the user. However, the present invention is not limited to this. It may be of a type that is installed and used in In this case, the gazing point specifying unit 54 may specify the gazing point of the user by photographing the user's eyes using a camera arranged in front of the user. Further, the viewpoint control unit 53 may move the viewpoint camera according to an operation input to the operation device 20 by the user, instead of changing the inclination and the direction of the viewpoint camera according to the movement of the user's head.

また、以上の説明では撮影画像は静止画像であることとしたが、撮影画像は時間とともに変化する動画像であってもよい。さらにこの場合、撮影空間内において撮影位置に比較的近い場所に位置しており、撮影範囲内を移動する被写体(すなわち、動物や乗り物など、他の背景に対して相対的に移動している被写体)にユーザーが注目すると想定して、この移動する被写体を注目被写体として以上説明した処理を実行してもよい。   In the above description, the captured image is a still image, but the captured image may be a moving image that changes with time. Further, in this case, the subject is located relatively close to the shooting position in the shooting space and moves in the shooting range (that is, a subject such as an animal or a vehicle that moves relatively to another background). ) May be executed by assuming that the user pays attention to the moving subject as the subject of interest.

1 映像表示システム、10 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、20 操作デバイス、25 カメラ、30 中継装置、40 映像表示装置、41 映像表示素子、42 光学素子、43 発光素子、44 モーションセンサー、45 通信インタフェース、51 撮影画像取得部、52 表示画像描画部、53 視点制御部、54 注視点特定部。   REFERENCE SIGNS LIST 1 video display system, 10 information processing device, 11 control unit, 12 storage unit, 13 interface unit, 20 operation device, 25 camera, 30 relay device, 40 video display device, 41 video display element, 42 optical element, 43 light emitting element , 44 motion sensor, 45 communication interface, 51 captured image acquisition unit, 52 display image drawing unit, 53 viewpoint control unit, 54 gaze point identification unit.

Claims (8)

立体映像を表示する映像表示装置と接続される情報処理装置であって、
撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得部と、
前記取得した二つの撮影画像が表す景色を仮想空間内に配置された仮想スクリーンに貼り付け、当該仮想スクリーンを前記仮想空間内に並んで配置された二つの視点カメラから見た様子を示す二つの表示画像を描画して、立体映像として前記映像表示装置に表示させる表示画像描画部と、
前記表示画像内におけるユーザーの注視点を特定する注視点特定部と、
を含み、
前記表示画像描画部は、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点に対応する位置に写っている注目被写体までの前記二つの撮影位置の中点からの撮影方向に沿った距離と、前記二つの視点カメラの中点から当該二つの視点カメラの向きに沿った前記仮想スクリーンまでの距離とが一致するように前記仮想スクリーンを配置することで、前記二つの表示画像内で前記注目被写体の高さ方向のずれを低減させるように、前記二つの表示画像を描画する
ことを特徴とする情報処理装置。
An information processing device connected to a video display device that displays a stereoscopic video,
An acquisition unit that acquires two captured images representing the scenery viewed from the two imaging positions in the imaging space,
The two scenes shown by the two captured images acquired are pasted on a virtual screen arranged in a virtual space, and the virtual screen is viewed from two viewpoint cameras arranged side by side in the virtual space. A display image drawing unit that draws a display image and causes the video display device to display the display image as a stereoscopic image;
A gazing point specifying unit that specifies a gazing point of the user in the display image,
Including
The display image drawing unit, when drawing the two display images representing a state in which the scenery represented by the two captured images is tilted, to the target subject in the position corresponding to the specified gazing point as the distance along the imaging direction from the midpoint of the two shooting position, the distance from the midpoint of the previous SL two view camera to the virtual screen along the direction of the two-view camera matches An information processing apparatus, comprising: arranging the virtual screen to draw the two display images so as to reduce a shift in the height direction of the subject of interest in the two display images.
請求項1に記載の情報処理装置において、
前記映像表示装置は、ユーザーが頭部に装着して使用する表示装置であって、
前記情報処理装置は、前記映像表示装置の傾きに応じて、前記二つの視点カメラを回転させる視点制御部をさらに含み、
前記表示画像描画部は、前記二つの撮影画像が表す景色が、前記二つの視点カメラの回転に応じて傾けられた状態を表す前記二つの表示画像を描画する
ことを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
The video display device is a display device used by the user wearing on the head,
The information processing apparatus further includes a viewpoint control unit that rotates the two viewpoint cameras according to the inclination of the video display device,
The information processing apparatus according to claim 1, wherein the display image drawing unit draws the two display images representing a state in which the scenery represented by the two captured images is tilted according to the rotation of the two viewpoint cameras .
請求項1又は2に記載の情報処理装置において、
前記表示画像描画部は、前記注目被写体までの前記撮影位置からの距離を、当該注目被写体の前記二つの撮影画像内における視差量に基づいて算出する
ことを特徴とする情報処理装置。
The information processing apparatus according to claim 1, wherein
The information processing apparatus, wherein the display image drawing unit calculates a distance from the shooting position to the subject of interest based on a parallax amount in the two captured images of the subject of interest.
請求項1から3に記載の情報処理装置において、
前記表示画像描画部は、前記撮影画像において、前記特定された注視点に対応する所定の範囲内に写っている被写体のうち、前記撮影位置からの距離が最も近い被写体を、前記注目被写体として特定する
ことを特徴とする情報処理装置。
The information processing apparatus according to claim 1, wherein
The display image drawing unit specifies, in the photographed image, a subject closest to the distance from the photographing position as a subject of interest, among subjects appearing within a predetermined range corresponding to the specified point of regard. An information processing apparatus characterized in that:
請求項1から4のいずれか一項に記載の情報処理装置において、
前記注視点特定部は、前記ユーザーの視線方向を検出することにより、前記注視点を特定する
ことを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 1 to 4,
The information processing apparatus according to claim 1, wherein the gazing point identifying unit identifies the gazing point by detecting a gaze direction of the user.
立体映像を表示する映像表示装置と、当該映像表示装置に接続される情報処理装置と、を含む映像表示システムであって、
前記情報処理装置は、
撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得部と、
前記取得した二つの撮影画像が表す景色を仮想空間内に配置された仮想スクリーンに貼り付け、当該仮想スクリーンを前記仮想空間内に並んで配置された二つの視点カメラから見た様子を示す二つの表示画像を描画する表示画像描画部と、
前記表示画像内におけるユーザーの注視点を特定する注視点特定部と、
を含み、
前記映像表示装置は、前記表示画像描画部が描画した二つの表示画像を立体映像として表示し、
前記表示画像描画部は、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点に対応する位置に写っている注目被写体までの前記二つの撮影位置の中点からの撮影方向に沿った距離と、前記二つの視点カメラの中点から当該二つの視点カメラの向きに沿った前記仮想スクリーンまでの距離とが一致するように前記仮想スクリーンを配置することで、前記二つの表示画像内で前記注目被写体の高さ方向のずれを低減させるように、前記二つの表示画像を描画する
ことを特徴とする映像表示システム。
A video display system that includes a video display device that displays a stereoscopic video and an information processing device connected to the video display device,
The information processing device,
An acquisition unit that acquires two captured images representing the scenery viewed from the two imaging positions in the imaging space,
The two scenes shown by the two captured images acquired are pasted on a virtual screen arranged in a virtual space, and the virtual screen is viewed from two viewpoint cameras arranged side by side in the virtual space. A display image drawing unit for drawing a display image,
A gazing point specifying unit that specifies a gazing point of the user in the display image,
Including
The image display device displays two display images drawn by the display image drawing unit as a stereoscopic image,
The display image drawing unit, when drawing the two display images representing a state in which the scenery represented by the two captured images is tilted, to the target subject in the position corresponding to the specified gazing point as the distance along the imaging direction from the midpoint of the two shooting position, the distance from the midpoint of the previous SL two view camera to the virtual screen along the direction of the two-view camera matches A video display system, comprising: arranging the virtual screen to draw the two display images so as to reduce a shift in the height direction of the subject of interest in the two display images.
立体映像を表示する映像表示装置の制御方法であって、
撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得ステップと、
前記取得した二つの撮影画像が表す景色を仮想空間内に配置された仮想スクリーンに貼り付け、当該仮想スクリーンを前記仮想空間内に並んで配置された二つの視点カメラから見た様子を示す二つの表示画像を描画して、立体映像として前記映像表示装置に表示させる表示画像描画ステップと、
前記表示画像内におけるユーザーの注視点を特定する注視点特定ステップと、
を含み、
前記表示画像描画ステップでは、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点に対応する位置に写っている注目被写体までの前記二つの撮影位置の中点からの撮影方向に沿った距離と、前記二つの視点カメラの中点から当該二つの視点カメラの向きに沿った前記仮想スクリーンまでの距離とが一致するように前記仮想スクリーンを配置することで、前記二つの表示画像内で前記注目被写体の高さ方向のずれを低減させるように、前記二つの表示画像を描画する
ことを特徴とする映像表示装置の制御方法。
A control method of a video display device that displays a stereoscopic video,
An acquisition step of acquiring two photographed images representing the scenery viewed from two photographing positions in the photographing space,
Two views showing the appearance of the scenes represented by the two captured images acquired are pasted on a virtual screen arranged in a virtual space, and the virtual screen is viewed from two viewpoint cameras arranged side by side in the virtual space. A display image drawing step of drawing a display image and displaying the display image as a stereoscopic image on the video display device;
A gazing point specifying step of specifying a gazing point of the user in the display image,
Including
In the display image drawing step, when drawing the two display images representing a state in which the scenes represented by the two captured images are tilted, the display image drawing step is performed until the target subject in the position corresponding to the specified gazing point. as the distance along the imaging direction from the midpoint of the two shooting position, the distance from the midpoint of the previous SL two view camera to the virtual screen along the direction of the two-view camera matches A method of controlling a video display device, comprising: arranging the virtual screen to draw the two display images so as to reduce the height difference of the subject of interest in the two display images. .
立体映像を表示する映像表示装置と接続されるコンピュータを、
撮影空間内を二つの撮影位置から見た景色を表す二つの撮影画像を取得する取得手段、
前記取得した二つの撮影画像が表す景色を仮想空間内に配置された仮想スクリーンに貼り付け、当該仮想スクリーンを前記仮想空間内に並んで配置された二つの視点カメラから見た様子を示す二つの表示画像を描画して、立体映像として前記映像表示装置に表示させる表示画像描画手段、及び、
前記表示画像内におけるユーザーの注視点を特定する注視点特定手段、
として機能させるためのプログラムであって、
前記表示画像描画手段は、前記二つの撮影画像が表す景色を傾けた状態を表す前記二つの表示画像を描画する場合に、前記特定された注視点に対応する位置に写っている注目被写体までの前記二つの撮影位置の中点からの撮影方向に沿った距離と、前記二つの視点カメラの中点から当該二つの視点カメラの向きに沿った前記仮想スクリーンまでの距離とが一致するように前記仮想スクリーンを配置することで、前記二つの表示画像内で前記注目被写体の高さ方向のずれを低減させるように、前記二つの表示画像を描画する
ことを特徴とするプログラム。
A computer connected to a video display device that displays stereoscopic video,
Acquisition means for acquiring two captured images representing the scenery viewed from the two imaging positions in the imaging space,
The two scenes shown by the two captured images acquired are pasted on a virtual screen arranged in a virtual space, and the virtual screen is viewed from two viewpoint cameras arranged side by side in the virtual space. A display image drawing unit for drawing a display image and displaying the display image as a stereoscopic image on the video display device; and
Gazing point specifying means for specifying the gazing point of the user in the display image;
A program to function as
The display image drawing means, when drawing the two display images representing a state in which the scenery represented by the two captured images is tilted, to a target subject in a position corresponding to the specified gazing point. as the distance along the imaging direction from the midpoint of the two shooting position, the distance from the midpoint of the previous SL two view camera to the virtual screen along the direction of the two-view camera matches A non-transitory computer-readable storage medium storing a program, wherein, by arranging the virtual screen, the two display images are drawn so as to reduce a shift in the height direction of the subject of interest in the two display images.
JP2015165084A 2015-08-24 2015-08-24 Information processing device Active JP6649010B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015165084A JP6649010B2 (en) 2015-08-24 2015-08-24 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015165084A JP6649010B2 (en) 2015-08-24 2015-08-24 Information processing device

Publications (2)

Publication Number Publication Date
JP2017046065A JP2017046065A (en) 2017-03-02
JP6649010B2 true JP6649010B2 (en) 2020-02-19

Family

ID=58212291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015165084A Active JP6649010B2 (en) 2015-08-24 2015-08-24 Information processing device

Country Status (1)

Country Link
JP (1) JP6649010B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107197153B (en) * 2017-06-19 2024-03-15 上海传英信息技术有限公司 Shooting method and shooting device for photo
JP6975309B2 (en) * 2018-02-21 2021-12-01 株式会社ソニー・インタラクティブエンタテインメント Image processing device and image processing method
JP7006498B2 (en) * 2018-05-15 2022-01-24 株式会社デンソー Head-up display
WO2020246292A1 (en) * 2019-06-07 2020-12-10 ソニー株式会社 Video distribution system, video distribution method, and display terminal

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4624582B2 (en) * 2001-03-21 2011-02-02 株式会社バンダイナムコゲームス Image generating apparatus, program, and information storage medium
JP2011248254A (en) * 2010-05-31 2011-12-08 Sharp Corp Image display system, image display device for achieving the same, tilt detector, and image display method
JP5414946B2 (en) * 2011-06-16 2014-02-12 パナソニック株式会社 Head-mounted display and method for adjusting misalignment thereof
JP2015149634A (en) * 2014-02-07 2015-08-20 ソニー株式会社 Image display device and method

Also Published As

Publication number Publication date
JP2017046065A (en) 2017-03-02

Similar Documents

Publication Publication Date Title
KR102502404B1 (en) Information processing device and method, and program
CN108292489B (en) Information processing apparatus and image generating method
JP6576536B2 (en) Information processing device
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
CN108027700B (en) Information processing apparatus
US10999412B2 (en) Sharing mediated reality content
KR101822471B1 (en) Virtual Reality System using of Mixed reality, and thereof implementation method
JP2010072477A (en) Image display apparatus, image display method, and program
JP6649010B2 (en) Information processing device
EP3190566A1 (en) Spherical virtual reality camera
JP2018056889A (en) Display terminal, display method, and program
WO2017191703A1 (en) Image processing device
JP6467039B2 (en) Information processing device
WO2017163649A1 (en) Image processing device
WO2021079636A1 (en) Display control device, display control method and recording medium
US20240163391A1 (en) Information processing apparatus
KR101668117B1 (en) Apparatus for controlling convergence angle of stereo camera and 3-dimension image processing system with the same
JP2024070443A (en) Information processing device
KR20130070034A (en) Apparatus and method of taking stereoscopic picture using smartphones
JP2023178093A (en) Display unit, control method, and program
JP2014230027A (en) Device, method, and program for controlling image displayed on image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200116

R150 Certificate of patent or registration of utility model

Ref document number: 6649010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150