JP6031016B2 - Video display device and video display program - Google Patents

Video display device and video display program Download PDF

Info

Publication number
JP6031016B2
JP6031016B2 JP2013192290A JP2013192290A JP6031016B2 JP 6031016 B2 JP6031016 B2 JP 6031016B2 JP 2013192290 A JP2013192290 A JP 2013192290A JP 2013192290 A JP2013192290 A JP 2013192290A JP 6031016 B2 JP6031016 B2 JP 6031016B2
Authority
JP
Japan
Prior art keywords
video
active
passive
positional relationship
presenting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013192290A
Other languages
Japanese (ja)
Other versions
JP2015059999A (en
Inventor
康輔 高橋
康輔 高橋
越智 大介
大介 越智
弾 三上
弾 三上
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013192290A priority Critical patent/JP6031016B2/en
Publication of JP2015059999A publication Critical patent/JP2015059999A/en
Application granted granted Critical
Publication of JP6031016B2 publication Critical patent/JP6031016B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Description

本発明は、映像表示装置及び映像表示プログラムに関する。   The present invention relates to a video display device and a video display program.

映像の視聴形態において、従来の予め定められた視点からの映像を視聴する受動型映像視聴に対し、視聴者側が視点を指定し、その視点に応じた映像を視聴する能動型映像視聴に関する研究が盛んに行われている。非特許文献1では視聴者がパノラマ映像の一部を切り出して視聴するという視聴形態を提案している。このような能動型映像視聴は視聴者の趣向に応じた映像が視聴できるという利点がある一方、常に操作をしなければならないため、長時間の映像視聴においては受動型映像視聴が好まれるケースがある。   In the video viewing mode, research on active video viewing in which the viewer side designates a viewpoint and views the video according to the viewpoint is compared to the conventional passive video viewing in which the video is viewed from a predetermined viewpoint. It is actively done. Non-Patent Document 1 proposes a viewing mode in which a viewer cuts out a part of a panoramic video and views it. While such active video viewing has the advantage of being able to view video according to the viewer's preference, there are cases where passive video viewing is preferred for long-time video viewing because it must always be operated. is there.

この能動型映像視聴の利点を活かしつつ、長時間の映像視聴において視聴者の負担を軽減させる方法として、図10に示すような2スクリーン式能動受動型映像視聴が考えられる。図10は、2スクリーン式能動受動型映像視聴を行う際の装置構成を示す図である。これは同一コンテンツを使用して、一方のスクリーンに映像提供者の意図等に基づき視点が自動的に移動するような受動型映像を提示(受動型映像提示スクリーン)し、他方のスクリーンに視聴者が視点操作端末を操作して視点を指定することにより、任意の能動型映像を提示(能動型映像提示スクリーン)するものである。これにより、視聴者は、自分が見たい場面を操作によって選択して視聴することが可能となるとともに、映像提供者が意図する映像も同時に視聴することが可能になる。   As a method for reducing the burden on the viewer during long-time video viewing while taking advantage of this active video viewing, a two-screen active passive video viewing as shown in FIG. 10 can be considered. FIG. 10 is a diagram showing a device configuration when performing two-screen active passive video viewing. This uses the same content and presents a passive video whose viewpoint automatically moves based on the intention of the video provider on one screen (passive video presentation screen), and a viewer on the other screen Displays an arbitrary active image (active image display screen) by operating the viewpoint operation terminal and specifying the viewpoint. Thus, the viewer can select and view the scene he / she wants to watch by operating, and can simultaneously view the video intended by the video provider.

Hideaki Kimata, Daisuke Ochi, Akio Kameda, Hajime Noto, Katsuhiko Fukazawa, Akira Kojima:"Mobile and multi-device interactive panorama video distribution system",IEEE GCCE 2012 2012.10.2-5 Tokyo, JapanHideaki Kimata, Daisuke Ochi, Akio Kameda, Hajime Noto, Katsuhiko Fukazawa, Akira Kojima: "Mobile and multi-device interactive panorama video distribution system", IEEE GCCE 2012 2012.10.2-5 Tokyo, Japan

しかしながら、前述した2スクリーン式能動受動型映像視聴においては、視聴者が視線を移動させて視聴する対象の画像を能動型映像と受動型映像との間で変える際、互いのスクリーンが提示している映像の視点が独立している。このため、視聴者は視聴する対象映像を能動型映像から受動型映像にした際、あるいは受動型映像から能動型映像にした際に2つの映像に映し出されている位置の関係が分かりづらいという問題がある。   However, in the above-described two-screen active passive video viewing, when the viewer changes the target image to be viewed by moving his / her line of sight between the active video and the passive video, each screen presents The viewpoint of the image is independent. For this reason, it is difficult for the viewer to understand the relationship between the positions displayed on the two images when the target video is changed from active video to passive video or from passive video to active video. There is.

本発明は、このような事情に鑑みてなされたもので、同一の映像から生成された能動型映像と受動型映像の2つの映像を視聴する際に、視聴者が視線を移動して2つの映像間で視聴する対象を換えた場合に、2つの映像の視点の位置関係を直感的に把握することができる映像表示装置及び映像表示プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and when viewing two images of an active image and a passive image generated from the same image, the viewer moves the line of sight to An object of the present invention is to provide a video display device and a video display program capable of intuitively grasping the positional relationship between the viewpoints of two videos when the object to be viewed between videos is changed.

本発明は、映像データが記憶された映像データ記憶手段と、視聴者が指定した視点の映像データに基づき映像の提示を行う能動型映像提示手段と、予め定められた視点の映像データに基づき映像の提示を行う受動型映像提示手段と、前記能動型映像提示手段と、前記受動型映像提示手段との相対的な配置位置関係を推定する位置関係推定手段と、前記受動型映像提示手段に配信すべき前記映像の視点と前記相対的な配置位置関係から前記能動型映像提示手段に配信すべき映像の視点を算出し、前記映像データから前記受動型映像提示手段に配信すべき映像を生成するとともに、算出した前記視点に基づいて前記映像データから前記能動型映像提示手段に配信すべき映像を生成して、それぞれ前記受動型映像提示手段及び能動型映像提示手段に提示する配信手段とを備えることを特徴とする。   The present invention relates to a video data storage means for storing video data, an active video presentation means for presenting video based on video data at a viewpoint designated by a viewer, and video based on video data at a predetermined viewpoint. Distributed to the passive video presenting means, the active video presenting means, the positional relationship estimating means for estimating the relative positional relationship between the passive video presenting means, and the passive video presenting means The viewpoint of the video to be delivered to the active video presentation means is calculated from the viewpoint of the video to be delivered and the relative arrangement positional relationship, and the video to be delivered to the passive video presentation means is generated from the video data And generating video to be distributed to the active video presenting means from the video data based on the calculated viewpoint, and respectively generating the passive video presenting means and the active video presenting means. Characterized in that it comprises a Shimesuru distribution means.

本発明は、前記能動型映像提示手段は、前記配置位置関係を求めるために、前記受動型映像提示手段を含む映像を撮影する撮影手段を備え、前記位置関係推定手段は、前記撮影手段によって撮影された前記受動型映像提示手段を含む映像から前記能動型映像提示手段と、前記受動型映像提示手段との相対的な配置位置関係を推定することを特徴とする。   In the present invention, the active video presenting means includes photographing means for photographing an image including the passive video presenting means for obtaining the arrangement positional relationship, and the positional relationship estimating means is photographed by the photographing means. The relative arrangement positional relationship between the active video presentation means and the passive video presentation means is estimated from the video including the passive video presentation means.

本発明は、前記能動型映像提示手段は、ジャイロセンサをさらに備え、前記位置関係推定手段は、前記撮影手段によって前記受動型映像提示手段を含む映像を撮影することができなかった場合に、固定された前記受動型映像提示手段の位置情報と前時刻における前記能動型映像提示手段と前記受動型映像提示手段の相対的な位置関係と前記ジャイロセンサの検出値から前記相対的な配置位置関係を推定することを特徴とする。   In the present invention, the active video presentation unit further includes a gyro sensor, and the positional relationship estimation unit is fixed when the video including the passive video presentation unit cannot be shot by the shooting unit. The relative arrangement positional relationship is determined from the positional information of the passive type video presentation unit, the relative positional relationship between the active type video presentation unit and the passive type video presentation unit at the previous time, and the detection value of the gyro sensor. It is characterized by estimating.

本発明は、映像データが記憶された映像データ記憶手段と、視聴者が指定した視点の映像データに基づき映像の提示を行う能動型映像提示手段と、予め定められた視点の映像データに基づき映像の提示を行う受動型映像提示手段と、前記能動型映像提示手段との相対的な位置関係を推定する能動型映像提示装置位置姿勢推定手段と、前記能動型映像提示装置位置姿勢推定手段と前記能動型映像提示手段との相対的な位置関係と、前記能動型映像提示装置位置姿勢推定手段と前記受動型映像提示手段との相対的な位置関係とを用いて、前記能動型映像提示手段と前記受動型映像提示手段との相対的な配置位置関係を推定する位置関係推定手段と、前記能動型映像提示手段と、前記受動型映像提示手段との相対的な配置位置関係を推定する位置関係推定手段と、前記受動型映像提示手段に配信すべき前記映像の視点と前記相対的な配置位置関係から前記能動型映像提示手段に配信すべき映像の視点を算出し、前記映像データから前記受動型映像提示手段に配信すべき映像を生成するとともに、算出した前記視点に基づいて前記映像データから前記能動型映像提示手段に配信すべき映像を生成して、それぞれ前記受動型映像提示手段及び能動型映像提示手段に提示する配信手段とを備えることを特徴とする。   The present invention relates to a video data storage means for storing video data, an active video presentation means for presenting video based on video data at a viewpoint designated by a viewer, and video based on video data at a predetermined viewpoint. A passive video presenting means for presenting, an active video presenting apparatus position and orientation estimating means for estimating a relative positional relationship between the active video presenting means, the active video presenting apparatus position and orientation estimating means, and the Using the relative positional relationship between the active video presentation means and the relative positional relationship between the active video presentation device position and orientation estimation means and the passive video presentation means, the active video presentation means Position relation estimating means for estimating a relative arrangement positional relationship with the passive video presentation means, Position relation for estimating a relative arrangement positional relation between the active video presentation means and the passive video presentation means The viewpoint of the video to be distributed to the active video presentation means is calculated from the viewpoint of the estimation means and the viewpoint of the video to be delivered to the passive video presentation means and the relative arrangement positional relation, and the passive viewpoint is calculated from the video data. A video to be distributed to the type video presentation unit is generated, and a video to be distributed to the active type video presentation unit is generated from the video data based on the calculated viewpoint. Distribution means for presenting to the type video presentation means.

本発明は、コンピュータを、前記映像表示装置として機能させるための映像表示プログラムである。   The present invention is a video display program for causing a computer to function as the video display device.

本発明によれば、同一の映像から生成された能動型映像と受動型映像の2つの映像を視聴する際に、2つの映像の視点の位置関係を直感的に把握することができるという効果が得られる。   According to the present invention, when viewing two images of an active image and a passive image generated from the same image, it is possible to intuitively grasp the positional relationship between the viewpoints of the two images. can get.

本発明の第1実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 1st Embodiment of this invention. 視点と提示される映像の関係を示す説明図である。It is explanatory drawing which shows the relationship between a viewpoint and the image | video shown. 図1に示す映像表示装置全体の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the whole video display apparatus shown in FIG. 本発明の第2実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 2nd Embodiment of this invention. 図4に示す映像表示装置全体の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the whole video display apparatus shown in FIG. 本発明の第3実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 3rd Embodiment of this invention. 図6に示す映像表示装置全体の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the whole video display apparatus shown in FIG. 本発明の第5実施形態による映像表示装置の構成を示す図である。It is a figure which shows the structure of the video display apparatus by 5th Embodiment of this invention. 本発明の第6実施形態による映像表示装置の構成を示す図である。It is a figure which shows the structure of the video display apparatus by 6th Embodiment of this invention. 2スクリーン式能動受動型映像視聴を行う際の装置構成を示す図である。It is a figure which shows the apparatus structure at the time of performing two-screen type active passive video viewing.

<第1実施形態>
以下、図面を参照して、本発明の第1実施形態による映像表示装置を説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、配信すべき映像データを含むコンテンツを配信するコンテンツ配信部である。符号11は、コンテンツが予め記憶されたコンテンツ保存部である。符号12は、コンテンツ保存部11に記憶されているコンテンツに含まれる映像データを配信する配信部である。符号2は、受動型映像を提示する受動型映像提示部である。符号21は、受動型映像提示部2内に備えられ、映像を提示(表示)するディスプレイ装置で構成する映像提示部である。符号3は、能動型映像を提示する能動型映像提示部である。符号31は、能動型映像提示部3内に備えられ、映像を提示(表示)するディスプレイ装置で構成する映像提示部である。符号32は、受動型映像提示部2の映像提示部21の位置関係が分かるように映像を撮影するカメラである。符号4は、カメラ32によって撮影された映像から受動型映像提示部2と能動型映像提示部3との位置関係を推定する位置関係推定部である。
<First Embodiment>
Hereinafter, an image display apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure, reference numeral 1 denotes a content distribution unit that distributes content including video data to be distributed. Reference numeral 11 denotes a content storage unit in which content is stored in advance. Reference numeral 12 denotes a distribution unit that distributes video data included in the content stored in the content storage unit 11. Reference numeral 2 denotes a passive video presentation unit that presents passive video. Reference numeral 21 denotes a video presentation unit that is provided in the passive video presentation unit 2 and includes a display device that presents (displays) video. Reference numeral 3 denotes an active video presentation unit that presents an active video. Reference numeral 31 denotes a video presentation unit that is provided in the active video presentation unit 3 and is configured by a display device that presents (displays) video. Reference numeral 32 denotes a camera that captures a video so that the positional relationship of the video presentation unit 21 of the passive video presentation unit 2 can be understood. Reference numeral 4 denotes a positional relationship estimation unit that estimates the positional relationship between the passive video presentation unit 2 and the active video presentation unit 3 from video captured by the camera 32.

図2は、視点と提示される映像の関係を示す説明図である。本発明において提示される映像は、図2に示すようにあるシーンに対して視点Oと画像平面Iを仮定し、画像平面Iに投影されたものを指すこととする。能動型映像視聴においてはこの視点Oの位置や姿勢を操作することに相当する。ただし、本発明でいう視点の移動とは視点Oのみの移動ではなく、画像平面Iと視点Oの位置関係を保存しながらの移動を指すこととする。   FIG. 2 is an explanatory diagram showing the relationship between the viewpoint and the presented video. The video presented in the present invention assumes a viewpoint O and an image plane I with respect to a certain scene as shown in FIG. In active video viewing, this corresponds to operating the position and orientation of the viewpoint O. However, the movement of the viewpoint referred to in the present invention is not the movement of only the viewpoint O but the movement while preserving the positional relationship between the image plane I and the viewpoint O.

次に、図1を参照して、図1に示す映像表示装置の構成の詳細を説明する。コンテンツ保存部11は、パノラマ映像またはCG等で製作された3次元データなど、配信する映像の元データを保存する。配信部12は、位置関係推定部4から送信された、能動型映像提示部3と受動型映像提示部2の位置関係の情報を入力し、位置関係に応じた映像を出力する。前提として、受動型映像提示部2に配信する映像の視点は既知であるものとする。配信部12は、まず、受動型映像提示部2と能動型映像提示部3の相対位置関係に応じて、それぞれの視点を決定する。そして、コンテンツ保存部11から取り出したコンテンツをそれぞれの視点に応じて変換し、映像提示部21、31に対して映像を配信する。   Next, details of the configuration of the video display device shown in FIG. 1 will be described with reference to FIG. The content storage unit 11 stores original data of video to be distributed, such as panoramic video or 3D data produced by CG or the like. The distribution unit 12 receives information on the positional relationship between the active video presentation unit 3 and the passive video presentation unit 2 transmitted from the positional relationship estimation unit 4 and outputs a video corresponding to the positional relationship. As a premise, it is assumed that the viewpoint of the video delivered to the passive video presentation unit 2 is known. The distribution unit 12 first determines each viewpoint according to the relative positional relationship between the passive video presentation unit 2 and the active video presentation unit 3. Then, the content extracted from the content storage unit 11 is converted according to each viewpoint, and the video is distributed to the video presentation units 21 and 31.

受動型映像提示部2は、コンテンツ配信部1から送信された映像を入力し、入力した映像を映像提示部21から出力する。   The passive video presentation unit 2 inputs the video transmitted from the content distribution unit 1 and outputs the input video from the video presentation unit 21.

能動型映像提示部3の映像提示部31は、コンテンツ配信部1から送信された映像を入力し、入力した映像を出力する。映像提示部31は液晶ディスプレイ等に映像を表示する映像表示型とプロジェクタで投影するような映像投影型のものがある。カメラ32は、撮影した受動型映像提示部2を含む映像を位置関係推定部4に出力する。   The video presentation unit 31 of the active video presentation unit 3 inputs the video transmitted from the content distribution unit 1 and outputs the input video. The video presentation unit 31 includes a video display type for displaying video on a liquid crystal display or the like and a video projection type for projecting with a projector. The camera 32 outputs the captured video including the passive video presentation unit 2 to the positional relationship estimation unit 4.

位置関係推定部4は、能動型映像提示部3のカメラ3から送信された映像と、予め保持している受動型映像提示部2の位置姿勢から、能動型映像提示部3と受動型映像提示部2の配置位置関係を推定し、コンテンツ配信部に送信する。ここで、一般に受動型映像提示部2を含むある物体Aの位置姿勢とは、適当に設定された世界座標系と物体Aが持つ座標系の変換を表す情報、つまりカメラキャリブレーションにおける外部パラメータ(回転行列R、並進ベクトルT)のことをいう。前提として、受動型映像提示部2にはグリッドの数と一辺の長さが既知のチェスパターンを持つ物体が付属され、かつその物体が能動型映像提示部3に備えるカメラ32から撮影できるものとする。   The positional relationship estimation unit 4 determines whether the active video presentation unit 3 and the passive video presentation are based on the video transmitted from the camera 3 of the active video presentation unit 3 and the position and orientation of the passive video presentation unit 2 held in advance. The arrangement positional relationship of the unit 2 is estimated and transmitted to the content distribution unit. Here, in general, the position and orientation of an object A including the passive video presentation unit 2 is information indicating transformation between an appropriately set world coordinate system and the coordinate system of the object A, that is, an external parameter ( Rotation matrix R, translation vector T). As a premise, the passive video presentation unit 2 is attached with an object having a chess pattern with a known number of grids and one side length, and the object can be photographed from the camera 32 provided in the active video presentation unit 3. To do.

位置関係推定部4は、撮影された映像からチェスパターンを検出し、その結果を基に撮影に用いられた能動型映像提示部3に備えられるカメラ32と受動型映像提示部2のチェスパターンの位置関係を推定する。この推定には、カメラ32の外部キャリブレーションを用いることができる。ここで、ある物体Aと物体Bの位置関係とは、各物体が持つ座標系の変換を表す情報、つまりカメラにおける外部パラメータ(回転行列R、並進ベクトルT)である。なお、本実施形態において位置姿勢と位置関係は座標系の変換を行うパラメータ(回転行列R、並進ベクトルT)であり、基本的には同じ意味を有するが、「位置姿勢」は端末の持つ座標系−世界座標系を表し、「位置関係」は端末の持つ座標系−端末の持つ座標系を表す。位置関係推定部4は、推定された位置関係をコンテンツ配信部1に送信する。なお、ここでは、チェスパターンを用いたが、それ以外の既知のテクスチャ、例えば、ARマーカを用いることも可能である。   The positional relationship estimation unit 4 detects a chess pattern from the shot video, and based on the result, the chess pattern of the camera 32 and the passive video presentation unit 2 provided in the active video presentation unit 3 used for shooting is detected. Estimate the positional relationship. For this estimation, external calibration of the camera 32 can be used. Here, the positional relationship between an object A and an object B is information representing the transformation of the coordinate system of each object, that is, external parameters (rotation matrix R, translation vector T) in the camera. In this embodiment, the position and orientation and the positional relationship are parameters (rotation matrix R, translation vector T) for converting the coordinate system, and basically have the same meaning. The system-world coordinate system is represented, and "positional relationship" represents the coordinate system of the terminal-the coordinate system of the terminal. The positional relationship estimation unit 4 transmits the estimated positional relationship to the content distribution unit 1. Although a chess pattern is used here, other known textures such as an AR marker may be used.

次に、図3を参照して、図1に示す映像表示装置全体の処理動作を説明する。図3は、図1に示す映像表示装置全体の処理動作を示すフローチャートである。まず、カメラ32は、受動型映像提示部2を含む映像を撮影する(ステップS1)。そして、カメラ32は、撮影した映像を位置関係推定部4に送信する(ステップS2)。これを受けて、位置関係推定部4は、送信された映像に基づいて能動型映像提示部3と受動型映像提示部2の位置関係を推定する(ステップS3)。位置関係推定部4は、推定された位置関係を示す情報をコンテンツ配信部1に送信する(ステップS4)。   Next, the processing operation of the entire video display device shown in FIG. 1 will be described with reference to FIG. FIG. 3 is a flowchart showing the processing operation of the entire video display apparatus shown in FIG. First, the camera 32 captures an image including the passive image presentation unit 2 (step S1). And the camera 32 transmits the image | photographed image | video to the positional relationship estimation part 4 (step S2). In response to this, the positional relationship estimation unit 4 estimates the positional relationship between the active video presentation unit 3 and the passive video presentation unit 2 based on the transmitted video (step S3). The positional relationship estimation unit 4 transmits information indicating the estimated positional relationship to the content distribution unit 1 (step S4).

次に、配信部12は、送信された位置関係を示す情報に応じて能動型映像提示部3に配信すべき映像を決定する(ステップS5)。そして、配信部12は、能動型映像提示部3に映像を配信する(ステップS6)。これを受けて、能動型映像提示部3の映像提示部31は、配信された映像を提示する(ステップS7)。   Next, the distribution unit 12 determines a video to be distributed to the active video presenting unit 3 according to the transmitted information indicating the positional relationship (step S5). Then, the distribution unit 12 distributes the video to the active video presenting unit 3 (step S6). In response to this, the video presentation unit 31 of the active video presentation unit 3 presents the distributed video (step S7).

一方、ステップS1〜S7の処理動作と並行して、配信部12は、予め定められた視点の映像を読み出して(ステップS8)、受動型映像提示部2に読み出した映像を配信する(ステップS9)。これを受けて、受動型映像提示部2の映像提示部21は、配信された映像を提示する(ステップS10)。   On the other hand, in parallel with the processing operations in steps S1 to S7, the distribution unit 12 reads a video of a predetermined viewpoint (step S8) and distributes the read video to the passive video presenting unit 2 (step S9). ). In response to this, the video presentation unit 21 of the passive video presentation unit 2 presents the distributed video (step S10).

このように、能動型映像提示部3を視聴者が手に持って、受動型映像提示部2との位置関係を変えると、位置関係推定部4は、カメラ32によって撮影した映像から受動型映像提示部2と能動型映像提示部3の配置位置関係がどのようになっているかを推定する。例えば、図1に示す例では、能動型映像提示部3は、受動型映像提示部2の右側に配置されているため、映像提示部31には、映像提示部21に映し出されている映像の右側方向の映像が映し出されることになる。   As described above, when the viewer holds the active video presentation unit 3 and changes the positional relationship with the passive video presentation unit 2, the positional relationship estimation unit 4 uses the passive video from the video captured by the camera 32. The arrangement positional relationship between the presentation unit 2 and the active video presentation unit 3 is estimated. For example, in the example shown in FIG. 1, since the active video presentation unit 3 is arranged on the right side of the passive video presentation unit 2, the video presentation unit 31 displays the video displayed on the video presentation unit 21. The video in the right direction will be displayed.

また、視聴者が能動型映像提示部3を受動型映像提示部2の左側に持ってくると、その位置関係を位置関係推定部4が推定し、その位置関係に基づいて、映像提示部31には、映像提示部21に映し出されている映像の左側方向の映像が映し出されることになる。同様に、能動型映像提示部3を受動型映像提示部2の上方向または下方向に持ってくることにより、映像提示部21に映し出されている映像の上側または下側の映像が映し出されることになる。このようにすることによって、受動型映像提示部2に映し出されている映像と、能動型映像提示部3に映し出されている映像の位置関係を直感的に把握することができるようになる。   When the viewer brings the active video presentation unit 3 to the left side of the passive video presentation unit 2, the positional relationship estimation unit 4 estimates the positional relationship, and the video presentation unit 31 is based on the positional relationship. In this case, an image in the left direction of the image displayed on the image presentation unit 21 is displayed. Similarly, by bringing the active video presentation unit 3 upward or downward in the passive video presentation unit 2, the upper or lower video of the video displayed on the video presentation unit 21 is projected. become. By doing so, it becomes possible to intuitively grasp the positional relationship between the video displayed on the passive video presentation unit 2 and the video displayed on the active video presentation unit 3.

<第2実施形態>
次に、本発明の第2実施形態による映像表示装置を説明する。図4は同実施形態の構成を示すブロック図である。図4において、図1示す装置と同一の部分には同一の符号を付し、その説明を省略する。図4に示す装置が図1に示す装置と異なる点は、能動型映像提示部3にジャイロセンサ33が新たに備えられている点である。ジャイロセンサ33を備えることにより、カメラ32で受動型映像提示部を含む映像を撮影することができなかった場合においても補完的に位置関係を取得することが可能となる。
Second Embodiment
Next, a video display apparatus according to a second embodiment of the present invention will be described. FIG. 4 is a block diagram showing the configuration of the embodiment. 4, parts that are the same as the parts shown in FIG. 1 are given the same reference numerals, and explanation thereof is omitted. The apparatus shown in FIG. 4 is different from the apparatus shown in FIG. 1 in that the active video presentation unit 3 is newly provided with a gyro sensor 33. By including the gyro sensor 33, it is possible to obtain the positional relationship in a complementary manner even when the camera 32 cannot capture a video including the passive video presentation unit.

ジャイロセンサ33は、検出した値を位置関係推定部4に送信する。位置関係推定部4は、能動型映像提示部3より送信された情報(カメラの映像、またはジャイロセンサの検出値)と、予め保持している受動型映像提示部2の位置姿勢から、能動型映像提示部3と受動型映像提示部3の位置関係を推定し、推定結果をコンテンツ配信部に送信する。前提として、前時刻の能動型映像提示部3と受動型映像提示部2の位置関係が既知であり、かつ受動型映像提示部2は固定されているものとする。位置関係推定部4は、入力であるジャイロセンサの値を基に、前時刻に対する現時刻の能動型映像提示部の位置関係を推定する。そして、位置関係推定部4は、前時刻と現時刻の能動型映像提示部3の位置関係、前時刻の能動型映像提示部3と受動型映像提示部2の位置関係から、現時刻の能動型映像提示部3と受動型映像提示部2の位置関係を推定する。位置関係推定部4は、推定された位置関係をコンテンツ配信部1に送信する。   The gyro sensor 33 transmits the detected value to the positional relationship estimation unit 4. The positional relationship estimation unit 4 is based on the information (camera image or gyro sensor detection value) transmitted from the active video presentation unit 3 and the position and orientation of the passive video presentation unit 2 held in advance. The positional relationship between the video presentation unit 3 and the passive video presentation unit 3 is estimated, and the estimation result is transmitted to the content distribution unit. It is assumed that the positional relationship between the active video presentation unit 3 and the passive video presentation unit 2 at the previous time is known and the passive video presentation unit 2 is fixed. The positional relationship estimation unit 4 estimates the positional relationship of the active video presenting unit at the current time with respect to the previous time based on the value of the gyro sensor as an input. Then, the positional relationship estimation unit 4 determines the active time at the current time based on the positional relationship between the active video presentation unit 3 at the previous time and the current time and the positional relationship between the active video presentation unit 3 and the passive video presentation unit 2 at the previous time. The positional relationship between the type video presentation unit 3 and the passive type video presentation unit 2 is estimated. The positional relationship estimation unit 4 transmits the estimated positional relationship to the content distribution unit 1.

なお、カメラ32とジャイロセンサ33の組み合わせの他、CMOSセンサ(赤外線)、3軸加速度センサ、赤外線LEDを利用することで同等の効果を得ることが可能である。この場合、CMOSセンサ(赤外線)および3軸加速度センサが能動型映像提示部3に付与するカメラ32およびジャイロセンサ33に相当し、赤外線LEDが受動型映像提示部2に付与するチェスパターンに相当する。   In addition to the combination of the camera 32 and the gyro sensor 33, an equivalent effect can be obtained by using a CMOS sensor (infrared ray), a triaxial acceleration sensor, and an infrared LED. In this case, the CMOS sensor (infrared ray) and the three-axis acceleration sensor correspond to the camera 32 and the gyro sensor 33 provided to the active video presentation unit 3, and the infrared LED corresponds to the chess pattern provided to the passive video presentation unit 2. .

次に、図5を参照して、図4に示す映像表示装置全体の処理動作を説明する。図5は、図4に示す映像表示装置全体の処理動作を示すフローチャートである。まず、ジャイロセンサ33は、検出値を獲得する(ステップS11)。そして、ジャイロセンサ33は、獲得した検出値を位置関係推定部4に送信する(ステップS12)。これを受けて、位置関係推定部4は、送信された検出値に基づいて能動型映像提示部3と受動型映像提示部2の位置関係を推定する(ステップS3)。位置関係推定部4は、推定された位置関係を示す情報をコンテンツ配信部1に送信する(ステップS4)。   Next, the processing operation of the entire video display apparatus shown in FIG. 4 will be described with reference to FIG. FIG. 5 is a flowchart showing the processing operation of the entire video display apparatus shown in FIG. First, the gyro sensor 33 acquires a detection value (step S11). Then, the gyro sensor 33 transmits the acquired detection value to the positional relationship estimation unit 4 (step S12). Receiving this, the positional relationship estimation unit 4 estimates the positional relationship between the active video presentation unit 3 and the passive video presentation unit 2 based on the transmitted detection value (step S3). The positional relationship estimation unit 4 transmits information indicating the estimated positional relationship to the content distribution unit 1 (step S4).

次に、配信部12は、送信された位置関係を示す情報に応じて能動型映像提示部3に配信すべき映像を決定する(ステップS5)。そして、配信部12は、能動型映像提示部3に映像を配信する(ステップS6)。これを受けて、能動型映像提示部3の映像提示部31は、配信された映像を提示する(ステップS7)。   Next, the distribution unit 12 determines a video to be distributed to the active video presenting unit 3 according to the transmitted information indicating the positional relationship (step S5). Then, the distribution unit 12 distributes the video to the active video presenting unit 3 (step S6). In response to this, the video presentation unit 31 of the active video presentation unit 3 presents the distributed video (step S7).

一方、ステップS11、S12、S3〜S7の処理動作と並行して、配信部12は、予め定められた視点の映像を読み出して(ステップS8)、受動型映像提示部2に読み出した映像を配信する(ステップS9)。これを受けて、受動型映像提示部2の映像提示部21は、配信された映像を提示する(ステップS10)。   On the other hand, in parallel with the processing operations of steps S11, S12, and S3 to S7, the distribution unit 12 reads a video of a predetermined viewpoint (step S8) and distributes the read video to the passive video presenting unit 2. (Step S9). In response to this, the video presentation unit 21 of the passive video presentation unit 2 presents the distributed video (step S10).

このように、ジャイロセンサ33を備えることにより、カメラ32で受動型映像提示部を含む映像を撮影することができなかった場合においても補完的に位置関係を取得することが可能となる。   As described above, by including the gyro sensor 33, it is possible to acquire the positional relationship in a complementary manner even when the camera 32 cannot capture an image including the passive image presentation unit.

<第3実施形態>
次に、本発明の第3実施形態による映像表示装置を説明する。図6は同実施形態の構成を示すブロック図である。図6において、図1示す装置と同一の部分には同一の符号を付し、その説明を省略する。図6に示す装置が図1に示す装置と異なる点は、カメラ32に代えて、能動型映像提示装置位置姿勢推定部5を能動型映像提示部3の外部に設けた点である。
<Third Embodiment>
Next, an image display apparatus according to a third embodiment of the present invention will be described. FIG. 6 is a block diagram showing the configuration of the embodiment. In FIG. 6, the same parts as those in the apparatus shown in FIG. The apparatus shown in FIG. 6 differs from the apparatus shown in FIG. 1 in that an active video presentation device position / orientation estimation unit 5 is provided outside the active video presentation unit 3 in place of the camera 32.

能動型映像提示装置位置姿勢推定部5は、付属のカメラを用いて能動型映像提示装置位置姿勢推定部5と能動型映像提示装置3の位置関係を求め、位置関係推定部4に送信する。前提として、能動型映像提示装置3にはグリッドの数と一辺の長さが既知のチェスパターンを持つ物体が付属され、かつその物体が能動型映像提示装置位置姿勢推定部5が備えるカメラから観測できるものとする。なお、能動型映像提示装置位置姿勢推定部5の位置姿勢は既知であるとする。   The active video presentation device position / posture estimation unit 5 obtains the positional relationship between the active video presentation device position / posture estimation unit 5 and the active video presentation device 3 using an attached camera, and transmits the positional relationship to the positional relationship estimation unit 4. As a premise, the active video presentation device 3 is attached with an object having a chess pattern whose number of grids and the length of one side are known, and the object is observed from the camera provided in the active video presentation device position / orientation estimation unit 5. It shall be possible. It is assumed that the position and orientation of the active video presentation device position and orientation estimation unit 5 are known.

能動型映像提示装置位置姿勢推定部5は、撮影された映像からチェスパターンを検出し、その結果を基に撮影に用いられた、能動型映像提示装置位置姿勢推定部5のカメラと能動型映像提示部3のチェスパターンの位置関係を推定する(外部キャリブレーション)。そして、能動型映像提示装置位置姿勢推定部5は、推定された位置関係を位置関係推定部4に送信する。ここではチェスパターンを用いたが、それ以外の既知のテクスチャ、例えば、ARマーカを用いることも可能である。   The active video presentation device position / orientation estimation unit 5 detects a chess pattern from the captured video, and the active video presentation device position / orientation estimation unit 5 and the active video used for imaging based on the detection result. The positional relationship of the chess pattern of the presentation unit 3 is estimated (external calibration). Then, the active video presentation device position / orientation estimation unit 5 transmits the estimated positional relationship to the positional relationship estimation unit 4. Although a chess pattern is used here, other known textures such as an AR marker may be used.

位置関係推定部4は、能動型映像提示装置位置姿勢推定部5より送信された情報と、予め保持している受動型映像提示部3の位置姿勢から、能動型映像提示部3と受動型映像提示部2の配置位置関係を推定し、コンテンツ配信部1に送信する。前提として、能動型映像提示装置位置姿勢推定部5の有するカメラと受動型映像提示部2の位置関係は既知であるとし、受動型映像提示装置2は固定されているものとする。   The positional relationship estimation unit 4 determines whether the active video presentation unit 3 and the passive video are based on the information transmitted from the active video presentation device position / posture estimation unit 5 and the position / posture of the passive video presentation unit 3 held in advance. The arrangement positional relationship of the presentation unit 2 is estimated and transmitted to the content distribution unit 1. As a premise, it is assumed that the positional relationship between the camera of the active video presentation device position / orientation estimation unit 5 and the passive video presentation unit 2 is known, and the passive video presentation device 2 is fixed.

位置関係推定部4は、入力として与えられた能動型映像提示部3と能動型映像提示装置位置姿勢推定部5の位置関係、既知である能動型映像提示装置位置姿勢推定部5と受動型映像提示部2の位置関係を用い、能動型映像提示部3と受動型映像提示部2の位置関係を推定する。そして、位置関係推定部4は、推定された位置関係を毎時間コンテンツ配信部1に送信する。   The positional relationship estimation unit 4 is a positional relationship between the active video presentation unit 3 and the active video presentation device position / posture estimation unit 5 given as input, and the known active video presentation device position / posture estimation unit 5 and passive video. Using the positional relationship of the presentation unit 2, the positional relationship between the active video presentation unit 3 and the passive video presentation unit 2 is estimated. Then, the positional relationship estimation unit 4 transmits the estimated positional relationship to the content distribution unit 1 every hour.

なお、ここでは能動型映像提示装置位置姿勢推定部5と受動型映像提示部2の位置関係は既知であるとしたが、受動型映像提示部2に既知のチェスパターンを添付し、それを能動型映像提示装置位置姿勢推定部5の有するカメラで撮影することができれば推定することも可能である。   Here, the positional relationship between the active image presentation device position / orientation estimation unit 5 and the passive image presentation unit 2 is known, but a known chess pattern is attached to the passive image presentation unit 2 to activate it. If the image can be captured by the camera included in the type image presentation device position / posture estimation unit 5, it can be estimated.

次に、図7を参照して、図6に示す映像表示装置全体の処理動作を説明する。図7は、図6に示す映像表示装置全体の処理動作を示すフローチャートである。まず、能動型映像提示装置位置姿勢推定部5は、カメラで能動型映像提示部3を含む映像を撮影する(ステップS21)。そして、能動型映像提示装置位置姿勢推定部5は、能動型映像提示部3と能動型映像提示装置位置姿勢推定部5の位置関係を推定し、この推定結果を位置関係推定部4に送信する(ステップS22)。これを受けて、位置関係推定部4は、送信された推定結果に基づいて能動型映像提示部3と受動型映像提示部2の位置関係を推定する(ステップS3)。位置関係推定部4は、推定された位置関係を示す情報をコンテンツ配信部1に送信する(ステップS4)。   Next, the processing operation of the entire video display device shown in FIG. 6 will be described with reference to FIG. FIG. 7 is a flowchart showing the processing operation of the entire video display apparatus shown in FIG. First, the active image presentation device position / orientation estimation unit 5 captures an image including the active image presentation unit 3 with a camera (step S21). Then, the active video presentation device position / orientation estimation unit 5 estimates the positional relationship between the active video presentation unit 3 and the active video presentation device position / posture estimation unit 5 and transmits the estimation result to the positional relationship estimation unit 4. (Step S22). In response to this, the positional relationship estimation unit 4 estimates the positional relationship between the active video presentation unit 3 and the passive video presentation unit 2 based on the transmitted estimation result (step S3). The positional relationship estimation unit 4 transmits information indicating the estimated positional relationship to the content distribution unit 1 (step S4).

次に、配信部12は、送信された位置関係を示す情報に応じて能動型映像提示部3に配信すべき映像を決定する(ステップS5)。そして、配信部12は、能動型映像提示部3に映像を配信する(ステップS6)。これを受けて、能動型映像提示部3の映像提示部31は、配信された映像を提示する(ステップS7)。   Next, the distribution unit 12 determines a video to be distributed to the active video presenting unit 3 according to the transmitted information indicating the positional relationship (step S5). Then, the distribution unit 12 distributes the video to the active video presenting unit 3 (step S6). In response to this, the video presentation unit 31 of the active video presentation unit 3 presents the distributed video (step S7).

一方、ステップS21、S22、S3〜S7の処理動作と並行して、配信部12は、予め定められた視点の映像を読み出して(ステップS8)、受動型映像提示部2に読み出した映像を配信する(ステップS9)。これを受けて、受動型映像提示部2の映像提示部21は、配信された映像を提示する(ステップS10)。   On the other hand, in parallel with the processing operations of steps S21, S22, and S3 to S7, the distribution unit 12 reads out a video of a predetermined viewpoint (step S8) and distributes the read video to the passive video presenting unit 2. (Step S9). In response to this, the video presentation unit 21 of the passive video presentation unit 2 presents the distributed video (step S10).

このように、能動型映像提示部3の外部から能動型映像提示部3を撮影することにより、能動型映像提示部3の配置位置と姿勢を推定することが可能となる。   As described above, by photographing the active video presentation unit 3 from the outside of the active video presentation unit 3, it is possible to estimate the arrangement position and orientation of the active video presentation unit 3.

<第4実施形態>
次に、本発明の第4実施形態による映像表示装置を説明する。第4実施形態による装置が第1〜第3実施形態による装置と異なる点は、能動型映像提示部3がユーザ入力を行うためにタッチパネル等のユーザインタフェースを備えている点である。第1〜第3実施形態においては提示される映像が、能動型映像提示部3の位置関係に従う例を説明したが、拡大など一部の操作は視聴する上で不便に感ずることもある。そこで、ユーザの入力によって一部の視点操作を可能にするために、ユーザインタフェースをさらに備えている。映像の視点を決定するための情報の1つとして利用されることから、位置関係推定部4への入力、つまりカメラやジャイロセンサを補完するという位置づけとなるものである。ユーザインタフェースは、ユーザの操作内容(画面の拡大率及び縮小率など)を入力し、この入力内容を位置関係推定部4に送信する。これにより、ユーザが所望する映像になるように操作することができるようになり、ユーザが所望する映像を提示することが可能となる。
<Fourth embodiment>
Next, an image display apparatus according to a fourth embodiment of the present invention will be described. The device according to the fourth embodiment is different from the devices according to the first to third embodiments in that the active video presentation unit 3 includes a user interface such as a touch panel for performing user input. In the first to third embodiments, the example in which the presented video follows the positional relationship of the active video presentation unit 3 has been described. However, some operations such as enlargement may be inconvenient when viewed. Therefore, a user interface is further provided in order to enable a part of the viewpoint operation by a user input. Since it is used as one piece of information for determining the viewpoint of the video, it is positioned to complement the input to the positional relationship estimation unit 4, that is, the camera and the gyro sensor. The user interface inputs the operation contents of the user (screen enlargement ratio, reduction ratio, etc.) and transmits the input contents to the positional relationship estimation unit 4. Thereby, it becomes possible to perform an operation so as to obtain a video desired by the user, and it is possible to present a video desired by the user.

<第5実施形態>
次に、本発明の第5実施形態による映像表示装置を説明する。図8は、第5実施形態による映像表示装置の構成を示す図である。図8に示す例では、能動型映像提示部3としてタブレット端末を、受動型映像提示部2として液晶ディスプレイ端末を用いている。ただし、液晶ディスプレイ端末にはARマーカが添付され、タブレット端末はカメラとジャイロセンサを備えている。さらに、両端末が有する画面が図2に示す画像平面Iとし、視点Oは端末ごとに適当な位置に固定するとする。また、位置関係推定部4及びコンテンツ配信部1はサーバによって実現する。なお、本実施形態は非特許文献1と同様のパノラマ映像、3DCGを始め、大画面映像あるいは自由視点映像のように視点が選択できるコンテンツに対して適用が可能であるが、ここでは主にパノラマ映像視聴時について説明する。
<Fifth Embodiment>
Next, an image display apparatus according to a fifth embodiment of the present invention will be described. FIG. 8 is a diagram showing the configuration of the video display apparatus according to the fifth embodiment. In the example shown in FIG. 8, a tablet terminal is used as the active video presentation unit 3, and a liquid crystal display terminal is used as the passive video presentation unit 2. However, an AR marker is attached to the liquid crystal display terminal, and the tablet terminal includes a camera and a gyro sensor. Further, assume that the screens of both terminals are the image plane I shown in FIG. 2, and the viewpoint O is fixed at an appropriate position for each terminal. The positional relationship estimation unit 4 and the content distribution unit 1 are realized by a server. Note that the present embodiment can be applied to panoramic video and 3DCG similar to Non-Patent Document 1, content that can select a viewpoint, such as a large screen video or a free viewpoint video, but here, mainly panoramic video. The video viewing time will be described.

視聴において、タブレット端末が有するカメラで液晶ディスプレイ端末に添付されたARマーカを撮影し、その映像を基にタブレット端末と液晶ディスプレイの相対位置関係を推定する。カメラの視野からARマーカが外れた時も、カメラに付属のジャイロセンサの値を用いて相対位置関係を推定することが可能である。この時、ARマーカがカメラの視野から外れる直前の値を初期値として利用する。   In viewing, the AR marker attached to the liquid crystal display terminal is photographed by the camera of the tablet terminal, and the relative positional relationship between the tablet terminal and the liquid crystal display is estimated based on the video. Even when the AR marker is out of the field of view of the camera, it is possible to estimate the relative positional relationship using the value of the gyro sensor attached to the camera. At this time, a value immediately before the AR marker deviates from the field of view of the camera is used as an initial value.

本実施形態では能動型映像提示部3であるタブレット端末および受動型映像提示部2である液晶ディスプレイ端末が存在する空間に仮想的にパノラマ映像Pが存在すると見做し、各端末の画面に投影された映像を提示する。受動型映像提示部2における視点01は予め配信側が定めた視点、あるいは非特許文献1に記載のようにユーザの操作履歴の自動再生を想定する。なお、受動型映像提示部2が固定されている場合には上記の視点移動に伴いパノラマ映像Pの方が動くものとする。また、基本的に提示される映像はタブレット端末と液晶ディスプレイ端末の相対位置関係によるものだが、両端末を所望の相対位置関係に設置することが困難な場合(例えば映像を大きく拡大縮小するために両者の距離を大きく変化させる場合)に備え、ユーザ操作に伴う視点02の移動を許容する。   In this embodiment, it is assumed that the panoramic video P is virtually present in the space where the tablet terminal as the active video presenting unit 3 and the liquid crystal display terminal as the passive video presenting unit 2 exist, and are projected on the screen of each terminal. Presents the video. The viewpoint 01 in the passive video presentation unit 2 is assumed to be a viewpoint determined in advance by the distribution side, or automatic reproduction of a user's operation history as described in Non-Patent Document 1. When the passive video presentation unit 2 is fixed, it is assumed that the panoramic video P moves as the viewpoint moves. Also, the video that is presented is basically based on the relative positional relationship between the tablet terminal and the liquid crystal display terminal. However, if it is difficult to install both terminals in the desired relative positional relationship (for example, to greatly enlarge or reduce the video) In order to prepare for a case where the distance between the two is greatly changed), the movement of the viewpoint 02 accompanying the user operation is allowed.

<第6実施形態>
次に、本発明の第6実施形態による映像表示装置を説明する。図9は、第6実施形態による映像表示装置の構成を示す図である。図9に示す例では、能動型映像提示部3としてモバイルプロジェクタを用いてパノラマ映像を視聴するものとして説明する。なお、このモバイルプロジェクタはカメラとジャイロセンサ、及び深度センサを具備していることとする。その他、受動型映像提示部2、能動型映像提示部3、コンテンツ配信部1及び能動型映像提示部3と受動型映像提示部3の位置関係の推定方法に関しては前述したものと同様であるので、詳細な説明は省略する。
<Sixth Embodiment>
Next, an image display apparatus according to a sixth embodiment of the present invention will be described. FIG. 9 is a diagram showing the configuration of the video display apparatus according to the sixth embodiment. In the example shown in FIG. 9, description will be made assuming that a panoramic video is viewed using a mobile projector as the active video presentation unit 3. This mobile projector includes a camera, a gyro sensor, and a depth sensor. In addition, the passive video presentation unit 2, the active video presentation unit 3, the content distribution unit 1, and the method for estimating the positional relationship between the active video presentation unit 3 and the passive video presentation unit 3 are the same as those described above. Detailed description will be omitted.

受動型映像提示部2である液晶ディスプレイ端末には第5実施形態と同様の映像を提示する。能動型映像提示部3であるモバイルプロジェクタは、図9に示すようにモバイルプロジェクタが向けられている先にある壁などのスクリーン10にパノラマ映像Pの映像を投影する。   The liquid crystal display terminal which is the passive video presentation unit 2 presents the same video as in the fifth embodiment. As shown in FIG. 9, the mobile projector that is the active video presentation unit 3 projects the panoramic video P onto the screen 10 such as a wall on the front side of the mobile projector.

なお、モバイルプロジェクタが投影する対象は必ずしも白い壁のようにテクスチャの無い平面では無いため、投影した映像が視聴者からは異なる色や形状で観測される場合がある。この時、映像の品質向上のためにカメラや深度センサを用いて投影対象のテクスチャや形状を獲得し、それに応じて投影する映像を変換させるようにしてもよい。   Note that since the target projected by the mobile projector is not necessarily a flat surface without a texture such as a white wall, the projected image may be observed by a viewer in a different color or shape. At this time, in order to improve the quality of the video, a texture or shape to be projected may be acquired using a camera or a depth sensor, and the video to be projected may be converted accordingly.

以上説明したように、2スクリーン式能動受動型映像視聴において、受動型映像提示部2と能動型映像提示部3が提示する映像の視点を、両提示部の相対位置関係を用いて関連付けるようにした。すなわち、両提示部は同一の大画面映像の一部を映し出しており、その映し出している映像の視点の位置関係が、両提示部の相対位置関係によって決定するようにした。これにより、能動型映像提示部3に提示される映像は両提示部の相対位置関係に基づいて決定されるため、視聴者は視線移動後の映像がどの視点から映している映像であるかを容易に理解できるようになる。   As described above, in the two-screen active passive video viewing, the viewpoints of the video presented by the passive video presentation unit 2 and the active video presentation unit 3 are related using the relative positional relationship between the two presentation units. did. That is, both presentation units project a part of the same large-screen video, and the positional relationship between the viewpoints of the projected video is determined by the relative positional relationship between both presentation units. As a result, since the video presented to the active video presentation unit 3 is determined based on the relative positional relationship between the two presentation units, the viewer can determine from which viewpoint the video after the line of sight movement is projected. It becomes easy to understand.

前述した実施形態におけるコンテンツ配信部1、受動型映像提示部2、能動型映像提示部3、位置関係推定部4、能動型映像提示装置位置姿勢推定部5をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   The content distribution unit 1, the passive video presentation unit 2, the active video presentation unit 3, the positional relationship estimation unit 4, and the active video presentation device position / posture estimation unit 5 in the embodiment described above may be realized by a computer. . In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。   As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.

同一の映像から生成された能動型映像と受動型映像の2つの映像を視聴する際に、2つの映像の視点の位置関係を直感的に把握することが不可欠な用途に適用できる。   When viewing two images of an active image and a passive image generated from the same image, it can be applied to an application in which it is essential to intuitively grasp the positional relationship between the viewpoints of the two images.

1・・・コンテンツ配信部、11・・・コンテンツ保存部、12・・・配信部、2・・・受動型映像提示部、21・・・映像提示部、3・・・能動型映像提示部、31・・・映像提示部、32・・・カメラ、33・・・ジャイロセンサ、4・・・位置関係推定部、5・・・能動型映像提示装置位置姿勢推定部   DESCRIPTION OF SYMBOLS 1 ... Content delivery part, 11 ... Content preservation | save part, 12 ... Delivery part, 2 ... Passive type | formula video presentation part, 21 ... Video | video presentation part, 3 ... Active type | mold video presentation part 31 ... Video presentation unit, 32 ... Camera, 33 ... Gyro sensor, 4 ... Position relation estimation unit, 5 ... Active video presentation device position / posture estimation unit

Claims (4)

映像データを記憶する映像データ記憶手段と、
視聴者が指定した視点の映像データに基づき映像の提示を行う能動型映像提示手段と、
予め定められた視点の映像データに基づき映像の提示を行う受動型映像提示手段と、
前記能動型映像提示手段と、前記受動型映像提示手段との相対的な配置位置関係を推定する位置関係推定手段と、
前記受動型映像提示手段に配信すべき前記映像の視点と前記相対的な配置位置関係から前記能動型映像提示手段に配信すべき映像の視点を算出し、前記映像データから前記受動型映像提示手段に配信すべき映像を生成するとともに、算出した前記視点に基づいて前記映像データから前記能動型映像提示手段に配信すべき映像を生成して、それぞれ前記受動型映像提示手段及び能動型映像提示手段に提示する配信手段と、
を備え
前記能動型映像提示手段は、前記配置位置関係を求めるために、前記受動型映像提示手段を含む映像を撮影する撮影手段を備え、
前記位置関係推定手段は、前記撮影手段によって撮影された前記受動型映像提示手段を含む映像から前記能動型映像提示手段と、前記受動型映像提示手段との相対的な配置位置関係を推定し、
前記配信手段は、前記能動型映像提示手段と前記受動型映像提示手段とへの映像配信を並行して行い、推定した前記受動型映像提示手段と前記能動型映像提示手段との相対的な配置位置に応じて、受動型映像提示手段に映し出される映像の前記能動型映像提示手段が置かれた位置の方向の映像を前記能動型映像提示手段に対して提示すべき映像として配信することを特徴とする映像表示装置。
Video data storage means for storing video data;
Active video presentation means for presenting video based on video data of a viewpoint specified by a viewer;
Passive video presentation means for presenting video based on video data of a predetermined viewpoint;
A positional relationship estimating means for estimating a relative positional relationship between the active video presenting means and the passive video presenting means;
The viewpoint of the video to be delivered to the active video presentation means is calculated from the viewpoint of the video to be delivered to the passive video presentation means and the relative arrangement positional relationship, and the passive video presentation means is obtained from the video data. A video to be distributed to the active video presenting means from the video data based on the calculated viewpoint, and the passive video presenting means and the active video presenting means, respectively. Delivery means to present to,
Equipped with a,
The active image presenting means includes a photographing means for photographing an image including the passive image presenting means in order to obtain the arrangement positional relationship.
The positional relationship estimating means estimates a relative arrangement positional relationship between the active video presenting means and the passive video presenting means from a video including the passive video presenting means photographed by the photographing means,
The distribution means performs video distribution to the active video presentation means and the passive video presentation means in parallel, and the estimated relative arrangement of the passive video presentation means and the active video presentation means According to a position, a video in a direction of a position where the active video presenting unit of the video projected on the passive video presenting unit is distributed as a video to be presented to the active video presenting unit. A video display device.
前記能動型映像提示手段は、ジャイロセンサをさらに備え、
前記位置関係推定手段は、前記撮影手段によって前記受動型映像提示手段を含む映像を撮影することができなかった場合に、固定された前記受動型映像提示手段の位置情報と前時刻における前記能動型映像提示手段と前記受動型映像提示手段の相対的な位置関係と前記ジャイロセンサの検出値から前記相対的な配置位置関係を推定することを特徴とする請求項に記載の映像表示装置。
The active image presentation means further includes a gyro sensor,
The positional relationship estimation means, when the video including the passive video presentation means cannot be taken by the photographing means, the position information of the fixed passive video presentation means and the active type at the previous time 2. The video display apparatus according to claim 1 , wherein the relative arrangement positional relation is estimated from a relative positional relation between the video presentation means and the passive video presentation means and a detection value of the gyro sensor.
映像データを記憶する映像データ記憶手段と、
視聴者が指定した視点の映像データに基づき映像の提示を行う能動型映像提示手段と、
予め定められた視点の映像データに基づき映像の提示を行う受動型映像提示手段と、
前記能動型映像提示手段との相対的な位置関係を推定する能動型映像提示装置位置姿勢推定手段と、
前記能動型映像提示装置位置姿勢推定手段と前記能動型映像提示手段との相対的な位置関係と、前記能動型映像提示装置位置姿勢推定手段と前記受動型映像提示手段との相対的な位置関係とを用いて、前記能動型映像提示手段と前記受動型映像提示手段との相対的な配置位置関係を推定する位置関係推定手段と、
前記受動型映像提示手段に配信すべき前記映像の視点と前記相対的な配置位置関係から前記能動型映像提示手段に配信すべき映像の視点を算出し、前記映像データから前記受動型映像提示手段に配信すべき映像を生成するとともに、算出した前記視点に基づいて前記映像データから前記能動型映像提示手段に配信すべき映像を生成して、それぞれ前記受動型映像提示手段及び能動型映像提示手段に提示する配信手段と
を備え
前記配信手段は、前記能動型映像提示手段と前記受動型映像提示手段とへの映像配信を並行して行い、推定した前記受動型映像提示手段と前記能動型映像提示手段との相対的な配置位置に応じて、受動型映像提示手段に映し出される映像の前記能動型映像提示手段が置かれた位置の方向の映像を前記能動型映像提示手段に対して提示すべき映像として配信することを特徴とする映像表示装置。
Video data storage means for storing video data;
Active video presentation means for presenting video based on video data of a viewpoint specified by a viewer;
Passive video presentation means for presenting video based on video data of a predetermined viewpoint;
Active video presentation device position and orientation estimation means for estimating a relative positional relationship with the active video presentation means;
Relative positional relationship between the active video presentation device position and orientation estimation unit and the active video presentation unit, and relative positional relationship between the active video presentation device position and orientation estimation unit and the passive video presentation unit DOO positional relationship estimation means for estimates the relative position relationship between the passive image presentation means and the active video presentation means using,
Calculating a viewpoint of the video to be distributed to the active video presenting means from the relative position relationship between the viewpoint of the image to be distributed to the passive image presentation means, said from the video data passive image presentation means A video to be distributed to the active video presenting means from the video data based on the calculated viewpoint, and the passive video presenting means and the active video presenting means, respectively. Distribution means to present to the
The distribution means performs video distribution to the active video presentation means and the passive video presentation means in parallel, and the estimated relative arrangement of the passive video presentation means and the active video presentation means According to a position, a video in a direction of a position where the active video presenting unit of the video projected on the passive video presenting unit is distributed as a video to be presented to the active video presenting unit. A video display device.
コンピュータを、請求項1からのいずれか1項に記載の映像表示装置として機能させるための映像表示プログラム。 The video display program for functioning a computer as a video display apparatus of any one of Claim 1 to 3 .
JP2013192290A 2013-09-17 2013-09-17 Video display device and video display program Active JP6031016B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013192290A JP6031016B2 (en) 2013-09-17 2013-09-17 Video display device and video display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013192290A JP6031016B2 (en) 2013-09-17 2013-09-17 Video display device and video display program

Publications (2)

Publication Number Publication Date
JP2015059999A JP2015059999A (en) 2015-03-30
JP6031016B2 true JP6031016B2 (en) 2016-11-24

Family

ID=52817604

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013192290A Active JP6031016B2 (en) 2013-09-17 2013-09-17 Video display device and video display program

Country Status (1)

Country Link
JP (1) JP6031016B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7052225B2 (en) * 2017-06-06 2022-04-12 富士通株式会社 Information processing equipment, information processing system and information processing method
WO2019171557A1 (en) * 2018-03-08 2019-09-12 塁 佐藤 Image display system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003280783A (en) * 2002-03-20 2003-10-02 Fuji Xerox Co Ltd Display system and display method
JP2009205556A (en) * 2008-02-28 2009-09-10 Panasonic Corp User interface device
JP5279038B2 (en) * 2010-05-28 2013-09-04 Necアクセステクニカ株式会社 Image display system and image display method
EP2485119A3 (en) * 2011-02-02 2012-12-12 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
JP2012233963A (en) * 2011-04-28 2012-11-29 Konica Minolta Holdings Inc Projection system, projection device, projection method, and control program
JP2013179553A (en) * 2012-01-30 2013-09-09 Sharp Corp Divided screen display system and divided screen display method
JP5745497B2 (en) * 2012-12-04 2015-07-08 任天堂株式会社 Display system, display control apparatus, information processing program, and display method

Also Published As

Publication number Publication date
JP2015059999A (en) 2015-03-30

Similar Documents

Publication Publication Date Title
US11189055B2 (en) Information processing apparatus and method and program
WO2018171429A1 (en) Image stitching method, device, terminal, and storage medium
US9781356B1 (en) Panoramic video viewer
RU2623201C2 (en) Mobile display device
EP3007038A2 (en) Interaction with three-dimensional video
TWI547901B (en) Simulating stereoscopic image display method and display device
TW200540458A (en) Motion sensor using dual camera inputs
US9509907B2 (en) Information processing device, storage medium having moving image data stored thereon, information processing system, storage medium having moving image reproduction program stored thereon, and moving image reproduction method
TWI572203B (en) Media streaming system, control method and non-transitory computer readable storage medium
US10764493B2 (en) Display method and electronic device
US10694115B2 (en) Method, apparatus, and terminal for presenting panoramic visual content
WO2020042494A1 (en) Method for screenshot of vr scene, device and storage medium
CN107295393B (en) method and device for displaying additional media in media playing, computing equipment and computer-readable storage medium
EP3819752A1 (en) Personalized scene image processing method and apparatus, and storage medium
CN112039937B (en) Display method, position determination method and device
JP2019040610A (en) Information processing apparatus
JP2014053794A (en) Information processing program, information processing apparatus, information processing system, and information processing method
WO2019015249A1 (en) Virtual-reality-based image display method and apparatus, and virtual reality helmet device
US20150326847A1 (en) Method and system for capturing a 3d image using single camera
JP5547356B2 (en) Imaging apparatus, method, storage medium, and program
JP6031016B2 (en) Video display device and video display program
JP2017046065A (en) Information processor
US20150022559A1 (en) Method and apparatus for displaying images in portable terminal
CN107426522B (en) Video method and system based on virtual reality equipment
CN107833265B (en) Image switching display method and virtual reality equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161021

R150 Certificate of patent or registration of utility model

Ref document number: 6031016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150