JP2023161493A - Display system, display method, and display program - Google Patents

Display system, display method, and display program Download PDF

Info

Publication number
JP2023161493A
JP2023161493A JP2022071929A JP2022071929A JP2023161493A JP 2023161493 A JP2023161493 A JP 2023161493A JP 2022071929 A JP2022071929 A JP 2022071929A JP 2022071929 A JP2022071929 A JP 2022071929A JP 2023161493 A JP2023161493 A JP 2023161493A
Authority
JP
Japan
Prior art keywords
screen
viewer
display
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022071929A
Other languages
Japanese (ja)
Other versions
JP7118383B1 (en
Inventor
慎二 吉田
Shinji Yoshida
英起 多田
Hideki Tada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nurve Co Ltd
Original Assignee
Nurve Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nurve Co Ltd filed Critical Nurve Co Ltd
Priority to JP2022071929A priority Critical patent/JP7118383B1/en
Application granted granted Critical
Publication of JP7118383B1 publication Critical patent/JP7118383B1/en
Publication of JP2023161493A publication Critical patent/JP2023161493A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a display system or the like, which allows a viewer to easily obtain a space expansion feeling and an immersion feeling against an image reflected onto a screen.SOLUTION: A display system comprises: a content data storage part that stores image data of a content; display means of enabling a display of the content to a screen; a camera that images a face of a viewer who views the screen; a setting value storage part that stores a position relation with the screen and the camera and an angle of an optical shaft of a camera to the screen; a detection part that detects the face of the viewer from an image imaged by the camera; a relative relation calculation part that calculates a relative position relation of the face of the viewer against the screen on the basis of a position of the face of the viewer in the image, the position relation between the screen and the camera, and the relative angle; and a display control part that makes an image region of at least one part of the content display on the screen, and controls the image region in the content displayed on the screen on the basis of the relative position relation.SELECTED DRAWING: Figure 1

Description

本発明は、動画又は静止画を用いて構成されるコンテンツを表示する表示システム、表示方法、及び表示プログラムに関する。 The present invention relates to a display system, a display method, and a display program that display content configured using moving images or still images.

近年、全天球カメラや魚眼レンズにより撮影されたパノラマ画像や、3次元コンピュータグラフィックス(3DCG)で作成されたパノラマ画像又は3D画像からなるコンテンツが、ゲームなどのエンターテインメントだけでなく、観光案内や不動産の内覧、職業訓練など幅広い分野で活用されている。 In recent years, content consisting of panoramic images taken with a spherical camera or fisheye lens, or panoramic images or 3D images created using three-dimensional computer graphics (3DCG) has become popular not only for entertainment such as games, but also for tourism information and real estate. It is used in a wide range of fields, including previews and vocational training.

例えば特許文献1には、撮影装置により全天球画像を生成し、スマートフォンに出力する撮影システムが開示されている。 For example, Patent Document 1 discloses a photographing system that generates a spherical image using a photographing device and outputs it to a smartphone.

特開2017-84422号公報JP2017-84422A

一般に、テレビやディスプレイ、デジタルサイネージなどのスクリーンに表示される画像は、視聴者がどのような角度から見ても変化することはない。つまり、スクリーンを正面から見ても、下から見上げても、現実の被写体とは異なり、視聴者は同じ画像しか視認することができない。そのため、視聴者は、スクリーンに映った画像をあくまで画像として認識するに留まり、画像内の空間が現実空間と繋がっているような空間拡張感や、画像内の空間に入り込んだような没入感を持つことは困難である。 In general, images displayed on screens such as televisions, displays, and digital signage do not change no matter what angle the viewer views them from. In other words, unlike a real subject, viewers can only see the same image whether they are looking at the screen from the front or looking up from below. Therefore, the viewer only recognizes the image displayed on the screen as an image, and the viewer experiences a sense of spatial expansion, as if the space within the image is connected to real space, and a sense of immersion, as if entering the space within the image. It is difficult to have.

スマートフォンやタブレット端末、パーソナルコンピュータに接続されたディスプレイにパノラマ画像が表示されている場合、視聴者は、スワイプやドラッグ操作を行うことにより、スクリーンに表示されるパノラマ画像内の画像領域を変化させることができる(例えば特許文献1参照)。また、スマートフォン等の向きを変えることで、スクリーンに映る画像領域が変化するコンテンツも存在する。しかしながら、いずれにしても、スクリーンに映るパノラマ画像内の画像領域を変化させるためには、スワイプや端末の向きを変えるといったデバイスに対する操作が必要になるため、やはり、視聴者が空間拡張感や没入感を得ることは困難である。 When a panoramic image is displayed on a display connected to a smartphone, tablet device, or personal computer, viewers can change the image area within the panoramic image displayed on the screen by performing swipe or drag operations. (For example, see Patent Document 1). There is also content in which the image area displayed on the screen changes by changing the orientation of the smartphone or the like. However, in any case, in order to change the image area within the panoramic image displayed on the screen, operations on the device such as swiping or changing the orientation of the device are required, so it is still possible for the viewer to experience a sense of spatial expansion and immersion. It is difficult to get a feel for it.

近年では、ヘッドマウントディスプレイ又はVRゴーグルと呼ばれるゴーグル型の表示装置が普及している。このような表示装置においては、ゴーグルを装着した視聴者の頭の動きに合わせて、パノラマ画像や3D画像として表示される画像領域が変化するため、視聴者は画像への没入感を比較的容易に得ることができる。しかしながら、この場合、VRゴーグルを用意する必要が生じるため、手軽に利用できるとは言い難い。また、重さのあるVRゴーグルを装着すること自体が、視聴者にとって没入感の妨げになることもある。 In recent years, goggle-type display devices called head-mounted displays or VR goggles have become popular. In such display devices, the image area displayed as a panoramic image or 3D image changes according to the head movement of the viewer wearing goggles, so the viewer can relatively easily become immersed in the image. can be obtained. However, in this case, it is necessary to prepare VR goggles, so it is difficult to say that it can be used easily. Furthermore, wearing heavy VR goggles itself may hinder the viewer's sense of immersion.

本発明は上記に鑑みてなされたものであって、スクリーンに映った画像に対する空間拡張感や没入感を視聴者が容易に得ることができる表示システム、表示方法、及び表示プログラムを提供することを目的とする。 The present invention has been made in view of the above, and it is an object of the present invention to provide a display system, a display method, and a display program that allow viewers to easily obtain a sense of spatial expansion and immersion in images displayed on a screen. purpose.

上記課題を解決するために、本発明の一態様である表示システムは、動画又は静止画を用いて構成されるコンテンツをスクリーンに表示可能な表示手段と、前記スクリーンを見る視聴者の顔を撮像可能な位置に設置されたカメラと、前記スクリーンと前記カメラとの位置関係、及び、前記スクリーンに対する前記カメラの光軸の角度を記憶する設定値記憶部と、前記カメラにより撮像された画像から前記視聴者の顔を検出する検出部と、前記画像における前記視聴者の顔の位置と、前記スクリーンと前記カメラとの位置関係と、前記相対的な角度とに基づいて、前記スクリーンに対する前記視聴者の顔の相対的な位置関係を算出する相対関係算出部と、前記コンテンツの少なくとも一部の画像領域を前記スクリーンに表示させると共に、前記相対的な位置関係に基づいて、前記スクリーンに表示される前記コンテンツ内の画像領域を制御する表示制御部と、を備えるものである。 In order to solve the above problems, a display system that is one aspect of the present invention includes a display unit that can display content configured using moving images or still images on a screen, and an image of the face of a viewer viewing the screen. a camera installed at a possible position, a setting value storage unit that stores the positional relationship between the screen and the camera, and the angle of the optical axis of the camera with respect to the screen; a detection unit that detects the viewer's face; and a detection unit that detects the viewer's face relative to the screen based on the position of the viewer's face in the image, the positional relationship between the screen and the camera, and the relative angle. a relative relationship calculation unit that calculates a relative positional relationship between the faces of the content, and displays at least a partial image area of the content on the screen, and displays the content on the screen based on the relative positional relationship and a display control section that controls an image area within the content.

上記表示システムにおいて、前記表示制御部は、前記視聴者の顔が前記スクリーンの面と平行に移動した場合に、前記スクリーンに表示される前記コンテンツ内の画像領域を、前記視聴者の顔の移動方向と反対方向にシフトさせても良い。 In the above display system, when the viewer's face moves parallel to the surface of the screen, the display control unit controls the image area within the content displayed on the screen to It may be shifted in the opposite direction.

上記表示システムにおいて、前記コンテンツは、天球面に対応する座標が設定されたパノラマ画像であり、前記表示制御部は、前記天球面の中心に設定された仮想的なカメラの画角に含まれる画像領域を前記スクリーンに表示させると共に、該仮想的なカメラの画角の中心方向を示す方向ベクトルを、前記スクリーンの中心点から前記視聴者の顔に向かう方向ベクトルの回転方向と同じ方向に回転させても良い。 In the above display system, the content is a panoramic image in which coordinates corresponding to a celestial sphere are set, and the display control unit is configured to display an image included in an angle of view of a virtual camera set at the center of the celestial sphere. Displaying the area on the screen, and rotating a direction vector indicating the center direction of the angle of view of the virtual camera in the same direction as a rotation direction of a direction vector from the center point of the screen toward the viewer's face. It's okay.

上記表示システムにおいて、前記設定値記憶部は、さらに、前記スクリーンにおいて前記コンテンツが表示される領域である表示領域のサイズを記憶し、前記表示制御部は、前記表示領域のサイズと前記相対的な位置関係とに基づいて、前記表示領域に表示される前記コンテンツ内の画像領域を制御しても良い。 In the display system, the setting value storage further stores the size of a display area on the screen where the content is displayed, and the display control unit stores the size of the display area and the relative size of the display area. An image area within the content displayed in the display area may be controlled based on the positional relationship.

上記表示システムにおいて、前記表示制御部は、前記視聴者の顔が前記スクリーンから遠ざかった場合に、前記スクリーンに表示される前記コンテンツ内の画像領域を狭くすると共に、該画像領域のサイズを前記表示領域に合わせて拡大し、前記視聴者の顔が前記スクリーンに近づいた場合に、前記スクリーンに表示される前記コンテンツ内の画像領域を広くすると共に、該画像領域のサイズを前記表示領域に合わせて縮小しても良い。 In the display system, the display control unit narrows an image area within the content displayed on the screen when the viewer's face moves away from the screen, and also adjusts the size of the image area to the display screen. When the viewer's face approaches the screen, the image area within the content displayed on the screen is widened, and the size of the image area is adjusted to fit the display area. You can also reduce it.

上記表示システムにおいて、前記表示制御部は、前記スクリーンに表示されるコンテンツが窓越しの景色として前記視聴者に認識されるように制御を行っても良い。
上記表示システムにおいて、前記表示手段は、前記コンテンツを前記スクリーンに投影するように構成されたプロジェクタを含んでも良い。
上記表示システムにおいて、前記表示手段は、液晶パネル又は有機ELパネルを有する表示装置であっても良い。
In the above display system, the display control unit may perform control so that the content displayed on the screen is recognized by the viewer as a view through a window.
In the above display system, the display means may include a projector configured to project the content onto the screen.
In the above display system, the display means may be a display device having a liquid crystal panel or an organic EL panel.

本発明の別の態様である表示方法は、動画又は静止画を用いて構成されるコンテンツをスクリーンに表示させる表示方法であって、前記スクリーンを見る視聴者の顔を、カメラにより撮像する撮像ステップと、前記カメラにより撮像された画像から前記視聴者の顔を検出する検出ステップと、前記画像における前記視聴者の顔の位置と、前記スクリーンと前記カメラとの位置関係と、前記スクリーンに対する前記カメラの光軸の角度とに基づいて、前記スクリーンに対する前記視聴者の顔の相対的な位置関係を算出する相対関係算出ステップと、前記コンテンツの少なくとも一部の画像領域を前記スクリーンに表示させると共に、前記相対的な位置関係に基づいて、前記スクリーンに表示される前記コンテンツ内の画像領域を制御する表示制御ステップと、を含むものである。 A display method that is another aspect of the present invention is a display method that displays content composed of moving images or still images on a screen, and includes an imaging step of capturing an image of the face of a viewer viewing the screen with a camera. a detection step of detecting the viewer's face from an image captured by the camera; the position of the viewer's face in the image; the positional relationship between the screen and the camera; and the camera relative to the screen. a relative relationship calculation step of calculating the relative positional relationship of the face of the viewer with respect to the screen based on the angle of the optical axis of the screen; and displaying at least a partial image area of the content on the screen; The method further includes a display control step of controlling an image area within the content displayed on the screen based on the relative positional relationship.

本発明の別の態様である表示プログラムは、動画又は静止画を用いて構成されるコンテンツをスクリーンに表示させる表示プログラムであって、前記スクリーンを見る視聴者の顔を、カメラに撮像させる撮像ステップと、前記カメラにより撮像された画像から前記視聴者の顔を検出する検出ステップと、前記画像における前記視聴者の顔の位置と、前記スクリーンと前記カメラとの位置関係と、前記スクリーンに対する前記カメラの光軸の角度とに基づいて、前記スクリーンに対する前記視聴者の顔の相対的な位置関係を算出する相対関係算出ステップと、前記コンテンツの少なくとも一部の画像領域を前記スクリーンに表示させると共に、前記相対的な位置関係に基づいて、前記スクリーンに表示される前記コンテンツ内の画像領域を制御する表示制御ステップと、をコンピュータに実行させるものである。 A display program that is another aspect of the present invention is a display program that displays content composed of moving images or still images on a screen, and includes an imaging step of causing a camera to image the face of a viewer viewing the screen. a detection step of detecting the viewer's face from an image captured by the camera; the position of the viewer's face in the image; the positional relationship between the screen and the camera; and the camera relative to the screen. a relative relationship calculation step of calculating the relative positional relationship of the face of the viewer with respect to the screen based on the angle of the optical axis of the screen; and displaying at least a partial image area of the content on the screen; and a display control step of controlling an image area within the content displayed on the screen based on the relative positional relationship.

本発明によれば、スクリーンに対する視聴者の顔の相対的な位置関係に基づいて、スクリーンに表示されるコンテンツ内の画像領域を制御するので、視聴者は、スクリーンに映った画像に対する空間拡張感や没入感を容易に得ることが可能となる。 According to the present invention, since the image area within the content displayed on the screen is controlled based on the relative positional relationship of the viewer's face with respect to the screen, the viewer can feel a sense of spatial expansion with respect to the image displayed on the screen. It becomes possible to easily obtain a sense of immersion.

本発明の第1の実施形態に係る表示システムの概略構成を示す模式図である。1 is a schematic diagram showing a schematic configuration of a display system according to a first embodiment of the present invention. 図1に示す情報処理装置の概略的な機能構成を示すブロック図である。2 is a block diagram showing a schematic functional configuration of the information processing device shown in FIG. 1. FIG. パノラマ画像の表示原理を説明するための模式図である。FIG. 2 is a schematic diagram for explaining the display principle of a panoramic image. 窓越しの景色の見え方を示す模式図である。FIG. 2 is a schematic diagram showing how the scenery looks through the window. 窓越しの景色の見え方(視聴者が平行移動した場合)を示す模式図である。FIG. 2 is a schematic diagram showing how the scenery looks through the window (when the viewer moves in parallel). 窓越しの景色の見え方(視聴者が窓から遠ざかった場合)を示す模式図である。FIG. 2 is a schematic diagram showing how the scenery looks through the window (when the viewer moves away from the window). 窓越しの景色の見え方(視聴者が窓に近づいた場合)を示す模式図である。FIG. 2 is a schematic diagram showing how the scenery looks through the window (when the viewer approaches the window). 図1に示す情報処理装置における表示制御の動作を示すフローチャートである。2 is a flowchart showing display control operations in the information processing apparatus shown in FIG. 1. FIG. スクリーンに対する視聴者の相対的な位置関係を説明するための模式図である。FIG. 3 is a schematic diagram for explaining the relative positional relationship of a viewer to a screen. パノラマ画像の表示における初期設定状態を例示する模式図である。FIG. 3 is a schematic diagram illustrating an initial setting state in displaying a panoramic image. カメラが視聴者を撮像することにより得られる画像を例示する模式図である。FIG. 2 is a schematic diagram illustrating an image obtained by capturing an image of a viewer with a camera. 図1に示す表示システムにおける表示制御(視聴者が平行移動した場合)を説明するための模式図である。2 is a schematic diagram for explaining display control (when a viewer moves in parallel) in the display system shown in FIG. 1. FIG. 図1に示す表示システムにおける表示制御(視聴者がスクリーンから遠ざかった場合)を説明するための模式図である。FIG. 2 is a schematic diagram for explaining display control in the display system shown in FIG. 1 (when the viewer moves away from the screen). 図1に示す表示システムにおける表示制御(視聴者がスクリーンに近づいた場合)を説明するための模式図である。2 is a schematic diagram for explaining display control (when a viewer approaches a screen) in the display system shown in FIG. 1. FIG. 本発明の第2の実施形態に係る表示システムの概略構成を示す模式図である。FIG. 2 is a schematic diagram showing a schematic configuration of a display system according to a second embodiment of the present invention. 本発明の第3の実施形態に係る表示システムの概略構成を示す模式図である。FIG. 2 is a schematic diagram showing a schematic configuration of a display system according to a third embodiment of the present invention. 図16に示す表示システムの概略的な機能構成を示すブロック図である。17 is a block diagram showing a schematic functional configuration of the display system shown in FIG. 16. FIG.

以下、本発明の実施形態に係る画表示システム、表示方法、及び表示プログラムについて、図面を参照しながら説明する。なお、これらの実施形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An image display system, a display method, and a display program according to embodiments of the present invention will be described below with reference to the drawings. Note that the present invention is not limited to these embodiments. In addition, in the description of each drawing, the same parts are denoted by the same reference numerals.

(第1の実施形態)
図1は、本発明の第1の実施形態に係る表示システムを示す模式図である。図1に示すように、本実施形態に係る表示システム1は、動画又は静止画を用いて構成されるコンテンツ(画像)をスクリーンに表示可能な表示手段10と、画像が表示される画面を見る視聴者100の顔を撮像可能な位置に設置されたカメラ20と、表示手段10に画像データを出力してコンテンツを表示させる情報処理装置30とを備える。
(First embodiment)
FIG. 1 is a schematic diagram showing a display system according to a first embodiment of the present invention. As shown in FIG. 1, a display system 1 according to the present embodiment includes a display unit 10 capable of displaying content (images) composed of moving images or still images on a screen, and a screen on which images are displayed. It includes a camera 20 installed at a position where it can image the face of the viewer 100, and an information processing device 30 that outputs image data to the display means 10 to display content.

本実施形態において、表示手段10は、情報処理装置30から出力される画像データに基づいて、スクリーン12に画像を投影するプロジェクタ11を含む。図1においては、平面状のスクリーン12を図示しているが、スクリーンの形状は平面状に限定されず、例えば、円柱側面状、球面状、非球面状のように、凸状又凹状に湾曲していても良い。また、プロジェクタ11は、スクリーン12の代わりに、建物の壁などに画像を投影しても良い。 In this embodiment, the display means 10 includes a projector 11 that projects an image onto the screen 12 based on image data output from the information processing device 30. Although a planar screen 12 is shown in FIG. 1, the shape of the screen is not limited to a planar shape. It's okay to do so. Further, the projector 11 may project an image onto a building wall or the like instead of the screen 12.

スクリーン12において画像が表示(投影)される領域である表示領域Scのサイズは、プロジェクタ11とスクリーン12との距離及びプロジェクタ11からの投影角により決定される。投影角は、プロジェクタ11に対する操作又は情報処理装置30によるプロジェクタ11に対する制御により調整することができる。 The size of the display area Sc, which is an area where an image is displayed (projected) on the screen 12, is determined by the distance between the projector 11 and the screen 12 and the projection angle from the projector 11. The projection angle can be adjusted by operating the projector 11 or controlling the projector 11 by the information processing device 30.

カメラ20は、CCDやCMOS等の固体撮像素子を有し、動画撮影が可能なデジタルカメラである。カメラ20は、被写体を撮像することにより画像信号を生成し、該画像信号をデジタル変換して情報処理装置30に出力する。カメラ20は、USB(Universal Serial Bus)等により情報処理装置30と有線で接続されていても良いし、Wi-Fi(Wireless Fidelity)、Bluetooth(登録商標)等の無線通信により接続されていても良い。 The camera 20 is a digital camera that includes a solid-state imaging device such as a CCD or CMOS and is capable of capturing moving images. The camera 20 generates an image signal by capturing an image of a subject, converts the image signal into a digital signal, and outputs the converted image signal to the information processing device 30 . The camera 20 may be connected to the information processing device 30 by wire using a USB (Universal Serial Bus) or the like, or may be connected via wireless communication such as Wi-Fi (Wireless Fidelity) or Bluetooth (registered trademark). good.

カメラ20のスペックは、例えば、歩く、顔を動かすといった視聴者100の通常の動作を検知可能な程度のフレームレートと、画像処理により視聴者100の顔101を検出可能な程度の解像度を有していれば、特に限定されない。例えば、カメラ20として、汎用のウェブカメラを使用しても良い。また、後述するように、スマートフォンやタブレット端末等に内蔵されているカメラを使用しても良い。 The specs of the camera 20 include, for example, a frame rate high enough to detect normal movements of the viewer 100 such as walking and moving the face, and a resolution high enough to detect the face 101 of the viewer 100 through image processing. There is no particular limitation if it is. For example, a general-purpose web camera may be used as the camera 20. Furthermore, as will be described later, a camera built into a smartphone, tablet terminal, or the like may be used.

なお、図1において、カメラ20はスクリーン12の上部に設置されているが、カメラ20の位置は、スクリーン12を見る視聴者100の顔101を撮像可能な位置であれば特に限定されない。例えば、スクリーン12の側方や下方にカメラ20を設置しても良いし、スクリーン12から離れた位置にカメラ20を設置しても良い。 Although the camera 20 is installed above the screen 12 in FIG. 1, the position of the camera 20 is not particularly limited as long as it can capture the face 101 of the viewer 100 viewing the screen 12. For example, the camera 20 may be installed on the side or below the screen 12, or the camera 20 may be installed at a position away from the screen 12.

情報処理装置30は、例えば、パーソナルコンピュータ(PC)、ノートPC、タブレット端末等の汎用のコンピュータによって構成することができる。情報処理装置30は、動画又は静止画を用いて構成されるコンテンツを表示するための画像データ(以下、コンテンツデータともいう)に基づいて、表示手段10にコンテンツを表示させると共に、カメラ20から入力された画像信号に基づいて、表示手段10におけるコンテンツの表示を制御する。情報処理装置30は、表示手段10(図1においてはプロジェクタ11)と有線で接続されていても良いし、無線接続されていても良い。 The information processing device 30 can be configured by, for example, a general-purpose computer such as a personal computer (PC), a notebook PC, or a tablet terminal. The information processing device 30 causes the display means 10 to display content based on image data (hereinafter also referred to as content data) for displaying content configured using moving images or still images, and also displays content from the camera 20. The display of the content on the display means 10 is controlled based on the image signal thus obtained. The information processing device 30 may be connected to the display means 10 (projector 11 in FIG. 1) by wire or wirelessly.

図2は、情報処理装置30の概略的な機能構成を示すブロック図である。図2に示すように、情報処理装置30は、外部インタフェース31と、記憶部32と、プロセッサ33とを備える。また、情報処理装置30は、表示部34及び操作入力部35を備えても良い。 FIG. 2 is a block diagram showing a schematic functional configuration of the information processing device 30. As shown in FIG. As shown in FIG. 2, the information processing device 30 includes an external interface 31, a storage section 32, and a processor 33. Further, the information processing device 30 may include a display section 34 and an operation input section 35.

外部インタフェース31は、情報処理装置30を外部機器と接続し、外部機器との間でデータを送受信するインタフェースである。また、情報処理装置30がプロジェクタ11又はカメラ20と無線接続される場合には、情報処理装置30は、当該情報処理装置30をLAN、電気通信回線等の通信ネットワークに接続し、通信ネットワークに接続された他の機器との間で通信を行う通信インタフェースを備えても良い。通信インタフェースは、例えばソフトモデム、ケーブルモデム、無線モデム、ADSLモデム等を用いて構成することができる。 The external interface 31 is an interface that connects the information processing device 30 to an external device and transmits and receives data to and from the external device. Further, when the information processing device 30 is wirelessly connected to the projector 11 or the camera 20, the information processing device 30 connects the information processing device 30 to a communication network such as a LAN or a telecommunications line, and connects the information processing device 30 to the communication network. The device may also include a communication interface for communicating with other devices. The communication interface can be configured using, for example, a soft modem, cable modem, wireless modem, ADSL modem, or the like.

記憶部32は、例えばROM、RAM等の半導体メモリやハードディスクなどのコンピュータ読取可能な記憶媒体を用いて構成することができる。記憶部32は、プログラム記憶部321、コンテンツデータ記憶部322、及び、設定値記憶部323を含む。プログラム記憶部321は、オペレーティングシステムプログラム、ドライバプログラム、及び、各種機能を実行するアプリケーションプログラムや、これらのプログラムの実行中に使用される各種パラメータ等を記憶する。具体的には、プログラム記憶部321は、表示手段10におけるコンテンツの表示を制御するための表示プログラムを記憶する。 The storage unit 32 can be configured using, for example, a semiconductor memory such as ROM or RAM, or a computer-readable storage medium such as a hard disk. The storage section 32 includes a program storage section 321 , a content data storage section 322 , and a setting value storage section 323 . The program storage unit 321 stores operating system programs, driver programs, application programs that execute various functions, and various parameters used during execution of these programs. Specifically, the program storage unit 321 stores a display program for controlling the display of content on the display means 10.

コンテンツデータ記憶部322は、動画又は静止画を用いて構成されるコンテンツの画像データを記憶する。本実施形態においては、コンテンツとして、Equirectangular形式(正距円筒図法)で生成された画像データに基づいて表示されるパノラマ画像を例として説明する。また、コンテンツデータ記憶部322は、コンテンツと共に出力される音声のデータを記憶しても良い。 The content data storage unit 322 stores image data of content configured using moving images or still images. In this embodiment, a panoramic image displayed based on image data generated in Equirectangular format (equirectangular projection) will be described as an example of content. Furthermore, the content data storage unit 322 may store audio data that is output together with the content.

設定値記憶部323は、プログラム記憶部321に記憶された表示プログラムの実行中に使用される各種設定値やパラメータを記憶する。設定値記憶部323に記憶される設定値としては、スクリーン12における表示領域Scのサイズ、スクリーン12とカメラ20との位置関係、スクリーン12に対するカメラ20の光軸の角度等が挙げられる。なお、スクリーンが曲面状である場合には、スクリーンの中心点における法線に対するカメラ20の光軸の角度を設定値として記憶しても良い。 The setting value storage unit 323 stores various setting values and parameters used during execution of the display program stored in the program storage unit 321. The setting values stored in the setting value storage section 323 include the size of the display area Sc on the screen 12, the positional relationship between the screen 12 and the camera 20, the angle of the optical axis of the camera 20 with respect to the screen 12, and the like. Note that when the screen is curved, the angle of the optical axis of the camera 20 with respect to the normal line at the center point of the screen may be stored as a set value.

プロセッサ33は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いて構成され、プログラム記憶部321に記憶された各種プログラムを読み込むことにより、情報処理装置30の各部を統括的に制御すると共に、コンテンツをスクリーン12に表示するための各種演算処理を実行する。プロセッサ33がプログラム記憶部321に記憶された表示プログラムを読み込むことにより実現される機能部としては、画像生成部331、検出部332、相対関係算出部333、及び、表示制御部334が含まれる。 The processor 33 is configured using, for example, a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), and centrally controls each part of the information processing device 30 by reading various programs stored in the program storage unit 321. At the same time, various calculation processes for displaying the content on the screen 12 are executed. Functional units realized by the processor 33 reading the display program stored in the program storage unit 321 include an image generation unit 331, a detection unit 332, a relative relationship calculation unit 333, and a display control unit 334.

画像生成部331は、カメラ20から入力された画像信号に基づいて画像を生成する。
検出部332は、画像生成部331により生成された画像に対して顔検出処理を実行することにより、該画像から視聴者の顔を検出し、該画像における顔の位置(座標)を出力する。
The image generation unit 331 generates an image based on the image signal input from the camera 20.
The detection unit 332 detects the face of the viewer from the image by performing face detection processing on the image generated by the image generation unit 331, and outputs the position (coordinates) of the face in the image.

相対関係算出部333は、視聴者が写った画像における顔の位置と、スクリーン12とカメラ20との位置関係と、スクリーン12に対するカメラの光軸Lの角度とに基づいて、スクリーン12に対する視聴者100の顔101の相対的な位置関係を算出する。 The relative relationship calculation unit 333 calculates the viewer's relative position relative to the screen 12 based on the position of the viewer's face in the image, the positional relationship between the screen 12 and the camera 20, and the angle of the optical axis L of the camera relative to the screen 12. The relative positional relationship of 100 faces 101 is calculated.

表示制御部334は、コンテンツ(例えばパノラマ画像)の少なくとも一部の領域をスクリーン12に表示させると共に、スクリーン12に対する視聴者100の顔101の相対的な位置関係に基づいて、該スクリーン12に表示されるコンテンツ内の画像領域を制御する。 The display control unit 334 causes at least a part of the content (for example, a panoramic image) to be displayed on the screen 12, and also controls the display on the screen 12 based on the relative positional relationship of the face 101 of the viewer 100 with respect to the screen 12. control the image area within the content that is displayed.

表示部34は、例えば液晶ディスプレイ又は有機ELディスプレイである。操作入力部35は、キーボード、マウスなどのポインティングデバイス、表示部34に設けられたタッチパネル等の入力デバイスであり、情報処理装置30に対する入力操作を受け付ける。 The display unit 34 is, for example, a liquid crystal display or an organic EL display. The operation input unit 35 is an input device such as a keyboard, a pointing device such as a mouse, or a touch panel provided on the display unit 34, and accepts input operations for the information processing device 30.

図3は、パノラマ画像の表示原理を説明するための模式図である。Equirectangular形式で生成されたパノラマ画像の画像データにおいては、図3の(a)に示すように、全球又は半球部分の内面に動画又は静止画である画像Imが貼り付けられた天球面Spに対応する座標が設定されている。このような天球面Spの中心に仮想的なカメラCvを配置し、このカメラCvで天球面Spの内面を撮像したとした場合にカメラCvの画角Fvに入る画像領域が、図3の(b)に示すように、スクリーン12の表示領域Scに表示される。表示制御部334は、スクリーン12に対する視聴者100の顔の相対的な位置関係に基づき、カメラCvの画角Fvの大きさ及び向きを変化させることにより、表示領域Scにおけるコンテンツの表示制御を行う。 FIG. 3 is a schematic diagram for explaining the display principle of a panoramic image. In the image data of a panoramic image generated in the Equirectangular format, as shown in FIG. The coordinates have been set. If a virtual camera Cv is placed at the center of such a celestial sphere Sp and this camera Cv captures an image of the inner surface of the celestial sphere Sp, the image area that falls within the field of view Fv of the camera Cv is ( As shown in b), it is displayed in the display area Sc of the screen 12. The display control unit 334 controls the display of content in the display area Sc by changing the size and direction of the viewing angle Fv of the camera Cv based on the relative positional relationship of the face of the viewer 100 with respect to the screen 12. .

次に、図4~図7を参照しながら、視聴者が窓越しに外の景色を見る場合の見え方について説明する。図4~図7は、窓越しの景色の見え方を示す模式図である。このうち、図5は、図4に示す状態に対し、視聴者100が窓Wの面と平行に移動した場合を示す。図6は、視聴者100が窓Wから遠ざかった場合を示す。図7は、視聴者100が窓Wに近づいた場合を示す。また、図4~図7の(a)は、視聴者100を頭頂部から見た場合の視聴者100と窓Wとの位置関係を示し、図4~図7の(b)は、視聴者100から見た窓Wの外の景色を示す。 Next, with reference to FIGS. 4 to 7, a description will be given of how the viewer views the outside scenery through the window. FIGS. 4 to 7 are schematic diagrams showing how the scenery looks through the window. Among these, FIG. 5 shows a case where the viewer 100 moves parallel to the surface of the window W compared to the state shown in FIG. FIG. 6 shows a case where the viewer 100 moves away from the window W. FIG. 7 shows a case where the viewer 100 approaches the window W. 4 to 7 (a) show the positional relationship between the viewer 100 and the window W when the viewer 100 is viewed from the top of the head, and FIGS. 4 to 7 (b) show the positional relationship between the viewer 100 and the window W. The view outside the window W seen from 100 is shown.

図4の(a)に示すように、視聴者100が窓Wの内側に居る場合、視聴者100は、図4の(b)に示すように、視聴者100と窓Wとの距離D0と、窓のサイズ(幅X、高さY)とによって決まる窓枠内の視界Vに入る外の景色Snを眺めることができる。 As shown in (a) of FIG. 4, when the viewer 100 is inside the window W, the viewer 100 is able to understand the distance D0 between the viewer 100 and the window W, as shown in (b) of FIG. , the outside scenery Sn can be seen within the field of view V within the window frame determined by the size of the window (width X, height Y).

これに対し、図5に示すように、視聴者100が窓Wとの距離D0を保ったまま平行移動すると、窓枠内の視界Vに入る外の景色Snは、視聴者100の移動方向と反対方向にシフトする。例えば、図5の(a)に示すように、視聴者100が窓Wに対して右方に移動すると、視聴者100から見て左方の景色Snが視界Vに入ってくる一方、右方の景色Snは窓枠に遮られて見えなくなる。 On the other hand, as shown in FIG. 5, when the viewer 100 moves in parallel while maintaining the distance D0 from the window W, the outside scenery Sn that enters the field of view V within the window frame will be different from the direction in which the viewer 100 is moving. Shift in the opposite direction. For example, as shown in (a) of FIG. 5, when the viewer 100 moves to the right with respect to the window W, the scenery Sn on the left as seen from the viewer 100 comes into the field of view V, while the view on the right The view Sn is blocked by the window frame and cannot be seen.

また、図6及び図7に示すように、視聴者100と窓Wとの距離が変化すると、両者の距離に応じて、窓枠内の視界Vに入る外の景色Snが変化する。例えば、図6の(a)に示すように、視聴者100が窓Wから遠ざかると(距離D0<D1)、図6の(b)に示すように、遠近感から、視聴者100の位置から見た窓Wのサイズが小さくなると共に、窓枠内の視界Vに入る外の景色Snの範囲が狭くなる。反対に、図7の(a)に示すように、視聴者100が窓Wに近づくと(距離D0>D2)、図7の(b)に示すように、遠近感から、視聴者100の位置から見た窓Wが大きくなると共に、窓枠内の視界Vに入る景色Snの範囲が広くなる。 Further, as shown in FIGS. 6 and 7, when the distance between the viewer 100 and the window W changes, the outside scenery Sn that falls within the field of view V within the window frame changes according to the distance between the two. For example, as shown in (a) of FIG. 6, when the viewer 100 moves away from the window W (distance D0<D1), as shown in (b) of FIG. As the size of the viewed window W becomes smaller, the range of the outside scenery Sn that falls within the field of view V within the window frame becomes narrower. On the other hand, as shown in (a) of FIG. 7, when the viewer 100 approaches the window W (distance D0>D2), the position of the viewer 100 changes due to perspective, as shown in (b) of FIG. As the window W seen from above becomes larger, the range of scenery Sn that falls within the field of view V within the window frame becomes wider.

本実施形態に係る表示方法は、スクリーン12における表示領域Scを窓Wに見立て、表示領域Scに表示されるコンテンツが、図4~図7で示したような窓越しの景色として視聴者100に認識されるように、表示制御を行うものである。 In the display method according to the present embodiment, the display area Sc on the screen 12 is likened to a window W, and the content displayed in the display area Sc is presented to the viewer 100 as a view through the window as shown in FIGS. 4 to 7. It controls the display so that it is recognized.

図8は、情報処理装置30による表示制御の動作を示すフローチャートである。図9は、スクリーン12に対する視聴者100の相対的な位置関係を説明するための模式図である。図10は、パノラマ画像の表示における初期設定状態を例示する模式図である。このうち、図10の(a)は、頭頂部から見た視聴者100とスクリーン12との位置関係を示し、図10の(b)は、パノラマ画像が貼り付けられた天球面Spの水平方向における断面を示し、図10の(c)は、スクリーン12の表示領域Scに表示されるコンテンツ内の画像領域を示す。図11は、カメラ20が視聴者100を撮像することにより得られる画像を例示する模式図である。 FIG. 8 is a flowchart showing the operation of display control by the information processing device 30. FIG. 9 is a schematic diagram for explaining the relative positional relationship of the viewer 100 with respect to the screen 12. FIG. 10 is a schematic diagram illustrating an initial setting state in displaying a panoramic image. Of these, FIG. 10(a) shows the positional relationship between the viewer 100 and the screen 12 as seen from the top of the head, and FIG. 10(b) shows the horizontal direction of the celestial sphere Sp to which the panoramic image is pasted. FIG. 10C shows an image area within the content displayed in the display area Sc of the screen 12. FIG. FIG. 11 is a schematic diagram illustrating an image obtained when the camera 20 images the viewer 100.

まず、情報処理装置30は、初期設定を行う(ステップS10)。詳細には、情報処理装置30は、スクリーン12の表示領域Scの中心を原点とし、スクリーン12の水平方向をx軸、スクリーン12の垂直方向をy軸、スクリーン12の法線方向をz軸とするスクリーン座標系Oを設定する。そして、情報処理装置30は、スクリーン座標系Oにおけるカメラ20の座標(xc,yc,zc)と、スクリーン12の法線に対するカメラ20の光軸Lの相対的な角度(θ,φ)と、表示領域Scのサイズ(幅w0、高さh0)を設定する。ここで、角度θは、水平面(xz面)における角度(即ちy軸回りの角度)を示し、角度φは、垂直面(yz面)における角度(即ちx軸回りの角度)を示す。 First, the information processing device 30 performs initial settings (step S10). Specifically, the information processing device 30 uses the center of the display area Sc of the screen 12 as the origin, the horizontal direction of the screen 12 as the x axis, the vertical direction of the screen 12 as the y axis, and the normal direction of the screen 12 as the z axis. Set the screen coordinate system O. Then, the information processing device 30 determines the coordinates (xc, yc, zc) of the camera 20 in the screen coordinate system O, the relative angle (θ, φ) of the optical axis L of the camera 20 with respect to the normal to the screen 12, Set the size (width w0, height h0) of the display area Sc. Here, the angle θ indicates an angle in a horizontal plane (xz plane) (that is, an angle around the y axis), and the angle φ indicates an angle in a vertical plane (yz plane) (that is, an angle around the x axis).

また、情報処理装置30は、コンテンツとして表示されるパノラマ画像の座標系における設定を行う。詳細には、情報処理装置30は、図10の(a)に示すように、表示領域Scの中心点における法線上であって、スクリーン12から任意の距離d0だけ離れた位置(0,0,d0)を、スクリーン座標系Oにおける視聴者100の顔101の座標の初期値として設定する。そして、表示領域Scの幅w0(図9参照)に基づいて、視聴者100がこの位置(0,0,d0)から表示領域Scを臨む水平方向の角度a0を、天球面Spの水平方向における画角Fvの大きさとして設定する(図10の(b)参照)。天球面Spの垂直方向の画角についても、表示領域Scの高さh0に基づいて同様に設定される。 The information processing device 30 also performs settings in the coordinate system of a panoramic image displayed as content. Specifically, as shown in FIG. 10(a), the information processing device 30 is located at a position (0, 0, d0) is set as the initial value of the coordinates of the face 101 of the viewer 100 in the screen coordinate system O. Then, based on the width w0 of the display area Sc (see FIG. 9), the horizontal angle a0 at which the viewer 100 faces the display area Sc from this position (0, 0, d0) is determined in the horizontal direction of the celestial sphere Sp. This is set as the size of the angle of view Fv (see (b) in FIG. 10). The viewing angle in the vertical direction of the celestial sphere Sp is similarly set based on the height h0 of the display area Sc.

また、情報処理装置30は、図10の(b)に示すように、天球面Spにおける仮想的なカメラCvの光軸方向、即ち、画角Fvの中心方向を示す方向ベクトルCを、天球面Sp上の基準点c0に合わせる。 Further, as shown in FIG. 10(b), the information processing device 30 converts the direction vector C indicating the optical axis direction of the virtual camera Cv on the celestial sphere Sp, that is, the center direction of the angle of view Fv, to the celestial sphere. Align with reference point c0 on Sp.

さらに、情報処理装置30は、スクリーン座標系Oの中心から視聴者100の顔101に向かう方向ベクトルVを、カメラCvの方向ベクトルCと関連づける。 Further, the information processing device 30 associates a direction vector V from the center of the screen coordinate system O toward the face 101 of the viewer 100 with a direction vector C of the camera Cv.

これにより、天球面Spにおいて基準点c0を中心とする画角Fvに含まれる画像領域が、スクリーン12の表示領域Scに表示される範囲として初期設定される(図10の(c)参照)。なお、スクリーン12における画像表示は、カメラ20により視聴者100の撮像が開始された後から開始することとしても良い。 Thereby, the image area included in the angle of view Fv centered on the reference point c0 on the celestial sphere Sp is initially set as the range displayed in the display area Sc of the screen 12 (see (c) in FIG. 10). Note that image display on the screen 12 may start after the camera 20 starts capturing an image of the viewer 100.

続いて、情報処理装置30は、カメラ20により撮像された画像から視聴者の顔を検出し、画像における顔の座標を取得する(ステップS20)。詳細には、図11に示すように、画像処理装置30の画像生成部331が、カメラ20から取り込まれた画像信号に基づいて、画像M1を生成する。この画像M1に対し、検出部332が、顔検出処理を実行することにより顔M2を検出し、画像M1における顔M2の座標(xf,yf,zf)を出力する。画像M1における顔M2の座標は、例えば、顔M2の領域を示す枠M3の中心座標であっても良いし、両目の中間座標など特定の被写体の位置を示す座標であっても良い。顔検出処理としては、公知の種々の手法を用いることができ、一般公開されているライブラリを読み込んでも良い。なお、本実施形態における顔検出処理は、画像M1における顔M2の位置を検知するために行われるため、図11に例示する画像M1は特に表示する必要はない。 Subsequently, the information processing device 30 detects the viewer's face from the image captured by the camera 20, and obtains the coordinates of the face in the image (step S20). Specifically, as shown in FIG. 11, the image generation unit 331 of the image processing device 30 generates the image M1 based on the image signal captured from the camera 20. The detection unit 332 detects the face M2 by performing face detection processing on the image M1, and outputs the coordinates (xf, yf, zf) of the face M2 in the image M1. The coordinates of the face M2 in the image M1 may be, for example, the center coordinates of the frame M3 indicating the area of the face M2, or may be the coordinates indicating the position of a specific subject, such as the intermediate coordinates of both eyes. Various known methods can be used for the face detection process, and a publicly available library may be read. Note that the face detection process in this embodiment is performed to detect the position of the face M2 in the image M1, so the image M1 illustrated in FIG. 11 does not particularly need to be displayed.

続いて、情報処理装置30は、画像M1における顔M2の位置(xf,yf,zf)と、スクリーン12に対するカメラ20の座標(xc,yc,zc)と、スクリーン12の法線に対するカメラの光軸Lの相対的な角度(θ,φ)とに基づいて、スクリーン12に対する視聴者100の顔101の相対座標(xf’,yf’,zy’)を算出する(ステップS30、図9参照)。詳細には、相対関係算出部333が、カメラ座標系における顔101の座標(即ち、画像M1における顔M2の座標)を、スクリーン座標系Oにおける顔101の座標に変換する。座標変換としては、アフィン変換などの公知の手法を用いることができる。 Subsequently, the information processing device 30 calculates the position (xf, yf, zf) of the face M2 in the image M1, the coordinates (xc, yc, zc) of the camera 20 with respect to the screen 12, and the light of the camera with respect to the normal line of the screen 12. The relative coordinates (xf', yf', zy') of the face 101 of the viewer 100 with respect to the screen 12 are calculated based on the relative angle (θ, φ) of the axis L (step S30, see FIG. 9). . Specifically, the relative relationship calculation unit 333 converts the coordinates of the face 101 in the camera coordinate system (that is, the coordinates of the face M2 in the image M1) to the coordinates of the face 101 in the screen coordinate system O. As the coordinate transformation, a known method such as affine transformation can be used.

続いて、情報処理装置30は、スクリーン12に対する視聴者100の顔101の相対座標の変化に基づいて、天球面Spにおける仮想的なカメラCvの方向ベクトルCの向き又は画角Fvの大きさを調整する(ステップS40)。 Subsequently, the information processing device 30 determines the direction of the direction vector C of the virtual camera Cv on the celestial sphere Sp or the size of the angle of view Fv based on the change in the relative coordinates of the face 101 of the viewer 100 with respect to the screen 12. Adjust (step S40).

さらに、情報処理装置30は、調整後の画角Fvに含まれる画像領域に対応する画像データをプロジェクタ11に出力し、該画像データに基づいてコンテンツをスクリーン12に表示させる(ステップS50)。 Further, the information processing device 30 outputs image data corresponding to the image area included in the adjusted viewing angle Fv to the projector 11, and displays the content on the screen 12 based on the image data (step S50).

図12~図14は、表示システム1における表示制御を説明するための模式図である。このうち、図12は、図10に示す初期設定の状態に対し、視聴者100がスクリーン12の面と平行に移動した場合を示す。図13は、視聴者100がスクリーン12から遠ざかった場合を示す。図14は、視聴者100がスクリーン12に近づいた場合を示す。また、図12~図14の(a)は、頭頂部から見た視聴者100とスクリーン12との位置関係を示し、図12~図14の(b)は、パノラマ画像が貼り付けられた天球面Spの水平方向における断面を示し、図12~図14の(c)は、スクリーン12の表示領域Scに表示されるコンテンツ内の画像領域を示す。 12 to 14 are schematic diagrams for explaining display control in the display system 1. Among these, FIG. 12 shows a case where the viewer 100 moves parallel to the surface of the screen 12 with respect to the initial setting state shown in FIG. FIG. 13 shows a case where the viewer 100 moves away from the screen 12. FIG. 14 shows a case where the viewer 100 approaches the screen 12. 12 to 14 (a) show the positional relationship between the viewer 100 and the screen 12 as seen from the top of the head, and FIGS. 12 to 14 (b) show the screen 12 on which the panoramic image is pasted. 12 to 14 (c) show an image area within the content displayed in the display area Sc of the screen 12. FIG.

例えば、図12の(a)に示すように、視聴者100の顔101が、スクリーン12との距離を保ったまま、右方向に平行移動した場合、表示制御部334は、図12の(b)に示すように、顔101の移動方向とは反対方向(左方向)に、画角Fvをシフトさせる。これにより、図12の(c)に示すように、顔101の動きに合わせて、表示領域Scに表示される画像領域が変化する。それにより、視聴者100は、窓越しに外の景色を見ながら自身が平行移動した場合と同様に(図5参照)、表示領域Scに表示されるコンテンツを認識することができる。 For example, as shown in (a) of FIG. 12, when the face 101 of the viewer 100 moves in parallel to the right while maintaining the distance from the screen 12, the display control unit 334 ), the angle of view Fv is shifted in the direction opposite to the moving direction of the face 101 (to the left). Thereby, as shown in FIG. 12C, the image area displayed in the display area Sc changes in accordance with the movement of the face 101. Thereby, the viewer 100 can recognize the content displayed in the display area Sc in the same way as when the viewer 100 moves in parallel while looking at the outside scenery through the window (see FIG. 5).

天球面Spにおけるベクトルの処理としては、顔101の移動により、表示領域Scの中心から顔101に向かう方向ベクトルVの向きが変化すると、表示制御部334は、方向ベクトルVの変化を、カメラCvの光軸方向を示す方向ベクトルCに反映させる。具体的には、水平面(xz面)における顔101の移動により、方向ベクトルVがy軸周りに反時計回りに回転すると、表示制御部334は、天球面Spの水平面において、方向ベクトルVの回転方向と同じ方向に、方向ベクトルCを回転させる。それにより、画角Fvが顔101の移動方向と反対方向にシフトする。顔101が垂直方向に移動した場合も同様である。 As for vector processing on the celestial sphere Sp, when the direction of the direction vector V from the center of the display area Sc toward the face 101 changes due to the movement of the face 101, the display control unit 334 converts the change in the direction vector V into the camera Cv. This is reflected in the direction vector C indicating the optical axis direction of. Specifically, when the direction vector V rotates counterclockwise around the y-axis due to movement of the face 101 in the horizontal plane (xz plane), the display control unit 334 rotates the direction vector V in the horizontal plane of the celestial sphere Sp. Rotate the direction vector C in the same direction as the direction. Thereby, the angle of view Fv shifts in the direction opposite to the moving direction of the face 101. The same applies when the face 101 moves in the vertical direction.

カメラCvの方向ベクトルCの回転量は、顔101の方向ベクトルVの回転量と同じであっても良いし、方向ベクトルVの回転量に所定の係数kを積算した量であっても良い。後者とする場合、表示制御部334は、顔101の水平方向への移動に関し、移動後における方向ベクトルVをxz面に投影した射影ベクトルを求め、スクリーン12の法線ベクトルNに対する射影ベクトルの角度|Δa|を算出する。そして、この角度|Δa|に係数kを積算した角度|k・Δa|だけ、カメラCvの方向ベクトルCを基準点0の方向から回転させる。また、表示制御部334は、顔101の垂直方向への移動に関し、方向ベクトルVをyz面に投影した投影ベクトルを求めて同様に処理する。 The amount of rotation of the direction vector C of the camera Cv may be the same as the amount of rotation of the direction vector V of the face 101, or may be the amount obtained by multiplying the amount of rotation of the direction vector V by a predetermined coefficient k. In the latter case, regarding the movement of the face 101 in the horizontal direction, the display control unit 334 obtains a projection vector by projecting the direction vector V after the movement onto the xz plane, and calculates the angle of the projection vector with respect to the normal vector N of the screen 12. Calculate |Δa|. Then, the direction vector C of the camera Cv is rotated from the direction of the reference point 0 by an angle |k·Δa| obtained by multiplying this angle |Δa| by a coefficient k. Furthermore, regarding the movement of the face 101 in the vertical direction, the display control unit 334 obtains a projection vector by projecting the direction vector V onto the yz plane and performs similar processing.

ここで、表示領域Scが視聴者100に比べて非常に大きい場合、顔101の位置変化が相対的に小さくなるため、表示領域Scにおける画像領域の変化は僅かなものとなる。このような場合、視聴者100は、自身の動きに対し、表示領域Scにおける画像領域の変化を認識しにくくなる。反対に、表示領域Scが視聴者100に比べて小さい場合、顔101の位置変化が相対的に大きくなるため、視聴者100の僅かな動きに対しても、表示領域Scにおいて画像領域が大きく変化してしまう。そこで、上述したように、係数kを用いて方向ベクトルVの回転量をスケールすることにより、視聴者100が自然と感じられるように、表示領域Scにおいて画像領域を変化させることができる。 Here, if the display area Sc is much larger than the viewer 100, the change in the position of the face 101 will be relatively small, and therefore the change in the image area in the display area Sc will be slight. In such a case, it becomes difficult for the viewer 100 to recognize changes in the image area in the display area Sc with respect to his or her own movements. On the other hand, when the display area Sc is smaller than the viewer 100, the change in the position of the face 101 becomes relatively large, so even a slight movement of the viewer 100 causes a large change in the image area in the display area Sc. Resulting in. Therefore, as described above, by scaling the amount of rotation of the direction vector V using the coefficient k, it is possible to change the image area in the display area Sc in a way that feels natural to the viewer 100.

図13の(a)に示すように、視聴者100がスクリーン12から遠ざかった場合、表示制御部334は、移動後の視聴者100とスクリーン12との距離d1を取得する。そして、表示領域Scの幅w0と距離d1とに基づき、視聴者100が表示領域Scを臨む角度a1を算出し、図13の(b)に示すように、この角度a1を水平方向における画角Fvとして設定する。ここで、視聴者100とスクリーン12との距離d1が大きくなると、移動前(図10参照)と比べて画角Fvが小さくなるため、表示制御部334は、図13の(c)に示すように、狭くなった画角Fvに含まれる画像領域を、表示領域Scのサイズに合わせて拡大して表示する。垂直方向についても同様である。 As shown in (a) of FIG. 13, when the viewer 100 moves away from the screen 12, the display control unit 334 acquires the distance d1 between the viewer 100 and the screen 12 after the movement. Then, based on the width w0 and distance d1 of the display area Sc, an angle a1 at which the viewer 100 faces the display area Sc is calculated, and as shown in FIG. Set as Fv. Here, as the distance d1 between the viewer 100 and the screen 12 increases, the viewing angle Fv becomes smaller compared to before the movement (see FIG. 10). Then, the image area included in the narrowed angle of view Fv is enlarged and displayed in accordance with the size of the display area Sc. The same applies to the vertical direction.

視聴者100がスクリーン12から遠ざかると、遠近感から、視聴者100の位置から見た表示領域Scのサイズが小さくなる。つまり、小さく見える表示領域Scに、拡大された画像領域が表示されるため、視聴者100は、表示領域Sc内のオブジェクトのサイズが移動前から変化していないように認識する。それにより、視聴者100は、窓越しに外の景色を見ながら自身が窓から遠ざかった場合と同様に(図6参照)、表示領域Scに表示されるコンテンツを認識することができる。 When the viewer 100 moves away from the screen 12, the size of the display area Sc seen from the viewer's 100 position decreases due to perspective. That is, since the enlarged image area is displayed in the display area Sc that appears small, the viewer 100 perceives that the size of the object within the display area Sc has not changed from before the movement. Thereby, the viewer 100 can recognize the content displayed in the display area Sc in the same way as when the viewer 100 moves away from the window while looking at the outside scenery through the window (see FIG. 6).

また、図14の(a)に示すように、視聴者100がスクリーン12に近づいた場合、表示制御部334は、移動後の視聴者100とスクリーン12との距離d2を取得する。そして、表示領域Scの幅w0と距離d2とに基づき、視聴者100が表示領域Scを臨む角度a2を算出し、図14の(b)に示すように、この角度a2を水平方向における画角Fvとして設定する。ここで、視聴者100とスクリーン12との距離d2が小さくなると、移動前(図10参照)と比べて画角Fvが大きくなるため、表示制御部334は、図14の(c)に示すように、広くなった画角Fvに含まれる画像領域を、表示領域Scのサイズに合わせて縮小して表示する。垂直方向についても同様である。 Further, as shown in (a) of FIG. 14, when the viewer 100 approaches the screen 12, the display control unit 334 acquires the distance d2 between the viewer 100 and the screen 12 after the movement. Then, based on the width w0 and distance d2 of the display area Sc, an angle a2 at which the viewer 100 faces the display area Sc is calculated, and as shown in FIG. Set as Fv. Here, when the distance d2 between the viewer 100 and the screen 12 becomes smaller, the viewing angle Fv becomes larger compared to before the movement (see FIG. 10). Then, the image area included in the widened angle of view Fv is reduced and displayed in accordance with the size of the display area Sc. The same applies to the vertical direction.

視聴者100がスクリーン12に近づくと、遠近感から、視聴者100の位置から見た表示領域Scのサイズが大きくなる。つまり、大きく見える表示領域Scに縮小された画像領域が表示されるため、視聴者100は、表示領域Sc内のオブジェクトのサイズが移動前から変化していないように認識する。それにより、視聴者100は、窓越しに外の景色を見ながら自身が窓に近づいた場合と同様に(図7参照)、表示領域Scに表示されるコンテンツを認識することができる。 When the viewer 100 approaches the screen 12, the size of the display area Sc seen from the viewer's 100 position increases due to perspective. That is, since the reduced image area is displayed in the display area Sc that appears larger, the viewer 100 perceives that the size of the object within the display area Sc has not changed from before the movement. Thereby, the viewer 100 can recognize the content displayed in the display area Sc in the same way as when the viewer 100 approaches the window while looking at the outside scenery through the window (see FIG. 7).

以上説明したように、本実施形態によれば、スクリーン12に対する視聴者100の顔101の相対的な位置関係に基づいて、スクリーン12に表示されるコンテンツ内の画像領域を制御するので、視聴者100は、あたかもスクリーン12の表示領域Scを介して、窓越しに外の景色を見ているように、表示領域Scに表示される画像を認識することができる。それにより、視聴者100は、表示領域Scに表示される画像をリアルに感じることができ、自然な空間拡張感を得ることができる。 As explained above, according to the present embodiment, the image area within the content displayed on the screen 12 is controlled based on the relative positional relationship of the face 101 of the viewer 100 with respect to the screen 12, so that the viewer The user 100 can recognize the image displayed in the display area Sc of the screen 12 as if viewing the outside scenery through a window. Thereby, the viewer 100 can feel the image displayed in the display area Sc realistically, and can obtain a natural sense of spatial expansion.

また、本実施形態によれば、カメラ20により視聴者100を撮像した画像における顔の位置を取得することで、顔の動きに合わせて自然な形で、表示領域Scに表示されるコンテンツ内の画像領域を変化させることができる。即ち、視聴者100は、スクリーン12に対する操作を要することなく、コンテンツの見たい方向に顔を移動させるだけで当該方向を視聴することができるので、コンテンツへのより深い没入感を得ることが可能となる。 Furthermore, according to the present embodiment, by acquiring the position of the face in the image captured by the camera 20 of the viewer 100, the content displayed in the display area Sc can be adjusted in a natural manner according to the movement of the face. The image area can be changed. In other words, the viewer 100 can view the content by simply moving his or her face in the direction in which he or she wants to view the content, without having to operate the screen 12, thereby providing a deeper sense of immersion in the content. becomes.

また、本実施形態によれば、視聴者100とスクリーン12との距離に応じて、画角Fvの大きさを調整すると共に、画角Fvに含まれる画像領域を表示領域Scに合わせて拡大又は縮小して表示するので、視聴者100はコンテンツ内のオブジェクトを、実際のオブジェクトと同じサイズ感で認識することができる。 Further, according to the present embodiment, the size of the angle of view Fv is adjusted according to the distance between the viewer 100 and the screen 12, and the image area included in the angle of view Fv is expanded or expanded to match the display area Sc. Since the object is displayed in a reduced size, the viewer 100 can recognize the object in the content as having the same size as the actual object.

また、本実施形態によれば、入力デバイスやVRゴーグルを用いることなく、空間拡張感や没入感のあるコンテンツを視聴者に視聴させることができる。従って、不特定の人が視聴するサイネージやディスプレイにも、本実施形態に係る表示方法を適用することが可能である。 Furthermore, according to the present embodiment, the viewer can view content with a sense of spatial expansion and immersion without using an input device or VR goggles. Therefore, the display method according to this embodiment can be applied to signage and displays that are viewed by unspecified people.

(変形例1)
上記第1の実施形態においては、スクリーン12に表示されるコンテンツとしてパノラマ画像を例示したが、パノラマ画像以外のコンテンツを表示することも可能である。例えば、3DCGで作成された3D空間をコンテンツとして表示しても良い。この場合、カメラ20により撮像された画像M1から、視聴者の顔の位置だけでなく顔の向きも検出し、顔の向きに応じて、表示領域Scに表示される3D空間内のオブジェクトの傾きを変化させても良い。例えば、視聴者が顔を下に向けると、3D空間内のオブジェクトの上面が表示領域Scに表示されるようにしても良い。
(Modification 1)
In the first embodiment, a panoramic image is exemplified as the content displayed on the screen 12, but it is also possible to display content other than panoramic images. For example, a 3D space created with 3DCG may be displayed as content. In this case, not only the position of the viewer's face but also the direction of the face is detected from the image M1 captured by the camera 20, and the inclination of the object in the 3D space displayed in the display area Sc is determined according to the direction of the face. may be changed. For example, when the viewer looks down, the top surface of the object in the 3D space may be displayed in the display area Sc.

(変形例2)
上記第1の実施形態においては、視聴者100の顔101の位置に基づいて、表示領域Scに表示されるコンテンツ内の画像領域を制御することとしたが、さらに、視聴者100の様々なジェスチャーに応じて画像領域を制御しても良い。一例として、カメラ20により撮像された画像M1に写った視聴者100の姿勢に基づいて、例えば「右手を横に広げる」といった所定のジェスチャーを検出し、このようなジェスチャーに応じて、表示領域Scに表示されるパノラマ画像内の画像領域を所定の方向(例えば右方向)にシフトさせても良い。
(Modification 2)
In the first embodiment, the image area within the content displayed in the display area Sc is controlled based on the position of the face 101 of the viewer 100. The image area may be controlled according to the following. As an example, a predetermined gesture such as "spreading the right hand sideways" is detected based on the posture of the viewer 100 in the image M1 captured by the camera 20, and the display area Sc is The image area within the panoramic image displayed may be shifted in a predetermined direction (for example, rightward).

或いは、コンテンツとして3DCGで作成された3D空間を表示し、例えば「右手を挙げる」といったジェスチャーに応じて、コンテンツ内のオブジェクトを視聴者側に前進させるように表示しても良い。この場合、相対的に、自身が前進しているように視聴者に認識させることができる。このような視聴者のジェスチャーに応じた表示制御により、視聴者が3D空間内を動き回ることができる機能を構成することもできる。 Alternatively, a 3D space created by 3DCG may be displayed as the content, and objects in the content may be displayed so as to move forward toward the viewer in response to a gesture such as "raise your right hand." In this case, the viewer can be made to perceive that the viewer is moving relatively forward. By controlling the display according to such gestures of the viewer, it is also possible to configure a function that allows the viewer to move around in the 3D space.

(第2の実施形態)
図15は、本発明の第2の実施形態に係る表示システムの概略構成を示す模式図である。図15に示すように、本実施形態に係る表示システム2は、図1に示すプロジェクタ11及びスクリーン12の代わりに、表示装置40を備える。表示装置40以外の表示システム2の構成及び動作については、図1に示すものと同様である。
(Second embodiment)
FIG. 15 is a schematic diagram showing a schematic configuration of a display system according to a second embodiment of the present invention. As shown in FIG. 15, the display system 2 according to this embodiment includes a display device 40 instead of the projector 11 and screen 12 shown in FIG. The configuration and operation of the display system 2 other than the display device 40 are the same as those shown in FIG. 1.

表示装置40は、液晶パネル又は有機ELパネルからなるスクリーンを有し、情報処理装置30から出力される画像データに基づいて、動画又は静止画を用いて構成されたコンテンツをスクリーンに表示する。 The display device 40 has a screen made of a liquid crystal panel or an organic EL panel, and displays content composed of moving images or still images on the screen based on image data output from the information processing device 30.

情報処理装置30は、表示装置40のスクリーン全体をコンテンツの表示領域Scとして設定しても良いし、スクリーンの一部をコンテンツの表示領域Scとして設定しても良い。コンテンツ内のオブジェクトにサイズに合わせて表示領域Scのサイズを設定することにより、視聴者は、実際のオブジェクトと同じサイズ感で、コンテンツ内のオブジェクトを認識することができる。 The information processing device 30 may set the entire screen of the display device 40 as the content display area Sc, or may set a part of the screen as the content display area Sc. By setting the size of the display area Sc according to the size of the object in the content, the viewer can recognize the object in the content with the same sense of size as the actual object.

(第3の実施形態)
図16は、本発明の第3の実施形態に係る表示システムの概略構成を示す模式図である。図17は、図17に示す表示システムの概略的な機能構成を示すブロック図である。図16及び図17に示すように、本実施形態に係る表示システム3は、表示装置40と、該表示装置40と有線又は無線により接続されたタブレット端末50とを備える。
(Third embodiment)
FIG. 16 is a schematic diagram showing a schematic configuration of a display system according to a third embodiment of the present invention. FIG. 17 is a block diagram showing a schematic functional configuration of the display system shown in FIG. 17. As shown in FIGS. 16 and 17, the display system 3 according to this embodiment includes a display device 40 and a tablet terminal 50 connected to the display device 40 by wire or wirelessly.

表示装置40は、液晶パネル又は有機ELパネルからなるスクリーンを有し、タブレット端末50から出力される画像データに基づいて、動画又は静止画を用いて構成されたコンテンツをスクリーンに表示する。 The display device 40 has a screen made of a liquid crystal panel or an organic EL panel, and displays content composed of moving images or still images on the screen based on image data output from the tablet terminal 50.

図17に示すように、タブレット端末50は、外部インタフェース31と、記憶部32と、プロセッサ33と、撮像部51と、表示部52と、操作入力部と、音声出入力部54とを備える。このうち、外部インタフェース31、記憶部32、及びプロセッサ33の構成及び動作は、図2に示す情報処理装置30が備える外部インタフェース31、記憶部32、及びプロセッサ33の構成及び動作と同様である。また、タブレット端末50が表示装置40と無線接続される場合、タブレット端末50は、当該タブレット端末50を通信ネットワークに接続するための通信インタフェースを備える。 As shown in FIG. 17, the tablet terminal 50 includes an external interface 31, a storage section 32, a processor 33, an imaging section 51, a display section 52, an operation input section, and an audio input/output section 54. Among these, the configuration and operation of the external interface 31, the storage unit 32, and the processor 33 are the same as those of the external interface 31, the storage unit 32, and the processor 33 included in the information processing device 30 shown in FIG. Further, when the tablet terminal 50 is wirelessly connected to the display device 40, the tablet terminal 50 includes a communication interface for connecting the tablet terminal 50 to a communication network.

撮像部51は、タブレット端末50に内蔵されたカメラであり、被写体を撮像することにより画像信号を生成し、該画像信号をデジタル変換してプロセッサ33に入力する。図16に示すように、タブレット端末50は、視聴者100の顔が撮像部51の視野角に入る位置に設置される。図16においては、タブレット端末50を、表示装置40の下方に水平に設置しているが、タブレット端末50の位置及び向きはこれに限定されない。要は、撮像部51により視聴者100の顔を撮像することができれば良く、例えば、タブレット端末50を表示装置40と平行に設置しても良い。 The imaging unit 51 is a camera built into the tablet terminal 50 and generates an image signal by imaging a subject, digitally converts the image signal, and inputs it to the processor 33 . As shown in FIG. 16, the tablet terminal 50 is installed at a position where the face of the viewer 100 is within the viewing angle of the imaging unit 51. In FIG. 16, the tablet terminal 50 is installed horizontally below the display device 40, but the position and orientation of the tablet terminal 50 are not limited to this. In short, it is sufficient that the image capturing unit 51 can image the face of the viewer 100, and for example, the tablet terminal 50 may be installed parallel to the display device 40.

表示部52は、例えば液晶ディスプレイ又は有機ELディスプレイである。操作入力部53は、表示部52に設けられたタッチパネルである。音声出入力部54は、マイク及びスピーカを含む。 The display section 52 is, for example, a liquid crystal display or an organic EL display. The operation input section 53 is a touch panel provided on the display section 52. The audio input/output section 54 includes a microphone and a speaker.

本実施形態においては、タブレット端末50に内蔵された撮像部51により視聴者100を撮像し、それによって生成された画像における視聴者の顔の位置に基づいて、表示装置40におけるコンテンツの表示制御を行う。そのため、本実施形態によれば、表示システム3の構成を簡素にすることができる。 In the present embodiment, an image of the viewer 100 is captured by the imaging unit 51 built into the tablet terminal 50, and content display control on the display device 40 is performed based on the position of the viewer's face in the image generated thereby. conduct. Therefore, according to this embodiment, the configuration of the display system 3 can be simplified.

本実施形態の変形例として、タブレット端末50の代わりに、内蔵カメラを備えるノートPCやスマートフォンを用いても良い。また、本実施形態の別の変形例として、図1と同様に、スクリーン12に画像を投影するプロジェクタ11にタブレット端末50を接続し、タブレット端末50からプロジェクタに画像データを出力することとしても良い。 As a modification of this embodiment, a notebook PC or a smartphone equipped with a built-in camera may be used instead of the tablet terminal 50. Furthermore, as another modification of the present embodiment, the tablet terminal 50 may be connected to the projector 11 that projects an image onto the screen 12, and image data may be output from the tablet terminal 50 to the projector, as in FIG. 1. .

本発明は、上記第1~第3の実施形態及び変形例に限定されるものではなく、上記第1~第3の実施形態及び変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上記第1~第3の実施形態及び変形例に示した全構成要素からいくつかの構成要素を除外して形成しても良いし、上記第1~第3の実施形態及び変形例に示した構成要素を適宜組み合わせて形成しても良い。 The present invention is not limited to the first to third embodiments and modifications, but can be achieved by appropriately combining a plurality of components disclosed in the first to third embodiments and modifications. , various inventions can be formed. For example, some components may be excluded from all the components shown in the first to third embodiments and modifications, or the first to third embodiments and modifications may be formed by excluding some components. The illustrated components may be combined as appropriate.

1・2・3…表示システム、10…表示手段、11…プロジェクタ、12…スクリーン、20…カメラ、30…情報処理装置、31…外部インタフェース、32…記憶部、33…プロセッサ、34・52…表示部、35・53…操作入力部、40…表示装置、50…タブレット端末、51…撮像部、54…音声出入力部、100…視聴者、101…顔、321…プログラム記憶部、322…コンテンツデータ記憶部、323…設定値記憶部、331…画像生成部、332…検出部、333…相対関係算出部、334…表示制御部

1, 2, 3...Display system, 10...Display means, 11...Projector, 12...Screen, 20...Camera, 30...Information processing device, 31...External interface, 32...Storage unit, 33...Processor, 34, 52... Display section, 35, 53... Operation input section, 40... Display device, 50... Tablet terminal, 51... Imaging section, 54... Audio input/output section, 100... Viewer, 101... Face, 321... Program storage section, 322... Content data storage section, 323... Setting value storage section, 331... Image generation section, 332... Detection section, 333... Relative relationship calculation section, 334... Display control section

Claims (10)

動画又は静止画を用いて構成されるコンテンツをスクリーンに表示可能な表示手段と、
前記スクリーンを見る視聴者の顔を撮像可能な位置に設置されたカメラと、
前記スクリーンと前記カメラとの位置関係、及び、前記スクリーンに対する前記カメラの光軸の角度を記憶する設定値記憶部と、
前記カメラにより撮像された画像から前記視聴者の顔を検出する検出部と、
前記画像における前記視聴者の顔の位置と、前記スクリーンと前記カメラとの位置関係と、前記相対的な角度とに基づいて、前記スクリーンに対する前記視聴者の顔の相対的な位置関係を算出する相対関係算出部と、
前記コンテンツの少なくとも一部の画像領域を前記スクリーンに表示させると共に、前記相対的な位置関係に基づいて、前記スクリーンに表示される前記コンテンツ内の画像領域を制御する表示制御部と、
を備える表示システム。
A display means capable of displaying content composed of moving images or still images on a screen;
a camera installed at a position capable of capturing an image of the face of a viewer viewing the screen;
a setting value storage unit that stores the positional relationship between the screen and the camera and the angle of the optical axis of the camera with respect to the screen;
a detection unit that detects the face of the viewer from an image captured by the camera;
A relative positional relationship of the viewer's face with respect to the screen is calculated based on the position of the viewer's face in the image, the positional relationship between the screen and the camera, and the relative angle. a relative relationship calculation section;
a display control unit that causes at least a part of the image area of the content to be displayed on the screen and controls the image area within the content that is displayed on the screen based on the relative positional relationship;
A display system equipped with.
前記表示制御部は、前記視聴者の顔が前記スクリーンの面と平行に移動した場合に、前記スクリーンに表示される前記コンテンツ内の画像領域を、前記視聴者の顔の移動方向と反対方向にシフトさせる、請求項1に記載の表示システム。 The display control unit is configured to move an image area within the content displayed on the screen in a direction opposite to the moving direction of the viewer's face when the viewer's face moves parallel to the surface of the screen. The display system according to claim 1, wherein the display system is shifted. 前記コンテンツは、天球面に対応する座標が設定されたパノラマ画像であり、
前記表示制御部は、前記天球面の中心に設定された仮想的なカメラの画角に含まれる画像領域を前記スクリーンに表示させると共に、該仮想的なカメラの画角の中心方向を示す方向ベクトルを、前記スクリーンの中心点から前記視聴者の顔に向かう方向ベクトルの回転方向と同じ方向に回転させる、請求項2に記載の表示システム。
The content is a panoramic image in which coordinates corresponding to a celestial sphere are set,
The display control unit displays on the screen an image area included in the angle of view of the virtual camera set at the center of the celestial sphere, and also displays a direction vector indicating the center direction of the angle of view of the virtual camera. 3. The display system according to claim 2, wherein is rotated in the same direction as a direction of rotation of a direction vector from the center point of the screen toward the viewer's face.
前記設定値記憶部は、さらに、前記スクリーンにおいて前記コンテンツが表示される領域である表示領域のサイズを記憶し、
前記表示制御部は、前記表示領域のサイズと前記相対的な位置関係とに基づいて、前記表示領域に表示される前記コンテンツ内の画像領域を制御する、請求項1に記載の表示システム。
The setting value storage unit further stores the size of a display area that is an area where the content is displayed on the screen,
The display system according to claim 1, wherein the display control unit controls an image area within the content displayed in the display area based on the size of the display area and the relative positional relationship.
前記表示制御部は、
前記視聴者の顔が前記スクリーンから遠ざかった場合に、前記スクリーンに表示される前記コンテンツ内の画像領域を狭くすると共に、該画像領域のサイズを前記表示領域に合わせて拡大し、
前記視聴者の顔が前記スクリーンに近づいた場合に、前記スクリーンに表示される前記コンテンツ内の画像領域を広くすると共に、該画像領域のサイズを前記表示領域に合わせて縮小する、
請求項4に記載の表示システム。
The display control section includes:
when the viewer's face moves away from the screen, narrowing an image area within the content displayed on the screen and expanding the size of the image area to match the display area;
widening an image area within the content displayed on the screen when the viewer's face approaches the screen, and reducing the size of the image area to match the display area;
The display system according to claim 4.
前記表示制御部は、前記スクリーンに表示されるコンテンツが窓越しの景色として前記視聴者に認識されるように制御を行う、請求項1~5のいずれか1項に記載の表示システム。 6. The display system according to claim 1, wherein the display control unit performs control so that the content displayed on the screen is recognized by the viewer as scenery through a window. 前記表示手段は、前記コンテンツを前記スクリーンに投影するように構成されたプロジェクタを含む、請求項1~5のいずれか1項に記載の表示システム。 The display system according to any one of claims 1 to 5, wherein the display means includes a projector configured to project the content onto the screen. 前記表示手段は、液晶パネル又は有機ELパネルを有する表示装置である、請求項1~5のいずれか1項に記載の表示システム。 6. The display system according to claim 1, wherein the display means is a display device having a liquid crystal panel or an organic EL panel. 動画又は静止画を用いて構成されるコンテンツをスクリーンに表示させる表示方法であって、
前記スクリーンを見る視聴者の顔を、カメラにより撮像する撮像ステップと、
前記カメラにより撮像された画像から前記視聴者の顔を検出する検出ステップと、
前記画像における前記視聴者の顔の位置と、前記スクリーンと前記カメラとの位置関係と、前記スクリーンに対する前記カメラの光軸の角度とに基づいて、前記スクリーンに対する前記視聴者の顔の相対的な位置関係を算出する相対関係算出ステップと、
前記コンテンツの少なくとも一部の画像領域を前記スクリーンに表示させると共に、前記相対的な位置関係に基づいて、前記スクリーンに表示される前記コンテンツ内の画像領域を制御する表示制御ステップと、
を含む表示方法。
A display method for displaying content composed of moving images or still images on a screen, the method comprising:
an imaging step of imaging the face of the viewer viewing the screen using a camera;
a detection step of detecting the face of the viewer from an image captured by the camera;
The relative position of the viewer's face with respect to the screen is determined based on the position of the viewer's face in the image, the positional relationship between the screen and the camera, and the angle of the optical axis of the camera with respect to the screen. a relative relationship calculation step for calculating positional relationships;
a display control step of displaying at least a partial image area of the content on the screen and controlling the image area of the content displayed on the screen based on the relative positional relationship;
Display method including.
動画又は静止画を用いて構成されるコンテンツをスクリーンに表示させる表示プログラムであって、
前記スクリーンを見る視聴者の顔を、カメラに撮像させる撮像ステップと、
前記カメラにより撮像された画像から前記視聴者の顔を検出する検出ステップと、
前記画像における前記視聴者の顔の位置と、前記スクリーンと前記カメラとの位置関係と、前記スクリーンに対する前記カメラの光軸の角度とに基づいて、前記スクリーンに対する前記視聴者の顔の相対的な位置関係を算出する相対関係算出ステップと、
前記コンテンツの少なくとも一部の画像領域を前記スクリーンに表示させると共に、前記相対的な位置関係に基づいて、前記スクリーンに表示される前記コンテンツ内の画像領域を制御する表示制御ステップと、
をコンピュータに実行させる表示プログラム。

A display program that displays content composed of moving images or still images on a screen,
an imaging step of causing a camera to take an image of the face of the viewer viewing the screen;
a detection step of detecting the face of the viewer from an image captured by the camera;
The relative position of the viewer's face with respect to the screen is determined based on the position of the viewer's face in the image, the positional relationship between the screen and the camera, and the angle of the optical axis of the camera with respect to the screen. a relative relationship calculation step for calculating positional relationships;
a display control step of displaying at least a partial image area of the content on the screen and controlling the image area of the content displayed on the screen based on the relative positional relationship;
A display program that causes a computer to execute

JP2022071929A 2022-04-25 2022-04-25 Display system, display method, and display program Active JP7118383B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022071929A JP7118383B1 (en) 2022-04-25 2022-04-25 Display system, display method, and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022071929A JP7118383B1 (en) 2022-04-25 2022-04-25 Display system, display method, and display program

Publications (2)

Publication Number Publication Date
JP7118383B1 JP7118383B1 (en) 2022-08-16
JP2023161493A true JP2023161493A (en) 2023-11-07

Family

ID=82849855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022071929A Active JP7118383B1 (en) 2022-04-25 2022-04-25 Display system, display method, and display program

Country Status (1)

Country Link
JP (1) JP7118383B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349921A (en) * 2005-06-15 2006-12-28 Mitsubishi Electric Corp Image display device
JP2007052304A (en) * 2005-08-19 2007-03-01 Mitsubishi Electric Corp Video display system
JP2007102099A (en) * 2005-10-07 2007-04-19 Sony Corp Electronic equipment, image processing method, and program
JP2008097599A (en) * 2006-10-11 2008-04-24 Internatl Business Mach Corp <Ibm> Method and system of virtual window with simulated parallax and field of view change, and recording medium recording computer program (virtual window with simulated parallax and field of view change)
JP2011108028A (en) * 2009-11-18 2011-06-02 Fujifilm Corp Image reproduction device, imaging device and image reproduction method
WO2018235595A1 (en) * 2017-06-20 2018-12-27 日本電気株式会社 Information provision device, information provision method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349921A (en) * 2005-06-15 2006-12-28 Mitsubishi Electric Corp Image display device
JP2007052304A (en) * 2005-08-19 2007-03-01 Mitsubishi Electric Corp Video display system
JP2007102099A (en) * 2005-10-07 2007-04-19 Sony Corp Electronic equipment, image processing method, and program
JP2008097599A (en) * 2006-10-11 2008-04-24 Internatl Business Mach Corp <Ibm> Method and system of virtual window with simulated parallax and field of view change, and recording medium recording computer program (virtual window with simulated parallax and field of view change)
JP2011108028A (en) * 2009-11-18 2011-06-02 Fujifilm Corp Image reproduction device, imaging device and image reproduction method
WO2018235595A1 (en) * 2017-06-20 2018-12-27 日本電気株式会社 Information provision device, information provision method and program

Also Published As

Publication number Publication date
JP7118383B1 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
US10948993B2 (en) Picture-taking within virtual reality
US9491357B2 (en) Image-processing system and image-processing method in which a size of a viewing angle and a position of a viewing point are changed for zooming
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
JP6109413B2 (en) Image display method, image display apparatus, terminal, program, and recording medium
JP7005161B2 (en) Electronic devices and their control methods
JP5743016B2 (en) Apparatus and method for generating images
JP6899875B2 (en) Information processing device, video display system, information processing device control method, and program
US11294535B2 (en) Virtual reality VR interface generation method and apparatus
CN109668545B (en) Positioning method, positioner and positioning system for head-mounted display device
WO2019059020A1 (en) Control device, control method and program
WO2020124976A1 (en) Image processing method and apparatus, and electronic device and storage medium
CN109743892A (en) The display methods and device of virtual reality content
JP6359572B2 (en) Image transmission device, information processing terminal, image transmission method, information processing method, program, and information storage medium
JP2020119095A (en) Control device, control method and program
JP2022542510A (en) Method, System, and Medium for Rendering Immersive Video Content with Foveated Meshes
JP2018109946A (en) Display device, program, and method for display
JP7118383B1 (en) Display system, display method, and display program
JP7005160B2 (en) Electronic devices and their control methods
JP6394682B2 (en) Method and image processing apparatus
CN114201028B (en) Augmented reality system and method for anchoring display virtual object thereof
JP6992829B2 (en) Image processing system, image processing method and program
JP6124862B2 (en) Method for performing action according to pointing gesture, conference support system, and computer program
JP7187307B2 (en) Electronic device and its control method
JP6103942B2 (en) Image data processing apparatus and image data processing program
CN112308981A (en) Image processing method, image processing device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220426

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220726

R150 Certificate of patent or registration of utility model

Ref document number: 7118383

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350