JP7118217B1 - Display control device, display control method and display control program - Google Patents
Display control device, display control method and display control program Download PDFInfo
- Publication number
- JP7118217B1 JP7118217B1 JP2021102066A JP2021102066A JP7118217B1 JP 7118217 B1 JP7118217 B1 JP 7118217B1 JP 2021102066 A JP2021102066 A JP 2021102066A JP 2021102066 A JP2021102066 A JP 2021102066A JP 7118217 B1 JP7118217 B1 JP 7118217B1
- Authority
- JP
- Japan
- Prior art keywords
- display control
- image
- viewpoint
- color
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 37
- 238000003384 imaging method Methods 0.000 claims description 12
- 239000003086 colorant Substances 0.000 claims description 10
- 238000012545 processing Methods 0.000 description 33
- 230000010365 information processing Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 14
- 241001499733 Plantago asiatica Species 0.000 description 10
- 235000003421 Plantago ovata Nutrition 0.000 description 10
- 239000009223 Psyllium Substances 0.000 description 10
- 229940070687 psyllium Drugs 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000005282 brightening Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Abstract
【課題】視聴態様に適したARコンテンツを提供すること。【解決手段】本願に係る表示制御装置は、周囲を撮影した撮像画像に対して多視点画像を重畳表示した重畳画像を表示する表示制御部と、表示制御部によって表示される重畳画像の視聴態様に応じて、重畳画像中の撮像画像または多視点画像の色彩を調整する調整部とを備える。【選択図】図1An object of the present invention is to provide AR content suitable for a viewing mode. A display control device according to the present application includes a display control unit that displays a superimposed image in which a multi-viewpoint image is superimposed on a captured image of the surroundings, and a viewing mode of the superimposed image displayed by the display control unit. and an adjusting unit that adjusts the color of the captured image or the multi-viewpoint image in the superimposed image according to. [Selection drawing] Fig. 1
Description
本発明は表示制御装置、表示制御方法および表示制御プログラムに関する。 The present invention relates to a display control device, a display control method, and a display control program.
近年、インターネットを介して提供されるコンテンツとして、拡張現実(AR;Augmented Reality)が普及しつつある。このようなARにおいては、たとえば、仮想的な視点から見た3次元データの平面画像を撮像画像に対して重畳表示する(例えば、特許文献1参照)。 In recent years, augmented reality (AR) is becoming popular as content provided via the Internet. In such AR, for example, a planar image of three-dimensional data viewed from a virtual viewpoint is superimposed on a captured image (see, for example, Japanese Patent Application Laid-Open No. 2002-200013).
しかしながら、従来技術では、視聴態様に適したARコンテンツを提供するうえで改善の余地があった。 However, in the conventional technology, there is room for improvement in providing AR content suitable for the viewing mode.
本発明は、上記に鑑みてなされたものであって、視聴態様に適したARコンテンツを提供することができる表示制御装置、表示制御方法および表示制御プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a display control device, a display control method, and a display control program capable of providing AR content suitable for viewing modes.
上述した課題を解決し、目的を達成するために、本発明に係る表示制御装置は、表示制御部と、調整部とを備える。前記表示制御部は、周囲を撮影した撮像画像に対して多視点画像を重畳表示した重畳画像を表示する。前記調整部は、前記表示制御部によって表示される前記重畳画像の視聴態様に応じて、前記重畳画像中の撮像画像または前記多視点画像の色彩を調整する。 In order to solve the above-described problems and achieve the object, a display control device according to the present invention includes a display control section and an adjustment section. The display control unit displays a superimposed image in which a multi-viewpoint image is superimposed on an imaged image of the surroundings. The adjustment unit adjusts the colors of the captured image or the multi-viewpoint image in the superimposed image according to the viewing mode of the superimposed image displayed by the display control unit.
本発明によれば、視聴態様に適したARコンテンツを提供することができる。 According to the present invention, it is possible to provide AR content suitable for viewing modes.
以下に、本願に係る表示制御装置、表示制御方法および表示制御プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る表示制御装置、表示制御方法および表示制御プログラムが限定されるものではない。 EMBODIMENT OF THE INVENTION Below, the form (it is hereafter described as "embodiment".) for implementing the display control apparatus, display control method, and display control program which concerns on this application is demonstrated in detail, referring drawings. Note that the display control device, the display control method, and the display control program according to the present application are not limited to this embodiment.
[実施形態]
〔1.表示制御処理〕
まず、図1を用いて、実施形態に係る表示制御処理の一例について説明する。図1は、実施形態に係る表示制御処理の一例を示す図である。
[Embodiment]
[1. Display control processing]
First, an example of display control processing according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of display control processing according to the embodiment.
図1に示すように、実施形態に係る表示システムSは、たとえば、情報処理装置10と、表示制御装置50とを有する。情報処理装置10は、各表示制御装置50に対して、各種、AR(Augmented Reality)コンテンツを配信する情報処理装置である。情報処理装置10は、サーバ装置やクラウドシステムにより実現される。
As shown in FIG. 1, the display system S according to the embodiment has, for example, an
図1に示すように、情報処理装置10は、多視点映像データベースを有しており、多視点映像データベースに登録された多視点映像をARコンテンツ100として提供する。ここで、多視点映像とは、3次元モデルを複数の所定の視点からレンダリングした映像、あるいは、実在する被写体の周りに複数台の撮影機材を設置し撮影された映像である。また、多視点映像を構成する一つ一つの画像が多視点画像となる。
As shown in FIG. 1 , the
表示制御装置50は、たとえば、スマートフォンやHMD(Head Mount Display)などといった各種端末装置であり、情報処理装置10から配信されるARコンテンツ100をユーザへ視聴可能に提供する。
The
たとえば、表示制御装置50は、周囲を撮像した撮像画像Gに対して、情報処理装置10から配信される多視点映像の仮想オブジェクトOvを重畳表示したARコンテンツ100を提供する。すなわち、表示制御装置50は、いわゆるビデオシースルータイプのARコンテンツ100を提供する。なお、表示システムSで提供するARコンテンツ100は、ビデオシースルータイプに限られず、光学シースルータイプであってもよい。
For example, the
ところで、たとえば、多視点映像のARコンテンツを提供するにあたり、視聴態様に適したARコンテンツを提供するうえで改善の余地があった。その一例として、たとえば、実空間において、西日などの強い光が照射されている場合には、撮像画像Gにはその光が映りこむことになる。 By the way, for example, in providing multi-view video AR content, there is room for improvement in providing AR content suitable for viewing modes. As an example of this, for example, when strong light such as the afternoon sun is irradiated in the real space, the captured image G reflects the light.
一方で、たとえば、仮想オブジェクトOvは、実空間の光の影響とは独立して表示されるので、ARコンテンツ100において、仮想オブジェクトOvとその周囲とで光量に差が生じ、違和感を与える場合がある。
On the other hand, for example, the virtual object Ov is displayed independently of the influence of light in the real space. Therefore, in the
実施形態に係る表示制御処理では、このような点に着眼し、視聴態様に応じて、撮像画像Gまたは仮想オブジェクトOvの色彩を調整することとした。具体的には、図1に示すように、表示制御装置50は、情報処理装置10から多視点映像の取得を開始する(ステップS01)。つづいて、表示制御装置50は、多視点映像の取得毎に多視点映像の動画像を再生、表示する、いわゆるストリーミング再生によってARコンテンツ100の表示制御処理を行う(ステップS02)。
In the display control process according to the embodiment, focusing on such points, the color of the captured image G or the virtual object Ov is adjusted according to the viewing mode. Specifically, as shown in FIG. 1, the
なお、図1に示す例において、仮想オブジェクトOvは、アイドルグループであり、仮想オブジェクトOvとしてアイドルグループの歌唱映像を撮像画像Gに重畳表示する場合を示す。 In the example shown in FIG. 1, the virtual object Ov is an idol group, and a case is shown in which a singing video of the idol group is superimposed on the captured image G as the virtual object Ov.
つづいて、表示制御装置50は、視聴態様に基づき、撮像画像Gまたは仮想オブジェクトOvの色彩を調整する調整処理を行う(ステップS03)。ここで、色彩とは、たとえば、明るさや、色温度などを含む。
Subsequently, the
また、ここでの視聴態様とは、周囲の明るさ、すなわち、撮像画像G内の光の強さなどを示す。すなわち、撮像画像Gに強い光が映り込こんでいる場合や、撮像画像Gが暗いところで撮影されている場合で、それぞれ視聴態様が異なることを示す。 Also, the viewing mode here indicates the brightness of the surroundings, that is, the intensity of the light in the captured image G, and the like. That is, it indicates that the viewing mode differs depending on whether the captured image G reflects strong light or when the captured image G is captured in a dark place.
たとえば、表示制御装置50は、撮像画像Gに対する各種画像解析によって、撮像画像Gにおける光の強さや照射範囲などといった実空間の調光状態を検出する。そして、表示制御装置50は、ARコンテンツ100に表示する仮想オブジェクトOvの明るさ等に基づき、撮像画像Gあるいは仮想オブジェクトOvの色彩調整の要否を判定する。
For example, the
より具体的な例として、周囲が明るいのにもかかわらず、暗い仮想オブジェクトOvを表示すると、仮想オブジェクトOvとその周囲とで色彩の乖離が生じる。これに対して、たとえば、撮像画像Gの色彩を明るくする、または、仮想オブジェクトOvの色彩を暗くすることで、撮像画像Gに対して仮想オブジェクトOvを適切に溶け込ますことができる。 As a more specific example, if a dark virtual object Ov is displayed in spite of the fact that the surroundings are bright, a color separation occurs between the virtual object Ov and its surroundings. On the other hand, the virtual object Ov can be appropriately blended into the captured image G by brightening the color of the captured image G or darkening the color of the virtual object Ov, for example.
図1に示す例では、ARコンテンツ100に映る仮想オブジェクトOvの背面側に実空間の光Lが映り込んでおり、光Lによって、仮想オブジェクトOvとその周囲との間で光量が異なる場合を示す。そして、撮像画像Gにおける光Lの表示領域における色彩を調整した例を示す。その結果、光LをなくなるようにARコンテンツ100が補正される。なお、色彩の調整例は、上記の例に限られず、光Lの照射領域に存在する仮想オブジェクトOvの色彩を調整し、仮想オブジェクトOvに光Lが照射されているかのようにARコンテンツ100を補正することにしてもよい。
In the example shown in FIG. 1, the light L of the real space is reflected on the back side of the virtual object Ov appearing in the
このように、実施形態に係る表示制御処理では、視聴態様に応じて、撮像画像Gまたは仮想オブジェクトOvの色彩を調整する。したがって、実施形態に係る表示制御処理によれば、視聴態様に適したARコンテンツ100を提供することができる。
Thus, in the display control process according to the embodiment, the color of the captured image G or the virtual object Ov is adjusted according to the viewing mode. Therefore, according to the display control process according to the embodiment, it is possible to provide the
〔2-1.情報処理装置の構成例〕
次に、図2を用いて、情報処理装置10の構成例について説明する。図2は、情報処理装置10の構成例を示すブロック図である。図2に示すように、情報処理装置10は、通信部20と、記憶部30と、制御部40とを備える。
[2-1. Configuration example of information processing device]
Next, a configuration example of the
通信部20は、たとえば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、4G(Generation)、5G、LTE(Long Term Evolution)、Wifi(登録商標)若しくは無線LAN(Local Area Network)等といった各種の無線通信網若しくは各種の有線通信網といったネットワークを介して、外部装置との間で情報の送受信を行う。 The communication unit 20 is implemented by, for example, a NIC (Network Interface Card) or the like. The communication unit 20 uses networks such as various wireless communication networks such as 4G (Generation), 5G, LTE (Long Term Evolution), Wifi (registered trademark) or wireless LAN (Local Area Network), or various wired communication networks. Information is sent and received to and from an external device via the network.
記憶部30は、たとえば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、多視点映像データベース31を有する。 The storage unit 30 is realized by, for example, a semiconductor memory device such as a RAM or flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 30 also has a multi-view video database 31 .
多視点映像データベース31は、多視点映像を記憶するデータベースである。図3は、多視点映像データベース31に格納された情報の一例を示す図である。図3に示すように、多視点映像データベース31は、「映像ID」、「画像群」、「サイズ情報」、「音声」、「音源座標」などといった項目の情報を互いに対応付けて記憶する。 The multi-view video database 31 is a database that stores multi-view videos. FIG. 3 is a diagram showing an example of information stored in the multi-view video database 31. As shown in FIG. As shown in FIG. 3, the multi-view video database 31 stores items of information such as "video ID", "image group", "size information", "audio", and "sound source coordinates" in association with each other.
「映像ID」は、各多視点映像を識別するための識別子であり、「画像群」は、多視点映像として提供するための画像群に関するデータであり、複数視点から同時に撮影された静止画像あるいは動画像をまとめたデータである。 The “video ID” is an identifier for identifying each multi-view video, and the “image group” is data related to a group of images to be provided as a multi-view video. This data is a collection of moving images.
「サイズ情報」は、画像群の被写体のサイズに関する情報を示し、たとえば、仮想オブジェクトOvの実寸大の大きさに関する情報である。「音声」は、多視点映像とともに流す音声データを示し、「音源座標」は、多視点映像における音声データの音源の座標に関する情報である。 "Size information" indicates information about the size of the subject in the image group, for example, information about the actual size of the virtual object Ov. “Audio” indicates audio data to be played along with the multi-view video, and “sound source coordinates” is information regarding the coordinates of the sound source of the audio data in the multi-view video.
ARコンテンツ100として、アーティストの歌唱映像を提供する場合において、音声はアーティストが歌っている音源であり、音源座標は、アーティストの頭部(たとえば、口元)となる。
When an artist's singing video is provided as the
図2の説明に戻り、制御部40について説明する。制御部40は、たとえば、コントローラ(controller)であり、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processing Unit)等によって、情報処理装置10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。
Returning to the description of FIG. 2, the control unit 40 will be described. The control unit 40 is, for example, a controller, and is stored in a storage device inside the
図2に示すように、制御部40は、選択部41と、配信部42とを備える。選択部41は、各表示制御装置50から受け取った多視点映像の配信要求に基づき、対応する多視点映像を多視点映像データベース31から選択する。
As shown in FIG. 2, the controller 40 includes a selector 41 and a distributor 42 . The selection unit 41 selects the corresponding multi-view video from the multi-view video database 31 based on the multi-view video distribution request received from each
たとえば、配信要求には、上記の映像IDに関する情報が含まれており、選択部41は、配信要求に含まれる映像IDに合致する多視点映像を多視点映像データベース31から選択する。 For example, the distribution request includes information about the video ID, and the selection unit 41 selects a multi-view video that matches the video ID included in the distribution request from the multi-view video database 31 .
また、たとえば、多視点映像の配信中において、選択部41は、ARコンテンツ100に対するユーザの注視点情報を各表示制御装置50から受け取り、注視点情報に基づき、多視点映像に対する視点切替処理を行う。
Further, for example, during distribution of multi-view video, the selection unit 41 receives the user's point-of-regard information for the
たとえば、注視点情報は、実空間における撮像画像Gの撮像範囲や撮像向きに関する情報であり、ARコンテンツ100に表示される実空間に関する情報である。すなわち、ARコンテンツ100におけるユーザの注視点に関する情報である。たとえば、ユーザが表示制御装置50(たとえば、後述する外向きカメラ61)の位置を変化させた場合に注視点が変化し、変化した向きや変化量などに関する情報が注視点情報となる。
For example, the point-of-regard information is information about the imaging range and imaging orientation of the captured image G in the real space, and is information about the real space displayed in the
選択部41は、注視点情報に基づき、多視点映像に対する視点位置を選択し、選択した視点位置に対応する多視点画像を多視点映像データベース31から選択することで、視点切替処理を行う。また、選択部41は、注視点情報の変化に追従させて視点位置を随時切り替える処理を行う。 The selection unit 41 selects a viewpoint position for the multi-view video based on the point-of-regard information, and selects a multi-view image corresponding to the selected viewpoint position from the multi-view video database 31, thereby performing viewpoint switching processing. In addition, the selection unit 41 performs a process of switching the viewpoint position at any time following changes in the point-of-regard information.
配信部42は、選択部41によって選択された多視点映像を各表示制御装置50に対して配信する。なお、配信部42が配信する多視点映像は、時間的に連続する多視点画像であり、配信部42は、注視点情報に基づいて設定された視点位置から見た多視点画像を連続して配信する。また、配信部42は、多視点映像とともに音声等に関する情報をあわせて表示制御装置50へ配信する。
The distribution unit 42 distributes the multi-view video selected by the selection unit 41 to each
〔2-2.表示制御装置の構成例〕
次に、図4を用いて、実施形態に係る表示制御装置50の構成例について説明する。図4は、表示制御装置50の構成例を示すブロック図である。図4に示すように、表示制御装置50は、通信部60、外向きカメラ61、内向きカメラ62、センサ群63、表示部64、音声出力部65、記憶部70および制御部80を備える。
[2-2. Configuration example of display control device]
Next, a configuration example of the
通信部60は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部60は、4G(Generation)、5G、LTE(Long Term Evolution)、Wifi(登録商標)若しくは無線LAN(Local Area Network)等といった各種の無線通信網若しくは各種の有線通信網といったネットワークを介して、外部装置との間で情報の送受信を行う。 The communication unit 60 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 60 uses networks such as various wireless communication networks such as 4G (Generation), 5G, LTE (Long Term Evolution), Wifi (registered trademark) or wireless LAN (Local Area Network), or various wired communication networks. Information is sent and received to and from an external device via the network.
外向きカメラ61は、表示制御装置50の外側(たとえば、表示部64の表示面とは逆側)を撮像するカメラであり、実空間を撮像する。たとえば、外向きカメラ61によって撮像された撮像画像は、ARコンテンツ100における仮想オブジェクトOvの背景画像として用いられる。内向きカメラ61は、表示制御部50の内側(たとえば、表示部64の表示面側)を撮像するカメラであり、ARコンテンツ100を視聴するユーザを撮像する。
The
センサ群63は、たとえば、表示制御装置50の姿勢や、周囲に存在する対象物の3次元形状や対象物までの距離を検出するための各種センサによって構成される。たとえば、センサ群63には、ジャイロセンサ、Lidarなどが含まれる。
The
表示部64は、たとえば、タッチパネルディスプレイであり、ARコンテンツ100等の各種映像を表示するとともに、各種ユーザ操作を受け付ける。音声出力部65は、たとえば、サラウンドスピーカあるいはステレオスピーカであり、ARコンテンツ100とともに流れる各種音声を出力する。
The
記憶部70は、たとえば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部70は、マップ情報記憶部71およびサイズ情報記憶部72を有する。
The
マップ情報記憶部71は、実空間のマップ情報を記憶する。たとえば、マップ情報とは、表示制御部50の周辺環境を示す環境地図であり、後述する自己位置推定部81による処理結果に基づいて作成される。
The map
続いて、制御部80について説明する。制御部80は、たとえば、コントローラ(controller)であり、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processing Unit)等によって、情報処理装置10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。
Next, the
図4に示すように、制御部80は、自己位置推定部81と、表示面設定部82と、表示制御部83と、調整部84と、音声制御部85とを有する。自己位置推定部81は、外向きカメラ61やセンサ群63から入力される各種情報に基づき、Slam(Simultaneous Localization and Mapping)等の技術を用いて実空間の環境地図を作成するとともに、環境地図内における表示制御装置50の座標(たとえば、ワールド座標)や姿勢を推定する。
As shown in FIG. 4 , the
また、自己位置推定部81は、作成した環境地図に関する情報をマップ情報としてマップ情報記憶部71に格納するとともに、推定した位置や姿勢に関する情報、すなわち、上記の注視点情報を表示面設定部82へ渡す。また、ARコンテンツ100の表示中においては、注視点情報は、情報処理装置10へも送信される。
In addition, the self-
表示面設定部82は、自己位置推定部81によって作成された環境地図に基づき、実空間において仮想オブジェクトOvを表示する仮想的な表示面(以下、単に表示面)を設定する。
The display surface setting unit 82 sets a virtual display surface (hereinafter simply display surface) for displaying the virtual object Ov in the real space based on the environment map created by the self-
たとえば、表示面設定部82は、環境地図から仮想オブジェクトOvを表示可能な表示面の探索を行う。ここで、表示可能な表示面とは、たとえば、ARコンテンツ100として表示する仮想オブジェクトOvを内包可能な表示空間の底面に対応する。
For example, the display surface setting unit 82 searches for a display surface on which the virtual object Ov can be displayed from the environment map. Here, the display surface that can be displayed corresponds to, for example, the bottom surface of the display space that can contain the virtual object Ov displayed as the
ここでの表示空間とは、実空間内において仮想オブジェクトOvを内包可能な3次元形状の空間である。すなわち、仮想オブジェクトOvを表示するにあたり、十分表示可能な3次元空間が表示空間となり、その底面が仮想オブジェクトOvの表示面となる。 The display space here is a three-dimensional space that can include the virtual object Ov in the real space. That is, when displaying the virtual object Ov, a three-dimensional space that can be sufficiently displayed becomes the display space, and the bottom surface thereof becomes the display surface of the virtual object Ov.
これにより、たとえば、ARコンテンツ100において、仮想オブジェクトOvが、実空間の壁や天井を突き抜けて表示される誤表示をあらかじめ回避することができる。なお、たとえば、表示面設定部82は、実空間にあわせて仮想オブジェクトOvの表示サイズを小さくすることで、仮想オブジェクトOvが実空間に収まるようにしてもよい。換言すれば、実空間にあわせて仮想オブジェクトOvの表示サイズを設定することにしてもよい。
As a result, for example, in the
表示面設定部82は、表示空間および表示面を設定すると、表示空間および表示面に関する各種座標情報をマップ情報記憶部71に書き込む。なお、たとえば、表示面は、実空間の床であるが、仮想オブジェクトOvの種類に応じて、ユーザの体の一部(たとえば手のひらなど)とすることにしてもよい。また、表示空間自体を実際の床から浮遊させることにしてもよい。また、表示面設定部82は、表示する仮想オブジェクトOv毎に、それぞれ独立に表示空間および表示面を設定することにしてもよい。また、たとえば、仮想オブジェクトOv自体がARコンテンツ100内を移動するコンテンツも考えられるので、表示面設定部82は、仮想オブジェクトOvの移動範囲を包含するように表示空間や表示面を設定するようにしてもよい。
After setting the display space and the display surface, the display surface setting unit 82 writes various coordinate information regarding the display space and the display surface to the map
その後、表示面設定部82は、撮像画像Gの撮像位置にあわせて仮想オブジェクトOvの表示サイズを更新する。たとえば、表示面設定部82は、自己位置推定部81から受け取った注視点情報に基づき、撮像画像Gの撮像位置(たとえば、外向きカメラ61の位置)を認識する。そして、表示面設定部82は、撮像位置と表示面との位置関係に基づき、仮想オブジェクトOvの表示サイズを設定する。具体的には、表示面設定部82は、撮像位置と表示面とが近くなるにつれて、仮想オブジェクトOvの表示サイズを大きくし、撮像位置と表示面とが小さくなるにつれて小さくなるように仮想オブジェクトOvの表示サイズを設定する。
After that, the display surface setting unit 82 updates the display size of the virtual object Ov according to the imaging position of the captured image G. FIG. For example, the display surface setting unit 82 recognizes the imaging position of the captured image G (for example, the position of the outward facing camera 61) based on the point-of-regard information received from the self-
この場合においては、仮想オブジェクトOvを表示面に実在すると仮定した場合に、撮像画像G内に映る実際の大きさとなるように仮想オブジェクトOvの表示サイズが更新される。 In this case, assuming that the virtual object Ov actually exists on the display surface, the display size of the virtual object Ov is updated so as to have the actual size shown in the captured image G.
表示制御部83は、撮像画像Gに対して仮想オブジェクトOvを重畳表示することで、ARコンテンツ100を生成し、生成したARコンテンツ100を調整部84に渡す。たとえば、表示制御部83は、仮想オブジェクトOvを表示面設定部82によって設定された表示面に表示されるように撮像画像Gに重畳表示することで、ARコンテンツ100を生成する。
The display control unit 83 superimposes the virtual object Ov on the captured image G to generate the
調整部84は、表示制御部83によって表示されるARコンテンツ100の視聴態様に応じて、ARコンテンツ100中の撮像画像または仮想オブジェクトOvの色彩を調整する。
The adjustment unit 84 adjusts the color of the captured image or the virtual object Ov in the
ここで、図5および図6を用いて、調整部84による処理の具体例について説明する。図5および図6は、実施形態に係る調整部84による処理の一例を示す図である。図5に示す例では、実空間に設置された照明器具L1の照射範囲に仮想オブジェクトOvが表示される場合を示す。 Here, a specific example of processing by the adjustment unit 84 will be described with reference to FIGS. 5 and 6. FIG. 5 and 6 are diagrams showing an example of processing by the adjustment unit 84 according to the embodiment. The example shown in FIG. 5 shows a case where a virtual object Ov is displayed in the irradiation range of a lighting fixture L1 installed in real space.
この場合において、たとえば、調整部84は、照明器具L1の光が仮想オブジェクトOvに照射されているかのうように仮想オブジェクトOvの色彩を調整する。この場合において、たとえば、調整部84は、撮像画像Gに対する各種画像解析によって照明器具L1の光を検出し、検出した照明器具L1の光にあわせて仮想オブジェクトOvの色彩を調整する。 In this case, for example, the adjustment unit 84 adjusts the color of the virtual object Ov as if the light from the lighting device L1 were illuminating the virtual object Ov. In this case, for example, the adjustment unit 84 detects the light of the lighting device L1 through various image analyzes of the captured image G, and adjusts the color of the virtual object Ov according to the detected light of the lighting device L1.
この際、調整部84は、光の強さを検出し、検出した光の強さに応じて仮想オブジェクトOvの色彩を調整することにしてもよい。たとえば、調整部84は、光の強さが強い場合には、色彩の調整量を大きくし、光の強さが強い場合には、色彩の調整量を小さくすることにしてもよい。 At this time, the adjustment unit 84 may detect the intensity of light and adjust the color of the virtual object Ov according to the intensity of the detected light. For example, the adjustment unit 84 may increase the color adjustment amount when the light intensity is high, and may decrease the color adjustment amount when the light intensity is high.
これにより、撮像画像Gと仮想オブジェクトOvとの間に生じる色彩の際を小さくすることができる。また、この場合においては、あたかも実空間に仮想オブジェクトOvが実在しているかのような表示態様のARコンテンツ100を提供することが可能となる。
As a result, it is possible to reduce the color difference that occurs between the captured image G and the virtual object Ov. Also, in this case, it is possible to provide the
ここでは、実空間の光に基づいて仮想オブジェクトOvの色彩を調整する場合について説明したが、たとえば、多視点画像内の光にあわせて、撮像画像Gの色彩を調整することにしてもよい。また、実空間あるいは多視点画像内の光にあわせて、撮像画像Gおよび仮想オブジェクトOvの双方の色彩を調整することにしてもよい。 Although the case where the color of the virtual object Ov is adjusted based on the light in the real space has been described here, the color of the captured image G may be adjusted according to the light in the multi-viewpoint image, for example. Also, the colors of both the captured image G and the virtual object Ov may be adjusted according to the light in the real space or the multi-viewpoint image.
また、図6の例では、仮想オブジェクトOv1の背面に他の仮想オブジェクトOv2が表示されるとともに、仮想オブジェクトOvに対する視点位置が視点位置V1から視点位置V2に変化する場合を示す。すなわち、撮像画像Gの撮像位置が視点位置V1から視点位置V2に移動し、視点位置V2では仮想オブジェクトOv2が仮想オブジェクトOv1に遮られることなく表示される場合を示す。 In the example of FIG. 6, another virtual object Ov2 is displayed behind the virtual object Ov1, and the viewpoint position for the virtual object Ov changes from the viewpoint position V1 to the viewpoint position V2. That is, the imaging position of the captured image G moves from the viewpoint position V1 to the viewpoint position V2, and the virtual object Ov2 is displayed at the viewpoint position V2 without being blocked by the virtual object Ov1.
この場合において、たとえば、視点位置V1から見た仮想オブジェクトOv2はその一部が仮想オブジェクトOv1の影となっている場合がある。一方、このような状況下において、視点位置V2から仮想オブジェクトOv2を見る場合には、ユーザが仮想オブジェクトOv2を注視したい状況であるにもかかわらず、仮想オブジェクトOv1の影の影響で注視しづらい。 In this case, for example, the virtual object Ov2 seen from the viewpoint position V1 may be partly shadowed by the virtual object Ov1. On the other hand, in such a situation, when viewing the virtual object Ov2 from the viewpoint position V2, it is difficult for the user to gaze at the virtual object Ov2 due to the shadow of the virtual object Ov1, even though the user wants to gaze at the virtual object Ov2.
したがって、視点位置V2から見た仮想オブジェクトOv2を表示する場合に、調整部84は、たとえば、仮想オブジェクトOv2の色彩を調整し、仮想オブジェクトOv2の色彩を明るくすることで、上記の影をなくす補正を行う。これにより、ユーザは、影の影響を受けることなく、仮想オブジェクトOv2を注視することが可能となる。 Therefore, when displaying the virtual object Ov2 viewed from the viewpoint position V2, the adjustment unit 84 adjusts the color of the virtual object Ov2 and brightens the color of the virtual object Ov2, for example, thereby eliminating the shadow. I do. This allows the user to gaze at the virtual object Ov2 without being affected by shadows.
また、調整部84は、ARコンテンツ100に対して仮想的に設定された発光体の位置に基づいて撮像画像Gあるいは仮想オブジェクトOvの色彩を調整することにしてもよい。
Also, the adjustment unit 84 may adjust the color of the captured image G or the virtual object Ov based on the positions of the light emitters virtually set for the
たとえば、この場合、ユーザは、任意の位置にスポットライトやミラーボールなど任意の照明(発光体)を設定することができ、調整部84は、照明の光を考慮して撮像画像Gあるいは仮想オブジェクトOvの色彩を調整することにしてもよい。 For example, in this case, the user can set arbitrary lighting (illuminant) such as a spotlight or a mirror ball at an arbitrary position, and the adjustment unit 84 considers the light of the lighting to adjust the captured image G or the virtual object. The color of Ov may be adjusted.
これにより、たとえば、ユーザが好きな照明態様のARコンテンツ100を提供することが可能となるので、提供可能なARコンテンツ100のバリエーションを増やすことができる。
As a result, for example, it is possible to provide
また、この場合、調整部84は、ユーザ操作に基づき、ARコンテンツ100内に設けた仮想的な発光体を移動させて、発光体の光をARコンテンツ100内に反映することにしてもよい。
Also, in this case, the adjustment unit 84 may move a virtual light emitter provided in the
図7は、実施形態に係る発光体に対する操作の一例を示す図である。たとえば、図7に示すように、ユーザは、表示制御装置50の表示面をスライド操作させることで、発光体SpをARコンテンツ100内で移動させることができる。
7A and 7B are diagrams illustrating an example of an operation on a light emitter according to the embodiment; FIG. For example, as shown in FIG. 7 , the user can move the light emitter Sp within the
図7に示す例において、発光体Spは、サイリウムであり、調整部84は、発光体Spの位置にあわせて発光体SpがARコンテンツ100内を移動しているかのように撮像画像Gや仮想オブジェクトOvの色彩を制御する。
In the example shown in FIG. 7, the luminous body Sp is psyllium, and the adjustment unit 84 adjusts the captured image G and the virtual image as if the luminous body Sp were moving in the
これにより、たとえば、ARコンテンツ100が音楽のライブ映像である場合、ユーザがサイリウムによって実際にライブに参加しているかのような臨場感を味わうことが可能となる。
As a result, for example, when the
なお、調整部84は、たとえば、内向きカメラ62(図4参照)によってユーザを撮影した対象画像に基づき、ARコンテンツ100内の発光体Spの位置を移動させることにしてもよい。たとえば、対象画像に対する画像解析によってユーザが実際にサイリウムを振る操作を検出し、実際のサイリウムの動きにあわせて撮像画像Gや仮想オブジェクトOvの色彩を調整することにしてもよい。
Note that the adjustment unit 84 may move the position of the light emitter Sp in the
この場合においては、実空間のサイリウムの光をARコンテンツ100に投影させるように、撮像画像Gや仮想オブジェクトOvの色彩を調整することにしてもよい。
In this case, the colors of the captured image G and the virtual object Ov may be adjusted so that the light from the psyllium in the real space is projected onto the
また、たとえば、実空間のサイリウムにジャイロセンサを埋め込んでおき、ジャイロセンサの値に基づき、ジャイロセンサの光を反映させるように、撮像画像Gや仮想オブジェクトOvの色彩を調整することにしてもよい。 Alternatively, for example, a gyro sensor may be embedded in the psyllium in the real space, and based on the value of the gyro sensor, the colors of the captured image G and the virtual object Ov may be adjusted so as to reflect the light from the gyro sensor. .
また、たとえば、内向きカメラ62で実空間のサイリウムを撮像した画像からサイリウムの光を測定し、その光がARコンテンツ100に反映するように撮像画像Gや仮想オブジェクトOvの色彩を調整することにしてもよい。
Further, for example, the light of the psyllium is measured from an image of the psyllium in the real space captured by the inward-facing
図4の説明に戻り、音声制御部85について説明する。音声制御部85は、撮像画像Gの撮像位置と、多視点画像において設定された音声発生源との位置関係に基づき、音声出力を制御する。たとえば、仮想オブジェクトOvが人物であり、その頭部に音声発生源が設定される。 Returning to the description of FIG. 4, the audio control unit 85 will be described. The audio control unit 85 controls audio output based on the positional relationship between the imaging position of the captured image G and the audio generation source set in the multi-viewpoint image. For example, the virtual object Ov is a person whose head is set as the sound source.
ここで、たとえば、外向きカメラ61の撮像位置が変化すると、ARコンテンツ100における仮想オブジェクトOvの位置が変化し、これに伴い音声発生源の位置が変化することになる。
Here, for example, when the imaging position of the outward facing
そのため、音声制御部85は、これらの位置関係に基づき、音声出力部65の出力を制御することで、ARコンテンツ100における音声発生源の位置を一致させる処理を行う。具体的には、たとえば、撮像画像Gにおいて仮想オブジェクトOvが右側に表示される場合、ユーザの右側から音声が聞こえるように音声出力部65を制御し、撮像画像Gにおいて仮想オブジェクトOvが手前側に表示される場合には、手前側から音声が聞こえるように音声出力部65を制御する。
Therefore, the audio control unit 85 controls the output of the audio output unit 65 based on these positional relationships, thereby performing processing for matching the positions of the audio sources in the
このように、音声制御部85は、音声発生源の位置変化にあわせて音声制御をコントロールすることで、リアリティーの高いARコンテンツ100を提供することができる。なお、音声発生源は一つに限らず、複数であってもよい。この場合、音声制御部85は、音声発生源毎に位置関係に基づき、音声制御を行う。
In this way, the audio control unit 85 can provide highly
また、たとえば、音声制御部85は、音声発生源が複数である場合には、音声発生源毎に音量等の各種調整や、音声発生源の統合などを行うことにしてもよい。また、音声制御部85は、たとえば、音声発生源の位置を変更する操作を受け付けることにしてもよい。この場合、たとえば、当初設定された音声発生源とは別の任意の座標に音声発生源を設定することにしてもよい。 Further, for example, when there are a plurality of sound sources, the sound control unit 85 may perform various adjustments such as volume for each sound source, or integrate the sound sources. Also, the audio control unit 85 may receive an operation to change the position of the audio source, for example. In this case, for example, the sound source may be set at arbitrary coordinates different from the initially set sound source.
また、音声制御部85は、たとえば、ユーザ操作に基づき、音声の削除、追加等を行うことにしてもよい。すなわち、複数の多視点映像から任意の音声を組み合わせて出力することにしてもよい。この場合、たとえば、異なる歌手が歌っている音声を他の歌手の仮想オブジェクトOvか歌っているかのようなARコンテンツ100などを提供することができる。
Also, the audio control unit 85 may delete, add, etc. the audio based on the user's operation, for example. That is, it is also possible to combine arbitrary sounds from a plurality of multi-viewpoint images and output them. In this case, for example, it is possible to provide
〔3.処理手順〕
次に、図8および図9を用いて、実施形態に係る情報処理装置10および表示制御装置50が実行する処理手順について説明する。まず、図8を用いて、情報処理装置10が実行する処理手順について説明する。図8は、情報処理装置10が実行する処理手順を示すフローチャートである。なお、以下に示す処理手順は、情報処理装置10の制御部40によって配信要求の取得毎に繰り返し実行される。
[3. Processing procedure]
Next, processing procedures executed by the
図8に示すように、まず、情報処理装置10は、配信要求を受け付ける(ステップS101)。つづいて、情報処理装置10は、受け付けた配信要求に基づき、多視点映像を配信し(ステップS102)、処理を終了する。
As shown in FIG. 8, first, the
なお、多視点映像の配信時において、情報処理装置10は、注視点情報に基づき、視点位置を変更した仮想オブジェクトOvの多視点画像を随時選択し、選択した多視点画像を配信する。
When distributing the multi-view video, the
次に、図9を用いて、表示制御装置50が実行する処理手順について説明する。図10は、表示制御装置50が実行する処理手順の一例を示すフローチャートである。なお、以下に示す処理手順は、ARコンテンツ100の提供毎に表示制御装置50の制御部80によって実行される。
Next, a processing procedure executed by the
図9に示すように、まず、表示制御装置50は、たとえば、周囲を撮像した撮像画像等に基づき、実空間において仮想オブジェクトOvを表示可能な表示面を設定する(ステップS201)。
As shown in FIG. 9, first, the
つづいて、表示制御装置50は、撮像画像Gを取得し(ステップS202)、撮像画像Gまたは仮想オブジェクトOvの色彩を調整する(ステップS203)。その後、表示制御装置50は、色彩を調整した撮像画像Gまたは仮想オブジェクトOvを用いてARコンテンツ100を表示し(ステップS204)、処理を終了する。
Subsequently, the
〔4.変形例〕
上述した表示システムSは、上記実施形態以外にも種々の異なる形態にて実施されてもよい。そこで、以下では、表示システムSの他の実施形態について説明する。
[4. Modification]
The display system S described above may be implemented in various different forms other than the above embodiment. Therefore, other embodiments of the display system S will be described below.
たとえば、表示制御装置50は、カメラ(外向きカメラ61および内向きカメラ62)と分離した構成であってもよい。また、表示制御装置50が提供するコンテンツは、ARコンテンツ100に限られず、たとえば、撮像画像Gに基づき、実空間をアニメーション等に変換したVR(Virtual Reality)コンテンツを提供することにしてもよい。
For example, the
〔5.効果〕
上述してきたように、実施形態に係る表示制御装置50は、周囲を撮影した撮像画像に対して多視点画像を重畳表示した重畳画像を表示する表示制御部83と、表示制御部83によって表示されるARコンテンツ100(重畳画像の一例)の視聴態様に応じて、ARコンテンツ100の撮像画像Gまたは多視点画像の色彩を調整する調整部84とを備える。したがって、実施形態に係る表示制御装置50によれば、視聴態様に適したARコンテンツ100を提供することができる。
[5. effect〕
As described above, the
また、実施形態に係る表示制御装置50において、表示制御部83は、撮像画像Gの撮像位置にあわせて多視点画像に対する視点位置を制御した重畳画像を表示し、調整部84は、視点位置にあわせて色彩を調整する。したがって、実施形態に係る表示制御装置50によれば、たとえば、影になっている仮想オブジェクトOvを明るく表示することができるので、ユーザにとって利便性の高いARコンテンツ100を提供することができる。
Further, in the
また、実施形態に係る表示制御装置50において、調整部84は、周囲の調光状態にあわせて色彩を調節する。したがって、実施形態に係る表示制御装置50によれば、実世界の調光状態にあった色彩のARコンテンツ100を提供することができるので、ARコンテンツ100における臨場感の向上を図ることができる。
In addition, in the
また、実施形態に係る表示制御装置50において、調整部84は、撮像画像中の光の強さに応じて色彩を調整する。したがって、実施形態に係る表示制御装置50によれば、光が強いほど、色彩を大きく調整することができるので、ARコンテンツ100中の撮像画像Gと仮想オブジェクトOvとの色彩の乖離を少なくすることができるので、ARコンテンツ100におけるリアリティーの向上を図ることができる。
Further, in the
また、実施形態に係る表示制御装置50において、調整部84は、ARコンテンツ100に対して仮想的に設定された発光体の位置に基づいて色彩を調整する。したがって、実施形態に係る表示制御装置50によれば、ARコンテンツ100中に任意に発光体を設定することができるので、ユーザの好きな照明環境のARコンテンツ100を提供することができる。
Also, in the
また、実施形態に係る表示制御装置50において、調整部84は、発光体に対するユーザ操作に基づいて色彩を調整する。したがって、実施形態に係る表示制御装置50によれば、たとえば、ライブ映像などのARコンテンツ100を提供する場合に、ユーザは発光体に対するユーザ操作によってライブ映像に参加することができる。
In addition, in the
また、実施形態に係る表示制御装置50において、調整部84は、撮像画像Gとは個別に撮影された対象画像に含まれる被写体(たとえば、サイリウム)の位置に基づいて色彩を調整する。したがって、実施形態に係る表示制御装置50によれば、ユーザは実世界におけるサイリウムに対する操作によってARコンテンツ100に参加することができる。
Further, in the
また、実施形態に係る表示制御方法は、コンピュータが実行する表示制御方法であって、周囲を撮影した撮像画像に対して多視点画像を重畳表示した重畳画像を表示する表示制御工程と、表示制御工程によって表示される重畳画像の視聴態様に応じて、重畳画像中の撮像画像または多視点画像の色彩を調整する調整工程とを含む。 A display control method according to an embodiment is a display control method executed by a computer, and includes a display control step of displaying a superimposed image in which a multi-viewpoint image is superimposed on an imaged image of the surroundings; and an adjusting step of adjusting the colors of the captured image or the multi-viewpoint image in the superimposed image according to the viewing mode of the superimposed image displayed by the step.
また、実施形態に係る表示制御プログラムは、周囲を撮影した撮像画像に対して多視点画像を重畳表示した重畳画像を表示する表示制御手順と表示制御手順によって表示される重畳画像の視聴態様に応じて、重畳画像中の撮像画像または多視点画像の色彩を調整する調整手順とをコンピュータに実行させる。 In addition, the display control program according to the embodiment provides a display control procedure for displaying a superimposed image in which a multi-viewpoint image is superimposed on a captured image of the surroundings, and according to the viewing mode of the superimposed image displayed by the display control procedure. Then, the computer executes an adjustment procedure for adjusting the colors of the captured image or the multi-viewpoint image in the superimposed image.
〔6.ハードウェア構成〕
また、上述してきた実施形態に係る表示制御装置50は、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、実施形態に係る表示制御装置50の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration]
Also, the
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The CPU 1100 operates based on programs stored in the
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワーク(通信ネットワーク)Nを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置(図10では、出力装置および入力装置を総称して「入出力装置」と記載する)を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
Through an input/
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る表示制御装置50として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部120の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to carry out the invention in other forms with modifications.
〔7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. others〕
Further, among the processes described in the above embodiments and modifications, all or part of the processes described as being performed automatically can be performed manually, or described as being performed manually. All or part of the processing can also be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Also, the above-described embodiments and modifications can be appropriately combined within a range that does not contradict the processing contents.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、自己位置推定部81は、自己位置推定部手段や自己位置推定部回路に読み替えることができる。
Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the self-
10 情報処理装置
20 通信部
30 記憶部
31 多視点映像データベース
40 制御部
41 選択部
42 配信部
50 表示制御装置
70 記憶部
71 マップ情報記憶部
80 制御部
81 自己位置推定部
82 表示面設定部
83 表示制御部
84 調整部
85 音声制御部
100 ARコンテンツ
G 撮像画像
Ov 仮想オブジェクト
10 information processing device 20 communication unit 30 storage unit 31 multi-view video database 40 control unit 41 selection unit 42
Claims (9)
前記表示制御部によって表示される前記重畳画像の視聴態様に応じて、前記重畳画像中の前記撮像画像または前記多視点画像の色彩を調整する調整部と
を備え、
前記調整部は、
前記多視点画像として表示されるオブジェクトの色彩を前記多視点画像の視点位置に応じて調整することで、当該オブジェクトに元々映る影を補正すること
を特徴とする表示制御装置。 a display control unit that displays a superimposed image obtained by superimposing multi-viewpoint images obtained by photographing an existing subject from a plurality of viewpoints on a photographed image of the surroundings;
an adjustment unit that adjusts the color of the captured image or the multi-view image in the superimposed image according to the viewing mode of the superimposed image displayed by the display control unit;
The adjustment unit
A display control device , comprising: adjusting a color of an object displayed as the multi-viewpoint image according to a viewpoint position of the multi-viewpoint image, thereby correcting a shadow originally cast on the object.
前記撮像画像の撮像位置にあわせて前記多視点画像に対する視点位置を制御した前記重畳画像を表示し、
前記調整部は、
前記視点位置にあわせて前記色彩を調整すること
を特徴とする請求項1に記載の表示制御装置。 The display control unit
displaying the superimposed image in which the viewpoint position with respect to the multi-viewpoint image is controlled according to the imaging position of the captured image;
The adjustment unit
The display control device according to claim 1, wherein the color is adjusted according to the viewpoint position.
前記周囲の調光状態にあわせて前記色彩を調整すること
を特徴とする請求項1または2に記載の表示制御装置。 The adjustment unit
3. The display control device according to claim 1, wherein the color is adjusted according to the dimming state of the surroundings.
前記撮像画像中の光の強さに応じて前記色彩を調整すること
を特徴とする請求項1、2または3に記載の表示制御装置。 The adjustment unit
4. The display control device according to claim 1, wherein the color is adjusted according to the intensity of light in the captured image.
前記重畳画像に対して仮想的に設定された発光体の位置に基づいて前記色彩を調整すること
を特徴とする請求項1~4のいずれか一つに記載の表示制御装置。 The adjustment unit
5. The display control device according to any one of claims 1 to 4, wherein the color is adjusted based on a position of a light emitter that is virtually set with respect to the superimposed image.
前記発光体に対する操作に基づいて前記色彩を調整すること
を特徴とする請求項5に記載の表示制御装置。 The adjustment unit
6. The display control device according to claim 5, wherein the color is adjusted based on an operation on the light emitter.
前記撮像画像とは個別に撮影された対象画像に含まれる被写体の位置に基づいて前記色彩を調整すること
を特徴とする請求項1~6のいずれか一つに記載の表示制御装置。 The adjustment unit
The display control device according to any one of claims 1 to 6, wherein the captured image is adjusted based on the position of a subject included in a target image that is individually shot.
周囲を撮影した撮像画像に対して、実在する被写体を複数の視点から撮影して得られる多視点画像を重畳表示した重畳画像を表示する表示制御工程と、
前記表示制御工程によって表示される前記重畳画像の視聴態様に応じて、前記重畳画像中の前記撮像画像または前記多視点画像の色彩を調整する調整工程と
を含み、
前記調整工程は、
前記多視点画像として表示されるオブジェクトの色彩を前記多視点画像の視点位置に応じて調整することで、当該オブジェクトに元々映る影を補正すること
を特徴とする表示制御方法。 A display control method executed by a computer,
a display control step of displaying a superimposed image in which multi-viewpoint images obtained by photographing an existing subject from a plurality of viewpoints are superimposed on a photographed image of the surroundings;
an adjusting step of adjusting the color of the captured image or the multi-view image in the superimposed image according to the viewing mode of the superimposed image displayed by the display control step;
The adjustment step includes
A display control method , comprising: adjusting a color of an object displayed as the multi-viewpoint image according to a viewpoint position of the multi-viewpoint image, thereby correcting a shadow originally cast on the object .
前記表示制御手順によって表示される前記重畳画像の視聴態様に応じて、前記重畳画像中の前記撮像画像または前記多視点画像の色彩を調整する調整手順と
をコンピュータに実行させ、
前記調整手順は、
前記多視点画像として表示されるオブジェクトの色彩を前記多視点画像の視点位置に応じて調整することで、当該オブジェクトに元々映る影を補正すること
を特徴とする表示制御プログラム。 Display control procedure for displaying a superimposed image obtained by superimposing multi-viewpoint images obtained by photographing an existing subject from a plurality of viewpoints on a photographed image of the surroundings When,
causing a computer to execute an adjustment procedure for adjusting the colors of the captured image or the multi-view image in the superimposed image according to the viewing mode of the superimposed image displayed by the display control procedure;
The adjustment procedure includes:
A display control program comprising: adjusting a color of an object displayed as the multi-viewpoint image according to a viewpoint position of the multi-viewpoint image, thereby correcting a shadow originally cast on the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021102066A JP7118217B1 (en) | 2021-06-18 | 2021-06-18 | Display control device, display control method and display control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021102066A JP7118217B1 (en) | 2021-06-18 | 2021-06-18 | Display control device, display control method and display control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7118217B1 true JP7118217B1 (en) | 2022-08-15 |
JP2023000949A JP2023000949A (en) | 2023-01-04 |
Family
ID=82847609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021102066A Active JP7118217B1 (en) | 2021-06-18 | 2021-06-18 | Display control device, display control method and display control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7118217B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002150315A (en) | 2000-11-09 | 2002-05-24 | Minolta Co Ltd | Image processing device and recording medium |
JP2008027050A (en) | 2006-07-19 | 2008-02-07 | Konami Digital Entertainment:Kk | Image generating device, image generating method, and program |
JP2016218547A (en) | 2015-05-15 | 2016-12-22 | セイコーエプソン株式会社 | Head mounted display device, method for controlling the same and computer program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10188036A (en) * | 1996-12-25 | 1998-07-21 | Nec Corp | Three dimensional graphic plotting device |
-
2021
- 2021-06-18 JP JP2021102066A patent/JP7118217B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002150315A (en) | 2000-11-09 | 2002-05-24 | Minolta Co Ltd | Image processing device and recording medium |
JP2008027050A (en) | 2006-07-19 | 2008-02-07 | Konami Digital Entertainment:Kk | Image generating device, image generating method, and program |
JP2016218547A (en) | 2015-05-15 | 2016-12-22 | セイコーエプソン株式会社 | Head mounted display device, method for controlling the same and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP2023000949A (en) | 2023-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10873741B2 (en) | Image processing apparatus and method | |
CN109416842B (en) | Geometric matching in virtual reality and augmented reality | |
US9396588B1 (en) | Virtual reality virtual theater system | |
JP7042644B2 (en) | Information processing equipment, image generation method and computer program | |
US8933965B2 (en) | Method for calculating light source information and generating images combining real and virtual images | |
US10085008B2 (en) | Image processing apparatus and method | |
WO2016009864A1 (en) | Information processing device, display device, information processing method, program, and information processing system | |
JP6523493B1 (en) | PROGRAM, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD | |
US20210038975A1 (en) | Calibration to be used in an augmented reality method and system | |
CN112689854A (en) | Moving picture composition device, moving picture composition method, and recording medium | |
CN112740284A (en) | Moving picture composition device, moving picture composition method, and recording medium | |
KR20200057484A (en) | Method and apparatus for displaying a strike zone | |
JP7118217B1 (en) | Display control device, display control method and display control program | |
CN107430841B (en) | Information processing apparatus, information processing method, program, and image display system | |
EP3857917A1 (en) | Information processing device, information processing method, program, and information processing system | |
JP2020102687A (en) | Information processing apparatus, image processing apparatus, image processing method, and program | |
KR102371031B1 (en) | Apparatus, system, method and program for video shooting in virtual production | |
US11287658B2 (en) | Picture processing device, picture distribution system, and picture processing method | |
KR20150031662A (en) | Video device and method for generating and playing video thereof | |
JP7123222B1 (en) | Display control device, display control method and display control program | |
WO2020066644A1 (en) | Information processing device, information processing method, program, and information processing system | |
JP2023000947A (en) | Device, method, and program for display control | |
WO2023047637A1 (en) | Information processing device, and program | |
JP2016166928A (en) | Performance device, performance method, program, and amusement system | |
WO2023090038A1 (en) | Information processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211217 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220705 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7118217 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |