JP7123222B1 - Display control device, display control method and display control program - Google Patents

Display control device, display control method and display control program Download PDF

Info

Publication number
JP7123222B1
JP7123222B1 JP2021102065A JP2021102065A JP7123222B1 JP 7123222 B1 JP7123222 B1 JP 7123222B1 JP 2021102065 A JP2021102065 A JP 2021102065A JP 2021102065 A JP2021102065 A JP 2021102065A JP 7123222 B1 JP7123222 B1 JP 7123222B1
Authority
JP
Japan
Prior art keywords
image
display control
moving image
unit
still
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021102065A
Other languages
Japanese (ja)
Other versions
JP2023000948A (en
Inventor
紗記子 西
愛 友成
佳純 吉村
磨翁 西
柾優紀 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2021102065A priority Critical patent/JP7123222B1/en
Application granted granted Critical
Publication of JP7123222B1 publication Critical patent/JP7123222B1/en
Publication of JP2023000948A publication Critical patent/JP2023000948A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ARコンテンツにおける画質を適切に切り替えること。【解決手段】本願に係る表示制御装置は、周囲を撮像した撮像画像に重畳表示する動画像を再生する再生部と、再生部による動画像の再生中に所定の操作による動画像の静止操作を受け付ける受付部と、受付部によって静止操作が受け付けられた場合に、動画像よりも高画質の動画像の静止画に切り替えて表示する表示制御部とを備える。【選択図】図1An object of the present invention is to appropriately switch image quality in AR content. A display control device according to the present application includes a reproduction unit that reproduces a moving image to be superimposed on a captured image of the surroundings, and a static operation of the moving image by a predetermined operation while the moving image is being reproduced by the reproducing unit. and a display control unit that, when the accepting unit accepts a still operation, switches to a still image of a moving image with higher image quality than the moving image and displays the still image. [Selection drawing] Fig. 1

Description

本発明は表示制御装置、表示制御方法および表示制御プログラムに関する。 The present invention relates to a display control device, a display control method and a display control program.

近年、インターネットを介して提供されるコンテンツとして、拡張現実(AR;Augmented Reality)が普及しつつある。このようなARにおいては、たとえば、仮想的な視点から見たARオブジェクトを撮像画像に対して重畳表示する(例えば、特許文献1参照)。 In recent years, augmented reality (AR) is becoming popular as content provided via the Internet. In such AR, for example, an AR object viewed from a virtual viewpoint is superimposed on a captured image (see, for example, Patent Document 1).

特開2020-95602号公報Japanese Patent Application Laid-Open No. 2020-95602

しかしながら、従来技術では、たとえば、ARコンテンツにおける画質を適切に切り替えるうえで改善の余地があった。 However, in the related art, for example, there is room for improvement in appropriately switching the image quality of AR content.

本発明は、上記に鑑みてなされたものであって、ARコンテンツにおける画質を適切に切り替えることができる表示制御装置、表示制御方法および表示制御プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a display control device, a display control method, and a display control program capable of appropriately switching the image quality of AR content.

上述した課題を解決し、目的を達成するために、本発明に係る表示制御装置は、再生部と、受付部と、表示制御部とを備える。前記再生部は、周囲を撮像した撮像画像に重畳表示する動画像を再生する。前記受付部は、前記再生部による前記動画像の再生中に所定の操作による前記動画像の静止操作を受け付ける。前記表示制御部は、前記受付部によって前記静止操作が受け付けられた場合に、前記動画像よりも高画質の前記動画像の静止画に切り替えて表示する。 In order to solve the above-described problems and achieve the object, a display control device according to the present invention includes a reproduction section, a reception section, and a display control section. The reproducing unit reproduces a moving image to be superimposed on a captured image of surroundings. The accepting unit accepts a still operation of the moving image by a predetermined operation while the moving image is being reproduced by the reproducing unit. The display control unit switches to display a still image of the moving image having higher image quality than the moving image when the receiving unit receives the still operation.

本発明によれば、ARコンテンツにおける画質の最適化を図ることができる。 According to the present invention, it is possible to optimize the image quality of AR content.

図1は、実施形態に係る表示制御処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of display control processing according to the embodiment. 図2は、実施形態に係る情報処理装置の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of the information processing apparatus according to the embodiment; 図3は、実施形態に係る多視点映像データベースに記憶する情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of information stored in a multi-view video database according to the embodiment; 図4は、実施形態に係る表示制御装置の構成例を示すブロック図である。FIG. 4 is a block diagram illustrating a configuration example of the display control device according to the embodiment; 図5は、実施形態に係る静止操作の一例を示す図である。FIG. 5 is a diagram illustrating an example of a stationary operation according to the embodiment; 図6は、実施形態に係る静止操作の一例を示す図である。FIG. 6 is a diagram illustrating an example of a stationary operation according to the embodiment; 図7は、実施形態に係る情報処理装置が実行する処理手順の一例を示すフローチャートである。7 is a flowchart illustrating an example of a processing procedure executed by the information processing apparatus according to the embodiment; FIG. 図8は、実施形態に係る表示制御装置が実行する処理手順の一例を示すフローチャートである。8 is a flowchart illustrating an example of a processing procedure executed by the display control device according to the embodiment; FIG. 図9は、実施形態に係る表示制御装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 9 is a hardware configuration diagram showing an example of a computer that implements the functions of the display control device according to the embodiment.

以下に、本願に係る表示制御装置、表示制御方法および表示制御プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る表示制御装置、表示制御方法および表示制御プログラムが限定されるものではない。 EMBODIMENT OF THE INVENTION Below, the form (it is hereafter described as "embodiment".) for implementing the display control apparatus, display control method, and display control program which concerns on this application is demonstrated in detail, referring drawings. Note that the display control device, the display control method, and the display control program according to the present application are not limited to this embodiment.

[実施形態]
〔1.表示制御処理〕
まず、図1を用いて、実施形態に係る表示制御処理の一例について説明する。図1は、実施形態に係る表示制御処理の一例を示す図である。
[Embodiment]
[1. Display control processing]
First, an example of display control processing according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of display control processing according to the embodiment.

図1に示すように、実施形態に係る表示システムSは、たとえば、情報処理装置10と、表示制御装置50とを有する。情報処理装置10は、各表示制御装置50に対して、各種、AR(Augmented Reality)コンテンツを配信する情報処理装置である。情報処理装置10は、サーバ装置やクラウドシステムにより実現される。 As shown in FIG. 1 , the display system S according to the embodiment has, for example, an information processing device 10 and a display control device 50 . The information processing device 10 is an information processing device that distributes various types of AR (Augmented Reality) content to each display control device 50 . The information processing device 10 is implemented by a server device or a cloud system.

図1に示すように、情報処理装置10は、多視点映像データベースを有しており、多視点映像データベースに登録された多視点映像をそれぞれの多視点画像として配信する。ここで、多視点映像とは、3次元モデルを複数の所定の視点からレンダリングした映像、あるいは、実在する被写体の周りに複数台の撮影機材を設置し撮影された映像である。また、多視点映像を構成する一つ一つの画像が多視点画像となる。 As shown in FIG. 1, the information processing apparatus 10 has a multi-view video database, and distributes multi-view videos registered in the multi-view video database as respective multi-view images. Here, the multi-viewpoint video is a video obtained by rendering a three-dimensional model from a plurality of predetermined viewpoints, or a video captured by installing a plurality of shooting devices around an actual subject. Also, each image forming the multi-view video is a multi-view image.

表示制御装置50は、たとえば、スマートフォンやHMD(Head Mount Display)などといった各種端末装置であり、情報処理装置10から配信される多視点映像のARコンテンツ100をユーザへ視聴可能に提供する。 The display control device 50 is, for example, various terminal devices such as a smartphone and an HMD (Head Mount Display), and provides the AR content 100 of multi-view video distributed from the information processing device 10 so that the user can view it.

たとえば、表示制御装置50は、周囲を撮像した撮像画像Gに対して、情報処理装置10から配信される多視点映像の仮想オブジェクトOvを重畳表示したARコンテンツ100を提供する。すなわち、表示制御装置50は、いわゆるビデオシースルータイプのARコンテンツ100を提供する。なお、表示システムSで提供するARコンテンツ100は、ビデオシースルータイプに限られず、光学シースルータイプであってもよい。 For example, the display control device 50 provides the AR content 100 in which the virtual object Ov of the multi-view video distributed from the information processing device 10 is superimposed on the captured image G of the surroundings. That is, the display control device 50 provides so-called video see-through type AR content 100 . Note that the AR content 100 provided by the display system S is not limited to the video see-through type, and may be the optical see-through type.

ところで、たとえば、多視点映像のARコンテンツを提供するにあたり、多視点映像中の仮想オブジェクトの画質を適切に切り替えるうえで改善の余地があった。たとえば、高画質の多視点映像による動画像のARコンテンツを提供すると、データ容量や、各種処理負荷等の観点から動画像の再生をスムーズに処理できないおそれがある。 By the way, for example, in providing multi-view video AR content, there is room for improvement in appropriately switching the image quality of virtual objects in the multi-view video. For example, if AR content of moving images with high-quality multi-view video is provided, there is a possibility that the moving images cannot be played back smoothly from the viewpoint of data capacity, various processing loads, and the like.

たとえば、動画像としてARコンテンツ100を提供するうえでは、一枚一枚の多視点画像を視聴する時間はわずかであるので、多視点画像の画質を低下させたとしてもユーザにとって画質の低下は気になりにくい。 For example, when providing the AR content 100 as a moving image, the time for viewing each multi-view image is short, so even if the image quality of the multi-view image is reduced, the user does not care about the deterioration of the image quality. hard to become

一方で、たとえば、動画像を停止した状態では、多視点画像の表示時間が長くなるので、多視点画像の画質を低下させたままでは、ユーザが画質の低下が気になってしまい、質の高いARコンテンツを提供するうえで問題となる。 On the other hand, for example, when the moving image is stopped, the display time of the multi-view image is long. This is a problem in providing high AR contents.

実施形態に係る表示システムSでは、この点に着眼し、ARコンテンツ100において静止画の仮想オブジェクトOvを表示する場合においては、高画質の仮想オブジェクトOvに表示を切り替えることとした。 Focusing on this point, the display system S according to the embodiment switches the display to a high-quality virtual object Ov when displaying a still image virtual object Ov in the AR content 100 .

具体的には、図1に示すように、表示制御装置50は、情報処理装置10から多視点映像の取得を開始する(ステップS01)。つづいて、表示制御装置50は、多視点映像の取得毎に多視点映像の動画像を再生、表示する、いわゆるストリーミング再生によってARコンテンツ100の再生処理を行う(ステップS02)。 Specifically, as shown in FIG. 1, the display control device 50 starts acquiring multi-viewpoint images from the information processing device 10 (step S01). Subsequently, the display control device 50 reproduces and displays the moving image of the multi-viewpoint video each time the multi-viewpoint video is acquired, that is, the AR content 100 is reproduced by so-called streaming reproduction (step S02).

なお、図1に示す例において、仮想オブジェクトOvは、アイドルグループであり、仮想オブジェクトOvとしてアイドルグループの歌唱映像の動画像を撮像画像Gに重畳表示する場合を示す。 In the example shown in FIG. 1, the virtual object Ov is an idol group, and a case is shown in which a moving image of singing video of the idol group is superimposed on the captured image G as the virtual object Ov.

つづいて、表示制御装置50は、動画像に対する静止操作を受け付けると(ステップS03)、仮想オブジェクトOvの切替処理を行う(ステップS04)。ここでの静止操作は、たとえば、動画像の一時停止操作であるが、後述するように、ARコンテンツ100に対する静止画像の撮影操作も含まれる。 Subsequently, when the display control device 50 receives a still operation for the moving image (step S03), it performs switching processing of the virtual object Ov (step S04). The still operation here is, for example, a moving image pause operation, but also includes a still image shooting operation for the AR content 100 as described later.

たとえば、表示制御装置50は、ステップS03にて静止操作を受け付けると、動画像の静止時における再生時刻に関する情報を情報処理装置10へ送信し、対応する再生時刻における高画質の仮想オブジェクトOvの多視点画像を情報処理装置10から取得する。 For example, when the display control device 50 receives the stop operation in step S03, the display control device 50 transmits to the information processing device 10 information about the reproduction time when the moving image is still, and displays the number of high-quality virtual objects Ov at the corresponding reproduction time. A viewpoint image is acquired from the information processing device 10 .

そして、表示制御装置50は、取得した高画質の仮想オブジェクトOvを現在の撮像画像Gに重畳表示することで、仮想オブジェクトOvが高画質のARコンテンツ100を提供する。 Then, the display control device 50 superimposes the acquired high-quality virtual object Ov on the current captured image G, thereby providing the AR content 100 with the high-quality virtual object Ov.

また、表示制御装置50は、たとえば、撮像画像Gの撮像位置が変化に追従させて、すなわち、ARコンテンツ100における仮想オブジェクトOvの背景画像の変化に追従させて、仮想オブジェクトOvに対する視点位置の変更を情報処理装置10へ要求する。 Further, the display control device 50 changes the viewpoint position with respect to the virtual object Ov by, for example, following the change in the imaging position of the captured image G, that is, following the change in the background image of the virtual object Ov in the AR content 100. to the information processing apparatus 10 .

そして、表示制御装置50は、上記要求に基づき、視点位置が変更された高画質の仮想オブジェクトOvを情報処理装置10から取得し、取得した仮想オブジェクトOvのARコンテンツ100を提供する。 Based on the request, the display control device 50 acquires the high-quality virtual object Ov whose viewpoint position has been changed from the information processing device 10, and provides the AR content 100 of the acquired virtual object Ov.

これにより、ユーザは、多視点から見た高画質の仮想オブジェクトOvを視聴することが可能となるので、注視したい箇所を注視したい角度から視聴することが可能となる。 As a result, the user can view the high-quality virtual object Ov viewed from multiple viewpoints, so that the user can view the desired point from the desired angle.

このように、実施形態に係る表示制御処理では、仮想オブジェクトOvの動画像の再生時において、静止操作を受け付けると、動画像よりも高画質の仮想オブジェクトOvの静止画を表示する。 As described above, in the display control process according to the embodiment, when the moving image of the virtual object Ov is played, if the still operation is received, the still image of the virtual object Ov with higher image quality than the moving image is displayed.

したがって、実施形態に係る表示制御処理によれば、動画像と静止画とで画質を使い分けることができるので、ARコンテンツ100における画質の最適化を図ることができる。なお、本願発明は、多視点映像に限られず、その他の動画像についても適用することも可能である。すなわち、3次元グラフィックの動画像を停止した場合において、高画質の静止画へ切り替えることにしてもよい。 Therefore, according to the display control process according to the embodiment, the image quality of the moving image and the still image can be properly used, so that the image quality of the AR content 100 can be optimized. It should be noted that the present invention is not limited to multi-viewpoint video, and can be applied to other moving images as well. That is, when the three-dimensional graphic moving image is stopped, it may be switched to a high-quality still image.

〔2-1.情報処理装置の構成例〕
次に、図2を用いて、情報処理装置10の構成例について説明する。図2は、情報処理装置10の構成例を示すブロック図である。図2に示すように、情報処理装置10は、通信部20と、記憶部30と、制御部40とを備える。
[2-1. Configuration example of information processing device]
Next, a configuration example of the information processing apparatus 10 will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration example of the information processing apparatus 10. As shown in FIG. As shown in FIG. 2, the information processing apparatus 10 includes a communication section 20, a storage section 30, and a control section 40.

通信部20は、たとえば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、4G(Generation)、5G、LTE(Long Term Evolution)、WiFi(登録商標)若しくは無線LAN(Local Area Network)等といった各種の無線通信網若しくは各種の有線通信網といったネットワークを介して、外部装置との間で情報の送受信を行う。 The communication unit 20 is implemented by, for example, a NIC (Network Interface Card) or the like. The communication unit 20 uses networks such as various wireless communication networks such as 4G (Generation), 5G, LTE (Long Term Evolution), WiFi (registered trademark) or wireless LAN (Local Area Network), or various wired communication networks. Information is sent and received to and from an external device via the network.

記憶部30は、たとえば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、多視点映像データベース31を有する。 The storage unit 30 is realized by, for example, a semiconductor memory device such as a RAM or flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 30 also has a multi-view video database 31 .

多視点映像データベース31は、多視点映像を記憶するデータベースである。図3は、多視点映像データベース31に格納された情報の一例を示す図である。図3に示すように、多視点映像データベース31は、「映像ID」、「画像群」、「サイズ情報」、「音声」、「音源座標」などといった項目の情報を互いに対応付けて記憶する。 The multi-view video database 31 is a database that stores multi-view videos. FIG. 3 is a diagram showing an example of information stored in the multi-view video database 31. As shown in FIG. As shown in FIG. 3, the multi-view video database 31 stores items of information such as "video ID", "image group", "size information", "audio", and "sound source coordinates" in association with each other.

「映像ID」は、各多視点映像を識別するための識別子であり、「画像群」は、多視点映像として提供するための画像群であり、複数視点から同時に撮影された静止画像あるいは動画像をまとめたデータである。 The “video ID” is an identifier for identifying each multi-view video, and the “image group” is a group of images to be provided as multi-view video, still images or moving images shot simultaneously from a plurality of viewpoints. This data summarizes

また、「画像群」には、たとえば、動画と、静止画とが含まれる。たとえば、動画は、動画像として配信する多視点映像に関する画像群であり、静止画は、静止画として配信する多視点映像に関する画像群である。 Also, the "image group" includes, for example, moving images and still images. For example, a moving image is an image group related to a multi-view video distributed as a moving image, and a still image is an image group related to a multi-view video distributed as a still image.

たとえば、動画の画像群に比べて静止画の画像群は高画質のデータである。静止画の画像群は、たとえば、動画像の画像群に比べ、高性能カメラで撮影される。なお、動画の画像群の解像度、ビットレート等をあげたものを静止画の画像群とすることにしてもよい。 For example, a group of still images has higher image quality than a group of moving images. A still image group is captured by a high-performance camera, for example, compared to a moving image group. It should be noted that the image group of the still image may be obtained by increasing the resolution, bit rate, etc. of the image group of the moving image.

「サイズ情報」は、多視点画像あるいは多視点映像に映る仮想オブジェクトOvの実寸大の大きさに関する情報である。「音声」は、多視点映像とともに流す音声データを示し、「音源座標」は、多視点映像における音声データの音源の座標に関する情報である。 "Size information" is information about the actual size of the virtual object Ov appearing in the multi-view image or multi-view video. “Audio” indicates audio data to be played along with the multi-view video, and “sound source coordinates” is information regarding the coordinates of the sound source of the audio data in the multi-view video.

ARコンテンツ100として、アーティストの歌唱映像を提供する場合において、音声はアーティストが歌っている音源であり、音源座標は、アーティストの頭部(たとえば、口元)となる。 When an artist's singing video is provided as the AR content 100, the voice is the sound source of the artist singing, and the sound source coordinates are the head (for example, mouth) of the artist.

図2の説明に戻り、制御部40について説明する。制御部40は、たとえば、コントローラ(controller)であり、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processing Unit)等によって、情報処理装置10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。 Returning to the description of FIG. 2, the control unit 40 will be described. The control unit 40 is, for example, a controller, and is stored in a storage device inside the information processing apparatus 10 by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an MPU (Micro Processing Unit), or the like. Various programs are implemented by executing the RAM as a work area.

図2に示すように、制御部40は、選択部41と、配信部42とを備える。選択部41は、各表示制御装置50から受け取った多視点映像の配信要求に基づき、対応する多視点映像を多視点映像データベース31から選択する。 As shown in FIG. 2, the controller 40 includes a selector 41 and a distributor 42 . The selection unit 41 selects the corresponding multi-view video from the multi-view video database 31 based on the multi-view video distribution request received from each display control device 50 .

たとえば、配信要求には、上記の映像IDに関する情報が含まれており、選択部41は、配信要求に含まれる映像IDに合致する多視点映像を多視点映像データベース31から選択する。 For example, the distribution request includes information about the video ID, and the selection unit 41 selects a multi-view video that matches the video ID included in the distribution request from the multi-view video database 31 .

また、たとえば、多視点映像の配信中において、選択部41は、ARコンテンツ100に対するユーザの注視点情報を各表示制御装置50から受け取り、注視点情報に基づき、多視点映像に対する視点切替処理を行う。 Further, for example, during distribution of multi-view video, the selection unit 41 receives the user's point-of-regard information for the AR content 100 from each display control device 50, and performs viewpoint switching processing for the multi-view video based on the point-of-regard information. .

たとえば、注視点情報は、実空間における撮像画像Gの撮像範囲や撮像向きに関する情報であり、ARコンテンツ100に表示される実空間に関する情報である。すなわち、ARコンテンツ100におけるユーザの注視点に関する情報である。たとえば、ユーザが表示制御装置50(たとえば、後述する外向きカメラ61)の位置を変化させた場合に注視点が変化し、変化した向きや変化量などに関する情報が注視点情報となる。 For example, the point-of-regard information is information about the imaging range and imaging orientation of the captured image G in the real space, and is information about the real space displayed in the AR content 100 . That is, it is information about the gaze point of the user in the AR content 100 . For example, when the user changes the position of the display control device 50 (for example, an outward facing camera 61 described later), the gaze point changes, and information about the changed direction and amount of change becomes the gaze point information.

選択部41は、注視点情報に基づき、多視点映像に対する視点位置を選択し、選択した視点位置に対応する多視点画像を多視点映像データベース31から選択することで、視点切替処理を行う。また、選択部41は、注視点情報の変化に追従させて視点位置を随時切り替える処理を行う。 The selection unit 41 selects a viewpoint position for the multi-view video based on the point-of-regard information, and selects a multi-view image corresponding to the selected viewpoint position from the multi-view video database 31, thereby performing viewpoint switching processing. In addition, the selection unit 41 performs a process of switching the viewpoint position at any time following changes in the point-of-regard information.

また、選択部41は、表示制御装置50から画質の切替要求を受け付けた場合には、仮想オブジェクトOvの画質の切り替えを行う。具体的には、選択部41は、表示制御装置50が仮想オブジェクトOvの動画像を配信中に画質の切替要求を受け付けると、対応する再生時刻における高画質の仮想オブジェクトOvの静止画を選択する。これにより、高画質の仮想オブジェクトOvの静止画が表示制御装置50へ配信され、表示制御装置50において、高画質の仮想オブジェクトOvが映る静止画のARコンテンツ100が表示される。 Further, when receiving a request for switching the image quality from the display control device 50, the selection unit 41 switches the image quality of the virtual object Ov. Specifically, when the display control device 50 receives an image quality switching request while distributing the moving image of the virtual object Ov, the selection unit 41 selects a high-quality still image of the virtual object Ov at the corresponding reproduction time. . As a result, the still image of the virtual object Ov with high image quality is delivered to the display control device 50, and the AR content 100 of the still image showing the virtual object Ov with high image quality is displayed on the display control device 50. FIG.

また、選択部41は、仮想オブジェクトOvの静止画を配信中に画質の切替要求を受け付けた場合には、動画の仮想視点画像を選択することになる。すなわち、一時停止操作が解除された場合には、画質を動画像用の画質に戻すことになる。 Further, when the selection unit 41 receives an image quality switching request while distributing the still image of the virtual object Ov, the selection unit 41 selects the virtual viewpoint image of the moving image. That is, when the pause operation is canceled, the image quality is returned to the image quality for moving images.

配信部42は、選択部41によって選択された多視点映像を各表示制御装置50に対して配信する。なお、配信部42が配信する多視点映像は、時間的に連続する多視点画像であり、配信部42は、注視点情報に基づいて設定された視点位置から見た多視点画像を随時配信することで多視点映像を配信する。また、配信部42は、多視点映像とともに音声等に関する情報をあわせて表示制御装置50へ配信する。 The distribution unit 42 distributes the multi-viewpoint video selected by the selection unit 41 to each display control device 50 . The multi-view images distributed by the distribution unit 42 are temporally continuous multi-view images, and the distribution unit 42 distributes multi-view images viewed from viewpoint positions set based on the point-of-regard information as needed. to deliver multi-view video. In addition, the distribution unit 42 distributes the multi-view video together with information about audio and the like to the display control device 50 .

〔2-2.表示制御装置の構成例〕
次に、図4を用いて、実施形態に係る表示制御装置50の構成例について説明する。図4は、表示制御装置50の構成例を示すブロック図である。図4に示すように、表示制御装置50は、通信部60、外向きカメラ61、内向きカメラ62、センサ群63、表示部64、音声出力部65、記憶部70および制御部80を備える。なお、外向きカメラ61、内向きカメラ62、センサ群63、表示部64および音声出力部65については、表示制御装置50とは別の装置であってもよい。
[2-2. Configuration example of display control device]
Next, a configuration example of the display control device 50 according to the embodiment will be described with reference to FIG. FIG. 4 is a block diagram showing a configuration example of the display control device 50. As shown in FIG. As shown in FIG. 4 , the display control device 50 includes a communication section 60 , an outward facing camera 61 , an inward facing camera 62 , a sensor group 63 , a display section 64 , an audio output section 65 , a storage section 70 and a control section 80 . Note that the outward camera 61 , the inward camera 62 , the sensor group 63 , the display section 64 and the audio output section 65 may be devices different from the display control device 50 .

通信部60は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部60は、4G(Generation)、5G、LTE(Long Term Evolution)、WiFi(登録商標)若しくは無線LAN(Local Area Network)等といった各種の無線通信網若しくは各種の有線通信網といったネットワークを介して、外部装置との間で情報の送受信を行う。 The communication unit 60 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 60 uses networks such as various wireless communication networks such as 4G (Generation), 5G, LTE (Long Term Evolution), WiFi (registered trademark) or wireless LAN (Local Area Network), or various wired communication networks. Information is sent and received to and from an external device via the network.

外向きカメラ61は、表示制御装置50の外側(たとえば、表示部64の表示面とは逆側)を撮像するカメラであり、実空間を撮像する。たとえば、外向きカメラ61によって撮像された撮像画像は、ARコンテンツ100における仮想オブジェクトOvの背景画像として用いられる。内向きカメラ62は、表示制御装置50の内側(たとえば、表示部64の表示面側)を撮像するカメラであり、ARコンテンツ100を視聴するユーザを撮像する。 The outward camera 61 is a camera that captures an image of the outside of the display control device 50 (for example, the side opposite to the display surface of the display unit 64), and captures an image of the real space. For example, the captured image captured by the outward facing camera 61 is used as the background image of the virtual object Ov in the AR content 100 . The inward facing camera 62 is a camera that captures an image of the inside of the display control device 50 (for example, the display surface side of the display unit 64), and captures an image of the user viewing the AR content 100. FIG.

センサ群63は、たとえば、表示制御装置50の姿勢や、実空間に存在するオブジェクトまでの距離や3次元形状を検出するための各種センサによって構成される。たとえば、センサ群63には、ジャイロセンサ、Lidarなどが含まれる。 The sensor group 63 is composed of various sensors for detecting, for example, the attitude of the display control device 50, the distance to an object existing in the real space, and the three-dimensional shape. For example, the sensor group 63 includes a gyro sensor, lidar, and the like.

表示部64は、たとえば、タッチパネルディスプレイであり、ARコンテンツ100等の各種映像を表示するとともに、各種ユーザ操作を受け付ける。音声出力部65は、たとえば、サラウンドスピーカあるいはステレオスピーカであり、ARコンテンツ100とともに流れる各種音声を出力する。 The display unit 64 is, for example, a touch panel display, displays various images such as the AR content 100, and receives various user operations. The audio output unit 65 is, for example, a surround speaker or a stereo speaker, and outputs various sounds that flow together with the AR content 100 .

記憶部70は、たとえば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部70は、マップ情報記憶部71およびサイズ情報記憶部72を有する。 The storage unit 70 is realized by, for example, a semiconductor memory device such as a RAM or flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 70 also has a map information storage unit 71 and a size information storage unit 72 .

マップ情報記憶部71は、実空間のマップ情報を記憶する。たとえば、マップ情報とは、表示制御装置50の周辺環境を示す環境地図であり、後述する自己位置推定部81による処理結果に基づいて作成される。 The map information storage unit 71 stores map information of the real space. For example, the map information is an environment map indicating the surrounding environment of the display control device 50, and is created based on the processing result by the self-position estimation unit 81, which will be described later.

続いて、制御部80について説明する。制御部80は、たとえば、コントローラ(controller)であり、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processing Unit)等によって、情報処理装置10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。 Next, the controller 80 will be described. The control unit 80 is, for example, a controller, and is stored in a storage device inside the information processing apparatus 10 by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an MPU (Micro Processing Unit), or the like. Various programs are implemented by executing the RAM as a work area.

図4に示すように、制御部80は、自己位置推定部81と、表示面設定部82と、再生部83と、受付部84と、表示制御部85と、音声制御部86とを有する。自己位置推定部81は、外向きカメラ61やセンサ群63から入力される各種情報に基づき、Slam(Simultaneous Localization and Mapping)等の技術を用いて実空間の環境地図を作成するとともに、環境地図内における表示制御装置50の座標(たとえば、ワールド座標)や姿勢を推定する。 As shown in FIG. 4 , the control unit 80 has a self-position estimation unit 81 , a display surface setting unit 82 , a playback unit 83 , a reception unit 84 , a display control unit 85 and an audio control unit 86 . Based on various information input from the outward camera 61 and the sensor group 63, the self-position estimation unit 81 creates an environment map of the real space using a technique such as Slam (Simultaneous Localization and Mapping), and , the coordinates (for example, world coordinates) and orientation of the display control device 50 are estimated.

また、自己位置推定部81は、作成した環境地図に関する情報をマップ情報としてマップ情報記憶部71に格納するとともに、推定した位置や姿勢に関する情報、すなわち、上記の注視点情報を表示面設定部82へ渡す。また、ARコンテンツ100の提供中においては、注視点情報は、情報処理装置10へも送信される。 In addition, the self-position estimation unit 81 stores information on the created environment map as map information in the map information storage unit 71, and also stores information on the estimated position and orientation, that is, the above gaze point information, on the display surface setting unit 82. pass to Further, while the AR content 100 is being provided, the point-of-regard information is also transmitted to the information processing device 10 .

表示面設定部82は、自己位置推定部81によって作成された環境地図に基づき、実空間において仮想オブジェクトOvを表示する仮想的な表示面(以下、単に表示面)を設定する。 The display surface setting unit 82 sets a virtual display surface (hereinafter simply display surface) for displaying the virtual object Ov in the real space based on the environment map created by the self-position estimation unit 81 .

たとえば、表示面設定部82は、環境地図から仮想オブジェクトOvを表示可能な表示面の探索を行う。ここで、表示可能な表示面とは、たとえば、ARコンテンツ100として表示する仮想部ジェクトOvを内包可能な表示空間の底面に対応する。 For example, the display surface setting unit 82 searches for a display surface on which the virtual object Ov can be displayed from the environmental map. Here, the display surface that can be displayed corresponds to, for example, the bottom surface of the display space that can contain the virtual object Ov displayed as the AR content 100 .

ここでの表示空間とは、実空間内において仮想部ジェクトOvを内包可能な3次元形状の空間である。すなわち、仮想オブジェクトOvを表示するにあたり、十分に表示可能な3次元空間が表示空間となり、その底面が仮想オブジェクトOvの表示面となる。 The display space here is a three-dimensional space that can contain the virtual part Ov in the real space. That is, when displaying the virtual object Ov, a three-dimensional space that can be sufficiently displayed becomes the display space, and the bottom surface thereof becomes the display surface of the virtual object Ov.

これにより、たとえば、ARコンテンツ100において、仮想オブジェクトOvが、実空間の壁や天井を突き抜けて表示されるような誤表示をあらかじめ回避することができる。なお、たとえば、表示面設定部82は、実空間にあわせて仮想オブジェクトOvの表示サイズを小さくすることで、仮想オブジェクトOvが実空間に収まるようにしてもよい。換言すれば、実空間にあわせて仮想オブジェクトOvの表示サイズを設定することにしてもよい。 As a result, for example, in the AR content 100, it is possible to avoid in advance an erroneous display in which the virtual object Ov is displayed through a wall or ceiling in the real space. Note that, for example, the display surface setting unit 82 may reduce the display size of the virtual object Ov in accordance with the real space so that the virtual object Ov fits in the real space. In other words, the display size of the virtual object Ov may be set according to the real space.

表示面設定部82は、表示空間および表示面を設定すると、表示空間および表示面に関する各種座標情報をマップ情報記憶部71に書き込む。なお、たとえば、表示面は、実空間の床であるが、仮想オブジェクトOvの種類に応じて、ユーザの体の一部(たとえば手のひらなど)とすることにしてもよい。また、表示空間自体を実際の床から浮遊させることにしてもよい。また、表示面設定部82は、表示する仮想オブジェクトOv毎に、それぞれ独立に表示空間および表示面を設定することにしてもよい。また、たとえば、仮想オブジェクトOv自体がARコンテンツ100内を移動するコンテンツも考えられるので、表示面設定部82は、仮想オブジェクトOvの移動範囲を包含するように表示空間や表示面を設定するようにしてもよい。 After setting the display space and the display surface, the display surface setting unit 82 writes various coordinate information regarding the display space and the display surface to the map information storage unit 71 . For example, the display surface is the floor of the real space, but it may be a part of the user's body (for example, the palm of the hand) depending on the type of the virtual object Ov. Alternatively, the display space itself may be made to float above the actual floor. Further, the display surface setting unit 82 may independently set the display space and the display surface for each virtual object Ov to be displayed. Further, for example, content in which the virtual object Ov itself moves within the AR content 100 is conceivable, so the display surface setting unit 82 sets the display space and the display surface so as to include the movement range of the virtual object Ov. may

その後、表示面設定部82は、撮像画像Gの撮像位置にあわせて仮想部ジェクトOvの表示サイズを更新する。たとえば、表示面設定部82は、自己位置推定部81から受け取った注視点情報に基づき、撮像画像Gの撮像位置(たとえば、外向きカメラ61の位置)を認識する。そして、表示面設定部82は、撮像位置と表示面との位置関係に基づき、表示サイズを設定する。具体的には、表示面設定部82は、撮像位置と表示面とが近くなるにつれて、表示サイズを大きくし、撮像位置と表示面とが遠くなるにつれて小さくなるように表示サイズを設定する。 After that, the display surface setting unit 82 updates the display size of the virtual part object Ov according to the imaging position of the captured image G. FIG. For example, the display surface setting unit 82 recognizes the imaging position of the captured image G (for example, the position of the outward facing camera 61) based on the point-of-regard information received from the self-position estimating unit 81. FIG. Then, the display surface setting unit 82 sets the display size based on the positional relationship between the imaging position and the display surface. Specifically, the display surface setting unit 82 sets the display size so that the closer the imaging position and the display surface are, the larger the display size is, and the farther the imaging position is from the display surface, the smaller the display size is.

この場合においては、仮想オブジェクトOvを表示面に実在すると仮定した場合に、撮像画像G内に映る実際の大きさとなるように仮想オブジェクトOvの表示サイズが更新される。 In this case, assuming that the virtual object Ov actually exists on the display surface, the display size of the virtual object Ov is updated so as to have the actual size shown in the captured image G.

再生部83は、周囲を撮像した撮像画像Gに重畳する動画像を再生する。たとえば、再生部83は、情報処理装置10から随時送信される多視点画像をストリーミング再生によって仮想オブジェクトOvの動画像を再生する。また、再生部83は、再生した動画像に関する情報を表示制御部85へ渡す。 The reproducing unit 83 reproduces a moving image to be superimposed on the captured image G that captures the surroundings. For example, the reproduction unit 83 reproduces the moving image of the virtual object Ov by streaming reproduction of the multi-viewpoint image transmitted from the information processing device 10 as needed. Also, the reproducing unit 83 passes information about the reproduced moving image to the display control unit 85 .

受付部84は、再生部83による動画像の再生中に所定の操作による動画像の静止操作を受け付ける。たとえば、受付部84は、タッチパネルである表示部64に対するユーザ操作に基づき、静止操作を受け付ける。受付部84は、静止操作を受け付けた場合に、静止操作に関する情報を表示制御部85に渡す。 The accepting unit 84 accepts an operation to freeze a moving image by a predetermined operation during playback of the moving image by the playback unit 83 . For example, accepting unit 84 accepts a stationary operation based on a user's operation on display unit 64, which is a touch panel. The accepting unit 84 passes information about the still operation to the display control unit 85 when accepting the still operation.

ここで、図5および6を用いて、静止操作の具体例について説明する。図5および図6は、実施形態に係る静止操作の一例を示す図である。たとえば、図5に示すように、受付部84は、表示部64に表示された一時停止ボタンB1の操作を静止操作として受け付ける。 A specific example of the stationary operation will now be described with reference to FIGS. 5 and 6 are diagrams illustrating an example of a stationary operation according to the embodiment. For example, as shown in FIG. 5, the accepting unit 84 accepts an operation of the pause button B1 displayed on the display unit 64 as a stationary operation.

たとえば、ユーザは、ARコンテンツ100の再生時において表示部64に対してタップ操作を行うことで、一時停止ボタンB1を表示部64に表示させることができ、表示された一時停止ボタンB1をタップすることで、受付部84は、一時停止の静止操作を受け付ける。 For example, the user can cause the display unit 64 to display the pause button B1 by performing a tap operation on the display unit 64 during playback of the AR content 100, and tap the displayed pause button B1. Thus, the receiving unit 84 receives the pause operation.

また、図6に示すように、受付部84は、表示部64に表示された撮影ボタンB1の操作を静止操作として受け付けることにしてもよい。ユーザは、ARコンテンツ100の再生時において表示部64に対してタップ操作を行うことで、撮影ボタンB2を表示部64に表示させることができ、表示された撮影ボタンB2をタップすることで、受付部84は、撮影による静止操作を受け付ける。 Further, as shown in FIG. 6, the accepting unit 84 may accept the operation of the shooting button B1 displayed on the display unit 64 as the still operation. The user can cause the shooting button B2 to be displayed on the display unit 64 by performing a tap operation on the display unit 64 during playback of the AR content 100. By tapping the displayed shooting button B2, the reception can be performed. A unit 84 accepts a still operation by photographing.

なお、上記の静止操作は、一例であり、任意に変更することにしてもよい。すなわち、たとえば、受付部84は、音声入力やジェスチャー操作によって静止操作を受け付けることにしてもよい。 It should be noted that the stationary operation described above is an example, and may be changed arbitrarily. That is, for example, the accepting unit 84 may accept a stationary operation by voice input or gesture operation.

図4の説明に戻り、表示制御部85について説明する。表示制御部85は、受付部84によって静止操作が受け付けられた場合に、動画像よりも高画質の動画像の静止画に切り替えて表示する。 Returning to the description of FIG. 4, the display control unit 85 will be described. When the accepting unit 84 accepts the still operation, the display control unit 85 switches to display a still image of a moving image with higher image quality than the moving image.

たとえば、表示制御部85は、再生部83によって再生される動画像の仮想オブジェクトOvを表示面設定部82によって設定された表示面に表示されるように撮像画像Gに重畳表示することで、動画像のARコンテンツ100を生成する。 For example, the display control unit 85 superimposes the virtual object Ov of the moving image reproduced by the reproducing unit 83 on the captured image G so as to be displayed on the display surface set by the display surface setting unit 82, thereby displaying the moving image. Generate the AR content 100 of the image.

また、受付部84によって静止操作が受け付けられた場合に、表示制御部85は、静止操作が行われた再生時刻における仮想オブジェクトOvの静止画への切替要求を情報処理装置10に対して行う。 Further, when the accepting unit 84 accepts the still operation, the display control unit 85 requests the information processing apparatus 10 to switch the virtual object Ov to the still image at the reproduction time at which the still operation was performed.

これにより、情報処理装置10から高画質の仮想オブジェクトOvが配信され、表示制御部85は、高画質の仮想オブジェクトOvに関する静止画のARコンテンツ100を表示することになる。また、たとえば、静止操作として、静止画の撮影操作が受け付けられた場合には、表示制御部85は、仮想オブジェクトOvに関する動画像の表示を継続しつつ、撮影操作が行われた画角における高画質の仮想オブジェクトOvの静止画を情報処理装置10から受け取り、たとえば、撮像画像Gに重畳したスクリーンショットとして記憶する。 As a result, the high-quality virtual object Ov is distributed from the information processing apparatus 10, and the display control unit 85 displays the still image AR content 100 related to the high-quality virtual object Ov. Further, for example, when a still image shooting operation is accepted as a still operation, the display control unit 85 continues to display the moving image related to the virtual object Ov, and at the same time, the height at the angle of view at which the shooting operation was performed. A still image of the virtual object Ov of image quality is received from the information processing device 10 and stored as a screen shot superimposed on the captured image G, for example.

このように、表示制御部85は、静止操作に応じて、動画像よりも高画質の静止画を表示することで、動画像と静止画とで画質を使い分けることができるので、画質の適切に切り替えることができる。 In this way, the display control unit 85 displays a still image with a higher image quality than a moving image in response to a still operation. You can switch.

音声制御部86は、撮像画像Gの撮像位置と、多視点画像において設定された音声発生源との位置関係に基づき、音声出力を制御する。たとえば、仮想オブジェクトOvが人物であり、その頭部に音声発生源が設定される。 The audio control unit 86 controls audio output based on the positional relationship between the imaging position of the captured image G and the audio generation source set in the multi-view image. For example, the virtual object Ov is a person whose head is set as the sound source.

ここで、たとえば、外向きカメラ61の撮像位置が変化すると、ARコンテンツ100における仮想オブジェクトOvの位置が変化し、これに伴い音声発生源の位置が変化することになる。 Here, for example, when the imaging position of the outward facing camera 61 changes, the position of the virtual object Ov in the AR content 100 changes, and the position of the sound source changes accordingly.

そのため、音声制御部86は、これらの位置関係に基づき、音声出力部65の出力を制御することで、ARコンテンツ100における音声発生源の位置を一致させる処理を行う。具体的には、たとえば、撮像画像Gにおいて仮想オブジェクトOvが右側に表示される場合、ユーザの右側から音声が聞こえるように音声出力部65を制御し、撮像画像Gにおいて仮想オブジェクトOvが手前側に表示される場合には、手前側から音声が聞こえるように音声出力部65を制御する。 Therefore, the audio control unit 86 controls the output of the audio output unit 65 based on these positional relationships, thereby performing processing for matching the positions of the audio sources in the AR content 100 . Specifically, for example, when the virtual object Ov is displayed on the right side of the captured image G, the audio output unit 65 is controlled so that the sound can be heard from the user's right side, and the virtual object Ov is displayed on the front side of the captured image G. When displayed, the audio output unit 65 is controlled so that the audio can be heard from the near side.

このように、音声制御部86は、音声発生源の位置変化にあわせて音声制御をコントロールすることで、リアリティーの高いARコンテンツ100を提供することができる。なお、音声発生源は一つに限らず、複数であってもよい。この場合、音声制御部86は、音声発生源毎に位置関係に基づき、音声制御を行う。 In this way, the audio control unit 86 can provide highly realistic AR content 100 by controlling audio control according to changes in the position of the audio source. Note that the number of sound generation sources is not limited to one, and may be plural. In this case, the audio control unit 86 performs audio control based on the positional relationship for each audio source.

また、たとえば、音声制御部86は、音声発生源が複数である場合には、音声発生源毎に音量等の各種調整や、音声発生源の統合などを行うことにしてもよい。また、音声制御部86は、たとえば、音声発生源の位置を変更する操作を受け付けることにしてもよい。この場合、たとえば、当初設定された音声発生源とは別の任意の座標に音声発生源を設定することにしてもよい。 Further, for example, when there are a plurality of sound sources, the sound control unit 86 may perform various adjustments such as volume for each sound source, or may integrate the sound sources. Also, the audio control unit 86 may accept an operation to change the position of the audio source, for example. In this case, for example, the sound source may be set at arbitrary coordinates different from the initially set sound source.

また、音声制御部86は、たとえば、ユーザ操作に基づき、音声の削除、追加等を行うことにしてもよい。すなわち、複数の多視点映像から任意の音声を組み合わせて出力することにしてもよい。この場合、たとえば、異なる歌手が歌っている音声を他の歌手の仮想オブジェクトOvが歌っているかのようなARコンテンツ100を提供することができる。 Also, the audio control unit 86 may delete, add, etc. the audio based on the user's operation, for example. That is, it is also possible to combine arbitrary sounds from a plurality of multi-viewpoint images and output them. In this case, for example, it is possible to provide the AR content 100 as if the voice sung by a different singer is sung by another singer's virtual object Ov.

〔3.処理手順〕
次に、図7および図8を用いて、実施形態に係る情報処理装置10および表示制御装置50が実行する処理手順について説明する。まず、図7を用いて、情報処理装置10が実行する処理手順について説明する。図7は、情報処理装置10が実行する処理手順を示すフローチャートである。なお、以下に示す処理手順は、情報処理装置10の制御部40によって配信要求の取得毎に繰り返し実行される。
[3. Processing procedure]
Next, processing procedures executed by the information processing device 10 and the display control device 50 according to the embodiment will be described with reference to FIGS. 7 and 8. FIG. First, a processing procedure executed by the information processing apparatus 10 will be described with reference to FIG. FIG. 7 is a flowchart showing a processing procedure executed by the information processing apparatus 10. As shown in FIG. Note that the processing procedure described below is repeatedly executed by the control unit 40 of the information processing apparatus 10 each time a distribution request is acquired.

図7に示すように、まず、情報処理装置10は、配信要求を受け付ける(ステップS101)。つづいて、情報処理装置10は、受け付けた配信要求に基づき、多視点映像を配信する(ステップS102)。 As shown in FIG. 7, first, the information processing device 10 receives a distribution request (step S101). Subsequently, the information processing device 10 distributes the multi-view video based on the received distribution request (step S102).

つづいて、情報処理装置10は、表示制御装置50から静止操作に伴う画質の切り替え要求があったか否かを判定する(ステップS103)。情報処理装置10は、切り替え要求があった場合には(ステップS103;Yes)、動画像よりも高画質の静止画像を配信する(ステップS104)。 Subsequently, the information processing device 10 determines whether or not there is a request for image quality switching associated with the still operation from the display control device 50 (step S103). When the switching request is received (step S103; Yes), the information processing apparatus 10 distributes a still image with higher image quality than the moving image (step S104).

また、情報処理装置10、切り替え要求がなかった場合には(ステップS103;No)、ステップS104の処理を省略し、ステップS105の処理へ進む。その後、情報処理装置10は、配信中の多視点映像が終了した否かを判定する(ステップS105)。 If the information processing apparatus 10 does not request switching (step S103; No), the process of step S104 is omitted, and the process proceeds to step S105. After that, the information processing apparatus 10 determines whether or not the multi-view video being distributed has ended (step S105).

情報処理装置10は、多視点映像が終了した場合(ステップS105;Yes)、処理を終了する。また、情報処理装置10は、多視点映像が継続中である場合(ステップS105;No)、ステップS103の処理へ進む。 The information processing apparatus 10 ends the process when the multi-view video is finished (step S105; Yes). Further, when the multi-view video is being continued (step S105; No), the information processing apparatus 10 proceeds to the process of step S103.

次に、図8を用いて、表示制御装置50が実行する処理手順について説明する。図8は、表示制御装置50が実行する処理手順の一例を示すフローチャートである。なお、以下に示す処理手順は、ARコンテンツ100の提供毎に表示制御装置50の制御部80によって実行される。 Next, a processing procedure executed by the display control device 50 will be described with reference to FIG. FIG. 8 is a flowchart showing an example of a processing procedure executed by the display control device 50. As shown in FIG. The processing procedure described below is executed by the control unit 80 of the display control device 50 each time the AR content 100 is provided.

図8に示すように、まず、表示制御装置50は、たとえば、周囲を撮像した撮像画像等に基づき、実空間における仮想オブジェクトOvの表示面Aを設定する(ステップS201)。 As shown in FIG. 8, first, the display control device 50 sets a display surface A of the virtual object Ov in the real space based on, for example, a captured image of the surroundings (step S201).

つづいて、表示制御装置50は、情報処理装置10から配信される動画像の仮想オブジェクトOvに基づき、ARコンテンツ100の表示を開始する(ステップS202)。つづいて、表示制御装置50は、動画像に対する静止操作を受け付けたか否かを判定し(ステップS203)、静止操作を受け付けた場合には(ステップS203;Yes)、仮想オブジェクトOvを高画質の静止画に切り替える(ステップS204)。 Subsequently, the display control device 50 starts displaying the AR content 100 based on the virtual object Ov of the moving image distributed from the information processing device 10 (step S202). Subsequently, the display control device 50 determines whether or not a still operation for the moving image has been accepted (step S203). If a still operation has been accepted (step S203; screen (step S204).

また、表示制御装置50は、静止操作を受け付けていない場合には(ステップS203;No)、ステップS205の処理へ進む。その後、情報処理装置10は、提供中のARコンテンツ100が終了したか否かを判定し(ステップS205)、ARコンテンツ100が終了した場合には(ステップS205;Yes)、処理を終了する。また、表示制御装置50は、ARコンテンツ100が継続中である場合には(ステップS205;No)、ステップS203の処理へ進む。 If the display control device 50 has not received a still operation (step S203; No), the process proceeds to step S205. After that, the information processing apparatus 10 determines whether or not the AR content 100 being provided has ended (step S205), and if the AR content 100 has ended (step S205; Yes), the processing ends. Further, when the AR content 100 is being continued (step S205; No), the display control device 50 proceeds to the process of step S203.

〔4.変形例〕
上述した表示システムSは、上記実施形態以外にも種々の異なる形態にて実施されてもよい。そこで、以下では、表示システムSの他の実施形態について説明する。
[4. Modification]
The display system S described above may be implemented in various different forms other than the above embodiment. Therefore, other embodiments of the display system S will be described below.

たとえば、表示制御装置50は、カメラ(外向きカメラ61および内向きカメラ62)と分離した構成であってもよい。また、表示制御装置50が提供するコンテンツは、ARコンテンツ100に限られず、たとえば、撮像画像Gに基づき、実空間をアニメーション等に変換したVR(Virtual Reality)コンテンツを提供することにしてもよい。 For example, display control device 50 may be configured separately from the cameras (outward facing camera 61 and inward facing camera 62). The content provided by the display control device 50 is not limited to the AR content 100. For example, based on the captured image G, VR (Virtual Reality) content obtained by converting the real space into an animation or the like may be provided.

〔5.効果〕
上述してきたように、実施形態に係る表示制御装置50は、周囲を撮像した撮像画像に重畳表示する動画像を再生する再生部83と、再生部83による動画像の再生中に所定の操作による動画像の静止操作を受け付ける受付部84と、受付部84によって静止操作が受け付けられた場合に、動画像よりも高画質の動画像の静止画に切り替えて表示する表示制御部85とを備える。したがって、実施形態に係る表示制御装置50によれば、ARコンテンツ100における画質を適切に切り替えることができる。
[5. effect〕
As described above, the display control device 50 according to the embodiment includes the reproduction unit 83 that reproduces a moving image that is superimposed on the captured image that captures the surroundings, and the reproduction unit 83 that reproduces the moving image by a predetermined operation. A receiving part 84 for receiving a still operation of a moving image, and a display control part 85 for switching and displaying a still image of a moving image having higher image quality than the moving image when the receiving part 84 receives the still operation. Therefore, according to the display control device 50 according to the embodiment, it is possible to appropriately switch the image quality of the AR content 100 .

また、実施形態に係る表示制御装置50において、受付部84は、動画像に対する静止画の撮影操作を静止操作として受け付け、表示制御部85は、撮影操作で撮影される静止画において高画質の静止画を表示する。したがって、実施形態に係る表示制御装置50によれば、たとえば、動画像から高画質の静止画を含む写真を撮ることができるので、
ARコンテンツ100に関するサービスの向上を図ることができる。
Further, in the display control device 50 according to the embodiment, the reception unit 84 receives a still image photographing operation for a moving image as a still operation, and the display control unit 85 receives a still image of high image quality in the still image photographed by the photographing operation. display the image. Therefore, according to the display control device 50 according to the embodiment, for example, it is possible to take a photograph including a high-quality still image from a moving image.
The service related to the AR content 100 can be improved.

また、実施形態に係る表示制御装置50において、受付部84は、動画像に対する一時停止操作を静止操作として受け付け、表示制御部85は、一時停止操作で静止した再生時刻における高画質の静止画を表示する。したがって、実施形態に係る表示制御装置50によれば、ユーザが注視したい再生時刻における高画質の静止画を含むARコンテンツ100を提供することができるので、ARコンテンツ100に関するサービスの向上を図ることができる。 Further, in the display control device 50 according to the embodiment, the reception unit 84 receives a pause operation for the moving image as a still operation, and the display control unit 85 displays a high-quality still image at the playback time stopped by the pause operation. indicate. Therefore, according to the display control device 50 according to the embodiment, it is possible to provide the AR content 100 including the high-quality still image at the playback time that the user wants to watch, so that the service related to the AR content 100 can be improved. can.

また、実施形態に係る表示制御装置50において、受付部84は、多視点から閲覧可能な多視点画像の動画像を再生し、表示制御部85は、動画像よりも高画質の多視点画像の静止画に切り替えて表示する。したがって、実施形態に係る表示制御装置50によれば、ユーザが注視したい角度からみた高画質の仮想オブジェクトOvが映る静止画を含むARコンテンツ100を提供することができるので、ARコンテンツ100に関するサービスの向上を図ることができる。 In addition, in the display control device 50 according to the embodiment, the reception unit 84 reproduces moving images of multi-viewpoint images that can be viewed from multiple viewpoints, and the display control unit 85 reproduces multi-viewpoint images with higher image quality than the moving images. Switch to a still image and display it. Therefore, according to the display control device 50 according to the embodiment, it is possible to provide the AR content 100 including the still image showing the high-quality virtual object Ov viewed from the angle that the user wants to gaze at. can be improved.

また、実施形態に係る表示制御装置50において、表示制御部85は、撮像画像の撮像位置にあわせて、静止画に対する視点位置を切り替えて表示する。したがって、実施形態に係る表示制御装置50によれば、ユーザが注視したい角度からみた高画質の仮想オブジェクトOvが映る静止画を含むARコンテンツ100を提供することができるので、ARコンテンツ100に関するサービスの向上を図ることができる。 In addition, in the display control device 50 according to the embodiment, the display control unit 85 switches and displays the viewpoint position with respect to the still image in accordance with the imaging position of the captured image. Therefore, according to the display control device 50 according to the embodiment, it is possible to provide the AR content 100 including the still image showing the high-quality virtual object Ov viewed from the angle that the user wants to gaze at. can be improved.

また、実施形態に係る表示制御方法は、コンピュータが実行する表示制御方法であって、周囲を撮像した撮像画像に重畳表示する動画像を再生する再生工程と、再生工程による動画像の再生中に所定の操作による動画像の静止操作を受け付ける受付工程と、受付工程によって静止操作が受け付けられた場合に、動画像よりも高画質の動画像の静止画に切り替えて表示する表示制御工程とを含む。 Further, a display control method according to an embodiment is a display control method executed by a computer, and includes a reproduction step of reproducing a moving image to be superimposed on a captured image of the surroundings, and during reproduction of the moving image in the reproducing step. a receiving step of receiving a still operation of a moving image by a predetermined operation; and a display control step of switching to and displaying a still image of a moving image with higher image quality than the moving image when the still operation is received by the receiving step. .

また、実施形態に係る表示制御プログラムは、周囲を撮像した撮像画像に重畳表示する動画像を再生する再生手順と、再生手順による動画像の再生中に所定の操作による前記動画像の静止操作を受け付ける受付手順と、受付手順によって静止操作が受け付けられた場合に、動画像よりも高画質の動画像の静止画に切り替えて表示する表示制御手順とをコンピュータに実行させる。 Further, the display control program according to the embodiment performs a reproduction procedure for reproducing a moving image to be superimposed and displayed on a captured image of the surroundings, and a static operation of the moving image by a predetermined operation while the moving image is being reproduced according to the reproduction procedure. A computer is caused to execute a reception procedure for reception and a display control procedure for switching to display a still image of a moving image having a higher image quality than a moving image when a static operation is received by the reception procedure.

〔6.ハードウェア構成〕
また、上述してきた実施形態に係る表示制御装置50は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、実施形態に係る表示制御装置50の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration]
Also, the display control device 50 according to the above-described embodiments is implemented by a computer 1000 configured as shown in FIG. 9, for example. FIG. 9 is a hardware configuration diagram showing an example of a computer that implements the functions of the display control device 50 according to the embodiment. Computer 1000 has CPU 1100 , RAM 1200 , ROM 1300 , HDD 1400 , communication interface (I/F) 1500 , input/output interface (I/F) 1600 and media interface (I/F) 1700 .

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on programs stored in the ROM 1300 or HDD 1400 and controls each section. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワーク(通信ネットワーク)Nを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100, data used by these programs, and the like. Communication interface 1500 receives data from other devices via network (communication network) N, sends the data to CPU 1100, and transmits data generated by CPU 1100 to other devices via network N. FIG.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置(図9では、出力装置および入力装置を総称して「入出力装置」と記載する)を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。 Through an input/output interface 1600, the CPU 1100 connects an output device such as a display and a printer, and an input device such as a keyboard and a mouse (in FIG. 9, the output device and the input device are collectively referred to as an "input/output device" ). CPU 1100 acquires data from an input device via input/output interface 1600 . CPU 1100 also outputs the generated data to an output device via input/output interface 1600 .

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1200 . CPU 1100 loads such a program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disc), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータ1000が実施形態に係る表示制御装置50として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部120の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the display control device 50 according to the embodiment, the CPU 1100 of the computer 1000 implements the functions of the control unit 120 by executing programs loaded on the RAM 1200 . CPU 1100 of computer 1000 reads these programs from recording medium 1800 and executes them, but as another example, these programs may be acquired via network N from another device.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings. It is possible to carry out the invention in other forms with modifications.

〔7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. others〕
Further, among the processes described in the above embodiments and modifications, all or part of the processes described as being performed automatically can be performed manually, or described as being performed manually. All or part of the processing can also be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution/integration of each device is not limited to the illustrated one, and all or part of them can be functionally or physically distributed/integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined within a range that does not contradict the processing contents.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、自己位置推定部81は、自己位置推定部手段や自己位置推定部回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the self-position estimator 81 can be read as self-position estimator means or a self-position estimator circuit.

10 情報処理装置
20 通信部
30 記憶部
31 多視点映像データベース
40 制御部
41 選択部
42 配信部
50 表示制御装置
70 記憶部
71 マップ情報記憶部
80 制御部
81 自己位置推定部
82 表示面設定部
83 再生部
84 受付部
85 表示制御部
86 音声制御部
100 ARコンテンツ
G 撮像画像
Ov 仮想オブジェクト
10 information processing device 20 communication unit 30 storage unit 31 multi-view video database 40 control unit 41 selection unit 42 distribution unit 50 display control unit 70 storage unit 71 map information storage unit 80 control unit 81 self-position estimation unit 82 display surface setting unit 83 Reproduction unit 84 Reception unit 85 Display control unit 86 Audio control unit 100 AR content G Captured image Ov Virtual object

Claims (5)

周囲を撮像した撮像画像に重畳表示する動画像を再生する再生部と、
前記再生部による前記動画像の再生中に所定の操作による前記動画像の静止操作を受け付ける受付部と、
前記受付部によって前記静止操作が受け付けられた場合に、前記動画像よりも高画質の前記動画像の静止画に切り替えて表示する表示制御部と
を備え
前記受付部は、
前記動画像に対する静止画の一時停止操作、または、撮影操作を前記静止操作として受け付け、
前記表示制御部は、
前記受付部により前記一時停止操作が受け付けられた場合、当該一時停止操作で静止した再生時刻における前記高画質の前記静止画を表示し、前記受付部により前記撮影操作が受け付けられた場合には、前記動画像の表示を継続しつつ、前記撮影操作で撮影される画角の前記高画質の前記静止画を記憶すること
を特徴とする表示制御装置。
a reproducing unit that reproduces a moving image superimposed on a captured image of the surroundings;
a reception unit that receives a still operation of the moving image by a predetermined operation while the moving image is being reproduced by the reproducing unit;
a display control unit that switches to and displays a still image of the moving image with higher image quality than the moving image when the static operation is received by the receiving unit ;
The reception unit
Receiving a still image pause operation or a shooting operation for the moving image as the still operation;
The display control unit
When the pause operation is accepted by the accepting unit, the high-quality still image at the playback time when the pause operation was stopped is displayed, and when the shooting operation is accepted by the accepting unit, storing the high-quality still image of the angle of view taken by the shooting operation while continuing to display the moving image;
A display control device characterized by:
前記再生部は、
多視点から閲覧可能な多視点画像の前記動画像を再生し、
前記表示制御部は、
前記動画像よりも高画質の前記多視点画像の前記静止画に切り替えて表示すること
を特徴とする請求項1に記載の表示制御装置。
The playback unit
playing back the moving image of a multi-viewpoint image that can be viewed from multiple viewpoints;
The display control unit
The display control device according to claim 1, wherein the display is switched to the still image of the multi-viewpoint image having a higher image quality than the moving image.
前記表示制御部は、
前記撮像画像の撮像位置にあわせて、前記静止画に対する視点位置を切り替えて表示すること
を特徴とする請求項1または2に記載の表示制御装置。
The display control unit
3. The display control device according to claim 1, wherein the viewpoint position of the still image is switched according to the imaging position of the captured image.
コンピュータが実行する表示制御方法であって、
周囲を撮像した撮像画像に重畳表示する動画像を再生する再生工程と、
前記再生工程による前記動画像の再生中に所定の操作による前記動画像の静止操作を受け付ける受付工程と、
前記受付工程によって前記静止操作が受け付けられた場合に、前記動画像よりも高画質の前記動画像の静止画に切り替えて表示する表示制御工程と
を含み、
前記受付工程は、
前記動画像に対する静止画の一時停止操作、または、撮影操作を前記静止操作として受け付け、
前記表示制御工程は、
前記受付工程により前記一時停止操作が受け付けられた場合、当該一時停止操作で静止した再生時刻における前記高画質の前記静止画を表示し、前記受付工程により前記撮影操作が受け付けられた場合には、前記動画像の表示を継続しつつ、前記撮影操作で撮影される画角の前記高画質の前記静止画を記憶すること
を特徴とする表示制御方法。
A display control method executed by a computer,
a reproducing step of reproducing a moving image to be displayed superimposed on a captured image of the surroundings;
a receiving step of receiving an operation to freeze the moving image by a predetermined operation while the moving image is being played back by the playing step;
a display control step of switching to and displaying a still image of the moving image having higher image quality than the moving image when the static operation is received by the receiving step ;
The receiving step includes
Receiving a still image pause operation or a shooting operation for the moving image as the still operation;
The display control step includes:
When the pause operation is accepted by the accepting step, displaying the high-quality still image at the playback time at which the pause operation stopped, and when the photographing operation is accepted by the accepting step, storing the high-quality still image of the angle of view taken by the shooting operation while continuing to display the moving image;
A display control method characterized by:
周囲を撮像した撮像画像に重畳表示する動画像を再生する再生手順と、
前記再生手順による前記動画像の再生中に所定の操作による前記動画像の静止操作を受け付ける受付手順と、
前記受付手順によって前記静止操作が受け付けられた場合に、前記動画像よりも高画質の前記動画像の静止画に切り替えて表示する表示制御手順と
をコンピュータに実行させ
前記受付手順は、
前記動画像に対する静止画の一時停止操作、または、撮影操作を前記静止操作として受け付け、
前記表示制御手順は、
前記受付手順により前記一時停止操作が受け付けられた場合、当該一時停止操作で静止した再生時刻における前記高画質の前記静止画を表示し、前記受付手順により前記撮影操作が受け付けられた場合には、前記動画像の表示を継続しつつ、前記撮影操作で撮影される画角の前記高画質の前記静止画を記憶すること
を特徴とする表示制御プログラム。
a playback procedure for playing back a moving image superimposed on a captured image of the surroundings;
a reception procedure for accepting an operation to freeze the moving image by a predetermined operation while the moving image is being reproduced by the reproducing procedure;
causing a computer to execute a display control procedure for switching to and displaying a still image of the moving image having higher image quality than the moving image when the still operation is accepted by the accepting procedure ;
The reception procedure includes:
Receiving a still image pause operation or a shooting operation for the moving image as the still operation;
The display control procedure includes:
When the pause operation is accepted by the acceptance procedure, the high-quality still image at the playback time stopped by the pause operation is displayed, and when the shooting operation is accepted by the acceptance procedure, storing the high-quality still image of the angle of view taken by the shooting operation while continuing to display the moving image;
A display control program characterized by:
JP2021102065A 2021-06-18 2021-06-18 Display control device, display control method and display control program Active JP7123222B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021102065A JP7123222B1 (en) 2021-06-18 2021-06-18 Display control device, display control method and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021102065A JP7123222B1 (en) 2021-06-18 2021-06-18 Display control device, display control method and display control program

Publications (2)

Publication Number Publication Date
JP7123222B1 true JP7123222B1 (en) 2022-08-22
JP2023000948A JP2023000948A (en) 2023-01-04

Family

ID=82940082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021102065A Active JP7123222B1 (en) 2021-06-18 2021-06-18 Display control device, display control method and display control program

Country Status (1)

Country Link
JP (1) JP7123222B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008501184A (en) 2004-05-28 2008-01-17 シンガポール国立大学 Interactive system and method
JP2015179910A (en) 2014-03-18 2015-10-08 キヤノン株式会社 Image processing system and control method of the same
WO2019054360A1 (en) 2017-09-12 2019-03-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Image display method, image delivery method, image display device, and image delivery device
JP2020017176A (en) 2018-07-27 2020-01-30 株式会社Nttドコモ Information processing device
JP2020119334A (en) 2019-01-24 2020-08-06 株式会社バンダイナムコエンターテインメント Program, electronic apparatus, and data recording method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3526897B2 (en) * 1993-12-24 2004-05-17 株式会社応用計測研究所 Image display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008501184A (en) 2004-05-28 2008-01-17 シンガポール国立大学 Interactive system and method
JP2015179910A (en) 2014-03-18 2015-10-08 キヤノン株式会社 Image processing system and control method of the same
WO2019054360A1 (en) 2017-09-12 2019-03-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Image display method, image delivery method, image display device, and image delivery device
JP2020017176A (en) 2018-07-27 2020-01-30 株式会社Nttドコモ Information processing device
JP2020119334A (en) 2019-01-24 2020-08-06 株式会社バンダイナムコエンターテインメント Program, electronic apparatus, and data recording method

Also Published As

Publication number Publication date
JP2023000948A (en) 2023-01-04

Similar Documents

Publication Publication Date Title
JP7498209B2 (en) Information processing device, information processing method, and computer program
US20220060639A1 (en) Live style transfer on a mobile device
JP6309749B2 (en) Image data reproducing apparatus and image data generating apparatus
US20180204381A1 (en) Image processing apparatus for generating virtual viewpoint image and method therefor
US11050991B2 (en) Image processing using a plurality of images for a three dimension scene, having a different viewing positions and/or directions
JP7017175B2 (en) Information processing equipment, information processing method, program
KR20210016021A (en) Transmitting apparatus, transmitting method and program
JP6523493B1 (en) PROGRAM, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD
JP3623415B2 (en) Avatar display device, avatar display method and storage medium in virtual space communication system
US20230196658A1 (en) Enclosed multi-view visual media representation
US20240089603A1 (en) Communication terminal, image communication system, and method of displaying image
JP2022051978A (en) Image processing device, image processing method, and program
WO2019034804A2 (en) Three-dimensional video processing
JP7354186B2 (en) Display control device, display control method, and display control program
JP6149967B1 (en) Video distribution server, video output device, video distribution system, and video distribution method
JP7123222B1 (en) Display control device, display control method and display control program
KR20210056414A (en) System for controlling audio-enabled connected devices in mixed reality environments
KR20150031662A (en) Video device and method for generating and playing video thereof
JP7354185B2 (en) Display control device, display control method, and display control program
JP7118217B1 (en) Display control device, display control method and display control program
JP7072706B1 (en) Display control device, display control method and display control program
CN113316804B (en) Image processing device, image processing method, and program
KR20190030565A (en) Electronic device and operating method for the same
CN115039410B (en) Information processing system, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211217

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220809

R150 Certificate of patent or registration of utility model

Ref document number: 7123222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350