JP7354186B2 - Display control device, display control method, and display control program - Google Patents

Display control device, display control method, and display control program Download PDF

Info

Publication number
JP7354186B2
JP7354186B2 JP2021102064A JP2021102064A JP7354186B2 JP 7354186 B2 JP7354186 B2 JP 7354186B2 JP 2021102064 A JP2021102064 A JP 2021102064A JP 2021102064 A JP2021102064 A JP 2021102064A JP 7354186 B2 JP7354186 B2 JP 7354186B2
Authority
JP
Japan
Prior art keywords
size
display control
virtual object
display
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021102064A
Other languages
Japanese (ja)
Other versions
JP2023000947A (en
Inventor
紗記子 西
愛 友成
佳純 吉村
磨翁 西
柾優紀 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2021102064A priority Critical patent/JP7354186B2/en
Publication of JP2023000947A publication Critical patent/JP2023000947A/en
Application granted granted Critical
Publication of JP7354186B2 publication Critical patent/JP7354186B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は表示制御装置、表示制御方法および表示制御プログラムに関する。 The present invention relates to a display control device, a display control method, and a display control program.

近年、インターネットを介して提供されるコンテンツとして、拡張現実(AR;Augmented Reality)が普及しつつある。このようなARにおいては、たとえば、仮想的な視点から見たARオブジェクトを撮像画像に対して重畳表示する(例えば、特許文献1参照)。 In recent years, augmented reality (AR) has become popular as content provided via the Internet. In such AR, for example, an AR object viewed from a virtual viewpoint is displayed superimposed on a captured image (see, for example, Patent Document 1).

特開2020-95602号公報JP2020-95602A

しかしながら、従来技術では、たとえば、ARコンテンツにおける臨場感の向上を図るうえで改善の余地があった。 However, with the conventional technology, there is room for improvement, for example, in terms of improving the sense of presence in AR content.

本発明は、上記に鑑みてなされたものであって、ARコンテンツにおける臨場感の向上を図ることができる表示制御装置、表示制御方法および表示制御プログラムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a display control device, a display control method, and a display control program that can improve the sense of presence in AR content.

上述した課題を解決し、目的を達成するために、本発明に係る表示制御装置は、推定部と、設定部と、表示制御部とを備える。前記推定部は、周囲に実在する実在オブジェクトのサイズである実在オブジェクトサイズを推定する。前記設定部は、前記推定部によって推定された前記実在オブジェクトサイズと、多視点画像中の仮想オブジェクトに設定されたサイズである仮想オブジェクトサイズとに基づき、前記周囲を撮像した撮像画像に重畳表示する前記仮想オブジェクトの表示サイズを設定する。前記表示制御部は、前記設定部によって設定された前記表示サイズで前記仮想オブジェクトを前記撮像画像に表示する。 In order to solve the above-mentioned problems and achieve the purpose, a display control device according to the present invention includes an estimation section, a setting section, and a display control section. The estimating unit estimates a real object size that is a size of a real object that exists in the surrounding area. The setting unit superimposes display on the captured image of the surroundings based on the real object size estimated by the estimation unit and a virtual object size that is a size set for the virtual object in the multi-view image. A display size of the virtual object is set. The display control section displays the virtual object on the captured image at the display size set by the setting section.

本発明によれば、ARコンテンツにおける臨場感の向上を図ることができる。 According to the present invention, it is possible to improve the sense of presence in AR content.

図1は、実施形態に係る表示制御システムの概要を示す図である。FIG. 1 is a diagram showing an overview of a display control system according to an embodiment. 図2は、実施形態に係る情報処理装置の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of an information processing apparatus according to an embodiment. 図3は、実施形態に係る多視点映像データベースに記憶する情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of information stored in the multi-view video database according to the embodiment. 図4は、実施形態に係る表示制御装置の構成例を示すブロック図である。FIG. 4 is a block diagram illustrating a configuration example of a display control device according to an embodiment. 図5は、実施形態に係るサイズ情報記憶部に記憶する情報の一例を示す図である。FIG. 5 is a diagram illustrating an example of information stored in the size information storage unit according to the embodiment. 図6は、実施形態に係る実在オブジェクトサイズと仮想オブジェクトの表示サイズとの相関関係を示す模式図である。FIG. 6 is a schematic diagram showing the correlation between the real object size and the display size of a virtual object according to the embodiment. 図7は、実施形態に係る表示面の一例を示す模式図である。FIG. 7 is a schematic diagram showing an example of a display surface according to the embodiment. 図8は、実施形態に係る仮想オブジェクトと音声発生源との関係性を示す模式図である。FIG. 8 is a schematic diagram showing the relationship between a virtual object and a sound generation source according to the embodiment. 図9は、実施形態に係る情報処理装置が実行する処理手順の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of a processing procedure executed by the information processing apparatus according to the embodiment. 図10は、実施形態に係る表示制御装置が実行する処理手順の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of a processing procedure executed by the display control device according to the embodiment. 図11は、実施形態に係る情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 11 is a hardware configuration diagram showing an example of a computer that implements the functions of the information processing device according to the embodiment.

以下に、本願に係る表示制御装置、表示制御方法および表示制御プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る表示制御装置、表示制御方法および表示制御プログラムが限定されるものではない。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Below, a display control device, a display control method, and a mode for implementing a display control program (hereinafter referred to as an "embodiment") according to the present application will be described in detail with reference to the drawings. Note that the display control device, display control method, and display control program according to the present application are not limited to this embodiment.

[実施形態]
〔1.表示制御処理〕
まず、図1を用いて、実施形態に係る表示制御処理の一例について説明する。図1は、実施形態に係る表示制御処理の一例を示す図である。
[Embodiment]
[1. Display control processing]
First, an example of display control processing according to the embodiment will be described using FIG. 1. FIG. 1 is a diagram illustrating an example of display control processing according to an embodiment.

図1に示すように、実施形態に係る表示システムSは、たとえば、情報処理装置10と、表示制御装置50とを有する。情報処理装置10は、各表示制御装置50に対して、各種、AR(Augmented Reality)コンテンツを配信する情報処理装置である。情報処理装置10は、サーバ装置やクラウドシステムにより実現される。 As shown in FIG. 1, the display system S according to the embodiment includes, for example, an information processing device 10 and a display control device 50. The information processing device 10 is an information processing device that distributes various AR (Augmented Reality) contents to each display control device 50. The information processing device 10 is realized by a server device or a cloud system.

図1に示すように、情報処理装置10は、多視点映像データベースを有しており、多視点映像データベースに登録された多視点映像をARコンテンツ100として提供する。ここで、多視点映像とは、3次元モデルを複数の所定の視点からレンダリングした映像、あるいは、実在する被写体の周りに複数台の撮影機材を設置し撮影された映像である。また、多視点映像を構成する一つ一つの画像が多視点画像となる。 As shown in FIG. 1, the information processing device 10 has a multi-view video database, and provides multi-view videos registered in the multi-view video database as AR content 100. Here, the multi-view video is a video rendered by rendering a three-dimensional model from a plurality of predetermined viewpoints, or a video shot using a plurality of photographic equipment installed around an actual subject. Furthermore, each image forming the multi-view video becomes a multi-view image.

表示制御装置50は、たとえば、カメラやLidar等を有するスマートフォンやHMD(Head Mount Display)などといった各種端末装置であり、情報処理装置10から配信される多視点映像に関するARコンテンツ100をユーザUへ視聴可能に提供する。 The display control device 50 is, for example, a variety of terminal devices such as a smartphone or an HMD (Head Mount Display) having a camera, lidar, etc., and allows the user U to view AR content 100 regarding multi-view video distributed from the information processing device 10. Provide possible.

たとえば、表示制御装置50は、周囲を撮像した撮像画像Gに対して、情報処理装置10から配信される多視点映像の仮想オブジェクトOvを重畳表示したARコンテンツ100を提供する。すなわち、表示制御装置50は、いわゆるビデオシースルータイプのARコンテンツ100を提供する。なお、表示システムSで提供するARコンテンツ100は、ビデオシースルータイプに限られず、光学シースルータイプであってもよい。 For example, the display control device 50 provides AR content 100 in which a virtual object Ov of a multi-view video distributed from the information processing device 10 is superimposed on a captured image G of the surroundings. That is, the display control device 50 provides so-called video see-through type AR content 100. Note that the AR content 100 provided by the display system S is not limited to a video see-through type, but may be an optical see-through type.

ところで、たとえば、多視点映像のARコンテンツを提供するにあたり、多視点映像中の仮想オブジェクトのサイズが実際のサイズと乖離するおそれがある。具体的な例を挙げると、たとえば、仮想オブジェクトとして表示する人物をARコンテンツとして表示する場合に、サイズの設定が現実世界に即していないARコンテンツを撮像画像Gに対して重畳しようとすると画面からはみ出して大きく表示されたり、あるいは、小さく表示されたりする場合がある。 By the way, for example, when providing AR content of multi-view video, there is a possibility that the size of a virtual object in the multi-view video may deviate from the actual size. To give a specific example, for example, when displaying a person as a virtual object as AR content, if you try to superimpose the AR content whose size setting does not correspond to the real world on the captured image G, the screen It may be displayed too large or too small to protrude from the screen.

これら表示サイズの乖離は、よりリアルに近い、すなわち、臨場感の高いARコンテンツを提供するうえで課題となり得る。 These discrepancies in display size can become a problem in providing AR content that is closer to reality, that is, has a high sense of presence.

そこで、実施形態に係る表示制御装置50は、周囲に実在する実在オブジェクトOrのサイズを示す実在オブジェクトサイズを推定し、推定した実在オブジェクトサイズに基づいて、ARコンテンツ100における仮想オブジェクトOvの表示サイズを制御することとした。 Therefore, the display control device 50 according to the embodiment estimates the real object size indicating the size of the real objects Or existing in the surroundings, and adjusts the display size of the virtual object Ov in the AR content 100 based on the estimated real object size. I decided to control it.

具体的には、図1に示すように、たとえば、表示制御装置50は、情報処理装置10から多視点映像の配信を受け付ける(ステップS01)。たとえば、表示制御装置50は、配信された多視点映像に基づき、いわゆるストリーミング再生を行うことで、ARコンテンツ100を表示する。 Specifically, as shown in FIG. 1, for example, the display control device 50 receives distribution of multi-view video from the information processing device 10 (step S01). For example, the display control device 50 displays the AR content 100 by performing so-called streaming playback based on the distributed multi-view video.

この際、表示制御装置50は、仮想オブジェクトを任意の視点位置からみた多視点画像に関する情報と、多視点映像中の仮想オブジェクトOv毎に設定された仮想オブジェクトサイズに関する情報等を多視点映像として受け付ける。 At this time, the display control device 50 receives, as a multi-view video, information regarding a multi-view image of the virtual object viewed from an arbitrary viewpoint position, information regarding the virtual object size set for each virtual object Ov in the multi-view video, etc. .

つづいて、表示制御装置50は、実在オブジェクトOrのサイズである実在オブジェクトサイズの推定処理を実行する(ステップS02)。表示制御装置50は、たとえば、カメラによって撮像画像に対する画像認識を行うことで、実在オブジェクトサイズを推定する。 Subsequently, the display control device 50 executes a process of estimating the real object size, which is the size of the real object Or (step S02). The display control device 50 estimates the actual object size by, for example, performing image recognition on a captured image using a camera.

より詳しくは、家具などといった所定の実在オブジェクトOrは、種類等によっておおよその大きさが決まっているので、カメラによる撮像画像を用いた画像認識によって家具など基準となる実在オブジェクトOrを認識するとともに、認識した実在オブジェクトOrの実在オブジェクトサイズを推定する。 More specifically, since the approximate size of a predetermined real object Or such as furniture is determined depending on the type, etc., the real object Or serving as a reference such as furniture is recognized by image recognition using an image captured by a camera, and The real object size of the recognized real object Or is estimated.

また、表示制御装置50は、たとえば、Lidarなどの測距センサの測距結果に基づき、実在オブジェクトOrまでの距離等を算出する。そして、推定した実在オブジェクトサイズと、表示制御装置50から実在オブジェクトOrまでの距離等に基づき、実在オブジェクトOrが実際に存在する空間(以下、実空間)全体の大きさ、配置などといった実空間情報を推定する。 Further, the display control device 50 calculates the distance to the real object Or, etc., based on the distance measurement result of a distance measurement sensor such as Lidar, for example. Based on the estimated real object size and the distance from the display control device 50 to the real object Or, real space information such as the overall size and arrangement of the space in which the real object Or actually exists (hereinafter referred to as real space) is then obtained. Estimate.

図1では、実在オブジェクトOrがカーテンであり、カーテンの高さhおよび幅wを実在オブジェクトとして推定した場合を例示する。つづいて、表示制御装置50は、ステップS2にて推定した実在オブジェクトサイズに基づき、仮想オブジェクトの表示サイズを制御する表示制御処理を行う(ステップS03)。 FIG. 1 illustrates a case where the real object Or is a curtain, and the height h and width w of the curtain are estimated as the real object. Subsequently, the display control device 50 performs display control processing to control the display size of the virtual object based on the real object size estimated in step S2 (step S03).

たとえば、表示制御装置50は、ステップS3の表示制御処理において、実在オブジェクトOrの実在オブジェクトサイズと、仮想オブジェクトOvの仮想オブジェクトサイズとが整合するように仮想オブジェクトOvの表示サイズを制御する。 For example, in the display control process of step S3, the display control device 50 controls the display size of the virtual object Ov so that the real object size of the real object Or matches the virtual object size of the virtual object Ov.

すなわち、表示制御装置50は、仮想オブジェクトOvを実空間に実際に配置した場合に、仮想オブジェクトOvが実際の大きさ(原寸大)となるようにARコンテンツ100における仮想オブジェクトOvの表示サイズを制御する。 That is, the display control device 50 controls the display size of the virtual object Ov in the AR content 100 so that the virtual object Ov has the actual size (actual size) when the virtual object Ov is actually placed in real space. do.

これにより、実施形態に係る表示制御装置50では、よりリアリティーの高いARコンテンツ100を提供することができるので、ARコンテンツ100における臨場感の向上を図ることができる。 Thereby, the display control device 50 according to the embodiment can provide the AR content 100 with higher reality, so that the sense of presence in the AR content 100 can be improved.

〔2-1.情報処理装置の構成例〕
次に、図2を用いて、情報処理装置10の構成例について説明する。図2は、情報処理装置10の構成例を示すブロック図である。図2に示すように、情報処理装置10は、通信部20と、記憶部30と、制御部40とを備える。
[2-1. Configuration example of information processing device]
Next, a configuration example of the information processing device 10 will be described using FIG. 2. FIG. 2 is a block diagram showing a configuration example of the information processing device 10. As shown in FIG. As shown in FIG. 2, the information processing device 10 includes a communication section 20, a storage section 30, and a control section 40.

通信部20は、たとえば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、4G(Generation)、5G、LTE(Long Term Evolution)、Wifi(登録商標)若しくは無線LAN(Local Area Network)等といった各種の無線通信網若しくは各種の有線通信網といったネットワークを介して、外部装置との間で情報の送受信を行う。 The communication unit 20 is realized by, for example, a NIC (Network Interface Card). The communication unit 20 connects networks such as various wireless communication networks such as 4G (Generation), 5G, LTE (Long Term Evolution), Wifi (registered trademark), or wireless LAN (Local Area Network), or various wired communication networks. Information is sent and received to and from external devices via the external device.

記憶部30は、たとえば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、多視点映像データベース31を有する。 The storage unit 30 is realized by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. Furthermore, the storage unit 30 has a multi-view video database 31.

多視点映像データベース31は、多視点映像を記憶するデータベースである。図3は、多視点映像データベース31に格納された情報の一例を示す図である。図3に示すように、多視点映像データベース31は、「映像ID」、「画像群」、「サイズ情報」、「音声」、「音源座標」などといった項目の情報を互いに対応付けて記憶する。 The multi-view video database 31 is a database that stores multi-view videos. FIG. 3 is a diagram showing an example of information stored in the multi-view video database 31. As shown in FIG. 3, the multi-view video database 31 stores information on items such as "video ID", "image group", "size information", "audio", "sound source coordinates", etc. in association with each other.

「映像ID」は、各多視点映像を識別するための識別子であり、「画像群」は、多視点映像として提供するための画像群であり、複数視点から同時に撮影された静止画像あるいは動画像をまとめたデータである。なお、画像群は、3Dモデル(たとえば、3次元のグラフィックデータ)に置き換えることにしてもよい。 "Video ID" is an identifier for identifying each multi-view video, and "image group" is a group of images to be provided as multi-view video, and is a still image or a moving image shot simultaneously from multiple viewpoints. This data is a compilation of the following. Note that the image group may be replaced with a 3D model (for example, three-dimensional graphic data).

「サイズ情報」は、多視点映像として撮影されたオブジェクトの実際のサイズに関する情報である。「音声」は、多視点映像とともに流す音声データを示し、「音源座標」は、多視点映像における音声データの音源の座標に関する情報である。 "Size information" is information regarding the actual size of an object photographed as a multi-view video. "Audio" indicates audio data that is played along with the multi-view video, and "sound source coordinates" is information regarding the coordinates of the sound source of the audio data in the multi-view video.

ARコンテンツ100として、アーティストの歌唱映像を提供する場合において、音声はアーティストが歌っている音源であり、音源座標は、アーティストの頭部(たとえば、口元)となる。 When providing a singing video of an artist as the AR content 100, the audio is the sound source of the artist singing, and the sound source coordinates are the artist's head (for example, the mouth).

図2の説明に戻り、制御部40について説明する。制御部40は、たとえば、コントローラ(controller)であり、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processing Unit)等によって、情報処理装置10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。 Returning to the explanation of FIG. 2, the control section 40 will be explained. The control unit 40 is, for example, a controller, and is stored in a storage device inside the information processing device 10 by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an MPU (Micro Processing Unit), etc. This is realized by executing various programs using the RAM as a work area.

図2に示すように、制御部40は、選択部41と、配信部42とを備える。選択部41は、各表示制御装置50から受け取った多視点映像の配信要求に基づき、対応する多視点映像を多視点映像データベース31から選択する。 As shown in FIG. 2, the control section 40 includes a selection section 41 and a distribution section 42. The selection unit 41 selects a corresponding multi-view video from the multi-view video database 31 based on the multi-view video distribution request received from each display control device 50 .

たとえば、配信要求には、上記の映像IDに関する情報が含まれており、選択部41は、配信要求に含まれる映像IDに合致する多視点映像を多視点映像データベース31から選択する。 For example, the distribution request includes information regarding the above video ID, and the selection unit 41 selects a multi-view video that matches the video ID included in the distribution request from the multi-view video database 31.

また、たとえば、多視点映像の配信中において、選択部41は、ARコンテンツ100に対するユーザの注視点情報を各表示制御装置50から受け取り、注視点情報に基づき、多視点映像に対する視点切替処理を行う。 Further, for example, during distribution of multi-view video, the selection unit 41 receives user's point of interest information on the AR content 100 from each display control device 50, and performs viewpoint switching processing on the multi-view video based on the point of interest information. .

たとえば、注視点情報は、実空間における撮像画像Gの撮像範囲や撮像向きに関する情報であり、ARコンテンツ100として表示される実空間に関する情報である。すなわち、ARコンテンツ100におけるユーザの注視点に関する情報である。たとえば、ユーザが表示制御装置50(たとえば、後述する外向きカメラ61)の位置を変化させた場合に注視点が変化し、変化した向きや変化量などに関する情報が注視点情報となる。 For example, the gaze point information is information about the imaging range and imaging direction of the captured image G in real space, and is information about the real space displayed as the AR content 100. That is, it is information regarding the user's gaze point in the AR content 100. For example, when the user changes the position of the display control device 50 (for example, an outward-facing camera 61 to be described later), the point of interest changes, and information regarding the changed direction, amount of change, and the like becomes point of interest information.

選択部41は、注視点情報に基づき、多視点映像に対する視点位置を選択することで、視点切替処理を行う。これにより、選択した視点位置から見た仮想オブジェクトOvの多視点画像が選択される。その後、選択部41は、注視点情報の変化に追従させて視点位置を随時切り替える処理を行う。 The selection unit 41 performs viewpoint switching processing by selecting a viewpoint position for a multi-view video based on the gaze point information. As a result, a multi-view image of the virtual object Ov viewed from the selected viewpoint position is selected. Thereafter, the selection unit 41 performs a process of changing the viewpoint position as needed to follow changes in the gaze point information.

配信部42は、選択部41によって選択された多視点映像を各表示制御装置50に対して配信する。なお、配信部42が配信する多視点映像は、時間的に連続する多視点画像であり、配信部42は、注視点情報に基づいて設定された視点位置から見た多視点画像を連続的に配信する。また、配信部42は、多視点映像とともに音声等に関する情報をあわせて表示制御装置50へ配信する。 The distribution unit 42 distributes the multi-view video selected by the selection unit 41 to each display control device 50. Note that the multi-view video distributed by the distribution unit 42 is a temporally continuous multi-view image, and the distribution unit 42 continuously transmits multi-view images viewed from the viewpoint position set based on the point of interest information. To deliver. Further, the distribution unit 42 distributes information regarding audio and the like together with the multi-view video to the display control device 50.

〔2-2.表示制御装置の構成例〕
次に、図4を用いて、実施形態に係る表示制御装置50の構成例について説明する。図4は、表示制御装置50の構成例を示すブロック図である。図4に示すように、表示制御装置50は、通信部60、外向きカメラ61、内向きカメラ62、センサ群63、表示部64、音声出力部65、記憶部70および制御部80を備える。なお、外向きカメラ61、内向きカメラ62、センサ群63、表示部64および音声出力部65については、表示制御装置50とは別の装置であってもよい。
[2-2. Configuration example of display control device]
Next, a configuration example of the display control device 50 according to the embodiment will be described using FIG. 4. FIG. 4 is a block diagram showing a configuration example of the display control device 50. As shown in FIG. As shown in FIG. 4, the display control device 50 includes a communication section 60, an outward camera 61, an inward camera 62, a sensor group 63, a display section 64, an audio output section 65, a storage section 70, and a control section 80. Note that the outward camera 61, the inward camera 62, the sensor group 63, the display section 64, and the audio output section 65 may be separate devices from the display control device 50.

通信部60は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部60は、4G(Generation)、5G、LTE(Long Term Evolution)、WiFi(登録商標)若しくは無線LAN(Local Area Network)等といった各種の無線通信網若しくは各種の有線通信網といったネットワークを介して、外部装置との間で情報の送受信を行う。 The communication unit 60 is realized by, for example, a NIC (Network Interface Card). The communication unit 60 connects networks such as various wireless communication networks such as 4G (Generation), 5G, LTE (Long Term Evolution), WiFi (registered trademark), or wireless LAN (Local Area Network), or various wired communication networks. Information is sent and received to and from external devices via the external device.

外向きカメラ61は、表示制御部50の外側(たとえば、表示部64の表示面とは逆側)を撮像するカメラであり、実空間を撮像する。たとえば、外向きカメラ61によって撮像された撮像画像は、ARコンテンツ100における仮想オブジェクトOvの背景画像として用いられる。内向きカメラ61は、表示制御部50の内側(たとえば、表示部64の表示面側)を撮像するカメラであり、ARコンテンツ100を視聴するユーザUを撮像する。 The outward camera 61 is a camera that images the outside of the display control unit 50 (for example, the side opposite to the display surface of the display unit 64), and images the real space. For example, a captured image captured by the outward camera 61 is used as a background image of the virtual object Ov in the AR content 100. The inward camera 61 is a camera that captures an image of the inside of the display control unit 50 (for example, the display surface side of the display unit 64), and captures an image of the user U viewing the AR content 100.

センサ群63は、たとえば、表示制御装置50の姿勢や、実空間に存在する実在オブジェクトOrまでの距離を検出するための各種センサによって構成される。たとえば、センサ群63には、ジャイロセンサ、Lidarなどが含まれる。 The sensor group 63 includes various sensors for detecting, for example, the attitude of the display control device 50 and the distance to the real object Or existing in real space. For example, the sensor group 63 includes a gyro sensor, lidar, and the like.

表示部64は、たとえば、タッチパネルディスプレイであり、ARコンテンツ100等の各種映像を表示するとともに、各種ユーザ操作を受け付ける。音声出力部65は、たとえば、サラウンドスピーカあるいはステレオスピーカであり、ARコンテンツ100とともに流れる各種音声を出力する。 The display unit 64 is, for example, a touch panel display, and displays various images such as the AR content 100 and receives various user operations. The audio output unit 65 is, for example, a surround speaker or a stereo speaker, and outputs various sounds that flow together with the AR content 100.

記憶部70は、たとえば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部70は、マップ情報記憶部71およびサイズ情報記憶部72を有する。 The storage unit 70 is realized by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 70 also includes a map information storage unit 71 and a size information storage unit 72.

マップ情報記憶部71は、実空間のマップ情報を記憶する。たとえば、マップ情報とは、表示制御部50の周辺環境を示す環境地図であり、後述する自己位置推定部81やサイズ推定部82による処理結果に基づいて作成される。 The map information storage unit 71 stores map information of real space. For example, the map information is an environmental map showing the surrounding environment of the display control unit 50, and is created based on processing results by the self-position estimating unit 81 and the size estimating unit 82, which will be described later.

サイズ情報記憶部72は、実在オブジェクトOrの実在オブジェクトサイズに関する情報を記憶する。図5は、サイズ情報記憶部72に記憶する情報の一例を示す図である。図5に示すように、サイズ情報記憶部72は、「オブジェクトID」、「特徴量」、「サイズ情報」などといった項目の情報を互いに対応付けて記憶する。 The size information storage unit 72 stores information regarding the real object size of the real object Or. FIG. 5 is a diagram showing an example of information stored in the size information storage section 72. As shown in FIG. 5, the size information storage unit 72 stores information on items such as "object ID," "feature amount," and "size information" in association with each other.

「オブジェクトID」は、実在オブジェクトOrを識別するための識別子であり、「特徴量」は、実在オブジェクトOrの特徴量を示す。ここでの特徴量は、たとえば、実在オブジェクトOrの外見の特徴を示す。 The "object ID" is an identifier for identifying the real object Or, and the "feature amount" indicates the feature amount of the real object Or. The feature amount here indicates, for example, the appearance feature of the real object Or.

「サイズ情報」は、対応する実在オブジェクトOrのサイズに関する情報であり、たとえば、実在オブジェクトOrの実寸大のサイズ、すなわち、等身大のサイズに関する情報を示す。なお、サイズ情報は、カタログ値であってもよいし、あるいは、実測値であってもよい。また、表示制御装置50で計測した値を実測値として用いることにしてもよい。 "Size information" is information regarding the size of the corresponding real object Or, and indicates, for example, information regarding the actual size of the real object Or, that is, the life-size size. Note that the size information may be a catalog value or an actual measurement value. Alternatively, the value measured by the display control device 50 may be used as the actual measurement value.

図4の説明に戻り、制御部80について説明する。制御部80は、たとえば、コントローラ(controller)であり、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processing Unit)等によって、情報処理装置10内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。 Returning to the explanation of FIG. 4, the control section 80 will be explained. The control unit 80 is, for example, a controller, and is stored in a storage device inside the information processing device 10 by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an MPU (Micro Processing Unit), etc. This is realized by executing various programs using the RAM as a work area.

図4に示すように、制御部80は、自己位置推定部81と、サイズ推定部82と、表示面設定部83と、表示制御部84と、音声制御部85とを備える。自己位置推定部81は、外向きカメラ61やセンサ群63から入力される各種情報に基づき、Slam(Simultaneous Localization and Mapping)等の技術を用いて実空間の環境地図を作成するとともに、環境地図内における表示制御装置50の座標(たとえば、ワールド座標)や姿勢を推定する。 As shown in FIG. 4, the control unit 80 includes a self-position estimation unit 81, a size estimation unit 82, a display screen setting unit 83, a display control unit 84, and an audio control unit 85. The self-position estimating unit 81 uses technology such as Slam (Simultaneous Localization and Mapping) to create an environmental map of the real space based on various information input from the outward facing camera 61 and the sensor group 63. The coordinates (for example, world coordinates) and orientation of the display control device 50 at are estimated.

また、自己位置推定部81は、作成した環境地図に関する情報をマップ情報としてマップ情報記憶部71に格納するとともに、推定した位置や姿勢に関する情報、すなわち、上記の注視点情報を表示面設定部83へ渡す。また、ARコンテンツ100の提供中においては、注視点情報は、情報処理装置10へも送信される。 Further, the self-position estimating unit 81 stores information regarding the created environmental map as map information in the map information storage unit 71, and also stores information regarding the estimated position and orientation, that is, the above-mentioned point of interest information, to the display surface setting unit 83. pass it on to Furthermore, while the AR content 100 is being provided, the gaze point information is also transmitted to the information processing device 10.

サイズ推定部82は、周囲に実在する実在オブジェクトOrのサイズである実在オブジェクトサイズを推定する。たとえば、サイズ推定部82は、外向きカメラ61によって撮影された撮像画像から実在オブジェクトOrを認識するとともに、実在オブジェクトサイズの推定を行う。 The size estimating unit 82 estimates a real object size that is the size of a real object Or existing around the real object Or. For example, the size estimation unit 82 recognizes the real object Or from the captured image taken by the outward camera 61 and estimates the real object size.

たとえば、サイズ推定部82は、サイズ情報記憶部72に記憶された各実在オブジェクトOrの特徴量と、撮像画像中に含まれる対象物の特徴量とを比較することで、双方の特徴量の一致率から周囲の実在オブジェクトOrの種別を認識する。 For example, the size estimating unit 82 compares the feature amount of each real object Or stored in the size information storage unit 72 with the feature amount of the object included in the captured image, so that the size estimation unit 82 matches the feature amount of both objects. The type of the surrounding real object Or is recognized from the ratio.

サイズ推定部82は、実在オブジェクトOrの種別を認識すると、サイズ情報記憶部72に記憶されたサイズ情報に基づき、実在オブジェクトOrの実在オブジェクトサイズを推定する。また、サイズ推定部82は、たとえば、センサ群63(たとえばLidar)の検出結果に基づき、外向きカメラ61から実在オブジェクトOrまでの距離を推定する。 When the size estimation unit 82 recognizes the type of the real object Or, it estimates the real object size of the real object Or based on the size information stored in the size information storage unit 72. Further, the size estimation unit 82 estimates the distance from the outward camera 61 to the real object Or, for example, based on the detection results of the sensor group 63 (for example, Lidar).

たとえば、サイズ推定部82は、推定した実在オブジェクトサイズと、対応する実在オブジェクトOrまでの距離とに基づき、撮像画像中における実在オブジェクトOrの倍率(縮尺)を推定する。 For example, the size estimation unit 82 estimates the magnification (scale) of the real object Or in the captured image based on the estimated real object size and the distance to the corresponding real object Or.

表示面設定部83は、サイズ推定部82によって推定された実在オブジェクトサイズと、多視点画像中の仮想オブジェクトOvに設定されたサイズである仮想オブジェクトサイズとに基づき、周囲を撮像した撮像画像に重畳表示する仮想オブジェクトOvの表示サイズを設定する。たとえば、表示面設定部83は、ARコンテンツ100として提供する仮想部ジェクトOvのサイズ情報を情報処理装置10へ問い合わせ、問い合わせたサイズ情報に基づき、表示サイズを設定する。 The display surface setting unit 83 superimposes the image on the surrounding image based on the real object size estimated by the size estimating unit 82 and the virtual object size which is the size set for the virtual object Ov in the multi-view image. Set the display size of the virtual object Ov to be displayed. For example, the display surface setting unit 83 inquires of the information processing device 10 about size information of the virtual part object Ov provided as the AR content 100, and sets the display size based on the inquired size information.

図6は、実在オブジェクトサイズと仮想オブジェクトOvの表示サイズとの相関関係を示す模式図である。図6に示す例では、撮像画像Gに映る実在オブジェクトOrの手前側に実在オブジェクトOrから距離dの位置に撮像画像Gに重畳表示する仮想オブジェクトOvを配置する場合について説明する。 FIG. 6 is a schematic diagram showing the correlation between the real object size and the display size of the virtual object Ov. In the example shown in FIG. 6, a case will be described in which a virtual object Ov to be displayed superimposed on the captured image G is placed in front of the real object Or shown in the captured image G at a distance d from the real object Or.

この場合、実在オブジェクトOrの高さh1に基づき、仮想オブジェクトOvをARコンテンツ100中に表示する際の高さh2を設定する。すなわち、実在オブジェクトOrと、表示する仮想オブジェクトOvとの位置関係、ならびに、実際の大きさの比率に基づき、仮想オブジェクトOvの表示サイズとなる高さh2を設定する。 In this case, the height h2 at which the virtual object Ov is displayed in the AR content 100 is set based on the height h1 of the real object Or. That is, the height h2, which is the display size of the virtual object Ov, is set based on the positional relationship between the real object Or and the virtual object Ov to be displayed, and the ratio of their actual sizes.

換言すれば、表示面設定部83は、実在オブジェクトOrの高さh1を基準として、仮想オブジェクトOvが原寸大に表示されるように高さh2を算出し、多視点映像において、仮想オブジェクトOvの高さが高さh2となるように仮想オブジェクトOvの表示サイズを設定する。 In other words, the display surface setting unit 83 calculates the height h2 so that the virtual object Ov is displayed in its original size based on the height h1 of the real object Or, and calculates the height h2 of the virtual object Ov in the multi-view video. The display size of the virtual object Ov is set so that the height becomes the height h2.

また、表示面設定部83は、仮想オブジェクトOvの表示サイズの設定結果に基づき、撮像画像から仮想オブジェクトOvを表示する仮想的な表示面(以下、単に表示面)の初期設定を行う。 Further, the display surface setting unit 83 initializes a virtual display surface (hereinafter simply referred to as a display surface) on which the virtual object Ov is displayed from the captured image, based on the result of setting the display size of the virtual object Ov.

図7は、表示面の一例を示す模式図である。図7の例では、2つの仮想オブジェクトOv1、2を表示する場合について説明する。 FIG. 7 is a schematic diagram showing an example of a display surface. In the example of FIG. 7, a case will be described in which two virtual objects Ov1 and Ov2 are displayed.

表示面設定部83は、たとえば、現在の撮像画像Gの撮像空間に基づき、仮想オブジェクトOv1、2を共に内包可能な空間を仮想オブジェクトOv1、2を表示する表示領域Aとして設定し、表示領域Aの底面を表示面Apとして表示面Apの初期設定を行う。 For example, based on the imaging space of the current captured image G, the display surface setting unit 83 sets a space that can contain both the virtual objects Ov1 and Ov2 as the display area A in which the virtual objects Ov1 and Ov2 are displayed, and sets the display area A The display surface Ap is initialized by setting the bottom surface of the display surface Ap as the display surface Ap.

言い換えれば、表示面設定部83は、仮想オブジェクトOv1、2が内包できない空間を表示領域Aとして設定しない。これにより、たとえば、ARコンテンツ100において、仮想オブジェクトOvが実空間の壁や天井を突き抜けて表示される誤表示をあらかじめ回避することができる。 In other words, the display surface setting unit 83 does not set a space that cannot be included in the virtual objects Ov1 and Ov2 as the display area A. Thereby, for example, in the AR content 100, it is possible to avoid in advance an erroneous display in which the virtual object Ov is displayed penetrating through the wall or ceiling of the real space.

その後、表示面設定部83は、設定した表示領域Aおよび表示面Apの座標情報をマップ情報記憶部71に書き込む。なお、たとえば、表示面Apは、実空間の床であるが、仮想オブジェクトOvの種類に応じて、ユーザの体の一部(たとえば手のひらなど)であってもよい。また、表示領域A自体を実際の床から浮遊させることにしてもよい。また、表示面設定部83は、仮想オブジェクトOv1、2に対して、それぞれ独立に表示領域Aおよび表示面Apを設定することにしてもよい。また、たとえば、仮想オブジェクトOv自体がARコンテンツ100内を移動するコンテンツも考えられるので、表示面設定部83は、仮想オブジェクトOvの移動範囲を包含するように表示領域Aや表示面Apを設定するようにしてもよい。 Thereafter, the display surface setting section 83 writes the coordinate information of the set display area A and display surface Ap into the map information storage section 71. Note that, for example, the display surface Ap is the floor in real space, but it may also be a part of the user's body (for example, the palm of the hand) depending on the type of the virtual object Ov. Furthermore, the display area A itself may be made to float above the actual floor. Further, the display surface setting unit 83 may independently set the display area A and the display surface Ap for the virtual objects Ov1 and Ov2. Furthermore, for example, there may be content in which the virtual object Ov itself moves within the AR content 100, so the display surface setting unit 83 sets the display area A and the display surface Ap so as to include the moving range of the virtual object Ov. You can do it like this.

その後、表示面設定部83は、撮像画像Gの撮像位置にあわせて表示サイズを更新する。たとえば、表示面設定部83は、自己位置推定部81から受け取った注視点情報に基づき、撮像画像Gの撮像位置(たとえば、外向きカメラ61の位置)を認識する。そして、表示面設定部83は、撮像位置と表示面Apとの位置関係に基づき、表示サイズを設定する。具体的には、表示面設定部83は、撮像位置と表示面Apとが近くなるにつれて、表示サイズを大きくし、撮像位置と表示面Apとが遠くなるにつれて小さくなるように表示サイズを設定する。 Thereafter, the display screen setting unit 83 updates the display size according to the imaging position of the captured image G. For example, the display surface setting unit 83 recognizes the imaging position of the captured image G (for example, the position of the outward camera 61) based on the gaze point information received from the self-position estimation unit 81. Then, the display screen setting unit 83 sets the display size based on the positional relationship between the imaging position and the display screen Ap. Specifically, the display surface setting unit 83 sets the display size so that the closer the imaging position and the display surface Ap get, the larger the display size becomes, and the farther away the imaging position and the display surface Ap, the smaller the display size becomes. .

つまり、表示面設定部83は、仮想オブジェクトOvを表示面Apに実在すると仮定した場合に、撮像画像G内に映る実際の大きさとなるように仮想オブジェクトOvの表示サイズを随時更新する。 That is, the display surface setting unit 83 updates the display size of the virtual object Ov as needed so that it becomes the actual size that appears in the captured image G, assuming that the virtual object Ov exists on the display surface Ap.

図4の説明に戻り、表示制御部84について説明する。表示制御部84は、表示面設定部83によって設定された表示サイズで仮想オブジェクトOvを撮像画像Gに表示する。まず、表示制御部83は、情報処理装置10に対して多視点映像の配信要求を行い、情報処理装置10から多視点映像の取得を開始する。 Returning to the explanation of FIG. 4, the display control section 84 will be explained. The display control unit 84 displays the virtual object Ov on the captured image G at the display size set by the display surface setting unit 83. First, the display control unit 83 requests the information processing device 10 to distribute multi-view video, and starts acquiring the multi-view video from the information processing device 10 .

たとえば、多視点映像を構成するそれぞれの多視点画像は、仮想オブジェクトOvの表示サイズが表示面設定部83によって設定される。表示制御部84は、表示サイズが設定された仮想オブジェクトOvを外向きカメラ61から取得した撮像画像Gに重畳表示することで、ARコンテンツ100を生成する。そして、表示制御部84は、ARコンテンツ100の生成毎に表示部64に表示する。 For example, the display size of the virtual object Ov of each multi-view image constituting the multi-view video is set by the display surface setting unit 83. The display control unit 84 generates the AR content 100 by superimposing and displaying the virtual object Ov with the set display size on the captured image G obtained from the outward facing camera 61. Then, the display control unit 84 displays the AR content 100 on the display unit 64 every time it is generated.

ところで、ARコンテンツにおいては、たとえば、多視点映像のうち、一部の仮想オブジェクトOvのみを表示したい場合や、仮想オブジェクトOvの配置や向きを変更したいといった要望が想定され得る。 By the way, in AR content, for example, there may be a desire to display only some of the virtual objects Ov in a multi-view video, or a desire to change the arrangement or orientation of the virtual objects Ov.

そこで、たとえば、表示制御部84は、たとえば、ユーザ操作によって選択された一部の仮想オブジェクトOvのみを表示したり、あるいは、仮想オブジェクトOvの配置や向きを変更したりすることにしてもよい。 Therefore, for example, the display control unit 84 may display only some of the virtual objects Ov selected by the user's operation, or may change the arrangement or orientation of the virtual objects Ov.

より具体的な例を挙げると、たとえば、アイドルグループのメンバーそれぞれを独立した仮想オブジェクトOvとした場合に、一部のメンバーに対応する仮想オブジェクトOvのみを表示したり、仮想オブジェクトOvの配置を変更することで、メンバー同士のポジションを変更させたりすることができる。 To give a more specific example, for example, if each member of an idol group is an independent virtual object Ov, it is possible to display only the virtual objects Ov corresponding to some members, or change the arrangement of the virtual objects Ov. By doing so, you can change the positions of members.

たとえば、表示制御部84は、上記のユーザ操作に関する情報を表示部64から受け取り、受け取ったユーザ操作に関する情報に基づき、一部の仮想オブジェクトOvの多視点画像を情報処理装置10に配信するよう要求する。これにより、一部の仮想オブジェクトOvのみを重畳表示したARコンテンツ100を提供することができる。なお、表示制御部84は、表示しない仮想オブジェクトOvについて所定のマスク処理を施すことで、一部の仮想オブジェクトOvのみを表示するようにしてもよい。 For example, the display control unit 84 receives the above information regarding the user operation from the display unit 64, and requests the information processing device 10 to distribute multi-view images of some virtual objects Ov based on the received information regarding the user operation. do. Thereby, it is possible to provide AR content 100 in which only some virtual objects Ov are displayed in a superimposed manner. Note that the display control unit 84 may display only some of the virtual objects Ov by performing a predetermined masking process on the virtual objects Ov that are not displayed.

また、表示制御部84は、ユーザ操作に関する情報に基づき、対応する仮想オブジェクトOvの配置や向きを変更することで、仮想オブジェクトOvの配置や向きが変更されたARコンテンツ100を提供することができる。 Furthermore, the display control unit 84 can provide the AR content 100 in which the arrangement and orientation of the virtual object Ov have been changed by changing the arrangement and orientation of the corresponding virtual object Ov based on the information regarding the user operation. .

その他、表示制御部84は、たとえば、ユーザ操作に基づき、ARコンテンツ100として表示する仮想オブジェクトOvの追加を行うようにしてもよい。たとえば、異なるライブで撮影された複数の多視点映像からユーザが選択したメンバーに対応する仮想オブジェクトOvを組み合わせたARコンテンツ100を提供することができる。 In addition, the display control unit 84 may, for example, add a virtual object Ov to be displayed as the AR content 100 based on a user operation. For example, it is possible to provide AR content 100 that combines virtual objects Ov corresponding to members selected by the user from a plurality of multi-view videos taken at different live performances.

すなわち、複数のライブ映像からユーザが選抜したメンバーのARコンテンツ100を提供することにしてもよい。この際、たとえば、選抜された仮想オブジェクトOvは同一人物であってもよく、異なる人物であってもよい。 That is, the AR content 100 of a member selected by the user from a plurality of live videos may be provided. At this time, for example, the selected virtual objects Ov may be the same person or different persons.

また、ARコンテンツ100の再生時において、表示制御部84は、ユーザ操作に基づき、一部の仮想オブジェクトOvのみを一時停止したり、再生速度を変更したりすることにしてもよい。すなわち、表示制御部84は、ARコンテンツ100内で仮想オブジェクトOv毎に複数の時間軸を設定することにしてもよい。また、表示制御部84は、仮想オブジェクトOvに対するサイズ変更を受け付けることにしてもよい。 Furthermore, during playback of the AR content 100, the display control unit 84 may decide to pause only some of the virtual objects Ov or change the playback speed based on user operations. That is, the display control unit 84 may set a plurality of time axes for each virtual object Ov within the AR content 100. Furthermore, the display control unit 84 may accept changes in the size of the virtual object Ov.

音声制御部85は、撮像画像Gの撮像位置と、多視点画像において設定された音声発生源との位置関係に基づき、音声出力を制御する。図8は、仮想オブジェクトOvと音声発生源との関係性を示す模式図である。図8には、3軸の直交座標を示し、外向きカメラ61と仮想オブジェクトOvの位置関係を示すワールド座標系に対応する。 The audio control unit 85 controls audio output based on the positional relationship between the imaging position of the captured image G and the audio source set in the multi-view image. FIG. 8 is a schematic diagram showing the relationship between the virtual object Ov and the audio source. FIG. 8 shows three-axis orthogonal coordinates, which correspond to a world coordinate system showing the positional relationship between the outward camera 61 and the virtual object Ov.

図8に示すように、たとえば、仮想オブジェクトOvの頭部に音声発生源Ssが設定される。すなわち、図8に示す例では、音声制御部85は、仮想オブジェクトOvから音声が発生されるように音声出力を制御する。 As shown in FIG. 8, for example, a sound source Ss is set at the head of the virtual object Ov. That is, in the example shown in FIG. 8, the audio control unit 85 controls audio output so that audio is generated from the virtual object Ov.

ここで、たとえば、外向きカメラ61の撮像位置が変化すると、ARコンテンツ100における仮想オブジェクトOvの位置が変化し、これに伴い音声発生源Ssの位置が変化することになる。 Here, for example, when the imaging position of the outward camera 61 changes, the position of the virtual object Ov in the AR content 100 changes, and the position of the sound source Ss changes accordingly.

そのため、音声制御部85は、これらの位置関係に基づき、音声出力部65の出力を制御することで、ARコンテンツ100における音声発生源Ssの位置を一致させる処理を行う。具体的には、たとえば、撮像画像Gにおいて仮想オブジェクトOvか右側に表示される場合、ユーザの右側から音声が聞こえるように音声出力部65を制御し、撮像画像Gにおいて仮想オブジェクトOvが手前側に表示される場合には、手前側から音声が聞こえるように音声出力部65を制御する。 Therefore, the audio control unit 85 performs processing to match the positions of the audio generation sources Ss in the AR content 100 by controlling the output of the audio output unit 65 based on these positional relationships. Specifically, for example, when the virtual object Ov is displayed on the right side in the captured image G, the audio output unit 65 is controlled so that the audio can be heard from the right side of the user, and the virtual object Ov is displayed on the front side in the captured image G. When displayed, the audio output section 65 is controlled so that the audio can be heard from the front side.

このように、音声制御部85は、音声発生源Ssの位置変化にあわせて音声制御をコントロールすることで、リアリティーの高いARコンテンツ100を提供することができる。なお、上記の例では、音声発生源Ssが一つである場合について示したが、音声発生源Ssは複数であってもよい。この場合、音声制御部85は、音声発生源Ss毎に位置関係に基づき、音声制御を行う。 In this way, the audio control unit 85 can provide highly realistic AR content 100 by controlling the audio control in accordance with the change in the position of the audio source Ss. Note that although the above example shows a case where there is one sound generation source Ss, there may be a plurality of sound generation sources Ss. In this case, the audio control unit 85 performs audio control based on the positional relationship for each audio source Ss.

また、たとえば、音声制御部85は、音声発生源Ssが複数である場合には、音声発生源Ss毎に音量等の各種調整や、音声発生源Ssの統合などを行うことにしてもよい。また、音声制御部85は、たとえば、音声発生源Ssの位置を変更する操作を受け付けることにしてもよい。この場合、たとえば、当初設定された音声発生源Ssとは別の任意の座標に音声発生源Ssを設定することにしてもよい。 Further, for example, when there are a plurality of sound generation sources Ss, the audio control unit 85 may perform various adjustments such as the volume for each sound generation source Ss, or may integrate the sound generation sources Ss. Further, the audio control unit 85 may accept, for example, an operation to change the position of the audio source Ss. In this case, for example, the sound source Ss may be set at arbitrary coordinates different from the initially set sound source Ss.

また、音声制御部85は、たとえば、ユーザ操作に基づき、音声の削除、追加等を行うことにしてもよい。すなわち、複数の多視点映像から任意の音声を組み合わせて出力することにしてもよい。この場合、たとえば、異なる歌手が歌っている音声を他の歌手の仮想オブジェクトOvが歌っているかのようなARコンテンツ100などを提供することができる。 Furthermore, the audio control unit 85 may delete or add audio based on user operations, for example. That is, arbitrary audio may be combined and output from a plurality of multi-view videos. In this case, for example, it is possible to provide AR content 100 that makes it appear as if the virtual object Ov of another singer is singing the voice of a different singer.

〔3.処理手順〕
次に、図9および図10を用いて、実施形態に係る情報処理装置10および表示制御装置50が実行する処理手順について説明する。まず、図9を用いて、情報処理装置10が実行する処理手順について説明する。図9は、情報処理装置10が実行する処理手順を示すフローチャートである。なお、以下に示す処理手順は、情報処理装置10の制御部40によって配信要求の取得毎に繰り返し実行される。
[3. Processing procedure]
Next, processing procedures executed by the information processing device 10 and the display control device 50 according to the embodiment will be described using FIGS. 9 and 10. First, the processing procedure executed by the information processing device 10 will be described using FIG. 9. FIG. 9 is a flowchart showing a processing procedure executed by the information processing device 10. Note that the processing procedure described below is repeatedly executed by the control unit 40 of the information processing device 10 every time a distribution request is obtained.

図9に示すように、まず、情報処理装置10は、配信要求を受け付ける(ステップS101)。つづいて、情報処理装置10は、受け付けた配信要求に基づき、多視点映像を配信し(ステップS102)、処理を終了する。 As shown in FIG. 9, the information processing device 10 first receives a distribution request (step S101). Subsequently, the information processing device 10 distributes the multi-view video based on the received distribution request (step S102), and ends the process.

なお、多視点映像の配信時において、情報処理装置10は、注視点情報に基づき、視点位置を変更した仮想オブジェクトOvの多視点画像を随時選択し、選択した多視点画像を配信する。 Note that when distributing a multi-view video, the information processing device 10 selects a multi-view image of the virtual object Ov whose viewpoint position has been changed based on the point of interest information, and distributes the selected multi-view image.

次に、図10を用いて、表示制御装置50が実行する処理手順について説明する。図10は、表示制御装置50が実行する処理手順の一例を示すフローチャートである。なお、以下に示す処理手順は、ARコンテンツ100の提供毎に表示制御装置50の制御部80によって実行される。 Next, the processing procedure executed by the display control device 50 will be described using FIG. 10. FIG. 10 is a flowchart illustrating an example of a processing procedure executed by the display control device 50. Note that the processing procedure described below is executed by the control unit 80 of the display control device 50 each time the AR content 100 is provided.

図10に示すように、まず、表示制御装置50は、たとえば、周囲を撮像した撮像画像等に基づき、周囲に実在する実在オブジェクトOrの実在オブジェクトサイズを推定する(ステップS201)。 As shown in FIG. 10, the display control device 50 first estimates the real object size of the real object Or existing in the surroundings, based on, for example, a captured image of the surroundings (step S201).

つづいて、表示制御装置50は、推定した実在オブジェクトサイズに基づき、仮想オブジェクトOvを表示する際の仮想オブジェクトサイズを決定する(ステップS202)。つづいて、表示制御装置50は、決定した仮想オブジェクトサイズに基づき、仮想オブジェクトOvの表示領域Aを設定する(ステップS203)。 Subsequently, the display control device 50 determines the virtual object size when displaying the virtual object Ov based on the estimated real object size (step S202). Subsequently, the display control device 50 sets the display area A of the virtual object Ov based on the determined virtual object size (step S203).

その後、表示制御装置50は、情報処理装置10から多視点映像を取得し(ステップS204)、取得した多視点映像を撮像画像Gに重畳表示したARコンテンツ100を表示し(ステップS205)、処理を終了する。 After that, the display control device 50 acquires the multi-view video from the information processing device 10 (step S204), displays the AR content 100 in which the acquired multi-view video is superimposed on the captured image G (step S205), and performs the processing. finish.

〔4.変形例〕
上述した表示制御システムSは、上記実施形態以外にも種々の異なる形態にて実施されてもよい。そこで、以下では、表示制御システムSの他の実施形態について説明する。
[4. Modified example]
The display control system S described above may be implemented in various different forms other than the embodiments described above. Therefore, other embodiments of the display control system S will be described below.

たとえば、表示制御装置50は、カメラ(外向きカメラ61および内向きカメラ62)と分離した構成であってもよい。また、表示制御装置50が提供するコンテンツは、ARコンテンツ100に限られず、たとえば、撮像画像Gに基づき、実空間をアニメーション等に変換したVR(Virtual Reality)コンテンツを提供することにしてもよい。 For example, the display control device 50 may be configured separately from the cameras (outward camera 61 and inward camera 62). Further, the content provided by the display control device 50 is not limited to the AR content 100, but may also provide VR (Virtual Reality) content in which real space is converted into animation or the like based on the captured image G, for example.

〔5.効果〕
上述してきたように、実施形態に係る表示制御装置50は、周囲に実在する実在オブジェクトOrのサイズである実在オブジェクトサイズを推定するサイズ推定部82(推定部の一例)と、サイズ推定部82によって推定された実在オブジェクトサイズと、多視点画像中の仮想オブジェクトOvに設定されたサイズである仮想オブジェクトサイズとに基づき、周囲を撮像した撮像画像Gに重畳表示する仮想オブジェクトOvの表示サイズを設定する表示面設定部83(設定部の一例)と、表示面設定部83によって設定された表示サイズで仮想オブジェクトを撮像画像Gに表示する表示制御部84とを備える。
[5. effect〕
As described above, the display control device 50 according to the embodiment includes the size estimating unit 82 (an example of an estimating unit) that estimates the real object size that is the size of the real object Or existing in the surroundings, and the size estimating unit 82 Based on the estimated real object size and the virtual object size, which is the size set for the virtual object Ov in the multi-view image, the display size of the virtual object Ov to be superimposed and displayed on the captured image G of the surroundings is set. It includes a display screen setting section 83 (an example of a setting section) and a display control section 84 that displays the virtual object on the captured image G at the display size set by the display screen setting section 83.

したがって、実施形態に係る表示制御装置50によれば、仮想オブジェクトOvの表示サイズを適切(実寸大)に表示することができるので、ARコンテンツ100における臨場感の向上を図ることができる。 Therefore, according to the display control device 50 according to the embodiment, since the display size of the virtual object Ov can be displayed appropriately (actual size), the sense of realism in the AR content 100 can be improved.

また、実施形態に係る表示制御装置50において、表示面設定部83は、撮像画像Gの撮像位置にあわせて表示サイズを設定する。これにより、実施形態に係る表示制御装置50は、ARコンテンツ100における実世界の視点位置にあわせて適切な表示サイズに仮想オブジェクトOvを設定することができる。 Further, in the display control device 50 according to the embodiment, the display screen setting unit 83 sets the display size according to the imaging position of the captured image G. Thereby, the display control device 50 according to the embodiment can set the virtual object Ov to an appropriate display size according to the viewpoint position in the real world in the AR content 100.

また、実施形態に係る表示制御装置50において、表示制御部84は、多視点画像中の複数の仮想オブジェクトOvのうち、選択された一部の仮想オブジェクトOvを撮像画像Gに重畳表示し、選択されなかった仮想オブジェクトOvを撮像画像Gに重畳表示しない。したがって、実施形態に係る表示制御装置50によれば、ユーザによるARコンテンツ100のカスタマイズを容易にすることができる。 In the display control device 50 according to the embodiment, the display control unit 84 superimposes and displays some of the virtual objects Ov selected from among the plurality of virtual objects Ov in the multi-view image on the captured image G, and selects The virtual object Ov that has not been displayed is not displayed in a superimposed manner on the captured image G. Therefore, according to the display control device 50 according to the embodiment, the user can easily customize the AR content 100.

また、実施形態に係る表示制御装置50において、表示制御部84は、複数の多視点画像から選択した仮想オブジェクトOvを組み合わせて撮像画像Gに重畳表示する。したがって、実施形態に係る表示制御装置50によれば、複数のコンテンツを組み合わせたARコンテンツ100を容易に生成することができる。 Furthermore, in the display control device 50 according to the embodiment, the display control unit 84 combines virtual objects Ov selected from a plurality of multi-view images and displays the virtual objects Ov in a superimposed manner on the captured image G. Therefore, according to the display control device 50 according to the embodiment, it is possible to easily generate AR content 100 that is a combination of a plurality of contents.

また、実施形態に係る表示制御装置50において、表示制御部84は、多視点画像中の複数の仮想オブジェクトOvのうち、選択された一部の仮想オブジェクトOvの配置を変えて撮像画像Gに重畳表示する。したがって、実施形態に係る表示制御装置50によれば、ユーザによるARコンテンツ100のカスタマイズを容易にすることができる。 In the display control device 50 according to the embodiment, the display control unit 84 changes the arrangement of some selected virtual objects Ov among the plurality of virtual objects Ov in the multi-view image and superimposes them on the captured image G. indicate. Therefore, according to the display control device 50 according to the embodiment, the user can easily customize the AR content 100.

また、実施形態に係る表示制御装置50は、撮像画像の撮像位置と、多視点画像において設定された音声発生源との位置関係に基づき、音声出力を制御する音声制御部85を備える。したがって、実施形態に係る表示制御装置50によれば、音声発生源Ssと仮想オブジェクトOvとを一致させることができるので、より臨場感の高いARコンテンツ100を提供することができる。 The display control device 50 according to the embodiment also includes an audio control unit 85 that controls audio output based on the positional relationship between the imaging position of the captured image and the audio source set in the multi-view image. Therefore, according to the display control device 50 according to the embodiment, it is possible to match the sound generation source Ss and the virtual object Ov, and therefore it is possible to provide the AR content 100 with a higher sense of realism.

実施形態に係る表示制御装置50において、音声制御部85は、複数の多視点画像に対応付けられた音声を同じ画像内で出力する。したがって、実施形態に係る表示制御装置50によれば、別々に収録した音声を同一のARコンテンツ100として提供することができるので、ユーザによるARコンテンツ100のカスタマイズを容易にすることができる。 In the display control device 50 according to the embodiment, the audio control unit 85 outputs audio associated with a plurality of multi-view images within the same image. Therefore, according to the display control device 50 according to the embodiment, since separately recorded sounds can be provided as the same AR content 100, the user can easily customize the AR content 100.

また、実施形態に係る表示制御方法は、コンピュータが実行する表示制御方法であって、周囲に実在する実在オブジェクトOrのサイズである実在オブジェクトサイズを推定する推定工程と、推定工程によって推定された実在オブジェクトサイズと、多視点画像中の仮想オブジェクトOvに設定されたサイズである仮想オブジェクトサイズとに基づき、周囲を撮像した撮像画像Gに重畳表示する仮想オブジェクトOvの表示サイズを設定する設定工程と、設定工程によって設定された表示サイズで仮想オブジェクトOvを撮像画像Gに表示する表示制御工程とを含む。したがって、実施形態に係る表示制御方法によれば、仮想オブジェクトOvの表示サイズを適切(実寸大)に表示することができるので、ARコンテンツ100における臨場感の向上を図ることができる。 Further, the display control method according to the embodiment is a display control method executed by a computer, and includes an estimation step of estimating a real object size that is the size of a real object Or existing in the surroundings, and a real object size estimated by the estimation step. a setting step of setting the display size of the virtual object Ov to be superimposed and displayed on the captured image G of the surroundings based on the object size and the virtual object size that is the size set for the virtual object Ov in the multi-view image; and a display control step of displaying the virtual object Ov on the captured image G at the display size set in the setting step. Therefore, according to the display control method according to the embodiment, the virtual object Ov can be displayed at an appropriate display size (actual size), so that the sense of presence in the AR content 100 can be improved.

また、実施形態に係る表示制御プログラムは、周囲に実在する実在オブジェクトOrのサイズである実在オブジェクトサイズを推定する推定手順と、推定手順によって推定された実在オブジェクトサイズと、多視点画像中の仮想オブジェクトOvに設定されたサイズである仮想オブジェクトサイズとに基づき、周囲を撮像した撮像画像Gに重畳表示する仮想オブジェクトOvの表示サイズを設定する設定手順と、設定手順によって設定された表示サイズで仮想オブジェクトOvを撮像画像Gに表示する表示制御手順とをコンピュータに実行させる。したがって、実施形態に係る表示制御プログラムによれば、仮想オブジェクトOvの表示サイズを適切(実寸大)に表示することができるので、ARコンテンツ100における臨場感の向上を図ることができる。 Further, the display control program according to the embodiment includes an estimation procedure for estimating a real object size that is the size of a real object Or existing in the surroundings, a real object size estimated by the estimation procedure, and a virtual object in a multi-view image. A setting procedure for setting the display size of the virtual object Ov to be superimposed and displayed on a captured image G of the surroundings based on the virtual object size, which is the size set in Ov; The computer is caused to execute a display control procedure for displaying Ov on the captured image G. Therefore, according to the display control program according to the embodiment, since the display size of the virtual object Ov can be displayed appropriately (actual size), the sense of presence in the AR content 100 can be improved.

〔6.ハードウェア構成〕
また、上述してきた実施形態に係る表示制御装置50は、例えば図11に示すような構成のコンピュータ1000によって実現される。図11は、実施形態に係る表示制御装置50の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration]
Further, the display control device 50 according to the embodiments described above is realized by, for example, a computer 1000 having a configuration as shown in FIG. 11. FIG. 11 is a hardware configuration diagram showing an example of a computer that implements the functions of the display control device 50 according to the embodiment. Computer 1000 has CPU 1100, RAM 1200, ROM 1300, HDD 1400, communication interface (I/F) 1500, input/output interface (I/F) 1600, and media interface (I/F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 CPU 1100 operates based on a program stored in ROM 1300 or HDD 1400, and controls each section. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, programs depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワーク(通信ネットワーク)Nを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. Communication interface 1500 receives data from other devices via network (communication network) N and sends it to CPU 1100, and sends data generated by CPU 1100 to other devices via network N.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置(図10では、出力装置および入力装置を総称して「入出力装置」と記載する)を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 connects output devices such as displays and printers, and input devices such as keyboards and mice (in FIG. 10, output devices and input devices are collectively referred to as "input/output devices") via an input/output interface 1600. ). CPU 1100 obtains data from an input device via input/output interface 1600. Further, CPU 1100 outputs the generated data to an output device via input/output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1200. CPU 1100 loads this program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータ1000が実施形態に係る表示制御装置50として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部120の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the display control device 50 according to the embodiment, the CPU 1100 of the computer 1000 realizes the functions of the control unit 120 by executing a program loaded onto the RAM 1200. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from another device via the network N.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Some of the embodiments of the present application have been described above in detail based on the drawings, but these are merely examples, and various modifications and variations may be made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure section of the invention. It is possible to carry out the invention in other forms with modifications.

〔7.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. others〕
Furthermore, among the processes described in the above embodiments and modified examples, all or part of the processes described as being performed automatically can be performed manually, or may be described as being performed manually. All or part of this processing can also be performed automatically using known methods. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Furthermore, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-described embodiments and modifications can be combined as appropriate within a range that does not conflict with the processing contents.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、自己位置推定部81は、自己位置推定部手段や自己位置推定部回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc. For example, the self-position estimating section 81 can be read as a self-position estimating section means or a self-position estimating section circuit.

10 情報処理装置
20 通信部
30 記憶部
31 多視点映像データベース
40 制御部
41 選択部
42 配信部
50 表示制御部
70 記憶部
71 マップ情報記憶部
72 サイズ情報記憶部
80 制御部
81 自己位置推定部
82 サイズ推定部(推定部の一例)
83 表示面設定部(設定部の一例)
84 表示制御部
85 音声制御部
100 ARコンテンツ
G 撮像画像
Or 実在オブジェクト
Ov 仮想オブジェクト
10 Information processing device 20 Communication unit 30 Storage unit 31 Multi-view video database 40 Control unit 41 Selection unit 42 Distribution unit 50 Display control unit 70 Storage unit 71 Map information storage unit 72 Size information storage unit 80 Control unit 81 Self-position estimation unit 82 Size estimator (an example of an estimator)
83 Display screen setting section (an example of a setting section)
84 Display control unit 85 Audio control unit 100 AR content G Captured image Or Real object Ov Virtual object

Claims (8)

周囲に実在する実在オブジェクトのサイズである実在オブジェクトサイズを推定する推定部と、
前記推定部によって推定された前記実在オブジェクトサイズと、実在するオブジェクトを多視点から撮影した多視点画像として表示される仮想オブジェクトに設定されたサイズである仮想オブジェクトサイズとに基づき、前記周囲を撮像した撮像画像に重畳表示する前記仮想オブジェクトの表示サイズを設定する設定部と、
前記設定部によって設定された前記表示サイズで前記仮想オブジェクトを前記撮像画像に表示する表示制御部と
を備え、
前記設定部は、
前記仮想オブジェクトが再生中に移動する移動範囲を内包する空間であって、再生中に仮想オブジェクトがすべての前記実在オブジェクトと衝突しない空間を前記仮想オブジェクトの表示領域として設定し、
前記表示制御部は、
前記撮像画像の撮像位置の変化に応じた視点位置からみた前記仮想オブジェクトを表示するとともに、前記仮想オブジェクトと前記実在オブジェクトとの位置関係の変化に応じた前記表示サイズで前記仮想オブジェクトを表示する
ことを特徴とする表示制御装置。
an estimation unit that estimates a real object size that is the size of a real object that exists in the surroundings;
The surrounding area is imaged based on the real object size estimated by the estimation unit and a virtual object size that is a size set for a virtual object displayed as a multi-view image obtained by photographing the real object from multiple viewpoints. a setting unit that sets a display size of the virtual object to be displayed superimposed on the captured image;
a display control unit that displays the virtual object in the captured image at the display size set by the setting unit;
The setting section includes:
setting as a display area of the virtual object a space that includes a movement range in which the virtual object moves during playback and in which the virtual object does not collide with any of the real objects during playback ;
The display control section includes:
Displaying the virtual object viewed from a viewpoint position that corresponds to a change in the imaging position of the captured image, and displaying the virtual object at the display size that corresponds to a change in the positional relationship between the virtual object and the real object. A display control device characterized by:
前記設定部は、
前記撮像画像の撮像位置にあわせて前記表示サイズを設定すること
を特徴とする請求項1に記載の表示制御装置。
The setting section includes:
The display control device according to claim 1, wherein the display size is set according to the imaging position of the captured image.
前記表示制御部は、
前記多視点画像中の複数の前記仮想オブジェクトのうち、選択された一部の前記仮想オブジェクトを前記撮像画像に重畳表示し、選択されなかった前記仮想オブジェクトを前記撮像画像に重畳表示しないこと
を特徴とする請求項1または2に記載の表示制御装置。
The display control section includes:
Some of the virtual objects selected from among the plurality of virtual objects in the multi-view image are displayed in a superimposed manner on the captured image, and virtual objects that are not selected are not displayed in a superimposed manner on the captured image. The display control device according to claim 1 or 2.
前記表示制御部は、
複数の前記多視点画像中の前記仮想オブジェクトを組み合わせて前記撮像画像に重畳表示すること
を特徴とする請求項1、2または3に記載の表示制御装置。
The display control section includes:
The display control device according to claim 1, wherein the virtual objects in the plurality of multi-view images are combined and displayed in a superimposed manner on the captured image.
前記表示制御部は、
前記多視点画像中の複数の前記仮想オブジェクトのうち、選択された一部の前記仮想オブジェクトの配置を変えて前記撮像画像に重畳表示すること
を特徴とする請求項1~4のいずれか一つに記載の表示制御装置。
The display control section includes:
Any one of claims 1 to 4, characterized in that a selected part of the virtual objects in the multi-view image is rearranged and displayed in a superimposed manner on the captured image. The display control device described in .
前記表示制御部は、
前記仮想オブジェクト毎に前記表示サイズの変更、再生、一時停止を受け付けること
を特徴とする請求項1~5のいずれか一つに記載の表示制御装置。
The display control section includes:
The display control device according to any one of claims 1 to 5, wherein changes in the display size, playback, and pause are accepted for each of the virtual objects.
コンピュータが実行する表示制御方法であって、
周囲に実在する実在オブジェクトのサイズである実在オブジェクトサイズを推定する推定工程と、
前記推定工程によって推定された前記実在オブジェクトサイズと、実在するオブジェクトを多視点から撮影した多視点画像として表示される仮想オブジェクトに設定されたサイズである仮想オブジェクトサイズとに基づき、前記周囲を撮像した撮像画像に重畳表示する前記仮想オブジェクトの表示サイズを設定する設定工程と、
前記設定工程によって設定された前記表示サイズで前記仮想オブジェクトを前記撮像画像に表示する表示制御工程と
を含み、
前記設定工程は、
前記仮想オブジェクトが再生中に移動する移動範囲を内包する空間であって、再生中に仮想オブジェクトがすべての前記実在オブジェクトと衝突しない空間を前記仮想オブジェクトの表示領域として設定し、
前記表示制御工程は、
前記撮像画像の撮像位置の変化に応じた視点位置からみた前記仮想オブジェクトを表示するとともに、前記仮想オブジェクトと前記実在オブジェクトとの位置関係の変化に応じた前記表示サイズで前記仮想オブジェクトを表示する
ことを特徴とする表示制御方法。
A display control method executed by a computer,
an estimation step of estimating a real object size that is the size of a real object existing in the surroundings;
The surrounding area is imaged based on the real object size estimated in the estimation step and a virtual object size that is a size set for a virtual object displayed as a multi-view image obtained by photographing the real object from multiple viewpoints. a setting step of setting a display size of the virtual object to be displayed superimposed on the captured image;
a display control step of displaying the virtual object in the captured image at the display size set by the setting step;
The setting step includes:
setting as a display area of the virtual object a space that includes a movement range in which the virtual object moves during playback and in which the virtual object does not collide with any of the real objects during playback ;
The display control step includes:
Displaying the virtual object viewed from a viewpoint position that corresponds to a change in the imaging position of the captured image, and displaying the virtual object at the display size that corresponds to a change in the positional relationship between the virtual object and the real object. A display control method characterized by:
周囲に実在する実在オブジェクトのサイズである実在オブジェクトサイズを推定する推定手順と、
前記推定手順によって推定された前記実在オブジェクトサイズと、実在するオブジェクトを多視点から撮影した多視点画像として表示される仮想オブジェクトに設定されたサイズである仮想オブジェクトサイズとに基づき、前記周囲を撮像した撮像画像に重畳表示する前記仮想オブジェクトの表示サイズを設定する設定手順と、
前記設定手順によって設定された前記表示サイズで前記仮想オブジェクトを前記撮像画像に表示する表示制御手順と
をコンピュータに実行させ、
前記設定手順は、
前記仮想オブジェクトが再生中に移動する移動範囲を内包する空間であって、再生中に仮想オブジェクトがすべての前記実在オブジェクトと衝突しない空間を前記仮想オブジェクトの表示領域として設定し、
前記表示制御手順は、
前記撮像画像の撮像位置の変化に応じた視点位置からみた前記仮想オブジェクトを表示するとともに、前記仮想オブジェクトと前記実在オブジェクトとの位置関係の変化に応じた前記表示サイズで前記仮想オブジェクトを表示する
ことを特徴とする表示制御プログラム。
an estimation procedure for estimating a real object size that is the size of a real object existing in the surroundings;
The surrounding area is imaged based on the real object size estimated by the estimation procedure and a virtual object size that is a size set for a virtual object displayed as a multi-view image obtained by photographing the real object from multiple viewpoints. a setting procedure for setting a display size of the virtual object to be displayed superimposed on a captured image;
causing a computer to execute a display control procedure for displaying the virtual object in the captured image at the display size set by the setting procedure;
The setting procedure is as follows:
setting as a display area of the virtual object a space that includes a movement range in which the virtual object moves during playback and in which the virtual object does not collide with any of the real objects during playback ;
The display control procedure includes:
Displaying the virtual object viewed from a viewpoint position that corresponds to a change in the imaging position of the captured image, and displaying the virtual object at the display size that corresponds to a change in the positional relationship between the virtual object and the real object. A display control program featuring:
JP2021102064A 2021-06-18 2021-06-18 Display control device, display control method, and display control program Active JP7354186B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021102064A JP7354186B2 (en) 2021-06-18 2021-06-18 Display control device, display control method, and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021102064A JP7354186B2 (en) 2021-06-18 2021-06-18 Display control device, display control method, and display control program

Publications (2)

Publication Number Publication Date
JP2023000947A JP2023000947A (en) 2023-01-04
JP7354186B2 true JP7354186B2 (en) 2023-10-02

Family

ID=84687350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021102064A Active JP7354186B2 (en) 2021-06-18 2021-06-18 Display control device, display control method, and display control program

Country Status (1)

Country Link
JP (1) JP7354186B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011118834A (en) 2009-12-07 2011-06-16 Sony Corp Apparatus and method for processing information, and program
JP2017129904A (en) 2016-01-18 2017-07-27 ソニー株式会社 Information processor, information processing method, and record medium
WO2019187488A1 (en) 2018-03-30 2019-10-03 ソニー株式会社 Information processing device, information processing method, and program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5821526B2 (en) * 2011-10-27 2015-11-24 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2014191718A (en) * 2013-03-28 2014-10-06 Sony Corp Display control device, display control method, and recording medium
JP5790692B2 (en) * 2013-03-29 2015-10-07 ソニー株式会社 Information processing apparatus, information processing method, and recording medium
WO2017030193A1 (en) * 2015-08-20 2017-02-23 ソニー株式会社 Information processing device, information processing method, and program
WO2017134886A1 (en) * 2016-02-02 2017-08-10 ソニー株式会社 Information processing device, information processing method, and recording medium
JP7029888B2 (en) * 2017-05-23 2022-03-04 任天堂株式会社 Information processing program, information processing device, information processing system, and information processing method
JP6999516B2 (en) * 2018-07-27 2022-01-18 株式会社Nttドコモ Information processing equipment
WO2020115784A1 (en) * 2018-12-03 2020-06-11 マクセル株式会社 Augmented reality display device and augmented reality display method
JP7139236B2 (en) * 2018-12-17 2022-09-20 ヤフー株式会社 Image processing device, image processing method and image processing program
JP7197451B2 (en) * 2019-09-27 2022-12-27 Kddi株式会社 Image processing device, method and program
JP7465737B2 (en) * 2019-11-28 2024-04-11 株式会社ドワンゴ Teaching system, viewing terminal, information processing method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011118834A (en) 2009-12-07 2011-06-16 Sony Corp Apparatus and method for processing information, and program
JP2017129904A (en) 2016-01-18 2017-07-27 ソニー株式会社 Information processor, information processing method, and record medium
WO2019187488A1 (en) 2018-03-30 2019-10-03 ソニー株式会社 Information processing device, information processing method, and program

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
AdobeCreativeStation,[CC道場 #292]AR道場 Adobe Aeroであそぼう!池原健治 - アドビ公式,youtube[video][online],2020年1月23日,https://www.youtube.com/watch?v=PNgK7elyci0
Pukutomo/ぷくとも,iPadやiPhoneで作れる簡単AR! 無料アプリ「Adobe Aero」,youtube[video][online],2019年11月29日,https://www.youtube.com/watch?v=vQkB9gx8i0k
ROCKETNEWS24, ソニーの実写によるAR(拡張現実)技術に海外ネットユーザが苦笑い「ポルノの未来は明るいな」,[online], 2012年8月27日, https://rocketnews24.com/2012/08/27/243293/
Sony-Global, 3D実写AR "LiveAction AR", youtube[video][online], 2012年8月21日, https://www.youtube.com/watch?v=2rbTLrrgEaU,特に0:43~1:37

Also Published As

Publication number Publication date
JP2023000947A (en) 2023-01-04

Similar Documents

Publication Publication Date Title
US9396588B1 (en) Virtual reality virtual theater system
US20220060639A1 (en) Live style transfer on a mobile device
US20130120365A1 (en) Content playback apparatus and method for providing interactive augmented space
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
US11189057B2 (en) Provision of virtual reality content
JP6523493B1 (en) PROGRAM, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD
CN108377361B (en) Display control method and device for monitoring video
US20190130644A1 (en) Provision of Virtual Reality Content
JP7392105B2 (en) Methods, systems, and media for rendering immersive video content using foveated meshes
US11461942B2 (en) Generating and signaling transition between panoramic images
US10803652B2 (en) Image generating apparatus, image generating method, and program for displaying fixation point objects in a virtual space
US11385856B2 (en) Synchronizing positioning systems and content sharing between multiple devices
WO2019034804A2 (en) Three-dimensional video processing
JP2022051978A (en) Image processing device, image processing method, and program
JP7150894B2 (en) AR scene image processing method and device, electronic device and storage medium
JP7354186B2 (en) Display control device, display control method, and display control program
JP7354185B2 (en) Display control device, display control method, and display control program
US11287658B2 (en) Picture processing device, picture distribution system, and picture processing method
KR20230095197A (en) Method and apparatus for interaction method between cognitive mesh information generated in a three-dimensional space and virtual objects
JP7123222B1 (en) Display control device, display control method and display control program
JP7072706B1 (en) Display control device, display control method and display control program
JP7118217B1 (en) Display control device, display control method and display control program
KR20210056414A (en) System for controlling audio-enabled connected devices in mixed reality environments
KR20190030565A (en) Electronic device and operating method for the same
US20240078767A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211217

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221220

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221227

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230104

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230127

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230131

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230307

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230920

R150 Certificate of patent or registration of utility model

Ref document number: 7354186

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350