JP2020017176A - Information processing device - Google Patents
Information processing device Download PDFInfo
- Publication number
- JP2020017176A JP2020017176A JP2018141128A JP2018141128A JP2020017176A JP 2020017176 A JP2020017176 A JP 2020017176A JP 2018141128 A JP2018141128 A JP 2018141128A JP 2018141128 A JP2018141128 A JP 2018141128A JP 2020017176 A JP2020017176 A JP 2020017176A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- information processing
- display control
- control unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、撮像画像に画像を重畳表示するための技術に関する。 The present invention relates to a technique for superimposing and displaying an image on a captured image.
いわゆるAR(拡張現実)は、現実空間に対して情報の付加・削除・強調・減衰を行うことで、人間が見た現実の世界を拡張するものである。例えば特許文献1には、2枚のゲームカードを接触させると、キャラクタ同士の間に仮想オブジェクトが表示されることが記載されている。さらに、これらのゲームカード同士を離すことにより、仮想オブジェクトが伸びるように表現され、ゲームカード同士を近づけることにより、仮想オブジェクトが縮むように表現されることが記載されている。
The so-called AR (augmented reality) extends the real world as seen by humans by adding, deleting, emphasizing, and attenuating information in the real space. For example,
このARを楽曲再生に利用することが考えられている。例えば、実オブジェクトとしてのARマーカを撮像すると、楽曲演奏を行うキャラクタを仮想オブジェクトとしてその撮像画像に重畳して表示するといった具合である。このような動きのある仮想オブジェクトを表示する場合に、例えば複数の仮想オブジェクトに応じた動きのある画像を重畳表示することができれば、ユーザにとって面白いサービスを提供し得る可能性がある。 It is considered that this AR is used for music reproduction. For example, when an AR marker as a real object is imaged, a character performing a music performance is displayed as a virtual object superimposed on the captured image. When displaying such a moving virtual object, for example, if a moving image corresponding to a plurality of virtual objects can be superimposed and displayed, there is a possibility that an interesting service for a user may be provided.
そこで、本発明は、複数の仮想オブジェクト間の距離に応じて、動きのある画像を表示し得る仕組みを提供することを目的とする。 Therefore, an object of the present invention is to provide a mechanism capable of displaying a moving image according to the distance between a plurality of virtual objects.
上記課題を解決するため、本発明は、撮像画像を取得する取得部と、前記取得部により取得された撮像画像において、識別情報が記された実オブジェクトを検出する検出部と、前記検出部により複数の前記実オブジェクトが検出された場合に、当該複数の前記実オブジェクト間の距離を算出する算出部と、前記検出部により検出された前記実オブジェクトの識別情報に対応する仮想オブジェクトを前記撮像画像に重畳表示させる表示制御部であって、前記検出部により複数の前記実オブジェクトが検出された場合には、前記算出部により算出された距離に応じた態様の動画を前記撮像画像に重畳表示させる表示制御部とを備えることを特徴とする情報処理装置を提供する。 In order to solve the above-described problem, the present invention provides an acquisition unit that acquires a captured image, a detection unit that detects a real object on which identification information is written in the captured image acquired by the acquisition unit, A calculating unit that calculates a distance between the plurality of real objects when a plurality of the real objects are detected, and a virtual object corresponding to the identification information of the real object detected by the detecting unit, A display control unit configured to superimpose and display a moving image in a mode corresponding to the distance calculated by the calculation unit on the captured image when the detection unit detects the plurality of real objects. An information processing apparatus comprising: a display control unit.
前記表示制御部は、動作を行う前記仮想オブジェクトを重畳表示させるとともに、当該仮想オブジェクトの動作に連動する前記動画を重畳表示させるようにしてもよい。 The display control unit may superimpose the virtual object performing the operation and superimpose the moving image in conjunction with the operation of the virtual object.
前記表示制御部は、演奏動作を行う前記仮想オブジェクトを重畳表示させるとともに、当該仮想オブジェクトの演奏動作に対応する演奏動作を行う演奏者を収録した前記動画を重畳表示させるようにしてもよい。 The display control unit may superimpose and display the virtual object performing the performance operation, and superimpose and display the moving image including a player performing the performance operation corresponding to the performance operation of the virtual object.
前記表示制御部は、前記算出部により算出された距離に応じた大きさの前記動画を重畳表示させるようにしてもよい。 The display control unit may superimpose and display the moving image having a size corresponding to the distance calculated by the calculation unit.
前記表示制御部は、前記算出部により算出された距離に応じた内容の前記動画を重畳表示させるようにしてもよい。 The display control unit may superimpose and display the moving image having contents corresponding to the distance calculated by the calculation unit.
前記表示制御部は、複数の前記実オブジェクトを結ぶ線分上において、当該線分の方向に応じた向きの仮想平面に前記動画を重畳表示させるようにしてもよい。 The display control unit may superimpose and display the moving image on a virtual plane in a direction corresponding to the direction of the line segment on a line segment connecting the plurality of real objects.
前記表示制御部は、前記撮像画像を閲覧するユーザの視線方向に応じた向きの仮想平面に前記動画を重畳表示させるようにしてもよい。 The display control unit may superimpose and display the moving image on a virtual plane in a direction corresponding to a viewing direction of a user who views the captured image.
前記表示制御部は、前記撮像画像を閲覧するユーザにより所定の操作が行われた場合には、前記複数の実オブジェクトのうちいずれか一方の実オブジェクトが移動させられて当該複数の前記実オブジェクト間の距離が変更した場合であっても、前記動画の表示の態様を変更しないようにしてもよい。 When a predetermined operation is performed by a user who browses the captured image, one of the plurality of real objects is moved, and the display control unit moves between the plurality of real objects. Even if the distance of the moving image changes, the display mode of the moving image may not be changed.
前記表示制御部は、前記検出部により検出された複数の前記実オブジェクトの識別情報の組み合わせに応じた態様の前記動画を重畳表示させるようにしてもよい。 The display control unit may superimpose and display the moving image in a mode corresponding to a combination of the identification information of the plurality of real objects detected by the detection unit.
前記表示制御部は、前記検出部により検出された複数の前記実オブジェクトのうちいずれか一方の識別情報に対応する仮想オブジェクトの位置に応じた態様の前記動画を重畳表示させるようにしてもよい。 The display control unit may superimpose and display the moving image in a mode corresponding to a position of a virtual object corresponding to one of the plurality of real objects detected by the detection unit.
また、本発明は、撮像画像を取得する取得ステップと、前記取得ステップにおいて取得された撮像画像において、識別情報が記された実オブジェクトを検出する検出ステップと、前記検出ステップにおいて複数の前記実オブジェクトが検出された場合に、当該複数の前記実オブジェクト間の距離を算出する算出ステップと、前記検出ステップにおいて検出された前記実オブジェクトの識別情報に対応する仮想オブジェクトを前記撮像画像に重畳表示させる表示制御ステップであって、前記検出ステップにおいて複数の前記実オブジェクトが検出された場合には、前記算出ステップにおいて算出された距離に応じた態様の動画を前記撮像画像に重畳表示させる表示制御ステップとを備えることを特徴とする情報処理方法を提供する。 The present invention also provides an acquisition step of acquiring a captured image, a detection step of detecting a real object with identification information written in the captured image acquired in the acquisition step, and a plurality of the real objects in the detection step. Calculating a distance between the plurality of real objects, and displaying a virtual object corresponding to the identification information of the real object detected in the detecting step on the captured image in a superimposed manner. A control step, wherein when the plurality of real objects are detected in the detection step, a display control step of superimposing and displaying a moving image in a mode corresponding to the distance calculated in the calculation step on the captured image. An information processing method characterized by comprising:
また、本発明は、コンピュータに、撮像画像を取得する取得ステップと、前記取得ステップにおいて取得された撮像画像において、識別情報が記された実オブジェクトを検出する検出ステップと、前記検出ステップにおいて複数の前記実オブジェクトが検出された場合に、当該複数の前記実オブジェクト間の距離を算出する算出ステップと、前記検出ステップにおいて検出された前記実オブジェクトの識別情報に対応する仮想オブジェクトを前記撮像画像に重畳表示させる表示制御ステップであって、前記検出ステップにおいて複数の前記実オブジェクトが検出された場合には、前記算出ステップにおいて算出された距離に応じた態様の動画を前記撮像画像に重畳表示させる表示制御ステップとを実行させるためのプログラムを提供する。 The present invention also provides a computer with an acquisition step of acquiring a captured image, a detection step of detecting a real object with identification information in the captured image acquired in the acquisition step, A step of calculating a distance between the plurality of real objects when the real object is detected; and superimposing a virtual object corresponding to the identification information of the real object detected in the detection step on the captured image. A display control step of displaying the moving image in a manner corresponding to the distance calculated in the calculating step when the plurality of real objects are detected in the detecting step; And a program for executing the steps.
本発明によれば、複数の仮想オブジェクト間の距離に応じて、動きのある画像を表示することが可能となる。 According to the present invention, it is possible to display a moving image in accordance with the distance between a plurality of virtual objects.
[構成]
図1は、本実施形態の情報処理システム1の一例を示す図である。情報処理システム1は、いわゆるAR(拡張現実)を実現するための処理を行う情報処理装置10と、画像の撮像及び表示を行う撮像表示装置20と、これら情報処理装置10及び撮像表示装置20を通信可能に接続するネットワーク90とを備えている。ネットワーク90は、例えばLAN(Local Area Network)又はWAN(Wide Area Network)、若しくはこれらの組み合わせであり、有線区間又は無線区間を含んでいる。なお、図1には、情報処理装置10及び撮像表示装置20を1つずつ示しているが、これらはそれぞれ複数であってもよい。
[Constitution]
FIG. 1 is a diagram illustrating an example of an
情報処理装置10は、撮像表示装置20によって撮像された現実空間の撮像画像を取得し、その現実空間に対して付加的な画像を重畳した状態で表示するよう、撮像表示装置20を制御する。具体的には、情報処理装置10は、撮像表示装置20によって撮像された現実空間の撮像画像において、ARマーカと呼ばれる実オブジェクトを検出し、その実オブジェクトに対応する仮想オブジェクトを現実空間に重畳した状態で撮像表示装置20に表示させる。さらに、情報処理装置10は、撮像表示装置20によって撮像された現実空間の撮像画像において、複数の実オブジェクト同士の距離に応じた態様の動画を現実空間に重畳した状態で撮像表示装置20に表示させる。
The
ここで、ARマーカとは、ARにおいて現実空間に重畳表示する画像及びその位置を指定するための識別情報が記された標識のことである。この識別情報は、図形や文字等によってARマーカに記されているが、よく用いられるのは白黒の図形やQRコード(登録商標)などである。本実施形態では、円形の媒体に白黒の図形が記されたARマーカを用いるが、その形状や大きさ、そして識別情報の表現形式はどのようなものであってもよい。仮想オブジェクトがARマーカに重畳した状態で表示されるので、ユーザから見ると、あたかも現実空間に仮想オブジェクトが存在しているように感じられる。仮想オブジェクトは、ARオブジェクトとも呼ばれる。 Here, the AR marker is a sign on which an image to be superimposed and displayed in the real space in the AR and identification information for designating the position are written. The identification information is described on the AR marker by a graphic, a character, or the like, but frequently used is a monochrome graphic, a QR code (registered trademark), or the like. In the present embodiment, an AR marker in which a black-and-white figure is written on a circular medium is used, but the shape, size, and expression format of the identification information may be any. Since the virtual object is displayed in a state of being superimposed on the AR marker, the user feels as if the virtual object exists in the real space. Virtual objects are also called AR objects.
なお、本実施形態では、撮像表示装置20が情報処理装置10の制御下で画像を表示するという、より複雑な例で説明するが、このような例に限定されず、撮像表示装置20が情報処理装置10の制御を受けずに単体で画像表示に関する動作を行ってもよい。つまり、撮像表示装置20は、自装置の撮像部206が撮像した現実空間の撮像画像において、複数のARマーカを検出し、その実オブジェクト同士の距離に応じた態様の動画を現実空間に重畳した状態で表示部207に表示させるようにしてもよい。
In the present embodiment, a more complicated example in which the
図2は、撮像表示装置20のハードウェア構成を例示する図である。撮像表示装置20は、例えばグラス型、ヘッドマウントディスプレイ型又はコンタクトレンズ型のウェアラブルコンピュータ、或いは、スマートフォン又はタブレットなどの情報処理装置である。ARを実現する装置として、現実空間の撮像画像を表示する表示面において仮想オブジェクトをその撮像画像に重畳して表示するタイプと、ユーザの眼の前に配置された光透過型の表示面において、ユーザから表示面を介して見える現実空間の所定の位置に重なる表示面上の位置に仮想オブジェクトを表示するタイプとがある。本実施形態に係る撮像表示装置20はいずれのタイプであってもよく、仮想オブジェクトを現実空間に重畳表示する装置として機能する。
FIG. 2 is a diagram illustrating a hardware configuration of the
撮像表示装置20は、CPU201(Central Processing Unit)、ROM(Read Only Memory)202、RAM(Random Access Memory)203、補助記憶装置204、通信IF205、撮像部206、表示部207及び操作部208を有する。
The
CPU201は、各種の演算を行うプロセッサである。ROM202は、例えば撮像表示装置20の起動に用いられるプログラム及びデータを記憶した不揮発性メモリである。RAM203は、CPU201がプログラムを実行する際のワークエリアとして機能する揮発性メモリである。補助記憶装置204は、例えばHDD(Hard Disk Drive)又はSSD(Solid State Drive)などの不揮発性の記憶装置であり、撮像表示装置20において用いられるプログラム及びデータを記憶する。CPU201がこのプログラムを実行することにより撮像表示装置20はコンピュータ装置として機能する。通信IF205は、所定の通信規格に従ってネットワーク90を介した通信を行うためのインターフェースである。この通信規格は、無線通信の規格であってもよいし、有線通信の規格であってもよい。無線の場合、通信IF205は、例えばLTE(Long Term Evolution)又はWi−Fi(登録商標)等の通信規格で動作するアンテナ及び通信回路を備えている。撮像部206はレンズ及び光学素子を含み、撮像した画像を示す撮像画像データを生成する。表示部207は、例えば液晶パネル及び液晶駆動回路などを含み、画像データに応じた画像を表示する。操作部208は、例えばキーやタッチセンサなどの操作子を含み、ユーザの操作を受け付けてその操作に応じた信号をCPU201に供給する。なお、撮像表示装置20は、図2に例示した構成以外に、例えばGPS(Global Positioning System)ユニットや音声入出力部などの他の構成を含んでいてもよい。
The
図3は、情報処理装置10のハードウェア構成を例示する図である。情報処理装置10は、CPU101、ROM102、RAM103、補助記憶装置104、及び通信IF105を有するコンピュータ装置である。CPU101は、各種の演算を行うプロセッサである。ROM102は、例えば情報処理装置10の起動に用いられるプログラム及びデータを記憶した不揮発性メモリである。RAM103は、CPU101がプログラムを実行する際のワークエリアとして機能する揮発性メモリある。補助記憶装置104は、例えばHDD又はSSDなどの不揮発性の記憶装置であり、情報処理装置10において用いられるプログラム及びデータを記憶する。CPU101がこのプログラムを実行することにより、後述する図6に示される機能が実現される。通信IF105は、所定の通信規格に従ってネットワーク90を介した通信を行うためのインターフェースである。情報処理装置10は、図3に例示した構成以外に、例えば表示部や操作部などの他の構成を含んでいてもよい。
FIG. 3 is a diagram illustrating a hardware configuration of the
補助記憶装置104は、画像データベース(以下、データベースをDBと省略する)と表示サイズテーブルとを記憶している。図4は、画像DBの一例を示す図である。画像DBには、ARマーカに記された識別情報(ARマーカ識別情報)と、そのARマーカに重畳表示するキャラクタを撮像表示装置20において再生するためのデータ(キャラクタ再生データ)と、複数(本実施形態では2つ)のARマーカの組み合わせに対して決められた動画を撮像表示装置20において再生するためのデータ(動画再生データ)とが対応付けられている。例えばARマーカ識別情報「ID001」が記されたARマーカに対しては、「C001」というデータ名のキャラクタ再生データによって示されるキャラクタが重畳表示される。また、例えばARマーカ識別情報「ID002」が記されたARマーカに対しては、「C002」というデータ名のキャラクタ再生データによって示されるキャラクタが重畳表示される。ここでいうキャラクタは、例えば楽曲を演奏する集団(バンド)を構成する各メンバーの外観を模したものである。キャラクタ再生データは、画像データ及び音声データを含んでいる。キャラクタ再生データが撮像表示装置20において再生されると、キャラクタが楽曲を演奏する動作を行っているように表示され、且つ、その演奏による楽曲の音声が出力される。
The
ARマーカ識別情報「ID001」及びARマーカ識別情報「ID002」は1つの組を構成しており、また、ARマーカ識別情報「ID003」及びARマーカ識別情報「ID004」は上記とは別の1つの組を構成している。1つの組み合わせに係るARマーカ識別情報が記されたARマーカ群の各々は、或る楽曲を演奏する集団(バンド)を構成するメンバーのそれぞれに対応している。例えばARマーカ識別情報「ID001」及び「ID002」の組み合わせに対応する「C001」というキャラクタ再生データによって、或る楽曲についてギター演奏を行うキャラクタが再生され、また、「C002」というキャラクタ再生データによって、上記楽曲についてボーカル演奏を行うキャラクタが再生されるといった具合である。 The AR marker identification information “ID001” and the AR marker identification information “ID002” constitute one set, and the AR marker identification information “ID003” and the AR marker identification information “ID004” are one other than the above. Make up a set. Each of the AR marker groups in which AR marker identification information related to one combination is described corresponds to each of the members constituting a group (band) playing a certain music. For example, a character playing a guitar for a certain piece of music is reproduced by character reproduction data “C001” corresponding to a combination of AR marker identification information “ID001” and “ID002”, and character reproduction data “C002” For example, a character performing a vocal performance for the music is reproduced.
また、1つの組み合わせに係るARマーカ群の各々によって再生される楽曲は同期している。例えば「C001」というキャラクタ再生データによってギター演奏を行うキャラクタの動き及び音声と、「C002」というキャラクタ再生データによってボーカル演奏を行うキャラクタの動き及び音声とは、楽曲演奏の進行において同期した状態で再生される。つまり、これらのキャラクタが1つの楽曲をそれぞれのパートにおいて同時に演奏しているように再生される。この同期再生のために、キャラクタ再生データ「C001」及びキャラクタ再生データ「C002」には共通のタイムコードが含まれており、これらのデータはこのタイムコードに従って同期した状態で再生される。 Also, the music played by each of the AR marker groups related to one combination is synchronized. For example, the movement and voice of a character performing a guitar performance based on the character reproduction data “C001” and the motion and voice of a character performing a vocal performance based on the character reproduction data “C002” are reproduced in synchronization with the progress of the music performance. Is done. In other words, these characters are reproduced as if they were playing one piece of music in each part at the same time. For the synchronous reproduction, the character reproduction data “C001” and the character reproduction data “C002” include a common time code, and these data are reproduced in a synchronized state according to the time code.
さらに、1つの組み合わせに係るARマーカの間には、この組に対応する動画再生データによって動画が重畳表示される。例えばARマーカ識別情報「ID001」が記されたARマーカとARマーカ識別情報「ID002」が記されたARマーカとの間には、「A001」というデータ名の動画再生データが示す動画が重畳表示される。この動画は、「C001」というキャラクタ再生データによって示されるキャラクタに対応する現実の演奏者(バンドのメンバー)と、「C002」というキャラクタ再生データによって示されるキャラクタに対応する現実の演奏者(バンドのメンバー)とが現実空間のライブやコンサートで演奏しているときの様子を収録した動画である。つまり、動画再生データは画像データ及び音声データを含む。さらに、1つの組み合わせに係るARマーカの各々において再生される楽曲と、これらのARマーカ間に重畳表示される動画とは同期(つまり連動)している。例えばARマーカ識別情報「ID001」及び「ID002」の組み合わせに対応する「C001」というキャラクタ再生データによって再生される、ギター演奏を行うキャラクタの動き及び音声と、「C002」というキャラクタ再生データによって再生される、ボーカル演奏を行うキャラクタの動き及び音声と、「A001」という動画再生データによって再生される、現実の演奏者が現実空間で演奏しているときの動き及び音声とが同期した状態で再生される。つまり、撮像表示装置20において、各キャラクタが1つの楽曲を同時にそれぞれのパートで演奏しているように再生されるとともに、その演奏中の収録動画がキャラクタの演奏動作と同期した状態で再生される。この同期再生のために、キャラクタ再生データ「C001」、キャラクタ再生データ「C002」及び動画再生データ「A001」には共通のタイムコードが含まれており、これらのデータはこのタイムコードに従って同期した状態で再生される。
Further, between AR markers of one combination, a moving image is superimposed and displayed by moving image reproduction data corresponding to this combination. For example, the moving image indicated by the moving image reproduction data having the data name “A001” is superimposed and displayed between the AR marker with the AR marker identification information “ID001” and the AR marker with the AR marker identification information “ID002”. Is done. This moving image includes a real player (a member of the band) corresponding to the character indicated by the character reproduction data “C001” and a real player (a band member) corresponding to the character indicated by the character reproduction data “C002”. Members) are performing at live concerts and concerts in the real space. That is, the moving image reproduction data includes image data and audio data. Further, the music reproduced at each of the AR markers according to one combination and the moving image superimposed and displayed between these AR markers are synchronized (that is, linked). For example, the movement and voice of the character performing the guitar playing and the character reproduction data of "C002" are reproduced by the character reproduction data of "C001" corresponding to the combination of the AR marker identification information "ID001" and "ID002". The motion and voice of the character performing the vocal performance are reproduced in synchronization with the motion and voice of the real player playing in the real space, which is reproduced by the moving image reproduction data “A001”. You. In other words, in the
図6は、情報処理システム1の機能構成の一例を示すブロック図である。図6に示すように、情報処理装置10においては、取得部11と、検出部12と、算出部13と、表示制御部14という機能が実現される、取得部11は、撮像表示装置20の撮像部206から通信IF205を介して撮像画像を取得する。検出部12は、取得部11により取得された撮像画像においてARマーカを検出する。算出部13は、検出部12により複数のARマーカが検出された場合に、当該複数のARマーカ間の距離を算出する。表示制御部14は、撮像表示装置20の表示部207に対して通信IF205経由で表示制御を行うことで、検出部12により検出されたARマーカのARマーカ識別情報に対応するキャラクタを撮像画像に重畳表示させる。さらに、表示制御部14は、検出部12により複数のARマーカが検出された場合には、算出部13により算出された距離に応じた態様の動画を撮像画像に重畳表示させる。
FIG. 6 is a block diagram illustrating an example of a functional configuration of the
なお、前述したとおり本実施形態では、撮像表示装置20が情報処理装置10の制御下で画像を表示する例で説明するため、その機能構成は図6のようになる。ただし、前述したように、本発明においては、撮像表示装置20が情報処理装置10の制御を受けずに単体で画像表示に関する動作を行ってもよい。この場合は、撮像表示装置20が、撮像部206から撮像画像を取得する取得部11と、取得部11により取得された撮像画像においてARマーカを検出する検出部12と、検出部12により複数のARマーカが検出された場合に、当該複数のARマーカ間の距離を算出する算出部13と、検出部12により検出されたARマーカのARマーカ識別情報に対応するキャラクタを、表示部207を制御して撮像画像に重畳表示させる表示制御部14であって、検出部12により複数のARマーカが検出された場合には、算出部13により算出された距離に応じた態様の動画を撮像画像に重畳表示させる表示制御部14という機能を実現することになる。
As described above, in the present embodiment, an example in which the
[動作]
図7〜図9を参照して、情報処理装置10の動作例について説明する。まず、ユーザは、ARマーカを机や台の上に置き、撮像表示装置20の撮像部206を起動する。これにより、ARマーカを含む空間の撮像が開始される。撮像部206によって撮像された撮像画像データは、通信IF205からネットワーク90経由で情報処理装置10に送信される。
[motion]
An operation example of the
情報処理装置10の取得部11が撮像画像データを取得すると(図7、ステップS11)、検出部12は、その撮像画像データについてパターンマッチング等の画像認識処理を行ってARマーカの検出を試み、撮像画像にARマーカが含まれるか否かを判断する(ステップS12)。
When the
撮像画像にARマーカが含まれていれば(ステップS12;YES)、表示制御部14は、認識したARマーカのARマーカ識別情報に対応するキャラクタ再生データを補助記憶装置104から読み出し、読み出したキャラクタ再生データを、その表示位置(例えばARマーカ上の所定の位置)を指定して撮像表示装置20に送信し、キャラクタを表示させる(ステップS13)。
If the captured image includes the AR marker (Step S12; YES), the
そして、ユーザが撮像表示装置20において所定の再生操作を行うと(ステップS14;YES)、その旨が情報処理装置10に通知される。この通知に応答して、情報処理装置10の表示制御部14がキャラクタ再生データを再生するよう、撮像表示装置20に指示する。これにより、撮像表示装置20において、キャラクタ再生データに従い楽曲の再生とキャラクタの動作に関する再生制御が開始される(ステップS15)。
Then, when the user performs a predetermined reproduction operation on the imaging display device 20 (step S14; YES), the fact is notified to the
以上説明した実施形態によれば、複数のARマーカ間の距離に応じた大きさの動画を表示することが可能となる。各ARマーカに対しては、バンドメンバーに対応する各キャラクタが1つの楽曲を同時にそれぞれのパートで演奏しているように重畳表示されるとともに、現実空間でその演奏を収録した動画がキャラクタの演奏と同期した状態で重畳表示される。これにより、ユーザが面白みを感じられるようなサービスを提供することができる。 According to the embodiment described above, a moving image having a size corresponding to the distance between a plurality of AR markers can be displayed. For each AR marker, each character corresponding to the band member is superimposed and displayed as if a single piece of music is being played in each part at the same time, and a video recording the performance in real space is played by the character. Is superimposed and displayed in synchronization with. This makes it possible to provide a service that makes the user feel interesting.
[変形例]
本発明は、上述した実施形態に限定されない。上述した実施形態を以下のように変形してもよい。また、以下の2つ以上の変形例を組み合わせて実施してもよい。
[変形例1]
上述した実施形態において、表示制御部14は、演奏動作を行うキャラクタを現実空間に重畳表示させるとともに、当該キャラクタの演奏動作に対応する演奏動作を行う現実の演奏者を収録した動画を現実空間に重畳表示させていた。表示対象はこの例に限定されるわけではない。例えば、表示制御部14は、何らかの動作を行う仮想オブジェクトを現実空間に重畳表示させるとともに、当該仮想オブジェクトの動作に連動する動画を現実空間に重畳表示させるようにしてもよい。また、仮想オブジェクトは何らかの動作を行わなくてもよい。要するに、表示制御部14は、複数の実オブジェクトが検出された場合に、その実オブジェクト間の距離に応じた態様の動画を撮像画像に重畳表示させるようにすればよい。
[Modification]
The invention is not limited to the embodiments described above. The embodiment described above may be modified as follows. Further, two or more of the following modifications may be combined.
[Modification 1]
In the above-described embodiment, the
[変形例2]
表示制御部14は、実オブジェクト間の距離に応じた態様の動画を重畳表示させるようにすればよい。この態様とは、実施形態では動画の表示サイズであったが、例えば距離に応じた動画の内容であってもよい。例えばARマーカ間の距離が閾値以下の場合は、バンドを構成するメンバーのうち特定のメンバーの演奏行為を主に被写体として収録した動画を表示し、ARマーカ間の距離が閾値を超えるとそのバンド全員の演奏風景を俯瞰する撮影位置から収録した動画を表示するようにしてもよい。つまり、表示制御部14は、算出部13により算出された距離に応じた内容の動画を重畳表示させるようにしてもよい。この場合、情報処理装置10において、ARマーカ間の距離と表示対象となる動画再生データとが対応付けられて記憶されており、表示制御部14は、算出部13により算出された距離に対応する動画再生データを読み出して重畳表示させる。
[Modification 2]
The
[変形例3]
実施形態では、ARマーカを結ぶ線分上にその線分の方向に応じた向きの仮想平面aが設けられ、その仮想平面aに動画が重畳表示されていた。これに代えて、表示制御部14は、撮像画像を閲覧するユーザの視線方向に応じた向きの仮想平面に動画を重畳表示させてもよい。ユーザの視線方向は、ユーザの目を撮像表示装置20が撮像して画像解析により特定すればよい。これにより、ユーザの視る方向により動画を表示する仮想平面の向きを変えられることになるから、例えば、常にユーザに対して正対する仮想平面(つまり仮想平面の法線とユーザの視線方向とが平行となる)に動画を重畳表示させることが可能となる。
[Modification 3]
In the embodiment, a virtual plane a having a direction corresponding to the direction of the line segment is provided on a line connecting the AR markers, and a moving image is superimposed on the virtual plane a. Instead, the
[変形例4]
2つのARマーカのうち、いずれか一方のARマーカが移動させられてARマーカ間の距離が変わると、それに追随して動画の表示の態様が変わってもよいし、また、ARマーカ間の距離が変わったとしても、移動前の態様のまま動画を表示し続けるようにしてもよい。例えば、或る態様で動画が表示されているときにユーザにより所定の操作が行われた場合、その操作以後、複数のARマーカのうちいずれか一方が移動させられたとしても、動画の表示はそのままとする。つまり、表示制御部14は、ユーザにより所定の操作が行われた場合には、複数の実オブジェクトのうちいずれか一方の実オブジェクトが移動させられて当該複数の実オブジェクト間の距離が変更した場合であっても、動画の表示の態様を変更しないようにしてもよい。これは、ユーザが動画の表示態様を維持したい場合に便利である。また、例えば、或る態様で動画が表示されているときにいずれかのARマーカが移動させられた場合には、その動画の表示を消去してもよい。
[Modification 4]
When one of the two AR markers is moved and the distance between the AR markers changes, the display mode of the moving image may change accordingly, or the distance between the AR markers may change. Even if is changed, the moving image may be continuously displayed in the state before the movement. For example, when a predetermined operation is performed by a user while a moving image is displayed in a certain mode, the moving image is displayed even if one of the plurality of AR markers is moved after the operation. Leave as is. That is, when a predetermined operation is performed by the user, the
[変形例5]
例えば楽曲を演奏するバンドを構成するメンバーが3人以上であって、これらメンバーに対応するARマーカが3つ以上の場合、ARマーカの組み合わせに応じて異なる内容の動画を表示するようにしてもよい。例えば3人で構成されるバンドのメンバーA,B,Cに対応するARマーカM1,M2,M3としたとき、ARマーカM1,M2の組み合わせの場合にはメンバーA,Bを主に被写体として収録した動画を表示し、ARマーカM2,M3の組み合わせの場合にはメンバーB,Cを主に被写体として収録した動画を表示し、ARマーカM1,M3の組み合わせの場合にはメンバーA,Cを主に被写体として収録した動画を表示するといった具合である。つまり、表示制御部14は、検出部12により検出された複数の実オブジェクトの識別情報の組み合わせに応じた態様の動画を重畳表示させるようにしてもよい。
[Modification 5]
For example, if there are three or more members constituting a band playing music and three or more AR markers corresponding to these members, moving images having different contents may be displayed according to the combination of the AR markers. Good. For example, if AR markers M1, M2, and M3 corresponding to members A, B, and C of a band composed of three members, members A and B are mainly recorded as subjects in the case of a combination of AR markers M1 and M2. In the case of a combination of the AR markers M2 and M3, a moving image in which members B and C are mainly recorded as subjects is displayed, and in the case of a combination of the AR markers M1 and M3, the members A and C are mainly displayed. For example, a moving image recorded as a subject is displayed. That is, the
また、表示サイズテーブルにおいて、ARマーカの組み合わせに応じて異なる閾値を設定しておいてもよい。例えばARマーカM1,M2の組み合わせの場合には閾値L1,L2を用い、ARマーカM2,M3の組み合わせの場合には閾値L1、L2とは異なる閾値L3,L4を用い、ARマーカM1,M3の組み合わせの場合には閾値L1〜L4とは異なる閾値L5,L6を用いるといった具合である。 In the display size table, different threshold values may be set according to the combination of AR markers. For example, in the case of the combination of the AR markers M1 and M2, the thresholds L1 and L2 are used, and in the case of the combination of the AR markers M2 and M3, the thresholds L3 and L4 different from the thresholds L1 and L2 are used. In the case of a combination, thresholds L5 and L6 different from thresholds L1 to L4 are used.
また、1つの組み合わせに係るARマーカは3つ以上であってもよい。この場合、これらのARマーカのうちいずれか2つのARマーカ間の距離を用いてもよいし、各ARマーカ間の距離を全て算出してそれらの平均値を用いてもよい。また、この場合の動画の表示位置は、これらのARマーカのうちいずれか2つのARマーカ間を結ぶ線分上の仮想平面を表示位置としてもよいし、全てのARマーカを結んだ図形の重心となる位置に仮想平面を設けてそれを表示位置としてもよい。 The number of AR markers per combination may be three or more. In this case, the distance between any two AR markers among these AR markers may be used, or the distance between each AR marker may be calculated and the average value thereof may be used. In this case, the display position of the moving image may be a virtual plane on a line segment connecting any two AR markers among these AR markers, or the center of gravity of a figure connecting all the AR markers. It is also possible to provide a virtual plane at a position where, and use it as a display position.
[変形例6]
動画の内容は実施形態の例に限定されない。例えば、或るキャラクタの位置から各キャラクタを見たときの様子を動画として表示するようにしてもよい。具体的には、情報処理装置10の表示制御部14は、撮像画像中のARマーカの位置に基づいて各ARマーカの位置関係を特定し、例えばユーザにより指定された1のARマーカの位置から或る視野範囲で見たときの他のARマーカの位置を特定する。そして、表示制御部14は、或るARマーカの位置から見た視野範囲において、他のARマーカに対応するキャラクタ演奏動作を行っている様子を動画として生成して、撮像表示装置20に表示させる。つまり、表示制御部14は、検出部12により検出された複数の実オブジェクトのうちいずれか一方の識別情報に対応する仮想オブジェクトの位置に応じた態様の動画を重畳表示させるようにしてもよい。
[Modification 6]
The content of the moving image is not limited to the example of the embodiment. For example, an appearance when each character is viewed from a certain character position may be displayed as a moving image. Specifically, the
[変形例7]
情報処理装置10が、撮像画像を閲覧しているユーザを例えばそのユーザの顔画像を認識する方法やユーザID又は生体情報を入力する方法等により識別するユーザ識別部を備え、表示制御部14は、ユーザ識別部により識別されたユーザに応じた動画を重畳表示させるようにしてもよい。例えばバンドを構成するメンバーのうち、そのユーザが好きなメンバーの識別情報を情報処理装置10に登録しておくようにすれば、複数の動画のうちユーザ識別部により識別された、ユーザが好きなメンバーを主に収録した動画を選択して、それを重畳表示させることが可能となる。つまり、ユーザの趣味嗜好に対応する動画を登録しておき、識別されたユーザに対応する動画を重畳表示させるようにしてもよい。
[Modification 7]
The
[変形例8]
ARマーカ間の距離の算出方法は実施形態の例に限定されない。また、動画の表示サイズの上限又は下限は無くてもよい。
[Modification 8]
The method for calculating the distance between the AR markers is not limited to the example of the embodiment. In addition, there may be no upper limit or lower limit of the display size of the moving image.
[そのほかの変形例]
上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。例えば、情報処理装置10の機能の少なくとも一部が撮像表示装置20に実装されてもよい。情報処理装置10の機能の全部が撮像表示装置20に実装された場合、撮像表示装置20が本発明に係る情報処理装置として機能する。
[Other modifications]
The block diagram used in the description of the above-described embodiment shows blocks in functional units. These functional blocks (components) are realized by an arbitrary combination of hardware and / or software. The means for implementing each functional block is not particularly limited. That is, each functional block may be realized by one device physically and / or logically coupled, or two or more devices physically and / or logically separated from each other directly and / or indirectly. (For example, wired and / or wireless), and may be realized by the plurality of devices. For example, at least a part of the functions of the
本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。 Each aspect / embodiment described in this specification includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA. (Registered trademark), GSM (registered trademark), CDMA2000, Ultra Mobile Broadband (UMB), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), The present invention may be applied to a system using Bluetooth (registered trademark), another appropriate system, and / or a next-generation system extended based on the system.
本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、その所定の情報の通知を行わない)ことによって行われてもよい。
The processing procedures, sequences, flowcharts, and the like of each aspect / embodiment described in this specification may be interchanged as long as there is no inconsistency. For example, the methods described herein present elements of various steps in a sample order, and are not limited to the specific order presented.
Each aspect / embodiment described in this specification may be used alone, may be used in combination, or may be switched as the execution goes on. In addition, the notification of the predetermined information (for example, the notification of “X”) is not limited to explicitly performed, and is performed implicitly (for example, not performing the notification of the predetermined information). Is also good.
本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" as used herein are used interchangeably.
本明細書で説明した情報又はパラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。例えば、無線リソースはインデックスで指示されるものであってもよい。 The information, parameters, and the like described in this specification may be represented by an absolute value, a relative value from a predetermined value, or another corresponding information. For example, the radio resource may be indicated by an index.
上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素(例えば、TPCなど)は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的なものではない。 The names used for the parameters described above are not limiting in any way. Further, the formulas and the like that use these parameters may differ from those explicitly disclosed herein. Since the various channels (eg, PUCCH, PDCCH, etc.) and information elements (eg, TPC, etc.) can be identified by any suitable name, the various names assigned to these various channels and information elements may differ in any way. However, it is not limited.
本明細書で使用する「判定(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判定」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining) した事を「判定」「決定」したとみなす事などを含み得る。また、「判定」、「決定」は、受信(receiving) (例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判定」「決定」したとみなす事などを含み得る。また、「判定」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判定」「決定」したとみなす事を含み得る。つまり、「判定」「決定」は、何らかの動作を「判定」「決定」したとみなす事を含み得る。 The terms "determining" and "determining" as used herein may encompass a wide variety of operations. The “judgment” and “decision” are, for example, judgment (judging), calculation (computing), processing (processing), deriving (investigating), investing (looking up) (for example, a table). , Searching in a database or another data structure), ascertaining what is considered to be “determined”, “determined”, and the like. Also, “determining” and “determining” refer to receiving (eg, receiving information), transmitting (eg, transmitting information), input (input), output (output), access (Accessing) (for example, accessing data in the memory) may be regarded as “determined” or “determined”. In addition, “determination” and “decision” mean that resolving, selecting, selecting, establishing, establishing, comparing, and the like are regarded as “determination” and “determined”. May be included. In other words, “determination” and “determination” may include deeming that any operation is “determination” and “determined”.
本発明は、撮像表示装置20又は情報処理装置10において行われる処理のステップを備える情報処理方法として提供されてもよい。また、本発明は、撮像表示装置20又は情報処理装置10において実行されるプログラムとして提供されてもよい。かかるプログラムは、光ディスク等の記録媒体に記録した形態で提供されたり、インターネット等のネットワークを介して、コンピュータにダウンロードさせ、これをインストールして利用可能にするなどの形態で提供されたりすることが可能である。
The present invention may be provided as an information processing method including steps of processing performed in the
ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Software, instructions, etc. may be sent and received via transmission media. For example, if the software uses a wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or a wireless technology such as infrared, wireless and microwave, the website, server, or other When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.
本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc., that can be referred to throughout the above description are not limited to voltages, currents, electromagnetic waves, magnetic or magnetic particles, optical or photons, or any of these. May be represented by a combination of
本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及び/又はシンボルは信号(シグナル)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC)は、キャリア周波数、セルなどと呼ばれてもよい。 The terms described in the present specification and / or the terms necessary for understanding the present description may be replaced with terms having the same or similar meaning. For example, channels and / or symbols may be signals. Also, the signal may be a message. Further, the component carrier (CC) may be called a carrier frequency, a cell, or the like.
本明細書で使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1及び第2要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1要素が第2要素に先行しなければならないことを意味しない。 Any reference to elements using designations such as "first," "second," etc., as used herein, does not generally limit the quantity or order of those elements. These designations may be used herein as a convenient way to distinguish between two or more elements. Thus, reference to a first and second element does not mean that only two elements may be employed therein, or that the first element must somehow precede the second element.
上記の各装置の構成における「手段」を、「部」、「回路」、「デバイス」等に置き換えてもよい。 “Means” in the configuration of each device described above may be replaced with “unit”, “circuit”, “device”, or the like.
「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書或いは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書或いは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 As long as “including”, “comprising”, and variations thereof, are used herein or in the claims, these terms are inclusive as well as the term “comprising” It is intended to be relevant. Further, it is intended that the term "or", as used herein or in the claims, not be the exclusive OR.
本開示の全体において、例えば、英語でのa、an、及びtheのように、翻訳により冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数のものを含むものとする。 Throughout this disclosure, when articles are added by translation, e.g., a, an, and the in English, unless the context clearly indicates otherwise, It shall include a plurality.
以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。 Although the present invention has been described in detail, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described in this specification. The present invention can be embodied as modified and changed aspects without departing from the spirit and scope of the present invention defined by the description of the claims. Therefore, the description in the present specification is for the purpose of illustrative explanation, and does not have any restrictive meaning to the present invention.
1…情報処理システム、10…情報処理装置、11…取得部、12…検出部、13…算出部、14…表示制御部、20…撮像表示装置、90…ネットワーク、101…CPU、102…RAM、103…ROM、104…補助記憶装置、105…通信IF、201…CPU、202…RAM、203…ROM、204…補助記憶装置、205…通信IF、206…撮像部、207…表示部、208…操作部。
DESCRIPTION OF
Claims (10)
前記取得部により取得された撮像画像において、識別情報が記された実オブジェクトを検出する検出部と、
前記検出部により複数の前記実オブジェクトが検出された場合に、当該複数の前記実オブジェクト間の距離を算出する算出部と、
前記検出部により検出された前記実オブジェクトの識別情報に対応する仮想オブジェクトを前記撮像画像に重畳表示させる表示制御部であって、前記検出部により複数の前記実オブジェクトが検出された場合には、前記算出部により算出された距離に応じた態様の動画を前記撮像画像に重畳表示させる表示制御部と
を備えることを特徴とする情報処理装置。 An acquisition unit that acquires a captured image;
In the captured image obtained by the obtaining unit, a detecting unit that detects a real object on which identification information is written,
A calculating unit that calculates a distance between the plurality of real objects when the plurality of real objects is detected by the detection unit;
A display control unit that superimposes a virtual object corresponding to the identification information of the real object detected by the detection unit on the captured image, and when the detection unit detects a plurality of the real objects, A display control unit configured to superimpose and display a moving image in a mode corresponding to the distance calculated by the calculation unit on the captured image.
ことを特徴とする請求項1記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the display control unit superimposes the virtual object performing the operation and superimposes the moving image in conjunction with the operation of the virtual object.
ことを特徴とする請求項2記載の情報処理装置。 The display control unit superimposes and displays the virtual object performing the performance operation, and superimposes and displays the moving image recording a player performing a performance operation corresponding to the performance operation of the virtual object. 2. The information processing apparatus according to item 2.
ことを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。 The information processing device according to claim 1, wherein the display control unit superimposes and displays the moving image having a size corresponding to the distance calculated by the calculation unit.
ことを特徴とする請求項1〜4のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 4, wherein the display control unit superimposes and displays the moving image having content corresponding to the distance calculated by the calculation unit.
ことを特徴とする請求項1〜5のいずれか1項に記載の情報処理装置。 The said display control part superimposes and displays the said moving image on the virtual plane of the direction according to the direction of the said line segment on the line segment which connects several said real objects. 2. The information processing apparatus according to claim 1.
ことを特徴とする請求項1〜5のいずれか1項に記載の情報処理装置。 The information processing according to any one of claims 1 to 5, wherein the display control unit superimposes and displays the moving image on a virtual plane oriented in a direction of a line of sight of a user who views the captured image. apparatus.
ことを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。 When a predetermined operation is performed by a user who browses the captured image, one of the plurality of real objects is moved, and the display control unit moves between the plurality of real objects. The information processing apparatus according to any one of claims 1 to 7, wherein the display mode of the moving image is not changed even when the distance of the moving image changes.
ことを特徴とする請求項1〜8のいずれか1項に記載の情報処理装置。 The said display control part superimposes and displays the said moving image of the aspect according to the combination of the identification information of the some said real object detected by the said detection part. The Claim 1 characterized by the above-mentioned. An information processing apparatus according to claim 1.
ことを特徴とする請求項1〜9のいずれか1項に記載の情報処理装置。 The display control unit superimposes and displays the moving image in a mode according to a position of a virtual object corresponding to identification information of one of the plurality of real objects detected by the detection unit. Item 10. The information processing apparatus according to any one of Items 1 to 9.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018141128A JP6999516B2 (en) | 2018-07-27 | 2018-07-27 | Information processing equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018141128A JP6999516B2 (en) | 2018-07-27 | 2018-07-27 | Information processing equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020017176A true JP2020017176A (en) | 2020-01-30 |
JP6999516B2 JP6999516B2 (en) | 2022-01-18 |
Family
ID=69580580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018141128A Active JP6999516B2 (en) | 2018-07-27 | 2018-07-27 | Information processing equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6999516B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020065135A (en) * | 2018-10-16 | 2020-04-23 | 株式会社Nttぷらら | Information processing device, information processing system, information processing method, and computer program |
JPWO2021132168A1 (en) * | 2019-12-26 | 2021-07-01 | ||
JP7123222B1 (en) | 2021-06-18 | 2022-08-22 | ヤフー株式会社 | Display control device, display control method and display control program |
JP2023000947A (en) * | 2021-06-18 | 2023-01-04 | ヤフー株式会社 | Device, method, and program for display control |
WO2023281803A1 (en) * | 2021-07-08 | 2023-01-12 | ソニーグループ株式会社 | Information processing device, information processing method, and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006072668A (en) * | 2004-09-01 | 2006-03-16 | Sony Computer Entertainment Inc | Image processor, game device, and image processing method |
JP2015198443A (en) * | 2014-04-01 | 2015-11-09 | 村瀬 徹 | augmented reality system, augmented reality processing method, program and recording medium |
JP2016095620A (en) * | 2014-11-13 | 2016-05-26 | キヤノン株式会社 | Display device, server device, display system and control method thereof, control program, and storage medium |
-
2018
- 2018-07-27 JP JP2018141128A patent/JP6999516B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006072668A (en) * | 2004-09-01 | 2006-03-16 | Sony Computer Entertainment Inc | Image processor, game device, and image processing method |
JP2015198443A (en) * | 2014-04-01 | 2015-11-09 | 村瀬 徹 | augmented reality system, augmented reality processing method, program and recording medium |
JP2016095620A (en) * | 2014-11-13 | 2016-05-26 | キヤノン株式会社 | Display device, server device, display system and control method thereof, control program, and storage medium |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020065135A (en) * | 2018-10-16 | 2020-04-23 | 株式会社Nttぷらら | Information processing device, information processing system, information processing method, and computer program |
JP7170495B2 (en) | 2018-10-16 | 2022-11-14 | 株式会社Nttドコモ | Information processing device, information processing system, information processing method, and computer program |
JPWO2021132168A1 (en) * | 2019-12-26 | 2021-07-01 | ||
JP7217368B2 (en) | 2019-12-26 | 2023-02-02 | 株式会社Nttドコモ | image display device |
JP7123222B1 (en) | 2021-06-18 | 2022-08-22 | ヤフー株式会社 | Display control device, display control method and display control program |
JP2023000948A (en) * | 2021-06-18 | 2023-01-04 | ヤフー株式会社 | Device, method, and program for display control |
JP2023000947A (en) * | 2021-06-18 | 2023-01-04 | ヤフー株式会社 | Device, method, and program for display control |
WO2023281803A1 (en) * | 2021-07-08 | 2023-01-12 | ソニーグループ株式会社 | Information processing device, information processing method, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6999516B2 (en) | 2022-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6999516B2 (en) | Information processing equipment | |
US11729252B2 (en) | Content collection navigation and autoforwarding | |
CA3016921C (en) | System and method for deep learning based hand gesture recognition in first person view | |
CN105981368B (en) | Picture composition and position guidance in an imaging device | |
US20230010905A1 (en) | Content collection navigation queue | |
CN106575361B (en) | Method for providing visual sound image and electronic equipment for implementing the method | |
US11636644B2 (en) | Output of virtual content | |
US10074216B2 (en) | Information processing to display information based on position of the real object in the image | |
US10846535B2 (en) | Virtual reality causal summary content | |
US10499097B2 (en) | Methods, systems, and media for detecting abusive stereoscopic videos by generating fingerprints for multiple portions of a video frame | |
EP2795402A1 (en) | A method, an apparatus and a computer program for determination of an audio track | |
KR20200066745A (en) | Explore media collections using opt-out interstitial | |
WO2022072664A1 (en) | Ad breakpoints in video within messaging system | |
CN109271929B (en) | Detection method and device | |
US20150193911A1 (en) | Display control device, display control system, and display control method | |
WO2022072542A1 (en) | Inserting ads into video within messaging system | |
CN106687944A (en) | Activity based text rewriting using language generation | |
US20180006992A1 (en) | Content posting method and apparatus | |
US8463052B2 (en) | Electronic apparatus and image search method | |
US9148472B2 (en) | Server, electronic device, server control method, and computer-readable medium | |
JP7011447B2 (en) | Information processing equipment and programs | |
JP6864593B2 (en) | Information processing device | |
US11468657B2 (en) | Storage medium, information processing apparatus, and line-of-sight information processing method | |
US20240046704A1 (en) | Determination method and determination apparatus | |
US20220100989A1 (en) | Identifying partially covered objects utilizing machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6999516 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |