JP6593477B2 - Video content display device, glasses, video content processing system, and video content display program - Google Patents
Video content display device, glasses, video content processing system, and video content display program Download PDFInfo
- Publication number
- JP6593477B2 JP6593477B2 JP2018030333A JP2018030333A JP6593477B2 JP 6593477 B2 JP6593477 B2 JP 6593477B2 JP 2018030333 A JP2018030333 A JP 2018030333A JP 2018030333 A JP2018030333 A JP 2018030333A JP 6593477 B2 JP6593477 B2 JP 6593477B2
- Authority
- JP
- Japan
- Prior art keywords
- video content
- sound data
- unit
- sound
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラムに関する。 The present invention relates to a video content display device, glasses, a video content processing system, and a video content display program.
従来、音楽データ等のオーディオデータの再生位置に応じて、それに関連するコンテンツを表示することが行われている(例えば、特許文献1)。
また、AR(Augmented Reality)と呼ばれる、現実の環境から知覚に与えられる情報に、コンピュータが作り出した情報を重ね合わせることで、補足的な情報を与える技術が開示されている(例えば、特許文献2)。
Conventionally, content related to the playback position of audio data such as music data is displayed (for example, Patent Document 1).
Further, a technology called AR (Augmented Reality) that gives supplementary information by superimposing information created by a computer on information given to perception from an actual environment is disclosed (for example, Patent Document 2). ).
上述の特許文献1は、コンテンツが、オーディオデータの再生開始からの経過時間に対応するページコンテンツであった。また、特許文献2は、音楽との連携がないものであった。
In
そこで、本発明は、音楽に連動した映像コンテンツを表示する映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide a video content display device, glasses, a video content processing system, and a video content display program that display video content linked to music.
本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、撮影部と、映像コンテンツを表示可能な表示部と、音データと、予め設定された認識対象物とを対応付けて記憶する記憶部と、音データを取得する音取得部と、前記音取得部が前記音データを取得している間に、前記撮影部が撮影した撮影画像に、取得中の音データに対応する前記認識対象物を含むか否かを判断する対象判断部と、前記撮影画像に前記認識対象物を含む間、前記認識対象物に対応付けられた映像コンテンツを、前記音データの再生位置に対応させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させる表示制御部と、を備えること、を特徴とする映像コンテンツ表示装置である。
第2の発明は、第1の発明の映像コンテンツ表示装置において、音データを出力する音出力部と、前記特定位置と撮影位置との距離を算出し、前記認識対象物から特定される位置から音が発生しているように前記音出力部への前記音データの出力を制御する音制御部と、を備えること、を特徴とする映像コンテンツ表示装置である。
第3の発明は、第1の発明又は第2の発明の映像コンテンツ表示装置において、前記映像コンテンツを記憶するコンテンツサーバに対して通信ネットワークを介して通信可能に接続されており、前記表示制御部は、前記コンテンツサーバから予めダウンロードし、又は、逐次取得した前記映像コンテンツを表示させること、を特徴とする映像コンテンツ表示装置である。
第4の発明は、第1の発明から第3の発明までのいずれかの映像コンテンツ表示装置を備える眼鏡である。
第5の発明は、第1の発明から第3の発明までのいずれかの映像コンテンツ表示装置と、前記映像コンテンツ表示装置に対して通信ネットワークを介して通信可能に接続されたコンテンツサーバと、を備え、前記コンテンツサーバは、音データと、認識対象物と、前記映像コンテンツとを対応付けて記憶する記憶部を有し、前記映像コンテンツ表示装置の前記記憶部は、前記コンテンツサーバからダウンロードした前記音データと、前記音データに対応する前記認識対象物とを記憶すること、を特徴とする映像コンテンツ処理システムである。
第6の発明は、撮影部と、映像コンテンツを表示可能な表示部と、音データと、予め設定された認識対象物とを対応付けて記憶する記憶部と、を備えるコンピュータの映像コンテンツ表示プログラムであって、前記コンピュータを、音データを取得する音取得手段と、前記音取得手段が前記音データを取得している間に、前記撮影部が撮影した撮影画像に、取得中の音データに対応する前記認識対象物を含むか否かを判断する対象判断手段と、前記撮影画像に前記認識対象物を含む間、前記認識対象物に対応付けられた映像コンテンツを、前記音データの再生位置に対応させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させる表示制御手段と、して機能させること、を特徴とする映像コンテンツ表示プログラムである。
The present invention solves the above problems by the following means.
The first invention includes a photographing unit, a display unit capable of displaying video content, sound data, a storage unit that stores preset recognition objects in association with each other, and a sound acquisition unit that acquires sound data. And an object determination for determining whether or not the captured image captured by the imaging unit includes the recognition object corresponding to the sound data being acquired while the sound acquisition unit is acquiring the sound data. And the video content associated with the recognition target object at a specific position specified from the recognition target object while corresponding to the reproduction position of the sound data while the captured image includes the recognition target object. And a display control unit that superimposes and displays on the display unit.
According to a second aspect of the present invention, in the video content display device according to the first aspect of the present invention, the distance between the sound output unit that outputs sound data and the specific position and the photographing position is calculated, and the position specified from the recognition target object And a sound control unit that controls output of the sound data to the sound output unit so that sound is generated.
According to a third aspect of the present invention, there is provided the video content display device according to the first or second aspect, wherein the display control unit is connected to a content server storing the video content via a communication network so as to be communicable. Is a video content display device that displays the video content downloaded in advance from the content server or sequentially acquired.
A fourth invention is a pair of glasses including any one of the video content display devices from the first invention to the third invention.
A fifth invention comprises any one of the video content display devices from the first invention to the third invention, and a content server communicatively connected to the video content display device via a communication network. The content server has a storage unit that stores sound data, a recognition object, and the video content in association with each other, and the storage unit of the video content display device downloads the content server from the content server A video content processing system characterized by storing sound data and the recognition object corresponding to the sound data.
A sixth invention is a video content display program for a computer, comprising: a photographing unit, a display unit capable of displaying video content, sound data, and a storage unit that stores preset recognition objects in association with each other. The sound acquisition means for acquiring sound data and the sound image being acquired by the imaging unit while the sound acquisition means is acquiring the sound data. A target determination unit that determines whether or not the corresponding recognition target object is included, and a video content associated with the recognition target object while the captured image includes the recognition target object. The video content display program is configured to function as display control means for displaying on the display unit in a superimposed manner at a specific position specified from the recognition object. It is a non.
本発明によれば、音楽に連動した映像コンテンツを表示する映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラムを提供することができる。 According to the present invention, it is possible to provide a video content display device, glasses, a video content processing system, and a video content display program that display video content linked to music.
以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲は、これに限られるものではない。
(第1実施形態)
<映像コンテンツ処理システム100の全体構成>
図1は、第1実施形態に係る眼鏡1の概要を説明する図である。
図2は、第1実施形態に係る映像コンテンツ処理システム100の機能ブロックを示す図である。
図3は、第1実施形態に係るコンテンツデータ記憶部22に記憶されたコンテンツデータを説明する図である。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.
(First embodiment)
<Overall Configuration of Video
FIG. 1 is a diagram illustrating an outline of the
FIG. 2 is a functional block diagram of the video
FIG. 3 is a diagram illustrating content data stored in the content
<眼鏡1>
図1に示す眼鏡1は、音楽を再生し、再生中の音楽に対応した立体映像コンテンツ(映像コンテンツ)として、アニメーションキャラクタの立体映像を、あたかも眼鏡1を装着した使用者の目の前にいるかのように表示する装置である。
眼鏡1は、例えば、CD、DVD等を販売するCDショップに常設されている。そして、眼鏡1には、例えば、CDショップで販売を強化している音楽が、予め記憶部20(図2参照)に記憶されている。
眼鏡1は、カメラ31(撮影部)、透過型ディスプレイ32(表示部)、スピーカ33(音出力部)、各操作ボタン34(34a〜34f)、通信I/F(インタフェース)部39等を備える。また、眼鏡1は、片側の側面に筐体30を有する。筐体30は、図2に示す制御部10、記憶部20等を備える。
図2に示す制御部10は、眼鏡1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部20に記憶されているオペレーティングシステム(OS)や、各種のアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
<
The
The
The
The
制御部10は、音取得部11、音制御部12、対象判断部13、コンテンツ取得部14、表示制御部15等を備える。
音取得部11は、音楽の音データを取得する制御部である。
音制御部12は、音楽の音データを、スピーカ33に出力する制御部である。また、音制御部12は、スピーカ33の音量を制御する。
対象判断部13は、音取得部11が音楽の音データを取得している間に、カメラ31が撮影した画像に、その音楽に対応するAR(Augmented Reality)用コード(認識対象物)を含むか否かを判断する制御部である。
コンテンツ取得部14は、記憶部20に記憶され、対象判断部13が判断したAR用コードに対応するアニメーションキャラクタの立体映像を取得する制御部である。
表示制御部15は、AR用コードの前面であって、AR用コードから特定される特定位置に、音楽の再生位置に対応したアニメーションキャラクタの立体映像を表示させる制御部である。
これらの各機能の詳細及びAR用コードについては、後述する。
The
The
The
The
The
The
Details of these functions and the AR code will be described later.
記憶部20は、眼鏡1の動作に必要なプログラム、データ等を記憶するための半導体メモリ素子等の記憶装置である。
なお、本発明でいうコンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、眼鏡1は、制御部10、記憶部20等を備えた情報処理装置であり、本発明のコンピュータの概念に含まれる。
記憶部20は、プログラム記憶部21、コンテンツデータ記憶部22等を記憶している。
プログラム記憶部21は、眼鏡1に様々な機能を実行させる複数のアプリケーションプログラムを記憶可能な記憶領域である。プログラム記憶部21は、少なくとも、AR用プログラム(映像コンテンツ表示プログラム)21aを記憶している。
コンテンツデータ記憶部22は、音楽と、AR用コードと、アニメーションキャラクタの立体映像とが対応付けられたコンテンツデータを記憶する記憶領域である。
The
Note that the computer in the present invention refers to an information processing apparatus including a control unit, a storage device, and the like, and the
The
The
The content
図3(A)に示すように、コンテンツデータは、AR用コードを仲介して、音楽と、アニメーションキャラクタの立体映像とを対応付けている。例えば、AR用コードが「B」の場合、AR用コードが同じでも音楽が異なれば、対応するアニメーションキャラクタの立体映像も異なるものになる。
音楽には、その楽曲の曲名や作者、歌の場合には歌手名等に関する音楽属性データ、実際の音に関する音データ等を有する。また、音データは、その音楽の再生時間を示す再生位置を有する。
AR用コードは、例えば、CDショップにあるステージの形状である。その他、AR用コードは、CDジャケットの形状等であってもよく、予め設定された形状である。
アニメーションキャラクタの立体映像は、例えば、アイドルを模したキャラクタの立体映像である。音楽にあわせてあたかも歌い、踊っているかのように振舞う、アニメーションキャラクタの立体映像は、音データの再生位置に同期して、歌い、踊っているかのような動きをする。
As shown in FIG. 3A, the content data associates the music with the stereoscopic video of the animation character via the AR code. For example, when the AR code is “B”, if the music is different even if the AR code is the same, the stereoscopic image of the corresponding animation character is also different.
The music includes music attribute data related to the title and author of the music, and in the case of a song, the name of the singer, sound data related to the actual sound, and the like. The sound data has a reproduction position indicating the reproduction time of the music.
The AR code is, for example, the shape of a stage in a CD shop. In addition, the AR code may be a shape of a CD jacket or the like, and has a preset shape.
A stereoscopic video of an animation character is, for example, a stereoscopic video of a character imitating an idol. A three-dimensional image of an animated character that behaves as if it is singing and dancing to the music moves as if singing and dancing in synchronization with the playback position of the sound data.
図3(B)は、音楽「A1」と、アニメーションキャラクタの立体映像「a1」との再生位置の説明のための図である。音楽「A1」と、アニメーションキャラクタの立体映像「a1」とは、再生の長さである再生時間が同じである。例えば、音楽「A1」が「1:02」の時間の音データを再生中の場合には、アニメーションキャラクタの立体映像「a1」は、「1:02」の映像を再生する。
図3(C)は、音楽「B1」と、アニメーションキャラクタの立体映像「b1」との再生位置の説明のための図である。音楽「B1」より、アニメーションキャラクタの立体映像「b1」の再生時間が短い。そこで、アニメーションキャラクタの立体映像「b1」を、音楽「B1」の再生時間にあわせるために、アニメーションキャラクタの立体映像「b1」を3回繰り返す。
FIG. 3B is a diagram for explaining the reproduction position of the music “A1” and the stereoscopic video “a1” of the animation character. The music “A1” and the three-dimensional video “a1” of the animation character have the same playback time as the playback length. For example, when the music “A1” is playing back the sound data of the time of “1:02”, the stereoscopic video “a1” of the animation character plays the video of “1:02”.
FIG. 3C is a diagram for explaining the reproduction position of the music “B1” and the stereoscopic video “b1” of the animation character. The reproduction time of the animation character's stereoscopic video “b1” is shorter than the music “B1”. Therefore, in order to match the stereoscopic video “b1” of the animation character with the playback time of the music “B1”, the stereoscopic video “b1” of the animation character is repeated three times.
図1に戻り、カメラ31は、透過型ディスプレイ32の脇に設けられ、使用者の前方方向を撮影する装置である。つまり、カメラ31は、透過型ディスプレイ32を介して使用者がスルー状態で見る視界領域を撮影する。
透過型ディスプレイ32は、眼鏡1のレンズ部分に設けられたディスプレイ装置である。透過型ディスプレイ32は、例えば、液晶パネルが用いられ、透過率を制御することで、透明又は半透明な状態にできる。使用者は、透過型ディスプレイ32を介してスルー状態で視界領域を見ることができる。
スピーカ33は、音楽の音データを出力する装置である。スピーカ33は、使用者が眼鏡1をかけた状態で音楽が聞こえるように、使用者の左右の耳付近になる位置に設けられる。
Returning to FIG. 1, the
The
The
操作ボタン34は、眼鏡1の片側のつる部に設けられている。操作ボタン34は、使用者が眼鏡1をかけた状態で、使用者の手によって操作するボタンである。操作ボタン34は、電源ボタン34a、メニューボタン34b、選択ボタン34c、決定ボタン34d、停止ボタン34e、再生/一時停止ボタン34f等を備える。
電源ボタン34aは、眼鏡1に電源を供給し、及び眼鏡1に供給されている電源を停止するボタンである。
メニューボタン34bは、透過型ディスプレイ32にメニュー画面(図示せず)を表示させるためのボタンである。
選択ボタン34cは、透過型ディスプレイ32に表示されたメニュー画面等にて、カーソルを動かすボタンである。
決定ボタン34dは、メニュー画面等にあるカーソル位置の内容を決定するためのボタンである。
停止ボタン34eは、音楽の再生を停止するためのボタンである。
再生/一時停止ボタン34fは、音楽の再生及び一時停止を行うためのボタンである。
これらの操作ボタン34の使用方法については、後述する。
The
The power button 34 a is a button that supplies power to the
The menu button 34 b is a button for displaying a menu screen (not shown) on the
The selection button 34 c is a button for moving the cursor on the menu screen or the like displayed on the
The determination button 34d is a button for determining the contents of the cursor position on the menu screen or the like.
The stop button 34e is a button for stopping the reproduction of music.
The play / pause button 34f is a button for playing and pausing music.
A method of using these
通信I/F部39は、通信ネットワークNを介して、コンテンツサーバ4(図2)との通信を行うためのインタフェース部である。通信I/F部39は、例えば、有線によって通信を行うためのコネクタ部を備えてもよい。また、通信I/F部39は、無線によって通信を行うためのアンテナ部を備えてもよい。眼鏡1は、有線及び無線によって通信を行うことができるものであってもよい。
The communication I /
図2に示す映像コンテンツ処理システム100は、上述の眼鏡1と、コンテンツサーバ4とが通信ネットワークNを介して接続されたシステムである。
<コンテンツサーバ4>
コンテンツサーバ4は、制御部40、記憶部45、通信I/F部49等を備える。
制御部40は、コンテンツサーバ4の全体を制御するCPUである。制御部40は、記憶部45に記憶されているOSや、各種のアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
記憶部45は、制御部40の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶装置である。
記憶部45は、音楽と、AR用コードと、アニメーションキャラクタの立体映像とが対応付けられたコンテンツデータを記憶するコンテンツデータベースを備える。
通信I/F部49は、通信ネットワークNを介して、眼鏡1との通信を行うためのインタフェース部である。
通信ネットワークNは、眼鏡1と、コンテンツサーバ4との間のネットワークであり、インターネット回線等の通信網である。
A video
<Content server 4>
The content server 4 includes a
The
The
The
The communication I /
The communication network N is a network between the
<メイン処理>
次に、眼鏡1の処理について説明する。
図4は、第1実施形態に係る眼鏡1のメイン処理を示すフローチャートである。
ステップS(以下、「S」という。)1において、使用者が眼鏡1の電源ボタン34aを操作することで、眼鏡1の制御部10に電源が供給される。
S2において、使用者が眼鏡1のメニューボタン34bを操作することで、制御部10は、透過型ディスプレイ32にメニュー画面を表示する。メニュー画面は、例えば、コンテンツデータをダウンロードしたり、AR用プログラム21aを起動したりするための項目が表示された画面である。
メニュー画面での選択及び決定は、選択ボタン34c及び決定ボタン34dにより行う。
<Main processing>
Next, processing of the
FIG. 4 is a flowchart showing a main process of the
In step S (hereinafter referred to as “S”) 1, when the user operates the power button 34 a of the
In S <b> 2, when the user operates the menu button 34 b of the
Selection and determination on the menu screen are performed by a selection button 34c and a determination button 34d.
S3において、コンテンツデータのダウンロードが選択された状態で、使用者が眼鏡1の決定ボタン34dを操作することで、制御部10は、コンテンツデータのダウンロードを受け付けたか否かを判断する。コンテンツデータのダウンロードを受け付けた場合(S3:YES)には、制御部10は、処理をS4に移す。他方、コンテンツデータのダウンロードを受け付けていない場合(S3:NO)には、制御部10は、処理をS5に移す。
S4において、制御部10は、コンテンツデータのダウンロード処理を行う。制御部10は、通信I/F部39を介してコンテンツサーバ4と通信可能であることを確認後、コンテンツサーバ4からコンテンツデータをダウンロードして、コンテンツデータ記憶部22に記憶する。なお、コンテンツデータのデータ量が大きいことから、コンテンツデータのダウンロードは、コンテンツサーバ4に記憶されたコンテンツデータから対象を絞ってダウンロードすることが望ましい。その後、制御部10は、処理をS2に移す。
In S3, with the content data download selected, the user operates the determination button 34d of the
In S4, the
S5において、AR用プログラム21aの起動が選択された状態で、使用者が眼鏡1の決定ボタン34dを操作することで、制御部10は、AR用プログラム21aの起動を受け付けたか否かを判断する。AR用プログラム21aの起動を受け付けた場合(S5:YES)には、制御部10は、処理をS6に移す。他方、AR用プログラム21aの起動を受け付けていない場合(S5:NO)には、制御部10は、処理をS7に移す。
S6において、制御部10は、後述する映像コンテンツ表示処理を行う。その後、制御部10は、処理をS2に移す。
In S5, when the activation of the
In S6, the
S7において、電源が投入されている状態で、使用者が眼鏡1の電源ボタン34aを操作することで、制御部10は、電源OFFを受け付けたか否かを判断する。電源OFFを受け付けた場合(S7:YES)には、制御部10は、電源の供給を停止し、本処理を終了する。他方、電源OFFを受け付けていない場合(S7:NO)には、制御部10は、処理をS2に移す。
なお、ここで説明したメイン処理では、起動するプログラムが、AR用プログラム21aのみであった。しかし、プログラム記憶部21に記憶してある複数のアプリケーションプログラムについても起動するものであってもよい。その場合には、各々のアプリケーションプログラムに対応する処理を行うが、ここでの説明は、省略する。
In S7, when the user operates the power button 34a of the
In the main process described here, the
<映像コンテンツ表示処理>
次に、映像コンテンツ表示処理について説明する。
図5は、第1実施形態に係る眼鏡1の映像コンテンツ表示処理を示すフローチャートである。
図6は、第1実施形態に係る眼鏡での表示例を示す図である。
図5のS10において、眼鏡1の制御部10は、AR用プログラム21aを起動する。AR用プログラム21aが起動されると、制御部10は、透過型ディスプレイ32に、音楽選択画面(図示せず)として、コンテンツデータ記憶部22に記憶されている音楽の音楽属性データを表示する。
ここで、使用者が、例えば、ある音楽属性データを選択ボタン34cで選択し、再生/一時停止ボタン34fを操作することで、制御部10(音制御部12)は、音楽属性データに対応する音データをスピーカ33から出力する。また、制御部10(音取得部11)は、音データを取得する。なお、上述のように、使用者が再生/一時停止ボタン34fを操作した場合には、制御部10は、透過型ディスプレイ32に表示していた音楽選択画面の表示を消して、表示しないようにする。
<Video content display processing>
Next, video content display processing will be described.
FIG. 5 is a flowchart showing video content display processing of the
FIG. 6 is a diagram illustrating a display example with the glasses according to the first embodiment.
In S10 of FIG. 5, the
Here, for example, when the user selects certain music attribute data with the selection button 34c and operates the play / pause button 34f, the control unit 10 (sound control unit 12) corresponds to the music attribute data. Sound data is output from the
S11において、制御部10は、カメラ31を起動させて、撮影画像を取得する。
S12において、音楽が再生中であり、制御部10(音取得部11)は、音データを取得しているか否かを判断する。上述のように、使用者が音楽選択画面に表示されたある音楽属性データを選択ボタン34cで選択し、再生/一時停止ボタン34fを操作した場合には、制御部10(音取得部11)は、音データを取得している。他方、音楽選択画面が表示されていても、使用者が操作をしない場合には、制御部10は、音データを取得していない。音データを取得している場合(S12:YES)には、制御部10は、処理をS13に移す。他方、音データを取得していない場合(S12:NO)には、制御部10は、処理をS14に移す。
In S <b> 11, the
In S12, music is being reproduced, and the control unit 10 (sound acquisition unit 11) determines whether or not sound data is acquired. As described above, when the user selects certain music attribute data displayed on the music selection screen with the selection button 34c and operates the play / pause button 34f, the control unit 10 (sound acquisition unit 11) Sound data is being acquired. On the other hand, even if the music selection screen is displayed, if the user does not perform an operation, the
S13において、制御部10(対象判断部13)は、カメラ31が撮影した撮影画像に、取得した音データの音楽に対応するAR用コードを含むか否かを判断する。これは、カメラ31が撮影した撮影画像に、コンテンツデータ記憶部22に記憶され、音データの音楽に対応するAR用コードがあるか否かを、制御部10(対象判断部13)が照合することで行われる。コンテンツデータ記憶部22に記憶されたAR用コードには、予めそのAR用コードの特徴として対象物の形状の特徴等が設定してある。そして、制御部10(対象判断部13)は、撮影した撮影画像内に、その特徴を有する被写体が含まれているか否かにより判別できる。撮影画像に、取得した音データの音楽に対応するAR用コードを含む場合(S13:YES)には、制御部10は、処理をS16に移す。他方、撮影画像に、取得した音データの音楽に対応するAR用コードを含まない場合(S13:NO)には、制御部10は、処理をS18に移す。
In S <b> 13, the control unit 10 (target determination unit 13) determines whether or not the captured image captured by the
S14において、制御部10(対象判断部13)は、カメラ31が撮影した撮影画像に、コンテンツデータ記憶部22に記憶されているAR用コードを含むか否かを判断する。これは、カメラ31が撮影した撮影画像に、コンテンツデータ記憶部22に記憶されている複数のAR用コードのうちいずれかがあるか否かを、制御部10が照合することで行われる。撮影画像に、コンテンツデータ記憶部22に記憶されているAR用コードを含む場合(S14:YES)には、制御部10は、処理をS15に移す。他方、撮影画像に、コンテンツデータ記憶部22に記憶されているAR用コードを含まない場合(S14:NO)には、処理をS22に移す。
なお、撮影画像に、コンテンツデータ記憶部22に記憶されている複数のAR用コードのうち2つ以上を含む場合には、制御部10は、そのうち1つを選択すればよい。
S15において、制御部10(音制御部12)は、所定時間(例えば、10秒)を経過後に、撮影画像に含まれているAR用コードに対応する音楽の音データを、スピーカ33に出力する。また、制御部10(音取得部11)は、音楽の音データを取得する。なお、図3(A)を例に説明すると、AR用コードが「A」の場合には、音楽「A1」が特定できる。しかし、AR用コードが「B」の場合には、対応する音楽が「B1」から「B3」まである。この場合には、制御部10は、例えば、「B1」から「B3」までの音楽のうち1つを選択して、音データを出力すればよい。
In S <b> 14, the control unit 10 (target determination unit 13) determines whether the captured image captured by the
When the photographed image includes two or more of the plurality of AR codes stored in the content
In S <b> 15, the control unit 10 (sound control unit 12) outputs music sound data corresponding to the AR code included in the captured image to the
このように、音楽が再生されておらず、音データを取得中ではない場合であっても、カメラ31が撮影した撮影画像にAR用コードを含む場合には、制御部10は、そのAR用コードに対応する音楽の音データを自動的に出力することができ、その結果、音データを取得できる。
As described above, even when music is not being played back and sound data is not being acquired, if the
S16において、制御部10(コンテンツ取得部14)は、アニメーションキャラクタの立体映像を、透過型ディスプレイ32に表示させる。透過型ディスプレイ32に表示されるアニメーションキャラクタの立体映像は、対応する音楽の音データの再生位置に対応して同期する。また、アニメーションキャラクタの立体映像は、AR用コードの前面であって、AR用コードの位置から特定される特定位置に重畳して表示される。これは、周知の技術(例えば、特開2013−84313号公報)により実現可能である。
S17において、制御部10(音制御部12)は、透過型ディスプレイ32に表示されたアニメーションキャラクタの立体映像の向きに応じて、使用者の両耳付近に設けられたスピーカ33への音データの出力を制御する。これは、特定位置と撮影位置との距離を算出し、AR用コードから特定される位置から音が発生しているようにするものであり、周知の技術(例えば、特許第5197525号公報)により実現可能である。
In S <b> 16, the control unit 10 (content acquisition unit 14) displays the stereoscopic video of the animation character on the
In S <b> 17, the control unit 10 (sound control unit 12) outputs sound data to the
<具体例>
ここで、図6を例に説明する。
AR用コードが、例えば、CDショップ60内に設けられたステージ61の形状である場合、使用者が、眼鏡1をかけた状態でステージ61を見ることで、アニメーションキャラクタの立体映像であるキャラクタ62が透過型ディスプレイ32に表示される。
なお、現実のステージ61には、キャラクタ62は表示されていない(図6(A)参照)。これにより、使用者は、図6(B)に示すように、音楽にあわせてあたかもステージ61上で歌い、踊っているかのようなキャラクタ62を見ることができる。
そして、キャラクタ62が正面を向いている場合、図6(B)に示すように、使用者がステージ61を正面から見ると、キャラクタ62が正面を向いて歌い踊る。この時、制御部10(音制御部12)は、使用者の両耳のスピーカ33の音量を同じにする制御を行う。
<Specific example>
Here, FIG. 6 will be described as an example.
When the AR code is, for example, the shape of the
Note that the
When the
他方、使用者が移動して、図6(C)に示すように、ステージ61を斜め右方向から見ると、キャラクタ62は左方向を向いて歌い踊る。この時、制御部10(音制御部12)は、使用者の左耳のスピーカ33の音量を、使用者の右耳のスピーカ33の音量より大きくする制御を行う。これにより、使用者は、あたかも、キャラクタ62から音が出力されているように感じることができる。
また、使用者は、移動せず、キャラクタ62が向きを変えた場合、制御部10(音制御部12)は、キャラクタ62の向きに応じてスピーカ33の音量を変化させる。使用者は、向きが変わったキャラクタ62を見ることができ、向きに応じた音量の音楽を聴くことができる。
On the other hand, when the user moves and the
When the user does not move and the
図5に戻り、S18において、制御部10は、音楽が終了したか否かを判断する。音楽が終了した場合とは、例えば、音データの再生位置が最後に到達した場合や、使用者により停止ボタン34eが操作された場合をいう。音楽が終了した場合(S18:YES)には、制御部10は、処理をS21に移す。他方、音楽が終了していない場合(S18:NO)には、制御部10は、処理をS19に移す。
S19において、制御部10は、音楽が一時停止中か否かを判断する。音楽が一時停止中の場合とは、音楽が再生中に、使用者が再生/一時停止ボタン34fを操作した場合をいう。音楽が一時停止中である場合(S19:YES)には、制御部10は、処理をS20に移す。他方、音楽が一時停止中ではない場合(S19:NO)には、制御部10は、処理をS13に移す。
S20において、制御部10は、音データの一時停止した再生位置に対応するアニメーションキャラクタの立体映像を、透過型ディスプレイ32に表示させる。つまり、一時停止の場合には、透過型ディスプレイ32に表示されたアニメーションキャラクタの立体映像は、音楽の再生位置に同期しているので、一時停止中の音楽の再生位置に対応する動きのない静止画像になる。その後、制御部10は、処理をS19に移す。
なお、使用者が再生/一時停止ボタン34fをさらに操作して、一時停止が解除された場合には、音楽の音データの再生位置に対応して、アニメーションキャラクタの立体映像が動くものになる(S19でNOが選択され、S13でYESが選択された場合)。
Returning to FIG. 5, in S <b> 18, the
In S19, the
In S <b> 20, the
When the user further operates the play / pause button 34f to release the pause, the stereoscopic video of the animation character moves corresponding to the playback position of the music sound data ( When NO is selected in S19 and YES is selected in S13).
S21において、制御部10は、透過型ディスプレイ32にアニメーションキャラクタの立体映像が表示されている場合には、アニメーションキャラクタの立体映像を消去する。つまり、制御部10は、音データの再生中にのみ、透過型ディスプレイ32に音データに対応するアニメーションキャラクタの立体映像を表示する。
S22において、制御部10は、AR用プログラム21aを終了するか否かを判断する。AR用プログラム21aを終了する場合(S22:YES)には、制御部10は、本処理を終了し、図4に戻る。他方、AR用プログラム21aを終了しない場合(S22:NO)には、制御部10は、処理をS12に移す。
In S <b> 21, when the stereoscopic video of the animation character is displayed on the
In S22, the
なお、S18やS19において、音楽が終了した場合や、一時停止中の場合を、停止ボタン34eや、再生/一時停止ボタン34fの操作を判断するものとして説明したが、これに限定されない。例えば、制御部10は、音楽が止まっていることを検知した場合に、停止した再生位置に対応するアニメーションキャラクタの立体映像を、透過型ディスプレイ32に表示させる。そして、一定時間を超えるまでに音楽が再生されたら、制御部10は、再生を検知してアニメーションキャラクタの立体映像を動かし、一定時間を超えても音楽が再生されなかったら、制御部10は、アニメーションキャラクタの立体映像を、透過型ディスプレイ32から消去する、というものであってもよい。
In S18 and S19, the case where the music is finished or paused has been described as determining the operation of the stop button 34e or the play / pause button 34f, but the present invention is not limited to this. For example, when the
このように、第1実施形態によれば、眼鏡1は、以下のような効果がある。
(1)音楽の音データを取得している間に、カメラ31が取得した撮影画像に、取得した音データの音楽に対応するAR用コードを含む場合には、AR用コードに対応するアニメーションキャラクタの立体映像を透過型ディスプレイ32に表示できる。そして、音データを取得しなくなった場合には、透過型ディスプレイ32に表示していたAR用コードに対応するアニメーションキャラクタの立体映像を消去して、表示させなくする。よって、音楽の再生中にのみ、音楽に対応するアニメーションキャラクタの立体映像を、透過型ディスプレイ32に表示できる。
(2)音楽と、アニメーションキャラクタの立体映像とは、AR用コードに対応するので、AR用コードが同じであっても、音楽が異なれば、透過型ディスプレイ32に表示されるアニメーションキャラクタの立体映像を異なるものにできる。
Thus, according to the first embodiment, the
(1) When an AR code corresponding to the music of the acquired sound data is included in the captured image acquired by the
(2) Since the music and the stereoscopic video of the animation character correspond to the AR code, even if the AR code is the same, if the music is different, the stereoscopic video of the animation character displayed on the
(3)透過型ディスプレイ32に表示されるアニメーションキャラクタの立体映像は、音データの再生位置に対応するので、音データの再生にあわせて、アニメーションキャラクタの立体映像があたかも歌って、踊っているかのように演出できる。
(4)アニメーションキャラクタの立体映像から音データが出力されているかのように、スピーカ33から出力される音量を変化させることができる。
(5)アニメーションキャラクタの立体映像を、AR用コードに対応する特定位置に配置して表示させるので、例えば、AR用コードがステージの形状である場合には、アニメーションキャラクタの立体映像があたかもステージ上で歌って、踊っているかのように表示させることができる。
(6)音楽が再生中でない場合でも、カメラ31が撮影した撮影画像に、コンテンツデータ記憶部22に記憶されたAR用コードが存在する場合には、AR用コードに対応する音楽を再生できる。そして、音楽を再生することで、AR用コードに対応するアニメーションキャラクタの立体映像を透過型ディスプレイ32に表示できる。
(3) Since the stereoscopic video of the animation character displayed on the
(4) The sound volume output from the
(5) Since the 3D video of the animation character is arranged and displayed at a specific position corresponding to the AR code, for example, when the AR code has the shape of the stage, the 3D video of the animation character appears on the stage. Can be displayed as if singing and dancing.
(6) Even when music is not being played back, if the AR code stored in the content
(7)音楽を再生中であっても、カメラ31が撮影した撮影画像に音楽に対応するAR用コードを含まない場合には、アニメーションキャラクタの立体映像を表示しない。そして、使用者が動くことで、カメラ31が撮影した撮影画像に音楽に対応するAR用コードを含んだ場合には、その時点から、音データの再生位置に応じたアニメーションキャラクタの立体映像を、透過型ディスプレイ32に表示する。他方、音楽を再生中であって、アニメーションキャラクタの立体映像を透過型ディスプレイ32に表示している場合であっても、使用者が動くことで、カメラ31が撮影した撮影画像に、そのAR用コードを含まなくなると、表示していたアニメーションキャラクタの立体映像を消去して表示しない。このような仕組みを利用して、使用者に、アニメーションキャラクタの立体映像の表示に関して、宝探しのような楽しみ方を提供できる。
(7) Even when music is being played back, if the captured image captured by the
(第2実施形態)
第2実施形態は、眼鏡にかわって携帯端末を用いた場合について説明する。なお、以降の説明において、上述した第1実施形態と同様の機能を果たす部分には、同一の符号又は末尾に同一の符号を付して、重複する説明を適宜省略する。
図7は、第2実施形態に係るマーク261と携帯端末201との例を示す図である。
(Second Embodiment)
2nd Embodiment demonstrates the case where a portable terminal is used instead of spectacles. In the following description, parts that perform the same functions as those in the first embodiment described above are given the same reference numerals or the same reference numerals at the end, and redundant descriptions are omitted as appropriate.
FIG. 7 is a diagram illustrating an example of the
図7(A)は、マーク261(認識対象物)を示す。マーク261は、コンテンツデータ記憶部に記憶されているAR用コードの1つである。マーク261は、図7(A)に示す例では、斧の図柄である。
図7(B)に示す携帯端末201は、タッチパネルディスプレイ232の他、制御部、記憶部、カメラ、スピーカ、通信I/F部を備える。
タッチパネルディスプレイ232は、例えば、液晶パネル等で構成される表示部としての機能と、使用者からの指等によるタッチ入力を検出する操作部としての機能とを有する。
タッチパネルディスプレイ232は、カメラで撮影した撮影画像を表示する。
図7(B)は、携帯端末201が、AR用プログラムを起動し、マーク261に対応する音楽を再生して音データを取得している状態で、カメラがマーク261を撮影した場合である。この場合には、タッチパネルディスプレイ232には、再生中の音楽及びマーク261に対応するアニメーションキャラクタの立体画像(映像コンテンツ)であるキャラクタ262が表示される。キャラクタ262は、マーク261の前面に重畳して配置される。キャラクタ262は、範囲263(特定位置)の中を動く。
FIG. 7A shows a mark 261 (recognition target object). The
7B includes a
The
The
FIG. 7B shows a case where the camera shoots the
このように、第2実施形態によれば、以下のような効果がある。
タッチパネルディスプレイ232が透過性を有さないものであっても、カメラで撮影した撮影画像を表示し、その撮影画像にマーク261を含む場合には、マーク261に対応するキャラクタ262を、音楽の再生位置に同期して表示できる。しかも、キャラクタ262は、そのマーク261に対応する音楽の音データを取得している間であって、そのマーク261を撮影している間に表示できる。
Thus, according to the second embodiment, there are the following effects.
Even if the
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。 As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above. In addition, the effects described in the embodiments are merely the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the embodiments. In addition, although embodiment mentioned above and the deformation | transformation form mentioned later can also be used in combination as appropriate, detailed description is abbreviate | omitted.
(変形形態)
(1)第1実施形態では、眼鏡1が透過型ディスプレイ32を備えるものとして説明したが、これに限定されない。第2実施形態の携帯端末201と同様に、カメラ31で撮影した撮影画像を背景として表示し、その前面にアニメーションキャラクタの立体映像を表示するものであってもよい。
(2)第1実施形態では、ステージの形状を、第2実施形態では、斧の図柄を、各々AR用コードとして説明したが、これに限定されない。例えば、アニメーションキャラクタの立体映像である場合に、AR用コードを、そのアニメーションキャラクタの輪郭の形状にしてもよい。そうすることで、AR用コードを映したら、そのAR用コードからアニメーションキャラクタの立体映像が浮き出て動作するという演出を行うことができる。
(3)第1実施形態では、眼鏡1がCDショップに常設されたものとして説明したが、これに限定されない。使用者が所有するものであってもよい。
(Deformation)
(1) In the first embodiment, the
(2) In the first embodiment, the shape of the stage and the design of the ax in the second embodiment are described as AR codes, respectively, but the present invention is not limited to this. For example, in the case of a stereoscopic image of an animation character, the AR code may be the shape of the outline of the animation character. By doing so, when the AR code is displayed, it is possible to produce an effect that the stereoscopic video of the animation character is raised from the AR code and operated.
(3) Although the first embodiment has been described on the assumption that the
(4)各実施形態では、アニメーションキャラクタの立体映像を表示するものとして説明したが、これに限定されない。アニメーションキャラクタではないオブジェクトの立体映像であってもよいし、立体映像ではなく、二次元の映像であってもよい。
(5)各実施形態では、音楽を再生して音データを取得するものとして説明したが、これに限定されない。例えば、マイク(集音部)を備え、外部の音を集音し、音を分析して音楽を特定する。音楽の特定は、例えば、音の波長から類似の音楽を特定できる。また、音に電子透かしが埋め込んである場合には、その電子透かしから音楽を特定できる。そうすることで、撮影した撮影画像が、特定した音楽の音データに対応するAR用コードを含む場合に、音楽及びAR用コードに対応する映像コンテンツを表示できる。よって、街中やCDショップ等で流れている音楽と、映像コンテンツとを、AR用コードを用いて連携させることができる。
(6)各実施形態では、映像コンテンツを各装置(眼鏡1、携帯端末201)の記憶部20等に予め記憶しているものとして説明したが、これに限定されない。例えば、映像コンテンツをコンテンツサーバ4から逐次受信することで取得してもよい。
(7)各実施形態では、カメラ31を1つ備えるものとして説明したが、これに限定されない。例えば、第1実施形態の眼鏡1において、透過型ディスプレイ32の両側に計2つ備えていてもよい。
(4) In each embodiment, although it demonstrated as what displays the stereo image of an animation character, it is not limited to this. It may be a stereoscopic video of an object that is not an animation character, or may be a two-dimensional video instead of a stereoscopic video.
(5) In each embodiment, although it demonstrated as reproducing music and acquiring sound data, it is not limited to this. For example, a microphone (sound collecting unit) is provided, an external sound is collected, and the music is identified by analyzing the sound. For example, similar music can be specified from the wavelength of sound. If a digital watermark is embedded in the sound, music can be specified from the digital watermark. By doing so, when the photographed photographed image includes the AR code corresponding to the specified music sound data, it is possible to display the music and the video content corresponding to the AR code. Therefore, it is possible to link music flowing in the city or a CD shop with video content using the AR code.
(6) In each embodiment, the video content has been described as being stored in advance in the
(7) Although each embodiment has been described as including one
1 眼鏡
4 コンテンツサーバ
10,40 制御部
11 音取得部
12 音制御部
13 対象判断部
14 コンテンツ取得部
15 表示制御部
20,45 記憶部
21a AR用プログラム
22 コンテンツデータ記憶部
31 カメラ
32 透過型ディスプレイ
33 スピーカ
61 ステージ
62,262 キャラクタ
100 映像コンテンツ処理システム
201 携帯端末
232 タッチパネルディスプレイ
261 マーク
DESCRIPTION OF
Claims (7)
映像コンテンツを表示可能な表示部と、
音データと、予め設定された認識対象物とを対応付けて記憶する記憶部と、
音データを取得する音取得部と、
前記撮影部が撮影した撮影画像に、前記音取得部が取得中の音データに対応する前記認識対象物を含むか否かを判断する対象判断部と、
前記撮影画像に前記認識対象物を含む間、前記認識対象物に対応付けられた映像コンテンツを、前記音データの再生位置に対応して同期させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させる表示制御部と、
を備えること、
を特徴とする映像コンテンツ表示装置。 A shooting section;
A display unit capable of displaying video content;
A storage unit that stores sound data and a preset recognition object in association with each other;
A sound acquisition unit for acquiring sound data;
An object determination unit that determines whether or not the captured image captured by the imaging unit includes the recognition object corresponding to the sound data being acquired by the sound acquisition unit;
While the captured image includes the recognition object, the video content associated with the recognition object is synchronized with the reproduction position of the sound data while being synchronized with a specific position specified from the recognition object. A display control unit that superimposes and displays on the display unit;
Providing
A video content display device characterized by the above.
前記記憶部は、一の前記認識対象物に対して複数の音データと、各音データに対応する映像コンテンツとを記憶し、
前記表示制御部は、前記撮影画像に前記認識対象物を含む間、前記認識対象物及び前記音データに対応付けられた映像コンテンツを、前記音データの再生位置に対応して同期させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させること、
を特徴とする映像コンテンツ表示装置。 The video content display device according to claim 1,
The storage unit stores a plurality of sound data and video content corresponding to each sound data with respect to the one recognition target object,
While the display control unit includes the recognition object in the photographed image, the display control unit synchronizes video content associated with the recognition object and the sound data in correspondence with the reproduction position of the sound data, Superimposing on a specific position specified from the recognition object, and displaying on the display unit;
A video content display device characterized by the above.
音データを出力する音出力部と、
前記特定位置と撮影位置との距離を算出し、前記認識対象物から特定される位置から音が発生しているように前記音出力部への前記音データの出力を制御する音制御部と、
を備えること、
を特徴とする映像コンテンツ表示装置。 In the video content display device according to claim 1 or 2,
A sound output unit for outputting sound data;
A sound control unit that calculates a distance between the specific position and the shooting position, and controls output of the sound data to the sound output unit so that sound is generated from a position specified from the recognition object;
Providing
A video content display device characterized by the above.
前記映像コンテンツを記憶するコンテンツサーバに対して通信ネットワークを介して通信可能に接続されており、
前記表示制御部は、前記コンテンツサーバから予めダウンロードし、又は、逐次取得した前記映像コンテンツを表示させること、
を特徴とする映像コンテンツ表示装置。 In the video content display device according to any one of claims 1 to 3,
The content server for storing the video content is communicably connected via a communication network,
The display control unit displays the video content downloaded in advance or sequentially obtained from the content server,
A video content display device characterized by the above.
前記映像コンテンツ表示装置に対して通信ネットワークを介して通信可能に接続されたコンテンツサーバと、
を備え、
前記コンテンツサーバは、音データと、認識対象物と、前記映像コンテンツとを対応付けて記憶する記憶部を有し、
前記映像コンテンツ表示装置の前記記憶部は、前記コンテンツサーバからダウンロードした前記音データと、前記音データに対応する前記認識対象物とを記憶すること、
を特徴とする映像コンテンツ処理システム。 A video content display device according to any one of claims 1 to 4,
A content server communicably connected to the video content display device via a communication network;
With
The content server includes a storage unit that stores sound data, a recognition object, and the video content in association with each other,
The storage unit of the video content display device stores the sound data downloaded from the content server and the recognition object corresponding to the sound data;
A video content processing system.
映像コンテンツを表示可能な表示部と、
音データと、予め設定された認識対象物とを対応付けて記憶する記憶部と、
を備えるコンピュータの映像コンテンツ表示プログラムであって、
前記コンピュータを、
音データを取得する音取得手段と、
前記撮影部が撮影した撮影画像に、前記音取得手段が取得中の音データに対応する前記認識対象物を含むか否かを判断する対象判断手段と、
前記撮影画像に前記認識対象物を含む間、前記認識対象物に対応付けられた映像コンテンツを、前記音データの再生位置に対応して同期させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させる表示制御手段と、
して機能させること、
を特徴とする映像コンテンツ表示プログラム。 A shooting section;
A display unit capable of displaying video content;
A storage unit that stores sound data and a preset recognition object in association with each other;
A video content display program for a computer comprising:
The computer,
Sound acquisition means for acquiring sound data;
Object determination means for determining whether or not the captured image captured by the imaging unit includes the recognition object corresponding to the sound data being acquired by the sound acquisition means;
While the captured image includes the recognition object, the video content associated with the recognition object is synchronized with the reproduction position of the sound data while being synchronized with a specific position specified from the recognition object. Display control means for superimposing and displaying on the display unit;
Make it work,
A video content display program characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018030333A JP6593477B2 (en) | 2018-02-23 | 2018-02-23 | Video content display device, glasses, video content processing system, and video content display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018030333A JP6593477B2 (en) | 2018-02-23 | 2018-02-23 | Video content display device, glasses, video content processing system, and video content display program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013223253A Division JP6299145B2 (en) | 2013-10-28 | 2013-10-28 | Video content display device, glasses, video content processing system, and video content display program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018141970A JP2018141970A (en) | 2018-09-13 |
JP6593477B2 true JP6593477B2 (en) | 2019-10-23 |
Family
ID=63528091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018030333A Active JP6593477B2 (en) | 2018-02-23 | 2018-02-23 | Video content display device, glasses, video content processing system, and video content display program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6593477B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220335661A1 (en) * | 2020-02-28 | 2022-10-20 | Google Llc | System and method for playback of augmented reality content triggered by image recognition |
KR102580250B1 (en) * | 2022-12-20 | 2023-09-19 | 주식회사 아티젠스페이스 | Mobile terminal and system |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2002303082A1 (en) * | 2001-01-26 | 2002-09-12 | Zaxel Systems, Inc. | Real-time virtual viewpoint in simulated reality environment |
JP2003023699A (en) * | 2001-07-05 | 2003-01-24 | Saibuaasu:Kk | Spatial information auralizing system and spatial information auralizing method |
JP2008108246A (en) * | 2006-10-23 | 2008-05-08 | Internatl Business Mach Corp <Ibm> | Method, system and computer program for generating virtual image according to position of browsing person |
JP2012165113A (en) * | 2011-02-04 | 2012-08-30 | Nec Casio Mobile Communications Ltd | Output method, apparatus, and program |
WO2013028813A1 (en) * | 2011-08-23 | 2013-02-28 | Microsoft Corporation | Implicit sharing and privacy control through physical behaviors using sensor-rich devices |
JP5940785B2 (en) * | 2011-09-14 | 2016-06-29 | 株式会社バンダイナムコエンターテインメント | Program and game device |
JP6299145B2 (en) * | 2013-10-28 | 2018-03-28 | 大日本印刷株式会社 | Video content display device, glasses, video content processing system, and video content display program |
JP2018142959A (en) * | 2018-02-23 | 2018-09-13 | 大日本印刷株式会社 | Content display device, eyeglasses, content processing system, and content display program |
-
2018
- 2018-02-23 JP JP2018030333A patent/JP6593477B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018141970A (en) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016137106A (en) | Construction method, program, information processing system, and information processing device | |
CN107995482B (en) | Video file processing method and device | |
KR20130056529A (en) | Apparatus and method for providing augmented reality service in portable terminal | |
JP2021002288A (en) | Image processor, content processing system, and image processing method | |
KR101575725B1 (en) | Method and device for enabling selection of an item from a plurality of items | |
JP6593477B2 (en) | Video content display device, glasses, video content processing system, and video content display program | |
WO2022095465A1 (en) | Information display method and apparatus | |
CN112445395A (en) | Music fragment selection method, device, equipment and storage medium | |
CN112118397B (en) | Video synthesis method, related device, equipment and storage medium | |
JP7196834B2 (en) | Image processing device and method, and program | |
US11343577B2 (en) | Electronic device and method of providing content therefor | |
JP2018142959A (en) | Content display device, eyeglasses, content processing system, and content display program | |
JP5834423B2 (en) | Terminal device, display method, and program | |
JP5616622B2 (en) | Augmented reality providing method and augmented reality providing system | |
JP6299145B2 (en) | Video content display device, glasses, video content processing system, and video content display program | |
JP2021531520A (en) | Wearable control equipment, virtual / augmented reality systems and control methods | |
JP2012175324A5 (en) | ||
KR101773891B1 (en) | System and Computer Implemented Method for Playing Compoiste Video through Selection of Environment Object in Real Time Manner | |
CN112738624B (en) | Method and device for special effect rendering of video | |
CN113727024A (en) | Multimedia information generation method, apparatus, electronic device, storage medium, and program product | |
JP7070547B2 (en) | Image processing equipment and methods, as well as programs | |
CN113473224A (en) | Video processing method and device, electronic equipment and computer readable storage medium | |
JP2010193062A (en) | Program, apparatus and method of reproducing video and musical piece | |
JP2021190082A (en) | Computer program, information processing apparatus, information processing system, augmented reality image display method, and information processing method | |
KR101843024B1 (en) | System and Computer Implemented Method for Playing Compoiste Video through Selection of Environment Object in Real Time Manner |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190827 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190909 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6593477 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |