JP6593477B2 - Video content display device, glasses, video content processing system, and video content display program - Google Patents

Video content display device, glasses, video content processing system, and video content display program Download PDF

Info

Publication number
JP6593477B2
JP6593477B2 JP2018030333A JP2018030333A JP6593477B2 JP 6593477 B2 JP6593477 B2 JP 6593477B2 JP 2018030333 A JP2018030333 A JP 2018030333A JP 2018030333 A JP2018030333 A JP 2018030333A JP 6593477 B2 JP6593477 B2 JP 6593477B2
Authority
JP
Japan
Prior art keywords
video content
sound data
unit
sound
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018030333A
Other languages
Japanese (ja)
Other versions
JP2018141970A (en
Inventor
邦広 橋本
崇 吉川
雄介 橋村
拓也 生駒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2018030333A priority Critical patent/JP6593477B2/en
Publication of JP2018141970A publication Critical patent/JP2018141970A/en
Application granted granted Critical
Publication of JP6593477B2 publication Critical patent/JP6593477B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラムに関する。   The present invention relates to a video content display device, glasses, a video content processing system, and a video content display program.

従来、音楽データ等のオーディオデータの再生位置に応じて、それに関連するコンテンツを表示することが行われている(例えば、特許文献1)。
また、AR(Augmented Reality)と呼ばれる、現実の環境から知覚に与えられる情報に、コンピュータが作り出した情報を重ね合わせることで、補足的な情報を与える技術が開示されている(例えば、特許文献2)。
Conventionally, content related to the playback position of audio data such as music data is displayed (for example, Patent Document 1).
Further, a technology called AR (Augmented Reality) that gives supplementary information by superimposing information created by a computer on information given to perception from an actual environment is disclosed (for example, Patent Document 2). ).

特開2008−83297号公報JP 2008-83297 A 特許第5158007号公報Japanese Patent No. 5158007

上述の特許文献1は、コンテンツが、オーディオデータの再生開始からの経過時間に対応するページコンテンツであった。また、特許文献2は、音楽との連携がないものであった。   In Patent Document 1 described above, the content is page content corresponding to the elapsed time from the start of reproduction of audio data. Further, Patent Document 2 has no cooperation with music.

そこで、本発明は、音楽に連動した映像コンテンツを表示する映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラムを提供することを目的とする。   Therefore, an object of the present invention is to provide a video content display device, glasses, a video content processing system, and a video content display program that display video content linked to music.

本発明は、以下のような解決手段により、前記課題を解決する。
第1の発明は、撮影部と、映像コンテンツを表示可能な表示部と、音データと、予め設定された認識対象物とを対応付けて記憶する記憶部と、音データを取得する音取得部と、前記音取得部が前記音データを取得している間に、前記撮影部が撮影した撮影画像に、取得中の音データに対応する前記認識対象物を含むか否かを判断する対象判断部と、前記撮影画像に前記認識対象物を含む間、前記認識対象物に対応付けられた映像コンテンツを、前記音データの再生位置に対応させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させる表示制御部と、を備えること、を特徴とする映像コンテンツ表示装置である。
第2の発明は、第1の発明の映像コンテンツ表示装置において、音データを出力する音出力部と、前記特定位置と撮影位置との距離を算出し、前記認識対象物から特定される位置から音が発生しているように前記音出力部への前記音データの出力を制御する音制御部と、を備えること、を特徴とする映像コンテンツ表示装置である。
第3の発明は、第1の発明又は第2の発明の映像コンテンツ表示装置において、前記映像コンテンツを記憶するコンテンツサーバに対して通信ネットワークを介して通信可能に接続されており、前記表示制御部は、前記コンテンツサーバから予めダウンロードし、又は、逐次取得した前記映像コンテンツを表示させること、を特徴とする映像コンテンツ表示装置である。
第4の発明は、第1の発明から第3の発明までのいずれかの映像コンテンツ表示装置を備える眼鏡である。
第5の発明は、第1の発明から第3の発明までのいずれかの映像コンテンツ表示装置と、前記映像コンテンツ表示装置に対して通信ネットワークを介して通信可能に接続されたコンテンツサーバと、を備え、前記コンテンツサーバは、音データと、認識対象物と、前記映像コンテンツとを対応付けて記憶する記憶部を有し、前記映像コンテンツ表示装置の前記記憶部は、前記コンテンツサーバからダウンロードした前記音データと、前記音データに対応する前記認識対象物とを記憶すること、を特徴とする映像コンテンツ処理システムである。
第6の発明は、撮影部と、映像コンテンツを表示可能な表示部と、音データと、予め設定された認識対象物とを対応付けて記憶する記憶部と、を備えるコンピュータの映像コンテンツ表示プログラムであって、前記コンピュータを、音データを取得する音取得手段と、前記音取得手段が前記音データを取得している間に、前記撮影部が撮影した撮影画像に、取得中の音データに対応する前記認識対象物を含むか否かを判断する対象判断手段と、前記撮影画像に前記認識対象物を含む間、前記認識対象物に対応付けられた映像コンテンツを、前記音データの再生位置に対応させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させる表示制御手段と、して機能させること、を特徴とする映像コンテンツ表示プログラムである。
The present invention solves the above problems by the following means.
The first invention includes a photographing unit, a display unit capable of displaying video content, sound data, a storage unit that stores preset recognition objects in association with each other, and a sound acquisition unit that acquires sound data. And an object determination for determining whether or not the captured image captured by the imaging unit includes the recognition object corresponding to the sound data being acquired while the sound acquisition unit is acquiring the sound data. And the video content associated with the recognition target object at a specific position specified from the recognition target object while corresponding to the reproduction position of the sound data while the captured image includes the recognition target object. And a display control unit that superimposes and displays on the display unit.
According to a second aspect of the present invention, in the video content display device according to the first aspect of the present invention, the distance between the sound output unit that outputs sound data and the specific position and the photographing position is calculated, and the position specified from the recognition target object And a sound control unit that controls output of the sound data to the sound output unit so that sound is generated.
According to a third aspect of the present invention, there is provided the video content display device according to the first or second aspect, wherein the display control unit is connected to a content server storing the video content via a communication network so as to be communicable. Is a video content display device that displays the video content downloaded in advance from the content server or sequentially acquired.
A fourth invention is a pair of glasses including any one of the video content display devices from the first invention to the third invention.
A fifth invention comprises any one of the video content display devices from the first invention to the third invention, and a content server communicatively connected to the video content display device via a communication network. The content server has a storage unit that stores sound data, a recognition object, and the video content in association with each other, and the storage unit of the video content display device downloads the content server from the content server A video content processing system characterized by storing sound data and the recognition object corresponding to the sound data.
A sixth invention is a video content display program for a computer, comprising: a photographing unit, a display unit capable of displaying video content, sound data, and a storage unit that stores preset recognition objects in association with each other. The sound acquisition means for acquiring sound data and the sound image being acquired by the imaging unit while the sound acquisition means is acquiring the sound data. A target determination unit that determines whether or not the corresponding recognition target object is included, and a video content associated with the recognition target object while the captured image includes the recognition target object. The video content display program is configured to function as display control means for displaying on the display unit in a superimposed manner at a specific position specified from the recognition object. It is a non.

本発明によれば、音楽に連動した映像コンテンツを表示する映像コンテンツ表示装置、眼鏡、映像コンテンツ処理システム及び映像コンテンツ表示プログラムを提供することができる。   According to the present invention, it is possible to provide a video content display device, glasses, a video content processing system, and a video content display program that display video content linked to music.

第1実施形態に係る眼鏡の概要を説明する図である。It is a figure explaining the outline | summary of the spectacles which concern on 1st Embodiment. 第1実施形態に係る映像コンテンツ処理システムの機能ブロックを示す図である。It is a figure which shows the functional block of the video content processing system which concerns on 1st Embodiment. 第1実施形態に係るコンテンツデータ記憶部に記憶されたコンテンツデータを説明する図である。It is a figure explaining the content data memorize | stored in the content data storage part which concerns on 1st Embodiment. 第1実施形態に係る眼鏡のメイン処理を示すフローチャートである。It is a flowchart which shows the main process of the spectacles which concern on 1st Embodiment. 第1実施形態に係る眼鏡の映像コンテンツ表示処理を示すフローチャートである。It is a flowchart which shows the video content display process of the glasses which concerns on 1st Embodiment. 第1実施形態に係る眼鏡での表示例を示す図である。It is a figure which shows the example of a display with the spectacles which concern on 1st Embodiment. 第2実施形態に係るマークと携帯端末との例を示す図である。It is a figure which shows the example which concerns on the mark which concerns on 2nd Embodiment, and a portable terminal.

以下、本発明を実施するための形態について、図を参照しながら説明する。なお、これは、あくまでも一例であって、本発明の技術的範囲は、これに限られるものではない。
(第1実施形態)
<映像コンテンツ処理システム100の全体構成>
図1は、第1実施形態に係る眼鏡1の概要を説明する図である。
図2は、第1実施形態に係る映像コンテンツ処理システム100の機能ブロックを示す図である。
図3は、第1実施形態に係るコンテンツデータ記憶部22に記憶されたコンテンツデータを説明する図である。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.
(First embodiment)
<Overall Configuration of Video Content Processing System 100>
FIG. 1 is a diagram illustrating an outline of the glasses 1 according to the first embodiment.
FIG. 2 is a functional block diagram of the video content processing system 100 according to the first embodiment.
FIG. 3 is a diagram illustrating content data stored in the content data storage unit 22 according to the first embodiment.

<眼鏡1>
図1に示す眼鏡1は、音楽を再生し、再生中の音楽に対応した立体映像コンテンツ(映像コンテンツ)として、アニメーションキャラクタの立体映像を、あたかも眼鏡1を装着した使用者の目の前にいるかのように表示する装置である。
眼鏡1は、例えば、CD、DVD等を販売するCDショップに常設されている。そして、眼鏡1には、例えば、CDショップで販売を強化している音楽が、予め記憶部20(図2参照)に記憶されている。
眼鏡1は、カメラ31(撮影部)、透過型ディスプレイ32(表示部)、スピーカ33(音出力部)、各操作ボタン34(34a〜34f)、通信I/F(インタフェース)部39等を備える。また、眼鏡1は、片側の側面に筐体30を有する。筐体30は、図2に示す制御部10、記憶部20等を備える。
図2に示す制御部10は、眼鏡1の全体を制御する中央処理装置(CPU)である。制御部10は、記憶部20に記憶されているオペレーティングシステム(OS)や、各種のアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
<Glasses 1>
The glasses 1 shown in FIG. 1 reproduce music and whether the stereoscopic video of the animation character is in front of the user wearing the glasses 1 as stereoscopic video content (video content) corresponding to the music being played back. It is a device that displays as follows.
The glasses 1 are permanently installed in a CD shop that sells CDs, DVDs, and the like, for example. In the glasses 1, for example, music whose sales are being strengthened at a CD shop is stored in the storage unit 20 (see FIG. 2) in advance.
The glasses 1 include a camera 31 (imaging unit), a transmissive display 32 (display unit), a speaker 33 (sound output unit), operation buttons 34 (34a to 34f), a communication I / F (interface) unit 39, and the like. . Moreover, the glasses 1 have a housing 30 on one side surface. The housing 30 includes the control unit 10 and the storage unit 20 shown in FIG.
The control unit 10 shown in FIG. 2 is a central processing unit (CPU) that controls the entire glasses 1. The control unit 10 executes various functions in cooperation with the hardware described above by appropriately reading and executing an operating system (OS) and various application programs stored in the storage unit 20.

制御部10は、音取得部11、音制御部12、対象判断部13、コンテンツ取得部14、表示制御部15等を備える。
音取得部11は、音楽の音データを取得する制御部である。
音制御部12は、音楽の音データを、スピーカ33に出力する制御部である。また、音制御部12は、スピーカ33の音量を制御する。
対象判断部13は、音取得部11が音楽の音データを取得している間に、カメラ31が撮影した画像に、その音楽に対応するAR(Augmented Reality)用コード(認識対象物)を含むか否かを判断する制御部である。
コンテンツ取得部14は、記憶部20に記憶され、対象判断部13が判断したAR用コードに対応するアニメーションキャラクタの立体映像を取得する制御部である。
表示制御部15は、AR用コードの前面であって、AR用コードから特定される特定位置に、音楽の再生位置に対応したアニメーションキャラクタの立体映像を表示させる制御部である。
これらの各機能の詳細及びAR用コードについては、後述する。
The control unit 10 includes a sound acquisition unit 11, a sound control unit 12, an object determination unit 13, a content acquisition unit 14, a display control unit 15, and the like.
The sound acquisition unit 11 is a control unit that acquires music sound data.
The sound control unit 12 is a control unit that outputs music sound data to the speaker 33. The sound control unit 12 controls the volume of the speaker 33.
The target determination unit 13 includes an AR (Augmented Reality) code (recognition target) corresponding to the music in the image captured by the camera 31 while the sound acquisition unit 11 is acquiring the sound data of the music. It is a control part which judges whether it is.
The content acquisition unit 14 is a control unit that acquires a stereoscopic video of an animation character that is stored in the storage unit 20 and that corresponds to the AR code determined by the target determination unit 13.
The display control unit 15 is a control unit that displays a 3D image of an animation character corresponding to a music playback position at a specific position specified from the AR code, in front of the AR code.
Details of these functions and the AR code will be described later.

記憶部20は、眼鏡1の動作に必要なプログラム、データ等を記憶するための半導体メモリ素子等の記憶装置である。
なお、本発明でいうコンピュータとは、制御部、記憶装置等を備えた情報処理装置をいい、眼鏡1は、制御部10、記憶部20等を備えた情報処理装置であり、本発明のコンピュータの概念に含まれる。
記憶部20は、プログラム記憶部21、コンテンツデータ記憶部22等を記憶している。
プログラム記憶部21は、眼鏡1に様々な機能を実行させる複数のアプリケーションプログラムを記憶可能な記憶領域である。プログラム記憶部21は、少なくとも、AR用プログラム(映像コンテンツ表示プログラム)21aを記憶している。
コンテンツデータ記憶部22は、音楽と、AR用コードと、アニメーションキャラクタの立体映像とが対応付けられたコンテンツデータを記憶する記憶領域である。
The storage unit 20 is a storage device such as a semiconductor memory element for storing programs, data, and the like necessary for the operation of the glasses 1.
Note that the computer in the present invention refers to an information processing apparatus including a control unit, a storage device, and the like, and the glasses 1 are an information processing apparatus including the control unit 10, the storage unit 20 and the like, and the computer of the present invention. Included in the concept.
The storage unit 20 stores a program storage unit 21, a content data storage unit 22, and the like.
The program storage unit 21 is a storage area capable of storing a plurality of application programs that cause the glasses 1 to execute various functions. The program storage unit 21 stores at least an AR program (video content display program) 21a.
The content data storage unit 22 is a storage area for storing content data in which music, an AR code, and a stereoscopic video of an animation character are associated with each other.

図3(A)に示すように、コンテンツデータは、AR用コードを仲介して、音楽と、アニメーションキャラクタの立体映像とを対応付けている。例えば、AR用コードが「B」の場合、AR用コードが同じでも音楽が異なれば、対応するアニメーションキャラクタの立体映像も異なるものになる。
音楽には、その楽曲の曲名や作者、歌の場合には歌手名等に関する音楽属性データ、実際の音に関する音データ等を有する。また、音データは、その音楽の再生時間を示す再生位置を有する。
AR用コードは、例えば、CDショップにあるステージの形状である。その他、AR用コードは、CDジャケットの形状等であってもよく、予め設定された形状である。
アニメーションキャラクタの立体映像は、例えば、アイドルを模したキャラクタの立体映像である。音楽にあわせてあたかも歌い、踊っているかのように振舞う、アニメーションキャラクタの立体映像は、音データの再生位置に同期して、歌い、踊っているかのような動きをする。
As shown in FIG. 3A, the content data associates the music with the stereoscopic video of the animation character via the AR code. For example, when the AR code is “B”, if the music is different even if the AR code is the same, the stereoscopic image of the corresponding animation character is also different.
The music includes music attribute data related to the title and author of the music, and in the case of a song, the name of the singer, sound data related to the actual sound, and the like. The sound data has a reproduction position indicating the reproduction time of the music.
The AR code is, for example, the shape of a stage in a CD shop. In addition, the AR code may be a shape of a CD jacket or the like, and has a preset shape.
A stereoscopic video of an animation character is, for example, a stereoscopic video of a character imitating an idol. A three-dimensional image of an animated character that behaves as if it is singing and dancing to the music moves as if singing and dancing in synchronization with the playback position of the sound data.

図3(B)は、音楽「A1」と、アニメーションキャラクタの立体映像「a1」との再生位置の説明のための図である。音楽「A1」と、アニメーションキャラクタの立体映像「a1」とは、再生の長さである再生時間が同じである。例えば、音楽「A1」が「1:02」の時間の音データを再生中の場合には、アニメーションキャラクタの立体映像「a1」は、「1:02」の映像を再生する。
図3(C)は、音楽「B1」と、アニメーションキャラクタの立体映像「b1」との再生位置の説明のための図である。音楽「B1」より、アニメーションキャラクタの立体映像「b1」の再生時間が短い。そこで、アニメーションキャラクタの立体映像「b1」を、音楽「B1」の再生時間にあわせるために、アニメーションキャラクタの立体映像「b1」を3回繰り返す。
FIG. 3B is a diagram for explaining the reproduction position of the music “A1” and the stereoscopic video “a1” of the animation character. The music “A1” and the three-dimensional video “a1” of the animation character have the same playback time as the playback length. For example, when the music “A1” is playing back the sound data of the time of “1:02”, the stereoscopic video “a1” of the animation character plays the video of “1:02”.
FIG. 3C is a diagram for explaining the reproduction position of the music “B1” and the stereoscopic video “b1” of the animation character. The reproduction time of the animation character's stereoscopic video “b1” is shorter than the music “B1”. Therefore, in order to match the stereoscopic video “b1” of the animation character with the playback time of the music “B1”, the stereoscopic video “b1” of the animation character is repeated three times.

図1に戻り、カメラ31は、透過型ディスプレイ32の脇に設けられ、使用者の前方方向を撮影する装置である。つまり、カメラ31は、透過型ディスプレイ32を介して使用者がスルー状態で見る視界領域を撮影する。
透過型ディスプレイ32は、眼鏡1のレンズ部分に設けられたディスプレイ装置である。透過型ディスプレイ32は、例えば、液晶パネルが用いられ、透過率を制御することで、透明又は半透明な状態にできる。使用者は、透過型ディスプレイ32を介してスルー状態で視界領域を見ることができる。
スピーカ33は、音楽の音データを出力する装置である。スピーカ33は、使用者が眼鏡1をかけた状態で音楽が聞こえるように、使用者の左右の耳付近になる位置に設けられる。
Returning to FIG. 1, the camera 31 is a device that is provided on the side of the transmissive display 32 and photographs the forward direction of the user. In other words, the camera 31 captures a field of view that the user sees in the through state via the transmissive display 32.
The transmissive display 32 is a display device provided in the lens portion of the glasses 1. As the transmissive display 32, for example, a liquid crystal panel is used, and can be made transparent or translucent by controlling the transmittance. The user can see the viewing area through the transmissive display 32 in a through state.
The speaker 33 is a device that outputs music sound data. The speaker 33 is provided at a position near the left and right ears of the user so that music can be heard with the user wearing the glasses 1.

操作ボタン34は、眼鏡1の片側のつる部に設けられている。操作ボタン34は、使用者が眼鏡1をかけた状態で、使用者の手によって操作するボタンである。操作ボタン34は、電源ボタン34a、メニューボタン34b、選択ボタン34c、決定ボタン34d、停止ボタン34e、再生/一時停止ボタン34f等を備える。
電源ボタン34aは、眼鏡1に電源を供給し、及び眼鏡1に供給されている電源を停止するボタンである。
メニューボタン34bは、透過型ディスプレイ32にメニュー画面(図示せず)を表示させるためのボタンである。
選択ボタン34cは、透過型ディスプレイ32に表示されたメニュー画面等にて、カーソルを動かすボタンである。
決定ボタン34dは、メニュー画面等にあるカーソル位置の内容を決定するためのボタンである。
停止ボタン34eは、音楽の再生を停止するためのボタンである。
再生/一時停止ボタン34fは、音楽の再生及び一時停止を行うためのボタンである。
これらの操作ボタン34の使用方法については、後述する。
The operation button 34 is provided on a vine portion on one side of the glasses 1. The operation button 34 is a button operated by the user's hand while the user wears the glasses 1. The operation buttons 34 include a power button 34a, a menu button 34b, a selection button 34c, an enter button 34d, a stop button 34e, a play / pause button 34f, and the like.
The power button 34 a is a button that supplies power to the glasses 1 and stops the power supplied to the glasses 1.
The menu button 34 b is a button for displaying a menu screen (not shown) on the transmissive display 32.
The selection button 34 c is a button for moving the cursor on the menu screen or the like displayed on the transmissive display 32.
The determination button 34d is a button for determining the contents of the cursor position on the menu screen or the like.
The stop button 34e is a button for stopping the reproduction of music.
The play / pause button 34f is a button for playing and pausing music.
A method of using these operation buttons 34 will be described later.

通信I/F部39は、通信ネットワークNを介して、コンテンツサーバ4(図2)との通信を行うためのインタフェース部である。通信I/F部39は、例えば、有線によって通信を行うためのコネクタ部を備えてもよい。また、通信I/F部39は、無線によって通信を行うためのアンテナ部を備えてもよい。眼鏡1は、有線及び無線によって通信を行うことができるものであってもよい。   The communication I / F unit 39 is an interface unit for performing communication with the content server 4 (FIG. 2) via the communication network N. The communication I / F unit 39 may include a connector unit for performing communication by wire, for example. Further, the communication I / F unit 39 may include an antenna unit for performing communication by radio. The glasses 1 may be capable of communicating by wire and wireless.

図2に示す映像コンテンツ処理システム100は、上述の眼鏡1と、コンテンツサーバ4とが通信ネットワークNを介して接続されたシステムである。
<コンテンツサーバ4>
コンテンツサーバ4は、制御部40、記憶部45、通信I/F部49等を備える。
制御部40は、コンテンツサーバ4の全体を制御するCPUである。制御部40は、記憶部45に記憶されているOSや、各種のアプリケーションプログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、各種機能を実行する。
記憶部45は、制御部40の処理を実行するために必要なプログラム、データ等を記憶するためのハードディスク、半導体メモリ素子等の記憶装置である。
記憶部45は、音楽と、AR用コードと、アニメーションキャラクタの立体映像とが対応付けられたコンテンツデータを記憶するコンテンツデータベースを備える。
通信I/F部49は、通信ネットワークNを介して、眼鏡1との通信を行うためのインタフェース部である。
通信ネットワークNは、眼鏡1と、コンテンツサーバ4との間のネットワークであり、インターネット回線等の通信網である。
A video content processing system 100 shown in FIG. 2 is a system in which the above-described glasses 1 and a content server 4 are connected via a communication network N.
<Content server 4>
The content server 4 includes a control unit 40, a storage unit 45, a communication I / F unit 49, and the like.
The control unit 40 is a CPU that controls the entire content server 4. The control unit 40 executes various functions in cooperation with the hardware described above by appropriately reading and executing the OS and various application programs stored in the storage unit 45.
The storage unit 45 is a storage device such as a hard disk or a semiconductor memory element for storing programs, data, and the like necessary for executing the processing of the control unit 40.
The storage unit 45 includes a content database that stores content data in which music, an AR code, and a stereoscopic video of an animation character are associated with each other.
The communication I / F unit 49 is an interface unit for performing communication with the glasses 1 via the communication network N.
The communication network N is a network between the glasses 1 and the content server 4 and is a communication network such as an Internet line.

<メイン処理>
次に、眼鏡1の処理について説明する。
図4は、第1実施形態に係る眼鏡1のメイン処理を示すフローチャートである。
ステップS(以下、「S」という。)1において、使用者が眼鏡1の電源ボタン34aを操作することで、眼鏡1の制御部10に電源が供給される。
S2において、使用者が眼鏡1のメニューボタン34bを操作することで、制御部10は、透過型ディスプレイ32にメニュー画面を表示する。メニュー画面は、例えば、コンテンツデータをダウンロードしたり、AR用プログラム21aを起動したりするための項目が表示された画面である。
メニュー画面での選択及び決定は、選択ボタン34c及び決定ボタン34dにより行う。
<Main processing>
Next, processing of the glasses 1 will be described.
FIG. 4 is a flowchart showing a main process of the glasses 1 according to the first embodiment.
In step S (hereinafter referred to as “S”) 1, when the user operates the power button 34 a of the glasses 1, power is supplied to the control unit 10 of the glasses 1.
In S <b> 2, when the user operates the menu button 34 b of the glasses 1, the control unit 10 displays a menu screen on the transmissive display 32. The menu screen is a screen on which items for downloading content data or starting the AR program 21a are displayed, for example.
Selection and determination on the menu screen are performed by a selection button 34c and a determination button 34d.

S3において、コンテンツデータのダウンロードが選択された状態で、使用者が眼鏡1の決定ボタン34dを操作することで、制御部10は、コンテンツデータのダウンロードを受け付けたか否かを判断する。コンテンツデータのダウンロードを受け付けた場合(S3:YES)には、制御部10は、処理をS4に移す。他方、コンテンツデータのダウンロードを受け付けていない場合(S3:NO)には、制御部10は、処理をS5に移す。
S4において、制御部10は、コンテンツデータのダウンロード処理を行う。制御部10は、通信I/F部39を介してコンテンツサーバ4と通信可能であることを確認後、コンテンツサーバ4からコンテンツデータをダウンロードして、コンテンツデータ記憶部22に記憶する。なお、コンテンツデータのデータ量が大きいことから、コンテンツデータのダウンロードは、コンテンツサーバ4に記憶されたコンテンツデータから対象を絞ってダウンロードすることが望ましい。その後、制御部10は、処理をS2に移す。
In S3, with the content data download selected, the user operates the determination button 34d of the glasses 1, whereby the control unit 10 determines whether or not the content data download has been accepted. When the download of the content data is accepted (S3: YES), the control unit 10 moves the process to S4. On the other hand, when download of content data is not received (S3: NO), the control part 10 moves a process to S5.
In S4, the control unit 10 performs content data download processing. After confirming that the control unit 10 can communicate with the content server 4 via the communication I / F unit 39, the control unit 10 downloads content data from the content server 4 and stores it in the content data storage unit 22. Since the amount of content data is large, it is desirable to download content data by narrowing down the target from the content data stored in the content server 4. Thereafter, the control unit 10 moves the process to S2.

S5において、AR用プログラム21aの起動が選択された状態で、使用者が眼鏡1の決定ボタン34dを操作することで、制御部10は、AR用プログラム21aの起動を受け付けたか否かを判断する。AR用プログラム21aの起動を受け付けた場合(S5:YES)には、制御部10は、処理をS6に移す。他方、AR用プログラム21aの起動を受け付けていない場合(S5:NO)には、制御部10は、処理をS7に移す。
S6において、制御部10は、後述する映像コンテンツ表示処理を行う。その後、制御部10は、処理をS2に移す。
In S5, when the activation of the AR program 21a is selected, the control unit 10 determines whether or not the activation of the AR program 21a is accepted when the user operates the determination button 34d of the glasses 1. . When the activation of the AR program 21a is received (S5: YES), the control unit 10 moves the process to S6. On the other hand, when the activation of the AR program 21a is not accepted (S5: NO), the control unit 10 moves the process to S7.
In S6, the control unit 10 performs a video content display process described later. Thereafter, the control unit 10 moves the process to S2.

S7において、電源が投入されている状態で、使用者が眼鏡1の電源ボタン34aを操作することで、制御部10は、電源OFFを受け付けたか否かを判断する。電源OFFを受け付けた場合(S7:YES)には、制御部10は、電源の供給を停止し、本処理を終了する。他方、電源OFFを受け付けていない場合(S7:NO)には、制御部10は、処理をS2に移す。
なお、ここで説明したメイン処理では、起動するプログラムが、AR用プログラム21aのみであった。しかし、プログラム記憶部21に記憶してある複数のアプリケーションプログラムについても起動するものであってもよい。その場合には、各々のアプリケーションプログラムに対応する処理を行うが、ここでの説明は、省略する。
In S7, when the user operates the power button 34a of the glasses 1 in a state where the power is turned on, the control unit 10 determines whether or not the power OFF is accepted. When the power OFF is received (S7: YES), the control unit 10 stops the power supply and ends the process. On the other hand, when the power OFF is not received (S7: NO), the control unit 10 moves the process to S2.
In the main process described here, the AR program 21a is the only program to be activated. However, a plurality of application programs stored in the program storage unit 21 may also be activated. In that case, processing corresponding to each application program is performed, but the description here is omitted.

<映像コンテンツ表示処理>
次に、映像コンテンツ表示処理について説明する。
図5は、第1実施形態に係る眼鏡1の映像コンテンツ表示処理を示すフローチャートである。
図6は、第1実施形態に係る眼鏡での表示例を示す図である。
図5のS10において、眼鏡1の制御部10は、AR用プログラム21aを起動する。AR用プログラム21aが起動されると、制御部10は、透過型ディスプレイ32に、音楽選択画面(図示せず)として、コンテンツデータ記憶部22に記憶されている音楽の音楽属性データを表示する。
ここで、使用者が、例えば、ある音楽属性データを選択ボタン34cで選択し、再生/一時停止ボタン34fを操作することで、制御部10(音制御部12)は、音楽属性データに対応する音データをスピーカ33から出力する。また、制御部10(音取得部11)は、音データを取得する。なお、上述のように、使用者が再生/一時停止ボタン34fを操作した場合には、制御部10は、透過型ディスプレイ32に表示していた音楽選択画面の表示を消して、表示しないようにする。
<Video content display processing>
Next, video content display processing will be described.
FIG. 5 is a flowchart showing video content display processing of the glasses 1 according to the first embodiment.
FIG. 6 is a diagram illustrating a display example with the glasses according to the first embodiment.
In S10 of FIG. 5, the control unit 10 of the glasses 1 activates the AR program 21a. When the AR program 21a is activated, the control unit 10 displays the music attribute data of music stored in the content data storage unit 22 on the transparent display 32 as a music selection screen (not shown).
Here, for example, when the user selects certain music attribute data with the selection button 34c and operates the play / pause button 34f, the control unit 10 (sound control unit 12) corresponds to the music attribute data. Sound data is output from the speaker 33. The control unit 10 (sound acquisition unit 11) acquires sound data. As described above, when the user operates the play / pause button 34f, the control unit 10 turns off the music selection screen displayed on the transmissive display 32 so as not to display it. To do.

S11において、制御部10は、カメラ31を起動させて、撮影画像を取得する。
S12において、音楽が再生中であり、制御部10(音取得部11)は、音データを取得しているか否かを判断する。上述のように、使用者が音楽選択画面に表示されたある音楽属性データを選択ボタン34cで選択し、再生/一時停止ボタン34fを操作した場合には、制御部10(音取得部11)は、音データを取得している。他方、音楽選択画面が表示されていても、使用者が操作をしない場合には、制御部10は、音データを取得していない。音データを取得している場合(S12:YES)には、制御部10は、処理をS13に移す。他方、音データを取得していない場合(S12:NO)には、制御部10は、処理をS14に移す。
In S <b> 11, the control unit 10 activates the camera 31 and acquires a captured image.
In S12, music is being reproduced, and the control unit 10 (sound acquisition unit 11) determines whether or not sound data is acquired. As described above, when the user selects certain music attribute data displayed on the music selection screen with the selection button 34c and operates the play / pause button 34f, the control unit 10 (sound acquisition unit 11) Sound data is being acquired. On the other hand, even if the music selection screen is displayed, if the user does not perform an operation, the control unit 10 has not acquired sound data. When the sound data is acquired (S12: YES), the control unit 10 moves the process to S13. On the other hand, when the sound data is not acquired (S12: NO), the control unit 10 moves the process to S14.

S13において、制御部10(対象判断部13)は、カメラ31が撮影した撮影画像に、取得した音データの音楽に対応するAR用コードを含むか否かを判断する。これは、カメラ31が撮影した撮影画像に、コンテンツデータ記憶部22に記憶され、音データの音楽に対応するAR用コードがあるか否かを、制御部10(対象判断部13)が照合することで行われる。コンテンツデータ記憶部22に記憶されたAR用コードには、予めそのAR用コードの特徴として対象物の形状の特徴等が設定してある。そして、制御部10(対象判断部13)は、撮影した撮影画像内に、その特徴を有する被写体が含まれているか否かにより判別できる。撮影画像に、取得した音データの音楽に対応するAR用コードを含む場合(S13:YES)には、制御部10は、処理をS16に移す。他方、撮影画像に、取得した音データの音楽に対応するAR用コードを含まない場合(S13:NO)には、制御部10は、処理をS18に移す。   In S <b> 13, the control unit 10 (target determination unit 13) determines whether or not the captured image captured by the camera 31 includes an AR code corresponding to the music of the acquired sound data. This is because the control unit 10 (target determination unit 13) checks whether or not the captured image captured by the camera 31 has an AR code stored in the content data storage unit 22 and corresponding to the music of the sound data. Is done. In the AR code stored in the content data storage unit 22, the characteristics of the shape of the object are set in advance as the characteristics of the AR code. Then, the control unit 10 (target determination unit 13) can determine whether or not the photographed photographed image includes a subject having the characteristic. When the captured image includes an AR code corresponding to the music of the acquired sound data (S13: YES), the control unit 10 moves the process to S16. On the other hand, when the captured image does not include the AR code corresponding to the music of the acquired sound data (S13: NO), the control unit 10 moves the process to S18.

S14において、制御部10(対象判断部13)は、カメラ31が撮影した撮影画像に、コンテンツデータ記憶部22に記憶されているAR用コードを含むか否かを判断する。これは、カメラ31が撮影した撮影画像に、コンテンツデータ記憶部22に記憶されている複数のAR用コードのうちいずれかがあるか否かを、制御部10が照合することで行われる。撮影画像に、コンテンツデータ記憶部22に記憶されているAR用コードを含む場合(S14:YES)には、制御部10は、処理をS15に移す。他方、撮影画像に、コンテンツデータ記憶部22に記憶されているAR用コードを含まない場合(S14:NO)には、処理をS22に移す。
なお、撮影画像に、コンテンツデータ記憶部22に記憶されている複数のAR用コードのうち2つ以上を含む場合には、制御部10は、そのうち1つを選択すればよい。
S15において、制御部10(音制御部12)は、所定時間(例えば、10秒)を経過後に、撮影画像に含まれているAR用コードに対応する音楽の音データを、スピーカ33に出力する。また、制御部10(音取得部11)は、音楽の音データを取得する。なお、図3(A)を例に説明すると、AR用コードが「A」の場合には、音楽「A1」が特定できる。しかし、AR用コードが「B」の場合には、対応する音楽が「B1」から「B3」まである。この場合には、制御部10は、例えば、「B1」から「B3」までの音楽のうち1つを選択して、音データを出力すればよい。
In S <b> 14, the control unit 10 (target determination unit 13) determines whether the captured image captured by the camera 31 includes the AR code stored in the content data storage unit 22. This is performed by the control unit 10 collating whether or not a photographed image photographed by the camera 31 has any of a plurality of AR codes stored in the content data storage unit 22. When the captured image includes the AR code stored in the content data storage unit 22 (S14: YES), the control unit 10 moves the process to S15. On the other hand, when the captured image does not include the AR code stored in the content data storage unit 22 (S14: NO), the process proceeds to S22.
When the photographed image includes two or more of the plurality of AR codes stored in the content data storage unit 22, the control unit 10 may select one of them.
In S <b> 15, the control unit 10 (sound control unit 12) outputs music sound data corresponding to the AR code included in the captured image to the speaker 33 after a predetermined time (for example, 10 seconds) has elapsed. . The control unit 10 (sound acquisition unit 11) acquires music sound data. 3A will be described as an example. When the AR code is “A”, the music “A1” can be specified. However, when the AR code is “B”, the corresponding music is “B1” to “B3”. In this case, for example, the control unit 10 may select one of the music from “B1” to “B3” and output the sound data.

このように、音楽が再生されておらず、音データを取得中ではない場合であっても、カメラ31が撮影した撮影画像にAR用コードを含む場合には、制御部10は、そのAR用コードに対応する音楽の音データを自動的に出力することができ、その結果、音データを取得できる。   As described above, even when music is not being played back and sound data is not being acquired, if the AR 31 is included in the captured image captured by the camera 31, the control unit 10 determines that the AR The sound data of music corresponding to the chord can be automatically output, and as a result, the sound data can be acquired.

S16において、制御部10(コンテンツ取得部14)は、アニメーションキャラクタの立体映像を、透過型ディスプレイ32に表示させる。透過型ディスプレイ32に表示されるアニメーションキャラクタの立体映像は、対応する音楽の音データの再生位置に対応して同期する。また、アニメーションキャラクタの立体映像は、AR用コードの前面であって、AR用コードの位置から特定される特定位置に重畳して表示される。これは、周知の技術(例えば、特開2013−84313号公報)により実現可能である。
S17において、制御部10(音制御部12)は、透過型ディスプレイ32に表示されたアニメーションキャラクタの立体映像の向きに応じて、使用者の両耳付近に設けられたスピーカ33への音データの出力を制御する。これは、特定位置と撮影位置との距離を算出し、AR用コードから特定される位置から音が発生しているようにするものであり、周知の技術(例えば、特許第5197525号公報)により実現可能である。
In S <b> 16, the control unit 10 (content acquisition unit 14) displays the stereoscopic video of the animation character on the transmissive display 32. The three-dimensional image of the animation character displayed on the transmissive display 32 is synchronized with the reproduction position of the corresponding music sound data. In addition, the stereoscopic video of the animation character is displayed in front of the AR code and superimposed on a specific position specified from the position of the AR code. This can be realized by a known technique (for example, JP 2013-84313 A).
In S <b> 17, the control unit 10 (sound control unit 12) outputs sound data to the speaker 33 provided near both ears of the user according to the direction of the stereoscopic image of the animation character displayed on the transmission display 32. Control the output. This is to calculate the distance between the specific position and the photographing position so that sound is generated from the position specified from the AR code. According to a known technique (for example, Japanese Patent No. 5197525). It is feasible.

<具体例>
ここで、図6を例に説明する。
AR用コードが、例えば、CDショップ60内に設けられたステージ61の形状である場合、使用者が、眼鏡1をかけた状態でステージ61を見ることで、アニメーションキャラクタの立体映像であるキャラクタ62が透過型ディスプレイ32に表示される。
なお、現実のステージ61には、キャラクタ62は表示されていない(図6(A)参照)。これにより、使用者は、図6(B)に示すように、音楽にあわせてあたかもステージ61上で歌い、踊っているかのようなキャラクタ62を見ることができる。
そして、キャラクタ62が正面を向いている場合、図6(B)に示すように、使用者がステージ61を正面から見ると、キャラクタ62が正面を向いて歌い踊る。この時、制御部10(音制御部12)は、使用者の両耳のスピーカ33の音量を同じにする制御を行う。
<Specific example>
Here, FIG. 6 will be described as an example.
When the AR code is, for example, the shape of the stage 61 provided in the CD shop 60, the user views the stage 61 with the glasses 1 on, so that the character 62 that is a stereoscopic image of the animation character is displayed. Is displayed on the transmissive display 32.
Note that the character 62 is not displayed on the actual stage 61 (see FIG. 6A). Thereby, as shown in FIG. 6B, the user can see the character 62 as if singing and dancing on the stage 61 in accordance with the music.
When the character 62 is facing the front, as shown in FIG. 6B, when the user views the stage 61 from the front, the character 62 sings and dances facing the front. At this time, the control unit 10 (sound control unit 12) performs control to make the volume of the speakers 33 of the user's both ears the same.

他方、使用者が移動して、図6(C)に示すように、ステージ61を斜め右方向から見ると、キャラクタ62は左方向を向いて歌い踊る。この時、制御部10(音制御部12)は、使用者の左耳のスピーカ33の音量を、使用者の右耳のスピーカ33の音量より大きくする制御を行う。これにより、使用者は、あたかも、キャラクタ62から音が出力されているように感じることができる。
また、使用者は、移動せず、キャラクタ62が向きを変えた場合、制御部10(音制御部12)は、キャラクタ62の向きに応じてスピーカ33の音量を変化させる。使用者は、向きが変わったキャラクタ62を見ることができ、向きに応じた音量の音楽を聴くことができる。
On the other hand, when the user moves and the stage 61 is viewed from the diagonally right direction as shown in FIG. 6C, the character 62 sings and dances facing the left direction. At this time, the control unit 10 (sound control unit 12) performs control to make the volume of the speaker 33 of the user's left ear larger than the volume of the speaker 33 of the user's right ear. As a result, the user can feel as if sound is being output from the character 62.
When the user does not move and the character 62 changes direction, the control unit 10 (sound control unit 12) changes the volume of the speaker 33 according to the direction of the character 62. The user can see the character 62 whose direction has changed, and can listen to music having a volume corresponding to the direction.

図5に戻り、S18において、制御部10は、音楽が終了したか否かを判断する。音楽が終了した場合とは、例えば、音データの再生位置が最後に到達した場合や、使用者により停止ボタン34eが操作された場合をいう。音楽が終了した場合(S18:YES)には、制御部10は、処理をS21に移す。他方、音楽が終了していない場合(S18:NO)には、制御部10は、処理をS19に移す。
S19において、制御部10は、音楽が一時停止中か否かを判断する。音楽が一時停止中の場合とは、音楽が再生中に、使用者が再生/一時停止ボタン34fを操作した場合をいう。音楽が一時停止中である場合(S19:YES)には、制御部10は、処理をS20に移す。他方、音楽が一時停止中ではない場合(S19:NO)には、制御部10は、処理をS13に移す。
S20において、制御部10は、音データの一時停止した再生位置に対応するアニメーションキャラクタの立体映像を、透過型ディスプレイ32に表示させる。つまり、一時停止の場合には、透過型ディスプレイ32に表示されたアニメーションキャラクタの立体映像は、音楽の再生位置に同期しているので、一時停止中の音楽の再生位置に対応する動きのない静止画像になる。その後、制御部10は、処理をS19に移す。
なお、使用者が再生/一時停止ボタン34fをさらに操作して、一時停止が解除された場合には、音楽の音データの再生位置に対応して、アニメーションキャラクタの立体映像が動くものになる(S19でNOが選択され、S13でYESが選択された場合)。
Returning to FIG. 5, in S <b> 18, the control unit 10 determines whether or not the music has ended. The case where the music is finished means, for example, the case where the reproduction position of the sound data has reached the end, or the case where the user operates the stop button 34e. When the music ends (S18: YES), the control unit 10 moves the process to S21. On the other hand, if the music has not ended (S18: NO), the control unit 10 moves the process to S19.
In S19, the control unit 10 determines whether or not the music is temporarily stopped. The case where the music is paused means a case where the user operates the play / pause button 34f while the music is being played. If the music is paused (S19: YES), the control unit 10 moves the process to S20. On the other hand, when the music is not paused (S19: NO), the control unit 10 moves the process to S13.
In S <b> 20, the control unit 10 causes the transmissive display 32 to display a 3D image of the animation character corresponding to the reproduction position where the sound data is paused. That is, in the case of pause, the stereoscopic video of the animated character displayed on the transmissive display 32 is synchronized with the music playback position, so that there is no motion corresponding to the paused music playback position. Become an image. Thereafter, the control unit 10 moves the process to S19.
When the user further operates the play / pause button 34f to release the pause, the stereoscopic video of the animation character moves corresponding to the playback position of the music sound data ( When NO is selected in S19 and YES is selected in S13).

S21において、制御部10は、透過型ディスプレイ32にアニメーションキャラクタの立体映像が表示されている場合には、アニメーションキャラクタの立体映像を消去する。つまり、制御部10は、音データの再生中にのみ、透過型ディスプレイ32に音データに対応するアニメーションキャラクタの立体映像を表示する。
S22において、制御部10は、AR用プログラム21aを終了するか否かを判断する。AR用プログラム21aを終了する場合(S22:YES)には、制御部10は、本処理を終了し、図4に戻る。他方、AR用プログラム21aを終了しない場合(S22:NO)には、制御部10は、処理をS12に移す。
In S <b> 21, when the stereoscopic video of the animation character is displayed on the transmissive display 32, the control unit 10 deletes the stereoscopic video of the animation character. That is, the control unit 10 displays a stereoscopic image of the animation character corresponding to the sound data on the transmissive display 32 only during the reproduction of the sound data.
In S22, the control unit 10 determines whether or not to end the AR program 21a. If the AR program 21a is to be ended (S22: YES), the control unit 10 ends this process and returns to FIG. On the other hand, when the AR program 21a is not terminated (S22: NO), the control unit 10 moves the process to S12.

なお、S18やS19において、音楽が終了した場合や、一時停止中の場合を、停止ボタン34eや、再生/一時停止ボタン34fの操作を判断するものとして説明したが、これに限定されない。例えば、制御部10は、音楽が止まっていることを検知した場合に、停止した再生位置に対応するアニメーションキャラクタの立体映像を、透過型ディスプレイ32に表示させる。そして、一定時間を超えるまでに音楽が再生されたら、制御部10は、再生を検知してアニメーションキャラクタの立体映像を動かし、一定時間を超えても音楽が再生されなかったら、制御部10は、アニメーションキャラクタの立体映像を、透過型ディスプレイ32から消去する、というものであってもよい。   In S18 and S19, the case where the music is finished or paused has been described as determining the operation of the stop button 34e or the play / pause button 34f, but the present invention is not limited to this. For example, when the control unit 10 detects that music is stopped, the control unit 10 causes the transmissive display 32 to display a stereoscopic image of the animation character corresponding to the stopped reproduction position. If the music is played before the predetermined time is exceeded, the control unit 10 detects the playback and moves the three-dimensional image of the animation character. If the music is not played after the predetermined time, the control unit 10 The stereoscopic video of the animation character may be erased from the transmissive display 32.

このように、第1実施形態によれば、眼鏡1は、以下のような効果がある。
(1)音楽の音データを取得している間に、カメラ31が取得した撮影画像に、取得した音データの音楽に対応するAR用コードを含む場合には、AR用コードに対応するアニメーションキャラクタの立体映像を透過型ディスプレイ32に表示できる。そして、音データを取得しなくなった場合には、透過型ディスプレイ32に表示していたAR用コードに対応するアニメーションキャラクタの立体映像を消去して、表示させなくする。よって、音楽の再生中にのみ、音楽に対応するアニメーションキャラクタの立体映像を、透過型ディスプレイ32に表示できる。
(2)音楽と、アニメーションキャラクタの立体映像とは、AR用コードに対応するので、AR用コードが同じであっても、音楽が異なれば、透過型ディスプレイ32に表示されるアニメーションキャラクタの立体映像を異なるものにできる。
Thus, according to the first embodiment, the glasses 1 have the following effects.
(1) When an AR code corresponding to the music of the acquired sound data is included in the captured image acquired by the camera 31 while the sound data of the music is acquired, an animation character corresponding to the AR code Can be displayed on the transmissive display 32. When sound data is no longer acquired, the stereoscopic video of the animation character corresponding to the AR code displayed on the transmissive display 32 is erased and is not displayed. Therefore, a stereoscopic image of an animation character corresponding to music can be displayed on the transmissive display 32 only during music playback.
(2) Since the music and the stereoscopic video of the animation character correspond to the AR code, even if the AR code is the same, if the music is different, the stereoscopic video of the animation character displayed on the transmissive display 32 Can be different.

(3)透過型ディスプレイ32に表示されるアニメーションキャラクタの立体映像は、音データの再生位置に対応するので、音データの再生にあわせて、アニメーションキャラクタの立体映像があたかも歌って、踊っているかのように演出できる。
(4)アニメーションキャラクタの立体映像から音データが出力されているかのように、スピーカ33から出力される音量を変化させることができる。
(5)アニメーションキャラクタの立体映像を、AR用コードに対応する特定位置に配置して表示させるので、例えば、AR用コードがステージの形状である場合には、アニメーションキャラクタの立体映像があたかもステージ上で歌って、踊っているかのように表示させることができる。
(6)音楽が再生中でない場合でも、カメラ31が撮影した撮影画像に、コンテンツデータ記憶部22に記憶されたAR用コードが存在する場合には、AR用コードに対応する音楽を再生できる。そして、音楽を再生することで、AR用コードに対応するアニメーションキャラクタの立体映像を透過型ディスプレイ32に表示できる。
(3) Since the stereoscopic video of the animation character displayed on the transmissive display 32 corresponds to the playback position of the sound data, whether the stereoscopic video of the animation character is singing and dancing in accordance with the playback of the sound data. You can produce as follows.
(4) The sound volume output from the speaker 33 can be changed as if sound data is output from the stereoscopic video of the animation character.
(5) Since the 3D video of the animation character is arranged and displayed at a specific position corresponding to the AR code, for example, when the AR code has the shape of the stage, the 3D video of the animation character appears on the stage. Can be displayed as if singing and dancing.
(6) Even when music is not being played back, if the AR code stored in the content data storage unit 22 is present in the captured image taken by the camera 31, music corresponding to the AR code can be played back. Then, by reproducing the music, the stereoscopic image of the animation character corresponding to the AR code can be displayed on the transmissive display 32.

(7)音楽を再生中であっても、カメラ31が撮影した撮影画像に音楽に対応するAR用コードを含まない場合には、アニメーションキャラクタの立体映像を表示しない。そして、使用者が動くことで、カメラ31が撮影した撮影画像に音楽に対応するAR用コードを含んだ場合には、その時点から、音データの再生位置に応じたアニメーションキャラクタの立体映像を、透過型ディスプレイ32に表示する。他方、音楽を再生中であって、アニメーションキャラクタの立体映像を透過型ディスプレイ32に表示している場合であっても、使用者が動くことで、カメラ31が撮影した撮影画像に、そのAR用コードを含まなくなると、表示していたアニメーションキャラクタの立体映像を消去して表示しない。このような仕組みを利用して、使用者に、アニメーションキャラクタの立体映像の表示に関して、宝探しのような楽しみ方を提供できる。   (7) Even when music is being played back, if the captured image captured by the camera 31 does not include the AR code corresponding to the music, the stereoscopic video of the animation character is not displayed. When the user moves and the captured image captured by the camera 31 includes the AR code corresponding to the music, from that time, the stereoscopic video of the animation character corresponding to the reproduction position of the sound data is displayed. Displayed on the transmissive display 32. On the other hand, even when music is being played back and a stereoscopic image of an animation character is displayed on the transmissive display 32, the user moves and the captured image captured by the camera 31 is displayed on the AR image. When the code is not included, the displayed 3D image of the animation character is deleted and not displayed. By using such a mechanism, it is possible to provide a user with a treasure hunting method for displaying a stereoscopic image of an animated character.

(第2実施形態)
第2実施形態は、眼鏡にかわって携帯端末を用いた場合について説明する。なお、以降の説明において、上述した第1実施形態と同様の機能を果たす部分には、同一の符号又は末尾に同一の符号を付して、重複する説明を適宜省略する。
図7は、第2実施形態に係るマーク261と携帯端末201との例を示す図である。
(Second Embodiment)
2nd Embodiment demonstrates the case where a portable terminal is used instead of spectacles. In the following description, parts that perform the same functions as those in the first embodiment described above are given the same reference numerals or the same reference numerals at the end, and redundant descriptions are omitted as appropriate.
FIG. 7 is a diagram illustrating an example of the mark 261 and the mobile terminal 201 according to the second embodiment.

図7(A)は、マーク261(認識対象物)を示す。マーク261は、コンテンツデータ記憶部に記憶されているAR用コードの1つである。マーク261は、図7(A)に示す例では、斧の図柄である。
図7(B)に示す携帯端末201は、タッチパネルディスプレイ232の他、制御部、記憶部、カメラ、スピーカ、通信I/F部を備える。
タッチパネルディスプレイ232は、例えば、液晶パネル等で構成される表示部としての機能と、使用者からの指等によるタッチ入力を検出する操作部としての機能とを有する。
タッチパネルディスプレイ232は、カメラで撮影した撮影画像を表示する。
図7(B)は、携帯端末201が、AR用プログラムを起動し、マーク261に対応する音楽を再生して音データを取得している状態で、カメラがマーク261を撮影した場合である。この場合には、タッチパネルディスプレイ232には、再生中の音楽及びマーク261に対応するアニメーションキャラクタの立体画像(映像コンテンツ)であるキャラクタ262が表示される。キャラクタ262は、マーク261の前面に重畳して配置される。キャラクタ262は、範囲263(特定位置)の中を動く。
FIG. 7A shows a mark 261 (recognition target object). The mark 261 is one of AR codes stored in the content data storage unit. The mark 261 is an ax symbol in the example shown in FIG.
7B includes a touch panel display 232, a control unit, a storage unit, a camera, a speaker, and a communication I / F unit.
The touch panel display 232 has, for example, a function as a display unit configured by a liquid crystal panel or the like and a function as an operation unit that detects a touch input by a finger or the like from a user.
The touch panel display 232 displays a captured image captured by the camera.
FIG. 7B shows a case where the camera shoots the mark 261 in a state where the mobile terminal 201 activates the AR program, plays music corresponding to the mark 261, and acquires sound data. In this case, the touch panel display 232 displays a character 262 that is a stereoscopic image (video content) of an animation character corresponding to the music being played and the mark 261. The character 262 is arranged so as to overlap the front surface of the mark 261. The character 262 moves in the range 263 (specific position).

このように、第2実施形態によれば、以下のような効果がある。
タッチパネルディスプレイ232が透過性を有さないものであっても、カメラで撮影した撮影画像を表示し、その撮影画像にマーク261を含む場合には、マーク261に対応するキャラクタ262を、音楽の再生位置に同期して表示できる。しかも、キャラクタ262は、そのマーク261に対応する音楽の音データを取得している間であって、そのマーク261を撮影している間に表示できる。
Thus, according to the second embodiment, there are the following effects.
Even if the touch panel display 232 does not have transparency, when a photographed image photographed by the camera is displayed and the mark 261 is included in the photographed image, the character 262 corresponding to the mark 261 is reproduced as music. Can be displayed in synchronization with the position. In addition, the character 262 can be displayed while the sound data of the music corresponding to the mark 261 is being acquired and the mark 261 is being photographed.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではない。また、実施形態に記載した効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載したものに限定されない。なお、上述した実施形態及び後述する変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。   As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above. In addition, the effects described in the embodiments are merely the most preferable effects resulting from the present invention, and the effects of the present invention are not limited to those described in the embodiments. In addition, although embodiment mentioned above and the deformation | transformation form mentioned later can also be used in combination as appropriate, detailed description is abbreviate | omitted.

(変形形態)
(1)第1実施形態では、眼鏡1が透過型ディスプレイ32を備えるものとして説明したが、これに限定されない。第2実施形態の携帯端末201と同様に、カメラ31で撮影した撮影画像を背景として表示し、その前面にアニメーションキャラクタの立体映像を表示するものであってもよい。
(2)第1実施形態では、ステージの形状を、第2実施形態では、斧の図柄を、各々AR用コードとして説明したが、これに限定されない。例えば、アニメーションキャラクタの立体映像である場合に、AR用コードを、そのアニメーションキャラクタの輪郭の形状にしてもよい。そうすることで、AR用コードを映したら、そのAR用コードからアニメーションキャラクタの立体映像が浮き出て動作するという演出を行うことができる。
(3)第1実施形態では、眼鏡1がCDショップに常設されたものとして説明したが、これに限定されない。使用者が所有するものであってもよい。
(Deformation)
(1) In the first embodiment, the spectacles 1 are described as including the transmissive display 32, but the present invention is not limited to this. Similarly to the mobile terminal 201 of the second embodiment, a captured image captured by the camera 31 may be displayed as a background, and a stereoscopic image of the animation character may be displayed in front of the captured image.
(2) In the first embodiment, the shape of the stage and the design of the ax in the second embodiment are described as AR codes, respectively, but the present invention is not limited to this. For example, in the case of a stereoscopic image of an animation character, the AR code may be the shape of the outline of the animation character. By doing so, when the AR code is displayed, it is possible to produce an effect that the stereoscopic video of the animation character is raised from the AR code and operated.
(3) Although the first embodiment has been described on the assumption that the glasses 1 are permanently installed in the CD shop, the present invention is not limited to this. It may be owned by the user.

(4)各実施形態では、アニメーションキャラクタの立体映像を表示するものとして説明したが、これに限定されない。アニメーションキャラクタではないオブジェクトの立体映像であってもよいし、立体映像ではなく、二次元の映像であってもよい。
(5)各実施形態では、音楽を再生して音データを取得するものとして説明したが、これに限定されない。例えば、マイク(集音部)を備え、外部の音を集音し、音を分析して音楽を特定する。音楽の特定は、例えば、音の波長から類似の音楽を特定できる。また、音に電子透かしが埋め込んである場合には、その電子透かしから音楽を特定できる。そうすることで、撮影した撮影画像が、特定した音楽の音データに対応するAR用コードを含む場合に、音楽及びAR用コードに対応する映像コンテンツを表示できる。よって、街中やCDショップ等で流れている音楽と、映像コンテンツとを、AR用コードを用いて連携させることができる。
(6)各実施形態では、映像コンテンツを各装置(眼鏡1、携帯端末201)の記憶部20等に予め記憶しているものとして説明したが、これに限定されない。例えば、映像コンテンツをコンテンツサーバ4から逐次受信することで取得してもよい。
(7)各実施形態では、カメラ31を1つ備えるものとして説明したが、これに限定されない。例えば、第1実施形態の眼鏡1において、透過型ディスプレイ32の両側に計2つ備えていてもよい。
(4) In each embodiment, although it demonstrated as what displays the stereo image of an animation character, it is not limited to this. It may be a stereoscopic video of an object that is not an animation character, or may be a two-dimensional video instead of a stereoscopic video.
(5) In each embodiment, although it demonstrated as reproducing music and acquiring sound data, it is not limited to this. For example, a microphone (sound collecting unit) is provided, an external sound is collected, and the music is identified by analyzing the sound. For example, similar music can be specified from the wavelength of sound. If a digital watermark is embedded in the sound, music can be specified from the digital watermark. By doing so, when the photographed photographed image includes the AR code corresponding to the specified music sound data, it is possible to display the music and the video content corresponding to the AR code. Therefore, it is possible to link music flowing in the city or a CD shop with video content using the AR code.
(6) In each embodiment, the video content has been described as being stored in advance in the storage unit 20 of each device (glasses 1, mobile terminal 201), but the present invention is not limited to this. For example, the video content may be acquired by sequentially receiving from the content server 4.
(7) Although each embodiment has been described as including one camera 31, the present invention is not limited to this. For example, in the glasses 1 of the first embodiment, a total of two may be provided on both sides of the transmissive display 32.

1 眼鏡
4 コンテンツサーバ
10,40 制御部
11 音取得部
12 音制御部
13 対象判断部
14 コンテンツ取得部
15 表示制御部
20,45 記憶部
21a AR用プログラム
22 コンテンツデータ記憶部
31 カメラ
32 透過型ディスプレイ
33 スピーカ
61 ステージ
62,262 キャラクタ
100 映像コンテンツ処理システム
201 携帯端末
232 タッチパネルディスプレイ
261 マーク
DESCRIPTION OF SYMBOLS 1 Glasses 4 Content server 10,40 Control part 11 Sound acquisition part 12 Sound control part 13 Target judgment part 14 Content acquisition part 15 Display control part 20,45 Storage part 21a AR program 22 Content data storage part 31 Camera 32 Transmission type display 33 Speaker 61 Stage 62, 262 Character 100 Video content processing system 201 Mobile terminal 232 Touch panel display 261 Mark

Claims (7)

撮影部と、
映像コンテンツを表示可能な表示部と、
音データと、予め設定された認識対象物とを対応付けて記憶する記憶部と、
音データを取得する音取得部と、
前記撮影部が撮影した撮影画像に、前記音取得部が取得中の音データに対応する前記認識対象物を含むか否かを判断する対象判断部と、
前記撮影画像に前記認識対象物を含む間、前記認識対象物に対応付けられた映像コンテンツを、前記音データの再生位置に対応して同期させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させる表示制御部と、
を備えること、
を特徴とする映像コンテンツ表示装置。
A shooting section;
A display unit capable of displaying video content;
A storage unit that stores sound data and a preset recognition object in association with each other;
A sound acquisition unit for acquiring sound data;
An object determination unit that determines whether or not the captured image captured by the imaging unit includes the recognition object corresponding to the sound data being acquired by the sound acquisition unit;
While the captured image includes the recognition object, the video content associated with the recognition object is synchronized with the reproduction position of the sound data while being synchronized with a specific position specified from the recognition object. A display control unit that superimposes and displays on the display unit;
Providing
A video content display device characterized by the above.
請求項1に記載の映像コンテンツ表示装置において、
前記記憶部は、一の前記認識対象物に対して複数の音データと、各音データに対応する映像コンテンツとを記憶し、
前記表示制御部は、前記撮影画像に前記認識対象物を含む間、前記認識対象物及び前記音データに対応付けられた映像コンテンツを、前記音データの再生位置に対応して同期させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させること、
を特徴とする映像コンテンツ表示装置。
The video content display device according to claim 1,
The storage unit stores a plurality of sound data and video content corresponding to each sound data with respect to the one recognition target object,
While the display control unit includes the recognition object in the photographed image, the display control unit synchronizes video content associated with the recognition object and the sound data in correspondence with the reproduction position of the sound data, Superimposing on a specific position specified from the recognition object, and displaying on the display unit;
A video content display device characterized by the above.
請求項1又は請求項2に記載の映像コンテンツ表示装置において、
音データを出力する音出力部と、
前記特定位置と撮影位置との距離を算出し、前記認識対象物から特定される位置から音が発生しているように前記音出力部への前記音データの出力を制御する音制御部と、
を備えること、
を特徴とする映像コンテンツ表示装置。
In the video content display device according to claim 1 or 2,
A sound output unit for outputting sound data;
A sound control unit that calculates a distance between the specific position and the shooting position, and controls output of the sound data to the sound output unit so that sound is generated from a position specified from the recognition object;
Providing
A video content display device characterized by the above.
請求項1から請求項3までのいずれかに記載の映像コンテンツ表示装置において、
前記映像コンテンツを記憶するコンテンツサーバに対して通信ネットワークを介して通信可能に接続されており、
前記表示制御部は、前記コンテンツサーバから予めダウンロードし、又は、逐次取得した前記映像コンテンツを表示させること、
を特徴とする映像コンテンツ表示装置。
In the video content display device according to any one of claims 1 to 3,
The content server for storing the video content is communicably connected via a communication network,
The display control unit displays the video content downloaded in advance or sequentially obtained from the content server,
A video content display device characterized by the above.
請求項1から請求項4までのいずれかに記載の映像コンテンツ表示装置を備える眼鏡。   Glasses comprising the video content display device according to any one of claims 1 to 4. 請求項1から請求項4までのいずれかに記載の映像コンテンツ表示装置と、
前記映像コンテンツ表示装置に対して通信ネットワークを介して通信可能に接続されたコンテンツサーバと、
を備え、
前記コンテンツサーバは、音データと、認識対象物と、前記映像コンテンツとを対応付けて記憶する記憶部を有し、
前記映像コンテンツ表示装置の前記記憶部は、前記コンテンツサーバからダウンロードした前記音データと、前記音データに対応する前記認識対象物とを記憶すること、
を特徴とする映像コンテンツ処理システム。
A video content display device according to any one of claims 1 to 4,
A content server communicably connected to the video content display device via a communication network;
With
The content server includes a storage unit that stores sound data, a recognition object, and the video content in association with each other,
The storage unit of the video content display device stores the sound data downloaded from the content server and the recognition object corresponding to the sound data;
A video content processing system.
撮影部と、
映像コンテンツを表示可能な表示部と、
音データと、予め設定された認識対象物とを対応付けて記憶する記憶部と、
を備えるコンピュータの映像コンテンツ表示プログラムであって、
前記コンピュータを、
音データを取得する音取得手段と、
前記撮影部が撮影した撮影画像に、前記音取得手段が取得中の音データに対応する前記認識対象物を含むか否かを判断する対象判断手段と、
前記撮影画像に前記認識対象物を含む間、前記認識対象物に対応付けられた映像コンテンツを、前記音データの再生位置に対応して同期させながら、前記認識対象物から特定される特定位置に重畳して、前記表示部に表示させる表示制御手段と、
して機能させること、
を特徴とする映像コンテンツ表示プログラム。
A shooting section;
A display unit capable of displaying video content;
A storage unit that stores sound data and a preset recognition object in association with each other;
A video content display program for a computer comprising:
The computer,
Sound acquisition means for acquiring sound data;
Object determination means for determining whether or not the captured image captured by the imaging unit includes the recognition object corresponding to the sound data being acquired by the sound acquisition means;
While the captured image includes the recognition object, the video content associated with the recognition object is synchronized with the reproduction position of the sound data while being synchronized with a specific position specified from the recognition object. Display control means for superimposing and displaying on the display unit;
Make it work,
A video content display program characterized by the above.
JP2018030333A 2018-02-23 2018-02-23 Video content display device, glasses, video content processing system, and video content display program Active JP6593477B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018030333A JP6593477B2 (en) 2018-02-23 2018-02-23 Video content display device, glasses, video content processing system, and video content display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018030333A JP6593477B2 (en) 2018-02-23 2018-02-23 Video content display device, glasses, video content processing system, and video content display program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013223253A Division JP6299145B2 (en) 2013-10-28 2013-10-28 Video content display device, glasses, video content processing system, and video content display program

Publications (2)

Publication Number Publication Date
JP2018141970A JP2018141970A (en) 2018-09-13
JP6593477B2 true JP6593477B2 (en) 2019-10-23

Family

ID=63528091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018030333A Active JP6593477B2 (en) 2018-02-23 2018-02-23 Video content display device, glasses, video content processing system, and video content display program

Country Status (1)

Country Link
JP (1) JP6593477B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220335661A1 (en) * 2020-02-28 2022-10-20 Google Llc System and method for playback of augmented reality content triggered by image recognition
KR102580250B1 (en) * 2022-12-20 2023-09-19 주식회사 아티젠스페이스 Mobile terminal and system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002303082A1 (en) * 2001-01-26 2002-09-12 Zaxel Systems, Inc. Real-time virtual viewpoint in simulated reality environment
JP2003023699A (en) * 2001-07-05 2003-01-24 Saibuaasu:Kk Spatial information auralizing system and spatial information auralizing method
JP2008108246A (en) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> Method, system and computer program for generating virtual image according to position of browsing person
JP2012165113A (en) * 2011-02-04 2012-08-30 Nec Casio Mobile Communications Ltd Output method, apparatus, and program
WO2013028813A1 (en) * 2011-08-23 2013-02-28 Microsoft Corporation Implicit sharing and privacy control through physical behaviors using sensor-rich devices
JP5940785B2 (en) * 2011-09-14 2016-06-29 株式会社バンダイナムコエンターテインメント Program and game device
JP6299145B2 (en) * 2013-10-28 2018-03-28 大日本印刷株式会社 Video content display device, glasses, video content processing system, and video content display program
JP2018142959A (en) * 2018-02-23 2018-09-13 大日本印刷株式会社 Content display device, eyeglasses, content processing system, and content display program

Also Published As

Publication number Publication date
JP2018141970A (en) 2018-09-13

Similar Documents

Publication Publication Date Title
JP2016137106A (en) Construction method, program, information processing system, and information processing device
CN107995482B (en) Video file processing method and device
KR20130056529A (en) Apparatus and method for providing augmented reality service in portable terminal
JP2021002288A (en) Image processor, content processing system, and image processing method
KR101575725B1 (en) Method and device for enabling selection of an item from a plurality of items
JP6593477B2 (en) Video content display device, glasses, video content processing system, and video content display program
WO2022095465A1 (en) Information display method and apparatus
CN112445395A (en) Music fragment selection method, device, equipment and storage medium
CN112118397B (en) Video synthesis method, related device, equipment and storage medium
JP7196834B2 (en) Image processing device and method, and program
US11343577B2 (en) Electronic device and method of providing content therefor
JP2018142959A (en) Content display device, eyeglasses, content processing system, and content display program
JP5834423B2 (en) Terminal device, display method, and program
JP5616622B2 (en) Augmented reality providing method and augmented reality providing system
JP6299145B2 (en) Video content display device, glasses, video content processing system, and video content display program
JP2021531520A (en) Wearable control equipment, virtual / augmented reality systems and control methods
JP2012175324A5 (en)
KR101773891B1 (en) System and Computer Implemented Method for Playing Compoiste Video through Selection of Environment Object in Real Time Manner
CN112738624B (en) Method and device for special effect rendering of video
CN113727024A (en) Multimedia information generation method, apparatus, electronic device, storage medium, and program product
JP7070547B2 (en) Image processing equipment and methods, as well as programs
CN113473224A (en) Video processing method and device, electronic equipment and computer readable storage medium
JP2010193062A (en) Program, apparatus and method of reproducing video and musical piece
JP2021190082A (en) Computer program, information processing apparatus, information processing system, augmented reality image display method, and information processing method
KR101843024B1 (en) System and Computer Implemented Method for Playing Compoiste Video through Selection of Environment Object in Real Time Manner

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190909

R150 Certificate of patent or registration of utility model

Ref document number: 6593477

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150