JPWO2017029915A1 - Program, display device, display method, broadcast system, and broadcast method - Google Patents

Program, display device, display method, broadcast system, and broadcast method Download PDF

Info

Publication number
JPWO2017029915A1
JPWO2017029915A1 JP2016563003A JP2016563003A JPWO2017029915A1 JP WO2017029915 A1 JPWO2017029915 A1 JP WO2017029915A1 JP 2016563003 A JP2016563003 A JP 2016563003A JP 2016563003 A JP2016563003 A JP 2016563003A JP WO2017029915 A1 JPWO2017029915 A1 JP WO2017029915A1
Authority
JP
Japan
Prior art keywords
image
performance
data
display
performer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016563003A
Other languages
Japanese (ja)
Other versions
JP6099850B1 (en
Inventor
彩人 藤井
彩人 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Television Network Corp
Original Assignee
Nippon Television Network Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Television Network Corp filed Critical Nippon Television Network Corp
Application granted granted Critical
Publication of JP6099850B1 publication Critical patent/JP6099850B1/en
Publication of JPWO2017029915A1 publication Critical patent/JPWO2017029915A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • G10G1/02Chord or note indicators, fixed or adjustable, for keyboard of fingerboards

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Acoustics & Sound (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Studio Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本発明は、視界画像が光学的透過又は撮影されて表示される表示部と、演者のパフォーマンスをモーションキャプチャして得られた関節動作画像と、演者のパフォーマンス時の身体変化を画像化した身体変化画像とを少なくとも含む仮想画像を、前記視界画像に重畳して前記表示部に表示する表示制御部とを有する表示装置である。The present invention relates to a display unit in which a field-of-view image is optically transmitted or photographed, a joint motion image obtained by motion-capturing a performer's performance, and a physical change obtained by imaging a physical change during the performer's performance. And a display control unit that displays a virtual image including at least an image on the display unit so as to be superimposed on the view field image.

Description

本発明は、プログラム、表示装置、表示方法、放送システム及び放送方法に関する。   The present invention relates to a program, a display device, a display method, a broadcasting system, and a broadcasting method.

鍵盤楽器などを練習する場合、どこをどのように押さえるかが楽譜を見ただけではわかりづらく、練習がうまく出来なかったり、上達しなかったりすることがある。これは、演奏する対象の鍵盤と、演奏を指示している楽譜に物理的な隔たりがあるからである。この隔たりがあるために、演奏者(練習者)は、楽譜と鍵盤を交互に見なければならず、演奏練習は、非常にわずらわしいものとなる。このような場合に、演奏者が楽譜と鍵盤を交互に見なくても良いように、楽曲データに基づいて、鍵盤を光らせるなどの演奏ガイドを表示する電子楽器が提案されている。   When practicing a keyboard instrument etc., it is difficult to know where and how to hold it by just looking at the score, and it may be difficult to practice or improve. This is because there is a physical gap between the keyboard to be played and the musical score instructing the performance. Because of this gap, the performer (practitioner) must see the score and the keyboard alternately, and the performance practice becomes very troublesome. In such a case, there has been proposed an electronic musical instrument that displays a performance guide such as illuminating a keyboard based on music data so that a player does not have to look at a score and a keyboard alternately.

しかし、鍵盤上に演奏ガイドを表示した場合、どの操作子(鍵)を操作するのかは、鍵盤から目を離さずに確認することが出来るが、その操作子をどの指で操作するべきなのかは、鍵盤上に表示される演奏ガイドからは、判別することが出来ない。   However, when the performance guide is displayed on the keyboard, it is possible to check which controls (keys) to operate without taking your eyes off the keyboard, but with which fingers you should operate the controls. Cannot be determined from the performance guide displayed on the keyboard.

そこで、演奏者に演奏支援情報を効率的に提示する発明が開示されている。この発明は、複数の鍵盤等の演奏操作子と、複数の演奏操作子を含む視界を撮影し、視界画像情報を生成する撮影手段と、演奏者の運指画像と複数の演奏操作子を含む視界画像情報とを合成して表示するものである。   Therefore, an invention for efficiently presenting performance support information to a performer is disclosed. The present invention includes a performance operator such as a plurality of keyboards, a photographing means for photographing a field of view including the plurality of performance operators, and generating view image information, a fingering image of the performer, and a plurality of performance operators. The view image information is synthesized and displayed.

特開2002−366142号公報JP 2002-366142 A 特開2000−352973号公報JP 2000-352773 A 特許第3968975号公報Japanese Patent No. 3968975

上述した発明は、鍵盤等の操作子をどの指で操作すれば良いか、また、実際に演奏の練習をしながら、指の運び方の情報(運指情報)が表示されるので、ユーザは表示画面と、表示画面の向こう側に見える実際の楽器及びユーザの手を見ながら演奏練習を行うことができる。   In the above-described invention, the finger can be used to operate an operator such as a keyboard, and information on how to carry the finger (fingering information) is displayed while actually practicing the performance. It is possible to practice the performance while looking at the display screen and the actual musical instrument and the user's hand that are visible beyond the display screen.

しかしながら、上述した発明は、演奏視聴において重要な要素である演奏者の演奏時の感情の起伏や、視線方向等の要素を反映することはできず、指の動かし方だけを示したものにすぎなかった。   However, the above-described invention cannot reflect elements such as the undulation of the emotion during performance of the performer and the direction of the line of sight, which are important elements in viewing the performance, and only shows how to move the finger. There wasn't.

同様なことは、上述した楽器の演奏のみならず、演者が何らかの目的を持って行うパフォーマンス、例えば、演劇や、ダンス、演奏の指揮のみならず、書道や、手話、絵画などの指や腕の運びなどにもいえ、パフォーマンスの画像を見ただけでは、パフォーマンス時の感情の起伏等がわからず、ユーザに提供する情報が不足していた。   The same applies not only to the performance of the above-mentioned musical instruments, but also to performances performed by the performer for some purpose, such as theater, dance, and performance, as well as calligraphy, sign language, painting and other fingers and arms. Even if it was carried, it was not possible to know the undulations of the emotion during the performance just by looking at the performance image, and the information provided to the user was insufficient.

そこで、本発明は、パフォーマンス視聴において重要な要素である演者のパフォーマンス時の感情の起伏や、視線方向等の要素を反映することができるプログラム、表示装置、表示方法、放送システム及び放送方法を提供することにある。   Therefore, the present invention provides a program, a display device, a display method, a broadcasting system, and a broadcasting method that can reflect factors such as the undulation of emotion during performance of the performer and the line-of-sight direction, which are important elements in performance viewing. There is to do.

本発明の一態様は、演者のパフォーマンスをモーションキャプチャして得られた関節動作画像と、前記演者のパフォーマンス時の身体変化を画像化した身体変化画像とを少なくとも含む仮想画像を、光学的透過又は撮影されたユーザの視界画像に重畳して表示部に表示する表示処理をコンピュータに実行させるプログラムである。   According to one aspect of the present invention, a virtual image including at least a joint motion image obtained by motion-capturing a performer's performance and a physical change image obtained by imaging a physical change during the performer's performance is optically transmitted or This is a program for causing a computer to execute a display process for displaying on a display unit in a superimposed manner on a captured user's view field image.

本発明の一態様は、視界画像が光学的透過又は撮影されて表示される表示部と、演者のパフォーマンスをモーションキャプチャして得られた関節動作画像と、前記演者のパフォーマンス時の身体変化を画像化した身体変化画像とを少なくとも含む仮想画像を、前記視界画像に重畳して前記表示部に表示する表示制御部とを有する表示装置である。   According to one aspect of the present invention, a display unit in which a view field image is optically transmitted or photographed and displayed, a joint motion image obtained by motion-capturing the performance of the performer, and a physical change during the performance of the performer The display device includes a display control unit that displays a virtual image including at least a converted body change image on the display unit so as to be superimposed on the view field image.

本発明の一態様は、演者のパフォーマンスをモーションキャプチャして得られた関節動作画像と、前記演者のパフォーマンス時の身体変化を画像化した身体変化画像とを少なくとも含む仮想画像を、光学的透過又は撮影されたユーザの視界画像に重畳して表示部に表示する表示方法である。   According to one aspect of the present invention, a virtual image including at least a joint motion image obtained by motion-capturing a performer's performance and a physical change image obtained by imaging a physical change during the performer's performance is optically transmitted or This is a display method in which the image is displayed on the display unit so as to be superimposed on the captured field of view image of the user.

本発明の一態様は、視界画像が光学的透過又は撮影されて表示される表示部と、放送されるコンテンツから、前記コンテンツと同期を取るための同期情報を受信する受信部と、視界画像が光学的透過又は撮影されて表示される表示部と、演者のパフォーマンスをモーションキャプチャして得られた関節動作画像と、前記演者のパフォーマンス時の身体変化を画像化した身体変化画像とを少なくとも含む仮想画像を、前記同期情報に基づいて、前記コンテンツの所定の開始タイミングと同期させて、前記視界画像に重畳して前記表示部に表示する表示制御部とを有する表示装置と、前記コンテンツと、前記同期情報とを放送する放送部とを有する放送システムである。   According to one aspect of the present invention, a display unit in which a view image is optically transmitted or photographed and displayed, a receiving unit that receives synchronization information for synchronizing with the content from the broadcast content, and the view image A virtual including at least a display unit that is optically transmitted or photographed and displayed, a joint motion image obtained by motion-capturing the performer's performance, and a body change image obtained by imaging the body change during the performer's performance Based on the synchronization information, the display device includes a display control unit that synchronizes with a predetermined start timing of the content and displays the image on the display unit in a superimposed manner, the content, and the content It is a broadcasting system having a broadcasting unit that broadcasts synchronization information.

本発明の一態様は、所定のコンテンツと、前記コンテンツと同期を取るための同期情報とを放送し、前記コンテンツと同期を取るための同期情報を受信し、演者のパフォーマンスをモーションキャプチャして得られた関節動作画像と、前記演者のパフォーマンス時の身体変化を画像化した身体変化画像とを少なくとも含む仮想画像を、前記同期情報に基づいて、前記コンテンツの所定の開始タイミングと同期させて、前記視界画像に重畳して表示する放送方法である。   In one aspect of the present invention, predetermined content and synchronization information for synchronizing with the content are broadcasted, the synchronization information for synchronizing with the content is received, and the performance of the performer is obtained by motion capture. A virtual image including at least a joint change image and a physical change image obtained by imaging a physical change at the performance of the performer in synchronization with a predetermined start timing of the content based on the synchronization information, This is a broadcasting method in which a visual field image is superimposed and displayed.

本発明は、演者のパフォーマンス時の感情の起伏や、視線方向等の要素を、エフェクト画像として、演者のパフォーマンスをモーションキャプチャして得られた関節動作画像と共に表示することにより、パフォーマンス視聴において重要な要素である演者の感情の高まり等を表現することができる。   The present invention is important in viewing the performance by displaying factors such as the undulation of the emotion during the performance of the performer and the gaze direction as an effect image together with the joint motion image obtained by motion capture of the performer's performance. It is possible to express the increase in the emotions of the performer as an element.

図1は本発明の実施の形態の概要を説明するためのブロック図である。FIG. 1 is a block diagram for explaining an outline of an embodiment of the present invention. 図2は表示部1に表示される画像の一例を示した図である。FIG. 2 is a diagram illustrating an example of an image displayed on the display unit 1. 図3は本発明の第1の実施の形態による演奏情報表示装置のブロック図である。FIG. 3 is a block diagram of the performance information display apparatus according to the first embodiment of the present invention. 図4は、本発明の第1の実施の形態における演奏情報表示装置3であるHMDの一例を示した図である。FIG. 4 is a diagram showing an example of an HMD that is the performance information display device 3 according to the first embodiment of the present invention. 図5は表示制御部5のブロック図である。FIG. 5 is a block diagram of the display control unit 5. 図6は身体変化画像(エフェクト画像)の表示の一例を示した図である。FIG. 6 is a view showing an example of a display of a body change image (effect image). 図7は身体変化画像(エフェクト画像)の表示の一例を示した図である。FIG. 7 is a diagram showing an example of a display of a body change image (effect image). 図8は身体変化画像(エフェクト画像)の表示の一例を示した図である。FIG. 8 is a view showing an example of a display of a body change image (effect image). 図9は身体変化画像(エフェクト画像)の表示の一例を示した図である。FIG. 9 is a view showing an example of a display of a body change image (effect image). 図10は身体変化画像(エフェクト画像)がキャラクタである例を示した図である。FIG. 10 is a diagram showing an example in which the body change image (effect image) is a character. 図11は視線方向を明示する画像の一例を示した図である。FIG. 11 is a diagram illustrating an example of an image that clearly indicates the line-of-sight direction. 図12は第1の実施の形態の動作フローチャートである。FIG. 12 is an operation flowchart of the first embodiment. 図13はスマートフォンを利用したヘッドマウントディスプレイ(HMD)の一例を示した図である。FIG. 13 is a diagram illustrating an example of a head mounted display (HMD) using a smartphone. 図14は音楽データ及び画像基本データを取得する方法の一例を説明するための図である。FIG. 14 is a diagram for explaining an example of a method for acquiring music data and basic image data. 図15はユーザがHMDを装着した状態で、ピアノを斜め方向から見た時に表示部に表示される画像の一例を示した図である。FIG. 15 is a diagram illustrating an example of an image displayed on the display unit when the user views the piano from an oblique direction with the HMD attached. 図16はユーザがHMDを装着した状態で、表示部に表示される、演奏者の後方から見た時に、視界画像Aに仮想画像Bが重畳された画像Cの一例を示した図である。FIG. 16 is a diagram illustrating an example of an image C displayed on the display unit in a state where the user wears the HMD, in which the virtual image B is superimposed on the visual field image A when viewed from behind the performer. 図17は実際のピアノの上部に、ピアノの操作子(鍵盤)の操作子画像を表示し、この仮想の操作子画像の上に、演奏画像を表示している例を示す図である。FIG. 17 is a diagram showing an example in which an operation element image of a piano operation element (keyboard) is displayed on the upper part of an actual piano, and a performance image is displayed on the virtual operation element image. 図18は第4の実施の形態のブロック図である。FIG. 18 is a block diagram of the fourth embodiment. 図19はパフォーマンスが書道の場合の表示部1に表示される画像の一例を示した図である。FIG. 19 is a diagram showing an example of an image displayed on the display unit 1 when the performance is calligraphy. 図20はプロセッサ等で構成したパフォーマンス表示装置100のブロック図である。FIG. 20 is a block diagram of the performance display device 100 constituted by a processor or the like.

本発明の実施の形態を説明する。   An embodiment of the present invention will be described.

図1は、本発明の実施の形態の概要を説明するためのブロック図である。   FIG. 1 is a block diagram for explaining an outline of an embodiment of the present invention.

本発明の実施の形態は、視界画像が光学的透過又は撮影されて表示される表示部1と、演者のパフォーマンスをモーションキャプチャして得られた関節動作画像と、演者のパフォーマンス時の身体変化を画像化した身体変化画像とを少なくとも含む仮想画像を、視界画像に重畳して表示部1に表示する表示制御部2とを有する表示装置である。   In the embodiment of the present invention, a display unit 1 on which a view field image is optically transmitted or photographed and displayed, a joint motion image obtained by motion-capturing a performer's performance, and a physical change during the performer's performance. The display device includes a display control unit 2 that displays a virtual image including at least an imaged body change image on the display unit 1 so as to be superimposed on the view field image.

ここで、パフォーマンスとは、演者が何らかの目的を持って行う動作をいう。例えば、楽器の演奏、演奏の指揮、演劇、ダンスのみならず、書道や、手話、絵画、折り紙などの指や腕の運びなども含まれる。   Here, performance refers to an action performed by a performer for some purpose. For example, not only playing musical instruments, conducting performances, performing theater, dancing, but also calligraphy, carrying sign language, painting, origami fingers and arms.

表示部1は、例えば、ヘッドマウントディスプレイ(頭部装着ディスプレイ: Head Mounted Display、HMD)のディスプレイ部である。ヘッドマウントディスプレイには、視界画像が光学的透過されて表示される光学透過型ヘッドマウントディスプレイや、視界画像が撮影されて表示されるビデオ透過型ヘッドマウントディスプレイ等があるが、いずれのものでも良い。尚、視界画像は、ユーザが見ているピアノ等の楽器の画像のみならず、外部の景色等も含む概念である。   The display unit 1 is, for example, a display unit of a head mounted display (Head Mounted Display, HMD). The head-mounted display includes an optically transmissive head-mounted display in which a visual field image is optically transmitted and displayed, and a video transmissive head-mounted display in which a visual field image is captured and displayed. . The view image is a concept that includes not only an image of a musical instrument such as a piano that the user is looking at but also an external scenery.

表示制御部2は、例えば、ヘッドマウントディスプレイに内蔵された処理部である。表示制御部2は、演者のパフォーマンスをモーションキャプチャして得られた関節動作画像と、演者のパフォーマンス時の身体変化を画像化した身体変化画像とを少なくとも含む仮想画像を視界映像に重畳して、表示部1に表示する。   The display control unit 2 is, for example, a processing unit built in a head mounted display. The display control unit 2 superimposes a virtual image including at least a joint motion image obtained by motion capturing the performer's performance and a body change image obtained by imaging a physical change during the performer's performance on the view image, Displayed on the display unit 1.

仮想画像(例えば、3Dグラフィック)には二つあり、ひとつは、演者のパフォーマンスをモーションキャプチャして得られた関節動作画像である。関節動作画像の例としては、楽器の演奏者の運指の形状を示す運指画像や、書道や、手話、絵画などの指や腕の運指画像が代表的なものである。例えば、関節動作画像が演奏者の運指の形状を示す運指画像である場合、この運指画像は、MIDI等の楽曲データに基づいて、その演奏者が楽器を演奏する際の操作子(例えば、ピアノの鍵盤)に対する指運び(運指)を模式的に表したものである。   There are two virtual images (for example, 3D graphics), and one is a joint motion image obtained by motion capture of the performer's performance. Typical examples of joint motion images are fingering images showing the shape of fingering of musical instrument players, and fingering images of fingers and arms such as calligraphy, sign language, and painting. For example, when the joint motion image is a fingering image showing the shape of the player's fingering, this fingering image is based on music data such as MIDI. For example, it is a schematic representation of fingering (fingering) with respect to a piano keyboard.

もうひとつは、本発明の特徴をなすものであり、演者のパフォーマンス時の感情等を画像化した身体変化画像(エフェクト画像)である。この身体変化画像(エフェクト画像)は、演者のパフォーマンス時の視線方向、心拍数、消費カロリー、体温変化、血糖値、脳波等の少なくとも一つから得られる身体変化に関する身体変化情報を、パフォーマンスの一連の動作に対して時系列に数値化し、数値に基づいて変化するエフェクト画像である。これらの仮想画像が視界画像に重畳して表示部1に表示される。   The other is a feature of the present invention, which is a body change image (effect image) that visualizes the emotions of the performer during performance. This physical change image (effect image) is a series of performance information about physical changes obtained from at least one of the gaze direction, heart rate, calories burned, body temperature change, blood glucose level, brain waves, etc. It is an effect image that is digitized in time series with respect to the operation of and changes based on the numerical value. These virtual images are superimposed on the view field image and displayed on the display unit 1.

図2は、表示部1に表示される画像の一例を示した図である。図2では、パフォーマンスの一例として、ピアノの演奏を例にし、関節動作画像がそのピアノの演奏者の運指の形状を示す運指画像である場合の画像の一例を示している。具体的には、ピアノを含む視界画像に、運指画像と身体変化画像とが重畳されて表示されている。運指画像はピアノの鍵盤(操作子)を操作するべき指が、その鍵盤に重ね合わせて表示されている。更に、その指で演奏された鍵盤上からは、その演奏時の視線方向、心拍数、消費カロリー、体温変化、血糖値、脳波等の少なくとも一つから得られる身体データをパラメータとする関数から得られた身体変化画像(エフェクト画像)が表示されている。図2では、ある演奏の一瞬を示した画像であるため、身体変化画像(エフェクト画像)の変化を表現することはできないが、演奏時間の経過によって、身体変化画像(エフェクト画像)は変化する。例えば、演奏者の心拍数が上昇すると、出現する粒子の数が多くなったり、その色が変化したりする。   FIG. 2 is a diagram illustrating an example of an image displayed on the display unit 1. In FIG. 2, as an example of the performance, an example is shown in which the performance of the piano is taken as an example and the joint motion image is a fingering image showing the shape of the fingering of the player of the piano. Specifically, the fingering image and the body change image are superimposed and displayed on the view image including the piano. In the fingering image, a finger to operate a piano keyboard (operator) is displayed superimposed on the keyboard. Further, from the keyboard played with the finger, it is obtained from a function using body data obtained from at least one of the gaze direction, heart rate, calorie consumption, body temperature change, blood sugar level, brain wave, etc. as parameters. The displayed body change image (effect image) is displayed. In FIG. 2, since it is an image showing a moment of a certain performance, a change in the body change image (effect image) cannot be expressed, but the body change image (effect image) changes as the performance time elapses. For example, when the heart rate of the performer increases, the number of particles that appear increases or the color changes.

このように、本発明は、演者のパフォーマンス時の感情の起伏や、視線方向等の要素を、エフェクト画像として、関節動作画像と共に表示することにより、パフォーマンス視聴において重要な要素である演者の感情の高まり等を表現することができる。   As described above, the present invention displays elements such as the undulation of the emotion during the performance of the performer and the direction of the line of sight as an effect image together with the joint motion image, so that the emotion of the performer that is an important element in performance viewing is displayed. We can express increase.

次に、本発明の第1の実施の形態を説明する。   Next, a first embodiment of the present invention will be described.

第1の実施の形態では、パフォーマンスの一例として、ピアノの演奏を例にし、関節動作画像がそのピアノの演奏者の運指の形状を示す運指画像である演奏情報表示装置について説明する。   In the first embodiment, a performance information display apparatus will be described in which a piano performance is taken as an example of a performance and the joint motion image is a fingering image showing the shape of the fingering of the player of the piano.

図3は、本発明の第1の実施の形態による演奏情報表示装置のブロック図である。   FIG. 3 is a block diagram of the performance information display device according to the first embodiment of the present invention.

演奏情報表示装置3は、表示部4と、表示制御部5と、空間認識センサ6(可視光カメラまたは赤外線カメラ等を含む)とを備える。演奏情報表示装置3の代表的な例としては、頭部に装着し、実世界(視界画像)を見ることができると共に、コンピュータグラフィックス等を視聴できるヘッドマウントディスプレイ(HMD)がある。   The performance information display device 3 includes a display unit 4, a display control unit 5, and a space recognition sensor 6 (including a visible light camera or an infrared camera). A typical example of the performance information display device 3 is a head mounted display (HMD) that can be worn on the head and can see the real world (view image) and can view computer graphics and the like.

図4は、本発明の第1の実施の形態における演奏情報表示装置3であるHMDの一例を示した図である。ユーザは、HMDを装着して、そこに映し出される楽器及び演奏画像を視聴しながら、演奏練習や、曲の鑑賞等を行う。   FIG. 4 is a diagram showing an example of an HMD that is the performance information display device 3 according to the first embodiment of the present invention. The user wears the HMD and performs performance practice, appreciation of music, etc. while viewing the musical instrument and performance image displayed on the HMD.

次に、表示制御部5の具体的な構成について説明する。図5は表示制御部5のブロック図である。   Next, a specific configuration of the display control unit 5 will be described. FIG. 5 is a block diagram of the display control unit 5.

表示制御部5は、MIDI(Musical Instrument Digital Interface)データと、画像基本データ(運指データ及び身体データ(基本となる身体変化画像も含む))とを含む演奏データが格納された格納部10と、MIDI(Musical Instrument Digital Interface)データと画像基本データ(運指データ及び身体データ)とが入力されるシーケンサ部11と、音源であってシーケンサ部11に入力されたMIDIデータに基づいて音声信号を出力する音声処理部12と、シーケンサ部11に入力された演奏画像データに基づいてコンピュータグラフィクスにより描画を行って出力画像データとして出力する画像処理部13と、から構成されている。   The display control unit 5 includes a storage unit 10 in which performance data including MIDI (Musical Instrument Digital Interface) data and basic image data (fingering data and body data (including a basic body change image)) are stored; , A sequencer unit 11 to which MIDI (Musical Instrument Digital Interface) data and basic image data (fingering data and body data) are input, and a sound signal that is a sound source based on the MIDI data input to the sequencer unit 11 An audio processing unit 12 for outputting and an image processing unit 13 for performing drawing by computer graphics based on performance image data input to the sequencer unit 11 and outputting as output image data.

格納部10に格納されるMIDIデータは、楽曲の演奏音のデータであって、MIDI規格に基づいて表わされている。MIDI規格は、電子楽器を外部から制御して演奏させるためのデータの規格であり、楽曲を構成する各音についてのデータを時系列にしたがって、電子楽器等に入力するように定められている。MIDIデータでは、楽曲の先頭から順次出現する音に対し、パートや手の区別に概ね対応するチャネルごとに、その音の音程や大きさ、長さ、その音の開始時点から次の音の開始時点までの間隔などの情報を与えている。   The MIDI data stored in the storage unit 10 is music performance data and is represented based on the MIDI standard. The MIDI standard is a data standard for playing an electronic musical instrument by controlling it from the outside. The MIDI standard is defined so that data on each sound constituting a musical composition is input to the electronic musical instrument or the like in time series. In MIDI data, for the sound that appears sequentially from the beginning of the song, for each channel that roughly corresponds to part or hand distinction, the pitch, magnitude, length, and start of the next sound from the beginning of that sound. Information such as the interval until the time is given.

本実施の形態では、そのMIDIデータに、演奏画像(運指データ及び身体変化画像(エフェクト画像))に必要な画像基本データ(運指データ及び身体データ)の一部を含めている。例えば、MIDIのオプション部分に、画像基本データ(運指データ及び身体データ)を格納している。   In the present embodiment, the MIDI data includes a part of basic image data (fingering data and body data) necessary for the performance image (fingering data and body change image (effect image)). For example, basic image data (fingering data and body data) is stored in an optional part of MIDI.

運指データは、演奏者に電子楽器等を実際に演奏してもらい、MIDIデータ(ノートナンバー(鍵盤位置)、デュレーション(音の長さ)、ベロシティ(打鍵強さ)等)を取得する。また、同時に、指の運指データの取得のため(関節動作画像を生成するに必要なデータ)、赤外線センサにより、演奏者の運指(手や指の動きを、3次元的に捉えることが可能で、上下左右、前後への移動の情報)も撮影する(モーションキャプチャする)。尚、このようなモーションキャプチャができる製品としては、Leap Motionがある。このように取得したデータを元に、ピアノ等の楽器に対する指の3次元の座標データを取得し、そのデータを、MIDIデータのテンポ情報に合わせて、時系列に配置する。   For fingering data, the player actually plays an electronic musical instrument or the like, and acquires MIDI data (note number (keyboard position), duration (sound length), velocity (keystroke strength), etc.). At the same time, in order to obtain finger fingering data (data necessary for generating a joint motion image), it is possible to capture a player's fingering (hand and finger movements three-dimensionally) using an infrared sensor. It is possible to capture (motion capture) also information on movement up and down, left and right, and back and forth. There is Leap Motion as a product that can perform such motion capture. Based on the data acquired in this way, three-dimensional coordinate data of a finger for a musical instrument such as a piano is acquired, and the data is arranged in time series in accordance with the tempo information of the MIDI data.

一方、身体変化画像(エフェクト画像)に必要な身体データは、上述した演奏の際、演奏者に、心拍計や体温計、視線方向検知器などの計測器を装着し、その計測器から身体変化情報(視線方向、心拍数、消費カロリー、体温変化、血糖値、脳波の少なくとも一つから得られる身体データ)を取得する。取得した身体データは、MIDIデータのテンポ情報に合わせて、時系列に配置する。   On the other hand, the body data necessary for the body change image (effect image) is obtained by wearing a measuring instrument such as a heart rate monitor, a thermometer, and a gaze direction detector on the performer during the performance described above. (Physical data obtained from at least one of gaze direction, heart rate, calories burned, body temperature change, blood glucose level, brain wave). The acquired body data is arranged in time series according to the tempo information of the MIDI data.

このように、取得されたMIDI(Musical Instrument Digital Interface)データと演奏画像(運指データ及び身体変化画像(エフェクト画像))とを含む演奏データは、格納部10に格納される。   In this way, performance data including acquired MIDI (Musical Instrument Digital Interface) data and performance images (fingering data and body change images (effect images)) is stored in the storage unit 10.

シーケンサ部11は、格納されているMIDI(Musical Instrument Digital Interface)データと、画像基本データ(運指データ及び身体データ)とを含む演奏データを入力し、時系列に沿って、MIDI(Musical Instrument Digital Interface)データと、画像基本データ(運指データ及び身体データ)とを分離する。そして、音声出力に必要なMIDIデータ(ノートナンバー(鍵盤位置)、デュレーション(音の長さ)、ベロシティ(打鍵強さ)等)を、音声処理部12に出力する。また、MIDI(Musical Instrument Digital Interface)データのうちのタイミング情報(再生トリガ)や、画像基本データ(運指データ及び身体データ)を、画像処理部13に出力する。   The sequencer unit 11 inputs performance data including stored MIDI (Musical Instrument Digital Interface) data and basic image data (fingering data and body data), and in time series, MIDI (Musical Instrument Digital Interface). Interface) data and basic image data (fingering data and body data) are separated. Then, MIDI data (note number (keyboard position), duration (sound length), velocity (key strength), etc.) necessary for audio output is output to the audio processing unit 12. Also, timing information (playback trigger) and basic image data (fingering data and body data) in MIDI (Musical Instrument Digital Interface) data are output to the image processing unit 13.

音声処理部12は、MIDI(Musical Instrument Digital Interface)データに基づいて音声信号を生成し、外部の出力装置、例えば、電子ピアノ、MIDIキーボード等に出力する。   The sound processing unit 12 generates a sound signal based on MIDI (Musical Instrument Digital Interface) data and outputs the sound signal to an external output device such as an electronic piano or a MIDI keyboard.

画像処理部13は、MIDI(Musical Instrument Digital Interface)データと、画像基本データ(運指データ及び身体データ)に基づいて、運指画像と、身体変化画像(エフェクト画像)とを生成する。   The image processing unit 13 generates a fingering image and a body change image (effect image) based on MIDI (Musical Instrument Digital Interface) data and basic image data (fingering data and body data).

まず、運指画像の生成について説明する。   First, generation of a fingering image will be described.

運指データとMIDIデータとを解析することにより、鍵盤上のある鍵をどのタイミングで打鍵すればよいかが分かる。しかしながら、実際の指の動きや形状は、打鍵対象が黒鍵であるか白鍵であるか、また、直前直後にどの指がどの鍵を弾くかなどに応じて変化する。本実施の形態では、指の運指データとして、モーションキャプチャにより取得した演奏者の指の3次元の座標データを、時系列的に取得している。   By analyzing the fingering data and the MIDI data, it is possible to know at what timing a certain key on the keyboard should be pressed. However, the actual movement and shape of the finger varies depending on whether the target of keystroke is a black key or a white key, and which finger plays which key immediately before and after. In the present embodiment, the three-dimensional coordinate data of the performer's finger acquired by motion capture is acquired in time series as finger fingering data.

一方、画像処理部13は、空間認識センサ6の信号により、演奏情報表示装置3の表示部4に映し出される視界画像がどのような画像であるか、具体的には、ユーザが見ているのは、ピアノのどの部分(例えば、ピアノのどの鍵盤であるのか)を見ているかを解析する。   On the other hand, the image processing unit 13 uses the signal of the space recognition sensor 6 to see what the visual field image displayed on the display unit 4 of the performance information display device 3 is, specifically, the user is viewing. Analyzes which part of the piano is being viewed (for example, which keyboard of the piano is being viewed).

例えば、画像処理部13の空間認識の方法として、既知のピアノの足および鍵盤から構成されるピアノモデルを記憶しておく。この既知のピアノモデルは、複数角度から撮影した画像より構成されるものとする。次に、空間認識センサ6の位置を撮影基準位置とし、水平面を把握し、その面積や、連続性から床面を認識する。そして、空間認識センサ6により、床と連続する対象物を認識し、その形状および距離を推定する。認識された対象物が、記憶されているピアノモデルと一致するか推定する。認識した対象物が既知のピアノモデルと合致する場合に、撮影基準位置とこの対象物との位置関係から実際のピアノとの角度、距離を推定する。そして、対象物と既知のピアノモデルとの鍵盤の位置関係は既知であるとし、得られたピアノとの角度、距離を元に鍵盤の位置を推定する。   For example, as a spatial recognition method of the image processing unit 13, a piano model composed of known piano feet and keyboards is stored. This known piano model is composed of images taken from a plurality of angles. Next, the position of the space recognition sensor 6 is set as the photographing reference position, the horizontal plane is grasped, and the floor surface is recognized from the area and continuity. Then, the space recognition sensor 6 recognizes an object continuous with the floor, and estimates its shape and distance. It is estimated whether the recognized object matches the stored piano model. When the recognized object matches a known piano model, the angle and distance from the actual piano are estimated from the positional relationship between the photographing reference position and the object. Then, the positional relationship of the keyboard between the object and the known piano model is known, and the position of the keyboard is estimated based on the angle and distance from the obtained piano.

このように、ユーザが、現在、見ているピアノの鍵盤位置を認識することができるので、その鍵盤位置に対応する演奏者の指の3次元の座標データを特定して運指画像を生成し、その運指画像を、ユーザが、現在見ているピアノの鍵盤位置に重畳する。尚、指や手、腕の皮膚や爪などの形状を表わすデータは、画像処理部13の内部のメモリに予め蓄積しておき、これらのデータと演奏者の指の3次元の座標データとに基づいて、運指画像を描画するようにする。   Thus, since the user can recognize the keyboard position of the piano currently being viewed, the fingering image is generated by specifying the three-dimensional coordinate data of the player's finger corresponding to the keyboard position. The fingering image is superimposed on the keyboard position of the piano that the user is currently viewing. It should be noted that data representing the shapes of fingers, hands, arm skin, nails and the like are stored in advance in the memory inside the image processing unit 13, and these data and the three-dimensional coordinate data of the performer's fingers are stored. Based on this, a fingering image is drawn.

次に、画像処理部13による身体変化画像(エフェクト画像)の生成について説明する。   Next, generation of a body change image (effect image) by the image processing unit 13 will be described.

身体変化画像(エフェクト画像)は、身体データに基づいて生成する。身体データは、上述した通り、演奏の際、演奏者に、心拍計や体温計、視線方向検知器などの計測器を装着し、その計測器から得られたデータが正規化され、そのデータがMIDIデータのテンポ情報に合わせて時系列に配置されている。そこで、MIDIデータと身体データとをパラメータとする関数から、身体変化画像(エフェクト画像)を生成する。具体的な一例を説明すると、MIDIデータのベロシティ(打鍵強さ)の値をP、演奏者の心拍数のデータをVとすると、エフェクトE(感情値)は、以下の式で表現することができる。
E=P×V
次に、得られたエフェクトEを0から100の間で正規化する。そして、あらかじめ設定した身体変化画像(エフェクト画像)に反映させる。例えば、図6に示すように、コンピュータグラフィックスのパーティクル・システムの一つである粒子の発生量に反映させ、エフェクトEが小さいほど、粒子の発生量を少なくする(エフェクトEが0の場合には粒子は発生しない)。一方、エフェクトEが大きいほど、粒子の発生量を多くする(エフェクトEが100の場合には粒子の発生量は最大となる)。
The body change image (effect image) is generated based on the body data. As described above, the body data is worn by a measuring instrument such as a heart rate monitor, a thermometer, and a gaze direction detector when performing, and the data obtained from the measuring instrument is normalized. It is arranged in time series according to the tempo information of the data. Therefore, a body change image (effect image) is generated from a function using MIDI data and body data as parameters. A specific example will be described. When the velocity (keying strength) value of MIDI data is P and the heart rate data of the performer is V, the effect E (emotional value) can be expressed by the following equation. it can.
E = P × V
Next, the obtained effect E is normalized between 0 and 100. Then, it is reflected in a preset body change image (effect image). For example, as shown in FIG. 6, it is reflected in the generation amount of particles which is one of the particle systems of computer graphics. The smaller the effect E, the smaller the generation amount of particles (when the effect E is 0). Does not generate particles). On the other hand, the larger the effect E, the larger the amount of particles generated (when the effect E is 100, the amount of particles generated is the maximum).

また、これに限らず、エフェクトに揺らぎの要素を加えても良い。例えば、エフェクトE(感情値)に、粒子の発生速度や消える速度、粒子の発生角度を変化させる揺らぎのパラメータfを加え、
E=P×V×f
とし、パラメータfをランダムに変化させるようにしても良い。このようにすれば、図7のように粒子の消える速度や、図8のように粒子の発生速度、図9のように粒子が発生させる角度を変化させることができる。更に、MIDIデータの他の情報、例えば、デュレーション等の値を利用して、粒子にうねりを与えるようにしても良い。
Further, the present invention is not limited to this, and a fluctuation element may be added to the effect. For example, to the effect E (emotion value), a fluctuation parameter f that changes the generation speed and disappearance speed of the particle and the generation angle of the particle is added,
E = P × V × f
And the parameter f may be changed randomly. In this way, it is possible to change the speed at which particles disappear as shown in FIG. 7, the generation speed of particles as shown in FIG. 8, and the angle at which particles are generated as shown in FIG. Further, other information of the MIDI data, for example, a value such as a duration may be used to give undulation to the particles.

また、表示する画像は、粒子だけでなく、音符や他のキャラクタであっても良い。図10は、身体変化画像(エフェクト画像)がキャラクタである例を示した図である。図10の例では、左側の図はエフェクトE(感情値)が小さい場合のキャラクタの様子を示したものであり、右側の図はエフェクトE(感情値)が大きい場合のキャラクタの様子を示したものである。エフェクトE(感情値)が小さい場合にはキャラクタは暗いイメージとなり、エフェクトE(感情値)が大きい場合にはキャラクタは明るいイメージとなる。このように、エフェクトE(感情値)に応じてキャラクタの動作を変化させるようにしても良い。更に、キャラクタの動作の変化に加え、キャラクタから上述したエフェクトE(感情値)に応じた粒子を発生させるようにしても良い。   Further, the image to be displayed may be not only particles but also notes and other characters. FIG. 10 is a diagram illustrating an example in which the body change image (effect image) is a character. In the example of FIG. 10, the left diagram shows the character when the effect E (emotional value) is small, and the right diagram shows the character when the effect E (emotional value) is large. Is. When the effect E (emotional value) is small, the character has a dark image, and when the effect E (emotional value) is large, the character has a bright image. In this way, the character motion may be changed according to the effect E (emotion value). Furthermore, in addition to the change in the character's movement, particles corresponding to the above-described effect E (emotion value) may be generated from the character.

画像処理部13は、このようにして生成された身体変化画像(エフェクト画像)を、運指画像に、特に、そのタイミングで、楽器の操作子(例えば、ピアノの鍵盤)を押さえている指の画像上に重畳して表示する。   The image processing unit 13 uses the body change image (effect image) generated in this manner as a fingering image, particularly at the timing of the finger pressing the instrument operator (for example, a piano keyboard). It is displayed superimposed on the image.

更に、画像処理部13は、身体データが視線方向を含む場合、その視線方向を明示する画像を身体変化画像に追加しても良い。図11は、視線方向を明示する画像の一例を示した図である。図11の例では、ユーザがピアノの正面を見ており、実際のピアノの鍵盤上に、運指画像と身体変化画像(エフェクト画像)とが重畳されて表示されている例である。   Furthermore, when the body data includes the line-of-sight direction, the image processing unit 13 may add an image that clearly indicates the line-of-sight direction to the body change image. FIG. 11 is a diagram illustrating an example of an image that clearly indicates the line-of-sight direction. In the example of FIG. 11, the user is looking at the front of the piano, and the fingering image and the body change image (effect image) are superimposed and displayed on the actual piano keyboard.

続いて、第1の実施の形態の動作を説明する。   Next, the operation of the first embodiment will be described.

図12は第1の実施の形態の動作フローチャートである。   FIG. 12 is an operation flowchart of the first embodiment.

まず、表示制御部5のシーケンサ部11は、格納部10に格納されている演奏データを読み込む(Step 100)。   First, the sequencer unit 11 of the display control unit 5 reads performance data stored in the storage unit 10 (Step 100).

シーケンサ部11は、演奏データのMIDI(Musical Instrument Digital Interface)データからタイミング情報を抽出する(Step 101)。   The sequencer unit 11 extracts timing information from MIDI (Musical Instrument Digital Interface) data of performance data (Step 101).

次に、画像処理部13は、空間認識センサ6の結果により、演奏情報表示装置3の表示部4に映し出される対象物と演奏情報表示装置3との位置関係を推定する(Step 102)。そして、推定された位置関係に基づいて、運指画像を生成する(Step 103)。   Next, the image processing unit 13 estimates the positional relationship between the object displayed on the display unit 4 of the performance information display device 3 and the performance information display device 3 based on the result of the space recognition sensor 6 (Step 102). Then, a fingering image is generated based on the estimated positional relationship (Step 103).

また、画像処理部13は、MIDIデータと身体データとをパラメータとする関数から、身体変化画像(エフェクト画像)の効果であるエフェクトを算出する(Step 104)。そして、算出されたエフェクトから、身体変化画像(エフェクト画像)を生成する(Step 105)。   Further, the image processing unit 13 calculates an effect which is an effect of the body change image (effect image) from a function having MIDI data and body data as parameters (Step 104). Then, a body change image (effect image) is generated from the calculated effect (Step 105).

最後に、音声出力のタイミングに合わせて、生成した運指画像及び身体変化画像(エフェクト画像)を、視界画像中の対象物である楽器の操作子上に重畳して表示する(Step 106)。   Finally, the generated fingering image and body change image (effect image) are superimposed and displayed on the operator of the musical instrument which is the object in the view field image (Step 106) in accordance with the timing of the audio output.

第1の実施の形態は、演奏者の演奏時の感情の起伏や、視線方向等の要素を、エフェクト画像として、運指画像と共に表示することにより、演奏視聴において重要な要素である演奏者の感情の高まり等を表現することができる。   In the first embodiment, by displaying elements such as undulations of emotion at the time of performance of the performer and gaze direction as an effect image together with the fingering image, the performer's important elements in performance viewing Can express emotional growth.

尚、上述した第1の実施の形態では、図4に示すヘッドマウントディスプレイ(HMD)を例にして説明した。しかし、これに限らず、例えば、スマートフォンを装着できるゴーグルに、スマートフォンを装着してヘッドマウントディスプレイ(HMD)と同様な機能を実現しても良い。   In the above-described first embodiment, the head mounted display (HMD) shown in FIG. 4 has been described as an example. However, the present invention is not limited to this, and for example, a function similar to that of a head mounted display (HMD) may be realized by attaching a smartphone to goggles to which a smartphone can be attached.

図13はスマートフォンを利用したヘッドマウントディスプレイ(HMD)の一例を示した図である。図13では、スマートフォン50を収納、装着できるゴーグル51を示している。スマートフォン50は、カメラや加速度センサ等が装備されているため、カメラから視界画像を撮影することができ、また、各種センサのセンシング情報により、空間認識を行うことができる。よって、スマートフォンを利用したヘッドマウントディスプレイ(HMD)でも、上述した演奏情報表示装置3と同様な機能を実現できる。   FIG. 13 is a diagram illustrating an example of a head mounted display (HMD) using a smartphone. FIG. 13 shows a goggle 51 that can store and wear the smartphone 50. Since the smartphone 50 is equipped with a camera, an acceleration sensor, and the like, it can take a field-of-view image from the camera, and can perform space recognition based on sensing information of various sensors. Therefore, the same function as the performance information display device 3 described above can be realized even with a head-mounted display (HMD) using a smartphone.

また、MIDI(Musical Instrument Digital Interface)データ等の音楽データ、及び画像基本データ(運指データ及び身体データ(基本となる身体変化画像も含む))であるが、ユーザが店舗に直接出向いてそれらデータを購入しても良いが、例えば、図14のように、音楽データ及び画像基本データを配信するコンテンツ配信サーバ60を用意し、ユーザが演奏情報表示装置3により、キーコードを用いてアクセスし、音楽データ及び画像基本データをダウンロードして取得するようにしても良い。この場合、演奏情報表示装置3が通信機能を有するヘッドマウントディスプレイ(HMD)やスマートフォン場合に有効である。   Also, music data such as MIDI (Musical Instrument Digital Interface) data and basic image data (fingering data and physical data (including basic physical change images)), but the user goes directly to the store to store the data. For example, as shown in FIG. 14, a content distribution server 60 for distributing music data and basic image data is prepared, and the user accesses the performance information display device 3 using a key code, Music data and basic image data may be downloaded and acquired. In this case, the performance information display device 3 is effective in the case of a head mounted display (HMD) or a smartphone having a communication function.

第2の実施の形態を説明する。   A second embodiment will be described.

第2の実施の形態は、上述した第1の実施の形態に、演奏視聴モードを追加した形態である。   In the second embodiment, a performance viewing mode is added to the first embodiment described above.

上述したように、ユーザは通常、ピアノ等の楽器を見ているのであるが、その視線角度はまちまちである。例えば、ピアノ等の楽器全体を見ている場合や、ピアノ等の楽器を横から見ている場合などである。更には、ピアノ等の楽器自体を見ていない場合もある。   As described above, the user usually looks at a musical instrument such as a piano, but the line-of-sight angle varies. For example, when the whole instrument such as a piano is viewed, or when the instrument such as a piano is viewed from the side. Furthermore, there are cases where the instrument itself such as a piano is not seen.

一方、上述したように、画像処理部13は、空間認識センサ6により、演奏情報表示装置3の表示部4に映し出される視界画像がどのような画像であるか、認識することができ、ピアノ等の楽器を横から見ている場合や、ピアノ等の楽器自体を見ていない場合も認識可能である。   On the other hand, as described above, the image processing unit 13 can recognize the visual field image displayed on the display unit 4 of the performance information display device 3 by the space recognition sensor 6, and can recognize a piano or the like. It is also possible to recognize when the instrument is viewed from the side or when the instrument such as a piano is not viewed.

そこで、第2の実施の形態では、画像処理部13は、ユーザの視線角度に応じて演奏画像を変化させる例を説明する。   Therefore, in the second embodiment, an example in which the image processing unit 13 changes the performance image according to the user's line-of-sight angle will be described.

具体的には、運指画像を単なる指及び腕等の画像のみならず、演奏者全体の画像も表示するようにする。そのため、画像処理部13は、楽器を含む所定の基準部位と、演奏情報表示装置3との位置関係を検出し、その演奏情報表示装置3の表示部4に表示される方向から見た演奏者も含む運指画像を表示するようにする。   Specifically, the fingering image is displayed not only as an image of a finger and an arm but also as an image of the entire player. Therefore, the image processing unit 13 detects the positional relationship between the predetermined reference portion including the musical instrument and the performance information display device 3, and the performer viewed from the direction displayed on the display unit 4 of the performance information display device 3. A fingering image including

図15は、ユーザがHMDを装着した状態で、ピアノを斜め方向から見た時に表示部に表示される画像の一例を示した図である。図15では、斜め方向から見た運指及び演奏者の画像と、身体変化画像(エフェクト画像)とが重畳されて表示されている。   FIG. 15 is a diagram illustrating an example of an image displayed on the display unit when the user wears the HMD and sees the piano from an oblique direction. In FIG. 15, an image of a fingering and a player viewed from an oblique direction and a body change image (effect image) are superimposed and displayed.

尚、ユーザがHMDを装着した状態で、ピアノの鍵盤を見えない位置から鑑賞する場合もあり得る。その場合は、その位置から自然に見える状態のものを表示すれば良い。例えば、図16に示すように、HMDを装着した状態で見える視界画像(実映像)が視界画像A(複数人がHMDを装着して視聴している)である場合、その位置から見える運指画像、演奏者の後ろ姿や、身体変化画像(エフェクト画像)の一部等である仮想画像Bを生成し、視界画像Aと仮想画像Bとを重畳して、画像Cを表示部に表示する。尚、図16に示す仮想画像Bでは、運指画像、演奏者の後ろ姿や、身体変化画像(エフェクト画像)の一部に加えて、演奏者のビデオ画像、演奏している曲の楽譜及び身体変化情報の変化を時系列的に表示したグラフも表示している。   Note that the user may appreciate the piano keyboard from a position where the user cannot see it with the HMD attached. In that case, it is only necessary to display an image that can be seen naturally from that position. For example, as shown in FIG. 16, when the view image (actual video) that can be seen with the HMD attached is the view image A (a plurality of people are wearing the HMD for viewing), the fingering that can be seen from that position A virtual image B that is an image, a back view of a player, a part of a body change image (effect image), or the like is generated, and the view image A and the virtual image B are superimposed to display the image C on the display unit. In addition, in the virtual image B shown in FIG. 16, in addition to a fingering image, the back view of the performer, and a part of the body change image (effect image), the video image of the performer, the score of the song being played, and the body A graph displaying changes in change information in time series is also displayed.

第2の実施の形態は、ユーザの視聴位置、視聴方向によって、運指及び演奏者の画像と身体変化画像(エフェクト画像)の表示を変化させているので、ユーザにとって不自然な画像とはならない効果がある。   In the second embodiment, the display of the fingering and performer images and the body change image (effect image) is changed according to the viewing position and viewing direction of the user, so that the image is not unnatural for the user. effective.

第3の実施の形態を説明する。   A third embodiment will be described.

第3の実施の形態は、上述した第1、第2の実施の形態に、練習モードを追加した形態である。   In the third embodiment, a practice mode is added to the first and second embodiments described above.

本発明の演奏画像を見ながら、楽器の演奏練習をする場合、自分の指と運指画像とが重なって表示される。これは、練習する際に、自分の指を運指画像と重なるように運べば良いので、都合が良い。しかし、自分の指が運指画像と重なると、自分の指が見づらく、不都合になる場合もあると思われる。   When practicing playing a musical instrument while viewing the performance image of the present invention, the finger and the fingering image are displayed in an overlapping manner. This is convenient because it is only necessary to carry your finger so that it overlaps the fingering image when you practice. However, if your finger overlaps the fingering image, it may be difficult to see your finger, which may be inconvenient.

そこで、第3の実施の形態では、ピアノ等の楽器の操作子(例えば、ピアノの鍵盤)と、演奏画像(運指及び身体変化画像(エフェクト画像))とが重ならないように表示する例を説明する。   Therefore, in the third embodiment, an example of displaying an operator of a musical instrument such as a piano (for example, a piano keyboard) and a performance image (fingering and body change image (effect image)) so as not to overlap. explain.

画像処理部13は、ピアノ等の楽器とHMD等の演奏情報表示装置3との位置関係を推定し、ピアノ等の楽器の操作子の位置を確定する。その上で、ピアノ等の楽器の操作子に重ならないように、演奏画像(運指及び身体変化画像(エフェクト画像))を表示する。この時、予めピアノ等の楽器の操作子(例えば、ピアノの鍵盤)の操作子画像を用意しておき、この仮想の操作子画像の上に、演奏画像(運指及び身体変化画像(エフェクト画像))を表示するようにしても良い。   The image processing unit 13 estimates the positional relationship between a musical instrument such as a piano and the performance information display device 3 such as an HMD, and determines the position of an operator of the musical instrument such as a piano. Then, a performance image (fingering and body change image (effect image)) is displayed so as not to overlap with an operator of a musical instrument such as a piano. At this time, an operator image of an operator of a musical instrument such as a piano (for example, a piano keyboard) is prepared in advance, and a performance image (fingering and body change image (effect image) is provided on the virtual operator image. )) May be displayed.

図17は、実際のピアノの上部に、ピアノの操作子(鍵盤)の操作子画像を表示し、この仮想の操作子画像の上に、演奏画像を表示している例である。   FIG. 17 shows an example in which an operator image of a piano operator (keyboard) is displayed on the upper part of an actual piano, and a performance image is displayed on the virtual operator image.

第3の実施の形態は、実際のピアノ等の楽器の操作子(例えば、ピアノの鍵盤)と、演奏画像(運指及び身体変化画像(エフェクト画像))とが重ならないように表示するモードを備えているので、練習の際、演奏画像により、自分の指が見づらくなるという、不都合を解消することができる。   In the third embodiment, a mode for displaying an operator of an instrument such as an actual piano (for example, a piano keyboard) and a performance image (fingering and body change image (effect image)) so as not to overlap. Since it is provided, it is possible to eliminate the inconvenience that it is difficult to see one's finger due to the performance image during practice.

第4の実施の形態を説明する。   A fourth embodiment will be described.

第4の実施の形態は、放送番組連携の例を説明する。尚、第4の実施の形態では、演奏情報表示装置3に格納される演奏データに関するコンテンツ、例えば、実際に楽器を演奏するコンサートの番組コンテンツを放送し、この番組と連動して演奏情報表示装置3では、演奏データを再生する場合を説明する。   In the fourth embodiment, an example of broadcast program cooperation will be described. In the fourth embodiment, content related to performance data stored in the performance information display device 3, for example, program content of a concert for actually playing a musical instrument is broadcast, and the performance information display device is linked to this program. 3 describes a case where performance data is reproduced.

図18は第4の実施の形態のブロック図である。   FIG. 18 is a block diagram of the fourth embodiment.

第4の実施の形態は、放送局20と、テレビ受信機21と、演奏情報表示装置3とを有している。尚、上述した実施の形態と同様な構成のものについては、同じ符号を付してある。   The fourth embodiment includes a broadcasting station 20, a television receiver 21, and a performance information display device 3. In addition, the same code | symbol is attached | subjected about the thing of the structure similar to embodiment mentioned above.

放送局20は、所定のキイ音声の出力と同時に、イベントメッセージ等でキートリガを送信する。   The broadcast station 20 transmits a key trigger by an event message or the like simultaneously with outputting a predetermined key sound.

テレビ受信機21は、キイ音声とイベントメッセージとを受信する。そして、受信したキイ音声を出力する。テレビ受信機21から出力される音声は、演奏情報表示装置3の音源取得部30により取得される。一方、テレビ受信機21は、ハイブリッドキャストアプリケーションにより、受信したイベントメッセージの電文を抽出し、当該電文を同一ネットワーク内に存在する演奏情報表示装置3に送信され、演奏情報表示装置3のキートリガ取得部31により取得される。   The television receiver 21 receives key sounds and event messages. Then, the received key sound is output. The sound output from the television receiver 21 is acquired by the sound source acquisition unit 30 of the performance information display device 3. On the other hand, the television receiver 21 extracts a telegram of the received event message by the hybrid cast application, transmits the telegram to the performance information display device 3 existing in the same network, and obtains a key trigger acquisition unit of the performance information display device 3. 31.

演奏情報表示装置3は、音源取得部30により取得したキイ音源と、キートリガ取得部31により取得したキートリガとから、その時間差を誤差調整量として記録する。尚、その時間差が、テレビ受信機21の個体差によるデコード等の遅延時間である。   The performance information display device 3 records the time difference between the key sound source acquired by the sound source acquisition unit 30 and the key trigger acquired by the key trigger acquisition unit 31 as an error adjustment amount. The time difference is a delay time for decoding or the like due to individual differences of the television receiver 21.

演奏情報表示装置3は、取得したキートリガを基準に、誤差調整量を加算し、演奏情報表示装置3の格納部11に格納されている演奏データの再生を開始する。   The performance information display device 3 adds an error adjustment amount based on the acquired key trigger, and starts playing the performance data stored in the storage unit 11 of the performance information display device 3.

第4の実施の形態では、テレビ受信機21の個体差によるデコード等の遅延時間を考慮することで、放送番組と連動した演奏データの再生を行うことができる。   In the fourth embodiment, the performance data linked to the broadcast program can be reproduced by taking into account the delay time such as decoding due to individual differences of the television receiver 21.

第5の実施の形態を説明する。   A fifth embodiment will be described.

上述した実施の形態では、楽器等の演奏を例にして実施の形態を説明したが、本発明はこれに限定されない。第5の実施の形態では、パフォーマンスが書道の例にし、関節動作画像が書道における筆、指及び腕の画像である場合を説明する。   In the above-described embodiment, the embodiment has been described by taking the performance of a musical instrument or the like as an example, but the present invention is not limited to this. In the fifth embodiment, a case where performance is an example of calligraphy and a joint motion image is an image of a brush, a finger, and an arm in calligraphy will be described.

第5の実施の形態の構成は基本的には上述した実施の形態と同様な構成であるが、表示制御部5の格納部10に格納されるデータが音のデータが不要のため、画像基本データ(運指データ及び身体データ)のみである点、MIDI(Musical Instrument Digital Interface)データを分離するシーケンサ部11が不要な点にある。   The configuration of the fifth embodiment is basically the same as that of the above-described embodiment, but since the data stored in the storage unit 10 of the display control unit 5 does not require sound data, the basic image There are only data (fingering data and body data) and a sequencer unit 11 for separating MIDI (Musical Instrument Digital Interface) data is unnecessary.

一方、画像基本データには、書き順に沿った時系列的な運指データ(筆、指及び腕の画像データ)と、その時系列的に沿った身体データ及びその時系列的に沿った筆跡の生成画像が含まれる。   On the other hand, the basic image data includes time-series fingering data (brush, finger and arm image data) along the writing order, body data along the time series, and handwriting generation images along the time series. Is included.

尚、運指データは、演者に実際に字を書いてもらい、赤外線センサにより、演者の筆運びの運指(手や指、筆の動き、筆跡を、3次元的に捉えることが可能で、上下左右、前後への移動の情報)をモーションキャプチャし、取得したデータを元に、筆運びの3次元の座標データを取得し、そのデータを時系列に配置する。   In addition, the fingering data allows the performer to actually write the characters, and the infrared sensor can capture the performer's brushing fingering (hands, fingers, brush movements, handwriting in three dimensions, Information on movement up and down, left and right, and back and forth), and based on the acquired data, 3D coordinate data of brush strokes is acquired, and the data is arranged in time series.

また、身体変化画像(エフェクト画像)に必要な身体データは、上述した書道のパフォーマンスの際、演者に、心拍計や体温計、視線方向検知器などの計測器を装着し、その計測器から身体変化情報(視線方向、心拍数、消費カロリー、体温変化、血糖値、脳波の少なくとも一つから得られる身体データ)を取得する。取得した身体データは、運指データの時系列にあわせて配置する。   The body data required for the body change image (effect image) can be obtained from the above-mentioned calligraphy performance by wearing a measuring instrument such as a heart rate monitor, thermometer, and gaze direction detector. Information (physical data obtained from at least one of gaze direction, heart rate, calories burned, body temperature change, blood glucose level, brain wave) is acquired. The acquired body data is arranged according to the time series of fingering data.

一方、画像処理部13の空間認識であるが、書道に用いられる半紙は事実上の標準規格(ディファクトスタンダード)であるため、半紙を既知モデルとすれば、容易に空間認識が可能である。従って、ユーザが、現在、見ている半紙の位置を認識することができるので、その半紙位置に対応する演者の筆運びの運指の3次元の座標データを特定して運指画像を生成し、その運指画像及びその時間の身体変化画像(エフェクト画像)を、ユーザが、現在見ている半紙位置に重畳する。   On the other hand, the spatial recognition of the image processing unit 13, the half paper used for calligraphy is a de facto standard, so if the half paper is a known model, the space can be easily recognized. Therefore, since the user can recognize the position of the half paper currently being viewed, the fingering image is generated by specifying the three-dimensional coordinate data of the performer's brush fingering corresponding to the half paper position. The fingering image and the body change image (effect image) at that time are superimposed on the half paper position that the user is currently viewing.

図19は、パフォーマンスが書道の場合の表示部1に表示される画像の一例を示した図である。図19では、半紙を含む視界画像に、運指画像と身体変化画像とが重畳されて表示されている。運指画像として、筆、筆を操る指や手、及び筆跡が、半紙に重ね合わせて表示されている。更に、演者に操られる筆上からは、その演奏時の視線方向、心拍数、消費カロリー、体温変化、血糖値、脳波等の少なくとも一つから得られる身体データをパラメータとする関数から得られた身体変化画像(エフェクト画像)が表示されている。   FIG. 19 is a diagram illustrating an example of an image displayed on the display unit 1 when the performance is calligraphy. In FIG. 19, the fingering image and the body change image are superimposed and displayed on the view image including the half paper. As a fingering image, a brush, a finger and a hand operating the brush, and a handwriting are displayed superimposed on a half-paper. Furthermore, from the brush operated by the performer, it was obtained from a function using as parameters the body data obtained from at least one of the gaze direction, heart rate, calories burned, body temperature change, blood sugar level, brain wave, etc. A body change image (effect image) is displayed.

第5の実施の形態は、演者が行うパフォーマンスの関節動作画像と、その演者のパフォーマンス時の感情の起伏や、視線方向等の要素を、エフェクト画像とを表示することにより、パフォーマンス時の演者の感情の起伏を表現することができる。   The fifth embodiment displays the joint motion image of the performance performed by the performer and the effect image of elements such as the undulations of the performer's performance and the direction of the gaze direction. Express emotional relief.

尚、上述した実施の形態において、ピアノや半紙等が実際にない場合であっても、仮想的なピアノや半紙の画像を生成し、自分の好きな位置に、仮想的なピアノや半紙の画像、運指画像及び身体変化画像(エフェクト画像)を表示させるようにしても良い。   In the above-described embodiment, even if there is no actual piano or half paper, a virtual piano or half paper image is generated, and the virtual piano or half paper image is placed at a favorite position. The fingering image and the body change image (effect image) may be displayed.

上述した実施の形態では、各部をハードウェアで構成したが、上述した動作の処理をプロセッサ(例えば、CPU)に行わせるプログラムによっても構成できる。   In the above-described embodiment, each unit is configured by hardware, but can also be configured by a program that causes a processor (for example, CPU) to perform the above-described operation processing.

図20は、プロセッサ等で構成したパフォーマンス表示装置100のブロック図である。   FIG. 20 is a block diagram of the performance display device 100 configured with a processor or the like.

パフォーマンス表示装置100は、上述したディスプレイ等の表示部4と、空間認識センサ6(可視光カメラまたは赤外線カメラ等を含む)とを備える。更に、パフォーマンス表示装置100は、プロセッサ110と、メモリ111と、メモリ112とを備える。   The performance display device 100 includes a display unit 4 such as the above-described display and a space recognition sensor 6 (including a visible light camera or an infrared camera). Furthermore, the performance display device 100 includes a processor 110, a memory 111, and a memory 112.

メモリ111は主メモリであり、メモリ111には上述した表示制御部5に対応する処理を行うプログラムが格納されている。メモリ112はハードディスクやフラシュメモリ等などであり、メモリ112には、関節動作データ、身体変化データ及び身体変化画像データが格納される。そして、プロセッサ110がメモリ101に格納されているプログラムを実行し、関節動作データ、身体変化データ及び身体変化画像データを処理することで、上述した実施の形態と同様な機能が実現される。   The memory 111 is a main memory, and the memory 111 stores a program for performing processing corresponding to the display control unit 5 described above. The memory 112 is a hard disk, a flash memory, or the like. The memory 112 stores joint motion data, body change data, and body change image data. Then, the processor 110 executes a program stored in the memory 101 and processes joint motion data, body change data, and body change image data, thereby realizing the same function as the above-described embodiment.

以上好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。   Although the present invention has been described with reference to the preferred embodiments, the present invention is not necessarily limited to the above-described embodiments, and various modifications can be made within the scope of the technical idea.

本出願は、2015年8月17日に出願された日本出願特願2015−160595号、及び2015年9月11日に出願された日本出願特願2015−179046号を基礎とする優先権を主張し、その開示の全てをここに取り込む。   This application claims priority based on Japanese Patent Application No. 2015-160595 filed on August 17, 2015 and Japanese Patent Application No. 2015-179046 filed on September 11, 2015. The entire disclosure of which is incorporated herein.

1 表示部
2 表示制御部
3 演奏情報表示装置
4 表示部
5 表示制御部
6 空間認識センサ
10 格納部
11 シーケンサ部
12 音声処理部
13 画像処理部
20 放送局
21 テレビ受信機
30 音源取得部
31 キートリガ取得部
50 スマートフォン
51 ゴーグル
60 コンテンツサーバ
100 パフォーマンス表示装置
110 プロセッサ
111 メモリ
112 メモリ
DESCRIPTION OF SYMBOLS 1 Display part 2 Display control part 3 Performance information display apparatus 4 Display part 5 Display control part 6 Space recognition sensor 10 Storage part 11 Sequencer part 12 Audio | voice processing part 13 Image processing part 20 Broadcast station 21 Television receiver 30 Sound source acquisition part 31 Key trigger Acquisition unit 50 Smartphone 51 Goggles 60 Content server 100 Performance display device 110 Processor 111 Memory 112 Memory

Claims (27)

演者のパフォーマンスをモーションキャプチャして得られた関節動作画像と、前記演者のパフォーマンス時の身体変化を画像化した身体変化画像とを少なくとも含む仮想画像を、光学的透過又は撮影されたユーザの視界画像に重畳して表示部に表示する表示処理を
コンピュータに実行させるプログラム。
A visual field image of a user optically transmitted or photographed as a virtual image including at least a joint motion image obtained by motion-capturing a performer's performance and a physical change image obtained by imaging the physical change during the performer's performance A program that causes a computer to execute display processing that is displayed on a display unit in a superimposed manner.
前記表示処理は、
前記関節動作画像の関節動作データと、前記身体変化の身体変化データと、前記身体変化画像の身体変化画像データとが格納された記録媒体から、所定のパフォーマンス時の関節動作画像データ及び身体変化データを読み出す処理と、
前記読み出した関節動作画像データに基づいて、前記所定のパフォーマンス時の関節動作画像を生成する処理と、
前記読み出した身体変化データに基づいて、前記所定のパフォーマンス時の身体変化画像を生成する処理と、
前記所定のパフォーマンス時の関節動作画像及び身体変化画像を、ユーザの視界画像に重畳して表示部に表示する処理と
を有する請求項1に記載のプログラム。
The display process includes
The joint motion image data and the body change data at a predetermined performance are recorded from the recording medium storing the joint motion data of the joint motion image, the body change data of the body change, and the body change image data of the body change image. The process of reading
Based on the read joint motion image data, processing for generating a joint motion image at the predetermined performance;
A process of generating a body change image at the predetermined performance based on the read body change data;
The program according to claim 1, further comprising: a process of superimposing a joint motion image and a body change image at the predetermined performance on a view field image of a user and displaying the superimposed image on a display unit.
前記身体変化データは、前記演者のパフォーマンス時の視線方向、心拍数、消費カロリー、体温変化、血糖値、脳波の少なくとも一つから得られる身体データを、パフォーマンスの動作に対応して時系列に数値化したものである
請求項1又は請求項2に記載のプログラム。
The physical change data is a time series of physical data obtained from at least one of the gaze direction at the performance of the performer, heart rate, calories burned, body temperature change, blood glucose level, and electroencephalogram. The program according to claim 1 or 2, wherein the program is realized.
前記身体変化画像は、前記身体変化データの数値に基づいて変化するエフェクト画像である
請求項3に記載のプログラム。
The program according to claim 3, wherein the body change image is an effect image that changes based on a numerical value of the body change data.
前記記録媒体には、前記演者のパフォーマンスに関するデータが時系列的にデータ化されたパフォーマンスデータが格納されており、
前記表示処理は、前記パフォーマンスデータと前記身体変化データとをパラメータとする関数から、前記エフェクト画像を生成する
請求項4に記載のプログラム。
The recording medium stores performance data in which data relating to the performance of the performer is converted into data in time series,
The program according to claim 4, wherein the display process generates the effect image from a function having the performance data and the body change data as parameters.
前記パラメータに、揺らぎの要素を加える
請求項5に記載のプログラム。
The program according to claim 5, wherein an element of fluctuation is added to the parameter.
前記表示処理は、
光学的透過又は撮影されたユーザの視界画像における所定の物体と表示部との位置関係を検出し、前記位置関係に基づき、前記視界画像における前記仮想画像の位置及び形状を制御する表示制御処理
を有する請求項1から請求項6のいずれかに記載のプログラム。
The display process includes
Display control processing for detecting a positional relationship between a predetermined object and a display unit in the optically transmitted or photographed user's visual field image and controlling the position and shape of the virtual image in the visual field image based on the positional relationship. The program according to any one of claims 1 to 6.
前記演者のパフォーマンスが、楽器の演奏者の運指であり、
前記関節動作画像が、前記運指の運指画像であり、
前記パフォーマンスデータが、楽器の演奏データである
請求項5から請求項7のいずれかに記載のプログラム。
The performer's performance is the fingering of the instrument player,
The joint motion image is a fingering image of the fingering;
The program according to any one of claims 5 to 7, wherein the performance data is musical instrument performance data.
前記表示処理は、
光学的透過又は撮影されたユーザの視界画像における、楽器の形状及び位置と前記楽器の演奏操作子の形状及び位置とに基づいて、前記ユーザの視界画像における運指画像の重畳位置を決定する処理
を有する請求項8に記載のプログラム。
The display process includes
Processing for determining a superimposed position of a fingering image in the user's view image based on the shape and position of the musical instrument and the shape and position of the performance operator of the instrument in the user's view image optically transmitted or photographed The program according to claim 8.
前記楽器はピアノであり、前記楽器の演奏操作子は鍵盤である
請求項8又は請求項9に記載のプログラム。
The program according to claim 8 or 9, wherein the musical instrument is a piano, and a performance operator of the musical instrument is a keyboard.
前記表示部は、人の頭部に装着する表示装置に設けられる
請求項1から請求項10のいずれかに記載のプログラム。
The said display part is a program in any one of Claims 1-10 provided in the display apparatus with which a human head is mounted | worn.
放送されるコンテンツから、前記コンテンツと同期を取るための同期情報を受信する受信処理と、
前記コンテンツの所定の開始タイミングと同期して、前記仮想画像を、前記視界画像に重畳して前記表示部に表示する
請求項1から請求項12のいずれかに記載のプログラム。
A receiving process for receiving synchronization information for synchronizing with the content from the broadcast content;
The program according to any one of claims 1 to 12, wherein the virtual image is displayed on the display unit so as to be superimposed on the view image in synchronization with a predetermined start timing of the content.
視界画像が光学的透過又は撮影されて表示される表示部と、
演者のパフォーマンスをモーションキャプチャして得られた関節動作画像と、前記演者のパフォーマンス時の身体変化を画像化した身体変化画像とを少なくとも含む仮想画像を、前記視界画像に重畳して前記表示部に表示する表示制御部と
を有する表示装置。
A display unit on which a view field image is optically transmitted or photographed and displayed;
A virtual image including at least a joint motion image obtained by motion-capturing a performer's performance and a physical change image obtained by imaging a physical change during the performer's performance is superimposed on the view image on the display unit. A display device having a display control unit for displaying.
前記表示制御部は、
前記関節動作画像の関節動作データと、前記身体変化の身体変化データと、前記身体変化画像の身体変化画像データとが格納された記録媒体と、
前記記録媒体から、所定のパフォーマンス時の関節動作画像データ及び身体変化データを読み出し、前記読み出した関節動作画像データに基づいて、前記所定のパフォーマンス時の関節動作画像を生成し、前記読み出した身体変化データに基づいて、前記所定のパフォーマンス時の身体変化画像を生成し、前記所定のパフォーマンス時の関節動作画像及び身体変化画像を、ユーザの視界画像に重畳して表示部に表示する制御部と
を有する請求項13に記載の表示装置。
The display control unit
A recording medium storing the joint motion data of the joint motion image, the body change data of the body change, and the body change image data of the body change image;
Read joint motion image data and body change data at a predetermined performance from the recording medium, generate a joint motion image at the predetermined performance based on the read joint motion image data, and read the body change A control unit that generates a body change image at the predetermined performance based on the data and superimposes the joint motion image and the body change image at the predetermined performance on the view field image of the user and displays them on a display unit; The display device according to claim 13.
前記身体変化データは、前記演者のパフォーマンス時の視線方向、心拍数、消費カロリー、体温変化、血糖値、脳波の少なくとも一つから得られる身体データを、パフォーマンスの動作に対応して時系列に数値化したものである
請求項13又は請求項14に記載の表示装置。
The physical change data is a time series of physical data obtained from at least one of the gaze direction at the performance of the performer, heart rate, calories burned, body temperature change, blood glucose level, and electroencephalogram. The display device according to claim 13 or 14, wherein the display device is formed.
前記身体変化画像は、前記身体変化データの数値に基づいて変化するエフェクト画像である
請求項15に記載の表示装置。
The display device according to claim 15, wherein the body change image is an effect image that changes based on a numerical value of the body change data.
前記記録媒体には、前記演者のパフォーマンスに関するデータが時系列的にデータ化されたパフォーマンスデータが格納されており、
前記表示制御部は、前記パフォーマンスデータと前記身体変化データとをパラメータとする関数から、前記エフェクト画像を生成する
請求項16に記載の表示装置。
The recording medium stores performance data in which data relating to the performance of the performer is converted into data in time series,
The display device according to claim 16, wherein the display control unit generates the effect image from a function having the performance data and the body change data as parameters.
前記パラメータに、揺らぎの要素を加える
請求項17に記載の表示装置。
The display device according to claim 17, wherein an element of fluctuation is added to the parameter.
前記表示制御部は、
光学的透過又は撮影されたユーザの視界画像における所定の物体と表示部との位置関係を検出し、前記位置関係に基づき、前記視界画像における前記仮想画像の位置及び形状を制御する請求項13から請求項18のいずれかに記載の表示装置。
The display control unit
The position and shape of the virtual image in the visual field image are controlled based on the positional relationship by detecting the positional relation between a predetermined object and a display unit in the optically transmitted or photographed user visual field image. The display device according to claim 18.
前記演者のパフォーマンスが、楽器の演奏者の運指であり、
前記関節動作画像が、前記運指の運指画像であり、
前記パフォーマンスデータが、楽器の演奏データである
請求項17から請求項19のいずれかに記載の表示装置。
The performer's performance is the fingering of the instrument player,
The joint motion image is a fingering image of the fingering;
The display device according to claim 17, wherein the performance data is musical instrument performance data.
前記表示制御部は、
光学的透過又は撮影されたユーザの視界画像における、楽器の形状及び位置と前記楽器の演奏操作子の形状及び位置とに基づいて、前記ユーザの視界画像における運指画像の重畳位置を決定する
請求項20に記載の表示装置。
The display control unit
A position for superimposing a fingering image in the user's field of view image is determined based on the shape and position of the musical instrument and the shape and position of the performance operator of the instrument in the user's field of view image that is optically transmitted or photographed. Item 21. The display device according to item 20.
前記楽器はピアノであり、前記楽器の演奏操作子は鍵盤である
請求項20又は請求項21に記載の表示装置。
The display device according to claim 20 or 21, wherein the musical instrument is a piano, and a performance operator of the musical instrument is a keyboard.
前記表示装置は、人の頭部に装着されるヘッドマウントディスプレイである
請求項13から請求項22のいずれかに記載の表示装置。
The display device according to any one of claims 13 to 22, wherein the display device is a head mounted display attached to a human head.
前記表示制御部は、
放送されるコンテンツから、前記コンテンツと同期を取るための同期情報を受信する同期情報受信部を有し、
前記コンテンツの所定の開始タイミングと同期して、前記仮想画像を、前記視界画像に重畳して前記表示部に表示する
請求項13から請求項23のいずれかに記載の表示装置。
The display control unit
A synchronization information receiving unit for receiving synchronization information for synchronizing with the content from the broadcast content;
The display device according to any one of claims 13 to 23, wherein the virtual image is superimposed on the field-of-view image and displayed on the display unit in synchronization with a predetermined start timing of the content.
演者のパフォーマンスをモーションキャプチャして得られた関節動作画像と、前記演者のパフォーマンス時の身体変化を画像化した身体変化画像とを少なくとも含む仮想画像を、光学的透過又は撮影されたユーザの視界画像に重畳して表示部に表示する
表示方法。
A visual field image of a user optically transmitted or photographed as a virtual image including at least a joint motion image obtained by motion-capturing a performer's performance and a physical change image obtained by imaging the physical change during the performer's performance Display method that is displayed on the display unit in a superimposed manner.
視界画像が光学的透過又は撮影されて表示される表示部と、
放送されるコンテンツから、前記コンテンツと同期を取るための同期情報を受信する受信部と、
視界画像が光学的透過又は撮影されて表示される表示部と、
演者のパフォーマンスをモーションキャプチャして得られた関節動作画像と、前記演者のパフォーマンス時の身体変化を画像化した身体変化画像とを少なくとも含む仮想画像を、前記同期情報に基づいて、前記コンテンツの所定の開始タイミングと同期させて、前記視界画像に重畳して前記表示部に表示する表示制御部と
を有する表示装置と、
前記コンテンツと、前記同期情報とを放送する放送部と
を有する放送システム。
A display unit on which a view field image is optically transmitted or photographed and displayed;
A receiving unit that receives synchronization information for synchronizing with the content from the broadcast content;
A display unit on which a view field image is optically transmitted or photographed and displayed;
A virtual image including at least a joint motion image obtained by motion-capturing a performer's performance and a physical change image obtained by imaging a physical change during the performer's performance is obtained based on the synchronization information. A display device having a display control unit that is displayed on the display unit so as to be superimposed on the view image in synchronization with the start timing of
A broadcasting system comprising: a broadcasting unit that broadcasts the content and the synchronization information.
所定のコンテンツと、前記コンテンツと同期を取るための同期情報とを放送し、
前記コンテンツと同期を取るための同期情報を受信し、
演者のパフォーマンスをモーションキャプチャして得られた関節動作画像と、前記演者のパフォーマンス時の身体変化を画像化した身体変化画像とを少なくとも含む仮想画像を、前記同期情報に基づいて、前記コンテンツの所定の開始タイミングと同期させて、前記視界画像に重畳して表示する
放送方法。
Broadcast predetermined content and synchronization information for synchronizing with the content,
Receiving synchronization information for synchronizing with the content;
A virtual image including at least a joint motion image obtained by motion-capturing a performer's performance and a physical change image obtained by imaging a physical change during the performer's performance is obtained based on the synchronization information. The broadcasting method of superimposing and displaying on the view image in synchronism with the start timing.
JP2016563003A 2015-08-17 2016-07-14 Program, display device, display method, broadcast system, and broadcast method Active JP6099850B1 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2015160595 2015-08-17
JP2015160595 2015-08-17
JP2015179046 2015-09-11
JP2015179046 2015-09-11
PCT/JP2016/070891 WO2017029915A1 (en) 2015-08-17 2016-07-14 Program, display device, display method, broadcast system, and broadcast method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017029463A Division JP6830829B2 (en) 2015-08-17 2017-02-20 Programs, display devices, display methods, broadcasting systems and broadcasting methods

Publications (2)

Publication Number Publication Date
JP6099850B1 JP6099850B1 (en) 2017-03-22
JPWO2017029915A1 true JPWO2017029915A1 (en) 2017-08-17

Family

ID=58050728

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016563003A Active JP6099850B1 (en) 2015-08-17 2016-07-14 Program, display device, display method, broadcast system, and broadcast method
JP2017029463A Active JP6830829B2 (en) 2015-08-17 2017-02-20 Programs, display devices, display methods, broadcasting systems and broadcasting methods

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017029463A Active JP6830829B2 (en) 2015-08-17 2017-02-20 Programs, display devices, display methods, broadcasting systems and broadcasting methods

Country Status (2)

Country Link
JP (2) JP6099850B1 (en)
WO (1) WO2017029915A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7383943B2 (en) * 2019-09-06 2023-11-21 ヤマハ株式会社 Control system, control method, and program
JP2019153952A (en) * 2018-03-05 2019-09-12 日本テレビ放送網株式会社 Head-mounted display, head-mounted display system, and program
WO2019176009A1 (en) * 2018-03-14 2019-09-19 マクセル株式会社 Personal digital assistant
JP2020042161A (en) * 2018-09-11 2020-03-19 ソニー株式会社 Information processing device, information processing method, and program
JP7199204B2 (en) 2018-11-19 2023-01-05 株式会社ソニー・インタラクティブエンタテインメント Display control program, display control device, and display control method
WO2021261307A1 (en) * 2020-06-26 2021-12-30 ソニーグループ株式会社 Control device, image display system, image display method, and mobile body

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5786463B2 (en) * 2011-06-01 2015-09-30 ソニー株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2017138992A (en) 2017-08-10
JP6830829B2 (en) 2021-02-17
WO2017029915A1 (en) 2017-02-23
JP6099850B1 (en) 2017-03-22

Similar Documents

Publication Publication Date Title
JP6099850B1 (en) Program, display device, display method, broadcast system, and broadcast method
CN106648083B (en) Enhanced playing scene synthesis control method and device
KR102196380B1 (en) Technology for controlling a virtual image generation system using user's emotional states
US8823642B2 (en) Methods and systems for controlling devices using gestures and related 3D sensor
US10783712B2 (en) Visual flairs for emphasizing gestures in artificial-reality environments
WO2014056000A1 (en) Augmented reality biofeedback display
US11178456B2 (en) Video distribution system, video distribution method, and storage medium storing video distribution program
US7889170B2 (en) Inner force sense presentation device, inner force sense presentation method, and inner force sense presentation program
EP2759908A1 (en) System and method for transforming a sensed movement of a recorded object into a haptic output signal
TWI486904B (en) Method for rhythm visualization, system, and computer-readable memory
CN109416562B (en) Apparatus, method and computer readable medium for virtual reality
JPWO2019234879A1 (en) Information processing system, information processing method and computer program
KR20180050746A (en) Head pose mix of audio files
KR101263686B1 (en) Karaoke system and apparatus using augmented reality, karaoke service method thereof
JP7416903B2 (en) Video distribution system, video distribution method, and video distribution program
JP2017062598A (en) Information processing device, information processing method, and program
CN109119057A (en) Musical composition method, apparatus and storage medium and wearable device
US20210056866A1 (en) Portable Reading, Multi-sensory Scan and Vehicle-generated Motion Input
WO2015194509A1 (en) Video generation device, video generation method, program, and information storage medium
JP6803485B1 (en) Computer programs, methods and server equipment
JP6836329B2 (en) Performance device and performance support system
JP6836877B2 (en) Wind instrument practice support device and practice support method
JP2007271698A (en) Player
JP2016099638A (en) Image processor, control method image processor and computer program
JP2017062347A (en) Data processing device and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161219

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20161219

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170221

R150 Certificate of patent or registration of utility model

Ref document number: 6099850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250