JP5401386B2 - Information processing system and information processing method - Google Patents

Information processing system and information processing method Download PDF

Info

Publication number
JP5401386B2
JP5401386B2 JP2010083023A JP2010083023A JP5401386B2 JP 5401386 B2 JP5401386 B2 JP 5401386B2 JP 2010083023 A JP2010083023 A JP 2010083023A JP 2010083023 A JP2010083023 A JP 2010083023A JP 5401386 B2 JP5401386 B2 JP 5401386B2
Authority
JP
Japan
Prior art keywords
image data
user
body part
augmented reality
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010083023A
Other languages
Japanese (ja)
Other versions
JP2011215856A (en
Inventor
昇 庵原
和宏 笹尾
甲 横山
新 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NS Solutions Corp
Original Assignee
NS Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NS Solutions Corp filed Critical NS Solutions Corp
Priority to JP2010083023A priority Critical patent/JP5401386B2/en
Publication of JP2011215856A publication Critical patent/JP2011215856A/en
Application granted granted Critical
Publication of JP5401386B2 publication Critical patent/JP5401386B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、現実空間の映像とコンピュータグラフィックス画像データとを合成して重畳表示させることが可能な技術に関するものである。   The present invention relates to a technique capable of superimposing and displaying an image in real space and computer graphics image data.

ピアノ練習を支援する技術が幾つか知られている。例えば、特許文献1には、内蔵された曲のメロディに併せて該当音の鍵を光らせる機能を備える電子鍵盤楽器が開示されている。従って、この機能を使って光った鍵を押さえるだけで曲のメロディを表現することができる。   Several techniques are known to support piano practice. For example, Patent Document 1 discloses an electronic keyboard instrument that has a function of illuminating a key of a corresponding sound together with a melody of a built-in song. Therefore, it is possible to express the melody of a song simply by pressing a shining key using this function.

その他、非特許文献1には、運指認識技術を活用したピアノ演奏の運指の習得を支援するシステムが開示されている。このシステムは、カメラで撮影された画像データ、MIDI(Musical Instrument Digital Interface)データを入力とし、これらのデータを基に運指認識やシステム操作解析を行い、鍵盤上部の固定位置に譜面を投影させ、鍵盤上に打鍵位置や運指を投影させる技術である。   In addition, Non-Patent Document 1 discloses a system that supports the acquisition of fingering for piano performance utilizing fingering recognition technology. This system takes image data taken by a camera and MIDI (Musical Instrument Digital Interface) data as input, performs fingering recognition and system operation analysis based on these data, and projects a musical score at a fixed position above the keyboard. This is a technology that projects the keystroke position and fingering on the keyboard.

特許第3465377号公報Japanese Patent No. 3465377

日本ソフトウェア科学界、“運指認識技術を活用したピアノ演奏学習支援システムの設計と実装”、インターネット<http://www.wiss.org/WISS2009Proceedings/papers/paper0008.pdf>Japanese software science world, “Design and implementation of piano performance learning support system using fingering recognition technology”, Internet <http://www.wiss.org/WISS2009Proceedings/papers/paper0008.pdf>

しかしながら、これらの従来技術においては、手元の動きと譜面との間で、繰り返し視点の行き来が発生するため、非常に煩雑である。例えば、ピアノの場合、鍵盤は88鍵もあり、低音キーのメロディが続いたかと思えば、次の小節からは高音キーばかり続くこともある。この場合、視線は手元の動きに併せて、低音キーエリアから高音キーエリアへ大幅に移動する。また、その合間に譜面を見るため、さらに煩雑な視点の行き来が発生する。   However, these conventional techniques are very complicated because the viewpoint is repeatedly transferred between the hand movement and the musical score. For example, in the case of a piano, there are 88 keys on the keyboard. If you think that the melody of the bass key has continued, only the treble key may continue from the next measure. In this case, the line of sight moves greatly from the bass key area to the treble key area in accordance with the hand movement. In addition, since the musical score is viewed in the meantime, a more complicated point of view occurs.

そこで、本発明の目的は、ストレスなく機器の操作を習得することを可能にすることにある。   Therefore, an object of the present invention is to make it possible to learn operation of equipment without stress.

本発明の情報処理システムは、現実空間の映像にコンピュータグラフィックス画像データを合成して表示させることが可能な拡張現実感提示装置と、現実空間に存在する機器の操作に係る時系列的な情報を管理する管理装置とを有する情報処理システムであって、前記拡張現実感提示装置は、ユーザが前記機器を操作する身体部分の画像データを生成する第1の画像データ生成手段と、前記第1の画像データ生成手段により生成された前記身体部分の画像データを前記管理装置に対して送信する第1の送信手段とを有し、前記管理装置は、前記機器の操作に係る時系列的な情報のうち、前記ユーザの操作における現在の操作時点を特定する特定手段と、前記現在の操作時点に対応する前記機器の操作に係る時系列的な情報を取得する取得手段と、前記身体部分の画像データに基づいて、前記身体部分の位置を識別する識別手段と、前記識別手段により識別された前記身体部分の位置の近傍に、前記取得手段により取得された前記現在の操作時点に対応する前記機器の操作に係る時系列的な情報を提示するよう前記拡張現実感提示装置に対して指示する第1の指示手段とを有し、前記拡張現実感提示装置は、前記第1の指示手段による指示に応じて、前記現在の操作時点に対応する前記機器の操作に係る時系列的な情報を示すコンピュータグラフィックス画像データを、現実空間における前記身体部分の位置の近傍の映像に合成して提示する第1の提示手段を更に有することを特徴とする。
本発明の情報処理方法は、現実空間の映像にコンピュータグラフィックス画像データを合成して表示させることが可能な拡張現実感提示装置と、現実空間に存在する機器の操作に係る時系列的な情報を管理する管理装置とによって実行される情報処理方法であって、前記拡張現実感提示装置は、ユーザが前記機器を操作する身体部分の画像データを生成する画像データ生成ステップと、前記画像データ生成ステップにより生成された前記身体部分の画像データを前記管理装置に対して送信する送信ステップとを含み、前記管理装置は、前記機器の操作に係る時系列的な情報のうち、前記ユーザの操作における現在の操作時点を特定する特定ステップと、前記現在の操作時点に対応する前記機器の操作に係る時系列的な情報を取得する取得ステップと、前記身体部分の画像データに基づいて、前記身体部分の位置を識別する識別ステップと、前記識別ステップにより識別された前記身体部分の位置の近傍に、前記取得ステップにより取得された前記現在の操作時点に対応する前記機器の操作に係る時系列的な情報を提示するよう前記拡張現実感提示装置に対して指示する指示ステップとを含み、前記拡張現実感提示装置は、前記指示手段による指示に応じて、前記現在の操作時点に対応する前記機器の操作に係る時系列的な情報を示すコンピュータグラフィックス画像データを、現実空間における前記身体部分の位置の近傍の映像に合成して提示する提示ステップを更に含むことを特徴とする。
An information processing system according to the present invention includes an augmented reality presentation device capable of combining and displaying computer graphics image data on an image in a real space, and time-series information related to operation of a device existing in the real space. The augmented reality presentation device includes: a first image data generation unit configured to generate image data of a body part on which a user operates the device; and First transmission means for transmitting image data of the body part generated by the image data generation means to the management apparatus, wherein the management apparatus is time-sequential information relating to the operation of the device. Specifying means for specifying a current operation time point in the user's operation, and acquisition means for acquiring time-series information relating to the operation of the device corresponding to the current operation time point , Based on the image data of the body part, and identifying means for identifying the position of the body part, in the vicinity of the position of the body part identified by said identification means, to said current operation acquired by the acquisition unit First augmented reality presentation device for instructing the augmented reality presentation device to present time-series information related to the operation of the device corresponding to the time, and the augmented reality presentation device In response to an instruction from one instruction means, computer graphics image data indicating time-series information related to the operation of the device corresponding to the current operation time point is displayed as an image in the vicinity of the position of the body part in the real space. It further comprises first presenting means for composing and presenting.
An information processing method according to the present invention includes an augmented reality presentation device capable of combining and displaying computer graphics image data on a real space image, and time-series information relating to operation of a device existing in the real space. An information processing method executed by a management device that manages the image, wherein the augmented reality presentation device includes an image data generation step of generating image data of a body part on which a user operates the device, and the image data generation Transmitting the image data of the body part generated by the step to the management device, wherein the management device includes the time series information on the operation of the device in the operation of the user. A specifying step for specifying the current operation time point, and an acquisition step for acquiring time-series information related to the operation of the device corresponding to the current operation time point. And flop, based on the image data of the body part, wherein the identification step of identifying the position of the body part, the identification in the vicinity of the location of the identified said body part by step, the obtained by the obtaining step current An instruction step for instructing the augmented reality presentation device to present time-series information related to the operation of the device corresponding to the operation point of the augmented reality presentation device, the augmented reality presentation device comprising: In response to the instruction, computer graphics image data indicating time-series information related to the operation of the device corresponding to the current operation time point is synthesized and presented in an image near the position of the body part in the real space. And a presentation step.

本発明によれば、ストレスなく機器の操作を習得することが可能となる。   According to the present invention, it is possible to learn the operation of a device without stress.

本発明の実施形態に係る学習支援システムの構成を概略的に示す図である。It is a figure showing roughly the composition of the learning support system concerning the embodiment of the present invention. 学習支援管理サーバのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a learning assistance management server. HMD及び小型カメラのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of HMD and a small camera. 本発明の実施形態に係る学習支援システムの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the learning assistance system which concerns on embodiment of this invention. HMDの譜面AR表示処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the musical score AR display process of HMD. HMDの運指AR表示処理の流れを示すフローチャートである。It is a flowchart which shows the flow of fingering AR display processing of HMD. 現在演奏位置に対応する譜面部分のAR表示例を示す図である。It is a figure which shows the example of AR display of the musical score part corresponding to the present performance position. 現在演奏位置に対応する運指のAR表示例を示す図である。It is a figure which shows the AR display example of fingering corresponding to a present performance position.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.

図1は、本発明の実施形態に係る学習支援システムの構成を概略的に示す図である。図1に示す本実施形態に係る学習支援システムは、ユーザのピアノ演奏の学習を支援するための後述する譜面データ及び運指データ等を管理する学習支援管理サーバ6を備えている。学習支援管理サーバ6は、小型カメラ2及びHMD(Head Mounted Display)1とピアノ5と無線通信回線を介して通信可能に接続されている。HMD1は眼鏡型のものであり、ユーザの頭部に装着される。HMD1は、光学的に透過してHMD1のレンズ部分に映し出される現実空間の映像に対して整合する位置にコンピュータグラフィックス画像データを表示することにより、拡張された現実感を演出する。以下の説明では、文字、図形、静止画、動画等のコンピュータで管理されたコンピュータグラフィックス画像データを、現実空間の映像へ重畳表示させ、補足的な情報を与える技術をAR(拡張現実:Augmented Reality)表示と称することがある。小型カメラ2は、ユーザの視界に近い画角で画像データを撮影できるようにHMD1に対して取り付けられている。撮影された画像データは無線通信回線を介して学習支援管理サーバ6に対して送信される。なお、HMD1には、非透過型やビデオ透過型、光学透過型等様々な方式がある。合成表示(AR表示)とは、いずれかの方式によってHMD1のレンズ部分に映し出される現実空間の映像に対し、整合する位置にコンピュータグラフィックス画像データを重畳表示することであって、例えば、光学透過型方式であれば、シースルーで見る現実空間の映像に対して重畳表示され、ビデオ透過型であれば、ビデオカメラで撮影した現実空間の映像に対して重畳表示される。   FIG. 1 is a diagram schematically showing a configuration of a learning support system according to an embodiment of the present invention. The learning support system according to the present embodiment shown in FIG. 1 includes a learning support management server 6 that manages musical score data, fingering data, and the like, which will be described later, to support the user's learning of piano performance. The learning support management server 6 is communicably connected to the small camera 2 and HMD (Head Mounted Display) 1 and the piano 5 via a wireless communication line. The HMD 1 is a spectacle type and is worn on the user's head. The HMD 1 produces an expanded sense of reality by displaying computer graphics image data at a position that matches optical images that are optically transmitted and projected on the lens portion of the HMD 1. In the following description, AR (Augmented Reality) is a technique for superimposing and displaying computer graphics image data managed by a computer such as characters, graphics, still images, and moving images on a real-space video and providing supplementary information. Reality) display. The small camera 2 is attached to the HMD 1 so that image data can be taken at an angle of view close to the user's field of view. The captured image data is transmitted to the learning support management server 6 via a wireless communication line. The HMD 1 includes various methods such as a non-transmissive type, a video transmissive type, and an optical transmissive type. The composite display (AR display) is to superimpose and display computer graphics image data at a matching position on the real space image displayed on the lens portion of the HMD 1 by any method. In the case of the type method, the image is superimposed and displayed on the image of the real space seen through, and in the case of the video transmission type, the image is displayed on the image of the real space captured by the video camera.

なお、本実施形態においては、AR表示を行うデバイスであるAR表示デバイスの例として、眼鏡型のHMD1を挙げているが、これに限られない。例えば、カメラによって撮影された現実空間の映像を液晶ディスプレイ等に表示し、表示された現実空間の映像にコンピュータグラフィックス画像データを合成表示するような携帯端末型のAR表示デバイスでもよいし、移動車両の運転席の視線方向に設置され、光学的に透過して映し出される現実空間の映像にコンピュータグラフィックス画像データを合成表示するようなヘッドアップディスプレイ型のAR表示デバイスであってもよい。また、現実空間の映像に整合させてコンピュータグラフィックス画像データを表示させる際に、現実空間の映像中のコンピュータグラフィックス画像データとの座標合わせが行われる。本実施形態においては、現実空間のオブジェクトにマーカを付けておき、そのマーカをカメラで撮影し、撮影された画像データから当該マーカの位置を検出し、検出した位置を整合するようにコンピュータグラフィックス画像データを合成する。さらに、他の座標合わせの方法として、HMDの位置(緯度、経度)と姿勢(方向、仰角)とに基づいてHMDを装着したユーザが現実空間のどこを見ているかを推定し、推定した位置に整合するようにコンピュータグラフィックス画像データを合成してもよい。さらに、撮像部で捉えた現実空間の画像データを解析することにより現実空間のオブジェクトの位置を検出し、検出した位置と整合するようにコンピュータグラフィックス画像データを合成してもよい。   In the present embodiment, the eyeglass-type HMD 1 is cited as an example of an AR display device that is a device that performs AR display, but is not limited thereto. For example, a mobile terminal AR display device that displays a real-space image captured by a camera on a liquid crystal display or the like, and displays and displays computer graphics image data on the displayed real-space image may be used. It may be a head-up display AR display device that is installed in the line-of-sight direction of the driver's seat of the vehicle and displays computer graphics image data in a composite image of real space that is optically transmitted and projected. In addition, when computer graphics image data is displayed in alignment with an image in the real space, coordinate alignment with the computer graphics image data in the image in the real space is performed. In the present embodiment, a marker is attached to an object in the real space, the marker is photographed with a camera, the position of the marker is detected from the photographed image data, and computer graphics are used so as to match the detected position. Synthesize image data. Further, as another coordinate matching method, it is estimated where the user wearing the HMD is looking in the real space based on the position (latitude, longitude) and posture (direction, elevation angle) of the HMD, and the estimated position The computer graphics image data may be synthesized so as to match the above. Furthermore, the position of the object in the real space may be detected by analyzing the image data in the real space captured by the imaging unit, and the computer graphics image data may be synthesized so as to match the detected position.

ユーザが演奏するピアノ5の各鍵にはマーカ4が貼付されている。小型カメラ2でマーカ4を撮影し、撮影した画像データを解析することにより、鍵の位置を特定することができる。なお、予めピアノ5の鍵盤の大きさ等規格情報を学習支援管理サーバ6に備えておき、基準とした鍵のみにマーカを貼付して該鍵の位置を特定し、これを基点として該ピアノの規格情報より各鍵の位置を特定してもよい。また、ユーザの手元にもマーカ3が貼付されており、小型カメラ2でマーカ3を撮影し、撮影した画像データを解析することにより、ユーザの手元の位置を特定することができる。   A marker 4 is attached to each key of the piano 5 played by the user. By capturing the marker 4 with the small camera 2 and analyzing the captured image data, the key position can be specified. It should be noted that standard information such as the keyboard size of the piano 5 is provided in the learning support management server 6 in advance, a marker is attached only to the reference key, the position of the key is specified, and this piano is used as a base point. The position of each key may be specified from the standard information. The marker 3 is also attached to the user's hand, and the position of the user's hand can be specified by photographing the marker 3 with the small camera 2 and analyzing the photographed image data.

学習支援管理サーバ6は、譜面データ取得/送信部61、現在演奏位置判定部62、運指データ取得/送信部63、譜面データ格納部64、MIDIデータ格納部65、運指データ格納部66及び音−マーカ対応管理ファイル67を備える。譜面データ格納部64は、複数の楽曲の譜面データを格納している。譜面データ取得/送信部61は、ユーザによって演奏対象として選択された楽曲の譜面データのうち、ユーザの現在の演奏位置(以下、現在演奏位置と称す)に対応する譜面データを譜面データ格納部64から取得する。また、譜面データ取得/送信部61は、小型カメラ2によって撮影されているユーザの手元の画像データを取得し、ユーザの手元に貼付されているマーカ3の画像解析を行うことにより、ユーザの手元の位置を検出する。そして、譜面データ取得/送信部61は、検出したユーザの手元の位置情報及び現在演奏位置に対応する譜面データをHMD1に対して送信するとともに、現在演奏位置に該当する譜面部分のコンピュータグラフィックス画像データをユーザの手元付近に合成してAR表示するようHMD1に対して指示する。HMD1は、現実空間におけるユーザの手元付近の映像に対して、現在演奏位置に対応する譜面部分を表すコンピュータグラフィックス画像データを合成してAR表示する。   The learning support management server 6 includes a musical score data acquisition / transmission unit 61, a current performance position determination unit 62, a fingering data acquisition / transmission unit 63, a musical score data storage unit 64, a MIDI data storage unit 65, a fingering data storage unit 66, and A sound-marker correspondence management file 67 is provided. The musical score data storage unit 64 stores musical score data of a plurality of music pieces. The musical score data acquisition / transmission unit 61 includes musical score data corresponding to the current performance position of the user (hereinafter referred to as the current performance position) among the musical score data of the music selected as the performance target by the user. Get from. The musical score data acquisition / transmission unit 61 acquires image data of the user's hand photographed by the small camera 2 and performs image analysis of the marker 3 attached to the user's hand, thereby allowing the user's hand. The position of is detected. Then, the musical score data acquisition / transmission unit 61 transmits the detected musical location information and musical score data corresponding to the current performance position to the HMD 1 and also the computer graphics image of the musical score portion corresponding to the current performance position. The HMD 1 is instructed to synthesize the data near the user's hand and display the AR. The HMD 1 synthesizes the computer graphics image data representing the musical score portion corresponding to the current performance position with the video near the user's hand in the real space and displays the AR.

MIDIデータ格納部65は、複数の楽曲のMIDI(Musical Instrument Digital Interface)データを格納している。ここでMIDIデータとは、楽曲の演奏音のデータであって、MIDI規格に基づいて表されている。MIDI規格は、電子楽器を外部から制御して演奏させるためのデータの規格であり、楽曲を構成する各音についてのデータを時系列に従って、電子楽器等に入力するように定められている。MIDIデータは、楽曲の先頭から順次出現する音に対し、その音の音程や大きさ、長さ、その音の開始時点から次の音の開始時点までの間隔等の時間情報等楽譜の情報を含んでいる。MIDIデータ格納部65には、正確なピアノ演奏の基に生成されたMIDIデータが格納されており、後述するユーザのピアノ演奏に応じて生成されたMIDIデータとの比較によってユーザの現在演奏位置等が判定される。以下の説明においては、MIDIデータ格納部65において格納されているMIDIデータを参考MIDIデータと称す。また、ユーザがピアノ5を演奏すると、その演奏内容を示すMIDIデータがピアノ5において生成され、学習支援管理サーバ6に対して送信される。以下の説明においては、ユーザの演奏に応じてピアノ5で生成されるMIDIデータを演奏MIDIデータと称す。現在演奏位置判定部62は、ユーザが選択した楽曲の参考MIDIデータをMIDIデータ格納部65から取得し、演奏MIDIデータと参考MIDIデータとを比較することにより、現在演奏位置を判定する。現在演奏位置の判定結果は、譜面データ取得/送信部61及び後述する運指データ取得/送信部63に対して出力される。   The MIDI data storage unit 65 stores MIDI (Musical Instrument Digital Interface) data of a plurality of music pieces. Here, the MIDI data is music performance data and is expressed based on the MIDI standard. The MIDI standard is a data standard for controlling an electronic musical instrument from the outside so that the musical instrument is played. The MIDI standard is defined so that data about each sound constituting a musical piece is input to the electronic musical instrument or the like in time series. MIDI data is the score information such as the pitch, size, length of the sound, the interval from the start time of the sound to the start time of the next sound, etc. Contains. The MIDI data storage unit 65 stores MIDI data generated based on an accurate piano performance, and the user's current performance position and the like by comparison with MIDI data generated according to the user's piano performance described later. Is determined. In the following description, the MIDI data stored in the MIDI data storage unit 65 is referred to as reference MIDI data. When the user plays the piano 5, MIDI data indicating the performance content is generated in the piano 5 and transmitted to the learning support management server 6. In the following description, the MIDI data generated by the piano 5 in accordance with the performance of the user is referred to as performance MIDI data. The current performance position determination unit 62 acquires the reference MIDI data of the music selected by the user from the MIDI data storage unit 65, and compares the performance MIDI data with the reference MIDI data to determine the current performance position. The determination result of the current performance position is output to the musical score data acquisition / transmission unit 61 and a fingering data acquisition / transmission unit 63 described later.

運指データ格納部66は、複数の楽曲の運指データを格納している。運指データとは、楽曲をピアノ演奏する際の運指を示すデータである。運指データ取得/送信部63は、ユーザによって演奏対象として選択された楽曲の運指データのうち、現在演奏位置に対応する運指データを運指データ格納部66から取得し、更に当該運指データに対応するコンピュータグラフィックス画像データを取得する。また、運指データ取得/送信部63は、小型カメラ2によって撮影されている鍵盤の画像データを取得し、鍵盤に貼付されているマーカ4の画像解析を行うことにより、現在演奏位置の音に対応する鍵の位置を検出する。詳細は後述するが、運指データ取得/送信部63は、音と鍵盤上のマーカ4とを対応付けた音−マーカ対応管理ファイル67を参照して、現在演奏位置の音に対応するマーカ4を判定する。そして、運指データ取得/送信部63は、当該マーカ4が貼付されている現実空間における鍵の映像に対し、現在演奏位置に対応する運指のコンピュータグラフィックス画像データを合成してAR表示するようHMD1に対して指示する。HMD1は、現実空間における該当する鍵の映像に対して、現在演奏位置に対応する運指のコンピュータグラフィックス画像データを合成してAR表示する。   The fingering data storage unit 66 stores fingering data of a plurality of music pieces. Fingering data is data indicating fingering when playing a musical piece on a piano. The fingering data acquisition / transmission unit 63 acquires fingering data corresponding to the current performance position from the fingering data storage unit 66 among the fingering data of the music selected as a performance target by the user, and further performs the fingering data Computer graphics image data corresponding to the data is acquired. Further, the fingering data acquisition / transmission unit 63 acquires the image data of the keyboard photographed by the small camera 2 and analyzes the image of the marker 4 attached to the keyboard, thereby obtaining the sound at the current performance position. Detect the position of the corresponding key. Although details will be described later, the fingering data acquisition / transmission unit 63 refers to the sound-marker correspondence management file 67 in which the sound is associated with the marker 4 on the keyboard, and the marker 4 corresponding to the sound at the current performance position. Determine. Then, the fingering data acquisition / transmission unit 63 synthesizes the fingering computer graphics image data corresponding to the current performance position with the key image in the real space to which the marker 4 is attached and displays the AR. HMD1 is instructed. The HMD 1 synthesizes the fingered computer graphics image data corresponding to the current performance position with the video of the corresponding key in the real space and displays the AR.

図2−1は、学習支援管理サーバ6のハードウェア構成を示す図である。CPU201は、システムバスに接続される各デバイスやコントローラを統括的に制御する。ROM203又はHD(ハードディスク)207には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム、学習支援管理サーバ6が実行する例えば図3に示す処理のプログラム等が記憶されている。   FIG. 2A is a diagram illustrating a hardware configuration of the learning support management server 6. The CPU 201 comprehensively controls each device and controller connected to the system bus. A ROM 203 or an HD (hard disk) 207 stores a basic input / output system (BIOS) that is a control program of the CPU 201, an operating system program, a program for the processing shown in FIG. Yes.

なお、図2−1の例では、HD207は学習支援管理サーバ6の内部に配置された構成としているが、他の実施形態としてHD207に相当する構成が学習支援管理サーバ6の外部に配置された構成としてもよい。また、本実施形態に係る例えば図3に示す処理を行うためのプログラムは、フレキシブルディスク(FD)やCD−ROM等、コンピュータ読み取り可能な記録媒体に記録され、それらの記録媒体から供給される構成としてもよいし、インターネット等の通信媒体を介して供給される構成としてもよい。   In the example of FIG. 2A, the HD 207 is arranged inside the learning support management server 6. However, as another embodiment, a configuration corresponding to the HD 207 is arranged outside the learning support management server 6. It is good also as a structure. Also, the program for performing the processing shown in FIG. 3 according to the present embodiment is recorded on a computer-readable recording medium such as a flexible disk (FD) or a CD-ROM, and is supplied from the recording medium. Alternatively, it may be configured to be supplied via a communication medium such as the Internet.

RAM202は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をRAM202にロードして、プログラムを実行することで各種動作を実現するものである。   The RAM 202 functions as a main memory, work area, and the like for the CPU 201. The CPU 201 implements various operations by loading a program necessary for execution of processing into the RAM 202 and executing the program.

HD207やFD206は、外部メモリとして機能する。CPU201は、処理の実行に際して必要なプログラム等をRAM202にロードして、プログラムを実行することで各種動作を実現するものである。   The HD 207 and the FD 206 function as an external memory. The CPU 201 implements various operations by loading a program necessary for execution of processing into the RAM 202 and executing the program.

ディスクコントローラ208は、HD207やFD206等の外部メモリへのアクセスを制御する。通信I/Fコントローラ204は、インターネットやLANと接続し、例えばTCP/IPによって外部との通信を制御するものである。   The disk controller 208 controls access to external memories such as the HD 207 and the FD 206. The communication I / F controller 204 is connected to the Internet or a LAN, and controls communication with the outside by, for example, TCP / IP.

ディスプレイコントローラ208は、ディスプレイ209における画像表示を制御する。   The display controller 208 controls image display on the display 209.

KBコントローラ210は、KB(キーボード)211からの操作入力を受け付け、CPU201に対して送信する。なお、図示していないが、KB211の他に、マウス等のポインティングデバイスもユーザの操作手段として本実施形態に係る学習支援管理サーバ6に適用可能である。   The KB controller 210 receives an operation input from the KB (keyboard) 211 and transmits it to the CPU 201. Although not shown, in addition to the KB 211, a pointing device such as a mouse can also be applied to the learning support management server 6 according to the present embodiment as a user operation means.

図1に示す譜面データ取得/送信部61、現在演奏位置判定部62、運指データ取得/送信部63は、例えばHD207内に記憶され、必要に応じてRAM202にロードされるプログラム及びそれを実行するCPU201によって実現される構成である。また、譜面データ格納部64、MIDIデータ格納部65、運指データ格納部66は、HD207やRAM202の一部記憶領域に相当する構成である。また、音−マーカ対応管理ファイル67は、HD207又はRAM202に記憶されている。   The musical score data acquisition / transmission unit 61, the current performance position determination unit 62, and the fingering data acquisition / transmission unit 63 shown in FIG. 1 are stored in, for example, the HD 207 and loaded into the RAM 202 as necessary, and execute the program. This is a configuration realized by the CPU 201. The musical score data storage unit 64, the MIDI data storage unit 65, and the fingering data storage unit 66 have a configuration corresponding to a partial storage area of the HD 207 and the RAM 202. The sound-marker correspondence management file 67 is stored in the HD 207 or the RAM 202.

図2−2は、HMD1及び小型カメラ2のハードウェア構成を示す図である。CPU301は、システムバスに接続される各デバイスやコントローラを統括的に制御する。ROM302には、HMD1及び小型カメラ2が実行する例えば図3〜図5に示す処理のプログラム等が記憶されている。なお、図3〜図5に示す処理を行うためのプログラムは、インターネット等の通信媒体を介して供給される構成としてもよい。   FIG. 2B is a diagram illustrating a hardware configuration of the HMD 1 and the small camera 2. The CPU 301 comprehensively controls each device and controller connected to the system bus. The ROM 302 stores, for example, processing programs shown in FIGS. 3 to 5 executed by the HMD 1 and the small camera 2. Note that the program for performing the processes shown in FIGS. 3 to 5 may be supplied via a communication medium such as the Internet.

RAM304は、CPU301の主メモリ、ワークメモリ等として機能する。CPU301は、処理の実行に際して必要なプログラム等をRAM304にロードして、プログラムを実行することで各種動作を実現するものである。通信I/Fコントローラ303は、インターネットやLANと接続し、例えばTCP/IPによって外部との通信を制御するものである。   The RAM 304 functions as a main memory, work memory, and the like for the CPU 301. The CPU 301 implements various operations by loading a program necessary for execution of processing into the RAM 304 and executing the program. The communication I / F controller 303 is connected to the Internet or a LAN, and controls communication with the outside by TCP / IP, for example.

撮像部305は、光学レンズを介して入射され、撮像素子に結像される被写体像を電気信号に変換し、動画像データ又は静止画像データを出力する。ディスプレイコントローラ306は、ディスプレイ307における画像表示を制御する。本実施形態では、光学透過型のヘッドマウントディスプレイを採用しており、ディスプレイ307はハーフミラーで構成され、装着したユーザはディスプレイ307を介して外の様子を見ることができる。なお、撮像部305は、図1の小型カメラ2に相当する構成である。   The imaging unit 305 converts a subject image incident through an optical lens and formed on the imaging element into an electrical signal, and outputs moving image data or still image data. The display controller 306 controls image display on the display 307. In this embodiment, an optically transmissive head-mounted display is employed, the display 307 is configured by a half mirror, and the user who wears the camera can view the outside through the display 307. The imaging unit 305 has a configuration corresponding to the small camera 2 in FIG.

図3は、本実施形態に係る学習支援システムの処理の流れを示すフローチャートである。
先ず、ステップS101において、ユーザは自らの手元を小型カメラ2で撮影する。ステップS102において、小型カメラ2によって撮影された手元の画像データは学習支援管理サーバ2に対して送信される。
FIG. 3 is a flowchart showing a processing flow of the learning support system according to the present embodiment.
First, in step S <b> 101, the user photographs his / her hand with the small camera 2. In step S <b> 102, the image data at hand taken by the small camera 2 is transmitted to the learning support management server 2.

ステップS201において、学習支援管理サーバ6は、ユーザの手元の画像データを受信したか否かを判定する。この判定は、受信した画像データ内にマーカ3が含まれるか否かによって行われる。受信した画像データ内にマーカ3が含まれ、手元の画像データを受信したと判定された場合、処理はステップS202に移行する。一方、画像データ自体を受信していない、又は受信した画像データ内にマーカ3が含まれない場合、学習支援管理サーバ6は、手元の画像データを受信するまで待機する。   In step S <b> 201, the learning support management server 6 determines whether image data on hand of the user has been received. This determination is made based on whether or not the marker 3 is included in the received image data. If the marker 3 is included in the received image data and it is determined that the image data at hand is received, the process proceeds to step S202. On the other hand, when the image data itself is not received or the marker 3 is not included in the received image data, the learning support management server 6 stands by until receiving the image data at hand.

ユーザは、手元の画像データを撮影した後、楽曲を選択してピアノ演奏を開始する。楽曲の選択操作は、例えばピアノ5に備えられた楽曲選択ボタンを押す操作がピアノ5に対して行われる。ピアノ5に対して楽曲の選択操作が行われると、ユーザID及び楽曲IDを含む選択情報がピアノ5から学習支援管理サーバ6に対して送信される。   After the user captures the image data at hand, the user selects music and starts playing the piano. As the music selection operation, for example, an operation of pressing a music selection button provided on the piano 5 is performed on the piano 5. When a music selection operation is performed on the piano 5, selection information including a user ID and a music ID is transmitted from the piano 5 to the learning support management server 6.

楽曲の選択操作の後、ユーザは当該楽曲のピアノ演奏を行う。ステップS103において、ピアノ5は、ユーザの演奏に応じて演奏MIDIデータを生成し、学習支援管理サーバ6に対して送信する。ステップS104において、ピアノ5は、ユーザの演奏が終了したか否かを判定する。演奏が終了した場合、処理は終了する。一方、演奏が終了していない場合、処理はステップS103に戻り、演奏MIDIデータの生成、送信が継続して行われる。   After the music selection operation, the user performs a piano performance of the music. In step S <b> 103, the piano 5 generates performance MIDI data according to the performance of the user and transmits it to the learning support management server 6. In step S104, the piano 5 determines whether or not the user's performance has ended. When the performance ends, the process ends. On the other hand, if the performance has not ended, the process returns to step S103, and the generation and transmission of performance MIDI data are continued.

ステップS202において、学習支援管理サーバ6は、ピアノ5から演奏MIDIデータを受信したか否かを判定する。演奏MIDIデータを受信した場合、処理はステップS203に移行する。一方、演奏MIDIデータを受信していない場合、学習支援管理サーバ6は、演奏MIDIデータを受信するまで待機する。   In step S202, the learning support management server 6 determines whether or not performance MIDI data has been received from the piano 5. If performance MIDI data is received, the process proceeds to step S203. On the other hand, when the performance MIDI data is not received, the learning support management server 6 stands by until the performance MIDI data is received.

ステップS203において、現在演奏位置判定部62は、上記選択情報に含まれる楽曲IDに該当する参考MIDIデータをMIDIデータ格納部65から取得し、参考MIDIデータと演奏MIDIデータとを比較することにより、現在演奏位置を判定する。なお、本処理の前に、ステップS201で受信された手元の画像データのヘッダ情報に含まれるユーザIDと上記選択情報に含まれるユーザIDとの一致性が判定され、双方が一致する場合、ステップS203の処理が実行される。   In step S203, the current performance position determination unit 62 acquires reference MIDI data corresponding to the music ID included in the selection information from the MIDI data storage unit 65, and compares the reference MIDI data with the performance MIDI data. Determine the current performance position. If the user ID included in the header information of the local image data received in step S201 and the user ID included in the selection information are determined before this processing, and both match, The process of S203 is executed.

ステップS204において、譜面データ取得/送信部61は、ユーザによって選択された楽曲の譜面データのうち、現在演奏位置に対応する譜面データを譜面データ格納部64から取得する。   In step S204, the musical score data acquisition / transmission unit 61 acquires the musical score data corresponding to the current performance position from the musical score data storage unit 64 among the musical score data of the music selected by the user.

ステップS205において、譜面データ取得/送信部61は、ステップS201で受信された手元の画像データからマーカ3の画像解析を行うことにより、ユーザの手元の位置を検出する。ステップS209において、譜面データ取得/送信部61は、検出したユーザの手元の位置情報及び現在演奏位置に対応する譜面データをHMD1に対して送信するとともに、現在演奏位置に該当する譜面部分のコンピュータグラフィックス画像データをユーザの手元付近に合成してAR表示するようHMD1に対して指示する(譜面AR表示指示)。なお、ステップS204、S205、S209と並行して以下のステップS206〜S208の処理が実行される。   In step S205, the musical score data acquisition / transmission unit 61 detects the position of the user's hand by performing image analysis of the marker 3 from the hand image data received in step S201. In step S209, the musical score data acquisition / transmission unit 61 transmits the detected positional information of the user and musical score data corresponding to the current performance position to the HMD 1 and computer graphics of the musical score portion corresponding to the current performance position. The HMD 1 is instructed to synthesize the image data near the user's hand and display the AR (musical score AR display instruction). In addition, the following steps S206 to S208 are executed in parallel with steps S204, S205, and S209.

ステップS206において、運指データ取得/送信部63は、ユーザによって選択された楽曲の運指データのうち、現在演奏位置に対応する運指データを運指データ格納部66から取得し、更に取得した運指データに対応するコンピュータグラフィックス画像データを取得する。ステップS207において、運指データ取得/送信部63は、当該楽曲における現在演奏位置の音を参考MIDIデータから取得し、音−マーカ対応管理ファイル67を参照して、その音に対応する鍵盤上のマーカ4を判定する。なお、現在演奏位置の音は、周波数解析によって取得してもよい。   In step S206, the fingering data acquisition / transmission unit 63 acquires fingering data corresponding to the current performance position from the fingering data storage unit 66 among the fingering data of the music selected by the user, and further acquires the fingering data. Computer graphics image data corresponding to fingering data is acquired. In step S207, the fingering data acquisition / transmission unit 63 acquires the sound at the current performance position in the music from the reference MIDI data, refers to the sound-marker correspondence management file 67, and on the keyboard corresponding to the sound. The marker 4 is determined. Note that the sound at the current performance position may be acquired by frequency analysis.

ここで、ユーザは自らの手元を見ながら演奏をしているため、小型カメラ2では、ユーザの手元とともに鍵盤上のマーカ4も撮影している。ステップS208において、運指データ取得/送信部63は、小型カメラ2によって撮影される画像データからステップS207で判定したマーカ4の位置を判定し、当該マーカ4の位置情報及び現在演奏位置に対応する運指のコンピュータグラフィックス画像データをHMD1に対して送信するとともに、当該マーカ4が貼付されている鍵の映像に、現在演奏位置に該当する運指のコンピュータグラフィックス画像データを合成してAR表示するようにHMD1に対して指示する(運指AR表示指示)。   Here, since the user is playing while looking at his / her hand, the small camera 2 photographs the marker 4 on the keyboard together with the user's hand. In step S208, the fingering data acquisition / transmission unit 63 determines the position of the marker 4 determined in step S207 from the image data captured by the small camera 2, and corresponds to the position information of the marker 4 and the current performance position. The computer graphics image data of the fingering is transmitted to the HMD 1, and the computer graphics image data of the fingering corresponding to the current performance position is combined with the video of the key to which the marker 4 is attached to display the AR. The HMD 1 is instructed to do this (fingering AR display instruction).

ステップS210において、学習支援管理サーバ6は、演奏MIDIデータの受信を完了したか否かを判定する。演奏MIDIデータの受信を完了した場合、処理は終了する。一方、演奏MIDIデータの受信が未だ完了していない場合、次に受信する演奏MIDIデータについてステップS203からの処理を実行する。   In step S210, the learning support management server 6 determines whether or not reception of performance MIDI data has been completed. When the reception of the performance MIDI data is completed, the process ends. On the other hand, if reception of the performance MIDI data is not yet completed, the processing from step S203 is executed for the performance MIDI data to be received next.

図4は、HMD1の譜面AR表示処理の流れを示すフローチャートである。ステップS105において、HMD1は、譜面AR表示指示を学習支援管理サーバ6から受け付けたか否かを判定する。譜面AR表示指示を受け付けた場合、処理はステップS106に移行する。一方、譜面AR表示指示を受け付けていない場合、HMD1は譜面のAR表示指示を受け付けるまで待機する。   FIG. 4 is a flowchart showing the flow of the musical score AR display process of the HMD 1. In step S <b> 105, the HMD 1 determines whether a musical score AR display instruction has been received from the learning support management server 6. When the musical score AR display instruction is received, the process proceeds to step S106. On the other hand, when the music AR display instruction is not received, the HMD 1 stands by until the music AR display instruction is received.

ステップS106において、HMD1は、学習支援管理サーバ6から受信したユーザの手元の位置情報及び現在演奏位置に対応する譜面データを用いて、現在演奏位置に対応する譜面部分のコンピュータグラフィックス画像データを、現実空間におけるユーザの手元付近の映像に合成してAR表示する。   In step S <b> 106, the HMD 1 uses the position information of the user's hand received from the learning support management server 6 and the musical score data corresponding to the current performance position to obtain computer graphics image data of the musical score portion corresponding to the current performance position. AR display is performed by synthesizing the image near the user's hand in the real space.

ステップS107において、HMD1は、学習支援管理サーバ6からの譜面AR表示指示の受け付けが完了したか否かを判定する。譜面AR表示指示の受け付けが完了した場合、処理は終了する。一方、譜面AR表示指示の受け付けが完了していない場合、処理はステップS105に戻り、次の譜面部分のAR表示指示に対応した処理を行う。   In step S <b> 107, the HMD 1 determines whether or not the reception of the musical score AR display instruction from the learning support management server 6 has been completed. When the reception of the musical score AR display instruction is completed, the process ends. On the other hand, if reception of the musical score AR display instruction has not been completed, the process returns to step S105, and processing corresponding to the AR display instruction for the next musical score part is performed.

図5は、HMD1の運指AR表示処理の流れを示すフローチャートである。ステップS108において、HMD1は、運指AR表示指示を学習支援管理サーバ6から受け付けたか否かを判定する。運指AR表示指示を受け付けた場合、処理はステップS109に移行する。一方、運指AR表示処理を受け付けていない場合、HMD1は運指AR表示指示を受け付けるまで待機する。   FIG. 5 is a flowchart showing the flow of the fingering AR display process of the HMD 1. In step S <b> 108, the HMD 1 determines whether or not a fingering AR display instruction has been received from the learning support management server 6. If a fingering AR display instruction is accepted, the process proceeds to step S109. On the other hand, when the fingering AR display process is not received, the HMD 1 stands by until a fingering AR display instruction is received.

ステップS109において、HMD1は、学習支援管理サーバ6から受信したマーカ4の位置情報及び現在演奏位置に対応する運指のコンピュータグラフィックス画像データを用いて、現在演奏位置に対応する運指のコンピュータグラフィックス画像データを、当該マーカ4が貼付されている鍵の映像に合成してAR表示する。   In step S109, the HMD 1 uses the position information of the marker 4 received from the learning support management server 6 and the computer graphics image data of the fingering corresponding to the current performance position, and the computer graphic of the fingering corresponding to the current performance position. The image data is synthesized with the video of the key to which the marker 4 is attached and displayed in AR.

ステップS110において、HMD1は、学習支援管理サーバ6から運指AR表示指示の受け付けが完了したか否かを判定する。運指AR表示指示の受け付けが完了した場合、処理は終了する。一方、運指AR表示指示の受け付けが完了していない場合、処理はステップS109に戻り、次の運指のAR表示指示に対応した処理を行う。   In step S110, the HMD 1 determines whether or not the acceptance of the fingering AR display instruction from the learning support management server 6 has been completed. When the acceptance of the fingering AR display instruction is completed, the process ends. On the other hand, if acceptance of the fingering AR display instruction has not been completed, the process returns to step S109, and a process corresponding to the AR display instruction for the next fingering is performed.

図6は、現在演奏位置に対応する譜面部分のAR表示例を示す図である。図6に示すように、HMD1は、ユーザの手元61付近の映像に現在演奏位置に対応する譜面部分のコンピュータグラフィックス画像データ62をAR表示する。これにより、例えば仮に演奏キーが移ったとしても視線を行き来させることなく、常に譜面を視界に捉えながら演奏することができる。従って、本実施形態によれば、ストレスなくピアノ5の操作を習得することが可能となる。   FIG. 6 is a diagram showing an AR display example of the musical score portion corresponding to the current performance position. As shown in FIG. 6, the HMD 1 AR displays the computer graphics image data 62 of the musical score portion corresponding to the current performance position on the video near the user's hand 61. Thereby, for example, even if the performance key is moved, it is possible to perform while always capturing the musical score in the field of view without changing the line of sight. Therefore, according to this embodiment, it becomes possible to learn the operation of the piano 5 without stress.

また、本実施形態では、現在演奏位置の前後x小節(xは予め設定された任意の数値)分の譜面部分をAR表示する。即ち、ステップS209においては、学習支援管理サーバ6からHMD1に対して、現在演奏位置の前後x小節分の譜面データが送信される。そして、ステップS107において、HMD1は、当該譜面データに基づいて、現在演奏位置の前後x小節分の譜面部分のコンピュータグラフィックス画像データをAR表示する。この場合、現在演奏位置の譜面部分を他の譜面部分より目立つように強調表示するようにしてもよい。これにより、現在演奏位置が明確になるとともに、現在演奏位置に対する譜面の前後関係を把握することができる。   In the present embodiment, the musical score portion corresponding to x measures (x is an arbitrary numerical value set in advance) before and after the current performance position is AR-displayed. In other words, in step S209, musical score data for x bars before and after the current performance position is transmitted from the learning support management server 6 to the HMD1. In step S107, the HMD 1 AR-displays the computer graphics image data of the musical score portion for x bars before and after the current performance position based on the musical score data. In this case, the musical score portion at the current performance position may be highlighted so as to stand out from the other musical score portions. As a result, the current performance position is clarified, and the front-rear relationship of the musical score with respect to the current performance position can be grasped.

図7は、現在演奏位置に対応する運指のAR表示例を示す図である。図7に示すように、HMD1は、現在演奏位置に対応する運指のコンピュータグラフィックス画像データ710、72を、現在演奏値位置の音に対応する鍵の映像に合成してAR表示する。なお、図7の73、74は、演奏しているユーザの指を示している。学習支援管理サーバ6においては、運指データ格納部66にて楽曲毎にMIDIデータの時間情報と対応付けされた運指の順番が設定された運指データを備えており、演奏MIDIデータの時間情報より現在演奏位置に対応する運指を運指データから特定することが可能である。例えば、楽曲Aの運指データにおいては、「R1(右手の親指)→R2(右手の人差指)→R5(右手の小指)→L3(左手の中指)・・・」というように楽曲Aを演奏する際の運指の順番が設定されている。   FIG. 7 is a diagram illustrating an AR display example of a fingering corresponding to the current performance position. As shown in FIG. 7, the HMD 1 synthesizes fingering computer graphics image data 710 and 72 corresponding to the current performance position with the video of the key corresponding to the sound at the current performance value position, and displays the AR. In addition, 73 and 74 of FIG. 7 have shown the finger of the user who is performing. The learning support management server 6 includes fingering data in which the fingering order associated with the time information of the MIDI data is set for each piece of music in the fingering data storage unit 66, and the time of the performance MIDI data is provided. The fingering corresponding to the current performance position can be specified from the fingering data based on the information. For example, in the fingering data of the music A, the music A is played as follows: “R1 (thumb of right hand) → R2 (index finger of right hand) → R5 (little finger of right hand) → L3 (middle finger of left hand)”. The order of fingering is set.

また、学習支援管理サーバ6内には、運指毎にコンピュータグラフィックス画像データを管理している(R1(右手の親指)−コンピュータグラフィックス画像データ1、R2(右手の人差指)−コンピュータグラフィックス画像データ2、・・・)。学習支援管理サーバ6は、現在演奏位置を判定すると、現在演奏位置に対応する運指を運指データから特定し、当該運指のコンピュータグラフィックス画像データを取得してHMD1に対して送信する。これにより、HMD1では、現在演奏位置に対応する運指のコンピュータグラフィックス画像データをAR表示することが可能となる。なお、上述したように、運指のコンピュータグラフィックス画像データは、現在演奏位置の音に対応する鍵の位置に合成してAR表示される。これにより、ユーザは、HMD1越しに手元を眺めると、手元に対し、正しい運指のコンピュータグラフィックス画像データがAR表示され、正しい運指で演奏できているか否かを直感的、且つ視覚的に把握することができる。   In the learning support management server 6, computer graphics image data is managed for each fingering (R1 (right thumb) -computer graphics image data 1, R2 (right index finger) -computer graphics. Image data 2, ...). When the learning support management server 6 determines the current performance position, the learning support management server 6 identifies the fingering corresponding to the current performance position from the fingering data, acquires the computer graphics image data of the fingering, and transmits it to the HMD 1. As a result, the HMD 1 can AR display the fingering computer graphics image data corresponding to the current performance position. As described above, the computer graphics image data of the fingering is synthesized and displayed at the key position corresponding to the sound at the current performance position. As a result, when the user looks at the hand over the HMD 1, the computer graphics image data of the correct fingering is displayed AR on the hand, and whether or not the player can perform with the correct fingering is intuitively and visually confirmed. I can grasp it.

上記の例では、運指毎にコンピュータグラフィックス画像データを管理しているが、他の実施形態として、運指の前後の組み合わせに対応付けてコンピュータグラフィックス画像データを管理してもよい。即ち、R2(右手の人差指)→R1(右手の親指)→R2(右手の人差指)の流れでのR1と、R3(右手の中指)→R1(右手の親指)→R2(右手の人差指)の流れでのR1とでは、異なるコンピュータグラフィックス画像データが管理されており、同じ運指R1のコンピュータグラフィックス画像データを特定する場合でも、運指の順番に応じて異なるコンピュータグラフィックス画像データが特定される。   In the above example, computer graphics image data is managed for each fingering. However, as another embodiment, computer graphics image data may be managed in association with a combination before and after fingering. That is, R1 in the flow of R2 (right hand index finger) → R1 (right hand index finger) → R2 (right hand index finger) and R3 (right hand index finger) → R1 (right hand index finger) → R2 (right hand index finger) Different computer graphics image data is managed with R1 in the flow, and even when computer graphics image data of the same fingering R1 is specified, different computer graphics image data is specified according to the order of fingering Is done.

また、ユーザの各指にどの指であるかを識別するためのマーカを貼付し、学習支援管理サーバ6がそれらのマーカと運指とを対応付けて管理しておくことにより、小型カメラ2で撮影されたユーザの指のマーカを画像解析することでユーザの運指を特定することができる。そして、特定された運指と運指データに設定されている運指とを比較することにより、運指に間違いがあったか否かを判定することができ、間違いがあった場合には、間違いがあった指付近にその旨をAR表示するようにしてもよい。   Moreover, a marker for identifying which finger is on each finger of the user is pasted, and the learning support management server 6 manages the marker and fingering in association with each other. The fingering of the user can be specified by analyzing the image of the marker of the photographed user's finger. Then, by comparing the specified fingering with the fingering set in the fingering data, it is possible to determine whether or not there is an error in fingering. You may make it AR display to the vicinity of the finger which there existed.

さらに、学習支援管理サーバ6は、演奏MIDIデータと参考MIDIデータとを比較することにより、打鍵位置に間違いがあったか否かを判定することができる。間違いがあった場合、学習支援管理サーバ6はその旨をAR表示するようにHMD1に対して指示し、HMD1は、その指示に応じて、間違いがあった指付近の映像にその旨を合成してAR表示してもよい。また、他の実施形態として、ユーザの演奏音を音声解析や周波数解析し、解析結果と参考MIDIデータとを比較することにより打鍵位置の間違いを検出してもよい。   Further, the learning support management server 6 can determine whether or not there is an error in the keystroke position by comparing the performance MIDI data and the reference MIDI data. If there is a mistake, the learning support management server 6 instructs the HMD 1 to display the AR in the AR, and the HMD 1 synthesizes the fact with the video near the finger having the mistake in response to the instruction. AR display may be used. As another embodiment, the user's performance sound may be subjected to voice analysis or frequency analysis, and an error in the keystroke position may be detected by comparing the analysis result with reference MIDI data.

なお、上述した実施形態では、現在演奏位置を判定したり、演奏の間違いを検出するためにMIDIデータを使用しているが、音の音程や大きさ、長さ、その音の開始時点から次の音の開始時点までの間隔等の情報を含むものであれば、MIDIデータに限定する必要はない。また、上述した実施形態では、ピアノ演奏の学習支援に適用した例を挙げて説明しているが、これに限らず、クラリネットやフルート等の他の楽器、PCの操作等、様々な機器の操作の学習支援に適用することができる。   In the above-described embodiment, MIDI data is used to determine the current performance position or to detect a performance error. However, the pitch, volume, and length of the sound, and the next time from the start point of the sound, are used. It is not necessary to limit to MIDI data as long as it includes information such as the interval until the start of the sound. In the above-described embodiment, an example applied to piano performance learning support is described. However, the present invention is not limited to this, and other instruments such as clarinet and flute and PC operations are operated. It can be applied to learning support.

1:HMD、2:小型カメラ、3、4:マーカ、5:ピアノ、6:学習支援管理サーバ、61:譜面データ取得/送信部、62:現在演奏位置判定部、63:運指データ取得/送信部、64:譜面データ格納部、65:MIDIデータ格納部、66:運指データ格納部、67:音−マーカ対応管理ファイル   1: HMD, 2: Small camera, 3, 4: Marker, 5: Piano, 6: Learning support management server, 61: Music score data acquisition / transmission unit, 62: Current performance position determination unit, 63: Fingering data acquisition / Transmission unit, 64: Music score data storage unit, 65: MIDI data storage unit, 66: Fingering data storage unit, 67: Sound-marker correspondence management file

Claims (7)

現実空間の映像にコンピュータグラフィックス画像データを合成して表示させることが可能な拡張現実感提示装置と、現実空間に存在する機器の操作に係る時系列的な情報を管理する管理装置とを有する情報処理システムであって、
前記拡張現実感提示装置は、
ユーザが前記機器を操作する身体部分の画像データを生成する第1の画像データ生成手段と、
前記第1の画像データ生成手段により生成された前記身体部分の画像データを前記管理装置に対して送信する第1の送信手段とを有し、
前記管理装置は、
前記機器の操作に係る時系列的な情報のうち、前記ユーザの操作における現在の操作時点を特定する特定手段と、
前記現在の操作時点に対応する前記機器の操作に係る時系列的な情報を取得する取得手段と、
前記身体部分の画像データに基づいて、前記身体部分の位置を識別する識別手段と、
前記識別手段により識別された前記身体部分の位置の近傍に、前記取得手段により取得された前記現在の操作時点に対応する前記機器の操作に係る時系列的な情報を提示するよう前記拡張現実感提示装置に対して指示する第1の指示手段とを有し、
前記拡張現実感提示装置は、
前記第1の指示手段による指示に応じて、前記現在の操作時点に対応する前記機器の操作に係る時系列的な情報を示すコンピュータグラフィックス画像データを、現実空間における前記身体部分の位置の近傍の映像に合成して提示する第1の提示手段を更に有することを特徴とする情報処理システム。
An augmented reality presentation device capable of combining and displaying computer graphics image data on video in a real space, and a management device for managing time-series information related to operation of devices existing in the real space An information processing system,
The augmented reality presentation device includes:
First image data generating means for generating image data of a body part on which the user operates the device;
First transmission means for transmitting image data of the body part generated by the first image data generation means to the management device;
The management device
Among the time-series information related to the operation of the device, a specifying means for specifying a current operation time point in the user operation;
Acquisition means for acquiring time-series information related to the operation of the device corresponding to the current operation time;
Identification means for identifying the position of the body part based on the image data of the body part;
The augmented reality so as to present, in the vicinity of the position of the body part identified by the identifying unit, time-series information related to the operation of the device corresponding to the current operation time acquired by the acquiring unit . First instruction means for instructing the presentation device;
The augmented reality presentation device includes:
In response to an instruction from the first instruction means, computer graphics image data indicating time-series information related to the operation of the device corresponding to the current operation time point, in the vicinity of the position of the body part in the real space An information processing system further comprising first presentation means for synthesizing and presenting the video.
前記拡張現実感提示装置は、
前記機器の画像データを生成する第2の画像データ生成手段と、
前記第2の画像データ生成手段により生成された前記機器の画像データを前記管理装置対して送信する第2の送信手段とを有し、
前記管理装置は、
記機器の画像データを解析し、前記現在の操作時点に対応する前記機器の操作箇所を判定する判定手段と、
前記現在の操作時点に対応する前記機器の操作に係る時系列的な情報を、現実空間における前記現在の操作時点に対応する前記機器の操作箇所の映像に合成して提示するよう前記拡張現実感提示装置に対して指示する第2の指示手段とを更に有し、
前記拡張現実感提示装置は、
前記第2の指示手段による指示に応じて、前記現在の操作時点に対応する前記機器の操作に係る時系列的な情報を示すコンピュータグラフィックス画像データを、現実空間における前記現在の操作時点に対応する前記機器の操作箇所の映像に合成して提示する第2の提示手段を更に有することを特徴とする請求項1に記載の情報処理システム。
The augmented reality presentation device includes:
Second image data generation means for generating image data of the device;
Second transmission means for transmitting the image data of the device generated by the second image data generation means to the management device;
The management device
Analyzing the image data before Symbol equipment, and before Symbol judging means for judging the operation portion of the device corresponding to the current operation point,
The time-series information when relating to the operation of the device corresponding to the current operation point, the augmented reality so that synthesized and presented on the video of the operation portion of the device corresponding to the time the current operation in the real space Second instruction means for instructing the presentation device;
The augmented reality presentation device includes:
In response to an instruction by the second instruction means, the computer graphics image data representing a series of information when relating to the operation of the device corresponding to the current operation point corresponding to said current operation point in the real space The information processing system according to claim 1, further comprising: a second presentation unit that synthesizes and presents an image of an operation location of the device.
前記管理装置は、
前記ユーザの前記機器に対する操作内容と予め設定されている前記機器に対する操作内容とを比較することにより、前記ユーザの前記機器に対する操作の間違いを検出する検出手段と、
前記検出手段により前記ユーザの前記機器に対する操作の間違いが検出された場合、その旨を現実空間の映像に合成して提示するよう前記拡張現実感提示装置に対して指示する第3の指示手段とを有し、
前記拡張現実感提示装置は、
前記第3の指示手段による指示に応じて、前記ユーザの前記機器に対する操作に間違いがあった旨を示すコンピュータグラフィックス画像データを現実空間の映像に合成して提示する第3の提示手段を更に有することを特徴とする請求項1又は2に記載の情報処理システム。
The management device
Detecting means for detecting an error in the operation of the user by comparing the operation content of the user with the device and a preset operation content of the device;
A third instruction means for instructing the augmented reality presentation apparatus to synthesize and present the fact in a real space image when an error in the operation of the user by the user is detected by the detection means; Have
The augmented reality presentation device includes:
And a third presenting means for synthesizing and presenting the computer graphics image data indicating that there is an error in the operation of the user by the user in response to the instruction from the third instructing means with the video in the real space. The information processing system according to claim 1 or 2, further comprising:
前記管理装置は、
前記身体部分の画像データを解析することにより、前記ユーザの前記機器に対する操作内容を認識する第1の認識手段を更に有することを特徴とする請求項3に記載の情報処理システム。
The management device
The information processing system according to claim 3, further comprising first recognition means for recognizing operation contents of the user for the device by analyzing image data of the body part.
前記管理装置は、
前記ユーザの操作に応じて生成された前記ユーザの前記機器に対する操作内容を示す情報により、前記ユーザの前記機器に対する操作内容を認識する第2の認識手段を更に有することを特徴とする請求項3に記載の情報処理システム。
The management device
4. The apparatus according to claim 3, further comprising: a second recognizing unit that recognizes an operation content of the user with respect to the device based on information indicating the operation content of the user with respect to the device generated according to the operation of the user. Information processing system described in 1.
前記管理装置は、
前記ユーザの演奏音を音声解析することにより、前記ユーザの前記機器である楽器に対する演奏内容を認識する第3の認識手段を更に有することを特徴とする請求項3に記載の情報処理システム。
The management device
The information processing system according to claim 3, further comprising third recognition means for recognizing performance contents of the user's instrument as an instrument by performing voice analysis on the user's performance sound.
現実空間の映像にコンピュータグラフィックス画像データを合成して表示させることが可能な拡張現実感提示装置と、現実空間に存在する機器の操作に係る時系列的な情報を管理する管理装置とによって実行される情報処理方法であって、
前記拡張現実感提示装置は、
ユーザが前記機器を操作する身体部分の画像データを生成する画像データ生成ステップと、
前記画像データ生成ステップにより生成された前記身体部分の画像データを前記管理装置に対して送信する送信ステップとを含み、
前記管理装置は、
前記機器の操作に係る時系列的な情報のうち、前記ユーザの操作における現在の操作時点を特定する特定ステップと、
前記現在の操作時点に対応する前記機器の操作に係る時系列的な情報を取得する取得ステップと、
前記身体部分の画像データに基づいて、前記身体部分の位置を識別する識別ステップと、
前記識別ステップにより識別された前記身体部分の位置の近傍に、前記取得ステップにより取得された前記現在の操作時点に対応する前記機器の操作に係る時系列的な情報を提示するよう前記拡張現実感提示装置に対して指示する指示ステップとを含み、
前記拡張現実感提示装置は、
前記指示手段による指示に応じて、前記現在の操作時点に対応する前記機器の操作に係る時系列的な情報を示すコンピュータグラフィックス画像データを、現実空間における前記身体部分の位置の近傍の映像に合成して提示する提示ステップを更に含むことを特徴とする情報処理方法。
Executed by an augmented reality presentation device that can synthesize and display computer graphics image data on real space video, and a management device that manages time-series information related to the operation of devices in the real space Information processing method,
The augmented reality presentation device includes:
An image data generation step of generating image data of a body part on which the user operates the device;
Transmitting the image data of the body part generated by the image data generation step to the management device,
The management device
Among the time-series information related to the operation of the device, a specifying step for specifying a current operation time point in the user operation;
An acquisition step of acquiring time-series information related to the operation of the device corresponding to the current operation time point;
An identification step for identifying a position of the body part based on the image data of the body part;
The augmented reality so as to present, in the vicinity of the position of the body part identified by the identifying step, time-series information related to the operation of the device corresponding to the current operation time acquired by the acquiring step . An instruction step for instructing the presentation device,
The augmented reality presentation device includes:
In response to an instruction from the instruction unit, computer graphics image data indicating time-series information related to the operation of the device corresponding to the current operation time point is converted into an image in the vicinity of the position of the body part in the real space. An information processing method, further comprising a presentation step of combining and presenting.
JP2010083023A 2010-03-31 2010-03-31 Information processing system and information processing method Active JP5401386B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010083023A JP5401386B2 (en) 2010-03-31 2010-03-31 Information processing system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010083023A JP5401386B2 (en) 2010-03-31 2010-03-31 Information processing system and information processing method

Publications (2)

Publication Number Publication Date
JP2011215856A JP2011215856A (en) 2011-10-27
JP5401386B2 true JP5401386B2 (en) 2014-01-29

Family

ID=44945524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010083023A Active JP5401386B2 (en) 2010-03-31 2010-03-31 Information processing system and information processing method

Country Status (1)

Country Link
JP (1) JP5401386B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6464889B2 (en) 2015-03-31 2019-02-06 富士通株式会社 Image processing apparatus, image processing program, and image processing method
KR101878375B1 (en) * 2017-11-30 2018-07-16 안경찬 Method and apparatus for guiding a user through accurate marking on a lotto ticket
CN109102784A (en) 2018-06-14 2018-12-28 森兰信息科技(上海)有限公司 A kind of AR aid musical instruments exercising method, system and a kind of smart machine
WO2019176164A1 (en) * 2018-11-12 2019-09-19 Ootaki Architect&Craftsmen Ltd. Auxiliary pedal system
JP7468356B2 (en) * 2018-11-15 2024-04-16 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2020105147A1 (en) * 2018-11-21 2020-05-28 楽天株式会社 Flight path guide system, flight path guide device, and flight path guide method
CN110517653B (en) * 2019-07-19 2023-08-18 森兰信息科技(上海)有限公司 Piano exercise prompting method and system, storage medium and piano
JP7127659B2 (en) 2020-02-07 2022-08-30 カシオ計算機株式会社 Information processing device, virtual/reality synthesis system, method for generating learned model, method for executing information processing device, program
JP7435797B2 (en) * 2020-08-24 2024-02-21 日本電気株式会社 Information processing device, information processing method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000352973A (en) * 1999-06-11 2000-12-19 Casio Comput Co Ltd Playing guide device
JP2002318652A (en) * 2001-04-20 2002-10-31 Foundation For Nara Institute Of Science & Technology Virtual input device and its program
JP2002372967A (en) * 2001-06-14 2002-12-26 Yamaha Corp Device for guiding keyboard playing
JP5250834B2 (en) * 2008-04-03 2013-07-31 コニカミノルタ株式会社 Head-mounted image display device

Also Published As

Publication number Publication date
JP2011215856A (en) 2011-10-27

Similar Documents

Publication Publication Date Title
JP5401386B2 (en) Information processing system and information processing method
US8866846B2 (en) Apparatus and method for playing musical instrument using augmented reality technique in mobile terminal
JP6366862B2 (en) Work support device, work learning device, and work support system
EP3759707B1 (en) A method and system for musical synthesis using hand-drawn patterns/text on digital and non-digital surfaces
KR101263686B1 (en) Karaoke system and apparatus using augmented reality, karaoke service method thereof
JPWO2012011263A1 (en) Gesture input device and gesture input method
JP2006048639A (en) Method and apparatus for processing information
US20160125861A1 (en) Performance recording apparatus
US9877129B2 (en) Device and method for playing sound
JP7064952B2 (en) Information processing equipment, information processing methods and programs
EP3540565A1 (en) Control method for translation device, translation device, and program
JP2009169768A (en) Information processor and program
KR20190076360A (en) Electronic device and method for displaying object for augmented reality
JPWO2020121382A1 (en) Information processing equipment, information processing methods, and programs
KR101267247B1 (en) Karaoke apparatus and karaoke service method using augmented reality marker-based
US12014645B2 (en) Virtual tutorials for musical instruments with finger tracking in augmented reality
US20200234187A1 (en) Information processing apparatus, information processing method, and program
JP6836877B2 (en) Wind instrument practice support device and practice support method
JP7070483B2 (en) Electronic devices, information output systems, information output methods, and computer programs
JP2019022011A (en) Information acquisition device and control method of the information acquisition device
JPWO2018185830A1 (en) Information processing system, information processing method, wearable terminal, and program
JP5884987B2 (en) Music performance device
JP6972430B1 (en) Terminal, input display method and input display system
JP6890868B1 (en) Terminal device for communication between remote locations
WO2022202267A1 (en) Information processing method, information processing system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131028

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5401386

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250