JP5098996B2 - Head mounted display - Google Patents

Head mounted display Download PDF

Info

Publication number
JP5098996B2
JP5098996B2 JP2008324849A JP2008324849A JP5098996B2 JP 5098996 B2 JP5098996 B2 JP 5098996B2 JP 2008324849 A JP2008324849 A JP 2008324849A JP 2008324849 A JP2008324849 A JP 2008324849A JP 5098996 B2 JP5098996 B2 JP 5098996B2
Authority
JP
Japan
Prior art keywords
sound
information
difference
acquired
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008324849A
Other languages
Japanese (ja)
Other versions
JP2010145878A (en
Inventor
友好 内垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2008324849A priority Critical patent/JP5098996B2/en
Publication of JP2010145878A publication Critical patent/JP2010145878A/en
Application granted granted Critical
Publication of JP5098996B2 publication Critical patent/JP5098996B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a head mounted display capable of specifying and indicating who causes an interval difference or a faster/slower tempo even when a plurality of persons make voices simultaneously. <P>SOLUTION: When a power source is turned on and a voice is picked up by a microphone (S13: YES), the input voice begins to be stored (S15) and is compared with a stored musical sound (S17). When it is determined that the acquired voice and the stored musical sound have a difference in one of sound level, tempo, and interval (S21: YES), difference contents are displayed on the head mounted display together with the difference amount (S23) to make the wearing person visually recognize them. A microphone capable of specifying an arrival direction of a voice is used as a microphone to determine the direction where the voice determined to have the difference is output, so that the corresponding person can be specified and displayed. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明はヘッドマウントディスプレイに関する。より詳細には、所定の楽曲とは異なる音程やテンポで音が発せられた場合において、この音を発した者を特定するための表示を行うことが可能なヘッドマウントディスプレイに関する。   The present invention relates to a head mounted display. More specifically, the present invention relates to a head mounted display capable of performing display for identifying a person who has emitted a sound when the sound is emitted at a pitch or tempo different from that of a predetermined music piece.

従前より、歌唱者より発声される歌唱音声や演奏者が演奏する演奏音を楽曲音と比較して音程やテンポのずれを抽出し、歌唱者及び演奏者に対して通知することにより、歌唱や演奏の練習を支援するシステムが提案されている。例えば、歌唱者の歌唱音練習支援システムとしては、演奏音と歌い手の音声とを比較し、両者の音程にずれがある場合に音程差を表示することが可能なカラオケ装置を使用することが可能である(例えば特許文献1参照)。
特開平4−13176号公報
Traditionally, the singing voice uttered by the singer and the performance sound played by the performer are compared with the music sound to extract the pitch and tempo deviation, and by notifying the singer and the performer, A system that supports performance practice has been proposed. For example, as a singing sound practice support system for a singer, it is possible to use a karaoke device capable of comparing the performance sound and the voice of the singer and displaying the difference in pitch when there is a gap between the two. (For example, see Patent Document 1).
Japanese Patent Laid-Open No. 4-13176

しかしながら上述の装置では、複数の者より同時に音が発せられた場合、音程差やテンポずれの発生要因がどの者に起因するかを特定できないという問題点があった。   However, the above-described apparatus has a problem in that it is impossible to specify who caused the pitch difference or the tempo deviation when sounds are simultaneously emitted from a plurality of persons.

本発明は、上述の問題点を解決するためになされたものであり、複数の者より同時に音が発せられた場合であっても、音程差やテンポずれの発生要因がどの者に起因するものであるかを特定し、通知することが可能なヘッドマウントディスプレイを提供することを目的とする。   The present invention has been made in order to solve the above-mentioned problems, and even if a sound is emitted from a plurality of persons at the same time, the cause of occurrence of a pitch difference or a tempo shift is attributed to any person. It is an object of the present invention to provide a head-mounted display that can identify and notify whether or not.

上述の問題点を解決するために、請求項1に係る発明のヘッドマウントディスプレイは、音を取得する音取得手段と、前記音取得手段にて取得された前記音の到来方向を特定する方向特定手段と、前記音取得手段にて取得された前記音と、前記方向特定手段にて特定された前記到来方向とを対応付けて第一記憶手段に記憶する第一記憶制御手段と、前記第一記憶手段に記憶された前記音の情報である取得音情報と、所定の楽曲の音の情報であり、第二記憶手段に記憶された情報である楽曲音情報とが一致するか否かを判断する音一致判断手段と、前記音一致判断手段にて双方が相違すると判断された場合に、相違するとされた前記取得音情報に対応する前記到来方向を表示手段に表示させる表示制御手段とを備え、前記音一致判断手段は、前記第一記憶手段に記憶された前記取得音情報から、振幅成分である取得音振幅を抽出する取得音振幅抽出手段と、前記取得音振幅抽出手段にて抽出された前記取得音振幅と、前記第二記憶手段に記憶されている前記楽曲音情報の振幅成分である楽曲音振幅とが一致するか否かを判断することにより、前記取得音情報と前記楽曲音情報とが一致するか否かを判断する振幅一致判断手段とを備えている。 In order to solve the above-described problems, the head-mounted display according to the first aspect of the present invention includes a sound acquisition unit that acquires sound, and a direction specification that specifies an arrival direction of the sound acquired by the sound acquisition unit. First storage control means for associating and storing the sound acquired by the sound acquisition means and the arrival direction specified by the direction specifying means in the first storage means; It is determined whether the acquired sound information, which is the sound information stored in the storage means, and the music sound information, which is the sound information of the predetermined music and is stored in the second storage means, match. It includes a sound matching determination means for, when it is determined that both are different in the sound matching judgment means, and a display control means for displaying on the display means the arrival direction that corresponds to the acquired sound information with different The sound match determination means The acquired sound amplitude extracting means for extracting the acquired sound amplitude as an amplitude component from the acquired sound information stored in the first storage means, the acquired sound amplitude extracted by the acquired sound amplitude extracting means, and the first Whether or not the acquired sound information and the music sound information match by determining whether or not the music sound amplitude that is the amplitude component of the music sound information stored in the second storage means matches. Amplitude matching judgment means for judging .

また、請求項に係る発明のヘッドマウントディスプレイは、音を取得する音取得手段と、前記音取得手段にて取得された前記音の到来方向を特定する方向特定手段と、前記音取得手段にて取得された前記音と、前記方向特定手段にて特定された前記到来方向とを対応付けて第一記憶手段に記憶する第一記憶制御手段と、前記第一記憶手段に記憶された前記音の情報である取得音情報と、所定の楽曲の音の情報であり、第二記憶手段に記憶された情報である楽曲音情報とが一致するか否かを判断する音一致判断手段と、前記音一致判断手段にて双方が相違すると判断された場合に、相違するとされた前記取得音情報に対応する前記到来方向を表示手段に表示させる表示制御手段とを備え、前記音一致判断手段は、前記第一記憶手段に記憶された前記取得音情報から、振幅成分である取得音振幅を抽出する取得音振幅抽出手段と、前記取得音振幅抽出手段にて抽出された前記取得音振幅と、前記第二記憶手段に記憶されている前記楽曲音情報の振幅成分である楽曲音振幅とでタイミングが一致するか否かを判断することにより、前記取得音情報と前記楽曲音情報とが一致するか否かを判断する振幅一致判断手段とを備えている。
また、請求項3に係る発明のヘッドマウントディスプレイは、音を取得する音取得手段と、前記音取得手段にて取得された前記音の到来方向を特定する方向特定手段と、前記音取得手段にて取得された前記音と、前記方向特定手段にて特定された前記到来方向とを対応付けて第一記憶手段に記憶する第一記憶制御手段と、前記第一記憶手段に記憶された前記音の情報である取得音情報と、所定の楽曲の音の情報であり、第二記憶手段に記憶された情報である楽曲音情報とが一致するか否かを判断する音一致判断手段と、前記音一致判断手段にて双方が相違すると判断された場合に、相違するとされた前記取得音情報に対応する前記到来方向を表示手段に表示させる表示制御手段とを備え、前記音一致判断手段は、前記第一記憶手段に記憶された前記取得音情報から、周波数成分である取得音周波数を抽出する取得音周波数抽出手段と、前記取得音周波数抽出手段にて抽出された前記取得音周波数と、前記第二記憶手段に記憶されている前記楽曲音情報の周波数成分である楽曲音周波数とが一致するか否かを判断することにより、前記取得音情報と前記楽曲音情報とが一致するか否かを判断する周波数一致判断手段とを備えている。
According to a second aspect of the present invention, there is provided a head mounted display comprising: a sound acquisition unit that acquires sound; a direction specifying unit that specifies a direction of arrival of the sound acquired by the sound acquisition unit; and a sound acquisition unit. The sound stored in the first storage means and the first storage control means for storing in the first storage means in association with the sound acquired by the direction specifying means and the arrival direction specified by the direction specifying means The sound matching judgment means for judging whether or not the acquired sound information which is the information of the above and the music sound information which is the information of the sound of the predetermined music and stored in the second storage means, Display control means for displaying on the display means the arrival direction corresponding to the acquired sound information determined to be different when the sound match determination means determines that both are different, the sound match determination means, Stored in the first storage means From the acquisition sound information, stored and acquired sound amplitude extraction means for extracting the obtained sound amplitude is an amplitude component, the acquisition sound amplitude extracted by the acquisition sound amplitude extraction means, said second storage means Amplitude matching determination means for determining whether or not the acquired sound information and the music sound information match by determining whether or not the timing matches with the music sound amplitude that is an amplitude component of the music sound information And.
According to a third aspect of the present invention, there is provided a head mounted display comprising: a sound acquisition unit that acquires sound; a direction specifying unit that specifies a direction of arrival of the sound acquired by the sound acquisition unit; and a sound acquisition unit. The sound stored in the first storage means and the first storage control means for storing in the first storage means in association with the sound acquired by the direction specifying means and the arrival direction specified by the direction specifying means The sound matching judgment means for judging whether or not the acquired sound information which is the information of the above and the music sound information which is the information of the sound of the predetermined music and stored in the second storage means, Display control means for displaying on the display means the arrival direction corresponding to the acquired sound information determined to be different when the sound match determination means determines that both are different, the sound match determination means, Stored in the first storage means The acquired sound frequency extracting means for extracting the acquired sound frequency as a frequency component from the acquired sound information, the acquired sound frequency extracted by the acquired sound frequency extracting means, and the second storage means are stored. Frequency matching determination means for determining whether or not the acquired sound information and the music sound information match by determining whether or not the music sound frequency that is a frequency component of the music sound information matches. I have.

また、請求項4に係る発明のヘッドマウントディスプレイは、請求項又はに記載の発明の構成に加えて、前記振幅一致判断手段において相違すると判断された場合に、相違の程度である第一相違量を算出する第一相違算出手段を備え、前記表示制御手段は、前記第一相違算出手段にて前記第一相違量が算出された場合には、算出された前記第一相違量を前記表示手段に表示させることを特徴とする。 In addition to the configuration of the invention according to claim 1 or 2 , the head-mounted display according to claim 4 has a first degree of difference when it is judged that the amplitude coincidence judging means is different. A first difference calculating unit configured to calculate a difference amount; and when the first difference calculating unit calculates the first difference amount, the display control unit outputs the calculated first difference amount to the first difference amount. It is characterized by being displayed on a display means.

また、請求項に係る発明のヘッドマウントディスプレイは、請求項に記載の発明の構成に加えて、前記周波数一致判断手段において相違すると判断された場合に、相違の程度である第二相違量を算出する第二相違算出手段を備え、前記表示制御手段は、前記第二相違算出手段にて前記第二相違量が算出された場合には、算出された前記第二相違量を前記表示手段に表示させることを特徴とする。 In addition to the configuration of the invention of claim 3 , the head mounted display of the invention according to claim 5 is a second difference amount which is a degree of difference when it is judged that the frequency coincidence judging means is different. A second difference calculating means for calculating the second difference amount when the second difference amount is calculated by the second difference calculating means. It is characterized by being displayed.

また、請求項に係る発明のヘッドマウントディスプレイは、請求項4に記載の発明の構成に加えて、前記第一相違算出手段にて前記第一相違量が算出された場合に、前記第一相違量を、相違するとされた前記取得音振幅の基となる前記取得音情報に対応付けられた前記到来方向とともに第三記憶手段に記憶する第三記憶制御手段を備え、前記表示制御手段は、前記第三記憶手段に前記第一相違量が記憶されている場合には、前記第一相違量を前記表示手段に表示させることを特徴とする。 According to a sixth aspect of the present invention, in addition to the configuration of the fourth aspect of the invention, the first difference amount is calculated when the first difference amount is calculated by the first difference calculation means. A third storage control unit that stores a difference amount in a third storage unit together with the arrival direction associated with the acquired sound information that is the basis of the acquired sound amplitude determined to be different; and the display control unit includes: When the first difference amount is stored in the third storage unit, the first difference amount is displayed on the display unit.

また、請求項に係る発明のヘッドマウントディスプレイは、請求項に記載の発明の構成に加えて、前記第二相違算出手段にて前記第二相違量が算出された場合に、前記第二相違量を、相違するとされた前記取得音周波数の基となる前記取得音情報に対応付けられた前記到来方向とともに第四記憶手段に記憶する第四記憶制御手段を備え、前記表示制御手段は、前記第四記憶手段に前記第二相違量が記憶されている場合には、前記第二相違量を前記表示手段に表示させることを特徴とする。 According to a seventh aspect of the present invention, in addition to the configuration of the fifth aspect of the invention, when the second difference amount is calculated by the second difference calculating means, A fourth storage control unit that stores a difference amount in a fourth storage unit together with the arrival direction associated with the acquired sound information that is the basis of the acquired sound frequency determined to be different; and the display control unit includes: When the second difference amount is stored in the fourth storage unit, the second difference amount is displayed on the display unit.

また、請求項に係る発明のヘッドマウントディスプレイは、請求項1乃至のいずれかに記載の発明の構成に加えて、前記音一致判断手段にて、前記取得音情報と前記楽曲音情報とが相違すると判断された場合において、相違箇所に相当する前記所定の楽曲の演奏箇所を特定するための情報である相違箇所情報を、相違するとされた前記取得音情報に対応付けられている前記到来方向とともに第五記憶手段に記憶する第五記憶制御手段を備え、前記表示制御手段は、前記第五記憶手段に前記相違箇所情報が記憶されている場合には、前記相違箇所情報にて特定される前記所定の楽曲の演奏箇所を、前記所定の楽曲を演奏する者が演奏する前に、前記相違箇所情報に対応付けられている前記到来方向を前記表示手段に表示させることを特徴とする。 In addition to the configuration of the invention according to any one of claims 1 to 7 , the head-mounted display according to the invention according to claim 8 includes the acquired sound information, the music sound information, and Are determined to be different, the different location information, which is information for specifying the performance location of the predetermined music corresponding to the different location, is associated with the acquired sound information determined to be different. A fifth storage control means for storing the fifth storage means together with the direction, wherein the display control means is specified by the difference information when the difference information is stored in the fifth storage means; that the play position of the predetermined musical composition, before the person playing the predetermined piece of music is played, and characterized by displaying the direction of arrival associated with the different part information on the display means That.

また、請求項に係る発明のヘッドマウントディスプレイは、請求項1乃至のいずれかに記載の発明の構成に加えて、前記音一致判断手段にて前記取得音情報と前記楽曲音情報とが相違すると判断された回数である相違回数を、相違するとされた前記取得音情報に対応する前記到来方向毎に累計する第一累計手段を備え、前記表示制御手段は、前記第一累計手段にて前記相違回数が累計された場合には、前記相違回数を前記到来方向毎に前記表示手段に表示させることを特徴とする。 The head mounted display of the invention according to claim 9, in addition to the configuration of the invention according to any one of claims 1 to 8, wherein the acquiring sound information in the sound matching determining means and said music sound information A first accumulating unit for accumulating a difference count, which is the number of times determined to be different, for each of the arrival directions corresponding to the acquired sound information determined to be different; and the display control unit includes: When the number of differences is accumulated, the number of differences is displayed on the display means for each direction of arrival.

請求項1に係る発明のヘッドマウントディスプレイでは、取得した音と楽曲音とが相違する場合に、相違するとされた音の到来方向を特定して表示手段に表示させることが可能となる。これによりヘッドマウントディスプレイを装着した指揮者等は、演奏者や歌唱者のうち、発せられる音の音程やテンポがずれている者を特定することが可能となるので、該当者に修正指示を促すことにより、演奏や歌唱を理想的な状態に近づけることが可能となる。また、音の振幅成分を抽出し、楽曲音と比較することが可能となる。これによりヘッドマウントディスプレイを装着した指揮者等は、演奏者や歌唱者より発せられる音と楽曲の音との音レベルの相違を特定することが可能となる。従って、音のレベルを注意すべき旨の指摘が可能となり、より具体的な修正指示を行うことが可能となる。 In the head-mounted display according to the first aspect, when the acquired sound and the music sound are different, the arrival direction of the sound that is determined to be different can be specified and displayed on the display means. This makes it possible for a conductor or the like wearing a head-mounted display to identify a performer or a singer who is out of the pitch or tempo of the sound being emitted. This makes it possible to bring the performance and singing closer to the ideal state. In addition, the amplitude component of the sound can be extracted and compared with the music sound. As a result, the conductor or the like wearing the head mounted display can specify the difference in sound level between the sound emitted from the performer or singer and the sound of the music. Therefore, it is possible to point out that the sound level should be noted, and it is possible to give a more specific correction instruction.

また、請求項に係る発明のヘッドマウントディスプレイでは、取得した音と楽曲音とが相違する場合に、相違するとされた音の到来方向を特定して表示手段に表示させることが可能となる。これによりヘッドマウントディスプレイを装着した指揮者等は、演奏者や歌唱者のうち、発せられる音の音程やテンポがずれている者を特定することが可能となるので、該当者に修正指示を促すことにより、演奏や歌唱を理想的な状態に近づけることが可能となる。また、取得振幅と楽曲振幅とのタイミングのずれが比較されるので、演奏者や歌唱者より発せられる音のテンポずれを特定することが可能となる。従って、テンポを注意するべき旨の指摘が可能となり、より具体的な修正指示を行うことが可能となる。
また、請求項3に係る発明のヘッドマウントディスプレイでは、取得した音と楽曲音とが相違する場合に、相違するとされた音の到来方向を特定して表示手段に表示させることが可能となる。これによりヘッドマウントディスプレイを装着した指揮者等は、演奏者や歌唱者のうち、発せられる音の音程やテンポがずれている者を特定することが可能となるので、該当者に修正指示を促すことにより、演奏や歌唱を理想的な状態に近づけることが可能となる。また、音の周波数成分を抽出し、楽曲音と比較することが可能となる。これによりヘッドマウントディスプレイを装着した指揮者等は、演奏者や歌唱者より発せられる音と楽曲の音との音程の相違を特定することが可能となる。従って、音程を注意するべき旨の指摘が可能となり、より具体的な修正指示を行うことが可能となる。
In the head mounted display of the invention according to claim 2 , when the acquired sound and the music sound are different, it is possible to specify the arrival direction of the sound that is determined to be different and display it on the display means. This makes it possible for a conductor or the like wearing a head-mounted display to identify a performer or a singer who is out of the pitch or tempo of the sound being emitted. This makes it possible to bring the performance and singing closer to the ideal state. Further, since the difference in timing between the acquisition amplitude and music amplitudes are compared, it is possible to specify a tempo deviation of the sound emitted from the performer and singer. Therefore, it is possible to indicate that the tempo should be noted, and it is possible to give a more specific correction instruction.
In the head mounted display according to the third aspect of the present invention, when the acquired sound and the music sound are different, it is possible to specify the direction of arrival of the sound that is determined to be different and display it on the display means. This makes it possible for a conductor or the like wearing a head-mounted display to identify a performer or a singer who is out of the pitch or tempo of the sound being emitted. This makes it possible to bring the performance and singing closer to the ideal state. In addition, the frequency component of the sound can be extracted and compared with the music sound. As a result, the conductor or the like wearing the head mounted display can specify the difference in pitch between the sound emitted from the performer or singer and the sound of the music. Therefore, it is possible to point out that the pitch should be noted, and it is possible to give a more specific correction instruction.

また、請求項4に係る発明のヘッドマウントディスプレイでは、請求項又はに記載の発明の効果に加えて、演奏者や歌唱者より発せられる音と楽曲音とが相違する場合に、双方の相違量を定量的に把握することが可能となる。従ってより定量的な修正指示を行うことが可能となる。 Further, in the head mounted display of the invention according to claim 4, in addition to the effect of the invention of claim 1 or 2 , when the sound emitted from the performer or singer and the music sound are different, It becomes possible to grasp the amount of difference quantitatively. Therefore, it is possible to give a more quantitative correction instruction.

また、請求項に係る発明のヘッドマウントディスプレイでは、請求項に記載の発明の効果に加えて、演奏者や歌唱者より発せられる音と楽曲音とが相違する場合に、双方の相違量を定量的に把握することが可能となる。従ってより定量的な修正指示を行うことが可能となる。 In addition, in the head mounted display of the invention according to claim 5 , in addition to the effect of the invention of claim 3, when the sound emitted from the performer or singer and the music sound are different, the difference between the two Can be grasped quantitatively. Therefore, it is possible to give a more quantitative correction instruction.

また、請求項に係る発明のヘッドマウントディスプレイでは、請求項4に記載の発明の効果に加えて、相違量を前もって通知する為の表示を行うことが可能となる。これによりヘッドマウントディスプレイを装着する指揮者等は、演奏者や歌唱者に対して、前もって定量的に正確な演奏や発声を促すことが可能となる。 In addition, in the head mounted display of the invention according to claim 6 , in addition to the effect of the invention of claim 4, it is possible to perform display for notifying the amount of difference in advance. As a result, a conductor or the like wearing a head-mounted display can promptly perform a precise performance or utterance in advance quantitatively to the performer or singer.

また、請求項に係る発明のヘッドマウントディスプレイでは、請求項に記載の発明の効果に加えて、相違量を前もって通知する為の表示を行うことが可能となる。これによりヘッドマウントディスプレイを装着する指揮者等は、演奏者や歌唱者に対して、前もって定量的に正確な演奏や発声を促すことが可能となる。 In addition, in the head mounted display of the invention according to claim 7 , in addition to the effect of the invention of claim 5 , it is possible to perform display for notifying the amount of difference in advance. As a result, a conductor or the like wearing a head-mounted display can promptly perform a precise performance or utterance in advance quantitatively to the performer or singer.

また、請求項に係る発明のヘッドマウントディスプレイでは、請求項1乃至のいずれかに記載の発明の効果に加えて、取得した音と楽曲音との相違が発生した場合、相違箇所に相当する所定の楽曲の演奏箇所を到来方向とともに記憶する。そして再度同一の楽曲が発せられた場合に、該当する演奏箇所を到来方向とともに前もって通知するための表示を行うことが可能となる。これによりヘッドマウントディスプレイを装着する指揮者等は、演奏者や歌唱者に対して、前もって正確な演奏や発声を促すことが可能となる。 Moreover, in the head mounted display of the invention according to claim 8 , in addition to the effect of the invention according to any one of claims 1 to 7 , when a difference between the acquired sound and the music sound occurs, it corresponds to a different part The performance location of the predetermined music to be recorded is stored together with the direction of arrival. And when the same music is emitted again, it becomes possible to perform the display for notifying the corresponding performance location in advance along with the arrival direction. As a result, a conductor or the like wearing a head-mounted display can prompt the player or singer to perform accurately or speak in advance.

また、請求項に係る発明のヘッドマウントディスプレイでは、請求項1乃至のいずれかに記載の発明の効果に加えて、取得音情報と楽曲音情報とが相違すると判断された場合の累計回数を到来方向別に表示手段に表示させる。これによりヘッドマウントディスプレイを装着する指揮者等は、どの方向より到来した音に誤りが発生し易いかを認識することが可能となる。 In addition, in the head mounted display of the invention according to claim 9 , in addition to the effect of the invention according to any one of claims 1 to 8 , the cumulative number of times when it is determined that the acquired sound information and the music sound information are different. Are displayed on the display means for each direction of arrival. As a result, the conductor or the like wearing the head mounted display can recognize from which direction the error is likely to occur in the incoming sound.

以下、本発明のヘッドマウントディスプレイの実施の形態について、図面を参照して説明する。なお、これらの図面は、本発明が採用しうる技術的特徴を説明するために用いられるものであり、記載されている装置の構成、各種処理のフローチャートなどは、特に特定的な記載がない限り、それのみに限定する趣旨ではなく、単なる説明例である。   Hereinafter, embodiments of the head mounted display of the present invention will be described with reference to the drawings. These drawings are used for explaining the technical features that can be adopted by the present invention, and the configuration of the apparatus described, the flowcharts of various processes, etc., unless otherwise specified. It is not intended to be limited to that, but merely an illustrative example.

はじめに、図1を参照し、ヘッドマウントディスプレイ2が使用されるシステムの一例である合唱練習システム1の概要について説明する。図1は、ヘッドマウントディスプレイ2が使用される合唱練習システム1の概要を示す模式図である。   First, with reference to FIG. 1, the outline | summary of the choral practice system 1 which is an example of the system by which the head mounted display 2 is used is demonstrated. FIG. 1 is a schematic diagram showing an outline of a choral practice system 1 in which a head mounted display 2 is used.

図1に示すように、本発明のヘッドマウントディスプレイ2は、例えば合唱隊6の指揮を行う指揮者3に装着される。ヘッドマウントディスプレイ2では、合唱隊6の発声する音声のレベルずれやテンポずれ、音程ずれの発生の検出、及び、これらの音声を発声した者の居る方向の特定が行われる。検出結果や特定された方向の情報はヘッドマウントディスプレイ2にて表示され、指揮者3により視認される。これにより指揮者3は、レベルやテンポ、音程のずれた音声を発声した者を特定することが可能となるので、該当者を特定して矯正を促すことが可能となる。   As shown in FIG. 1, the head mounted display 2 of the present invention is attached to a conductor 3 who conducts a choir 6, for example. The head mounted display 2 detects the occurrence of a level shift, a tempo shift, and a pitch shift of the voice uttered by the choir 6 and specifies the direction in which the person who uttered these voices is present. Information on the detection result and the specified direction is displayed on the head mounted display 2 and is visually recognized by the conductor 3. As a result, the conductor 3 can identify the person who uttered the sound whose level, tempo, and pitch are shifted, and therefore can identify the person concerned and prompt correction.

合唱練習システム1では、音声を入力する為のマイク12が設けられる(マイク121〜マイク125)。マイク12により検出された音声の情報は、無線によりヘッドマウントディスプレイ2に送信される。マイク121〜125には、無線信号間の混信を防止するために、マイク毎に異なる周波数チャネルがあらかじめ設定される。これにより、無線信号の受信側(ヘッドマウントディスプレイ2、後述)にてそれぞれの無線信号を区別して受信することが可能となっている。またマイク12として、指向性を有する従来周知のマイクが使用される。マイク12は、受信強度の強い方向(指向方向)を合唱隊6に向け、且つ、マイク121〜125が其々異なる指向方向となるように配置される。図1に示す例では、マイク121は、合唱隊6を指揮者3側から見た場合の最左方向に指向方向を向けた状態で配置されている。マイク122は左中方向(最左方向と中央方向との間)、マイク123は中央方向、マイク124は右中方向(最右方向と中央方向との間)、マイク125は最右方向に其々指向方向を向けた状態で配置されている。これによりマイク12では、合唱隊6の個々の構成員より発声される音声を、その到来方向を特定して取得することが可能となる。   In the choral practice system 1, a microphone 12 for inputting voice is provided (microphone 121 to microphone 125). Audio information detected by the microphone 12 is transmitted to the head mounted display 2 by radio. In the microphones 121 to 125, different frequency channels are set in advance for each microphone in order to prevent interference between radio signals. Thereby, it is possible to distinguish and receive each radio signal on the radio signal receiving side (head mounted display 2, which will be described later). As the microphone 12, a conventionally known microphone having directivity is used. The microphones 12 are arranged so that the direction with high reception intensity (directing direction) is directed to the choir 6 and the microphones 121 to 125 have different directivity directions. In the example shown in FIG. 1, the microphone 121 is arranged in a state where the directing direction is directed to the leftmost direction when the choir 6 is viewed from the conductor 3 side. The microphone 122 is in the middle left direction (between the leftmost direction and the center direction), the microphone 123 is in the center direction, the microphone 124 is in the middle right direction (between the rightmost direction and the center direction), and the microphone 125 is in the rightmost direction. They are arranged with their directing directions facing each other. As a result, the microphone 12 can acquire the voice uttered by each member of the choir 6 by specifying the direction of arrival.

ヘッドマウントディスプレイ2では、マイク12より無線送信される音声の情報(以下「音声情報」という。)が受信される。そして、予めヘッドマウントディスプレイ2のフラッシュメモリ49(図3参照、後述)に記憶されている音声の情報であって、合唱隊6により合唱されている楽曲と同一の楽曲の音声の情報(以下「楽曲音情報」という。)と、受信された音声情報とが比較される。双方が比較された結果相違すると判断された場合、合唱隊6のうち特定の者の音のレベルやテンポ、音程がずれていると判断される。音のレベルやテンポ、音程がずれている旨の通知は、該当する音声の到来方向の情報とともに、ヘッドマウントディスプレイ2に表示される。これにより指揮者3は、音程やテンポのずれた音声を発声した者を特定することが可能となる。   The head mounted display 2 receives audio information (hereinafter referred to as “audio information”) wirelessly transmitted from the microphone 12. The voice information stored in the flash memory 49 of the head-mounted display 2 (see FIG. 3, described later) in advance, and the voice information of the same music as the music chorused by the choir 6 (hereinafter “ "Musical sound information") and the received audio information are compared. When it is determined that the two are different as a result of the comparison, it is determined that the sound level, tempo, and pitch of a specific person in the choir 6 are shifted. A notification that the sound level, tempo, and pitch are shifted is displayed on the head mounted display 2 together with information on the arrival direction of the corresponding sound. As a result, the conductor 3 can specify the person who uttered the sound whose pitch or tempo is shifted.

なお本実施の形態では、指向性を有するマイク12が複数使用されているが、本発明はこの構成に限定されない。従って例えば、音の到来方向を特定可能な唯一のマイクアレイを使用してもかまわない。また、マイク12とヘッドマウントディスプレイ2とは、無線電波を用いて音声情報の通信が行われているが、本発明はこれに限定されない。従って、マイク12とヘッドマウントディスプレイ2とを通信ケーブルを介して接続させ、通信ケーブルを介して音声情報の通信が行われる構成であってもよい。   In the present embodiment, a plurality of directional microphones 12 are used, but the present invention is not limited to this configuration. Therefore, for example, a single microphone array that can specify the direction of arrival of sound may be used. The microphone 12 and the head mounted display 2 communicate audio information using radio waves, but the present invention is not limited to this. Accordingly, the microphone 12 and the head mounted display 2 may be connected via a communication cable, and audio information may be communicated via the communication cable.

図2を参照し、ヘッドマウントディスプレイ2の概略構成について説明する。図2は、指揮者3に装着された状態のヘッドマウントディスプレイ2の外観構成を示した図である。   A schematic configuration of the head mounted display 2 will be described with reference to FIG. FIG. 2 is a diagram showing an external configuration of the head mounted display 2 that is mounted on the conductor 3.

図2に示すように、ヘッドマウントディスプレイ2は、画像信号に応じて変調、走査されたレーザ光(以下「画像光4」という。)を出射させ、指揮者3の少なくとも一方の眼の網膜に画像を直接投影する。これにより、指揮者3に画像を視認させる。図2に示すように、ヘッドマウントディスプレイ2は、画像信号に応じて画像光4を出射する出射装置100と、その出射装置100から出射された画像光4を導くと共に、その画像光4を指揮者3の眼に向かって反射させるプリズム150と、出射装置100及びプリズム150を支持する支持部材200とを少なくとも備えている。   As shown in FIG. 2, the head-mounted display 2 emits laser light modulated and scanned in accordance with an image signal (hereinafter referred to as “image light 4”), and is emitted to the retina of at least one eye of the conductor 3. Project the image directly. Thereby, the conductor 3 is made to visually recognize an image. As shown in FIG. 2, the head mounted display 2 emits image light 4 according to an image signal, guides the image light 4 emitted from the emission device 100, and directs the image light 4. It includes at least a prism 150 that reflects toward the eye of the person 3 and a support member 200 that supports the emission device 100 and the prism 150.

出射装置100は、画像光4をプリズム150に対し出射させる。プリズム150は、出射装置100に対して固定的な位置にあり、その出射装置100から出射された画像光4を導き、その画像光4を指揮者3の眼に向かって反射させる。プリズム150は、図示しないビームスプリッタ部を備えており、外界からの外光5を透過させ、指揮者3の眼に導く。プリズム150は、指揮者3の側方から入射された画像光4を指揮者3の眼に入射させると共に、外界からの外光5を指揮者3の眼に入射させる。これにより、実際の視界はもちろん、出射装置100から出射された画像光4に基づく画像が視認可能となる。   The emission device 100 causes the image light 4 to be emitted to the prism 150. The prism 150 is in a fixed position with respect to the emitting device 100, guides the image light 4 emitted from the emitting device 100, and reflects the image light 4 toward the conductor 3 's eyes. The prism 150 includes a beam splitter (not shown), transmits the external light 5 from the outside, and guides it to the eyes of the conductor 3. The prism 150 causes the image light 4 incident from the side of the conductor 3 to enter the eyes of the conductor 3 and causes the external light 5 from the outside to enter the eyes of the conductor 3. Thereby, not only an actual field of view but also an image based on the image light 4 emitted from the emission device 100 can be visually recognized.

またヘッドマウントディスプレイ2は、カメラ7を備えている。カメラ7は、指揮者3の視野方向を撮像することが可能な素子である。撮像された結果の像情報は、状況に応じ、指揮者3に視認させるための映像の基とされる。例えば、カメラ7にて撮影された結果の像情報に基づき合唱隊6の構成員の配置状態が把握される。そして、把握された構成員の配置状態と、音の到来方向とが比較され、音レベルずれやテンポずれ、音程ずれを発生させた者が特定される。このように、合唱隊6の構成員のうち特定者を特定するための情報をヘッドマウントディスプレイ2に表示させ、指揮者3に視認させることが可能となる。   The head mounted display 2 includes a camera 7. The camera 7 is an element that can image the visual field direction of the conductor 3. The image information obtained as a result of the imaging is used as a basis for an image to be visually recognized by the conductor 3 according to the situation. For example, the arrangement state of the members of the choir 6 is grasped based on the image information obtained as a result of being photographed by the camera 7. And the arrangement | positioning state of the grasped member and the direction of arrival of a sound are compared, and the person who generated the sound level shift, the tempo shift, and the pitch shift is specified. In this way, information for identifying a specific person among the members of the choir 6 can be displayed on the head mounted display 2 and can be visually recognized by the conductor 3.

なお本実施形態においては、プリズム150によって外光5と画像光4とを同時に視認することができるような構成とした。しかしながら本発明はこの構成に限定されず、例えば、プリズム150に代えてハーフミラーを用いることもできる。これにより、出射装置100からの画像光4はハーフミラーに反射させて指揮者3の眼に入射させると共に、外光5はハーフミラーを透過させて指揮者3の眼に入射させることが可能となる。   In the present embodiment, the prism 150 allows the external light 5 and the image light 4 to be viewed simultaneously. However, the present invention is not limited to this configuration, and for example, a half mirror can be used instead of the prism 150. As a result, the image light 4 from the emitting device 100 can be reflected by the half mirror and incident on the conductor 3, and the external light 5 can be transmitted through the half mirror and incident on the conductor 3. Become.

また本実施形態においては、ヘッドマウントディスプレイとして、網膜走査を用いたシースルーのヘッドマウントディスプレイを例に挙げて説明したが、本発明はこの例に限定されず、例えば、反射型LCDを利用したヘッドマウントディスプレイであってもよい。   In this embodiment, a see-through head mounted display using retinal scanning is described as an example of the head mounted display. However, the present invention is not limited to this example. For example, a head using a reflective LCD It may be a mount display.

本実施形態のカメラ7としては、従来周知の素子が使用可能である。例えばCMOSイメージセンサやCCDイメージセンサが使用可能である。   As the camera 7 of the present embodiment, a conventionally known element can be used. For example, a CMOS image sensor or a CCD image sensor can be used.

図3を参照し、ヘッドマウントディスプレイ2の電気的構成について説明する。図3は、ヘッドマウントディスプレイ2の電気的構成を示す模式図である。   The electrical configuration of the head mounted display 2 will be described with reference to FIG. FIG. 3 is a schematic diagram showing an electrical configuration of the head mounted display 2.

図3に示すように、ヘッドマウントディスプレイ2は、指揮者3に画像を視認させる表示部40、各種操作やデータの入力を行うための入力部41、マイク12より音声情報を受信するための近距離無線通信部43、音声や映像に関する情報が記憶されるフラッシュメモリ49、ヘッドマウントディスプレイ2全体を制御する制御部46、カメラ7、加速度センサ14、及び電源部47を備えている。   As shown in FIG. 3, the head mounted display 2 includes a display unit 40 for allowing the conductor 3 to visually recognize an image, an input unit 41 for performing various operations and data input, and a proximity for receiving audio information from the microphone 12. A distance wireless communication unit 43, a flash memory 49 that stores information related to audio and video, a control unit 46 that controls the entire head mounted display 2, a camera 7, an acceleration sensor 14, and a power supply unit 47 are provided.

表示部40は、制御部46にて形成された、映像を指揮者3に視認させる場合に必要な制御信号(映像信号)を受信し、指揮者3の網膜に直接投影させるために必要な各信号に変換する為の映像信号処理部70を備えている。また、レーザ光を出力するレーザ群72(青色出力レーザ(Bレーザ)721、緑色出力レーザ(Gレーザ)722、赤色出力レーザ(Rレーザ)723)、及び、レーザよりレーザ光を出力させるための制御を行うレーザドライバ群71を備えている。そして、映像信号処理部70の制御により、所望のレーザ光を所望のタイミングで出力させることが可能なように、映像信号処理部70はレーザドライバ群71と電気的に接続されている。またレーザドライバ群71は、Bレーザ721、Gレーザ722、及びRレーザ723と其々電気的に接続されている。また、映像信号処理部70が制御部46より映像信号を受信することが可能なように、映像信号処理部70と制御部46とはバスを介して電気的に接続されている。   The display unit 40 receives a control signal (video signal) formed by the control unit 46 and is necessary for causing the conductor 3 to visually recognize the video, and directly projects it onto the retina of the conductor 3. A video signal processing unit 70 is provided for conversion into a signal. Further, a laser group 72 (blue output laser (B laser) 721, green output laser (G laser) 722, red output laser (R laser) 723) for outputting laser light, and laser light output from the laser A laser driver group 71 that performs control is provided. The video signal processing unit 70 is electrically connected to the laser driver group 71 so that a desired laser beam can be output at a desired timing under the control of the video signal processing unit 70. The laser driver group 71 is electrically connected to the B laser 721, the G laser 722, and the R laser 723, respectively. Further, the video signal processing unit 70 and the control unit 46 are electrically connected via a bus so that the video signal processing unit 70 can receive a video signal from the control unit 46.

また表示部40は、レーザより出力されたレーザ光を垂直方向に反射させることによって走査を行う垂直走査ミラーであるガルバノミラー812及びガルバノミラー812の駆動制御を行う垂直走査制御回路811、レーザより出力されたレーザ光を水平方向に反射させることによって走査を行う水平走査ミラーであるガルバノミラー792及びガルバノミラー792の駆動制御を行う水平走査制御回路791を備えている。そして、映像信号処理部70の制御により、所望の方向にレーザ光を反射させることが可能なように、映像信号処理部70と垂直走査制御回路811及び水平走査制御回路791とは其々電気的に接続されている。垂直走査制御回路811はガルバノミラー812と電気的に接続されている。水平走査制御回路791はガルバノミラー792と電気的に接続されている。   The display unit 40 also includes a galvano mirror 812 that is a vertical scanning mirror that performs scanning by reflecting the laser beam output from the laser in the vertical direction, a vertical scanning control circuit 811 that performs drive control of the galvano mirror 812, and an output from the laser. A galvano mirror 792 that is a horizontal scanning mirror that performs scanning by reflecting the laser beam that is reflected in the horizontal direction and a horizontal scanning control circuit 791 that controls driving of the galvano mirror 792 are provided. The video signal processing unit 70, the vertical scanning control circuit 811, and the horizontal scanning control circuit 791 are electrically connected so that the laser light can be reflected in a desired direction by the control of the video signal processing unit 70. It is connected to the. The vertical scanning control circuit 811 is electrically connected to the galvanometer mirror 812. The horizontal scanning control circuit 791 is electrically connected to the galvanometer mirror 792.

入力部41は、各種機能キーなどからなる操作ボタン群50、操作ボタン群50のキーが操作されたことを検出し、制御部46に通知する入力制御回路51を備えている。そして、操作ボタン群50のキーに入力された情報を制御部46にて認識することが可能なように、操作ボタン群50は入力制御回路51と電気的に接続されている。また入力制御回路51は制御部46と電気的に接続されている。   The input unit 41 includes an operation button group 50 including various function keys and the like, and an input control circuit 51 that detects that a key of the operation button group 50 is operated and notifies the control unit 46 of the operation. The operation button group 50 is electrically connected to the input control circuit 51 so that the information input to the keys of the operation button group 50 can be recognized by the control unit 46. The input control circuit 51 is electrically connected to the control unit 46.

近距離無線通信部43は、無線電波の受信を行う近距離無線通信モジュール57と、この近距離無線通信モジュール57を制御し、マイク12より送信される音声情報を受信する近距離無線通信制御回路58とを備えている。近距離無線通信モジュール57は、設置されるマイク12(121〜125)の数分設けられる。其々の近距離無線通信モジュール57は其々のマイク12(121〜125)に対応付けられ、対応付けられたマイク12より送信される音声信号を受信することが可能なように、受信周波数が設定される。このような構成とすることにより、近距離無線通信モジュール57にて受信された音声情報をマイク12のいずれかに対応付けることが可能となっている。なお、受信された音声信号は、所定のフォーマットに変換された後、送信元のマイク12を識別するための情報(マイク識別情報)が対応付けられフラッシュメモリ49に記憶される(詳細は後述する)。そして、制御部46にて音声信号を取得することが可能なように、制御部46と近距離無線通信制御回路58とはバスを介して電気的に接続されている。また、近距離無線通信モジュール57と近距離無線通信制御回路58とは電気的に接続されている。   The short-range wireless communication unit 43 controls the short-range wireless communication module 57 that receives radio waves and the short-range wireless communication control circuit 57 that controls the short-range wireless communication module 57 and receives audio information transmitted from the microphone 12. 58. The short-range wireless communication modules 57 are provided by the number of microphones 12 (121 to 125) to be installed. Each short-range wireless communication module 57 is associated with each microphone 12 (121 to 125), and the reception frequency is set so as to be able to receive an audio signal transmitted from the associated microphone 12. Is set. With such a configuration, the audio information received by the short-range wireless communication module 57 can be associated with one of the microphones 12. The received audio signal is converted into a predetermined format, and is associated with information (microphone identification information) for identifying the transmission source microphone 12 and stored in the flash memory 49 (details will be described later). ). The control unit 46 and the short-range wireless communication control circuit 58 are electrically connected via a bus so that the control unit 46 can acquire an audio signal. The short-range wireless communication module 57 and the short-range wireless communication control circuit 58 are electrically connected.

なお、近距離無線通信モジュール57の通信方式としては特に限定されず、従来周知の無線通信方式が使用可能である。例えば、Bluetooth(登録商標)、UWB(Ultra Wide Band)規格、無線LAN(IEEE802.11bなど)規格、WirelessUSB規格などに準拠した無線通信方式が使用可能である。また、赤外線を利用したIrDA(Infrared Data Association)規格に準拠した無線通信方式も
使用可能である。
Note that the communication method of the short-range wireless communication module 57 is not particularly limited, and a conventionally known wireless communication method can be used. For example, a wireless communication system based on Bluetooth (registered trademark), UWB (Ultra Wide Band) standard, wireless LAN (IEEE802.11b, etc.) standard, WirelessUSB standard, or the like can be used. In addition, a wireless communication system based on IrDA (Infrared Data Association) standard using infrared rays can be used.

カメラ7は、指揮者3の視野方向を撮像することが可能な撮像素子を備える。そして、撮像された結果の像情報を制御部46にて認識することが可能なように、カメラ7と制御部46とは電気的に接続されている。   The camera 7 includes an image sensor that can image the visual field direction of the conductor 3. And the camera 7 and the control part 46 are electrically connected so that the image information of the imaged result can be recognized in the control part 46. FIG.

加速度センサ14は、ヘッドマウントディスプレイ2を装着する指揮者3の視野の向いている方向を特定するために使用される。ヘッドマウントディスプレイ2では、初期化時に定められた基準位置からの移動角度が、加速度センサ14により求められ、指揮者3の視野方向が特定される。特定された視野方向は、マイク121〜125の設置されている方向と比較される。これにより、マイク121〜125の指向方向と視野方向とのマッチング処理がなされる(詳細は後述する)。   The acceleration sensor 14 is used to specify the direction in which the visual field of the conductor 3 wearing the head mounted display 2 is facing. In the head mounted display 2, the movement angle from the reference position determined at the time of initialization is obtained by the acceleration sensor 14, and the visual field direction of the conductor 3 is specified. The identified visual field direction is compared with the direction in which the microphones 121 to 125 are installed. Thereby, matching processing between the directivity direction of the microphones 121 to 125 and the visual field direction is performed (details will be described later).

電源部47は、ヘッドマウントディスプレイ2を駆動させるための電源となる電池59、及び、電池59の電力をヘッドマウントディスプレイ2に供給すると共に、充電用アダプタ(図示せず)から供給される電力を電池59へ供給して電池59の充電を行う充電制御回路60を備えている。   The power supply unit 47 supplies a battery 59 serving as a power source for driving the head mounted display 2 and power of the battery 59 to the head mounted display 2 and also supplies power supplied from a charging adapter (not shown). A charge control circuit 60 that supplies the battery 59 to charge the battery 59 is provided.

フラッシュメモリ49には、受信された音声情報が所定の音声フォーマットに変換された結果の情報(以下「音声データ情報」という。)、楽曲音情報が所定の音声フォーマットに変換された情報(以下「楽曲音データ情報」という。)、指揮者3に視認させる画像(グラフィック)やテキストなどのイメージデータ(以下「映像情報」という。)が記憶される。ファイルフォーマットとしては特に限定されず、従来周知のファイルフォーマット(WAV、WMA、MP3等)が使用可能である。そして、制御部46より各記憶領域に記憶された情報を参照することが可能なように、フラッシュメモリ49はバスを介して制御部46と電気的に接続されている。   In the flash memory 49, information obtained as a result of converting received audio information into a predetermined audio format (hereinafter referred to as "audio data information") and information obtained by converting music sound information into a predetermined audio format (hereinafter referred to as "audio data information"). "Musical sound data information"), and image data (hereinafter referred to as "video information") such as images (graphics) and text to be visually recognized by the conductor 3. The file format is not particularly limited, and conventionally known file formats (WAV, WMA, MP3, etc.) can be used. The flash memory 49 is electrically connected to the control unit 46 via the bus so that the information stored in each storage area can be referred to by the control unit 46.

制御部46は、ヘッドマウントディスプレイ2全体を制御する機能を有している。例えば、近距離無線通信部43を介してマイク12より音声情報を受信する処理、所望の情報を表示部40に表示させる処理、指揮者3による入力部41の操作に応じて所定の動作を行う処理等が、制御部46により実行される。制御部46は、CPU61、各種プログラムを格納したROM62、各種データが一時的に記憶されるRAM48などから構成されている。制御部46では、CPU61によりROM62に格納された各種プログラムが読み出され、既述の各処理が実行される。RAM48は、CPU61が各処理を実行する場合に必要な各種フラグやデータの記憶領域を提供する。   The control unit 46 has a function of controlling the entire head mounted display 2. For example, a process of receiving voice information from the microphone 12 via the short-range wireless communication unit 43, a process of displaying desired information on the display unit 40, and a predetermined operation according to the operation of the input unit 41 by the conductor 3 are performed. Processing and the like are executed by the control unit 46. The control unit 46 includes a CPU 61, a ROM 62 that stores various programs, a RAM 48 that temporarily stores various data, and the like. In the control unit 46, the CPU 61 reads out various programs stored in the ROM 62, and executes the processes described above. The RAM 48 provides storage areas for various flags and data required when the CPU 61 executes each process.

表示部40にて画像光4が形成される過程の概要について、図4を参照して詳説する。図4は、表示部40の電気的及び光学的構成を示す模式図である。表示部40は、図4に示すように、光源ユニット部65、コリメート光学系77、水平走査系79、第一リレー光学系80、垂直走査系81、第二リレー光学系82を備えている。光源ユニット部65は、映像信号処理部70、レーザドライバ群71、レーザ群72、コリメート光学系73、ダイクロイックミラー群74、及び結合光学系75を備えている。水平走査系79は、水平走査制御回路791及びガルバノミラー792を備えている。垂直走査系81は、垂直走査制御回路811及びガルバノミラー812を備えている。   The outline of the process of forming the image light 4 on the display unit 40 will be described in detail with reference to FIG. FIG. 4 is a schematic diagram showing an electrical and optical configuration of the display unit 40. As shown in FIG. 4, the display unit 40 includes a light source unit 65, a collimating optical system 77, a horizontal scanning system 79, a first relay optical system 80, a vertical scanning system 81, and a second relay optical system 82. The light source unit 65 includes a video signal processing unit 70, a laser driver group 71, a laser group 72, a collimating optical system 73, a dichroic mirror group 74, and a coupling optical system 75. The horizontal scanning system 79 includes a horizontal scanning control circuit 791 and a galvanometer mirror 792. The vertical scanning system 81 includes a vertical scanning control circuit 811 and a galvanometer mirror 812.

光源ユニット部65の構成について詳説する。映像信号処理部70は、既述のように、制御部46と電気的に接続されている。そして、制御部46にて形成された映像信号が入力される。映像信号処理部70には、輝度信号66(B輝度信号661、G輝度信号662、R輝度信号663)、垂直同期信号67及び水平同期信号68が其々電気的に接続される。映像信号処理部70では、入力された映像情報を網膜に投影させるための要素となる各信号(輝度信号、垂直同期信号、水平同期信号)が生成される。生成された各信号は、輝度信号66、垂直同期信号67、及び水平同期信号68に対して画素毎に出力される。   The configuration of the light source unit 65 will be described in detail. The video signal processing unit 70 is electrically connected to the control unit 46 as described above. Then, the video signal formed by the control unit 46 is input. A luminance signal 66 (B luminance signal 661, G luminance signal 662, R luminance signal 663), vertical synchronizing signal 67, and horizontal synchronizing signal 68 are electrically connected to the video signal processing unit 70, respectively. In the video signal processing unit 70, each signal (luminance signal, vertical synchronization signal, horizontal synchronization signal) that is an element for projecting the input video information onto the retina is generated. Each of the generated signals is output for each pixel with respect to the luminance signal 66, the vertical synchronization signal 67, and the horizontal synchronization signal 68.

輝度信号66(B輝度信号661、G輝度信号662、R輝度信号663)は、レーザドライバ群71(Bレーザドライバ711、Gレーザドライバ712、Rレーザドライバ713)に其々電気的に接続される。水平同期信号68は、水平走査系79の水平走査制御回路791に接続される。垂直同期信号67は、垂直走査系81の垂直走査制御回路811に接続される。   The luminance signal 66 (B luminance signal 661, G luminance signal 662, R luminance signal 663) is electrically connected to the laser driver group 71 (B laser driver 711, G laser driver 712, R laser driver 713), respectively. . The horizontal synchronization signal 68 is connected to the horizontal scanning control circuit 791 of the horizontal scanning system 79. The vertical synchronization signal 67 is connected to the vertical scanning control circuit 811 of the vertical scanning system 81.

レーザドライバ群71は、レーザ群72(Bレーザ721、Gレーザ722、Rレーザ723)に其々電気的に接続される。レーザドライバ群71は、輝度信号66(B輝度信号661、G輝度信号662、R輝度信号663)を介して伝達された各信号の各輝度信号に基づいて、強度変調されたレーザ光をレーザ群72より出射させるために、レーザ群72を駆動する。   The laser driver group 71 is electrically connected to the laser group 72 (B laser 721, G laser 722, R laser 723), respectively. The laser driver group 71 applies laser light that has been intensity-modulated based on each luminance signal of each signal transmitted via the luminance signal 66 (B luminance signal 661, G luminance signal 662, R luminance signal 663). In order to emit light from 72, the laser group 72 is driven.

また、レーザドライバ群71の制御に基づきレーザ群72より出射された3色(青色、緑色、赤色)のレーザ光を平行光にコリメートさせることが可能なコリメート光学系73(731〜733)、コリメート光学系73にてコリメートされたレーザ光を合波させることが可能なダイクロイックミラー群74(741〜743)、合波されたレーザ光を光ファイバ76に導くための結合光学系75が其々設けられる。   Further, a collimating optical system 73 (731 to 733) capable of collimating three colors (blue, green, and red) of laser light emitted from the laser group 72 under the control of the laser driver group 71 into parallel light, and a collimator A dichroic mirror group 74 (741 to 743) capable of combining the laser beams collimated by the optical system 73 and a coupling optical system 75 for guiding the combined laser light to the optical fiber 76 are provided. It is done.

尚、レーザ群72(Bレーザ721、Gレーザ722、Rレーザ723)として、レーザダイオード等の半導体レーザや固体レーザを利用してもよい。   As the laser group 72 (B laser 721, G laser 722, R laser 723), a semiconductor laser such as a laser diode or a solid-state laser may be used.

表示部40のうち光源ユニット部65を除く部分の構成について詳説する。光源ユニット部65より光ファイバ76に対して導かれたレーザ光を水平走査系79のガルバノミラー792に導くためのコリメート光学系77が設けられる。ガルバノミラー792は、レーザ光を水平方向に走査させる。ガルバノミラー792の偏向面793に入射されたレーザ光は、水平走査制御回路791の制御により、映像信号処理部70より受信される水平同期信号68に同期して水平方向に走査される。本実施の形態の水平走査系79は、表示すべき画像の1走査線毎に、レーザ光を水平方向に水平走査させるための光学系である。   The configuration of the display unit 40 excluding the light source unit 65 will be described in detail. A collimating optical system 77 for guiding the laser light guided from the light source unit 65 to the optical fiber 76 to the galvanometer mirror 792 of the horizontal scanning system 79 is provided. The galvanometer mirror 792 scans the laser beam in the horizontal direction. The laser light incident on the deflection surface 793 of the galvanometer mirror 792 is scanned in the horizontal direction in synchronization with the horizontal synchronization signal 68 received from the video signal processing unit 70 under the control of the horizontal scanning control circuit 791. The horizontal scanning system 79 of this embodiment is an optical system for horizontally scanning a laser beam in the horizontal direction for each scanning line of an image to be displayed.

また、水平走査されたレーザ光を垂直走査系81に導くための第一リレー光学系80と、第一リレー光学系80により導かれたレーザ光を垂直方向に走査させるためのガルバノミラー812が設けられる。ガルバノミラー812の偏向面813に入射されたレーザ光は、垂直走査制御回路811の制御により、映像信号処理部70より受信される垂直同期信号67に同期して垂直方向に走査される。本実施の形態の垂直走査系81は、表示すべき画像の1フレーム毎に、レーザ光を最初の走査線から最後の走査線に向かって垂直に垂直走査する光学系である。   Further, a first relay optical system 80 for guiding the horizontally scanned laser light to the vertical scanning system 81 and a galvanometer mirror 812 for scanning the laser light guided by the first relay optical system 80 in the vertical direction are provided. It is done. The laser light incident on the deflection surface 813 of the galvanometer mirror 812 is scanned in the vertical direction in synchronization with the vertical synchronization signal 67 received from the video signal processing unit 70 under the control of the vertical scanning control circuit 811. The vertical scanning system 81 of this embodiment is an optical system that vertically scans a laser beam vertically from the first scanning line to the last scanning line for each frame of an image to be displayed.

また、垂直走査されたレーザ光(画像光4)をプリズム150に導くための第二リレー光学系82が設けられる。第二リレー光学系82にて導かれた画像光4は、プリズム150に入射される。プリズム150は、既述のように、第二リレー光学系82と指揮者3の瞳孔90との間に配置される。プリズム150は、画像光4を全反射させるなどして、ユーザの瞳孔90に導く。   A second relay optical system 82 for guiding the vertically scanned laser light (image light 4) to the prism 150 is also provided. The image light 4 guided by the second relay optical system 82 enters the prism 150. As described above, the prism 150 is arranged between the second relay optical system 82 and the pupil 90 of the conductor 3. The prism 150 guides the image light 4 to the user's pupil 90 by totally reflecting it.

上述の表示部40では、水平走査系79は、垂直走査系81より高速にすなわち高周波数でレーザ光を走査するように設計される。また、第一リレー光学系80は、水平走査系79のガルバノミラー792と、垂直走査系81のガルバノミラー812とが共役となるように設けられる。第二リレー光学系82は、ガルバノミラー812と、ユーザの瞳孔90とが共役となるように設けられる。   In the display unit 40 described above, the horizontal scanning system 79 is designed to scan the laser beam at a higher speed, that is, at a higher frequency than the vertical scanning system 81. The first relay optical system 80 is provided so that the galvanometer mirror 792 of the horizontal scanning system 79 and the galvanometer mirror 812 of the vertical scanning system 81 are conjugate. The second relay optical system 82 is provided so that the galvanometer mirror 812 and the pupil 90 of the user are conjugate.

本発明の一実施形態のヘッドマウントディスプレイ2が、外部からの映像信号を受けてから、ユーザの網膜上に映像を投影するまでの過程について、図4を参照して説明する。   A process from when the head-mounted display 2 according to the embodiment of the present invention receives an image signal from the outside to when the image is projected onto the retina of the user will be described with reference to FIG.

本実施形態のヘッドマウントディスプレイ2では、光源ユニット部65に設けられた映像信号処理部70が制御部46より映像信号を受信する。次いで映像信号処理部70より、赤、緑、青の各色のレーザ光を出力させるためのB輝度信号661、G輝度信号662、R輝度信号663からなる輝度信号66と、水平同期信号68と、垂直同期信号67とが出力される。   In the head mounted display 2 of the present embodiment, the video signal processing unit 70 provided in the light source unit 65 receives a video signal from the control unit 46. Next, the video signal processing unit 70 outputs a luminance signal 66 including a B luminance signal 661, a G luminance signal 662, and an R luminance signal 663 for outputting laser beams of red, green, and blue, a horizontal synchronization signal 68, A vertical synchronizing signal 67 is output.

Bレーザドライバ711、Gレーザドライバ712、Rレーザドライバ713は、各々入力されたB輝度信号661、G輝度信号662、R輝度信号663に基づき、Bレーザ721、Gレーザ722、Rレーザ723に対してそれぞれの駆動信号を出力する。   The B laser driver 711, the G laser driver 712, and the R laser driver 713 are respectively applied to the B laser 721, the G laser 722, and the R laser 723 based on the input B luminance signal 661, G luminance signal 662, and R luminance signal 663. Output each drive signal.

上述の駆動信号に基づいて、Bレーザ721、Gレーザ722、Rレーザ723は、それぞれ強度変調されたレーザ光を発生させる。発生されたレーザ光は、コリメート光学系73に出力される。レーザ光は、コリメート光学系73によってそれぞれが平行光にコリメートされ、更に、ダイクロイックミラー群74に入射されて1つのレーザ光となるよう合成される。合成されたレーザ光は、結合光学系75によって光ファイバ76に入射されるよう導かれる。   Based on the drive signal described above, the B laser 721, the G laser 722, and the R laser 723 each generate intensity-modulated laser light. The generated laser light is output to the collimating optical system 73. Each of the laser beams is collimated into parallel light by the collimating optical system 73, and further, is incident on the dichroic mirror group 74 to be combined into one laser beam. The combined laser beam is guided to enter the optical fiber 76 by the coupling optical system 75.

光ファイバ76を伝達したレーザ光は、光ファイバ76からコリメート光学系77に導かれる。そして水平走査系79に出射される。   The laser light transmitted through the optical fiber 76 is guided from the optical fiber 76 to the collimating optical system 77. Then, the light is emitted to the horizontal scanning system 79.

水平走査系79に入射されたレーザ光は、ガルバノミラー792の偏向面793にて、水平同期信号68に同期して水平方向に走査される。ガルバノミラー792は、水平同期信号68に同期して、その偏向面793が入射光を水平方向に反射するように往復振動をしている。このガルバノミラー792によってレーザ光は水平方向に走査される。水平走査されたレーザ光は、第一リレー光学系80を介し、垂直走査系81に出射される。   The laser light incident on the horizontal scanning system 79 is scanned in the horizontal direction in synchronization with the horizontal synchronization signal 68 on the deflection surface 793 of the galvanometer mirror 792. The galvanometer mirror 792 is reciprocally oscillated in synchronization with the horizontal synchronizing signal 68 so that the deflecting surface 793 reflects incident light in the horizontal direction. The galvano mirror 792 scans the laser beam in the horizontal direction. The horizontally scanned laser light is emitted to the vertical scanning system 81 via the first relay optical system 80.

第一リレー光学系80では、ガルバノミラー792の偏向面793とガルバノミラー812の偏向面813とが共役の関係となるように調整され、また、ガルバノミラー792の面倒れが補正される。   In the first relay optical system 80, the deflection surface 793 of the galvanometer mirror 792 and the deflection surface 813 of the galvanometer mirror 812 are adjusted to have a conjugate relationship, and the surface tilt of the galvanometer mirror 792 is corrected.

垂直走査系81に入射されたレーザ光は、ガルバノミラー812の偏向面813にて、垂直同期信号67に同期して垂直方向に走査される。ガルバノミラー812は、ガルバノミラー792が水平同期信号68に同期することと同様に垂直同期信号67に同期して、その偏向面813が入射光を垂直方向に反射するように往復振動をしている。このガルバノミラー812によってレーザ光は垂直方向に走査される。   The laser light incident on the vertical scanning system 81 is scanned in the vertical direction in synchronization with the vertical synchronization signal 67 on the deflection surface 813 of the galvanometer mirror 812. The galvanometer mirror 812 is reciprocally oscillated so that the deflection surface 813 reflects incident light in the vertical direction in synchronization with the vertical synchronization signal 67 in the same manner as the galvanometer mirror 792 is synchronized with the horizontal synchronization signal 68. . Laser light is scanned in the vertical direction by the galvanometer mirror 812.

水平走査系79及び垂直走査系81によって垂直方向及び水平方向に2次元に走査されたレーザ光(画像光4)は、ガルバノミラー812の偏向面813と、ユーザの瞳孔90とが共役の関係となるように設けられた第二リレー光学系82、プリズム150によりユーザの瞳孔90へ入射され、網膜上に投影される。   The laser light (image light 4) scanned two-dimensionally in the vertical and horizontal directions by the horizontal scanning system 79 and the vertical scanning system 81 has a conjugate relationship between the deflection surface 813 of the galvano mirror 812 and the pupil 90 of the user. The light is incident on the user's pupil 90 by the second relay optical system 82 and the prism 150, and projected onto the retina.

以上説明した過程を経ることにより、指揮者3は、2次元走査されて網膜上に投影された画像光4による画像を認識することが可能となる。なお、水平走査系79のガルバノミラー792と、垂直走査系81のガルバノミラー812とは、名称を同じように説明したが、光を走査するように其の反射面が揺動(回転)させられるものであれば、共振タイプ、非共振タイプ等、圧電駆動、電磁駆動、静電駆動等いずれの駆動方式によるものであってもよいことは言うまでもない。   Through the process described above, the conductor 3 can recognize the image by the image light 4 that is two-dimensionally scanned and projected onto the retina. The galvanometer mirror 792 of the horizontal scanning system 79 and the galvanometer mirror 812 of the vertical scanning system 81 have the same names, but their reflecting surfaces are swung (rotated) so as to scan light. It goes without saying that any drive system such as a resonance type, non-resonance type, piezoelectric drive, electromagnetic drive, electrostatic drive, or the like may be used.

図5乃至7を参照し、フラッシュメモリ49の記憶領域及び記憶される情報について説明する。図5は、フラッシュメモリ49の記憶領域を示す模式図である。図6は、音声関連記憶領域491に記憶される音声データ関連情報を示す模式図である。図7は、相違情報記憶領域493に記憶される相違情報を示す模式図である。   The storage area of the flash memory 49 and the stored information will be described with reference to FIGS. FIG. 5 is a schematic diagram showing a storage area of the flash memory 49. FIG. 6 is a schematic diagram showing audio data related information stored in the audio related storage area 491. FIG. 7 is a schematic diagram showing difference information stored in the difference information storage area 493.

図5を参照し、フラッシュメモリ49の記憶領域について説明する。図5に示すように、フラッシュメモリ49には、音声関連記憶領域491、楽曲音記憶領域492、相違情報記憶領域493、音声記憶領域494、映像記憶領域495、及びその他の領域が設けられている。音声関連記憶領域491には、音声データ情報に関連する情報(以下「音声データ関連情報」という。)が記憶される。楽曲音記憶領域492には、楽曲音データ情報が記憶される。相違情報記憶領域493には、音声データ情報と楽曲音データ情報とが比較された結果の情報(以下「相違情報」という。)が記憶される。音声記憶領域494には、音声データ情報が記憶される。映像記憶領域495には、映像情報が記憶される。以下、記憶される情報の詳細について説明する。   The storage area of the flash memory 49 will be described with reference to FIG. As shown in FIG. 5, the flash memory 49 is provided with an audio-related storage area 491, a music sound storage area 492, a difference information storage area 493, an audio storage area 494, a video storage area 495, and other areas. . The sound related storage area 491 stores information related to the sound data information (hereinafter referred to as “sound data related information”). The music sound storage area 492 stores music sound data information. The difference information storage area 493 stores information (hereinafter referred to as “difference information”) as a result of comparison between the audio data information and the music sound data information. Audio data information is stored in the audio storage area 494. Video information is stored in the video storage area 495. Details of the stored information will be described below.

音声関連記憶領域491に記憶されている音声データ関連情報について、図6を参照し説明する。図6に示す例では、音声データ関連情報として「ファイル名」及び「マイク識別情報」の情報項目が設けられている。「ファイル名」としては、音声データ情報のファイル名が記憶される。「マイク識別情報」としては、音声データ情報の基となる音声を受信した近距離無線通信モジュール57に対応付けられているマイク12の識別情報が記憶される。   The audio data related information stored in the audio related storage area 491 will be described with reference to FIG. In the example illustrated in FIG. 6, information items “file name” and “microphone identification information” are provided as audio data related information. As the “file name”, the file name of the audio data information is stored. As the “microphone identification information”, the identification information of the microphone 12 associated with the short-range wireless communication module 57 that has received the voice that is the basis of the voice data information is stored.

ヘッドマウントディスプレイ2では、マイク12より音声情報を受信した場合、取得した音声情報を所定の音声データフォーマットに変換し、音声データ情報が作成される。作成された音声データ情報は、音声記憶領域494に記憶される。音声データ情報のファイル名の情報は、基となる音声情報を送信したマイク12の識別情報に対応付けられ、音声データ関連情報として音声関連記憶領域491に記憶される。マイク12は指向性を有しているので、音声データ情報とマイク12の識別情報とを関連付けて記憶することにより、音声の到来方向を特定することが可能となる。   In the head mounted display 2, when audio information is received from the microphone 12, the acquired audio information is converted into a predetermined audio data format to generate audio data information. The created audio data information is stored in the audio storage area 494. The information of the file name of the audio data information is associated with the identification information of the microphone 12 that transmitted the basic audio information, and is stored in the audio related storage area 491 as the audio data related information. Since the microphone 12 has directivity, the voice arrival direction can be specified by storing the voice data information and the identification information of the microphone 12 in association with each other.

図6に示す例では、音声データ情報のファイル名は「AA1.mp3」であり、マイク識別情報は「121」である。従って、合唱隊6を指揮者3側から見た場合の最左方向より、「AA1.mp3」の基となる音声情報が発せられている。また、音声データ情報のファイル名は「AA2.mp3」であり、マイク識別情報は「122」である。従って、合唱隊6を指揮者3側から見た場合の左中方向より、「AA2.mp3」の基となる音声情報が発せられている。   In the example shown in FIG. 6, the file name of the audio data information is “AA1.mp3”, and the microphone identification information is “121”. Therefore, audio information that is the basis of “AA1.mp3” is emitted from the leftmost direction when the choir 6 is viewed from the conductor 3 side. The file name of the audio data information is “AA2.mp3”, and the microphone identification information is “122”. Therefore, voice information that is the basis of “AA2.mp3” is emitted from the left middle direction when the choir 6 is viewed from the conductor 3 side.

楽曲音記憶領域492に記憶されている楽曲音データ情報について説明する。楽曲音データ情報としては、合唱隊6により合唱される楽曲の楽曲音データ情報があらかじめ複数記憶されている。これらの情報は、理想的な合唱音声のデータ情報として、音声情報を受信た場合に比較対象とされる。そして双方に相違があると判断された場合に、受信した音声情報にずれ(音レベル、テンポ、音程等)が発生しているものと判断される(詳細は後述する)。   The music sound data information stored in the music sound storage area 492 will be described. As the music sound data information, a plurality of music sound data information of music to be sung by the choir 6 is stored in advance. These pieces of information are used as comparison targets when voice information is received as ideal choral voice data information. If it is determined that there is a difference between the two, it is determined that a deviation (sound level, tempo, pitch, etc.) has occurred in the received audio information (details will be described later).

相違情報記憶領域493に記憶されている相違情報について、図7を参照し説明する。相違情報は、音声データ情報と楽曲音データ情報とが比較され、双方の音声が相違すると判断された場合に、相違内容に関する情報が記憶される。なお相違情報は、比較された楽曲データ情報の楽曲に対応付けられ、楽曲毎に記憶される。図7では、それらのうち唯一の楽曲に相当する相違情報のみ示されている。   The difference information stored in the difference information storage area 493 will be described with reference to FIG. As for the difference information, when the audio data information and the music sound data information are compared and it is determined that the two sounds are different, information regarding the difference contents is stored. The difference information is associated with the music pieces of the music data information compared and stored for each music piece. In FIG. 7, only the difference information corresponding to the only music is shown.

図7に示すように、相違情報として「マイク識別情報」「相違箇所」「相違内容」「相違量」「累計回数」の情報項目が設けられている。「マイク識別情報」としては、マイク12の識別情報が記憶される。「相違箇所」としては、相違すると判断された箇所の情報として、楽曲の開始時点から相違すると判断された箇所迄の経過時間が記憶される。   As shown in FIG. 7, information items of “microphone identification information”, “difference portion”, “difference content”, “difference amount”, and “total number of times” are provided as difference information. As “microphone identification information”, identification information of the microphone 12 is stored. As the “difference part”, the elapsed time from the start point of the music to the part determined to be different is stored as information on the part determined to be different.

「相違内容」としては、相違すると判断された場合の相違内容が記憶される。図7に示す例では、双方の音声の振幅レベルが異なり「レベルずれ」が生じていることを示す「レベル」、双方の音声のタイミングが異なり「テンポずれ」が生じていることを示す「テンポ」、及び、双方の音声の周波数が異なり「音程ずれ」が生じていることを示す「音程」のうちいずれかが「相違内容」として記憶されている。   As “difference content”, the difference content when it is determined that there is a difference is stored. In the example shown in FIG. 7, “level” indicating that the amplitude levels of both voices are different and “level deviation” has occurred, and “tempo” indicating that both voices have different timings and “tempo deviation” has occurred. ”And“ Pitch ”indicating that the frequencies of both voices are different and“ pitch deviation ”is occurring, is stored as“ difference content ”.

「相違量」としては、相違すると判断された場合の相違の程度の定量値が記憶される。図7に示す例では、相違内容が「レベルずれ」の場合は、振幅差(単位:dB)が記憶される。相違内容が「テンポずれ」の場合は、タイミングずれの時間(単位:s)が記憶される。相違内容が「音程ずれ」の場合は、周波数差(単位:Hz)が記憶される。「累計回数」としては、相違の回数が相違内容毎に記憶される。   As the “difference amount”, a quantitative value of the degree of difference when it is determined that there is a difference is stored. In the example shown in FIG. 7, when the difference content is “level deviation”, an amplitude difference (unit: dB) is stored. When the difference is “tempo shift”, the timing shift time (unit: s) is stored. When the difference is “pitch deviation”, the frequency difference (unit: Hz) is stored. As the “total number of times”, the number of differences is stored for each difference content.

図7に示す例では、マイク121より受信された音声の音声データ情報が楽曲音データ情報と比較された結果、楽曲開始から10s経過後のタイミングでテンポが0.5s遅れ、その累計回数は2である。楽曲開始から24s経過後のタイミングでテンポが1s進み、その累計回数は1である。また、マイク122より受信された音声の音声データ情報が楽曲音データ情報と比較された結果、楽曲開始から21s経過後のタイミングで音程が0.3Hz高域側にずれ、その累計回数は3である。楽曲開始から36s経過後のタイミングでレベルが3dB小さく、その累計回数は4である。   In the example shown in FIG. 7, as a result of comparing the audio data information of the audio received from the microphone 121 with the music sound data information, the tempo is delayed by 0.5 s at the timing after 10 s from the start of the music, and the cumulative number is 2 It is. The tempo advances by 1 s at the timing after 24 s from the start of the music, and the cumulative number is 1. Further, as a result of comparing the audio data information of the audio received from the microphone 122 with the music sound data information, the pitch is shifted to the high frequency side of 0.3 Hz at the timing after 21 s from the start of the music, and the cumulative number is 3. is there. The level is 3 dB lower at the timing after 36 s from the start of the music, and the cumulative number is 4.

音声記憶領域494には、音声関連記憶領域491に記憶されている音声データ関連情報のファイル名に対応する音声データ情報が記憶される。   In the audio storage area 494, audio data information corresponding to the file name of the audio data related information stored in the audio related storage area 491 is stored.

映像記憶領域495に記憶されている映像情報としては、合唱隊6のうち所定の構成員を特定するための構成員通知映像情報、相違量を定量的に視認させるための相違量映像情報等が記憶される。映像情報は、指揮者3に映像を視認させるための処理が実行される場合に、制御部46のCPU61より読みだされる。   Examples of the video information stored in the video storage area 495 include member notification video information for identifying a predetermined member of the choir 6 and difference amount video information for quantitatively visualizing the difference amount. Remembered. The video information is read from the CPU 61 of the control unit 46 when processing for causing the conductor 3 to visually recognize the video is executed.

ヘッドマウントディスプレイ2のCPU61にて実行される処理の詳細について、図8及び図9を参照して説明する。図8は、CPU61にて実行される相違通知処理のフローチャートである。図9は、相違特定処理のサブルーティンフローチャートである。相違通知処理は、ヘッドマウントディスプレイ2の電源が投入された場合において、CPU61により起動され実行される。   Details of processing executed by the CPU 61 of the head mounted display 2 will be described with reference to FIGS. FIG. 8 is a flowchart of the difference notification process executed by the CPU 61. FIG. 9 is a subroutine flowchart of the difference specifying process. The difference notification process is activated and executed by the CPU 61 when the power of the head mounted display 2 is turned on.

相違通知処理において使用されるフラグについて説明する。フラグ1は、レベルずれが発生したか否かを特定するために使用される。レベルずれが発生した場合に1が記憶される。フラグ2は、テンポずれが発生したか否かを特定するために使用される。テンポずれが発生した場合に1が記憶される。フラグ3は、音程ずれが発生したか否かを特定するために使用される。音程ずれが発生した場合に1が記憶される。なおこれらのフラグは、RAM48に記憶されており、電源投入時において0が記憶され初期化される。以下、上述のフラグに0が記憶される場合に「OFFされる」といい、1が記憶される場合に「ONされる」という。   A flag used in the difference notification process will be described. The flag 1 is used to specify whether or not a level shift has occurred. 1 is stored when a level shift occurs. The flag 2 is used to specify whether or not a tempo shift has occurred. 1 is stored when a tempo shift occurs. The flag 3 is used to specify whether or not a pitch shift has occurred. 1 is stored when a pitch shift occurs. These flags are stored in the RAM 48, and 0 is stored and initialized when the power is turned on. Hereinafter, it is referred to as “turned off” when 0 is stored in the above flag, and “turned on” when 1 is stored.

図8に示すように、ヘッドマウントディスプレイ2のCPU61では、はじめに、加速度センサ14からの情報が参照され、ヘッドマウントディスプレイ2を装着する指揮者3の視野方向が特定される(S11)。これにより、マイク121〜125の指向方向と指揮者3の視野方向とのマッチングがなされる。具体的には、指揮者3の視野の中心方向が、マイク121〜125の指向方向のうちいずれの指向方向と一致するかが特定される。これにより、ヘッドマウントディスプレイ2の表示領域とマイク12の指向方向との相関が確立される。   As shown in FIG. 8, in the CPU 61 of the head mounted display 2, first, information from the acceleration sensor 14 is referred to, and the visual field direction of the conductor 3 wearing the head mounted display 2 is specified (S11). Thereby, matching with the directivity direction of the microphones 121-125 and the visual field direction of the conductor 3 is made. Specifically, it is specified which of the directional directions of the microphones 121 to 125 matches the central direction of the visual field of the conductor 3. Thereby, the correlation between the display area of the head mounted display 2 and the directivity direction of the microphone 12 is established.

次いで、カメラ7により合唱隊6が撮影される。撮影された結果の像情報は画像処理され、合唱隊6の構成員の配置状態が特定される。そして、特定された合唱隊6の構成員の配置状態と、既述のマイク12の指向方向とが関係付けられ、マイク12の指向方向に配置する合唱隊6の構成員が其々特定される。   Next, the choir 6 is photographed by the camera 7. Image information of the photographed result is subjected to image processing, and the arrangement state of the members of the choir 6 is specified. And the arrangement | positioning state of the member of the specified choir 6 and the directivity direction of the microphone 12 mentioned above are related, and the member of the choir 6 arrange | positioned in the directivity direction of the microphone 12 is specified, respectively. .

次いで、近距離無線通信モジュール57及び近距離無線通信制御回路58を介してマイク12より音声情報を受信したか否かが判断される(S13)。マイク12より何ら音声情報が受信されていない状態では(S13:NO)、特段処理を行うことなくS11に戻り、継続してヘッドマウントディスプレイ2を装着する指揮者3の視野方向の特定処理が実行される。   Next, it is determined whether audio information has been received from the microphone 12 via the short-range wireless communication module 57 and the short-range wireless communication control circuit 58 (S13). When no audio information is received from the microphone 12 (S13: NO), the process returns to S11 without performing any special process, and the process of specifying the visual field direction of the conductor 3 wearing the head-mounted display 2 is executed continuously. Is done.

近距離無線通信モジュール57及び近距離無線通信制御回路58を介して音声情報が受信された場合(S13:YES)、次いで、受信された音声情報の音声データ情報への変換処理が開始される。変換された音声データ情報は、フラッシュメモリ49の音声記憶領域494に記憶される。また、音声データ情報の基となった音声情報を受信した近距離無線通信モジュール57に対応付けられているマイク12の識別情報が、変換された音声データ情報のファイル名とともに音声関連記憶領域491に記憶されている音声データ関連情報に記憶される(S15)。   When voice information is received via the short-range wireless communication module 57 and the short-range wireless communication control circuit 58 (S13: YES), conversion processing of the received voice information into voice data information is then started. The converted audio data information is stored in the audio storage area 494 of the flash memory 49. Further, the identification information of the microphone 12 associated with the short-range wireless communication module 57 that has received the voice information that is the basis of the voice data information is stored in the voice-related storage area 491 together with the file name of the converted voice data information. It is stored in the stored audio data related information (S15).

次いで、S13において受信が開始された音声情報の基となる音声が、いずれの楽曲について合唱されたものであるかを特定し、相当する楽曲音データ情報を選択する処理が実行される。具体的には、はじめに、S15にて記憶開始された音声データ情報が音声認識される。音声認識では、音声データ情報に含まれる歌詞のフレーズ抽出が行われて音素に分解される。次いで、分解された音素毎の音声波形の音程及び音素長が、楽曲音記憶領域492に記憶されている楽曲音データ情報に基づく音程及び音素長と比較される。そして双方が一致した場合の楽曲音データ情報が、比較対象とする楽曲音データ情報として選択される(S17)。   Next, a process is performed in which the music that is the basis of the audio information whose reception is started in S13 is specified for which music is selected and the corresponding music sound data information is selected. Specifically, first, the voice data information started to be stored in S15 is voice-recognized. In speech recognition, phrases of lyrics included in speech data information are extracted and decomposed into phonemes. Next, the pitch and phoneme length of the speech waveform for each decomposed phoneme are compared with the pitch and phoneme length based on the music sound data information stored in the music sound storage area 492. Then, the music sound data information when the two match is selected as the music sound data information to be compared (S17).

なお、上述の選択処理は一例であり、他の方法により楽曲音データ情報を選択してもかまわない。例えば、予め入力部41を介して入力される楽曲の情報に基づいて、比較対象とする楽曲音データ情報を選択してもよい。   The above selection process is an example, and the music sound data information may be selected by another method. For example, music sound data information to be compared may be selected based on music information input in advance via the input unit 41.

また上述の選択処理と同時に、受信中の音声情報の音声が、楽曲音データ情報中のどの演奏部分に相当する音声であるかが特定される。相当する音声が特定された場合、楽曲音データ情報の演奏開始時点から当該音声が演奏されるタイミングまでの経過時間が、RAM48のカウンタに記憶される。以後、カウンタは時間経過とともに更新される。後述の相違特定処理(図9参照)では、楽曲音データ情報中カウンタにて特定される経過時間だけ経過した時点の情報と、受信した直後の音声情報の音声データ情報とが比較される。   Simultaneously with the selection process described above, it is specified which performance part in the music sound data information corresponds to the sound of the audio information being received. When the corresponding sound is specified, the elapsed time from the start of performance of the music sound data information to the timing at which the sound is played is stored in the counter of the RAM 48. Thereafter, the counter is updated over time. In the difference specifying process (see FIG. 9), which will be described later, the information at the time when the elapsed time specified by the counter in the music sound data information has elapsed is compared with the audio data information of the audio information immediately after reception.

次いで、S15にて記憶開始された音声データ情報のうち受信した直後の音声情報部分と、選択された楽曲音データ情報とが比較され、双方間でレベルずれ、テンポずれ、及び音程ずれが生じているか否かが判断される(S19)。   Next, the audio information portion immediately after reception in the audio data information started to be stored in S15 is compared with the selected music sound data information, resulting in a level shift, tempo shift, and pitch shift between the two. It is determined whether or not there is (S19).

図9を参照し、相違特定処理(S19、図8参照)について説明する。相違特定処理では、記憶開始されている音声データ情報のうち受信した直後の音声情報部分が、マイク識別情報毎に音声記憶領域494より抽出される。そして、S17(図8参照)にて選択された楽曲音データ情報と比較され、双方間のずれ(レベルずれ、テンポずれ、音程ずれ)の有無が判断される。双方間で振幅レベルが相違する場合に「レベルずれ」が発生していると判断され、タイミングがずれている場合に「テンポずれ」が発生していると判断され、周波数が相違する場合に「音程ずれ」が発生していると判断される。RAM48に記憶更新されているカウンタに基づき、音声データ情報と楽曲音データ情報とで演奏箇所が一致する部分の音声どうしが比較され実行される。   The difference identification process (S19, see FIG. 8) will be described with reference to FIG. In the difference specifying process, the voice information portion immediately after reception is extracted from the voice storage area 494 for each microphone identification information in the voice data information that has been stored. Then, it is compared with the music sound data information selected in S17 (see FIG. 8), and the presence / absence of a deviation (level deviation, tempo deviation, pitch interval) between them is determined. If the amplitude level is different between the two, it is determined that a “level shift” has occurred, if the timing is shifted, it is determined that a “tempo shift” has occurred, and if the frequency is different, It is determined that a “pitch deviation” has occurred. Based on the counter stored and updated in the RAM 48, the voices of the portions where the performance parts match between the voice data information and the music sound data information are compared and executed.

図9に示すように、はじめに、音声データ情報に基づき、音声の振幅成分が抽出される。抽出された振幅成分は、楽曲音データ情報に基づいて抽出された音声の振幅成分と比較され、双方の振幅レベルが一致するか否かが判断される(S41)。双方の振幅レベルが一致すると判断された場合には(S41:NO)双方間でレベルずれはないものと判断され、S49に移行される。   As shown in FIG. 9, first, an audio amplitude component is extracted based on audio data information. The extracted amplitude component is compared with the amplitude component of the voice extracted based on the music sound data information, and it is determined whether or not both amplitude levels match (S41). If it is determined that both amplitude levels match (S41: NO), it is determined that there is no level shift between the two, and the process proceeds to S49.

双方の振幅レベルが相違すると判断された場合には(S41:YES)、レベルずれが発生していることを示すためにフラグ1がONされる(S43)。次いで、音声データ情報に基づく振幅レベルと楽曲音データ情報に基づく振幅レベルとの差が算出され、レベルずれの相違量とされる(S45)。次いで、演奏開始時点からの経過時間が、カウンタの値に基づいて特定される(特定された情報を「相違箇所情報」という。)。そして、S41にて特定された相違内容(レベルずれ)、S45にて算出された相違量、及び、相違箇所情報が、対象としている音声の音声情報が送信されたマイク12の識別情報とともに、RAM48に一時的に記憶される(S47)。そしてS49に移行される。   If it is determined that the two amplitude levels are different (S41: YES), the flag 1 is turned on to indicate that a level shift has occurred (S43). Next, a difference between the amplitude level based on the audio data information and the amplitude level based on the music sound data information is calculated, and is set as a difference amount of the level deviation (S45). Next, the elapsed time from the performance start time is specified based on the value of the counter (the specified information is referred to as “difference part information”). The difference contents (level deviation) specified in S41, the difference amount calculated in S45, and the difference part information are included in the RAM 48 together with the identification information of the microphone 12 to which the voice information of the target voice is transmitted. Is temporarily stored (S47). Then, the process proceeds to S49.

S49では、音声データ情報に基づき、音声の振幅成分が抽出される。抽出された振幅成分は、楽曲音データ情報に基づいて抽出された音声の振幅成分と比較され、双方の振幅のピーク位置が一致するか否かが判断される(S49)。双方の振幅のピーク位置が一致すると判断された場合には(S49:NO)、双方のテンポずれはないものと判断され、S57の処理に移行される。   In S49, an audio amplitude component is extracted based on the audio data information. The extracted amplitude component is compared with the amplitude component of the voice extracted based on the music sound data information, and it is determined whether or not the peak positions of both amplitudes match (S49). If it is determined that the peak positions of both amplitudes match (S49: NO), it is determined that there is no tempo shift between the two, and the process proceeds to S57.

双方の振幅のピーク位置が相違すると判断された場合には(S49:YES)、テンポずれが発生していることを示すためにフラグ2がONされる(S51)。次いで、音声データに基づく振幅のピーク位置と楽曲音データ情報に基づく振幅のピーク位置との差が算出され、テンポずれの相違量とされる(S53)。次いで、カウンタの値に基づいて相違箇所情報が特定される。そして、S49にて特定された相違内容(テンポずれ)、S53にて算出された相違量、及び、相違箇所情報が、対象としている音声の音声情報が送信されたマイク12の識別情報とともに、RAM48に一時的に記憶される(S55)。そしてS57に移行される。   If it is determined that the peak positions of both amplitudes are different (S49: YES), the flag 2 is turned on to indicate that a tempo shift has occurred (S51). Next, the difference between the peak position of the amplitude based on the audio data and the peak position of the amplitude based on the music sound data information is calculated and used as the difference amount of the tempo shift (S53). Next, the difference location information is specified based on the value of the counter. Then, the difference content (tempo shift) specified in S49, the difference amount calculated in S53, and the difference part information are included in the RAM 48 together with the identification information of the microphone 12 to which the voice information of the target voice is transmitted. Is temporarily stored (S55). Then, the process proceeds to S57.

S57では、音声データ情報に基づき、音声の周波数成分が抽出される。抽出された周波数成分は、楽曲音データ情報に基づいて抽出された音声の周波数成分と比較され、双方周波数が一致するか否かが判断される(S57)。例えば、音声データ情報に基づいた音声の周波数成分のうち、大きさが最大の周波数成分が楽曲音データ情報に基づいて抽出された音声の周波数成分と比較され、双方の周波数が一致すると判断された場合には(S57:NO)、双方間の音程ずれはないものと判断され、S67の処理に移行される。   In S57, the frequency component of the voice is extracted based on the voice data information. The extracted frequency component is compared with the frequency component of the sound extracted based on the music sound data information, and it is determined whether or not both frequencies match (S57). For example, among the frequency components of the audio based on the audio data information, the maximum frequency component is compared with the audio frequency component extracted based on the music sound data information, and it is determined that both frequencies match. In this case (S57: NO), it is determined that there is no pitch difference between the two, and the process proceeds to S67.

双方の周波数が相違すると判断された場合には(S57:YES)、音程ずれが発生していることを示すためにフラグ3がONされる(S59)。次いで、音声データ情報に基づく周波数と楽曲音データ情報に基づく周波数との差が算出され、周波数ずれの相違量とされる(S61)。次いで、カウンタの値に基づいて相違箇所情報が特定される。そして、S57にて特定された相違内容(音程ずれ)、S61にて算出された相違量、及び、相違箇所情報が、対象としている音声の音声情報が送信されたマイク12の識別情報とともに、RAM48に一時的に記憶される(S63)。そしてS67の処理に移行される。   If it is determined that the two frequencies are different (S57: YES), the flag 3 is turned on to indicate that a pitch shift has occurred (S59). Next, a difference between the frequency based on the audio data information and the frequency based on the music sound data information is calculated, and is set as a difference amount of the frequency deviation (S61). Next, the difference location information is specified based on the value of the counter. Then, the difference content (pitch deviation) specified in S57, the difference amount calculated in S61, and the difference part information together with the identification information of the microphone 12 to which the voice information of the target voice is transmitted are stored in the RAM 48. Is temporarily stored (S63). Then, the process proceeds to S67.

S67では、音声記憶領域494に記憶されている音声データ情報すべてについて上述の処理が実行されたかどうかが判断される(S67)。比較処理が実行されていない音声データ情報が存在する場合には(S67:NO)、マイク121〜125にて受信された音声のうち上述の処理が実行されていない音声の音声データ情報が残存していると判断される。この場合S41に戻り、残存する音声データ情報について繰り返し上述の処理が実行される。一方、すべての音声データ情報について上述の比較処理が実行された場合には(S67:YES)、相違特定処理を終了して相違通知処理に戻る。   In S67, it is determined whether or not the above-described processing has been executed for all audio data information stored in the audio storage area 494 (S67). If there is audio data information for which comparison processing has not been performed (S67: NO), audio data information for audio for which the above-described processing has not been performed among the audio received by the microphones 121 to 125 remains. It is judged that In this case, the process returns to S41, and the above-described processing is repeatedly performed for the remaining audio data information. On the other hand, if the above comparison process has been executed for all audio data information (S67: YES), the difference specifying process is terminated and the process returns to the difference notification process.

図8に示すように、相違特定処理の後、レベルずれ、テンポずれ、及び音程ずれのいずれか発生したかどうかが判断される(S21)。少なくともいずれかのずれが発生していると判断された場合には、フラグ1〜フラグ3のうち少なくともいずれかがONとされている。そこでこれらのフラグが参照される。そしていずれかのフラグがONされている場合には(S21:YES)、ずれが発生した旨を表示する為の処理が実行される(S23〜S27)。一方、いずれのフラグもONされていない場合には(S21:NO)、指揮者3への映像の表示処理を行う必要はないので、特段の処理を行うことなくS29に移行される。   As shown in FIG. 8, after the difference specifying process, it is determined whether any of a level shift, a tempo shift, and a pitch shift has occurred (S21). If it is determined that at least one of the deviations has occurred, at least one of the flags 1 to 3 is set to ON. Therefore, these flags are referred to. If any of the flags is ON (S21: YES), processing for displaying that a deviation has occurred is executed (S23 to S27). On the other hand, if none of the flags are turned on (S21: NO), there is no need to perform a video display process for the conductor 3, so the process proceeds to S29 without performing any special process.

S23では、フラグ情報に基づいて発生したずれの種別が判別される。フラグ1がONされている場合は、レベルずれが発生していると判断される。フラグ2がONされている場合は、テンポずれが発生していると判断される。フラグ3がONされている場合は、音程ずれが発生していると判断される。   In S23, the type of deviation that has occurred is determined based on the flag information. If flag 1 is ON, it is determined that a level shift has occurred. When flag 2 is ON, it is determined that a tempo shift has occurred. When the flag 3 is ON, it is determined that a pitch shift has occurred.

RAM48に記憶されているマイクの識別情報、相違内容、及び相違量が読みだされる。次いで、これらの情報を表示させて指揮者3に視認させるための映像情報が、フラッシュメモリ49の映像記憶領域495より読みだされる。読みだされた映像情報に基づき、制御部46にて映像信号が形成され、表示部40の映像信号処理部70に送信される。表示部40では、指揮者3に視認させるために網膜に出射させる画像光4が形成される。形成された画像光4は、指揮者3の網膜に出射される。これにより、相違情報(該当する構成員の居る方向、相違内容、相違量)を指揮者3に視認させる(S23)。   The microphone identification information, the difference contents, and the difference amount stored in the RAM 48 are read out. Next, video information for displaying such information and causing the conductor 3 to visually recognize it is read from the video storage area 495 of the flash memory 49. Based on the read video information, a video signal is formed by the control unit 46 and transmitted to the video signal processing unit 70 of the display unit 40. In the display unit 40, the image light 4 to be emitted to the retina for the conductor 3 to visually recognize is formed. The formed image light 4 is emitted to the retina of the conductor 3. Thereby, the conductor 3 is made to visually recognize the difference information (direction of the corresponding member, difference content, difference amount) (S23).

図10を参照し、ヘッドマウントディスプレイ2を介し指揮者3により視認される像の一例について説明する。図10は、ヘッドマウントディスプレイ2を介して指揮者3が視認する像の一例を示す模式図である。   With reference to FIG. 10, an example of an image visually recognized by the conductor 3 through the head mounted display 2 will be described. FIG. 10 is a schematic diagram illustrating an example of an image visually recognized by the conductor 3 via the head mounted display 2.

図10に示すように、指揮者3の視野には、直接プリズム150を透過する合唱隊6の構成員、一部の構成員を特定する為の表示8、相違内容及び相違量を通知する為の表示9がそれぞれ表示される。表示8は、カメラ7にて撮影された結果の像に基づき画像処理を経て認識された構成員の位置に、RAM48に記憶されているマイク識別情報が対応付けられることにより表示される。図10に示す例では、マイク122(指向方向:左中方向、図1参照)にて受信された音声の音声データ情報が楽曲音データ情報と比較され相違すると判断された場合の表示が例示されている。また表示9には、RAM48に記憶されている相違内容及び相違量が表示される。このような映像を指揮者3に視認させることによって、指揮者3は、誤った発声をした合唱隊6の構成員を特定し、その相違内容及び相違量を認識することが可能となっている。   As shown in FIG. 10, in order to notify the visual field of the conductor 3 of the display 8 for identifying the members of the choir 6 that directly pass through the prism 150, some members, the difference contents and the difference amount. Are displayed. The display 8 is displayed by associating the microphone identification information stored in the RAM 48 with the position of the member recognized through the image processing based on the image captured by the camera 7. In the example shown in FIG. 10, the display when the sound data information of the sound received by the microphone 122 (directing direction: left middle direction, see FIG. 1) is compared with the music sound data information and is determined to be different is illustrated. ing. Further, the display 9 displays the difference content and the difference amount stored in the RAM 48. By causing the conductor 3 to visually recognize such an image, the conductor 3 can identify the members of the chorus 6 who made the wrong utterance, and can recognize the content and amount of the difference. .

次いで図8に示すように、指揮者3に対して一定期間、表示させた映像を視認させるために、表示開始からの経過時間が監視される(S25:NO)。経過時間が所定時間(例えば1s)経過した場合(S25:YES)、表示を停止させる(S27)。そしてS29に移行される。   Next, as shown in FIG. 8, the elapsed time from the start of display is monitored in order for the conductor 3 to visually recognize the displayed video for a certain period (S25: NO). When the elapsed time has passed a predetermined time (for example, 1 s) (S25: YES), the display is stopped (S27). Then, the process proceeds to S29.

S29では、マイク12より継続して音声信号を受信している状態であるかどうかが判断される(S29)。継続して音声信号が受信されている場合には(S29:NO)、S19に戻り、上述の処理が繰り返し実行される。マイク12からの音声信号の送信が停止され、受信されていない状態となった場合には(S29:YES)、S15にて開始された音声信号の記憶処理が停止される(S31)。   In S29, it is determined whether or not the voice signal is continuously received from the microphone 12 (S29). When the audio signal is continuously received (S29: NO), the process returns to S19 and the above-described process is repeatedly executed. When the transmission of the audio signal from the microphone 12 is stopped and not received (S29: YES), the audio signal storing process started in S15 is stopped (S31).

次いで、RAM48に記憶されている情報(マイク識別情報、相違内容、相違量、相違箇所情報)が相違情報記憶領域493の相違情報(図7参照)として記憶される(S33)。はじめに、比較対象とされた楽曲に対応する相違情報が選択される。次いで、同一マイク識別情報として、同一の相違内容及び相違箇所が既に相違情報として相違情報記憶領域493に記憶されているか否かが判断される。同一の相違内容及び相違箇所が相違情報として記憶されていない場合には、RAM48に記憶されている情報(マイク識別情報、相違内容、相違量、相違箇所情報)が相違情報として新たに記憶される。同一の相違内容及び相違箇所が相違情報として既に相違情報記憶領域493に記憶されている場合には、記憶されている情報の累計回数に1加算して更新する。そして相違通知処理は終了される。   Next, information stored in the RAM 48 (microphone identification information, difference content, difference amount, and difference portion information) is stored as difference information (see FIG. 7) in the difference information storage area 493 (S33). First, the difference information corresponding to the music piece to be compared is selected. Next, it is determined whether or not the same difference contents and different portions are already stored as difference information in the difference information storage area 493 as the same microphone identification information. When the same difference contents and difference portions are not stored as difference information, information (microphone identification information, difference contents, difference amount, difference portion information) stored in the RAM 48 is newly stored as difference information. . When the same difference content and difference part are already stored in the difference information storage area 493 as difference information, the accumulated number of stored information is updated by adding one. Then, the difference notification process is terminated.

以上説明したようにヘッドマウントディスプレイ2は、合唱隊6の構成員のうち、レベルずれやテンポずれ、音程ずれを発生させている構成員の居る方向を特定し、相違内容及び相違量の情報ととともに表示させ、指揮者3に視認させることが可能となる。これにより指揮者3は、該当する構成員に対して矯正を促すことが可能となり、合唱隊6の合唱を理想的な状態に近づけることが可能となる。   As described above, the head-mounted display 2 identifies the direction in which members of the choir 6 are causing a level shift, a tempo shift, and a pitch shift. It can be displayed together with the conductor 3 so that the conductor 3 can visually recognize it. As a result, the conductor 3 can prompt the corresponding member to correct the chorus, and the chorus of the choir 6 can be brought close to an ideal state.

また、ヘッドマウントディスプレイ2は、レベルずれ、テンポずれ、及び音程ずれが発生している場合に、その相違内容と相違量とを特定して指揮者3に対して通知することが可能となるので、合唱隊6の構成員に対して、より具体的な矯正指示を行うことが可能となる。   In addition, the head-mounted display 2 can specify the difference content and the difference amount and notify the conductor 3 when the level shift, the tempo shift, and the pitch shift occur. It becomes possible to give more specific correction instructions to the members of the choir 6.

なお、本発明は上記実施の形態に限定されるものではなく、種々の変更が可能である。上述の実施の形態では、合唱隊6の発声する音声について、理想的な楽曲音声と比較して相違の有無を判断し、相違がある場合に指揮者3に通知していた。しかしながら本発明は合唱隊の発声音声の相違の判断に限定されず、例えばオーケストラやブラスバンドによる演奏音声の相違を判断する構成としてもよい。   In addition, this invention is not limited to the said embodiment, A various change is possible. In the above-described embodiment, the voice uttered by the choir 6 is judged to be different from the ideal music voice, and the conductor 3 is notified when there is a difference. However, the present invention is not limited to the determination of the difference in the voice of the choir, and may be configured to determine the difference in the performance voice by, for example, an orchestra or a brass band.

上述の実施の形態では、ヘッドマウントディスプレイ2が近距離無線通信モジュール57を備え、マイク12より音声情報を受信する構成としたが、本発明はこの構成に限定されない。従って、ヘッドマウントディスプレイ2とマイク12とは有線ケーブルを介して接続されており、有線ケーブルを介して音声情報の通信が行われる構成としてもよい。また、マイク12より音声情報を受信しフォーマット変換する装置(レシーバ)を別途設けてもよい。この場合、ヘッドマウントディスプレイ2はレシーバよりフォーマット変換された音声データ情報をマイク識別情報とともに受信することにより、上述の処理が実行される。   In the above embodiment, the head mounted display 2 includes the short-range wireless communication module 57 and receives audio information from the microphone 12. However, the present invention is not limited to this configuration. Therefore, the head mounted display 2 and the microphone 12 may be connected via a wired cable, and audio information may be communicated via the wired cable. A device (receiver) that receives audio information from the microphone 12 and converts the format may be provided separately. In this case, the head mounted display 2 receives the audio data information whose format has been converted from the receiver together with the microphone identification information, whereby the above-described processing is executed.

上述の実施の形態では、受信した直後の音声と楽曲の音声とを比較し、双方が相違すると判断された場合に、相違内容等を指揮者3に対して視認させていた。しかしながら本発明はこの構成に限定されず、例えば、繰り返し同一の楽曲が合唱される場合において、過去に相違が発生していた場合には、予め相違情報を指揮者3に対して通知する構成としてもよい。これにより指揮者3は、合唱隊6の構成員に対して未然に注意を喚起することが可能となる。以下、本実施の形態の変形例について説明する。
<変形例>
In the above-described embodiment, the voice immediately after reception is compared with the voice of the music, and when it is determined that the two are different, the conductor 3 is made to visually recognize the content of the difference. However, the present invention is not limited to this configuration. For example, in the case where the same music is repeatedly sung, if the difference has occurred in the past, the difference information is notified to the conductor 3 in advance. Also good. As a result, the conductor 3 can call attention to the members of the choir 6 in advance. Hereinafter, modifications of the present embodiment will be described.
<Modification>

以下、本実施の形態の変形例について、図面を参照して説明する。図11は、変形例における相違通知処理のフローチャートである。図12は、変形例における相違事前表示処理のサブルーティンフローチャートである。相違通知処理は、ヘッドマウントディスプレイ2の電源が投入された場合において、CPU61により起動され実行される。以下においては、既述の実施の形態と同様部分については、説明を省略し又は簡略する。   Hereinafter, modifications of the present embodiment will be described with reference to the drawings. FIG. 11 is a flowchart of the difference notification process in the modification. FIG. 12 is a subroutine flowchart of the difference pre-display process in the modified example. The difference notification process is activated and executed by the CPU 61 when the power of the head mounted display 2 is turned on. In the following, description of the same parts as those of the above-described embodiment will be omitted or simplified.

変形例では、ヘッドマウントディスプレイ2は、相違情報記憶領域493に記憶されている相違情報の内容を予め表示し、相違箇所に相当する部分が合唱隊6により合唱される前に指揮者3に認識させる。楽曲中、レベルずれやテンポずれ、音程ずれの発生は、同一箇所にて繰り返されることが想定されるので、指揮者3は、予めずれが発生し易い箇所を認識し、事前に合唱隊6の構成員に注意を喚起することが可能となる。   In the modification, the head mounted display 2 displays the contents of the difference information stored in the difference information storage area 493 in advance and is recognized by the conductor 3 before the portion corresponding to the difference is choral by the choir 6. Let Since the occurrence of level shift, tempo shift, and pitch shift is assumed to be repeated at the same location in the music, the conductor 3 recognizes the location where the shift is likely to occur in advance and It is possible to call attention to the members.

図11を参照し、相違通知処理のフローチャートについて説明する。図11に示すように、ヘッドマウントディスプレイ2のCPU61では、はじめに、加速度センサ14からの情報が参照され、ヘッドマウントディスプレイ2を装着する指揮者3の視野方向が特定される(S11)。次いで、マイク12より音声情報を受信したか否かが判断される(S13)。マイクより何ら音声情報が受信されていない状態では(S13:NO)、特段処理を行うことなくS11に戻り、継続してヘッドマウントディスプレイ2を装着する指揮者3の視野方向の特定処理が実行される。   A flowchart of the difference notification process will be described with reference to FIG. As shown in FIG. 11, in the CPU 61 of the head mounted display 2, first, information from the acceleration sensor 14 is referred to, and the visual field direction of the conductor 3 wearing the head mounted display 2 is specified (S11). Next, it is determined whether audio information is received from the microphone 12 (S13). When no audio information is received from the microphone (S13: NO), the process returns to S11 without performing any special process, and the process of specifying the visual field direction of the conductor 3 wearing the head-mounted display 2 is executed continuously. The

マイク12より音声情報が受信された場合(S13:YES)、受信した音声情報を変換した音声データ情報の記憶が開始され(S15)、次いで受信された音声情報の基となる音声が、いずれの楽曲について合唱されたものであるかが選択される(S17)。同時に、受信中の音声情報の音声が、楽曲音データ情報中のどの演奏部分に相当する音声であるかが特定される。相当する音声が特定された場合、楽曲音データ情報の演奏開始時点から当該音声が演奏されるタイミングまでの経過時間が、RAM48のカウンタに記憶される。以後、カウンタは時間経過とともに更新される。次いで、選択された楽曲に対応する相違情報を表示させるための処理(相違事前表示処理)が実行される(S71)。   When voice information is received from the microphone 12 (S13: YES), storage of voice data information obtained by converting the received voice information is started (S15), and then the voice that is the basis of the received voice information is It is selected whether the music is sung (S17). At the same time, it is specified which performance part in the music sound data information corresponds to the sound of the sound information being received. When the corresponding sound is specified, the elapsed time from the start of performance of the music sound data information to the timing at which the sound is played is stored in the counter of the RAM 48. Thereafter, the counter is updated over time. Next, a process for displaying the difference information corresponding to the selected music (difference pre-display process) is executed (S71).

図12を参照し、相違事前表示処理について説明する。相違事前表示処理では、S17(図11参照)にて選択された楽曲に対応する相違情報(図7参照)のうち、RAM48のカウンタにて特定される経過時間に所定時間(例えば5s)を加算した時間と一致する相違箇所情報が記憶されているかが判断される。そして、同一の相違箇所情報が記憶されていると判断された場合には、当該箇所にて過去に相違が発生していたものと判断される(S81:YES)。この場合、繰り返し同様の相違音声が発声される可能性がある。そこで、該当する相違箇所に対応付けられているマイク識別情報、相違内容、及び相違量の情報を表示させ、指揮者3に視認させる(S83)。これにより、相違音声が発声される可能性が高いタイミングの所定時間(5s)前に、相違音声を発声する可能性が高い構成員を特定し、その相違内容及び相違量の情報とともに指揮者3に認識させることが可能となる。 The difference pre-display process will be described with reference to FIG. In the difference pre-display process, a predetermined time (for example, 5 s) is added to the elapsed time specified by the counter of the RAM 48 among the difference information (see FIG. 7) corresponding to the music selected in S17 (see FIG. 11). or phase違箇Tokorojo report that matches the time is stored is determined. Then, if the same phase違箇Tokorojo paper is determined to be stored, it is determined that the difference in the past at the positions has occurred (S81: YES). In this case, there is a possibility that the same different speech is uttered repeatedly. Therefore, the microphone identification information, the difference contents, and the difference amount information associated with the corresponding different portions are displayed and visually recognized by the conductor 3 (S83). As a result, a member who is highly likely to utter a different sound is specified before a predetermined time (5 s) before the timing at which the different sound is likely to be uttered, and the conductor 3 together with information on the content and amount of the difference Can be recognized.

上述の表示処理は、所定時間(5s)が経過するまで継続して実行される(S85:NO)。そして、所定時間が経過した場合(S85:YES)、表示処理を停止させる(S87)。そして相違事前表示処理は終了し、相違通知処理(図11参照)に戻る。   The display process described above is continuously executed until the predetermined time (5 s) has elapsed (S85: NO). If the predetermined time has elapsed (S85: YES), the display process is stopped (S87). Then, the difference pre-display process ends, and the process returns to the difference notification process (see FIG. 11).

一方、S17(図11参照)にて選択された楽曲に対応する相違情報に、該当する相違情報が記憶されていない場合には(S81:NO)、特段の処理を行うことなく相違事前表示処理を終了し、相違通知処理(図11参照)に戻る。   On the other hand, if the corresponding difference information is not stored in the difference information corresponding to the music selected in S17 (see FIG. 11) (S81: NO), the difference prior display process is performed without performing any special process. And return to the difference notification process (see FIG. 11).

相違通知処理では、相違事前表示処理の後、相違特定処理(S19)が実行される。相違特定処理では、受信直後の音声情報が楽曲情報と比較され、相違の有無が判断される。そして、相違があると判断された場合には(S21:YES)、相違内容を表示させ(S23)、指揮者3に視認させる。   In the difference notification process, a difference specifying process (S19) is executed after the difference pre-display process. In the difference specifying process, the audio information immediately after reception is compared with the music information to determine whether there is a difference. If it is determined that there is a difference (S21: YES), the contents of the difference are displayed (S23), and the conductor 3 is visually recognized.

上述の処理は、マイク12より送信される音声情報が終了するまで繰り返し実行され(S29:NO)、音声情報の受信が終了した場合には(S29:YES)、発生した相違情報を相違情報記憶領域493の相違情報に記憶させ(S31)、相違通知処理が終了される。   The above-described processing is repeatedly executed until the audio information transmitted from the microphone 12 is completed (S29: NO). When reception of the audio information is completed (S29: YES), the generated difference information is stored as the difference information. The difference information in the area 493 is stored (S31), and the difference notification process is terminated.

以上説明したように、変形例では、合唱隊6の構成員が誤った音声を発声させてしまう可能性が高い箇所をあらかじめ指揮者3に対して通知することが可能となるので、指揮者3は、事前に合唱隊6の構成員に対して注意を喚起することが可能となる。これにより、より合唱練習の効率を向上させることが可能となる。   As described above, in the modified example, it is possible to notify the conductor 3 in advance of a place where the member of the choir 6 is likely to make a wrong voice. Can call attention to the members of the choir 6 in advance. Thereby, it becomes possible to improve the efficiency of choral practice more.

なお、図8のS13の処理を行うCPU61が本発明の「音取得手段」に相当し、S13において受信した音声情報の送信元のマイク識別情報より音の到来方向を特定する処理を行うCPU61が本発明の「方向特定手段」に相当する。図5の音声関連記憶領域491を備えたフラッシュメモリ49が本発明の「第一記憶手段」に相当し、図8のS15の処理を行うCPU61が本発明の「第一記憶制御手段」に相当し、S19の処理を行うCPU61が本発明の「音一致判断手段」に相当し、S23の処理を行うCPU61が本発明の「表示制御手段」に相当する。図5の楽曲音記憶領域492を備えたフラッシュメモリ49が本発明の「第二記憶手段」に相当する。   Note that the CPU 61 that performs the process of S13 in FIG. 8 corresponds to the “sound acquisition unit” of the present invention, and the CPU 61 that performs the process of specifying the sound arrival direction from the microphone identification information that is the transmission source of the audio information received in S13. This corresponds to the “direction specifying means” of the present invention. The flash memory 49 having the voice-related storage area 491 in FIG. 5 corresponds to the “first storage unit” of the present invention, and the CPU 61 that performs the processing of S15 in FIG. 8 corresponds to the “first storage control unit” in the present invention. The CPU 61 that performs the process of S19 corresponds to the “sound matching determination unit” of the present invention, and the CPU 61 that performs the process of S23 corresponds to the “display control unit” of the present invention. The flash memory 49 provided with the music sound storage area 492 of FIG. 5 corresponds to the “second storage means” of the present invention.

図9のS41にてレベルずれを判断するために、又はS49にてテンポずれを判断するために振幅成分を抽出する処理を行うCPU61が本発明の「取得音振幅抽出手段」に相当し、S41にてレベルずれが発生しているかを判断する処理を行うCPU61、又はS49にてテンポずれが発生しているかを判断する処理を行うCPU61が本発明の「振幅一致判断手段」に相当し、S57にて音程ずれを判断するために周波数成分を抽出する処理を行うCPU61が本発明の「取得音周波数抽出手段」に相当し、S57にて音程ずれが発生しているかを判断する処理を行うCPU61が本発明の「周波数一致判断手段」に相当し、S45、S53、S61にて相違量を算出する処理を行うCPU61が本発明の「相違算出手段」に相当する。   The CPU 61 that performs the process of extracting the amplitude component in order to determine the level shift in S41 of FIG. 9 or to determine the tempo shift in S49 corresponds to the “acquired sound amplitude extracting means” of the present invention. The CPU 61 that performs the process of determining whether or not a level shift has occurred or the CPU 61 that performs the process of determining whether or not a tempo shift has occurred in S49 corresponds to the “amplitude matching determination unit” of the present invention. The CPU 61 that performs the process of extracting the frequency component in order to determine the pitch deviation in FIG. 6 corresponds to the “acquired sound frequency extracting means” of the present invention, and the CPU 61 that performs the process of determining whether the pitch deviation occurs in S57. Corresponds to the “frequency match determination means” of the present invention, and the CPU 61 that performs the process of calculating the difference amount in S45, S53, and S61 corresponds to the “difference calculation means” of the present invention.

図5の相違情報記憶領域493を備えたフラッシュメモリ49が本発明の「第五記憶手段」に相当し、図8のS33にて相違情報を記憶する処理を行うCPU61が本発明の「第五記憶制御手段」に相当する。図5の相違情報記憶領域493のうち相違量を記憶する領域を備えたフラッシュメモリ49が本発明の「第三記憶手段」「第四記憶手段」に相当し、図8のS33にて相違量を記憶する処理を行うCPU61が本発明の「第三記憶制御手段」「第四記憶制御手段」に相当する。図8のS33にて、累計回数を更新する処理を行うCPU61が本発明の「第一累計手段」に相当する。   The flash memory 49 provided with the difference information storage area 493 of FIG. 5 corresponds to the “fifth storage means” of the present invention, and the CPU 61 that performs the process of storing the difference information in S33 of FIG. It corresponds to “memory control means”. The flash memory 49 having an area for storing the difference amount in the difference information storage area 493 of FIG. 5 corresponds to the “third storage means” and the “fourth storage means” of the present invention, and in S33 of FIG. The CPU 61 that performs the process of storing the “corresponding” corresponds to “third storage control means” and “fourth storage control means” of the present invention. The CPU 61 that performs the process of updating the cumulative number in S33 of FIG. 8 corresponds to the “first cumulative unit” of the present invention.

ヘッドマウントディスプレイ2が使用される合唱練習システム1の概要を示 す模式図である。It is a schematic diagram which shows the outline | summary of the choral practice system 1 in which the head mounted display 2 is used. 指揮者3に装着された状態のヘッドマウントディスプレイ2の外観構成を示 した図である。FIG. 2 is a diagram showing an external configuration of a head mounted display 2 attached to a conductor 3. ヘッドマウントディスプレイ2の電気的構成を示す模式図である。3 is a schematic diagram showing an electrical configuration of a head mounted display 2. FIG. 表示部40において画像光4が形成される過程を説明した模式図である。6 is a schematic diagram illustrating a process in which image light 4 is formed on the display unit 40. FIG. フラッシュメモリ49の記憶領域を示す模式図である。3 is a schematic diagram showing a storage area of a flash memory 49. FIG. 音声関連記憶領域491に記憶される取得音情報を示す模式図である。It is a schematic diagram which shows the acquisition sound information memorize | stored in the audio | voice related storage area 491. FIG. 相違情報記憶領域493に記憶される相違情報を示す模式図である。It is a schematic diagram which shows the difference information memorize | stored in the difference information storage area | region 493. 相違通知処理のフローチャートである。It is a flowchart of a difference notification process. 相違特定処理のサブルーティンフローチャートである。It is a subroutine flowchart of a difference specific process. ヘッドマウントディスプレイ2を介して指揮者3が視認する像の一例を示 す模式図である。3 is a schematic diagram showing an example of an image visually recognized by a conductor 3 via a head mounted display 2. FIG. 変形例における相違通知処理のフローチャートである。It is a flowchart of the difference notification process in a modification. 変形例における相違事前表示処理のサブルーティンフローチャートである 。It is a subroutine flowchart of the difference prior display process in the modification.

1 合唱練習システム
2 ヘッドマウントディスプレイ
3 指揮者
6 合唱隊
12、121、122、123、124、125 マイク
40 表示部
43 近距離無線通信部
46 制御部
61 CPU
49 フラッシュメモリ
57 近距離無線通信モジュール
58 近距離無線通信制御回路
491 音声関連記憶領域
492 楽曲音記憶領域
493 相違情報記憶領域
494 音声記憶領域
495 映像記憶領域
DESCRIPTION OF SYMBOLS 1 Chorus practice system 2 Head mounted display 3 Conductor 6 Choir 12, 121, 122, 123, 124, 125 Microphone 40 Display part 43 Short-range radio | wireless communication part 46 Control part 61 CPU
49 Flash memory 57 Short-range wireless communication module 58 Short-range wireless communication control circuit 491 Audio-related storage area 492 Music sound storage area 493 Difference information storage area 494 Audio storage area 495 Video storage area

Claims (9)

音を取得する音取得手段と、
前記音取得手段にて取得された前記音の到来方向を特定する方向特定手段と、
前記音取得手段にて取得された前記音と、前記方向特定手段にて特定された前記到来方向とを対応付けて第一記憶手段に記憶する第一記憶制御手段と、
前記第一記憶手段に記憶された前記音の情報である取得音情報と、所定の楽曲の音の情報であり、第二記憶手段に記憶された情報である楽曲音情報とが一致するか否かを判断する音一致判断手段と、
前記音一致判断手段にて双方が相違すると判断された場合に、相違するとされた前記取得音情報に対応する前記到来方向を表示手段に表示させる表示制御手段と
を備え、
前記音一致判断手段は、
前記第一記憶手段に記憶された前記取得音情報から、振幅成分である取得音振幅を抽出する取得音振幅抽出手段と、
前記取得音振幅抽出手段にて抽出された前記取得音振幅と、前記第二記憶手段に記憶されている前記楽曲音情報の振幅成分である楽曲音振幅とが一致するか否かを判断することにより、前記取得音情報と前記楽曲音情報とが一致するか否かを判断する振幅一致判断手段と
を備えたヘッドマウントディスプレイ。
Sound acquisition means for acquiring sound;
Direction specifying means for specifying the direction of arrival of the sound acquired by the sound acquisition means;
First storage control means for storing the sound acquired by the sound acquisition means and the arrival direction specified by the direction specifying means in association with each other in a first storage means;
Whether the acquired sound information, which is the sound information stored in the first storage means, and the music sound information, which is the information of the sound of the predetermined music and is stored in the second storage means, coincide with each other. Sound matching judgment means for judging whether or not
Display control means for displaying on the display means the direction of arrival corresponding to the acquired sound information determined to be different when the sound match determination means determines that both are different;
With
The sound matching judgment means
From the acquired sound information stored in the first storage unit, an acquired sound amplitude extracting unit that extracts an acquired sound amplitude that is an amplitude component;
Determining whether or not the acquired sound amplitude extracted by the acquired sound amplitude extracting means matches the music sound amplitude that is an amplitude component of the music sound information stored in the second storage means; A head-mounted display comprising: amplitude matching determination means for determining whether or not the acquired sound information matches the music sound information .
音を取得する音取得手段と、
前記音取得手段にて取得された前記音の到来方向を特定する方向特定手段と、
前記音取得手段にて取得された前記音と、前記方向特定手段にて特定された前記到来方向とを対応付けて第一記憶手段に記憶する第一記憶制御手段と、
前記第一記憶手段に記憶された前記音の情報である取得音情報と、所定の楽曲の音の情報であり、第二記憶手段に記憶された情報である楽曲音情報とが一致するか否かを判断する音一致判断手段と、
前記音一致判断手段にて双方が相違すると判断された場合に、相違するとされた前記取得音情報に対応する前記到来方向を表示手段に表示させる表示制御手段と
を備え、
前記音一致判断手段は、
前記第一記憶手段に記憶された前記取得音情報から、振幅成分である取得音振幅を抽出する取得音振幅抽出手段と、
前記取得音振幅抽出手段にて抽出された前記取得音振幅と、前記第二記憶手段に記憶されている前記楽曲音情報の振幅成分である楽曲音振幅とでタイミングが一致するか否かを判断することにより、前記取得音情報と前記楽曲音情報とが一致するか否かを判断する振幅一致判断手段と
を備えたヘッドマウントディスプレイ。
Sound acquisition means for acquiring sound;
Direction specifying means for specifying the direction of arrival of the sound acquired by the sound acquisition means;
First storage control means for storing the sound acquired by the sound acquisition means and the arrival direction specified by the direction specifying means in association with each other in a first storage means;
Whether the acquired sound information, which is the sound information stored in the first storage means, and the music sound information, which is the information of the sound of the predetermined music and is stored in the second storage means, coincide with each other. Sound matching judgment means for judging whether or not
Display control means for displaying on the display means the direction of arrival corresponding to the acquired sound information determined to be different when the sound match determination means determines that both are different;
With
The sound matching judgment means
From the acquired sound information stored in the first storage unit, an acquired sound amplitude extracting unit that extracts an acquired sound amplitude that is an amplitude component;
It is determined whether or not the timing matches between the acquired sound amplitude extracted by the acquired sound amplitude extracting means and the music sound amplitude that is an amplitude component of the music sound information stored in the second storage means. Amplitude matching judgment means for judging whether or not the acquired sound information and the music sound information match.
Head mounted display with
音を取得する音取得手段と、
前記音取得手段にて取得された前記音の到来方向を特定する方向特定手段と、
前記音取得手段にて取得された前記音と、前記方向特定手段にて特定された前記到来方向とを対応付けて第一記憶手段に記憶する第一記憶制御手段と、
前記第一記憶手段に記憶された前記音の情報である取得音情報と、所定の楽曲の音の情報であり、第二記憶手段に記憶された情報である楽曲音情報とが一致するか否かを判断する音一致判断手段と、
前記音一致判断手段にて双方が相違すると判断された場合に、相違するとされた前記取得音情報に対応する前記到来方向を表示手段に表示させる表示制御手段と
を備え、
前記音一致判断手段は、
前記第一記憶手段に記憶された前記取得音情報から、周波数成分である取得音周波数を抽出する取得音周波数抽出手段と、
前記取得音周波数抽出手段にて抽出された前記取得音周波数と、前記第二記憶手段に記憶されている前記楽曲音情報の周波数成分である楽曲音周波数とが一致するか否かを判断することにより、前記取得音情報と前記楽曲音情報とが一致するか否かを判断する周波数一致判断手段と
を備えたヘッドマウントディスプレイ。
Sound acquisition means for acquiring sound;
Direction specifying means for specifying the direction of arrival of the sound acquired by the sound acquisition means;
First storage control means for storing the sound acquired by the sound acquisition means and the arrival direction specified by the direction specifying means in association with each other in a first storage means;
Whether the acquired sound information, which is the sound information stored in the first storage means, and the music sound information, which is the information of the sound of the predetermined music and is stored in the second storage means, coincide with each other. Sound matching judgment means for judging whether or not
Display control means for displaying on the display means the direction of arrival corresponding to the acquired sound information determined to be different when the sound match determination means determines that both are different;
With
The sound matching judgment means
From the acquired sound information stored in the first storage unit, an acquired sound frequency extracting unit that extracts an acquired sound frequency that is a frequency component;
Determining whether or not the acquired sound frequency extracted by the acquired sound frequency extracting means matches the music sound frequency that is a frequency component of the music sound information stored in the second storage means; Accordingly, f head-mounted display and a frequency matching determination means for determining whether or not said acquired sound information and the musical tone information is matched.
前記振幅一致判断手段において相違すると判断された場合に、相違の程度である第一相違量を算出する第一相違算出手段を備え、
前記表示制御手段は、
前記第一相違算出手段にて前記第一相違量が算出された場合には、算出された前記第一相違量を前記表示手段に表示させることを特徴とする請求項又はに記載のヘッドマウントディスプレイ。
A first difference calculating means for calculating a first difference amount which is a degree of difference when it is determined that the amplitude match determining means is different;
The display control means includes
Wherein when the first difference amount is calculated by the first difference calculation means, head according to the calculated the first difference amount to claim 1 or 2, characterized in that to be displayed on said display means Mount display.
前記周波数一致判断手段において相違すると判断された場合に、相違の程度である第二相違量を算出する第二相違算出手段を備え、
前記表示制御手段は、
前記第二相違算出手段にて前記第二相違量が算出された場合には、算出された前記第二相違量を前記表示手段に表示させることを特徴とする請求項に記載のヘッドマウントディスプレイ。
A second difference calculating means for calculating a second difference amount which is a degree of difference when it is determined that the frequency match determining means is different;
The display control means includes
4. The head mounted display according to claim 3 , wherein when the second difference amount is calculated by the second difference calculation unit, the calculated second difference amount is displayed on the display unit. 5. .
前記第一相違算出手段にて前記第一相違量が算出された場合に、前記第一相違量を、相違するとされた前記取得音振幅の基となる前記取得音情報に対応付けられた前記到来方向とともに第三記憶手段に記憶する第三記憶制御手段を備え、
前記表示制御手段は、
前記第三記憶手段に前記第一相違量が記憶されている場合には、前記第一相違量を前記表示手段に表示させることを特徴とする請求項4に記載のヘッドマウントディスプレイ。
When the first difference amount is calculated by the first difference calculating unit, the first difference amount is associated with the acquired sound information that is the basis of the acquired sound amplitude determined to be different. A third storage control means for storing the third storage means together with the direction;
The display control means includes
5. The head mounted display according to claim 4, wherein when the first difference amount is stored in the third storage means, the first difference amount is displayed on the display means.
前記第二相違算出手段にて前記第二相違量が算出された場合に、前記第二相違量を、相違するとされた前記取得音周波数の基となる前記取得音情報に対応付けられた前記到来方向とともに第四記憶手段に記憶する第四記憶制御手段を備え、
前記表示制御手段は、
前記第四記憶手段に前記第二相違量が記憶されている場合には、前記第二相違量を前記表示手段に表示させることを特徴とする請求項に記載のヘッドマウントディスプレイ。
When the second difference amount is calculated by the second difference calculation means, the second difference amount is associated with the acquired sound information that is the basis of the acquired sound frequency that is determined to be different. A fourth storage control means for storing in the fourth storage means together with the direction;
The display control means includes
6. The head mounted display according to claim 5 , wherein when the second difference amount is stored in the fourth storage means, the second difference amount is displayed on the display means.
前記音一致判断手段にて、前記取得音情報と前記楽曲音情報とが相違すると判断された場合において、相違箇所に相当する前記所定の楽曲の演奏箇所を特定するための情報である相違箇所情報を、相違するとされた前記取得音情報に対応付けられている前記到来方向とともに第五記憶手段に記憶する第五記憶制御手段を備え、
前記表示制御手段は、
前記第五記憶手段に前記相違箇所情報が記憶されている場合には、前記相違箇所情報にて特定される前記所定の楽曲の演奏箇所を、前記所定の楽曲を演奏する者が演奏する前に、前記相違箇所情報に対応付けられている前記到来方向を前記表示手段に表示させることを特徴とする請求項1乃至のいずれかに記載のヘッドマウントディスプレイ。
When the sound coincidence determining means determines that the acquired sound information and the music sound information are different, the different location information which is information for specifying the performance location of the predetermined music corresponding to the different location A fifth storage control means for storing in the fifth storage means together with the direction of arrival associated with the acquired sound information determined to be different,
The display control means includes
In the case where the different location information is stored in the fifth storage means, before the person who plays the predetermined music plays the performance location of the predetermined music specified by the different location information. , head-mounted display according to the DOA associated with the said different part information to any one of claims 1 to 7, characterized in that to be displayed on the display means.
前記音一致判断手段にて前記取得音情報と前記楽曲音情報とが相違すると判断された回数である相違回数を、相違するとされた前記取得音情報に対応する前記到来方向毎に累計する第一累計手段を備え、
前記表示制御手段は、
前記第一累計手段にて前記相違回数が累計された場合には、前記相違回数を前記到来方向毎に前記表示手段に表示させることを特徴とする請求項1乃至のいずれかに記載のヘッドマウントディスプレイ。
A first summation is made for each direction of arrival corresponding to the acquired sound information determined to be different, the number of differences being the number of times that the acquired sound information and the music sound information are determined to be different by the sound match determining means. With a means of accumulation,
The display control means includes
Wherein when the difference count is cumulative at first cumulative means, head according to any one of claims 1 to 8, characterized in that to be displayed on said display means the difference count for each said direction of arrival Mount display.
JP2008324849A 2008-12-22 2008-12-22 Head mounted display Expired - Fee Related JP5098996B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008324849A JP5098996B2 (en) 2008-12-22 2008-12-22 Head mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008324849A JP5098996B2 (en) 2008-12-22 2008-12-22 Head mounted display

Publications (2)

Publication Number Publication Date
JP2010145878A JP2010145878A (en) 2010-07-01
JP5098996B2 true JP5098996B2 (en) 2012-12-12

Family

ID=42566350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008324849A Expired - Fee Related JP5098996B2 (en) 2008-12-22 2008-12-22 Head mounted display

Country Status (1)

Country Link
JP (1) JP5098996B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9880615B2 (en) 2013-02-15 2018-01-30 Seiko Epson Corporation Information processing device and control method for information processing device
GB2557594B (en) * 2016-12-09 2020-01-01 Sony Interactive Entertainment Inc Image processing system and method
JP7006176B2 (en) * 2017-11-22 2022-01-24 株式会社ぐるなび Information processing equipment, information processing methods and programs

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3293745B2 (en) * 1996-08-30 2002-06-17 ヤマハ株式会社 Karaoke equipment
JP4891135B2 (en) * 2007-04-17 2012-03-07 ヤマハ株式会社 Evaluation device

Also Published As

Publication number Publication date
JP2010145878A (en) 2010-07-01

Similar Documents

Publication Publication Date Title
JP6366862B2 (en) Work support device, work learning device, and work support system
US9224375B1 (en) Musical modification effects
US7698134B2 (en) Device in which selection is activated by voice and method in which selection is activated by voice
TW201604864A (en) Speech recognition system and unit
JP4327578B2 (en) Program, information storage medium, and game system
US20030045274A1 (en) Mobile communication terminal, sensor unit, musical tone generating system, musical tone generating apparatus, musical tone information providing method, and program
JP2011139227A (en) Head-mounted display
JP5098996B2 (en) Head mounted display
JP2012088521A (en) Amusement system
JPWO2016084736A1 (en) Information processing apparatus, information processing system, control method, and program
US20140260907A1 (en) Musical performance device, musical performance method, and storage medium
JP6364735B2 (en) Display device, head-mounted display device, display device control method, and head-mounted display device control method
JP6675527B2 (en) Voice input / output device
EP1195979A2 (en) Control of synchronous display of melody information and different information on mobile communication terminal
JP2017123505A (en) Content playback device, content playback method, and program
JP2002291699A (en) Endoscope system for vocal cords observation
JPH11259081A (en) Singing score display karaoke device
US20170352340A1 (en) Reference display device, reference display method, and program
JP2009145402A (en) Device operation switch
JP2010197361A (en) Abnormal sound diagnosis system
JP2010139633A (en) Head mounted display
JPH09211376A (en) Head mounted display device
JP7227788B2 (en) karaoke system
JP2001340544A (en) Image display device
JPH10240276A (en) Karaoke device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120910

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5098996

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees