JP6951610B1 - Speech processing system, speech processor, speech processing method, and speech processing program - Google Patents
Speech processing system, speech processor, speech processing method, and speech processing program Download PDFInfo
- Publication number
- JP6951610B1 JP6951610B1 JP2021549976A JP2021549976A JP6951610B1 JP 6951610 B1 JP6951610 B1 JP 6951610B1 JP 2021549976 A JP2021549976 A JP 2021549976A JP 2021549976 A JP2021549976 A JP 2021549976A JP 6951610 B1 JP6951610 B1 JP 6951610B1
- Authority
- JP
- Japan
- Prior art keywords
- sound
- user
- unit
- performer
- event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
Abstract
音声処理システムは、イベントに参加するユーザが発する音を検出するマイクと、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、所定領域におけるユーザの位置を表す観客位置との関係に基づいて、マイクが検出した音を調整する音調整部と、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成する合成部と、合成部が合成した音を表すデータを出力する出力部と、を備える。The voice processing system includes a microphone that detects sounds emitted by users participating in the event, a performer position that represents the position of the performer of the event in a predetermined area where the event is held, and an audience position that represents the position of the user in the predetermined area. A sound adjustment unit that adjusts the sound detected by the microphone based on the relationship, a sound detected by the microphone corresponding to the first user who is the user and adjusted by the sound adjustment unit, and a user different from the first user. It is provided with a compositing unit that synthesizes the sound detected by the microphone corresponding to the second user and adjusted by the sound adjusting unit, and an output unit that outputs data representing the sound synthesized by the compositing unit.
Description
本発明は、音声処理システム、音声処理装置、音声処理方法、及び音声処理プログラムに関する。 The present invention relates to a voice processing system, a voice processing device, a voice processing method, and a voice processing program.
下記特許文献1には、アーティストがファンの前に姿を見せることなく、あたかもアーティストがその場で歌ったり、あるいは演奏したりしているかのような印象をファンに与えることができる技術が提案されている。音楽や芸能、スポーツ等の各種イベントのコンテンツを配信する分野において、新たな体験を提供できる技術が望まれている。
本発明の態様に従えば、イベントに参加するユーザが発する音を検出するマイクと、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、所定領域におけるユーザの位置を表す観客位置との関係に基づいて、マイクが検出した音を調整する音調整部と、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成する合成部と、合成部が合成した音を表すデータを出力する出力部と、を備え、演者は、所定領域の外でパフォーマンスを行い、合成部が合成した音のデータは、演者へ音が届く位置に配置される音声出力装置へ提供される、音声処理システムが提供される。
本発明の態様に従えば、イベントに参加するユーザが発する音を検出するマイクと、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、所定領域におけるユーザの位置を表す観客位置との関係に基づいて、マイクが検出した音を調整する音調整部と、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成する合成部と、合成部が合成した音を表すデータを出力する出力部と、を備え、音調整部は、マイクが検出した第1の音を、第1の音が観客位置で発せられた場合に演者位置に届く第2の音に近づけるように調整する、音声処理システムが提供される。
本発明の態様に従えば、イベントに参加するユーザが発する音を検出するマイクと、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、所定領域におけるユーザの位置を表す観客位置との関係に基づいて、マイクが検出した音を調整する音調整部と、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成する合成部と、合成部が合成した音を表すデータを出力する出力部と、を備え、音調整部は、観客位置と演者位置との距離を用いて、マイクが検出した音の大きさを調整する、音声処理システムが提供される。
本発明の態様に従えば、イベントに参加するユーザが発する音を検出するマイクと、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、所定領域におけるユーザの位置を表す観客位置との関係に基づいて、マイクが検出した音を調整する音調整部と、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成する合成部と、合成部が合成した音を表すデータを出力する出力部と、第1のユーザに対応する観客位置と、第2のユーザに対応する観客位置との関係に基づいて、第2のユーザに対応するマイクが検出した音を調整する第2音調整部と、第2音調整部によって調整された音を含む音のデータを、第1のユーザに音を伝える音声出力装置へ出力する第2出力部と、を備える音声処理システムが提供される。
本発明の態様に従えば、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を受信する受信部と、ユーザから発せられてマイクに検出された音を、位置情報に基づいて調整する音調整部と、音調整部が調整した音を表すデータを送信する送信部と、を備え、音調整部は、マイクが検出した第1の音を、第1の音が観客位置で発せられた場合に演者位置に届く第2の音に近づけるように調整する、音声処理装置が提供される。
本発明の態様に従えば、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を受信する受信部と、ユーザから発せられてマイクに検出された音を、位置情報に基づいて調整する音調整部と、音調整部が調整した音を表すデータを送信する送信部と、を備え、音調整部は、観客位置と演者位置との距離を用いて、マイクが検出した音の大きさを調整する、音声処理装置が提供される。
本発明の態様に従えば、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を送信する送信部と、ユーザから発せられて位置情報に基づいて調整された音のデータを、位置情報の送信先から受信する受信部と、ユーザである第1のユーザに対応する送信先から受信したデータが表す音と、第1のユーザと異なるユーザである第2のユーザに対応する送信先から受信したデータが表す音と、を合成する合成部と、を備え、演者は、所定領域の外でパフォーマンスを行い、合成部が合成した音のデータは、演者へ音が届く位置に配置される音声出力装置へ提供される、音声処理装置が提供される。
本発明の態様に従えば、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を送信する送信部と、ユーザから発せられて位置情報に基づいて調整された音のデータを、位置情報の送信先から受信する受信部と、ユーザである第1のユーザに対応する送信先から受信したデータが表す音と、第1のユーザと異なるユーザである第2のユーザに対応する送信先から受信したデータが表す音と、を合成する合成部と、第1のユーザに対応する観客位置と、第2のユーザに対応する観客位置との関係に基づいて、第2のユーザに対応するマイクが検出した音を調整する第2音調整部と、を備え、第2音調整部によって調整された音を含む音のデータは、第1のユーザに音を伝える音声出力装置へ出力される、音声処理装置が提供される。
本発明の態様に従えば、イベントに参加するユーザが発する音をマイクによって検出することと、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、所定領域におけるユーザの位置を表す観客位置との関係に基づいて、マイクが検出した音を音調整部によって調整することと、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成部によって合成することと、合成部が合成した音を表すデータを出力することと、を含み、演者は、所定領域の外でパフォーマンスを行い、合成部が合成した音のデータは、演者へ音が届く位置に配置される音声出力装置へ提供される、音声処理方法が提供される。
本発明の態様に従えば、イベントに参加するユーザが発する音をマイクによって検出することと、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、所定領域におけるユーザの位置を表す観客位置との関係に基づいて、マイクが検出した音を音調整部によって調整することと、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成部によって合成することと、合成部が合成した音を表すデータを出力することと、を含み、音調整部は、マイクが検出した第1の音を、第1の音が観客位置で発せられた場合に演者位置に届く第2の音に近づけるように調整する、音声処理方法が提供される。
本発明の態様に従えば、イベントに参加するユーザが発する音をマイクによって検出することと、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、所定領域におけるユーザの位置を表す観客位置との関係に基づいて、マイクが検出した音を音調整部によって調整することと、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成部によって合成することと、合成部が合成した音を表すデータを出力することと、を含み、音調整部は、観客位置と演者位置との距離を用いて、マイクが検出した音の大きさを調整する、音声処理方法が提供される。
本発明の態様に従えば、イベントに参加するユーザが発する音をマイクによって検出することと、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、所定領域におけるユーザの位置を表す観客位置との関係に基づいて、マイクが検出した音を音調整部によって調整することと、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成部によって合成することと、合成部が合成した音を表すデータを出力することと、第1のユーザに対応する観客位置と、第2のユーザに対応する観客位置との関係に基づいて、第2のユーザに対応するマイクが検出した音を第2音調整部によって調整することと、第2音調整部によって調整された音を含む音のデータを、第1のユーザに音を伝える音声出力装置へ出力することと、を含む音声処理方法が提供される。
本発明の態様に従えば、コンピュータに、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を受信することと、ユーザから発せられてマイクに検出された音を、位置情報に基づいて調整することと、調整した音を表すデータを送信することと、を実行させ、調整することは、マイクが検出した第1の音を、第1の音が観客位置で発せられた場合に演者位置に届く第2の音に近づけるように調整することを含む、音声処理プログラムが提供される。
本発明の態様に従えば、コンピュータに、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を受信することと、ユーザから発せられてマイクに検出された音を、位置情報に基づいて調整することと、調整した音を表すデータを送信することと、を実行させ、調整することは、観客位置と演者位置との距離を用いて、マイクが検出した音の大きさを調整することを含む、音声処理プログラムが提供される。
本発明の態様に従えば、コンピュータに、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を送信することと、ユーザから発せられて位置情報に基づいて調整された音のデータを、位置情報の送信先から受信することと、ユーザである第1のユーザに対応する送信先から受信したデータが表す音と、第1のユーザと異なるユーザである第2のユーザに対応する送信先から受信したデータが表す音とを合成することと、を実行させ、演者は、所定領域の外でパフォーマンスを行い、合成された音のデータは、演者へ音が届く位置に配置される音声出力装置へ提供される、音声処理プログラムが提供される。
本発明の態様に従えば、コンピュータに、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を送信することと、ユーザから発せられて位置情報に基づいて調整された音のデータを、位置情報の送信先から受信することと、ユーザである第1のユーザに対応する送信先から受信したデータが表す音と、第1のユーザと異なるユーザである第2のユーザに対応する送信先から受信したデータが表す音とを合成することと、第1のユーザに対応する観客位置と、第2のユーザに対応する観客位置との関係に基づいて、第2のユーザに対応するマイクが検出した音を調整することと、を実行させ、第2のユーザに対応して調整された音を含む音のデータは、第1のユーザに音を伝える音声出力装置へ出力される、音声処理プログラムが提供される。
本発明の第1の態様に従えば、イベントに参加するユーザが発する音を検出するマイクと、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、所定領域におけるユーザの位置を表す観客位置との関係に基づいて、マイクが検出した音を調整する音調整部と、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成する合成部と、合成部が合成した音を表すデータを出力する出力部と、を備える音声処理システムが提供される。
本発明の態様に従えば、イベントに参加するユーザが発する音を検出するマイクと、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、所定領域におけるユーザの位置を表す観客位置との関係に基づいて、マイクが検出した音を調整する音調整部と、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成する合成部と、合成部が合成した音を表すデータを出力する出力部と、を備え、音調整部は、マイクが検出した第1の音を、第1の音が観客位置で発せられた場合に演者位置に届く第2の音に近づけるように調整する、音声処理システムが提供される。
According to an aspect of the present invention, a microphone that detects a sound emitted by a user participating in an event, a performer position that represents the position of the performer of the event in a predetermined area where the event is held, and a spectator that represents the position of the user in a predetermined area. A sound adjustment unit that adjusts the sound detected by the microphone based on the relationship with the position, a sound detected by the microphone corresponding to the first user who is the user, and adjusted by the sound adjustment unit, and the first user. A compositing unit that synthesizes the sound detected by the microphone corresponding to the second user who is a different user from the above and adjusted to the sound adjusting unit, and an output unit that outputs data representing the sound synthesized by the compositing unit. Provided is a sound processing system in which the performer performs a performance outside a predetermined area, and the sound data synthesized by the synthesis unit is provided to a sound output device arranged at a position where the sound reaches the performer.
According to an aspect of the present invention, a microphone that detects a sound emitted by a user participating in an event, a performer position that represents the position of the performer of the event in a predetermined area where the event is held, and a spectator that represents the position of the user in a predetermined area. A sound adjustment unit that adjusts the sound detected by the microphone based on the relationship with the position, a sound detected by the microphone corresponding to the first user who is the user, and adjusted by the sound adjustment unit, and the first user. A compositing unit that synthesizes the sound detected by the microphone corresponding to the second user who is a different user from the above and adjusted to the sound adjusting unit, and an output unit that outputs data representing the sound synthesized by the compositing unit. Provided by the sound processing system, the sound adjustment unit adjusts the first sound detected by the microphone so as to approach the second sound that reaches the performer position when the first sound is emitted at the audience position. Will be done.
According to an aspect of the present invention, a microphone that detects a sound emitted by a user participating in an event, a performer position that represents the position of the performer of the event in a predetermined area where the event is held, and a spectator that represents the position of the user in a predetermined area. A sound adjustment unit that adjusts the sound detected by the microphone based on the relationship with the position, a sound detected by the microphone corresponding to the first user who is the user, and adjusted by the sound adjustment unit, and the first user. A compositing unit that synthesizes the sound detected by the microphone corresponding to the second user who is a different user from the above and adjusted to the sound adjusting unit, and an output unit that outputs data representing the sound synthesized by the compositing unit. The sound adjusting unit is provided with a sound processing system that adjusts the loudness of the sound detected by the microphone by using the distance between the audience position and the performer position.
According to an aspect of the present invention, a microphone that detects a sound emitted by a user participating in an event, a performer position that represents the position of the performer of the event in a predetermined area where the event is held, and a spectator that represents the position of the user in a predetermined area. A sound adjustment unit that adjusts the sound detected by the microphone based on the relationship with the position, a sound detected by the microphone corresponding to the first user who is the user, and adjusted by the sound adjustment unit, and the first user. A synthesizer that synthesizes the sound detected by the microphone corresponding to the second user who is a different user from the above and adjusted to the sound adjustment unit, an output unit that outputs data representing the sound synthesized by the synthesizer, and a first A second sound adjustment unit that adjusts the sound detected by the microphone corresponding to the second user based on the relationship between the audience position corresponding to the first user and the audience position corresponding to the second user, and the second Provided is a sound processing system including a second output unit that outputs sound data including sound adjusted by the sound adjustment unit to a sound output device that transmits the sound to a first user.
According to the aspect of the present invention, the position information indicating the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area is received. It is provided with a receiving unit for adjusting the sound, a sound adjusting unit that adjusts the sound emitted from the user and detected by the microphone based on the position information, and a transmitting unit that transmits data representing the sound adjusted by the sound adjusting unit. The sound adjustment unit is provided with a sound processing device that adjusts the first sound detected by the microphone so as to approach the second sound that reaches the performer position when the first sound is emitted at the audience position. ..
According to the aspect of the present invention, the position information indicating the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area is received. It is provided with a receiving unit for adjusting the sound, a sound adjusting unit that adjusts the sound emitted from the user and detected by the microphone based on the position information, and a transmitting unit that transmits data representing the sound adjusted by the sound adjusting unit. The sound adjusting unit is provided with a sound processing device that adjusts the loudness of the sound detected by the microphone by using the distance between the audience position and the performer position.
According to the aspect of the present invention, position information indicating the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area is transmitted. Receives sound data emitted from the user and adjusted based on the position information from the transmission unit to receive the sound data from the transmission destination of the position information, and from the transmission unit corresponding to the first user who is the user. The performer is provided with a compositing unit that synthesizes the sound represented by the data and the sound represented by the data received from the destination corresponding to the second user who is a user different from the first user, and the performer is outside the predetermined area. The sound processing device is provided, in which the sound data synthesized by the synthesis unit is provided to the sound output device arranged at a position where the sound reaches the performer.
According to the aspect of the present invention, position information indicating the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area is transmitted. The sound data emitted from the user and adjusted based on the position information is received from the transmission unit that receives the sound data from the transmission destination of the position information, and from the transmission unit corresponding to the first user who is the user. A compositing unit that synthesizes the sound represented by the data and the sound represented by the data received from the destination corresponding to the second user who is a user different from the first user, and the audience position corresponding to the first user. , A second sound adjustment unit that adjusts the sound detected by the microphone corresponding to the second user based on the relationship with the audience position corresponding to the second user, and is adjusted by the second sound adjustment unit. A sound processing device is provided in which sound data including the sound is output to a sound output device that transmits the sound to the first user.
According to the aspect of the present invention, the sound emitted by the user participating in the event is detected by the microphone, the performer position representing the position of the performer of the event in the predetermined area where the event is held, and the position of the user in the predetermined area are determined. The sound detected by the microphone is adjusted by the sound adjustment unit based on the relationship with the represented audience position, and the sound detected by the microphone corresponding to the first user who is the user and adjusted by the sound adjustment unit. The synthesizer synthesizes the sound detected by the microphone corresponding to the second user, which is a different user from the first user, and adjusted to the sound adjustment unit, and outputs the data representing the sound synthesized by the synthesizer. A sound processing method in which the performer performs a performance outside a predetermined area, and the sound data synthesized by the synthesizer is provided to a sound output device arranged at a position where the sound reaches the performer. Is provided.
According to the aspect of the present invention, the sound emitted by the user participating in the event is detected by the microphone, the performer position representing the position of the performer of the event in the predetermined area where the event is held, and the position of the user in the predetermined area are determined. The sound detected by the microphone is adjusted by the sound adjustment unit based on the relationship with the represented audience position, and the sound detected by the microphone corresponding to the first user who is the user and adjusted by the sound adjustment unit. The synthesizer synthesizes the sound detected by the microphone corresponding to the second user, which is a different user from the first user, and adjusted to the sound adjustment unit, and outputs the data representing the sound synthesized by the synthesizer. The sound adjustment unit adjusts the first sound detected by the microphone so as to be closer to the second sound that reaches the performer position when the first sound is emitted at the audience position. A voice processing method is provided.
According to the aspect of the present invention, the sound emitted by the user participating in the event is detected by the microphone, the performer position representing the position of the performer of the event in the predetermined area where the event is held, and the position of the user in the predetermined area are determined. The sound detected by the microphone is adjusted by the sound adjustment unit based on the relationship with the represented audience position, and the sound detected by the microphone corresponding to the first user who is the user and adjusted by the sound adjustment unit. The synthesizer synthesizes the sound detected by the microphone corresponding to the second user, which is a different user from the first user, and adjusted to the sound adjustment unit, and outputs the data representing the sound synthesized by the synthesizer. A sound processing method is provided in which the sound adjusting unit adjusts the loudness of the sound detected by the microphone by using the distance between the audience position and the performer position.
According to the aspect of the present invention, the sound emitted by the user participating in the event is detected by the microphone, the performer position representing the position of the performer of the event in the predetermined area where the event is held, and the position of the user in the predetermined area are determined. The sound detected by the microphone is adjusted by the sound adjustment unit based on the relationship with the represented audience position, and the sound detected by the microphone corresponding to the first user who is the user and adjusted by the sound adjustment unit. The synthesizer synthesizes the sound detected by the microphone corresponding to the second user, which is a different user from the first user, and adjusted to the sound adjustment unit, and outputs the data representing the sound synthesized by the synthesizer. Based on the relationship between the spectator position corresponding to the first user and the spectator position corresponding to the second user, the sound detected by the microphone corresponding to the second user is detected by the second sound adjustment unit. A sound processing method including adjusting and outputting sound data including a sound adjusted by a second sound adjusting unit to a sound output device that transmits the sound to a first user is provided.
According to the aspect of the present invention, a position showing the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area on the computer. Receiving information, adjusting the sound emitted by the user and detected by the microphone based on the position information, and transmitting data representing the adjusted sound can be executed and adjusted. , A speech processing program is provided that includes adjusting the first sound detected by the microphone to be closer to the second sound that reaches the performer position when the first sound is emitted at the audience position.
According to the aspect of the present invention, a position showing the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area on the computer. Receiving information, adjusting the sound emitted by the user and detected by the microphone based on the position information, and transmitting data representing the adjusted sound can be executed and adjusted. , A voice processing program is provided that includes adjusting the loudness of the sound detected by the microphone using the distance between the audience position and the performer position.
According to the aspect of the present invention, a position showing the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area on the computer. Sending information, receiving sound data emitted from the user and adjusted based on the position information from the destination of the position information, and receiving from the destination corresponding to the first user who is the user. Combining the sound represented by the data and the sound represented by the data received from the destination corresponding to the second user who is a different user from the first user, the performer is out of the predetermined area. A sound processing program is provided in which the synthesized sound data is provided to a sound output device arranged at a position where the sound reaches the performer.
According to the aspect of the present invention, a position showing the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area on the computer. Sending information, receiving sound data emitted from the user and adjusted based on the position information from the destination of the position information, and receiving from the destination corresponding to the first user who is the user. Combining the sound represented by the generated data and the sound represented by the data received from the destination corresponding to the second user who is a different user from the first user, the audience position corresponding to the first user, and the audience position corresponding to the first user. Adjusting the sound detected by the microphone corresponding to the second user based on the relationship with the audience position corresponding to the second user, and executing the sound adjusted corresponding to the second user. A sound processing program is provided in which the sound data including the above is output to a sound output device that transmits the sound to the first user.
According to the first aspect of the present invention, a microphone for detecting a sound emitted by a user participating in an event, a performer position representing an event performer's position in a predetermined area where the event is held, and a user's position in a predetermined area. A sound adjustment unit that adjusts the sound detected by the microphone based on the relationship with the audience position representing the above, a sound detected by the microphone corresponding to the first user who is the user, and adjusted by the sound adjustment unit. A synthesizer that synthesizes the sound detected by the microphone corresponding to the second user who is a different user from the first user and adjusted to the sound adjustment unit, and an output unit that outputs data representing the sound synthesized by the synthesizer. And, a sound processing system is provided.
According to an aspect of the present invention, a microphone that detects a sound emitted by a user participating in an event, a performer position that represents the position of the performer of the event in a predetermined area where the event is held, and a spectator that represents the position of the user in a predetermined area. A sound adjustment unit that adjusts the sound detected by the microphone based on the relationship with the position, a sound detected by the microphone corresponding to the first user who is the user, and adjusted by the sound adjustment unit, and the first user. A compositing unit that synthesizes the sound detected by the microphone corresponding to the second user who is a different user and adjusted to the sound adjusting unit, and an output unit that outputs data representing the sound synthesized by the compositing unit. Provided by the sound processing system, the sound adjustment unit adjusts the first sound detected by the microphone so as to approach the second sound that reaches the performer position when the first sound is emitted at the audience position. Will be done.
本発明の第2の態様に従えば、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を受信する受信部と、ユーザから発せられてマイクに検出された音を、位置情報に基づいて調整する音調整部と、音調整部が調整した音を表すデータを送信する送信部と、を備える音声処理装置が提供される。 According to the second aspect of the present invention, a position indicating the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area. A receiving unit that receives information, a sound adjusting unit that adjusts the sound emitted from the user and detected by the microphone based on the position information, and a transmitting unit that transmits data representing the sound adjusted by the sound adjusting unit. A voice processing device comprising the above is provided.
本発明の第3の態様に従えば、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を送信する送信部と、ユーザから発せられて位置情報に基づいて調整された音のデータを、位置情報の送信先から受信する受信部と、ユーザである第1のユーザに対応する送信先から受信したデータが表す音と、第1のユーザと異なるユーザである第2のユーザに対応する送信先から受信したデータが表す音と、を合成する合成部と、を備える音声処理装置が提供される。 According to the third aspect of the present invention, a position indicating the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area. A transmitter that transmits information, a receiver that receives sound data emitted from the user and adjusted based on the location information from the destination of the location information, and a destination corresponding to the first user who is the user. Provided is a voice processing device including a compositing unit that synthesizes a sound represented by data received from and a sound represented by data received from a destination corresponding to a second user who is a user different from the first user. Will be done.
本発明の第4の態様に従えば、イベントに参加するユーザが発する音をマイクによって検出することと、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、所定領域におけるユーザの位置を表す観客位置との関係に基づいて、マイクが検出した音を音調整部によって調整することと、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成部によって合成することと、合成部が合成した音を表すデータを出力することと、を含む音声処理方法が提供される。 According to the fourth aspect of the present invention, the sound emitted by the user participating in the event is detected by the microphone, the performer position representing the position of the performer of the event in the predetermined area where the event is held, and the user in the predetermined area. The sound detected by the microphone is adjusted by the sound adjustment unit based on the relationship with the audience position representing the position of, and is detected by the microphone corresponding to the first user who is the user and adjusted to the sound adjustment unit. The sound and the sound detected by the microphone corresponding to the second user, which is a user different from the first user, and adjusted by the sound adjustment unit are synthesized by the synthesis unit, and the sound synthesized by the synthesis unit is represented. A sound processing method including outputting data is provided.
本発明の第5の態様に従えば、コンピュータに、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を受信することと、ユーザから発せられてマイクに検出された音を、位置情報に基づいて調整することと、調整した音を表すデータを送信することと、を実行させる音声処理プログラムが提供される。 According to the fifth aspect of the present invention, the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area on the computer. Voice processing that receives the position information indicating the above, adjusts the sound emitted from the user and detected by the microphone based on the position information, and transmits the data representing the adjusted sound. The program is provided.
本発明の第6態様に従えば、コンピュータに、イベントが開催される所定領域におけるイベントの演者の位置を表す演者位置と、イベントに参加するユーザの所定領域における位置を表す観客位置との関係を示す位置情報を送信することと、ユーザから発せられて位置情報に基づいて調整された音のデータを、位置情報の送信先から受信することと、ユーザである第1のユーザに対応する送信先から受信したデータが表す音と、第1のユーザと異なるユーザである第2のユーザに対応する送信先から受信したデータが表す音とを合成することと、実行させる音声処理プログラムが提供される。
According to the sixth aspect of the present invention, the computer is provided with a relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area. Sending the indicated position information, receiving sound data emitted from the user and adjusted based on the position information from the destination of the position information, and a destination corresponding to the first user who is the user. A voice processing program for synthesizing the sound represented by the data received from the first user and the sound represented by the data received from the destination corresponding to the second user who is a user different from the first user and executing the data is provided. ..
[第1実施形態]
第1実施形態について説明する。図1は、第1実施形態に係る音声処理システムを示す図である。音声処理システム1は、例えば、各種イベントにおけるコンテンツを配信するサービス(適宜、コンテンツ配信サービスという)に利用される情報処理システムである。音声処理システム1は、演者Pのパフォーマンスが表現されたコンテンツを、観客であるユーザUへ配信する。音声処理システム1は、コンテンツを視聴するユーザUの反応を、演者Pに伝える。演者Pは、複数のユーザUの反応を意識して、後のパフォーマンスを行うことができる。複数のユーザUは、例えば、自身の反応によって変化するパフォーマンスを視聴することができる。複数のユーザUは、例えば、リモート環境でイベントに参加する場合であっても、臨場感を味わうことができる。このように、音声処理システム1は、各種イベントのコンテンツを配信する分野において、ユーザUへ新たな体験を提供できる。以下の説明において適宜、任意のユーザを符号Uで表し、ユーザUを区別する場合、ユーザUa、ユーザUbのように符号Uにアルファベットa、b、・・・を追加した符号で表す。[First Embodiment]
The first embodiment will be described. FIG. 1 is a diagram showing a voice processing system according to the first embodiment. The
音声処理システム1が利用される各種イベントは、例えば、音楽、演劇、娯楽、スポーツ、eスポーツ、競技、講演、講義、演説、対談、討論、及び実演販売の少なくとも1つに関するイベントを含む。音声処理システム1は、その他のイベントに利用されてもよい。イベントは、例えば、演者Pのスキルを観客に披露する場である。演者Pは、アーティスト、演奏者、歌手、俳優、芸人、話者、又は選手と呼ばれてもよい。観客は、聴衆、又は視聴者と呼ばれてもよい。イベントは、観客の少なくとも一部が有償で参加する形態でもよいし、観客の少なくとも一部が無償で参加する形態でもよい。イベントは、実空間で開催される形態でもよいし、仮想空間(適宜、サイバー空間と称す)で開催される形態でもよく、実空間および仮想空間で並行して開催される形態でもよい。
Various events in which the
図1の符号AEは、イベントが開催される所定領域(適宜、イベント会場AEと称す)である。イベント会場AEは、実空間の領域でもよいし、仮想空間の領域でもよい。イベント会場AEは、実空間に存在する施設をサイバー空間に再現または拡張したものでもよい。例えば、イベントの参加者は、演者Pがパフォーマンスを行う会場で参加する観客と、この会場をサイバー空間に再現した会場で参加する観客とを含んでもよい。図1の符号P1は、イベント会場AEにおける演者の位置を表す演者位置である。演者位置P1は、例えば、イベント会場AEのステージAE1に対して予め設定される位置である。例えば、演者位置P1は、ステージAE1の中心でもよい。 Reference numeral AE in FIG. 1 is a predetermined area where an event is held (appropriately referred to as an event venue AE). The event venue AE may be an area of real space or an area of virtual space. The event venue AE may be a facility that exists in the real space reproduced or expanded in the cyber space. For example, the participants of the event may include an audience who participates in the venue where the performer P performs, and an audience who participates in the venue where this venue is reproduced in cyberspace. Reference numeral P1 in FIG. 1 is a performer position representing the position of the performer in the event venue AE. The performer position P1 is, for example, a position preset with respect to the stage AE1 of the event venue AE. For example, the performer position P1 may be the center of the stage AE1.
図1の符号APは、演者Pがパフォーマンスを行う領域(適宜、実演領域という)である。実演領域APは、例えば、イベント会場AEの外である。実演領域APは、実空間上の任意の領域である。実演領域APは、例えばスタジオである。実演領域APは、演者Pの住居内の領域でもよいし、商業施設内の領域でもよく、その他の領域でもよい。実演領域APは、屋内の領域でもよいし、屋外の領域(例、公園、建物の屋上)でもよい。 The reference numeral AP in FIG. 1 is an area where the performer P performs (appropriately referred to as a demonstration area). The demonstration area AP is, for example, outside the event venue AE. The demonstration area AP is an arbitrary area in the real space. The demonstration area AP is, for example, a studio. The demonstration area AP may be an area in the residence of the performer P, an area in a commercial facility, or another area. The demonstration area AP may be an indoor area or an outdoor area (eg, a park, the roof of a building).
演者Pは、1人でもよいし、複数人でもよい。複数の演者Pが存在する場合、第1の演者Pに対応する実演領域APは、第2の演者Pに対応する実演領域APと異なってもよい。1つの実演領域APに複数の演者Pが存在する場合、演者位置P1は、演者Pごとに定められてもよいし、複数の演者Pを代表する位置に定められてもよい。複数の演者Pの代表位置は、例えば、複数の演者Pのそれぞれの位置を座標で表し、複数の演者Pの座標の平均(例、複数の演者の位置の重心)でもよい。 The performer P may be one person or a plurality of people. When there are a plurality of performers P, the performance area AP corresponding to the first performer P may be different from the performance area AP corresponding to the second performer P. When a plurality of performers P exist in one performance area AP, the performer position P1 may be determined for each performer P or may be determined at a position representing the plurality of performers P. The representative position of the plurality of performers P may be, for example, the position of each of the plurality of performers P represented by coordinates, and may be the average of the coordinates of the plurality of performers P (eg, the center of gravity of the positions of the plurality of performers).
なお、実演領域APは、イベント会場AE内の領域でもよい。例えば、実演領域APは、実空間の会場におけるステージでもよい。演者位置P1は、固定でもよいし、可変でもよい。例えば、音声処理システム1は、実演領域APにおける演者Pの位置と移動との一方または双方を検出するセンサを備え、センサの検出結果に基づいて演者位置P1を決定してもよい。例えば、音声処理システム1は、演者Pが実演領域APの中央から外側へ向かって移動した場合、演者位置P1をステージAE1の中央から外側へ向かうように変更してもよい。
The demonstration area AP may be an area within the event venue AE. For example, the demonstration area AP may be a stage in a real space venue. The performer position P1 may be fixed or variable. For example, the
図1の符号Qは、イベント会場AEにおける観客の位置を表す観客位置である。以下の説明において適宜、任意のユーザUの観客位置を符号Qで表し、観客位置を区別する場合に観客位置Qa、観客位置Qbのように、符号Qにアルファベットa、b、・・・を追加した符号で表す。観客位置Qaは、観客であるユーザUaの位置を表す。観客位置Qbは、ユーザUaと異なる観客であるユーザUbの位置を表す。観客位置Qbは、観客位置Qaに比べて、演者位置P1から離れた位置である。演者位置P1と観客位置Qaとの距離Laは、演者位置P1と観客位置Qbとの距離Lbよりも短い。 Reference numeral Q in FIG. 1 is an spectator position representing the position of the spectator in the event venue AE. In the following description, the spectator position of any user U is represented by the code Q, and the alphabets a, b, ... Are added to the code Q, such as the spectator position Qa and the spectator position Qb, when distinguishing the spectator positions. It is represented by the code. The spectator position Qa represents the position of the user Ua who is the spectator. The spectator position Qb represents the position of the user Ub who is a different spectator from the user Ua. The audience position Qb is a position farther from the performer position P1 than the audience position Qa. The distance La between the performer position P1 and the audience position Qa is shorter than the distance Lb between the performer position P1 and the audience position Qb.
図1の符号AUは、観客であるユーザUがイベントのコンテンツを視聴する領域(適宜、視聴領域AUという)である。視聴領域AUは、実空間の任意の領域である。視聴領域AUは、例えば、イベント会場AEの外である。視聴領域AUは、例えば、ユーザUの住居内の領域である。視聴領域AUは、ユーザUの住居内の領域と異なる領域でもよい。視聴領域AUは、カラオケボックス、映画館、劇場、飲食店(例、スポーツバー)などの施設の領域でもよい。視聴領域AUは、鉄道や航空機、船舶、車両などの移動体の領域でもよい。視聴領域AUは、イベント会場AE内の領域でもよい。例えば、イベント会場AEがドライブインシアターであって、視聴領域AUは、イベント会場AEに駐車した車両内の領域でもよい。視聴領域AUは、屋内でもよいし、屋外でもよい。 The reference numeral AU in FIG. 1 is an area (appropriately referred to as a viewing area AU) in which the user U, who is an audience, views the contents of the event. The viewing area AU is an arbitrary area in the real space. The viewing area AU is, for example, outside the event venue AE. The viewing area AU is, for example, an area in the residence of the user U. The viewing area AU may be an area different from the area in the user U's residence. The viewing area AU may be an area of facilities such as a karaoke box, a movie theater, a theater, and a restaurant (eg, a sports bar). The viewing area AU may be an area of a moving body such as a railroad, an aircraft, a ship, or a vehicle. The viewing area AU may be an area within the event venue AE. For example, the event venue AE may be a drive-in theater, and the viewing area AU may be an area in a vehicle parked at the event venue AE. The viewing area AU may be indoors or outdoors.
以下の説明において適宜、任意の視聴領域を符号AUで表し、視聴領域AUを区別する場合、視聴領域AUa、視聴領域AUbのように、符号AUにアルファベットa、b、・・・を追加した符号で表す。例えば、視聴領域AUaは、ユーザUaがコンテンツを視聴する領域であり、視聴領域AUbは、ユーザUbがコンテンツを視聴する領域である。1つの視聴領域AUに存在する視聴者の数は、ユーザUのみの1人でもよいし、ユーザUを含む複数人でもよい。 In the following description, when an arbitrary viewing area is appropriately represented by a code AU and the viewing area AU is distinguished, a code in which the alphabets a, b, ... Are added to the code AU, such as the viewing area AUa and the viewing area AUb. It is represented by. For example, the viewing area AUa is an area where the user Ua views the content, and the viewing area AUb is an area where the user Ub views the content. The number of viewers existing in one viewing area AU may be one only for the user U or may be a plurality of viewers including the user U.
音声処理システム1は、処理装置2と、端末3と、カメラ4と、マイク5と、スピーカ6とを備える。カメラ4、マイク5、及びスピーカ6は、実演領域APに配置される。カメラ4、マイク5、及びスピーカ6は、処理装置2と接続される。例えば、カメラ4、マイク5、及びスピーカ6は、通信部を備える情報処理装置(例、コンピュータ)と有線または無線で接続さる。この情報処理装置は、例えばインターネット回線を介して、処理装置2と通信可能に接続される。端末3は、視聴領域AUに配置される。端末3は、例えばインターネット回線を介して、処理装置2と通信可能に接続される。
The
カメラ4は、実演領域APでパフォーマンスを行う演者Pを撮影する。マイク5は、実演領域APでパフォーマンスを行う演者Pが発する音声を検出する。演者Pが発する音声は、例えば、演者Pが身体から発する音(例、声、手拍子)と、演者Pが道具(例、楽器)によって発する音との一方または双方を含む。カメラ4により撮影された映像のデータ、及びマイク5により検出された音声のデータは、処理装置2に提供される。スピーカ6は、演者Pに対して音声を出力する。スピーカ6は、処理装置2から提供される音声のデータに基づいて、音声を出力する。処理装置2は、実演領域APに設置された装置(例、カメラ4、マイク5)から提供されるデータ(例、映像のデータ、音声のデータ)を用いて、コンテンツを生成する。処理装置2は、生成したコンテンツのデータを、例えばインターネット回線を介して提供する。
The
なお、音声処理システム1は、カメラ4と、マイク5と、スピーカ6との少なくとも1つを備えなくてもよい。例えば、カメラ4と、マイク5と、スピーカ6との少なくとも1つは、音声処理システム1の外部の装置でもよい。音声処理システム1は、上記外部の装置を利用する形態でもよい。実施形態に係るカメラは、撮像装置と呼ばれてもよい。実施形態に係るマイクは、音声検出装置と呼ばれてもよい。実施形態に係るスピーカは、音声出力装置と呼ばれてもよい。
The
端末3は、例えば、視聴領域AUごとに配置される。以下の説明において適宜、視聴領域AUに配置される端末3を区別する場合、端末3a、端末3bのようにアルファベットを追加した符号で表す。例えば、端末3aは、視聴領域AUaに配置される端末であり、端末3bは、視聴領域AUbに配置される端末である。端末3bは、例えば、端末3aと同様の処理を実行する。以下の説明において適宜、端末3bにおいて端末3aと同様の構成については端末3aと同じ符号を付け、端末3bについて端末3aと重複する説明を省略あるいは簡略化する。
The
端末3は、処理装置2が提供するコンテンツのデータを、例えばインターネット回線を介して取得する。端末3は、取得したデータを用いて、ユーザにコンテンツを提供する。また、端末3は、ユーザが発する音を検出する。ユーザが発する音は、例えば、ユーザが身体から発する音(例、声、手拍子)と、ユーザが道具(例、鳴り物)によって発する音との一方または双方を含む。以下の説明において適宜、ユーザが発する音を観客音という。端末3は、演者位置P1と自装置に関連付けられた観客位置Qとの関係に基づいて、観客音を調整する。例えば、端末3は、演者位置P1と観客位置Qとの距離が長いほど観客音の音量が小さくなるように、観客音を調整する。端末3は、調整した観客音のデータを、例えばインターネット回線を介して提供する。
The
処理装置2は、複数の端末3から供給される観客音を合成し、合成した観客音のデータを提供する。実演領域APにおいて、スピーカ6は、処理装置2から供給される観客音のデータに基づいて、観客音を演者Pへ出力する。スピーカ6から出力される観客音Rは、例えば、ユーザUaからの観客音に由来する成分Raと、ユーザUbからの観客音に由来する成分Rbとを含む。ユーザUaに対応する観客位置Qaは、ユーザUbに対応する観客位置Qbに比べて演者位置P1に近く、ユーザUaの観客音に由来する成分Raは、ユーザUbの観客音に由来する成分Rbに比べて音量が大きい。
The
スピーカ6から出力される観客音は、観客位置Qに基づいて調整された成分を含むので、例えば演者へライブ感を伝えることに寄与する。演者Pは、例えば、ライブ感がある観客音を聞くことで、複数のユーザUの反応に応えるようにパフォーマンスを行うことができる。その結果、複数のユーザUは、例えばライブ感のあるパフォーマンスのコンテンツを楽しむことができる。 Since the audience sound output from the speaker 6 contains a component adjusted based on the audience position Q, it contributes to, for example, transmitting a live feeling to the performer. For example, the performer P can perform a performance so as to respond to the reactions of a plurality of users U by listening to the audience sound having a live feeling. As a result, the plurality of users U can enjoy, for example, live performance content.
本実施形態において、ユーザUは、イベントの開催前にイベント参加の申し込み(適宜、参加申請という)を行う。ここでは、参加申請の申請先は、イベント開催者であるとする。イベント開催者は、ユーザUの参加を受け入れる場合、ユーザU向けに端末3を設定する。例えば、イベント開催者は、図1で説明したサービスの提供に用いる各種情報(例、データ、プログラム)を端末3に記憶させる。イベント開催者は、設定された端末3をユーザUに提供する。ユーザUは、イベント開催者から提供された端末3を利用して、イベントに参加してンテンツを視聴しつつ、反応を演者Pに伝えることができる。このように、本実施形態に係る端末3は、イベントへ参加する権利を示すチケットを兼ねる。
In the present embodiment, the user U applies for participation in the event (appropriately referred to as a participation application) before the event is held. Here, it is assumed that the application destination of the participation application is the event organizer. When the event organizer accepts the participation of the user U, the event organizer sets the
図2は、第1実施形態に係る端末を設定する処理を示す図である。ユーザUaは、イベントの開催に先立ち、イベントへの参加を申請する。ユーザUaは、例えば、コンビニエンスストア等の店舗に設置される端末(適宜、予約端末7という)を操作し、参加申請に関する情報(適宜、エントリー情報という)を入力する。エントリー情報は、例えば、ユーザUaを特定する情報と、ユーザUaが参加を希望するイベントを特定する情報と、ユーザUaが希望するイベント会場AEの席の情報とを含む。 FIG. 2 is a diagram showing a process of setting a terminal according to the first embodiment. User Ua applies for participation in the event prior to holding the event. The user Ua operates, for example, a terminal installed in a store such as a convenience store (appropriately referred to as a reservation terminal 7), and inputs information regarding a participation application (appropriately referred to as entry information). The entry information includes, for example, information that identifies the user Ua, information that identifies the event that the user Ua wants to participate in, and information on the seats of the event venue AE that the user Ua wants to participate in.
ユーザを特定する情報は、例えば、ユーザの氏名や識別情報などである。以下の説明において適宜、ユーザを特定する情報を、ユーザIDという。イベントを特定する情報は、例えば、各イベントに割り付けられた識別情報(例、番号)やイベントの名称などである。以下の説明において適宜、イベントを特定する情報をイベントIDという。席の情報は、例えば、席のランク(S席、A席)を指定する情報と、席の条件(例、二階席、アリーナ、通路側)を指定する情報と、席の番号を指定する情報との少なくとも1つを含む。 The information that identifies the user is, for example, the user's name or identification information. Information that identifies a user as appropriate in the following description is referred to as a user ID. The information that identifies the event is, for example, the identification information (eg, number) assigned to each event, the name of the event, or the like. In the following description, information that identifies an event is appropriately referred to as an event ID. The seat information includes, for example, information for specifying the seat rank (S seat, A seat), information for specifying seat conditions (eg, upstairs seat, arena, aisle side), and information for specifying the seat number. Includes at least one of.
予約端末7に入力されたエントリー情報は、申請先の端末(適宜、受付端末8という)へ提供される。例えば、予約端末7は、インターネット回線に接続され、エントリー情報を送信する。受付端末8は、予約端末7が送信したエントリー情報を受信する。
The entry information input to the
受付端末8は、例えば、ユーザ情報を管理するサーバである。受付端末8は、記憶部11と、通信部12とを備える。通信部12は、予約端末7と通信可能に接続され、予約端末7が送信したエントリー情報を受信する。受付端末8は、ユーザから提供される参加申請を取得する申請取得部を含む。受付端末8は、受信したエントリー情報に基づいて、ユーザUaのイベント会場AEにおける席を決定する。受付端末8は、例えば、抽選によって席を決定する。受付端末8は、抽選と異なる方法で席を決定してもよいし、抽選とその他の方法とを組み合わせた方法で席を決定してもよい。例えば、受付端末8は、エントリー情報を受信した順に、エントリー情報に対応するユーザUに席を割り当ててもよいし、エントリー情報に示される席の情報に基づいて席を決定してもよい。
The
受付端末8の記憶部11は、ユーザ情報D1を記憶する。ユーザ情報D1は、例えば、ユーザIDと、ユーザUaの席として決定された席を特定する識別情報と含む。以下の説明において適宜、席を特定する識別情報を席IDという。ユーザ情報D1は、例えば、複数のユーザUのそれぞれについて、ユーザIDと席IDとを関連付けたテーブルデータを含む。ユーザ情報D1は、ユーザIDおよび席IDと異なる情報を含んでもよい。例えば、ユーザ情報D1は、ユーザUaが過去に参加したイベントの履歴を含んでもよい。ユーザ情報D1は、各ユーザUの年齢、性別、及びその他の属性情報の少なくとも1つを含んでもよい。記憶部11が記憶するユーザ情報D1の少なくとも一部は、処理装置2へ提供される。
The
受付端末8は、第1のユーザが過去のイベントに参加した履歴に基づいて、過去のイベントよりも後のイベントに第1のユーザが参加する際の座席を決定してもよい。例えば、記憶部11に記憶されるユーザ情報D1は、各ユーザが過去のイベントに参加した履歴(適宜、参加履歴という)を含む。受付端末8は、例えば、ユーザ情報D1に含まれる参加履歴を用いて、第1のユーザの今回の参加申請に対する席を決定する。例えば、実施形態に係るコンテンツ配信サービスのおいて、ユーザには、イベントに参加した回数に応じた属性(例、ランク)が付与される。例えば、ユーザのランク(例、シルバー、ゴールド、プラチナ)は、イベントの参加回数が増えるにつれて高くなる。受付端末8は、ユーザのランクが高いほど、今回のイベントにおける第1のユーザの席として、優遇された席を決定してもよい。優遇された席は、例えば、図1に示したイベント会場AEにおいて相対的にステージAE1に近い席である。ユーザのランクは、参加回数以外のパラメータにより決定されてもよく、例えば、イベントの参加に費やした金額に応じて決定されてもよい。ユーザのランクは、1つのパラメータによって決定されてもよいし、複数のパラメータによって決定されてもよく、抽選等によってランダムに決定されてもよい。
The
処理装置2は、ユーザUaの参加申請に基づいて、ユーザUaの観客位置Qを決定する。処理装置2は、処理部21と、記憶部22と、通信部23とを備える。通信部23は、受付端末8と通信可能に接続される。通信部23は、受付端末8が送信したユーザ情報を受信する。記憶部22は、イベント会場AEの演者位置P1(図1参照)の情報D2を記憶する。記憶部22が記憶する演者位置P1の情報D2は、例えばサイバー空間における座標である。
The
処理部21は、位置決定部24を含む。位置決定部24は、ユーザからのイベントへの参加申請に基づいて、イベントが開催される所定領域(例、図1のイベント会場AE)におけるユーザの位置を表す観客位置Qを決定する。位置決定部24は、例えば、申請取得部である受付端末8が取得した参加申請に基づいて、観客位置Qを決定する。例えば、位置決定部24は、参加申請に基づいて決定される座席IDに対応するサイバー空間上の座標を導出し、導出した座標を観客位置Qとして決定する。位置決定部24は、座席IDに対応する、演者位置P1と同じ座標系における座標を導出する。例えば、記憶部22は、座席IDと観客位置Qとを関連付けたマップデータを記憶する。位置決定部24は、通信部23が受信したユーザ情報に含まれる座席IDを取得し、この座席IDを上記マップデータと照合して観客位置Qを決定する。位置決定部24は、例えば複数のユーザUのそれぞれの観客位置Qを決定することによって、複数の観客位置Qの相対的な位置を決定する。
The
位置決定部24は、第1のユーザ(例、ユーザUa)が過去のイベントに参加した履歴に基づいて、過去のイベントよりも後のイベントに第1のユーザが参加する際の観客位置Qを決定してもよい。例えば、位置決定部24は、受付端末8がユーザUaの参加履歴に基づいて決定した今回のイベントにおけるユーザUaの席に基づいて、この席に対応する観客位置Qを決定してもよい。
The position determination unit 24 determines the audience position Q when the first user participates in an event after the past event based on the history of the first user (eg, user Ua) participating in the past event. You may decide. For example, the position determination unit 24 may determine the spectator position Q corresponding to this seat based on the seat of the user Ua in the current event determined by the
処理部21は、演者位置P1と、位置決定部24が決定した観客位置Qとの関係を示す位置情報を生成する。位置情報は、例えば、演者位置P1と観客位置Qとの距離(例、図1の距離La)を含む。位置情報は、演者位置P1から観客位置Qまでの距離と異なる情報を含んでもよい。例えば、位置情報は、演者位置P1と、観客位置Qとを一組にした情報を含んでもよい。位置情報は、演者位置P1と観客位置Qとを結ぶ方向の情報(例、ベクトル)を含んでもよい。位置情報は、演者位置P1と観客位置Qとの間の空間の情報(例、観客位置Qから演者位置P1へ向かう音の減衰のレベルを示す情報、障害物の有無)を含んでもよい。位置情報は、演者位置P1と観客位置Qとの距離、演者位置P1と観客位置Qとを一組にした情報、演者位置P1と観客位置Qとを結ぶ方向の情報、及び演者位置P1と観客位置Qとの間の空間の情報の少なくとも1つを含まなくてもよく、これら情報のいずれとも異なる情報を含んでもよい。
The
処理装置2が生成した位置情報は、端末3aに供給される。端末3は、記憶部31と、通信部32とを備える。通信部32は、例えば、処理装置2の通信部23と通信可能に接続される。通信部32は、処理装置2の通信部23が送信した位置情報を受信する。端末3は、通信部23が受信した位置情報を、記憶部31に記憶させる。端末3aは、図1に示した演者位置P1と、ユーザUaの参加申請に基づいて決定される観客位置Qaとの関係を示す位置情報D3aを記憶する。端末3aは、例えば郵送などによってユーザUaに提供され、ユーザUaがイベントに参加する際に利用される。
The position information generated by the
端末3bは、端末3aと同様の構成である。端末3bは、図1に示した演者位置P1と、ユーザUbの参加申請に基づいて決定される観客位置Qbとの関係を示す位置情報D3bを記憶する。端末3bは、例えば宅配便などによってユーザUbに届けられ、ユーザUbがイベントに参加する際に利用される。以下の説明において適宜、任意のユーザUに対応する観客位置Qと演者位置P1との関係を示す位置情報を符号D3で表す。 The terminal 3b has the same configuration as the terminal 3a. The terminal 3b stores the position information D3b indicating the relationship between the performer position P1 shown in FIG. 1 and the audience position Qb determined based on the participation application of the user Ub. The terminal 3b is delivered to the user Ub by, for example, a courier service, and is used when the user Ub participates in the event. In the following description, the position information indicating the relationship between the audience position Q corresponding to the arbitrary user U and the performer position P1 is represented by reference numeral D3 as appropriate.
なお、予約端末7は、音声処理システム1の一部でもよいし、音声処理システム1の外部の装置でもよい。予約端末7は、ユーザUaが保有するスマートフォンやパーソナルコンピュータ等の端末でもよい。ユーザUbからのエントリー情報を受け付ける予約端末7は、ユーザUaからのエントリー情報を受け付ける予約端末7と同じ装置でもよいし、異なる装置でもよい。エントリー情報の少なくとも一部を予約端末7へ入力する処理は、ユーザUaと異なる者が実行してもよい。例えば、ユーザUaは、参加申請を店舗または電話で受付担当者へ伝え、受付担当者が予約端末7にエントリー情報を入力してもよい。参加申請の申請先は、イベント開催者でなくてもよい。例えば、参加申請の申請先は、イベント開催者から委託された受託者でもよいし、イベントに関するコンテンツの配信者でもよく、イベントの管理者でもよい。
The
なお、ユーザUaの席を決定する処理は、申請先の担当者によって手動で実行されてもよい。例えば、ユーザUaは、参加申請が記入された申込用紙を申請先へ郵送し、申請先の担当者は、申込用紙に記載された情報に基づいてユーザUaの席を決定してもよい。申請先の担当者は、ユーザUaの席として決定された席IDをユーザIDとを関連付けて、受付端末8に入力してもよい。受付端末8または上記担当者は、イベントに参加する権利(適宜、参加権という)をユーザUaへ付与するか否かを決定し、その後に、ユーザUaの席を決定してもよい。例えば、定員を超える人数のユーザUから参加申請があった場合、又は参加申請があると予測される場合、受付端末8は、抽選によって参加権を付与するか否かを決定してもよい。
The process of determining the seat of the user Ua may be manually executed by the person in charge of the application destination. For example, the user Ua may mail the application form on which the participation application is filled in to the application destination, and the person in charge of the application destination may determine the seat of the user Ua based on the information described in the application form. The person in charge of the application destination may input the seat ID determined as the seat of the user Ua into the
なお、受付端末8は、音声処理システム1の一部でもよいし、音声処理システム1の外部の装置でもよい。例えば、処理装置2は、受付端末8を備えてもよい。受付端末8は、予約端末7を兼ねてもよい。処理装置2の機能は、複数の装置に分かれて実現されてもよく、これら複数の装置は、包括して処理システムと称されてもよい。
The
なお、端末3に位置情報を記憶させる方法は、有線又は無線による通信を用いない方法でもよい。例えば、位置情報は、USBメモリ等の記録媒体を介して端末3に記憶されてもよい。端末3は、ユーザUに届けられる前に、位置情報を予め記憶しなくてもよい。例えば、処理装置2は、端末3に関連付けられる宛先を記憶し、ユーザUが端末3を受け取った後に、この宛先へ位置情報を送信してもよい。処理装置2は、上記宛先へ位置情報を送信することで、端末3に記憶される位置情報を更新させてもよい。
The method of storing the position information in the
図3は、第1実施形態に係る音声処理システムを示す図である。こでは、ユーザからの音を演者へ伝える際の音声処理システム1の各部の動作を説明する。処理装置2は、例えば、サーバコンピュータ等の情報処理装置を含む。処理装置2は、音声処理システム1の各部を管理する。処理装置2は、処理部21と、通信部23と、入力部25と、出力部26とを備える。処理装置2には、カメラ4と、マイク5と、スピーカ6とが接続されている。
FIG. 3 is a diagram showing a voice processing system according to the first embodiment. Here, the operation of each part of the
入力部25は、処理装置2の外部から信号が入力されるインターフェスを含む。入力部25には、カメラ4およびマイク5が接続される。処理装置2には、カメラ4によって撮影された映像のデータ、及びマイク5によって収集された音声のデータが入力される。出力部26は、処理装置2の外部へ信号を出力するインターフェースを含む。出力部26には、スピーカ6が接続される。カメラ4、マイク5、及びスピーカ6の少なくとも1つは、音声処理システム1の一部でもよいし、処理装置2の一部でもよい。カメラ4、マイク5、及びスピーカ6の少なくとも1つは、音声処理システム1の外部の装置でもよく、例えば図1に示した実演領域APの設備でもよい。
The input unit 25 includes an interface in which a signal is input from the outside of the
処理部21は、合成部27と、コンテンツ生成部28とを備える。コンテンツ生成部28は、入力部25に入力されるデータを用いて、コンテンツを生成する。コンテンツ生成部28は、例えば、演者Pのパフォーマンスが映像および音声で表現されたコンテンツを生成する。例えば、コンテンツ生成部28は、カメラ4から入力部25に入力される映像のデータと、マイク5から入力部25に入力される音声のデータを用いて、ユーザUに配信されるコンテンツを生成する。コンテンツ生成部28は、例えば、映像と音声との同期をとり、コンテンツとしてストリーミング動画を生成する。コンテンツ生成部28は、映像処理、各種音響処理、フィルタリング、及び圧縮処理の少なくとも1つを実行してコンテンツを生成してもよい。通信部23は、コンテンツ生成部28が生成したコンテンツのデータを送信する。
The
端末3aは、記憶部31と、通信部32と、処理部33とを備える。通信部32は、処理装置2の通信部23と通信可能に接続される。通信部32は、通信部23が送信したコンテンツのデータを受信する。端末3aには、マイク41と、スピーカ42と、表示装置43とが接続される。マイク41およびスピーカ42は、ヘッドセットでもよい。表示装置43は、テレビジョンセット、PCモニター、プロジェクター等の画像を表示する装置である。
The terminal 3a includes a
端末3aの処理部33は、通信部32が受信したコンテンツのデータに基づいて、コンテンツの音声をスピーカ42に出力させる。端末3aの処理部33は、通信部32が受信したコンテンツのデータに基づいて、コンテンツの映像を表示装置43に表示させる。ユーザUaは、スピーカ42から出力される音声、及び表示装置43に表示される映像によって、演者Pのパフォーマンスを表現したコンテンツを視聴できる。マイク41は、イベントの演者Pを視聴するユーザが発する音を検出する。例えば、マイク41は、コンテンツを視聴するユーザUaの歓声や拍手を検出する。マイク41が検出した観客音のデータは、端末3aに出力される。端末3aの処理部33は、音調整部34を含む。音調整部34は、マイク41が検出した音を、演者位置P1と観客位置Qaとの関係に基づいて調整する。
The
図4は、第1実施形態に係る音声の調整方法の例を示す図である。図4の符号D5は、音調整部34に入力される音声のデータであり、符号D6は音調整部34から出力される音声のデータである。データD5およびデータD6のそれぞれにおいて、横軸は周波数であり、縦軸は振幅である。周波数は音の高さに対応し、振幅は音量に対応する。符号D7は、データD5をデータD6へ変換することに利用される関数(例、フィルタ)である。関数D7は、距離とゲインとの関係を示す関数である。ゲインは、距離に対する音の減衰率に相当する。本例において、音調整部34は、図1に示した観客位置Qaと演者位置P1との距離Laを用いて、マイク41が検出した音の大きさを調整する。ここでは、ゲインは、可聴音の周波数帯(例、20Hz以上20kHz以下)において一定であるとする。
FIG. 4 is a diagram showing an example of a voice adjustment method according to the first embodiment. Reference numeral D5 in FIG. 4 is audio data input to the
ゲインは、距離に対して一意に定まる値である。例えば、図1に示した距離Laに対して、ゲインはG1と定まる。音調整部34は、ユーザUaの観客音を表すデータD5の振幅にゲインG1を作用させることで、データD6を生成する。音調整部34は、例えば、マイク41が検出した第1の音を、第1の音が観客位置Qで発せられた場合に演者位置P1に届く第2の音に近づけるように調整する。マイク41とユーザUaとの距離は、例えば、図1に示した視聴領域AUaの種類(例、自宅、映画館)、コンテンツの視聴に利用される装置の種類(例、スマートフォン、パソコン、テレビジョンセット)、装置の配置などによって概ね定まる。
The gain is a value that is uniquely determined with respect to the distance. For example, for the distance La shown in FIG. 1, the gain is determined to be G1. The
ここで、図1に示した演者位置P1と観客位置Qaとの距離Laは、例えば20メールであるとする。端末3aがユーザUaの自宅の居間に配置され、テレビジョンセットに接続されるものとし、マイク41とユーザUaとの距離が2メートルであるとする。この場合、演者位置P1と観客位置Qaとの距離La(例20メートル)は、マイク41とユーザUaとの距離(例、2メートル)よりも長い。音調整部34は、例えばユーザUaから2メートル離れたマイク41によって検出された観客音が、観客位置Qaで発せられた場合に観客位置Qaから20メートル離れた演者位置P1で聞こえる音へ近づくように、音量を調整する。例えば、データD6は、観客音が観客位置Qaで発せられた場合に演者位置P1で聞こえる観客音のデータに相当する。図4の例では、距離Laに対応するゲインG1が1未満であり、データD6は、データD5に比べて振幅が減少する。データD6が表す音声は、データD5が表す音声に比べて音量が小さく、観客音が観客位置Qaで発せられた場合に演者位置P1で聞こえる観客音を表すデータに相当する。
Here, it is assumed that the distance La between the performer position P1 and the audience position Qa shown in FIG. 1 is, for example, 20 mails. It is assumed that the terminal 3a is arranged in the living room of the user Ua and is connected to the television set, and the distance between the
なお、音調整部34は、周波数に対する振幅を表す波形を調整してもよい。例えば、音調整部34は、周波数帯によって異なるゲインを用いて、観客音を調整してもよい。例えば、音調整部34は、観客音のうち相対的に高音域の成分を、相対的に低音域の成分よりも減衰させてもよい。音調整部34は、観客音を減衰させなくてもよく、観客音を増幅してもよい。音調整部34は、マイク41によって検出された観客音を、この観客音が観客位置Qで発せられた場合に演者位置P1に届く観客音に比べて音量が大きくなるように、調整してもよい。音調整部34は、マイク41によって検出された観客音が所定値を超える音量である場合に所定値を超える音量をカットし、音量がカットされた観客音を、観客位置Qと演者位置P1との関係に基づいて調整してもよい。音調整部34は、調整された観客音の音量が所定値を超えないように、観客音を調整してもよい。
The
音調整部34は、マイク41の位置とユーザUの位置との関係を表す情報と、観客位置Qと演者位置P1との関係を表す情報とを用いて、観客音を調整してもよい。マイク41の位置とユーザUの位置との関係を表す情報は、例えば、マイク41とユーザUaとの距離である。音調整部34は、マイク41とユーザUaとの距離として、センサーにより検出される値を用いてもよい。音調整部34は、マイク41とユーザUaとの距離として、予め定められた値を用いてもよい。マイク41とユーザUaとの距離は、例えば、音声処理システム1により提供されるサービスの利用規約に定められる範囲内の値(例、推奨値)でもよい。
The
図3の説明に戻り、本実施形態に係る音調整部34は、記憶部31に記憶された位置情報D3aを用いて、観客音を調整する。位置情報D3aは、例えば、図1に示した観客位置Qaと演者位置P1との距離Laを含む。音調整部34は、例えば、図4に示した関数D7を用いて、距離Laに対するゲインG1を取得する。例えば関数D7は記憶部31に記憶され、音調整部34は、記憶部31から関数D7および位置情報D3a(例、距離La)を読出し、ゲインG1を導出する。音調整部34は、マイク41が検出した観客音を示すデータD5(図4参照)に対して、導出したゲインG1を作用させることで、データD6(図4参照)を生成する。以下の説明において適宜、音調整部34によって調整された観客音を調整後の観客音という。データD6は、調整後の観客音を表すデータである。
Returning to the description of FIG. 3, the
なお、位置情報D3aは、例えばサイバー空間上の座標で表された観客位置Qaと演者位置P1とを一組にした情報を含んでもよい。この場合、音調整部34は、観客位置Qaと演者位置P1とを用いて、観客位置Qaと演者位置P1との距離Laを算出してもよい。関数D7は、端末3の外部に記憶されてもよく、音調整部34は、関数D7を表す情報を、端末3の外部から通信部32を介して取得してもよい。関数D7は、数式で表されてもよいし、テーブルデータで表されてもよい。位置情報D3aは、観客位置Qaから演者位置P1へ伝わる音の変化を表す情報(例、ゲインG1)を含んでもよい。この場合、音調整部34は、図4に示した関数D7を用いないで観客音を調整してもよい。
The position information D3a may include, for example, information in which the audience position Qa and the performer position P1 represented by the coordinates in cyberspace are paired. In this case, the
端末3は、調整後の観客音のデータを端末3の外部へ提供する。例えば、端末3の処理部33は、通信部32を制御し、調整後の観客音のデータを送信させる。処理装置2は、端末3が提供した調整後の観客音のデータを取得する。例えば、処理装置2の通信部23は、端末3の通信部32が送信した調整後の観客音のデータを受信する。処理装置2は、ユーザUaに対応する端末3aから、ユーザUaの調整後の観客音のデータを取得する。処理装置2は、ユーザUbに対応する端末3bから、ユーザUbの調整後の観客音のデータを取得する。
The
合成部27は、ユーザUaに対応するマイク41に検出されて端末3aの音調整部34に調整された観客音と、ユーザUbに対応するマイク41に検出されて端末3bの音調整部34に調整された観客音とを合成する。合成部27は、端末3aから取得した観客音のデータと、端末3bから取得した観客音のデータとを重畳し、合成された観客音を表すデータを生成する。以下の説明において適宜、合成部27が合成した調整後の観客音を、合成後の観客音という。
The
出力部26は、合成部27が合成した観客音を表すデータを出力する。例えば、出力部26は観客音のデジタルデータを出力し、このデジタルデータはアンプによってアナログデータ(例、音声信号)へDA変換されて、スピーカ6に入力される。スピーカ6は、アナログデータを振動へ変換して、合成後の観客音を出力する。上記アンプは、処理装置2が備えてもよいし、スピーカ6が備えてもよく、処理装置2とスピーカ6との間に接続される装置が備えてもよい。処理装置2が外部へ提供する合成後の観客音のデータは、デジタルデータでもよいし、アナログデータ(例、音声信号)でもよい。処理装置2は、通信部23から通信によって観客音のデータを出力してもよい。この場合、通信部23は、合成部27が合成した音を表すデータを出力する出力部であってもよい。
The
演者Pは、例えば、スピーカ6から出力された観客音を聞きながらパフォーマンスをすることができる。マイク5は、例えば、スピーカ6による観客音の出力と同期して、音を検出する。マイク5は、スピーカ6から出力される観客音と、演者Pが発する音とを合わせて検出する。カメラ4は、例えば、スピーカ6から観客音が出力されるタイミングに対して所定のタイミングで音を検出する。カメラ4は、マイク5による音の検出と同期して、演者Pを撮影する。スピーカ6から音が出力されるタイミングと、マイク41が音を検出するタイミングと、カメラ4が演者Pを撮影するタイミングとのうち、少なくとも2つのタイミングは、処理装置2またはその他の装置によって制御されてもよい。
The performer P can perform while listening to the audience sound output from the speaker 6, for example. The
処理装置2は、マイク5によって検出された音声、及びカメラ4によって撮影された映像を取得する。コンテンツ生成部28は、マイク5によって検出された音声、及びカメラ4によって撮影された映像を用いてコンテンツのデータを生成する。処理装置2は、コンテンツ生成部28が生成したコンテンツを配信する。例えば、通信部23は、コンテンツ生成部28が生成したコンテンツのデータを送信する。コンテンツ生成部28が生成したコンテンツに含まれる音は、スピーカ6から出力された合成後の観客音と、演者Pが発した音とを含む。ユーザUは、例えば、合成された観客音と演者Pが発する音とを含む音を聞きながら、演者Pの映像を視聴することができる。このように、通信部23は、演者Pが発する音と、音調整部34によって調整された音とが合成された音のデータを出力する出力部でもよい。
The
なお、マイク5は、スピーカ6から出力される観客音を検出しなくてもよい。例えば、スピーカ6は、イヤホンやヘッドフォンでもよい。マイク5およびスピーカ6は、ヘッドセットでもよい。この場合、処理装置2のコンテンツ生成部28は、マイク5が検出した音声(例、演者Pが発する音)と、合成部27が合成した観客音とを合成して、コンテンツを生成してもよい。処理装置2が配信するコンテンツは、合成後の観客音を含まなくてもよい。この場合においても、演者Pは、例えば合成後の観客音に応じたパフォーマンスをすることができ、ユーザは、例えば観客に反応する演者Pのパフォーマンスを視聴することで、臨場感を味わうことができる。
The
なお、コンテンツ生成部28は、図3において合成部27と同じ装置に設けられるが、合成部27と別の装置に設けられてもよい。例えば、合成部27は、複数の端末3から提供される観客音のデータを処理する第1のストリーミングサーバに設けられてもよい。コンテンツ生成部28は、実演領域APに配置される装置(例、カメラ4、マイク5)から提供されるデータを処理する第2のストリーミングサーバに設けられてもよい。
Although the
なお、端末3は、イベントの終了後にユーザからイベント開催者へ返還されてもよいし、返還されなくてもよい。端末3は、今回のイベント以降のイベントにおいて再利用されてもよい。例えば、ユーザUaは、第1イベントの後の第2イベントへの参加申請を行う。処理装置2は、第2イベントへの参加申請に基づいて第2イベントにおける観客位置Qaを決定する。処理装置2は、第2イベントにおける観客位置Qaに対応する位置情報D3aを端末3aへ提供する。端末3aの音調整部34は、第2イベントに対応する位置情報D3aを用いて、マイク41が検出した観客音を調整してもよい。
The
なお、図1から図3等では、ユーザUとして、ユーザUaおよびユーザUbの2人を代表的に示されている。ユーザUの数は、図1から図3等では2人であるが、任意の数である。例えば、ユーザUの数は、100人でもよいし、1万人でもよく、1万人でもよい。 In addition, in FIGS. 1 to 3 and the like, two users, user Ua and user Ub, are typically shown as the user U. The number of users U is two in FIGS. 1 to 3, but is arbitrary. For example, the number of users U may be 100, 10,000, or 10,000.
次に、上述の音声処理システム1の構成に基づき、実施形態に係る音声処理方法について説明する。図5は、第1実施形態に係る音声処理方法を示す図である。音声処理システム1の構成については適宜、図1から図3を参照する。図5に示す各処理は、例えばイベントの開催中に音声処理システム1の各部によって実行される。図2を参照して説明したように、イベントの開催前に、位置決定部24はユーザUの参加申請に基づいて観客位置Qを決定し、観客位置Qに対応する位置情報を記憶した端末3がユーザに届けられる。
Next, the voice processing method according to the embodiment will be described based on the configuration of the
図5において、第1ユーザは図1から図3のユーザUaに相当し、第1ユーザ端末は、ユーザUaに対応する端末3aに相当する。第2ユーザは図1から図3のユーザUbに相当し、第2ユーザ端末は、ユーザUbに対応する端末3bに相当する。 In FIG. 5, the first user corresponds to the user Ua of FIGS. 1 to 3, and the first user terminal corresponds to the terminal 3a corresponding to the user Ua. The second user corresponds to the user Ub of FIGS. 1 to 3, and the second user terminal corresponds to the terminal 3b corresponding to the user Ub.
処理装置は、ステップS1においてコンテンツを送信する。例えば、図3の処理装置2の通信部23は、コンテンツのデータを送信する。第1ユーザ端末は、処理装置が送信したコンテンツのデータを受信する。第1ユーザ端末は、受信したコンテンツのデータに基づいて、コンテンツを再生する。第1ユーザ端末は、ステップS2において、第1ユーザからの観客音を検出する。第1ユーザ端末は、ステップS3において、観客音を位置情報を用いて調整する。例えば、図3の端末3aの音調整部34は、記憶部31に記憶された位置情報D3aを用いて、ステップS2において検出された観客音を調整する。第1ユーザ端末は、ステップS4において調整後の観客音のデータを送信する。例えば、図3の端末3aの通信部32は、調整後の観客音のデータを送信する。処理装置は、第1ユーザ端末がステップS4において送信した調整後の観客音のデータを受信する。
The processing device transmits the content in step S1. For example, the
ステップS5からステップS7の処理は、ステップS2からステップS4の処理と同様である。第2ユーザ端末は、ステップS1において処理装置が送信したコンテンツのデータを受信する。第2ユーザ端末は、ステップS5において、第2ユーザからの観客音を検出する。第2ユーザ端末は、ステップS6において、観客音を、位置情報を用いて調整する。第2ユーザ端末は、ステップS7において調整後の観客音のデータを送信する。処理装置は、第2ユーザ端末がステップS7において送信した調整後の観客音のデータを受信する。 The processing of steps S5 to S7 is the same as the processing of steps S2 to S4. The second user terminal receives the content data transmitted by the processing device in step S1. The second user terminal detects the audience sound from the second user in step S5. In step S6, the second user terminal adjusts the audience sound using the position information. The second user terminal transmits the audience sound data adjusted in step S7. The processing device receives the adjusted audience sound data transmitted by the second user terminal in step S7.
処理装置は、ステップS8において、調整後の観客音を合成する。例えば、図3の処理装置2の合成部27は、端末3aから送信された観客音のデータと、端末3bから送信された観客音のデータとを合成する。処理装置は、ステップS9において、合成後の観客音を演者へ出力する。例えば、処理装置2は、合成後の観客音のデータをスピーカ6へ出力し、演者Pに対して、観客音をスピーカ6によって出力する。処理装置は、ステップS10において、合成後の観客音を含むコンテンツを送信する。例えば、図3のマイク5は、演者Pが発する音と、スピーカ6から出力される音とを含む音を検出する。そして、処理装置2のコンテンツ生成部28は、マイク5が検出した音を用いてコンテンツを生成する。処理装置2の通信部23は、コンテンツ生成部28が生成したコンテンツのデータを送信する。
The processing device synthesizes the adjusted audience sound in step S8. For example, the synthesizing
第1ユーザ端末および第2ユーザ端末は、それぞれ、処理装置が送信したコンテンツのデータを受信する。第1ユーザ端末および第2ユーザ端末は、受信したコンテンツのデータに基づいて、コンテンツを再生する。ステップS2からステップS10の処理は、例えばイベントの開催中に繰り返し実行される。ステップS2からステップS10の一連の処理が繰り返される周期は、任意に設定される。 The first user terminal and the second user terminal each receive the content data transmitted by the processing device. The first user terminal and the second user terminal reproduce the content based on the received content data. The processes of steps S2 to S10 are repeatedly executed, for example, during the holding of an event. The cycle in which the series of processes from step S2 to step S10 is repeated is arbitrarily set.
上述の実施形態に係る音声処理システム1おいて、位置決定部24は、ユーザUからのイベントへの参加申請に基づいて、イベントが開催される所定領域(例、イベント会場AE)におけるユーザUの位置を表す観客位置Qを決定する。マイク41は、イベントの演者P(例、コンテンツ)を視聴するユーザUが発する音を検出する。音調整部34は、マイク41が検出した音を、所定領域におけるイベントの演者の位置を表す演者位置P1と観客位置Qとの関係に基づいて調整する。合成部27は、ユーザUである第1ユーザ(例、ユーザUa)に対応するマイク41に検出されて音調整部34に調整された音と、第1ユーザと異なるユーザUである第2ユーザ(例、ユーザUb)に対応するマイク41に検出されて音調整部34に調整された音とを合成する。出力部26は、合成部27が合成した音を表すデータを出力する。
In the
この音声処理システム1は、演者PにユーザUの反応を伝えることができる。演者Pは、例えば、ユーザUの反応を意識したパフォーマンスを行うことができる。ユーザUは、例えば自身の反応によって影響を受けたパフォーマンスを視聴することができる。このように、実施形態に係る音声処理システム1は、新たな体験を提供できる。
The
本実施形態において、申請取得部(例、受付端末8)は、ユーザUから提供される参加申請を取得する。位置決定部24は、申請取得部が取得した参加申請に基づいて、観客位置Qを決定する。この場合、例えば、参加申請の取得から観客位置Qの決定までの処理を自動で行うことができる。なお、音声処理システム1は、申請取得部(例、受付端末8)を備えなくてもよい。例えば、処理装置2には、イベントへ参加するユーザの情報が入力され、位置決定部24は、この情報を用いて観客位置を決定してもよい。
In the present embodiment, the application acquisition unit (eg, the reception terminal 8) acquires the participation application provided by the user U. The position determination unit 24 determines the audience position Q based on the participation application acquired by the application acquisition unit. In this case, for example, the process from the acquisition of the participation application to the determination of the spectator position Q can be automatically performed. The
イベントに参加するユーザの少なくとも一部(例、第1ユーザ)は、例えば、所定領域(例、イベント会場AE)の外で演者Pを視聴する。第1ユーザ(例、ユーザUa)に対応するマイク41は、第1ユーザが発する音を検出する位置(例、視聴領域AUa)に配置される。この形態によれば、イベントに参加可能なユーザの数は、実空間のみでイベントが開催される形態と比較して、イベント会場の広さの制約を受けにくくなる。例えば、この形態によれば、実空間の会場でイベントに参加する他、実空間の会場の外からイベントに参加することが可能になり、実空間の会場の収容人数を超える人数の観客がイベントに参加できる。この形態によれば、例えば、より多くの観客がイベントを楽しむことができる。この形態によれば、例えば実空間の会場から遠方に住むユーザに会場の外で参加する機会を創出し、ユーザの利便性を図ることができる。
At least some of the users participating in the event (eg, first user) watch the performer P outside, for example, a predetermined area (eg, event venue AE). The
演者Pは、例えば、所定領域(例、イベント会場AE)の外でパフォーマンスを行う。合成部27が合成した音のデータは、演者Pへ音が届く位置(例、実演領域AP)に配置される音声出力装置(例、スピーカ6)へ提供される。この形態によれば、演者Pが実空間のイベント会場でパフォーマンスを行う形態と比べて、演者Pが実在する位置がイベント会場の位置の制約を受けにくくなる。例えば、複数の演者Pが存在し、一部の演者Pが他の演者Pと離れている場合でもイベントを行うことができる。
Performer P performs, for example, outside a predetermined area (eg, event venue AE). The sound data synthesized by the
本実施形態において、端末3は、音調整部34と、音調整部34が調整した音のデータを送信する送信部(例、通信部32)とを備える第1音声処理装置に相当する。処理装置2は、第1音声処理装置の送信部が送信したデータを受信する受信部(例、通信部23)と、受信部が受信したデータが表す音を合成する合成部27とを備える第2音声処理装置に相当する。この形態によれば、例えば、複数のユーザの観客を調整する処理が複数の第1音声処理装置に分散され、第2音声処理装置の負荷を軽減できる。第2音声処理装置の送信部は、演者位置と、位置決定部が決定した観客位置との関係を示す位置情報を送信してもよい。第1音声処理装置の受信部は、第2音声処理装置の送信部が送信した位置情報を受信してもよい。第1音声処理装置の音調整部は、第1音声処理装置の受信部が受信した位置情報に基づいて、第1音声処理装置のマイクが検出した音を調整してもよい。
In the present embodiment, the
本実施形態において、音声処理システム1は、仮想的な情報と実体的な情報とを種々組み合わせてコンテンツを生成してもよい。例えば、イベント会場AEは、実際の施設や場所(コンサートホール、球場、イベント用ステージ等)を含んでもよい。イベント会場AEは、仮想的な施設や環境(仮想空間に構築されたステージや、海、山あるいは空等)を含んでもよい。音声処理システム1は、ユーザから発せられた観客音の他に、イベント用に生成された人工的な観客音と効果音を用いて、コンテンツを生成してもよい。
In the present embodiment, the
本実施形態において、端末3と処理装置2との一方または双方は、コンピュータを含む。実施形態に係るコンピュータは、例えば、スマートフォン、タブレット、若しくはノートパソコンなどの携帯型の装置、又はサーバー装置、デスクトップ型パソコン、若しくはタワー型パソコン等の据置型の装置の少なくとも1つを含む。コンピュータは、例えば、処理部と、記憶部と、通信部と、入出力インターフェースとを備える。
In this embodiment, one or both of the
処理部は、例えば、汎用のプロセッサー(例、CPU)を含む。記憶部は、例えば、不揮発性の記憶装置と、揮発性の記憶装置との一方または双方を含む。不揮発性の記憶装置は、例えばハードディスク、ソリッドステートドライブ等である。揮発性の記憶装置は、例えば、ランダムアクセスメモリ、キャッシュメモリ、ワークメモリなどのである。通信部は、所定の通信規格に準拠して、有線または無線の通信を行う。通信部は、通信規格が異なる2種以上の通信を組み合わせて通信を行ってもよい。所定の通信規格は、LANを含んでもよいし、Bluetooth(登録商標)などの近距離無線通信規格を含んでもよく、赤外線通信の規格又はその他の規格を含んでもよい。 The processing unit includes, for example, a general-purpose processor (eg, CPU). The storage unit includes, for example, one or both of a non-volatile storage device and a volatile storage device. The non-volatile storage device is, for example, a hard disk, a solid state drive, or the like. Volatile storage devices include, for example, random access memory, cache memory, work memory, and the like. The communication unit performs wired or wireless communication in accordance with a predetermined communication standard. The communication unit may perform communication by combining two or more types of communication having different communication standards. The predetermined communication standard may include a LAN, a short-range wireless communication standard such as Bluetooth (registered trademark), an infrared communication standard, or other standards.
なお、端末3は、処理装置、情報処理装置、電子機器、又はその他の名称で呼ばれてもよい。端末3の少なくとも一部の処理は、デジタルシグナルプロセッサにより実行されてもよいし、特定用途向け集積回路によって実行されてもよい。処理装置2は、端末、情報処理装置、電子機器、又はその他の名称で呼ばれてもよい。処理装置2の少なくとも一部の処理は、デジタルシグナルプロセッサにより実行されてもよいし、特定用途向け集積回路によって実行されてもよい。
The
端末3がコンピュータである場合、その処理部は、記憶部に記憶されているプログラムを読み出し、このプログラムに従って各種の処理を実行する。このプログラムは、例えば、コンピュータに、ユーザからのイベントへの参加申請に基づいて決定される、イベントが開催される所定領域におけるユーザの位置を表す観客位置と、所定領域におけるイベントの演者の位置を表す演者位置との関係を示す位置情報を受信することと、イベントの演者を視聴するユーザから発せられてマイクにより検出された音を、位置情報に基づいて調整することと、イベントに参加する複数のユーザについて音調整部が調整した音を合成部を備える処理装置に、音調整部が調整した音を表すデータを送信することと、を実行させる音声処理プログラムを含む。このプログラムは、コンピュータ読み取り可能な記憶媒体に記録されて提供されてもよい。
When the
処理装置2がコンピュータである場合、その処理部は、記憶部に記憶されているプログラムを読み出し、このプログラムに従って各種の処理を実行する。このプログラムは、例えば、コンピュータに、ユーザからのイベントへの参加申請に基づいて、イベントが開催される所定領域におけるユーザの位置を表す観客位置を決定することと、所定領域におけるイベントの演者の位置を表す演者位置と観客位置との関係を示す位置情報を、イベントの演者を視聴するユーザから発せられてマイクにより検出された音を位置情報に基づいて調整する音調整部を備える処理装置に送信することと、音調整部が調整した音を表し処理装置が送信するデータを受信することと、受信部が受信したデータに基づいて、ユーザである第1のユーザに対応するマイクに検出されて音調整部に調整された音と、第1のユーザと異なるユーザである第2のユーザに対応するマイクに検出されて音調整部に調整された音とを合成し、合成した音を表すデータを出力することと、を実行させる音声処プログラムを含む。
When the
実施形態に係るプログラムは、実施形態に係る機能を、コンピュータシステムに記録されているプログラムとの組み合わせで実現できるプログラム(例、差分ファイル、差分プログラム)でもよい。実施形態に係るプログラムは、コンピュータ読み取り可能な記憶媒体に記録されて提供されてもよい。 The program according to the embodiment may be a program (eg, difference file, difference program) that can realize the function according to the embodiment in combination with the program recorded in the computer system. The program according to the embodiment may be recorded and provided on a computer-readable storage medium.
[第2実施形態]
第2実施形態について説明する。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。図6は、第2実施形態に係る音声処理システムを示す図である。本実施形態において、端末3は、この端末3を使用するユーザUと関連付けられた端末である。例えば、端末3aは、ユーザUaが所有する端末である。端末3aは、例えば、スマートフォン、タブレット、パーソナルコンピュータ、又はその他の情報処理装置である。端末3aは、例えば、端末3aを特定する情報と、ユーザUaを特定する情報とを記憶部31に記憶する。以下の説明において適宜、端末3を特定する情報を端末IDという。ユーザを特定する情報は、例えば、コンテンツ配信サービスにおけるアカウントの情報を含む。アカウントの情報は、例えば、ユーザIDおよびパスワードを含む。[Second Embodiment]
The second embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. FIG. 6 is a diagram showing a voice processing system according to the second embodiment. In the present embodiment, the
端末3aは、マイク41、スピーカ42、表示部45、及び入力部46を備える。表示部45は、図3に示した表示装置43に相当する。入力部46は、各種情報の入力を受け付ける。入力部46は、例えば、キーボード、マウス、及びタッチパッドの少なくとも一つを含む。入力部46および表示部45は、タッチパネルでもよい。ユーザUaは、入力部46を操作することによって、各種情報を端末3aへ入力する。
The terminal 3a includes a
本実施形態において、端末3aは、図2で説明した予約端末7を兼ねる。ユーザUaは、端末3aの入力部46を操作することによってエントリー情報を入力し、参加申請を行うことができる。エントリー情報は、例えば、ユーザID、及びイベントを特定する情報を含む。端末3aの通信部32は、エントリー情報を送信する。本実施形態において、処理装置2は、図2で説明した受付端末8を兼ねる。処理装置2は、端末3aの通信部32が送信したエントリー情報を取得する。例えば、処理装置2の通信部32は、端末3aが送信したエントリー情報を受信する。
In the present embodiment, the terminal 3a also serves as the
処理装置2の記憶部22は、図2で説明したユーザ情報D1を記憶する。処理装置2の処理部21は、受付部29を含む。受付部29は、図2で説明した受付端末8による処理を実行する。受付部29は、イベントにおけるユーザの席を決定する。例えば、受付部29は、端末3aが送信したエントリー情報に含まれるイベントIDを取得する。受付部29は、イベントIDとイベントの情報とを関連付けて記憶するデータベースを参照し、イベントIDに対応するイベントの席の情報を取得する。受付部29は、端末3aが送信したエントリー情報に含まれるユーザIDを取得する。受付部29は、記憶部22に記憶されたユーザ情報D1から、ユーザIDに対応するユーザUaの情報(例、ユーザのランク)を取得する。受付部29は、イベントの席の情報(例、席のランク、空席の情報)と、ユーザUaの情報とを用いて、イベントにおけるユーザUaの席(例、席の番号)を決定する。
The
処理装置2の位置決定部24は、受付部29が決定したユーザUaの席の情報を用いて、ユーザUaの観客位置Qaを決定する。処理部21は、演者位置P1と、位置決定部24が決定した観客位置Qaとの関係を示す位置情報を生成する。通信部23は、処理部21が生成した位置情報を送信する。ユーザUaに対応する端末3aの通信部32は、処理装置2の通信部23が送信した位置情報を受信する。端末3aの処理部33は、通信部32が受信した位置情報を記憶部31に記憶させる。
The position determination unit 24 of the
端末3aの通信部32は、第1実施形態で説明したように、処理装置2が送信するコンテンツのデータを受信する。端末3aは、通信部32が受信したコンテンツのデータに基づいて、このコンテンツを再生する。例えば、処理部33は、コンテンツのデータが表す映像を表示部45に表示させる。処理部33は、コンテンツのデータが表す音声を、スピーカ42に出力させる。マイク41は、ユーザUaが発する観客音を検出する。音調整部34は、記憶部31に記憶されている位置情報D3aを用いて、マイク41が検出した観客音を調整する。通信部32は、調整後の観客音のデータを送信する。処理装置2の通信部23は、端末3aの通信部23が送信した調整後の観客音のデータを受信する。合成部27は、ユーザUaに対応する調整後の観客音と、ユーザUbに対応する調整後の観客音とを合成する。出力部26は、合成後の観客音のデータを出力し、スピーカ42に合成後の観客音を出力させる。
As described in the first embodiment, the
本実施形態において、ユーザUは、観客位置Qを変更可能である。例えば、ユーザUaは、観客位置Qaの変更を、イベントの開催中に申請できる。ユーザUaは、例えば、端末3aを操作することによって、観客位置Qaの変更を要求する情報(適宜、変更申請という)を端末3aによって送信できる。端末3aの入力部46は、変更申請、又は変更申請のもとになる情報(適宜、変更申請等という)の入力を受け付ける。変更申請等は、ユーザUが希望する変更先の席の情報(適宜、変更先席情報という)を含む。
In this embodiment, the user U can change the audience position Q. For example, user Ua can apply for a change in spectator position Qa during the event. By operating the terminal 3a, for example, the user Ua can transmit information requesting a change of the spectator position Qa (appropriately referred to as a change application) by the terminal 3a. The
端末3aの通信部32は、入力部46に入力された変更申請等に基づいて、変更申請を送信する。変更申請は、例えば、ユーザUaを特定する情報(例、ユーザID)とユーザUaと関連付けられた端末3aを特定する情報(例、端末ID)との一方または双方と、変更先席情報とを含む。記憶部31は、ユーザIDと端末IDとの一方または双方を予め記憶してもよい。ユーザUaは、席の変更を申請する際に、変更先席情報を入力し、ユーザIDと端末IDとの一方または双方を端末3aに入力しなくてもよい。この場合、端末3aの処理部33は、記憶部31に記憶されたユーザIDと端末IDとの一方または双方と、入力部46に入力された変更先席情報とを用いて変更申請を生成してもよい。通信部32は、処理部33が生成した変更申請を送信してもよい。
The
処理装置2の通信部23は、端末3aの通信部32が送信した変更申請を受信する。位置決定部24は、ユーザUaからの観客位置Qの変更申請に基づいて、ユーザUaに対応する観客位置Qaを変更する。例えば、位置決定部24は、通信部23が受信した変更申請に基づいて、ユーザUaの観客位置Qaの変更先を決定する。例えば、位置決定部24は、変更申請に含まれる変更先席情報に示される席を利用可能か否かを判定する。例えば、位置決定部24は、変更先席情報に示される席がユーザUに割り当てられていない場合、この席を利用可能と判定する。位置決定部24は、例えば、変更先席情報に示される席に対応するイベント会場AEのサイバー空間上の座標を導出し、導出した座標を変更先の観客位置Q(適宜、変更後の観客位置という)として決定する。通信部23は、更新後の観客位置Qに対応する位置情報を送信する。例えば、処理部21は、端末3aが送信した変更申請に含まれるユーザIDと端末IDとの一方または双方に基づいて、位置情報の送信先として端末3aを特定する。通信部23は、処理部21が特定した送信先へ位置情報を送信する。
The
端末3aの通信部32は、処理装置2が送信した更新後の位置情報を受信する。端末3aの処理部33は、記憶部31に記憶されている位置情報D3aを、通信部32が受信した更新後の位置情報へ更新する。音調整部34は、位置決定部24が変更した観客位置Qaを用いて、ユーザUaに対応するマイク41が検出した音を調整する。例えば、記憶部31に記憶されている位置情報D3aが更新された後、音調整部34は、マイク41が検出した観客音を、更新後の位置情報D3aを用いて調整する。
The
なお、観客位置を変更する処理は、トークンを消費して実行されてもよい。トークンは、例えば、各国の通貨と互換性がある電子マネーを含んでもよいし、暗号資産を含んでもよい。トークンは、例えば、コンテンツ配信サービスにおいてユーザが使用できるポイントでもよく、コンテンツ配信サービスと提携するサービスにおいてユーザが使用できるポイントでもよい。ユーザUが所有するトークンの情報は、ユーザ情報D1に含まれてもよい。消費するトークンの値は、例えば、予め定められた固定値でもよいし、ユーザが指定する値でもよく、変更先の席によって定まる値でもよい。処理装置2は、例えばユーザが指定するトークンの値を用いたオークションによって、変更先の席を決定してもよい。観客位置を変更する処理においてトークンが消費される場合、トークンが消費されるタイミングは任意である。例えば、トークンは、処理装置2が変更申請を受け付けた際に消費されてもよいし、変更申請によって観客位置が変更される際に消費されてもよい。
The process of changing the spectator position may be executed by consuming tokens. The token may include, for example, electronic money compatible with the currency of each country, or may include cryptographic assets. The token may be, for example, a point that can be used by the user in the content distribution service, or a point that can be used by the user in a service affiliated with the content distribution service. The information of the token owned by the user U may be included in the user information D1. The value of the token to be consumed may be, for example, a predetermined fixed value, a value specified by the user, or a value determined by the seat to be changed. The
位置決定部24は、例えばユーザから指定された席が使用中であるか否かによってこの席を利用可能であるか否かを判定するが、その他の基準あるいは条件で席を利用可能であるか否かを判定してもよい。例えば、位置決定部24は、ユーザが保有するトークンの値が、観客位置を変更する処理で消費されるトークンの値以上である場合に、席を利用可能と判定してもよい。サイバー空間上の席は、1人のユーザのみに割り当てられてもよいし、複数のユーザに割り当てられてもよい。例えば、複数のユーザの観客位置が同一でもよく、任意のユーザの観客位置は、他のユーザの観客位置と同じでもよい。 The positioning unit 24 determines whether or not this seat is available, for example, depending on whether or not the seat specified by the user is in use, but whether or not the seat can be used according to other criteria or conditions. It may be determined whether or not. For example, the position determination unit 24 may determine that the seat can be used when the value of the token held by the user is equal to or greater than the value of the token consumed in the process of changing the spectator position. Seats in cyberspace may be assigned to only one user or to multiple users. For example, the spectator positions of a plurality of users may be the same, and the spectator positions of any user may be the same as the spectator positions of other users.
なお、音声処理システム1は、演者PとユーザUとの一方又は双方に対するアクションを指定する情報をユーザUから受け付けるアクション受付部と、アクション受付部が受け付けた情報に予め関連付けられた処理を実行する処理部と、を備えてもよい。上記アクションは、観客音と異なる形態のコンテンツ上の動作(例、映像、音声)を含む。上記アクションは、例えば、コンテンツにおける映像と音声との一方または双方に関する作用を含む。上記アクションは、例えば、ユーザの入力をコンテンツ上の映像と音声との一方または双方で表現する作用を含む。以下の説明において適宜、アクションを指定する情報をアクション要求と称し、アクション受付部が受け付けた情報に予め関連付けられた処理を、アクション追加処理という。
The
上記アクション受付部は、例えば端末3aの入力部46を含む。上記処理部は、例えば処理装置2のコンテンツ生成部28を含む。ユーザUaは、例えば、アクション要求として、イベントに関するコメントをテキスト形式で入力部46に入力する。端末3aの通信部32は、入力部46に入力されたテキスト情報を送信する。処理装置2の通信部23は、端末3aの通信部32が送信したテキスト情報を受信する。コンテンツ生成部28は、例えば、通信部23が受信したテキスト情報に含まれるテキストを映像として含むコンテンツを生成する。例えば、ユーザが入力したテキストは、コンテンツの映像上で移動しながら表示されてもよいし、その他の形態で表示されてもよい。
The action reception unit includes, for example, an
上記アクション受付部は、端末3aのマイク41を含んでもよい。例えば、ユーザは、テキストを入力する代わりに音声を入力してもよく、マイク41は、アクション要求として、ユーザが発する音声を受け付けてもよい。この場合、端末3aの処理部33は、マイク41に入力された音声を音声認識によってテキスト情報へ変換してもよい。端末3aの通信部32は、処理部33が音声認識によって生成したテキスト情報を送信してもよい。
The action reception unit may include the
アクション要求情報は、テキストまたは音声と異なる形式で入力されてもよい。例えば、端末3aは、所定のアクション追加処理に関連付けられたアイコンを表示部45に表示させ、このアイコンに対するユーザの操作が検出された場合に、アイコンに関連付けられたアクション追加処理の実行を要求してもよい。例えば、端末3aは、拍手の音の追加を表すアイコンを表示部45に表示する。端末3aは、このアイコンに対するユーザからの操作を検出した場合、拍手の音をコンテンツに追加する要求を通信部32によって送信する。処理装置2は通信部32が送信した要求を受信し、コンテンツ生成部28は、例えば、予めサンプリングされた拍手の音を追加したコンテンツを生成する。
The action request information may be input in a format different from text or voice. For example, the terminal 3a displays an icon associated with a predetermined action addition process on the
上記アクション追加処理は、音調整部34によって調整された観客音に追加の調整を施す処理を含んでもよい。例えば、アクション追加処理は、調整後の観客音の音量を変更する処理を含んでもよいし、エコーを利かせる等のエフェクトを加える処理を含んでもよい。上記アクション追加処理は、映像を追加する処理でもよく、映像効果を追加する処理でもよい。例えば、上記アクション追加処理は、コンテンツの映像に花火の映像を追加する処理を含んでもよい。上記アクション追加処理は、演者に対してチップ、投げ銭に相当する価値を譲渡する処理を含んでもよい。例えば、処理装置2の処理部21は、ユーザUaから指定された値のトークンを、ユーザUaのアカウントから演者Pのアカウントへ移す処理を実行してもよいし、トークンを管理する装置にトークンを譲渡する処理を実行させてもよい。コンテンツ生成部28は、トークンを譲渡する処理が実行される際に、トークンの譲渡を表す映像をコンテンツに追加してもよい。例えば、コンテンツ生成部28は、CGで表現された投げ銭をコンテンツの映像に追加してもよい。上記アイコンは、1種類のアイコンでもよいし、アクション追加処理が異なる複数種類のアイコンでもよい。
The action addition process may include a process of making additional adjustments to the audience sound adjusted by the
なお、アクション要求に関連付けられた処理は、トークンを消費して実行されてもよい。消費するトークンの値は、例えば、予め定められた固定値でもよいし、ユーザが指定する値でもよい。消費するトークンの値は、アクション追加処理の種類によって定まる値でもよい。例えば、消費するトークンの値は、コンテンツの映像にテキストを追加する処理と、コンテンツの音声に効果音を追加する処理とで異なってもよい。 The process associated with the action request may be executed by consuming the token. The value of the token to be consumed may be, for example, a predetermined fixed value or a value specified by the user. The value of the token to be consumed may be a value determined by the type of action addition processing. For example, the value of the token to be consumed may differ between the process of adding text to the video of the content and the process of adding sound effects to the audio of the content.
消費するトークンの値は、アクション追加処理によるエフェクトのレベルによって定まる値でもよい。例えば、アクション追加処理は、拍手の効果音を追加する処理を含むとする。コンテンツ生成部28は、消費するトークンが第1の値である場合、拍手の効果音を第1の音量でコンテンツに追加し、消費するトークンが第1の値よりも大きい第2の値である場合、拍手の効果音を第1の音量よりも大きい第2の音量でコンテンツに追加してもよい。アクション追加処理は、映像にテキストを追加する処理を含むとする。コンテンツ生成部28は、消費するトークンが第1の値である場合、テキストを第1のフォントサイズでコンテンツに追加し、消費するトークンが第1の値よりも大きい第2の値である場合、テキストを第1のフォントサイズよりも大きい第2のフォントサイズでコンテンツに追加してもよい。
The value of the token to be consumed may be a value determined by the level of the effect by the action addition process. For example, it is assumed that the action addition process includes a process of adding an applause sound effect. When the token to be consumed is the first value, the
なお、端末3aの音調整部34または端末3bの音調整部34は、ユーザUaに対応する観客位置Qaと、ユーザUbに対応する観客位置Qbとの関係に基づいて、ユーザUbに対応するマイクが検出した音を調整してもよい。例えば、ユーザUbの観客位置Qbは、ユーザUbの観客音が観客位置Qbで発せられた場合に、この観客音がユーザUaの観客位置Qaに届く範囲であるとする。端末3aは、観客位置Qaの周囲の観客位置Qで発せられた観客音を強調する処理(適宜、周囲強調処理という)を実行可能である。端末3は、例えば、周囲強調処理を実行しない第1の動作モードと、周囲強調処理を実行する第2の動作モードとを切替可能である。例えば、端末3は、ユーザUからモード切替の入力を受け付け、この入力があったと判定した場合に第1の動作モードと第2の動作モードとを切り替える。
The
第1の動作モードにおいて、ユーザUbの調整後の観客音は、処理装置2の合成部27によって合成される。合成された観客音は、演者Pに対してスピーカ6から出力される。スピーカ6から出力された観客音は、演者Pが発する音とともにマイク5によって検出される。コンテンツ生成部28は、マイク5によって検出された音を用いてコンテンツを生成し、ユーザUbの観客音は、コンテンツの音声に含まれる。
In the first operation mode, the adjusted audience sound of the user Ub is synthesized by the
第2の動作モードにおいて、処理装置2の通信部23は、ユーザUaの観客位置QaとユーザUbの観客位置Qbとの関係を示す位置情報(適宜、第2位置情報、観客間位置情報という)を送信する。観客間位置情報は、例えば、端末3bの音調整部34によって調整された観客音を、ユーザUbに対応するマイク41によって検出された観客音が観客位置Qbで発せられた場合にユーザUaの観客位置Qaに届く音へ変換するゲインを含む。処理装置2の通信部23は、ユーザUbに対応する調整後の観客音のデータを送信する。端末3aの通信部32は、処理装置2の通信部23が送信した調整後の観客音のデータを受信する。端末3aの処理部33は、観客間位置情報を用いて、ユーザUbに対応する調整後の観客音を、観客音が観客位置Qbで発せられた場合にユーザUaの観客位置Qaに届く音へ変換する。処理部33は、変換したユーザUbの観客音を、コンテンツの音声と合成して、スピーカ42から出力させる。このような形態の音声処理システム1は、例えばサイバー空間において第1のユーザの周囲に居る第2のユーザの観客音が第1のユーザにリアルに伝わり、イベントの臨場感が高められる。
In the second operation mode, the
端末3aは、第1の動作モードから第2の動作モードへ切り替える際に、動作を切り替えることを処理装置2に通知する。処理装置2の処理部21は、上記通知を受けた場合、端末3aに対応するユーザUaの観客位置Qaを特定する。処理部21は、観客位置Qaの周囲の所定の範囲に含まれる少なくとも1つの観客位置Qを抽出する。処理部Aは、抽出した観客位置Qの各々について観客間位置情報を生成する。処理装置2は、生成した観客間位置情報を端末3aに提供する。処理装置2は、観客間位置情報に対応する調整後の観客音のデータを、観客間位置情報と関連付けて端末3aに提供する。例えば、処理装置2の処理部21は、観客間位置情報ごとに識別情報を割り付け、調整音のデータを識別情報と一組にして送信する。
When switching from the first operation mode to the second operation mode, the terminal 3a notifies the
次に、上述の音声処理システム1の構成に基づき、実施形態に係る音声処理方法について説明する。図7は、第2実施形態に係る音声処理方法を示す図である。音声処理システム1の構成については適宜、図6を参照する。図5と同様の処理については、適宜、図5と同じ符号を付してその説明を省略あるいは簡略化する。
Next, the voice processing method according to the embodiment will be described based on the configuration of the
第1ユーザ端末は、図6に示したユーザUaから参加申請に関する情報の入力を受け付ける。第1ユーザ端末は、ステップS21において、エントリー情報を送信する。例えば、図6の端末3aの処理部33は、入力部46に入力された情報に基づいて、エントリー情報を通信部32に送信させる。処理装置は、ステップS21において送信されたエントリー情報を受信する。処理装置は、ステップS22において、第1ユーザの観客位置を決定する。例えば、図6の処理装置2の位置決定部24は、通信部23が受信したユーザUaに対応するエントリー情報に基づいて、ユーザUaの観客位置Qaを決定する。処理装置は、ステップS23において位置情報を送信する。例えば、図6の処理装置2の処理部21は、位置決定部24が決定した観客位置Qaを用いて、観客位置Qaと演者位置P1との関係を示す位置情報を生成する。通信部23は、処理部21が生成した位置情報を送信する。
The first user terminal accepts input of information regarding the participation application from the user Ua shown in FIG. The first user terminal transmits the entry information in step S21. For example, the
ステップS24からステップS26の処理は、ステップS21からステップS23の処理と同様であり、その説明を簡略化する。第2ユーザ端末は、図6に示したユーザUbから参加申請に関する情報の入力を受け付ける。第2ユーザ端末は、ステップS24において、エントリー情報を送信する。例処理装置は、ステップS24において送信されたエントリー情報を受信する。処理装置は、ステップS25において、第2ユーザ(例、図6のユーザUb)の観客位置を決定する。処理装置は、ステップS26において位置情報を送信する。 The process from step S24 to step S26 is the same as the process from step S21 to step S23, and the description thereof will be simplified. The second user terminal accepts input of information regarding the participation application from the user Ub shown in FIG. The second user terminal transmits the entry information in step S24. Example The processing device receives the entry information transmitted in step S24. In step S25, the processing device determines the audience position of the second user (eg, user Ub in FIG. 6). The processing device transmits the position information in step S26.
以上のステップS21からステップS26の処理は、例えば、イベントの開始前に実行される。なお、ステップS21からステップS26の処理の少なくとも一部は、イベントの開始後に実行されてもよい。例えば、ユーザは、コンテンツの配信が開始された後で、イベントの参加申請を行って、イベントに参加してもよい。ステップS26の後のステップS1からステップS11の処理は、図3と同様である。ステップS1からステップS11の処理は繰り返し実行され、観客位置を変更する処理およびアクション追加処理は、それぞれ、ステップS1からステップS11の処理が繰り返し実行される期間に、実行される。観客位置を変更する処理は、ステップS1の処理が実行される前に、実行されてもよい。例えば、ユーザUは、参加申請を行った後、コンテンツの配信が開始される前に、端末3を操作して観客位置の変更処理を実行させてもよい。
The processing of steps S21 to S26 described above is executed, for example, before the start of the event. In addition, at least a part of the processing of steps S21 to S26 may be executed after the start of the event. For example, the user may apply for participation in the event and participate in the event after the distribution of the content is started. The processing of steps S1 to S11 after step S26 is the same as in FIG. The processes of steps S1 to S11 are repeatedly executed, and the process of changing the spectator position and the action addition process are executed during the period in which the processes of steps S1 to S11 are repeatedly executed, respectively. The process of changing the spectator position may be executed before the process of step S1 is executed. For example, the user U may operate the
[第3実施形態]
第3実施形態について説明する。図8は、第3実施形態に係る音声処理システムを示す図である。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。本実施形態に係る音声処理システム1は、複数のグループに分けられた複数の第1音声処理装置を備え、合成部は、複数のグループの各グループに対応して設けられ、各グループにおいて、第1音声処理装置の音調整部が調整した音を合成する第1の合成部と、複数のグループにおいて、第1の合成部が合成した音を合成する第2の合成部と、を備える。[Third Embodiment]
The third embodiment will be described. FIG. 8 is a diagram showing a voice processing system according to the third embodiment. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. The
本実施形態において、複数の端末3は、複数のグループに分かれている。以下の説明において適宜、任意のグループを符号Gで表し、グループGを区別する場合、グループGa、グループGbのように符号Gにアルファベットa、b、・・・を追加した符号で表す。
In the present embodiment, the plurality of
本実施形態において、音声処理システム1は、複数の処理装置51と、処理装置52とを備える。処理装置51は、グループGごとに設けられる。以下の説明において適宜、任意の処理装置51を符号51で表し、処理装置51を区別する場合、処理装置51a、処理装置51bのように符号51にアルファベットa、b、・・・を追加した符号で表す。
In the present embodiment, the
処理装置51は、図3などで説明した合成部27を備える。処理装置51は、対応するグループに含まれる2以上の端末3から調整後の観客音のデータを取得する。例えば、処理装置51aは、グループGaに含まれる端末3の各々が送信する調整後の観客音のデータを受信する。処理装置51aの合成部27は、受信した観客音のデータを用いて、グループGaに含まれる端末3の各々から取得した調整後の観客音を合成する。以下の説明において適宜、処理装置51が合成した調整後の観客音を、1次合成後の観客音という。
The processing device 51 includes a
処理装置52は、2以上の処理装置51に対応して設けられる。図8において、処理装置52は、処理装置51aと、処理装置51bとに対応する。処理装置52は、対応する2以上の処理装置51の各々から、各処理装置51から1次合成後の観客音のデータを取得する。処理装置52は、合成部53と、コンテンツ生成部28とを備える。合成部53は、2以上の処理装置51の各々から取得された1次合成後の観客音のデータを用いて、これら観客音のデータが表す観客音を合成する。合成部53の処理は、例えば合成部27の処理と同様の処理でよい。処理装置52は、合成部53が合成した観客音のデータを出力する。処理装置52は、合成部53が合成した観客音を、スピーカ6に出力させる。
The
コンテンツ生成部28は、図3等で説明したように、カメラ4によって撮影された映像と、マイク5によって検出された音声とを用いてコンテンツを生成する。処理装置52は、生成したコンテンツのデータを提供する。処理装置51は、処理装置52が提供するコンテンツのデータを取得する。処理装置51は、対応するグループGに含まれる端末3にコンテンツのデータを提供する。例えば、処理装置51aは、対応するグループGaに含まれる2以上の端末3の各々に、コンテンツのデータを提供する。グループGaに含まれる2以上の端末3は、それぞれ、処理装置51aから提供されるコンテンツのデータを用いて、コンテンツを再生する。
As described with reference to FIG. 3 and the like, the
以上のように、本実施形態に係る音声処理システム1は、複数の端末3が複数のグループに分かれており、各グループに含まれる2以上の端末3から提供される調整後の観客音を合成する処理装置51を備える。音声処理システム1は、調整後の観客音を合成する処理を複数の装置で分散して実行するので、各装置の処理の負荷を軽減することができ、例えば処理の遅延が発生することを減らすことができる。
As described above, in the
なお、音声処理システム1は、2以上の処理装置51から提供される1次合成後の観客音を合成する処理装置(適宜、上位処理装置という)を複数備え、処理装置52は、複数の上位処理装置から各上位処理装置が合成した観客音(適宜、2次合成後の観客音という)を取得し、これら2次合成後の観客を合成してそのデータを出力してもよい。例えば、各端末3と処理装置52との間で中間データを生成する装置のレイヤーは、図8において処理装置51の1層であるが、処理装置51と上位処理装置との2層でもよい。このように、中間データを生成する装置のレイヤーの数は任意であり、図3のように0層でもよいし、図8のように1層でもよく、複数層でもよい。コンテンツ生成部28は、処理装置52と異なる装置に設けられてもよく、例えば、端末3と処理装置52との間で中間データを生成する装置(例、処理装置51)に設けられてもよい。
The
図9は、第3実施形態に係るグループの例を示す図である。図9の符号EX1からEX3は、それぞれ、グループの例を表す。第1の例EX1において、複数のグループGは、それぞれ、イベント会場AEにおける演者位置P1までの距離が所定の範囲である観客位置Qに対応する端末の集合である。例えば、グループGaは、演者位置P1までの距離がL1未満である観客位置に対応する端末の集合である。グループGbは、演者位置P1までの距離がL1以上L2未満である観客位置に対応する端末の集合である。 FIG. 9 is a diagram showing an example of a group according to the third embodiment. Reference numerals EX1 to EX3 in FIG. 9 represent examples of groups, respectively. In the first example EX1, each of the plurality of groups G is a set of terminals corresponding to the audience position Q in which the distance to the performer position P1 in the event venue AE is within a predetermined range. For example, the group Ga is a set of terminals corresponding to the audience position where the distance to the performer position P1 is less than L1. The group Gb is a set of terminals corresponding to the audience positions where the distance to the performer position P1 is L1 or more and less than L2.
第2の例EX2において、複数のグループGは、それぞれ、イベント会場AEにおける演者位置P1からの向きが所定の範囲である観客位置Qに対応する端末の集合である。例えば、例えば、グループGaは、演者位置P1を基準とする方位角が範囲θ1にある観客位置Qに対応する端末のグループである。グループGbは、演者位置P1を基準とする方位角が範囲θ2にある観客位置Qに対応する端末のグループである。 In the second example EX2, each of the plurality of groups G is a set of terminals corresponding to the audience position Q whose direction from the performer position P1 in the event venue AE is within a predetermined range. For example, the group Ga is a group of terminals corresponding to the audience position Q whose azimuth angle with respect to the performer position P1 is in the range θ1. The group Gb is a group of terminals corresponding to the audience position Q whose azimuth angle with respect to the performer position P1 is in the range θ2.
なお、グループ分けのルールは、第1の例又は第2の例に限定されず、任意に定められる事項である。例えば、第3の例EX3は、第1の例のグループ分けのルールと第2の例のグループ分けのルールとを組み合わせたグループ分けの例である。第3の例において、複数のグループGは、演者位置P1からの距離と、演者位置P1を基準とする方位角とに基づいて、決定される。 The rules for grouping are not limited to the first example or the second example, and are arbitrarily determined. For example, the third example EX3 is an example of grouping in which the grouping rule of the first example and the grouping rule of the second example are combined. In the third example, the plurality of groups G are determined based on the distance from the performer position P1 and the azimuth angle with respect to the performer position P1.
なお、複数のグループGは、観客位置Qが決定された順番に基づいて、決定されてもよい。例えば、複数の端末3は、観客位置Qが決定された順番に基づいて、グループ分けされてもよい。例えば、グループGaに含まれる端末3は、観客位置Qが決定された順番が1番から100番までの観客位置Qに対応する端末でもよい。グループGbに含まれる端末3は、観客位置Qが決定された順番が101番から200番までの観客位置Qに対応する端末でもよい。
The plurality of groups G may be determined based on the order in which the spectator positions Q are determined. For example, the plurality of
なお、複数のグループGは、イベント会場AEにおける席の優先度(例、席のランク)に基づいて、決定されてもよい。例えば、グループGaに含まれる端末3は、イベント会場AEにおいて第1ランクの席(例、S席)に相当する観客位置Qに対応する端末でもよい。グループGbに含まれる端末3は、イベント会場AEにおいて第1ランクよりも優先度が低い第2ランクの席(例、A席)に相当する観客位置Qに対応する端末でもよい。第1ランクの席は、第2ランクの席に比べてユーザが支払う参加費用が高い席でもよいし、予め選択されたユーザ(例、招待客)に割り当てられる席でもよい。複数のグループGは、各グループGに含まれる端末3を、複数の端末3から無作為に選択することで決定されてもよい。上述したグループ分けのルールは、2種類以上のルール(例、条件)を組み合わせたルールでもよい。
The plurality of groups G may be determined based on the priority of seats (eg, seat rank) at the event venue AE. For example, the
なお、複数のグループGにおいて、各グループに含まれる端末3の数は、同一でもよいし、異なってもよい。各グループGに含まれる端末3の数は、例えば、各グループGに対応する処理装置51が処理を担当する端末3の数でもよい。ここで、グループGaに含まれる端末3は、上記第1ランクの席に相当する観客位置Qに対応する端末であるとする。また、グループGbに含まれる端末3は、上記第2ランクの席に相当する観客位置Qに対応する端末であるとする。グループGaに含まれる端末3の数は、グループGbに含まれる端末3の数よりも少なくてもよい。この場合、グループGaに対応する処理装置51aは、グループGbに対応する処理装置51bに比べて処理の負荷が軽減され、例えば処理の遅延が発生する可能性が低下する。
In the plurality of groups G, the number of
なお、複数の処理装置51において、各処理装置51の性能は、同一でもよいし異なってもよい。ここで、グループGaに含まれる端末3は、上記第1ランクの席に相当する観客位置Qに対応する端末であるとする。また、グループGbに含まれる端末3は、上記第2ランクの席に相当する観客位置Qに対応する端末であるとする。グループGaに対応する処理装置51aは、グループGbに対応する処理装置51bに比べてハードウェアの性能(例、CPUの処理速度、記憶部の読み書き速度、通信速度)が高くてもよい。この場合、グループGaに対応する処理装置51aは、グループGbに対応する処理装置51bに比べて、例えば処理の遅延が発生する可能性が低下する。
In the plurality of processing devices 51, the performance of each processing device 51 may be the same or different. Here, it is assumed that the
複数の端末3を複数のグループに分ける処理(適宜、グループ分け処理という)は、例えば、図3の受付端末8によって実行される。グループ分け処理は、受付端末8と異なる装置によって実行されてもよい。例えば、グループ分け処理は、処理装置2によって実行されてもよいし、その他の装置によって実行されてもよい。グループ分け処理は、音声処理システム1の外部の装置によって実行されてもよい。
The process of dividing the plurality of
[第4実施形態]
第4実施形態について説明する。図10は、第4実施形態に係る音声処理システムを示す図である。本実施形態において、上述の実施形態と同様の構成については、同じ符号を付してその説明を省略あるいは簡略化する。本実施形態において、所定領域(例、イベント会場AE)は、各々が各グループに対応する複数の部分領域に区分され、各グループは、各グループに対応する部分領域に含まれる観客位置に対応する第1音声処理装置の集合を含む。複数の部分領域は、それぞれ、複数のグループのいずれかと対応する。例えば、複数の端末3(図8参照)は、複数のグループGに分かれている。複数のグループGは、図9の第2の例EX2で説明したように、観客位置Qに対する演者位置の向きに基づいて決定されている。[Fourth Embodiment]
A fourth embodiment will be described. FIG. 10 is a diagram showing a voice processing system according to the fourth embodiment. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified. In the present embodiment, the predetermined area (eg, event venue AE) is divided into a plurality of subregions each corresponding to each group, and each group corresponds to the audience position included in the subregion corresponding to each group. Includes a set of first audio processing devices. Each of the plurality of subregions corresponds to one of a plurality of groups. For example, the plurality of terminals 3 (see FIG. 8) are divided into a plurality of groups G. The plurality of groups G are determined based on the orientation of the performer position with respect to the audience position Q, as described in the second example EX2 of FIG.
図10の音声処理システム1は、複数の処理装置2を備える。以下の説明において適宜、任意の処理装置を符号2で表し、処理装置2を区別する場合、処理装置2a、処理装置2bのように符号2にアルファベットa、b、・・・を追加した符号で表す。複数の処理装置2は、それぞれ、1つのグループGと対応する。例えば、処理装置2aはグループGaと対応し、処理装置2bはグループGbと対応する。
The
各処理装置2は、対応するグループGに含まれる端末3にコンテンツのデータを提供する。例えば、処理装置2aは、グループGaに含まれる各端末3にコンテンツのデータを提供する。各処理装置2は、対応するグループGに含まれる端末3から調整後の観客音のデータを取得する。例えば、処理装置2aは、グループGaに含まれる各端末3が送信した調整後の観客音のデータを受信する。各処理装置2は、対応するグループGに含まれる端末3から取得した調整後の観客音を合成し、合成後の観客音のデータを出力する。例えば、処理装置2aは、グループGaに含まれる各端末3から取得した調整後の観客音を合成し、合成後の観客音のデータを出力する。
Each
本実施形態において、音声処理システム1は、複数の音声出力装置(例、スピーカ6)を備える。以下の説明において適宜、任意のスピーカを符号6で表し、スピーカ6を区別する場合、スピーカ6a、スピーカ6bのように符号6にアルファベットa、b、・・・を追加した符号で表す。複数のスピーカ6は、実演領域APに配置される。複数のスピーカ6は、それぞれ、処理装置2と対応関係がある。ここでは、スピーカ6は、処理装置2と1対1の関係で設けられるものとする。例えば、スピーカ6aは処理装置2aに対応し、スピーカ6bは処理装置2bと対応する。
In the present embodiment, the
複数のスピーカ6は、それぞれ、対応する処理装置2が担当するグループGと対応する。例えば、スピーカ6aはグループGaに対応し、スピーカ6bはグループGbと対応する。ここで、各グループGに含まれる端末3に対応する観客位置Qが分布する領域をグループの領域という。
Each of the plurality of speakers 6 corresponds to a group G in charge of the
実演領域APにおける演者Pと複数のスピーカ6との配置は、イベント会場AEにおける演者位置P1と複数のグループ領域との配置と対応するように、設定される。ここで、実演領域APにおいて、演者Pを中心とし、演者Pの鉛直方向の周りの回転方向を考える。この回転方向は、イベント会場AEにおいて、演者位置P1を中心とし、演者位置P1の鉛直方向の周りの回転方向と対応する。実演領域APにおいて、複数のスピーカ6は、回転方向の時計回りに、スピーカ6a、スピーカ6b、スピーカ6c、スピーカ6d、スピーカ6eの順に配列されている。イベント会場AEにおいて、複数のグループGの領域は、回転方向の時計回りに、グループGaの領域、グループGbの領域、グループGcの領域、グループGdの領域、グループGeの領域の順に配列されている。このように、複数のスピーカ6は、演者Pに対する方位角の関係が、演者位置P1に対する複数のグループGの領域の相互の関係を保持するように、配置される。
The arrangement of the performer P and the plurality of speakers 6 in the demonstration area AP is set so as to correspond to the arrangement of the performer position P1 and the plurality of group areas in the event venue AE. Here, in the demonstration area AP, the rotation direction around the vertical direction of the performer P is considered centering on the performer P. This rotation direction is centered on the performer position P1 at the event venue AE, and corresponds to the rotation direction around the vertical direction of the performer position P1. In the demonstration area AP, the plurality of speakers 6 are arranged in the order of
本実施形態において、音声処理システム1は、複数のカメラ4を備える。以下の説明において適宜、任意のカメラを符号4で表し、カメラ4を区別する場合、カメラ4a、カメラ4bのように符号4にアルファベットa、b、・・・を追加した符号で表す。複数のカメラ4は、実演領域APに配置される。複数のカメラ4は、それぞれ、処理装置2と対応関係がある。ここでは、カメラ4は、処理装置2と1対1の関係で設けられるものとする。例えば、カメラ4aは処理装置2aに対応し、カメラ4bは処理装置2bと対応する。複数のカメラ4は、それぞれ、対応する処理装置2が担当するグループGと対応する。例えば、カメラ4aはグループGaに対応し、カメラ4bはグループGbと対応する。
In the present embodiment, the
実演領域APにおける演者Pと複数のカメラ4との配置は、イベント会場AEにおける演者位置P1と複数のグループGの領域との配置と対応するように、設定される。ここで、実演領域APにおいて、演者Pを中心とし、演者Pの鉛直方向の周りの回転方向を考える。この回転方向は、イベント会場AEにおいて、演者位置P1を中心とし、演者位置P1の鉛直方向の周りの回転方向と対応する。実演領域APにおいて、複数のカメラ4は、回転方向の時計回りに、カメラ4a、カメラ4b、カメラ4c、カメラ4d、カメラ4eの順に配列されている。イベント会場AEにおいて、複数のグループGの領域は、回転方向の時計回りに、グループGaの領域、グループGbの領域、グループGcの領域、グループGdの領域、グループGeの領域の順に配列されている。このように、複数のカメラ4は、演者Pに対する方位角の関係が、演者位置P1に対する複数のグループG領域の互いの位置関係を保持するように、配置される。各カメラ4は、演者位置P1に演者Pが居るとした場合に、対応するグループGの領域から演者位置P1を見た状態に相当する映像を撮影するように、演者Pに対する向きが設定されている。
The arrangement of the performer P and the plurality of
処理装置2は、マイク5が検出した音と、処理装置2と対応するカメラ4が撮影した映像とを用いて、コンテンツを生成する。例えば、処理装置2aは、マイク5が検出した音と、カメラ4aが撮影した映像とを用いてコンテンツを生成する。処理装置2aは、生成したコンテンツを、対応するグループGaに含まれる端末3に提供する。
The
本実施形態において、演者Pは、演者位置P1に対するグループGの方位角と同様の方向から、このグループGに対応する合成後の観客音を聞くことができる。例えば、イベント会場AEにおいて、グループGaは、演者位置P1の正面に対して左側の領域である。演者Pは、コンテンツの中でグループGaの領域を向いて、ユーザに拍手等の反応を要求したとする。グループGaに含まれる端末3によってコンテンツを視聴するユーザUは、自分の方を向いて反応を呼びかける演者Pを見ることができる。このユーザUが拍手や歓声などの反応を行うと、反応に相当する観客音は、端末3によって調整されて処理装置2aによって合成され、スピーカ6aから出力される。演者Pは、例えば、ユーザUへ反応を呼びかけた方向から、反応に相当する観客音を聞くことができる。ユーザUは、例えば、実空間におけるイベントの会場と異なる場所でイベントに参加する場合でも、臨場感を味わうことができ、実施形態に係る音声処理システム1は、新たな体験を提供できる。
In the present embodiment, the performer P can hear the synthesized audience sound corresponding to the group G from the same direction as the azimuth angle of the group G with respect to the performer position P1. For example, in the event venue AE, the group Ga is the area on the left side of the front of the performer position P1. It is assumed that the performer P faces the area of the group Ga in the content and requests the user for a reaction such as applause. The user U who views the content by the
なお、図10において、スピーカ6は、処理装置2と1対1の対応で設けられるが、1つの処理装置2に対応するスピーカ6の数は1でもよいし、複数でもよい。音声処理システム1は、少なくとも1つのスピーカ6を備えなくてもよい。例えば、複数のスピーカ6は、音声処理システム1と異なるシステム(例、音響システム)が備える装置であって、音声処理システムは、複数のグループGの領域の配列と対応するように配列された複数のスピーカ6に対して、合成後の観客音のデータを出力するシステムでもよい。
In FIG. 10, the speaker 6 is provided in a one-to-one correspondence with the
なお、図10において、カメラ4は、処理装置2と1対1の対応で設けられるが、1つの処理装置2に対応するカメラ4の数は1でもよいし、複数でもよい。音声処理システム1は、少なくとも1つのカメラ4を備えなくてもよい。例えば、複数のカメラ4は、音声処理システム1と異なるシステム(例、撮影システム)が備える装置であって、音声処理システムは、複数のグループGの領域の配列と対応するように配列された複数のカメラ4から、演者Pの映像を取得するシステムでもよい。カメラ4の数は1つでもよく、例えば、音声処理システム1は、複数のグループGで共通のコンテンツを配信するシステムでもよい。
In FIG. 10, the
実施形態に係る音声処理システム1は、予め作成された演者Pのコンピュータグラフィックス(適宜、CGという)を利用して、コンテンツを生成してもよい。例えば、演者Pがポリゴン等の3次元CGで表されており、音声処理システム1は、モーションキャプチャ等で検出される演者Pの動作を用いて、3次元CGを動かすことでコンテンツを生成してもよい。音声処理システム1は、カメラ4によって取得される映像と、CGとを組み合わせてコンテンツを生成してもよい。
The
なお、実施形態に係る音声処理システム1は、ユーザからのイベントへの参加申請に基づいて、イベントが開催される所定領域におけるユーザの位置を表す観客位置を決定する位置決定部を備えなくてもよい。例えば、観客位置は、参加申請と無関係に決定されてもよいし、イベントの開催者によって決定されてもよい。このような形態であっても、音声処理システム1は、ユーザUの反応を演者Pに伝えることができ、例えば演者PのパフォーマンスにユーザUの反応が影響を及ぼすことによって、ユーザUに新たな体験を提供できる。
The
なお、本発明の技術範囲は、上述の実施形態などで説明した態様に限定されるものではない。上述の実施形態などで説明した要件の1つ以上は、省略されることがある。また、上述の実施形態などで説明した要件は、適宜組み合わせることができる。法令で許容される限りにおいて、上述の実施形態などで引用した全ての文献の開示を援用して本明細書の記載の一部とする。 The technical scope of the present invention is not limited to the embodiments described in the above-described embodiments. One or more of the requirements described in the above embodiments and the like may be omitted. In addition, the requirements described in the above-described embodiments and the like can be combined as appropriate. To the extent permitted by law, the disclosure of all documents cited in the above embodiments and the like shall be incorporated as part of the description of this specification.
1 音声処理システム、2 処理装置、3 端末、4 カメラ、5 マイク、6 スピーカ、7 予約端末、8 受付端末、G グループ、P 演者、Q 観客位置、R 観客音、U ユーザ、24 位置決定部、27 合成部、28 コンテンツ生成部、34 音調整部 1 Audio processing system, 2 Processing device, 3 terminals, 4 cameras, 5 microphones, 6 speakers, 7 reservation terminals, 8 reception terminals, G group, P performers, Q spectator position, R spectator sound, U user, 24 position determination unit , 27 Synthesis part, 28 Content generation part, 34 Sound adjustment part
Claims (30)
前記イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記所定領域における前記ユーザの位置を表す観客位置との関係に基づいて、前記マイクが検出した音を調整する音調整部と、
前記ユーザである第1のユーザに対応する前記マイクに検出されて前記音調整部に調整された音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記マイクに検出されて前記音調整部に調整された音とを合成する合成部と、
前記合成部が合成した音を表すデータを出力する出力部と、を備え、
前記演者は、前記所定領域の外でパフォーマンスを行い、
前記合成部が合成した音のデータは、前記演者へ音が届く位置に配置される音声出力装置へ提供される、音声処理システム。 A microphone that detects the sound emitted by users participating in the event,
A sound that adjusts the sound detected by the microphone based on the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user in the predetermined area. Adjustment part and
The sound detected by the microphone corresponding to the first user who is the user and adjusted by the sound adjustment unit and detected by the microphone corresponding to the second user who is a user different from the first user. A compositing unit that synthesizes the sound adjusted to the sound adjusting unit, and a compositing unit,
It is provided with an output unit that outputs data representing the sound synthesized by the synthesis unit.
The performer performs outside the predetermined area and
A voice processing system in which sound data synthesized by the synthesis unit is provided to a voice output device arranged at a position where the sound reaches the performer.
請求項1に記載の音声処理システム。 The sound adjusting unit adjusts the first sound detected by the microphone so as to be close to the second sound that reaches the performer position when the first sound is emitted at the audience position.
The voice processing system according to claim 1.
前記イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記所定領域における前記ユーザの位置を表す観客位置との関係に基づいて、前記マイクが検出した音を調整する音調整部と、
前記ユーザである第1のユーザに対応する前記マイクに検出されて前記音調整部に調整された音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記マイクに検出されて前記音調整部に調整された音とを合成する合成部と、
前記合成部が合成した音を表すデータを出力する出力部と、を備え、
前記音調整部は、前記マイクが検出した第1の音を、前記第1の音が前記観客位置で発せられた場合に前記演者位置に届く第2の音に近づけるように調整する、音声処理システム。 A microphone that detects the sound emitted by users participating in the event,
A sound that adjusts the sound detected by the microphone based on the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user in the predetermined area. Adjustment part and
The sound detected by the microphone corresponding to the first user who is the user and adjusted by the sound adjustment unit and detected by the microphone corresponding to the second user who is a user different from the first user. A compositing unit that synthesizes the sound adjusted to the sound adjusting unit, and a compositing unit,
It is provided with an output unit that outputs data representing the sound synthesized by the synthesis unit.
The sound adjustment unit adjusts the first sound detected by the microphone so as to approach the second sound that reaches the performer position when the first sound is emitted at the audience position. system.
請求項1から請求項3のいずれか一項に記載の音声処理システム。 The sound adjusting unit adjusts the loudness of the sound detected by the microphone by using the distance between the audience position and the performer position.
The voice processing system according to any one of claims 1 to 3.
前記イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記所定領域における前記ユーザの位置を表す観客位置との関係に基づいて、前記マイクが検出した音を調整する音調整部と、
前記ユーザである第1のユーザに対応する前記マイクに検出されて前記音調整部に調整された音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記マイクに検出されて前記音調整部に調整された音とを合成する合成部と、
前記合成部が合成した音を表すデータを出力する出力部と、を備え、
前記音調整部は、前記観客位置と前記演者位置との距離を用いて、前記マイクが検出した音の大きさを調整する、音声処理システム。 A microphone that detects the sound emitted by users participating in the event,
A sound that adjusts the sound detected by the microphone based on the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user in the predetermined area. Adjustment part and
The sound detected by the microphone corresponding to the first user who is the user and adjusted by the sound adjustment unit and detected by the microphone corresponding to the second user who is a user different from the first user. A compositing unit that synthesizes the sound adjusted to the sound adjusting unit, and a compositing unit,
It is provided with an output unit that outputs data representing the sound synthesized by the synthesis unit.
The sound adjusting unit is a voice processing system that adjusts the loudness of the sound detected by the microphone by using the distance between the audience position and the performer position.
前記第2音調整部によって調整された音を含む音のデータを、前記第1のユーザに音を伝える音声出力装置へ出力する第2出力部と、を備える
請求項1から請求項5のいずれか一項に記載の音声処理システム。 A second adjusting the sound detected by the microphone corresponding to the second user based on the relationship between the spectator position corresponding to the first user and the spectator position corresponding to the second user. Sound adjustment part and
Any of claims 1 to 5, further comprising a second output unit that outputs sound data including sound adjusted by the second sound adjustment unit to a voice output device that transmits sound to the first user. The voice processing system described in item 1.
前記イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記所定領域における前記ユーザの位置を表す観客位置との関係に基づいて、前記マイクが検出した音を調整する音調整部と、
前記ユーザである第1のユーザに対応する前記マイクに検出されて前記音調整部に調整された音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記マイクに検出されて前記音調整部に調整された音とを合成する合成部と、
前記合成部が合成した音を表すデータを出力する出力部と、
前記第1のユーザに対応する前記観客位置と、前記第2のユーザに対応する前記観客位置との関係に基づいて、前記第2のユーザに対応する前記マイクが検出した音を調整する第2音調整部と、
前記第2音調整部によって調整された音を含む音のデータを、前記第1のユーザに音を伝える音声出力装置へ出力する第2出力部と、を備える音声処理システム。 A microphone that detects the sound emitted by users participating in the event,
A sound that adjusts the sound detected by the microphone based on the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user in the predetermined area. Adjustment part and
The sound detected by the microphone corresponding to the first user who is the user and adjusted by the sound adjustment unit and detected by the microphone corresponding to the second user who is a user different from the first user. A compositing unit that synthesizes the sound adjusted to the sound adjusting unit, and a compositing unit,
An output unit that outputs data representing the sound synthesized by the synthesis unit, and an output unit.
A second adjusting the sound detected by the microphone corresponding to the second user based on the relationship between the spectator position corresponding to the first user and the spectator position corresponding to the second user. Sound adjustment part and
A voice processing system including a second output unit that outputs sound data including sound adjusted by the second sound adjustment unit to a voice output device that transmits the sound to the first user.
請求項1から請求項7のいずれか一項に記載の音声処理システム。 The voice processing system according to any one of claims 1 to 7, further comprising a position determining unit for determining the position of the spectator based on an application for participation in the event from the user.
前記位置決定部は、前記申請取得部が取得した前記参加申請に基づいて、前記観客位置を決定する、
請求項8に記載の音声処理システム。 It is equipped with an application acquisition unit that acquires the participation application provided by the user.
The position determination unit determines the audience position based on the participation application acquired by the application acquisition unit.
The voice processing system according to claim 8.
前記音調整部は、前記位置決定部が変更した前記観客位置を用いて、前記第1のユーザに対応する前記マイクが検出した音を調整する、
請求項1から請求項9のいずれか一項に記載の音声処理システム。 A position determining unit for changing the spectator position corresponding to the first user is provided based on the spectator position change request from the first user.
The sound adjusting unit adjusts the sound detected by the microphone corresponding to the first user by using the audience position changed by the positioning unit.
The voice processing system according to any one of claims 1 to 9.
請求項1から請求項10のいずれか一項に記載の音声処理システム。 A position determining unit for determining the spectator position when the first user participates in the event after the past event based on the history of the first user participating in the past event is provided. The voice processing system according to any one of claims 1 to 10.
前記第1の通信部が送信した前記音のデータを受信する第2の通信部と、前記第2の通信部が受信した前記音のデータが表す音を合成する前記合成部とを備える第2音声処理装置と、を備える
請求項1から請求項11のいずれか一項に記載の音声処理システム。 A first voice processing device including the sound adjusting unit and a first communication unit for transmitting sound data adjusted by the sound adjusting unit.
A second communication unit including a second communication unit that receives the sound data transmitted by the first communication unit and a synthesis unit that synthesizes the sound represented by the sound data received by the second communication unit. The voice processing system according to any one of claims 1 to 11, further comprising a voice processing device.
前記第2の通信部は、前記演者位置と前記位置決定部が決定した前記観客位置との関係を示す位置情報を送信し、
前記第1の通信部は、前記第2の通信部が送信した前記位置情報を受信し、
前記第1音声処理装置の前記音調整部は、前記第1の通信部が受信した前記位置情報に基づいて、前記第1音声処理装置に対応する前記マイクが検出した音を調整する、
請求項12に記載の音声処理システム。 The second audio processing device includes a position determining unit that determines the audience position.
The second communication unit transmits position information indicating the relationship between the performer position and the audience position determined by the position determination unit.
The first communication unit receives the position information transmitted by the second communication unit, and receives the position information.
The sound adjusting unit of the first voice processing device adjusts the sound detected by the microphone corresponding to the first voice processing device based on the position information received by the first communication unit.
The voice processing system according to claim 12.
前記合成部は、
前記複数のグループの各グループに対応して設けられ、前記各グループにおいて、前記第1音声処理装置の前記音調整部が調整した音を合成する第1の合成部と、
前記複数のグループにおいて、前記第1の合成部が合成した音を合成する第2の合成部と、を備える、
請求項12または請求項13に記載の音声処理システム。 It is provided with a plurality of the first voice processing devices divided into a plurality of groups, and has a plurality of first voice processing devices.
The synthesis part
A first synthesis unit that is provided corresponding to each group of the plurality of groups and that synthesizes a sound adjusted by the sound adjustment unit of the first voice processing device in each group.
The plurality of groups include a second compositing unit that synthesizes the sound synthesized by the first compositing unit.
The voice processing system according to claim 12 or 13.
前記各グループは、前記各グループに対応する前記部分領域に含まれる前記観客位置に対応する前記第1音声処理装置の集合を含む、
請求項14に記載の音声処理システム。 The predetermined region is divided into a plurality of subregions, each of which corresponds to each of the groups.
Each group includes a set of the first audio processing devices corresponding to the audience position included in the subregion corresponding to each group.
The voice processing system according to claim 14.
前記アクション受付部が受け付けた情報に予め関連付けられた処理を実行する処理部と、を備える
請求項1から請求項15のいずれか一項に記載の音声処理システム。 An action reception unit that receives information from the user that specifies an action for one or both of the performer and the user.
The voice processing system according to any one of claims 1 to 15, further comprising a processing unit that executes processing associated with information received in advance by the action receiving unit.
請求項1から請求項16のいずれか一項に記載の音声処理システム。 The voice processing according to any one of claims 1 to 16, further comprising a third output unit that outputs sound data obtained by combining the sound emitted by the performer and the sound adjusted by the sound adjustment unit. system.
前記第1のユーザに対応する前記マイクは、前記第1のユーザが発する音を検出する位置に配置される、
請求項1から請求項17のいずれか一項に記載の音声処理システム。 The first user watches the event outside the predetermined area and views the event.
The microphone corresponding to the first user is arranged at a position where the sound emitted by the first user is detected.
The voice processing system according to any one of claims 1 to 17.
前記ユーザから発せられてマイクに検出された音を、前記位置情報に基づいて調整する音調整部と、
前記音調整部が調整した音を表すデータを送信する送信部と、を備え、
前記音調整部は、前記マイクが検出した第1の音を、前記第1の音が前記観客位置で発せられた場合に前記演者位置に届く第2の音に近づけるように調整する、
音声処理装置。 A receiver that receives position information indicating the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area.
A sound adjustment unit that adjusts the sound emitted from the user and detected by the microphone based on the position information.
A transmission unit for transmitting data representing the sound adjusted by the sound adjustment unit is provided.
The sound adjusting unit adjusts the first sound detected by the microphone so as to be close to the second sound that reaches the performer position when the first sound is emitted at the audience position.
Voice processing device.
前記ユーザから発せられてマイクに検出された音を、前記位置情報に基づいて調整する音調整部と、
前記音調整部が調整した音を表すデータを送信する送信部と、を備え、
前記音調整部は、前記観客位置と前記演者位置との距離を用いて、前記マイクが検出した音の大きさを調整する、
音声処理装置。 A receiver that receives position information indicating the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area.
A sound adjustment unit that adjusts the sound emitted from the user and detected by the microphone based on the position information.
A transmission unit for transmitting data representing the sound adjusted by the sound adjustment unit is provided.
The sound adjusting unit adjusts the loudness of the sound detected by the microphone by using the distance between the audience position and the performer position.
Voice processing device.
前記ユーザから発せられて前記位置情報に基づいて調整された音のデータを、前記位置情報の送信先から受信する受信部と、
前記ユーザである第1のユーザに対応する前記送信先から受信したデータが表す音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記送信先から受信したデータが表す音と、を合成する合成部と、を備え、
前記演者は、前記所定領域の外でパフォーマンスを行い、
前記合成部が合成した音のデータは、前記演者へ音が届く位置に配置される音声出力装置へ提供される、
音声処理装置。 A transmitter that transmits position information indicating the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area.
A receiving unit that receives sound data emitted from the user and adjusted based on the position information from the transmission destination of the position information.
The sound represented by the data received from the destination corresponding to the first user who is the user and the data received from the destination corresponding to the second user who is the user different from the first user are represented. It is equipped with a synthesizer that synthesizes sound and
The performer performs outside the predetermined area and
The sound data synthesized by the synthesis unit is provided to a voice output device arranged at a position where the sound reaches the performer.
Voice processing device.
前記ユーザから発せられてマイクによって検出され前記位置情報に基づいて調整された音のデータを、前記位置情報の送信先から受信する受信部と、
前記ユーザである第1のユーザに対応する前記送信先から受信したデータが表す音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記送信先から受信したデータが表す音と、を合成する合成部と、
前記第1のユーザに対応する前記観客位置と、前記第2のユーザに対応する前記観客位置との関係に基づいて、前記第2のユーザに対応する前記マイクが検出した音を調整する第2音調整部と、を備え、
前記第2音調整部によって調整された音を含む音のデータは、前記第1のユーザに音を伝える音声出力装置へ出力される、
音声処理装置。 A transmitter that transmits position information indicating the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area.
A receiving unit that receives sound data emitted from the user , detected by the microphone, and adjusted based on the position information from the transmission destination of the position information.
The sound represented by the data received from the destination corresponding to the first user who is the user and the data received from the destination corresponding to the second user who is the user different from the first user are represented. The synthesizer that synthesizes the sound,
A second adjusting the sound detected by the microphone corresponding to the second user based on the relationship between the spectator position corresponding to the first user and the spectator position corresponding to the second user. Equipped with a sound adjustment unit
The sound data including the sound adjusted by the second sound adjusting unit is output to the voice output device that transmits the sound to the first user.
Voice processing device.
前記イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記所定領域における前記ユーザの位置を表す観客位置との関係に基づいて、前記マイクが検出した音を音調整部によって調整することと、
前記ユーザである第1のユーザに対応する前記マイクに検出されて前記音調整部に調整された音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記マイクに検出されて前記音調整部に調整された音とを合成部によって合成することと、
前記合成部が合成した音を表すデータを出力することと、を含み、
前記演者は、前記所定領域の外でパフォーマンスを行い、
前記合成部が合成した音のデータは、前記演者へ音が届く位置に配置される音声出力装置へ提供される、
音声処理方法。 Detecting the sound emitted by the user participating in the event with a microphone,
A sound adjustment unit that adjusts the sound detected by the microphone based on the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user in the predetermined area. To adjust by
The sound detected by the microphone corresponding to the first user who is the user and adjusted by the sound adjustment unit and detected by the microphone corresponding to the second user who is a user different from the first user. By synthesizing the sound adjusted to the sound adjustment unit by the synthesis unit,
Including the output of data representing the sound synthesized by the synthesis unit.
The performer performs outside the predetermined area and
The sound data synthesized by the synthesis unit is provided to a voice output device arranged at a position where the sound reaches the performer.
Voice processing method.
前記イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記所定領域における前記ユーザの位置を表す観客位置との関係に基づいて、前記マイクが検出した音を音調整部によって調整することと、
前記ユーザである第1のユーザに対応する前記マイクに検出されて前記音調整部に調整された音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記マイクに検出されて前記音調整部に調整された音とを合成部によって合成することと、
前記合成部が合成した音を表すデータを出力することと、を含み、
前記音調整部は、前記マイクが検出した第1の音を、前記第1の音が前記観客位置で発せられた場合に前記演者位置に届く第2の音に近づけるように調整する、
音声処理方法。 Detecting the sound emitted by the user participating in the event with a microphone,
A sound adjustment unit that adjusts the sound detected by the microphone based on the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user in the predetermined area. To adjust by
The sound detected by the microphone corresponding to the first user who is the user and adjusted by the sound adjustment unit and detected by the microphone corresponding to the second user who is a user different from the first user. By synthesizing the sound adjusted to the sound adjustment unit by the synthesis unit,
Including the output of data representing the sound synthesized by the synthesis unit.
The sound adjusting unit adjusts the first sound detected by the microphone so as to be close to the second sound that reaches the performer position when the first sound is emitted at the audience position.
Voice processing method.
前記イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記所定領域における前記ユーザの位置を表す観客位置との関係に基づいて、前記マイクが検出した音を音調整部によって調整することと、
前記ユーザである第1のユーザに対応する前記マイクに検出されて前記音調整部に調整された音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記マイクに検出されて前記音調整部に調整された音とを合成部によって合成することと、
前記合成部が合成した音を表すデータを出力することと、を含み、
前記音調整部は、前記観客位置と前記演者位置との距離を用いて、前記マイクが検出した音の大きさを調整する、
音声処理方法。 Detecting the sound emitted by the user participating in the event with a microphone,
A sound adjustment unit that adjusts the sound detected by the microphone based on the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user in the predetermined area. To adjust by
The sound detected by the microphone corresponding to the first user who is the user and adjusted by the sound adjustment unit and detected by the microphone corresponding to the second user who is a user different from the first user. By synthesizing the sound adjusted to the sound adjustment unit by the synthesis unit,
Including the output of data representing the sound synthesized by the synthesis unit.
The sound adjusting unit adjusts the loudness of the sound detected by the microphone by using the distance between the audience position and the performer position.
Voice processing method.
前記イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記所定領域における前記ユーザの位置を表す観客位置との関係に基づいて、前記マイクが検出した音を音調整部によって調整することと、
前記ユーザである第1のユーザに対応する前記マイクに検出されて前記音調整部に調整された音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記マイクに検出されて前記音調整部に調整された音とを合成部によって合成することと、
前記合成部が合成した音を表すデータを出力することと、
前記第1のユーザに対応する前記観客位置と、前記第2のユーザに対応する前記観客位置との関係に基づいて、前記第2のユーザに対応する前記マイクが検出した音を第2音調整部によって調整することと、
前記第2音調整部によって調整された音を含む音のデータを、前記第1のユーザに音を伝える音声出力装置へ出力することと、
を含む音声処理方法。 Detecting the sound emitted by the user participating in the event with a microphone,
A sound adjustment unit that adjusts the sound detected by the microphone based on the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user in the predetermined area. To adjust by
The sound detected by the microphone corresponding to the first user who is the user and adjusted by the sound adjustment unit and detected by the microphone corresponding to the second user who is a user different from the first user. By synthesizing the sound adjusted to the sound adjustment unit by the synthesis unit,
To output data representing the sound synthesized by the synthesis unit,
The sound detected by the microphone corresponding to the second user is adjusted to the second sound based on the relationship between the spectator position corresponding to the first user and the spectator position corresponding to the second user. Adjusting by department and
To output sound data including the sound adjusted by the second sound adjusting unit to the voice output device that transmits the sound to the first user.
Speech processing methods including.
イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記イベントに参加するユーザの前記所定領域における位置を表す観客位置との関係を示す位置情報を受信することと、
前記ユーザから発せられてマイクに検出された音を、前記位置情報に基づいて調整することと、
前記調整した音を表すデータを送信することと、を実行させ、
前記調整することは、前記マイクが検出した第1の音を、前記第1の音が前記観客位置で発せられた場合に前記演者位置に届く第2の音に近づけるように調整することを含む、
音声処理プログラム。 On the computer
Receiving position information indicating the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area.
Adjusting the sound emitted from the user and detected by the microphone based on the position information,
Sending data representing the adjusted sound and executing
The adjustment includes adjusting the first sound detected by the microphone so as to be close to the second sound that reaches the performer position when the first sound is emitted at the audience position. ,
Speech processing program.
イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記イベントに参加するユーザの前記所定領域における位置を表す観客位置との関係を示す位置情報を受信することと、
前記ユーザから発せられてマイクに検出された音を、前記位置情報に基づいて調整することと、
前記調整した音を表すデータを送信することと、を実行させ、
前記調整することは、前記観客位置と前記演者位置との距離を用いて、前記マイクが検出した音の大きさを調整することを含む、
音声処理プログラム。 On the computer
Receiving position information indicating the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area.
Adjusting the sound emitted from the user and detected by the microphone based on the position information,
Sending data representing the adjusted sound and executing
The adjustment includes adjusting the loudness of the sound detected by the microphone by using the distance between the audience position and the performer position.
Speech processing program.
イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記イベントに参加するユーザの前記所定領域における位置を表す観客位置との関係を示す位置情報を送信することと、
前記ユーザから発せられて前記位置情報に基づいて調整された音のデータを、前記位置情報の送信先から受信することと、
前記ユーザである第1のユーザに対応する前記送信先から受信したデータが表す音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記送信先から受信したデータが表す音とを合成することと、を実行させ、
前記演者は、前記所定領域の外でパフォーマンスを行い、
前記合成された音のデータは、前記演者へ音が届く位置に配置される音声出力装置へ提供される、
音声処理プログラム。 On the computer
Transmission of position information indicating the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area.
Receiving sound data emitted from the user and adjusted based on the position information from the transmission destination of the position information.
The sound represented by the data received from the destination corresponding to the first user who is the user and the data received from the destination corresponding to the second user who is the user different from the first user are represented. To synthesize the sound and to execute,
The performer performs outside the predetermined area and
The synthesized sound data is provided to a voice output device arranged at a position where the sound reaches the performer.
Speech processing program.
イベントが開催される所定領域における前記イベントの演者の位置を表す演者位置と、前記イベントに参加するユーザの前記所定領域における位置を表す観客位置との関係を示す位置情報を送信することと、
前記ユーザから発せられてマイクによって検出され前記位置情報に基づいて調整された音のデータを、前記位置情報の送信先から受信することと、
前記ユーザである第1のユーザに対応する前記送信先から受信したデータが表す音と、前記第1のユーザと異なる前記ユーザである第2のユーザに対応する前記送信先から受信したデータが表す音とを合成することと、
前記第1のユーザに対応する前記観客位置と、前記第2のユーザに対応する前記観客位置との関係に基づいて、前記第2のユーザに対応する前記マイクが検出した音を調整することと、を実行させ、
前記第2のユーザに対応して調整された音を含む音のデータは、前記第1のユーザに音を伝える音声出力装置へ出力される、
音声処理プログラム。 On the computer
Transmission of position information indicating the relationship between the performer position representing the position of the performer of the event in the predetermined area where the event is held and the audience position representing the position of the user participating in the event in the predetermined area.
Receiving sound data emitted from the user , detected by the microphone, and adjusted based on the position information from the transmission destination of the position information.
The sound represented by the data received from the destination corresponding to the first user who is the user and the data received from the destination corresponding to the second user who is the user different from the first user are represented. Combining sound and
Adjusting the sound detected by the microphone corresponding to the second user based on the relationship between the spectator position corresponding to the first user and the spectator position corresponding to the second user. To execute,
The sound data including the sound adjusted corresponding to the second user is output to the voice output device that transmits the sound to the first user.
Speech processing program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021155819A JP2022020625A (en) | 2020-07-20 | 2021-09-24 | Sound processing system, sound processing device, sound processing method, and sound processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/028035 WO2022018786A1 (en) | 2020-07-20 | 2020-07-20 | Sound processing system, sound processing device, sound processing method, and sound processing program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021155819A Division JP2022020625A (en) | 2020-07-20 | 2021-09-24 | Sound processing system, sound processing device, sound processing method, and sound processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6951610B1 true JP6951610B1 (en) | 2021-10-20 |
JPWO2022018786A1 JPWO2022018786A1 (en) | 2022-01-27 |
Family
ID=78114183
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021549976A Active JP6951610B1 (en) | 2020-07-20 | 2020-07-20 | Speech processing system, speech processor, speech processing method, and speech processing program |
JP2021155819A Pending JP2022020625A (en) | 2020-07-20 | 2021-09-24 | Sound processing system, sound processing device, sound processing method, and sound processing program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021155819A Pending JP2022020625A (en) | 2020-07-20 | 2021-09-24 | Sound processing system, sound processing device, sound processing method, and sound processing program |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP6951610B1 (en) |
WO (1) | WO2022018786A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116437282A (en) * | 2023-03-23 | 2023-07-14 | 合众新能源汽车股份有限公司 | Sound sensation processing method of virtual concert, storage medium and electronic equipment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015162947A1 (en) * | 2014-04-22 | 2015-10-29 | ソニー株式会社 | Information reproduction device, information reproduction method, information recording device, and information recording method |
JP2017033297A (en) * | 2015-07-31 | 2017-02-09 | 富士通株式会社 | Vacant seat position notification method, and server |
WO2017090096A1 (en) * | 2015-11-24 | 2017-06-01 | 株式会社ハイスピードボーイズ | Creative-production control system |
JP2018094326A (en) * | 2016-12-16 | 2018-06-21 | 株式会社バンダイナムコエンターテインメント | Event control system, and event notification system and program |
-
2020
- 2020-07-20 WO PCT/JP2020/028035 patent/WO2022018786A1/en active Application Filing
- 2020-07-20 JP JP2021549976A patent/JP6951610B1/en active Active
-
2021
- 2021-09-24 JP JP2021155819A patent/JP2022020625A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015162947A1 (en) * | 2014-04-22 | 2015-10-29 | ソニー株式会社 | Information reproduction device, information reproduction method, information recording device, and information recording method |
JP2017033297A (en) * | 2015-07-31 | 2017-02-09 | 富士通株式会社 | Vacant seat position notification method, and server |
WO2017090096A1 (en) * | 2015-11-24 | 2017-06-01 | 株式会社ハイスピードボーイズ | Creative-production control system |
JP2018094326A (en) * | 2016-12-16 | 2018-06-21 | 株式会社バンダイナムコエンターテインメント | Event control system, and event notification system and program |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022018786A1 (en) | 2022-01-27 |
WO2022018786A1 (en) | 2022-01-27 |
JP2022020625A (en) | 2022-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7725203B2 (en) | Enhancing perceptions of the sensory content of audio and audio-visual media | |
US11700353B2 (en) | Integration of remote audio into a performance venue | |
JP2023053313A (en) | Information processing apparatus, information processing method, and information processing program | |
JP6951610B1 (en) | Speech processing system, speech processor, speech processing method, and speech processing program | |
WO2022024898A1 (en) | Information processing device, information processing method, and computer program | |
WO2021246104A1 (en) | Control method and control system | |
WO2022163137A1 (en) | Information processing device, information processing method, and program | |
JP6220576B2 (en) | A communication karaoke system characterized by a communication duet by multiple people | |
WO2023022004A1 (en) | Control system operation method, control system, and program | |
US20240015368A1 (en) | Distribution system, distribution method, and non-transitory computer-readable recording medium | |
WO2023084933A1 (en) | Information processing device, information processing method, and program | |
WO2023281820A1 (en) | Information processing device, information processing method, and storage medium | |
JP2020008752A (en) | Live band karaoke live distribution system | |
WO2022113289A1 (en) | Live data delivery method, live data delivery system, live data delivery device, live data reproduction device, and live data reproduction method | |
JP7191146B2 (en) | Distribution server, distribution method, and program | |
WO2022113288A1 (en) | Live data delivery method, live data delivery system, live data delivery device, live data reproduction device, and live data reproduction method | |
JP7137278B2 (en) | Playback control method, control system, terminal device and program | |
US20230042477A1 (en) | Reproduction control method, control system, and program | |
WO2023238637A1 (en) | Information processing device, information processing method, and program | |
WO2022201944A1 (en) | Distribution system | |
WO2022209297A1 (en) | Information processing device, information processing method, and recording medium | |
WO2022054576A1 (en) | Sound signal processing method and sound signal processing device | |
JP2022134182A (en) | Video output method, video output device, and video output system | |
CN116158071A (en) | System and method for creating and managing a virtually enabled studio | |
JP2022046878A (en) | Distribution system and distribution method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210826 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210826 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210910 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210921 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210924 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6951610 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |