JP2010112981A - Remote demonstration reproducing method and device - Google Patents

Remote demonstration reproducing method and device Download PDF

Info

Publication number
JP2010112981A
JP2010112981A JP2008282936A JP2008282936A JP2010112981A JP 2010112981 A JP2010112981 A JP 2010112981A JP 2008282936 A JP2008282936 A JP 2008282936A JP 2008282936 A JP2008282936 A JP 2008282936A JP 2010112981 A JP2010112981 A JP 2010112981A
Authority
JP
Japan
Prior art keywords
point
guide
demonstration
data
remote
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008282936A
Other languages
Japanese (ja)
Inventor
Hisao Ito
久雄 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IPIX CO
Original Assignee
IPIX CO
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IPIX CO filed Critical IPIX CO
Priority to JP2008282936A priority Critical patent/JP2010112981A/en
Publication of JP2010112981A publication Critical patent/JP2010112981A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a remote demonstration reproducing method or the like capable of halving delay in both sounds occurring when mixing demonstrations at A point and B point distant from each other compared to heretofore. <P>SOLUTION: A device at A point and a device at B point mutually transmit guide data for reproducing the same guide via a communication network, and the device at A point and the device at B point simultaneously reproduce the same guide based on the mutually received guide data. The device at A point and the device at B point accept inputs of demonstration signals from demonstrators who look and listen to the reproduced guide and mutually transmit the demonstration signals accepted to be inputted via the communication network. The device at A point and the device at B point mix and reproduce the mutually received demonstration signals and the demonstration signals directly inputted to the devices themselves. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、遠隔にあるA地点とB地点とにおける実演をミックスして各地点で再生する方法等に関する。   The present invention relates to a method of mixing demonstrations at point A and point B that are remote and reproducing at each point.

この種の従来例を図6に基づいて説明する。遠隔にあるA地点とB地点とに、それぞれ通信カラオケシステムが設置され、各通信カラオケシステムは、通信ネットワークを介してデータ通信を行なうようになっている。そして、A地点の歌手と、B地点の歌手とがデュエットを行なう場合、まず、A地点の通信カラオケシステムが楽曲のカラオケの演奏(以下、ガイド演奏という)をスタートする(イントロ・スタート)。A地点の歌手は、このガイド演奏を聴きながら歌を唄う(ヴォーカル・イン)。   A conventional example of this type will be described with reference to FIG. A communication karaoke system is installed at each of the remote locations A and B, and each communication karaoke system performs data communication via a communication network. When a singer at point A and a singer at point B perform a duet, first, the communication karaoke system at point A starts karaoke performance of the music (hereinafter referred to as guide performance) (intro start). The singer at point A sings a song while listening to this guide performance (vocal in).

また、A地点の通信カラオケシステムは、自己の再生するガイド演奏を通信ネットワークを介してB地点のカラオケシステムに同時送信する。しかし、ガイド演奏がB地点に届くまでに、通信タイムラグT1を生じる。   In addition, the communication karaoke system at the point A simultaneously transmits the guide performance reproduced by itself to the karaoke system at the point B via the communication network. However, a communication time lag T1 occurs until the guide performance reaches point B.

B地点の通信カラオケシステムは、A地点から送られたガイド演奏を受信すると直ちに再生する(イントロ・スタート)。しかし、B地点のガイド演奏は、通信タイムラグの影響でA地点で再生されているガイド演奏よりも常時T1遅れたタイミングでガイド演奏が進行する。   The communication karaoke system at point B plays immediately after receiving a guide performance sent from point A (intro start). However, the guide performance at point B always proceeds at a timing delayed by T1 from the guide performance reproduced at point A due to the influence of the communication time lag.

B地点の歌手は、B地点で再生されるガイド演奏のタイミングに合わせて歌を唄う(ヴォーカル・イン)。B地点の通信カラオケシステムは、B地点の歌手の歌声を通信ネットワークを介してA地点の通信カラオケシステムに送信する。しかし、B地点の歌声がA地点に届くまでに、通信タイムラグT2を生じる。   The singer at point B sings a song in time with the timing of the guide performance played at point B (vocal in). The communication karaoke system at point B transmits the singing voice of the singer at point B to the communication karaoke system at point A via the communication network. However, a communication time lag T2 occurs until the singing voice at point B reaches point A.

A地点の通信カラオケシステムは、B地点から届いた歌声を直ちに再生し、A地点の歌手の耳に届ける。しかし、この時点でA地点のガイド演奏のタイミングから見て、B地点の歌手の歌声は、T1+T2の遅れを伴っている。この遅れの度合いによっては、A地点の歌手は、B地点の歌声が遅れて聴こえることを感知し、歌い難いと感じる。人の感覚では、一般に、0.2秒を超える遅延は許容しがたい遅延として実感し、0.2秒以内の遅延は許容できるといわれる。このような遅延は、短縮を図ることが好ましい。   The communication karaoke system at point A immediately reproduces the singing voice received from point B and delivers it to the singer's ear at point A. However, when viewed from the timing of the guide performance at the point A, the singer's singing voice at the point B is accompanied by a delay of T1 + T2. Depending on the degree of this delay, the singer at the point A senses that the singing voice at the point B is heard with a delay, and feels difficult to sing. In the human sense, it is generally said that a delay exceeding 0.2 seconds is perceived as an unacceptable delay, and a delay within 0.2 seconds is acceptable. Such a delay is preferably shortened.

そこで、例えば特許文献1では、A地点とB地点との間でカラオケの演奏中に定期的に同期信号を交換することによって、両地点のカラオケのタイミングを合わせる制御を行なっている。しかし、演奏中に同期信号に応じた演奏のタイミング制御が必要となるため、演奏が不自然に途切れる場合がある。
特開2005−77485号公報
Therefore, in Patent Document 1, for example, a synchronization signal is periodically exchanged between the A point and the B point during the performance of karaoke, thereby controlling the timing of karaoke at both points. However, since performance timing control according to the synchronization signal is necessary during performance, the performance may be interrupted unnaturally.
JP 2005-77485 A

本発明は、かかる従来例の有する不都合を改善し、特に、遠隔にあるA地点とB地点の実演をミックスする際に生じる両者の音の遅延を従来に比べ半減し得る遠隔実演再生方法等を提供することを課題とする。これを実演中における同期制御を伴うことなく実現することを課題とする。   The present invention improves the inconvenience of such a conventional example, and in particular, a remote demonstration playback method that can halve the delay of both sounds that occur when mixing the demonstration of A point and B point that are remote. The issue is to provide. It is an object to realize this without synchronization control during the demonstration.

上記課題を解決するため、本発明では、以下の構成を採っている。   In order to solve the above problems, the present invention adopts the following configuration.

(1)同一の映像又は/及び音声のガイドに基づいて、互いに遠隔にあるA地点とB地点とからそれぞれ入力された実演信号を、ミックスして再生する方法であって、A地点の装置とB地点の装置が、同一の前記ガイドを再生するガイドデータを通信ネットワークを介して相互に送信するステップと、A地点の装置とB地点の装置が、相互に受信した前記ガイドデータに基づいて同一のガイドを同時に再生するステップと、A地点の装置とB地点の装置が、前記再生したガイドを視聴する実演家から実演信号の入力を受け付け、当該入力を受け付けた実演信号を通信ネットワークを介して相互に送信するステップと、A地点の装置とB地点の装置が、相互に受信した前記実演信号と自装置に直接入力された実演信号とをミックスして再生するステップと、を含むことを特徴とした遠隔実演再生方法。 (1) Based on the same video or / and audio guide, a method for mixing and reproducing demonstration signals respectively input from points A and B that are remote from each other, The device at the B point transmits the guide data for reproducing the same guide to each other via the communication network, and the device at the A point and the device at the B point are the same based on the received guide data. And the device at point A and the device at point B receive a demonstration signal input from a performer who views the reproduced guide, and the demonstration signal is received via a communication network. The step of transmitting to each other, and the device at the point A and the device at the point B mix and reproduce the demonstration signal received mutually and the demonstration signal directly input to the own device. Remote demonstration reproducing method comprising the steps, a.

本発明では、映像や音声のガイドがA地点からB地点へ、また、B地点からA地点に送信され、相互に受信したガイドがA地点とB地点とで同時に再生される。そして、A地点の実演家はA地点で再生されるガイドを視聴しながら、B地点の実演家はB地点で再生されるガイドを視聴しながら、各実演を行なう。各実演は、A地点からB地点へ、また、B地点からA地点へ、相互に送信される。各地点では、自装置に入力された実演と、相手方から受信した実演とがミックスして再生される。   In the present invention, video and audio guides are transmitted from the A point to the B point and from the B point to the A point, and the mutually received guides are reproduced simultaneously at the A point and the B point. The performer at point A performs each performance while viewing the guide reproduced at point A, while the performer at point B views the guide reproduced at point B. Each demonstration is sent to each other from point A to point B and from point B to point A. At each point, the performance input to the device and the performance received from the other party are mixed and reproduced.

各地点において、ガイドのタイミングと、相手方から受信した実演のタイミングとのタイムラグは、通信経路の片道分で済むので、従来に比べタイムラグを半減し得る。また、実演中においてA地点とB地点の同期制御を行なうこともないので、従来例のように実演中にガイドが不自然に途切れるおそれもない。   At each point, the time lag between the timing of the guide and the timing of the performance received from the other party is only one way of the communication path, so the time lag can be halved compared to the conventional case. Further, since the synchronous control of the points A and B is not performed during the demonstration, there is no possibility that the guide is unnaturally interrupted during the demonstration as in the conventional example.

本発明は次のように利用できる。例えば、ガイドとしてカラオケを再生し、このカラオケに合わせて遠隔地の実演家が歌を唄いデュエットすることができる。また、ガイドとしてリズムやメトロノームを再生し、このリズムやメトロノームに合わせて遠隔地の実演家が楽器を演奏し合奏することや、楽器の演奏と歌とを合わせることもできる。また、ガイドとして映画の映像を再生し、この映像に合わせて遠隔地の実演家がアフレコやアテレコを行なうことができる。   The present invention can be used as follows. For example, a karaoke can be played as a guide, and a remote performer can sing and duet along with the karaoke. You can also play a rhythm or metronome as a guide, and a remote performer can play and play an instrument along with the rhythm or metronome, or you can combine the performance of the instrument with a song. In addition, a movie image can be played as a guide, and a remote performer can perform post-recording and at-recording in accordance with this image.

(2)(1)の方法において、A地点の装置とB地点の装置が、各地点における前記実演家を撮像手段により撮像した撮像データを通信ネットワークを介して相互に送信するステップと、A地点の装置とB地点の装置が、相互に受信した前記撮像データと自装置に直接入力された撮像データとを合成し、当該合成映像を再生するステップと、を含むことを特徴とした遠隔実演再生方法。 (2) In the method of (1), the device at the point A and the device at the point B mutually transmit imaging data obtained by imaging the performer at each point by the imaging means via a communication network; And the device at the point B combine the received image data received with each other and the image data directly input to the own device, and reproduces the synthesized video. Method.

本発明では、A地点のカメラ映像がB地点に、B地点のカメラ映像がA地点に送信され、各地点で入力されたカメラ映像と合成される。このため、例えば、A地点の実演家とB地点の実演家とを一つの映像に合成すること等が可能となる。   In the present invention, the camera image at point A is transmitted to point B, and the camera image at point B is transmitted to point A, and is combined with the camera image input at each point. For this reason, for example, it is possible to combine the performer at point A and the performer at point B into one video.

(3)(1)の方法において、前記実演信号を相互に送信するステップでは、前記実演信号を前記ガイドデータとは異なるチャンネルで優先的に送信することを特徴とした遠隔実演再生方法。 (3) In the method of (1), in the step of transmitting the demonstration signal to each other, the demonstration signal is preferentially transmitted on a channel different from the guide data.

本発明では、ガイドと実演とを別々のチャンネルで送信し、ガイドの送信に対し実演の送信を優先するので、ガイドに対する実演の遅延を最小限に抑えることができる。   In the present invention, since the guide and the demonstration are transmitted on different channels and the transmission of the demonstration is prioritized over the transmission of the guide, the delay of the demonstration with respect to the guide can be minimized.

(4)同一の映像又は/及び音声のガイドに基づいて、互いに遠隔にあるA地点とB地点とからそれぞれ入力された実演信号を、ミックスして再生する1地点の実演再生装置であって、前記ガイドを再生するガイドデータを通信ネットワークを介して相手地点の装置に送信するガイド送信機能と、相手地点の装置から受信したガイドデータに基づいて相手地点と同一のガイドを相手地点と同時に再生する受信ガイド再生機能と、前記再生したガイドを視聴する実演家から実演信号の入力を受け付け、当該入力を受け付けた実演信号を通信ネットワークを介して相手地点の装置に送信する実演信号送信機能と、相手地点の装置から受信した実演信号と自装置に直接入力された実演信号とをミックスして再生するミキシング機能と、を備えたことを特徴とする遠隔実演再生装置。 (4) A one-point demonstration reproduction device that mixes and reproduces demonstration signals respectively input from point A and point B that are remote from each other based on the same video and / or audio guide, A guide transmission function for transmitting guide data for reproducing the guide to a device at a partner point via a communication network, and a guide that is the same as the partner point is reproduced at the same time as the partner point based on the guide data received from the device at the partner point. A reception guide reproduction function, a demonstration signal transmission function that receives an input of a demonstration signal from a performer who views the reproduced guide, and transmits the demonstration signal that has received the input to a device at a partner point via a communication network; A mixing function that mixes and reproduces the performance signal received from the device at the location and the performance signal directly input to the device itself. Remote demonstration reproducing apparatus characterized.

本発明では、上述した遠隔実演再生方法と同一の作用効果を奏する。   In this invention, there exists the same effect as the remote demonstration reproduction | regeneration method mentioned above.

本発明によれば、遠隔にあるA地点とB地点の実演をミックスする際に生じる両者の音の遅延を従来に比べ半減し得る。また、実演中においてA地点とB地点の同期制御を行なうこともないので、従来例のように実演中にガイドが不自然に途切れるおそれもない。   According to the present invention, it is possible to halve the delay of both sounds that occur when the remote demonstrations of point A and point B are mixed. Further, since the synchronous control of the points A and B is not performed during the demonstration, there is no possibility that the guide is unnaturally interrupted during the demonstration as in the conventional example.

以下、本発明の一実施形態を図面を参照しつつ説明する。上述したように本発明は、カラオケ、合奏、アフレコなど、種々の用途に利用することができるが、本実施形態は、カラオケに利用する場合を例に説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. As described above, the present invention can be used for various purposes such as karaoke, ensemble, and after-recording. However, the present embodiment will be described by taking the case of using the karaoke as an example.

まず、図1に基づいて本実施形態の概要を説明する。本実施形態では、B地点で再生するガイド(カラオケの映像および演奏)のデータは、A地点から送信する。同時に、A地点で再生するガイドデータを、B地点から送信する。両者のデータは同一のデータである。A地点では、B地点から送信されたガイドデータをストリーミング再生する。B地点では、A地点から送信されたガイドデータをストリーミング再生する。両地点におけるストリーミング再生は同時に開始する。ガイドデータが相手地点に届くまでに通信タイムラグT1を生じるが、A地点とB地点のストリーミング再生が同時に行なわれることによって相殺される。   First, an outline of the present embodiment will be described based on FIG. In the present embodiment, the data of the guide (karaoke video and performance) reproduced at the B point is transmitted from the A point. At the same time, guide data to be reproduced at point A is transmitted from point B. Both data are the same data. At the point A, the guide data transmitted from the point B is streamed and reproduced. At the point B, the guide data transmitted from the point A is reproduced by streaming. Streaming playback at both points starts simultaneously. A communication time lag T1 occurs until the guide data reaches the partner point, but it is offset by streaming playback at points A and B at the same time.

A地点とB地点で同時にイントロがスタートし、その後、A地点の歌手がカラオケを聴きながら歌を歌い始める(ヴォーカル・イン)。同時に、B地点の歌手もカラオケを聴きながら歌を歌い始めるものとする。この時点で、両者の歌のタイミングは一致している。   The intro starts at point A and point B at the same time, and then the singer at point A starts singing while listening to karaoke (vocal in). At the same time, the singer at point B starts to sing while listening to karaoke. At this point, the timings of both songs are the same.

A地点で歌われた歌は、B地点にライブ配信される。B地点で歌われた歌はA地点にライブ配信される。そして、A地点では、A地点の歌とB地点からライブ配信された歌とがミックスされて再生される。B地点では、B地点の歌とA地点からライブ配信された歌とがミックスされて再生される。AB地点間で歌のデータを送信する際に通信タイムラグT2を生じるので、A地点ではB地点の歌がT2遅れて再生され、B地点ではA地点の歌がT2遅れて再生される。しかしながら、図6に示した従来例がT1+T2の遅延を伴ったのに比べ、およそ、遅延を半減することができる。   The song sung at point A is distributed live at point B. The song sung at point B is distributed live at point A. At the point A, the song at the point A and the song distributed live from the point B are mixed and reproduced. At the B point, the song at the B point and the song distributed live from the A point are mixed and reproduced. Since a communication time lag T2 is generated when song data is transmitted between the AB points, the song at the B point is reproduced with a delay of T2 at the A point, and the song at the A point is reproduced with a T2 delay at the B point. However, as compared with the conventional example shown in FIG. 6 with a delay of T1 + T2, the delay can be halved.

図2は、本実施形態における通信カラオケシステム(実演再生装置)の構成図である。A地点のシステムとB地点のシステムは、同一の構成となっているので、A地点のシステムについて構成を説明する。通信カラオケシステムは、カラオケ制御手段1と、遠隔デュエット制御手段2と、演奏開始同期手段3と、映像・演奏バッファ4とを備えている。また、通信カラオケシステムは、ヴォーカルバッファ5と、映像合成手段6と、合成映像バッファ7とを有する。更に、通信カラオケシステムは、バッファ再生手段8と、遠隔通信手段9と、楽曲データベース(DB)10とを備えている。これに加え、通信カラオケシステムは、マイク11、デジタルカメラ12、スピーカ13、ディスプレイモニター14、操作盤15およびリモコンインターフェース(I/F)16を有する。   FIG. 2 is a configuration diagram of the communication karaoke system (demonstration playback device) in the present embodiment. Since the system at the point A and the system at the point B have the same configuration, the configuration of the system at the point A will be described. The communication karaoke system includes karaoke control means 1, remote duet control means 2, performance start synchronization means 3, and video / performance buffer 4. The communication karaoke system also includes a vocal buffer 5, a video composition unit 6, and a composite video buffer 7. Further, the communication karaoke system includes a buffer reproduction means 8, a remote communication means 9, and a music database (DB) 10. In addition to this, the communication karaoke system includes a microphone 11, a digital camera 12, a speaker 13, a display monitor 14, an operation panel 15, and a remote control interface (I / F) 16.

カラオケ制御手段1は、カラオケの操作盤15やリモコンI/F16からの入力に応じてカラオケの選曲、キー調整、テンポ調整、演奏中止などカラオケの基本的な機能を提供する。   The karaoke control means 1 provides basic karaoke functions such as karaoke song selection, key adjustment, tempo adjustment, and performance stop according to inputs from the karaoke operation panel 15 or remote control I / F 16.

遠隔デュエット制御手段2は、遠隔にあるA地点の歌手とB地点の歌手とのデュエットを実現するが、その構成は後ほど詳述する。   The remote duet control means 2 realizes a duet between the singer at the point A and the singer at the point B which are remote, and the configuration will be described in detail later.

演奏開始同期手段3は、A地点のカラオケとB地点のカラオケとを同時に再生開始させるための準備を行なう。   The performance start synchronization means 3 makes preparations for starting playback of the karaoke at the point A and the karaoke at the point B at the same time.

映像・演奏バッファ4は、B地点から送られたガイド(カラオケの映像および演奏)データを一時蓄積する。   The video / performance buffer 4 temporarily stores guide (karaoke video and performance) data sent from the point B.

ヴォーカルバッファ5は、B地点から送られたヴォーカルデータ(実演信号)を一時蓄積する。   The vocal buffer 5 temporarily stores vocal data (demonstration signal) sent from the point B.

映像合成手段6は、A地点のデジタルカメラ12で撮影した映像と、B地点のデジタルカメラで撮影された映像とを合成する。   The video composition means 6 synthesizes the video photographed by the digital camera 12 at the point A and the video photographed by the digital camera at the point B.

合成映像バッファ7は、映像合成手段6によって合成された映像のデータを一時蓄積する。   The synthesized video buffer 7 temporarily stores the video data synthesized by the video synthesizing means 6.

バッファ再生手段8は、映像・演奏バッファ4、ヴォーカルバッファ5および合成映像バッファ7に一時蓄積されたデータをストリーミング再生する。   The buffer playback means 8 performs streaming playback of the data temporarily stored in the video / performance buffer 4, vocal buffer 5, and composite video buffer 7.

遠隔通信手段9は、B地点の通信カラオケシステムの遠隔通信手段との間で、Peer−to−Peerのデータ通信を行なう。   The remote communication means 9 performs peer-to-peer data communication with the remote communication means of the communication karaoke system at point B.

楽曲DB10は、多数の楽曲のガイド(カラオケの映像および演奏)データをストリーミングファイル形式で格納している。   The music DB 10 stores a large number of music guide (karaoke video and performance) data in a streaming file format.

マイク11には、歌手(実演家)の歌声が入力される。デジタルカメラ12は、歌手の映像を撮影する。スピーカ13は、図示しないアンプとミキサーに接続され、マイク11から入力された歌とバッファ再生手段8が出力する音声(ガイド演奏とB地点の歌)とをミックスして出力する。ディスプレイモニター14は、バッファ再生手段8が出力する映像(カラオケ映像、歌手の合成映像)を表示する。操作盤15は、カラオケの選曲、キー調整、テンポ調整、演奏中止などカラオケの基本的な指示をカラオケ制御手段1に入力するボタンを備えている。リモコンI/F16は、操作盤15と同じ指示を入力できるボタンを備えたリモコンと、赤外線通信等の近距離無線通信を行なう。   The singing voice of the singer (demonstrator) is input to the microphone 11. The digital camera 12 takes a picture of a singer. The speaker 13 is connected to an amplifier and a mixer (not shown), and mixes and outputs the song input from the microphone 11 and the sound (guide performance and the song at the point B) output from the buffer reproducing means 8. The display monitor 14 displays the video (karaoke video, synthesized video of the singer) output from the buffer playback means 8. The operation panel 15 includes buttons for inputting basic karaoke instructions such as karaoke music selection, key adjustment, tempo adjustment, and performance stoppage to the karaoke control means 1. The remote control I / F 16 performs short-range wireless communication such as infrared communication with a remote control including a button capable of inputting the same instruction as the operation panel 15.

B地点の通信カラオケシステムもA地点の通信カラオケシステムと同一に構成されているが、B地点の通信カラオケシステムの構成については、上述したA地点の通信カラオケシステムの構成のうち、A地点とB地点とを読み替えるものとする。A地点の通信カラオケシステムとB地点の通信カラオケシステムは、インターネット等の通信ネットワークNを介してPeer−to−Peer通信を行なうようになっている。   The communication karaoke system at point B is configured in the same way as the communication karaoke system at point A. Regarding the configuration of the communication karaoke system at point B, among the configurations of the communication karaoke system at point A, the points A and B It shall be read as a point. The communication karaoke system at the point A and the communication karaoke system at the point B perform peer-to-peer communication via a communication network N such as the Internet.

図3は、遠隔デュエット制御手段2の構成図である。遠隔デュエット制御手段2は、A/D変換器21と、ライブ音声エンコーダ22と、ライブ音声バッファ23と、ライブ映像エンコーダ24と、ライブ映像バッファ25と、ストリーミング処理部26と、チャンネル分配処理部27と、主制御部28とを備えている。   FIG. 3 is a configuration diagram of the remote duet control means 2. The remote duet control means 2 includes an A / D converter 21, a live audio encoder 22, a live audio buffer 23, a live video encoder 24, a live video buffer 25, a streaming processing unit 26, and a channel distribution processing unit 27. And a main control unit 28.

A/D変換器21は、マイク11から入力される音声信号をデジタル信号に変換する。   The A / D converter 21 converts the audio signal input from the microphone 11 into a digital signal.

ライブ音声エンコーダ22は、マイクから入力された音声をストリーミング用データにエンコードする。   The live audio encoder 22 encodes audio input from the microphone into streaming data.

ライブ音声バッファ23は、ライブ音声エンコーダがエンコードした音声データを一時蓄積する。   The live audio buffer 23 temporarily stores audio data encoded by the live audio encoder.

ライブ映像エンコーダ24は、デジタルカメラ12によって撮像された歌手の映像データをストリーミング用データにエンコードする。   The live video encoder 24 encodes the video data of the singer imaged by the digital camera 12 into streaming data.

ライブ映像バッファ25は、ライブ映像エンコーダ24がエンコードした映像データを一時蓄積する。   The live video buffer 25 temporarily stores the video data encoded by the live video encoder 24.

ストリーミング処理部26は、楽曲DB10から演奏用に選択された楽曲のストリーミングファイル10fのデータをデータ片に時分割し、分割した各データ片のヘッダー(パケットのヘッダー)にガイド(カラオケ映像および演奏)データのチャンネルとしてチャンネル(CH)1のデータを付加し、ストリーミング出力を行なう。また、ストリーミング処理部26は、ライブ音声バッファ23に一時蓄積されたデータをデータ片に時分割し、分割した各データ片のヘッダー(パケットのヘッダー)にヴォーカルのチャンネルとしてCH2のデータを付加し、ストリーミング出力を行なう。また、ストリーミング処理部26は、ライブ映像バッファ25に一時蓄積されたデータをデータ片に時分割し、分割した各データ片のヘッダー(パケットのヘッダー)にカメラ映像のチャンネルとしてCH3のデータを付加し、ストリーミング出力を行なう。この際、ストリーミング処理部26は、予め成された設定に応じて、ストリーミング出力するデータの割合をチャンネルごとに制御し、ガイドデータに対しヴォーカルデータを優先的に送信する。   The streaming processing unit 26 time-divides the data of the streaming file 10f of the music selected for performance from the music DB 10 into data pieces, and guides (karaoke video and performance) to the header (packet header) of each divided data piece. The data of channel (CH) 1 is added as a data channel, and streaming output is performed. In addition, the streaming processing unit 26 time-divides the data temporarily stored in the live audio buffer 23 into data pieces, adds CH2 data as a vocal channel to the header (packet header) of each divided data piece, Perform streaming output. The streaming processing unit 26 time-divides the data temporarily stored in the live video buffer 25 into data pieces, and adds CH3 data as a camera video channel to the header (packet header) of each divided data piece. , Perform streaming output. At this time, the streaming processing unit 26 controls the ratio of data to be output for streaming for each channel according to a preset setting, and preferentially transmits vocal data to the guide data.

チャンネル分配処理部27は、B地点からストリーミング出力されるCH1〜CH3のデータ片を遠隔通信手段9を介して受信し、CH1のデータは映像演奏バッファ4へ、CH2のデータはヴォーカルバッファ5へ、CH3のデータは映像合成手段6にそれぞれ入力する。   The channel distribution processing unit 27 receives the CH1 to CH3 data pieces streamed from the point B via the remote communication means 9, the CH1 data to the video performance buffer 4, and the CH2 data to the vocal buffer 5. The data of CH3 is input to the video composition means 6, respectively.

主制御部28は、上記各要素の動作タイミング等の制御を行なう。   The main control unit 28 controls the operation timing of each of the above elements.

ここで、カラオケ制御手段1、遠隔デュエット制御手段2、演奏開始同期手段3、映像合成手段6およびバッファ再生装置8は、CPU等の情報処理装置がプログラムを実行することによって実現される。映像・演奏バッファ4、ヴォーカルバッファ5、合成映像バッファ7および楽曲DB10は、HDDやRAM等の記憶装置の記憶領域に形成される。遠隔通信手段9は、通信ネットワークNに接続し、B地点の通信カラオケシステムとPeer−to−Peer通信を行なうことに適したNICなどの通信装置である。遠隔デュエット制御手段2、映像合成手段6およびバッファ再生手段8をはじめ、各手段は、ハードロジックにより構成してもよい。   Here, the karaoke control means 1, the remote duet control means 2, the performance start synchronization means 3, the video composition means 6 and the buffer reproduction device 8 are realized by an information processing apparatus such as a CPU executing a program. The video / performance buffer 4, vocal buffer 5, composite video buffer 7 and music DB 10 are formed in a storage area of a storage device such as an HDD or RAM. The remote communication means 9 is a communication device such as a NIC that is connected to the communication network N and is suitable for peer-to-peer communication with a communication karaoke system at point B. Each unit including the remote duet control unit 2, the video composition unit 6, and the buffer reproduction unit 8 may be configured by hard logic.

次に、本実施形態の動作を図4を参照しながら説明する。   Next, the operation of the present embodiment will be described with reference to FIG.

(S1)A地点の通信カラオケシステムとB地点の通信カラオケシステムとの間で演奏開始同期処理を実行する。演奏開始同期手段3は、B地点の通信カラオケシステムに対し、遠隔通信手段9を介してpingを実行し、テストパケットの送信から応答の受信までにかかった時間の半分を通信タイムラグ予測時間として記憶する。 (S1) A performance start synchronization process is executed between the communication karaoke system at point A and the communication karaoke system at point B. The performance start synchronization means 3 pings the communication karaoke system at the point B via the remote communication means 9, and stores half of the time taken from the transmission of the test packet to the reception of the response as the estimated communication time lag time. To do.

(S2:ガイド送信機能)次に、A地点の演奏開始同期手段3は、B地点の通信カラオケシステムに対し、演奏開始を指示するコマンドを送信すると同時に、通信タイムラグ予測時間の時間待ちを行い、この通信タイムラグ予測時間の時間待ちを完了すると同時に、予め選曲されたカラオケのガイドデータの送信をB地点に向けて開始する。A地点において通信タイムラグ予測時間が経過する時に、B地点の通信カラオケシステムに演奏開始のコマンドが届き、B地点の通信カラオケシステムは、演奏開始のコマンドを受信すると同時に、同じカラオケのガイドデータの送信をA地点に向けて開始する。
このとき、ストリーミング処理部26は、楽曲ストリーミングファイル10fのガイドデータを時分割し、分割したデータ片のヘッダー(パケットのヘッダー)にCH1のデータを付加し、遠隔通信手段9を介して相手の通信カラオケシステムにストリーミング送信する。
(S2: Guide transmission function) Next, the performance start synchronization means 3 at the point A transmits a command instructing the performance start to the communication karaoke system at the point B, and at the same time waits for the estimated communication time lag, Simultaneously with waiting for the communication time lag prediction time, transmission of karaoke guide data selected in advance is started toward point B. When the predicted communication time lag has elapsed at point A, a performance start command arrives at the communication karaoke system at point B, and the communication karaoke system at point B receives the performance start command and simultaneously transmits the same karaoke guide data. Start towards point A.
At this time, the streaming processing unit 26 time-divides the guide data of the music streaming file 10f, adds CH1 data to the header of the divided data piece (packet header), and communicates with the other party via the remote communication means 9. Stream to karaoke system.

(S3)B地点の通信カラオケシステムは、A地点からストリーミング送信されるガイドデータを次々受信する。A地点から送信されたガイドデータがB地点に届くまでに通信タイムラグT1を生じるが、A地点とB地点のガイドデータは同時に再生されているので、この通信タイムラグT1はAB間に相対的な遅延を生じさせない。A地点から送信されたガイドデータはB地点の遠隔通信手段9に受信される。B地点のチャンネル分配処理部27は、次々受信するデータ片に付加されたチャンネル識別情報を判定し、ガイドデータにはCH1が付加されているので、映像・演奏バッファ4に一時蓄積する。 (S3) The communication karaoke system at the point B receives the guide data streamed from the point A one after another. A communication time lag T1 occurs until the guide data transmitted from the point A reaches the point B. Since the guide data at the points A and B are reproduced at the same time, the communication time lag T1 is a relative delay between the points AB. Does not cause. The guide data transmitted from the point A is received by the remote communication means 9 at the point B. The channel distribution processing unit 27 at the point B determines the channel identification information added to the data pieces to be received one after another, and since CH1 is added to the guide data, it is temporarily stored in the video / performance buffer 4.

(S4:受信ガイド再生機能)B地点のバッファ再生手段8は、映像・演奏バッファ4に次々と蓄積されるガイドデータを再生し、カラオケの演奏音声をスピーカ13から出力すると共に、カラオケの字幕などの映像をディスプレイモニター14に表示する。 (S4: Reception guide reproduction function) The buffer reproduction means 8 at the point B reproduces guide data accumulated one after another in the video / performance buffer 4, outputs karaoke performance sound from the speaker 13, and also includes karaoke subtitles, etc. Are displayed on the display monitor 14.

(S5)B地点の歌手は、スピーカ13とディスプレイモニター14から出力されるガイドを視聴しながら、歌を唄う。 (S5) The singer at point B sings a song while watching the guide output from the speaker 13 and the display monitor 14.

(S6)歌声は、マイク11から入力され、A/D変換器21によってデジタル信号に変換された後、ライブ音声エンコーダ22によってストリーミング用のデータにエンコードされ、ライブ音声バッファ23に一時蓄積される。
また、B地点のデジタルカメラ12がB地点の歌手を撮影する。デジタルカメラ12から出力された映像データは、ライブ映像エンコーダ24によってストリーミング用のデータにエンコードされ、ライブ映像バッファ25に一時蓄積される。
(S6) The singing voice is input from the microphone 11, converted into a digital signal by the A / D converter 21, encoded into streaming data by the live audio encoder 22, and temporarily stored in the live audio buffer 23.
In addition, the digital camera 12 at the B point photographs the singer at the B point. Video data output from the digital camera 12 is encoded into streaming data by the live video encoder 24 and temporarily stored in the live video buffer 25.

(S7:実演信号送信機能)B地点のストリーミング処理部26は、S2の時点から継続的にガイドデータを時分割し、当該分割したデータ片のヘッダーにチャンネル識別情報としてCH1を付加し、また、ライブ音声バッファ23に一時蓄積された歌手のヴォーカルデータを時分割し、当該分割したデータ片のヘッダーにチャンネル識別情報としてCH2を付加し、また、ライブ映像バッファ25に一時蓄積された歌手の映像データを時分割し、当該分割したデータ片のヘッダーにチャンネル識別情報としてCH3を付加し、各チャンネルのデータ片をシリアルに並べ、遠隔通信手段9を介してA地点の通信カラオケシステムにストリーミング出力する。この際、ストリーミング処理部26は、送信するデータ片の割合を調整しガイドデータのデータ片よりもヴォーカルデータのデータ片の割合を多くする(例えば1:2)。これにより、ガイドデータに対しヴォーカルデータの送信を優先的に行なう。このようにすると、A地点で再生するガイド演奏に対しB地点から受信して再生するヴォーカルの遅延を最小限に抑えることができる。 (S7: Demonstration signal transmission function) The B point streaming processing unit 26 continuously time-divides the guide data from the point of S2, adds CH1 as channel identification information to the header of the divided data piece, and The singer's vocal data temporarily stored in the live audio buffer 23 is time-divided, CH2 is added to the header of the divided data piece as channel identification information, and the singer's video data temporarily stored in the live video buffer 25 And CH3 is added as channel identification information to the header of the divided data pieces, the data pieces of each channel are serially arranged, and are streamed to the communication karaoke system at point A via the remote communication means 9. At this time, the streaming processing unit 26 adjusts the ratio of the data pieces to be transmitted to increase the ratio of the data pieces of the vocal data to the data pieces of the guide data (for example, 1: 2). Thus, the vocal data is preferentially transmitted with respect to the guide data. In this way, it is possible to minimize the delay of vocals received and reproduced from point B with respect to the guide performance reproduced at point A.

(S8)A地点のチャンネル分配処理部27は、B地点からストリーミング出力されたデータ片を遠隔通信手段9を介して次々受信し、各データ片のヘッダーに付加されたチャンネル識別情報を判定し、CH1のデータ片は映像・演奏バッファ4へ、CH2のデータ片はヴォーカルバッファ5へ、CH3のデータ片は映像合成手段6へ、それぞれ入力する。このとき、B地点から送信されたデータがA地点に到達するまでの通信タイムラグT2を生じる。 (S8) The channel distribution processing unit 27 at the point A receives the data pieces streamed out from the point B one after another via the remote communication means 9, determines the channel identification information added to the header of each data piece, The CH1 data piece is inputted to the video / performance buffer 4, the CH2 data piece is inputted to the vocal buffer 5, and the CH3 data piece is inputted to the video composition means 6, respectively. At this time, a communication time lag T2 is generated until the data transmitted from the B point reaches the A point.

(S9)A地点の映像合成手段6は、A地点のデジタルカメラ12から入力される映像と、チャンネル分配処理部27から入力されたB地点のカメラ映像とを合成し、合成映像バッファ8に一時蓄積する。映像合成の方法は、例えば、AB各地点における歌手のステージ背景を青一色とし、クロマキー技術により映像を合成する。
図5は、映像合成のイメージである。A地点の歌手の映像とB地点の歌手の映像とを合成し、この画面に歌詞の字幕を重ねて表示してもよい。また、カラオケのガイド映像の表示領域と、カメラ映像の表示領域とを分けて、両者を同時に表示してもよい。
(S9) The video composition means 6 at the point A synthesizes the video input from the digital camera 12 at the point A and the camera video at the point B input from the channel distribution processing unit 27, and temporarily stores them in the composite video buffer 8. accumulate. As a method of video composition, for example, the stage background of a singer at each point of AB is set to blue, and the video is synthesized by chroma key technology.
FIG. 5 is an image composition image. The video of the singer at the point A and the video of the singer at the point B may be combined and the lyrics subtitles may be superimposed and displayed on this screen. Alternatively, the display area for the karaoke guide video and the display area for the camera video may be divided and displayed simultaneously.

(S10:ミキシング機能)A地点のバッファ再生手段8は、映像・演奏バッファ4に一時蓄積されたカラオケのガイド演奏音と、ヴォーカルバッファ5に一時蓄積されたB地点の歌手のヴォーカル音声とをミキサーに通してミックスし、スピーカ13から出力する。また、A地点のマイク11から入力されたA地点の歌手の音声も直接ミキサーを通してミックスされ、スピーカ13から出力される。ミキサーでは、適宜エコー等のエフェクトをかけられるようになっている。 (S10: mixing function) The buffer reproduction means 8 at the point A is a mixer for the karaoke guide performance sound temporarily stored in the video / performance buffer 4 and the vocal sound of the singer B point temporarily stored in the vocal buffer 5. The sound is mixed and output from the speaker 13. The voice of the singer at point A input from the microphone 11 at point A is also mixed directly through the mixer and output from the speaker 13. In the mixer, effects such as echo can be applied as appropriate.

A地点とB地点のガイド演奏は、同時のタイミングで演奏されているため、A地点の歌手の歌と、B地点から送信されたB地点の歌手の歌は、A地点において通信タイムラグT2の分だけ遅延してスピーカから出力される。しかし、図6で説明した従来例に比べ、ヴォーカルの遅延を約半分に抑えることができる。   Since the guide performances at the points A and B are performed at the same time, the song of the singer at the point A and the song of the singer at the point B transmitted from the point B are equal to the communication time lag T2 at the point A. Is output from the speaker with a delay of only. However, the vocal delay can be reduced to about half compared to the conventional example described with reference to FIG.

また、A地点のバッファ再生手段8は、映像・演奏バッファ4に一時蓄積されたカラオケのガイド映像と、合成映像バッファに一時蓄積されたカメラ合成映像とを一画面に配置してディスプレイモニター14に表示する。   Also, the buffer playback means 8 at the point A arranges the karaoke guide video temporarily stored in the video / performance buffer 4 and the camera composite video temporarily stored in the composite video buffer on a single screen on the display monitor 14. indicate.

以上の動作は、A地点からガイドを送信し、このガイドに基づいてB地点で歌を唄い、B地点のヴォーカルデータをA地点に送信し、A地点で、A地点の歌とB地点から送信された歌とをミックスして再生する動作を中心に説明した。これと全く同じ動作が、A地点とB地点とを逆にして同時に実行されている。逆の動作については、A地点とB地点とを読み替えることによって知ることができる。   In the above operation, a guide is transmitted from point A, a song is sung at point B based on this guide, vocal data of point B is transmitted to point A, and a song at point A and a point B are transmitted at point A. The explanation is centered on the operation of mixing and playing the song. Exactly the same operation is performed simultaneously with the points A and B reversed. About the reverse operation | movement, it can know by replacing A point and B point.

以上説明したように、本実施形態によれば、一地点で再生するガイド演奏に対し相手地点から送信されるヴォーカルの遅延を図6の従来例の半分程度に抑えることが可能となる。かつ、実演中においてA地点とB地点の同期制御を行なうこともないので、従来例のように実演中にガイドが不自然に途切れるおそれもない。また、一地点から相手地点に送信するヴォーカルデータをガイドデータに対し優先的に送信することによって、相手地点において再生するガイド演奏に対するヴォーカルの遅延を最低限に抑えることができる。また、一地点と相手地点のカメラ映像を合成して再生することによって、A地点の歌手とB地点の歌手とが一緒にデュエットしているイメージを盛り上げることができる。   As described above, according to the present embodiment, it is possible to suppress the delay of vocals transmitted from the opponent point to about half of the conventional example in FIG. 6 with respect to the guide performance reproduced at one point. In addition, since the synchronous control of the A point and the B point is not performed during the demonstration, there is no possibility that the guide is unnaturally interrupted during the demonstration as in the conventional example. Further, by transmitting the vocal data transmitted from one point to the opponent point with priority over the guide data, the delay of the vocal with respect to the guide performance played at the opponent point can be minimized. Also, by synthesizing and playing back the camera video at one point and the other point, it is possible to excite the image of the singer at point A and the singer at point B being together.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限るものではない。例えば、ストリーミングデータのチャンネル別送信機能は必ずしも搭載していなくてもよいし、カメラ映像の合成機能も必ずしも搭載していなくてもよい。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。   As mentioned above, although embodiment of this invention was described, this invention is not restricted to embodiment mentioned above. For example, the streaming data transmission function for each channel may not necessarily be installed, and the camera video composition function may not necessarily be installed. The effects described in the embodiments of the present invention are only the most preferable effects resulting from the present invention, and the effects of the present invention are limited to those described in the embodiments of the present invention. is not.

本発明の実施形態の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of embodiment of this invention. 本発明の実施形態である通信カラオケシステムの構成図である。It is a block diagram of the communication karaoke system which is embodiment of this invention. 図2に示す遠隔デュエット制御手段の構成図である。It is a block diagram of the remote duet control means shown in FIG. 図2に示す実施形態の動作を示すフローチャートである。It is a flowchart which shows operation | movement of embodiment shown in FIG. 図4に示すカメラ映像合成処理のイメージ図である。It is an image figure of the camera image | video synthetic | combination process shown in FIG. 従来例を説明するための説明図である。It is explanatory drawing for demonstrating a prior art example.

符号の説明Explanation of symbols

1 カラオケ制御手段
2 遠隔デュエット制御手段
3 演奏開始同期手段
4 映像・演奏バッファ
5 ヴォーカルバッファ
6 映像合成手段
7 合成映像バッファ
8 バッファ再生手段
9 遠隔通信手段
10 楽曲データベース
11 マイク
12 デジタルカメラ
13 スピーカ
14 ディスプレイモニター
15 操作盤
16 リモコンインターフェース
DESCRIPTION OF SYMBOLS 1 Karaoke control means 2 Remote duet control means 3 Performance start synchronization means 4 Video / performance buffer 5 Vocal buffer 6 Video composition means 7 Composite video buffer 8 Buffer playback means 9 Remote communication means 10 Music database 11 Microphone 12 Digital camera 13 Speaker 14 Display Monitor 15 Operation panel 16 Remote control interface

Claims (4)

同一の映像又は/及び音声のガイドに基づいて、互いに遠隔にあるA地点とB地点とからそれぞれ入力された実演信号を、ミックスして再生する方法であって、
A地点の装置とB地点の装置が、同一の前記ガイドを再生するガイドデータを通信ネットワークを介して相互に送信するステップと、
A地点の装置とB地点の装置が、相互に受信した前記ガイドデータに基づいて同一のガイドを同時に再生するステップと、
A地点の装置とB地点の装置が、前記再生したガイドを視聴する実演家から実演信号の入力を受け付け、当該入力を受け付けた実演信号を通信ネットワークを介して相互に送信するステップと、
A地点の装置とB地点の装置が、相互に受信した前記実演信号と自装置に直接入力された実演信号とをミックスして再生するステップと、
を含むことを特徴とした遠隔実演再生方法。
Based on the same video or / and audio guide, a method of mixing and playing demonstration signals input from points A and B that are remote from each other,
The device at point A and the device at point B mutually transmit guide data for reproducing the same guide via a communication network; and
The device at point A and the device at point B simultaneously play back the same guide based on the received guide data;
The device at the point A and the device at the point B receive an input of a performance signal from a performer who views the reproduced guide, and transmit the performance signal that has received the input to each other via a communication network;
The device at the point A and the device at the point B mix and reproduce the demonstration signal received from each other and the demonstration signal directly inputted to the own device;
A remote demonstration playback method characterized by including:
請求項1記載の方法において、
A地点の装置とB地点の装置が、各地点における前記実演家を撮像手段により撮像した撮像データを通信ネットワークを介して相互に送信するステップと、
A地点の装置とB地点の装置が、相互に受信した前記撮像データと自装置に直接入力された撮像データとを合成し、当該合成映像を再生するステップと、
を含むことを特徴とした遠隔実演再生方法。
The method of claim 1, wherein
The device at the point A and the device at the point B mutually transmit imaging data obtained by imaging the performer at each point by the imaging means via a communication network;
The device at the point A and the device at the point B synthesize the image data received from each other and the image data directly input to the own device, and reproduce the synthesized video;
A remote demonstration playback method characterized by including:
請求項1記載の方法において、
前記実演信号を相互に送信するステップでは、前記実演信号を前記ガイドデータとは異なるチャンネルで優先的に送信することを特徴とした遠隔実演再生方法。
The method of claim 1, wherein
In the step of transmitting the demonstration signals to each other, the demonstration signal is preferentially transmitted on a channel different from the guide data.
同一の映像又は/及び音声のガイドに基づいて、互いに遠隔にあるA地点とB地点とからそれぞれ入力された実演信号を、ミックスして再生する1地点の実演再生装置であって、
前記ガイドを再生するガイドデータを通信ネットワークを介して相手地点の装置に送信するガイド送信機能と、
相手地点の装置から受信したガイドデータに基づいて相手地点と同一のガイドを相手地点と同時に再生する受信ガイド再生機能と、
前記再生したガイドを視聴する実演家から実演信号の入力を受け付け、当該入力を受け付けた実演信号を通信ネットワークを介して相手地点の装置に送信する実演信号送信機能と、
相手地点の装置から受信した実演信号と自装置に直接入力された実演信号とをミックスして再生するミキシング機能と、
を備えたことを特徴とする遠隔実演再生装置。
A one-point demonstration playback device that mixes and reproduces demonstration signals respectively input from point A and point B that are remote from each other based on the same video or / and audio guide,
A guide transmission function for transmitting guide data for reproducing the guide to a device at a partner point via a communication network;
A reception guide reproduction function for reproducing the same guide as the other party at the same time as the other party based on the guide data received from the device at the other party;
A demonstration signal transmission function for receiving a demonstration signal input from a performer who views the reproduced guide, and transmitting the demonstration signal that has received the input to a device at a partner point via a communication network;
A mixing function that mixes and reproduces the demonstration signal received from the device at the other party and the demonstration signal input directly to the own device,
A remote demonstration playback device characterized by comprising:
JP2008282936A 2008-11-04 2008-11-04 Remote demonstration reproducing method and device Pending JP2010112981A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008282936A JP2010112981A (en) 2008-11-04 2008-11-04 Remote demonstration reproducing method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008282936A JP2010112981A (en) 2008-11-04 2008-11-04 Remote demonstration reproducing method and device

Publications (1)

Publication Number Publication Date
JP2010112981A true JP2010112981A (en) 2010-05-20

Family

ID=42301609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008282936A Pending JP2010112981A (en) 2008-11-04 2008-11-04 Remote demonstration reproducing method and device

Country Status (1)

Country Link
JP (1) JP2010112981A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210464A (en) * 2012-03-30 2013-10-10 Xing Inc Karaoke system
CN103377649A (en) * 2012-04-20 2013-10-30 上海渐华科技发展有限公司 Method for achieving network karaoke antiphonal singing in real time
JP2014127904A (en) * 2012-12-27 2014-07-07 Daiichikosho Co Ltd Singing moving image generating system
JP2014126742A (en) * 2012-12-27 2014-07-07 Daiichikosho Co Ltd Singing moving image generation system
JP2014127905A (en) * 2012-12-27 2014-07-07 Daiichikosho Co Ltd Singing moving image generating system
JP2014235231A (en) * 2013-05-31 2014-12-15 株式会社第一興商 Communication karaoke system having characteristic in starting musical performance in communication duet
JP2015022176A (en) * 2013-07-19 2015-02-02 株式会社第一興商 Karaoke system having feature in communication duet delay determination scheme
JP2015041091A (en) * 2013-08-23 2015-03-02 株式会社第一興商 Communication karaoke system having feature in switching processing of voice and the like during communication duet
JP2016206575A (en) * 2015-04-28 2016-12-08 株式会社第一興商 Karaoke system responding to transmission delay of singing voice
WO2022269796A1 (en) * 2021-06-23 2022-12-29 ヤマハ株式会社 Device, ensemble system, audio reproduction method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210464A (en) * 2012-03-30 2013-10-10 Xing Inc Karaoke system
CN103377649A (en) * 2012-04-20 2013-10-30 上海渐华科技发展有限公司 Method for achieving network karaoke antiphonal singing in real time
CN103377649B (en) * 2012-04-20 2015-09-09 上海渐华科技发展有限公司 A kind of method realizing real-time network Karaoke antiphonal singing
JP2014127904A (en) * 2012-12-27 2014-07-07 Daiichikosho Co Ltd Singing moving image generating system
JP2014126742A (en) * 2012-12-27 2014-07-07 Daiichikosho Co Ltd Singing moving image generation system
JP2014127905A (en) * 2012-12-27 2014-07-07 Daiichikosho Co Ltd Singing moving image generating system
JP2014235231A (en) * 2013-05-31 2014-12-15 株式会社第一興商 Communication karaoke system having characteristic in starting musical performance in communication duet
JP2015022176A (en) * 2013-07-19 2015-02-02 株式会社第一興商 Karaoke system having feature in communication duet delay determination scheme
JP2015041091A (en) * 2013-08-23 2015-03-02 株式会社第一興商 Communication karaoke system having feature in switching processing of voice and the like during communication duet
JP2016206575A (en) * 2015-04-28 2016-12-08 株式会社第一興商 Karaoke system responding to transmission delay of singing voice
WO2022269796A1 (en) * 2021-06-23 2022-12-29 ヤマハ株式会社 Device, ensemble system, audio reproduction method, and program

Similar Documents

Publication Publication Date Title
JP2010112981A (en) Remote demonstration reproducing method and device
JP4423790B2 (en) Demonstration system, demonstration method via network
JP5331494B2 (en) Karaoke service system, terminal device
US20140359122A1 (en) Session terminal apparatus and network session system
JP5729393B2 (en) Performance system
JP2006041886A (en) Information processor and method, recording medium, and program
JP2008089849A (en) Remote music performance system
KR20120128142A (en) Mixing data delivery server
JP4422656B2 (en) Remote multi-point concert system using network
JP6220576B2 (en) A communication karaoke system characterized by a communication duet by multiple people
JP5454530B2 (en) Karaoke equipment
JP2013029744A (en) Karaoke device
JP6601615B2 (en) Movie processing system, movie processing program, and portable terminal
JP6007098B2 (en) Singing video generation system
JPH1169228A (en) Music sound reproducing machine
JP2009094701A (en) Information processing device and program
JP2009100134A (en) Information processor and program
JP7468111B2 (en) Playback control method, control system, and program
JP6182011B2 (en) Karaoke system
JP6170738B2 (en) A communication karaoke system characterized by the communication method during communication duets
JP2007199415A (en) Karaoke system
JP5358033B1 (en) Radio program distribution system, radio program link processing method, and radio program link processing program
JPH1115486A (en) Music reproducing device
JP3947583B2 (en) Music playback system
JP5510435B2 (en) Karaoke device and program