JP2009094701A - Information processing device and program - Google Patents
Information processing device and program Download PDFInfo
- Publication number
- JP2009094701A JP2009094701A JP2007262116A JP2007262116A JP2009094701A JP 2009094701 A JP2009094701 A JP 2009094701A JP 2007262116 A JP2007262116 A JP 2007262116A JP 2007262116 A JP2007262116 A JP 2007262116A JP 2009094701 A JP2009094701 A JP 2009094701A
- Authority
- JP
- Japan
- Prior art keywords
- information
- video
- processing
- audio
- video information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、映像情報を加工する技術に関する。 The present invention relates to a technique for processing video information.
通信ネットワークを介してセッションを行うための技術が知られている(例えば、特許文献1参照)。このような技術を用いれば、遠隔の地にいる演奏者同士でも気軽にセッションを行うことが可能となる。通信ネットワークを介してセッションを行う場合、演奏音等の音声に加えて演奏者の映像を再生すれば、より臨場感が高まり、セッションの娯楽性を高めることができる。
しかし、単に演奏者の映像を映し出すだけでは、映像の再生が単調に終始し、実際に演奏者が会してセッションを行う場合に比べて現実味や面白味に欠けるという問題点があった。
そこで、本発明は、通信ネットワークを介してセッションを行うに際し、映像に変化を与えて娯楽性を高めることを目的としている。
However, simply displaying the video of the performer has the problem that the video playback is monotonous and lacks realism and fun compared to the case where the performer actually meets and conducts a session.
Therefore, an object of the present invention is to enhance entertainment by giving a change to an image when a session is performed via a communication network.
本発明に係る情報処理装置は、音声情報と、複数の映像情報と、各々が前記複数の映像情報のいずれかに対応付けられた複数の位置情報とを通信ネットワークを介して取得する取得手段と、前記取得手段により取得された複数の映像情報を、当該映像情報に対応付けられた前記位置情報に応じた態様で加工する映像加工手段と、前記映像加工手段により加工された複数の映像情報と前記取得手段により取得された音声情報とを出力する出力手段とを備えることを特徴とする。 An information processing apparatus according to the present invention includes an acquisition unit configured to acquire audio information, a plurality of pieces of video information, and a plurality of pieces of position information each associated with any one of the plurality of pieces of video information via a communication network. , Video processing means for processing a plurality of video information acquired by the acquisition means in a manner corresponding to the position information associated with the video information, and a plurality of video information processed by the video processing means, Output means for outputting voice information acquired by the acquisition means.
本発明に係る情報処理装置において、前記映像加工手段は、前記映像情報が出力されることにより表示される映像の位置又は大きさを変更する加工を行う構成としてもよい。
また、前記映像加工手段は、前記複数の映像情報を合成する加工を行う構成としてもよい。
In the information processing apparatus according to the present invention, the video processing means may be configured to perform processing to change a position or size of a video displayed when the video information is output.
The video processing means may be configured to perform processing for combining the plurality of video information.
本発明に係る情報処理装置において、前記位置情報は、対応する前記映像情報が表す映像を撮影した撮影手段と被写体との距離を表す情報であり、前記映像加工手段は、前記映像情報が表す映像の大きさを前記位置情報が表す距離に応じて変更する加工を行う構成としてもよい。
また、前記位置情報は、対応する前記映像情報が表す映像を撮影した撮影手段のある撮影方向を基準とした撮影角度を表す情報であり、前記映像加工手段は、前記映像情報が表す映像の表示位置を当該映像情報に対応する前記位置情報が表す撮影角度に応じて変更する加工を行う構成としてもよい。
あるいは、前記位置情報は、対応する前記映像情報が表す映像を撮影した撮影手段の位置を表す情報であり、前記映像加工手段は、前記映像情報が表す映像の表示位置を前記複数の位置情報が表す位置に応じて変更する加工を行う構成としてもよい。
In the information processing apparatus according to the present invention, the position information is information indicating a distance between a photographing unit that captures a video represented by the corresponding video information and a subject, and the video processing unit is a video represented by the video information. It is good also as a structure which performs the process which changes the magnitude | size of according to the distance which the said positional information represents.
The position information is information indicating a shooting angle based on a shooting direction of a shooting unit that has shot a video represented by the corresponding video information, and the video processing unit displays a video represented by the video information. It is good also as a structure which performs the process which changes a position according to the imaging | photography angle which the said positional information corresponding to the said video information represents.
Alternatively, the position information is information indicating a position of a photographing unit that has captured the video represented by the corresponding video information, and the video processing unit is configured to display a display position of the video represented by the video information by the plurality of position information. It is good also as a structure which performs the process changed according to the position to represent.
本発明に係る情報処理装置において、前記音声情報及び前記映像情報は、それぞれ、対象者の音声及び映像を表し、前記位置情報は、測位手段により計測された前記対象者の位置を表し、前記映像加工手段は、前記映像情報が表す映像の表示位置を前記複数の位置情報が表す位置に応じて変更する加工を行う構成としてもよい。 In the information processing apparatus according to the present invention, the audio information and the video information respectively represent a target person's voice and video, and the position information represents the position of the target person measured by positioning means, and the video The processing means may be configured to perform processing to change the display position of the video represented by the video information according to the positions represented by the plurality of position information.
本発明に係る情報処理装置において、前記映像情報に対する加工の態様を指定する指定手段を備え、前記映像加工手段は、前記位置情報に応じた態様の加工と、前記指定手段により指定された態様の加工とを行う構成としてもよい。 The information processing apparatus according to the present invention further comprises designation means for designating a mode of processing for the video information, wherein the video processing means has a mode according to the position information and a mode designated by the designation means. It is good also as composition which performs processing.
本発明に係る情報処理装置は、前記音声情報に対応付けられる位置情報を取得する位置情報取得手段と、前記位置情報取得手段により取得された位置情報に応じた態様で前記音声情報を加工する音声加工手段とを備える構成としてもよい。
あるいは、本発明に係る情報処理装置は、前記映像加工手段により前記複数の映像情報に行われた加工の態様に応じて前記音声情報を加工する音声加工手段を備える構成としてもよい。
The information processing apparatus according to the present invention includes a position information acquisition unit that acquires position information associated with the sound information, and a sound that processes the sound information in a manner corresponding to the position information acquired by the position information acquisition unit. It is good also as a structure provided with a process means.
Alternatively, the information processing apparatus according to the present invention may include an audio processing unit that processes the audio information according to a mode of processing performed on the plurality of pieces of video information by the video processing unit.
本発明に係る情報処理装置において、前記取得手段により取得された音声情報と映像情報とを同期させる同期手段を備え、前記取得手段は、前記音声情報及び映像情報のそれぞれについて、各々の再生タイミングを表す時間情報を対応付けて取得し、前記同期手段は、前記映像加工手段による加工の前又は後に、前記音声情報及び映像情報のそれぞれに対応付けられた前記時間情報に基づいて当該音声情報及び映像情報を同期させる構成としてもよい。 The information processing apparatus according to the present invention further includes a synchronization unit that synchronizes the audio information and the video information acquired by the acquisition unit, wherein the acquisition unit sets a reproduction timing for each of the audio information and the video information. The time information is acquired in association with each other, and the synchronization unit is configured to obtain the audio information and the video based on the time information associated with each of the audio information and the video information before or after the processing by the video processing unit. It is good also as a structure which synchronizes information.
なお、本発明の実施の形態は、上述した情報処理装置に限らず、コンピュータにかかる情報処理装置の機能を実現させるためのプログラムや、かかるプログラムを記憶した記録媒体であってもよい。 The embodiment of the present invention is not limited to the information processing apparatus described above, and may be a program for realizing the functions of the information processing apparatus related to a computer or a recording medium storing such a program.
本発明によれば、通信ネットワークを介してセッションを行うに際し、映像に変化を与えて娯楽性を高めることが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, when performing a session via a communication network, it becomes possible to give a change to an image | video and to improve entertainment property.
[実施形態]
図1は、本発明の一実施形態であるネットワークセッションシステムの全体構成を概略的に示す図である。同図に示すように、ネットワークセッションシステム10は、第1セッション地点と第2セッション地点とをネットワーク130を介して接続した構成を有する。ネットワーク130は、第1セッション地点と第2セッション地点との間の通信を可能にする通信ネットワークであり、例えば、インターネットである。
[Embodiment]
FIG. 1 is a diagram schematically showing an overall configuration of a network session system according to an embodiment of the present invention. As shown in the figure, the
本実施形態において、第1セッション地点には、3人の演奏者がいるものとする。また、第2セッション地点は、第1セッション地点において記録された音声や映像を再生する地点であり、ここには1人の演奏者がいるものとする。第1セッション地点の3人の演奏者は、それぞれ、ここではキーボード、ドラム又はギターのいずれかを演奏し、第2セッション地点の演奏者は、第1セッション地点の演奏に合わせて歌唱するヴォーカリストであるとする。 In the present embodiment, it is assumed that there are three performers at the first session point. In addition, the second session point is a point where audio and video recorded at the first session point are reproduced, and it is assumed that there is one player. The three performers at the first session point each play a keyboard, a drum or a guitar here, and the performers at the second session point are vocalists who sing along with the performance at the first session point. Suppose there is.
第1セッション地点には、複数のマイクMICa、MICb及びMICcと、複数のカメラCAMa、CAMb及びCAMcと、情報送信装置110とが設けられている。マイクMICa、MICb及びMICcは、それぞれ、キーボードの演奏者(以下「演奏者a」という。)、ドラムの演奏者(以下「演奏者b」という。)又はギターの演奏者(以下「演奏者c」という。)のいずれかに対応するマイクロホンであり、対応する演奏者の演奏音や歌唱音を収音する。カメラCAMa、CAMb及びCAMcは、それぞれ、演奏者a、b又はcのいずれかに対応するビデオカメラであり、対応する演奏者を撮影する。なお、カメラCAMa、CAMb及びCAMcは、被写体である演奏者までの距離を測定できるよう構成されている。被写体までの距離は、例えば、オートフォーカス機構を有するビデオカメラであればフォーカス時の測距により求めることができる。情報送信装置110は、マイクMICa、MICb及びMICcにより収音された演奏音を表す音声情報と、カメラCAMa、CAMb及びCAMcにより撮影された映像を表す映像情報とを取得し、適当なデータ処理を施して第2セッション地点へと送信する。なお、情報送信装置110は、自動で処理を行ってもよいが、演奏者以外の操作者が操作できるように構成されている。
A plurality of microphones MICa, MICb, and MICc, a plurality of cameras CAMa, CAMb, and CAMc, and an
第2セッション地点には、情報処理装置120と、複数のスクリーンSCRa、SCRb及びSCRcと、複数のスピーカSPa、SPb及びSPcと、マイクMICdとが設けられている。情報処理装置120は、情報送信装置110から送信された音声情報及び映像情報と、マイクMICdから供給された音声情報とを取得し、適当なデータ処理を施すことによりこれらを加工して出力する。なお、情報処理装置120も、自動で処理を行ってもよいが、演奏者以外の操作者が操作できるように構成されている。スクリーンSCRa、SCRb及びSCRcは、それぞれ、情報処理装置120から出力された映像情報を投影するためのスクリーンである。スクリーンSCRa、SCRb及びSCRcは、ここでは、液晶等の表示素子により構成されたスクリーンであるとするが、別途設けられる投影装置(プロジェクタ等)により投影された映像を表示する布や幕であってもよい。この場合には、投影装置が映像情報を取得するように構成すればよい。スピーカSPa、SPb及びSPcは、それぞれ、いわゆるマルチスピーカであり、情報処理装置120から出力された音声情報を音声として再生する。スピーカSPa、SPb及びSPcは、それぞれ、いわゆるアレイスピーカであると望ましい。ここにおいて、スピーカSPaは、他のスピーカSPb及びSPcから見て相対的に「左」、スピーカSPbは相対的に「中央」、スピーカSPcは相対的に「右」に、それぞれ位置している。マイクMICdは、ヴォーカリスト(以下「演奏者d」という。)に対応するマイクロホンであり、演奏者dの歌唱音声を収音する。なお、本実施形態においては、マイクMICdの位置は固定であり、あらかじめ決められた位置であるとする。
The
以上の構成のもと、本実施形態のネットワークセッションシステム10においては、情報送信装置110が音声情報及び映像情報を送信し、情報処理装置120が再生地点での再生に適した態様となるようにこれらを加工して出力する。
本実施形態の情報処理装置120は、情報の加工に際して2通りの態様をとり得る。一方は、取得した映像情報に対応する位置情報に基づいて映像情報を加工するものであり、他方は、取得した映像情報に対応する位置情報に基づいて映像情報及び音声情報を加工するものである。そこで、以下では、前者を第1実施例、後者を第2実施例として説明する。なお、第2実施例においては、第1実施例と重複する説明を適宜省略する。
Based on the above configuration, in the
The
(1)第1実施例
図2は、本実施例に係る情報送信装置110の構成を示すブロック図である。同図に示すように、情報送信装置110は、入力部111と、制御部112と、記憶部113と、操作部114と、通信部115とを備える。なお、情報送信装置110は、汎用のパーソナルコンピュータであってもよいし、図2の構成を備えた専用の装置であってもよい。
(1) First Example FIG. 2 is a block diagram illustrating a configuration of an
入力部111は、音声情報及び映像情報を入力するインタフェースである。入力部111は、マイクMICa、MICb及びMICc並びにカメラCAMa、CAMb及びCAMcと接続され、それぞれから音声情報又は映像情報を取得する。図2において、符号Aaは演奏者aに対応する音声情報を表し、符号Vaは演奏者aに対応する映像情報を表している。同様に、符号Ab、Ac、Vb及びVcは、それぞれ、添字に対応する演奏者の音声情報又は映像情報を表している。
The
また、入力部111は、映像情報Va、Vb及びVcとともに、各々の映像情報に対応付けられた位置情報Pa、Pb及びPcを取得する。位置情報としては、例えば、各カメラCAMa〜CAMcの相対的な位置関係を表す情報(以下「相対位置情報」という。)や、各カメラCAMa〜CAMcから対応する演奏者までの距離を表す情報(以下「距離情報」という。)を用いることができる。相対位置情報とは、図1に示す構成でいえば、カメラCAMaが相対的に「左」、カメラCAMbが相対的に「中央」、カメラCAMcが相対的に「右」であることを示す情報をいう。これらの位置情報は、映像情報に対応付けられて付加された形式でもよいし、映像情報に含まれる形式でもよい。
The
制御部112は、CPU(Central Processing Unit)等の演算装置やメモリを備え、記憶部113に記憶されたプログラムを実行することにより情報送信装置110の各部の動作を制御する。制御部112は、プログラムを実行することにより、音声情報や映像情報にデータ処理を実行する。制御部112が実行するデータ処理には、音声情報や映像情報を所定のフォーマットに変換するエンコード処理と、音声情報に位置情報及び時間情報を付加するとともに、映像情報に時間情報を付加する付加処理とが含まれる。
The
記憶部113は、ハードディスク等の書き換え可能な記憶媒体を備え、制御部112が実行するプログラムを記憶する。操作部114は、ボタンやスライダ(ツマミ)等の操作子を備え、操作者による操作を受け付ける。操作部114は、操作者による操作を受け付けると、これを表すデータを制御部112に供給する。通信部115は、ネットワーク130を介して通信を行うためのインタフェースであり、制御部112から供給された音声情報や映像情報を情報処理装置120に送信する。
The
図3は、本実施例に係る情報処理装置120の構成を示すブロック図である。同図に示すように、情報処理装置120は、通信部121と、制御部122と、記憶部123と、操作部124と、音声入力部125と、音声出力部126と、映像出力部127とを備える。なお、情報処理装置120は、汎用のパーソナルコンピュータであってもよいし、図3の構成を備えた専用の装置であってもよい。
FIG. 3 is a block diagram illustrating the configuration of the
通信部121は、通信部115と同様のインタフェースであり、情報送信装置110から送信された音声情報や映像情報を受信し、制御部122に供給する。制御部122は、演算装置やメモリを備え、記憶部123に記憶されたプログラムを実行することにより情報処理装置120の各部の動作を制御する。制御部122は、プログラムを実行することにより、音声情報や映像情報にデータ処理を実行する。制御部122が実行するデータ処理には、所定のフォーマットでエンコードされた音声情報や映像情報をデコードするデコード処理と、映像情報を位置情報に基づいて加工する加工処理と、複数の音声情報をミキシングするミキシング処理とが含まれる。なお、制御部122は、音声情報と映像情報のそれぞれに対する専用のDSP(Digital Signal Processor)などによってデータ処理を行う構成であってもよい。
The
記憶部123は、書き換え可能な記憶媒体を備え、制御部122が実行するプログラムを記憶する。操作部124は、操作者による操作を操作子により受け付け、これを表すデータを制御部122に供給する。音声入力部125は、マイクMICdと接続され、マイクMICdから音声情報を取得する。音声出力部126は、制御部122によりミックス処理が実行された音声情報を取得し、これをスピーカSPa、SPb及びSPcに出力する。映像出力部127は、制御部122により加工処理が実行された映像情報を取得し、これをスクリーンSCRa、SCRb及びSCRcに出力する。
The
情報送信装置110及び情報処理装置120の構成は、以上のとおりである。続いて、情報送信装置110及び情報処理装置120のそれぞれの動作を説明する。
The configurations of the
図4は、本実施例における情報送信装置110の動作を示すフローチャートである。同図に示すように、情報送信装置110の制御部112は、まず、入力部111を介して演奏者a、b及びcに対応する音声情報と映像情報とを取得する(ステップS11)。次に、制御部112は、映像情報に位置情報を付加するか否かを判断する(ステップS12)。制御部112は、この判断を操作部114からのデータがあるか否かにより行う。すなわち、ここにおいて映像情報に位置情報を付加するか否かは、操作者の任意である。操作者は、映像情報に必要な位置情報が付加されていない場合や、映像情報に付加されている位置情報を変更する場合などに、必要に応じて、操作部114を操作することにより位置情報を付加することができる。よって、制御部112は、映像情報に付加すべき位置情報がある場合に、その位置情報を付加する(ステップS13)。
FIG. 4 is a flowchart showing the operation of the
続いて、制御部112は、音声情報と映像情報のそれぞれに時間情報を付加する処理を実行する(ステップS14)。ここにおいて、時間情報とは、複数の音声情報及び映像情報を同期して再生できるようにするための情報をいう。時間情報は、例えば、音声情報及び映像情報の再生タイミングを示す情報であり、情報処理装置120は、この時間情報が示すタイミングで複数の音声情報及び映像情報を読み出すことによって、時間的なずれを生じさせることなくこれらを再生することができる。
Subsequently, the
音声情報及び映像情報に時間情報を付加したら、制御部112は、音声情報及び映像情報を所定のフォーマットで符号化するエンコード処理を実行し(ステップS15)、エンコードされた音声情報及び映像情報を通信部115に出力し、通信部115を介して情報処理装置120に送信する(ステップS16)。
When the time information is added to the audio information and the video information, the
図5は、本実施例における情報処理装置120の動作を示すフローチャートである。情報処理装置120は、情報送信装置110から以上のように音声情報及び映像情報が送信されると、同図に示す処理を実行する。まず、情報処理装置120の制御部122は、音声情報及び映像情報を受信すると、通信部121を介してこれらを取得する(ステップS21)。また、制御部122は、第1セッション地点の音声情報及び映像情報を取得しつつ、音声入力部125を介してマイクMICdからの音声情報、すなわち第2セッション地点の演奏者(演奏者d)の音声情報を取得する(ステップS22)。
FIG. 5 is a flowchart showing the operation of the
次に、制御部122は、通信部121を介して取得した音声情報及び映像情報を同期させる処理を実行する(ステップS23)。制御部122は、音声情報及び映像情報に付加された時間情報を参照し、これらが時間的なずれを生じることなく再生されるように各音声情報及び映像情報の再生タイミングを調整する。
Next, the
制御部122は、映像情報を同期させたら、これを加工する加工処理を実行する(ステップS24)。このとき、制御部122は、各々の映像情報に対応付けられた位置情報を参照し、映像情報を加工する。例えば、制御部122は、位置情報に含まれる距離情報に基づき、スクリーンSCRa〜SCRcに表示される演奏者がほぼ等しい大きさとなるように各映像情報を拡大又は縮小する加工を行う。
また、制御部122は、マイクMICdとスクリーンSCRa〜SCRcとの距離を表す情報を更に用いて、演奏者a〜dが一堂に会しているように見えるように映像情報の倍率を変更する加工を行ってもよい。この場合、マイクMICdとスクリーンSCRa〜SCRcとの距離を表す情報は、制御部122のメモリ等にあらかじめ記憶されていると望ましいが、操作者が入力してもよい。
After synchronizing the video information, the
Further, the
制御部122は、音声情報を同期させたら、これにミキシング処理を実行する(ステップS25)。このとき、制御部122は、マイクMICa〜MICdのそれぞれから取得した音声情報を、スピーカSPa〜SPcにおいて適当なバランスで再生されるように分配する比率を決定し、ミキシングを行う。本実施例においては、マイクMICaからの音声情報は主にスピーカSPaから出力され、マイクMICbからの音声情報は主にスピーカSPbから出力される、といったように、第2セッション地点において、第1セッション地点における演奏者の相対的な位置関係と一致する態様で音声情報が再生される。なお、マイクMICdからの音声情報については、スピーカSPa〜SPcに配分する比率を特に問わない。
When the audio information is synchronized, the
その後、制御部122は、ミキシングされた音声情報と加工された映像情報とを出力し、音声出力部126及び映像出力部127を介してスピーカSPa〜SPc及びスクリーンSCRa〜SCRcに供給する(ステップS26)。これにより、第2セッション地点においては、演奏者a〜dの演奏音や歌唱音がミキシングされて再生され、演奏者a〜cの加工された映像が演奏者dの背後に再生される。
Thereafter, the
本実施形態のネットワークセッションシステム10は、以上のように動作することによって、複数の音声情報及び映像情報の再生タイミングを同期させるとともに、加工した映像情報により表示される映像の大きさを適宜に変更することが可能となる。ゆえに、本実施形態のネットワークセッションシステム10によれば、遠隔の地で撮影された複数の映像を違和感なく再生し、あたかも全演奏者が実際に会しているような臨場感のあるリアルなセッションを行うことが可能となる。
The
なお、本実施形態においては、セッション地点が2箇所であるが、セッション地点が3箇所以上に分かれていてもよい。このような場合は、表示される複数の映像の大きさが等しくなるように複数のカメラの設置位置を調整するのが比較的困難であるため、本実施例による効果がより顕著となるといえる。 In the present embodiment, there are two session points, but the session points may be divided into three or more points. In such a case, since it is relatively difficult to adjust the installation positions of the plurality of cameras so that the sizes of the plurality of displayed images are equal, it can be said that the effect of this embodiment becomes more remarkable.
(2)第2実施例
図6は、本実施例に係る情報送信装置110の構成を示すブロック図である。本実施例において、情報送信装置110は、音声情報に位置情報を対応付ける点が第1実施例と異なっている。また、情報処理装置120は、音声情報に対応付けられた位置情報に基づいて音声情報を加工する点が第1実施例と異なっている。そこで、本実施例ではこれらの点を中心に説明する。
(2) Second Embodiment FIG. 6 is a block diagram illustrating a configuration of an
制御部112は、音声情報Aa、Ab及びAcに位置情報を付加する。制御部112が音声情報Aa、Ab及びAcに付加する位置情報は、それぞれ、同一の演奏者に係る映像情報に付加された位置情報である。すなわち、音声情報Aaには映像情報Vaと同一の位置情報Paが付加され、以下同様に、音声情報Abには位置情報Pb、音声情報Acには位置情報Pcが付加される。すなわち、制御部112は、映像情報に対応付けられた位置情報を特定し、特定した位置情報を音声情報に付加して対応付ける処理を行う。
The
図7は、本実施例における情報送信装置110の動作を示すフローチャートである。同図に示すように、本実施例における情報送信装置110の動作は、音声情報に位置情報を付加するステップ(ステップS1A)がステップS13とS14の間に追加される点を除けば、第1実施例における動作(図4参照)と同様である。ステップS1Aにおいて、制御部112は、上述した要領で音声情報に位置情報を付加する。なお、制御部112は、ステップS13において、ユーザの操作による位置情報が映像情報に付加された場合には、その位置情報も音声情報に付加する。その後、制御部112は、音声情報及び映像情報を出力し、情報処理装置120に送信する。
FIG. 7 is a flowchart showing the operation of the
図8は、本実施例における情報処理装置120の動作を示すフローチャートである。同図に示すように、本実施例における情報処理装置120の動作は、音声情報を加工するステップ(ステップS2A)がステップS24とS25に追加される点を除けば、第1実施例における動作(図5参照)と同様である。ステップS2Aにおいて、制御部122は、ステップS24において映像情報に行われた加工の態様に応じて音声情報を加工する。制御部122は、例えば、ある映像情報に対して、その映像情報が表す映像を拡大する加工を行った場合には、当該映像情報と同一の位置情報が付加された音声情報が表す演奏音の音量を増加させ、その映像情報が表す映像を縮小する加工を行った場合には、当該映像情報と同一の位置情報が付加された音声情報が表す演奏音の音量を低減させる加工を行う。その後、制御部122は、同期及び加工が行われた音声情報をミキシングし、これを加工した映像情報とともに出力する。
FIG. 8 is a flowchart showing the operation of the
なお、本実施例において、音声情報は、付加された位置情報が映像情報に付加されたものと同一のものであるため、映像情報に行われた加工の態様と同様の態様で加工される。しかしながら、音声情報は、映像情報に行われた加工の態様によるのではなく、付加された位置情報に基づいて加工されてもよい。 In the present embodiment, the audio information is processed in the same manner as the processing performed on the video information because the added position information is the same as that added to the video information. However, the audio information may be processed based on the added position information, not based on the mode of processing performed on the video information.
本実施形態のネットワークセッションシステム10は、以上のように動作することによって、再生される映像の加工の態様に応じて演奏音を加工することが可能となる。ゆえに、本実施形態のネットワークセッションシステム10は、本実施例に従って動作することにより、第1実施例の場合に比べ、よりリアリティのあるセッションを行うことが可能となる。
The
[変形例]
本発明は、上述した実施形態に限らず、その他の形態でも実施し得る。本発明に対しては、例えば、以下のような変形を適用することが可能である。なお、以下に示す変形例は、各々を適宜に組み合わせてもよい。
[Modification]
The present invention is not limited to the above-described embodiment, and may be implemented in other forms. For example, the following modifications can be applied to the present invention. Note that the following modifications may be combined as appropriate.
(1)変形例1
本発明に係る情報処理装置は、音声情報や映像情報の加工を操作者の指定に基づいて行ってもよい。例えば、操作者は、上述した操作部124を介して加工の態様を指定し、制御部122は、操作者により指定された態様の加工を行うようにすることができる。このとき、操作者は、演奏の内容に応じて音声情報や映像情報の加工の態様を決定する。例えば、ギターの演奏者cが楽曲のあるパートをソロで演奏する場合、操作者は、演奏者cに対応する映像を右側のスクリーンSCRcではなく中央のスクリーンSCRbに表示させるよう指定したり、演奏者cに対応する音声を他の音声よりも音量が大きくなるよう指定したりしてもよい。また、この場合、操作者は、演奏者cに対応する映像が拡大されるよう指定を行ってもよい。すなわち、操作者は、映像情報については、映像の拡大又は縮小や表示されるスクリーンの切り替えなどを指定することが可能であり、音声情報については、演奏音の音量や再生されるスピーカの切り替えなどを指定することが可能である。例えば、制御部122は、表示されるスクリーンを入れ替えるよう指定された場合には、相対位置情報によらずに、操作者の指定のみによって映像情報の出力先を決定してもよい。
(1) Modification 1
The information processing apparatus according to the present invention may process audio information or video information based on an operator's designation. For example, the operator can specify the processing mode via the
なお、本発明に係る情報処理装置は、音声情報や映像情報の加工に際し、位置情報に応じた態様の加工と操作者の指定に応じた態様の加工の双方を行ってもよいが、位置情報に応じた態様の加工に代えて操作者の指定に応じた態様の加工を行うようにしてもよい。
また、上述した実施形態においては、音声情報や映像情報の加工が同期処理(ステップS23)の後に行われたが、本発明に係る情報処理装置は、音声情報や映像情報の加工を同期処理の前に行ってもよい。
Note that the information processing apparatus according to the present invention may perform both of the processing according to the position information and the processing according to the designation by the operator when processing the audio information and the video information. Instead of processing according to the mode, processing according to the mode specified by the operator may be performed.
In the above-described embodiment, the processing of the audio information and the video information is performed after the synchronization processing (step S23). However, the information processing apparatus according to the present invention performs the processing of the audio information and the video information on the synchronization processing. You may go before.
(2)変形例2
本発明において、位置情報は、上述した相対位置情報や距離情報に限らない。例えば、上述したカメラCAMa〜CAMcの撮影方向が天地方向又は左右方向に回転可能であり、その回転角が計測可能である場合、位置情報は、その回転角を表す情報であってもよい。ここにおいて、回転角を表す情報とは、ある撮影方向を基準とし、演奏者を撮影している方向とその基準となる方向とのずれ(角度)を表す情報である。
(2) Modification 2
In the present invention, the position information is not limited to the relative position information and distance information described above. For example, when the shooting direction of the cameras CAMa to CAMc described above can be rotated in the vertical direction or the horizontal direction, and the rotation angle can be measured, the position information may be information indicating the rotation angle. Here, the information representing the rotation angle is information representing a deviation (angle) between the direction in which the performer is photographed and the direction serving as the reference with respect to a certain photographing direction.
かかる情報を位置情報として用いた場合、本発明に係る情報処理装置は、この位置情報に基づいて映像の位置や演奏音の定位点を制御することができ、これらを変更するように映像情報や音声情報を加工することが可能である。例えば、上述した実施形態において、ギターの演奏者cがドラムの演奏者bに近づくように(すなわち、右から左に)移動し、カメラCAMcが演奏者cを追うように回転しながら撮影を行った場合、位置情報は、時間の経過に従って回転角が変化する情報となる。制御部122は、このような位置情報を取得した場合、スクリーンSCRcに表示される演奏者cの映像が右から左に移動するような加工を映像情報に対して行う。また、このとき、制御部122は、演奏者cの演奏音が映像に伴って移動しているように知覚されるような加工を音声情報に対して行ってもよい。
When such information is used as position information, the information processing apparatus according to the present invention can control the position of the video and the localization point of the performance sound based on this position information, It is possible to process voice information. For example, in the above-described embodiment, the guitar player c moves so as to approach the drum player b (that is, from right to left), and the camera CAMc rotates while following the player c. In this case, the position information is information whose rotation angle changes with time. When such position information is acquired, the
また、位置情報は、測位手段により計測された演奏者の位置を表す情報であってもよい。この場合において、測位手段は、例えば、いわゆるICタグ等の情報(電波等)を発信する発信手段と、この情報を受信する受信手段とにより構成することができる。この構成において、演奏者は、発信手段を自身と共に移動するように携帯し、受信手段は、発信手段から発信された情報を受信することにより、演奏者の位置を特定することができる。この場合、本発明に係る情報送信装置は、この発信手段が特定した位置を位置情報として取得し、これを映像情報と対応付けて送信する。
なお、かかる測位手段を実現する技術としては、例えば、UWB(Ultra Wide Band)などが挙げられる。
Further, the position information may be information indicating the position of the performer measured by the positioning means. In this case, the positioning means can be constituted by, for example, a transmitting means for transmitting information (such as a radio wave) such as a so-called IC tag and a receiving means for receiving this information. In this configuration, the performer carries the transmitting means so as to move with the player, and the receiving means can specify the position of the performer by receiving the information transmitted from the transmitting means. In this case, the information transmission apparatus according to the present invention acquires the position specified by the transmission means as position information, and transmits the position information in association with the video information.
In addition, as a technique which implement | achieves this positioning means, UWB (Ultra Wide Band) etc. are mentioned, for example.
(3)変形例3
本発明に係る情報処理装置は、複数の映像情報を合成する加工を行ってもよい。例えば、スクリーンに表示される複数の映像の隣り合う辺の部分を合成し、複数の映像が1つの映像になるように映像情報を加工してもよい。このようにすれば、1つのスクリーンで映像を再生することが可能となる。
(3) Modification 3
The information processing apparatus according to the present invention may perform processing for combining a plurality of pieces of video information. For example, the video information may be processed so that the plurality of videos are combined into one video by combining adjacent side portions of the videos displayed on the screen. In this way, it is possible to reproduce the video on one screen.
なお、このような加工を行う場合、第1セッション地点においては、演奏者をいわゆるブルーバック(ブルースクリーン)を用いて撮影するのが望ましい。このようにすれば、映像情報から演奏者の映像を抽出することが容易となるからである。この場合、演奏者の映像情報の他に演奏者の背景を構成する映像情報を別途取得し、これらを合成するようにしてもよい。なお、背景部分に相当する映像情報は、情報処理装置がこれを記憶していてもよいし、通信ネットワークを介して外部装置から取得してもよい。
この変形例は、上述した変形例2と組み合わせて適用されると、より好適である。
When performing such processing, it is desirable to photograph the performer using a so-called blue back (blue screen) at the first session point. This is because it is easy to extract the performer's video from the video information. In this case, in addition to the video information of the performer, video information that constitutes the background of the performer may be acquired separately and synthesized. Note that the video information corresponding to the background portion may be stored in the information processing apparatus, or may be acquired from an external apparatus via a communication network.
This modification is more suitable when applied in combination with Modification 2 described above.
(4)変形例4
第2セッション地点には、光の照射方向が映像に応じて変化する照明装置が設けられてもよい。この照明装置は、いわゆるスポットライトのように、局所的な照明であると望ましい。このようにすれば、映像上の演奏者があたかもその場にいるような演出効果を行うことができる。
(4) Modification 4
The second session point may be provided with an illumination device in which the light irradiation direction changes according to the video. This illuminating device is preferably a local illumination such as a so-called spotlight. In this way, it is possible to produce an effect as if the performer on the video is on the spot.
照明装置の照射方向を制御するためには、映像情報に対応付けられた位置情報を用いればよい。例えば、位置情報が回転角を表す情報である場合、照明装置は、照射方向をこの回転角に応じて変化させることにより光の照射方向を映像に応じて変化させることが可能となる。
なお、この照明装置は、操作者により点灯及び消灯を制御される構成でもよい。
In order to control the irradiation direction of the illumination device, position information associated with video information may be used. For example, when the position information is information indicating a rotation angle, the illumination device can change the irradiation direction of light according to the image by changing the irradiation direction according to the rotation angle.
The lighting device may be configured to be turned on and off by an operator.
(5)変形例5
第2セッション地点には、演奏者dが映像を確認するための表示装置が設けられてもよい。この表示装置は、いわゆるカラオケ装置の表示部のように、演奏者dが歌唱する楽曲の歌詞を表示してもよい。また、この表示装置は、スクリーンに表示される映像と同様の映像を表示してもよい。
(5) Modification 5
A display device may be provided at the second session point for the player d to check the video. This display device may display the lyrics of music sung by the player d like a display unit of a so-called karaoke device. In addition, the display device may display an image similar to the image displayed on the screen.
(6)変形例6
本発明において、取得する音声情報及び映像情報の数は、上述した実施形態に限定されない。上述した実施形態においては、第1セッション地点から3人の演奏者に対応する音声情報及び映像情報が送信されたが、演奏者をより多数としてもよいし、2人としてもよい。また、第1実施例においては、3人の演奏音を3つのマイクで収音せずに1つのマイクで収音してもよい。
(6) Modification 6
In the present invention, the number of audio information and video information to be acquired is not limited to the above-described embodiment. In the above-described embodiment, audio information and video information corresponding to three performers are transmitted from the first session point. However, the number of performers may be more or two. In the first embodiment, the performance sounds of three people may be picked up by one microphone instead of picked up by three microphones.
また、第2セッション地点の演奏者の人数も、変更可能である。例えば、第2セッション地点に複数の演奏者がおり、それぞれの演奏音を複数のマイクで収音してもよい。あるいは、第2セッション地点には演奏者がおらず、第1セッション地点の演奏音と映像を再生するのみであってもよい。
また、第2セッション地点における出力先(スクリーン及びスピーカ)の数も、変更可能である。
Also, the number of performers at the second session point can be changed. For example, there may be a plurality of performers at the second session point, and each performance sound may be collected by a plurality of microphones. Alternatively, there may be no performer at the second session point, and only the performance sound and video at the first session point may be reproduced.
The number of output destinations (screen and speakers) at the second session point can also be changed.
さらに、セッション地点は、3箇所以上あってもよい。本発明に係る情報処理装置は、このような場合であっても、時間情報を参照することによって複数の音声情報及び映像情報を同期させることが可能である。 Furthermore, there may be three or more session points. Even in such a case, the information processing apparatus according to the present invention can synchronize a plurality of audio information and video information by referring to the time information.
(7)変形例7
本発明におけるセッションは、歌唱や演奏を目的としたものに限らず、複数の対象者が集団で行う種々の活動を含み得る。例えば、通信ネットワークを介した会議において本発明を適用してもよいし、学校での授業等に本発明を適用してもよい。すなわち、本発明において収音や撮影の対象となる者は、演奏者に限らない。
(7) Modification 7
The session in the present invention is not limited to the purpose of singing or playing, but may include various activities performed by a plurality of subjects in a group. For example, the present invention may be applied to a meeting via a communication network, or may be applied to a class at school. That is, in the present invention, the person who is the target of sound collection and shooting is not limited to the performer.
(8)変形例8
本発明は、コンピュータに上述した制御部122の機能を実現させるためのプログラムとしても提供され得る。かかるプログラムは、これを記憶させた光ディスク等の記録媒体としても提供可能であり、また、インターネット等の通信ネットワークを介して所定のサーバ装置からコンピュータにダウンロードされ、これをインストールして利用可能にするなどの形態でも提供され得る。
(8) Modification 8
The present invention can also be provided as a program for causing a computer to realize the functions of the
10…ネットワークセッションシステム、110…情報送信装置、111…入力部、112…制御部、113…記憶部、114…操作部、115…通信部、120…情報処理装置、121…通信部、122…制御部、123…記憶部、124…操作部、125…音声入力部、126…音声出力部、127…映像出力部、130…ネットワーク
DESCRIPTION OF
Claims (12)
前記取得手段により取得された複数の映像情報を、当該映像情報に対応付けられた前記位置情報に応じた態様で加工する映像加工手段と、
前記映像加工手段により加工された複数の映像情報と前記取得手段により取得された音声情報とを出力する出力手段と
を備えることを特徴とする情報処理装置。 Obtaining means for obtaining audio information, a plurality of pieces of video information, and a plurality of pieces of position information each associated with any of the plurality of pieces of video information via a communication network;
Video processing means for processing a plurality of video information acquired by the acquisition means in a manner according to the position information associated with the video information;
An information processing apparatus comprising: output means for outputting a plurality of pieces of video information processed by the video processing means and audio information acquired by the acquisition means.
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the video processing unit performs processing to change a position or a size of a video displayed when the video information is output.
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the video processing unit performs processing to combine the plurality of video information.
前記映像加工手段は、前記映像情報が表す映像の大きさを前記位置情報が表す距離に応じて変更する加工を行う
ことを特徴とする請求項1に記載の情報処理装置。 The position information is information representing a distance between a photographing unit that photographed a video represented by the corresponding video information and a subject,
The information processing apparatus according to claim 1, wherein the video processing unit performs processing to change a size of a video represented by the video information according to a distance represented by the position information.
前記映像加工手段は、前記映像情報が表す映像の表示位置を当該映像情報に対応する前記位置情報が表す撮影角度に応じて変更する加工を行う
ことを特徴とする請求項1に記載の情報処理装置。 The position information is information that represents a shooting angle with reference to a shooting direction of a shooting unit that shot a video represented by the corresponding video information,
The information processing according to claim 1, wherein the video processing unit performs processing to change a display position of a video represented by the video information according to a shooting angle represented by the position information corresponding to the video information. apparatus.
前記映像加工手段は、前記映像情報が表す映像の表示位置を前記複数の位置情報が表す位置に応じて変更する加工を行う
ことを特徴とする請求項1に記載の情報処理装置。 The position information is information indicating the position of a photographing unit that has photographed the video represented by the corresponding video information,
The information processing apparatus according to claim 1, wherein the video processing unit performs processing to change a display position of a video represented by the video information in accordance with a position represented by the plurality of position information.
前記位置情報は、測位手段により計測された前記対象者の位置を表し、
前記映像加工手段は、前記映像情報が表す映像の表示位置を前記複数の位置情報が表す位置に応じて変更する加工を行う
ことを特徴とする請求項1に記載の情報処理装置。 The audio information and the video information represent the audio and video of the target person, respectively.
The position information represents the position of the subject measured by the positioning means,
The information processing apparatus according to claim 1, wherein the video processing unit performs processing to change a display position of a video represented by the video information in accordance with a position represented by the plurality of position information.
前記映像加工手段は、前記位置情報に応じた態様の加工と、前記指定手段により指定された態様の加工とを行う
ことを特徴とする請求項1に記載の情報処理装置。 A specifying means for specifying a processing mode for the video information;
The information processing apparatus according to claim 1, wherein the video processing unit performs processing in a mode according to the position information and processing in a mode specified by the specifying unit.
前記位置情報取得手段により取得された位置情報に応じた態様で前記音声情報を加工する音声加工手段と
を備えることを特徴とする請求項1に記載の情報処理装置。 Position information acquisition means for acquiring position information associated with the audio information;
The information processing apparatus according to claim 1, further comprising: an audio processing unit that processes the audio information in a manner corresponding to the position information acquired by the position information acquisition unit.
前記取得手段は、前記音声情報及び映像情報のそれぞれについて、各々の再生タイミングを表す時間情報を対応付けて取得し、
前記同期手段は、前記映像加工手段による加工の前又は後に、前記音声情報及び映像情報のそれぞれに対応付けられた前記時間情報に基づいて当該音声情報及び映像情報を同期させる
ことを特徴とする請求項1に記載の情報処理装置。 Synchronization means for synchronizing the audio information and the video information acquired by the acquisition means;
The acquisition means acquires time information representing each reproduction timing in association with each of the audio information and the video information,
The synchronization means synchronizes the audio information and video information based on the time information associated with each of the audio information and video information before or after processing by the video processing means. Item 4. The information processing apparatus according to Item 1.
音声情報と、複数の映像情報と、各々が前記複数の映像情報のいずれかに対応付けられた複数の位置情報とを通信ネットワークを介して取得する取得手段と、
前記取得手段により取得された複数の映像情報を、当該映像情報に対応付けられた前記位置情報に応じた態様で加工する映像加工手段と、
前記映像加工手段により加工された複数の映像情報と前記取得手段により取得された音声情報とを出力する出力手段
として機能させるためのプログラム。 Computer
Obtaining means for obtaining audio information, a plurality of pieces of video information, and a plurality of pieces of position information each associated with any of the plurality of pieces of video information via a communication network;
Video processing means for processing a plurality of video information acquired by the acquisition means in a manner according to the position information associated with the video information;
A program for causing a plurality of video information processed by the video processing means and audio information acquired by the acquisition means to function as output means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007262116A JP2009094701A (en) | 2007-10-05 | 2007-10-05 | Information processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007262116A JP2009094701A (en) | 2007-10-05 | 2007-10-05 | Information processing device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009094701A true JP2009094701A (en) | 2009-04-30 |
Family
ID=40666237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007262116A Pending JP2009094701A (en) | 2007-10-05 | 2007-10-05 | Information processing device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009094701A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015025934A (en) * | 2013-07-26 | 2015-02-05 | ブラザー工業株式会社 | Music performance device and music performance program |
WO2022196073A1 (en) * | 2021-03-18 | 2022-09-22 | ソニーグループ株式会社 | Information processing system, information processing method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07193798A (en) * | 1993-12-27 | 1995-07-28 | Hitachi Ltd | Video/acoustic communication equipment |
JP2000165831A (en) * | 1998-11-30 | 2000-06-16 | Nec Corp | Multi-point video conference system |
JP2001184044A (en) * | 1999-12-24 | 2001-07-06 | Hitachi Ltd | Picture synthesizing device |
JP2005117285A (en) * | 2003-10-07 | 2005-04-28 | Hitachi Ltd | Information input device, communication terminal and communication method |
-
2007
- 2007-10-05 JP JP2007262116A patent/JP2009094701A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07193798A (en) * | 1993-12-27 | 1995-07-28 | Hitachi Ltd | Video/acoustic communication equipment |
JP2000165831A (en) * | 1998-11-30 | 2000-06-16 | Nec Corp | Multi-point video conference system |
JP2001184044A (en) * | 1999-12-24 | 2001-07-06 | Hitachi Ltd | Picture synthesizing device |
JP2005117285A (en) * | 2003-10-07 | 2005-04-28 | Hitachi Ltd | Information input device, communication terminal and communication method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015025934A (en) * | 2013-07-26 | 2015-02-05 | ブラザー工業株式会社 | Music performance device and music performance program |
WO2022196073A1 (en) * | 2021-03-18 | 2022-09-22 | ソニーグループ株式会社 | Information processing system, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010112981A (en) | Remote demonstration reproducing method and device | |
CN108766408A (en) | A kind of electronic musical instrument ensemble system and method | |
WO2015151766A1 (en) | Projection photographing system, karaoke device, and simulation device | |
JP5748078B2 (en) | Music performance apparatus and music performance program | |
JP2008131379A (en) | Distribution system and terminal device | |
KR101414217B1 (en) | Real time image synthesis apparatus and image synthesis method | |
JP2001086371A (en) | Method and device for preparing video image | |
JP2017005371A (en) | Coaction video presentation device and coaction video presentation system | |
JP2008116816A (en) | Device and system for singing/playing | |
JP2008089849A (en) | Remote music performance system | |
JP2005026739A (en) | Video content producing apparatus and program thereof | |
JPH09247532A (en) | Image synthesis method and its device | |
JP2009094701A (en) | Information processing device and program | |
JP5256682B2 (en) | Information processing apparatus, information processing method, and program | |
JP2014186177A (en) | Reproduction device | |
JP5109496B2 (en) | Data distribution apparatus, data distribution method and program | |
JP6227456B2 (en) | Music performance apparatus and program | |
JP2006337964A (en) | Karaoke machine, program and ranking-totaling server | |
KR101405091B1 (en) | Personal video manufacturing system | |
JP6110731B2 (en) | Command input recognition system by gesture | |
KR19980087624A (en) | Karaoke player | |
JP4645955B2 (en) | How to create video data with audio | |
JP2020194030A (en) | Karaoke system | |
JP6601615B2 (en) | Movie processing system, movie processing program, and portable terminal | |
JP2014167576A (en) | Karaoke system and karaoke device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100820 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120807 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121009 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130326 |