JP2005333309A - Apparatus, method, system, and program for information processing - Google Patents
Apparatus, method, system, and program for information processing Download PDFInfo
- Publication number
- JP2005333309A JP2005333309A JP2004148724A JP2004148724A JP2005333309A JP 2005333309 A JP2005333309 A JP 2005333309A JP 2004148724 A JP2004148724 A JP 2004148724A JP 2004148724 A JP2004148724 A JP 2004148724A JP 2005333309 A JP2005333309 A JP 2005333309A
- Authority
- JP
- Japan
- Prior art keywords
- user
- operation input
- information
- processing
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Abstract
Description
本発明は、情報処理装置および情報処理方法、情報処理システム、並びに、プログラムに関し、特に、映像撮像中に入力される、ユーザの動作に関する情報に基づいて、撮像された映像に効果を付与したり、音声データを生成することが可能な情報処理装置および情報処理方法、情報処理システム、並びに、プログラムに関する。 The present invention relates to an information processing device, an information processing method, an information processing system, and a program, and in particular, provides an effect to a captured image based on information about a user's operation input during image capturing. The present invention relates to an information processing apparatus and information processing method, an information processing system, and a program that can generate audio data.
仮想体験を主体としたエンターテインメントとして、例えば、LBE(Location Based Entertainment)などがある。LBEは、例えば、近年の高密度記録技術、コンピュータによって作られた現実のような世界をユーザに感じさせることができる仮想現実感(Virtual Reality:バーチャルリアリティー)技術、更に、バーチャルリアリティと現実の世界をミックスし、連続した違和感の少ない3次元空間として人間に認識させる技術の総称である、複合現実感(Mixed Reality:ミクスドリアリティー)技術が発展してきたことにより実現可能となった、没入性の高い観客体験型のエンターテインメントである。LBEは、例えば、アミューズメントパークなどにおいて、視聴者が高い没入感を得ることができるような巨大スクリーンによる映像体験や、観客がストーリーの中のキャラクターに成りきることのできる体験型のコンテンツなどがある。 As entertainment mainly based on virtual experiences, for example, there is LBE (Location Based Entertainment). LBE is, for example, recent high-density recording technology, virtual reality (virtual reality) technology that allows users to feel the real world created by computers, and virtual reality and the real world. Highly immersive, made possible by the development of mixed reality technology, which is a collective term for technologies that mix humans and make humans recognize them as a continuous 3D space with little discomfort. It is entertainment of the audience experience type. For example, in an amusement park, LBE has a video experience with a huge screen that allows viewers to be highly immersive, and experience-based content that allows the audience to become characters in the story. .
また、近年の情報演算技術の発展により、音声データや映像データを略リアルタイムに処理することができるような技術がある(例えば、非特許文献1)
しかしながら、LBEは、ストーリーが予定されていること、年齢問わず誰でも参加できるようにインターフェースが簡易化されていることから、何度も繰り返し楽しめるエンターテインメントとは言い難い。 However, LBE is not an entertainment that can be enjoyed over and over again because the story is scheduled and the interface is simplified so that anyone can participate regardless of age.
また、映像データおよび音声データを処理することによるコンテンツ制作は、パーソナルコンピュータなどの発達によって、多くの人に可能なものとなってきたが、その技術内容によっては、例えば、ソフトウェアプログラミングなどの専門性の高い知識が求められる場合が多い。例えば、映像と音声を高度に編集することによりコンテンツを作成しようとした場合、求められる知識および技術は非常に高度なものとなってしまう。これに対して、コンテンツが、簡単なインターフェースで誰でも作成可能なようになされている場合、作成されたコンテンツにユーザのオリジナリティを盛り込むことができる余地は限られてしまい、作成されるコンテンツも、ユーザインターフェースが簡単なものであればあるほど、複雑なものではなく、単純なものとなってしまう。 In addition, content production by processing video data and audio data has become possible for many people due to the development of personal computers, etc., but depending on the technical contents, for example, expertise such as software programming Is often required. For example, when a content is to be created by highly editing video and audio, the required knowledge and technology are very advanced. On the other hand, if the content can be created by anyone with a simple interface, there is limited room for the user's originality to be included in the created content. The simpler the user interface, the less complex and simpler it becomes.
また、ユーザのジェスチャーを計測し、計測結果を基に、デジタル情報をマッピングすることにより、コンテンツを作成する、いわゆる、従来のインタラクティブアートの作成においては、特殊な操作入力方法が用いられているものが多く、更に、映像や音楽に対する深い知識を有するユーザにしか扱いづらいなど、ユーザビリティが考慮されているとは言い難い。また、従来のインタラクティブアートは、その表現手法において、身体動作と処理内容の関係性や音響処理と映像処理の関係性が考慮されていたとは言いがたい。 Also, a special operation input method is used in the creation of so-called conventional interactive art in which content is created by measuring user gestures and mapping digital information based on the measurement results. In addition, it is difficult to say that usability is taken into consideration, such as being difficult to handle only by users who have deep knowledge of video and music. In addition, it is difficult to say that conventional interactive art takes into account the relationship between body movement and processing content and the relationship between acoustic processing and video processing in its expression technique.
ユーザは、受動的な楽しみのみではなく、自己表現を含む、能動的な楽しみ方ができるエンターテイメントを求めている。これらの課題に対して、従来のLBEコンテンツ特有の没入感を残しつつ、ユーザに創造性と表現性を感じさせることができ、シンプルなユーザインターフェースであっても、繰り返し楽しむことができ、かつ、身体動作と処理内容の関係性や音響処理と映像処理の関係性が考慮されて、オリジナルのコンテンツを気軽に作成することができるコンテンツ作成装置の提供が求められていた。 Users are looking for entertainment that can be actively enjoyed, including not only passive enjoyment but also self-expression. In response to these issues, the user can feel creativity and expressiveness while leaving the immersive feeling unique to conventional LBE content. Even a simple user interface can be enjoyed repeatedly, In consideration of the relationship between operation and processing content and the relationship between audio processing and video processing, it has been desired to provide a content creation device that can easily create original content.
本発明はこのような状況に鑑みてなされたものであり、特別な知識や技能を持たないユーザが充分使用可能なシンプルなユーザインターフェースを用いて、ユーザの動き(パフォーマンス)を検出して、音と映像を作成し、効果を付与することにより、オリジナリティのある、高度な画像処理や音声処理が施されたコンテンツを生成することができるようにするものである。 The present invention has been made in view of such a situation, and a user's movement (performance) is detected using a simple user interface that can be used sufficiently by a user who does not have special knowledge or skill, and sound is reproduced. By creating an image and adding an effect, it is possible to generate original content that has been subjected to advanced image processing and audio processing.
本発明の情報処理装置は、第1の映像データを撮像する撮像手段と、ユーザの動作に関する情報を取得する動作情報取得手段と、ユーザの操作入力を取得する操作入力手段と、第1の音声データを生成する音声生成手段と、動作情報取得手段により取得されたユーザの動作に関する情報、および、操作入力手段により入力されたユーザの操作入力を基に、撮像手段により撮像された第1の映像データに所定の第1の処理を施して、コンテンツを構成する第2の映像データを生成する映像処理手段と、動作情報取得手段により取得されたユーザの動作に関する情報、および、操作入力手段により入力されたユーザの操作入力を基に、音声生成手段により生成された第1の音声データに、所定の第2の処理を施して、コンテンツを構成する第2の音声データを生成する音声処理手段と、映像処理手段により生成された第2の映像データの表示を制御する表示制御手段と、音声処理手段により生成された第2の音声データの出力を制御する音声出力制御手段とを備えることを特徴とする。 An information processing apparatus according to the present invention includes an imaging unit that captures first video data, an operation information acquisition unit that acquires information about a user's operation, an operation input unit that acquires a user's operation input, and a first sound. The first video imaged by the imaging unit based on the voice generation unit that generates data, the information about the user's operation acquired by the operation information acquisition unit, and the user's operation input input by the operation input unit Video processing means for performing predetermined first processing on the data to generate second video data constituting the content, information on the user's motion acquired by the motion information acquisition means, and input by the operation input means The second audio data is generated by performing predetermined second processing on the first audio data generated by the audio generation unit based on the user's operation input. Audio processing means for generating voice data, display control means for controlling the display of the second video data generated by the video processing means, and audio for controlling the output of the second audio data generated by the audio processing means Output control means.
情報処理装置は、天井面およびユーザが出入り可能な開口部を有する壁面で構成される筐体と、筺体の下部に設置される床部とによって外部と区別される、ユーザが十分動作可能な空間を有するものとすることができ、操作入力手段には、床部の上面に複数設置され、ユーザの足によって踏まれることにより操作入力を受けさせるようにすることができる。 The information processing apparatus is a space where a user can sufficiently operate, which is distinguished from the outside by a casing formed of a ceiling surface and a wall surface having an opening through which the user can enter and exit, and a floor portion installed at a lower portion of the housing. A plurality of operation input means are installed on the upper surface of the floor, and can be operated by being stepped on by a user's foot.
情報処理装置は、ユーザにより把持可能な携帯型の情報処理装置であるものとすることができる。 The information processing apparatus may be a portable information processing apparatus that can be held by a user.
映像処理手段により生成された第2の映像データ、および、音声処理手段により生成された第2の音声データにより構成されるコンテンツの、他の情報処理装置への出力を制御するコンテンツ出力制御手段を更に備えさせるようにすることができる。 Content output control means for controlling the output of the second video data generated by the video processing means and the second audio data generated by the audio processing means to another information processing apparatus Further, it can be provided.
動作情報取得手段により取得されたユーザの動作に関する情報、および、操作入力手段により入力されたユーザの操作入力を基に、照明を制御する照明制御手段を更に設けさせるようにすることができる。 An illumination control means for controlling illumination can be further provided based on the information related to the user's action acquired by the action information acquiring means and the user's operation input input by the operation input means.
操作入力手段により入力されたユーザの操作入力に対応して、映像処理手段により第1の映像データに施される第1の処理と、音声処理手段により第1の音声データに施される第2の処理とは、関連性を有する処理であるものとすることができる。 In response to a user operation input input by the operation input means, a first process applied to the first video data by the video processing means and a second process applied to the first audio data by the audio processing means. This process may be a process having relevance.
本発明の情報処理方法は、第1の音声データを生成する音声生成ステップと、第1の映像データの撮像を制御する撮像制御ステップと、ユーザの動作に関する情報を取得する動作情報取得ステップと、ユーザの操作入力を取得する操作入力取得ステップと、動作情報取得ステップの処理により取得されたユーザの動作に関する情報、および、操作入力取得ステップの処理により取得されたユーザの操作入力を基に、撮像制御ステップの処理により撮像が制御された第1の映像データに所定の第1の処理を施して、コンテンツを構成する第2の映像データを生成する映像処理ステップと、動作情報取得ステップの処理により取得されたユーザの動作に関する情報、および、操作入力取得ステップの処理により取得されたユーザの操作入力を基に、音声生成ステップの処理により生成された第1の音声データに、所定の第2の処理を施して、コンテンツを構成する第2の音声データを生成する音声処理ステップとを含むことを特徴とする。 The information processing method of the present invention includes an audio generation step for generating first audio data, an imaging control step for controlling imaging of the first video data, an operation information acquisition step for acquiring information related to the user's operation, Imaging based on the operation input acquisition step for acquiring the user's operation input, information on the user's operation acquired by the process of the operation information acquisition step, and the user's operation input acquired by the process of the operation input acquisition step By performing a predetermined first process on the first video data whose imaging is controlled by the process of the control step and generating the second video data constituting the content, and the process of the operation information acquisition step Based on the acquired user's operation information and the user's operation input acquired by the operation input acquisition process The first audio data generated by the processing of the speech production step is subjected to a predetermined second processing, characterized in that it comprises a sound processing step of generating the second audio data constituting the content.
本発明のプログラムは、コンピュータに、第1の音声データを生成する音声生成ステップと、第1の映像データの撮像を制御する撮像制御ステップと、ユーザの動作に関する情報を取得する動作情報取得ステップと、ユーザの操作入力を取得する操作入力取得ステップと、動作情報取得ステップの処理により取得されたユーザの動作に関する情報、および、操作入力取得ステップの処理により取得されたユーザの操作入力を基に、撮像制御ステップの処理により撮像が制御された第1の映像データに所定の第1の処理を施して、コンテンツを構成する第2の映像データを生成する映像処理ステップと、動作情報取得ステップの処理により取得されたユーザの動作に関する情報、および、操作入力取得ステップの処理により取得されたユーザの操作入力を基に、音声生成ステップの処理により生成された第1の音声データに、所定の第2の処理を施して、コンテンツを構成する第2の音声データを生成する音声処理ステップとを含む処理を実行させることを特徴とする。 The program according to the present invention includes a sound generation step for generating first sound data, an image pickup control step for controlling image pickup of the first video data, and an operation information acquisition step for acquiring information related to a user operation. Based on the operation input acquisition step for acquiring the user's operation input, information on the user's operation acquired by the process of the operation information acquisition step, and the user's operation input acquired by the process of the operation input acquisition step, A video processing step for performing a predetermined first process on the first video data whose imaging is controlled by the process of the imaging control step to generate the second video data constituting the content, and a process of the operation information acquisition step Information about the user's actions acquired by the user, and the user's An audio processing step of performing a predetermined second process on the first audio data generated by the process of the audio generation step based on the work input, and generating second audio data constituting the content. Processing is executed.
本発明の情報処理装置、情報処理方法、および、プログラムにおいては、第1の音声データが生成され、第1の映像データが撮像され、ユーザの動作に関する情報が取得され、ユーザの操作入力が取得され、ユーザの動作に関する情報、および、ユーザの操作入力を基に、第1の映像データに所定の第1の処理が施されて、コンテンツを構成する第2の映像データが生成され、ユーザの動作に関する情報、および、ユーザの操作入力を基に、第1の音声データに、所定の第2の処理が施されて、コンテンツを構成する第2の音声データが生成される。 In the information processing apparatus, the information processing method, and the program of the present invention, the first audio data is generated, the first video data is captured, information about the user's operation is acquired, and the user's operation input is acquired. The first video data is subjected to a predetermined first process based on the information related to the user's operation and the user's operation input, and the second video data constituting the content is generated. Based on the information related to the operation and the user's operation input, predetermined second processing is performed on the first audio data to generate second audio data constituting the content.
本発明の情報処理システムは、コンテンツを作成する第1の情報処理装置と、第1の情報処理装置からコンテンツを受信し、コンテンツをユーザに配信する第2の情報処理装置とで構成される情報処理システムであって、第1の情報処理装置は、第1の映像データを撮像する撮像手段と、ユーザの動作に関する情報を取得する動作情報取得手段と、ユーザの操作入力を取得する操作入力手段と、第1の音声データを生成する音声生成手段と、動作情報取得手段により取得されたユーザの動作に関する情報、および、操作入力手段により入力されたユーザの操作入力を基に、撮像手段により撮像された第1の映像データに所定の第1の処理を施して、コンテンツを構成する第2の映像データを生成する映像処理手段と、動作情報取得手段により取得されたユーザの動作に関する情報、および、操作入力手段により入力されたユーザの操作入力を基に、音声生成手段により生成された第1の音声データに、所定の第2の処理を施して、コンテンツを構成する第2の音声データを生成する音声処理手段と、映像処理手段により生成された第2の映像データの表示を制御する表示制御手段と、音声処理手段により生成された第2の音声データの出力を制御する音声出力制御手段と、映像処理手段により生成された第2の映像データ、および、音声処理手段により生成された第2の音声データで構成されるコンテンツを、第2の情報処理装置へ送信する送信手段とを備え、第2の情報処理装置は、第1の情報処理装置の送信手段により送信されたコンテンツを受信する受信手段と、受信手段により受信されたコンテンツを記憶する記憶手段と、ユーザからコンテンツの配信要求を受けた場合、記憶手段により記憶されたコンテンツのユーザへの配信を制御する配信制御手段とを備えることを特徴とする。 The information processing system according to the present invention includes information including a first information processing apparatus that creates content and a second information processing apparatus that receives the content from the first information processing apparatus and distributes the content to the user. In the processing system, the first information processing apparatus includes an imaging unit that captures the first video data, an operation information acquisition unit that acquires information about a user's operation, and an operation input unit that acquires an operation input of the user. Imaging by the imaging means based on the voice generation means for generating the first voice data, the information on the user's motion acquired by the motion information acquisition means, and the user's operation input input by the operation input means A video processing unit that performs a predetermined first process on the first video data that is generated to generate second video data constituting the content, and an operation information acquisition unit. Based on the obtained information about the user's operation and the user's operation input input by the operation input means, the first sound data generated by the sound generation means is subjected to a predetermined second process, Audio processing means for generating second audio data constituting the content, display control means for controlling display of the second video data generated by the video processing means, and second audio generated by the audio processing means Content that is composed of audio output control means for controlling the output of data, second video data generated by the video processing means, and second audio data generated by the audio processing means, and second information And a second information processor that receives the content transmitted by the transmitter of the first information processor, and a receiver that receives the content transmitted by the transmitter of the first information processor. Storage means for storing the received content Ri, when receiving a content distribution request from a user, characterized in that it comprises a distribution control means for controlling the delivery to a user of the content stored by the storage means.
第2の情報処理装置には、配信制御手段により配信が制御されるコンテンツの配信先の機器の種類に対応して、コンテンツのデータ形式を変換する変換手段を更に設けさせるようにすることができる。 The second information processing apparatus may be further provided with conversion means for converting the data format of the content corresponding to the type of the content distribution destination device whose distribution is controlled by the distribution control means. .
第2の情報処理装置には、配信制御手段により配信が制御されるコンテンツの配信に対して発生する課金処理を実行する課金処理手段を更に設けさせるようにすることができる。 The second information processing apparatus may be further provided with a billing processing unit that executes billing processing that occurs for the distribution of the content whose distribution is controlled by the distribution control unit.
本発明の情報処理システムにおいては、第1の情報処理装置で、第1の音声データが生成され、第1の映像データが撮像され、ユーザの動作に関する情報が取得され、ユーザの操作入力が取得され、ユーザの動作に関する情報、および、ユーザの操作入力を基に、第1の映像データに所定の第1の処理が施されて、コンテンツを構成する第2の映像データが生成され、ユーザの動作に関する情報、および、ユーザの操作入力を基に、第1の音声データに、所定の第2の処理が施されて、コンテンツを構成する第2の音声データが生成され、第2の情報処理装置で、第1の情報処理装置から送信されたコンテンツが受信され、コンテンツが記憶され、ユーザからコンテンツの配信要求を受けた場合、記憶されたコンテンツのユーザへの配信が制御される。 In the information processing system of the present invention, the first information processing apparatus generates the first audio data, the first video data is imaged, the information about the user's operation is acquired, and the user's operation input is acquired. The first video data is subjected to a predetermined first process based on the information related to the user's operation and the user's operation input, and the second video data constituting the content is generated. Based on the information related to the operation and the user's operation input, predetermined second processing is performed on the first audio data to generate second audio data constituting the content, and second information processing is performed. When the device receives the content transmitted from the first information processing device, stores the content, and receives a content distribution request from the user, the distribution of the stored content to the user is restricted. It is.
本発明によれば、映像と音声から構成されるコンテンツを作成することができる。特に、ユーザのパフォーマンスを取得して、それを基に、映像と音声を作成したり、映像や音声に効果を付与することができるので、簡単なインターフェースで、オリジナリティのある、高度な画像処理や音声処理が施されたコンテンツを生成することができる。 According to the present invention, content composed of video and audio can be created. In particular, it is possible to acquire user performance and create video and audio based on it, and to apply effects to video and audio, so with a simple interface, original and advanced image processing and Content that has been subjected to audio processing can be generated.
また、他の本発明によれば、映像と音声から構成されるコンテンツを作成してユーザに配信することができる。特に、ユーザのパフォーマンスを取得して、それを基に、映像と音声を作成したり、映像や音声に効果が付与されて生成されたコンテンツが、第2の情報処理装置に送信された後、ユーザに配信されるので、簡単なインターフェースで、オリジナリティのある、高度な画像処理や音声処理が施されたコンテンツが生成されるとともに、配信先の機器に対応するデータに変換されてユーザに配信されたり、コンテンツの配信にともなう課金処理を行うようにすることができる。 According to another aspect of the present invention, content composed of video and audio can be created and distributed to the user. In particular, after the user's performance is acquired, and the content generated by creating the video and audio based on the performance and the effect added to the video and audio is transmitted to the second information processing apparatus, Since it is delivered to the user, original and sophisticated content with advanced image processing and audio processing is generated with a simple interface, and the content is converted to data corresponding to the delivery destination device and delivered to the user. Or charging processing associated with content distribution can be performed.
以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、発明の実施の形態との対応関係を例示すると、次のようになる。この記載は、本明細書に記載されている発明をサポートする実施の形態が、本明細書に記載されていることを確認するためのものである。したがって、発明の実施の形態中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. The correspondence relationship between the invention described in this specification and the embodiments of the invention is exemplified as follows. This description is intended to confirm that the embodiments supporting the invention described in this specification are described in this specification. Therefore, even if there is an embodiment that is described in the embodiment of the invention but is not described here as corresponding to the invention, the fact that the embodiment is not It does not mean that it does not correspond to the invention. Conversely, even if an embodiment is described herein as corresponding to an invention, that means that the embodiment does not correspond to an invention other than the invention. Absent.
更に、この記載は、本明細書に記載されている発明の全てを意味するものでもない。換言すれば、この記載は、本明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現、追加される発明の存在を否定するものではない。 Further, this description does not mean all the inventions described in this specification. In other words, this description is for the invention described in the present specification, which is not claimed in this application, that is, for the invention that will be applied for in the future or that will appear and be added by amendment. It does not deny existence.
請求項1に記載の情報処理装置(例えば、図3および図9に記載のコンテンツ作成装置2)において、第1の映像データを撮像する撮像手段(例えば、図2、図3のカメラ42、または、図9のカメラ301)と、ユーザの動作に関する情報を取得する動作情報取得手段(例えば、図3または図9の動き検出部62)と、ユーザの操作入力を取得する操作入力手段(例えば、図2、図3のフットセンサ43−1乃至43−8、または、図9の操作入力部302)と、第1の音声データ(例えば、伴奏)を生成する音声生成手段(例えば、図3または図9の伴奏生成部67)と、動作情報取得手段により取得されたユーザの動作に関する情報、および、操作入力手段により入力されたユーザの操作入力を基に、撮像手段により撮像された第1の映像データに所定の第1の処理(例えば、エフェクトの付加)を施して、コンテンツ(例えば、セルフムービー)を構成する第2の映像データを生成する映像処理手段(例えば、図3または図9の映像効果付与処理部64)と、動作情報取得手段により取得されたユーザの動作に関する情報、および、操作入力手段により入力されたユーザの操作入力を基に、音声生成手段により生成された第1の音声データに、所定の第2の処理(例えば、効果音やエフェクトの付加)を施して、コンテンツを構成する第2の音声データを生成する音声処理手段(例えば、図3または図9の効果音生成部65)と、映像処理手段により生成された第2の映像データの表示を制御する表示制御手段(例えば、図3または図9の映像表示制御部69)と、音声処理手段により生成された第2の音声データの出力を制御する音声出力制御手段(例えば、図3または図9の音声出力制御部70)とを備えることを特徴とする。
In the information processing apparatus according to claim 1 (for example, the
情報処理装置は、天井面およびユーザが出入り可能な開口部を有する壁面で構成される筐体(例えば、図2の筺体21)と、筺体の下部に設置される床部(例えば、図2の床22)とによって外部と区別される、ユーザが十分動作可能な空間を有することができ、操作入力手段(例えば、図2および図3のフットセンサ43−1乃至43−8)は、床部の上面に複数設置され、ユーザの足によって踏まれることにより操作入力を受けることができる。
The information processing apparatus includes a casing (for example, the
情報処理装置は、ユーザにより把持可能な携帯型の情報処理装置(例えば、携帯型電話機4、または、PDA5、もしくは、ディジタルスチルカメラ、または、ディジタルビデオカメラなど)であるものとすることができる。
The information processing apparatus can be a portable information processing apparatus that can be held by a user (for example, the
映像処理手段により生成された第2の映像データ、および、音声処理手段により生成された第2の音声データにより構成されるコンテンツの、他の情報処理装置(例えば、コンテンツ配信サーバ3、または、ユーザが保有する携帯型電話機4、または、PDA5)への出力を制御するコンテンツ出力制御手段(例えば、図3または図9のネットワークインターフェース71)を更に備えさせることができる。
Another information processing apparatus (for example, the
動作情報取得手段により取得されたユーザの動作に関する情報、および、操作入力手段により入力されたユーザの操作入力を基に、照明を制御する照明制御手段(例えば、図3の照明制御部63)を更に備えることができる。
Illumination control means (for example, the
請求項7の情報処理方法は、コンテンツ(例えば、セルフムービー)を作成する情報処理装置(例えば、図3および図9に記載のコンテンツ作成装置2)の情報処理方法であって、第1の音声データ(例えば、伴奏)を生成する音声生成ステップ(例えば、図7のステップS4、または、図10のステップS64の処理)と、第1の映像データの撮像を制御する撮像制御ステップ(例えば、図7のステップS5、または、図10のステップS65の処理)と、ユーザの動作に関する情報を取得する動作情報取得ステップ(例えば、図7のステップS6、または、図10のステップS66の処理)と、ユーザの操作入力を取得する操作入力取得ステップ(例えば、図7のステップS8、または、図10のステップS67の処理)と、動作情報取得ステップの処理により取得されたユーザの動作に関する情報、および、操作入力取得ステップの処理により取得されたユーザの操作入力を基に、撮像制御ステップの処理により撮像が制御された第1の映像データに所定の第1の処理(例えば、エフェクトの付加)を施して、コンテンツを構成する第2の映像データを生成する映像処理ステップ(例えば、図7のステップS9、または、図10のステップS68の処理)と、動作情報取得ステップの処理により取得されたユーザの動作に関する情報、および、操作入力取得ステップの処理により取得されたユーザの操作入力を基に、音声生成ステップの処理により生成された第1の音声データに、所定の第2の処理(例えば、効果音やエフェクトの付加)を施して、コンテンツを構成する第2の音声データを生成する音声処理ステップ(例えば、図7のステップS10、または、図10のステップS69の処理)とを含むことを特徴とする。 The information processing method according to claim 7 is an information processing method of an information processing apparatus (for example, the content creation apparatus 2 described in FIGS. 3 and 9) that creates content (for example, self-movie), and includes a first sound An audio generation step for generating data (for example, accompaniment) (for example, the process of step S4 in FIG. 7 or step S64 in FIG. 10) and an imaging control step for controlling the imaging of the first video data (for example, FIG. 7 step S5 or the process of step S65 of FIG. 10), an operation information acquisition step of acquiring information related to the user's action (for example, step S6 of FIG. 7 or the process of step S66 of FIG. 10), An operation input acquisition step (for example, step S8 in FIG. 7 or step S67 in FIG. 10) for acquiring a user operation input, and operation information acquisition Based on the information about the user's operation acquired by the processing of the step and the user's operation input acquired by the processing of the operation input acquisition step, the first video data whose imaging is controlled by the processing of the imaging control step A video processing step (for example, step S9 in FIG. 7 or step S68 in FIG. 10) for generating predetermined second processing (for example, adding an effect) and generating second video data constituting the content ) And information on the user's motion acquired by the processing of the motion information acquisition step, and the user's operation input acquired by the processing of the operation input acquisition step, the first generated by the processing of the voice generation step A second process (for example, addition of sound effects and effects) is applied to the audio data of the first audio data to form the content. Audio processing step (e.g., step S10 in FIG. 7, or the process of step S69 of FIG. 10) for generating audio data, characterized in that it comprises a.
また、請求項8に記載のプログラムにおいても、各ステップが対応する実施の形態(但し一例)は、請求項7に記載の情報処理方法と同様である。
Also in the program according to claim 8, the embodiment (however, an example) to which each step corresponds is the same as the information processing method according to
請求項9に記載の情報処理システムは、コンテンツ(例えば、セルフムービー)を作成する第1の情報処理装置(例えば、図3および図9に記載のコンテンツ作成装置2)と、第1の情報処理装置からコンテンツを受信し、コンテンツをユーザに配信する第2の情報処理装置(例えば、図6に記載のコンテンツ配信サーバ3)とで構成される情報処理システムであって、第1の情報処理装置は、第1の映像データを撮像する撮像手段(例えば、図2、図3のカメラ42、または、図9のカメラ301)と、ユーザの動作に関する情報を取得する動作情報取得手段(例えば、図3または図9の動き検出部62)と、ユーザの操作入力を取得する操作入力手段(例えば、図2、図3のフットセンサ43−1乃至43−8、または、図9の操作入力部302)と、第1の音声データ(例えば、伴奏)を生成する音声生成手段(例えば、図3または図9の伴奏生成部67)と、動作情報取得手段により取得されたユーザの動作に関する情報、および、操作入力手段により入力されたユーザの操作入力を基に、撮像手段により撮像された第1の映像データに所定の第1の処理(例えば、エフェクトの付加)を施して、コンテンツを構成する第2の映像データを生成する映像処理手段(例えば、図3または図9の映像効果付与処理部64)と、動作情報取得手段により取得されたユーザの動作に関する情報、および、操作入力手段により入力されたユーザの操作入力を基に、音声生成手段により生成された第1の音声データに、所定の第2の処理(例えば、効果音やエフェクトの付加)を施して、コンテンツを構成する第2の音声データを生成する音声処理手段(例えば、図3または図9の効果音生成部65)と、映像処理手段により生成された第2の映像データの表示を制御する表示制御手段(例えば、図3または図9の映像表示制御部69)と、音声処理手段により生成された第2の音声データの出力を制御する音声出力制御手段(例えば、図3または図9の音声出力制御部70)と、映像処理手段により生成された第2の映像データ、および、音声処理手段により生成された第2の音声データで構成されるコンテンツを、第2の情報処理装置へ送信する送信手段(例えば、図3または図9のネットワークインターフェース71)とを備え、第2の情報処理装置は、第1の情報処理装置の送信手段により送信されたコンテンツを受信する受信手段(例えば、図6のネットワークインターフェース220)と、受信手段により受信されたコンテンツを記憶する記憶手段(例えば、図6のHDD218)と、ユーザからコンテンツの配信要求を受けた場合、記憶手段により記憶されたコンテンツのユーザへの配信を制御する配信制御手段(例えば、図6のCPU211)とを備えることを特徴とする。
The information processing system according to claim 9 includes a first information processing apparatus (for example, the
第2の情報処理装置は、配信制御手段により配信が制御されるコンテンツの配信先の機器の種類に対応して、コンテンツのデータ形式を変換する変換手段(例えば、図6の画像処理部241および音声処理部242)を更に備えることができる。
The second information processing apparatus converts the data format of the content in accordance with the type of content distribution destination device whose distribution is controlled by the distribution control unit (for example, the
第2の情報処理装置は、配信制御手段により配信が制御されるコンテンツの配信に対して発生する課金処理を実行する課金処理手段(例えば、図6の課金処理部243)を更に備えることができる。
The second information processing apparatus can further include a billing processing unit (for example, a
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明を適用したセルフムービー配信システムのシステム構成を示す図である。 FIG. 1 is a diagram showing a system configuration of a self-movie distribution system to which the present invention is applied.
例えば、インターネットや電話回線網などを含む広域ネットワークであるネットワーク1には、セルフムービー作成装置2−1乃至2−n(ただし、nは正の整数)、セルフムービー配信サーバ3、携帯型電話機4、PDA(Personal Digital Assistant)5、パーソナルコンピュータ6、および、ホームサーバ7が接続され、ホームサーバ7には、テレビジョン受像機8が接続されている。
For example, the
セルフムービー作成装置2−1乃至2−nは、後述する処理により、ユーザの映像を撮像するとともに、ユーザのパフォーマンス(動きや装置内の各種センサなどへの操作入力)を取得し、取得されたフォーマンスを基に、音声データを生成したり、撮像された映像に所定の効果を施したり、必要に応じて、照明を制御したりすることにより、ユーザに配布可能なコンテンツであるセルフムービーを作成し、作成したセルフムービーを、ネットワーク1を介して、セルフムービー作成サーバ3に送信する。
The self-movie creation devices 2-1 to 2-n have acquired the user's performance (motion and operation inputs to various sensors in the device) and acquired the user's video by the process described later. Create self-movies that can be distributed to users by generating audio data based on performance, applying predetermined effects to captured images, and controlling lighting as necessary. The created self-movie is transmitted to the self-
セルフムービー配信サーバ3は、セルフムービー作成装置2−1乃至2−nから送信されたセルフムービーを保存し、ユーザによってセルフムービーの配信(ダウンロード)が要求されたとき、セルフムービーを、ネットワーク1を介して、携帯型電話機4、PDA5、パーソナルコンピュータ6、および、ホームサーバ7に配信し、配信されたセルフムービーに対する課金処理を実行する。
The self-
携帯型電話機4、PDA5、パーソナルコンピュータ6、または、ホームサーバ7は、それぞれ、セルフムービ作成装置2−1乃至2−nのうちのいずれかにおいて、セルフムービーを作成したユーザが、セルフムービ配信サーバ3に、ネットワーク1を介してアクセスし、セルフムービーのダウンロードを要求する場合に利用されるものである。
The
ユーザは、例えば、携帯型電話機4、PDA5、パーソナルコンピュータ6、または、ホームサーバ7などを用いて、セルフムービー配信サーバ3にネットワーク1を介してアクセスし、セルフムービー作成装置2−1乃至2−nのいずれかにおいて作成されたセルフムービーのダウンロードを要求する。そして、ユーザは、ダウンロードされたセルフムービーを、携帯型電話機4、PDA5、パーソナルコンピュータ6、または、ホームサーバ7に接続されたテレビジョン受像機8を用いて、視聴することができ、更に、携帯型電話機4、PDA5、パーソナルコンピュータ6などを用いて、例えば、電子メールや無線通信を利用して、友人が保有する同様の装置(図示しない携帯型電話機、PDA、または、パーソナルコンピュータ)などと、セルフムービーを授受することも可能である。
The user accesses the self-
以下、セルフムービー作成装置2−1乃至2−nを個々に区別する必要がない場合、単にセルフムービー作成装置2と総称する。
Hereinafter, when it is not necessary to individually distinguish the self-movie creating apparatuses 2-1 to 2-n, they are simply referred to as the self-
図2は、セルフムービー作成装置2の第1の実施の形態における外観構成について説明するための図である。
FIG. 2 is a diagram for explaining an external configuration of the self-
セルフムービー作成装置2は、ユーザが内部に入るための入り口となる開口部を有する筒型の壁面と天井面からなる筺体21と、円形の床22によって、ユーザがセルフムービーを作成するために移動可能な空間(例えば、身長180cmの人が、水平に真横に手を広げたり、ジャンプすることが可能な、直径1800mm、高さ3000mmの円筒状の空間)を構成するようになされている。
The self-
筺体21の開口部正面に、ユーザが操作入力を行うための、キー、ボタン、または、タッチパットなどが備えられた操作入力部41が設けられている。また、操作入力部41には、赤外線などの無線による情報を受信可能な受信部51が設けられている。ユーザは、操作入力部41のキー、ボタン、または、タッチパットなどを用いて操作入力を行う以外に、例えば、赤外線通信やBluetoothなどによる無線通信が可能な携帯型電話機4やPDA5を用いて、所望の情報をセルフムービー作成装置2に供給することが可能である。例えば、ユーザは、セルフムービーの作成開始(以下、プレイ開始と称するものとする)を指令する前に、携帯型電話機4などを用いて、所望のテキストを入力し、赤外線通信などの無線通信を用いて、セルフムービー作成装置2に予め送信しておくことができる。そして、セルフムービー作成装置2は、ユーザからプレイ開始の指令を受けて、後述する処理により、受信したテキストを、撮像された映像に重畳させて表示させるようにすることができる。
An
そして、操作入力部41の鉛直面上の上方には、ユーザを撮像するカメラ42が設けられている。140cm乃至180cmの身長の人が、カメラ42により撮像される映像のフレームに入りきるように、カメラ42の中心位置の高さを1400mm程度にすると好適である。カメラ42により撮像された映像は、セルフムービーの素材となるのみならず、ユーザの動きの検出に用いることも可能である。検出されたユーザの動きの検出結果は、後述する処理により、映像や音声にエフェクト(効果)をかけたり、音声に効果音を付与する処理のパラメータとして用いられる。
A
カメラ42により撮像された映像を用いてユーザの動きを検出するには、例えば、ユーザにLEDライトを持った、または、装着した状態で動作してもらい、撮像された映像データを解析して、LEDライトの移動を追跡するようにしても良いし、ユーザには、特に何も装着することなく動作してもらい、撮像された映像を画像処理して動きベクトルを得、その動きベクトルの大きさを求めるようにしたり、例えば、ユーザの手の先や頭の頂点などの所定の位置を検出して、その移動量を追跡するようにしてもよい。
In order to detect a user's movement using the video imaged by the
また、ユーザの動きを検出するためには、カメラ42によって撮像された映像データを用いる代わりに、例えば、筺体21の内部に複数の赤外線センサやフォトセンサを設けることにより、そのセンサ入力に基づいて、ユーザの体の動きを検出するようにしてもよいし、ユーザにユーザ自身の動きを直接的に検出できるようなセンサを装着させて、そのセンサ入力に基づいて、ユーザの動きを検出するようにしてもよい。ユーザの動きを検出するために、筺体21の内部に複数の赤外線センサなどが設けられている場合、ユーザが移動可能な空間が円柱状であると、複数のセンサと、空間の中央付近に存在すると仮定されるユーザの距離が均等になるため、ユーザの動きの検出に好適である。
Further, in order to detect the movement of the user, instead of using the video data captured by the
なお、ユーザの動きを検出するために、撮像された映像から動きベクトルを検出したり、筺体21の内部に設けられた赤外線センサなどのセンサ入力を利用するようにした場合、ユーザは、まったく制約なく動作することが可能であるが、制約がないことが、逆に、ユーザの動きを萎縮させてしまう場合がある。一方、ユーザにLEDライトを持った、または、装着した状態で動作してもらうようにした場合、ユーザは、LEDライトをカメラ42に向かって振り回すという動作を意識し、自分自身の動作と映像や音声に施されるエフェクト、または、音声に付加される効果音との関連を認識しやすいという利点がある。
In addition, in order to detect a user's motion, when a motion vector is detected from the captured image or a sensor input such as an infrared sensor provided in the
すなわち、ユーザにLEDライトを持った、または、装着した状態で動作してもらうようにした場合、ユーザは、ただ自由にダンスをするよりも、「光の筆で絵を描く、音を奏でる」というイメージを持つことができるので、全く制約のない動作を許される場合よりもシンプルかつ効果的な動きを誘発される。更に、カメラ42により撮像された映像はセルフムービーの素材となるので、撮像される映像の中にLEDライトの光が存在することにより、作成される映像が、変化に富んだものとなるという効果も発生する。
In other words, when the user has an LED light or is put on the device to operate, the user can “draw a picture with a light brush, play a sound” rather than just dancing freely. It is possible to have a simple image that is simpler and more effective than when it is allowed to operate without any restrictions. Furthermore, since the video imaged by the
なお、LEDは、一定の光量を全方位的に放射するため、取得された画像中における位置が検出しやすいという利点もある。なお、撮像された映像において、LEDライトの位置の追跡の対象となる情報として、LEDの色相(RGB)よりも、LEDから発される輝度情報に重点を置くようにした場合、LEDライトの色が変更されても、検出方法を変更することなく、位置を検出することが可能となるので、例えば、複数の色のLEDライトを用意し、ユーザが所望する色のLEDライトを把持、または、装着することができるようにしてもよい。 In addition, since LED radiates | emits a fixed light quantity omnidirectionally, there also exists an advantage that the position in the acquired image is easy to detect. In addition, in the captured image, when the information on which the position of the LED light is to be tracked is focused on the luminance information emitted from the LED rather than the hue (RGB) of the LED, the color of the LED light Since the position can be detected without changing the detection method even if is changed, for example, a plurality of color LED lights are prepared, and the user desires a desired color LED light, or It may be possible to attach it.
床22には、フットセンサ43−1乃至43−8が設けられている。フットセンサ43−1乃至43−8が、ユーザにより踏まれる、すなわち、操作入力を受けることにより、撮像された映像や作成される音声に所定のエフェクトがかかったり、作成される音声に所定の効果音が付与される。例えば、フットセンサ43−1乃至43−8のそれぞれに、全て異なるエフェクトや効果音を割り当てるようにしても良いし、フットセンサ43−1乃至43−8のうちの一部には、同一のエフェクトまたは同一の効果音が割り当てられるようにしても良い。また、フットセンサ43−1乃至43−8に割り当てられるエフェクトまたは効果音の種類が、ユーザのセルフムービーの作成処理(以下、プレイと称するものとする)ごとにランダムに変更されるようにすることにより、ユーザにフットセンサ43−1乃至43−8とエフェクトまたは効果音との対応関係を容易に覚えることができないようにして、何度もプレイしているユーザであっても、意外性のあるセルフムービーが作成されるようにしても良い。または、フットセンサ43−1乃至43−8に割り当てられるエフェクトまたは効果音の種類を、ユーザが設定可能なようにしても良い。そして、上述したように、カメラ42により撮像された映像などにより検出されたユーザの動きの検出結果に基づいて、撮像された映像、および、作成される音声にかかるエフェクトの強度や効果音のパラメータなどが制御される。エフェクトおよび効果音の詳細な例については後述する。
The
図2においては、フットセンサ43−1乃至43−8の8つのフットセンサが備えられているものとして説明したが、フットセンサの数は、8つ以外のいかなる数であっても良いことは言うまでもなく、また、筺体21内部にタッチパッド等を用意して、フットセンサに代わって操作入力を受けることができるようにしても良い。
In FIG. 2, it has been described that eight foot sensors 43-1 to 43-8 are provided, but it goes without saying that the number of foot sensors may be any number other than eight. Alternatively, a touch pad or the like may be prepared inside the
また、ユーザが自分自身のパフォーマンスを確認できるように、ユーザの全身を映し出すことができる鏡を、筺体21内部(ただし、カメラ42による撮像処理や、フットセンサその他の操作を妨害しない位置)に設置するようにしてもよい。
In addition, a mirror capable of projecting the user's whole body is installed inside the housing 21 (however, a position that does not interfere with the imaging process by the
また、筺体21の開口部正面には、モニタ44が設けられている。モニタ44には、カメラ42によって撮像された映像に対して、フットセンサ43−1乃至43−8への操作入力およびユーザの動きの検出結果によってエフェクトが施されて作成された映像が表示されるようになされている。
A
また、筺体21の内部には、フットセンサ43−1乃至43−8への操作入力およびユーザの動きの検出結果によってエフェクトが施されたリ、効果音が付加された音声を出力するスピーカ45−1乃至45−6が設けられている。スピーカ45−1乃至45−6は、ドルビーデジタルの最新方式で音声を再生することができるようになされ、20Hz乃至20kHzの帯域のセンタースピーカであるスピーカ45−1、フロントの左右スピーカであるスピーカ45−2およびスピーカ45−3、リアの左右スピーカであるスピーカ45−4およびスピーカ45−5、および、120Hz以下の低域専用のサブウーファーであるスピーカ45−6で構成されている。なお、図2においては、スピーカ45−1乃至45−6の6つのスピーカにより音声を出力することができるものとして説明するが、スピーカの数は、6つ以外のいかなる数であっても良く、更に、再生方式も、ドルビーデジタル以外のいかなる再生方式であっても良いことは言うまでもない。
In addition, inside the
また、筺体21の内部の上面(天井面付近)に、照明47−1乃至47−5が備えられている。照明47−1乃至47−5は、一定の明るさで筺体21内部を照明するようになされていても良いし、フットセンサ43−1乃至43−8への操作入力およびユーザの動きの検出結果によって、照明の色が変更されたり、点滅されたりなどの制御が行われるようにしても良い。また、ユーザの動きを検出するために、ユーザにLEDライトを持たせて、その移動を検出するようにした場合、照明47−1乃至47−5による照明の明るさは、撮像された映像において、LEDライトの輝度の検出を妨げない程度に制御する必要がある。
Also, illuminations 47-1 to 47-5 are provided on the upper surface (near the ceiling surface) inside the
次に、図3は、図2を用いて説明した、第1の実施の形態のセルフムービー作成装置2における内部構成を示すブロック図である。
Next, FIG. 3 is a block diagram showing the internal configuration of the self-
セルフムービー作成装置2は、ユーザのパフォーマンスを取得するパフォーマンスセクション、取得されたパフォーマンスを利用して、所定のエフェクトが付与された映像データおよびエフェクトまたは効果音が付与された音声データを生成するリアルタイムエフェクトセクション、および、所定のエフェクトが付与された映像データおよび音声データをレンダリングするレンダリングセクションの3つのセクションに大きく分けられている。
The self-
ここでは、ユーザの動きは、カメラ42により撮像された映像を基に、例えば、動きベクトル検出や、ユーザが把持または装着したLEDライトの移動の追跡などによって検出されるものとして説明する。
Here, a description will be given assuming that the user's movement is detected by, for example, motion vector detection or tracking of movement of the LED light held or attached by the user based on the video imaged by the
操作入力部41は、ユーザから、プレイ開始が指令されたとき、プレイ開始を示す制御信号を、画像処理部61、映像効果付与処理部64、フットセンサ入力検出部66、および、伴奏生成部67に供給する。また、操作入力部41は、必要に応じて、作成されたセルフムービーを固有に区別するために必要な情報(例えば、ユーザIDなど)の入力を受けることができる。
The
受信部51は、ユーザが保有する携帯型電話機4やPDA5から送信された、セルフムービーに表示させるテキストデータを受信し、映像効果付与処理部64に供給する。
The receiving
カメラ42により撮像された映像は、画像処理部61に供給される。画像処理部61は、プレイ開始を示す制御信号の供給を受けた場合、供給された映像に対して、例えば、A/D変換、ガンマ補正、ホワイトバランス調整などの各種信号処理(画像補正処理)を施して、処理が施された映像データを、動き検出部62および映像効果付与処理部64に供給する。
The video imaged by the
動き検出部62は、例えば、動きベクトル検出や、ユーザが把持または装着したLEDライトの移動の追跡などによって、撮像された映像から、ユーザの動きを検出し、検出結果を、照明制御部63、映像効果付与処理部64、および、効果音生成部65に供給する。
The
例えば、ユーザが把持または装着したLEDライトの移動の追跡を行う場合、動き検出部62は、撮像された映像の中心点を座標(0,0)とするXY平面において、所定の閾値以上の輝度信号強度を有する座標の位置を基に、LEDライトの位置を認識するようにし、所定の単位時間におけるLEDライトの位置の変化量を、ユーザの動き量として検出するようにすることができる。
For example, when tracking the movement of the LED light held or attached by the user, the
また、フットセンサ入力検出部66は、プレイ開始を示す制御信号の供給を受けた場合、フットセンサ43−1乃至43−8から、操作入力を示す信号の供給を受け、フットセンサ43−1乃至43−8のいずれが操作入力を受けたかを示す信号を、照明制御部63、映像効果付与処理部64、および、効果音生成部65に供給する。
In addition, when receiving a control signal indicating the start of play, the foot sensor
伴奏生成部67は、プレイ開始を示す制御信号の供給を受けた場合、例えば、リズム・ベース・メロディといった3トラックから構成されている所定のコード進行のダンスミュージックを、8小節を基本にループさせて、伴奏を生成し、効果音生成部65に供給する。また、伴奏生成部67は、効果音の生成や、音声データへのエフェクトの付加に必要な、例えば、現在再生中の伴奏のコード、現在のテンション値、または、現在再生中のセクションなどを示す情報を、効果音生成部65に供給する。
When the
音楽を生成するにあたり、まったくランダムに音程を決めてしまっては、不協和音が発生してしまうので、コード進行のルールに基づいて、伴奏を生成しなければならない。伴奏生成部67は、所定のコード進行のルールに基づいて、例えば、ランダム端数をマルコフ連鎖により制御するStochastic Markov モデルを利用し、毎回違った楽曲を生成(譜面生成)することができる。
In generating music, if the pitch is determined at random, a dissonant sound will be generated, so an accompaniment must be generated based on the chord progression rule. The
照明制御部63は、動き検出部62から供給されたユーザの動きの検出結果、および、フットセンサ入力検出部66から供給されたユーザのフットセンサ43−1乃至43−8への操作入力を示す信号を基に、照明47−1乃至47−5を制御する。ユーザの動きの検出結果、および、ユーザのフットセンサ43−1乃至43−8への操作入力と、照明47−1乃至47−5の制御との関連付けの例としては、例えば、検出された動きの大きさ、または、検出された動きの大きさの変化量に合わせて、照明の照度、または、点滅速度などを変えるようにしても良いし、操作されたフットセンサの位置に対応して点灯させる照明の種類を変更するなどしてもよい。
The
映像効果付与処理部64は、動き検出部62から供給されたユーザの動きの検出結果、および、フットセンサ入力検出部66から供給されたユーザのフットセンサ43−1乃至43−8への操作入力を示す信号を基に、画像処理部61から供給された映像データに、必要に応じて、受信部51から供給されたテキストデータを重畳し、所定のエフェクトを施して、その結果得られる映像データを、セルフムービー記憶部68に供給する。
The video effect
図4および図5を用いて、映像に対するエフェクトの付与について説明する。 With reference to FIG. 4 and FIG. 5, the application of the effect to the video will be described.
図4に、撮像された映像のうちの1フレームである画像91と、単独のエフェクトが付与された画像101乃至108とを示す。
FIG. 4 shows an
ここでは、フットセンサ43−1乃至43−8にはそれぞれに独立したエフェクトが対応付けられており、エフェクトの強度は、動き検出部62により検出される、ユーザの動き量により決定されるようになされているものとして説明する。また、動き検出部62により検出されるユーザの動き量に対して、エフェクトの強度がリニアに変化されるようにしても良いし、動き検出部62により検出されるユーザの動き量を所定の量子化ステップで量子化して、エフェクトの強度に関連つけるようにしても良い。なお、動き量の検出値に対して、エフェクトの強度がリニアに変化されるようにするよりも、動き量の検出値を粗く量子化して、エフェクトの強度に関連付けたほうが、ユーザにとっては、動きとエフェクト強度との関連性の認識がしやすいという利点がある。
Here, independent effects are associated with each of the foot sensors 43-1 to 43-8, and the intensity of the effect is determined by the amount of motion of the user detected by the
例えば、フットセンサ43−1が操作されたとき、映像効果付与処理部64は、撮像された画像91の明度およびコントラストを変換して、画像101を生成する。このとき、検出されたユーザの動きの量と、明度、コントラストの値が連動されるようになされ、例えば、検出された動きの量が大きいほど、画像内の明度があがり、コントラストの度合いが上昇するようになされている。
For example, when the foot sensor 43-1 is operated, the video effect
また、フットセンサ43−2が操作されたとき、映像効果付与処理部64は、撮像された画像91を複数のセルに分割し、それぞれのセルをリマッピングすることにより、ジグソーパズルのような効果が与えられた画像102を生成する。このとき、検出されたユーザの動きのうち、横方向の動きが、セルのリマッピングの変化量に対応付けられ、縦方向の動きが、セルの位置変化のスピードに対応付けられるようになされ、例えば、検出された動きの量が大きいほど、セルの位置変化のスピード、変化量が増すようになされている。
When the foot sensor 43-2 is operated, the video effect imparting
フットセンサ43−3が操作されたとき、映像効果付与処理部64は、撮像された画像91を所定枚数(図4においては4枚)のレイヤーに分割し、分割されたレイヤーを移動させることにより、分身効果が与えられた画像103を生成する。このとき、検出されたユーザの動きの量とそれぞれのレイヤーの移動量が連動されるようになされ、例えば、検出された動きの量が大きいほど、レイヤーの移動量が大きくなるようになされている。
When the foot sensor 43-3 is operated, the video effect imparting
フットセンサ43−4が操作されたとき、映像効果付与処理部64は、撮像された画像91を所定数の画像に分割して、画像104を生成する。このとき、検出されたユーザの動きの量と画像の分割数(分割数はべき乗の値とされる)が連動され、例えば、検出された動きの量が大きいほど、画像の分割数が増えるようになされている。
When the foot sensor 43-4 is operated, the video effect imparting
また、フットセンサ43−5が操作されたとき、映像効果付与処理部64は、撮像された画像91を所定のスケールに縮小し、所定の角度に回転させて、万華鏡のような効果が与えられた画像105を生成する。このとき、検出されたユーザの動きのうち、横方向の動きが、回転の角度に対応付けられ、縦方向の動きが、スケールの値に割り付けられるようになされ、例えば、検出された動きの量が大きいほど、スケールが小さくなり、回転のスピードが上がるようになされている。
In addition, when the foot sensor 43-5 is operated, the video effect imparting
フットセンサ43−6が操作されたとき、映像効果付与処理部64は、撮像された画像91の画像データのうちの一部に、所定の遅延処理を施して、いわゆる、ゴーストを発生させることにより、画像106を生成する。このとき、検出されたユーザの動きの量と、遅延時間の長さが連動され、例えば、検出された動きの量が大きいほど、遅延時間が長くなり、ゴーストがはっきりと観察できる画像となる。
When the foot sensor 43-6 is operated, the video effect imparting
フットセンサ43−7が操作されたとき、映像効果付与処理部64は、撮像された画像91の画像データに、サイン波を乗算することにより、画像を歪曲させ、画像107を生成する。このとき、検出されたユーザの動きの量と、乗算されるサイン波の振幅の大きさが連動され、例えば、検出された動きの量が大きいほど、サイン波の振幅が大きくなるようになされ、歪曲量が大きくなるようになされる。
When the foot sensor 43-7 is operated, the video effect imparting
そして、フットセンサ43−8が操作されたとき、映像効果付与処理部64は、撮像された画像91のエッジ(輪郭)を検出し、その色相を変化させて、画像108生成する。このとき、検出されたユーザの動きの量と、色相の変化量が連動され、例えば、出された動きの量が大きいほど、色相の変化量が大きくなるようになされ、エッジのゆがみが増すようになされている。
When the foot sensor 43-8 is operated, the video effect imparting
また、フットセンサ43−1乃至43−8のうち、複数のフットセンサが同時に操作された場合、映像効果付与処理部64は、並行処理を行い、重複してエフェクトをかけて、図5に示されるような画像を生成させることができる。
In addition, when a plurality of foot sensors among the foot sensors 43-1 to 43-8 are operated simultaneously, the video effect imparting
例えば、図5Aは、図4を用いて説明した画像104を生成するエフェクトと対応付けられているフットセンサ43−4と画像105を生成するエフェクトと対応付けられているフットセンサ43−5とが同時に操作されたときに生成される画像111である。画像111は、撮像された画像91に対して、検出されたユーザの動きの量のうちの横方向の動きが回転の角度に対応付けられて、縦方向の動きがスケールの値に割り付けられて、更に、検出されたユーザの動きに基づいた分割数に画像が分割されることにより生成されるものである。
For example, FIG. 5A includes a foot sensor 43-4 associated with the effect that generates the
また、図5Bは、図4を用いて説明した画像102を生成するエフェクトと対応付けられているフットセンサ43−2と画像104を生成するエフェクトと対応付けられているフットセンサ43−4とが同時に操作されたときに生成される画像112である。画像112は、撮像された画像91に対して、検出されたユーザの動きのうち、横方向の動きが、セルのリマッピングの変化量に対応付けられ、縦方向の動きが、セルの位置変化のスピードに対応付けられ、更に、検出されたユーザの動きに基づいた分割数に画像が分割されることにより生成されるものである。
5B includes a foot sensor 43-2 associated with the effect for generating the
なお、図4および図5においては、説明のため、LEDライトを装着したユーザの手がカメラ42近傍正面にある場合の映像を例として説明したが、プレイ中に撮像される映像には、通常、ユーザの頭部、上半身などを含む、ユーザの身体の多くの部分が含まれることは言うまでもない。
In FIGS. 4 and 5, for the sake of explanation, an example has been described in which the user's hand wearing the LED light is in front of the
図3の説明に戻る。 Returning to the description of FIG.
効果音生成部65は、動き検出部62から供給されたユーザの動きの検出結果、および、フットセンサ入力検出部66から供給されたユーザのフットセンサ43−1乃至43−8への操作入力を示す信号を基に、伴奏生成部67から供給された伴奏の音声データに、所定のエフェクトを施したり、例えば、楽器の音などを含む効果音を付与して、その結果得られる音声データを、セルフムービー記憶部68に供給する。効果音生成部65は、伴奏生成部67から、現在再生中の伴奏のコード、現在のテンション変数、または、現在再生中のセクションなどを示す情報を得て、これらを基に、効果音を生成したり、エフェクトを施す処理を実行する。
The sound
ここでは、効果音生成に関して、フットセンサ43−1乃至43−8にはそれぞれに独立した効果音の付加が対応付けられており、効果音のパラメータなどは、動き検出部62により検出されるユーザの動き量により決定されるようになされているものとして説明する。また、動き検出部62により検出されるユーザの動き量に対して、各種パラメータがリニアに変化されるようにしても良いし、動き検出部62により検出されるユーザの動き量を所定の量子化ステップで量子化して、各種パラメータに関連つけるようにしても良い。
Here, regarding the sound effect generation, the foot sensors 43-1 to 43-8 are associated with the addition of independent sound effects, and the sound effect parameters and the like are detected by the
例えば、フットセンサ43−1が操作されたとき、効果音生成部65は、供給された伴奏にノイズを付加する。そのとき、検出されたユーザの動き量が、ホワイトノイズのバンドパスフィルタの周波数に対応付けられ、例えば、ユーザの単位時間あたりの動きの検出量が増加するとフィルタのカットオフ周波数が上昇し、動きの検出量が減少すると、フィルタのカットオフ周波数は、ゆるやかに初期値に戻るようになされている。
For example, when the foot sensor 43-1 is operated, the sound
また、例えば、フットセンサ43−2が操作されたとき、効果音生成部65は、供給された伴奏に所定のサンプル音声を付加する。そのとき、検出されたユーザの横方向の動きの大きさが、サンプル中の再生位置に対応付けられ、その動きの早さが、サンプルの再生速度に対応付けられる。したがって、ユーザは、LEDライトを把持または装着した手を左右に振ることによって、サンプルをレコードのように、前後に再生させることができ、更に、手の左右の動作のスピードによって再生スピードをコントロールすることができる。なお、付与されるサンプルは予め内部に保存されているサンプル集から、ランダムでロードされるようになされている。
Further, for example, when the foot sensor 43-2 is operated, the sound
例えば、フットセンサ43−3が操作されたとき、効果音生成部65は、所定のステップ数(例えば、16ステップ)のパターンを基に、検出されたユーザの横方向の動きの大きさに基づいて、現在出力されている伴奏のコードで規定される音階のうちのいずれかの音程を選んで伴奏に付加して出力する。したがって、ユーザは、LEDライトを把持または装着した手を左右に振ることによって、常にコード進行に乗った(伴奏に対して不協和音とならない)メロディーを仮想的に演奏する(仮想的に楽器を演奏する)ことができる。
For example, when the foot sensor 43-3 is operated, the sound
例えば、フットセンサ43−4が操作されたとき、効果音生成部65は、検出されたユーザの横方向の動きの大きさに基づいて、現在出力されている伴奏のコードで規定される音階のうちのいずれかの音程を選び、検出されたユーザの縦方向の動きの大きさに基づいて、音色(FM量)を選択して、伴奏に付加して出力する。したがって、ユーザは、LEDライトを把持または装着した手を左右に振ることによって、常にコード進行に乗った(伴奏に対して不協和音とならない)メロディーを、手の上下動によって変化される音色で、仮想的に演奏する(仮想的に楽器を演奏する)ことができる。
For example, when the foot sensor 43-4 is operated, the sound
また、例えば、フットセンサ43−5が操作されたとき、効果音生成部65は、フィルタがかかったホワイトノイズを常に変化するパターンで出力させることにより、レコードをスクラッチしたような音を伴奏に付加して出力する。検出されたユーザの横方向の動きの大きさによって、フィルタのカットオフがコントロールされるようになされている。
Also, for example, when the foot sensor 43-5 is operated, the sound
例えば、フットセンサ43−6が操作されたとき、効果音生成部65は、所定のステップ数(例えば、16ステップ)のパターンを基に、検出されたユーザの横方向の動きの大きさに基づいて、現在出力されている伴奏のコードで規定される音階のうちのいずれかの音程を選び、検出されたユーザの縦方向の動きの大きさに基づいて、時間軸に対する音の出現密度を変更させて、伴奏に付加して出力する。したがって、ユーザは、LEDライトを把持または装着した手を左右に振ることによって、常にコード進行に乗った(伴奏に対して不協和音とならない)メロディーを、手の上下動によって変化される演奏密度で、演奏する(仮想的に楽器を演奏する)ことができる。
For example, when the foot sensor 43-6 is operated, the sound
例えば、フットセンサ43−7が操作されたとき、効果音生成部65は、供給された伴奏に歌声の断片(一言二言の人間の声)のサンプル音声を付加する。そのとき、検出されたユーザの横方向の動きの大きさに基づいて、現在出力されている伴奏のコードで規定される音階のうちのいずれかの音程が選択される。したがって、したがって、ユーザは、LEDライトを把持または装着した手を左右に振ることによって、常にコード進行に乗った(伴奏に対して不協和音とならない)メロディーの歌声を付加することができる。なお、付与される歌声のサンプルは予め内部に保存されているサンプル集から、ランダムでロードされるようになされている。
For example, when the foot sensor 43-7 is operated, the sound
例えば、フットセンサ43−8が操作されたとき、効果音生成部65は、伴奏生成部67から供給された伴奏の現在のテンション変数を、検出されたユーザの動きの大きさに基づいて変更する。テンション変数により、伴奏を構成する複数の楽器の音域の広さがコントロールされるので、例えば、ユーザの単位時間あたりの動きの検出量が増加すると、伴奏の音域が広がって、生成される音が明るくなり、動きの検出量が減少すると、伴奏の音域が狭くなり、生成される音が落ち着いた雰囲気のものになるようになされている。
For example, when the foot sensor 43-8 is operated, the sound
なお、ここでは、自動作成された伴奏に、ユーザによるフットセンサ43−1乃至43−8の操作およびユーザの動き量の検出値に基づいて作成される音を加えることにより、ユーザが、そのパフォーマンスによって、伴奏に合わせて所定の効果音を付与したり、仮想的な演奏を行ったりすることができるようになされているが、例えば、自動作成された伴奏、または、ランダムに選択された、予め記憶されているサンプリング音源に対して、ユーザによるフットセンサ43−1乃至43−8の操作およびユーザの動き量の検出値に基づいて、各種エフェクト処理を行うようにしてもよい。 In addition, here, by adding sound created based on the user's operation of the foot sensors 43-1 to 43-8 and the detected value of the amount of movement of the user to the automatically created accompaniment, the user can perform the performance. Can give a predetermined sound effect according to the accompaniment or perform a virtual performance. For example, an automatically created accompaniment or a randomly selected pre- Various effect processes may be performed on the stored sampling sound source based on the operation of the foot sensors 43-1 to 43-8 by the user and the detected value of the amount of movement of the user.
また、画像処理における場合と同様にして、同時に複数のフットセンサが操作されたとき、それぞれのフットセンサの操作入力により付与される効果音などが同時に出力されるものとしても良い。 Similarly to the case of image processing, when a plurality of foot sensors are operated at the same time, sound effects given by operation inputs of the respective foot sensors may be output simultaneously.
また、所定のフットセンサを操作した場合に実行される、撮像された映像へのエフェクトの付与と、伴奏に付与される効果音などとは、関連性があるようにしても良い。例えば、上述した例によると、フットセンサ43−5が操作されたとき、映像効果付与処理部64は、撮像された画像91を所定のスケールに縮小し、所定の角度に回転させて、万華鏡のような効果が与えられた画像105を生成し、効果音生成部65は、フィルタがかかったホワイトノイズを常に変化するパターンで出力させることにより、レコードをスクラッチしたような音を伴奏に付加して出力する。すなわち、ユーザは、フットセンサ43−5を操作したとき、出力される映像および音声から「回転」を感じることができる。
In addition, the application of the effect to the captured image and the sound effect applied to the accompaniment that are executed when a predetermined foot sensor is operated may be related to each other. For example, according to the above-described example, when the foot sensor 43-5 is operated, the video effect imparting
また、フットセンサ43−2が操作されたとき、映像効果付与処理部64は、撮像された画像91を複数のセルに分割し、それぞれのセルをリマッピングすることにより、ジグソーパズルのような効果が与えられた画像102を生成し、効果音生成部65は、供給された伴奏に所定のサンプル音声を付加するようになされている。このとき、映像効果付与処理部64は、検出されたユーザの動きのうち、横方向の動きを、セルのリマッピングの変化量に対応付け、縦方向の動きを、セルの位置変化のスピードに対応付けるので、例えば、検出された動きの量が大きいほど、セルの位置変化のスピード、変化量が増すようになされている。そして、効果音生成部65は、検出されたユーザの横方向の動きの大きさを、サンプル中の再生位置に対応付け、動きの早さを、サンプルの再生速度に対応付けるようになされている。すなわち、ユーザは、フットセンサ43−2を操作したとき、動きの大きさとその速さによって、出力される映像および音声の「単位時間当たりの変化量」を操作していることを感じ、映像と音声の変化のスピード感を楽しむことができる。
When the foot sensor 43-2 is operated, the video effect imparting
このようにして、撮像された映像へのエフェクトの付与と、伴奏に付与される効果音などとで、関連性(処理の関連性のみならず、ユーザに与える感覚的な関連性であっても良い)を有するものを、同一のフットセンサの操作に対応付けるようにすることにより、ユーザは、容易に「ユーザのイメージ」に合致したコンテンツを作成することができる。 In this way, the relationship between the application of the effect to the captured image and the sound effect added to the accompaniment (not only the relationship of processing but also the sensory relationship given to the user) By associating those having “good” with the operation of the same foot sensor, the user can easily create content that matches the “user's image”.
次に、セルフムービー記憶部68は、映像効果付与処理部64から供給されたエフェクト付与済みの映像データと、効果音生成部65から供給された効果音付与済みの音声データとをバッファリングして、エフェクト付与済みの映像データを映像表示制御部69に供給し、効果音付与済みの音声データを音声出力制御部70に出力するとともに、エフェクト付与済みの映像データと効果音付与済みの音声データとにより構成されるセルフムービーを所定のフォーマットでエンコードし、ネットワークインターフェース71に供給する。
Next, the self-
映像表示制御部69は、セルフムービー記憶部68から供給される映像データのモニタ44への表示を制御する。音声出力制御部70は、セルフムービー記憶部68から供給される音声データの、スピーカ45−1乃至45−6からの音声出力を制御する。
The video
ネットワークインターフェース71は、エンコードされた映像と音声から構成されるセルフムービーと、セルフムービーを固有に区別可能な情報(例えば、操作入力部41により入力されたユーザIDなどの情報を用いるようにしても良いし、または、現在時刻および自分自身の機器IDなどを基に、セルフムービーIDを生成するようにしてもよい)を、ネットワーク1を介して、セルフムービー配信サーバ3に送信し、ユーザがセルフムービー配信サーバ3にセルフムービーのダウンロード要求を行う場合にアクセスするウェブページのURLなどの情報をユーザが保有する携帯型電話機4などに送信する。
The
また、セルフムービー作成装置2においては、ユーザが、自分の動作と、映像、音声、および照明などに与えられるエフェクトとの関係をある程度理解することができるように、ユーザからプレイ開始が指令されてから、例えば、30秒間や1分間など、所定の時間を、ユーザの動作の検出結果およびフットセンサ43−1乃至43−8への操作入力を基に、撮像された映像にエフェクトが施されてモニタ44に映像が表示され、生成された伴奏に効果音が付与されてスピーカ45−1乃至45−6から音声が出力されるが、セルフムービーとしては記憶されない「練習モード」とし、その後、更に、30秒間や1分間など、所定の時間を、エフェクトが施された映像データが表示され、効果音が付与された音声データが音声出力されるとともに、セルフムービーとして記憶され、ネットワーク1を介して、セルフムービー作成サーバ3に供給される「セルフムービーモード」とすることができる。
Further, in the self-
ここで、「練習モード」として設定される時間および「セルフムービーモード」として設定される時間は、それぞれ、適宜設定可能な時間であることは言うまでもない。例えば、「練習モード」として設定される時間が長ければ、ユーザは、自分の動作と、映像、音声、および照明などに与えられるエフェクトとの関係をよりよく理解することができ、「練習モード」として設定される時間が短ければ、セルフムービー作成における意外性が増すという効果が発生する。 Here, it is needless to say that the time set as the “practice mode” and the time set as the “self-movie mode” can be set as appropriate. For example, if the time set as the “practice mode” is long, the user can better understand the relationship between his / her actions and effects given to video, audio, lighting, and the like. If the time set as is short, there is an effect that the unexpectedness in the self-movie creation increases.
また、以上の説明においては、作成されたセルフムービーは、ネットワーク1を介して、セルフムービー配信サーバ3に送信されるものとして説明したが、作成されたセルフムービーを、ユーザが保有する携帯型電話機4またはPDA5などに、例えば、Bluetoothなどの無線通信を利用して、または、ネットワーク1を介して、電子メールなどのシステムを利用して、セルフムービー配信サーバ3を介することなく、直接、ユーザに供給されるようにしても良い。
Further, in the above description, the created self-movie has been described as being transmitted to the self-
図6は、セルフムービー配信サーバ3の構成を示すブロック図である。
FIG. 6 is a block diagram showing a configuration of the self-
セルフムービー配信サーバ3のCPU(Central Processing Unit)211は、セルフムービー配信サーバ3の動作の全体を制御する。また、CPU211は、内部バス213および入出力インターフェース212を介して、マウス231やキーボード232などからなる入力部214から、セルフムービー配信サーバ3の管理者による操作入力が入力されると、それに対応してROM(Read Only Memory)215に格納されているプログラムをRAM(Random Access Memory)216にロードして実行する。あるいはまた、CPU211は、HDD218にインストールされたプログラムをRAM216にロードして実行し、ディスプレイ233やスピーカ234などの出力部217に実行結果を出力させる。更に、CPU211は、ネットワークインターフェース220を制御して、外部と通信し、データの授受を実行する。
A CPU (Central Processing Unit) 211 of the self-
また、HDD218は、セルフムービー作成装置2からネットワークを介して送信されたセルフムービーを、セルフムービー固有の情報と対応つけて記憶し、更に、必要に応じて、認証処理または課金処理に必要となるユーザの個人情報などを記憶する。
The
また、CPU211は、内部バス213および入出力インターフェース212を介して、必要に応じてドライブ219と接続され、ドライブ219に必要に応じて装着された磁気ディスク221、光ディスク222、光磁気ディスク223、または半導体メモリ224と情報を授受することができるようになされている。
The
更に、CPU211は、内部バス213を介して、画像処理部241、音声処理部242、課金処理部243、および、認証処理部244と接続されている。
Further, the
画像処理部241は、CPU211の制御に基づいて、ユーザからダウンロードが要求されているセルフムービーの映像データをHDD218から読み出して、セルフムービーの配信先となる機器(例えば、携帯型電話機4、PDA5、パーソナルコンピュータ6、または、ホームサーバ7)の種類に応じて、映像フォーマットや解像度などを変換する。
Based on the control of the
音声処理部242は、CPU211の制御に基づいて、ユーザからダウンロードが要求されているセルフムービーの音声データをHDD218から読み出して、セルフムービーの配信先となる機器(例えば、携帯型電話機4、PDA5、パーソナルコンピュータ6、または、ホームサーバ7)の種類に応じて、音声フォーマットやチャンネル数などを変換する。
Based on the control of the
例えば、セルフムービー作成装置2から送信されたセルフムービーのフォーマットが、3GPP(3rd Generation Partnership Project)など、携帯型電話機4、PDA5,パーソナルコンピュータ6、その他の機器において、共通に視聴可能なフォーマットである場合、セルフムービー配信サーバ3は、ユーザに要求されたセルフムービーをHDD218から読み出して、データの変換を行うことなく送信するようにしても良い。しかしながら、セルフムービーの配信先となる機器によって、処理可能なデータのフォーマット形式、表示可能な映像の解像度、音声データを出力するスピーカシステム(例えば、モノラル、ステレオ、5.1chなど)などが異なるので、セルフムービー作成装置2から送信されたセルフムービーのフォーマットが、送信先の機器におけるセルフムービーの視聴に適さないものである場合、画像処理部241および音声処理部242は、CPU211の制御に基づいて、セルフムービー作成装置2から送信されたセルフムービーを、出力先の機器において視聴可能な形式に変換する処理を実行する。
For example, the format of the self-movie transmitted from the self-
課金処理部243は、CPU211の制御に基づいて、必要に応じて、HDD218に記憶されているユーザの個人情報を参照したり、セルフムービーを要求するユーザから送信された課金に必要な情報を基にして、他の金融機関(例えば、クレジットカードや電子マネーシステムのサービス提供者)のサーバにアクセスすることなどにより、課金処理を実行する。
Based on the control of the
認証処理部244は、CPU211の制御に基づいて、必要に応じて、HDD218に記憶されているユーザの個人情報を参照し、セルフムービーを要求するユーザから送信された認証に必要な情報を用いて、認証処理を実行する。
Based on the control of the
次に、図7のフローチャートを参照して、図3を用いて説明したセルフムービー作成装置2が実行する、セルフムービー作成処理1について説明する。
Next, the self-
ここでは、ユーザからプレイ開始が指令されてから、例えば、30秒間や1分間など、所定の時間においては、エフェクトが施された映像データおよび効果音が付与された音声データが、モニタ44に表示され、スピーカ45−1乃至45−6から出力されるが、セルフムービーとしては記憶されない、「練習モード」とし、その後、30秒間や1分間など、所定の時間において、エフェクトが施された映像データおよび効果音が付与された音声データが、モニタ44に表示され、スピーカ45−1乃至45−6から出力されるとともに、セルフムービーとして記憶され、ネットワーク1を介して、セルフムービー作成サーバ3に供給される、「セルフムービーモード」となるものとして説明する。
Here, for example, for a predetermined time such as 30 seconds or 1 minute after the start of play is instructed by the user, the video data with the effect and the audio data with the sound effect are displayed on the
ステップS1において、受信部51は、例えば、携帯電話機4やPDA5などの、ユーザが有する携帯型の機器から、赤外線通信などにより、テキストデータの入力を受けたか否かを判断する。
In step S <b> 1, the receiving
ステップS1において、テキストデータの入力を受けたと判断された場合、ステップS2において、受信部51は、入力されたテキストデータを映像効果付与処理部64に供給する。映像効果付与処理部64は、入力されたテキストデータを映像に重畳可能な、例えば、ビットマップなどの画像データに変換し、内部に有する図示しないページバッファなどに一時保存する。
If it is determined in step S1 that text data has been input, in step S2, the receiving
ステップS1において、テキストデータの入力を受けていないと判断された場合、または、ステップS2の処理の終了後、ステップS3において、操作入力部41は、ユーザから、プレイ開始の操作入力を受けたか否かを判断する。ステップS3において、プレイ開始の操作入力を受けていないと判断された場合、プレイ開始の操作入力を受けたと判断されるまで、ステップS3の処理が繰り返される。
If it is determined in step S1 that no text data has been input, or after the processing in step S2, the
ステップS3において、プレイ開始の操作入力を受けたと判断された場合、操作入力部41は、プレイ開始を示す制御信号を、画像処理部61、映像効果付与処理部64、フットセンサ入力検出部66、および、伴奏生成部67に供給するので、ステップS4において、伴奏生成部67は、セルフムービーの音声データの基となる伴奏に対応する音声データを作成する。また、伴奏生成部67は、例えば、「練習モード」から「セルフムービーモード」へ移行することを、伴奏の変化によって知らせることができるように、伴奏を生成するようにしても良い。
When it is determined in step S3 that an operation input for starting play has been received, the
ステップS5において、画像処理部61は、カメラ42により撮像された映像の取得を開始し、例えば、A/D変換や、ガンマ補正、ホワイトバランス調整などの各種信号処理を施して、動き検出部62、および、映像効果付与処理部64に供給する。
In step S <b> 5, the
ステップS6において、動き検出部62は、撮像された映像を基に、ユーザが把持または装着しているLEDライトの動きを追跡したり、映像データの動きベクトルの大きさを検出することなどにより、ユーザの動きを検出し、検出結果を、照明制御部63、映像効果付与処理部64、および、効果音生成部65に供給する。
In step S6, the
ステップS7において、照明制御部63は、検出されたユーザの動きを基に照明を制御する。照明制御部63は、例えば、検出された動きの大きさ、または、検出された動きの大きさの変化量に合わせて、照明の照度、または、点滅速度などを変えるなどして、照明を制御する。
In step S <b> 7, the
ステップS8において、フットセンサ入力検出部66は、フットセンサ43−1乃至43−8から供給される信号を基に、いずれかのフットセンサが操作されたか否かを判断する。
In step S8, the foot sensor
ステップS8において、いずれかのフットセンサが操作されたと判断された場合、フットセンサ入力検出部66は、いずれのフットセンサが操作されたのかを示す信号を、照明制御部63、映像効果付与処理部64、および、効果音生成部65に供給するので、ステップS9において、映像効果付与処理部64は、フットセンサ入力検出部66から供給された信号を基に、図4および図5を用いて説明したように、操作されたフットセンサに対応する映像のエフェクトを、検出されたユーザの動きに応じて、画像処理部61から供給された撮像された映像(必要に応じて、受信部51から供給されたテキストデータが重畳されている映像)に施して、セルフムービー記憶部68に供給する。
If it is determined in step S8 that any one of the foot sensors has been operated, the foot sensor
ステップS10において、効果音生成部65は、フットセンサ入力検出部66から供給された信号を基に、操作されたフットセンサに対応する音声効果を用いて、検出されたユーザの動きを基に、伴奏作成部67から供給された伴奏に対応する音声データに、上述したような効果音を付与して、セルフムービーの音声データを生成し、セルフムービー記憶部68に供給する。
In step S10, the sound
ステップS11において、照明制御部63は、フットセンサ入力検出部66から供給された信号を基に、例えば、操作されたフットセンサに対応して点灯させる照明の種類を変更するなどして、照明を制御する。
In step S <b> 11, the
なお、ここでは、ステップS6乃至ステップS11の処理を、順次実行される処理ステップとして説明したが、これらの処理は、並行して実行され、リアルタイムで処理されるものである。 In addition, although the process of step S6 thru | or step S11 was demonstrated as a process step performed sequentially here, these processes are performed in parallel and processed in real time.
ステップS12において、セルフムービー記憶部68は、プレイ開始からすでに所定の時間が経過しているか否かを判断する。ステップS12において、プレイ開始から所定の時間が経過していないと判断された場合、セルフムービー記憶部68は、映像表示制御部69に映像データを供給して、モニタ44に表示させ、音声出力制御部70に音声データを供給して、スピーカ45−1乃至45−6から出力させるが、内部に記憶はしないで、処理は、ステップS6に戻り、それ以降の処理が繰り返される。
In step S12, the self-
ステップS12において、プレイ開始から所定の時間が経過したと判断された場合、ステップS13において、セルフムービー記憶部68は、映像表示制御部69に映像データを供給して、モニタ44に表示させ、音声出力制御部70に音声データを供給して、スピーカ45−1乃至45−6から出力させるとともに、映像データおよび音声データを記憶する、すなわち、セルフムービー配信サーバ3に送信するために、セルフムービーの録画および録音を行う。
If it is determined in step S12 that a predetermined time has elapsed since the start of play, in step S13, the self-
ステップS14において、セルフムービー作成装置2の各部は、プレイ終了時刻となったか否かを判断する。ステップS14において、プレイ終了時刻となっていないと判断された場合、処理は、ステップS6に戻り、それ以降の処理が繰り返される。
In step S14, each part of the self-
ステップS14において、プレイ終了時刻となったと判断された場合、ステップS15において、セルフムービー記憶部68は、録画した映像データおよび録音した音声データ、すなわち、生成されたセルフムービーを、ネットワークインターフェース71に供給する。ネットワークインターフェース71は、供給されたセルフムービーを、セルフムービーを固有に区別可能な情報とともに、ネットワーク1を介して、セルフムービー配信サーバ3に送信し、処理が終了される。
If it is determined in step S14 that the play end time is reached, in step S15, the self-
このような処理により、ユーザのパフォーマンスを、フットセンサ43−1乃至43−8への操作入力と、撮像された映像から検出される動き量との2種類の方法で検出し、検出されたユーザのパフォーマンスを基に、撮像された映像にエフェクトを施し、作成された伴奏に効果音を付与することができるようにしたので、オリジナリティのある、高度な画像処理や音声処理が施されたセルフムービーを生成することができる。ユーザは、セルフムービーの作成において、自己表現することができ、能動的に楽しむことができる。 Through such processing, the user performance is detected by two types of methods, that is, an operation input to the foot sensors 43-1 to 43-8 and a motion amount detected from the captured image, and the detected user is detected. Based on the performance of the video, it is possible to apply effects to the captured video and add sound effects to the created accompaniment. Can be generated. The user can express himself / herself in the creation of the self-movie and can enjoy it actively.
なお、セルフムービーを固有に区別可能な情報は、ユーザにより入力される情報であっても、セルフムービー作成装置2が、例えば、年月日時刻情報と機器IDなどから作成する情報であっても良く、セルフムービー作成装置2が作成する場合は、ユーザに通知して、ダウンロードのときに利用することができるようにしても良い。
Note that the information that can uniquely distinguish the self-movie may be information input by the user, or information that the self-
次に、図8のフローチャートを参照して、図6を用いて説明したセルフムービー配信サーバ3が実行する処理について説明する。
Next, processing executed by the self-
ステップS31において、CPU211は、ネットワークインターフェース220がセルフムービー作成装置2のうちのいずれかから、録画された映像データおよび録音された音声データ、すなわち、作成されたセルフムービーを受信したか否かを判断する。
In step S31, the
ステップS31において、セルフムービーを受信したと判断された場合、ステップS32において、CPU211は、セルフムービーを個別に区別可能するために必要な情報である、例えば、ユーザIDや、セルフムービー作成装置2において作成された情報などとともに、セルフムービーをHDD218のセルフムービー記憶領域に記憶する。
If it is determined in step S31 that a self-movie has been received, in step S32, the
ステップS31において、セルフムービーを受信していないと判断された場合、または、ステップS32の処理の終了後、ステップS33において、CPU211は、ネットワークインターフェース220が、セルフムービー作成装置2のうちのいずれかから、セルフムービーのダウンロード要求を示す信号を受信したか否かを判断する。セルフムービーのダウンロード要求を示す信号には、例えば、ユーザの認証に必要な情報、ダウンロード先となる機器に関する情報、および、課金処理に必要な情報などが含まれている。ステップS33において、セルフムービーのダウンロード要求を受けていないと判断された場合、処理は、ステップS31に戻り、それ以降の処理が繰り返される。
If it is determined in step S31 that a self-movie has not been received, or after the processing in step S32 is completed, the
ステップS33において、セルフムービーのダウンロード要求を受けたと判断された場合、ステップS34において、CPU211は、認証処理部244を制御して、認証処理を実行させる。
If it is determined in step S33 that a self-movie download request has been received, in step S34, the
ステップS35において、CPU211は、認証処理部244から供給される、認証処理の結果を基に、セルフムービーのダウンロードを要求したユーザは、正しいユーザであると認証されたか否かを判断する。
In step S <b> 35, the
ステップS35において、正しいユーザであると認証されたと判断された場合、ステップS36において、CPU211は、HDD218から、ユーザがダウンロードを要求した対応するセルフムービーを検索して読み出す。
If it is determined in step S35 that the user has been authenticated, in step S36, the
ステップS37において、CPU211は、読み出されたセルフムービーのデータ形式と、送信先の機器が、例えば、携帯型電話機4、PDA5,パーソナルコンピュータ6、または、ホームサーバ7のいずれであるかなどの情報を基に、送信先の機器は、データの変換が必要であるか否かを判断する。具体的には、セルフムービーの送信先の機器が、例えば、携帯型電話機4やPDA5などの小型の装置である場合、音声データが5.1chのドルビーデジタルデータであっても、ステレオでしか再生することはできず、それらの機器のモニタが表示可能な映像の大きさや解像度などの映像の品質も、例えば、パーソナルコンピュータ6やテレビジョン受像機8などにおける場合と比較して、低いものとなる。また、パーソナルコンピュータ6、または、ホームサーバ7などにセルフムービーが送信される場合も、それらの機器が保有する映像表示および音声出力の機能は、それぞれ異なるものとなる。したがって、CPU211は、セルフムービーのダウンロード要求を示す信号に含まれていた、ダウンロード先となる機器に関する情報を基に、データの変換が必要であるか否かを判断する。
In step S <b> 37, the
ステップS37において、データの変換が必要であると判断された場合、ステップS38において、CPU211は、画像処理部241および音声処理部242を制御して、送信先の機器に対応するデータ形式に、セルフムービーを変換する。
If it is determined in step S37 that data conversion is necessary, in step S38, the
ステップS37において、データの変換は必要ではないと判断された場合、または、ステップS38の処理の終了後、ステップS39において、CPU211は、課金処理部243を制御して、課金処理を実行させる。
If it is determined in step S37 that data conversion is not necessary, or after the process of step S38 is completed, in step S39, the
ステップS40において、CPU211は、ネットワークインターフェース220を制御して、ネットワーク1を介して、セルフムービーのダウンロード要求元の機器に、セルフムービーを送信し、処理が終了される。
In step S <b> 40, the
ステップS35において、正しいユーザであると認証されなかったと判断された場合、ステップS41において、CPU211は、ネットワークインターフェース220を制御して、ネットワーク1を介して、セルフムービーのダウンロード要求元の機器に、エラーメッセージを送信して、処理が終了される。
If it is determined in step S35 that the user is not authenticated as the correct user, in step S41, the
このような処理により、セルフムービー作成装置2から送信されたセルフムービーが、ユーザに配信され、課金処理が実行される。
Through such processing, the self-movie transmitted from the self-
なお、図8を用いて説明した処理では、セルフムービーのダウンロード要求ごとに、認証処理および課金処理を行うものとして説明したが、認証処理および課金処理は、省略されたり、例えば、月や年毎に行われるようにしても良い。 In the process described with reference to FIG. 8, it has been described that the authentication process and the charging process are performed for each self-movie download request. However, the authentication process and the charging process may be omitted, for example, monthly or yearly. It may be made to be performed.
以上の説明においては、セルフムービー作成装置2は、図2および図3を用いて説明したように、筺体21および床22により、ユーザが内部で充分動作可能な空間を構成するような、大型の装置であり、床22に設けられているフットセンサ43−1乃至43−8への操作入力に、映像のエフェクトおよび音声の効果音付与を対応付けるものとして説明したが、映像を撮像し、ユーザにより操作入力受けることができ、画像処理および音声データの処理が可能で、更に、映像および音声の出力が可能な装置であれば、例えば、携帯型電話機4、PDA5、パーソナルコンピュータ6、または、ディジタルスチルカメラ、もしくは、ディジタルビデオカメラなども、セルフムービ作成装置2として利用することが可能である。
In the above description, as described with reference to FIGS. 2 and 3, the self-
次に、図9は、セルフムービー作成装置2の第2の実施の形態の構成例について説明するための機能ブロック図である。セルフムービー作成装置2は、図9の機能ブロック図に図示された機能を、ハードウェア、または、ソフトウェアにより実現可能な装置であれば、例えば、上述した携帯型電話機4、PDA5、パーソナルコンピュータ6、または、ディジタルスチルカメラ、もしくは、ディジタルビデオカメラ以外の、いかなる装置を利用するようにしても良いし、セルフムービーの作成のための装置(オリジナルデバイス)を用いるようにしても良い。
Next, FIG. 9 is a functional block diagram for explaining a configuration example of the second embodiment of the self-
なお、図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。 Note that portions corresponding to those in FIG. 3 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
すなわち、図9のセルフムービー作成装置2は、操作入力部41およびフットセンサ43−1乃至43−8に代わって、例えば、携帯型電話機4、PDA5、パーソナルコンピュータ6、ディジタルスチルカメラ、または、ディジタルビデオなどが有するボタン、キー、ダイヤルなどの操作入力部302が、ユーザの操作入力を受けるものとして用いられ、カメラ42に代わって、例えば、携帯型電話機4、PDA5、パーソナルコンピュータ6、ディジタルスチルカメラ、または、ディジタルビデオカメラなどのカメラ301が映像を撮像するものとして用いられ、モニタ44に代わって、例えば、携帯型電話機4、PDA5、パーソナルコンピュータ6、ディジタルスチルカメラ、または、ディジタルビデオカメラなどのモニタ303がエフェクトが施された映像の表示に用いられ、スピーカ45−1乃至54−6に代わって、スピーカ304−1および304−2が、効果音が付与された音声の出力に用いられており、フットセンサ入力検出部66、照明制御部63、および、照明47−1乃至47−5が省略されている以外は、基本的に、図3を用いて説明した場合と同様の構成を有している。
That is, the self-
操作入力部302のボタン、キー、ダイヤルなどは、テキストデータの入力や、プレイ開始の指令の入力以外にも、プレイ中においては、図2および図3を用いて説明したフットセンサ43−1乃至43−8と同様に、所定の映像のエフェクトと、伴奏へ付加される効果音の種類(または、伴奏もしくはサンプル音源に対して施されるエフェクト)とに対応付けられているものとする。なお、ボタンやキーなどが、同時に複数操作された場合、同時に操作された複数のボタンやキーに対応付けられているエフェクトまたは音声データの付加が、同時に施される(合成して処理される)ようにしても良い。 The buttons, keys, dials, etc. of the operation input unit 302 are not limited to text data input and play start command input, but during play, the foot sensors 43-1 to 4-3 described with reference to FIGS. Similarly to 43-8, it is assumed that the effect of a predetermined video is associated with the type of sound effect added to the accompaniment (or the effect applied to the accompaniment or sample sound source). When a plurality of buttons and keys are operated at the same time, effects or audio data associated with the simultaneously operated buttons and keys are added at the same time (combined and processed). You may do it.
例えば、図9のセルフムービー作成装置2が、携帯型電話機4、PDA5など、ユーザが把持した状態で、操作入力が可能な小型の装置であったとき、ユーザは、プレイ中に、それらの装置が有するカメラ301で、自分自身、または、他人を撮像しながら、ボタン、キー、ダイヤルなどの操作入力部302を操作して、撮像された映像にエフェクトをかけ、自動作成された伴奏に効果音などを付加して、セルフムービーを作成することができる。
For example, when the self-
そして、作成されたセルフムービーは、「練習モード」および「セルフムービーモード」において、モニタ303に表示され、スピーカ304−1および304−2から音声出力されるとともに、「セルフムービーモード」において、記憶されて、ネットワークインターフェース71から、ネットワーク1を介して、セルフムービー配信サーバ3に送信される。
The created self-movie is displayed on the
次に、図10のフローチャートを参照して、図9を用いて説明したセルフムービー作成装置2が実行するセルフムービー作成処理2について説明する。
Next, the self-
ステップS61乃至ステップS66において、図7を用いて説明したステップS1乃至ステップS6と基本的に同様の処理が実行される。 In steps S61 to S66, basically the same processing as that in steps S1 to S6 described with reference to FIG. 7 is executed.
すなわち、操作入力部302からテキストデータの入力を受けた場合、入力されたテキストデータが映像効果付与処理部64に供給され、映像に重畳可能な、例えば、ビットマップなどの映像データに変換されて、内部に有する図示しないページバッファなどに一時保存される。そして、プレイ開始の操作入力を受けて、セルフムービーの音声データの基となる伴奏に対応する音声データが作成され、撮像された映像の取得が開始され、撮像された映像を基に、ユーザの動きが検出される。
That is, when text data is input from the operation input unit 302, the input text data is supplied to the video effect applying
ステップS67において、映像効果付与処理部64および効果音生成部65は、操作入力部302から供給される信号を基に、所定の映像のエフェクト、および、音声データの伴奏への効果音の付加に対応付けられているボタンやキーなどのうちのいずれかが操作されたか否かを判断する。
In step S67, the video effect imparting
ステップS67において、いずれかのボタンやキーが操作されたと判断された場合、ステップS68において、映像効果付与処理部64は、操作入力部302から供給された信号を基に、図4および図5を用いて説明したように、操作されたボタンやキーに対応する映像のエフェクトを、検出されたユーザの動きに応じて、画像処理部61から供給された撮像された映像(必要に応じて、操作入力部302から供給されたテキストデータが重畳されている映像)に施して、セルフムービー記憶部68に供給する。
If it is determined in step S67 that any button or key has been operated, in step S68, the video effect imparting
ステップS69において、効果音生成部65は、操作入力部302から供給された信号を基に、操作されたボタンやキーに対応する音声効果を用いて、検出されたユーザの動きを基に、伴奏作成部67から供給された伴奏に対応する音声データに、上述したような効果音を付与したり、音声エフェクトを施して、セルフムービーの音声データを生成し、セルフムービー記憶部68に供給する。
In step S <b> 69, the sound
なお、ここでは、ステップS66乃至ステップS69の処理を、順次実行される処理ステップとして説明したが、これらの処理は、並行して実行され、リアルタイムで処理されるものである。 In addition, although the process of step S66 thru | or step S69 was demonstrated as a process step performed sequentially here, these processes are performed in parallel and processed in real time.
そして、ステップS70乃至ステップS73において、図7を用いて説明したステップS12乃至ステップS15と基本的に同様の処理が実行されて、処理が終了される。 In steps S70 to S73, basically the same processing as that in steps S12 to S15 described with reference to FIG. 7 is executed, and the processing ends.
すなわち、プレイ開始からすでに所定の時間が経過しているか否かが判断され、所定の時間が経過していないと判断された場合、作成された映像がモニタ303に表示され、作成された音声データがスピーカ304−1および304−2から出力されるが、内部に記憶はされないで、処理は、ステップS66に戻り、それ以降の処理が繰り返される。そして、プレイ開始から所定の時間が経過したと判断された場合、同様にして、作成された映像がモニタ303に表示され、作成された音声データがスピーカ304−1および304−2から出力されるとともに、作成されたセルフムービーが記憶される。そして、プレイ終了時刻であるか否かが判断され、プレイ終了時刻ではないと判断された場合、処理は、ステップS66に戻り、それ以降の処理が繰り返され、プレイ終了時刻となったと判断された場合、生成されて記憶されたセルフムービーが、ネットワーク1を介して、セルフムービー配信サーバ3に送信され、処理が終了される。
That is, it is determined whether or not a predetermined time has elapsed since the start of play, and when it is determined that the predetermined time has not elapsed, the created video is displayed on the
このような処理により、ユーザのパフォーマンスを、ボタンやキーへの操作入力と、撮像された映像から検出される動き量との2種類の方法で検出し、検出されたユーザのパフォーマンスを基に、撮像された映像にエフェクトを施し、作成された伴奏に効果音を付与することができるようにしたので、特別な知識や技術を持たないユーザであっても、オリジナリティのある、高度な画像処理や音声処理が施されたセルフムービーを、携帯型電話機4、PDA5、パーソナルコンピュータ6、ディジタルスチルカメラ、または、ディジタルビデオカメラなどの身近な機器を用いて作成することができる。
Through such processing, the user's performance is detected by two types of methods, that is, an operation input to a button or a key and a motion amount detected from the captured video, and based on the detected user's performance, Since the effect was applied to the captured video and sound effects can be added to the created accompaniment, even users who do not have special knowledge or technology can use original, advanced image processing and A self-movie that has been subjected to sound processing can be created using familiar devices such as the
更に、例えば、クラブやパーティー会場などのオープンなスペースで、その会場全体を、セルフムービー作成装置として機能させるようにすることもできる。すなわち、会場内のいずれかの場所で映像を撮像し、その映像の動きを検出するとともに、所定の映像のエフェクトと、伴奏への効果音の付加(または、音声データへのエフェクト)とに対応付けられている、例えば、センサ、パッド、フットセンサ、または、ボタンやキーなどの操作入力部を複数設けるようにする。そして、上述した場合と同様の処理により、映像の動きおよび操作入力部への操作入力を基に、撮像された映像にエフェクトを施したり、音声データを生成するようにして、オープンなスペース全体で視聴可能なように、生成された映像を大画面のモニタに表示し、生成された音声データをスピーカから出力することも可能である。このとき、第1の実施の形態における場合と同様に、部屋全体の照明を制御することも可能であり、また、撮像されるユーザも、1人でなくても良く、複数のカメラを用意して、撮像ポイントを複数用意するようにすることもできる。 Furthermore, for example, in an open space such as a club or a party venue, the entire venue can be made to function as a self-movie creating apparatus. In other words, it captures video at any location in the venue, detects the motion of the video, and supports the effects of a given video and the addition of sound effects to accompaniment (or effects on audio data) For example, a plurality of operation input units such as sensors, pads, foot sensors, buttons or keys are provided. Then, through the same processing as described above, an effect is applied to the captured image and audio data is generated based on the motion of the image and the operation input to the operation input unit, and the entire open space is used. It is also possible to display the generated video on a large screen monitor so that it can be viewed, and to output the generated audio data from a speaker. At this time, as in the case of the first embodiment, it is also possible to control the illumination of the entire room, and the number of users to be imaged is not limited to one, and a plurality of cameras are prepared. Thus, a plurality of imaging points can be prepared.
すなわち、本発明は、第1の実施の形態における場合のように、筺体21によって閉ざされた空間を用意したり、第2の実施の形態における場合のように、ユーザが把持可能な小型の機器を用いるようにする以外でも、適用可能である。換言すれば、映像を撮像し、ユーザのパフォーマンスを検出することができる情報処理装置であれば、本発明を適用することにより、ユーザのパフォーマンスと、撮像された映像および作成された音声への効果の付与とを関連付けて、オリジナリティのある、高度な画像処理や音声処理が施されたセルフムービーを作成することができる。
That is, the present invention prepares a space closed by the
また、操作入力の自由度が高いため、初めてセルフムービーを作成するユーザは、単純な動作および操作入力を行っても、それなりに高度な効果が付与されたセルフムービーを作成することができるとともに、何度もプレイしたユーザは、自分の意図した高度な効果が付与されたセルフムービーを作成することができる。すなわち、ユーザは、セルフムービーの作成において、自己表現することができ、能動的に楽しむことができるので、シンプルなユーザインターフェースであっても、繰り返し楽しむことができる。 In addition, since the degree of freedom of operation input is high, a user who creates a self-movie for the first time can create a self-movie with a high degree of effect even if simple operation and operation input are performed, A user who has played many times can create a self-movie with a high-level effect intended by the user. In other words, the user can express themselves and actively enjoy the creation of a self-movie, so that even a simple user interface can be enjoyed repeatedly.
上述した一連の処理は、ソフトウェアにより実行することもできる。そのソフトウェアは、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。 The series of processes described above can also be executed by software. The software can be a computer in which the program constituting the software is installed in dedicated hardware, or various types of functions can be executed by installing various types of programs. It is installed from a recording medium on a computer or the like.
この記録媒体は、図6に示すように、コンピュータとは別にユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク221(フレキシブルディスクを含む)、光ディスク222(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク223(MD(Mini-Disc)(商標)を含む)、もしくは半導体メモリ224などよりなるパッケージメディアにより構成される。
As shown in FIG. 6, this recording medium is distributed to provide a program to the user separately from the computer, and includes a magnetic disk 221 (including a flexible disk) on which the program is recorded, an optical disk 222 (CD-ROM). (Including Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), magneto-optical disk 223 (including MD (Mini-Disc) (trademark)), or
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 Further, in the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 In the present specification, the term “system” represents the entire apparatus constituted by a plurality of apparatuses.
1 ネットワーク
2 セルフムービー作成装置
3 セルフムービー配信サーバ
41 操作入力部
42 カメラ
43 フットセンサ
44 モニタ
45 スピーカ
47 照明
62 動き検出部
63 照明制御部
64 映像効果付与処理部
65 効果音生成部
66 フットセンサ入力検出部
67 伴奏作成部
68 セルフムービー記憶部
211 CPU
241 画像処理部
242 音声処理部
243 課金処理部
244 認証処理部
DESCRIPTION OF
241
Claims (11)
第1の映像データを撮像する撮像手段と、
ユーザの動作に関する情報を取得する動作情報取得手段と、
前記ユーザの操作入力を取得する操作入力手段と、
第1の音声データを生成する音声生成手段と、
前記動作情報取得手段により取得された前記ユーザの動作に関する情報、および、前記操作入力手段により入力された前記ユーザの操作入力を基に、前記撮像手段により撮像された前記第1の映像データに所定の第1の処理を施して、前記コンテンツを構成する第2の映像データを生成する映像処理手段と、
前記動作情報取得手段により取得された前記ユーザの動作に関する情報、および、前記操作入力手段により入力された前記ユーザの操作入力を基に、前記音声生成手段により生成された前記第1の音声データに、所定の第2の処理を施して、前記コンテンツを構成する第2の音声データを生成する音声処理手段と、
前記映像処理手段により生成された前記第2の映像データの表示を制御する表示制御手段と、
前記音声処理手段により生成された前記第2の音声データの出力を制御する音声出力制御手段と
を備えることを特徴とする情報処理装置。 In an information processing apparatus that creates content,
Imaging means for imaging first video data;
Action information acquisition means for acquiring information relating to user actions;
An operation input means for acquiring the operation input of the user;
Voice generating means for generating first voice data;
Based on the information about the user's motion acquired by the motion information acquisition unit and the user's operation input input by the operation input unit, the first video data captured by the imaging unit is predetermined. Video processing means for performing the first processing and generating second video data constituting the content;
Based on the information related to the user's motion acquired by the motion information acquiring means and the operation input of the user input by the operation input means, the first voice data generated by the voice generating means Audio processing means for performing second predetermined processing to generate second audio data constituting the content;
Display control means for controlling display of the second video data generated by the video processing means;
And an audio output control means for controlling the output of the second audio data generated by the audio processing means.
天井面および前記ユーザが出入り可能な開口部を有する壁面で構成される筐体と、
前記筺体の下部に設置される床部と
によって外部と区別される、前記ユーザが十分動作可能な空間を有し、
前記操作入力手段は、前記床部の上面に複数設置され、前記ユーザの足によって踏まれることにより操作入力を受ける
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus includes:
A housing composed of a ceiling surface and a wall surface having an opening through which the user can enter and exit;
A space that can be sufficiently operated by the user, and is distinguished from the outside by a floor installed at a lower portion of the housing;
The information processing apparatus according to claim 1, wherein a plurality of the operation input units are installed on an upper surface of the floor portion and receive an operation input by being stepped on by the user's foot.
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the information processing apparatus is a portable information processing apparatus that can be held by the user.
を更に備えることを特徴とする請求項1に記載の情報処理装置。 Controls output of the content composed of the second video data generated by the video processing unit and the second audio data generated by the audio processing unit to another information processing apparatus. The information processing apparatus according to claim 1, further comprising content output control means.
を更に備えることを特徴とする請求項1に記載の情報処理装置。 The apparatus further comprises illumination control means for controlling illumination based on the information related to the user's action acquired by the action information acquiring means and the operation input of the user input by the operation input means. The information processing apparatus according to claim 1.
ことを特徴とする請求項1に記載の情報処理装置。 In response to the user's operation input input by the operation input means, the first processing applied to the first video data by the video processing means, and the first audio by the audio processing means. The information processing apparatus according to claim 1, wherein the second process applied to the data is a process having relevance.
第1の音声データを生成する音声生成ステップと、
第1の映像データの撮像を制御する撮像制御ステップと、
ユーザの動作に関する情報を取得する動作情報取得ステップと、
前記ユーザの操作入力を取得する操作入力取得ステップと、
前記動作情報取得ステップの処理により取得された前記ユーザの動作に関する情報、および、前記操作入力取得ステップの処理により取得された前記ユーザの操作入力を基に、前記撮像制御ステップの処理により撮像が制御された前記第1の映像データに所定の第1の処理を施して、前記コンテンツを構成する第2の映像データを生成する映像処理ステップと、
前記動作情報取得ステップの処理により取得された前記ユーザの動作に関する情報、および、前記操作入力取得ステップの処理により取得された前記ユーザの操作入力を基に、前記音声生成ステップの処理により生成された前記第1の音声データに、所定の第2の処理を施して、前記コンテンツを構成する第2の音声データを生成する音声処理ステップと
を含むことを特徴とする情報処理方法。 In an information processing method of an information processing apparatus for creating content,
A voice generation step of generating first voice data;
An imaging control step for controlling imaging of the first video data;
An operation information acquisition step for acquiring information about the user's operation;
An operation input acquisition step of acquiring the user's operation input;
Imaging is controlled by the process of the imaging control step based on the information related to the user's action acquired by the process of the operation information acquisition step and the operation input of the user acquired by the process of the operation input acquisition step. A video processing step of performing a predetermined first process on the first video data and generating second video data constituting the content;
Based on the information related to the user's motion acquired by the processing of the motion information acquisition step and the operation input of the user acquired by the processing of the operation input acquisition step, it is generated by the processing of the voice generation step. An information processing method comprising: an audio processing step of performing predetermined second processing on the first audio data to generate second audio data constituting the content.
第1の音声データを生成する音声生成ステップと、
第1の映像データの撮像を制御する撮像制御ステップと、
ユーザの動作に関する情報を取得する動作情報取得ステップと、
前記ユーザの操作入力を取得する操作入力取得ステップと、
前記動作情報取得ステップの処理により取得された前記ユーザの動作に関する情報、および、前記操作入力取得ステップの処理により取得された前記ユーザの操作入力を基に、前記撮像制御ステップの処理により撮像が制御された前記第1の映像データに所定の第1の処理を施して、前記コンテンツを構成する第2の映像データを生成する映像処理ステップと、
前記動作情報取得ステップの処理により取得された前記ユーザの動作に関する情報、および、前記操作入力取得ステップの処理により取得された前記ユーザの操作入力を基に、前記音声生成ステップの処理により生成された前記第1の音声データに、所定の第2の処理を施して、前記コンテンツを構成する第2の音声データを生成する音声処理ステップと
を含むことを特徴とする処理をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute content creation processing,
A voice generation step of generating first voice data;
An imaging control step for controlling imaging of the first video data;
An operation information acquisition step for acquiring information about the user's operation;
An operation input acquisition step of acquiring the user's operation input;
Imaging is controlled by the process of the imaging control step based on the information related to the user's action acquired by the process of the operation information acquisition step and the operation input of the user acquired by the process of the operation input acquisition step. A video processing step of performing a predetermined first process on the first video data and generating second video data constituting the content;
Based on the information related to the user's motion acquired by the processing of the motion information acquisition step and the operation input of the user acquired by the processing of the operation input acquisition step, it is generated by the processing of the voice generation step. An audio processing step of performing predetermined second processing on the first audio data to generate second audio data constituting the content, and causing the computer to execute the processing, program.
前記第1の情報処理装置から前記コンテンツを受信し、前記コンテンツをユーザに配信する第2の情報処理装置と
で構成される情報処理システムであって、
前記第1の情報処理装置は、
第1の映像データを撮像する撮像手段と、
前記ユーザの動作に関する情報を取得する動作情報取得手段と、
前記ユーザの操作入力を取得する操作入力手段と、
第1の音声データを生成する音声生成手段と、
前記動作情報取得手段により取得された前記ユーザの動作に関する情報、および、前記操作入力手段により入力された前記ユーザの操作入力を基に、前記撮像手段により撮像された前記第1の映像データに所定の第1の処理を施して、前記コンテンツを構成する第2の映像データを生成する映像処理手段と、
前記動作情報取得手段により取得された前記ユーザの動作に関する情報、および、前記操作入力手段により入力された前記ユーザの操作入力を基に、前記音声生成手段により生成された前記第1の音声データに、所定の第2の処理を施して、前記コンテンツを構成する第2の音声データを生成する音声処理手段と、
前記映像処理手段により生成された前記第2の映像データの表示を制御する表示制御手段と、
前記音声処理手段により生成された前記第2の音声データの出力を制御する音声出力制御手段と、
前記映像処理手段により生成された前記第2の映像データ、および、前記音声処理手段により生成された前記第2の音声データで構成される前記コンテンツを、前記第2の情報処理装置へ送信する送信手段と
を備え、
前記第2の情報処理装置は、
前記第1の情報処理装置の前記送信手段により送信された前記コンテンツを受信する受信手段と、
前記受信手段により受信された前記コンテンツを記憶する記憶手段と、
前記ユーザから前記コンテンツの配信要求を受けた場合、前記記憶手段により記憶された前記コンテンツの前記ユーザへの配信を制御する配信制御手段と
を備えることを特徴とする情報処理システム。 A first information processing device for creating content;
An information processing system comprising: a second information processing device that receives the content from the first information processing device and distributes the content to a user;
The first information processing apparatus includes:
Imaging means for imaging first video data;
Action information acquisition means for acquiring information about the user's action;
Operation input means for acquiring the user's operation input;
Voice generating means for generating first voice data;
Based on the information about the user's motion acquired by the motion information acquisition unit and the user's operation input input by the operation input unit, the first video data captured by the imaging unit is predetermined. Video processing means for performing the first processing and generating second video data constituting the content;
Based on the information related to the user's motion acquired by the motion information acquiring means and the operation input of the user input by the operation input means, the first voice data generated by the voice generating means Audio processing means for performing second predetermined processing to generate second audio data constituting the content;
Display control means for controlling display of the second video data generated by the video processing means;
Audio output control means for controlling the output of the second audio data generated by the audio processing means;
Transmission that transmits the second video data generated by the video processing means and the content composed of the second audio data generated by the audio processing means to the second information processing apparatus Means and
The second information processing apparatus
Receiving means for receiving the content transmitted by the transmitting means of the first information processing apparatus;
Storage means for storing the content received by the receiving means;
An information processing system comprising: a distribution control unit that controls distribution of the content stored in the storage unit to the user when a distribution request for the content is received from the user.
前記配信制御手段により配信が制御される前記コンテンツの配信先の機器の種類に対応して、前記コンテンツのデータ形式を変換する変換手段
を更に備えることを特徴とする請求項9に記載の情報処理システム。 The second information processing apparatus
The information processing apparatus according to claim 9, further comprising: a conversion unit that converts a data format of the content corresponding to a type of a distribution destination device of the content whose distribution is controlled by the distribution control unit. system.
前記配信制御手段により配信が制御される前記コンテンツの配信に対して発生する課金処理を実行する課金処理手段
を更に備えることを特徴とする請求項9に記載の情報処理システム。 The second information processing apparatus
The information processing system according to claim 9, further comprising a billing processing unit that executes billing processing that occurs for the distribution of the content whose distribution is controlled by the distribution control unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004148724A JP2005333309A (en) | 2004-05-19 | 2004-05-19 | Apparatus, method, system, and program for information processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004148724A JP2005333309A (en) | 2004-05-19 | 2004-05-19 | Apparatus, method, system, and program for information processing |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005333309A true JP2005333309A (en) | 2005-12-02 |
JP2005333309A5 JP2005333309A5 (en) | 2007-06-28 |
Family
ID=35487671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004148724A Pending JP2005333309A (en) | 2004-05-19 | 2004-05-19 | Apparatus, method, system, and program for information processing |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005333309A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021022811A (en) * | 2019-07-26 | 2021-02-18 | 株式会社オレンジテクラボ | Moving image processing device, moving image processing method, and moving image processing program |
JP7449337B2 (en) | 2022-07-26 | 2024-03-13 | ソフトバンク株式会社 | Content provision system, content provision method, provision device and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002320776A (en) * | 2001-02-22 | 2002-11-05 | Sega Corp | Program for controlling execution of game, and game device carrying out the program |
JP2003023616A (en) * | 2001-07-10 | 2003-01-24 | Sony Corp | Amusement device, processing method for imaging result and processing program for the imaging result |
JP2003108996A (en) * | 2001-09-28 | 2003-04-11 | Keyence Corp | Image processor and image processing method, image processing program and computer-readable storage medium |
JP2004112112A (en) * | 2002-09-13 | 2004-04-08 | Sony Corp | Information processing apparatus |
-
2004
- 2004-05-19 JP JP2004148724A patent/JP2005333309A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002320776A (en) * | 2001-02-22 | 2002-11-05 | Sega Corp | Program for controlling execution of game, and game device carrying out the program |
JP2003023616A (en) * | 2001-07-10 | 2003-01-24 | Sony Corp | Amusement device, processing method for imaging result and processing program for the imaging result |
JP2003108996A (en) * | 2001-09-28 | 2003-04-11 | Keyence Corp | Image processor and image processing method, image processing program and computer-readable storage medium |
JP2004112112A (en) * | 2002-09-13 | 2004-04-08 | Sony Corp | Information processing apparatus |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021022811A (en) * | 2019-07-26 | 2021-02-18 | 株式会社オレンジテクラボ | Moving image processing device, moving image processing method, and moving image processing program |
JP7374430B2 (en) | 2019-07-26 | 2023-11-07 | 株式会社オレンジテクラボ | Video processing device, video processing method, and video processing program |
JP7449337B2 (en) | 2022-07-26 | 2024-03-13 | ソフトバンク株式会社 | Content provision system, content provision method, provision device and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20070137462A1 (en) | Wireless communications device with audio-visual effect generator | |
US20110045907A1 (en) | Scheme for providing audio effects for a musical instrument and for controlling images with same | |
CN106652656A (en) | Learning and playing method and device by means of virtual musical instrument and glasses or helmet using the same | |
Hunt et al. | Multiple media interfaces for music therapy | |
CN106465008A (en) | Terminal audio mixing system and playing method | |
KR20080003738A (en) | System for playing video and audio data bidirectionally and method therefor | |
CN113318432B (en) | Music control method in game, nonvolatile storage medium and electronic device | |
JP2009301477A (en) | Content editing device, method and program | |
US10540820B2 (en) | Interactive virtual reality system for experiencing sound | |
WO2006011342A1 (en) | Music sound generation device and music sound generation system | |
CN104822085A (en) | Interactive beat special effect system and interactive beat special effect processing method | |
JP2022020625A (en) | Sound processing system, sound processing device, sound processing method, and sound processing program | |
TW201340694A (en) | Situation command system and operating method thereof | |
KR101809617B1 (en) | My-concert system | |
JP2001517814A (en) | Sound effect system | |
JP2005333309A (en) | Apparatus, method, system, and program for information processing | |
Refsum Jensenius et al. | Performing the electric violin in a sonic space | |
JP2011206267A (en) | Game device, game progressing method, and game progressing program | |
JP2014123085A (en) | Device, method, and program for further effectively performing and providing body motion and so on to be performed by viewer according to singing in karaoke | |
JP7442979B2 (en) | karaoke system | |
JP2006217183A (en) | Data processor and program for generating multimedia data | |
Hamilton | Perceptually coherent mapping schemata for virtual space and musical method | |
JP7430014B1 (en) | Control device, control method and computer program | |
TWM443348U (en) | Situation command system | |
JP5486538B2 (en) | Karaoke equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070510 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080710 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080818 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080822 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081028 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090203 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090304 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20090608 |
|
A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20090710 |