JP4971813B2 - Video generation apparatus and video generation program - Google Patents

Video generation apparatus and video generation program Download PDF

Info

Publication number
JP4971813B2
JP4971813B2 JP2007021903A JP2007021903A JP4971813B2 JP 4971813 B2 JP4971813 B2 JP 4971813B2 JP 2007021903 A JP2007021903 A JP 2007021903A JP 2007021903 A JP2007021903 A JP 2007021903A JP 4971813 B2 JP4971813 B2 JP 4971813B2
Authority
JP
Japan
Prior art keywords
video
image
output
setting
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007021903A
Other languages
Japanese (ja)
Other versions
JP2008187678A (en
Inventor
仁博 冨山
祐一 岩舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2007021903A priority Critical patent/JP4971813B2/en
Publication of JP2008187678A publication Critical patent/JP2008187678A/en
Application granted granted Critical
Publication of JP4971813B2 publication Critical patent/JP4971813B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Circuits (AREA)

Description

本発明は、映像生成装置及び映像生成プログラムに係り、特に時間経過に伴って動く被写体を映像として高精度に提示するための映像生成装置及び映像生成プログラムに関する。   The present invention relates to a video generation device and a video generation program, and more particularly, to a video generation device and a video generation program for presenting a subject moving with time as a video with high accuracy.

近年、映画やCM等において、被写体を取り囲むように配置した複数台のカメラで同期撮影した映像を利用し、被写体が空中に跳びあがった瞬間の映像をカメラの配列に従って切り替えて提示することで、あたかも1台のカメラがその空中に浮いた被写体の周りを移動しながら撮影したかのような映像を表示する技術が盛んに用いられている。   In recent years, in movies, commercials, etc., by using images taken synchronously with multiple cameras arranged so as to surround the subject, switching and presenting the image of the moment when the subject jumped in the air according to the camera arrangement, Techniques for displaying a video as if one camera was moving while moving around a subject floating in the air are actively used.

このような映像表示技術は、多視点映像表示技術といい、例えばスポーツ中継等に応用され、試合の流れや選手の動きを多視点映像によって伝える技術として知られている(例えば、特許文献1、非特許文献1等参照。)。   Such video display technology is referred to as multi-view video display technology, which is applied to, for example, sports broadcasts and the like, and is known as a technology that conveys the flow of a game and the movement of a player using multi-view video (for example, Patent Document 1, (See Non-Patent Document 1, etc.).

一方で、1台のカメラで撮影した映像から、映像フレーム毎に動く被写体領域を抽出し、それらを背景画像に合成表示することで、時間経過に沿った被写体の動きを1枚の映像で表現することができるマルチモーション映像表示技術も用いられており、例えばスポーツ中継等において選手の動きをわかり易く解説する手法として知られている(例えば、特許文献2、非特許文献2、3等参照。)。
特開2006−115298号公報 伊佐憲一他4名,「最新スポーツ中継技術 世界初!プロ野球中継におけるEyeVisonTM(アイビジョン)の活用」,放送技術,兼六館出版,2001年11月 p.96−p.105. 特開2006−5452号公報 李他2名、「体操選手のフォーム・軌跡表示システム」、映像情報メディア学会誌、Vol.51 No.11 p.1881−p.1887(1997年). 加藤他3名,「スーパーマルチモーション」,映像情報メディア学会誌,Vol.57 No.8 p.936−p.938(2003年).
On the other hand, by extracting the subject area that moves for each video frame from the video captured by one camera and combining and displaying it on the background image, the movement of the subject over time can be expressed as a single video. Multi-motion video display technology that can be used is also used, and is known as a method for easily explaining the movement of a player in sports broadcasting, for example (see, for example, Patent Document 2, Non-Patent Documents 2, 3, etc.). .
JP 2006-115298 A Kenichi Isa and four others, “Latest sports broadcast technology, the world's first! Utilizing EyeVison ™ (eye vision) in professional baseball broadcasts”, Broadcast Technology, Kenrokukan Publishing, November 2001, p. 96-p. 105. Japanese Unexamined Patent Publication No. 2006-5542 Lee et al., “Gymnastic player form / trajectory display system”, Journal of the Institute of Image Information and Television Engineers, Vol. 51 No. 11 p. 1881-p. 1887 (1997). Kato et al., “Super Multi Motion”, Journal of the Institute of Image Information and Television Engineers, Vol. 57 No. 8 p. 936-p. 938 (2003).

ところで、上述した従来手法は、多視点映像表示技術又はマルチモーション映像表示技術のうち、何れか一方を用いた被写体の表示技術である。しかしながら、時間経過に伴って動く被写体を映像として高精度に提示するためには、時間経過に沿った被写体の動きを複数の視点から見ることができる多視点マルチモーション映像を提示することが好ましいが、このような映像提示技術に関してはこれまで前例がない。   By the way, the above-described conventional method is a subject display technology using one of a multi-view video display technology and a multi-motion video display technology. However, in order to present a moving subject with time as a video with high accuracy, it is preferable to present a multi-view multi-motion video in which the movement of the subject along the passage of time can be seen from a plurality of viewpoints. There has been no precedent for such video presentation technology.

更に、違和感のないマルチモーション映像を生成するためには、撮影するカメラと被写体の位置関係を考慮し、映像フレーム毎に抽出した被写体領域画像を所定の背景画像に合成する順序を決定する必要があるが、これらを自動的に制御するための手法も提案されていない。   Furthermore, in order to generate a multi-motion video without a sense of incongruity, it is necessary to determine the order in which the subject area image extracted for each video frame is combined with a predetermined background image in consideration of the positional relationship between the camera to be photographed and the subject. There are no proposed methods for automatically controlling these.

本発明は、上述した問題点に鑑みなされたものであり、時間経過に伴って動く被写体を映像として高精度に提示するための映像生成装置及び映像生成プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a video generation apparatus and a video generation program for presenting a subject that moves with time as a video with high accuracy.

上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above problems, the present invention employs means for solving the problems having the following characteristics.

請求項1に記載された発明は、複数の撮像手段により撮影された動く被写体の映像から予め設定された条件に基づいて所定の映像を生成する映像生成装置において、出力する映像の内容を設定する出力映像設定手段と、前記出力映像設定手段により得られる設定条件に基づいて、前記複数の撮像手段により撮影した映像から選択された映像の被写体領域を抽出する被写体領域抽出手段と、前記被写体領域抽出手段により抽出された被写体領域を所定の背景画像に合成する画像合成手段と、前記出力映像設定手段により得られる設定条件に基づいて、前記複数の撮像手段により撮影した映像から選択された映像を所定の順序で切り替えて多視点映像を生成する多視点映像生成手段と、前記画像合成手段及び前記多視点映像生成手段により得られる映像から出力映像を生成する出力映像生成手段とを有することを特徴とする。   According to the first aspect of the present invention, in a video generation device that generates a predetermined video based on a preset condition from videos of a moving subject photographed by a plurality of imaging means, the content of the video to be output is set. Output video setting means; subject area extraction means for extracting a subject area of a video selected from videos taken by the plurality of imaging means based on setting conditions obtained by the output video setting means; and subject area extraction Image synthesis means for synthesizing the subject area extracted by the means with a predetermined background image, and a video selected from the video captured by the plurality of imaging means based on a setting condition obtained by the output video setting means. Obtained by the multi-view video generation means for generating the multi-view video by switching in the above order, the image synthesis means and the multi-view video generation means. And having an output image generation means for generating an output image from the video.

請求項1記載の発明によれば、時間経過に伴って動く被写体を映像として高精度に提示することができる。   According to the first aspect of the present invention, it is possible to present a subject that moves with time as a video with high accuracy.

請求項2に記載された発明は、前記画像合成手段は、前記被写体領域抽出手段により抽出された複数の被写体領域画像を、所定の順序で前記背景画像に合成することを特徴とする。   The invention described in claim 2 is characterized in that the image synthesizing unit synthesizes a plurality of subject region images extracted by the subject region extracting unit with the background image in a predetermined order.

請求項2記載の発明によれば、所定の順序に従って画像を合成するため、効率的に高精度な合成画像を生成することができる。   According to the second aspect of the present invention, since the images are synthesized according to a predetermined order, a highly accurate synthesized image can be efficiently generated.

請求項3に記載された発明は、前記画像合成手段は、前記複数の撮像手段におけるカメラパラメータにより得られる前記撮像手段から被写体領域までの距離情報に基づいた順序で前記背景画像に合成することを特徴とする。   According to a third aspect of the present invention, the image synthesizing unit synthesizes the background image in an order based on distance information from the imaging unit to a subject area obtained by camera parameters in the plurality of imaging units. Features.

請求項3記載の発明によれば、各撮像手段と被写体までの距離を高精度に取得することができるため、例えば被写体が同一画像上で重なる場合に、距離情報に基づいた順序で高精度に合成画像を生成することができる。また、合成する順序を自動化することができ、映像生成の運用性を向上させることができる。   According to the third aspect of the present invention, since the distance to each imaging means and the subject can be obtained with high accuracy, for example, when the subjects overlap on the same image, with high accuracy in the order based on the distance information. A composite image can be generated. Further, the order of synthesis can be automated, and the operability of video generation can be improved.

請求項4に記載された発明は、前記撮像手段は、前記出力映像設定手段により設定される出力映像に使用する映像を撮影する撮像手段からの映像のみを取得することを特徴とする。   The invention described in claim 4 is characterized in that the imaging means obtains only the video from the imaging means for capturing the video used for the output video set by the output video setting means.

請求項4記載の発明によれば、無駄な映像を蓄積することがなく、記録容量を削減することができる。また、必要な映像のみを効率的に取得することができる。   According to the invention described in claim 4, it is possible to reduce the recording capacity without accumulating useless video. In addition, only necessary images can be acquired efficiently.

請求項5に記載された発明は、前記画像合成手段は、前記出力映像設定手段により得られる設定条件に基づいて、同一の画像に合成する被写体の数が異なる画像を生成することを特徴とする。   The invention described in claim 5 is characterized in that the image synthesizing means generates images having different numbers of subjects to be synthesized with the same image, based on setting conditions obtained by the output video setting means. .

請求項5記載の発明によれば、多種の多視点マルチモーション画像を生成することができる。これにより、例えばスポーツ選手等の被写体の動きをよりわかり易く表現した斬新な映像を提示することができる。したがって、より高精度な出力映像を提供することができる。   According to the fifth aspect of the present invention, various multi-view multi-motion images can be generated. This makes it possible to present a novel video that more easily expresses the movement of a subject such as a sports player. Therefore, it is possible to provide a more accurate output video.

請求項6に記載された発明は、複数の撮像手段により撮影された動く被写体の映像から予め設定された条件に基づいて所定の映像を生成する映像生成処理をコンピュータに実行させるための映像生成プログラムにおいて、出力する映像の内容を設定する出力映像設定ステップと、前記出力映像設定ステップにより得られる設定条件に基づいて、前記複数の撮像手段により撮影した映像から選択された映像の被写体領域を抽出する被写体領域抽出ステップと、前記被写体領域抽出ステップにより抽出された被写体領域を所定の背景画像に合成する画像合成ステップと、前記出力映像設定ステップにより得られる設定条件に基づいて、前記複数の撮像手段により撮影した映像から選択された映像を所定の順序で切り替えて多視点映像を生成する多視点映像生成ステップと、前記画像合成ステップ及び前記多視点映像生成ステップにより得られる映像から出力映像を生成する出力映像生成ステップとをコンピュータに実行させる。   According to a sixth aspect of the present invention, there is provided a video generation program for causing a computer to execute a video generation process for generating a predetermined video based on a preset condition from videos of a moving subject photographed by a plurality of imaging means. , An output video setting step for setting the content of the video to be output, and a subject area of the video selected from the video captured by the plurality of imaging means based on the setting conditions obtained by the output video setting step Based on the setting conditions obtained by the subject region extraction step, the image composition step of combining the subject region extracted by the subject region extraction step with a predetermined background image, and the output video setting step, by the plurality of imaging means A multi-viewpoint video is generated by switching a selected video from a captured video in a predetermined order. And the point image generating step, to perform the output image generation step of generating an output image from said image synthesizing step and video obtained by the multi-view image generation step to the computer.

請求項6記載の発明によれば、時間経過に伴って動く被写体を映像として高精度に提示することができる。また、実行プログラムをコンピュータにインストールすることにより、容易に映像生成を実現することができる。   According to the sixth aspect of the present invention, it is possible to present a subject that moves with time as a video with high accuracy. In addition, video generation can be easily realized by installing an execution program in a computer.

本発明によれば、時間経過に伴って動く被写体を映像として高精度に提示することができる。   According to the present invention, it is possible to present a subject that moves with time as a video with high accuracy.

<本発明の概要>
本発明では、多視点映像表示と、マルチモーション映像表示を組み合わせることで、予め設定された生成すべき映像の形態に基づいて制御を行い、時間経過に沿った被写体の動きを複数の視点から見ることができる多視点マルチモーション映像を提示する。これにより、例えばスポーツ選手等の被写体の動きをよりわかり易く表現した斬新な映像を提示することができる。
<Outline of the present invention>
In the present invention, by combining multi-view video display and multi-motion video display, control is performed based on a preset video format to be generated, and the movement of the subject over time is viewed from a plurality of viewpoints. Multi-view multi-motion video that can be presented. This makes it possible to present a novel video that more easily expresses the movement of a subject such as a sports player.

また、本発明では、複数台のカメラで被写体を撮影した映像と、複数台のカメラのカメラパラメータを利用して、各カメラから動く被写体までの距離情報を計算し、この距離情報に基づいた順序で、カメラ毎に抽出した複数の映像フレームの被写体領域画像を所定の背景画像に合成する。これにより、例えば被写体が同一画像上で重なる場合に、距離情報に基づいた順序で高精度に合成画像を生成することができる。また、合成する順序を自動化することができ、映像生成の運用性を向上させることができる。   Further, in the present invention, the distance information from each camera to the moving subject is calculated using images obtained by photographing the subject with a plurality of cameras and the camera parameters of the plurality of cameras, and the order based on the distance information is calculated. Thus, the subject area images of a plurality of video frames extracted for each camera are combined with a predetermined background image. Thereby, for example, when subjects overlap on the same image, a composite image can be generated with high accuracy in the order based on the distance information. Further, the order of synthesis can be automated, and the operability of video generation can be improved.

<実施の形態>
次に、上述した特徴を有する本発明における映像生成装置及び映像生成プログラムを好適に実施した形態について、図面を用いて説明する。
<Embodiment>
Next, a preferred embodiment of the video generation apparatus and video generation program according to the present invention having the above-described features will be described with reference to the drawings.

<映像生成装置:機能構成例>
まず、本発明における映像生成装置の機能構成例について図を用いて説明する。図1は、本発明における映像生成装置の一構成例を示す図である。
<Video generation device: functional configuration example>
First, a functional configuration example of a video generation device according to the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of a video generation apparatus according to the present invention.

図1に示す映像生成装置10は、撮像手段11と、入力手段12と、出力手段13と、蓄積手段14と、出力映像設定手段15と、被写体領域抽出手段16と
画像合成手段17と、多視点映像生成手段18と、出力映像生成手段19と、送受信手段20と、制御手段21とを有するよう構成されている。
1 includes an imaging unit 11, an input unit 12, an output unit 13, a storage unit 14, an output video setting unit 15, a subject area extraction unit 16, an image synthesis unit 17, A viewpoint video generation unit 18, an output video generation unit 19, a transmission / reception unit 20, and a control unit 21 are configured.

撮像手段11は、何らかの動作を行う被写体を撮影し、映像を取得する。また、撮像手段11は、取得した映像を蓄積手段14に蓄積する。ここで、撮像手段11は、例えば複数の高精細カメラや市販のデジタルビデオカメラ等を用い、所定の位置に固定されているものとする。また、複数のカメラで撮影する場合には、それぞれが異なる位置から被写体の動きを撮影する。   The imaging unit 11 captures a subject that performs some operation and acquires an image. The imaging unit 11 stores the acquired video in the storage unit 14. Here, it is assumed that the imaging unit 11 is fixed at a predetermined position using, for example, a plurality of high-definition cameras, commercially available digital video cameras, or the like. When shooting with a plurality of cameras, the movement of the subject is shot from different positions.

更に、撮像手段11は、撮影したときの時間情報や、撮影したときのカメラの撮影位置、撮影方向、フォーカス調整等のカメラパラメータ等を取得する。   Further, the imaging unit 11 acquires time information at the time of photographing, camera parameters such as the photographing position, photographing direction, and focus adjustment of the camera at the time of photographing.

なお、撮像手段11は、出力映像設定手段15からの設定条件に基づいて、出力映像に使用する映像を撮影する撮像手段からの映像のみを取得するようにしてもよい。これにより、無駄な映像を蓄積することがなく、記録容量を削減することができる。また、必要な映像のみを効率的に取得することができる。   Note that the imaging unit 11 may acquire only the video from the imaging unit that captures the video used for the output video based on the setting condition from the output video setting unit 15. Thereby, it is possible to reduce the recording capacity without accumulating useless video. In addition, only necessary images can be acquired efficiently.

入力手段12は、撮像手段11から得られる何らかの動作を行う被写体の映像の取得指示や、蓄積手段14から所定のデータを読み出したり、書き込むための指示、どのような映像を出力するかの設定、映像からの被写体領域の抽出、映像の合成、出力映像の生成等における各指示等の入力を受け付ける。なお、入力手段12は、例えばキーボードやマウス等のポインティングデバイス、マイク等の音声入力インターフェース等からなる。   The input means 12 is an instruction to acquire an image of a subject that performs some operation obtained from the imaging means 11, an instruction to read or write predetermined data from the storage means 14, a setting of what kind of video is output, It accepts inputs such as instructions for extracting a subject area from a video, synthesizing a video, and generating an output video. The input unit 12 includes a pointing device such as a keyboard and a mouse, a voice input interface such as a microphone, and the like.

また、出力手段13は、入力手段12により入力された指示内容や指示内容に基づいて各構成より得られる実行された出力映像設定結果、被写体領域抽出結果、画像合成結果、多視点映像生成結果、出力映像、撮像手段11により撮影された被写体映像等の各種データを表示及び/又は音声にて出力する。なお、出力手段13は、ディスプレイやスピーカ等からなる。   Further, the output unit 13 includes an executed output video setting result, a subject region extraction result, an image synthesis result, a multi-view video generation result obtained from each component based on the instruction content input by the input unit 12 and the instruction content, Various data such as output video and subject video taken by the image pickup means 11 are displayed and / or output as audio. Note that the output means 13 includes a display, a speaker, and the like.

蓄積手段14は、撮像手段11により得られる映像や、出力映像設定手段15により得られる出力映像設定結果、被写体領域抽出手段16により得られる被写体領域抽出結果、画像合成手段17により得られる合成画像、多視点映像生成手段18により得られる多視点映像データ等の各種データを蓄積する。   The accumulating unit 14 includes a video obtained by the imaging unit 11, an output video setting result obtained by the output video setting unit 15, a subject area extraction result obtained by the subject region extracting unit 16, a composite image obtained by the image synthesizing unit 17, Various data such as multi-view video data obtained by the multi-view video generation means 18 is stored.

出力映像設定手段15は、撮像手段11により得られた映像に基づいて、どのような映像を出力するかの設定を行う。具体的には、時間情報やカメラパラメータ等に基づいて、どの時点(フレーム)で合成画像や多視点映像を用いるか、また所定時間毎に合成する被写体の数や合成する背景画像の設定等を行う。これにより、複数のカメラを用いて多視点マルチモーション映像を実現することができる。つまり、複数のカメラを用いて、様々な視点から被写体を見ることができるため、例えばスポーツ中継や運動解析等の分野において、視覚的にわかり易い運動情報を提示することができる。   The output video setting unit 15 sets what video is output based on the video obtained by the imaging unit 11. Specifically, based on time information, camera parameters, etc., at which time point (frame) the composite image or multi-viewpoint video is used, the number of subjects to be composited every predetermined time, the setting of the background image to be composited, etc. Do. Thereby, a multi-view multi-motion video can be realized using a plurality of cameras. In other words, since a subject can be seen from various viewpoints using a plurality of cameras, it is possible to present exercise information that is visually easy to understand in fields such as sports relay and exercise analysis.

被写体領域抽出手段16は、複数のカメラから撮影された複数のカメラ映像から動く被写体領域を抽出した被写体領域画像を生成する。なお、被写体領域抽出手段16における抽出手法については後述する。   The subject area extraction means 16 generates a subject area image obtained by extracting a moving subject area from a plurality of camera images photographed from a plurality of cameras. Note that an extraction method in the subject area extraction unit 16 will be described later.

画像合成手段17は、被写体領域抽出手段16において抽出された被写体領域と、カメラ毎の所定の背景画像とを利用して、カメラ毎に得られる映像に対して、所定の映像フレームの背景画像に複数の映像フレームの被写体領域画像を合成したマルチモーション画像を生成する。なお、どの映像フレームを背景画像として合成を行うかについては、上述した出力映像設定手段15において、設定された最終的な多視点マルチモーション映像の出力設定条件に基づいて、必要な合成画像を生成する。なお、画像合成手段17における合成処理の具体例については後述する。また、画像合成手段17において合成された画像は、蓄積手段14に一時的に蓄積される。   The image composition means 17 uses the subject area extracted by the subject area extraction means 16 and a predetermined background image for each camera, and converts the video obtained for each camera into a background image of a predetermined video frame. A multi-motion image is generated by combining subject area images of a plurality of video frames. As for which video frame is to be synthesized as a background image, the above-described output video setting means 15 generates a necessary composite image based on the set output setting condition of the final multi-view multi-motion video. To do. A specific example of the composition processing in the image composition means 17 will be described later. The image synthesized by the image synthesizing unit 17 is temporarily accumulated in the accumulating unit 14.

多視点映像生成手段18は、出力映像設定手段15からの設定条件に基づいて、画像合成手段17から得られるマルチモーション映像を所定の順序で切り替えながら多視点マルチモーション映像を生成する。また、多視点映像生成手段18は、複数の撮像手段11から得られる同期映像を所定の順序で切り替えながら多視点映像を生成することもできる。なお、多視点映像生成手段18における多視点マルチモーション映像生成の具体例については後述する。また、多視点映像生成手段18において生成された映像は、蓄積手段14に一時的に蓄積される。   The multi-view video generation unit 18 generates a multi-view multi-motion video while switching the multi-motion video obtained from the image synthesis unit 17 in a predetermined order based on the setting condition from the output video setting unit 15. The multi-view video generation unit 18 can also generate a multi-view video while switching the synchronized video obtained from the plurality of imaging units 11 in a predetermined order. A specific example of multi-view multi-motion video generation in the multi-view video generation means 18 will be described later. Also, the video generated by the multi-view video generation unit 18 is temporarily stored in the storage unit 14.

出力映像生成手段19は、出力映像設定手段15における設定情報に基づいて画像合成手段17において合成された画像、及び多視点映像生成手段18により得られる多視点マルチモーション映像や多視点映像等を時間情報を基準として結合し、出力映像を生成する。なお、出力映像生成手段19における映像生成の具体例については後述する。   The output video generation means 19 outputs the image synthesized by the image synthesis means 17 based on the setting information in the output video setting means 15 and the multi-view multi-motion video and multi-view video obtained by the multi-view video generation means 18 over time. Combine the information as a reference to generate the output video. A specific example of video generation in the output video generation means 19 will be described later.

送受信手段20は、通信ネットワークを介して他の外部装置等から動く被写体の映像等を取得したり、本発明により得られる出力映像(多視点マルチモーション映像等)や上述した映像生成装置10における各構成等で取得した各種データを外部端末に送信するための通信インターフェースである。   The transmission / reception means 20 acquires a moving subject image or the like from another external device or the like via a communication network, or outputs video (multi-view multi-motion video or the like) obtained by the present invention or each of the video generation devices 10 described above. It is a communication interface for transmitting various data acquired by configuration etc. to an external terminal.

制御手段21は、映像生成装置10における各機能構成全体の制御を行う。具体的には、制御手段21は、取得した映像から被写体領域の抽出を行ったり、入力手段12により入力されたユーザからの入力情報等に基づいて、画像合成を行ったり、多視点映像の生成を行ったり、出力映像の生成を行ったり、各処理における結果の画面を生成して表示したり、上述したそれぞれの処理で生成された各種データを蓄積する等の制御を行う。   The control unit 21 controls the entire functional configuration of the video generation apparatus 10. Specifically, the control unit 21 extracts a subject area from the acquired video, performs image synthesis based on input information from the user input by the input unit 12, and generates a multi-view video. , Generation of output video, generation and display of a result screen in each process, and accumulation of various data generated in each process described above.

<多視点映像の取得例>
次に、上述した撮像手段11による多視点映像の取得例について図を用いて説明する。
<Example of acquiring multi-viewpoint video>
Next, an example of acquiring a multi-view video by the above-described imaging unit 11 will be described with reference to the drawings.

図2は、多視点映像を取得するための一例を示す図である。また、図3は、図2に対応して得られる映像フレームの一例を示す図である。図2に示すように、本実施形態においては、動く被写体30を撮影するために、複数のカメラ31−1〜31−8が三脚等により所定の位置に設置されている。   FIG. 2 is a diagram illustrating an example for acquiring a multi-view video. FIG. 3 is a diagram showing an example of a video frame obtained corresponding to FIG. As shown in FIG. 2, in the present embodiment, in order to photograph a moving subject 30, a plurality of cameras 31-1 to 31-8 are installed at predetermined positions by tripods or the like.

ここで、時間の経過に伴って動く被写体30を複数のカメラ31−1〜31−8で撮影した映像をそれぞれIm1〜Im8とする。また、カメラ31−1〜31−8により撮影される映像は、それぞれ1秒毎に所定枚数分のフレームを有している。つまり、図2に示す複数台のカメラ31−1〜31−8のそれぞれにより、図3に示すように複数の映像フレームが生成される。   Here, images obtained by photographing the subject 30 moving with the passage of time with a plurality of cameras 31-1 to 31-8 are referred to as Im1 to Im8, respectively. In addition, the images captured by the cameras 31-1 to 31-8 each have a predetermined number of frames every second. That is, as shown in FIG. 3, a plurality of video frames are generated by each of the plurality of cameras 31-1 to 31-8 shown in FIG.

なお、各カメラ31−1〜31−8から取得する情報としては、映像フレームと映像に対応する時間情報等とからなる映像情報の他にカメラの方向や、画角等のカメラパラメータ等を取得することができる。   As information acquired from each camera 31-1 to 31-8, camera parameters such as camera direction and angle of view are acquired in addition to video information including video frames and time information corresponding to video. can do.

<出力映像設定手段15>
次に、出力映像設定手段15における設定条件について説明する。出力映像設定手段15では具体的に上述した図3に示す映像フレームから合成映像や多視点映像をどのタイミングで出力させるか等の設定を行う。
<Output video setting means 15>
Next, setting conditions in the output video setting means 15 will be described. Specifically, the output video setting means 15 performs setting such as when to output a composite video or a multi-view video from the video frame shown in FIG.

具体的には、出力映像設定手段15は、予めカメラ等の撮像手段11より得られる映像に対応する時間情報に基づいて、どの時間帯でどの位置を基準(背景画像)にした合成画像を出力し、またどの時間帯にどの順序で切り替えを行う多視点映像を出力するか等の設定を行う。更に、出力映像設定手段15は、出力対象となるフレームを選択したり、時間経過と共に合成する被写体の数を変えたり、時間経過と共に合成する被写体を取得するカメラを変える等の設定を行うこともできる。これにより、ユーザ等は、複雑な映像編集を実現することができる。   Specifically, the output video setting unit 15 outputs a composite image based on which position in which time zone is used as a reference (background image) based on time information corresponding to video obtained from the imaging unit 11 such as a camera in advance. In addition, settings are made such as in which time zone and in which order the multi-viewpoint video to be switched is output. Further, the output video setting means 15 may perform settings such as selecting a frame to be output, changing the number of subjects to be combined with the passage of time, and changing the camera that acquires the subject to be combined with the passage of time. it can. Thereby, a user etc. can realize complicated video editing.

<被写体領域抽出手段16>
次に、被写体領域抽出手段16における抽出内容について説明する。ここでは、上述した複数のカメラ31―1〜31−8から得られる映像Im1〜Im8に存在する動く被写体の領域を抽出した被写体領域画像(SilIm1〜SilIm8)を生成する。
<Subject area extraction means 16>
Next, the extraction contents in the subject area extraction means 16 will be described. Here, subject region images (SilIm1 to SilIm8) are generated by extracting moving subject regions present in the videos Im1 to Im8 obtained from the plurality of cameras 31-1 to 31-8.

例えば、全てのカメラや一部のカメラにより撮影された複数の映像フレームのうち、出力映像設定手段15により予め設定された映像フレーム(例えば、映像フレーム1、3,5,7,9,11,・・・)から、カメラ毎に対応した複数の映像フレームの被写体領域画像を出力する。ここで、図4は、被写体領域画像の映像信号の一例を示す図である。図4に示す被写体領域画像は、例えば各画素を基準として動く被写体領域32に「1」を割り当て、また、それ以外の背景領域33に「0」を割り当てたものであり、キー信号となるものである。つまり、被写体領域抽出手段16は、図4に示すようなキー信号を元の映像信号に重畳した映像信号等によって被写体領域を抽出する。   For example, among a plurality of video frames taken by all cameras or some cameras, video frames preset by the output video setting means 15 (for example, video frames 1, 3, 5, 7, 9, 11, To output subject area images of a plurality of video frames corresponding to each camera. Here, FIG. 4 is a diagram illustrating an example of the video signal of the subject area image. The subject area image shown in FIG. 4, for example, is obtained by assigning “1” to the subject area 32 that moves with reference to each pixel, and assigning “0” to the other background area 33, and serves as a key signal. It is. That is, the subject region extraction unit 16 extracts a subject region by a video signal or the like in which a key signal as shown in FIG. 4 is superimposed on the original video signal.

なお、上述した動く被写体領域を抽出する手法としては、例えば背景画像と対象となる映像の差分から、映像の動領域のみを抽出する背景差分法や、隣接する映像フレームの映像と対象となる映像の差分から動領域を抽出するフレーム間差分法等がある。   In addition, as a method of extracting the moving subject area described above, for example, a background difference method for extracting only a moving area of a video from a difference between a background image and a target video, or a video of a neighboring video frame and a target video. There is an inter-frame difference method or the like that extracts a moving region from the difference between the two.

上述の背景差分法では、動く物体(被写体)がない状態の画像を固定カメラで背景画像として取り込み、動く物体が入った画像から背景画像を差分し、動く物体の領域が「0」以外の値を持った差分画像を取得する。次に、その差分画像の画素値に対して閾値処理を行い2値画像を取得する。また、得られた2値画像は、小さな穴や小さな連結成分を含んでいるため、これらを取り除いて動く物体の領域を取得する。そして、この2値画像を利用して対象物体の領域に位置する画素を取り出すことにより動く物体の画像を得る。   In the background subtraction method described above, an image with no moving object (subject) is captured as a background image by a fixed camera, the background image is subtracted from the image containing the moving object, and the area of the moving object is a value other than “0”. The difference image with is acquired. Next, threshold processing is performed on the pixel value of the difference image to obtain a binary image. Moreover, since the obtained binary image includes small holes and small connected components, these are removed to obtain the region of the moving object. Then, using this binary image, a moving object image is obtained by extracting pixels located in the region of the target object.

また、上述のフレーム間差分法は、例えば動く物体を撮影した異なる時間の3枚の画像を用いて動く物体領域を取得する。つまり、3枚の画像A、B、Cにおいて背景は変化がないものとし、AとB、BとCの差分画像AB、BCを作成し、閾値処理を行い2値画像を取得する。次に、2値画像AB、BCの論理積処理(AND処理)を行い、AB、BCの共通領域を取り出すことにより、画像Bにおける動く物体の領域を取得する。   The inter-frame difference method described above acquires a moving object region using, for example, three images taken at different times when a moving object is captured. That is, it is assumed that the background does not change in the three images A, B, and C, the difference images AB and BC between A and B and B and C are created, and threshold processing is performed to obtain a binary image. Next, a logical product process (AND process) of the binary images AB and BC is performed, and a common area of AB and BC is extracted, thereby acquiring a moving object area in the image B.

また、被写体領域を抽出するその他の手法としては、Adobe PhotoShop等のソフトウェアによってユーザが自らマニュアル操作で抽出する手法等がある。   As another method for extracting the subject area, there is a method in which the user manually extracts the subject area by software such as Adobe PhotoShop.

<画像合成手段17>
次に、画像合成手段17における画像合成内容について説明する。画像合成手段17は、出力映像設定手段15により設定された最終的に出力される映像に対応する合成画像を生成するため、被写体領域抽出手段16により抽出された被写体に対して、対応する被写体を選択し、選択した画像を用いて合成を行う。
<Image composition means 17>
Next, the contents of image composition in the image composition means 17 will be described. The image synthesizing unit 17 generates a synthesized image corresponding to the finally output video set by the output video setting unit 15, and selects a corresponding subject from the subject extracted by the subject region extracting unit 16. Select and compose using the selected image.

つまり、ここでは、被写体領域抽出手段16から出力される被写体領域画像(SilIm1〜SilIm8)と、対応するカメラ毎に選択される所定の背景画像(BgIm1〜BgIm8)とを利用して、カメラ毎に所定の背景画像(BgIm1〜BgIm8)に複数の映像フレームの被写体領域画像(SilIm1〜SilIm8)を合成したマルチモーション画像(MmIm1〜MmIm8)を生成する。   That is, here, the subject area image (SilIm1 to SilIm8) output from the subject area extraction means 16 and the predetermined background image (BgIm1 to BgIm8) selected for each corresponding camera are used for each camera. Multi-motion images (MmIm1 to MmIm8) are generated by synthesizing subject region images (SilIm1 to SilIm8) of a plurality of video frames with a predetermined background image (BgIm1 to BgIm8).

例えば、背景画像として用いる映像フレームを各カメラの13フレームの画像とし、そこに被写体領域抽出手段16で抽出した映像フレーム(例えば、1,3,5,7,9,11)の被写体領域画像を合成する。そして、カメラ毎に複数の映像フレームの被写体領域の画像が合成表示されたマルチモーション画像(MmIm1〜MmIm8)を生成する。   For example, the video frame used as the background image is a 13-frame image of each camera, and the subject area image of the video frame (for example, 1, 3, 5, 7, 9, 11) extracted by the subject area extraction means 16 is provided there. Synthesize. Then, multi-motion images (MmIm1 to MmIm8) in which images of subject areas of a plurality of video frames are combined and displayed for each camera are generated.

ここで、図5は、合成画像の一例を示す図である。図5では、被写体を合成した画像からなるマルチモーションの合成画像40の一例を示しており、所定の位置に設置された1台のカメラで撮影された映像フレームのうち、予め設定された条件により選択された5つの映像フレームから得られる被写体41〜1〜41−5が背景画像42上に表示されている。   Here, FIG. 5 is a diagram illustrating an example of a composite image. FIG. 5 shows an example of a multi-motion composite image 40 composed of images obtained by compositing subjects. Of the video frames taken by one camera installed at a predetermined position, the pre-set conditions are used. Subjects 41 to 41-5 obtained from the five selected video frames are displayed on the background image 42.

なお、被写体41〜1〜41−5のうち何れか1つは、背景画像42中に含まれている被写体である。つまり、図5の例では、被写体41−5を含む映像フレームを背景画像42とし、その背景画像42に被写体領域抽出手段16で抽出した被写体41〜1〜41−4が合成されている。   Any one of the subjects 41 to 1 to 41-5 is a subject included in the background image 42. In other words, in the example of FIG. 5, a video frame including the subject 41-5 is used as the background image 42, and the subjects 41 to 41-4 extracted by the subject region extraction unit 16 are combined with the background image 42.

この所定の背景画像に被写体領域画像を合成する手法としては、上述した被写体領域画像のキー信号に基づいて合成するキー合成手法等がある。ここで、キー合成手法とは、例えば、2枚の画像を合成して1枚の画像を作成する際、どの部分をどちらの画像から取ってくるかということを指定したい場合に、その画像を画素毎に「1」,「0」で指定した画像(マスク画像)を作成し、それに基づいて画像合成を行う。これは、画像間演算の一種とみなすことができる。   As a technique for synthesizing the subject area image with the predetermined background image, there is a key synthesis technique for synthesizing based on the key signal of the subject area image described above. Here, the key composition method is, for example, when two images are combined to create one image, and when it is desired to specify which part is to be taken from which image, An image (mask image) designated by “1” and “0” is created for each pixel, and image composition is performed based on the image. This can be regarded as a kind of calculation between images.

また、マスク画像の生成法としてよく利用されるものにクロマキーがある。これは、各画素をその色情報に基づいて切り捨てる処理を行う。   A chroma key is often used as a mask image generation method. In this process, each pixel is cut off based on its color information.

<画像合成:第1の具体例>
ここで、画像合成手段17における画像合成の第1の具体例について説明する。画像合成手段17は、被写体領域抽出手段16から出力される各カメラ31−1〜31−8からの被写体領域画像(SilIm1〜SilIm8)と、カメラ毎の所定の背景画像(BgIm1〜BgIm8)と、予め設定されたカメラ毎に被写体領域画像を所定の背景画像に合成する順番(Order1〜Order8)とに基づいて、カメラ毎に所定の背景画像(BgIm1〜BgIm8)に複数の映像フレームの被写体領域画像(SilIm1〜SilIm8)を合成したマルチモーション画像(MmIm1〜MmIm8)を生成する。
<Image composition: first specific example>
Here, a first specific example of image composition in the image composition means 17 will be described. The image synthesizing unit 17 includes subject area images (SilIm1 to SilIm8) output from the subject area extracting unit 16 and predetermined background images (BgIm1 to BgIm8) for each camera, Based on the order in which the subject area image is combined with a predetermined background image (Order 1 to Order 8) for each camera set in advance, the subject area images of a plurality of video frames are added to the predetermined background image (BgIm1 to BgIm8) for each camera. A multi-motion image (MmIm1 to MmIm8) is generated by synthesizing (SilIm1 to SilIm8).

例えば、所定の背景画像を所定のカメラの13フレームの映像とし、そこに被写体領域抽出手段16で抽出した映像フレーム1,3,5,7,9,11の被写体領域画像を合成する場合、カメラ31−1のマルチモーション映像(MmIm1)を生成する場合について、カメラ31−1の合成する順番(Order1)が予め映像フレーム11→9→7→5→3→1の順となっていたとする。   For example, when a predetermined background image is a 13-frame video of a predetermined camera and the subject area images of the video frames 1, 3, 5, 7, 9, and 11 extracted by the subject area extraction unit 16 are combined therewith, In the case of generating the multi-motion video 31-1 (MmIm1), it is assumed that the order of synthesis by the camera 31-1 (Order1) is in the order of video frames 11 → 9 → 7 → 5 → 3 → 1.

このとき、カメラ31−1の背景画像(13フレームの映像)に、カメラ31−1の映像フレーム11の被写体領域画像をキー信号に基づき合成した合成映像を生成する。また、この合成映像に、カメラ31−1の映像フレーム9の被写体領域画像をキー信号に基づき合成する。   At this time, a synthesized video is generated by synthesizing the subject area image of the video frame 11 of the camera 31-1 with the background image (13 video) of the camera 31-1 based on the key signal. Further, the subject area image of the video frame 9 of the camera 31-1 is synthesized with this synthesized video based on the key signal.

同様に、映像フレーム7,5,3,1の順に被写体領域画像を合成し、カメラ31−1のマルチモーション画像(MmIm1)を生成する。なお、カメラ31−1以外の他のカメラについても同様の処理を行い、カメラ台数分のマルチモーション画像(MmIm1〜MmIm8)を生成する。   Similarly, the subject area images are synthesized in the order of the video frames 7, 5, 3, and 1 to generate a multi-motion image (MmIm1) of the camera 31-1. The same processing is performed for other cameras than the camera 31-1, and multi-motion images (MmIm1 to MmIm8) corresponding to the number of cameras are generated.

<画像合成:第2の具体例>
次に、画像合成手段17における画像合成の第2の具体例について説明する。第2の具体例では、画像合成手段17に距離情報計算手段を設ける。具体的には、画像合成手段17は、動く被写体を各カメラ31−1〜31−8で撮影した映像(Im1〜Im8)と複数のカメラのそれぞれのカメラパラメータ(Calib1〜Calib8)から、各カメラから複数の映像フレームの動く被写体領域までの距離情報を取得する。また、カメラ毎に複数の映像フレームの動く被写体領域までの距離情報の大小を比較し、カメラ毎に被写体領域画像(SilIm1〜SilIm8)を所定の背景画像に合成する順番(Order1〜Order8)を決定し、その結果に基づいて画像合成を行う。
<Image composition: second specific example>
Next, a second specific example of image composition in the image composition means 17 will be described. In the second specific example, the image composition means 17 is provided with distance information calculation means. Specifically, the image compositing means 17 uses each camera 31-1 to 31-8 to capture each moving camera from images (Im1 to Im8) and camera parameters (Calib1 to Calib8) of the plurality of cameras. To obtain information on the distance from a moving subject area of a plurality of video frames. Also, the distance information to the moving subject area of a plurality of video frames is compared for each camera, and the order (Order1 to Order8) for combining the subject area images (SilIm1 to SilIm8) with a predetermined background image is determined for each camera. Then, image synthesis is performed based on the result.

ここで、上述した距離情報を取得するには、例えば被写体の位置をある3次元座標で表し、その3次元座標から距離を測定する。例えば、映像フレーム1,3,5,7,9,11の動く被写体までのそれぞれの距離情報をカメラ毎に計算する場合、例えばカメラ31−1、カメラ31−8の映像フレーム1の映像間で映っている共通の被写体領域の点(頭の中心、腹部の中心等の注視点)の映像中の座標(u1,v1)、(u8,v8)を与える。そして、この座標値と、カメラ31−1、カメラ31−8のカメラパラメータCalib1、Calib8を用いて注視点の3次元座標を計算する。なお、上述の手法は、例えば冨山仁博他2名,「多視点ハイビジョン映像生成システムの試作−全日本体操選手権での中継番組利用−」,社団法人 電子情報通信学会,信学技法 2006−12,P.43〜45.等に記載されている。   Here, in order to obtain the above-described distance information, for example, the position of the subject is represented by a certain three-dimensional coordinate, and the distance is measured from the three-dimensional coordinate. For example, when calculating the distance information to the moving subject of the video frames 1, 3, 5, 7, 9, and 11 for each camera, for example, between the videos of the video frames 1 of the cameras 31-1 and 31-8. Coordinates (u1, v1) and (u8, v8) in the video of the points of the common subject area shown (gaze points such as the center of the head and the center of the abdomen) are given. Then, the three-dimensional coordinates of the gazing point are calculated using the coordinate values and the camera parameters Calib1 and Calib8 of the cameras 31-1 and 31-8. In addition, the above-mentioned method is, for example, Ninohiro Hiyama and two others, “Prototype of multi-view high-definition video generation system-Use of relay program in all-Japan gymnastics championship”, The Institute of Electronics, Information and Communication Engineers, IEICE Technical 2006-12, P. 43-45. Etc. are described.

具体的に説明すると、3次元座標は、以下の座標変換式(1)〜(3)をカメラ毎に定義することにより求める。   Specifically, the three-dimensional coordinates are obtained by defining the following coordinate conversion formulas (1) to (3) for each camera.


ここで、ωは画像距離を示し、Amはカメラmの内部パラメータ行列を示し、aは画像のアスペクト比を示し、Fmはカメラmの焦点距離を示し、γはスキューを示し、(Cx,Cy)はカメラ光軸と画像面の交点を示し、Rmはカメラmの回転行列を示し、Tmはカメラmの平行移動ベクトルを示している。

Here, ω represents the image distance, Am represents the internal parameter matrix of the camera m, a represents the aspect ratio of the image, Fm represents the focal length of the camera m, γ represents the skew, and (Cx, Cy ) Represents the intersection of the camera optical axis and the image plane, Rm represents the rotation matrix of the camera m, and Tm represents the translation vector of the camera m.

つまり、複数のカメラで撮影した対象領域である被写体からユーザが選択した注視点を中心とした多視点映像を生成することを目的としている。全てのカメラ画像を、選択した注視点が中心となるように仮想的に、パンやチルト等を行った画像に射影変換し、それらを連続して提示することで、注視点を中心としたシームレスな多視点映像を生成することができる。   In other words, the object is to generate a multi-view video centered on a gazing point selected by the user from a subject that is a target area captured by a plurality of cameras. By seamlessly projecting all camera images into panned and tilted images so that the selected gaze point is at the center, and continuously presenting them, seamlessly focusing on the gaze point Multi-view video can be generated.

そこで、この射影変換処理で必要となる各カメラのカメラパラメータをカメラキャリブレーションによって求める。ここでは、上述した座標変換式(1)〜(3)を用いてユーザが選択した注視点の世界座標を求め、中心の3次元座標と各カメラの光学中心を結ぶ直線が画像中心を通るように射影変換を行う。   Therefore, camera parameters of each camera necessary for the projective transformation process are obtained by camera calibration. Here, the world coordinates of the gazing point selected by the user are obtained using the above-described coordinate transformation equations (1) to (3), and a straight line connecting the three-dimensional coordinate of the center and the optical center of each camera passes through the center of the image. Perform a projective transformation on

また、注視点を決定する際には、まず、ユーザが選択した注視点が画像の中心となるような射影変換を行うために、注視点の世界座標を算出する。まず、複数台のカメラの中からある1台のカメラ画像を選択し、注視点(u,v)を与える。次に、他のカメラの中から1台を選択し、同じ注視点の画像座標(u,v)を与える。これらの2台のカメラの注視点の画像座標と、座標変換式(1)〜(3)から、注視点の3次元座標(X,Y,Z)は、以下の(4)式の最小二乗法によって求めることができる。 When determining the point of gaze, first, world coordinates of the point of gaze are calculated in order to perform projective transformation so that the point of gaze selected by the user is the center of the image. First, one camera image is selected from a plurality of cameras, and a gazing point (u k , v k ) is given. Next, one camera is selected from the other cameras, and image coordinates (u 1 , v 1 ) of the same gazing point are given. From the image coordinates of the gazing point of these two cameras and the coordinate conversion equations (1) to (3), the three-dimensional coordinates (X 1 , Y 1 , Z 1 ) of the gazing point are expressed by the following equation (4): Can be obtained by the least square method.

ここで、pij は座標変換式(1)の変換行列Pmのi行j列目の要素を表す。 Here, p ij m represents an element in the i-th row and j-th column of the transformation matrix Pm of the coordinate transformation formula (1).

次に、計算した被写体領域の点の3次元座標と、各カメラまでの距離を計算することで、各カメラから映像フレーム1の動く被写体領域までの距離を計算することができる。   Next, the distance from each camera to the moving subject area of the video frame 1 can be calculated by calculating the calculated three-dimensional coordinates of the point of the subject area and the distance to each camera.

ここで、画像合成手段17は、カメラ31−1〜31−8から、映像フレーム1の動く被写体領域までのそれぞれの距離値をdist_c1_f1〜dist_c8_f1として求める。同様に、各カメラ31−1〜31−8における映像フレーム3,5,7,9,11の動く被写体領域までの距離情報、dist_c1_f3〜dist_c8_f3、dist_c1_f5〜dist_c8_f5、dist_c1_f7〜dist_c8_f7、dist_c1_f9〜dist_c8_f9、dist_c1_f11〜dist_c8_f11を求める。   Here, the image synthesizing unit 17 obtains distance values from the cameras 31-1 to 31-8 to the moving subject area of the video frame 1 as dist_c1_f1 to dist_c8_f1. Similarly, the distance information to the moving subject area of the video frames 3, 5, 7, 9, and 11 in each camera 31-1 to 31-8, dist_c1_f3 to dist_c8_f3, dist_c1_f5 to dist_c8_f5, dist_c1_f7 to dist_c8_f7, dist_c1_f9_dist_c11_f9_d9_d9 ~ Dist_c8_f11 is obtained.

次に、カメラ毎に映像フレーム毎(1,3,5,7,9,11)の距離情報の大小を比較し、距離が大きい順に被写体領域画像を合成表示する順番(Order1〜Order8)を決定する。例えば、カメラ31−1に関して、映像フレーム毎の距離情報が、「dist_c1_f11>dist_c1_f9>dist_c1_f7>dist_c1_f5>dist_c1_f3>dist_c1_f1」という大小関係にある場合、カメラ31−1の所定の背景画像に合成する被写体領域画像の順番(Order1)は、映像フレーム11→9→7→5→3→1となる。   Next, the size of distance information for each video frame (1, 3, 5, 7, 9, 11) is compared for each camera, and the order (Order 1 to Order 8) in which the subject area images are synthesized and displayed in order of increasing distance is determined. To do. For example, regarding the camera 31-1, when the distance information for each video frame has a magnitude relationship of “dist_c1_f11> dist_c1_f9> dist_c1_f7> dist_c1_f5> dist_c1_f3> dist_c1_f1,” a subject area to be combined with a predetermined background image of the camera 31-1 The order of images (Order 1) is video frames 11 → 9 → 7 → 5 → 3 → 1.

つまり、背景として用いられるカメラに対して遠いカメラの画像から近いカメラの画像を順番に合成する。これにより、時間経過に伴って動く被写体を映像として高精度に提示することができる。   That is, the camera images closer to the camera image far from the camera used as the background are sequentially combined. As a result, it is possible to present a subject that moves with time as a video with high accuracy.

<画像合成:第3の具体例>
次に、画像合成手段17における画像合成の第3の具体例について説明する。画像合成手段17は、被写体領域抽出手段16から出力される被写体領域画像(SilIm1〜SilIm8)と、カメラ毎の所定の背景画像(BgIm1〜BgIm8)と、上述した第2の具体例に示した距離情報計算手段により得られる距離情報により決定したカメラ毎に被写体領域画像を所定の背景画像に合成する順番(Order1〜Order8)を利用して、カメラ毎に、所定の背景画像(BgIm1〜BgIm8)に複数の映像フレームの被写体領域画像を合成した、マルチモーション画像(MmIm1〜MmIm8)を生成し、生成した映像を出力する。
<Image composition: Third specific example>
Next, a third specific example of image composition in the image composition means 17 will be described. The image synthesizing unit 17 includes a subject region image (SilIm1 to SilIm8) output from the subject region extracting unit 16, a predetermined background image (BgIm1 to BgIm8) for each camera, and the distance shown in the second specific example described above. By using the order (Order 1 to Order 8) for combining the subject area image with the predetermined background image for each camera determined by the distance information obtained by the information calculation means, the predetermined background image (BgIm1 to BgIm8) is set for each camera. A multi-motion image (MmIm1 to MmIm8) is generated by combining subject area images of a plurality of video frames, and the generated video is output.

例えば、所定の背景画像を各カメラの13フレームの映像とし、そこに、被写体領域抽出手段16で抽出した映像フレーム1,3,5,7,9,11の被写体領域画像を合成する際、カメラ31−1におけるマルチモーション画像(MmIm1)を生成する場合については、カメラ31−1の合成する順番(Order1)が映像フレーム11→9→7→5→3→1の順にとなっていたとする。このとき、カメラ31−1の背景画像(13フレームの映像)にカメラ31−1の映像フレーム11の被写体領域画像をキー信号に基づき合成した合成映像を生成する。   For example, when a predetermined background image is a 13-frame video of each camera and the subject area images of the video frames 1, 3, 5, 7, 9, and 11 extracted by the subject area extraction unit 16 are combined therewith, In the case of generating a multi-motion image (MmIm1) at 31-1, it is assumed that the order of synthesis by the camera 31-1 (Order1) is in the order of video frames 11 → 9 → 7 → 5 → 3 → 1. At this time, a synthesized video is generated by synthesizing the subject area image of the video frame 11 of the camera 31-1 with the background image (13-frame video) of the camera 31-1 based on the key signal.

次に、この合成映像に、カメラ1の映像フレーム9の被写体領域画像をキー信号に基づき合成する。同様に、映像フレーム7,5,3,1の順に被写体領域画像を合成し、カメラ31−1のマルチモーション映像(MmIm1)を生成し、生成した画像を出力する。   Next, the subject area image of the video frame 9 of the camera 1 is synthesized with this synthesized video based on the key signal. Similarly, the subject area images are synthesized in the order of the video frames 7, 5, 3, and 1, a multi-motion video (MmIm1) of the camera 31-1 is generated, and the generated image is output.

また、画像合成手段17は、出力映像設定手段15により得られる設定条件に基づいて、必要に応じてカメラ31−1以外の他のカメラについても同様の処理を行い、カメラ台数分のマルチモーション映像(MmIm1〜MmIm8)を生成し、生成した映像を出力する。   In addition, the image composition unit 17 performs the same processing on other cameras other than the camera 31-1 as necessary based on the setting conditions obtained by the output video setting unit 15, and multi-motion video for the number of cameras. (MmIm1 to MmIm8) are generated, and the generated video is output.

<多視点映像生成手段18>
多視点映像生成手段18は、出力映像設定手段15における設定条件に基づいて、複数台のカメラ31−1〜31−8から選択される所定のカメラにより同期して撮影された映像を、所定の時間をずらして順次表示させることにより多視点映像を生成する。
<Multi-view video generation means 18>
Based on the setting conditions in the output video setting unit 15, the multi-view video generation unit 18 generates video that has been captured synchronously by a predetermined camera selected from the plurality of cameras 31-1 to 31-8. A multi-view video is generated by sequentially displaying the images at different times.

なお、多視点映像生成手段18は、出力映像設定手段15により得られる設定条件に基づいて、例えば画像合成手段17から出力されるカメラ台数分のマルチモーション画像(MmIm1〜MmIm8)や選択された所定のマルチモーション画像、あるいは複数の撮像手段11により得られる合成していない映像等から、例えばカメラの配列順に画像を切り替えて多視点マルチモーション映像(OutIm)を生成する。   Note that the multi-view video generation unit 18 is based on the setting conditions obtained by the output video setting unit 15, for example, multi-motion images (MmIm 1 to MmIm 8) corresponding to the number of cameras output from the image synthesis unit 17 and selected predetermined ones. For example, the multi-view multi-motion video (OutIm) is generated by switching the images from the multi-motion image or the uncombined video obtained by the plurality of imaging units 11 in the order of camera arrangement, for example.

例えば、カメラ31−1〜カメラ31−8の順に左から右にカメラが設置されている場合、以下のようなフレーム順でマルチモーション映像を連続して切り替えて多視点マルチモーション映像(OutIm)を生成する。なお、この場合には、出力映像設定手段15により設定される切り替え順序や切り替え時間間隔等の設定条件に基づいて多視点映像の生成を行う。   For example, when cameras are installed from left to right in the order of the camera 31-1 to the camera 31-8, the multi-motion multi-motion video (OutIm) is switched by continuously switching the multi-motion video in the following frame order. Generate. In this case, the multi-viewpoint video is generated based on the setting conditions such as the switching order and switching time interval set by the output video setting means 15.

つまり、多視点映像生成手段18は、例えば1フレーム〜8フレームで、MmIm1〜MmIm8の多視点マルチモーション映像(又は多視点映像)を出力することができる。   That is, the multi-view video generation unit 18 can output multi-view multi-motion videos (or multi-view videos) of MmIm1 to MmIm8 in, for example, 1 to 8 frames.

<出力映像生成手段19>
次に、出力映像生成手段19における出力映像の生成内容について説明する。出力映像生成手段19は、画像合成手段17により得られる合成画像と、多視点映像生成手段18により得られる多視点マルチモーション映像等と、出力映像設定手段15により設定された出力映像の設定条件に基づいて、所定のタイミングで、出力映像を生成する。
<Output video generation means 19>
Next, the content of the output video generated by the output video generation means 19 will be described. The output video generation unit 19 sets the composite image obtained by the image synthesis unit 17, the multi-view multi-motion video obtained by the multi-view video generation unit 18, and the output video setting conditions set by the output video setting unit 15. Based on this, an output video is generated at a predetermined timing.

<出力映像:第1の実施例>
ここで、出力映像生成手段19における出力映像の具体的な実施例について図を用いて説明する。図6は、出力映像生成の第1の実施例を説明するための図である。図6に示す出力映像は、各フレーム50−1〜50−8(図6(a)〜(h))の順序で所定の時間間隔で出力される。また、各フレーム50−1〜50−8には、複数のカメラのうち、予め設定されたカメラからの背景画像51−1〜51−8がそれぞれ選択される。
<Output Video: First Example>
Here, a specific embodiment of the output video in the output video generation means 19 will be described with reference to the drawings. FIG. 6 is a diagram for explaining a first example of output video generation. The output video shown in FIG. 6 is output at predetermined time intervals in the order of the frames 50-1 to 50-8 (FIGS. 6A to 6H). In addition, for each of the frames 50-1 to 50-8, among the plurality of cameras, background images 51-1 to 51-8 from preset cameras are selected.

また、各背景画像51−1〜51−8には、上述した画像合成手段17により、所定のカメラで撮影された複数の映像フレームのうち、選択された5つのフレームから得られる被写体52−1〜52−5が合成されている。なお、5つのフレームのうち、1つは背景画像としても用いられる。また、フレーム50−1〜50−8における合成画像の被写体は、各フレーム50−1〜50−8でそれぞれ選択された所定のカメラにより撮影された映像フレームのうち、選択される5つのフレームから取得する。   Each of the background images 51-1 to 51-8 includes a subject 52-1 obtained from five selected frames among a plurality of video frames photographed by a predetermined camera by the above-described image synthesizing unit 17. ~ 52-5 have been synthesized. Of the five frames, one is also used as a background image. In addition, the subject of the composite image in the frames 50-1 to 50-8 is selected from the five frames selected from the video frames taken by the predetermined cameras selected in the respective frames 50-1 to 50-8. get.

このように、第1の実施例によれば、図6に示すように、高精度な多視点マルチモーション画像を実現し、ディスプレイ等の出力手段13により表示することができる。   In this way, according to the first embodiment, as shown in FIG. 6, a highly accurate multi-view multi-motion image can be realized and displayed by the output means 13 such as a display.

<出力映像:第2の実施例>
次に、本実施の形態における出力映像生成の第2の実施例について図を用いて説明する。図7は、出力映像生成の第2の実施例を説明するための図である。図7に示す出力映像は、各フレーム60−1〜60−10(図7(a)〜(j))の順序で出力される。なお、図7に示すフレームは、説明上、実際の出力映像のフレームから所定のフレームを選択して抽出したものを用いているが、実際、連続的な被写体のモーション映像をディスプレイ等の出力手段13により表示させることができる。また、各フレーム60−1〜60−10には、複数のカメラのうち予め設定されたカメラから、背景画像61が選択され、その背景画像に被写体画像が合成されることになる。
<Output Video: Second Example>
Next, a second example of output video generation in this embodiment will be described with reference to the drawings. FIG. 7 is a diagram for explaining a second embodiment of output video generation. The output video shown in FIG. 7 is output in the order of the frames 60-1 to 60-10 (FIGS. 7A to 7J). For the sake of explanation, the frame shown in FIG. 7 uses a frame obtained by selecting and extracting a predetermined frame from an actual output video frame. 13 can be displayed. In each of the frames 60-1 to 60-10, the background image 61 is selected from a preset camera among a plurality of cameras, and the subject image is combined with the background image.

ここで、図7(a)では、出力映像設定手段15により予め設定された1台のカメラで撮影された複数の映像フレームのうち、設定により選択される2つのフレームからそれぞれ得られる2つの被写体62−1a,62−1bのみが合成され、表示されている。また、図7(b)では、図7(a)と比較して、予め設定された1台のカメラでそれぞれ撮影された複数の映像フレームのうち、更に図7(a)で用いたフレームとは異なる2つのフレームから得られる被写体を含め、計4つの被写体62−2a〜62−2dが表示されている。   Here, in FIG. 7A, two subjects respectively obtained from two frames selected by setting among a plurality of video frames shot by one camera preset by the output video setting means 15. Only 62-1a and 62-1b are synthesized and displayed. Further, in FIG. 7B, compared with FIG. 7A, among the plurality of video frames respectively shot with one preset camera, the frame used in FIG. A total of four subjects 62-2a to 62-2d are displayed including subjects obtained from two different frames.

また、図7(c)〜(h)については、出力映像設定手段15により予め設定された6台のカメラでそれぞれ撮影された複数の映像フレームのうち、設定により選択される5つのフレームから得られる被写体62−3a〜62−3e,・・・,62−8a〜62−8eが合成され、更にそれぞれが出力映像設定手段15により予め設定された時間間隔に基づいて多視点映像生成手段18により生成された多視点映像が出力される。なお、図7(c)〜(h)に対する映像の再生時には、実際に撮影した時間自体は停止している(被写体自体は動いていない)状態となる。これにより、図7に示すように被写体に対して異なる角度から回り込むような映像を生成することができ、この映像を例えばディスプレイ等の出力手段13に表示することができる。   7C to 7H are obtained from five frames selected by setting among a plurality of video frames respectively shot by six cameras set in advance by the output video setting means 15. , 62-8a to 62-8e are combined, and each of them is generated by the multi-view video generation unit 18 based on the time interval preset by the output video setting unit 15. The generated multi-view video is output. Note that during the reproduction of the images shown in FIGS. 7C to 7H, the actual shooting time itself is stopped (the subject itself is not moving). Thereby, as shown in FIG. 7, it is possible to generate an image that wraps around the subject from different angles, and this image can be displayed on the output means 13 such as a display.

また、図7(i)では、出力映像設定手段15により予め設定された1台のカメラで撮影された複数の映像フレームのうち、設定により選択される3つのフレームから得られる被写体62−9a〜62−9cが表示されている。   Also, in FIG. 7 (i), subjects 62-9a to 62-9a obtained from three frames selected by setting among a plurality of video frames photographed by one camera preset by the output video setting means 15 are used. 62-9c is displayed.

更に、図7(j)では、時間が経過し、ある所定のカメラで撮影されたフレーム画像(合成のない画像)のみが出力される。なお、このような画像は、予め出力映像設定手段15により設定された出力条件に基づいて、予め画像合成手段17及び多視点映像生成手段18等により生成された各種画像を蓄積手段14に一時的に蓄積しておき、それらの画像を用いて出力映像生成手段19において出力映像を生成する。   Further, in FIG. 7 (j), only a frame image (image without synthesis) taken with a predetermined camera is output after a lapse of time. Note that such an image is obtained by temporarily storing various images generated in advance by the image synthesizing unit 17 and the multi-viewpoint video generating unit 18 on the storage unit 14 based on the output conditions set in advance by the output video setting unit 15. The output video generation means 19 generates an output video using these images.

このように、出力映像設定手段15により設定された画像を用いることにより、合成画像や、多視点映像を組み合わせて被写体の軌跡や、被写体の動作の流れを高精度に取得してディスプレイ等の出力手段13により表示することができる。これにより、12台のカメラ映像を切り替えて表示することにより立体感のあるダイナミックな映像を生成することができる。   In this way, by using the image set by the output video setting means 15, a combined image or a multi-view video is combined to obtain a subject trajectory and a subject motion flow with high accuracy and output to a display or the like. It can be displayed by means 13. Thereby, a dynamic image with a stereoscopic effect can be generated by switching and displaying the 12 camera images.

<出力映像:第3の実施例>
次に、本実施の形態における出力映像生成の第3の実施例について図を用いて説明する。第3の実施例としては、上述の第1の実施例及び第2の実施例を組み合わせて出力映像を生成する。
<Output Video: Third Example>
Next, a third example of output video generation according to the present embodiment will be described with reference to the drawings. As a third example, an output video is generated by combining the first and second examples described above.

例えば、上述した図6を用いて説明すると、図6(a)では被写体52−1eのみ表示された画像を表示し、図6(b)では設定により選択される2つのフレームから得られる被写体52−2d、52−2eのみ表示された画像を表示する。   For example, referring to FIG. 6 described above, in FIG. 6A, an image in which only the subject 52-1e is displayed is displayed, and in FIG. 6B, the subject 52 obtained from two frames selected by setting. -2d and 52-2e are displayed.

また、図6(c)〜図6(g)についても図6(b)と同様に、設定により選択される2つのフレームから得られる被写体のみ表示する。具体的には、図6(c)では被写体52−3d、52−3eのみ表示された画像を表示し、図6(d)では被写体52−4c、52−4dのみ表示された画像を表示し、図6(e)では被写体52−5b、52−5cのみ表示された画像を表示し、図6(f)では被写体52−6b、52−6cのみ表示された画像を表示し、図6(g)では被写体52−7a、52−7bのみ表示された画像を表示する。   6C to 6G, only the subject obtained from the two frames selected by setting is displayed as in FIG. 6B. Specifically, in FIG. 6C, an image displaying only the subjects 52-3d and 52-3e is displayed, and in FIG. 6D, an image displaying only the subjects 52-4c and 52-4d is displayed. 6 (e) displays an image displaying only the subjects 52-5b and 52-5c, and FIG. 6 (f) displays an image displaying only the subjects 52-6b and 52-6c. In g), an image in which only the subjects 52-7a and 52-7b are displayed is displayed.

更に、図6(h)では被写体52−8aのみ表示された画像をディスプレイ等の出力手段13により表示するようにする。これにより、被写体が動きながら、被写体に対して異なる角度から回り込むような映像を表示することができるため、多視点映像において、あたかも時間が経過しているような合成画像を表示することができる。これにより、より高精度な出力映像を提供することができる。上述した映像生成装置10により、時間経過に伴って動く被写体を映像として高精度に提示することができる。   Further, in FIG. 6H, an image displaying only the subject 52-8a is displayed by the output means 13 such as a display. As a result, it is possible to display an image that moves around the subject from different angles while the subject moves, so that it is possible to display a composite image as if time has elapsed in a multi-viewpoint video. Thereby, a more accurate output image can be provided. The above-described video generation apparatus 10 can present a subject that moves with time as a video with high accuracy.

<実行プログラム>
ここで、上述した映像生成装置10は、上述した専用の装置構成等を用いて本発明における映像生成を行うこともできるが、各構成における処理をコンピュータに実行させるための実行プログラムを生成し、例えば汎用のパーソナルコンピュータ、サーバ等にそのプログラムをインストールすることにより、本発明に係る映像生成を実現することができる。
<Execution program>
Here, the video generation device 10 described above can perform video generation in the present invention using the dedicated device configuration described above, but generates an execution program for causing a computer to execute the processing in each configuration, For example, the video generation according to the present invention can be realized by installing the program in a general-purpose personal computer, server, or the like.

<ハードウェア構成>
ここで、本発明における映像生成処理が実行可能なコンピュータのハードウェア構成例について図を用いて説明する。図8は、本発明における映像生成処理が実現可能なハードウェア構成の一例を示す図である。
<Hardware configuration>
Here, an example of a hardware configuration of a computer capable of executing the video generation processing according to the present invention will be described with reference to the drawings. FIG. 8 is a diagram illustrating an example of a hardware configuration capable of realizing the video generation processing according to the present invention.

図8におけるコンピュータ本体には、入力装置71と、出力装置72と、ドライブ装置73と、補助記憶装置74と、メモリ装置75と、各種制御を行うCPU(Central Processing Unit)76と、ネットワーク接続装置77とを有するよう構成されており、これらはシステムバスBで相互に接続されている。   8 includes an input device 71, an output device 72, a drive device 73, an auxiliary storage device 74, a memory device 75, a CPU (Central Processing Unit) 76 for performing various controls, and a network connection device. 77, which are connected to each other by a system bus B.

入力装置71は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスや音声入力デバイス等を有しており、ユーザ等からのプログラムの実行指示等、各種操作信号、音声信号を入力する。出力装置72は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイやスピーカ等を有し、CPU76が有する制御プログラムにより実行経過や結果等を表示又は音声出力することができる。   The input device 71 includes a keyboard and a pointing device such as a mouse operated by a user, a voice input device, and the like, and inputs various operation signals and voice signals such as a program execution instruction from the user. The output device 72 has a display, a speaker, and the like that display various windows and data necessary for operating the computer main body for performing the processing according to the present invention. Display or audio output is possible.

ここで、本発明において、コンピュータ本体にインストールされる実行プログラムは、例えばCD−ROMやDVD等の記録媒体78等により提供される。プログラムを記録した記録媒体78は、ドライブ装置73にセット可能であり、記録媒体78に含まれる実行プログラムが、記録媒体78からドライブ装置73を介して補助記憶装置74にインストールされる。   Here, in the present invention, the execution program installed in the computer main body is provided by a recording medium 78 such as a CD-ROM or a DVD. The recording medium 78 on which the program is recorded can be set in the drive device 73, and the execution program included in the recording medium 78 is installed from the recording medium 78 to the auxiliary storage device 74 via the drive device 73.

また、ドライブ装置73は、本発明に係る実行プログラムを記録媒体78に記録することができる。これにより、その記録媒体78を用いて、他の複数のコンピュータに容易にインストールすることができ、容易に映像生成処理を実現することができる。   Further, the drive device 73 can record the execution program according to the present invention in the recording medium 78. Thus, the recording medium 78 can be used for easy installation on a plurality of other computers, and video generation processing can be easily realized.

補助記憶装置74は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。また、補助記憶装置74は、上述した動き出力映像の設定条件や、被写体領域抽出結果、合成画像、多視点映像、出力映像、カメラパラメータ、生成される表示画面等を蓄積する蓄積手段として用いることもできる。   The auxiliary storage device 74 is a storage means such as a hard disk, and can store an execution program according to the present invention, a control program provided in a computer, etc., and perform input / output as necessary. Further, the auxiliary storage device 74 is used as a storage unit that stores the setting conditions of the motion output video, the subject region extraction result, the composite image, the multi-view video, the output video, the camera parameter, the generated display screen, and the like. You can also.

メモリ装置75は、CPU76により補助記憶装置74から読み出された実行プログラム等を格納する。なお、メモリ装置75は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。   The memory device 75 stores an execution program or the like read from the auxiliary storage device 74 by the CPU 76. The memory device 75 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPU76は、OS(Operating System)等の制御プログラム、及び補助記憶装置74から読み出されメモリ装置75に格納されている実行プログラム等に基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、映像生成における各処理を実現することができる。また、プログラムの実行中に必要な各種情報等は、補助記憶装置74から取得することができ、また格納することもできる。   Based on a control program such as an OS (Operating System) and an execution program read from the auxiliary storage device 74 and stored in the memory device 75, the CPU 76 inputs various calculations and data with each hardware component. Each process in the video generation can be realized by controlling processing of the entire computer such as output. Various information necessary during the execution of the program can be acquired from the auxiliary storage device 74 and stored.

ネットワーク接続装置77は、電話回線やLAN(Local Area Network)ケーブル等の通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラムを他の端末等に提供することができる。   The network connection device 77 obtains an execution program from another terminal connected to the communication network or executes the program by connecting to a communication network such as a telephone line or a LAN (Local Area Network) cable. The execution result obtained in this way or the execution program in the present invention can be provided to other terminals or the like.

上述したようなハードウェア構成により、特別な装置構成を必要とせず、低コストで映像生成処理を実現することができる。また、プログラムをインストールすることにより、容易に映像生成処理を実現することができる。次に、本発明における実行プログラムを用いた処理手順についてフローチャートを用いて説明する。   With the hardware configuration as described above, a video generation process can be realized at a low cost without requiring a special device configuration. Also, by installing the program, it is possible to easily realize the video generation process. Next, a processing procedure using the execution program in the present invention will be described using a flowchart.

<映像生成処理>
図9は、本発明における映像生成処理手順の一例を示すフローチャートである。図9において、まず撮像手段としてのカメラ等を用いて動く被写体を撮影した映像を取得する(S01)。なお、S01の処理では、設置位置の異なる複数のカメラから撮影された映像を用いるものとする。また、S01の処理では、映像(画像)そのもののデータ(フレーム)だけでなく、撮影時間、各カメラのカメラパラメータ等を取得する。
<Video generation processing>
FIG. 9 is a flowchart showing an example of a video generation processing procedure in the present invention. In FIG. 9, first, an image obtained by photographing a moving subject using a camera or the like as an imaging unit is acquired (S01). Note that in the processing of S01, images taken from a plurality of cameras having different installation positions are used. In the process of S01, not only the data (frame) of the video (image) itself, but also the shooting time, camera parameters of each camera, and the like are acquired.

次に、最終的にどのような映像を出力するか、その出力映像の設定を行う(S02)。具体的には、どの時間帯で、どのカメラのフレームや背景画像を用いて、どのカメラから抽出された被写体を合成し、また複数のカメラから多視点映像を生成し、それらの合成した画像や映像を所定の時間帯で繋ぎ合わせて1つの映像を生成するための各種条件を設定する。なお、これらの設定条件は、例えば蓄積手段14等に蓄積しておくことができ、また任意に設定を変更することもできる。   Next, what kind of video is finally output is set for the output video (S02). Specifically, in which time frame, using the frame and background image of which camera, the subject extracted from which camera is synthesized, and the multi-view video is generated from a plurality of cameras. Various conditions are set for generating one video by connecting the video in a predetermined time zone. These setting conditions can be stored, for example, in the storage unit 14 or the like, and the settings can be arbitrarily changed.

次に、カメラから撮影された映像のうち、S02の処理により設定された条件により出力される映像から被写体領域を抽出し(S03)、抽出した被写体と、S02の処理において設定された出力映像の設定条件に対応する所定のカメラから得られた背景画像(被写体も含む)とを合成し、合成画像を生成する(S04)。   Next, a subject area is extracted from the video captured by the camera according to the conditions set in the process of S02 (S03), and the extracted subject and the output video set in the process of S02 are extracted. A background image (including a subject) obtained from a predetermined camera corresponding to the setting condition is synthesized to generate a synthesized image (S04).

更に、S02の処理において設定された出力映像の条件に対応する多視点映像を生成する(S05)。次に、S04の処理により得られる合成画像と、S05の処理により得られる多視点映像とを用いて、S02における出力映像の設定条件に基づいて、出力映像を生成し(S06)、生成した映像を画面に出力する(S07)。なお、生成した映像は、例えば蓄積手段14等に蓄積させてもよい。   Further, a multi-view video corresponding to the output video condition set in the process of S02 is generated (S05). Next, using the composite image obtained by the process of S04 and the multi-view video obtained by the process of S05, an output video is generated based on the setting condition of the output video in S02 (S06), and the generated video Is output to the screen (S07). The generated video may be stored in the storage unit 14 or the like, for example.

ここで、上述した処理手順においては、上述のS01の処理とS02の処理とを逆にしてもよい。つまり、予め設定された出力映像の設定条件に対応する映像のみを所定のカメラから取得することもできる。これにより、無駄な映像を蓄積することがなく、記録容量を削減することができる。また、必要な映像のみを効率的に取得することができる。また、S04の処理における合成画像生成や、S05の処理における多視点映像生成を逆の順序で行ってよい。上述した映像生成処理により、時間経過に伴って動く被写体を映像として高精度に提示することができる。   Here, in the processing procedure described above, the processing in S01 and the processing in S02 may be reversed. That is, it is possible to acquire only a video corresponding to a preset output video setting condition from a predetermined camera. Thereby, it is possible to reduce the recording capacity without accumulating useless video. In addition, only necessary images can be acquired efficiently. Further, the composite image generation in the process of S04 and the multi-view video generation in the process of S05 may be performed in the reverse order. By the video generation process described above, a subject that moves with time can be presented with high accuracy as a video.

上述したように本発明によれば、時間経過に伴って動く被写体を映像として高精度に提示することができる。また、本発明によれば、例えばスポーツ選手等の時間経過に沿った動きを、様々な視点から見ることができるため、スポーツ中継や運動解析等において視覚的にわかりやすい運動情報の提示を行うことができる。   As described above, according to the present invention, it is possible to present a subject that moves with time as a video with high accuracy. In addition, according to the present invention, for example, movement along the passage of time of a sports player or the like can be seen from various viewpoints, so that it is possible to present exercise information that is visually easy to understand in sports relaying, exercise analysis, and the like. it can.

以上本発明の好ましい実施の形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   Although the preferred embodiment of the present invention has been described in detail above, the present invention is not limited to the specific embodiment, and various modifications are possible within the scope of the gist of the present invention described in the claims. Can be changed.

本発明における映像生成装置の一構成例を示す図である。It is a figure which shows the example of 1 structure of the video production | generation apparatus in this invention. 多視点映像を取得するための一例を示す図である。It is a figure which shows an example for acquiring a multiview video. 図2に対応して得られる映像フレームの一例を示す図である。It is a figure which shows an example of the video frame obtained corresponding to FIG. 被写体領域画像の映像信号の一例を示す図である。It is a figure which shows an example of the video signal of a to-be-photographed area | region image. 合成画像の一例を示す図である。It is a figure which shows an example of a synthesized image. 出力映像生成の第1の実施例を説明するための図である。It is a figure for demonstrating the 1st Example of output image generation. 出力映像生成の第2の実施例を説明するための図である。It is a figure for demonstrating the 2nd Example of output image generation. 本発明における映像生成処理が実現可能なハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which can implement | achieve the image | video production | generation process in this invention. 本発明における映像生成処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the image | video production | generation process procedure in this invention.

符号の説明Explanation of symbols

10 映像生成装置
11 撮像手段
12 入力手段
13 出力手段
14 蓄積手段
15 出力映像設定手段
16 被写体領域抽出手段
17 画像合成手段
18 多視点映像生成手段
19 出力映像生成手段
20 送受信手段
21 制御手段
30,41、52,62 被写体
31 カメラ
32 被写体領域
33 背景領域
40 合成画像
42,51,61 背景画像
50,60 フレーム
71 入力装置
72 出力装置
73 ドライブ装置
74 補助記憶装置
75 メモリ装置
76 CPU
77 ネットワーク接続装置
78 記録媒体
DESCRIPTION OF SYMBOLS 10 Image | video production | generation apparatus 11 Imaging means 12 Input means 13 Output means 14 Accumulation means 15 Output image setting means 16 Subject area extraction means 17 Image composition means 18 Multi-view image generation means 19 Output image generation means 20 Transmission / reception means 21 Control means 30, 41 , 52, 62 Subject 31 Camera 32 Subject region 33 Background region 40 Composite image 42, 51, 61 Background image 50, 60 Frame 71 Input device 72 Output device 73 Drive device 74 Auxiliary storage device 75 Memory device 76 CPU
77 Network connection device 78 Recording medium

Claims (6)

複数の撮像手段により撮影された動く被写体の映像から予め設定された条件に基づいて所定の映像を生成する映像生成装置において、
出力する映像の内容を設定する出力映像設定手段と、
前記出力映像設定手段により得られる設定条件に基づいて、前記複数の撮像手段により撮影した映像から選択された映像の被写体領域を抽出する被写体領域抽出手段と、
前記被写体領域抽出手段により抽出された被写体領域を所定の背景画像に合成する画像合成手段と、
前記出力映像設定手段により得られる設定条件に基づいて、前記複数の撮像手段により撮影した映像から選択された映像を所定の順序で切り替えて多視点映像を生成する多視点映像生成手段と、
前記画像合成手段及び前記多視点映像生成手段により得られる映像から出力映像を生成する出力映像生成手段とを有することを特徴とする映像生成装置。
In a video generation device that generates a predetermined video based on a preset condition from videos of a moving subject captured by a plurality of imaging means,
Output video setting means for setting the content of the video to be output;
Subject area extraction means for extracting a subject area of a video selected from videos taken by the plurality of imaging means based on setting conditions obtained by the output video setting means;
Image synthesis means for synthesizing the subject area extracted by the subject area extraction means with a predetermined background image;
A multi-view video generation unit that generates a multi-view video by switching a video selected from videos captured by the plurality of imaging units in a predetermined order based on a setting condition obtained by the output video setting unit;
An image generation apparatus comprising: an output image generation unit configured to generate an output image from images obtained by the image synthesis unit and the multi-viewpoint image generation unit.
前記画像合成手段は、
前記被写体領域抽出手段により抽出された複数の被写体領域画像を、所定の順序で前記背景画像に合成することを特徴とする請求項1に映像生成装置。
The image composition means includes
2. The video generation apparatus according to claim 1, wherein a plurality of subject area images extracted by the subject area extraction unit are combined with the background image in a predetermined order.
前記画像合成手段は、
前記複数の撮像手段におけるカメラパラメータにより得られる前記撮像手段から被写体領域までの距離情報に基づいた順序で前記背景画像に合成することを特徴とする請求項2に記載の映像生成装置。
The image composition means includes
3. The video generation apparatus according to claim 2, wherein the background image is synthesized in an order based on distance information from the imaging unit to a subject area obtained by camera parameters in the plurality of imaging units.
前記撮像手段は、
前記出力映像設定手段により設定される出力映像に使用する映像を撮影する撮像手段からの映像のみを取得することを特徴とする請求項1乃至3の何れか1項に記載の映像生成装置。
The imaging means includes
4. The video generation apparatus according to claim 1, wherein only a video from an imaging unit that captures a video used for an output video set by the output video setting unit is acquired. 5.
前記画像合成手段は、
前記出力映像設定手段により得られる設定条件に基づいて、同一の画像に合成する被写体の数が異なる画像を生成することを特徴とする請求項1乃至4の何れか1項に記載の映像生成装置。
The image composition means includes
5. The video generation apparatus according to claim 1, wherein images having different numbers of subjects to be combined with the same image are generated based on setting conditions obtained by the output video setting unit. 6. .
複数の撮像手段により撮影された動く被写体の映像から予め設定された条件に基づいて所定の映像を生成する映像生成処理をコンピュータに実行させるための映像生成プログラムにおいて、
出力する映像の内容を設定する出力映像設定ステップと、
前記出力映像設定ステップにより得られる設定条件に基づいて、前記複数の撮像手段により撮影した映像から選択された映像の被写体領域を抽出する被写体領域抽出ステップと、
前記被写体領域抽出ステップにより抽出された被写体領域を所定の背景画像に合成する画像合成ステップと、
前記出力映像設定ステップにより得られる設定条件に基づいて、前記複数の撮像手段により撮影した映像から選択された映像を所定の順序で切り替えて多視点映像を生成する多視点映像生成ステップと、
前記画像合成ステップ及び前記多視点映像生成ステップにより得られる映像から出力映像を生成する出力映像生成ステップとをコンピュータに実行させるための映像生成プログラム。
In a video generation program for causing a computer to execute a video generation process for generating a predetermined video based on a preset condition from videos of a moving subject imaged by a plurality of imaging means,
An output video setting step for setting the content of the video to be output;
A subject area extracting step for extracting a subject area of a video selected from videos taken by the plurality of imaging means based on the setting condition obtained by the output video setting step;
An image synthesis step of synthesizing the subject area extracted by the subject area extraction step with a predetermined background image;
A multi-view video generation step of generating a multi-view video by switching a video selected from videos taken by the plurality of imaging means in a predetermined order based on the setting condition obtained by the output video setting step;
A video generation program for causing a computer to execute an output video generation step of generating an output video from the video obtained by the image synthesis step and the multi-view video generation step.
JP2007021903A 2007-01-31 2007-01-31 Video generation apparatus and video generation program Expired - Fee Related JP4971813B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007021903A JP4971813B2 (en) 2007-01-31 2007-01-31 Video generation apparatus and video generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007021903A JP4971813B2 (en) 2007-01-31 2007-01-31 Video generation apparatus and video generation program

Publications (2)

Publication Number Publication Date
JP2008187678A JP2008187678A (en) 2008-08-14
JP4971813B2 true JP4971813B2 (en) 2012-07-11

Family

ID=39730384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007021903A Expired - Fee Related JP4971813B2 (en) 2007-01-31 2007-01-31 Video generation apparatus and video generation program

Country Status (1)

Country Link
JP (1) JP4971813B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4591576B2 (en) * 2008-08-18 2010-12-01 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5526727B2 (en) * 2009-11-20 2014-06-18 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5293587B2 (en) * 2009-12-16 2013-09-18 ソニー株式会社 Display control apparatus, display control method, and program
JP5361758B2 (en) * 2010-02-12 2013-12-04 日本電信電話株式会社 Image generation method, image generation apparatus, and program
KR20180092495A (en) * 2017-02-09 2018-08-20 한국전자통신연구원 Apparatus and method for Object of Interest-centric Best-view Generation in Multi-camera Video
JP7119425B2 (en) * 2018-03-01 2022-08-17 ソニーグループ株式会社 Image processing device, encoding device, decoding device, image processing method, program, encoding method and decoding method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3929811B2 (en) * 2002-04-08 2007-06-13 株式会社インク Image composition apparatus and image composition method
JP4340836B2 (en) * 2002-07-18 2009-10-07 富士フイルム株式会社 Image composition apparatus and image composition program
JP4131929B2 (en) * 2002-12-03 2008-08-13 株式会社東芝 Object image composition method
JP2006005452A (en) * 2004-06-15 2006-01-05 Nippon Hoso Kyokai <Nhk> Image composite apparatus and image composite system
JP4439373B2 (en) * 2004-10-15 2010-03-24 日本放送協会 Multi-view camera video expression system, apparatus and program
JP2006203443A (en) * 2005-01-19 2006-08-03 Inc Corp Image synthesizer and synthesization program

Also Published As

Publication number Publication date
JP2008187678A (en) 2008-08-14

Similar Documents

Publication Publication Date Title
JP7017175B2 (en) Information processing equipment, information processing method, program
JP4626668B2 (en) Image processing apparatus, display control method, program, and recording medium
JP7263456B2 (en) Information processing device, information processing method and program
JP4700476B2 (en) Multi-view video composition device and multi-view video composition system
US11871127B2 (en) High-speed video from camera arrays
US10205969B2 (en) 360 degree space image reproduction method and system therefor
JP4971813B2 (en) Video generation apparatus and video generation program
JP2013058931A (en) Image processing apparatus and image processing method and program
US8717453B2 (en) Video processing apparatus, and control method and program therefor
US9773523B2 (en) Apparatus, method and computer program
CN105939497B (en) Media streaming system and media streaming method
JP6609112B2 (en) Multi-view video expression device and program thereof
JP2014529930A (en) Selective capture and display of a portion of a native image
US20160381290A1 (en) Apparatus, method and computer program
JP2006005452A (en) Image composite apparatus and image composite system
US20180089842A1 (en) Image processing apparatus, image processing method, and storage medium
JP2008217593A (en) Subject area extraction device and subject area extraction program
WO2020059327A1 (en) Information processing device, information processing method, and program
JP2006310936A (en) System for generating video image viewed at optional viewpoint
JP6777141B2 (en) Display control device, display control method, and program
WO2018234622A1 (en) A method for detecting events-of-interest
Foote et al. One-man-band: A touch screen interface for producing live multi-camera sports broadcasts
WO2021049356A1 (en) Playback device, playback method, and recording medium
US20220264008A1 (en) Image processing device, image processing method, and program
JP6218220B2 (en) Captured image processing apparatus and method, captured image processing program, and captured image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120313

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120406

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees