JP4451892B2 - Video playback device, video playback method, and video playback program - Google Patents

Video playback device, video playback method, and video playback program Download PDF

Info

Publication number
JP4451892B2
JP4451892B2 JP2007071614A JP2007071614A JP4451892B2 JP 4451892 B2 JP4451892 B2 JP 4451892B2 JP 2007071614 A JP2007071614 A JP 2007071614A JP 2007071614 A JP2007071614 A JP 2007071614A JP 4451892 B2 JP4451892 B2 JP 4451892B2
Authority
JP
Japan
Prior art keywords
video
acquired
unit
camera
wide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007071614A
Other languages
Japanese (ja)
Other versions
JP2007235969A (en
JP2007235969A5 (en
Inventor
憲彦 村田
青木  伸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007071614A priority Critical patent/JP4451892B2/en
Publication of JP2007235969A publication Critical patent/JP2007235969A/en
Publication of JP2007235969A5 publication Critical patent/JP2007235969A5/ja
Application granted granted Critical
Publication of JP4451892B2 publication Critical patent/JP4451892B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、広角の視野を有する撮像手段を用いて取得された広範囲のシーンの映像を記録するシステムに関するものである。具体的には監視システム、遠隔会議システム、遠隔教育システム等の用途に使用される。   The present invention relates to a system for recording a video of a wide range of scenes acquired using an imaging means having a wide-angle visual field. Specifically, it is used for applications such as a monitoring system, a remote conference system, and a remote education system.

電気通信技術の発展により、会議の様子を撮影し、取得された画像を遠隔地に伝送するテレビ会議システムが多くの企業・団体で活用されるようになった。かかるシステムの利便性をより向上させるべく、従来より会議の様子を映像として取り込むための装置及び話者のみを切り出した部分映像を伝送するためのシステムが数多く提案されている。例えば特開平5−122689号公報において、マイクから入力される音声を検出して話者を判定し、該判定結果に基づいてカメラ制御部においてカメラを自動制御し、話者を捉えるというテレビ会議システムが提案されている。しかし、話者を捉えるためにカメラを制御するのに時間がかかるという問題点がある。   With the development of telecommunications technology, video conferencing systems that capture the state of meetings and transmit acquired images to remote locations have come to be used by many companies and organizations. In order to further improve the convenience of such a system, a number of systems for capturing a state of a conference as a video and a system for transmitting a partial video obtained by cutting out only a speaker have been proposed. For example, in Japanese Patent Laid-Open No. 5-12289, a video conference system in which a voice is input from a microphone to determine a speaker, and a camera control unit automatically controls the camera based on the determination result to capture the speaker. Has been proposed. However, there is a problem that it takes time to control the camera in order to capture the speaker.

この問題点を解決すべく、特開平11−331827号公報において、魚眼又は超広角レンズ及び可変指向性マイクロフォンを用いたテレビカメラ装置に関し、音源位置の方向を判定し、該音源位置方向を追尾し、音源位置方向の画像を切り出して映像信号を生成するという発明が公開されている。しかし、魚眼又は超広角レンズを用いた該テレビカメラ装置を机の上などに設置する場合、一般に天井などあまり重要でないものが視野の大半を占めるのに比べ、視野の周辺部に人間の顔などの重要な被写体が存在するという問題点がある。また、これらのレンズは設計及び製造にかかるコストが高価である。   In order to solve this problem, Japanese Patent Application Laid-Open No. 11-331827 relates to a television camera apparatus using a fish-eye or super wide angle lens and a variable directivity microphone, and determines the direction of the sound source position and tracks the sound source position direction. Then, an invention has been disclosed in which an image in the sound source position direction is cut out to generate a video signal. However, when the TV camera device using a fish-eye or super-wide-angle lens is installed on a desk or the like, the human face is generally located in the peripheral part of the field of view, compared to the case where less important things such as the ceiling occupy most of the field of view. There is a problem that there is an important subject such as. In addition, these lenses are expensive to design and manufacture.

一方、MPEG (Motion Picture Experts Group)に代表される近年の画像符号化技術の進化、ハードディスクドライブ (以下HDDと略す)の大容量化及びそのデータ転送速度の高速化に伴い、長時間の映像及び音声信号をパーソナルコンピュータ (以下PCと略す)に電子情報として記録することが技術的に可能となってきた。それと共に、会議などのシーンを映像に記録し、後で記録されたシーンを振り返ることへのニーズが高まっている。しかし、上記従来技術はいずれもテレビ会議システムを指向しており、装置により取得された映像から所望の部分のみを切り出した映像信号を実時間で伝送することにより、通常の会議と同様の臨場感の高い映像を実時間で生成及び伝送することに主眼が置かれたものであった。すなわち、取得された映像をPCに記録したり、後にPC上でその映像を閲覧するために便宜を図ったものではなかった。   On the other hand, with the recent development of image coding technology represented by MPEG (Motion Picture Experts Group), the increase in capacity of hard disk drives (hereinafter abbreviated as HDD) and the increase in data transfer speed, It has become technically possible to record an audio signal as electronic information in a personal computer (hereinafter abbreviated as PC). At the same time, there is an increasing need for recording scenes such as conferences on video and looking back on the recorded scenes later. However, all of the above prior arts are oriented toward a video conference system, and by transmitting a video signal obtained by cutting out only a desired part from a video acquired by the apparatus in real time, the same realistic sensation as in a normal conference is achieved. The main focus was on generating and transmitting high-quality video in real time. That is, it was not intended to record the acquired video on a PC or to view the video on the PC later.

本発明は、上述の問題点に鑑みてなされたものであり、その第1の目的は、簡素な構成・処理で、広範囲の映像を取得・記録すると同時に、所望のシーンの映像を高い解像度で取得・記録することを可能とならしめる映像再生装置、映像再生方法、及び映像再生プログラムを提供しようとするものである。
The present invention has been made in view of the above-mentioned problems, and a first object of the present invention is to acquire and record a wide range of images with a simple configuration and processing, and at the same time, to capture images of a desired scene with high resolution. It is an object of the present invention to provide a video playback device, a video playback method, and a video playback program that can be acquired and recorded.

また、本発明の第2の目的は、閲覧者に対し、高い解像度を持つ所望のシーンの映像を一層容易に選択可能とならしめる映像再生装置、映像再生方法、及び映像再生プログラムを提供しようとするものである。
A second object of the present invention is to provide a video playback device, a video playback method, and a video playback program that enable a viewer to more easily select a video of a desired scene having a high resolution. To do.

また、本発明の第3の目的は、ユーザに面倒な操作を強いることなく、所望のシーンの映像を高い解像度で取得・記録することを可能とならしめる映像再生装置、映像再生方法、及び映像再生プログラムを提供しようとするものである。
In addition, a third object of the present invention is to provide a video playback device, video playback method, and video that make it possible to acquire and record a video of a desired scene at a high resolution without forcing the user to perform troublesome operations. It is intended to provide a playback program .

また、本発明の第4の目的は、取得された広範囲の映像を、更に閲覧者に観察しやすい形で表示することを可能とならしめる映像再生装置、映像再生方法、及び映像再生プログラムを提供しようとするものである。
The fourth object of the present invention is to provide a video playback device, video playback method, and video playback program that make it possible to display a wide range of acquired videos in a form that is easier for viewers to observe. It is something to try.

また、本発明の第5の目的は、更に所望のシーンの映像を高い解像度で漏れなく取得・記録することを可能とならしめる映像再生装置、映像再生方法、及び映像再生プログラムを提供しようとするものである。
The fifth object of the present invention is to provide a video playback device, a video playback method, and a video playback program that make it possible to acquire and record video of a desired scene with high resolution without omission. Is.

本発明は、映像を撮像する撮像手段により撮像された映像を取得する映像取得手段と、音声を入力する複数のマイクロフォンから入力された音声を取得する音源検出手段と、前記映像取得手段により取得された映像から被写体の動きを検出する動き検出手段と、前記音源検出手段により取得された音声に基づいて発話区間を抽出し、抽出された前記発話区間における前記映像取得手段により取得された映像から前記動き検出手段により検出された被写体の各部位の動きの特徴量に基づき、前記映像の中で最も大きな動きが検出された被写体に対応する部分映像を選択する映像選択手段と、前記映像取得手段により取得された映像を表示すると共に、前記映像選択手段により選択された部分映像を表示する表示手段とを有することを特徴とする。
The present invention is obtained by a video acquisition unit that acquires video captured by an imaging unit that captures video, a sound source detection unit that acquires audio input from a plurality of microphones that input audio, and the video acquisition unit. A motion detection means for detecting a motion of a subject from the captured video, and an utterance section is extracted based on the voice acquired by the sound source detection means, and the video acquired by the video acquisition means in the extracted utterance section Based on a feature amount of movement of each part of the subject detected by the motion detection means, a video selection means for selecting a partial video corresponding to the subject in which the largest motion is detected in the video, and the video acquisition means And a display unit for displaying the acquired video and for displaying the partial video selected by the video selection unit.

また、本発明は、取得した映像を再生する映像再生装置によって実行される映像再生方法であって、映像を撮像する撮像手段により撮像された映像を取得する映像取得工程と、音声を入力する複数のマイクロフォンから入力された音声を取得する音源検出工程と、前記映像取得手段により取得された映像から被写体の動きを検出する動き検出工程と、前記音源検出工程により取得された音声に基づいて発話区間を抽出し、抽出された前記発話区間における前記映像取得工程により取得された映像から前記動き検出工程により検出された被写体の各部位の動きの特徴量に基づき、前記映像の中で最も大きな動きが検出された被写体に対応する部分映像を選択する映像選択工程と、前記映像取得工程により取得された映像を表示すると共に、前記映像選択工程により選択された部分映像を表示する表示工程とを有することを特徴とする。
The present invention is also a video playback method executed by a video playback device that plays back an acquired video, a video acquisition step of acquiring video captured by an imaging means for capturing video, and a plurality of inputs of audio. A sound source detecting step for acquiring sound input from the microphone, a motion detecting step for detecting a motion of a subject from the video acquired by the video acquiring means, and an utterance section based on the sound acquired by the sound source detecting step And the largest motion in the video is based on the feature amount of the motion of each part of the subject detected by the motion detection step from the video acquired by the video acquisition step in the extracted speech section. a video selection step for selecting a partial image corresponding to the detected subject, and displays an image acquired by the image acquisition step wherein And having a display step of displaying the partial image selected by the image selection process.

また、本発明は、コンピュータを、映像を撮像する撮像手段により撮像された映像を取得する映像取得手段と、音声を入力する複数のマイクロフォンから入力された音声を取得する音源検出手段と、前記映像取得手段により取得された映像から被写体の動きを検出する動き検出手段と、前記音源検出手段により取得された音声に基づいて発話区間を抽出し、抽出された前記発話区間における前記映像取得手段により取得された映像から前記動き検出手段により検出された被写体の各部位の動きの特徴量に基づき、前記映像の中で最も大きな動きが検出された被写体に対応する部分映像を選択する映像選択手段と、前記映像取得手段により取得された映像を表示装置に表示させると共に、前記映像選択手段により選択された部分映像を前記表示装置に表示させる表示手段として機能させるための映像再生プログラムである。
Further, the present invention provides a computer, a video acquisition unit that acquires video captured by an imaging unit that captures video, a sound source detection unit that acquires audio input from a plurality of microphones that input audio, and the video A motion detection means for detecting the movement of the subject from the video acquired by the acquisition means, and a speech section is extracted based on the voice acquired by the sound source detection means, and acquired by the video acquisition means in the extracted speech section. Video selection means for selecting a partial video corresponding to the subject in which the largest motion is detected in the video , based on a feature amount of motion of each part of the subject detected by the motion detection means from the video that has been recorded ; The video acquired by the video acquisition unit is displayed on the display device, and the partial video selected by the video selection unit is displayed. A video reproducing program for functioning as display means for displaying the location.

本発明によれば、簡素な構成・処理で、広範囲の映像を取得・記録すると同時に、所望のシーンの映像を高い解像度で取得・記録することが可能となる。すなわち、第1の目的が達成される。
According to the present invention, in easy disjoint configuration and processing, at the same time to acquire and record a wide range of video, it is possible to acquire and record a high resolution image of the desired scene. That is, the first object is achieved.

更に、本発明によれば、高い解像度を持つ所望のシーンの映像を一層容易に選択することが可能となる。すなわち、第2の目的が達成される。
Further, according to the present invention, it is possible to more easily select a desired scene image with have high resolution. That is, the second object is achieved.

更に、本発明によれば、ユーザに面倒な操作を強いることなく、所望のシーンの映像を高い解像度で取得・記録することが可能となる。すなわち、第3の目的が達成される。
Further, according to the present invention, without forcing a cumbersome operation to User chromatography THE, it is possible to acquire and record a high resolution image of the desired scene. That is, the third object is achieved.

更に、本発明によれば、取得された広範囲の映像を、更に閲覧者に観察しやすい形で表示することが可能となる。すなわち、第4の目的が達成される。
Further, according to the present invention, a wide range of images that are acquisition, it is possible to display further easily observed form the viewer. That is, the fourth object is achieved.

更に、本発明によれば、少なくとも一の他の映像と一部の共通する領域を含むことにより、更に所望のシーンの映像を高い解像度で漏れなく取得・記録することが可能となる。すなわち、第5の目的が達成される。 Further, according to the present invention, by including a common region of one another picture and some even without low, it is possible to further obtain and recorded without omission with high resolution images of a desired scene. That is, the fifth object is achieved.

まず、映像記録システムがどのように使用されるかの使用例について簡単に概説し、次に、映像記録システムの実施の形態を具体的に説明する。各実施の形態においては、それを構成する要素及びその動作を説明し、最後に処理の流れについて説明する。   First, an example of how the video recording system is used will be briefly outlined, and then an embodiment of the video recording system will be specifically described. In each embodiment, the components and operations thereof are described, and finally the processing flow is described.

先ず最初に映像配信システムの使用例について説明する。   First, a usage example of the video distribution system will be described.

図1は、本発明を会議場面に設置した使用例を概説する説明図である。映像記録システムは、広角の映像を取得する広角カメラ200と、通常の画角を持つ複数のカメラ401−1から401−4より構成されたカメラアレイ400と、会議中の音声を取得するマイクロフォン501と、広角カメラ200及びカメラアレイ400で取得された映像データ並びにマイクロフォン501により取得された音声データを取り込み、記録するためのサーバ300とを有する。   FIG. 1 is an explanatory diagram outlining an example of use in which the present invention is installed in a conference scene. The video recording system includes a wide-angle camera 200 that acquires a wide-angle video, a camera array 400 that includes a plurality of cameras 401-1 to 401-4 having a normal angle of view, and a microphone 501 that acquires audio during a conference. And a server 300 for taking in and recording video data acquired by the wide-angle camera 200 and the camera array 400 and audio data acquired by the microphone 501.

図1に示したように、広角カメラ200は、テーブル1に設置され、会議の参加者(話者)2−1から2−4のいる方向、例えば水平面を見渡す全周囲の画像を一括して撮像する。また、カメラアレイ400を構成する各々のカメラ401−1から401−4は、例えばそれぞれ会議の参加者の前面に置かれ、各参加者の姿を撮影する。これらのカメラ401−1から401−4により取得される映像を、以後「部分映像」と呼ぶ。また、サーバ300はキャビネット3に格納され、広角カメラ200及びカメラアレイ400からの映像データ並びにマイクロフォン501により取得された音声データを取得し、取得された映像データ及び音声データをHDDに記録する。   As shown in FIG. 1, the wide-angle camera 200 is installed on the table 1 and collects all the surrounding images overlooking the direction where the conference participants (speakers) 2-1 to 2-4 are present, for example, the horizontal plane. Take an image. In addition, each of the cameras 401-1 to 401-4 constituting the camera array 400 is placed, for example, in front of each participant in the conference, and photographs the appearance of each participant. The video acquired by these cameras 401-1 to 401-4 is hereinafter referred to as “partial video”. The server 300 is stored in the cabinet 3 and acquires video data from the wide-angle camera 200 and camera array 400 and audio data acquired by the microphone 501, and records the acquired video data and audio data in the HDD.

以下の各実施の形態では、本発明の映像記録システムを、会議の撮影及びその映像の記録に適用した場合について説明する。   In each of the following embodiments, a case will be described in which the video recording system of the present invention is applied to conference shooting and video recording.

実施の形態1
先ず最初に、本発明の実施の形態1について説明する。
Embodiment 1
First, Embodiment 1 of the present invention will be described.

構成
図2は、本発明の実施の形態1に係る映像記録システムの構成を示す図である。サーバ300には、USBハブ320及びバス310を介して広角カメラ200と、カメラアレイ400とが接続され、広角の映像データ及びカメラアレイ400により取得された少なくとも1つの部分映像データが取得・記録される。サーバ300により記録された映像データは、サーバ300において表示される。また、該映像データは、必要に応じてインターネットを介して配信され、該インターネットに接続されたクライアントPCにおいて表示される。
Configuration FIG. 2 is a diagram showing a configuration of a video recording system according to Embodiment 1 of the present invention. The server 300 is connected to the wide-angle camera 200 and the camera array 400 via the USB hub 320 and the bus 310, and wide-angle video data and at least one partial video data acquired by the camera array 400 are acquired and recorded. The The video data recorded by the server 300 is displayed on the server 300. The video data is distributed via the Internet as necessary, and is displayed on a client PC connected to the Internet.

次に、上記各部の構成について説明する。   Next, the configuration of each part will be described.

1.1.1 広角カメラ
図3は、実施の形態1に係る、第一の撮像手段としての、広角カメラ200の構成を示す図である。この第一の撮像手段としての、広角カメラ200は、所定形状の曲面を有するミラー211と、レンズ212と、絞り213と、CCD(Charge CoupledDevice)等の撮像素子214と、上記撮像素子214のタイミング制御、並びに上記撮像素子214により得られた映像信号に対してアナログ−デジタル変換等のデジタル化処理を行う駆動部215と、前記駆動部215により得られたデジタル信号に対してエッジ強調やγ補正等の前処理を行う前処理回路216と、アイリスを制御するために絞り213を駆動するモータ駆動部217とを備えている。
1.1.1 Wide-angle camera FIG. 3 is a diagram showing a configuration of a wide-angle camera 200 as the first imaging unit according to the first embodiment. The wide-angle camera 200 as the first image pickup means includes a mirror 211 having a curved surface with a predetermined shape, a lens 212, an aperture 213, an image pickup device 214 such as a CCD (Charge Coupled Device), and the timing of the image pickup device 214. A drive unit 215 that performs control and digitization processing such as analog-digital conversion on the video signal obtained by the imaging device 214, and edge enhancement and γ correction for the digital signal obtained by the drive unit 215 And the like, and a motor drive unit 217 that drives the diaphragm 213 to control the iris.

ミラー211は、光学系に入射する光を反射させることにより広角の撮影を可能とするためのものであり、ここでは所定形状の曲面有するミラーとして、双曲面ミラーを使用する。図4は、本実施の形態の双曲面ミラー211を用いた場合の光路を説明する図である。また図5は、本実施の形態の双曲面ミラー211により撮像素子214の表面に結像される広角画像の様子を示した図である。図5に示すように、双曲面ミラー211から反射されて撮像素子214に取り込まれる画像はドーナツ形状となっている(このドーナッツ形状の映像を以後「ドーナッツ映像」と呼ぶ)。該ドーナッツ映像は、前記撮像素子214において結像され、さらに前記駆動部215においてデジタル化され、前処理回路216を介して後述するサーバ300に送出される。なお、図4の中の中心部は、撮像素子214の方向を映し出し、これは重要でない画像情報である。したがって、双曲面ミラー211の頭頂部218を黒く塗りつぶして、黒色情報としてもよい。なお、使用の態様によっては、頭頂部218に基準線を描画し、広角カメラ200の立ち上げの際、モータ駆動部217を駆動することにより、ピント調整などの初期設定に利用してもよい。   The mirror 211 is for enabling wide-angle shooting by reflecting light incident on the optical system. Here, a hyperboloid mirror is used as a mirror having a curved surface with a predetermined shape. FIG. 4 is a diagram for explaining an optical path when the hyperboloid mirror 211 of the present embodiment is used. FIG. 5 is a diagram showing a state of a wide-angle image formed on the surface of the image sensor 214 by the hyperboloid mirror 211 of the present embodiment. As shown in FIG. 5, the image reflected from the hyperboloid mirror 211 and taken into the image sensor 214 has a donut shape (this donut-shaped image is hereinafter referred to as “doughnut image”). The donut image is imaged by the image sensor 214, digitized by the drive unit 215, and sent to the server 300 described later via the preprocessing circuit 216. Note that the central portion in FIG. 4 reflects the direction of the image sensor 214, which is unimportant image information. Therefore, the top portion 218 of the hyperboloid mirror 211 may be painted black to obtain black information. Depending on the mode of use, a reference line may be drawn on the top of the head 218, and when the wide-angle camera 200 is started up, the motor driving unit 217 may be driven to be used for initial settings such as focus adjustment.

上記のように、通常のカメラとミラーの組み合わせにより、安価かつ簡素な構成で広角の映像を撮影することができる。   As described above, wide-angle images can be taken with an inexpensive and simple configuration by combining a normal camera and a mirror.

カメラアレイ
カメラアレイ400は少なくとも1つのカメラより構成され、各々のカメラは、前記広角カメラ200の撮影範囲の一部のシーンを、より高い解像度で撮影する。カメラアレイ400を構成するカメラ401は、図1のようにバラバラに配置されても、図6のように各々のカメラ401−1から401−3を筐体402に固定して配置したものであっても構わない。カメラ401に使用される撮像素子は、CCD、CMOS (Complementary Metal−Oxide Semiconductor)型など様々な種類のものを使用することができる。該撮像素子において結像された映像信号は、カメラ内部でデジタル化された後、後述するサーバ300に送出される。
Camera Array The camera array 400 is composed of at least one camera, and each camera captures a part of the scene of the imaging range of the wide-angle camera 200 with higher resolution. Even if the cameras 401 constituting the camera array 400 are arranged separately as shown in FIG. 1, the cameras 401-1 to 401-3 are fixed to the housing 402 as shown in FIG. 6. It doesn't matter. As the imaging device used for the camera 401, various types such as a CCD and a CMOS (Complementary Metal-Oxide Semiconductor) type can be used. The video signal imaged by the image sensor is digitized inside the camera and then sent to the server 300 described later.

上記の構成を有するカメラ401を少なくとも1つ用意することにより、安価かつ簡素な構成で解像度の高い部分映像を取得することができる。   By preparing at least one camera 401 having the above-described configuration, it is possible to acquire a partial video with high resolution with an inexpensive and simple configuration.

サーバ
図7は、本実施の形態におけるサーバ300の構成例を示した図である。すなわち、映像記録システム100における各種の制御及び処理を行うCPU (Central Processing Unit) 301と、SDRAM (Synchronous Dynamic Random Access Memory) 302と、HDD (Hard Disk Drive) 303と、マウス311等のポインティングデバイス、キーボード312等の各種入力インターフェース(以下I/Fと略す)304と、電源305と、CRT (Cathode Ray Tube)等のディスプレイとを接続するための表示I/F306と、前記広角カメラ200や前記カメラアレイ400などの外部機器を接続するための外部I/F 307と、DVD (Digital Versatile Disc)+RWドライブ等の大容量記録装置308とを、バス313を介して接続することにより構成される。
Server FIG. 7 is a diagram showing a configuration example of the server 300 in the present embodiment. That is, a CPU (Central Processing Unit) 301 that performs various controls and processes in the video recording system 100, an SDRAM (Synchronous Dynamic Access Memory) 302, an HDD (Hard Disk Drive) 303, an inting device such as a mouse 311, and the like. Various input interfaces (hereinafter abbreviated as I / F) 304 such as a keyboard 312, a power source 305, a display I / F 306 for connecting a display such as a CRT (Cathode Ray Tube), the wide-angle camera 200 and the camera External I / F 307 for connecting an external device such as the array 400, and a large size such as a DVD (Digital Versatile Disc) + RW drive And the amount recording unit 308, and by connecting via the bus 313.

次に、サーバ300の各構成部について説明する。CPU 301は、HDD 303に格納された所定のプログラムにしたがって、広角カメラ200及びカメラアレイ400からの映像取得・記録などの各種処理及び制御を行う。SDRAM 302は、CPU 301の作業領域として利用されるとともに、HDD 303に格納された各処理プログラムや、Windows(登録商標) NT Server (米国Microsoft社の登録商標)などのOS (Operating System)の記憶領域として利用される。また、該HDD 303は、取得された映像の記録するための領域としても使用される。   Next, each component of the server 300 will be described. The CPU 301 performs various processes and controls such as video acquisition / recording from the wide-angle camera 200 and the camera array 400 according to a predetermined program stored in the HDD 303. The SDRAM 302 is used as a work area of the CPU 301, and also stores each processing program stored in the HDD 303 and an OS (Operating System) such as Windows (registered trademark) NT Server (registered trademark of Microsoft Corporation, USA). Used as an area. The HDD 303 is also used as an area for recording the acquired video.

外部I/F307の一例として各種I/Fボード、USB (Universal Serial Bus)、IEEE 1394、或いはIrDA、Bluetooth等の無線I/Fが挙げられる。前記広角の映像データ及び前記カメラアレイ400により取得される複数の部分映像データは、前記広角カメラ200及びカメラアレイ400をUSB2.0のような高速シリアルインターフェース経由でサーバ300に接続することにより、同期的に取得することが可能である。外部I/F 307を経由して取得されたデータは、HDD 303又は大容量記録装置308に記録される。   Examples of the external I / F 307 include various I / F boards, USB (Universal Serial Bus), IEEE 1394, or wireless I / Fs such as IrDA and Bluetooth. The wide-angle video data and the plurality of partial video data acquired by the camera array 400 are synchronized by connecting the wide-angle camera 200 and the camera array 400 to the server 300 via a high-speed serial interface such as USB 2.0. Can be obtained automatically. Data acquired via the external I / F 307 is recorded in the HDD 303 or the mass storage device 308.

動作
図8は、図2に示された本実施の形態に係る映像記録システムを、機能別のブロック図に書き直した図である。以下において、図8に示された各部の動作を具体的に説明する。
Operation FIG. 8 is a diagram in which the video recording system according to the present embodiment shown in FIG. 2 is rewritten into a functional block diagram. Hereinafter, the operation of each unit shown in FIG. 8 will be described in detail.

第1撮像部
第1撮像部31は、上記の1.1.1に記載した広角カメラ200により構成され、取得され且つデジタル化された広角の映像データを出力する動作を行う。
First Imaging Unit The first imaging unit 31 includes the wide-angle camera 200 described in 1.1.1 above, and performs an operation of outputting acquired and digitized wide-angle video data.

第2撮像部
第2撮像部32のは、上記の1.1.2に記載されたカメラアレイ400により構成され、取得され且つデジタル化された部分映像データを出力する動作を行う。
Second imaging unit The second imaging unit 32 includes the camera array 400 described in 1.1.2 above, and performs an operation of outputting acquired and digitized partial video data.

変形部
図9は、実施の形態1における変形部33の動作を説明する図である。変形部33は、第1撮像部31により取得された広角の映像データを、図11に示すように、通常のカメラで捉えた透視変換像に近い映像 (以下パノラマ映像と呼ぶ)に変形するものである。一般に、広角の範囲を撮影可能なカメラによって得られる映像は、上述したように、人間の眼で確認できる像の形状と異なり、大きな歪みが含まれるために、後に閲覧するときの便宜を図るために変形処理を施すと好適である。以下、文献 (A.M.Bruckstein and T.J.Richardson:"Omniview Cameras with Curved Surface Mirrors", Proc. of the IEEE Workshop on Omnidirectional Vision 2000, pp.79−84)に記載された方法を参考に、広角の映像データ(図6に示したドーナッツ映像を)をパノラマ映像に変形する方法を説明する。
Deformation Part FIG. 9 is a diagram for explaining the operation of the deformation part 33 in the first embodiment. The transformation unit 33 transforms the wide-angle video data acquired by the first imaging unit 31 into a video (hereinafter referred to as a panoramic video) close to a perspective transformation image captured by a normal camera as shown in FIG. It is. In general, an image obtained by a camera capable of photographing a wide-angle range includes large distortion unlike the shape of an image that can be confirmed by the human eye, as described above, so that it is convenient for viewing later. It is preferable to apply a deformation process to. Hereinafter, the method described in the literature (A.M. Brookstein and T.J. Richardson: “Omniview Cameras with Curved Surface Mirrors”, Proc. Of the IEEE Workshop on Oct. 84) A method of transforming wide-angle video data (the donut video shown in FIG. 6) into a panoramic video will be described.

図10は、双曲面ミラーを使用したカメラにおける映像の変形原理を説明するための図である。また図12(a)は、変形部33の動作例を示すし、ドーナッツ映像を、横軸を方位角とし且つ縦軸を仰角とする円柱面に映されたパノラマ映像に座標変換する。また図10(b)は、広角カメラ200の幾何的構造を示す図であり、図10(b)の中のカメラの光学系は中心射影モデルである。ここで、図中の各変数の意味は、下記の通りである。
(u, v):ドーナッツ映像における座標
(u, v):ドーナッツ映像における双曲面ミラーの中心の座標
(θ,φ):パノラマ映像における座標
r: (u, v)から(u, v)への画素単位の距離
max:ドーナッツ映像における双曲面ミラーの画素単位の半径
θ:方位角
φ:仰角
ψ:カメラの光軸からの頂角
F:双曲面ミラーの焦点
F':双曲面ミラーと対をなす双曲面の焦点、カメラの光学中心に一致する。
FIG. 10 is a diagram for explaining the principle of image deformation in a camera using a hyperboloidal mirror. FIG. 12A shows an operation example of the deforming unit 33. The donut image is coordinate-converted into a panoramic image projected on a cylindrical surface with the horizontal axis as the azimuth and the vertical axis as the elevation angle. FIG. 10B is a diagram showing the geometric structure of the wide-angle camera 200, and the optical system of the camera in FIG. 10B is a central projection model. Here, the meaning of each variable in the figure is as follows.
(U, v): coordinates (u 0 , v 0 ) in the donut image: coordinates (θ, φ) of the center of the hyperboloid mirror in the donut image: coordinates r: (u 0 , v 0 ) to (u , V) pixel unit distance r max : radius of the hyperboloid mirror in the donut image θ: azimuth angle φ: elevation angle ψ: apex angle F from the optical axis of the camera F: focus of the hyperboloid mirror F ′: It coincides with the focal point of the hyperboloid paired with the hyperboloid mirror and the optical center of the camera.

このとき、頂角ψと仰角φとの間に、以下の関係が成立する。   At this time, the following relationship is established between the apex angle ψ and the elevation angle φ.

Figure 0004451892
ここで、
Figure 0004451892
here,

Figure 0004451892
である。また、φminはドーナッツ映像上の半径rmaxの位置に対応する仰角φの値であり、これはカメラの仰角方向の撮影限界値を表す。rmaxとφminの値は一般に容易に知ることができる。
以下、変形の手順を説明する。 (i)点(u, v)に対応する極座標 (r,θ)を、次式を解くことにより求める。
Figure 0004451892
It is. Φmin is the value of the elevation angle φ corresponding to the position of the radius rmax on the donut image, and this represents the photographing limit value in the elevation angle direction of the camera. In general, the values of rmax and φmin can be easily known.
Hereinafter, a modification procedure will be described. (I) The polar coordinates (r, θ) corresponding to the point (u, v) are obtained by solving the following equation.

Figure 0004451892
(ii) (3)式により算出されたrに対応する頂角ψを次式により求める。
Figure 0004451892
(Ii) The vertex angle ψ corresponding to r calculated by the equation (3) is obtained by the following equation.

Figure 0004451892
ここで、
Figure 0004451892
here,

Figure 0004451892
であり、ψmaxはドーナッツ映像上の半径rmaxの位置及び仰角φminに対応する頂角ψの値である。ψmaxの値は、(1)式にφminを代入することにより求めることができる。
Figure 0004451892
Ψ max is the value of the apex angle ψ corresponding to the position of the radius r max and the elevation angle φ min on the donut image. The value of ψ max can be obtained by substituting φ min into equation (1).

(iii) (4)式により算出されたψに対応する仰角φを、(1)式により求める。 (Iii) The elevation angle φ corresponding to ψ calculated by equation (4) is obtained by equation (1).

以上の手順により、双曲面ミラーにより撮影されたドーナッツ映像における任意の点(u,v)を、パノラマ映像における点(θ,φ)に座標変換することができる。すなわち、ドーナッツ映像がパノラマ映像に変形される。   Through the above procedure, an arbitrary point (u, v) in the donut image captured by the hyperboloid mirror can be coordinate-converted to a point (θ, φ) in the panoramic image. That is, the donut video is transformed into a panoramic video.

図11は、変形部33で使用される座標変換テーブルを説明する図である。撮影からパノラマ映像の記録を一時に行う場合、上記の変形処理に要する計算時間が問題となるため、図11のように、上記の手順に基づいた座標変換テーブルを予め作成しておくと好適である。図11の座標変換テーブルにおいては、各点(θ,φ)に対応するドーナッツ映像の座標(u, v)を格納しておく。   FIG. 11 is a diagram for explaining a coordinate conversion table used in the deforming unit 33. When panoramic video is recorded from shooting at a time, the calculation time required for the deformation process becomes a problem. Therefore, it is preferable to create a coordinate conversion table based on the above procedure as shown in FIG. is there. In the coordinate conversion table of FIG. 11, the coordinates (u, v) of the donut image corresponding to each point (θ, φ) are stored.

以上の変形処理は、前記サーバ300内の前記CPU 301により実行される。このとき、前記HDD 303には該変形処理を施すための所定のプログラムを予め格納しておく。   The above deformation process is executed by the CPU 301 in the server 300. At this time, the HDD 303 stores in advance a predetermined program for performing the deformation process.

エンコード部
図8のエンコード部34は、図8の前記第2撮像部32により取得された部分映像データの少なくとも一つと、前記変形部33により出力されたパノラマ映像データを、映像記録に適した形式にエンコードする。ここで、映像記録に適した形式は様々挙げられるが、MPEGに代表される動画符号化フォーマットなどの形式を使用する。エンコード部34は、映像データの取得が継続している限り常に映像をエンコードし続け、エンコードされたデータを連続して記録部35に送信する。
Encoding Unit The encoding unit 34 in FIG. 8 is a format suitable for video recording, with at least one of the partial video data acquired by the second imaging unit 32 in FIG. 8 and the panoramic video data output by the deformation unit 33. Encode to Here, there are various formats suitable for video recording, but a format such as a moving image encoding format represented by MPEG is used. The encoding unit 34 always encodes the video as long as the acquisition of the video data continues, and continuously transmits the encoded data to the recording unit 35.

以上のエンコード処理は、前記サーバ300内の前記CPU 301により実行される。このとき、前記HDD 303にMPEGエンコードプログラムを予めインストールしておく。   The above encoding process is executed by the CPU 301 in the server 300. At this time, an MPEG encoding program is installed in the HDD 303 in advance.

記録部
記録部35は、前記エンコード部34によりエンコードされた少なくとも1つの部分映像データ及び前記第1撮像部31により取得された広角の映像データを記録する。
Recording Unit The recording unit 35 records at least one partial video data encoded by the encoding unit 34 and wide-angle video data acquired by the first imaging unit 31.

記録部35は、HDD 303によりその機能を実現することができる。なお、使用の態様によっては、大容量記録装置308によりその機能を実現してもよい。例えば、長時間の会議や、定例会議については、保存の必要性からDVD+RW等により構成される大容量記録装置308に記録し、短時間の会議など、長期の保存の必要性が低いものに関してはHDD 303に記録するなどの使い分けを行ってもよい。   The recording unit 35 can realize its function by the HDD 303. Note that the function may be realized by the large-capacity recording device 308 depending on the mode of use. For example, a long-time meeting or a regular meeting is recorded on a large-capacity recording device 308 composed of a DVD + RW or the like because of the necessity for storage, and a short-term meeting or the like that has a low necessity for long-term storage. Different usage such as recording in the HDD 303 may be performed.

実施の形態2
また、一方向に曲率をもった曲面ミラーを、広角カメラ200に使用することもできる。
Embodiment 2
A curved mirror having a curvature in one direction can also be used for the wide-angle camera 200.

構成
実施の形態2の構成は、上述の実施の形態1と同様に、図4に示されている。
Configuration The configuration of the second embodiment is shown in FIG. 4 as in the first embodiment.

以下、本実施の形態における広角カメラ200の構成について説明する。なお、サーバ300及びカメラアレイ400の構成も、実施の形態1で説明した通りであるので、説明を省略する。   Hereinafter, the configuration of the wide-angle camera 200 in the present embodiment will be described. Note that the configurations of the server 300 and the camera array 400 are also the same as those described in the first embodiment, and a description thereof will be omitted.

広角カメラ
図12は、本実施の形態における広角カメラ200の構成を示した図である。図12に示すように、広角カメラ200は、通常の画角を有するカメラ219と一方向に曲率をもったミラー211とにより構成されており、全方位を撮影することはできないが広い範囲のシーンを撮影することができる。図13は、該ミラー211を使用したときのカメラ219に映される広角画像の様子を示した図であり、カメラ219の背後のシーンを撮影することができる。図13に示したように、取り込まれる画像は、入射光の水平方向の角度と、撮影される画像の位置の横方向の座標が比例した状態で、横方向に圧縮された形状となっている。また、カメラ219自身の画像への写り込みを低減するように改良することも可能である。
Wide Angle Camera FIG. 12 is a diagram showing a configuration of a wide angle camera 200 in the present embodiment. As shown in FIG. 12, the wide-angle camera 200 includes a camera 219 having a normal angle of view and a mirror 211 having a curvature in one direction. Can be taken. FIG. 13 is a diagram showing a state of a wide-angle image projected on the camera 219 when the mirror 211 is used, and a scene behind the camera 219 can be taken. As shown in FIG. 13, the captured image has a shape compressed in the horizontal direction in a state where the horizontal angle of the incident light is proportional to the horizontal coordinate of the position of the image to be captured. . It is also possible to improve the camera 219 so as to reduce the reflection in the image.

上記のように、通常のカメラとミラーの組み合わせにより、安価かつ簡素な構成で広角の映像を撮影することができる。   As described above, wide-angle images can be taken with an inexpensive and simple configuration by combining a normal camera and a mirror.

動作
本実施の形態における機能別のブロック図は、上述の実施の形態1と同様に、図9に示されている。以下において、図9に示された各部の動作を具体的に説明する。なお、第1撮像部31、第2撮像部32、及び記録部35の動作は、上述の実施の形態1と同様であるので、説明を省略する。
Operation The block diagram for each function in the present embodiment is shown in FIG. 9 as in the first embodiment. Hereinafter, the operation of each unit shown in FIG. 9 will be described in detail. Note that the operations of the first imaging unit 31, the second imaging unit 32, and the recording unit 35 are the same as those in the first embodiment described above, and a description thereof will be omitted.

変形部
本発明の実施の形態2においては、広角カメラ200により取得された映像データを、横方向に一様に引き伸ばすだけでパノラマ映像を得ることが可能である。双曲面ミラーを使用した場合と同様に、図11のような座標変換テーブルを作成し、パノラマ映像の各点に対応する変形前の映像の座標(u, v)を格納するようにすればよい。
Deformation Section In Embodiment 2 of the present invention, it is possible to obtain a panoramic image by simply stretching the video data acquired by the wide-angle camera 200 in the horizontal direction. Similar to the case of using a hyperboloidal mirror, a coordinate conversion table as shown in FIG. 11 may be created to store the coordinates (u, v) of the untransformed image corresponding to each point of the panoramic image. .

また、この広角カメラ200を使用した場合、映像記録システム100に変形部33を設けなくとも、映像を表示するクライアント側でパノラマ映像を生成・表示することが可能である。今、横 (水平)方向の撮影範囲が180度、縦 (鉛直)方向の撮影範囲が60度であり、サイズが352×240画素の映像が、該広角カメラ200により取得されているとする。この場合、横方向の長さを3倍、すなわち1056画素に引き伸ばすことによりパノラマ映像を得ることができる。また、サーバ300のマシン名を"vidserv"、映像記録システムから配信される広角の映像データ名を"movie.rm" (後述するRealVideoというデータ形式)、及び映像表示端末とサーバ300との通信に使用されるプロトコルをRTSP (Real Time Streaming Protocol)とする。このとき、該引き伸ばし処理を実行する処理は、図14に示すように、W3C (World Wide Web Consortium)によって勧告されたSMIL (Synchronized Multimedia Integrated Language)を用いて記述することができる。図14に示すように、<region>タグにおいて指定された表示領域の大きさと、関連付けられる映像データ"movie.rm"の画像サイズが異なる場合、fit属性を"fill"と指定することにより、表示領域のサイズに合わせて、映像データが拡大縮小表示される。すなわち、fit属性値を上記のように指定した状態で、映像データに対して所望の拡大率を有する表示領域を指定することにより、パノラマ映像を表示することができる。以上の変形処理は、クライアントが持つ映像表示端末において、映像の表示と同時に実行される。これにより、映像記録時にサーバ300が変形処理を実行する必要がないので、小さい処理コストで広角の映像データを記録することが可能となる。   When this wide-angle camera 200 is used, it is possible to generate and display a panoramic video on the client side that displays the video without providing the deformation unit 33 in the video recording system 100. Now, it is assumed that an image having a horizontal (horizontal) shooting range of 180 degrees, a vertical (vertical) shooting range of 60 degrees, and a size of 352 × 240 pixels is acquired by the wide-angle camera 200. In this case, a panoramic image can be obtained by extending the horizontal length to three times, that is, 1056 pixels. Also, the machine name of the server 300 is “vidserv”, the wide-angle video data name distributed from the video recording system is “movie.rm” (a data format called RealVideo, which will be described later), and communication between the video display terminal and the server 300. The protocol used is RTSP (Real Time Streaming Protocol). At this time, the process for executing the enlargement process can be described using SMIL (Synchronized Multimedia Integrated Language) recommended by W3C (World Wide Web Consortium) as shown in FIG. As shown in FIG. 14, when the size of the display area specified in the <region> tag is different from the image size of the associated video data “movie.rm”, the display is performed by specifying the “fit” attribute as “fill”. Video data is enlarged and reduced in accordance with the size of the area. That is, a panoramic video can be displayed by designating a display area having a desired enlargement ratio for video data in a state where the fit attribute value is designated as described above. The above deformation process is executed simultaneously with the video display in the video display terminal of the client. Accordingly, since it is not necessary for the server 300 to execute the deformation process at the time of video recording, it is possible to record wide-angle video data at a low processing cost.

エンコード部
エンコード部34の動作は、上述の実施の形態1と同様であり、前記第2撮像部32により取得された部分映像データの少なくとも一つ及び前記変形部33により出力されたパノラマ映像データを、それぞれ映像記録に適した形式にエンコードする。
Encoding Unit The operation of the encoding unit 34 is the same as that of the first embodiment described above. At least one of the partial video data acquired by the second imaging unit 32 and the panoramic video data output by the deforming unit 33 are processed. , Encode each into a format suitable for video recording.

なお、変形部33が存在しない場合、エンコード部34は、前記変形部33により変形された広角の映像データの代わりに、前記第1撮像部31により取得された広角の映像データをエンコードする。   If the deforming unit 33 is not present, the encoding unit 34 encodes the wide-angle video data acquired by the first imaging unit 31 instead of the wide-angle video data deformed by the deforming unit 33.

実施の形態3
本発明の実施の形態3は、前記広角カメラ200により取得された広角の映像データと、前記カメラアレイ400により取得された各々の部分映像データとの対応関係を特定する映像記録システムに関するものである。ここでいう「対応関係」の例として、以下のものが挙げられる。
広角カメラ200とカメラアレイ400を構成する各々のカメラ401との位置関係
広角の映像データと各々の部分映像データとの位置関係
上記の対応関係が不明である場合、映像を再生する時に、部分映像の切り替えを要求しても、所望の部分映像データが表示される保証はない。この問題を解消するために、映像選択ボタン603の左向き矢印ボタンを順に押すと、再生される部分映像データが半時計回りに切り替わるように、カメラアレイ400を設置するなどの対策が考えられる。しかし、部分映像の切り替え順序と、カメラの配置順序を対応させなくてはならないため、映像記録システム100の設置作業が面倒になるという問題点がある。
Embodiment 3
The third embodiment of the present invention relates to a video recording system that identifies the correspondence between wide-angle video data acquired by the wide-angle camera 200 and each partial video data acquired by the camera array 400. . Examples of the “correspondence” here include the following.
Positional relationship between the wide-angle camera 200 and each camera 401 constituting the camera array 400 Positional relationship between the wide-angle video data and each partial video data When the above correspondence is unknown, when the video is reproduced, the partial video Even if switching is requested, there is no guarantee that the desired partial video data will be displayed. In order to solve this problem, measures such as installing the camera array 400 may be considered so that the partial video data to be reproduced is switched counterclockwise when the left arrow button of the video selection button 603 is pressed in order. However, there is a problem that the installation work of the video recording system 100 becomes troublesome because the switching order of the partial videos must correspond to the arrangement order of the cameras.

図15は、クライアントが持つ映像表示端末において、上記の対応関係を利用した表示画面の一例を示す図である。図において、広角の映像602の下側にバー604が設置され、現在表示されている部分映像601に対応する撮影範囲が、黒色のバー605で示されている。また、現在表示されている部分映像601以外の部分映像の撮影範囲が、それぞれ灰色のバー606で示されている。ここで、クライアントは、マウス (図示せず)を操作することによりカーソル607を動かし、所定の部分映像を示す灰色のバー606の上をクリックすると、サーバ300に対して配信要求する部分映像の選択情報が送信され、サーバ300を介して送られるカメラアレイ400からの部分映像601が、該当する部分映像に切り替えられる。このように、上記の対応関係が特定されることにより、映像記録システム100の設置作業が楽になる。また、クライアントは一層容易に所望の映像を選択することができると共に、配信された映像から、撮影対象となるシーンをより深く理解することができる。   FIG. 15 is a diagram showing an example of a display screen using the above correspondence in the video display terminal held by the client. In the figure, a bar 604 is installed on the lower side of the wide-angle image 602, and the shooting range corresponding to the currently displayed partial image 601 is indicated by a black bar 605. Further, the shooting ranges of partial videos other than the currently displayed partial video 601 are indicated by gray bars 606, respectively. Here, when the client moves the cursor 607 by operating a mouse (not shown) and clicks on the gray bar 606 showing a predetermined partial video, the client selects a partial video to be requested for distribution to the server 300. Information is transmitted and the partial video 601 from the camera array 400 sent via the server 300 is switched to the corresponding partial video. As described above, the above-described correspondence is specified, so that the installation work of the video recording system 100 is facilitated. In addition, the client can select a desired video more easily, and can further understand the scene to be photographed from the distributed video.

本発明の実施の形態3は、このような動作を実現するための映像記録システムに関するものである。   Embodiment 3 of the present invention relates to a video recording system for realizing such an operation.

構成
前述の実施の形態1と同様に、本発明の実施の形態3の構成は、図2乃至図7に示されている。
Configuration Similar to the first embodiment, the configuration of the third embodiment of the present invention is shown in FIGS.

動作
図16は、本発明の実施の形態3に係る映像記録システムを、機能別のブロックで示した図であり、図8に示された前述の実施の形態1のブロック図に更に加えて、特定部36を追加したものである。以下において、図18に示された各部の動作を具体的に説明する。なお、第1撮像部31、第2撮像部32、変形部33、及びエンコード部34の動作は、前述の実施の形態1と同様であるので、説明を省略する。
Operation FIG. 16 is a diagram showing the video recording system according to the third embodiment of the present invention in functional blocks. In addition to the block diagram of the first embodiment shown in FIG. The specific part 36 is added. Hereinafter, the operation of each unit shown in FIG. 18 will be described in detail. Note that the operations of the first imaging unit 31, the second imaging unit 32, the deformation unit 33, and the encoding unit 34 are the same as those in the first embodiment, and a description thereof will be omitted.

特定部
特定部36は、前記広角カメラ200により取得された広角の映像データと、前記カメラアレイ400により取得された各々の部分映像データとの対応関係を特定する動作を行う。この動作を、以下に説明する。
カメラアレイ400を構成する各カメラ401に付された識別子を利用する方法
図17は、特定部36の別の動作例を示す図である。図17(a)に示すように、カメラアレイ400を構成する各カメラ401に識別子403を付し、該カメラ401を前記広角カメラ200で捕捉できる位置にそれぞれ配置する。この状態で、前記広角カメラ200により取得される映像データは、図17(b)のようになる。この映像データにおいて、前記識別子403が映されている画像座標を検出することにより、広角カメラ200と各々のカメラ401との位置関係を特定することができる。ここで、前記識別子403には、
算用数字を付したシール、
バーコード、
カラーコード、
2次元バーコード、
などを使用することが可能であり、これらの識別子を映像データから読み取る動作は、パターン認識の分野で既に周知技術となっている。
広角カメラ200及びカメラアレイ400により取得された映像データを利用する方法
図18は、特定部36の別の動作例を示す図である。本動作例においては、広角の映像データと各々の部分映像データとの類似度が高い部分を検出する。
Identification Unit The identification unit 36 performs an operation of identifying the correspondence between the wide-angle video data acquired by the wide-angle camera 200 and each partial video data acquired by the camera array 400. This operation will be described below.
Method of Using Identifiers Attached to Each Camera 401 Constructing Camera Array 400 FIG. 17 is a diagram illustrating another operation example of the specifying unit 36. As shown in FIG. 17A, an identifier 403 is assigned to each camera 401 constituting the camera array 400, and the camera 401 is disposed at a position where it can be captured by the wide-angle camera 200. In this state, the video data acquired by the wide-angle camera 200 is as shown in FIG. In this video data, the positional relationship between the wide-angle camera 200 and each camera 401 can be specified by detecting the image coordinates where the identifier 403 is reflected. Here, the identifier 403 includes
Stickers with mathematical numbers,
barcode,
Color code,
2D barcode,
The operation of reading these identifiers from video data is already well known in the field of pattern recognition.
Method of Using Video Data Acquired by Wide Angle Camera 200 and Camera Array 400 FIG. 18 is a diagram illustrating another example of the operation of the specifying unit 36. In this operation example, a portion having a high degree of similarity between wide-angle video data and each partial video data is detected.

ここで、前記類似度の高い部分を検出する手段として、テンプレートマッチングを利用した場合の動作を説明する。まず、図18(a)のように、カメラアレイ400により取得される各々の部分映像より、( 2DX + 1 )×( 2DY + 1 )の大きさのテンプレート608を生成する。次に、図18(b)のように、該テンプレート608を広角の映像602上で移動させ、テンプレート608と広角の映像602における点(m,n)との正規化相互相関値Sを、次式に基づき計算する。   Here, an operation when template matching is used as means for detecting a portion having a high degree of similarity will be described. First, as shown in FIG. 18A, a template 608 having a size of (2DX + 1) × (2DY + 1) is generated from each partial image acquired by the camera array 400. Next, as shown in FIG. 18B, the template 608 is moved on the wide-angle image 602, and the normalized cross-correlation value S between the template 608 and the point (m, n) in the wide-angle image 602 is Calculate based on the formula.

Figure 0004451892
ここで、(6)式における各記号の意味は以下の通りである。
(x, y):テンプレート上の点(x, y)における濃度
(x, y):広角の映像上の点(x, y)における濃度
以上の計算に基づき、正規化相互相関値Sが最大となる広角の映像602における点(m,n)を求め、該点の位置に対応するカメラ401を特定すればよい。以上の動作を、全ての部分映像に対して実行することにより、広角カメラ200と各々のカメラ401との位置関係を特定することができる。
Figure 0004451892
Here, the meaning of each symbol in the equation (6) is as follows.
I 1 (x, y): density at point (x, y) on template I 2 (x, y): density at point (x, y) on wide-angle image Normalized cross-correlation based on the above calculation A point (m, n) in the wide-angle video 602 with the maximum value S may be obtained, and the camera 401 corresponding to the position of the point may be specified. The positional relationship between the wide-angle camera 200 and each camera 401 can be specified by executing the above operation on all partial videos.

なお、濃度の相互相関に基づいて、映像の類似度を求めると述べたが、これはあくまでも一例である。映像の色空間や輪郭など、別の特徴に基づいて映像の類似度を求めても構わない。
手動で特定する方法
図19は、本実施の形態3におけるサーバ300の表示画面を示す図である。この表示画面は、映像記録システム100を起動し、映像の記録を開始する直前に出現する。その後ユーザは、まず映像選択ボタン603を操作することにより、表示される部分映像601を切り替える。すると、現在表示されている部分映像601と広角の映像602との位置関係を手動入力するよう促すメッセージ609が、該表示画面において提示される。この時ユーザは、マウス(図示せず)を操作してカーソル607を動かし、広角の映像602の上の所定の点をクリックすることにより、該位置関係を手動入力する。手動入力が完了すると、広角の映像602において、その部分映像601に対応する位置に十字形状のポインタ610が付される。以上の動作を、全ての部分映像に対して実行することにより、広角の映像602と各々の部分映像301との位置関係を特定することができる。
Although it has been described that the similarity of images is obtained based on the cross-correlation of density, this is merely an example. You may obtain | require the similarity of an image | video based on another characteristic, such as a color space and an outline of an image.
Manual Identification Method FIG. 19 is a diagram showing a display screen of the server 300 according to the third embodiment. This display screen appears immediately before the video recording system 100 is started and video recording is started. Thereafter, the user first switches the displayed partial video 601 by operating the video selection button 603. Then, a message 609 that prompts the user to manually input the positional relationship between the currently displayed partial video 601 and the wide-angle video 602 is presented on the display screen. At this time, the user manually inputs the positional relationship by operating a mouse (not shown) to move the cursor 607 and clicking a predetermined point on the wide-angle image 602. When manual input is completed, a cross-shaped pointer 610 is attached to a position corresponding to the partial image 601 in the wide-angle image 602. The positional relationship between the wide-angle video 602 and each partial video 301 can be specified by executing the above operation on all the partial videos.

この方法は、映像記録の開始から終了に至るまで、広角カメラ200及びカメラアレイ400の配置位置が不変である場合に、特に大きな効果を奏する。これに対して、上記(1)乃至(2)の方法は、途中でカメラ401の配置位置を変更しても有効である。   This method is particularly effective when the arrangement positions of the wide-angle camera 200 and the camera array 400 are unchanged from the start to the end of video recording. On the other hand, the methods (1) and (2) are effective even when the arrangement position of the camera 401 is changed in the middle.

以上の処理は、前記サーバ300内の前記CPU 301により実行される。このとき、前記HDD 303には該特定処理を施すための所定のプログラムを予め格納しておく。   The above processing is executed by the CPU 301 in the server 300. At this time, the HDD 303 stores in advance a predetermined program for performing the specific processing.

記録部
記録部35は、前記エンコード部34によりエンコードされた広角の映像データ及び少なくとも一つの部分映像データを記録する。このとき、映像データのみならず、前記特定部36が特定した対応関係を併せて記録すると、映像表示端末において、図17に示されている表示画面を提示することが可能となるので好適である。映像記録の動作については、前述の実施の形態1と同様である。
Recording unit The recording unit 35 records wide-angle video data encoded by the encoding unit 34 and at least one partial video data. At this time, it is preferable to record not only the video data but also the correspondence specified by the specifying unit 36 because the display screen shown in FIG. 17 can be presented on the video display terminal. . The video recording operation is the same as that in the first embodiment.

実施の形態4
本発明の実施の形態4は、前記カメラアレイ400により取得された各々の部分映像データを自動的に選択する映像記録システムに関するものである。
Embodiment 4
The fourth embodiment of the present invention relates to a video recording system that automatically selects each partial video data acquired by the camera array 400.

実施の形態1乃至実施の形態3は、後に映像を再生する際に、クライアントが配信を要求する部分映像を選択するためのものであった。しかし、部分映像を毎回手動で選択するのは面倒である。   In the first to third embodiments, the client selects a partial video for which distribution is requested when the video is played back later. However, it is troublesome to manually select a partial video each time.

図20は、クライアントが持つ映像表示端末において、表示される部分映像601が自動的に選択される表示画面を示す図である。図のように、「AUTO」と書かれたチェックボックス611をチェックすると、部分映像601を自動的に選択して配信するモードに切り替えられる。これに対し、サーバ300は、発言者などの重要なシーンが映された部分映像を自動的に選択して、広角の映像と共にクライアントに配信する。これにより、クライアントは面倒な操作無しに、配信された映像から、撮影対象となるシーンをより深く理解することができる。   FIG. 20 is a diagram showing a display screen on which a partial video 601 to be displayed is automatically selected on a video display terminal held by a client. As shown in the figure, when a check box 611 written “AUTO” is checked, the mode is switched to a mode in which the partial video 601 is automatically selected and distributed. On the other hand, the server 300 automatically selects a partial video in which an important scene such as a speaker is shown and distributes it to the client together with a wide-angle video. Accordingly, the client can understand the scene to be photographed more deeply from the distributed video without troublesome operations.

本実施の形態4は、このような動作を実現するための映像記録システムに関するものである。   The fourth embodiment relates to a video recording system for realizing such an operation.

構成
図21に本発明の実施の形態4に係る映像記録システムの構成を示す図である。サーバ300には広角カメラ200と、カメラアレイ400と、マイクアレイ500とが接続され、広角の映像データ及び複数の部分映像データ及び複数の音声データが取得・記録される。サーバ300により記録された映像データ及び音声データは、サーバ300において表示・再生される。また、該映像データ及び該音声データは、必要に応じてインターネットを介して配信され、該インターネットに接続されたクライアントPCにおいて表示・再生される。
Configuration FIG. 21 is a diagram showing a configuration of a video recording system according to Embodiment 4 of the present invention. A wide-angle camera 200, a camera array 400, and a microphone array 500 are connected to the server 300, and wide-angle video data, a plurality of partial video data, and a plurality of audio data are acquired and recorded. The video data and audio data recorded by the server 300 are displayed and reproduced on the server 300. Further, the video data and the audio data are distributed via the Internet as necessary, and are displayed and reproduced on a client PC connected to the Internet.

次に、上記各部の構成について説明する。なお、広角カメラ200、カメラアレイ400、及びサーバ300の構成は、実施の形態1と同様であるので、説明を省略する。   Next, the configuration of each part will be described. Note that the configurations of the wide-angle camera 200, the camera array 400, and the server 300 are the same as those in the first embodiment, and a description thereof will be omitted.

マイクアレイ
マイクアレイ500は、少なくとも2つのマイクロフォン501−1、501−2より構成される。使用されるマイクロフォン501−1、501−2は、圧電型、容量型 (いわゆるコンデンサマイクロフォン)など様々な種類のものを使用することができる。各々のマイクロフォン501−1、501−2は、カメラ401と同様に、別々に離れて配置されたものであっても、各々のマイクロフォン501−1、501−2を共通の筐体に固定して配置したものであっても構わない。図22は、実施の形態4における広角カメラ200及びマイクアレイ500の構成を説明する図であり、このように、広角カメラ200とマイクアレイ500とを1つの筐体に一体化してもよい。図22示したように、広角カメラ200を構成するカメラ部201の撮像素子214と、マイクアレイ500を構成するマイクロフォン501−1、501−2とは、台座202に配置されている。
Microphone array The microphone array 500 includes at least two microphones 501-1 and 501-2. As the microphones 501-1 and 501-2 to be used, various types such as a piezoelectric type and a capacitive type (so-called condenser microphone) can be used. As with the camera 401, each microphone 501-1, 501-2 is fixed separately to each other even if the microphones 501-1, 501-2 are arranged separately. It may be arranged. FIG. 22 is a diagram illustrating the configuration of the wide-angle camera 200 and the microphone array 500 according to the fourth embodiment. As described above, the wide-angle camera 200 and the microphone array 500 may be integrated into one housing. As shown in FIG. 22, the image sensor 214 of the camera unit 201 constituting the wide-angle camera 200 and the microphones 501-1 and 501-2 constituting the microphone array 500 are arranged on the pedestal 202.

該マイクロフォン501−1、501−2において取得された音声信号は、マイクロフォン内部でデジタル化された後、サーバ300に送出される。カメラアレイ400と同様に、マイクアレイ500をサーバ300の外部I/F 307、具体的にはUSB2.0のような高速シリアルインターフェースを経由して接続することにより、部分映像と音声とを同期的に取得することが可能である。   Audio signals acquired by the microphones 501-1 and 501-2 are digitized inside the microphones and then sent to the server 300. Similar to the camera array 400, the microphone array 500 is connected via the external I / F 307 of the server 300, specifically via a high-speed serial interface such as USB 2.0, so that the partial video and audio are synchronized. It is possible to get to.

動作
図23は、本実施の形態4に係る映像記録システムの、機能別のブロックを示す図である。図16に示された実施の形態3のブロック図に加えて、音声取得部37、音源検出部38、及び映像選択部39を追加したものである。以下において、図23に示された各部の動作を具体的に説明する。なお、第1撮像部31、第2撮像部32、変形部33、及び特定部36の動作は、前述の実施の形態と同様であるので、説明を省略する。
Operation FIG. 23 is a diagram illustrating functional blocks of the video recording system according to the fourth embodiment. In addition to the block diagram of the third embodiment shown in FIG. 16, an audio acquisition unit 37, a sound source detection unit 38, and a video selection unit 39 are added. Hereinafter, the operation of each unit shown in FIG. 23 will be described in detail. The operations of the first imaging unit 31, the second imaging unit 32, the deforming unit 33, and the specifying unit 36 are the same as those in the above-described embodiment, and thus the description thereof is omitted.

音声取得部
音声取得部37の構成・動作は、前述の4.1.1に記載されたカメラアレイ400により取得され、デジタル化された音声データを出力するものである。
Audio Acquisition Unit The configuration and operation of the audio acquisition unit 37 is to output digital audio data acquired by the camera array 400 described in 4.1.1 above.

音源検出部
音源検出部38は、前記音声取得部37により取得された音声データに基づき、発言者のいる位置又は方向を検出するものである。その動作例を、以下において説明する。
マイクアレイ500に入力される音声の到達時間差による方法
本方法は、複数のマイクロフォン501が、ある筐体の既知の位置に固定された場合に有効である。図24は、本発明の実施の形態4の音源検出部38の動作原理を説明するための図である。図24に示すように、2つのマイクロフォン501−1、501−2(それぞれマイク1、マイク2と便宜的に称することとする)が間隔lだけ離れて並んでおり、音声がθ方向から入射する場合、マイク1が出力する音声データs(t)と、マイク1が出力する音声データs(t)との関係は、
Sound source detection unit The sound source detection unit 38 detects the position or direction of the speaker based on the audio data acquired by the audio acquisition unit 37. An example of the operation will be described below.
Method by Difference in Arrival Time of Sound Input to Microphone Array 500 This method is effective when a plurality of microphones 501 are fixed at known positions in a certain housing. FIG. 24 is a diagram for explaining the operating principle of the sound source detection unit 38 according to the fourth embodiment of the present invention. As shown in FIG. 24, two microphones 501-1 and 501-2 (referred to as microphone 1 and microphone 2 for convenience) are arranged at a distance l, and sound enters from the θ direction. case, the relationship between the speech data s 1 the microphone 1 outputs (t), the voice data s 1 the microphone 1 outputs (t), the

Figure 0004451892
v:音速
となり、マイク1の音声データがマイク2の音声データに対して
Figure 0004451892
v: The sound speed is set, and the sound data of the microphone 1 is compared to the sound data of the microphone 2.

Figure 0004451892
だけ時間が進んでいることとなる。この原理を利用して、話者の音声の方向を特定する手順を説明する。
Figure 0004451892
Only time will be advanced. A procedure for specifying the direction of the speaker's voice using this principle will be described.

まず、マイク1とマイク2の音声データの到達時間差を検出する。この到達時間差は、例えばマイク1の音声データs(t)とマイク2の音声データs(t+dt)との相互相関値により計算される。ここで、相互相関値C (t, dt)は、次式により算出される。 First, the arrival time difference between the audio data of the microphone 1 and the microphone 2 is detected. This arrival time difference is calculated by, for example, a cross-correlation value between the voice data s 1 (t) of the microphone 1 and the voice data s 2 (t + dt) of the microphone 2. Here, the cross-correlation value C (t, dt) is calculated by the following equation.

Figure 0004451892
ここで、Nは相関窓の大きさを示す正の整数であり、(8)式は時刻t以前のN個のサンプルを用いて積和演算が行われることを示す。このとき、C (t, dt)を最大化するdtが到達時間差となる。
Figure 0004451892
Here, N is a positive integer indicating the size of the correlation window, and Equation (8) indicates that the product-sum operation is performed using N samples before time t. At this time, dt that maximizes C (t, dt) is the arrival time difference.

次に、マイクの間隔l、到達時間差dt及び音速vを用いて、音声とマイクロフォンの基線とがなす角θを計算する。   Next, the angle θ formed by the voice and the base line of the microphone is calculated using the microphone interval l, the arrival time difference dt, and the sound velocity v.

Figure 0004451892
ここで、θの値域は0°以上180°以下とする。
Figure 0004451892
Here, the range of θ is 0 ° or more and 180 ° or less.

なお、以上の手順のみでは、マイクロフォン501−1、501−2の前側の180°の範囲しか方向が検出されず、音源方向が特定されない。すなわち、音源検出部38が出力する角度θは、実際には音声の到達方向と2つのマイク間の基線とがなす角度であり、実際の音声の方向は図25に示すように、2つのマイクの中点を頂点とする頂角θの円錐の側面上のいずれかに存在している。   Note that the direction is detected only in the range of 180 ° in front of the microphones 501-1 and 501-2 only by the above procedure, and the sound source direction is not specified. That is, the angle θ output from the sound source detection unit 38 is actually an angle formed by the direction of voice arrival and the base line between the two microphones, and the actual direction of the voice is two microphones as shown in FIG. It exists anywhere on the side of the cone of apex angle θ with the midpoint as the apex.

この問題を解消するために、マイク1とマイク2より構成される組と平行でない別のマイクロフォンの組を用いて補正を行う。図26は、4つのマイクロフォン501−1、501−2、501−3、501−4を2組に分けて音源方向を検出する場合の組分けの様子を示した説明図である。図26示したように、組分けは、あるマイクロフォン501−1と501−3(例えばマイク1(マイク3))と、そのマイクロフォンと最も距離の離れたマイクロフォン501−2と501−4(マイク2(マイク4))とを組み合わせる。   In order to solve this problem, correction is performed using another microphone pair that is not parallel to the pair composed of the microphone 1 and the microphone 2. FIG. 26 is an explanatory diagram showing how the four microphones 501-1, 501-2, 501-3, and 501-4 are divided into two groups and the sound source direction is detected. As shown in FIG. 26, the grouping is performed according to the microphones 501-1 and 501-3 (for example, the microphone 1 (microphone 3)) and the microphones 501-2 and 501-4 (the microphone 2) that are the farthest from the microphone. (Mic 4)).

最も距離の離れた2つのマイクの組を用いることで、音声の到達時間差が最大となり、方向検知の精度が向上する。なお、ここでは、マイクアレイ500には4つのマイクロフォン501−1、501−2、501−3、501−4が備わっているが、3つのマイクロフォンによっても、音源方向を精度良く検出できる。図27は、3つのマイクロフォン501−1、501−2、501−3によってマイクアレイ500が構成される場合のマイクロフォンの組の採り方を説明する説明図である。図27に示したように、マイクロフォンを正三角形に配置することにより、どのマイクの組を採用しても、精度良く音源方向を検出することができるようになる。なお、図27に示した例では、第1の組と第2の組を採用して全方向の音源を検出できるが、補完的に第3の組を使用してもよい。
指向性マイクアレイによる方法
また、限られた範囲の音声のみを入力可能な指向性マイクロフォンを利用することにより、発言者の方向を検出することも可能である。図28は、本実施の形態4におけるマイクアレイ500と音源方向との関係を説明する説明図である。このマイクアレイ500は、指向性を有するマイクロフォン501を4つ有し、その音声の強度に基づいて音源方向を決定する。便宜的に4つのマイクロフォン501−1、501−2、501−3、501−4をマイク1〜4とする。
By using a pair of two microphones that are the farthest away, the difference in arrival time of the voice is maximized, and the accuracy of direction detection is improved. Here, the microphone array 500 includes four microphones 501-1, 501-2, 501-3, and 501-4. However, the direction of the sound source can be detected with high precision using three microphones. FIG. 27 is an explanatory diagram for explaining how to use a set of microphones when the microphone array 500 is configured by three microphones 501-1, 501-2, and 501-3. As shown in FIG. 27, by arranging the microphones in an equilateral triangle, the direction of the sound source can be detected with high accuracy regardless of which microphone set is employed. In the example shown in FIG. 27, the first set and the second set can be adopted to detect sound sources in all directions, but the third set may be used complementarily.
Method Using Directional Microphone Array It is also possible to detect the direction of the speaker by using a directional microphone that can input only a limited range of speech. FIG. 28 is an explanatory diagram for explaining the relationship between the microphone array 500 and the sound source direction in the fourth embodiment. The microphone array 500 includes four microphones 501 having directivity, and determines the sound source direction based on the sound intensity. For convenience, the four microphones 501-1, 501-2, 501-3, and 501-4 are referred to as microphones 1-4.

今、音声強度がマイク1で20、マイク2で30、マイク3で20,マイク4で5という数値であったとする。この場合はマイク2の方向に音源があると判断する。マイク1とマイク3の強度を比較するといずれも同じ値20であるので、最終的に音源方向はマイク2の方向(図でθ=45°と示した方向)と決定する。   Assume that the voice intensity is 20 for the microphone 1, 30 for the microphone 2, 20 for the microphone 3, and 5 for the microphone 4. In this case, it is determined that there is a sound source in the direction of the microphone 2. Comparing the intensities of the microphone 1 and the microphone 3, since both values are the same 20, the sound source direction is finally determined to be the direction of the microphone 2 (direction indicated by θ = 45 ° in the figure).

図29において、実施の形態4における音源検出部38の動作の別の例を説明する図である。音声強度がマイク1で15、マイク2で30、マイク3で25、マイク4で5であったとする。この場合はマイク2の方向に音源があると初期判断する。マイク1とマイク3の強度を比較すると、マイク3の強度がマイク1より大きいので、音源方向をマイク2方向からマイク3方向に若干量移動させた方向(図でθ=30°と示した方向)と決定する。この方向の移動量は指向性マイクの特性にしたがって予め決定しておけばよい。   FIG. 29 is a diagram illustrating another example of the operation of the sound source detection unit 38 in the fourth embodiment. Assume that the voice intensity is 15 for microphone 1, 30 for microphone 2, 25 for microphone 3, and 5 for microphone 4. In this case, it is initially determined that there is a sound source in the direction of the microphone 2. Comparing the intensities of the microphone 1 and the microphone 3, since the intensity of the microphone 3 is greater than the microphone 1, the direction of the sound source is slightly moved from the direction of the microphone 2 to the direction of the microphone 3 (the direction indicated as θ = 30 ° in the figure). ). The amount of movement in this direction may be determined in advance according to the characteristics of the directional microphone.

以上で説明した音源検出部38の機能は、サーバ300におけるCPU 301により実行される。このとき、前記HDD 303には該機能を実現するための所定のプログラムが予め格納されている。   The function of the sound source detection unit 38 described above is executed by the CPU 301 in the server 300. At this time, the HDD 303 stores a predetermined program for realizing the function in advance.

映像選択部
映像選択部39は、前記特定部36により特定された対応関係と、前記音源検出部38により検出された発言者の位置又は方向とを用いて、記録すべき部分映像を自動的に選択するものである。
Video Selection Unit The video selection unit 39 automatically selects a partial video to be recorded using the correspondence specified by the specifying unit 36 and the position or direction of the speaker detected by the sound source detection unit 38. To choose.

図30は、実施の形態4における映像選択部39の動作の一例を示す図であり、A〜Fの6人の参加者2がテーブル1を囲んで会議を開いている様子を上から眺めたものである。テーブル1の上には、広角カメラ200及びマイクアレイ500が設置されており、また参加者毎にカメラ401(図示せず)が1台設置されている。今、音源検出部38が検出した音源の方向が、図における矢印381のようであったとする。このとき、映像選択部39は、該音源の方向と、前記特定部36により特定された広角カメラ200と各カメラ401との対応関係に基づき、該音源の方向に対し最も近くに配置されたカメラ401を選択する。すなわち、図においては、参加者Eを撮影しているカメラ401を選択する。   FIG. 30 is a diagram illustrating an example of the operation of the video selection unit 39 according to the fourth embodiment, and it is seen from above that six participants 2 of A to F surround the table 1 and hold a conference. Is. On the table 1, a wide-angle camera 200 and a microphone array 500 are installed, and one camera 401 (not shown) is installed for each participant. Assume that the direction of the sound source detected by the sound source detection unit 38 is as indicated by an arrow 381 in the figure. At this time, the video selection unit 39 is a camera arranged closest to the direction of the sound source based on the direction of the sound source and the correspondence between the wide-angle camera 200 specified by the specifying unit 36 and each camera 401. 401 is selected. That is, in the figure, the camera 401 that is shooting the participant E is selected.

以上で説明した映像選択部39の機能は、サーバ300におけるCPU 301により実現させることができる。このとき、前記HDD 303には該機能を実現するための所定のプログラムを予め格納しておく。   The function of the video selection unit 39 described above can be realized by the CPU 301 in the server 300. At this time, the HDD 303 stores a predetermined program for realizing the function in advance.

エンコード部
エンコード部34の動作は、前記映像選択部39により選択された部分映像データ及び前記変形部33により出力されたパノラマ映像データを、それぞれ映像記録に適した形式にエンコードする。映像記録に適した形式は様々挙げられるが、例えば映像データに関しては、MPEGに代表される動画符号化フォーマットなどの形式でエンコードする。また、映像データのみならず音声データをもエンコードしても良く、音声データに関してはMPEGオーディオフォーマットなどの形式でエンコードする。
Encoding Unit The operation of the encoding unit 34 encodes the partial video data selected by the video selection unit 39 and the panoramic video data output by the transformation unit 33 into a format suitable for video recording. There are various formats suitable for video recording. For example, video data is encoded in a video encoding format typified by MPEG. Further, not only video data but also audio data may be encoded, and the audio data is encoded in a format such as MPEG audio format.

この他、MPEGプログラムストリームのように、映像データと音声データを1つのファイルに収めて記録してもよい。このファイル形式を用いることで、後段の記録部35において記録されるファイルの数が少なくなるので、記録されたファイルの管理を一層容易にすることができる。   In addition, video data and audio data may be stored in one file and recorded as an MPEG program stream. By using this file format, the number of files to be recorded in the recording unit 35 at the subsequent stage is reduced, so that management of the recorded files can be further facilitated.

エンコード部34は、映像データの取得が継続している限り常に映像をエンコードし続け、エンコードされたデータを連続して記録部35に送信する。   The encoding unit 34 always encodes the video as long as the acquisition of the video data continues, and continuously transmits the encoded data to the recording unit 35.

以上のエンコード処理は、前記サーバ300内の前記CPU 301により実行される。このとき、前記HDD 303にMPEGエンコードプログラムを予めインストールしておく。   The above encoding process is executed by the CPU 301 in the server 300. At this time, an MPEG encoding program is installed in the HDD 303 in advance.

記録部
記録部35は、前記エンコード部34によりエンコードされた少なくとも1つの部分映像データ及び前記第1撮像部31により取得された広角の映像データを記録する。このとき、映像データのみならず、前記特定部36が特定した対応関係及び前記映像選択部39が選択した部分映像データに関する情報を併せて記録すると好適である。
Recording Unit The recording unit 35 records at least one partial video data encoded by the encoding unit 34 and wide-angle video data acquired by the first imaging unit 31. At this time, it is preferable to record not only the video data but also the correspondence relationship specified by the specifying unit 36 and the information about the partial video data selected by the video selecting unit 39.

ここで、選択された部分映像データに関する情報を記録する動作例を説明する。図31は、部分映像データに関する情報の記録例を示した図である。図31には、選択された部分映像が変わった時刻 (Time)、新たなデータ名 (File)が記録されている。これらのデータは、テキストファイルなどの形式で、動画データや音声データと共にHDD 303に記録される。このように、選択された部分映像データが変わった時刻と、その時のデータ名とを随時記録しておくことによって、後に映像を再生する際に、適切な部分映像データの再生を行うことが可能となる。   Here, an example of an operation for recording information on the selected partial video data will be described. FIG. 31 is a diagram showing a recording example of information related to partial video data. In FIG. 31, the time (Time) when the selected partial video is changed and a new data name (File) are recorded. These data are recorded in the HDD 303 together with moving image data and audio data in the form of a text file or the like. In this way, by recording the time when the selected partial video data changed and the data name at that time as needed, it is possible to play back the appropriate partial video data when playing back the video later. It becomes.

なお、MPEG−7のようなマルチメディア情報の内容記述標準を用いて、上記の部分映像データに関する情報を記しても良い。   Note that the information on the partial video data may be described using a content description standard for multimedia information such as MPEG-7.

記録部35は、HDD 303によりその機能を実現することができる。なお、使用の態様によっては、大容量記録装置308によりその機能を実現してもよい。例えば、長時間の会議や、定例会議については、保存の必要性からDVD+RW等により構成される大容量記録装置308に記録し、短時間の会議など、長期の保存の必要性が低いものに関してはHDD 303に記録するなどの使い分けを行ってもよい。   The recording unit 35 can realize its function by the HDD 303. Note that the function may be realized by the large-capacity recording device 308 depending on the mode of use. For example, a long-time meeting or a regular meeting is recorded on a large-capacity recording device 308 composed of a DVD + RW or the like because of the necessity for storage, and a short-term meeting or the like that has a low necessity for long-term storage. Different usage such as recording in the HDD 303 may be performed.

実施の形態5
本発明の実施の形態5は、前述の実施の形態4と同様に、前記カメラアレイ400により取得された各々の部分映像データを自動的に選択する映像記録システムに関するものであり、カメラアレイ400を構成する各々のカメラ401と、マイクアレイ500を構成する各々のマイクロフォン501とを、1対1の対応関係となるよう構成したものである。ここでは「1対1の対応関係」を、「個々のカメラ401に対し、略一致する位置又は方角に配置されたマイクロフォン501が1つあること」と定義する。
Embodiment 5
The fifth embodiment of the present invention relates to a video recording system that automatically selects each partial video data acquired by the camera array 400, as in the fourth embodiment described above. Each configured camera 401 and each microphone 501 configuring the microphone array 500 are configured to have a one-to-one correspondence. Here, the “one-to-one correspondence” is defined as “there is one microphone 501 arranged at a position or a direction substantially matching each camera 401”.

構成
本実施の形態における映像記録システム100の構成は、前述の実施の形態4と同様に、図21に示されている。
Configuration The configuration of the video recording system 100 in the present embodiment is shown in FIG. 21 as in the fourth embodiment.

次に、上図の各部の構成について説明する。なお、広角カメラ200及びサーバ300の構成は、前述の実施の形態1と同様であるので、説明を省略する。   Next, the configuration of each part in the above diagram will be described. Note that the configurations of the wide-angle camera 200 and the server 300 are the same as those in the first embodiment, and a description thereof will be omitted.

カメラアレイ及びマイクアレイ
図32は、本発明の実施の形態5におけるカメラ401及びマイクロフォン501の外観を示す図である。図示したように、カメラ401とマイクロフォン501とは、共通の筐体502に一体化した構造となっている。また、マイクロフォン501は指向性を有し、限られた範囲の音声のみを入力可能である。この一体化されたカメラ401及びマイクロフォン501を、参加者につき1台設置する。
Camera Array and Microphone Array FIG. 32 is a diagram showing the appearance of the camera 401 and the microphone 501 according to the fifth embodiment of the present invention. As illustrated, the camera 401 and the microphone 501 have a structure integrated with a common housing 502. The microphone 501 has directivity and can input only a limited range of sound. One integrated camera 401 and microphone 501 is installed per participant.

動作
図33は、本実施の形態に係る映像記録システムを、機能別のブロック図に書き直した図であり、図23に示された実施の形態4のブロック図から音源検出部38を削除し、また特定部36から映像選択部39への接続を削除したものである。第1撮像部31、第2撮像部32、変形部33、エンコード部34、記録部35、特定部36、及び音声取得部37の動作は、前述の実施の形態4と同様である。
FIG. 33 is a diagram in which the video recording system according to the present embodiment is rewritten into a functional block diagram. The sound source detection unit 38 is deleted from the block diagram of the fourth embodiment shown in FIG. Further, the connection from the specifying unit 36 to the video selection unit 39 is deleted. The operations of the first imaging unit 31, the second imaging unit 32, the deforming unit 33, the encoding unit 34, the recording unit 35, the specifying unit 36, and the sound acquisition unit 37 are the same as those in the above-described fourth embodiment.

映像選択部
前述の一体化されたカメラ401及びマイクロフォン501を使用することにより、各々のカメラ401とマイクロフォン501との対応関係が既知である。したがって、映像選択部39は、最も大きな信号振幅が得られたマイクロフォン501に対応するカメラ401により取得された部分映像を選択すると良い。
Video Selection Unit By using the integrated camera 401 and microphone 501 described above, the correspondence between each camera 401 and microphone 501 is known. Therefore, the video selection unit 39 may select a partial video acquired by the camera 401 corresponding to the microphone 501 from which the largest signal amplitude is obtained.

実施の形態6
本実施の形態は、前記前述の実施の形態4乃至5と同様に、前記カメラアレイ400により取得された各々の部分映像データを自動的に選択する映像記録システムに関するものである。
Embodiment 6
This embodiment relates to a video recording system that automatically selects each partial video data acquired by the camera array 400, as in the above-described fourth to fifth embodiments.

構成
前述の実施の形態1乃至3と同様に、図2乃至図7に示される。
Configuration Similar to the first to third embodiments, the configuration is shown in FIGS.

動作
図34は、本実施の形態に係る映像記録システムを、機能別のブロック図に書き直した図であり、図16に示された実施の形態3のブロック図に加えて、映像選択部39及び動き検出部40を追加したものである。以下において、図34に示された各部の動作を具体的に説明する。なお、第1撮像部31、第2撮像部32、変形部33、エンコード部34、記録部35、及び特定部36の動作は、前述の実施の形態と同様であるので、説明を省略する。
FIG. 34 is a diagram in which the video recording system according to the present embodiment is rewritten into a functional block diagram. In addition to the block diagram of the third embodiment shown in FIG. A motion detection unit 40 is added. In the following, the operation of each unit shown in FIG. 34 will be specifically described. The operations of the first imaging unit 31, the second imaging unit 32, the deforming unit 33, the encoding unit 34, the recording unit 35, and the specifying unit 36 are the same as those in the above-described embodiment, and thus description thereof is omitted.

動き検出部
動き検出部40は、広角の映像データにおける被写体の動きを検出し、映像中の各部位における動きの特徴量を出力するものである。ここで、「動きの特徴量」とは、被写体の動きの大小を指すものとする。
Motion Detection Unit The motion detection unit 40 detects the motion of the subject in the wide-angle video data and outputs the feature quantity of the motion in each part in the video. Here, the “motion feature amount” refers to the magnitude of the movement of the subject.

動画における動きの検出は、前の時刻と現在の時刻のフレーム間の差分をとる方法、オプティカルフローによる方法などの周知技術により実現可能である。これらの技術により、広角の映像データにおいて、被写体が動いた位置及びその動きの大小を検出することができる。この動作によれば、本発明を遠隔監視システムとして使用する場合、動いている被写体を捉えたカメラからの部分映像が記録されるため、好適である。   Motion detection in a moving image can be realized by a known technique such as a method of obtaining a difference between frames of the previous time and the current time, a method using an optical flow, and the like. With these technologies, it is possible to detect the position of the subject and the magnitude of the movement in the wide-angle video data. According to this operation, when the present invention is used as a remote monitoring system, a partial video from a camera that captures a moving subject is recorded, which is preferable.

また、本実施の形態6に係る映像記録システムが、遠隔会議システムとして使用される場合、参加者の唇の動きを検出することにより、発言者の位置又は方向を自動的に検出すると好適である。唇の動きの検出は、例えば文献 (M.Kass, A.Witkin and D.Terzopoulos:"SNAKES: Active Contour Models", ICCV, pp.259−268 (1987) )等の周知技術により実現できる。また、実施の形態4乃至5のように、マイクロフォン501が使用できる場合には、音声データに基づく発話区間の抽出結果と併せて唇の動きを検出することにより、発言者の検出精度を向上させることもできる。例えば、当出願人により出力された特開平6−43897公報には、音声データから抽出された音声特徴と、映像データより抽出された顔面の動的視覚特徴とを用いて、会話を認識するシステムが開示されている。この動作により、音声データ中に発話以外の雑音が多く占められる場合でも、一層安定的に発言者の位置又は方向を検出することが可能となる。   Further, when the video recording system according to the sixth embodiment is used as a remote conference system, it is preferable to automatically detect the position or direction of the speaker by detecting the movement of the lips of the participant. . Detection of lip movement can be realized by well-known techniques such as literature (M. Kass, A. Witkin and D. Terzopoulos: “SNAKES: Active Control Models”, ICCV, pp. 259-268 (1987)). Further, when the microphone 501 can be used as in the fourth to fifth embodiments, the detection accuracy of the speaker is improved by detecting the movement of the lips together with the extraction result of the utterance section based on the voice data. You can also For example, Japanese Patent Laid-Open No. 6-43897 output by the present applicant discloses a system for recognizing a conversation by using audio features extracted from audio data and dynamic visual features of a face extracted from video data. Is disclosed. This operation makes it possible to detect the position or direction of the speaker more stably even when a lot of noise other than speech is occupied in the voice data.

以上で説明した動き検出部40の機能は、広角カメラ200の内部に実装してもよいし、またサーバ300におけるCPU 301により実現させても構わない。後者の場合、前記HDD 303には該機能を実現するための所定のプログラムを予め格納しておく。   The function of the motion detection unit 40 described above may be implemented inside the wide-angle camera 200 or may be realized by the CPU 301 in the server 300. In the latter case, the HDD 303 stores a predetermined program for realizing the function in advance.

映像選択部
本実施の形態6における映像選択部39は、前記特定部36により特定された対応関係と、前記動き検出部40により検出された被写体の動きの特徴量とを用いて、記録すべき部分映像を自動的に選択するものである。映像選択部39は、まず該被写体の動きの特徴量に基づき、広角の映像データにおいて最も大きな動きが検出された画像位置を特定する。次に、特定された画像位置と、前記特定部36により特定された広角カメラ200と各カメラ401との対応関係とに基づき、前述の実施の形態4において説明したのと同様の手順により、該位置に対し最も近くに配置されたカメラ401を選択する。これにより、最も大きな動きが検出された被写体を撮影した部分映像を自動的に選択することができる。
Video Selection Unit The video selection unit 39 according to the sixth embodiment should be recorded using the correspondence specified by the specifying unit 36 and the feature amount of the motion of the subject detected by the motion detection unit 40. The partial video is automatically selected. The video selection unit 39 first specifies the image position where the largest motion is detected in the wide-angle video data based on the feature quantity of the motion of the subject. Next, based on the identified image position and the correspondence relationship between the wide-angle camera 200 identified by the identifying unit 36 and each camera 401, the same procedure as described in the above-described fourth embodiment is performed. The camera 401 arranged closest to the position is selected. As a result, it is possible to automatically select a partial video obtained by photographing the subject in which the largest movement is detected.

以上で説明した映像選択部39の機能は、サーバ300におけるCPU 301により実行される。このとき、前記HDD 303には該機能を実現するための所定のプログラムを予め格納しておく。   The function of the video selection unit 39 described above is executed by the CPU 301 in the server 300. At this time, the HDD 303 stores a predetermined program for realizing the function in advance.

実施の形態7
また、前記上述の実施の形態6においては、広角の映像において被写体の動きを検出したが、前記カメラアレイ400により取得された各々の部分映像データにおいて、被写体の動きを検出してもよい。
7.1構成
本発明の実施の形態7の構成は、前述の実施の形態1乃至3と同様に、図2乃至図7に示される。
Embodiment 7
In the above-described sixth embodiment, the motion of the subject is detected in the wide-angle video, but the motion of the subject may be detected in each partial video data acquired by the camera array 400.
7.1 Configuration The configuration of the seventh embodiment of the present invention is shown in FIGS. 2 to 7 as in the first to third embodiments.

動作
図35は、本実施の形態に係る映像記録システムを、機能別のブロック図に書き直した図であり、図34に示された実施の形態6のブロック図において、変形部33の代わりに第2撮像部32が出力する映像データが動き検出部40に入力され、また特定部36から映像選択部39への接続を削除したものである。以下において、図35に示された各部の動作を具体的に説明する。なお、第1撮像部31、第2撮像部32、変形部33、エンコード部34、及び記録部35の動作は、前述の実施の形態と同様であるので、説明を省略する。
Operation FIG. 35 is a diagram in which the video recording system according to the present embodiment is rewritten into a functional block diagram. In the block diagram of the sixth embodiment shown in FIG. 2 Video data output by the imaging unit 32 is input to the motion detection unit 40, and the connection from the specifying unit 36 to the video selection unit 39 is deleted. In the following, the operation of each unit shown in FIG. 35 will be specifically described. The operations of the first imaging unit 31, the second imaging unit 32, the deforming unit 33, the encoding unit 34, and the recording unit 35 are the same as those in the above-described embodiment, and thus description thereof is omitted.

動き検出部
本実施の形態における動き検出部40は、各々の部分映像データにおける被写体の動きを検出し、各部分映像データにおける動きの特徴量を出力するものである。ここで、「動きの特徴量」は、上述の実施の形態6と同様に、被写体の動きの大小を指すものとする。また、各々の部分映像データにおける被写体の動きも、上述の実施の形態6で説明した周知技術により検出する。
Motion Detection Unit The motion detection unit 40 according to the present embodiment detects the motion of the subject in each partial video data and outputs the feature quantity of the motion in each partial video data. Here, the “motion feature amount” refers to the magnitude of the movement of the subject as in the sixth embodiment. The movement of the subject in each partial video data is also detected by the well-known technique described in the sixth embodiment.

また、本実施の形態に係る映像記録システムが、遠隔会議システムとして使用される場合、部分映像における参加者の唇の動きを検出することにより、発言者の位置又は方向を自動的に検出すると好適である。この動作も、上述の実施の形態6で説明した周知技術により実現可能である。また、本実施の形態では、カメラ401により各参加者の顔が大きく撮影されるので、上述の実施の形態6に比較して、より安定的に参加者の唇の動きを検出することができる。   Further, when the video recording system according to the present embodiment is used as a remote conference system, it is preferable that the position or direction of the speaker is automatically detected by detecting the movement of the participant's lips in the partial video. It is. This operation can also be realized by the well-known technique described in the sixth embodiment. Further, in this embodiment, since the face of each participant is photographed largely by the camera 401, the movement of the lips of the participant can be detected more stably than in the above-described sixth embodiment. .

以上で説明した動き検出部40の機能は、カメラ401の内部に実装してもよいし、またサーバ300におけるCPU 301により実現させても構わない。後者の場合、前記HDD 303には該機能を実現するための所定のプログラムを予め格納しておく。   The function of the motion detection unit 40 described above may be implemented inside the camera 401 or may be realized by the CPU 301 in the server 300. In the latter case, the HDD 303 stores a predetermined program for realizing the function in advance.

映像選択部
本実施の形態における前記映像選択部39は、前記動き検出部40により検出された、部分映像における被写体の動きに基づき、記録すべき部分映像を自動的に選択するものである。具体的には、各々の部分映像における被写体の動きの特徴量から、最も大きな動きが検出された部分映像を特定し、これを記録すべき部分映像として自動的に選択する。ここで、本実施の形態は、特定部36を必ずしも必要としないので、上述の実施の形態6に比較して、より簡単な構成・処理で適切な部分映像を選択することができる。
Video Selection Unit In the present embodiment, the video selection unit 39 automatically selects a partial video to be recorded based on the motion of the subject in the partial video detected by the motion detection unit 40. Specifically, the partial video in which the largest movement is detected is identified from the feature amount of the subject motion in each partial video, and this is automatically selected as the partial video to be recorded. Here, since this embodiment does not necessarily require the specifying unit 36, it is possible to select an appropriate partial video with a simpler configuration and processing than in the above-described sixth embodiment.

以上で説明した映像選択部39の機能は、サーバ300におけるCPU 301により実行される。このとき、前記HDD 303には該機能を実現するための所定のプログラムを予め格納しておく。   The function of the video selection unit 39 described above is executed by the CPU 301 in the server 300. At this time, the HDD 303 stores a predetermined program for realizing the function in advance.

その他
なお、上述の実施の形態6又は本実施の形態においては、カメラアレイ400を構成する各々のカメラ401が、他のカメラと一部共通する撮影領域を含むと好適である。図36(a)は、各々のカメラが互いに共通する撮影領域を含まない場合における映像表示端末の画面を示す図である。図36に示すように、参加者Aが席を立って移動している時、前記映像選択部39は、該参加者Aに最も近い撮影領域を含む部分映像(図中、黒色のバー605で示されたもの)を自動的に選択する。しかし、該参加者Aがいずれのカメラ401においても撮影されない場所に移動した場合には、重要な被写体が何も写されていない部分映像が選択されてしまう。このように、移動中の被写体を連続的に追跡して映した部分映像を記録できないという問題が生ずる。
Others In the above-described sixth embodiment or the present embodiment, it is preferable that each camera 401 included in the camera array 400 includes an imaging region that is partially in common with other cameras. FIG. 36A is a diagram illustrating a screen of the video display terminal when each camera does not include a common shooting area. As shown in FIG. 36, when the participant A is standing and moving, the image selection unit 39 displays a partial image including a shooting area closest to the participant A (in the figure, a black bar 605). Automatically select the one shown). However, when the participant A moves to a place where none of the cameras 401 can shoot, a partial video in which no important subject is captured is selected. As described above, there arises a problem that a partial video image obtained by continuously tracking a moving subject cannot be recorded.

そこで、図36(b)に示すように、各々のカメラが互いに共通する撮影領域を含むよう配置すれば、この問題を解決することができる。図中、斜線で示されたバーは、2つ以上のカメラ401で重複して撮影されている範囲を示す。図6のように、カメラアレイ400を、各々のカメラ401を筐体402に固定して構成する場合には、互いの撮影範囲が一部重複するように各々のカメラ401を固定するとよい。   Therefore, as shown in FIG. 36B, this problem can be solved if each camera is arranged so as to include a common photographing region. In the figure, the bar indicated by diagonal lines indicates a range in which two or more cameras 401 are overlapped. As shown in FIG. 6, when the camera array 400 is configured by fixing each camera 401 to the housing 402, each camera 401 may be fixed so that the shooting ranges partially overlap each other.

実施の形態8
なお、本発明に係る映像記録システム100は、PCによりその機能を実現させることができる。この場合は上記各部を実現するソフトウェアをハードディスクに格納し、適宜処理プログラムを実行させることによりその機能を実現させることができる。
Embodiment 8
Note that the video recording system 100 according to the present invention can realize its functions by a PC. In this case, the functions can be realized by storing software that realizes the above-described units in a hard disk and appropriately executing a processing program.

実施の形態9
また、上記プログラムを、CD−ROMのような記録媒体に格納することができる。図37に示されるように、該プログラムを格納したCD−ROM 308をPCに装着し、適宜該プログラムを実行させることによりその機能を実現させることができる。なお、該プログラムを格納する記録媒体としては、上記CD−ROM 308に限られず、例えばDVD−ROM等の別の媒体であってもよいことはいうまでもない。
Embodiment 9
In addition, the program can be stored in a recording medium such as a CD-ROM. As shown in FIG. 37, the function can be realized by mounting a CD-ROM 308 storing the program on a PC and appropriately executing the program. Needless to say, the recording medium for storing the program is not limited to the CD-ROM 308, and may be another medium such as a DVD-ROM.

以上の各実施の形態は、本発明のほんの一例を説明したにすぎず、本発明の権利範囲を上記実施の形態の通りに限定・縮小すべきではない。例えば、各実施の形態において、広角カメラ200、カメラアレイ400、及びマイクアレイ500が、USBハブに接続されるという構成例を用いて説明したが、これらの接続形態は上記説明に限定されるものではない。例えば、PCIバス、IEEE 1394、Bluetoothなどの別のインターフェースを使用しても構わない。   Each of the above embodiments is merely an example of the present invention, and the scope of rights of the present invention should not be limited or reduced as in the above embodiment. For example, in each embodiment, the wide-angle camera 200, the camera array 400, and the microphone array 500 have been described using a configuration example in which they are connected to a USB hub. However, these connection forms are limited to the above description. is not. For example, another interface such as a PCI bus, IEEE 1394, or Bluetooth may be used.

また、広角カメラ200に使用されるミラー211として、双曲面ミラー及び一方向に曲率をもった曲面ミラーを実施の形態に挙げたが、放物面ミラーや円錐ミラーなど、上記以外の形態であってもかまわない。   Further, as the mirror 211 used in the wide-angle camera 200, a hyperboloid mirror and a curved mirror having a curvature in one direction have been described in the embodiment, but other forms such as a parabolic mirror and a conical mirror may be used. It doesn't matter.

また、第1撮像部31の説明において、広角カメラ200においてデジタル化された映像データを出力すると説明したが、広角カメラ200がアナログの映像信号を出力するものであっても構わない。この場合、該広角カメラ200と、アナログ映像信号に対してデジタル化処理を施すビデオキャプチャボードとを組み合わせることにより、デジタル形式の映像データを出力することができる。すなわち、上記実施の形態で説明した第1撮像部31と同様の動作を実現することができる。   In the description of the first imaging unit 31, it has been described that the video data digitized by the wide-angle camera 200 is output. However, the wide-angle camera 200 may output an analog video signal. In this case, digital video data can be output by combining the wide-angle camera 200 and a video capture board that digitizes analog video signals. That is, the same operation as that of the first imaging unit 31 described in the above embodiment can be realized.

また、第2撮像部32の説明において、カメラアレイ400を構成する各々のカメラ401においてデジタル化された部分映像データを出力すると説明したが、これらのカメラ401がそれぞれアナログの映像信号を出力するものであっても構わない。この場合、これらのカメラ401と、多チャンネルのアナログ映像信号に対してデジタル化処理を施すビデオキャプチャボードとを組み合わせることにより、デジタル形式の部分映像データを出力することができる。すなわち、上記実施の形態で説明した第2撮像部32と同様の動作を実現することができる。   In the description of the second imaging unit 32, it has been described that the partial video data digitized by each camera 401 constituting the camera array 400 is output. However, each of these cameras 401 outputs an analog video signal. It does not matter. In this case, by combining these cameras 401 with a video capture board that performs digitization processing on multi-channel analog video signals, digital partial video data can be output. That is, the same operation as that of the second imaging unit 32 described in the above embodiment can be realized.

また、音声取得部37の説明において、マイクアレイ500を構成する各々のマイクロフォン501においてデジタル化された音声データを出力すると説明したが、これらのマイクロフォン501がそれぞれアナログの音声信号を出力するものであっても構わない。この場合、これらのマイクロフォン501と、多チャンネルのアナログ音声信号に対してデジタル化処理を施すオーディオキャプチャボードとを組み合わせることにより、デジタル形式の音声データを出力することができる。すなわち、上記実施の形態で説明した音声取得部37と同様の動作を実現することができる。   In the description of the sound acquisition unit 37, it has been described that the sound data digitized by each microphone 501 constituting the microphone array 500 is output. However, each of these microphones 501 outputs an analog sound signal. It doesn't matter. In this case, digital audio data can be output by combining these microphones 501 and an audio capture board that digitizes multi-channel analog audio signals. That is, the same operation as that of the sound acquisition unit 37 described in the above embodiment can be realized.

また、エンコード部34及び記録部35が同一のサーバ300に実装されると説明したが、サーバ300とは別個にエンコード用PCを設置しても構わない。この場合、エンコードされたデータは、電気通信回線を経由して、該エンコード用PCからサーバ300に転送される。   Further, although the encoding unit 34 and the recording unit 35 have been described as being mounted on the same server 300, an encoding PC may be installed separately from the server 300. In this case, the encoded data is transferred from the encoding PC to the server 300 via the telecommunication line.

また、エンコード部34の動作説明においては、サーバ300内のCPU 301によりMPEGエンコード処理を行うと説明したが、エンコード部34の構成はこれに限定されない。例えば、MPEGエンコードICを内蔵したビデオキャプチャボードを用いて、映像データをMPEG形式に変換しても構わない。音声データに関しても同様である。   In the description of the operation of the encoding unit 34, it has been described that the MPEG encoding process is performed by the CPU 301 in the server 300, but the configuration of the encoding unit 34 is not limited to this. For example, the video data may be converted into the MPEG format using a video capture board incorporating an MPEG encoding IC. The same applies to audio data.

また、動き検出部40の動作の説明において、「動きの特徴量」は被写体の動きの大小を指すと述べたが、例えば被写体の移動軌跡の形状など、別のものであっても構わない。   Further, in the description of the operation of the motion detection unit 40, it has been described that the “feature feature amount” indicates the magnitude of the movement of the subject, but may be different, for example, the shape of the movement locus of the subject.

本発明に係る映像記録システムの使用例を示す図である。It is a figure which shows the usage example of the video recording system which concerns on this invention. 実施の形態1に係る映像記録システムの構成を示す図である。1 is a diagram illustrating a configuration of a video recording system according to Embodiment 1. FIG. 実施の形態1に係る広角カメラ200の構成を示す図である。2 is a diagram illustrating a configuration of a wide-angle camera 200 according to Embodiment 1. FIG. 実施の形態1に係る広角カメラ200の構造を示す図である。2 is a diagram illustrating a structure of a wide-angle camera 200 according to Embodiment 1. FIG. 図4に示された広角カメラ200により撮影される映像を示す図である。It is a figure which shows the image | video image | photographed by the wide angle camera 200 shown by FIG. 実施の形態1に係るカメラアレイ400の一例を示す図である。3 is a diagram showing an example of a camera array 400 according to Embodiment 1. FIG. 実施の形態1に係るサーバ300の構成を示す図である。It is a figure which shows the structure of the server 300 which concerns on Embodiment 1. FIG. 実施の形態1に係る動作を示すブロック図である。FIG. 3 is a block diagram showing an operation according to the first embodiment. 実施の形態1における変形部33の動作を説明する図である。FIG. 6 is a diagram for explaining the operation of a deforming unit 33 in the first embodiment. 変形部33における原理を説明する図である。It is a figure explaining the principle in the deformation | transformation part. 変形部33で使用される座標変換テーブルを説明する図である。It is a figure explaining the coordinate conversion table used by the deformation | transformation part 33. FIG. 実施の形態2に係る広角カメラ200の構成を示す図である。It is a figure which shows the structure of the wide angle camera 200 which concerns on Embodiment 2. FIG. 図12に示された広角カメラ200により撮影される映像を示す図である。It is a figure which shows the image | video image | photographed with the wide angle camera 200 shown by FIG. 実施の形態2における変形部33の動作を映像表示と同時に実現する例を示す図である。It is a figure which shows the example which implement | achieves the operation | movement of the deformation | transformation part 33 in Embodiment 2 simultaneously with an image display. 実施の形態3に係る映像配信システムを使用した場合の映像表示端末の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a video display terminal at the time of using the video delivery system which concerns on Embodiment 3. FIG. 実施の形態3に係る動作を示すブロック図である。FIG. 10 is a block diagram showing an operation according to the third embodiment. 実施の形態3に係る特定部36の動作の一例を示す図である。FIG. 10 is a diagram illustrating an example of an operation of a specifying unit 36 according to Embodiment 3. 実施の形態3に係る特定部36の動作の一例を示す図である。FIG. 10 is a diagram illustrating an example of an operation of a specifying unit 36 according to Embodiment 3. 実施の形態3に係るサーバ300の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the server 300 which concerns on Embodiment 3. FIG. 実施の形態4に係る映像記録システムを使用した場合の映像表示端末の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a video display terminal at the time of using the video recording system which concerns on Embodiment 4. FIG. 実施の形態4に係る映像記録システムの構成を示す図である。FIG. 10 is a diagram illustrating a configuration of a video recording system according to a fourth embodiment. 実施の形態4における広角カメラ200及びマイクアレイ500の構成を説明する図である。It is a figure explaining the structure of the wide-angle camera 200 in Embodiment 4, and the microphone array 500. FIG. 実施の形態4に係る動作を示すブロック図である。FIG. 10 is a block diagram showing an operation according to the fourth embodiment. 実施の形態4における音源検出部38の動作原理を説明する図である。It is a figure explaining the principle of operation of the sound source detection part 38 in Embodiment 4. FIG. 実施の形態4における音源検出部38の問題を説明する図である。It is a figure explaining the problem of the sound source detection part 38 in Embodiment 4. FIG. 実施の形態4におけるマイクロフォン501の配置例を説明する図である。FIG. 10 is a diagram illustrating an arrangement example of microphones 501 according to Embodiment 4. 実施の形態4におけるマイクロフォン501の別の配置例を説明する図である。FIG. 10 is a diagram illustrating another arrangement example of microphones 501 in the fourth embodiment. 実施の形態4における音源検出部38の動作を説明する図である。It is a figure explaining operation | movement of the sound source detection part 38 in Embodiment 4. FIG. 実施の形態4における音源検出部38の動作を説明する図である。It is a figure explaining operation | movement of the sound source detection part 38 in Embodiment 4. FIG. 実施の形態4における映像選択部39の動作を説明する図である。FIG. 10 is a diagram for explaining the operation of a video selection unit 39 in the fourth embodiment. 実施の形態4における映像選択部39が出力するデータを説明する図である。It is a figure explaining the data which the video selection part 39 in Embodiment 4 outputs. 実施の形態5におけるカメラ401の構成を示す図である。It is a figure which shows the structure of the camera 401 in Embodiment 5. FIG. 実施の形態5に係る動作を示すブロック図である。FIG. 10 is a block diagram showing an operation according to the fifth embodiment. 実施の形態6に係る動作を示すブロック図である。FIG. 20 is a block diagram showing an operation according to the sixth embodiment. 実施の形態7に係る動作を示すブロック図である。FIG. 20 is a block diagram showing an operation according to the seventh embodiment. 実施の形態6及び7に係る映像配信システムを使用した場合の問題を示す図である。It is a figure which shows the problem at the time of using the video delivery system which concerns on Embodiment 6 and 7. FIG. 実施の形態9に係る構成例を示す図である。FIG. 38 is a diagram illustrating a configuration example according to the ninth embodiment.

符号の説明Explanation of symbols

1 テーブル
2 参加者
3 キャビネット
31 第1撮像部
32 第2撮像部
33 変形部
34 エンコード部
35 記録部
36 特定部
37 音声取得部
38 音源検出部
39 映像選択部
40 動き検出部
200 広角カメラ
211 ミラー
212 レンズ
213 絞り
214 撮像素子
215 駆動部
216 前処理回路
217 モータ駆動部
300 サーバ
310 バス
320 USBハブ
330 インターネット
350 クライアントPC
400 カメラアレイ
401−1から401−4 カメラ
500 マイクアレイ
501 マイクロフォン
600 表示用ウィンドウ
DESCRIPTION OF SYMBOLS 1 Table 2 Participant 3 Cabinet 31 1st imaging part 32 2nd imaging part 33 Deformation part 34 Encoding part 35 Recording part 36 Identification part 37 Audio | voice acquisition part 38 Sound source detection part 39 Image | video selection part 40 Motion detection part 200 Wide-angle camera 211 Mirror 212 Lens 213 Diaphragm 214 Image sensor 215 Drive unit 216 Pre-processing circuit 217 Motor drive unit 300 Server 310 Bus 320 USB hub 330 Internet 350 Client PC
400 Camera array 401-1 to 401-4 Camera 500 Microphone array 501 Microphone 600 Display window

Claims (4)

映像を撮像する撮像手段により撮像された映像を取得する映像取得手段と、
音声を入力する複数のマイクロフォンから入力された音声を取得する音源検出手段と、
前記映像取得手段により取得された映像から被写体の動きを検出する動き検出手段と、
前記音源検出手段により取得された音声に基づいて発話区間を抽出し、抽出された前記発話区間における前記映像取得手段により取得された映像から前記動き検出手段により検出された被写体の各部位の動きの特徴量に基づき、前記映像の中で最も大きな動きが検出された被写体に対応する部分映像を選択する映像選択手段と、
前記映像取得手段により取得された映像を表示すると共に、前記映像選択手段により選択された部分映像を表示する表示手段とを有することを特徴とする映像再生装置。
Video acquisition means for acquiring video captured by an imaging means for capturing video;
Sound source detection means for acquiring sound input from a plurality of microphones for inputting sound;
Motion detection means for detecting the movement of the subject from the video acquired by the video acquisition means;
An utterance section is extracted based on the voice acquired by the sound source detection means, and the motion of each part of the subject detected by the motion detection means from the video acquired by the video acquisition means in the extracted utterance section. Video selection means for selecting a partial video corresponding to the subject in which the largest movement is detected in the video based on the feature amount ;
A video reproduction apparatus comprising: a display unit that displays the video acquired by the video acquisition unit and displays the partial video selected by the video selection unit.
前記撮像手段は、
所定形状の曲面を有する鏡面体と、前記映像を撮像する撮像素子とを有し、
前記撮像手段により撮像された映像は、
少なくとも水平面を見渡す全周囲を含む映像であることを特徴とする請求項1に記載の映像再生装置。
The imaging means includes
A mirror body having a curved surface of a predetermined shape, and an imaging device for imaging the video,
The video imaged by the imaging means is
The video playback apparatus according to claim 1, wherein the video playback apparatus includes at least an entire periphery overlooking a horizontal plane.
取得した映像を再生する映像再生装置によって実行される映像再生方法であって、
映像を撮像する撮像手段により撮像された映像を取得する映像取得工程と、
音声を入力する複数のマイクロフォンから入力された音声を取得する音源検出工程と、
前記映像取得手段により取得された映像から被写体の動きを検出する動き検出工程と、
前記音源検出工程により取得された音声に基づいて発話区間を抽出し、抽出された前記発話区間における前記映像取得工程により取得された映像から前記動き検出工程により検出された被写体の各部位の動きの特徴量に基づき、前記映像の中で最も大きな動きが検出された被写体に対応する部分映像を選択する映像選択工程と、
前記映像取得工程により取得された映像を表示すると共に、前記映像選択工程により選択された部分映像を表示する表示工程とを有することを特徴とする映像再生方法。
A video playback method executed by a video playback device for playing back acquired video,
A video acquisition step of acquiring video captured by an imaging means for capturing video;
A sound source detection step for acquiring sounds input from a plurality of microphones for inputting sounds;
A motion detection step of detecting the movement of the subject from the video acquired by the video acquisition means;
An utterance section is extracted based on the voice acquired by the sound source detection step, and the motion of each part of the subject detected by the motion detection step is extracted from the video acquired by the video acquisition step in the extracted utterance section. A video selection step of selecting a partial video corresponding to the subject in which the largest movement is detected in the video based on the feature amount ;
A display step of displaying the video acquired by the video acquisition step and displaying the partial video selected by the video selection step.
コンピュータを、
映像を撮像する撮像手段により撮像された映像を取得する映像取得手段と、
音声を入力する複数のマイクロフォンから入力された音声を取得する音源検出手段と、
前記映像取得手段により取得された映像から被写体の動きを検出する動き検出手段と、
前記音源検出手段により取得された音声に基づいて発話区間を抽出し、抽出された前記発話区間における前記映像取得手段により取得された映像から前記動き検出手段により検出された被写体の各部位の動きの特徴量に基づき、前記映像の中で最も大きな動きが検出された被写体に対応する部分映像を選択する映像選択手段と、
前記映像取得手段により取得された映像を表示装置に表示させると共に、前記映像選択手段により選択された部分映像を前記表示装置に表示させる表示手段として機能させるための映像再生プログラム。
Computer
Video acquisition means for acquiring video captured by an imaging means for capturing video;
Sound source detection means for acquiring sound input from a plurality of microphones for inputting sound;
Motion detection means for detecting the movement of the subject from the video acquired by the video acquisition means;
An utterance section is extracted based on the voice acquired by the sound source detection means, and the motion of each part of the subject detected by the motion detection means from the video acquired by the video acquisition means in the extracted utterance section. Video selection means for selecting a partial video corresponding to the subject in which the largest movement is detected in the video based on the feature amount ;
A video reproduction program for causing the display device to display the video acquired by the video acquisition unit and to function as a display unit for displaying the partial video selected by the video selection unit on the display device.
JP2007071614A 2007-03-19 2007-03-19 Video playback device, video playback method, and video playback program Expired - Fee Related JP4451892B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007071614A JP4451892B2 (en) 2007-03-19 2007-03-19 Video playback device, video playback method, and video playback program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007071614A JP4451892B2 (en) 2007-03-19 2007-03-19 Video playback device, video playback method, and video playback program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002160647A Division JP3954439B2 (en) 2002-05-31 2002-05-31 Video recording system, program, and recording medium

Publications (3)

Publication Number Publication Date
JP2007235969A JP2007235969A (en) 2007-09-13
JP2007235969A5 JP2007235969A5 (en) 2009-08-06
JP4451892B2 true JP4451892B2 (en) 2010-04-14

Family

ID=38556011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007071614A Expired - Fee Related JP4451892B2 (en) 2007-03-19 2007-03-19 Video playback device, video playback method, and video playback program

Country Status (1)

Country Link
JP (1) JP4451892B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4787292B2 (en) * 2008-06-16 2011-10-05 富士フイルム株式会社 Omni-directional imaging device
JP5192978B2 (en) * 2008-10-17 2013-05-08 株式会社日立製作所 Camera management apparatus and camera management method
JP5929774B2 (en) * 2013-02-08 2016-06-08 カシオ計算機株式会社 Image acquisition method, apparatus, and program
US9338544B2 (en) 2014-06-03 2016-05-10 Cisco Technology, Inc. Determination, display, and adjustment of best sound source placement region relative to microphone
JP6276132B2 (en) * 2014-07-30 2018-02-07 株式会社東芝 Utterance section detection device, speech processing system, utterance section detection method, and program
SG10201407100PA (en) 2014-10-30 2016-05-30 Nec Asia Pacific Pte Ltd System For Monitoring Event Related Data
JP6565777B2 (en) * 2015-07-10 2019-08-28 株式会社リコー COMMUNICATION DEVICE, CONFERENCE SYSTEM, PROGRAM, AND DISPLAY CONTROL METHOD
JP6547496B2 (en) 2015-08-03 2019-07-24 株式会社リコー Communication apparatus, communication method, program and communication system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06178295A (en) * 1992-12-09 1994-06-24 Matsushita Electric Ind Co Ltd Picture signal processing unit for video conference and utterance party pattern mgnification synthesis device
JP3129595B2 (en) * 1993-12-13 2001-01-31 シャープ株式会社 Image processing device
JPH099234A (en) * 1995-06-26 1997-01-10 Kyocera Corp Video conference system
JPH10145763A (en) * 1996-11-15 1998-05-29 Mitsubishi Electric Corp Conference system
JP3572849B2 (en) * 1997-02-14 2004-10-06 富士ゼロックス株式会社 Sound source position measuring device and camera photographing control device
JP4096132B2 (en) * 1997-07-24 2008-06-04 富士ゼロックス株式会社 Time-series information specific section determination device, information storage device, and information storage / playback device
JP3792901B2 (en) * 1998-07-08 2006-07-05 キヤノン株式会社 Camera control system and control method thereof
JP2000347692A (en) * 1999-06-07 2000-12-15 Sanyo Electric Co Ltd Person detecting method, person detecting device, and control system using it
JP2001275096A (en) * 2000-03-24 2001-10-05 Sony Corp Image pickup and display device and videoconference device
JP2002158983A (en) * 2000-11-20 2002-05-31 Matsushita Electric Ind Co Ltd Multicast video conference terminal and video conference system
JP2003299051A (en) * 2002-03-29 2003-10-17 Matsushita Electric Ind Co Ltd Information output unit and information outputting method

Also Published As

Publication number Publication date
JP2007235969A (en) 2007-09-13

Similar Documents

Publication Publication Date Title
JP4451892B2 (en) Video playback device, video playback method, and video playback program
JP4439763B2 (en) Image recording / reproducing system and image recording / reproducing method
JP4474013B2 (en) Information processing device
WO2017208820A1 (en) Video sound processing device, video sound processing method, and program
JP4153146B2 (en) Image control method for camera array and camera array
EP3646619A1 (en) Mixed-order ambisonics (moa) audio data for computer-mediated reality systems
CN107439002B (en) Depth imaging
JP5031016B2 (en) Image processing apparatus, image processing method, and program
JPH114398A (en) Digital wide camera
TWI588590B (en) Video generating system and method thereof
US10079996B2 (en) Communication system, communication device, and communication method
JP2007295335A (en) Camera device and image recording and reproducing method
JP4414708B2 (en) Movie display personal computer, data display system, movie display method, movie display program, and recording medium
JP4539015B2 (en) Image communication apparatus, image communication method, and computer program
US11477393B2 (en) Detecting and tracking a subject of interest in a teleconference
CN114827517A (en) Projection video conference system and video projection method
JP4908543B2 (en) Conference image reproduction system and conference image reproduction method
JP3954439B2 (en) Video recording system, program, and recording medium
JP4373645B2 (en) Video distribution system, program, and recording medium
JP2003111041A (en) Image processor, image processing system, image processing method, storage medium and program
JP2009182979A (en) Conference image reproducing apparatus and conference image reproducing method
JP2009246917A (en) Video display device, and video processing apparatus
CN113676622A (en) Video processing method, image pickup apparatus, video conference system, and storage medium
US20220400244A1 (en) Multi-camera automatic framing
JP2013016933A (en) Terminal device, imaging method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090619

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20090619

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20090708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100128

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees