JP2001268562A - Method and device for automatically recording live image - Google Patents

Method and device for automatically recording live image

Info

Publication number
JP2001268562A
JP2001268562A JP2000078781A JP2000078781A JP2001268562A JP 2001268562 A JP2001268562 A JP 2001268562A JP 2000078781 A JP2000078781 A JP 2000078781A JP 2000078781 A JP2000078781 A JP 2000078781A JP 2001268562 A JP2001268562 A JP 2001268562A
Authority
JP
Japan
Prior art keywords
camera
recording
video
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000078781A
Other languages
Japanese (ja)
Inventor
Osamu Nakamura
修 中村
Shigeyoshi Iizuka
重善 飯塚
Susumu Fujiwara
進 藤原
Masahiko Tsujimoto
雅彦 辻本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2000078781A priority Critical patent/JP2001268562A/en
Publication of JP2001268562A publication Critical patent/JP2001268562A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To realize an automatic live image recording capable of sharply reducing manual operation for the record of a lecture. SOLUTION: The device for recording a lecture in space 10 where a lecturer gives the lecture is provided with a camera group 105 for recording images and sounds, an observing camera 102 for observing the space 10 where a lecture gives the lecture, a means 103 for extracting information concerned with the positions, moving directions and operation of the lecturer and other objects from the images of the camera 102, and a means 104 for controlling the camera work of the camera group 105 and the reproduction of electronic teaching materials. The device is provided also with a means 106 for switching and selecting a recording camera image and the reproduced image of the electronic teaching materials and a means 108 for recording the selected image and sound accompanying the image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、講師による教示が
なされる空間で、ビデオカメラ等を用いて映像および音
声を収録するシステムに係り、詳しくは、観測用カメラ
から得られる映像情報を処理して、映像中の対象物の検
出や認識等を行い、遠隔講義や講義アーカイブ作成のた
めの効率のよい映像自動収録を実現するための技術に関
する。
[0001] 1. Field of the Invention [0002] The present invention relates to a system for recording video and audio using a video camera or the like in a space where a lecturer teaches, and more particularly to processing video information obtained from an observation camera. The present invention relates to a technology for detecting and recognizing an object in a video and realizing efficient automatic video recording for creating a remote lecture or a lecture archive.

【0002】[0002]

【従来の技術】マルチメディア関連技術の進展により、
映像や音声をデジタル化して各種の応用へ展開する試み
が盛んに行われている。特に教育分野では、時間や空間
の障壁を解消するための有効な手段として、映像や音響
に関連する機器を用いて、受講形態の多様化が進んでい
る。例えば、遠隔講義では、ネットワークを介して遠隔
地での受講が可能となり、また、講義アーカイブの作成
は、自由な時間での自習受講を可能とする。
2. Description of the Related Art With the advancement of multimedia-related technology,
2. Description of the Related Art Attempts to digitize video and audio and develop them into various applications have been actively made. Particularly in the education field, as an effective means for solving the barrier of time and space, the use of video and audio-related equipment has led to diversification of attending forms. For example, in a remote lecture, it is possible to take a lecture at a remote place via a network, and to create a lecture archive, it is possible to take a self-learning course at a free time.

【0003】これらの場合、受講者はカメラの視野を通
して講義を視聴することになり、映像の見易さ、音声の
聞き取り易さ、ひいては講義内容の理解に重大な影響を
及ぼすカメラ視野の調整は非常に重要な要因となる。従
来、このカメラ視野の調整は、ほとんど1台のカメラを
専門のスタッフが担当して行うため、多大の人的稼働が
必要になっていた。また、カメラワークの担当者には、
視聴者の集中力を考慮した微妙なカメラ視野の調整等、
専門のスキルが必要とされていた。
[0003] In these cases, the trainee views the lecture through the field of view of the camera, and the adjustment of the camera field of view, which has a significant effect on the visibility of the video, the audibility of the sound, and the understanding of the contents of the lecture, is difficult. It is a very important factor. Conventionally, the adjustment of the field of view of the camera is performed by specialized staff for almost one camera, so that a large amount of human operation is required. In addition, to the person in charge of camera work,
Subtle adjustments to the camera's field of view taking into account the viewer's concentration,
Professional skills were needed.

【0004】[0004]

【発明が解決しようとする課題】上述のように、従来の
ライブ型素材の映像収録には、専門的なスキルを有する
担当者が必要となるばかりでなく、多くの人的稼働が必
要となるため、収録機会が制約され、著しく生産性を低
下させるという問題があった。
As described above, video recording of conventional live-type materials requires not only a person having specialized skills but also a lot of human operation. Therefore, there is a problem that recording opportunities are restricted and productivity is remarkably reduced.

【0005】本発明の目的は、従来技術における上述の
如き問題を解消し、ライブ素材映像の収録を自動化する
ことにより、専門スタッフと同等の機能レベルを有し、
かつ人的稼働の少ない自動収録システムを提供すること
にある。
[0005] An object of the present invention is to solve the above-mentioned problems in the prior art and to automate the recording of live material images, thereby having a functional level equivalent to that of a professional staff.
Another object of the present invention is to provide an automatic recording system that requires less human operation.

【0006】[0006]

【課題を解決するための手段】本発明は、講師による教
示がなされる空間で、1台以上の収録用カメラを用いて
映像および音声を収録するにあたり、観測用カメラ映像
から、講師等に関して、位置、移動方向、動作に関する
情報を抽出し、該抽出した情報に基づき、収録用カメラ
に対するパン、チルト、ズーム等のカメラワーク制御お
よび電子化教材の再生制御を行い、これら収録用カメラ
映像と電子化教材の再生映像を選択し、これら選択され
た映像および付随する音声の記録を行うことを特徴とす
る。
SUMMARY OF THE INVENTION According to the present invention, in recording a video and an audio using one or more recording cameras in a space where a lecturer teaches, a lecturer or the like is obtained from an observation camera video. Information on the position, moving direction, and motion is extracted, and based on the extracted information, camera work control such as panning, tilting, and zooming of the recording camera and reproduction control of the digitized teaching material are performed. It is characterized in that reproduced videos of the educational material are selected, and the selected video and accompanying audio are recorded.

【0007】また、収録用カメラの制御については、あ
らかじめ、人手によるカメラ操作履歴を入力するととも
に、該人手によるカメラ操作履歴と観測用カメラ映像か
ら抽出される情報とを関連付け、その結果を蓄積し、実
際の収録時に、観測用カメラ映像から抽出された情報と
関連付けされたカメラ操作情報を読み出し、収録用カメ
ラを制御することを特徴とする。
[0007] For control of the recording camera, a manual camera operation history is input in advance, the manual camera operation history is associated with information extracted from the observation camera image, and the results are accumulated. During actual recording, the camera operation information associated with the information extracted from the observation camera video is read to control the recording camera.

【0008】これにより、専門のカメラマンを配置する
ことなく、視聴者の利用のし易さを配慮したライブ素材
の収録を自動的に行うことができ、遠隔講義や講義アー
カイブ作成等の人的稼働を大幅に削減することが可能と
なる。
[0008] This makes it possible to automatically record live material in consideration of the ease of use of the viewer without arranging a specialized photographer, and to manually perform remote lectures and lecture archive creation. Can be greatly reduced.

【0009】[0009]

【発明の実施の形態】以下、図面を用いて本発明の一実
施例を説明する。図1は、本発明の一実施例に係わるシ
ステムのブロック図である。図1において、101は収
録対象となる被写体、102は自動収録のための各種情
報を取得するための観測用カメラ群、103は観測用カ
メラ映像を解析する観測映像解析部、104は自動収録
のためのカメラ制御情報や映像切り替え制御情報を生成
する操作履歴学習および収録用カメラ制御部、105は
講義アーカイブ作成のための映像収録用カメラ群、10
6は収録用カメラ映像と教材映像とを切り替える映像切
り替え部、107は人手で映像切り替えおよびカメラ制
御を行うための手動操作部、108は収録用カメラ映像
および教材映像を記録する映像記録部、109は電子化
教材の再生を行うための教材再生制御部、110は教材
映写部である。これらは、実質的には全体でコンピュー
タ制御システムを構成し、例えば観測映像解析部103
と操作履歴学習および収録用カメラ制御部104は中央
処理装置、それ以外は周辺機器のイメージである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a system according to an embodiment of the present invention. In FIG. 1, 101 is a subject to be recorded, 102 is a group of observation cameras for acquiring various types of information for automatic recording, 103 is an observation video analysis unit that analyzes observation camera images, and 104 is an automatic video recording unit. 105 is a camera control unit for operation history learning and recording for generating camera control information and video switching control information for recording, and a video recording camera group 105 for creating a lecture archive.
Reference numeral 6 denotes a video switching unit for switching between a recording camera video and a teaching material video; 107, a manual operation unit for manually performing video switching and camera control; 108, a video recording unit for recording a recording camera video and a teaching material video; Is a teaching material playback control unit for playing back digitized teaching materials, and 110 is a teaching material projection unit. These substantially constitute a computer control system as a whole.
The operation history learning and recording camera control unit 104 is an image of a central processing unit, and the rest is an image of a peripheral device.

【0010】以下、図1に示したシステム構成の全体の
動作について説明する。動作は、あらかじめ人手による
カメラ操作履歴の入力と実際の自動収録に大別される。
Hereinafter, the overall operation of the system configuration shown in FIG. 1 will be described. The operation is roughly divided into manual input of a camera operation history and actual automatic recording in advance.

【0011】人手によるカメラ操作履歴の入力では、あ
らかじめ実際の講義をもとに、手動操作部107により
人手によって収録用カメラ群105を操作し、その操作
履歴を入力する。具体的な操作内容は、カメラ選択、パ
ン、チルド、ズームなどである。一方、観測映像解析部
103は、観測用カメラ群102から線111を通して
与えられる映像を基に、講師等に関し、位置移動方向、
動作に関する情報を抽出する。これらの情報は後に、講
師等の追尾、適切な映像選択、対象物の撮影方法等の設
定に使用する。操作履歴学習および収録用カメラ制御部
104は、手動操作部107による手動のカメラ操作履
歴の各々の制御値(制御情報)を、線120を通して入
力し、該人手によるカメラ操作履歴と観測映像解析部1
03で抽出された情報とを関連付け、その結果を記録し
ておく。
In the manual operation history input, the recording camera group 105 is manually operated by the manual operation unit 107 based on an actual lecture in advance, and the operation history is input. Specific operation contents include camera selection, pan, tilde, zoom, and the like. On the other hand, the observation image analysis unit 103 determines the position and movement direction of the instructor based on the image given through the line 111 from the observation camera group 102.
Extract information about actions. These pieces of information will be used later for tracking of an instructor or the like, selection of an appropriate video, setting of a method of photographing an object, and the like. The operation history learning and recording camera control unit 104 inputs the respective control values (control information) of the manual camera operation history by the manual operation unit 107 through the line 120, and the camera operation history by the manual operation and the observation image analysis unit. 1
03 is associated with the information extracted, and the result is recorded.

【0012】次に、実際の自動収録時では、まず、観測
用カメラ群102から線111を通して与えられる映像
を基に、同様に観測映像解析部103が、講師等に関し
て、位置、移動方向、動作に関する情報を抽出する。次
に、操作履歴学習および収録用カメラ制御部104が、
観測映像解析部103から線112を通して与えられる
講師位置等の情報と、関連付けられたカメラ操作情報を
読み出し、適切な映像が得るための収録用カメラの制
御、その場に応じた教材再生の制御、複数収録用カメラ
映像のいずれか、もしくは、教材再生映像の切り替え制
御等のための各種情報を、それぞれ線113、114、
115等に出力する。収録用カメラ群105は、線11
3のカメラワーク駆動制御指示情報に基づき、カメラ選
択、パン、チルド、ズーム等を自動的に実施する。教材
再生制御部109は、線115の教材再生制御情報に基
づき、講義中に使われる電子教材、例えば、パソコン上
で走行する作図ソフトの出力や、動画像再生ソフトの出
力等を制御し、その再生映像を線117、119に出力
する。映像切り替え部106は、線114の映像選択情
報に基づき、収録用カメラ群105から線116を通し
て与えられる収録用カメラ映像、あるいは、教材再生制
御部109から線117を通して与えられる教材再生映
像を選択し、線118に出力する。
Next, at the time of actual automatic recording, first, based on an image provided from the observation camera group 102 through the line 111, the observation image analysis unit 103 similarly operates the position, the moving direction, and the operation with respect to the instructor. Extract information about Next, the operation history learning and recording camera control unit 104
Reads the information on the instructor position and the like provided from the observation video analysis unit 103 through the line 112 and the associated camera operation information, controls the recording camera to obtain an appropriate video, controls the teaching material reproduction according to the situation, Any one of the plurality of camera images for recording, or various information for switching control of the educational material playback image, etc.
115 and the like. The recording camera group 105 has a line 11
The camera selection, pan, tilde, zoom, and the like are automatically performed based on the camera work drive control instruction information of No. 3. The teaching material playback control unit 109 controls the output of electronic teaching materials used during the lecture, for example, the output of drawing software running on a personal computer, the output of moving image playback software, etc., based on the teaching material playback control information of the line 115. The reproduced video is output to lines 117 and 119. The video switching unit 106 selects, based on the video selection information on the line 114, a recording camera video provided from the recording camera group 105 via the line 116 or a teaching material playback video provided from the teaching material playback control unit 109 via the line 117. , Line 118.

【0013】映像記録部108は、映像切り替え部10
6によって選択された映像を、それに付随する音声とと
もにテープ等の記録媒体へ書き込む。この記録された媒
体は、講義アーカイブとして後に利用することが可能で
ある。教材映写部110は、線119で伝えられる電子
教材映像の出力を、講義室内のスクリーンに投影する。
The video recording unit 108 includes the video switching unit 10
The video selected by 6 is written to a recording medium such as a tape together with the audio accompanying the video. This recorded medium can be used later as a lecture archive. The teaching material projecting unit 110 projects the output of the electronic teaching material image transmitted by the line 119 on a screen in the lecture room.

【0014】次に、特に観測映像解析部103と操作履
歴学習および収録用カメラ制御部104の処理について
詳述する。
Next, the processing of the observation video analysis unit 103 and the operation of the operation history learning and recording camera control unit 104 will be described in detail.

【0015】図2は、観測映像解析部103の構成例を
示す。観測映像解析部103は画像差分検出部210、
対象物検出部220、対象物移動検出部230、指示動
作検出部240からなる。
FIG. 2 shows an example of the configuration of the observation video analysis unit 103. The observation video analysis unit 103 includes an image difference detection unit 210,
It comprises an object detection unit 220, an object movement detection unit 230, and an instruction operation detection unit 240.

【0016】まず、観測用カメラ群102から線111
を通して伝えられる映像が、映像差分検出部210と対
象物検出部220へ入力する。それらの内、映像差分検
出部210は、順次、一定時間前の画像を保持し、ある
時刻t1における観測映像と、一定時間tΔ(秒)経過
後のt2の観測映像との間で変化があったか否かの検出
を行う。ここでtΔは任意に設定可能な数値であり、通
常は、1〜5(秒)程度の値とすることが多い。画像差
分の検出には、各種のアルゴリズムが提案されている
が、本発明においてはいずれのアルゴリズムも用いるこ
とが可能である。例えば、カラー画像の場合には、R
(赤)、G(緑)、B(青)の3原色それぞれにおい
て、既定の数値を超える場合に画像変化があったと判断
する方法を用いることができる。この画像差分検出部2
10からの出力情報は、画像差分の有無と差分部分の画
像からなり、対象物移動検出部230および指示動作検
出部240に伝える。
First, a line 111 is obtained from the observation camera group 102.
Is transmitted to the image difference detection unit 210 and the object detection unit 220. Among them, the video difference detection unit 210 sequentially holds images before a certain time, and determines whether there is a change between the observation video at a certain time t1 and the observation video at t2 after a certain time tΔ (second) has elapsed. Detect whether or not. Here, tΔ is a numerical value that can be set arbitrarily, and is usually set to a value of about 1 to 5 (seconds). Various algorithms have been proposed for detecting the image difference, but any of the algorithms can be used in the present invention. For example, in the case of a color image, R
For each of the three primary colors (red), G (green), and B (blue), a method of determining that an image change has occurred when a predetermined numerical value is exceeded can be used. This image difference detection unit 2
The output information from 10 includes the presence or absence of an image difference and the image of the difference portion, and is transmitted to the object movement detection unit 230 and the instruction operation detection unit 240.

【0017】一方、対象物検出部220は、時間間隔t
Δ毎に、予め指示された対象物に相応する画像が、入力
映像中に存在するか否かの判定を行う。この対象物検出
部220の出力は、指定対象物の有無と検出された対象
物の画像からなり、対象物移動検出部230および指示
動作検出部240に伝える。この対象物検出にも、各種
のアルゴリズムが提案されているが、本発明においては
いずれのアルゴリズムも用いることが可能である。例え
ば、検出しようとする各対象物の特徴を、形状、色合い
等のパラメータを用いて事前に記述して保持しておき、
検出時には、これらのパラメータで記述された領域を、
入力映像中で探索する等の方法を用いることができる。
On the other hand, the object detecting section 220 operates at the time interval t
For each Δ, it is determined whether or not an image corresponding to the target object specified in advance exists in the input video. The output of the object detection unit 220 includes the presence / absence of the designated object and an image of the detected object, and is transmitted to the object movement detection unit 230 and the instruction operation detection unit 240. Various algorithms have been proposed for this object detection, but any of the algorithms can be used in the present invention. For example, the features of each object to be detected are described and held in advance using parameters such as shape, color, and the like,
At the time of detection, the area described by these parameters is
A method such as searching in the input video can be used.

【0018】対象物移動検出部230は、画像差分検出
部210の出力から画像差分が検出されたと判断され、
さらに対象物検出部220の出力から指定対象物が検出
されたと判断された場合に、その対象物の映像中におけ
る位置の変化を、差分画像にもとづいて計算し、対象物
が、時間tΔの間に移動したか否かを判定する。この対
象物移動検出部230の出力は、対象物の移動検出結
果、移動対象物の種別である。
The object movement detecting section 230 determines from the output of the image difference detecting section 210 that an image difference has been detected,
Further, when it is determined from the output of the object detection unit 220 that the designated object has been detected, a change in the position of the object in the video is calculated based on the difference image, and the object is maintained for a time tΔ. It is determined whether or not it has moved to. The output of the object movement detection unit 230 is a result of the movement detection of the object and the type of the movement object.

【0019】一方、指示動作検出部240は、画像差分
検出部210の出力から画像差分が検出されたと判断さ
れ、さらに対象物検出部220の出力から指示動作に対
応する指定の対象物が検出されたと判断された場合に、
その対象物の映像中における位置の変化を、差分画像に
もとづいて計算し、複数の時間tΔの区間に渡って指示
動作パターンの有無を判定する。この指示動作検出部2
40の出力は、指示動作の検出結果、指示動作の種別で
ある。
On the other hand, the pointing operation detecting section 240 determines that an image difference has been detected from the output of the image difference detecting section 210, and further detects a designated object corresponding to the pointing operation from the output of the object detecting section 220. If it is determined that
The change in the position of the object in the video is calculated based on the difference image, and the presence or absence of the instruction operation pattern is determined over a plurality of time tΔ sections. This instruction operation detecting unit 2
The output of 40 is the detection result of the instruction operation and the type of the instruction operation.

【0020】以上のようにして、観測映像解析部103
では、観測用カメラ群102の映像をもとに、手動操作
時や実際の収録時に、時々刻々、対象物の移動検出結
果、移動対象物の種別、指示動作の検出結果、および指
示動作の種別を出力し、線112を通して、操作履歴学
習および収録用カメラ制御部104に伝える。
As described above, the observation image analysis unit 103
Then, based on the video of the observation camera group 102, at the time of manual operation or actual recording, the movement detection result of the object, the type of the movement object, the detection result of the pointing operation, and the type of the pointing operation are momentarily Is transmitted to the operation history learning and recording camera control unit 104 through the line 112.

【0021】図3は、操作履歴学習および収録用カメラ
制御部104の構成例を示す。該操作履歴学習および収
録用カメラ制御部104は、操作履歴記録部310、操
作と対象物状況との関連付け部320、関連出現頻度計
測部330、操作パターン記録部340、カメラ駆動制
御部350、映像切り替え制御部360などからなる。
FIG. 3 shows an example of the configuration of the operation history learning and recording camera control unit 104. The operation history learning and recording camera control unit 104 includes an operation history recording unit 310, an association unit 320 between the operation and the object situation, a related appearance frequency measurement unit 330, an operation pattern recording unit 340, a camera drive control unit 350, a video It comprises a switching control unit 360 and the like.

【0022】操作履歴学習および収録用カメラ制御部1
04の処理は、カメラ操作履歴学習の処理と、収録
用カメラ制御の処理とに大別できる。以下、これらの処
理について順に説明する。
Operation history learning and recording camera control unit 1
The processing of step 04 can be broadly divided into camera operation history learning processing and recording camera control processing. Hereinafter, these processes will be described in order.

【0023】はじめに、カメラ操作履歴学習の処理につ
いて説明する。まず、手動操作部107から線120に
よって伝えられる手動操作信号を、そのまま線113を
通して収録用カメラ群102に伝えられるとともに、操
作履歴記録部310に保存する。操作の対象物状況との
関連付け部320は、操作履歴記録部310からこの手
動操作信号を入力とするとともに、観測映像解析部10
3から線112を通して与えられる情報、すなわち、対
象物の移動検出結果、移動対象物の種別、指示動作の検
出結果、および指示動作の種別を入力とする。該操作と
対象物状況との関連付け部320は、各手動操作と同じ
時刻に入力された観測映像解析部103からの情報との
関連付けを行って、その結果を関連出現頻度計測部33
0へ伝える。関連出現頻度計測部330では、この入力
される関連づけの出現頻度を計測し、予め定める出現頻
度を超える関連付けを検出し、該検出した結果を操作パ
ターン記録部340へ伝える。操作パターン記録部34
0では、検出された関連付けに対応した、カメラ手動操
作と、観測映像解析部103の出力である対象物の移動
検出結果、移動対象物の種別、指示動作の検出結果、お
よび指示動作の種別とのセットを内部に記録する。
First, the camera operation history learning process will be described. First, the manual operation signal transmitted by the line 120 from the manual operation unit 107 is transmitted to the recording camera group 102 through the line 113 as it is and stored in the operation history recording unit 310. The associating unit 320 with the operation target object state receives the manual operation signal from the operation history recording unit 310 and inputs the manual operation signal.
The information given from 3 through the line 112, that is, the detection result of the movement of the object, the type of the movement object, the detection result of the instruction operation, and the type of the instruction operation are input. The associating unit 320 for associating the operation with the object situation associates the information from the observation video analyzing unit 103 input at the same time as each manual operation, and associates the result with the related appearance frequency measuring unit 33.
Tell 0. The related appearance frequency measuring unit 330 measures the appearance frequency of the inputted association, detects an association exceeding a predetermined appearance frequency, and transmits the detected result to the operation pattern recording unit 340. Operation pattern recording unit 34
In the case of 0, the camera manual operation corresponding to the detected association, the movement detection result of the object output from the observation video analysis unit 103, the type of the movement object, the detection result of the instruction operation, and the type of the instruction operation Record the set internally.

【0024】以上の処理により、手動操作にもとづく観
測映像解析結果に対応したカメラワーク制御履歴学習の
記録が実現できる。
With the above processing, the recording of the camerawork control history learning corresponding to the result of the analysis of the observed video based on the manual operation can be realized.

【0025】次に、収録用カメラ制御等の処理について
説明する。実際の収録時、観測映像解析部103から、
時々刻々、線112を介して、対象物の移動検出結果、
移動対象物の種別、指示動作の検出結果、および指示動
作の種別が入力し、これが、そのまま、操作の対象物状
況と対応付け部320ならびに関連出現頻度計測部33
0を経由して、操作パターン記録部340へ伝えられ
る。操作パターン記録部340では、あらかじめ記録さ
れた情報の内、入力された情報に関連付けされた操作パ
ターンを読み出し、カメラ駆動制御部350や映像切り
替え制御部360へ伝える。カメラ駆動制御部350で
は、伝えられた操作パターンに対応したカメラ駆動制御
指示を線113に出力する。また、映像切り替え制御部
360では、対応する映像選択情報を線114へ出力す
る。さらに、映像切り替え制御部360へ伝えられる操
作パターンは、教材再生制御情報として線115にも出
力される。
Next, processing such as control of a recording camera will be described. At the time of actual recording, from the observation video analysis unit 103,
From time to time, the movement detection result of the object via the line 112,
The type of the moving object, the detection result of the instruction operation, and the type of the instruction operation are input, and these are directly input to the operation object state and the association unit 320 and the related appearance frequency measurement unit 33.
0 to the operation pattern recording unit 340. The operation pattern recording unit 340 reads out the operation pattern associated with the input information from the information recorded in advance, and transmits the operation pattern to the camera drive control unit 350 and the video switching control unit 360. The camera drive control unit 350 outputs a camera drive control instruction corresponding to the transmitted operation pattern to the line 113. Further, the video switching control unit 360 outputs the corresponding video selection information to the line 114. Further, the operation pattern transmitted to the video switching control unit 360 is also output to the line 115 as teaching material reproduction control information.

【0026】以上の処理により、収録用カメラ群105
に対し、観測された映像に対応した適切なカメラワーク
を自動的に駆動することが実現できるとともに、該収録
用カメラ群105の画像と講義中に使われる電子教材の
画像との切り替え制御が実現できる。
With the above processing, the recording camera group 105
In contrast to this, it is possible to automatically drive appropriate camera work corresponding to the observed video, and realize control of switching between the image of the recording camera group 105 and the image of the electronic teaching material used during the lecture. it can.

【0027】[0027]

【発明の効果】以上説明した如く、本発明によれば、専
任のカメラマンに準じたカメラワークの機械化を実現す
ることができ、これによって、講義収録時における大幅
な稼働削減を行うことが可能なライブ映像の自動収録が
実現できる。
As described above, according to the present invention, it is possible to realize the mechanization of the camera work according to the dedicated photographer, and thereby it is possible to greatly reduce the operation during the lecture recording. Automatic recording of live video can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例に係わるシステム構成図であ
る。
FIG. 1 is a system configuration diagram according to an embodiment of the present invention.

【図2】図1中の観測映像解析部の構成例を示す図であ
る。
FIG. 2 is a diagram illustrating a configuration example of an observation video analysis unit in FIG. 1;

【図3】図1中の操作履歴学習および収録用カメラ制御
部の構成例を示す図である。
FIG. 3 is a diagram showing a configuration example of a camera control unit for operation history learning and recording in FIG. 1;

【符号の説明】 101 収録対象被写体 102 観測用カメラ群 103 観測映像解析部 104 操作履歴学習および収録用カメラ制御部 105 収録用カメラ群 106 映像切り替え部 107 手動操作部 108 映像記録部 109 教材再生制御部 110 教材映写部 210 画像差分検出部 220 対象物検出部 230 対象物移動検出部 240 指示動作検出部 310 操作履歴記録部 320 操作と対象物状況との関連付け部 330 関連出現頻度計測部 340 操作パターン記録部 350 カメラ駆動制御部 360 映像切り替え制御部[Description of Signs] 101 Recording target object 102 Observation camera group 103 Observation video analysis unit 104 Operation history learning and recording camera control unit 105 Recording camera group 106 Video switching unit 107 Manual operation unit 108 Video recording unit 109 Teaching material playback control Unit 110 Teaching material projection unit 210 Image difference detection unit 220 Object detection unit 230 Object movement detection unit 240 Pointing operation detection unit 310 Operation history recording unit 320 Associating unit between operation and object situation 330 Related occurrence frequency measurement unit 340 Operation pattern Recording unit 350 Camera drive control unit 360 Image switching control unit

フロントページの続き (72)発明者 藤原 進 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 (72)発明者 辻本 雅彦 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 Fターム(参考) 5C022 AA01 AB36 AB63 AB65 AB66 AC69 CA02 5C053 GB19 LA01 LA06 5C054 AA01 CG06 CG08 FE24 FF03 GA01 GB02 GD04 HA31 Continuation of front page (72) Inventor Susumu Fujiwara 2-3-1 Otemachi, Chiyoda-ku, Tokyo Nippon Telegraph and Telephone Corporation (72) Inventor Masahiko Tsujimoto 2-3-1 Otemachi, Chiyoda-ku, Tokyo Sun F Term (Reference) 5C022 AA01 AB36 AB63 AB65 AB66 AC69 CA02 5C053 GB19 LA01 LA06 5C054 AA01 CG06 CG08 FE24 FF03 GA01 GB02 GD04 HA31

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 講師による教示がなされる空間で、1台
以上の収録用カメラを用いて映像および音声を収録する
方法において、 前記講師による教示がなされる空間を観測するための観
測用カメラを用意し、観測用カメラ映像から、講師、そ
の他の対象物に関して、位置、移動方向、動作に関する
情報を抽出し、該抽出した情報に基づき、収録用カメラ
に対するカメラワーク制御と電子化教材の再生制御を行
い、収録用カメラ映像と電子化教材の再生映像を選択
し、該選択した映像および付随する音声の記録を行うこ
とを特徴とするライブ映像の自動収録方法。
1. A method of recording video and audio using one or more recording cameras in a space where the instructor teaches, comprising: an observing camera for observing the space where the instructor teaches; Prepare, extract information on the position, moving direction, and movement of the lecturer and other objects from the observation camera video, and control camera work for the recording camera and playback control of digitized teaching materials based on the extracted information. A live video recording method, wherein a recording camera video and a playback video of an electronic teaching material are selected, and the selected video and accompanying audio are recorded.
【請求項2】 請求項1記載のライブ映像の自動収録方
法において、 あらかじめ、人手によるカメラ操作履歴を入力し、該人
手によるカメラ操作履歴と観測用カメラ映像から抽出さ
れる情報とを関連付け、その結果を蓄積し、実際の収録
時に、観測用カメラ映像から抽出された情報と関連付け
されたカメラ操作情報を読み出し、収録用カメラを制御
することを特徴とするライブ映像の自動収録方法。
2. A method for automatically recording live video according to claim 1, wherein a history of manual camera operation is input in advance, and the manual camera operation history is associated with information extracted from the observation camera video. A method for automatically recording live video, comprising storing results, reading out camera operation information associated with information extracted from observational camera video during actual recording, and controlling the recording camera.
【請求項3】 講師による教示がなされる空間で、1台
以上の収録用カメラを用いて映像および音声を収録する
装置において、 前記講師による教示がなされる空間を観測するための観
測用カメラと、 観測用カメラ映像から、講師、その他の対象物に関し
て、位置、移動方向、動作に関する情報を抽出する手段
と、 前記抽出された情報に基づき、収録用カメラに対するカ
メラワーク制御と電子化教材の再生制御を行う手段と、 収録用カメラ映像と電子化教材の再生映像を選択する手
段と、 前記選択された映像および付随する音声の記録を行う手
段と、 を備えたことを特徴とするライブ映像の自動収録装置。
3. An apparatus for recording video and audio using one or more recording cameras in a space where the instructor teaches, wherein an observation camera for observing the space where the instructor teaches is provided. Means for extracting information on the position, moving direction, and movement of the lecturer and other objects from the observation camera video, and camera work control for the recording camera and reproduction of the electronic teaching materials based on the extracted information. Means for controlling, a means for selecting a playback camera video and a playback video of the digitized teaching material, and a means for recording the selected video and accompanying audio. Automatic recording device.
【請求項4】 請求項3記載のライブ映像の自動収録装
置において、あらかじめ、人手によるカメラ操作履歴を
入力する手段と、前記人手によるカメラ操作履歴と観測
用カメラ映像から抽出された情報とを関連付ける手段
と、前記関連付された結果を蓄積する手段と、実際の収
録時に、観測用カメラの映像から抽出された情報と関連
付けされたカメラ操作情報を読み出し、収録用カメラを
制御する手段とを有することを特徴とするライブ映像の
自動収録装置。
4. A live video automatic recording apparatus according to claim 3, wherein means for inputting a manual camera operation history in advance is associated with the manual camera operation history and information extracted from the observation camera video. Means, means for accumulating the associated results, and means for reading camera operation information associated with information extracted from the video of the observation camera during actual recording and controlling the recording camera. An automatic recording device for live video.
JP2000078781A 2000-03-21 2000-03-21 Method and device for automatically recording live image Pending JP2001268562A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000078781A JP2001268562A (en) 2000-03-21 2000-03-21 Method and device for automatically recording live image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000078781A JP2001268562A (en) 2000-03-21 2000-03-21 Method and device for automatically recording live image

Publications (1)

Publication Number Publication Date
JP2001268562A true JP2001268562A (en) 2001-09-28

Family

ID=18596144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000078781A Pending JP2001268562A (en) 2000-03-21 2000-03-21 Method and device for automatically recording live image

Country Status (1)

Country Link
JP (1) JP2001268562A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014529930A (en) * 2011-08-05 2014-11-13 フォックス スポーツ プロダクションズ,インコーポレイティッド Selective capture and display of a portion of a native image
WO2020100438A1 (en) * 2018-11-13 2020-05-22 ソニー株式会社 Information processing device, information processing method, and program
US11039109B2 (en) 2011-08-05 2021-06-15 Fox Sports Productions, Llc System and method for adjusting an image for a vehicle mounted camera
US11159854B2 (en) 2014-12-13 2021-10-26 Fox Sports Productions, Llc Systems and methods for tracking and tagging objects within a broadcast
US11758238B2 (en) 2014-12-13 2023-09-12 Fox Sports Productions, Llc Systems and methods for displaying wind characteristics and effects within a broadcast

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014529930A (en) * 2011-08-05 2014-11-13 フォックス スポーツ プロダクションズ,インコーポレイティッド Selective capture and display of a portion of a native image
US10939140B2 (en) 2011-08-05 2021-03-02 Fox Sports Productions, Llc Selective capture and presentation of native image portions
US11039109B2 (en) 2011-08-05 2021-06-15 Fox Sports Productions, Llc System and method for adjusting an image for a vehicle mounted camera
US11490054B2 (en) 2011-08-05 2022-11-01 Fox Sports Productions, Llc System and method for adjusting an image for a vehicle mounted camera
US11159854B2 (en) 2014-12-13 2021-10-26 Fox Sports Productions, Llc Systems and methods for tracking and tagging objects within a broadcast
US11758238B2 (en) 2014-12-13 2023-09-12 Fox Sports Productions, Llc Systems and methods for displaying wind characteristics and effects within a broadcast
WO2020100438A1 (en) * 2018-11-13 2020-05-22 ソニー株式会社 Information processing device, information processing method, and program
CN112997214A (en) * 2018-11-13 2021-06-18 索尼公司 Information processing apparatus, information processing method, and program
US20210281745A1 (en) * 2018-11-13 2021-09-09 Sony Corporation Information processing apparatus, information processing method, and program
JP7472795B2 (en) 2018-11-13 2024-04-23 ソニーグループ株式会社 Information processing device, information processing method, and program
CN112997214B (en) * 2018-11-13 2024-04-26 索尼公司 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US20060005136A1 (en) Portable solution for automatic camera management
CN110010164B (en) Multi-channel audio and video automatic intelligent editing method
EP0720109B1 (en) Multimedia program indexing system and method
KR100883066B1 (en) Apparatus and method for displaying object moving path using text
US20010028394A1 (en) Electronic photography system
US20080005418A1 (en) Interactive interface for electronic devices
CN104378547B (en) Imaging device, image processing equipment, image processing method and program
JPH05300426A (en) Device and method for processing video signal by interactively operating menu using computer
MXPA05010595A (en) Automatic face extraction for use in recorded meetings timelines.
US20060184497A1 (en) Network-information-processing system and information-processing method
CN103248815A (en) Image pickup apparatus and image pickup method
CN101330573A (en) Image processing apparatus, image processing method and program
JP2007127853A (en) Fine art tutoring system using network
US4346403A (en) Process and device for producing animated cartoons
JP2001268562A (en) Method and device for automatically recording live image
Lampi et al. An automatic cameraman in a lecture recording system
US10573193B2 (en) Video authoring and simulation training tool
Kameda et al. CARMUL: Concurrent automatic recording for multimedia lecture
US5594513A (en) System for motion picture film previewing
Lampi et al. A virtual camera team for lecture recording
JP4185376B2 (en) Image processing system
JPH03273363A (en) Content list display system for moving image
JP4175622B2 (en) Image display system
US20170069354A1 (en) Method, system and apparatus for generating a position marker in video images
JPH10224735A (en) Image processor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040817