JP2007158680A - Tracking imaging apparatus and tracking imaging system utilizing it - Google Patents

Tracking imaging apparatus and tracking imaging system utilizing it Download PDF

Info

Publication number
JP2007158680A
JP2007158680A JP2005350674A JP2005350674A JP2007158680A JP 2007158680 A JP2007158680 A JP 2007158680A JP 2005350674 A JP2005350674 A JP 2005350674A JP 2005350674 A JP2005350674 A JP 2005350674A JP 2007158680 A JP2007158680 A JP 2007158680A
Authority
JP
Japan
Prior art keywords
subject
image
tracking
view
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005350674A
Other languages
Japanese (ja)
Inventor
Yoko Mitsugi
洋子 三次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2005350674A priority Critical patent/JP2007158680A/en
Publication of JP2007158680A publication Critical patent/JP2007158680A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a tracking imaging apparatus capable of performing photographing without missing even important information present in the background of an object and photographing video images easily visible for a viewer, and a tracking imaging system utilizing it. <P>SOLUTION: The tracking imaging apparatus comprises: an object detection part 202 for detecting the position of the object from an image for which a part within a specified reference viewing angle is photographed; a gesture detection part 203 for detecting a position where a specified gesture indicating an optional place by the object is performed; a graphic detection part 205 for detecting the position of an indication region which is a region where meaningful information indicated by the gesture is gathered; and an image segmentation part 209 for extracting a display viewing angle for which the center of the specified position of the object and the position of the indication region is the centroid from the photographed image. The images of the object and the important information present in the background of the object are obtained. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、特定の被写体を検出するとともに追尾して撮影する追尾撮像装置およびこれを利用した追尾撮像システムに関する。   The present invention relates to a tracking imaging apparatus that detects and tracks a specific subject and a tracking imaging system using the tracking imaging apparatus.

近年、大学や予備校などでは、講義の風景を撮影した映像を衛星やインターネットを介して遠隔地にいる受講者が受信して視聴するような遠隔講義が行われている。特に最近における生涯学習がさかんになるにつれて、その需要が増えてきている。   In recent years, universities and prep schools have conducted remote lectures in which students in remote locations receive and view videos of lecture scenes via satellite or the Internet. In particular, the demand for lifelong learning has increased as recent lifelong learning has become more prominent.

従来の遠隔講義は、テレビ放送の製作会社などが作成したプログラム番組の中で行われるものや、大手の予備校が衛星回線を使用して行うサテライト講義など多大な費用や手間がかかる大規模なものが多かったが、近年はインターネットの普及および接続回線のブロードバンド化により撮影した講義風景の映像を安価で容易に受講者に配信することが可能になっている。   Conventional distance lectures are large-scale programs that are expensive and time-consuming, such as those that are conducted in program programs created by TV broadcast production companies, satellite lectures that are conducted by major prep schools using satellite links, etc. In recent years, however, it has become possible to distribute lecture scenes taken by the Internet at low cost and easily to students due to the widespread use of the Internet and broadband connection lines.

これらの遠隔講義の映像を撮影する際は、講師が自在に移動したり、黒板やスクリーンに写し出された資料や機材など(以下、「講義情報」と称する)を使用したりする状況に伴って撮像装置の向きを変えるパン、チルト機能やズーム機能などの操作が必要となる。しかし、これらの機能操作は手動で行われており、手間がかかるものであった。このとき、常に講師と講義情報とがすべて画角に入るように広いエリアを撮影すれば操作の手間はかからないが、講義情報の細部などが画面上で見づらくなるため、適宜カメラの向きやズーム倍率を変更して撮影する必要がある。   When shooting these remote lecture videos, the instructor can move freely or use materials and equipment (hereinafter referred to as “lecture information”) on the blackboard or screen. Operations such as panning, tilting and zooming functions that change the orientation of the imaging device are required. However, these functional operations are performed manually, and it takes time and effort. At this time, if you shoot a wide area so that the lecturer and lecture information are all within the angle of view, it will not take time to operate, but the details of the lecture information will be difficult to see on the screen. It is necessary to change and shoot.

このようなパン、チルト、ズーム機能の操作を自動化する技術が特許文献1および特許文献2に記載されている。   Techniques for automating such pan, tilt and zoom functions are described in Patent Document 1 and Patent Document 2.

特許文献1には、教壇など撮影すべきエリアをすべて収める広角カメラと、駆動部を持ちターゲット(被写体)を追尾して撮影する追尾カメラとを配置することにより、広角カメラで検出したターゲットの重心が画角の中心となるように追尾カメラでズーム拡大して撮影する技術が記載されている。   Patent Document 1 discloses a center of gravity of a target detected by a wide-angle camera by arranging a wide-angle camera that accommodates all areas to be photographed such as a platform and a tracking camera that has a drive unit and tracks a target (subject). Describes a technique for zooming and shooting with a tracking camera so that is at the center of the angle of view.

この特許文献1の技術により、講師などの被写体をカメラが自動で認識するため、人的な手間を大幅に削減して拡大された被写体を撮影することができる。   With the technique of this patent document 1, since the camera automatically recognizes a subject such as an instructor, it is possible to photograph an enlarged subject while greatly reducing human labor.

また、特許文献2には、予めいくつかのショット(撮影画角)を登録しておき、撮影により検出した被写体の重心座標に基づいて、被写体が撮影画角に収まるようなショットを登録されたショットの中から選出し、そのショットで撮影を行う技術が記載されている。   Also, in Patent Document 2, several shots (shooting angle of view) are registered in advance, and shots in which the subject is within the shooting angle of view are registered based on the barycentric coordinates of the subject detected by shooting. A technique for selecting from shots and shooting with the shots is described.

この特許文献2の技術により、カメラの動作を極力少なくして、見やすい映像により被写体を自動追尾して撮影することが可能になる。
特開2004−289779号公報 特開2001−160916号公報
According to the technique of Patent Document 2, it is possible to automatically shoot and shoot a subject with an easy-to-view image while minimizing camera operation.
JP 2004-28979 A JP 2001-160916 A

しかし、上記の特許文献1の技術は、広角カメラと追尾カメラとの2台のカメラを使用するため、システムが大掛かりになり設定が複雑になるという問題があった。また、この技術では被写体の重心位置が画面の中心になるように追尾カメラで追尾を行っているので、被写体をはっきりと映すことが重要である監視用カメラなどには適している。しかし、講義のように被写体として認識される講師の背景にある講義情報も重要な情報であるようなものの撮影には適さない場合があるという問題があった。   However, the technique disclosed in Patent Document 1 uses two cameras, a wide-angle camera and a tracking camera, and thus has a problem that the system becomes large and the setting is complicated. Also, with this technique, tracking is performed by a tracking camera so that the center of gravity of the subject is at the center of the screen, so it is suitable for monitoring cameras and the like where it is important to clearly show the subject. However, there is a problem that the lecture information in the background of the instructor recognized as the subject like the lecture is also important information, but may not be suitable for photographing.

また、特許文献2の技術は、予め登録された撮影画角で撮影が行われるため、講師がダイナミックに移動したときや異なる撮影画角の境界付近にいるときには、多少の撮影画角の重なりをオーバーラップエリアとして考慮したとしても講師の少しの動きで撮影画角が頻繁に切り替わり、受講者に見づらい映像になってしまう可能性があるという問題があった。   In addition, since the technique of Patent Document 2 performs shooting at a pre-registered shooting angle of view, when the instructor moves dynamically or is near the boundary of different shooting angle of view, there is a slight overlap of the shooting angle of view. Even if it is considered as an overlap area, there is a problem that the shooting angle of view is frequently switched by a slight movement of the instructor, which may make it difficult for the student to view.

そこで、本発明は、上記事情に鑑みてなされたものであり、被写体の背景にある重要な情報も逃さず撮影するとともに、見やすい映像を撮影することができる追尾撮像装置およびこれを利用した追尾撮像システムを提供することを目的とする。   Accordingly, the present invention has been made in view of the above circumstances, and a tracking imaging device capable of capturing important information in the background of the subject without missing the image and capturing an easy-to-view video, and tracking imaging using the imaging device The purpose is to provide a system.

上記目的を達成するための本発明の請求項1に記載の追尾撮像装置は、追尾撮影エリア内を移動する人物を第1被写体として追尾して撮影するとともに、追尾撮影エリア内の重要背景エリア内にある第2被写体を撮影するカメラ部を備えたものであり、カメラ部が、追尾撮影エリア内を撮影して得られた画像から第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、検出された第1被写体が重要背景エリア内の任意の位置を差し示す所定のジェスチャを検出するとともに、検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、取得された位置座標に基づいて第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、第1及び第2被写体の画像を所定の画角で撮影画像から抽出する画像切り出し部とを備えたことを特徴とする。   In order to achieve the above object, a tracking imaging apparatus according to claim 1 of the present invention tracks and photographs a person moving in a tracking shooting area as a first subject, and in an important background area in the tracking shooting area. And a camera unit that shoots the second subject, and the camera unit detects the first subject from an image obtained by photographing the inside of the tracking shooting area, and also detects the detected first subject. The subject detection unit that acquires the center-of-gravity position coordinates, the detected first subject detects a predetermined gesture indicating an arbitrary position in the important background area, and the position coordinates of the position pointed to by the detected gesture And a gesture detection unit for acquiring a second object based on the acquired position coordinates and a graphic detection for acquiring the center-of-gravity position coordinates of the detected second object. And an image cutout unit that extracts the first and second subject images from the captured image at a predetermined angle of view, with the midpoint coordinates of the center-of-gravity position coordinates of the acquired first and second subjects as the center of the angle of view. It is characterized by comprising.

また、請求項2は請求項1に記載の追尾撮像装置であり、被写体検出部は、画像切り出し部から抽出された第1画像から検出した第1被写体の重心位置座標と、第1画像よりも後に撮影されて抽出された第2画像から検出した第1被写体の重心位置座標との距離が、あらかじめ設定された移動許容値以下である場合は、第2画像の画角を第1画像の画角と同一にするように構成したことを特徴とする。   Moreover, Claim 2 is the tracking imaging device according to Claim 1, wherein the subject detection unit has a position of the center of gravity of the first subject detected from the first image extracted from the image cutout unit and the first image. If the distance from the center of gravity position coordinate of the first subject detected from the second image captured and extracted later is equal to or smaller than a preset movement allowable value, the angle of view of the second image is set to the angle of the first image. It is characterized by being configured to be the same as the corner.

また、請求項3に記載の追尾撮像装置は、追尾撮影エリア内を移動する人物を第1被写体として追尾して撮影するとともに、追尾撮影エリア内の重要背景エリア内にある第2被写体を撮影するパン、チルト、及びズーム機能を有するカメラ部を備えたものであり、カメラ部が、追尾撮影エリア内を撮影して得られた画像から第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、検出された第1被写体が重要背景エリア内の任意の位置を指し示す所定のジェスチャを検出するとともに、検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、取得された位置座標に基づいて第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、パン、チルト、及びズームのうち少なくとも一の撮影制御機能により、第1及び第2被写体の画像を所定の画角で撮影するようにカメラ部を制御するカメラ制御部とを備えたことを特徴とする。   In addition, the tracking imaging device according to claim 3 shoots a person who moves in the tracking shooting area as a first subject, and shoots a second subject in an important background area in the tracking shooting area. A camera unit having pan, tilt, and zoom functions is provided. The camera unit detects a first subject from an image obtained by shooting the tracking shooting area, and the detected first subject. A subject detection unit that acquires the center-of-gravity position coordinates, a predetermined gesture in which the detected first subject indicates an arbitrary position in the important background area, and the position coordinates of the position indicated by the detected gesture And detecting the second subject based on the acquired position coordinates and acquiring the center-of-gravity position coordinates of the detected second subject The first and second imaging detection functions, and at least one shooting control function of pan, tilt, and zoom, with the midpoint coordinates of the center of gravity coordinates of the acquired first and second subjects as the center of the angle of view, And a camera control unit that controls the camera unit so as to capture an image of the second subject at a predetermined angle of view.

また、請求項4は請求項3に記載の追尾撮像装置は、被写体検出部は、カメラ制御部の制御によってカメラ部で撮影された第1画像から検出した第1被写体の重心位置座標と、第1画像よりも後に撮影されて抽出された第2画像から検出した第1被写体の重心位置座標との距離が、あらかじめ設定された移動許容値以下である場合は、第2画像の画角を第1画像の画角と同一にするように構成したことを特徴とする。   According to a fourth aspect of the present invention, in the tracking imaging device according to the third aspect, the subject detection unit includes the coordinates of the center of gravity of the first subject detected from the first image captured by the camera unit under the control of the camera control unit, If the distance from the center of gravity position coordinate of the first subject detected from the second image captured and extracted after the first image is equal to or smaller than a preset movement allowable value, the angle of view of the second image is set to the first angle. It is characterized by being configured to have the same angle of view as one image.

また、請求項5に記載の追尾撮像システムは、追尾撮影エリア内を移動する人物を第1被写体として追尾して撮影するとともに、追尾撮影エリア内の重要背景エリア内にある第2被写体を撮影するカメラ部を備えた追尾撮像装置と、カメラ部で撮影された画像を表示する表示端末とがネットワークを介してそれぞれ接続されたものであり、追尾撮像装置は、カメラ部が、追尾撮影エリア内を撮影して得られた画像から第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、検出された第1被写体が重要背景エリア内の任意の位置を差し示す所定のジェスチャを検出するとともに、検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、取得された位置座標に基づいて第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、第1及び第2被写体の画像を所定の画角で撮影画像から抽出する画像切り出し部と、抽出された画像をネットワークに送出するための通信制御部とを備えるとともに、表示端末は、追尾撮像装置から送出された画像を受信する通信制御部と、受信された画像を表示出力する出力部とを備えたことを特徴とする。   According to a fifth aspect of the present invention, the tracking imaging system tracks and photographs a person moving in the tracking shooting area as a first subject and also images a second subject in an important background area in the tracking shooting area. A tracking imaging device including a camera unit and a display terminal that displays an image captured by the camera unit are connected to each other via a network. A subject detection unit that detects a first subject from an image obtained by photographing and acquires the center-of-gravity position coordinates of the detected first subject, and an arbitrary position in the important background area where the detected first subject is detected A gesture detection unit that detects a predetermined gesture indicating the position and acquires the position coordinates of the position pointed to by the detected gesture, and the acquired position coordinates Based on the figure detection unit that detects the second subject based on the detected position and obtains the center-of-gravity position coordinates of the detected second subject and the midpoint coordinates of the obtained center-of-gravity position coordinates of the first and second subjects. And a communication control unit for sending out the extracted image to the network, and a display terminal including an image cutout unit that extracts the first and second subject images from the captured image at a predetermined angle of view. A communication control unit that receives an image transmitted from the tracking imaging device and an output unit that displays and outputs the received image are provided.

また、請求項6に記載の追尾撮像システムは、追尾撮影エリア内を移動する人物を第1被写体として追尾して撮影するとともに、追尾撮影エリア内の重要背景エリア内にある第2被写体を撮影するパン、チルト、及びズーム機能を有するカメラ部を備えた追尾撮像装置と、カメラ部で撮影された画像を表示する表示端末とがネットワークを介してそれぞれ接続されたものであり、追尾撮像装置は、カメラ部が、追尾撮影エリア内を撮影して得られた画像から第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、検出された第1被写体が重要背景エリア内の任意の位置を指し示す所定のジェスチャを検出するとともに、検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、取得された位置座標に基づいて第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、パン、チルト、及びズームのうち少なくとも一の撮影制御機能により、第1及び第2被写体の画像を所定の画角で撮影するようにカメラ部を制御するカメラ制御部と、撮影された画像をネットワークに送出するための通信制御部とを備えるとともに、表示端末は、追尾撮像装置から送出された画像を受信する通信制御部と、受信された画像を表示出力する出力部とを備えたことを特徴とする。   According to a sixth aspect of the present invention, the tracking imaging system tracks a person moving in the tracking shooting area as a first subject and shoots a second subject in an important background area in the tracking shooting area. A tracking imaging device including a camera unit having pan, tilt, and zoom functions and a display terminal that displays an image captured by the camera unit are respectively connected via a network. A camera unit detects a first subject from an image obtained by imaging the tracking shooting area, and a subject detection unit that acquires the coordinates of the center of gravity of the detected first subject, and the detected first subject Detects a predetermined gesture that points to an arbitrary position in the important background area and obtains the position coordinates of the position pointed to by the detected gesture. While detecting a 2nd subject based on the acquired position coordinate, the figure detection part which acquires the gravity center position coordinate of this detected 2nd subject, and the acquired 1st and 2nd subject's A camera that captures images of the first and second subjects at a predetermined angle of view by using at least one shooting control function among pan, tilt, and zoom with the center point coordinate of each barycentric position coordinate as the center of the angle of view. And a communication control unit for sending the captured image to the network, and the display terminal is received by the communication control unit for receiving the image sent from the tracking imaging device. And an output unit for displaying and outputting the displayed image.

本発明の追尾撮像装置およびこれを利用した追尾撮像システムによれば、被写体の背景にある重要な情報も確実に逃さず捉えることができ、見やすく且つ講義など内容の把握に効果的な映像を撮影することができる。   According to the tracking imaging apparatus of the present invention and the tracking imaging system using the tracking imaging apparatus, it is possible to capture important information in the background of the subject without fail, and to capture a video that is easy to view and effective in grasping the contents such as a lecture. can do.

《第1実施形態》
本発明の第1実施形態による追尾撮像装置は、遠隔講義などに利用するための講義の映像を撮影し、検出した被写体を中心とした画角を切り出して表示するものである。
<< First Embodiment >>
The tracking imaging device according to the first embodiment of the present invention captures a video of a lecture for use in a remote lecture and cuts and displays an angle of view centered on the detected subject.

〈第1実施形態による追尾撮像装置の構成〉
本実施形態による追尾撮像装置1の構成を、図1〜図3を用いて説明する。図1は、本実施形態による追尾撮像装置1の構成を示すブロック図である。図2は、本実施形態による追尾撮像装置1により撮影が行われる空間を示す説明図であり、図3は、図2の空間内で実際に撮影が行われるエリアを示す説明図である。
<Configuration of Tracking Imaging Device according to First Embodiment>
The configuration of the tracking imaging device 1 according to the present embodiment will be described with reference to FIGS. FIG. 1 is a block diagram illustrating a configuration of a tracking imaging apparatus 1 according to the present embodiment. FIG. 2 is an explanatory diagram showing a space where shooting is performed by the tracking imaging apparatus 1 according to the present embodiment, and FIG. 3 is an explanatory diagram showing an area where shooting is actually performed in the space of FIG.

本実施形態による追尾撮像装置1は、空間30内の講義が行われる教壇がすべて含まれる基準画角301で撮影するカメラ部10と、カメラ部10で撮影した映像を処理する制御端末20とを有する。   The tracking imaging device 1 according to the present embodiment includes a camera unit 10 that captures images with a reference angle of view 301 that includes all the texts in which lectures in the space 30 are performed, and a control terminal 20 that processes the images captured by the camera unit 10. Have.

カメラ部10は、人物(第1被写体)を撮影するとともに実際にモニタなどに表示する講義の映像よりも高解像度な映像の撮影が可能であり、撮影された黒板などに書かれた文字や図、スクリーンに映し出された資料、必要な機材などの講義情報(第2被写体)をユーザが認識可能な状態に表示できる解像度で撮影する。   The camera unit 10 is capable of shooting a person (first subject) and shooting a video with a resolution higher than that of a lecture video that is actually displayed on a monitor or the like. Shooting is performed at a resolution that allows the user to recognize the lecture information (second subject) such as the materials displayed on the screen and the necessary equipment.

制御端末20は、プリセット部201と、被写体検出部202と、ジェスチャ検出部203と、カメラ制御部204と、図形検出部205と、表示部206と、入力部207と、記憶装置208と、画像切り出し部209と、スケーリング部210と、制御部211とを有する。   The control terminal 20 includes a preset unit 201, a subject detection unit 202, a gesture detection unit 203, a camera control unit 204, a graphic detection unit 205, a display unit 206, an input unit 207, a storage device 208, an image, A cutout unit 209, a scaling unit 210, and a control unit 211 are included.

プリセット部201は、被写体の検出および追尾を行う追尾エリア302の設定と、この追尾エリア302内で講義情報が含まれる重要背景エリア303の設定と、講義風景を遠隔地などのモニタやスクリーンに表示するための画像として、撮影した画像から被写体および後述する指示領域などの対象物部分を切り出す範囲である表示画角と、実際にモニタなどにスケーリングして表示を行う際の映像のサイズである表示画角サイズの設定とを含む初期設定を行う。   The preset unit 201 sets a tracking area 302 for detecting and tracking a subject, sets an important background area 303 including lecture information in the tracking area 302, and displays a lecture scene on a monitor or screen such as a remote place. Display angle of view, which is a range in which a subject and a target portion such as an instruction area described later are cut out from the captured image, and a display size that is actually scaled and displayed on a monitor Performs initial settings including angle of view settings.

被写体検出部202は、指定されたエリア内を撮影して得られた画像において追尾エリア302内に入った第1被写体の検出を行うとともに、検出された第1被写体の位置を特定する。   The subject detection unit 202 detects the first subject that has entered the tracking area 302 in the image obtained by photographing the designated area, and specifies the position of the detected first subject.

ジェスチャ検出部203は、検出された第1被写体による重要背景エリア303内の任意の場所を指し示す特定のジェスチャを検出するとともに、検出されたジェスチャによって指し示された位置の位置座標を取得する。   The gesture detection unit 203 detects a specific gesture indicating an arbitrary place in the important background area 303 by the detected first subject, and acquires the position coordinates of the position indicated by the detected gesture.

カメラ制御部204は、カメラ部10の起動、撮影の開始および停止等を制御する。   The camera control unit 204 controls activation of the camera unit 10, start and stop of photographing, and the like.

図形検出部205は、特定されたジェスチャが行われた位置から、重要背景エリア303内にあるユーザに必要な講義情報のうちジェスチャにより指し示された意味のある情報が集合した領域を指示領域として検出するとともに、この指示領域の重心位置座標を取得する。   The figure detection unit 205 uses, as an instruction area, an area in which meaningful information indicated by the gesture is gathered from lecture information necessary for the user in the important background area 303 from the position where the specified gesture is performed. In addition to detection, the center-of-gravity position coordinates of the designated area are acquired.

表示部206は、撮影した映像を確認のためなどに表示する。   The display unit 206 displays the captured video for confirmation.

入力部207は、プリセット部201で行う設定や撮影の開始および停止などの命令を入力する。   The input unit 207 inputs commands such as settings made by the preset unit 201 and start / stop of shooting.

記憶装置208は、プリセット部201で行った設定内容や撮影した映像データを記録する。   The storage device 208 records the settings made by the preset unit 201 and the captured video data.

画像切り出し部209は、撮影した基準画角301のフレーム画像から被写体304や指示領域が映っている部分など必要な情報を含む表示画角を所定の画角で撮影画像から抽出する。   The image cutout unit 209 extracts a display field angle including necessary information such as a portion where the subject 304 and the instruction area are reflected from the captured image at a predetermined field angle from the captured frame image of the reference field angle 301.

スケーリング部210は、画像切り出し部209で切り出された表示画角がプリセット部201で設定された表示画角サイズと異なる場合に切り出された表示画角の画像サイズの調整を行う。   The scaling unit 210 adjusts the image size of the clipped display angle of view when the display angle of view cut out by the image cutout unit 209 is different from the display angle of view set by the preset unit 201.

制御部211は、上記のプリセット部201〜スケーリング部210を制御する。   The control unit 211 controls the preset unit 201 to the scaling unit 210 described above.

〈第1実施形態による追尾撮像装置の動作〉
本発明の第1実施形態による追尾撮像装置1の動作を、図4〜図7のフローチャートを参照して説明する。
<Operation of Tracking Imaging Device According to First Embodiment>
The operation of the tracking imaging apparatus 1 according to the first embodiment of the present invention will be described with reference to the flowcharts of FIGS.

まず、制御端末20のプリセット部201で行われる初期設定の動作について図4を参照して説明する。   First, an initial setting operation performed by the preset unit 201 of the control terminal 20 will be described with reference to FIG.

図2に示す教室などのような空間30で被写体の検出、追尾を行いたいエリア、例えば講義を行う教壇がすべて含まれる画像が撮影できる場所にカメラ部10が設置され、その画角が基準画角301として図3のように設定される(S401)。   A camera unit 10 is installed in an area in which a subject 30 is to be detected and tracked, such as a classroom shown in FIG. The corner 301 is set as shown in FIG. 3 (S401).

次に、図3の基準画角301内で被写体の検出および追尾が行われる領域が、追尾エリア302として設定される(S402)。   Next, an area where subject detection and tracking are performed within the reference angle of view 301 in FIG. 3 is set as the tracking area 302 (S402).

次に、設定された追尾エリア302内で講義情報が含まれる領域が、重要背景エリア303として設定される(S403)。   Next, an area including lecture information in the set tracking area 302 is set as the important background area 303 (S403).

さらに、この講義風景が遠隔地などのモニタやスクリーンに表示されるときの画角であり、検出した被写体および指示領域などの対象物を切り出す範囲である表示画角と、その表示時の解像度になる表示画角サイズが設定される(S404)。このとき、表示画角サイズ≦カメラの解像度サイズとなるように設定される。   Furthermore, this is the angle of view when this lecture landscape is displayed on a monitor or screen at a remote location, etc., and the display angle of view that is the range to cut out the detected object and target area, etc., and the resolution at the time of display Is set (S404). At this time, the display angle of view is set so that the resolution size of the camera is satisfied.

さらに、表示画角が切り出された画像である第1画像で検出された被写体の位置と、この第1画像よりも後に撮影された第2画像で検出された被写体の位置との移動距離が所定値(移動許容値)以下のときには表示画角が変わらないように、被写体の移動許容量が設定される。これは、被写体の微量の移動によって頻繁に表示画角が変わると見る人にとって見づらい映像になるためである。この移動許容量は、想定される被写体の動作スピードおよび移動量によって設定値が定められる。   Further, the moving distance between the position of the subject detected in the first image, which is an image from which the display angle of view has been cut out, and the position of the subject detected in the second image taken after the first image is predetermined. When the value is less than the value (movement allowable value), the movement allowable amount of the subject is set so that the display angle of view does not change. This is because if the display angle of view frequently changes due to a small amount of movement of the subject, the image becomes difficult for the viewer to see. The allowable movement amount is determined by a set value based on an assumed operation speed and movement amount of the subject.

これらのステップS401〜ステップS404の初期設定は入力部207により行われ、記憶装置208に記憶される。   These initial settings in steps S401 to S404 are performed by the input unit 207 and stored in the storage device 208.

次に、カメラ部10で行われる講義の撮影の動作について図5、6、8を参照して説明する。   Next, lecture shooting operations performed by the camera unit 10 will be described with reference to FIGS.

まず、制御端末20のカメラ制御部204によりカメラ部10が起動されると(S410の「Yes」)、図6のフローチャートに従って撮影処理(A)が行われる(S411)。図6の撮影処理(A)について説明する。   First, when the camera unit 10 is activated by the camera control unit 204 of the control terminal 20 (“Yes” in S410), the photographing process (A) is performed according to the flowchart of FIG. 6 (S411). The photographing process (A) in FIG. 6 will be described.

カメラ部10が起動されると、まず基準画角301の撮影が開始される(S412)。ここでは基準画角301全体が表示画角として設定され(S413)、被写体検出部202により追尾エリア302内での被写体304の検出が行われる(S414)。   When the camera unit 10 is activated, first, shooting of the reference field angle 301 is started (S412). Here, the entire reference field angle 301 is set as the display field angle (S413), and the subject 304 is detected in the tracking area 302 by the subject detection unit 202 (S414).

追尾エリア302内に誰も存在せず、被写体検出部202において被写体未検出の間(S414の「No」)は、ステップS413に戻りそのまま基準画角301全体が表示画角として設定されるとともに、後述する保存処理(B)に従って撮影された画像が記憶装置208に保存される。   While there is no one in the tracking area 302 and the subject is not detected by the subject detection unit 202 (“No” in S414), the process returns to step S413 and the entire reference angle of view 301 is set as the display angle of view. An image taken in accordance with a save process (B) described later is saved in the storage device 208.

追尾エリア302内に被写体304が入り、被写体検出部202により被写体304が検出されたときは(S414の「Yes」)、この被写体304の位置304Aおよび被写体304の重心位置305Aが求められる(S415)。   When the subject 304 enters the tracking area 302 and the subject detection unit 202 detects the subject 304 (“Yes” in S414), the position 304A of the subject 304 and the gravity center position 305A of the subject 304 are obtained (S415). .

次に、ジェスチャ検出部203により被写体304による特定のジェスチャの検出が行われる(S416)。ここで言う特定のジェスチャとは、被写体304が重要背景内のある部位を指し示す動作のことであり、腕や手指、指し棒などの形状や動く方向、移動の仕方、滞留時間などによって検出される。   Next, the gesture detection unit 203 detects a specific gesture by the subject 304 (S416). The specific gesture referred to here is an operation in which the subject 304 points to a certain part in the important background, and is detected based on the shape, moving direction, movement method, dwell time, etc. of arms, fingers, and pointing sticks. .

ジェスチャ検出部203において被写体304の特定のジェスチャが未検出であったときは(S416の「No」)、被写体304を含み被写体位置304Aにおける被写体304の重心位置305Aが中心となるような位置に表示画角306Aが設定される(S417)。   When the gesture detection unit 203 has not detected a specific gesture of the subject 304 (“No” in S416), the gesture detection unit 203 displays the position including the subject 304 so that the center of gravity 305A of the subject 304 at the subject position 304A is centered. The angle of view 306A is set (S417).

設定された表示画角306Aの画像は、図7のフローチャートに従って保存処理(B)が行われる(S418)。図7の保存処理(B)について説明する。   The image of the set display angle of view 306A is subjected to storage processing (B) according to the flowchart of FIG. 7 (S418). The storage process (B) in FIG. 7 will be described.

まず、設定された表示画角306A部分が、画像切り出し部209により基準画角から切り出される(S419)。   First, the set display angle of view 306A is cut out from the reference angle of view by the image cutout unit 209 (S419).

切り出された表示画角306Aの画像サイズT(Tx,Ty)が予め初期設定で設定された表示画角の画像サイズD(Dx,Dy)より大きい場合(S420の(1))は、スケーリング部210において(Tx≦Dx)∩(Ty≦Dy)となる最大サイズに表示画角306Aの画像が縮小される(S421)。   When the image size T (Tx, Ty) of the cut out display angle of view 306A is larger than the image size D (Dx, Dy) of the display angle of view set in advance by default (S420 (1)), the scaling unit In 210, the image of the display angle of view 306A is reduced to the maximum size satisfying (Tx ≦ Dx) ∩ (Ty ≦ Dy) (S421).

また、切り出された表示画角306Aの画像サイズT(Tx,Ty)が予め初期設定で設定された表示画角の画像サイズD(Dx,Dy)より小さい場合(S420の(3))は、スケーリング部210において(Tx≦Dx)∩(Ty≦Dy)となる最大サイズに表示画角306Aの画像が拡大される(S422)。   Further, when the image size T (Tx, Ty) of the clipped display angle of view 306A is smaller than the image size D (Dx, Dy) of the display angle of view set in advance by default (S420 (3)), In the scaling unit 210, the image of the display angle of view 306A is enlarged to the maximum size satisfying (Tx ≦ Dx) ∩ (Ty ≦ Dy) (S422).

また、切り出された表示画角306Aの画像サイズT(Tx,Ty)と予め初期設定で設定された表示画角の画像サイズD(Dx,Dy)とが同じ場合(S420の(2))は、縮小または拡大のスケーリングは行われない。   When the image size T (Tx, Ty) of the cut out display angle of view 306A is the same as the image size D (Dx, Dy) of the display angle of view set in the initial setting in advance ((2) of S420) No scaling is done for reduction or enlargement.

表示画角306Aの画像が予め設定された表示画角の画像サイズにスケーリングされた状態の画像を図9に示す。図9では、被写体304の重心位置305Aが表示画角306Aの中心に位置している。   An image in a state where the image of the display angle of view 306A is scaled to the image size of the preset display angle of view is shown in FIG. In FIG. 9, the gravity center position 305A of the subject 304 is located at the center of the display angle of view 306A.

所定サイズにスケーリングされた表示画角306Aの画像は記憶装置208に保存される(S423)。以上で保存処理(B)が終了する。   The image of the display angle of view 306A scaled to a predetermined size is stored in the storage device 208 (S423). Thus, the storage process (B) ends.

保存処理(B)が終了すると、追尾エリア302内での被写体304の検出が継続して行われ(S424)、被写体304が未検出であれば(S424の「No」)ステップS413に戻り基準画角301全体が表示画角として設定され、ステップS414以降の処理が行われる。   When the storage process (B) ends, the detection of the subject 304 in the tracking area 302 is continued (S424). If the subject 304 has not been detected ("No" in S424), the process returns to step S413 to return to the reference image. The entire corner 301 is set as the display angle of view, and the processing after step S414 is performed.

ステップS424において被写体304が検出されたときは、被写体304が移動したかどうかが判定される(S425)。判定の結果、被写体304が移動していれば(S425の「Yes」)、移動距離がプリセット部201に設定された移動許容量の範囲内であるかどうかが判定される(S426)。   When the subject 304 is detected in step S424, it is determined whether the subject 304 has moved (S425). As a result of the determination, if the subject 304 has moved (“Yes” in S425), it is determined whether or not the moving distance is within the allowable movement range set in the preset unit 201 (S426).

判定の結果、被写体304の移動距離が移動許容量の範囲を超えていた場合は(S426の「No」)、ステップS415に戻り、図8に示すように移動後の被写体の位置304Bおよび被写体の重心位置305Bが求められ、ステップS416以降の処理が行われる。このときの、被写体304の重心位置305Bが中心となるような位置の画像としては、表示画角306Bが切り出される。   As a result of the determination, if the moving distance of the subject 304 exceeds the allowable movement range (“No” in S426), the process returns to step S415, and the moved subject position 304B and the subject are moved as shown in FIG. The center-of-gravity position 305B is obtained, and the processing after step S416 is performed. At this time, the display angle of view 306B is cut out as an image at a position where the center of gravity 305B of the subject 304 is centered.

ステップS425において被写体304が移動しなかったと判定された場合(S425の「No」)、およびステップS426において被写体の移動距離が設定された移動許容量の範囲内であると判定された場合(S426の「Yes」)は、ステップS416に戻り、ジェスチャ検出部203により被写体304による特定のジェスチャの検出が行われる。   If it is determined in step S425 that the subject 304 has not moved (“No” in S425), and if it is determined in step S426 that the subject movement distance is within the set allowable movement range (in S426). "Yes") returns to step S416, and the gesture detection unit 203 detects a specific gesture by the subject 304.

ステップS416において、ジェスチャ検出部203により被写体304による特定のジェスチャ307が検出された場合について図10〜図12を参照して説明する(S416の「Yes」)。   A case where a specific gesture 307 by the subject 304 is detected by the gesture detection unit 203 in step S416 will be described with reference to FIGS. 10 to 12 (“Yes” in S416).

被写体304による特定のジェスチャ307が検出されたときは、このジェスチャ307の検出位置が重要背景エリア303内であるかどうかが判定される(S427)。   When a specific gesture 307 by the subject 304 is detected, it is determined whether or not the detection position of the gesture 307 is within the important background area 303 (S427).

判定の結果、重要背景エリア303内であると判定された場合は(S427の「Yes」)、図形検出部205により重要背景エリア303内からジェスチャ307で指し示された指示領域308が検出される(S428)。   As a result of the determination, if it is determined that the current position is within the important background area 303 (“Yes” in S427), the figure detection unit 205 detects the pointing area 308 pointed to by the gesture 307 from the important background area 303. (S428).

次に、検出された指示領域308の重心位置309が求められ(S429)、さらに被写体304の重心位置305Cと指示領域308の重心位置309との中心位置が求められる。   Next, the center of gravity position 309 of the detected indication area 308 is obtained (S429), and the center position between the center of gravity position 305C of the subject 304 and the center of gravity position 309 of the indication area 308 is obtained.

この被写体304の重心位置305Cと指示領域308の重心位置309との中心位置を重心位置310とし、被写体304および指示領域308を含む画角が表示画角306Dとして設定される(S430)。   The center position between the gravity center position 305C of the subject 304 and the gravity center position 309 of the instruction area 308 is set as the gravity center position 310, and the angle of view including the subject 304 and the instruction area 308 is set as the display angle of view 306D (S430).

設定された表示画角306Dは、上述したとおり、図7のフローチャートに従って保存処理(B)が行われる(S418)。   As described above, the set display angle of view 306D is stored (B) according to the flowchart of FIG. 7 (S418).

これらの処理により、図10において、ジェスチャ307が検出される前は図8と同様に被写体304のみに基づいて重心位置305Cを重心とした表示画角306Cが切り出され図11のようになるが、ジェスチャ307が検出されると被写体304および指示領域308に基づいて求められた重心位置310を重心として表示画角306Dが切り出され、モニタに表示される画像は図12のように切り替わる。   With these processes, before the gesture 307 is detected in FIG. 10, the display angle of view 306C with the center of gravity 305C as the center of gravity is cut out based on only the subject 304 as in FIG. When the gesture 307 is detected, the display angle of view 306D is cut out with the barycentric position 310 obtained based on the subject 304 and the pointing area 308 as the barycentric position, and the image displayed on the monitor is switched as shown in FIG.

また、ステップS427において、検出されたジェスチャ307の検出位置が重要背景エリア303内ではなかったと判定された場合は(S427の「No」)、ステップ417に進み、被写体304を含み被写体位置304Cにおける被写体304の重心位置305Cが中心となるような位置に表示画角306Cが設定される。   If it is determined in step S427 that the detected position of the detected gesture 307 is not within the important background area 303 (“No” in S427), the process proceeds to step 417, where the subject at the subject position 304C including the subject 304 is obtained. The display angle of view 306C is set at a position such that the center of gravity position 305C of 304 is centered.

以上の撮影処理(A)は講義風景が撮影されている間繰り返し実行され、ユーザにより撮影を停止する操作が入力部207により行われた場合は(S431の「Yes」)、撮影処理(A)に停止を指示する割り込み信号が送信され(S432)、カメラ制御部204によってカメラ部10の撮影が停止されるとともに、制御端末20も一連の検出動作および撮影動作が停止される。   The above photographing process (A) is repeatedly executed while the lecture scene is being photographed. When the user performs an operation of stopping photographing (“Yes” in S431), the photographing process (A) is performed. An interrupt signal for instructing the stop is transmitted (S432), and the camera control unit 204 stops shooting of the camera unit 10, and the control terminal 20 also stops a series of detection operations and shooting operations.

ユーザにより撮影を停止する操作が行われていないときは(S431の「No」)、撮影処理(A)は継続して行われる。   When the user does not perform an operation to stop shooting (“No” in S431), the shooting process (A) is continuously performed.

以上の第1実施形態による追尾撮像装置によれば、被写体と被写体の背景にある重要な情報とを確実に逃さず捉えることができるとともに、これらの重要な情報は認識可能な解像度で撮影されているため講義内容の把握に効果的な映像を得ることができる。   According to the tracking imaging device according to the first embodiment described above, it is possible to reliably capture the subject and important information in the background of the subject without missing, and the important information is captured at a recognizable resolution. Therefore, it is possible to obtain an effective video for understanding the lecture contents.

《第2実施形態》
本発明の第2実施形態による追尾撮像システムは、第1実施形態による追尾撮像装置を用いて撮影された講義等の映像を、ネットワークを介して遠隔地の受講生が受信して視聴する遠隔講義に用いるものである。
<< Second Embodiment >>
The tracking imaging system according to the second embodiment of the present invention is a remote lecture in which a student at a remote location receives and views videos such as a lecture taken using the tracking imaging apparatus according to the first embodiment via a network. It is used for.

〈第2実施形態による追尾撮像システムの構成〉
本実施形態による追尾システムの構成を、図13を用いて説明する。図13は、本実施形態による追尾システムの構成を示すブロック図であり、追尾撮像装置2と、ネットワーク3と、ネットワーク3を介して追尾撮像装置2に接続されている表示端末4とから構成されている。
<Configuration of Tracking Imaging System According to Second Embodiment>
The configuration of the tracking system according to the present embodiment will be described with reference to FIG. FIG. 13 is a block diagram illustrating the configuration of the tracking system according to the present embodiment, which includes the tracking imaging device 2, the network 3, and the display terminal 4 connected to the tracking imaging device 2 via the network 3. ing.

追尾撮像装置2の主な構成は、第1実施形態における追尾撮像装置1の構成と同様であるため詳細な説明は省略する。追尾撮像装置1と異なる点は、講義の音声を録音する音声入力部11と、制御端末20に設けられネットワーク3を介して表示端末4と通信を行う通信制御部212を有することである。音声入力部11は、被写体すなわち講師に装着したピンマイクもしくは集音マイクなどである。   Since the main configuration of the tracking imaging device 2 is the same as the configuration of the tracking imaging device 1 in the first embodiment, detailed description thereof is omitted. The difference from the tracking imaging apparatus 1 is that it includes a voice input unit 11 that records lecture audio and a communication control unit 212 that is provided in the control terminal 20 and communicates with the display terminal 4 via the network 3. The voice input unit 11 is a pin microphone or a sound collecting microphone attached to a subject, that is, a lecturer.

ネットワーク3は、インターネット網、公衆網、衛星回線、テレビ回線などが利用できる。   As the network 3, an Internet network, a public network, a satellite line, a TV line, and the like can be used.

表示端末4は、通信制御部41と、出力部42と、入力部43と、記憶装置44と、制御部45とを有する。   The display terminal 4 includes a communication control unit 41, an output unit 42, an input unit 43, a storage device 44, and a control unit 45.

通信制御部41は、制御端末20とネットワーク3を介して通信を行う。   The communication control unit 41 communicates with the control terminal 20 via the network 3.

出力部42は、コンテンツを再生するスクリーンやモニタなどの映像表示装置およびスピーカなどの音声出力装置から構成される。   The output unit 42 includes a video display device such as a screen and a monitor for reproducing content, and an audio output device such as a speaker.

入力部43は、ユーザが出力部42及び表示端末全体を操作するときに用いる。   The input unit 43 is used when the user operates the output unit 42 and the entire display terminal.

記憶装置44は、必要な設定やコンテンツなどのデータを記憶する。   The storage device 44 stores data such as necessary settings and contents.

制御部45は、上記の通信制御部41〜記憶装置44を制御する。   The control unit 45 controls the communication control unit 41 to the storage device 44 described above.

〈第2実施形態による追尾撮像システムの動作〉
本発明の第2実施形態による追尾撮像システムの動作を、図4〜図6、図14および図15のフローチャートを参照して説明する。
<Operation of Tracking Imaging System According to Second Embodiment>
The operation of the tracking imaging system according to the second embodiment of the present invention will be described with reference to the flowcharts of FIGS. 4 to 6, 14 and 15.

本実施形態において、講義が撮影されている間、カメラ部10で撮影された画像は第1実施形態と同様に図4の初期設定が行われた後、図5および図6のフローチャートに従って撮影処理(A)が継続して行われ、音声入力部11から入力した講義の音声も継続して集音されているものとする。   In the present embodiment, while the lecture is photographed, the image photographed by the camera unit 10 is subjected to photographing processing according to the flowcharts of FIGS. 5 and 6 after the initial setting of FIG. 4 is performed as in the first embodiment. It is assumed that (A) is continuously performed and the voice of the lecture input from the voice input unit 11 is continuously collected.

追尾撮像装置2により撮影された映像および集音された音声であるコンテンツの配信処理について、図14を参照して説明する。   With reference to FIG. 14, a description will be given of a distribution process of content that is video captured by the tracking imaging device 2 and collected audio.

まず、制御端末20において撮影および集音されたコンテンツをリアルタイムに配信するか否かが判定される(S501)。リアルタイムに配信しないと判定された場合は(S507の「No」)、記憶装置208にコンテンツが保存される(S502)。保存は撮影が終了するまで継続される。   First, it is determined whether or not the content shot and collected by the control terminal 20 is distributed in real time (S501). If it is determined not to be distributed in real time (“No” in S507), the content is stored in the storage device 208 (S502). Saving is continued until shooting is completed.

次に、保存されたコンテンツを配信するか否かが判定され、配信すると判定された場合(S503の「Yes」)は、配信先の表示端末4が指定される(S504)。このとき、配信がネットワーク3としてインターネット網を利用して行われるときはIPアドレスなどを用いて配信先の表示端末4の指定が行われ、必要があれば表示端末4と所定の通信手続きが行われて接続が確認される。配信先の表示端末4の設定はコンテンツの撮影前に予め行っておいてもよい。また、配信がテレビ放送などのように相手が不特定なブロードキャスト送信による場合は、特定の相手先の指定は行わないが、放送に必要な所定の配信手続きが行われる。   Next, it is determined whether or not the stored content is to be distributed. When it is determined that the content is to be distributed (“Yes” in S503), the distribution destination display terminal 4 is designated (S504). At this time, when the distribution is performed using the Internet as the network 3, the display terminal 4 as the distribution destination is designated using an IP address or the like, and if necessary, a predetermined communication procedure is performed with the display terminal 4. Connection is confirmed. The distribution destination display terminal 4 may be set in advance before the content is photographed. In addition, when the distribution is broadcast transmission where the other party is unspecified, such as a television broadcast, a specific other party is not designated, but a predetermined distribution procedure necessary for broadcasting is performed.

これらの通信準備が完了している状態で、ネットワーク3を介して追尾撮像装置2の通信制御部212から表示端末4へのコンテンツの配信が開始される(S505)。   With these communication preparations completed, distribution of content from the communication control unit 212 of the tracking imaging device 2 to the display terminal 4 is started via the network 3 (S505).

コンテンツの配信が終わるまで、もしくは配信が必要なシーンまでコンテンツの配信が継続され(S506、S507の「No」)、必要な配信が完了すると配信処理が終了する(S507の「Yes」)。   The distribution of the content is continued until the distribution of the content is completed or until the scene that needs the distribution (“No” in S506 and S507), and the distribution process ends when the necessary distribution is completed (“Yes” in S507).

ステップS503において保存されたコンテンツがここでは配信されず、後で別途配信が行われる場合は(S503の「No」)、処理が終了される。   If the content stored in step S503 is not distributed here and is separately distributed later ("No" in S503), the process ends.

また、ステップS501において、リアルタイムに配信すると判定された場合は(S501の「Yes」)、ステップS504における処理と同様に配信先の指定および確認が行われる(S508)。   If it is determined in step S501 that delivery is performed in real time (“Yes” in S501), the delivery destination is specified and confirmed in the same manner as in step S504 (S508).

ここで、コンテンツを保存する必要があれば(S509の「Yes」)保存し(S510)、その後ネットワーク3を介して追尾撮像装置2の通信制御部212から表示端末4へのコンテンツの配信が開始される(S505)。   Here, if it is necessary to save the content (“Yes” in S509), the content is saved (S510), and then distribution of the content from the communication control unit 212 of the tracking imaging device 2 to the display terminal 4 is started via the network 3. (S505).

講義が撮影されている間、コンテンツの配信が継続され(S506)、講義の撮影が終了したときはコンテンツの配信および保存(S509で「Yes」だった場合)が停止されて配信が完了し(S507)、コンテンツの配信処理が終了される。   While the lecture is being photographed, the content distribution is continued (S506). When the lecture photographing is completed, the distribution and storage of the content (if “Yes” in S509) is stopped and the distribution is completed ( S507), the content distribution process is terminated.

次に、表示端末4におけるコンテンツの受信処理について、図15を参照して説明する。   Next, content reception processing in the display terminal 4 will be described with reference to FIG.

まず、表示端末4はコンテンツを受信するために待機しており、(S601、S602の「No」)、ネットワーク3を介して通信制御部41で所望のコンテンツが受信されると(S602の「Yes」)処理が開始される。   First, the display terminal 4 is waiting to receive content (“No” in S601 and S602), and when the desired content is received by the communication control unit 41 via the network 3 (“Yes” in S602). ") The process is started.

所望のコンテンツが受信されると、まずこのコンテンツがストリーミングであるかファイル形式であるかが判定される(S603)。   When the desired content is received, it is first determined whether the content is streaming or a file format (S603).

コンテンツがストリーミングの場合は(S603の(1))、制御部45で受信したコンテンツが再生可能な形式に変換された後、出力部42から出力され再生、表示される(S604)。このコンテンツの変換および出力はコンテンツの受信が完了するまで継続して行われる(S605の「No」)。   When the content is streaming ((1) in S603), the content received by the control unit 45 is converted into a reproducible format, and then output from the output unit 42 and reproduced and displayed (S604). This content conversion and output is continued until the content reception is completed (“No” in S605).

コンテンツの受信が完了すると(S605の「Yes」)、出力部42からのコンテンツの再生、表示が停止され(S606)、処理が終了する。   When the reception of the content is completed (“Yes” in S605), the reproduction and display of the content from the output unit 42 are stopped (S606), and the process ends.

ステップS603において受信されたコンテンツがファイル形式であった場合は(S603の(2))、記憶装置44にコンテンツが保存される(S607)。このコンテンツの保存はコンテンツの受信が完了するまで継続して行われる(S608の「No」)。   When the content received in step S603 is in a file format (S603 (2)), the content is stored in the storage device 44 (S607). This content storage is continued until the content reception is completed (“No” in S608).

コンテンツの受信が完了すると(S608の「Yes」)、コンテンツがすぐに再生される場合は(S609の「Yes」)コンテンツが再生可能な形式に変換された後、出力部42から出力され再生、表示される(S610)。このコンテンツの変換および出力はコンテンツの再生が完了するまで継続して行われる(S611の「No」)。   When the reception of the content is completed (“Yes” in S608), if the content is to be played immediately (“Yes” in S609), the content is converted into a playable format and then output from the output unit 42 for playback. It is displayed (S610). This content conversion and output is continuously performed until the content reproduction is completed (“No” in S611).

コンテンツの再生が完了すると(S611の「Yes」)、出力部42からのコンテンツの再生、表示が停止され、処理が終了する。   When the reproduction of the content is completed (“Yes” in S611), the reproduction and display of the content from the output unit 42 are stopped, and the process ends.

ステップS609においてコンテンツがすぐに再生されない場合には、処理が終了される(S609の「No」)。   If the content is not immediately played back in step S609, the process is terminated ("No" in S609).

ストリーミングで受信したときも、保存が行われる場合には記憶装置44にコンテンツの保存が行われると同時に再生、表示が行われる。   Even when received by streaming, if storage is performed, the content is stored in the storage device 44 and simultaneously reproduced and displayed.

ここでは追尾撮像装置2から能動的にコンテンツを配信する例を示したが、必要に応じて表示端末4の入力部43から追尾撮像装置2の制御端末20に所望のコンテンツの配信要求を行い、追尾撮像装置2から受信するようにしてもよい。   Here, an example in which content is actively distributed from the tracking imaging device 2 has been shown, but if necessary, a distribution request for desired content is made from the input unit 43 of the display terminal 4 to the control terminal 20 of the tracking imaging device 2. You may make it receive from the tracking imaging device 2. FIG.

以上の第2実施形態による追尾撮像制御システムによれば、第1実施形態と同様の効果を得ることができるとともに、ネットワークを介して遠隔地に撮影したコンテンツを配信することができる。   According to the tracking imaging control system according to the second embodiment described above, it is possible to obtain the same effect as that of the first embodiment, and to distribute the content photographed to a remote place via the network.

《第3実施形態》
本発明の第3実施形態による追尾撮像システムは、第2実施形態による追尾撮像システムを用いて撮影された講義等の映像を表示する際に、被写体と指示領域とを別々の映像として表示して遠隔講義に用いるものである。
<< Third Embodiment >>
The tracking imaging system according to the third embodiment of the present invention displays a subject and an instruction area as separate videos when displaying a video of a lecture or the like taken using the tracking imaging system according to the second embodiment. Used for distance lectures.

〈第3実施形態による追尾撮像システムの構成〉
本実施形態による追尾撮像システムの構成は、第2実施形態と同様であるため、詳細な説明は省略する。
<Configuration of Tracking Imaging System according to Third Embodiment>
Since the configuration of the tracking imaging system according to this embodiment is the same as that of the second embodiment, detailed description thereof is omitted.

〈第3実施形態による追尾撮像システムの動作〉
本発明の第3実施形態による追尾撮像システムの動作を、図2、図3、図16〜図25を参照して説明する。
<Operation of Tracking Imaging System According to Third Embodiment>
The operation of the tracking imaging system according to the third embodiment of the present invention will be described with reference to FIGS. 2, 3, and 16 to 25.

まず、追尾撮像装置2により撮影した映像および集音した音声であるコンテンツの配信処理について、図14を参照して説明する。   First, content distribution processing that is video captured by the tracking imaging apparatus 2 and collected sound will be described with reference to FIG.

まず、制御端末20のプリセット部201で行われる初期設定の動作について図16を参照して説明する。   First, an initial setting operation performed by the preset unit 201 of the control terminal 20 will be described with reference to FIG.

図2に示す教室などのような空間30で被写体の検出、追尾を行いたいエリア、例えば講義を行う教壇がすべて含まれる画像が撮影できる場所にカメラ部10が設置され、その画角が基準画角301として図3のように設定される(S701)。   A camera unit 10 is installed in an area in which a subject 30 is to be detected and tracked, such as a classroom shown in FIG. The corner 301 is set as shown in FIG. 3 (S701).

次に、図3の基準画角301内で被写体の検出および追尾が行われる領域が、追尾エリア302として設定される(S702)。   Next, an area where the subject is detected and tracked within the reference angle of view 301 in FIG. 3 is set as the tracking area 302 (S702).

次に、設定された追尾エリア302内で講義情報が含まれる領域が、重要背景エリア303として設定される(S703)。   Next, an area including lecture information in the set tracking area 302 is set as the important background area 303 (S703).

さらに、この講義風景を遠隔地などのモニタやスクリーンに表示するときの画角であり、検出した被写体を中心として画像を切り出す範囲である第1表示画角と、指示領域を中心とした画像を切り出す範囲である第2表示画角と、被写体の表示時の解像度である第1表示画角サイズと、指示領域の表示時の解像度である第2表示画角サイズとが設定される(S704)。   Furthermore, the angle of view when the lecture scenery is displayed on a monitor or screen such as a remote place, and a first display angle of view, which is a range where the image is cut out with the detected subject as the center, and an image centered on the indication area are displayed. A second display angle of view that is a range to be clipped, a first display angle of view that is a resolution when the subject is displayed, and a second display angle of view that is the resolution when the instruction area is displayed are set (S704). .

ここで、第1の表示画角は、図18に示すように検出した被写体304(身体全体もしくは顔、頭部など)から表示したい領域の重心位置311を中心に領域312(Hx,Hy)が抜き出され、第1の表示画角に対して被写体が常に同じ比率で表示されるように横方向にhx、縦方向にhyの枠領域部分が追加される。ここでは、バストショットになるような画角を第1の表示画角313(X1,Y1)としている。   Here, as for the first display angle of view, the region 312 (Hx, Hy) is centered on the center of gravity position 311 of the region to be displayed from the detected subject 304 (the entire body or the face, head, etc.) as shown in FIG. A frame region portion of hx in the horizontal direction and hy in the vertical direction is added so that the subject is always displayed at the same ratio with respect to the first display angle of view. Here, the angle of view that results in a bust shot is the first display angle of view 313 (X1, Y1).

また、第2の表示画角は、図19に示すように検出した指示領域の重心位置309を中心に領域308(Sx,Sy)が抜き出され、第2の表示画角に対して指示領域が常に同じ比率で表示されるように横方向にsx、縦方向にsyの枠領域部分が追加される。このようにして、第2の表示画角314(X2,Y2)が設定される。   As for the second display angle of view, an area 308 (Sx, Sy) is extracted around the center of gravity position 309 of the detected indication area as shown in FIG. Sx in the horizontal direction and sy in the vertical direction are added so that they are always displayed at the same ratio. In this way, the second display angle of view 314 (X2, Y2) is set.

指示領域のアスペクト比は一定ではないので、sx、syは検出されたアスペクト比によって変更できるように複数の値を設定して保存しておいてもよい。または、sx、syはアスペクト比にあわせて計算によって求めるようにしてもよい。   Since the aspect ratio of the instruction area is not constant, sx and sy may be set and stored so that a plurality of values can be changed according to the detected aspect ratio. Alternatively, sx and sy may be obtained by calculation in accordance with the aspect ratio.

このとき、カメラ部10が撮影する映像の解像度を(X,Y)とすると、第1の表示画角のサイズは(X1≦X)∩(Y1≦Y)であり、第2の表示画角サイズは(X2≦X)∩(Y2≦Y)となる最大サイズになるように設定される。   At this time, assuming that the resolution of the video captured by the camera unit 10 is (X, Y), the size of the first display field angle is (X1 ≦ X) ∩ (Y1 ≦ Y), and the second display field angle. The size is set so that the maximum size is (X2 ≦ X) ∩ (Y2 ≦ Y).

さらに、第1実施形態と同様に被写体の移動許容量が設定される。これらのステップS701〜ステップS704の初期設定は入力部207により行われ、記憶装置208に記憶される。   Further, the allowable movement amount of the subject is set as in the first embodiment. These initial settings in steps S701 to S704 are performed by the input unit 207 and stored in the storage device 208.

次に、カメラ部10で行われる講義の撮影の動作について図5および図17を参照して説明する。   Next, a lecture shooting operation performed by the camera unit 10 will be described with reference to FIGS. 5 and 17.

まず、第1実施形態と同様に制御端末20のカメラ制御部204によりカメラ部10が起動されると(S410の「Yes」)、図17のフローチャートに従って撮影処理(C)が行われる(S411)。図17の撮影処理(C)について説明する。   First, as in the first embodiment, when the camera unit 10 is activated by the camera control unit 204 of the control terminal 20 (“Yes” in S410), shooting processing (C) is performed according to the flowchart of FIG. 17 (S411). . The imaging process (C) in FIG. 17 will be described.

カメラ部10が起動されると、まず基準画角301の撮影が開始される(S801)。ここでは基準画角301全体が第1の表示画角および第2の表示画角として設定され(S802)、被写体検出部202により追尾エリア302内での被写体304の検出が行われる(S803)。   When the camera unit 10 is activated, first, photographing of the reference field angle 301 is started (S801). Here, the entire reference field angle 301 is set as the first display field angle and the second display field angle (S802), and the subject detection unit 202 detects the subject 304 in the tracking area 302 (S803).

追尾エリア302内に誰も存在せず、被写体検出部202において被写体未検出の間(S803の「No」)は、ステップS802に戻りそのまま基準画角301全体が第1の表示画角および第2の表示画角として設定されるとともに、第1実施形態と同様に保存処理(B)に従って撮影された画像が記憶装置208に保存される(S804)。   When there is no one in the tracking area 302 and the subject detection unit 202 does not detect the subject (“No” in S803), the process returns to step S802, and the entire reference angle of view 301 is the same as the first display angle of view and the second view angle. And the image shot in accordance with the storage process (B) as in the first embodiment is stored in the storage device 208 (S804).

このとき、第1の表示画角または第2の表示画角として設定され切り出された画像サイズがプリセット部201で予め設定された各表示画角サイズと異なっている場合は、同じサイズになるように、スケーリング部210において第1の表示画角または第2の表示画角として切り出された画像が拡大または縮小される。   At this time, when the image size set as the first display field angle or the second display field angle and cut out is different from each display field angle size preset by the preset unit 201, the same size is obtained. In addition, the image cut out as the first display field angle or the second display field angle in the scaling unit 210 is enlarged or reduced.

このように調整された画像がモニタに出力された状態を、図20に示す。図20において、画像315は予め設定された第1の表示画角として切り出された基準画角301の画像であり、画像316は第2の表示画角として切り出された基準画角301の画像である。   FIG. 20 shows a state where the image adjusted in this way is output to the monitor. In FIG. 20, an image 315 is an image of a reference angle of view 301 cut out as a first display angle of view set in advance, and an image 316 is an image of the reference angle of view 301 cut out as a second display angle of view. is there.

追尾エリア302内に被写体が入った場合を、図21を参照して説明する。   A case where a subject enters the tracking area 302 will be described with reference to FIG.

追尾エリア302内に被写体304が入り、被写体検出部202により検出されたときは(S803の「Yes」)、この被写体304の位置304Aおよび被写体304の重心位置305Aが求められる(S805)。   When the subject 304 enters the tracking area 302 and is detected by the subject detection unit 202 (“Yes” in S803), the position 304A of the subject 304 and the gravity center position 305A of the subject 304 are obtained (S805).

次に、求められた被写体304の重心位置305Aを基準に表示画角306Aが第1の表示画角として設定され切り出される(S806)。ここで、第2の表示画角は基準画角301のままであり、このときの第1の表示画角として切り出された表示画角306Aの画像317および第2の表示画角として切り出された基準画角301の画像318がモニタに出力された状態を図22に示す。   Next, the display angle of view 306A is set as the first display angle of view based on the determined barycentric position 305A of the subject 304 and is cut out (S806). Here, the second display angle of view remains the reference angle of view 301, and the image 317 of the display angle of view 306A extracted as the first display angle of view at this time and the second display angle of view are extracted. FIG. 22 shows a state where the image 318 having the reference angle of view 301 is output to the monitor.

次に、ジェスチャ検出部203により被写体304による特定のジェスチャの検出が行われる(S807)。   Next, the gesture detection unit 203 detects a specific gesture by the subject 304 (S807).

ジェスチャ検出部203において被写体304の特定のジェスチャが未検出であったときは(S807の「No」)、図7のフローチャートに従って保存処理(B)が行われる。(S804)
保存処理(B)が終了すると、追尾エリア302内での被写体304の検出が継続して行われ(S812)、被写体304が未検出であれば(S812の「No」)ステップS802に戻り基準画角301が第1の表示画角および第2の表示画角として設定され、ステップS803以降の処理が行われる。
When the gesture detection unit 203 has not detected a specific gesture of the subject 304 (“No” in S807), the storage process (B) is performed according to the flowchart of FIG. (S804)
When the storage process (B) is completed, the detection of the subject 304 in the tracking area 302 is continued (S812). If the subject 304 is not detected ("No" in S812), the process returns to step S802 to return to the reference image. The corner 301 is set as the first display field angle and the second display field angle, and the processes after step S803 are performed.

ステップS812において被写体304が検出されたときは、被写体304が移動したかどうかが判定される(S813)。判定の結果、被写体304が移動していれば(S813の「Yes」)、移動距離がプリセット部201に設定された移動許容量の範囲内であるかどうかが判定される(S814)。   When the subject 304 is detected in step S812, it is determined whether or not the subject 304 has moved (S813). As a result of the determination, if the subject 304 has moved (“Yes” in S813), it is determined whether or not the moving distance is within the allowable movement range set in the preset unit 201 (S814).

判定の結果、被写体304の移動距離が移動許容量の範囲を超えていた場合は(S814の「No」)、ステップS805に戻り、図21に示すように移動後の被写体304の位置304Bおよび被写体304の重心位置305Bが求められ、ステップS806以降の処理が行われる。このときの、被写体304の重心位置305Bが中心となるような位置の第1の表示画角として、表示画角306Bが切り出される。   As a result of the determination, if the moving distance of the subject 304 exceeds the allowable movement range (“No” in S814), the process returns to step S805, and the position 304B of the moved subject 304 and the subject as shown in FIG. The barycentric position 305B of 304 is obtained, and the processing after step S806 is performed. At this time, the display angle of view 306B is cut out as the first display angle of view at the position where the center of gravity 305B of the subject 304 is centered.

ステップS813において被写体304が移動しなかったと判定された場合(S813の「No」)、およびステップS814において被写体304の移動距離が設定された移動許容量の範囲内であると判定された場合(S814の「Yes」)は、ステップS806に戻り、ジェスチャ検出部203により被写体304による特定のジェスチャの検出が行われる。   If it is determined in step S813 that the subject 304 has not moved ("No" in S813), and if it is determined in step S814 that the moving distance of the subject 304 is within the set allowable movement range (S814). "Yes") returns to step S806, and the gesture detection unit 203 detects a specific gesture by the subject 304.

ステップS807において、ジェスチャ検出部203により被写体304による特定のジェスチャ307が検出された場合について図23〜図25を参照して説明する(S807の「Yes」)。   A case where the gesture detection unit 203 detects a specific gesture 307 by the subject 304 in step S807 will be described with reference to FIGS. 23 to 25 (“Yes” in S807).

被写体304による特定のジェスチャ307が検出されたときは、このジェスチャ307の検出位置が重要背景エリア303内であるかどうかが判定される(S808)。   When a specific gesture 307 by the subject 304 is detected, it is determined whether or not the detection position of the gesture 307 is within the important background area 303 (S808).

判定の結果、重要背景エリア303内であると判定された場合は(S808の「Yes」)、図形検出部205により重要背景エリア303内からジェスチャ307で指し示された指示領域308が検出される(S809)。   As a result of the determination, if it is determined that it is in the important background area 303 (“Yes” in S808), the figure detection unit 205 detects the pointing area 308 pointed to by the gesture 307 from the important background area 303. (S809).

次に、検出された指示領域308の重心位置309が求められ(S810)、この指示領域308を含み、指示領域308の重心位置309を基準にした表示画角319が第2の表示画角として設定され切り出される(S811)。   Next, the barycentric position 309 of the detected indication area 308 is obtained (S810), and the display angle of view 319 including the indication area 308 and based on the barycentric position 309 of the indication area 308 is used as the second display angle of view. It is set and cut out (S811).

第2の表示画角として設定された表示画角319は、上述したとおり、図7のフローチャートに従って保存処理(B)が行われる(S804)。   The display angle of view 319 set as the second display angle of view is stored (B) according to the flowchart of FIG. 7 as described above (S804).

これらの処理により、図23において、ジェスチャ307が検出される前は図21と同様に被写体304の位置304Cに基づいて重心位置305Cを重心とした表示画角306Cが第1の表示画角として切り出されるとともに基準画角301が第2の表示画角として切り出され、図22の画像317および画像318のように表示されるが、ジェスチャ307が検出されると指示領域308に基づいて求められた重心位置309を重心とした表示画角319が第2の表示画角として切り出され、モニタに表示される画像は図24の画像320および画像321のように切り替わる。   Through these processes, before the gesture 307 is detected in FIG. 23, the display field angle 306C having the center of gravity 305C as the center of gravity is cut out as the first display field angle based on the position 304C of the subject 304 as in FIG. The reference angle of view 301 is cut out as the second display angle of view and displayed as the image 317 and the image 318 in FIG. 22, but the center of gravity obtained based on the indication region 308 when the gesture 307 is detected. The display angle of view 319 with the position 309 as the center of gravity is cut out as the second display angle of view, and the images displayed on the monitor are switched as shown by an image 320 and an image 321 in FIG.

さらに、図23に示すように、被写体304の位置304Cが位置304Dに移動した場合は、第1の表示画角として切り出される画角は表示画角306Cから表示画角306Dに移動して図25の画像322のように表示されるが、第2の表示画角は次のジェスチャが行われるまで画角位置が維持され、直前に被写体304が指した指示領域308を中心とする表示画角319が表示され続け、画像323のように表示される。   Furthermore, as shown in FIG. 23, when the position 304C of the subject 304 is moved to the position 304D, the angle of view cut out as the first display angle of view is moved from the display angle of view 306C to the display angle of view 306D. The second display angle of view is maintained until the next gesture is performed, and the display angle of view 319 centered on the designated area 308 pointed to by the subject 304 immediately before is displayed. Is continuously displayed and displayed as an image 323.

以上の撮影処理(C)は講義風景が撮影されている間繰り返し行われ、ユーザにより撮影を停止する操作が入力部207により行われた場合は、第1実施形態と同様に図5のフローチャートに基づいて撮影処理(C)に停止を指示する割り込み信号が送信され(S432)、カメラ制御部204によってカメラ部10の撮影が停止されるとともに、制御端末20も一連の検出動作および撮影動作が停止される。   The above photographing process (C) is repeatedly performed while the lecture scenery is photographed, and when the user performs an operation of stopping photographing by the input unit 207, the flowchart of FIG. 5 is performed as in the first embodiment. Based on this, an interruption signal instructing the photographing process (C) to stop is transmitted (S432), and the camera control unit 204 stops photographing of the camera unit 10, and the control terminal 20 also stops a series of detection operations and photographing operations. Is done.

撮影されたコンテンツは、第2実施形態と同様に図14のフローチャートに従って表示端末4に送信され、表示端末4の制御部45で第1の表示画角の画像として切り出された画像と第2の表示画角として切り出された画像とが同期がとられ出力部42に出力される。   The photographed content is transmitted to the display terminal 4 according to the flowchart of FIG. 14 as in the second embodiment, and the image cut out as the first display angle of view image by the control unit 45 of the display terminal 4 and the second image are displayed. The image cut out as the display angle of view is synchronized and output to the output unit 42.

以上の第3実施形態によれば、第1の表示画角の画像および第2の表示画角として切り出された2つの画像が表示されるため、随時移動する被写体を検出および追尾しながら、指示領域を別途固定画角で表示でき、被写体も指示領域も逃さずより見やすい映像を作成することができる。   According to the third embodiment described above, an image having the first display angle of view and two images cut out as the second display angle of view are displayed, so that an instruction can be given while detecting and tracking the moving object at any time. The area can be separately displayed at a fixed angle of view, and an easy-to-view video can be created without missing the subject and the instruction area.

本実施形態において、第1の表示画角および第2の表示画角はそれぞれの表示したい(検出した)領域の重心位置を基準に設定したが、これには限定されず、見やすい映像を作成するために算出された位置を中心位置とすれば重心位置以外を基準としてもよい。   In the present embodiment, the first display field angle and the second display field angle are set based on the position of the center of gravity of the area to be detected (detected). However, the present invention is not limited to this, and an easy-to-view video is created. Therefore, if the position calculated for this purpose is the center position, a position other than the center of gravity position may be used as a reference.

《第4実施形態》
本発明の第4実施形態による追尾撮像装置は、遠隔講義などに利用するための講義の映像を撮影し、検出した被写体を中心としてパン、チルト、ズームの処理を行って表示するものである。
<< 4th Embodiment >>
The tracking imaging apparatus according to the fourth embodiment of the present invention captures a video of a lecture for use in a remote lecture and performs panning, tilting, and zooming processing with the detected subject as a center and displays the video.

〈第4実施形態による追尾撮像装置の構成〉
本発明の第4実施形態による追尾撮像装置5の構成を、図2、図3、図26〜図33を用いて説明する。
<Configuration of Tracking Imaging Device according to Fourth Embodiment>
A configuration of the tracking imaging device 5 according to the fourth embodiment of the present invention will be described with reference to FIGS. 2, 3, and 26 to 33.

図26は本実施形態による追尾撮像装置5の構成を示すブロック図である。   FIG. 26 is a block diagram illustrating a configuration of the tracking imaging device 5 according to the present embodiment.

本実施形態による追尾撮像装置5は、空間30内の講義が行われる教壇がすべて含まれる基準画角301で撮影するカメラ部10と、カメラ部10で撮影した映像を処理する制御端末20とを有する。   The tracking imaging device 5 according to the present embodiment includes a camera unit 10 that captures images at a reference angle of view 301 that includes all the texts in which lectures in the space 30 are performed, and a control terminal 20 that processes video captured by the camera unit 10. Have.

カメラ部10は、制御端末20からの制御により撮影可能な画角の範囲内で任意の位置にパン、チルト、ズーム処理(以下、「PTZ」と称する)を行う駆動部101を有する。またカメラ部10は、PTZにより画角が変わっても、ステッピングモータで現在自分がいる位置およびズーム率を記憶しており、現在、画角内のどの範囲を撮影しているかを記憶している。   The camera unit 10 includes a drive unit 101 that performs panning, tilting, and zooming processing (hereinafter referred to as “PTZ”) at an arbitrary position within a range of an angle of view that can be captured by control from the control terminal 20. Further, the camera unit 10 stores the current position and zoom ratio with the stepping motor even if the angle of view changes due to PTZ, and stores which range within the angle of view is currently captured. .

制御端末20は、プリセット部201と、被写体検出部202と、ジェスチャ検出部203と、カメラ制御部204と、表示部206と、入力部207と、記憶装置208と、図形検出部213とを有する。   The control terminal 20 includes a preset unit 201, a subject detection unit 202, a gesture detection unit 203, a camera control unit 204, a display unit 206, an input unit 207, a storage device 208, and a graphic detection unit 213. .

プリセット部201、被写体検出部202、ジェスチャ検出部203、表示部206、入力部207、および記憶装置208の機能は第1実施形態〜第3実施形態と同様であるため、詳細な説明は省略する。   Since the functions of the preset unit 201, the subject detection unit 202, the gesture detection unit 203, the display unit 206, the input unit 207, and the storage device 208 are the same as those in the first to third embodiments, detailed description thereof is omitted. .

カメラ制御部204は、被写体や指示領域が撮影画角内に収まるようにカメラのPTZを制御する。   The camera control unit 204 controls the PTZ of the camera so that the subject and the instruction area are within the shooting angle of view.

図形検出部213は、特定されたジェスチャが行われた位置から、重要背景エリア303内にあるユーザに必要な講義情報のうちジェスチャにより指し示された意味のある情報が集合した領域を指示領域として認識する。   The figure detection unit 213 uses, as an instruction area, an area in which meaningful information indicated by the gesture is gathered from lecture information necessary for the user in the important background area 303 from the position where the specified gesture is performed. recognize.

〈第4実施形態による追尾撮像装置の動作〉
本発明の第4実施形態による追尾撮像装置5の動作を、図2、図3、図5、図27、図28のフローチャートを参照して説明する。
<Operation of Tracking Imaging Device according to Fourth Embodiment>
The operation of the tracking imaging device 5 according to the fourth embodiment of the present invention will be described with reference to the flowcharts of FIGS. 2, 3, 5, 27, and 28.

まず、制御端末20のプリセット部201で行われる初期設定の動作について図27を参照して説明する。   First, an initial setting operation performed by the preset unit 201 of the control terminal 20 will be described with reference to FIG.

図2に示す教室などのような空間30で被写体の検出、追尾を行いたいエリア、例えば講義を行う教壇がすべて含まれる画像が撮影できる場所にカメラ部10が設置され、その画角が基準画角301として図3のように設定される(S901)。   A camera unit 10 is installed in an area in which a subject 30 is to be detected and tracked, such as a classroom shown in FIG. The corner 301 is set as shown in FIG. 3 (S901).

次に、図3の基準画角301内で被写体の検出および追尾が行われる領域が、追尾エリア302として設定される(S902)。   Next, an area where subject detection and tracking are performed within the reference angle of view 301 in FIG. 3 is set as the tracking area 302 (S902).

次に、設定された追尾エリア302内で講義情報が含まれる領域が、重要背景エリア303として設定される(S903)。   Next, an area including lecture information in the set tracking area 302 is set as the important background area 303 (S903).

さらに、第1実施形態と同様に被写体の移動許容量が設定される。これらのステップS901〜ステップS903の初期設定は入力部207により行われ、記憶装置208に記憶される。   Further, the allowable movement amount of the subject is set as in the first embodiment. The initial settings in steps S901 to S903 are performed by the input unit 207 and stored in the storage device 208.

次に、カメラ部10で行われる講義の撮影の動作について図5、図8、および図28〜図32を参照して説明する。   Next, a lecture shooting operation performed by the camera unit 10 will be described with reference to FIGS. 5, 8, and 28 to 32.

まず、制御端末20のカメラ制御部204によりカメラ部10が起動されると(S410の「Yes」)、図28のフローチャートに従って撮影処理(D)が行われる(S411)。図28の撮影処理(D)について説明する。   First, when the camera unit 10 is activated by the camera control unit 204 of the control terminal 20 (“Yes” in S410), shooting processing (D) is performed according to the flowchart of FIG. 28 (S411). The imaging process (D) in FIG. 28 will be described.

カメラ部10が起動されると、まず基準画角301の撮影が開始される(S911)。ここでは基準画角301全体が表示画角として設定され、被写体検出部202により追尾エリア302内での被写体304の検出が行われる(S912)。   When the camera unit 10 is activated, first, photographing of the reference field angle 301 is started (S911). Here, the entire reference angle of view 301 is set as the display angle of view, and the subject detection unit 202 detects the subject 304 within the tracking area 302 (S912).

追尾エリア302内に誰も存在せず、被写体検出部202において被写体未検出の間(S912の「No」)は、ステップS911に戻りそのまま基準画角301全体が表示画角として設定されるとともに、撮影された画像が記憶装置208に保存される(S913)。   While no one is present in the tracking area 302 and the subject is not detected by the subject detection unit 202 (“No” in S912), the process returns to step S911 and the entire reference angle of view 301 is set as the display angle of view. The captured image is stored in the storage device 208 (S913).

追尾エリア302内に被写体304が入り、被写体検出部202により被写体304が検出されたときは(S912の「Yes」)、この被写体304の位置および被写体304の重心位置305が求められる(S914)。   When the subject 304 enters the tracking area 302 and the subject detection unit 202 detects the subject 304 (“Yes” in S912), the position of the subject 304 and the gravity center position 305 of the subject 304 are obtained (S914).

次に、ジェスチャ検出部203により被写体304による特定のジェスチャの検出が行われる(S915)。   Next, the gesture detection unit 203 detects a specific gesture by the subject 304 (S915).

ジェスチャ検出部203において被写体304の特定のジェスチャが未検出であったときは(S915の「No」)、被写体304を含み被写体304の重心位置305が中心となるような位置にカメラ制御部204により駆動部101が制御され、PTZ機能により撮影画角が図29に示すように設定される(S916)。   When a specific gesture of the subject 304 is not detected in the gesture detection unit 203 (“No” in S915), the camera control unit 204 includes the subject 304 and a position where the center of gravity 305 of the subject 304 is centered. The drive unit 101 is controlled, and the shooting angle of view is set as shown in FIG. 29 by the PTZ function (S916).

設定された撮影画角の画像は、記憶装置208に保存される(S913)。保存処理が終了すると、追尾エリア302内で被写体304が移動したかどうかが判定される(S917)。   The image with the set shooting angle of view is stored in the storage device 208 (S913). When the saving process ends, it is determined whether or not the subject 304 has moved within the tracking area 302 (S917).

判定の結果、被写体304が移動していれば(S917の「Yes」)、移動距離がプリセット部201に設定された移動許容量の範囲内であるかどうかが判定される(S918)。   As a result of the determination, if the subject 304 has moved (“Yes” in S917), it is determined whether or not the moving distance is within the allowable movement range set in the preset unit 201 (S918).

判定の結果、被写体304の移動距離が移動許容量の範囲を超えていた場合は(S918の「No」)、ステップS914に戻り、移動後の被写体の位置および被写体の重心位置が求められ、ステップS915以降の処理が行われる。   As a result of the determination, if the moving distance of the subject 304 exceeds the allowable movement range (“No” in S918), the process returns to step S914, and the moved subject position and the subject gravity center position are obtained. The process after S915 is performed.

ステップS917において被写体304が移動しなかったと判定された場合(S917の「No」)、およびステップS918において被写体の移動距離が設定された移動許容量の範囲内であると判定された場合(S918の「Yes」)は、ステップS915に戻り、ジェスチャ検出部203により被写体304による特定のジェスチャの検出が行われる。   If it is determined in step S917 that the subject 304 has not moved (“No” in S917), and if it is determined in step S918 that the moving distance of the subject is within the set allowable movement range (in S918). “Yes”) returns to step S 915, and the gesture detection unit 203 detects a specific gesture by the subject 304.

ステップS915において、ジェスチャ検出部203により被写体304による特定のジェスチャ307が検出された場合について図30〜図32を参照して説明する(S915の「Yes」)。   A case where a specific gesture 307 by the subject 304 is detected by the gesture detection unit 203 in step S915 will be described with reference to FIGS. 30 to 32 (“Yes” in S915).

被写体304による特定のジェスチャ307が検出されたときは、このジェスチャ307の検出位置が重要背景エリア303内であるかどうかが判定される(S919)。   When a specific gesture 307 by the subject 304 is detected, it is determined whether or not the detection position of the gesture 307 is within the important background area 303 (S919).

判定の結果、重要背景エリア303内であると判定された場合は(S919の「Yes」)、図形検出部213により重要背景エリア303内から、ジェスチャ307で指し示された指示領域308が検出される(S920)。   As a result of the determination, if it is determined that it is in the important background area 303 (“Yes” in S919), the figure detection unit 213 detects the instruction area 308 pointed to by the gesture 307 from the important background area 303. (S920).

次に、重要背景エリア303全体がこのときの撮影画角に含まれているかもしくは、指示領域308がこのときの撮影画角に収まっている場合は(S921の「Yes」)指示領域308の重心位置309が求められ(S922)、さらに被写体304の重心位置305と指示領域308の重心位置309との中心位置が求められる。   Next, if the entire important background area 303 is included in the shooting angle of view at this time, or if the pointing area 308 is within the shooting angle of view at this time (“Yes” in S921), the center of gravity of the pointing area 308 The position 309 is obtained (S922), and the center position between the gravity center position 305 of the subject 304 and the gravity center position 309 of the indication area 308 is obtained.

この被写体304の重心位置305と指示領域308の重心位置309との中心位置を重心位置310とし、カメラ制御部204により駆動部101が制御され、PTZ機能により図30に示すように被写体304および指示領域308が収まるように撮影画角が変更される(S923)。   The center position of the center of gravity position 305 of the subject 304 and the center of gravity position 309 of the instruction area 308 is defined as the center of gravity position 310, and the drive unit 101 is controlled by the camera control unit 204. The shooting angle of view is changed so that the area 308 fits (S923).

変更された撮影画角は、記憶装置208に保存される(S913)。   The changed shooting angle of view is stored in the storage device 208 (S913).

ステップS921において、指示領域308が撮影画角の端を含む形で検出され、撮影画角内に収まっていないと判断された場合は(S921の「No」)、被写体304が含まれたままカメラ制御部204により駆動部101が制御され、PTZ機能により指示領域308の撮影画角端の方向に撮影画角が広げられ、指示領域308全体が含まれるように撮影画角が変更される(S924)。   If it is determined in step S921 that the instruction area 308 includes the end of the shooting angle of view and is not within the shooting angle of view (“No” in S921), the camera with the subject 304 included is included. The driving unit 101 is controlled by the control unit 204, and the shooting angle of view is expanded in the direction of the shooting angle of view of the indication area 308 by the PTZ function, and the shooting angle of view is changed so that the entire indication area 308 is included (S924). ).

例えば、図31のように指示領域308が撮影画角に収まっていない場合は、指示領域308が右端にはみ出ていると判断され、図32に示すように被写体304および指示領域308を含むように右側に一定量パンされるとともに、被写体304と指示領域308とが両方共フレームアウトしないように一定量ズームアウトされる。   For example, when the instruction area 308 does not fall within the shooting angle of view as shown in FIG. 31, it is determined that the instruction area 308 protrudes to the right end and includes the subject 304 and the instruction area 308 as shown in FIG. A certain amount of panning is performed on the right side, and a certain amount of zooming is performed so that the subject 304 and the pointing area 308 are not out of frame.

そして、再びステップS921に戻り、指示領域308が撮影画角に収まっているか判断される。このステップS921およびS924の処理は、指示領域308が撮影画角に収まるまで繰り返される。   Then, the process returns to step S921, and it is determined whether the instruction area 308 is within the shooting angle of view. The processes in steps S921 and S924 are repeated until the instruction area 308 is within the shooting angle of view.

これらの処理により、ジェスチャ307が検出される前は被写体304のみに基づいて重心位置305を重心とした撮影画角が図29に示すように設定されるが、ジェスチャ307が検出されると被写体304および指示領域308に基づいて求められた重心位置310を重心として撮影画角に変更され、モニタに表示される画像は図30のように切り替わる。   With these processes, before the gesture 307 is detected, the shooting angle of view with the center of gravity position 305 as the center of gravity is set based on only the subject 304 as shown in FIG. 29, but when the gesture 307 is detected, the subject 304 is detected. Then, the center of gravity position 310 obtained based on the instruction area 308 is changed to the photographing field angle with the center of gravity as the center of gravity, and the image displayed on the monitor is switched as shown in FIG.

また、ステップS915において、検出されたジェスチャ307の検出位置が重要背景エリア303内ではなかったと判定された場合は(S919の「No」)、ステップS916に進み、被写体304を含み被写体304の重心位置305が中心となるような位置にカメラ制御部204により駆動部101が制御され、PTZ機能により撮影画角が設定される。   If it is determined in step S915 that the detected position of the detected gesture 307 is not within the important background area 303 (“No” in S919), the process proceeds to step S916, and the gravity center position of the subject 304 including the subject 304 is reached. The drive unit 101 is controlled by the camera control unit 204 at a position such that 305 is at the center, and the shooting angle of view is set by the PTZ function.

以上の撮影処理(D)は講義風景が撮影されている間繰り返し行われ、ユーザにより撮影を停止する操作が入力部207により行われた場合は(S431の「Yes」)、撮影処理(D)に停止を指示する割り込み信号が送信され(S432)、カメラ制御部204によってカメラ部10の撮影が停止されるとともに、制御端末20も一連の検出動作および撮影動作が停止される。   The above photographing process (D) is repeatedly performed while the lecture scenery is photographed. When the user performs an operation to stop photographing using the input unit 207 (“Yes” in S431), the photographing process (D) is performed. An interrupt signal for instructing the stop is transmitted (S432), and the camera control unit 204 stops shooting of the camera unit 10, and the control terminal 20 also stops a series of detection operations and shooting operations.

ユーザにより撮影を停止する操作が行われていないときは(S431の「No」)、撮影処理(D)は継続して行われる。   When the user does not perform an operation to stop shooting (“No” in S431), the shooting process (D) is continuously performed.

以上の第4実施形態による追尾撮像装置によれば、被写体と被写体の背景にある重要な情報とを確実に逃さず捉えることができるとともに、これらの重要な情報はズーム機能を用いて認識可能な大きさで撮影されているため講義内容の把握に効果的な映像を得ることができる。   According to the tracking imaging apparatus according to the fourth embodiment described above, the subject and important information in the background of the subject can be reliably captured without being missed, and the important information can be recognized using the zoom function. Because it is filmed in size, it is possible to obtain an effective video for understanding the content of the lecture.

《第5実施形態》
本発明の第5実施形態による追尾撮像システムは、第4実施形態による追尾撮像装置を用いて撮影された講義等の映像を、ネットワークを介して遠隔地の受講生が受信して視聴する遠隔講義に用いるものである。
<< 5th Embodiment >>
The tracking imaging system according to the fifth embodiment of the present invention is a remote lecture in which a student at a remote location receives and views a video of a lecture taken using the tracking imaging apparatus according to the fourth embodiment via a network. It is used for.

〈第5実施形態による追尾撮像システムの構成〉
本実施形態による追尾システムの構成を、図33を用いて説明する。図33は、本実施形態による追尾システムの構成を示すブロック図であり、追尾撮像装置6と、ネットワーク3と、ネットワーク3を介して追尾撮像装置6に接続されている表示端末4とから構成されている。
<Configuration of Tracking Imaging System According to Fifth Embodiment>
The configuration of the tracking system according to the present embodiment will be described with reference to FIG. FIG. 33 is a block diagram illustrating the configuration of the tracking system according to the present embodiment, which includes the tracking imaging device 6, the network 3, and the display terminal 4 connected to the tracking imaging device 6 via the network 3. ing.

追尾撮像装置6の主な構成は、第4実施形態における追尾撮像装置5の構成と同様であるため詳細な説明は省略する。追尾撮像装置5と異なる点は、講義の音声を録音する音声入力部11と、制御端末20に設けられネットワーク3を介して表示端末4と通信を行う通信制御部212を有することである。音声入力部11は、被写体すなわち講師に装着したピンマイクもしくは集音マイクなどである。   Since the main configuration of the tracking imaging device 6 is the same as the configuration of the tracking imaging device 5 in the fourth embodiment, detailed description thereof is omitted. The difference from the tracking imaging device 5 is that it has a voice input unit 11 that records lecture voices and a communication control unit 212 that is provided in the control terminal 20 and communicates with the display terminal 4 via the network 3. The voice input unit 11 is a pin microphone or a sound collecting microphone attached to a subject, that is, a lecturer.

ネットワーク3および表示端末4の構成は第2実施形態と同様であるため、詳しい説明は省略する。   Since the configurations of the network 3 and the display terminal 4 are the same as those in the second embodiment, detailed description thereof is omitted.

〈第5実施形態による追尾撮像システムの動作〉
本発明の第2実施形態による追尾撮像システムの動作について説明する。本実施形態において、講義が撮影されている間、カメラ部10で撮影された画像は第4実施形態と同様に図28のフローチャートに従って撮影処理(D)が継続して行われ、音声入力部11から入力した講義の音声も継続して集音されているものとする。
<Operation of Tracking Imaging System According to Fifth Embodiment>
The operation of the tracking imaging system according to the second embodiment of the present invention will be described. In the present embodiment, while the lecture is being photographed, the image photographed by the camera unit 10 is continuously subjected to the photographing process (D) according to the flowchart of FIG. It is assumed that the lecture audio input from is continuously collected.

追尾撮像装置6により撮影された映像および集音された音声であるコンテンツの配信処理は、第2実施形態と同様であるため、詳しい説明は省略する。   Since the distribution processing of the content that is the video and the collected sound captured by the tracking imaging device 6 is the same as in the second embodiment, detailed description thereof is omitted.

以上の第5実施形態による追尾撮像制御システムによれば、第4実施形態と同様の効果を得ることができるとともに、ネットワークを介して遠隔地に撮影したコンテンツを配信することができる。   According to the tracking imaging control system according to the fifth embodiment described above, it is possible to obtain the same effect as that of the fourth embodiment, and to distribute the content photographed to a remote place via the network.

《その他の実施形態》
上記の第1実施形態〜第5実施形態において、下記のような形態で処理を行うことも可能である。
<< Other Embodiments >>
In the first to fifth embodiments described above, it is possible to perform processing in the following manner.

〈ジェスチャの検出に関する他の実施形態〉
第1実施形態〜第5実施形態において、撮影した映像から被写体およびそのジェスチャを検出したが、これには限定されず、黒板などの重要背景エリアにタッチセンサーを設置し、被写体が黒板に触れたときにその位置を指示した位置をジェスチャが行われた位置として検出し、さらに指示領域を検出したり、被写体や指示領域の検出精度を向上させるためにその他の位置サンサーを併用したりしてもよい。
<Other Embodiments Regarding Gesture Detection>
In the first to fifth embodiments, the subject and its gesture are detected from the captured video, but the present invention is not limited to this. A touch sensor is installed in an important background area such as a blackboard, and the subject touches the blackboard. Sometimes the position that indicates the position is detected as the position where the gesture was made, and the pointing area can be further detected, or other position sensors can be used in combination to improve the detection accuracy of the subject or pointing area. Good.

〈トラッキングに関する他の実施形態〉
第1実施形態〜第5実施形態の撮影中の映像において、被写体が追尾エリアの中程で突然消えることはないので、撮影した映像のある画像フレームでそれまで検出していた被写体が未検出になった場合、すぐに表示画角を基準画角に変更せず、その後数フレーム内に被写体が再検出された場合には継続して検出されていたものとみなして処理を続けるトラッキング機能を使用してもよい。このような機能を使用することで、表示画角が頻繁に変わってしまうことを防ぎ、より見やすい映像にすることができる。
<Other Embodiments Regarding Tracking>
In the video being shot in the first to fifth embodiments, the subject does not suddenly disappear in the middle of the tracking area, so the subject that has been detected in the image frame of the shot video is not detected yet. The tracking function does not immediately change the display angle of view to the reference angle of view, but if the subject is detected again within a few frames, it is assumed that it has been detected continuously and the tracking function is used to continue processing. May be. By using such a function, it is possible to prevent the display angle of view from changing frequently and to make the image easier to view.

〈表示画角を切り出す位置に関する他の実施形態〉
第1実施形態〜第5実施形態において、撮影したフレーム画像から表示画角を切り出す際、カメラ部10で撮影した基準画角の映像全体を制御端末20に送信し、制御端末20側で表示画角の切り出しを行っているが、カメラ部10内に切り出し部209の機能を持たせ、カメラ制御部204からカメラ部10に切り出す部分の位置座標などの情報を送信し、撮影した映像の中で表示画角だけをカメラ部10内で切り出して制御端末20に送信するようにしてもよい。
<Other Embodiments Regarding Positions for Cutting Display Angle of View>
In the first to fifth embodiments, when the display angle of view is cut out from the captured frame image, the entire video of the reference angle of view captured by the camera unit 10 is transmitted to the control terminal 20, and the display image is displayed on the control terminal 20 side. Although the corner is cut out, the function of the cutout unit 209 is provided in the camera unit 10, and information such as the position coordinates of the portion to be cut out is transmitted from the camera control unit 204 to the camera unit 10. Only the display angle of view may be cut out in the camera unit 10 and transmitted to the control terminal 20.

また、カメラ部10に制御端末20の被写体検出部202、ジェスチャ検出部203、図形検出部205、スケーリング部210などの機能を持たせ、カメラ部10に中で各種検出から表示画角の切り出しまで行うようにしてもよい。   Also, the camera unit 10 is provided with functions such as the subject detection unit 202, the gesture detection unit 203, the figure detection unit 205, and the scaling unit 210 of the control terminal 20, and the camera unit 10 performs various detections to cut out the display angle of view. You may make it perform.

〈重心位置、中心位置に関する他の実施形態〉
第1実施形態〜第5実施形態において、ジェスチャが検出されていないときは被写体の重心位置から表示画角を求めているが、被写体の表示範囲はこれには限定されず、必要な部分が映っていれば他の画角でもよい。
<Other Embodiments Regarding Center of Gravity Position and Center Position>
In the first to fifth embodiments, when no gesture is detected, the display angle of view is obtained from the center of gravity position of the subject. However, the display range of the subject is not limited to this, and a necessary portion is reflected. Any other angle of view may be used.

また、被写体のジェスチャが検出されたとき、被写体の重心位置と指示領域の重心位置とから表示画角の中心位置を求めたが、これには限定されず、例えば被写体が表示画角の端に位置するようにするとともに指示領域の重心位置を表示画角の中心位置にするようにするなど、被写体と指示領域とが含まれ、見る人が見やすい表示画角であれば別の画角でもよい。   In addition, when the gesture of the subject is detected, the center position of the display angle of view is obtained from the center of gravity position of the subject and the center of gravity of the indication area. However, the present invention is not limited to this. If the display angle of view is easy to see for the viewer, it may be a different angle of view, including the subject and the indication area, such as positioning the center of gravity of the indication area at the center of the display angle of view. .

〈移動許容量に関する他の実施形態〉
第1実施形態〜第5実施形態において、被写体の移動許容量は予め想定される被写体の動作スピードと移動量によって設定しているが、これには限定されず、撮影中に被写体の動きベクトルを求め、被写体の移動スピードによってその移動許容量や、被写体や指示領域の表示画角および表示画角サイズを変更するようなダイナミックな設定を行うようにしてもよい。
<Other Embodiments Regarding Movement Allowance>
In the first to fifth embodiments, the allowable movement amount of the subject is set according to the subject's assumed operation speed and movement amount in advance, but is not limited to this. It is also possible to perform dynamic settings such as changing the allowable movement amount of the subject, the display angle of view of the subject or the instruction area, and the display angle of view size depending on the movement speed of the subject.

〈撮影した映像の保存場所に関する他の実施形態〉
第1実施形態〜第5実施形態において、撮影した映像のデータは追尾撮像装置内の記憶装置208に記録したが、これには限定されず、制御端末20に通信手段(図示せず)を設け、この通信手段を介して別の記憶装置に記録するようにしてもよい。このとき、リアルタイム配信をする場合は、記憶バッファ(図示せず)に映像のデータを一時保存するか、もしくはそのまま所定のデータ形式に変換して配信する。
<Other Embodiments Regarding Storage Location of Captured Video>
In the first to fifth embodiments, the captured video data is recorded in the storage device 208 in the tracking imaging device. However, the present invention is not limited to this, and a communication means (not shown) is provided in the control terminal 20. The data may be recorded in another storage device via the communication unit. At this time, in the case of real-time distribution, video data is temporarily stored in a storage buffer (not shown) or is directly converted into a predetermined data format for distribution.

本発明の第1実施形態における追尾撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the tracking imaging device in 1st Embodiment of this invention. 本発明の第1実施形態における追尾撮像装置により撮影が行われる空間を示す概略図である。It is the schematic which shows the space where imaging | photography is performed by the tracking imaging device in 1st Embodiment of this invention. 本発明の第1実施形態における追尾撮像装置により撮影された基準画角を示す概略図である。It is the schematic which shows the reference | standard view angle image | photographed with the tracking imaging device in 1st Embodiment of this invention. 本発明の第1実施形態における追尾撮像装置における初期設定の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the initial setting in the tracking imaging device in 1st Embodiment of this invention. 本発明の第1実施形態における追尾撮像装置における起動および停止の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of starting and a stop in the tracking imaging device in 1st Embodiment of this invention. 本発明の第1実施形態における追尾撮像装置における撮影処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the imaging | photography process in the tracking imaging device in 1st Embodiment of this invention. 本発明の第1実施形態における追尾撮像装置における保存処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the preservation | save process in the tracking imaging device in 1st Embodiment of this invention. 本発明の第1実施形態における追尾撮像装置により撮影された基準画角の画像を示す概略図である。It is the schematic which shows the image of the reference | standard angle of view image | photographed with the tracking imaging device in 1st Embodiment of this invention. 本発明の第1実施形態における追尾撮像装置により撮影された画像から切り出した被写体を中心とした表示画角の概略図である。It is the schematic of the display angle of view centering on the to-be-photographed object from the image image | photographed with the tracking imaging device in 1st Embodiment of this invention. 本発明の第1実施形態における追尾撮像装置により撮影された基準画角の画像を示す概略図である。It is the schematic which shows the image of the reference | standard angle of view image | photographed with the tracking imaging device in 1st Embodiment of this invention. 本発明の第1実施形態における追尾撮像装置により撮影された画像から切り出された被写体を中心とした表示画角の概略図である。It is the schematic of the display angle of view centering on the to-be-photographed object from the image image | photographed with the tracking imaging device in 1st Embodiment of this invention. 本発明の第1実施形態における追尾撮像装置により撮影された画像から切り出された被写体および指示領域を中心とした表示画角の概略図である。It is the schematic of the display field angle centering on the to-be-photographed object and instruction | indication area | region cut out from the image image | photographed with the tracking imaging device in 1st Embodiment of this invention. 本発明の第2実施形態における追尾撮像システムの構成を示すブロック図である。It is a block diagram which shows the structure of the tracking imaging system in 2nd Embodiment of this invention. 本発明の第2実施形態における追尾撮像システムにおけるコンテンツ配信処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the content delivery process in the tracking imaging system in 2nd Embodiment of this invention. 本発明の第2実施形態における追尾撮像システムにおけるコンテンツ受信処理および表示処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the content reception process in the tracking imaging system in 2nd Embodiment of this invention, and a display process. 本発明の第3実施形態における追尾撮像システムにおける初期設定の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the initial setting in the tracking imaging system in 3rd Embodiment of this invention. 本発明の第3実施形態における追尾撮像システムにおける撮影処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the imaging | photography process in the tracking imaging system in 3rd Embodiment of this invention. 本発明の第3実施形態における追尾撮像システムにおいて検出された被写体を示す概略図である。It is the schematic which shows the to-be-photographed object detected in the tracking imaging system in 3rd Embodiment of this invention. 本発明の第3実施形態における追尾撮像システムにおいて検出された指示領域を示す概略図である。It is the schematic which shows the instruction | indication area | region detected in the tracking imaging system in 3rd Embodiment of this invention. 本発明の第3実施形態における追尾撮像システムにおいて撮影された画像が表示された状態を示す概略図である。It is the schematic which shows the state by which the image image | photographed in the tracking imaging system in 3rd Embodiment of this invention was displayed. 本発明の第3実施形態における追尾撮像システムにより撮影された基準画角を示す概略図である。It is the schematic which shows the reference | standard angle of view image | photographed with the tracking imaging system in 3rd Embodiment of this invention. 本発明の第3実施形態における追尾撮像システムにおいて撮影された画像が表示された状態を示す概略図である。It is the schematic which shows the state by which the image image | photographed in the tracking imaging system in 3rd Embodiment of this invention was displayed. 本発明の第3実施形態における追尾撮像システムにより撮影された基準画角を示す概略図である。It is the schematic which shows the reference | standard angle of view image | photographed with the tracking imaging system in 3rd Embodiment of this invention. 本発明の第3実施形態における追尾撮像システムにおいて撮影された画像が表示された状態を示す概略図である。It is the schematic which shows the state by which the image image | photographed in the tracking imaging system in 3rd Embodiment of this invention was displayed. 本発明の第3実施形態における追尾撮像システムにおいて撮影された画像が表示された状態を示す概略図である。It is the schematic which shows the state by which the image image | photographed in the tracking imaging system in 3rd Embodiment of this invention was displayed. 本発明の第4実施形態における追尾撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the tracking imaging device in 4th Embodiment of this invention. 本発明の第4実施形態における追尾撮像装置における初期設定の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the initial setting in the tracking imaging device in 4th Embodiment of this invention. 本発明の第4実施形態における追尾撮像装置における撮影処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the imaging | photography process in the tracking imaging device in 4th Embodiment of this invention. 本発明の第4実施形態における追尾撮像装置により撮影された被写体を中心とした撮影画角の概略図である。It is the schematic of the imaging | photography field angle centering on the to-be-photographed object image | photographed with the tracking imaging device in 4th Embodiment of this invention. 本発明の第4実施形態における追尾撮像装置により撮影された被写体および指示領域を中心とした撮影画角の概略図である。It is the schematic of the imaging | photography field angle centering on the to-be-photographed object and instruction | indication area | region image | photographed with the tracking imaging device in 4th Embodiment of this invention. 本発明の第4実施形態における追尾撮像システムにより撮影された被写体を中心とした撮影画角の概略図である。It is the schematic of the imaging | photography field angle centering on the to-be-photographed object image | photographed with the tracking imaging system in 4th Embodiment of this invention. 本発明の第4実施形態における追尾撮像装置により撮影された被写体を中心とした撮影画角の概略図である。It is the schematic of the imaging | photography field angle centering on the to-be-photographed object image | photographed with the tracking imaging device in 4th Embodiment of this invention. 本発明の第5実施形態における追尾撮像システムの構成を示すブロック図である。It is a block diagram which shows the structure of the tracking imaging system in 5th Embodiment of this invention.

符号の説明Explanation of symbols

1、2、5、6、…追尾撮像装置
3…ネットワーク
4…表示端末
10…カメラ部
11…音声入力部
20…制御端末
30…空間
41…通信制御部
42…出力部
43…入力部
44…記憶装置
45…制御部
101…駆動部
201…プリセット部
202…被写体検出部
203…ジェスチャ検出部
204…カメラ制御部
205…図形検出部
206…表示部
207…入力部
208…記憶装置
209…画像切り出し部
210…スケーリング部
211…制御部
212…通信制御部
213…図形検出部
301…基準画角
302…追尾エリア
303…重要背景エリア
304…被写体
304A、304B、304C、304D…被写体位置
305…被写体の重心位置
305A、305B、305C、305D…重心位置
306…領域
306A、306B、306C、306D…表示画角
307…ジェスチャ
308…指示領域
309…指示領域の重心位置
310…重心位置
311…重心位置
312…領域
313…第1の表示画角
314…第2の表示画角
315〜318…画像
319…表示画角
320〜323…画像

1, 2, 5, 6, ... tracking imaging device 3 ... network 4 ... display terminal 10 ... camera unit 11 ... audio input unit 20 ... control terminal 30 ... space 41 ... communication control unit 42 ... output unit 43 ... input unit 44 ... Storage device 45 ... Control unit 101 ... Drive unit 201 ... Preset unit 202 ... Subject detection unit 203 ... Gesture detection unit 204 ... Camera control unit 205 ... Graphic detection unit 206 ... Display unit 207 ... Input unit 208 ... Storage device 209 ... Image clipping Section 210 ... Scaling section 211 ... Control section 212 ... Communication control section 213 ... Figure detection section 301 ... Reference field angle 302 ... Tracking area 303 ... Important background area 304 ... Subject 304A, 304B, 304C, 304D ... Subject position 305 ... Subject position Center of gravity position 305A, 305B, 305C, 305D ... Center of gravity position 306 ... Area 306A , 306B, 306C, 306D ... display angle of view 307 ... gesture 308 ... instructed area 309 ... center of gravity position of indicated area 310 ... center of gravity position 311 ... center of gravity position 312 ... area 313 ... first display angle of view 314 ... second display image Angles 315 to 318 ... Image 319 ... Display angle of view 320 to 323 ... Image

Claims (6)

追尾撮影エリア内を移動する人物を第1被写体として追尾して撮影するとともに、前記追尾撮影エリア内の重要背景エリア内にある第2被写体を撮影するカメラ部を備えた追尾撮像装置であって、
前記カメラ部が、前記追尾撮影エリア内を撮影して得られた画像から前記第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、
前記検出された第1被写体が前記重要背景エリア内の任意の位置を差し示す所定のジェスチャを検出するとともに、前記検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、
前記取得された位置座標に基づいて前記第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、
前記取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、前記第1及び第2被写体の画像を所定の画角で撮影画像から抽出する画像切り出し部と、
を備えた構成の追尾撮像装置。
A tracking imaging apparatus including a camera unit that tracks and captures a person moving in a tracking shooting area as a first subject and captures a second subject in an important background area in the tracking shooting area,
A subject detection unit that detects the first subject from an image obtained by photographing the inside of the tracking photographing area, and obtains the barycentric position coordinate of the detected first subject;
A gesture detection unit that detects a predetermined gesture in which the detected first subject indicates an arbitrary position in the important background area, and acquires a position coordinate of the position pointed to by the detected gesture;
A graphic detector that detects the second subject based on the acquired position coordinates and acquires the center-of-gravity position coordinates of the detected second subject;
An image cut-out unit that extracts the image of the first and second subjects from the photographed image at a predetermined angle of view, with the midpoint coordinates of the center of gravity coordinates of the acquired first and second subjects as the center of the angle of view; ,
A tracking imaging device having a configuration comprising:
前記被写体検出部は、前記画像切り出し部から抽出された第1画像から検出した前記第1被写体の重心位置座標と、前記第1画像よりも後に撮影されて抽出された第2画像から検出した前記第1被写体の重心位置座標との距離が、あらかじめ設定された移動許容値以下である場合は、前記第2画像の画角を前記第1画像の画角と同一にするように構成したことを特徴とする請求項1に記載の追尾撮像装置。   The subject detection unit is detected from the center-of-gravity position coordinates of the first subject detected from the first image extracted from the image cutout unit and the second image extracted after being captured after the first image. When the distance from the center-of-gravity position coordinates of the first subject is equal to or less than a predetermined movement allowable value, the angle of view of the second image is configured to be the same as the angle of view of the first image. The tracking imaging apparatus according to claim 1, wherein the tracking imaging apparatus is characterized. 追尾撮影エリア内を移動する人物を第1被写体として追尾して撮影するとともに、前記追尾撮影エリア内の重要背景エリア内にある第2被写体を撮影するパン、チルト、及びズーム機能を有するカメラ部を備えた追尾撮像装置であって、
前記カメラ部が、前記追尾撮影エリア内を撮影して得られた画像から前記第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、
前記検出された第1被写体が前記重要背景エリア内の任意の位置を指し示す所定のジェスチャを検出するとともに、前記検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、
前記取得された位置座標に基づいて前記第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、
前記取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、前記パン、チルト、及びズームのうち少なくとも一の撮影制御機能により、前記第1及び第2被写体の画像を所定の画角で撮影するように前記カメラ部を制御するカメラ制御部と、
を備えた構成の追尾撮像装置。
A camera unit having a pan, tilt, and zoom function for shooting a person moving in the tracking shooting area as a first subject and shooting a second subject in an important background area in the tracking shooting area. A tracking imaging device provided,
A subject detector for detecting the first subject from an image obtained by photographing the inside of the tracking photographing area, and acquiring a barycentric position coordinate of the detected first subject;
A gesture detection unit that detects a predetermined gesture in which the detected first subject points to an arbitrary position in the important background area, and acquires position coordinates of the position pointed to by the detected gesture;
A graphic detector that detects the second subject based on the acquired position coordinates and acquires the center-of-gravity position coordinates of the detected second subject;
By using at least one shooting control function among the pan, tilt, and zoom, the first and second subjects with the center point coordinates of the center of gravity coordinates of the acquired first and second subjects as the center of the angle of view. A camera control unit that controls the camera unit so as to capture an image of a predetermined angle of view;
A tracking imaging device having a configuration comprising:
前記被写体検出部は、前記カメラ制御部の制御によって前記カメラ部で撮影された第1画像から検出した前記第1被写体の重心位置座標と、前記第1画像よりも後に撮影されて抽出された第2画像から検出した前記第1被写体の重心位置座標との距離が、あらかじめ設定された移動許容値以下である場合は、前記第2画像の画角を前記第1画像の画角と同一にするように構成したことを特徴とする請求項3に記載の追尾撮像装置。   The subject detection unit includes the coordinates of the barycentric position of the first subject detected from the first image captured by the camera unit under the control of the camera control unit, and the first captured and extracted after the first image. When the distance from the center of gravity position coordinates of the first subject detected from two images is equal to or less than a preset movement allowable value, the angle of view of the second image is made the same as the angle of view of the first image. The tracking imaging apparatus according to claim 3, wherein the tracking imaging apparatus is configured as described above. 追尾撮影エリア内を移動する人物を第1被写体として追尾して撮影するとともに、前記追尾撮影エリア内の重要背景エリア内にある第2被写体を撮影するカメラ部を備えた追尾撮像装置と、前記カメラ部で撮影された画像を表示する表示端末とがネットワークを介してそれぞれ接続された追尾撮像システムであって、
前記追尾撮像装置は、
前記カメラ部が、前記追尾撮影エリア内を撮影して得られた画像から前記第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、
前記検出された第1被写体が前記重要背景エリア内の任意の位置を差し示す所定のジェスチャを検出するとともに、前記検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、
前記取得された位置座標に基づいて前記第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、
前記取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、前記第1及び第2被写体の画像を所定の画角で撮影画像から抽出する画像切り出し部と、
前記抽出された画像を前記ネットワークに送出するための通信制御部とを備えるとともに、
前記表示端末は、
前記追尾撮像装置から送出された画像を受信する通信制御部と、
前記受信された画像を表示出力する出力部と、
を備えた構成の追尾撮像システム。
A tracking imaging apparatus including a camera unit that tracks a person moving in a tracking shooting area as a first subject and shoots a second subject in an important background area in the tracking shooting area, and the camera A tracking imaging system in which a display terminal that displays an image captured in a section is connected via a network,
The tracking imaging device is
A subject detector for detecting the first subject from an image obtained by photographing the inside of the tracking photographing area, and acquiring a barycentric position coordinate of the detected first subject;
A gesture detection unit that detects a predetermined gesture in which the detected first subject indicates an arbitrary position in the important background area, and acquires a position coordinate of a position indicated by the detected gesture;
A graphic detector that detects the second subject based on the acquired position coordinates and acquires the center-of-gravity position coordinates of the detected second subject;
An image cut-out unit that extracts the image of the first and second subjects from the photographed image at a predetermined angle of view, with the center point coordinates of the center of gravity coordinates of the acquired first and second subjects as the center of the angle of view; ,
A communication control unit for sending the extracted image to the network;
The display terminal is
A communication control unit for receiving an image sent from the tracking imaging device;
An output unit for displaying and outputting the received image;
The tracking imaging system of the structure provided with.
追尾撮影エリア内を移動する人物を第1被写体として追尾して撮影するとともに、前記追尾撮影エリア内の重要背景エリア内にある第2被写体を撮影するパン、チルト、及びズーム機能を有するカメラ部を備えた追尾撮像装置と、前記カメラ部で撮影された画像を表示する表示端末とがネットワークを介してそれぞれ接続された追尾撮像システムであって、
前記追尾撮像装置は、
前記カメラ部が、前記追尾撮影エリア内を撮影して得られた画像から前記第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、
前記検出された第1被写体が前記重要背景エリア内の任意の位置を指し示す所定のジェスチャを検出するとともに、前記検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、
前記取得された位置座標に基づいて前記第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、
前記取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、前記パン、チルト、及びズームのうち少なくとも一の撮影制御機能により、前記第1及び第2被写体の画像を所定の画角で撮影するように前記カメラ部を制御するカメラ制御部と、
前記撮影された画像を前記ネットワークに送出するための通信制御部とを備えるとともに、
前記表示端末は、
前記追尾撮像装置から送出された画像を受信する通信制御部と、
前記受信された画像を表示出力する出力部と、
を備えた構成の追尾撮像システム。

A camera unit having a pan, tilt, and zoom function for shooting a person moving in the tracking shooting area as a first subject and shooting a second subject in an important background area in the tracking shooting area. A tracking imaging system in which a tracking imaging device provided and a display terminal that displays an image captured by the camera unit are connected to each other via a network,
The tracking imaging device is
A subject detector for detecting the first subject from an image obtained by photographing the inside of the tracking photographing area, and acquiring a barycentric position coordinate of the detected first subject;
A gesture detection unit that detects a predetermined gesture in which the detected first subject points to an arbitrary position in the important background area, and acquires position coordinates of the position pointed to by the detected gesture;
A graphic detector that detects the second subject based on the acquired position coordinates and acquires the center-of-gravity position coordinates of the detected second subject;
By using at least one shooting control function among the pan, tilt, and zoom, the first and second subjects with the center point coordinates of the center of gravity coordinates of the acquired first and second subjects as the center of the angle of view. A camera control unit that controls the camera unit so as to capture an image of a predetermined angle of view;
A communication control unit for sending the captured image to the network,
The display terminal is
A communication control unit for receiving an image sent from the tracking imaging device;
An output unit for displaying and outputting the received image;
The tracking imaging system of the structure provided with.

JP2005350674A 2005-12-05 2005-12-05 Tracking imaging apparatus and tracking imaging system utilizing it Pending JP2007158680A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005350674A JP2007158680A (en) 2005-12-05 2005-12-05 Tracking imaging apparatus and tracking imaging system utilizing it

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005350674A JP2007158680A (en) 2005-12-05 2005-12-05 Tracking imaging apparatus and tracking imaging system utilizing it

Publications (1)

Publication Number Publication Date
JP2007158680A true JP2007158680A (en) 2007-06-21

Family

ID=38242468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005350674A Pending JP2007158680A (en) 2005-12-05 2005-12-05 Tracking imaging apparatus and tracking imaging system utilizing it

Country Status (1)

Country Link
JP (1) JP2007158680A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031334A (en) * 2007-07-24 2009-02-12 Sharp Corp Projector and projection method for projector
JP2009081496A (en) * 2007-09-25 2009-04-16 Hitachi Ltd In-vehicle camera
JP2010136099A (en) * 2008-12-04 2010-06-17 Sony Corp Image processing device and method, image processing system, and image processing program
JP2010204730A (en) * 2009-02-27 2010-09-16 Seiko Epson Corp System of controlling device in response to gesture
JP2014090370A (en) * 2012-10-31 2014-05-15 Canon Marketing Japan Inc Information processor, control method of the same and program
WO2015072166A1 (en) * 2013-11-18 2015-05-21 オリンパスイメージング株式会社 Imaging device, imaging assistant method, and recoding medium on which imaging assistant program is recorded
CN106464784A (en) * 2014-06-30 2017-02-22 奥林巴斯株式会社 Image capturing device and image capturing method
CN112839227A (en) * 2019-11-22 2021-05-25 浙江宇视科技有限公司 Image coding method, device, equipment and medium
US11445119B2 (en) 2020-09-18 2022-09-13 Canon Kabushiki Kaisha Image capturing control apparatus, image capturing control method, and storage medium

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031334A (en) * 2007-07-24 2009-02-12 Sharp Corp Projector and projection method for projector
JP2009081496A (en) * 2007-09-25 2009-04-16 Hitachi Ltd In-vehicle camera
US9786144B2 (en) 2008-12-04 2017-10-10 Sony Corporation Image processing device and method, image processing system, and image processing program
JP2010136099A (en) * 2008-12-04 2010-06-17 Sony Corp Image processing device and method, image processing system, and image processing program
JP4715909B2 (en) * 2008-12-04 2011-07-06 ソニー株式会社 Image processing apparatus and method, image processing system, and image processing program
US8363107B2 (en) 2008-12-04 2013-01-29 Sony Corporation Image processing device and method, image processing system, and image processing program
US8957971B2 (en) 2008-12-04 2015-02-17 Sony Corporation Image processing device and method, image processing system, and image processing program
US9886770B2 (en) 2008-12-04 2018-02-06 Sony Corporation Image processing device and method, image processing system, and image processing program
JP2010204730A (en) * 2009-02-27 2010-09-16 Seiko Epson Corp System of controlling device in response to gesture
JP2014090370A (en) * 2012-10-31 2014-05-15 Canon Marketing Japan Inc Information processor, control method of the same and program
WO2015072166A1 (en) * 2013-11-18 2015-05-21 オリンパスイメージング株式会社 Imaging device, imaging assistant method, and recoding medium on which imaging assistant program is recorded
JPWO2015072166A1 (en) * 2013-11-18 2017-03-16 オリンパス株式会社 IMAGING DEVICE, IMAGING ASSIST METHOD, AND RECORDING MEDIUM CONTAINING IMAGING ASSIST PROGRAM
US9628700B2 (en) 2013-11-18 2017-04-18 Olympus Corporation Imaging apparatus, imaging assist method, and non-transitory recoding medium storing an imaging assist program
JP5886479B2 (en) * 2013-11-18 2016-03-16 オリンパス株式会社 IMAGING DEVICE, IMAGING ASSIST METHOD, AND RECORDING MEDIUM CONTAINING IMAGING ASSIST PROGRAM
CN106464784A (en) * 2014-06-30 2017-02-22 奥林巴斯株式会社 Image capturing device and image capturing method
CN112839227A (en) * 2019-11-22 2021-05-25 浙江宇视科技有限公司 Image coding method, device, equipment and medium
CN112839227B (en) * 2019-11-22 2023-03-14 浙江宇视科技有限公司 Image coding method, device, equipment and medium
US11445119B2 (en) 2020-09-18 2022-09-13 Canon Kabushiki Kaisha Image capturing control apparatus, image capturing control method, and storage medium

Similar Documents

Publication Publication Date Title
JP4770178B2 (en) Camera control apparatus, camera system, electronic conference system, and camera control method
JP2007158680A (en) Tracking imaging apparatus and tracking imaging system utilizing it
WO2017215295A1 (en) Camera parameter adjusting method, robotic camera, and system
US20100118112A1 (en) Group table top videoconferencing device
CN108780581B (en) Information processing apparatus, information processing scheme, and program
JP2009232151A (en) Imaging apparatus, control method therefor and program
US11250636B2 (en) Information processing device, information processing method, and program
US6563528B2 (en) Video conference system
TW201135341A (en) Front projection system and method
JP2016213677A (en) Remote communication system, and control method and program for the same
WO2019124111A1 (en) Control device and control method
JP2005033570A (en) Method and system for providing mobile body image
KR20100121086A (en) Ptz camera application system for photographing chase using sound source recognition and method therefor
CN111163280A (en) Asymmetric video conference system and method thereof
JP2005117285A (en) Information input device, communication terminal and communication method
KR20160082291A (en) Image processing apparatus and image processing method thereof
WO2012008553A1 (en) Robot system
JP2008182321A (en) Image display system
JP3449939B2 (en) Video display method and recording medium recording the program
JP2004289779A (en) Mobile body imaging method and mobile body imaging system
WO2018074262A1 (en) Communication device, communication method, and program
JP3759216B2 (en) Television camera communication device and multipoint connection device
KR101992437B1 (en) Method for assisting learning of movable robot and movable robot device for use therein
JP5939902B2 (en) Control device and control method of control device
JP2021013138A (en) Imaging apparatus and information processing device