JP2007158680A - Tracking imaging apparatus and tracking imaging system utilizing it - Google Patents
Tracking imaging apparatus and tracking imaging system utilizing it Download PDFInfo
- Publication number
- JP2007158680A JP2007158680A JP2005350674A JP2005350674A JP2007158680A JP 2007158680 A JP2007158680 A JP 2007158680A JP 2005350674 A JP2005350674 A JP 2005350674A JP 2005350674 A JP2005350674 A JP 2005350674A JP 2007158680 A JP2007158680 A JP 2007158680A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- tracking
- view
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、特定の被写体を検出するとともに追尾して撮影する追尾撮像装置およびこれを利用した追尾撮像システムに関する。 The present invention relates to a tracking imaging apparatus that detects and tracks a specific subject and a tracking imaging system using the tracking imaging apparatus.
近年、大学や予備校などでは、講義の風景を撮影した映像を衛星やインターネットを介して遠隔地にいる受講者が受信して視聴するような遠隔講義が行われている。特に最近における生涯学習がさかんになるにつれて、その需要が増えてきている。 In recent years, universities and prep schools have conducted remote lectures in which students in remote locations receive and view videos of lecture scenes via satellite or the Internet. In particular, the demand for lifelong learning has increased as recent lifelong learning has become more prominent.
従来の遠隔講義は、テレビ放送の製作会社などが作成したプログラム番組の中で行われるものや、大手の予備校が衛星回線を使用して行うサテライト講義など多大な費用や手間がかかる大規模なものが多かったが、近年はインターネットの普及および接続回線のブロードバンド化により撮影した講義風景の映像を安価で容易に受講者に配信することが可能になっている。 Conventional distance lectures are large-scale programs that are expensive and time-consuming, such as those that are conducted in program programs created by TV broadcast production companies, satellite lectures that are conducted by major prep schools using satellite links, etc. In recent years, however, it has become possible to distribute lecture scenes taken by the Internet at low cost and easily to students due to the widespread use of the Internet and broadband connection lines.
これらの遠隔講義の映像を撮影する際は、講師が自在に移動したり、黒板やスクリーンに写し出された資料や機材など(以下、「講義情報」と称する)を使用したりする状況に伴って撮像装置の向きを変えるパン、チルト機能やズーム機能などの操作が必要となる。しかし、これらの機能操作は手動で行われており、手間がかかるものであった。このとき、常に講師と講義情報とがすべて画角に入るように広いエリアを撮影すれば操作の手間はかからないが、講義情報の細部などが画面上で見づらくなるため、適宜カメラの向きやズーム倍率を変更して撮影する必要がある。 When shooting these remote lecture videos, the instructor can move freely or use materials and equipment (hereinafter referred to as “lecture information”) on the blackboard or screen. Operations such as panning, tilting and zooming functions that change the orientation of the imaging device are required. However, these functional operations are performed manually, and it takes time and effort. At this time, if you shoot a wide area so that the lecturer and lecture information are all within the angle of view, it will not take time to operate, but the details of the lecture information will be difficult to see on the screen. It is necessary to change and shoot.
このようなパン、チルト、ズーム機能の操作を自動化する技術が特許文献1および特許文献2に記載されている。
Techniques for automating such pan, tilt and zoom functions are described in
特許文献1には、教壇など撮影すべきエリアをすべて収める広角カメラと、駆動部を持ちターゲット(被写体)を追尾して撮影する追尾カメラとを配置することにより、広角カメラで検出したターゲットの重心が画角の中心となるように追尾カメラでズーム拡大して撮影する技術が記載されている。
この特許文献1の技術により、講師などの被写体をカメラが自動で認識するため、人的な手間を大幅に削減して拡大された被写体を撮影することができる。
With the technique of this
また、特許文献2には、予めいくつかのショット(撮影画角)を登録しておき、撮影により検出した被写体の重心座標に基づいて、被写体が撮影画角に収まるようなショットを登録されたショットの中から選出し、そのショットで撮影を行う技術が記載されている。
Also, in
この特許文献2の技術により、カメラの動作を極力少なくして、見やすい映像により被写体を自動追尾して撮影することが可能になる。
しかし、上記の特許文献1の技術は、広角カメラと追尾カメラとの2台のカメラを使用するため、システムが大掛かりになり設定が複雑になるという問題があった。また、この技術では被写体の重心位置が画面の中心になるように追尾カメラで追尾を行っているので、被写体をはっきりと映すことが重要である監視用カメラなどには適している。しかし、講義のように被写体として認識される講師の背景にある講義情報も重要な情報であるようなものの撮影には適さない場合があるという問題があった。
However, the technique disclosed in
また、特許文献2の技術は、予め登録された撮影画角で撮影が行われるため、講師がダイナミックに移動したときや異なる撮影画角の境界付近にいるときには、多少の撮影画角の重なりをオーバーラップエリアとして考慮したとしても講師の少しの動きで撮影画角が頻繁に切り替わり、受講者に見づらい映像になってしまう可能性があるという問題があった。
In addition, since the technique of
そこで、本発明は、上記事情に鑑みてなされたものであり、被写体の背景にある重要な情報も逃さず撮影するとともに、見やすい映像を撮影することができる追尾撮像装置およびこれを利用した追尾撮像システムを提供することを目的とする。 Accordingly, the present invention has been made in view of the above circumstances, and a tracking imaging device capable of capturing important information in the background of the subject without missing the image and capturing an easy-to-view video, and tracking imaging using the imaging device The purpose is to provide a system.
上記目的を達成するための本発明の請求項1に記載の追尾撮像装置は、追尾撮影エリア内を移動する人物を第1被写体として追尾して撮影するとともに、追尾撮影エリア内の重要背景エリア内にある第2被写体を撮影するカメラ部を備えたものであり、カメラ部が、追尾撮影エリア内を撮影して得られた画像から第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、検出された第1被写体が重要背景エリア内の任意の位置を差し示す所定のジェスチャを検出するとともに、検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、取得された位置座標に基づいて第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、第1及び第2被写体の画像を所定の画角で撮影画像から抽出する画像切り出し部とを備えたことを特徴とする。
In order to achieve the above object, a tracking imaging apparatus according to
また、請求項2は請求項1に記載の追尾撮像装置であり、被写体検出部は、画像切り出し部から抽出された第1画像から検出した第1被写体の重心位置座標と、第1画像よりも後に撮影されて抽出された第2画像から検出した第1被写体の重心位置座標との距離が、あらかじめ設定された移動許容値以下である場合は、第2画像の画角を第1画像の画角と同一にするように構成したことを特徴とする。
Moreover,
また、請求項3に記載の追尾撮像装置は、追尾撮影エリア内を移動する人物を第1被写体として追尾して撮影するとともに、追尾撮影エリア内の重要背景エリア内にある第2被写体を撮影するパン、チルト、及びズーム機能を有するカメラ部を備えたものであり、カメラ部が、追尾撮影エリア内を撮影して得られた画像から第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、検出された第1被写体が重要背景エリア内の任意の位置を指し示す所定のジェスチャを検出するとともに、検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、取得された位置座標に基づいて第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、パン、チルト、及びズームのうち少なくとも一の撮影制御機能により、第1及び第2被写体の画像を所定の画角で撮影するようにカメラ部を制御するカメラ制御部とを備えたことを特徴とする。 In addition, the tracking imaging device according to claim 3 shoots a person who moves in the tracking shooting area as a first subject, and shoots a second subject in an important background area in the tracking shooting area. A camera unit having pan, tilt, and zoom functions is provided. The camera unit detects a first subject from an image obtained by shooting the tracking shooting area, and the detected first subject. A subject detection unit that acquires the center-of-gravity position coordinates, a predetermined gesture in which the detected first subject indicates an arbitrary position in the important background area, and the position coordinates of the position indicated by the detected gesture And detecting the second subject based on the acquired position coordinates and acquiring the center-of-gravity position coordinates of the detected second subject The first and second imaging detection functions, and at least one shooting control function of pan, tilt, and zoom, with the midpoint coordinates of the center of gravity coordinates of the acquired first and second subjects as the center of the angle of view, And a camera control unit that controls the camera unit so as to capture an image of the second subject at a predetermined angle of view.
また、請求項4は請求項3に記載の追尾撮像装置は、被写体検出部は、カメラ制御部の制御によってカメラ部で撮影された第1画像から検出した第1被写体の重心位置座標と、第1画像よりも後に撮影されて抽出された第2画像から検出した第1被写体の重心位置座標との距離が、あらかじめ設定された移動許容値以下である場合は、第2画像の画角を第1画像の画角と同一にするように構成したことを特徴とする。 According to a fourth aspect of the present invention, in the tracking imaging device according to the third aspect, the subject detection unit includes the coordinates of the center of gravity of the first subject detected from the first image captured by the camera unit under the control of the camera control unit, If the distance from the center of gravity position coordinate of the first subject detected from the second image captured and extracted after the first image is equal to or smaller than a preset movement allowable value, the angle of view of the second image is set to the first angle. It is characterized by being configured to have the same angle of view as one image.
また、請求項5に記載の追尾撮像システムは、追尾撮影エリア内を移動する人物を第1被写体として追尾して撮影するとともに、追尾撮影エリア内の重要背景エリア内にある第2被写体を撮影するカメラ部を備えた追尾撮像装置と、カメラ部で撮影された画像を表示する表示端末とがネットワークを介してそれぞれ接続されたものであり、追尾撮像装置は、カメラ部が、追尾撮影エリア内を撮影して得られた画像から第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、検出された第1被写体が重要背景エリア内の任意の位置を差し示す所定のジェスチャを検出するとともに、検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、取得された位置座標に基づいて第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、第1及び第2被写体の画像を所定の画角で撮影画像から抽出する画像切り出し部と、抽出された画像をネットワークに送出するための通信制御部とを備えるとともに、表示端末は、追尾撮像装置から送出された画像を受信する通信制御部と、受信された画像を表示出力する出力部とを備えたことを特徴とする。 According to a fifth aspect of the present invention, the tracking imaging system tracks and photographs a person moving in the tracking shooting area as a first subject and also images a second subject in an important background area in the tracking shooting area. A tracking imaging device including a camera unit and a display terminal that displays an image captured by the camera unit are connected to each other via a network. A subject detection unit that detects a first subject from an image obtained by photographing and acquires the center-of-gravity position coordinates of the detected first subject, and an arbitrary position in the important background area where the detected first subject is detected A gesture detection unit that detects a predetermined gesture indicating the position and acquires the position coordinates of the position pointed to by the detected gesture, and the acquired position coordinates Based on the figure detection unit that detects the second subject based on the detected position and obtains the center-of-gravity position coordinates of the detected second subject and the midpoint coordinates of the obtained center-of-gravity position coordinates of the first and second subjects. And a communication control unit for sending out the extracted image to the network, and a display terminal including an image cutout unit that extracts the first and second subject images from the captured image at a predetermined angle of view. A communication control unit that receives an image transmitted from the tracking imaging device and an output unit that displays and outputs the received image are provided.
また、請求項6に記載の追尾撮像システムは、追尾撮影エリア内を移動する人物を第1被写体として追尾して撮影するとともに、追尾撮影エリア内の重要背景エリア内にある第2被写体を撮影するパン、チルト、及びズーム機能を有するカメラ部を備えた追尾撮像装置と、カメラ部で撮影された画像を表示する表示端末とがネットワークを介してそれぞれ接続されたものであり、追尾撮像装置は、カメラ部が、追尾撮影エリア内を撮影して得られた画像から第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、検出された第1被写体が重要背景エリア内の任意の位置を指し示す所定のジェスチャを検出するとともに、検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、取得された位置座標に基づいて第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、パン、チルト、及びズームのうち少なくとも一の撮影制御機能により、第1及び第2被写体の画像を所定の画角で撮影するようにカメラ部を制御するカメラ制御部と、撮影された画像をネットワークに送出するための通信制御部とを備えるとともに、表示端末は、追尾撮像装置から送出された画像を受信する通信制御部と、受信された画像を表示出力する出力部とを備えたことを特徴とする。 According to a sixth aspect of the present invention, the tracking imaging system tracks a person moving in the tracking shooting area as a first subject and shoots a second subject in an important background area in the tracking shooting area. A tracking imaging device including a camera unit having pan, tilt, and zoom functions and a display terminal that displays an image captured by the camera unit are respectively connected via a network. A camera unit detects a first subject from an image obtained by imaging the tracking shooting area, and a subject detection unit that acquires the coordinates of the center of gravity of the detected first subject, and the detected first subject Detects a predetermined gesture that points to an arbitrary position in the important background area and obtains the position coordinates of the position pointed to by the detected gesture. While detecting a 2nd subject based on the acquired position coordinate, the figure detection part which acquires the gravity center position coordinate of this detected 2nd subject, and the acquired 1st and 2nd subject's A camera that captures images of the first and second subjects at a predetermined angle of view by using at least one shooting control function among pan, tilt, and zoom with the center point coordinate of each barycentric position coordinate as the center of the angle of view. And a communication control unit for sending the captured image to the network, and the display terminal is received by the communication control unit for receiving the image sent from the tracking imaging device. And an output unit for displaying and outputting the displayed image.
本発明の追尾撮像装置およびこれを利用した追尾撮像システムによれば、被写体の背景にある重要な情報も確実に逃さず捉えることができ、見やすく且つ講義など内容の把握に効果的な映像を撮影することができる。 According to the tracking imaging apparatus of the present invention and the tracking imaging system using the tracking imaging apparatus, it is possible to capture important information in the background of the subject without fail, and to capture a video that is easy to view and effective in grasping the contents such as a lecture. can do.
《第1実施形態》
本発明の第1実施形態による追尾撮像装置は、遠隔講義などに利用するための講義の映像を撮影し、検出した被写体を中心とした画角を切り出して表示するものである。
<< First Embodiment >>
The tracking imaging device according to the first embodiment of the present invention captures a video of a lecture for use in a remote lecture and cuts and displays an angle of view centered on the detected subject.
〈第1実施形態による追尾撮像装置の構成〉
本実施形態による追尾撮像装置1の構成を、図1〜図3を用いて説明する。図1は、本実施形態による追尾撮像装置1の構成を示すブロック図である。図2は、本実施形態による追尾撮像装置1により撮影が行われる空間を示す説明図であり、図3は、図2の空間内で実際に撮影が行われるエリアを示す説明図である。
<Configuration of Tracking Imaging Device according to First Embodiment>
The configuration of the
本実施形態による追尾撮像装置1は、空間30内の講義が行われる教壇がすべて含まれる基準画角301で撮影するカメラ部10と、カメラ部10で撮影した映像を処理する制御端末20とを有する。
The
カメラ部10は、人物(第1被写体)を撮影するとともに実際にモニタなどに表示する講義の映像よりも高解像度な映像の撮影が可能であり、撮影された黒板などに書かれた文字や図、スクリーンに映し出された資料、必要な機材などの講義情報(第2被写体)をユーザが認識可能な状態に表示できる解像度で撮影する。
The
制御端末20は、プリセット部201と、被写体検出部202と、ジェスチャ検出部203と、カメラ制御部204と、図形検出部205と、表示部206と、入力部207と、記憶装置208と、画像切り出し部209と、スケーリング部210と、制御部211とを有する。
The
プリセット部201は、被写体の検出および追尾を行う追尾エリア302の設定と、この追尾エリア302内で講義情報が含まれる重要背景エリア303の設定と、講義風景を遠隔地などのモニタやスクリーンに表示するための画像として、撮影した画像から被写体および後述する指示領域などの対象物部分を切り出す範囲である表示画角と、実際にモニタなどにスケーリングして表示を行う際の映像のサイズである表示画角サイズの設定とを含む初期設定を行う。
The
被写体検出部202は、指定されたエリア内を撮影して得られた画像において追尾エリア302内に入った第1被写体の検出を行うとともに、検出された第1被写体の位置を特定する。
The
ジェスチャ検出部203は、検出された第1被写体による重要背景エリア303内の任意の場所を指し示す特定のジェスチャを検出するとともに、検出されたジェスチャによって指し示された位置の位置座標を取得する。
The
カメラ制御部204は、カメラ部10の起動、撮影の開始および停止等を制御する。
The
図形検出部205は、特定されたジェスチャが行われた位置から、重要背景エリア303内にあるユーザに必要な講義情報のうちジェスチャにより指し示された意味のある情報が集合した領域を指示領域として検出するとともに、この指示領域の重心位置座標を取得する。
The
表示部206は、撮影した映像を確認のためなどに表示する。
The
入力部207は、プリセット部201で行う設定や撮影の開始および停止などの命令を入力する。
The
記憶装置208は、プリセット部201で行った設定内容や撮影した映像データを記録する。
The
画像切り出し部209は、撮影した基準画角301のフレーム画像から被写体304や指示領域が映っている部分など必要な情報を含む表示画角を所定の画角で撮影画像から抽出する。
The
スケーリング部210は、画像切り出し部209で切り出された表示画角がプリセット部201で設定された表示画角サイズと異なる場合に切り出された表示画角の画像サイズの調整を行う。
The
制御部211は、上記のプリセット部201〜スケーリング部210を制御する。
The
〈第1実施形態による追尾撮像装置の動作〉
本発明の第1実施形態による追尾撮像装置1の動作を、図4〜図7のフローチャートを参照して説明する。
<Operation of Tracking Imaging Device According to First Embodiment>
The operation of the tracking
まず、制御端末20のプリセット部201で行われる初期設定の動作について図4を参照して説明する。
First, an initial setting operation performed by the
図2に示す教室などのような空間30で被写体の検出、追尾を行いたいエリア、例えば講義を行う教壇がすべて含まれる画像が撮影できる場所にカメラ部10が設置され、その画角が基準画角301として図3のように設定される(S401)。
A
次に、図3の基準画角301内で被写体の検出および追尾が行われる領域が、追尾エリア302として設定される(S402)。
Next, an area where subject detection and tracking are performed within the reference angle of
次に、設定された追尾エリア302内で講義情報が含まれる領域が、重要背景エリア303として設定される(S403)。
Next, an area including lecture information in the
さらに、この講義風景が遠隔地などのモニタやスクリーンに表示されるときの画角であり、検出した被写体および指示領域などの対象物を切り出す範囲である表示画角と、その表示時の解像度になる表示画角サイズが設定される(S404)。このとき、表示画角サイズ≦カメラの解像度サイズとなるように設定される。 Furthermore, this is the angle of view when this lecture landscape is displayed on a monitor or screen at a remote location, etc., and the display angle of view that is the range to cut out the detected object and target area, etc., and the resolution at the time of display Is set (S404). At this time, the display angle of view is set so that the resolution size of the camera is satisfied.
さらに、表示画角が切り出された画像である第1画像で検出された被写体の位置と、この第1画像よりも後に撮影された第2画像で検出された被写体の位置との移動距離が所定値(移動許容値)以下のときには表示画角が変わらないように、被写体の移動許容量が設定される。これは、被写体の微量の移動によって頻繁に表示画角が変わると見る人にとって見づらい映像になるためである。この移動許容量は、想定される被写体の動作スピードおよび移動量によって設定値が定められる。 Further, the moving distance between the position of the subject detected in the first image, which is an image from which the display angle of view has been cut out, and the position of the subject detected in the second image taken after the first image is predetermined. When the value is less than the value (movement allowable value), the movement allowable amount of the subject is set so that the display angle of view does not change. This is because if the display angle of view frequently changes due to a small amount of movement of the subject, the image becomes difficult for the viewer to see. The allowable movement amount is determined by a set value based on an assumed operation speed and movement amount of the subject.
これらのステップS401〜ステップS404の初期設定は入力部207により行われ、記憶装置208に記憶される。
These initial settings in steps S401 to S404 are performed by the
次に、カメラ部10で行われる講義の撮影の動作について図5、6、8を参照して説明する。
Next, lecture shooting operations performed by the
まず、制御端末20のカメラ制御部204によりカメラ部10が起動されると(S410の「Yes」)、図6のフローチャートに従って撮影処理(A)が行われる(S411)。図6の撮影処理(A)について説明する。
First, when the
カメラ部10が起動されると、まず基準画角301の撮影が開始される(S412)。ここでは基準画角301全体が表示画角として設定され(S413)、被写体検出部202により追尾エリア302内での被写体304の検出が行われる(S414)。
When the
追尾エリア302内に誰も存在せず、被写体検出部202において被写体未検出の間(S414の「No」)は、ステップS413に戻りそのまま基準画角301全体が表示画角として設定されるとともに、後述する保存処理(B)に従って撮影された画像が記憶装置208に保存される。
While there is no one in the
追尾エリア302内に被写体304が入り、被写体検出部202により被写体304が検出されたときは(S414の「Yes」)、この被写体304の位置304Aおよび被写体304の重心位置305Aが求められる(S415)。
When the subject 304 enters the
次に、ジェスチャ検出部203により被写体304による特定のジェスチャの検出が行われる(S416)。ここで言う特定のジェスチャとは、被写体304が重要背景内のある部位を指し示す動作のことであり、腕や手指、指し棒などの形状や動く方向、移動の仕方、滞留時間などによって検出される。
Next, the
ジェスチャ検出部203において被写体304の特定のジェスチャが未検出であったときは(S416の「No」)、被写体304を含み被写体位置304Aにおける被写体304の重心位置305Aが中心となるような位置に表示画角306Aが設定される(S417)。
When the
設定された表示画角306Aの画像は、図7のフローチャートに従って保存処理(B)が行われる(S418)。図7の保存処理(B)について説明する。
The image of the set display angle of
まず、設定された表示画角306A部分が、画像切り出し部209により基準画角から切り出される(S419)。
First, the set display angle of
切り出された表示画角306Aの画像サイズT(Tx,Ty)が予め初期設定で設定された表示画角の画像サイズD(Dx,Dy)より大きい場合(S420の(1))は、スケーリング部210において(Tx≦Dx)∩(Ty≦Dy)となる最大サイズに表示画角306Aの画像が縮小される(S421)。
When the image size T (Tx, Ty) of the cut out display angle of
また、切り出された表示画角306Aの画像サイズT(Tx,Ty)が予め初期設定で設定された表示画角の画像サイズD(Dx,Dy)より小さい場合(S420の(3))は、スケーリング部210において(Tx≦Dx)∩(Ty≦Dy)となる最大サイズに表示画角306Aの画像が拡大される(S422)。
Further, when the image size T (Tx, Ty) of the clipped display angle of
また、切り出された表示画角306Aの画像サイズT(Tx,Ty)と予め初期設定で設定された表示画角の画像サイズD(Dx,Dy)とが同じ場合(S420の(2))は、縮小または拡大のスケーリングは行われない。
When the image size T (Tx, Ty) of the cut out display angle of
表示画角306Aの画像が予め設定された表示画角の画像サイズにスケーリングされた状態の画像を図9に示す。図9では、被写体304の重心位置305Aが表示画角306Aの中心に位置している。
An image in a state where the image of the display angle of
所定サイズにスケーリングされた表示画角306Aの画像は記憶装置208に保存される(S423)。以上で保存処理(B)が終了する。
The image of the display angle of
保存処理(B)が終了すると、追尾エリア302内での被写体304の検出が継続して行われ(S424)、被写体304が未検出であれば(S424の「No」)ステップS413に戻り基準画角301全体が表示画角として設定され、ステップS414以降の処理が行われる。
When the storage process (B) ends, the detection of the subject 304 in the
ステップS424において被写体304が検出されたときは、被写体304が移動したかどうかが判定される(S425)。判定の結果、被写体304が移動していれば(S425の「Yes」)、移動距離がプリセット部201に設定された移動許容量の範囲内であるかどうかが判定される(S426)。 When the subject 304 is detected in step S424, it is determined whether the subject 304 has moved (S425). As a result of the determination, if the subject 304 has moved (“Yes” in S425), it is determined whether or not the moving distance is within the allowable movement range set in the preset unit 201 (S426).
判定の結果、被写体304の移動距離が移動許容量の範囲を超えていた場合は(S426の「No」)、ステップS415に戻り、図8に示すように移動後の被写体の位置304Bおよび被写体の重心位置305Bが求められ、ステップS416以降の処理が行われる。このときの、被写体304の重心位置305Bが中心となるような位置の画像としては、表示画角306Bが切り出される。
As a result of the determination, if the moving distance of the subject 304 exceeds the allowable movement range (“No” in S426), the process returns to step S415, and the moved
ステップS425において被写体304が移動しなかったと判定された場合(S425の「No」)、およびステップS426において被写体の移動距離が設定された移動許容量の範囲内であると判定された場合(S426の「Yes」)は、ステップS416に戻り、ジェスチャ検出部203により被写体304による特定のジェスチャの検出が行われる。
If it is determined in step S425 that the subject 304 has not moved (“No” in S425), and if it is determined in step S426 that the subject movement distance is within the set allowable movement range (in S426). "Yes") returns to step S416, and the
ステップS416において、ジェスチャ検出部203により被写体304による特定のジェスチャ307が検出された場合について図10〜図12を参照して説明する(S416の「Yes」)。
A case where a
被写体304による特定のジェスチャ307が検出されたときは、このジェスチャ307の検出位置が重要背景エリア303内であるかどうかが判定される(S427)。
When a
判定の結果、重要背景エリア303内であると判定された場合は(S427の「Yes」)、図形検出部205により重要背景エリア303内からジェスチャ307で指し示された指示領域308が検出される(S428)。
As a result of the determination, if it is determined that the current position is within the important background area 303 (“Yes” in S427), the
次に、検出された指示領域308の重心位置309が求められ(S429)、さらに被写体304の重心位置305Cと指示領域308の重心位置309との中心位置が求められる。
Next, the center of
この被写体304の重心位置305Cと指示領域308の重心位置309との中心位置を重心位置310とし、被写体304および指示領域308を含む画角が表示画角306Dとして設定される(S430)。
The center position between the
設定された表示画角306Dは、上述したとおり、図7のフローチャートに従って保存処理(B)が行われる(S418)。
As described above, the set display angle of
これらの処理により、図10において、ジェスチャ307が検出される前は図8と同様に被写体304のみに基づいて重心位置305Cを重心とした表示画角306Cが切り出され図11のようになるが、ジェスチャ307が検出されると被写体304および指示領域308に基づいて求められた重心位置310を重心として表示画角306Dが切り出され、モニタに表示される画像は図12のように切り替わる。
With these processes, before the
また、ステップS427において、検出されたジェスチャ307の検出位置が重要背景エリア303内ではなかったと判定された場合は(S427の「No」)、ステップ417に進み、被写体304を含み被写体位置304Cにおける被写体304の重心位置305Cが中心となるような位置に表示画角306Cが設定される。
If it is determined in step S427 that the detected position of the detected
以上の撮影処理(A)は講義風景が撮影されている間繰り返し実行され、ユーザにより撮影を停止する操作が入力部207により行われた場合は(S431の「Yes」)、撮影処理(A)に停止を指示する割り込み信号が送信され(S432)、カメラ制御部204によってカメラ部10の撮影が停止されるとともに、制御端末20も一連の検出動作および撮影動作が停止される。
The above photographing process (A) is repeatedly executed while the lecture scene is being photographed. When the user performs an operation of stopping photographing (“Yes” in S431), the photographing process (A) is performed. An interrupt signal for instructing the stop is transmitted (S432), and the
ユーザにより撮影を停止する操作が行われていないときは(S431の「No」)、撮影処理(A)は継続して行われる。 When the user does not perform an operation to stop shooting (“No” in S431), the shooting process (A) is continuously performed.
以上の第1実施形態による追尾撮像装置によれば、被写体と被写体の背景にある重要な情報とを確実に逃さず捉えることができるとともに、これらの重要な情報は認識可能な解像度で撮影されているため講義内容の把握に効果的な映像を得ることができる。 According to the tracking imaging device according to the first embodiment described above, it is possible to reliably capture the subject and important information in the background of the subject without missing, and the important information is captured at a recognizable resolution. Therefore, it is possible to obtain an effective video for understanding the lecture contents.
《第2実施形態》
本発明の第2実施形態による追尾撮像システムは、第1実施形態による追尾撮像装置を用いて撮影された講義等の映像を、ネットワークを介して遠隔地の受講生が受信して視聴する遠隔講義に用いるものである。
<< Second Embodiment >>
The tracking imaging system according to the second embodiment of the present invention is a remote lecture in which a student at a remote location receives and views videos such as a lecture taken using the tracking imaging apparatus according to the first embodiment via a network. It is used for.
〈第2実施形態による追尾撮像システムの構成〉
本実施形態による追尾システムの構成を、図13を用いて説明する。図13は、本実施形態による追尾システムの構成を示すブロック図であり、追尾撮像装置2と、ネットワーク3と、ネットワーク3を介して追尾撮像装置2に接続されている表示端末4とから構成されている。
<Configuration of Tracking Imaging System According to Second Embodiment>
The configuration of the tracking system according to the present embodiment will be described with reference to FIG. FIG. 13 is a block diagram illustrating the configuration of the tracking system according to the present embodiment, which includes the tracking
追尾撮像装置2の主な構成は、第1実施形態における追尾撮像装置1の構成と同様であるため詳細な説明は省略する。追尾撮像装置1と異なる点は、講義の音声を録音する音声入力部11と、制御端末20に設けられネットワーク3を介して表示端末4と通信を行う通信制御部212を有することである。音声入力部11は、被写体すなわち講師に装着したピンマイクもしくは集音マイクなどである。
Since the main configuration of the tracking
ネットワーク3は、インターネット網、公衆網、衛星回線、テレビ回線などが利用できる。
As the
表示端末4は、通信制御部41と、出力部42と、入力部43と、記憶装置44と、制御部45とを有する。
The display terminal 4 includes a communication control unit 41, an
通信制御部41は、制御端末20とネットワーク3を介して通信を行う。
The communication control unit 41 communicates with the
出力部42は、コンテンツを再生するスクリーンやモニタなどの映像表示装置およびスピーカなどの音声出力装置から構成される。
The
入力部43は、ユーザが出力部42及び表示端末全体を操作するときに用いる。
The
記憶装置44は、必要な設定やコンテンツなどのデータを記憶する。
The
制御部45は、上記の通信制御部41〜記憶装置44を制御する。
The control unit 45 controls the communication control unit 41 to the
〈第2実施形態による追尾撮像システムの動作〉
本発明の第2実施形態による追尾撮像システムの動作を、図4〜図6、図14および図15のフローチャートを参照して説明する。
<Operation of Tracking Imaging System According to Second Embodiment>
The operation of the tracking imaging system according to the second embodiment of the present invention will be described with reference to the flowcharts of FIGS. 4 to 6, 14 and 15.
本実施形態において、講義が撮影されている間、カメラ部10で撮影された画像は第1実施形態と同様に図4の初期設定が行われた後、図5および図6のフローチャートに従って撮影処理(A)が継続して行われ、音声入力部11から入力した講義の音声も継続して集音されているものとする。
In the present embodiment, while the lecture is photographed, the image photographed by the
追尾撮像装置2により撮影された映像および集音された音声であるコンテンツの配信処理について、図14を参照して説明する。
With reference to FIG. 14, a description will be given of a distribution process of content that is video captured by the tracking
まず、制御端末20において撮影および集音されたコンテンツをリアルタイムに配信するか否かが判定される(S501)。リアルタイムに配信しないと判定された場合は(S507の「No」)、記憶装置208にコンテンツが保存される(S502)。保存は撮影が終了するまで継続される。
First, it is determined whether or not the content shot and collected by the
次に、保存されたコンテンツを配信するか否かが判定され、配信すると判定された場合(S503の「Yes」)は、配信先の表示端末4が指定される(S504)。このとき、配信がネットワーク3としてインターネット網を利用して行われるときはIPアドレスなどを用いて配信先の表示端末4の指定が行われ、必要があれば表示端末4と所定の通信手続きが行われて接続が確認される。配信先の表示端末4の設定はコンテンツの撮影前に予め行っておいてもよい。また、配信がテレビ放送などのように相手が不特定なブロードキャスト送信による場合は、特定の相手先の指定は行わないが、放送に必要な所定の配信手続きが行われる。
Next, it is determined whether or not the stored content is to be distributed. When it is determined that the content is to be distributed (“Yes” in S503), the distribution destination display terminal 4 is designated (S504). At this time, when the distribution is performed using the Internet as the
これらの通信準備が完了している状態で、ネットワーク3を介して追尾撮像装置2の通信制御部212から表示端末4へのコンテンツの配信が開始される(S505)。
With these communication preparations completed, distribution of content from the
コンテンツの配信が終わるまで、もしくは配信が必要なシーンまでコンテンツの配信が継続され(S506、S507の「No」)、必要な配信が完了すると配信処理が終了する(S507の「Yes」)。 The distribution of the content is continued until the distribution of the content is completed or until the scene that needs the distribution (“No” in S506 and S507), and the distribution process ends when the necessary distribution is completed (“Yes” in S507).
ステップS503において保存されたコンテンツがここでは配信されず、後で別途配信が行われる場合は(S503の「No」)、処理が終了される。 If the content stored in step S503 is not distributed here and is separately distributed later ("No" in S503), the process ends.
また、ステップS501において、リアルタイムに配信すると判定された場合は(S501の「Yes」)、ステップS504における処理と同様に配信先の指定および確認が行われる(S508)。 If it is determined in step S501 that delivery is performed in real time (“Yes” in S501), the delivery destination is specified and confirmed in the same manner as in step S504 (S508).
ここで、コンテンツを保存する必要があれば(S509の「Yes」)保存し(S510)、その後ネットワーク3を介して追尾撮像装置2の通信制御部212から表示端末4へのコンテンツの配信が開始される(S505)。
Here, if it is necessary to save the content (“Yes” in S509), the content is saved (S510), and then distribution of the content from the
講義が撮影されている間、コンテンツの配信が継続され(S506)、講義の撮影が終了したときはコンテンツの配信および保存(S509で「Yes」だった場合)が停止されて配信が完了し(S507)、コンテンツの配信処理が終了される。 While the lecture is being photographed, the content distribution is continued (S506). When the lecture photographing is completed, the distribution and storage of the content (if “Yes” in S509) is stopped and the distribution is completed ( S507), the content distribution process is terminated.
次に、表示端末4におけるコンテンツの受信処理について、図15を参照して説明する。 Next, content reception processing in the display terminal 4 will be described with reference to FIG.
まず、表示端末4はコンテンツを受信するために待機しており、(S601、S602の「No」)、ネットワーク3を介して通信制御部41で所望のコンテンツが受信されると(S602の「Yes」)処理が開始される。 First, the display terminal 4 is waiting to receive content (“No” in S601 and S602), and when the desired content is received by the communication control unit 41 via the network 3 (“Yes” in S602). ") The process is started.
所望のコンテンツが受信されると、まずこのコンテンツがストリーミングであるかファイル形式であるかが判定される(S603)。 When the desired content is received, it is first determined whether the content is streaming or a file format (S603).
コンテンツがストリーミングの場合は(S603の(1))、制御部45で受信したコンテンツが再生可能な形式に変換された後、出力部42から出力され再生、表示される(S604)。このコンテンツの変換および出力はコンテンツの受信が完了するまで継続して行われる(S605の「No」)。
When the content is streaming ((1) in S603), the content received by the control unit 45 is converted into a reproducible format, and then output from the
コンテンツの受信が完了すると(S605の「Yes」)、出力部42からのコンテンツの再生、表示が停止され(S606)、処理が終了する。
When the reception of the content is completed (“Yes” in S605), the reproduction and display of the content from the
ステップS603において受信されたコンテンツがファイル形式であった場合は(S603の(2))、記憶装置44にコンテンツが保存される(S607)。このコンテンツの保存はコンテンツの受信が完了するまで継続して行われる(S608の「No」)。 When the content received in step S603 is in a file format (S603 (2)), the content is stored in the storage device 44 (S607). This content storage is continued until the content reception is completed (“No” in S608).
コンテンツの受信が完了すると(S608の「Yes」)、コンテンツがすぐに再生される場合は(S609の「Yes」)コンテンツが再生可能な形式に変換された後、出力部42から出力され再生、表示される(S610)。このコンテンツの変換および出力はコンテンツの再生が完了するまで継続して行われる(S611の「No」)。
When the reception of the content is completed (“Yes” in S608), if the content is to be played immediately (“Yes” in S609), the content is converted into a playable format and then output from the
コンテンツの再生が完了すると(S611の「Yes」)、出力部42からのコンテンツの再生、表示が停止され、処理が終了する。
When the reproduction of the content is completed (“Yes” in S611), the reproduction and display of the content from the
ステップS609においてコンテンツがすぐに再生されない場合には、処理が終了される(S609の「No」)。 If the content is not immediately played back in step S609, the process is terminated ("No" in S609).
ストリーミングで受信したときも、保存が行われる場合には記憶装置44にコンテンツの保存が行われると同時に再生、表示が行われる。
Even when received by streaming, if storage is performed, the content is stored in the
ここでは追尾撮像装置2から能動的にコンテンツを配信する例を示したが、必要に応じて表示端末4の入力部43から追尾撮像装置2の制御端末20に所望のコンテンツの配信要求を行い、追尾撮像装置2から受信するようにしてもよい。
Here, an example in which content is actively distributed from the tracking
以上の第2実施形態による追尾撮像制御システムによれば、第1実施形態と同様の効果を得ることができるとともに、ネットワークを介して遠隔地に撮影したコンテンツを配信することができる。 According to the tracking imaging control system according to the second embodiment described above, it is possible to obtain the same effect as that of the first embodiment, and to distribute the content photographed to a remote place via the network.
《第3実施形態》
本発明の第3実施形態による追尾撮像システムは、第2実施形態による追尾撮像システムを用いて撮影された講義等の映像を表示する際に、被写体と指示領域とを別々の映像として表示して遠隔講義に用いるものである。
<< Third Embodiment >>
The tracking imaging system according to the third embodiment of the present invention displays a subject and an instruction area as separate videos when displaying a video of a lecture or the like taken using the tracking imaging system according to the second embodiment. Used for distance lectures.
〈第3実施形態による追尾撮像システムの構成〉
本実施形態による追尾撮像システムの構成は、第2実施形態と同様であるため、詳細な説明は省略する。
<Configuration of Tracking Imaging System according to Third Embodiment>
Since the configuration of the tracking imaging system according to this embodiment is the same as that of the second embodiment, detailed description thereof is omitted.
〈第3実施形態による追尾撮像システムの動作〉
本発明の第3実施形態による追尾撮像システムの動作を、図2、図3、図16〜図25を参照して説明する。
<Operation of Tracking Imaging System According to Third Embodiment>
The operation of the tracking imaging system according to the third embodiment of the present invention will be described with reference to FIGS. 2, 3, and 16 to 25.
まず、追尾撮像装置2により撮影した映像および集音した音声であるコンテンツの配信処理について、図14を参照して説明する。
First, content distribution processing that is video captured by the tracking
まず、制御端末20のプリセット部201で行われる初期設定の動作について図16を参照して説明する。
First, an initial setting operation performed by the
図2に示す教室などのような空間30で被写体の検出、追尾を行いたいエリア、例えば講義を行う教壇がすべて含まれる画像が撮影できる場所にカメラ部10が設置され、その画角が基準画角301として図3のように設定される(S701)。
A
次に、図3の基準画角301内で被写体の検出および追尾が行われる領域が、追尾エリア302として設定される(S702)。
Next, an area where the subject is detected and tracked within the reference angle of
次に、設定された追尾エリア302内で講義情報が含まれる領域が、重要背景エリア303として設定される(S703)。
Next, an area including lecture information in the
さらに、この講義風景を遠隔地などのモニタやスクリーンに表示するときの画角であり、検出した被写体を中心として画像を切り出す範囲である第1表示画角と、指示領域を中心とした画像を切り出す範囲である第2表示画角と、被写体の表示時の解像度である第1表示画角サイズと、指示領域の表示時の解像度である第2表示画角サイズとが設定される(S704)。 Furthermore, the angle of view when the lecture scenery is displayed on a monitor or screen such as a remote place, and a first display angle of view, which is a range where the image is cut out with the detected subject as the center, and an image centered on the indication area are displayed. A second display angle of view that is a range to be clipped, a first display angle of view that is a resolution when the subject is displayed, and a second display angle of view that is the resolution when the instruction area is displayed are set (S704). .
ここで、第1の表示画角は、図18に示すように検出した被写体304(身体全体もしくは顔、頭部など)から表示したい領域の重心位置311を中心に領域312(Hx,Hy)が抜き出され、第1の表示画角に対して被写体が常に同じ比率で表示されるように横方向にhx、縦方向にhyの枠領域部分が追加される。ここでは、バストショットになるような画角を第1の表示画角313(X1,Y1)としている。
Here, as for the first display angle of view, the region 312 (Hx, Hy) is centered on the center of
また、第2の表示画角は、図19に示すように検出した指示領域の重心位置309を中心に領域308(Sx,Sy)が抜き出され、第2の表示画角に対して指示領域が常に同じ比率で表示されるように横方向にsx、縦方向にsyの枠領域部分が追加される。このようにして、第2の表示画角314(X2,Y2)が設定される。
As for the second display angle of view, an area 308 (Sx, Sy) is extracted around the center of
指示領域のアスペクト比は一定ではないので、sx、syは検出されたアスペクト比によって変更できるように複数の値を設定して保存しておいてもよい。または、sx、syはアスペクト比にあわせて計算によって求めるようにしてもよい。 Since the aspect ratio of the instruction area is not constant, sx and sy may be set and stored so that a plurality of values can be changed according to the detected aspect ratio. Alternatively, sx and sy may be obtained by calculation in accordance with the aspect ratio.
このとき、カメラ部10が撮影する映像の解像度を(X,Y)とすると、第1の表示画角のサイズは(X1≦X)∩(Y1≦Y)であり、第2の表示画角サイズは(X2≦X)∩(Y2≦Y)となる最大サイズになるように設定される。
At this time, assuming that the resolution of the video captured by the
さらに、第1実施形態と同様に被写体の移動許容量が設定される。これらのステップS701〜ステップS704の初期設定は入力部207により行われ、記憶装置208に記憶される。
Further, the allowable movement amount of the subject is set as in the first embodiment. These initial settings in steps S701 to S704 are performed by the
次に、カメラ部10で行われる講義の撮影の動作について図5および図17を参照して説明する。
Next, a lecture shooting operation performed by the
まず、第1実施形態と同様に制御端末20のカメラ制御部204によりカメラ部10が起動されると(S410の「Yes」)、図17のフローチャートに従って撮影処理(C)が行われる(S411)。図17の撮影処理(C)について説明する。
First, as in the first embodiment, when the
カメラ部10が起動されると、まず基準画角301の撮影が開始される(S801)。ここでは基準画角301全体が第1の表示画角および第2の表示画角として設定され(S802)、被写体検出部202により追尾エリア302内での被写体304の検出が行われる(S803)。
When the
追尾エリア302内に誰も存在せず、被写体検出部202において被写体未検出の間(S803の「No」)は、ステップS802に戻りそのまま基準画角301全体が第1の表示画角および第2の表示画角として設定されるとともに、第1実施形態と同様に保存処理(B)に従って撮影された画像が記憶装置208に保存される(S804)。
When there is no one in the
このとき、第1の表示画角または第2の表示画角として設定され切り出された画像サイズがプリセット部201で予め設定された各表示画角サイズと異なっている場合は、同じサイズになるように、スケーリング部210において第1の表示画角または第2の表示画角として切り出された画像が拡大または縮小される。
At this time, when the image size set as the first display field angle or the second display field angle and cut out is different from each display field angle size preset by the
このように調整された画像がモニタに出力された状態を、図20に示す。図20において、画像315は予め設定された第1の表示画角として切り出された基準画角301の画像であり、画像316は第2の表示画角として切り出された基準画角301の画像である。
FIG. 20 shows a state where the image adjusted in this way is output to the monitor. In FIG. 20, an
追尾エリア302内に被写体が入った場合を、図21を参照して説明する。
A case where a subject enters the
追尾エリア302内に被写体304が入り、被写体検出部202により検出されたときは(S803の「Yes」)、この被写体304の位置304Aおよび被写体304の重心位置305Aが求められる(S805)。
When the subject 304 enters the
次に、求められた被写体304の重心位置305Aを基準に表示画角306Aが第1の表示画角として設定され切り出される(S806)。ここで、第2の表示画角は基準画角301のままであり、このときの第1の表示画角として切り出された表示画角306Aの画像317および第2の表示画角として切り出された基準画角301の画像318がモニタに出力された状態を図22に示す。
Next, the display angle of
次に、ジェスチャ検出部203により被写体304による特定のジェスチャの検出が行われる(S807)。
Next, the
ジェスチャ検出部203において被写体304の特定のジェスチャが未検出であったときは(S807の「No」)、図7のフローチャートに従って保存処理(B)が行われる。(S804)
保存処理(B)が終了すると、追尾エリア302内での被写体304の検出が継続して行われ(S812)、被写体304が未検出であれば(S812の「No」)ステップS802に戻り基準画角301が第1の表示画角および第2の表示画角として設定され、ステップS803以降の処理が行われる。
When the
When the storage process (B) is completed, the detection of the subject 304 in the
ステップS812において被写体304が検出されたときは、被写体304が移動したかどうかが判定される(S813)。判定の結果、被写体304が移動していれば(S813の「Yes」)、移動距離がプリセット部201に設定された移動許容量の範囲内であるかどうかが判定される(S814)。 When the subject 304 is detected in step S812, it is determined whether or not the subject 304 has moved (S813). As a result of the determination, if the subject 304 has moved (“Yes” in S813), it is determined whether or not the moving distance is within the allowable movement range set in the preset unit 201 (S814).
判定の結果、被写体304の移動距離が移動許容量の範囲を超えていた場合は(S814の「No」)、ステップS805に戻り、図21に示すように移動後の被写体304の位置304Bおよび被写体304の重心位置305Bが求められ、ステップS806以降の処理が行われる。このときの、被写体304の重心位置305Bが中心となるような位置の第1の表示画角として、表示画角306Bが切り出される。
As a result of the determination, if the moving distance of the subject 304 exceeds the allowable movement range (“No” in S814), the process returns to step S805, and the
ステップS813において被写体304が移動しなかったと判定された場合(S813の「No」)、およびステップS814において被写体304の移動距離が設定された移動許容量の範囲内であると判定された場合(S814の「Yes」)は、ステップS806に戻り、ジェスチャ検出部203により被写体304による特定のジェスチャの検出が行われる。
If it is determined in step S813 that the subject 304 has not moved ("No" in S813), and if it is determined in step S814 that the moving distance of the subject 304 is within the set allowable movement range (S814). "Yes") returns to step S806, and the
ステップS807において、ジェスチャ検出部203により被写体304による特定のジェスチャ307が検出された場合について図23〜図25を参照して説明する(S807の「Yes」)。
A case where the
被写体304による特定のジェスチャ307が検出されたときは、このジェスチャ307の検出位置が重要背景エリア303内であるかどうかが判定される(S808)。
When a
判定の結果、重要背景エリア303内であると判定された場合は(S808の「Yes」)、図形検出部205により重要背景エリア303内からジェスチャ307で指し示された指示領域308が検出される(S809)。
As a result of the determination, if it is determined that it is in the important background area 303 (“Yes” in S808), the
次に、検出された指示領域308の重心位置309が求められ(S810)、この指示領域308を含み、指示領域308の重心位置309を基準にした表示画角319が第2の表示画角として設定され切り出される(S811)。
Next, the
第2の表示画角として設定された表示画角319は、上述したとおり、図7のフローチャートに従って保存処理(B)が行われる(S804)。
The display angle of
これらの処理により、図23において、ジェスチャ307が検出される前は図21と同様に被写体304の位置304Cに基づいて重心位置305Cを重心とした表示画角306Cが第1の表示画角として切り出されるとともに基準画角301が第2の表示画角として切り出され、図22の画像317および画像318のように表示されるが、ジェスチャ307が検出されると指示領域308に基づいて求められた重心位置309を重心とした表示画角319が第2の表示画角として切り出され、モニタに表示される画像は図24の画像320および画像321のように切り替わる。
Through these processes, before the
さらに、図23に示すように、被写体304の位置304Cが位置304Dに移動した場合は、第1の表示画角として切り出される画角は表示画角306Cから表示画角306Dに移動して図25の画像322のように表示されるが、第2の表示画角は次のジェスチャが行われるまで画角位置が維持され、直前に被写体304が指した指示領域308を中心とする表示画角319が表示され続け、画像323のように表示される。
Furthermore, as shown in FIG. 23, when the
以上の撮影処理(C)は講義風景が撮影されている間繰り返し行われ、ユーザにより撮影を停止する操作が入力部207により行われた場合は、第1実施形態と同様に図5のフローチャートに基づいて撮影処理(C)に停止を指示する割り込み信号が送信され(S432)、カメラ制御部204によってカメラ部10の撮影が停止されるとともに、制御端末20も一連の検出動作および撮影動作が停止される。
The above photographing process (C) is repeatedly performed while the lecture scenery is photographed, and when the user performs an operation of stopping photographing by the
撮影されたコンテンツは、第2実施形態と同様に図14のフローチャートに従って表示端末4に送信され、表示端末4の制御部45で第1の表示画角の画像として切り出された画像と第2の表示画角として切り出された画像とが同期がとられ出力部42に出力される。
The photographed content is transmitted to the display terminal 4 according to the flowchart of FIG. 14 as in the second embodiment, and the image cut out as the first display angle of view image by the control unit 45 of the display terminal 4 and the second image are displayed. The image cut out as the display angle of view is synchronized and output to the
以上の第3実施形態によれば、第1の表示画角の画像および第2の表示画角として切り出された2つの画像が表示されるため、随時移動する被写体を検出および追尾しながら、指示領域を別途固定画角で表示でき、被写体も指示領域も逃さずより見やすい映像を作成することができる。 According to the third embodiment described above, an image having the first display angle of view and two images cut out as the second display angle of view are displayed, so that an instruction can be given while detecting and tracking the moving object at any time. The area can be separately displayed at a fixed angle of view, and an easy-to-view video can be created without missing the subject and the instruction area.
本実施形態において、第1の表示画角および第2の表示画角はそれぞれの表示したい(検出した)領域の重心位置を基準に設定したが、これには限定されず、見やすい映像を作成するために算出された位置を中心位置とすれば重心位置以外を基準としてもよい。 In the present embodiment, the first display field angle and the second display field angle are set based on the position of the center of gravity of the area to be detected (detected). However, the present invention is not limited to this, and an easy-to-view video is created. Therefore, if the position calculated for this purpose is the center position, a position other than the center of gravity position may be used as a reference.
《第4実施形態》
本発明の第4実施形態による追尾撮像装置は、遠隔講義などに利用するための講義の映像を撮影し、検出した被写体を中心としてパン、チルト、ズームの処理を行って表示するものである。
<< 4th Embodiment >>
The tracking imaging apparatus according to the fourth embodiment of the present invention captures a video of a lecture for use in a remote lecture and performs panning, tilting, and zooming processing with the detected subject as a center and displays the video.
〈第4実施形態による追尾撮像装置の構成〉
本発明の第4実施形態による追尾撮像装置5の構成を、図2、図3、図26〜図33を用いて説明する。
<Configuration of Tracking Imaging Device according to Fourth Embodiment>
A configuration of the tracking imaging device 5 according to the fourth embodiment of the present invention will be described with reference to FIGS. 2, 3, and 26 to 33.
図26は本実施形態による追尾撮像装置5の構成を示すブロック図である。 FIG. 26 is a block diagram illustrating a configuration of the tracking imaging device 5 according to the present embodiment.
本実施形態による追尾撮像装置5は、空間30内の講義が行われる教壇がすべて含まれる基準画角301で撮影するカメラ部10と、カメラ部10で撮影した映像を処理する制御端末20とを有する。
The tracking imaging device 5 according to the present embodiment includes a
カメラ部10は、制御端末20からの制御により撮影可能な画角の範囲内で任意の位置にパン、チルト、ズーム処理(以下、「PTZ」と称する)を行う駆動部101を有する。またカメラ部10は、PTZにより画角が変わっても、ステッピングモータで現在自分がいる位置およびズーム率を記憶しており、現在、画角内のどの範囲を撮影しているかを記憶している。
The
制御端末20は、プリセット部201と、被写体検出部202と、ジェスチャ検出部203と、カメラ制御部204と、表示部206と、入力部207と、記憶装置208と、図形検出部213とを有する。
The
プリセット部201、被写体検出部202、ジェスチャ検出部203、表示部206、入力部207、および記憶装置208の機能は第1実施形態〜第3実施形態と同様であるため、詳細な説明は省略する。
Since the functions of the
カメラ制御部204は、被写体や指示領域が撮影画角内に収まるようにカメラのPTZを制御する。
The
図形検出部213は、特定されたジェスチャが行われた位置から、重要背景エリア303内にあるユーザに必要な講義情報のうちジェスチャにより指し示された意味のある情報が集合した領域を指示領域として認識する。
The
〈第4実施形態による追尾撮像装置の動作〉
本発明の第4実施形態による追尾撮像装置5の動作を、図2、図3、図5、図27、図28のフローチャートを参照して説明する。
<Operation of Tracking Imaging Device according to Fourth Embodiment>
The operation of the tracking imaging device 5 according to the fourth embodiment of the present invention will be described with reference to the flowcharts of FIGS. 2, 3, 5, 27, and 28.
まず、制御端末20のプリセット部201で行われる初期設定の動作について図27を参照して説明する。
First, an initial setting operation performed by the
図2に示す教室などのような空間30で被写体の検出、追尾を行いたいエリア、例えば講義を行う教壇がすべて含まれる画像が撮影できる場所にカメラ部10が設置され、その画角が基準画角301として図3のように設定される(S901)。
A
次に、図3の基準画角301内で被写体の検出および追尾が行われる領域が、追尾エリア302として設定される(S902)。
Next, an area where subject detection and tracking are performed within the reference angle of
次に、設定された追尾エリア302内で講義情報が含まれる領域が、重要背景エリア303として設定される(S903)。
Next, an area including lecture information in the
さらに、第1実施形態と同様に被写体の移動許容量が設定される。これらのステップS901〜ステップS903の初期設定は入力部207により行われ、記憶装置208に記憶される。
Further, the allowable movement amount of the subject is set as in the first embodiment. The initial settings in steps S901 to S903 are performed by the
次に、カメラ部10で行われる講義の撮影の動作について図5、図8、および図28〜図32を参照して説明する。
Next, a lecture shooting operation performed by the
まず、制御端末20のカメラ制御部204によりカメラ部10が起動されると(S410の「Yes」)、図28のフローチャートに従って撮影処理(D)が行われる(S411)。図28の撮影処理(D)について説明する。
First, when the
カメラ部10が起動されると、まず基準画角301の撮影が開始される(S911)。ここでは基準画角301全体が表示画角として設定され、被写体検出部202により追尾エリア302内での被写体304の検出が行われる(S912)。
When the
追尾エリア302内に誰も存在せず、被写体検出部202において被写体未検出の間(S912の「No」)は、ステップS911に戻りそのまま基準画角301全体が表示画角として設定されるとともに、撮影された画像が記憶装置208に保存される(S913)。
While no one is present in the
追尾エリア302内に被写体304が入り、被写体検出部202により被写体304が検出されたときは(S912の「Yes」)、この被写体304の位置および被写体304の重心位置305が求められる(S914)。
When the subject 304 enters the
次に、ジェスチャ検出部203により被写体304による特定のジェスチャの検出が行われる(S915)。
Next, the
ジェスチャ検出部203において被写体304の特定のジェスチャが未検出であったときは(S915の「No」)、被写体304を含み被写体304の重心位置305が中心となるような位置にカメラ制御部204により駆動部101が制御され、PTZ機能により撮影画角が図29に示すように設定される(S916)。
When a specific gesture of the subject 304 is not detected in the gesture detection unit 203 (“No” in S915), the
設定された撮影画角の画像は、記憶装置208に保存される(S913)。保存処理が終了すると、追尾エリア302内で被写体304が移動したかどうかが判定される(S917)。 The image with the set shooting angle of view is stored in the storage device 208 (S913). When the saving process ends, it is determined whether or not the subject 304 has moved within the tracking area 302 (S917).
判定の結果、被写体304が移動していれば(S917の「Yes」)、移動距離がプリセット部201に設定された移動許容量の範囲内であるかどうかが判定される(S918)。 As a result of the determination, if the subject 304 has moved (“Yes” in S917), it is determined whether or not the moving distance is within the allowable movement range set in the preset unit 201 (S918).
判定の結果、被写体304の移動距離が移動許容量の範囲を超えていた場合は(S918の「No」)、ステップS914に戻り、移動後の被写体の位置および被写体の重心位置が求められ、ステップS915以降の処理が行われる。 As a result of the determination, if the moving distance of the subject 304 exceeds the allowable movement range (“No” in S918), the process returns to step S914, and the moved subject position and the subject gravity center position are obtained. The process after S915 is performed.
ステップS917において被写体304が移動しなかったと判定された場合(S917の「No」)、およびステップS918において被写体の移動距離が設定された移動許容量の範囲内であると判定された場合(S918の「Yes」)は、ステップS915に戻り、ジェスチャ検出部203により被写体304による特定のジェスチャの検出が行われる。
If it is determined in step S917 that the subject 304 has not moved (“No” in S917), and if it is determined in step S918 that the moving distance of the subject is within the set allowable movement range (in S918). “Yes”) returns to step S 915, and the
ステップS915において、ジェスチャ検出部203により被写体304による特定のジェスチャ307が検出された場合について図30〜図32を参照して説明する(S915の「Yes」)。
A case where a
被写体304による特定のジェスチャ307が検出されたときは、このジェスチャ307の検出位置が重要背景エリア303内であるかどうかが判定される(S919)。
When a
判定の結果、重要背景エリア303内であると判定された場合は(S919の「Yes」)、図形検出部213により重要背景エリア303内から、ジェスチャ307で指し示された指示領域308が検出される(S920)。
As a result of the determination, if it is determined that it is in the important background area 303 (“Yes” in S919), the
次に、重要背景エリア303全体がこのときの撮影画角に含まれているかもしくは、指示領域308がこのときの撮影画角に収まっている場合は(S921の「Yes」)指示領域308の重心位置309が求められ(S922)、さらに被写体304の重心位置305と指示領域308の重心位置309との中心位置が求められる。
Next, if the entire
この被写体304の重心位置305と指示領域308の重心位置309との中心位置を重心位置310とし、カメラ制御部204により駆動部101が制御され、PTZ機能により図30に示すように被写体304および指示領域308が収まるように撮影画角が変更される(S923)。
The center position of the center of
変更された撮影画角は、記憶装置208に保存される(S913)。 The changed shooting angle of view is stored in the storage device 208 (S913).
ステップS921において、指示領域308が撮影画角の端を含む形で検出され、撮影画角内に収まっていないと判断された場合は(S921の「No」)、被写体304が含まれたままカメラ制御部204により駆動部101が制御され、PTZ機能により指示領域308の撮影画角端の方向に撮影画角が広げられ、指示領域308全体が含まれるように撮影画角が変更される(S924)。
If it is determined in step S921 that the
例えば、図31のように指示領域308が撮影画角に収まっていない場合は、指示領域308が右端にはみ出ていると判断され、図32に示すように被写体304および指示領域308を含むように右側に一定量パンされるとともに、被写体304と指示領域308とが両方共フレームアウトしないように一定量ズームアウトされる。
For example, when the
そして、再びステップS921に戻り、指示領域308が撮影画角に収まっているか判断される。このステップS921およびS924の処理は、指示領域308が撮影画角に収まるまで繰り返される。
Then, the process returns to step S921, and it is determined whether the
これらの処理により、ジェスチャ307が検出される前は被写体304のみに基づいて重心位置305を重心とした撮影画角が図29に示すように設定されるが、ジェスチャ307が検出されると被写体304および指示領域308に基づいて求められた重心位置310を重心として撮影画角に変更され、モニタに表示される画像は図30のように切り替わる。
With these processes, before the
また、ステップS915において、検出されたジェスチャ307の検出位置が重要背景エリア303内ではなかったと判定された場合は(S919の「No」)、ステップS916に進み、被写体304を含み被写体304の重心位置305が中心となるような位置にカメラ制御部204により駆動部101が制御され、PTZ機能により撮影画角が設定される。
If it is determined in step S915 that the detected position of the detected
以上の撮影処理(D)は講義風景が撮影されている間繰り返し行われ、ユーザにより撮影を停止する操作が入力部207により行われた場合は(S431の「Yes」)、撮影処理(D)に停止を指示する割り込み信号が送信され(S432)、カメラ制御部204によってカメラ部10の撮影が停止されるとともに、制御端末20も一連の検出動作および撮影動作が停止される。
The above photographing process (D) is repeatedly performed while the lecture scenery is photographed. When the user performs an operation to stop photographing using the input unit 207 (“Yes” in S431), the photographing process (D) is performed. An interrupt signal for instructing the stop is transmitted (S432), and the
ユーザにより撮影を停止する操作が行われていないときは(S431の「No」)、撮影処理(D)は継続して行われる。 When the user does not perform an operation to stop shooting (“No” in S431), the shooting process (D) is continuously performed.
以上の第4実施形態による追尾撮像装置によれば、被写体と被写体の背景にある重要な情報とを確実に逃さず捉えることができるとともに、これらの重要な情報はズーム機能を用いて認識可能な大きさで撮影されているため講義内容の把握に効果的な映像を得ることができる。 According to the tracking imaging apparatus according to the fourth embodiment described above, the subject and important information in the background of the subject can be reliably captured without being missed, and the important information can be recognized using the zoom function. Because it is filmed in size, it is possible to obtain an effective video for understanding the content of the lecture.
《第5実施形態》
本発明の第5実施形態による追尾撮像システムは、第4実施形態による追尾撮像装置を用いて撮影された講義等の映像を、ネットワークを介して遠隔地の受講生が受信して視聴する遠隔講義に用いるものである。
<< 5th Embodiment >>
The tracking imaging system according to the fifth embodiment of the present invention is a remote lecture in which a student at a remote location receives and views a video of a lecture taken using the tracking imaging apparatus according to the fourth embodiment via a network. It is used for.
〈第5実施形態による追尾撮像システムの構成〉
本実施形態による追尾システムの構成を、図33を用いて説明する。図33は、本実施形態による追尾システムの構成を示すブロック図であり、追尾撮像装置6と、ネットワーク3と、ネットワーク3を介して追尾撮像装置6に接続されている表示端末4とから構成されている。
<Configuration of Tracking Imaging System According to Fifth Embodiment>
The configuration of the tracking system according to the present embodiment will be described with reference to FIG. FIG. 33 is a block diagram illustrating the configuration of the tracking system according to the present embodiment, which includes the tracking
追尾撮像装置6の主な構成は、第4実施形態における追尾撮像装置5の構成と同様であるため詳細な説明は省略する。追尾撮像装置5と異なる点は、講義の音声を録音する音声入力部11と、制御端末20に設けられネットワーク3を介して表示端末4と通信を行う通信制御部212を有することである。音声入力部11は、被写体すなわち講師に装着したピンマイクもしくは集音マイクなどである。
Since the main configuration of the tracking
ネットワーク3および表示端末4の構成は第2実施形態と同様であるため、詳しい説明は省略する。
Since the configurations of the
〈第5実施形態による追尾撮像システムの動作〉
本発明の第2実施形態による追尾撮像システムの動作について説明する。本実施形態において、講義が撮影されている間、カメラ部10で撮影された画像は第4実施形態と同様に図28のフローチャートに従って撮影処理(D)が継続して行われ、音声入力部11から入力した講義の音声も継続して集音されているものとする。
<Operation of Tracking Imaging System According to Fifth Embodiment>
The operation of the tracking imaging system according to the second embodiment of the present invention will be described. In the present embodiment, while the lecture is being photographed, the image photographed by the
追尾撮像装置6により撮影された映像および集音された音声であるコンテンツの配信処理は、第2実施形態と同様であるため、詳しい説明は省略する。
Since the distribution processing of the content that is the video and the collected sound captured by the tracking
以上の第5実施形態による追尾撮像制御システムによれば、第4実施形態と同様の効果を得ることができるとともに、ネットワークを介して遠隔地に撮影したコンテンツを配信することができる。 According to the tracking imaging control system according to the fifth embodiment described above, it is possible to obtain the same effect as that of the fourth embodiment, and to distribute the content photographed to a remote place via the network.
《その他の実施形態》
上記の第1実施形態〜第5実施形態において、下記のような形態で処理を行うことも可能である。
<< Other Embodiments >>
In the first to fifth embodiments described above, it is possible to perform processing in the following manner.
〈ジェスチャの検出に関する他の実施形態〉
第1実施形態〜第5実施形態において、撮影した映像から被写体およびそのジェスチャを検出したが、これには限定されず、黒板などの重要背景エリアにタッチセンサーを設置し、被写体が黒板に触れたときにその位置を指示した位置をジェスチャが行われた位置として検出し、さらに指示領域を検出したり、被写体や指示領域の検出精度を向上させるためにその他の位置サンサーを併用したりしてもよい。
<Other Embodiments Regarding Gesture Detection>
In the first to fifth embodiments, the subject and its gesture are detected from the captured video, but the present invention is not limited to this. A touch sensor is installed in an important background area such as a blackboard, and the subject touches the blackboard. Sometimes the position that indicates the position is detected as the position where the gesture was made, and the pointing area can be further detected, or other position sensors can be used in combination to improve the detection accuracy of the subject or pointing area. Good.
〈トラッキングに関する他の実施形態〉
第1実施形態〜第5実施形態の撮影中の映像において、被写体が追尾エリアの中程で突然消えることはないので、撮影した映像のある画像フレームでそれまで検出していた被写体が未検出になった場合、すぐに表示画角を基準画角に変更せず、その後数フレーム内に被写体が再検出された場合には継続して検出されていたものとみなして処理を続けるトラッキング機能を使用してもよい。このような機能を使用することで、表示画角が頻繁に変わってしまうことを防ぎ、より見やすい映像にすることができる。
<Other Embodiments Regarding Tracking>
In the video being shot in the first to fifth embodiments, the subject does not suddenly disappear in the middle of the tracking area, so the subject that has been detected in the image frame of the shot video is not detected yet. The tracking function does not immediately change the display angle of view to the reference angle of view, but if the subject is detected again within a few frames, it is assumed that it has been detected continuously and the tracking function is used to continue processing. May be. By using such a function, it is possible to prevent the display angle of view from changing frequently and to make the image easier to view.
〈表示画角を切り出す位置に関する他の実施形態〉
第1実施形態〜第5実施形態において、撮影したフレーム画像から表示画角を切り出す際、カメラ部10で撮影した基準画角の映像全体を制御端末20に送信し、制御端末20側で表示画角の切り出しを行っているが、カメラ部10内に切り出し部209の機能を持たせ、カメラ制御部204からカメラ部10に切り出す部分の位置座標などの情報を送信し、撮影した映像の中で表示画角だけをカメラ部10内で切り出して制御端末20に送信するようにしてもよい。
<Other Embodiments Regarding Positions for Cutting Display Angle of View>
In the first to fifth embodiments, when the display angle of view is cut out from the captured frame image, the entire video of the reference angle of view captured by the
また、カメラ部10に制御端末20の被写体検出部202、ジェスチャ検出部203、図形検出部205、スケーリング部210などの機能を持たせ、カメラ部10に中で各種検出から表示画角の切り出しまで行うようにしてもよい。
Also, the
〈重心位置、中心位置に関する他の実施形態〉
第1実施形態〜第5実施形態において、ジェスチャが検出されていないときは被写体の重心位置から表示画角を求めているが、被写体の表示範囲はこれには限定されず、必要な部分が映っていれば他の画角でもよい。
<Other Embodiments Regarding Center of Gravity Position and Center Position>
In the first to fifth embodiments, when no gesture is detected, the display angle of view is obtained from the center of gravity position of the subject. However, the display range of the subject is not limited to this, and a necessary portion is reflected. Any other angle of view may be used.
また、被写体のジェスチャが検出されたとき、被写体の重心位置と指示領域の重心位置とから表示画角の中心位置を求めたが、これには限定されず、例えば被写体が表示画角の端に位置するようにするとともに指示領域の重心位置を表示画角の中心位置にするようにするなど、被写体と指示領域とが含まれ、見る人が見やすい表示画角であれば別の画角でもよい。 In addition, when the gesture of the subject is detected, the center position of the display angle of view is obtained from the center of gravity position of the subject and the center of gravity of the indication area. However, the present invention is not limited to this. If the display angle of view is easy to see for the viewer, it may be a different angle of view, including the subject and the indication area, such as positioning the center of gravity of the indication area at the center of the display angle of view. .
〈移動許容量に関する他の実施形態〉
第1実施形態〜第5実施形態において、被写体の移動許容量は予め想定される被写体の動作スピードと移動量によって設定しているが、これには限定されず、撮影中に被写体の動きベクトルを求め、被写体の移動スピードによってその移動許容量や、被写体や指示領域の表示画角および表示画角サイズを変更するようなダイナミックな設定を行うようにしてもよい。
<Other Embodiments Regarding Movement Allowance>
In the first to fifth embodiments, the allowable movement amount of the subject is set according to the subject's assumed operation speed and movement amount in advance, but is not limited to this. It is also possible to perform dynamic settings such as changing the allowable movement amount of the subject, the display angle of view of the subject or the instruction area, and the display angle of view size depending on the movement speed of the subject.
〈撮影した映像の保存場所に関する他の実施形態〉
第1実施形態〜第5実施形態において、撮影した映像のデータは追尾撮像装置内の記憶装置208に記録したが、これには限定されず、制御端末20に通信手段(図示せず)を設け、この通信手段を介して別の記憶装置に記録するようにしてもよい。このとき、リアルタイム配信をする場合は、記憶バッファ(図示せず)に映像のデータを一時保存するか、もしくはそのまま所定のデータ形式に変換して配信する。
<Other Embodiments Regarding Storage Location of Captured Video>
In the first to fifth embodiments, the captured video data is recorded in the
1、2、5、6、…追尾撮像装置
3…ネットワーク
4…表示端末
10…カメラ部
11…音声入力部
20…制御端末
30…空間
41…通信制御部
42…出力部
43…入力部
44…記憶装置
45…制御部
101…駆動部
201…プリセット部
202…被写体検出部
203…ジェスチャ検出部
204…カメラ制御部
205…図形検出部
206…表示部
207…入力部
208…記憶装置
209…画像切り出し部
210…スケーリング部
211…制御部
212…通信制御部
213…図形検出部
301…基準画角
302…追尾エリア
303…重要背景エリア
304…被写体
304A、304B、304C、304D…被写体位置
305…被写体の重心位置
305A、305B、305C、305D…重心位置
306…領域
306A、306B、306C、306D…表示画角
307…ジェスチャ
308…指示領域
309…指示領域の重心位置
310…重心位置
311…重心位置
312…領域
313…第1の表示画角
314…第2の表示画角
315〜318…画像
319…表示画角
320〜323…画像
1, 2, 5, 6, ... tracking
Claims (6)
前記カメラ部が、前記追尾撮影エリア内を撮影して得られた画像から前記第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、
前記検出された第1被写体が前記重要背景エリア内の任意の位置を差し示す所定のジェスチャを検出するとともに、前記検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、
前記取得された位置座標に基づいて前記第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、
前記取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、前記第1及び第2被写体の画像を所定の画角で撮影画像から抽出する画像切り出し部と、
を備えた構成の追尾撮像装置。 A tracking imaging apparatus including a camera unit that tracks and captures a person moving in a tracking shooting area as a first subject and captures a second subject in an important background area in the tracking shooting area,
A subject detection unit that detects the first subject from an image obtained by photographing the inside of the tracking photographing area, and obtains the barycentric position coordinate of the detected first subject;
A gesture detection unit that detects a predetermined gesture in which the detected first subject indicates an arbitrary position in the important background area, and acquires a position coordinate of the position pointed to by the detected gesture;
A graphic detector that detects the second subject based on the acquired position coordinates and acquires the center-of-gravity position coordinates of the detected second subject;
An image cut-out unit that extracts the image of the first and second subjects from the photographed image at a predetermined angle of view, with the midpoint coordinates of the center of gravity coordinates of the acquired first and second subjects as the center of the angle of view; ,
A tracking imaging device having a configuration comprising:
前記カメラ部が、前記追尾撮影エリア内を撮影して得られた画像から前記第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、
前記検出された第1被写体が前記重要背景エリア内の任意の位置を指し示す所定のジェスチャを検出するとともに、前記検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、
前記取得された位置座標に基づいて前記第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、
前記取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、前記パン、チルト、及びズームのうち少なくとも一の撮影制御機能により、前記第1及び第2被写体の画像を所定の画角で撮影するように前記カメラ部を制御するカメラ制御部と、
を備えた構成の追尾撮像装置。 A camera unit having a pan, tilt, and zoom function for shooting a person moving in the tracking shooting area as a first subject and shooting a second subject in an important background area in the tracking shooting area. A tracking imaging device provided,
A subject detector for detecting the first subject from an image obtained by photographing the inside of the tracking photographing area, and acquiring a barycentric position coordinate of the detected first subject;
A gesture detection unit that detects a predetermined gesture in which the detected first subject points to an arbitrary position in the important background area, and acquires position coordinates of the position pointed to by the detected gesture;
A graphic detector that detects the second subject based on the acquired position coordinates and acquires the center-of-gravity position coordinates of the detected second subject;
By using at least one shooting control function among the pan, tilt, and zoom, the first and second subjects with the center point coordinates of the center of gravity coordinates of the acquired first and second subjects as the center of the angle of view. A camera control unit that controls the camera unit so as to capture an image of a predetermined angle of view;
A tracking imaging device having a configuration comprising:
前記追尾撮像装置は、
前記カメラ部が、前記追尾撮影エリア内を撮影して得られた画像から前記第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、
前記検出された第1被写体が前記重要背景エリア内の任意の位置を差し示す所定のジェスチャを検出するとともに、前記検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、
前記取得された位置座標に基づいて前記第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、
前記取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、前記第1及び第2被写体の画像を所定の画角で撮影画像から抽出する画像切り出し部と、
前記抽出された画像を前記ネットワークに送出するための通信制御部とを備えるとともに、
前記表示端末は、
前記追尾撮像装置から送出された画像を受信する通信制御部と、
前記受信された画像を表示出力する出力部と、
を備えた構成の追尾撮像システム。 A tracking imaging apparatus including a camera unit that tracks a person moving in a tracking shooting area as a first subject and shoots a second subject in an important background area in the tracking shooting area, and the camera A tracking imaging system in which a display terminal that displays an image captured in a section is connected via a network,
The tracking imaging device is
A subject detector for detecting the first subject from an image obtained by photographing the inside of the tracking photographing area, and acquiring a barycentric position coordinate of the detected first subject;
A gesture detection unit that detects a predetermined gesture in which the detected first subject indicates an arbitrary position in the important background area, and acquires a position coordinate of a position indicated by the detected gesture;
A graphic detector that detects the second subject based on the acquired position coordinates and acquires the center-of-gravity position coordinates of the detected second subject;
An image cut-out unit that extracts the image of the first and second subjects from the photographed image at a predetermined angle of view, with the center point coordinates of the center of gravity coordinates of the acquired first and second subjects as the center of the angle of view; ,
A communication control unit for sending the extracted image to the network;
The display terminal is
A communication control unit for receiving an image sent from the tracking imaging device;
An output unit for displaying and outputting the received image;
The tracking imaging system of the structure provided with.
前記追尾撮像装置は、
前記カメラ部が、前記追尾撮影エリア内を撮影して得られた画像から前記第1被写体を検出するとともに、この検出された第1被写体の重心位置座標を取得する被写体検出部と、
前記検出された第1被写体が前記重要背景エリア内の任意の位置を指し示す所定のジェスチャを検出するとともに、前記検出されたジェスチャによって指し示された位置の位置座標を取得するジェスチャ検出部と、
前記取得された位置座標に基づいて前記第2被写体を検出するとともに、この検出された第2被写体の重心位置座標を取得する図形検出部と、
前記取得された第1及び第2被写体の各重心位置座標の中点座標を画角の中心として、前記パン、チルト、及びズームのうち少なくとも一の撮影制御機能により、前記第1及び第2被写体の画像を所定の画角で撮影するように前記カメラ部を制御するカメラ制御部と、
前記撮影された画像を前記ネットワークに送出するための通信制御部とを備えるとともに、
前記表示端末は、
前記追尾撮像装置から送出された画像を受信する通信制御部と、
前記受信された画像を表示出力する出力部と、
を備えた構成の追尾撮像システム。
A camera unit having a pan, tilt, and zoom function for shooting a person moving in the tracking shooting area as a first subject and shooting a second subject in an important background area in the tracking shooting area. A tracking imaging system in which a tracking imaging device provided and a display terminal that displays an image captured by the camera unit are connected to each other via a network,
The tracking imaging device is
A subject detector for detecting the first subject from an image obtained by photographing the inside of the tracking photographing area, and acquiring a barycentric position coordinate of the detected first subject;
A gesture detection unit that detects a predetermined gesture in which the detected first subject points to an arbitrary position in the important background area, and acquires position coordinates of the position pointed to by the detected gesture;
A graphic detector that detects the second subject based on the acquired position coordinates and acquires the center-of-gravity position coordinates of the detected second subject;
By using at least one shooting control function among the pan, tilt, and zoom, the first and second subjects with the center point coordinates of the center of gravity coordinates of the acquired first and second subjects as the center of the angle of view. A camera control unit that controls the camera unit so as to capture an image of a predetermined angle of view;
A communication control unit for sending the captured image to the network,
The display terminal is
A communication control unit for receiving an image sent from the tracking imaging device;
An output unit for displaying and outputting the received image;
The tracking imaging system of the structure provided with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005350674A JP2007158680A (en) | 2005-12-05 | 2005-12-05 | Tracking imaging apparatus and tracking imaging system utilizing it |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005350674A JP2007158680A (en) | 2005-12-05 | 2005-12-05 | Tracking imaging apparatus and tracking imaging system utilizing it |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007158680A true JP2007158680A (en) | 2007-06-21 |
Family
ID=38242468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005350674A Pending JP2007158680A (en) | 2005-12-05 | 2005-12-05 | Tracking imaging apparatus and tracking imaging system utilizing it |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007158680A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009031334A (en) * | 2007-07-24 | 2009-02-12 | Sharp Corp | Projector and projection method for projector |
JP2009081496A (en) * | 2007-09-25 | 2009-04-16 | Hitachi Ltd | In-vehicle camera |
JP2010136099A (en) * | 2008-12-04 | 2010-06-17 | Sony Corp | Image processing device and method, image processing system, and image processing program |
JP2010204730A (en) * | 2009-02-27 | 2010-09-16 | Seiko Epson Corp | System of controlling device in response to gesture |
JP2014090370A (en) * | 2012-10-31 | 2014-05-15 | Canon Marketing Japan Inc | Information processor, control method of the same and program |
WO2015072166A1 (en) * | 2013-11-18 | 2015-05-21 | オリンパスイメージング株式会社 | Imaging device, imaging assistant method, and recoding medium on which imaging assistant program is recorded |
CN106464784A (en) * | 2014-06-30 | 2017-02-22 | 奥林巴斯株式会社 | Image capturing device and image capturing method |
CN112839227A (en) * | 2019-11-22 | 2021-05-25 | 浙江宇视科技有限公司 | Image coding method, device, equipment and medium |
US11445119B2 (en) | 2020-09-18 | 2022-09-13 | Canon Kabushiki Kaisha | Image capturing control apparatus, image capturing control method, and storage medium |
-
2005
- 2005-12-05 JP JP2005350674A patent/JP2007158680A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009031334A (en) * | 2007-07-24 | 2009-02-12 | Sharp Corp | Projector and projection method for projector |
JP2009081496A (en) * | 2007-09-25 | 2009-04-16 | Hitachi Ltd | In-vehicle camera |
US9786144B2 (en) | 2008-12-04 | 2017-10-10 | Sony Corporation | Image processing device and method, image processing system, and image processing program |
JP2010136099A (en) * | 2008-12-04 | 2010-06-17 | Sony Corp | Image processing device and method, image processing system, and image processing program |
JP4715909B2 (en) * | 2008-12-04 | 2011-07-06 | ソニー株式会社 | Image processing apparatus and method, image processing system, and image processing program |
US8363107B2 (en) | 2008-12-04 | 2013-01-29 | Sony Corporation | Image processing device and method, image processing system, and image processing program |
US8957971B2 (en) | 2008-12-04 | 2015-02-17 | Sony Corporation | Image processing device and method, image processing system, and image processing program |
US9886770B2 (en) | 2008-12-04 | 2018-02-06 | Sony Corporation | Image processing device and method, image processing system, and image processing program |
JP2010204730A (en) * | 2009-02-27 | 2010-09-16 | Seiko Epson Corp | System of controlling device in response to gesture |
JP2014090370A (en) * | 2012-10-31 | 2014-05-15 | Canon Marketing Japan Inc | Information processor, control method of the same and program |
WO2015072166A1 (en) * | 2013-11-18 | 2015-05-21 | オリンパスイメージング株式会社 | Imaging device, imaging assistant method, and recoding medium on which imaging assistant program is recorded |
JPWO2015072166A1 (en) * | 2013-11-18 | 2017-03-16 | オリンパス株式会社 | IMAGING DEVICE, IMAGING ASSIST METHOD, AND RECORDING MEDIUM CONTAINING IMAGING ASSIST PROGRAM |
US9628700B2 (en) | 2013-11-18 | 2017-04-18 | Olympus Corporation | Imaging apparatus, imaging assist method, and non-transitory recoding medium storing an imaging assist program |
JP5886479B2 (en) * | 2013-11-18 | 2016-03-16 | オリンパス株式会社 | IMAGING DEVICE, IMAGING ASSIST METHOD, AND RECORDING MEDIUM CONTAINING IMAGING ASSIST PROGRAM |
CN106464784A (en) * | 2014-06-30 | 2017-02-22 | 奥林巴斯株式会社 | Image capturing device and image capturing method |
CN112839227A (en) * | 2019-11-22 | 2021-05-25 | 浙江宇视科技有限公司 | Image coding method, device, equipment and medium |
CN112839227B (en) * | 2019-11-22 | 2023-03-14 | 浙江宇视科技有限公司 | Image coding method, device, equipment and medium |
US11445119B2 (en) | 2020-09-18 | 2022-09-13 | Canon Kabushiki Kaisha | Image capturing control apparatus, image capturing control method, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4770178B2 (en) | Camera control apparatus, camera system, electronic conference system, and camera control method | |
JP2007158680A (en) | Tracking imaging apparatus and tracking imaging system utilizing it | |
WO2017215295A1 (en) | Camera parameter adjusting method, robotic camera, and system | |
US20100118112A1 (en) | Group table top videoconferencing device | |
CN108780581B (en) | Information processing apparatus, information processing scheme, and program | |
JP2009232151A (en) | Imaging apparatus, control method therefor and program | |
US11250636B2 (en) | Information processing device, information processing method, and program | |
US6563528B2 (en) | Video conference system | |
TW201135341A (en) | Front projection system and method | |
JP2016213677A (en) | Remote communication system, and control method and program for the same | |
WO2019124111A1 (en) | Control device and control method | |
JP2005033570A (en) | Method and system for providing mobile body image | |
KR20100121086A (en) | Ptz camera application system for photographing chase using sound source recognition and method therefor | |
CN111163280A (en) | Asymmetric video conference system and method thereof | |
JP2005117285A (en) | Information input device, communication terminal and communication method | |
KR20160082291A (en) | Image processing apparatus and image processing method thereof | |
WO2012008553A1 (en) | Robot system | |
JP2008182321A (en) | Image display system | |
JP3449939B2 (en) | Video display method and recording medium recording the program | |
JP2004289779A (en) | Mobile body imaging method and mobile body imaging system | |
WO2018074262A1 (en) | Communication device, communication method, and program | |
JP3759216B2 (en) | Television camera communication device and multipoint connection device | |
KR101992437B1 (en) | Method for assisting learning of movable robot and movable robot device for use therein | |
JP5939902B2 (en) | Control device and control method of control device | |
JP2021013138A (en) | Imaging apparatus and information processing device |