JP2021197572A - Camera control apparatus and program - Google Patents

Camera control apparatus and program Download PDF

Info

Publication number
JP2021197572A
JP2021197572A JP2020100516A JP2020100516A JP2021197572A JP 2021197572 A JP2021197572 A JP 2021197572A JP 2020100516 A JP2020100516 A JP 2020100516A JP 2020100516 A JP2020100516 A JP 2020100516A JP 2021197572 A JP2021197572 A JP 2021197572A
Authority
JP
Japan
Prior art keywords
camera
area
subject
areas
camera control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020100516A
Other languages
Japanese (ja)
Inventor
太一 杉之下
Taichi Suginoshita
俊枝 三須
Toshie Misu
秀樹 三ツ峰
Hideki Mitsumine
淳 洗井
Jun Arai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2020100516A priority Critical patent/JP2021197572A/en
Publication of JP2021197572A publication Critical patent/JP2021197572A/en
Pending legal-status Critical Current

Links

Images

Abstract

To detect a position of a subject without using positional information obtained from external and to always keep the subject within a visual field of a camera.SOLUTION: A capturing area division unit 10 of a camera control apparatus 3 divides an image of a capturing area 110 in a capturing video image into images of a predetermined number of areas having a predetermined shape in accordance with a predetermined rule. A subject position detection unit 11 detects a subject 120 from a plurality of divided images, and generates positional information including a position of the subject 120. A camera control unit 12 obtains posture information of a robot camera 4 on the on positional information by means of a control table 20. A camera communication unit 13 generates a control signal including the posture information and transmits the control signal to the robot camera 4. Thereby, the robot camera 4 operates in accordance with the posture information included in the control signal.SELECTED DRAWING: Figure 1

Description

本発明は、カメラ制御装置及びプログラムに関する。 The present invention relates to a camera control device and a program.

従来、複数のカメラで撮像した画像から、被写体の三次元モデルを再構成し、カメラが配置されていない任意の位置から仮想視点画像を得る技術が知られている。 Conventionally, there is known a technique of reconstructing a three-dimensional model of a subject from images captured by a plurality of cameras and obtaining a virtual viewpoint image from an arbitrary position where the cameras are not arranged.

例えば、配置するカメラとして、電動雲台を備えたカメラ(以下、「ロボットカメラ」という。)を用いることにより、常に被写体をロボットカメラの画角から外さずに撮影することができる。限定された台数のロボットカメラを用いる場合においても、精度及び自由度を両立させた撮影が可能となる(例えば、特許文献1を参照)。 For example, by using a camera equipped with an electric pan head (hereinafter referred to as "robot camera") as the camera to be arranged, it is possible to always shoot the subject without removing it from the angle of view of the robot camera. Even when a limited number of robot cameras are used, it is possible to take a picture with both accuracy and a degree of freedom (see, for example, Patent Document 1).

また、被写体を画角から外さないようにロボットカメラの位置を制御する技術として、被写体の位置情報を用いる手法が提案されている(例えば、特許文献2を参照)。この手法は、被写体の位置情報を外部から取得すると共に、時間の経過を示すタイミング情報を取得し、被写体の位置情報及びタイミング情報に基づいて、被写体を撮影するロボットカメラのカメラワークを制御するものである。 Further, as a technique for controlling the position of the robot camera so as not to deviate the subject from the angle of view, a method using the position information of the subject has been proposed (see, for example, Patent Document 2). In this method, the position information of the subject is acquired from the outside, the timing information indicating the passage of time is acquired, and the camera work of the robot camera that shoots the subject is controlled based on the position information and the timing information of the subject. Is.

さらに、センサカメラの撮像画像から被写体を検出し、ロボットカメラにて被写体を自動追尾しながら撮影する手法も提案されている(例えば、特許文献3を参照)。この手法は、被写体の表面を構成する複数の色を予め設定しておき、撮像画像から、予め設定された複数の色を有する箇所を画像部分として抽出し、その画像情報に基づいて被写体を検出し、被写体を自動追尾するものである。 Further, a method of detecting a subject from an image captured by a sensor camera and taking a picture while automatically tracking the subject with a robot camera has also been proposed (see, for example, Patent Document 3). In this method, a plurality of colors constituting the surface of the subject are set in advance, a portion having the plurality of preset colors is extracted as an image portion from the captured image, and the subject is detected based on the image information. However, it automatically tracks the subject.

特開2019−67419号公報Japanese Unexamined Patent Publication No. 2019-67419 国際公開第2017/154953号International Publication No. 2017/154953 特許第3704201号公報Japanese Patent No. 3704201

前述の特許文献2の手法は、GNSS(Global Navigation Satellite System:全球測位衛星システム)の衛星から被写体の位置情報を取得し、位置情報に対応したカメラワークをカメラワーク情報テーブルセットから読み出すことで、ロボットカメラを制御する。 The method of Patent Document 2 described above is to acquire the position information of the subject from the satellite of GNSS (Global Navigation Satellite System) and read the camera work corresponding to the position information from the camera work information table set. Control the robot camera.

しかしながら、この手法は、位置情報を取得するためのデバイスが被写体に取り付けられていない場合に運用することができず、また、衛星から位置情報を受信できない環境においては、効率的に運用することができない。 However, this method cannot be operated when the device for acquiring the position information is not attached to the subject, and can be operated efficiently in the environment where the position information cannot be received from the satellite. Can not.

また、前述の特許文献3の手法では、制御エラーによりロボットカメラの姿勢が不安定となった場合、被写体がカメラの視野から外れてしまい、被写体の一部が欠けた画角となる可能性があり、必ずしも有効な映像を得ることができるとは限らない。 Further, in the method of Patent Document 3 described above, when the posture of the robot camera becomes unstable due to a control error, the subject may be out of the field of view of the camera, and a part of the subject may have a missing angle of view. Yes, it is not always possible to obtain effective images.

このため、外部から取得した位置情報を用いることなく被写体の位置を検出し、高速かつ正確にロボットカメラを制御できることが所望されていた。 Therefore, it has been desired to be able to detect the position of the subject without using the position information acquired from the outside and control the robot camera at high speed and accurately.

そこで、本発明は前記課題を解決するためになされたものであり、その目的は、外部から得られる位置情報を用いることなく被写体の位置を検出し、被写体を常にカメラの視野内に収めることが可能なカメラ制御装置及びプログラムを提供することにある。 Therefore, the present invention has been made to solve the above-mentioned problems, and an object thereof is to detect the position of a subject without using position information obtained from the outside and always keep the subject within the field of view of the camera. To provide possible camera controls and programs.

前記課題を解決するために、請求項1のカメラ制御装置は、カメラの姿勢を制御するカメラ制御装置において、俯瞰カメラにより撮影された撮像エリア内の被写体を含む撮像映像を入力し、予め設定された規則に従い、前記撮像エリアを複数のエリアに分割することで、前記撮像映像の画像から、前記複数のエリアのそれぞれに対応する分割画像を抽出する撮像エリア分割部と、前記撮像エリア分割部により抽出された前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記複数のエリアから前記被写体が存在する1つのエリアを検出し、前記1つのエリアを含む位置情報を生成する被写体位置検出部と、前記複数のエリアのそれぞれに対応して、前記カメラの姿勢を示すパラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記被写体位置検出部により生成された前記位置情報に含まれる前記1つのエリアに対応する前記パラメータを読み出し、前記パラメータを含む姿勢情報を生成するカメラ制御部と、前記カメラ制御部により生成された前記姿勢情報を含む制御信号を、前記カメラへ送信するカメラ通信部と、を備えたことを特徴とする。 In order to solve the above-mentioned problems, the camera control device according to claim 1 is set in advance by inputting a captured image including a subject in the imaging area captured by the bird's-eye view camera in the camera control device that controls the posture of the camera. By dividing the imaging area into a plurality of areas in accordance with the above rules, the imaging area division unit for extracting the divided images corresponding to each of the plurality of areas from the image of the captured image, and the imaging area division unit. Subject position detection that detects one area in which the subject exists from the plurality of areas based on the divided image corresponding to each of the extracted plurality of areas, and generates position information including the one area. A control table in which parameters indicating the posture of the camera are stored is held corresponding to each of the unit and the plurality of areas, and is included in the position information generated by the subject position detection unit from the control table. A camera control unit that reads out the parameter corresponding to the one area and generates attitude information including the parameter, and a camera that transmits a control signal including the attitude information generated by the camera control unit to the camera. It is characterized by having a communication unit.

また、請求項2のカメラ制御装置は、請求項1に記載のカメラ制御装置において、前記カメラ制御部が、前記複数のエリアのそれぞれに対応して、前記カメラの姿勢に加え、前記カメラのレンズのズーム回転量及びフォーカス回転量を示すパラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記位置情報に含まれる前記1つのエリアに対応する前記パラメータを読み出す、ことを特徴とする。 Further, in the camera control device according to claim 2, in the camera control device according to claim 1, the camera control unit corresponds to each of the plurality of areas, and in addition to the posture of the camera, the lens of the camera. It is characterized in that it holds a control table in which parameters indicating a zoom rotation amount and a focus rotation amount of the above are stored, and reads out the parameter corresponding to the one area included in the position information from the control table.

また、請求項3のカメラ制御装置は、請求項1または2に記載のカメラ制御装置において、前記被写体位置検出部が、前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記複数のエリアのそれぞれについて前記被写体のシルエット面積を検出し、前記シルエット面積が最大の前記1つのエリアを特定し、前記1つのエリアを含む位置情報を生成する、ことを特徴とする。 Further, the camera control device according to claim 3 is the camera control device according to claim 1, wherein the subject position detecting unit is based on the divided image corresponding to each of the plurality of areas. It is characterized in that the silhouette area of the subject is detected for each of the areas, the one area having the largest silhouette area is specified, and the position information including the one area is generated.

また、請求項4のカメラ制御装置は、請求項1または2に記載のカメラ制御装置において、前記被写体位置検出部が、前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記被写体が存在する1つまたは複数のエリアを検出し、前記1つまたは複数のエリアを示すエリアパターンを含む位置情報を生成し、前記カメラ制御部が、前記被写体が存在し得る1つのエリア及び複数のエリアを示す全てのエリアパターンのそれぞれに対応して、前記パラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記被写体位置検出部により生成された前記位置情報に含まれる前記エリアパターンに対応する前記パラメータを読み出す、ことを特徴とする。 Further, in the camera control device according to the fourth aspect, in the camera control device according to the first or second aspect, the subject position detection unit is based on the divided image corresponding to each of the plurality of areas. One or a plurality of existing areas are detected, position information including an area pattern indicating the one or a plurality of areas is generated, and the camera control unit generates one or a plurality of areas in which the subject may exist. A control table in which the parameters are stored is held corresponding to each of all the area patterns indicating the above, and the area pattern included in the position information generated by the subject position detection unit is supported from the control table. It is characterized in that the said parameter is read out.

また、請求項5のカメラ制御装置は、請求項1または2に記載のカメラ制御装置において、前記被写体位置検出部が、前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記複数のエリアのそれぞれについて前記被写体のシルエット面積を検出し、前記エリア及び前記エリアのシルエット面積を含む位置情報を生成し、前記カメラ制御部が、前記複数のエリアのそれぞれに対応して、前記パラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記被写体位置検出部により生成された前記位置情報に含まれる前記エリアに対応する前記パラメータを読み出し、前記パラメータについて、前記被写体の全体のシルエット面積に対する前記エリアのシルエット面積の重み付き平均を求め、前記重み付き平均の前記パラメータを含む前記姿勢情報を生成する、ことを特徴とする。 Further, the camera control device according to claim 5 is the camera control device according to claim 1 or 2, wherein the subject position detecting unit has the plurality of said ones based on the divided images corresponding to each of the plurality of areas. The silhouette area of the subject is detected for each of the areas, position information including the area and the silhouette area of the area is generated, and the camera control unit stores the parameters corresponding to each of the plurality of areas. The control table is held, and the parameter corresponding to the area included in the position information generated by the subject position detection unit is read from the control table, and the parameter is obtained with respect to the entire silhouette area of the subject. The weighted average of the silhouette area of the area is obtained, and the posture information including the parameter of the weighted average is generated.

また、請求項6のカメラ制御装置は、請求項1から5までのいずれか一項に記載のカメラ制御装置において、前記撮像エリアの中心を原点とし、前記原点から前記カメラの設置位置を通る線を始線として、前記撮像エリアの平面上の点が、前記原点からの距離r及び前記始線からの偏角δの極座標(r,δ)で表されるものとして、前記撮像エリア分割部により分割される前記複数のエリアを、前記極座標にて、または前記カメラの光軸に水平方向若しくは垂直方向にて、前記撮像エリアが区分された領域とする、ことを特徴とする。 The camera control device according to claim 6 is the camera control device according to any one of claims 1 to 5, wherein the center of the imaging area is the origin and the line passes from the origin to the camera installation position. Assuming that the point on the plane of the imaging area is represented by the polar coordinates (r, δ) of the distance r from the origin and the deviation angle δ from the starting line, the imaging area dividing portion The plurality of divided areas are defined as regions in which the imaging area is divided in the polar coordinates or in the horizontal or vertical direction with respect to the optical axis of the camera.

また、請求項7のカメラ制御装置は、請求項1から6までのいずれか一項に記載のカメラ制御装置において、当該カメラ制御装置が、複数のカメラを制御し、前記カメラ制御部が、前記複数のカメラのそれぞれについて、前記制御テーブルを保持し、前記複数のカメラのそれぞれについて、対応する前記制御テーブルを用いて前記姿勢情報を生成し、前記カメラ通信部が、前記カメラ制御部により生成された前記姿勢情報を含む制御信号を、対応する前記複数のカメラのそれぞれへ送信する、ことを特徴とする。 Further, in the camera control device according to claim 7, in the camera control device according to any one of claims 1 to 6, the camera control device controls a plurality of cameras, and the camera control unit controls the plurality of cameras. The control table is held for each of the plurality of cameras, the attitude information is generated using the corresponding control table for each of the plurality of cameras, and the camera communication unit is generated by the camera control unit. It is characterized in that a control signal including the attitude information is transmitted to each of the corresponding plurality of cameras.

また、請求項8のカメラ制御装置は、請求項1から6までのいずれか一項に記載のカメラ制御装置において、当該カメラ制御装置が、複数のカメラを制御し、前記カメラ制御部が、前記複数のカメラのうちのいずれか1つのカメラについて、前記制御テーブルを保持し、前記1つのカメラについて、前記制御テーブルを用いて前記姿勢情報を生成し、前記姿勢情報、並びに前記1つのカメラと前記複数のカメラのうちの他のカメラとの間の位置及び姿勢の関係に基づいて、前記他のカメラの前記姿勢情報を生成し、前記カメラ通信部が、前記カメラ制御部により生成された前記姿勢情報を含む制御信号を、対応する前記複数のカメラのそれぞれへ送信する、ことを特徴とする。 Further, in the camera control device according to claim 8, in the camera control device according to any one of claims 1 to 6, the camera control device controls a plurality of cameras, and the camera control unit controls the plurality of cameras. The control table is held for any one of the plurality of cameras, the attitude information is generated for the one camera using the control table, the attitude information, and the one camera and the said one. The posture information of the other camera is generated based on the relationship between the position and the posture of the other cameras among the plurality of cameras, and the camera communication unit generates the posture generated by the camera control unit. It is characterized in that a control signal including information is transmitted to each of the plurality of corresponding cameras.

さらに、請求項9のプログラムは、コンピュータを、請求項1から8までのいずれか一項に記載のカメラ制御装置として機能させることを特徴とする。 Further, the program of claim 9 is characterized in that the computer functions as the camera control device according to any one of claims 1 to 8.

以上のように、本発明によれば、外部から得られる位置情報を用いることなく被写体の位置を検出することができ、被写体を常にカメラの視野内に収めることができる。 As described above, according to the present invention, the position of the subject can be detected without using the position information obtained from the outside, and the subject can always be within the field of view of the camera.

本発明の実施形態によるカメラ制御装置を含む撮像システムの全体構成例を示すブロック図である。It is a block diagram which shows the whole structure example of the image pickup system which includes the camera control device by embodiment of this invention. 撮像環境及びエリア区分の例を説明する図である。It is a figure explaining an example of an imaging environment and area division. 実施例1の処理例を示すフローチャートである。It is a flowchart which shows the processing example of Example 1. FIG. 実施例1における撮像エリア内の被写体の位置の例を説明する図である。It is a figure explaining the example of the position of the subject in the image pickup area in Example 1. FIG. 実施例1における制御テーブルの構成例を示す図である。It is a figure which shows the structural example of the control table in Example 1. FIG. 実施例1の変形例における制御テーブルの構成例を示す図である。It is a figure which shows the structural example of the control table in the modification of Example 1. FIG. 実施例2の処理例を示すフローチャートである。It is a flowchart which shows the processing example of Example 2. 実施例2における撮像エリア内の被写体の位置の例を説明する図である。It is a figure explaining the example of the position of the subject in the image pickup area in Example 2. FIG. 実施例2の変形例の処理例を示すフローチャートである。It is a flowchart which shows the processing example of the modification of Example 2. 実施例2の変形例における制御テーブルの構成例を示す図である。It is a figure which shows the structural example of the control table in the modification of Example 2. FIG. 実施例3の処理例を示すフローチャートである。It is a flowchart which shows the processing example of Example 3. FIG. 実施例4において、ロボットカメラの位置及びエリア区分の例を説明する図である。It is a figure explaining the example of the position and area division of a robot camera in Example 4. FIG. 実施例4における撮像環境、ロボットカメラの位置及びエリア区分の例を説明する図である。It is a figure explaining the example of the image pickup environment, the position of a robot camera, and the area division in Example 4. FIG. 実施例5において、ロボットカメラの位置及びエリア区分の例を説明する図である。FIG. 5 is a diagram illustrating an example of a position and area division of a robot camera in the fifth embodiment. 2台のロボットカメラが空間上に設置されている場合に、1つの制御テーブルを用いて2台のロボットカメラの姿勢情報を生成する処理を説明する図である。It is a figure explaining the process of generating the posture information of two robot cameras using one control table when two robot cameras are installed in a space.

以下、本発明を実施するための形態について図面を用いて詳細に説明する。
〔撮像システム〕
まず、撮像システムについて説明する。図1は、本発明の実施形態によるカメラ制御装置を含む撮像システムの全体構成例を示すブロック図であり、図2は、撮像環境及びエリア区分の例を説明する図である。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
[Imaging system]
First, the imaging system will be described. FIG. 1 is a block diagram showing an overall configuration example of an imaging system including a camera control device according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating an example of an imaging environment and area division.

この撮像システム1は、俯瞰カメラ2、カメラ制御装置3、及び1または複数のロボットカメラ4を備えて構成される。撮像システム1は、撮像エリア110内に存在する被写体120を、俯瞰カメラ2により撮影された撮像映像の画像から検出し、被写体120を常にロボットカメラ4の視野内に収めるように、ロボットカメラ4を制御するシステムである。 The image pickup system 1 includes a bird's-eye view camera 2, a camera control device 3, and one or a plurality of robot cameras 4. The image pickup system 1 detects the subject 120 existing in the image pickup area 110 from the image of the image captured by the bird's-eye view camera 2, and sets the robot camera 4 so that the subject 120 is always within the field of view of the robot camera 4. It is a system to control.

被写体120は、撮像エリア110内のステージ115上に存在し、俯瞰カメラ2及びロボットカメラ4は、例えば半球状の取付用部材116に取り付けられており、取付用部材116は、被写体120を覆うように設置されている。図2において、俯瞰カメラ2は、被写体120を俯瞰するように、半球状の取付用部材116の頂点に設置されている。 The subject 120 exists on the stage 115 in the imaging area 110, and the bird's-eye view camera 2 and the robot camera 4 are attached to, for example, a hemispherical mounting member 116, so that the mounting member 116 covers the subject 120. It is installed in. In FIG. 2, the bird's-eye view camera 2 is installed at the apex of the hemispherical mounting member 116 so as to take a bird's-eye view of the subject 120.

俯瞰カメラ2は、被写体120を撮影するカメラであり、撮像映像をカメラ制御装置3へ出力する。俯瞰カメラ2は、撮像エリア110を少なくとも80%以上、好ましくは100%撮像可能な俯瞰位置、例えば撮像エリア110から仰角45°以上、好ましくは仰角80°に取り付けたカメラ若しくはロボットカメラである。尚、俯瞰カメラ2は、ドローンに搭載して空中に配置可能なカメラであってもよい。 The bird's-eye view camera 2 is a camera that captures the subject 120, and outputs the captured image to the camera control device 3. The bird's-eye view camera 2 is a camera or a robot camera attached to the image pickup area 110 at least 80% or more, preferably 100% of the bird's-eye view position, for example, an elevation angle of 45 ° or more, preferably an elevation angle of 80 ° from the image pickup area 110. The bird's-eye view camera 2 may be a camera mounted on a drone and can be placed in the air.

カメラ制御装置3は、俯瞰カメラ2から撮像映像を入力し、撮像映像の画像に基づいて、撮像エリア110内の被写体120の位置を検出し、その位置に応じた姿勢等の制御信号を生成し、制御信号をロボットカメラ4へ送信する。 The camera control device 3 inputs an captured image from the bird's-eye view camera 2, detects the position of the subject 120 in the imaging area 110 based on the image of the captured image, and generates a control signal such as a posture according to the position. , The control signal is transmitted to the robot camera 4.

ロボットカメラ4は、制御信号を受信し、制御信号に基づいて、パン、チルト等の制御を行い、姿勢等を変更する。これにより、ロボットカメラ4は、被写体120を視野内に収めることができる。 The robot camera 4 receives a control signal, controls pan, tilt, and the like based on the control signal, and changes the posture and the like. As a result, the robot camera 4 can keep the subject 120 in the field of view.

ここで、撮像エリア110は、予め設定された規則に従い、複数のエリアに分割される。例えば、図2において、撮像エリア110は、俯瞰カメラ2からステージ115を見た際に、俯瞰カメラ2により撮影されるエリアであり、その形状は円である。撮像エリア110の円の中心を直角に交わって通る十字方向の2つの直線により、撮像エリア110は、右上から時計回りの順にエリア111〜114に4分割されるものとする。つまり、エリア111〜114は、撮像エリア110が円の中心を通る十字方向の2つの直線により区分された領域である。 Here, the imaging area 110 is divided into a plurality of areas according to a preset rule. For example, in FIG. 2, the image pickup area 110 is an area photographed by the bird's-eye view camera 2 when the stage 115 is viewed from the bird's-eye view camera 2, and its shape is a circle. It is assumed that the imaging area 110 is divided into four areas 111 to 114 in the order of clockwise from the upper right by two straight lines in the cross direction passing through the centers of the circles of the imaging area 110 at right angles. That is, the areas 111 to 114 are areas in which the imaging area 110 is divided by two straight lines in the cross direction passing through the center of the circle.

図1を参照して、カメラ制御装置3は、撮像エリア分割部10、被写体位置検出部11、カメラ制御部12及びカメラ通信部13を備えている。カメラ制御部12は、予め設定された制御テーブル20を保持している。 With reference to FIG. 1, the camera control device 3 includes an image pickup area dividing unit 10, a subject position detection unit 11, a camera control unit 12, and a camera communication unit 13. The camera control unit 12 holds a preset control table 20.

撮像エリア分割部10は、俯瞰カメラ2から撮像映像を入力する。そして、撮像エリア分割部10は、予め設定された規則に従い、図2に示したとおり、撮像映像における撮像エリア110の画像を4つのエリア111〜114の画像に分割することで、エリア111〜114の分割画像を抽出する。撮像エリア分割部10は、エリア111〜114の分割画像を被写体位置検出部11に出力する。 The image pickup area dividing unit 10 inputs an image captured image from the bird's-eye view camera 2. Then, the image pickup area dividing unit 10 divides the image of the image pickup area 110 in the image pickup image into the images of the four areas 111 to 114 according to the preset rule, and as shown in FIG. 2, the areas 111 to 114. Extract the divided image of. The imaging area division unit 10 outputs the divided images of the areas 111 to 114 to the subject position detection unit 11.

被写体位置検出部11は、撮像エリア分割部10からエリア111〜114の分割画像を入力し、これらの分割画像から被写体120を検出し、被写体120の位置を示す位置情報を生成する。そして、被写体位置検出部11は、被写体120の位置情報をカメラ制御部12に出力する。 The subject position detection unit 11 inputs divided images of areas 111 to 114 from the imaging area dividing unit 10, detects the subject 120 from these divided images, and generates position information indicating the position of the subject 120. Then, the subject position detection unit 11 outputs the position information of the subject 120 to the camera control unit 12.

具体的には、被写体120が俯瞰カメラ2の視野内(撮像エリア110内)に存在しないときの時刻とT0とし、被写体120が俯瞰カメラ2の視野内に存在する時刻をT1とする。被写体位置検出部11は、時刻T0,T1におけるエリア111〜114の分割画像を用いた背景差分、特定の色を透過させるクロマキー、または特定の輝度を透過させるルミナンスキーの既知の処理により、被写体120の位置を検出する。 Specifically, the time when the subject 120 does not exist in the field of view of the bird's-eye camera 2 (in the image pickup area 110) and T0 are set, and the time when the subject 120 exists in the field of view of the bird's-eye camera 2 is T1. The subject position detection unit 11 uses known processing of background subtraction using divided images of areas 111 to 114 at times T0 and T1, chroma key to transmit a specific color, or Luminance key to transmit a specific brightness to transmit the subject 120. Detects the position of.

カメラ制御部12は、被写体位置検出部11から被写体120の位置情報を入力し、予め設定された制御テーブル20を用いて、位置情報に基づいてロボットカメラ4の姿勢情報を生成する。制御テーブル20には、被写体120の位置情報及び当該位置情報に対応するロボットカメラ4の姿勢を示すパラメータが格納されている。そして、カメラ制御部12は、姿勢情報をカメラ通信部13に出力する。 The camera control unit 12 inputs the position information of the subject 120 from the subject position detection unit 11, and generates the posture information of the robot camera 4 based on the position information by using the preset control table 20. The control table 20 stores the position information of the subject 120 and the parameters indicating the posture of the robot camera 4 corresponding to the position information. Then, the camera control unit 12 outputs the posture information to the camera communication unit 13.

カメラ通信部13は、カメラ制御部12から姿勢情報を入力し、姿勢情報を含む制御信号を生成し、制御信号をロボットカメラ4へ送信する。これにより、ロボットカメラ4は、制御信号に含まれる姿勢情報に従ってその姿勢を変更し、被写体120を視野内に収めることができる。 The camera communication unit 13 inputs attitude information from the camera control unit 12, generates a control signal including the attitude information, and transmits the control signal to the robot camera 4. As a result, the robot camera 4 can change its posture according to the posture information included in the control signal and keep the subject 120 in the field of view.

以下、カメラ制御装置3の処理について、実施例を挙げて具体的に説明する。 Hereinafter, the processing of the camera control device 3 will be specifically described with reference to examples.

〔実施例1〕
まず、実施例1について説明する。実施例1は、被写体120が撮像エリア110内のエリア111〜114のうちのいずれかに収まって存在する場合の例である。
[Example 1]
First, Example 1 will be described. The first embodiment is an example in which the subject 120 is housed in any one of the areas 111 to 114 in the imaging area 110.

図3は、実施例1の処理例を示すフローチャートであり、図1に示したカメラ制御装置3の処理を示している。図4は、実施例1における撮像エリア110内の被写体120の位置の例を説明する図である。 FIG. 3 is a flowchart showing a processing example of the first embodiment, and shows the processing of the camera control device 3 shown in FIG. FIG. 4 is a diagram illustrating an example of the position of the subject 120 in the imaging area 110 in the first embodiment.

図4に示すように、被写体120は、撮像エリア110内のエリア111〜114のうちのエリア111に存在しており、エリア112〜114には存在していないものとする。 As shown in FIG. 4, it is assumed that the subject 120 exists in the area 111 of the areas 111 to 114 in the imaging area 110 and does not exist in the areas 112 to 114.

カメラ制御装置3の撮像エリア分割部10は、俯瞰カメラ2から撮像映像を入力し(ステップS301)、撮像映像の撮像エリア110をエリア111〜114に分割し、分割画像を抽出する(ステップS302)。 The image pickup area division unit 10 of the camera control device 3 inputs the image pickup image from the bird's-eye view camera 2 (step S301), divides the image pickup area 110 of the image pickup image into areas 111 to 114, and extracts the divided image (step S302). ..

被写体位置検出部11は、エリア111〜114の分割画像から、前述の背景差分等の処理により、被写体120の位置を検出する(ステップS303)。本例の場合、被写体位置検出部11は、被写体120がエリア111に存在することを検出する。そして、被写体位置検出部11は、エリアx=111を含む位置情報を生成する(ステップS304)。 The subject position detection unit 11 detects the position of the subject 120 from the divided images of the areas 111 to 114 by the above-mentioned processing such as background subtraction (step S303). In the case of this example, the subject position detection unit 11 detects that the subject 120 exists in the area 111. Then, the subject position detection unit 11 generates position information including the area x = 111 (step S304).

図5は、実施例1における制御テーブル20−1の構成例を示す図である。この制御テーブル20−1は、エリアx、及び当該エリアxに対応する姿勢を示すパラメータ(姿勢パラメータ)であるパン・チルト値LUT(x)から構成される。パン・チルト値LUT(x)は、エリアxにおけるパン値Pan及びチルト値Tiltからなる。 FIG. 5 is a diagram showing a configuration example of the control table 20-1 in the first embodiment. The control table 20-1 is composed of an area x and a pan / tilt value LUT (x) which is a parameter (posture parameter) indicating a posture corresponding to the area x. The pan / tilt value LUT (x) is composed of a pan value Pan and a tilt value Tilt in the area x.

制御テーブル20−1には、エリアx=111に対応してパン・チルト値LUT(111)=(φ111,θ111)が格納されている。また、エリアx=112に対応してパン・チルト値LUT(112)=(φ112,θ112)、エリアx=113に対応してパン・チルト値LUT(113)=(φ113,θ113)が格納されている。また、エリアx=114に対応してパン・チルト値LUT(114)=(φ114,θ114)が格納されている。 The control table 20-1, the area x = pan-tilt value LUT (111) in response to 111 = (φ 111, θ 111 ) is stored. Further, the pan / tilt value LUT (112) = (φ 112 , θ 112 ) corresponding to the area x = 112, and the pan / tilt value LUT (113) = (φ 113 , θ 113) corresponding to the area x = 113. ) Is stored. Also, the area x = pan-tilt value LUT (114) in response to 114 = (φ 114, θ 114 ) is stored.

図3に戻って、カメラ制御部12は、制御テーブル20−1から、位置情報に含まれるエリアx=111に対応するパン・チルト値LUT(111)=(φ111,θ111)を読み出す(ステップS305)。そして、カメラ制御部12は、パン値φ111及びチルト値θ111を含む姿勢情報を生成する(ステップS306)。 Returning to FIG. 3, the camera control unit 12, the control table 20-1, the position pan-tilt value LUT (111) corresponding to the area x = 111 included in the information = (φ 111, θ 111) reads the ( Step S305). Then, the camera control unit 12 generates posture information including the pan value φ 111 and the tilt value θ 111 (step S306).

カメラ通信部13は、姿勢情報のパン値φ111及びチルト値θ111を含む制御信号を生成し、制御信号をロボットカメラ4へ送信する(ステップS307)。 The camera communication unit 13 generates a control signal including the pan value φ 111 and the tilt value θ 111 of the attitude information, and transmits the control signal to the robot camera 4 (step S307).

これにより、ロボットカメラ4は、制御信号に含まれるパン値φ111及びチルト値θ111に従って姿勢を変更することで、被写体120をその視野内に収めることができる。実施例1のカメラ制御装置3により、ロボットカメラ4の姿勢を制御することができる。 As a result, the robot camera 4 can fit the subject 120 within the field of view by changing the posture according to the pan value φ 111 and the tilt value θ 111 included in the control signal. The posture of the robot camera 4 can be controlled by the camera control device 3 of the first embodiment.

〔実施例1の変形例〕
次に、実施例1の変形例について説明する。実施例1の変形例は、実施例1におけるロボットカメラ4の姿勢に加え、ロボットカメラ4のレンズパラメータであるズーム回転量及びフォーカス回転量も制御する例である。これは、後述する実施例2、実施例2の変形例、実施例3、実施例4及び実施例5にも適用される。
[Modification of Example 1]
Next, a modified example of the first embodiment will be described. The modification of the first embodiment is an example in which, in addition to the posture of the robot camera 4 in the first embodiment, the zoom rotation amount and the focus rotation amount, which are the lens parameters of the robot camera 4, are also controlled. This also applies to Examples 2, Modifications of Example 2, Examples 3, Example 4, and Example 5 described later.

図6は、実施例1の変形例における制御テーブル20−1’の構成例を示す図である。この制御テーブル20−1’は、エリアx、及び当該エリアxに対応する姿勢パラメータ及びレンズパラメータであるパン・チルト値及びズーム・フォーカス回転量LUT(x)から構成される。レンズパラメータは、ロボットカメラ4に備えたレンズのズーム回転量及びフォーカス回転量である。パン・チルト値及びズーム・フォーカス回転量LUT(x)は、エリアxにおけるパン値Pan、チルト値Tilt、ズーム回転量Zoom及びフォーカス回転量Focusからなる。 FIG. 6 is a diagram showing a configuration example of the control table 20-1'in the modified example of the first embodiment. The control table 20-1'consists of an area x, a pan / tilt value and a zoom / focus rotation amount LUT (x) which are attitude parameters and lens parameters corresponding to the area x. The lens parameters are the zoom rotation amount and the focus rotation amount of the lens provided in the robot camera 4. The pan / tilt value and the zoom / focus rotation amount LUT (x) are composed of the pan value Pan, the tilt value Tilt, the zoom rotation amount Zoom, and the focus rotation amount Focus in the area x.

制御テーブル20−1’には、エリアx=111に対応してパン・チルト値及びズーム・フォーカス回転量LUT(111)=(φ111,θ111,Z111,F111)が格納されている。また、エリアx=112に対応してパン・チルト値及びズーム・フォーカス回転量LUT(112)=(φ112,θ112,Z112,F112)が格納されている。また、エリアx=113に対応してパン・チルト値及びズーム・フォーカス回転量LUT(113)=(φ113,θ113,Z113,F113)が格納されている。また、エリアx=114に対応してパン・チルト値及びズーム・フォーカス回転量LUT(114)=(φ114,θ114,Z114,F114)が格納されている。 The control table 20-1 ', pan-tilt value and zoom focus rotation amount LUT (111) = (φ 111 , θ 111, Z 111, F 111) are stored in correspondence with the area x = 111 .. Further, the pan / tilt value and the zoom / focus rotation amount LUT (112) = (φ 112 , θ 112 , Z 112 , F 112 ) are stored corresponding to the area x = 112. Further, the pan / tilt value and the zoom / focus rotation amount LUT (113) = (φ 113 , θ 113 , Z 113 , F 113 ) are stored corresponding to the area x = 113. Also, the pan-tilt values and the zoom and focus rotation amount LUT (114) = (φ 114 , θ 114, Z 114, F 114) are stored in correspondence with the area x = 114.

カメラ制御部12は、制御テーブル20−1’から、位置情報に含まれるエリアx=111に対応するパン・チルト値及びズーム・フォーカス回転量LUT(111)=(φ111,θ111,Z111,F111)を読み出す。そして、カメラ制御部12は、パン値φ111、チルト値θ111、ズーム回転量Z111及びフォーカス回転量F111を含む姿勢レンズ情報を生成する。 The camera control unit 12, the control table 20-1 from 'pan-tilt values corresponding to the area x = 111 included in the position information and the zoom and focus rotation amount LUT (111) = (φ 111 , θ 111, Z 111 , F 111 ) is read. Then, the camera control unit 12 generates posture lens information including a pan value φ 111 , a tilt value θ 111 , a zoom rotation amount Z 111, and a focus rotation amount F 111.

カメラ通信部13は、姿勢情報のパン値φ111及びチルト値θ111、並びにレンズ情報のズーム回転量Z111及びフォーカス回転量F111を含む制御信号を生成し、制御信号をロボットカメラ4へ送信する。 The camera communication unit 13 generates a control signal including the pan value φ 111 and the tilt value θ 111 of the attitude information, and the zoom rotation amount Z 111 and the focus rotation amount F 111 of the lens information, and transmits the control signal to the robot camera 4. do.

これにより、ロボットカメラ4は、制御信号に含まれるパン値φ111及びチルト値θ111に従って姿勢を変更することで、被写体120をその視野内に収めることができる。また、制御信号に含まれるズーム回転量Z111及びフォーカス回転量F111に従って画像の拡大の程度及び焦点距離を変更することで、被写体120を所望の大きさ及びピントの合った状態で撮影することができる。つまり、実施例1の変形例のカメラ制御装置3により、ロボットカメラ4の姿勢及びレンズを制御することができる。 As a result, the robot camera 4 can fit the subject 120 within the field of view by changing the posture according to the pan value φ 111 and the tilt value θ 111 included in the control signal. Further, by changing the degree of enlargement and the focal length of the image according to the zoom rotation amount Z 111 and the focus rotation amount F 111 included in the control signal, the subject 120 is photographed in a desired size and in focus. Can be done. That is, the posture and lens of the robot camera 4 can be controlled by the camera control device 3 of the modified example of the first embodiment.

〔実施例2〕
次に、実施例2について説明する。前述の実施例1は、被写体120がエリア111内に収まっている場合の例であるが、実施例2は、被写体120が撮像エリア110内の全てのエリア111〜114に跨って存在する場合の例である。
[Example 2]
Next, Example 2 will be described. The above-mentioned Example 1 is an example in which the subject 120 is contained in the area 111, while the second embodiment is a case in which the subject 120 is present over all the areas 111 to 114 in the imaging area 110. This is an example.

実施例2は、被写体120がエリア111だけでなくエリア112〜114にも跨って存在する場合において、シルエット面積制御を行う例である。シルエット面積制御は、被写体120のシルエット面積が最大となる1つのエリアを特定し、特定した1つのエリアに対応する姿勢情報を用いた制御である。 The second embodiment is an example in which the silhouette area is controlled when the subject 120 exists not only in the area 111 but also in the areas 112 to 114. The silhouette area control is a control that specifies one area where the silhouette area of the subject 120 is maximum and uses the posture information corresponding to the specified one area.

図7は、実施例2の処理例を示すフローチャートであり、図1に示したカメラ制御装置3によるシルエット面積制御を示している。図8は、実施例2における撮像エリア110内の被写体120の位置の例を説明する図である。 FIG. 7 is a flowchart showing a processing example of the second embodiment, and shows silhouette area control by the camera control device 3 shown in FIG. FIG. 8 is a diagram illustrating an example of the position of the subject 120 in the imaging area 110 in the second embodiment.

図8に示すように、被写体120は、撮像エリア110内のエリア111〜114の全てに跨って存在している。エリア111〜114における被写体120のシルエット面積を、それぞれSsubject(111),Ssubject(112),Ssubject(113),Ssubject(114)とする。ここでは、Ssubject(111)>Ssubject(114)>Ssubject(112)=Ssubject(113)とする。 As shown in FIG. 8, the subject 120 exists over all of the areas 111 to 114 in the imaging area 110. The silhouette areas of the subject 120 in the areas 111 to 114 are S subject (111), S subject (112), S subject (113), and S subject (114), respectively. Here, S subject (111)> S subject (114)> S subject (112) = S subject (113).

カメラ制御装置3の撮像エリア分割部10は、俯瞰カメラ2から撮像映像を入力し(ステップS701)、撮像映像の撮像エリア110をエリア111〜114に分割し、分割画像を抽出する(ステップS702)。 The image pickup area division unit 10 of the camera control device 3 inputs the image pickup image from the bird's-eye view camera 2 (step S701), divides the image pickup area 110 of the image pickup image into areas 111 to 114, and extracts the divided image (step S702). ..

被写体位置検出部11は、エリア毎に(エリア111〜114のそれぞれについて)、前述の背景差分等の処理により、分割画像から被写体120のシルエット面積Ssubject(x)を求める(ステップS703)。x=111〜114である。 The subject position detection unit 11 obtains the silhouette area S subject (x) of the subject 120 from the divided image by the above-mentioned processing such as background subtraction for each area (for each of the areas 111 to 114) (step S703). x = 111-114.

被写体位置検出部11は、エリア111〜114間でシルエット面積Ssubject(x)を比較する。そして、被写体位置検出部11は、シルエット面積Ssubject(x)の最大のエリアx=111を特定し、エリアx=111を含む位置情報を生成する(ステップS704)。 The subject position detection unit 11 compares the silhouette area S subject (x) between the areas 111 to 114. Then, the subject position detection unit 11 identifies the maximum area x = 111 of the silhouette area S subject (x) and generates position information including the area x = 111 (step S704).

カメラ制御部12は、図5に示した制御テーブル20−1から、位置情報に含まれるエリアx=111に対応するパン・チルト値LUT(111)=(φ111,θ111)を読み出す(ステップS705)。そして、カメラ制御部12は、パン値φ111及びチルト値θ111を含む姿勢情報を生成する(ステップS706)。 The camera control unit 12, the control table 20-1 shown in FIG. 5, the pan-tilt value LUT (111) = (φ 111 , θ 111) corresponding to the area x = 111 included in the position information read out (step S705). Then, the camera control unit 12 generates posture information including the pan value φ 111 and the tilt value θ 111 (step S706).

カメラ通信部13は、姿勢情報のパン値φ111及びチルト値θ111を含む制御信号を生成し、制御信号をロボットカメラ4へ送信する(ステップS707)。 The camera communication unit 13 generates a control signal including the pan value φ 111 and the tilt value θ 111 of the attitude information, and transmits the control signal to the robot camera 4 (step S707).

これにより、ロボットカメラ4は、制御信号に含まれるパン値φ111及びチルト値θ111に従って姿勢を変更することで、被写体120をその視野内に収めることができる。 As a result, the robot camera 4 can fit the subject 120 within the field of view by changing the posture according to the pan value φ 111 and the tilt value θ 111 included in the control signal.

〔実施例2の変形例〕
次に、実施例2の変形例について説明する。実施例2の変形例は、被写体120がエリア111だけでなくエリア112〜114にも跨って存在する場合において、リスト制御を行う例である。リスト制御は、被写体120のシルエットが存在する1または複数のエリアを特定し、特定した1または複数のエリアに対応する姿勢情報を用いた制御である。
[Modification of Example 2]
Next, a modified example of the second embodiment will be described. The modification of the second embodiment is an example in which the list control is performed when the subject 120 exists not only in the area 111 but also in the areas 112 to 114. The list control is a control in which one or a plurality of areas where the silhouette of the subject 120 exists is specified, and the posture information corresponding to the specified one or a plurality of areas is used.

図9は、実施例2の変形例の処理例を示すフローチャートであり、図1に示したカメラ制御装置3によるリスト制御を示している。 FIG. 9 is a flowchart showing a processing example of the modified example of the second embodiment, and shows the list control by the camera control device 3 shown in FIG.

カメラ制御装置3の撮像エリア分割部10は、俯瞰カメラ2から撮像映像を入力し(ステップS901)、撮像映像の撮像エリア110をエリア111〜114に分割し、分割画像を抽出する(ステップS902)。 The image pickup area division unit 10 of the camera control device 3 inputs the image pickup image from the bird's-eye view camera 2 (step S901), divides the image pickup area 110 of the image pickup image into areas 111 to 114, and extracts the divided image (step S902). ..

被写体位置検出部11は、エリア111〜114の分割映像から、前述の背景差分等の処理により、図8に示した例のとおり被写体120が存在するエリアx=111,112,113,114を検出する(ステップS903)。そして、被写体位置検出部11は、エリアパターンx’=111,112,113,114を含む位置情報を生成する(ステップS904)。 The subject position detection unit 11 detects the areas x = 111, 112, 113, 114 in which the subject 120 exists as shown in the example shown in FIG. 8 by processing the background subtraction and the like described above from the divided images of the areas 111 to 114. (Step S903). Then, the subject position detection unit 11 generates position information including the area pattern x'= 111, 112, 113, 114 (step S904).

図10は、実施例2の変形例における制御テーブル20−2の構成例を示す図である。この制御テーブル20−2は、エリアパターンx’、及び当該エリアパターンx’に対応する姿勢パラメータであるパン・チルト値LUT(x’)から構成される。制御テーブル20−2のエリアパターンx’は、被写体120がエリア111,112,113,114のうちの1以上のエリアに存在し得る全てのパターンである。 FIG. 10 is a diagram showing a configuration example of the control table 20-2 in the modified example of the second embodiment. The control table 20-2 is composed of an area pattern x'and a pan / tilt value LUT (x') which is a posture parameter corresponding to the area pattern x'. The area pattern x'of the control table 20-2 is all patterns in which the subject 120 can exist in one or more of the areas 111, 112, 113, 114.

制御テーブル20−2には、エリアパターンx’=111に対応してパン・チルト値LUT(111)=(φ111,θ111)が格納されている。また、エリアパターンx’=112に対応してパン・チルト値LUT(112)=(φ112,θ112)が格納されている。同様に、エリアパターンx’=111,112,113,114に対応してパン・チルト値LUT(141)=(φ141,θ141)が格納されている。 The control table 20-2, the area pattern x '= pan-tilt value LUT (111) in response to 111 = (φ 111, θ 111 ) is stored. Further, the pan / tilt value LUT (112) = (φ 112 , θ 112 ) is stored corresponding to the area pattern x'= 112. Similarly, the pan / tilt value LUT (141) = (φ 141 , θ 141 ) is stored corresponding to the area pattern x'= 111, 112, 113, 114.

図9に戻って、カメラ制御部12は、制御テーブル20−2から、位置情報に含まれるエリアパターンx’=111,112,113,114に対応するパン・チルト値LUT(111,112,113,114)=(φ141,θ141)を読み出す(ステップS905)。そして、カメラ制御部12は、パン値φ141及びチルト値θ141を含む姿勢情報を生成する(ステップS906)。 Returning to FIG. 9, the camera control unit 12 has a pan / tilt value LUT (111, 112, 113) corresponding to the area pattern x'= 111, 112, 113, 114 included in the position information from the control table 20-2. , 114) = (φ 141 , θ 141 ) is read out (step S905). Then, the camera control unit 12 generates posture information including the pan value φ 141 and the tilt value θ 141 (step S906).

カメラ通信部13は、姿勢情報のパン値φ141及びチルト値θ141を含む制御信号を生成し、制御信号をロボットカメラ4へ送信する(ステップS907)。 The camera communication unit 13 generates a control signal including the pan value φ 141 and the tilt value θ 141 of the attitude information, and transmits the control signal to the robot camera 4 (step S907).

これにより、ロボットカメラ4は、制御信号に含まれるパン値φ141及びチルト値θ141に従って姿勢を変更することで、被写体120をその視野内に収めることができる。 As a result, the robot camera 4 can fit the subject 120 within the field of view by changing the posture according to the pan value φ 141 and the tilt value θ 141 included in the control signal.

〔実施例3〕
次に、実施例3について説明する。実施例3は、被写体120が撮像エリア110内の複数のエリア111〜114に跨って存在する場合において、重み平均制御を行う例である。重み平均制御は、被写体120のシルエットが存在する1または複数のエリアを特定し、特定した1または複数のエリアについて被写体120のシルエットの面積から得られる重み付き平均の姿勢情報を用いた制御である。
[Example 3]
Next, Example 3 will be described. The third embodiment is an example in which the weight averaging control is performed when the subject 120 is present over a plurality of areas 111 to 114 in the imaging area 110. The weighted average control is a control that specifies one or a plurality of areas in which the silhouette of the subject 120 exists, and uses weighted average posture information obtained from the area of the silhouette of the subject 120 for the specified one or a plurality of areas. ..

実施例1,2では、撮像エリア110を4つのエリア111〜114に分割した例を説明した。ここで、撮像エリア110をn個(nは2以上の整数)のエリアに分割した場合には、制御テーブル20に予め格納されるパン・チルト値LUT(x)の数は、n1n2・・・nn-1nnとなる。分割数が多くなると、制御テーブル20に格納されるパン・チルト値LUT(x)の数も多くなり煩雑になる。 In Examples 1 and 2, an example in which the imaging area 110 is divided into four areas 111 to 114 has been described. Here, when the imaging area 110 is divided into n areas (n is an integer of 2 or more), the number of pan / tilt value LUTs (x) stored in advance in the control table 20 is n C 1 +. n C 2 ... n C n-1 + n C n . As the number of divisions increases, the number of pan / tilt value LUTs (x) stored in the control table 20 also increases, which becomes complicated.

そこで、実施例3の重み平均制御を行うことにより、制御テーブル20に予め格納されるパン・チルト値LUT(x)の数を少なくし、高精度に、被写体120をロボットカメラ4の視野内に収めるようにした。 Therefore, by performing the weight averaging control of the third embodiment, the number of pan / tilt value LUTs (x) stored in advance in the control table 20 is reduced, and the subject 120 is placed in the field of view of the robot camera 4 with high accuracy. I tried to fit it.

図11は、実施例3の処理例を示すフローチャートであり、図1に示したカメラ制御装置3による重み平均制御を示している。 FIG. 11 is a flowchart showing a processing example of the third embodiment, and shows weight averaging control by the camera control device 3 shown in FIG.

カメラ制御装置3の撮像エリア分割部10は、俯瞰カメラ2から撮像映像を入力し(ステップS1101)、撮像映像の撮像エリア110をエリア111〜114に分割し、分割画像を抽出する(ステップS1102)。 The image pickup area division unit 10 of the camera control device 3 inputs the image pickup image from the bird's-eye view camera 2 (step S1101), divides the image pickup area 110 of the image pickup image into areas 111 to 114, and extracts the divided image (step S1102). ..

被写体位置検出部11は、エリア毎に(エリア111〜114のそれぞれについて)、前述の背景差分等の処理により、分割画像から被写体120のシルエット面積Ssubject(x)を求める(ステップS1103)。x=111〜114である。 The subject position detection unit 11 obtains the silhouette area S subject (x) of the subject 120 from the divided image by the above-mentioned processing such as background subtraction for each area (for each of the areas 111 to 114) (step S1103). x = 111-114.

被写体位置検出部11は、エリアx及びシルエット面積Ssubject(x)を含む位置情報を生成する(ステップS1104)。 The subject position detection unit 11 generates position information including the area x and the silhouette area S subject (x) (step S1104).

ここで、被写体位置検出部11により求めたエリア111〜114における被写体120のシルエット面積は、それぞれSsubject(111),Ssubject(112),Ssubject(113),Ssubject(114)である。 Here, the silhouette areas of the subject 120 in the areas 111 to 114 obtained by the subject position detection unit 11 are S subject (111), S subject (112), S subject (113), and S subject (114), respectively.

カメラ制御部12は、図5に示した制御テーブル20−1から、位置情報に含まれるエリアxのパン・チルト値LUT(x)を読み出す(ステップS1105)。そして、カメラ制御部12は、パン・チルト値LUT(x)について、位置情報に含まれるエリア毎のシルエット面積Ssubject(x)による重み付き平均を算出し、パン値φ及びチルト値θを求める(ステップS1106)。シルエット面積Ssubject(x)による重み付き平均とは、被写体120の全体のシルエット面積に対するエリアxのシルエット面積Ssubject(x)の比率を重みとして、パン・チルト値LUT(x)の重み付き平均を求める処理である。 The camera control unit 12 reads out the pan / tilt value LUT (x) of the area x included in the position information from the control table 20-1 shown in FIG. 5 (step S1105). Then, the camera control unit 12 calculates the weighted average of the pan / tilt value LUT (x) by the silhouette area S subject (x) for each area included in the position information, and obtains the pan value φ and the tilt value θ. (Step S1106). The weighted average by the silhouette area S subject (x) is the weighted average of the pan / tilt value LUT (x) with the ratio of the silhouette area S subject (x) of the area x to the total silhouette area of the subject 120 as a weight. Is the process of finding.

カメラ制御部12は、パン値φ及びチルト値θを含む姿勢情報を生成する(ステップS1107)。 The camera control unit 12 generates posture information including the pan value φ and the tilt value θ (step S1107).

具体的には、カメラ制御部12は、位置情報に含まれるエリアx=111等に対応するパン・チルト値LUT(111)=(φ111,θ111)等を読み出す。同様に、カメラ制御部12は、パン・チルト値LUT(112)=(φ112,θ112),LUT(113)=(φ113,θ113),LUT(114)=(φ114,θ114)を読み出す。 Specifically, the camera control unit 12, positions the pan-tilt value LUT (111) corresponding to the area x = 111 or the like included in the information = (φ 111, θ 111) reads the like. Similarly, the camera control unit 12 has a pan / tilt value LUT (112) = (φ 112 , θ 112 ), LUT (113) = (φ 113 , θ 113 ), LUT (114) = (φ 114 , θ 114). ) Is read.

カメラ制御部12は、以下の式(1)に基づいて、位置情報に含まれるシルエット面積Ssubject(x)によるパン・チルト値LUT(x)の重み付き平均を算出し、パン値φ及びチルト値θを求める。尚、カメラ制御部12は、以下の式(2)を用いて、パン値φ及びチルト値θを求めるようにしてもよい。

Figure 2021197572
Figure 2021197572
fは、例えば増加関数である。 The camera control unit 12 calculates a weighted average of the pan / tilt value LUT (x) based on the silhouette area S subject (x) included in the position information based on the following equation (1), and the pan value φ and the tilt. Find the value θ. The camera control unit 12 may obtain the pan value φ and the tilt value θ by using the following equation (2).
Figure 2021197572
Figure 2021197572
f is, for example, an increasing function.

カメラ通信部13は、姿勢情報のパン値φ及びチルト値θを含む制御信号を生成し、制御信号をロボットカメラ4へ送信する(ステップS1108)。 The camera communication unit 13 generates a control signal including the pan value φ and the tilt value θ of the attitude information, and transmits the control signal to the robot camera 4 (step S1108).

これにより、ロボットカメラ4は、制御信号に含まれるパン値φ及びチルト値θに従って姿勢を変更することで、被写体120をその視野内に収めることができる。この場合、カメラ制御部12は、シルエット面積Ssubject(x)による重み付き平均を算出し、パン値φ及びチルト値θを求めるようにしたから、制御テーブル20−1のパン・チルト値LUT(x)の数を多くする必要がない。つまり、少ない数のパン・チルト値LUT(x)を用いて、精度の高い姿勢制御を実現することができる。 As a result, the robot camera 4 can fit the subject 120 within the field of view by changing the posture according to the pan value φ and the tilt value θ included in the control signal. In this case, since the camera control unit 12 calculates the weighted average by the silhouette area S subject (x) and obtains the pan value φ and the tilt value θ, the pan / tilt value LUT of the control table 20-1 ( It is not necessary to increase the number of x). That is, it is possible to realize highly accurate attitude control by using a small number of pan / tilt values LUT (x).

尚、カメラ制御部12は、シルエット面積Ssubject(x)による重み付き平均を算出するようにしたが、エリア内の被写体120を除いた面積Sarea(x)による重み付き平均を算出するようにしてもよい。 The camera control unit 12 calculates the weighted average based on the silhouette area S subject (x), but calculates the weighted average based on the area S area (x) excluding the subject 120 in the area. You may.

具体的には、カメラ制御部12は、エリアxの面積から、位置情報に含まれるエリアxのシルエット面積Ssubject(x)を減算し、エリアx内の被写体120以外の面積Sarea(x)を求める。そして、カメラ制御部12は、制御テーブル20−1から、位置情報に含まれるエリアxのパン・チルト値LUT(x)を読み出す。 Specifically, the camera control unit 12 subtracts the silhouette area S subject (x) of the area x included in the position information from the area of the area x, and the area S area (x) other than the subject 120 in the area x. Ask for. Then, the camera control unit 12 reads out the pan / tilt value LUT (x) of the area x included in the position information from the control table 20-1.

カメラ制御部12は、以下の式(3)に基づいて、エリアx内の被写体120以外の面積Sarea(x)によるパン・チルト値LUT(x)の重み付き平均を算出し、パン値φ及びチルト値θを求める。尚、カメラ制御部12は、以下の式(4)を用いて、パン値φ及びチルト値θを求めるようにしてもよい。

Figure 2021197572
Figure 2021197572
gは、例えば減少関数である。 The camera control unit 12 calculates a weighted average of the pan / tilt value LUT (x) by the area S area (x) other than the subject 120 in the area x based on the following equation (3), and the pan value φ. And the tilt value θ. The camera control unit 12 may obtain the pan value φ and the tilt value θ by using the following equation (4).
Figure 2021197572
Figure 2021197572
g is, for example, a decreasing function.

〔実施例4〕
次に、実施例4について説明する。ロボットカメラ4の制御を高精度に行うためには、撮像エリア110をより細かく区分し、それぞれのエリアに対応するパン・チルト値LUT(x)が格納された制御テーブル20を用いればよい。
[Example 4]
Next, Example 4 will be described. In order to control the robot camera 4 with high accuracy, the imaging area 110 may be divided into smaller parts, and a control table 20 in which the pan / tilt value LUT (x) corresponding to each area may be stored may be used.

実施例4は、実施例1、実施例1の変形例、実施例2、実施例2の変形例及び実施例3において、撮像エリア110内を一層細かく区切った複数のエリアを用いることにより、ロボットカメラ4の制御を高精度に行う例である。 In the fourth embodiment, the robot is used by using a plurality of areas in the imaging area 110 in the first embodiment, the modified example of the first embodiment, the second modified example, the modified example of the second embodiment, and the third embodiment. This is an example of controlling the camera 4 with high accuracy.

前述したとおり、カメラ制御装置3の撮像エリア分割部10は、予め設定された規則に従い、図2に示したとおり、撮像エリア110の画像を4つのエリア111〜114の画像に分割する。実施例4では、撮像エリア分割部10は、予め設定された規則に従い、撮像エリア110の画像をさらに細かく分割する。 As described above, the image pickup area dividing unit 10 of the camera control device 3 divides the image of the image pickup area 110 into the images of the four areas 111 to 114 as shown in FIG. 2 according to the preset rules. In the fourth embodiment, the image pickup area dividing unit 10 further divides the image of the image pickup area 110 according to a preset rule.

図12は、実施例4において、ロボットカメラの位置及びエリア区分の例を説明する図である。(1)〜(3)において、撮像エリア110の中心を原点とし、原点からロボットカメラ4の設置位置を通る線を始線として、撮像エリア110の平面上の点は、原点からの距離r及び始線からの偏角δの極座標(r,δ)で表される。 FIG. 12 is a diagram illustrating an example of the position and area division of the robot camera in the fourth embodiment. In (1) to (3), the center of the imaging area 110 is the origin, the line passing from the origin to the installation position of the robot camera 4 is the starting line, and the points on the plane of the imaging area 110 are the distance r from the origin and It is represented by the polar coordinates (r, δ) of the deviation angle δ from the origin line.

この極座標(r,δ)のパラメータである距離r及び偏角δに応じて、撮像エリア110が画像を(1)〜(3)のそれぞれに示すエリアに分割するための規則が定義される。撮像エリア分割部10は、予め設定された規則に従い、(1)〜(3)のとおり、撮像エリア110の画像を、極座標にて区分された複数のエリアに分割する。撮像エリア分割部10により分割される複数のエリアは、撮像エリア110が極座標により区分された領域である。 A rule is defined for the imaging area 110 to divide the image into the areas shown in (1) to (3) according to the distance r and the declination δ, which are the parameters of the polar coordinates (r, δ). The image pickup area dividing unit 10 divides the image of the image pickup area 110 into a plurality of areas divided by polar coordinates as described in (1) to (3) according to a preset rule. The plurality of areas divided by the image pickup area dividing unit 10 are areas in which the image pickup area 110 is divided by polar coordinates.

(1)の規則は、撮像エリア110において、極座標(r,δ)のパラメータである距離r及び偏角δを一定間隔として、エリアが距離r及び偏角δに応じた疎密となるように区分するものである。(1)の規則では、細かいエリアの区分が可能であり、制御テーブル20に格納されるパン・チルト値LUT(x)の個数は増えるが、高精度にロボットカメラ4を制御することができる。 The rule (1) is that in the imaging area 110, the distance r and the declination δ, which are the parameters of the polar coordinates (r, δ), are set at regular intervals so that the area becomes sparse and dense according to the distance r and the declination δ. It is something to do. According to the rule (1), it is possible to divide a fine area, and the number of pan / tilt value LUTs (x) stored in the control table 20 increases, but the robot camera 4 can be controlled with high accuracy.

(2)の規則は、撮像エリア110の中央付近が疎のエリアとなり、中央付近以外の領域が密のエリアとなるように区分するものである。(2)の規則では、被写体120よりも高い俯瞰位置に設置されたロボットカメラ4を用いる場合に好適である。ロボットカメラ4により高い位置で被写体120が俯瞰されるため、中央付近のエリアではパン値及びチルト値の変化が少なくなり、当該エリアを疎にすることができる。 The rule (2) divides the imaging area 110 so that the vicinity of the center is a sparse area and the area other than the center is a dense area. According to the rule (2), it is suitable to use the robot camera 4 installed at a bird's-eye view position higher than the subject 120. Since the subject 120 is overlooked at a high position by the robot camera 4, changes in the pan value and the tilt value are small in the area near the center, and the area can be sparse.

(3)の規則は、撮像エリア110において、ロボットカメラ4に近い領域が疎のエリアとなり、ロボットカメラ4から遠い領域が密のエリアとなるように区分するものであり、ロボットカメラ4の手前及び奥で異なる区分とすることができる。被写体120のサイズを手前及び奥で同程度にする場合を想定すると、手前は広い画角となるため、エリア数が少なくて済み、奥は狭い画角となるため、エリア数は多くしてその面積を狭くする必要がある。つまり、ロボットカメラ4の手前では、エリア数を少なくした姿勢制御が行われ、奥では、エリア数を多くした精度の高い姿勢制御が行われ、結果として、ロボットカメラ4の制御を、手前及び奥の領域に応じて好適に実現することができる。 The rule (3) divides the imaging area 110 so that the area close to the robot camera 4 is a sparse area and the area far from the robot camera 4 is a dense area. It can be divided into different categories at the back. Assuming that the size of the subject 120 is the same in the front and the back, the front is a wide angle of view, so the number of areas is small, and the back is a narrow angle of view, so the number of areas is large. It is necessary to reduce the area. That is, in front of the robot camera 4, attitude control with a small number of areas is performed, and in the back, highly accurate attitude control with a large number of areas is performed. As a result, control of the robot camera 4 is performed in the front and back. It can be preferably realized according to the region of.

図13は、実施例4における撮像環境、ロボットカメラの位置及びエリア区分の例を説明する図であり、図12に示したエリア区分とは異なる例を示している。ロボットカメラ4は、被写体120よりも高い俯瞰位置に設置されている。 FIG. 13 is a diagram illustrating an example of the imaging environment, the position of the robot camera, and the area division in the fourth embodiment, and shows an example different from the area division shown in FIG. The robot camera 4 is installed at a bird's-eye view position higher than the subject 120.

この規則は、図13の右側に示すように、撮像エリア110において、エリアがロボットカメラ4の光軸と垂直となるように区分するものである。撮像エリア分割部10は、予め設定された規則に従い、撮像エリア110の画像を、ロボットカメラ4の光軸に対して垂直方向に分割する。 As shown on the right side of FIG. 13, this rule divides the imaging area 110 so that the area is perpendicular to the optical axis of the robot camera 4. The image pickup area dividing unit 10 divides the image of the image pickup area 110 in the direction perpendicular to the optical axis of the robot camera 4 according to a preset rule.

この規則では、ロボットカメラ4が高い位置から被写体120を俯瞰するため、チルト方向の動作が重要になる。そこで、エリアがロボットカメラ4の光軸と垂直となるように区分されることで、チルト方向の動作を精度高く実現することができる。 In this rule, since the robot camera 4 looks down on the subject 120 from a high position, the operation in the tilt direction is important. Therefore, by dividing the area so as to be perpendicular to the optical axis of the robot camera 4, it is possible to realize the operation in the tilt direction with high accuracy.

尚、ロボットカメラ4が被写体120と同じ高さに設置されている場合には、規則としては、撮像エリア110において、エリアがロボットカメラ4の光軸と平行となるように区分するものが望ましい。この場合、撮像エリア分割部10は、予め設定された規則に従い、撮像エリア110の画像を、ロボットカメラ4の光軸に対して水平方向に分割する。 When the robot camera 4 is installed at the same height as the subject 120, it is desirable that the image pickup area 110 is divided so that the area is parallel to the optical axis of the robot camera 4. In this case, the image pickup area dividing unit 10 divides the image of the image pickup area 110 in the horizontal direction with respect to the optical axis of the robot camera 4 according to a preset rule.

例えば被写体120が人の場合、上下方向の動きは、ジャンプ、屈伸等に限定されるが、左右方向の動きは、ステージ115上の端から端までとなる。上下方向の動きは、ロボットカメラ4の画角を広くすることで対応できるが、左右方向の動きも、画角を広くすることで対応する場合、被写体120が小さくなってしまう。 For example, when the subject 120 is a person, the vertical movement is limited to jumping, bending and stretching, etc., but the horizontal movement is from one end to the other on the stage 115. The movement in the vertical direction can be dealt with by widening the angle of view of the robot camera 4, but the movement in the left-right direction can also be dealt with by widening the angle of view, and the subject 120 becomes smaller.

このため、この規則では、ロボットカメラ4は、パン方向の動作が重要となる。そこで、エリアがロボットカメラ4の光軸と平行となるように区分されることで、パン方向の動作を精度高く実現することができる。 Therefore, in this rule, it is important for the robot camera 4 to move in the pan direction. Therefore, by dividing the area so as to be parallel to the optical axis of the robot camera 4, it is possible to realize the operation in the pan direction with high accuracy.

また、撮像エリア110が横に長い形状の場合も同様に、規則としては、撮像エリア110において、エリアがロボットカメラ4の光軸と平行となるように区分するものが望ましい。 Similarly, when the imaging area 110 has a horizontally long shape, it is desirable that the imaging area 110 is divided so that the area is parallel to the optical axis of the robot camera 4.

〔実施例5〕
次に、実施例5について説明する。実施例5は、実施例1、実施例1の変形例、実施例2、実施例2の変形例、実施例3及び実施例4において、複数のロボットカメラ4を用いた場合の例である。
[Example 5]
Next, Example 5 will be described. Example 5 is an example in which a plurality of robot cameras 4 are used in Example 1, a modified example of the first embodiment, a modified example of the second embodiment, a modified example of the second embodiment, and the third and fourth embodiments.

(分割時の規則)
被写体120を取り囲むように複数のロボットカメラ4が空間上に設置されている場合には、複数のロボットカメラ4のそれぞれに対応して、予め設定された規則に従い、撮像エリア110が所定数及び所定形状のエリアに区分される。尚、複数のロボットカメラ4に共通して、撮像エリア110が同じ数及び同じ形状の共通のエリアに区分されるようにしてもよい。
(Rules for division)
When a plurality of robot cameras 4 are installed in the space so as to surround the subject 120, a predetermined number and a predetermined number of image pickup areas 110 are provided according to preset rules corresponding to each of the plurality of robot cameras 4. It is divided into areas of shape. It should be noted that, in common with the plurality of robot cameras 4, the imaging areas 110 may be divided into common areas having the same number and shape.

具体的には、カメラ制御装置3の撮像エリア分割部10は、複数のロボットカメラ4のそれぞれに対応して、予め設定された規則に従い、撮像映像における撮像エリア110の画像を分割する。これにより、複数のロボットカメラ4のそれぞれに対応して、所定数の分割画像が抽出される。 Specifically, the image pickup area dividing unit 10 of the camera control device 3 divides the image of the image pickup area 110 in the image pickup image according to a preset rule corresponding to each of the plurality of robot cameras 4. As a result, a predetermined number of divided images are extracted corresponding to each of the plurality of robot cameras 4.

図14は、実施例5において、ロボットカメラ4の位置及びエリア区分の例を説明する図である。(1)及び(2)において、2台のロボットカメラ4−1,4−2は、これらの光軸が直角に交差する位置に設置されている場合を示している。 FIG. 14 is a diagram illustrating an example of the position and area division of the robot camera 4 in the fifth embodiment. In (1) and (2), the two robot cameras 4-1 and 4-2 are installed at positions where their optical axes intersect at right angles.

(1)を参照して、ロボットカメラ4−1に対応する規則は、撮像エリア110において、ロボットカメラ4−1の光軸に対して垂直方向に区分するものである(撮像エリア110内の太線を参照)。撮像エリア分割部10は、ロボットカメラ4−1に対応する予め設定された規則に従い、撮像エリア110の画像を、ロボットカメラ4−1の光軸に対して垂直方向に分割する。 With reference to (1), the rule corresponding to the robot camera 4-1 is to divide the image pickup area 110 in the direction perpendicular to the optical axis of the robot camera 4-1 (thick line in the image pickup area 110). See). The image pickup area dividing unit 10 divides the image of the image pickup area 110 in the direction perpendicular to the optical axis of the robot camera 4-1 according to a preset rule corresponding to the robot camera 4-1.

また、ロボットカメラ4−2に対応する規則は、撮像エリア110において、ロボットカメラ4−2の光軸に対して垂直方向に区分するものである(撮像エリア110内の細線を参照)。撮像エリア分割部10は、ロボットカメラ4−2に対応する予め設定された規則に従い、撮像エリア110の画像を、ロボットカメラ4−2の光軸に対して垂直方向に分割する。 Further, the rule corresponding to the robot camera 4-2 divides the image pickup area 110 in the direction perpendicular to the optical axis of the robot camera 4-2 (see the thin line in the image pickup area 110). The image pickup area dividing unit 10 divides the image of the image pickup area 110 in the direction perpendicular to the optical axis of the robot camera 4-2 according to a preset rule corresponding to the robot camera 4-2.

(2)を参照して、ロボットカメラ4−1に対応する規則は、撮像エリア110において、ロボットカメラ4−1の光軸に対して水平方向に区分するものである(撮像エリア110内の太線を参照)。撮像エリア分割部10は、ロボットカメラ4−1に対応する予め設定された規則に従い、撮像エリア110の画像を、ロボットカメラ4−1の光軸に対して水平方向に分割する。 With reference to (2), the rule corresponding to the robot camera 4-1 is to divide the image pickup area 110 in the horizontal direction with respect to the optical axis of the robot camera 4-1 (thick line in the image pickup area 110). See). The image pickup area dividing unit 10 divides the image of the image pickup area 110 in the horizontal direction with respect to the optical axis of the robot camera 4-1 according to a preset rule corresponding to the robot camera 4-1.

また、ロボットカメラ4−2に対応する規則は、撮像エリア110において、極座標(r,δ)のパラメータである距離r及び偏角δを一定間隔として、エリアが距離r及び偏角δに応じた疎密となるように区分するものである(撮像エリア110内の細線を参照)。撮像エリア分割部10は、ロボットカメラ4−2に対応する予め設定された規則に従い、撮像エリア110の画像を、極座標(r,δ)方向に分割する。 Further, the rule corresponding to the robot camera 4-2 is that in the imaging area 110, the distance r and the declination δ, which are the parameters of the polar coordinates (r, δ), are set at regular intervals, and the area corresponds to the distance r and the declination δ. It is divided so that it is sparse and dense (see the thin line in the imaging area 110). The image pickup area dividing unit 10 divides the image of the image pickup area 110 in the polar coordinate (r, δ) direction according to a preset rule corresponding to the robot camera 4-2.

尚、複数のロボットカメラ4に共通した予め設定された規則に従い、撮像エリア110が同じ数及び同じ形状の共通するエリアに区分されるようにしてもよい。 It should be noted that the imaging areas 110 may be divided into common areas of the same number and shape according to a preset rule common to the plurality of robot cameras 4.

(制御テーブル20)
また、複数のロボットカメラ4が空間上に設置されている場合には、複数のロボットカメラ4のそれぞれに対応して、異なる制御テーブル20を用いるようにしてもよい。
(Control table 20)
Further, when a plurality of robot cameras 4 are installed in the space, different control tables 20 may be used corresponding to each of the plurality of robot cameras 4.

この場合、カメラ制御部12は、複数のロボットカメラ4のそれぞれに対応して、複数の(ロボットカメラ4の数分の)制御テーブル20を保持している。カメラ制御部12は、複数のロボットカメラ4のそれぞれについて、被写体位置検出部11から被写体120の位置情報を入力し、対応する制御テーブル20を用いて、位置情報に基づきロボットカメラ4の姿勢情報を求める。 In this case, the camera control unit 12 holds a plurality of control tables 20 (for the number of robot cameras 4) corresponding to each of the plurality of robot cameras 4. The camera control unit 12 inputs the position information of the subject 120 from the subject position detection unit 11 for each of the plurality of robot cameras 4, and uses the corresponding control table 20 to obtain the posture information of the robot camera 4 based on the position information. demand.

カメラ通信部13は、複数のロボットカメラ4のそれぞれについて、カメラ制御部12から姿勢情報を入力し、姿勢情報を含む制御信号を生成し、制御信号を対応するロボットカメラ4へ送信する。 The camera communication unit 13 inputs attitude information from the camera control unit 12 for each of the plurality of robot cameras 4, generates a control signal including the attitude information, and transmits the control signal to the corresponding robot camera 4.

尚、複数のロボットカメラ4のうちの1台に対応する1つの制御テーブル20のみを用いるようにしてもよい。 It should be noted that only one control table 20 corresponding to one of the plurality of robot cameras 4 may be used.

具体的には、カメラ制御部12は、所定の1台のロボットカメラ4に対応する制御テーブル20を保持している。カメラ制御部12は、当該制御テーブル20に格納されたパン・チルト値LUT(x)、並びに複数のロボットカメラ4における位置及び姿勢の関係に基づいて、他のロボットカメラ4に対応するパン・チルト値LUT(x)を算出する。そして、カメラ制御部12は、他のロボットカメラ4に対応する制御テーブル20を生成する。カメラ制御部12は、複数のロボットカメラ4のそれぞれについて、対応する制御テーブル20を用いて、それぞれの姿勢情報を生成する。 Specifically, the camera control unit 12 holds a control table 20 corresponding to one predetermined robot camera 4. The camera control unit 12 corresponds to the pan / tilt corresponding to the other robot cameras 4 based on the pan / tilt value LUT (x) stored in the control table 20 and the relationship between the positions and the postures of the plurality of robot cameras 4. Calculate the value LUT (x). Then, the camera control unit 12 generates a control table 20 corresponding to the other robot camera 4. The camera control unit 12 generates posture information for each of the plurality of robot cameras 4 by using the corresponding control table 20.

この場合、カメラ制御部12は、所定の1台のロボットカメラ4について、当該制御テーブル20を用いて姿勢情報を生成し、当該1台のロボットカメラ4の姿勢情報を、他のロボットカメラ4の姿勢情報に変換するようにしてもよい。具体的には、カメラ制御部12は、1台のロボットカメラ4の姿勢情報、並びに複数のロボットカメラ4における位置及び姿勢の関係に基づいて、他のロボットカメラ4の姿勢情報を生成する。 In this case, the camera control unit 12 generates posture information for one predetermined robot camera 4 using the control table 20, and the posture information of the one robot camera 4 is used for the other robot camera 4. It may be converted into posture information. Specifically, the camera control unit 12 generates posture information of another robot camera 4 based on the posture information of one robot camera 4 and the relationship between the positions and postures of the plurality of robot cameras 4.

図15は、2台のロボットカメラ4−1,4−2が空間上に設置されている場合に、1つの制御テーブル20を用いて2台のロボットカメラ4−1,4−2の姿勢情報を生成する処理を説明する図である。以下、カメラ制御部12が、1つの制御テーブル20を用いてロボットカメラ4−1の姿勢情報を生成し、ロボットカメラ4−1の姿勢情報から、所定の数式を用いてロボットカメラ4−2の姿勢情報を生成する処理について説明する。 FIG. 15 shows the posture information of the two robot cameras 4-1 and 4-2 using one control table 20 when the two robot cameras 4-1 and 4-2 are installed in the space. It is a figure explaining the process of generating. Hereinafter, the camera control unit 12 generates posture information of the robot camera 4-1 using one control table 20, and uses a predetermined mathematical formula from the posture information of the robot camera 4-1 to generate the posture information of the robot camera 4-2. The process of generating posture information will be described.

任意の方向ベクトルについて、座標系Σ(a)における各成分を座標系Σ(b)における各成分に変換する回転行列をRa (b)とする。また、座標系Σ(a)におけるベクトルには上付きにて(a)を付す。撮像エリア110に固定した座標系を世界座標系Σ(W)とする。ここでは、撮像エリア110の床面に第1軸X及び第2軸Yをとり、鉛直上向きに第3軸Zをとる。尚、断りのない限り、全ての座標系は右手系を成すものとする。 For an arbitrary direction vector, let R a (b) be a rotation matrix that transforms each component in the coordinate system Σ (a) into each component in the coordinate system Σ (b). Further, the vector in the coordinate system Σ (a) is superscripted with (a). The coordinate system fixed to the imaging area 110 is defined as the world coordinate system Σ (W) . Here, the first axis X and the second axis Y are taken on the floor surface of the imaging area 110, and the third axis Z is taken vertically upward. Unless otherwise noted, all coordinate systems shall be right-handed.

また、ロボットカメラ4−1に固定した座標系を第一カメラ座標系Σ(c1)とし(実線)、ロボットカメラ4−1のパン角φ1及びチルト角θ1が共に0のときの第一カメラ座標系Σ(c1)を第一基準カメラ座標系Σ(n1)とする(破線)。尚、以下では第一カメラ座標系Σ(c1)と第一基準カメラ座標系Σ(n1)の両原点は一致するものとする。 Further, the coordinate system fixed to the robot camera 4-1 is set as the first camera coordinate system Σ (c1) (solid line), and the first when both the pan angle φ 1 and the tilt angle θ 1 of the robot camera 4-1 are 0. Let the camera coordinate system Σ (c1) be the first reference camera coordinate system Σ (n1) (broken line). In the following, it is assumed that the origins of the first camera coordinate system Σ (c1) and the first reference camera coordinate system Σ (n1) are the same.

例えば、世界座標系Σ(W)に対する第一基準カメラ座標系Σ(n1)の姿勢をXYZ−オイラー角(α1,β1,γ1)で表した場合、回転行列Rn1 (w)は、以下の式にて表される。

Figure 2021197572
XYZ−オイラー角(α1,β1,γ1)は、ロボットカメラ4−1を設置したときに決定される定数である。 For example, if the attitude of the first reference camera coordinate system Σ (n1) with respect to the world coordinate system Σ (W) is expressed by XYZ-Euler angles (α 1 , β 1 , γ 1 ), the rotation matrix R n1 (w) is , Expressed by the following equation.
Figure 2021197572
XYZ-Euler angles (α 1 , β 1 , γ 1 ) are constants determined when the robot camera 4-1 is installed.

また、ロボットカメラ4−1のパン軸が第一カメラ座標系Σ(c1)の第2軸であり、チルト軸が第一カメラ座標系Σ(c1)の第1軸である場合、回転行列Rc1 (n1)は、以下の式にて表される。

Figure 2021197572
When the pan axis of the robot camera 4-1 is the second axis of the first camera coordinate system Σ (c1) and the tilt axis is the first axis of the first camera coordinate system Σ (c1) , the rotation matrix R c1 (n1) is expressed by the following equation.
Figure 2021197572

さらに、ロボットカメラ4−2に固定した座標系を第二カメラ座標系Σ(c2)とし(実線)、ロボットカメラ4−2のパン値φ2及びチルト値θ2が共に0のときの第二カメラ座標系Σ(c2)を第二基準カメラ座標系Σ(n2)とする(破線 )。尚、ロボットカメラ4−2のパン軸は第二カメラ座標系Σ(c2)の第2軸であり、チルト軸は第二カメラ座標系Σ(c2)の第1軸であるものとする。また、以下では第二カメラ座標系Σ(c2)と第二基準カメラ座標系Σ(n2)の両原点は一致するものとする。 Further, the coordinate system fixed to the robot camera 4-2 is set as the second camera coordinate system Σ (c2) (solid line), and the second when both the pan value φ 2 and the tilt value θ 2 of the robot camera 4-2 are 0. Let the camera coordinate system Σ (c2) be the second reference camera coordinate system Σ (n2) (broken line). It is assumed that the pan axis of the robot camera 4-2 is the second axis of the second camera coordinate system Σ (c2) , and the tilt axis is the first axis of the second camera coordinate system Σ (c2) . In the following, it is assumed that the origins of the second camera coordinate system Σ (c2) and the second reference camera coordinate system Σ (n2) are the same.

例えば、世界座標系Σ(W)に対する第二基準カメラ座標系Σ(n2)の姿勢をXYZ−オイラー角(α2,β2,γ2)で表した場合、回転行列Rw (n2)は、以下の式にて表される。

Figure 2021197572
For example, if the attitude of the second reference camera coordinate system Σ (n2) with respect to the world coordinate system Σ (W) is expressed by XYZ-Euler angles (α 2 , β 2 , γ 2 ), the rotation matrix R w (n 2) is , Expressed by the following equation.
Figure 2021197572

世界座標系Σ(W)の原点Oからロボットカメラ4−1の位置(すなわち第一カメラ座標系Σ(c1)の原点)に至るベクトルをT1 (W)とする。また、世界座標系Σ(W)の原点Oからロボットカメラ4−2の位置(すなわち第二カメラ座標系Σ(c2)の原点)に至るベクトルをT2 (W)とする。 Let T 1 (W) be a vector from the origin O of the world coordinate system Σ (W) to the position of the robot camera 4-1 (that is, the origin of the first camera coordinate system Σ (c1)). Further, let T 2 (W) be a vector from the origin O of the world coordinate system Σ (W) to the position of the robot camera 4-2 (that is, the origin of the second camera coordinate system Σ (c2)).

カメラ制御部12により、ロボットカメラ4−1に対応する制御テーブル20を用いてロボットカメラ4−1の姿勢情報であるパン値φ111及びチルト値θ111が求められたとする。ロボットカメラ4−1がパン値φ111及びチルト値θ111において制御されたとき、ロボットカメラ4−1が撮像エリア110のどこを撮像しているかを求める。 It is assumed that the camera control unit 12 obtains the pan value φ 111 and the tilt value θ 111, which are the attitude information of the robot camera 4-1 using the control table 20 corresponding to the robot camera 4-1. When the robot camera 4-1 is controlled at the pan value φ 111 and the tilt value θ 111 , it is determined where in the image pickup area 110 the robot camera 4-1 is capturing an image.

例えば、ロボットカメラ4−1がパン値φ111及びチルト値θ111のときの光軸が撮像エリア110の床面と交差する点Pを求めればよい。ロボットカメラ4−1の光軸の単位方向ベクトルを

Figure 2021197572
とする。例えば、光軸が第一カメラ座標系Σ(c1)の第3軸と平行である場合には、以下の式にて表される。
Figure 2021197572
For example, the point P where the optical axis when the robot camera 4-1 has the pan value φ 111 and the tilt value θ 111 intersects the floor surface of the imaging area 110 may be obtained. The unit direction vector of the optical axis of the robot camera 4-1
Figure 2021197572
And. For example, when the optical axis is parallel to the third axis of the first camera coordinate system Σ (c1) , it is expressed by the following equation.
Figure 2021197572

ロボットカメラ4−1の位置を点R1とする。このとき、以下の式にて表される。

Figure 2021197572
係数λは、正の実数である。
Figure 2021197572
Let the position of the robot camera 4-1 be the point R 1 . At this time, it is expressed by the following formula.
Figure 2021197572
The coefficient λ is a positive real number.
Figure 2021197572

ここで、点Pは撮像エリア110の床面にあることから、ベクトル

Figure 2021197572
の第3成分は零である。つまり、以下の式にて表される。
Figure 2021197572
Here, since the point P is on the floor surface of the imaging area 110, it is a vector.
Figure 2021197572
The third component of is zero. That is, it is expressed by the following equation.
Figure 2021197572

したがって、以下の式により、係数λが決定される。

Figure 2021197572
Therefore, the coefficient λ is determined by the following equation.
Figure 2021197572

次に、ロボットカメラ4−2を向けるべき方向、すなわち光軸の方向を求める。ロボットカメラ4−2の位置を点R2とすると、光軸はベクトル

Figure 2021197572
と重なるべきであり、以下の式が成立する。
Figure 2021197572
Next, the direction in which the robot camera 4-2 should be directed, that is, the direction of the optical axis is obtained. Assuming that the position of the robot camera 4-2 is the point R 2 , the optical axis is a vector.
Figure 2021197572
Should overlap, and the following equation holds.
Figure 2021197572

前記式(9)、前記式(11)及び前記式(12)から、以下の式により、視線方向のベクトル

Figure 2021197572
を定めることができる。
Figure 2021197572
From the above equation (9), the above equation (11) and the above equation (12), the vector in the line-of-sight direction is obtained by the following equation.
Figure 2021197572
Can be determined.
Figure 2021197572

前記式(13)を前記式(7)にて座標変換すると、以下の式で表される。

Figure 2021197572
When the coordinate of the equation (13) is transformed by the equation (7), it is expressed by the following equation.
Figure 2021197572

このようにして得られたベクトル

Figure 2021197572
の各成分を、以下の式で表す。
Figure 2021197572
The vector thus obtained
Figure 2021197572
Each component of is expressed by the following formula.
Figure 2021197572

このとき、ロボットカメラ4−2を向けるべきパン値φ’111及びチルト値θ’111は、以下の式にて表される。

Figure 2021197572
尚、atan2(ξ,ζ)は、2次元直交座標系における座標[p,q]Tを極座標に変換した際の偏角を求める関数である。 At this time, the pan value phi '111 and tilt values theta' 111 should pay robot camera 4-2 is expressed by the following equation.
Figure 2021197572
Note that atan2 (ξ, ζ) is a function for obtaining the declination when the coordinates [p, q] T in the two-dimensional Cartesian coordinate system are converted into polar coordinates.

このように、カメラ制御部12は、所定の1台のロボットカメラ4−1について、当該制御テーブル20を用いて姿勢情報を生成し、当該姿勢情報から、前記式(16)を用いて、他のロボットカメラ4−2の姿勢情報を算出する。 As described above, the camera control unit 12 generates posture information for one predetermined robot camera 4-1 using the control table 20, and from the posture information, the other formula (16) is used. The posture information of the robot camera 4-2 of the above is calculated.

ここで、前記式(16)の代わりに、1台のロボットカメラ4−1の姿勢情報及び他のロボットカメラ4−2の姿勢情報からなるテーブルを用いるようにしてもよい。具体的には、カメラ制御部12は、所定の1台のロボットカメラ4−1について、当該制御テーブル20を用いて姿勢情報を生成し、前記テーブルから、1台のロボットカメラ4−1に姿勢情報に対応する他のロボットカメラ4−2の姿勢情報を読み出す。これにより、1台のロボットカメラ4−1の姿勢情報から、他のロボットカメラ4−2の姿勢情報を生成することができる。 Here, instead of the above equation (16), a table including posture information of one robot camera 4-1 and posture information of another robot camera 4-2 may be used. Specifically, the camera control unit 12 generates posture information for one predetermined robot camera 4-1 using the control table 20, and the posture of one robot camera 4-1 from the table. The posture information of another robot camera 4-2 corresponding to the information is read out. Thereby, the posture information of the other robot camera 4-2 can be generated from the posture information of one robot camera 4-1.

また、前記式(16)を用いる代わりに、他のロボットカメラ4−2に対応する制御テーブル20’を予め設定しておき、当該制御テーブル20’を用いるようにしてもよい。具体的には、カメラ制御部12は、事前に、所定の1台のロボットカメラ4−1に対応する制御テーブル20に格納されたパン・チルト値LUT(x)から、前記式(16)を用いて、他のロボットカメラ4−2のパン・チルト値LUT(x)を算出する。そして、カメラ制御部12は、他のロボットカメラ4−2のパン・チルト値LUT(x)を用いて、他のロボットカメラ4−2に対応する制御テーブル20’を設定しておく。カメラ制御部12は、複数のロボットカメラ4−1,4−2について、対応する制御テーブル20,20’を用いて姿勢情報をそれぞれ生成する。尚、3台以上のロボットカメラ4についても同様の処理を用いることができる。 Further, instead of using the above equation (16), a control table 20'corresponding to another robot camera 4-2 may be set in advance and the control table 20' may be used. Specifically, the camera control unit 12 previously obtains the above equation (16) from the pan / tilt value LUT (x) stored in the control table 20 corresponding to one predetermined robot camera 4-1. It is used to calculate the pan / tilt value LUT (x) of another robot camera 4-2. Then, the camera control unit 12 sets the control table 20'corresponding to the other robot camera 4-2 by using the pan / tilt value LUT (x) of the other robot camera 4-2. The camera control unit 12 generates posture information for each of the plurality of robot cameras 4-1 and 4-2 using the corresponding control tables 20 and 20'. The same process can be used for three or more robot cameras 4.

以上のように、実施例1、実施例1の変形例、実施例2、実施例2の変形例、実施例3、実施例4及び実施例5のカメラ制御装置3によれば、撮像エリア分割部10は、予め設定された規則に従い、撮像映像における撮像エリア110の画像を、所定数及び所定形状の複数のエリアの画像(分割画像)に分割する。 As described above, according to the camera control device 3 of the first embodiment, the modified example of the first embodiment, the modified example of the second embodiment and the second embodiment, the third embodiment, the fourth embodiment, and the fifth embodiment, the imaging area is divided. The unit 10 divides the image of the imaging area 110 in the captured image into images (divided images) of a plurality of areas having a predetermined number and a predetermined shape according to a preset rule.

被写体位置検出部11は、複数の分割画像から被写体120を検出し、被写体120の位置等を含む位置情報を生成する。 The subject position detection unit 11 detects the subject 120 from a plurality of divided images and generates position information including the position of the subject 120.

カメラ制御部12は、制御テーブル20を用いて、位置情報に基づいてロボットカメラ4の姿勢情報等を求める。 The camera control unit 12 uses the control table 20 to obtain posture information and the like of the robot camera 4 based on the position information.

カメラ通信部13は、姿勢情報等を含む制御信号を生成し、制御信号をロボットカメラ4へ送信する。 The camera communication unit 13 generates a control signal including posture information and the like, and transmits the control signal to the robot camera 4.

これにより、ロボットカメラ4は、制御信号に含まれる姿勢情報等に従って動作する。したがって、外部から得られる位置情報を用いることなく被写体120の位置を検出することができ、被写体120を常にロボットカメラ4の視野内に収めることができる。 As a result, the robot camera 4 operates according to the posture information and the like included in the control signal. Therefore, the position of the subject 120 can be detected without using the position information obtained from the outside, and the subject 120 can always be within the field of view of the robot camera 4.

また、予め設定された制御テーブル20を用いて姿勢情報が生成されるため、ロボットカメラ4の自動制御において演算量を少なくすることができ、高速な制御を実現することができる。 Further, since the posture information is generated using the preset control table 20, the amount of calculation can be reduced in the automatic control of the robot camera 4, and high-speed control can be realized.

以上、実施例1等を挙げて本発明を説明したが、本発明は前記実施例1等に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。 Although the present invention has been described above with reference to Example 1 and the like, the present invention is not limited to the above-mentioned Example 1 and the like, and can be variously modified without departing from the technical idea.

尚、本発明の実施例1等によるカメラ制御装置3のハードウェア構成としては、通常のコンピュータを使用することができる。カメラ制御装置3は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。 As the hardware configuration of the camera control device 3 according to the first embodiment of the present invention, a normal computer can be used. The camera control device 3 is composed of a computer including a volatile storage medium such as a CPU and RAM, a non-volatile storage medium such as ROM, and an interface.

カメラ制御装置3に備えた撮像エリア分割部10、被写体位置検出部11、カメラ制御部12及びカメラ通信部13の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。 Each function of the image pickup area dividing unit 10, the subject position detection unit 11, the camera control unit 12, and the camera communication unit 13 provided in the camera control device 3 is realized by causing the CPU to execute a program describing these functions. To.

これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。 These programs are stored in the storage medium, read by the CPU, and executed. In addition, these programs can be stored and distributed in storage media such as magnetic disks (floppy (registered trademark) disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), semiconductor memories, etc., and can be distributed via a network. You can also send and receive.

1 撮像システム
2 俯瞰カメラ
3 カメラ制御装置
4 ロボットカメラ
10 撮像エリア分割部
11 被写体位置検出部
12 カメラ制御部
13 カメラ通信部
20 制御テーブル
110 撮像エリア
111,112,113,114 エリア
115 ステージ
116 取付用部材
120 被写体
1 Imaging system 2 Overlooking camera 3 Camera control device 4 Robot camera 10 Imaging area division 11 Subject position detection unit 12 Camera control unit 13 Camera communication unit 20 Control table 110 Imaging area 111, 112, 113, 114 Area 115 Stage 116 For mounting Member 120 Subject

Claims (9)

カメラの姿勢を制御するカメラ制御装置において、
俯瞰カメラにより撮影された撮像エリア内の被写体を含む撮像映像を入力し、予め設定された規則に従い、前記撮像エリアを複数のエリアに分割することで、前記撮像映像の画像から、前記複数のエリアのそれぞれに対応する分割画像を抽出する撮像エリア分割部と、
前記撮像エリア分割部により抽出された前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記複数のエリアから前記被写体が存在する1つのエリアを検出し、前記1つのエリアを含む位置情報を生成する被写体位置検出部と、
前記複数のエリアのそれぞれに対応して、前記カメラの姿勢を示すパラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記被写体位置検出部により生成された前記位置情報に含まれる前記1つのエリアに対応する前記パラメータを読み出し、前記パラメータを含む姿勢情報を生成するカメラ制御部と、
前記カメラ制御部により生成された前記姿勢情報を含む制御信号を、前記カメラへ送信するカメラ通信部と、
を備えたことを特徴とするカメラ制御装置。
In the camera control device that controls the posture of the camera
By inputting a captured image including a subject in the imaging area captured by the bird's-eye view camera and dividing the imaging area into a plurality of areas according to a preset rule, the plurality of areas can be obtained from the image of the captured image. An imaging area division unit that extracts the divided images corresponding to each of the above,
Based on the divided image corresponding to each of the plurality of areas extracted by the imaging area division unit, one area in which the subject exists is detected from the plurality of areas, and the position information including the one area is detected. The subject position detector that generates
A control table in which parameters indicating the posture of the camera are stored is held corresponding to each of the plurality of areas, and the 1 is included in the position information generated by the subject position detection unit from the control table. A camera control unit that reads out the parameters corresponding to one area and generates posture information including the parameters.
A camera communication unit that transmits a control signal including the attitude information generated by the camera control unit to the camera.
A camera control device characterized by being equipped with.
請求項1に記載のカメラ制御装置において、
前記カメラ制御部は、
前記複数のエリアのそれぞれに対応して、前記カメラの姿勢に加え、前記カメラのレンズのズーム回転量及びフォーカス回転量を示すパラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記位置情報に含まれる前記1つのエリアに対応する前記パラメータを読み出す、ことを特徴とするカメラ制御装置。
In the camera control device according to claim 1,
The camera control unit
A control table is held in which parameters indicating the zoom rotation amount and the focus rotation amount of the lens of the camera are stored in addition to the posture of the camera corresponding to each of the plurality of areas, and the position from the control table. A camera control device for reading out the parameter corresponding to the one area included in the information.
請求項1または2に記載のカメラ制御装置において、
前記被写体位置検出部は、
前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記複数のエリアのそれぞれについて前記被写体のシルエット面積を検出し、前記シルエット面積が最大の前記1つのエリアを特定し、前記1つのエリアを含む位置情報を生成する、ことを特徴とするカメラ制御装置。
In the camera control device according to claim 1 or 2.
The subject position detection unit is
Based on the divided image corresponding to each of the plurality of areas, the silhouette area of the subject is detected for each of the plurality of areas, the one area having the largest silhouette area is specified, and the one area is specified. A camera control device characterized in that it generates location information including.
請求項1または2に記載のカメラ制御装置において、
前記被写体位置検出部は、
前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記被写体が存在する1つまたは複数のエリアを検出し、前記1つまたは複数のエリアを示すエリアパターンを含む位置情報を生成し、
前記カメラ制御部は、
前記被写体が存在し得る1つのエリア及び複数のエリアを示す全てのエリアパターンのそれぞれに対応して、前記パラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記被写体位置検出部により生成された前記位置情報に含まれる前記エリアパターンに対応する前記パラメータを読み出す、ことを特徴とするカメラ制御装置。
In the camera control device according to claim 1 or 2.
The subject position detection unit is
Based on the divided image corresponding to each of the plurality of areas, one or a plurality of areas in which the subject exists are detected, and position information including an area pattern indicating the one or a plurality of areas is generated.
The camera control unit
A control table in which the parameters are stored is held corresponding to each of one area in which the subject may exist and all area patterns indicating a plurality of areas, and is generated from the control table by the subject position detection unit. A camera control device, characterized in that the parameter corresponding to the area pattern included in the position information is read out.
請求項1または2に記載のカメラ制御装置において、
前記被写体位置検出部は、
前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記複数のエリアのそれぞれについて前記被写体のシルエット面積を検出し、前記エリア及び前記エリアのシルエット面積を含む位置情報を生成し、
前記カメラ制御部は、
前記複数のエリアのそれぞれに対応して、前記パラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記被写体位置検出部により生成された前記位置情報に含まれる前記エリアに対応する前記パラメータを読み出し、前記パラメータについて、前記被写体の全体のシルエット面積に対する前記エリアのシルエット面積の重み付き平均を求め、前記重み付き平均の前記パラメータを含む前記姿勢情報を生成する、ことを特徴とするカメラ制御装置。
In the camera control device according to claim 1 or 2.
The subject position detection unit is
Based on the divided image corresponding to each of the plurality of areas, the silhouette area of the subject is detected for each of the plurality of areas, and the position information including the area and the silhouette area of the area is generated.
The camera control unit
A control table in which the parameters are stored is held corresponding to each of the plurality of areas, and the parameters corresponding to the areas included in the position information generated by the subject position detection unit from the control table. Is read out, and for the parameter, the weighted average of the silhouette area of the area with respect to the total silhouette area of the subject is obtained, and the posture information including the parameter of the weighted average is generated. Device.
請求項1から5までのいずれか一項に記載のカメラ制御装置において、
前記撮像エリアの中心を原点とし、前記原点から前記カメラの設置位置を通る線を始線として、前記撮像エリアの平面上の点が、前記原点からの距離r及び前記始線からの偏角δの極座標(r,δ)で表されるものとして、
前記撮像エリア分割部により分割される前記複数のエリアを、前記極座標にて、または前記カメラの光軸に水平方向若しくは垂直方向にて、前記撮像エリアが区分された領域とする、ことを特徴とするカメラ制御装置。
The camera control device according to any one of claims 1 to 5.
With the center of the imaging area as the origin and the line passing from the origin to the installation position of the camera as the starting line, points on the plane of the imaging area are the distance r from the origin and the deviation angle δ from the starting line. As represented by the polar coordinates (r, δ) of
The plurality of areas divided by the image pickup area dividing portion are defined as areas in which the image pickup area is divided at the polar coordinates or in the horizontal or vertical direction with respect to the optical axis of the camera. Camera control device.
請求項1から6までのいずれか一項に記載のカメラ制御装置において、
当該カメラ制御装置は、複数のカメラを制御し、
前記カメラ制御部は、
前記複数のカメラのそれぞれについて、前記制御テーブルを保持し、前記複数のカメラのそれぞれについて、対応する前記制御テーブルを用いて前記姿勢情報を生成し、
前記カメラ通信部は、
前記カメラ制御部により生成された前記姿勢情報を含む制御信号を、対応する前記複数のカメラのそれぞれへ送信する、ことを特徴とするカメラ制御装置。
The camera control device according to any one of claims 1 to 6.
The camera control device controls multiple cameras and
The camera control unit
The control table is held for each of the plurality of cameras, and the posture information is generated for each of the plurality of cameras using the corresponding control table.
The camera communication unit
A camera control device comprising transmitting a control signal including the posture information generated by the camera control unit to each of the plurality of corresponding cameras.
請求項1から6までのいずれか一項に記載のカメラ制御装置において、
当該カメラ制御装置は、複数のカメラを制御し、
前記カメラ制御部は、
前記複数のカメラのうちのいずれか1つのカメラについて、前記制御テーブルを保持し、前記1つのカメラについて、前記制御テーブルを用いて前記姿勢情報を生成し、前記姿勢情報、並びに前記1つのカメラと前記複数のカメラのうちの他のカメラとの間の位置及び姿勢の関係に基づいて、前記他のカメラの前記姿勢情報を生成し、
前記カメラ通信部は、
前記カメラ制御部により生成された前記姿勢情報を含む制御信号を、対応する前記複数のカメラのそれぞれへ送信する、ことを特徴とするカメラ制御装置。
The camera control device according to any one of claims 1 to 6.
The camera control device controls multiple cameras and
The camera control unit
The control table is held for any one of the plurality of cameras, the posture information is generated for the one camera using the control table, the posture information, and the one camera. Based on the position and posture relationship between the plurality of cameras and the other cameras, the posture information of the other cameras is generated.
The camera communication unit
A camera control device comprising transmitting a control signal including the posture information generated by the camera control unit to each of the plurality of corresponding cameras.
コンピュータを、請求項1から8までのいずれか一項に記載のカメラ制御装置として機能させるためのプログラム。 A program for operating a computer as the camera control device according to any one of claims 1 to 8.
JP2020100516A 2020-06-09 2020-06-09 Camera control apparatus and program Pending JP2021197572A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020100516A JP2021197572A (en) 2020-06-09 2020-06-09 Camera control apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020100516A JP2021197572A (en) 2020-06-09 2020-06-09 Camera control apparatus and program

Publications (1)

Publication Number Publication Date
JP2021197572A true JP2021197572A (en) 2021-12-27

Family

ID=79196140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020100516A Pending JP2021197572A (en) 2020-06-09 2020-06-09 Camera control apparatus and program

Country Status (1)

Country Link
JP (1) JP2021197572A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115225931A (en) * 2022-07-29 2022-10-21 深圳盈天下视觉科技有限公司 Live broadcasting method, device and system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115225931A (en) * 2022-07-29 2022-10-21 深圳盈天下视觉科技有限公司 Live broadcasting method, device and system

Similar Documents

Publication Publication Date Title
CN107836012B (en) Projection image generation method and device, and mapping method between image pixel and depth value
CN107438173B (en) Video processing apparatus, video processing method, and storage medium
JP6622503B2 (en) Camera model parameter estimation apparatus and program thereof
JP6062039B2 (en) Image processing system and image processing program
JP2011179908A (en) Three-dimensional measurement apparatus, method for processing the same, and program
JP2018056971A5 (en)
JP5035467B2 (en) Three-dimensional authentication method, three-dimensional authentication device, and three-dimensional authentication program
JP2019190974A (en) Calibration device, calibration method and program
JP2007304801A (en) Solidity authenticating method, solidity authenticating apparatus, and solidity authenticating program
JP5525495B2 (en) Image monitoring apparatus, image monitoring method and program
CN107809610A (en) Camera parameter set calculating apparatus, camera parameter set calculation method and program
CN108028904A (en) The method and system of light field augmented reality/virtual reality in mobile equipment
JP2017090420A (en) Three-dimensional information restoration device and three-dimensional information restoration method
JP2018173882A (en) Information processing device, method, and program
JP2021197572A (en) Camera control apparatus and program
JP4227037B2 (en) Imaging system and calibration method
JP4914870B2 (en) Congestion degree measuring device, congestion degree measuring method, congestion degree measuring program, and recording medium recording the program
CN112514366A (en) Image processing method, image processing apparatus, and image processing system
JP6154759B2 (en) Camera parameter estimation apparatus, camera parameter estimation method, and camera parameter estimation program
WO2010089938A1 (en) Rotation estimation device, rotation estimation method, and storage medium
WO2017057426A1 (en) Projection device, content determination device, projection method, and program
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP2005063012A (en) Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded
JP6237028B2 (en) Projection apparatus, projection method, and information processing system
JP7154841B2 (en) IMAGING SYSTEM, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230501