JP2021197572A - Camera control apparatus and program - Google Patents
Camera control apparatus and program Download PDFInfo
- Publication number
- JP2021197572A JP2021197572A JP2020100516A JP2020100516A JP2021197572A JP 2021197572 A JP2021197572 A JP 2021197572A JP 2020100516 A JP2020100516 A JP 2020100516A JP 2020100516 A JP2020100516 A JP 2020100516A JP 2021197572 A JP2021197572 A JP 2021197572A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- area
- subject
- areas
- camera control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、カメラ制御装置及びプログラムに関する。 The present invention relates to a camera control device and a program.
従来、複数のカメラで撮像した画像から、被写体の三次元モデルを再構成し、カメラが配置されていない任意の位置から仮想視点画像を得る技術が知られている。 Conventionally, there is known a technique of reconstructing a three-dimensional model of a subject from images captured by a plurality of cameras and obtaining a virtual viewpoint image from an arbitrary position where the cameras are not arranged.
例えば、配置するカメラとして、電動雲台を備えたカメラ(以下、「ロボットカメラ」という。)を用いることにより、常に被写体をロボットカメラの画角から外さずに撮影することができる。限定された台数のロボットカメラを用いる場合においても、精度及び自由度を両立させた撮影が可能となる(例えば、特許文献1を参照)。 For example, by using a camera equipped with an electric pan head (hereinafter referred to as "robot camera") as the camera to be arranged, it is possible to always shoot the subject without removing it from the angle of view of the robot camera. Even when a limited number of robot cameras are used, it is possible to take a picture with both accuracy and a degree of freedom (see, for example, Patent Document 1).
また、被写体を画角から外さないようにロボットカメラの位置を制御する技術として、被写体の位置情報を用いる手法が提案されている(例えば、特許文献2を参照)。この手法は、被写体の位置情報を外部から取得すると共に、時間の経過を示すタイミング情報を取得し、被写体の位置情報及びタイミング情報に基づいて、被写体を撮影するロボットカメラのカメラワークを制御するものである。 Further, as a technique for controlling the position of the robot camera so as not to deviate the subject from the angle of view, a method using the position information of the subject has been proposed (see, for example, Patent Document 2). In this method, the position information of the subject is acquired from the outside, the timing information indicating the passage of time is acquired, and the camera work of the robot camera that shoots the subject is controlled based on the position information and the timing information of the subject. Is.
さらに、センサカメラの撮像画像から被写体を検出し、ロボットカメラにて被写体を自動追尾しながら撮影する手法も提案されている(例えば、特許文献3を参照)。この手法は、被写体の表面を構成する複数の色を予め設定しておき、撮像画像から、予め設定された複数の色を有する箇所を画像部分として抽出し、その画像情報に基づいて被写体を検出し、被写体を自動追尾するものである。 Further, a method of detecting a subject from an image captured by a sensor camera and taking a picture while automatically tracking the subject with a robot camera has also been proposed (see, for example, Patent Document 3). In this method, a plurality of colors constituting the surface of the subject are set in advance, a portion having the plurality of preset colors is extracted as an image portion from the captured image, and the subject is detected based on the image information. However, it automatically tracks the subject.
前述の特許文献2の手法は、GNSS(Global Navigation Satellite System:全球測位衛星システム)の衛星から被写体の位置情報を取得し、位置情報に対応したカメラワークをカメラワーク情報テーブルセットから読み出すことで、ロボットカメラを制御する。
The method of
しかしながら、この手法は、位置情報を取得するためのデバイスが被写体に取り付けられていない場合に運用することができず、また、衛星から位置情報を受信できない環境においては、効率的に運用することができない。 However, this method cannot be operated when the device for acquiring the position information is not attached to the subject, and can be operated efficiently in the environment where the position information cannot be received from the satellite. Can not.
また、前述の特許文献3の手法では、制御エラーによりロボットカメラの姿勢が不安定となった場合、被写体がカメラの視野から外れてしまい、被写体の一部が欠けた画角となる可能性があり、必ずしも有効な映像を得ることができるとは限らない。
Further, in the method of
このため、外部から取得した位置情報を用いることなく被写体の位置を検出し、高速かつ正確にロボットカメラを制御できることが所望されていた。 Therefore, it has been desired to be able to detect the position of the subject without using the position information acquired from the outside and control the robot camera at high speed and accurately.
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、外部から得られる位置情報を用いることなく被写体の位置を検出し、被写体を常にカメラの視野内に収めることが可能なカメラ制御装置及びプログラムを提供することにある。 Therefore, the present invention has been made to solve the above-mentioned problems, and an object thereof is to detect the position of a subject without using position information obtained from the outside and always keep the subject within the field of view of the camera. To provide possible camera controls and programs.
前記課題を解決するために、請求項1のカメラ制御装置は、カメラの姿勢を制御するカメラ制御装置において、俯瞰カメラにより撮影された撮像エリア内の被写体を含む撮像映像を入力し、予め設定された規則に従い、前記撮像エリアを複数のエリアに分割することで、前記撮像映像の画像から、前記複数のエリアのそれぞれに対応する分割画像を抽出する撮像エリア分割部と、前記撮像エリア分割部により抽出された前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記複数のエリアから前記被写体が存在する1つのエリアを検出し、前記1つのエリアを含む位置情報を生成する被写体位置検出部と、前記複数のエリアのそれぞれに対応して、前記カメラの姿勢を示すパラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記被写体位置検出部により生成された前記位置情報に含まれる前記1つのエリアに対応する前記パラメータを読み出し、前記パラメータを含む姿勢情報を生成するカメラ制御部と、前記カメラ制御部により生成された前記姿勢情報を含む制御信号を、前記カメラへ送信するカメラ通信部と、を備えたことを特徴とする。
In order to solve the above-mentioned problems, the camera control device according to
また、請求項2のカメラ制御装置は、請求項1に記載のカメラ制御装置において、前記カメラ制御部が、前記複数のエリアのそれぞれに対応して、前記カメラの姿勢に加え、前記カメラのレンズのズーム回転量及びフォーカス回転量を示すパラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記位置情報に含まれる前記1つのエリアに対応する前記パラメータを読み出す、ことを特徴とする。
Further, in the camera control device according to
また、請求項3のカメラ制御装置は、請求項1または2に記載のカメラ制御装置において、前記被写体位置検出部が、前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記複数のエリアのそれぞれについて前記被写体のシルエット面積を検出し、前記シルエット面積が最大の前記1つのエリアを特定し、前記1つのエリアを含む位置情報を生成する、ことを特徴とする。
Further, the camera control device according to
また、請求項4のカメラ制御装置は、請求項1または2に記載のカメラ制御装置において、前記被写体位置検出部が、前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記被写体が存在する1つまたは複数のエリアを検出し、前記1つまたは複数のエリアを示すエリアパターンを含む位置情報を生成し、前記カメラ制御部が、前記被写体が存在し得る1つのエリア及び複数のエリアを示す全てのエリアパターンのそれぞれに対応して、前記パラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記被写体位置検出部により生成された前記位置情報に含まれる前記エリアパターンに対応する前記パラメータを読み出す、ことを特徴とする。 Further, in the camera control device according to the fourth aspect, in the camera control device according to the first or second aspect, the subject position detection unit is based on the divided image corresponding to each of the plurality of areas. One or a plurality of existing areas are detected, position information including an area pattern indicating the one or a plurality of areas is generated, and the camera control unit generates one or a plurality of areas in which the subject may exist. A control table in which the parameters are stored is held corresponding to each of all the area patterns indicating the above, and the area pattern included in the position information generated by the subject position detection unit is supported from the control table. It is characterized in that the said parameter is read out.
また、請求項5のカメラ制御装置は、請求項1または2に記載のカメラ制御装置において、前記被写体位置検出部が、前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記複数のエリアのそれぞれについて前記被写体のシルエット面積を検出し、前記エリア及び前記エリアのシルエット面積を含む位置情報を生成し、前記カメラ制御部が、前記複数のエリアのそれぞれに対応して、前記パラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記被写体位置検出部により生成された前記位置情報に含まれる前記エリアに対応する前記パラメータを読み出し、前記パラメータについて、前記被写体の全体のシルエット面積に対する前記エリアのシルエット面積の重み付き平均を求め、前記重み付き平均の前記パラメータを含む前記姿勢情報を生成する、ことを特徴とする。
Further, the camera control device according to claim 5 is the camera control device according to
また、請求項6のカメラ制御装置は、請求項1から5までのいずれか一項に記載のカメラ制御装置において、前記撮像エリアの中心を原点とし、前記原点から前記カメラの設置位置を通る線を始線として、前記撮像エリアの平面上の点が、前記原点からの距離r及び前記始線からの偏角δの極座標(r,δ)で表されるものとして、前記撮像エリア分割部により分割される前記複数のエリアを、前記極座標にて、または前記カメラの光軸に水平方向若しくは垂直方向にて、前記撮像エリアが区分された領域とする、ことを特徴とする。
The camera control device according to claim 6 is the camera control device according to any one of
また、請求項7のカメラ制御装置は、請求項1から6までのいずれか一項に記載のカメラ制御装置において、当該カメラ制御装置が、複数のカメラを制御し、前記カメラ制御部が、前記複数のカメラのそれぞれについて、前記制御テーブルを保持し、前記複数のカメラのそれぞれについて、対応する前記制御テーブルを用いて前記姿勢情報を生成し、前記カメラ通信部が、前記カメラ制御部により生成された前記姿勢情報を含む制御信号を、対応する前記複数のカメラのそれぞれへ送信する、ことを特徴とする。
Further, in the camera control device according to claim 7, in the camera control device according to any one of
また、請求項8のカメラ制御装置は、請求項1から6までのいずれか一項に記載のカメラ制御装置において、当該カメラ制御装置が、複数のカメラを制御し、前記カメラ制御部が、前記複数のカメラのうちのいずれか1つのカメラについて、前記制御テーブルを保持し、前記1つのカメラについて、前記制御テーブルを用いて前記姿勢情報を生成し、前記姿勢情報、並びに前記1つのカメラと前記複数のカメラのうちの他のカメラとの間の位置及び姿勢の関係に基づいて、前記他のカメラの前記姿勢情報を生成し、前記カメラ通信部が、前記カメラ制御部により生成された前記姿勢情報を含む制御信号を、対応する前記複数のカメラのそれぞれへ送信する、ことを特徴とする。
Further, in the camera control device according to claim 8, in the camera control device according to any one of
さらに、請求項9のプログラムは、コンピュータを、請求項1から8までのいずれか一項に記載のカメラ制御装置として機能させることを特徴とする。
Further, the program of claim 9 is characterized in that the computer functions as the camera control device according to any one of
以上のように、本発明によれば、外部から得られる位置情報を用いることなく被写体の位置を検出することができ、被写体を常にカメラの視野内に収めることができる。 As described above, according to the present invention, the position of the subject can be detected without using the position information obtained from the outside, and the subject can always be within the field of view of the camera.
以下、本発明を実施するための形態について図面を用いて詳細に説明する。
〔撮像システム〕
まず、撮像システムについて説明する。図1は、本発明の実施形態によるカメラ制御装置を含む撮像システムの全体構成例を示すブロック図であり、図2は、撮像環境及びエリア区分の例を説明する図である。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
[Imaging system]
First, the imaging system will be described. FIG. 1 is a block diagram showing an overall configuration example of an imaging system including a camera control device according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating an example of an imaging environment and area division.
この撮像システム1は、俯瞰カメラ2、カメラ制御装置3、及び1または複数のロボットカメラ4を備えて構成される。撮像システム1は、撮像エリア110内に存在する被写体120を、俯瞰カメラ2により撮影された撮像映像の画像から検出し、被写体120を常にロボットカメラ4の視野内に収めるように、ロボットカメラ4を制御するシステムである。
The
被写体120は、撮像エリア110内のステージ115上に存在し、俯瞰カメラ2及びロボットカメラ4は、例えば半球状の取付用部材116に取り付けられており、取付用部材116は、被写体120を覆うように設置されている。図2において、俯瞰カメラ2は、被写体120を俯瞰するように、半球状の取付用部材116の頂点に設置されている。
The subject 120 exists on the
俯瞰カメラ2は、被写体120を撮影するカメラであり、撮像映像をカメラ制御装置3へ出力する。俯瞰カメラ2は、撮像エリア110を少なくとも80%以上、好ましくは100%撮像可能な俯瞰位置、例えば撮像エリア110から仰角45°以上、好ましくは仰角80°に取り付けたカメラ若しくはロボットカメラである。尚、俯瞰カメラ2は、ドローンに搭載して空中に配置可能なカメラであってもよい。
The bird's-
カメラ制御装置3は、俯瞰カメラ2から撮像映像を入力し、撮像映像の画像に基づいて、撮像エリア110内の被写体120の位置を検出し、その位置に応じた姿勢等の制御信号を生成し、制御信号をロボットカメラ4へ送信する。
The
ロボットカメラ4は、制御信号を受信し、制御信号に基づいて、パン、チルト等の制御を行い、姿勢等を変更する。これにより、ロボットカメラ4は、被写体120を視野内に収めることができる。
The
ここで、撮像エリア110は、予め設定された規則に従い、複数のエリアに分割される。例えば、図2において、撮像エリア110は、俯瞰カメラ2からステージ115を見た際に、俯瞰カメラ2により撮影されるエリアであり、その形状は円である。撮像エリア110の円の中心を直角に交わって通る十字方向の2つの直線により、撮像エリア110は、右上から時計回りの順にエリア111〜114に4分割されるものとする。つまり、エリア111〜114は、撮像エリア110が円の中心を通る十字方向の2つの直線により区分された領域である。
Here, the
図1を参照して、カメラ制御装置3は、撮像エリア分割部10、被写体位置検出部11、カメラ制御部12及びカメラ通信部13を備えている。カメラ制御部12は、予め設定された制御テーブル20を保持している。
With reference to FIG. 1, the
撮像エリア分割部10は、俯瞰カメラ2から撮像映像を入力する。そして、撮像エリア分割部10は、予め設定された規則に従い、図2に示したとおり、撮像映像における撮像エリア110の画像を4つのエリア111〜114の画像に分割することで、エリア111〜114の分割画像を抽出する。撮像エリア分割部10は、エリア111〜114の分割画像を被写体位置検出部11に出力する。
The image pickup
被写体位置検出部11は、撮像エリア分割部10からエリア111〜114の分割画像を入力し、これらの分割画像から被写体120を検出し、被写体120の位置を示す位置情報を生成する。そして、被写体位置検出部11は、被写体120の位置情報をカメラ制御部12に出力する。
The subject
具体的には、被写体120が俯瞰カメラ2の視野内(撮像エリア110内)に存在しないときの時刻とT0とし、被写体120が俯瞰カメラ2の視野内に存在する時刻をT1とする。被写体位置検出部11は、時刻T0,T1におけるエリア111〜114の分割画像を用いた背景差分、特定の色を透過させるクロマキー、または特定の輝度を透過させるルミナンスキーの既知の処理により、被写体120の位置を検出する。
Specifically, the time when the subject 120 does not exist in the field of view of the bird's-eye camera 2 (in the image pickup area 110) and T0 are set, and the time when the subject 120 exists in the field of view of the bird's-
カメラ制御部12は、被写体位置検出部11から被写体120の位置情報を入力し、予め設定された制御テーブル20を用いて、位置情報に基づいてロボットカメラ4の姿勢情報を生成する。制御テーブル20には、被写体120の位置情報及び当該位置情報に対応するロボットカメラ4の姿勢を示すパラメータが格納されている。そして、カメラ制御部12は、姿勢情報をカメラ通信部13に出力する。
The
カメラ通信部13は、カメラ制御部12から姿勢情報を入力し、姿勢情報を含む制御信号を生成し、制御信号をロボットカメラ4へ送信する。これにより、ロボットカメラ4は、制御信号に含まれる姿勢情報に従ってその姿勢を変更し、被写体120を視野内に収めることができる。
The
以下、カメラ制御装置3の処理について、実施例を挙げて具体的に説明する。
Hereinafter, the processing of the
〔実施例1〕
まず、実施例1について説明する。実施例1は、被写体120が撮像エリア110内のエリア111〜114のうちのいずれかに収まって存在する場合の例である。
[Example 1]
First, Example 1 will be described. The first embodiment is an example in which the subject 120 is housed in any one of the
図3は、実施例1の処理例を示すフローチャートであり、図1に示したカメラ制御装置3の処理を示している。図4は、実施例1における撮像エリア110内の被写体120の位置の例を説明する図である。
FIG. 3 is a flowchart showing a processing example of the first embodiment, and shows the processing of the
図4に示すように、被写体120は、撮像エリア110内のエリア111〜114のうちのエリア111に存在しており、エリア112〜114には存在していないものとする。
As shown in FIG. 4, it is assumed that the subject 120 exists in the
カメラ制御装置3の撮像エリア分割部10は、俯瞰カメラ2から撮像映像を入力し(ステップS301)、撮像映像の撮像エリア110をエリア111〜114に分割し、分割画像を抽出する(ステップS302)。
The image pickup
被写体位置検出部11は、エリア111〜114の分割画像から、前述の背景差分等の処理により、被写体120の位置を検出する(ステップS303)。本例の場合、被写体位置検出部11は、被写体120がエリア111に存在することを検出する。そして、被写体位置検出部11は、エリアx=111を含む位置情報を生成する(ステップS304)。
The subject
図5は、実施例1における制御テーブル20−1の構成例を示す図である。この制御テーブル20−1は、エリアx、及び当該エリアxに対応する姿勢を示すパラメータ(姿勢パラメータ)であるパン・チルト値LUT(x)から構成される。パン・チルト値LUT(x)は、エリアxにおけるパン値Pan及びチルト値Tiltからなる。 FIG. 5 is a diagram showing a configuration example of the control table 20-1 in the first embodiment. The control table 20-1 is composed of an area x and a pan / tilt value LUT (x) which is a parameter (posture parameter) indicating a posture corresponding to the area x. The pan / tilt value LUT (x) is composed of a pan value Pan and a tilt value Tilt in the area x.
制御テーブル20−1には、エリアx=111に対応してパン・チルト値LUT(111)=(φ111,θ111)が格納されている。また、エリアx=112に対応してパン・チルト値LUT(112)=(φ112,θ112)、エリアx=113に対応してパン・チルト値LUT(113)=(φ113,θ113)が格納されている。また、エリアx=114に対応してパン・チルト値LUT(114)=(φ114,θ114)が格納されている。 The control table 20-1, the area x = pan-tilt value LUT (111) in response to 111 = (φ 111, θ 111 ) is stored. Further, the pan / tilt value LUT (112) = (φ 112 , θ 112 ) corresponding to the area x = 112, and the pan / tilt value LUT (113) = (φ 113 , θ 113) corresponding to the area x = 113. ) Is stored. Also, the area x = pan-tilt value LUT (114) in response to 114 = (φ 114, θ 114 ) is stored.
図3に戻って、カメラ制御部12は、制御テーブル20−1から、位置情報に含まれるエリアx=111に対応するパン・チルト値LUT(111)=(φ111,θ111)を読み出す(ステップS305)。そして、カメラ制御部12は、パン値φ111及びチルト値θ111を含む姿勢情報を生成する(ステップS306)。
Returning to FIG. 3, the
カメラ通信部13は、姿勢情報のパン値φ111及びチルト値θ111を含む制御信号を生成し、制御信号をロボットカメラ4へ送信する(ステップS307)。
The
これにより、ロボットカメラ4は、制御信号に含まれるパン値φ111及びチルト値θ111に従って姿勢を変更することで、被写体120をその視野内に収めることができる。実施例1のカメラ制御装置3により、ロボットカメラ4の姿勢を制御することができる。
As a result, the
〔実施例1の変形例〕
次に、実施例1の変形例について説明する。実施例1の変形例は、実施例1におけるロボットカメラ4の姿勢に加え、ロボットカメラ4のレンズパラメータであるズーム回転量及びフォーカス回転量も制御する例である。これは、後述する実施例2、実施例2の変形例、実施例3、実施例4及び実施例5にも適用される。
[Modification of Example 1]
Next, a modified example of the first embodiment will be described. The modification of the first embodiment is an example in which, in addition to the posture of the
図6は、実施例1の変形例における制御テーブル20−1’の構成例を示す図である。この制御テーブル20−1’は、エリアx、及び当該エリアxに対応する姿勢パラメータ及びレンズパラメータであるパン・チルト値及びズーム・フォーカス回転量LUT(x)から構成される。レンズパラメータは、ロボットカメラ4に備えたレンズのズーム回転量及びフォーカス回転量である。パン・チルト値及びズーム・フォーカス回転量LUT(x)は、エリアxにおけるパン値Pan、チルト値Tilt、ズーム回転量Zoom及びフォーカス回転量Focusからなる。
FIG. 6 is a diagram showing a configuration example of the control table 20-1'in the modified example of the first embodiment. The control table 20-1'consists of an area x, a pan / tilt value and a zoom / focus rotation amount LUT (x) which are attitude parameters and lens parameters corresponding to the area x. The lens parameters are the zoom rotation amount and the focus rotation amount of the lens provided in the
制御テーブル20−1’には、エリアx=111に対応してパン・チルト値及びズーム・フォーカス回転量LUT(111)=(φ111,θ111,Z111,F111)が格納されている。また、エリアx=112に対応してパン・チルト値及びズーム・フォーカス回転量LUT(112)=(φ112,θ112,Z112,F112)が格納されている。また、エリアx=113に対応してパン・チルト値及びズーム・フォーカス回転量LUT(113)=(φ113,θ113,Z113,F113)が格納されている。また、エリアx=114に対応してパン・チルト値及びズーム・フォーカス回転量LUT(114)=(φ114,θ114,Z114,F114)が格納されている。
The control table 20-1 ', pan-tilt value and zoom focus rotation amount LUT (111) = (φ 111 ,
カメラ制御部12は、制御テーブル20−1’から、位置情報に含まれるエリアx=111に対応するパン・チルト値及びズーム・フォーカス回転量LUT(111)=(φ111,θ111,Z111,F111)を読み出す。そして、カメラ制御部12は、パン値φ111、チルト値θ111、ズーム回転量Z111及びフォーカス回転量F111を含む姿勢レンズ情報を生成する。
The
カメラ通信部13は、姿勢情報のパン値φ111及びチルト値θ111、並びにレンズ情報のズーム回転量Z111及びフォーカス回転量F111を含む制御信号を生成し、制御信号をロボットカメラ4へ送信する。
The
これにより、ロボットカメラ4は、制御信号に含まれるパン値φ111及びチルト値θ111に従って姿勢を変更することで、被写体120をその視野内に収めることができる。また、制御信号に含まれるズーム回転量Z111及びフォーカス回転量F111に従って画像の拡大の程度及び焦点距離を変更することで、被写体120を所望の大きさ及びピントの合った状態で撮影することができる。つまり、実施例1の変形例のカメラ制御装置3により、ロボットカメラ4の姿勢及びレンズを制御することができる。
As a result, the
〔実施例2〕
次に、実施例2について説明する。前述の実施例1は、被写体120がエリア111内に収まっている場合の例であるが、実施例2は、被写体120が撮像エリア110内の全てのエリア111〜114に跨って存在する場合の例である。
[Example 2]
Next, Example 2 will be described. The above-mentioned Example 1 is an example in which the subject 120 is contained in the
実施例2は、被写体120がエリア111だけでなくエリア112〜114にも跨って存在する場合において、シルエット面積制御を行う例である。シルエット面積制御は、被写体120のシルエット面積が最大となる1つのエリアを特定し、特定した1つのエリアに対応する姿勢情報を用いた制御である。
The second embodiment is an example in which the silhouette area is controlled when the subject 120 exists not only in the
図7は、実施例2の処理例を示すフローチャートであり、図1に示したカメラ制御装置3によるシルエット面積制御を示している。図8は、実施例2における撮像エリア110内の被写体120の位置の例を説明する図である。
FIG. 7 is a flowchart showing a processing example of the second embodiment, and shows silhouette area control by the
図8に示すように、被写体120は、撮像エリア110内のエリア111〜114の全てに跨って存在している。エリア111〜114における被写体120のシルエット面積を、それぞれSsubject(111),Ssubject(112),Ssubject(113),Ssubject(114)とする。ここでは、Ssubject(111)>Ssubject(114)>Ssubject(112)=Ssubject(113)とする。
As shown in FIG. 8, the subject 120 exists over all of the
カメラ制御装置3の撮像エリア分割部10は、俯瞰カメラ2から撮像映像を入力し(ステップS701)、撮像映像の撮像エリア110をエリア111〜114に分割し、分割画像を抽出する(ステップS702)。
The image pickup
被写体位置検出部11は、エリア毎に(エリア111〜114のそれぞれについて)、前述の背景差分等の処理により、分割画像から被写体120のシルエット面積Ssubject(x)を求める(ステップS703)。x=111〜114である。
The subject position detection unit 11 obtains the silhouette area S subject (x) of the subject 120 from the divided image by the above-mentioned processing such as background subtraction for each area (for each of the
被写体位置検出部11は、エリア111〜114間でシルエット面積Ssubject(x)を比較する。そして、被写体位置検出部11は、シルエット面積Ssubject(x)の最大のエリアx=111を特定し、エリアx=111を含む位置情報を生成する(ステップS704)。
The subject position detection unit 11 compares the silhouette area S subject (x) between the
カメラ制御部12は、図5に示した制御テーブル20−1から、位置情報に含まれるエリアx=111に対応するパン・チルト値LUT(111)=(φ111,θ111)を読み出す(ステップS705)。そして、カメラ制御部12は、パン値φ111及びチルト値θ111を含む姿勢情報を生成する(ステップS706)。
The
カメラ通信部13は、姿勢情報のパン値φ111及びチルト値θ111を含む制御信号を生成し、制御信号をロボットカメラ4へ送信する(ステップS707)。
The
これにより、ロボットカメラ4は、制御信号に含まれるパン値φ111及びチルト値θ111に従って姿勢を変更することで、被写体120をその視野内に収めることができる。
As a result, the
〔実施例2の変形例〕
次に、実施例2の変形例について説明する。実施例2の変形例は、被写体120がエリア111だけでなくエリア112〜114にも跨って存在する場合において、リスト制御を行う例である。リスト制御は、被写体120のシルエットが存在する1または複数のエリアを特定し、特定した1または複数のエリアに対応する姿勢情報を用いた制御である。
[Modification of Example 2]
Next, a modified example of the second embodiment will be described. The modification of the second embodiment is an example in which the list control is performed when the subject 120 exists not only in the
図9は、実施例2の変形例の処理例を示すフローチャートであり、図1に示したカメラ制御装置3によるリスト制御を示している。
FIG. 9 is a flowchart showing a processing example of the modified example of the second embodiment, and shows the list control by the
カメラ制御装置3の撮像エリア分割部10は、俯瞰カメラ2から撮像映像を入力し(ステップS901)、撮像映像の撮像エリア110をエリア111〜114に分割し、分割画像を抽出する(ステップS902)。
The image pickup
被写体位置検出部11は、エリア111〜114の分割映像から、前述の背景差分等の処理により、図8に示した例のとおり被写体120が存在するエリアx=111,112,113,114を検出する(ステップS903)。そして、被写体位置検出部11は、エリアパターンx’=111,112,113,114を含む位置情報を生成する(ステップS904)。
The subject
図10は、実施例2の変形例における制御テーブル20−2の構成例を示す図である。この制御テーブル20−2は、エリアパターンx’、及び当該エリアパターンx’に対応する姿勢パラメータであるパン・チルト値LUT(x’)から構成される。制御テーブル20−2のエリアパターンx’は、被写体120がエリア111,112,113,114のうちの1以上のエリアに存在し得る全てのパターンである。
FIG. 10 is a diagram showing a configuration example of the control table 20-2 in the modified example of the second embodiment. The control table 20-2 is composed of an area pattern x'and a pan / tilt value LUT (x') which is a posture parameter corresponding to the area pattern x'. The area pattern x'of the control table 20-2 is all patterns in which the subject 120 can exist in one or more of the
制御テーブル20−2には、エリアパターンx’=111に対応してパン・チルト値LUT(111)=(φ111,θ111)が格納されている。また、エリアパターンx’=112に対応してパン・チルト値LUT(112)=(φ112,θ112)が格納されている。同様に、エリアパターンx’=111,112,113,114に対応してパン・チルト値LUT(141)=(φ141,θ141)が格納されている。 The control table 20-2, the area pattern x '= pan-tilt value LUT (111) in response to 111 = (φ 111, θ 111 ) is stored. Further, the pan / tilt value LUT (112) = (φ 112 , θ 112 ) is stored corresponding to the area pattern x'= 112. Similarly, the pan / tilt value LUT (141) = (φ 141 , θ 141 ) is stored corresponding to the area pattern x'= 111, 112, 113, 114.
図9に戻って、カメラ制御部12は、制御テーブル20−2から、位置情報に含まれるエリアパターンx’=111,112,113,114に対応するパン・チルト値LUT(111,112,113,114)=(φ141,θ141)を読み出す(ステップS905)。そして、カメラ制御部12は、パン値φ141及びチルト値θ141を含む姿勢情報を生成する(ステップS906)。
Returning to FIG. 9, the
カメラ通信部13は、姿勢情報のパン値φ141及びチルト値θ141を含む制御信号を生成し、制御信号をロボットカメラ4へ送信する(ステップS907)。
The
これにより、ロボットカメラ4は、制御信号に含まれるパン値φ141及びチルト値θ141に従って姿勢を変更することで、被写体120をその視野内に収めることができる。
As a result, the
〔実施例3〕
次に、実施例3について説明する。実施例3は、被写体120が撮像エリア110内の複数のエリア111〜114に跨って存在する場合において、重み平均制御を行う例である。重み平均制御は、被写体120のシルエットが存在する1または複数のエリアを特定し、特定した1または複数のエリアについて被写体120のシルエットの面積から得られる重み付き平均の姿勢情報を用いた制御である。
[Example 3]
Next, Example 3 will be described. The third embodiment is an example in which the weight averaging control is performed when the subject 120 is present over a plurality of
実施例1,2では、撮像エリア110を4つのエリア111〜114に分割した例を説明した。ここで、撮像エリア110をn個(nは2以上の整数)のエリアに分割した場合には、制御テーブル20に予め格納されるパン・チルト値LUT(x)の数は、nC1+nC2・・・nCn-1+nCnとなる。分割数が多くなると、制御テーブル20に格納されるパン・チルト値LUT(x)の数も多くなり煩雑になる。
In Examples 1 and 2, an example in which the
そこで、実施例3の重み平均制御を行うことにより、制御テーブル20に予め格納されるパン・チルト値LUT(x)の数を少なくし、高精度に、被写体120をロボットカメラ4の視野内に収めるようにした。
Therefore, by performing the weight averaging control of the third embodiment, the number of pan / tilt value LUTs (x) stored in advance in the control table 20 is reduced, and the subject 120 is placed in the field of view of the
図11は、実施例3の処理例を示すフローチャートであり、図1に示したカメラ制御装置3による重み平均制御を示している。
FIG. 11 is a flowchart showing a processing example of the third embodiment, and shows weight averaging control by the
カメラ制御装置3の撮像エリア分割部10は、俯瞰カメラ2から撮像映像を入力し(ステップS1101)、撮像映像の撮像エリア110をエリア111〜114に分割し、分割画像を抽出する(ステップS1102)。
The image pickup
被写体位置検出部11は、エリア毎に(エリア111〜114のそれぞれについて)、前述の背景差分等の処理により、分割画像から被写体120のシルエット面積Ssubject(x)を求める(ステップS1103)。x=111〜114である。
The subject position detection unit 11 obtains the silhouette area S subject (x) of the subject 120 from the divided image by the above-mentioned processing such as background subtraction for each area (for each of the
被写体位置検出部11は、エリアx及びシルエット面積Ssubject(x)を含む位置情報を生成する(ステップS1104)。
The subject
ここで、被写体位置検出部11により求めたエリア111〜114における被写体120のシルエット面積は、それぞれSsubject(111),Ssubject(112),Ssubject(113),Ssubject(114)である。
Here, the silhouette areas of the subject 120 in the
カメラ制御部12は、図5に示した制御テーブル20−1から、位置情報に含まれるエリアxのパン・チルト値LUT(x)を読み出す(ステップS1105)。そして、カメラ制御部12は、パン・チルト値LUT(x)について、位置情報に含まれるエリア毎のシルエット面積Ssubject(x)による重み付き平均を算出し、パン値φ及びチルト値θを求める(ステップS1106)。シルエット面積Ssubject(x)による重み付き平均とは、被写体120の全体のシルエット面積に対するエリアxのシルエット面積Ssubject(x)の比率を重みとして、パン・チルト値LUT(x)の重み付き平均を求める処理である。
The
カメラ制御部12は、パン値φ及びチルト値θを含む姿勢情報を生成する(ステップS1107)。
The
具体的には、カメラ制御部12は、位置情報に含まれるエリアx=111等に対応するパン・チルト値LUT(111)=(φ111,θ111)等を読み出す。同様に、カメラ制御部12は、パン・チルト値LUT(112)=(φ112,θ112),LUT(113)=(φ113,θ113),LUT(114)=(φ114,θ114)を読み出す。
Specifically, the
カメラ制御部12は、以下の式(1)に基づいて、位置情報に含まれるシルエット面積Ssubject(x)によるパン・チルト値LUT(x)の重み付き平均を算出し、パン値φ及びチルト値θを求める。尚、カメラ制御部12は、以下の式(2)を用いて、パン値φ及びチルト値θを求めるようにしてもよい。
カメラ通信部13は、姿勢情報のパン値φ及びチルト値θを含む制御信号を生成し、制御信号をロボットカメラ4へ送信する(ステップS1108)。
The
これにより、ロボットカメラ4は、制御信号に含まれるパン値φ及びチルト値θに従って姿勢を変更することで、被写体120をその視野内に収めることができる。この場合、カメラ制御部12は、シルエット面積Ssubject(x)による重み付き平均を算出し、パン値φ及びチルト値θを求めるようにしたから、制御テーブル20−1のパン・チルト値LUT(x)の数を多くする必要がない。つまり、少ない数のパン・チルト値LUT(x)を用いて、精度の高い姿勢制御を実現することができる。
As a result, the
尚、カメラ制御部12は、シルエット面積Ssubject(x)による重み付き平均を算出するようにしたが、エリア内の被写体120を除いた面積Sarea(x)による重み付き平均を算出するようにしてもよい。 The camera control unit 12 calculates the weighted average based on the silhouette area S subject (x), but calculates the weighted average based on the area S area (x) excluding the subject 120 in the area. You may.
具体的には、カメラ制御部12は、エリアxの面積から、位置情報に含まれるエリアxのシルエット面積Ssubject(x)を減算し、エリアx内の被写体120以外の面積Sarea(x)を求める。そして、カメラ制御部12は、制御テーブル20−1から、位置情報に含まれるエリアxのパン・チルト値LUT(x)を読み出す。
Specifically, the camera control unit 12 subtracts the silhouette area S subject (x) of the area x included in the position information from the area of the area x, and the area S area (x) other than the subject 120 in the area x. Ask for. Then, the
カメラ制御部12は、以下の式(3)に基づいて、エリアx内の被写体120以外の面積Sarea(x)によるパン・チルト値LUT(x)の重み付き平均を算出し、パン値φ及びチルト値θを求める。尚、カメラ制御部12は、以下の式(4)を用いて、パン値φ及びチルト値θを求めるようにしてもよい。
〔実施例4〕
次に、実施例4について説明する。ロボットカメラ4の制御を高精度に行うためには、撮像エリア110をより細かく区分し、それぞれのエリアに対応するパン・チルト値LUT(x)が格納された制御テーブル20を用いればよい。
[Example 4]
Next, Example 4 will be described. In order to control the
実施例4は、実施例1、実施例1の変形例、実施例2、実施例2の変形例及び実施例3において、撮像エリア110内を一層細かく区切った複数のエリアを用いることにより、ロボットカメラ4の制御を高精度に行う例である。
In the fourth embodiment, the robot is used by using a plurality of areas in the
前述したとおり、カメラ制御装置3の撮像エリア分割部10は、予め設定された規則に従い、図2に示したとおり、撮像エリア110の画像を4つのエリア111〜114の画像に分割する。実施例4では、撮像エリア分割部10は、予め設定された規則に従い、撮像エリア110の画像をさらに細かく分割する。
As described above, the image pickup
図12は、実施例4において、ロボットカメラの位置及びエリア区分の例を説明する図である。(1)〜(3)において、撮像エリア110の中心を原点とし、原点からロボットカメラ4の設置位置を通る線を始線として、撮像エリア110の平面上の点は、原点からの距離r及び始線からの偏角δの極座標(r,δ)で表される。
FIG. 12 is a diagram illustrating an example of the position and area division of the robot camera in the fourth embodiment. In (1) to (3), the center of the
この極座標(r,δ)のパラメータである距離r及び偏角δに応じて、撮像エリア110が画像を(1)〜(3)のそれぞれに示すエリアに分割するための規則が定義される。撮像エリア分割部10は、予め設定された規則に従い、(1)〜(3)のとおり、撮像エリア110の画像を、極座標にて区分された複数のエリアに分割する。撮像エリア分割部10により分割される複数のエリアは、撮像エリア110が極座標により区分された領域である。
A rule is defined for the
(1)の規則は、撮像エリア110において、極座標(r,δ)のパラメータである距離r及び偏角δを一定間隔として、エリアが距離r及び偏角δに応じた疎密となるように区分するものである。(1)の規則では、細かいエリアの区分が可能であり、制御テーブル20に格納されるパン・チルト値LUT(x)の個数は増えるが、高精度にロボットカメラ4を制御することができる。
The rule (1) is that in the
(2)の規則は、撮像エリア110の中央付近が疎のエリアとなり、中央付近以外の領域が密のエリアとなるように区分するものである。(2)の規則では、被写体120よりも高い俯瞰位置に設置されたロボットカメラ4を用いる場合に好適である。ロボットカメラ4により高い位置で被写体120が俯瞰されるため、中央付近のエリアではパン値及びチルト値の変化が少なくなり、当該エリアを疎にすることができる。
The rule (2) divides the
(3)の規則は、撮像エリア110において、ロボットカメラ4に近い領域が疎のエリアとなり、ロボットカメラ4から遠い領域が密のエリアとなるように区分するものであり、ロボットカメラ4の手前及び奥で異なる区分とすることができる。被写体120のサイズを手前及び奥で同程度にする場合を想定すると、手前は広い画角となるため、エリア数が少なくて済み、奥は狭い画角となるため、エリア数は多くしてその面積を狭くする必要がある。つまり、ロボットカメラ4の手前では、エリア数を少なくした姿勢制御が行われ、奥では、エリア数を多くした精度の高い姿勢制御が行われ、結果として、ロボットカメラ4の制御を、手前及び奥の領域に応じて好適に実現することができる。
The rule (3) divides the
図13は、実施例4における撮像環境、ロボットカメラの位置及びエリア区分の例を説明する図であり、図12に示したエリア区分とは異なる例を示している。ロボットカメラ4は、被写体120よりも高い俯瞰位置に設置されている。
FIG. 13 is a diagram illustrating an example of the imaging environment, the position of the robot camera, and the area division in the fourth embodiment, and shows an example different from the area division shown in FIG. The
この規則は、図13の右側に示すように、撮像エリア110において、エリアがロボットカメラ4の光軸と垂直となるように区分するものである。撮像エリア分割部10は、予め設定された規則に従い、撮像エリア110の画像を、ロボットカメラ4の光軸に対して垂直方向に分割する。
As shown on the right side of FIG. 13, this rule divides the
この規則では、ロボットカメラ4が高い位置から被写体120を俯瞰するため、チルト方向の動作が重要になる。そこで、エリアがロボットカメラ4の光軸と垂直となるように区分されることで、チルト方向の動作を精度高く実現することができる。
In this rule, since the
尚、ロボットカメラ4が被写体120と同じ高さに設置されている場合には、規則としては、撮像エリア110において、エリアがロボットカメラ4の光軸と平行となるように区分するものが望ましい。この場合、撮像エリア分割部10は、予め設定された規則に従い、撮像エリア110の画像を、ロボットカメラ4の光軸に対して水平方向に分割する。
When the
例えば被写体120が人の場合、上下方向の動きは、ジャンプ、屈伸等に限定されるが、左右方向の動きは、ステージ115上の端から端までとなる。上下方向の動きは、ロボットカメラ4の画角を広くすることで対応できるが、左右方向の動きも、画角を広くすることで対応する場合、被写体120が小さくなってしまう。
For example, when the subject 120 is a person, the vertical movement is limited to jumping, bending and stretching, etc., but the horizontal movement is from one end to the other on the
このため、この規則では、ロボットカメラ4は、パン方向の動作が重要となる。そこで、エリアがロボットカメラ4の光軸と平行となるように区分されることで、パン方向の動作を精度高く実現することができる。
Therefore, in this rule, it is important for the
また、撮像エリア110が横に長い形状の場合も同様に、規則としては、撮像エリア110において、エリアがロボットカメラ4の光軸と平行となるように区分するものが望ましい。
Similarly, when the
〔実施例5〕
次に、実施例5について説明する。実施例5は、実施例1、実施例1の変形例、実施例2、実施例2の変形例、実施例3及び実施例4において、複数のロボットカメラ4を用いた場合の例である。
[Example 5]
Next, Example 5 will be described. Example 5 is an example in which a plurality of
(分割時の規則)
被写体120を取り囲むように複数のロボットカメラ4が空間上に設置されている場合には、複数のロボットカメラ4のそれぞれに対応して、予め設定された規則に従い、撮像エリア110が所定数及び所定形状のエリアに区分される。尚、複数のロボットカメラ4に共通して、撮像エリア110が同じ数及び同じ形状の共通のエリアに区分されるようにしてもよい。
(Rules for division)
When a plurality of
具体的には、カメラ制御装置3の撮像エリア分割部10は、複数のロボットカメラ4のそれぞれに対応して、予め設定された規則に従い、撮像映像における撮像エリア110の画像を分割する。これにより、複数のロボットカメラ4のそれぞれに対応して、所定数の分割画像が抽出される。
Specifically, the image pickup
図14は、実施例5において、ロボットカメラ4の位置及びエリア区分の例を説明する図である。(1)及び(2)において、2台のロボットカメラ4−1,4−2は、これらの光軸が直角に交差する位置に設置されている場合を示している。
FIG. 14 is a diagram illustrating an example of the position and area division of the
(1)を参照して、ロボットカメラ4−1に対応する規則は、撮像エリア110において、ロボットカメラ4−1の光軸に対して垂直方向に区分するものである(撮像エリア110内の太線を参照)。撮像エリア分割部10は、ロボットカメラ4−1に対応する予め設定された規則に従い、撮像エリア110の画像を、ロボットカメラ4−1の光軸に対して垂直方向に分割する。
With reference to (1), the rule corresponding to the robot camera 4-1 is to divide the
また、ロボットカメラ4−2に対応する規則は、撮像エリア110において、ロボットカメラ4−2の光軸に対して垂直方向に区分するものである(撮像エリア110内の細線を参照)。撮像エリア分割部10は、ロボットカメラ4−2に対応する予め設定された規則に従い、撮像エリア110の画像を、ロボットカメラ4−2の光軸に対して垂直方向に分割する。
Further, the rule corresponding to the robot camera 4-2 divides the
(2)を参照して、ロボットカメラ4−1に対応する規則は、撮像エリア110において、ロボットカメラ4−1の光軸に対して水平方向に区分するものである(撮像エリア110内の太線を参照)。撮像エリア分割部10は、ロボットカメラ4−1に対応する予め設定された規則に従い、撮像エリア110の画像を、ロボットカメラ4−1の光軸に対して水平方向に分割する。
With reference to (2), the rule corresponding to the robot camera 4-1 is to divide the
また、ロボットカメラ4−2に対応する規則は、撮像エリア110において、極座標(r,δ)のパラメータである距離r及び偏角δを一定間隔として、エリアが距離r及び偏角δに応じた疎密となるように区分するものである(撮像エリア110内の細線を参照)。撮像エリア分割部10は、ロボットカメラ4−2に対応する予め設定された規則に従い、撮像エリア110の画像を、極座標(r,δ)方向に分割する。
Further, the rule corresponding to the robot camera 4-2 is that in the
尚、複数のロボットカメラ4に共通した予め設定された規則に従い、撮像エリア110が同じ数及び同じ形状の共通するエリアに区分されるようにしてもよい。
It should be noted that the
(制御テーブル20)
また、複数のロボットカメラ4が空間上に設置されている場合には、複数のロボットカメラ4のそれぞれに対応して、異なる制御テーブル20を用いるようにしてもよい。
(Control table 20)
Further, when a plurality of
この場合、カメラ制御部12は、複数のロボットカメラ4のそれぞれに対応して、複数の(ロボットカメラ4の数分の)制御テーブル20を保持している。カメラ制御部12は、複数のロボットカメラ4のそれぞれについて、被写体位置検出部11から被写体120の位置情報を入力し、対応する制御テーブル20を用いて、位置情報に基づきロボットカメラ4の姿勢情報を求める。
In this case, the
カメラ通信部13は、複数のロボットカメラ4のそれぞれについて、カメラ制御部12から姿勢情報を入力し、姿勢情報を含む制御信号を生成し、制御信号を対応するロボットカメラ4へ送信する。
The
尚、複数のロボットカメラ4のうちの1台に対応する1つの制御テーブル20のみを用いるようにしてもよい。
It should be noted that only one control table 20 corresponding to one of the plurality of
具体的には、カメラ制御部12は、所定の1台のロボットカメラ4に対応する制御テーブル20を保持している。カメラ制御部12は、当該制御テーブル20に格納されたパン・チルト値LUT(x)、並びに複数のロボットカメラ4における位置及び姿勢の関係に基づいて、他のロボットカメラ4に対応するパン・チルト値LUT(x)を算出する。そして、カメラ制御部12は、他のロボットカメラ4に対応する制御テーブル20を生成する。カメラ制御部12は、複数のロボットカメラ4のそれぞれについて、対応する制御テーブル20を用いて、それぞれの姿勢情報を生成する。
Specifically, the
この場合、カメラ制御部12は、所定の1台のロボットカメラ4について、当該制御テーブル20を用いて姿勢情報を生成し、当該1台のロボットカメラ4の姿勢情報を、他のロボットカメラ4の姿勢情報に変換するようにしてもよい。具体的には、カメラ制御部12は、1台のロボットカメラ4の姿勢情報、並びに複数のロボットカメラ4における位置及び姿勢の関係に基づいて、他のロボットカメラ4の姿勢情報を生成する。
In this case, the
図15は、2台のロボットカメラ4−1,4−2が空間上に設置されている場合に、1つの制御テーブル20を用いて2台のロボットカメラ4−1,4−2の姿勢情報を生成する処理を説明する図である。以下、カメラ制御部12が、1つの制御テーブル20を用いてロボットカメラ4−1の姿勢情報を生成し、ロボットカメラ4−1の姿勢情報から、所定の数式を用いてロボットカメラ4−2の姿勢情報を生成する処理について説明する。
FIG. 15 shows the posture information of the two robot cameras 4-1 and 4-2 using one control table 20 when the two robot cameras 4-1 and 4-2 are installed in the space. It is a figure explaining the process of generating. Hereinafter, the
任意の方向ベクトルについて、座標系Σ(a)における各成分を座標系Σ(b)における各成分に変換する回転行列をRa (b)とする。また、座標系Σ(a)におけるベクトルには上付きにて(a)を付す。撮像エリア110に固定した座標系を世界座標系Σ(W)とする。ここでは、撮像エリア110の床面に第1軸X及び第2軸Yをとり、鉛直上向きに第3軸Zをとる。尚、断りのない限り、全ての座標系は右手系を成すものとする。
For an arbitrary direction vector, let R a (b) be a rotation matrix that transforms each component in the coordinate system Σ (a) into each component in the coordinate system Σ (b). Further, the vector in the coordinate system Σ (a) is superscripted with (a). The coordinate system fixed to the
また、ロボットカメラ4−1に固定した座標系を第一カメラ座標系Σ(c1)とし(実線)、ロボットカメラ4−1のパン角φ1及びチルト角θ1が共に0のときの第一カメラ座標系Σ(c1)を第一基準カメラ座標系Σ(n1)とする(破線)。尚、以下では第一カメラ座標系Σ(c1)と第一基準カメラ座標系Σ(n1)の両原点は一致するものとする。 Further, the coordinate system fixed to the robot camera 4-1 is set as the first camera coordinate system Σ (c1) (solid line), and the first when both the pan angle φ 1 and the tilt angle θ 1 of the robot camera 4-1 are 0. Let the camera coordinate system Σ (c1) be the first reference camera coordinate system Σ (n1) (broken line). In the following, it is assumed that the origins of the first camera coordinate system Σ (c1) and the first reference camera coordinate system Σ (n1) are the same.
例えば、世界座標系Σ(W)に対する第一基準カメラ座標系Σ(n1)の姿勢をXYZ−オイラー角(α1,β1,γ1)で表した場合、回転行列Rn1 (w)は、以下の式にて表される。
また、ロボットカメラ4−1のパン軸が第一カメラ座標系Σ(c1)の第2軸であり、チルト軸が第一カメラ座標系Σ(c1)の第1軸である場合、回転行列Rc1 (n1)は、以下の式にて表される。
さらに、ロボットカメラ4−2に固定した座標系を第二カメラ座標系Σ(c2)とし(実線)、ロボットカメラ4−2のパン値φ2及びチルト値θ2が共に0のときの第二カメラ座標系Σ(c2)を第二基準カメラ座標系Σ(n2)とする(破線 )。尚、ロボットカメラ4−2のパン軸は第二カメラ座標系Σ(c2)の第2軸であり、チルト軸は第二カメラ座標系Σ(c2)の第1軸であるものとする。また、以下では第二カメラ座標系Σ(c2)と第二基準カメラ座標系Σ(n2)の両原点は一致するものとする。 Further, the coordinate system fixed to the robot camera 4-2 is set as the second camera coordinate system Σ (c2) (solid line), and the second when both the pan value φ 2 and the tilt value θ 2 of the robot camera 4-2 are 0. Let the camera coordinate system Σ (c2) be the second reference camera coordinate system Σ (n2) (broken line). It is assumed that the pan axis of the robot camera 4-2 is the second axis of the second camera coordinate system Σ (c2) , and the tilt axis is the first axis of the second camera coordinate system Σ (c2) . In the following, it is assumed that the origins of the second camera coordinate system Σ (c2) and the second reference camera coordinate system Σ (n2) are the same.
例えば、世界座標系Σ(W)に対する第二基準カメラ座標系Σ(n2)の姿勢をXYZ−オイラー角(α2,β2,γ2)で表した場合、回転行列Rw (n2)は、以下の式にて表される。
世界座標系Σ(W)の原点Oからロボットカメラ4−1の位置(すなわち第一カメラ座標系Σ(c1)の原点)に至るベクトルをT1 (W)とする。また、世界座標系Σ(W)の原点Oからロボットカメラ4−2の位置(すなわち第二カメラ座標系Σ(c2)の原点)に至るベクトルをT2 (W)とする。 Let T 1 (W) be a vector from the origin O of the world coordinate system Σ (W) to the position of the robot camera 4-1 (that is, the origin of the first camera coordinate system Σ (c1)). Further, let T 2 (W) be a vector from the origin O of the world coordinate system Σ (W) to the position of the robot camera 4-2 (that is, the origin of the second camera coordinate system Σ (c2)).
カメラ制御部12により、ロボットカメラ4−1に対応する制御テーブル20を用いてロボットカメラ4−1の姿勢情報であるパン値φ111及びチルト値θ111が求められたとする。ロボットカメラ4−1がパン値φ111及びチルト値θ111において制御されたとき、ロボットカメラ4−1が撮像エリア110のどこを撮像しているかを求める。
It is assumed that the camera control unit 12 obtains the pan value φ 111 and the tilt value θ 111, which are the attitude information of the robot camera 4-1 using the control table 20 corresponding to the robot camera 4-1. When the robot camera 4-1 is controlled at the pan value φ 111 and the tilt value θ 111 , it is determined where in the
例えば、ロボットカメラ4−1がパン値φ111及びチルト値θ111のときの光軸が撮像エリア110の床面と交差する点Pを求めればよい。ロボットカメラ4−1の光軸の単位方向ベクトルを
とする。例えば、光軸が第一カメラ座標系Σ(c1)の第3軸と平行である場合には、以下の式にて表される。
For example, the point P where the optical axis when the robot camera 4-1 has the pan value φ 111 and the tilt value θ 111 intersects the floor surface of the
And. For example, when the optical axis is parallel to the third axis of the first camera coordinate system Σ (c1) , it is expressed by the following equation.
ロボットカメラ4−1の位置を点R1とする。このとき、以下の式にて表される。
ここで、点Pは撮像エリア110の床面にあることから、ベクトル
の第3成分は零である。つまり、以下の式にて表される。
The third component of is zero. That is, it is expressed by the following equation.
したがって、以下の式により、係数λが決定される。
次に、ロボットカメラ4−2を向けるべき方向、すなわち光軸の方向を求める。ロボットカメラ4−2の位置を点R2とすると、光軸はベクトル
と重なるべきであり、以下の式が成立する。
Should overlap, and the following equation holds.
前記式(9)、前記式(11)及び前記式(12)から、以下の式により、視線方向のベクトル
を定めることができる。
Can be determined.
前記式(13)を前記式(7)にて座標変換すると、以下の式で表される。
このようにして得られたベクトル
の各成分を、以下の式で表す。
Each component of is expressed by the following formula.
このとき、ロボットカメラ4−2を向けるべきパン値φ’111及びチルト値θ’111は、以下の式にて表される。
このように、カメラ制御部12は、所定の1台のロボットカメラ4−1について、当該制御テーブル20を用いて姿勢情報を生成し、当該姿勢情報から、前記式(16)を用いて、他のロボットカメラ4−2の姿勢情報を算出する。
As described above, the
ここで、前記式(16)の代わりに、1台のロボットカメラ4−1の姿勢情報及び他のロボットカメラ4−2の姿勢情報からなるテーブルを用いるようにしてもよい。具体的には、カメラ制御部12は、所定の1台のロボットカメラ4−1について、当該制御テーブル20を用いて姿勢情報を生成し、前記テーブルから、1台のロボットカメラ4−1に姿勢情報に対応する他のロボットカメラ4−2の姿勢情報を読み出す。これにより、1台のロボットカメラ4−1の姿勢情報から、他のロボットカメラ4−2の姿勢情報を生成することができる。
Here, instead of the above equation (16), a table including posture information of one robot camera 4-1 and posture information of another robot camera 4-2 may be used. Specifically, the
また、前記式(16)を用いる代わりに、他のロボットカメラ4−2に対応する制御テーブル20’を予め設定しておき、当該制御テーブル20’を用いるようにしてもよい。具体的には、カメラ制御部12は、事前に、所定の1台のロボットカメラ4−1に対応する制御テーブル20に格納されたパン・チルト値LUT(x)から、前記式(16)を用いて、他のロボットカメラ4−2のパン・チルト値LUT(x)を算出する。そして、カメラ制御部12は、他のロボットカメラ4−2のパン・チルト値LUT(x)を用いて、他のロボットカメラ4−2に対応する制御テーブル20’を設定しておく。カメラ制御部12は、複数のロボットカメラ4−1,4−2について、対応する制御テーブル20,20’を用いて姿勢情報をそれぞれ生成する。尚、3台以上のロボットカメラ4についても同様の処理を用いることができる。
Further, instead of using the above equation (16), a control table 20'corresponding to another robot camera 4-2 may be set in advance and the control table 20' may be used. Specifically, the
以上のように、実施例1、実施例1の変形例、実施例2、実施例2の変形例、実施例3、実施例4及び実施例5のカメラ制御装置3によれば、撮像エリア分割部10は、予め設定された規則に従い、撮像映像における撮像エリア110の画像を、所定数及び所定形状の複数のエリアの画像(分割画像)に分割する。
As described above, according to the
被写体位置検出部11は、複数の分割画像から被写体120を検出し、被写体120の位置等を含む位置情報を生成する。
The subject
カメラ制御部12は、制御テーブル20を用いて、位置情報に基づいてロボットカメラ4の姿勢情報等を求める。
The
カメラ通信部13は、姿勢情報等を含む制御信号を生成し、制御信号をロボットカメラ4へ送信する。
The
これにより、ロボットカメラ4は、制御信号に含まれる姿勢情報等に従って動作する。したがって、外部から得られる位置情報を用いることなく被写体120の位置を検出することができ、被写体120を常にロボットカメラ4の視野内に収めることができる。
As a result, the
また、予め設定された制御テーブル20を用いて姿勢情報が生成されるため、ロボットカメラ4の自動制御において演算量を少なくすることができ、高速な制御を実現することができる。
Further, since the posture information is generated using the preset control table 20, the amount of calculation can be reduced in the automatic control of the
以上、実施例1等を挙げて本発明を説明したが、本発明は前記実施例1等に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。 Although the present invention has been described above with reference to Example 1 and the like, the present invention is not limited to the above-mentioned Example 1 and the like, and can be variously modified without departing from the technical idea.
尚、本発明の実施例1等によるカメラ制御装置3のハードウェア構成としては、通常のコンピュータを使用することができる。カメラ制御装置3は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。
As the hardware configuration of the
カメラ制御装置3に備えた撮像エリア分割部10、被写体位置検出部11、カメラ制御部12及びカメラ通信部13の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。
Each function of the image pickup
これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。 These programs are stored in the storage medium, read by the CPU, and executed. In addition, these programs can be stored and distributed in storage media such as magnetic disks (floppy (registered trademark) disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), semiconductor memories, etc., and can be distributed via a network. You can also send and receive.
1 撮像システム
2 俯瞰カメラ
3 カメラ制御装置
4 ロボットカメラ
10 撮像エリア分割部
11 被写体位置検出部
12 カメラ制御部
13 カメラ通信部
20 制御テーブル
110 撮像エリア
111,112,113,114 エリア
115 ステージ
116 取付用部材
120 被写体
1
Claims (9)
俯瞰カメラにより撮影された撮像エリア内の被写体を含む撮像映像を入力し、予め設定された規則に従い、前記撮像エリアを複数のエリアに分割することで、前記撮像映像の画像から、前記複数のエリアのそれぞれに対応する分割画像を抽出する撮像エリア分割部と、
前記撮像エリア分割部により抽出された前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記複数のエリアから前記被写体が存在する1つのエリアを検出し、前記1つのエリアを含む位置情報を生成する被写体位置検出部と、
前記複数のエリアのそれぞれに対応して、前記カメラの姿勢を示すパラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記被写体位置検出部により生成された前記位置情報に含まれる前記1つのエリアに対応する前記パラメータを読み出し、前記パラメータを含む姿勢情報を生成するカメラ制御部と、
前記カメラ制御部により生成された前記姿勢情報を含む制御信号を、前記カメラへ送信するカメラ通信部と、
を備えたことを特徴とするカメラ制御装置。 In the camera control device that controls the posture of the camera
By inputting a captured image including a subject in the imaging area captured by the bird's-eye view camera and dividing the imaging area into a plurality of areas according to a preset rule, the plurality of areas can be obtained from the image of the captured image. An imaging area division unit that extracts the divided images corresponding to each of the above,
Based on the divided image corresponding to each of the plurality of areas extracted by the imaging area division unit, one area in which the subject exists is detected from the plurality of areas, and the position information including the one area is detected. The subject position detector that generates
A control table in which parameters indicating the posture of the camera are stored is held corresponding to each of the plurality of areas, and the 1 is included in the position information generated by the subject position detection unit from the control table. A camera control unit that reads out the parameters corresponding to one area and generates posture information including the parameters.
A camera communication unit that transmits a control signal including the attitude information generated by the camera control unit to the camera.
A camera control device characterized by being equipped with.
前記カメラ制御部は、
前記複数のエリアのそれぞれに対応して、前記カメラの姿勢に加え、前記カメラのレンズのズーム回転量及びフォーカス回転量を示すパラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記位置情報に含まれる前記1つのエリアに対応する前記パラメータを読み出す、ことを特徴とするカメラ制御装置。 In the camera control device according to claim 1,
The camera control unit
A control table is held in which parameters indicating the zoom rotation amount and the focus rotation amount of the lens of the camera are stored in addition to the posture of the camera corresponding to each of the plurality of areas, and the position from the control table. A camera control device for reading out the parameter corresponding to the one area included in the information.
前記被写体位置検出部は、
前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記複数のエリアのそれぞれについて前記被写体のシルエット面積を検出し、前記シルエット面積が最大の前記1つのエリアを特定し、前記1つのエリアを含む位置情報を生成する、ことを特徴とするカメラ制御装置。 In the camera control device according to claim 1 or 2.
The subject position detection unit is
Based on the divided image corresponding to each of the plurality of areas, the silhouette area of the subject is detected for each of the plurality of areas, the one area having the largest silhouette area is specified, and the one area is specified. A camera control device characterized in that it generates location information including.
前記被写体位置検出部は、
前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記被写体が存在する1つまたは複数のエリアを検出し、前記1つまたは複数のエリアを示すエリアパターンを含む位置情報を生成し、
前記カメラ制御部は、
前記被写体が存在し得る1つのエリア及び複数のエリアを示す全てのエリアパターンのそれぞれに対応して、前記パラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記被写体位置検出部により生成された前記位置情報に含まれる前記エリアパターンに対応する前記パラメータを読み出す、ことを特徴とするカメラ制御装置。 In the camera control device according to claim 1 or 2.
The subject position detection unit is
Based on the divided image corresponding to each of the plurality of areas, one or a plurality of areas in which the subject exists are detected, and position information including an area pattern indicating the one or a plurality of areas is generated.
The camera control unit
A control table in which the parameters are stored is held corresponding to each of one area in which the subject may exist and all area patterns indicating a plurality of areas, and is generated from the control table by the subject position detection unit. A camera control device, characterized in that the parameter corresponding to the area pattern included in the position information is read out.
前記被写体位置検出部は、
前記複数のエリアのそれぞれに対応する前記分割画像に基づいて、前記複数のエリアのそれぞれについて前記被写体のシルエット面積を検出し、前記エリア及び前記エリアのシルエット面積を含む位置情報を生成し、
前記カメラ制御部は、
前記複数のエリアのそれぞれに対応して、前記パラメータが格納された制御テーブルを保持し、前記制御テーブルから、前記被写体位置検出部により生成された前記位置情報に含まれる前記エリアに対応する前記パラメータを読み出し、前記パラメータについて、前記被写体の全体のシルエット面積に対する前記エリアのシルエット面積の重み付き平均を求め、前記重み付き平均の前記パラメータを含む前記姿勢情報を生成する、ことを特徴とするカメラ制御装置。 In the camera control device according to claim 1 or 2.
The subject position detection unit is
Based on the divided image corresponding to each of the plurality of areas, the silhouette area of the subject is detected for each of the plurality of areas, and the position information including the area and the silhouette area of the area is generated.
The camera control unit
A control table in which the parameters are stored is held corresponding to each of the plurality of areas, and the parameters corresponding to the areas included in the position information generated by the subject position detection unit from the control table. Is read out, and for the parameter, the weighted average of the silhouette area of the area with respect to the total silhouette area of the subject is obtained, and the posture information including the parameter of the weighted average is generated. Device.
前記撮像エリアの中心を原点とし、前記原点から前記カメラの設置位置を通る線を始線として、前記撮像エリアの平面上の点が、前記原点からの距離r及び前記始線からの偏角δの極座標(r,δ)で表されるものとして、
前記撮像エリア分割部により分割される前記複数のエリアを、前記極座標にて、または前記カメラの光軸に水平方向若しくは垂直方向にて、前記撮像エリアが区分された領域とする、ことを特徴とするカメラ制御装置。 The camera control device according to any one of claims 1 to 5.
With the center of the imaging area as the origin and the line passing from the origin to the installation position of the camera as the starting line, points on the plane of the imaging area are the distance r from the origin and the deviation angle δ from the starting line. As represented by the polar coordinates (r, δ) of
The plurality of areas divided by the image pickup area dividing portion are defined as areas in which the image pickup area is divided at the polar coordinates or in the horizontal or vertical direction with respect to the optical axis of the camera. Camera control device.
当該カメラ制御装置は、複数のカメラを制御し、
前記カメラ制御部は、
前記複数のカメラのそれぞれについて、前記制御テーブルを保持し、前記複数のカメラのそれぞれについて、対応する前記制御テーブルを用いて前記姿勢情報を生成し、
前記カメラ通信部は、
前記カメラ制御部により生成された前記姿勢情報を含む制御信号を、対応する前記複数のカメラのそれぞれへ送信する、ことを特徴とするカメラ制御装置。 The camera control device according to any one of claims 1 to 6.
The camera control device controls multiple cameras and
The camera control unit
The control table is held for each of the plurality of cameras, and the posture information is generated for each of the plurality of cameras using the corresponding control table.
The camera communication unit
A camera control device comprising transmitting a control signal including the posture information generated by the camera control unit to each of the plurality of corresponding cameras.
当該カメラ制御装置は、複数のカメラを制御し、
前記カメラ制御部は、
前記複数のカメラのうちのいずれか1つのカメラについて、前記制御テーブルを保持し、前記1つのカメラについて、前記制御テーブルを用いて前記姿勢情報を生成し、前記姿勢情報、並びに前記1つのカメラと前記複数のカメラのうちの他のカメラとの間の位置及び姿勢の関係に基づいて、前記他のカメラの前記姿勢情報を生成し、
前記カメラ通信部は、
前記カメラ制御部により生成された前記姿勢情報を含む制御信号を、対応する前記複数のカメラのそれぞれへ送信する、ことを特徴とするカメラ制御装置。 The camera control device according to any one of claims 1 to 6.
The camera control device controls multiple cameras and
The camera control unit
The control table is held for any one of the plurality of cameras, the posture information is generated for the one camera using the control table, the posture information, and the one camera. Based on the position and posture relationship between the plurality of cameras and the other cameras, the posture information of the other cameras is generated.
The camera communication unit
A camera control device comprising transmitting a control signal including the posture information generated by the camera control unit to each of the plurality of corresponding cameras.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020100516A JP2021197572A (en) | 2020-06-09 | 2020-06-09 | Camera control apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020100516A JP2021197572A (en) | 2020-06-09 | 2020-06-09 | Camera control apparatus and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021197572A true JP2021197572A (en) | 2021-12-27 |
Family
ID=79196140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020100516A Pending JP2021197572A (en) | 2020-06-09 | 2020-06-09 | Camera control apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021197572A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115225931A (en) * | 2022-07-29 | 2022-10-21 | 深圳盈天下视觉科技有限公司 | Live broadcasting method, device and system |
-
2020
- 2020-06-09 JP JP2020100516A patent/JP2021197572A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115225931A (en) * | 2022-07-29 | 2022-10-21 | 深圳盈天下视觉科技有限公司 | Live broadcasting method, device and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107836012B (en) | Projection image generation method and device, and mapping method between image pixel and depth value | |
CN107438173B (en) | Video processing apparatus, video processing method, and storage medium | |
JP6622503B2 (en) | Camera model parameter estimation apparatus and program thereof | |
JP6062039B2 (en) | Image processing system and image processing program | |
JP2011179908A (en) | Three-dimensional measurement apparatus, method for processing the same, and program | |
JP2018056971A5 (en) | ||
JP5035467B2 (en) | Three-dimensional authentication method, three-dimensional authentication device, and three-dimensional authentication program | |
JP2019190974A (en) | Calibration device, calibration method and program | |
JP2007304801A (en) | Solidity authenticating method, solidity authenticating apparatus, and solidity authenticating program | |
JP5525495B2 (en) | Image monitoring apparatus, image monitoring method and program | |
CN107809610A (en) | Camera parameter set calculating apparatus, camera parameter set calculation method and program | |
CN108028904A (en) | The method and system of light field augmented reality/virtual reality in mobile equipment | |
JP2017090420A (en) | Three-dimensional information restoration device and three-dimensional information restoration method | |
JP2018173882A (en) | Information processing device, method, and program | |
JP2021197572A (en) | Camera control apparatus and program | |
JP4227037B2 (en) | Imaging system and calibration method | |
JP4914870B2 (en) | Congestion degree measuring device, congestion degree measuring method, congestion degree measuring program, and recording medium recording the program | |
CN112514366A (en) | Image processing method, image processing apparatus, and image processing system | |
JP6154759B2 (en) | Camera parameter estimation apparatus, camera parameter estimation method, and camera parameter estimation program | |
WO2010089938A1 (en) | Rotation estimation device, rotation estimation method, and storage medium | |
WO2017057426A1 (en) | Projection device, content determination device, projection method, and program | |
JP6320165B2 (en) | Image processing apparatus, control method therefor, and program | |
JP2005063012A (en) | Full azimuth camera motion and method and device for restoring three-dimensional information and program and recording medium with the same recorded | |
JP6237028B2 (en) | Projection apparatus, projection method, and information processing system | |
JP7154841B2 (en) | IMAGING SYSTEM, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230501 |