JP6606397B2 - Multi-viewpoint robot camera control device and program thereof - Google Patents

Multi-viewpoint robot camera control device and program thereof Download PDF

Info

Publication number
JP6606397B2
JP6606397B2 JP2015211549A JP2015211549A JP6606397B2 JP 6606397 B2 JP6606397 B2 JP 6606397B2 JP 2015211549 A JP2015211549 A JP 2015211549A JP 2015211549 A JP2015211549 A JP 2015211549A JP 6606397 B2 JP6606397 B2 JP 6606397B2
Authority
JP
Japan
Prior art keywords
image
subject
gazing point
distance
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015211549A
Other languages
Japanese (ja)
Other versions
JP2017085340A (en
Inventor
健介 久富
健佑 池谷
正規 加納
智之 三科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2015211549A priority Critical patent/JP6606397B2/en
Publication of JP2017085340A publication Critical patent/JP2017085340A/en
Application granted granted Critical
Publication of JP6606397B2 publication Critical patent/JP6606397B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本願発明は、同一の被写体を異なる視点で表示した多視点映像を生成するために、多視点ロボットカメラを制御する多視点ロボットカメラ制御装置及びそのプログラムに関する。   The present invention relates to a multi-viewpoint robot camera control apparatus for controlling a multi-viewpoint robot camera and a program therefor, in order to generate a multi-viewpoint video in which the same subject is displayed from different viewpoints.

従来から、被写体を取り囲むようにロボットカメラを配置し、撮影した映像をロボットカメラの並びに沿って切替えることで、動きのある被写体のある瞬間を様々な視点から提示する多視点映像表現という映像表現が知られている。この多視点映像表現には、例えば、非特許文献1に記載された多視点映像表現システムが用いられている。   Conventionally, by arranging a robot camera to surround the subject and switching the captured video along the sequence of the robot camera, there is a video representation called multi-view video representation that presents a moment with a moving subject from various viewpoints. Are known. For this multi-view video representation, for example, a multi-view video representation system described in Non-Patent Document 1 is used.

この多視点映像表現システムは、複数のロボットカメラをそれぞれ電動雲台に乗せて配置し、機械的なパンやチルトの制御により、スポーツ試合のような被写体が動き回る場合においても、前記した多視点映像表現を準リアルタイムで実現するものである。具体的には、カメラマンが1台のマスターカメラを操作し、注視する被写体が常に画面中央に映るように撮影する。このとき、この多視点映像表現システムは、カメラマンのカメラワークに応じて、他のスレーブカメラの視線が注視点で輻輳するように電動雲台を自動制御する。   This multi-view video presentation system is configured by placing a plurality of robot cameras on an electric pan head and controlling the panning and tilting mechanically, so that the multi-view video described above can be used even when an object such as a sports game moves around. The expression is realized in near real time. Specifically, the photographer operates one master camera and shoots so that the subject to be watched always appears in the center of the screen. At this time, this multi-view video expression system automatically controls the electric pan head so that the line of sight of the other slave cameras is congested at the gazing point according to the camera work of the cameraman.

Bullet Time Using Multi-Viewpoint Robotic Camera System,Kensuke Ikeya,CVMP'14 11th European Conference on Visual Media Production (CVMP 2014),13-14 November 2014Bullet Time Using Multi-Viewpoint Robotic Camera System, Kensuke Ikeya, CVMP'14 11th European Conference on Visual Media Production (CVMP 2014), 13-14 November 2014

しかし、前記した多視点映像表現システムでは、ファインダに分割表示された全ロボットカメラの映像を目視しながら、カメラマン等の操作者が注視点を手動で設定しなければならない。このとき、多視点映像表現システムでは、操作者が、画面中央に被写体が映るようにマスターカメラの操作を行っており、注視点の設定操作が操作者に非常に負担をかけるという問題がある。   However, in the multi-view video expression system described above, an operator such as a cameraman has to manually set a gaze point while viewing the images of all the robot cameras divided and displayed on the finder. At this time, in the multi-viewpoint video expression system, there is a problem that the operator operates the master camera so that the subject appears in the center of the screen, and the setting operation of the gazing point places a heavy burden on the operator.

そこで、本願発明は、操作者の負担を軽減できる多視点ロボットカメラ制御装置及びそのプログラムを提供することを課題とする。   Accordingly, it is an object of the present invention to provide a multi-viewpoint robot camera control device and a program thereof that can reduce the burden on the operator.

前記した課題に鑑みて、本願発明に係る多視点ロボットカメラ制御装置は、同一の被写体を異なる視点で表示した多視点映像を生成するために、前記被写体を撮影する複数のロボットカメラで構成される多視点ロボットカメラを制御する多視点ロボットカメラ制御装置であって、カメラパラメータ記憶部と、被写体領域抽出部と、ファインダ画像生成部と、注視点座標算出部と、を備える構成とした。   In view of the above-described problems, the multi-viewpoint robot camera control device according to the present invention is configured by a plurality of robot cameras that photograph the subject in order to generate a multi-viewpoint image in which the same subject is displayed from different viewpoints. A multi-viewpoint robot camera control apparatus that controls a multi-viewpoint robot camera, comprising a camera parameter storage unit, a subject area extraction unit, a finder image generation unit, and a gaze point coordinate calculation unit.

かかる構成によれば、多視点ロボットカメラ制御装置は、カメラパラメータ記憶部によって、前記複数のロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢を表すカメラパラメータを予め記憶する。
多視点ロボットカメラ制御装置は、被写体領域抽出部によって、前記マスターカメラが前記被写体を撮影した撮影画像の変換距離画像が入力され、入力された前記変換距離画像で所定位置(例えば、画面中央)の基準画素の距離値又は前記基準画素の距離値と周辺画素の距離値との平均である基準距離値を基準として予め設定された範囲内の距離値を有し、かつ、前記基準画素が含まれる画素領域を被写体領域として抽出する。
According to this configuration, the multi-viewpoint robot camera control device stores in advance camera parameters representing the position and orientation of one master camera set in advance among the plurality of robot cameras by the camera parameter storage unit.
In the multi-viewpoint robot camera control device, the subject area extraction unit receives a conversion distance image of a photographed image obtained by photographing the subject by the master camera, and a predetermined position (for example, the center of the screen) in the input conversion distance image. A distance value within a range set in advance with reference to a distance value of a reference pixel or a reference distance value that is an average of a distance value of the reference pixel and a distance value of surrounding pixels , and the reference pixel is included A pixel area is extracted as a subject area.

多視点ロボットカメラ制御装置は、ファインダ画像生成部によって、抽出した前記被写体領域の輪郭を示すマーカが前記撮影画像に描画されたファインダ画像を生成し、生成した前記ファインダ画像を操作インターフェース部に搭載されたファインダに出力する。
多視点ロボットカメラ制御装置は、注視点座標算出部によって、前記ファインダ画像を目視した操作者による前記マスターカメラの操作信号が入力され、入力された前記操作信号を前記カメラパラメータで変換することで、前記被写体の位置を表す注視点の世界座標を算出し、算出した前記注視点の世界座標を前記マスターカメラ以外のロボットカメラであるスレーブカメラに出力する。
The multi-viewpoint robot camera control device generates a finder image in which a marker indicating the contour of the extracted subject area is drawn on the captured image by the finder image generation unit, and the generated finder image is mounted on the operation interface unit. Output to the viewfinder.
The multi-viewpoint robot camera control device receives an operation signal of the master camera by an operator who views the viewfinder image by the gazing point coordinate calculation unit, and converts the input operation signal with the camera parameter. The world coordinate of the gazing point representing the position of the subject is calculated, and the calculated world coordinate of the gazing point is output to a slave camera which is a robot camera other than the master camera.

すなわち、多視点ロボットカメラ制御装置は、カメラマン等の操作者が被写体を所定位置(例えば、画面中央)に捉えると、この被写体がファインダでマーカ表示されるので、操作者が多視点映像表現の対象を認識しやすくなる。さらに、多視点ロボットカメラ制御装置は、この被写体の位置を注視点の世界座標として各スレーブカメラに出力する。その後、各スレーブカメラは、多視点ロボットカメラ制御装置から入力された注視点を向くような姿勢をとる。
このように、多視点ロボットカメラ制御装置は、操作者が注視点の設定操作を行うことなく、注視点を向くようにスレーブカメラを制御することができる。
In other words, when an operator such as a cameraman captures a subject at a predetermined position (for example, the center of the screen), the multi-viewpoint robot camera control device displays the marker on the finder, so that the operator It becomes easy to recognize. Furthermore, the multi-viewpoint robot camera control device outputs the position of the subject to each slave camera as the world coordinates of the point of interest. Thereafter, each slave camera takes an attitude such that it faces the gazing point input from the multi-viewpoint robot camera control device.
As described above, the multi-viewpoint robot camera control apparatus can control the slave camera so that the operator faces the gazing point without the operator performing the gazing point setting operation.

本願発明によれば、以下のような優れた効果を奏する。
本願発明に係る多視点ロボットカメラ制御装置は、操作者が注視点の設定操作を行うことなく、注視点を向くようにスレーブカメラを制御できるので、操作者の負担を軽減することができる。
According to the present invention, the following excellent effects can be obtained.
Since the multi-viewpoint robot camera control device according to the present invention can control the slave camera so that the operator faces the gazing point without the operator performing the gazing point setting operation, the burden on the operator can be reduced.

本願発明の第1実施形態に係る多視点映像撮影システムの概略図である。1 is a schematic diagram of a multi-view video shooting system according to a first embodiment of the present invention. 図1の多視点ロボットカメラを説明する説明図である。It is explanatory drawing explaining the multiview robot camera of FIG. 図1の多視点ロボットカメラ制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the multiview robot camera control apparatus of FIG. 撮影画像の一例を示す図である。It is a figure which shows an example of a picked-up image. 変換距離画像の一例を示す図である。It is a figure which shows an example of a conversion distance image. 図3の被写体領域抽出部による被写体領域の抽出を説明する説明図である。FIG. 4 is an explanatory diagram for explaining extraction of a subject area by a subject area extraction unit in FIG. 3. ファインダ画像の一例を示す図である。It is a figure which shows an example of a finder image. 図1の多視点映像撮影システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the multiview video imaging system of FIG. 本願発明の第2実施形態に係る多視点映像撮影システムの概略図である。It is the schematic of the multiview video imaging system which concerns on 2nd Embodiment of this invention. 図9の操作インタフェース部を説明する説明図である。It is explanatory drawing explaining the operation interface part of FIG. 図9の多視点ロボットカメラ制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the multiview robot camera control apparatus of FIG. 注視点の追跡を説明する説明図である。It is explanatory drawing explaining tracking of a gaze point. 他の被写体に対する注視点の設定を説明する説明図である。It is explanatory drawing explaining the setting of the gaze point with respect to another to-be-photographed object. 図9の多視点映像撮影システムの動作を示すフローチャートである。10 is a flowchart showing the operation of the multi-view video shooting system of FIG. 9. 本願発明の第3実施形態に係る多視点ロボットカメラ制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the multiview robot camera control apparatus which concerns on 3rd Embodiment of this invention. 注視点の追跡を説明する説明図である。It is explanatory drawing explaining tracking of a gaze point. 図15の多視点映像撮影システムの動作を示すフローチャートである。16 is a flowchart showing an operation of the multi-view video shooting system of FIG.

以下、本願発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の手段及び同一の処理には同一の符号を付し、説明を省略した。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, the same means and the same process are denoted by the same reference numerals, and description thereof is omitted.

(第1実施形態)
[多視点映像撮影システムの構成]
図1,図2を参照し、本願発明の第1実施形態に係る多視点映像撮影システム1の構成について説明する。
図1のように、多視点映像撮影システム1は、同一の被写体Tを異なる視点で表示した多視点映像を生成するものであり、多視点ロボットカメラ10と、操作インタフェース部30と、多視点ロボットカメラ制御装置40と、収録装置50とを備える。
(First embodiment)
[Configuration of multi-viewpoint video shooting system]
With reference to FIG. 1 and FIG. 2, the configuration of the multi-view video shooting system 1 according to the first embodiment of the present invention will be described.
As shown in FIG. 1, the multi-view video shooting system 1 generates a multi-view video in which the same subject T is displayed from different viewpoints, and includes a multi-view robot camera 10, an operation interface unit 30, and a multi-view robot. A camera control device 40 and a recording device 50 are provided.

多視点ロボットカメラ10は、複数のロボットカメラ20で構成されたものである。本実施形態では、多視点ロボットカメラ10は、7台のロボットカメラ20で構成されている。   The multi-viewpoint robot camera 10 includes a plurality of robot cameras 20. In the present embodiment, the multi-viewpoint robot camera 10 is composed of seven robot cameras 20.

ロボットカメラ20は、被写体Tを撮影した撮影画像を生成するものであり、カメラ本体21と、三脚23(図2)と、雲台25とを備える。本実施形態では、カメラ本体21は、カラー映像を撮影する一般的なカラーカメラである。当然、カメラ本体21は、カラーカメラに限定されず、例えば、白黒カメラであってもよい。   The robot camera 20 generates a captured image of the subject T, and includes a camera body 21, a tripod 23 (FIG. 2), and a pan head 25. In the present embodiment, the camera body 21 is a general color camera that captures color images. Of course, the camera body 21 is not limited to a color camera, and may be a monochrome camera, for example.

図2のように、ロボットカメラ20は、三脚23に搭載されている。そして、ロボットカメラ20は、三脚23の上方に設けた雲台25によって、パン軸及びチルト軸の2軸方向に駆動されると共に、ズームイン及びズームアウトが可能である。
ロボットカメラ20で撮影された撮影画像は、多視点ロボットカメラ制御装置40及び収録装置50に出力される。
As shown in FIG. 2, the robot camera 20 is mounted on a tripod 23. The robot camera 20 is driven in a biaxial direction of a pan axis and a tilt axis by a pan head 25 provided above the tripod 23, and can zoom in and out.
The captured image captured by the robot camera 20 is output to the multi-viewpoint robot camera control device 40 and the recording device 50.

また、多視点ロボットカメラ10は、何れか一台のロボットカメラ20の雲台25に距離カメラ27が搭載されている(図2不図示)。ここで、距離カメラ27及びカメラ本体21は、互いの光軸が平行になるように配置することが好ましい。
なお、距離カメラ27及びカメラ本体21は、カメラパラメータにより光軸方向の補正が可能なため、必ずしも平行に配置せずともよい。
In the multi-viewpoint robot camera 10, a distance camera 27 is mounted on the camera platform 25 of any one robot camera 20 (not shown in FIG. 2). Here, the distance camera 27 and the camera body 21 are preferably arranged so that their optical axes are parallel to each other.
Note that the distance camera 27 and the camera body 21 can be corrected in the optical axis direction according to camera parameters, and thus do not necessarily have to be arranged in parallel.

この距離カメラ27は、画素毎に距離値を格納した距離画像(デプスマップ)を動画で撮影するものである。例えば、距離カメラ27としては、TOF(Time Of Flight)方式、構造化照明方式等といった光線の照射により距離画像を撮影する能動カメラがあげられる。また、距離カメラ27は、光線を照射せずに距離画像を撮影する受動カメラであってもよい。この受動カメラとしては、2台のカラーカメラを左右に並べ、両カラーカメラの各画素の対応関係を探索することで(ステレオマッチング法)、三角測量の原理で距離画像を撮影するステレオカメラがあげられる。
距離カメラ27で撮影された距離画像は、多視点ロボットカメラ制御装置40に出力される。
The distance camera 27 captures a distance image (depth map) storing a distance value for each pixel as a moving image. For example, the distance camera 27 includes an active camera that captures a distance image by irradiation of light such as a TOF (Time Of Flight) method, a structured illumination method, or the like. The distance camera 27 may be a passive camera that captures a distance image without irradiating light. As this passive camera, two color cameras are arranged on the left and right, and by searching for the correspondence between each pixel of both color cameras (stereo matching method), a stereo camera that takes a distance image by the principle of triangulation is given. It is done.
A distance image captured by the distance camera 27 is output to the multi-viewpoint robot camera control device 40.

この距離カメラ27が搭載されたロボットカメラ20は、マスターカメラ20と呼ばれる。このマスターカメラ20は、後記するファインダ38を搭載した操作インタフェース部30の操作に連動してその姿勢が制御される。
一方、距離カメラ27が搭載されていないロボットカメラ20は、スレーブカメラ20と呼ばれる。このスレーブカメラ20は、多視点ロボットカメラ制御装置40からの情報(注視点の世界座標)に基づいて、注視点を向くように姿勢が制御される。
なお、多視点ロボットカメラ10は、複数のロボットカメラ20のうち、何れか一台がマスターカメラ20として予め設定され、残りがスレーブカメラ20として予め設定される。
The robot camera 20 on which the distance camera 27 is mounted is called a master camera 20M . The master camera 20 M, the attitude is controlled in conjunction with the operation of the operation interface 30 provided with a viewfinder 38 which will be described later.
On the other hand, the robot camera 20 the distance camera 27 is not mounted is referred to as the slave camera 20 S. The posture of the slave camera 20 S is controlled so as to face the gazing point based on information from the multi-viewpoint robot camera control device 40 (world coordinates of the gazing point).
Note multiview robot camera 10, among the plurality of robot camera 20, any one cars is preset as a master camera 20 M, the rest is pre-set as a slave camera 20 S.

図2のように、操作インタフェース部30は、カメラマン等の操作者がマスターカメラ20の操作を行うものであり、三脚31と、雲台33と、パン棒35と、エンコーダ37(図3)と、ファインダ38とを備える。 As in Figure 2, the operation interface 30 is for operator cameraman or the like to operate the master camera 20 M, a tripod 31, a camera platform 33, a pan rod 35, the encoder 37 (FIG. 3) And a finder 38.

ここで、操作インタフェース部30は、ファインダ38と共に三脚31に搭載され、三脚31の上方に設けた雲台33からパン棒35が延長されている。そして、操作インタフェース部30は、パン棒35を用いてパン方向やチルト方向に回転させると、その操作に応じてマスターカメラ20が回転する。すなわち、カメラマン等の操作者は、マスターカメラCが被写体(注視点)を向くように、ファインダ38を覗きながら操作インタフェース部30を操作する。 Here, the operation interface unit 30 is mounted on a tripod 31 together with a finder 38, and a pan bar 35 is extended from a pan 33 provided above the tripod 31. When the operation interface unit 30 is rotated in the pan direction or the tilt direction using the pan bar 35, the master camera 20M is rotated in accordance with the operation. That is, the operator of the photographer or the like, the master camera C M is to face the subject (gaze point), operating the operation interface unit 30 while looking through the viewfinder 38.

また、操作インタフェース部30は、内蔵されたエンコーダ37によって、現在のパン値及びチルト値をリアルタイムに計測する。そして、操作インタフェース部30は、計測したパン値及びチルト値を多視点ロボットカメラ制御装置40に出力する。   Further, the operation interface unit 30 measures the current pan value and tilt value in real time by the built-in encoder 37. Then, the operation interface unit 30 outputs the measured pan value and tilt value to the multi-viewpoint robot camera control device 40.

多視点ロボットカメラ制御装置40は、多視点映像を生成するために多視点ロボットカメラ10を制御するものである。
なお、多視点ロボットカメラ制御装置40の詳細は、後記する。
The multi-view robot camera control device 40 controls the multi-view robot camera 10 in order to generate a multi-view video.
Details of the multi-viewpoint robot camera control device 40 will be described later.

収録装置50は、多視点ロボットカメラ制御装置40から入力された撮影画像を収録し、収録した撮影画像から多視点映像を生成するものである。例えば、収録装置50は、下記参考文献1に記載の手法を用いて、多視点映像を生成する。
参考文献1:Bullet Time Using Multi-Viewpoint Robotic Camera System,Kensuke Ikeya,CVMP'14 11th European Conference on Visual Media Production (CVMP 2014),13-14 November 2014
The recording device 50 records a captured image input from the multi-viewpoint robot camera control device 40 and generates a multi-viewpoint video from the recorded captured image. For example, the recording device 50 generates a multi-view video using the method described in Reference Document 1 below.
Reference 1: Bullet Time Using Multi-Viewpoint Robotic Camera System, Kensuke Ikeya, CVMP'14 11th European Conference on Visual Media Production (CVMP 2014), 13-14 November 2014

[多視点ロボットカメラ制御装置の構成]
図3を参照し、多視点ロボットカメラ制御装置40の構成について説明する。
図3のように、多視点ロボットカメラ制御装置40は、変換パラメータ記憶部(カメラパラメータ記憶部)41と、距離画像変換部42と、被写体領域抽出部43と、ファインダ画像生成部44と、注視点座標算出部45とを備える。
[Configuration of multi-viewpoint robot camera control device]
The configuration of the multi-viewpoint robot camera control device 40 will be described with reference to FIG.
As shown in FIG. 3, the multi-viewpoint robot camera control device 40 includes a conversion parameter storage unit (camera parameter storage unit) 41, a distance image conversion unit 42, a subject area extraction unit 43, a finder image generation unit 44, and a note. And a viewpoint coordinate calculation unit 45.

変換パラメータ記憶部41は、マスターカメラ20を含めた全ロボットカメラ20のカメラパラメータを変換パラメータとして予め記憶するものである。この変換パラメータとしては、各ロボットカメラ20の内部パラメータ行列、回転行列及び並進行列があげられる。 Conversion parameter storage unit 41 is for previously storing camera parameters of all the robot camera 20, including the master camera 20 M as transformation parameters. Examples of the conversion parameters include an internal parameter matrix, a rotation matrix, and a parallel progression sequence of each robot camera 20.

ここで、多視点映像撮影システム1では、カメラキャリブレーションにより各ロボットカメラ20の変換パラメータを求め、その結果を変換パラメータ記憶部41に予め記憶させておく。例えば、カメラキャリブレーションの手法は、前記参考文献1に記載されている。   Here, in the multi-viewpoint video shooting system 1, the conversion parameter of each robot camera 20 is obtained by camera calibration, and the result is stored in advance in the conversion parameter storage unit 41. For example, the camera calibration method is described in the above-mentioned reference 1.

距離画像変換部42は、距離カメラ27から入力された距離画像を、マスターカメラ20の撮影画像の変換距離画像に変換するものである。具体的には、距離画像変換部42は、変換パラメータ記憶部41に記憶されたマスターカメラ20の変換パラメータを用いて、距離画像の3次元の点群をマスターカメラ20の撮影面に投影することで、撮影画像と同一画素数でそれぞれの画素位置が一致している変換距離画像に変換する。 The distance image conversion unit 42 converts the distance image input from the distance camera 27 into a converted distance image of a captured image of the master camera 20M . Specifically, the distance image conversion unit 42, a projection using the conversion parameters of the conversion parameter storing section 41 master camera 20 stored in M, the three-dimensional point cloud of the distance image to the imaging surface of the master camera 20 M As a result, the image is converted into a conversion distance image having the same number of pixels as the captured image and the same pixel position.

例えば、距離画像変換部42は、距離画像が撮影画像よりも解像度が低い場合、変換距離画像上で内挿処理を行ってもよい。内挿処理の手法としては、線形内挿、又は、距離画像上で設定したポリゴンを撮影画像に投影する手法があげられる。
その後、距離画像変換部42は、変換距離画像を被写体領域抽出部43に出力する。
For example, when the distance image has a lower resolution than the captured image, the distance image conversion unit 42 may perform an interpolation process on the converted distance image. Examples of the interpolation processing method include linear interpolation or a method of projecting a polygon set on a distance image onto a captured image.
Thereafter, the distance image conversion unit 42 outputs the converted distance image to the subject region extraction unit 43.

これにより、撮影画像及び変換距離画像は、互いの画素が対応することになり、画像座標が一致する。言い換えるなら、変換距離画像は、撮影画像の各画素の距離値を表した奥行マップとなる。ここで、距離値は、マスターカメラ20から被写体Tまでの距離、つまり、被写体Tの奥行値を表す。
なお、画像座標とは、画像中の位置を示す座標のことである。
As a result, the captured image and the converted distance image correspond to each other, and the image coordinates match. In other words, the converted distance image is a depth map that represents the distance value of each pixel of the captured image. Here, the distance value represents the distance from the master camera 20M to the subject T, that is, the depth value of the subject T.
The image coordinates are coordinates indicating a position in the image.

例えば、マスターカメラ20が、図4の撮影画像を撮影したこととする。この場合、変換距離画像は、図5のように、各画素の画素値(輝度値)により距離値を表した画像となる。図5の変換距離画像は、ハッチングの部分がマスターカメラ20から被写体Tまでの距離値を表しており、白色の部分がマスターカメラ20から背景までの距離値を表している。 For example, it is assumed that the master camera 20M has captured the captured image of FIG. In this case, the conversion distance image is an image in which the distance value is represented by the pixel value (luminance value) of each pixel as shown in FIG. In the converted distance image of FIG. 5, the hatched portion represents the distance value from the master camera 20M to the subject T, and the white portion represents the distance value from the master camera 20M to the background.

被写体領域抽出部43は、距離画像変換部42から入力された変換距離画像で所定位置の基準画素における基準距離値を基準として、基準画素が含まれる被写体領域を抽出するものである。本実施形態では、基準画素が、変換距離画像の中央に位置する画素であることとする。   The subject region extraction unit 43 extracts a subject region including the reference pixel with reference to the reference distance value in the reference pixel at a predetermined position in the converted distance image input from the distance image conversion unit 42. In the present embodiment, the reference pixel is a pixel located at the center of the conversion distance image.

具体的には、被写体領域抽出部43は、基準画素の距離値を基準として予め設定された範囲内の距離値を有し、かつ、基準画素が含まれる画素領域を求める。例えば、図5の変換距離画像が入力された場合を考える。この場合、図6のように、被写体Tの領域内の各画素が予め設定された範囲内の距離値を有し、かつ、被写体Tの領域に基準画素Sが含まれている。従って、被写体領域抽出部43は、被写体Tの画像領域を求めることになる。   Specifically, the subject area extraction unit 43 obtains a pixel area that has a distance value within a preset range with reference to the distance value of the reference pixel and includes the reference pixel. For example, consider a case where the conversion distance image of FIG. 5 is input. In this case, as shown in FIG. 6, each pixel in the area of the subject T has a distance value within a preset range, and the reference pixel S is included in the area of the subject T. Accordingly, the subject area extraction unit 43 obtains the image area of the subject T.

このとき、被写体領域抽出部43は、基準画素の距離値の代わりに、基準画素とこの基準画素の周辺に位置する周辺画素との距離値の平均を用いてもよい。これにより、被写体領域抽出部43は、基準画素の距離値が周辺画素の距離値と大きく異なる場合でも、正確に画素領域を求めることができる。   At this time, the subject region extraction unit 43 may use an average of distance values between the reference pixel and surrounding pixels located around the reference pixel instead of the distance value of the reference pixel. As a result, the subject region extraction unit 43 can accurately determine the pixel region even when the distance value of the reference pixel is significantly different from the distance value of the surrounding pixels.

その後、被写体領域抽出部43は、求めた画素領域の輪郭部分を変換距離画像から抽出し、抽出した被写体領域をファインダ画像生成部44に出力する。さらに、被写体領域抽出部43は、基準距離値を注視点座標算出部45に出力する。   Thereafter, the subject region extraction unit 43 extracts the obtained contour portion of the pixel region from the conversion distance image, and outputs the extracted subject region to the finder image generation unit 44. Further, the subject area extraction unit 43 outputs the reference distance value to the gaze point coordinate calculation unit 45.

ファインダ画像生成部44は、マーカが撮影映像に描画されたファインダ画像を生成するものである。このマーカは、被写体領域抽出部43から入力された被写体領域の輪郭を示している。例えば、ファインダ画像生成部44は、図7のように、マスターカメラ20から入力された撮影画像にマーカMが合成されたファインダ画像を生成する。そして、ファインダ画像生成部44は、生成したファインダ画像をファインダ38に出力する。
これにより、ファインダ38には、被写体Tの輪郭を示すマーカが表示される(マーカ表示)。
The finder image generation unit 44 generates a finder image in which markers are drawn on a captured video. This marker indicates the outline of the subject area input from the subject area extraction unit 43. For example, the finder image generating unit 44, as shown in FIG. 7, the marker M in the captured image input from the master camera 20 M to generate a viewfinder image combined. Then, the finder image generation unit 44 outputs the generated finder image to the finder 38.
Thereby, a marker indicating the outline of the subject T is displayed on the finder 38 (marker display).

注視点座標算出部45は、操作インタフェース部30から入力されたマスターカメラ20の操作信号(パン値及びチルト値)を変換パラメータで変換することで、被写体Tの位置を表す注視点の世界座標を算出するものである。
なお、世界座標とは、各ロボットカメラ20に共通する三次元座標のことである。
Gazing point coordinate calculation unit 45, to convert the operation interface 30 master camera 20 M operation signal input from the (pan value and the tilt value) in the conversion parameter, the world coordinates of the gaze point representing the position of the subject T Is calculated.
The world coordinates are three-dimensional coordinates common to the robot cameras 20.

例えば、注視点座標算出部45は、参考文献1に記載された式(2)〜式(5)に、マスターカメラ20の回転行列及び並進行列と、マスターカメラ20のパン値及びチルト値と、被写体領域抽出部43から入力された基準距離値とを代入し、注視点の世界座標を算出する。そして、注視点座標算出部45は、算出した注視点の世界座標を全てのロボットカメラ20の雲台25に出力する。 For example, the gazing point coordinate calculation unit 45, a described in reference 1 the formula (2) to (5), a rotation matrix and translation matrix of the master camera 20 M, pan value and the tilt value of the master camera 20 M And the reference distance value input from the subject region extraction unit 43, and calculates the world coordinates of the point of interest. Then, the gaze point coordinate calculation unit 45 outputs the calculated world coordinates of the gaze point to the platform 25 of all the robot cameras 20.

ここで、各ロボットカメラ20は、それぞれのカメラパラメータを用いて、注視点座標算出部45から入力された注視点の世界座標を向くようにパン値及びチルト値を算出する。例えば、各ロボットカメラ20は、参考文献1に記載された式(7)〜式(10)に、各ロボットカメラ20の回転行列及び並進行列と注視点の世界座標とを代入し、パン値及びチルト値を算出する。そして、各ロボットカメラ20は、算出したパン値及びチルト値に従って雲台25を駆動することで、注視点を向いた姿勢をとる。   Here, each robot camera 20 calculates a pan value and a tilt value so as to face the world coordinates of the gazing point input from the gazing point coordinate calculation unit 45 using the respective camera parameters. For example, each robot camera 20 substitutes the rotation matrix and parallel progression sequence of each robot camera 20 and the world coordinates of the point of interest in Equations (7) to (10) described in Reference Document 1, and the pan value and Calculate the tilt value. Then, each robot camera 20 takes a posture facing the gazing point by driving the camera platform 25 according to the calculated pan value and tilt value.

[多視点映像撮影システムの動作]
図8を参照し、多視点映像撮影システム1の動作について説明する(適宜図1,図3参照)。
操作者は、操作インタフェース部30を介して、被写体Tを画面中央に捉えるように、マスターカメラ20を操作する(ステップS1)。
なお、ステップS1の処理は、操作者による手動操作のため破線で図示した。
[Operation of multi-viewpoint video shooting system]
The operation of the multi-view video shooting system 1 will be described with reference to FIG. 8 (see FIGS. 1 and 3 as appropriate).
Operator, through the operation interface unit 30, so as to capture the subject T in the center of the screen, to operate the master camera 20 M (step S1).
Note that the processing in step S1 is illustrated by a broken line for manual operation by the operator.

多視点ロボットカメラ制御装置40は、距離画像変換部42によって、マスターカメラ20の変換パラメータを用いて、距離画像を変換距離画像に変換する(ステップS2)。
多視点ロボットカメラ制御装置40は、被写体領域抽出部43によって、距離画像変換部42より入力された変換距離画像から被写体領域を抽出する(ステップS3)。
Multiview robot camera controller 40, by the distance image conversion unit 42, using the conversion parameters of the master camera 20 M, converts the distance image conversion distance image (step S2).
In the multi-viewpoint robot camera control device 40, the subject region extraction unit 43 extracts the subject region from the converted distance image input from the distance image conversion unit 42 (step S3).

多視点ロボットカメラ制御装置40は、注視点座標算出部45によって、マスターカメラ20のパン値及びチルト値と基準距離値から、変換パラメータを用いて、注視点の世界座標を算出する(ステップS4)。
各ロボットカメラ20は、変換パラメータを用いて、注視点の世界座標からパン値とチルト値を求め、雲台を制御する(ステップS5)。
Multiview robot camera controller 40, the gazing point coordinate calculation unit 45, a pan value, and the tilt value and the reference distance value of the master camera 20 M, using the conversion parameters, to calculate the global coordinates of the gaze point (step S4 ).
Each robot camera 20 obtains a pan value and a tilt value from the world coordinates of the gazing point using the conversion parameter, and controls the camera platform (step S5).

多視点ロボットカメラ制御装置40は、ファインダ画像生成部44によって、抽出した被写体領域の輪郭を示すマーカが描画されたファインダ画像を生成する(ステップS6)。
マスターカメラ20は、ファインダ38にファインダ画像を表示する(ステップS7)。
In the multi-viewpoint robot camera control device 40, the finder image generation unit 44 generates a finder image in which a marker indicating the contour of the extracted subject area is drawn (step S6).
Master camera 20 M displays a finder image in the finder 38 (step S7).

なお、多視点映像撮影システム1は、ステップS1〜S7の処理を繰り返し、多視点映像表現に必要な撮影画像を収録装置50に収録する。そして、収録装置50は、収録された撮影画像から多視点映像を生成する(図8不図示)。   Note that the multi-viewpoint video shooting system 1 repeats the processes of steps S1 to S7 and records the shot images necessary for multi-viewpoint video representation in the recording device 50. Then, the recording device 50 generates a multi-view video from the recorded captured image (not shown in FIG. 8).

[作用・効果]
以上のように、多視点映像撮影システム1は、操作者が被写体Tを画面中央で捉えるように操作すれば、被写体Tを向くようにロボットカメラ20を制御する。このように、多視点映像撮影システム1では、操作者が注視点の設定操作を行うことなく被写体Tを撮影できるので、操作者の負担を軽減することができる。
[Action / Effect]
As described above, the multi-view video shooting system 1 controls the robot camera 20 so as to face the subject T when the operator operates to catch the subject T at the center of the screen. As described above, in the multi-viewpoint video shooting system 1, the operator T can shoot the subject T without performing the gazing point setting operation, so that the burden on the operator can be reduced.

(第2実施形態)
[多視点映像撮影システムの構成]
図9,図10を参照し、本願発明の第2実施形態に係る多視点映像撮影システム1Bの構成について、第1実施形態と異なる点を説明する。
(Second Embodiment)
[Configuration of multi-viewpoint video shooting system]
With reference to FIGS. 9 and 10, the configuration of the multi-view video shooting system 1B according to the second embodiment of the present invention will be described while referring to differences from the first embodiment.

多視点映像撮影システム1Bは、注視点を追跡できる点と、画面中央以外に位置する他の被写体にも注視点を設定できる点とが第1実施形態と異なる。
図9のように、多視点映像撮影システム1Bは、多視点ロボットカメラ10と、操作インタフェース部30Bと、多視点ロボットカメラ制御装置40Bと、収録装置50とを備える。
The multi-viewpoint video shooting system 1B is different from the first embodiment in that the point of gaze can be tracked and the point of gaze can be set for other subjects located outside the center of the screen.
As shown in FIG. 9, the multi-view video shooting system 1B includes a multi-view robot camera 10, an operation interface unit 30B, a multi-view robot camera control device 40B, and a recording device 50.

図10のように、操作インタフェース部30Bは、三脚31と、雲台33と、パン棒35と、エンコーダ37(図11)と、距離調整つまみ39とを備える。
距離調整つまみ39は、パン棒35のほぼ中央に取り付けられたダイヤルである。この距離調整つまみ39は、注視点基準画素の距離値を基準として、他の被写体での距離値を距離差分値として出力する。つまり、距離差分値は、画面中央に位置する被写体の距離値と、画面中央以外に位置する他の被写体の距離値との差分を表す。
As shown in FIG. 10, the operation interface unit 30 </ b> B includes a tripod 31, a pan head 33, a pan bar 35, an encoder 37 (FIG. 11), and a distance adjustment knob 39.
The distance adjustment knob 39 is a dial attached to substantially the center of the bread bar 35. The distance adjustment knob 39 outputs the distance value of another subject as a distance difference value with reference to the distance value of the gazing point reference pixel. That is, the distance difference value represents the difference between the distance value of the subject located at the center of the screen and the distance value of other subjects located outside the center of the screen.

ここで、画面中央以外に位置する他の被写体に注視点を設定したい場合、操作者が距離調整つまみ39を操作する。すると、操作者の操作量に応じて、他の被写体に注視点が設定されることになる。   Here, when it is desired to set a gazing point on another subject located outside the center of the screen, the operator operates the distance adjustment knob 39. Then, the gazing point is set for another subject according to the operation amount of the operator.

[多視点ロボットカメラ制御装置の構成]
図11を参照し、多視点ロボットカメラ制御装置40Bの構成について説明する。
図11のように、多視点ロボットカメラ制御装置40Bは、変換パラメータ記憶部41と、距離画像変換部42と、被写体領域抽出部43Bと、ファインダ画像生成部44Bと、注視点座標算出部45Bと、注視点画像座標記憶部46とを備える。
[Configuration of multi-viewpoint robot camera control device]
The configuration of the multi-viewpoint robot camera control device 40B will be described with reference to FIG.
As shown in FIG. 11, the multi-viewpoint robot camera control device 40B includes a conversion parameter storage unit 41, a distance image conversion unit 42, a subject area extraction unit 43B, a finder image generation unit 44B, and a gaze point coordinate calculation unit 45B. , A gazing point image coordinate storage unit 46.

被写体領域抽出部43Bは、ラベリング処理により変換距離画像を被写体Tの候補領域に分割し、注視点画像座標記憶部46に記憶された前フレームの撮影画像における注視点の画像座標が含まれる候補領域を被写体領域として抽出する。そして、被写体領域抽出部43Bは、抽出した被写体領域の重心位置を算出し、注視点座標算出部45Bに出力するものである(注視点の追跡)。   The subject region extraction unit 43B divides the conversion distance image into candidate regions of the subject T by labeling processing, and includes candidate regions including the image coordinates of the gazing point in the captured image of the previous frame stored in the gazing point image coordinate storage unit 46. Are extracted as subject areas. Then, the subject area extraction unit 43B calculates the position of the center of gravity of the extracted subject area and outputs it to the gazing point coordinate calculation unit 45B (tracking the gazing point).

また、被写体領域抽出部43Bは、距離調整つまみ39から入力された距離差分値と基準距離値とが加算された抽出対象距離値を算出し、算出した抽出対象距離値を基準として他の被写体領域を抽出する(他の被写体に対する注視点の設定)。この他の被写体領域とは、他の被写体を表す画像領域のことである。
なお、被写体領域抽出部43Bの詳細は、後記する。
The subject area extraction unit 43B calculates an extraction target distance value obtained by adding the distance difference value input from the distance adjustment knob 39 and the reference distance value, and uses the calculated extraction target distance value as a reference for other subject areas. Is extracted (setting of the gazing point for other subjects). This other subject area is an image area representing another subject.
Details of the subject region extraction unit 43B will be described later.

ファインダ画像生成部44Bは、被写体領域抽出部43Bから入力された他の被写体領域についても、その輪郭を示すマーカが撮影画像に描画されたファインダ画像を生成するものである。このファインダ画像生成部44Bは、ファインダ画像の生成手法が第1実施形態と同様のため、これ以上の説明を省略する。   The finder image generation unit 44B generates a finder image in which a marker indicating the outline of the other subject region input from the subject region extraction unit 43B is drawn on the captured image. The finder image generation unit 44B has the same finder image generation method as that of the first embodiment, and thus further description thereof is omitted.

注視点座標算出部45Bは、被写体領域抽出部43Bから入力された被写体領域の重心位置を前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる。
他の点、注視点座標算出部45Bは、第1実施形態と同様のため、これ以上の説明を省略する。
The gazing point coordinate calculation unit 45B causes the gazing point image coordinate storage unit 46 to store the gravity center position of the subject region input from the subject region extraction unit 43B as the image coordinates of the gazing point in the captured image of the previous frame.
Other points and the gazing point coordinate calculation unit 45B are the same as those in the first embodiment, and thus further description thereof is omitted.

注視点画像座標記憶部46は、注視点座標算出部45Bから入力された前フレームの撮影画像における注視点の画像座標を記憶するものである。この前フレームの撮影画像における注視点の画像座標は、現フレームの撮影画像で注視点を追跡する際に参照される。   The gazing point image coordinate storage unit 46 stores the gazing point image coordinates in the captured image of the previous frame input from the gazing point coordinate calculation unit 45B. The image coordinates of the gazing point in the captured image of the previous frame are referred to when tracking the gazing point in the captured image of the current frame.

<注視点の追跡>
図12を参照し、注視点の追跡について説明する(適宜図11参照)。
この図12では、前フレームの撮影画像に含まれる被写体Tを破線で図示し、処理対象となっている現フレームの撮影画像に含まれる被写体Tを実線で図示した。
<Tracking the point of interest>
With reference to FIG. 12, the tracking of the gazing point will be described (see FIG. 11 as appropriate).
In FIG 12, illustrates the subject T 1 contained in the captured image of the previous frame in broken lines, the object T 2 included in the captured image of the current frame to be processed shown in solid lines.

まず、前フレームの撮影画像に対する処理を説明する。
多視点ロボットカメラ制御装置40Bの各手段は、前フレームの撮影画像に対し、第1実施形態と同様の処理を行い、被写体Tがマーカ表示されたファインダ画像を生成する。
First, the process for the captured image of the previous frame will be described.
Each unit of the multi-viewpoint robotic camera controller 40B, compared captured image of the previous frame, the same processing as in the first embodiment, generates a viewfinder image object T 1 is is marker display.

このとき、被写体領域抽出部43Bは、抽出した被写体Tの重心位置Gを算出し、注視点座標算出部45Bに出力する。そして、注視点座標算出部45Bは、被写体領域抽出部43Bから入力された被写体Tの重心位置Gを、前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる。 At this time, the object area extracting unit 43B is extracted to calculate the gravity center position G 1 of the object T 1, and outputs the gazing point coordinate calculation unit 45B. The gazing point coordinate calculation unit 45B has a center of gravity position G 1 of the object T 1 which is input from the object area extracting unit 43B, stored in the gazing point image coordinate storage section 46 as the image coordinates of the gazing point in the captured image of the previous frame Let

次に、現フレームの撮影画像に対する処理を説明する。
距離画像変換部42は、第1実施形態と同様の手法により、距離画像を、現フレームの撮影画像に対応した変換距離画像に変換する。
Next, processing for the captured image of the current frame will be described.
The distance image conversion unit 42 converts the distance image into a converted distance image corresponding to the captured image of the current frame by the same method as in the first embodiment.

被写体領域抽出部43Bは、例えば、下記参考文献2に記載のラベリング処理により、変換距離画像を候補領域に分割する。このラベリング処理とは、変換距離画像を、予め設定された範囲内の距離値を有する画素で構成される候補領域に分割する処理のことである。
参考文献2:公益財団法人画像情報教育振興協会、「ディジタル画像処理」
The subject area extraction unit 43B divides the converted distance image into candidate areas by a labeling process described in Reference Document 2 below, for example. The labeling process is a process of dividing the converted distance image into candidate regions composed of pixels having distance values within a preset range.
Reference 2: Association for Promotion of Image Information Education, “Digital Image Processing”

続いて、被写体領域抽出部43Bは、注視点画像座標記憶部46から、前フレームの撮影画像における注視点の画像座標を読み出す。ここで、図12のように、被写体Tの画像領域には、前フレームの撮影画像における注視点Gが含まれている。従って、被写体領域抽出部43Bは、この被写体Tの画像領域を被写体領域として変換距離画像から抽出し、抽出した被写体領域をファインダ画像生成部44に出力する。さらに、ファインダ画像生成部44Bは、被写体Tがマーカ表示されたファインダ画像を生成する。 Subsequently, the subject region extraction unit 43B reads the image coordinates of the gazing point in the captured image of the previous frame from the gazing point image coordinate storage unit 46. Here, as in FIG. 12, the image area of the object T 2, contains gaze point G 1 in the photographed image of the previous frame. Therefore, the object area extracting unit 43B outputs the image region of the object T 2 is extracted from the conversion range image as a subject area, the extracted subject region in the viewfinder image generating unit 44. Further, the finder image generator 44B generates a viewfinder image object T 2 is marker display.

続いて、被写体領域抽出部43Bは、抽出した被写体Tの重心位置Gを算出し、注視点座標算出部45Bに出力する。そして、注視点座標算出部45Bは、参考文献1に記載された式(2)〜式(5)に、マスターカメラ20の回転行列及び並進行列と、マスターカメラ20のパン値及びチルト値と、被写体Tの重心位置Gでの距離値とを代入し、注視点の世界座標を算出する。その後、注視点座標算出部45Bは、被写体Tの重心位置Gを、前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる。 Then, the object area extracting unit 43B is extracted to calculate the gravity center position G 2 of the object T 2, and outputs the gazing point coordinate calculation unit 45B. The gazing point coordinate calculation unit 45B is in described in reference 1 Equation (2) to (5), a rotation matrix and translation matrix of the master camera 20 M, pan value and the tilt value of the master camera 20 M And the distance value at the center of gravity G 2 of the subject T 2 are substituted to calculate the world coordinates of the gazing point. Then, gazing point coordinate calculation unit 45B has a center of gravity position G 2 of the object T 2, is stored in the gazing point image coordinate storage section 46 as the image coordinates of the gazing point in the captured image of the previous frame.

このように、多視点ロボットカメラ制御装置40Bは、被写体Tが移動する場合でも、移動前の被写体Tの重心位置が移動後の被写体Tの領域に含まれていれば、この被写体Tに注視点を設定すると共に、この被写体Tをマーカ表示できる。 Thus, the multi-viewpoint robotic camera controller 40B, even if the subject T is moving, if the center of gravity position of the object T 1 of the previous movement if included in the area of the object T 2 of the post-movement, the object T 2 it sets the gaze point, the object T 2 can marker display.

<他の被写体に対する注視点の設定>
図13を参照し、他の被写体に対する注視点の設定について説明する(適宜図11参照)。
この図13では、画面中央に位置する被写体Tと、画面中央以外に位置する他の被写体Tとを図示した。また、被写体Tの距離値をDとし、被写体Tの距離値をDとし、距離差分値をΔDとする。
<Setting the point of interest for other subjects>
With reference to FIG. 13, setting of a gazing point for another subject will be described (see FIG. 11 as appropriate).
In this Figure 13, shown with the object T A located in the center of the screen, and another object T B is located in other than the center of the screen. Further, the distance value of the object T A and D A, the distance value of the object T B and D B, the distance difference value and [Delta] D.

画面中央に位置する被写体Tではなく、被写体Tの奥に位置する被写体Tに注視点を設定する場合を考える。この場合、距離差分値ΔD=D−Dとなるように、操作者が距離調整つまみ39を操作する。すると、距離調整つまみ39は、距離差分値ΔDを被写体領域抽出部43Bに出力する。 Rather than the subject T A located in the center of the screen, consider the case of setting the gaze point on the subject T B is located in the back of the subject T A. In this case, as the distance difference ΔD = D A -D B, the operator operates the distance adjusting knob 39. Then, the distance adjustment knob 39 outputs the distance difference value ΔD to the subject area extraction unit 43B.

被写体領域抽出部43Bは、基準距離値(被写体Tの距離値D)と、距離差分値ΔDとを加算し、抽出対象距離値(被写体Tの距離値D)を算出する。そして、被写体領域抽出部43Bは、第1実施形態と同様の手法で、算出した抽出対象距離値を基準として被写体Tの画像領域を求める。さらに、被写体領域抽出部43Bは、被写体Tの画素領域を被写体領域として変換距離画像から抽出し、抽出した被写体領域をファインダ画像生成部44に出力する。 Subject region extraction unit 43B, the reference distance value (distance value D A of the subject T A), adds the distance difference value [Delta] D, to calculate the extraction target distance value (distance value D B of the subject T B). Then, the object area extracting unit 43B is the same method as the first embodiment, obtaining the image region of the object T B the calculated extraction target distance value as a reference. Furthermore, the object area extracting unit 43B extracts from the conversion range image pixel area of the subject T B as the subject region, and outputs the extracted subject region in the viewfinder image generating unit 44.

このように、多視点ロボットカメラ制御装置40Bは、画面中央以外に被写体Tが位置する場合でも、この被写体Tに注視点を設定すると共に、この被写体Tをマーカ表示できる。
なお、撮影画像に他の被写体Tが2以上含まれる場合でも、この手法を利用することができる。また、他の被写体に対する注視点の設定は、注視点の追跡と併用することができる。
Thus, the multi-viewpoint robotic camera controller 40B, even if the position is subject T B in addition to the center of the screen, and sets the gaze point on the object T B, the subject T can marker display.
Note that this method can be used even when the captured image includes two or more other subjects T. Also, the setting of the gazing point for other subjects can be used together with the tracking of the gazing point.

[多視点映像撮影システムの動作]
図14を参照し、多視点映像撮影システム1Bの動作について説明する(適宜図11参照)。
[Operation of multi-viewpoint video shooting system]
The operation of the multi-view video shooting system 1B will be described with reference to FIG. 14 (see FIG. 11 as appropriate).

操作者は、注視点を設定したい被写体がマーカ表示されるように、距離調整つまみ39を操作する(ステップS10)。
なお、ステップS10の処理は、操作者による手動操作のため破線で図示した。
The operator operates the distance adjustment knob 39 so that the subject whose gaze point is to be set is displayed as a marker (step S10).
Note that the processing in step S10 is illustrated by a broken line for manual operation by the operator.

多視点ロボットカメラ制御装置40Bは、被写体領域抽出部43Bによって、基準距離値と距離差分値とを加算し、抽出対象距離値を算出する(ステップS11)。
多視点ロボットカメラ制御装置40Bは、被写体領域抽出部43Bによって、変換距離画像を候補領域に分割する(ステップS12)。
多視点ロボットカメラ制御装置40Bは、被写体領域抽出部43Bによって、前フレームの撮影画像における注視点の画像座標が含まれる候補領域を被写体領域として抽出する(ステップS13)。
The multi-viewpoint robot camera control device 40B calculates the extraction target distance value by adding the reference distance value and the distance difference value by the subject region extraction unit 43B (step S11).
The multi-viewpoint robot camera control device 40B divides the conversion distance image into candidate regions by the subject region extraction unit 43B (step S12).
In the multi-viewpoint robot camera control device 40B, the subject region extraction unit 43B extracts a candidate region including the image coordinates of the gazing point in the captured image of the previous frame as a subject region (step S13).

多視点ロボットカメラ制御装置40Bは、注視点座標算出部45Bによって、マスターカメラ20のパン値及びチルト値と移動後の被写体Tの重心位置での距離値から、変換パラメータを用いて、注視点の世界座標を算出する(ステップS14)。
多視点ロボットカメラ制御装置40Bは、注視点座標算出部45Bによって、移動後の被写体の重心位置を、前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる(ステップS15)。
Multiview robot camera controller 40B is the gazing point coordinate calculating unit 45B, the distance value at the center of gravity of the subject T after the movement and the pan value and the tilt value of the master camera 20 M, using the conversion parameters, the fixation point Is calculated (step S14).
The multi-viewpoint robot camera control device 40B causes the gazing point coordinate calculation unit 45B to store the position of the center of gravity of the moved subject in the gazing point image coordinate storage unit 46 as the image coordinates of the gazing point in the captured image of the previous frame (Step S40). S15).

なお、多視点映像撮影システム1Bは、ステップS1〜S7の処理を繰り返し、多視点映像表現に必要な撮影画像を収録装置50に収録する。そして、収録装置50は、収録された撮影画像から多視点映像を生成する(図14不図示)。   Note that the multi-view video shooting system 1B repeats the processing of steps S1 to S7 and records the shot images necessary for multi-view video representation in the recording device 50. Then, the recording device 50 generates a multi-view video from the recorded captured image (not shown in FIG. 14).

[作用・効果]
以上のように、多視点映像撮影システム1Bは、操作者が被写体Tを画面中央で捉え続けなくても、この被写体Tの注視点を追跡し、追跡中の注視点を向くようにロボットカメラ20を制御するので、操作者の負担を軽減することができる。
さらに、多視点映像撮影システム1Bは、画面中央以外に被写体Tが位置する場合でも、この被写体Tに注視点を設定し、設定した注視点を向くようにロボットカメラ20を制御するので、操作者の負担を軽減することができる。
[Action / Effect]
As described above, the multi-view video shooting system 1B allows the robot camera 20 to track the gazing point of the subject T and face the gazing point that is being tracked without the operator continuing to capture the subject T at the center of the screen. The operator's burden can be reduced.
Furthermore, even when the subject T is located outside the center of the screen, the multi-view video shooting system 1B sets a gazing point on the subject T and controls the robot camera 20 so as to face the set gazing point. Can be reduced.

(第3実施形態)
図15を参照し、本願発明の第3実施形態に係る多視点映像撮影システム1Cの構成について、第2実施形態と異なる点を説明する。
多視点映像撮影システム1Cは、移動前の被写体Tの重心位置が移動後の被写体Tの画像領域に含まれない場合でも注視点を追跡できる点が、第2実施形態と異なる。
(Third embodiment)
With reference to FIG. 15, the configuration of a multi-view video shooting system 1 </ b> C according to the third embodiment of the present invention will be described while referring to differences from the second embodiment.
The multi-viewpoint video shooting system 1C is different from the second embodiment in that the gazing point can be tracked even when the gravity center position of the subject T before movement is not included in the image area of the subject T after movement.

[多視点ロボットカメラ制御装置の構成]
図15を参照し、多視点ロボットカメラ制御装置40Cの構成について説明する。
図15のように、多視点ロボットカメラ制御装置40Cは、変換パラメータ記憶部41と、距離画像変換部42Cと、被写体領域抽出部43Cと、ファインダ画像生成部44Bと、注視点座標算出部45Cと、注視点画像座標記憶部46と、撮影画像記憶部47と、注視点追跡部48とを備える。
[Configuration of multi-viewpoint robot camera control device]
The configuration of the multi-viewpoint robot camera control device 40C will be described with reference to FIG.
As shown in FIG. 15, the multi-viewpoint robot camera control device 40C includes a conversion parameter storage unit 41, a distance image conversion unit 42C, a subject region extraction unit 43C, a finder image generation unit 44B, and a gaze point coordinate calculation unit 45C. , A gazing point image coordinate storage unit 46, a captured image storage unit 47, and a gazing point tracking unit 48.

距離画像変換部42Cは、第1実施形態と同様の処理を行った後、変換された変換距離画像を注視点追跡部48に出力する。
他の点、距離画像変換部42Cは、第1実施形態と同様のため、これ以上の説明を省略する。
The distance image conversion unit 42C performs the same processing as in the first embodiment, and then outputs the converted conversion distance image to the gaze point tracking unit 48.
Other points and the distance image conversion unit 42C are the same as those in the first embodiment, and thus further description thereof is omitted.

被写体領域抽出部43Cは、第2実施形態と同様、変換距離画像を候補領域に分割し、分割した候補領域の重心位置を算出する。そして、被写体領域抽出部43Cは、注視点追跡部48から入力された移動後注視点の画素座標に、重心位置が最も近くなる候補領域を被写体領域として抽出するものである。
なお、被写体領域抽出部43Cの詳細は、後記する。
Similar to the second embodiment, the subject region extraction unit 43C divides the conversion distance image into candidate regions, and calculates the gravity center position of the divided candidate regions. Then, the subject region extraction unit 43C extracts a candidate region having the center of gravity closest to the pixel coordinate of the post-movement gazing point input from the gazing point tracking unit 48 as the subject region.
Details of the subject area extraction unit 43C will be described later.

注視点座標算出部45Cは、後記する注視点追跡部48から入力された移動後注視点を用いて、注視点の世界座標を算出するものである。例えば、注視点座標算出部45Cは、参考文献1に記載された式(2)〜式(5)に、マスターカメラ20の回転行列及び並進行列と、マスターカメラ20のパン値及びチルト値と、移動後注視点での距離値とを代入し、注視点の世界座標を算出する。そして、注視点座標算出部45Cは、算出した注視点の世界座標を全てのロボットカメラ20に出力する。 The gazing point coordinate calculation unit 45C calculates the world coordinate of the gazing point using the post-movement gazing point input from the gazing point tracking unit 48 described later. For example, the gazing point coordinate calculating unit 45C is the described in Reference 1 Equation (2) to (5), a rotation matrix and translation matrix of the master camera 20 M, pan value and the tilt value of the master camera 20 M And the distance value at the gazing point after the movement is substituted to calculate the world coordinates of the gazing point. Then, the gazing point coordinate calculation unit 45C outputs the calculated world coordinates of the gazing point to all the robot cameras 20.

撮影画像記憶部47は、注視点追跡部48から入力された撮影画像を記憶するものである。この前フレームの撮影画像は、現フレームの撮影画像で注視点を追跡する際に参照される。   The captured image storage unit 47 stores the captured image input from the gazing point tracking unit 48. The captured image of the previous frame is referred to when tracking the gazing point in the captured image of the current frame.

注視点追跡部48は、撮影画像記憶部47に記憶された前フレームの撮影画像とマスターカメラ20から入力された現フレームの撮影画像とのマッチング処理により注視点の移動ベクトルを求めるものである。そして、注視点追跡部48は、前フレームの撮影画像における注視点を始点として移動ベクトルが示す画素座標を、移動後注視点の画素座標として算出し、算出した移動後注視点の画素座標を被写体領域抽出部43C及び注視点座標算出部45Cに出力する。 Gazing point tracking unit 48, and requests the motion vector of the focus point by matching the captured image of the current frame input from the photographed image and the master camera 20 M of the previous frame stored in the photographed image storage section 47 . The gazing point tracking unit 48 calculates the pixel coordinates indicated by the movement vector starting from the gazing point in the captured image of the previous frame as the pixel coordinates of the gazing point after movement, and uses the calculated pixel coordinates of the gazing point after movement as the subject. The data is output to the region extraction unit 43C and the gaze point coordinate calculation unit 45C.

ここで、注視点追跡部48は、算出した移動後注視点の画素座標を前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる。また、注視点追跡部48は、マスターカメラ20から入力された現フレームの撮影画像を、前フレームの撮影画像として撮影画像記憶部47に記憶させる。 Here, the gazing point tracking unit 48 stores the calculated pixel coordinates of the post-movement gazing point in the gazing point image coordinate storage unit 46 as image coordinates of the gazing point in the captured image of the previous frame. Further, the fixation point tracking unit 48, a captured image of the current frame input from the master camera 20 M, is stored in the photographed image storage section 47 as a photographic image of the previous frame.

<注視点の追跡>
図16を参照し、注視点の追跡について説明する(適宜図15参照)。
この図16では、前フレームの撮影画像に含まれる被写体Tを破線で図示し、処理対象となっている現フレームの撮影画像に含まれる被写体Tを実線で図示した。
<Tracking the point of interest>
With reference to FIG. 16, tracking of the point of gaze will be described (see FIG. 15 as appropriate).
In FIG 16, illustrates the subject T 1 contained in the captured image of the previous frame in broken lines, the object T 2 included in the captured image of the current frame to be processed shown in solid lines.

注視点追跡部48は、前フレームと現フレームとの撮影画像にマッチング処理を施し、前フレームの注視点が現フレームでどこに移動したかを示す移動ベクトルを算出する。具体的には、注視点追跡部48は、前フレームと現フレームとの撮影画像にブロックマッチングを施し、それぞれの撮影画像に含まれる被写体T,Tの画像領域を求める。そして、注視点追跡部48は、被写体T,Tの重心位置G,Gを求め、被写体Tの重心位置Gから被写体Tの重心位置Gまでを結ぶ移動ベクトルを求める。
その後、注視点追跡部48は、被写体Tの重心位置Gを始点として、移動ベクトルが示す被写体Tの重心位置Gの画素座標を、移動後注視点の画素座標として算出する。
The gazing point tracking unit 48 performs matching processing on the captured images of the previous frame and the current frame, and calculates a movement vector indicating where the gazing point of the previous frame has moved in the current frame. Specifically, the gazing point tracking unit 48 performs block matching on the captured images of the previous frame and the current frame, and obtains the image areas of the subjects T 1 and T 2 included in the captured images. The gazing point tracking unit 48 obtains the gravity center position G 1, G 2 of the object T 1, T 2, calculating the moving vector connecting from the gravity center position G 1 of the object T 1 to the center of gravity position G 2 of the object T 2 .
Thereafter, the gazing point tracking unit 48, as a starting point the center of gravity position G 1 of the object T 1, the pixel coordinates of the center of gravity position G 2 of the object T 2 showing movement vector is calculated as the pixel coordinates of the mobile after fixation point.

被写体領域抽出部43Cは、注視点追跡部48から入力された移動後注視点の画素座標Gと、被写体Tの重心位置Gとが一致するので、この被写体Tの画像領域を被写体領域として抽出する。 Subject region extraction unit 43C includes a fixation point tracking unit pixel coordinates G 2 after movement fixation point input from 48, since the gravity center position G 2 of the object T 2 are identical, a subject image area of the object T 2 Extract as a region.

このように、多視点ロボットカメラ制御装置40Cは、移動前の被写体Tの重心位置Gが移動後の被写体Tの画像領域に含まれているか否かに関わらず、被写体Tに注視点を設定すると共に、この被写体Tの輪郭をマーカ表示できる。 Thus, the multi-viewpoint robotic camera controller 40C, whether or not the gravity center position G 1 of the moving front of the object T 1 is included in the image area of the object T 2 of the after movement, the object T 2 Note sets a viewpoint, the contour of the object T 2 can marker display.

[多視点映像撮影システムの動作]
図17を参照し、多視点映像撮影システム1Cの動作について説明する(適宜図15参照)。
[Operation of multi-viewpoint video shooting system]
With reference to FIG. 17, the operation of the multi-viewpoint video shooting system 1C will be described (see FIG. 15 as appropriate).

多視点ロボットカメラ制御装置40Cは、注視点追跡部48によって、前フレームと現フレームとの撮影画像のマッチング処理により注視点の移動ベクトルを求める。
多視点ロボットカメラ制御装置40Cは、注視点追跡部48によって、前フレームの撮影画像における注視点を始点として移動ベクトルが示す画素座標を、移動後注視点の画素座標として算出する(ステップS20)。
In the multi-viewpoint robot camera control device 40C, the gazing point tracking unit 48 obtains a movement vector of the gazing point by matching the captured images of the previous frame and the current frame.
In the multi-viewpoint robot camera control device 40C, the gaze point tracking unit 48 calculates the pixel coordinates indicated by the movement vector from the gaze point in the captured image of the previous frame as the pixel coordinates of the post-movement gaze point (step S20).

多視点ロボットカメラ制御装置40Cは、被写体領域抽出部43Cによって、移動後注視点の画素座標に、重心位置が最も近くなる候補領域を被写体領域として抽出する(ステップS21)。   The multi-viewpoint robot camera control device 40C uses the subject region extraction unit 43C to extract, as a subject region, a candidate region that has the closest gravity center position to the pixel coordinates of the post-moving gazing point (step S21).

[作用・効果]
以上のように、多視点映像撮影システム1Cは、移動前の被写体Tの重心位置が移動後の被写体Tの画像領域に含まれているか否かに関わらず、被写体Tの注視点を追跡し、追跡中の注視点を向くようにロボットカメラ20を制御できるので、操作者の負担を軽減することができる。
[Action / Effect]
As described above, the multi-view video shooting system 1C tracks the gazing point of the subject T regardless of whether or not the center of gravity of the subject T before movement is included in the image area of the subject T after movement. Since the robot camera 20 can be controlled to face the gazing point during tracking, the burden on the operator can be reduced.

以上、本願発明の各実施形態を詳述してきたが、本願発明は前記した実施形態に限られるものではなく、本願発明の要旨を逸脱しない範囲の設計変更等も含まれる。   As mentioned above, although each embodiment of this invention was explained in full detail, this invention is not limited to above-described embodiment, The design change etc. of the range which does not deviate from the summary of this invention are also included.

前記した各実施形態では、基準画素を画面中央の画素であることとして説明したが、これに限定されない。つまり、変換距離画像内で任意位置の画素を基準画素に設定できる。
前記した各実施形態では、カメラパラメータ及び注視点の算出に参考文献1に記載の手法を用いることとして説明したが、これに限定されない。
前記した各実施形態では、注視点の世界座標及びパン値及びチルト値の算出に参考文献1に記載の手法を用いることとして説明したが、これに限定されない。
In each of the above-described embodiments, the reference pixel is described as the pixel at the center of the screen, but the present invention is not limited to this. That is, a pixel at an arbitrary position in the conversion distance image can be set as the reference pixel.
In each of the above-described embodiments, the method described in Reference 1 is used to calculate the camera parameter and the gazing point, but the present invention is not limited to this.
In each of the above-described embodiments, the method described in Reference 1 is used to calculate the world coordinates of the gazing point, the pan value, and the tilt value, but the present invention is not limited to this.

前記した各実施形態では、多視点ロボットカメラ制御装置を独立したハードウェアとして説明したが、本願発明は、これに限定されない。例えば、本願発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、多視点ロボットカメラ制御装置として協調動作させる多視点ロボットカメラ制御プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   In each of the above-described embodiments, the multi-viewpoint robot camera control device has been described as independent hardware, but the present invention is not limited to this. For example, the present invention can also be realized by a multi-viewpoint robot camera control program that causes hardware resources such as a CPU, a memory, and a hard disk included in a computer to operate cooperatively as a multi-viewpoint robot camera control device. This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

1,1B,1C 多視点映像撮影システム
10 多視点ロボットカメラ
20 ロボットカメラ
20 マスターカメラ
20 スレーブカメラ
21 カメラ本体
23 三脚
25 雲台
27 距離カメラ
30,30B,30C 操作インタフェース部
31 三脚
33 雲台
35 パン棒
37 エンコーダ
38 ファインダ
39 距離調整つまみ
40,40B,40C 多視点ロボットカメラ制御装置
41 変換パラメータ記憶部(カメラパラメータ記憶部)
42,42C 距離画像変換部
43,43B,43C 被写体領域抽出部
44,44B,44C ファインダ画像生成部
45,45B 注視点座標算出部
46 注視点画像座標記憶部
47 撮影画像記憶部
48 注視点追跡部
50 収録装置
1, 1B, 1C Multi-viewpoint video shooting system 10 Multi-viewpoint robot camera 20 Robot camera 20 M master camera 20 S slave camera 21 Camera body 23 Tripod 25 Head 27 Distance camera 30, 30B, 30C Operation interface unit 31 Tripod 33 Head 35 Pan stick 37 Encoder 38 Finder 39 Distance adjustment knobs 40, 40B, 40C Multi-viewpoint robot camera control device 41 Conversion parameter storage unit (camera parameter storage unit)
42, 42C Distance image conversion units 43, 43B, 43C Subject area extraction units 44, 44B, 44C Viewfinder image generation units 45, 45B Gaze point coordinate calculation unit 46 Gaze point image coordinate storage unit 47 Captured image storage unit 48 Gaze point tracking unit 50 Recording device

Claims (6)

同一の被写体を異なる視点で表示した多視点映像を生成するために、前記被写体を撮影する複数のロボットカメラで構成される多視点ロボットカメラを制御する多視点ロボットカメラ制御装置であって、
前記複数のロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢を表すカメラパラメータを予め記憶するカメラパラメータ記憶部と、
前記マスターカメラが前記被写体を撮影した撮影画像の変換距離画像が入力され、入力された前記変換距離画像で所定位置の基準画素の距離値又は前記基準画素の距離値と周辺画素の距離値との平均である基準距離値を基準として予め設定された範囲内の距離値を有し、かつ、前記基準画素が含まれる画素領域を被写体領域として抽出する被写体領域抽出部と、
抽出した前記被写体領域の輪郭を示すマーカが前記撮影画像に描画されたファインダ画像を生成し、生成した前記ファインダ画像をファインダに出力するファインダ画像生成部と、
前記ファインダ画像を目視した操作者による前記マスターカメラの操作信号が入力され、入力された前記操作信号を前記カメラパラメータで変換することで、前記被写体の位置を表す注視点の世界座標を算出し、算出した前記注視点の世界座標を前記マスターカメラ以外のロボットカメラであるスレーブカメラに出力する注視点座標算出部と、
を備えることを特徴とする多視点ロボットカメラ制御装置。
A multi-viewpoint robot camera control apparatus that controls a multi-viewpoint robot camera composed of a plurality of robot cameras that photograph the subject in order to generate a multi-viewpoint image in which the same subject is displayed from different viewpoints,
A camera parameter storage unit that stores in advance camera parameters representing the position and orientation of one master camera set in advance among the plurality of robot cameras;
A conversion distance image of a photographed image obtained by photographing the subject by the master camera is input, and a reference pixel distance value at a predetermined position or a distance value of the reference pixel and a distance value of peripheral pixels in the input conversion distance image . A subject area extraction unit that has a distance value within a preset range with reference to an average reference distance value , and that extracts a pixel area including the reference pixel as a subject area;
A finder image generation unit that generates a finder image in which a marker indicating the contour of the extracted subject area is drawn on the captured image, and outputs the generated finder image to the finder;
An operation signal of the master camera by an operator who has viewed the viewfinder image is input, and the input operation signal is converted by the camera parameter, thereby calculating world coordinates of a gazing point representing the position of the subject, A gazing point coordinate calculating unit that outputs the calculated world coordinates of the gazing point to a slave camera that is a robot camera other than the master camera;
A multi-viewpoint robot camera control device comprising:
前記被写体領域抽出部は、前記被写体と当該被写体以外の他の被写体との距離値の差分である距離差分値が入力され、入力された前記距離差分値と前記基準距離値とが加算された抽出対象距離値を算出し、算出した前記抽出対象距離値を基準として他の被写体領域を抽出し、
前記ファインダ画像生成部は、抽出した前記他の被写体領域の輪郭を示すマーカが前記撮影画像に描画されたファインダ画像を生成し、生成した当該ファインダ画像を前記ファインダに出力することを特徴とする請求項1に記載の多視点ロボットカメラ制御装置。
The subject area extraction unit receives a distance difference value, which is a difference in distance value between the subject and another subject other than the subject, and adds the input distance difference value and the reference distance value. Calculate a target distance value, extract other subject areas based on the calculated extraction target distance value,
The finder image generation unit generates a finder image in which a marker indicating an outline of the extracted other subject area is drawn on the photographed image, and outputs the generated finder image to the finder. Item 4. The multi-viewpoint robot camera control device according to Item 1.
前フレームの撮影画像における注視点の画像座標を記憶する注視点画像座標記憶部、をさらに備え、
前記被写体領域抽出部は、ラベリング処理により前記変換距離画像を前記被写体の候補領域に分割し、前記注視点画像座標記憶部に記憶された前フレームの撮影画像における注視点の画像座標が含まれる前記候補領域を前記被写体領域として抽出し、抽出した前記被写体領域の重心位置を算出し、
前記注視点座標算出部は、前記被写体領域抽出部が算出した被写体領域の重心位置を前フレームの撮影画像における注視点の画像座標として前記注視点画像座標記憶部に記憶させることを特徴とする請求項1又は請求項2に記載の多視点ロボットカメラ制御装置。
A gazing point image coordinate storage unit that stores image coordinates of the gazing point in the captured image of the previous frame;
The subject region extraction unit divides the converted distance image into candidate regions of the subject by labeling processing, and includes the image coordinates of the gazing point in the captured image of the previous frame stored in the gazing point image coordinate storage unit. A candidate area is extracted as the subject area, the center of gravity position of the extracted subject area is calculated,
The gazing point coordinate calculation unit stores the centroid position of the subject area calculated by the subject area extraction unit in the gazing point image coordinate storage unit as image coordinates of a gazing point in a captured image of the previous frame. The multi-viewpoint robot camera control device according to claim 1 or 2.
前フレームの撮影画像を記憶する撮影画像記憶部と、
前記前フレームの撮影画像における注視点の画像座標を記憶する注視点画像座標記憶部と、
前記撮影画像記憶部に記憶された前フレームの撮影画像と前記マスターカメラから入力された現フレームの撮影画像とのマッチング処理により前記注視点の移動ベクトルを求め、前記前フレームの撮影画像における注視点を始点として前記移動ベクトルが示す画素座標を、移動後注視点の画素座標として算出し、算出した前記移動後注視点の画素座標を前記前フレームの撮影画像における注視点の画像座標として前記注視点画像座標記憶部に記憶させ、前記現フレームの撮影画像を前記撮影画像記憶部に記憶させる注視点追跡部と、をさらに備え、
前記被写体領域抽出部は、ラベリング処理により前記変換距離画像を前記被写体の候補領域に分割し、分割した前記候補領域の重心位置を算出し、前記移動後注視点の画素座標に前記重心位置が最も近くなる前記候補領域を前記被写体領域として抽出することを特徴とする請求項1又は請求項2に記載の多視点ロボットカメラ制御装置。
A captured image storage unit for storing the captured image of the previous frame;
A gazing point image coordinate storage unit for storing image coordinates of a gazing point in the captured image of the previous frame;
The gazing point in the photographed image of the previous frame is obtained by obtaining a movement vector of the gazing point by matching the photographed image of the previous frame stored in the photographed image storage unit with the photographed image of the current frame input from the master camera. The pixel coordinate indicated by the movement vector starting from the starting point is calculated as the pixel coordinate of the post-movement gazing point, and the calculated pixel coordinate of the post-movement gazing point is used as the gazing point image coordinate in the captured image of the previous frame. A gazing point tracking unit for storing in the image coordinate storage unit and storing the captured image of the current frame in the captured image storage unit;
The subject area extraction unit divides the conversion distance image into candidate areas of the subject by a labeling process, calculates a centroid position of the divided candidate area, and the centroid position is the highest in the pixel coordinates of the post-movement gazing point. The multi-viewpoint robot camera control device according to claim 1, wherein the candidate area that is close is extracted as the subject area.
距離カメラで撮影した距離画像が入力され、入力された前記距離画像を前記変換距離画像に変換する距離画像変換部、をさらに備えることを特徴とする請求項1から請求項4の何れか一項に記載の多視点ロボットカメラ制御装置。   The distance image conversion part which converts into the said conversion distance image the distance image image | photographed with the distance camera is input further, The distance image conversion part characterized by the above-mentioned. The multi-viewpoint robot camera control device described in 1. コンピュータを、請求項1から請求項5の何れか一項に記載の多視点ロボットカメラ制御装置として機能させるための多視点ロボットカメラ制御プログラム。   A multi-viewpoint robot camera control program for causing a computer to function as the multi-viewpoint robot camera control device according to any one of claims 1 to 5.
JP2015211549A 2015-10-28 2015-10-28 Multi-viewpoint robot camera control device and program thereof Active JP6606397B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015211549A JP6606397B2 (en) 2015-10-28 2015-10-28 Multi-viewpoint robot camera control device and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015211549A JP6606397B2 (en) 2015-10-28 2015-10-28 Multi-viewpoint robot camera control device and program thereof

Publications (2)

Publication Number Publication Date
JP2017085340A JP2017085340A (en) 2017-05-18
JP6606397B2 true JP6606397B2 (en) 2019-11-13

Family

ID=58711363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015211549A Active JP6606397B2 (en) 2015-10-28 2015-10-28 Multi-viewpoint robot camera control device and program thereof

Country Status (1)

Country Link
JP (1) JP6606397B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025003A (en) * 1999-07-08 2001-01-26 Canon Inc Camera system and camera control method
JP2002071309A (en) * 2000-08-24 2002-03-08 Asahi Optical Co Ltd Three-dimensional image-detecting device
JP5316083B2 (en) * 2009-02-27 2013-10-16 株式会社ニコン camera
JP2011175477A (en) * 2010-02-24 2011-09-08 Canon Inc Three-dimensional measurement apparatus, processing method and program
JP2013058054A (en) * 2011-09-08 2013-03-28 Dainippon Printing Co Ltd Moving body tracking device, moving body tracking method, and program
JP5879877B2 (en) * 2011-09-28 2016-03-08 沖電気工業株式会社 Image processing apparatus, image processing method, program, and image processing system
JP2015103852A (en) * 2013-11-21 2015-06-04 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing apparatus control method, image processing apparatus control program, and storage medium

Also Published As

Publication number Publication date
JP2017085340A (en) 2017-05-18

Similar Documents

Publication Publication Date Title
KR102105189B1 (en) Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object
JP2017108387A (en) Image calibrating, stitching and depth rebuilding method of panoramic fish-eye camera and system thereof
KR102225617B1 (en) Method of setting algorithm for image registration
JP2020506487A (en) Apparatus and method for obtaining depth information from a scene
CN107368192B (en) Real-scene observation method of VR glasses and VR glasses
JP5856344B1 (en) 3D image display device
JP2007226761A (en) Locus image composition device for image object, locus image display device for image object, and program therefor
KR101997991B1 (en) Image merging method and system using viewpoint transformation
JP6609112B2 (en) Multi-view video expression device and program thereof
CN112330736A (en) Scene picture shooting method and device, electronic equipment and storage medium
JP2020135222A (en) Image generation device, image generation method, and program
US20210392275A1 (en) Camera array for a mediated-reality system
JP6055223B2 (en) Projection-converted video generation device and program thereof, and multi-view video expression device
KR101270025B1 (en) Stereo Camera Appratus and Vergence Control Method thereof
KR101725024B1 (en) System for real time making of 360 degree VR video base on lookup table and Method for using the same
JP2001256482A (en) Device and method for generating parallax image
JP2019121945A (en) Imaging apparatus, control method of the same, and program
CN110036411B (en) Apparatus and method for generating electronic three-dimensional roaming environment
WO2021031210A1 (en) Video processing method and apparatus, storage medium, and electronic device
JP6606397B2 (en) Multi-viewpoint robot camera control device and program thereof
CN108513122B (en) Model adjusting method and model generating device based on 3D imaging technology
CN109961395B (en) Method, device and system for generating and displaying depth image and readable medium
JP5453552B2 (en) Imaging apparatus, method and program
JP2015126402A (en) Robot camera control device, program for the same, and multi-viewpoint robot camera system
CN109379577B (en) Video generation method, device and equipment of virtual viewpoint

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191018

R150 Certificate of patent or registration of utility model

Ref document number: 6606397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250