JP6606397B2 - Multi-viewpoint robot camera control device and program thereof - Google Patents
Multi-viewpoint robot camera control device and program thereof Download PDFInfo
- Publication number
- JP6606397B2 JP6606397B2 JP2015211549A JP2015211549A JP6606397B2 JP 6606397 B2 JP6606397 B2 JP 6606397B2 JP 2015211549 A JP2015211549 A JP 2015211549A JP 2015211549 A JP2015211549 A JP 2015211549A JP 6606397 B2 JP6606397 B2 JP 6606397B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- gazing point
- distance
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 claims description 51
- 238000000605 extraction Methods 0.000 claims description 49
- 238000003860 storage Methods 0.000 claims description 35
- 230000005484 gravity Effects 0.000 claims description 23
- 238000000034 method Methods 0.000 claims description 20
- 239000003550 marker Substances 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 9
- 238000002372 labelling Methods 0.000 claims description 5
- 230000002093 peripheral effect Effects 0.000 claims 1
- 239000011159 matrix material Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- UBCKGWBNUIFUST-YHYXMXQVSA-N tetrachlorvinphos Chemical compound COP(=O)(OC)O\C(=C/Cl)C1=CC(Cl)=C(Cl)C=C1Cl UBCKGWBNUIFUST-YHYXMXQVSA-N 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 235000008429 bread Nutrition 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Description
本願発明は、同一の被写体を異なる視点で表示した多視点映像を生成するために、多視点ロボットカメラを制御する多視点ロボットカメラ制御装置及びそのプログラムに関する。 The present invention relates to a multi-viewpoint robot camera control apparatus for controlling a multi-viewpoint robot camera and a program therefor, in order to generate a multi-viewpoint video in which the same subject is displayed from different viewpoints.
従来から、被写体を取り囲むようにロボットカメラを配置し、撮影した映像をロボットカメラの並びに沿って切替えることで、動きのある被写体のある瞬間を様々な視点から提示する多視点映像表現という映像表現が知られている。この多視点映像表現には、例えば、非特許文献1に記載された多視点映像表現システムが用いられている。 Conventionally, by arranging a robot camera to surround the subject and switching the captured video along the sequence of the robot camera, there is a video representation called multi-view video representation that presents a moment with a moving subject from various viewpoints. Are known. For this multi-view video representation, for example, a multi-view video representation system described in Non-Patent Document 1 is used.
この多視点映像表現システムは、複数のロボットカメラをそれぞれ電動雲台に乗せて配置し、機械的なパンやチルトの制御により、スポーツ試合のような被写体が動き回る場合においても、前記した多視点映像表現を準リアルタイムで実現するものである。具体的には、カメラマンが1台のマスターカメラを操作し、注視する被写体が常に画面中央に映るように撮影する。このとき、この多視点映像表現システムは、カメラマンのカメラワークに応じて、他のスレーブカメラの視線が注視点で輻輳するように電動雲台を自動制御する。 This multi-view video presentation system is configured by placing a plurality of robot cameras on an electric pan head and controlling the panning and tilting mechanically, so that the multi-view video described above can be used even when an object such as a sports game moves around. The expression is realized in near real time. Specifically, the photographer operates one master camera and shoots so that the subject to be watched always appears in the center of the screen. At this time, this multi-view video expression system automatically controls the electric pan head so that the line of sight of the other slave cameras is congested at the gazing point according to the camera work of the cameraman.
しかし、前記した多視点映像表現システムでは、ファインダに分割表示された全ロボットカメラの映像を目視しながら、カメラマン等の操作者が注視点を手動で設定しなければならない。このとき、多視点映像表現システムでは、操作者が、画面中央に被写体が映るようにマスターカメラの操作を行っており、注視点の設定操作が操作者に非常に負担をかけるという問題がある。 However, in the multi-view video expression system described above, an operator such as a cameraman has to manually set a gaze point while viewing the images of all the robot cameras divided and displayed on the finder. At this time, in the multi-viewpoint video expression system, there is a problem that the operator operates the master camera so that the subject appears in the center of the screen, and the setting operation of the gazing point places a heavy burden on the operator.
そこで、本願発明は、操作者の負担を軽減できる多視点ロボットカメラ制御装置及びそのプログラムを提供することを課題とする。 Accordingly, it is an object of the present invention to provide a multi-viewpoint robot camera control device and a program thereof that can reduce the burden on the operator.
前記した課題に鑑みて、本願発明に係る多視点ロボットカメラ制御装置は、同一の被写体を異なる視点で表示した多視点映像を生成するために、前記被写体を撮影する複数のロボットカメラで構成される多視点ロボットカメラを制御する多視点ロボットカメラ制御装置であって、カメラパラメータ記憶部と、被写体領域抽出部と、ファインダ画像生成部と、注視点座標算出部と、を備える構成とした。 In view of the above-described problems, the multi-viewpoint robot camera control device according to the present invention is configured by a plurality of robot cameras that photograph the subject in order to generate a multi-viewpoint image in which the same subject is displayed from different viewpoints. A multi-viewpoint robot camera control apparatus that controls a multi-viewpoint robot camera, comprising a camera parameter storage unit, a subject area extraction unit, a finder image generation unit, and a gaze point coordinate calculation unit.
かかる構成によれば、多視点ロボットカメラ制御装置は、カメラパラメータ記憶部によって、前記複数のロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢を表すカメラパラメータを予め記憶する。
多視点ロボットカメラ制御装置は、被写体領域抽出部によって、前記マスターカメラが前記被写体を撮影した撮影画像の変換距離画像が入力され、入力された前記変換距離画像で所定位置(例えば、画面中央)の基準画素の距離値又は前記基準画素の距離値と周辺画素の距離値との平均である基準距離値を基準として予め設定された範囲内の距離値を有し、かつ、前記基準画素が含まれる画素領域を被写体領域として抽出する。
According to this configuration, the multi-viewpoint robot camera control device stores in advance camera parameters representing the position and orientation of one master camera set in advance among the plurality of robot cameras by the camera parameter storage unit.
In the multi-viewpoint robot camera control device, the subject area extraction unit receives a conversion distance image of a photographed image obtained by photographing the subject by the master camera, and a predetermined position (for example, the center of the screen) in the input conversion distance image. A distance value within a range set in advance with reference to a distance value of a reference pixel or a reference distance value that is an average of a distance value of the reference pixel and a distance value of surrounding pixels , and the reference pixel is included A pixel area is extracted as a subject area.
多視点ロボットカメラ制御装置は、ファインダ画像生成部によって、抽出した前記被写体領域の輪郭を示すマーカが前記撮影画像に描画されたファインダ画像を生成し、生成した前記ファインダ画像を操作インターフェース部に搭載されたファインダに出力する。
多視点ロボットカメラ制御装置は、注視点座標算出部によって、前記ファインダ画像を目視した操作者による前記マスターカメラの操作信号が入力され、入力された前記操作信号を前記カメラパラメータで変換することで、前記被写体の位置を表す注視点の世界座標を算出し、算出した前記注視点の世界座標を前記マスターカメラ以外のロボットカメラであるスレーブカメラに出力する。
The multi-viewpoint robot camera control device generates a finder image in which a marker indicating the contour of the extracted subject area is drawn on the captured image by the finder image generation unit, and the generated finder image is mounted on the operation interface unit. Output to the viewfinder.
The multi-viewpoint robot camera control device receives an operation signal of the master camera by an operator who views the viewfinder image by the gazing point coordinate calculation unit, and converts the input operation signal with the camera parameter. The world coordinate of the gazing point representing the position of the subject is calculated, and the calculated world coordinate of the gazing point is output to a slave camera which is a robot camera other than the master camera.
すなわち、多視点ロボットカメラ制御装置は、カメラマン等の操作者が被写体を所定位置(例えば、画面中央)に捉えると、この被写体がファインダでマーカ表示されるので、操作者が多視点映像表現の対象を認識しやすくなる。さらに、多視点ロボットカメラ制御装置は、この被写体の位置を注視点の世界座標として各スレーブカメラに出力する。その後、各スレーブカメラは、多視点ロボットカメラ制御装置から入力された注視点を向くような姿勢をとる。
このように、多視点ロボットカメラ制御装置は、操作者が注視点の設定操作を行うことなく、注視点を向くようにスレーブカメラを制御することができる。
In other words, when an operator such as a cameraman captures a subject at a predetermined position (for example, the center of the screen), the multi-viewpoint robot camera control device displays the marker on the finder, so that the operator It becomes easy to recognize. Furthermore, the multi-viewpoint robot camera control device outputs the position of the subject to each slave camera as the world coordinates of the point of interest. Thereafter, each slave camera takes an attitude such that it faces the gazing point input from the multi-viewpoint robot camera control device.
As described above, the multi-viewpoint robot camera control apparatus can control the slave camera so that the operator faces the gazing point without the operator performing the gazing point setting operation.
本願発明によれば、以下のような優れた効果を奏する。
本願発明に係る多視点ロボットカメラ制御装置は、操作者が注視点の設定操作を行うことなく、注視点を向くようにスレーブカメラを制御できるので、操作者の負担を軽減することができる。
According to the present invention, the following excellent effects can be obtained.
Since the multi-viewpoint robot camera control device according to the present invention can control the slave camera so that the operator faces the gazing point without the operator performing the gazing point setting operation, the burden on the operator can be reduced.
以下、本願発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の手段及び同一の処理には同一の符号を付し、説明を省略した。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, the same means and the same process are denoted by the same reference numerals, and description thereof is omitted.
(第1実施形態)
[多視点映像撮影システムの構成]
図1,図2を参照し、本願発明の第1実施形態に係る多視点映像撮影システム1の構成について説明する。
図1のように、多視点映像撮影システム1は、同一の被写体Tを異なる視点で表示した多視点映像を生成するものであり、多視点ロボットカメラ10と、操作インタフェース部30と、多視点ロボットカメラ制御装置40と、収録装置50とを備える。
(First embodiment)
[Configuration of multi-viewpoint video shooting system]
With reference to FIG. 1 and FIG. 2, the configuration of the multi-view video shooting system 1 according to the first embodiment of the present invention will be described.
As shown in FIG. 1, the multi-view video shooting system 1 generates a multi-view video in which the same subject T is displayed from different viewpoints, and includes a
多視点ロボットカメラ10は、複数のロボットカメラ20で構成されたものである。本実施形態では、多視点ロボットカメラ10は、7台のロボットカメラ20で構成されている。
The
ロボットカメラ20は、被写体Tを撮影した撮影画像を生成するものであり、カメラ本体21と、三脚23(図2)と、雲台25とを備える。本実施形態では、カメラ本体21は、カラー映像を撮影する一般的なカラーカメラである。当然、カメラ本体21は、カラーカメラに限定されず、例えば、白黒カメラであってもよい。
The
図2のように、ロボットカメラ20は、三脚23に搭載されている。そして、ロボットカメラ20は、三脚23の上方に設けた雲台25によって、パン軸及びチルト軸の2軸方向に駆動されると共に、ズームイン及びズームアウトが可能である。
ロボットカメラ20で撮影された撮影画像は、多視点ロボットカメラ制御装置40及び収録装置50に出力される。
As shown in FIG. 2, the
The captured image captured by the
また、多視点ロボットカメラ10は、何れか一台のロボットカメラ20の雲台25に距離カメラ27が搭載されている(図2不図示)。ここで、距離カメラ27及びカメラ本体21は、互いの光軸が平行になるように配置することが好ましい。
なお、距離カメラ27及びカメラ本体21は、カメラパラメータにより光軸方向の補正が可能なため、必ずしも平行に配置せずともよい。
In the
Note that the
この距離カメラ27は、画素毎に距離値を格納した距離画像(デプスマップ)を動画で撮影するものである。例えば、距離カメラ27としては、TOF(Time Of Flight)方式、構造化照明方式等といった光線の照射により距離画像を撮影する能動カメラがあげられる。また、距離カメラ27は、光線を照射せずに距離画像を撮影する受動カメラであってもよい。この受動カメラとしては、2台のカラーカメラを左右に並べ、両カラーカメラの各画素の対応関係を探索することで(ステレオマッチング法)、三角測量の原理で距離画像を撮影するステレオカメラがあげられる。
距離カメラ27で撮影された距離画像は、多視点ロボットカメラ制御装置40に出力される。
The
A distance image captured by the
この距離カメラ27が搭載されたロボットカメラ20は、マスターカメラ20Mと呼ばれる。このマスターカメラ20Mは、後記するファインダ38を搭載した操作インタフェース部30の操作に連動してその姿勢が制御される。
一方、距離カメラ27が搭載されていないロボットカメラ20は、スレーブカメラ20Sと呼ばれる。このスレーブカメラ20Sは、多視点ロボットカメラ制御装置40からの情報(注視点の世界座標)に基づいて、注視点を向くように姿勢が制御される。
なお、多視点ロボットカメラ10は、複数のロボットカメラ20のうち、何れか一台がマスターカメラ20Mとして予め設定され、残りがスレーブカメラ20Sとして予め設定される。
The
On the other hand, the
Note
図2のように、操作インタフェース部30は、カメラマン等の操作者がマスターカメラ20Mの操作を行うものであり、三脚31と、雲台33と、パン棒35と、エンコーダ37(図3)と、ファインダ38とを備える。
As in Figure 2, the
ここで、操作インタフェース部30は、ファインダ38と共に三脚31に搭載され、三脚31の上方に設けた雲台33からパン棒35が延長されている。そして、操作インタフェース部30は、パン棒35を用いてパン方向やチルト方向に回転させると、その操作に応じてマスターカメラ20Mが回転する。すなわち、カメラマン等の操作者は、マスターカメラCMが被写体(注視点)を向くように、ファインダ38を覗きながら操作インタフェース部30を操作する。
Here, the
また、操作インタフェース部30は、内蔵されたエンコーダ37によって、現在のパン値及びチルト値をリアルタイムに計測する。そして、操作インタフェース部30は、計測したパン値及びチルト値を多視点ロボットカメラ制御装置40に出力する。
Further, the
多視点ロボットカメラ制御装置40は、多視点映像を生成するために多視点ロボットカメラ10を制御するものである。
なお、多視点ロボットカメラ制御装置40の詳細は、後記する。
The multi-view robot
Details of the multi-viewpoint robot
収録装置50は、多視点ロボットカメラ制御装置40から入力された撮影画像を収録し、収録した撮影画像から多視点映像を生成するものである。例えば、収録装置50は、下記参考文献1に記載の手法を用いて、多視点映像を生成する。
参考文献1:Bullet Time Using Multi-Viewpoint Robotic Camera System,Kensuke Ikeya,CVMP'14 11th European Conference on Visual Media Production (CVMP 2014),13-14 November 2014
The
Reference 1: Bullet Time Using Multi-Viewpoint Robotic Camera System, Kensuke Ikeya, CVMP'14 11th European Conference on Visual Media Production (CVMP 2014), 13-14 November 2014
[多視点ロボットカメラ制御装置の構成]
図3を参照し、多視点ロボットカメラ制御装置40の構成について説明する。
図3のように、多視点ロボットカメラ制御装置40は、変換パラメータ記憶部(カメラパラメータ記憶部)41と、距離画像変換部42と、被写体領域抽出部43と、ファインダ画像生成部44と、注視点座標算出部45とを備える。
[Configuration of multi-viewpoint robot camera control device]
The configuration of the multi-viewpoint robot
As shown in FIG. 3, the multi-viewpoint robot
変換パラメータ記憶部41は、マスターカメラ20Mを含めた全ロボットカメラ20のカメラパラメータを変換パラメータとして予め記憶するものである。この変換パラメータとしては、各ロボットカメラ20の内部パラメータ行列、回転行列及び並進行列があげられる。
Conversion
ここで、多視点映像撮影システム1では、カメラキャリブレーションにより各ロボットカメラ20の変換パラメータを求め、その結果を変換パラメータ記憶部41に予め記憶させておく。例えば、カメラキャリブレーションの手法は、前記参考文献1に記載されている。
Here, in the multi-viewpoint video shooting system 1, the conversion parameter of each
距離画像変換部42は、距離カメラ27から入力された距離画像を、マスターカメラ20Mの撮影画像の変換距離画像に変換するものである。具体的には、距離画像変換部42は、変換パラメータ記憶部41に記憶されたマスターカメラ20Mの変換パラメータを用いて、距離画像の3次元の点群をマスターカメラ20Mの撮影面に投影することで、撮影画像と同一画素数でそれぞれの画素位置が一致している変換距離画像に変換する。
The distance
例えば、距離画像変換部42は、距離画像が撮影画像よりも解像度が低い場合、変換距離画像上で内挿処理を行ってもよい。内挿処理の手法としては、線形内挿、又は、距離画像上で設定したポリゴンを撮影画像に投影する手法があげられる。
その後、距離画像変換部42は、変換距離画像を被写体領域抽出部43に出力する。
For example, when the distance image has a lower resolution than the captured image, the distance
Thereafter, the distance
これにより、撮影画像及び変換距離画像は、互いの画素が対応することになり、画像座標が一致する。言い換えるなら、変換距離画像は、撮影画像の各画素の距離値を表した奥行マップとなる。ここで、距離値は、マスターカメラ20Mから被写体Tまでの距離、つまり、被写体Tの奥行値を表す。
なお、画像座標とは、画像中の位置を示す座標のことである。
As a result, the captured image and the converted distance image correspond to each other, and the image coordinates match. In other words, the converted distance image is a depth map that represents the distance value of each pixel of the captured image. Here, the distance value represents the distance from the master camera 20M to the subject T, that is, the depth value of the subject T.
The image coordinates are coordinates indicating a position in the image.
例えば、マスターカメラ20Mが、図4の撮影画像を撮影したこととする。この場合、変換距離画像は、図5のように、各画素の画素値(輝度値)により距離値を表した画像となる。図5の変換距離画像は、ハッチングの部分がマスターカメラ20Mから被写体Tまでの距離値を表しており、白色の部分がマスターカメラ20Mから背景までの距離値を表している。 For example, it is assumed that the master camera 20M has captured the captured image of FIG. In this case, the conversion distance image is an image in which the distance value is represented by the pixel value (luminance value) of each pixel as shown in FIG. In the converted distance image of FIG. 5, the hatched portion represents the distance value from the master camera 20M to the subject T, and the white portion represents the distance value from the master camera 20M to the background.
被写体領域抽出部43は、距離画像変換部42から入力された変換距離画像で所定位置の基準画素における基準距離値を基準として、基準画素が含まれる被写体領域を抽出するものである。本実施形態では、基準画素が、変換距離画像の中央に位置する画素であることとする。
The subject
具体的には、被写体領域抽出部43は、基準画素の距離値を基準として予め設定された範囲内の距離値を有し、かつ、基準画素が含まれる画素領域を求める。例えば、図5の変換距離画像が入力された場合を考える。この場合、図6のように、被写体Tの領域内の各画素が予め設定された範囲内の距離値を有し、かつ、被写体Tの領域に基準画素Sが含まれている。従って、被写体領域抽出部43は、被写体Tの画像領域を求めることになる。
Specifically, the subject
このとき、被写体領域抽出部43は、基準画素の距離値の代わりに、基準画素とこの基準画素の周辺に位置する周辺画素との距離値の平均を用いてもよい。これにより、被写体領域抽出部43は、基準画素の距離値が周辺画素の距離値と大きく異なる場合でも、正確に画素領域を求めることができる。
At this time, the subject
その後、被写体領域抽出部43は、求めた画素領域の輪郭部分を変換距離画像から抽出し、抽出した被写体領域をファインダ画像生成部44に出力する。さらに、被写体領域抽出部43は、基準距離値を注視点座標算出部45に出力する。
Thereafter, the subject
ファインダ画像生成部44は、マーカが撮影映像に描画されたファインダ画像を生成するものである。このマーカは、被写体領域抽出部43から入力された被写体領域の輪郭を示している。例えば、ファインダ画像生成部44は、図7のように、マスターカメラ20Mから入力された撮影画像にマーカMが合成されたファインダ画像を生成する。そして、ファインダ画像生成部44は、生成したファインダ画像をファインダ38に出力する。
これにより、ファインダ38には、被写体Tの輪郭を示すマーカが表示される(マーカ表示)。
The finder
Thereby, a marker indicating the outline of the subject T is displayed on the finder 38 (marker display).
注視点座標算出部45は、操作インタフェース部30から入力されたマスターカメラ20Mの操作信号(パン値及びチルト値)を変換パラメータで変換することで、被写体Tの位置を表す注視点の世界座標を算出するものである。
なお、世界座標とは、各ロボットカメラ20に共通する三次元座標のことである。
Gazing point coordinate
The world coordinates are three-dimensional coordinates common to the
例えば、注視点座標算出部45は、参考文献1に記載された式(2)〜式(5)に、マスターカメラ20Mの回転行列及び並進行列と、マスターカメラ20Mのパン値及びチルト値と、被写体領域抽出部43から入力された基準距離値とを代入し、注視点の世界座標を算出する。そして、注視点座標算出部45は、算出した注視点の世界座標を全てのロボットカメラ20の雲台25に出力する。
For example, the gazing point coordinate
ここで、各ロボットカメラ20は、それぞれのカメラパラメータを用いて、注視点座標算出部45から入力された注視点の世界座標を向くようにパン値及びチルト値を算出する。例えば、各ロボットカメラ20は、参考文献1に記載された式(7)〜式(10)に、各ロボットカメラ20の回転行列及び並進行列と注視点の世界座標とを代入し、パン値及びチルト値を算出する。そして、各ロボットカメラ20は、算出したパン値及びチルト値に従って雲台25を駆動することで、注視点を向いた姿勢をとる。
Here, each
[多視点映像撮影システムの動作]
図8を参照し、多視点映像撮影システム1の動作について説明する(適宜図1,図3参照)。
操作者は、操作インタフェース部30を介して、被写体Tを画面中央に捉えるように、マスターカメラ20Mを操作する(ステップS1)。
なお、ステップS1の処理は、操作者による手動操作のため破線で図示した。
[Operation of multi-viewpoint video shooting system]
The operation of the multi-view video shooting system 1 will be described with reference to FIG. 8 (see FIGS. 1 and 3 as appropriate).
Operator, through the
Note that the processing in step S1 is illustrated by a broken line for manual operation by the operator.
多視点ロボットカメラ制御装置40は、距離画像変換部42によって、マスターカメラ20Mの変換パラメータを用いて、距離画像を変換距離画像に変換する(ステップS2)。
多視点ロボットカメラ制御装置40は、被写体領域抽出部43によって、距離画像変換部42より入力された変換距離画像から被写体領域を抽出する(ステップS3)。
Multiview
In the multi-viewpoint robot
多視点ロボットカメラ制御装置40は、注視点座標算出部45によって、マスターカメラ20Mのパン値及びチルト値と基準距離値から、変換パラメータを用いて、注視点の世界座標を算出する(ステップS4)。
各ロボットカメラ20は、変換パラメータを用いて、注視点の世界座標からパン値とチルト値を求め、雲台を制御する(ステップS5)。
Multiview
Each
多視点ロボットカメラ制御装置40は、ファインダ画像生成部44によって、抽出した被写体領域の輪郭を示すマーカが描画されたファインダ画像を生成する(ステップS6)。
マスターカメラ20Mは、ファインダ38にファインダ画像を表示する(ステップS7)。
In the multi-viewpoint robot
なお、多視点映像撮影システム1は、ステップS1〜S7の処理を繰り返し、多視点映像表現に必要な撮影画像を収録装置50に収録する。そして、収録装置50は、収録された撮影画像から多視点映像を生成する(図8不図示)。
Note that the multi-viewpoint video shooting system 1 repeats the processes of steps S1 to S7 and records the shot images necessary for multi-viewpoint video representation in the
[作用・効果]
以上のように、多視点映像撮影システム1は、操作者が被写体Tを画面中央で捉えるように操作すれば、被写体Tを向くようにロボットカメラ20を制御する。このように、多視点映像撮影システム1では、操作者が注視点の設定操作を行うことなく被写体Tを撮影できるので、操作者の負担を軽減することができる。
[Action / Effect]
As described above, the multi-view video shooting system 1 controls the
(第2実施形態)
[多視点映像撮影システムの構成]
図9,図10を参照し、本願発明の第2実施形態に係る多視点映像撮影システム1Bの構成について、第1実施形態と異なる点を説明する。
(Second Embodiment)
[Configuration of multi-viewpoint video shooting system]
With reference to FIGS. 9 and 10, the configuration of the multi-view video shooting system 1B according to the second embodiment of the present invention will be described while referring to differences from the first embodiment.
多視点映像撮影システム1Bは、注視点を追跡できる点と、画面中央以外に位置する他の被写体にも注視点を設定できる点とが第1実施形態と異なる。
図9のように、多視点映像撮影システム1Bは、多視点ロボットカメラ10と、操作インタフェース部30Bと、多視点ロボットカメラ制御装置40Bと、収録装置50とを備える。
The multi-viewpoint video shooting system 1B is different from the first embodiment in that the point of gaze can be tracked and the point of gaze can be set for other subjects located outside the center of the screen.
As shown in FIG. 9, the multi-view video shooting system 1B includes a
図10のように、操作インタフェース部30Bは、三脚31と、雲台33と、パン棒35と、エンコーダ37(図11)と、距離調整つまみ39とを備える。
距離調整つまみ39は、パン棒35のほぼ中央に取り付けられたダイヤルである。この距離調整つまみ39は、注視点基準画素の距離値を基準として、他の被写体での距離値を距離差分値として出力する。つまり、距離差分値は、画面中央に位置する被写体の距離値と、画面中央以外に位置する他の被写体の距離値との差分を表す。
As shown in FIG. 10, the
The
ここで、画面中央以外に位置する他の被写体に注視点を設定したい場合、操作者が距離調整つまみ39を操作する。すると、操作者の操作量に応じて、他の被写体に注視点が設定されることになる。
Here, when it is desired to set a gazing point on another subject located outside the center of the screen, the operator operates the
[多視点ロボットカメラ制御装置の構成]
図11を参照し、多視点ロボットカメラ制御装置40Bの構成について説明する。
図11のように、多視点ロボットカメラ制御装置40Bは、変換パラメータ記憶部41と、距離画像変換部42と、被写体領域抽出部43Bと、ファインダ画像生成部44Bと、注視点座標算出部45Bと、注視点画像座標記憶部46とを備える。
[Configuration of multi-viewpoint robot camera control device]
The configuration of the multi-viewpoint robot
As shown in FIG. 11, the multi-viewpoint robot
被写体領域抽出部43Bは、ラベリング処理により変換距離画像を被写体Tの候補領域に分割し、注視点画像座標記憶部46に記憶された前フレームの撮影画像における注視点の画像座標が含まれる候補領域を被写体領域として抽出する。そして、被写体領域抽出部43Bは、抽出した被写体領域の重心位置を算出し、注視点座標算出部45Bに出力するものである(注視点の追跡)。
The subject region extraction unit 43B divides the conversion distance image into candidate regions of the subject T by labeling processing, and includes candidate regions including the image coordinates of the gazing point in the captured image of the previous frame stored in the gazing point image coordinate
また、被写体領域抽出部43Bは、距離調整つまみ39から入力された距離差分値と基準距離値とが加算された抽出対象距離値を算出し、算出した抽出対象距離値を基準として他の被写体領域を抽出する(他の被写体に対する注視点の設定)。この他の被写体領域とは、他の被写体を表す画像領域のことである。
なお、被写体領域抽出部43Bの詳細は、後記する。
The subject area extraction unit 43B calculates an extraction target distance value obtained by adding the distance difference value input from the
Details of the subject region extraction unit 43B will be described later.
ファインダ画像生成部44Bは、被写体領域抽出部43Bから入力された他の被写体領域についても、その輪郭を示すマーカが撮影画像に描画されたファインダ画像を生成するものである。このファインダ画像生成部44Bは、ファインダ画像の生成手法が第1実施形態と同様のため、これ以上の説明を省略する。
The finder
注視点座標算出部45Bは、被写体領域抽出部43Bから入力された被写体領域の重心位置を前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる。
他の点、注視点座標算出部45Bは、第1実施形態と同様のため、これ以上の説明を省略する。
The gazing point coordinate calculation unit 45B causes the gazing point image coordinate
Other points and the gazing point coordinate calculation unit 45B are the same as those in the first embodiment, and thus further description thereof is omitted.
注視点画像座標記憶部46は、注視点座標算出部45Bから入力された前フレームの撮影画像における注視点の画像座標を記憶するものである。この前フレームの撮影画像における注視点の画像座標は、現フレームの撮影画像で注視点を追跡する際に参照される。
The gazing point image coordinate
<注視点の追跡>
図12を参照し、注視点の追跡について説明する(適宜図11参照)。
この図12では、前フレームの撮影画像に含まれる被写体T1を破線で図示し、処理対象となっている現フレームの撮影画像に含まれる被写体T2を実線で図示した。
<Tracking the point of interest>
With reference to FIG. 12, the tracking of the gazing point will be described (see FIG. 11 as appropriate).
In FIG 12, illustrates the subject T 1 contained in the captured image of the previous frame in broken lines, the object T 2 included in the captured image of the current frame to be processed shown in solid lines.
まず、前フレームの撮影画像に対する処理を説明する。
多視点ロボットカメラ制御装置40Bの各手段は、前フレームの撮影画像に対し、第1実施形態と同様の処理を行い、被写体T1がマーカ表示されたファインダ画像を生成する。
First, the process for the captured image of the previous frame will be described.
Each unit of the multi-viewpoint
このとき、被写体領域抽出部43Bは、抽出した被写体T1の重心位置G1を算出し、注視点座標算出部45Bに出力する。そして、注視点座標算出部45Bは、被写体領域抽出部43Bから入力された被写体T1の重心位置G1を、前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる。
At this time, the object area extracting unit 43B is extracted to calculate the gravity center position G 1 of the object T 1, and outputs the gazing point coordinate calculation unit 45B. The gazing point coordinate calculation unit 45B has a center of gravity position G 1 of the object T 1 which is input from the object area extracting unit 43B, stored in the gazing point image coordinate
次に、現フレームの撮影画像に対する処理を説明する。
距離画像変換部42は、第1実施形態と同様の手法により、距離画像を、現フレームの撮影画像に対応した変換距離画像に変換する。
Next, processing for the captured image of the current frame will be described.
The distance
被写体領域抽出部43Bは、例えば、下記参考文献2に記載のラベリング処理により、変換距離画像を候補領域に分割する。このラベリング処理とは、変換距離画像を、予め設定された範囲内の距離値を有する画素で構成される候補領域に分割する処理のことである。
参考文献2:公益財団法人画像情報教育振興協会、「ディジタル画像処理」
The subject area extraction unit 43B divides the converted distance image into candidate areas by a labeling process described in Reference Document 2 below, for example. The labeling process is a process of dividing the converted distance image into candidate regions composed of pixels having distance values within a preset range.
Reference 2: Association for Promotion of Image Information Education, “Digital Image Processing”
続いて、被写体領域抽出部43Bは、注視点画像座標記憶部46から、前フレームの撮影画像における注視点の画像座標を読み出す。ここで、図12のように、被写体T2の画像領域には、前フレームの撮影画像における注視点G1が含まれている。従って、被写体領域抽出部43Bは、この被写体T2の画像領域を被写体領域として変換距離画像から抽出し、抽出した被写体領域をファインダ画像生成部44に出力する。さらに、ファインダ画像生成部44Bは、被写体T2がマーカ表示されたファインダ画像を生成する。
Subsequently, the subject region extraction unit 43B reads the image coordinates of the gazing point in the captured image of the previous frame from the gazing point image coordinate
続いて、被写体領域抽出部43Bは、抽出した被写体T2の重心位置G2を算出し、注視点座標算出部45Bに出力する。そして、注視点座標算出部45Bは、参考文献1に記載された式(2)〜式(5)に、マスターカメラ20Mの回転行列及び並進行列と、マスターカメラ20Mのパン値及びチルト値と、被写体T2の重心位置G2での距離値とを代入し、注視点の世界座標を算出する。その後、注視点座標算出部45Bは、被写体T2の重心位置G2を、前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる。
Then, the object area extracting unit 43B is extracted to calculate the gravity center position G 2 of the object T 2, and outputs the gazing point coordinate calculation unit 45B. The gazing point coordinate calculation unit 45B is in described in reference 1 Equation (2) to (5), a rotation matrix and translation matrix of the
このように、多視点ロボットカメラ制御装置40Bは、被写体Tが移動する場合でも、移動前の被写体T1の重心位置が移動後の被写体T2の領域に含まれていれば、この被写体T2に注視点を設定すると共に、この被写体T2をマーカ表示できる。
Thus, the multi-viewpoint
<他の被写体に対する注視点の設定>
図13を参照し、他の被写体に対する注視点の設定について説明する(適宜図11参照)。
この図13では、画面中央に位置する被写体TAと、画面中央以外に位置する他の被写体TBとを図示した。また、被写体TAの距離値をDAとし、被写体TBの距離値をDBとし、距離差分値をΔDとする。
<Setting the point of interest for other subjects>
With reference to FIG. 13, setting of a gazing point for another subject will be described (see FIG. 11 as appropriate).
In this Figure 13, shown with the object T A located in the center of the screen, and another object T B is located in other than the center of the screen. Further, the distance value of the object T A and D A, the distance value of the object T B and D B, the distance difference value and [Delta] D.
画面中央に位置する被写体TAではなく、被写体TAの奥に位置する被写体TBに注視点を設定する場合を考える。この場合、距離差分値ΔD=DA−DBとなるように、操作者が距離調整つまみ39を操作する。すると、距離調整つまみ39は、距離差分値ΔDを被写体領域抽出部43Bに出力する。
Rather than the subject T A located in the center of the screen, consider the case of setting the gaze point on the subject T B is located in the back of the subject T A. In this case, as the distance difference ΔD = D A -D B, the operator operates the
被写体領域抽出部43Bは、基準距離値(被写体TAの距離値DA)と、距離差分値ΔDとを加算し、抽出対象距離値(被写体TBの距離値DB)を算出する。そして、被写体領域抽出部43Bは、第1実施形態と同様の手法で、算出した抽出対象距離値を基準として被写体TBの画像領域を求める。さらに、被写体領域抽出部43Bは、被写体TBの画素領域を被写体領域として変換距離画像から抽出し、抽出した被写体領域をファインダ画像生成部44に出力する。
Subject region extraction unit 43B, the reference distance value (distance value D A of the subject T A), adds the distance difference value [Delta] D, to calculate the extraction target distance value (distance value D B of the subject T B). Then, the object area extracting unit 43B is the same method as the first embodiment, obtaining the image region of the object T B the calculated extraction target distance value as a reference. Furthermore, the object area extracting unit 43B extracts from the conversion range image pixel area of the subject T B as the subject region, and outputs the extracted subject region in the viewfinder
このように、多視点ロボットカメラ制御装置40Bは、画面中央以外に被写体TBが位置する場合でも、この被写体TBに注視点を設定すると共に、この被写体Tをマーカ表示できる。
なお、撮影画像に他の被写体Tが2以上含まれる場合でも、この手法を利用することができる。また、他の被写体に対する注視点の設定は、注視点の追跡と併用することができる。
Thus, the multi-viewpoint
Note that this method can be used even when the captured image includes two or more other subjects T. Also, the setting of the gazing point for other subjects can be used together with the tracking of the gazing point.
[多視点映像撮影システムの動作]
図14を参照し、多視点映像撮影システム1Bの動作について説明する(適宜図11参照)。
[Operation of multi-viewpoint video shooting system]
The operation of the multi-view video shooting system 1B will be described with reference to FIG. 14 (see FIG. 11 as appropriate).
操作者は、注視点を設定したい被写体がマーカ表示されるように、距離調整つまみ39を操作する(ステップS10)。
なお、ステップS10の処理は、操作者による手動操作のため破線で図示した。
The operator operates the
Note that the processing in step S10 is illustrated by a broken line for manual operation by the operator.
多視点ロボットカメラ制御装置40Bは、被写体領域抽出部43Bによって、基準距離値と距離差分値とを加算し、抽出対象距離値を算出する(ステップS11)。
多視点ロボットカメラ制御装置40Bは、被写体領域抽出部43Bによって、変換距離画像を候補領域に分割する(ステップS12)。
多視点ロボットカメラ制御装置40Bは、被写体領域抽出部43Bによって、前フレームの撮影画像における注視点の画像座標が含まれる候補領域を被写体領域として抽出する(ステップS13)。
The multi-viewpoint robot
The multi-viewpoint robot
In the multi-viewpoint robot
多視点ロボットカメラ制御装置40Bは、注視点座標算出部45Bによって、マスターカメラ20Mのパン値及びチルト値と移動後の被写体Tの重心位置での距離値から、変換パラメータを用いて、注視点の世界座標を算出する(ステップS14)。
多視点ロボットカメラ制御装置40Bは、注視点座標算出部45Bによって、移動後の被写体の重心位置を、前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる(ステップS15)。
Multiview
The multi-viewpoint robot
なお、多視点映像撮影システム1Bは、ステップS1〜S7の処理を繰り返し、多視点映像表現に必要な撮影画像を収録装置50に収録する。そして、収録装置50は、収録された撮影画像から多視点映像を生成する(図14不図示)。
Note that the multi-view video shooting system 1B repeats the processing of steps S1 to S7 and records the shot images necessary for multi-view video representation in the
[作用・効果]
以上のように、多視点映像撮影システム1Bは、操作者が被写体Tを画面中央で捉え続けなくても、この被写体Tの注視点を追跡し、追跡中の注視点を向くようにロボットカメラ20を制御するので、操作者の負担を軽減することができる。
さらに、多視点映像撮影システム1Bは、画面中央以外に被写体Tが位置する場合でも、この被写体Tに注視点を設定し、設定した注視点を向くようにロボットカメラ20を制御するので、操作者の負担を軽減することができる。
[Action / Effect]
As described above, the multi-view video shooting system 1B allows the
Furthermore, even when the subject T is located outside the center of the screen, the multi-view video shooting system 1B sets a gazing point on the subject T and controls the
(第3実施形態)
図15を参照し、本願発明の第3実施形態に係る多視点映像撮影システム1Cの構成について、第2実施形態と異なる点を説明する。
多視点映像撮影システム1Cは、移動前の被写体Tの重心位置が移動後の被写体Tの画像領域に含まれない場合でも注視点を追跡できる点が、第2実施形態と異なる。
(Third embodiment)
With reference to FIG. 15, the configuration of a multi-view video shooting system 1 </ b> C according to the third embodiment of the present invention will be described while referring to differences from the second embodiment.
The multi-viewpoint video shooting system 1C is different from the second embodiment in that the gazing point can be tracked even when the gravity center position of the subject T before movement is not included in the image area of the subject T after movement.
[多視点ロボットカメラ制御装置の構成]
図15を参照し、多視点ロボットカメラ制御装置40Cの構成について説明する。
図15のように、多視点ロボットカメラ制御装置40Cは、変換パラメータ記憶部41と、距離画像変換部42Cと、被写体領域抽出部43Cと、ファインダ画像生成部44Bと、注視点座標算出部45Cと、注視点画像座標記憶部46と、撮影画像記憶部47と、注視点追跡部48とを備える。
[Configuration of multi-viewpoint robot camera control device]
The configuration of the multi-viewpoint robot
As shown in FIG. 15, the multi-viewpoint robot
距離画像変換部42Cは、第1実施形態と同様の処理を行った後、変換された変換距離画像を注視点追跡部48に出力する。
他の点、距離画像変換部42Cは、第1実施形態と同様のため、これ以上の説明を省略する。
The distance image conversion unit 42C performs the same processing as in the first embodiment, and then outputs the converted conversion distance image to the gaze
Other points and the distance image conversion unit 42C are the same as those in the first embodiment, and thus further description thereof is omitted.
被写体領域抽出部43Cは、第2実施形態と同様、変換距離画像を候補領域に分割し、分割した候補領域の重心位置を算出する。そして、被写体領域抽出部43Cは、注視点追跡部48から入力された移動後注視点の画素座標に、重心位置が最も近くなる候補領域を被写体領域として抽出するものである。
なお、被写体領域抽出部43Cの詳細は、後記する。
Similar to the second embodiment, the subject
Details of the subject
注視点座標算出部45Cは、後記する注視点追跡部48から入力された移動後注視点を用いて、注視点の世界座標を算出するものである。例えば、注視点座標算出部45Cは、参考文献1に記載された式(2)〜式(5)に、マスターカメラ20Mの回転行列及び並進行列と、マスターカメラ20Mのパン値及びチルト値と、移動後注視点での距離値とを代入し、注視点の世界座標を算出する。そして、注視点座標算出部45Cは、算出した注視点の世界座標を全てのロボットカメラ20に出力する。
The gazing point coordinate
撮影画像記憶部47は、注視点追跡部48から入力された撮影画像を記憶するものである。この前フレームの撮影画像は、現フレームの撮影画像で注視点を追跡する際に参照される。
The captured
注視点追跡部48は、撮影画像記憶部47に記憶された前フレームの撮影画像とマスターカメラ20Mから入力された現フレームの撮影画像とのマッチング処理により注視点の移動ベクトルを求めるものである。そして、注視点追跡部48は、前フレームの撮影画像における注視点を始点として移動ベクトルが示す画素座標を、移動後注視点の画素座標として算出し、算出した移動後注視点の画素座標を被写体領域抽出部43C及び注視点座標算出部45Cに出力する。
Gazing
ここで、注視点追跡部48は、算出した移動後注視点の画素座標を前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる。また、注視点追跡部48は、マスターカメラ20Mから入力された現フレームの撮影画像を、前フレームの撮影画像として撮影画像記憶部47に記憶させる。
Here, the gazing
<注視点の追跡>
図16を参照し、注視点の追跡について説明する(適宜図15参照)。
この図16では、前フレームの撮影画像に含まれる被写体T1を破線で図示し、処理対象となっている現フレームの撮影画像に含まれる被写体T2を実線で図示した。
<Tracking the point of interest>
With reference to FIG. 16, tracking of the point of gaze will be described (see FIG. 15 as appropriate).
In FIG 16, illustrates the subject T 1 contained in the captured image of the previous frame in broken lines, the object T 2 included in the captured image of the current frame to be processed shown in solid lines.
注視点追跡部48は、前フレームと現フレームとの撮影画像にマッチング処理を施し、前フレームの注視点が現フレームでどこに移動したかを示す移動ベクトルを算出する。具体的には、注視点追跡部48は、前フレームと現フレームとの撮影画像にブロックマッチングを施し、それぞれの撮影画像に含まれる被写体T1,T2の画像領域を求める。そして、注視点追跡部48は、被写体T1,T2の重心位置G1,G2を求め、被写体T1の重心位置G1から被写体T2の重心位置G2までを結ぶ移動ベクトルを求める。
その後、注視点追跡部48は、被写体T1の重心位置G1を始点として、移動ベクトルが示す被写体T2の重心位置G2の画素座標を、移動後注視点の画素座標として算出する。
The gazing
Thereafter, the gazing
被写体領域抽出部43Cは、注視点追跡部48から入力された移動後注視点の画素座標G2と、被写体T2の重心位置G2とが一致するので、この被写体T2の画像領域を被写体領域として抽出する。
Subject
このように、多視点ロボットカメラ制御装置40Cは、移動前の被写体T1の重心位置G1が移動後の被写体T2の画像領域に含まれているか否かに関わらず、被写体T2に注視点を設定すると共に、この被写体T2の輪郭をマーカ表示できる。
Thus, the multi-viewpoint
[多視点映像撮影システムの動作]
図17を参照し、多視点映像撮影システム1Cの動作について説明する(適宜図15参照)。
[Operation of multi-viewpoint video shooting system]
With reference to FIG. 17, the operation of the multi-viewpoint video shooting system 1C will be described (see FIG. 15 as appropriate).
多視点ロボットカメラ制御装置40Cは、注視点追跡部48によって、前フレームと現フレームとの撮影画像のマッチング処理により注視点の移動ベクトルを求める。
多視点ロボットカメラ制御装置40Cは、注視点追跡部48によって、前フレームの撮影画像における注視点を始点として移動ベクトルが示す画素座標を、移動後注視点の画素座標として算出する(ステップS20)。
In the multi-viewpoint robot
In the multi-viewpoint robot
多視点ロボットカメラ制御装置40Cは、被写体領域抽出部43Cによって、移動後注視点の画素座標に、重心位置が最も近くなる候補領域を被写体領域として抽出する(ステップS21)。
The multi-viewpoint robot
[作用・効果]
以上のように、多視点映像撮影システム1Cは、移動前の被写体Tの重心位置が移動後の被写体Tの画像領域に含まれているか否かに関わらず、被写体Tの注視点を追跡し、追跡中の注視点を向くようにロボットカメラ20を制御できるので、操作者の負担を軽減することができる。
[Action / Effect]
As described above, the multi-view video shooting system 1C tracks the gazing point of the subject T regardless of whether or not the center of gravity of the subject T before movement is included in the image area of the subject T after movement. Since the
以上、本願発明の各実施形態を詳述してきたが、本願発明は前記した実施形態に限られるものではなく、本願発明の要旨を逸脱しない範囲の設計変更等も含まれる。 As mentioned above, although each embodiment of this invention was explained in full detail, this invention is not limited to above-described embodiment, The design change etc. of the range which does not deviate from the summary of this invention are also included.
前記した各実施形態では、基準画素を画面中央の画素であることとして説明したが、これに限定されない。つまり、変換距離画像内で任意位置の画素を基準画素に設定できる。
前記した各実施形態では、カメラパラメータ及び注視点の算出に参考文献1に記載の手法を用いることとして説明したが、これに限定されない。
前記した各実施形態では、注視点の世界座標及びパン値及びチルト値の算出に参考文献1に記載の手法を用いることとして説明したが、これに限定されない。
In each of the above-described embodiments, the reference pixel is described as the pixel at the center of the screen, but the present invention is not limited to this. That is, a pixel at an arbitrary position in the conversion distance image can be set as the reference pixel.
In each of the above-described embodiments, the method described in Reference 1 is used to calculate the camera parameter and the gazing point, but the present invention is not limited to this.
In each of the above-described embodiments, the method described in Reference 1 is used to calculate the world coordinates of the gazing point, the pan value, and the tilt value, but the present invention is not limited to this.
前記した各実施形態では、多視点ロボットカメラ制御装置を独立したハードウェアとして説明したが、本願発明は、これに限定されない。例えば、本願発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、多視点ロボットカメラ制御装置として協調動作させる多視点ロボットカメラ制御プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In each of the above-described embodiments, the multi-viewpoint robot camera control device has been described as independent hardware, but the present invention is not limited to this. For example, the present invention can also be realized by a multi-viewpoint robot camera control program that causes hardware resources such as a CPU, a memory, and a hard disk included in a computer to operate cooperatively as a multi-viewpoint robot camera control device. This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.
1,1B,1C 多視点映像撮影システム
10 多視点ロボットカメラ
20 ロボットカメラ
20M マスターカメラ
20S スレーブカメラ
21 カメラ本体
23 三脚
25 雲台
27 距離カメラ
30,30B,30C 操作インタフェース部
31 三脚
33 雲台
35 パン棒
37 エンコーダ
38 ファインダ
39 距離調整つまみ
40,40B,40C 多視点ロボットカメラ制御装置
41 変換パラメータ記憶部(カメラパラメータ記憶部)
42,42C 距離画像変換部
43,43B,43C 被写体領域抽出部
44,44B,44C ファインダ画像生成部
45,45B 注視点座標算出部
46 注視点画像座標記憶部
47 撮影画像記憶部
48 注視点追跡部
50 収録装置
1, 1B, 1C Multi-viewpoint
42, 42C Distance
Claims (6)
前記複数のロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢を表すカメラパラメータを予め記憶するカメラパラメータ記憶部と、
前記マスターカメラが前記被写体を撮影した撮影画像の変換距離画像が入力され、入力された前記変換距離画像で所定位置の基準画素の距離値又は前記基準画素の距離値と周辺画素の距離値との平均である基準距離値を基準として予め設定された範囲内の距離値を有し、かつ、前記基準画素が含まれる画素領域を被写体領域として抽出する被写体領域抽出部と、
抽出した前記被写体領域の輪郭を示すマーカが前記撮影画像に描画されたファインダ画像を生成し、生成した前記ファインダ画像をファインダに出力するファインダ画像生成部と、
前記ファインダ画像を目視した操作者による前記マスターカメラの操作信号が入力され、入力された前記操作信号を前記カメラパラメータで変換することで、前記被写体の位置を表す注視点の世界座標を算出し、算出した前記注視点の世界座標を前記マスターカメラ以外のロボットカメラであるスレーブカメラに出力する注視点座標算出部と、
を備えることを特徴とする多視点ロボットカメラ制御装置。 A multi-viewpoint robot camera control apparatus that controls a multi-viewpoint robot camera composed of a plurality of robot cameras that photograph the subject in order to generate a multi-viewpoint image in which the same subject is displayed from different viewpoints,
A camera parameter storage unit that stores in advance camera parameters representing the position and orientation of one master camera set in advance among the plurality of robot cameras;
A conversion distance image of a photographed image obtained by photographing the subject by the master camera is input, and a reference pixel distance value at a predetermined position or a distance value of the reference pixel and a distance value of peripheral pixels in the input conversion distance image . A subject area extraction unit that has a distance value within a preset range with reference to an average reference distance value , and that extracts a pixel area including the reference pixel as a subject area;
A finder image generation unit that generates a finder image in which a marker indicating the contour of the extracted subject area is drawn on the captured image, and outputs the generated finder image to the finder;
An operation signal of the master camera by an operator who has viewed the viewfinder image is input, and the input operation signal is converted by the camera parameter, thereby calculating world coordinates of a gazing point representing the position of the subject, A gazing point coordinate calculating unit that outputs the calculated world coordinates of the gazing point to a slave camera that is a robot camera other than the master camera;
A multi-viewpoint robot camera control device comprising:
前記ファインダ画像生成部は、抽出した前記他の被写体領域の輪郭を示すマーカが前記撮影画像に描画されたファインダ画像を生成し、生成した当該ファインダ画像を前記ファインダに出力することを特徴とする請求項1に記載の多視点ロボットカメラ制御装置。 The subject area extraction unit receives a distance difference value, which is a difference in distance value between the subject and another subject other than the subject, and adds the input distance difference value and the reference distance value. Calculate a target distance value, extract other subject areas based on the calculated extraction target distance value,
The finder image generation unit generates a finder image in which a marker indicating an outline of the extracted other subject area is drawn on the photographed image, and outputs the generated finder image to the finder. Item 4. The multi-viewpoint robot camera control device according to Item 1.
前記被写体領域抽出部は、ラベリング処理により前記変換距離画像を前記被写体の候補領域に分割し、前記注視点画像座標記憶部に記憶された前フレームの撮影画像における注視点の画像座標が含まれる前記候補領域を前記被写体領域として抽出し、抽出した前記被写体領域の重心位置を算出し、
前記注視点座標算出部は、前記被写体領域抽出部が算出した被写体領域の重心位置を前フレームの撮影画像における注視点の画像座標として前記注視点画像座標記憶部に記憶させることを特徴とする請求項1又は請求項2に記載の多視点ロボットカメラ制御装置。 A gazing point image coordinate storage unit that stores image coordinates of the gazing point in the captured image of the previous frame;
The subject region extraction unit divides the converted distance image into candidate regions of the subject by labeling processing, and includes the image coordinates of the gazing point in the captured image of the previous frame stored in the gazing point image coordinate storage unit. A candidate area is extracted as the subject area, the center of gravity position of the extracted subject area is calculated,
The gazing point coordinate calculation unit stores the centroid position of the subject area calculated by the subject area extraction unit in the gazing point image coordinate storage unit as image coordinates of a gazing point in a captured image of the previous frame. The multi-viewpoint robot camera control device according to claim 1 or 2.
前記前フレームの撮影画像における注視点の画像座標を記憶する注視点画像座標記憶部と、
前記撮影画像記憶部に記憶された前フレームの撮影画像と前記マスターカメラから入力された現フレームの撮影画像とのマッチング処理により前記注視点の移動ベクトルを求め、前記前フレームの撮影画像における注視点を始点として前記移動ベクトルが示す画素座標を、移動後注視点の画素座標として算出し、算出した前記移動後注視点の画素座標を前記前フレームの撮影画像における注視点の画像座標として前記注視点画像座標記憶部に記憶させ、前記現フレームの撮影画像を前記撮影画像記憶部に記憶させる注視点追跡部と、をさらに備え、
前記被写体領域抽出部は、ラベリング処理により前記変換距離画像を前記被写体の候補領域に分割し、分割した前記候補領域の重心位置を算出し、前記移動後注視点の画素座標に前記重心位置が最も近くなる前記候補領域を前記被写体領域として抽出することを特徴とする請求項1又は請求項2に記載の多視点ロボットカメラ制御装置。 A captured image storage unit for storing the captured image of the previous frame;
A gazing point image coordinate storage unit for storing image coordinates of a gazing point in the captured image of the previous frame;
The gazing point in the photographed image of the previous frame is obtained by obtaining a movement vector of the gazing point by matching the photographed image of the previous frame stored in the photographed image storage unit with the photographed image of the current frame input from the master camera. The pixel coordinate indicated by the movement vector starting from the starting point is calculated as the pixel coordinate of the post-movement gazing point, and the calculated pixel coordinate of the post-movement gazing point is used as the gazing point image coordinate in the captured image of the previous frame. A gazing point tracking unit for storing in the image coordinate storage unit and storing the captured image of the current frame in the captured image storage unit;
The subject area extraction unit divides the conversion distance image into candidate areas of the subject by a labeling process, calculates a centroid position of the divided candidate area, and the centroid position is the highest in the pixel coordinates of the post-movement gazing point. The multi-viewpoint robot camera control device according to claim 1, wherein the candidate area that is close is extracted as the subject area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015211549A JP6606397B2 (en) | 2015-10-28 | 2015-10-28 | Multi-viewpoint robot camera control device and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015211549A JP6606397B2 (en) | 2015-10-28 | 2015-10-28 | Multi-viewpoint robot camera control device and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017085340A JP2017085340A (en) | 2017-05-18 |
JP6606397B2 true JP6606397B2 (en) | 2019-11-13 |
Family
ID=58711363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015211549A Active JP6606397B2 (en) | 2015-10-28 | 2015-10-28 | Multi-viewpoint robot camera control device and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6606397B2 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001025003A (en) * | 1999-07-08 | 2001-01-26 | Canon Inc | Camera system and camera control method |
JP2002071309A (en) * | 2000-08-24 | 2002-03-08 | Asahi Optical Co Ltd | Three-dimensional image-detecting device |
JP5316083B2 (en) * | 2009-02-27 | 2013-10-16 | 株式会社ニコン | camera |
JP2011175477A (en) * | 2010-02-24 | 2011-09-08 | Canon Inc | Three-dimensional measurement apparatus, processing method and program |
JP2013058054A (en) * | 2011-09-08 | 2013-03-28 | Dainippon Printing Co Ltd | Moving body tracking device, moving body tracking method, and program |
JP5879877B2 (en) * | 2011-09-28 | 2016-03-08 | 沖電気工業株式会社 | Image processing apparatus, image processing method, program, and image processing system |
JP2015103852A (en) * | 2013-11-21 | 2015-06-04 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing apparatus control method, image processing apparatus control program, and storage medium |
-
2015
- 2015-10-28 JP JP2015211549A patent/JP6606397B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017085340A (en) | 2017-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102105189B1 (en) | Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object | |
JP2017108387A (en) | Image calibrating, stitching and depth rebuilding method of panoramic fish-eye camera and system thereof | |
KR102225617B1 (en) | Method of setting algorithm for image registration | |
JP2020506487A (en) | Apparatus and method for obtaining depth information from a scene | |
CN107368192B (en) | Real-scene observation method of VR glasses and VR glasses | |
JP5856344B1 (en) | 3D image display device | |
JP2007226761A (en) | Locus image composition device for image object, locus image display device for image object, and program therefor | |
KR101997991B1 (en) | Image merging method and system using viewpoint transformation | |
JP6609112B2 (en) | Multi-view video expression device and program thereof | |
CN112330736A (en) | Scene picture shooting method and device, electronic equipment and storage medium | |
JP2020135222A (en) | Image generation device, image generation method, and program | |
US20210392275A1 (en) | Camera array for a mediated-reality system | |
JP6055223B2 (en) | Projection-converted video generation device and program thereof, and multi-view video expression device | |
KR101270025B1 (en) | Stereo Camera Appratus and Vergence Control Method thereof | |
KR101725024B1 (en) | System for real time making of 360 degree VR video base on lookup table and Method for using the same | |
JP2001256482A (en) | Device and method for generating parallax image | |
JP2019121945A (en) | Imaging apparatus, control method of the same, and program | |
CN110036411B (en) | Apparatus and method for generating electronic three-dimensional roaming environment | |
WO2021031210A1 (en) | Video processing method and apparatus, storage medium, and electronic device | |
JP6606397B2 (en) | Multi-viewpoint robot camera control device and program thereof | |
CN108513122B (en) | Model adjusting method and model generating device based on 3D imaging technology | |
CN109961395B (en) | Method, device and system for generating and displaying depth image and readable medium | |
JP5453552B2 (en) | Imaging apparatus, method and program | |
JP2015126402A (en) | Robot camera control device, program for the same, and multi-viewpoint robot camera system | |
CN109379577B (en) | Video generation method, device and equipment of virtual viewpoint |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180831 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190924 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6606397 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |