JP6606397B2 - 多視点ロボットカメラ制御装置及びそのプログラム - Google Patents
多視点ロボットカメラ制御装置及びそのプログラム Download PDFInfo
- Publication number
- JP6606397B2 JP6606397B2 JP2015211549A JP2015211549A JP6606397B2 JP 6606397 B2 JP6606397 B2 JP 6606397B2 JP 2015211549 A JP2015211549 A JP 2015211549A JP 2015211549 A JP2015211549 A JP 2015211549A JP 6606397 B2 JP6606397 B2 JP 6606397B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- gazing point
- distance
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000006243 chemical reaction Methods 0.000 claims description 51
- 238000000605 extraction Methods 0.000 claims description 49
- 238000003860 storage Methods 0.000 claims description 35
- 230000005484 gravity Effects 0.000 claims description 23
- 238000000034 method Methods 0.000 claims description 20
- 239000003550 marker Substances 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 9
- 238000002372 labelling Methods 0.000 claims description 5
- 230000002093 peripheral effect Effects 0.000 claims 1
- 239000011159 matrix material Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- UBCKGWBNUIFUST-YHYXMXQVSA-N tetrachlorvinphos Chemical compound COP(=O)(OC)O\C(=C/Cl)C1=CC(Cl)=C(Cl)C=C1Cl UBCKGWBNUIFUST-YHYXMXQVSA-N 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 235000008429 bread Nutrition 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Description
多視点ロボットカメラ制御装置は、被写体領域抽出部によって、前記マスターカメラが前記被写体を撮影した撮影画像の変換距離画像が入力され、入力された前記変換距離画像で所定位置(例えば、画面中央)の基準画素の距離値又は前記基準画素の距離値と周辺画素の距離値との平均である基準距離値を基準として予め設定された範囲内の距離値を有し、かつ、前記基準画素が含まれる画素領域を被写体領域として抽出する。
多視点ロボットカメラ制御装置は、注視点座標算出部によって、前記ファインダ画像を目視した操作者による前記マスターカメラの操作信号が入力され、入力された前記操作信号を前記カメラパラメータで変換することで、前記被写体の位置を表す注視点の世界座標を算出し、算出した前記注視点の世界座標を前記マスターカメラ以外のロボットカメラであるスレーブカメラに出力する。
このように、多視点ロボットカメラ制御装置は、操作者が注視点の設定操作を行うことなく、注視点を向くようにスレーブカメラを制御することができる。
本願発明に係る多視点ロボットカメラ制御装置は、操作者が注視点の設定操作を行うことなく、注視点を向くようにスレーブカメラを制御できるので、操作者の負担を軽減することができる。
[多視点映像撮影システムの構成]
図1,図2を参照し、本願発明の第1実施形態に係る多視点映像撮影システム1の構成について説明する。
図1のように、多視点映像撮影システム1は、同一の被写体Tを異なる視点で表示した多視点映像を生成するものであり、多視点ロボットカメラ10と、操作インタフェース部30と、多視点ロボットカメラ制御装置40と、収録装置50とを備える。
ロボットカメラ20で撮影された撮影画像は、多視点ロボットカメラ制御装置40及び収録装置50に出力される。
なお、距離カメラ27及びカメラ本体21は、カメラパラメータにより光軸方向の補正が可能なため、必ずしも平行に配置せずともよい。
距離カメラ27で撮影された距離画像は、多視点ロボットカメラ制御装置40に出力される。
一方、距離カメラ27が搭載されていないロボットカメラ20は、スレーブカメラ20Sと呼ばれる。このスレーブカメラ20Sは、多視点ロボットカメラ制御装置40からの情報(注視点の世界座標)に基づいて、注視点を向くように姿勢が制御される。
なお、多視点ロボットカメラ10は、複数のロボットカメラ20のうち、何れか一台がマスターカメラ20Mとして予め設定され、残りがスレーブカメラ20Sとして予め設定される。
なお、多視点ロボットカメラ制御装置40の詳細は、後記する。
参考文献1:Bullet Time Using Multi-Viewpoint Robotic Camera System,Kensuke Ikeya,CVMP'14 11th European Conference on Visual Media Production (CVMP 2014),13-14 November 2014
図3を参照し、多視点ロボットカメラ制御装置40の構成について説明する。
図3のように、多視点ロボットカメラ制御装置40は、変換パラメータ記憶部(カメラパラメータ記憶部)41と、距離画像変換部42と、被写体領域抽出部43と、ファインダ画像生成部44と、注視点座標算出部45とを備える。
その後、距離画像変換部42は、変換距離画像を被写体領域抽出部43に出力する。
なお、画像座標とは、画像中の位置を示す座標のことである。
これにより、ファインダ38には、被写体Tの輪郭を示すマーカが表示される(マーカ表示)。
なお、世界座標とは、各ロボットカメラ20に共通する三次元座標のことである。
図8を参照し、多視点映像撮影システム1の動作について説明する(適宜図1,図3参照)。
操作者は、操作インタフェース部30を介して、被写体Tを画面中央に捉えるように、マスターカメラ20Mを操作する(ステップS1)。
なお、ステップS1の処理は、操作者による手動操作のため破線で図示した。
多視点ロボットカメラ制御装置40は、被写体領域抽出部43によって、距離画像変換部42より入力された変換距離画像から被写体領域を抽出する(ステップS3)。
各ロボットカメラ20は、変換パラメータを用いて、注視点の世界座標からパン値とチルト値を求め、雲台を制御する(ステップS5)。
マスターカメラ20Mは、ファインダ38にファインダ画像を表示する(ステップS7)。
以上のように、多視点映像撮影システム1は、操作者が被写体Tを画面中央で捉えるように操作すれば、被写体Tを向くようにロボットカメラ20を制御する。このように、多視点映像撮影システム1では、操作者が注視点の設定操作を行うことなく被写体Tを撮影できるので、操作者の負担を軽減することができる。
[多視点映像撮影システムの構成]
図9,図10を参照し、本願発明の第2実施形態に係る多視点映像撮影システム1Bの構成について、第1実施形態と異なる点を説明する。
図9のように、多視点映像撮影システム1Bは、多視点ロボットカメラ10と、操作インタフェース部30Bと、多視点ロボットカメラ制御装置40Bと、収録装置50とを備える。
距離調整つまみ39は、パン棒35のほぼ中央に取り付けられたダイヤルである。この距離調整つまみ39は、注視点基準画素の距離値を基準として、他の被写体での距離値を距離差分値として出力する。つまり、距離差分値は、画面中央に位置する被写体の距離値と、画面中央以外に位置する他の被写体の距離値との差分を表す。
図11を参照し、多視点ロボットカメラ制御装置40Bの構成について説明する。
図11のように、多視点ロボットカメラ制御装置40Bは、変換パラメータ記憶部41と、距離画像変換部42と、被写体領域抽出部43Bと、ファインダ画像生成部44Bと、注視点座標算出部45Bと、注視点画像座標記憶部46とを備える。
なお、被写体領域抽出部43Bの詳細は、後記する。
他の点、注視点座標算出部45Bは、第1実施形態と同様のため、これ以上の説明を省略する。
図12を参照し、注視点の追跡について説明する(適宜図11参照)。
この図12では、前フレームの撮影画像に含まれる被写体T1を破線で図示し、処理対象となっている現フレームの撮影画像に含まれる被写体T2を実線で図示した。
多視点ロボットカメラ制御装置40Bの各手段は、前フレームの撮影画像に対し、第1実施形態と同様の処理を行い、被写体T1がマーカ表示されたファインダ画像を生成する。
距離画像変換部42は、第1実施形態と同様の手法により、距離画像を、現フレームの撮影画像に対応した変換距離画像に変換する。
参考文献2:公益財団法人画像情報教育振興協会、「ディジタル画像処理」
図13を参照し、他の被写体に対する注視点の設定について説明する(適宜図11参照)。
この図13では、画面中央に位置する被写体TAと、画面中央以外に位置する他の被写体TBとを図示した。また、被写体TAの距離値をDAとし、被写体TBの距離値をDBとし、距離差分値をΔDとする。
なお、撮影画像に他の被写体Tが2以上含まれる場合でも、この手法を利用することができる。また、他の被写体に対する注視点の設定は、注視点の追跡と併用することができる。
図14を参照し、多視点映像撮影システム1Bの動作について説明する(適宜図11参照)。
なお、ステップS10の処理は、操作者による手動操作のため破線で図示した。
多視点ロボットカメラ制御装置40Bは、被写体領域抽出部43Bによって、変換距離画像を候補領域に分割する(ステップS12)。
多視点ロボットカメラ制御装置40Bは、被写体領域抽出部43Bによって、前フレームの撮影画像における注視点の画像座標が含まれる候補領域を被写体領域として抽出する(ステップS13)。
多視点ロボットカメラ制御装置40Bは、注視点座標算出部45Bによって、移動後の被写体の重心位置を、前フレームの撮影画像における注視点の画像座標として注視点画像座標記憶部46に記憶させる(ステップS15)。
以上のように、多視点映像撮影システム1Bは、操作者が被写体Tを画面中央で捉え続けなくても、この被写体Tの注視点を追跡し、追跡中の注視点を向くようにロボットカメラ20を制御するので、操作者の負担を軽減することができる。
さらに、多視点映像撮影システム1Bは、画面中央以外に被写体Tが位置する場合でも、この被写体Tに注視点を設定し、設定した注視点を向くようにロボットカメラ20を制御するので、操作者の負担を軽減することができる。
図15を参照し、本願発明の第3実施形態に係る多視点映像撮影システム1Cの構成について、第2実施形態と異なる点を説明する。
多視点映像撮影システム1Cは、移動前の被写体Tの重心位置が移動後の被写体Tの画像領域に含まれない場合でも注視点を追跡できる点が、第2実施形態と異なる。
図15を参照し、多視点ロボットカメラ制御装置40Cの構成について説明する。
図15のように、多視点ロボットカメラ制御装置40Cは、変換パラメータ記憶部41と、距離画像変換部42Cと、被写体領域抽出部43Cと、ファインダ画像生成部44Bと、注視点座標算出部45Cと、注視点画像座標記憶部46と、撮影画像記憶部47と、注視点追跡部48とを備える。
他の点、距離画像変換部42Cは、第1実施形態と同様のため、これ以上の説明を省略する。
なお、被写体領域抽出部43Cの詳細は、後記する。
図16を参照し、注視点の追跡について説明する(適宜図15参照)。
この図16では、前フレームの撮影画像に含まれる被写体T1を破線で図示し、処理対象となっている現フレームの撮影画像に含まれる被写体T2を実線で図示した。
その後、注視点追跡部48は、被写体T1の重心位置G1を始点として、移動ベクトルが示す被写体T2の重心位置G2の画素座標を、移動後注視点の画素座標として算出する。
図17を参照し、多視点映像撮影システム1Cの動作について説明する(適宜図15参照)。
多視点ロボットカメラ制御装置40Cは、注視点追跡部48によって、前フレームの撮影画像における注視点を始点として移動ベクトルが示す画素座標を、移動後注視点の画素座標として算出する(ステップS20)。
以上のように、多視点映像撮影システム1Cは、移動前の被写体Tの重心位置が移動後の被写体Tの画像領域に含まれているか否かに関わらず、被写体Tの注視点を追跡し、追跡中の注視点を向くようにロボットカメラ20を制御できるので、操作者の負担を軽減することができる。
前記した各実施形態では、カメラパラメータ及び注視点の算出に参考文献1に記載の手法を用いることとして説明したが、これに限定されない。
前記した各実施形態では、注視点の世界座標及びパン値及びチルト値の算出に参考文献1に記載の手法を用いることとして説明したが、これに限定されない。
10 多視点ロボットカメラ
20 ロボットカメラ
20M マスターカメラ
20S スレーブカメラ
21 カメラ本体
23 三脚
25 雲台
27 距離カメラ
30,30B,30C 操作インタフェース部
31 三脚
33 雲台
35 パン棒
37 エンコーダ
38 ファインダ
39 距離調整つまみ
40,40B,40C 多視点ロボットカメラ制御装置
41 変換パラメータ記憶部(カメラパラメータ記憶部)
42,42C 距離画像変換部
43,43B,43C 被写体領域抽出部
44,44B,44C ファインダ画像生成部
45,45B 注視点座標算出部
46 注視点画像座標記憶部
47 撮影画像記憶部
48 注視点追跡部
50 収録装置
Claims (6)
- 同一の被写体を異なる視点で表示した多視点映像を生成するために、前記被写体を撮影する複数のロボットカメラで構成される多視点ロボットカメラを制御する多視点ロボットカメラ制御装置であって、
前記複数のロボットカメラのうち予め設定された1台のマスターカメラの位置及び姿勢を表すカメラパラメータを予め記憶するカメラパラメータ記憶部と、
前記マスターカメラが前記被写体を撮影した撮影画像の変換距離画像が入力され、入力された前記変換距離画像で所定位置の基準画素の距離値又は前記基準画素の距離値と周辺画素の距離値との平均である基準距離値を基準として予め設定された範囲内の距離値を有し、かつ、前記基準画素が含まれる画素領域を被写体領域として抽出する被写体領域抽出部と、
抽出した前記被写体領域の輪郭を示すマーカが前記撮影画像に描画されたファインダ画像を生成し、生成した前記ファインダ画像をファインダに出力するファインダ画像生成部と、
前記ファインダ画像を目視した操作者による前記マスターカメラの操作信号が入力され、入力された前記操作信号を前記カメラパラメータで変換することで、前記被写体の位置を表す注視点の世界座標を算出し、算出した前記注視点の世界座標を前記マスターカメラ以外のロボットカメラであるスレーブカメラに出力する注視点座標算出部と、
を備えることを特徴とする多視点ロボットカメラ制御装置。 - 前記被写体領域抽出部は、前記被写体と当該被写体以外の他の被写体との距離値の差分である距離差分値が入力され、入力された前記距離差分値と前記基準距離値とが加算された抽出対象距離値を算出し、算出した前記抽出対象距離値を基準として他の被写体領域を抽出し、
前記ファインダ画像生成部は、抽出した前記他の被写体領域の輪郭を示すマーカが前記撮影画像に描画されたファインダ画像を生成し、生成した当該ファインダ画像を前記ファインダに出力することを特徴とする請求項1に記載の多視点ロボットカメラ制御装置。 - 前フレームの撮影画像における注視点の画像座標を記憶する注視点画像座標記憶部、をさらに備え、
前記被写体領域抽出部は、ラベリング処理により前記変換距離画像を前記被写体の候補領域に分割し、前記注視点画像座標記憶部に記憶された前フレームの撮影画像における注視点の画像座標が含まれる前記候補領域を前記被写体領域として抽出し、抽出した前記被写体領域の重心位置を算出し、
前記注視点座標算出部は、前記被写体領域抽出部が算出した被写体領域の重心位置を前フレームの撮影画像における注視点の画像座標として前記注視点画像座標記憶部に記憶させることを特徴とする請求項1又は請求項2に記載の多視点ロボットカメラ制御装置。 - 前フレームの撮影画像を記憶する撮影画像記憶部と、
前記前フレームの撮影画像における注視点の画像座標を記憶する注視点画像座標記憶部と、
前記撮影画像記憶部に記憶された前フレームの撮影画像と前記マスターカメラから入力された現フレームの撮影画像とのマッチング処理により前記注視点の移動ベクトルを求め、前記前フレームの撮影画像における注視点を始点として前記移動ベクトルが示す画素座標を、移動後注視点の画素座標として算出し、算出した前記移動後注視点の画素座標を前記前フレームの撮影画像における注視点の画像座標として前記注視点画像座標記憶部に記憶させ、前記現フレームの撮影画像を前記撮影画像記憶部に記憶させる注視点追跡部と、をさらに備え、
前記被写体領域抽出部は、ラベリング処理により前記変換距離画像を前記被写体の候補領域に分割し、分割した前記候補領域の重心位置を算出し、前記移動後注視点の画素座標に前記重心位置が最も近くなる前記候補領域を前記被写体領域として抽出することを特徴とする請求項1又は請求項2に記載の多視点ロボットカメラ制御装置。 - 距離カメラで撮影した距離画像が入力され、入力された前記距離画像を前記変換距離画像に変換する距離画像変換部、をさらに備えることを特徴とする請求項1から請求項4の何れか一項に記載の多視点ロボットカメラ制御装置。
- コンピュータを、請求項1から請求項5の何れか一項に記載の多視点ロボットカメラ制御装置として機能させるための多視点ロボットカメラ制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015211549A JP6606397B2 (ja) | 2015-10-28 | 2015-10-28 | 多視点ロボットカメラ制御装置及びそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015211549A JP6606397B2 (ja) | 2015-10-28 | 2015-10-28 | 多視点ロボットカメラ制御装置及びそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017085340A JP2017085340A (ja) | 2017-05-18 |
JP6606397B2 true JP6606397B2 (ja) | 2019-11-13 |
Family
ID=58711363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015211549A Active JP6606397B2 (ja) | 2015-10-28 | 2015-10-28 | 多視点ロボットカメラ制御装置及びそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6606397B2 (ja) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001025003A (ja) * | 1999-07-08 | 2001-01-26 | Canon Inc | カメラシステム及びカメラ制御方法 |
JP2002071309A (ja) * | 2000-08-24 | 2002-03-08 | Asahi Optical Co Ltd | 3次元画像検出装置 |
JP5316083B2 (ja) * | 2009-02-27 | 2013-10-16 | 株式会社ニコン | カメラ |
JP2011175477A (ja) * | 2010-02-24 | 2011-09-08 | Canon Inc | 3次元計測装置、処理方法及びプログラム |
JP2013058054A (ja) * | 2011-09-08 | 2013-03-28 | Dainippon Printing Co Ltd | 移動体追跡装置、移動体追跡方法及びプログラム |
JP5879877B2 (ja) * | 2011-09-28 | 2016-03-08 | 沖電気工業株式会社 | 画像処理装置、画像処理方法、プログラム、および画像処理システム |
JP2015103852A (ja) * | 2013-11-21 | 2015-06-04 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理装置の制御方法、画像処理装置の制御プログラム及び記憶媒体 |
-
2015
- 2015-10-28 JP JP2015211549A patent/JP6606397B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017085340A (ja) | 2017-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102105189B1 (ko) | 관심 객체 추적을 위한 다중 카메라 동적 선택 장치 및 방법 | |
JP4351996B2 (ja) | モノスコープ・イメージから立体的なイメージを生成するための方法 | |
CN109952760A (zh) | 多视图场景流拼接 | |
JP2017108387A (ja) | パノラマ魚眼カメラの画像較正、スティッチ、および深さ再構成方法、ならびにそのシステム | |
KR102225617B1 (ko) | 영상 정합 알고리즘을 설정하는 방법 | |
JP2020506487A (ja) | シーンから深度情報を取得するための装置および方法 | |
US20210392275A1 (en) | Camera array for a mediated-reality system | |
CN107368192B (zh) | Vr眼镜的实景观测方法及vr眼镜 | |
CN112330736A (zh) | 一种场景画面的拍摄方法、装置、电子设备及存储介质 | |
JP5856344B1 (ja) | 3d画像表示装置 | |
KR20190062794A (ko) | 시점 변환을 이용하는 영상 결합 방법 및 시스템 | |
KR101270025B1 (ko) | 스테레오 카메라의 주시각 제어방법 및 그 스테레오 카메라 장치 | |
JP2020053774A (ja) | 撮像装置および画像記録方法 | |
KR101725024B1 (ko) | 룩업테이블 기반의 실시간 360도 vr 동영상 제작 시스템 및 이를 이용한 360도 vr 동영상 제작 방법 | |
WO2021031210A1 (zh) | 视频处理方法和装置、存储介质和电子设备 | |
JP2001256482A (ja) | 視差画像生成装置および視差画像生成方法 | |
JP2019121945A (ja) | 撮像装置、その制御方法及びプログラム | |
CN110036411B (zh) | 生成电子三维漫游环境的装置和方法 | |
JP6606397B2 (ja) | 多視点ロボットカメラ制御装置及びそのプログラム | |
CN108513122B (zh) | 基于3d成像技术的模型调整方法及模型生成装置 | |
CN109961395B (zh) | 深度图像的生成及显示方法、装置、系统、可读介质 | |
JP5453552B2 (ja) | 撮影装置、方法及びプログラム | |
JP2015126402A (ja) | ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム | |
JP6336856B2 (ja) | 多視点映像表現装置及びそのプログラム | |
JP2014096761A (ja) | 画像処理装置、その制御方法、および制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180831 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190724 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190924 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191018 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6606397 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |