JP2019062279A - Imaging device, imaging system, and control method of imaging system - Google Patents

Imaging device, imaging system, and control method of imaging system Download PDF

Info

Publication number
JP2019062279A
JP2019062279A JP2017183513A JP2017183513A JP2019062279A JP 2019062279 A JP2019062279 A JP 2019062279A JP 2017183513 A JP2017183513 A JP 2017183513A JP 2017183513 A JP2017183513 A JP 2017183513A JP 2019062279 A JP2019062279 A JP 2019062279A
Authority
JP
Japan
Prior art keywords
camera
reliability
main subject
subject
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017183513A
Other languages
Japanese (ja)
Other versions
JP2019062279A5 (en
JP7175595B2 (en
Inventor
小川 良太
Ryota Ogawa
良太 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017183513A priority Critical patent/JP7175595B2/en
Publication of JP2019062279A publication Critical patent/JP2019062279A/en
Publication of JP2019062279A5 publication Critical patent/JP2019062279A5/en
Application granted granted Critical
Publication of JP7175595B2 publication Critical patent/JP7175595B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging system that photographs a subject from a plurality of angles using a plurality of imaging devices and is not likely to lose sight of the subject, a control method of the imaging system, the imaging devices constituting the imaging system.SOLUTION: An imaging device 100A included in an imaging system in which a plurality of imaging devices are connected and track and photograph a main subject includes: photographing means 101 for tracking and photographing the main subject; reliability acquisition means 103 for acquiring the reliability of tracking; and first communication means 105 capable of receiving the reliability of tracking of other imaging devices. The imaging device further includes: selection means 106 for selecting an imaging device that operates in a master mode on the basis of the reliability of tracking; and switching means 117 for switching, according to a selection result, between a master mode of detecting the position of the main subject and tracking and photographing the main subject and a slave mode of tracking and photographing the main subject on the basis of positional information on the main subject acquired from another imaging device.SELECTED DRAWING: Figure 3

Description

本発明は、複数台の撮像装置を用いて被写体を撮影する撮影システム、撮像装置及び撮像システムの制御方法に関するものである。   The present invention relates to an imaging system, an imaging apparatus, and a control method of an imaging system, which capture an object using a plurality of imaging apparatuses.

パン・チルト制御が可能なカメラ(以下、パン・チルトカメラ)を複数台使用して、被写体を複数の方向から撮影する撮像システムが開発されている。このシステムを使用することにより、被写体をあらゆる視点から見ることが可能な多視点映像の撮影が可能となる。   2. Description of the Related Art There has been developed an imaging system which captures an object from a plurality of directions using a plurality of cameras capable of pan and tilt control (hereinafter, pan and tilt cameras). By using this system, it becomes possible to shoot multi-view images in which the subject can be viewed from any viewpoint.

特許文献1には、複数台のパン・チルトカメラを配置した撮像システムにおいて、そのうちの1台をマスターカメラとしてカメラマンが操作し、それ以外のスレーブカメラはマスターカメラの注視点を向くように方向制御される撮像システムの記載がある。   According to Patent Document 1, in an imaging system in which a plurality of pan / tilt cameras are arranged, a cameraman operates one of them as a master camera, and direction control is performed so that the other slave cameras face the gazing point of the master camera. There is a description of the imaging system being

一方、撮影画像からの被写体検出技術を用いたり、あるいは電波を送信する被写体マーカを用いたりするなどして、指定した被写体を自動で追尾して撮影する技術が知られている。   On the other hand, there is known a technique for automatically tracking and photographing a specified subject by using a subject detection technique from a photographed image or using a subject marker for transmitting a radio wave.

特開2012−114593号公報JP, 2012-114593, A

特許文献1に記載の撮像システムに、自動追尾技術を適用すると、マスターカメラが指定した被写体を自動で追尾し、スレーブカメラはマスターカメラの注視点を向くように制御される撮像システムとなる。しかしながら、マスターカメラが自動で被写体を追尾する場合、被写体とマスターカメラとの位置関係などの影響で、マスターカメラが被写体を見失い、被写体を画角に収められなくなるシーンが想定される。スレーブカメラはマスターカメラの注視点に被写体がいると想定してマスターカメラの注視点を向くように方向制御されるため、マスターカメラの画角内に被写体が収められなくなると、全てのカメラが所望の被写体とは異なる被写体を撮影してしまうことになる。   When the automatic tracking technology is applied to the imaging system described in Patent Document 1, the imaging system is controlled such that the subject specified by the master camera is automatically tracked, and the slave camera is directed to the fixation point of the master camera. However, when the master camera automatically tracks the subject, a scene is assumed in which the master camera loses sight of the subject due to the positional relationship between the subject and the master camera, and the subject can not be brought into view. The slave camera is controlled to point at the gazing point of the master camera assuming that the subject is at the gazing point of the master camera. Therefore, when the subject can not be contained within the angle of view of the master camera, all cameras are desired. A subject different from the subject is photographed.

本発明は、複数台の撮像装置を用いて複数の角度から被写体を撮影する撮像システムであって、被写体を見失いにくい撮像システム、撮像システムの制御方法及び該撮像システムを構成する撮像装置を提供することを目的とする。   The present invention provides an imaging system that captures a subject from a plurality of angles using a plurality of imaging devices, and provides an imaging system that does not easily lose sight of the subject, a control method of the imaging system, and an imaging apparatus configuring the imaging system. The purpose is

本発明の一側面としての撮像装置は、別の撮像装置が接続され、主被写体を追尾して撮影する撮像装置であって、前記主被写体を追尾して撮影し、撮像信号を出力する撮影手段と、前記撮影手段による追尾の信頼度を取得する信頼度取得手段と、前記別の撮像装置から前記別の撮像装置の追尾の信頼度の受信が可能な第1の通信手段と、前記別の撮像装置の追尾の信頼度と、前記信頼度取得手段により取得した追尾の信頼度とに基づいてマスターモードで動作する撮像装置を選択する選択手段と、選択手段の選択結果に応じて、前記主被写体の位置を検出し、検出結果に基づいて前記主被写体を追尾して撮影する前記マスターモードと、前記別の撮像装置から取得した前記主被写体の位置情報を受信し、受信した前記主被写体の位置情報に基づいて前記主被写体を追尾して撮影するスレーブモードとを切り替える切り替え手段と、を備えることを特徴とする。   An imaging apparatus according to one aspect of the present invention is an imaging apparatus connected to another imaging apparatus and configured to track and capture a main subject, the imaging unit configured to track and capture the main subject and output an imaging signal. A reliability acquisition unit for acquiring the reliability of tracking by the imaging unit; a first communication unit capable of receiving the reliability of tracking of the other imaging apparatus from the other imaging apparatus; According to the reliability of the tracking of the imaging device and the reliability of the tracking acquired by the reliability acquisition device, according to the selection device for selecting the imaging device operating in the master mode and the selection result of the selection device The master mode for detecting the position of the subject and tracking and photographing the main subject based on the detection result, and the position information of the main subject acquired from the other imaging device are received, and the received main subject Based on location information There are characterized by comprising a switching means for switching a slave mode for photographing by tracking the main subject.

本発明のその他の側面については、以下で説明する実施の形態で明らかにする。   Other aspects of the present invention will be clarified in the embodiments described below.

本発明によれば、複数台の撮像装置を用いて複数の角度から被写体を撮影する撮像システムであって、被写体を見失いにくい撮像システム、撮像システムの制御方法及び該撮像システムを構成する撮像装置を提供することができる。   According to the present invention, an imaging system for imaging a subject from a plurality of angles using a plurality of imaging devices, wherein the imaging system hardly loses sight of the subject, a control method of the imaging system, and an imaging device constituting the imaging system Can be provided.

第1及び第2実施形態に係るカメラの構成例を示す図である。It is a figure which shows the structural example of the camera which concerns on 1st and 2nd embodiment. 第1及び第2実施形態に係るカメラ撮影を示す図である。It is a figure which shows the camera imaging which concerns on 1st and 2nd embodiment. 第1実施形態におけるマスターカメラ及びスレーブカメラの処理を説明するフローチャートである。It is a flowchart explaining the process of the master camera and slave camera in 1st Embodiment. 被写体の向きが変わった後のカメラ撮影を示す図である。It is a figure which shows the camera photography after the direction of the to-be-photographed object changed. 被写体の向き変更前後の各カメラの被写体検出信頼度を示す図である。It is a figure which shows the subject detection reliability of each camera before and behind the direction change of a subject. 第2実施形態におけるマスターカメラの動作を説明するフローチャートである。It is a flow chart explaining operation of a master camera in a 2nd embodiment. 加速度センサの出力値の時間変化を示す図である。It is a figure which shows the time change of the output value of an acceleration sensor. 第2実施形態におけるスレーブカメラの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the slave camera in 2nd Embodiment. カメラ移動前後のローカル座標における基準被写体の位置を示す図である。It is a figure which shows the position of the reference | standard subject in the local coordinate before and behind camera movement. カメラ移動前後の撮像画像と基準被写体探索後の撮像画像を示す図である。It is a figure which shows the captured image before and behind a camera movement, and the captured image after reference | standard object search.

以下に、本発明の例示的な各実施形態について、図面を参照して詳細に説明する。各実施形態ではパン(水平方向(左右)の旋回)・チルト(垂直方向(上下)の旋回)機能を持ったレンズ一体型カメラを複数有する多視点カメラシステムについて説明するが、パン・チルト機能を有するレンズ交換式カメラ等、各種の撮像装置に適用可能である。パン・チルト機能を有する撮像装置は、自動で動く雲台のように、パン・チルトを自動で調整する装置と撮像装置と組み合わせることで実現してもよいし、パン・チルト調整機構が一体型の撮像装置でもよい。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In each embodiment, a multi-viewpoint camera system having a plurality of lens integrated cameras with pan (horizontal direction (right and left) swing) and tilt (vertical direction (upper and lower) swing) functions will be described. The present invention is applicable to various imaging devices such as interchangeable lens cameras. An imaging apparatus having a pan-tilt function may be realized by combining an apparatus for automatically adjusting pan-tilt with an imaging apparatus, such as a camera platform that moves automatically, or the pan-tilt adjustment mechanism is integrated It may be an imaging device.

[第1実施形態]
[カメラシステムの構成]
本実施形態のカメラシステムは図2に示すように、互いに通信部を介して接続された、カメラ100A〜100Dで被写体201を囲むように配置して撮影を行う。本実施形態のカメラシステムを構成する各カメラの役割としてマスターカメラ(マスター撮像装置)とスレーブカメラ(スレーブ撮像装置)の二種類がある。マスターカメラはスレーブカメラに対して、マスターカメラと同一の被写体を画角の中心に収めるために必要な被写体の位置情報を送信する。スレーブカメラはマスターカメラから受信した被写体の位置情報を基に、マスターカメラの被写体がスレーブカメラの画角に収まるようにパン・チルト動作を行う。本実施形態のカメラシステムは、各カメラの被写体の検出状態に応じてマスターカメラとスレーブカメラの役割を入れ替える仕組みであり、カメラシステムを構成する複数のカメラから被写体の追尾に適したカメラをマスターカメラとして選択することができる。尚、各カメラは動作モードとしてマスターモードとスレーブモードを有しており、動作するモードを切り替えることでマスターカメラとして動作したり、スレーブカメラとして動作したりすることができる。
First Embodiment
[Camera system configuration]
As shown in FIG. 2, the camera system according to the present embodiment is arranged so as to surround the subject 201 by the cameras 100A to 100D connected to each other via a communication unit and performs shooting. There are two types of roles of each camera constituting the camera system of this embodiment: a master camera (master imaging device) and a slave camera (slave imaging device). The master camera transmits, to the slave camera, positional information of a subject necessary to center the subject same as the master camera in the angle of view. The slave camera performs pan / tilt operation based on the position information of the subject received from the master camera such that the subject of the master camera fits within the angle of view of the slave camera. The camera system of the present embodiment is a mechanism in which roles of the master camera and the slave camera are switched according to the detection state of the subject of each camera, and a camera suitable for tracking the subject from a plurality of cameras constituting the camera system is master camera It can be selected as Each camera has a master mode and a slave mode as operation modes, and by switching the operation mode, the camera can operate as a master camera or can operate as a slave camera.

図1は、本実施形態のカメラシステムを構成する複数台のカメラの一つである、カメラ100Aがマスターカメラとして動作する場合の構成例を示す機能ブロック図である。各構成について説明をする。   FIG. 1 is a functional block diagram showing a configuration example in which the camera 100A operates as a master camera, which is one of a plurality of cameras constituting the camera system of the present embodiment. Each configuration will be described.

撮像部101は、撮像光学系と、撮像光学系を通過して結像される光学像を電気信号に光電変換する撮像素子とを備え、撮像信号を出力する。撮像子光学系は複数のレンズや絞りから構成される。また、撮像素子としては、複数の画素が2次元配列されたCCDまたはCMOSイメージセンサを用いることができる。撮像光学系の光軸は後述するパン・チルト制御部115により変更可能であり、取得した被写体位置に応じてパン・チルトが制御されることにより、被写体を追尾して撮影することができる。   The imaging unit 101 includes an imaging optical system and an imaging element that photoelectrically converts an optical image formed by passing through the imaging optical system into an electrical signal, and outputs an imaging signal. The imager optical system is composed of a plurality of lenses and stops. In addition, as the imaging device, a CCD or CMOS image sensor in which a plurality of pixels are two-dimensionally arranged can be used. The optical axis of the imaging optical system can be changed by a pan / tilt control unit 115 described later, and the pan / tilt is controlled according to the acquired subject position, so that the subject can be tracked and photographed.

撮像処理部102は撮像部101が出力する撮像信号を取得して、ノイズ低減、AD変換、ホワイトバランス調整、色補間などの処理を適用して画像信号を生成する。   The imaging processing unit 102 obtains an imaging signal output from the imaging unit 101, and generates an image signal by applying processing such as noise reduction, AD conversion, white balance adjustment, and color interpolation.

信頼度取得部103は、カメラ100Aによる被写体検出の信頼度を取得する。本実施形態では、撮像部で撮像された撮像信号を用いて信頼度を取得する。   The reliability acquisition unit 103 acquires the reliability of subject detection by the camera 100A. In the present embodiment, the reliability is acquired using the imaging signal imaged by the imaging unit.

撮像信号を用いた信頼度の取得方法について説明をする。所定周期毎(例えばフレームレート毎)に後述する被写体画像記憶部104に記憶してある登録画像202と撮像部101で撮像した撮像信号に対応する画像との比較を行い、取得した画像の類似度に基づいて信頼度を取得する。類似度は特徴点比較、ブロックマッチング、パターン認識技術などの画像処理技術によって求める。類似度が高い場合は、撮像装置の画角内に登録画像202の被写体が存在するとみなし、高い信頼度を付与する。類似度をそのまま信頼度として用いてもよいし、類似度から信頼度へ変換を行ってもよい。図2は各カメラ100A〜Dと被写体201との位置関係の例を示す図、図5(A)は図2の状態で登録被写体を各カメラで撮影した画像と被写体画像記憶部に記憶している登録画像の信頼度の関係を示したものである。各カメラ100A〜Dと、被写体201との位置関係が図2に示した位置関係の場合、各カメラ100A〜Dで撮像された撮像信号に対応する画像と登録画像202との信頼度は、カメラ100Aが最も高く、カメラ100Cが最も低い。よって、図5(A)に示すように、信頼度取得部103で取得される信頼度もカメラ100Aが最も高く、カメラ100Cが最も低くなる。撮像信号に対応する画像に複数の被写体が存在する場合は、それぞれの被写体に対して登録画像との類似度を取得し、最も類似度が高い被写体の類似度に基づいて信頼度を取得する。信頼度は一つの被写体のみではなく、複数の被写体のそれぞれに対して取得し、被写体の位置情報と関連付けて記憶しておいてもよい。このように、複数の被写体のそれぞれに基づいて信頼度を取得し、それぞれの被写体の位置と関連付けることで、類似被写体が存在する場合でも登録被写体を誤検出せずに追尾を継続する可能性を高めることができる。尚、信頼度取得部103による信頼度取得は、撮像装置がマスターカメラとして動作していても、スレーブカメラとして動作していても行う。   A method of acquiring the reliability using an imaging signal will be described. The registered image 202 stored in the subject image storage unit 104, which will be described later, is compared with the image corresponding to the image pickup signal picked up by the image pickup unit 101 every predetermined cycle (for example, every frame rate). Get confidence based on. The similarity is determined by image processing techniques such as feature point comparison, block matching, pattern recognition techniques and the like. If the degree of similarity is high, it is considered that the subject of the registered image 202 exists within the angle of view of the imaging device, and a high degree of reliability is given. The similarity may be used directly as the reliability, or the similarity may be converted to the reliability. FIG. 2 is a view showing an example of the positional relationship between each camera 100A to 100D and the subject 201, and FIG. 5 (A) is an image of a registered subject taken with each camera in the state of FIG. It shows the relationship of the reliability of existing registered images. When the positional relationship between each of the cameras 100A to 100D and the subject 201 is the positional relationship shown in FIG. 2, the reliability between the image corresponding to the imaging signal captured by each of the cameras 100A to 100D and the registered image 202 is camera 100A is the highest, and camera 100C is the lowest. Therefore, as shown in FIG. 5A, the reliability acquired by the reliability acquisition unit 103 is also the highest for the camera 100A and the lowest for the camera 100C. When a plurality of subjects exist in the image corresponding to the imaging signal, the similarity with the registered image is acquired for each subject, and the reliability is acquired based on the similarity of the subject with the highest similarity. The reliability may be acquired not only for one subject but also for each of a plurality of subjects, and may be stored in association with position information of the subjects. Thus, by acquiring the reliability based on each of a plurality of subjects and associating it with the position of each subject, it is possible to continue tracking without erroneously detecting a registered subject even when there is a similar subject. It can be enhanced. The reliability acquisition by the reliability acquisition unit 103 is performed whether the imaging apparatus operates as a master camera or operates as a slave camera.

被写体画像記憶部104は、追尾対象とする被写体の画像の情報を登録画像情報として記憶する記憶部であり、ハードディスクやフラッシュメモリ等、各種メモリで構成することができる。撮影前に、登録画像情報を記憶することで、上述の撮像信号を用いた信頼度取得を行うことができる。尚、被写体からの信号を用いて信頼度を取得する場合はこの構成を省略することも可能である。   The subject image storage unit 104 is a storage unit that stores information of an image of a subject to be tracked as registered image information, and can be configured by various memories such as a hard disk and a flash memory. By storing the registered image information before photographing, the reliability acquisition using the above-described imaging signal can be performed. In addition, when acquiring a reliability using a signal from a subject, it is also possible to omit this configuration.

通信部105は、システムを構成する他のカメラ(100B〜100D)と通信を行う。マスターカメラ(カメラ100A)はカメラシステムの全てのスレーブカメラ(カメラ100B〜100D)と通信部105を介して無線通信を行う。一方、各スレーブカメラはマスターカメラのみと通信を行う。マスターカメラは追尾対象としている被写体の位置情報を所定時間間隔で各スレーブカメラに送信する。各スレーブカメラは、各スレーブカメラの信頼度取得部で取得した信頼度を所定時間間隔でマスターカメラに送信する。   The communication unit 105 communicates with other cameras (100B to 100D) constituting the system. The master camera (camera 100A) performs wireless communication with all slave cameras (cameras 100B to 100D) of the camera system via the communication unit 105. On the other hand, each slave camera communicates with only the master camera. The master camera transmits the position information of the subject to be tracked to each slave camera at predetermined time intervals. Each slave camera transmits the reliability acquired by the reliability acquisition unit of each slave camera to the master camera at predetermined time intervals.

マスターカメラセレクト部106は、各スレーブカメラが取得した信頼度とマスターカメラ自身が取得した信頼度とに基づいて、マスターカメラの選択を行う。マスターモードで動作するカメラを特定する情報を含む選択結果は、モード切り替え部117へ送信され、選択結果に応じてスレーブモードとマスターモードとの切り替えが行われる。マスターカメラセレクト部106は、基本的には、信頼度が高いカメラをマスターカメラとして選択すればよく、選択方法としては信頼度が最も高いカメラをマスターカメラとして選択する方法が考えられる。但し、頻繁にマスターカメラが切り替わることを防ぐため、スレーブカメラのほうが信頼度が高く、且つ、スレーブカメラの信頼度とマスターカメラの信頼度の差が閾値以上である場合にのみ、マスターカメラを切り替えてもよい。このような形態にすると、スレーブカメラの信頼度がマスターカメラの信頼度よりもわずかに高い場合であっても、マスターカメラを切り替えないため、マスターカメラが頻繁に切り替わることを防ぐことができる。また、マスターカメラとして動作し始めてから所定時間経過してからマスターモードで動作するカメラを選択してもよい。また、マスターカメラの信頼度よりもスレーブカメラの信頼度のほうが高い状態が所定の時間以上継続しないとマスターカメラの切り替えを行わないようにしてもよい。このような形態とすることで、同様の効果を得ることができる。   The master camera selection unit 106 selects a master camera based on the reliability acquired by each slave camera and the reliability acquired by the master camera itself. The selection result including information specifying the camera operating in the master mode is transmitted to the mode switching unit 117, and switching between the slave mode and the master mode is performed according to the selection result. Basically, the master camera selection unit 106 may select a camera with a high degree of reliability as a master camera, and a method of selecting a camera with the highest degree of reliability as a master camera can be considered. However, in order to prevent the master camera from switching frequently, the master camera is switched only when the slave camera has higher reliability and the difference between the reliability of the slave camera and the reliability of the master camera is equal to or greater than the threshold. May be With such a configuration, even if the reliability of the slave camera is slightly higher than the reliability of the master camera, the master camera is not switched, so frequent switching of the master camera can be prevented. Alternatively, a camera that operates in the master mode may be selected after a predetermined time has elapsed since it started operating as a master camera. Further, the master camera may not be switched unless the state in which the reliability of the slave camera is higher than the reliability of the master camera continues for a predetermined time or more. With such a form, the same effect can be obtained.

基準被写体記憶部107は、カメラの移動量を検出する際に基準とする被写体の画像を記憶する記憶部であり、ハードディスクやフラッシュメモリ等、各種メモリで構成することができる。基準被写体記憶部107に記憶されている画像を用いたカメラの移動量検出については、実施形態2で詳細に説明をする。   The reference subject storage unit 107 is a storage unit that stores an image of a subject used as a reference when detecting the movement amount of the camera, and can be configured by various memories such as a hard disk and a flash memory. The movement amount detection of the camera using the image stored in the reference subject storage unit 107 will be described in detail in a second embodiment.

被写体位置検出部108は、電波検出部112により検出された電波信号に基づいて、被写体との距離を検出する。電波検出部112は、撮影対象となる被写体がビーコン等により自身の位置をカメラに通知するために発する電波を受信し、この信号を被写体位置検出部108に出力する。被写体位置検出部108は電波信号で検出するカメラ100から被写体までの距離と公知の追尾技術に基づいて取得した被写体の方向情報に基づいて被写体のローカル座標上における位置を取得する。公知の追尾技術として、撮像処理部102から取得した画像信号(映像処理を施した撮像信号のため、撮像信号の一種とみなす)に基づいて被写体位置を取得する方法を用いることができる。単純に、撮像範囲における追尾対象の被写体の位置を検出してもよいし、動きベクトルを取得して被写体位置を予測してもよい。また、被写体位置検出部108は、キャリブレーション時に取得した情報を用いてローカル座標上の被写体位置情報を世界座標上での被写体位置情報に変換する。   The subject position detection unit 108 detects the distance to the subject based on the radio wave signal detected by the radio wave detection unit 112. The radio wave detection unit 112 receives a radio wave emitted by an object to be photographed to notify the camera of its position by beacon or the like, and outputs this signal to the object position detection unit 108. The subject position detection unit 108 acquires the position of the subject on the local coordinates based on the distance from the camera 100 detected by the radio wave signal to the subject and the direction information of the subject acquired based on a known tracking technique. As a known tracking technique, a method of acquiring a subject position based on an image signal acquired from the imaging processing unit 102 (considered as a kind of imaging signal for an imaging signal subjected to video processing) can be used. Simply, the position of the subject to be tracked in the imaging range may be detected, or the motion vector may be acquired to predict the position of the subject. Further, the subject position detection unit 108 converts the subject position information on the local coordinates into the subject position information on the world coordinates, using the information acquired at the time of calibration.

撮影パラメータ保持部109は、カメラのパンおよびチルトの角度や被写体距離等の撮影条件を記憶するためのものであり、各種メモリで構成することができる。加速度センサ110は、カメラの加速度を検出するためのものであり、各種ジャイロセンサ等で構成することができる。   The photographing parameter holding unit 109 is for storing photographing conditions such as the pan and tilt angles of the camera and the subject distance, and can be configured by various memories. The acceleration sensor 110 is for detecting the acceleration of the camera, and can be configured by various gyro sensors or the like.

カメラ移動量検出部111は、加速度センサ110で取得した加速度および基準被写体記憶部107に記憶されている基準被写体の位置情報および基準被写体を登録した際のパン・チルト角度や被写体距離等の撮影パラメータを基にカメラの移動量を算出する。   The camera movement amount detection unit 111 detects the acceleration acquired by the acceleration sensor 110, the position information of the reference subject stored in the reference subject storage unit 107, and shooting parameters such as the pan / tilt angle and the subject distance when the reference subject is registered. Calculate the movement amount of the camera based on.

回転行列生成部113は、被写体位置検出部108または通信部105で受信する被写体位置情報を基にパン・チルトの目標位置の回転行列を生成する。パン・チルト位置検出部114は、パン・チルトのエンコーダ位置基準での位置を検出する。パン・チルト制御部115は、回転行列生成部113で設定される目標位置とパン・チルト位置検出部114で検出されるパン・チルト位置との比較結果を使用して両者が一致するように駆動制御する。   The rotation matrix generation unit 113 generates a rotation matrix of pan / tilt target positions based on subject position information received by the subject position detection unit 108 or the communication unit 105. The pan / tilt position detection unit 114 detects a pan / tilt position based on the encoder position. The pan / tilt control unit 115 uses the comparison result between the target position set by the rotation matrix generation unit 113 and the pan / tilt position detected by the pan / tilt position detection unit 114 so that both are matched. Control.

カメラ位置検出部116はキャリブレーション時における世界座標上でのカメラ位置とカメラ移動量検出部111からのカメラ移動量を基に世界座標上でのカメラの位置を取得する。カメラ位置検出部116は、カメラの移動を検出すると、カメラ移動量検出部111で取得されたカメラ移動量と、移動前の世界座標上でのカメラ位置に基づいて、移動後のカメラの世界座標上での位置を検出する。また、カメラ位置検出部116は、検出したカメラの世界座標上での位置を被写体位置検出部108および通信部105に通知する。   The camera position detection unit 116 acquires the position of the camera on world coordinates based on the camera position on world coordinates at the time of calibration and the camera movement amount from the camera movement amount detection unit 111. When the camera position detection unit 116 detects movement of the camera, based on the camera movement amount acquired by the camera movement amount detection unit 111 and the camera position on the world coordinates before movement, the world coordinates of the camera after movement Detect the position above. In addition, the camera position detection unit 116 notifies the subject position detection unit 108 and the communication unit 105 of the detected position of the camera on world coordinates.

本実施形態における、被写体検出の信頼度に応じてマスターカメラとスレーブカメラを切り替える方法について説明する。ここでは、電波検出部112により取得した、ビーコンからの電波信号に基づいて被写体を追尾し、予め被写体画像記憶部104に記憶していた登録画像との類似度に基づいて信頼度を取得する場合について説明をする。   A method of switching the master camera and the slave camera in accordance with the reliability of subject detection in the present embodiment will be described. In this case, the subject is tracked based on the radio wave signal from the beacon acquired by the radio wave detection unit 112, and the reliability is acquired based on the similarity to the registered image stored in the subject image storage unit 104 in advance. Explain about

まず、カメラシステムによる撮影を開始する前に、各カメラ100A〜Dの配置及び注視点のキャリブレーション(カメラの注視点合わせ処理)を行う。多視点カメラシステムの各カメラ100A〜Dを配置する際は、被写体を囲むような形でカメラの配置を行う。カメラの配置後は、各カメラについてキャリブレーションを行う。キャリブレーションは各カメラで同一のキャリブレーション用のチャート(例えば、ドットパターンや市松模様)を用いて行う。   First, before starting photographing by the camera system, calibration of the arrangement of the cameras 100A to 100D and the gaze point (camera gaze point alignment processing) is performed. When arranging each of the cameras 100A to 100D of the multi-viewpoint camera system, the cameras are arranged so as to surround the subject. After placing the cameras, perform calibration for each camera. Calibration is performed using the same calibration chart (eg, dot pattern or checkered pattern) in each camera.

キャリブレーションは、基準被写体の設定、基準被写体の探索、カメラのローカル座標上での位置と世界座標上での位置の検出の順番で行う。基準被写体の設定は、まず、キャリブレーション用のチャートを基準被写体に設定して画像を基準被写体記憶部107で記憶する。キャリブレーションに使用するチャートは原点(角度0°の位置)のパターンが明確であり、なおかつ撮影する角度ごとに変化するようなパターンを有するものを用いる。撮影する角度に応じて変化するチャートを用いることで、チャートをカメラ画像の中心部に収めるとチャートの原点を基準としたカメラが存在する角度を画像から検出することができる。画像からチャートの原点を基準としたカメラの角度を求める処理は撮像処理部102で行う。基準被写体の設定の後は、基準被写体の探索を行う。探索は、チャートがカメラ画像の中心部に来るまでカメラ100Aをパンおよびチルト駆動させる。パン、チルト駆動中は所定時間間隔でパン、チルト位置検出部114にてパンおよびチルト位置の検出を行い、駆動速度が一定となるようにパン・チルト制御部115で速度制御を行う。基準被写体であるチャートがカメラ画像の中心部に来た場合にはパンおよびチルトの駆動を停止させる。基準被写体の探索終了後は、カメラのローカル座標上での位置と世界座標上での位置をそれぞれ検出する。チャートからカメラまでの距離は、キャリブレーション開始前に測距用のビーコンをチャートに設置して、ビーコンからの電波情報を基に検出する。ビーコンからの電波の検出は電波検出部112で行う。チャートの原点を基準としたカメラが存在する角度とチャートからカメラまでの距離からカメラの世界座標上での位置を取得する。カメラが存在する角度はパン・チルト位置検出部114で検出されるパン、チルト角度から検出する。ローカル座標でのカメラの位置は、チャートからカメラまでの距離と、カメラの画像の中心部にチャートを収めたときのパンおよびチルトの角度から検出する。パンおよびチルトの角度はパン・チルト位置検出部114で検出する。検出した世界座標上での位置およびローカル座標上での位置をカメラ位置検出部116で記憶する。他のカメラ(マスターまたはスレーブ)と位置情報のやりとりを行う際は、このキャリブレーション時のローカル座標上での位置と世界座標上での位置の関係を用いて座標変換を行う。   The calibration is performed in the order of setting of the reference subject, search of the reference subject, and detection of the position on the local coordinates of the camera and the position on the world coordinates. In setting the reference subject, first, a calibration chart is set as the reference subject, and the image is stored in the reference subject storage unit 107. The chart used for calibration has a clear pattern of the origin (a position at an angle of 0 °) and has a pattern that changes with each shooting angle. By using a chart that changes according to the angle at which the image is taken, when the chart is placed at the center of the camera image, it is possible to detect from the image the angle at which the camera is based on the origin of the chart. A process of obtaining an angle of a camera based on an origin of a chart from an image is performed by the imaging processing unit 102. After setting the reference subject, a search for the reference subject is performed. The search pans and tilts the camera 100A until the chart comes to the center of the camera image. During pan and tilt driving, the pan and tilt position detection unit 114 detects pan and tilt positions at predetermined time intervals, and the pan and tilt control unit 115 performs speed control so that the driving speed becomes constant. When the chart as the reference subject comes to the center of the camera image, the pan and tilt driving is stopped. After the search for the reference subject is completed, the position of the camera on the local coordinates and the position on the world coordinates are respectively detected. The distance from the chart to the camera is detected based on radio wave information from the beacon by setting a beacon for distance measurement on the chart before calibration starts. The radio wave detection unit 112 detects radio waves from the beacon. The position of the camera on world coordinates is acquired from the angle at which the camera is based on the chart origin and the distance from the chart to the camera. The angle at which the camera is present is detected from the pan and tilt angles detected by the pan and tilt position detection unit 114. The position of the camera in local coordinates is detected from the distance from the chart to the camera and the pan and tilt angles when the chart is placed at the center of the camera image. The pan and tilt angles are detected by the pan / tilt position detector 114. The detected position on the world coordinate and the position on the local coordinate are stored in the camera position detection unit 116. When exchanging positional information with another camera (master or slave), coordinate conversion is performed using the relationship between the position on the local coordinates at the time of this calibration and the position on the world coordinates.

キャリブレーションでは、対象被写体(キャリブレーション用のパターン)を世界座標の基準点に設定して、世界座標に対するカメラ座標(ローカル座標)のずれ量を回転ベクトルRおよび並進ベクトルTに変換して記憶する。世界座標系(X,Y,Z)とローカル座標(x,y,z)との関係は次式(1)で表される。 In calibration, a target subject (pattern for calibration) is set as a reference point of world coordinates, and the amount of deviation of camera coordinates (local coordinates) with respect to world coordinates is converted into a rotation vector R m and a translation vector T m Remember. The relationship between the world coordinate system (X, Y, Z) and the local coordinates (x, y, z) is expressed by the following equation (1).

Figure 2019062279
Figure 2019062279

このようなキャリブレーションを、カメラシステムを構成するすべてのカメラについて行う。キャリブレーション終了後はマスターカメラとなるカメラの選定を行う。マスターカメラを決める方式として2つの方式があり、ユーザーが適宜選択することができる。1つはカメラシステムが自動でマスターカメラを決める方式である。もう1つはユーザーがマスターカメラを指定する方式である。カメラシステムが自動でマスターカメラを決める方式は、上述のように、カメラシステムを構成する全てのカメラ100A〜100Dについて撮影中の被写体の検出の信頼度を取得して、信頼度が最も高いカメラをマスターカメラとする方式である。もう一方の方式であるユーザーがマスターカメラを指定する方式では、携帯電話などによる外部機器の無線通信を利用した設定や、直接カメラを操作することによってマスターカメラかスレーブカメラかをそれぞれ設定する。   Such calibration is performed for all the cameras constituting the camera system. After the calibration is completed, a camera to be a master camera is selected. There are two methods for determining the master camera, which can be selected by the user as appropriate. One is a method in which a camera system automatically determines a master camera. The other is a method in which the user designates a master camera. As described above, in the method of automatically determining the master camera by the camera system, the reliability of detection of the subject during shooting is acquired for all the cameras 100A to 100D that constitute the camera system, and the camera with the highest reliability is selected. This is a method of using a master camera. In a method in which the user specifies the master camera, which is the other method, the setting using wireless communication of an external device by a mobile phone or the like, or the master camera or the slave camera is set by directly operating the camera.

次に、登録被写体と各カメラで撮影された被写体の類似度に応じて、撮影中にマスターカメラとスレーブカメラを切り替える処理について説明する。図3は、撮影対象の被写体の追尾中に被写体の類似度に応じてマスターカメラとスレーブカメラを切り替える処理のフローチャートである。図中左側のマスターカメラ側の処理から説明をする。ステップS301で、はじめに追尾対象となる被写体の指定を行う。本実施形態では、被写体画像記憶部104に追尾対象となる被写体(以下、主被写体と呼ぶ)の画像情報を記憶させることで被写体の指定を行う。被写体画像記憶部104があらかじめ主被写体の候補の画像を複数記憶しており、候補の中から今回の主被写体を選択するような形態でもよい。   Next, a process of switching the master camera and the slave camera during shooting according to the similarity between the registered subject and the subject photographed by each camera will be described. FIG. 3 is a flowchart of processing for switching the master camera and the slave camera in accordance with the similarity of the subject during tracking of the subject to be photographed. The processing on the master camera side on the left side in the drawing will be described. In step S301, first, an object to be tracked is specified. In the present embodiment, a subject is specified by storing image information of a subject to be tracked (hereinafter, referred to as a main subject) in the subject image storage unit 104. The subject image storage unit 104 may store a plurality of images of candidates for the main subject in advance, and may select the present main subject from among the candidates.

主被写体の指定が終わったら、ステップS302へ進む。ステップS302において、パン・チルト制御部115は、被写体位置検出部108により取得した被写体の位置に基づいて、主被写体が画角の中央にくるようにマスターカメラをパン・チルト駆動して主被写体の追尾を行う。パン・チルト駆動により主被写体を画角の中央付近に捉えたら、ステップS303へ進み、マスターカメラのカメラ座標(ローカル座標)における被写体の位置検出を行う。上述のように、ビーコンの電波強度から推定した被写体距離と、パンおよびチルトの角度情報を用いて、マスターカメラのローカル座標上での位置を算出する。尚、ビーコンを用いる代わりに、カメラのフォーカスレンズの位置や撮像素子で撮像される被写体画像の各画素間での視差や、ミリ波レーダー等のビーコン以外の測距センサを用いて被写体距離を検出することもできる。ローカル座標における登録被写体の位置を求めたら、ステップS304へ進み、ローカル座標での主被写体の位置を世界座標での位置に変換する(S304)。世界座標上での位置に変換する際には、キャリブレーション時に記憶したローカル座標と世界座標との関係を表す行列(回転行列Rおよび並進ベクトルT)を基に世界座標に変換する。被写体位置のローカル座標から世界座標への変換が終わったら、ステップS305へ進み、通信部105を介して各スレーブカメラに対して世界座標上での主被写体の位置情報を送信する。次に、ステップS306で被写体検出の信頼度の取得を行う。上述のように、被写体検出の信頼度は、被写体画像記憶部104に登録されている被写体画像と撮像部101で取得した画像の比較結果の類似度で求める。   After the designation of the main subject is completed, the process proceeds to step S302. In step S302, the pan / tilt control unit 115 pan / tilt drives the master camera so that the main subject is at the center of the angle of view based on the position of the subject acquired by the subject position detection unit 108. Perform tracking. When the main subject is captured near the center of the angle of view by pan / tilt driving, the process proceeds to step S303, and position detection of the subject in camera coordinates (local coordinates) of the master camera is performed. As described above, the position of the master camera on the local coordinates is calculated using the subject distance estimated from the radio wave intensity of the beacon and the pan and tilt angle information. It should be noted that instead of using a beacon, the subject distance is detected using a distance sensor other than a beacon such as the position of the focus lens of the camera or the subject image captured by the image sensor or each pixel of the subject image You can also After the position of the registered subject in the local coordinates is obtained, the process proceeds to step S304, where the position of the main subject in the local coordinates is converted to the position in the world coordinates (S304). When converting to a position on world coordinates, it is converted to world coordinates based on a matrix (rotation matrix R and translation vector T) representing the relationship between local coordinates and world coordinates stored at the time of calibration. When the conversion from the local coordinates of the object position to the world coordinates is completed, the process proceeds to step S305, and the position information of the main object on the world coordinates is transmitted to each slave camera via the communication unit 105. Next, in step S306, the reliability of subject detection is acquired. As described above, the reliability of subject detection is obtained from the similarity between the comparison result of the subject image registered in the subject image storage unit 104 and the image acquired by the imaging unit 101.

一方、各スレーブカメラ100B〜Dは、後述するステップS601〜S605で、マスターカメラから送られてくる世界座標上での主被写体位置に主被写体が存在するものとして、主被写体が画角に収まるようにパン・チルト動作を行う。そして、撮像した画像に基づいて信頼度を取得してマスターカメラに送信する。マスターカメラは、ステップS307で各スレーブカメラから送られてくる信頼度を受信すると、ステップS308へ進み、マスターカメラセレクト部106によるマスターカメラの選択を行う。マスターカメラを選択すると、ステップS309で、選択情報を各スレーブカメラに送信する。送信後はステップS310へ進み、各カメラのモード切り替え部117でマスター切り替え処理を行う。図4は図2の状態から被写体の向きが変わった時の被写体201と各カメラ100A〜100Dの位置関係を示したものであり、図5(B)は図4の状態で登録被写体を各カメラで撮影した画像と被写体画像記憶部に記憶している登録画像の信頼度の関係を示す。図4の位置関係の場合はこれまでスレーブカメラであったカメラ100Dの信頼度が最も高くなる。このような状態でカメラ100Aをマスターカメラのままにしてカメラシステムによる撮影を継続した場合、主被写体位置の検出精度が落ちたり、類似被写体が複数存在する場合に主被写体を誤検出する可能性が高くなる。その結果、主被写体以外の被写体を撮影したり、スレーブカメラが主被写体を追尾できなかったりする場合がある。このように、信頼度が最も高いカメラがカメラ100Dに変化した場合、マスターカメラセレクト部106はカメラ100Dをマスターカメラに変更するように各カメラに対してマスターセレクト情報を送信する。   On the other hand, in each of the slave cameras 100B to 100D, in steps S601 to S605 described later, it is assumed that the main subject is within the angle of view, assuming that the main subject is present at the main subject position on the world coordinates sent from the master camera. Pan and tilt at the same time. Then, the reliability is acquired based on the captured image and transmitted to the master camera. When the master camera receives the degree of reliability sent from each slave camera in step S307, the process advances to step S308, and the master camera selection unit 106 selects a master camera. When the master camera is selected, selection information is transmitted to each slave camera in step S309. After transmission, the process proceeds to step S310, and the mode switching unit 117 of each camera performs master switching processing. FIG. 4 shows the positional relationship between the subject 201 and the cameras 100A to 100D when the direction of the subject is changed from the state of FIG. 2, and FIG. 5B shows the registered subject as each camera in the state of FIG. The relationship between the reliability of the image photographed in the above and the registered image stored in the subject image storage unit is shown. In the case of the positional relationship of FIG. 4, the reliability of the camera 100D which has been the slave camera up to now is the highest. If shooting with the camera system is continued with the camera 100A as the master camera in such a state, there is a possibility that the detection accuracy of the main subject position may be degraded, or the main subject may be erroneously detected when there are multiple similar subjects. Get higher. As a result, a subject other than the main subject may be photographed, or the slave camera may not be able to track the main subject. As described above, when the camera with the highest reliability is changed to the camera 100D, the master camera selection unit 106 transmits master selection information to each camera so as to change the camera 100D to the master camera.

次にマスターカメラとスレーブカメラの切り替え処理のスレーブカメラ側の処理について説明する。図3の右側は、主被写体を追尾中に被写体の信頼度に応じてマスターカメラとスレーブカメラを切り替えるスレーブカメラ側のフローチャートを示したものである。まず、ステップS601では、マスターカメラから所定時間間隔で無線通信により送られてくる世界座標上の被写体位置情報を受信する。次に、ステップS602で、受信した世界座標基準の被写体位置をスレーブカメラ自身のローカル座標上での位置に変換する。変換方法について説明する。   Next, processing on the slave camera side of switching processing between the master camera and the slave camera will be described. The right side of FIG. 3 shows a flowchart on the slave camera side in which the master camera and the slave camera are switched according to the reliability of the subject while tracking the main subject. First, in step S601, subject position information on world coordinates transmitted from the master camera at predetermined time intervals by wireless communication is received. Next, in step S602, the received subject position based on the world coordinate is converted to the position on the slave camera's own local coordinate. The conversion method will be described.

キャリブレーション時に記憶した世界座標とキャリブレーション時のカメラのローカル座標のずれを示す回転行列をRs0、並進ベクトルをTs0とする。このとき、被写体の世界座標位置(X,Y,Zをスレーブカメラのローカル座標上での位置(x,y,zに変換する式は次式(2)で表される。 Let R s0 be a rotation matrix indicating the deviation between the world coordinates stored at the time of calibration and the local coordinates of the camera at the time of calibration, and let the translation vector be T s0 . At this time, the equation for converting the world coordinate position (X s , Y s , Z s ) T of the object to the position (x s , y s , z s ) T on the local coordinates of the slave camera is the following equation (2) Is represented by

Figure 2019062279
Figure 2019062279

また、被写体のスレーブカメラのローカル座標上での位置を世界座標上での位置に変換する際には式(3)により変換する。   Further, when the position of the subject on the local coordinates of the slave camera is converted into the position on the world coordinates, it is converted by Expression (3).

Figure 2019062279
Figure 2019062279

マスターカメラから送られてきた世界座標上での被写体位置をスレーブカメラのローカル座標上での位置に変換したら、次は、ステップS603において、パン・チルトの目標角度を取得する。ローカル座標上での目標位置からカメラのパン・チルトの目標角度を取得する方法について説明する。   When the object position on the world coordinates sent from the master camera is converted to the position on the local coordinates of the slave camera, next, in step S603, the pan and tilt target angles are acquired. A method of acquiring the pan and tilt target angles of the camera from the target position on the local coordinates will be described.

Z軸を中心に回転する方向をパン方向、X軸を中心に回転する方向をチルト方向、被写体が存在するローカル座標上での位置を(x、y、z)として、キャリブレーションした時のカメラ位置からパン方向にθ、チルト方向にφ回転したとする。このとき、被写体距離lは次式(4)で表される。 Calibration was performed with the direction of rotation around the Z axis as the pan direction, the direction of rotation around the X axis as the tilt direction, and the position on the local coordinates where the object exists as (x s , y s , z s ) It is assumed that θ is rotated in the pan direction and φ in the tilt direction from the camera position at that time. At this time, the subject distance l is expressed by the following equation (4).

Figure 2019062279
Figure 2019062279

パンの目標角度θおよびチルトの目標角度φは式(5)、(6)で表される。   The target angle θ of pan and the target angle φ of tilt are expressed by Equations (5) and (6).

Figure 2019062279
Figure 2019062279

Figure 2019062279
Figure 2019062279

ステップS604では、式(4)〜(6)により算出して得られた目標角度にカメラの注視点が向くように、パン・チルトの駆動制御を行う。   In step S604, pan / tilt drive control is performed such that the gaze point of the camera is directed to the target angle obtained by calculation using equations (4) to (6).

次に、ステップS605で被写体検出の信頼度を取得する。信頼度はステップS306と同様に取得する。信頼度が取得されると、S606に進み、マスターカメラに対して信頼度情報を送信する。次に、ステップS607で、マスターカメラからのマスターセレクト情報を受信し、ステップS608へ進む。ステップS608では、マスターセレクト情報を基にマスターに変更するかスレーブのままでいるかを決定し、マスターカメラに切り替える場合には動作モードをマスターカメラへ切り替える処理を行う。   Next, in step S605, the reliability of subject detection is acquired. The reliability is acquired as in step S306. If the reliability is acquired, the process advances to step S606 to transmit reliability information to the master camera. Next, in step S607, the master select information from the master camera is received, and the process proceeds to step S608. In step S608, it is determined based on the master select information whether to change to the master or to remain as the slave. When switching to the master camera, processing to switch the operation mode to the master camera is performed.

このように、本実施形態の多視点カメラシステムによれば、撮影された被写体と登録被写体との類似度が最も高いカメラをマスターカメラに切り替える。これにより、被写体の向きが変わった場合やカメラと被写体の間に障害物が現れてマスターカメラで被写体をとらえにくくなった場合でも被写体を誤検知する可能性を軽減しながら多視点カメラシステムによる撮影を継続することができる。   Thus, according to the multi-viewpoint camera system of the present embodiment, the camera with the highest degree of similarity between the photographed subject and the registered subject is switched to the master camera. This reduces the possibility of erroneous detection of the subject even when the subject's orientation is changed, or when an obstacle appears between the camera and the subject and the master camera makes it difficult to catch the subject, while shooting with the multi-viewpoint camera system Can continue.

[第2実施形態]
上述のように、多視点カメラシステムを構成する各カメラの視点は、マスターカメラの注視点を向くようにカメラ毎に調整されている。そのため、撮影中にマスターカメラの位置を動かすと、スレーブカメラはマスターカメラとは異なる被写体を撮影してしまう。また、スレーブカメラの位置を動かしても、そのカメラはマスターカメラとは異なる被写体を撮影してしまう。これらの問題は、多視点カメラシステムの再キャリブレーションを行うことで解決できるが、キャリブレーションは全てのカメラの注視点を調整する必要があるため、再び撮影可能となるまでに時間がかかってしまう。
Second Embodiment
As described above, the viewpoints of the cameras constituting the multi-viewpoint camera system are adjusted for each camera so as to face the fixation point of the master camera. Therefore, if the position of the master camera is moved during shooting, the slave camera shoots an object different from the master camera. In addition, even if the position of the slave camera is moved, that camera captures an object different from the master camera. These problems can be solved by recalibration of the multi-viewpoint camera system, but it takes time to be able to shoot again because calibration needs to adjust the gazing points of all cameras. .

そこで、本実施形態では、画像情報を使用してカメラの移動量を検出することで、カメラ座標と世界座標の位置関係を求め、多視点カメラ撮影を継続する方法について説明をする。カメラの移動量は、キャリブレーション時に基準被写体を設定し、その基準被写体のカメラ座標上での位置を記憶しておき、カメラがキャリブレーションを行った時の位置から移動した場合に基準被写体を探索することで検出することができる。   Therefore, in the present embodiment, a method of determining the positional relationship between the camera coordinates and the world coordinates by detecting the movement amount of the camera using the image information and continuing the multi-view camera shooting will be described. The amount of movement of the camera sets the reference subject at the time of calibration, stores the position of the reference subject on camera coordinates, and searches for the reference subject when the camera moves from the position at the time of calibration. It can detect by doing.

一般的な多視点カメラシステムはキャリブレーションによって得られるカメラのローカル座標と世界座標との関係がわかっていることを前提としている。そのため、カメラがキャリブレーションした位置から移動した場合はカメラ座標と世界座標の関係が変わるため、従来は、再度キャリブレーションを行わないと正しく被写体追尾を行うことは難しかった。キャリブレーションを行う代わりに、カメラの移動量を検出してカメラのローカル座標と世界座標の関係を修正する方法もある。カメラの移動量を検出する方法としてGPS(Global Positioning System)を用いた方法が挙げられる。しかしながらGPSを用いて精度よくカメラの移動を検出するためには高精度のGPS受信機が必要となりコストアップとなる。また、GPSは屋内や周りに障害物が有る場合には精度が著しく落ちてしまうという問題がある。これらの問題を解決する方法として、加速度センサや地磁気センサを用いて移動量を検出する方法(PDR:Pedestrian Dead Reckoning)が考えられる。しかし、この方法でも、加速度センサは加速度を検出できる限界が存在するため、正しくカメラの移動量を推定できない事がある。たとえば、加速度センサでは打撃等の急峻な衝撃を与えた場合や高速でカメラを移動させた場合は、センサの検出限界を超えてしまうため、正確な移動量を求めることできないことが多い。本実施形態では、このような問題を解決するために、画像情報を使用してカメラの移動量を検出してカメラ座標と世界座標の位置関係を求める方法について説明する。   A general multi-view camera system assumes that the relationship between the local coordinates of the camera obtained by calibration and the world coordinates is known. Therefore, when the camera moves from the calibrated position, the relationship between the camera coordinates and the world coordinates changes, and conventionally, it has been difficult to correctly track the subject unless calibration is performed again. Instead of performing calibration, there is also a method of detecting the amount of movement of the camera and correcting the relationship between the local coordinates of the camera and the world coordinates. As a method of detecting the movement amount of the camera, there is a method using GPS (Global Positioning System). However, in order to detect the movement of the camera accurately using the GPS, a high precision GPS receiver is required, resulting in an increase in cost. In addition, GPS has a problem that the accuracy is significantly reduced when there is an obstacle indoors or around. As a method of solving these problems, a method (PDR: Pedestrian Dead Reckoning) which detects a movement amount using an acceleration sensor or a geomagnetic sensor can be considered. However, even with this method, the acceleration sensor may not be able to accurately estimate the amount of movement of the camera because there is a limit that can detect acceleration. For example, in the case of applying an abrupt impact such as an impact to the acceleration sensor or moving the camera at a high speed, the detection limit of the sensor is exceeded, so it is often impossible to obtain an accurate amount of movement. In the present embodiment, in order to solve such a problem, a method of detecting the movement amount of a camera using image information and determining the positional relationship between camera coordinates and world coordinates will be described.

図6は画像情報を使用してカメラの移動量を検出して、世界座標とローカル座標との関係を補正する処理におけるマスターカメラのフローチャートである。まず、ステップS701で、基準被写体の登録を行う。基準被写体の登録はキャリブレーション操作時に行う。まず、各カメラで撮影した画像の中で複数の基準となる被写体をユーザーが、もしくは自動で選択し、その被写体の画像を被写体画像記憶部104に記憶させる。登録する基準被写体は、被写体自身は移動せず、色や形が顕著なものでかつキャリブレーション時の画角に占める割合が所定量以上(基準物として認識可能である画素数以上)であるものが好適である。基準被写体を決めたら、被写体位置検出部108は、撮像処理部102から画像情報を取得し、撮像した画像における基準物体の位置と、撮影した際のカメラのパン・チルト位置および被写体距離からローカル座標上での基準被写体の位置を検出する。そして、検出したローカル座標上での基準物の位置を世界座標上での位置に変換して、世界座標上での基準被写体の位置を記憶することで、基準被写体の登録を完了する。   FIG. 6 is a flowchart of the master camera in the processing of detecting the amount of movement of the camera using image information and correcting the relationship between world coordinates and local coordinates. First, in step S701, a reference subject is registered. Registration of a reference subject is performed at the time of calibration operation. First, the user automatically selects a plurality of reference subjects from among the images taken by each camera, and stores the images of the subjects in the subject image storage unit 104. The reference subject to be registered is one in which the subject itself does not move, the color and shape are prominent, and the proportion of the angle of view at the time of calibration is a predetermined amount or more (the number of pixels recognizable as a reference object) Is preferred. When the reference subject is determined, the subject position detection unit 108 acquires image information from the imaging processing unit 102, and the local coordinates from the position of the reference object in the captured image, the pan / tilt position of the camera at shooting and the subject distance Detect the position of the reference subject above. Then, the position of the reference object on the detected local coordinates is converted into the position on the world coordinates, and the position of the reference object on the world coordinates is stored, thereby completing the registration of the reference object.

基準被写体の登録が終わったら多視点カメラシステムによる撮影を開始する。撮影中は常にステップS702でカメラの移動の有無を検出し続ける。カメラの移動の有無は、加速度センサの出力値に応じて判定を行う。検出した加速度の値が所定の閾値以下であれば、カメラの移動なしと判定し、カメラの移動がありと判定されるまで、待機する。閾値以上であればカメラの移動ありと判定し、ステップS703へ進み、新たなマスターカメラをスレーブカメラの中から選択する。マスターカメラに選ぶカメラは、カメラの移動を検知する直前に取得された信頼度が最も高いスレーブカメラとする。例えば、図2のようにカメラAをマスターカメラとして撮影を行っている状況で、マスターカメラであるカメラ100Aが移動した場合には、スレーブカメラの中で最も類似度が高いカメラ100Bがマスターカメラとして選ばれる。マスターカメラを選択したら、ステップS704へ進み、各スレーブカメラにマスターセレクト情報を送信する。送信後、ステップS705へ進み、動作モードをマスターカメラモードからスレーブカメラモードに切り替える。次に、ステップS706へ進み、加速度センサ110の検出結果が有効であるかどうかの判定を行う。加速度センサ110の検出結果が有効か無効かは、検出した値の大きさによって判定する。   When registration of the reference subject is completed, shooting with the multi-viewpoint camera system is started. During shooting, the presence or absence of movement of the camera is constantly detected in step S702. The presence or absence of movement of the camera is determined in accordance with the output value of the acceleration sensor. If the value of the detected acceleration is equal to or less than a predetermined threshold value, it is determined that the camera has not moved, and the process waits until it is determined that the camera has moved. If it is the threshold value or more, it is determined that the camera has moved, and the process proceeds to step S703, and a new master camera is selected from slave cameras. The camera selected as the master camera is a slave camera with the highest degree of reliability acquired immediately before detecting the movement of the camera. For example, as shown in FIG. 2, when the camera 100A as the master camera moves in a situation where the camera A is used as a master camera, the camera 100B having the highest similarity among the slave cameras is regarded as the master camera. To be elected. After the master camera is selected, the process advances to step S704 to transmit master select information to each slave camera. After the transmission, the process advances to step S705 to switch the operation mode from the master camera mode to the slave camera mode. Next, in step S706, it is determined whether the detection result of the acceleration sensor 110 is valid. Whether the detection result of the acceleration sensor 110 is valid or invalid is determined by the magnitude of the detected value.

図7は、カメラを移動させた際の加速度センサ110の出力にローパスフィルタをかけた結果の時間変化を示した図である。図7のathは加速度センサ110が検出可能な加速度の上限値であり、−athは加速度センサ110が検出可能な加速度の下限値である。図7では、tcの期間加速度センサが検出範囲の上限値を示している。加速度センサ110の出力が上限値を示す場合、実際にはそれ以上の加速度でカメラが移動しており、正しく加速度を検出できていない可能性がある。そのため、加速度センサ110の出力値が上限値の場合に加速度センサ110の出力値からカメラ移動量を取得すると、実際のカメラ移動量と、取得したカメラの移動量との間の誤差が大きくなることがある。そこで、本実施形態では、このように加速度センサ110の出力値が上限値または下限値を示す場合には、カメラの移動による加速度が加速度センサ110の検出限界を超えたものとし、加速度センサの出力結果は無効と判定する。そしてステップS708に進み、登録した基準被写体を使用したカメラの移動量の取得を行う。加速度センサの出力値が下限値と上限値の間である場合には加速度センサによる出力結果は有効であると判定して、ステップS707に進む。加速度センサの情報を基に移動量を取得するステップS707またはS708で移動量の取得が終わったら、ステップS709へ進み、世界座標とローカル座標の変換行列の更新を行う。   FIG. 7 is a diagram showing temporal changes as a result of applying a low pass filter to the output of the acceleration sensor 110 when the camera is moved. In FIG. 7, ath is an upper limit value of acceleration that can be detected by the acceleration sensor 110, and −ath is a lower limit value of acceleration that can be detected by the acceleration sensor 110. In FIG. 7, the period acceleration sensor at tc indicates the upper limit value of the detection range. If the output of the acceleration sensor 110 indicates the upper limit value, the camera may actually move at an acceleration higher than that, and the acceleration may not be detected correctly. Therefore, when the camera movement amount is acquired from the output value of the acceleration sensor 110 when the output value of the acceleration sensor 110 is the upper limit value, the error between the actual camera movement amount and the acquired movement amount of the camera becomes large. There is. Therefore, in the present embodiment, when the output value of the acceleration sensor 110 indicates the upper limit value or the lower limit value as described above, it is assumed that the acceleration due to the movement of the camera exceeds the detection limit of the acceleration sensor 110 and the output of the acceleration sensor The result is determined to be invalid. Then, the process proceeds to step S 708, where the movement amount of the camera using the registered reference subject is acquired. If the output value of the acceleration sensor is between the lower limit value and the upper limit value, it is determined that the output result of the acceleration sensor is valid, and the process proceeds to step S 707. After acquiring the movement amount in step S707 or S708 of acquiring the movement amount based on the information of the acceleration sensor, the process proceeds to step S709, and the transformation matrix of the world coordinates and the local coordinates is updated.

ステップS708による、基準被写体を使用したカメラの移動量取得方法について説明する。図9はカメラ移動前後のカメラ座標の関係を示したものである。通常は3次元座標で表現を行うが、本実施形態では簡単のために各カメラは同じ高さに配置されていて、かつ、パン方向のみ探索を行うものとして2次元座標系で表現している。図9の1001はカメラ移動検出前のカメラ座標軸、1002はカメラ移動検出後のカメラ座標軸を示している。図9のPおよびPはキャリブレーション時に登録した画像内に存在する基準被写体の中心位置である。図9のdはPとPの距離、l、lはそれぞれカメラ移動前のカメラから基準被写体位置P、Pまでの距離である。まず、キャリブレーション時に、基準被写体のローカル座標での位置(P、P)および両者の距離(図9のd)を算出して記憶しておく(S901)する。図10(a)は基準被写体を登録した際に取得した画像の一例を示したものである。図10の画像中の、基準被写体の花1101の位置がPに相当し、基準被写体の2本の木1102の位置がPに相当する。図10(a)に示すように同一画角に存在する2つの静止物を基準被写体として被写体画像記憶部104に記憶させる。基準被写体をカメラが自動で決定する場合、画像中の被写体が静止物であるか否かを判定する必要がある。静止物であるか否かの判定は、画像内の各被写体の所定時間における画像上での移動量(移動速度)を検出して、所定の速度以下の物体を静止物として判定する。画像上での移動量を検出する際には、オプティカルフローやテンプレートマッチングを利用することができる。基準被写体の登録が終わったら、カメラの移動量及び方向の検出を開始する。図10(b)はカメラ移動検出後に取得した画像である。図10(b)の画像では、基準被写体1101のみ存在しており、なおかつ撮像画像上の配置が左奥にずれている。したがって、カメラは被写体に対して右側方向に動いたことになる。カメラの移動方向は、オプティカルフローやテンプレートマッチング等の画像処理ではなく加速度センサの出力値の符号によって判定するようにしてもよい。これらの情報からパン・チルトの駆動方向を決定し、基準被写体1101、1102の探索を行う。図10(c)は、カメラをパンすることによって2つの基準被写体1101、1102を画角に収めたときのカメラ画像を示したものである。このときのカメラ座標での基準被写体1101および1102の位置P、Pを取得して記憶する。これらのカメラの移動前後の基準被写体位置PおよびPからカメラの移動量を取得する。図9より、カメラ移動後の基準被写体位置PおよびPはカメラ移動前の基準被写体位置PおよびPに比べてxy平面に垂直なz軸を中心として∠Eだけ回転移動したあとに並進ベクトルTs1だけ平行移動した位置に等しくなる。カメラ移動前後のカメラ座標の中心の移動量はベクトルTs1を用いて次式(7)〜(11)で表される。 A method of acquiring the movement amount of the camera using the reference subject in step S708 will be described. FIG. 9 shows the relationship between camera coordinates before and after camera movement. Usually, the representation is performed in three-dimensional coordinates, but in the present embodiment, each camera is disposed at the same height for simplicity and is represented in a two-dimensional coordinate system as a search is performed only in the pan direction. . In FIG. 9, reference numeral 1001 denotes a camera coordinate axis before camera movement detection, and reference numeral 1002 denotes a camera coordinate axis after camera movement detection. P 1 and P 2 in FIG. 9 is the center position of the reference subject existing in the image registered during calibration. D 9 is the distance of the distance P 1 and P 2, from l 1, l 2 is the front camera moving each camera to the reference object position P 1, P 2. First, at the time of calibration, the position (P 1 , P 2 ) of the reference subject in the local coordinates and the distance between the two (d in FIG. 9) are calculated and stored (S 901). FIG. 10A shows an example of an image acquired when the reference subject is registered. In the image of FIG. 10, the position of the reference object flowers 1101 corresponds to P 1, 2 present position of the tree 1102 of the reference object corresponds to P 2. As shown in FIG. 10A, two stationary objects existing at the same angle of view are stored in the subject image storage unit 104 as a reference subject. When the camera automatically determines the reference subject, it is necessary to determine whether the subject in the image is a stationary object. The determination as to whether or not the object is a stationary object detects the amount of movement (moving speed) on the image in a predetermined time of each subject in the image, and determines an object having a predetermined velocity or less as the stationary object. When detecting the amount of movement on the image, optical flow or template matching can be used. After registration of the reference subject is completed, detection of the movement amount and direction of the camera is started. FIG. 10B is an image acquired after camera movement detection. In the image of FIG. 10B, only the reference subject 1101 exists, and the arrangement on the captured image is shifted to the far left. Therefore, the camera has moved to the right with respect to the subject. The moving direction of the camera may be determined not by image processing such as optical flow or template matching but by the sign of the output value of the acceleration sensor. From these pieces of information, the pan / tilt drive direction is determined, and a search for reference subjects 1101 and 1102 is performed. FIG. 10C shows a camera image when the two reference subjects 1101 and 1102 are accommodated in the angle of view by panning the camera. The positions P 1 and P 2 of the reference objects 1101 and 1102 in camera coordinates at this time are acquired and stored. From the reference object position P 1 and P 2 before and after the movement of the cameras to obtain a movement amount of the camera. From FIG. 9, after the camera moves the reference subject positions P 1 and P 2 after rotational movement by ∠E around the z axis perpendicular to the xy plane as compared with the reference subject positions P 1 and P 2 before the camera movement. It is equal to the position translated by the translation vector T s1 . The amount of movement of the center of the camera coordinates before and after the movement of the camera is expressed by the following equations (7) to (11) using the vector T s1 .

Figure 2019062279
Figure 2019062279

Figure 2019062279
Figure 2019062279

Figure 2019062279
Figure 2019062279

Figure 2019062279
Figure 2019062279

Figure 2019062279
Figure 2019062279

式(10)の角度Dはカメラ移動後に基準被写体Pを画角に収めた際のパンのエンコーダ位置から求める。カメラ移動前のローカル座標からカメラ移動後のローカル座標に変換するための回転行列Rs1は次式で表される。 Angle D of formula (10) is obtained from the pan encoder position when matches the angle of the reference subject P 2 after the camera movement. The rotation matrix R s1 for converting the local coordinates before the camera movement to the local coordinates after the camera movement is expressed by the following equation.

Figure 2019062279
Figure 2019062279

カメラ移動後のローカル座標を世界座標へ変換するための変換行列は次式(13)、(14)で表される。   A transformation matrix for transforming local coordinates after camera movement into world coordinates is expressed by the following equations (13) and (14).

Figure 2019062279
Figure 2019062279

Figure 2019062279
Figure 2019062279

このように、実施形態1に記載したような、キャリブレーションをすべてのカメラで実施しなくても、カメラ移動後のローカル座標と世界座標との関係が取得できるため、注視点を合わせることができる。   As described above, even if calibration is not performed for all the cameras as described in the first embodiment, the relationship between the local coordinates after the movement of the camera and the world coordinates can be acquired, so that the fixation point can be matched. .

次に、図8のフローチャートを用いて、スレーブカメラにおける、世界座標とローカル座標との関係を補正する処理について説明をする。ステップS901〜902は、ステップS701〜702と同様であるため説明は省略する。スレーブカメラが移動したと判定されると、ステップS903へ進み、移動があったことをマスターカメラに通知する。撮影者が意図的に、スレーブカメラを被写体を検出しやすい場所に移動させた場合には、動かした場合に各カメラの信頼度の高さの順位が変わる可能性が高い。
このような場合は一定間隔で行うスレーブとマスターの通信を待たずに即座に通信を行う様にしたほうが良い。移動があったことをマスターに通知すると、スレーブとマスターの切り替えを素早く行う事ができる。スターカメラへの通知が終わると、ステップS904へ進む。ステップS904〜S907は、ステップS706〜S709と同様であるため、説明を省略する。
Next, processing for correcting the relationship between world coordinates and local coordinates in the slave camera will be described using the flowchart in FIG. Steps S901 to S902 are the same as steps S701 to S702, and therefore the description thereof is omitted. If it is determined that the slave camera has moved, the process advances to step S 903 to notify the master camera of the movement. When the photographer intentionally moves the slave camera to a position where it is easy to detect the subject, there is a high possibility that the order of the degree of reliability of each camera will change when it is moved.
In such a case, it is better to communicate immediately without waiting for communication between the slave and the master, which are performed at regular intervals. If you notify the master that there has been a move, you can quickly switch between the slave and the master. When the notification to the star camera is finished, the process proceeds to step S904. Since steps S904 to S907 are the same as steps S706 to S709, the description will be omitted.

このように、カメラ移動検出用のセンサの情報が使用できない場合でも、基準となる2つの被写体のローカル座標上での位置を検出して記憶しておき、カメラ移動前後の基準被写体のローカル座標上での位置の差からカメラの移動量を推定することができる。それにより、複数台のカメラ連携により多視点カメラ撮影を行っているときにカメラを移動させた場合でも、カメラの位置調整(キャリブレーション)を行わずに多視点カメラ撮影を継続することができる。   As described above, even when the information of the sensor for detecting the camera movement can not be used, the positions of the two objects serving as the reference on the local coordinates are detected and stored, and the local coordinates of the reference object before and after the camera movement are stored. The amount of movement of the camera can be estimated from the difference in position at. As a result, even when moving a camera while performing multi-view camera shooting by cooperation of a plurality of cameras, multi-view camera shooting can be continued without performing position adjustment (calibration) of the camera.

本実施形態では加速度センサを使用した例を示したが、加速度センサに限らず、地磁気センサ、ミリ波レーダー、ジャイロセンサなどの他のセンサを用いた場合でも同様な効果が期待できるため、移動量検出用のセンサが加速度センサ以外であってもよい。   Although an example using an acceleration sensor is shown in this embodiment, the same effect can be expected even when using other sensors such as a geomagnetic sensor, a millimeter wave radar, a gyro sensor, etc. without being limited to the acceleration sensor. The sensor for detection may be other than the acceleration sensor.

[変形例]
実施形態1では、検出信頼度の取得方法として、登録されている被写体画像と、撮影画像に含まれる被写体との類似度に基づいて信頼度を取得する方法について説明をした。しかしながら、撮影画像に含まれる被写体がステップS301で指定した主被写体であるかどうかの確からしさを示す指標を取得できれば、他の方法を用いることができる。
[Modification]
In the first embodiment, the method of acquiring the reliability based on the similarity between the registered subject image and the subject included in the captured image has been described as the method of acquiring the detection reliability. However, another method can be used as long as it is possible to acquire an index indicating whether the subject included in the captured image is the main subject specified in step S301.

例として、被写体からの信号を用いて信頼度を取得する方法について説明をする。被写体からの信号の具体例としては、被写体が保持する電波発信器(ビーコンなど)からの電波信号や、被写体自身もしくは被写体が保持する音声発生器(スピーカなど)からの音声信号が挙げられる。電波信号や音声信号から信頼度を取得する場合、信号の強度を示す値を信頼度として用いることができる。例えば、RSSI(Received Signal Strength Indication)を規格化した値(カメラが受信可能な最大電波強度が1となるように受信した電波の強度に係数を掛けた値)を使用することができる。   As an example, a method of acquiring the reliability using a signal from a subject will be described. Specific examples of the signal from the subject include a radio wave signal from a radio wave transmitter (such as a beacon) held by the subject, and an audio signal from an audio generator (such as a speaker) held by the subject itself or the subject. When obtaining the reliability from the radio wave signal or the audio signal, a value indicating the strength of the signal can be used as the reliability. For example, it is possible to use a value obtained by standardizing RSSI (Received Signal Strength Indication) (a value obtained by multiplying the received signal strength by a coefficient so that the maximum signal strength that can be received by the camera is 1).

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Embodiments
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

104 被写体画像記憶部
106 マスターカメラセレクト部
107 基準物体記憶部
115 パン・チルト制御部
104 subject image storage unit 106 master camera selection unit 107 reference object storage unit 115 pan / tilt control unit

Claims (15)

別の撮像装置が接続され、主被写体を追尾して撮影する撮像装置であって、
前記主被写体を追尾して撮影し、撮像信号を出力する撮影手段と、
前記撮影手段による追尾の信頼度を取得する信頼度取得手段と、
前記別の撮像装置から前記別の撮像装置の追尾の信頼度の受信が可能な第1の通信手段と、
前記別の撮像装置の追尾の信頼度と、前記信頼度取得手段により取得した追尾の信頼度とに基づいてマスターモードで動作する撮像装置を選択する選択手段と、
選択手段の選択結果に応じて、
前記主被写体の位置を検出し、検出結果に基づいて前記主被写体を追尾して撮影する前記マスターモードと、
前記別の撮像装置から取得した前記主被写体の位置情報を受信し、受信した前記主被写体の位置情報に基づいて前記主被写体を追尾して撮影するスレーブモードとを切り替える切り替え手段と、を備えることを特徴とする撮像装置。
Another imaging apparatus is connected, and is an imaging apparatus that tracks and shoots a main subject,
Shooting means for tracking and shooting the main subject and outputting a shooting signal;
Reliability acquisition means for acquiring the reliability of tracking by the imaging means;
First communication means capable of receiving the tracking reliability of said another imaging device from said another imaging device;
Selection means for selecting an imaging device operating in a master mode based on the tracking reliability of the other imaging device and the tracking reliability obtained by the reliability obtaining means;
Depending on the selection result of the selection means
The master mode in which the position of the main subject is detected, and the main subject is tracked and photographed based on the detection result;
Switching means for receiving the position information of the main subject acquired from the other imaging device, and switching to a slave mode for tracking and photographing the main subject based on the received position information of the main subject An imaging device characterized by
前記通信手段は前記選択手段による選択結果を前記別の撮像装置に送信することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the communication unit transmits the selection result by the selection unit to the another imaging apparatus. 前記選択手段は、前記第1の通信手段により受信した、別の撮像装置の追尾の信頼度よりも、前記信頼度取得手段により取得した追尾の信頼度のほうが低い場合に、別の撮像装置をマスターモードで動作する撮像装置として選択し、
前記切り替え手段は、動作モードを前記マスターモードから前記スレーブモードに切り替えることを特徴とする請求項1又は2に記載の撮像装置。
When the reliability of the tracking acquired by the reliability acquiring unit is lower than the reliability of the tracking of the other imaging device received by the first communication unit, the selection unit is another imaging device. Select as an imaging device operating in master mode,
The imaging device according to claim 1, wherein the switching unit switches an operation mode from the master mode to the slave mode.
前記選択手段は、前記信頼度取得手段により取得した追尾の信頼度よりも、前記第1の通信手段により受信した、別の撮像装置の追尾の信頼度のほうが高く、且つ、前記信頼度取得手段により取得した追尾の信頼度と前記第1の通信手段により受信した、別の撮像装置の追尾の信頼度との差が閾値以上である場合に、別の撮像装置をマスターモードで動作する撮像装置として選択し、
前記切り替え手段は、動作モードを前記マスターモードから前記スレーブモードに切り替えることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
The selection unit is configured such that the reliability of tracking of another imaging device received by the first communication unit is higher than the reliability of tracking acquired by the reliability acquisition unit, and the reliability acquisition unit An imaging apparatus that operates another imaging apparatus in the master mode when the difference between the tracking reliability acquired by the first communication unit and the tracking reliability of another imaging apparatus received by the first communication unit is equal to or greater than a threshold Choose as
The imaging apparatus according to any one of claims 1 to 3, wherein the switching unit switches an operation mode from the master mode to the slave mode.
前記選択手段は、前記マスターモードで動作し始めてから所定時間経過してから取得された前記信頼度に基づいて前記マスターモードで動作する撮像装置を選択することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   5. The image pickup apparatus according to claim 1, wherein the selection unit selects an image pickup apparatus operating in the master mode based on the reliability acquired after a predetermined time has elapsed since the operation in the master mode starts. An imaging device according to any one of the items. 主被写体の位置を検出する被写体位置検出手段を備え、
前記撮影手段は前記被写体位置検出手段による主被写体の位置の検出結果に基づいて前記主被写体を追尾し、
前記通信手段は、前記被写体位置検出手段による検出結果を前記別の撮像装置に送信することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
Object position detection means for detecting the position of the main object;
The photographing means tracks the main subject based on the detection result of the position of the main subject by the subject position detection means,
The imaging apparatus according to any one of claims 1 to 5, wherein the communication unit transmits the detection result of the subject position detection unit to the another imaging apparatus.
前記被写体位置検出手段は、
前記撮影手段から出力された撮像信号に基づいて前記主被写体の位置を検出することを特徴とする請求項6に記載の撮像装置。
The subject position detection means
7. The image pickup apparatus according to claim 6, wherein the position of the main subject is detected based on an image pickup signal output from the image pickup means.
前記撮影手段は、
前記被写体位置検出手段により取得された前記主被写体の位置に基づいて前記主被写体の位置を追尾すること特徴とする請求項6又は7に記載の撮像装置。
The photographing means is
The imaging apparatus according to claim 6, wherein the position of the main subject is tracked based on the position of the main subject acquired by the subject position detection unit.
主被写体の画像情報を記憶する記憶部を備え、
前記信頼度取得手段は、前記記憶部に記憶された主被写体の画像と、前記撮影手段から出力された撮像信号に対応する画像との類似度に基づいて前記信頼度を取得する請求項1乃至8のいずれか1項に記載の撮像装置。
A storage unit for storing image information of the main subject;
The reliability degree acquiring means acquires the reliability degree based on the similarity between the image of the main subject stored in the storage unit and the image corresponding to the imaging signal output from the photographing means. The imaging device according to any one of 8.
前記主被写体からの信号を受信する第2の通信手段を備え、
前記信頼度取得手段は、前記第2の通信手段が受信した前記主被写体からの信号の強度に基づいて前記信頼度を取得することを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。
A second communication unit configured to receive a signal from the main subject;
9. The reliability degree acquiring unit according to claim 1, wherein the reliability degree acquiring unit acquires the reliability degree based on the strength of the signal from the main subject received by the second communication unit. 10. Imaging device.
別の撮像装置が接続され、主被写体を追尾して撮影する撮像装置であって、
前記主被写体を追尾して撮影し、撮像信号を出力する撮影手段と、
前記撮影手段による追尾の信頼度を取得する信頼度取得手段と、
前記信頼度取得手段により取得した前記追尾の信頼度を、前記別の撮像装置へ送信が可能であり、且つ、前記別の撮像装置から前記主被写体の位置情報の受信が可能な第1の通信手段と、を備え、
前記撮影手段は、
前記別の撮像装置から受信した前記主被写体の位置情報に基づいて前記主被写体を追尾することを特徴とする撮像装置。
Another imaging apparatus is connected, and is an imaging apparatus that tracks and shoots a main subject,
Shooting means for tracking and shooting the main subject and outputting a shooting signal;
Reliability acquisition means for acquiring the reliability of tracking by the imaging means;
The first communication capable of transmitting the reliability of the tracking acquired by the reliability acquiring unit to the other imaging device and capable of receiving the position information of the main subject from the other imaging device Means, and
The photographing means is
An imaging apparatus characterized by tracking the main subject based on position information of the main subject received from the other imaging apparatus.
前記第1の通信手段は、マスターモードで動作する撮像装置を特定する情報を受信し、
該情報に基づいて、
前記主被写体の位置を検出し、検出結果に基づいて前記主被写体を追尾して撮影するマスターモードと、
前記別の撮像装置から取得した前記主被写体の位置情報を受信し、受信した前記主被写体の位置情報に基づいて前記主被写体を追尾して撮影するスレーブモードとを切り替える切り替え手段を備えることを特徴とする請求項11に記載の撮像装置。
The first communication means receives information specifying an imaging device operating in a master mode,
Based on the information
A master mode for detecting the position of the main subject and tracking and photographing the main subject based on the detection result;
It is characterized by comprising switching means for receiving the position information of the main subject acquired from the other imaging device, and switching to a slave mode for tracking and photographing the main subject based on the received position information of the main subject. The imaging device according to claim 11.
複数の撮像装置を備える撮像システムであって、
前記複数の撮像装置のそれぞれは、
主被写体を追尾して撮影する撮影手段と、
前記撮影手段による追尾の信頼度を取得する信頼度取得手段と、
前記信頼度取得手段により取得した前記追尾の信頼度を、送信または受信が可能な第1の通信手段と、
前記主被写体の位置を検出し、検出結果に基づいて前記主被写体を追尾して撮影するマスターモードと、
別の撮像装置から取得した前記主被写体の位置情報を受信し、受信した前記主被写体の位置情報に基づいて前記主被写体を追尾して撮影するスレーブモードとを切り替える切り替え手段と、を備え、
複数の撮像装置のそれぞれの追尾の信頼度に基づいて、
前記マスターモードで動作する撮像装置を選択する選択手段を備えることを特徴とする撮像システム。
An imaging system comprising a plurality of imaging devices, the imaging system comprising:
Each of the plurality of imaging devices is
Shooting means for tracking and shooting the main subject;
Reliability acquisition means for acquiring the reliability of tracking by the imaging means;
A first communication unit capable of transmitting or receiving the tracking reliability acquired by the reliability acquiring unit;
A master mode for detecting the position of the main subject and tracking and photographing the main subject based on the detection result;
Switching means for receiving the position information of the main subject acquired from another imaging device, and switching to a slave mode for tracking and photographing the main subject based on the received position information of the main subject,
Based on the tracking reliability of each of a plurality of imaging devices,
An imaging system comprising: selection means for selecting an imaging device operating in the master mode.
前記選択手段は、前記複数の撮像装置のうち、前記マスターモードで動作する撮像装置が備えることを特徴とする請求項13の記載の撮像システム。   The imaging system according to claim 13, wherein the selection unit is provided with an imaging device operating in the master mode among the plurality of imaging devices. 前記選択手段を備える撮像装置は、前記マスターモードで動作する撮像装置が切り替わることに併せて切り替わることを特徴とする請求項13または14に記載の撮像システム。   15. The imaging system according to claim 13, wherein the imaging device including the selection unit switches in response to switching of the imaging device operating in the master mode.
JP2017183513A 2017-09-25 2017-09-25 Imaging device, control device, imaging system, and imaging system control method Active JP7175595B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017183513A JP7175595B2 (en) 2017-09-25 2017-09-25 Imaging device, control device, imaging system, and imaging system control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017183513A JP7175595B2 (en) 2017-09-25 2017-09-25 Imaging device, control device, imaging system, and imaging system control method

Publications (3)

Publication Number Publication Date
JP2019062279A true JP2019062279A (en) 2019-04-18
JP2019062279A5 JP2019062279A5 (en) 2020-10-22
JP7175595B2 JP7175595B2 (en) 2022-11-21

Family

ID=66177789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017183513A Active JP7175595B2 (en) 2017-09-25 2017-09-25 Imaging device, control device, imaging system, and imaging system control method

Country Status (1)

Country Link
JP (1) JP7175595B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025003A (en) * 1999-07-08 2001-01-26 Canon Inc Camera system and camera control method
JP2003069884A (en) * 2001-08-28 2003-03-07 Fuji Photo Film Co Ltd Automatic subject following device for photographing camera
JP2008042315A (en) * 2006-08-02 2008-02-21 Matsushita Electric Ind Co Ltd Camera controller and camera control system
JP2017028655A (en) * 2015-07-28 2017-02-02 日本電気株式会社 Tracking system, tracking method and tracking program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025003A (en) * 1999-07-08 2001-01-26 Canon Inc Camera system and camera control method
JP2003069884A (en) * 2001-08-28 2003-03-07 Fuji Photo Film Co Ltd Automatic subject following device for photographing camera
JP2008042315A (en) * 2006-08-02 2008-02-21 Matsushita Electric Ind Co Ltd Camera controller and camera control system
JP2017028655A (en) * 2015-07-28 2017-02-02 日本電気株式会社 Tracking system, tracking method and tracking program

Also Published As

Publication number Publication date
JP7175595B2 (en) 2022-11-21

Similar Documents

Publication Publication Date Title
JP4587166B2 (en) Moving body tracking system, photographing apparatus, and photographing method
JP5371686B2 (en) Imaging apparatus, imaging method, and imaging system
WO2017120771A1 (en) Depth information acquisition method and apparatus, and image collection device
WO2018140107A1 (en) System for 3d image filtering
CN108459597B (en) Mobile electronic device and method for processing tasks in task area
KR20150050172A (en) Apparatus and Method for Selecting Multi-Camera Dynamically to Track Interested Object
JP2008227877A (en) Video information processor
WO2017056757A1 (en) Imaging device and imaging method
JP2006270274A (en) Object recognition apparatus and method
WO2017117749A1 (en) Follow focus system and method based on multiple ranging approaches, and photographing system
KR20150119793A (en) Imaging apparatus, camera unit, display unit, image-taking method, display method and computer readable recording medium recording program thereon
JP2011058854A (en) Portable terminal
JP4056777B2 (en) Autonomous mobile object traveling system and autonomous mobile object position correction method
CN108260360B (en) Scene depth calculation method and device and terminal
JP5543870B2 (en) Camera, camera control method, and program
JP2018134712A (en) Robot system and control method for robot system
JP2005266520A (en) Imaging apparatus and imaging method
JP4918675B2 (en) 3D coordinate measurement method
JP7175595B2 (en) Imaging device, control device, imaging system, and imaging system control method
JP2012039468A (en) Photographing apparatus system and photographing device
KR20110078655A (en) A method and a system of filming using multiple camera
KR102298047B1 (en) Method of recording digital contents and generating 3D images and apparatus using the same
JP2015126402A (en) Robot camera control device, program for the same, and multi-viewpoint robot camera system
KR101856151B1 (en) An portable apparatus for gathering indoor positioning infra information
CN114071003B (en) Shooting method and system based on optical communication device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221109

R151 Written notification of patent or utility model registration

Ref document number: 7175595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151