JP6557768B2 - 追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム - Google Patents

追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム Download PDF

Info

Publication number
JP6557768B2
JP6557768B2 JP2018178969A JP2018178969A JP6557768B2 JP 6557768 B2 JP6557768 B2 JP 6557768B2 JP 2018178969 A JP2018178969 A JP 2018178969A JP 2018178969 A JP2018178969 A JP 2018178969A JP 6557768 B2 JP6557768 B2 JP 6557768B2
Authority
JP
Japan
Prior art keywords
target
camera
unit
control
pan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018178969A
Other languages
English (en)
Other versions
JP2018198470A (ja
Inventor
史憲 入江
史憲 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2018198470A publication Critical patent/JP2018198470A/ja
Application granted granted Critical
Publication of JP6557768B2 publication Critical patent/JP6557768B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/08Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted to co-operate with a remote control mechanism

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Accessories Of Cameras (AREA)

Description

本発明は、カメラのパン及び/又はチルトを遠隔制御して、ターゲットを追尾しながら撮影するための追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システムに関する。
パン及び/又はチルトの機能を備えたカメラを使用して、移動する被写体を自動で追尾しながら撮影する自動追尾撮影システムが知られている。
一般に自動追尾撮影システムでは、カメラで撮影された画像からターゲット(追尾対象とする被写体)の位置を逐次検出し、ターゲットが常に撮影画面の中央に位置するように、カメラのパン及び/又はチルトを制御する。
特許文献1には、このような自動追尾撮影システムにおいて、ターゲットの動きを予測してパン及びチルトを制御することが記載されている。すなわち、所定時間後のターゲットの位置を予測して、カメラのパン及びチルトを制御することが記載されている。また、特許文献1には、カメラに出力するパン及びチルトの指令値にローパスフィルタ処理を行うことにより、高い周波数の動きを減衰させて、画像の動きをなめらかにすることが記載されている。
特開2007-295175号公報
ところで、このような自動追尾撮影システムでは、カメラを制御端末で遠隔制御して、カメラにターゲットを追尾させるシステムも知られている。しかしながら、このようにカメラを遠隔制御するシステムでは、カメラと制御端末との間の通信状態によって、変則的な制御遅延が生じるという問題がある。特許文献1は、ターゲットの動きを予測してカメラのパン及びチルトを制御しているが、一定時間後の予測であるため、変則的な制御遅延が生じた場合には対応できないという欠点がある。
このような変則的な制御遅延は、制御端末が複数の処理を並列して実行しているような場合にも生じる。すなわち、1つのCPU(Central Processing Unit:中央処理装置)で複数の処理を並列して実行するコンピュータでカメラを遠隔制御する場合、CPUの使用状態によって変則的な制御遅延が生じる。
本発明は、このような事情に鑑みてなされたもので、追従性い追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システムを提供することを目的とする。
上記課題を解決するための手段は、次のとおりである。
(1)パン及び/又はチルトの機能を備えたカメラのパン及び/又はチルトの動作を遠隔制御して、カメラにターゲットを追尾させる追尾制御装置であって、カメラで撮影された画像に基づいて、ターゲットの位置を検出するターゲット位置検出部と、少なくともカメラとの間の通信状態に基づいて、制御遅延が生じる時間Tを推定する制御遅延時間推定部と、T時間後のターゲットの位置をターゲット予測位置として予測するターゲット位置予測部と、ターゲットを配置する位置としてカメラの撮影画面内に設定されるターゲット配置位置をターゲット予測位置に移動させるために必要なカメラのパン及び/又はチルトの制御量を演算する制御量演算部と、ターゲット予測位置が、ターゲット配置位置を基準にして設定される不感領域に属するか否かを判定する判定部と、ターゲット予測位置が、不感領域に属しないと判定部で判定された場合に、カメラに対して制御量でパン及び/又はチルトの実行を指示する指示部と、を備えた追尾制御装置。
本態様によれば、通信による制御遅延を考慮して、ターゲットの位置が予測される。そして、予測されたターゲットの位置に基づいて、カメラのパン及び/又はチルトが制御される。これにより、通信によって制御遅延が生じた場合であっても、精度よくカメラを追従させることができる。また、本態様によれば、不感領域が設定され、不感領域内で予測されるターゲットの動きに対しては、カメラを追従さないように設定される。これにより、カメラが小刻みに動くのを防止でき、高品位な動画を撮影できる。
(2)制御遅延時間推定部は、更にターゲット位置検出部の動作状態に基づいて、制御遅延が生じる時間Tを推定する、上記(1)の追尾制御装置。
本態様によれば、更にターゲット位置検出部の動作状態を考慮して、ターゲットの位置が予測される。ターゲットの位置検出に時間がかかると、その分、制御遅延が生じる。ターゲット位置検出部の動作状態を考慮して、ターゲットの位置を予測することにより、更に精度よくターゲットの位置を予測できる。これにより、更に追従性を向上できる。
(3)ターゲット位置予測部は、ターゲットの移動履歴に基づいて、ターゲット予測位置を予測する、上記(1)又は(2)の追尾制御装置。
本態様によれば、ターゲットの移動履歴に基づいて、ターゲット予測位置が予測される。ターゲットの移動履歴を解析することにより、T時間後のターゲットの位置をある程度正確に予測できる。これにより、追従性の高い制御が可能になる。
(4)制御量が閾値以上の場合に、制御量を閾値に修正する制御量修正部を更に備えた、上記(1)から(3)のいずれか1の追尾制御装置。
本態様によれば、閾値以上の制御量が算出された場合に制御量が閾値に制限される。すなわち、1回の動作でパン及び/又はチルトできる範囲が一定の範囲に制限される。これにより、実際の位置と予測した位置との誤差が大きかった場合であっても、急にカメラが大きく動くのを防止でき、違和感のない高品位な動画を撮影できる。
(5)閾値が、ターゲット配置位置を基準にして設定される不感領域の大きさと同じ値に設定される、上記(4)の追尾制御装置。
本態様によれば、1回の動作でパン及び/又はチルト可能な範囲が、不感領域の大きさと同じ値に設定される。なお、本発明において、「同じ値」とは厳密に同一である場合だけでなく、実質的に同一とみなせる場合も含む。すなわち、ほぼ同じ値を含む概念である。
(6)不感領域を変更する不感領域変更部を更に備えた、上記(1)から(5)のいずれかの追尾制御装置。
本態様によれば、不感領域を変更できる。これにより、状況に応じて適切に不感領域を設定でき、より高品位な動画を撮影できる。
(7)不感領域変更部は、ターゲットの速度の情報を取得し、ターゲットの速度に応じて不感領域を拡縮する、上記(6)の追尾制御装置。
本態様によれば、ターゲットの速度に応じて不感領域が拡縮される。この場合、ターゲットの速度が速くなるほど不感領域が縮小される。
(8)不感領域変更部は、ターゲットの加速度の情報を取得し、ターゲットの加速度に応じて不感領域を拡縮する、上記(6)又は(7)の追尾制御装置。
本態様によれば、ターゲットの加速度に応じて不感領域が拡縮される。この場合、ターゲットの加速度が大きくなるほど不感領域が縮小される。
(9)不感領域変更部は、ターゲットの大きさの情報を取得し、ターゲットの大きさに応じて不感領域を拡縮する、上記(6)から(8)のいずれか1の追尾制御装置。
本態様によれば、ターゲットの大きさに応じて不感領域が拡縮される。この場合、ターゲットの大きさが大きくなるほど不感領域が縮小される。
(10)不感領域変更部は、カメラからターゲットまでの距離の情報を取得し、カメラからターゲットまでの距離に応じて不感領域を拡縮する、上記(6)から(9)のいずれか1の追尾制御装置。
本態様によれば、カメラからターゲットまでの距離に応じて不感領域が拡縮される。この場合、カメラからターゲットまでの距離が近くなるほど不感領域が縮小される。
(11)ターゲットが人物であり、不感領域変更部は、人物の顔の向きの情報を取得し、人物の顔の向きと同じ方向の不感領域を縮小する、上記(6)から(10)のいずれか1の追尾制御装置。
本態様によれば、ターゲットが人物の場合、人物の顔の向きと同じ方向の不感領域が縮小される。
(12)不感領域変更部は、ターゲット予測位置の情報を取得し、ターゲットが移動すると予測される方向の不感領域を縮小する、上記(6)から(11)のいずれか1の追尾制御装置。
本態様によれば、ターゲットが移動すると予測される方向の不感領域を縮小される。
(13)不感領域変更部は、制御量の情報を取得し、制御量の大きさに応じて不感領域を拡縮する、上記(12)の追尾制御装置。
本態様によれば、ターゲットが移動すると予測される方向の不感領域を縮小する場合において、パン及び/又はチルトの制御量に応じて、その大きさが拡縮される。すなわち、制御量が大きくなほど不感領域が縮小される。
(14)ターゲット位置予測部による予測の信頼度を算出する予測信頼度算出部を更に備え、不感領域変更部は、予測信頼度算出部で算出される信頼度に応じて不感領域を拡縮する、上記(6)から(13)のいずれか1の追尾制御装置。
本態様によれば、予測の信頼度が算出され、算出された信頼度に応じて不感領域が拡縮される。この場合、信頼度が低下するほど不感領域が拡大される。
(15)カメラで撮影された画像を表示する表示部を更に備える、上記(1)から(14)のいずれか1の追尾制御装置。
本態様によれば、カメラで撮影された画像を表示する表示部が備えられる。これにより、カメラで撮影された画像を確認できる。
(16)表示部の表示画面上での位置を指定する入力部と、入力部で指定された位置の被写体をターゲットに設定するターゲット設定部と、を更に備えた、上記(15)の追尾制御装置。
本態様によれば。表示部の表示画面上でターゲットとする被写体を設定できる。これにより、ターゲットを簡単に設定できる。
(17)カメラで撮影されて画像から人物の顔を検出する顔検出部と、顔検出部で検出された人物の顔をターゲットに設定するターゲット設定部と、を更に備えた、上記(1)から(16)のいずれか1の追尾制御装置。
本態様によれば、画像から検出された人物の顔がターゲットに設定される。これにより、簡単に人物をターゲットにして追尾できる。
(18)カメラは、レンズを介して被写体の光学像を撮像する撮像部と、撮像部をパン及び/又はチルトする雲台部と、を備えた、上記(1)から(17)のいずれか1の追尾制御装置。
本態様によれば、撮像部を機械的にパン及び/又はチルトさせて、パン及び/又はチルトの機能が提供される。
(19)カメラは、レンズを介して被写体の光学像を撮像する撮像部と、撮像部で撮像された画像の一部を切り出す画像切り出し部と、を備え、画像切り出し部で切り出す画像の位置を移動させることにより、電子的にパン及び/又はチルトする、上記(1)から(17)のいずれか1の追尾制御装置。
本態様によれば、画像の切り出しによって、電子的にパン及び/又はチルトが行われる。この場合、魚眼レンズのような広角レンズを使用して撮影することが好ましい。
(20)パン及び/又はチルトの機能を備えたカメラのパン及び/又はチルトの動作を制御端末で遠隔制御して、カメラにターゲットを追尾させる追尾制御方法であって、カメラで撮影した画像に基づいて、ターゲットの位置を検出する工程と、少なくともカメラと制御端末との間の通信状態に基づいて、制御遅延が生じる時間Tを推定する工程と、T時間後のターゲットの位置をターゲット予測位置として予測する工程と、ターゲットを配置する位置としてカメラの撮影画面内に設定されるターゲット配置位置をターゲット予測位置に移動させるために必要なカメラのパン及び/又はチルトの制御量を演算する工程と、ターゲット予測位置が、ターゲット配置位置を基準にして設定される不感領域に属するか否かを判定する工程と、ターゲット予測位置が、不感領域に属しないと判定された場合に、カメラに対して制御量でパン及び/又はチルトの実行を指示する工程と、を有する追尾制御方法。
本態様によれば、通信による制御遅延を考慮して、ターゲットの位置が予測される。そして、予測された位置に基づいて、カメラのパン及び/又はチルトが制御される。これにより、通信によって制御遅延が生じた場合であっても、精度よくカメラを追従させることができる。また、本態様によれば、不感領域が設定され、不感領域内で予測されるターゲットの動きに対しては、カメラを追従させないように設定される。これにより、カメラが小刻みに動くのを防止でき、高品位な動画を撮影できる。
(21)パン及び/又はチルトの機能を備えたカメラのパン及び/又はチルトの動作を遠隔制御して、カメラにターゲットを追尾させる追尾制御プログラムであって、カメラで撮影された画像を取得する機能と、取得した画像に基づいて、ターゲットの位置を検出する機能と、少なくともカメラとの間の通信状態に基づいて、制御遅延が生じる時間Tを推定する機能と、T時間後のターゲットの位置をターゲット予測位置として予測する機能と、ターゲットを配置する位置としてカメラの撮影画面内に設定されるターゲット配置位置をターゲット予測位置に移動させるために必要なカメラのパン及び/又はチルトの制御量を演算する機能と、ターゲット予測位置が、ターゲット配置位置を基準にして設定される不感領域に属するか否かを判定する機能と、ターゲット予測位置が、不感領域に属しないと判定された場合に、カメラに対して制御量でパン及び/又はチルトの実行を指示する機能と、をコンピュータに実現させる追尾制御プログラム。
本態様によれば、通信による制御遅延を考慮して、ターゲットの位置が予測される。そして、予測された位置に基づいて、カメラのパン及び/又はチルトが制御される。これにより、通信によって制御遅延が生じた場合であっても、精度よくカメラを追従させることができる。また、本態様によれば、不感領域が設定され、不感領域内で予測されるターゲットの動きに対しては、カメラを追従させないように設定される。これにより、カメラが小刻みに動くのを防止でき、高品位な動画を撮影できる。
(22)パン及び/又はチルトの機能を備えたカメラのパン及び/又はチルトの動作を制御端末で遠隔制御して、カメラにターゲットを追尾させる自動追尾撮影システムであって、制御端末は、カメラで撮影された画像に基づいて、ターゲットの位置を検出するターゲット位置検出部と、少なくともカメラと間の通信状態に基づいて、制御遅延が生じる時間Tを推定する制御遅延時間推定部と、T時間後のターゲットの位置をターゲット予測位置として予測するターゲット位置予測部と、ターゲットを配置する位置としてカメラの撮影画面内に設定されるターゲット配置位置をターゲット予測位置に移動させるために必要なカメラのパン及び/又はチルトの制御量を演算する制御量演算部と、ターゲット予測位置が、ターゲット配置位置を基準にして設定される不感領域に属するか否かを判定する判定部と、ターゲット予測位置が、不感領域に属しないと判定された場合に、カメラに対して制御量でパン及び/又はチルトの実行を指示する指示部と、を備えた自動追尾撮影システム。
本態様によれば、通信による制御遅延を考慮して、ターゲットの位置が予測される。そして、予測された位置に基づいて、カメラのパン及び/又はチルトが制御される。これにより、通信によって制御遅延が生じた場合であっても、精度よくカメラを追従させることができる。また、本態様によれば、不感領域が設定され、不感領域内で予測されるターゲットの動きに対しては、カメラを追従させないように設定される。これにより、カメラが小刻みに動くのを防止でき、高品位な動画を撮影できる。
本発明によれば、追従性が高く、かつ、高品位な動画を撮影できる。
本発明に係る自動追尾撮影システムの一実施形態を示すシステム構成図 カメラのシステム構成を示すブロック図 制御端末のシステム構成を示すブロック図 追尾制御装置として機能する制御端末のシステム構成を示すブロック図 ターゲット設定時におけるディスプレイの画面表示例を示す図 予測方法の一例を示す図 予測方法の他の一例を示す図 パン及びチルトの制御量を算出する方法の概念図 不感領域の設定の概念図 ターゲットの設定処理の手順を示すフローチャート 追尾制御の手順を示すフローチャート 本実施の形態の追尾制御の概念図 第2の実施の形態の追尾制御装置として機能する制御端末のシステム構成を示すブロック図 閾値の設定の概念図 第2の実施の形態の追尾制御の手順を示すフローチャート 第3の実施の形態の追尾制御装置として機能する制御端末のシステム構成を示すブロック図 不感領域の変更方法の概念図 第3の実施の形態の追尾制御の手順を示すフローチャート ターゲットまでの距離に応じて不感領域を拡縮する方法の概念図 ターゲットである人物の顔の向きに応じて不感領域を拡縮する方法の概念図 第4の実施の形態の追尾制御装置として機能する制御端末のシステム構成を示すブロック図 第4の実施の形態の追尾制御の手順を示すフローチャート 第5の実施の形態の追尾制御装置として機能する制御端末のシステム構成を示すブロック図 電子的にパン及びチルトの機能を実現するカメラのシステム構成を示すブロック図 画像切り出し部による画像の切り出しの概念図 制御端末のディスプレイの画面表示例を示す図
以下、添付図面に従って本発明を実施するための好ましい形態について詳説する。
《システム構成》
図1は、本発明に係る自動追尾撮影システムの一実施形態を示すシステム構成図である。
図1に示すように、本実施の形態の自動追尾撮影システム1は、パン及びチルトの機能を備えたカメラ10、及び、そのカメラ10の動作を遠隔制御する制御端末100を備える。
〈カメラ〉
カメラ10は、撮像部12及び雲台部14を備える。
〔カメラの撮像部〕
撮像部12は、ハウジング12Aを備え、ハウジング12Aの内部にレンズ16、及び、図示しないイメージセンサを備える。
レンズ16は、フォーカス機能及びズーム機能を備える。レンズ16は、図示しないレンズ駆動部によって、その光学系の一部を光軸Lに沿って前後移動させることにより、フォーカスが調節される。また、レンズ16は、図示しないレンズ駆動部によって、その光学系の一部を光軸Lに沿って前後移動させることにより、ズームが調節される。
イメージセンサは、レンズ16を通した光を受光する。イメージセンサは、たとえば、CCDイメージセンサ(CCD:Charge Coupled Device)やCMOSイメージセンサ(CMOS:Complementary Metal Oxide Semiconductor)などの二次元イメージセンサで構成される。
〔カメラの雲台部〕
雲台部14は、撮像部12をパン及びチルト可能に支持する。雲台部14は、ベースフレーム14A及び回転フレーム14Bを備える。
ベースフレーム14Aは、土台部であり、回転フレーム14Bを回転自在に支持する。回転フレーム14Bは、このベースフレーム14Aに対して、パン軸Pを中心に回転自在に支持される。
回転フレーム14Bは、撮像部12の支持部であり、撮像部12を回転自在に支持する。撮像部12は、この回転フレーム14Bに対して、チルト軸Tを中心に回転自在に支持される。このチルト軸Tは、パン軸Pと直交し、かつ、撮像部12の光軸Lと直交する。
ベースフレーム14Aは、図示しないパン駆動部を内蔵する。パン駆動部は、たとえば、モータで構成される。回転フレーム14Bは、このパン駆動部に駆動されて、パン軸Pを中心に回転する。
また、回転フレーム14Bには、図示しないチルト駆動部を内蔵する。チルト駆動部は、たとえばモータで構成される。撮像部12は、このチルト駆動部に駆動されて、チルト軸Tを中心に回転する。
撮像部12は、パン駆動部を駆動するとパンされ、チルト駆動部を駆動するとチルトされる。パン可能な角度は、たとえば、270度(±135度)であり、チルト可能な角度は、135度(−45度〜+90度)である。
ベースフレーム14Aは、操作パネル18を備える。操作パネル18には、電源ボタン等の各種操作部材が備えられる。カメラ10は、この操作パネル18を介して各種操作が行われる。
〔カメラのシステム構成〕
図2は、カメラのシステム構成を示すブロック図である。
同図に示すように、カメラ10は、AFE(Analog Front End:アナログフロントエンド)24と、カメラ制御部30と、メモリ50と、無線LAN通信部(LAN:Local Area Network)52と、を備える。
AFE24は、撮像部12のイメージセンサ20から出力される信号(画像信号)に対して、たとえば、ノイズ除去、信号増幅、A/D変換(A/D:Analog/Digital)などの信号処理を施す。AFE24で生成されるデジタルの画像信号は、カメラ制御部30に出力される。
カメラ制御部30は、CPU(Central Processing Unit)及びメモリを備えたマイクロコンピュータで構成され、所定のプログラムを実行することにより、画像信号処理部32、撮像制御部34、レンズ制御部36、パン制御部38P、チルト制御部38T、通信制御部40、カメラ動作制御部42として機能する。
画像信号処理部32は、AFE24から取得されるデジタルの画像信号に対して所要の信号処理を施し、デジタルの画像データを生成する。たとえば、輝度信号(Y)の画像データと色差信号(Cr、Cb)の画像データとかなるデジタルの画像データを生成する。
撮像制御部34は、イメージセンサ20の駆動を制御して、イメージセンサ20による撮像を制御する。
レンズ制御部36は、レンズ駆動部16Aを制御して、レンズ16のフォーカス、ズーム、絞りの動作を制御する。
パン制御部38Pは、パン駆動部22Pの駆動を制御して、カメラ10のパンの動作を制御する。
チルト制御部38Tは、チルト駆動部22Tの駆動を制御して、カメラ10のチルトの動作を制御する。
通信制御部40は、無線LAN通信部52を制御して、外部機器との間の無線LAN通信を制御する。本実施の形態の自動追尾撮影システム1では、外部機器である制御端末100との間の通信を制御する。
カメラ動作制御部42は、操作パネル18及び制御端末100からの指示に応じて、カメラ全体の動作を統括制御する。
メモリ50は、各種データの記憶部として機能し、カメラ動作制御部42からの要求に応じてデータの読み書きが行われる。
無線LAN通信部52は、アンテナ52Aを介して、無線LANアクセスポイントや無線LAN通信が可能な外部機器との間で所定の無線LAN規格(たとえば、IEEE802.11a/b/g/n規格〔IEEE:The Institute of Electrical and Electronics Engineers, Inc./米国電子技術者協会〕)に従った無線LAN通信を行う。
〈制御端末〉
制御端末100は、図1に示すように、いわゆるスマートフォンで構成され、矩形の平板状の筐体101にディスプレイ102、操作ボタン103、スピーカー104、マイクロフォン105(図3参照)、内蔵カメラ106等を備えて構成される。
図3は、制御端末のシステム構成を示すブロック図である。
同図に示すように、制御端末100は、制御端末100の全体の動作を制御するCPU110を備え、このCPU110にシステムバス112を介して、メインメモリ114、不揮発性メモリ116、モバイル通信部118、無線LAN通信部120、近距離無線通信部122、表示部124、タッチパネル入力部126、キー入力部128、音声処理部130、画像処理部132等が接続されて構成される。
CPU110は、不揮発性メモリ116に記憶された動作プログラム(OS(Operating System)、及び、そのOS上で動作するアプリケーションプログラム)、及び、定型データ等を読出し、メインメモリ114に展開して、当該動作プログラムを実行することにより、この制御端末全体の動作を制御する制御部として機能する。
メインメモリ114は、たとえば、RAM(Random Access Memory)で構成され、CPU110のワークメモリとして機能する。
不揮発性メモリ116は、たとえば、フラッシュEEPROM(EEPROM:Electrically Erasable Programmable Read Only Memory)で構成され、上述した動作プログラムや各種定型データを記憶する。また、不揮発性メモリ116は、制御端末100の記憶部として機能し、各種データを記憶する。
モバイル通信部118は、IMT−2000規格(International Mobile Telecommunication-2000)に準拠した第3世代移動通信システム、及び、IMT−Advance規格(International Mobile Telecommunications-Advanced)に準拠した第4世代移動通信システムに基づき、アンテナ118Aを介して、最寄りの図示しない基地局との間でデータの送受信を実行する。
無線LAN通信部120は、アンテナ120Aを介して、無線LANアクセスポイントや無線LAN通信が可能な外部機器との間で所定の無線LAN通信規格(例えばIEEE802.11a/b/g/n規格)に従った無線LAN通信を行う。
近距離無線通信部122は、アンテナ122Aを介して、たとえばクラス2(半径約10m内)の範囲内にある他のBluetooth(登録商標)規格の機器とデータの送受信を実行する。
表示部124は、ディスプレイ102を構成するカラー液晶パネルと、その駆動回路と、で構成され、各種画像を表示する。
タッチパネル入力部126は、入力部の一例である。タッチパネル入力部126は、透明電極を用いてディスプレイ102と一体的に構成される。タッチパネル入力部126は、ユーザーがディスプレイ102の表示画面をタッチ操作すると、そのタッチ操作に対応した2次元の位置座標情報を生成して出力する。すなわち、タッチして指定されたディスプレイ102の表示画面上での位置の座標情報を出力する。
キー入力部128は、制御端末100の筐体101に備えられた操作ボタン103を含む複数のキースイッチと、その駆動回路と、で構成される。
音声処理部130は、システムバス112を介して与えられるデジタル音声データをアナログ化してスピーカー104から出力する。また、音声処理部130は、マイクロフォン105から入力されたアナログの音声信号をサンプリングし、デジタルデータ化して出力する。
画像処理部132は、レンズ及びイメージセンサを備えた内蔵カメラ106から出力されるアナログの画像信号をデジタル化し、所要の信号処理を施して出力する。
〈追尾制御装置〉
本実施の形態の自動追尾撮影システム1では、制御端末100のCPU110が、所定の追尾制御プログラムを実行することにより、制御端末100が追尾制御装置200として機能する。
図4は、追尾制御装置として機能する制御端末のシステム構成を示すブロック図である。
図4に示すように追尾制御装置200は、画像取得部210と、ターゲット設定部212と、ターゲット位置検出部214と、移動履歴記録部216と、制御遅延時間推定部218と、ターゲット位置予測部220と、制御量演算部222と、不感領域設定部224と、判定部226と、指示部228と、を備える。
〔画像取得部〕
画像取得部210は、通信可能に接続されたカメラ10から画像を取得する。カメラ10は、追尾制御装置200から撮影の実行が指示されると、一定のフレームレートで画像を撮影する。そして、撮影した画像を制御端末100に順次転送する。画像取得部210は、カメラ10から転送されてくる画像を順次取得する。
〔ターゲット設定部〕
ターゲット設定部212は、ターゲット、すなわち、追尾対象とする被写体を設定する。ターゲット設定部212は、カメラ10で撮影された画像をディスプレイ102に表示し、画面上でユーザーにタッチされた被写体をターゲットに設定する。
図5は、ターゲット設定時におけるディスプレイの画面表示例を示す図である。
同図に示すように、ターゲット設定時、ディスプレイ102には、カメラ10で撮影された画像が表示される。ターゲット設定部212は、カメラ10から画像データを取得し、ディスプレイ102に表示させる。
ユーザーは、ディスプレイ102の画面表示を確認し、追尾対象とする被写体を画面上でタッチして選択する。ターゲット設定部212は、タッチパネル入力部126からの出力に基づいて、タッチされた位置を中心に矩形状の追尾枠Fを設定して、ターゲットを設定する。この際、たとえば、人物をターゲットに選択した場合は、人物の顔領域を抽出し、抽出した顔領域を囲うように追尾枠Fを設定する。あるいは、タッチされた位置を基準として、動体を抽出し、抽出した動体を囲うように追尾枠Fを設定する。
設定された追尾枠Fの中心が、ターゲットの位置とされる。設定された追尾枠Fは、撮影画像に重ねてディスプレイ102に表示される。
〔ターゲット位置検出部〕
ターゲット位置検出部214は、画像取得部210で取得した画像を解析し、追尾対象とするターゲットの位置を検出する。本実施の形態では、テンプレートを利用した既知のブロックマッチングによりターゲットの位置を検出する。ブロックマッチングでは、時系列的に得られる複数の画像データ間において、テンプレートを利用してターゲットの動きベクトルを求めることにより、ターゲットの位置を求める。この場合、たとえば、設定された追尾枠内の画像をテンプレート画像として利用し、ターゲットの位置を求める。
〔移動履歴記録部〕
移動履歴記録部216は、ターゲット位置検出部214で検出されたターゲットの位置の情報に基づいて、ターゲットの移動履歴を記録する。この移動履歴の情報には、少なくともターゲットの位置の情報、及び、その位置を検出した時の時間の情報が含まれる。この移動履歴の情報は、たとえば、メインメモリ114に記録される。
移動履歴の情報は、ターゲットの位置の予測に使用される。したがって、少なくとも予測に必要な分の履歴が記録される。
〔制御遅延時間推定部〕
制御遅延時間推定部218は、カメラ10との間の通信状態に基づいて、制御遅延が生じる時間Tを推定する。すなわち、通信の影響でどの程度制御が遅れるかを推定する。本実施の形態では、データの送受信に要する時間を検出して、制御遅延が生じる時間Tを推定する。データの送受信に要する時間は、たとえば、画像データの受信間隔に基づいて検出する。すなわち、画像データが受信される間隔を計測して、データの送受信に要する時間を検出する。この場合、直近のN回分の画像データの受信間隔の平均を求めて、データの送受信に要する時間とすることができる。
〔ターゲット位置予測部〕
ターゲット位置予測部220は、ターゲットの移動履歴に基づいて、T時間後のターゲットの位置を予測する。本実施の形態では、T時間後のパン方向の位置と、T時間後のチルト方向の位置とを分けて予測する。
図6は、予測方法の一例を示す図であり、T時間後のパン方向のターゲットの位置を予測する方法を示している。
同図に示すように、ターゲットの移動履歴からターゲットの動きを推定し、T時間後のターゲットの位置を推定する。
なお、同図において、横軸は時間、縦軸はパン方向のターゲットの位置を示している。また、点Pは今回検出したターゲットの位置、点P−1は前回検出したターゲットの位置、点P−2は、前々回検出したターゲットの位置である。また、点P+1は、今回予測するT時間後のターゲットの位置である。
同図に示すように、一方向に移動するターゲットに対しては、補間により過去に検出した各点を通る曲線Cを求め、T時間後のターゲットの位置P+1を求める。
図7は、予測方法の他の一例を示す図である。図6と同様にT時間後のパン方向のターゲットの位置を予測する方法を示している。
同図に示すように、ランダムに移動するターゲットに対しては、過去に検出した位置の平均を求めて、T時間後のターゲットの位置P+1を求める。
このように、ターゲット位置予測部220は、ターゲットの移動履歴を解析して、T時間後のターゲットの位置を予測する。予測した位置は、ターゲット予測位置として制御量演算部222に出力される。
〔制御量演算部〕
制御量演算部222は、ターゲットを追尾するために必要なカメラ10のパン及びチルトの制御量を演算する。この際、制御量演算部222は、ターゲット位置予測部220で予測したターゲット予測位置に基づいて、カメラ10のパン及びチルトの制御量を演算する。すなわち、T時間後のターゲットが、カメラ10の撮影画面内の所定位置に位置するように、カメラ10のパン及びチルトの制御量を演算する。
図8は、パン及びチルトの制御量を算出する方法の概念図である。
追尾撮影では、ターゲットが常に画面内の所定の位置に位置するように、カメラ10のパン及びチルトを制御する。
カメラ10の撮影画面内でターゲットを配置する位置をターゲット配置位置POとすると、制御量演算部222は、ターゲット配置位置POをターゲット予測位置PTに移動させるために必要なカメラ10のパン及びチルトの制御量を演算する。たとえば、ターゲット配置位置POを画面中央に設定した場合、制御量演算部222は、カメラ10の撮影画面の中央の位置をターゲット予測位置PTに移動させるために必要なカメラ10のパン及びチルトの制御量を演算する。
制御量は、図8に示すように、パン方向及びチルト方向の回転の角度及び速度が演算される。すなわち、パン方向DPの回転角度θP及び角速度がパン方向DPの制御量として演算され、チルト方向DTの回転角度θT及び角速度がチルト方向DTの制御量として演算される。
なお、ターゲット予測位置の情報を取得できない場合もある。このような場合、制御量演算部222は、ターゲット位置検出部214で検出されたターゲットの位置に基づいて、カメラ10のパン及びチルトの制御量を演算する。ターゲット予測位置の情報を取得できない場合とは、たとえば、追尾開始直後のように、ターゲットの移動履歴の情報が得られずに、T時間後のターゲットの位置を予測できないような場合である。
〔不感領域設定部〕
不感領域設定部224は、ターゲット配置位置を基準として、カメラ10の撮影画面内に不感領域を設定する。不感領域とは、追尾制御を行わない領域をいう。すなわち、その領域内であれば、ターゲットが移動したとしても、カメラ10をパン及びチルトさせない領域である。不感領域を設定することにより、ターゲットの小刻みな動きに併せてカメラ10がパン及びチルトするのを防止でき、安定した高品質な画像を撮影できる。
図9は、不感領域の設定の概念図である。
同図に示すように、不感領域DZは、ターゲット配置位置POを基準として撮影画面内の一定の範囲に設定される。なお、同図に示す例では、ターゲット配置位置POをカメラ10の撮影画面の中央に設定している。
不感領域DZは、ターゲット配置位置POを基準として、パン方向DPに一定の範囲で設定され、かつ、チルト方向DTに一定の範囲で設定される。より具体的には、ターゲット配置位置POを基準として、パンのプラス方向DP(+)に一定の範囲DZP(+)で設定され、かつ、マイナス方向DP(−)に一定の範囲DZP(−)で設定される。また、チルトのプラス方向DT(+)に一定の範囲DZT(+)で設定され、かつ、マイナス方向DT(−)に一定の範囲DZT(−)で設定される。
不感領域DZの設定情報は、不感領域設定情報として、不揮発性メモリ116に格納される。不感領域設定部224は、この不感領域設定情報を読み出して、不感領域DZを設定する。
〔判定部〕
判定部226は、ターゲット位置予測部220で予測したターゲット予測位置の情報を取得し、ターゲット予測位置が不感領域DZに属するか否かを判定する。判定結果は、指示部228に出力される。
なお、ターゲット予測位置の情報を取得できない場合、判定部226は、ターゲット位置検出部214で検出されたターゲットの位置に基づいて判定する。すなわち、ターゲット位置検出部214で検出したターゲットの位置が不感領域DZに属するか否かを判定する。
〔指示部〕
指示部228は、判定部226の判定結果に基づいて、カメラ10に対してパン及びチルトの実行を指示する。具体的には、ターゲット予測位置が不感領域に属しないと判定された場合にのみパン及びチルトの実行を指示する。したがって、ターゲット予測位置が不感領域に属していると判定された場合には、パン及びチルトの実行の指示は行われない。この結果、ターゲット予測位置が不感領域に属していない場合にだけパン及びチルトが行われる。
指示は、制御量演算部222で演算したパン及びチルトの制御量の情報をカメラ10に送信することにより行われる。
《追尾制御方法》
次に、本実施の形態の自動追尾撮影システムにおける追尾制御方法について説明する。
まず、ターゲットの設定が行われる。
図10は、ターゲットの設定処理の手順を示すフローチャートである。なお、同図において、右側のブロックは、制御端末100で行われる処理であり、左側のブロックは、カメラ10で行われる処理である。
まず、制御端末100からカメラ10に対して撮影開始が指示される(ステップS10)。カメラ10は、この撮影開始の指示を受けて撮影を開始する(ステップS12)。そして、撮影した画像を制御端末100に対して転送する(ステップS14)。
制御端末100は、カメラ10から転送された画像を受信し(ステップS16)、受信した画像をディスプレイ102に表示する(ステップS18)。
ユーザーは、ディスプレイ102に表示された画像からターゲットとする被写体をタッチして、ターゲットを設定する(ステップS20)。
この後、ターゲットの設定が完了したか否かが判定され(ステップS22)、ターゲットの設定が完了すると、追尾制御が開始される。
このようにターゲットの設定は、カメラ10で撮影した画像を制御端末100のディスプレイ102に表示させ、ユーザーにターゲットとする被写体を画面上でタッチさせることにより行われる。
図11は、追尾制御の手順を示すフローチャートである。
ターゲットの設定後も引き続きカメラ10で画像が撮影される(ステップS110)。撮影された画像は、制御端末100に転送される(ステップS112)。
制御端末100は、カメラ10から転送されてくる画像を受信する(ステップS114)。そして、その通信状態から制御遅延が生じる時間Tを推定する(ステップS116)。すなわち、データの送受信に要する時間を検出して、制御遅延が生じる時間Tを推定する。ここで、データの送受信に要する時間は、画像データの受信間隔に基づいて検出する。したがって、推定には、少なくとも2回画像を受信する必要がある。
制御遅延が生じる時間Tが推定されると、次に、制御端末100は、不感領域の設定を行う(ステップS118)。すなわち、ターゲット配置位置POを基準として一定の範囲に不感領域DZを設定する(図5参照)。
不感領域DZが設定されると、次に、制御端末100は、カメラ10で撮影された画像からターゲットの位置を検出する(ステップS120)。検出されたターゲットの位置の情報は、画像を撮影した時刻の情報と共にターゲット移動履歴として、メインメモリ114に格納される。
ターゲットの位置の検出が完了すると、次に、制御端末100は、T時間後のターゲットの移動位置の予測の可否を判定する(ステップS122)。予測は、ターゲットの移動履歴に基づいて行われる。したがって、移動履歴が取得できていない場合は、予測不可と判定される。
ステップS122でT時間後のターゲットの移動位置の予測が可能と判定されると、制御端末100は、ターゲットの移動履歴に基づいて、T時間後のターゲットの位置を予測する(ステップS124)。そして、その予測結果に基づいて、パン及びチルトの制御量を演算する(ステップS126)。すなわち、ターゲット配置位置をターゲット予測位置に位置させるために必要なカメラ10のパン及びチルトの制御量を演算する。
なお、ステップS122において、予測が不可能と判定されると、制御端末100は、ステップS120で検出されたターゲットの位置に基づいて、ターゲットをターゲット配置位置に位置させるために必要なカメラ10のパン及びチルトの制御量を演算する。すなわち、ターゲット配置位置を検出されたターゲットの位置に位置させるために必要なカメラ10のパン及びチルトの制御量を演算する。
パン及びチルトの制御量が算出されると、次に、制御端末100は、ターゲット予測位置が不感領域DZに属するか否かを判定する(ステップS128)。すなわち、予測したT時間後のターゲットの位置が、不感領域DZに属するか否かを判定する。
なお、T時間後のターゲットの位置が予測できていない場合、すなわち、ターゲット予測位置の情報が取得できていない場合、制御端末100は、ステップS120で検出されたターゲットの位置が不感領域DZに属するか否かを判定する。
この判定の結果、ターゲット予測位置が不感領域DZに属していないと判定されると、制御端末100は、カメラ10に対してパン及びチルトの実行を指示する(ステップS130)。すなわち、算出した制御量の情報をカメラ10に送信し、カメラ10に対して算出した制御量でパン及びチルトの実行を指示する。
カメラ10は、制御端末100からパン及びチルトの実行指令を受信すると、その指令に従ってパン及びチルトを実施する(ステップS132)。すなわち、指示された制御量でパン及びチルトを実施する。これにより、移動するターゲットがターゲット配置位置に位置するように、カメラ10がパン及びチルトされる。
一方、ステップS128でターゲット予測位置が不感領域DZに属していると判定されると、制御端末100は、カメラ10に対してパン及びチルトの実行を指示せずに、次の処理に移行する。これにより、ターゲットの小刻みな動きにカメラ10が追従するのを防止できる。
この後、制御端末100は、撮影終了が指示されたか否かを判定する(ステップS134)。撮影終了が指示された場合は、カメラ10に対して撮影終了を指示する(ステップS136)。カメラ10は、撮影終了の指示を受けて、撮影を終了する(ステップS138)。
撮影終了が指示されていない場合は、ステップS110に戻り、上記処理が繰り返し実施される。
このように、本実施の形態の自動追尾撮影システム1では、通信による制御遅延を考慮して、ターゲットの位置が予測され、予測されたターゲットの位置に基づいて、カメラ10のパン及びチルトが制御される。これにより、通信によって制御遅延が生じた場合であっても、精度よくカメラを追従させることができる。
また、本実施の形態の自動追尾撮影システム1では、不感領域DZが設定され、不感領域DZを超えてターゲットが移動すると予測される場合にのみカメラ10がパン及びチルトされる。これにより、ターゲットの小刻みな動きにカメラ10が追従するのを有効に防止でき、高品位な動画を撮影できる。
図12は、本実施の形態の追尾制御の概念図である。同図において、符号DZは不感領域、符号Fは追尾枠、符号POはターゲット配置位置、符号PCは画像から検出したターゲットの位置、符号PTは、ターゲット予測位置である。
図12の(A)部分は、T時間後のターゲットの位置を予測できない場合を示している。この場合、画像から検出したターゲットの位置PCに基づいて、カメラ10がパン及びチルトされる。すなわち、画像から検出したターゲットPCの位置にターゲット配置位置POが移動するように、カメラ10がパン及びチルトされる。
なお、同図の場合、検出されたターゲットの位置PCが不感領域DZに属しているので、カメラ10はパン及びチルトされない。
図12の(B)部分は、T時間後のターゲットの位置を予測できた場合であって、かつ、予測したターゲット予測位置PTが不感領域DZに属する場合である。この場合、カメラ10はパン及びチルトされない。
図12の(C)部分は、T時間後のターゲットの位置を予測できた場合であって、かつ、予測したターゲット予測位置PTが不感領域DZに属しない場合である。この場合、予測したターゲット予測位置PTに基づいて、カメラ10がパン及びチルトされる。すなわち、ターゲット予測位置PTにターゲット配置位置POが移動するように、カメラ10がパン及びチルトされる。
《追尾制御の第2の実施の形態》
上記のように、本発明ではターゲットの動作を予測して追尾制御が行われる。しかし、このようにターゲットの動作を予測して追尾制御を行うと、予測した位置と実際の位置との誤差が大きかった場合にターゲットをロストしたり、次の制御時に大きなパン及びチルトの動作が必要になったりするおそれがある。
そこで、本実施の形態では、パン及びチルトの制御量を一定の値に制限して、予測した位置と実際の位置との誤差が大きかった場合でも安定した高品位な動画の撮影を可能にする。
図13は、第2の実施の形態の追尾制御装置として機能する制御端末のシステム構成を示すブロック図である。
本実施の形態の追尾制御装置は、制御量判定部230及び制御量修正部232を備えている。なお、制御量判定部230及び制御量修正部232を備えている点以外は、上記実施の形態の追尾制御装置の構成と同じである。したがって、上記実施の形態の追尾制御装置と同じ構成要素には同じ符号を付して、その説明は省略する。
制御量判定部230は、制御量演算部222で算出された制御量と閾値とを比較し、算出された制御量が閾値以上か否かを判定する。
閾値は、たとえば、不感領域DZの設定値と同じ値に設定され、パン方向及びチルト方向のそれぞれについて設定される。
図14は、閾値の設定の概念図である。
図14において、点Pdz(+)は、ターゲット配置位置POを基準として設定される不感領域DZのパンのプラス方向DP(+)の境界位置であり、点Pdz(−)はパンのマイナス方向DP(−)の境界位置である。また、点Tdz(+)は、チルトのプラス方向DT(+)の境界位置であり、点Tdz(−)は、チルトのマイナス方向DT(−)の境界位置である。
図14に示すように、パンのプラス方向DP(+)の閾値Pth(+)は、ターゲット配置位置POを点Pdz(+)、すなわち、不感領域DZのパンのプラス方向DP(+)の境界位置まで移動させるのに必要な回転角度として設定され、パンのマイナス方向DP(−)の閾値Pth(−)は、ターゲット配置位置POを点Pdz(−)、すなわち、パンのマイナス方向DP(−)の境界位置Pdz(−)まで移動させるのに必要な回転角度として設定される。また、チルトのプラス方向DT(+)の閾値Tth(+)は、ターゲット配置位置POを点Tdz(+)、すなわち、不感領域DZのチルトのプラス方向DT(+)の境界位置まで移動させるのに必要な回転角度として設定され、チルトのマイナス方向DT(−)の閾値Tth(−)は、ターゲット配置位置POを点Tdz(−)、すなわち、チルトのマイナス方向DP(−)の境界位置Tdz(−)まで移動させるのに必要な回転角度として設定される。
なお、閾値は不感領域DZの設定値と厳密に同一である必要はなく、同一とみなせる範囲で設定できる。すなわち、「同じ値」には、実質的に同一とみなせる範囲が含まれる。
制御量修正部232は、制御量判定部230の判定結果に基づき、制御量演算部222で算出された制御量を修正する。すなわち、制御量演算部222で算出された制御量が閾値以上の場合に制御量を閾値に修正する。そして、修正した制御量の情報を指示部228に出力する。
なお、制御量演算部222で算出された制御量が閾値未満の場合は、制御量を修正せずに指示部228に出力する。
図15は、第2の実施の形態の追尾制御の手順を示すフローチャートである。
なお、制御量を制限する処理が追加されている以外は、上述した実施の形態の追尾制御の手順と同じである。したがって、ここでは、制御量を制限する処理についてのみ説明する。
図15に示すように、ステップS128において、ターゲット予測位置が不感領域DZに属しないと判定されると、算出した制御量が閾値以上か否かが判定される(ステップS129a)。
ここで、算出した制御量が閾値未満の場合は、算出した制御量でカメラ10に対してパン及びチルトが指示される(ステップS130)。
一方、算出した制御量が閾値以上の場合、制御量が閾値に制限される。すなわち、制御量が閾値に修正される(ステップS129b)。そして、修正した制御量でカメラ10に対してパン及びチルトが指示される(ステップS130)。すなわち、閾値の値を制御量として、パン及びチルトが指示される。
このように、本実施の形態によれば、1回の制御で実行可能なパン及びチルトの回転量が一定の値に制限される。これにより、予測した位置と実際の位置との誤差が大きかった場合であっても、ターゲットをロストしたり、カメラを大きくパン及びチルトさせたりするのを防止できる。これにより、高品位な動画を安定して撮影できる。
なお、本実施の形態では、閾値の値を不感領域の大きさに合わせて設定しているが、閾値の値はユーザーが任意に設定できるようにしてもよい。
《追尾制御の第3の実施の形態》
上記実施の形態では、不感領域を一定にして追尾制御を行っている。本実施の形態では、ターゲットの状況に応じて不感領域を拡縮する。
図16は、第3の実施の形態の追尾制御装置として機能する制御端末のシステム構成を示すブロック図である。
本実施の形態の追尾制御装置は、不感領域変更部234を備えている点で上記第2の実施の形態の追尾制御装置と相違する。したがって、ここでは不感領域変更部234についてのみ説明し、その他の構成については、上記第2の実施の形態の追尾制御装置と同じ符号を付して、その説明は省略する。
不感領域変更部234は、ターゲットの状態に応じて不感領域設定部224で設定された不感領域の範囲を拡縮する。本実施の形態では、予測されるターゲットの移動方向に応じて不感領域を拡縮する。具体的には、予測されるターゲットの移動方向の不感領域を縮小させる。
不感領域変更部234は、ターゲット位置検出部214で検出されたターゲットの位置の情報、及び、ターゲット位置予測部220で予測されたターゲット予測位置の情報を取得し、ターゲットの移動方向を推定する。そして、推定した移動方向の不感領域を縮小させる。
図17は、不感領域の変更方法の概念図である。同図の(A)部分は、ターゲットの移動方向を予測する方法の概念図であり、同図の(B)部分は、予測に基づく不感領域の変更方法の概念図である。また、同図において、符号DZ0は修正前の不感領域、符号DZ1は、修正後の不感領域、符号Fは追尾枠、符号POはターゲット配置位置、符号PCは画像から検出したターゲットの位置、符号PTは、ターゲット予測位置である。
図17の(A)部分に示すように、画像から検出したターゲットの位置PCに対してターゲット予測位置PTがパンのプラス方向DP(+)にある場合、ターゲットの移動方法TDは、パンのプラス方向DP(+)であると予測できる。
この場合、図17の(B)部分に示すように、パンのプラス方向DP(+)の不感領域が一定量縮小される。たとえば、基準の不感領域である修正前の不感領域DZ0が、ターゲット配置位置POを基準として、パンのプラス方向DP(+)にDZP(+)、マイナス方向DP(−)にDZP(−)の範囲で設定され、かつ、チルトのプラス方向DT(+)にDZT(+)、マイナス方向DT(−)にDZT(−)の範囲で設定されている場合、修正後の不感領域DZ1は、修正量をΔRとすると、パンのプラス方向DP(+)の不感領域が、ターゲット配置位置POを基準として[DZP(+)−ΔR]の範囲で設定される。
このように、ターゲットが移動すると予測される方向の不感領域を狭くすることにより、ターゲットの動きに合わせて適切にターゲットを追尾できる。
図18は、第3の実施の形態の追尾制御の手順を示すフローチャートである。
なお、不感領域を修正する処理が追加されている以外は、上述した第2の実施の形態の追尾制御の手順と同じである。したがって、ここでは、不感領域を修正する処理についてのみ説明する。
図18に示すように、ステップS126において、パン及びチルトの制御量が演算されると、制御端末100は、不感領域の修正処理を行う(ステップS127)。すなわち、検出されたターゲットの位置の情報及び予測したターゲット予測位置の情報を取得し、ターゲットの移動方向を推定する。そして、推定した移動方向の不感領域を縮小するように不感領域を修正する。
不感領域が修正されると、修正された不感領域の下でターゲット予測位置が不感領域に属するか否かが判定される(ステップS128)。
このように、本実施の形態によれば、予測されるターゲットの移動方向に応じて不感領域が修正される。これにより、追従性を向上させつつ、画像が小刻みに揺れるのを適切に防止できる。
なお、上記の例では、修正量を一定としたが、たとえば、パン及びチルトの制御量に応じて修正量を増減させてもよい。たとえば、パン及びチルトの制御量に比例させて修正量を増減させてもよい。
〈不感領域を修正する方法の変形例〉
上記実施の形態では、予測されるターゲットの移動方向に応じて不感領域を拡縮する場合を例に説明したが、不感領域を修正する態様は、これに限定されるものではない。以下、不感領域を修正する方法の変形例を説明する。
〔ターゲットの速度に応じて不感領域を拡縮する方法〕
不感領域は、ターゲットの移動速度に応じて拡縮させることができる。この場合、ターゲットの速度が速くなるほど不感領域を縮小させる。縮小させる態様は、連続的であってもよいし、段階的であってもよい。また、不感領域の全体を拡縮させてもよいし、移動方向の不感領域のみを拡縮させるようにしてもよい。ターゲットの移動速度は、たとえば、ターゲットの移動履歴の情報を取得して求める。
〔ターゲットの加速度に応じて不感領域を拡縮する方法〕
不感領域は、ターゲットの加速度に応じて拡縮させることができる。この場合、ターゲットの加速度が大きくなるほど不感領域を縮小させる。縮小させる態様は、連続的であってもよいし、段階的であってもよい。また、不感領域の全体を拡縮させてもよいし、移動方向の不感領域のみを拡縮させるようにしてもよい。ターゲットの加速度は、たとえば、ターゲットの移動履歴の情報を取得して求める。
〔ターゲットまでの距離に応じて不感領域を拡縮する方法〕
不感領域は、カメラ10からターゲットまでの距離に応じて拡縮させることができる。
図19は、ターゲットまでの距離に応じて不感領域を拡縮する方法の概念図である。同図の(A)部分は、基準となる距離での不感領域の設定状態を示している。また、同図の(B)部分は、基準となる距離よりもターゲットが遠い場合の不感領域の設定状態を示しており、同図の(C)部分は、基準となる距離よりもターゲットが近い場合の不感領域の設定状態を示している。
図19の(A)部分に示すように、基準となる距離での不感領域をDZ0とする。修正後の不感領域をDZ1とすると、図19の(B)部分に示すように、ターゲットまでの距離が遠くなると、修正後の不感領域DZ1は、基準となる距離での不感領域DZ0よりも拡大される。一方、ターゲットまでの距離が近くなると、図19の(C)部分に示すように、修正後の不感領域DZ1は、基準となる距離での不感領域DZ0よりも縮小される。
このように、ターゲットまでの距離に応じて不感領域を修正する場合は、距離が近くなるほど不感領域を縮小させ、ターゲットまでの距離が遠くなるほど不感領域を拡大させる。これにより、撮影される画像が小刻みに揺れるのを適切に防止できる。
なお、拡縮させる態様は、連続的であってもよいし、段階的であってもよい。また、ターゲットまでの距離は、たとえば、カメラ10からオートフォーカス時の測距情報を取得して、求めることができる。この他、カメラ10に測距部を備えて、その測距部からターゲットまでの情報を取得してもよい。更に、カメラ10で撮影した画像を解析して、ターゲットまでの距離を求めてもよい。
〔撮影画面上でのターゲットの大きさに応じて不感領域を拡縮する方法〕
カメラ10からターゲットまでの距離は、カメラ10で撮影されるターゲットの大きさからある程度推定できる。すなわち、撮影条件が同じであれば、カメラ10で撮影されるターゲットの大きさは、カメラ10からターゲットまでの距離が近くなるほど大きくなる。したがって、カメラ10からターゲットまでの距離に応じて不感領域を拡縮させる場合と同様に、撮影されたターゲットの大きさに応じて不感領域を拡縮させることができる。この場合、ターゲットの大きさが大きくなるほど不感領域を縮小する。すなわち、ターゲットは、大きく写されるほどカメラ10に近いと考えられるので、ターゲットの大きさが大きくなるほど不感領域を縮小する。
たとえば、人物をターゲットとし、人物の顔の位置を検出して追尾する場合、基準となる顔の大きさとの比較で不感領域を拡縮させることができる。
〔人物の顔の向きに応じて不感領域を拡縮する方法〕
人物をターゲットとする場合、撮影画面上での人物の顔の向きに応じて不感領域を拡縮させることができる。顔の向きの方向に移動すると推定できるからである。したがって、この場合、人物の顔の向きの方向の不感領域を縮小させる。
図20は、ターゲットである人物の顔の向きに応じて不感領域を拡縮する方法の概念図である。
同図に示すように、ターゲットである人物の顔の向きFDが、パンのプラス方向DP(+)である場合、パンのプラス方向DP(+)の不感領域が一定量縮小される。たとえば、基準の不感領域である修正前の不感領域DZ0が、ターゲット配置位置POを基準として、パンのプラス方向DP(+)にDZP(+)、マイナス方向DP(−)にDZP(−)の範囲で設定され、かつ、チルトのプラス方向DT(+)にDZT(+)、マイナス方向DT(−)にDZT(−)の範囲で設定されている場合、修正後の不感領域DZ1は、修正量をΔRとすると、パンのプラス方向DP(+)の不感領域がターゲット配置位置POを基準として[DZP(+)−ΔR]の範囲で設定される。
人物の顔の向きは、カメラ10で撮影された画像を解析して検出する。このため、本例のように、顔の向きに応じて不感領域を修正する場合は、人物の顔及びその向きを検出するための手段、すなわち、顔検出部及び向き検出部が制御端末100に備えられる。これらの手段は、所定の画像解析プログラムで実現できる。
〔複数の方法を組み合わせて不感領域を拡縮する方法〕
不感領域の修正は、上記方法を複数組み合わせて実施できる。たとえば、予測されるターゲットの移動方向及び速度に応じて不感領域を修正できる。あるいは、予測されるターゲットの移動方向及び加速度に応じて不感領域を修正できる。あるいは、予測されるターゲットの移動方向及びターゲットまでの距離に応じて不感領域を修正できる。
このように、種々の態様を組み合わせて不感領域を拡縮させることができる。これにより、より適切に不感領域を設定でき、追従性を向上できる。
《追尾制御の第4の実施の形態》
本実施の形態では、予測の信頼度に応じて不感領域を拡縮する。すなわち、予測の信頼度が低い場合は、不感領域を拡げて画像が小刻みに揺れるのを防止する。
図21は、第4の実施の形態の追尾制御装置として機能する制御端末のシステム構成を示すブロック図である。
本実施の形態の追尾制御装置は、予測信頼度算出部236及び不感領域変更部234を備えている点で上記第2の実施の形態の追尾制御装置と相違する。したがって、ここでは予測信頼度算出部236及び不感領域変更部234についてのみ説明し、その他の構成については、上記第2の実施の形態の追尾制御装置と同じ符号を付して、その説明は省略する。
予測信頼度算出部236は、制御遅延時間推定部218で推定された制御遅延時間に基づいて、予測の信頼度、すなわち、ターゲット位置予測部220で予測されるターゲット予測位置の信頼度を算出する。
一般に予測の信頼度は、予測する時間が長くなるほど低下する。したがって、予測信頼度算出部236で算出される信頼度は、制御遅延時間が長くなるほど低くなる。
予測信頼度算出部236は、制御遅延時間と信頼度とが関連づけられたテーブルを参照して、制御遅延時間から予測の信頼度を算出する。
不感領域変更部234は、算出された信頼度に応じて不感領域を修正する。具体的には、予測の信頼度が低くなるほど、基準となる不感領域の全体を拡大するように修正する。
図22は、第4の実施の形態の追尾制御の手順を示すフローチャートである。
なお、予測の信頼度を算出する処理、及び、不感領域を修正する処理が追加されている以外は、上述した第2の実施の形態の追尾制御の手順と同じである。したがって、ここでは、予測の信頼度を算出する処理、および、不感領域を修正する処理についてのみ説明する。
図22に示すように、ステップS126において、パン及びチルトの制御量が演算されると、制御端末100は、予測の信頼度を算出する(ステップS127a)。すなわち、制御遅延時間から予測の信頼度を算出する。上記のように、予測の信頼度は、制御遅延時間が長くなるほど低下する。
制御端末100は、算出された予測の信頼度に応じて不感領域を修正する(ステップS127b)。すなわち、信頼度が低下するほど不感領域が拡大するように修正する。
この後、制御端末100は、修正された不感領域の下でターゲット予測位置が不感領域に属するか否かを判定し(ステップS128)、その判定結果に基づいてカメラ10にパン及びチルトの実行を指示する。
このように、本実施の形態によれば、予測の信頼度に応じて不感領域が修正される。これにより、追従性を向上させつつ、画像が小刻みに揺れるのを適切に防止できる。
なお、上記の例では不感領域の全体を拡縮させる構成としているが、上記第3の実施の形態のように、ターゲットの状態に基づいて不感領域を拡縮させることもできる。すなわち、上記第3の実施の形態の方法で修正した不感領域を更に本実施の形態の方法で修正することができる。たとえば、予測されるターゲットの移動方向のみを予測の信頼度に応じて拡縮させることができる。
また、上記の例では、制御遅延時間から予測の信頼度を算出しているが、予測の信頼度を算出する方法は、これに限定されるものではない。この他、たとえば、ターゲットの検出の成否の履歴から予測の信頼度を算出したり、制御遅延時間の履歴から予測の信頼度を算出したりすることができる。
《追尾制御の第5の実施の形態》
上記実施の形態では、カメラ10との間の通信状態に基づいて、制御遅延が生じる時間Tを推定している。本実施の形態では、更にターゲット位置検出部214の動作状態に基づいて、制御遅延が生じる時間Tを推定する。すなわち、ターゲットの位置検出処理に要する時間をも考慮して、制御遅延時間を推定する。
図23は、第5の実施の形態の追尾制御装置として機能する制御端末のシステム構成を示すブロック図である。
本実施の形態の追尾制御装置は、検出処理時間推定部238を備えている点で上記実施の形態の追尾制御装置と相違する。したがって、ここでは検出処理時間推定部238についてのみ説明し、その他の構成については、上記実施の形態の追尾制御装置と同じ符号を付して、その説明は省略する。
検出処理時間推定部238は、ターゲット位置検出部214の動作状態からターゲットの位置検出に要する時間を推定する。ターゲットの位置検出に要する時間は、主としてCPU110にかかる負荷に応じて変動する。したがって、検出処理時間推定部238は、CPU110にかかる負荷をモニタして、ターゲットの位置検出に要する時間を推定する。
制御遅延時間推定部218は、検出処理時間推定部238で推定された検出処理時間を加味して、制御遅延時間を推定する。すなわち、通信状態から求めた遅延時間に検出処理時間を加算して、制御遅延時間を求める。
このように、ターゲットの位置検出処理に要する時間をも考慮して、制御遅延時間を推定することにより、予測精度を向上できる。
なお、本実施の形態では、ターゲットの位置検出処理に要する時間を考慮して制御遅延時間を推定したが、その他の処理時間も考慮できる。一般に制御端末側の処理に要する時間は、CPU110かかる負荷に応じて変動するので、CPU110にかかる負荷をモニタして、全体の制御遅延時間を推定することが有効である。
《その他の実施の形態》
〈カメラの変形例〉
〔カメラの変形例(1)〕
上記実施の形態では、機械的な構造でパン及びチルトの機能を実現しているが、電子的にパン及びチルトの機能を実現することもできる。すなわち、撮影した画像の一部を切り出して、出力用の画像データを生成する構成とし、その出力用の画像を切り出す範囲を変えることにより、パン及び/又はチルトの機能を電子的に実現することができる。
図24は、電子的にパン及びチルトの機能を実現するカメラのシステム構成を示すブロック図である。
このカメラ300は、魚眼レンズ316を介して被写体の光学像を撮像する撮像部312と、AFE324と、カメラ制御部330と、メモリ350と、無線LAN通信部352と、を備えて構成される。
撮像部312は、魚眼レンズ316と、魚眼レンズ316を通した光を受光するイメージセンサ320と、レンズ駆動部316Aと、を備えて構成される。
魚眼レンズ316は、フォーカス機能を有し、レンズ駆動部316Aに駆動されて、フォーカス、及び、絞りが調節される。魚眼レンズ316は、たとえば、対角魚眼レンズで構成される。
イメージセンサ320は、CCDイメージセンサやCMOSイメージセンサなどの二次元イメージセンサで構成される。
AFE324は、イメージセンサ320から出力される信号(画像信号)に対して、たとえば、ノイズ除去、信号増幅、A/D変換などの信号処理を施す。AFE324で生成されるデジタルの画像信号は、カメラ制御部330に出力される。
メモリ350は、各種データの記憶部として機能し、カメラ動作制御部342からの要求に応じてデータの読み書きが行われる。
無線LAN通信部352は、アンテナ352Aを介して、無線LANアクセスポイントや無線LAN通信が可能な外部機器との間で所定の無線LAN規格に従った無線LAN通信を行う。
カメラ制御部330は、CPU及びメモリを備えたマイクロコンピュータで構成され、所定のプログラムを実行することにより、画像信号処理部332、撮像制御部334、レンズ制御部336、通信制御部340、カメラ動作制御部342、画像切り出し部344として機能する。
画像信号処理部332は、AFE324から取得されるデジタルの画像信号に対して所要の信号処理を施し、デジタルの画像データを生成する。たとえば、輝度信号(Y)の画像データと色差信号(Cr、Cb)の画像データとかなるデジタルの画像データを生成する。
撮像制御部334は、イメージセンサ320の駆動を制御して、イメージセンサ320による撮像を制御する。
レンズ制御部336は、レンズ駆動部316Aを制御して、魚眼レンズ316のフォーカス、及び、絞りの動作を制御する。
通信制御部340は、無線LAN通信部352を制御して、外部機器との間の無線LAN通信を制御する。
カメラ動作制御部342は、図示しないカメラ300の操作部及び制御端末からの指示に応じて、カメラ全体の動作を統括制御する。
画像切り出し部344は、画像信号処理部332で生成された画像データを取得し、その画像の一部を切り出して、出力用の画像データを生成する。画像切り出し部344は、カメラ動作制御部342からの指令に応じて、画像を切り出し、出力用の画像データを生成する。たとえば、指示された座標位置を中心として、指示されたアスペクト比の画像を指示されたサイズで切り出して、出力用の画像データを生成する。
図25は、画像切り出し部による画像の切り出しの概念図である。
同図において、画像I1は、魚眼レンズ316を介してイメージセンサ320で撮像される画像である。画像切り出し部344は、この画像I1の一部を切り出して出力用の画像I2を生成する。
カメラ300は、画像切り出し部344で切り出した画像I2を出力用の画像とし、制御端末100に出力する。
図26は、制御端末のディスプレイの画面表示例を示す図である。
同図に示すように、制御端末100のディスプレイ102には、魚眼レンズ316を介して撮像された画像I1から切り出した画像I2が、カメラ300で撮影された画像として表示される。
このように、電子的にパン及びチルトの機能を実現するカメラ300では、実際に撮影された画像の一部を切り出して、画像データを出力する構成とし、その切り出す位置を変えてパン及び/又はチルトする構成とされる。
なお、上記の例では、1つの撮像部で撮像された画像の一部を切り出して、出力用の画像データを取得する構成としているが、カメラに複数の撮像部を備え、その複数の撮像部で撮像された画像を繋ぎ合わせて1つの画像を生成し、その画像の一部を切り出して、出力用の画像データを取得する構成とすることもできる。たとえば、前方を撮影する第1の撮像部、及び、後方を撮像する第2の撮像部を備え、第1の撮像部で撮像された画像と第2の撮像部で撮像された画像とを繋ぎ合わせて1つの画像を生成することにより、パン方向に360°撮影可能なカメラを構成し、その一部を切り出して、出力用の画像データを取得する構成とすることもできる。
〔カメラの変形例(2)〕
上記実施の形態のカメラ10は、パン及びチルトの機能が備えられているが、カメラは、少なくともパン又はチルトの機能が備えられていればよい。パン機能のみが備えられたカメラの場合、パン動作のみでターゲットの追尾が行われる。同様に、チルト機能のみが備えられたカメラの場合、チルト動作のみでターゲットの追尾が行われる。
〈ターゲット設定部の変形例〉
上記実施の形態では、カメラ10で撮影された画像をディスプレイ102に表示し、画面上でユーザーにタッチされた被写体をターゲットに設定する構成としているが、ターゲットを設定する方法は、これに限定されるものではない。
たとえば、追尾制御装置の機能として、カメラで撮影された画像から人物の顔を自動で検出する機能(顔検出部の機能)を付加し、その機能で検出された人物の顔を自動的にターゲットに設定する構成とすることもできる。これにより、ターゲットを簡単に設定できる。
なお、この場合、複数の顔が検出されることもあるが、この場合は、たとえば、検出結果をユーザーに表示し、ターゲットとする被写体を選択させる構成とすることができる。また、検出された顔のサイズや位置から自動でターゲットを決定する構成とすることもできる。たとえば、画面中央に位置する顔ほど主要被写体らしい、サイズの大きい顔ほど主要被写体らしい、との判断基準の下、主要被写体を決定し、ターゲットを自動で決定する。
また、たとえば、追尾制御装置の機能として、カメラで撮影された画像から動体を検出する機能(動体検出部の機能)を付加し、その機能を利用して最初に検出された動体をターゲットに設定する構成とすることができる。これにより、ターゲットを簡単に設定できる。
なお、この場合、複数の動体が同時に検出されることもあるが、この場合もユーザーにターゲットとする被写体を選択させる構成とすることができる。あるいは、検出された動体のサイズや位置から自動でターゲットを決定する構成とすることもできる。
また、上記実施の形態では、タッチされた位置情報を基に一定サイズの追尾枠が設定される構成としているが、追尾枠の位置、サイズをユーザーが調整できるようにしてもよい。
また、追尾枠は、自動で位置、サイズを調整するようにしてもよい。たとえば、タッチされた位置を基準に動体を抽出し、その動体を囲うように追尾枠を設定するようにしてもよい。あるいは、タッチされた位置を基準に人物の顔を抽出し、その顔を囲うように追尾枠を設定するようにしてもよい。
また、上記実施の形態では、制御端末側のディスプレイにカメラで撮影された画像をリアルタイムに表示して、ターゲットを選択させる構成としているが、静止画を撮影し、その静止画をディスプレイに表示させて、ターゲットを選択させる構成とすることもできる。
更に、あらかじめターゲットの画像を登録しておき、その画像を読み出してターゲットを設定する構成とすることもできる。
〈カメラと制御端末との接続形態〉
上記実施の形態では、カメラと制御端末とを無線で通信可能に接続する構成としているが、カメラと制御端末とは、相互に通信可能に接続されていればよい。したがって、有線で通信可能に接続する構成としてもよい。また、通信の規格等についても特に限定されない。また、カメラと制御端末とを直接接続する形態ではなく、たとえば、インターネットを介して接続する形態とすることもできる。
〈制御端末〉
上記実施の形態では、制御端末としてスマートフォンを採用しているが、制御端末の形態は特に限定されるものではない。したがって、制御端末は、パーソナルコンピュータやタブレット端末などで構成することもできる。また、専用の装置として構成することもできる。
〈データの送受信に要する時間の検出〉
上記実施の形態では、画像データの受信間隔に基づいて、データの送受信に要する時間を検出しているが、データの送受信に要する時間を検出する方法は、これに限定されるものではない。この他、たとえば、制御端末に通信速度を検出する手段を備え、その検出結果に基づいて、データの送受信に要する時間を検出する構成とすることもできる。
1…自動追尾撮影システム、10…カメラ、12…撮像部、12A…ハウジング、14…雲台部、14A…ベースフレーム、14B…回転フレーム、16…レンズ、16A…レンズ駆動部、18…操作パネル、20…イメージセンサ、22P…パン駆動部、22T…チルト駆動部、30…カメラ制御部、32…画像信号処理部、34…撮像制御部、36…レンズ制御部、38P…パン制御部、38T…チルト制御部、40…通信制御部、42…カメラ動作制御部、50…メモリ、52…無線LAN通信部、52A…アンテナ、100…制御端末、101…筐体、102…ディスプレイ、103…操作ボタン、104…スピーカー、105…マイクロフォン、106…内蔵カメラ、110…CPU、112…システムバス、114…メインメモリ、116…不揮発性メモリ、118…モバイル通信部、118A…アンテナ、120…無線LAN通信部、120A…アンテナ、122…近距離無線通信部、122A…アンテナ、124…表示部、126…タッチパネル入力部、128…キー入力部、130…音声処理部、132…画像処理部、200…追尾制御装置、210…画像取得部、212…ターゲット設定部、214…ターゲット位置検出部、216…移動履歴記録部、218…制御遅延時間推定部、220…ターゲット位置予測部、222…制御量演算部、224…、不感領域設定部、226…判定部、228…指示部、230…制御量判定部、232…制御量修正部、234…不感領域変更部、236…予測信頼度算出部、238…検出処理時間推定部、300…カメラ、312…撮像部、316…魚眼レンズ、316A…レンズ駆動部、320…イメージセンサ、324…AFE、330…カメラ制御部、332…画像信号処理部、334…撮像制御部、336…レンズ制御部、340…通信制御部、342…カメラ動作制御部、344…画像切り出し部、350…メモリ、352…無線LAN通信部、352A…アンテナ、DP…パン方向、DT…チルト方向、DZ…不感領域、PC…画像から検出したターゲットの位置、PO…ターゲット配置位置、PT…ターゲット予測位置

Claims (12)

  1. パン及び/又はチルトの機能を備えたカメラのパン及び/又はチルトの動作を遠隔制御して、前記カメラにターゲットを追尾させる追尾制御装置であって、
    前記カメラで撮影された画像に基づいて、前記ターゲットの位置を検出するターゲット位置検出部と、
    少なくとも前記カメラとの間の通信状態に基づいて、制御遅延が生じる時間Tを推定する制御遅延時間推定部と、
    T時間後の前記ターゲットの位置をターゲット予測位置として予測するターゲット位置予測部と、
    前記ターゲットを配置する位置として前記カメラの撮影画面内に設定されるターゲット配置位置を前記ターゲット予測位置に移動させるために必要な前記カメラのパン及び/又はチルトの制御量を演算する制御量演算部と、
    前記カメラに対して前記制御量でパン及び/又はチルトの実行を指示する指示部と、
    を備えた追尾制御装置。
  2. 前記制御遅延時間推定部は、更に前記ターゲット位置検出部の動作状態に基づいて、制御遅延が生じる時間Tを推定する、
    請求項1に記載の追尾制御装置。
  3. 前記ターゲット位置予測部は、前記ターゲットの移動履歴に基づいて、前記ターゲット予測位置を予測する、
    請求項1又は2に記載の追尾制御装置。
  4. 前記制御量が閾値以上の場合に、前記制御量を前記閾値に修正する制御量修正部を更に備えた、
    請求項1から3のいずれか1項に記載の追尾制御装置。
  5. 前記カメラで撮影された画像を表示する表示部を更に備える、
    請求項1から4のいずれか1項に記載の追尾制御装置。
  6. 前記表示部の表示画面上での位置を指定する入力部と、
    前記入力部で指定された位置の被写体を前記ターゲットに設定するターゲット設定部と、
    を更に備えた、
    請求項5に記載の追尾制御装置。
  7. 前記カメラで撮影された画像から人物の顔を検出する顔検出部と、
    前記顔検出部で検出された人物の顔を前記ターゲットに設定するターゲット設定部と、
    を更に備えた、
    請求項1から6のいずれか1項に記載の追尾制御装置。
  8. 前記カメラは、
    レンズを介して被写体の光学像を撮像する撮像部と、
    前記撮像部をパン及び/又はチルトする雲台部と、
    を備えた、
    請求項1から7のいずれか1項に記載の追尾制御装置。
  9. 前記カメラは、
    レンズを介して被写体の光学像を撮像する撮像部と、
    前記撮像部で撮像された画像の一部を切り出す画像切り出し部と、
    を備え、前記画像切り出し部で切り出す画像の位置を移動させることにより、電子的にパン及び/又はチルトする、
    請求項1から7のいずれか1項に記載の追尾制御装置。
  10. パン及び/又はチルトの機能を備えたカメラのパン及び/又はチルトの動作を制御端末で遠隔制御して、前記カメラにターゲットを追尾させる追尾制御方法であって、
    前記カメラで撮影した画像に基づいて、前記ターゲットの位置を検出する工程と、
    少なくとも前記カメラと前記制御端末との間の通信状態に基づいて、制御遅延が生じる時間Tを推定する工程と、
    T時間後の前記ターゲットの位置をターゲット予測位置として予測する工程と、
    前記ターゲットを配置する位置として前記カメラの撮影画面内に設定されるターゲット配置位置を前記ターゲット予測位置に移動させるために必要な前記カメラのパン及び/又はチルトの制御量を演算する工程と、
    前記カメラに対して前記制御量でパン及び/又はチルトの実行を指示する工程と、
    を有する追尾制御方法。
  11. パン及び/又はチルトの機能を備えたカメラのパン及び/又はチルトの動作を制御端末で遠隔制御して、ターゲットを自動で追尾しながら撮影する自動追尾撮影システムであって、
    前記制御端末は、
    前記カメラで撮影された画像に基づいて、前記ターゲットの位置を検出するターゲット位置検出部と、
    少なくとも前記カメラと間の通信状態に基づいて、制御遅延が生じる時間Tを推定する制御遅延時間推定部と、
    T時間後の前記ターゲットの位置をターゲット予測位置として予測するターゲット位置予測部と、
    前記ターゲットを配置する位置として前記カメラの撮影画面内に設定されるターゲット配置位置を前記ターゲット予測位置に移動させるために必要な前記カメラのパン及び/又はチルトの制御量を演算する制御量演算部と、
    前記カメラに対して前記制御量でパン及び/又はチルトの実行を指示する指示部と、
    を備えた自動追尾撮影システム。
  12. パン及び/又はチルトの機能を備えたカメラのパン及び/又はチルトの動作を遠隔制御して、前記カメラにターゲットを追尾させる追尾制御プログラムであって、
    前記カメラで撮影された画像を取得する機能と、
    取得した画像に基づいて、前記ターゲットの位置を検出する機能と、
    少なくとも前記カメラとの間の通信状態に基づいて、制御遅延が生じる時間Tを推定する機能と、
    T時間後の前記ターゲットの位置をターゲット予測位置として予測する機能と、
    前記ターゲットを配置する位置として前記カメラの撮影画面内に設定されるターゲット配置位置を前記ターゲット予測位置に移動させるために必要な前記カメラのパン及び/又はチルトの制御量を演算する機能と、
    前記カメラに対して前記制御量でパン及び/又はチルトの実行を指示する機能と、
    をコンピュータに実現させる追尾制御プログラム。
JP2018178969A 2015-03-26 2018-09-25 追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム Active JP6557768B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015064772 2015-03-26
JP2015064772 2015-03-26

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017507324A Division JP6410923B2 (ja) 2015-03-26 2015-11-04 追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム

Publications (2)

Publication Number Publication Date
JP2018198470A JP2018198470A (ja) 2018-12-13
JP6557768B2 true JP6557768B2 (ja) 2019-08-07

Family

ID=56978188

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017507324A Active JP6410923B2 (ja) 2015-03-26 2015-11-04 追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム
JP2018178969A Active JP6557768B2 (ja) 2015-03-26 2018-09-25 追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017507324A Active JP6410923B2 (ja) 2015-03-26 2015-11-04 追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム

Country Status (4)

Country Link
US (1) US10451705B2 (ja)
JP (2) JP6410923B2 (ja)
CN (1) CN107409175B (ja)
WO (1) WO2016151925A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6574645B2 (ja) * 2015-08-28 2019-09-11 キヤノン株式会社 撮像装置を制御する制御装置、撮像装置の制御方法、及びプログラム
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
KR101906847B1 (ko) * 2016-06-29 2018-10-12 주식회사 크리에이츠 공 이미지 촬영을 위한 관심 영역을 결정하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
CA3056269C (en) * 2017-03-17 2021-07-13 Unity IPR ApS Method and system for automated camera collision and composition preservation
KR101886362B1 (ko) * 2017-05-19 2018-08-09 주식회사 동운아나텍 카메라 모듈용 액츄에이터 이동감지 소자와 그들을 포함하는 카메라 모듈용 유연성 회로기판
TWI633357B (zh) * 2017-09-15 2018-08-21 致伸科技股份有限公司 影像對焦方法以及應用該方法的影像擷取裝置與電子裝置
US10733739B2 (en) * 2017-09-29 2020-08-04 Nanjing Avatarmind Robot Technology Co., Ltd. Method and system for displaying target image based on robot
JP7292853B2 (ja) 2017-12-26 2023-06-19 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
WO2019130908A1 (ja) * 2017-12-26 2019-07-04 キヤノン株式会社 撮像装置及びその制御方法及び記録媒体
CN108317379B (zh) * 2018-02-09 2019-01-22 桂林智神信息技术有限公司 控制手持云台的方法、装置及手持云台
KR102449185B1 (ko) * 2018-02-14 2022-09-29 삼성전자주식회사 피사체와 기준 영역 사이간의 거리에 따라 변경된 프레임 레이트로 획득된 이미지 데이터를 이용하여 선택적으로 동영상을 생성하는 전자 장치 및 그의 운용 방법
CN110149476A (zh) * 2018-06-21 2019-08-20 深圳市浩瀚卓越科技有限公司 一种延时摄影方法、装置、系统及终端设备
JP6683280B1 (ja) * 2018-10-19 2020-04-15 ソニー株式会社 センサ装置、信号処理方法
CN111316630B (zh) 2018-11-28 2022-03-25 深圳市大疆创新科技有限公司 手持云台及其拍摄控制方法
JP7186854B2 (ja) * 2019-02-28 2022-12-09 富士フイルム株式会社 画像表示装置、画像表示方法、及びプログラム
US11277556B2 (en) 2019-04-01 2022-03-15 Jvckenwood Corporation Control device for automatic tracking camera
CN110049221B (zh) * 2019-04-29 2021-06-15 维沃移动通信(杭州)有限公司 拍摄方法及移动终端
CN113841087A (zh) * 2019-05-27 2021-12-24 索尼集团公司 构图控制设备、构图控制方法和程序
WO2021007792A1 (zh) * 2019-07-16 2021-01-21 深圳市大疆创新科技有限公司 拍摄方法、设备、系统及计算机可读存储介质
CN111026032B (zh) * 2019-12-26 2021-10-22 武汉重型机床集团有限公司 一种基于工业数控机床的实时监控系统及其工作方法
CN114979454B (zh) * 2021-02-24 2024-02-20 广州视创显示科技有限公司 一种一体机显示图像调整方法、装置、设备及存储介质
CN113408518B (zh) * 2021-07-06 2023-04-07 世邦通信股份有限公司 音视频采集设备控制方法、装置、电子设备和存储介质
CN113744299B (zh) * 2021-09-02 2022-07-12 上海安维尔信息科技股份有限公司 一种相机控制方法、装置、电子设备及存储介质
CN113741505B (zh) * 2021-11-03 2022-03-22 武汉高德红外股份有限公司 基于运动估计自动抬层的红外搜索跟踪方法、设备及系统
CN114670981B (zh) * 2022-03-24 2023-05-26 阿里云计算有限公司 用于控制相机的方法和装置
EP4312434A1 (en) * 2022-07-12 2024-01-31 Canon Kabushiki Kaisha Image capturing system, control apparatus, image capturing apparatus, and display apparatus constituting the system, control method, and display method

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5838368A (en) * 1992-06-22 1998-11-17 Canon Kabushiki Kaisha Remote camera control system with compensation for signal transmission delay
US5764786A (en) * 1993-06-10 1998-06-09 Kuwashima; Shigesumi Moving object measurement device employing a three-dimensional analysis to obtain characteristics of the moving object
US5434927A (en) * 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking
JP3891224B2 (ja) * 1995-12-07 2007-03-14 株式会社ニコン 自動合焦装置
JPH09186927A (ja) * 1995-12-28 1997-07-15 Sony Corp 追尾装置および追尾方法
DE60040051D1 (de) * 1999-12-03 2008-10-09 Fujinon Corp Automatische Folgevorrichtung
JP2001333320A (ja) * 2000-05-24 2001-11-30 Fuji Photo Optical Co Ltd リモコン雲台システム
US7256817B2 (en) * 2000-10-26 2007-08-14 Fujinon Corporation Following device
JP2002354323A (ja) * 2001-05-28 2002-12-06 Minolta Co Ltd 画像撮影システム、画像撮影装置、および操作装置
JP2002354327A (ja) * 2001-05-30 2002-12-06 Minolta Co Ltd 画像撮影装置、その操作装置、および画像撮影システム
US7349005B2 (en) * 2001-06-14 2008-03-25 Microsoft Corporation Automated video production system and method using expert video production rules for online publishing of lectures
JP2004180190A (ja) * 2002-11-29 2004-06-24 Hitachi Ltd カメラ制御装置及びその制御ステップを実行するプログラム
WO2005107240A1 (ja) * 2004-04-28 2005-11-10 Chuo Electronics Co., Ltd. 自動撮影方法および装置
US7315631B1 (en) * 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
FR2880762A1 (fr) * 2005-01-07 2006-07-14 France Telecom Terminal de visiophonie avec reglages intuitifs
JP4699040B2 (ja) * 2005-02-15 2011-06-08 パナソニック株式会社 自動追尾制御装置及び自動追尾制御方法、並びにプログラム、自動追尾システム
JP4933061B2 (ja) * 2005-06-10 2012-05-16 キヤノン株式会社 光学機器
US20070248330A1 (en) * 2006-04-06 2007-10-25 Pillman Bruce H Varying camera self-determination based on subject motion
JP4717701B2 (ja) 2006-04-24 2011-07-06 キヤノン株式会社 撮像システム、撮影方向制御方法、及びプログラム
WO2008057285A2 (en) * 2006-10-27 2008-05-15 Vidient Systems, Inc. An apparatus for image capture with automatic and manual field of interest processing with a multi-resolution camera
CN100508599C (zh) * 2007-04-24 2009-07-01 北京中星微电子有限公司 视频监控中的自动跟踪控制方法和控制装置
CN100531373C (zh) * 2007-06-05 2009-08-19 西安理工大学 基于双摄像头联动结构的视频运动目标特写跟踪监视方法
KR101627185B1 (ko) * 2009-04-24 2016-06-03 삼성전자 주식회사 영상촬영장치의 제어방법
JP5205337B2 (ja) * 2009-06-18 2013-06-05 富士フイルム株式会社 ターゲット追跡装置および画像追跡装置ならびにそれらの動作制御方法ならびにディジタル・カメラ
US8965045B2 (en) * 2012-02-22 2015-02-24 Nokia Corporation Image capture
US9723192B1 (en) * 2012-03-02 2017-08-01 H4 Engineering, Inc. Application dependent video recording device architecture
US9313394B2 (en) * 2012-03-02 2016-04-12 H4 Engineering, Inc. Waterproof electronic device
CN103475853A (zh) * 2012-06-06 2013-12-25 中兴通讯股份有限公司 一种视频监控系统及减少云台控制延时的方法
JP2014171018A (ja) * 2013-03-01 2014-09-18 Canon Inc 映像処理装置及び映像処理システム
US8994838B2 (en) * 2013-04-16 2015-03-31 Nokia Corporation Motion adaptive cropping for video stabilization
WO2015127440A1 (en) * 2014-02-24 2015-08-27 H4 Engineering, Inc. Cooperative automatic tracking
US10200618B2 (en) * 2015-03-17 2019-02-05 Disney Enterprises, Inc. Automatic device operation and object tracking based on learning of smooth predictors
US9781350B2 (en) * 2015-09-28 2017-10-03 Qualcomm Incorporated Systems and methods for performing automatic zoom
US20170125064A1 (en) * 2015-11-03 2017-05-04 Seastar Labs, Inc. Method and Apparatus for Automatic Video Production
EP3419283B1 (en) * 2017-06-21 2022-02-16 Axis AB System and method for tracking moving objects in a scene

Also Published As

Publication number Publication date
JP6410923B2 (ja) 2018-10-24
CN107409175B (zh) 2020-04-21
US20180017659A1 (en) 2018-01-18
JPWO2016151925A1 (ja) 2018-01-11
CN107409175A (zh) 2017-11-28
JP2018198470A (ja) 2018-12-13
WO2016151925A1 (ja) 2016-09-29
US10451705B2 (en) 2019-10-22

Similar Documents

Publication Publication Date Title
JP6557768B2 (ja) 追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム
JP6246246B2 (ja) 適応型カメラアレイを有するデバイス
EP2461567A1 (en) Control device, control method, program, and control system
JP6574645B2 (ja) 撮像装置を制御する制御装置、撮像装置の制御方法、及びプログラム
US8823814B2 (en) Imaging apparatus
JP6387450B2 (ja) 追尾撮影制御装置、追尾撮影システム、カメラ、端末装置、追尾撮影方法、追尾撮影プログラム
CN111083351B (zh) 控制设备、摄像设备、控制方法和存储介质
JP6374536B2 (ja) 追尾システム、端末装置、カメラ装置、追尾撮影方法及びプログラム
JP7197981B2 (ja) カメラ、端末装置、カメラの制御方法、端末装置の制御方法、およびプログラム
WO2019104569A1 (zh) 一种对焦方法、设备及可读存储介质
US20210243357A1 (en) Photographing control method, mobile platform, control device, and storage medium
JP5229593B2 (ja) 目標追跡装置、目標追跡方法
KR20170061438A (ko) 객체를 추적하여 영상을 수신하는 방법 및 장치
EP3304884A1 (en) Method and system to assist a user to capture an image or video
WO2017177369A1 (zh) 一种稳定器的跟踪拍摄控制方法及系统
JP5218861B2 (ja) 目標追跡装置、目標追跡方法
JP6152991B2 (ja) 画像生成装置、カメラ装置、画像表示装置及び画像生成方法
JP6374535B2 (ja) 操作装置、追尾システム、操作方法、及びプログラム
JP2016111561A (ja) 情報処理装置、システム、情報処理方法及びプログラム
JP2004363987A (ja) 画像提示システム
WO2022041013A1 (zh) 控制方法、手持云台、系统及计算机可读存储介质
CN107613194B (zh) 一种对焦方法、移动终端及计算机可读存储介质
US20230276131A1 (en) Image capture apparatus and control method
JP2017216599A (ja) 撮像装置及びその制御方法
JP2011199569A (ja) カメラ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181002

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190712

R150 Certificate of patent or registration of utility model

Ref document number: 6557768

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250