JP2024033919A - 撮像制御装置、撮像装置、映像配信システムおよび撮像制御方法 - Google Patents

撮像制御装置、撮像装置、映像配信システムおよび撮像制御方法 Download PDF

Info

Publication number
JP2024033919A
JP2024033919A JP2022137841A JP2022137841A JP2024033919A JP 2024033919 A JP2024033919 A JP 2024033919A JP 2022137841 A JP2022137841 A JP 2022137841A JP 2022137841 A JP2022137841 A JP 2022137841A JP 2024033919 A JP2024033919 A JP 2024033919A
Authority
JP
Japan
Prior art keywords
imaging
distribution
camera
video data
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022137841A
Other languages
English (en)
Inventor
文彦 加藤
Fumihiko Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022137841A priority Critical patent/JP2024033919A/ja
Priority to EP23192568.6A priority patent/EP4333447A1/en
Priority to CN202311104495.8A priority patent/CN117641126A/zh
Priority to US18/458,850 priority patent/US20240073525A1/en
Publication of JP2024033919A publication Critical patent/JP2024033919A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】配信される映像データを生成する撮像装置を適切に制御する。【解決手段】撮像制御装置200は、撮像装置100により生成された映像データの配信状況を取得する取得手段201と、撮像装置のズームを制御する制御手段201とを有する。制御手段は、配信状況に応じて、ズーム値を変更する。また、映像データから被写体を検出する検出手段206を有し、制御手段は、検出された被写体の位置に応じて撮像装置の撮像方向を制御し、配信状況に応じて、撮像方向を制御するためのパラメータを変更する。【選択図】図1

Description

本発明は、撮像装置(カメラ)により生成された映像データを配信する映像配信システムにおいて用いられる撮像制御技術に関する。
上記のような映像配信システムにおいて。AI(Artificial Intelligence)により検出した特定の被写体を自動追尾するようにカメラを制御する自動追尾技術が用いられる場合がある。ユーザは被写体を自動追尾しているカメラからの映像をスイッチャで切り替えながら配信することができる。この際、配信中のカメラの映像は視聴者が見るため、映像品質を損なわないようなカメラ制御が求められる。
特許文献1には、カメラがスイッチャから映像の使用状態を取得し、該カメラからの映像が配信中である場合にはパンおよびチルトの駆動速度を制限することで配信中の映像品質を損なわないようにするカメラ制御が開示されている。
特開2021-34824公報
一方、自動追尾技術を利用した映像配信システムにおいて映像配信中でないカメラについては、映像品質を損なわないこととともに、自動追尾が円滑に続けられることも求められる。
本発明は、配信される映像データを生成する撮像装置を適切に制御することができるようにした撮像制御装置等を提供する。
本発明の一側面としての撮像制御装置は、撮像装置により生成された映像データの配信状況を取得する取得手段と、撮像装置のズームを制御する制御手段とを有する。制御手段は、配信状況に応じて、ズーム値を変更することを特徴とする。本発明の他の一側面としての撮像制御装置は、撮像装置により生成された映像データの配信状況を取得する取得手段と、映像データから被写体を検出する検出手段と、検出された被写体の位置に応じて撮像装置の撮像方向を制御する制御手段とを有する。制御手段は、配信状況に応じて、撮像方向を制御するためのパラメータを変更することを特徴とする。なお、上記撮像制御装置を有する撮像装置も、本発明の他の一側面を構成する。
また本発明の他の一側面としての撮像制御方法は、撮像装置により生成された映像データの配信状況を取得するステップと、撮像装置のズーム値を制御するステップとを有する。ズームを制御するステップにおいて、配信状況に応じて、ズーム値を変更することを特徴とする。さらに本発明の他の一側面としての撮像制御方法は、撮像装置により生成された映像データの配信状況を取得するステップと、映像データから被写体を検出するステップと、検出された被写体の位置に応じて撮像装置の撮像方向を制御するステップとを有する。撮像方向を制御するステップにおいて、配信状況に応じて、撮像方向を制御するためのパラメータを変更することを特徴とする。なお、上記各撮像制御方法をコンピュータに実行させるプログラムも、本発明の他の一側面を構成する。
本発明によれば、配信される映像データを生成する撮像装置を適切に制御することができる。
実施例1の映像配信システムの概要を示す図。 実施例1の映像配信システムの構成を示すブロック図。 実施例1におけるワークステーションの被写体追尾処理を示すフローチャート。 実施例1におけるカメラの被写体追尾処理を示すフローチャート。 実施例1における追尾敏感度とパン・チルト制御量を説明する図。 上記ワークステーションの被写体追尾処理を示すフローチャート。 実施例2の映像配信システムの概要を示す図。 実施例2の映像配信システムの構成を示すブロック図。 実施例2におけるカメラの被写体追尾処理を示すフローチャート。 実施例3の映像配信システムの概要を示す図。 実施例3の映像配信システムの構成を示すブロック図。 実施例3におけるコントローラの被写体追尾処理を示すフローチャート。 実施例3におけるカメラの被写体追尾処理を示すフローチャート。
以下、本発明の実施例について図面を参照しながら説明する。
[映像配信システム10の構成]
図1は、本発明の実施例1である映像配信システムを示している。映像配信システム10は、被写体20を含むシーンをそれぞれ撮像する複数の撮像装置としてのカメラ100(100a、100b)と、ワークステーション200と、スイッチャ300とにより構成されている。カメラ100とワークステーション200は、ネットワーク400を介して相互に通信可能に接続されている。接続形式や通信プロトコルはどのようなものであってもよい。また、カメラ100とワークステーション200を、ネットワーク400を介さずに通信ケーブルを用いて直接接続してもよい。カメラ100の数は、3つ以上であってもよい。
撮像制御装置としてのワークステーション200は、ネットワーク400(又は通信ケーブル)を介して各カメラ100に映像データとしての映像ストリームの送信を要求する映像要求コマンドや各種パラメータの設定を指示する設定コマンドを送信して各カメラ100の動作を制御する。各カメラ100は、映像要求コマンドに応じて映像ストリームを映像ケーブル(又はネットワーク400)を介してワークステーション200に送信したり、設定コマンドに応じて種々のパラメータを記憶したりする。またワークステーション200は、ネットワーク400(又は通信ケーブル)を介して各カメラ100にパン、チルトおよびズームを制御するコマンドを送信して、各カメラ100の撮像画角のパンおよびチルト方向での向きや大きさを制御する。
複数のカメラ100とスイッチャ300における複数の映像入力部はそれぞれ映像ケーブルで接続されており、各カメラ100が出力した映像ストリームはスイッチャ300に入力される。スイッチャ300は、複数のカメラ100からの映像ストリームから視聴用に不図示の外部装置に配信する映像ストリーム(以下、配信映像という)や、配信映像の次に外部装置に配信する映像ストリーム(以下、プレビュー映像という)を選択する。また、各カメラ100とスイッチャ300はネットワーク400を介して相互に通信可能に接続されている。接続形式や通信プロトコルはどのようなものであってもよい。また、カメラ100とスイッチャ300を、ネットワーク400を介さずに通信ケーブルを用いて直接接続してもよい。
スイッチャ300は、複数のカメラ100に対して配信映像を取得するカメラ(以下、配信カメラという)やプレビュー映像を取得するカメラ(以下、プレビューカメラ)に選択されたことを通知するための選択コマンドを送信することができる。配信カメラを示す選択コマンドを受信したカメラは配信中ランプ30を点灯させ、プレビューカメラを示す選択コマンドを受信したカメラはプレビュー中ランプ40を点灯させる。またスイッチャ300は、複数のカメラ100のうち配信映像やプレビュー映像ではない映像ストリーム(以下、待機映像という)を取得するカメラ(以下、待機カメラという)には、待機カメラに選択されたことを通知する選択コマンドを送信することもできる。待機映像は、配信映像でもプレビュー映像でもない映像である。なお、待機映像から配信映像にすることも可能である。待機カメラを示す選択コマンドを受信したカメラは、配信中ランプ30とプレビュー中ランプ40を消灯せる。
本実施例では、複数のカメラ100のうちどのカメラが配信カメラ、プレビューカメラおよび待機カメラとして選択されているか、つまりはどのカメラからの映像データが配信映像、プレビュー映像および待機映像として選択されているかを映像配信状況という。映像配信状況は、映像データの使用状態と言い換えることもできる。配信映像として選択(使用)されている状態は配信状態に相当し、待機映像として選択されている(配信を待機している)状態は待機状態に相当する。また、プレビュー映像として選択されている(待機状態より先に配信状態となり得る)状態はプレビュー状態に相当する。
ワークステーション200は、複数のカメラ100に対して現在の映像配信状況を問い合わせるコマンドを送信することで、各カメラの現在の映像配信状況を示す情報(以下、配信状況情報という)を取得することができる。
図2は、本実施例の映像配信システムにおけるカメラ100、ワークステーション200およびスイッチャ300の構成を示している。
[カメラ100の構成]
カメラ100は、CPU101、RAM102、ROM103、撮像部104、映像出力部105、通信部106、PTZ制御部107および配信状況表示部108を有し、これらは内部バス109を介して相互に接続されている。
CPU101は、カメラ100の動作全体を制御する。RAM102は、ワークメモリとして一時的に制御プログラムやデータを格納する。ROM103は、CPU101が実行する制御プログラムを記憶する。撮像部104は、光学系により形成された光学像を撮像素子により光電変換し、該撮像素子からの出力信号から映像データを生成する。撮像素子は、CMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等の光電変換素子により構成される。
映像出力部105は、撮像部104により生成された映像データを外部に出力するためのインターフェースであり、SDI(Serial Digital Interface)やHDMI(High-Definition Multimedia Interface)(登録商標)等で構成される。通信部106は、外部機器とネットワーク通信を行う。本実施例では、通信部106は、ワークステーション200やスイッチャ300との通信を行う。
PTZ(Panoramac Tilt Zoom)制御部107は、撮像画角の大きさを変更するために撮像部104の光学系を駆動するズーム駆動部と、撮像画角の向き(撮像方向)を変更するために撮像部104をパン駆動およびチルト駆動するパン/チルト駆動部とを含む。なお、本実施例では、撮像部104の光学系を駆動して光学ズームを行うが、映像データの拡大・縮小を行う電子ズームを行ってもよい。
配信状況表示部108は、CPU101の指示に基づいて配信カメラやプレビューカメラに選択されたことを点灯によりユーザに知らせる、図1に示した配信中ランプ30およびプレビュー中ランプ40を含む。CPU101は、通信部106を介してスイッチャ300から配信カメラやプレビューカメラに選択されたことを示す選択コマンドを受信すると、配信状況表示部108に対応するランプを点灯させるように指示する。例えば、配信カメラに選択された場合は配信中ランプ30を赤点灯させ、プレビューカメラに選択された場合はプレビュー中ランプ40を緑点灯させる。また、CPU101は、待機カメラに選択されたことを示す選択コマンドを受信すると、配信状況表示部108に配信中ランプ30およびプレビュー中ランプ40を消灯するように指示する。CPU101は、受信した選択コマンドを今回選択コマンドとしてRAM102に格納するとともに、以前に受信して格納していた前回の選択コマンドを前回コマンドとしてRAM102に格納する。
[ワークステーション200の構成]
ワークステーション200は、CPU201、RAM202、ROM203、通信部204、映像入力部205、推論部206およびユーザ入力I/F207を有し、これらは内部バス208を介して相互に接続されている。
取得手段および制御手段としてのCPU201は、ワークステーション200の動作全体を制御する。RAM202は、ワークメモリとして一時的に制御プログラムやデータを格納する。ROM203は、フラッシュメモリ、HDD、SSD、SDカード等に代表される不揮発性を持った記憶装置で、OS、各種プログラムおよび各種データの永続的な記憶領域として使用され、さらに短期的な各種データの記憶領域としても使用される。
通信部204は、外部機器とネットワーク通信を行う。本実施例では、通信部204は、カメラ100と通信を行う。映像入力部205は、カメラ100から映像データを受信するためのインターフェースであり、SDIやHDMIで構成される。
検出手段としての推論部206は、GPU(Graphics Processing Unit)やFPGA(Field -Programmable Gate Array)等で構成され、映像入力部205等から受信した映像データから特定の物体の有無や位置を推定(検出)する推論処理を実行する。なお、推論部206が行う推論処理をCPU201が行ってもよい。
ユーザ入力I/F207は、マウス、キーボード、タッチパネル等の入力デバイスが接続されるUSB(Universal Serial Bus)等のインターフェースであり、該入力デバイスに対するユーザの操作に対応する指示をCPU201に送信する。
[スイッチャ300の構成]
スイッチャ300は、CPU301、RAM302、映像入力部303、映像スイッチ制御部304、映像出力部305、ユーザ入力I/F306および通信部307を有し、これらは内部バス308を介して相互に接続されている。
CPU301は、スイッチャ300の動作全体を制御する。RAM302は、ワークメモリとして一時的に制御プログラムやデータを格納する。
映像入力部303(A303a、B303b)は、カメラ100からの映像データを受信するためのインターフェースであり、SDIやHDMIで構成される。映像入力部A303aはカメラ100aからの映像データを受信し、映像入力部B303bはカメラ100bからの映像データを受信する。映像入力部303の数は、カメラ100の数に対応していればよく、3つ以上であってもよい。
映像スイッチ制御部304は、映像入力部303に入力されている複数の映像データから後述するユーザ入力I/F306により選択された映像データを、後述する映像出力部305に出力する。
映像出力部305は、映像データを不図示のライブ配信機器や番組録画装置に出力するためのインターフェースであり、SDIやHDMIで構成される。
ユーザ入力I/F306は、スイッチャ300に対するユーザからの操作の受け付けるためのインターフェースであり、ボタン、ダイヤル、ジョイスティック、タッチパネル等で構成される。CPU301は、ユーザ入力I/F306を通じたユーザによる映像配信状況を切り替える操作に応じて、映像入力部303に入力されているカメラ100からの映像データのうち、配信映像に使用する映像データやプレビュー映像に使用する映像データを選択する。そしてCPU301は、映像スイッチ制御部304に対して選択結果に応じて出力する映像データを切り替えるように指示する。例えば、映像入力部A303aへの入力映像データが配信映像に、映像入力部B303bへの入力映像データがプレビュー映像に選択されている状態でこれらを逆に切り替える操作が行われると、CPU301は以下のように動作する。まずCPU301は、映像入力部A303aに接続されたカメラ100aに対して通信部307を介してカメラ100aがプレビューカメラに(カメラ100aからの映像データがプレビュー映像に)選択されたことを通知する選択コマンドを送信する。また、映像入力部303bに接続されたカメラ100bに対して通信部307を介してカメラ100bが配信カメラに(カメラ100bからの映像データが配信映像に)選択されたことを通知する選択コマンドを送信する。次にCPU301は、カメラ100aからの映像データがプレビュー映像として使用され、カメラ100bからの映像データが配信映像として使用されるという切り替え後の映像配信状況を示すデータをRAM302に格納する。
[被写体追尾処理]
次に、ワークステーション200がカメラ100からの映像データから検出した被写体に応じて、該被写体を追尾するようにカメラ100を制御する処理について説明する。図3のフローチャートは、ワークステーション200のCPU201が制御プログラムに従って実行する被写体追尾処理を示している。図4のフローチャートは、カメラ100のCPU101が制御プログラムに従って実行する被写体追尾処理を示している。図中のSはステップを意味する。
ワークステーション200のCPU201は、通信部204やユーザ入力I/F207を介して被写体追尾を指示する命令を受信することで図3の処理を開始する。
S301において、CPU201は、通信部204やユーザ入力I/F207を介して本処理の終了を示す指示する命令を受信しているか否か(処理を継続するか否か)を確認する。受信していなければS302へ進み、受信していれば本処理を終了する。
S302において、CPU201は、ワークステーション200の映像入力部205からカメラ100が撮像により取得した映像データを受信してRAM202に格納する。
次にS303において、CPU201は、RAM202から映像データを読み出して推論部206に出力し、推論部206に被写体の種類や映像データ上での被写体の位置を推定(判定)させる。推論部206は、ディープラーニング等の機械学習を用いて作成された学習済みモデルを有し、入力データとしての画像データから出力データとしての人物等の被写体の種類や位置を示す情報とそれらの確からしさを示すスコアを出力する。本実施例では、被写体の位置の情報を、映像データ内での被写体の重心位置を示す座標として出力する。CPU201は、被写体の種類や位置を示す情報とスコアをRAM202に格納する。
次にS304において、CPU201は、カメラ100のCPU101に対して現在のカメラ100の状態を問い合わせるコマンドを送信し、それに対するカメラ100からの応答であるカメラ情報をRAM202に格納する。カメラ情報には、パンおよびチルトの最大、最小および現在の角度およびズームにおける最大、最小および現在の画角(ズーム値)といったカメラ100の駆動に関する情報や、出力する映像データの解像度およびフォーマット等の映像に関する情報が含まれる。
次にS305において、CPU201は、S303でRAM202に格納した被写体の位置の情報と後述する追尾敏感度とS304でカメラ100から取得したカメラ情報とを用いて、カメラ100に被写体を追尾させるためのパン/チルト駆動部の制御量を算出する。そして、制御量をカメラ100を制御する方法として予め取り決めているプロトコルに則って制御コマンドに変換してRAM202へ書き出す。制御量は、カメラ100のパン駆動およびチルト駆動のそれぞれにおける駆動方向と駆動速度を指定する値である。制御量を算出する手順については後述する。
次にS306において、CPU201は、S305にてRAM202へ書き出された制御コマンドをカメラ100へ送信する。そしてS301に戻る。
一方、カメラ100のCPU101は、ワークステーション200がS306で送信した制御コマンドを受信することで処理を開始する。
S401において、CPU101は受信した制御コマンドを読み出してRAM102へ書き出す。
次にS402において、CPU101は、S401にてRAM102へ書き出された制御コマンドから、パン駆動およびチルト駆動の駆動方向と駆動速度を読み出す。
次にS403において、CPU101は、S402にて読み出した値に基づいてパン駆動およびチルト駆動するための駆動パラメータを導出する。駆動パラメータは、PTZ制御部107に含まれるパン駆動用モータとチルト駆動用モータを制御するためのパラメータである。この際、受信した制御コマンドを予めRAM102に保持した変換テーブルを用いて駆動パラメータに変換してもよい。
次にS404において、CPU101は、S403で導出した駆動パラメータに基づいてPTZ制御部107を制御する。これにより、カメラ100はパン駆動およびチルト駆動して撮像方向を変更する。そしてCPU101は、本処理を終了する。
[制御量の算出と追尾敏感度]
図3中のS305における制御量の算出方法について説明する。ワークステーション200のCPU201は、撮像画角内の目標位置(例えば中心)を被写体位置に近づけるようにカメラ100を制御する。この際、CPU201は、目標位置を被写体位置に近づけるために必要なカメラ100のPTZ制御部107の制御量を算出する。具体的には、図5に示すように、目標位置から被写体位置までの距離に追尾敏感度に相当するゲインを乗算して制御量を算出する。追尾敏感度は、被写体の動き(被写体位置の変化)、つまりは目標位置から被写体位置までの距離の変化に対する撮像画角の向きの制御(変更)の速さに関するパラメータである。
制御量Ypは、目標位置をXt、被写体位置をXh、ゲインをKとした場合に以下の式で表される。
Yp=(Xh-Xt)×K
制御量Ypは、ゲインKが標準値に設定されると図5中の直線501aのように距離の変化に対して変化し、標準値よりも小さいゲインKが設定されると直線501bのように距離に対して緩やかに変化する。また、標準値よりも大きいゲインKが設定されると、直線501cのように距離の変化に対して急峻に変化する。このようにゲインKを変更することで制御量Ypを調整することができる。
なお、このように追尾敏感度が大きければ被写体の動きに対して急峻な追尾動作を行い、追尾敏感度が小さければ被写体の動きに対して緩やかな追尾動作を行うような制御量の調整方法であれば、どのような方法を採用してもよい。
また、目標位置の近傍に、被写体位置を検出してもパン駆動やチルト駆動の制御を行わない不感領域を設定してもよい。この場合、追尾敏感度が高ければ(つまりは後述するようにプレビューカメラや待機カメラであれば)パラメータとしての不感領域の大きさを縮小し、追尾敏感度が低ければ(つまりは配信カメラであれば)不感領域の大きさを拡大するようにしてもよい。また、PTZ制御部107に対して、目標位置と被写体位置の関係にかかわらず追尾敏感度に比例した制御量を設定してもよい。さらに、目標位置と被写体位置との差の絶対値と所定の閾値とを比較し、差の絶対値が閾値を下回ればパン駆動やチルト駆動の駆動速度を減少させ、上回れば駆動速度を増加させてもよい。この場合、追尾敏感度によって閾値を変えてもよい。すなわち、追尾敏感度が大きければ閾値を減少させ、追尾敏感度が小さければ閾値を増加させてもよい。これらの方法を組み合わせて用いてもよい。
[カメラ制御処理]
図6のフローチャートは、ワークステーション200のCPU201が、制御プログラムに従って実行する、映像配信状況に応じてカメラ100が被写体を追尾するための制御パラメータ(以下、カメラ制御パラメータという)を変更するカメラ制御処理(撮像制御方法)を示している。
S601において、ワークステーション200のCPU201は、被写体を追尾するためのカメラ制御パラメータの初期設定を行う。具体的には、配信カメラ、プレビューカメラおよび待機カメラのそれぞれの追尾敏感度、ズームイン時のズーム値(以下、ズームイン値という)およびズームアウト時のズーム値(以下、ズームアウト値という)をそれぞれROM203から読み出してRAM202に格納する。
配信カメラの追尾敏感度は、プレビューカメラおよび待機カメラの追尾敏感度より小さい。また、プレビューカメラと待機カメラの追尾敏感度を互いに異ならせてもよい。例えば、プレビューカメラの追尾敏感度を待機カメラの追尾敏感度より大きくしてもよい。
また、配信カメラおよびプレビューカメラのズーム値がズームイン値であり、待機カメラのズーム値がズームアウト値である。ズームイン値はズームアウト値よりも望遠側のズーム値であり、逆にズームアウト値はズームイン値よりも広角側のズーム値である。なお、配信カメラとプレビューカメラのズームイン値を互いに異ならせてもよい。例えば、プレビューカメラのズームイン値を配信カメラのズームイン値よりも広角側としてもよい。さらにズームイン値およびズームアウト値は、電子ズームにおいて用いることもできる。
また、初期設定の追尾敏感度、ズームイン値およびズームアウト値としてユーザ入力I/F207を介してユーザが入力したパラメータ値を利用してもよい。
S602において、CPU201は、CPU201は、通信部204やユーザ入力I/F207を介して本処理の終了を示す指示する命令を受信しているか否か(処理を継続するか否か)を確認する。受信していなければS603へ進み、受信していれば本処理を終了する。
S603において、CPU201は、カメラ100に現在の映像配信状況を示す配信状況情報を送信するよう指示する。該指示を受信した各カメラ100のCPU101は、現在の配信状況情報をワークステーション200に送信する。CPU201は、取得した現在の配信状況情報が示す映像配信状況をRAM202に格納し、既に格納済みの映像配信状況を前回の映像配信状況としてRAM202に格納する。なお、本ステップにおいて、CPU201は、スイッチャ300(CPU301)に対して現在の配信状況情報を送信するよう指示して、スイッチャ300から現在の配信状況情報を取得してもよい。
次にS604において、CPU201は、S603でRAM202に格納した現在の映像配信状況と前回の映像配信状況とを比較する。これらが一致すれば(映像配信状況に変化がなければ)S602に戻り、一致しない(映像配信状況が変化した)場合はS605に進む。
S605において、CPU201は、S603でRAM202に格納した現在の映像配信状況においていずれかのカメラからの映像データが配信中か(つまりはいずれかのカメラが配信カメラか)否かを判別する。配信カメラに対してはS606に進み、配信カメラ以外のカメラに対してはS607に進む。
S606において、CPU201は、S601で初期設定した配信カメラの追尾敏感度をRAM202から読み出し、これをS305での制御量の算出に用いる追尾敏感度(ゲイン)として設定してRAM202に格納する。本ステップで設定する配信カメラの追尾敏感度は、後述するS607で設定されるプレビューカメラおよび待機カメラの追尾敏感度よりも小さい。これは、映像配信中では被写体の動きに対する追従が高速すぎて映像品質が低下することを防ぐためである。この後CPU201はS610に進む。
一方、S607において、CPU201は、S601で初期設定したプレビューカメラおよび待機カメラの追尾敏感度をRAM202から読み出し、これをS305での制御量の算出に用いる追尾敏感度として設定してRAM202に格納する。本ステップで設定する追尾敏感度はS606で設定される追尾敏感度よりも大きい。これは、配信カメラ以外のカメラに被写体の動きを高速で追尾させるためである。この後CPU201はS608に進む。
S608において、CPU201は、S603でRAM202に格納した現在の映像配信状況においていずれかのカメラからの映像データがプレビュー中か(つまりはいずれかのカメラがプレビューカメラか)否かを判別する。プレビューカメラに対してはS610に進み、プレビューカメラ以外の待機カメラに対してはS609に進む。
S609において、CPU201は、S601でRAM202に格納したズームアウト値を読み出し、これを待機カメラに送信してズーム値を変更するよう指示する。該指示を受信した待機カメラのCPU101は、PTZ制御部107を介して撮像部104に受信したズームアウト値へのズーム駆動を行わせる。これにより、待機カメラが被写体をロストする可能性を低減することができる。この際のズーム速度を配信カメラでのズーム速度より速くしてもよい。この後CPU201はS602に戻る。
なお、待機カメラにズームアウトさせる際に予めズームアウト値を設定せずに、最小のズーム値(広角端)にズームアウトさせてもよい。この場合、ワークステーション200のCPU201は、待機カメラのCPU101に対してズーム値を最小にするよう指示する。また、ワークステーション200のCPU201は、推論部206の出力データを用いてズーム値を決定してもよい。
S610において、ワークステーション200のCPU201は、S603でRAM202に格納した前回の映像配信状況において現在の配信カメラまたはプレビューカメラが前回の待機カメラであったか否かを判別する。前回の待機カメラであった場合はS611に進み、そうでなければS602に戻る。
S611において、ワークステーション200のCPU201は、S601でRAM202に格納したズームイン値を読み出し、これを前回に待機カメラであった現在の配信カメラまたはプレビューカメラに送信してズーム値を変更するよう指示する。該指示を受けた前回に待機カメラであった配信カメラまたはプレビューカメラのCPU101は、PTZ制御部107を介して撮像部104に受信したズームイン値へのズーム駆動を行わせる。これにより、配信カメラおよびプレビューカメラは、被写体をアップで撮像することができる。この際の配信カメラのズーム速度を待機カメラのズーム速度より遅くしてもよい。これにより配信映像の急峻な画角変化を抑えて違和感のない映像を提供できる。またプレビューカメラのズーム速度を待機カメラのズーム速度と同様に高速にしてもよいし、配信カメラと待機カメラの中間のズーム速度としてもよい。
なお、配信カメラまたはプレビューカメラにズームインさせる際に予めズームイン値を設定せずに、これらのカメラが待機カメラに切り替わる前(元々の配信またはプレビューカメラであったとき)のズーム値に戻すようにしてもよい。この場合、S609でズームアウトする前に、ワークステーション200のCPU201はカメラ100にズーム値を問い合わせ、その応答としてのズーム値をRAM202に格納しておく。そしてS611でCPU201はRAM202に格納されたズーム値を読み出し、これを現在の配信またはプレビューカメラに送信してズーム値を変更するよう指示する。
また、ワークステーション200のCPU201は、推論部206の出力データを用いてズーム値を決定してもよい。例えば、推論部206から被写体の四隅の位置情報を取得して被写体の大きさを算出し、その被写体が所定の大きさになるようにズーム値を算出する。そして、これを現在の配信またはプレビューカメラに送信してズーム値を変更するよう指示してもよい。
以上説明した本実施例によれば、カメラ100の映像配信状況をワークステーション200が取得し、その映像配信状況に応じてカメラ制御パラメータ(追尾敏感度やズーム値等)を変更する。これにより、自動追尾を行う映像配信システムにおいて、視聴者に高品質の映像を視聴させることができるとともに、円滑な被写体追尾を行うことができる。すなわち、配信される映像データを生成するカメラ100の適切な制御を行うことができる。
なお、本実施例では、配信カメラ、プレビューカメラおよび待機カメラの3種類のカメラを使用する場合について説明したが、配信カメラと待機カメラの2種類のカメラを使用してもよい。この場合、図6中のS607の処理の後は、S608の処理は行わずにS609の処理を行う。
次に、本発明の実施例2について説明する。実施例1では、ワークステーション200が映像データから被写体位置を推定し、その結果に基づいてカメラ100の制御を行う。これに対して、本実施例では、同様の推定機能および制御機能をカメラ100が持つことで、ワークステーションを含まない映像配信システムを構成している。すなわち、カメラ100は撮像制御装置を含む。
図7は、本実施例の映像配信システムを示している。図8は、本実施例の映像配信システムにおけるカメラ100(100a、100b)およびスイッチャ300の構成を示している。カメラ100は、図2に示した構成要素に加えて推論部110を有する。スイッチャ300の構成は、図2に示したスイッチャ300と同じである。ただし、本実施例では、スイッチャ300は図6に示した処理は実行しない。
図9は、本実施例においてカメラ100のCPU101が制御プログラムに従って実行する被写体追尾処理を示している。
CPU101は、通信部106を介して被写体追尾を指示する命令を受信することで図9の処理を開始する。
S901において、CPU101は、通信部106を介して本処理の終了を示す指示する命令を受信しているか否か(処理を継続するか否か)を確認する。受信していなければS902へ進み、受信していれば本処理を終了する。
S902において、CPU101は、撮像部104から撮像により取得された映像データをRAM102に格納する。
次にS903において、CPU101は、RAM202から映像データを読み出して推論部110に出力し、推論部110に被写体の種類や映像データ上での被写体の位置を推定(判定)させる。推論部110は、図2に示した推論部206と同様に映像データから出力データとしての人物等の被写体の種類や位置を示す情報とそれらの確からしさを示すスコアを出力し、被写体の種類や位置を示す情報とスコアをRAM102に格納する。
次にS904において、CPU101は、PTZ制御部107にカメラ100の駆動状態を問い合わせる。カメラ100の駆動状態には、パンおよびチルトの最大、最小および現在の角度およびズームにおける最大、最小および現在のズーム値が含まれる。またCPU101は、RAM102やROM103から、映像データの解像度およびフォーマット等のカメラ100の設定状態を読み出す。
次にS905において、CPU101は、S903にてRAM102に格納した被写体位置の情報と追尾敏感度とS904にて取得したカメラ100の駆動状態から、被写体を追尾するための制御コマンド(制御量)を算出する。制御量の算出方法は、図3中のS305と同様である。
次にS906において、CPU101は、S905にて算出した制御コマンドから、パン駆動およびチルト駆動するための駆動パラメータを導出する。
そしてS907において、CPU101は、S906にて導出した駆動パラメータに基づいてPTZ制御部107を制御する。これにより、カメラ100はパン駆動およびチルト駆動して撮像方向を変更する。そしてCPU101はS901に戻る。
本実施例によれば、ワークステーションを有さなくても、被写体を追尾するようにカメラ100を動作させることができる。
本実施例では、実施例1において図6に示した処理と同様のカメラ制御処理をカメラ100のCPU101が行うことで、カメラ100の映像配信状況に応じた被写体を追尾するためのカメラ制御パラメータを変更する。
S601において、CPU101は、カメラ制御パラメータの初期設定を行う。具体的には、配信カメラ、プレビューカメラおよび待機カメラのそれぞれの追尾敏感度、ズームイン値およびズームアウト値をそれぞれROM103から読み出してRAM102に格納する。なお、初期設定の追尾敏感度、ズームイン値およびズームアウト値として、カメラ100に設けられた不図示のユーザ入力I/Fを介してユーザが入力したパラメータ値を利用してもよい。
次にS602において、CPU101は、通信部106を介して本処理の終了を示す指示する命令を受信しているか否か(処理を継続するか否か)を確認する。受信していなければS603へ進み、受信していれば本処理を終了する。
S603において、CPU101は、RAM102に格納されている現在の映像配信状況と前回の映像配信状況を読み出す。
次にS604において、CPU101は、S603で読み出した現在の映像配信状況と前回の映像配信状況を比較する。これらが一致すればS602に進み、一致しない場合はS605に進む。
S605において、CPU101は、S603で読み出した現在の映像配信状況においていずれかのカメラからの映像データが配信中か(つまりはいずれかのカメラが配信カメラか)否かを判別する。配信カメラに対してはS606に進み、配信カメラ以外のカメラに対してはS607に進む。
S606において、CPU101は、S601で初期設定した配信カメラの追尾敏感度をRAM102から読み出し、これをS905での制御量の算出に用いる追尾敏感度(ゲイン)として設定してRAM102に格納する。この後CPU201はS610に進む。
S607において、CPU101は、S601で初期設定したプレビューおよび待機カメラの追尾敏感度をRAM102から読み出し、これをS905での制御量の算出に用いる追尾敏感度として設定してRAM102に格納する。この後CPU201はS608に進む。
S608において、CPU101は、S603でRAM102に格納した現在の映像配信状況においていずれかのカメラからの映像データがブレビュー中か(つまりはいずれかのカメラがプレビューカメラか)否かを判別する。プレビューカメラに対してはS610に進み、プレビューカメラ以外の待機カメラに対してはS609に進む。
S609において、待機カメラのCPU101は、S601でRAM102に格納したズームアウト値を読み出し、PTZ制御部107を介して撮像部104に受信したズームアウト値へのズーム駆動を行わせる。
S610において、CPU101は、S603でRAM102に格納した前回の映像配信状況において現在の配信カメラまたはプレビューカメラが前回の待機カメラであったか否かを判別する。前回の待機カメラであった場合はS611に進み、そうでなければS602に戻る。
S611において、前回の待機カメラであった現在の配信カメラまたはプレビューカメラのCPU101は、S601でRAM102に格納したズームイン値を読み出し、PTZ制御部107を介して撮像部104に受信したズームイン値へのズーム駆動を行わせる。
本実施例では、自動追尾機能をカメラ100に搭載した場合においても(ワークステーションを有さなくても)、映像配信状況に応じてカメラ制御パラメータを変更する。これにより、自動追尾を行う映像配信システムにおいて、視聴者に高品質の映像を視聴させることができるとともに、円滑な被写体追尾を行うことができる。
次に、本発明の実施例3について説明する。本実施例では、実施例1のワークステーション200に代えて、撮像制御装置としてのコントローラ600を有する。実施例1、2ではワークステーション200またはカメラ100が映像データから推定した被写体位置に基づいてカメラ100が制御されるが、本実施例ではユーザにより操作されるコントローラ600がカメラ100を制御する。すなわち、本実施例では、映像データからの被写体位置の推定を行わずに被写体を自動追尾するようにカメラ100を制御する。
カメラ100の制御をユーザがコントローラ600を通じて行う際には、図10に示すようにカメラ100により取得された映像50をコントローラ600(又は不図示のモニタ)に表示させることで、ユーザはその映像50を見ながらコントローラ600を操作する。この際の映像50は、スイッチャ300において選択された配信カメラまたはプレビューカメラからの配信映像またはプレビュー映像である。
その後、スイッチャ300において待機カメラが配信カメラまたはプレビューカメラに切り替えられた場合に待機カメラのズーム値が望遠側であると、映像50から被写体20が消えて被写体をロストする可能性が高くなり、再び被写体20を撮像するのに時間を要する。本実施例では、このような場合でも被写体をロストする可能性を低減しつつ、視聴者に視聴させる高品質の映像の配信を可能とする。
カメラ100、スイッチャ300およびコントローラ600はそれぞれネットワーク400を介して相互に通信可能である。これらを通信ケーブルを介して接続してもよい。
コントローラ600は、カメラ100に対して、ネットワーク400(又は通信ケーブル)を介して各カメラ100に映像ストリームの送信を要求する映像要求コマンドや各種パラメータの設定を指示する設定コマンドを送信して各カメラ100の動作を制御する。各カメラ100は、映像要求コマンドに応じて映像ストリームを映像ケーブル(又はネットワーク400)を介してコントローラ600に送信したり、設定コマンドに応じて種々のパラメータを記憶したりする。コントローラ600は、各カメラ100に対してパン、チルトおよびズームを制御するコマンドを送信することで、カメラ100の撮像画角のパンおよびチルト方向での向きや大きさを制御する。
図11には、本実施例の映像配信システムにおけるカメラ100、スイッチャ300およびコントローラ600の構成を示している。カメラ100およびスイッチャ300の構成は実施例1と同様である。
コントローラ600は、CPU601、RAM602、ROM603、通信部604、表示部605およびユーザ入力I/F606を有し、これらは内部バス607を介して相互に接続されている。
CPU601は、コントローラ600の動作全体を制御する。RAM602は、ワークメモリとして一時的に制御プログラムやデータを格納する。ROM603は、フラッシュメモリ等に代表される不揮発性記憶媒体であり、OS、各種プログラムおよび各種データの永続的な記憶領域として使用される。またROM603は、短期的な各種データの記憶領域としても使用される。
通信部604は、外部機器とネットワーク通信を行う。本実施例では、通信部604はカメラ100と通信を行う。表示部605は、液晶パネルや有機ELパネル等により構成され、カメラ100から取得した映像データやコントローラ600の設定用の画面を表示する。
ユーザ入力I/F606は、コントローラ600に設けられたボタン、ダイヤル、ジョイスティック、タッチパネル等の入力デバイスが接続され、該入力デバイスに対するユーザの操作に対応する指示をCPU601に送信する。これにより、入力デバイスに対するユーザの操作に応じた制御コマンドを送信するカメラを選択することもでき、制御コマンドを送信するカメラの選択に関する情報はRAM602に格納される。
図12のフローチャートは、コントローラ600のCPU601が制御プログラムに従って実行するカメラ制御処理を示している。本実施例ではカメラ100はコントローラ600から送信される制御コマンドに基づいて制御されるが、カメラ100が行う処理は図4と同様であるため、ここでの説明を省略する。
コントローラ600のCPU601は、コントローラ600の入力デバイス(ここではジョイスティックとする)に対する操作をユーザ入力I/F606を介して検出することで本処理を開始する。
S1201において、CPU601は、ユーザによるジョイスティックの操作を読み込む。
次にS1202において、CPU601は、ジョイスティックの操作方向と操作量を取得する。ジョイスティックの例としては、パン方向およびチルト方向のそれぞれに設けられた可変抵抗器からアナログ電圧を出力するものがある。CPU601は、このジョイスティックから出力されるアナログ電圧をA/D変換して得られるデジタル値を読み出すことで操作方向と操作量を取得する。またCPU601は、パン方向およびチルト方向のそれぞれにおいて0~1023等の所定範囲のデジタル値の変化速度をジョイスティックの操作速度(角速度)として取得することができる。
次にS1203において、CPU601は、ジョイスティックの操作方向、操作量および操作速度を予め取り決められたプロトコルに則って制御コマンドに変換してRAM602へ書き出す。
次にS1204において、CPU601は、S1203にてRAM602から制御コマンドと該制御コマンドを送信するカメラの選択に関する情報とを読み出す。そしてCPU601は、通信部604を介して制御コマンドを選択されているカメラ100へ送信する。
以上の処理により、コントローラ600に対するユーザ操作に応じたカメラ100のパン駆動およびチルト駆動の制御を行うことができる。
図13のフローチャートは、コントローラ600のCPU601が、制御プログラムに従って実行する、映像配信状況に応じてカメラ100が被写体を追尾するためのカメラ制御パラメータを変更するカメラ制御処理(撮像制御方法)を示している。
S1301において、CPU601は、カメラ制御パラメータの初期設定を行う。具体的には、ズームイン値およびズームアウト値をそれぞれROM603から読み出してRAM602に格納する。なお、初期設定のズームイン値およびズームアウト値として、ユーザ入力I/F606に接続された入力デバイスを通じてユーザが入力したパラメータ値を利用してもよい。
次にS1302において、CPU601は、通信部604やユーザ入力I/F606を介して本処理の終了を示す指示する命令を受信しているか否か(処理を継続するか否か)を確認する。受信していなければS1303へ進み、受信していれば本処理を終了する。
S1303において、CPU601は、カメラ100に対して現在の映像配信状況(配信状況情報)を送信するように指示する。該指示を受信したカメラ100のCPU101は、現在の映像配信状況をコントローラ600に送信する。現在の映像配信状況を受信したコントローラ600のCPU601は、これをRAM602に格納する。またCPU601は、既に格納済みの映像配信状況を前回の映像配信状況としてRAM602に格納する。
次にS1304において、CPU601は、S1303でRAM602に格納した現在の映像配信状況と前回の映像配信状況を比較する。これらが一致すれば(映像配信状況に変化がないと)S1302に進み、一致しない(映像配信状況が変化した)場合はS1305に進む。
S1305において、CPU601は、S1303でRAM602に格納した現在の映像配信状況においていずれかのカメラからの映像データが待機中か(すなわち、いずれかのカメラが待機カメラか)否かを判別する。待機カメラに対してはS1306に進み、待機カメラ以外の配信カメラおよびプレビューカメラに対してはS1307に進む。
S1306において、CPU601は、S1301でRAM602に格納したズームアウト値を読み出し、これを待機カメラに送信してズーム値を変更するよう指示する。該指示を受信した待機カメラのCPU101は、PTZ制御部107を介して撮像部104に受信したズームアウト値へのズーム駆動を行わせる。これにより、待機カメラが被写体をロストする可能性を低減することができる。この後CPU601はS1302に戻る。
なお、本実施例でも、待機カメラにズームアウトさせる際に予めズームアウト値を設定せずに、最小のズーム値にズームアウトさせてもよい。この場合、CPU601は、待機カメラのCPU101に対してズーム値を最小にするよう指示する。
S1307において、でコントローラ600のCPU601は、S1303でRAM602に格納した前回の映像配信状況において現在の配信カメラまたはプレビューカメラが前回の待機カメラであったか否かを判別する。前回の待機カメラであった場合はS1308に進み、そうでなければS1302に戻る。
S1308において、CPU601は、S1301でRAM602に格納したズームイン値を読み出し、これを前回に待機カメラであった現在の配信カメラまたはプレビューカメラに送信してズーム値を変更するよう指示する。該指示を受けた前回に待機カメラであった配信カメラまたはプレビューカメラのCPU101は、PTZ制御部107を介して撮像部104に受信したズームイン値へのズーム駆動を行わせる。これにより、配信カメラまたはプレビューカメラは、被写体をアップで撮像することができる。この後CPU601はS1302に戻る。
なお、配信カメラまたはプレビューカメラにズームインさせる際に予めズームイン値を設定せずに、これらのカメラが前回に待機カメラに切り替わる前(元々の配信またはプレビューカメラであったとき)のズーム値に戻すようにしてもよい。この場合、S1306でズームアウトする前に、CPU601はカメラ100にズーム値を問い合わせ、その応答としてのズーム値をRAM602に格納しておく。そしてS1308でCPU601はRAM602に格納されたズーム値を読み出し、これを現在の配信またはプレビューカメラに送信してズーム値を変更するよう指示する。
なお、本実施例ではコントローラ600がカメラ100の映像配信状況を取得し、取得した映像配信状況に基づいてカメラ100を制御するが、カメラ100が自身の映像配信状況を読み取って自身を制御してもよい。この場合、カメラ100のCPU101が、RAM102に格納されている配信カメラ、プレビューカメラおよび待機カメラの追尾敏感度、ズームイン値、ズームアウト値、現在と前回の映像配信状況を読み出してS1303~S1308の処理を行う。
以上説明した本実施例によれば、コントローラ600に対するユーザ操作に応じてカメラ100が制御される場合において、視聴者に高品質の映像を視聴させることができるとともに、円滑な被写体追尾を行うことができる。
以上の実施の形態には、以下の構成が含まれる。
(構成1)
撮像装置により生成された映像データの配信状況を取得する取得手段と、
前記撮像装置のズームを制御する制御手段とを有し、
前記制御手段は、前記配信状況に応じて、ズーム値を変更することを特徴とする撮像制御装置。
(構成2)
前記映像データから被写体を検出する検出手段を有し、
前記制御手段は、検出された前記被写体に基づいて前記ズーム値を制御することを特徴とする構成1に記載の撮像制御装置。
(構成3)
前記撮像装置が複数あり、
前記取得手段は、前記複数の撮像装置のそれぞれにより生成された複数の映像データの前記配信状況を取得し、
前記制御手段は、前記複数の撮像装置のそれぞれの前記ズーム値を前記配信状況に応じて変更することを特徴とする構成1または2に記載の撮像制御装置。
(構成4)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記待機状態において前記配信状態よりも前記ズーム値を広角側とすることを特徴とする構成1から3のいずれか1つに記載の撮像制御装置。
(構成5)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、
前記配信状態から前記待機状態になった際に前記配信状態での前記ズーム値を記憶し、
前記待機状態から前記配信状態になった際に、前記ズーム値を前記記憶されたズーム値に変更することを特徴とする構成1から4のいずれか1つに記載の撮像制御装置。
(構成6)
前記配信状況は、前記映像データが配信されている配信状態、配信を待機している待機状態および前記待機状態より先に前記配信状態となり得るプレビュー状態を含み、
前記制御手段は、前記プレビュー状態と前記待機状態とで前記ズーム値を変更することを特徴とする構成1から5のいずれか1つに記載の撮像制御装置。
(構成7)
前記制御手段は、前記待機状態において前記プレビュー状態よりも前記ズーム値を広角側とすることを特徴とする構成6に記載の撮像制御装置。
(構成8)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記配信状態において前記待機状態よりもズーム速度を遅くすることを特徴とする構成1から7のいずれか1つに記載の撮像制御装置。
(構成9)
前記映像データから被写体を検出する検出手段を有し、
前記制御手段は、
検出された前記被写体の位置に応じて前記撮像装置の撮像方向を制御し、
前記配信状況に応じて、前記撮像方向を制御するためのパラメータを変更することを特徴とする構成1から8のいずれか1つに記載の撮像制御装置。
(構成10)
前記パラメータは、前記被写体の位置の変化に対する前記撮像方向の制御の速さに関する敏感度であることを特徴とする構成9に記載の撮像制御装置。
(構成11)
撮像装置により生成された映像データの配信状況を取得する取得手段と、
前記映像データから被写体を検出する検出手段と、
検出された前記被写体の位置に応じて前記撮像装置の撮像方向を制御する制御手段とを有し、
前記制御手段は、前記配信状況に応じて、前記撮像方向を制御するためのパラメータを変更することを特徴とする撮像制御装置。
(構成12)
前記パラメータは、前記被写体の位置の変化に対する前記撮像方向の制御の速さに関する敏感度であることを特徴とする構成11に記載の撮像制御装置。
(構成13)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記配信状態において前記待機状態よりも前記速さが遅くなるように前記敏感度を設定することを特徴とする構成12に記載の撮像制御装置。
(構成14)
前記配信状況は、前記映像データが配信されている配信状態、配信を待機している待機状態および前記待機状態より先に前記配信状態となり得るプレビュー状態を含み、
前記制御手段は、前記配信状態と前記プレビュー状態とで前記敏感度を変更することを特徴とする構成11から13のいずれか1つに記載の撮像制御装置。
(構成15)
前記制御手段は、前記配信状態において前記プレビュー状態よりも前記速さが遅くなるように前記敏感度を設定することを特徴とする構成14に記載の撮像制御装置。
(構成16)
前記制御手段は、
前記被写体の動きに対して前記撮像方向を制御しない不感領域を設定し、
前記パラメータは、前記不感領域の大きさであることを特徴とする構成11から16のいずれか1つに記載の撮像制御装置。
(構成17)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記配信状態において前記待機状態よりも前記不感領域の大きさを大きくすることを特徴とする構成16に記載の撮像制御装置。
(構成18)
撮像を行って映像データを生成する撮像部と、
構成1から17のいずれか一項に記載の撮像制御装置とを有することを特徴とする撮像装置。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。
100 カメラ
101 CPU
200 ワークステーション
201 CPU
300 スイッチャ
301 CPU
600 コントローラ
601 CPU

Claims (21)

  1. 撮像装置により生成された映像データの配信状況を取得する取得手段と、
    前記撮像装置のズームを制御する制御手段とを有し、
    前記制御手段は、前記配信状況に応じて、ズーム値を変更することを特徴とする撮像制御装置。
  2. 前記映像データから被写体を検出する検出手段を有し、
    前記制御手段は、検出された前記被写体に基づいて前記ズーム値を制御することを特徴とする請求項1に記載の撮像制御装置。
  3. 前記撮像装置が複数あり、
    前記取得手段は、前記複数の撮像装置のそれぞれにより生成された複数の映像データの前記配信状況を取得し、
    前記制御手段は、前記複数の撮像装置のそれぞれの前記ズーム値を前記配信状況に応じて変更することを特徴とする請求項1に記載の撮像制御装置。
  4. 前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
    前記制御手段は、前記待機状態において前記配信状態よりも前記ズーム値を広角側とすることを特徴とする請求項1に記載の撮像制御装置。
  5. 前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
    前記制御手段は、
    前記配信状態から前記待機状態になった際に前記配信状態での前記ズーム値を記憶し、
    前記待機状態から前記配信状態になった際に、前記ズーム値を前記記憶されたズーム値に変更することを特徴とする請求項1に記載の撮像制御装置。
  6. 前記配信状況は、前記映像データが配信されている配信状態、配信を待機している待機状態および前記待機状態より先に前記配信状態となり得るプレビュー状態を含み、
    前記制御手段は、前記プレビュー状態と前記待機状態とで前記ズーム値を変更することを特徴とする請求項1に記載の撮像制御装置。
  7. 前記制御手段は、前記待機状態において前記プレビュー状態よりも前記ズーム値を広角側とすることを特徴とする請求項6に記載の撮像制御装置。
  8. 前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
    前記制御手段は、前記配信状態において前記待機状態よりもズーム速度を遅くすることを特徴とする請求項1に記載の撮像制御装置。
  9. 前記映像データから被写体を検出する検出手段を有し、
    前記制御手段は、
    検出された前記被写体の位置に応じて前記撮像装置の撮像方向を制御し、
    前記配信状況に応じて、前記撮像方向を制御するためのパラメータを変更することを特徴とする請求項1に記載の撮像制御装置。
  10. 前記パラメータは、前記被写体の位置の変化に対する前記撮像方向の制御の速さに関する敏感度であることを特徴とする請求項9に記載の撮像制御装置。
  11. 撮像装置により生成された映像データの配信状況を取得する取得手段と、
    前記映像データから被写体を検出する検出手段と、
    検出された前記被写体の位置に応じて前記撮像装置の撮像方向を制御する制御手段とを有し、
    前記制御手段は、前記配信状況に応じて、前記撮像方向を制御するためのパラメータを変更することを特徴とする撮像制御装置。
  12. 前記パラメータは、前記被写体の位置の変化に対する前記撮像方向の制御の速さに関する敏感度であることを特徴とする請求項11に記載の撮像制御装置。
  13. 前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
    前記制御手段は、前記配信状態において前記待機状態よりも前記速さが遅くなるように前記敏感度を設定することを特徴とする請求項12に記載の撮像制御装置。
  14. 前記配信状況は、前記映像データが配信されている配信状態、配信を待機している待機状態および前記待機状態より先に前記配信状態となり得るプレビュー状態を含み、
    前記制御手段は、前記配信状態と前記プレビュー状態とで前記敏感度を変更することを特徴とする請求項11に記載の撮像制御装置。
  15. 前記制御手段は、前記配信状態において前記プレビュー状態よりも前記速さが遅くなるように前記敏感度を設定することを特徴とする請求項14に記載の撮像制御装置。
  16. 前記制御手段は、
    前記被写体の動きに対して前記撮像方向を制御しない不感領域を設定し、
    前記パラメータは、前記不感領域の大きさであることを特徴とする請求項11に記載の撮像制御装置。
  17. 前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
    前記制御手段は、前記配信状態において前記待機状態よりも前記不感領域の大きさを大きくすることを特徴とする請求項16に記載の撮像制御装置。
  18. 撮像を行って映像データを生成する撮像部と、
    請求項1から17のいずれか一項に記載の撮像制御装置とを有することを特徴とする撮像装置。
  19. 撮像装置により生成された映像データの配信状況を取得するステップと、
    前記撮像装置のズームを制御するステップとを有し、
    前記ズームを制御するステップにおいて、前記配信状況に応じて、ズーム値を変更することを特徴とする撮像制御方法。
  20. 撮像装置により生成された映像データの配信状況を取得するステップと、
    前記映像データから被写体を検出するステップと、
    検出された前記被写体の位置に応じて前記撮像装置の撮像方向を制御するステップとを有し、
    前記撮像方向を制御するステップにおいて、前記配信状況に応じて、前記撮像方向を制御するためのパラメータを変更することを特徴とする撮像制御方法。
  21. 請求項19または20に記載の撮像制御方法をコンピュータに実行させることを特徴とするプログラム。
JP2022137841A 2022-08-31 2022-08-31 撮像制御装置、撮像装置、映像配信システムおよび撮像制御方法 Pending JP2024033919A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022137841A JP2024033919A (ja) 2022-08-31 2022-08-31 撮像制御装置、撮像装置、映像配信システムおよび撮像制御方法
EP23192568.6A EP4333447A1 (en) 2022-08-31 2023-08-22 Imaging control apparatus, image pickup apparatus, imaging control method, and program
CN202311104495.8A CN117641126A (zh) 2022-08-31 2023-08-30 摄像控制设备、摄像设备、摄像控制方法和存储介质
US18/458,850 US20240073525A1 (en) 2022-08-31 2023-08-30 Imaging control apparatus, image pickup apparatus, imaging control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022137841A JP2024033919A (ja) 2022-08-31 2022-08-31 撮像制御装置、撮像装置、映像配信システムおよび撮像制御方法

Publications (1)

Publication Number Publication Date
JP2024033919A true JP2024033919A (ja) 2024-03-13

Family

ID=87762691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022137841A Pending JP2024033919A (ja) 2022-08-31 2022-08-31 撮像制御装置、撮像装置、映像配信システムおよび撮像制御方法

Country Status (4)

Country Link
US (1) US20240073525A1 (ja)
EP (1) EP4333447A1 (ja)
JP (1) JP2024033919A (ja)
CN (1) CN117641126A (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11082665B2 (en) * 2010-11-05 2021-08-03 Razberi Secure Technologies, Llc System and method for a security system
US10313417B2 (en) * 2016-04-18 2019-06-04 Qualcomm Incorporated Methods and systems for auto-zoom based adaptive video streaming
JP7358116B2 (ja) 2019-08-21 2023-10-10 キヤノン株式会社 撮像装置、制御装置、プログラム、記憶媒体及び制御方法

Also Published As

Publication number Publication date
US20240073525A1 (en) 2024-02-29
EP4333447A1 (en) 2024-03-06
CN117641126A (zh) 2024-03-01

Similar Documents

Publication Publication Date Title
US7848628B2 (en) Camera system, camera control apparatus, panorama image making method and computer program product
KR101299613B1 (ko) 제어 장치, 제어 방법, 카메라 시스템 및 기록 매체
CN106454065B (zh) 信息处理装置及其控制方法
TWI461057B (zh) 控制裝置,相機系統及程式
US9325970B2 (en) Imaging control device and imaging control method
US20110012998A1 (en) Imaging device, imaging method and recording medium
US20040179121A1 (en) System and method for displaying captured images according to imaging device position
JP4760896B2 (ja) カメラ制御装置及びカメラ制御方法
US20110090341A1 (en) Intruding object detection system and controlling method thereof
US11823715B2 (en) Image processing device and image processing method
JP2016082556A (ja) 制御装置及びその制御方法、プログラム
JP2019205161A (ja) 撮像装置、撮像装置の制御方法およびプログラム
US11128764B2 (en) Imaging apparatus, control method, and non-transitory computer readable medium
EP0989747B1 (en) Television lens apparatus adapted for a virtual studio
JP2008301191A (ja) 映像監視システム、映像監視制御装置、映像監視制御方法、及び映像監視制御用プログラム
JP2024033919A (ja) 撮像制御装置、撮像装置、映像配信システムおよび撮像制御方法
JP7386307B2 (ja) ビデオストリームを送信するための方法およびシステム
JPH09116886A (ja) 画像情報通信装置
US10567665B2 (en) Display control device and display control system
KR20090028043A (ko) 촬영 화면 기반의 화면 지정이 가능한 촬영 장치 및 화면지정 방법
US20240022812A1 (en) Image capturing system, control apparatus, image capturing apparatus, and display apparatus constituting the system, control method, and display method
JP2021056809A (ja) 表示制御装置、方法及びプログラム
JP2024010640A (ja) 撮像システム及びそれを構成する制御装置、撮像装置、制御方法
US20230269360A1 (en) Electronic device and method for controlling electronic device
JP2024033741A (ja) 制御装置、撮像装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240724