JP2024033919A - 撮像制御装置、撮像装置、映像配信システムおよび撮像制御方法 - Google Patents
撮像制御装置、撮像装置、映像配信システムおよび撮像制御方法 Download PDFInfo
- Publication number
- JP2024033919A JP2024033919A JP2022137841A JP2022137841A JP2024033919A JP 2024033919 A JP2024033919 A JP 2024033919A JP 2022137841 A JP2022137841 A JP 2022137841A JP 2022137841 A JP2022137841 A JP 2022137841A JP 2024033919 A JP2024033919 A JP 2024033919A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- distribution
- camera
- video data
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 148
- 238000000034 method Methods 0.000 title claims description 77
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 230000035945 sensitivity Effects 0.000 claims description 47
- 230000008859 change Effects 0.000 claims description 22
- 230000008569 process Effects 0.000 description 60
- 238000004891 communication Methods 0.000 description 32
- 238000012545 processing Methods 0.000 description 15
- 230000004044 response Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000004091 panning Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- WBMKMLWMIQUJDP-STHHAXOLSA-N (4R,4aS,7aR,12bS)-4a,9-dihydroxy-3-prop-2-ynyl-2,4,5,6,7a,13-hexahydro-1H-4,12-methanobenzofuro[3,2-e]isoquinolin-7-one hydrochloride Chemical compound Cl.Oc1ccc2C[C@H]3N(CC#C)CC[C@@]45[C@@H](Oc1c24)C(=O)CC[C@@]35O WBMKMLWMIQUJDP-STHHAXOLSA-N 0.000 description 3
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/685—Vibration or motion blur correction performed by mechanical compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/76—Circuitry for compensating brightness variation in the scene by influencing the image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】配信される映像データを生成する撮像装置を適切に制御する。【解決手段】撮像制御装置200は、撮像装置100により生成された映像データの配信状況を取得する取得手段201と、撮像装置のズームを制御する制御手段201とを有する。制御手段は、配信状況に応じて、ズーム値を変更する。また、映像データから被写体を検出する検出手段206を有し、制御手段は、検出された被写体の位置に応じて撮像装置の撮像方向を制御し、配信状況に応じて、撮像方向を制御するためのパラメータを変更する。【選択図】図1
Description
本発明は、撮像装置(カメラ)により生成された映像データを配信する映像配信システムにおいて用いられる撮像制御技術に関する。
上記のような映像配信システムにおいて。AI(Artificial Intelligence)により検出した特定の被写体を自動追尾するようにカメラを制御する自動追尾技術が用いられる場合がある。ユーザは被写体を自動追尾しているカメラからの映像をスイッチャで切り替えながら配信することができる。この際、配信中のカメラの映像は視聴者が見るため、映像品質を損なわないようなカメラ制御が求められる。
特許文献1には、カメラがスイッチャから映像の使用状態を取得し、該カメラからの映像が配信中である場合にはパンおよびチルトの駆動速度を制限することで配信中の映像品質を損なわないようにするカメラ制御が開示されている。
一方、自動追尾技術を利用した映像配信システムにおいて映像配信中でないカメラについては、映像品質を損なわないこととともに、自動追尾が円滑に続けられることも求められる。
本発明は、配信される映像データを生成する撮像装置を適切に制御することができるようにした撮像制御装置等を提供する。
本発明の一側面としての撮像制御装置は、撮像装置により生成された映像データの配信状況を取得する取得手段と、撮像装置のズームを制御する制御手段とを有する。制御手段は、配信状況に応じて、ズーム値を変更することを特徴とする。本発明の他の一側面としての撮像制御装置は、撮像装置により生成された映像データの配信状況を取得する取得手段と、映像データから被写体を検出する検出手段と、検出された被写体の位置に応じて撮像装置の撮像方向を制御する制御手段とを有する。制御手段は、配信状況に応じて、撮像方向を制御するためのパラメータを変更することを特徴とする。なお、上記撮像制御装置を有する撮像装置も、本発明の他の一側面を構成する。
また本発明の他の一側面としての撮像制御方法は、撮像装置により生成された映像データの配信状況を取得するステップと、撮像装置のズーム値を制御するステップとを有する。ズームを制御するステップにおいて、配信状況に応じて、ズーム値を変更することを特徴とする。さらに本発明の他の一側面としての撮像制御方法は、撮像装置により生成された映像データの配信状況を取得するステップと、映像データから被写体を検出するステップと、検出された被写体の位置に応じて撮像装置の撮像方向を制御するステップとを有する。撮像方向を制御するステップにおいて、配信状況に応じて、撮像方向を制御するためのパラメータを変更することを特徴とする。なお、上記各撮像制御方法をコンピュータに実行させるプログラムも、本発明の他の一側面を構成する。
本発明によれば、配信される映像データを生成する撮像装置を適切に制御することができる。
以下、本発明の実施例について図面を参照しながら説明する。
[映像配信システム10の構成]
図1は、本発明の実施例1である映像配信システムを示している。映像配信システム10は、被写体20を含むシーンをそれぞれ撮像する複数の撮像装置としてのカメラ100(100a、100b)と、ワークステーション200と、スイッチャ300とにより構成されている。カメラ100とワークステーション200は、ネットワーク400を介して相互に通信可能に接続されている。接続形式や通信プロトコルはどのようなものであってもよい。また、カメラ100とワークステーション200を、ネットワーク400を介さずに通信ケーブルを用いて直接接続してもよい。カメラ100の数は、3つ以上であってもよい。
図1は、本発明の実施例1である映像配信システムを示している。映像配信システム10は、被写体20を含むシーンをそれぞれ撮像する複数の撮像装置としてのカメラ100(100a、100b)と、ワークステーション200と、スイッチャ300とにより構成されている。カメラ100とワークステーション200は、ネットワーク400を介して相互に通信可能に接続されている。接続形式や通信プロトコルはどのようなものであってもよい。また、カメラ100とワークステーション200を、ネットワーク400を介さずに通信ケーブルを用いて直接接続してもよい。カメラ100の数は、3つ以上であってもよい。
撮像制御装置としてのワークステーション200は、ネットワーク400(又は通信ケーブル)を介して各カメラ100に映像データとしての映像ストリームの送信を要求する映像要求コマンドや各種パラメータの設定を指示する設定コマンドを送信して各カメラ100の動作を制御する。各カメラ100は、映像要求コマンドに応じて映像ストリームを映像ケーブル(又はネットワーク400)を介してワークステーション200に送信したり、設定コマンドに応じて種々のパラメータを記憶したりする。またワークステーション200は、ネットワーク400(又は通信ケーブル)を介して各カメラ100にパン、チルトおよびズームを制御するコマンドを送信して、各カメラ100の撮像画角のパンおよびチルト方向での向きや大きさを制御する。
複数のカメラ100とスイッチャ300における複数の映像入力部はそれぞれ映像ケーブルで接続されており、各カメラ100が出力した映像ストリームはスイッチャ300に入力される。スイッチャ300は、複数のカメラ100からの映像ストリームから視聴用に不図示の外部装置に配信する映像ストリーム(以下、配信映像という)や、配信映像の次に外部装置に配信する映像ストリーム(以下、プレビュー映像という)を選択する。また、各カメラ100とスイッチャ300はネットワーク400を介して相互に通信可能に接続されている。接続形式や通信プロトコルはどのようなものであってもよい。また、カメラ100とスイッチャ300を、ネットワーク400を介さずに通信ケーブルを用いて直接接続してもよい。
スイッチャ300は、複数のカメラ100に対して配信映像を取得するカメラ(以下、配信カメラという)やプレビュー映像を取得するカメラ(以下、プレビューカメラ)に選択されたことを通知するための選択コマンドを送信することができる。配信カメラを示す選択コマンドを受信したカメラは配信中ランプ30を点灯させ、プレビューカメラを示す選択コマンドを受信したカメラはプレビュー中ランプ40を点灯させる。またスイッチャ300は、複数のカメラ100のうち配信映像やプレビュー映像ではない映像ストリーム(以下、待機映像という)を取得するカメラ(以下、待機カメラという)には、待機カメラに選択されたことを通知する選択コマンドを送信することもできる。待機映像は、配信映像でもプレビュー映像でもない映像である。なお、待機映像から配信映像にすることも可能である。待機カメラを示す選択コマンドを受信したカメラは、配信中ランプ30とプレビュー中ランプ40を消灯せる。
本実施例では、複数のカメラ100のうちどのカメラが配信カメラ、プレビューカメラおよび待機カメラとして選択されているか、つまりはどのカメラからの映像データが配信映像、プレビュー映像および待機映像として選択されているかを映像配信状況という。映像配信状況は、映像データの使用状態と言い換えることもできる。配信映像として選択(使用)されている状態は配信状態に相当し、待機映像として選択されている(配信を待機している)状態は待機状態に相当する。また、プレビュー映像として選択されている(待機状態より先に配信状態となり得る)状態はプレビュー状態に相当する。
ワークステーション200は、複数のカメラ100に対して現在の映像配信状況を問い合わせるコマンドを送信することで、各カメラの現在の映像配信状況を示す情報(以下、配信状況情報という)を取得することができる。
図2は、本実施例の映像配信システムにおけるカメラ100、ワークステーション200およびスイッチャ300の構成を示している。
[カメラ100の構成]
カメラ100は、CPU101、RAM102、ROM103、撮像部104、映像出力部105、通信部106、PTZ制御部107および配信状況表示部108を有し、これらは内部バス109を介して相互に接続されている。
カメラ100は、CPU101、RAM102、ROM103、撮像部104、映像出力部105、通信部106、PTZ制御部107および配信状況表示部108を有し、これらは内部バス109を介して相互に接続されている。
CPU101は、カメラ100の動作全体を制御する。RAM102は、ワークメモリとして一時的に制御プログラムやデータを格納する。ROM103は、CPU101が実行する制御プログラムを記憶する。撮像部104は、光学系により形成された光学像を撮像素子により光電変換し、該撮像素子からの出力信号から映像データを生成する。撮像素子は、CMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等の光電変換素子により構成される。
映像出力部105は、撮像部104により生成された映像データを外部に出力するためのインターフェースであり、SDI(Serial Digital Interface)やHDMI(High-Definition Multimedia Interface)(登録商標)等で構成される。通信部106は、外部機器とネットワーク通信を行う。本実施例では、通信部106は、ワークステーション200やスイッチャ300との通信を行う。
PTZ(Panoramac Tilt Zoom)制御部107は、撮像画角の大きさを変更するために撮像部104の光学系を駆動するズーム駆動部と、撮像画角の向き(撮像方向)を変更するために撮像部104をパン駆動およびチルト駆動するパン/チルト駆動部とを含む。なお、本実施例では、撮像部104の光学系を駆動して光学ズームを行うが、映像データの拡大・縮小を行う電子ズームを行ってもよい。
配信状況表示部108は、CPU101の指示に基づいて配信カメラやプレビューカメラに選択されたことを点灯によりユーザに知らせる、図1に示した配信中ランプ30およびプレビュー中ランプ40を含む。CPU101は、通信部106を介してスイッチャ300から配信カメラやプレビューカメラに選択されたことを示す選択コマンドを受信すると、配信状況表示部108に対応するランプを点灯させるように指示する。例えば、配信カメラに選択された場合は配信中ランプ30を赤点灯させ、プレビューカメラに選択された場合はプレビュー中ランプ40を緑点灯させる。また、CPU101は、待機カメラに選択されたことを示す選択コマンドを受信すると、配信状況表示部108に配信中ランプ30およびプレビュー中ランプ40を消灯するように指示する。CPU101は、受信した選択コマンドを今回選択コマンドとしてRAM102に格納するとともに、以前に受信して格納していた前回の選択コマンドを前回コマンドとしてRAM102に格納する。
[ワークステーション200の構成]
ワークステーション200は、CPU201、RAM202、ROM203、通信部204、映像入力部205、推論部206およびユーザ入力I/F207を有し、これらは内部バス208を介して相互に接続されている。
ワークステーション200は、CPU201、RAM202、ROM203、通信部204、映像入力部205、推論部206およびユーザ入力I/F207を有し、これらは内部バス208を介して相互に接続されている。
取得手段および制御手段としてのCPU201は、ワークステーション200の動作全体を制御する。RAM202は、ワークメモリとして一時的に制御プログラムやデータを格納する。ROM203は、フラッシュメモリ、HDD、SSD、SDカード等に代表される不揮発性を持った記憶装置で、OS、各種プログラムおよび各種データの永続的な記憶領域として使用され、さらに短期的な各種データの記憶領域としても使用される。
通信部204は、外部機器とネットワーク通信を行う。本実施例では、通信部204は、カメラ100と通信を行う。映像入力部205は、カメラ100から映像データを受信するためのインターフェースであり、SDIやHDMIで構成される。
検出手段としての推論部206は、GPU(Graphics Processing Unit)やFPGA(Field -Programmable Gate Array)等で構成され、映像入力部205等から受信した映像データから特定の物体の有無や位置を推定(検出)する推論処理を実行する。なお、推論部206が行う推論処理をCPU201が行ってもよい。
ユーザ入力I/F207は、マウス、キーボード、タッチパネル等の入力デバイスが接続されるUSB(Universal Serial Bus)等のインターフェースであり、該入力デバイスに対するユーザの操作に対応する指示をCPU201に送信する。
[スイッチャ300の構成]
スイッチャ300は、CPU301、RAM302、映像入力部303、映像スイッチ制御部304、映像出力部305、ユーザ入力I/F306および通信部307を有し、これらは内部バス308を介して相互に接続されている。
スイッチャ300は、CPU301、RAM302、映像入力部303、映像スイッチ制御部304、映像出力部305、ユーザ入力I/F306および通信部307を有し、これらは内部バス308を介して相互に接続されている。
CPU301は、スイッチャ300の動作全体を制御する。RAM302は、ワークメモリとして一時的に制御プログラムやデータを格納する。
映像入力部303(A303a、B303b)は、カメラ100からの映像データを受信するためのインターフェースであり、SDIやHDMIで構成される。映像入力部A303aはカメラ100aからの映像データを受信し、映像入力部B303bはカメラ100bからの映像データを受信する。映像入力部303の数は、カメラ100の数に対応していればよく、3つ以上であってもよい。
映像スイッチ制御部304は、映像入力部303に入力されている複数の映像データから後述するユーザ入力I/F306により選択された映像データを、後述する映像出力部305に出力する。
映像出力部305は、映像データを不図示のライブ配信機器や番組録画装置に出力するためのインターフェースであり、SDIやHDMIで構成される。
ユーザ入力I/F306は、スイッチャ300に対するユーザからの操作の受け付けるためのインターフェースであり、ボタン、ダイヤル、ジョイスティック、タッチパネル等で構成される。CPU301は、ユーザ入力I/F306を通じたユーザによる映像配信状況を切り替える操作に応じて、映像入力部303に入力されているカメラ100からの映像データのうち、配信映像に使用する映像データやプレビュー映像に使用する映像データを選択する。そしてCPU301は、映像スイッチ制御部304に対して選択結果に応じて出力する映像データを切り替えるように指示する。例えば、映像入力部A303aへの入力映像データが配信映像に、映像入力部B303bへの入力映像データがプレビュー映像に選択されている状態でこれらを逆に切り替える操作が行われると、CPU301は以下のように動作する。まずCPU301は、映像入力部A303aに接続されたカメラ100aに対して通信部307を介してカメラ100aがプレビューカメラに(カメラ100aからの映像データがプレビュー映像に)選択されたことを通知する選択コマンドを送信する。また、映像入力部303bに接続されたカメラ100bに対して通信部307を介してカメラ100bが配信カメラに(カメラ100bからの映像データが配信映像に)選択されたことを通知する選択コマンドを送信する。次にCPU301は、カメラ100aからの映像データがプレビュー映像として使用され、カメラ100bからの映像データが配信映像として使用されるという切り替え後の映像配信状況を示すデータをRAM302に格納する。
[被写体追尾処理]
次に、ワークステーション200がカメラ100からの映像データから検出した被写体に応じて、該被写体を追尾するようにカメラ100を制御する処理について説明する。図3のフローチャートは、ワークステーション200のCPU201が制御プログラムに従って実行する被写体追尾処理を示している。図4のフローチャートは、カメラ100のCPU101が制御プログラムに従って実行する被写体追尾処理を示している。図中のSはステップを意味する。
次に、ワークステーション200がカメラ100からの映像データから検出した被写体に応じて、該被写体を追尾するようにカメラ100を制御する処理について説明する。図3のフローチャートは、ワークステーション200のCPU201が制御プログラムに従って実行する被写体追尾処理を示している。図4のフローチャートは、カメラ100のCPU101が制御プログラムに従って実行する被写体追尾処理を示している。図中のSはステップを意味する。
ワークステーション200のCPU201は、通信部204やユーザ入力I/F207を介して被写体追尾を指示する命令を受信することで図3の処理を開始する。
S301において、CPU201は、通信部204やユーザ入力I/F207を介して本処理の終了を示す指示する命令を受信しているか否か(処理を継続するか否か)を確認する。受信していなければS302へ進み、受信していれば本処理を終了する。
S302において、CPU201は、ワークステーション200の映像入力部205からカメラ100が撮像により取得した映像データを受信してRAM202に格納する。
次にS303において、CPU201は、RAM202から映像データを読み出して推論部206に出力し、推論部206に被写体の種類や映像データ上での被写体の位置を推定(判定)させる。推論部206は、ディープラーニング等の機械学習を用いて作成された学習済みモデルを有し、入力データとしての画像データから出力データとしての人物等の被写体の種類や位置を示す情報とそれらの確からしさを示すスコアを出力する。本実施例では、被写体の位置の情報を、映像データ内での被写体の重心位置を示す座標として出力する。CPU201は、被写体の種類や位置を示す情報とスコアをRAM202に格納する。
次にS304において、CPU201は、カメラ100のCPU101に対して現在のカメラ100の状態を問い合わせるコマンドを送信し、それに対するカメラ100からの応答であるカメラ情報をRAM202に格納する。カメラ情報には、パンおよびチルトの最大、最小および現在の角度およびズームにおける最大、最小および現在の画角(ズーム値)といったカメラ100の駆動に関する情報や、出力する映像データの解像度およびフォーマット等の映像に関する情報が含まれる。
次にS305において、CPU201は、S303でRAM202に格納した被写体の位置の情報と後述する追尾敏感度とS304でカメラ100から取得したカメラ情報とを用いて、カメラ100に被写体を追尾させるためのパン/チルト駆動部の制御量を算出する。そして、制御量をカメラ100を制御する方法として予め取り決めているプロトコルに則って制御コマンドに変換してRAM202へ書き出す。制御量は、カメラ100のパン駆動およびチルト駆動のそれぞれにおける駆動方向と駆動速度を指定する値である。制御量を算出する手順については後述する。
次にS306において、CPU201は、S305にてRAM202へ書き出された制御コマンドをカメラ100へ送信する。そしてS301に戻る。
一方、カメラ100のCPU101は、ワークステーション200がS306で送信した制御コマンドを受信することで処理を開始する。
S401において、CPU101は受信した制御コマンドを読み出してRAM102へ書き出す。
次にS402において、CPU101は、S401にてRAM102へ書き出された制御コマンドから、パン駆動およびチルト駆動の駆動方向と駆動速度を読み出す。
次にS403において、CPU101は、S402にて読み出した値に基づいてパン駆動およびチルト駆動するための駆動パラメータを導出する。駆動パラメータは、PTZ制御部107に含まれるパン駆動用モータとチルト駆動用モータを制御するためのパラメータである。この際、受信した制御コマンドを予めRAM102に保持した変換テーブルを用いて駆動パラメータに変換してもよい。
次にS404において、CPU101は、S403で導出した駆動パラメータに基づいてPTZ制御部107を制御する。これにより、カメラ100はパン駆動およびチルト駆動して撮像方向を変更する。そしてCPU101は、本処理を終了する。
[制御量の算出と追尾敏感度]
図3中のS305における制御量の算出方法について説明する。ワークステーション200のCPU201は、撮像画角内の目標位置(例えば中心)を被写体位置に近づけるようにカメラ100を制御する。この際、CPU201は、目標位置を被写体位置に近づけるために必要なカメラ100のPTZ制御部107の制御量を算出する。具体的には、図5に示すように、目標位置から被写体位置までの距離に追尾敏感度に相当するゲインを乗算して制御量を算出する。追尾敏感度は、被写体の動き(被写体位置の変化)、つまりは目標位置から被写体位置までの距離の変化に対する撮像画角の向きの制御(変更)の速さに関するパラメータである。
図3中のS305における制御量の算出方法について説明する。ワークステーション200のCPU201は、撮像画角内の目標位置(例えば中心)を被写体位置に近づけるようにカメラ100を制御する。この際、CPU201は、目標位置を被写体位置に近づけるために必要なカメラ100のPTZ制御部107の制御量を算出する。具体的には、図5に示すように、目標位置から被写体位置までの距離に追尾敏感度に相当するゲインを乗算して制御量を算出する。追尾敏感度は、被写体の動き(被写体位置の変化)、つまりは目標位置から被写体位置までの距離の変化に対する撮像画角の向きの制御(変更)の速さに関するパラメータである。
制御量Ypは、目標位置をXt、被写体位置をXh、ゲインをKとした場合に以下の式で表される。
Yp=(Xh-Xt)×K
制御量Ypは、ゲインKが標準値に設定されると図5中の直線501aのように距離の変化に対して変化し、標準値よりも小さいゲインKが設定されると直線501bのように距離に対して緩やかに変化する。また、標準値よりも大きいゲインKが設定されると、直線501cのように距離の変化に対して急峻に変化する。このようにゲインKを変更することで制御量Ypを調整することができる。
Yp=(Xh-Xt)×K
制御量Ypは、ゲインKが標準値に設定されると図5中の直線501aのように距離の変化に対して変化し、標準値よりも小さいゲインKが設定されると直線501bのように距離に対して緩やかに変化する。また、標準値よりも大きいゲインKが設定されると、直線501cのように距離の変化に対して急峻に変化する。このようにゲインKを変更することで制御量Ypを調整することができる。
なお、このように追尾敏感度が大きければ被写体の動きに対して急峻な追尾動作を行い、追尾敏感度が小さければ被写体の動きに対して緩やかな追尾動作を行うような制御量の調整方法であれば、どのような方法を採用してもよい。
また、目標位置の近傍に、被写体位置を検出してもパン駆動やチルト駆動の制御を行わない不感領域を設定してもよい。この場合、追尾敏感度が高ければ(つまりは後述するようにプレビューカメラや待機カメラであれば)パラメータとしての不感領域の大きさを縮小し、追尾敏感度が低ければ(つまりは配信カメラであれば)不感領域の大きさを拡大するようにしてもよい。また、PTZ制御部107に対して、目標位置と被写体位置の関係にかかわらず追尾敏感度に比例した制御量を設定してもよい。さらに、目標位置と被写体位置との差の絶対値と所定の閾値とを比較し、差の絶対値が閾値を下回ればパン駆動やチルト駆動の駆動速度を減少させ、上回れば駆動速度を増加させてもよい。この場合、追尾敏感度によって閾値を変えてもよい。すなわち、追尾敏感度が大きければ閾値を減少させ、追尾敏感度が小さければ閾値を増加させてもよい。これらの方法を組み合わせて用いてもよい。
[カメラ制御処理]
図6のフローチャートは、ワークステーション200のCPU201が、制御プログラムに従って実行する、映像配信状況に応じてカメラ100が被写体を追尾するための制御パラメータ(以下、カメラ制御パラメータという)を変更するカメラ制御処理(撮像制御方法)を示している。
図6のフローチャートは、ワークステーション200のCPU201が、制御プログラムに従って実行する、映像配信状況に応じてカメラ100が被写体を追尾するための制御パラメータ(以下、カメラ制御パラメータという)を変更するカメラ制御処理(撮像制御方法)を示している。
S601において、ワークステーション200のCPU201は、被写体を追尾するためのカメラ制御パラメータの初期設定を行う。具体的には、配信カメラ、プレビューカメラおよび待機カメラのそれぞれの追尾敏感度、ズームイン時のズーム値(以下、ズームイン値という)およびズームアウト時のズーム値(以下、ズームアウト値という)をそれぞれROM203から読み出してRAM202に格納する。
配信カメラの追尾敏感度は、プレビューカメラおよび待機カメラの追尾敏感度より小さい。また、プレビューカメラと待機カメラの追尾敏感度を互いに異ならせてもよい。例えば、プレビューカメラの追尾敏感度を待機カメラの追尾敏感度より大きくしてもよい。
また、配信カメラおよびプレビューカメラのズーム値がズームイン値であり、待機カメラのズーム値がズームアウト値である。ズームイン値はズームアウト値よりも望遠側のズーム値であり、逆にズームアウト値はズームイン値よりも広角側のズーム値である。なお、配信カメラとプレビューカメラのズームイン値を互いに異ならせてもよい。例えば、プレビューカメラのズームイン値を配信カメラのズームイン値よりも広角側としてもよい。さらにズームイン値およびズームアウト値は、電子ズームにおいて用いることもできる。
また、初期設定の追尾敏感度、ズームイン値およびズームアウト値としてユーザ入力I/F207を介してユーザが入力したパラメータ値を利用してもよい。
S602において、CPU201は、CPU201は、通信部204やユーザ入力I/F207を介して本処理の終了を示す指示する命令を受信しているか否か(処理を継続するか否か)を確認する。受信していなければS603へ進み、受信していれば本処理を終了する。
S603において、CPU201は、カメラ100に現在の映像配信状況を示す配信状況情報を送信するよう指示する。該指示を受信した各カメラ100のCPU101は、現在の配信状況情報をワークステーション200に送信する。CPU201は、取得した現在の配信状況情報が示す映像配信状況をRAM202に格納し、既に格納済みの映像配信状況を前回の映像配信状況としてRAM202に格納する。なお、本ステップにおいて、CPU201は、スイッチャ300(CPU301)に対して現在の配信状況情報を送信するよう指示して、スイッチャ300から現在の配信状況情報を取得してもよい。
次にS604において、CPU201は、S603でRAM202に格納した現在の映像配信状況と前回の映像配信状況とを比較する。これらが一致すれば(映像配信状況に変化がなければ)S602に戻り、一致しない(映像配信状況が変化した)場合はS605に進む。
S605において、CPU201は、S603でRAM202に格納した現在の映像配信状況においていずれかのカメラからの映像データが配信中か(つまりはいずれかのカメラが配信カメラか)否かを判別する。配信カメラに対してはS606に進み、配信カメラ以外のカメラに対してはS607に進む。
S606において、CPU201は、S601で初期設定した配信カメラの追尾敏感度をRAM202から読み出し、これをS305での制御量の算出に用いる追尾敏感度(ゲイン)として設定してRAM202に格納する。本ステップで設定する配信カメラの追尾敏感度は、後述するS607で設定されるプレビューカメラおよび待機カメラの追尾敏感度よりも小さい。これは、映像配信中では被写体の動きに対する追従が高速すぎて映像品質が低下することを防ぐためである。この後CPU201はS610に進む。
一方、S607において、CPU201は、S601で初期設定したプレビューカメラおよび待機カメラの追尾敏感度をRAM202から読み出し、これをS305での制御量の算出に用いる追尾敏感度として設定してRAM202に格納する。本ステップで設定する追尾敏感度はS606で設定される追尾敏感度よりも大きい。これは、配信カメラ以外のカメラに被写体の動きを高速で追尾させるためである。この後CPU201はS608に進む。
S608において、CPU201は、S603でRAM202に格納した現在の映像配信状況においていずれかのカメラからの映像データがプレビュー中か(つまりはいずれかのカメラがプレビューカメラか)否かを判別する。プレビューカメラに対してはS610に進み、プレビューカメラ以外の待機カメラに対してはS609に進む。
S609において、CPU201は、S601でRAM202に格納したズームアウト値を読み出し、これを待機カメラに送信してズーム値を変更するよう指示する。該指示を受信した待機カメラのCPU101は、PTZ制御部107を介して撮像部104に受信したズームアウト値へのズーム駆動を行わせる。これにより、待機カメラが被写体をロストする可能性を低減することができる。この際のズーム速度を配信カメラでのズーム速度より速くしてもよい。この後CPU201はS602に戻る。
なお、待機カメラにズームアウトさせる際に予めズームアウト値を設定せずに、最小のズーム値(広角端)にズームアウトさせてもよい。この場合、ワークステーション200のCPU201は、待機カメラのCPU101に対してズーム値を最小にするよう指示する。また、ワークステーション200のCPU201は、推論部206の出力データを用いてズーム値を決定してもよい。
S610において、ワークステーション200のCPU201は、S603でRAM202に格納した前回の映像配信状況において現在の配信カメラまたはプレビューカメラが前回の待機カメラであったか否かを判別する。前回の待機カメラであった場合はS611に進み、そうでなければS602に戻る。
S611において、ワークステーション200のCPU201は、S601でRAM202に格納したズームイン値を読み出し、これを前回に待機カメラであった現在の配信カメラまたはプレビューカメラに送信してズーム値を変更するよう指示する。該指示を受けた前回に待機カメラであった配信カメラまたはプレビューカメラのCPU101は、PTZ制御部107を介して撮像部104に受信したズームイン値へのズーム駆動を行わせる。これにより、配信カメラおよびプレビューカメラは、被写体をアップで撮像することができる。この際の配信カメラのズーム速度を待機カメラのズーム速度より遅くしてもよい。これにより配信映像の急峻な画角変化を抑えて違和感のない映像を提供できる。またプレビューカメラのズーム速度を待機カメラのズーム速度と同様に高速にしてもよいし、配信カメラと待機カメラの中間のズーム速度としてもよい。
なお、配信カメラまたはプレビューカメラにズームインさせる際に予めズームイン値を設定せずに、これらのカメラが待機カメラに切り替わる前(元々の配信またはプレビューカメラであったとき)のズーム値に戻すようにしてもよい。この場合、S609でズームアウトする前に、ワークステーション200のCPU201はカメラ100にズーム値を問い合わせ、その応答としてのズーム値をRAM202に格納しておく。そしてS611でCPU201はRAM202に格納されたズーム値を読み出し、これを現在の配信またはプレビューカメラに送信してズーム値を変更するよう指示する。
また、ワークステーション200のCPU201は、推論部206の出力データを用いてズーム値を決定してもよい。例えば、推論部206から被写体の四隅の位置情報を取得して被写体の大きさを算出し、その被写体が所定の大きさになるようにズーム値を算出する。そして、これを現在の配信またはプレビューカメラに送信してズーム値を変更するよう指示してもよい。
以上説明した本実施例によれば、カメラ100の映像配信状況をワークステーション200が取得し、その映像配信状況に応じてカメラ制御パラメータ(追尾敏感度やズーム値等)を変更する。これにより、自動追尾を行う映像配信システムにおいて、視聴者に高品質の映像を視聴させることができるとともに、円滑な被写体追尾を行うことができる。すなわち、配信される映像データを生成するカメラ100の適切な制御を行うことができる。
なお、本実施例では、配信カメラ、プレビューカメラおよび待機カメラの3種類のカメラを使用する場合について説明したが、配信カメラと待機カメラの2種類のカメラを使用してもよい。この場合、図6中のS607の処理の後は、S608の処理は行わずにS609の処理を行う。
次に、本発明の実施例2について説明する。実施例1では、ワークステーション200が映像データから被写体位置を推定し、その結果に基づいてカメラ100の制御を行う。これに対して、本実施例では、同様の推定機能および制御機能をカメラ100が持つことで、ワークステーションを含まない映像配信システムを構成している。すなわち、カメラ100は撮像制御装置を含む。
図7は、本実施例の映像配信システムを示している。図8は、本実施例の映像配信システムにおけるカメラ100(100a、100b)およびスイッチャ300の構成を示している。カメラ100は、図2に示した構成要素に加えて推論部110を有する。スイッチャ300の構成は、図2に示したスイッチャ300と同じである。ただし、本実施例では、スイッチャ300は図6に示した処理は実行しない。
図9は、本実施例においてカメラ100のCPU101が制御プログラムに従って実行する被写体追尾処理を示している。
CPU101は、通信部106を介して被写体追尾を指示する命令を受信することで図9の処理を開始する。
S901において、CPU101は、通信部106を介して本処理の終了を示す指示する命令を受信しているか否か(処理を継続するか否か)を確認する。受信していなければS902へ進み、受信していれば本処理を終了する。
S902において、CPU101は、撮像部104から撮像により取得された映像データをRAM102に格納する。
次にS903において、CPU101は、RAM202から映像データを読み出して推論部110に出力し、推論部110に被写体の種類や映像データ上での被写体の位置を推定(判定)させる。推論部110は、図2に示した推論部206と同様に映像データから出力データとしての人物等の被写体の種類や位置を示す情報とそれらの確からしさを示すスコアを出力し、被写体の種類や位置を示す情報とスコアをRAM102に格納する。
次にS904において、CPU101は、PTZ制御部107にカメラ100の駆動状態を問い合わせる。カメラ100の駆動状態には、パンおよびチルトの最大、最小および現在の角度およびズームにおける最大、最小および現在のズーム値が含まれる。またCPU101は、RAM102やROM103から、映像データの解像度およびフォーマット等のカメラ100の設定状態を読み出す。
次にS905において、CPU101は、S903にてRAM102に格納した被写体位置の情報と追尾敏感度とS904にて取得したカメラ100の駆動状態から、被写体を追尾するための制御コマンド(制御量)を算出する。制御量の算出方法は、図3中のS305と同様である。
次にS906において、CPU101は、S905にて算出した制御コマンドから、パン駆動およびチルト駆動するための駆動パラメータを導出する。
そしてS907において、CPU101は、S906にて導出した駆動パラメータに基づいてPTZ制御部107を制御する。これにより、カメラ100はパン駆動およびチルト駆動して撮像方向を変更する。そしてCPU101はS901に戻る。
本実施例によれば、ワークステーションを有さなくても、被写体を追尾するようにカメラ100を動作させることができる。
本実施例では、実施例1において図6に示した処理と同様のカメラ制御処理をカメラ100のCPU101が行うことで、カメラ100の映像配信状況に応じた被写体を追尾するためのカメラ制御パラメータを変更する。
S601において、CPU101は、カメラ制御パラメータの初期設定を行う。具体的には、配信カメラ、プレビューカメラおよび待機カメラのそれぞれの追尾敏感度、ズームイン値およびズームアウト値をそれぞれROM103から読み出してRAM102に格納する。なお、初期設定の追尾敏感度、ズームイン値およびズームアウト値として、カメラ100に設けられた不図示のユーザ入力I/Fを介してユーザが入力したパラメータ値を利用してもよい。
次にS602において、CPU101は、通信部106を介して本処理の終了を示す指示する命令を受信しているか否か(処理を継続するか否か)を確認する。受信していなければS603へ進み、受信していれば本処理を終了する。
S603において、CPU101は、RAM102に格納されている現在の映像配信状況と前回の映像配信状況を読み出す。
次にS604において、CPU101は、S603で読み出した現在の映像配信状況と前回の映像配信状況を比較する。これらが一致すればS602に進み、一致しない場合はS605に進む。
S605において、CPU101は、S603で読み出した現在の映像配信状況においていずれかのカメラからの映像データが配信中か(つまりはいずれかのカメラが配信カメラか)否かを判別する。配信カメラに対してはS606に進み、配信カメラ以外のカメラに対してはS607に進む。
S606において、CPU101は、S601で初期設定した配信カメラの追尾敏感度をRAM102から読み出し、これをS905での制御量の算出に用いる追尾敏感度(ゲイン)として設定してRAM102に格納する。この後CPU201はS610に進む。
S607において、CPU101は、S601で初期設定したプレビューおよび待機カメラの追尾敏感度をRAM102から読み出し、これをS905での制御量の算出に用いる追尾敏感度として設定してRAM102に格納する。この後CPU201はS608に進む。
S608において、CPU101は、S603でRAM102に格納した現在の映像配信状況においていずれかのカメラからの映像データがブレビュー中か(つまりはいずれかのカメラがプレビューカメラか)否かを判別する。プレビューカメラに対してはS610に進み、プレビューカメラ以外の待機カメラに対してはS609に進む。
S609において、待機カメラのCPU101は、S601でRAM102に格納したズームアウト値を読み出し、PTZ制御部107を介して撮像部104に受信したズームアウト値へのズーム駆動を行わせる。
S610において、CPU101は、S603でRAM102に格納した前回の映像配信状況において現在の配信カメラまたはプレビューカメラが前回の待機カメラであったか否かを判別する。前回の待機カメラであった場合はS611に進み、そうでなければS602に戻る。
S611において、前回の待機カメラであった現在の配信カメラまたはプレビューカメラのCPU101は、S601でRAM102に格納したズームイン値を読み出し、PTZ制御部107を介して撮像部104に受信したズームイン値へのズーム駆動を行わせる。
本実施例では、自動追尾機能をカメラ100に搭載した場合においても(ワークステーションを有さなくても)、映像配信状況に応じてカメラ制御パラメータを変更する。これにより、自動追尾を行う映像配信システムにおいて、視聴者に高品質の映像を視聴させることができるとともに、円滑な被写体追尾を行うことができる。
次に、本発明の実施例3について説明する。本実施例では、実施例1のワークステーション200に代えて、撮像制御装置としてのコントローラ600を有する。実施例1、2ではワークステーション200またはカメラ100が映像データから推定した被写体位置に基づいてカメラ100が制御されるが、本実施例ではユーザにより操作されるコントローラ600がカメラ100を制御する。すなわち、本実施例では、映像データからの被写体位置の推定を行わずに被写体を自動追尾するようにカメラ100を制御する。
カメラ100の制御をユーザがコントローラ600を通じて行う際には、図10に示すようにカメラ100により取得された映像50をコントローラ600(又は不図示のモニタ)に表示させることで、ユーザはその映像50を見ながらコントローラ600を操作する。この際の映像50は、スイッチャ300において選択された配信カメラまたはプレビューカメラからの配信映像またはプレビュー映像である。
その後、スイッチャ300において待機カメラが配信カメラまたはプレビューカメラに切り替えられた場合に待機カメラのズーム値が望遠側であると、映像50から被写体20が消えて被写体をロストする可能性が高くなり、再び被写体20を撮像するのに時間を要する。本実施例では、このような場合でも被写体をロストする可能性を低減しつつ、視聴者に視聴させる高品質の映像の配信を可能とする。
カメラ100、スイッチャ300およびコントローラ600はそれぞれネットワーク400を介して相互に通信可能である。これらを通信ケーブルを介して接続してもよい。
コントローラ600は、カメラ100に対して、ネットワーク400(又は通信ケーブル)を介して各カメラ100に映像ストリームの送信を要求する映像要求コマンドや各種パラメータの設定を指示する設定コマンドを送信して各カメラ100の動作を制御する。各カメラ100は、映像要求コマンドに応じて映像ストリームを映像ケーブル(又はネットワーク400)を介してコントローラ600に送信したり、設定コマンドに応じて種々のパラメータを記憶したりする。コントローラ600は、各カメラ100に対してパン、チルトおよびズームを制御するコマンドを送信することで、カメラ100の撮像画角のパンおよびチルト方向での向きや大きさを制御する。
図11には、本実施例の映像配信システムにおけるカメラ100、スイッチャ300およびコントローラ600の構成を示している。カメラ100およびスイッチャ300の構成は実施例1と同様である。
コントローラ600は、CPU601、RAM602、ROM603、通信部604、表示部605およびユーザ入力I/F606を有し、これらは内部バス607を介して相互に接続されている。
CPU601は、コントローラ600の動作全体を制御する。RAM602は、ワークメモリとして一時的に制御プログラムやデータを格納する。ROM603は、フラッシュメモリ等に代表される不揮発性記憶媒体であり、OS、各種プログラムおよび各種データの永続的な記憶領域として使用される。またROM603は、短期的な各種データの記憶領域としても使用される。
通信部604は、外部機器とネットワーク通信を行う。本実施例では、通信部604はカメラ100と通信を行う。表示部605は、液晶パネルや有機ELパネル等により構成され、カメラ100から取得した映像データやコントローラ600の設定用の画面を表示する。
ユーザ入力I/F606は、コントローラ600に設けられたボタン、ダイヤル、ジョイスティック、タッチパネル等の入力デバイスが接続され、該入力デバイスに対するユーザの操作に対応する指示をCPU601に送信する。これにより、入力デバイスに対するユーザの操作に応じた制御コマンドを送信するカメラを選択することもでき、制御コマンドを送信するカメラの選択に関する情報はRAM602に格納される。
図12のフローチャートは、コントローラ600のCPU601が制御プログラムに従って実行するカメラ制御処理を示している。本実施例ではカメラ100はコントローラ600から送信される制御コマンドに基づいて制御されるが、カメラ100が行う処理は図4と同様であるため、ここでの説明を省略する。
コントローラ600のCPU601は、コントローラ600の入力デバイス(ここではジョイスティックとする)に対する操作をユーザ入力I/F606を介して検出することで本処理を開始する。
S1201において、CPU601は、ユーザによるジョイスティックの操作を読み込む。
次にS1202において、CPU601は、ジョイスティックの操作方向と操作量を取得する。ジョイスティックの例としては、パン方向およびチルト方向のそれぞれに設けられた可変抵抗器からアナログ電圧を出力するものがある。CPU601は、このジョイスティックから出力されるアナログ電圧をA/D変換して得られるデジタル値を読み出すことで操作方向と操作量を取得する。またCPU601は、パン方向およびチルト方向のそれぞれにおいて0~1023等の所定範囲のデジタル値の変化速度をジョイスティックの操作速度(角速度)として取得することができる。
次にS1203において、CPU601は、ジョイスティックの操作方向、操作量および操作速度を予め取り決められたプロトコルに則って制御コマンドに変換してRAM602へ書き出す。
次にS1204において、CPU601は、S1203にてRAM602から制御コマンドと該制御コマンドを送信するカメラの選択に関する情報とを読み出す。そしてCPU601は、通信部604を介して制御コマンドを選択されているカメラ100へ送信する。
以上の処理により、コントローラ600に対するユーザ操作に応じたカメラ100のパン駆動およびチルト駆動の制御を行うことができる。
図13のフローチャートは、コントローラ600のCPU601が、制御プログラムに従って実行する、映像配信状況に応じてカメラ100が被写体を追尾するためのカメラ制御パラメータを変更するカメラ制御処理(撮像制御方法)を示している。
S1301において、CPU601は、カメラ制御パラメータの初期設定を行う。具体的には、ズームイン値およびズームアウト値をそれぞれROM603から読み出してRAM602に格納する。なお、初期設定のズームイン値およびズームアウト値として、ユーザ入力I/F606に接続された入力デバイスを通じてユーザが入力したパラメータ値を利用してもよい。
次にS1302において、CPU601は、通信部604やユーザ入力I/F606を介して本処理の終了を示す指示する命令を受信しているか否か(処理を継続するか否か)を確認する。受信していなければS1303へ進み、受信していれば本処理を終了する。
S1303において、CPU601は、カメラ100に対して現在の映像配信状況(配信状況情報)を送信するように指示する。該指示を受信したカメラ100のCPU101は、現在の映像配信状況をコントローラ600に送信する。現在の映像配信状況を受信したコントローラ600のCPU601は、これをRAM602に格納する。またCPU601は、既に格納済みの映像配信状況を前回の映像配信状況としてRAM602に格納する。
次にS1304において、CPU601は、S1303でRAM602に格納した現在の映像配信状況と前回の映像配信状況を比較する。これらが一致すれば(映像配信状況に変化がないと)S1302に進み、一致しない(映像配信状況が変化した)場合はS1305に進む。
S1305において、CPU601は、S1303でRAM602に格納した現在の映像配信状況においていずれかのカメラからの映像データが待機中か(すなわち、いずれかのカメラが待機カメラか)否かを判別する。待機カメラに対してはS1306に進み、待機カメラ以外の配信カメラおよびプレビューカメラに対してはS1307に進む。
S1306において、CPU601は、S1301でRAM602に格納したズームアウト値を読み出し、これを待機カメラに送信してズーム値を変更するよう指示する。該指示を受信した待機カメラのCPU101は、PTZ制御部107を介して撮像部104に受信したズームアウト値へのズーム駆動を行わせる。これにより、待機カメラが被写体をロストする可能性を低減することができる。この後CPU601はS1302に戻る。
なお、本実施例でも、待機カメラにズームアウトさせる際に予めズームアウト値を設定せずに、最小のズーム値にズームアウトさせてもよい。この場合、CPU601は、待機カメラのCPU101に対してズーム値を最小にするよう指示する。
S1307において、でコントローラ600のCPU601は、S1303でRAM602に格納した前回の映像配信状況において現在の配信カメラまたはプレビューカメラが前回の待機カメラであったか否かを判別する。前回の待機カメラであった場合はS1308に進み、そうでなければS1302に戻る。
S1308において、CPU601は、S1301でRAM602に格納したズームイン値を読み出し、これを前回に待機カメラであった現在の配信カメラまたはプレビューカメラに送信してズーム値を変更するよう指示する。該指示を受けた前回に待機カメラであった配信カメラまたはプレビューカメラのCPU101は、PTZ制御部107を介して撮像部104に受信したズームイン値へのズーム駆動を行わせる。これにより、配信カメラまたはプレビューカメラは、被写体をアップで撮像することができる。この後CPU601はS1302に戻る。
なお、配信カメラまたはプレビューカメラにズームインさせる際に予めズームイン値を設定せずに、これらのカメラが前回に待機カメラに切り替わる前(元々の配信またはプレビューカメラであったとき)のズーム値に戻すようにしてもよい。この場合、S1306でズームアウトする前に、CPU601はカメラ100にズーム値を問い合わせ、その応答としてのズーム値をRAM602に格納しておく。そしてS1308でCPU601はRAM602に格納されたズーム値を読み出し、これを現在の配信またはプレビューカメラに送信してズーム値を変更するよう指示する。
なお、本実施例ではコントローラ600がカメラ100の映像配信状況を取得し、取得した映像配信状況に基づいてカメラ100を制御するが、カメラ100が自身の映像配信状況を読み取って自身を制御してもよい。この場合、カメラ100のCPU101が、RAM102に格納されている配信カメラ、プレビューカメラおよび待機カメラの追尾敏感度、ズームイン値、ズームアウト値、現在と前回の映像配信状況を読み出してS1303~S1308の処理を行う。
以上説明した本実施例によれば、コントローラ600に対するユーザ操作に応じてカメラ100が制御される場合において、視聴者に高品質の映像を視聴させることができるとともに、円滑な被写体追尾を行うことができる。
以上の実施の形態には、以下の構成が含まれる。
(構成1)
撮像装置により生成された映像データの配信状況を取得する取得手段と、
前記撮像装置のズームを制御する制御手段とを有し、
前記制御手段は、前記配信状況に応じて、ズーム値を変更することを特徴とする撮像制御装置。
(構成2)
前記映像データから被写体を検出する検出手段を有し、
前記制御手段は、検出された前記被写体に基づいて前記ズーム値を制御することを特徴とする構成1に記載の撮像制御装置。
(構成3)
前記撮像装置が複数あり、
前記取得手段は、前記複数の撮像装置のそれぞれにより生成された複数の映像データの前記配信状況を取得し、
前記制御手段は、前記複数の撮像装置のそれぞれの前記ズーム値を前記配信状況に応じて変更することを特徴とする構成1または2に記載の撮像制御装置。
(構成4)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記待機状態において前記配信状態よりも前記ズーム値を広角側とすることを特徴とする構成1から3のいずれか1つに記載の撮像制御装置。
(構成5)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、
前記配信状態から前記待機状態になった際に前記配信状態での前記ズーム値を記憶し、
前記待機状態から前記配信状態になった際に、前記ズーム値を前記記憶されたズーム値に変更することを特徴とする構成1から4のいずれか1つに記載の撮像制御装置。
(構成6)
前記配信状況は、前記映像データが配信されている配信状態、配信を待機している待機状態および前記待機状態より先に前記配信状態となり得るプレビュー状態を含み、
前記制御手段は、前記プレビュー状態と前記待機状態とで前記ズーム値を変更することを特徴とする構成1から5のいずれか1つに記載の撮像制御装置。
(構成7)
前記制御手段は、前記待機状態において前記プレビュー状態よりも前記ズーム値を広角側とすることを特徴とする構成6に記載の撮像制御装置。
(構成8)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記配信状態において前記待機状態よりもズーム速度を遅くすることを特徴とする構成1から7のいずれか1つに記載の撮像制御装置。
(構成9)
前記映像データから被写体を検出する検出手段を有し、
前記制御手段は、
検出された前記被写体の位置に応じて前記撮像装置の撮像方向を制御し、
前記配信状況に応じて、前記撮像方向を制御するためのパラメータを変更することを特徴とする構成1から8のいずれか1つに記載の撮像制御装置。
(構成10)
前記パラメータは、前記被写体の位置の変化に対する前記撮像方向の制御の速さに関する敏感度であることを特徴とする構成9に記載の撮像制御装置。
(構成11)
撮像装置により生成された映像データの配信状況を取得する取得手段と、
前記映像データから被写体を検出する検出手段と、
検出された前記被写体の位置に応じて前記撮像装置の撮像方向を制御する制御手段とを有し、
前記制御手段は、前記配信状況に応じて、前記撮像方向を制御するためのパラメータを変更することを特徴とする撮像制御装置。
(構成12)
前記パラメータは、前記被写体の位置の変化に対する前記撮像方向の制御の速さに関する敏感度であることを特徴とする構成11に記載の撮像制御装置。
(構成13)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記配信状態において前記待機状態よりも前記速さが遅くなるように前記敏感度を設定することを特徴とする構成12に記載の撮像制御装置。
(構成14)
前記配信状況は、前記映像データが配信されている配信状態、配信を待機している待機状態および前記待機状態より先に前記配信状態となり得るプレビュー状態を含み、
前記制御手段は、前記配信状態と前記プレビュー状態とで前記敏感度を変更することを特徴とする構成11から13のいずれか1つに記載の撮像制御装置。
(構成15)
前記制御手段は、前記配信状態において前記プレビュー状態よりも前記速さが遅くなるように前記敏感度を設定することを特徴とする構成14に記載の撮像制御装置。
(構成16)
前記制御手段は、
前記被写体の動きに対して前記撮像方向を制御しない不感領域を設定し、
前記パラメータは、前記不感領域の大きさであることを特徴とする構成11から16のいずれか1つに記載の撮像制御装置。
(構成17)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記配信状態において前記待機状態よりも前記不感領域の大きさを大きくすることを特徴とする構成16に記載の撮像制御装置。
(構成18)
撮像を行って映像データを生成する撮像部と、
構成1から17のいずれか一項に記載の撮像制御装置とを有することを特徴とする撮像装置。
撮像装置により生成された映像データの配信状況を取得する取得手段と、
前記撮像装置のズームを制御する制御手段とを有し、
前記制御手段は、前記配信状況に応じて、ズーム値を変更することを特徴とする撮像制御装置。
(構成2)
前記映像データから被写体を検出する検出手段を有し、
前記制御手段は、検出された前記被写体に基づいて前記ズーム値を制御することを特徴とする構成1に記載の撮像制御装置。
(構成3)
前記撮像装置が複数あり、
前記取得手段は、前記複数の撮像装置のそれぞれにより生成された複数の映像データの前記配信状況を取得し、
前記制御手段は、前記複数の撮像装置のそれぞれの前記ズーム値を前記配信状況に応じて変更することを特徴とする構成1または2に記載の撮像制御装置。
(構成4)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記待機状態において前記配信状態よりも前記ズーム値を広角側とすることを特徴とする構成1から3のいずれか1つに記載の撮像制御装置。
(構成5)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、
前記配信状態から前記待機状態になった際に前記配信状態での前記ズーム値を記憶し、
前記待機状態から前記配信状態になった際に、前記ズーム値を前記記憶されたズーム値に変更することを特徴とする構成1から4のいずれか1つに記載の撮像制御装置。
(構成6)
前記配信状況は、前記映像データが配信されている配信状態、配信を待機している待機状態および前記待機状態より先に前記配信状態となり得るプレビュー状態を含み、
前記制御手段は、前記プレビュー状態と前記待機状態とで前記ズーム値を変更することを特徴とする構成1から5のいずれか1つに記載の撮像制御装置。
(構成7)
前記制御手段は、前記待機状態において前記プレビュー状態よりも前記ズーム値を広角側とすることを特徴とする構成6に記載の撮像制御装置。
(構成8)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記配信状態において前記待機状態よりもズーム速度を遅くすることを特徴とする構成1から7のいずれか1つに記載の撮像制御装置。
(構成9)
前記映像データから被写体を検出する検出手段を有し、
前記制御手段は、
検出された前記被写体の位置に応じて前記撮像装置の撮像方向を制御し、
前記配信状況に応じて、前記撮像方向を制御するためのパラメータを変更することを特徴とする構成1から8のいずれか1つに記載の撮像制御装置。
(構成10)
前記パラメータは、前記被写体の位置の変化に対する前記撮像方向の制御の速さに関する敏感度であることを特徴とする構成9に記載の撮像制御装置。
(構成11)
撮像装置により生成された映像データの配信状況を取得する取得手段と、
前記映像データから被写体を検出する検出手段と、
検出された前記被写体の位置に応じて前記撮像装置の撮像方向を制御する制御手段とを有し、
前記制御手段は、前記配信状況に応じて、前記撮像方向を制御するためのパラメータを変更することを特徴とする撮像制御装置。
(構成12)
前記パラメータは、前記被写体の位置の変化に対する前記撮像方向の制御の速さに関する敏感度であることを特徴とする構成11に記載の撮像制御装置。
(構成13)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記配信状態において前記待機状態よりも前記速さが遅くなるように前記敏感度を設定することを特徴とする構成12に記載の撮像制御装置。
(構成14)
前記配信状況は、前記映像データが配信されている配信状態、配信を待機している待機状態および前記待機状態より先に前記配信状態となり得るプレビュー状態を含み、
前記制御手段は、前記配信状態と前記プレビュー状態とで前記敏感度を変更することを特徴とする構成11から13のいずれか1つに記載の撮像制御装置。
(構成15)
前記制御手段は、前記配信状態において前記プレビュー状態よりも前記速さが遅くなるように前記敏感度を設定することを特徴とする構成14に記載の撮像制御装置。
(構成16)
前記制御手段は、
前記被写体の動きに対して前記撮像方向を制御しない不感領域を設定し、
前記パラメータは、前記不感領域の大きさであることを特徴とする構成11から16のいずれか1つに記載の撮像制御装置。
(構成17)
前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記配信状態において前記待機状態よりも前記不感領域の大きさを大きくすることを特徴とする構成16に記載の撮像制御装置。
(構成18)
撮像を行って映像データを生成する撮像部と、
構成1から17のいずれか一項に記載の撮像制御装置とを有することを特徴とする撮像装置。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。
100 カメラ
101 CPU
200 ワークステーション
201 CPU
300 スイッチャ
301 CPU
600 コントローラ
601 CPU
101 CPU
200 ワークステーション
201 CPU
300 スイッチャ
301 CPU
600 コントローラ
601 CPU
Claims (21)
- 撮像装置により生成された映像データの配信状況を取得する取得手段と、
前記撮像装置のズームを制御する制御手段とを有し、
前記制御手段は、前記配信状況に応じて、ズーム値を変更することを特徴とする撮像制御装置。 - 前記映像データから被写体を検出する検出手段を有し、
前記制御手段は、検出された前記被写体に基づいて前記ズーム値を制御することを特徴とする請求項1に記載の撮像制御装置。 - 前記撮像装置が複数あり、
前記取得手段は、前記複数の撮像装置のそれぞれにより生成された複数の映像データの前記配信状況を取得し、
前記制御手段は、前記複数の撮像装置のそれぞれの前記ズーム値を前記配信状況に応じて変更することを特徴とする請求項1に記載の撮像制御装置。 - 前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記待機状態において前記配信状態よりも前記ズーム値を広角側とすることを特徴とする請求項1に記載の撮像制御装置。 - 前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、
前記配信状態から前記待機状態になった際に前記配信状態での前記ズーム値を記憶し、
前記待機状態から前記配信状態になった際に、前記ズーム値を前記記憶されたズーム値に変更することを特徴とする請求項1に記載の撮像制御装置。 - 前記配信状況は、前記映像データが配信されている配信状態、配信を待機している待機状態および前記待機状態より先に前記配信状態となり得るプレビュー状態を含み、
前記制御手段は、前記プレビュー状態と前記待機状態とで前記ズーム値を変更することを特徴とする請求項1に記載の撮像制御装置。 - 前記制御手段は、前記待機状態において前記プレビュー状態よりも前記ズーム値を広角側とすることを特徴とする請求項6に記載の撮像制御装置。
- 前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記配信状態において前記待機状態よりもズーム速度を遅くすることを特徴とする請求項1に記載の撮像制御装置。 - 前記映像データから被写体を検出する検出手段を有し、
前記制御手段は、
検出された前記被写体の位置に応じて前記撮像装置の撮像方向を制御し、
前記配信状況に応じて、前記撮像方向を制御するためのパラメータを変更することを特徴とする請求項1に記載の撮像制御装置。 - 前記パラメータは、前記被写体の位置の変化に対する前記撮像方向の制御の速さに関する敏感度であることを特徴とする請求項9に記載の撮像制御装置。
- 撮像装置により生成された映像データの配信状況を取得する取得手段と、
前記映像データから被写体を検出する検出手段と、
検出された前記被写体の位置に応じて前記撮像装置の撮像方向を制御する制御手段とを有し、
前記制御手段は、前記配信状況に応じて、前記撮像方向を制御するためのパラメータを変更することを特徴とする撮像制御装置。 - 前記パラメータは、前記被写体の位置の変化に対する前記撮像方向の制御の速さに関する敏感度であることを特徴とする請求項11に記載の撮像制御装置。
- 前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記配信状態において前記待機状態よりも前記速さが遅くなるように前記敏感度を設定することを特徴とする請求項12に記載の撮像制御装置。 - 前記配信状況は、前記映像データが配信されている配信状態、配信を待機している待機状態および前記待機状態より先に前記配信状態となり得るプレビュー状態を含み、
前記制御手段は、前記配信状態と前記プレビュー状態とで前記敏感度を変更することを特徴とする請求項11に記載の撮像制御装置。 - 前記制御手段は、前記配信状態において前記プレビュー状態よりも前記速さが遅くなるように前記敏感度を設定することを特徴とする請求項14に記載の撮像制御装置。
- 前記制御手段は、
前記被写体の動きに対して前記撮像方向を制御しない不感領域を設定し、
前記パラメータは、前記不感領域の大きさであることを特徴とする請求項11に記載の撮像制御装置。 - 前記配信状況は、前記映像データが配信されている配信状態と配信を待機している待機状態を含み、
前記制御手段は、前記配信状態において前記待機状態よりも前記不感領域の大きさを大きくすることを特徴とする請求項16に記載の撮像制御装置。 - 撮像を行って映像データを生成する撮像部と、
請求項1から17のいずれか一項に記載の撮像制御装置とを有することを特徴とする撮像装置。 - 撮像装置により生成された映像データの配信状況を取得するステップと、
前記撮像装置のズームを制御するステップとを有し、
前記ズームを制御するステップにおいて、前記配信状況に応じて、ズーム値を変更することを特徴とする撮像制御方法。 - 撮像装置により生成された映像データの配信状況を取得するステップと、
前記映像データから被写体を検出するステップと、
検出された前記被写体の位置に応じて前記撮像装置の撮像方向を制御するステップとを有し、
前記撮像方向を制御するステップにおいて、前記配信状況に応じて、前記撮像方向を制御するためのパラメータを変更することを特徴とする撮像制御方法。 - 請求項19または20に記載の撮像制御方法をコンピュータに実行させることを特徴とするプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022137841A JP2024033919A (ja) | 2022-08-31 | 2022-08-31 | 撮像制御装置、撮像装置、映像配信システムおよび撮像制御方法 |
EP23192568.6A EP4333447A1 (en) | 2022-08-31 | 2023-08-22 | Imaging control apparatus, image pickup apparatus, imaging control method, and program |
CN202311104495.8A CN117641126A (zh) | 2022-08-31 | 2023-08-30 | 摄像控制设备、摄像设备、摄像控制方法和存储介质 |
US18/458,850 US20240073525A1 (en) | 2022-08-31 | 2023-08-30 | Imaging control apparatus, image pickup apparatus, imaging control method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022137841A JP2024033919A (ja) | 2022-08-31 | 2022-08-31 | 撮像制御装置、撮像装置、映像配信システムおよび撮像制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024033919A true JP2024033919A (ja) | 2024-03-13 |
Family
ID=87762691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022137841A Pending JP2024033919A (ja) | 2022-08-31 | 2022-08-31 | 撮像制御装置、撮像装置、映像配信システムおよび撮像制御方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240073525A1 (ja) |
EP (1) | EP4333447A1 (ja) |
JP (1) | JP2024033919A (ja) |
CN (1) | CN117641126A (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11082665B2 (en) * | 2010-11-05 | 2021-08-03 | Razberi Secure Technologies, Llc | System and method for a security system |
US10313417B2 (en) * | 2016-04-18 | 2019-06-04 | Qualcomm Incorporated | Methods and systems for auto-zoom based adaptive video streaming |
JP7358116B2 (ja) | 2019-08-21 | 2023-10-10 | キヤノン株式会社 | 撮像装置、制御装置、プログラム、記憶媒体及び制御方法 |
-
2022
- 2022-08-31 JP JP2022137841A patent/JP2024033919A/ja active Pending
-
2023
- 2023-08-22 EP EP23192568.6A patent/EP4333447A1/en active Pending
- 2023-08-30 US US18/458,850 patent/US20240073525A1/en active Pending
- 2023-08-30 CN CN202311104495.8A patent/CN117641126A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20240073525A1 (en) | 2024-02-29 |
EP4333447A1 (en) | 2024-03-06 |
CN117641126A (zh) | 2024-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7848628B2 (en) | Camera system, camera control apparatus, panorama image making method and computer program product | |
KR101299613B1 (ko) | 제어 장치, 제어 방법, 카메라 시스템 및 기록 매체 | |
CN106454065B (zh) | 信息处理装置及其控制方法 | |
TWI461057B (zh) | 控制裝置,相機系統及程式 | |
US9325970B2 (en) | Imaging control device and imaging control method | |
US20110012998A1 (en) | Imaging device, imaging method and recording medium | |
US20040179121A1 (en) | System and method for displaying captured images according to imaging device position | |
JP4760896B2 (ja) | カメラ制御装置及びカメラ制御方法 | |
US20110090341A1 (en) | Intruding object detection system and controlling method thereof | |
US11823715B2 (en) | Image processing device and image processing method | |
JP2016082556A (ja) | 制御装置及びその制御方法、プログラム | |
JP2019205161A (ja) | 撮像装置、撮像装置の制御方法およびプログラム | |
US11128764B2 (en) | Imaging apparatus, control method, and non-transitory computer readable medium | |
EP0989747B1 (en) | Television lens apparatus adapted for a virtual studio | |
JP2008301191A (ja) | 映像監視システム、映像監視制御装置、映像監視制御方法、及び映像監視制御用プログラム | |
JP2024033919A (ja) | 撮像制御装置、撮像装置、映像配信システムおよび撮像制御方法 | |
JP7386307B2 (ja) | ビデオストリームを送信するための方法およびシステム | |
JPH09116886A (ja) | 画像情報通信装置 | |
US10567665B2 (en) | Display control device and display control system | |
KR20090028043A (ko) | 촬영 화면 기반의 화면 지정이 가능한 촬영 장치 및 화면지정 방법 | |
US20240022812A1 (en) | Image capturing system, control apparatus, image capturing apparatus, and display apparatus constituting the system, control method, and display method | |
JP2021056809A (ja) | 表示制御装置、方法及びプログラム | |
JP2024010640A (ja) | 撮像システム及びそれを構成する制御装置、撮像装置、制御方法 | |
US20230269360A1 (en) | Electronic device and method for controlling electronic device | |
JP2024033741A (ja) | 制御装置、撮像装置、制御方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240724 |