JP2024033741A - 制御装置、撮像装置、制御方法、及びプログラム - Google Patents

制御装置、撮像装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP2024033741A
JP2024033741A JP2022137526A JP2022137526A JP2024033741A JP 2024033741 A JP2024033741 A JP 2024033741A JP 2022137526 A JP2022137526 A JP 2022137526A JP 2022137526 A JP2022137526 A JP 2022137526A JP 2024033741 A JP2024033741 A JP 2024033741A
Authority
JP
Japan
Prior art keywords
image
state
subject
control device
target position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022137526A
Other languages
English (en)
Inventor
卓也 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022137526A priority Critical patent/JP2024033741A/ja
Priority to EP23192119.8A priority patent/EP4333448A1/en
Priority to US18/458,012 priority patent/US20240073512A1/en
Priority to CN202311108842.4A priority patent/CN117641127A/zh
Publication of JP2024033741A publication Critical patent/JP2024033741A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】手動撮影から自動撮影への切り替え時に簡易な操作でオペレータの意図に沿った画角での撮影を実現可能な制御装置を提供すること。【解決手段】制御装置は、ユーザーの操作により撮像装置の画角を変更する第1の状態と画像上において被写体が目標位置に表示されるように画角を変更する第2の状態とに遷移可能なシステムに用いられる制御装置であって、画像上における被写体の位置を取得する取得部と、システムが第1の状態から第2の状態に遷移した場合、画像上における被写体の位置に基づいて目標位置を決定する決定部とを有する。【選択図】図1

Description

本発明は、制御装置、撮像装置、制御方法、及びプログラムに関する。
近年、オペレーターが一つのカメラのパン・チルト動作等の制御を行う一方で、AI(Artificial Intelligence)を搭載したカメラが自身の判断・推論に基づいて被写体を自動追尾するシステムが提案されている。特許文献1には、被写体を自動追尾する撮影(自動撮影)と、手動でパン・チルト動作等の制御を行うことが可能な撮影(手動撮影)とに切り替え可能な構成が開示されている。また、特許文献2には、自動追尾カメラにおいて、画面上に表示されたマークの位置を、追尾被写体を出力する位置として設定する構成が開示されている。
特開2005-86360号公報 特許第5317607号公報
しかしながら、特許文献1の構成では、手動撮影から自動撮影に切り替えた場合、画角が固定になってしまう。特許文献2の構成は画角が固定になる状態を解消することはできるが、オペレータはカメラ操作と追尾被写体を出力する位置の指定操作を同時に実行する必要がり、操作が煩雑になってしまう。
本発明は、手動撮影から自動撮影への切り替え時に簡易な操作でオペレータの意図に沿った画角での撮影を実現可能な制御装置を提供することを目的とする。
本発明の一側面としての制御装置は、ユーザーの操作により撮像装置の画角を変更する第1の状態と画像上において被写体が目標位置に表示されるように画角を変更する第2の状態とに遷移可能なシステムに用いられる制御装置であって、画像上における被写体の位置を取得する取得部と、システムが第1の状態から第2の状態に遷移した場合、画像上における被写体の位置に基づいて目標位置を決定する決定部とを有することを特徴とする。
本発明によれば、手動撮影から自動撮影への切り替え時に簡易な操作でオペレータの意図に沿った画角での撮影を実現可能な制御装置を提供することができる。
本発明の実施形態に係るシステムの構成図である。 各装置のブロック構成を示す図である。 ワークステーションとカメラの動作を示すフローチャートである。 コントローラの動作を示す図である。 第1の実施形態のワークステーションの状態と遷移条件を示す図である。 第1の実施形態の目標位置を設定する処理を示すフローチャートである。 第2の実施形態の被写体サイズを取得する処理を示すフローチャートである。 第2の実施施形態のズーム倍率を設定する処理を示すフローチャートである。 第3の実施形態のワークステーションの動作を示すフローチャートである。
以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。
図1は、本発明の実施形態に係るシステムの構成図である。システムは、カメラ(撮像装置)100、ワークステーション200、及びコントローラ(操作装置)300を有する。システムは、ユーザーの操作によりカメラ100の画角を変更する第1の状態と画像上において追尾対象である被写体が目標位置に表示されるようにカメラ100の画角を変更する第2の状態とに遷移可能に構成される。
カメラ100とワークステーション200は、LAN(Local Area Network)400を介して接続されている。コントローラ300は、LAN500に接続されている。LAN400,500は、インターネット600を介して接続される。このような構成により、各装置は相互に通信を行うことが可能である。
カメラ100は、各ネットワークや画像ケーブルを介して撮像した画像を各装置に配信する。また、カメラ100は、被写体を撮像する撮像部に対するパン・チルト操作が可能な機構を備える。
ワークステーション200は、カメラ100から配信された画像から被写体を検出し、検出した結果に基づいてカメラ100の撮像方向を変更する等の、いわゆる、被写体を追尾するための制御信号をLAN400を介してカメラ100に送信する。なお、カメラ100は、ワークステーション200が備える機能を有するように構成されてもよい。
コントローラ300は、インターネット600を介して、カメラ100にアクセスして画像取得、及びユーザ操作に基づくカメラ100の制御を行う。
本実施形態のシステムでは、ワークステーション200が画像に基づいて被写体追尾するようカメラ100を制御しつつ、ユーザは遠隔地からコントローラ300を操作することでカメラ100の撮像方向を所望の向きに変更することも可能である。
図2(a)は、各装置のブロック構成を示す図である。カメラ100は、CPU101、RAM102、ROM103、画像出力I/F104、ネットワークI/F105、画像処理部106、画像センサ107、駆動I/F108、及び駆動部109を備える。CPU101、RAM102、ROM103、画像出力I/F104、ネットワークI/F105、画像処理部106、及び駆動I/F108は、内部バス110を介して相互に接続されている。
CPU101は、カメラ100全体の制御を行う。
RAM102は、DRAM等の読み書き可能な高速の記憶装置で、OS、各種プログラム、及び各種データがロードされたり、OSや各種プログラムの作業領域として使用されたりする。
ROM103は、フラッシュメモリ、HDD、SSD、及びSDカード等の不揮発性の記憶装置で、OS、各種プログラム、及び各種データの永続的な記憶領域として使用されたり、短期的な各種データの記憶領域として使用されたりする。
画像出力I/F104は、画像センサ107が撮像した画像を外部に出力するためのインターフェースである。画像出力I/F104は、SDI(Serial Digital Interface)やHDMI(High-Definition Multimedia Interface)(登録商標)により構成される。画像出力I/F104は、後述するワークステーション200の画像入力I/F(画像入力手段)208に接続されている。
画像処理部106は、CCDやCMOSからなる画像センサ107に接続され、画像センサ107から取得した画像データを所定のフォーマットに変換し、必要に応じて圧縮してRAM102に転送する。また、画像処理部106は、画像センサ107から画像データを取得する際のズーム・フォーカスや露出制御等の画質調整、及び画像データの所定領域のみを切り出すクロップ処理も行う。これらの処理は、ワークステーション200やコントローラ300等の外部装置から、ネットワークI/F105を経由した指示に従って実施される。
ネットワークI/F105は、LAN400と接続するためのI/Fであり、Ethernet(登録商標)等の通信媒体を介してワークステーション200やコントローラ300等の外部装置との通信を担う。なお、遠隔からのカメラ100に対する制御は、ネットワークI/F105を介して行われてもよいし、不図示のシリアル通信I/F等の別のI/Fを介して行われてもよい。
駆動I/F108は、駆動部109との接続部であり、駆動部109に対する制御信号等を送受信するための通信を担う。
駆動部109は、メカ駆動系及び駆動源のモータ等により構成され、カメラ100の撮像方向やズームに用いるレンズ群の位置を変更する。駆動部109は、駆動I/F108を介してCPU101から受ける指示に基づいて水平方向や垂直方向に画角を向けるための、パン・チルト動作等の回動や、撮影画角の範囲を変更するためのズーム動作を行う。
ワークステーション200は、CPU201、RAM(記録部)202、ROM203、ネットワークI/F204、画像出力I/F205、ユーザ入力I/F206、推論部(検出部)207、及び画像入力I/F(画像取得部)208を備える。CPU201、RAM202、ROM203、ネットワークI/F204、画像出力I/F205、ユーザ入力I/F206、推論部207、及び画像入力I/F208は、内部バス209を介して相互に接続されている。
CPU201は、ワークステーション200全体の制御を行う。CPU201は、図2(b)に示されるように、取得部201aと決定部201bとを備える。取得部201aは、画像上における追尾対象である被写体の位置を取得する。決定部201bは、システムが第1の状態から第2の状態に遷移した場合、画像上における被写体の位置に基づいて目標位置を決定する。なお、CPU201は、本実施形態では、ワークステーション200に搭載されているが、ワークステーション200とは別の制御装置として構成されてもよいし、カメラ100やコントローラ300に搭載されてもよい。
RAM202は、DRAM等の読み書き可能な高速の記憶装置で、OS、各種プログラム、及び各種データがロードされたり、OSや各種プログラムの作業領域として使用されたりする。
ROM203は、フラッシュメモリ、HDD、SSD、及びSDカード等の不揮発性の記憶装置で、OS、各種プログラム、及び各種データの永続的な記憶領域として使用されたり、短期的な各種データの記憶領域として使用されたりする。
ネットワークI/F204は、LAN400と接続するためのI/Fであり、Ethernet(登録商標)等の通信媒体を介してカメラ100やコントローラ300等の外部装置との通信を担う。
画像出力I/F205は、ワークステーション200の設定情報画面等を出力するためのインターフェースである。
ユーザ入力I/F206は、USB(Universal Serial Bus)等により構成され、マウス、キーボード、及びその他の入力装置と接続するためのインターフェースである。
推論部207は、GPU(Graphics Processing Unit)等の画像処理や推論処理に特化した演算装置により構成され、画像入力I/F208等から受信した画像から画像内の所定の物体の位置や有無を推定する。学習処理には一般的にはGPUを利用することが有効であるが、FPGA(Field -Programmable Gate Array)等の再構成可能な論理回路を利用してもよい。また、推論部207の処理をCPU201が担ってもよい。
画像入力I/F208は、カメラ100から画像を受信する。本実施形態では、画像入力I/F208は、SDIやHDMIにより構成される。
コントローラ300は、CPU301、RAM302、ROM303、ネットワークI/F304、表示部305、及びユーザ入力I/F306を備える。CPU301、RAM302、ROM303、ネットワークI/F304、表示部305、及びユーザ入力I/F306は、内部バス307を介して相互に接続されている。
CPU301は、コントローラ300全体の制御を行う。
RAM302はDRAM等の読み書き可能な高速の記憶装置で、OS、各種プログラム、及び各種データがロードされたり、OSや各種プログラムの作業領域として使用されたりする。
ROM303は、フラッシュメモリ、HDD、SSD、及びSDカード等の不揮発性の記憶装置で、OS、各種プログラム、及び各種データの永続的な記憶領域として使用されたり、短期的な各種データの記憶領域として使用されたりする。
ネットワークI/F304は、LAN500と接続するためのI/Fであり、Ethernet(登録商標)等の通信媒体を介してカメラ100やワークステーション200等の外部装置との通信を担う。ここで、通信とは、カメラ100やコントローラ300への制御コマンドの送受信、及びカメラ100からの画像の受信である。
表示部305は、カメラ100からの画像やコントローラ300の設定画面を表示する。なお、本実施形態では、コントローラ300が表示部305を有するが、本発明はこれに限定されない。例えば、画像を表示するのみの表示モニタとコントローラがそれぞれ設けられてもよい。
ユーザ入力I/F306は、コントローラ300に対するユーザからの操作を受け付けるためのインターフェースであり、例えばボタン、ダイヤル、ジョイスティック、及びタッチパネル等が挙げられる。ユーザ入力I/F306は例えば、ユーザ操作に基づいてカメラ100をパン・チルト制御するための入力を受け付ける。
以下、本実施形態のシステムにおける基本動作である、ワークステーション200により検出された被写体を追尾するようカメラ100を制御する動作、及び、コントローラ300によりカメラ100を制御する動作について説明する。
まず、図3を参照して、ワークステーション200により検出された被写体をカメラ100に追尾させる動作について説明する。図3は、ワークステーション200とカメラ100の動作を示すフローチャートである。
図3(a)は、ワークステーション200がカメラ100から逐次送信される画像を画像入力I/F208を介して受信し、画像を用いて被写体の位置を特定しつつ、被写体を追尾するようカメラ100を制御するためのループ処理を示している。
ステップS101では、CPU201は、画像入力I/F208を介してカメラ100が撮像した画像を受信する。なお、画像は所定のフレームレートに合わせて画像出力I/F104より順次送信され、画像入力I/F208は受信した画像をRAM202に逐次書き出す。また、画像は、ネットワークI/F204を介して受信され、RAM202に展開されてもよい。
ステップS102では、まず、CPU201は、RAM202から画像を読み出し、推論部207に入力する。次に、推論部207は、推論した結果として、追尾対象である被写体の位置情報をRAM202に書き出す。推論部207は、ディープラーニング等の機械学習方法を用いて作成された学習済みモデルを有し、入力データとして画像を受け、出力データとして人物等の追尾対象の種別、位置情報、及び確からしさを示すスコアを出力する。本実施形態では、推論部207が出力する位置情報として、検出された被写体に外接する矩形枠が用いられる。矩形枠は、入力された画像に重畳される、直交座標上の位置座標によって示され、矩形枠の左上の位置座標と右下の位置座標によって一意に指定される。位置座標では、画像の左上を座標の原点とし、画像の右下が1となるように規格化された値が用いられる。したがって、画像上の任意の点は、(パン方向位置、チルト方向位置)で表される一組の数値によって表現される。また、画像の左上は(0,0)、右下は(1,1)、画像中心(画像の中心位置)は(0.5,0.5)と表される。また、矩形枠は、矩形枠を構成する4点の重心位置座標によって示されてもよいし、矩形枠を一意に定めるその他の位置座標によって示されてもよい。続けて、CPU201は、RAM202に書き出された情報をカメラ100に送信する。
ステップS103では、CPU201はまず、ステップS102で推論部207から取得した被写体の位置情報と後述する被写体の目標位置との差分を演算する。次に、CPU201は、被写体を追尾するための、差分に応じたパン方向とチルト方向の角速度を算出する。差分が大きい、すなわち被写体の画像内の位置が目標位置と離れているほど算出するパン方向とチルト方向の角速度は大きくなる。本実施形態では、角速度は被写体の位置と目標位置との関係は、画像内の距離に応じて線形に増加する関係であるが、その他の関係であってもよい。
追尾動作は、画像内の所定の位置を被写体の目標位置とし、被写体が目標位置上に撮影されるようにカメラ100にパン・チルト動作させることで実現される。例えば、目標位置が画像中心(0.5,0.5)である場合、CPU201は追尾対象である被写体が画像中心に撮影されるように追尾動作を実行する。
なお、ユーザはユーザI/F206を介して画像内の任意の位置を目標位置として指定することができ、目標位置座標はRAM202に保存される。また、追尾対象である被写体は、ユーザによってユーザー入力I/F206を通してワークステーション200に伝えられる。なお、目標位置や追尾対象は、ネットワークI/F204を介してインターネット600に接続されたコントローラ300又は不図示の外部装置から指定されてもよい。
また、推論部207が出力した結果に、予め指定された、例えば人等の種別が含まれる場合、CPU201が取得した対象が追尾対象として指定されてもよい。更に、推論部207が出力した結果に追尾対象とする種別が複数含まれる場合、最も大きい対象、画像中心に近い対象、及び推論結果の確からしさが最も高い対象が追尾対象として指定されてもよい。
ステップS104では、CPU201は、ステップS103で算出した結果を、カメラ100を制御する方法として予め取り決めているプロトコルに則って制御コマンドに変換し、RAM202に書き出す。
ステップS105では、CPU201は、ステップS104で変換し、RAM202に書き出した制御コマンドを読み出し、ネットワークI/F204を介してカメラ100に送信し、ループ処理の先頭に戻る。
なお、ステップS103において、差分が所定範囲内であればカメラ100の制御を行わない、いわゆる不感帯を設け、過敏にカメラ100が制御されることを回避してもよい。
図3(b)は、ワークステーション200から制御コマンドを受信した際のカメラ100の動作フローを示している。
ステップS201では、CPU101は、ネットワークI/F105を介して制御コマンドを受信する。
ステップS202では、CPU101は、制御コマンドを受信すると、操作方向及び操作量(角速度)としてパン方向/チルト方向のそれぞれに対する値を読み出す。
ステップS203では、CPU101は、ステップS201で読み出した値を元に、所望の方向へ所望の速度でパン・チルトするための駆動パラメータを導出する。駆動パラメータは具体的には駆動部109に含まれるパン方向/チルト方向のそれぞれのモータ(不図示)を制御するためのパラメータであり、受信した制御コマンドに含まれる操作量を元に予めROM103が保持する変換テーブルを参照して変換されてもよい。
ステップS204では、CPU101は、ステップS203で導出した駆動パラメータに基づいて、駆動I/F108を介して駆動部109を制御する。駆動部109が駆動パラメータに基づいて回動することで、カメラ100の撮像方向を変更させるパン・チルト動作が行われる。
なお、図3を用いて説明した駆動制御は、ズーム機構にも適用可能である。
次に、図4を参照して、コントローラ300に対する操作に基づいてカメラ100を制御する動作について説明する。図4は、コントローラ300の動作を示す図である。
カメラ100はコントローラ300から送信される制御コマンドに基づいて制御されるが、カメラ100の動作は図3(b)で説明した動作と同様であるため、説明を省略する。
ステップS301では、CPU301は、ユーザによるジョイスティック操作をユーザ入力I/F306を介して検出する。
ステップS302では、CPU301は、ジョイスティックの操作方向及び操作量をユーザ入力I/F306から取得する。ジョイスティックの仕様の具体例として、パン方向/チルト方向のそれぞれにおいて備え付けられた可変抵抗器から出力される電圧を用いるアナログ出力仕様が挙げられる。CPU301は、ジョイスティックから入力される電圧をA/D変換部(不図示)を介して得られるデジタル値として読み出すことで、パン方向/チルト方向のそれぞれの角速度を把握することができる。なお、A/D変換部は、例えば0~1023等の所定の範囲の値を、操作量に応じたパン方向/チルト方向のそれぞれの角速度に相当する値として読み出すことができる。
ステップS303では、CPU301は、ステップS302で取得した結果に基づくパン方向/チルト方向の角速度を、カメラ100を制御する方法として予め取り決めているプロトコルに則って制御コマンドに変換し、RAM102に書き出す。
ステップS304では、CPU301は、ステップS303で変換し、RAM102に書き出した制御コマンドを読み出し、ネットワークI/F105を介してカメラ100に送信する。なお、制御コマンドは、ワークステーション200を経由してカメラ100に送信されてもよい。すなわち、制御コマンドは、ネットワークI/F105を介してワークステーション200が受信した後、ワークステーション200からカメラ100に送信されてもよい。また、制御コマンドは、カメラ100とワークステーション200に同時に送信されてもよい。
<第1の実施形態>
本実施形態では、自動追尾の目標位置を決定する方法について説明する。
図5は、本実施形態のワークステーション200の状態と遷移条件を示す図である。ワークステーション200は、ユーザーの操作により手動操作状態ST1と自動追尾状態ST2とに遷移可能に構成されている。図5では、ワークステーション200は、画像入力I/F208がカメラ100から受信した画像を元に推論部207が検出した結果を逐次更新しつつ保持している状態にあるものとする。
ワークステーション200は、手動操作状態ST1にて自動追尾開始信号を受信すると自動追尾状態ST2に遷移し、画像上の被写体の検出を含む自動追尾動作を開始する。自動追尾開始信号は、ユーザによりユーザ入力I/F206を通してワークステーション200に入力されてもよいし、ユーザ入力I/F306及びインターネット600を通してワークステーション200に入力されてもよい。また、ワークステーション200は、カメラスイッチング装置等の外部装置からの制御信号を受信した場合に自動追尾状態ST2に遷移してもよい。更に、ワークステーション200は、ワークステーション200がユーザによる操作が検出されない状態が所定時間続いた場合や、推論部207がユーザによって指定された任意の種別を検出した場合に自動追尾状態ST2に遷移してもよい。例えば、任意の種別として人が指定されると、ワークステーション200は、推論部207が人を検出しない場合、手動操作状態ST1のままであり、推論部207が人を検出した場合、自動追尾開始信号を受信することなく自動追尾状態ST2に遷移してもよい。
ワークステーション200は、自動追尾状態ST2にて自動追尾終了信号又はコントローラ300による手動操作信号を受信すると、手動操作状態ST1に遷移する。なお、推論部207が追尾対象となる被写体を検出しない場合でもワークステーション200は手動操作状態ST1に遷移してもよい。
図6は、ワークステーション200が目標位置を設定する処理を示すフロチャートである。図6のフローは、ワークステーション200が手動操作状態ST1から自動追尾状態ST2に遷移した場合に開始される。すなわち、システムがユーザーの操作によりカメラ100の画角を変更する第1の状態から画像上において被写体が目標位置に表示されるようにカメラ100の画角を変更する第2の状態に遷移した場合に開始される。
ステップS401では、CPU201は、画像入力I/F208を介してカメラ100から画像を受信し、RAM202に保存する。
ステップS402では、CPU201は、推論部207からRAM202に保存した画像を用いて検出された画像内の被写体の位置を取得する。
ステップS403では、CPU201は、ステップS402で取得した画像内の被写体の位置を、自動追尾中に被写体を表示する目標位置として設定し、RAM202に書き出す。なお、設定される目標位置は、推論部207が検出した被写体の位置と正確に等しい位置に限らない。例えば、画像を縦横それぞれ三等分した9区画に被写体を捉えるように、いわゆる、三分割構図を満たす最も近傍の位置、又はその他の構図を示す所定の位置に被写体を捉えるように、目標位置を設定してもよい。これにより、ユーザは、大まかに被写体の位置を指定するだけで、繊細な操作を行わずに好適な構図の画像を撮影することが可能となる。
なお、CPU201は、被写体とカメラ100の位置関係に応じて図6のフローを実行するかどうかを判定してもよい。例えば、被写体が移動している場合は被写体の目標位置を画像の中心に設定し、停止している場合は検出された被写体の位置を設定するとしてもよい。これにより、被写体が移動している場合は被写体を画角の中心にとどめるようにすることで画角から外れることを防止し、停止している場合はユーザが望む画角に固定させることができる。
また、ステップS403で設定された目標位置を一時的なものとしてもよい。例えば、被写体が所定の動作を継続している間のみ設定された目標位置を適用し、動作が終了すると画像の中心等の既定の目標位置に再設定されてもよい。
また、カメラ100がパン・チルト方向に動作している状態で自動追尾開始信号が受信された場合、直前に実行していたパン・チルト動作の方向及び速度を所定時間の間、継続して使用することが望ましい。これにより、自動追尾開始前後で被写体を画像内の同じ位置に留めつつ、パン・チルト動作速度を維持することができる。
また、自動追尾開始の条件に応じて、目標位置設定が実行されるように構成されてもよい。例えば、ユーザが指示した場合のみ目標位置設定が実行されるように構成されてもよい。この場合、ユーザによって自動追尾開始信号が入力された場合、本実施形態の目標位置設定が実行される。一方、ユーザによる操作が検出されない状態が所定時間続いたことで自動追尾状態ST2に遷移した場合、目標位置設定が実行されない。
本実施形態の構成によれば、オペレータによる手動操作から自動追尾への切り替え時に追尾目標位置を決定することで、切り替え前後で違和感なく連続した画像を撮影することが可能である。
<第2の実施形態>
本実施形態では、手動操作から自動追尾への切り替え時に画像内の被写体の位置を指定すると共に、画像内に占める被写体の大きさ(以下被写体サイズと称する)に基づいてズーム倍率を変更する例について説明する。
図7は、本実施形態の画像から被写体サイズを取得する動作を示すフローチャートである。
ステップS501乃至ステップS503の処理はそれぞれ、図3(a)のステップS101乃至ステップS103の処理と同様であるため、説明は省略する。また、ステップS506とステップS507の処理はそれぞれ、図3(a)のステップS104とステップS105の処理と同様であるため、説明は省略する。
ステップS504では、CPU201は、RAM202から画像を読み出し、画像内に占める被写体サイズを算出する。本実施形態では、ステップS502で推論部207が出力した矩形枠をRAM202から読み出し、矩形枠の対角線の長さを被写体サイズとする。
なお、自動追尾する被写体の推論部207の検出種別は、物体の形が不変であることが望ましい。例えば、人を自動追尾させるために人の全身を用いる場合、人の腕の広げ方や足の開き方によって人の全身に外接する矩形枠の大きさが変わってしまう。その結果、同じズーム倍率であっても異なる被写体のサイズとなり、CPU201は被写体が画角の奥行方向に移動したと誤検出してしまう。したがって、人を自動追尾させる場合は推論部207に検出させる種別は、人の顔等の体の一部であることが望ましい。
また、被写体サイズは、矩形枠の面積やパン方向又はチルト方向の画像全体に対する比率を用いてもよい。
ステップS505では、CPU201は、ステップS504で算出した被写体サイズを基にカメラ100に設定するためのズーム倍率を算出する。具体的には、CPU201はまず、ステップS504で算出した被写体サイズをRAM202から読み出し、後述する被写体の目標サイズとの差分を求める。次に、CPU201は、差分に応じて、望遠側、又は広角側へのズーム倍率を決定する。
なお、ワークステーション200は、自動追尾実行時に被写体サイズが目標サイズとなるように動作する。すなわち、目標サイズとは、ワークステーション200がズーム倍率を決定する際に基準とする被写体サイズである。
また、ズーム倍率は、カメラ100が備えるズームレンズ間の距離を変化させる速度であってもよいし、画像処理によって実現されるデジタルズーム倍率であってもよい。
更に、追尾対象である被写体の他に複数の第二の被写体を推論部207が検出した場合、第二の被写体がフレームアウトしない程度にズーム倍率を決定してもよい。これにより、追尾対象の大きさを維持しつつ複数の被写体をとらえ続けることが可能となる。
図8は、本実施形態のワークステーション200がズーム倍率を設定する処理を示すフローチャートである。
ステップS601では、CPU201は、画像入力I/F208を介してカメラ100から画像を受信し、RAM202に保存する。
ステップS602では、CPU201は、RAM202から画像を読み出し、画像内に占める被写体サイズを算出する。
ステップS603では、CPU201は、ステップS602で算出した被写体サイズを自動追尾中に被写体をとらえる目標サイズとして設定し、RAM202に書き出す。
本実施形態の構成によれば、オペレータによる手動操作から自動追尾への切り替え時に追尾目標サイズを決定することで、切り替え前後で違和感なく連続した画像を撮影することが可能である。
<第3の実施形態>
本実施形態では、ユーザが自動追尾切り替えを指示した時刻とワークステーション200が切り替え信号を受信する時刻とに有意な差がある場合に被写体の位置を用いて目標位置を決定する例について説明する。上述した時間差は、ネットワーク上で信号を送受信することによる通信レイテンシーやコントローラ300やカメラ100の内部処理にかかる時間により発生してしまう。カメラ100の内部処理は例えば、撮像処理や画像出力処理である。
本実施形態のシステムでは、カメラ100とワークステーション200は物理的に近い位置に設置され、コントローラ300はカメラ100とワークステーション200から離れた遠隔地に設置されているものとする。この場合、コントローラ300と、カメラ100又はワークステーション200との間における通信は、レイテンシーが発生する可能性がある。
また、オペレータが操作するコントローラ300とカメラ100との間の距離が離れるほど、通信レイテンシーは嵩む傾向となる。更に、通信レイテンシーの他にカメラ100とコントローラ300との間に不図示の中継機材等が多く介在した場合もレイテンシーが増していく。
レイテンシーが嵩むほどカメラ100が撮影した画像は遠隔地で操作を行うオペレータに遅延して到達し、オペレータが送信するカメラ制御指示は遅延してカメラ100に到達する。上述した時間差があると、オペレータが自動撮影開始を指示した際に視認している画像内の被写体の位置と、ワークステーション200が自動追尾開始信号を受信した時点の画像内の被写体の位置とが異なる可能性がある。この場合、第1及び第2の実施形態のようにワークステーション200が自動追尾開始信号を受信した時点の被写体の位置を自動追尾の目標位置に設定すると、画像内の自動追尾中の被写体の位置はオペレータが意図した位置と異なるものになってしまう。
そこで、本実施形態では、ワークステーション200は、自動追尾開始信号を受信した際に、予め定められた時間分遡った時点での画像を用いて被写体の目標位置を設定する。
図9は、本実施形態のワークステーション200の動作を示すフローチャートである。CPU201は、ユーザ入力I/F206やネットワークI/F204を通して自動追尾開始信号を受信すると、図9のフローを開始する。
ステップS701では、CPU201は、自動追尾開始信号を受信した時刻から所定時間遡った時刻に記録された被写体の位置をRAM202から読み込む。所定時間は、撮影した時刻とオペレータが自動追尾開始信号を送信した時刻との差分に相当する時間であり、予め固定値としてROM203に保存されていてもよいし、ユーザ入力I/F206を介してユーザからの指定に基づいて設定されてもよい。
また、CPU201は、ネットワークI/F204を介してコントローラ300と通信遅延測定用の信号を送受信することで通信にかかる時間を測定し、測定した時間を所定時間として設定してもよい。
なお、主な通信遅延を生じているインターネット600を共通に介していれば、ワークステーション200近傍の装置と、コントローラ300近傍の装置との間の通信にかかる時間が所定時間として設定されてもよい。例えば、LAN400に接続された機器と、LAN500に接続された機器との間の通信にかかる時間が所定時間として設定されてもよい。
更に、CPU201は、自動追尾開始信号と合わせて、自動追尾切り替え時にユーザが視認していた画像が撮影された時刻の情報を受信することで、対応する時刻の被写体の位置をRAM202から読み込んでもよい。
ステップS702では、CPU201は、ステップS701で取得した被写体の位置を目標位置として設定する。
なお、ステップS701で被写体の位置をRAM202から取得するためには、手動操作状態ST1においても推論部207は常に被写体の位置を検出し、RAM202に保存し続けなければならない。しかしながら、一般的に画像内の被写体を検出する画像認識処理は計算負荷が大きいため、ワークステーション200の計算資源を圧迫したり、消費電力を増加させたりする要因となる。そのため、推論部207が検出処理を実行する時間は、短時間であることが望ましい。
そこで、手動操作状態ST1において、CPU201は、画像入力I/F208を介して受信したカメラ100の画像のみをRAM202に保存し、ステップS701では所定時間遡った時刻の画像をRAM202から取得してもよい。その後、CPU201は、取得した画像を用いた推論部207の検出結果から被写体の位置を取得してもよい。
本実施形態の構成によれば、ユーザが自動追尾切り替えを指示した時刻とワークステーション200が切り替え信号を受信する時刻とに有意な差がある場合においても、オペレータが指定した適切な位置に被写体の位置を設定することが可能となる。
なお、各実施形態では、ワークステーション200がカメラ100の自動追尾制御を実行するが、本発明はこれに限定されない。例えばワークステーション200が有する機能をカメラ100やコントローラ300が有してもよい。
[その他の実施例]
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本実施形態の開示は、以下の構成及び方法を含む。
(構成1)
ユーザーの操作により撮像装置の画角を変更する第1の状態と画像上において被写体が目標位置に表示されるように前記画角を変更する第2の状態とに遷移可能なシステムに用いられる制御装置であって、
前記画像上における前記被写体の位置を取得する取得部と、
前記システムが前記第1の状態から前記第2の状態に遷移した場合、前記画像上における前記被写体の位置に基づいて前記目標位置を決定する決定部とを有することを特徴とする制御装置。
(構成2)
前記決定部は、前記システムが前記第1の状態から前記第2の状態に遷移した際の前記画像上における前記被写体の位置を前記目標位置として決定することを特徴とする構成1に記載の制御装置。
(構成3)
前記決定部は、前記システムが前記第1の状態から前記第2の状態に遷移した際に、前記被写体が移動している場合、前記画像の中心位置を前記目標位置として決定し、前記被写体が停止している場合、前記システムが前記第1の状態から前記第2の状態に遷移した際の前記画像上における前記被写体の位置を前記目標位置として決定することを特徴とする構成1又は2に記載の制御装置。
(構成4)
前記第2の状態では、前記画像における前記被写体のサイズが目標サイズに近づくように前記画角が変更され、
前記取得部は、前記画像における前記被写体のサイズを取得し、
前記決定部は、前記システムが前記第1の状態から前記第2の状態に遷移した際の前記画像における前記被写体のサイズを前記目標サイズとして決定することを特徴とする構成1乃至3の何れか一つの構成に記載の制御装置。
(構成5)
前記決定部は、前記システムが前記第1の状態から前記第2の状態に遷移する前に前記取得部により取得され、記録された複数の前記被写体の位置のうち1つの前記被写体の位置を前記目標位置として決定することを特徴とする構成1に記載の制御装置。
(構成6)
前記決定部は、前記システムが前記第1の状態から前記第2の状態に遷移した時刻から所定時間だけ前の時刻に記録された前記被写体の位置を前記目標位置として決定することを特徴とする構成5に記載の制御装置。
(構成7)
前記所定時間は、前記システムに対して前記第1の状態から前記第2の状態への遷移が指示された時刻と、前記システムが前記第1の状態から前記第2の状態に遷移した時刻との差分に基づくことを特徴とする構成6に記載の制御装置。
(構成8)
前記複数の前記被写体の位置を記録する記録部を更に有することを特徴とする構成5乃至7の何れか一つの構成に記載の制御装置。
(構成9)
前記画像を取得する画像取得部を更に有することを特徴とする構成1乃至8の何れか一つの構成に記載の制御装置。
(構成10)
前記画像を用いて前記被写体の位置を検出する検出部を更に有することを特徴とする構成1乃至9の何れか一つの構成に記載の制御装置。
(構成11)
ユーザーの操作により画角を変更する第1の状態と画像上において被写体が目標位置に表示されるように前記画角を変更する第2の状態とに遷移可能なシステムに用いられる撮像装置であって、
前記被写体を撮像する撮像部と、
前記画像上における前記被写体の位置を取得する取得部と、
前記システムが前記第1の状態から前記第2の状態に遷移した場合、前記画像上における前記被写体の位置に基づいて前記目標位置を決定する決定部とを有することを特徴とする撮像装置。
(構成12)
被写体を撮像する撮像部を備える撮像装置と、
前記撮像装置を操作するための操作装置と、
前記撮像装置を制御するための制御装置とを有し、ユーザーの操作により前記撮像装置の画角を変更する第1の状態と画像上において被写体が目標位置に表示されるように前記画角を変更する第2の状態とに遷移可能なシステムであって、
前記制御装置は、
前記画像上における前記被写体の位置を取得する取得部と、
前記システムが前記第1の状態から前記第2の状態に遷移した場合、前記画像上における前記被写体の位置に基づいて前記目標位置を決定する決定部とを備えることを特徴とするシステム。
(方法1)
ユーザーの操作により撮像装置の画角を変更する第1の状態と画像上において被写体が目標位置に表示されるように前記画角を変更する第2の状態とに遷移可能なシステムに用いられる制御方法であって、
前記画像上における前記被写体の位置を取得するステップと、
前記システムが前記第1の状態から前記第2の状態に遷移した場合、前記画像上における前記被写体の位置に基づいて前記目標位置を決定するステップとを有することを特徴とする制御方法。
(構成13)
方法1に記載の制御方法をコンピュータに実行させることを特徴とするプログラム。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
100 カメラ(撮像装置)
201 CPU(制御装置)
201a 取得部
201b 決定部

Claims (14)

  1. ユーザーの操作により撮像装置の画角を変更する第1の状態と画像上において被写体が目標位置に表示されるように前記画角を変更する第2の状態とに遷移可能なシステムに用いられる制御装置であって、
    前記画像上における前記被写体の位置を取得する取得部と、
    前記システムが前記第1の状態から前記第2の状態に遷移した場合、前記画像上における前記被写体の位置に基づいて前記目標位置を決定する決定部とを有することを特徴とする制御装置。
  2. 前記決定部は、前記システムが前記第1の状態から前記第2の状態に遷移した際の前記画像上における前記被写体の位置を前記目標位置として決定することを特徴とする請求項1に記載の制御装置。
  3. 前記決定部は、前記システムが前記第1の状態から前記第2の状態に遷移した際に、前記被写体が移動している場合、前記画像の中心位置を前記目標位置として決定し、前記被写体が停止している場合、前記システムが前記第1の状態から前記第2の状態に遷移した際の前記画像上における前記被写体の位置を前記目標位置として決定することを特徴とする請求項1又は2に記載の制御装置。
  4. 前記第2の状態では、前記画像における前記被写体のサイズが目標サイズに近づくように前記画角が変更され、
    前記取得部は、前記画像における前記被写体のサイズを取得し、
    前記決定部は、前記システムが前記第1の状態から前記第2の状態に遷移した際の前記画像における前記被写体のサイズを前記目標サイズとして決定することを特徴とする請求項1又は2に記載の制御装置。
  5. 前記決定部は、前記システムが前記第1の状態から前記第2の状態に遷移する前に前記取得部により取得され、記録された複数の前記被写体の位置のうち1つの前記被写体の位置を前記目標位置として決定することを特徴とする請求項1に記載の制御装置。
  6. 前記決定部は、前記システムが前記第1の状態から前記第2の状態に遷移した時刻から所定時間だけ前の時刻に記録された前記被写体の位置を前記目標位置として決定することを特徴とする請求項5に記載の制御装置。
  7. 前記所定時間は、前記システムに対して前記第1の状態から前記第2の状態への遷移が指示された時刻と、前記システムが前記第1の状態から前記第2の状態に遷移した時刻との差分に基づくことを特徴とする請求項6に記載の制御装置。
  8. 前記複数の前記被写体の位置を記録する記録部を更に有することを特徴とする請求項5に記載の制御装置。
  9. 前記画像を取得する画像取得部を更に有することを特徴とする請求項1又は2に記載の制御装置。
  10. 前記画像を用いて前記被写体の位置を検出する検出部を更に有することを特徴とする請求項1又は2に記載の制御装置。
  11. ユーザーの操作により画角を変更する第1の状態と画像上において被写体が目標位置に表示されるように前記画角を変更する第2の状態とに遷移可能なシステムに用いられる撮像装置であって、
    前記被写体を撮像する撮像部と、
    前記画像上における前記被写体の位置を取得する取得部と、
    前記システムが前記第1の状態から前記第2の状態に遷移した場合、前記画像上における前記被写体の位置に基づいて前記目標位置を決定する決定部とを有することを特徴とする撮像装置。
  12. 被写体を撮像する撮像部を備える撮像装置と、
    前記撮像装置を操作するための操作装置と、
    前記撮像装置を制御するための制御装置とを有し、ユーザーの操作により前記撮像装置の画角を変更する第1の状態と画像上において被写体が目標位置に表示されるように前記画角を変更する第2の状態とに遷移可能なシステムであって、
    前記制御装置は、
    前記画像上における前記被写体の位置を取得する取得部と、
    前記システムが前記第1の状態から前記第2の状態に遷移した場合、前記画像上における前記被写体の位置に基づいて前記目標位置を決定する決定部とを備えることを特徴とするシステム。
  13. ユーザーの操作により撮像装置の画角を変更する第1の状態と画像上において被写体が目標位置に表示されるように前記画角を変更する第2の状態とに遷移可能なシステムに用いられる制御方法であって、
    前記画像上における前記被写体の位置を取得するステップと、
    前記システムが前記第1の状態から前記第2の状態に遷移した場合、前記画像上における前記被写体の位置に基づいて前記目標位置を決定するステップとを有することを特徴とする制御方法。
  14. 請求項13に記載の制御方法をコンピュータに実行させることを特徴とするプログラム。
JP2022137526A 2022-08-31 2022-08-31 制御装置、撮像装置、制御方法、及びプログラム Pending JP2024033741A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022137526A JP2024033741A (ja) 2022-08-31 2022-08-31 制御装置、撮像装置、制御方法、及びプログラム
EP23192119.8A EP4333448A1 (en) 2022-08-31 2023-08-18 Control apparatus, image pickup apparatus, control method, and program
US18/458,012 US20240073512A1 (en) 2022-08-31 2023-08-29 Control apparatus, image pickup apparatus, control method, and storage medium
CN202311108842.4A CN117641127A (zh) 2022-08-31 2023-08-31 控制设备、摄像设备、系统、控制方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022137526A JP2024033741A (ja) 2022-08-31 2022-08-31 制御装置、撮像装置、制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2024033741A true JP2024033741A (ja) 2024-03-13

Family

ID=87748343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022137526A Pending JP2024033741A (ja) 2022-08-31 2022-08-31 制御装置、撮像装置、制御方法、及びプログラム

Country Status (4)

Country Link
US (1) US20240073512A1 (ja)
EP (1) EP4333448A1 (ja)
JP (1) JP2024033741A (ja)
CN (1) CN117641127A (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4054859B2 (ja) 2003-09-05 2008-03-05 日本マイクロシステムズ株式会社 動体監視装置
JP4241742B2 (ja) * 2006-01-31 2009-03-18 パナソニック株式会社 自動追尾装置及び自動追尾方法
JP5317607B2 (ja) 2008-09-24 2013-10-16 キヤノン株式会社 自動追尾カメラの制御装置及び自動追尾カメラシステム及び自動追尾カメラの制御方法
JP5911201B2 (ja) * 2011-04-20 2016-04-27 キヤノン株式会社 カメラ装置の自動追尾制御装置及びそれを有する自動追尾カメラシステム
JP6574645B2 (ja) * 2015-08-28 2019-09-11 キヤノン株式会社 撮像装置を制御する制御装置、撮像装置の制御方法、及びプログラム
JP2022002378A (ja) * 2020-06-22 2022-01-06 キヤノン株式会社 撮像装置、撮像システム、撮像装置の制御方法、およびプログラム

Also Published As

Publication number Publication date
US20240073512A1 (en) 2024-02-29
CN117641127A (zh) 2024-03-01
EP4333448A1 (en) 2024-03-06

Similar Documents

Publication Publication Date Title
KR101299613B1 (ko) 제어 장치, 제어 방법, 카메라 시스템 및 기록 매체
US7256817B2 (en) Following device
JP2012227737A (ja) カメラ装置の自動追尾制御装置及びそれを有する自動追尾カメラシステム
US9906710B2 (en) Camera pan-tilt-zoom (PTZ) control apparatus
JP2013106266A (ja) 自動追尾カメラシステム
JP2020188349A (ja) 撮像装置、撮像方法、コンピュータプログラム及び記憶媒体
JP2019054369A (ja) 撮像装置、撮像装置の制御方法及びプログラム
EP2648406B1 (en) Method for switching viewing modes in a camera
US8648916B2 (en) Control of an image capturing device
JP5847591B2 (ja) 情報処理装置、情報処理装置の情報処理方法およびプログラム
JP2024033741A (ja) 制御装置、撮像装置、制御方法、及びプログラム
KR101452372B1 (ko) 카메라 제어 방법 및 그 시스템
JP2011188258A (ja) カメラシステム
WO2019031244A1 (ja) 情報処理装置、撮影システム、撮影システムの制御方法、及びプログラム
WO2022041013A1 (zh) 控制方法、手持云台、系统及计算机可读存储介质
WO2020015754A1 (zh) 图像采集方法及图像采集设备
JP2024010640A (ja) 撮像システム及びそれを構成する制御装置、撮像装置、制御方法
US20240022812A1 (en) Image capturing system, control apparatus, image capturing apparatus, and display apparatus constituting the system, control method, and display method
JP2022097165A (ja) 情報処理装置、情報処理方法、及びプログラム
US20240022821A1 (en) Imaging system, and control apparatus and imaging apparatus constituting same
JP2023117955A (ja) 情報処理装置、撮像装置、撮像システム、方法、及びプログラム
EP4333447A1 (en) Imaging control apparatus, image pickup apparatus, imaging control method, and program
JP2013162154A (ja) 撮影装置および撮影システム
US20230276131A1 (en) Image capture apparatus and control method
JP2024010639A (ja) 撮像システム及びそれを構成する制御装置、撮像装置、表示装置、制御方法、表示方法