JP2021182659A - 撮像装置、及び撮像システム - Google Patents

撮像装置、及び撮像システム Download PDF

Info

Publication number
JP2021182659A
JP2021182659A JP2020086426A JP2020086426A JP2021182659A JP 2021182659 A JP2021182659 A JP 2021182659A JP 2020086426 A JP2020086426 A JP 2020086426A JP 2020086426 A JP2020086426 A JP 2020086426A JP 2021182659 A JP2021182659 A JP 2021182659A
Authority
JP
Japan
Prior art keywords
subject
image pickup
image
operation mode
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020086426A
Other languages
English (en)
Other versions
JP2021182659A5 (ja
Inventor
勇人 ▲高▼橋
Isato Takahashi
和紀 ▲高▼山
Kazunori Takayama
総一郎 鈴木
Soichiro Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020086426A priority Critical patent/JP2021182659A/ja
Priority to US17/316,379 priority patent/US11810386B2/en
Publication of JP2021182659A publication Critical patent/JP2021182659A/ja
Publication of JP2021182659A5 publication Critical patent/JP2021182659A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Astronomy & Astrophysics (AREA)
  • Studio Devices (AREA)
  • Accessories Of Cameras (AREA)

Abstract

【課題】複数の撮像装置で連携して被写体を撮像する際、1つの撮像装置が被写体を見失うと、他の撮像装置も被写体を撮像できなくなり、シャッターチャンスを逃してしまう。【解決手段】撮像画角を変更可能な無人機である撮像装置であって、特定の主被写体を検出する検出手段と、第1の撮像装置と通信する通信手段と、前記通信手段を介して前記第1の撮像装置で撮像している被写体の情報を取得する取得手段と、前記特定の主被写体を探索する第1の動作モードと、前記取得手段により取得した被写体の情報に基づいて前記第1の撮像装置と異なる画像を撮像する第2の動作モードと、を切り替えて制御する制御手段と、を有し、前記制御手段は、前記取得した被写体の情報に前記主被写体の情報が含まれない場合には前記第1の動作モードで制御し、前記主被写体の情報が含まれる場合には第2の動作モードで制御する。【選択図】図1

Description

本発明は、撮像画角を変更可能な撮像装置と、少なくとも1つの撮像画角を変更可能な撮像装置を含む複数の撮像装置を連携させて制御する撮像システムに関するものである。
従来、複数のカメラ(撮像装置)を用いて被写体を撮影する撮影システムが知られている。このような撮影システムでは、複数のカメラ全ての姿勢・撮影制御を人間が手動で行うのが一般的であった。しかし、動きの速い被写体を撮影する場合など、人間が全てのカメラを手動で制御して撮影を実行することは難しい。
このような課題に対し、複数のカメラで情報を共有して連携することで、被写体を自動で撮影する撮影システムが知られている。例えば、特許文献1では、親機カメラが検出した被写体の情報を子機カメラへ送信し、子機カメラは送信された情報から撮影タイミングを決定する。これにより、複数のカメラによる特定被写体を所望の多方向から同時撮影することを実現している。
特開2015−15559号公報
しかしながら特許文献1に開示の構成では、親機カメラが検出した被写体情報に基づいて子機カメラの撮影タイミングを制御する為、親機カメラが被写体を見失っている場合は、全てのカメラが被写体を撮影出来なくなる。また、親機カメラが被写体を撮影している期間のみしか子機カメラは自動で制御されない。
そこで、本発明の目的は、複数のカメラで連携して被写体を撮影しながら、あるカメラが被写体を見失って撮影できない状態に陥っても、他のカメラが被写体を撮影可能な手段を提供することである。
上記目的を達成するために、本発明は、被写体を撮像する撮像手段と、他の撮像装置と通信する通信手段と、前記通信手段を介して前記他の撮像装置で撮像している被写体に関する被写体情報を取得する取得手段と、取得した前記被写体情報に基づいて、特定の主被写体を探索する第1の動作モードと、前記他の撮像装置と異なる画角で撮像する第2の動作モードと、を含む複数の動作モードの何れかを切り替えて制御する制御手段と、を有し、前記制御手段は、取得した前記被写体情報に前記特定の主被写体の情報が含まれない場合には前記第1の動作モードで制御し、該被写体情報に該特定の主被写体の情報が含まれる場合には第2の動作モードで制御することを特徴とする。
本発明によれば、複数のカメラで連携して被写体を撮影しながら、あるカメラが被写体を見失って撮影できない状態に陥っても、他のカメラが被写体を撮影することができる。
本発明の実施形態に係る無人撮像装置(ドローン)と他の撮像装置(手持ちカメラ)で通信する情報を示す図である。 本発明の実施形態に係る無人撮像装置(ドローン)の構成例を示すブロック図である。 本発明の実施形態に係る他の撮像装置(手持ちカメラ)の構成例を示すブロック図である。 本発明の第1の実施形態に係る撮影モード切り替えを示す図である。 本発明の第1の実施形態に係る無人撮像装置(ドローン)の撮影シーケンスを示すフローチャートである。 本発明の第2の実施形態に係る無人撮像装置(ドローン)の撮影シーケンスを示すフローチャートである。 本発明の第3の実施形態に係る無人撮像装置(ドローン)の主被写体のシャッターチャンスを判別する制御動作を説明する図である。 本発明の第3の実施形態に係る撮影モード切り替えを示す図である。 本発明の第3の実施形態に係る無人撮像装置(ドローン)の撮影シーケンス示すフローチャートである。 本発明の第4の実施形態に係る撮影モード切り替えのシーケンスを示すフローチャートである。 本発明の第4の実施形態に係る撮影モード切り替えのイメージ図である。 本発明の第5の実施形態に係る撮影モード切り替えのシーケンスを示すフローチャートである。 本発明の第5の実施形態に係る撮影モード切り替えのイメージ図である。
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。以下の実施形態の説明において、同一の構成、動作及び処理については図中に同一の符号を付す。また、本実施例において、本発明に係る撮像装置として、カメラ一体型ドローンと手持ちカメラの組み合わせを例に説明するが、一例であり、これに限らない。少なくとも1つの撮像装置が、他方の撮像装置の撮像画像に応じて画角が変更可能な構成であればよい。
(第1の実施形態)
本発明の第1の実施の形態を説明する。本実施例では、無人で移動可能なカメラ一体型ドローンと、人が操作することにより撮影を行うカメラ(以下手持ちカメラ)とが連携して撮影する撮像システムについて説明する。
図1は、本発明の実施形態に係る無人撮像装置(ドローン)と他の撮像装置(手持ちカメラ)で通信する情報を示す図である。ドローン100は、後述する結像光学部111・撮像素子112等からなる撮像部110を備えている。ドローン100は、無人で飛行可能な無人撮像装置である。ドローン100は、4つの回転翼101〜104をそれぞれ回転させるためのモータを備えている。ドローン100は、各モータにより、各回転翼を独立に、バランスよく回転させることで飛行を実現している。また、撮像部110は、ドローン100内に搭載されている後述のCPU130の判断に基づいて撮影動作を行う。CPU130、及び撮影条件についての詳細は後述する。
手持ちカメラ200は、人間(ユーザ)によって操作・撮影が行われる撮像装置である。ドローン100と手持ちカメラ200は、WiFi等の無線通信手段で各種情報を互いに通信可能である。本実施形態においては、手持ちカメラ200は、カメラ200が撮像しているライブビュー(以降、LV)画像をWiFi等の無線通信手段でドローン100へ送信可能である。また、ドローン100は、ドローンが撮像している画像や、カメラ200から送信された画像から、予め登録された主被写体を検出し、検出した主被写体の座標を算出可能である。また、ドローン100は、算出した座標情報をWiFi等の無線通信手段で手持ちカメラ200へ送信できる。
手持ちカメラ200は、結像光学部202と、例えば、シャッターボタン202、ダイヤル203などの操作部材を備える。結像光学部202は、手持ちカメラ200に括り付けであってもよいし、着脱可能な交換レンズであってもよい。シャッターボタン200は、ユーザ操作を受け付けて撮影を指示するための操作部材である。ユーザは、シャッターボタン200の半押し(SW1)で撮影準備を指示し、全押し(SW2)で撮影実行を指示する。ダイヤル203は、ダイヤル式の操作部材である。ユーザは、例えば、ダイヤルを回すことで設定を切り替えたり、メニューやモードの変更、設定の変更を指示することが可能である。
図2は、本発明の実施形態に係る無人撮像装置(ドローン)の構成例を示すブロック図である。
撮像部110は、結像光学部111、撮像素子112、画像処理部113等を有し、被写体を撮像して画像データを生成する。結像光学部111は、不図示のフォーカスレンズやズームレンズ、絞り等を有する。結像光学部111は、フォーカス調節や露出調節を行い、被写体像を撮像素子112へ結像する。撮像素子112は、結像光学部111を介して結像された光学像を電気信号に変換するCCD等の撮像素子である。
画像処理部113は、撮像した画像データに対して、ホワイトバランス調整やノイズ低減処理等の各種の画像処理を施して現像を実行する画像処理部である。
主被写体検出部114は、入力される画像から予め登録された主被写体を検出する。主被写体検出部114は、例えば、主被写体が人物である場合には主被写体の顔の向き・大きさを検出する。また、被写体検出部114は、主被写体の撮像画面上での位置等、主被写体の各種情報を取得可能である。主被写体検出部114は、ドローン100が撮像した画像から主被写体を検出する。また、主被写体検出部114は、後述のように、通信部132を介して手持ちカメラ200から受信したLV画像から主被写体を検出することも可能である。
記録部115は、撮像した画像を記録媒体に記録する。
撮像制御部116は、不図示のサブCPUを備えており、撮像部110全体を制御して撮像を実行する。
DRAM117は、画像データを一時的に格納する為のメモリとなるDynamic Random Access Memoryである。
主被写体位置算出部118は、主被写体の座標情報を算出する。主被写体位置算出部118は、ドローン100で撮像した画像と、主被写体検出部114の検出結果から、ドローン100と主被写体との距離情報を算出する。主被写体とドローン100との距離は、一般的な既知の方法で算出可能である。主被写体位置算出部118は、取得した距離情報と、後述のGPS133で取得したドローン100の座標情報とから、主被写体の座標情報を算出する。主被写体位置算出部118が算出した主被写体の座標情報は、後述の通信部132を介して手持ちカメラ200へ送信される。
情報取得部119は、手持ちカメラ200から受信したLV画像から主被写体検出部114が検出した主被写体の検出結果から、受信したLV画像に含まれる主被写体の情報を取得する。情報取得部119は、手持ちカメラ200のLV画像から主被写体検出部114が検出した主被写体の検出結果から、手持ちカメラ200が撮像している主被写体の顔の向き・大きさ等の情報を取得する。さらに、情報取得部119は、通信部132を介して手持ちカメラ200の位置情報を取得し、取得した位置情報と、手持ちカメラ200のLV画像から主被写体検出部114が検出した主被写体の検出結果から、被写体の位置を算出することも可能である。また、情報取得部119は、ドローン100が撮像した画像から主被写体検出部114が検出した主被写体の検出結果から、ドローン100が撮像している主被写体の顔の向き・大きさ等の情報を取得する。
CPU130は、少なくとも1つのプロセッサーまたは回路からなる制御部であり、ドローン100全体を制御する。CPU130は、後述の記憶部131に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。CPU130は、手持ちカメラ200からのLV画像の主被写体の情報、ドローン100が撮像した画像の主被写体の情報、及び、予め設定された撮影条件等から、手持ちカメラ200と異なる画角を撮影する為の移動先座標を算出する。CPU130は、算出した移動先座標への移動を移動制御部141へ指示し、撮像制御部116へ撮影を指示する。
記憶部131には、CPU130により実行可能なプログラムが格納されている。
通信部132は、手持ちカメラ200と通信する。通信部132は、手持ちカメラ200が撮像したLV画像や主被写体座標などの種々の情報を送受信している。データ転送制御部135は、通信部132と、撮像部110との間のデータ転送を制御する。GPS133は、ドローン100の位置・座標情報を検出する。ジャイロセンサ134は、ドローン100の角度や角速度を検出している。
移動制御装置140は、移動制御部141、モータ制御部151〜154、モータ161〜164を有する。モータ161〜164には、それぞれ回転翼101〜104が接続されている。移動制御部141は、不図示のサブCPUを備えている。移動制御部141は、CPU130の指示と、ジャイロセンサ134が検出した情報から、ドローン100の飛行制御を実現している。
次に、図3は、本発明の実施形態に係る他の撮像装置(手持ちカメラ200)の構成例を示すブロック図である。
撮像部1010は、結像光学部200、撮像素子1012、画像処理部1013等を有し、被写体を撮像して画像データを生成する。結像光学部1011は、不図示のフォーカスレンズやズームレンズ、絞り等からなり、フォーカス調節や露出調節を行い、被写体像を撮像素子1012へ結像する。撮像素子1012は、結像光学部1011を介して結像された光学像を電気信号に変換するCCD等の撮像素子である。
画像処理部1013は、撮像した画像データに対して、ホワイトバランス調整やノイズ低減処理等の各種の画像処理を施して現像を実行する画像処理部である。
主被写体検出部1014は、入力される画像から予め登録された主被写体を検出する。主被写体検出部114は、入力された画像から主被写体を検出する。また、主被写体検出部1014は、主被写体の顔の向き・大きさ・撮像画面上での位置等、主被写体の各種情報を取得可能である。
記録部1015は、手持ちカメラ200が撮像した画像を記録媒体に記録する。
撮像制御部1016は、不図示のサブCPUを備えており、撮像部1010全体を制御して撮像を実行する。
DRAM1017は、画像データを一時的に格納する為のメモリとなるDynamic Random Access Memoryである。
主被写体位置算出部1018は、主被写体の座標情報を算出する。
撮影範囲判定部1019は、結像光学部1011、または撮像制御部1016から取得したレンズのズーム情報を基に、撮影画角の範囲を判定する。
CPU1030は、手持ちカメラ200全体の制御を司るメインCPUである。CPU1030は、少なくとも1つのプロセッサーまたは回路からなる制御部であり、手持ちカメラ200の全体を制御する。CPU1030は、後述の記憶部1031に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。
記憶部1031には、CPU1030により実行可能なプログラムが格納されている。
通信部1032は、ドローン100と通信する。通信部1032は、撮像したLV画像や主被写体座標などの種々の情報を送受信している。また、通信部1032は、ドローン100への動作モード指示情報の送信およびドローン100からの補助情報の受信をしている。ここで補助情報とは、ドローン100が撮影した画像や、ドローン100が検出した被写体の位置情報などが挙げられる。
GPS1033は、手持ちカメラ200の位置・座標情報を検出する。データ転送制御部1035は、通信部1032と、撮像部1010との間のデータ転送を制御する。操作部材1034は、ユーザ操作を受け付ける操作部材であって、例えば、前述したシャッターボタン202、ダイヤル203などを有する。
図4は、本発明の第1の実施形態に係る撮影モード切り替えを示す図である。本実施例では、ドローン100と手持ちカメラ200が連携して同一の被写体Aを主題として撮影し続ける撮像システムについて説明する。
本実施形態において、ドローン100は2つの動作モードを持っており、図4(a)は第1の動作モード、図4(b)は第2の動作モードを説明する図である。ドローン100は起動時において、手持ちカメラ200で撮像されたLV画像(ライブビュー画像)を受信する。そして、ドローン100は、受信したLV画像の中から予め主被写体として登録されている被写体Aの検出を行い、検出できない場合は第1の動作モード、検出できた場合は第2の動作モードで動作する。また、ドローン100が手持ちカメラ200からLV画像を受信できない場合は、ドローン100は、第1の動作モードで動作する。
本実施形態では、主被写体検出部114が主被写体を検出し、かつ、検出された主被写体の顔が所定の大きさより大きい場合に、LV画像には主被写体の情報が含まれていると判断する。主被写体が検出できない、もしくは検出された主被写体の顔の大きさが所定の大きさより大きくない場合は、LV画像には主被写体の情報が含まれていないと判断する。ここで、情報取得部119が、手持ちカメラ200のLV画像に主被写体の情報が含まれていないと判断した時は、ドローン100が主被写体を探索し、主被写体が含まれる画像を撮像し記録媒体へ記録する(第1の動作モード)。
一方、情報取得部119が、手持ちカメラ200のLV画像に主被写体の情報が含まれていると判断した時は、ドローン100は手持ちカメラ200とは異なる画角で撮像を行い、撮影した画像を記録媒体へ記録する(第2の動作モード)。
まず、図4(a)を参照して、第1の動作モードについて、説明する。第1の動作モードは、手持ちカメラ200を操作する人間(ユーザ)が主被写体である被写体Aを発見できていない等、何らかの理由により手持ちカメラ200で主被写体を撮影できていない状況を想定した動作モードである。ドローン100は、手持ちカメラ200から受信したLV画像から被写体Aを検出できない場合、第1の動作モードで動作する。第1の動作モードでは、ドローン100は、ドローン100が撮影したLV画像から被写体Aを探索する。ドローン100が撮影した画像に被写体Aが含まれない場合には、撮影する方向や、ドローン100の位置を移動して被写体Aを探索する。撮影された画像から被写体Aが検出されると、画角等の決められた条件に基づいて、撮影される画像に被写体Aが含まれるように撮影を行う。例えば、第1の動作モードでは、被写体Aを撮影する方向(正面等)、主被写体の顔の大きさの比率や位置がドローン100に予め設定されているものとする。また、ドローン100は、このように第1の動作モードでは、特定の被写体を探索し、見つかった被写体を決められた方向、大きさで撮影する。
本実施例では、ドローン100は、内蔵したGPS(Global Positioning System)の情報、撮影時の焦点距離の情報等から、ドローン100が撮像した画像から検出した被写体Aの座標(位置情報)を算出することができる。ドローン100は、ドローン100が撮影した画像から被写体Aを検出したら、算出した被写体Aの座標情報を手持ちカメラ200へ送信する。
手持ちカメラ200は、GPSを内蔵しており、GPSの情報から手持ちカメラ200の座標(位置情報)を取得可能である。手持ちカメラ200は、ドローン100から受信した被写体Aの座標と、手持ちカメラ200の座標を比較し、被写体Aの場所を指し示す矢印のアイコンを手持ちカメラ200の不図示の表示部に表示する。手持ちカメラ200を操作する人間(ユーザ)は、表示された被写体Aの場所の情報によって、被写体Aを撮影可能な場所へ移動することが可能になる。手持ちカメラ200を操作する人間が被写体Aを発見し、被写体Aの撮影しようとすると、手持ちカメラ200のLV画像に被写体Aが含まれることになる。ドローン100は、手持ちカメラ200から受信したLV画像から被写体Aを検出できた時は、第2の動作モードに切り替わる。
次に、図4(b)を参照して、第2の動作モードについて、説明する。第2の動作モードは、手持ちカメラ200を操作する人間が主被写体を撮影している状況を想定した動作モードである。この場合、ドローン100は、手持ちカメラ200から受信したLV画像から主被写体として予め登録されている被写体Aを検出できる。すなわち、手持ちカメラ200は主被写体を撮影できる状況である。そこで、ドローン100は、手持ちカメラ200が撮像する画像とは異なる画像を撮影する。第2の動作モードで画像を撮影する際の条件は予めドローン100に設定されているものとする。例えば、本実施例では、ドローン100には、手持ちカメラ200が撮像している被写体Aを、手持ちカメラ200とは異なる画角で撮影するように設定されている。ここで、手持ちカメラ200とは異なる画角で主被写体を撮影する為の条件として、手持ちカメラ200が撮像している主被写体の顔の向きとの角度差(90°、180°等)や画像に対する主被写体の顔の大きさの比率や位置等をドローン100に設定できる。ドローン100は、手持ちカメラ200から、手持ちカメラ200が撮影している画像の画角の情報を通信部132を介して受信している。
ドローン100が第2の動作モードで動作中に、手持ちカメラ200から受信したLV画像から被写体Aを検出できなくなった場合には、ドローン100は前述の第1の動作モードでの動作に切り替わる。これにより、手持ちカメラ200を操作する人間が撮影途中で被写体Aを撮影できない状況に陥っても、ドローン100が代わりに画角等の決められた条件に基づいて、被写体Aを含む画像を撮影することができる。
このように、手持ちカメラ200を操作する人間が主被写体を撮影できない状況の時は、ドローン100が主被写体を正面から撮影する等、主被写体を含む画像を決められた条件に従って撮影する。そのため、シャッターチャンスを逃さず主被写体を撮影することができる。また、手持ちカメラ200を操作する人間が主被写体を撮影している時は、ドローン100は手持ちカメラ200とは異なる画角で主被写体を撮影することで、様々な画角で主被写体を撮影できる。
図5は、本発明の第1の実施形態に係る無人撮像装置(ドローン)の撮影シーケンスを示すフローチャートである。図5のフローチャートにおける各処理は、CPU130およびCPU1030が、記憶部131又は記憶部1031に格納されたプログラムを不図示のシステムメモリに展開して実行し、各機能ブロックを制御することにより実現される。図5のフローチャートは、ドローン100および手持ちカメラ200の電源がONにされ、連携動作を始めたところから開始する。
ステップS401で、ドローン100は、撮影モードが起動されたか否かを判断する。撮影モードが起動された場合はステップS402へ進み、起動されていない場合は撮影モードが起動するまで待機する。
ステップS402では、ドローン100は、通信部132を介して、手持ちカメラ200が撮像しているLV画像を取得する。
次のステップS403では、情報取得部119は、取得した手持ちカメラ200のLV画像に、予め登録されている主被写体の情報が含まれるかを判断する。手持ちカメラ200のLV画像に主被写体の情報が含まれない場合にはステップS404へ進み、含まれる場合にはステップS408へ進む。
手持ちカメラ200のLV画像に主被写体が含まれていない場合、ステップS404で、CPU130は、撮像部110、移動制御装置140に指示を出し、ドローン100の位置や撮像方向を変更して画角変更しながら撮像を行い、主被写体の探索を行う。
ステップS405で、CPU130は、主被写体検出部114が、ドローン100が撮像した画像内に主被写体を検出したかを判断する。主被写体を検出した場合はステップS406へ進む。また、主被写体を検出しない場合はステップS402へ戻り、手持ちカメラ200からのLV画像、又は、ドローン100が撮影した画像のいずれかで主被写体を検出されるまで、ステップS402〜S405の処理を繰り返す。
ステップS405で主被写体が検出された場合、ステップS406で、ドローン100から手持ちカメラ200へ、検出した主被写体の位置情報を通知する。
ステップS407で、検出された主被写体の位置情報に基づいて、移動制御部141は、ドローン100が主被写体を予め設定された条件で撮影可能な位置へ移動するように制御する。このとき、ドローン100が主被写体を撮影するための条件として、例えば、主被写体の顔の向きや、画角に対する顔の比率や顔の位置などを予め設定できる。
一方、手持ちカメラ200のLV画像に主被写体の情報が含まれていると判断したらステップS408へ進み、移動制御部141は、ドローン100が手持ちカメラ200の撮像画角とは異なる画角で撮影可能な位置へ移動するように制御する。
ステップS409で、CPU130は、ドローン100の移動が完了したか否かを判断する。移動が完了していない場合は、ステップS402へ戻り、ステップS409までの処理を繰り返し、所望の画角で撮影できる位置まで移動する。
所望の画角で撮影可能な位置への移動が完了したら、ステップS410で、CPU130は、主被写体の撮影・記録を撮像制御部116へ指示する。
ステップS411では、ユーザーからの停止の指示を判断し、停止の指示があった場合は動作を停止する。停止を指示されなければ、ステップS402へ戻り、以降、同様の制御を繰り返す。本フローチャートのいずれのステップにおいても、動作停止の指示を受けた場合には撮影モードを停止して本フローチャートを終了する。
以上、上記本実施例の制御により、手持ちカメラ200が主被写体を見失っている場合においても、ドローン100が主被写体を撮影する為、シャッターチャンスを逃さず主被写体を撮影することができる。また、手持ちカメラとドローンで、異なる画角で撮影を行う為、よりシャッターチャンスを逃さず撮影することができる。
なお、本実施例では、ドローン100が手持ちカメラから受信したLV画像から検出した主被写体の顔が所定の大きさより大きい場合に、主被写体の情報が含まれていると判断したが、顔の大きさ以外の条件で判断しても良い。
また、本実施例では、第1の動作モード時にドローンが撮影する条件(正面から撮影、等)は予め設定されているとしたが、これに限らない。例えば、手持ちカメラでドローンの撮影条件を設定する構成として、手持ちカメラで設定した条件をドローンに送信して、送信された条件に従てドローンが撮影しても良い。また、第2の動作モード時にドローンが撮影する条件(異なる画角で撮影、等)も同様に、手持ちカメラを操作する人間が設定し、ドローンに指示できる構成としても良い。
本実施例では、第1の動作モード時にドローンが主被写体を正面から撮影するとしたが、正面以外の撮影条件で撮影しても良く、複数の撮影条件で複数の異なる画像を撮影しても良い。
また、第2の動作モード時にドローンが主被写体を手持ちカメラとは異なる画角で撮影するとしたが、複数の異なる撮影条件を設定して複数の異なる画角の画像を撮影しても良い。また、異なる画角以外の撮影条件で撮影しても良く、他の被写体を撮影しても良い。また、主被写体を含む広い画角の画像を撮影したり、ドローン100が独自のアルゴリズムで撮影対象を決めたり、順次、画角を変えながら撮影してもよい。
本実施例では、手持ちカメラ200のLV画像をドローン100に送信したが、LV画像に撮像された主被写体に関する情報を手持ちカメラが検出し、検出した情報をドローンに送信しても良い。
また、本実施例では、手持ちカメラ200は、ドローン100から受信した主被写体の情報に基づいて、主被写体の場所を指し示す矢印のアイコンを画面表示したが、他の形式で表示しても良い。例えば、主被写体の位置の座標や、手持ちカメラ200が移動すべき方向や座標を表示しても良い。
また、本実施例では、主被写体の情報取得手段、及び動作モード切り替え手段はドローン100が有していたが、ドローン100を制御する撮像システム又は手持ちカメラ200が有しても良い。
(第2の実施形態)
図6を参照して、本発明の第2の実施形態を詳細に説明する。
本発明の第2の実施形態に係るドローン100および手持ちカメラ200の構成は、図2、図3に示す第1の実施形態と同様である為、説明を省略する。第2の実施形態では、手持ちカメラ200が、ドローン100に対して第2の動作モードから第1の動作モードへ切り替えを指示できるように構成し、ドローン100がカメラ200からの指示に応じてモードを切り替える点が第1の実施形態と異なる。また、第2の実施形態において、ドローン100が、第1の動作モードで主被写体を撮像している条件が予め設定された撮影条件に合致しているかを手持ちカメラ200へ通知する。これにより、手持ちカメラ200が一時的に主被写体以外の被写体を撮影したい時など、LV画像に主被写体が検出されなくなるのを待つことなく、ドローン100に主被写体を主題として撮影させるように動作モードを切り替えることができる。
第2の実施形態では、第2の動作モードから第1の動作モードへ切り替える時の動作について説明する。図4(b)の第2の動作モードにおいて、第1の実施形態と同様、手持ちカメラ200は被写体Aを撮影し、ドローン100は手持ちカメラ200とは異なる画角で被写体Aを撮影している。ここで、手持ちカメラ200を操作する人間が被写体Aと異なる被写体を撮影した場合、第1の実施形態においては、手持ちカメラ200のLV画像から主被写体を検出できなくなる。すると、ドローン100は自動的に第1の動作モード(図4(a))へ移行する。しかしながら、ドローン100は、予め設定された第1の動作モードの撮影条件(被写体の正面、等)で撮影可能な場所への移動に時間を要する為、その間に主被写体のシャッターチャンスを逃してしまう可能性がある。
そこで、第2の実施形態では、手持ちカメラ200を操作する人間が、手持ちカメラ200の操作部材1034(例えば、強制モード切り替えボタン)を操作することで、ドローン100に対して第1の動作モードへの移行を指示する。ドローン100は、第1の動作モードへの強制切り替えを指示されると、第1の動作モードに切り替わり、被写体Aを撮影するための、予め設定された撮影条件(被写体Aの正面、等)で撮影可能な場所への移動を開始する。
第1の実施形態では、手持ちカメラ200から受信した画像から被写体Aが検出されなくなるまで第1の動作モードへ移行しなかった。本実施形態においては、手持ちカメラ200を操作する人間は、ドローン100が第1の動作モードへ移行して場所を移動させてから、手持ちカメラ200で被写体A以外の被写体の撮影を開始可能である。
手持ちカメラ200からの動作モードの切り替え指示を受信すると、ドローン100は、被写体Aを主題として撮影可能な予め設定された撮影条件に合致する場所(例えば、被写体Aの正面)へ移動する。そして、被写体Aを撮像している条件が予め設定された撮影条件に合致したら、手持ちカメラ200へ移動が完了したことを通知する。ドローン100は、所定の条件で被写体Aを撮影して記録媒体への記録を行う。手持ちカメラ200を操作する人間は、ドローン100の移動完了通知を受けてから他の被写体の撮影を開始することで、動作モード切り替え時に主被写体のシャッターチャンスを逃してしまうことを防ぐことができる。
手持ちカメラ200を操作する人間が再び主被写体の撮影を行いたい場合は、操作部材1034により強制モード切り替え指示を解除することで、ドローン100は再び手持ちカメラのLV画像に基づいて動作モードの切り替えを行う。
図6は、本発明の第2の実施形態に係る無人撮像装置(ドローン)の撮影シーケンスを示すフローチャートである。図6のフローチャートにおける各処理は、CPU130およびCPU1030が、記憶部131又は記憶部1031に格納されたプログラムを不図示のシステムメモリに展開して実行し、各機能ブロックを制御することにより実現される。図6のフローチャートは、前述の図4に示した撮影シーケンスにおいて、ドローン100が、手持ちカメラ200からユーザ操作による動作モードの切り替え指示を受信した場合に開始する。
CPU130が、手持ちカメラ200から強制モード切り替えが指示されている状態かを判断する。強制モード切り替えが指示されている場合に、図6の処理が開始される。強制モード切り替えの解除されている場合は、図4の撮影シーケンスに基づく動作に戻る。
ステップS601にて、移動制御部141は、検出された主被写体の位置情報に基づいて、移動制御部141は、ドローン100が主被写体を撮影するための、予め設定された画角で撮影可能な位置へ移動するように制御する。なお、主被写体の位置情報は、図4のシーケンスで取得していた情報を用いる。例えば、手持ちカメラ200が主被写体を撮影している場合は、主被写体算出部118が検出した主被写体位置情報と情報取得部119により取得した手持ちカメラ200の位置情報に基づいて、主被写体の位置情報を検出する。手持ちカメラ200が主被写体を撮影していない場合には、前述のステップS404、S405と同様に、ドローン100が主被写体の探索を行い、主被写体を検出してその位置を算出する。
ステップS602では、CPU130は、移動が完了したかを判断する。
移動が完了した場合にはステップS603へ進み、手持ちカメラ200へ移動が完了したことを通知する。
そして、ステップS604で、主被写体を撮影・記録する。
ステップS605で、ドローン100のCPU130は、ユーザーから停止を指示されたら動作を停止する。停止を指示されなければステップS601に戻り、以降の処理を継続する。
ドローン100のCPU130は、手持ちカメラ200から強制モード切り替えの解除を指示されたら本フローチャーを終了して、図4のフローチャートで示す撮影シーケンスへ戻る。本フローチャートのいずれのステップにおいても、強制動作モード切り替えの解除の指示を受けた場合には撮影モードを停止して本フローチャートを終了する。
以上、上記本実施形態の制御により、第2の動作モードから第1の動作モードへ動作モードを切り替える際に、ユーザの指示で切り替えてドローン100に主被写体を撮影させることができる。
また、本実施例では、第1の動作モード時にドローンが撮影する条件(正面から撮影、等)は予め設定されているとした。しかし、ユーザが手持ちカメラを操作して撮影条件を設定する構成とし、ユーザによる手持ちカメラからの指示に従ってドローンが撮影しても良い。また、本実施例では、第1の動作モード時にドローンが主被写体を正面から撮影するとしたが、正面以外の撮影条件で撮影しても良く、複数の撮影条件で複数の異なる画像を撮影しても良い。
(第3の実施形態)
図7〜図9を参照して、本発明の第3の実施形態を詳細に説明する。第3の実施形態に係るドローン100および手持ちカメラ200のハードウェア構成は、第1の実施形態と同様である為、説明を省略する。
第3の実施形態では、ドローン100は、手持ちカメラ200の撮像画像に関わらず全体を俯瞰する画像を撮像し、主被写体のシャッターチャンスを判別したときには、手持ちカメラ200に主被写体の情報を通知する撮像システムについて説明する。
まず、ドローン100は、手持ちカメラ200の撮像画像に関わらず、全体を俯瞰するように撮影する第3の動作モードで動作している。その後、ドローン100は、撮影している画像の変化に応じて主被写体として登録されている被写体Aのシャッターチャンスを判別すると、被写体Aを主題として撮影する第1の動作モードに切り替わる。そして、それとともに、ドローン100が手持ちカメラ200にシャッターチャンスの到来を通知する。そして、手持ちカメラ200が、被写体Aの位置に到達し、被写体Aの撮影を開始したら、第3の動作モードに戻り俯瞰画像の撮影を行う。
第3の実施形態において、情報取得部119は、ドローン100が撮像した画像から、主被写体として予め登録されている被写体Aを検出するとともに、被写体Aの動きベクトルを検出する。動きベクトルは、着目しているフレームと前フレームの被写体Aの位置座標の差分を算出するなど、従来の方法で検出する。
図7は、本発明の第3の実施形態に係る無人撮像装置(ドローン)の主被写体のシャッターチャンスを判別する制御動作を説明する図である。図7(a)はドローン100の撮像画像であり、図7(b)は被写体の動きベクトルを検出するとともに、撮像画像を4分割した図である。また、図7(b)の動きベクトル800〜814は検出した動きベクトルを示し、図7(c)に検出した動きベクトル情報の詳細を示す。
図7(c)において、IDは図7(b)に示した動きベクトル800〜814を示している。動きベクトル情報には、例えば、それぞれの前フレームの座標位置(矢印の始点)、着目フレームの座標位置(矢印の終点)、画像の領域1〜4のどこに属しているか、移動量、各領域の動きベクトルの平均の絶対値などが含まれる。移動量の平均の絶対値が大きいということは、その領域の被写体が同じ方向に動いていることを示す。
本実施例においては、ドローン100は、被写体が同じ方向に動いている場合にその先に主被写体のシャッターチャンスがある可能性が高いと判断する。そこで、あらかじめ設定された閾値よりも移動量の平均の絶対値が大きい場合には、全体を俯瞰するように撮影していたドローン100は、移動量の平均の絶対値が大きい領域に移動し、その領域の撮影を始める。そして、ドローン100は、主被写体を探索して検出した主被写体の位置情報を手持ちカメラ200に通知する。
図8は、本発明の第3の実施形態に係る撮影モード切り替えを示す図である。図8(a)は第3の動作モードから第1のモードへの切り替えを説明する図である。
第3の実施形態においては、撮影に先立ちドローン100は、あらかじめ全体を俯瞰するよう撮影するように設定がされており、起動時(撮影の開始時)には第3の動作モードとして動作する。
まず、第3の動作モードについて、説明する。第3の動作モードは、ドローン100が、手持ちカメラ200の撮影している画像に関わらず、予め設定された範囲内で全体を俯瞰する画像を撮影する動作モードである。ドローン100が俯瞰画像を撮影する範囲は、予めユーザ操作により設定可能であり、例えば、運動会であれば運動場の範囲、などを設定しておくことができる。そして、第3のモードになった場合には、ドローン100は予め設定された範囲全体を俯瞰できる画像を撮影する。このとき、ドローン100は、設定された範囲を、一度で全体を俯瞰するような撮影をしてもよいし、撮影方向や画角を変えながら複数回に分けて撮影してもよい。
ドローン100は、前述の通り俯瞰画像から分割された領域ごとのの動きベクトルを検出して、主被写体のシャッターチャンスを判別する。シャッターチャンスを判別すると、ドローン100は、第1の動作モードに切り替わり、主被写体である被写体Aがいると思われる位置に移動して、被写体Aの探索を行い、被写体Aを主題として撮影を行う。そして、ドローン100は、内蔵したGPSの情報と撮像画像から被写体Aを検出し、その位置情報等から被写体Aの座標情報を算出して手持ちカメラ200へ送信する。
手持ちカメラ200は、ドローン100から受信した被写体Aの座標と、手持ちカメラ200の座標を比較し、被写体Aの場所を指し示す矢印のアイコンを手持ちカメラ200の液晶パネルに表示する。手持ちカメラ200を操作する人間は、表示された被写体Aの場所の情報によって、被写体Aを撮影可能な場所へ移動することが可能になる。
次に、図8(b)は第1の動作モードから第3の動作モードへの切り替えを説明する図である。手持ちカメラ200を操作する人間が主被写体を発見し、主被写体の撮影しようとするとき、操作する人間はパネル上のボタン等の操作部材を操作することで、ドローン100へ通知する。ドローン100は、手持ちカメラ200から被写体Aの撮影位置に到達したことを知らせる信号を受けたとき、ドローン100は、第3の動作モードに戻り全体を俯瞰する撮影を行う。
図9は、本発明の第3の実施形態に係る無人撮像装置(ドローン)の撮影シーケンス示すフローチャートである。図9のフローチャートにおける各処理は、CPU130およびCPU1030が、記憶部131又は記憶部1031に格納されたプログラムを不図示のシステムメモリに展開して実行し、各機能ブロックを制御することにより実現される。図9のフローチャートは、ドローン100および手持ちカメラ200の電源がONにされ、連携動作を始めたところから開始する。
まず、ステップS901で、ドローン100は、撮像モードが起動されているかを判断する。ドローン100の撮像モードが起動された場合には、ステップS902へ進む。
ステップS902では、ドローン100は、第3の撮像モードで動作し、予め設定された範囲の全体の俯瞰画像を撮影する。
ステップS903で、ドローン100は第3の撮像モードで俯瞰画像を撮影しながら、情報取得部119が動きベクトルを取得し、取得した動きベクトルから主被写体のシャッターチャンスを判別する。本実施形態においては、CPU1030は、例えば、被写体が同じ方向に動いている場合にその先に主被写体のシャッターチャンスがある可能性が高いと判断する。シャッターチャンスがあると判断された場合はステップS904へ進み、シャッターチャンスがあると判断されない場合にはステップS902にて俯瞰画像の撮影を継続する。
ステップS904では、ドローン100は、ステップS903で取得した動きベクトルから、シャッターチャンスがあると判断された領域に移動して主被写体の探索を行う。
次に、ステップS905で、ドCPU1030は、情報取得部119が主被写体を検出したかを判断する。主被写体を検出した場合はステップS906へ進み、検出していない場合はステップS904へ戻り探索を継続する。
ステップS906で、ドローン100は、主被写体を主題として撮影する第1の動作モードの撮影条件として設定されている位置(例えば、主被写体の正面など)へ移動する。そのとき、ドローン100は、手持ちカメラ200へ主被写体の位置情報を通知する。
ステップS907では、CPU1030が、手持ちカメラ200が主被写体の撮影位置に到達したかを判断する。手持ちカメラ200がその位置に来ていない場合はステップS908へ進み、来ている場合はステップS909へ進む。手持ちカメラが撮影位置に到達したかは、例えば、手持ちカメラ200から主被写体位置に到達したことを知らせる信号を受けたかどうかで判断する。
手持ちカメラ200が主被写体の撮影位置に到達したら、ステップS908で、ドローン100は、第1の動作モードで主被写体を主題として撮影を行う。
ステップS909で、ドローン100は、ユーザから撮影の停止を指示されたら動作を停止し、停止を指示されなければステップS606に戻り、以降の処理を継続する。
ステップS910で、ドローン100は、ユーザから撮影の停止を指示されたら動作を停止し、停止を指示されなければS903へ戻り、再度、主被写体のシャッターチャンスの判別されるまで俯瞰画像の撮影を継続する。本フローチャートのいずれのステップにおいても、ドローン100は、動作停止の指示を受けた場合には撮影モードを停止して本フローチャートを終了する。
以上、上記本実施例の制御により、手持ちカメラが主被写体のシャッターチャンスに気づかなくても、ドローンが主被写体のシャッターチャンスを判別して、主被写体を撮影することができる。
なお、本実施例では、ドローン100は、動きベクトルの変化に基づき主被写体のシャッターチャンスを判別したが、領域内の輝度変化に基づき、主被写体のシャッターチャンスを判別しても良い。また、手持ちカメラ200が主被写体の撮影を開始したかどうかをユーザ操作に応じて判断する例を説明したが、第1の実施形態と同様に、手持ちカメラ200が撮像しているLV画像内に主被写体が検出されたことに応じて、判断してもよい。
(第4の実施形態)
図10、図11を参照して、本発明の第4の実施形態について詳細に説明する。第4の実施形態では、手持ちカメラの撮影範囲に応じて、ドローンの動作が本画像撮影モードと検出モードとで切り替わる。手持ちカメラ200の撮影範囲に基づいて、ドローン100の動作モードが切り替わる点で第1の実施形態と異なる。無人撮像装置と他の撮像装置で通信する情報およびドローン100、手持ちカメラ200のハードウェア構成は、第1の実施形態と同様のため説明は省略する。
図10は、本発明の第4の実施形態に係る撮影モード切り替えのシーケンスを示すフローチャートである。図10のフローチャートにおける各処理は、CPU130およびCPU1030が、記憶部131又は記憶部1031に格納されたプログラムを不図示のシステムメモリに展開して実行し、各機能ブロックを制御することにより実現される。図10のフローチャートは、ドローン100と手持ちカメラ200の電源がONにされ、連携動作を始めたところから開始する。
まず、ステップS1101で、手持ちカメラ200とドローン100が起動され、連携撮影が開始されたかを判断する。起動されるとステップS1102へ進む。
ステップS1102では、CPU130が、手持ちカメラ200の撮影範囲と閾値を比較して、撮影範囲が閾値より小さいかを判断する。この時、撮影範囲の広さを、例えば、結像光学部1011のズーム情報から算出する。撮影範囲が閾値より小さい場合(Yes)には、ステップS1103へ進み、撮影範囲が閾値以上の場合(No)はステップ1105へ進む。
ステップS1103で、手持ちカメラ200からドローン100に対して、第4の動作モード(本画像撮影モード)での動作指示を通知する。
ステップS1104では、指示情報を受信したドローン100が、本画像撮影を開始する。本実施例における第4の動作モード(本画像撮影モード)とは、ドローン100が、手持ちカメラ200が撮影する主被写体と同一の被写体を含む画像を記録画像として撮影するモードである。つまり、本画像撮影モード動作指示を指示する際には、手持ちカメラ200から、そのとき撮影中の被写体を認識して主被写体を判断し、その位置情報をドローン100に通知する。ドローン100は、その位置情報を基に本画像撮影の領域を決定する。
ステップS1105では、手持ちカメラ200からドローン100に対して、第5の動作モード(検出モード)での動作指示を通知する。
ステップS1106で、指示情報を受信したドローン100は、動作モードを第5の動作モード(検出モード)に切り替える。本実施例における検出モードとは、ドローン100がシャッターチャンスの場面や被写体を探索して、検出・認識を行うモードであり、検出・認識した情報、例えばシャッターチャンスの発生場所の方向や被写体情報を手持ちカメラ200に通知する。ここでシャッターチャンスとは、例えば、被写体の移動量や移動方向に関する情報、特定の被写体間との距離の条件に合致した場面などが挙げられる。シャッターチャンスや検出する被写体の情報は、予め設定されている条件に基づいて判断し、条件や被写体の情報は複数持つことができ、随時、追加、更新できるものであってもよい。
ステップS1107で、CPU30およびCPU1030は、手持ちカメラ200又はドローン100の撮影が停止したかを判断する。停止していない場合はステップS1102に戻り、停止していれば本フローチャートは終了する。
図11は、本発明の第4の実施形態に係る撮影モード切り替えのイメージ図であり、図11(A)は本画像撮影モード、図11(B)は検出モードを示す。実線枠1201は手持ちカメラ200の撮影範囲を表し、破線枠1202はドローンの動作モード100を切り替える閾値枠である。図11(A)のように撮影範囲が閾値枠より狭い場合には、ドローン200は第4の動作モード(本画像撮影モード)となり、実線枠1203で示すように手持ちカメラ200で撮影している被写体を含む画像を記録するための動作になる。一方、図11(B)のように手持ちカメラ200の撮影範囲が閾値枠以上の場合には、ドローン100は第5の動作モード(検出モード)となり、実線1204で示すように広範囲で検出すべき対象物の探索するための動作になる。
以上、上記実施例の制御により、手持ちカメラ200の撮影範囲の大きさに応じて、手持ちカメラ200での撮りこぼしの補助、およびシャッターチャンスや主被写体検出の補助のモードを自動で切り替え制御をすることが出来る。本実施形態においては、手持ちカメラ200の撮影範囲が狭い場合には、手持ちカメラ200のユーザは特定の被写体を撮影したいものと判断し、ドローン100も同じ被写体を撮影する。手持ちカメラ200の撮影範囲が広い場合には、手持ちカメラ200のユーザが撮りたい被写体を探している状態と判断し、ドローン100は特定のシャッターチャンスや予め登録されている被写体を探索して検出することで、ユーザの撮影をサポートする。
なお、本実施例では撮影範囲を手持ちカメラ200のレンズ制御情報から判定したが、手持ちカメラ200の撮影画像の被写体の大きさから判定してもよい。
(第5の実施形態)
図12、図13を参照して、本発明の第5の実施形態について、詳細に説明する。本実施例では、手持ちカメラ200の撮影範囲に応じて、ドローン100の動作が第4の動作モード(本画像撮影モード)と第6の動作モード(俯瞰撮影モード)とで切り替わる。シャッターチャンスの判別結果や手持ちカメラで撮影している主被写体に関わらず、手持ちカメラの撮影範囲に基づいて、ドローンの動作モードが切り替わる点で第3の実施形態と異なる。図3、図4に示すドローン100および手持ちカメラ200のハードウェア構成は、第1の実施形態と同様のため説明は省略する。
図12は、本発明の第5の実施形態に係る撮影モード切り替えのシーケンスを示すフローチャートである。ステップS1101、S1102,S1107については、図10と同様のため説明は省略する。図12のフローチャートにおける各処理は、CPU130およびCPU1030が、記憶部131又は記憶部1031に格納されたプログラムを不図示のシステムメモリに展開して実行し、各機能ブロックを制御することにより実現される。図12のフローチャートは、ドローン100と手持ちカメラ200の電源がONにされ、連携動作を始めたところから開始する。本フローチャートのステップS1102で手持ちカメラの撮影範囲が閾値より小さいと判断した場合には、ステップS1301へ進む。
ステップS1301は、手持ちカメラ200の撮影範囲が閾値より小さい(ステップS1102でYES)の場合で、手持ちカメラ200からドローン100に対して、第6の動作モード(俯瞰撮影モード)での動作指示を通知する。
ステップS1302で、指示情報を受信したドローン100が、第6の動作モード(俯瞰撮影モード)に切り替わる。本実施例における俯瞰撮影モードとは、ドローン100が、手持ちカメラ200が撮影している被写体と同一の被写体を含み、手持ちカメラ200よりも広範囲を撮影した画像を記録画像として撮影するモードである。
ステップS1303は、手持ちカメラ200の撮影範囲が閾値以上(ステップS1102でNO)の場合で、手持ちカメラ200からドローン100に対して、第4の動作モード(本画像撮影モード)での動作指示を通知する。
ステップS1304で、指示情報を受信したドローン100が、第4の動作モード(本画像撮影モード)で撮影を開始する。本実施例における本画像撮影モードとは、例えば、ズームアップして撮影するなど、画角等の決められた条件で特定の被写体を撮影するモードである。例えば、手持ちカメラ200に含まれる被写体や、予め登録されている主被写体を、順次ズームアップして撮影する。
図13は、本発明の第5の実施形態に係る撮影モード切り替えのイメージ図であり、図13(A)は本画像撮影モード、図13(B)は俯瞰画像撮影モードを示す。図13(A)のように撮影範囲が破線枠1202で示す閾値枠より広い場合には、ドローン100は第4の動作モード(本画像撮影モード)となる。すなわち、実線枠1401のように手持ちカメラ200で撮影している主被写体、またはドローン100に予め登録された主被写体を含む画像を記録するための動作になる。
一方、図13(B)のように手持ちカメラ200の撮影範囲が破線枠1202で示す閾値枠より広い場合には、ドローン100は第6の動作モード(俯瞰撮影モード)となる。実線枠1402で示すように手持ちカメラ200で撮影している被写体を含み、手持ちカメラ200より広範囲の画像を記録するための動作になる。
以上、上記実施例の制御により、手持ちカメラの撮影状態に応じて、シャッターチャンスの撮りこぼしの補助、広域と狭域の画像の同時撮影を自動で制御をすることが出来る。本実施形態においては、手持ちカメラ200の撮影範囲が狭い場合には、手持ちカメラ200のユーザは特定の被写体をズームアップした撮影をしているため、ドローン100は同じ被写体の周辺も含む広角の撮影を行う。一方、手持ちカメラ200の撮影範囲が広い場合には、手持ちカメラ200では特定の被写体を大きく撮影することはできない。そのため、手持ちカメラ200の撮影画角に含まれる被写体や、予め登録されている主被写体をズームアップして撮影することで、ユーザの撮影をサポートする。
以上、第1〜5の実施形態について説明したが、自立して撮影可能なカメラを含む複数のカメラで連携撮影をするシステムにおいて、上述した各実施形態の動作モード切り替えのうち、どの切り替え設定を用いるかは予め設定できるものとする。
例えば、主被写体を逃すことなく撮影しつつ、全体を撮影したい場合は、第1の実施形態のような切り替え設定を有効にする。また、基本的には各カメラは自由に撮影したい場合には第3の実施形態の切り替え設定を有効にしておけば、他方のカメラでシャッターチャンスを検出した場合に通知をもらうことができる。
主被写体を予め登録することなく、その時々で、手持ちカメラにおける撮影している被写体以外のシャッターチャンスもなるべく逃したくない場合には第4の実施形態の切り替え設定を有効にする。その時々で、手持ちカメラで撮影している複数の被写体の1人1人を主題として撮影したい場合には第5の実施形態の切り替え設定を有効にする。
さらに、第2の実施形態によれば、切り替え設定に関わらず、自立撮影が可能なカメラに対して、ユーザ操作により、強制的に主被写体の撮影を実行させることができる。
尚、本実施例では、ドローンと手持ちカメラが連携して撮影を行ったが、撮像装置は必ずしもドローン、及び手持ちカメラでなくても良い。また、本実施例では、ドローンと手持ちカメラの2台の撮像装置で連携して撮影を行ったが、3台以上の撮像装置で連携して撮影を行っても良い。
以上が本発明の好ましい実施形態の説明であるが、本発明は、本発明の技術思想の範囲内において、上記実施形態に限定されるものではなく、対象となる回路形態により適時変更されて適応するべきものである。例えば、上述した実施形態で説明した手持ちカメラは、デジタルスチルカメラやデジタルビデオカメラ、撮像が可能なスマートフォンなどに適用することができる。
また、本発明は、例えばシステム、装置、方法、コンピュータプログラムもしくは記録媒体などとしての実施形態も可能であり、具体的には、1つの装置で実現しても、複数の装置からなるシステムに適用してもよい。本実施形態に係る撮像装置を構成する各手段および撮像装置の制御方法の各ステップは、コンピュータのメモリなどに記憶されたプログラムが動作することによっても実現できる。このコンピュータプログラムおよびこのプログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 ドローン
200 手持ちカメラ
110 撮像部
116 撮像制御部
114 主被写体検出部
119 情報取得部
130 CPU
132 通信部
140 移動制御装置
141 移動制御部

Claims (20)

  1. 被写体を撮像する撮像手段と、
    他の撮像装置と通信する通信手段と、
    前記通信手段を介して前記他の撮像装置で撮像している被写体に関する被写体情報を取得する取得手段と、
    取得した前記被写体情報に基づいて、特定の主被写体を探索する第1の動作モードと、前記他の撮像装置と異なる画角で撮像する第2の動作モードと、を含む複数の動作モードの何れかを切り替えて制御する制御手段と、を有し、
    前記制御手段は、取得した前記被写体情報に前記特定の主被写体の情報が含まれない場合には前記第1の動作モードで制御し、該被写体情報に該特定の主被写体の情報が含まれる場合には第2の動作モードで制御する
    ことを特徴とする撮像装置。
  2. 前記撮像手段により撮像された画像を記録媒体に記録する記録手段と、を有し、
    前記第1の動作モードにおいて、前記特定の被写体を探索した結果、前記撮像手段により撮像された画像に該特定の主被写体を検出した場合、前記記録手段は該画像を前記記録媒体に記録する
    ことを特徴とする請求項1に記載の撮像装置。
  3. 前記撮像手段により撮像する画角を変更可能な画角変更手段と、を有し、
    前記第1の動作モードにおいて、前記特定の被写体を探索した結果、前記撮像手段により撮像された画像に該特定の主被写体を検出した場合、
    前記画角変更手段は、予め設定された撮影条件に基づいて前記撮像手段が前記特定の主被写体を撮像する画角を変更し、
    前記撮像手段が、前記画角変更手段により変更された画角で前記特定の主被写体を撮像する
    ことを特徴とする請求項1又は2に記載の撮像装置。
  4. 前記他の撮像装置へ通知をする通知手段と、を有し、
    前記第1の動作モードにおいて前記特定の主被写体を探索した結果、前記撮像手段により撮像された画像に該特定の被写体を検出した検出した場合、該特定の主被写体の位置に関する情報を前記他の撮像装置へ通知する
    ことを特徴とする請求項2又は3に記載の撮像装置。
  5. 前記撮像手段により取得した画像から動きベクトルを検出する検出手段と、
    前記動きベクトルから前記特定の主被写体の位置を判定する判定手段と、を有し、
    前記画角変更手段は、前記第1の動作モードにおいて、前記判定手段により判定された前記特定の被写体の位置に基づいて、前記撮像手段が撮像する画角を変更することを特徴とする請求項3又は4のいずれか1項に記載の撮像装置。
  6. 前記記録手段は、前記第2の動作モードにおいて、前記他の撮像装置と異なる画角で撮像した画像を記録媒体へ記録することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
  7. 前記第2の動作モードにおいて、前記画角変更手段は、前記取得手段により取得した被写体情報と予め設定された撮影条件に基づいて、前記撮像手段により撮像する画角を前記他の撮像装置と異なる画角に変更し、
    前記撮像手段が、前記画角変更手段により変更された画角で撮像を行うことを特徴とする請求項3乃至6のいずれか1項に記載の撮像装置。
  8. 前記画角変更手段は、前記第2の動作モードにおいて、前記他の撮像装置が撮像している前記特定の主被写体を含み、かつ、該他の撮像装置が撮像している方向とは異なる方向から該特定の主被写体を撮像するように、前記撮像手段が撮像する画角を変更することを特徴とする請求項3乃至7のいずれか1項に記載の撮像装置。
  9. 前記画角変更手段は、前記第2の動作モードにおいて、前記他の撮像装置が撮像している前記特定の主被写体とは異なる被写体を撮像するように、前記撮像手段が撮像する画角を変更することを特徴とする請求項3乃至8のいずれか1項に記載の撮像装置。
  10. 第1の撮像装置と、
    撮像画角を変更可能な画角変更手段を有する第2の撮像装置と、
    前記第1および前記第2の撮像装置の間で通信する通信手段と、
    前記第1の撮像装置で撮像している被写体情報に基づいて、前記第2の撮像装置が前記特定の主被写体を探索する第1の動作モードと、該第1の撮像装置と異なる画角で撮像する第2の動作モードと、を含む複数の動作モードの何れかを切り替えて制御する制御手段と、を有する撮像システムであって、
    前記制御手段は、取得した前記被写体情報に前記特定の主被写体の情報が含まれない場合には前記第1の動作モードで制御し、該被写体情報に該特定の主被写体の情報が含まれる場合には第2の動作モードで制御する
    ことを特徴とする撮像システム。
  11. 前記第1の撮像装置に画像を含む情報を表示する表示手段と、を有し、
    前記通信手段は、前記第1の動作モードにおいて、前記特定の被写体を探索した結果、前記第2の撮像装置が撮像した画像に前記特定の主被写体を検出した場合に、前記第1の撮像装置に該特定の主被写体の位置に関する情報を通知し、
    前記表示手段は、通知された前記特定の主被写体の位置に関する情報に基づいて、該特定の主被写体の位置を示す表示を行うことを特徴とする請求項10に記載の撮像システム。
  12. 前記第1の撮像装置は、前記第2の撮像装置に対して前記第1の動作モードへの移行を指示する強制モード切り替え手段と、
    を有することを特徴とする請求項10又は11に記載の撮像システム。
  13. 前記画角変更手段は、前記第2の撮像装置の位置を移動可能な移動手段と、
    を含むことを特徴とする請求項10乃至12のいずれか1項に記載の撮像システム。
  14. 第1の撮像装置と、
    撮像画角を変更可能な画角変更手段を有する第2の撮像装置と、
    前記第1および前記第2の撮像装置の間で通信する通信手段と、
    前記第1の撮像装置の撮影範囲の広さに応じて前記第2の撮像装置が所定の被写体を記録画像として撮影する本画像撮影モードと、該第2の撮像装置が該本画像撮影モードより広い範囲を撮像する第2の動作モードと、を含む複数の動作モードの切り替えを行う制御手段と、
    を有することを特徴とする撮像システム。
  15. 前記第1の撮像装置の撮影範囲を、該第1の撮像装置のレンズ制御情報、又は、該第1の撮像装置により撮像された画像から判定する判定手段と、
    を有することを特徴とする請求項14に記載の撮像システム。
  16. 前記第1の撮像装置により撮像された画像に含まれる被写体を認識する認識手段と、を有し、
    前記第2の撮像装置は、前記本画像撮影モードにおいて前記認識手段により認識された被写体と同一の被写体を撮影し、前記第2の動作モードにおいて予め登録された特定の主被写体または予め登録された条件に合致する被写体の少なくとも一方を検出して前記第1の撮像装置に通知することを特徴とする請求項14又は15に記載の撮像システム。
  17. 前記制御手段は、前記第1の撮像装置の前記撮影範囲が閾値より狭い場合には前記本画像撮影モードでの動作に切り替え、前記閾値以上の場合には前記第2の動作モードでの動作に切り替えることを特徴とする請求項16に記載の撮像システム。
  18. 前記第1の撮像装置により撮像された画像に含まれる被写体を認識する認識手段と、を有し、
    前記第2の撮像装置は、前記本画像撮影モードにおいて予め登録された特定の主被写体または予め登録された条件に合致する被写体の少なくとも一つを検出して検出した被写体を記録画像として撮影し、前記第2の動作モードにおいて、前記認識手段により認識された前記被写体と同一の被写体を含み該第1の撮像装置の前記撮影範囲よりも広い範囲の俯瞰画像を撮像することを特徴とする請求項14又は15に記載の撮像システム。
  19. 前記制御手段は、前記第1の撮像装置の前記撮影範囲が閾値より狭い場合には前記第2の動作モードでの動作に切り替え、前記閾値以上の場合には前記本画像撮影モードでの動作に切り替えることを特徴とする請求項18に記載の撮像システム。
  20. 前記条件は、被写体の移動量、移動方向、複数の被写体間の距離の少なくともいずれかに関する条件を含むことを特徴とする請求項16又は18に記載の撮像システム。
JP2020086426A 2020-05-18 2020-05-18 撮像装置、及び撮像システム Pending JP2021182659A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020086426A JP2021182659A (ja) 2020-05-18 2020-05-18 撮像装置、及び撮像システム
US17/316,379 US11810386B2 (en) 2020-05-18 2021-05-10 Image capture apparatus and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020086426A JP2021182659A (ja) 2020-05-18 2020-05-18 撮像装置、及び撮像システム

Publications (2)

Publication Number Publication Date
JP2021182659A true JP2021182659A (ja) 2021-11-25
JP2021182659A5 JP2021182659A5 (ja) 2023-05-19

Family

ID=78512455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020086426A Pending JP2021182659A (ja) 2020-05-18 2020-05-18 撮像装置、及び撮像システム

Country Status (2)

Country Link
US (1) US11810386B2 (ja)
JP (1) JP2021182659A (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7242423B2 (en) * 2003-06-16 2007-07-10 Active Eye, Inc. Linking zones for object tracking and camera handoff
US20060126738A1 (en) * 2004-12-15 2006-06-15 International Business Machines Corporation Method, system and program product for a plurality of cameras to track an object using motion vector data
IL201129A (en) * 2009-09-23 2014-02-27 Verint Systems Ltd A system and method for automatically switching cameras according to location measurements
JP6136662B2 (ja) 2013-07-04 2017-05-31 カシオ計算機株式会社 カメラシステム、カメラ、撮影制御プログラム及び撮影方法
US10618673B2 (en) * 2016-04-15 2020-04-14 Massachusetts Institute Of Technology Systems and methods for dynamic planning and operation of autonomous systems using image observation and information theory

Also Published As

Publication number Publication date
US20210357631A1 (en) 2021-11-18
US11810386B2 (en) 2023-11-07

Similar Documents

Publication Publication Date Title
KR101968054B1 (ko) 화상 촬상 장치 및 방법
US10368003B2 (en) Imaging device and time-lapse imaging method
US9007464B2 (en) Photographing apparatus, photographing system, photographing method, and program stored in non-transitory medium in photographing apparatus
US8638372B2 (en) Image capture unit with changeable image capture direction
US9641751B2 (en) Imaging apparatus, imaging method thereof, and computer readable recording medium
US9204054B2 (en) Method for photographing a target subject
US20170155832A1 (en) Method of setting initial position of camera, camera, and camera system
CN106791483B (zh) 图像传输方法及装置、电子设备
KR20120038451A (ko) 제어 장치, 제어 방법, 프로그램, 제어 시스템
JP2011035752A (ja) 撮像装置
CN113302908A (zh) 控制方法、手持云台、系统及计算机可读存储介质
JP2021182659A (ja) 撮像装置、及び撮像システム
JP6376753B2 (ja) 撮像装置、表示制御装置の制御方法、記録装置の制御方法
JP7138472B2 (ja) 撮像システム及びその制御方法、撮像装置、プログラム、記憶媒体
JP2010062834A (ja) 撮影システム並びに当該撮影システムを構成する撮影装置及び操作装置
JP2004117195A (ja) 速度計測機能付デジタルカメラ
JP6080825B2 (ja) 撮像装置及びその制御方法
JP2015019215A (ja) 撮像装置及び撮像方法
JP7431609B2 (ja) 制御装置及びその制御方法及びプログラム
JP7292033B2 (ja) 情報処理装置、情報処理方法、撮像装置、及びプログラム
JP2023086483A (ja) 画像処理装置、画像処理方法およびプログラム
JP2017055268A (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP2016082352A (ja) 撮像装置、および、撮像装置の制御方法
JP2013229680A (ja) 撮像装置とその制御方法、プログラム
JP5562208B2 (ja) 撮像装置及びその制御方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230511

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230511

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240410