JP6921031B2 - 制御装置及び撮影方法 - Google Patents

制御装置及び撮影方法 Download PDF

Info

Publication number
JP6921031B2
JP6921031B2 JP2018086902A JP2018086902A JP6921031B2 JP 6921031 B2 JP6921031 B2 JP 6921031B2 JP 2018086902 A JP2018086902 A JP 2018086902A JP 2018086902 A JP2018086902 A JP 2018086902A JP 6921031 B2 JP6921031 B2 JP 6921031B2
Authority
JP
Japan
Prior art keywords
gaze
interest
highlight
shooting
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018086902A
Other languages
English (en)
Other versions
JP2019193209A (ja
Inventor
杰旻 周
杰旻 周
明 邵
明 邵
慧 徐
慧 徐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2018086902A priority Critical patent/JP6921031B2/ja
Priority to CN201980005550.3A priority patent/CN111328399A/zh
Priority to PCT/CN2019/083684 priority patent/WO2019206078A1/zh
Publication of JP2019193209A publication Critical patent/JP2019193209A/ja
Priority to US17/076,555 priority patent/US20210047036A1/en
Application granted granted Critical
Publication of JP6921031B2 publication Critical patent/JP6921031B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Studio Devices (AREA)
  • Accessories Of Cameras (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Description

本開示は、ハイライト撮影位置を自動的に検出して撮影を行う制御装置及び撮影方法に関する。
サッカー、野球などのスポーツを主とする各種イベントでは、イベント会場の所定位置に設けられているカメラによって撮影された動画素材からハイライトシーンを抽出・編集した後、スタジアムの電光掲示板に投影し又は遠隔にいる視聴者にテレビやインターネットを通じて放送する。
従来は、ハイライトシーンの抽出・編集作業を手動により行うことが多かったが、それでは作業効率が低く、コストが高い問題があった。そこで、聴覚情報と視覚情報を用いてビデオ中のハイライトシーンを自動的に検出する特許文献1のような技術が提案されている。
特開2005−189832号公報
しかしながら、特許文献1に記載の技術は、既存の動画素材からハイライトシーンを自動的に抽出する手法にすぎないため、結局はカメラマンが撮影した原始的な動画素材に依存することとなる。ところが、カメラマンが手動でカメラを操作する場合は、人為的なミスが発生する場合がある。例えば、カメラマンが他のことに気を取られてしまってハイライトシーンを取り逃がしてしまうことがある。また、カメラの撮影方向の操作は手動で行うことが一般的であり、カメラマンが瞬時にカメラを正確の方向に向けられない場合がある。
さらに、従来のように会場の所定の位置に固定カメラを設けて撮影する場合では、一つのカメラからは同一のアングルの動画素材しか取得できず、異なる複数のアングルの動画素材を得るためには、複数の位置にカメラ及びカメラマンを配備しなければならず、高額なコストがかかってしまう。
そこで、本開示は、以上の課題を鑑みて、自動的にハイライト撮影位置を検出し、無人機により好適なアングルで撮影を行うことができる制御装置及び撮影方法を提供する。
一態様において、イベントの撮影方法であって、観客の注視状態を検出するステップと、複数の観客が注視状態である場合に、それぞれの注視方向を示す直線が交差する注目ポイントを算出するステップと、注目ポイントが密集する位置をハイライト撮影位置として確定するステップと、ハイライト撮影位置に無人機を飛行させて撮影させるステップと、を有する。
観客の注視状態を検出するステップは、観客の視線を測定するステップと、視線が所定時間以上安定したときに、注視状態であると検出するステップと、を有してよい。
注目ポイントが密集する位置をハイライト撮影位置として確定するステップは、それぞれの注目ポイントの中心点をハイライト撮影位置として確定するステップと、を有してよい。
注目ポイントが密集する位置をハイライト撮影位置として確定するステップは、注目ポイントが密集する複数のハイライト撮影位置を確定するステップと、を有し、ハイライト撮影位置に無人機を飛行させて撮影させるステップは、複数のハイライト撮影位置にそれぞれ無人機を飛行させて撮影させるステップと、を有してよい。
異なるハイライト撮影位置で撮影した情報をそれぞれ異なる表示機に送信してよい。
観客は複数の観客ブロックに分割され、それぞれの注視方向を示す直線が交差する注目ポイントを算出するステップは、各観客ブロックごとに、そのブロックに属する観客の注視方向に基づいてブロック注視方向を算出するステップと、ブロック注視方向が交差する注目ポイントを算出するステップと、を有してよい。
そのブロックに属する観客のうち、最も多くの観客の視線が一致した方向をブロック注視方向として算出してよい。
一態様において、無人機と通信可能な制御装置であって、視線測定部と、処理部とを有し、処理部は、観客の注視状態を検出し、複数の観客が注視状態である場合に、それぞれの注視方向を示す直線が交差する注目ポイントを算出し、注目ポイントが密集する位置をハイライト撮影位置として確定し、ハイライト撮影位置に無人機を飛行させて撮影させる。
処理部は、視線測定部により測定された観客の視線が所定時間以上安定したときに、注視状態であると検出してよい。
処理部は、それぞれの注目ポイントの中心点をハイライト撮影位置として確定してよい。
処理部は、注目ポイントが密集する複数のハイライト撮影位置を確定し、複数のハイライト撮影位置にそれぞれ無人機を飛行させて撮影させてよい。
処理部は、異なるハイライト撮影位置で撮影した情報をそれぞれ異なる表示機に送信してよい。
観客は複数の観客ブロックに分割され、処理部は、各観客ブロックごとに、そのブロックに属する観客の注視方向に基づいてブロック注視方向を算出し、ブロック注視方向が交差する注目ポイントを算出してよい。
処理部は、そのブロックに属する観客のうち、最も多くの観客の視線が一致した方向をブロック注視方向として算出してよい。
一態様において、プログラムであって、コンピュータに、観客の注視状態を検出するステップと、複数の観客が注視状態である場合に、それぞれの注視方向を示す直線が交差する注目ポイントを算出するステップと、注目ポイントが密集する位置をハイライト撮影位置として確定するステップと、ハイライト撮影位置に無人機を飛行させて撮影させるステップと、を実行させる。
一態様において、記憶媒体であって、コンピュータに、観客の注視状態を検出するステップと、複数の観客が注視状態である場合に、それぞれの注視方向を示す直線が交差する注目ポイントを算出するステップと、注目ポイントが密集する位置をハイライト撮影位置として確定するステップと、ハイライト撮影位置に無人機を飛行させて撮影させるステップと、を実行させるプログラムを格納する。
本開示における撮影方法、制御装置、プログラム、記憶媒体によれば、複数の観客の注視方向に基づいてハイライトシーンを自動的に検出し、その地点に無人機を飛行させて撮影を行うため、貴重な瞬間を人為的なミスで取り逃がすことを防止することがきる。また、無人機により、任意のアングルで撮影を行うことができるため、多くのカメラやカメラマンを配備する必要もなく、低コストである。
なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本開示における無人機の外観の一例を示す図である。 本開示における制御装置のハードウェア構成を示すブロック図である。 本開示における撮影方法の処理手順を示すフロー図である。 本開示における第1の実施例の状況を示す模式図である。 本開示における第1の実施例の観客の注視方向の一例を示す模式図である。 本開示における第1の実施例の注目ポイントを示す模式図である。 本開示における第1の実施例のハイライト撮影位置を示す模式図である。 本開示における第2の実施例の観客ブロックを示す模式図である。 本開示における第2の実施例のブロック注視方向を示す模式図である。 本開示における第2の実施例の注目ポイントを示す模式図である。 本開示における第2の実施例のハイライト撮影位置を示す模式図である。
以下、発明の実施の形態を通じて本開示を説明するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものではない。実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。
特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。但し、それ以外の場合、一切の著作権を留保する。
本開示に係るイベントの撮影方法は、制御装置の処理部における各種の処理(ステップ)が規定されたものである。ここにいう「イベント」とは、サッカー、野球、フットボール、バスケットボールなどの観客席に囲まれた会場でのイベントが典型的であるが、本開示はこれに限らず、例えばコンサート、ミュージカル、サーカス、手品などの一方面のみに観客がいるイベントであってもよい。
本開示に係る制御装置は、無人機(UAV:Unmanned Aerial Vehicle)と通信可能なコンピュータであり、その処理部は本開示に係るイベントの撮影方法を実行する。
本開示に係るプログラムは、コンピュータ(本開示に係る制御装置を含む)に各種の処理(ステップ)を実行させるためのプログラムである。
本開示に係る記録媒体は、コンピュータ(本開示に係る制御装置を含む)に各種の処理(ステップ)を実行させるためのプログラムが記録されたものである。
図1は、本開示における無人機100の外観の一例を示す図である。無人機100は、少なくともカメラ101と、ジンバル102とを含む構成であり、制御装置と通信可能である。ここにいう「通信可能」とは、制御装置と無人機100の間の直接的な通信に限らず、他のいかなる装置を経由して間接的に情報を送受信することも含まれる。無人機100は、制御装置から受け付けた制御情報に含まれているGPS情報に基づき所定の位置まで移動し、撮影を行うことができる。無人機100の移動は、飛行を意味し、少なくとも上昇、降下、左旋回、右旋回、左水平移動、右水平移動の飛行が含まれる。カメラ101はジンバル102にヨー軸、ピッチ軸、及びロール軸を中心に回転可能に支持されているため、ジンバル102の動きを制御することによりカメラ101の方向を柔軟に調整することができる。なお、無人機100の具体的な形状は、図1に示すものに限らず、制御信号に基づき移動し、撮影を行うことができれば他のいかなる形態であってよい。
次に、本開示における制御装置のハードウェア構成について説明する。図2に示すように、本開示における制御装置200は、少なくとも一つの視線測定部201と、処理部202と、アンテナ203、ユーザインターフェース204、表示部205、記憶部206と、を有する。
視線測定部201は、眼球の動きなどに基づいて観客の視線の方向を測定するセンサである。具体的には、例えば観客席に向かって設置されているカメラや、観客が装着するゴーグルなどを用いてもよいが、本開示はこれに限られない。ここでは、一つの視線測定部201が一人の観客の視線を測定する場合を想定しているため、複数の視線測定部201を有している例を示しているが、一つの視線測定部201により複数の観客の視線を測定できる場合は、視線測定部201は1つであってもよい。視線測定部201は、測定した視線の情報を有線又は無線の方式により処理部202に送信することができる。
処理部202は、プロセッサ、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。処理部202は、無人機100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。処理部202は本開示における各種処理(ステップ)を実行し、無人機100の制御情報を生成する。なお、本開示では便宜上処理部202を一つの手段として説明するが、実際には処理部202は物理的に一つの手段により実現されるとは限らず、例えばそれぞれの視線測定部201の内部にも一定の演算を行うプロセッサが設けられ、それらのプロセッサと制御装置200の中央処理装置(CPU)とが共同で本開示の処理部202を構成してよい。
アンテナ203は、処理部202により生成された制御情報を無線信号により無人機100に送信することができ、且つ無人機100から必要な情報を無線信号により受信することができる。また、本開示ではアンテナ203を通じて複数の無人機100とそれぞれ通信することもできる。なお、アンテナ203は制御装置200にとって必須の手段ではなく、例えば、制御装置200が有線によりスマートホン、タブレット、パソコンなど他の情報端末に制御情報を送信し、その情報端末に設けられているアンテナにより無人機100に送信してもよい。
ユーザインターフェース204は、タッチパネル、ボタン、スティック、レバー、トラックボール、マイクなどを用いて構成されてもよく、ユーザからの各種入力を受け付ける。ユーザは、ユーザインターフェース204を通じて、例えば手動で無人機を移動させたり、無人機に特定の対象物を追跡させたり、無人機のジンバルの動きを操作して撮影のアングルを調整したり、録画の開始・終了を操作したりするなど、各種制御を行うことができる。また、ユーザがユーザインターフェース204によりカメラの露光やズームを調整することができるようにしてよい。なお、ユーザインターフェース204は本開示の目的を達成するために必須な手段ではないが、より柔軟な操作を行うためには備えていることが好ましい。
表示部205は、例えばLED、LCDモニターなどであり、無人機100の状態を示す情報(速度、高さ、位置、電池状態、信号の強度など)やカメラ101に映っている画像などの各種情報を表示する。制御装置200が複数の無人機100と通信する場合は、それぞれの無人機100の情報を同時または選択的に表示してよい。なお、表示部205は本開示の目的を達成するために必須な手段ではないが、ユーザが無人機100の状態、撮影中の画像、撮影パラメータなどを把握するために備えていることが好ましい。
記憶部206は、コンピュータ読み取り可能ないかなる記録媒体でもよく、例えばSRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。記憶部206は、処理部202により処理されるデータを演算のために暫定的に格納するメモリと、無人機100によって撮影されたデータを記録するストレージを含んでよい。
以下、図3を用いて制御装置200の処理部202によって実行される各種処理(ステップ)を詳細に説明する。なお、これらの処理は、本開示における撮影方法を構成し、これらの処理をコンピュータに実行させるコードの集合は本開示におけるプログラムを構成し、これらの処理をコンピュータに実行させるコードの集合を格納する記憶装置は本開示における記憶媒体を構成する。
まず、処理部202は、観客の注視状態を検出する(ステップS301)。ハイライトシーンが発生すると、多くの観客の注意を引き寄せ、その位置に視線が集中する。本開示は、この特徴に着目し、観客の視線が集中していることをもってハイライトシーンが発生していることを判断する。視線の測定は、視線測定部201により行われ、測定の結果は有線又は無線の方法により処理部202に送信される。なお、本開示では、イベント会場のすべての観客の視線を測定する必要はなく、一部の観客をサンプルとして視線を測定してよい。
ところで、単に会場を走査している視線なども算入されてしまうと、ハイライトシーンが発生していない場合でも複数の観客の視線が偶然に一致し、処理部202がハイライトシーンであると誤認してしまう虞がある。そこで、処理部202は、それぞれの視線測定部201から取得した視線の情報に基づいて観客の注視状態を判断することによりノイズを低減させることが好ましい。注視状態であるか否かの具体的な判断方法は、さまざまであるが、例えば測定された観客の視線が所定時間以上安定したときに、注視状態であると検出してもよい。閾値となる時間は、例えば3秒間と設定してよいがこれに限られない。
複数の観客が注視状態でなければ、引き続き観客の注視状態を検出する(ステップS301)。このとき、観客の注意が散漫であることを意味しているため、処理部202はハイライトシーンが発生していないと判断する。あるタイミングで複数の観客が注視状態となった場合は、処理部202は、それぞれの注視方向を示す直線が交差する注目ポイントを算出する(ステップS302)。
次に、処理部202は注目ポイントが密集する位置をハイライト撮影位置として確定する(ステップS303)。これは、注目ポイントが密集する位置は観客の注意が集中する位置であり、ハイライト撮影に適しているといえるからである。なお、本開示において確定するハイライト撮影位置は、1か所に限られない。例えば、注目ポイントが密集しているエリアが複数ある場合は各エリアごとにハイライト撮影位置を確定してもよい。また、複数台の無人機100が用意されている場合は、無人機100と同一の数量のハイライト撮影位置を確定してもよい。「注目ポイントが密集する位置」の判断方法は多様であるが、例えばそれぞれの注目ポイントの中心点であってよい。処理部202は、具体的には、例えばK平均法(K−Means)を用いてそれぞれの注目ポイントからの距離の合計が最も小さい一つまたは複数の位置を探索することが考えられるが、本開示はこれに限られない。
最後に、処理部202は、ハイライト撮影位置に無人機100を飛行させて撮影させる(ステップS304)。具体的には、処理部202はハイライト撮影位置を示すGPS情報を含む制御情報を生成し、無人機100に送信する。無人機100はこの制御情報を受け付けた後、GPS情報に基づいてハイライト撮影位置まで移動し、撮影を開始する。ここにいう「ハイライト撮影位置まで移動」には、ハイライトシーンの撮影位置に適したハイライト撮影位置周辺の位置も含まれる。好ましくは、処理部202はユーザインターフェース204が受け付けたユーザからの指示情報を随時無人機100に送信可能である。これにより、ユーザはユーザインターフェース204を操作することにより無人機100の撮影位置、撮影高度、撮影開始及び終了のタイミングなどを調整することができる。なお、ステップS303において複数のハイライト撮影位置が確定されているときは、それぞれのハイライト撮影位置に無人機100を飛行させて撮影させる。
本開示の制御装置、撮影方法、プログラム、記憶媒体をより明確に説明するために、以下において図4から図7を用いて本開示にかかる第1の実施例を説明する。第1の実施例においては、観客ごとの注視方向に基づいて注目ポイントを算出し、一つのハイライト撮影位置を確定する場合を例示する。
図4は本開示における第1の実施例の状況を示す模式図である。図4に示すように、第1の実施例では、ステージSの前には多くの観客がいる。そして、観客の一部または全部の観客席に向かって視線測定用カメラ(すなわち視線測定部201)が設けられており、これらのカメラは継続的に観客の視線の状況を測定する。処理部202は、これらのカメラにより測定された観客の視線が3秒間安定するか否かを判断することにより、注視状態を検出する(すわなち、ステップS301)。
ハイライトシーンが発生した場合、その位置は多くの観客の視線をひきつける。この瞬間において、処理部202は、視線測定用カメラからの情報に基づき、観客a1、a2、a3、a4が注視状態であることを検出する。図5において、直線L1は観客a1の注視方向を示し、直線L2は観客a2の注視方向を示し、直線L3は観客a3の注視方向を示し、直線L4は観客a4の注視方向を示す。そこで、処理部202は、それぞれの注視方向を示す直線が交差する注目ポイントを算出する(すわなち、ステップS302)。図6において、注目ポイントnp1は直線L2と直線L4が交差する位置であり、注目ポイントnp2は直線L1と直線L4が交差する位置であり、注目ポイントnp3は直線L2と直線L3が交差する位置であり、注目ポイントnp4は直線L1と直線L3が交差する位置であり、注目ポイントnp5は直線L1と直線L2が交差する位置である。なお、直線L3と直線L4も不図示の位置で交差すると思われるが、ステージSの外側で交差する場合は考慮しなくてよい。
そして、処理部202は、図7に示すように、注目ポイントnp1、np2、np3、np4、np5の中心点をハイライト撮影位置HPとして確定する(すなわち、ステップS303)。そして、処理部202は、ハイライト撮影位置HPのGPS情報を含む制御情報を生成し、無人機100に送信する。無人機100は、この制御情報を受け付けた後、GPS情報に基づいてハイライト撮影位置まで移動し、撮影を開始する(ステップS304)。
次に、図8から図11を用いて本開示にかかる第2の実施例を説明する。サッカーなどの大きな会場で行うイベントでは、観客の数が膨大であるため、ハイライトシーンでない場合も偶然複数の観客が注視状態となる可能性が大きい。また、仮にハイライトシーンが発生した場合であっても、注目ポイントが多すぎることにより、処理部202の演算の負荷が大きくなる恐れがある。そこで、第2の実施例では、観客を複数の観客ブロックに分割し、観客ブロックごとの注視方向に基づいて注目ポイントを算出する。
図8に示すように、まず、観客は観客席の位置などに基づいて複数の観客ブロックB1〜B18に分割される。各観客ブロック内の一部または全部の観客席には、視線測定用カメラ(すなわち視線測定部201)が設けられており、これらのカメラは継続的に観客の視線の状況を測定する。処理部202は、これらのカメラにより測定された観客の視線が3秒間安定するか否かを判断することにより、注視状態を検出する(すなわち、ステップS301)。
ハイライトシーンが発生した場合、その位置は多くの観客の視線をひきつける。この瞬間において、処理部202は、複数の観客が注視状態であることを検出することができ、各観客ブロックごとに、そのブロックに属する観客の注視方向に基づいてブロック注視方向を算出する(すなわち、ステップS302前半)。ここにいう「ブロック注視方向」とは、観客ブロックの代表的な注視方向を意味し、例えば、その観客ブロックに属する注視状態の観客の方向を示すベクトルの平均値、或いは最も多くの顧客が一致した注視方向、或いはランダムに選ばれた観客の注視方向などが挙げられるが、本開示はこれに限られない。図9においては、説明の便宜のため、観客ブロックB1〜B7のブロック注視方向のみを示し、観客ブロックB8〜B18の注視方向は省略している。直線L1は観客ブロックB1のブロック注視方向を示し、直線L2は観客ブロックB2のブロック注視方向を示し、直線L3は観客ブロックB3のブロック注視方向を示し、直線L4は観客ブロックB4のブロック注視方向を示し、直線L5は観客ブロックB5のブロック注視方向を示し、直線L6は観客ブロックB6のブロック注視方向を示し、直線L7は観客ブロックB7のブロック注視方向を示す。
そして、処理部202は、それぞれのブロック注視方向が交差する注目ポイントを算出する(ステップS302後半)。図10において、注目ポイントnp1は直線L2と直線L3が交差する位置であり、注目ポイントnp2は直線L1と直線L3が交差する位置であり、注目ポイントnp3は直線L1と直線L2が交差する位置であり、注目ポイントnp4は直線L1と直線L4が交差する位置であり、注目ポイントnp5は直線L2と直線L4が交差する位置であり、注目ポイントnp6は直線L5と直線L7が交差する位置であり、注目ポイントnp7は直線L6と直線L7が交差する位置であり、注目ポイントnp8は直線L5と直線L6が交差する位置である。なお、例えば、直線L3と直線L4も不図示の位置で交差するが、ステージSの外側で交差する場合は考慮しなくてよい。
そして、本実施例においては、2台の無人機100を用意していることから、処理部202は、注目ポイントが密集する図11に示すような二つのハイライト撮影位置HP1、HP2を確定し(すなわち、ステップS303)、ハイライト撮影位置HP1のGPS情報を含む制御情報とハイライト撮影位置HP2のGPS情報を含む制御情報を生成し、それぞれ異なる無人機100に送信する。そして、2台の無人機100はこの制御情報を受け付けた後、GPS情報に基づいてそれぞれハイライト撮影位置HP1とハイライト撮影位置HP2まで移動し、撮影を開始する(ステップS304)。
なお、異なるハイライト撮影位置で撮影した情報は、それぞれ異なる表示機に送信してよい。例えば、本実施例において、ハイライト撮影位置HP1は観客ブロックB1〜B4に属する観客の視線情報に基づいて得られているため、観客ブロックB1〜B4に属する観客に面している表示機にハイライト撮影位置HP1にいる無人機100が撮影した動画を出力してよい。同様に、ハイライト撮影位置HP2は観客ブロックB5〜B7に属する観客の視線情報に基づいて得られているため、観客ブロックB5〜B7に属する観客に面している表示機にハイライト撮影位置HP2にいる無人機100が撮影した動画を出力してよい。
本開示における撮影方法、制御装置、プログラム、記憶媒体によれば、複数の観客の注視方向に基づいてハイライトシーンを自動的に検出し、その地点に無人機を飛行させて撮影を行うため、貴重な瞬間を人為的なミスで取り逃がすことを防止することがきる。また、無人機により、任意のアングルで撮影を行うことができるため、多くのカメラやカメラマンを配備する必要もなく、低コストである。
以上、本開示について実施形態を用いて説明したが、本開示に係る発明の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
100 無人機(UAV)
101 カメラ
102 ジンバル
200 制御装置
201 視線測定部
202 処理部
203 アンテナ
204 ユーザインターフェース
205 表示部
206 記憶部

Claims (18)

  1. イベントの撮影方法であって、
    観客の注視状態を検出するステップと、
    複数の観客が注視状態である場合に、それぞれの注視方向を示す直線が交差する注目ポ
    イントを算出するステップと、
    前記注目ポイントが密集する位置をハイライト撮影位置として確定するステップと、
    前記ハイライト撮影位置に無人機を飛行させて撮影させるステップと、を有
    前記注目ポイントが密集する位置をハイライト撮影位置として確定するステップは、
    前記注目ポイントが密集する複数のハイライト撮影位置を確定するステップと、を有し

    前記ハイライト撮影位置に無人機を飛行させて撮影させるステップは、
    前記複数のハイライト撮影位置にそれぞれ無人機を飛行させて撮影させるステップと、
    を有し、
    異なるハイライト撮影位置で撮影した情報をそれぞれ異なる表示機に送信する、
    撮影方法。
  2. 前記観客は複数の観客ブロックに分割され、
    前記それぞれの注視方向を示す直線が交差する注目ポイントを算出するステップは、
    各観客ブロックごとに、そのブロックに属する観客の注視方向に基づいてブロック注視
    方向を算出するステップと、
    前記ブロック注視方向が交差する注目ポイントを算出するステップと、を有する、
    請求項1に記載の撮影方法。
  3. イベントの撮影方法であって、
    観客の注視状態を検出するステップと、
    複数の観客が注視状態である場合に、それぞれの注視方向を示す直線が交差する注目ポ
    イントを算出するステップと、
    前記注目ポイントが密集する位置をハイライト撮影位置として確定するステップと、
    前記ハイライト撮影位置に無人機を飛行させて撮影させるステップと、を有
    前記観客は複数の観客ブロックに分割され、
    前記それぞれの注視方向を示す直線が交差する注目ポイントを算出するステップは、
    各観客ブロックごとに、そのブロックに属する観客の注視方向に基づいてブロック注視
    方向を算出するステップと、
    前記ブロック注視方向が交差する注目ポイントを算出するステップと、を有する、
    撮影方法。
  4. 前記注目ポイントが密集する位置をハイライト撮影位置として確定するステップは、
    前記注目ポイントが密集する複数のハイライト撮影位置を確定するステップと、を有し

    前記ハイライト撮影位置に無人機を飛行させて撮影させるステップは、
    前記複数のハイライト撮影位置にそれぞれ無人機を飛行させて撮影させるステップと、
    を有する、請求項3に記載の撮影方法。
  5. 前記各観客ブロックごとに、そのブロックに属する観客の注視方向に基づいてブロック
    注視方向を算出するステップは、
    そのブロックに属する観客のうち、最も多くの観客の視線が一致した方向をブロック注
    視方向として算出する、請求項2ないし4のいずれか一項に記載の撮影方法。
  6. 前記観客の注視状態を検出するステップは、
    前記観客の視線を測定するステップと、
    前記視線が所定時間以上安定したときに、注視状態であると検出するステップと、を有
    する、
    請求項1ないし5のいずれか一項に記載の撮影方法。
  7. 前記注目ポイントが密集する位置をハイライト撮影位置として確定するステップは、
    それぞれの注目ポイントの中心点をハイライト撮影位置として確定するステップと、を
    有する、請求項1ないし6のいずれか一項に記載の撮影方法。
  8. 無人機と通信可能な制御装置であって、
    視線測定部と、処理部と、を有し、前記処理部は、
    観客の注視状態を検出し、
    複数の観客が注視状態である場合に、それぞれの注視方向を示す直線が交差する注目ポ
    イントを算出し、
    前記注目ポイントが密集する位置をハイライト撮影位置として確定し、
    前記ハイライト撮影位置に無人機を飛行させて撮影させ、
    前記処理部は、
    前記注目ポイントが密集する複数のハイライト撮影位置を確定し、
    前記複数のハイライト撮影位置にそれぞれ無人機を飛行させて撮影させ、
    異なるハイライト撮影位置で撮影した情報をそれぞれ異なる表示機に送信する
    制御装置。
  9. 前記観客は複数の観客ブロックに分割され、
    前記処理部は、
    各観客ブロックごとに、そのブロックに属する観客の注視方向に基づいてブロック注視
    方向を算出し、
    前記ブロック注視方向が交差する注目ポイントを算出する、
    請求項8に記載の制御装置。
  10. 無人機と通信可能な制御装置であって、
    視線測定部と、処理部と、を有し、前記処理部は、
    観客の注視状態を検出し、
    複数の観客が注視状態である場合に、それぞれの注視方向を示す直線が交差する注目ポ
    イントを算出し、
    前記注目ポイントが密集する位置をハイライト撮影位置として確定し、
    前記ハイライト撮影位置に無人機を飛行させて撮影させ、
    前記観客は複数の観客ブロックに分割され、
    前記処理部は、
    各観客ブロックごとに、そのブロックに属する観客の注視方向に基づいてブロック注視
    方向を算出し、
    前記ブロック注視方向が交差する注目ポイントを算出する、
    制御装置。
  11. 前記処理部は、
    前記注目ポイントが密集する複数のハイライト撮影位置を確定し、
    前記複数のハイライト撮影位置にそれぞれ無人機を飛行させて撮影させる、
    請求項10に記載の制御装置。
  12. 前記処理部は、
    そのブロックに属する観客のうち、最も多くの観客の視線が一致した方向をブロック注
    視方向として算出する、請求項9ないし11のいずれか一項に記載の制御装置。
  13. 前記処理部は、
    前記視線測定部により測定された観客の視線が所定時間以上安定したときに、注視状態
    であると検出する、
    請求項8ないし12のいずれか一項に記載の制御装置。
  14. 前記処理部は、
    それぞれの注目ポイントの中心点をハイライト撮影位置として確定する、
    請求項8ないし13のいずれか一項に記載の制御装置。
  15. コンピュータに、
    観客の注視状態を検出するステップと、
    複数の観客が注視状態である場合に、それぞれの注視方向を示す直線が交差する注目ポ
    イントを算出するステップと、
    前記注目ポイントが密集する位置をハイライト撮影位置として確定するステップと、
    前記ハイライト撮影位置に無人機を飛行させて撮影させるステップと、
    を実行させ、
    前記注目ポイントが密集する位置をハイライト撮影位置として確定するステップは、
    前記注目ポイントが密集する複数のハイライト撮影位置を確定するステップと、を有し

    前記ハイライト撮影位置に無人機を飛行させて撮影させるステップは、
    前記複数のハイライト撮影位置にそれぞれ無人機を飛行させて撮影させるステップと、
    を有し、
    異なるハイライト撮影位置で撮影した情報をそれぞれ異なる表示機に送信する、
    プログラム。
  16. コンピュータに、
    観客の注視状態を検出するステップと、
    複数の観客が注視状態である場合に、それぞれの注視方向を示す直線が交差する注目ポ
    イントを算出するステップと、
    前記注目ポイントが密集する位置をハイライト撮影位置として確定するステップと、
    前記ハイライト撮影位置に無人機を飛行させて撮影させるステップと、
    を実行させ、
    前記観客は複数の観客ブロックに分割され、
    前記それぞれの注視方向を示す直線が交差する注目ポイントを算出するステップは、
    各観客ブロックごとに、そのブロックに属する観客の注視方向に基づいてブロック注視
    方向を算出するステップと、
    前記ブロック注視方向が交差する注目ポイントを算出するステップと、を有する、
    プログラム。
  17. コンピュータに、
    観客の注視状態を検出するステップと、
    複数の観客が注視状態である場合に、それぞれの注視方向を示す直線が交差する注目ポ
    イントを算出するステップと、
    前記注目ポイントが密集する位置をハイライト撮影位置として確定するステップと、
    前記ハイライト撮影位置に無人機を飛行させて撮影させるステップと、
    を実行させ、
    前記注目ポイントが密集する位置をハイライト撮影位置として確定するステップは、
    前記注目ポイントが密集する複数のハイライト撮影位置を確定するステップと、を有し

    前記ハイライト撮影位置に無人機を飛行させて撮影させるステップは、
    前記複数のハイライト撮影位置にそれぞれ無人機を飛行させて撮影させるステップと、
    を有し、
    異なるハイライト撮影位置で撮影した情報をそれぞれ異なる表示機に送信する、
    プログラムを格納する、記憶媒体。
  18. コンピュータに、
    観客の注視状態を検出するステップと、
    複数の観客が注視状態である場合に、それぞれの注視方向を示す直線が交差する注目ポ
    イントを算出するステップと、
    前記注目ポイントが密集する位置をハイライト撮影位置として確定するステップと、
    前記ハイライト撮影位置に無人機を飛行させて撮影させるステップと、
    を実行させ、
    前記観客は複数の観客ブロックに分割され、
    前記それぞれの注視方向を示す直線が交差する注目ポイントを算出するステップは、
    各観客ブロックごとに、そのブロックに属する観客の注視方向に基づいてブロック注視
    方向を算出するステップと、
    前記ブロック注視方向が交差する注目ポイントを算出するステップと、を有する、
    プログラムを格納する、記憶媒体。
JP2018086902A 2018-04-27 2018-04-27 制御装置及び撮影方法 Active JP6921031B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018086902A JP6921031B2 (ja) 2018-04-27 2018-04-27 制御装置及び撮影方法
CN201980005550.3A CN111328399A (zh) 2018-04-27 2019-04-22 控制装置以及摄影方法
PCT/CN2019/083684 WO2019206078A1 (zh) 2018-04-27 2019-04-22 控制装置以及摄影方法
US17/076,555 US20210047036A1 (en) 2018-04-27 2020-10-21 Controller and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018086902A JP6921031B2 (ja) 2018-04-27 2018-04-27 制御装置及び撮影方法

Publications (2)

Publication Number Publication Date
JP2019193209A JP2019193209A (ja) 2019-10-31
JP6921031B2 true JP6921031B2 (ja) 2021-08-18

Family

ID=68294874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018086902A Active JP6921031B2 (ja) 2018-04-27 2018-04-27 制御装置及び撮影方法

Country Status (4)

Country Link
US (1) US20210047036A1 (ja)
JP (1) JP6921031B2 (ja)
CN (1) CN111328399A (ja)
WO (1) WO2019206078A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102534792B1 (ko) * 2015-02-10 2023-05-19 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
US10633088B2 (en) * 2016-07-01 2020-04-28 Textron Innovations Inc. Aerial imaging aircraft having attitude stability during translation
US11608173B2 (en) * 2016-07-01 2023-03-21 Textron Innovations Inc. Aerial delivery systems using unmanned aircraft
WO2024069788A1 (ja) * 2022-09-28 2024-04-04 株式会社RedDotDroneJapan 移動体システム、空中撮影システム、空中撮影方法および空中撮影プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2397908A (en) * 2003-01-31 2004-08-04 Hewlett Packard Co Image-capture event monitoring
JP4389901B2 (ja) * 2006-06-22 2009-12-24 日本電気株式会社 スポーツ競技におけるカメラ自動制御システム、カメラ自動制御方法、カメラ自動制御装置、およびプログラム
JP5477777B2 (ja) * 2010-03-31 2014-04-23 サクサ株式会社 画像取得装置
EP2684145A4 (en) * 2011-03-07 2014-09-03 Kba2 Inc SYSTEMS AND METHOD FOR ANALYTICAL DATA ACQUISITION OF IMAGE PROVIDERS ON THE BASIS OF AN EVENT OR GEOGRAPHICAL LOCATION
WO2016088437A1 (ja) * 2014-12-04 2016-06-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10719710B2 (en) * 2015-06-24 2020-07-21 Intel Corporation Capturing media moments of people using an aerial camera system
JP2017021756A (ja) * 2015-07-15 2017-01-26 三菱自動車工業株式会社 車両の運転支援装置
JP2017188715A (ja) * 2016-04-01 2017-10-12 富士通フロンテック株式会社 映像表示システム及び映像表示方法
CN107622273B (zh) * 2016-07-13 2021-03-19 深圳雷柏科技股份有限公司 一种目标检测和辨识的方法和装置
CN106791682A (zh) * 2016-12-31 2017-05-31 四川九洲电器集团有限责任公司 一种获得场景图像的方法及设备
CN107124662B (zh) * 2017-05-10 2022-03-18 腾讯科技(上海)有限公司 视频直播方法、装置、电子设备及计算机可读存储介质

Also Published As

Publication number Publication date
CN111328399A (zh) 2020-06-23
JP2019193209A (ja) 2019-10-31
WO2019206078A1 (zh) 2019-10-31
US20210047036A1 (en) 2021-02-18

Similar Documents

Publication Publication Date Title
JP6921031B2 (ja) 制御装置及び撮影方法
KR102101438B1 (ko) 연속 시점 전환 서비스에서 객체의 위치 및 크기를 유지하기 위한 다중 카메라 제어 장치 및 방법
KR102661185B1 (ko) 전자 장치 및 그의 이미지 촬영 방법
CN106575027A (zh) 摄像装置及其被摄体跟踪方法
JP7494273B2 (ja) 表示制御装置、表示制御方法、およびプログラム
JP2016066978A (ja) 撮像装置、その制御方法とプログラム
US11317073B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
CN108141540B (zh) 具有移动检测的全向相机
US20140198229A1 (en) Image pickup apparatus, remote control apparatus, and methods of controlling image pickup apparatus and remote control apparatus
KR102668233B1 (ko) 관심 영역을 통해 움직이는 외부 객체에 대해 프레임 레이트를 제어하여 이미지들을 획득하는 전자 장치 및 그의 동작 방법
JP2017072986A (ja) 自律飛行装置、自律飛行装置の制御方法及びプログラム
JP2019012881A (ja) 撮像制御装置及びその制御方法
KR20180129667A (ko) 표시 제어 장치, 표시 제어 방법 및 저장 매체
CN110291777B (zh) 图像采集方法、设备及机器可读存储介质
WO2022021438A1 (zh) 一种图像处理方法、图像控制方法及相关设备
KR101814714B1 (ko) 스마트폰 카메라 원격 제어 방법 및 시스템
WO2016011861A1 (zh) 物体运动轨迹的拍摄方法及拍摄终端
JP2018085579A (ja) 撮像装置、制御方法、及び情報処理プログラム
CN110291776B (zh) 飞行控制方法及飞行器
JP6261191B2 (ja) 表示制御装置、表示制御方法、プログラム
TW202036369A (zh) 影像處理裝置及其方法
JP2016082356A (ja) 電子機器およびプログラム
US11917117B2 (en) Processing system, processing method and non-transitory computer-readable storage medium
WO2022044357A1 (ja) 端末装置、方法、およびプログラム
JP2016058872A (ja) 撮像装置、その制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210727

R150 Certificate of patent or registration of utility model

Ref document number: 6921031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150