JP6885485B2 - 複数カメラネットワークを利用して静止シーン及び/又は移動シーンを取り込むためのシステム及び方法 - Google Patents

複数カメラネットワークを利用して静止シーン及び/又は移動シーンを取り込むためのシステム及び方法 Download PDF

Info

Publication number
JP6885485B2
JP6885485B2 JP2020037847A JP2020037847A JP6885485B2 JP 6885485 B2 JP6885485 B2 JP 6885485B2 JP 2020037847 A JP2020037847 A JP 2020037847A JP 2020037847 A JP2020037847 A JP 2020037847A JP 6885485 B2 JP6885485 B2 JP 6885485B2
Authority
JP
Japan
Prior art keywords
uav
images
imaging devices
information
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020037847A
Other languages
English (en)
Other versions
JP2020115642A (ja
Inventor
アレクサンダー ベレストフ
アレクサンダー ベレストフ
ミン−チャン リウ
ミン−チャン リウ
チュエン−チエン リー
チュエン−チエン リー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2020115642A publication Critical patent/JP2020115642A/ja
Application granted granted Critical
Publication of JP6885485B2 publication Critical patent/JP6885485B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0027Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/102UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] adapted for flying in formations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本開示の様々な実施形態は、静止シーン及び/又は移動シーンの取り込みに関する。具体的には、本開示の様々な実施形態は、複数カメラネットワークを利用して静止シーン及び/又は移動シーンを取り込むことに関する。
デジタルカメラ及び低コストセンサシステムの登場及びその後の発展以来、今やこの技術は複数カメラネットワークシステムに向かって進んでいる。このような複数カメラネットワークシステムは、スマートホーム、オフィスオートメーション、メディア及びエンターテイメント、保安及び監視、モバイル及びロボットネットワーク、人間−コンピュータインターフェイス、仮想現実システム、3D物体再構成及び/又はモーションキャプチャなどの様々な用途に使用することができる。
通常、競技場などの施設では、複数カメラネットワークシステムと集中型画像処理サーバとに通信可能に接続されたユーザ端末が、1又は2以上の物体を選択するユーザ入力を受け取ることができる。複数カメラネットワークシステムは、既製のカメラ、埋め込みカメラ及び/又は通信可能に結合されたカメラなどの複数の固定カメラを含むことができる。複数の固定カメラは、施設内の選択された1又は2以上の物体のリアルタイムな360°の動きを取り込むように、施設周辺の様々な戦略的な場所に様々な角度で設置することができる。集中型画像処理サーバは、施設周辺に設置されたこのような複数の固定カメラを較正することができる。集中型画像処理サーバは、複数の固定カメラの部分毎のばらつき、焦点レンズ差分及びレンズ歪みを解消するために較正を実行することができる。
集中型画像処理サーバは、ユーザ入力を受け取って複数カメラネットワークシステムに制御コマンドを通信することができる。この制御コマンドは、1又は2以上の物体の選択と、(照明、影及び/又は反射などの)1又は2以上の環境因子とに基づくことができる。この制御コマンドは、複数カメラネットワークシステム内の固定カメラの1又は2以上のパラメータを調整することができる。従って、複数カメラネットワークシステムは、制御コマンドに基づいて複数の画像を取り込むことができる。取り込んだ画像は、集中型画像処理サーバに返送することができる。
集中型画像処理サーバは、受け取った取り込み画像を処理し、処理画像を表示及び分析のためにユーザ端末に送信することができる。しかしながら、場合によっては、複数カメラネットワークシステムにおける固定カメラの配置が、選択された1又は2以上の物体を含む所定の領域を十分にカバーできるほど適切でないこともある。従って、複数カメラネットワークシステムは、様々な用途の目的に基づいて所定の領域を特定の解像度で最大限にカバーできるように施設内に最適に配置できる非固定カメラを含むことが望ましいと考えられる。さらに、集中型画像処理サーバは、最小限の時間で正確な較正を行えるほど十分にロバストであることが望ましいと考えられる。
当業者には、説明したシステムと本出願の残り部分において図面を参照しながら説明する本開示のいくつかの態様との比較を通じて、従来の伝統的な方法のさらなる制限及び不利点が明らかになるであろう。
実質的に少なくとも1つの図に示し、及び/又はこれらの図に関連して説明し、特許請求の範囲にさらに完全に示すような、複数の撮像装置を用いた画像処理システム及び方法。
全体を通じて同じ要素を同じ参照符号によって示す添付図面を参照しながら本開示の以下の詳細な説明を検討することにより、本開示のこれらの及びその他の特徴及び利点を理解することができる。
本開示の実施形態によるネットワーク環境を示すブロック図である。 本開示の実施形態による例示的な無人航空機(UAV)の様々なコンポーネントを示すブロック図である。 本開示の実施形態による例示的なサーバを示すブロック図である。 本開示の実施形態による、3D構造を分散処理モードで再構成するための、複数のUAVとユーザ端末とを含む第1のネットワーク環境を示すブロック図である。 本開示の実施形態による、3D構造を集中処理モードで再構成するための、複数のUAVとサーバとを含む第2のネットワーク環境を示すブロック図である。 本開示の実施形態による、3D構造をクラスタ処理モードで再構成するための、複数のUAV及び/又はサーバを含む第3のネットワーク環境を示すブロック図である。 本開示の実施形態による、例示的なUAVの位置を決定するための例示的な三角測量法を示す図である。 本開示の実施形態による、例示的なUAVの位置を決定するための例示的な三角測量法を示す図である。 本開示の実施形態による、例示的なUAVの位置を決定するための例示的な三角測量法を示す図である。 本開示の実施形態による、例示的なUAVの位置を決定するための例示的な三角測量法を示す図である。 本開示の実施形態による、例示的な画像処理方法を実施するための例示的なシナリオを示す図である。 本開示の実施形態による、例示的な画像処理方法を実施するための例示的なシナリオを示す図である。 本開示の実施形態による、例示的な画像処理方法を実施するための例示的なシナリオを示す図である。 本開示の実施形態による、例示的な画像処理方法を実施するための第1のフローチャートである。 本開示の実施形態による、例示的な画像処理方法を実施するための第1のフローチャートである。 本開示の実施形態による、例示的な画像処理方法を実施するための第2のフローチャートである。 本開示の実施形態による、例示的な画像処理方法を実施するための第3のフローチャートである。 本開示の実施形態による、例示的な画像処理方法を実施するための第3のフローチャートである。
複数の撮像装置を用いた画像処理システム及び方法では、後述する実装を見出すことができる。本開示の例示的な態様は、1又は2以上の他の無人航空機(UAV)をさらに含むネットワーク内の第1のUAVに実装される方法を含むことができる。(第1のUAVと1又は2以上の他のUAVとを含む)複数のUAVの各々は、複数の画像を取り込むように構成された撮像装置を伴うことができる。複数のUAVのうちの第1のUAVは、1又は2以上の静止物体及び/又は移動物体の第1の一連の画像を取り込むように構成された第1の撮像装置を含むことができる。
方法は、1又は2以上の撮像装置から、これらの撮像装置の焦点レンズ情報と、現在位置と、現在の配向とを受け取ることを含むことができる。1又は2以上の撮像装置は、複数のUAVのうちの1又は2以上の他のUAVに関連することができる。受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、1又は2以上の静止物体及び/又は移動物体の現在位置とに基づいて、1又は2以上の撮像装置の目標位置及び目標配向を決定することができる。1又は2以上の他のUAVに、1又は2以上の撮像装置の現在位置及び現在の配向を修正するための制御情報を通信することができる。現在位置及び現在の配向は、1又は2以上の撮像装置の決定された目標位置及び決定された目標配向に修正することができる。ある実施形態によれば、通信される制御情報が、取り込み情報をさらに含むことができる。取り込み情報は、1又は2以上の撮像装置が決定された目標位置及び決定された目標配向において1又は2以上の静止物体及び/又は移動物体の一連の画像を取り込めるようにすることができる。方法は、取り込まれた第1の一連の画像及び取り込まれた第2の一連の画像から3次元(3D)構造を再構成することをさらに含むことができる。
ある実施形態によれば、方法は、3D構造を再構成するために、取り込まれた第1の一連の画像と取り込まれた第2の一連の画像とを動的に同期させることを含むことができる。ある実施形態によれば、方法は、1又は2以上の他のUAVに較正情報を通信することを含むことができる。較正情報は、受け取った焦点レンズ情報と予め定められた較正物体の複数の画像とに基づく1又は2以上の撮像装置の較正を可能にするために通信することができる。ある実施形態によれば、1又は2以上の撮像装置の較正は、これらの撮像装置の1又は2以上の内部パラメータ及び/又は外部パラメータを調整するために行うことができる。
本開示の別の態様によれば、複数の撮像装置を用いて画像処理を実行する別の方法が開示される。この方法は、画像処理のために複数のUAVに通信可能に結合されたサーバに実装することができる。複数のUAVは、複数の画像を取り込むように構成された1又は2以上の撮像装置を伴うことができる。方法は、複数のUAVに関連する1又は2以上の撮像装置から、これらの撮像装置の焦点レンズ情報と、現在位置と、現在の配向とを受け取ることを含むことができる。方法は、1又は2以上の撮像装置の目標位置及び目標配向を決定することをさらに含むことができる。この決定は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、取り込むべき1又は2以上の静止物体及び/又は移動物体の現在位置とに基づくことができる。複数のUAVに、1又は2以上の撮像装置の現在位置及び現在の配向を修正するための制御情報を通信することができる。現在位置及び現在の配向は、1又は2以上の撮像装置の決定された目標位置及び決定された目標配向に修正することができる。
ある実施形態によれば、通信される制御情報が、取り込み情報をさらに含むことができる。取り込み情報は、1又は2以上の撮像装置が決定された目標位置及び決定された目標配向において1又は2以上の静止物体及び/又は移動物体の一連の画像を取り込めるようにすることができる。ある実施形態によれば、方法は、取り込まれた第1の一連の画像及び取り込まれた第2の一連の画像から3次元(3D)構造を再構成することをさらに含むことができる。ある実施形態によれば、方法は、3D構造を再構成するために、取り込まれた一連の画像を動的に同期させることを含むことができる。
ある実施形態によれば、方法は、複数のUAVに較正情報を通信することを含むことができる。較正情報の通信は、受け取った焦点レンズ情報と予め定められた較正物体の複数の画像とに基づく1又は2以上の撮像装置の較正を可能にすることができる。
本開示の別の態様によれば、複数の撮像装置を用いて画像処理を実行する別の方法が開示される。この方法は、第1のネットワークと第2のネットワークとを含むシステムに実装することができる。第1のネットワークは、第1の一連のUAVを含むことができ、第2のネットワークは、第2の一連のUAVを含むことができる。第1の一連のUAV及び第2の一連のUAVの各々は、複数の画像を取り込むように構成できる撮像装置を伴うことができる。方法は、第1の一連のUAVのうちの第1のUAVに実装することができる。第1のUAVは、1又は2以上の静止物体及び/又は移動物体の第1の一連の画像を取り込むように構成できる第1の撮像装置を含むことができる。方法は、第1の一連のUAVに関連する第1の一連の撮像装置から、第1の一連の撮像装置の焦点レンズ情報と、現在位置と、現在の配向とを受け取ることを含むことができる。方法は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、1又は2以上の静止物体及び/又は移動物体の現在位置とに基づいて、第1の一連の撮像装置の目標位置及び目標配向を決定することをさらに含むことができる。第1の一連のUAVに、第1の一連の撮像装置の現在位置及び現在の配向を修正するための制御情報を通信することができる。現在位置及び現在の配向は、第1の一連の撮像装置の決定された目標位置及び決定された目標配向に修正することができる。ある実施形態によれば、第1のUAVによって通信される制御情報は、決定された目標位置及び決定された目標配向における、第1の一連の撮像装置による取り込み情報をさらに含むことができる。取り込み情報は、1又は2以上の静止物体及び/又は移動物体の第1の一連の画像の取り込みを可能にすることができる。
ある実施形態によれば、第2の一連のUAVのうちの第2のUAVが、1又は2以上の静止物体及び/又は移動物体の第2の一連の画像を取り込むように構成された第2の撮像装置を含むことができる。第2のUAVに実装される方法は、第2の一連のUAVに関連する第2の一連の撮像装置から、第2の一連の撮像装置の焦点レンズ情報と、現在位置と、現在の配向とを受け取ることができる。ある実施形態によれば、方法は、第2の一連の撮像装置の目標位置及び目標配向を決定することを含むことができる。この決定は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、1又は2以上の静止物体及び/又は移動物体の現在位置とに基づくことができる。第2の一連のUAVに、第2の一連の撮像装置の現在位置及び現在の配向を修正するための制御情報を通信することができる。現在位置及び現在の配向は、第2の一連の撮像装置の決定された目標位置及び決定された目標配向に修正することができる。ある実施形態によれば、第2のUAVによって通信される制御情報は、決定された目標位置及び決定された目標配向における、第2の一連の撮像装置による取り込み情報をさらに含む。取り込み情報は、1又は2以上の静止物体及び/又は移動物体の第2の一連の画像の取り込みを可能にすることができる。ある実施形態によれば、方法は、1又は2以上の静止物体及び/又は移動物体の3D構造を再構成するために、取り込まれた第1の一連の画像と取り込まれた第2の一連の画像とを動的に同期させることを含むことができる。
図1は、本開示の実施形態によるネットワーク環境を示すブロック図である。図1に示すネットワーク環境100は、複数のUAV102と、複数の撮像装置104と、サーバ106と、通信ネットワーク108と、ユーザ端末110とを含む。複数のUAV102は、第1のUAV102a、第2のUAV102b、第3のUAV102c及び第4のUAV102dなどの2又は3以上のUAVを含むことができる。複数の撮像装置104は、第1の撮像装置104a、第2の撮像装置104b、第3の撮像装置104c及び第4の撮像装置104dなどの2又は3以上の撮像装置を含むことができる。第1のUAV102a、第2のUAV102b、第3のUAV102c及び第4のUAV102dは、それぞれ第1の撮像装置104a、第2の撮像装置104b、第3の撮像装置104c及び第4の撮像装置104dを伴うことができる。複数のUAV102、複数の撮像装置104、サーバ106及びユーザ端末110は、通信ネットワーク108を介して互いに通信するように構成することができる。
複数のUAV102は、遠隔システムによって制御される又は自律飛行が可能な無人航空機又はシステムに対応することができる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。無人航空機又はシステムは、地上制御ステーションの遠隔パイロットによって制御することができる。無人航空機又はシステムは、事前プログラムされた様々な飛行計画又は複雑な動的自動システムに基づいて自律的に飛行することもできる。複数のUAV102は、飛行中に通信ネットワーク108を介して互いに通信するように構成することができる。複数のUAV102の配列は、動的に決定される処理モードに基づくことができる。複数のUAV102の例は、以下に限定するわけではないが、ドローン、スマートプレーン、或いはパイロットが乗っていない、又は事前プログラムされた飛行計画及び/又は自動化システムによって制御される他のこのような航空機を含むことができる。モータのフレーム型及び個数に基づけば、複数のUAV102の様々な例は、以下に限定するわけではないが、アームが3つでモータが1つのトライコプター、アームが4つでモータが1つのクワッドコプター、アームが6つでモータが1つのヘキサコプター、アームが6つでモータが6つのY6コプター、アームが8つでモータが1つのオクトコプター、及び/又はアームが8つでモータが8つのX8を含むことができる。
複数の撮像装置104は、対応するUAVの視野(FOV)内の複数の画像及び/又はビデオフレームを取り込むように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。さらに、複数の撮像装置104は、取り込まれた1又は2以上の画像及び/又はビデオフレームの視覚表現を生成することもできる。複数の撮像装置104は、1又は2以上の画像及び/又はビデオフレームの取り込みを可能にするレンズアセンブリと画像センサとを含むことができる。複数の撮像装置104の画像センサは、電荷結合素子(CCD)技術、相補的金属酸化物半導体(CMOS)技術、及び/又は同様のものを用いて実装することができる。複数の撮像装置104の例は、以下に限定するわけではないが、小型カメラ、ブリッジ回路カメラ、カムコーダ、デジタルカメラ、視点(POV)カメラ、サーモグラフィーカメラ、一眼レフカメラ、及び/又は内蔵カメラに相当することができる。
サーバ106は、複数の撮像装置104によって取り込まれた複数の画像及び/又はビデオフレームを通信ネットワーク108を介して受け取るように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。ある実施形態によれば、サーバ106は、受け取った複数の画像及び/又はビデオフレームの3D再構成のための画像処理を実行することができる。サーバ106の例は、以下に限定するわけではないが、データベースサーバ、ウェブサーバ、ファイルサーバ、メディアサーバ、プロキシサーバ、及び/又は通信サーバを含むことができる。
通信ネットワーク108は、複数のUAV102をサーバ106及びユーザ端末110に通信可能に接続できるようにする媒体を含むことができる。通信ネットワーク108の例は、以下に限定するわけではないが、インターネット、クラウドネットワーク、ワイヤレスフィデリティ(Wi−Fi)ネットワーク、無線ローカルエリアネットワーク(WLAN)、ローカルエリアネットワーク(LAN)、電話線(POTS)、無線WAN、及び/又はメトロポリタンエリアネットワーク(MAN)を含むことができる。ネットワーク環境100内の様々な装置は、様々な有線及び無線通信プロトコルに従って通信ネットワーク108に接続することができる。このような有線及び無線通信プロトコルの例は、以下に限定するわけではないが、伝送制御プロトコル及びインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、無線メッシュネットワーク(WMN)赤外線(IR)、IEEE 802.11、802.16、IEEE 802.11s、IEEE 802.11g、マルチホップ通信、UVNet、フライングアドホックネットワーク(FANET)、無線アクセスポイント(AP)、装置間通信、セルラー通信プロトコル、及び/又はBluetooth(BT)通信プロトコルを含むことができる。
ユーザ端末110は、ユーザ入力を受け取って、受け取ったユーザ入力を複数のUAV102及び/又はサーバ106に通信するように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。ユーザ端末110の例は、以下に限定するわけではないが、スマートフォン、カメラ、タブレットコンピュータ、ラップトップ、ウェアラブル電子装置、テレビ、インターネットプロトコルテレビ(IPTV)、及び/又は他のこのような表示端末を含むことができる。
動作時には、複数のUAV102の各々が、これらのUAV102に関連するシステム制御及び状態変数をモニタする飛行前診断プロセスを実行することができる。このようなシステム制御の例は、以下に限定するわけではないが、飛行及びその他の制御変数、無線通信リンク、センサユニット、バッテリレベル、中央処理装置、及びヘリコプター回転翼などの他のハードウェアコンポーネントを含むことができる。対応する複数のUAV102の様々な計算リソースに相当する状態変数の例は、以下に限定するわけではないが、計算帯域幅及び/又メモリ利用率、及び/又はバッテリレベルを含むことができる。飛行前診断プロセスが正常に終了すると、複数のUAV102は飛行を開始して浮遊することができる。その後、この時点で浮遊している複数のUAV102は、それぞれのシステム制御及び状態変数を定期的にモニタする飛行中診断プロセスを実行することができる。
ある実施形態によれば、複数のUAV102は、事前プログラムされた飛行計画に従って、(Wi−Fiなどの)通信ネットワーク108を介して互いに通信するように構成することができる。特定の事例によれば、複数のUAV102は、各UAVが当業で周知の様々な無線プロトコルに基づいて他のUAVと通信できるようにするメッシュネットワークを形成することができる。ある実施形態によれば、メッシュネットワークは、複数のUAV102に加えてサーバ106をさらに含むことができる。別の事例によれば、複数のUAV102は、当業で周知の様々な無線プロトコルに基づいてこのような無線通信を可能にするアドホックネットワークを形成することができる。
ある実施形態によれば、複数のUAV102及び/又はサーバ106のうちの1つは、これらのUAV102及び/又はサーバ106のシステム制御及び状態変数を中心的にモニタするようにさらに構成することができる。ある例によれば、第1のUAV102aを、複数のUAV102及び/又はサーバ106のシステム制御及び状態変数をモニタして記録するように構成することができる。ある例によれば、サーバ106を、複数のUAV102及び/又はサーバ106のシステム制御及び状態変数をモニタして記録するように構成することができる。従って、複数のUAV102及び/又はサーバ106のうちの1つは、これらのUAV102及び/又はサーバ106の状態変数を記憶して定期的に更新できる状態変数テーブルを生成するようにさらに構成することができる。このような複数のUAV102及び/又はサーバ106のうちの1つは、これらのUAV102及び/又はサーバ106をモニタするマスター装置として事前構成及び/又は事前プログラムすることができる。
ある実施形態によれば、ユーザ端末110は、ユーザ端末110に関連するユーザから(タッチ画面などの)I/O装置を介してユーザ入力を受け取るように構成することができる。受け取られるユーザ入力は、1又は2以上の静止物体及び/又は移動物体の選択を含むことができる。ユーザは、I/O装置を介してこの選択を行うことができる。例示的なシナリオでは、動いている選手が放つ特定のシュートを分析したいと望むことができるスポーツ解説者をユーザとすることができる。従って、ユーザは、ディスプレイ画面でタッチ入力を行って、動いている選手を選択することができる。
本開示の第1の態様によれば、ユーザ端末110は、受け取ったユーザ入力を第1のUAV102aなどの複数のUAV102のうちの1つに通信するように構成することができる。当業者であれば、第1のUAV102aへのユーザ入力の通信は例示目的での説明であり、本開示を限定するものとして解釈されるものではないと理解するであろう。この例では、(計算リソースが十分であるという理由で)第1のUAV102aを、複数のUAV102及び/又はサーバ106をモニタするマスター装置として事前構成及び/又は事前プログラムできると仮定することができる。しかしながら、本開示は、第1のUAV102aをマスター装置又はコントローラとして事前プログラムする構成に限定されるものではない。本開示の範囲から逸脱することなく、複数のUAV102のうちの十分な計算リソースを有する他のUAV102をマスター装置として構成又はプログラムすることもできる。
ある実施形態によれば、複数のUAV102のうちの第1のUAV102aは、第1の撮像装置104aを伴うことができる。第1の撮像装置104aは、第1の一連の画像を取り込むように構成することができる。同様に、1又は2以上の他のUAV102b〜102dは、1又は2以上の他のそれぞれの撮像装置104b〜104dを伴うことができる。1又は2以上の他の撮像装置104b〜104dは、第2の一連の画像を取り込むように構成することができる。ある実施形態によれば、第1のUAV102aは、ユーザ入力に基づいて1又は2以上の他のUAV102b〜102dから情報を受け取るように構成することができる。このような場合、複数のUAV102及びサーバ106は、Wi−Fiなどの無線通信チャネルを介してメッシュネットワーク内に存在することができる。この情報は、1又は2以上の他のUAV102b〜102dに関連する1又は2以上の撮像装置104b〜104dの焦点レンズ情報と、現在位置と、現在の配向とを含むことができる。1又は2以上の他のUAV102b〜102dは、ジャイロスコープなどの内蔵された第1の一連のセンサに基づいてこの情報を決定することができる。1又は2以上の他のUAV102b〜102dは、画像センサなどの内蔵された第2の一連のセンサに基づいてこの情報を精細化することができる。第1のUAV102aは、受け取ったユーザ入力において選択された1又は2以上の静止物体又は移動物体の現在位置を特定するようにさらに構成することができる。
ある実施形態によれば、第1のUAV102aは、受け取った焦点レンズ情報と、チェッカー盤などの共通の予め定められた較正物体の複数の画像とに基づいて、1又は2以上の他のUAV102b〜102dの較正情報を決定するように構成することができる。予め定められた較正物体の複数の画像は、複数の撮像装置104によって1又は2以上の角度及び方向から取り込むことができる。第1のUAV102aは、決定された較正情報を1又は2以上の他のUAV102b〜102dに関連する1又は2以上の撮像装置104b〜104dに通信するように構成することができる。従って、1又は2以上の他のそれぞれのUAV102b〜102dは、1又は2以上の撮像装置104b〜104dの較正を行うことができる。
1又は2以上の他のUAV102b〜102dは、1又は2以上の撮像装置104b〜104dの1又は2以上の内部及び/又は外部パラメータを調整するためにこれらの撮像装置の較正を行うことができる。内部パラメータは、像点の画素座標を撮像装置の基準座標系における対応する座標にリンクさせるために必要な1又は2以上のパラメータに相当することができる。内部パラメータの例は、以下に限定するわけではないが、焦点距離、画像センサフォーマット、主点及び/又はレンズ歪みを含むことができる。外部パラメータは、既知の世界座標系(world reference frame)に対する撮像装置の基準座標系の位置及び配向を定める1又は2以上のパラメータに相当することができる。外部パラメータの例は、限定するわけではないが、3D世界座標から3Dカメラ座標への座標系変換を含むことができる。
ある実施形態によれば、第1のUAV102aは、1又は2以上の撮像装置104b〜104dの目標位置及び目標配向を決定するように構成することができる。目標位置及び目標配向は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、選択された1又は2以上の静止物体又は移動物体の現在位置とに基づいて決定することができる。第1のUAV102aは、図5で説明するような三角測量法に従って自機の目標位置及び目標配向を決定するように構成することができる。当業者であれば、複数の撮像装置104の目標位置及び目標配向は、選択された1又は2以上の静止物体又は移動物体の周囲における複数の撮像装置104の最適な配列に対応すると理解するであろう。複数のUAV102の最適な配列は、選択された1又は2以上の静止物体又は移動物体を含む3Dシーン構造を複数の撮像装置104の予め定められた解像度で最大限にカバーする配列に対応する。
ある実施形態によれば、第1のUAV102aは、1又は2以上の他のUAV102b〜102dに制御情報を通信するように構成することができる。1又は2以上の他のUAV102b〜102dは、受け取った制御情報に基づいて1又は2以上の撮像装置104b〜104dの現在位置及び現在の配向を修正することができる。1又は2以上の撮像装置104b〜104dの現在位置及び現在の配向は、決定された目標位置及び決定された目標配向に修正することができる。ある実施形態によれば、第1のUAV102aは、自機の現在位置及び現在の配向を、三角測量法を通じて決定された目標位置及び目標配向に修正するように構成することができる。
複数のUAV102が自機の現在位置及び現在の配向を目標位置及び目標配向に修正すると、複数の撮像装置104は、1又は2以上の静止物体又は移動物体の一連の画像を取り込むことができる。この一連の画像は、第1のUAV102aの第1の撮像装置104aによって取り込まれた第1の一連の画像を含むことができる。1又は2以上の他のUAV102b〜102dの1又は2以上の撮像装置104b〜104dは、第2の一連の画像をそれぞれ取り込むことができる。第1の一連の画像は、第1のUAV102aによって送信される同期信号に基づいて第2の一連の画像と動的に同期させることができる。この同期信号は、第1の一連の画像と第2の一連の画像とが実時間で最小時間の時間差しか示さないように複数の撮像装置104間のタイミング相関を定めることができる。
複数の撮像装置104は、選択された1又は2以上の静止物体及び/又は移動物体に関連する動き情報を協働して取り込むようにさらに構成することができる。ある実施形態によれば、複数の撮像装置104は、当業で周知のマーカー情報を含む1又は2以上の静止物体及び/又は移動物体の1又は2以上の球面位置に基づいて、協働して動き情報を取り込むことができる。例えば、このマーカー情報は、複数のUAV102が継続的に追跡できる様々な骨質部分を表す1又は2以上の有色斑点によって示すことができる。ある実施形態によれば、複数の撮像装置104は、当業で周知のマーカー情報を含んでいない1又は2以上の静止物体及び/又は移動物体の1又は2以上の球面位置に基づいて、協働して動き情報を取り込むことができる。例えば、複数のUAV102に、(当業で周知の)ConvNetに基づく接合部検出アルゴリズム(joint detection algorithm)から推定される1又は2以上の静止物体及び/又は移動物体の本体部分の検出を推定できるマーカーレス物体追跡アルゴリズムを実装することができる。さらに、マーカーレス物体追従アルゴリズムは、当業で周知のガウス和フレームワークに基づいて、本体部分の検出を発生モデルに基づく追跡アルゴリズムに融合させることもできる。当業者であれば、上記の例は例示目的にすぎず、本開示の範囲を限定するものとして解釈されるものではないと理解することができる。
第1のUAV102aは、複数の撮像装置104によって取り込まれた一連の画像を処理することができる処理モードを動的に決定するようにさらに構成することができる。この処理モードは、分散処理モード、集中処理モード又はクラスタ処理モードに対応することができる。第1のUAV102aは、最新の飛行中診断プロセス中に更新される状態変数テーブルから検索された計算リソースの状態に基づいて、処理モードを動的に決定することができる。計算リソースは、複数のUAV102及びサーバ106の計算帯域幅、メモリ利用率及び/又はバッテリレベルに対応することができる。従って、第1のUAV102aは、複数のUAV102又はサーバ106のうちの1つを選択して一連の画像を最適に処理することができる。
ある実施形態によれば、第1のUAV102aは、計算リソースの状態に基づいて、複数のUAV102及びサーバ106の中で第1のUAV102a自体が最大の計算帯域幅、メモリ利用率及び/又はバッテリレベルを示すと判断することができる。このような場合、第1のUAV102aは、第1及び第2の一連の画像に基づいて、選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成を実行するように構成することができる。第1のUAV102aは、このようなリアルタイム3D構造再構成を第1の用途に従って実行することができる。しかしながら、本開示はこのように限定されるものではなく、本開示の範囲から逸脱することなく別の用途と複数のUAVの異なる目標位置及び目標配向とに従って別の3D構造再構成を実行することもできる。
第1のUAV102aは、選択された1又は2以上の静止物体及び/又は移動物体の3Dシーン解釈及び/又は点群生成に基づいて3D構造の再構成を実行することができる。選択された1又は2以上の静止物体又は移動物体の3Dシーン解釈及び/又は点群生成は、一連の画像が取り込まれる複数のUAV102の目標位置及び目標配向に基づいて実行することができる。
ある実施形態によれば、第1のUAV102aは、再構成後の3D構造を通信ネットワーク108を介してユーザ端末110に通信するようにさらに構成することができる。従って、このような場合、ユーザ端末110は、再構成後の3D構造を受け取って表示することができる。ある実施形態によれば、ユーザ端末110は、3D再構成画像の視点を修正するための別のユーザ入力をさらに受け取ることができる。この修正された視点に対応する要求を第1のUAV102aに戻すことができる。第1のUAV102aは、この要求に基づいて、再び1又は2以上の他のUAV102b〜102dの新たな目標位置及び目標配向をそれぞれ決定することができる。第1のUAV102aは、上記と同様に1又は2以上の他のUAV102b〜102dから新たな一連の画像を受け取ることができる。上記と同様に再び3D構造の再構成を実行し、通信ネットワーク108を介してユーザ端末110に通信することができる。
ある実施形態によれば、第1のUAV102aは、計算リソースの状態に基づいて、複数のUAV102及びサーバ106の中でサーバ106が最大の計算帯域幅、メモリ利用率及び/又はバッテリレベルを示すと判断することができる。このような場合、第1のUAV102aは、取り込まれた第1の一連の画像と受け取った第2の一連の画像とをサーバ106に通信するように構成することができる。サーバ106は、受け取った第1及び第2の一連の画像に基づいて、選択された1又は2以上の静止物体又は移動物体のリアルタイム3D構造再構成を実行するようにさらに構成することができる。サーバ106は、このようなリアルタイム3D構造再構成を第1の用途に従って実行することができる。当業者であれば、上述した3D構造の再構成は、例示目的で第1の用途に従って実行されると理解することができる。しかしながら、本開示はこのように限定されるものではなく、本開示の範囲から逸脱することなく別の用途と複数のUAVの異なる目標位置及び目標配向とに従って別の3D構造再構成を実行することもできる。
ある実施形態によれば、第1のUAV102aは、計算リソースの状態に基づいて、複数のUAV102及びサーバ106の中で第1のUAV102aと第3のUAV102cの両方が最大の計算帯域幅、メモリ利用率及び/又はバッテリレベルを示すと判断することができる。このような場合、第1のUAV102a及び第3のUAV102cは、物理的近接性及び/又は対応する状態変数の値などの1又は2以上の基準に基づいて第1及び第2の一連のUAVをそれぞれ識別するように構成することができる。第1のUAV102a及び第3のUAV102cは、1又は2以上の他のUAV102b〜102dのうちのどのUAVを第1及び第2の一連のUAVに含めることができるかを判断するようにさらに構成することができる。例えば、第1のUAV102aは、第2のUAV102bを第1の一連のUAVに含めることができると見なすことができる。第2のUAV102bは、不十分なメモリ利用率などの限られた計算リソースを有する、第1のUAV102aに最も距離が近いものと見なすことができる。従って、第1のUAV102aと第2のUAV102bとを含む第1のネットワークを確立することができる。第1のネットワークは、第1のクラスタと呼ぶこともできる。同様に、第3のUAV102cは、第4のUAV102dを第2の一連のUAVに含めることができると見なすことができる。第4のUAV102dは、わずかなバッテリレベルなどの限られた計算リソースを有する、第3のUAV102cに最も距離が近いものと見なすことができる。従って、第3のUAV102cと第4のUAV102dとを含む第2のネットワークを確立することができる。第2のネットワークは、第2のクラスタと呼ぶこともできる。
このような場合、第2のUAV102bは、取り込んだ一連の画像を第1のUAV102aに通信することができる。第1のクラスタ内の第1のUAV102a及び第2のUAV102bによって取り込まれた一連の画像は、まとめて第1の一連の画像と呼ぶことができる。同様に、第4のUAV102dは、取り込んだ一連の画像を第3のUAV102cに通信する。第2のクラスタ内の第3のUAV102c及び第4のUAV102dによって取り込まれた一連の画像は、まとめて第2の一連の画像と呼ぶことができる。
第1のUAV102a及び第3のUAV102cは、それぞれ第1の一連の画像及び第2の一連の画像に基づいて、選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成を実行するようにさらに構成することができる。第1のUAV102a及び第3のUAV102cは、このようなリアルタイム3D構造再構成を第1の用途に従って実行することができる。当業者であれば、上述した3D構造の再構成は、例示目的で第1の用途に従って実行されると理解することができる。しかしながら、本開示はこのように限定されるものではなく、本開示の範囲から逸脱することなく別の用途と複数のUAVの異なる目標位置及び目標配向とに従って別の3D構造再構成を実行することもできる。
第1のUAV102a及び第3のUAV102cは、選択された1又は2以上の静止物体又は移動物体の3Dシーン解釈及び/又は点群生成に基づいて2つの3D構造の再構成を実行することができる。選択された1又は2以上の静止物体及び/又は移動物体の3Dシーン解釈及び/又は点群生成は、一連の画像が取り込まれる複数のUAV102の目標位置及び目標配向に基づいて実行することができる。
ある実施形態によれば、第1のUAV102a及び第3のUAV102cは、第1の一連の画像及び第2の一連の画像からの再構成後の3D構造を通信ネットワーク108を介してユーザ端末110に通信するようにさらに構成することができる。従って、このような場合、ユーザ端末110は、2つの再構成後の3D構造を受け取って表示することができる。計算リソースの利用可能性を示す状態制御変数に基づいて、第1のUAV102a及び第3のUAV102cなどのマスターUAVのうちの1つを選択して最終的な3D構造再構成を実行することができる。ユーザ端末110において最終的な再構成を実行して単一の3D構造を生成し、これをユーザ端末110に通信することもできる。
ある実施形態によれば、第1のUAV102aは、最新の状態変数の値に基づいて、今回は第1のUAV102aと第3のUAV102cとが限られたリソースを示し、サーバ106が利用可能なリソースを示すと判断することができる。このような場合、第1のUAV102a及び第3のUAV102cは、最終的な3D構造をさらに再構成するために2つの3D再構成画像をサーバ106に送信することができる。サーバ106は、最終的な再構成後の3D構造を通信ネットワーク108を介してユーザ端末110に通信するようにさらに構成することができる。既に上述したように、ある実施形態によれば、3D構造の再構成は、ユーザ端末110から修正された視点の変更要求が受け取られた時に再び実行することができる。
本開示の第2の態様によれば、ユーザ端末110は、受け取ったユーザ入力をサーバ106に通信するように構成することができる。サーバ106は、このユーザ入力に基づいて、複数の撮像装置104に関連する複数のUAV102から情報を受け取るように構成することができる。このような場合、複数のUAV102及びサーバ106は、Wi−Fiなどの無線通信チャネルを介してメッシュネットワーク内に存在することができる。この情報は、複数の撮像装置104に関連する複数のUAV102の焦点レンズ情報と、現在位置と、現在の配向とを含むことができる。複数のUAV102は、ジャイロスコープなどの内蔵された第1の一連のセンサに基づいてこの情報を決定することができる。複数のUAV102は、画像センサなどの内蔵された第2の一連のセンサに基づいてこの情報を精細化することができる。
ある実施形態によれば、サーバ106は、受け取った焦点レンズ情報と、チェッカー盤などの共通の予め定められた較正物体の複数の画像とに基づいて、複数のUAV102の較正情報を決定するように構成することができる。予め定められた較正物体の複数の画像は、複数の撮像装置104によって1又は2以上の角度及び方向から取り込むことができる。サーバ106は、決定された較正情報を複数のUAV102に関連する複数の撮像装置104に通信するように構成することができる。従って、複数のUAV102のそれぞれのUAVは、複数の撮像装置104の較正を行うことができる。上述したように、複数のUAV102は、複数の撮像装置104の1又は2以上の内部パラメータ及び/又は外部パラメータを調整するためにこれらの撮像装置の較正を行うことができる。
ある実施形態によれば、サーバ106は、複数の撮像装置104の目標位置及び目標配向を決定するように構成することができる。目標位置及び目標配向は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、選択された1又は2以上の静止物体及び/又は移動物体の現在位置とに基づいて決定することができる。当業者であれば、複数の撮像装置104の目標位置及び目標配向は、選択された1又は2以上の静止物体又は移動物体の周囲における複数の撮像装置104の最適な配列に対応すると理解するであろう。複数のUAV102の最適な配列は、選択された1又は2以上の静止物体及び/又は移動物体を含む3Dシーン構造を複数の撮像装置104の予め定められた解像度で最大限にカバーする配列に対応する。
ある実施形態によれば、サーバ106は、複数のUAV102に制御情報を通信するように構成することができる。複数のUAV102は、受け取った制御情報に基づいて複数の撮像装置104の現在位置及び現在の配向を修正することができる。複数の撮像装置104の現在位置及び現在の配向は、決定された目標位置及び決定された目標配向に修正することができる。
複数のUAV102が自機の現在位置及び現在の配向を目標位置及び目標配向に修正すると、複数の撮像装置104は、1又は2以上の静止物体及び/又は移動物体の一連の画像を取り込むことができる。この一連の画像は、複数の撮像装置104によって同期的に取り込まれた画像に相当することができる。一連の画像内の各画像は、サーバ106によって送信される同期信号に基づいて他の画像に対して動的に同期させることができる。この同期信号は、一連の画像が実時間で最小時間の時間差しか示さないように複数の撮像装置104間のタイミング相関を定めることができる。
複数の撮像装置104は、選択された1又は2以上の静止物体及び/又は移動物体に関連する動き情報を協働して取り込むようにさらに構成することができる。ある実施形態によれば、複数の撮像装置104は、当業で周知のマーカー情報を含む又は含まない1又は2以上の静止物体又は移動物体の1又は2以上の球面位置に基づいて、協働して動き情報を取り込むことができる。複数のUAV102は、選択された1又は2以上の静止物体及び/又は移動物体の取り込まれた一連の画像と動き情報とをサーバ106に通信することができる。
ある実施形態によれば、サーバ106は、受け取った一連の画像に基づいて、選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成を実行するようにさらに構成することができる。サーバ106は、このようなリアルタイム3D構造再構成を第1の用途に従って実行することができる。しかしながら、本開示はこのように限定されるものではなく、本開示の範囲から逸脱することなく別の用途と複数のUAVの異なる目標位置及び目標配向とに従って別の3D構造再構成を実行することもできる。
図3で詳細に説明するように、サーバ106は、選択された1又は2以上の静止物体及び/又は移動物体の3Dシーン解釈及び/又は点群生成に基づいて3D構造の再構成を実行することができる。サーバ106は、再構成後の3D構造を通信ネットワーク108を介してユーザ端末110に通信するようにさらに構成することができる。ユーザ端末110は、受け取った再構成後の3D構造を表示することができる。
本開示の第3の態様によれば、ユーザ端末110は、受け取ったユーザ入力を、第1のUAV102aと第3のUAV102cなどの、複数のUAV102のうちの複数のUAVに通信するように構成することができる。当業者であれば、第1のUAV102a及び第3のUAV102cへのユーザ入力の通信は例示目的での説明であり、本開示を限定するものとして解釈されるものではないと理解するであろう。この例では、(計算リソースが十分であるという理由で)第1のUAV102a及び第3のUAV102cを、複数のUAV102をモニタするマスター装置又はコントローラ装置として事前構成及び/又は事前プログラムできると仮定することができる。しかしながら、本開示は、第1のUAV102a及び第3のUAV102cをマスター装置又はコントローラとして事前プログラムする構成に限定されるものではない。本開示の範囲から逸脱することなく、複数のUAV102のうちの十分な計算リソースを有する他のUAV102をマスター装置又はコントローラとして構成又はプログラムすることもできる。
ある実施形態によれば、第1のUAV102a及び第3のUAV102cは、第1及び第2の一連のUAVをそれぞれ識別するように構成することができる。この識別は、物理的近接性及び/又は対応する計算リソース状態などの1又は2以上の基準に基づくことができる。第1のUAV102a及び第3のUAV102cは、1又は2以上の他のUAV102b〜102dのうちのどのUAVを第1及び第2の一連のUAVに含めることができるかを判断するようにさらに構成することができる。例えば、第1のUAV102aは、第2のUAV102bを第1の一連のUAVに含めることができると見なすことができる。第2のUAV102bは、不十分なメモリ利用率などの限られた計算リソースを有する、第1のUAV102aに最も距離が近いものと見なすことができる。従って、第1のUAV102aと第2のUAV102bとを含む第1のネットワークを確立することができる。第1のネットワークは、第1のクラスタと呼ぶこともできる。同様に、第3のUAV102cは、第4のUAV102dを第2の一連のUAVに含めることができると見なすことができる。第4のUAV102dは、わずかなバッテリレベルなどの限られた計算リソースを有する、第3のUAV102cに最も距離が近いものと見なすことができる。従って、第3のUAV102cと第4のUAV102dとを含む第2のネットワークを確立することができる。第2のネットワークは、第2のクラスタと呼ぶこともできる。
ある実施形態によれば、第1のクラスタ内の第1のUAV102aは、ユーザ入力に基づいて第2のUAV102bから情報を受け取るように構成することができる。同様に、第2のクラスタ内の第3のUAV102cは、第4のUAV102dから情報を受け取るように構成することができる。この情報は、第2のUAV102b及び第4のUAV102dにそれぞれ関連する第2の撮像装置104b及び第4の撮像装置104dの焦点レンズ情報と、現在位置と、現在の配向とを含むことができる。第2のUAV102b及び第4のUAV102dは、ジャイロスコープなどの内蔵された第1の一連のセンサに基づいてこの情報を決定することができる。第2のUAV102b及び第4のUAV102dは、画像センサなどの内蔵された第2の一連のセンサに基づいてこの情報を精細化することができる。第1のUAV102a及び第3のUAV102cは、受け取ったユーザ入力において選択された1又は2以上の静止物体及び/又は移動物体の現在位置を特定するようにさらに構成することができる。
ある実施形態によれば、第1のクラスタ内の第1のUAV102aは、第2の撮像装置104bの較正情報を決定するように構成することができる。上述したように、この較正は、受け取った焦点レンズ情報と、共通の予め定められた較正物体の複数の画像とに基づくことができる。同様に、第2のクラスタ内の第3のUAV102cは、第4の撮像装置104dの較正情報を決定するように構成することができる。この較正は、受け取った焦点レンズ情報と、共通の予め定められた較正物体の複数の画像とに基づくことができる。第1のUAV102a及び第3のUAV102cは、決定された較正情報を第2の撮像装置104b及び第4の撮像装置104dにそれぞれ通信するように構成することができる。
第2のUAV102b及び第4のUAV102dは、第2の撮像装置104b及び第4の撮像装置104dの較正を実行することができる。この較正は、第2の撮像装置104b及び第4の撮像装置104dの1又は2以上の内部パラメータ及び/又は外部パラメータを調整するために行うことができる。
ある実施形態によれば、第1のクラスタ内の第1のUAV102aは、第2の撮像装置104bの目標位置及び目標配向を決定するように構成することができる。同様に、第2のクラスタ内の第3のUAV102cは、第4の撮像装置104dの目標位置及び目標配向を決定するように構成することができる。目標位置及び目標配向は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、選択された1又は2以上の静止物体及び/又は移動物体の現在位置とに基づいて決定することができる。第1のUAV102a及び第3のUAV102cは、自機の目標位置及び目標配向をそれぞれのクラスタ内で三角測量法に従って決定するように構成することができる。当業者であれば、複数の撮像装置104の目標位置及び目標配向は、選択された1又は2以上の静止物体及び/又は移動物体の周囲における複数の撮像装置104の最適な配列に対応すると理解するであろう。複数のUAV102の最適な配列は、選択された1又は2以上の静止物体及び/又は移動物体を含む3Dシーン構造を複数の撮像装置104の予め定められた解像度で最大限にカバーする配列に対応する。
ある実施形態によれば、第1のクラスタ内の第1のUAV102aは、第2のUAV102bに制御情報を通信するように構成することができる。同様に、第2のクラスタ内の第3のUAV102cは、第4のUAV102dに制御情報を通信するように構成することができる。第2のUAV102b及び第4のUAV102dは、受け取った制御情報に基づいて、第2の撮像装置104b及び第4の撮像装置104dの現在位置及び現在の配向をそれぞれ修正することができる。第2の撮像装置104b及び第4の撮像装置104dの現在位置及び現在の配向は、決定された目標位置及び決定された目標配向に修正することができる。ある実施形態によれば、第1のUAV102a及び第3のUAV102cは、自機の現在位置及び現在の配向を、三角測量法を通じて決定された目標位置及び目標配向に修正するように構成することができる。
複数のUAV102が自機の現在位置及び現在の配向を目標位置及び目標配向に修正すると、複数の撮像装置104は、1又は2以上の静止物体及び/又は移動物体の複数の画像を取り込むことができる。複数の画像は、異なるクラスタ内の複数の撮像装置104によって取り込むことができる。第1の複数の画像は、第1のクラスタ内の第1のUAV102aの第1の撮像装置104aと、第2のUAV102bの第2の撮像装置104bとによって取り込まれた画像を含むことができる。第2の複数の画像は、第2のクラスタ内の第3のUAV102cの第3の撮像装置104cと、第4のUAV102dの第4の撮像装置104dとによって取り込まれた画像を含むことができる。第1の複数の画像は、第1のUAV102aと第3のUAV102cとの間で通信される同期信号に基づいて第2の複数の画像と動的に同期させることができる。この同期信号は、第1の複数の画像と第2の複数の画像とが実時間で最小時間の時間差しか示さないように第1のクラスタと第2のクラスタとの間のタイミング相関を定めることができる。
異なるクラスタ内の複数の撮像装置104は、選択された1又は2以上の静止物体及び/又は移動物体に関連する動き情報を協働して取り込むようにさらに構成することができる。ある実施形態によれば、複数の撮像装置104は、当業で周知のマーカー情報を含む又は含まない1又は2以上の静止物体及び/又は移動物体の1又は2以上の球面位置に基づいて、協働して動き情報を取り込むことができる。
第1のUAV102aは、第1の複数の画像に基づいて、選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成を実行するようにさらに構成することができる。同様に、第3のUAV102cは、第2の複数の画像に基づいて、選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成を実行するように構成することができる。第1のUAV102a及び第3のUAV102cは、このようなリアルタイム3D構造再構成を第1の用途に従って実行することができる。当業者であれば、上述した3D構造の再構成は、例示目的で第1の用途に従って実行されると理解することができる。しかしながら、本開示はこのように限定されるものではなく、本開示の範囲から逸脱することなく別の用途と複数のUAVの異なる目標位置及び目標配向とに従って別の3D構造再構成を実行することもできる。
第1のUAV102a及び第3のUAV102cは、選択された1又は2以上の静止物体及び/又は移動物体の3Dシーン解釈及び/又は点群生成に基づいて2つの3D構造の再構成を実行することができる。選択された1又は2以上の静止物体及び/又は移動物体の3Dシーン解釈及び/又は点群生成は、一連の画像が取り込まれる複数のUAV102の目標位置及び目標配向に基づいて実行することができる。ある実施形態によれば、第1のUAV102a及び第3のUAV102cは、第1の一連の画像及び第2の一連の画像から再構成された2つの3D構造を通信ネットワーク108を介してユーザ端末110に通信するようにさらに構成することができる。従って、このような場合、ユーザ端末110は、2つの再構成後の3D構造を受け取って表示することができる。ある実施形態によれば、ユーザ端末110は、再構成後の3D構造の視点を修正するための別のユーザ入力をさらに受け取ることができる。この修正された視点に対応する要求を第1のUAV102aに戻すことができる。第1のUAV102a及び第3のUAV102cは、この要求に基づいて、第1及び第2のクラスタ内のUAVの新たな目標位置及び目標配向を再びそれぞれ決定することができる。第1のUAV102a及び第3のUAV102cは、上記と同様にこれらのUAVから新たな一連の画像を受け取ることができる。上記と同様に再び3D構造の再構成を実行し、通信ネットワーク108を介してユーザ端末110に通信することができる。
ある実施形態によれば、第1のUAV102aは、最新の状態変数の値に基づいて、今回は第1のUAV102aと第3のUAV102cとが限られたリソースを示し、サーバ106が利用可能なリソースを示すと判断することができる。このような場合、第1のUAV102a及び第3のUAV102cは、最終的な3D構造をさらに再構成するために2つの3D再構成された構造をサーバ106に送信することができる。サーバ106は、最終的な再構成後の3D構造を表示のために通信ネットワーク108を介してユーザ端末110に通信するようにさらに構成することができる。ユーザ端末110は、3D再構成された構造の視点を修正するための別のユーザ入力をさらに受け取ることができる。サーバ106には、修正された視点に対応する要求を戻すことができる。上記と同様に、サーバ106は、この要求に基づいて、複数のUAV102の新たな目標位置及び目標配向を再び決定し、UAV102から新たな一連の画像を受け取ることができる。サーバ106は、再び3D構造を再構成し、再構成された3D構造を表示のために通信ネットワーク108を介してユーザ端末110に通信してすることができる。
図2は、本開示の実施形態による例示的なUAVを示すブロック図である。図2には、複数のUAV102からの第1のUAV102aのブロック図を示す。第1のUAV102aは、プロセッサ202などの1又は2以上のプロセッサと、フライトコントローラ204と、メモリユニット206と、二次記憶ユニット208と、センサユニット210と、第1の撮像装置104aと、トランシーバ212とを含むことができる。第1のUAV102aは、モータ216、プロペラ218及び電子速度コントローラ(ESC)220を含む推進システム214と、バッテリ222とをさらに含むことができる。プロセッサ202は、フライトコントローラ204、メモリユニット206、二次記憶ユニット208、センサユニット210、第1の撮像装置104a、トランシーバ212及び推進システム214に通信可能に接続することができる。
プロセッサ202は、メモリユニット206から読み出された1又は2以上の命令を実行できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。プロセッサ202は、トランシーバ212を介して1又は2以上の他のUAV102b〜102dから受け取った複数の画像を処理するようにさらに構成することができる。プロセッサ202の例は、X86ベースのプロセッサ、縮小命令セットコンピュータ(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、複合命令セットコンピュータ(CISC)プロセッサ、及び/又はその他のプロセッサとすることができる。
フライトコントローラ204は、センシングユニットに通信可能に結合されて第1のUAV102aを自動制御するプログラマブルマイクロコントローラを含むように構成できる好適なロジック、回路及び/又はインターフェイスを含むことができる。フライトコントローラ204は、様々な制御システム変数を決定してメモリユニット206及び/又は二次記憶ユニット208に記憶することができる。制御変数の例は、以下に限定するわけではないが、(自動/手動)動作モード、(位置及び/又は速度などの)コントローラ状態変数、及び/又はエラー通知を含むことができる。フライトコントローラ204は、第1のUAV102aを飛ばして安定させるためにセンシングユニットと無線制御入力とを使用する方法に基づく1又は2以上の飛行モードに関連することができる。フライトコントローラ204は、当業で周知の様々なハードウェアコンポーネント及び構成と、ソフトウェアコンポーネント及び構成とに基づいて実装することができる。
メモリユニット206は、プロセッサ202が実行できる少なくとも1つのコード区分を有する機械コード及び/又はコンピュータプログラムを記憶するように構成できる好適なロジック、回路及び/又はインターフェイスを含むことができる。メモリ206の実装例は、以下に限定するわけではないが、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、ダイナミックランダムアクセスメモリ(DRAM)、スタティックランダムアクセスメモリ(SRAM)、サイリスタランダムアクセスメモリ(T−RAM)、ゼロキャパシタランダムアクセスメモリ(Z−RAM)、及び/又はキャッシュメモリを含むことができる。
二次記憶ユニット208は、複数のUAV102及びサーバ106のメモリ空間、記憶能力及び情報処理能力などの異なる計算パラメータを記憶するように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。二次記憶ユニット208は、複数のUAV102のコントローラ状態変数を記憶するように構成することができる。二次記憶ユニット208は、プロセッサ202が決定できる経路プランナを記憶するようにさらに構成することができる。二次記憶ユニット208の例は、以下に限定するわけではないが、メモリ内データベース、アクティブデータベース、クラウドデータベース、演繹データベース、分散データベース、埋め込みデータベース、リアルタイムデータベース、並列データベース、空間データベース及び/又は時間データベースを含むことができる。
センサユニット210は、1又は2以上のセンサによって検出されたセンサデータを処理するように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。センサユニット210の例は、以下に限定するわけではないが、地理的測位システム(GPS)、ジャイロスコープ、動きセンサ、光センサ、熱センサ、高度センサ、慣性センサ、光電センサ、赤外線センサ、光検出器、圧力センサ、磁気コンパス、加速度計及び/又は光位置センサを含むことができる。例えば、GPSは、気圧高度センサと連動して第1のUAV102aの3D位置及び配向情報を決定することができる。
トランシーバ212は、通信ネットワーク108を介して他の装置との間でコマンド、情報及び/又は画像を送信/受信するように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。トランシーバ212は、以下に限定するわけではないが、アンテナ、無線周波数(RF)トランシーバ、1又は2以上の増幅器、同調器、1又は2以上の発振器、デジタルシグナルプロセッサ、コーダ−デコーダ(CODEC)チップセット、加入者識別モジュール(SIM)カード、及び/又はローカルバッファを含むことができる。トランシーバ212は、無線通信を介して、インターネット、イントラネット、及び/又はセルラー電話網、無線ローカルエリアネットワーク(LAN)及び/又はメトロポリタンエリアネットワーク(MAN)などの無線ネットワークなどのネットワークと通信することができる。無線通信は、グローバル・システム・フォー・モバイル・コミュニケーションズ(GSM)、拡張データGSM環境(EDGE)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth、無線フィデリティ(Wi−Fi)(IEEE 802.11a、IEEE 802.11b、IEEE 802.11g及び/又はIEEE802.11n)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、電子メールプロトコル、インスタントメッセージング及び/又はショートメッセージサービスなどの複数の通信規格、通信プロトコル及び通信技術のいずれかを使用することができる。
推進システム214は、飛行中に第1のUAV102aを上方及び前方に押しやるための推力を生み出す一連の機械的及び電気的コンポーネントである。推力は、モータ216と、プロペラ218と、ESC220と、バッテリ222とによって連動して生み出すことができる。
モータ216は、外側ケーシング又は内側ケーシングのいずれかにコイルが固定されて磁石が回転するブラシレス直流(BLDC)モータであることが好ましい。ブラシレスDCモータは、所与の電圧での回転速度に基づいて、インランナーモータ、アウトランナーモータ又はハイブリッドランナーモータのうちの1つとすることができる。
プロペラ218は、予め構成された速度で回転して第1のUAV102aのための最低限の推力を生じる、予め指定された直径のロータブレードを含むことができる。プロペラ218は、予め指定された直径に加えて、ロータブレードの形状、迎角、ピッチ及び表面積をさらに伴う。プロペラは、射出成形プラスチック、繊維強化ポリマー、又は(木などの)天然材料などの異なる材料によって製造することができる。プロペラ218は、プロペラ218の周囲に固定リング/クッションを提供するプロペラガード(又は「プロップガード」)にさらに接続することができる。
ESC220は、フライトコントローラ204によるモータ216の速度及び方向の制御を可能にするように構成できる好適なロジック、回路、インターフェイス及び/又はコードを含むことができる。典型的なESCは、バッテリ222に接続された電源入力部と、モータ216に接続された弾丸コネクタと、無線制御信号を受け入れて第1のUAV102aの電子機器に給電する無線制御式サーボコネクタとを含むことができる。
バッテリ222は、第1のUAV102aの1又は2以上の電気回路又は負荷のための電力源とすることができる。例えば、この負荷は、以下に限定するわけではないが、モータ216、第1の撮像装置104aなどの電動調整式コンポーネント、及び/又はラジオ、スピーカ、電子ナビゲーションシステム、電気的に制御、駆動及び/又は補助されるステアリングシステムなどのその他の車載システムを含むことができる。バッテリ222は、リチウム−マンガンなどの様々な変形形態を含む専らリチウムポリマー(LiPo)の充電式バッテリとすることができる。
動作時には、プロセッサ202とフライトコントローラ204とが協働して、第1のUAV102aに関連するシステム制御及び状態変数をモニタする飛行前診断プロセスを実行することができる。飛行前診断プロセスが正常に終了すると、フライトコントローラ204と推進システム214とが協働して飛行を開始して浮遊することができる。その後、この時点で浮遊している第1のUAV102aは、そのシステム制御及び状態変数を定期的にモニタする飛行中診断プロセスを実行することができる。
ある実施形態によれば、プロセッサ202は、フライトコントローラ204と協働して、(Wi−Fiなどの)通信ネットワーク108を介して1又は2以上の他のUAV102b〜102d、サーバ106及びユーザ端末110と通信するように構成することができる。この通信は、飛行計画に従って行うことができる。ある実施形態によれば、飛行前に予め飛行計画を指定して、メモリユニット206及び/又は二次記憶ユニット208に予め記憶しておくことができる。ある実施形態によれば、プロセッサ202とセンサユニット210とが協働して、飛行中に動的に飛行計画を決定することができる。
ある実施形態によれば、プロセッサ202は、当業で周知の様々な無線プロトコルに基づいて、メッシュネットワーク又はアドホックネットワーク内の1又は2以上の他のUAV102b〜102dと通信することができる。ある実施形態によれば、プロセッサ202は、複数のUAV102及び/又はサーバ106のシステム制御及び状態変数を中心的にモニタするようにさらに構成することができる。ある例によれば、プロセッサ202は、複数のUAV102及び/又はサーバ106のシステム制御及び状態変数を状態変数テーブルに記録するように構成することができる。プロセッサ202は、状態変数テーブルをメモリユニット206及び/又は二次記憶ユニット208に記憶することができる。さらに、プロセッサ202は、複数のUAV102及び/又はサーバ106の最新の状態変数に基づいて定期的に状態変数テーブルを更新することもできる。ある実施形態によれば、プロセッサ202は、複数のUAV102及び/又はサーバ106をモニタするマスター装置として事前構成及び/又は事前プログラムしておくことができる。
ある実施形態によれば、トランシーバ212は、通信ネットワーク108を介してユーザ端末110からユーザ入力を受け取るように構成することができる。ユーザ端末110におけるユーザは、(タッチ画面などの)I/O装置を介してユーザ入力を提供することができる。受け取られたユーザ入力は、1又は2以上の静止物体及び/又は移動物体の選択を含むことができる。この1又は2以上の静止物体及び/又は移動物体は、ユーザ端末110においてビデオストリームの形で表示することができる。例えば、ユーザ端末110にライブのサッカーの試合を表示することができる。ユーザは、サッカーの試合中に動いている選手が放つ特定のシュートを分析したいと望むことができるスポーツアナリストとすることができる。このため、ユーザは、ユーザ端末110のディスプレイ画面でタッチ入力を行って、動いている選手を選択することができる。
ある実施形態によれば、プロセッサ202は、第1の撮像装置104aのFOVから1又は2以上の静止物体及び/又は移動物体を自動的に決定するように構成することができる。このような自動決定は、1又は2以上の静止物体及び/又は移動物体を顕著な物体として識別することに基づくことができる。1又は2以上の静止物体及び/又は移動物体の顕著性は、画像の前景又は背景内の他の物体に対する物体に対応する高画素強度に基づくことができる。1又は2以上の静止物体及び/又は移動物体の顕著性は、他の物体に対するその物体のオプティカルフローにさらに基づくことができる。しかしながら、本開示はこのように限定されるものではなく、プロセッサ202は、本開示の範囲から逸脱することなく当業で周知の他の顕著性パラメータに基づいて物体を顕著な物体として識別することもできる。
本開示の第1の態様によれば、プロセッサ202は、トランシーバ212からユーザ入力を受け取るように構成することができる。当業者であれば、第1のUAV102aのプロセッサ202によるユーザ入力の受け取りは例示目的での説明であり、本開示を限定するものとして解釈されるものではないと理解するであろう。この例では、(計算リソースが十分であるという理由で)第1のUAV102aを、複数のUAV102及び/又はサーバ106をモニタするマスター装置として事前構成及び/又は事前プログラムできると仮定することができる。しかしながら、本開示は、第1のUAV102aをマスター装置又はコントローラとして事前プログラムする構成に限定されるものではない。本開示の範囲から逸脱することなく、複数のUAV102のうちの十分な計算リソースを有する他のUAV102をマスター装置として構成又はプログラムすることもできる。
ある実施形態によれば、プロセッサ202は、受け取ったユーザ入力に基づいて、Wi−Fiなどの無線通信チャネルを介してメッシュネットワーク内の1又は2以上の他のUAV102b〜102d及び/又はサーバ106から情報を受け取るように構成することができる。この情報は、1又は2以上の他のUAV102b〜102dに関連する1又は2以上の撮像装置104b〜104dの焦点レンズ情報と、現在位置と、現在の配向とを含むことができる。図1で説明したように、1又は2以上の他のUAV102b〜102dは、それぞれのセンサユニット内の様々な一連のセンサに基づいてこの情報を決定することができる。プロセッサ202は、受け取ったユーザ入力において選択された1又は2以上の静止物体及び/又は移動物体の現在位置を特定するようにさらに構成することができる。
ある実施形態によれば、プロセッサ202は、受け取った焦点レンズ情報と、チェッカー盤などの共通の予め定められた較正物体の複数の画像とに基づいて、1又は2以上の他のUAV102b〜102dの較正情報を決定するように構成することができる。プロセッサ202は、決定された較正情報を1又は2以上の他のUAV102b〜102dに関連する1又は2以上の撮像装置104b〜104dに通信するように構成することができる。従って、1又は2以上の他のそれぞれのUAV102b〜102dは、1又は2以上の撮像装置104b〜104dの較正を行うことができる。これに応じて、1又は2以上の撮像装置104b〜104dの各々の1又は2以上の内部パラメータ及び/又は外部パラメータを調整することができる。さらに、プロセッサ202は、第1の撮像装置104aの内部パラメータ及び外部パラメータを調整するように構成することもできる。
ある実施形態によれば、プロセッサ202は、1又は2以上の撮像装置104b〜104dの目標位置及び目標配向を決定するように構成することができる。目標位置及び目標配向は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、選択された1又は2以上の静止物体及び/又は移動物体の現在位置とに基づいて決定することができる。プロセッサ202は、図5で説明するような三角測量法に従って自機の目標位置及び目標配向を決定するように構成することができる。図1で説明したように、当業者であれば、複数の撮像装置104の目標位置及び目標配向は、選択された1又は2以上の静止物体及び/又は移動物体の周囲における複数の撮像装置104の最適な配列に対応すると理解するであろう。
ある実施形態によれば、プロセッサ202は、1又は2以上の他のUAV102b〜102dに制御情報を通信するように構成することができる。1又は2以上の他のUAV102b〜102dは、受け取った制御情報に基づいて1又は2以上の撮像装置104b〜104dの現在位置及び現在の配向を修正することができる。1又は2以上の撮像装置104b〜104dの現在位置及び現在の配向は、決定された目標位置及び決定された目標配向に修正することができる。ある実施形態によれば、プロセッサ202は、フライトコントローラ204と協働して、自機の現在位置及び現在の配向を、三角測量法を通じて決定された目標位置及び目標配向に修正するように構成することができる。
複数のUAV102が自機の現在位置及び現在の配向を目標位置及び目標配向に修正すると、複数の撮像装置104は、1又は2以上の静止物体及び/又は移動物体の一連の画像を取り込むことができる。この一連の画像は、第1のUAV102aの第1の撮像装置104aによって取り込まれた第1の一連の画像を含むことができる。1又は2以上の他のUAV102b〜102dの1又は2以上の撮像装置104b〜104dは、第2の一連の画像をそれぞれ取り込むことができる。図1で説明したように、第1の一連の画像は、第1のUAV102aによって送信される同期信号に基づいて第2の一連の画像と動的に同期させることができる。複数の撮像装置104は、マーカー情報を含む又は含まない選択された1又は2以上の静止物体及び/又は移動物体の1又は2以上の球面位置に基づいて、1又は2以上の静止物体及び/又は移動物体に関連する動き情報を協働して取り込むようにさらに構成することができる。
プロセッサ202は、複数の撮像装置104によって取り込まれた一連の画像を処理することができる処理モードを動的に決定するようにさらに構成することができる。この処理モードは、図4A、図4B及び図4Cにおいて説明する分散処理モード、集中処理モード又はクラスタ処理モードにそれぞれ対応することができる。プロセッサ202は、最新の飛行中診断プロセス中に更新される状態変数テーブルから検索された計算リソースの状態に基づいて、処理モードを動的に決定することができる。計算リソースは、複数のUAV102及びサーバ106の計算帯域幅、メモリ利用率及び/又はバッテリレベルに対応することができる。従って、第1のUAV102aは、複数のUAV102又はサーバ106のうちの1つを選択して一連の画像を最適に処理することができる。
ある実施形態によれば、プロセッサ202は、計算リソースの状態に基づいて、最大の計算帯域幅、メモリ利用率及び/又はバッテリレベルが第1のUAV102aで利用できると判断することができる。このような場合、プロセッサ202は、トランシーバ212を介して1又は2以上の他のUAV102b〜102dから第2の一連の画像を受け取るように構成することができる。プロセッサ202は、取り込まれた第1の一連の画像と受け取った第2の一連の画像とに基づいて、選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成を実行するように構成することができる。プロセッサ202は、このようなリアルタイム3D構造再構成を第1の用途に従って実行することができる。当業者であれば、上述した3D構造の再構成は、例示目的で第1の用途に従って実行されると理解することができる。しかしながら、本開示はこのように限定されるものではなく、本開示の範囲から逸脱することなく別の用途と複数のUAV102の異なる目標位置及び目標配向とに従って別の3D構造再構成を実行することもできる。
プロセッサ202は、選択された1又は2以上の静止物体及び/又は移動物体の3Dシーン解釈及び/又は点群生成に基づいて3D構造の再構成を実行することができる。選択された1又は2以上の静止物体及び/又は移動物体の3Dシーン解釈及び/又は点群生成は、一連の画像が取り込まれる複数のUAV102の目標位置及び目標配向に基づいて実行することができる。
ある実施形態によれば、プロセッサ202は、計算リソースの状態に基づいて、複数のUAV102及びサーバ106の中でサーバ106が最大の計算帯域幅、メモリ利用率及び/又はバッテリレベルを示すと判断することができる。このような場合、プロセッサ202は、取り込まれた第1の一連の画像と受け取った第2の一連の画像とをトランシーバ212及び通信ネットワーク108を介してサーバ106に通信するように構成することができる。サーバ106は、上記と同様に、受け取った第1及び第2の一連の画像に基づいて、選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成を実行するようにさらに構成することができる。
ある実施形態によれば、プロセッサ202は、計算リソースの状態に基づいて、複数のUAV102及びサーバ106の中で第1のUAV102aと第3のUAV102cの両方が最大の計算帯域幅、メモリ利用率及び/又はバッテリレベルを示すと判断することができる。このような場合、プロセッサ202は、物理的近接性及び/又は対応する状態変数の値などの1又は2以上の基準に基づいて第1の一連のUAVを識別するように構成することができる。プロセッサ202は、1又は2以上の他のUAV102b〜102dのうちのどのUAVを第1の一連のUAVに含めることができるかを判断するようにさらに構成することができる。例えば、プロセッサ202は、第2のUAV102bを第1の一連のUAVに含めることができると見なすことができる。第2のUAV102bは、不十分なメモリ利用率などの限られた計算リソースを有する、第1のUAV102aに最も距離が近いものと見なすことができる。従って、第1のUAV102aと第2のUAV102bとを含む第1のネットワークを確立することができる。第1のネットワークは、第1のクラスタと呼ぶこともできる。同様に、第3のUAV102cは、第4のUAV102dを第2の一連のUAVに含めることができると見なすことができる。第4のUAV102dは、わずかなバッテリレベルなどの限られた計算リソースを有する、第3のUAV102cに最も距離が近いものと見なすことができる。従って、第3のUAV102cと第4のUAV102dとを含む第2のネットワークを確立することができる。第2のネットワークは、第2のクラスタと呼ぶこともできる。
このような場合、プロセッサ202は、第2のUAV102bから一連の画像を受け取ることができる。第1の撮像装置104aによって取り込まれた一連の画像及び第1のクラスタ内の受け取った一連の画像は、まとめて第1の一連の画像と呼ぶことができる。同様に、第4のUAV102dは、取り込んだ一連の画像を第3のUAV102cに通信する。第2のクラスタ内の第3のUAV102c及び第4のUAV102dによって取り込まれた一連の画像は、まとめて第2の一連の画像と呼ぶことができる。
第1のUAV102aのプロセッサ202及び第3のUAV102cの同様のプロセッサは、それぞれ第1の一連の画像及び第2の一連の画像に基づいて、選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成を実行するようにさらに構成することができる。プロセッサ202及び他のプロセッサは、このようなリアルタイム3D構造再構成を用途に従って実行することができる。
図3で詳細に説明するように、プロセッサ202及び他のプロセッサは、選択された1又は2以上の静止物体及び/又は移動物体の3Dシーン解釈及び/又は点群生成に基づいて2つの3D構造の再構成を実行することができる。ある実施形態によれば、プロセッサ202及び他のプロセッサは、第1の一連の画像及び第2の一連の画像からの再構成後の3D構造を通信ネットワーク108を介してユーザ端末110に通信するようにさらに構成することができる。従って、このような場合、ユーザ端末110は、2つの再構成後の3D構造を受け取って表示することができる。
ある実施形態によれば、プロセッサ202は、最新の状態変数の値に基づいて、今回は第1のUAV102aと第3のUAV102cとが限られたリソースを示し、サーバ106が利用可能なリソースを示すと判断することができる。このような場合、プロセッサ202及び他のプロセッサは、最終的な3D構造をさらに再構成するために2つの3D再構成された構造をサーバ106に送信することができる。サーバ106は、最終的な再構成後の3D構造を通信ネットワーク108を介してユーザ端末110に通信するようにさらに構成することができる。
図3は、本開示の実施形態による例示的なサーバを示すブロック図である。図3には、サーバ106のブロック図を示す。第1のUAV102aは、プロセッサ302などの1又は2以上のプロセッサと、メモリユニット304と、二次記憶ユニット306と、トランシーバ308とを含むことができる。プロセッサ302は、メモリユニット304、二次記憶ユニット306及びトランシーバ308に通信可能に接続することができる。
動作時には、トランシーバ308を、通信ネットワーク108を介してユーザ端末110からユーザ入力を受け取るように構成することができる。さらに、トランシーバ308は、ユーザ入力をプロセッサ302に通信することもできる。プロセッサ302は、ユーザ入力に基づいて、複数の撮像装置104に関連する複数のUAV102からトランシーバ308を介して情報を受け取るように構成することができる。このような場合、複数のUAV102及びサーバ106は、Wi−Fiなどの無線通信チャネルを介してメッシュネットワーク内に存在することができる。この情報は、複数の撮像装置104に関連する複数のUAV102の焦点レンズ情報と、現在位置と、現在の配向とを含むことができる。複数のUAV102は、ジャイロスコープなどの内蔵された第1の一連のセンサに基づいてこの情報を決定することができる。複数のUAV102は、画像センサなどの内蔵された第2の一連のセンサに基づいてこの情報を精細化することができる。
ある実施形態によれば、プロセッサ302は、受け取った焦点レンズ情報と、チェッカー盤などの共通の予め定められた較正物体の複数の画像とに基づいて、複数のUAV102の較正情報を決定するように構成することができる。プロセッサ302は、決定された較正情報を複数のUAV102の各々に送信することができる。従って、複数のUAV102のそれぞれのUAVは、複数の撮像装置104の較正を行うことができる。上述したように、複数のUAV102は、複数の撮像装置104の1又は2以上の内部パラメータ及び/又は外部パラメータを調整するためにこれらの撮像装置の較正を行うことができる。
ある実施形態によれば、プロセッサ302は、複数の撮像装置104の目標位置及び目標配向を決定するように構成することができる。目標位置及び目標配向は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、選択された1又は2以上の静止物体及び/又は移動物体の現在位置とに基づいて決定することができる。図1で説明したように、当業者であれば、複数の撮像装置104の目標位置及び目標配向は、選択された1又は2以上の静止物体又は移動物体の周囲における複数の撮像装置104の最適な配列に対応すると理解するであろう。
ある実施形態によれば、プロセッサ302は、トランシーバ308を介して複数のUAV102に制御情報を通信するように構成することができる。複数のUAV102は、受け取った制御情報に基づいて複数の撮像装置104の現在位置及び現在の配向を修正することができる。複数の撮像装置104の現在位置及び現在の配向は、決定された目標位置及び決定された目標配向に修正することができる。
複数のUAV102が自機の現在位置及び現在の配向を目標位置及び目標配向に修正すると、複数の撮像装置104は、1又は2以上の静止物体及び/又は移動物体の一連の画像を取り込むことができる。この一連の画像は、複数の撮像装置104によって同期的に取り込まれた画像に相当することができる。一連の画像内の各画像は、プロセッサ302によって送信される同期信号に基づいて他の画像に対して動的に同期させることができる。
複数の撮像装置104は、選択された1又は2以上の静止物体及び/又は移動物体に関連する動き情報を協働して取り込むようにさらに構成することができる。ある実施形態によれば、複数の撮像装置104は、当業で周知のマーカー情報を含む又は含まない1又は2以上の静止物体及び/又は移動物体の1又は2以上の球面位置に基づいて、協働して動き情報を取り込むことができる。複数のUAV102は、選択された1又は2以上の静止物体及び/又は移動物体の取り込まれた一連の画像と動き情報とを通信ネットワーク108を介してトランシーバ308に通信することができる。トランシーバ308は、受け取った一連の画像と動き情報とをプロセッサ302にさらに通信することができる。
ある実施形態によれば、プロセッサ302は、受け取った一連の画像と動き情報とに基づいて、選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成を実行するようにさらに構成することができる。プロセッサ302は、このようなリアルタイム3D構造再構成を用途のタイプに従って実行することができる。
プロセッサ302は、3D点群生成に基づいて3D構造の再構成を実行することができる。プロセッサ302は、受け取った一連の画像に基づいて3D点群を生成するように構成することができる。プロセッサ302は、受け取った一連の画像から、選択された物体の外面を3D座標系で表す一連のデータ点を決定することができる。プロセッサ302は、3D点群から全世界形状(overall world geometry)を再構成する3Dシーン解釈を実行するようにさらに構成することができる。その後、プロセッサ302は、選択された物体のハイブリッド幾何モデルを生成する形状モデル及び表面モデルを推定することができる。プロセッサは、ハイブリッド幾何モデルに基づいて、選択された物体の表面再構成を3D構造空間において実行するように構成することができる。プロセッサ302は、再構成後の3D構造を通信ネットワーク108を介してユーザ端末110に通信するようにさらに構成することができる。ユーザ端末110は、受け取った再構成後の3D構造を表示することができる。
図4Aに、本開示の実施形態による、分散処理モードでの3D構造再構成のための、複数のUAVとユーザ端末とを含む第1のネットワーク環境を示す。図4Aの説明は、図1、図2及び図3の要素に関連して行う。図4Aを参照すると、メッシュネットワーク内に複数のUAV102が存在する。複数のUAV102とユーザ端末110は、通信ネットワーク108を介して互いに通信することができる。
動作時には、ユーザ端末110を、第1のUAV102aなどの複数のUAV102のうちの1つにユーザ入力を通信するように構成することができる。当業者であれば、第1のUAV102aへのユーザ入力の通信は例示目的での説明であり、本開示を限定するものとして解釈されるものではないと理解するであろう。この例では、(計算リソースが十分であるという理由で)第1のUAV102aを、複数のUAV102及び/又はサーバ106をモニタするマスター装置として事前構成及び/又は事前プログラムできると仮定することができる。しかしながら、本開示は、第1のUAV102aをマスター装置又はコントローラとして事前プログラムする構成に限定されるものではない。本開示の範囲から逸脱することなく、複数のUAV102のうちの十分な計算リソースを有する他のUAV102をマスター装置として構成又はプログラムすることもできる。
ある実施形態によれば、第1のUAV102aは、Wi−Fiなどの無線通信チャネルを介して1又は2以上の他のUAV102b〜102dから情報を受け取るように構成することができる。図1で説明したように、この情報は、1又は2以上の他のUAV102b〜102dに関連する1又は2以上の撮像装置104b〜104dの焦点レンズ情報と、現在位置と、現在の配向とを含むことができる。1又は2以上の他のUAV102b〜102dは、ジャイロスコープなどの内蔵された第1の一連のセンサに基づいてこの情報を決定することができる。1又は2以上の他のUAV102b〜102dは、画像センサなどの内蔵された第2の一連のセンサに基づいてこの情報を精細化することができる。第1のUAV102aは、受け取ったユーザ入力において選択された1又は2以上の静止物体及び/又は移動物体の現在位置を特定するようにさらに構成することができる。
ある実施形態によれば、第1のUAV102aは、受け取った焦点レンズ情報と、チェッカー盤などの共通の予め定められた較正物体の複数の画像とに基づいて、1又は2以上の他のUAV102b〜102dの較正情報を決定するように構成することができる。第1のUAV102aは、決定された較正情報を1又は2以上の他のUAV102b〜102dに関連する1又は2以上の撮像装置104b〜104dに通信するようにさらに構成することができる。従って、1又は2以上の他のそれぞれのUAV102b〜102dは、1又は2以上の撮像装置104b〜104dの1又は2以上の内部パラメータ及び/又は外部パラメータを調整するためにこれらの撮像装置104b〜104dの較正を行うことができる。
ある実施形態によれば、第1のUAV102aは、1又は2以上の撮像装置104b〜104dの目標位置及び目標配向を決定するように構成することができる。目標位置及び目標配向は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、選択された1又は2以上の静止物体及び/又は移動物体の現在位置とに基づいて決定することができる。第1のUAV102aは、図5で説明するような三角測量法に従って自機の目標位置及び目標配向を決定するように構成することができる。当業者であれば、複数の撮像装置104の目標位置及び目標配向は、選択された1又は2以上の静止物体又は移動物体の周囲における複数の撮像装置104の最適な配列に対応すると理解するであろう。複数のUAV102の最適な配列は、選択された1又は2以上の静止物体及び/又は移動物体を含む3Dシーン構造を複数の撮像装置104の予め定められた解像度で最大限にカバーする配列に対応する。
ある実施形態によれば、第1のUAV102aは、1又は2以上の他のUAV102b〜102dに制御情報を通信するように構成することができる。1又は2以上の他のUAV102b〜102dは、受け取った制御情報に基づいて1又は2以上の撮像装置104b〜104dの現在位置及び現在の配向を修正することができる。1又は2以上の撮像装置104b〜104dの現在位置及び現在の配向は、決定された目標位置及び決定された目標配向に修正することができる。ある実施形態によれば、第1のUAV102aは、自機の現在位置及び現在の配向を、三角測量法を通じて決定された目標位置及び目標配向に修正するように構成することができる。
複数のUAV102が自機の現在位置及び現在の配向を目標位置及び目標配向に修正すると、複数の撮像装置104は、1又は2以上の静止物体及び/又は移動物体の一連の画像を取り込むことができる。この一連の画像は、第1のUAV102aの第1の撮像装置104aによって取り込まれた第1の一連の画像を含むことができる。1又は2以上の他のUAV102b〜102dの1又は2以上の撮像装置104b〜104dは、第2の一連の画像をそれぞれ取り込むことができる。第1の一連の画像は、第1のUAV102aによって送信される同期信号に基づいて第2の一連の画像と動的に同期させることができる。この同期信号は、第1の一連の画像と第2の一連の画像とが実時間で最小時間の時間差しか示さないように複数の撮像装置104間のタイミング相関を定めることができる。
複数の撮像装置104は、選択された1又は2以上の静止物体及び/又は移動物体に関連する動き情報を協働して取り込むようにさらに構成することができる。ある実施形態によれば、複数の撮像装置104は、当業で周知のマーカー情報を含む又は含まない1又は2以上の静止物体及び/又は移動物体の1又は2以上の球面位置に基づいて、協働して動き情報を取り込むことができる。
第1のUAV102aは、複数の撮像装置104によって取り込まれた一連の画像を処理することができる処理モードを動的に決定するようにさらに構成することができる。この処理モードは、分散処理モード、集中処理モード又はクラスタ処理モードに対応することができる。第1のUAV102aは、最新の飛行中診断プロセス中に更新される状態変数テーブルから検索された計算リソースの状態に基づいて、処理モードを動的に決定することができる。計算リソースは、複数のUAV102及びサーバ106の計算帯域幅、メモリ利用率及び/又はバッテリレベルに対応することができる。従って、第1のUAV102aは、複数のUAV102又はサーバ106のうちの1つを選択して一連の画像を最適に処理することができる。
ある実施形態によれば、第1のUAV102aは、メッシュネットワーク内の複数のUAV102の総数が閾値を超えた時に分散処理モードを動的に決定することができる。このような場合、分散処理モードは、用途の全体的性能を改善することができる。分散処理モードは、複数のUAV102間で負荷を共有することを含むことができる。
分散処理モードは、第1のUAV102aなどの複数のUAV102の各々に組み込まれた1又は2以上のシステムコンポーネントに基づいて実装することができる。1又は2以上のシステムコンポーネントは、UAVモニタと、リソース割り当てマネージャと、リソースネゴシエータと、リソース移動マネージャとを含むことができる。UAVモニタは、第1のUAV102aの状態変数を定期的にチェックして1又は2以上の計算リソースのステータス情報を決定することができる。従って、UAVモニタは、1又は2以上の計算リソースのステータス情報が所定の閾値を下回った場合、第1のUAV102aが過負荷状態にあると判断することができる。メッセージマネージャは、UAVモニタと協働して、1又は2以上の他のUAV102b〜102dに対する第1のUAV102aの通信依存比を求めることができる。ある実施形態によれば、1又は2以上の他のUAV102b〜102dに対する第1のUAV102aの通信依存比が所定の閾値を超えることがある。従って、リソース割り当てマネージャは、1又は2以上の他のUAV102b〜102dの1又は2以上の計算リソースを第1のUAV102aに動的に分散させることができる。リソースネゴシエータは、1又は2以上の他のUAV102b〜102dから第1のUAV102aへの1又は2以上の計算リソースを取り決める(negociate)ことができる。リソース移動マネージャは、1又は2以上の計算リソースを1又は2以上の他のUAV102b〜102dから第1のUAV102aに仮想的に移動させることができる。
例えば、第1のUAV102aが限られたメモリ空間を示す時には、1又は2以上の他のUAV102b〜102dのメモリ空間を第1のUAV102aに仮想的に移動させることができる。このような場合、第1のUAV102aは、1又は2以上の他のUAV102b〜102dからの仮想メモリ空間を利用してリアルタイム3D構造再構成を実行するように構成することができる。選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成は、第1及び第2の一連の画像に基づいて実行することができる。第1のUAV102aは、このようなリアルタイム3D構造再構成を第1の用途に従って実行することができる。しかしながら、本開示はこのように限定されるものではなく、本開示の範囲から逸脱することなく別の用途と複数のUAVの異なる目標位置及び目標配向とに従って別の3D構造再構成を実行することもできる。
図3で説明したように、第1のUAV102aは、選択された1又は2以上の静止物体及び/又は移動物体の3Dシーン解釈及び/又は点群生成に基づいて3D構造の再構成を実行することができる。ある実施形態によれば、第1のUAV102aは、再構成後の3D構造を表示のために通信ネットワーク108を介してユーザ端末110に通信するようにさらに構成することができる。
図4Bに、本開示の実施形態による、集中処理モードでの3D構造再構成のための、複数のUAVとサーバとを含む第2のネットワーク環境を示す。図4Bの説明は、図1、図2及び図3の要素に関連して行う。図4Bを参照すると、通信ネットワーク108を介して互いに通信する複数のUAV102、サーバ106及びユーザ端末110が存在する。
動作時には、ユーザ端末110を、受け取ったユーザ入力をサーバ106に通信するように構成することができる。サーバ106は、このユーザ入力に基づいて、複数の撮像装置104に関連する複数のUAV102から情報を受け取るように構成することができる。このような場合、複数のUAV102及びサーバ106は、Wi−Fiなどの無線通信チャネルを介してメッシュネットワーク内に存在することができる。図2Bで説明したように、この情報は、複数の撮像装置104に関連する複数のUAV102の焦点レンズ情報と、現在位置と、現在の配向とを含むことができる。
ある実施形態によれば、サーバ106は、受け取った焦点レンズ情報と、チェッカー盤などの共通の予め定められた較正物体の複数の画像とに基づいて、複数のUAV102の較正情報を決定するように構成することができる。サーバ106は、決定された較正情報を複数のUAV102に関連する複数の撮像装置104に通信するように構成することができる。従って、複数のUAV102のそれぞれのUAVは、複数の撮像装置104の較正を行うことができる。上述したように、複数のUAV102は、複数の撮像装置の1又は2以上の内部パラメータ及び/又は外部パラメータを調整するためにこれらの撮像装置104の較正を行うことができる。
ある実施形態によれば、サーバ106は、複数の撮像装置104の目標位置及び目標配向を決定するように構成することができる。目標位置及び目標配向は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、選択された1又は2以上の静止物体及び/又は移動物体の現在位置とに基づいて決定することができる。図2Bで説明したように、当業者であれば、複数の撮像装置104の目標位置及び目標配向は、選択された1又は2以上の静止物体又は移動物体の周囲における複数の撮像装置104の最適な配列に対応すると理解するであろう。
ある実施形態によれば、サーバ106は、複数のUAV102に制御情報を通信するように構成することができる。複数のUAV102は、受け取った制御情報に基づいて複数の撮像装置104の現在位置及び現在の配向を修正することができる。複数の撮像装置104の現在位置及び現在の配向は、決定された目標位置及び決定された目標配向に修正することができる。
複数のUAV102が自機の現在位置及び現在の配向を目標位置及び目標配向に修正すると、複数の撮像装置104は、1又は2以上の静止物体及び/又は移動物体の一連の画像を取り込むことができる。この一連の画像は、複数の撮像装置104によって同期的に取り込まれた画像に相当することができる。一連の画像内の各画像は、サーバ106によって送信される同期信号に基づいて他の画像に対して動的に同期させることができる。複数の撮像装置104は、選択された1又は2以上の静止物体及び/又は移動物体に関連する動き情報を協働して取り込むようにさらに構成することができる。複数のUAV102は、選択された1又は2以上の静止物体及び/又は移動物体の取り込まれた一連の画像と動き情報とをサーバ106に通信することができる。
図2Bで説明したように、ある実施形態によれば、サーバ106は、受け取った一連の画像に基づいて、選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成を実行するようにさらに構成することができる。
図4Cに、本開示の実施形態による、クラスタ処理モードでの3D構造の再構成のための、複数のUAV及び/又はサーバを含む第3のネットワーク環境を示す。図4Cの説明は、図1、図2及び図3の要素に関連して行う。図4Cを参照すると、通信ネットワーク108を介して互いに通信する複数のUAV102とユーザ端末110とが存在する。
動作時には、第1のUAV102aなどの複数のUAV102の各々に組み込まれた1又は2以上のシステムコンポーネントに基づいてクラスタ処理モードを実装することができる。1又は2以上のシステムコンポーネントは、通信マネージャと、UAVモニタと、リソース割り当てマネージャと、リソースネゴシエータと、リソース移動マネージャとを含むことができる。通信マネージャは、UAVモニタと協働して、複数のUAV102の1又は2以上の他のUAVに対する各UAVの通信依存比を求めることができる。ある実施形態によれば、第2のUAV102bに対する第1のUAV102aの通信依存比が所定の閾値を超えることがある。同様に、第4のUAV102dに対する第3のUAV102cの通信依存比が所定の閾値を超えることもある。従って、第1のUAV102a及び第2のUAV102bを含む第1のクラスタ402と、第3のUAV102c及び第4のUAV102dを含む第2のクラスタ404とを形成することができる。第1のクラスタ402及び第2のクラスタ404の形成は、通信コストを抑えるために近接性パラメータにさらに基づくことができる。ある実施形態によれば、第1のUAV102a及び第3のUAV102cを、それぞれ第1のクラスタ402及び第2のクラスタ404のマスターUAVとして動的に決定することができる。このような動的決定は、対応するUAVのUAVモニタの1又は2以上の計算リソースのステータス情報に基づくことができる。ある実施形態によれば、第1のUAV102a及び第3のUAV102cを、それぞれ第1のクラスタ402及び第2のクラスタ404のマスターUAVとして予め決定しておくことができる。当業者であれば、第1のUAV102a及び第3のUAV102cをマスターUAVとして決定した旨の通信は例示目的での説明であり、本開示を限定するものとして解釈されるものではないと理解するであろう。しかしながら、本開示は、第1のUAV102a及び第3のUAV102cをマスター装置又はコントローラとして事前プログラムする構成に限定されるものではない。本開示の範囲から逸脱することなく、複数のUAV102のうちの十分な計算リソースを有する他のUAV102をマスター装置又はコントローラとして構成又はプログラムすることもできる。
ユーザ端末110は、受け取ったユーザ入力を、第1のUAV102aと第3のUAV102cなどの、複数のUAV102のうちの複数のUAVに通信するように構成することができる。ある実施形態によれば、第1のクラスタ402内の第1のUAV102aは、ユーザ入力に基づいて第2のUAV102bから情報を受け取るように構成することができる。同様に、第2のクラスタ404内の第3のUAV102cは、第4のUAV102dから情報を受け取るように構成することができる。この情報は、第2のUAV102b及び第4のUAV102dにそれぞれ関連する第2の撮像装置104b及び第4の撮像装置104dの焦点レンズ情報と、現在位置と、現在の配向とを含むことができる。図1で説明したように、この情報は、第2のUAV102b及び第4のUAV102dによって決定することができる。
ある実施形態によれば、第1のクラスタ402内の第1のUAV102aは、第2の撮像装置104bの較正情報を決定するように構成することができる。同様に、第2のクラスタ404内の第3のUAV102cは、第4の撮像装置104dの較正情報を決定するように構成することができる。第1のUAV102a及び第3のUAV102cは、決定された較正情報をそれぞれ第2の撮像装置104b及び第4の撮像装置104dに通信するように構成することができる。
第2のUAV102b及び第4のUAV102dは、第2の撮像装置104b及び第4の撮像装置104dの較正を実行することができる。図1で説明したように、この較正は、第2の撮像装置104b及び第4の撮像装置104dの1又は2以上の内部パラメータ及び/又は外部パラメータを調整するために行うことができる。
ある実施形態によれば、第1のクラスタ402内の第1のUAV102aは、第2の撮像装置104bの目標位置及び目標配向を決定するように構成することができる。同様に、第2のクラスタ404内の第3のUAV102cは、第4の撮像装置104dの目標位置及び目標配向を決定するように構成することができる。第1のUAV102a及び第3のUAV102cは、自機の目標位置及び目標配向をそれぞれのクラスタ内で三角測量法に従って決定するように構成することができる。
ある実施形態によれば、第1のクラスタ402内の第1のUAV102aは、第2のUAV102bに制御情報を通信するように構成することができる。同様に、第2のクラスタ404内の第3のUAV102cは、第4のUAV102dに制御情報を通信するように構成することができる。第2のUAV102b及び第4のUAV102dは、受け取った制御情報に基づいて、第2の撮像装置104b及び第4の撮像装置104dの現在位置及び現在の配向をそれぞれ修正することができる。第2の撮像装置104b及び第4の撮像装置104dの現在位置及び現在の配向は、決定された目標位置及び決定された目標配向に修正することができる。ある実施形態によれば、第1のUAV102a及び第3のUAV102cは、自機の現在位置及び現在の配向を、三角測量法を通じて決定された目標位置及び目標配向に修正するように構成することができる。
複数のUAV102が自機の現在位置及び現在の配向を目標位置及び目標配向に修正すると、複数の撮像装置104は、1又は2以上の静止物体及び/又は移動物体の複数の画像を取り込むことができる。複数の画像は、異なるクラスタ内の複数の撮像装置104によって取り込むことができる。第1の複数の画像は、第1のクラスタ402内の第1のUAV102aの第1の撮像装置104aと、第2のUAV102bの第2の撮像装置104bとによって取り込まれた画像を含むことができる。第2の複数の画像は、第2のクラスタ404内の第3のUAV102cの第3の撮像装置104cと、第4のUAV102dの第4の撮像装置104dとによって取り込まれた画像を含むことができる。図1で説明したように、第1の複数の画像は、第1のUAV102aと第3のUAV102cとの間で通信される同期信号に基づいて第2の複数の画像と動的に同期させることができる。
第1のUAV102aは、第1の複数の画像に基づいて、選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成を実行するようにさらに構成することができる。同様に、第3のUAV102cは、第2の複数の画像に基づいて、選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成を実行するように構成することができる。各クラスタでは、複数のUAV102の各々のUAVモニタが、対応するUAVの状態変数を定期的にチェックして1又は2以上の計算リソースのステータス情報を決定することができる。リソース割り当てマネージャは、UAVモニタと協働して、UAVが過負荷状態の場合にクラスタ内で1又は2以上の計算リソースを動的に分散させることができる。リソースネゴシエータは、それぞれのクラスタにおける第2のUAV102b及び第4のUAV102dから第1のUAV102a及び第3のUAV102cへの1又は2以上の計算リソースを取り決めることができる。リソース移動マネージャは、それぞれのクラスタ内で1又は2以上の計算リソースを第2のUAV102b及び第4のUAV102dから第1のUAV102a及び第3のUAV102cに仮想的に移動させることができる。
図3で説明したように、第1のUAV102a及び第3のUAV102cは、選択された1又は2以上の静止物体及び/又は移動物体の3Dシーン解釈及び/又は点群生成に基づいて2つの3D構造の再構成を実行することができる。ある実施形態によれば、第1のUAV102a及び第3のUAV102cは、第1の複数の画像及び第2の複数の画像から再構成された2つの3D構造を通信ネットワーク108を介してユーザ端末110に通信するようにさらに構成することができる。従って、このような場合、ユーザ端末110は、2つの再構成後の3D構造を受け取って表示することができる。
図5A〜図5Dに、本開示の実施形態による例示的なUAVの位置を決定するための例示的な三角測量法をまとめて示す。図5A〜図5Dの説明は、図1、図2及び図3の要素に関連して行う。図5A〜図5Dには、少なくとも第1のUAV102aと、第2のUAV102bと、第3のUAV102cとを示す。例示的な三角測量法を適用して、第1のUAV102a、第2のUAV102b及び第3のUAV102cのうちの1つ又は全ての位置及び配向を特定することができる。さらに、サッカー選手502などの1又は2以上の静止物体又は移動物体も示す。
従来、第1のUAV102a、第2のUAV102b及び第3のUAV102cの位置は、GPSセンサデータに基づいて決定することができる。しかしながら、第1のUAV102a、第2のUAV102b又は第3のUAV102cの位置をGPSセンサデータに基づいて決定する際には、有意なランダム誤差が導入されることがある。このような有意なランダム誤差を解消するために、例示的な三角測量法を用いて第1のUAV102aの位置を特定する。
図5Aに示すように、動作時には、第1のUAV102a、第2のUAV102b及び第3のUAV102cが特定の時点でサッカー選手502に対して浮遊することができる。第1のUAV102a、第2のUAV102b及び第3のUAV102cは、それぞれの現在位置及び現在の配向を伴うことができる。従って、第1のUAV102a、第2のUAV102b及び第3のUAV102c間の距離は、当業で周知の様々な距離特定法によって特定することができる。例えば、第1のUAV102a、第2のUAV102b及び第3のUAV102cの各々はトランシーバを含んでいるため、このような距離特定に無線周波数(RF)信号を利用することができる。トランシーバは、RF信号を送受信することができる。
図5Aに示すような例示的なシナリオによれば、第2のUAV102bと第3のUAV102cとの間で第1の距離「a」を特定することができる。第1のUAV102aと第3のUAV102cとの間では、第2の距離「b」を特定することができる。第1のUAV102aと第2のUAV102bとの間では、第3の距離「c」を特定することができる。従って、図5Bに示すように、第1のUAV102a、第2のUAV102b及び第3のUAV102cにそれぞれ対応する頂点「A」、「B」及び「C」を有する三角形を形成することができる。また、図5C及び図5Dには、さらに2つの考えられる配列を示す。頂点「A」、「B」及び「C」の位置は、一連の数式に基づいて特定することができる。以下の数式(1)に基づいて三角形の面積を計算することができる。
面積=√s*(s−a)*(s−b)*(s−c) (1)
この場合の「面積」は、図5Bに示す三角形の面積である。
「s」は、(a+b+c)/2として計算される三角形のセミパラメータである。
計算された面積を踏まえ、以下の数式(2)に基づいて三角形の高さを計算することができる。
H=2*面積/底辺の長さ (2)
この場合の「H」は、図5Bに示す三角形の高さである。
計算された三角形の高さを踏まえ、以下の数式(3)及び(4)に基づいて内角を計算することができる。
角度(c)=sin−1(高さ/b) (3)
角度(b)=sin−1(高さ/c) (4)
この場合の「角度(c)」及び「角度(b)」は、逆正弦式を用いて取得される頂点「B」及び「C」の内角である。
さらに、三角形の底辺は、x軸との間に、底辺の単位ベクトルとx軸の単位ベクトルとのドット積の逆余弦に基づいて計算できる角度を形成することができる。以下の数式(5)に基づいて、全ての頂点「A」、「B」及び「C」をこの角度だけ回転させて回転後の点を取得することができる。
Figure 0006885485
この場合の「θ」は回転角である。
全ての点を頂点「B」の周囲で回転させる前に、これらの点を原点からの頂点「B」の距離に等しい距離だけ平行移動させることができる。回転後、これらの点があたかも頂点「B」の周囲で回転したかのように見せるために、全ての点を同じ距離だけ逆に平行移動させることができる。この平行移動式は、以下の数式(6)に基づくことができる。
Figure 0006885485
従って、頂点「C」の2次元式は、以下の数式(7)及び(8)によって表すことができる。
Cx=Cosθ(Cx−Bx)−Sinθ(Cy−By)+Bx (7)
Cy=Sinθ(Cx−Bx)+Cosθ(Cy−By)+By (8)
この場合の「Cx」は頂点「C」のx座標であり、
「Cy」は頂点「C」のy座標であり、
θは回転角である。
頂点「C」の角度が鋭角であるか、それとも鈍角であるかをチェックすることができる。この角度が鋭角の時には、以下の数式(9)及び(10)によって頂点「A」の位置を表すことができる。
A.x=C.x−b*cos(頂点Cの角度) (9)
A.y=C.y+b*sin(頂点Cの角度) (10)
この角度が鈍角の時には、以下の数式(11)及び(12)によって頂点「A」の位置を表すことができる。
A.x=B.x+c*cos(頂点Bの角度) (11)
A.y=B.y+c*sin(頂点Bの角度) (12)
最後に、全ての点をマイナスの角度「θ」だけ逆回転させて最終的な頂点「A」の位置を取得することができる。同様に、以下の数式(13)によって表される第1のUAV102aなどのUAVの頭部と尾部とを結ぶベクトルに基づいて、第1のUAV102a、第2のUAV102b及び第3のUAV102cの配向を特定することができる。
大きさ=√ベクトル.x2+ベクトル.y2(13)
この場合、「ベクトル.x」=第1のUAV102aのx座標の尾部.x−頭部.xであり、「ベクトル.y」=第1のUAV102aのy座標の尾部.y−頭部.yである。
従って、以下の数式(14)及び(15)に基づいて単位ベクトル成分を計算することができる。
単位ベクトル.x=ベクトル.x/大きさ (14)
単位ベクトル.y=ベクトル.y/大きさ (15)
このベクトルがy軸との間に成す角度を取得するために、この単位ベクトルとy軸を表す単位ベクトルとのドット積を計算することができる。以下の数式(16)に基づいて、y軸に対する頭部の配向角を計算するドット積の逆余弦を計算することができる。
−θ=cos−1(ドット積) (16)
角度「θ」を反時計回り方向に計算する場合には、360度から角度「θ」を減算することができる。これにより、第1のUAV102aの頭部のy軸からの配向を求めることができる。第1のUAV102aのy軸に対する配向を求めるには、180度から角度「θ」を減算することができる。角度「θ」が0度未満の場合には、角度「θ」に360度を加算して、第1のUAV102aの尾部のy軸に対する最終的な配向を示すことができる。
図6A〜図6Cに、本開示の実施形態による例示的な画像処理方法を実行する例示的なシナリオをまとめて示す。図6の説明は、図1〜図5Dの要素に関連して行う。図6には、ゴルフ場602で行われているゴルフ大会の例示的なシナリオを示しており、ゴルフ選手604がショットを行っている。ユーザ端末110のユーザインターフェイス606には、例示的な画像取り込み装置(図示せず)によって取り込まれたゴルフ大会のライブビデオストリームが示される。さらに、ゴルフ場602における複数のUAV102も示す。
図6Aを参照すると、図1で説明したように、複数のUAV102の各々は、これらに関連するシステム制御及び状態変数をモニタする飛行前診断プロセスを実行することができる。飛行前診断プロセスが正常に終了すると、複数のUAV102は飛行を開始して浮遊することができる。その後、この時点で浮遊している複数のUAV102は、それぞれのシステム制御及び状態変数を定期的にモニタする飛行中診断プロセスを実行することができる。
複数のUAV102は、事前プログラムされた飛行計画に従って、(Wi−Fiなどの)通信ネットワーク108を介して互いに通信するように構成することができる。第1のUAV102aなどの複数のUAV102のうちの1つは、1又は2以上の他のUAV102b〜102dのシステム制御及び状態変数を中心的にモニタするマスター装置として予め構成しておくことができる。第1のUAV102aは、1又は2以上の他のUAV102b〜102dのシステム制御及び状態変数をモニタして記録するように構成することができる。従って、第1のUAV102aは、1又は2以上の他のUAV102b〜102dの状態変数を記憶して定期的に更新できる状態変数テーブルを生成することができる。
ある例では、第1のUAV102aが、ゴルフ選手604をゴルフ場602内の顕著な物体として自動的に選択することができる。別の例では、スポーツアナリストなどのユーザが、ユーザ端末110のユーザインターフェイス606においてタッチ入力を行ってゴルフ選手604を選択することもできる。このような場合、ユーザ端末110は、受け取ったユーザ入力を第1のUAV102aに通信するように構成することができる。
第1のUAV102aは、ユーザ入力の受け取りに応答して、1又は2以上の他のUAV102b〜102dから情報を受け取るように構成することができる。この情報は、1又は2以上の他のUAV102b〜102dに関連する1又は2以上の撮像装置104b〜104dの焦点レンズ情報と、現在位置と、現在の配向とを含むことができる。第1のUAV102aは、ゴルフ場602におけるゴルフ選手604の現在位置を特定するようにさらに構成することができる。
ある実施形態によれば、図1で説明したように、第1のUAV102aは、受け取った焦点レンズ情報と、共通の予め定められた較正物体の複数の画像とに基づいて、1又は2以上の他のUAV102b〜102dの較正情報を決定するように構成することができる。第1のUAV102aは、決定された較正情報を1又は2以上の他のUAV102b〜102dに関連する1又は2以上の撮像装置104b〜104dに通信するように構成することができる。従って、1又は2以上の他のそれぞれのUAV102b〜102dは、1又は2以上の撮像装置104b〜104dの較正を行うことができる。1又は2以上の他のUAV102b〜102dは、1又は2以上の撮像装置の1又は2以上の内部パラメータ及び/又は外部パラメータを調整するためにこれらの撮像装置104b〜104dの較正を行うことができる。
ある実施形態によれば、第1のUAV102aは、1又は2以上の撮像装置104b〜104dの目標位置及び目標配向を決定するように構成することができる。目標位置及び目標配向は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、選択された1又は2以上の静止物体又は移動物体の現在位置とに基づいて決定することができる。第1のUAV102aは、図5A〜図5Dで説明したような三角測量法に従って自機の目標位置及び目標配向を決定するように構成することができる。
ある実施形態によれば、第1のUAV102aは、1又は2以上の他のUAV102b〜102dに制御情報を通信するように構成することができる。1又は2以上の他のUAV102b〜102dは、受け取った制御情報に基づいて1又は2以上の撮像装置104b〜104dの現在位置及び現在の配向を修正することができる。1又は2以上の撮像装置104b〜104dの現在位置及び現在の配向は、決定された目標位置及び決定された目標配向に修正することができる。ある実施形態によれば、第1のUAV102aは、自機の現在位置及び現在の配向を、三角測量法を通じて決定された目標位置及び目標配向に修正するように構成することができる。
複数のUAV102が自機の現在位置及び現在の配向を目標位置及び目標配向に修正すると、複数の撮像装置104は、図6Bに示すようにゴルフ選手604の一連の画像608を取り込むことができる。例えば、第1のUAV102aの第1の撮像装置104aは第1の画像608aを取り込むことができ、第2のUAV102bの第2の撮像装置104bは第2の画像608bを取り込むことができる。同様に、第3のUAV102cの第3の撮像装置104cは第3の画像608cを取り込むことができ、第4のUAV102dの第4の撮像装置104dは第4の画像608dを取り込むことができる。一連の画像608は、第1のUAV102aによって送信される同期信号に基づいて互いに動的に同期させることができる。
複数の撮像装置104は、選択されたゴルフ選手604に関連する動き情報を協働して取り込むようにさらに構成することができる。第1のUAV102aは、選択されたゴルフ選手604の一連の画像608と動き情報とを照合することができる。第1のUAV102aは、複数の撮像装置104によって取り込まれた一連の画像を処理することができる分散処理モードを動的に決定するようにさらに構成することができる。第1のUAV102aは、最新の飛行中診断プロセス中に更新される状態変数テーブルから検索された計算リソースの状態に基づいて、分散処理モードを動的に決定することができる。
ある実施形態によれば、第1のUAV102aは、計算リソースの状態に基づいて、第1のUAV102a自体が最大の計算帯域幅を示すと判断することができる。しかしながら、第1のUAV102aは、メモリ利用率が十分でない場合もある。このような場合、第1のUAV102aのメッセージマネージャは、UAVモニタと協働して、1又は2以上の他のUAV102b〜102dに対する第1のUAV102aの通信依存比が閾値を超えていると判断することができる。従って、1又は2以上の他のUAV102b〜102dのリソース割り当てマネージャは、メモリ空間を第1のUAV102aに動的に分散させることができる。複数のUAV102のリソースネゴシエータは、画像処理のためのメモリ空間を取り決めることができる。1又は2以上の他のUAV102b〜102dのリソース移動マネージャは、メモリ空間を第1のUAV102aに仮想的に移動させることができる。
図6Cに示すように、第1のUAV102aは、一連の画像608に基づいて、選択されたゴルフ選手604のリアルタイム3D構造を再構成するように構成することができる。第1のUAV102aは、ローカルな計算リソースと仮想的に移動させた計算リソースとに基づいてこのようなリアルタイム3D構造610の再構成を実行することができる。図3で説明したように、第1のUAV102aは、ゴルフ選手604のシーン解釈及び/又は点群生成に基づいて3D構造610の再構成を実行することができる。
ある実施形態によれば、第1のUAV102aは、再構成後の3D構造610を通信ネットワーク108を介してユーザ端末110に通信するようにさらに構成することができる。従って、このような場合、ユーザ端末110は、再構成後の3D構造610を受け取って表示することができる。ある実施形態によれば、ユーザ端末110は、再構成後の3D構造610の視点を修正するための別のユーザ入力をさらに受け取ることができる。この修正された視点に対応する要求を第1のUAV102aに戻すことができる。第1のUAV102aは、この要求に基づいて、再び1又は2以上の他のUAV102b〜102dの新たな目標位置及び目標配向をそれぞれ決定することができる。第1のUAV102aは、上記と同様に1又は2以上の他のUAV102b〜102dから新たな一連の画像を受け取ることができる。上記と同様に再び3D構造の再構成を実行し、通信ネットワーク108を介してユーザ端末110に通信することができる。
図7A及び図7Bに、本開示の実施形態による例示的な画像処理方法を実行する第1のフローチャートをまとめて示す。図7A及び図7Bの説明は、図1〜図5Dの要素に関連して行う。図7及び図7Bのフローチャート700による方法は、分散処理モードに従って複数のUAV102のうちの第1のUAV102aにおいて実行することができる。方法は、ステップ702から開始してステップ704に進む。
ステップ704において、ユーザ端末110などのユーザ端末からユーザ入力を受け取ることができる。ステップ706において、受け取ったユーザ入力に応答して、Wi−Fiなどの無線通信チャネルを介して1又は2以上の他のUAV102b〜102dからの情報を受け取ることができる。この情報は、1又は2以上の他のUAV102b〜102dに関連する1又は2以上の撮像装置104b〜104dの焦点レンズ情報と、現在位置と、現在の配向とを含むことができる。1又は2以上の他のUAV102b〜102dは、ジャイロスコープなどの内蔵された第1の一連のセンサに基づいてこの情報を決定することができる。1又は2以上の他のUAV102b〜102dは、画像センサなどの内蔵された第2の一連のセンサに基づいてこの情報を精細化することができる。ステップ708において、選択された1又は2以上の静止物体及び/又は移動物体の現在位置を特定することができる。
ステップ710において、受け取った焦点レンズ情報と、共通の予め定められた較正物体の複数の画像とに基づいて、1又は2以上の他のUAV102b〜102dの較正情報を決定することができる。ステップ712において、決定された較正情報を1又は2以上の他のUAV102b〜102dに関連する1又は2以上の撮像装置104b〜104dに通信することができる。従って、1又は2以上の他のそれぞれのUAV102b〜102dは、1又は2以上の撮像装置104b〜104dの1又は2以上の内部パラメータ及び/又は外部パラメータを調整するためにこれらの撮像装置104b〜104dの較正を行うことができる。
ステップ714において、1又は2以上の撮像装置104b〜104dの各々の目標位置及び目標配向を決定することができる。目標位置及び目標配向は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、選択された1又は2以上の静止物体及び/又は移動物体の現在位置とに基づいて決定することができる。ステップ716において、図5で説明したような三角測量法に従って第1のUAV102aの目標位置及び目標配向を決定することができる。複数の撮像装置104の目標位置及び目標配向は、選択された1又は2以上の静止物体及び/又は移動物体の周囲における複数の撮像装置104の最適な配列に対応することができる。複数のUAV102の最適な配列は、選択された1又は2以上の静止物体及び/又は移動物体を含む3Dシーン構造を複数の撮像装置104の予め定められた解像度で最大限にカバーする配列に対応する。
ステップ718において、1又は2以上の他のUAV102b〜102dに制御情報を通信することができる。1又は2以上の他のUAV102b〜102dは、受け取った制御情報に基づいて1又は2以上の撮像装置104b〜104dの現在位置及び現在の配向を修正することができる。1又は2以上の撮像装置104b〜104dの現在位置及び現在の配向は、決定された目標位置及び決定された目標配向に修正することができる。さらに、第1のUAV102aの現在位置及び現在の配向は、三角測量法を通じて決定された目標位置及び目標配向に修正することができる。
ステップ720において、1又は2以上の他のUAV102b〜102dに同期信号を送信することができる。ステップ722において、第1の撮像装置104aは、第1の一連の画像を取り込むことができる。さらに、1又は2以上の他のUAV102b〜102dの1又は2以上の撮像装置104b〜104dは、それぞれ第2の一連の画像を取り込むことができる。さらに、1又は2以上の他のUAV102b〜102dは、選択された1又は2以上の静止物体及び/又は移動物体に関連する動き情報を協働して取り込むことができる。
ステップ722において、1又は2以上の他のUAV102b〜102dから第2の一連の画像を受け取ることができる。ステップ724において、最新の飛行中診断プロセス中に更新される状態変数テーブルから計算リソースを検索することができる。計算リソースは、複数のUAV102の計算帯域幅、メモリ利用率及び/又はバッテリレベルに対応することができる。
ステップ726において、UAVモニタは、検索された状態変数テーブルに基づいて、第1のUAV102aの状態変数をチェックして1又は2以上の計算リソースの十分性を判断することができる。ある事例では、1又は2以上の計算リソースが十分であると判断することができる。このような場合、制御はステップ730に進むことができる。ある事例では、1又は2以上の計算リソースが不十分であると判断することができる。このような場合、制御はステップ728に進むことができる。
ステップ728において、分散処理モードに従って、1又は2以上の他のUAV102b〜102dから1又は2以上の計算リソースを仮想的に受け取ることができる。ステップ730において、図3で説明したように、選択された1又は2以上の静止物体又は移動物体の3Dシーン解釈及び/又は点群生成に基づいて3D構造の再構成を実行することができる。ステップ732において、再構成後の3D構造を表示のために通信ネットワーク108を介してユーザ端末110に通信することができる。制御は、ステップ734に進んで終了する。
図8に、本開示の実施形態による、例示的な画像処理方法を実行するための第2のフローチャートを示す。図8の説明は、図1〜図5Dの要素に関連して行う。図8のフローチャート800による方法は、集中処理モードに従ってサーバ106において実行することができる。方法は、ステップ802から開始してステップ804に進む。
ステップ804において、ユーザ端末110からユーザ入力を受け取ることができる。ステップ806において、ユーザ入力に応答して、複数の撮像装置104に関連する複数のUAV102から情報を受け取ることができる。このような場合、複数のUAV102及びサーバ106は、Wi−Fiなどの無線通信チャネルを介してメッシュネットワーク内に存在することができる。図2Bで説明したように、この情報は、複数の撮像装置104に関連する複数のUAV102の焦点レンズ情報と、現在位置と、現在の配向とを含むことができる。
ステップ808において、受け取った焦点レンズ情報と、共通の予め定められた較正物体の複数の画像とに基づいて複数のUAV102の較正情報を決定することができる。ステップ810において、決定された較正情報を、複数のUAV102に関連する複数の撮像装置104に通信することができる。従って、複数のUAV102のそれぞれのUAVは、複数の撮像装置104の較正を実行することができる。図1で説明したように、複数のUAV102は、複数の撮像装置104の1又は2以上の内部パラメータ及び/又は外部パラメータを調整するためにこれらの撮像装置104の較正を行うことができる。
ステップ812において、複数の撮像装置104の各々の目標位置及び目標配向を決定することができる。目標位置及び目標配向は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、選択された1又は2以上の静止物体及び/又は移動物体の現在位置とに基づいて決定することができる。
ステップ814において、複数のUAV102に制御情報を通信することができる。複数のUAV102は、この制御情報に基づいて複数の撮像装置104の現在位置及び現在の配向を修正することができる。複数の撮像装置104の現在位置及び現在の配向は、決定された目標位置及び決定された目標配向に修正することができる。
ステップ816において、複数のUAV102に同期信号を送信することができる。複数のUAV102が自機の現在位置及び現在の配向を目標位置及び目標配向に修正すると、複数の撮像装置104は、同期信号に基づいて1又は2以上の静止物体及び/又は移動物体の一連の画像を取り込むことができる。一連の画像内の各画像は、サーバ106によって送信される同期信号に基づいて他の画像に対して動的に同期させることができる。複数の撮像装置104は、選択された1又は2以上の静止物体及び/又は移動物体に関連する動き情報を協働して取り込むようにさらに構成することができる。
ステップ818において、サーバ106は、選択された1又は2以上の静止物体及び/又は移動物体の取り込まれた一連の画像と動き情報とを受け取ることができる。ステップ820において、図2Bで説明したように、受け取った一連の画像に基づいて、選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成を実行することができる。制御は、ステップ822に進んで終了する。
図9A及び図9Bに、本開示の実施形態による例示的な画像処理方法を実行する第3のフローチャートをまとめて示す。図9A及び図9Bの説明は、図1〜図5Dの要素に関連して行う。図9A及び図9Bのフローチャート900による方法は、クラスタ処理モードに従って第1のUAV102a及び第3のUAV102cにおいて実行することができる。方法は、ステップ902から開始してステップ904に進む。
ステップ904において、複数のUAV102の各々の通信マネージャが、UAVモニタと協働して通信依存比を求めることができる。複数のUAV102のうちの他のUAVに対する複数のUAV102の各々の通信依存比が所定の閾値を超えていると判断することができる。従って、第1のクラスタ402及び第2のクラスタ404などのUAVのクラスタを形成することができる。UAVのクラスタの形成は、通信コストを低減するために近接性パラメータにさらに基づくことができる。
ステップ906において、第1のクラスタ402及び第2のクラスタ404などの各クラスタについて、第1のUAV102a及び第3のUAV102cなどのマスターUAVを動的に決定することができる。このような動的決定は、対応するUAVのUAVモニタの1又は2以上の計算リソースのステータス情報に基づくことができる。ある例では、第1のUAV102a及び第3のUAV102cを、それぞれ第1のクラスタ402及び第2のクラスタ404のマスターUAVとして予め決定しておくことができる。
ステップ908において、(第1のクラスタ402及び第2のクラスタ404などの)UAVのクラスタの(第1のUAV102a及び第3のUAV102cなどの)マスターUAVにおいて、ユーザ端末110からユーザ入力を受け取ることができる。ステップ910において、ユーザ入力に応答して、マスターUAVを、それぞれのクラスタ内の残りのUAVから情報を受け取るように構成することができる。例えば、第1のクラスタ402の第1のUAV102aは、第2のUAV102bから情報を受け取るように構成することができる。同様に、第2のクラスタ404の第3のUAV102cは、第4のUAV102dから情報を受け取るように構成することができる。このような場合、この情報は、第2のUAV102b及び第4のUAV102dにそれぞれ関連する第2の撮像装置104b及び第4の撮像装置104dの焦点レンズ情報と、現在位置と、現在の配向とを含むことができる。
ステップ912において、第1のUAV102a及び第3のUAV102cなどのマスターUAVを、それぞれのクラスタ内の他のUAVの較正情報を決定するように構成することができる。ステップ914において、マスターUAVを、決定された較正情報をそれぞれのクラスタ内の他のUAVに通信するように構成することができる。従って、他のUAVは、異なるクラスタ内の対応する撮像装置を較正することができる。図1で説明したように、この較正は、撮像装置の1又は2以上の内部パラメータ及び/又は外部パラメータを調整するために行うことができる。
ステップ916において、それぞれのクラスタ内のマスターUAVを、それぞれのクラスタ内の他のUAVの撮像装置の各々の目標位置及び目標配向を決定するように構成することができる。マスターUAVは、自機の目標位置及び目標配向をそれぞれのクラスタ内で三角測量法に従って決定するように構成することができる。
ステップ918において、マスターUAVを、それぞれのクラスタ内の他のUAVに制御情報を通信するように構成することができる。他のUAVは、受け取った制御情報に基づいて、関連する撮像装置の現在位置及び現在の配向を修正することができる。撮像装置の現在位置及び現在の配向は、決定された目標位置及び決定された目標配向に修正することができる。さらに、マスターUAVは、自機の現在位置及び現在の配向を、三角測量法によって決定された目標位置及び目標配向に修正するように構成することができる。
ステップ920において、マスターUAVを、それぞれのクラスタ内の他のUAVに同期信号を送信するように構成することができる。マスターUAVは、この同期信号をさらに共有することができる。ステップ922において、様々なクラスタ内の複数の撮像装置104は、様々なクラスタ内の1又は2以上の静止物体及び/又は移動物体の複数の画像を取り込むことができる。例えば、第1の複数の画像は、第1のクラスタ402内の第1のUAV102aの第1の撮像装置104aと第2のUAV102bの第2の撮像装置104bとによって取り込まれた画像を含むことができる。第2の複数の画像は、第2のクラスタ404内の第3のUAV102cの第3の撮像装置104cと第4のUAV102dの第4の撮像装置104dとによって取り込まれた画像を含むことができる。図1で説明したように、第1の複数の画像は、第1のUAV102aと第3のUAV102cとの間で通信される同期信号に基づいて第2の複数の画像と動的に同期させることができる。
ステップ924において、マスターUAVを、それぞれのクラスタ内の複数の画像に基づいて、選択された1又は2以上の静止物体及び/又は移動物体のリアルタイム3D構造再構成を実行するように構成することができる。各クラスタでは、複数のUAV102の各々のUAVモニタが、対応するUAVの状態変数を定期的にチェックして1又は2以上の計算リソースのステータス情報を決定することができる。リソース割り当てマネージャは、UAVモニタと協働して、UAVが過負荷状態の場合にクラスタの内で1又は2以上の計算リソースを動的に分散させることができる。リソースネゴシエータは、それぞれのクラスタ内の他のUAVとマスターUAVとの間の1又は2以上の計算リソースを取り決めることができる。リソース移動マネージャは、それぞれのクラスタ内で他のUAVの1又は2以上の計算リソースをマスターUAVに仮想的に移動させることができる。
ステップ926において、再構成画像が1つしか必要でないか、それとも複数必要であるかを判断することができる。ある事例では、再構成画像が複数必要な場合、制御はステップ928に進む。ある事例では、再構成画像が1つしか必要でない場合、制御はステップ934に進む。ステップ928において、図3で説明したように、マスターUAVは、選択された1又は2以上の静止物体及び/又は移動物体の3Dシーン解釈及び/又は点群生成に基づいて、3D構造の再構成を実行することができる。ステップ930において、マスターUAVを、2つの再構成後の3D構造を表示のために通信ネットワーク108を介してユーザ端末110に通信するようにさらに構成することができる。制御は、ステップ932に進んで終了する。
ステップ934において、計算リソースの利用可能性を示す状態制御変数に基づいて、マスターUAVのうちの1つを選択して最終的な3D構造再構成を実行することができる。ステップ936において、最終的な再構成を実行して単一の3D構造を生成することができる。ステップ938において、最終的な再構成後の3D構造をユーザ端末110に通信することができる。制御は、ステップ932に進んで終了する。
本開示の実施形態によれば、画像処理システムが、複数のUAV102を含むことができる。複数のUAVは、複数の撮像装置104を伴うことができる。複数のUAV102のうちの第1のUAV102aは、1又は2以上の静止物体及び/又は移動物体の第1の一連の画像を取り込むことができる第1の撮像装置104aを含むことができる。第1のUAV102aは、複数のUAV102のうちの1又は2以上の他のUAV102b〜102dに関連する1又は2以上の撮像装置104b〜104dの焦点レンズ情報と、現在位置と、現在の配向とを受け取ることができるプロセッサ202をさらに含むことができる。プロセッサ202は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、1又は2以上の静止物体及び/又は移動物体の現在位置とに基づいて、1又は2以上の撮像装置104b〜104dの各々の目標位置及び目標配向を決定することができる。さらに、プロセッサ202は、1又は2以上の撮像装置104b〜104dの各々の現在位置及び現在の配向をこれらの撮像装置の各々の決定された目標位置及び決定された目標配向に修正するための制御情報を1又は2以上の他のUAV102b〜102dに通信することができる。
本開示の実施形態によれば、サーバ106は、画像処理のために複数のUAV102に通信可能に結合することができる。複数のUAV102は、複数の画像を取り込むように構成された複数の撮像装置104を伴うことができる。サーバ106は、複数のUAV102に関連する複数の撮像装置104からこれらの撮像装置の焦点レンズ情報と、現在位置と、現在の配向とを受け取るように構成された、プロセッサ302などの1又は2以上の回路を含むことができる。プロセッサ302は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、1又は2以上の静止物体及び/又は移動物体の現在位置とに基づいて、複数の撮像装置104の目標位置及び目標配向をさらに決定することができる。さらに、プロセッサ302は、複数の撮像装置104の現在位置及び現在の配向をこれらの撮像装置の決定された目標位置及び決定された目標配向に修正するための制御情報を複数のUAV102に通信することができる。
本開示の実施形態によれば、画像処理のためのシステムが、第1の一連のUAVを含むことができる第1のクラスタ402などの第1のネットワークを含む。システムは、第2の一連のUAVを含むことができる第2のクラスタ404などの第2のネットワークをさらに含むことができる。第1の一連のUAV及び第2の一連のUAVの各々は、複数の画像を取り込むように構成された撮像装置を伴うことができる。第1の一連のUAVの第1のUAV102aは、1又は2以上の静止物体及び/又は移動物体の第1の一連の画像を取り込むように構成された第1の撮像装置104aを含むことができる。第1のUAV102aは、第1の一連のUAVに関連する第1の一連の撮像装置から焦点レンズ情報と、現在位置と、現在の配向とを受け取るように構成された、プロセッサ202などの1又は2以上の回路をさらに含むことができる。プロセッサ202は、受け取った焦点レンズ情報と、受け取った現在位置と、受け取った現在の配向と、1又は2以上の静止物体及び/又は移動物体の現在位置とに基づいて、第1の一連の撮像装置の目標位置及び目標配向をさらに決定することができる。プロセッサ202は、第1の一連の撮像装置の現在位置及び現在の配向をこれらの撮像装置の決定された目標位置及び決定された目標配向に修正するための制御情報を第1の一連のUAVに通信するようにさらに構成することができる。
本開示は、ハードウェアの形で実現することも、又はハードウェアとソフトウェアの組み合わせの形で実現することもできる。本開示は、少なくとも1つのコンピュータシステム内で集中方式で実現することも、又は異なる要素を複数の相互接続されたコンピュータシステムにわたって分散できる分散方式で実現することもできる。本明細書で説明した方法を実行するように適合されたコンピュータシステム又はその他の装置が適することができる。ハードウェアとソフトウェアの組み合わせは、ロードされて実行された時に本明細書で説明した方法を実行するようにコンピュータシステムを制御することができるコンピュータプログラムを含む汎用コンピュータシステムとすることができる。本開示は、他の機能も実行する集積回路の一部を含むハードウェアの形で実現することができる。
本開示は、本明細書で説明した方法の実装を可能にする全ての特徴を含み、コンピュータシステムにロードされた時にこれらの方法を実行できるコンピュータプログラム製品に組み込むこともできる。本文脈におけるコンピュータプログラムとは、情報処理能力を有するシステムに、特定の機能を直接的に、或いはa)別の言語、コード又は表記法への変換、b)異なる内容形態での複製、のいずれか又は両方を行った後に実行させるように意図された命令セットの、あらゆる言語、コード又は表記法におけるあらゆる表現を意味する。
いくつかの実施形態を参照しながら本開示を説明したが、当業者であれば、本開示の範囲から逸脱することなく様々な変更を行うことができ、同等物を代用することもできると理解するであろう。また、本開示の範囲から逸脱することなく、本開示の教示に特定の状況又は内容を適合させるための多くの変更を行うこともできる。従って、本開示は、開示した特定の実施形態に限定されるものではなく、特許請求の範囲に該当する全ての実施形態を含むように意図されている。
102 複数のUAV
102a 第1のUAV
102b 第2のUAV
102c 第3のUAV
102d 第4のUAV
104a 第1の撮像装置
104b 第2の撮像装置
104c 第3の撮像装置
104d 第4の撮像装置
108 通信ネットワーク
110 ユーザ端末

Claims (10)

  1. 1又は2以上の回路を備えるサーバであって、該1又は2以上の回路は、
    複数の撮像装置から、複数の撮像装置の焦点レンズ情報と、現在位置と、現在の配向とを受け取り、ここで、前記複数の撮像装置は複数の無人航空機(UAV)に関連づけられたものであり、前記複数の撮像装置は複数の画像を取り込み、前記複数のUAVは前記サーバに通信可能に結合されており、
    前記受け取った焦点レンズ情報と、前記受け取った現在位置と、前記受け取った現在の配向と、少なくとも1つの静止物体又は少なくとも1つの移動物体のうちの少なくもと1つの現在位置とに基づいて、前記複数の撮像装置の目標位置及び目標配向を決定し、
    前記受け取った焦点レンズ情報及び少なくとも1つの特定の較正物体に基づいて較正情報を決定し、
    前記複数の撮像装置の前記現在位置及び前記現在の配向を前記複数の撮像装置の前記決定された目標位置及び前記決定された目標配向に修正するための制御情報及び前記較正情報を前記複数のUAVに通信
    前記通信された制御情報に基づいて、前記複数の撮像装置の前記現在位置及び前記現在の配向を前記決定された目標位置及び前記決定された目標配向へ修正し、
    前記通信された較正情報に基づいて、前記複数の撮像装置の較正を可能とする、
    ように構成される、
    ことを特徴とするサーバ。
  2. 前記通信される制御情報はさらに取り込み情報を含み、
    前記取り込み情報に基づいて前記少なくとも1つの静止物体又は前記少なくとも1つの移動物体のうち少なくとも1つの一組の画像を、前記複数の撮像装置によって取り込み、
    前記一組の画像は前記決定された目標位置及び前記決定された目標配向において取り込まれる、
    請求項1に記載のサーバ。
  3. 前記少なくとも1つの回路は、前記取り込まれた一組の画像から3次元(3D)構造を再構成するようにさらに構成される、
    請求項2に記載のサーバ。
  4. 前記少なくとも1つの回路は、前記3D構造を再構成するために、前記取り込まれた一組の画像を動的に同期させるようにさらに構成される、
    請求項3に記載のサーバ。
  5. 前記特定の較正物体の前記少なくとも1つの画像は善の複数の撮像装置によって取り込まれる、
    請求項1に記載のサーバ。
  6. 複数の画像を取り込むように構成された複数の撮像装置と関連づけられた複数の無人航空機(UAV)に通信可能に結合されたサーバにおいて、
    前記サーバが、前記複数のUAVと関連づけられた前記複数の撮像装置から、該複数の撮像装置の焦点レンズ情報と、現在位置と、現在の配向とを受け取るステップと、
    前記サーバが、前記受け取った焦点レンズ情報と、前記受け取った現在位置と、前記受け取った現在の配向と、少なくもと1つの静止物体又は少なくとも1つの移動物体のうちの少なくとも1つの現在位置とに基づいて、前記複数の撮像装置の目標位置及び目標配向を決定するステップと、
    前記サーバが、前記受け取った焦点レンズ及び特定の較正物体の少なくとも1つの画像に基づいて較正情報を決定するステップと、
    前記サーバが、制御情報及び前記較正情報を前記複数のUAVに通信するステップと、
    前記通信された制御情報に基づいて、前記複数の撮像装置の前記現在位置及び前記現在の配向を前記決定された目標位置及び前記決定された目標配向へ修正するステップと、
    前記通信された較正情報に基づいて、前記複数の撮像装置の較正を可能とするステップと、
    を含む、
    ことを特徴とする方法。
  7. 前記通信される制御情報は、取り込み情報をさらに含
    前記少なくとも1つの静止物体及び少なくとも1つの移動物体のうち少なくもと一組の画像が、前記取り込み情報に基づいて前記撮像装置によって取り込まれ、
    前記1組の画像は、前記決定された目標位置及び前記決定された目標配向で取り込まれる、
    請求項6に記載の方法。
  8. 前記取り込まれた一組の画像から3次元(3D)構造を再構成するステップをさらに含む、
    請求項7に記載の方法。
  9. 前記3D構造を再構成するために、前記取り込まれた一組の画像を動的に同期させるステップをさらに含む、
    請求項8に記載の方法。
  10. 前記特定の較正物体の前記少なくとも一組の画像は、前記少なくとも一つの撮像装置によって取り込まれる、
    請求項6に記載の方法。
JP2020037847A 2016-02-03 2020-03-05 複数カメラネットワークを利用して静止シーン及び/又は移動シーンを取り込むためのシステム及び方法 Active JP6885485B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/014,743 2016-02-03
US15/014,743 US10416667B2 (en) 2016-02-03 2016-02-03 System and method for utilization of multiple-camera network to capture static and/or motion scenes

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018540861A Division JP6694169B2 (ja) 2016-02-03 2017-01-27 複数カメラネットワークを利用して静止シーン及び/又は移動シーンを取り込むためのシステム及び方法

Publications (2)

Publication Number Publication Date
JP2020115642A JP2020115642A (ja) 2020-07-30
JP6885485B2 true JP6885485B2 (ja) 2021-06-16

Family

ID=59385497

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018540861A Active JP6694169B2 (ja) 2016-02-03 2017-01-27 複数カメラネットワークを利用して静止シーン及び/又は移動シーンを取り込むためのシステム及び方法
JP2020037847A Active JP6885485B2 (ja) 2016-02-03 2020-03-05 複数カメラネットワークを利用して静止シーン及び/又は移動シーンを取り込むためのシステム及び方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018540861A Active JP6694169B2 (ja) 2016-02-03 2017-01-27 複数カメラネットワークを利用して静止シーン及び/又は移動シーンを取り込むためのシステム及び方法

Country Status (6)

Country Link
US (1) US10416667B2 (ja)
EP (1) EP3397554B1 (ja)
JP (2) JP6694169B2 (ja)
KR (1) KR102086937B1 (ja)
CN (1) CN108602561B (ja)
WO (1) WO2017136231A1 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10417918B2 (en) * 2016-01-20 2019-09-17 Honeywell International Inc. Methods and systems to assist in a search and rescue mission
US10564270B2 (en) * 2016-04-13 2020-02-18 Caterpillar Inc. Methods and systems for calibrating sensors
US10455215B2 (en) * 2016-06-22 2019-10-22 International Business Machines Corporation System, method, and recording medium for a closed-loop immersive viewing technology coupled to drones
US11044445B2 (en) 2017-05-05 2021-06-22 VergeSense, Inc. Method for monitoring occupancy in a work area
US10742940B2 (en) 2017-05-05 2020-08-11 VergeSense, Inc. Method for monitoring occupancy in a work area
AT16628U1 (de) * 2017-05-23 2020-03-15 Ars Electronica Linz Gmbh & Co Kg System zum Steuern von unbemannten Luftfahrzeugen in einem Schwarm, um ein bewegtes Objekt mit mehreren Kameras zu filmen
AU2018328760A1 (en) * 2017-09-08 2020-04-30 Jump Corporation Pty Ltd Distributed camera network
US10861196B2 (en) 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
US10897269B2 (en) 2017-09-14 2021-01-19 Apple Inc. Hierarchical point cloud compression
US11818401B2 (en) 2017-09-14 2023-11-14 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US11113845B2 (en) 2017-09-18 2021-09-07 Apple Inc. Point cloud compression using non-cubic projections and masks
US10909725B2 (en) 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
US11039084B2 (en) * 2017-11-14 2021-06-15 VergeSense, Inc. Method for commissioning a network of optical sensors across a floor space
US10852723B2 (en) * 2017-11-14 2020-12-01 Intel IP Corporation Unmanned aerial vehicle swarm photography
CA3024707A1 (en) * 2017-11-21 2019-05-21 Reliance Core Consulting Methods and systems for detecting motion corresponding to a field of interest
US10867398B2 (en) * 2017-11-21 2020-12-15 Reliance Core Consulting LLC Methods, systems, apparatuses and devices for facilitating motion analysis in an environment
US10607373B2 (en) 2017-11-22 2020-03-31 Apple Inc. Point cloud compression with closed-loop color conversion
CN108093173B (zh) * 2017-12-14 2020-05-19 北京理工大学 光耦合式图像采集时刻标定的系统和方法
US11386653B2 (en) * 2018-01-22 2022-07-12 Apple Inc. Method and device for generating a synthesized reality reconstruction of flat video content
US11279496B2 (en) * 2018-02-21 2022-03-22 Sikorsky Aircraft Corporation System for reliable landing gear contact with identification of the surface
US10909727B2 (en) 2018-04-10 2021-02-02 Apple Inc. Hierarchical point cloud compression with smoothing
US11010928B2 (en) 2018-04-10 2021-05-18 Apple Inc. Adaptive distance based point cloud compression
US10909726B2 (en) 2018-04-10 2021-02-02 Apple Inc. Point cloud compression
US10939129B2 (en) 2018-04-10 2021-03-02 Apple Inc. Point cloud compression
US11017566B1 (en) 2018-07-02 2021-05-25 Apple Inc. Point cloud compression with adaptive filtering
US11202098B2 (en) 2018-07-05 2021-12-14 Apple Inc. Point cloud compression with multi-resolution video encoding
US11012713B2 (en) 2018-07-12 2021-05-18 Apple Inc. Bit stream structure for compressed point cloud data
US11367224B2 (en) 2018-10-02 2022-06-21 Apple Inc. Occupancy map block-to-patch information compression
US10841509B2 (en) * 2018-10-22 2020-11-17 At&T Intellectual Property I, L.P. Camera array orchestration
US11286058B2 (en) * 2018-12-18 2022-03-29 Textron Innovations Inc. Heliport docking system
JP7274726B2 (ja) * 2019-01-31 2023-05-17 株式会社RedDotDroneJapan 撮影方法
AU2020241843B2 (en) 2019-03-15 2023-09-28 VergeSense, Inc. Arrival detection for battery-powered optical sensors
US11057564B2 (en) 2019-03-28 2021-07-06 Apple Inc. Multiple layer flexure for supporting a moving image sensor
US20200326700A1 (en) * 2019-04-11 2020-10-15 Benchmark Electronics, Inc. Fractionated payload system and method therefor
US11711544B2 (en) * 2019-07-02 2023-07-25 Apple Inc. Point cloud compression with supplemental information messages
WO2021024627A1 (ja) * 2019-08-08 2021-02-11 ソニー株式会社 情報処理装置、移動体、情報処理システム、情報処理方法及びプログラム
US11620808B2 (en) 2019-09-25 2023-04-04 VergeSense, Inc. Method for detecting human occupancy and activity in a work area
US11627314B2 (en) 2019-09-27 2023-04-11 Apple Inc. Video-based point cloud compression with non-normative smoothing
US11562507B2 (en) 2019-09-27 2023-01-24 Apple Inc. Point cloud compression using video encoding with time consistent patches
US11538196B2 (en) 2019-10-02 2022-12-27 Apple Inc. Predictive coding for point cloud compression
US11895307B2 (en) 2019-10-04 2024-02-06 Apple Inc. Block-based predictive coding for point cloud compression
KR102163514B1 (ko) * 2019-11-25 2020-10-12 추혜성 드론에 의한 양방향 멀티미디어 통신 시스템 및 그 운용방법
US11747802B2 (en) * 2019-12-11 2023-09-05 Mason Electric Co. Ruggedized remote control display management system for harsh and safety-critical environments
US11798196B2 (en) 2020-01-08 2023-10-24 Apple Inc. Video-based point cloud compression with predicted patches
US11475605B2 (en) 2020-01-09 2022-10-18 Apple Inc. Geometry encoding of duplicate points
JP7263630B2 (ja) * 2020-02-13 2023-04-24 スカイディオ,インコーポレイテッド 無人航空機による3次元再構成の実行
US11095870B1 (en) * 2020-04-23 2021-08-17 Sony Corporation Calibration of cameras on unmanned aerial vehicles using human joints
US11089606B1 (en) * 2020-05-07 2021-08-10 Vmware, Inc. Methods for dynamically optimizing a flying ad-hoc network
US11620768B2 (en) 2020-06-24 2023-04-04 Apple Inc. Point cloud geometry compression using octrees with multiple scan orders
US11615557B2 (en) 2020-06-24 2023-03-28 Apple Inc. Point cloud compression using octrees with slicing
US11256257B2 (en) 2020-06-30 2022-02-22 Sony Group Corporation Method of multi-drone camera control
CN112578809A (zh) * 2020-11-19 2021-03-30 一飞(海南)科技有限公司 无人机集群通讯拓扑装置、方法、计算机设备、介质及终端
US11948338B1 (en) 2021-03-29 2024-04-02 Apple Inc. 3D volumetric content encoding using 2D videos and simplified 3D meshes
GB2607351B (en) 2021-06-04 2023-10-25 Digital & Future Tech Limited Media playback system
GB2616741A (en) * 2021-06-04 2023-09-20 Digital & Future Tech Limited Media playback system
US11943565B2 (en) * 2021-07-12 2024-03-26 Milestone Systems A/S Computer implemented method and apparatus for operating a video management system
US11745762B2 (en) 2021-08-02 2023-09-05 Cyngn, Inc. System and methods of adaptive trajectory prediction for autonomous driving
US20230058405A1 (en) * 2021-08-20 2023-02-23 Sony Group Corporation Unmanned aerial vehicle (uav) swarm control
CN117677911A (zh) * 2022-03-21 2024-03-08 深圳市大疆创新科技有限公司 无人机、控制终端、服务器及其控制方法
WO2024057746A1 (ja) * 2022-09-12 2024-03-21 株式会社Nttドコモ 補正装置
WO2024069789A1 (ja) * 2022-09-28 2024-04-04 株式会社RedDotDroneJapan 空中撮影システム、空中撮影方法および空中撮影プログラム
CN115297303B (zh) * 2022-09-29 2022-12-27 国网浙江省电力有限公司 适用于电网输变电设备的图像数据采集处理方法及装置
CN116863086B (zh) * 2023-09-04 2023-11-24 武汉国遥新天地信息技术有限公司 一种光学动作捕捉系统刚体稳定重建方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6130705A (en) * 1998-07-10 2000-10-10 Recon/Optical, Inc. Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use
JP4587166B2 (ja) * 2004-09-14 2010-11-24 キヤノン株式会社 移動体追跡システム、撮影装置及び撮影方法
US9654200B2 (en) 2005-07-18 2017-05-16 Mutualink, Inc. System and method for dynamic wireless aerial mesh network
US7642953B2 (en) * 2007-07-19 2010-01-05 The Boeing Company Method and apparatus for three dimensional tomographic image reconstruction of objects
US9026272B2 (en) * 2007-12-14 2015-05-05 The Boeing Company Methods for autonomous tracking and surveillance
US9043052B2 (en) * 2008-05-27 2015-05-26 Wilfred So System and method for multiple vehicles moving a common payload
TW201328344A (zh) * 2011-12-27 2013-07-01 Hon Hai Prec Ind Co Ltd 控制無人飛行載具進行影像採集的系統及方法
KR20150004915A (ko) * 2012-04-30 2015-01-13 더 트러스티스 오브 더 유니버시티 오브 펜실바니아 쿼드로터 팀의 3차원적 조정
US20150350614A1 (en) * 2012-08-31 2015-12-03 Brain Corporation Apparatus and methods for tracking using aerial video
GB2506411B (en) * 2012-09-28 2020-03-11 2D3 Ltd Determination of position from images and associated camera positions
WO2014071400A1 (en) * 2012-11-05 2014-05-08 360 Heros, Inc. 360 degree camera mount and related photographic and video system
US9102406B2 (en) * 2013-02-15 2015-08-11 Disney Enterprises, Inc. Controlling unmanned aerial vehicles as a flock to synchronize flight in aerial displays
JP6367522B2 (ja) 2013-02-28 2018-08-01 株式会社トプコン 航空写真システム
US9075415B2 (en) * 2013-03-11 2015-07-07 Airphrame, Inc. Unmanned aerial vehicle and methods for controlling same
US9070289B2 (en) * 2013-05-10 2015-06-30 Palo Alto Research Incorporated System and method for detecting, tracking and estimating the speed of vehicles from a mobile platform
US9306105B2 (en) * 2013-07-31 2016-04-05 First Solar Malaysia Sdn. Bhd. Finger structures protruding from absorber layer for improved solar cell back contact
CN103454556B (zh) * 2013-08-09 2016-01-20 国家电网公司 一种具有3d扫描功能的巡检装置及其检测方法
US20150321758A1 (en) * 2013-08-31 2015-11-12 II Peter Christopher Sarna UAV deployment and control system
US20150134143A1 (en) * 2013-10-04 2015-05-14 Jim Willenborg Novel tracking system using unmanned aerial vehicles
US9769387B1 (en) * 2013-11-05 2017-09-19 Trace Live Network Inc. Action camera system for unmanned aerial vehicle
US10250821B2 (en) * 2013-11-27 2019-04-02 Honeywell International Inc. Generating a three-dimensional model of an industrial plant using an unmanned aerial vehicle
WO2015159487A1 (ja) * 2014-04-14 2015-10-22 パナソニックIpマネジメント株式会社 映像配信方法、映像受信方法、サーバ、端末装置及び映像配信システム
JP6607433B2 (ja) * 2014-06-23 2019-11-20 パナソニックIpマネジメント株式会社 映像配信方法及びサーバ
JP6369538B2 (ja) * 2014-04-25 2018-08-08 ソニー株式会社 情報処理装置、情報処理方法、コンピュータ読み取り可能な媒体および撮像システム
KR102165450B1 (ko) * 2014-05-22 2020-10-14 엘지전자 주식회사 무인 항공기를 제어하는 포터블 디바이스 및 그 제어 방법
US9599985B2 (en) * 2014-06-13 2017-03-21 Twitter, Inc. Messaging-enabled unmanned aerial vehicle
CN107168352B (zh) * 2014-07-30 2020-07-14 深圳市大疆创新科技有限公司 目标追踪系统及方法
CN104811615A (zh) * 2015-04-17 2015-07-29 刘耀 一种体感控制摄像系统及方法
US10065739B2 (en) * 2015-06-22 2018-09-04 Elwha Llc Systems and methods for drone tracking of airborne materials
JP2017201757A (ja) * 2016-05-06 2017-11-09 キヤノン株式会社 画像取得システム、画像取得方法、画像処理方法

Also Published As

Publication number Publication date
KR102086937B1 (ko) 2020-03-09
JP2020115642A (ja) 2020-07-30
EP3397554A4 (en) 2019-08-14
US20170220037A1 (en) 2017-08-03
EP3397554B1 (en) 2021-03-03
JP2019514236A (ja) 2019-05-30
CN108602561A (zh) 2018-09-28
CN108602561B (zh) 2021-08-06
US10416667B2 (en) 2019-09-17
EP3397554A1 (en) 2018-11-07
KR20180100608A (ko) 2018-09-11
WO2017136231A1 (en) 2017-08-10
JP6694169B2 (ja) 2020-05-13

Similar Documents

Publication Publication Date Title
JP6885485B2 (ja) 複数カメラネットワークを利用して静止シーン及び/又は移動シーンを取り込むためのシステム及び方法
CN106529495B (zh) 一种飞行器的障碍物检测方法和装置
US10594941B2 (en) Method and device of image processing and camera
WO2018095278A1 (zh) 飞行器的信息获取方法、装置及设备
WO2019155335A1 (en) Unmanned aerial vehicle including an omnidirectional depth sensing and obstacle avoidance aerial system and method of operating same
WO2018120350A1 (zh) 对无人机进行定位的方法及装置
US20210255644A1 (en) Determining control parameters for formation of multiple uavs
WO2018120351A1 (zh) 一种对无人机进行定位的方法及装置
US11095870B1 (en) Calibration of cameras on unmanned aerial vehicles using human joints
CN112672133A (zh) 基于无人机的立体成像方法和装置、计算机可读存储介质
CN112991440A (zh) 车辆的定位方法和装置、存储介质和电子装置
WO2020019175A1 (zh) 图像处理方法和设备、摄像装置以及无人机
JP2018009918A (ja) 自己位置検出装置、移動体装置及び自己位置検出方法
WO2022000245A1 (zh) 飞行器的定位方法、辅助定位系统的控制方法和装置
CN114651280A (zh) 多无人机视觉内容捕获系统
CN113313841A (zh) 一种基于云存储服务的ar方法、装置、电子设备及存储介质
WO2019100214A1 (zh) 输出影像生成方法、设备及无人机
CN112262074A (zh) 摄像方法
CN112154477A (zh) 图像处理方法、装置和可移动平台
CN110892354A (zh) 图像处理方法和无人机
KR102556642B1 (ko) 기계 학습 훈련을 위한 데이터 생성방법
KR102483388B1 (ko) 전방위 이미지 처리 방법 및 이를 수행하는 서버
Yu et al. Feedback-control-aided image stitching using multi-UAV platform
CN117788276A (zh) 一种面向环视立体感知应用的鱼眼图像校正方法及系统
CN115729256A (zh) 无人机的环绕飞行方法、系统、终端设备以及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210426

R151 Written notification of patent or utility model registration

Ref document number: 6885485

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151