JP7310811B2 - 制御装置および方法、並びにプログラム - Google Patents

制御装置および方法、並びにプログラム Download PDF

Info

Publication number
JP7310811B2
JP7310811B2 JP2020527376A JP2020527376A JP7310811B2 JP 7310811 B2 JP7310811 B2 JP 7310811B2 JP 2020527376 A JP2020527376 A JP 2020527376A JP 2020527376 A JP2020527376 A JP 2020527376A JP 7310811 B2 JP7310811 B2 JP 7310811B2
Authority
JP
Japan
Prior art keywords
photographing
imaging
image
control unit
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020527376A
Other languages
English (en)
Other versions
JPWO2020004029A1 (ja
Inventor
圭祐 千田
拓郎 川合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020004029A1 publication Critical patent/JPWO2020004029A1/ja
Application granted granted Critical
Publication of JP7310811B2 publication Critical patent/JP7310811B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/04Control of altitude or depth
    • G05D1/06Rate of change of altitude or depth
    • G05D1/0607Rate of change of altitude or depth specially adapted for aircraft
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本技術は、制御装置および方法、並びにプログラムに関し、特に、最適な撮影条件で撮影することができるようにした制御装置および方法、並びにプログラムに関する。
地図の作成用の航空写真などを、ドローンを用いて撮影する場合、撮影計画を事前に決める必要がある。従来、所望の撮影解像度と撮影エリアを指定することで、最短の経路と撮影箇所が算出される提案があった。
特許文献1には、ドローン搭載用のカメラユニットとして、土地の状況をマッピングするカメラユニットが提案されている。
特開2017-15704号公報
風や障害物、逆光などの外乱により計画通りに撮影できない場合の対応が困難であった。このような場合、撮影し直したり、撮影時に有人のモニタリングをしたりすることが必要であった。
本技術はこのような状況に鑑みてなされたものであり、最適な撮影条件で撮影することができるようにするものである。
本技術の一側面の制御装置は、移動体に備えられた撮影装置により撮影された画像の解析結果に基づいて、予め設定された撮影条件を修正する制御部と、修正された前記撮影条件に基づいて前記移動体の駆動を制御する駆動制御部とを備え、前記制御部は、前記画像の周波数成分またはぶれ量の解析結果に基づいて前記撮影条件を修正し、前記駆動制御部は、前記画像の周波数成分の解析結果に基づいて前記撮影条件が修正された場合、修正された前記撮影条件に基づいて前記移動体の撮影高度または前記移動体の撮影間隔を変更し、前記画像のぶれ量の解析結果に基づいて前記撮影条件が修正された場合、修正された前記撮影条件に基づいて前記移動体の速度を変更する。
本技術の一側面においては、移動体に備えられた撮影装置により撮影された画像の解析結果に基づいて撮影条件が修正され、修正された前記撮影条件に基づいて前記移動体の駆動が制御される。そして、前記画像の周波数成分またはぶれ量の解析結果に基づいて前記撮影条件が修正され、前記画像の周波数成分の解析結果に基づいて前記撮影条件が修正された場合、修正された前記撮影条件に基づいて前記移動体の撮影高度または前記移動体の撮影間隔が変更され、前記画像のぶれ量の解析結果に基づいて前記撮影条件が修正された場合、修正された前記撮影条件に基づいて前記移動体の速度が変更される。
本技術によれば、最適な撮影条件で撮影することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した移動体制御システムを示す図である。 撮影処理の流れを説明する図である。 撮影条件の詳細な例を示す図である。 撮影範囲と撮影経路の例を示す図である。 撮影箇所、撮影間隔、撮影高度、移動速度の例を示す図である。 オーバラップ量の例を示す図である。 移動体の構成例を示すブロック図である。 撮影画像の帯域を解析することで、撮影高度を修正する例を示す図である。 図8の制御処理について説明するフローチャートである。 撮影画像の帯域と撮影高度の関係の例を示す図である。 撮影画像の帯域を解析することで、オーバラップ量を修正する例を示す図である。 シャッタ1回でのレンズに取り込まれる範囲を模式的に示す図である。 シャッタの連続する複数回でのレンズに取り込まれる範囲を模式的に示す図である。 図11の制御処理について説明するフローチャートである。 撮影画像の帯域とオーバラップ量の関係の例を示す図である。 撮影画像のぶれ量を解析することで、移動速度を修正する例を示す図である。 図16の制御処理について説明するフローチャートである。 画像のぶれ量と移動速度の関係の例を示す図である。 撮影画像の撮影成否を判定することで、撮影経路を修正する例を示す図である。 図19の制御処理について説明するフローチャートである。 移動体の残電力を解析することで、撮影高度または移動速度を修正する例を示す図である。 図21の制御処理について説明するフローチャートである。 撮影画像の帯域と撮影高度の関係を示す図である。 撮影完了時の残電力予測量と補正量の関係を示す図である。 本技術を適用した移動体制御システムの他の例を示すブロック図である。 2つの移動体の電力を解析することで、撮影範囲を修正する例を示す図である。 図26の制御処理について説明するフローチャートである。 2つの移動体の撮影完了時の残電力予測量の関係を示す図である。 コンピュータの構成例を示す図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.第1の実施の形態(移動体)
2.第2の実施の形態(移動体+制御装置)
3.コンピュータ
<1.第1の実施の形態>
<移動体制御システムの例>
図1は、本技術を適用した移動体制御システムを示す図である。
図1に示されるように、移動体制御システム1には、カメラなどの撮影部21を有する移動体11が含まれる。図1に示す移動体11は、無人飛行が可能な航空機であるいわゆるドローンである。ロボット、車、台車などの、自律的に移動が可能な移動体が移動体11として用いられるようにしてもよい。
移動体11を用いてある地域を撮影する場合、撮影計画を事前に決める必要がある。移動体11においては、ユーザが、所望の撮影解像度と撮影エリアを指定することで、経路や撮影箇所などの撮影条件が設定される。
移動体11は、設定された撮影条件に基づいて移動しながら、撮影部21を制御して被写体を撮影する。
また、移動体11は、撮影部21により撮影された画像の解析結果に基づいて、事前に設定された撮影条件を修正する。移動体11においては、修正された撮影条件に基づいて、移動や撮影タイミングが制御される。
<撮影処理の流れ>
図2を参照して、撮影処理の流れを説明する。
図2のAには、従来の移動体の撮影処理の流れが簡易的に示されている。
図2のAの例においては、撮影前に撮影条件が作成され、その後、矢印#1の先に示すように、作成された撮影条件に基づいて撮影が行われる。撮影終了後、矢印#2の先に示すように、撮影画像が例えばPCなどに取り込まれることによって取得され、矢印#3の先に示すように画像合成が行われることによって高解像度画像が生成される。また、矢印#4の先に示すように画像認識が行われることによって、移動体の制御が行われる。
このように、従来においては、移動体は、予め設定された撮影条件通りに撮影することしかできない。したがって、例えば、風や障害物、逆光などの外乱により、条件通りに撮影できない場合、撮影し直したり、有人のモニタリングをしたりする必要があった。
図2のBには、図1の移動体制御システム1における撮影処理の流れが簡易的に示されている。
図2のBの例においては、撮影前に撮影条件が作成され、その後、矢印#11の先に示すように、作成された撮影条件に基づいて撮影が行われる。
撮影終了後、矢印#12の先に示すように、撮影画像が例えばPCなどに取り込まれることによって取得され、矢印#13の先に示すように画像合成が行われることによって高解像度画像が生成される。また、矢印#14の先に示すように画像認識が行われることによって、移動体の制御が行われる。
ここまでは、図2のAに示す撮影処理の流れと同様であるが、移動体制御システム1においては、矢印#15の先に示すように、撮影終了前に、撮影された画像の解析が行われる。また、解析結果に基づいて、矢印#16の先に示すように撮影条件が修正される。撮影条件の修正後、修正された撮影条件に基づいて撮影が行われる。
撮影条件に応じた撮影、撮影された画像の解析、画像の解析結果に基づく撮影条件の修正が、撮影終了までの間、ユーザの操作によらずに自動的に繰り返される。
これにより、移動体制御システム1においては、撮影し直すことなく、撮影するときの状況に応じた撮影条件での撮影を行うことができる。
<撮影条件の詳細>
図3は、撮影条件の例を示す図である。
図3に示されるように、撮影条件には、移動体に関する6つの撮影条件と、カメラに関する2つの撮影条件がある。
移動体に関する撮影条件には、例えば、撮影高度、撮影範囲、撮影経路、撮影箇所、撮影時移動速度、およびオーバラップ量(サイドオーバラップ量)がある。
撮影高度は、地面(標準面)からの撮影(飛行)高さである。
撮影範囲は、撮影対象範囲(面積)である。
撮影経路は、飛行順序である。撮影経路は、通常、撮影範囲を一筆書きで網羅するように設定される。
撮影箇所は、撮影時のシャッタを開閉している間に移動体が存在している位置である。
撮影時移動速度は、撮影時の移動体の移動速度または飛行速度である。撮影時移動速度が速いと撮影結果がぶれてしまう可能性がある。なお、撮影時移動速度を、以下、移動速度と称する。
オーバラップ量は、移動体が直進するときの合成する画像の重なり範囲の量である。サイドオーバラップ量は、移動体が曲がるときの合成する画像の重なり範囲の量である。オーバラップ量およびサイドオーバラップ量は、シャッタ1回の撮影範囲に対してどのくらい重なるかという割合で表される。
カメラに関する撮影条件には、例えば、撮影画像保存解像度と撮影露光時間がある。
撮影画像保存解像度は、撮影画像を保存する際の単位面積当たりのピクセル数である。撮影画像保存解像度が大きいほど、精細な物体が描写できる。
撮影露光時間は、1回の撮影のシャッタ開閉時間である。撮影露光時間が長ければ明るく撮影できるが、ぶれやすい。
図4は、撮影条件としての撮影範囲と撮影経路の例を示す図である。
図4には、ある範囲の地図または航空写真が示されている。図3の撮影条件としての撮影範囲は、破線で囲む範囲で表される。図3の撮影条件としての撮影経路は、撮影範囲とその縁近傍を一筆書きで繋ぐ実線で表される。
図5は、撮影条件としての撮影箇所、撮影間隔、撮影高度、移動速度の例を示す図である。
図5には、移動体11が地面を撮影している様子が示されている。図5において、シャッタ1回の撮影範囲は、三角形の底辺で表される。図4を参照して説明した撮影範囲の撮影を行う場合、複数回の撮影が行われる。
また、図3の撮影条件における撮影箇所は、三角形の頂点にある黒丸で表される。撮影間隔は、黒丸と黒丸の間で表される。図3の撮影条件における撮影高度は、移動体11から地面までの矢印で表される。図3の撮影条件における移動速度は、移動体11から右を差す矢印で表される。
図6は、オーバラップ量の例を示す図である。
図6のAの破線矢印で示すように上方向に移動しながら、一点鎖線で示される画像I1と破線で示される画像I2の撮影が行われた場合、画像I1と画像I2の重複する量がオーバラップ量となる。
図6のBの破線矢印で示すように上方向、左方向、左方向に移動しながら一点鎖線で示される画像I11と破線で示される画像I12の撮影が行われた場合、画像I11と画像I12の重複する量がサイドオーバラップ量となる。
<移動体の構成例>
図7は、移動体の構成例を示すブロック図である。
移動体11は、電力供給部51および動作部52により構成される。
電力供給部51は、電池と電力を供給する回路などにより構成される。電力供給部51は、動作部52に対して電力を供給する。また、電力供給部51は、残電力情報などの情報を動作部52に出力する。残電力情報により、計測が行われたタイミングにおける電池の残電力量が表される。
動作部52は、上述した撮影部21の他に、制御部61、センシング部62、駆動制御部63、および解析部64により構成される。動作部52の各部は、電力供給部51から供給された電力によって動作する。
撮影部21は、制御部61から供給された撮影指示に基づいて撮影を行う。撮影部21は、撮影によって得られた撮影画像を解析部64に出力する。
制御部61は、CPU、ROM、RAMなどにより構成され、所定のプログラムを実行することにより移動体11の全体の動作を制御する。制御部61は、ユーザからの入力に基づいて、移動体11の撮影条件を作成し、内部のメモリに記憶する。
また、制御部61は、撮影部21により撮影された画像の解析結果に基づいて、予め設定された撮影条件を修正する。
具体的には、制御部61は、解析部64から供給された解析結果に基づいて、撮影条件を修正するための撮影条件の修正値を算出する。制御部61は、算出した修正値に基づいて撮影条件を修正し、修正した撮影条件を駆動制御部63に出力する。このような方法により、例えば、撮影条件のうち、撮影高度、撮影速度、オーバラップ量、撮影経路、および撮影範囲が修正される。
また、制御部61は、電力供給部51から供給された残電力情報に基づいて、全撮影終了時の残電力予測量を算出する。制御部61は、算出した残電力予測量にも基づいて、撮影条件を修正する。
センシング部62は、高度、姿勢、速度などを検出する各種のセンサからなる。センシング部62は、高度、姿勢、速度などの検出結果を表すセンシング情報を駆動制御部63に出力する。
駆動制御部63は、修正された撮影条件に基づいて移動体11の駆動を制御する。例えば、駆動制御部63は、撮影条件に基づいてモータなどを駆動させ、移動体11を所望の位置に移動させる。また、駆動制御部63は、移動体11が撮影条件どおりの動作をしていない場合、センシング部62から供給されたセンシング情報を用いて、モータなどの駆動を補正する。
解析部64は、撮影部21から供給された撮影画像を解析し、特徴量などの解析結果を制御部61に出力する。解析は、リアルタイムに行われる。
<帯域の解析による撮影高度の修正>
図8は、撮影画像の帯域を解析することで、撮影高度を修正する例を示す図である。
撮影画像の帯域の解析は、撮影画像の空間周波数として、例えば、どの周波数成分が多いかを解析するようにして行われる。撮影画像が低帯域であることは、低い周波数成分が多い、なだらかな画像であることを意味し、撮影画像が高帯域であることは、高い周波数成分が多い、細かい画像であることを意味する。
移動体11による撮影が、撮影高度H、1回の撮影範囲W、撮影間隔Pで行われているものとする。
図8のAに示されるように、撮影画像の帯域の解析結果が低帯域である場合、移動体11においては、撮影高度を、撮影高度H1(>H)に上げるように修正される。
撮影高度が撮影高度H1に上がった場合、撮影画像は、撮影高度Hの場合の画像よりも、細かさが表現できない、低い解像性を有する画像となる。その反面、1回に撮影できる撮影範囲W1(>W)が広くなるため、撮影箇所の間隔P1も広くなる。また、撮影シャッタ回数が少なくなり、撮影に要する時間が短くなる。
一方、図8のBに示されるように、撮影画像の帯域の解析結果が高帯域である場合、移動体11においては、撮影高度を、撮影高度H2(<H)に下げるように修正される。
撮影高度が撮影高度H2に下がった場合、撮影画像は、撮影高度Hの場合の画像よりも、より細かく表現可能な、高い解像性を有する画像となる。その反面、1回に撮影できる撮影範囲W2(<W)が狭くなる。また、撮影シャッタ回数が多くなり、撮影に要する時間が長くなる。
以上のように、撮影画像の帯域、すなわち、被写体の細かさに応じて撮影高度を修正し、修正後の撮影高度で制御することにより、適切な品質での撮影が可能となる。
なお、帯域の解析に用いる撮影画像の具体的な範囲と帯域の解析方法については、以下が考えられる。
(a)シャッタ1回の撮影画像の全体を解析に用いる。
(b)シャッタ1回の撮影画像の非オーバラップ部分のみを解析に用いる。
(c-1)画像認識技術を用いて、予め設定した特定の被写体を認識し、特定の被写体の写っている範囲のみを解析に用いる。
(c-2)設定した特定の被写体が映っていれば、範囲と帯域によらず、撮影高度を下げるという動作でもよい。
(a)の場合、画素値の急激な変化が平滑化されるので、安定した制御を行うことができる。
撮影画像のオーバラップ部分は重なってしまうことから、実際に撮影画像として用いられない可能性があるが、(b)の場合の非オーバラップ部分は、実際に撮影画像として用いる画像箇所を限定するので、精度が高い。
なお、(c-2)の逆で、特定の被写体が認識不能だった場合、細かく撮影を行うために高度を下げるという制御が行われるようにしてもよい。
次に、図9のフローチャートを参照して、移動体制御システム1による図8の制御処理について説明する。
ステップS11において、制御部61は、撮影高度を設定する。
ステップS12において、駆動制御部63は、飛行・撮影を開始する。
ステップS13において、撮影部21は、シャッタ1回の撮影を行う。撮影部21は、撮影により得られた撮影画像を解析部64に出力する。
ステップS14において、制御部61は、全撮影範囲での撮影が完了したか否かを判定する。ステップS14において、全撮影範囲での撮影が完了していないと判定された場合、処理はステップS15に進む。
ステップS15において、解析部64は、撮影画像の帯域を解析する。解析部64は、撮影画像の帯域の解析結果を制御部61に出力する。
ステップS16において、制御部61は、解析結果に基づいて、撮影高度を修正するための修正値を算出する。撮影高度の修正値は、図10に示されるようなグラフを用いて算出される。
図10には、撮影画像の帯域と撮影高度の関係が示されている。図10に示すように、撮影画像の帯域が高帯域になるにつれて、撮影高度が低くなる。例えば、ユーザにより予め設定された図10に示すような関係を表す情報が、制御部61のメモリに記憶されている。
制御部61は、撮影画像の帯域の解析結果に応じた修正値に基づいて撮影高度を修正し、修正した撮影高度を駆動制御部63に出力する。
ステップS17において、駆動制御部63は、制御部61から供給された修正後の撮影高度に基づいて撮影高度を変更する。
一方、ステップS14において、全撮影範囲での撮影が完了したと判定された場合、制御処理は終了される。
<帯域の解析によるオーバラップ量の修正>
図11は、撮影画像の帯域を解析することで、オーバラップ量を修正する例を示す図である。
移動体11による撮影が、1回の撮影範囲W、オーバラップ量R、撮影間隔Pで行われている。
図11のAに示されるように、撮影画像の帯域の解析結果が低帯域である場合、移動体11においては、オーバラップ量Rを、オーバラップ量R3(<R)に減らすように修正される。なお、図11のAの場合、オーバラップ量R3はほぼ0である。
オーバラップ量を減らすことは、撮影間隔を広げることと同じである。図11のAでは、撮影間隔を撮影間隔P3(>P)に広げるように修正される。
オーバラップ量がオーバラップ量R3に減った場合、撮影画像は、細かさが表現できない、低い解像性を有する画像となる。その反面、撮影箇所の間隔P3も広くなる。また、撮影シャッタ回数が少なくなり、撮影に要する時間が短くなる。
一方、図11のBに示されるように、撮影画像の帯域の解析結果が高帯域であった場合、移動体11においては、オーバラップ量を、オーバラップ量R4(>R)に増やすように修正される。
オーバラップ量を増やすことは、撮影間隔を狭くすることと同じであるので、図11のBでは、撮影間隔を撮影間隔P4(>P)に狭くするように制御される。
オーバラップ量が、オーバラップ量R4に増した場合、撮影画像は、より細かく表現可能な高い解像性を有する画像となる。その反面、撮影箇所の間隔P4も広くなり、撮影シャッタ回数が多くなり、撮影に要する時間が長くなる。
以上のように、撮影画像の帯域、すなわち、被写体の細かさに応じてオーバラップ量を修正し、修正後のオーバラップ量に基づいて位置制御することにより、適切な品質での撮影が可能となる。
図12は、シャッタ1回でのレンズに取り込まれる範囲を模式的に示す図である。
図12の実線の円は、シャッタ1回でのレンズに取り込まれる範囲を示しており、破線の円は、撮影画像の中心点Cに近い領域を示している。
一般的に、撮影解像度は、中心点に近い領域においては高くなる。破線の円に示されるように、撮影画像の中心点Cに近い領域においては、撮影解像度が高く、端に向かうにつれて低下する。なお、撮影解像度の低下の程度はレンズ特性によって異なる。
図13は、シャッタの連続する複数回でのレンズに取り込まれる範囲を模式的に示す図である。
図13には、シャッタの連続する複数回でのレンズに取り込まれる範囲のオーバラップ領域が示されている。
図13のAに示されるように、オーバラップ領域のオーバラップ量R5が小さい場合、実際に出力する撮影画像として、撮影解像度の低い領域も使用しなければならない。
これに対して、図13のBに示されるように、オーバラップ領域のオーバラップ量R6が大きい場合、実際に出力する撮影画像として、撮影解像度の高い領域を使用することになる。
このように、オーバラップ量が大きいほど、品質のよい撮影画像を得ることができる。
次に、図14のフローチャートを参照して、移動体制御システム1による図11の制御処理について説明する。
ステップS21において、制御部61は、オーバラップ量を設定する。
ステップS22において、駆動制御部63は、飛行・撮影を開始する。
ステップS23において、撮影部21は、シャッタ1回の撮影を行う。撮影部21は、撮影により得られた撮影画像を、解析部64に出力する。
ステップS24において、制御部61は、全撮影範囲での撮影が完了したか否かを判定する。ステップS24において、全撮影範囲での撮影が完了していないと判定された場合、処理は、ステップS25に進む。
ステップS25において、解析部64は、撮影画像の帯域を解析する。解析部64は、撮影画像の帯域の解析結果を制御部61に出力する。
ステップS26において、制御部61は、解析結果に基づいて、オーバラップ量を修正するための修正値を算出する。オーバラップ量の修正値は、図15に示されるようなグラフを用いて算出される。
図15には、撮影画像の帯域とオーバラップ量の関係が示されている。図15に示すように、撮影画像の帯域が高帯域になるにつれて、オーバラップ量が大きくなる。例えば、ユーザにより予め設定された図15に示すような関係を表す情報が、制御部61のメモリに記憶されている。
制御部61は、撮影画像の帯域の解析結果に応じた修正値に基づいて、オーバラップ量を修正し、修正したオーバラップ量を駆動制御部63に出力する。
ステップS27において、駆動制御部63は、制御部61から供給された修正後のオーバラップ量に基づいてオーバラップ量を変更する。
一方、ステップS24において、全撮影範囲での撮影が完了したと判定された場合、制御処理は終了される。
<撮影画像のぶれ量の解析による移動速度の修正>
図16は、撮影画像のぶれ量を解析することで、移動速度を修正する例を示す図である。
撮影画像にぶれが発生しやすい条件としては、明るさが暗いとき、飛行時の風の強いとき、撮影部を構成するカメラの絞りを小さくしているとき(被写体深度を深くする)などがあげられる。
移動体11が移動速度Vで移動しているものとする。
図16のAに示されるように、撮影画像のぶれ量が所定の閾値より大きく、解析結果がぶれありとされる場合、移動体11においては、移動速度を、移動速度V1(<V)に下げるように修正される。
移動速度が移動速度V1に下がった場合、ぶれが少ない撮影が可能になる。その反面、移動速度が遅くなるため、撮影に要する時間が長くなる。
一方、図16のBに示されるように、移動速度Vで撮影している移動体11による撮影画像のぶれ量が所定の閾値より小さく、解析結果がぶれなしとされる場合、移動体11においては、移動速度を、移動速度V2(>V)に上げるように修正される。
移動速度が移動速度V2に上がった場合、ぶれが少ない状態で、移動速度が速くなるため、撮影に要する時間を短くすることができる。その反面、ぶれが生じやすくなってしまう。
以上のように、撮影画像のぶれの量に応じて移動速度を修正し、修正後の移動速度に基づいて移動体11を制御することにより、適切な品質での撮影が可能となる。
次に、図17のフローチャートを参照して、移動体制御システム1による図16の制御処理について説明する。
ステップS41において、制御部61は、撮影速度を設定する。
ステップS42において、駆動制御部63は、飛行・撮影を開始する。
ステップS43において、撮影部21は、シャッタ1回の撮影を行う。撮影部21は、撮影により得られた撮影画像を、解析部64に出力する。
ステップS44において、制御部61は、全撮影範囲での撮影が完了したか否かを判定する。ステップS44において、全撮影範囲での撮影が完了していないと判定された場合、処理は、ステップS45に進む。
ステップS45において、解析部64は、撮影画像のぶれ量を、所定の閾値と比較することで解析する。解析部64は、撮影画像のぶれ量の解析結果を、制御部61に出力する。
ステップS46において、制御部61は、解析結果に基づいて、撮影速度を修正するための修正値を算出する。撮影速度の修正値は、図18に示されるようなグラフを用いて算出される。
図18には、画像のぶれ量と移動速度の関係が示されている。図18に示すように、撮影画像のぶれ量が大きくなるにつれて、移動速度が遅くなる。例えば、ユーザにより予め設定された図18に示すような関係を表す情報が、制御部61のメモリに記憶されている。
制御部61は、撮影画像のぶれ量の解析結果に応じた修正値に基づいて移動速度を修正し、修正した移動速度を駆動制御部63に出力する。
ステップS47において、駆動制御部63は、制御部61から供給された修正後の移動速度に基づいて移動速度を変更する。
一方、ステップS44において、全撮影範囲での撮影が完了したと判定された場合、制御処理は終了される。
<撮影画像の撮影成否判定による撮影経路の修正>
図19は、撮影画像の撮影成否を判定することで、撮影経路を修正する例を示す図である。
撮影画像の撮影成否判定では、例えば、撮影画像のぶれ量が所定の閾値を超えた場合などに判定結果が撮影失敗とされる。撮影画像のぶれ量が所定の閾値を超えていない場合、判定結果が撮影成功となる。
図19のAに示されるように、撮影画像の撮影成否判定の結果が撮影失敗であった場合、移動体11は、1つ前の撮影箇所に戻って再撮影するように撮影経路が修正される。このとき、撮影高度は変化しない。なお、1つ前の撮影箇所に限らず、2つ前の撮影箇所に戻るようにしてもよい。
一方、図19のBに示されるように、撮影画像の撮影成否判定の結果が撮影成功であった場合、撮影条件に沿った撮影経路での撮影が継続される。
以上のように、撮影画像の撮影成否判定の結果が、撮影失敗の場合、撮影経路を修正し、移動体11を、1つ前の撮影箇所まで戻り撮影し直すように制御する。これにより、全撮影終了後に撮影を失敗した箇所を再撮影していた従来と比して、撮影にかかる時間を短縮することができる。
次に、図20のフローチャートを参照して、移動体制御システム1による図19の制御処理について説明する。
ステップS61において、制御部61は、撮影経路を設定する。
ステップS62において、駆動制御部63は、飛行・撮影を開始する。
ステップS63において、撮影部21は、シャッタ1回の撮影を行う。撮影部21は、撮影により得られた撮影画像を、解析部64に出力する。
ステップS64において、制御部61は、全撮影範囲での撮影が完了したか否かを判定する。ステップS64において、全撮影範囲での撮影が完了していないと判定された場合、処理は、ステップS65に進む。
ステップS65において、解析部64は、撮影画像を解析する。解析部64は、撮影画像の解析結果を、制御部61に出力する。
ステップS66において、制御部61は、解析結果に基づいて、撮影が成功したか否かを判定する、撮影画像の撮影成否判定を行う。ステップS66において、撮影が成功したと判定された場合、ステップS63に戻り、それ以降の処理が繰り返される。
ステップS66において、撮影が失敗したと判定された場合、ステップS67に進む。
制御部61は、1つ前の撮影箇所への経路を含むように修正されている撮影経路の修正値で、撮影条件の撮影経路を修正し、修正した撮影経路を駆動制御部63に出力する。
ステップS67において、駆動制御部63は、制御部61から供給された修正後の撮影経路に基づいて1つ前の撮影箇所に行き先(撮影経路)を変更して移動し、撮影を行う。
<残電力の解析による撮影高度の修正>
図21は、移動体の残電力を解析することで、撮影高度または移動速度を修正する例を示す図である。
例えば、撮影画像の帯域の解析結果が低帯域であった場合、移動体11においては、撮影高度を、撮影高度Hでの移動を続けるように同じ値の撮影高度が算出される。撮影高度を変更する場合には、撮影高度の修正値が算出される。
その際、残電力の予測が行われる。撮影終了までの電力が足りると予測されたとき、算出した撮影高度に基づく制御が行われる。一方、撮影終了までの電力が足りないと予測されたとき、算出された撮影高度よりも電力を用いない撮影高度、例えば、撮影高度H3(=1/2H)に補正される。
移動速度の場合も同様に修正、補正される。
以上のように、残電力に基づいて、撮影高度または撮影高度の修正値を補正するようにした。これにより、残電力を効率よく使用して、最後まで撮影を行うことができる。
次に、図22のフローチャートを参照して、移動体制御システム1による図21の制御処理について説明する。
なお、図22のステップS81乃至S85の処理は、図9のステップS11乃至S15の処理と同様の処理である。重複する説明については適宜省略する。
ステップS86において、制御部61は、撮影画像の帯域の解析結果に基づいて、撮影高度の修正値を算出する。撮影高度の修正値は、図23に示されるようなグラフを用いて算出される。
図23には、撮影画像の帯域と撮影高度の関係が示されている。図23の例においては、撮影画像の帯域が、低帯域、中帯域、高帯域の3つの範囲に区切られている。低帯域の範囲においては、低帯域になるにつれて撮影高度が高くなる。中帯域の範囲においては、撮影高度は一定である。高帯域の範囲においては、高帯域になるにつれて撮影高度が低くなる。ユーザにより予め設定された図23に示すような関係を表す情報が、制御部61のメモリに記憶されている。
ステップS87において、制御部61は、残電力を予測する。
ステップS88において、制御部61は、残電力予測量に基づいて、撮影高度の修正値を補正する。撮影高度の修正値の補正は、例えば、修正値に補正量を乗算することで行われる。補正量は、図24に示されるようなグラフを用いて算出される。
図24には、撮影完了時の残電力予測量と補正量の関係が示されている。
図24のグラフに示されるように、撮影完了時の残電力予測量が所定の電力量を表す値α以上ある場合、補正量は1.0とされる。また、撮影完了時の残電力予測量が値αより少ない場合、残電力予測量に応じて補正量も0に近づくものとされる。図24に示すような関係を表す情報が、制御部61のメモリに記憶されている。
制御部61は、撮影画像の帯域の解析結果に応じた撮影高度の修正値に補正量を乗算して、撮影条件の撮影高度を修正し、修正した撮影高度を駆動制御部63に出力する。
ステップS89において、駆動制御部63は、制御部61から供給された修正後の撮影高度に基づいて撮影高度を変更する。
一方、ステップS84において、全撮影範囲での撮影が完了したと判定された場合、制御処理は終了される。
<2.第2の実施の形態>
以上においては、移動体制御システムが移動体単体から構成される場合について説明したが、移動体制御システムが、移動体と、解析部および制御部を備えた制御装置とから構成されるようにしてもよい。
<移動体と制御装置からなる移動体制御システムの例>
図25は、本技術を適用した移動体制御システムの他の例を示すブロック図である。
図25に示されるように、移動体制御システム101は、移動体111および制御装置112から構成される。なお、図7と対応する部分には同じ符号が付けられる。
図25の移動体制御システム101の構成は、制御部61および解析部64が制御装置112に設けられる点で、図7の構成と異なる。すなわち、移動体の制御が移動体により自律的に行われるのではなく、外部の装置である制御装置112により行われる。
また、図25の移動体制御システム101においては、移動体111および制御装置112に、それぞれ、受信部および送信部が設けられる。移動体111と制御装置112の間では、無線通信などにより、撮影条件の伝送が随時行われる。なお、ある程度の伝送インターバルはあってもよいが、その場合、遅延が起こり、制御の精度が低下する恐れがある。
具体的には、移動体111は、図1の移動体11と同様に、撮影部21を有するドローンやロボット、車、台車などからなる。
移動体111は、電力供給部51および動作部121より構成される。
動作部121は、上述した撮影部21、センシング部62、駆動制御部63の他に、送信部131および受信部132より構成される。動作部121の各部は、電力供給部51から供給された電力によって動作する。
送信部131は、撮影部21から供給された撮影画像と、電力供給部51から供給された残電力情報などの情報を、制御装置112に送信する。
受信部132は、制御装置112から送信されてくる撮影条件を受信し、駆動制御部63に出力する。受信部132は、制御装置112から送信されてくる撮影指示を受信し、撮影部21に出力する。
制御装置112は、パーソナルコンピュータ、タブレット端末、スマートフォンなどで構成される。制御装置112は、図9の制御部61および解析部64、受信部141、並びに送信部142により構成される。
受信部141は、移動体111から送信されてくる撮影画像および残電力情報を受信し、解析部64に出力する。
送信部142は、制御部61から供給された撮影指示と、制御部61から供給された撮影条件などの情報を移動体111に送信する。
このような構成を有する移動体制御システムにおいて、上述したような撮影条件の修正が制御装置112により行われる。
<2つの移動体の残電力による撮影範囲の修正>
図26は、2つの移動体の残電力を解析することで、撮影範囲を修正する例を示す図である。
2つの移動体111Aおよび移動体111Bで全撮影範囲を撮影する。移動体111Aおよび移動体111Bは、図25の移動体111の構成と同様の構成である。撮影前の撮影条件では、移動体111Aの撮影範囲の大きさと移動体111Bの撮影範囲の大きさは略同じである。
制御装置112は、移動体111Aと移動体111Bからの撮影画像を解析して、撮影画像の解析結果に基づいて、撮影高度や撮影速度の修正値を算出する。また、制御装置112は、移動体111Aと移動体111Bからの残電力情報に基づいて、撮影完了時の残電力を予測する。
移動体111Aの残電力が不足する場合、図26の白抜き矢印に示されるように、制御装置112は、移動体111Aの撮影範囲の一部を減らした撮影範囲の修正値を算出する。制御装置112は、算出した撮影範囲の修正値で、撮影条件の撮影範囲を修正し、修正した撮影範囲を移動体111Aに送信する。
また、制御装置112は、移動体111Bの撮影範囲の一部を増やした撮影範囲の修正値を算出する。制御装置112は、算出した撮影範囲の修正値で、撮影条件の撮影範囲を修正し、修正した撮影範囲を移動体111Bに送信する。
移動体111Aの撮影範囲の一部を移動体111Bに受け渡すように撮影範囲の修正を行うことで、残電力を効率よく使用して、最後まで撮影を行うことができる。
次に、図27のフローチャートを参照して、移動体制御システム101による図26の制御処理について説明する。
ステップS111において、制御部61は、移動体111Aおよび移動体111Bの撮影範囲を設定する。
ステップS112において、駆動制御部63は、飛行・撮影を開始する。
ステップS113において、撮影部21は、シャッタ1回の撮影を行う。撮影部21は、撮影により得られた撮影画像を、解析部64に出力する。
ステップS114において、制御部61は、移動体111Aおよび移動体111Bのそれぞれが担当の撮影範囲での撮影が完了したか否かを判定する。ステップS114において、担当の撮影範囲での撮影が完了していないと判定された場合、処理は、ステップS115に進む。
ステップS115において、解析部64は、撮影画像を解析する。解析部64は、撮影画像の解析結果を、制御部61に出力する。
ステップS116において、制御部61は、解析結果に基づいて、移動体111Aおよび移動体111Bの制御を行う。例えば、撮影条件のうち、撮影高度、移動速度、オーバラップ量などが、上述したように制御される。
ステップS117において、制御部61は、制御装置112は、移動体111Aと移動体111Bからの残電力情報に基づいて、残電力を予測する。
ステップS118において、制御部61は、移動体111Aおよび移動体111Bの予測した残電力を示す情報である残電力予測量に基づいて、撮影範囲の修正値を算出する。撮影範囲の修正値は、各移動体111Aおよび移動体111Bへの撮影範囲の割り当ての増減に基づいて算出される。
割り当ての増減は、図28に示されるようなグラフを用いて求められる。
図28には、移動体111Aの撮影完了時の残電力予測量と移動体111Bの撮影完了時の残電力予測量の関係が示されている。
図28に示すように、移動体111Aの残電力予測量がプラスで、移動体111Bの残電力予測量がマイナスの場合、移動体111Aへの割り当てが増やされる。また、移動体111Aの残電力予測量がマイナスで、移動体111Bの残電力予測量がプラスの場合、移動体111Aへの割り当てが減らされる。ユーザにより予め設定された図28に示すような関係を表す情報が、制御部61のメモリに記憶されている。
制御部61は、残電力予測量に基づいて算出された撮影範囲の修正値で、移動体111Aと移動体111Bの撮影条件の撮影範囲をそれぞれ修正する。
ステップS119において、制御部61は、修正された撮影範囲を、移動体111Aおよび移動体111Bにそれぞれ送信することで、移動体111Aおよび移動体111Bの駆動制御部63に撮影範囲を変更させる。
その後、ステップS113に戻り、それ以降の処理が繰り返される。
なお、図27においては、図26の制御方法を、図25の移動体制御システム101が行う例を説明したが、図1の移動体制御システム1が行うことも可能である。
また、上記説明において、図1の移動体制御システム1が行う例を説明した図8、図11、図16、図19、図21の各制御方法は、図25の移動体制御システム101により行われるようにしてもよい。
また、上記説明においては、移動体の撮影により2次元平面画像を取得することを前提としているが、本技術は、3次元モデル画像撮影を行う場合にも適用できる。
以上のように、本技術においては、移動体に備えられた撮影装置により撮影された画像の解析結果から予め設定された撮影条件が修正され、修正された撮影条件に基づいて移動体の駆動が制御される。
これにより、撮影し直すことなしに最適な撮影条件で撮影することができる。さらに、より高画質な撮影画像を低消費電力、短時間で撮影できる。
<3.コンピュータ>
<コンピュータのハードウエア構成例>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図29は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing UNIT)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303は、バス304により相互に接続されている。
バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、及びドライブ310が接続されている。
入力部306は、キーボード、マウス、マイクロフォンなどよりなる。出力部307は、ディスプレイ、スピーカなどよりなる。記憶部308は、ハードディスクや不揮発性のメモリなどよりなる。通信部309は、ネットワークインタフェースなどよりなる。ドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア311を駆動する。
以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305およびバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU301)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア311に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。従って、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
移動体に備えられた撮影装置により撮影された画像の解析結果に基づいて予め設定された撮影条件を修正する制御部と、
修正された前記撮影条件に基づいて前記移動体の駆動を制御する駆動制御部と
を備える制御装置。
(2)
前記画像をリアルタイムに解析する解析部
をさらに備える前記(1)に記載の制御装置。
(3)
前記制御部は、前記画像の周波数成分の解析結果に基づいて前記撮影条件を修正し、
前記駆動制御部は、修正された前記撮影条件に基づいて前記移動体の撮影高度を変更する
前記(1)または(2)に記載の制御装置。
(4)
前記制御部は、前記画像の周波数成分の解析結果に基づいて前記撮影条件を修正し、
前記駆動制御部は、修正された前記撮影条件に基づいて前記移動体の撮影間隔を変更する
前記(1)乃至(3)のいずれかに記載の制御装置。
(5)
前記制御部は、前記画像のぶれ量の解析結果に基づいて前記撮影条件を修正し、
前記駆動制御部は、修正された前記撮影条件に基づいて前記移動体の速度を変更する
前記(1)または(2)に記載の制御装置。
(6)
前記制御部は、前記画像の撮影が成功したかまたは失敗したかを解析する解析結果に基づいて前記撮影条件を修正し、
前記駆動制御部は、修正された前記撮影条件に基づいて前記移動体の撮影箇所を変更する
前記(1)または(2)に記載の制御装置。
(7)
前記制御部は、前記移動体の残電力の解析結果に基づいて、修正された前記撮影条件を補正し、
前記駆動制御部は、補正された前記撮影条件に基づいて前記移動体の撮影高度または速度を変更する
前記(1)乃至(6)のいずれかに記載の制御装置。
(8)
前記制御部は、複数の前記移動体の残電力の解析結果に基づいて前記撮影条件を修正し、
前記駆動制御部は、修正された前記撮影条件に基づいて、複数の前記移動体の撮影範囲を変更する
前記(1)または(2)に記載の制御装置。
(9)
制御装置が、
移動体に備えられた撮影装置により撮影された画像の解析結果に基づいて撮影条件を修正し、
修正された前記撮影条件に基づいて前記移動体の駆動を制御する
制御方法。
(10)
移動体に備えられた撮影装置により撮影された画像の解析結果に基づいて撮影条件を修正する制御部と、
修正された前記撮影条件に基づいて前記移動体の駆動を制御する駆動制御部
として、コンピュータを機能させるプログラム。
1 移動体制御システム, 11 移動体, 51 電力供給部, 52 動作部, 61 制御部, 62 センシング部, 63 駆動制御部, 64 解析部, 101 移動体制御システム, 111,111A,111B 移動体, 112 制御装置, 121 動作部, 131 送信部, 132 受信部, 141 受信部, 142 送信部

Claims (6)

  1. 移動体に備えられた撮影装置により撮影された画像の解析結果に基づいて、予め設定された撮影条件を修正する制御部と、
    修正された前記撮影条件に基づいて前記移動体の駆動を制御する駆動制御部と
    を備え、
    前記制御部は、前記画像の周波数成分またはぶれ量の解析結果に基づいて前記撮影条件を修正し、
    前記駆動制御部は、前記画像の周波数成分の解析結果に基づいて前記撮影条件が修正された場合、修正された前記撮影条件に基づいて前記移動体の撮影高度または前記移動体の撮影間隔を変更し、
    前記画像のぶれ量の解析結果に基づいて前記撮影条件が修正された場合、修正された前記撮影条件に基づいて前記移動体の速度を変更する
    制御装置。
  2. 前記画像をリアルタイムに解析する解析部
    をさらに備える請求項1に記載の制御装置。
  3. 前記制御部は、前記移動体の残電力の解析結果に基づいて、修正された前記撮影条件を補正し、
    前記駆動制御部は、補正された前記撮影条件に基づいて前記移動体の撮影高度または速度を変更する
    請求項1に記載の制御装置。
  4. 前記制御部は、複数の前記移動体の残電力の解析結果に基づいて前記撮影条件を修正し、
    前記駆動制御部は、修正された前記撮影条件に基づいて、複数の前記移動体の撮影範囲を変更する
    請求項1に記載の制御装置。
  5. 制御装置が、
    移動体に備えられた撮影装置により撮影された画像の解析結果に基づいて撮影条件を修正し、
    修正された前記撮影条件に基づいて前記移動体の駆動を制御し、
    前記画像の周波数成分またはぶれ量の解析結果に基づいて前記撮影条件を修正し、
    前記画像の周波数成分の解析結果に基づいて前記撮影条件が修正された場合、修正された前記撮影条件に基づいて前記移動体の撮影高度または前記移動体の撮影間隔を変更し、
    前記画像のぶれ量の解析結果に基づいて前記撮影条件が修正された場合、修正された前記撮影条件に基づいて前記移動体の速度を変更する
    制御方法。
  6. 移動体に備えられた撮影装置により撮影された画像の解析結果に基づいて撮影条件を修正する制御部と、
    修正された前記撮影条件に基づいて前記移動体の駆動を制御する駆動制御部
    として、コンピュータを機能させ、
    前記制御部は、前記画像の周波数成分またはぶれ量の解析結果に基づいて前記撮影条件を修正し、
    前記駆動制御部は、前記画像の周波数成分の解析結果に基づいて前記撮影条件が修正された場合、修正された前記撮影条件に基づいて前記移動体の撮影高度または前記移動体の撮影間隔を変更し、
    前記画像のぶれ量の解析結果に基づいて前記撮影条件が修正された場合、修正された前記撮影条件に基づいて前記移動体の速度を変更する
    プログラム。
JP2020527376A 2018-06-26 2019-06-12 制御装置および方法、並びにプログラム Active JP7310811B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018120458 2018-06-26
JP2018120458 2018-06-26
PCT/JP2019/023232 WO2020004029A1 (ja) 2018-06-26 2019-06-12 制御装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2020004029A1 JPWO2020004029A1 (ja) 2021-08-05
JP7310811B2 true JP7310811B2 (ja) 2023-07-19

Family

ID=68987077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020527376A Active JP7310811B2 (ja) 2018-06-26 2019-06-12 制御装置および方法、並びにプログラム

Country Status (3)

Country Link
JP (1) JP7310811B2 (ja)
CN (1) CN112335226A (ja)
WO (1) WO2020004029A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021014699A1 (ja) * 2019-07-19 2021-01-28 株式会社Nttドコモ 情報処理装置
WO2021255940A1 (ja) * 2020-06-19 2021-12-23 株式会社ナイルワークス 作物の生育診断を行うドローンと、そのカメラシステム
WO2023233997A1 (ja) * 2022-05-31 2023-12-07 ソニーグループ株式会社 撮影指示方法、移動体、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006145357A (ja) 2004-11-18 2006-06-08 Pasuko:Kk 撮影計画支援装置及びそのためのプログラム
JP2017007603A (ja) 2015-06-25 2017-01-12 三菱自動車工業株式会社 運転支援制御装置
JP2017027355A (ja) 2015-07-22 2017-02-02 鹿島建設株式会社 監視装置
JP2018152737A (ja) 2017-03-13 2018-09-27 ヤンマー株式会社 無人飛行撮影装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101842031B1 (ko) * 2013-12-11 2018-03-26 한화테크윈 주식회사 감시 시스템
US9688403B2 (en) * 2014-05-20 2017-06-27 Infatics, Inc. Method for adaptive mission execution on an unmanned aerial vehicle
GB201506329D0 (en) * 2015-04-14 2015-05-27 Vito Nv System and method for processing images of a ground surface
KR102364730B1 (ko) * 2015-07-29 2022-02-18 엘지전자 주식회사 이동 단말기 및 이의 제어방법
CN107589691A (zh) * 2017-08-11 2018-01-16 北京小米移动软件有限公司 无人机的拍摄控制方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006145357A (ja) 2004-11-18 2006-06-08 Pasuko:Kk 撮影計画支援装置及びそのためのプログラム
JP2017007603A (ja) 2015-06-25 2017-01-12 三菱自動車工業株式会社 運転支援制御装置
JP2017027355A (ja) 2015-07-22 2017-02-02 鹿島建設株式会社 監視装置
JP2018152737A (ja) 2017-03-13 2018-09-27 ヤンマー株式会社 無人飛行撮影装置

Also Published As

Publication number Publication date
WO2020004029A1 (ja) 2020-01-02
CN112335226A (zh) 2021-02-05
US20210266464A1 (en) 2021-08-26
JPWO2020004029A1 (ja) 2021-08-05

Similar Documents

Publication Publication Date Title
US11423695B2 (en) Face location tracking method, apparatus, and electronic device
JP7310811B2 (ja) 制御装置および方法、並びにプログラム
CN110494360B (zh) 用于提供自主摄影及摄像的系统和方法
CN108255198B (zh) 一种无人机飞行状态下的摄像云台控制系统和控制方法
US11042997B2 (en) Panoramic photographing method for unmanned aerial vehicle and unmanned aerial vehicle using the same
JP6716015B2 (ja) 撮影制御装置、撮影システム、および撮影制御方法
US20180293735A1 (en) Optical flow and sensor input based background subtraction in video content
KR20200023309A (ko) 촬상 디바이스, 카메라 장착 드론, 모드 제어 방법, 및 프로그램
WO2018053785A1 (en) Image processing in an unmanned autonomous vehicle
CN104243796A (zh) 摄影装置、摄影方法、模板创建装置和模板创建方法
CN113950610A (zh) 设备控制方法、装置及计算机可读存储介质
CN109949381B (zh) 图像处理方法、装置、图像处理芯片、摄像组件及飞行器
CN105763815A (zh) 一种自动调整拍摄间隔的摄像设备及其控制方法
WO2019227438A1 (zh) 一种图像处理方法、设备、飞行器、系统及存储介质
US20160156826A1 (en) Image-capturing device and image-capturing method
CN110720210B (zh) 照明设备控制方法、设备、飞行器及系统
CN112136312A (zh) 一种获取目标距离的方法、控制装置及移动平台
US12010426B2 (en) Control device and method
US20230135230A1 (en) Electronic device and method for spatial synchronization of videos
JP6475568B2 (ja) 撮像装置および飛行制御方法
CN110891149B (zh) 高动态范围图像自动曝光方法及无人飞行器
CN111295874B (zh) 长条图像生成系统、方法以及存储介质
JP7153443B2 (ja) 移動体
EP3706077A1 (en) Image system
WO2019187436A1 (ja) 撮影装置、撮影制御装置、撮影システム、撮影装置の制御方法、撮影プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R151 Written notification of patent or utility model registration

Ref document number: 7310811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151