JP7476882B2 - 移動体およびその制御方法、並びにプログラム - Google Patents

移動体およびその制御方法、並びにプログラム Download PDF

Info

Publication number
JP7476882B2
JP7476882B2 JP2021509022A JP2021509022A JP7476882B2 JP 7476882 B2 JP7476882 B2 JP 7476882B2 JP 2021509022 A JP2021509022 A JP 2021509022A JP 2021509022 A JP2021509022 A JP 2021509022A JP 7476882 B2 JP7476882 B2 JP 7476882B2
Authority
JP
Japan
Prior art keywords
line segment
stereo camera
unit
moving
drone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021509022A
Other languages
English (en)
Other versions
JPWO2020195876A1 (ja
Inventor
政彦 豊吉
航平 漆戸
駿 李
竜太 佐藤
真一郎 阿部
琢人 元山
正樹 半田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020195876A1 publication Critical patent/JPWO2020195876A1/ja
Application granted granted Critical
Publication of JP7476882B2 publication Critical patent/JP7476882B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0202Control of position or course in two dimensions specially adapted to aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Description

本技術は、移動体およびその制御方法、並びにプログラムに関し、特に、移動において障害物となり得る線状の物体を正確に検出して回避することができるようにした移動体およびその制御方法、並びにプログラムに関する。
ドローンと呼ばれるような自律飛行する移動体は、例えば、ステレオカメラにより撮像された画像から、機体周辺の物体の位置を認識し、障害物を回避しながら自律的に移動する。
しかしながら、ステレオカメラによる物体認識では、ベースラインに平行な直線の方向にテクスチャの変化が少ない物体は、原理的に物体認識することが難しい。例えば、画像の水平方向に伸びる電線やアンテナなど、細い物体の検出が難しい。なお、ベースラインとは、ステレオカメラを構成する2つのカメラの光学中心を結ぶ線分である。
特許文献1には、電線を検出して飛行する無人飛行体として、電線を流れる電流の大きさに基づいて電線と一定の距離を保ちながら飛行し、電線を撮像する技術が開示されている。
特開2018-114807号公報
しかしながら、特許文献1の技術では、送電中の電線にしか対応できず、また、電線に沿った飛行しかできない。
本技術は、このような状況に鑑みてなされたものであり、移動において障害物となり得る線状の物体を正確に検出して回避することができるようにするものである。
本技術の一側面の移動体は、ステレオカメラの少なくとも一方のカメラで撮像された撮像画像内の物体の線分を検出する線分検出部と、前記物体を回避する場合、前記線分に直交する方向へ、前記ステレオカメラが固定された機体を移動させ、前記線分に直交する方向への前記機体の移動では前記物体を回避できない場合、前記ステレオカメラまたは前記機体を、ヨー軸方向に回転させる制御部とを備える。
本技術の一側面の移動体の制御方法は、移動体が、ステレオカメラの少なくとも一方のカメラで撮像された撮像画像内の物体の線分を検出し、前記物体を回避する場合、前記線分に直交する方向へ、前記ステレオカメラが固定された機体を移動させ、前記線分に直交する方向への前記機体の移動では前記物体を回避できない場合、前記ステレオカメラまたは前記機体を、ヨー軸方向に回転させる
本技術の一側面のプログラムは、コンピュータ、ステレオカメラの少なくとも一方のカメラで撮像された撮像画像内の物体の線分を検出することと、前記物体を回避する場合、前記線分に直交する方向へ、前記ステレオカメラが固定された機体を移動させ、前記線分に直交する方向への前記機体の移動では前記物体を回避できない場合、前記ステレオカメラまたは前記機体を、ヨー軸方向に回転させることとを含む処理を実行させるためのものである。
本技術の一側面においては、ステレオカメラの少なくとも一方のカメラで撮像された撮像画像内の物体の線分が検出され、前記物体を回避する場合、前記線分に直交する方向へ、前記ステレオカメラが固定された機体が移動され、前記線分に直交する方向への前記機体の移動では前記物体を回避できない場合、前記ステレオカメラまたは前記機体が、ヨー軸方向に回転される
なお、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本技術を適用した移動体であるドローンの平面図である。 ステレオカメラによる電線等の検出を説明する図である。 図1のドローンの飛行制御に関するブロック図である。 視差マップと占有格子地図の例を示す図である。 角度Rの計算方法を説明する図である。 飛行制御処理を説明するフローチャートである。 図6のステップS17の障害物回避行動処理の詳細を説明するフローチャートである。 電線の回避を説明する図である。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.ドローンの平面図
2.ステレオカメラによる電線等の検出
3.ドローンのブロック図
4.飛行制御処理のフローチャート
5.ユースケース例
6.カメラの変形例
7.ドローン以外の適用例
8.コンピュータ構成例
<1.ドローンの平面図>
図1は、本技術を適用した移動体であるドローンの平面図である。
図1のドローン1は、4つのロータ(回転翼)11をもつクワッド型の飛行移動体である。
なお、本実施の形態では、ドローン1が、4つのロータ11をもつクワッド型の飛行移動体であるとするが、これに限らず、例えば、6個や8個のロータ11を持つマルチコプタでもよい。
ドローン1の本体部12には、複数のカメラ13が配置されている。より具体的には、本体部12の外周部の側面に、8個のカメラ13A乃至13Hが配置され、本体部12の底面に、1個のカメラ14が配置されている。側面に設けられたカメラ13A乃至13Hそれぞれは、ドローン1の水平方向を撮像中心として、上下左右に所定の視野角の範囲内に写る被写体を撮像する。底面に設けられたカメラ14は、地面方向となる下方を撮像中心として、上下左右に所定の視野角の範囲内に写る被写体を撮像する。カメラ13A乃至13Hのそれぞれを特に区別しない場合、単に、カメラ13と称する。カメラ13の個数および配置は、図1の例に限られず、任意に決定することができる。
側面に設けられた8個のカメラ13のうち、光軸が平行となるように配置された2つのカメラ13のペアによりステレオカメラが構成される。具体的には、カメラ13Aと13Bによりステレオカメラが構成され、カメラ13Cと13Dによりステレオカメラが構成され、カメラ13Eと13Fによりステレオカメラが構成され、カメラ13Gと13Hによりステレオカメラが構成されている。ステレオカメラを構成する2つのカメラ13でそれぞれ撮像された2枚の撮像画像(対の撮像画像)から、三角測量の原理により、ドローン1の周囲に存在する物体と、その物体までの距離が認識される。
図1において矢印で示される右方向が、ドローン1の進行方向とすると、カメラ13Aおよび13Bで構成されるステレオカメラが進行方向を撮像して、進行方向の障害物等の状況を検出し、その他のカメラ13C乃至13Hは、ドローン1の周囲全体の状況を検出するための画像を撮像する。
<2.ステレオカメラによる電線等の検出>
ドローン1は、ステレオカメラで撮像された2枚の撮像画像に基づいて、進行方向に障害物として存在する物体を認識し、障害物を回避しながら自律飛行し、目的地まで移動する。目的地は、図示せぬリモート端末から無線通信等により受信される。
ステレオカメラによる物体認識では、ベースラインに平行な直線の方向にテクスチャの変化が少ない物体、例えば、図2に示される電線15のような水平方向に長い物体の検出が難しい。なお、ベースラインとは、ステレオカメラを構成する2つのカメラ13の光学中心を結ぶ線分である。
図2は、ステレオカメラで電線15を撮像した様子を示している。
撮像画像L1(以下、左カメラ撮像画像L1と称する。)は、ステレオカメラの一方である左側カメラで撮像された画像であり、撮像画像R1(以下、右カメラ撮像画像R1と称する。)は、他方の右側カメラで撮像された画像である。
ステレオカメラで撮像された左カメラ撮像画像L1と右カメラ撮像画像R1とから、所定の物体を検出する場合、初めに、2枚の撮像画像に写る物体の対応点を検出する処理が行われる。電線15を検出する場合には、例えば、左カメラ撮像画像L1の電線15の所定の点P1Lに対応する右カメラ撮像画像R1上の点である対応点P1Rを探索する必要がある。しかしながら、右カメラ撮像画像R1の電線15は、点P1Lに対応する右カメラ撮像画像R1の対応点P1Rを通りベースラインに平行な直線の方向にテクスチャの変化が少ないため、右カメラ撮像画像R1の対応点P1Rを特定することができない。なお、図2において、画像内の水平方向の破線は、説明のための補助線である。
そこで、ドローン1には、図2の電線15のような、ベースラインに平行な直線の方向にテクスチャの変化が少ない物体を検出可能とする制御が搭載されている。
具体的には、ドローン1自体を所定の角度で回転させてステレオカメラで撮像することにより、ベースラインに平行な直線上の対応点の探索を可能とする。
例えば、図2に示した電線15を撮像するような状況において、機体を回転させてステレオカメラで撮像すると、図2の左カメラ撮像画像L1’と右カメラ撮像画像R1’のように、電線15が所定の角度θだけ傾いた画像を取得することができる。この左カメラ撮像画像L1’と右カメラ撮像画像R1’を用いれば、電線15がベースラインに平行な直線の方向にテクスチャの変化が少ない画像とはならないため、電線15を正確に検出することができる。
<3.ドローンのブロック図>
図3は、ドローン1の飛行制御に関するブロック図である。
ドローン1は、コントローラ31、RTK-GPS受信部32、および、機体駆動部33を少なくとも備える。
コントローラ31は、カメラ13および14で撮像された画像と、RTK-GPS受信部32で検出された位置情報、速度情報、および、時刻情報などに基づいて、ドローン1の現在地と周囲の状況とを認識し、ドローン1の飛行(移動)を制御する。コントローラ31は、例えば、CPU(Central Processing Unit),ROM(Read Only Memory),RAM(Random Access Memory)、またはマイクロプロセッサなどで構成され、ROM等の記憶部に記憶されたプログラムが実行されることで、ドローン1の制御を実行する。
RTK-GPS受信部32は、GNSS(Global Navigation Satellite System)の一つであるGPS衛星からの電波と、地上に設置している基準局からの電波の両方を受信することで、数cm単位の精度で自身の現在位置を検出する(測位する)。なお、GNSSは、GPSに限らず、GLONASS(ロシア)、BeiDou(中国)、Galileo(EU)、準天頂衛星みちびき(日本)等の測位衛星の測位信号を利用したり、併用してもよい。RTK-GPS受信部32は、ドローン1の位置情報と速度情報、時刻情報などを自己位置推定部43に供給する。
機体駆動部33は、4つのロータ11と、各ロータ11を駆動するモータ51とを備える。機体駆動部33は、コントローラ31からの制御にしたがい、4つのロータ11の回転数を変化させることで、機体を移動させたり、機体の姿勢を変化させる。
コントローラ31は、物体認識部41、ステレオ測距部42、自己位置推定部43、線分検出部44、回転角計算部45、占有格子構築部46、および、行動制御部47を有する。
物体認識部41は、複数のカメラ13のうち、進行方向を撮像する2つのステレオカメラ(例えば、カメラ13Aおよび13B)の一方のカメラ13(単眼カメラ)で撮像された撮像画像に基づいて、進行方向の物体を検出(認識)する。物体認識部41は、撮像画像に含まれる物体のうち、特に、電線、アンテナ、電柱など、細長い線状の物体を検出し、検出した物体の位置および大きさなど、物体を特定する情報(物体特定情報)を線分検出部44に供給する。画像から任意の物体を検出するアルゴリズムは、公知の手法を採用することができるが、電線やアンテナなどの細長い線状の物体の検出は、例えば、「Gubbi, Jayavardhana, Ashley Varghese, and P. Balamuralidhar. "A new deep learning architecture for detection of long linear infrastructure." Machine Vision Applications (MVA), 2017 Fifteenth IAPR International Conference on. IEEE, 2017」に開示された技術を採用することができる。なお、本実施の形態では、物体認識部41が、単眼カメラで撮像された撮像画像に基づいて、細長い線状の物体を検出することとするが、ステレオカメラで撮像された撮像画像に基づいて、細長い線状の物体を検出してもよい。
ステレオ測距部42は、ステレオカメラによる測距を行う。具体的には、ステレオ測距部42は、光軸が平行となるように配置された2つのカメラ13で撮像された2枚の撮像画像(対の撮像画像)から視差マップを生成し、占有格子構築部46に供給する。視差マップは、対の撮像画像の一方の撮像画像に対し、その撮像画像に写る物体の奥行き方向の距離に相当する視差量を撮像画像の画素単位で付加した画像である。視差マップは、撮像画像に対応する奥行き情報を示す画像であり、デプス画像とも呼ばれる。
自己位置推定部43は、RTK-GPS受信部32から供給されるドローン1の位置情報や速度情報と、複数のカメラ13および14から供給される撮像画像に基づいて、ドローン1の現在の自己位置および姿勢を推定する。例えば、自己位置推定部43は、測位衛星や基地局からの電波を受信可能な場合には、RTK-GPS受信部32で測定された位置情報に基づき、自己位置を推定し、屋内やトンネルなど、電波が受信できない場所では、複数のカメラ13および14から供給される撮像画像の特徴点を検出し、Visual-SLAM(Simultaneous Localization and Mapping)により、自己位置および姿勢を推定する。自己位置推定部43は、検出した自己位置および姿勢を、占有格子構築部46および行動制御部47に供給する。
なお、ドローン1は、ジャイロセンサ、加速度センサ、磁気センサ、圧力センサ等の慣性計測センサをさらに備えてもよく、その場合には、自己位置推定部43は、それらのセンサ情報も用いて、自己位置および姿勢を高精度に推定することができる。
線分検出部44は、物体認識部41で検出された細長い線状の物体を、Hough変換を用いて線分に変換し、細長い線状の物体を線分として検出する。検出された線分の情報は、回転角計算部45と行動制御部47に供給される。
回転角計算部45は、線分検出部44で検出された線分の角度θを計算し、計算結果を行動制御部47に供給する。例えば、線分検出部44で検出された線分が、図2の電線15であるとすると、回転角計算部45は、図2の電線15の画像上の回転角θを計算し、行動制御部47に供給する。
占有格子構築部46は、ステレオ測距部42から供給される視差マップの結果を時間方向に畳み込むことにより、ドローン1の周囲の3次元空間上の障害物の有無を表す占有格子地図(occupancy grid)を構築する。なお、占有格子構築部46には、自己位置推定部43によって推定された、ドローン1の位置(自己位置)および姿勢も供給される。
現在時刻から所定時間前までの間に、インデックスp=1,2,3,・・・,PのP枚の撮像画像が、ステレオカメラを構成する2つのカメラ13でそれぞれ得られた場合に、インデックスpの撮像画像に対応するデプス画像をzpで表し、インデックスpの撮像画像が得られたときのステレオカメラの位置と姿勢をgpで表すとして、観測結果D={z1:P,g1:P}が与えられたときの、ドローン1の周囲の3次元空間マップMの事後確率P(M|D)は、以下の式(1)で計算することができる。なお、z1:P={z1,2,・・・,P}、g1:P={g1,2,・・・,P}である。ステレオカメラの光学中心の位置および姿勢は、ドローン1自身の位置および姿勢を基準に求めることができる。
Figure 0007476882000001
式(1)のP(mp)は、インデックスpの撮像画像における事前確率を表し、P(mp|zp,gp)は、センサのノイズ特性を表し、センサがステレオカメラの場合は、例えば、距離分解能による誤差に相当する。P(M)は、3次元空間マップMの事前確率を表す。
図4のAは、ステレオ測距部42から供給される視差マップの例の例を示している。図4のAの視差マップでは、各画素の距離情報を8ビットのグレイ値で表しており、輝度が明るい(白い)ほど、距離が近いことを表している。
図4のBは、占有格子構築部46によって構築された占有格子地図の例を示している。
図3に戻り、行動制御部47は、自己位置推定部43から供給される自己位置および姿勢と、占有格子構築部46で構築された占有格子地図とを用いて、ドローン1の現在位置から目的地までの移動経路を設定し、設定した移動経路にしたがって、機体駆動部33の各モータ51を制御する。目的地は、リモート端末から送信され、不図示の通信部で受信され、行動制御部47に入力される。
また、行動制御部47は、図2の電線15のような細長い線状の障害物の線分が線分検出部44から供給された場合、機体をヨー(yaw)方向に回転させるようにモータ51を制御する。行動制御部47は、回転角計算部45から供給される線分の角度θが、角度Rとなるまで機体をヨー方向に回転させる。
ここで、角度Rは次のようにして決定される。図5に示されるように、カメラ13の水平方向の解像度をwidth[pixel]、ステレオカメラによる2枚の撮像画像の対応点を探索するブロックマッチングを行う際のブロックの水平方向および垂直方向の画素数をB[pixel]とすると、角度Rは、次式(2)で計算される。
Figure 0007476882000002
即ち、角度Rは、撮像画像において、画像中心部の所定の物体が、ブロックマッチングのブロックサイズに相当する量だけ垂直方向に移動する角度である。ドローン1は、水平方向に移動する場合、進行方向に対して前傾姿勢で移動するが、前傾姿勢において機体をヨー方向に回転させると、撮像画像上の物体(被写体)を、図2の左カメラ撮像画像L1’および右カメラ撮像画像R1’のように回転することができる。
<4.飛行制御処理のフローチャート>
次に、図6のフローチャートを参照して、ドローン1が目的地まで飛行を行う際の飛行制御処理について説明する。この処理は、例えば、目的地の情報がリモート端末から送信され、飛行が開始されたとき開始される。
初めに、ステップS11において、自己位置推定部43は、自己位置推定を行う。すなわち、RTK-GPS受信部32からの位置情報や速度情報と、複数のカメラ13およびカメラ14から供給された撮像画像に基づいて、ドローン1の現在位置および姿勢が推定(決定)され、行動制御部47に供給される。
ステップS12において、行動制御部47は、ドローン1の現在位置に基づいて、目的地に到着したかを判定する。ステップS12で、ドローン1が目的地に到着したと判定された場合、飛行制御処理は終了する。
一方、ステップS12で、ドローン1がまだ目的地に到着していないと判定された場合、処理はステップS13に進み、行動制御部47は、最終的な目的地までの移動経路のうちの通過点に相当する、現在地から所定の距離内の局所的な目的地(以下、局所目的地と称する。)を設定し、局所目的地までの移動経路を決定して、移動を開始する。なお、現在地から所定の距離内に最終的な目的地が存在する場合には、その目的地が局所目的地となる。
局所目的地までの移動経路は、占有格子構築部46からの3次元の占有格子地図を入力として、ドローン1がある空間を通過する際のコストを計算することで決定される。コストは、ドローン1の通過しにくさを表し、障害物に近いほど、コストが高く設定される。占有格子地図に、電線や建物といったセマンティック(Semantic)な情報が付与されていた場合、そのセマンティックな情報に応じて、コストを変化させることができる。例えば、電線と認識された領域の付近や、人などの動く物体には高いコストが設定される。これにより、コストが高い障害物に対して、ドローン1が距離を取るような移動経路が決定される。移動経路の探索は、A*アルゴリズム、D*アルゴリズム、RRT(Rapidly Exploring Random Tree)、DWA(Dynamic Window Approach)等の公知の探索アルゴリズムを用いることができる。
ステップS14において、RTK-GPS受信部32は、GPS位置情報を取得する。より具体的には、RTK-GPS受信部32が、GPS衛星からの電波と、地上に設置している基準局からの電波の両方を受信することで、自己位置を検出する(測位する)。
ステップS15において、複数のカメラ13が撮像を行う。特に、進行方向を撮像方向とする2つの隣接するカメラ13が、進行方向の撮像を行い、他のカメラ13が、進行方向以外の周囲の撮像を行う。
ステップS14およびS15の処理は、飛行中に継続して実行される処理であり、ドローン1の移動に応じてGPS位置情報とステレオカメラ画像が、順次更新される。そして、占有格子構築部46による占有格子地図が更新(再構築)される。
ステップS16において、行動制御部47は、進行方向に障害物が検出されたかを判定する。
ステップS16で、進行方向に障害物が検出されたと判定された場合、処理はステップS17に進み、ドローン1は、障害物回避行動処理を実行する。障害物回避行動処理の詳細は、図7を参照して後述する。
一方、ステップS16で、進行方向に障害物が検出されていないと判定された場合、処理はステップS18に進み、ドローン1は、ステップS13で設定した移動経路に沿って移動する。
ステップS17またはステップS18の後、処理はステップS19に進み、行動制御部47は、自己位置が局所目的地に到着したかを判定する。
ステップS19で、自己位置がまだ局所目的地に到着していないと判定された場合、処理はステップS14に戻り、上述したステップS14乃至S19が繰り返される。
一方、ステップS19で、自己位置が局所目的地に到着したと判定された場合、処理はステップS12に戻り、目的地に到着したかが、再度判定される。ステップS12で目的地に到着したと判定されるまで、ステップS13乃至S19の処理が繰り返され、目的地に到着したと判定されると、飛行制御処理が終了する。
次に、図7のフローチャートを参照して、図6のステップS16で進行方向に障害物が検出されたと判定された場合に実行される、ステップS17の障害物回避行動処理の詳細について説明する。
なお、図7の障害物回避行動処理は、障害物のなかでも、上述した電線、アンテナ、電柱などのように、物体としての認識が難しい細長い線状の物体を回避する場合について説明する。
初めに、ステップS41において、行動制御部47は、機体駆動部33の各モータ51を制御して、機体を減速させる。ドローン1は、減速させる前よりも遅い速度ではあるが、進行方向に前傾姿勢で移動している。
ステップS42において、物体認識部41は、進行方向を撮像した撮像画像から、障害物としての物体を認識し、認識した物体を特定する物体特定情報を線分検出部44に供給する。
ステップS43において、線分検出部44は、物体認識部41で検出された細長い線状の物体を、Hough変換を用いて線分に変換する線分変換を行う。これにより、細長い線状の物体が線分として検出される。検出された線分の情報は、回転角計算部45と行動制御部47に供給される。ステップS42の物体認識と、ステップS43の線分検出は、障害物が回避されるまで、換言すれば、ステップS52の処理が開始されるまで、継続して実行される。
ステップS44において、行動制御部47は、モータ51を制御し、図8に示されるように、検出された線分LLに直交する方向dirへ機体を移動させる。なお、図8において、線分LLに直交する方向は、図8の上方向と下方向の2種類あるが、占有格子地図も参照しながら、一方の方向が選択される。一般的には、地面方向ではない上方向が選択されるが、その周辺の占有格子地図によっても制御される。
ステップS44の処理により、ドローン1は、検出された線分LLに直交する方向dirに、一定時間または一定距離だけ、移動する。
そして、ステップS45において、行動制御部47は、線分検出部44からの検出結果に基づいて、障害物を回避できたか、即ち、視線から、電線等に対応する線分が見えなくなったかを判定する。
ステップS45で、障害物を回避できたと判定された場合、処理は後述するステップS52に進む。
一方、ステップS45で、障害物を回避できなかったと判定された場合、処理はステップS46に進み、行動制御部47は、モータ51を制御し、機体をヨー方向に回転させる。
ステップS47において、回転角計算部45は、線分検出部44で検出された線分の角度θを計算し、計算結果を行動制御部47に供給する。
ステップS48において、行動制御部47は、線分の角度θが式(2)の角度Rとなったかを判定する。
ステップS48で、線分の角度θが角度Rとなっていないと判定された場合、処理はステップS46に進み、ステップS46乃至S48の処理が繰り返される。すなわち、ドローン1は、線分の角度θが角度Rとなるまで、機体をヨー方向に回転させる。これにより、図2で説明したように、電線などの細長い物体が、ステレオカメラの2枚の撮像画像で、正確に検出することができるようになる。
そして、ステップS48で、線分の角度θが角度Rとなったと判定された場合、処理はステップS49に進み、ステレオ測距部42は、機体が回転された状態で、進行方向のステレオカメラで撮像された2枚の撮像画像から、視差マップを生成し、占有格子構築部46に供給する。
ステップS50において、占有格子構築部46は、ステレオ測距部42から供給された視差マップの結果を占有格子地図に足し込むことにより、ドローン1の周囲の3次元空間上の障害物の有無を表す占有格子地図を更新(再構築)する。
ステップS51において、行動制御部47は、更新された占有格子地図に基づいて各モータ51を制御して、障害物の回避行動を取る。これにより、ドローン1が、電線などの細長い物体を回避する方向へ移動される。障害物を回避する方向へドローン1が移動されると、処理はステップS52に進む。
上述したステップS45で障害物を回避できたと判定された場合、および、ステップS51で、障害物を回避する方向へ移動した場合のいずれにおいても、障害物の回避行動により、当初設定した局所目的地までの移動経路から外れることになる。
そこで、ステップS52では、行動制御部47が、局所目的地を再設定し、局所目的地までの移動経路を決定して、各モータ51を制御し、移動を開始する。局所目的地の再設定の方法は、ステップS13における局所目的地の設定と同様である。再設定された局所目的地に対して移動が開始されると、図7の障害物回避行動処理が終了する。
図7の障害物回避行動処理が終了すると、図6のステップS17からステップS19に進み、自己位置が局所目的地に到着したかが判定される。それ以降は、図6を参照して説明した通りである。
以上、ドローン1が行う飛行制御処理によれば、ステレオカメラでは正確な物体認識が難しい細長い線状の物体を、機体をヨー方向に回転させることにより正確に認識することができるので、細長い線状の物体を回避して、目的地まで正確に飛行することができる。なお、上述した例では、線分の角度θが目標の角度Rとなっているかを判定し、角度Rとなるまで機体をヨー方向に回転させるように制御したが、目標の角度Rとなっているかを判定せずに、予め定めた所定の角度だけヨー方向に機体を回転させるような簡易的な制御としてもよい。
<5.ユースケース例>
上述したドローン1の障害物を回避する飛行制御は、例えば、次のようなアプリケーションに適用することができる。
1.ドローンを用いた有人地帯での荷物の配送
荷物の集積場所、または、配送用のトラックから、ドローンが荷物を積んで目的地まで移動する。目的地は、緯度経路の値等で与えられ、その周辺や移動経路の情報が未知である。また、人、動物、車の移動など、環境が常に変換するため、環境の3次元構造(3次元空間上の占有格子地図)を事前に取得しておくことが困難な状況であり、細長い線状の物体が存在する可能性が有り得る。
2.送電線に沿った飛行
ドローンが、電線と一定の距離を保ちながら飛行する。電線は撓んでおり、風で揺れるため、詳細な3次元構造を事前に把握することが難しい。また、電線の高度が高く、ステレオカメラによる自己位置認識のずれが起きやすい環境である。鉄塔など、固定された設備に、自己位置を認識するためのマーカ等を貼り付け、マーカによる自己位置認識も補助的に行ってもよい。
<6.カメラの変形例>
上述した実施の形態では、進行方向を撮像するカメラ13をドローン1の本体部12に固定させ、撮像画像が角度Rだけ傾くように制御する場合、ドローン1全体を回転させるようにした。
しかしながら、カメラ13には、例えば、FPV(First Person View)カメラのような、ドローン1の本体部12に対して、カメラ自体を回転可能なカメラを用いることもできる。この場合、カメラのみを回転させ、ドローン1は、回転させる必要はない。
また、複数のカメラ13は、図1に示したように、水平方向に配列される構成としたが、例えば、複数のカメラ13の一部(少なくとも1つ)は、垂直方向に配列するような配置とし、カメラを回転させる代わりに、垂直方向に配列した2つのカメラ13をステレオカメラとして用いてもよい。水平方向に並んだステレオカメラと、垂直方向に並んだステレオカメラとは、画像内の水平方向(横方向)のテクスチャが異なるので、カメラ13を回転させずに、上述した細長い物体の検出および回避が可能となる。
<7.ドローン以外の適用例>
上述した例は、自律的に移動を制御する移動制御に関する本開示の技術を、飛行移動体であるドローンの移動制御に適用した例を説明したが、本開示の技術は、ドローン以外の移動体にも適用することができる。
例えば、自動運転する普通自動車やトラックなどの車両の移動制御にも、本開示の移動制御を適用することができる。例えば、ガードレールや道路標識など、ステレオカメラのベースラインに平行な線分の認識に有効である。
また例えば、工場内を移動する移動ロボットなどにも適用可能である。工場内の空中に張られたケーブルなどの細長い物体の正確な検出および回避が可能となる。
<8.コンピュータ構成例>
上述した一連の飛行制御処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているマイクロコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図9は、上述した一連の飛行制御処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、及びドライブ110が接続されている。
入力部106は、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部107は、ディスプレイ、スピーカ、出力端子などよりなる。記憶部108は、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。
通信部109は、有線通信または無線通信を行うネットワークインタフェースなどよりなる。通信部109は、例えば、インターネット、公衆電話回線網、所謂4G回線や5G回線等の無線移動体用の広域通信網、WAN(Wide Area Network)、LAN(Local Area Network)、Bluetooth(登録商標)規格に準拠した通信を行う。また、通信部109は、例えば、NFC(Near Field Communication)等の近距離無線通信、赤外線通信、HDMI(登録商標)(High-Definition Multimedia Interface)やUSB(Universal Serial Bus)等の規格に準拠した有線通信や、任意の通信規格の通信網や通信路を介した通信を行う。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体111を駆動する。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の飛行制御処理が行われる。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータなども適宜記憶される。
コンピュータ(CPU101)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体111に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
なお、本技術は、以下の構成を取ることができる。
(1)
ステレオカメラの少なくとも一方のカメラで撮像された撮像画像内の線分を検出する線分検出部と、
前記線分に直交する方向へ、前記ステレオカメラが固定された機体を移動させる制御部と
を備える移動体。
(2)
前記制御部は、前記線分に直交する方向へ、一定時間または一定距離だけ、前記機体を移動させる
前記(1)に記載の移動体。
(3)
前記撮像画像内の物体を認識する物体認識部をさらに備え、
前記線分検出部は、前記撮像画像内の前記物体を前記線分に変換することにより、前記線分を検出する
前記(2)に記載の移動体。
(4)
前記制御部は、前記線分に直交する方向へ一定時間または一定距離だけ前記機体を移動させることで、前記撮像画像内の前記物体を回避できたかを判定する
前記(3)に記載の移動体。
(5)
前記制御部は、前記線分に直交する方向への前記機体の移動では前記物体を回避できない場合、前記ステレオカメラまたは前記機体を、ヨー軸方向に回転させる
前記(4)に記載の移動体。
(6)
前記制御部は、前記撮像画像上の前記線分の回転角が所定の角度となるまで、前記ステレオカメラまたは前記機体を、ヨー軸方向に回転させる
前記(5)に記載の移動体。
(7)
前記線分の回転角が前記所定の角度となった状態において前記ステレオカメラで撮像される前記撮像画像から視差マップを生成するステレオ測距部と、
前記視差マップから占有格子地図を構築する占有格子地図構築部と
をさらに備え、
前記制御部は、前記占有格子地図に基づいて、前記機体を移動させる
前記(6)に記載の移動体。
(8)
前記制御部は、前記機体を移動させた後、前記機体の局所的な目的地である局所目的地を再設定し、再設定後の前記局所目的地へ前記機体を移動させる
前記(1)乃至(7)のいずれかに記載の移動体。
(9)
移動体が、
ステレオカメラの少なくとも一方のカメラで撮像された撮像画像内の線分を検出し、
前記線分に直交する方向へ、前記ステレオカメラが固定された機体を移動させる
移動体の制御方法。
(10)
コンピュータを、
ステレオカメラの少なくとも一方のカメラで撮像された撮像画像内の線分を検出する線分検出部と、
前記線分に直交する方向へ、前記ステレオカメラが固定された機体を移動させる制御部
として機能させるためのプログラム。
1 ドローン, 11 ロータ, 12 本体部, 13(13A乃至13H) カメラ, 31 コントローラ, 32 RTK-GPS受信部, 33 機体駆動部, 41 物体認識部, 42 ステレオ測距部, 43 自己位置推定部, 44 線分検出部, 45 回転角計算部, 46 占有格子構築部, 47 行動制御部, 51 モータ, 101 CPU, 102 ROM, 103 RAM, 106 入力部, 107 出力部, 108 記憶部, 109 通信部, 110 ドライブ

Claims (6)

  1. ステレオカメラの少なくとも一方のカメラで撮像された撮像画像内の物体の線分を検出する線分検出部と、
    前記物体を回避する場合、前記線分に直交する方向へ、前記ステレオカメラが固定された機体を移動させ、前記線分に直交する方向への前記機体の移動では前記物体を回避できない場合、前記ステレオカメラまたは前記機体を、ヨー軸方向に回転させる制御部と
    を備える移動体。
  2. 前記制御部は、前記撮像画像上の前記線分の回転角が所定の角度となるまで、前記ステレオカメラまたは前記機体を、ヨー軸方向に回転させる
    請求項に記載の移動体。
  3. 前記線分の回転角が前記所定の角度となった状態において前記ステレオカメラで撮像される前記撮像画像から視差マップを生成するステレオ測距部と、
    前記視差マップから占有格子地図を構築する占有格子地図構築部と
    をさらに備え、
    前記制御部は、前記占有格子地図に基づいて、前記機体を移動させる
    請求項に記載の移動体。
  4. 前記制御部は、前記機体を移動させた後、前記機体の局所的な目的地である局所目的地を再設定し、再設定後の前記局所目的地へ前記機体を移動させる
    請求項1に記載の移動体。
  5. 移動体が、
    ステレオカメラの少なくとも一方のカメラで撮像された撮像画像内の物体の線分を検出し、
    前記物体を回避する場合、前記線分に直交する方向へ、前記ステレオカメラが固定された機体を移動させ、前記線分に直交する方向への前記機体の移動では前記物体を回避できない場合、前記ステレオカメラまたは前記機体を、ヨー軸方向に回転させる
    移動体の制御方法。
  6. コンピュータ
    ステレオカメラの少なくとも一方のカメラで撮像された撮像画像内の物体の線分を検出することと、
    前記物体を回避する場合、前記線分に直交する方向へ、前記ステレオカメラが固定された機体を移動させ、前記線分に直交する方向への前記機体の移動では前記物体を回避できない場合、前記ステレオカメラまたは前記機体を、ヨー軸方向に回転させることと
    を含む処理を実行させるためのプログラム。
JP2021509022A 2019-03-25 2020-03-12 移動体およびその制御方法、並びにプログラム Active JP7476882B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019055967 2019-03-25
JP2019055967 2019-03-25
PCT/JP2020/010740 WO2020195876A1 (ja) 2019-03-25 2020-03-12 移動体およびその制御方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2020195876A1 JPWO2020195876A1 (ja) 2020-10-01
JP7476882B2 true JP7476882B2 (ja) 2024-05-01

Family

ID=72609331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021509022A Active JP7476882B2 (ja) 2019-03-25 2020-03-12 移動体およびその制御方法、並びにプログラム

Country Status (4)

Country Link
US (1) US20220153411A1 (ja)
JP (1) JP7476882B2 (ja)
CN (1) CN113678082A (ja)
WO (1) WO2020195876A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2556644B (en) * 2017-02-28 2018-11-28 Matthew Russell Iain Unmanned aerial vehicles

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011179886A (ja) 2010-02-26 2011-09-15 National Maritime Research Institute 障害物検知装置及び障害物検知方法
JP2017151499A (ja) 2016-02-22 2017-08-31 株式会社Ihi 障害物回避方法および装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06101025B2 (ja) * 1988-07-28 1994-12-12 工業技術院長 障害物検出装置
US5606627A (en) * 1995-01-24 1997-02-25 Eotek Inc. Automated analytic stereo comparator
JP5312894B2 (ja) * 2008-10-08 2013-10-09 村田機械株式会社 自律移動体及び自律移動体の移動制御方法
US9185391B1 (en) * 2014-06-17 2015-11-10 Actality, Inc. Adjustable parallax distance, wide field of view, stereoscopic imaging system
WO2017004799A1 (en) * 2015-07-08 2017-01-12 SZ DJI Technology Co., Ltd. Camera configuration on movable objects
CN106054900B (zh) * 2016-08-08 2018-11-09 电子科技大学 基于深度摄像头的机器人临时避障方法
CN206445826U (zh) * 2016-12-09 2017-08-29 南京理工大学 一种带电作业机器人数据通信系统
CN107329490B (zh) * 2017-07-21 2020-10-09 歌尔科技有限公司 无人机避障方法及无人机
DE112018003986T5 (de) * 2017-08-04 2020-04-16 Sony Corporation Steuervorrichtung, steuerverfahren, programm und mobileinheit
CN107656545A (zh) * 2017-09-12 2018-02-02 武汉大学 一种面向无人机野外搜救的自主避障与导航方法
JP6737751B2 (ja) * 2017-09-14 2020-08-12 Kddi株式会社 飛行装置、管理装置、飛行管理方法及びプログラム
CN108500992A (zh) * 2018-04-09 2018-09-07 中山火炬高新企业孵化器有限公司 一种多功能的移动安防机器人
CN108710376A (zh) * 2018-06-15 2018-10-26 哈尔滨工业大学 基于多传感器融合的slam与避障的移动底盘
CN109164825A (zh) * 2018-08-13 2019-01-08 上海机电工程研究所 一种用于多旋翼无人机的自主导航避障方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011179886A (ja) 2010-02-26 2011-09-15 National Maritime Research Institute 障害物検知装置及び障害物検知方法
JP2017151499A (ja) 2016-02-22 2017-08-31 株式会社Ihi 障害物回避方法および装置

Also Published As

Publication number Publication date
WO2020195876A1 (ja) 2020-10-01
JPWO2020195876A1 (ja) 2020-10-01
US20220153411A1 (en) 2022-05-19
CN113678082A (zh) 2021-11-19

Similar Documents

Publication Publication Date Title
US20210065400A1 (en) Selective processing of sensor data
US10936869B2 (en) Camera configuration on movable objects
US20210302990A1 (en) Mobile robot system and method for autonomous localization using straight lines extracted from visual images
US10599149B2 (en) Salient feature based vehicle positioning
US11721225B2 (en) Techniques for sharing mapping data between an unmanned aerial vehicle and a ground vehicle
TWI827649B (zh) 用於vslam比例估計的設備、系統和方法
US20160076892A1 (en) Methods and systems for determining a state of an unmanned aerial vehicle
US11709073B2 (en) Techniques for collaborative map construction between an unmanned aerial vehicle and a ground vehicle
CN111670419A (zh) 用于自主导航的主动补充曝光设置
EP3553752A1 (en) Information processing apparatus, information processing method, and computer-readable medium for generating an obstacle map
JP6138326B1 (ja) 移動体、移動体の制御方法、移動体を制御するプログラム、制御システム、及び情報処理装置
JP2020079997A (ja) 情報処理装置、情報処理方法、及びプログラム
JP7476882B2 (ja) 移動体およびその制御方法、並びにプログラム
WO2021212297A1 (en) Systems and methods for distance measurement
CN113432595A (zh) 设备状态获取方法、装置、计算机设备及存储介质
JP2021047744A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2020095435A (ja) 移動体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240401

R150 Certificate of patent or registration of utility model

Ref document number: 7476882

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150