JP2017227516A - Device, mobile body device, and method for measuring distance - Google Patents

Device, mobile body device, and method for measuring distance Download PDF

Info

Publication number
JP2017227516A
JP2017227516A JP2016123285A JP2016123285A JP2017227516A JP 2017227516 A JP2017227516 A JP 2017227516A JP 2016123285 A JP2016123285 A JP 2016123285A JP 2016123285 A JP2016123285 A JP 2016123285A JP 2017227516 A JP2017227516 A JP 2017227516A
Authority
JP
Japan
Prior art keywords
moving body
distance
information
distance measuring
stereo camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016123285A
Other languages
Japanese (ja)
Inventor
大内田 茂
Shigeru Ouchida
茂 大内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016123285A priority Critical patent/JP2017227516A/en
Publication of JP2017227516A publication Critical patent/JP2017227516A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a device by which information for safely moving a mobile body can be obtained.SOLUTION: The distance measuring device is a device equipped in a mobile body 10, and includes: a distance measuring system attached to the mobile body 10 by a gimbal for measuring distance information on the distance to an object; a detection system for detecting attitude change information as information on the relative attitude change of the distance measuring system and the mobile body 10 associated with moving of the mobile body 10; and a control operation unit 520 (correction system) for correcting the distance information using the attitude change information.SELECTED DRAWING: Figure 8

Description

本発明は、装置、移動体装置及び測距方法に関する。   The present invention relates to a device, a mobile device, and a distance measuring method.

近年、移動体に搭載される測距や撮像を行う装置の開発が盛んに行われている。   2. Description of the Related Art In recent years, development of devices that perform ranging and imaging mounted on a moving body has been actively performed.

例えば、特許文献1には、移動体にジンバルを介して取り付けられる撮像を行う装置が開示されている。   For example, Patent Document 1 discloses an apparatus for performing imaging that is attached to a moving body via a gimbal.

しかしながら、特許文献1に開示されている装置等の従来の装置では、移動体を安全に移動させるための情報を得ることに関して改善の余地があった。   However, conventional devices such as the device disclosed in Patent Document 1 have room for improvement with respect to obtaining information for safely moving a moving object.

本発明は、移動体に搭載される装置であって、前記移動体にジンバルを介して取り付けられる測距系と、前記移動体の移動に伴う前記測距系と前記移動体の相対的な姿勢変化に関する情報である姿勢変化情報を検出する検出系と、前記姿勢変化情報を用いて前記測距系の測定距離を補正する補正系と、を備える装置である。   The present invention is an apparatus mounted on a moving body, the ranging system attached to the moving body via a gimbal, and the relative attitude of the ranging system and the moving body accompanying the movement of the moving body An apparatus comprising: a detection system that detects posture change information that is information relating to a change; and a correction system that corrects the measurement distance of the distance measurement system using the posture change information.

本発明によれば、移動体を安全に移動させるための情報を得ることができる。   According to the present invention, information for safely moving a mobile object can be obtained.

第1実施形態の移動体装置の一例を示す模式図である。It is a schematic diagram which shows an example of the mobile body apparatus of 1st Embodiment. 図1の測距系を示す斜視図である。It is a perspective view which shows the ranging system of FIG. 図1のジンバルの一例を模式的に示す斜視図である。It is a perspective view which shows typically an example of the gimbal of FIG. 測距系のステレオカメラの模式図である。It is a schematic diagram of the stereo camera of a ranging system. 移動体装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of a mobile body apparatus. 測距系の測距部のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the ranging part of a ranging system. 測距系の制御部のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the control part of a ranging system. 移動体のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of a moving body. ステレオカメラの原理図である。It is a principle diagram of a stereo camera. ステレオカメラで得られる視差を説明するための図である。It is a figure for demonstrating the parallax obtained with a stereo camera. ステレオカメラで得られる視差と距離の関係図である。FIG. 6 is a relationship diagram between parallax and distance obtained by a stereo camera. 図12(a)〜図12(d)は、それぞれ移動体にジンバルを介して取り付けられたステレオカメラの向き及び移動体の向きと、距離画像の関係を示す図(その1〜その4)である。FIGS. 12A to 12D are diagrams (No. 1 to No. 4) showing the relationship between the distance image and the direction of the stereo camera and the direction of the moving body attached to the moving body via the gimbal, respectively. is there. 測距処理1を説明するためのフローチャートである。6 is a flowchart for explaining distance measurement processing 1; 図14(a)〜図14(c)は、それぞれ第2実施形態の測距方法を説明するための図(その1〜その3)である。FIGS. 14A to 14C are diagrams (No. 1 to No. 3) for explaining the distance measuring method of the second embodiment, respectively. 第3実施形態の移動体装置を説明するための図である。It is a figure for demonstrating the mobile body apparatus of 3rd Embodiment. 図15の移動体のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the mobile body of FIG. 図15の測距系のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the ranging system of FIG. 図18(a)及び図18(b)は、それぞれ図17の投光系及び受光系を説明するための図である。18A and 18B are diagrams for explaining the light projecting system and the light receiving system in FIG. 17, respectively. 測距処理2を説明するためのフローチャートである。10 is a flowchart for explaining distance measurement processing 2; TOF法を用いる測距系の変形例を説明するための図である。It is a figure for demonstrating the modification of the ranging system using a TOF method. パターン投影法を用いる測距系の一例を説明するための図である。It is a figure for demonstrating an example of the ranging system using a pattern projection method.

[導入]
本発明の実施形態は、一例として移動体に測距装置を搭載することで自立して移動することを可能にした移動体装置に関する。移動体装置において、測距装置は、移動体の周囲に存在する物体(対象物)との距離を測距することで、移動体の移動を支援するものである。
[Introduction]
An embodiment of the present invention relates to a mobile device that can move independently by mounting a distance measuring device on the mobile as an example. In the mobile body device, the distance measuring device supports the movement of the mobile body by measuring the distance to an object (target object) existing around the mobile body.

例えば、移動体が自律して移動する移動体であれば、測距装置は、移動体の周囲に存在する物体(対象物)との距離を測定することで、移動体の自己位置を推定し、移動体は、測距装置の自己位置推定結果に基づいて自律移動を制御することができる。これにより、移動体は、障害物等を避けながら自律移動することができる。   For example, if the mobile body is a mobile body that moves autonomously, the distance measuring device estimates the self-position of the mobile body by measuring the distance to an object (target object) that exists around the mobile body. The moving body can control the autonomous movement based on the self-position estimation result of the distance measuring device. Thereby, the moving body can move autonomously while avoiding obstacles.

以下の実施形態では、移動体が、自律飛行する無人航空機(例えば、DroneやUAV(Unmanned aerial vehicle))であり、測距装置が移動体の自己位置を推定し、移動体が自己位置推定結果に基づいて自律移動を制御する移動体装置を例にとって説明する。   In the following embodiments, the moving body is an unmanned aerial vehicle that autonomously flies (for example, Drone or UAV (Unmanned aerial vehicle)), the ranging device estimates the self-position of the moving body, and the moving body performs the self-position estimation result. A mobile device that controls autonomous movement based on the above will be described as an example.

《第1実施形態》
以下に、本発明の第1実施形態を図面を用いて詳細に説明する。
[基本構成]
図1は、第1実施形態の移動体装置1の一例を示す模式図である。図1に示されるように、移動体装置1は、移動体10と、ジンバル20と、測距系100と、姿勢駆動部200と、を備えている。ここでは、移動体10は、無人航空機である。以下、移動体10の前後方向をX軸方向、左右方向をY軸方向、高さ方向をZ軸方向とする移動体に設定されたXYZ3次元直交座標系(以下では「移動体座標系」とも呼ぶ)を適宜用いて説明する。ここでは、移動体座標系において移動体10の前方向は+X方向である。
<< First Embodiment >>
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.
[Basic configuration]
FIG. 1 is a schematic diagram illustrating an example of a mobile device 1 according to the first embodiment. As shown in FIG. 1, the moving body device 1 includes a moving body 10, a gimbal 20, a distance measuring system 100, and a posture driving unit 200. Here, the moving body 10 is an unmanned aerial vehicle. Hereinafter, an XYZ three-dimensional orthogonal coordinate system (hereinafter referred to as a “moving body coordinate system”) set to a moving body in which the longitudinal direction of the moving body 10 is the X-axis direction, the left-right direction is the Y-axis direction, and the height direction is the Z-axis direction. Will be described as appropriate. Here, the forward direction of the moving body 10 is the + X direction in the moving body coordinate system.

移動体10は、機体11と、該機体11の前後左右に設けられたプロペラ12〜15と、を含む。移動体10は、プロペラ12〜15が回転駆動することにより飛行するように構成されている。また、機体11には、ジンバル20と測距系100と4本の足(16,17,18,19)が設けられている。4本の足は機体11が地面に着地した時に転倒しないように支えると共に測距系100が地面に接触しないように保護する役割も担っている。   The moving body 10 includes a body 11 and propellers 12 to 15 provided on the front, rear, left and right of the body 11. The moving body 10 is configured to fly when the propellers 12 to 15 are rotationally driven. The airframe 11 is provided with a gimbal 20, a distance measuring system 100, and four legs (16, 17, 18, 19). The four legs also play a role of protecting the distance measuring system 100 from coming into contact with the ground while supporting the aircraft 11 so as not to fall when the aircraft 11 lands on the ground.

図2は、第1実施形態の測距系100の一例を示す斜視図であり、図3はジンバル20を模式的に示す斜視図であり、図4は測距系100の一例を概略的に示す構成図である。   2 is a perspective view showing an example of the distance measuring system 100 of the first embodiment, FIG. 3 is a perspective view schematically showing the gimbal 20, and FIG. 4 is an example of the distance measuring system 100 schematically. FIG.

測距系100は、図2〜図4に示されるように、筐体120と、筐体120に配置された撮像光学系121A、121B及び撮像素子311A、311Bを含むステレオカメラ350と、筐体120に固定された装着用のアタッチメント110と、を有している。   2 to 4, the distance measuring system 100 includes a housing 120, a stereo camera 350 including imaging optical systems 121 </ b> A and 121 </ b> B and imaging elements 311 </ b> A and 311 </ b> B disposed in the housing 120, and a housing. And a mounting attachment 110 fixed to 120.

測距系100は、撮像光学系121A及び撮像光学系121A用の撮像素子であるCMOS(Complementary Metal Oxide Semiconductor)311Aにより撮像された撮像画像と、撮像光学系121B及び撮像光学系121B用の撮像素子であるCMOS311Bにより撮像された撮像画像と、を用いた視差演算により測距を行う。   The distance measuring system 100 includes a captured image captured by a CMOS (Complementary Metal Oxide Semiconductor) 311A that is an imaging device for the imaging optical system 121A and the imaging optical system 121A, and an imaging device for the imaging optical system 121B and the imaging optical system 121B. Ranging is performed by parallax calculation using the captured image captured by the CMOS 311B.

測距系100は、シャフト21、姿勢駆動部200、ジンバル20を介して移動体10に取り付けられている(図1参照)。   The distance measuring system 100 is attached to the moving body 10 via the shaft 21, the attitude driving unit 200, and the gimbal 20 (see FIG. 1).

詳述すると、筐体120に固定されたアタッチメント110は、シャフト21の一端(−Z側の端)に装着されている。シャフト21の他端(+Z側の端)は、姿勢駆動部200により保持されている。姿勢駆動部200はジンバル20を介して機体11に接続されている。   Specifically, the attachment 110 fixed to the housing 120 is attached to one end (the end on the −Z side) of the shaft 21. The other end (+ Z side end) of the shaft 21 is held by the attitude driving unit 200. The attitude driving unit 200 is connected to the airframe 11 via the gimbal 20.

ジンバル20は、互いに直交する3つの揺動軸を持つ自由度3のジャイロであるジンバル機構を有し、測距系100、シャフト21及び姿勢駆動部200を含む系を移動体10に対して任意の方向に揺動自在に接続する。   The gimbal 20 has a gimbal mechanism that is a three-degree-of-freedom gyro having three swing axes orthogonal to each other, and a system including the distance measuring system 100, the shaft 21, and the attitude driving unit 200 is arbitrarily arranged with respect to the moving body 10. Connect in a swingable direction.

ジンバル20は、ジンバル機構に加えて、該ジンバル機構の各揺動軸の角速度を同時に検出する3軸ジャイロセンサ20aを有している。3軸ジャイロセンサ20aの検出結果すなわちジンバル機構の各揺度軸の傾斜情報は、姿勢駆動部200に送られる。ジャイロセンサは、角度センサとも呼ばれる。   In addition to the gimbal mechanism, the gimbal 20 has a three-axis gyro sensor 20a that simultaneously detects the angular velocities of the swing axes of the gimbal mechanism. The detection result of the three-axis gyro sensor 20a, that is, the inclination information of each sway axis of the gimbal mechanism is sent to the attitude driving unit 200. The gyro sensor is also called an angle sensor.

なお、ジンバルは、3軸ジャイロセンサの代わりに、各揺動軸の角速度を検出する3つの1軸ジャイロセンサを有していても良いし、2軸ジャイロセンサと1軸ジャイロセンサを組み合わせて各揺動軸の角速度を検出しても良い。   Note that the gimbal may have three single-axis gyro sensors that detect the angular velocity of each swing shaft instead of the three-axis gyro sensor, or each combination of the two-axis gyro sensor and the single-axis gyro sensor. The angular velocity of the swing shaft may be detected.

ステレオカメラ350の撮像光学系121A、121Bの光軸を含む面は、シャフト21に対して略垂直となっている(図4参照)。   The surfaces including the optical axes of the imaging optical systems 121A and 121B of the stereo camera 350 are substantially perpendicular to the shaft 21 (see FIG. 4).

姿勢駆動部200は、3軸ジャイロセンサ20aの検出結果に基づいて、シャフト21を介して測距系100を駆動する。   The attitude driving unit 200 drives the distance measuring system 100 via the shaft 21 based on the detection result of the three-axis gyro sensor 20a.

詳述すると、姿勢駆動部200は、移動体10の移動(飛行)に伴うジンバル20の動作による、移動体10に対する測距系100の相対的な姿勢変化(例えばX軸周りの回転、Y軸周りの回転、Z軸周りの回転等)をキャンセルするよう、すなわち測距系100が移動体10の移動に追従するようシャフト21を駆動する。姿勢駆動部200は、駆動源として小型のモータを有している。   More specifically, the attitude driving unit 200 changes the relative attitude of the distance measuring system 100 with respect to the moving body 10 (for example, rotation around the X axis, Y axis, etc.) due to the operation of the gimbal 20 accompanying the movement (flight) of the moving body 10. The shaft 21 is driven so that the distance measuring system 100 follows the movement of the moving body 10. The attitude drive unit 200 has a small motor as a drive source.

図5は、第1実施形態の移動体装置1の構成の一例を示すブロック図である。図5に示されるように、測距系100は、測距部300と、制御部400と、を備える。測距部300はステレオカメラ350による測距に係る構成であり、制御部400は、測距部300の制御、並びにジンバル20、移動体10との通信に係る構成である。   FIG. 5 is a block diagram illustrating an example of the configuration of the mobile device 1 according to the first embodiment. As shown in FIG. 5, the distance measuring system 100 includes a distance measuring unit 300 and a control unit 400. The distance measuring unit 300 has a configuration related to distance measurement by the stereo camera 350, and the control unit 400 has a configuration related to control of the distance measuring unit 300 and communication with the gimbal 20 and the moving body 10.

図6は、第1実施形態の測距部300のハードウェア構成の一例を示すブロック図である。撮像光学系121Aを通過した被写体光は、CMOS311Aに結像され、撮像光学系121Bを通過した被写体光は、CMOS311Bに結像される。CMOS311Aは、撮像面に結像された光学像を電気信号に変換し、アナログの画像データとして出力し、CMOS311Bは、撮像面に結像された光学像を電気信号に変換し、アナログの画像データとして出力する。なお、撮像素子としてCMOS311A及びCMOS311Bの代わりにCCD(Charge Coupled Device)を採用してもよい。   FIG. 6 is a block diagram illustrating an example of a hardware configuration of the distance measuring unit 300 according to the first embodiment. The subject light that has passed through the imaging optical system 121A forms an image on the CMOS 311A, and the subject light that has passed through the imaging optical system 121B forms an image on the CMOS 311B. The CMOS 311A converts the optical image formed on the imaging surface into an electrical signal and outputs it as analog image data. The CMOS 311B converts the optical image formed on the imaging surface into an electrical signal and outputs analog image data. Output as. A CCD (Charge Coupled Device) may be employed as the image sensor instead of the CMOS 311A and the CMOS 311B.

CMOS311Aから出力された画像データは、CDS(Correlated Double Sampling:相関2重サンプリング)回路312Aによりノイズ成分を除去され、A/D変換器313Aによりデジタル値に変換され、画像処理回路314Aに出力される。CMOS311Bから出力された画像データは、CDS回路312Bによりノイズ成分を除去され、A/D変換器313Bによりデジタル値に変換され、画像処理回路314Bに出力される。   The image data output from the CMOS 311A has its noise component removed by a CDS (Correlated Double Sampling) circuit 312A, converted to a digital value by an A / D converter 313A, and output to the image processing circuit 314A. . The image data output from the CMOS 311B has its noise component removed by the CDS circuit 312B, converted to a digital value by the A / D converter 313B, and output to the image processing circuit 314B.

なお、CMOS311A、311B、CDS回路312A、312B、及びA/D変換器313A、313Bは、タイミング信号発生器316により、動作するタイミングが制御されている。画像処理回路314A、314Bは、それぞれ、画像データを一時格納するSDRAM(Synchronous Dynamic Random Access Memory)317を用いて、RGB→YCrCb変換処理、ホワイトバランス制御処理、コントラスト補正処理、エッジ強調処理、及び色変換処理などの各種画像処理を行う。なお、ホワイトバランス制御処理は、画像情報の色濃さを調整する画像処理であり、コントラスト補正処理は、画像情報のコントラストを調整する画像処理であり、エッジ強調処理は、画像情報のシャープネスを調整する画像処理であり、色変換処理は、画像情報の色合いを調整する画像処理である。   Note that the timing of operation of the CMOSs 311A and 311B, the CDS circuits 312A and 312B, and the A / D converters 313A and 313B is controlled by a timing signal generator 316. Each of the image processing circuits 314A and 314B uses an SDRAM (Synchronous Dynamic Random Access Memory) 317 that temporarily stores image data, and performs RGB → YCrCb conversion processing, white balance control processing, contrast correction processing, edge enhancement processing, and color. Various image processing such as conversion processing is performed. The white balance control process is an image process that adjusts the color density of image information, the contrast correction process is an image process that adjusts the contrast of image information, and the edge enhancement process adjusts the sharpness of image information. The color conversion process is an image process for adjusting the hue of image information.

また、SDRAM317に記憶された画像処理が施された画像データは、画像圧縮伸張回路318により圧縮され、メモリカード319に記録される。画像圧縮伸張回路318は、画像処理回路314A、314Bから出力される画像データを圧縮してメモリカード319に出力するとともに、メモリカード319から読み出した画像データを伸張して画像処理回路314A、314Bに出力する回路である。   The image data subjected to the image processing stored in the SDRAM 317 is compressed by the image compression / decompression circuit 318 and recorded in the memory card 319. The image compression / decompression circuit 318 compresses the image data output from the image processing circuits 314A and 314B and outputs the compressed image data to the memory card 319, and decompresses the image data read from the memory card 319 to the image processing circuits 314A and 314B. It is a circuit to output.

タイミング信号発生器316、画像処理回路314A、314B、画像圧縮伸張回路318、及びメモリカード319は、CPU(Central Processing Unit)315により制御されている。ROM(Read Only Memory)321は、CPU315により実行されるプログラムなどを格納した読み出し専用メモリであり、RAM(Random Access Memory)322は、CPU315が各種の処理過程で利用するワークエリア、及び各種データ格納エリアなどを有する読み出し書き込み自在のメモリである。   The timing signal generator 316, the image processing circuits 314A and 314B, the image compression / decompression circuit 318, and the memory card 319 are controlled by a CPU (Central Processing Unit) 315. A ROM (Read Only Memory) 321 is a read-only memory that stores programs executed by the CPU 315, and a RAM (Random Access Memory) 322 is a work area that the CPU 315 uses in various processing steps, and stores various data. This is a readable / writable memory having an area and the like.

CPU315は、画像処理回路314Aにより各種画像処理が施された画像データ、及び画像処理回路314Bにより各種画像処理が施された画像データ、即ち、ステレオ画像を用いた視差演算を行って視差画像を生成し、生成した視差画像に基づいて、視差画像に写る物体までの距離を求める。なお、視差は、画素毎又は画素ブロック毎に算出され、視差画像では、画素又は画素ブロック毎に視差情報が対応づけられる。画素ブロックは、1以上の画素で構成されるブロックである。これにより、視差画像は、視差画像に写る物体(対象物)の3次元空間上での3次元位置(3次元座標)を表すことができる。測距部300の主要な構成は、バスライン19によって相互接続されている。   The CPU 315 generates a parallax image by performing parallax calculation using the image data subjected to various image processing by the image processing circuit 314A and the image data subjected to various image processing by the image processing circuit 314B, that is, a stereo image. Then, based on the generated parallax image, the distance to the object shown in the parallax image is obtained. Note that the parallax is calculated for each pixel or each pixel block, and in the parallax image, the parallax information is associated with each pixel or each pixel block. A pixel block is a block composed of one or more pixels. Thereby, the parallax image can represent the three-dimensional position (three-dimensional coordinate) in the three-dimensional space of the object (target object) reflected in the parallax image. The main components of the distance measuring unit 300 are interconnected by a bus line 19.

図7は、第1実施形態の制御部400のハードウェア構成の一例を示すブロック図である。制御部400は、CPU411、RAM412、フラッシュROM413、I/O414、及びネットワークI/F415を備える。   FIG. 7 is a block diagram illustrating an example of a hardware configuration of the control unit 400 according to the first embodiment. The control unit 400 includes a CPU 411, a RAM 412, a flash ROM 413, an I / O 414, and a network I / F 415.

CPU411は、フラッシュROM413に記憶されたプログラム420を実行して制御部400の全体の動作を制御する。プログラム420は、メモリカード416に記憶された状態で配布されてもよいし、サーバから携帯電話網や無線LAN(Local Area Network)網などの通信網を経由してダウンロードされることで配布されてもよい。RAM412は、CPU411がプログラムを実行する際のワークエリア(プログラムやデータが一時的に記憶される)として使用される。   The CPU 411 controls the overall operation of the control unit 400 by executing the program 420 stored in the flash ROM 413. The program 420 may be distributed in a state stored in the memory card 416, or may be distributed by being downloaded from a server via a communication network such as a mobile phone network or a wireless local area network (LAN) network. Also good. The RAM 412 is used as a work area (a program and data are temporarily stored) when the CPU 411 executes the program.

CPU411は、測距部300の測距結果に基づいて、自己位置推定を行ったり、測距部300に再測距を行わせたりする。I/O414は、I2CやUARTなどの入出力インターフェースである。ネットワークI/F415は、イーサネット(登録商標)などの車載ネットワーク上で通信するための通信装置である。   The CPU 411 performs self-position estimation based on the distance measurement result of the distance measurement unit 300 or causes the distance measurement unit 300 to perform distance measurement again. The I / O 414 is an input / output interface such as I2C or UART. The network I / F 415 is a communication device for communicating on an in-vehicle network such as Ethernet (registered trademark).

図8は、第1実施形態の移動体10のハードウェア構成の一例を示すブロック図である。移動体10は、主に、制御装置519、GPSアンテナ512、GPS受信器525、及びプロペラモータ545A〜545Dから構成される。   FIG. 8 is a block diagram illustrating an example of a hardware configuration of the moving object 10 according to the first embodiment. The moving body 10 mainly includes a control device 519, a GPS antenna 512, a GPS receiver 525, and propeller motors 545A to 545D.

GPSアンテナ512及びGPS受信器525は、移動体10の絶対座標を測定する。なお、GPSアンテナ512及びGPS受信器525としては、後処理キネマティックGPS又はリアルタイムキネマティックGPS(RTK−GPS)が用いられるのが好ましい。RTK−GPSは、高精度の測定が可能である。   The GPS antenna 512 and the GPS receiver 525 measure the absolute coordinates of the moving body 10. As the GPS antenna 512 and the GPS receiver 525, post-processing kinematic GPS or real-time kinematic GPS (RTK-GPS) is preferably used. RTK-GPS can measure with high accuracy.

プロペラモータ545A〜545Dは、それぞれ、プロペラ12〜15を回転駆動するためのモータである。   Propeller motors 545A to 545D are motors for rotationally driving propellers 12 to 15, respectively.

制御装置519は、主に、制御演算部520、記憶部522、撮像制御部523、飛行制御部526、方位センサ527、ジャイロユニット528、及び通信部529を、備える。   The control device 519 mainly includes a control calculation unit 520, a storage unit 522, an imaging control unit 523, a flight control unit 526, an orientation sensor 527, a gyro unit 528, and a communication unit 529.

記憶部522は、例えば、RAMやROMであり、プログラム格納部とデータ格納部とを含む。プログラム格納部には、ステレオカメラ350の撮像を制御する為の撮像プログラム、自律飛行する為の飛行制御プログラム、ステレオカメラ350の姿勢を制御する為の姿勢制御プログラム、及び飛行計画プログラムなどのプログラムが格納されている。データ格納部には、ステレオカメラ350で撮像した撮像データ、並びにGPSアンテナ512及びGPS受信器525によって取得した絶対座標(地表座標)などのデータが格納される。   The storage unit 522 is, for example, a RAM or a ROM, and includes a program storage unit and a data storage unit. The program storage unit includes programs such as an imaging program for controlling imaging of the stereo camera 350, a flight control program for autonomous flight, an attitude control program for controlling the attitude of the stereo camera 350, and a flight planning program. Stored. The data storage unit stores image data captured by the stereo camera 350 and data such as absolute coordinates (ground coordinates) acquired by the GPS antenna 512 and the GPS receiver 525.

制御演算部520は、記憶部522に格納されたプログラムに基づいて、移動体10の全体の動作を制御する。   The control calculation unit 520 controls the overall operation of the moving body 10 based on a program stored in the storage unit 522.

ここで、ステレオカメラ350は、静止画及び動画を撮像可能であり、取得した画像をデジタル信号の画像データとして撮像制御部523に出力可能である。   Here, the stereo camera 350 can capture a still image and a moving image, and can output the acquired image to the imaging control unit 523 as image data of a digital signal.

撮像制御部523は、ステレオカメラ350による静止画や動画の撮像に関する制御を行う。撮像制御部523には、測距部300から画素又は画素ブロック毎の距離情報、すなわち視差画像から得られた距離画像が送られる。撮像制御部523は、ステレオカメラ350からの画像データから輝度情報を得ることも可能である。   The imaging control unit 523 performs control related to imaging of still images and moving images by the stereo camera 350. Distance information for each pixel or pixel block, that is, a distance image obtained from a parallax image is sent from the distance measurement unit 300 to the imaging control unit 523. The imaging control unit 523 can also obtain luminance information from the image data from the stereo camera 350.

方位センサ527は、移動体10の向きを検出し、その検出結果を制御演算部520に出力する。   The direction sensor 527 detects the direction of the moving body 10 and outputs the detection result to the control calculation unit 520.

ジャイロユニット528は、移動体10の飛行状態での姿勢を検出し、その検出結果を制御演算部520に出力する。   The gyro unit 528 detects the attitude of the moving body 10 in the flight state, and outputs the detection result to the control calculation unit 520.

また、3軸ジャイロセンサ20aの検出結果も制御演算部520に出力される。さらに、測距部300の測定結果(距離画像)も制御演算部520に出力される。   Further, the detection result of the three-axis gyro sensor 20 a is also output to the control calculation unit 520. Further, the measurement result (distance image) of the distance measurement unit 300 is also output to the control calculation unit 520.

制御演算部520は、測距部300の測定結果及び3軸ジャイロセンサ20aの検出結果に基づいて、後述する演算処理を行い、その演算結果を飛行制御部526に出力する。   The control calculation unit 520 performs calculation processing described later based on the measurement result of the distance measurement unit 300 and the detection result of the three-axis gyro sensor 20a, and outputs the calculation result to the flight control unit 526.

飛行制御部526は、測距系100の制御部400により推定された自己位置、方位センサ527により検出された移動体10の向き、ジャイロユニット528により検出された移動体10の姿勢、制御演算部520からの上記演算結果等に基づいて、プロペラモータ545A〜545Dの駆動を制御することにより、移動体10の自律飛行を制御する。   The flight control unit 526 includes a self-position estimated by the control unit 400 of the distance measuring system 100, a direction of the moving body 10 detected by the direction sensor 527, a posture of the moving body 10 detected by the gyro unit 528, and a control calculation unit. The autonomous flight of the moving body 10 is controlled by controlling the driving of the propeller motors 545A to 545D based on the calculation result from 520 and the like.

なお、飛行制御部526は、GPSアンテナ512及びGPS受信器525を含むGPS装置によって取得した絶対座標と制御演算部520からの上記演算結果を用いて、移動体10の自律飛行を制御しても良い。   Note that the flight control unit 526 controls the autonomous flight of the mobile object 10 using the absolute coordinates acquired by the GPS device including the GPS antenna 512 and the GPS receiver 525 and the calculation result from the control calculation unit 520. good.

但し、GPS装置は絶対位置を求めることができるものの、環境によって結果が不安定になったり、観測不能になったりすることがある。そのため、方位センサ27、ジャイロユニット528等が配備されるメリットは大きい。   However, although the GPS device can determine the absolute position, the result may become unstable or unobservable depending on the environment. Therefore, the merit of providing the orientation sensor 27, the gyro unit 528, etc. is great.

通信部529は、測距系100と通信して、測距系100により推定された自己位置を示す自己位置情報を取得したり、ステレオカメラ350で撮像した撮像データやGPSアンテナ512及びGPS受信器525により測定された移動体10の絶対座標を基地局などに無線送信したりする等の機能を有する。   The communication unit 529 communicates with the distance measurement system 100 to acquire self-position information indicating the self-position estimated by the distance measurement system 100, or image data captured by the stereo camera 350, a GPS antenna 512, and a GPS receiver. A function of transmitting the absolute coordinates of the moving body 10 measured by 525 wirelessly to a base station or the like is provided.

[測距の原理]
従来から、例えばステレオカメラ、ミリ波レーダ、レーザレーダ等を含む測距系を備える測距装置が知られており、これらの測距装置の測距結果を用いて対象物までの距離を測定する技術が知られている(例えば、特許文献1(特開2006−31101号公報)参照)。
[Principles of ranging]
Conventionally, distance measuring devices including a distance measuring system including, for example, a stereo camera, a millimeter wave radar, a laser radar, and the like are known, and a distance to an object is measured using a distance measurement result of these distance measuring devices. A technique is known (see, for example, Patent Document 1 (Japanese Patent Laid-Open No. 2006-31101)).

例えばステレオカメラを含む測距系は、計測対象である物体を2つのカメラで撮影して、得られた2つの画像間に生じる視差を利用して、三角測量の原理により物体までの距離を算出する。   For example, a distance measuring system including a stereo camera takes an object to be measured with two cameras and calculates the distance to the object based on the principle of triangulation using the parallax generated between the two images obtained. To do.

視差を利用して距離を算出する原理を図9、図10に基づいて説明する。図9では、計測対象物101を同一構成の光学系(レンズ、撮像素子)からなる2つのカメラ102a、102bを含むステレオカメラ106を用いて撮影している。レンズ103aを通して得た計測対象物像104aと、レンズ103bを通して得た計測対象物像104bは2次元撮像素子105a、105b上にそれぞれ写る。このとき2次元撮像素子上で計測対象物の写る位置の違いが視差Δである。   The principle of calculating the distance using parallax will be described with reference to FIGS. In FIG. 9, the measurement object 101 is photographed using a stereo camera 106 including two cameras 102 a and 102 b composed of optical systems (lenses and imaging elements) having the same configuration. The measurement object image 104a obtained through the lens 103a and the measurement object image 104b obtained through the lens 103b are shown on the two-dimensional imaging elements 105a and 105b, respectively. At this time, the difference in the position where the measurement object appears on the two-dimensional image sensor is the parallax Δ.

ここでレンズ103a、103bの光軸間の距離は基線長と呼ばれ、これをBとし、レンズと計測対象物との距離をA、レンズ103a、103bの焦点距離をfとし、A≫fであるときには次の(式0)が成り立つ。
A=Bf/Δ ・・・(式0)
Here, the distance between the optical axes of the lenses 103a and 103b is called a base line length, which is B, the distance between the lens and the measurement object is A, the focal length of the lenses 103a and 103b is f, and A >> f. In some cases, the following (Equation 0) holds.
A = Bf / Δ (Expression 0)

上記(式0)より、基線長B、およびレンズの焦点距離fは既知であるから、視差Δを検出すれば計測対象物までの距離Aを算出することができる。上記(式0)からわかるように距離Aが大きい(=遠い)場合には視差Δは小さく、距離Aが小さい(=近い)場合には視差Δは大きくなる。ここで求められる距離Aは基線長Bの方向に対して垂直方向の距離である。   From the above (Equation 0), the base line length B and the focal length f of the lens are known, so that the distance A to the measurement object can be calculated by detecting the parallax Δ. As can be seen from the above (Equation 0), when the distance A is large (= far), the parallax Δ is small, and when the distance A is small (= close), the parallax Δ is large. The distance A obtained here is a distance in the direction perpendicular to the direction of the baseline length B.

図10を用いて視差Δの求め方を説明する。計測対象物101は2次元撮像素子105b上に写っている場合、2次元撮像素子105a上では2次元撮像素子105bと視差Δだけ異なる位置に写っている。どれくらい異なっているかを検出するために「パターンマッチング」と呼ばれる手法が用いられる。これは対象物が一方の画像(基準画像という。ここでは2次元撮像素子105bの画像)に対して、他方の画像(比較画像という。ここでは2次元撮像素子105aの画像)内のどこに存在するかを探索することであり、この探索には、SAD(Sum of Absolute Difference)法等の相関処理が一般的によく用いられている。   A method of obtaining the parallax Δ will be described with reference to FIG. When the measurement object 101 is shown on the two-dimensional image sensor 105b, the measurement object 101 is shown on the two-dimensional image sensor 105a at a position different from the two-dimensional image sensor 105b by a parallax Δ. A technique called “pattern matching” is used to detect how different they are. This is where the object exists in one image (referred to as a reference image, here the image of the two-dimensional image sensor 105b) in the other image (referred to as a comparative image, here the image of the two-dimensional image sensor 105a). In this search, correlation processing such as SAD (Sum of Absolute Difference) method is generally used.

相関処理は、基準画像の中にあるブロック(例えば7×7画素)をテンプレートとして、比較画像上の探索範囲内でテンプレートと同サイズのウインドウを動かし、テンプレートと最も相関のあるブロックを決定する処理である。この同じ画像(ブロック)を探すときは、1画素ずつずらしながら1画素、2画素・・・と順に探すため、探索画素数を大きくするほど測定できる距離は拡大する。   The correlation process is a process of determining a block most correlated with the template by moving a window having the same size as the template within the search range on the comparison image using a block (for example, 7 × 7 pixels) in the reference image as a template. It is. When searching for the same image (block), since the search is performed in order of 1 pixel, 2 pixels,..., While shifting one pixel at a time, the measurable distance increases as the number of search pixels increases.

一例として、基線長B=100mm、レンズ焦点距離10mm、撮像素子の画素サイズ5μmとした場合は、上記(式0)から計測対象物までの距離Aと視差Δの関係は図11のようになる。計測対象物までの距離Aが1300mmでは視差は154画素、距離が1000mmでは視差は200画素、距離700mmでは視差は286画素発生する。   As an example, when the base line length B is 100 mm, the lens focal length is 10 mm, and the pixel size of the image sensor is 5 μm, the relationship between the distance A from the (Equation 0) to the measurement object and the parallax Δ is as shown in FIG. . When the distance A to the measurement object is 1300 mm, the parallax is 154 pixels, when the distance is 1000 mm, the parallax is 200 pixels, and when the distance is 700 mm, the parallax is 286 pixels.

以上のようにステレオカメラを用いて対象物までの距離を測定する測距装置は既に知られている。   As described above, a distance measuring apparatus that measures the distance to an object using a stereo camera is already known.

[問題点]
ところで、現状のステレオカメラが搭載される移動体としての自律飛行する無人航空機は、単に自律飛行するだけではなく飛行しながらステレオカメラにより対象物の画像を撮影する役割も担っている。そのため、安定した画像が得られるようステレオカメラは、第1実施形態のように、ジンバルと姿勢駆動部を含むジンバル装置と呼ばれる映像安定化・追従装置を介して移動体に取り付けられることが一般的となっている。このジンバル装置により、移動体の細かい振動や急な方向転換などに対しても、カメラの向きを安定させることができ、画面ぶれのない見やすい画像を提供することができる。
[problem]
By the way, an unmanned aerial vehicle that autonomously flies as a moving body on which a current stereo camera is mounted has a role of capturing an image of an object with a stereo camera while flying, not just autonomously flying. Therefore, in order to obtain a stable image, a stereo camera is generally attached to a moving body via a video stabilization / tracking device called a gimbal device including a gimbal and a posture driving unit as in the first embodiment. It has become. With this gimbal device, the camera orientation can be stabilized against fine vibrations of the moving body or sudden changes in direction, and an easy-to-view image without screen blur can be provided.

しかしながら、逆に言うと、移動体の動きに対してステレオカメラは俊敏には追従していないことになる。ステレオカメラを含む測距系をジンバル装置を介して移動体に取り付けた場合、撮像手段としては安定した画像が得られる反面、測距手段としては本来移動体が向いている方向(進行方向)の距離を測るべきなのに、移動体が向いている方向とはやや異なるステレオカメラが向いている方向の距離を測ってしまうことになる。そのため移動体が方向転換したときなどはステレオカメラの向きが移動体の向きに遅れて追従するために、その間は移動体が向いている方向(進行方向)の距離ではなく、ステレオカメラが向いている方向の距離を測ってしまうことになる。   However, in other words, the stereo camera does not follow the movement of the moving body quickly. When a ranging system including a stereo camera is attached to a moving body via a gimbal device, a stable image can be obtained as an imaging means, but in a direction (traveling direction) that the moving body is originally facing as a ranging means. Although the distance should be measured, the distance in the direction in which the stereo camera is facing is slightly different from the direction in which the moving body is facing. Therefore, when the moving body changes direction, the direction of the stereo camera follows the direction of the moving body with a delay, so during that time the stereo camera is facing instead of the distance of the moving body (direction of travel). It will measure the distance in the direction.

例えば室内のような狭い空間を高速に自律飛行するような移動体では、移動体の向きが変わってから、カメラの向きが移動体の向きに一致するまでの時間における測距誤差により移動体が周囲の物体に衝突することが懸念される。   For example, in a mobile object that autonomously flies in a small space such as a room, the mobile object may be affected by a ranging error in the time from when the direction of the mobile object changes until the camera direction matches that of the mobile object. There is concern about collision with surrounding objects.

[考察]
ジンバルは、一の機器を例えばPitching(ピッチング)、Rolling(ローリング)、Yawing(ヨーイング)の直交する3軸周りに互いに回転自在に他の機器に接続するよう構成されている(2つの機器を2軸周りに回転自在に接続するジンバルもある)。
[Discussion]
The gimbal is configured to connect one device to another device so as to be rotatable around three orthogonal axes of, for example, Pitching, Rolling, and Yawing. (There is also a gimbal that can be rotated around its axis).

ジンバルを介してステレオカメラが移動体に取り付けられる場合、移動体に対するステレオカメラの各軸周りの振動などによる高速で細かい傾きを角度センサ(ジャイロセンサ)で検知して、検知した傾きを打ち消すことでステレオカメラの移動体に対する姿勢を一定に保つことができる。   When a stereo camera is attached to a moving body via a gimbal, an angle sensor (gyro sensor) detects a fine tilt at high speed due to vibration around each axis of the stereo camera relative to the moving body, and cancels the detected tilt. The attitude of the stereo camera relative to the moving body can be kept constant.

この検知した傾きをステレオカメラで得られた視差にフィードバックすることで、ステレオカメラが向いている方向の距離ではなく移動体が向いている方向(進行方向)の距離を算出することができる。
その原理を、図12を用いて説明する。
By feeding back the detected inclination to the parallax obtained by the stereo camera, it is possible to calculate the distance in the direction (traveling direction) in which the moving body is facing, not the distance in the direction in which the stereo camera is facing.
The principle will be described with reference to FIG.

図12(a)では移動体とステレオカメラが同じ方向を向いている場合、すなわち移動体の進行方向とステレオカメラの光軸方向が一致している場合を示している。ここでは、便宜上、「ステレオカメラの光軸」を該ステレオカメラの2眼(2つの撮像部)の光軸の中間の軸としている。この場合、移動体の前方に平面(物体の一面)があれば、ステレオカメラは移動体の進行方向と垂直な平面があることを検出する。このとき図12(a)に示されるステレオカメラを含む測距部(以下では「ステレオ測距部」とも呼ぶ)で生成された距離画像は、平面全体で均一(一定の濃さ)となる。なお、「距離画像」は、ステレオ測距部で生成された視差画像から得られた画素毎の距離データを総合したものである。   FIG. 12A shows a case where the moving body and the stereo camera face the same direction, that is, a case where the traveling direction of the moving body and the optical axis direction of the stereo camera coincide. Here, for convenience, the “optical axis of the stereo camera” is an intermediate axis between the optical axes of the two eyes (two imaging units) of the stereo camera. In this case, if there is a plane (one surface of the object) in front of the moving body, the stereo camera detects that there is a plane perpendicular to the traveling direction of the moving body. At this time, the distance image generated by the distance measuring unit including the stereo camera shown in FIG. 12A (hereinafter also referred to as “stereo distance measuring unit”) is uniform (constant density) over the entire plane. The “distance image” is a total of distance data for each pixel obtained from the parallax image generated by the stereo distance measuring unit.

一方、図12(b)のように移動体が紙面に垂直な軸(例えば鉛直軸)周りの一方向(例えば左周り)に急回転(急旋回)し移動体が角度θだけ傾いても、ジンバルにより安定に保たれているステレオカメラは急には傾かない。そのため、ステレオカメラは進行方向と垂直な平面があることを検出したままである。このとき図12(b)に示されるステレオ測距部で生成された距離画像は、図12(a)の距離画像と同じである。   On the other hand, as shown in FIG. 12B, even when the moving body suddenly rotates (rapidly turns) in one direction (for example, counterclockwise) around an axis (for example, the vertical axis) perpendicular to the paper surface, Stereo cameras that are kept stable by the gimbal do not suddenly tilt. Therefore, the stereo camera still detects that there is a plane perpendicular to the traveling direction. At this time, the distance image generated by the stereo distance measuring unit shown in FIG. 12B is the same as the distance image shown in FIG.

この場合、移動体から見ると平面は進行方向と垂直ではなく、θだけ傾いた状態で存在している。移動体がこのまま進行すると、移動体の平面に近い右側の部分が該平面に衝突することになる。   In this case, when viewed from the moving body, the plane is not perpendicular to the traveling direction but is inclined by θ. When the moving body proceeds as it is, the right portion near the plane of the moving body collides with the plane.

そこで、移動体が角度θだけ傾いたことを検出し、ステレオ測距部で生成された各距離データに角度θを加味する、すなわち該距離データを角度θを用いて補正する。   Therefore, it is detected that the moving body is inclined by the angle θ, and the angle θ is added to each distance data generated by the stereo distance measuring unit, that is, the distance data is corrected using the angle θ.

すると、図12(c)のようにステレオ測距部から出力された平面の距離データを、移動体から見た移動体の右端に近いほど距離が短く、左端に近いほど距離が長い距離データに補正することが可能である。このとき図12(c)に示されるステレオ測距部で生成された距離画像には、濃い部分ほど距離が短く、淡い部分ほど距離が長いことを示す濃淡のグラデーションがある。   Then, as shown in FIG. 12C, the distance data of the plane output from the stereo distance measuring unit is converted into distance data in which the distance is shorter as it is closer to the right end of the moving body as viewed from the moving body, and the distance is longer as it is closer to the left end. It is possible to correct. At this time, the distance image generated by the stereo distance measuring unit shown in FIG. 12C has a light and dark gradation indicating that the darker portion has a shorter distance and the lighter portion has a longer distance.

移動体の急回転に対して、ステレオカメラは緩やかに追従する。移動体の急回転が終わると、図12(d)のように移動体の向きとステレオカメラの向きが一致し、図12(a)と同様に移動体とステレオカメラは同じ方向を向くことになる。このとき図12(d)に示されるステレオ測距部で生成された距離画像は、図12(c)に示される距離画像と同じであり、図12(c)において距離データに角度θが加味されていることが確認できる。   The stereo camera follows the moving body suddenly. When the sudden rotation of the moving body ends, the direction of the moving body and the direction of the stereo camera coincide as shown in FIG. 12D, and the moving body and the stereo camera face the same direction as in FIG. Become. At this time, the distance image generated by the stereo distance measuring unit shown in FIG. 12 (d) is the same as the distance image shown in FIG. 12 (c), and the angle θ is added to the distance data in FIG. 12 (c). Can be confirmed.

このようにしてステレオカメラからの距離データに移動体の向きとステレオカメラの向きの違いを加味することでリアルタイムに移動体の向きの距離データを得ることができる。   In this way, distance data of the moving body can be obtained in real time by adding the difference between the direction of the moving body and the direction of the stereo camera to the distance data from the stereo camera.

なお、距離データは振動に対して安定ではなくなるが距離データを人が見て観察するわけではないため問題はない。ジンバルにより安定な撮影画像が得られるととともに、リアルタイムに距離画像が得られることで室内のような狭い場所でも移動体を周囲のものに衝突することなく精度よく飛行させることができる。   Although the distance data is not stable against vibration, there is no problem because the distance data is not viewed and observed by a person. A stable photographed image can be obtained by the gimbal, and a distance image can be obtained in real time, so that the moving body can fly with high accuracy without colliding with surrounding objects even in a narrow place such as a room.

なお、ここでは、ステレオカメラの向きと移動体の向きが異なる場合の一例として、移動体が急回転する場合について説明したが、例えば移動体が急加速する場合や急減速する場合もステレオカメラの向きと移動体の向きが異なることが想定される。また、例えば移動体10が振動する場合や移動体が緩やかに曲がる場合や緩やかに加速する場合や緩やかに減速する場合も、ステレオカメラの向きと移動体の向きが大なり小なり異なることが想定される。   Here, as an example of the case where the direction of the stereo camera and the direction of the moving body are different from each other, the case where the moving body suddenly rotates has been described. However, for example, when the moving body suddenly accelerates or decelerates suddenly, It is assumed that the direction and the direction of the moving object are different. Also, for example, when the moving body 10 vibrates, when the moving body bends gently, when slowly accelerating, or when slowly decelerating, it is assumed that the direction of the stereo camera and the direction of the moving body are larger or smaller. Is done.

[改善点]
以下では、簡単のために、移動体10の向き(前進方向)が水平方向に一致し、かつ測距系100、シャフト21及び姿勢駆動部200を含む系に重力のみが作用している状態をジンバル20の初期状態と定義したときに、該初期状態において移動体10の向きとステレオカメラ350の向きが一致していることを前提に説明を進める。
[Improvements]
In the following, for the sake of simplicity, it is assumed that the direction of the moving body 10 (the forward direction) coincides with the horizontal direction and that only gravity acts on the system including the distance measuring system 100, the shaft 21, and the attitude driving unit 200. When the initial state of the gimbal 20 is defined, the description will be made on the assumption that the direction of the moving body 10 and the direction of the stereo camera 350 match in the initial state.

上述したように、ジンバル20を介して移動体10に取り付けられたステレオカメラ350は姿勢駆動部200によって移動体10の移動に遅れて(緩やかに)追従するため、移動体10の進行方向とステレオカメラ350の光軸には一時的にずれ(傾斜)が生じる。   As described above, since the stereo camera 350 attached to the moving body 10 via the gimbal 20 follows the movement of the moving body 10 with a delay (slowly) by the posture driving unit 200, the traveling direction of the moving body 10 and the stereo There is a temporary shift (tilt) in the optical axis of the camera 350.

そこで、第1実施形態では、ジンバル20の3軸ジャイロセンサ20aの検出結果が、移動体10の向きに対するステレオカメラ350の向きの違い、すなわち移動体10の進行方向に対するステレオカメラ350の光軸の傾斜情報(傾斜方向と傾斜角)を示すことに着目し、この傾斜情報を用いて測距部300で測定された距離データ(距離情報)移動体10から見た距離データに変換(補正)する。以下に、その方法を説明する。   Therefore, in the first embodiment, the detection result of the three-axis gyro sensor 20a of the gimbal 20 is the difference in the direction of the stereo camera 350 with respect to the direction of the moving body 10, that is, the optical axis of the stereo camera 350 with respect to the traveling direction of the moving body 10. Focusing on the fact that tilt information (tilt direction and tilt angle) is indicated, the tilt data is used to convert (correct) distance data (distance information) measured by the distance measuring unit 300 into distance data viewed from the moving body 10. . The method will be described below.

先ず、移動体10にジンバル20を介して取り付けられたステレオカメラ350の2つの撮像画像(2つのCMOS311A、311Bによる撮像画像)から、ステレオカメラ350の光軸に平行な方向をz軸とした距離情報(x、y、z)、すなわちステレオカメラ350の光軸に直交する平面内の2次元座標(x、y)と(x、y)でのステレオカメラ350からの距離zで表される、ステレオカメラ350から見た(カメラ座標系における)画素又は画素ブロック毎の距離情報を含む距離画像が得られる。   First, a distance in which the z-axis is a direction parallel to the optical axis of the stereo camera 350 from two captured images of the stereo camera 350 attached to the moving body 10 via the gimbal 20 (captured images by the two CMOSs 311A and 311B). Represented by information (x, y, z), that is, a two-dimensional coordinate (x, y) in a plane orthogonal to the optical axis of the stereo camera 350 and a distance z from the stereo camera 350 at (x, y). A distance image including distance information for each pixel or pixel block (in the camera coordinate system) viewed from the stereo camera 350 is obtained.

そして、3軸ジャイロセンサ20aの検出結果である、移動体10の進行方向に対するステレオカメラ350の光軸の傾斜(以下では「カメラ傾斜」とも呼ぶ)がx軸まわりの角度αの回転である場合は、移動体10から見た距離情報(x´、y´、z´)は次の(式1)で表される。
When the tilt of the optical axis of the stereo camera 350 (hereinafter also referred to as “camera tilt”), which is the detection result of the three-axis gyro sensor 20a, with respect to the traveling direction of the moving body 10 is a rotation of the angle α around the x axis. The distance information (x ′, y ′, z ′) viewed from the moving body 10 is expressed by the following (Expression 1).

また、カメラ傾斜がy軸まわりの角度βの回転である場合は、移動体10から見た距離情報(x´、y´、z´)は次の(式2)で表される。
When the camera tilt is rotation of an angle β around the y axis, distance information (x ′, y ′, z ′) viewed from the moving body 10 is expressed by the following (Expression 2).

また、カメラ傾斜がz軸まわりに角度γの回転である場合は、移動体10から見た距離情報(x´、y´、z´)は次の(式3)で表される。
When the camera tilt is a rotation of an angle γ about the z axis, distance information (x ′, y ′, z ′) viewed from the moving body 10 is expressed by the following (Expression 3).

また、カメラ傾斜がx軸、y軸、z軸まわりにそれぞれ角度α、β、γの回転(複合回転)である場合は、移動体10から見た距離情報(x’、y’、z’)は次の(式4)で表される。
When the camera tilt is rotation of angles α, β, and γ around the x-axis, y-axis, and z-axis (combined rotation), distance information (x ′, y ′, z ′ viewed from the moving body 10). ) Is expressed by the following (formula 4).

以上の説明から分かるように、移動体10にジンバル20を介して取り付けられた測距系100から得られる距離情報(x、y、z)を、3軸ジャイロセンサ20aの検出結果から求めた、ステレオカメラ350の光軸と移動体の進行方向の傾斜角α、β、γを用いて、移動体10から見た距離情報(x´、y´、z´)すなわち移動体座標系における距離情報に変換することができる。この変換は、制御演算部520での演算処理で実施できる。そこで、測距系100と3軸ジャイロセンサ20aと制御演算部520を含んで「測距装置1000」が構成される。   As can be seen from the above description, distance information (x, y, z) obtained from the distance measuring system 100 attached to the moving body 10 via the gimbal 20 was obtained from the detection result of the three-axis gyro sensor 20a. Using the optical axis of the stereo camera 350 and the inclination angles α, β, γ of the moving body in the traveling direction, distance information (x ′, y ′, z ′) viewed from the moving body 10, that is, distance information in the moving body coordinate system Can be converted to This conversion can be performed by a calculation process in the control calculation unit 520. Therefore, the “ranging device 1000” is configured including the ranging system 100, the three-axis gyro sensor 20a, and the control calculation unit 520.

これにより、ステレオカメラ350がジンバル20を介して移動体10に取り付けられている場合でも、常に移動体10の向き(進行方向)を基準とした距離情報(x´、y´、z´)をリアルタイムに得ることが可能になり、移動体10を例えば室内のような狭い場所でも周囲のものに衝突することなく精度よく飛行させることができる。   Thereby, even when the stereo camera 350 is attached to the moving body 10 via the gimbal 20, the distance information (x ′, y ′, z ′) is always based on the direction (traveling direction) of the moving body 10. It becomes possible to obtain in real time, and the moving body 10 can fly with high accuracy without colliding with surrounding objects even in a narrow place such as a room.

なお、ジンバル20の初期状態において移動体10の向きに対してステレオカメラ350の向きが傾斜している場合には、その傾斜情報も加味して距離データを補正すれば良い。   In the initial state of the gimbal 20, when the direction of the stereo camera 350 is inclined with respect to the direction of the moving body 10, the distance data may be corrected in consideration of the inclination information.

以下に、第1実施形態の測距方法を実現する測距処理1について図13を参照して説明する。図13のフローチャートは、測距部300と制御装置519によって実行される処理アルゴリズムに従う。   Hereinafter, distance measurement processing 1 for realizing the distance measurement method of the first embodiment will be described with reference to FIG. The flowchart in FIG. 13 follows a processing algorithm executed by the distance measuring unit 300 and the control device 519.

最初のステップS1では、移動体10が移動中か否かを判断する。具体的には、GPS受信器525等からの情報を基に移動体10の移動の有無を判定する。ここでの判断が肯定されるとステップS2に移行し、否定されるとフローは終了する。   In the first step S1, it is determined whether or not the moving body 10 is moving. Specifically, the presence or absence of movement of the moving body 10 is determined based on information from the GPS receiver 525 or the like. If the determination here is affirmed, the process proceeds to step S2, and if the determination is negative, the flow ends.

ステップS2では、ステレオカメラ350で画角内に入る物体を撮像する。   In step S2, the stereo camera 350 images an object that falls within the angle of view.

次のステップS3では、ステレオカメラ350の2つの撮像画像(ステレオ画像)から物体の視差画像を生成する。   In the next step S3, a parallax image of the object is generated from two captured images (stereo images) of the stereo camera 350.

次のステップS4では、視差画像から物体の距離画像を生成する。   In the next step S4, a distance image of the object is generated from the parallax image.

次のステップS5では、移動体10に対する測距系100の相対的な姿勢変化に関する情報である姿勢変化情報(α、β、γ)を検出する。   In the next step S <b> 5, posture change information (α, β, γ) that is information related to a relative posture change of the distance measuring system 100 with respect to the moving body 10 is detected.

次のステップS6では、姿勢変化情報(α、β、γ)を用いて距離画像を補正する。具体的には、距離画像の画素又は画素ブロック毎の距離情報に対して、上記式(1)〜式(4)のいずれかを用いた演算を行う。   In the next step S6, the distance image is corrected using the posture change information (α, β, γ). Specifically, the calculation using any of the above formulas (1) to (4) is performed on the distance information for each pixel or pixel block of the distance image.

補正後の距離画像は飛行制御部526に送られ、移動体10の制御に用いられる。   The corrected distance image is sent to the flight control unit 526 and used for controlling the mobile object 10.

以上説明した第1実施形態の測距装置1000は、移動体10に搭載される測距装置(装置)であって、移動体10にジンバル20を介して取り付けられ、対象物までの距離情報を測定する測距系100と、移動体10の移動に伴う測距系100と移動体10との相対的な姿勢変化に関する情報である姿勢変化情報を検出する検出系と、姿勢変化情報を用いて距離情報を補正する制御演算部520(補正系)と、を備えている。なお、「移動体10の移動」は、移動体10の前進移動、後退移動、上昇移動、下降移動、旋回移動、回転移動(姿勢変化)及び任意の方向の振動を含む。   The distance measuring device 1000 according to the first embodiment described above is a distance measuring device (device) mounted on the moving body 10 and is attached to the moving body 10 via the gimbal 20 to obtain distance information to the object. A distance measuring system 100 to be measured, a detection system that detects posture change information that is information relating to a relative posture change between the distance measuring system 100 and the moving body 10 accompanying the movement of the moving body 10, and using the posture change information A control calculation unit 520 (correction system) that corrects the distance information. The “movement of the moving body 10” includes forward movement, backward movement, ascending movement, descending movement, turning movement, rotational movement (posture change), and vibration in an arbitrary direction.

この場合、移動体10の移動に伴って測距系100と移動体10の相対的な姿勢が変化しているときの測距系100の測定結果を、移動体10から見た距離情報に補正(変換)できる。   In this case, the measurement result of the distance measuring system 100 when the relative postures of the distance measuring system 100 and the moving object 10 change with the movement of the moving object 10 is corrected to the distance information viewed from the moving object 10. (Converted).

結果として、測距装置1000によれば、移動体10を安全に移動させるための情報を得ることができる。   As a result, according to the distance measuring apparatus 1000, information for safely moving the moving body 10 can be obtained.

また、測距系はステレオカメラ法を用いることが好ましい。   Further, it is preferable to use a stereo camera method for the distance measuring system.

この場合、ステレオカメラ350からジンバル20による安定した輝度画像を得ることができるとともに、ステレオカメラ350からジンバル20の安定効果を除去した(移動体10から見た)リアルタイムの距離画像を得ることができる。すなわち、1つのステレオカメラ350を用いて画質の安定化と測距の信頼性向上を両立できる。   In this case, a stable luminance image by the gimbal 20 can be obtained from the stereo camera 350, and a real-time distance image from which the stability effect of the gimbal 20 is removed (as viewed from the moving body 10) can be obtained from the stereo camera 350. . That is, it is possible to achieve both stabilization of image quality and improved reliability of distance measurement using one stereo camera 350.

また、姿勢変化情報は、移動体10の進行方向に対する測距系100の光軸の傾きに関する情報であることが好ましい。   Further, the posture change information is preferably information related to the inclination of the optical axis of the distance measuring system 100 with respect to the traveling direction of the moving body 10.

また、検出系は、移動体10の移動に伴うジンバル20の揺動軸の傾斜情報を計測する少なくとも1つのジャイロセンサを含むことが好ましい。   The detection system preferably includes at least one gyro sensor that measures inclination information of the swing axis of the gimbal 20 accompanying the movement of the moving body 10.

この場合、移動体10の移動に伴う測距系100の相対的な姿勢変化を制御するための制御情報として用いられるジンバル20の揺動軸の傾斜情報から姿勢変化情報を容易に得ることができる。   In this case, the posture change information can be easily obtained from the tilt information of the swing axis of the gimbal 20 used as control information for controlling the relative posture change of the distance measuring system 100 accompanying the movement of the moving body 10. .

また、検出系は、移動体10の姿勢を検出するジャイロユニット528(移動体姿勢検出部)と、測距系100の姿勢を検出する測距系姿勢検出部(例えば少なくとも1つのジャイロセンサ)と、を含んでいても良い。   The detection system includes a gyro unit 528 (moving body posture detecting unit) that detects the posture of the moving body 10, and a ranging system posture detecting unit (for example, at least one gyro sensor) that detects the posture of the ranging system 100. , May be included.

この場合、移動体10の姿勢に関する情報と測距系の姿勢に関する情報を用いて姿勢変化情報を求めることができる。すなわち、3軸ジャイロセンサ20aの検出結果を用いることなく、姿勢変化情報を求めることができる。   In this case, posture change information can be obtained using information related to the posture of the moving body 10 and information related to the posture of the distance measuring system. That is, posture change information can be obtained without using the detection result of the three-axis gyro sensor 20a.

具体的には、ジャイロユニット528の検出結果であるワールド座標系の各軸周りの回転角を(φ1、σ1、ε1)、測距系姿勢検出部の検出結果であるワールド座標系の各軸周りの回転角を(φ2、σ2、ε2)とすると、姿勢変化情報(α、β、γ)=(φ2−φ1、σ2−σ1、ε2−ε1)となる。   Specifically, the rotation angle around each axis of the world coordinate system that is the detection result of the gyro unit 528 is (φ1, σ1, ε1), and each axis of the world coordinate system that is the detection result of the ranging system posture detection unit. If the rotation angle is (φ2, σ2, ε2), the posture change information (α, β, γ) = (φ2-φ1, σ2-σ1, ε2-ε1).

さらに、検出系は、移動体10の進行方向を検出する方位センサ527(移動体進行方向検出部)を含むことが好ましい。   Furthermore, the detection system preferably includes an azimuth sensor 527 (moving body traveling direction detection unit) that detects the traveling direction of the moving body 10.

この場合、姿勢変化情報をより精度良く求めることができる。   In this case, posture change information can be obtained more accurately.

また、測距系100と、該測距系100がジンバル20を介して取り付けられる移動体10と、を備える移動体装置1によれば、移動体を安全に移動させることができる移動体装置を提供できる。   Further, according to the mobile device 1 including the distance measuring system 100 and the mobile object 10 to which the distance measuring system 100 is attached via the gimbal 20, the mobile device that can move the mobile object safely is provided. Can be provided.

また、第1実施形態の測距方法は、第1の観点からすると、移動体10にジンバル20を介して取り付けられる測距系100を用いる測距方法であって、測距系100を用いて対象物までの距離情報を測定する工程と、移動体10の移動に伴う測距系100と移動体10との相対的な姿勢変化に関する姿勢変化情報を検出する工程と、該姿勢変化情報に基づいて距離情報を補正する工程と、含む。   The distance measuring method of the first embodiment is a distance measuring method using the distance measuring system 100 attached to the moving body 10 via the gimbal 20 from the first viewpoint. A step of measuring distance information to the object, a step of detecting posture change information related to a relative posture change between the distance measuring system 100 and the moving body 10 accompanying the movement of the moving body 10, and based on the posture change information And correcting the distance information.

この場合、移動体10の移動に伴って測距系100の移動体10に対する姿勢が変化しているときの測距系の測定結果を、移動体10から見た距離情報に補正できる。   In this case, the measurement result of the distance measuring system when the posture of the distance measuring system 100 with respect to the moving object 10 is changed with the movement of the moving object 10 can be corrected to the distance information viewed from the moving object 10.

結果として、測距系100によれば、移動体10を安全に移動させるための情報を得ることができる。   As a result, according to the distance measuring system 100, information for safely moving the moving body 10 can be obtained.

ここで、第1実施形態の測距系100を、測距機能を持つ撮像装置と捉えることもできる。   Here, the distance measuring system 100 of the first embodiment can also be regarded as an imaging device having a distance measuring function.

そこで、第1実施形態の測距機能を持つ撮像装置は、移動体10に搭載される撮像装置(装置)であって、移動体10にジンバルを介して取り付けられ、撮像光学系及び撮像素子(例えばCMOS)をそれぞれが含む複数(例えば2つ)の撮像部を有するステレオカメラ350を含む撮像系と、複数の撮像部の撮像結果から視差画像を生成し、複数の撮像部で撮像された物体までの距離情報を算出するCPU315(演算手段)と、移動体10の移動に伴う撮像系と移動体10の相対的な姿勢変化に関する情報である姿勢変化情報を検出する検出系と、姿勢変化情報を用いて距離情報を補正する制御演算部520(補正手段)と、を備えている。   Therefore, the imaging apparatus having a distance measuring function according to the first embodiment is an imaging apparatus (apparatus) mounted on the moving body 10 and is attached to the moving body 10 via a gimbal, and includes an imaging optical system and an imaging element ( For example, an imaging system including a stereo camera 350 having a plurality of (for example, two) imaging units each including CMOS and a parallax image generated from the imaging results of the plurality of imaging units and captured by the plurality of imaging units CPU 315 (calculation means) for calculating the distance information to the camera, a detection system for detecting posture change information, which is information related to a relative posture change of the moving body 10 and the imaging system accompanying the movement of the moving body 10, and posture change information And a control calculation unit 520 (correction unit) that corrects the distance information by using.

この場合、移動体10の移動に伴って撮像系と移動体10の相対的な姿勢が変化しているときのCPU315の算出結果を、移動体10から見た距離情報に補正(変換)できる。   In this case, the calculation result of the CPU 315 when the relative posture between the imaging system and the moving body 10 changes with the movement of the moving body 10 can be corrected (converted) into distance information viewed from the moving body 10.

結果として、第1実施形態の撮像装置によれば、移動体10を安全に移動させるための情報を得ることができる。   As a result, according to the imaging device of the first embodiment, it is possible to obtain information for safely moving the moving body 10.

また、第1実施形態の撮像装置は、複数の撮像部の撮像結果から輝度情報を得る撮像制御部523(輝度情報取得部)を更に備えることが好ましい。   Moreover, it is preferable that the imaging device of 1st Embodiment is further provided with the imaging control part 523 (luminance information acquisition part) which acquires luminance information from the imaging result of a several imaging part.

この場合、ステレオカメラ350からジンバル20による安定した輝度画像を得ることができるとともに、ステレオカメラ350からジンバル20の安定効果を除去した(移動体10から見た)リアルタイムの距離画像を得ることができる。すなわち、1つのステレオカメラ350を用いて画質の安定化と測距の信頼性向上を両立できる。   In this case, a stable luminance image by the gimbal 20 can be obtained from the stereo camera 350, and a real-time distance image from which the stability effect of the gimbal 20 is removed (as viewed from the moving body 10) can be obtained from the stereo camera 350. . That is, it is possible to achieve both stabilization of image quality and improved reliability of distance measurement using one stereo camera 350.

また、姿勢変化情報は、移動体10の進行方向に対するステレオカメラ350の光軸の傾きに関する情報であることが好ましい。   Further, the posture change information is preferably information related to the inclination of the optical axis of the stereo camera 350 with respect to the traveling direction of the moving body 10.

また、検出系は、移動体10の移動に伴うジンバル20の揺動軸の傾斜情報を検出する少なくとも1つのジャイロセンサを含むことが好ましい。   The detection system preferably includes at least one gyro sensor that detects inclination information of the swing axis of the gimbal 20 accompanying the movement of the moving body 10.

この場合、移動体10の移動に伴う測距系の相対的な姿勢変化を制御するための制御情報として用いられるジンバル20の揺動軸の傾斜情報から姿勢変化情報を容易に得ることができる。   In this case, the posture change information can be easily obtained from the tilt information of the swing axis of the gimbal 20 used as control information for controlling the relative posture change of the distance measuring system accompanying the movement of the moving body 10.

また、検出系は、移動体10の姿勢を検出する移動体姿勢検出部(例えば少なくとも1つのジャイロセンサ)と、ステレオカメラ350の姿勢を検出するステレオカメラ姿勢検出部(例えば少なくとも1つのジャイロセンサ)と、を含んでいても良い。   The detection system includes a moving body posture detection unit (for example, at least one gyro sensor) that detects the posture of the moving body 10, and a stereo camera posture detection unit (for example, at least one gyro sensor) that detects the posture of the stereo camera 350. And may be included.

この場合、移動体10の姿勢に関する情報とステレオカメラ350の姿勢に関する情報を用いて姿勢変化情報を求めることができる。   In this case, posture change information can be obtained using information related to the posture of the moving body 10 and information related to the posture of the stereo camera 350.

また、第1実施形態の撮像装置と、該撮像装置がジンバル20を介して取り付けられる移動体10と、を備える移動体装置によれば、この場合、移動体10の移動に伴ってステレオカメラ350の移動体10に対する姿勢が変化しているときのステレオカメラ350の測定結果を、移動体10から見た距離情報に補正できる。   In addition, according to the moving body device including the imaging apparatus of the first embodiment and the moving body 10 to which the imaging apparatus is attached via the gimbal 20, in this case, the stereo camera 350 is accompanied with the movement of the moving body 10. The measurement result of the stereo camera 350 when the posture with respect to the moving body 10 is changed can be corrected to the distance information viewed from the moving body 10.

結果として、第1実施形態の撮像装置によれば、移動体10を安全に移動させるための情報を得ることができる。   As a result, according to the imaging device of the first embodiment, it is possible to obtain information for safely moving the moving body 10.

また、第1実施形態の測距方法は、第2の観点からすると、移動体10にジンバル20を介して取り付けられ、複数の撮像部を有するステレオカメラ350を含む撮像系を用いる測距方法であって、複数の撮像部の撮像結果から視差画像を生成し、複数の撮像部で撮像された物体までの距離情報を算出する工程と、移動体10の移動に伴う撮像系と移動体10の相対的な姿勢変化に関する情報である姿勢変化情報を検出する工程と、該姿勢変化情報を用いて距離情報を補正する工程と、を含む。   From the second viewpoint, the distance measuring method according to the first embodiment is a distance measuring method using an imaging system including a stereo camera 350 that is attached to the moving body 10 via the gimbal 20 and has a plurality of imaging units. A step of generating parallax images from the imaging results of the plurality of imaging units, calculating distance information to an object imaged by the plurality of imaging units, and an imaging system and the moving body 10 associated with the movement of the moving body 10 A step of detecting posture change information, which is information relating to a relative posture change, and a step of correcting distance information using the posture change information.

この場合、移動体10の移動に伴って撮像系と移動体10の相対的な姿勢が変化しているときに算出された距離情報を、移動体10から見た距離情報に補正(変換)できる。   In this case, the distance information calculated when the relative posture of the imaging system and the moving body 10 changes as the moving body 10 moves can be corrected (converted) to the distance information viewed from the moving body 10. .

結果として、第1実施形態の測距方法によれば、移動体10を安全に移動させるための情報を得ることができる。   As a result, according to the distance measuring method of the first embodiment, information for safely moving the moving body 10 can be obtained.

以上の説明から分かるように、発明者は、測距系や撮像系をジンバル20を介して移動体10に取り付けた場合でも常に移動体が向いている方向(進行方向)の距離を得ることができるようにすることで、安定した画像撮影と信頼性の高い測距を両立し、特に移動体10を室内のような狭い空間でも衝突することなく正確かつ高速に移動させることができる技術として、第1実施形態を発案した。   As can be understood from the above description, the inventor can always obtain the distance in the direction in which the moving body is facing (traveling direction) even when the ranging system or the imaging system is attached to the moving body 10 via the gimbal 20. By making it possible to achieve both stable image capturing and reliable distance measurement, in particular, as a technology that can move the moving body 10 accurately and at high speed without colliding even in a narrow space such as a room, The first embodiment was invented.

なお、上記第1実施形態では、姿勢変化情報(α、β、γ)等を用いて距離情報を補正する演算処理を移動体10の制御演算部520が行っているが、これに限らず、例えば測距部300のCPU315や制御部400のCPU411が行っても良い。この場合も、姿勢変化情報(α、β、γ)等を測距部300のCPU315や制御部400のCPU411に入力する必要がある。   In the first embodiment, the control calculation unit 520 of the moving body 10 performs the calculation process of correcting the distance information using the posture change information (α, β, γ) or the like. For example, the CPU 315 of the distance measuring unit 300 or the CPU 411 of the control unit 400 may perform this. Also in this case, it is necessary to input posture change information (α, β, γ) or the like to the CPU 315 of the distance measuring unit 300 or the CPU 411 of the control unit 400.

以下に、本発明の別の実施形態を説明する。以下の実施形態では、主に上記第1実施形態とは異なる点を説明し、上記第1実施形態と同様の構成、機能を有する部材等には、同一の符号を付して詳細な説明を省略する。   In the following, another embodiment of the present invention will be described. In the following embodiments, points different from the first embodiment will be mainly described, and members having the same configurations and functions as those in the first embodiment will be denoted by the same reference numerals and detailed description will be given. Omitted.

《第2実施形態》
上記第1実施形態では、ステレオカメラ350の向きと移動体の向きの違い(α、β、γ)を、3軸ジャイロセンサ20aの検出結果から求めたが、第2実施形態では、ステレオカメラ350のステレオ画像から求める。
<< Second Embodiment >>
In the first embodiment, the difference (α, β, γ) between the orientation of the stereo camera 350 and the moving body is obtained from the detection result of the three-axis gyro sensor 20a. In the second embodiment, the stereo camera 350 is used. Obtained from stereo images.

図1に示されるように機体11は4本の足16、17、18、19で支えられている。測距系100に用いられるステレオカメラ350のレンズの画角が広角の場合、ステレオカメラ350の前方にある足16と足17はステレオカメラ350の画角内に入る。   As shown in FIG. 1, the airframe 11 is supported by four legs 16, 17, 18, and 19. When the angle of view of the lens of the stereo camera 350 used in the distance measuring system 100 is a wide angle, the foot 16 and the foot 17 in front of the stereo camera 350 fall within the angle of view of the stereo camera 350.

そこで、足16に2つのマーク51、52を、足17に2つのマーク53、54を付しておき、ステレオカメラ350で撮像された画像(図14(a))からマーク検出を行うようにすればステレオカメラ350と移動体10の足16、17の向き、ステレオカメラ350と移動体10の足16、17までの距離を検出することができる。   Therefore, two marks 51 and 52 are attached to the foot 16, and two marks 53 and 54 are attached to the foot 17, and mark detection is performed from an image (FIG. 14A) captured by the stereo camera 350. By doing so, it is possible to detect the direction of the legs 16 and 17 of the stereo camera 350 and the moving body 10 and the distance between the stereo camera 350 and the legs 16 and 17 of the moving body 10.

足16、足17は移動体10の動きに俊敏に追従して動くが、ステレオカメラ350を含む測距系100はジンバル20によって安定化されるため、移動体10の動きに俊敏には追従しない。   The feet 16 and 17 move following the movement of the moving body 10 swiftly, but the distance measuring system 100 including the stereo camera 350 is stabilized by the gimbal 20 and therefore does not follow the movement of the moving body 10 quickly. .

そのため、ステレオカメラ350の画角内に入る足16と足17のマークは移動体10の動きにより小刻みに動くことになる。この動きを検知すればステレオカメラ350の向きと移動体10の向きの違い(α、β、γ)を検知することができる。   Therefore, the marks of the foot 16 and the foot 17 that fall within the angle of view of the stereo camera 350 move little by little by the movement of the moving body 10. If this movement is detected, the difference (α, β, γ) between the orientation of the stereo camera 350 and the moving body 10 can be detected.

移動体10の向きに対してステレオカメラ350の向きがY軸回りに回転(ピッチ)すれば、図14(b)のようにマークはY軸方向にΔYだけずれる。移動体10の向きに対してステレオカメラ350の向きがZ軸回りに回転(ヨー)すれば、図14(c)のようにマークはX軸方向にΔX方向にずれる。   If the direction of the stereo camera 350 rotates (pitch) around the Y axis with respect to the direction of the moving body 10, the mark is shifted by ΔY in the Y axis direction as shown in FIG. If the orientation of the stereo camera 350 rotates (yaws) around the Z axis with respect to the orientation of the moving body 10, the mark shifts in the ΔX direction along the X axis as shown in FIG.

さらに、ステレオカメラ350は、足16、足17までの距離を測定できるため移動体10の向きだけではなく、ステレオカメラ350と移動体10の相対位置(距離)も検出することができる。   Furthermore, since the stereo camera 350 can measure the distance to the foot 16 and the foot 17, not only the direction of the moving body 10 but also the relative position (distance) between the stereo camera 350 and the moving body 10 can be detected.

ステレオカメラ350と足16と足17の位置関係は初期状態(図14(a)参照)ではある一定の関係となっている。そのためステレオカメラ350の画角内に入るマーク51とマーク53までの距離は初期状態では一定の値となっている。   The positional relationship among the stereo camera 350, the foot 16, and the foot 17 is a fixed relationship in the initial state (see FIG. 14A). Therefore, the distance between the mark 51 and the mark 53 that falls within the angle of view of the stereo camera 350 is a constant value in the initial state.

しかしながら、ジンバル20の動作によりステレオカメラ350から足16、足17のまでの距離が変われば、ステレオカメラ350からマーク51、53までの距離が変わる。距離が近づけばマーク51とマーク53までの視差は大きくなり、距離が遠ざかればマーク51とマーク53までの視差は小さくなる。そこで、図14(a)のAの値より、ステレオカメラ350から足16、足17のまでの距離がわかることになる。ステレオカメラと足16、17までの距離が初期状態よりも遠いか近いかが判れば、移動体の周囲の対象物までの距離からその分を足すもしくは引くことで移動体10から周囲の対象物までの距離を正確に測定することができる。   However, if the distance from the stereo camera 350 to the feet 16 and 17 is changed by the operation of the gimbal 20, the distance from the stereo camera 350 to the marks 51 and 53 is changed. The parallax between the mark 51 and the mark 53 increases as the distance decreases, and the parallax between the mark 51 and the mark 53 decreases as the distance increases. Therefore, the distance from the stereo camera 350 to the foot 16 and the foot 17 can be determined from the value A in FIG. If the distance between the stereo camera and the legs 16 and 17 is greater or less than the initial state, the distance from the moving object 10 to the surrounding objects can be obtained by adding or subtracting the distance from the distance to the surrounding object. Can be measured accurately.

以上のように、ステレオカメラ350の画角に入る機体11の足の画像からステレオカメラ350の向きと移動体10の向きの違いや距離の違いを検出できる。これにより3軸ジャイロセンサ20aの出力を用いるときよりもステレオカメラ350の位置がわかる分だけ正確に移動体からの距離情報をリアルタイムに得ることが可能になり、室内のような狭い場所でも周囲のものに衝突することなく精度よく飛行することができるようになる。   As described above, it is possible to detect the difference in the direction of the stereo camera 350 and the direction of the moving body 10 and the difference in the distance from the foot image of the airframe 11 entering the angle of view of the stereo camera 350. This makes it possible to obtain distance information from the moving object in real time as much as the position of the stereo camera 350 can be obtained more accurately than when using the output of the three-axis gyro sensor 20a. It is possible to fly with high accuracy without colliding with things.

なお、ここでは、移動体10の足に付される「マーク」として略バタフライ形状のものが用いられているが、これに限らず、他の形状のものを用いても良い。また、マークが付される箇所は、移動体の足に限らず、要は、移動体の一部であってステレオカメラの画角内に入る部分であれば良い。   Here, a substantially butterfly shape is used as a “mark” attached to the leg of the moving body 10, but the shape is not limited to this, and a shape of another shape may be used. Further, the place where the mark is attached is not limited to the leg of the moving body, but may be any part as long as it is a part of the moving body and falls within the angle of view of the stereo camera.

以上説明した第2実施形態では、測距系100は、複数の撮像部を有するステレオカメラ350を含む撮像系と、該複数の撮像部の撮像画像から視差画像を生成するCPU315(処理部)と、を含み、制御演算部520(検出系)は、視差画像に基づいて、移動体10に対する撮像系の相対的な姿勢変化情報である姿勢変化情報(α、β、γ)を求める。なお、検出系として制御演算部520に代えて、測距部300のCPU315や制御部400のCPU411が姿勢変化情報(α、β、γ)を求めても良い。   In the second embodiment described above, the distance measuring system 100 includes an imaging system including the stereo camera 350 having a plurality of imaging units, and a CPU 315 (processing unit) that generates parallax images from the captured images of the plurality of imaging units. The control calculation unit 520 (detection system) obtains posture change information (α, β, γ) that is relative posture change information of the imaging system with respect to the moving body 10 based on the parallax image. Instead of the control calculation unit 520 as the detection system, the CPU 315 of the distance measuring unit 300 or the CPU 411 of the control unit 400 may obtain the posture change information (α, β, γ).

この場合、ステレオカメラ350を用いて姿勢変化情報を求めることができる。   In this case, posture change information can be obtained using the stereo camera 350.

また、複数の撮像部は、移動体10の少なくとも一部が画角内に入ることが好ましい。   In the plurality of imaging units, it is preferable that at least a part of the moving body 10 falls within the angle of view.

また、移動体10の複数の撮像部の画角内に入る少なくとも一部には、少なくとも1つのマークが付されていること好ましい。   Further, it is preferable that at least one mark is attached to at least a part of the angle of view of the plurality of imaging units of the moving body 10.

なお、上記第1及び第2実施形態では、測距系や測距機能を持つ撮像系は、ステレオカメラ法を用いているが、TOF法やパターン投影法を用いても良い。   In the first and second embodiments, the ranging system and the imaging system having the ranging function use the stereo camera method, but the TOF method or the pattern projection method may be used.

また、複数の撮像部は、移動体10の少なくとも一部が画角内に入り、視差画像に基づいて、姿勢変化情報を求める工程を更に含むことが好ましい。   In addition, it is preferable that the plurality of imaging units further include a step of obtaining posture change information based on the parallax image when at least a part of the moving body 10 enters the angle of view.

この場合、ステレオカメラ350を用いて姿勢変化情報も求めることができる。具体的には、移動体10に対するステレオカメラ350の姿勢変化後の撮像画像と姿勢変化前の画像(基準画像)を比較することにより、姿勢変化情報を求めることができる。   In this case, posture change information can also be obtained using the stereo camera 350. Specifically, posture change information can be obtained by comparing a captured image after the posture change of the stereo camera 350 with respect to the moving body 10 and an image (reference image) before the posture change.

なお、上記第2実施形態において、検出系は、ステレオカメラ350の撮影画像における移動体10のステレオカメラ350の画角内に入る部分の画像と、予め取得された該部分の基準輝度画像のピクセル値の差分の総和を用いて、姿勢変化情報を求めても良い。   Note that in the second embodiment, the detection system includes an image of a portion of the captured image of the stereo camera 350 that falls within the angle of view of the stereo camera 350 of the moving body 10 and pixels of the reference luminance image of the portion acquired in advance. The posture change information may be obtained by using the sum of the difference of values.

この場合、単純なアルゴリズムでズレを計測することができる。   In this case, the deviation can be measured with a simple algorithm.

また、上記第2実施形態において、検出系は、ステレオカメラ350の複数の撮像部の撮影画像から得られた移動体10のステレオカメラ350の画角内に入る部分の視差画像と、予め取得された該部分の基準視差画像の視差値の差分の総和を用いて、姿勢変化情報を求めても良い。   In the second embodiment, the detection system is acquired in advance from a parallax image of a portion that falls within the angle of view of the stereo camera 350 of the moving body 10 obtained from captured images of a plurality of imaging units of the stereo camera 350. The posture change information may be obtained using the sum of the differences in the parallax values of the reference parallax image of the portion.

この場合、照明変化に対してロバストに、姿勢変化情報を計測することができる   In this case, posture change information can be measured robustly against illumination changes.

《第3実施形態》
以下に、本発明の第3実施形態の移動体装置として、TOF法を用いる測距装置(もしくは撮像装置)を備える移動体装置について説明する。
<< Third Embodiment >>
Hereinafter, as a mobile device according to the third embodiment of the present invention, a mobile device including a distance measuring device (or an imaging device) using the TOF method will be described.

図15には、第3実施形態の移動体10´を含む移動体装置3の全体構成が概略的に示されている。   FIG. 15 schematically shows the entire configuration of the mobile device 3 including the mobile 10 ′ of the third embodiment.

移動体装置3は、図15に示されるように、上記第1及び第2実施形態の移動体装置の測距系100(もしくは測距機能を持つ撮像系)を測距・撮像ユニット600で置き換えた構成を有している。   As shown in FIG. 15, the mobile device 3 replaces the ranging system 100 (or the imaging system having a ranging function) of the mobile device of the first and second embodiments with a ranging / imaging unit 600. It has a configuration.

図16は、移動体10´と測距・撮像ユニット600のハードウェア構成の一例を示すブロック図である。   FIG. 16 is a block diagram illustrating an example of a hardware configuration of the moving body 10 ′ and the ranging / imaging unit 600.

測距・撮像ユニット600は、図15及び図16に示されるように、レーザレーダ355を含む測距手段600aと、カメラ524(ここでは単眼カメラ)を含む撮像手段600bを有している。   As shown in FIGS. 15 and 16, the distance measuring / imaging unit 600 includes distance measuring means 600 a including a laser radar 355 and image capturing means 600 b including a camera 524 (here, a monocular camera).

測距手段600aと撮像手段600bは、上下に並べて一体的に設けられている。ここでは、測距手段600aが上側で撮像手段600bが下側とされているが、逆であっても良い。また、測距手段600aと撮像手段600bは、それぞれ筐体を有していても良いし、共通の筐体を有していても良い。   The distance measuring means 600a and the image pickup means 600b are provided integrally in the vertical direction. Here, the distance measuring means 600a is on the upper side and the imaging means 600b is on the lower side, but the opposite may be possible. Further, the distance measuring means 600a and the imaging means 600b may each have a housing or a common housing.

レーザレーダ355を用いて測距手段600aで生成された距離画像は、制御演算部520に送られる。   The distance image generated by the distance measuring means 600a using the laser radar 355 is sent to the control calculation unit 520.

カメラ524を用いて撮像手段600bで生成された輝度画像は、撮像制御部523に送られる。なお、撮像手段600bの構成は、図6に示されるステレオカメラ350を含む測距部300の構成を単眼カメラ用に置き換えたもの(すなわち撮像光学系、CMOS等を1つずつにしたもの)に相当する。   The luminance image generated by the imaging unit 600b using the camera 524 is sent to the imaging control unit 523. Note that the configuration of the imaging unit 600b is the same as that obtained by replacing the configuration of the distance measuring unit 300 including the stereo camera 350 shown in FIG. 6 with a monocular camera (that is, an imaging optical system, a CMOS, etc., one by one). Equivalent to.

第3実施形態の姿勢駆動部541は、制御演算部520を介した3軸ジャイロセンサ20aの検出結果に基づいて、移動体10´の移動に伴う測距・撮像ユニット600の移動体10´に対する姿勢変化をキャンセルするよう測距・撮像ユニット600を駆動する。姿勢駆動部541の構成は、姿勢駆動部200と同様である。   The attitude driving unit 541 of the third embodiment is based on the detection result of the three-axis gyro sensor 20a via the control calculation unit 520, and the distance measurement / imaging unit 600 with respect to the moving body 10 ′ accompanying the movement of the moving body 10 ′. The ranging / imaging unit 600 is driven so as to cancel the posture change. The configuration of the attitude driving unit 541 is the same as that of the attitude driving unit 200.

図17は、測距手段600aのハードウェア構成の一例を示すブロック図である。   FIG. 17 is a block diagram illustrating an example of a hardware configuration of the distance measuring unit 600a.

測距手段600aは、レーダレーダ355に加えて、測定制御部、時間測定回路、距離演算部を有している。   In addition to the radar radar 355, the distance measuring means 600a has a measurement control unit, a time measurement circuit, and a distance calculation unit.

レーザレーダ355は、LD、LDからの光を導光する投光光学系及び測定制御部から発光開始信号が入力されたときにLDを点灯させるLD駆動回路を含む投光系と、該投光系から投光され物体で反射された光を導光する受光光学系、該受光光学系を介した光を受光する受光素子)及び該受光素子の出力電流を処理する処理回路を含む受光系と、処理回路からの処理後の信号を二値化する二値化回路と、を備えている。なお、受光素子と処理回路を含んで光検出器が構成される。   The laser radar 355 includes an LD, a light projecting optical system that guides light from the LD, a light projecting system that includes an LD driving circuit that turns on the LD when a light emission start signal is input from the measurement control unit, and the light projecting system. A light receiving optical system for guiding light projected from the system and reflected by an object, a light receiving element for receiving light via the light receiving optical system), and a light receiving system including a processing circuit for processing an output current of the light receiving element; And a binarization circuit that binarizes the processed signal from the processing circuit. Note that a photodetector is configured including the light receiving element and the processing circuit.

二値化回路からの二値化信号は、検出信号として時間測定回路に出力される。時間測定回路は、測定制御部からの発光開始信号と二値化回路からの検出信号に基づいて、LDの発光タイミングと受光素子の受光タイミングの時間差を算出し、距離演算部に出力する。距離演算部は、時間計測回路からの時間差から物体までの距離を算出する。   The binarized signal from the binarization circuit is output to the time measurement circuit as a detection signal. The time measurement circuit calculates a time difference between the light emission timing of the LD and the light reception timing of the light receiving element based on the light emission start signal from the measurement control unit and the detection signal from the binarization circuit, and outputs the time difference to the distance calculation unit. The distance calculation unit calculates the distance to the object from the time difference from the time measurement circuit.

図18(a)及び図18(b)には、レーザレーダ355の投光系及び受光系の構成が示されている。   18A and 18B show the configuration of the light projecting system and the light receiving system of the laser radar 355. FIG.

レーザレーダ355は、投光系が、LDからの光を有効走査領域に向けて偏向走査する走査ミラーを有している。   The laser radar 355 has a scanning mirror whose light projection system deflects and scans the light from the LD toward the effective scanning region.

ここでは、この走査ミラーにMEMS機構でミラー部を駆動するMEMSミラーを用いているが、モータによって多面鏡を回転させるポリゴンミラー、その他ガルバノミラーなど種々の変形が可能である。   Here, a MEMS mirror that drives the mirror portion by a MEMS mechanism is used as the scanning mirror, but various modifications such as a polygon mirror that rotates a polygon mirror by a motor, and other galvanometer mirrors are possible.

ここでは、MEMSミラーによって走査される光(走査光)を検出する光検出部(例えばフォトダイオードやフォトトランジスタ)が有効走査領域を含む投光範囲(検出領域)に設けられ、測定制御部は、光検出部の出力に基づいて走査光の位置(走査位置)を検出し、該走査位置に基づいて投光系のLDを制御する。なお、MEMSミラーにミラー部の振れ角を検知する振れ角検知部が設けられる場合には、測定制御部は該振れ角検知部の出力に基づいて走査位置を検出しても良い。   Here, a light detection unit (for example, a photodiode or a phototransistor) that detects light (scanning light) scanned by the MEMS mirror is provided in a light projection range (detection region) including an effective scanning region, and the measurement control unit The position of the scanning light (scanning position) is detected based on the output of the light detection unit, and the LD of the light projecting system is controlled based on the scanning position. When the MEMS mirror is provided with a deflection angle detection unit that detects the deflection angle of the mirror unit, the measurement control unit may detect the scanning position based on the output of the deflection angle detection unit.

また、走査する構成としては、投光系、受光系をZ軸方向に重ねた構成にしており、ともに図18のようにZ軸方向から見たときに同軸で走査ミラーに入射して走査することにより、投光系で光を投射している領域と、受光系で光を取り込む領域を一致させ、安定した物体検出、測距を実現している。   Further, as a scanning configuration, a light projecting system and a light receiving system are stacked in the Z-axis direction, and both are incident on the scanning mirror coaxially and scanned when viewed from the Z-axis direction as shown in FIG. As a result, the area where light is projected by the light projecting system and the area where light is received by the light receiving system are matched to realize stable object detection and distance measurement.

第3実施形態の変形例として、投光系においてのみ走査ミラーで走査し、受光系は走査ミラーを介さず、有効走査領域全体を結像光学系によって観察する構成もとりうる。   As a modified example of the third embodiment, a configuration may be adopted in which scanning is performed with a scanning mirror only in the light projecting system, and the entire light scanning system is observed with the imaging optical system without using the scanning mirror.

この場合、受光系において走査ミラーの設置スペースが不要となり、投光系において走査ミラーのサイズを小さくすることによって、高速駆動や広角駆動とすることも可能である。   In this case, the installation space of the scanning mirror is not required in the light receiving system, and it is possible to achieve high speed driving or wide angle driving by reducing the size of the scanning mirror in the light projecting system.

図18では、座標軸は、有効走査領域がYZ平面となるようにとっており、走査ミラーは、図18では図示されていないが、Y軸方向とZ軸方向の2軸方向に独立して走査可能な構成とされている。走査ミラーをポリゴンミラーなどで代用する場合は、複数の反射面を回転軸に対してそれぞれ異なった角度で傾けて配置して、走査・検出する領域をZ軸方向に切り替えることも可能である。   In FIG. 18, the coordinate axes are set so that the effective scanning area is the YZ plane, and the scanning mirror is not shown in FIG. 18, but can be scanned independently in the two-axis directions of the Y-axis direction and the Z-axis direction. It is configured. When the scanning mirror is replaced with a polygon mirror or the like, it is also possible to switch the scanning / detection region in the Z-axis direction by arranging a plurality of reflecting surfaces inclined at different angles with respect to the rotation axis.

以下に、第3実施形態の測距方法を実現する測距処理2について図19を参照して説明する。図19のフローチャートは、測距・撮像ユニット600と制御装置519によって実行される処理アルゴリズムに従う。   Hereinafter, distance measurement processing 2 for realizing the distance measurement method of the third embodiment will be described with reference to FIG. The flowchart in FIG. 19 follows a processing algorithm executed by the distance measurement / imaging unit 600 and the control device 519.

最初のステップS11では、移動体10が移動中か否かを判断する。具体的には、GPS受信器525等からの情報を基に移動体10の移動の有無を判定する。ここでの判断が肯定されるとステップS2に移行し、否定されるとフローは終了する。   In the first step S11, it is determined whether or not the moving body 10 is moving. Specifically, the presence or absence of movement of the moving body 10 is determined based on information from the GPS receiver 525 or the like. If the determination here is affirmed, the process proceeds to step S2, and if the determination is negative, the flow ends.

ステップS12では、レーザレーダ355を用いて有効走査領域に存在する物体の距離画像を生成する。   In step S12, a laser radar 355 is used to generate a distance image of the object existing in the effective scanning area.

次のステップS13では、移動体10に対する測距・撮像ユニット600の相対的な姿勢変化に関する情報である姿勢変化情報を3軸ジャイロセンサ20aの検出結果(α、β、γ)から得る。   In the next step S13, posture change information, which is information relating to the relative posture change of the distance measurement / imaging unit 600 with respect to the moving body 10, is obtained from the detection results (α, β, γ) of the three-axis gyro sensor 20a.

次のステップS14では、姿勢変化情報を用いて距離画像を補正する。具体的には、距離画像の画素又は画素ブロック毎の距離情報に対して、上記式(1)〜式(4)のいずれかを用いた演算を行う。   In the next step S14, the distance image is corrected using the posture change information. Specifically, the calculation using any of the above formulas (1) to (4) is performed on the distance information for each pixel or pixel block of the distance image.

補正後の距離画像は飛行制御部526に送られ、移動体10´の制御に用いられる。   The corrected distance image is sent to the flight control unit 526 and used for controlling the moving body 10 '.

なお、一例として図20に示されるTOF(Time−Of−Flight)法を用いる測距系の変形例のように、投光系131は、所定の周波数で強度変調された光を射出しても良い。ここでは、受光系132は、1つの位相差計測可能な2次元撮像素子と撮像光学系を備えている。このとき、受光系132は、撮像対象物で反射されて位相がずれた光を撮像する。そして、演算部133は、投光系131から射出された光と、受光系132で撮像された光とを比較し、時間差もしくは位相差に基づいてデプスマップを求める。   Note that, as an example, the light projecting system 131 emits light whose intensity is modulated at a predetermined frequency, as in a modification of the distance measuring system using the TOF (Time-Of-Flight) method shown in FIG. good. Here, the light receiving system 132 includes a single two-dimensional imaging device capable of measuring a phase difference and an imaging optical system. At this time, the light receiving system 132 images light reflected from the imaging object and having a phase shift. Then, the calculation unit 133 compares the light emitted from the light projecting system 131 with the light imaged by the light receiving system 132, and obtains a depth map based on the time difference or the phase difference.

また、上記第1〜第3実施形態では、姿勢駆動部によって、測距系や撮像系の姿勢を制御して移動体の向きに追従させているが、移動体から見た距離画像を精度良く生成するという観点からは、姿勢駆動部は必須ではない。すなわち、移動体の向きと測距系や撮像系の向きが継続的に又は常時変化しても、姿勢変化情報(α、β、γ)を用いて距離画像を補正することにより、移動体から見た距離画像を精度良く生成できるからである。この場合、3軸ジャイロセンサ20aも必須ではない。すなわち、本発明の装置において、ジンバルは、ジンバル機構のみで構成することも可能である。   In the first to third embodiments, the attitude driving unit controls the attitude of the distance measuring system and the imaging system to follow the direction of the moving object. However, the distance image viewed from the moving object is accurately obtained. From the viewpoint of generating, the posture driving unit is not essential. That is, even if the direction of the moving body and the direction of the ranging system or imaging system change continuously or constantly, by correcting the distance image using the posture change information (α, β, γ), This is because the viewed distance image can be generated with high accuracy. In this case, the three-axis gyro sensor 20a is not essential. That is, in the apparatus of the present invention, the gimbal can be configured only by the gimbal mechanism.

また、上記第1〜第3実施形態では、測距系にステレオカメラやレーダレーダを用いているが、これに限らず、例えばミリ波レーダ、赤外線センサを用いることもできる。   In the first to third embodiments, a stereo camera or radar radar is used for the distance measuring system. However, the present invention is not limited to this, and for example, a millimeter wave radar or an infrared sensor can be used.

また、レーザレーダに限らず、要は、TOFを利用するライダ(Lidar:Light detecting and ranging)全般(光源がレーザでないものも含む)を測距系に用いることができる。   In addition, not only laser radar but also a lidar (light detection and ranging) using TOF in general (including a light source that is not a laser) can be used for the distance measuring system.

また、測距系や測距機能を持つ撮像系は、パターン投影法を用いても良い。   A distance projection system or an imaging system having a distance measurement function may use a pattern projection method.

一例として図21には、パターン投影法を用いる測距系の構成例が示されている。ここでは、投光系131は、ある構造化された光を射出する。なお、構造化された光とは、Structured Light法として知られている方法に適した光であって、例えば、ストライプ状の光やマトリックス状の光などがある。受光系132は、撮像対象物で反射されて変形した構造化された光を撮像する。そして、演算部133は、投光系131から射出された光と、受光系132で撮像された光とを比較し、三角測量法に基づいてデプスマップを求める。ここでは、受光系132の焦点距離を、便宜上、測距系の焦点距離と呼ぶ。   As an example, FIG. 21 shows a configuration example of a distance measuring system using a pattern projection method. Here, the light projecting system 131 emits a certain structured light. The structured light is light suitable for a method known as the structured light method, and includes, for example, striped light and matrix light. The light receiving system 132 images structured light that has been reflected and deformed by the imaging object. Then, the arithmetic unit 133 compares the light emitted from the light projecting system 131 with the light imaged by the light receiving system 132, and obtains a depth map based on the triangulation method. Here, the focal length of the light receiving system 132 is referred to as the focal length of the ranging system for convenience.

また、測距系や測距機能を持つ撮像系は、同種又は異種の複数の測距部を有していても良い。   The imaging system having a ranging system or a ranging function may include a plurality of same or different types of ranging units.

例えば、撮影用のカメラ(単眼カメラもしくはステレオカメラ)と測距用のステレオカメラを併設しても良い。   For example, a camera for shooting (monocular camera or stereo camera) and a stereo camera for distance measurement may be provided side by side.

また、測距系や撮像系は、複数の撮像部を有していれば良く、例えば単眼カメラを2つ組み合わせたものであっても良い。   In addition, the distance measuring system and the imaging system only need to have a plurality of imaging units, and may be, for example, a combination of two monocular cameras.

また、少なくとも1つの測距系と少なくとも1つの測距機能を持つ撮像系を含む複数の系を、それぞれ複数のジンバルを介して移動体に取り付けても良い。   Further, a plurality of systems including at least one ranging system and an imaging system having at least one ranging function may be attached to the moving body via a plurality of gimbals, respectively.

また、上記第1〜第3実施形態の測距系や撮像系を、自律して移動可能なロボット、車両、船舶、有人航空機等の移動体にジンバルを介して取り付けても良い。この場合も、上記第1〜第3実施形態と同様の効果が得られる。   Moreover, you may attach the ranging system and imaging system of the said 1st-3rd embodiment to moving bodies, such as a robot which can move autonomously, a vehicle, a ship, and a manned aircraft via a gimbal. Also in this case, the same effect as the first to third embodiments can be obtained.

そして、移動体と測距系や測距機能を持つ撮像系を接続するジンバルは、自由度3のジンバルに限らず、自由度2もしくは自由度1のジンバルであっても良い。自由度2のジンバルを用いる場合には互いに直交する2つの揺動軸の角速度を検出する少なくとも1つのジャイロセンサを設ければ良く、自由度1のジンバルを用いる場合には1つの揺動軸の角速度を検出する1つのジャイロセンサを設ければ良い。   The gimbal that connects the moving body to the ranging system or the imaging system having the ranging function is not limited to the gimbal having 3 degrees of freedom, but may be a gimbal having 2 degrees of freedom or 1 degree of freedom. When a gimbal with 2 degrees of freedom is used, it is sufficient to provide at least one gyro sensor that detects the angular velocities of two swing axes orthogonal to each other. When a gimbal with 1 degree of freedom is used, A single gyro sensor for detecting the angular velocity may be provided.

また、上記各実施形態の説明で用いた数値、形状等は、本発明の趣旨を逸脱しない範囲で適宜変更可能である。   The numerical values, shapes, etc. used in the description of the above embodiments can be appropriately changed without departing from the spirit of the present invention.

以下に、発明者が上記第1〜第3実施形態を発案した思考プロセスを説明する。   Below, the thought process which the inventor invented the said 1st-3rd embodiment is demonstrated.

先ず、特許文献1(特開2014−62789号公報)について説明する。特許分文献1では、撮影用のカメラとステレオカメラとをジンバルを介して移動体に取り付けることで、撮影用のカメラで農作物の包括的な観察を行い、ステレオカメラで農作物の局部観察を行うことを目的としている。   First, patent document 1 (Unexamined-Japanese-Patent No. 2014-62789) is demonstrated. In Patent Document 1, a camera for shooting and a stereo camera are attached to a moving body via a gimbal, so that a comprehensive observation of the crop is performed with the camera for shooting and a local observation of the crop is performed with the stereo camera. It is an object.

この目的を達成するために、移動体に取り付けた撮影用のカメラを用いて広範囲の農作物を包括的に観察し、広範囲の中で特に成長状態などを詳細に観察したい農作物については移動体をその上方で静止(ホバリング)させて、シャフトを伸ばしてステレオカメラを近づけ、農作物の高さを計測して成長状態を観察して局部観察を行っている。このように撮影用のカメラとステレオカメラとをジンバルを介して移動体に取り付けることが開示されている。   In order to achieve this purpose, a wide range of crops are observed comprehensively using a camera for photography attached to the moving body. It is stationary (hovering) above, extending the shaft, bringing a stereo camera closer, measuring the height of the crop, observing the growth state, and performing local observation. Thus, it is disclosed that a camera for shooting and a stereo camera are attached to a moving body via a gimbal.

しかしながら、特許文献1ではステレオカメラは農作物の観察に使われているだけで、移動体が自律飛行するために周囲の物体までの距離を計測することには使われていない。   However, in Patent Document 1, the stereo camera is only used for observing crops, and is not used for measuring the distance to surrounding objects because the mobile body flies autonomously.

このため、特に室内のような狭い空間を自律飛行する移動体では、ジンバルの追従遅れの時間による測距誤差により周囲の物体に衝突してしまうという課題がある。   For this reason, in particular, in a mobile body that autonomously flies in a narrow space such as a room, there is a problem that it collides with surrounding objects due to a ranging error due to a gimbal tracking delay time.

移動体が周囲の物体に衝突せずに自律飛行するためには3次元計測装置(具体的にはステレオカメラ)を用いて周囲にある物体までの距離をリアルタイムに計測しながら飛行する必要がある。周囲の物体の距離を測定するためにはステレオカメラの画角はできるだけ広画角にして、広範囲の物体の距離測定ができることが望ましい。   In order for a mobile body to fly autonomously without colliding with surrounding objects, it is necessary to fly while measuring the distance to the surrounding objects in real time using a three-dimensional measuring device (specifically, a stereo camera). . In order to measure the distance of surrounding objects, it is desirable that the angle of view of the stereo camera be as wide as possible so that the distance of a wide range of objects can be measured.

しかしながら、先述したように映像安定化・追従装置であるジンバル装置にステレオカメラを取り付けると安定した画像が得られる反面、移動体の動きに対してカメラがリアルタイムには追従しなくなる。移動体が向いている方向(進行方向)ではなく、カメラが向いている方向の距離を測ってしまうことになる。   However, as described above, when a stereo camera is attached to a gimbal device that is a video stabilization / follow-up device, a stable image can be obtained, but the camera does not follow the movement of the moving object in real time. The distance in the direction in which the camera is facing is measured instead of the direction in which the moving body is facing (the traveling direction).

そこで、発明者は、鋭意検討の結果、ステレオカメラを含む測距部で得られた視差にステレオカメラの向きと移動体の向きの違いを加味して距離を算出する方法を見出した。例えばジンバルの揺動軸の傾きをリアルタイムに検出しその検出結果を用いて距離情報を算出することで、ジンバルを介して移動体に取り付けられたステレオカメラを用いてもリアルタイムに正確な距離を出力できる。これにより、移動体が周囲の物体に衝突せずに自律飛行することができる。   Therefore, as a result of intensive studies, the inventor has found a method for calculating the distance by adding the difference between the direction of the stereo camera and the direction of the moving object to the parallax obtained by the distance measuring unit including the stereo camera. For example, by detecting the tilt of the rocking axis of the gimbal in real time and calculating the distance information using the detection result, an accurate distance can be output in real time using a stereo camera attached to the moving body via the gimbal. it can. Thereby, the mobile body can fly autonomously without colliding with surrounding objects.

1、3…移動体装置、10、10´…移動体、20…ジンバル、20a…3次元ジャイロセンサ(検出系)、100…測距系、315…CPU(処理部)、600b…撮像系、520…制御演算部(補正系)、523…撮像制御部(輝度情報取得部)、528…ジャイロユニット(移動体姿勢検出部)、600…測距・撮像ユニット(測距系)、1000…測距装置(装置)。   DESCRIPTION OF SYMBOLS 1, 3 ... Mobile body apparatus 10, 10 '... Mobile body, 20 ... Gimbal, 20a ... Three-dimensional gyro sensor (detection system), 100 ... Ranging system, 315 ... CPU (processing part), 600b ... Imaging system, 520 ... Control operation unit (correction system), 523 ... Imaging control unit (luminance information acquisition unit), 528 ... Gyro unit (moving body posture detection unit), 600 ... Ranging / imaging unit (ranging system), 1000 ... Measurement Distance device (device).

特開2014−62789号公報JP 2014-62789 A

Claims (16)

移動体に搭載される装置であって、
前記移動体にジンバルを介して取り付けられる測距系と、
前記移動体の移動に伴う前記測距系と前記移動体との相対的な姿勢変化に関する情報である姿勢変化情報を検出する検出系と、
前記姿勢変化情報を用いて前記測距系の測定距離を補正する補正系と、を備える装置。
A device mounted on a moving body,
A ranging system attached to the mobile body via a gimbal;
A detection system for detecting posture change information, which is information relating to a relative posture change between the distance measuring system and the moving body accompanying the movement of the moving body;
A correction system that corrects the measurement distance of the distance measurement system using the posture change information.
前記姿勢変化情報は、前記移動体の進行方向に対する前記測距系の光軸の傾きに関する情報であることを特徴とする請求項1に記載の装置。   The apparatus according to claim 1, wherein the posture change information is information relating to an inclination of an optical axis of the distance measuring system with respect to a traveling direction of the moving body. 前記検出系は、前記移動体の移動に伴う前記ジンバルの揺動軸の傾斜情報を計測する少なくとも1つのジャイロセンサを含むことを特徴とする請求項1又は2に記載の装置。   The apparatus according to claim 1, wherein the detection system includes at least one gyro sensor that measures inclination information of a swing shaft of the gimbal accompanying the movement of the moving body. 前記検出系は、
前記移動体の姿勢を検出する移動体姿勢検出部と、
前記測距系の姿勢を検出する測距系姿勢検出部と、を含むことを特徴とする請求項1又は2に記載の装置。
The detection system is
A moving body posture detection unit for detecting the posture of the moving body;
The apparatus according to claim 1, further comprising a ranging system attitude detection unit that detects an attitude of the ranging system.
前記測距系は、
複数の撮像部と、
前記複数の撮像部の撮像画像から視差画像を生成する処理部と、を含み、
前記検出系は、前記視差画像に基づいて前記姿勢変化情報を求めることを特徴とする請求項1又は2に記載の装置。
The ranging system is
A plurality of imaging units;
A processing unit that generates a parallax image from the captured images of the plurality of imaging units,
The apparatus according to claim 1, wherein the detection system obtains the posture change information based on the parallax image.
前記複数の撮像部は、前記移動体の少なくとも一部が画角内に入ることを特徴とする請求項5に記載の装置。   The apparatus according to claim 5, wherein at least a part of the moving body falls within an angle of view in the plurality of imaging units. 前記少なくとも一部には、少なくとも1つのマークが付されていることを特徴とする請求項6に記載の装置。   The apparatus according to claim 6, wherein at least one mark is attached to the at least part. 前記複数の撮像部の撮像画像から輝度情報を得る輝度情報取得部を更に備えることを特徴とする請求項5〜7のいずれか一項に記載の装置。   The apparatus according to claim 5, further comprising a luminance information acquisition unit that acquires luminance information from captured images of the plurality of imaging units. 前記測距系は、ステレオカメラ法、TOF法又はパターン投影法を用いることを特徴とする請求項1〜4のいずれか一項に記載の装置。   The apparatus according to claim 1, wherein the ranging system uses a stereo camera method, a TOF method, or a pattern projection method. 請求項1〜9のいずれか一項に記載の装置と、
前記装置の測距系が前記ジンバルを介して取り付けられる移動体と、を備える移動体装置。
An apparatus according to any one of claims 1 to 9,
A moving body apparatus comprising: a moving body to which a ranging system of the apparatus is attached via the gimbal.
移動体にジンバルを介して取り付けられる測距系を用いる測距方法であって、
前記測距系を用いて対象物までの距離情報を測定する工程と、
前記移動体の移動に伴う前記測距系と前記移動体との相対的な姿勢変化に関する情報である姿勢変化情報を検出する工程と、
前記姿勢変化情報を用いて前記距離情報を補正する工程と、含む測距方法。
A distance measuring method using a distance measuring system attached to a moving body via a gimbal,
Measuring distance information to the object using the distance measuring system;
Detecting posture change information, which is information relating to a relative posture change between the distance measuring system and the moving body accompanying the movement of the moving body;
And a step of correcting the distance information using the posture change information.
前記検出する工程では、前記移動体の移動に伴う前記ジンバルの揺動軸の傾斜情報を計測することを特徴とする請求項11に記載の測距方法。   12. The distance measuring method according to claim 11, wherein in the detecting step, tilt information of the swing axis of the gimbal accompanying the movement of the moving body is measured. 前記検出する工程は、
前記移動体の姿勢を検出するサブ工程と、
前記測距系の姿勢を検出するサブ工程を、を含むことを特徴とする請求項11に記載の測距方法。
The detecting step includes
A sub-step of detecting the posture of the moving body;
The distance measuring method according to claim 11, further comprising a sub-step of detecting an attitude of the distance measuring system.
前記測距系は、複数の撮像部を含み、
前記測定する工程では、前記複数の撮像部の撮像画像から視差画像を生成し、前記撮像画像に写る物体までの距離情報を算出することを特徴とする請求項11に記載の測距方法。
The ranging system includes a plurality of imaging units,
The distance measuring method according to claim 11, wherein in the measuring step, a parallax image is generated from the captured images of the plurality of imaging units, and distance information to an object shown in the captured image is calculated.
前記複数の撮像部は、前記移動体の少なくとも一部が画角内に入り、
前記検出する工程では、前記視差画像に基づいて前記姿勢変化情報を求めることを特徴とする請求項14に記載の測距方法。
In the plurality of imaging units, at least a part of the moving body falls within an angle of view,
15. The distance measuring method according to claim 14, wherein in the detecting step, the posture change information is obtained based on the parallax image.
前記少なくとも一部には、少なくとも1つのマークが付されていることを特徴とする請求項15に記載の測距方法。
The distance measuring method according to claim 15, wherein at least one mark is attached to the at least part.
JP2016123285A 2016-06-22 2016-06-22 Device, mobile body device, and method for measuring distance Pending JP2017227516A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016123285A JP2017227516A (en) 2016-06-22 2016-06-22 Device, mobile body device, and method for measuring distance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016123285A JP2017227516A (en) 2016-06-22 2016-06-22 Device, mobile body device, and method for measuring distance

Publications (1)

Publication Number Publication Date
JP2017227516A true JP2017227516A (en) 2017-12-28

Family

ID=60891613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016123285A Pending JP2017227516A (en) 2016-06-22 2016-06-22 Device, mobile body device, and method for measuring distance

Country Status (1)

Country Link
JP (1) JP2017227516A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020196205A (en) * 2019-06-03 2020-12-10 コニカミノルタ株式会社 Inkjet recording device and maintenance method for inkjet recording device
JP2021058866A (en) * 2019-10-09 2021-04-15 ソフトバンク株式会社 Injection device, program, system, and injection method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020196205A (en) * 2019-06-03 2020-12-10 コニカミノルタ株式会社 Inkjet recording device and maintenance method for inkjet recording device
JP2021058866A (en) * 2019-10-09 2021-04-15 ソフトバンク株式会社 Injection device, program, system, and injection method

Similar Documents

Publication Publication Date Title
JP5618840B2 (en) Aircraft flight control system
CN109470158B (en) Image processing device and distance measuring device
JP5775632B2 (en) Aircraft flight control system
US10429508B2 (en) Distance measuring device, moving system, and distance measurement method
US20180343401A1 (en) Method and System for Collision Avoidance
JP2018004420A (en) Device, mobile body device, positional deviation detecting method, and distance measuring method
JP6994879B2 (en) Surveying system
US20220086362A1 (en) Focusing method and apparatus, aerial camera and unmanned aerial vehicle
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
CN111226154B (en) Autofocus camera and system
JP2007240506A (en) Three-dimensional shape and 3-dimensional topography measuring method
US10109074B2 (en) Method and system for inertial measurement having image processing unit for determining at least one parameter associated with at least one feature in consecutive images
JP2020185941A (en) Unmanned aircraft, inspection method, and inspection program
JP7391053B2 (en) Information processing device, information processing method and program
JP2017227516A (en) Device, mobile body device, and method for measuring distance
JP2020191523A (en) Unmanned mobile
JP2021096865A (en) Information processing device, flight control instruction method, program, and recording medium
JP2017083430A (en) Distance measuring device, mobile system, and distance measuring method
JP2018009918A (en) Self-position detection device, moving body device, and self-position detection method
JP2019219874A (en) Autonomous moving and imaging control system and autonomous moving body
US20210387743A1 (en) Flight vehicle
JP2015138010A (en) Position detection system and method for photographing camera
US20220390965A1 (en) Mobile platform vision sensor systems and methods
US20240111311A1 (en) Control apparatus, base station, control method, and program
JP7169757B2 (en) surveying equipment, surveying method