JP7362203B2 - unmanned moving body - Google Patents

unmanned moving body Download PDF

Info

Publication number
JP7362203B2
JP7362203B2 JP2019095202A JP2019095202A JP7362203B2 JP 7362203 B2 JP7362203 B2 JP 7362203B2 JP 2019095202 A JP2019095202 A JP 2019095202A JP 2019095202 A JP2019095202 A JP 2019095202A JP 7362203 B2 JP7362203 B2 JP 7362203B2
Authority
JP
Japan
Prior art keywords
photographing
angle
moving
camera
failure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019095202A
Other languages
Japanese (ja)
Other versions
JP2020191523A (en
Inventor
陽介 舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2019095202A priority Critical patent/JP7362203B2/en
Publication of JP2020191523A publication Critical patent/JP2020191523A/en
Application granted granted Critical
Publication of JP7362203B2 publication Critical patent/JP7362203B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、遠隔操作あるいは自律式の無人移動体に関し、特に、対象物の撮影機能を備えたドローンに関する。 TECHNICAL FIELD The present invention relates to a remotely controlled or autonomous unmanned mobile object, and particularly to a drone equipped with a function of photographing an object.

例えば鉄塔に架設された送電線の表面などの点検は、作業者が双眼鏡を使って送電線の表面を直接目視したり、ヘリコプターから目視したり、鉄塔に登った人が電線を伝って確認したり、自走機を利用するなどして行っている。このような高所の構造物の点検に空撮機能を備えたドローンを接近させ、カメラで点検箇所を撮影し、作業者が点検箇所を目視するのと変わらない映像を得ることができれば、点検に要するコストを大幅に削減することが可能となる。また、決められた飛行ルートを決められた速度で飛行して離陸地点まで自動で戻り着陸するように機体を制御する自律制御技術の開発が進められ、実用化されつつある。 For example, inspection of the surface of power transmission lines installed on a steel tower can be carried out by a worker using binoculars to directly observe the surface of the power line, by a helicopter, or by a person climbing the tower and inspecting the surface of the power line as it travels along the line. This is done by using self-propelled aircraft. If it were possible to inspect such high-altitude structures by bringing a drone equipped with an aerial photography function close and photographing the inspection area with a camera, it would be possible to obtain images similar to those seen by workers visually inspecting the inspection area. This makes it possible to significantly reduce the costs required. Furthermore, autonomous control technology is being developed and put into practical use to control the aircraft so that it flies along a predetermined flight route at a predetermined speed, automatically returns to the takeoff point, and then lands.

特許文献1の空撮方法では、図1に示すように、自立制御により飛行するA/Cヘリ1は、予め設定された飛行ルートに従い、出発地点である地上局2を離陸した後、鉄塔Aの上方の(a)ポイントまで飛行し、次に、鉄塔Bの上方の(b)ポイントまで高架電線Wに沿って平行に飛行し、この間、高架電線Wがカメラの撮影領域の中心に位置するように高架電線Wを追尾しながら高架電線Wの映像を連続的に記録する。また、飛行中に高架電線Wまでの距離を測定し、測定された距離に応じてカメラのズーム倍率を調整することでカメラフレーム内に十分な大きさに拡大された高精細な高架電線Wの映像を記録できるようにしている。また、特許文献2では、無人飛行機に搭載されたマルチスペクトルカメラを用いて植物の生育状況を監視し、画像データが欠落等により異常と判定された場合には、再撮影している。 In the aerial photography method disclosed in Patent Document 1, as shown in FIG. Fly to point (a) above, then fly parallel to point (b) above steel tower B along the elevated power line W, during which time the elevated power line W is located at the center of the camera's imaging area. While tracking the elevated power line W, images of the elevated power line W are continuously recorded. In addition, by measuring the distance to the elevated wire W during flight and adjusting the zoom magnification of the camera according to the measured distance, the high-definition elevated wire W can be enlarged to a sufficient size within the camera frame. It is possible to record video. Furthermore, in Patent Document 2, a multispectral camera mounted on an unmanned aircraft is used to monitor the growth status of plants, and if image data is determined to be abnormal due to missing data, etc., the image is re-photographed.

特開2006-027448号公報JP2006-027448A 特開2018-152737号公報Japanese Patent Application Publication No. 2018-152737

近年では、ドローンのような小型無人飛行機を使った架空地線・電線の点検システムや、ある範囲の地形をくまなく連続撮影することで地形の詳細な形状を得る測量システムの開発、実用化が進められている。ドローンには、点検対象物までの距離および角度を検出する物体検出センサ(例えば、LiDAR)が搭載され、ドローンは、物体検出センサの検出結果に基づき機体と点検対象物との位置関係が一定に保たれるように自律飛行することで、点検対象物を追尾しつつ点検対象物への接触が防止される。また、ドローンには、点検対象物を撮像するカメラがジンバルを介して搭載される。ジンバルは、カメラの向きを3次元方向で微調整することができるアクチュエータであり、ジンバルは、ドローンの姿勢が変化しても常にカメラがドローンの鉛直方向を撮像するように、物体検出センサの検出結果を利用してカメラの角度を制御する。その結果、撮像フレームの中央に点検対象物が撮像されるように撮像が制御される。 In recent years, there has been development and practical use of systems for inspecting overhead ground wires and power lines using small unmanned aircraft such as drones, and surveying systems that obtain detailed shapes of terrain by continuously photographing the terrain over a certain area. It is progressing. The drone is equipped with an object detection sensor (for example, LiDAR) that detects the distance and angle to the object to be inspected, and the drone maintains a constant positional relationship between the aircraft and the object to be inspected based on the detection results of the object detection sensor. By flying autonomously in such a way that the robot is able to track the object to be inspected, contact with the object is prevented. Additionally, the drone is equipped with a camera via a gimbal that captures images of the inspection target. A gimbal is an actuator that can finely adjust the orientation of a camera in three dimensions, and a gimbal is an actuator that allows the object detection sensor to detect objects so that the camera always captures images in the vertical direction of the drone even if the drone's attitude changes. Use the results to control the camera angle. As a result, imaging is controlled so that the inspection target is imaged at the center of the imaging frame.

ドローンによる点検撮影実行時、強風などの要因により機体の姿勢や位置が急に変わることがある。このとき、ジンバルは、機体の姿勢変化を吸収するように動作する。図2(A)は、機体10と高架電線Wを側方から模式的に表す図であり、高架電線Wの真上を飛行中に横から風Kが吹くと、機体10は風の方に機体を傾け、高架電線Wの真上の飛行位置を維持しようとする。このとき、ジンバルは、高架電線Wが撮像範囲Sに入るようにカメラの角度を制御する。 When performing inspection photography using a drone, the attitude and position of the aircraft may change suddenly due to factors such as strong winds. At this time, the gimbal operates to absorb changes in the attitude of the aircraft. FIG. 2(A) is a diagram schematically showing the aircraft 10 and the elevated electric wire W from the side. When a wind K blows from the side while flying directly above the elevated electrical wire W, the aircraft 10 moves toward the wind. The aircraft tilts and attempts to maintain a flight position directly above the overhead power lines W. At this time, the gimbal controls the angle of the camera so that the overhead wire W enters the imaging range S.

また、図2(B)は、機体10と高架電線Wを上方から模式的に表した図であり、風Kが吹くなどして、機体10が高架電線Wから離れるように横方向Pに流されてしまう場合がある。この場合にも、機体10が高架電線Wの方向Qに向かうように飛行制御され、ジンバルも、これらの影響を抑えるようにカメラの角度を制御する。しかしながら、最終的にドローンの急激な姿勢変化を吸収しきれない場合には、図3に示すように、高架電線Wが撮影範囲Sから逸脱したフレームアウトが生じ、撮影を失敗することがある。 FIG. 2(B) is a diagram schematically showing the aircraft body 10 and the elevated electric wire W from above, and shows that when wind K blows, the airframe 10 moves in the lateral direction P away from the elevated electric wire W. There are cases where this happens. In this case as well, the flight of the aircraft 10 is controlled so as to head in the direction Q of the overhead wire W, and the gimbal also controls the angle of the camera so as to suppress these influences. However, if the rapid attitude change of the drone cannot be absorbed in the end, as shown in FIG. 3, a frame-out occurs in which the overhead electric wire W deviates from the photographing range S, and photographing may fail.

図4は、測量飛行を模式的に示す図である。機体10は、予め用意された飛行ルートRに従い標定点20を基準に地形の測量を行うが、飛行ルート上に木、鉄塔、高い建物、鳥などが存在すると、一時的にそれらに焦点が合ってしまい、検証点22の撮影に失敗することがある。 FIG. 4 is a diagram schematically showing a survey flight. The aircraft 10 surveys the terrain based on the control point 20 according to a flight route R prepared in advance. However, if there are trees, steel towers, tall buildings, birds, etc. on the flight route, the focus may temporarily change. This may result in failure in photographing the verification point 22.

上記したようなフレームアウトや焦点ズレによる撮影の失敗は、ドローンの帰還後に、カメラで撮影された映像を再生しこれをチェックすることで判断されていた。このため、再撮影の作業は、同じ飛行をもう一度行う必要があり、手間がかかっていた。また、再飛行のためにドローンのバッテリが追加で必要になることがあり、現場でのやりくりに困る状況が発生する可能性があった、 The above-mentioned failures in shooting due to frame outs and focus shifts were determined by playing back and checking the footage shot by the camera after the drone returned. For this reason, the re-photographing process required the same flight to be performed again, which was time-consuming. In addition, additional batteries may be required for the drone for re-flight, which could create a situation where it is difficult to manage on-site.

本発明は、上記従来の課題を解決し、対象物の撮影を失敗した場合に再撮影を容易に行うことができる無人移動体を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned conventional problems and to provide an unmanned moving object that can easily re-photograph an object when photographing it fails.

本発明に係る無人移動体は、移動体の位置を検出する位置検出手段と、対象物を撮影する撮影手段と、対象物を撮影するために予め用意された移動ルートに従い移動体を移動させる移動手段と、前記撮影手段による対象物の撮影の失敗を検出する検出手段と、前記検出手段により撮影の失敗が検出された場合、前記位置検出手段により検出された撮影が失敗した位置で対象物を再撮影するように前記移動手段および前記撮影手段を制御する制御手段とを有する。 The unmanned moving object according to the present invention includes a position detection means for detecting the position of the moving object, a photographing means for photographing the object, and a movement for moving the mobile object according to a movement route prepared in advance for photographing the object. a detection means for detecting a failure in photographing an object by the photographing means; and a detection means for detecting a failure in photographing an object by the photographing means; It has a control means for controlling the moving means and the photographing means so as to perform re-photographing.

ある実施態様では、前記検出手段は、前記撮影手段による撮影範囲に対象物が含まれているか否かにより撮影の失敗を検出する。ある実施態様では、前記検出手段は、前記撮影手段により撮影された対象物の焦点が合っているか否かにより撮影の失敗を検出する。ある実施態様では、前記検出手段は、前記撮影手段により撮影された映像フレーム単位で撮影の失敗を検出し、前記制御手段は、撮影が失敗した位置で対象物を再撮影した後、前記予め用意された移動ルートに戻るように前記移動手段および前記撮影手段を制御する。ある実施態様では、前記飛行手段は、前記移動ルートの撮影終了地点に到達した後、撮影が失敗した位置で対象物を再撮影するように前記移動手段および前記撮影手段を制御する。ある実施態様では、無人移動体はさらに、基地局とデータ通信する通信手段を含み、前記検出手段は、前記通信手段を介して基地局から送信された情報に基づき撮影の失敗を検出し、前記制御手段は、基地局から送信される情報に基づき前記移動手段および前記撮影手段を制御する。 In one embodiment, the detection means detects a failure in photographing based on whether the object is included in the photographing range of the photographing means. In one embodiment, the detection means detects a failure in photographing based on whether the object photographed by the photographing means is in focus. In one embodiment, the detection means detects a failure in photographing in units of video frames photographed by the photographing means, and the control means re-photographs the object at the position where the photographing has failed, and then controls the previously prepared The moving means and the photographing means are controlled so as to return to the travel route taken. In one embodiment, the flight means controls the moving means and the photographing means so as to re-photograph the object at the position where the photographing failed after reaching the photographing end point of the travel route. In one embodiment, the unmanned mobile object further includes communication means for communicating data with a base station, and the detection means detects a failure in photographing based on information transmitted from the base station via the communication means, The control means controls the moving means and the photographing means based on information transmitted from the base station.

本発明によれば、対象物の撮影失敗を検出した場合には、撮影失敗が検出された位置から再撮影するようにしたので、撮影が失敗したときに再撮影のための同じ飛行を行う必要がなくなり、かつ再撮影のために消費する無人移動体のエネルギーや飛行時間を削減することができる。 According to the present invention, when a photographing failure of an object is detected, the photographing is re-photographed from the position where the photographing failure was detected. Therefore, when photographing fails, there is no need to perform the same flight for re-photographing. In addition, the energy and flight time of the unmanned moving vehicle consumed for re-shooting can be reduced.

従来の高架電線等を空撮する無人飛行機の例を説明する図である。FIG. 2 is a diagram illustrating an example of a conventional unmanned aircraft that takes aerial photographs of elevated power lines and the like. 図2(A)は、機体と高架電線とを側方から模式的に表した図であり、図2(B)は、機体と高架電線とを上方から模式的に表した図であり、風等により機体の姿勢が変化する様子を説明している。FIG. 2(A) is a diagram schematically showing the fuselage and the overhead power cables from the side, and FIG. 2(B) is a diagram schematically showing the fuselage and the overhead power cables from above. It explains how the attitude of the aircraft changes due to etc. 従来の無人飛行機による空撮において点検対象物がフレームから逸脱した例を説明する図である。FIG. 2 is a diagram illustrating an example in which an object to be inspected deviates from the frame in aerial photography using a conventional unmanned aircraft. 従来の無人飛行機による測量のための撮影を模式的に示した図である。FIG. 2 is a diagram schematically showing photographing for surveying using a conventional unmanned aircraft. 本発明の無人飛行機の電気的な構成を示すブロック図である。FIG. 1 is a block diagram showing the electrical configuration of an unmanned aircraft according to the present invention. 本発明の実施例に係る撮影制御プログラムの機能的な構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration of a photographing control program according to an embodiment of the present invention. 図7(A)、(B)は、映像フレームと高架電線との関係を示し、図7(C)、(D)は、撮影失敗の例を説明する図である。7(A) and 7(B) show the relationship between the video frame and the elevated electric wire, and FIGS. 7(C) and 7(D) are diagrams illustrating an example of failure in imaging. 本発明の実施例によるフレームアウトの有無の判定方法を説明する図である。FIG. 3 is a diagram illustrating a method for determining whether or not a frame-out occurs according to an embodiment of the present invention. 本発明の実施例による対象物の第1の撮影制御の動作フローを示す図である。FIG. 3 is a diagram showing an operation flow of first photographing control of a target according to an embodiment of the present invention. 本発明の実施例による撮影失敗時の第1の撮影制御の再撮影を説明する図である。FIG. 7 is a diagram illustrating re-imaging in the first imaging control when imaging fails according to the embodiment of the present invention. 本発明の実施例による対象物の第2の撮影制御の動作フローを示す図である。FIG. 7 is a diagram showing an operation flow of second photographing control of a target according to an embodiment of the present invention. 本発明の実施例による撮影失敗時の第2の撮影制御の再撮影を説明する図である。FIG. 7 is a diagram illustrating re-imaging in the second imaging control when imaging fails according to the embodiment of the present invention.

次に、本発明の実施の形態について説明する。本発明の無人移動体は、例えば、ドローン、ヘリコプター飛行船のような無人飛行機あるいは車輪で移動するドローン(ローバー)である。本発明の無人移動体は、人間が目視により点検することが難しい、鉄塔に架設された送電線や土砂崩れなどの自然災害現場の点検、あるいは地形の測量などに用いられる。 Next, embodiments of the present invention will be described. The unmanned mobile object of the present invention is, for example, a drone, an unmanned aircraft such as a helicopter airship, or a drone (rover) that moves on wheels. The unmanned mobile object of the present invention is used for inspecting natural disaster sites such as power transmission lines installed on steel towers and landslides, which are difficult for humans to visually inspect, or for surveying topography.

以下の実施例では、無人移動体として無人飛行機(ドローン)により点検対象物を撮影したり、地形を測量する例を説明する。本実施例の無人飛行機(ドローン)は、機体本体に、点検対象物(例えば、高架電線)や地形を撮影するための撮影カメラを搭載する。撮影カメラは、ジンバルのような角度調整アクチュエータを介して機体本体に取り付けられる。角度調整アクチュエータは、例えば、X軸、Y軸、Z軸の自由度3で撮影カメラの角度を調整することが可能である。無人飛行機は、例えば、図1に示すように鉄塔に高架された電線Wをその上方から鉛直方向に撮影したり、図4に示すように地形を撮影する。撮影された映像データは、高架電線Wの点検や地形の測量に供される。 In the following embodiments, an example will be described in which an unmanned aircraft (drone) is used as an unmanned moving object to photograph an object to be inspected or to survey the terrain. The unmanned aircraft (drone) of this embodiment is equipped with a photographing camera for photographing objects to be inspected (e.g., elevated power lines) and terrain on the main body. The photographing camera is attached to the main body of the aircraft via an angle adjustment actuator such as a gimbal. The angle adjustment actuator is capable of adjusting the angle of the photographing camera, for example, with three degrees of freedom in the X-axis, Y-axis, and Z-axis. For example, the unmanned aircraft photographs an electric wire W elevated on a steel tower in the vertical direction as shown in FIG. 1, or photographs the topography as shown in FIG. 4. The photographed video data is used for inspecting the elevated power lines W and surveying the topography.

図5は、本実施例に係る無人飛行機の電気的な構成を示すブロック図である。本実施例に係る無人飛行機100は、GPS受信部110、自立航法センサ120、物体検出部130、撮影カメラ140、カメラ角度調整部150、ロータ駆動部160、記憶部170、出力部180、通信部190および制御部200を含んで構成される。但し、上記構成は一例であり、必ずしもこれに限定されるものではない。 FIG. 5 is a block diagram showing the electrical configuration of the unmanned aircraft according to this embodiment. The unmanned aircraft 100 according to this embodiment includes a GPS receiving section 110, an independent navigation sensor 120, an object detecting section 130, a photographing camera 140, a camera angle adjusting section 150, a rotor driving section 160, a storage section 170, an output section 180, and a communication section. 190 and a control section 200. However, the above configuration is an example and is not necessarily limited to this.

GPS受信部110は、GPS衛星から発せられるGPS信号を受信し、無人飛行機100の緯度、経度を含む絶対位置を検出する。無人飛行機100は、予め用意された飛行情報に従い自律航行することが可能である。飛行情報は、例えば、図1に示すように、出発地点である地上局2、鉄塔Aの(a)ポイント、鉄塔Bの(b)ポイント、帰還地点である地上局2を飛行する飛行ルート(緯度、経度の位置情報を含む)、飛行速度、飛行高度などを含む。無人飛行機100は、GPS受信部110で検出された位置情報を利用して飛行ルートを追従するように飛行する。 The GPS receiving unit 110 receives GPS signals emitted from GPS satellites, and detects the absolute position of the unmanned aircraft 100 including latitude and longitude. The unmanned aircraft 100 is capable of autonomous navigation according to flight information prepared in advance. For example, as shown in FIG. 1, the flight information includes a flight route (flying from ground station 2 as a departure point, point (a) of tower A, point (b) of tower B, and ground station 2 as a return point). (including location information such as latitude and longitude), flight speed, flight altitude, etc. The unmanned aircraft 100 flies while following a flight route using the position information detected by the GPS receiving unit 110.

自立航法センサ120は、無人飛行機100が自立航法するために必要なセンサ、例えば、方位センサや高度センサを含む。自立航法センサ120のセンサ出力は、飛行情報に従い自律飛行するときの制御に利用される。 The autonomous navigation sensor 120 includes sensors necessary for the unmanned aircraft 100 to autonomously navigate, such as a direction sensor and an altitude sensor. The sensor output of the autonomous navigation sensor 120 is used for control when autonomously flying according to flight information.

物体検出部130は、点検対象物までの相対的距離および角度を検出する。物体検出部130は、例えば、LiDAR(Laser Imaging Detection and Ranging)を用いて構成される。LiDARは、パルス状に発光するレーザーを360度の方位で照射し、そのレーザー照射に対する反射光を測定することで、物体までの距離および角度を検出する。物体検出部130は、例えば、点検対象物である高架電線Wまでの距離および角度を検出したり、測量対象物である検証点22(図4を参照)までの距離および角度を検出する。なお、物体検出部130は、LiDARに限定されず、これ以外にも複数のステレオカメラを用いて物体までの距離および角度を検出するものであってもよい。無人飛行機100は、物体検出部130の検出結果に基づき、点検対象物である高架電線Wと一定の距離および角度を保つように高架電線Wを追尾し、あるいは測定対象物である検証点と一定の距離および角度を保つように検証点を追尾する。 The object detection unit 130 detects the relative distance and angle to the inspection target. The object detection unit 130 is configured using, for example, LiDAR (Laser Imaging Detection and Ranging). LiDAR detects the distance and angle to an object by emitting pulsed laser light in 360-degree directions and measuring the reflected light from the laser irradiation. The object detection unit 130 detects, for example, the distance and angle to the elevated electric wire W, which is the object to be inspected, or the distance and angle to the verification point 22 (see FIG. 4), which is the object to be surveyed. Note that the object detection unit 130 is not limited to LiDAR, and may detect the distance and angle to the object using a plurality of stereo cameras. Based on the detection result of the object detection unit 130, the unmanned aircraft 100 tracks the elevated electric wire W so as to maintain a constant distance and angle from the elevated electric wire W that is the object to be inspected, or to keep a constant distance and angle from the elevated electric wire W that is the object to be measured. The verification point is tracked so as to maintain the distance and angle of .

撮影カメラ140は、上記したように、機体本体の下部に角度調整アクチュエータを介して取り付けられる。撮影カメラ140は、点検対象物である高架電線Wや測定対象物である検証点22の動画を撮像し、例えば、1秒間に24個の映像フレーム(静止画)を生成する。さらに撮影カメラ140は、ズーム機能を備え、映像フレーム内に一定の大きさの高架電線Wや検証点22が撮像されるように、その倍率が調整される。 As described above, the photographing camera 140 is attached to the lower part of the aircraft body via the angle adjustment actuator. The photographing camera 140 takes a moving image of the elevated electric wire W, which is the object to be inspected, and the verification point 22, which is the object to be measured, and generates, for example, 24 video frames (still images) per second. Further, the photographing camera 140 has a zoom function, and its magnification is adjusted so that the elevated electric wire W and the verification point 22 of a certain size are captured in the video frame.

カメラ角度調整部150は、制御部200からの角度調整信号に応答して角度調整アクチュエータを駆動し、撮影カメラ140の角度を調整する。制御部200は、自立航法センサ120や物体検出部130の検出結果に基づき撮影カメラ140の撮像方向(撮影カメラのレンズの光軸)が鉛直方向となる角度を算出し、その算出結果に基づき角度調整信号を生成する。 The camera angle adjustment section 150 drives an angle adjustment actuator in response to an angle adjustment signal from the control section 200, and adjusts the angle of the photographing camera 140. The control unit 200 calculates the angle at which the imaging direction of the imaging camera 140 (optical axis of the lens of the imaging camera) is vertical based on the detection results of the independent navigation sensor 120 and the object detection unit 130, and calculates the angle based on the calculation result. Generate an adjustment signal.

ロータ駆動部160は、制御部200からの駆動信号に基づきプロペラ等に接続されたロータを回転させる。制御部200は、GPS受信部110、自立航法センサ120および物体検出部130により検出された情報や飛行情報に基づき無人飛行機100が飛行ルートに沿って自律飛行するための駆動信号を生成する。 The rotor drive unit 160 rotates a rotor connected to a propeller or the like based on a drive signal from the control unit 200. The control unit 200 generates a drive signal for the unmanned aircraft 100 to autonomously fly along a flight route based on the information and flight information detected by the GPS reception unit 110, the autonomous navigation sensor 120, and the object detection unit 130.

記憶部170は、無人飛行機100を動作させるために必要な種々の情報を記憶する。記憶部170は、例えば、予め用意された飛行情報を記憶したり、制御部200が実行するためのプログラムやソフトウエアを記憶したり、撮影カメラ140で撮像された点検対象物や測定対象物の映像データを記憶する。さらに本実施例では、記憶部170には、撮影カメラ140による対象物の撮像が失敗したことを示す撮影失敗情報が記憶される。撮影失敗情報は、撮影カメラ140により撮影された映像データを再生することなく、対象物の再撮影が必要であることをユーザーに知らせることができる。 Storage unit 170 stores various information necessary for operating unmanned aircraft 100. For example, the storage unit 170 stores flight information prepared in advance, stores programs and software to be executed by the control unit 200, and stores information on objects to be inspected or measured that are imaged by the camera 140. Store video data. Furthermore, in this embodiment, the storage unit 170 stores photographing failure information indicating that the photographing camera 140 has failed in photographing the object. The photographing failure information can notify the user that the object needs to be photographed again without reproducing the video data photographed by the photographing camera 140.

出力部180は、記憶部170に記憶された情報を読出し、これを外部に出力する。出力部180の構成は特に限定されないが、例えば、出力部180は、記憶部170の映像データを表示する表示部を備えることができ、あるいは通信部190を介して接続された外部の基地局に、有線または無線により記憶部170から読み出した情報を出力することができる。 The output unit 180 reads information stored in the storage unit 170 and outputs it to the outside. Although the configuration of the output unit 180 is not particularly limited, for example, the output unit 180 may include a display unit that displays video data in the storage unit 170, or may be provided with an external base station connected via the communication unit 190. , information read from the storage unit 170 can be output by wire or wirelessly.

通信部190は、無人飛行機100を有線または無線により外部の基地局との間でデータ通信をすることを可能にする。外部の基地局(例えば、コンピュータ装置)は、通信部190を介して無人飛行機100を制御することが可能であり、例えば、飛行情報を無人飛行機100の記憶部170に設定したり、無人飛行機100で撮影した映像データを受信したり、あるいは制御部200に対してユーザーからの指示を与えることができる。 The communication unit 190 enables the unmanned aircraft 100 to perform data communication with an external base station by wire or wirelessly. An external base station (for example, a computer device) can control the unmanned aircraft 100 via the communication unit 190, and can, for example, set flight information in the storage unit 170 of the unmanned aircraft 100, or It is possible to receive video data photographed by the user, or to give instructions from the user to the control unit 200.

制御部200は、無人飛行機100の各部を制御する。ある実施態様では、制御部200は、ROM/RAMを含むマイクロコントローラ、マイクロプロセッサ、画像処理プロセッサ等を含み、記憶部170あるいはROM/RAMに格納されたプログラムやソフトウエアを実行することで無人飛行機100の自律飛行や点検対象物の撮影を制御する。 The control unit 200 controls each part of the unmanned aircraft 100. In one embodiment, the control unit 200 includes a microcontroller including a ROM/RAM, a microprocessor, an image processing processor, etc., and controls the unmanned aircraft by executing programs and software stored in the storage unit 170 or the ROM/RAM. Controls 100 autonomous flights and photography of inspection objects.

自律飛行制御プログラムは、GPS受信部110で検出された絶対位置(緯度、経度、高度)や自立航法センサ120で検出された方位や高度等に基づき、予め用意された飛行ルートを無人飛行機100が飛行するように制御する。この飛行ルートは、点検対象部である高架電線Wや測定対象物である検証点22に沿うルートである。さらに自律飛行制御プログラムは、物体検出部130により検出された高架電線Wや検証点22と間の相対的な距離および角度に基づき高架電線Wや検証点と一定の距離を保ちながら高架電線Wや検証点22を追尾するように無人飛行機100の飛行を制御する。 The autonomous flight control program allows the unmanned aircraft 100 to follow a pre-prepared flight route based on the absolute position (latitude, longitude, altitude) detected by the GPS receiver 110 and the direction and altitude detected by the autonomous navigation sensor 120. Control it to fly. This flight route is a route along the elevated electric wire W which is the part to be inspected and the verification point 22 which is the object to be measured. Further, the autonomous flight control program executes the automatic flight control program to maintain a certain distance from the elevated electrical wire W and the verification point 22 based on the relative distance and angle between the elevated electrical wire W and the verification point 22 detected by the object detection unit 130. The flight of the unmanned aircraft 100 is controlled so as to track the verification point 22.

無人飛行機100が対象物に沿って飛行を続ける間、撮影制御プログラムは、高架電線Wや検証点22が撮影されるように撮影カメラ140を制御し、かつ撮影カメラ140により撮影された映像データを記憶部170に格納する。本実施例の撮影制御プログラムの詳細な構成を図6に示す。同図に示すように、撮影制御プログラム210は、カメラ角度算出部220、カメラ動作制御部230、撮影失敗検出部240、再撮影制御部250および映像データ記憶部260を含んで構成される。 While the unmanned aircraft 100 continues to fly along the target object, the photographing control program controls the photographing camera 140 so that the elevated electric wire W and the verification point 22 are photographed, and also controls the video data photographed by the photographing camera 140. The information is stored in the storage unit 170. FIG. 6 shows the detailed configuration of the imaging control program of this embodiment. As shown in the figure, the photographing control program 210 includes a camera angle calculation section 220, a camera operation control section 230, a photographing failure detection section 240, a re-photographing control section 250, and a video data storage section 260.

カメラ角度算出部220は、撮影カメラ140の映像フレーム内に高架電線Wや検証点22が捉えられるようにするため、物体検出部130からの検出結果に基づき撮影カメラ140の撮影方向の角度を算出する。カメラ角度算出部220は、撮影方向の角度を算出すると、その算出結果を表す角度調整信号をカメラ角度調整部150に提供し、カメラ角度調整部150は、角度調整信号に基づき角度調整アクチュエータを駆動し、撮像カメラ140の撮影方向を調整する。本実施例では、カメラ角度算出部220は、撮像カメラ140の撮影方向(光軸)が鉛直方向になるように角度を算出し、これにより、撮像カメラ140は、高架電線Wや検証点22を真上から空撮する。 The camera angle calculating section 220 calculates the angle of the photographing direction of the photographing camera 140 based on the detection result from the object detecting section 130 so that the elevated electric wire W and the verification point 22 can be captured in the video frame of the photographing camera 140. do. When the camera angle calculation unit 220 calculates the angle of the shooting direction, it provides an angle adjustment signal representing the calculation result to the camera angle adjustment unit 150, and the camera angle adjustment unit 150 drives the angle adjustment actuator based on the angle adjustment signal. Then, the shooting direction of the imaging camera 140 is adjusted. In this embodiment, the camera angle calculation unit 220 calculates the angle so that the imaging direction (optical axis) of the imaging camera 140 is in the vertical direction. Take an aerial shot from directly above.

また、撮影カメラ140のズームは、予め決められ倍率に設定され、自律飛行制御プログラムにより無人飛行機100と高架電線Wや検証点22との間の相対距離が一定になるように飛行が制御される。これらの設定により、撮影カメラ140の映像フレームにより撮影される現実空間の範囲(縦方向および横方向の実空間の距離)が決定され、つまり、映像フレームに映される高架電線Wの大きさが決定される。例えば、図7(A)に示すように、映像フレームF内に、ユーザーによって点検可能な大きさで高架電線Wが映される。 Further, the zoom of the photographing camera 140 is set to a predetermined magnification, and the flight is controlled by the autonomous flight control program so that the relative distance between the unmanned aircraft 100 and the elevated electric wire W and the verification point 22 is constant. . These settings determine the range of the real space (the distance in the real space in the vertical and horizontal directions) captured by the video frame of the camera 140, that is, the size of the elevated electric wire W shown in the video frame is determined. It is determined. For example, as shown in FIG. 7A, an elevated electric wire W is displayed in a video frame F in a size that can be inspected by the user.

図7(A)において、映像フレームFの長手方向が飛行方向と略平行であるとき、カメラ角度算出部220は、物体検出部130で検出された高架電線Wの相対角度に基づき、映像フレームFの略中央に高架電線Wが捉えられるようにカメラの角度を算出する。また、図7(B)に示すように、無人飛行機100が風の影響を受けて、図2(A)に示すように機体の姿勢が変化したり、図2(B)に示すように高架電線Wから離れたとき、映像フレームFに映される高架電線Wが中央から縁部にシフトするが、この場合、カメラ角度算出部220は、物体検出部130で検出された高架電線Wの相対角度の変化量に基づき、高架電線Wが中央の方向Qに移動するように、カメラの角度を算出する。測定対象物である検証点22を撮影するときも同様である。 In FIG. 7A, when the longitudinal direction of the video frame F is approximately parallel to the flight direction, the camera angle calculation unit 220 calculates the video frame F based on the relative angle of the elevated electric wire W detected by the object detection unit 130. The angle of the camera is calculated so that the elevated electric wire W can be captured approximately in the center of the area. In addition, as shown in FIG. 7(B), the unmanned aircraft 100 may be affected by the wind, causing the attitude of the aircraft to change as shown in FIG. 2(A), or as shown in FIG. 2(B). When moving away from the electric wire W, the elevated electric wire W shown in the video frame F shifts from the center to the edge. In this case, the camera angle calculation unit 220 calculates the relative Based on the amount of change in angle, the camera angle is calculated so that the elevated electric wire W moves in the central direction Q. The same applies when photographing the verification point 22, which is the object to be measured.

カメラ動作制御部230は、撮影カメラ140の撮影開始および終了等を制御する。具体的には、飛行ルートに沿って無人飛行機100が飛行を開始し、高架電線Wや検証点22に接近し撮影開始位置に到達すると、カメラ動作制御部230は、撮影カメラ140による撮影を開始させ、無人飛行機100が飛行ルートに従って撮影終了位置に到達すると、撮影カメラ140による撮影を終了させる。カメラ動作制御部230は、上記以外にも撮影カメラの撮像条件、例えば、倍率等を制御することも可能である。 The camera operation control unit 230 controls the start and end of shooting, etc. of the shooting camera 140. Specifically, when the unmanned aircraft 100 starts flying along the flight route, approaches the elevated electric wire W and the verification point 22, and reaches the shooting start position, the camera operation control unit 230 starts the shooting camera 140 to start shooting. When the unmanned aircraft 100 reaches the photographing end position along the flight route, the photographing camera 140 finishes photographing. In addition to the above, the camera operation control unit 230 can also control the imaging conditions of the imaging camera, such as magnification.

撮影失敗検出部240は、撮影カメラ140による高架電線Wや検証点22の撮影が行われている期間中、撮影カメラ140による撮影の失敗を検出する。撮影中に、強風などの影響を受けて無人飛行機100の姿勢が急に変化したり(図2(A)を参照)、あるいは飛行ルートを一時的に逸脱したとき(図2(B)を参照)、角度調整アクチュエータによる撮影カメラ140の角度制御が間に合わないと、図7(C)に示すように、映像フレームFから高架電線Wがフレームアウトすることがある。撮影失敗検出部240は、こうしたフレームアウトを撮影失敗と見做しこれを検出する。フレームアウトの有無は、物体検出部130で検出された高架電線Wや検証点22の相対位置と、角度調整アクチュエータの現在の制御された角度と、撮影カメラに設定されている画角から判定することができる。 The photographing failure detection unit 240 detects a failure in photographing by the photographing camera 140 during a period in which the photographing camera 140 is photographing the elevated electric wire W or the verification point 22 . When the attitude of the unmanned aircraft 100 suddenly changes due to the influence of strong winds (see Figure 2 (A)) or temporarily deviates from the flight route (see Figure 2 (B)) during photography. ), if the angle control of the photographing camera 140 by the angle adjustment actuator is not done in time, the overhead electric wire W may come out of the video frame F, as shown in FIG. 7(C). The photographing failure detection unit 240 regards such frame-out as a photographing failure and detects it. The presence or absence of frame-out is determined from the relative positions of the elevated electric wire W and the verification point 22 detected by the object detection unit 130, the currently controlled angle of the angle adjustment actuator, and the viewing angle set on the photographing camera. be able to.

図8は、フレームアウトの有無の判定方法を説明する図である。無人飛行機100の飛行方向は、高架電線Wの延在する方向と概ね平行であるとする。この状態で、無人飛行機100の鉛直方向の基準線Gに対する高架電線Wの相対角度θwは、物体検出部130により検出される。また、撮影カメラ140の画角θcは、ズームの倍率から決定される既知の値であり、画角θcは、図7に示す映像フレームFの大きさを規定する。基準線Gに対する角度調整アクチュエータの現在の角度がθaであるとき(角度θaは、撮影カメラ140の撮影レンズの光軸方向に等しい)、画角θcは、角度θaによってオフセットされた角度の方向を撮影する。撮影判定部240は、θaによりオフセットされた画角θcの撮影範囲に、高架電線Wの角度θwが含まれるか否かを判定し、両者の差が一定以上である場合には、高架電線Wが撮影されていない、すなわち映像フレームFから高架電線Wがフレームアウトしたと判定する。 FIG. 8 is a diagram illustrating a method for determining the presence or absence of frame-out. It is assumed that the flight direction of the unmanned aircraft 100 is approximately parallel to the direction in which the elevated electric wire W extends. In this state, the relative angle θw of the elevated electric wire W with respect to the vertical reference line G of the unmanned aircraft 100 is detected by the object detection unit 130. Further, the angle of view θc of the photographing camera 140 is a known value determined from the zoom magnification, and the angle of view θc defines the size of the video frame F shown in FIG. When the current angle of the angle adjustment actuator with respect to the reference line G is θa (the angle θa is equal to the optical axis direction of the photographing lens of the photographing camera 140), the angle of view θc is the direction of the angle offset by the angle θa. Take a photo. The imaging determination unit 240 determines whether the angle θw of the elevated electric wire W is included in the imaging range of the angle of view θc offset by θa, and if the difference between the two is a certain value or more, is not photographed, that is, it is determined that the elevated electric wire W has gone out of the video frame F.

また、映像フレームFの外縁に高架電線Wが撮影された場合には、高架電線Wの一部が欠損したり、あるいは光学歪みにより画像が不鮮明になるおそれがある。このため、図7(D)に示すように、映像フレームFの外周に一定のマージンMを設け、マージンMの内側に高架電線Wが撮影されるか否かを判定するようにしてもよい。この場合には、マージンMを規定する画角θc’(θc’<θc)を設定する。なお、測定対象物である検証点22のフレームアウトの有無の判定も同様に行われる。 Further, when the elevated electric wire W is photographed at the outer edge of the video frame F, there is a possibility that a part of the elevated electric wire W may be missing or the image may become unclear due to optical distortion. For this reason, as shown in FIG. 7(D), a certain margin M may be provided around the outer periphery of the video frame F, and it may be determined whether or not the elevated electric wire W is photographed inside the margin M. In this case, an angle of view θc' (θc'<θc) that defines the margin M is set. Note that determination as to whether or not there is a flameout at the verification point 22, which is the object to be measured, is performed in the same manner.

さらに撮影カメラ140は、1秒間に複数の映像フレームを生成(例えば、1秒間に24の映像フレームを生成)するため、もし、非常に短い時間で高架電線Wのフレームアウトが生じた場合には、前後の映像フレームによりフレームアウトした期間の高架電線Wを補間することが可能である。従って、撮影失敗検出部240は、フレームアウトが一定期間生じた場合に、撮影失敗と判定する。例えば、1秒間に24の映像フレームが生成される場合、12枚の映像フレームにおいてフレームアウトが生じた場合に高架電線Wの撮影が失敗したと判定する。 Furthermore, since the camera 140 generates a plurality of video frames per second (for example, 24 video frames per second), if the overhead wire W goes out of frame in a very short time, , it is possible to interpolate the elevated electric wire W during the frame-out period using the previous and subsequent video frames. Therefore, the imaging failure detection unit 240 determines that imaging has failed when frame-out occurs for a certain period of time. For example, when 24 video frames are generated per second, it is determined that the photographing of the elevated electric wire W has failed if frame-out occurs in 12 video frames.

撮影失敗検出部240は、フレームアウトの有無を判定する他に、撮影された対象物の焦点ズレ(ピントズレ)が生じたとき、これを撮影失敗と見做すようにしてもよい。例えば、図4に示すように、飛行ルートRに木や鉄塔などの高い建物があると、検証点22に焦点が合わずに一時的に木や鉄塔などに焦点が合ってしまう。焦点ズレの有無は、例えば、撮影された映像データのパワースペクトルから判定することができる。対象物の焦点が合っていないとき、対象物の輪郭が不鮮明になり、輪郭を構成する隣接する画素間の画像データの変化量が小さくなり、その周波数が小さくなる。反対に焦点が合っていれば、画素間の画像データの変化量が大きくなり、その周波数が大きくなる。撮影失敗検出部240は、撮像された映像データを解析し、そのパワースペクトルから焦点ズレを監視し、焦点が合っていない期間を検出する。 In addition to determining the presence or absence of a frame-out, the photographing failure detection unit 240 may consider that when a focus shift (out of focus) of a photographed object occurs, this is regarded as a photographing failure. For example, as shown in FIG. 4, if there are tall buildings such as trees or steel towers on the flight route R, the verification point 22 will not be in focus, and the focus will be on the trees, steel towers, etc. temporarily. The presence or absence of a focus shift can be determined, for example, from the power spectrum of captured video data. When an object is out of focus, the outline of the object becomes unclear, the amount of change in image data between adjacent pixels forming the outline becomes small, and its frequency becomes low. On the other hand, if the image is in focus, the amount of change in image data between pixels will increase, and the frequency will increase. The imaging failure detection unit 240 analyzes captured video data, monitors out-of-focus from its power spectrum, and detects out-of-focus periods.

撮影失敗検出部240は、撮影失敗を検出したとき、GPS受信部110で検出された無人飛行機100の位置情報に基づき飛行ルートのどの位置または区間で撮影が失敗したかを示す撮影失敗位置情報を生成し、これを再撮影制御部250へ提供する。 When the photographing failure detection unit 240 detects a photographing failure, the photographing failure detection unit 240 generates photographing failure position information indicating in which position or section of the flight route the photographing failed based on the position information of the unmanned aircraft 100 detected by the GPS receiving unit 110. and provides it to the re-imaging control unit 250.

再撮影制御部250は、撮影失敗検出部240から撮影失敗位置情報を受け取ると、当該撮影失敗位置情報に基づき自律飛行制御プログラムおよびカメラ動作制御部230を制御し、無人飛行機100を撮影失敗した位置に飛行させ、そこで対象物の再撮影を行う。 When the reshooting control unit 250 receives the shooting failure position information from the shooting failure detection unit 240, it controls the autonomous flight control program and the camera operation control unit 230 based on the shooting failure position information, and moves the unmanned aircraft 100 to the position where the shooting failure occurred. The object will then be photographed again.

映像データ記憶部260は、撮影カメラ140が動作されている期間中に撮影された映像データおよび再撮影制御部250により再撮影された映像データを記憶部170に記憶する。 The video data storage section 260 stores, in the storage section 170, video data photographed during the period in which the photographing camera 140 is in operation and video data re-photographed by the re-photography control section 250.

次に、本実施例の無人飛行機100による第1の撮影動作について図9のフローを参照して説明する。ここでは、高架電線Wを撮影するものとする。先ず、通信部190を介してコンピュータ装置が接続され、コンピュータ装置から無人飛行機100に飛行ルートを含む飛行情報が入力され(S100)、これが記憶部170または制御部200のRAMに格納される。制御部200の自律飛行制御プログラムは、入力された飛行情報に従い無人飛行機の自律飛行を開始する(S110)。 Next, the first photographing operation by the unmanned aircraft 100 of this embodiment will be explained with reference to the flow shown in FIG. Here, it is assumed that the elevated electric wire W is photographed. First, a computer device is connected via the communication unit 190, and flight information including a flight route is input from the computer device to the unmanned aircraft 100 (S100), and this is stored in the storage unit 170 or the RAM of the control unit 200. The autonomous flight control program of the control unit 200 starts autonomous flight of the unmanned aircraft according to the input flight information (S110).

無人飛行機100は、物体検出部130で検出された高架電線Wまでの相対距離および角度に基づき高架電線Wと一定の距離を保ちながら高架電線Wに沿って自律飛行をし、その間、高架電線Wの撮影が行われる。すなわち、カメラ動作制御部230は、無人飛行機100が高架電線Wの撮影開始位置に到達すると、撮影カメラ140を起動し、高架電線Wの撮影を開始する(S120)。 The unmanned aircraft 100 autonomously flies along the elevated electrical wire W while maintaining a certain distance from the elevated electrical wire W based on the relative distance and angle to the elevated electrical wire W detected by the object detection unit 130. will be photographed. That is, when the unmanned aircraft 100 reaches the photographing start position of the elevated electric wire W, the camera operation control unit 230 activates the photographing camera 140 and starts photographing the elevated electric wire W (S120).

撮影期間中、カメラ角度算出部220は、物体検出部130で検出された高架電線Wまでの距離および角度に基づき撮影カメラ140の撮影方向の角度を算出し、算出結果に基づき角度調整信号を角度調整アクチュエータに出力し、角度調整アクチュエータが撮影カメラ140の角度を調整する。また、撮影期間中、撮影カメラ140によって撮影された高架電線Wの映像データは、映像データ記憶部260によって記憶部170に順次記憶される。また、撮影中、撮影失敗検出部240によって、高架電線Wの撮影失敗の有無が検出され(S130)、撮影失敗が検出された場合には、撮影失敗位置情報が再撮影制御部250に提供され、再撮影制御部250は、提供された撮影失敗位置情報を保持する(S140)。 During the shooting period, the camera angle calculation unit 220 calculates the angle of the shooting direction of the shooting camera 140 based on the distance and angle to the elevated electric wire W detected by the object detection unit 130, and adjusts the angle adjustment signal to the angle based on the calculation result. The signal is output to the adjustment actuator, and the angle adjustment actuator adjusts the angle of the photographing camera 140. Further, during the photographing period, the video data of the elevated electric wire W photographed by the photographing camera 140 is sequentially stored in the storage section 170 by the video data storage section 260. Further, during the photographing, the photographing failure detection unit 240 detects whether there is a photographing failure of the elevated electric wire W (S130), and if a photographing failure is detected, the photographing failure position information is provided to the re-photographing control unit 250. , the re-imaging control unit 250 holds the provided imaging failure position information (S140).

無人飛行機100が飛行ルートに基づき高架電線Wの撮影終了地点に到達すると(S150)、カメラ動作制御部230は高架電線の撮影を停止し(S160)、再撮影制御部250は、撮影失敗位置情報を保持しているか否かを判定し(S170)、撮影失敗位置情報を保持する場合には、無人飛行機100が撮影失敗位置に飛行するように自律飛行制御プログラムを制御し、そこでカメラ動作制御部230により撮影カメラ140を起動させ、高架電線Wの再撮影を行う(S180)。再撮影された高架電線Wの映像データは記憶部170に格納される。複数の撮影失敗位置情報がある場合には、それらの全てについても同様に、無人飛行機100を撮影失敗位置に飛行させ、そこで高架電線Wの再撮影を行う。再撮影が終了すると、カメラ動作制御部230は撮影カメラ140を停止させ、無人飛行機100がスタート地点に帰還される(S190)。他方、再撮影制御部250に撮影失敗位置情報が保持されていない場合には、再撮影を行うことなく、無人飛行機100がスタート地点に帰還される(S190)。 When the unmanned aircraft 100 reaches the photographing end point of the elevated electric wire W based on the flight route (S150), the camera operation control unit 230 stops photographing the elevated electric wire (S160), and the re-photographing control unit 250 updates the photographing failure position information. is held (S170), and if the shooting failure position information is held, the autonomous flight control program is controlled so that the unmanned aircraft 100 flies to the shooting failure position, and the camera operation control unit 230, the photographing camera 140 is activated and the elevated electric wire W is photographed again (S180). The re-photographed video data of the elevated electric wire W is stored in the storage unit 170. If there is multiple photographing failure position information, the unmanned aircraft 100 is similarly flown to the photographing failure position for all of them, and the elevated electric wire W is re-photographed there. When the re-photographing is completed, the camera operation control unit 230 stops the photographing camera 140, and the unmanned aircraft 100 returns to the starting point (S190). On the other hand, if the photographing failure position information is not held in the re-photographing control unit 250, the unmanned aircraft 100 is returned to the starting point without performing re-photographing (S190).

図10に、高架電線Wを再撮影するときの無人飛行機の飛行例を示す。無人飛行機100は、図10(A)に示すように、飛行ルートRに沿って連続する高架電線Wを撮影し、その途中、撮影失敗検出部240によって撮影地点Zにおいて撮影範囲Sの撮影失敗が検出されると、撮影地点Zを含む撮影失敗位置情報が生成され、これが再撮影制御部250に保持される。無人飛行機100は、飛行ルートRに沿って撮影終了地点Eまで高架電線Wの撮影を継続する。無人飛行機100が撮影終了地点Eに到達すると、再撮影制御部250は、撮影失敗位置情報に基づき飛行ルートR1を生成し、この飛行ルートR1に沿って無人飛行機100を撮影失敗地点Zまで飛行させ、そこで高架電線Wの再撮影を行う。 FIG. 10 shows an example of a flight of an unmanned aircraft when re-photographing the elevated electric wire W. As shown in FIG. 10(A), the unmanned aircraft 100 photographs continuous elevated electric wires W along a flight route R, and during the photographing, the photographing failure detection unit 240 detects a photographing failure in a photographing range S at a photographing point Z. When detected, photographing failure position information including the photographing point Z is generated, and this is held in the re-photographing control unit 250. The unmanned aircraft 100 continues photographing the elevated electric wire W along the flight route R until the photographing end point E. When the unmanned aircraft 100 reaches the shooting end point E, the reshooting control unit 250 generates a flight route R1 based on the shooting failure position information, and flies the unmanned aircraft 100 along this flight route R1 to the shooting failure point Z. Then, the elevated electric wire W is photographed again.

このように本実施例によれば、対象物の撮影に失敗した場合には、撮影失敗した地点で対象物を自動で再撮影するようにしたので、対象物の撮影の効率化を図ることができる。 In this way, according to this embodiment, if the object fails to be photographed, the object is automatically re-photographed at the point where the photographing failed, so that it is possible to improve the efficiency of photographing the object. can.

次に、本実施例の無人飛行機100による第2の撮影動作について図11のフローを参照して説明する。ここでは、検証点のように非連続の測定対象物を撮影するものとする。ステップS100~S130までは、図9と同様であるので説明を省略する。撮影失敗検出部240によって撮影失敗が検出されると(S130)、再撮影制御部250は、撮影失敗位置情報に基づき無人飛行機100を撮影が失敗した地点に戻し(S200)、そこで測定対象物(例えば、検証点22)を再撮影する(S210)。再撮影制御部250によって再撮影が終了すると、再び飛行ルートに沿って測定対象物が撮影される。無人飛行機100が飛行ルートに基づき測定対象物の撮影終了地点に到達すると(S220)、カメラ動作制御部230は測定対象物の撮影を停止し(S230)、無人飛行機100がスタート地点に帰還される(S240)。 Next, the second photographing operation by the unmanned aircraft 100 of this embodiment will be explained with reference to the flow shown in FIG. 11. Here, it is assumed that a discontinuous measurement object such as a verification point is photographed. Steps S100 to S130 are the same as those in FIG. 9, so their explanation will be omitted. When the photographing failure detection unit 240 detects a photographing failure (S130), the re-photographing control unit 250 returns the unmanned aircraft 100 to the point where the photographing failed based on the photographing failure position information (S200), and there, the measurement target ( For example, the verification point 22) is photographed again (S210). When the re-photographing is completed by the re-photographing control unit 250, the object to be measured is photographed again along the flight route. When the unmanned aircraft 100 reaches the end point for photographing the object to be measured based on the flight route (S220), the camera operation control unit 230 stops photographing the object to be measured (S230), and the unmanned airplane 100 returns to the starting point. (S240).

図12に、図11に示す再撮影をするときの無人飛行機の飛行例を示す。無人飛行機100は、図12(A)に示すように、映像フレームFn-1、Fn、Fn+1・・・を連続的に撮影する。もし、撮影失敗検出部240が映像フレームFnの撮影失敗を検出すると、映像フレームFnを撮影したときのGPS受信部110で検出された位置情報を含む撮影失敗位置情報が再撮影制御部250に提供される。再撮影制御部250は、図12(B)に示すように撮影失敗位置情報に基づき撮影が失敗した位置に無人飛行機100を戻し、そこで映像フレームFnの再撮影を行う。なお、複数の映像フレームにおいて連続して撮影失敗が検出された場合には、複数の連続する映像フレームの再撮影が行われる。 FIG. 12 shows an example of the flight of the unmanned aircraft when retaking the image shown in FIG. 11. The unmanned aircraft 100 sequentially photographs video frames Fn-1, Fn, Fn+1, etc., as shown in FIG. 12(A). If the shooting failure detection unit 240 detects a shooting failure of the video frame Fn, the shooting failure position information including the position information detected by the GPS receiving unit 110 when the video frame Fn was shot is provided to the reshooting control unit 250. be done. The reshooting control unit 250 returns the unmanned aircraft 100 to the position where the shooting failed based on the shooting failure position information, as shown in FIG. 12(B), and reshoots the video frame Fn there. Note that if a shooting failure is detected in a plurality of consecutive video frames, reshooting of the plurality of consecutive video frames is performed.

このように本実施例によれば、対象物の撮影に失敗した場合には、一旦元の撮影失敗した位置に戻り、そこで再撮影してから通常の撮影をするようにしたので、対象物の撮影の効率化を図ることができる。特に、映像フレーム間で対象物の差分または視差を抽出する処理を行うような場合に、本例の撮影方法が適している。 As described above, according to this embodiment, when photographing a target object fails, it is possible to return to the original position where the photographing failed, retake the photograph there, and then perform normal photographing. It is possible to improve the efficiency of photographing. In particular, the photographing method of this example is suitable when performing processing to extract a difference or parallax of an object between video frames.

次に、本発明の第2の実施例について説明する。上記実施例では、無人飛行機100の撮影制御プログラムが撮影失敗を検出し、その後の再撮影を制御する例を示したが、第2の実施例では、地上の基地局が撮影失敗を検出し、再撮影を制御する。 Next, a second embodiment of the present invention will be described. In the above embodiment, an example was shown in which the photographing control program of the unmanned aircraft 100 detects a photographing failure and controls subsequent re-photographing, but in the second embodiment, a base station on the ground detects a photographing failure, Control reshoots.

無人飛行機100は、飛行ルートに沿って対象物を追尾し、撮影カメラ140により対象物(高架電線Wや検証点など)を撮影すると、通信部190は、撮影された映像データを基地局に送信する。送信される映像データには、GPS受信部190で検出された無人飛行機の現在位置情報が付加される。基地局は、受信した映像データを解析し、撮影失敗の有無を検出する。基地局は、撮影失敗を検出した場合には、再撮影のための飛行情報を生成し、これを無人飛行機100に送信する。通信部190は、受信した再撮影のための飛行情報を制御部200に提供し、自律飛行制御プログラムは、再撮影のための飛行情報に基づき無人飛行機100を飛行させ、カメラ動作制御部230は、撮影失敗箇所で対象物を再撮影する。 The unmanned aircraft 100 tracks an object along the flight route, and when the object (elevated electric wire W, verification point, etc.) is photographed by the photographing camera 140, the communication unit 190 transmits the photographed video data to the base station. do. Current position information of the unmanned aircraft detected by the GPS receiving unit 190 is added to the video data to be transmitted. The base station analyzes the received video data and detects whether there is a shooting failure. When the base station detects a photographing failure, it generates flight information for re-photographing and transmits this to the unmanned aircraft 100. The communication unit 190 provides the received flight information for re-shooting to the control unit 200, the autonomous flight control program causes the unmanned aircraft 100 to fly based on the flight information for re-shooting, and the camera operation control unit 230 , re-photograph the object at the location where the photographing failed.

このように本実施例によれば、地上の基地局側で撮影失敗の検出および再撮影の制御を行うことで、無人飛行機100の処理負担を軽減することができる。 As described above, according to the present embodiment, the processing load on the unmanned aircraft 100 can be reduced by detecting an imaging failure and controlling re-imaging on the base station side on the ground.

上記実施例では、説明を容易にするため、図7等に示すように、映像フレームFの短手方向において撮影カメラ140の撮影方向を調整する例を示したが、実際には、無人飛行機の飛行方向が高架電線Wの方向とズレが生じている場合には、撮像カメラ140の撮影方向は、映像フレームの長手方向においても調整され得る。つまり、角度調整アクチュエータは、映像フレームFの短手方向および長手方向の自由度2でカメラの角度を調整することが可能である。 In the above embodiment, for ease of explanation, an example was shown in which the shooting direction of the shooting camera 140 is adjusted in the lateral direction of the video frame F, as shown in FIG. If the flight direction is misaligned with the direction of the elevated electric wire W, the shooting direction of the imaging camera 140 may also be adjusted in the longitudinal direction of the video frame. In other words, the angle adjustment actuator can adjust the angle of the camera with two degrees of freedom in the lateral and longitudinal directions of the video frame F.

また、上記実施例では、高架電線や地形を撮影する例を示したが、これは一例であり、本発明は、他の高層建造物、自然災害地などの撮影にも適用することができる。さらに本実施例は、撮影カメラが角度調整アクチュエータを介して機体本体に取り付けられる例を示したが、撮影カメラそのものが電子的または光学的な撮影方向の角度調整機能を備えている場合には、角度調整アクチュエータは必ずしも必須ではない。 Further, in the above embodiment, an example was shown in which images of elevated electric wires and topography were taken, but this is just an example, and the present invention can also be applied to taking photos of other high-rise buildings, natural disaster areas, etc. Furthermore, this embodiment has shown an example in which the photographing camera is attached to the aircraft body via the angle adjustment actuator, but if the photographing camera itself is equipped with an electronic or optical angle adjustment function for the photographing direction, An angle adjustment actuator is not necessarily required.

さらに上記実施例では、無人飛行機による対象物の撮影を例示したが、本発明はこれに限らず、車輪で移動するドローン(ローバー)にも適用することができる。 Further, in the above embodiments, an example is given of photographing an object using an unmanned aircraft, but the present invention is not limited to this, and can also be applied to a drone (rover) that moves on wheels.

以上、本発明の好ましい実施の形態について詳述したが、本発明は、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された発明の要旨の範囲において、種々の変形、変更が可能である。 Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to specific embodiments, and various modifications and variations can be made within the scope of the gist of the invention described in the claims. Changes are possible.

100:無人飛行機 110:GPS受信部
120:自立航法センサ 130:物体検出部
140:撮影カメラ 150:カメラ角度調整部
160:ロータ駆動部 170:記憶部
180:出力部 190:通信部190
200:制御部
100: Unmanned aircraft 110: GPS receiving unit 120: Independent navigation sensor 130: Object detection unit 140: Photographing camera 150: Camera angle adjustment unit 160: Rotor drive unit 170: Storage unit 180: Output unit 190: Communication unit 190
200: Control unit

Claims (6)

移動体の位置を検出する位置検出手段と、
対象物を撮影する撮影カメラを含む撮影手段と、
対象物の相対位置を検出する対象物検出手段と、
前記対象物検出手段の検出に基づき前記撮影カメラの撮影方向の角度を調整する角度調整手段と、
対象物を撮影するために予め用意された移動ルートに従い移動体を移動させる移動手段と、
前記撮影手段による対象物の撮影の失敗を検出する検出手段と、
前記検出手段により撮影の失敗が検出された場合、前記位置検出手段により検出された撮影が失敗した位置で対象物を再撮影するように前記移動手段および前記撮影手段を制御する制御手段とを有し、
前記検出手段は、前記対象物検出手段により検出された対象物の相対位置および前記角度調整手段により調整された撮影方向の角度に基づき、前記撮影手段による撮影範囲に対象物が含まれているか否かにより撮影の失敗を検出する、無人移動体。
a position detection means for detecting the position of the moving body;
a photographing means including a photographing camera for photographing the object;
object detection means for detecting the relative position of the object;
An angle adjusting means for adjusting the angle of the photographing direction of the photographing camera based on the detection by the object detecting means;
a moving means for moving a moving object according to a moving route prepared in advance to photograph a target object;
Detection means for detecting a failure in photographing an object by the photographing means;
control means for controlling the moving means and the photographing means so that when the detection means detects a failure in photographing, the object is re-photographed at the position detected by the position detection means at which the photographing has failed; death,
The detection means determines whether or not the object is included in the photographing range of the photographing means, based on the relative position of the object detected by the object detection means and the angle of the photographing direction adjusted by the angle adjustment means. An unmanned moving object that detects failures in shooting .
前記検出手段は、対象物の相対角度、前記角度調整手段により調整された撮影方向の角度、および撮影カメラの画角に基づき前記撮影手段による撮影範囲に対象物が含まれているか否かにより撮影の失敗を検出する、請求項1に記載の無人移動体。 The detection means determines whether the object is included in the photographing range of the photographing means based on the relative angle of the object, the angle of the photographing direction adjusted by the angle adjusting means, and the angle of view of the photographing camera . The unmanned moving object according to claim 1, which detects failure in photographing. 前記検出手段は、前記撮影手段により撮影された映像フレームの外周に設定された一定のマージンの内側に対象物が含まれているか否かにより撮影の失敗を検出する、請求項1に記載の無人移動体。The unmanned vehicle according to claim 1, wherein the detection means detects a failure in photographing based on whether the object is included within a certain margin set on the outer periphery of the video frame photographed by the photographing means. mobile object. 前記検出手段は、前記撮影手段により撮影された映像フレーム単位で撮影の失敗を検出し、前記制御手段は、撮影が失敗した位置で対象物を再撮影した後、前記予め用意された移動ルートに戻るように前記移動手段および前記撮影手段を制御する、請求項1に記載の無人移動体。 The detection means detects failure in photographing in units of video frames photographed by the photographing means, and the control means re-photographs the object at the position where the photographing has failed, and then moves the object along the pre-prepared movement route. The unmanned moving object according to claim 1, wherein the moving means and the photographing means are controlled so as to return. 前記制御手段は、前記移動ルートの撮影終了地点に到達した後、撮影が失敗した位置で対象物を再撮影するように前記移動手段および前記撮影手段を制御する、請求項1に記載の無人移動体。 The unmanned movement according to claim 1, wherein the control means controls the moving means and the photographing means so as to re-photograph the object at the position where the photographing failed after reaching the photographing end point of the moving route. body. 無人移動体はさらに、基地局とデータ通信する通信手段を含み、
前記通信手段は、前記撮影手段によって撮影された映像データと前記位置検出手段により検出された移動体の位置を基地局に送信し、
基地局は、映像データの解析結果に基づき撮影失敗を検出した場合には、再撮影のための飛行情報を前記通信手段を介して前記制御手段に送信し、
前記制御手段は、基地局から送信される前記飛行情報に基づき前記移動手段および前記撮影手段を制御する、請求項1に記載の無人移動体。
The unmanned mobile object further includes communication means for communicating data with the base station,
The communication means transmits the video data photographed by the photographing means and the position of the moving object detected by the position detection means to a base station,
When the base station detects a shooting failure based on the analysis result of the video data, the base station transmits flight information for reshooting to the control means via the communication means,
The unmanned mobile object according to claim 1, wherein the control means controls the moving means and the photographing means based on the flight information transmitted from a base station.
JP2019095202A 2019-05-21 2019-05-21 unmanned moving body Active JP7362203B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019095202A JP7362203B2 (en) 2019-05-21 2019-05-21 unmanned moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019095202A JP7362203B2 (en) 2019-05-21 2019-05-21 unmanned moving body

Publications (2)

Publication Number Publication Date
JP2020191523A JP2020191523A (en) 2020-11-26
JP7362203B2 true JP7362203B2 (en) 2023-10-17

Family

ID=73454812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019095202A Active JP7362203B2 (en) 2019-05-21 2019-05-21 unmanned moving body

Country Status (1)

Country Link
JP (1) JP7362203B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113485424B (en) * 2021-07-19 2023-04-18 武汉中测晟图遥感技术有限公司 Design method of pole tower inspection route
WO2023234079A1 (en) * 2022-06-01 2023-12-07 コニカミノルタ株式会社 Data processing device, data processing system, data processing method, and program
JP7418727B1 (en) 2023-01-17 2024-01-22 株式会社センシンロボティクス Information processing method, information processing system and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108377328A (en) 2018-01-03 2018-08-07 广东电网有限责任公司机巡作业中心 A kind of helicopter makes an inspection tour the target image pickup method and device of operation
WO2018163571A1 (en) 2017-03-10 2018-09-13 ソニー株式会社 Information-processing device, information-processing method, and information-processing program
JP2018152737A (en) 2017-03-13 2018-09-27 ヤンマー株式会社 Unmanned flight camera

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008012636A (en) * 2006-07-07 2008-01-24 Toyota Motor Corp Personal identification system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018163571A1 (en) 2017-03-10 2018-09-13 ソニー株式会社 Information-processing device, information-processing method, and information-processing program
JP2018152737A (en) 2017-03-13 2018-09-27 ヤンマー株式会社 Unmanned flight camera
CN108377328A (en) 2018-01-03 2018-08-07 广东电网有限责任公司机巡作业中心 A kind of helicopter makes an inspection tour the target image pickup method and device of operation

Also Published As

Publication number Publication date
JP2020191523A (en) 2020-11-26

Similar Documents

Publication Publication Date Title
US11550315B2 (en) Unmanned aerial vehicle inspection system
US10191486B2 (en) Unmanned surveyor
US9513635B1 (en) Unmanned aerial vehicle inspection system
JP6326237B2 (en) Measuring system
JP6055274B2 (en) Aerial photograph measuring method and aerial photograph measuring system
JP7362203B2 (en) unmanned moving body
JP7305263B2 (en) Unmanned aerial vehicles, inspection methods and inspection programs
JP2006027448A (en) Aerial photographing method and device using unmanned flying body
JP2006027331A (en) Method for collecting aerial image information by utilizing unmanned flying object
US20220210335A1 (en) Autofocusing camera and systems
JP7011908B2 (en) Optical information processing equipment, optical information processing method and optical information processing program
US20220335840A1 (en) Ruggedized autonomous helicopter platform
JP6577083B2 (en) Measuring system
JP2022023592A (en) Survey system, survey method and program for survey
JP7428461B2 (en) Unmanned aircraft system and flight control method
JP2019219874A (en) Autonomous moving and imaging control system and autonomous moving body
JP2018138922A (en) Measuring system
JP2022028894A (en) Optical information processing apparatus, optical information processing method, and program for optical information processing
KR102149494B1 (en) Structure inspection system and method using dron
JP6974290B2 (en) Position estimation device, position estimation method, program, and recording medium
KR20220031574A (en) 3D positioning and mapping system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231003

R150 Certificate of patent or registration of utility model

Ref document number: 7362203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150