JP2019219874A - Autonomous moving and imaging control system and autonomous moving body - Google Patents

Autonomous moving and imaging control system and autonomous moving body Download PDF

Info

Publication number
JP2019219874A
JP2019219874A JP2018116366A JP2018116366A JP2019219874A JP 2019219874 A JP2019219874 A JP 2019219874A JP 2018116366 A JP2018116366 A JP 2018116366A JP 2018116366 A JP2018116366 A JP 2018116366A JP 2019219874 A JP2019219874 A JP 2019219874A
Authority
JP
Japan
Prior art keywords
autonomous mobile
unit
information
camera
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018116366A
Other languages
Japanese (ja)
Other versions
JP6719738B2 (en
Inventor
恵司 柴山
Keiji Shibayama
恵司 柴山
克郎 田中
Katsuro Tanaka
克郎 田中
裕二 隈元
Yuji Kumamoto
裕二 隈元
バレリー クルモフ
Valeri Kroumov
バレリー クルモフ
寛志 太田
Hiroshi Ota
寛志 太田
健太 高谷
Kenta Takaya
健太 高谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electric Power Development Co Ltd
Kake Educational Institution
Original Assignee
Electric Power Development Co Ltd
Kake Educational Institution
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electric Power Development Co Ltd, Kake Educational Institution filed Critical Electric Power Development Co Ltd
Priority to JP2018116366A priority Critical patent/JP6719738B2/en
Publication of JP2019219874A publication Critical patent/JP2019219874A/en
Application granted granted Critical
Publication of JP6719738B2 publication Critical patent/JP6719738B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide an autonomous moving and imaging control system and an autonomous moving body which autonomously, highly-precisely, and safely imaging, in a camera-mounted autonomous body, a predetermined imaging object by integrating a position control on the autonomous moving body and an AF control on the camera on the basis of shape information on an imaging object facility, output information from each position measuring unit and various sensors, and an instruction from each control unit.SOLUTION: An autonomous moving and imaging control system includes: object facility information 1 on an imaging object; a sensor unit 2 including various sensors for grasping a moving state; a control unit 3 that calculates an instruction value on the basis of various control rules; a motor driving unit 4 that performs drive control on a motor loaded on an unmanned aircraft 100; and a camera 5. A camera imaging unit 52 and a close-tracking control unit 36 are provided in order to surely maintain a focus on the imaging object. A PTZ control amount is calculated on the basis of a relative distance and a relative angle both obtained by a distance measuring sensor 25, and imaging is performed by the close-tracking control unit 36 while a movement along the imaging object is being performed.SELECTED DRAWING: Figure 1

Description

本発明は、カメラを搭載した自律移動体の移動制御と撮影制御とを行う自律移動撮影制御システムおよび自律移動体に関する。   The present invention relates to an autonomous mobile imaging control system that performs movement control and imaging control of an autonomous mobile body equipped with a camera, and an autonomous mobile body.

従来、人が立ち入ることが困難な高所の設備や広大な設備の微細なキズの点検などに使用する画像は、ヘリコプターにカメラマンを搭乗させ、高精細なハイビジョンカメラをカメラマンがマニュアル操作して撮影されてきた。しかし、このような撮影方法には、費用が高額であること、ヘリコプターの台数が限られていること、準備から撮影まで時間がかかること、天候に工程が左右されることなどにより撮影できる箇所が限られるという課題があった。そのため、近年、カメラを搭載した自律航行可能な無人航空機、所謂ドローンを用いて、遠隔操作または自動で撮影を行う試みがなされている。   Conventionally, a helicopter is used by a cameraman to manually shoot a high-definition high-definition camera for images used for inspection of fine equipment at high places or large facilities where it is difficult for people to enter. It has been. However, such shooting methods are expensive, have a limited number of helicopters, take a long time from preparation to shooting, and where the process can be affected by the weather, etc. There was a problem that it was limited. For this reason, in recent years, attempts have been made to remotely or automatically shoot using an autonomously navigable unmanned aerial vehicle equipped with a camera, a so-called drone.

例えば、ドローンを予め設定された飛行経路上の地点を示すウェイポイントなどの航行制御情報に基づいて自動航行させつつ、撮影制御情報に基づいてカメラを制御して撮影する方法(特許文献1参照)や、観測経路情報と設備情報に基づいて無人飛行機の飛行経路および無人飛行機を運搬する台車の経路を算出する方法(特許文献2参照)が提案されている。また、無人航空機に搭載された複数のセンサデータに基づいて環境タイプを判断し、その環境タイプに応じた飛行モードにて無人航空機を動作させるよう構成する方法(特許文献3参照)も提案されている。   For example, a method in which a drone is automatically navigated based on navigation control information such as a waypoint indicating a point on a flight route set in advance, and a camera is controlled based on imaging control information to shoot an image (see Patent Document 1) Also, a method has been proposed in which a flight route of an unmanned airplane and a route of a bogie carrying an unmanned airplane are calculated based on observation route information and equipment information (see Patent Document 2). Further, a method has been proposed in which an environment type is determined based on a plurality of sensor data mounted on an unmanned aerial vehicle, and the unmanned aerial vehicle is operated in a flight mode corresponding to the environment type (see Patent Document 3). I have.

また、従来の無人航空機自動航行システムでは、予め離陸地点、経由地点および着陸地点などのウェイポイントを利用者が指定して航行制御情報を作成し、その航行制御情報に従って無人航空機を飛行させている。そのため、目視外での自動航行では、未知の障害物、強風などの飛行環境変化、更に撮影対象物の状態変化など、航行制御情報作成時には想定されていない事象が発生する劣環境では、自動での正常な航行および撮影は困難である。   Further, in the conventional automatic unmanned aircraft navigation system, a user designates waypoints such as take-off points, waypoints, and landing points in advance to create navigation control information, and the unmanned aircraft is caused to fly according to the navigation control information. . For this reason, automatic navigation outside of the sight is automatically performed in poor environments where events that are not expected at the time of navigation control information generation, such as unknown obstacles, changes in the flight environment such as strong winds, and changes in the state of the shooting target, etc. It is difficult to navigate and shoot normally.

それでもやむを得ず目視外で航行させる場合は、飛行経路周辺に劣環境の影響が十分に小さい空間があるかを予め確認するか、飛行環境の変化や撮影対象物の状態変化が生じても接触しないように、設備に対して十分な離隔距離を取るなどして航行制御情報を作成する必要がある。しかし、高解像度の画像を取得するにはできる限り撮影対象物に接近することが有効であるため、離隔距離を大きく取り過ぎると、撮影対象物を高精細に撮影することはより困難になる。   If you still have to sail outside of the sight, make sure that there is a space around the flight path where the influence of the poor environment is small enough, or make sure that there is no contact even if there is a change in the flight environment or a change in the state of the shooting target. In addition, it is necessary to create navigation control information by taking a sufficient distance from the equipment. However, it is effective to approach the imaging target as much as possible to obtain a high-resolution image. Therefore, if the separation distance is set too large, it becomes more difficult to capture the imaging target with high definition.

そのため、目視外で安全飛行を維持しつつ高解像度の映像を撮影する1つの方法としては、上記のように十分な離隔距離を確保する代わりに、無人航空機に取り付けた測距センサやカメラが異常を検知した時に自律的に退避動作を行う処理を組み込むことが考えられる。すなわち、無人航空機に各種センサやカメラを複数搭載し、最小限の離脱と最大限の接近とを両立させる、検知技術、画像処理技術、および飛行制御技術が一体的に組み上げられた総合型自律制御システムが考えられる。   For this reason, one method of capturing high-resolution video while maintaining safe flight outside the eyes is to use a distance measurement sensor or camera attached to an unmanned aerial vehicle instead of securing a sufficient separation distance as described above. It is conceivable to incorporate a process of performing an evacuation operation autonomously upon detecting an error. In other words, integrated autonomous control that integrates detection technology, image processing technology, and flight control technology that incorporates multiple sensors and cameras on an unmanned aerial vehicle to achieve both minimum departure and maximum approach A system is conceivable.

特開2017−078575号公報JP-A-2017-078575 特開2017−120538号公報JP-A-2017-120538 特表2017−501475号公報JP-T-2017-501475

しかしながら、それら各種先進的・革新的技術は各専門分野に精通した開発者によって技術の進展とともにそれぞれ個別に修正・改良がなされ続けるが、その修正・改良を総合型自律制御システムに反映させるためには、複数の技術が一体的に組み上げられていることから、都度、システム全体を一体的に再開発しなければならないという課題がある。   However, while these advanced and innovative technologies are continuously modified and improved by the developers who are familiar with each specialized field as the technology progresses, it is necessary to reflect the modifications and improvements to the integrated autonomous control system. However, since a plurality of technologies are integrally assembled, there is a problem that the entire system must be integrally redeveloped each time.

また、撮影対象物が、送電線・架空地線のように背景と距離がある細い物体である場合、接触回避のために十分な離隔距離を取って飛行する不安定なドローンなどに搭載されたカメラから、カメラのオートフォーカス(AF)機能のみで正確に撮影対象物に焦点を合わせ続けることは困難であるという課題がある。   Also, when the object to be photographed is a thin object with a distance from the background, such as a transmission line or an overhead ground line, it is mounted on an unstable drone that flies with a sufficient separation distance to avoid contact There is a problem that it is difficult for a camera to keep focusing on an object to be photographed accurately using only an autofocus (AF) function of the camera.

本発明は、このような事情に鑑みてなされたもので、その目的とするところは、カメラを搭載した自律移動体において、撮影対象設備の形状情報、各測位部および各種センサの出力情報、ならびに各制御部の指令に基づき、自律移動体の位置制御とカメラのAF制御とを統合することで所定の撮影対象物を自律的に高精細かつ安全に撮影する自律移動撮影制御システムおよび自律移動体を提供することにある。   The present invention has been made in view of such circumstances, and a purpose thereof is, in an autonomous mobile body equipped with a camera, shape information of equipment to be photographed, output information of each positioning unit and various sensors, and An autonomous mobile photographing control system and an autonomous mobile object that autonomously photograph a predetermined object to be photographed with high definition and safety by integrating position control of the autonomous mobile object and AF control of a camera based on a command from each control unit. Is to provide.

上記の課題を解決するために、本発明の一実施態様では、カメラを搭載した自律移動体を制御する自律移動撮影制御システムであって、撮影対象物の形状情報および撮影場所の位置情報を含む対象設備情報を記憶する設備情報記憶部と、前記自律移動体の姿勢と方位を計測するIMU(慣性測定ユニット:Inertial Measurement Unit)部と、前記自律移動体の水平方向および鉛直方向の位置を測位する衛星測位部と、前記自律移動体の鉛直方向の位置を測位する高度計測センサと、前記自律移動体周囲の障害物との離隔距離を計測する障害物計測センサと、前記自律移動体周囲の電磁界を計測する電磁界センサと、前記自律移動体と前記自律移動体周囲の撮影対象物との相対位置および相対角度を計測する測距センサと、前記相対位置に基づき前記カメラの焦点を調整して前記撮影対象物を撮影するカメラ制御部と、前記カメラで撮影した画像を解析する画像解析部であって、前記カメラで撮影した前記撮影対象物の複数の画像を連結して前記撮影対象物全体の画像を合成する画像解析部と、前記画像解析部における前記カメラで撮影した画像の解析結果を記録する解析記録部と、前記各部および前記各センサの情報に基づき前記自律移動体の位置を制御する位置制御部と、二周波かつ見通し外の無線通信で前記各部および前記各センサの情報を伝送する通信部とを備えたことを特徴とする。   In order to solve the above problems, an embodiment of the present invention is an autonomous mobile imaging control system for controlling an autonomous mobile body equipped with a camera, the system including shape information of an imaging target and positional information of an imaging location. A facility information storage unit that stores target facility information; an IMU (Inertial Measurement Unit) unit that measures the attitude and orientation of the autonomous mobile body; and a horizontal and vertical position of the autonomous mobile body. A satellite positioning unit, an altitude measurement sensor that measures the vertical position of the autonomous mobile body, an obstacle measurement sensor that measures a separation distance between obstacles around the autonomous mobile body, and an An electromagnetic field sensor for measuring an electromagnetic field, and a distance measuring sensor for measuring a relative position and a relative angle between the autonomous moving body and a photographing object around the autonomous moving body. And a camera control unit that adjusts the focus of the camera based on the relative position to photograph the photographing object, and an image analysis unit that analyzes an image photographed by the camera, wherein the photographed image is photographed by the camera. An image analysis unit that combines a plurality of images of the imaging target to synthesize an image of the entire imaging target; an analysis recording unit that records an analysis result of the image captured by the camera in the image analysis unit; And a position control unit that controls the position of the autonomous mobile object based on the information of each of the sensors, and a communication unit that transmits the information of each of the units and each of the sensors by two-frequency and non-line-of-sight wireless communication. Features.

また、別の態様では、前記カメラで撮影する撮影対象物の位置情報、形状情報および撮影位置情報を含む対象設備情報を有し、前記IMU部から取得した方位の情報、前記衛星測位部および前記高度計測センサから取得した前記水平方向の位置および前記鉛直方向の位置を含む自位置情報から前記撮影場所の位置情報が示す撮影開始位置までの経路を、前記対象設備情報をもとに前記撮影対象物への衝突を回避するように生成する経路形成部をさらに備えたことを特徴とする。   In another aspect, the apparatus has target facility information including position information, shape information, and shooting position information of a shooting target to be shot by the camera, and information of an azimuth obtained from the IMU unit, the satellite positioning unit and the satellite positioning unit. The path from the self-position information including the horizontal position and the vertical position acquired from the altitude measurement sensor to the photographing start position indicated by the position information of the photographing place, the photographing target based on the target facility information It is characterized by further comprising a path forming unit that is generated so as to avoid collision with an object.

また、別の態様では、前記位置制御部は、前記経路に沿って前記撮影開始位置まで移動するための経路追従指令と、前記障害物計測センサにより前記自律移動体と前記自律移動体周囲の障害物との離隔距離が所定の離隔距離よりも短くなった場合に前記自律移動体が前記自律移動体周辺の障害物から遠ざかる指令とを生成し、複数の前記指令を統合した統合指令に基づき前記自律移動体の位置を制御することを特徴とする。   In another aspect, the position control unit includes a route following command for moving along the route to the shooting start position, and an obstacle around the autonomous moving body and the autonomous moving body by the obstacle measurement sensor. When the separation distance from the object is shorter than a predetermined separation distance, the autonomous mobile generates a command to move away from obstacles around the autonomous mobile, and generates a command based on an integrated command obtained by integrating a plurality of the commands. It is characterized in that the position of the autonomous mobile body is controlled.

また、別の態様では、前記位置制御部は、前記自位置情報と前記対象設備情報と前記相対距離および相対角度から、前記撮影対象物の撮影対象箇所および撮影位置を特定し、前記カメラ撮影部は、前記撮影位置において前記撮影対象物を撮影することを特徴とする。   In another aspect, the position control unit specifies a shooting target location and a shooting position of the shooting target from the own position information, the target facility information, and the relative distance and relative angle, and the camera shooting unit Is characterized in that the object to be photographed is photographed at the photographing position.

また、別の態様では、前記位置制御部は、前記電磁界センサで所定値以上の値を計測した場合、前記自位置情報が示す自位置に最も近い電磁界発生源の位置を前記対象設備情報から特定し、前記磁界発生源から遠ざかる指令をさらに生成することを特徴とする。   In another aspect, when the electromagnetic field sensor measures a value equal to or greater than a predetermined value, the position control unit determines the position of the electromagnetic field generation source closest to the own position indicated by the own position information and the target facility information. And further generating a command to move away from the magnetic field generation source.

また、別の態様では、前記カメラ撮影部は、前記電磁界センサで所定値以上の値を検知した場合、前記電磁界センサの値が所定値以下となる位置で撮影を継続または中止することを特徴とする。   In another aspect, the camera photographing unit, when the electromagnetic field sensor detects a value equal to or greater than a predetermined value, continues or stops imaging at a position where the value of the electromagnetic field sensor is equal to or less than a predetermined value. Features.

また、別の態様では、前記位置制御部は、前記撮影対象物との前記相対位置を一定に保つように追従しながら、前記撮影開始位置から前記撮影場所の位置情報が示す撮影終了位置まで移動する指令をさらに生成することを特徴とする。   In another aspect, the position control unit moves from the shooting start position to a shooting end position indicated by the position information of the shooting location while following the relative position with the shooting target so as to keep the relative position constant. And generating an instruction to perform the operation.

また、別の態様では、前記対象設備情報と、前記画像と、撮影開始位置情報および撮影終了位置情報により、前記撮影対象物全体を抜けなく撮影できたことを確認し記録することを特徴とする。   In another aspect, it is characterized by confirming and recording that the entire photographing target has been photographed without missing, based on the target facility information, the image, the photographing start position information, and the photographing end position information. .

また、別の態様では、前記画像解析部は、前記対象設備情報と、前記画像と、前記画像の撮影開始位置情報、撮影終了位置情報に基づいて、過去に撮影された前記撮影対象物の過去撮影位置情報中から前記撮影場所の位置情報に近い前記過去撮影位置情報に紐付けされた画像を抽出し、比較して異常を示す特定の差異を検知することを特徴とする。   In another aspect, the image analysis unit is configured to determine the target facility information, the image, the shooting start position information of the image, the shooting end position information based on the past of the shooting target in the past An image associated with the past photographing position information that is closer to the photographing position information is extracted from the photographing position information, and a specific difference indicating an abnormality is detected by comparison.

また、別の態様では、前記カメラ制御部は、前記対象設備情報により前記撮影対象物の特定された撮影箇所を撮影するとき、前記対象設備情報が有する色、材質、ならびに直前に撮影した画像に基づきISO感度、絞り、倍率およびシャッタースピードを調整し、それらの前記カメラの調整値を記録することを特徴とする。   In another aspect, the camera control unit is configured to, when photographing the specified photographing location of the photographing target by the target facility information, include a color, a material, and an image photographed immediately before that the target facility information has. It is characterized in that the ISO sensitivity, the aperture, the magnification and the shutter speed are adjusted based on the above, and the adjustment values of the camera are recorded.

また、別の態様では、前記画像解析部は、異常を検知した場合、異常箇所の位置情報を含む異常検知信号を前記位置制御部および前記カメラ撮影部に出力し、前記位置制御部は、前記異常箇所の撮影位置に移動する指令を生成し、前記カメラ撮影部は、前記異常箇所の撮影位置において、より高倍率で前記異常箇所を撮影し、前記異常箇所の高倍率による撮影開始時間、撮影終了時間、撮影開始位置、撮影終了位置、前記カメラの調整値、前記異常箇所の画像を記録することを特徴とする。   In another aspect, when the image analysis unit detects an abnormality, the image analysis unit outputs an abnormality detection signal including position information of an abnormal part to the position control unit and the camera photographing unit, and the position control unit includes: The camera photographing unit generates a command to move to the photographing position of the abnormal place, the photographing unit photographs the abnormal place at a higher magnification at the photographing position of the abnormal place, and starts photographing the abnormal place at a higher magnification. An end time, a shooting start position, a shooting end position, an adjustment value of the camera, and an image of the abnormal portion are recorded.

また、別の態様では、前記位置制御部は、前記撮影対象物の画像のフレーム各辺に対する傾き角度を算出し、前記傾き角度に基づき前記自律移動体と前記撮影対象物との相対方位を補正することを特徴とする。   In another aspect, the position control unit calculates an inclination angle of the image of the imaging target object with respect to each side of a frame of the image, and corrects a relative orientation between the autonomous mobile body and the imaging target object based on the inclination angle. It is characterized by doing.

また、別の態様では、前記経路形成部は、前記撮影対象物が複数ある場合、前記撮影対象物の1つの撮影が完了すると、前記カメラで撮影する撮影対象物の位置情報、形状情報および撮影場所の位置情報を含む対象設備情報と、前記IMU部から取得した方位の情報および前記衛星測位部および前記高度計測センサから取得した前記自位置情報から撮影が完了していない他の撮影対象物の前記撮影場所の情報が示す撮影開始位置までの経路を、前記対象設備情報をもとに前記撮影対象設物への衝突を回避するように次の異なる前記撮影対象物の撮影開始位置までの経路を生成することを特徴とする。   Further, in another aspect, when there is a plurality of the photographing objects, when the photographing of one of the photographing objects is completed, the path forming unit may include position information, shape information, and photographing information of the photographing object photographed by the camera. Target equipment information including the location information of the place, the information of the azimuth obtained from the IMU unit and the self-position information obtained from the satellite positioning unit and the altitude measurement sensor are used for other shooting targets whose shooting is not completed. The route to the shooting start position indicated by the information of the shooting location, the route to the next different shooting start position of the shooting target so as to avoid collision with the shooting target object based on the target facility information Is generated.

また、別の態様では、前記位置制御部が生成する各前記指令は、速度ベクトルであり、前記統合指令は、前記速度ベクトルを合成したものであることを特徴とする。   In another aspect, each of the commands generated by the position control unit is a speed vector, and the integrated command is a combination of the speed vectors.

また、別の態様では、前記高度計測センサは、気圧センサ及びLIDARセンサの少なくともいずれか一方を含むことを特徴とする。   In another aspect, the altitude measurement sensor includes at least one of a barometric pressure sensor and a LIDAR sensor.

また、別の一態様は、駆動部を有して自律的に移動可能な自律移動体であって、前記自律移動体に搭載されたカメラと、撮影対象物の形状情報および撮影場所の位置情報を含む対象設備情報を記憶する設備情報記憶部と、前記自律移動体の姿勢と方位を計測するIMU部 と、前記自律移動体の水平方向および鉛直方向の位置を測位する衛星測位部と、前記自律移動体の鉛直方向の位置を測位する高度計測センサと、前記自律移動体周囲の障害物との離隔を計測する障害物計測センサと、前記自律移動体周囲の電磁界を計測する電磁界センサと、前記自律移動体と前記自律移動体周囲の物体との相対位置を計測する測位センサと、前記相対位置に基づき前記自律移動体の位置を移動させるように前記駆動部を制御する位置制御部と、前記相対位置に基づき前記カメラの焦点を調整して前記撮影対象物を撮影するカメラ制御部と、前記カメラで撮影した画像を解析する画像解析部であって、前記カメラで撮影した撮影した複数の画像を連結して前記撮影対象物全体の画像を合成する画像解析部と、前記画像解析部における前記カメラで撮影した画像の解析結果を記録する解析記録部と、前記各部および前記各センサの情報前記相対位置に基づき前記自律移動体の位置を制御する位置制御部と、二周波かつ見通し外の無線通信で前記各部および前記各センサの情報を伝送する通信部とを備えたことを特徴とする。   Another aspect is an autonomous mobile body that has a driving unit and can move autonomously, and includes a camera mounted on the autonomous mobile body, shape information of a shooting target, and position information of a shooting location. A facility information storage unit that stores target facility information including: an IMU unit that measures the attitude and orientation of the autonomous mobile body; a satellite positioning unit that measures the horizontal and vertical positions of the autonomous mobile body; An altitude measurement sensor that measures the vertical position of the autonomous mobile object, an obstacle measurement sensor that measures the distance between the autonomous mobile object and an obstacle around the autonomous mobile object, and an electromagnetic field sensor that measures the electromagnetic field around the autonomous mobile object A positioning sensor that measures a relative position between the autonomous mobile body and an object around the autonomous mobile body, and a position control unit that controls the driving unit to move the position of the autonomous mobile body based on the relative position. And the relative position A camera control unit that adjusts the focus of the camera based on the position and shoots the object to be shot, and an image analysis unit that analyzes an image shot by the camera, and a plurality of images shot by the camera. An image analysis unit that combines and synthesizes an image of the entire object to be photographed, an analysis recording unit that records an analysis result of an image photographed by the camera in the image analysis unit, and information of each unit and each sensor. A position control unit that controls the position of the autonomous mobile body based on the position, and a communication unit that transmits information of each unit and each sensor by dual-frequency and non-line-of-sight wireless communication are provided.

本発明は、カメラを搭載した自律移動体において、撮影対象設備の形状情報、各測位部および各種センサの出力情報、ならびに各制御部の指令に基づき、自律移動体の位置制御とカメラのAF制御とを統合することで所定の撮影対象物の高精細かつ安全な画像取得を可能にする。   The present invention relates to an autonomous mobile body equipped with a camera, based on shape information of equipment to be imaged, output information of each positioning unit and various sensors, and a command of each control unit, for position control of the autonomous mobile body and AF control of the camera. By integrating the above, it is possible to obtain a high-definition and safe image of a predetermined object to be photographed.

本発明の一実施形態に係る自律移動撮影制御システムの機能構成図である。FIG. 1 is a functional configuration diagram of an autonomous mobile photography control system according to an embodiment of the present invention. 本実施形態に係る自律移動撮影制御システムが実装された自律移動体が使用される環境を示す図である。FIG. 1 is a diagram illustrating an environment in which an autonomous mobile body equipped with an autonomous mobile imaging control system according to an embodiment is used. 本発明の一実施形態に係る自律移動撮影制御システムの制御部が実装されるハードウェア構成を示す図である。It is a figure showing the hardware composition in which the control part of the autonomous mobile photography control system concerning one embodiment of the present invention is mounted. 本発明の一実施形態に係る自律移動撮影制御システムの指令手続きの概要を示す図である。It is a figure showing the outline of the command procedure of the autonomous mobile photography control system concerning one embodiment of the present invention. 本発明の一実施形態に係る自律移動撮影制御システムにおいてステップ1で使用する制御則を示す図である。FIG. 4 is a diagram showing a control rule used in step 1 in the autonomous mobile photography control system according to one embodiment of the present invention. (a)は、本発明の一実施形態に係る自律移動撮影制御システムの高速位置制御出力と接近回避制御出力とを統合して速度制御指令を生成する例を示す図であり、(b)は、本発明の一実施形態に係る自律移動撮影制御システムのステップ1における離陸から測距センサにより撮影対象物を検知できる撮影対象物までの移動過程を示す図である。(A) is a diagram showing an example of generating a speed control command by integrating the high-speed position control output and the approach avoidance control output of the autonomous mobile photography control system according to one embodiment of the present invention, and (b) is FIG. 7 is a diagram showing a movement process from takeoff to a shooting target in which the shooting target can be detected by the distance measurement sensor in step 1 of the autonomous mobile shooting control system according to the embodiment of the present invention. 本発明の一実施形態に係る自律移動撮影制御システムにおいてステップ2で使用する制御則を示す図である。FIG. 4 is a diagram showing a control rule used in step 2 in the autonomous mobile photography control system according to one embodiment of the present invention. (a)は、本発明の一実施形態に係る自律移動撮影制御システムの特徴接近制御出力と電磁界回避制御出力とを統合して速度制御指令を生成する例を示す図であり、(b)は、本発明の一実施形態に係る自律移動撮影制御システムのステップ2における撮影開始位置までの移動過程を示す図である。(A) is a diagram showing an example of generating a speed control command by integrating the characteristic approach control output and the electromagnetic field avoidance control output of the autonomous mobile photography control system according to one embodiment of the present invention, and (b). FIG. 4 is a diagram showing a movement process to a shooting start position in step 2 of the autonomous mobile shooting control system according to one embodiment of the present invention. 本発明の一実施形態に係る自律移動撮影制御システムにおいてステップ3で使用する制御則を示す図である。FIG. 4 is a diagram showing a control rule used in step 3 in the autonomous mobile photography control system according to one embodiment of the present invention. (a)は、本発明の一実施形態に係る自律移動撮影制御システムの接近追従制御出力と撮影制御出力とを統合して速度制御指令を生成する例を示す図であり、(b)は、本発明の一実施形態に係る自律移動撮影制御システムのステップ3における画像連結および異常検知の過程を示す図である。(A) is a diagram illustrating an example of generating a speed control command by integrating the approach tracking control output and the imaging control output of the autonomous mobile imaging control system according to an embodiment of the present invention, and (b) is a diagram illustrating an example. It is a figure which shows the process of image connection and abnormality detection in step 3 of the autonomous mobile imaging | photography control system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る自律移動撮影制御システムにおいてステップ3aで使用する制御則を示す図である。It is a figure showing the control rule used at Step 3a in the autonomous mobile photography control system concerning one embodiment of the present invention. (a)は、本発明の一実施形態に係る自律移動撮影制御システムの異常検知時の接近追従制御出力と撮影制御出力とを統合して速度制御指令を生成する例を示し、(b)は、本発明の一実施形態に係る自律移動撮影制御システムのステップ3aにおける異常検知箇所の過程を示す図である。(A) shows an example in which an autonomous mobile photography control system according to an embodiment of the present invention integrates an approach following control output and a photography control output when an abnormality is detected to generate a speed control command, and (b) shows an example in which a speed control command is generated. It is a figure showing a process of an abnormal detection place in Step 3a of an autonomous mobile photography control system concerning one embodiment of the present invention. 本発明の一実施形態に係る自律移動撮影制御システムにおいてステップ3bで使用する制御則を示す図である。It is a figure showing the control rule used at Step 3b in the autonomous mobile photography control system concerning one embodiment of the present invention. (a)は、本発明の一実施形態に係る自律移動撮影制御システムの特徴接近制御出力と電磁界回避制御出力とを統合して速度制御指令を生成する例を示す図であり、(b)は、本発明の一実施形態に係る自律移動撮影制御システムのステップ3bの一例を示し、送電鉄塔間にて上部の地絡線の撮影を完了し、新たな撮影対象物である本線に接近した場合の動作例を示す図である。(A) is a diagram showing an example of generating a speed control command by integrating the characteristic approach control output and the electromagnetic field avoidance control output of the autonomous mobile photography control system according to one embodiment of the present invention, and (b). Shows an example of step 3b of the autonomous mobile photography control system according to one embodiment of the present invention, and completes photography of an upper ground fault line between power transmission towers, and approaches a main subject which is a new photography target. FIG. 14 is a diagram showing an operation example in the case. 本発明の一実施形態に係る自律移動撮影制御システムにおいてステップ3cで使用する制御則を示す図である。It is a figure showing the control rule used at Step 3c in the autonomous mobile photography control system concerning one embodiment of the present invention. 本発明の一実施形態に係る自律移動撮影制御システムのステップ3cにおける固定設備点検時の様子を示す図である。It is a figure showing a situation at the time of fixed equipment inspection in Step 3c of the autonomous mobile photography control system concerning one embodiment of the present invention. 本発明の一実施形態に係る自律移動撮影制御システムにおいてステップ4で使用する制御則を示す図である。FIG. 6 is a diagram showing a control rule used in step 4 in the autonomous mobile photography control system according to one embodiment of the present invention. 本発明の一実施形態に係る自律移動撮影制御システムのステップ4における撮影位置から着陸までの移動過程を示す図である。It is a figure which shows the moving process from an imaging position to landing in step 4 of the autonomous mobile imaging | photography control system which concerns on one Embodiment of this invention.

撮影対象物の多くは設置場所や形状、特徴などが分かる高精度な形状情報が予め存在しており、場合によっては対象設備の管理者がセンサやカメラで判断しやすいように目印を任意に取り付けてられている場合もある。そこで、自律移動体に点検対象物の位置情報および形状情報を含む対象設備情報を予め記憶させ、その対象設備情報とセンサおよびカメラからの情報とを組み合わせることにより移動し、撮影する、自律移動撮影制御システムを考案する。   Most of the objects to be photographed have pre-existing high-precision shape information that identifies the installation location, shape, characteristics, etc. In some cases, markers are arbitrarily attached so that the administrator of the target equipment can easily judge with sensors and cameras In some cases, it has been. Therefore, the autonomous mobile body stores in advance target equipment information including position information and shape information of the inspection object, and moves and shoots by combining the target equipment information with information from the sensor and the camera. Devise a control system.

本発明は、上記自律移動撮影制御システムを実現するために、高速移動に重点を置いた高速位置制御則、高精度飛行に重点を置いた高精度位置制御則、撮影対象物との距離を計測し接近する特徴接近制御則、撮影対象位置との距離を一定に保ちながら移動する接近追従制御則、未知の障害物を検知し回避する接近回避制御則、自律移動体の移動に影響する電磁界をセンサにて検知し、対象設備情報から発生源を特定して回避する電磁界回避制御則と、それら各制御則に基づく制御出力を統合する指令統合部とを備える。また、カメラで撮影した画像を解析して、撮影対象物全体を撮影できたか否か、撮影された画像を過去の画像など基準となる画像と比較し、異常を検出する画像解析部を備える。これら各種制御則、指令統合部および画像解析部はプログラムとして記憶媒体に記録され、実行されることでそれらの機能を実現される。   The present invention provides a high-speed position control law emphasizing high-speed movement, a high-precision position control law emphasizing high-precision flight, and a distance to an object to be photographed, in order to realize the above autonomous mobile photography control system. Control approach rule, approach tracking control rule that moves while keeping the distance to the shooting target constant, approach avoidance control rule that detects and avoids unknown obstacles, electromagnetic field that affects the movement of the autonomous mobile object And a command integration unit that integrates a control output based on each of the electromagnetic field avoidance control rules for detecting and avoiding the generation source from the target facility information. In addition, the image analysis unit includes an image analysis unit that analyzes an image captured by the camera, compares the captured image with a reference image such as a past image, and detects an abnormality, to determine whether the entire imaging target has been captured. These various control rules, the command integration unit, and the image analysis unit are recorded on a storage medium as a program, and the functions are realized by being executed.

(1)既知情報とセンサ、カメラ情報を複合的に組み合わせた各種制御則
無人航空機などの自律移動体に搭載したカメラよって撮影対象物を撮影する場合、同じ位置を同じ方向から定期的に撮影することも多く、同じ種別の撮影対象物であれば形状の差異があろうとも撮影する目的からその手順は類似してくる。よって、地図情報、対象物情報などの撮影に関する既知の情報、センサ、カメラからの情報を整えることにより、自位置と対象物との位置関係を認識できるため、移動制御情報を予め決めた撮影手順および制御則に基づき各種制御手順を自動生成することが可能である。
(1) Various control rules in which known information is combined with sensor and camera information When an object to be photographed is photographed by a camera mounted on an autonomous mobile body such as an unmanned aerial vehicle, the same position is photographed periodically from the same direction. In many cases, the procedure is similar for the purpose of photographing even if there is a difference in the shape of the photographing target object of the same type. Therefore, by preparing known information relating to shooting, such as map information and object information, and information from sensors and cameras, it is possible to recognize the positional relationship between the self-position and the object, and therefore, the movement control information is determined in advance by a shooting procedure. And various control procedures can be automatically generated based on the control rules.

また、移動制御情報を用いない場合も、センサやカメラからの情報に基づき回避動作、接近動作、撮影動作を行うため、自律移動体が処理可能とすることにより安全かつ高品質な情報が得られる自律的な撮影制御を導入することができる。   In addition, even when the movement control information is not used, the avoidance operation, the approach operation, and the photographing operation are performed based on information from the sensor and the camera, so that safe and high-quality information can be obtained by enabling the autonomous moving body to process. Autonomous shooting control can be introduced.

(2)各種制御則の分散化・カプセル化による平行導入と指令統合部の採用
自律移動体に付与すべき機能に応じて、制御則を個別に構成することにより、各機能を実現するために使用するセンサやカメラからの情報や設備情報、周辺情報を無駄なくかつ最大限に利用することが可能となる。
(2) Parallel introduction by decentralization and encapsulation of various control rules and adoption of command integration unit In order to realize each function by individually configuring control rules according to the function to be given to the autonomous mobile object It is possible to use information from the sensors and cameras, equipment information, and peripheral information to be used to the maximum without waste.

仮に統合型自律制御則として複数の制御則を一体的に組み上げた場合、各情報の形式や更新周期やタイミングが一致していないため、自律飛行の手続きに応じて各情報を選別したり、重みづけしたり、推定したり、同期調整したりする大がかりなフィルタが別途必要となるが、分散化してカプセル化することによりフィルタを制御則に内包化でき、フィルタの無駄を省くことにもなる。そして各航行制御則の指令を速度ベクトルなどに統一すれば、異なる技術により得られた各指令を同調せずに統合することが可能となる。また、各制御則は各技術に精通した開発者が個別に修正、改良できるようになるため、常に最新技術が採用された自律高速移動性能を得ることが可能となる。   If multiple control rules are integrated into an integrated autonomous control rule, the format, update cycle, and timing of each information do not match. A large-scale filter for attaching, estimating, and synchronizing is separately required. However, by dispersing and encapsulating, the filter can be included in a control law, and waste of the filter can be reduced. If the commands of the navigation control rules are unified into speed vectors or the like, the commands obtained by different technologies can be integrated without synchronization. In addition, since each control rule can be individually modified and improved by a developer who is familiar with each technology, it is possible to always obtain autonomous high-speed movement performance employing the latest technology.

また、全てを一体的に構築した統合型自律制御の処理周期は、最も処理に時間がかかる画像処理などの計算時間に支配されてしまう。しかし、本発明では、制御則毎の処理を分散化・カプセル化することで、安全航行制御則などの各制御則の処理が速いものは処理周期を短くして高速・高頻度に処理し、自律高速移動の信頼性を高めることができる。   Further, the processing cycle of the integrated autonomous control in which everything is integrally formed is governed by the calculation time of image processing or the like which takes the longest time for processing. However, in the present invention, by decentralizing and encapsulating the processing for each control law, those in which the processing of each control law such as a safe navigation control law is fast are processed at a high speed and high frequency by shortening the processing cycle, The reliability of autonomous high-speed movement can be improved.

以下、本発明の実施の形態について、詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail.

図1に、本発明の一実施形態に係る自律移動撮影制御システムの機能構成図を示す。また、図2に、本実施形態に係る自律移動撮影制御システムが実装された自律移動体が使用される環境を示す。本実施形態に係る自律移動撮影制御システムは、無人航空機100などの自律移動体およびそこに搭載されるカメラ5の制御を行い、未知の障害物300を避けながら、点検を行う対象設備200の所定の部分(撮影対象物)の撮影を行うことができる。   FIG. 1 shows a functional configuration diagram of an autonomous mobile photography control system according to an embodiment of the present invention. FIG. 2 shows an environment in which an autonomous mobile body equipped with the autonomous mobile imaging control system according to the present embodiment is used. The autonomous mobile photographing control system according to the present embodiment controls an autonomous mobile body such as the unmanned aerial vehicle 100 and the camera 5 mounted thereon, and avoids an unknown obstacle 300 while determining a target facility 200 to be inspected. (A subject to be photographed) can be photographed.

本発明の一実施形態に係る自律移動撮影制御システムは、点検を行う撮影対象物の基準点の緯度、経度、標高情報、およびCADデータなどの詳細な形状情報を含む対象設備情報1と、移動状態を把握するために用いる各種センサを含むセンサ部2と、各種制御則に基づき指令値を演算する制御部3と、無人航空機100に搭載されたモータの駆動制御を行うモータ駆動部4と、カメラ5とを備えている。   An autonomous mobile imaging control system according to an embodiment of the present invention includes target equipment information 1 including detailed shape information such as latitude, longitude, elevation information, and CAD data of a reference point of an imaging target to be inspected, A sensor unit 2 including various sensors used to grasp the state, a control unit 3 that calculates a command value based on various control rules, a motor drive unit 4 that performs drive control of a motor mounted on the unmanned aerial vehicle 100, A camera 5 is provided.

センサ部2は、方位と加速度を計測するIMU(慣性測定ユニット:Inertial Measurement Unit)部21、衛星測位部22、高度を計測する気圧センサ23、高度LIDAR(光検出と測距:LIght Detection And Ranging)部24、撮影対象物との相対距離と相対角度を計測する測距センサ25、自律移動体周囲の障害物との離隔を計測する障害物LIDAR部26、赤外線センサ27、超音波センサ28、電磁界を計測する電磁界センサ29を含む。なお、センサの種類はこれに限定されるものではなく、求められる位置制御の精度や使用環境に応じて必要なセンサを選択ないし追加すればよい。   The sensor unit 2 includes an IMU (Inertial Measurement Unit) 21 for measuring azimuth and acceleration, a satellite positioning unit 22, a pressure sensor 23 for measuring altitude, and an altitude LIDAR (light detection and ranging: Light Detection And Ranging). ) Section 24, a distance measuring sensor 25 for measuring a relative distance and a relative angle to an object to be photographed, an obstacle LIDAR section 26 for measuring a distance from an obstacle around the autonomous moving body, an infrared sensor 27, an ultrasonic sensor 28, An electromagnetic field sensor 29 for measuring an electromagnetic field is included. Note that the type of sensor is not limited to this, and a necessary sensor may be selected or added according to the required accuracy of position control and use environment.

制御部3は、独立した各種制御則、すなわち姿勢制御31、速度制御32、高速位置制御33、高精度位置制御34、特徴接近制御35、接近追従制御36、接近回避制御37、電磁界回避制御38、撮影制御39、それら制御則の指令値を集約する指令統合部40を備えている。制御則のうち姿勢制御31および速度制御32については従来の無人航空機で使用されたものと同じで良い。但し、従来の位置制御では十分な精度の運航が困難であるため、本発明では新たに高速位置制御33、高精度位置制御34、特徴接近制御35、接近追従制御36、接近回避制御37、および電磁界回避制御38を採用する。さらに、これら複数の制御則を指令統合部40にて統合する構成とする。また、カメラ5で撮影した画像を解析する画像解析部41を備える。   The control unit 3 performs various independent control rules, that is, attitude control 31, speed control 32, high-speed position control 33, high-precision position control 34, feature approach control 35, approach tracking control 36, approach avoidance control 37, and electromagnetic field avoidance control. 38, a photographing control 39, and a command integration unit 40 for integrating command values of those control rules. Of the control rules, the attitude control 31 and the speed control 32 may be the same as those used in a conventional unmanned aerial vehicle. However, since it is difficult to operate with sufficient accuracy by the conventional position control, a new high-speed position control 33, a high-accuracy position control 34, a feature approach control 35, an approach following control 36, an approach avoidance control 37, and The electromagnetic field avoidance control 38 is employed. Further, the plurality of control rules are integrated by the command integration unit 40. In addition, an image analysis unit 41 that analyzes an image captured by the camera 5 is provided.

カメラ5は、無人航空機100に搭載されたカメラ5をパン・チルト・ズーム(PTZ)動作させるカメラ駆動部51と、AF、絞り、ISO感度、シャッタースピードなどの撮影パラメータを調整して映像または画像を撮影するカメラ撮影部52とを備える。   The camera 5 controls the camera 5 mounted on the unmanned aerial vehicle 100 to perform a pan / tilt / zoom (PTZ) operation, and adjusts shooting parameters such as AF, aperture, ISO sensitivity, and shutter speed. And a camera photographing section 52 for photographing the image.

図3に、本発明の一実施形態に係る自律移動撮影制御システムの制御部3が実装されるハードウェア構成を示す。各種制御31〜39、指令統合部40、画像解析部41は、プログラムとしてストレージ303に記憶され、CPU302によって実行されることにより実現される。メモリ301は、RAMなどのメインメモリである。なお、ストレージ303に、対象設備情報1を記録してもよい。センサ部2、モータ駆動部4およびカメラ5とは、入出力インターフェース(I/F)308を介してCPU302と接続される。また、本発明は各制御則を分散化・カプセル化しているため、画像解析部41の処理にGUP304やDRAM305を用いたり、従来の姿勢制御31、速度制御32が組み込まれた移動体制御ユニット306を用いてもよい。通信部307は、自律制御中の無人航空機100の情報を送信したり、衛星測位部22の高精度化するための補足情報を受信するなどのデータの送受信を可能にするほか、必要があれば撮影した画像を外部に送信したり、外部からの指令や画像解析情報を受信することも可能である。   FIG. 3 shows a hardware configuration in which the control unit 3 of the autonomous mobile photography control system according to the embodiment of the present invention is mounted. The various controls 31 to 39, the command integration unit 40, and the image analysis unit 41 are realized as programs stored in the storage 303 and executed by the CPU 302. The memory 301 is a main memory such as a RAM. Note that the target facility information 1 may be recorded in the storage 303. The sensor unit 2, the motor driving unit 4, and the camera 5 are connected to the CPU 302 via an input / output interface (I / F) 308. Further, in the present invention, since each control law is decentralized and encapsulated, the GAP 304 and the DRAM 305 are used for the processing of the image analysis unit 41, and the mobile unit control unit 306 incorporating the conventional attitude control 31 and speed control 32 is used. May be used. The communication unit 307 can transmit and receive data such as transmitting information on the unmanned aerial vehicle 100 under autonomous control, receiving supplementary information for improving the accuracy of the satellite positioning unit 22, and if necessary. It is also possible to transmit the captured image to the outside, and to receive an external command and image analysis information.

以下、高精細な画像で撮影することが要求される電力設備の架空地線点検を例として、マルチコプタなどの無人航空機100の自律飛行システムを指令統合部40で処理される手続きの実施例として示す。なお、本発明は、撮影対象物が鉄塔、ダム、ビル、橋梁、煙突などの他の大型設備などであっても、高精度情報がある構造物であれば、同様に無人航空機100による接近撮影を可能とする。また、ここでは無人航空機100を使用した例を示すが、無人航空機に限定されるものではなく、位置制御が可能な他の自律移動体を使用してもよい。   Hereinafter, an autonomous flight system of the unmanned aerial vehicle 100 such as a multi-copter will be described as an example of a procedure to be processed by the command integration unit 40 by taking an example of an overhead ground line inspection of a power facility required to take a high-definition image. . It should be noted that the present invention is also applicable to close-up photography by an unmanned aerial vehicle 100, even if the object to be photographed is a tower, a dam, a building, a bridge, a chimney, or other large-scale equipment, if the structure has high-precision information Is possible. Further, although an example in which the unmanned aerial vehicle 100 is used is shown here, the invention is not limited to the unmanned aerial vehicle, and another autonomous mobile body capable of position control may be used.

図4に、本発明の一実施形態に係る自律移動撮影制御システムの指令手続きの概要を示す。対象設備情報1を保持しているため、自位置およびバッテリーの残量から点検のための撮影を行う最寄りの撮影対象設備200、続けて点検を行うその他の撮影対象設備200、および目標とする最終的な着陸地点までの経路および手順を提案することができる。そのため、本発明では、ウェイポイント(経路上の地点情報)などの航行制御情報を人手によって設定する必要はない。   FIG. 4 shows an outline of a command procedure of the autonomous mobile photography control system according to one embodiment of the present invention. Since the target equipment information 1 is held, the nearest target equipment 200 for performing inspection for inspection based on its own position and the remaining amount of the battery, the other target equipment 200 for which inspection is performed continuously, and the final target Route and procedure to a typical landing site can be proposed. Therefore, in the present invention, there is no need to manually set navigation control information such as waypoints (point information on a route).

以下、指令手続きの詳細について説明する。   Hereinafter, the details of the order procedure will be described.

(ステップ1)離陸・高速移動
図5に、本発明の一実施形態に係る自律移動撮影制御システムにおいてステップ1で使用する制御則を示す。ステップ1では、姿勢制御31および速度制御32に加え、無人航空機100を離陸させて撮影対象物の撮影位置まで効率的かつ高速に接近させるために、高速位置制御33、接近回避制御37の2つの制御則を採用する。後述のステップ2でセンサが確実に検知するエリアに無人航空機100が侵入できれば良いが、飛行時間はバッテリー容量の制約を受けるため、飛行開始前に衛星測位部22を使用して取得した自位置情報と対象設備情報1から取得した撮影対象設備200の位置情報とから飛行経路を自動生成する。
(Step 1) Takeoff / High-Speed Movement FIG. 5 shows a control rule used in step 1 in the autonomous mobile photography control system according to one embodiment of the present invention. In step 1, in addition to the attitude control 31 and the speed control 32, in order to take off the unmanned aerial vehicle 100 and make the unmanned aerial vehicle 100 approach the shooting position of the shooting target efficiently and at high speed, two high speed position control 33 and approach avoidance control 37 Adopt control rules. It suffices that the unmanned aerial vehicle 100 can enter the area where the sensor reliably detects in step 2 described below. However, since the flight time is limited by the battery capacity, the self-position information acquired by using the satellite positioning unit 22 before the flight starts. A flight route is automatically generated based on the location information of the imaging target equipment 200 acquired from the target equipment information 1.

ただし、無人航空機100の離陸地点や着陸地点は法令や規則などにより飛行に都合がよい場所を設定できるとは限らないため、対象設備情報1から判断できる障害物については衝突を回避するように経路が生成される。   However, the take-off and landing points of the unmanned aerial vehicle 100 cannot always be set to a place convenient for flight according to laws and regulations, so that obstacles that can be determined from the target facility information 1 are routed so as to avoid collision. Is generated.

この飛行経路に沿って移動するよう制御しながら、同時に各センサにより検出される未知の障害物300および電磁界を回避する制御を組み合わせる。   While controlling to move along this flight path, the control which avoids the unknown obstacle 300 and the electromagnetic field detected by each sensor at the same time is combined.

図6(a)に、本発明の一実施形態に係る自律移動撮影制御システムの高速位置制御出力と接近回避制御出力とを統合して速度制御指令を生成する例を示す。また図6(b)に、本発明の一実施形態に係る自律移動撮影制御システムのステップ1における離陸から測距センサ25により撮影対象物を検知できる撮影対象物までの移動過程を示す。高速位置制御33と接近回避制御37は互いに独立して指令統合部40に指令を出力するが、それらの出力はいずれも速度ベクトルであるので、指令統合部40にて、例えば図6(a)に示すように指令値を合成することで統合した速度指令を出力することができる。そのため、未知の障害物300への衝突を回避しながら、撮影対象物周辺まで接近することができる。   FIG. 6A shows an example of generating a speed control command by integrating the high-speed position control output and the approach avoidance control output of the autonomous mobile photography control system according to one embodiment of the present invention. FIG. 6B shows a moving process from the takeoff in step 1 of the autonomous mobile shooting control system according to the embodiment of the present invention to the shooting target from which the distance measurement sensor 25 can detect the shooting target. The high-speed position control 33 and the approach avoidance control 37 output commands to the command integrating unit 40 independently of each other. Since both of these outputs are velocity vectors, the command integrating unit 40 outputs the commands, for example, as shown in FIG. By combining the command values as shown in (1), an integrated speed command can be output. Therefore, it is possible to approach the vicinity of the imaging target while avoiding collision with the unknown obstacle 300.

図5、図6(a)に示すように、離陸して飛行を開始すると、主として高速位置制御33にて衛星測位部22または気圧センサ23または高度LIDAR部24で高度を計測しながら上昇飛行し、衛星測位部22にて水平位置を計測しつつ間接的に姿勢制御31から得られる無人航空機100の姿勢に基づいて水平飛行し、またはその組み合わせにより、予め設定した飛行手続き経路に沿って撮影対象物周辺に向かって移動する。その際、図6(b)に示すように、予め設定した飛行手続き経路上に未知の障害物300があった場合は、それを自律移動体周囲の障害物との離隔距離を計測する障害物LIDAR部26、赤外線センサ27、超音波センサ28で検知した場合は接近回避制御37が未知の障害物300から遠ざかる向きの速度ベクトルである回避指令を出力する。接近回避制御37は、予め設定した所定の離隔距離以上を確保しながら未知の障害物300を回避することができるように、各センサが計測した離隔距離を比例ではなくガウス関数やシグモイド関数に変換したり、速度ベクトルを水平成分と垂直成分に分解して無人航空機100の応答性が悪い水平成分の重みをある程度大きくしてもよい。また、ステップ1は測距センサ25が安定して撮影対象物を検知できるよう、安全に高速移動することが目的であるため、無人航空機100が接近回避制御37により飛行経路から外れても飛行経路に戻る必要はない。   As shown in FIGS. 5 and 6 (a), when the aircraft starts taking off and taking off, it mainly ascends while measuring the altitude by the satellite positioning unit 22 or the atmospheric pressure sensor 23 or the altitude LIDAR unit 24 by the high-speed position control 33. A horizontal flight based on the attitude of the unmanned aerial vehicle 100 obtained indirectly from the attitude control 31 while measuring the horizontal position by the satellite positioning unit 22, or a combination of the horizontal flight and the shooting target along a flight procedure path set in advance. Move around the object. At this time, as shown in FIG. 6B, when there is an unknown obstacle 300 on a preset flight procedure route, the unknown obstacle 300 is measured as an obstacle to measure the separation distance from the obstacle around the autonomous mobile body. When the detection is performed by the LIDAR unit 26, the infrared sensor 27, and the ultrasonic sensor 28, the approach avoidance control 37 outputs an avoidance command which is a speed vector in a direction away from the unknown obstacle 300. The approach avoidance control 37 converts the separation distance measured by each sensor into a Gaussian function or a sigmoid function instead of proportional so that the unknown obstacle 300 can be avoided while securing a predetermined separation distance or more that is set in advance. Alternatively, the velocity vector may be decomposed into a horizontal component and a vertical component, and the weight of the horizontal component having poor response of the unmanned aerial vehicle 100 may be increased to some extent. Further, since the purpose of step 1 is to move safely and at high speed so that the distance measuring sensor 25 can stably detect the photographing target, even if the unmanned aerial vehicle 100 deviates from the flight path by the approach avoidance control 37, the flight path You do not need to go back.

(ステップ2)撮影開始地点移動
図7に、本発明の一実施形態に係る自律移動撮影制御システムにおいてステップ2で使用する制御則を示す。ステップ1において高速位置制御出力と接近回避制御出力の大きさが十分に小さく、かつ測位センサ25が安定的に撮影対象物との離隔距離を計測できる位置まで無人航空機100が接近したとき、ステップ2に移行する。ステップ2では測距センサ25から計測される離隔距離に基づき撮影対象物の撮影位置までさらに接近する。ステップ2ではステップ3で高精細な画像を取得するために精度の高い相対位置を維持するとともに、無人航空機100が停止することが求められる。そのため、ステップ1で用いた高速位置制御33および接近回避制御37に代えて、高精度位置制御34、特徴接近制御35、および電磁界回避制御38を使用する。
(Step 2) Movement of Shooting Start Point FIG. 7 shows a control rule used in step 2 in the autonomous mobile shooting control system according to one embodiment of the present invention. When the magnitude of the high-speed position control output and the approach avoidance control output are sufficiently small in Step 1 and the unmanned aerial vehicle 100 approaches the position where the positioning sensor 25 can stably measure the separation distance from the imaging target, Step 2 Move to In step 2, based on the separation distance measured by the distance measurement sensor 25, the camera further approaches the shooting position of the shooting target. In step 2, it is required to maintain a highly accurate relative position in order to acquire a high-definition image in step 3, and to stop the unmanned aerial vehicle 100. Therefore, a high-precision position control 34, a characteristic approach control 35, and an electromagnetic field avoidance control 38 are used instead of the high-speed position control 33 and the approach avoidance control 37 used in step 1.

図8(a)に、本発明の一実施形態に係る自律移動撮影制御システムの特徴接近制御出力と電磁界回避制御出力とを統合して速度制御指令を生成する例を示す。また図8(b)に、本発明の一実施形態に係る自律移動撮影制御システムのステップ2における撮影開始位置までの移動過程を示す。   FIG. 8A shows an example of generating a speed control command by integrating the characteristic approach control output and the electromagnetic field avoidance control output of the autonomous mobile imaging control system according to one embodiment of the present invention. FIG. 8B shows a process of moving to the shooting start position in step 2 of the autonomous mobile shooting control system according to the embodiment of the present invention.

撮影時に求められる撮影対象物と無人航空機100との位置精度は、衛星測位部22にて得られる位置精度情報および情報出力周期では、対象設備に衝突する恐れがあるため、物体に接近するためのセンサとしては性能が不十分である。   The positional accuracy between the object to be photographed and the unmanned aerial vehicle 100 required at the time of photographing may be different from the position accuracy information and the information output cycle obtained by the satellite positioning unit 22 because there is a possibility of colliding with the target equipment. The performance is insufficient as a sensor.

そこで、本発明では、対象設備情報1と近距離の精密な測定が可能な測距センサ25とを活用することで、無人航空機100と撮影対象物との相対位置をセンチメートル以下の計測精度で、数十センチメートル以下の高精度位置制御34を行う。特徴接近制御35では、対象設備情報1に含まれる撮影対象物の設備情報と測距センサ25により計測された撮影対象物の形状とを対応付けることにより、撮影対象物を特定して撮影開始位置まで誘導する。なお、図2では説明のため撮影対象物を上から撮影する想定としているが、撮影対象物の撮影方向は無人航空機100に取り付けられた位置の制約がなければ任意の撮影開始位置を設定できる。このとき、撮影開始位置が移動経路上、撮影対象設備の一部に妨げられることがないように、ステップ1にて安全な接近開始エリアが設定されている。また別の手段として、撮影対象設備に対して未知の障害物300が異常に接近していて無人航空機100を迂回させたくない場合に、ステップ2にて対象設備情報1により撮影対象設備近くに移動経路を設定するのを補助してもよい。また別の手段として、撮影対象物に野鳥の巣などの未知の障害物300も回避させたい場合に備えて接近回避制御37を加えてもよい。   Therefore, in the present invention, the relative position between the unmanned aerial vehicle 100 and the object to be photographed is measured with a measurement accuracy of centimeters or less by utilizing the target facility information 1 and the distance measuring sensor 25 capable of precise measurement in a short distance. , A high-precision position control 34 of several tens of centimeters or less is performed. In the characteristic approach control 35, the photographing target is specified and associated with the photographing start position by associating the photographing target's facility information included in the target facility information 1 with the photographing target's shape measured by the distance measuring sensor 25. Induce. In FIG. 2, the imaging target is assumed to be imaged from above for the sake of explanation, but the imaging direction of the imaging target can be set to an arbitrary imaging start position if there is no restriction on the position attached to the unmanned aerial vehicle 100. At this time, a safe approach start area is set in step 1 so that the photographing start position is not obstructed by a part of the photographing target equipment on the moving route. As another means, when the unknown obstacle 300 is abnormally approaching the imaging target equipment and it is not desired to make the unmanned aerial vehicle 100 detour, move to the vicinity of the imaging target equipment by the target equipment information 1 in step 2. It may assist in setting a route. As another means, an approach avoidance control 37 may be added in case an unknown obstacle 300 such as a bird's nest is to be avoided in the photographing target.

また、運用中の送電設備に接近して撮影する場合、電線付近などで強力な電磁場が発生することから、電場により無人航空機100の電気電子回路に不具合が生じたり、磁場によりIMU部21に内蔵されている電子コンパスが方位を見失ったりする恐れがある。そこでステップ2では、電磁界回避制御38を導入して安全飛行を確保する。なお、電磁界センサ29では無人航空機100が受ける電磁界の大きさは判断できるが、発生源を特定することは困難である。しかし、電磁界センサ29から得られる計測値に加え、自位置と対象設備情報1とに基づけば電磁界発生源を特定できる。   In addition, when taking a picture in close proximity to the power transmission equipment in operation, a strong electromagnetic field is generated near the electric wire, so that the electric field may cause a failure in the electric and electronic circuit of the unmanned aerial vehicle 100, or the magnetic field may cause a problem in the IMU 21 There is a risk that the electronic compass being used loses its bearing. Therefore, in step 2, the electromagnetic field avoidance control 38 is introduced to ensure safe flight. Although the electromagnetic field sensor 29 can determine the magnitude of the electromagnetic field received by the unmanned aerial vehicle 100, it is difficult to identify the source. However, in addition to the measured value obtained from the electromagnetic field sensor 29, the electromagnetic field generation source can be specified based on the own position and the target facility information 1.

この電磁界発生源の特定は、電磁界回避指令の出力ベクトルを固有値と固有ベクトルから導くこととし、固有値については電磁界センサ29から得られる計測値とし、固有ベクトルについては対象設備情報1と測距センサ25に基づいて電磁界発生元に対して回避すべき方向を求めることで実現する。例えば、図8では無人航空機100の下側に課電している送電線により電磁界が生じているため、電磁界の強さが所定の閾値を超えた場合に離隔距離を確保するために上方向の速度ベクトルが生成される。なお、IMU部21が備える電子コンパスにて磁界の大きさを測位できる場合は、IMU部21を磁界センサとして活用してもよい。また別の方法としては、送電線の潮流情報により送電線の電磁界の大きさを知ることができれば、通信部307を経由してそれを活用してもよい。   In order to specify the electromagnetic field generation source, the output vector of the electromagnetic field avoidance command is derived from the eigenvalue and the eigenvector, the eigenvalue is a measurement value obtained from the electromagnetic field sensor 29, and the eigenvector is the target equipment information 1 and the distance measurement sensor. This is realized by obtaining a direction to be avoided with respect to the source of the electromagnetic field based on 25. For example, in FIG. 8, since an electromagnetic field is generated by a transmission line that applies power to the lower side of the unmanned aerial vehicle 100, when the strength of the electromagnetic field exceeds a predetermined threshold, the electromagnetic field is increased to secure a separation distance. A velocity vector in the direction is generated. When the magnitude of the magnetic field can be measured by the electronic compass provided in the IMU unit 21, the IMU unit 21 may be used as a magnetic field sensor. As another method, if the magnitude of the electromagnetic field of the transmission line can be known from the power flow information of the transmission line, it may be used via the communication unit 307.

(ステップ3)接近追従撮影
図9に、本発明の一実施形態に係る自律移動撮影制御システムにおいてステップ3で使用する制御則を示す。ステップ3では、ステップ2により撮影対象物の撮影位置に高精度で到達しているので、撮影制御39において、カメラ5のカメラ駆動部51およびカメラ撮影部52に対し、測距センサ25により得られた相対位置に基づいてPTZ制御量を算出し撮影開始の指令を出力する。また同時に、接近追従制御36ではステップ2の特徴接近制御35と同様、衛星測位情報に頼らず、測距センサ25により求められる撮影対象物との相対位置に基づいて撮影対象物に沿って移動しながら位置制御を行う。図10は架空地線に沿って高精度に移動するため、自ずと電線が描くカテナリ曲線に沿った飛行軌跡を描く。また、仮に撮影対象物の架空地線が揺れた場合は、その揺れに追従して飛行する。
(Step 3) Approach Tracking Imaging FIG. 9 shows a control rule used in step 3 in the autonomous mobile imaging control system according to one embodiment of the present invention. In step 3, since the camera has reached the shooting position of the shooting target object with high precision in step 2, the shooting control 39 obtains the camera driving unit 51 and the camera shooting unit 52 of the camera 5 by the distance measurement sensor 25. The PTZ control amount is calculated based on the relative position and a command to start photographing is output. At the same time, in the approach tracking control 36, similarly to the feature approach control 35 in step 2, the robot moves along the photographing object based on the relative position to the photographing object obtained by the distance measurement sensor 25 without depending on the satellite positioning information. While controlling the position. FIG. 10 naturally draws a flight trajectory along a catenary curve drawn by an electric wire in order to move with high accuracy along an overhead ground line. If the imaginary ground line of the object to be photographed fluctuates, it flies following the shaking.

図10(a)に、本発明の一実施形態に係る自律移動撮影制御システムの接近追従制御出力と撮影制御出力とを統合して速度制御指令を生成する例を示す。また図10(b)に、本発明の一実施形態に係る自律移動撮影制御システムのステップ3における画像連結および異常検知の過程を示す。   FIG. 10A shows an example of generating a speed control command by integrating the approach tracking control output and the shooting control output of the autonomous mobile shooting control system according to one embodiment of the present invention. FIG. 10B shows a process of image connection and abnormality detection in step 3 of the autonomous mobile photography control system according to the embodiment of the present invention.

なお、カメラ5により撮影した画像から安定性を維持できる範囲で姿勢を調整することも可能である。例えば、架空地線を直上から撮影したとき、画像解析部41はカメラ5で撮影された架空地線の画像のフレーム各辺に対する傾き角度を算出し、指令統合部40を介して画像から得られる撮影対象物の角度と無人航空機100のヨー角との相対角度を判断し、姿勢制御31に送信して無人航空機100のヨー角を制御することで画像中の撮影対象物の角度を垂直や水平に補正することも可能である。   Note that it is also possible to adjust the posture within a range where stability can be maintained from an image captured by the camera 5. For example, when the imaginary ground wire is photographed from directly above, the image analysis unit 41 calculates the inclination angle of each image frame of the imaginary ground wire captured by the camera 5 with respect to each side of the frame, and is obtained from the image via the command integration unit 40. The relative angle between the angle of the imaging target and the yaw angle of the unmanned aerial vehicle 100 is determined, and transmitted to the attitude control 31 to control the yaw angle of the unmanned aerial vehicle 100, thereby changing the angle of the imaging target in the image vertically or horizontally. Can also be corrected.

接近追従制御36により撮影対象物に対して接近するが、無人航空機100は横風などの外乱を絶えず受けるため、常にある程度の一時的な位置変動が生じる。カメラ5による高精細撮影時には無人航空機100の位置変動に伴ってカメラブレが生じるため、焦点距離が長く被写界深度が浅い望遠レンズでは画像がピンボケし易くなってしまう。また、通常のカメラのオートフォーカス(AF)機能では空中に浮いた細い電線や小さなネジなどは、画像に対する映り込みの面積が小さいため、焦点を合わせ続けることは困難である。そこで、本発明では、撮影対象物に確実に合焦させ続けるために、カメラ撮影部52は、接近追従制御36において対象設備情報1と測距センサ25から得られる撮影対象物までの相対位置に基づき焦点を調整する。または、無人航空機100の周囲に対象設備が明らかに存在しない場合は、カメラ撮影部52は、測距センサ25から出力される距離情報を直接取得し、その中から後述するように撮影対象物までの相対位置のみを抽出し、抽出した距離情報に基づき焦点調整を行ってもよい。   The approaching follow-up control 36 approaches the object to be photographed. However, the unmanned aerial vehicle 100 is constantly subjected to disturbance such as a crosswind, so that a certain degree of temporary position fluctuation always occurs. At the time of high-definition photographing by the camera 5, camera shake occurs due to a change in the position of the unmanned aerial vehicle 100. Therefore, a telephoto lens having a long focal length and a shallow depth of field tends to cause blurred images. Further, it is difficult to keep focusing on a thin electric wire or a small screw floating in the air by an ordinary camera's autofocus (AF) function because the area of the image reflected on the image is small. Therefore, in the present invention, in order to keep focusing on the photographing target reliably, the camera photographing unit 52 sets the relative position to the photographing target obtained from the target facility information 1 and the distance measurement sensor 25 in the approach tracking control 36. Adjust focus based on Alternatively, if the target facility is not clearly present around the unmanned aerial vehicle 100, the camera photographing unit 52 directly acquires the distance information output from the distance measurement sensor 25, and from there, to the photographing target as described later. May be extracted, and focus adjustment may be performed based on the extracted distance information.

別の方法としては、測距センサ25で得られる相対位置から撮影対象物までの相対位置のみを抽出するためには、例えば、計測された各相対位置情報の中から、最も距離の短い距離を測距センサ25と撮影対象物との相対距離としてもよい。但し、この場合、カメラ5に最も近い点に焦点が調整されるため奥行がある物体を撮影すると手前以外がピンボケとなる。   As another method, in order to extract only the relative position from the relative position obtained by the distance measuring sensor 25 to the object to be photographed, for example, from the measured relative position information, the shortest distance is determined. The relative distance between the distance measurement sensor 25 and the object to be photographed may be used. However, in this case, since the focus is adjusted to the point closest to the camera 5, when an object having a depth is photographed, a portion other than the near side is out of focus.

別の方法としては、形状が比較的大きく測距センサ25で判断できる場合において、その他の相対位置情報を排除して相対位置を判断してもよいし、撮影対象物の色に特徴があるのであればピンボケでも画像解析部41で大まかな位置を判断できるため、測距センサ25から得られる相対位置情報のうちで有効な情報を限定して相対距離を明らかにすることもできる。   As another method, when the shape is relatively large and can be determined by the distance measuring sensor 25, the relative position may be determined by excluding other relative position information, and the color of the object to be photographed has a characteristic. If it is out of focus, the approximate position can be determined by the image analysis unit 41, so that the relative distance can be clarified by limiting valid information among the relative position information obtained from the distance measurement sensor 25.

さらに別の方法としては、対象設備情報1と自位置とから、撮影対象物までのおよその距離を特定し、測距センサ25により計測された距離の内、特定された距離に最も近い距離を測距センサ25と撮影対象物との相対距離としてもよい。   As still another method, the approximate distance to the photographing target is specified from the target facility information 1 and the own position, and the distance closest to the specified distance among the distances measured by the distance measurement sensor 25 is determined. The relative distance between the distance measurement sensor 25 and the object to be photographed may be used.

なお、撮影対象物とカメラ5との相対距離は、撮影対象物と測距センサ25との相対距離および相対角度から、カメラ5と測距センサ25との間の相対位置およびカメラ5と測距センサ25とのそれぞれの相対位置ならびに、カメラ5および測距センサ25の配置状態に基づき算出する。   The relative distance between the object to be photographed and the camera 5 is determined based on the relative distance and the relative angle between the object to be photographed and the distance measuring sensor 25 and the relative position between the camera 5 and the distance measuring sensor 25 and the distance between the camera 5 and the distance measuring sensor 25. The calculation is performed based on the relative position of each of the sensors 25 and the arrangement state of the camera 5 and the distance measuring sensor 25.

高精細な画像を取得するためには、上述のように焦点を正確に合わせることに加え、飛行日時や天候、撮影対象物の色、材質などに応じてISO感度、絞りおよびシャッタースピードを適切に調整する必要がある。本発明では、撮影対象物が予め特定できているため、対象設備情報1に撮影対象物の色や材質、および直前に撮影した画像の画像解析部41での評価に基づき補正すべきパラメータを記録し、ISO感度、絞りおよびシャッタースピードを再調整することで画質の向上を図ることもできる。   In order to obtain a high-definition image, in addition to precisely focusing as described above, the ISO sensitivity, aperture, and shutter speed must be appropriately adjusted according to the flight date and time, weather, color and material of the shooting target, etc. Need to adjust. In the present invention, since the photographing target can be specified in advance, the target equipment information 1 records the color and material of the photographing target and parameters to be corrected based on the evaluation of the image taken immediately before by the image analysis unit 41. The image quality can also be improved by readjusting the ISO sensitivity, aperture, and shutter speed.

撮影中、無人航空機100に横風などの外乱が加わり、予定通りの経路・タイミングで撮影できない場合があり、取得した複数の画像に連続性が失われ、撮影対象物の一部画像が取得できていないこともある。そのため、画像解析部41は、例えば、得られた複数の画像を撮影対象物の特徴点を基準に連結し、撮影対象物の画像取得に抜けが無いか否かを確認し、抜けがあればその個所の撮影を行うために接近追従制御36を指示する。   During shooting, disturbance such as a cross wind may be applied to the unmanned aerial vehicle 100, and it may not be possible to shoot the route and timing as scheduled, continuity may be lost in the obtained plurality of images, and a partial image of the shooting target may be obtained. Not always. For this reason, the image analysis unit 41, for example, connects the obtained plurality of images based on the feature points of the imaging target, checks whether there is no omission in acquiring the image of the imaging target, and if there is any omission, In order to take an image of the location, the approach follow-up control 36 is instructed.

別の方法としては、画像解析部41が架空地線の撮影画像から両端に架空地線がかかっていなかったり、映り込んでいなかったりした場合は明らかに抜けがあるため、ただちに再度行うなどしてもよい。   As another method, if the image analysis unit 41 does not have an imaginary ground line at both ends from the captured image of the imaginary ground line, or if the imaginary ground line is not reflected, the image analysis unit 41 immediately re-executes it. You may.

以上の処理を経て得られた画像は、画像とともに撮影開始時間、撮影終了時間、撮影開始座標、撮影終了座標、画角内の撮影対象物の位置情報、ならびにカメラ5の各調整値がストレージ303へ記録される。   The image obtained through the above-described processing includes, together with the image, a shooting start time, a shooting end time, a shooting start coordinate, a shooting end coordinate, positional information of the shooting target within the angle of view, and each adjustment value of the camera 5 in the storage 303. Is recorded to

このとき、画像解析部41は、ストレージ303に記憶された過去の撮影結果と比較することで異常を認識することができるが、過去の画像と現在の画像とでは記録された座標が完全には一致しない。そのため、取得した画像の開始終了座標から過去に取得した記録群の中から近い画像を対応付けることで異常個所を検知する。また別の方法としては、撮影対象物の経年変化が小さい場合に、比較対象として敷設直後の見本画像を利用してもよい。画像解析部41は、比較の結果、差異が大きい、または変色など異常が疑われる差異が確認された場合、異常検知信号を指令統合部40に通知する。異常検知信号には、対象設備位置情報および撮影位置情報が含まれている。   At this time, the image analysis unit 41 can recognize the abnormality by comparing with the past photographing result stored in the storage 303, but the recorded coordinates are completely different between the past image and the current image. It does not match. Therefore, an abnormal part is detected by associating the closest image from the recording group acquired in the past with the start / end coordinates of the acquired image. As another method, when the secular change of the photographing target is small, a sample image immediately after laying may be used as a comparison target. The image analysis unit 41 notifies the command integration unit 40 of an abnormality detection signal when the comparison indicates a large difference or a suspected abnormality such as discoloration. The abnormality detection signal includes target facility position information and shooting position information.

画像の連結や異常箇所の検知など画像解析部41での処理については、無人航空機100に搭載可能なCPU302,GPU304,DRAM305にて処理することとなるが、処理を高度化するほど搭載するバッテリーの消費量が増大する傾向がある。そこで別の方法としては、通信部307の伝送帯域が十分であれば、消費電力を抑えるために外部のコンピュータに送信し、画像解析部41での処理を外部で行ってもよい。   Processing in the image analysis unit 41 such as image connection and detection of an abnormal part is performed by the CPU 302, GPU 304, and DRAM 305 that can be mounted on the unmanned aerial vehicle 100. Consumption tends to increase. Therefore, as another method, if the transmission band of the communication unit 307 is sufficient, the image data may be transmitted to an external computer in order to suppress power consumption, and the processing in the image analysis unit 41 may be performed externally.

また、電磁界回避制御38は、ステップ2と同様に、撮影中に無人航空機100に影響する電磁界を検知した場合、対象設備情報1と測距センサ25に基づいて電磁界発生元に対して回避すべき方向を固有ベクトル、電磁界センサ29から得られる計測値を固有値として電磁界回避制御出力を生成する。このとき、電磁界回避制御出力は接近追従制御出力に反する指令であるため、電磁界回避制御出力が出力されている間は電磁界の影響を受けない時の相対位置と異なる地点で接近追従を継続する。ただし、撮影制御39は相対距離が異なる状態でも一定の画質を確保するため、カメラ駆動部51はズーム倍率を調整し、それに伴い画角も変化する。そのため、画像解析部41は追従速度の調整を指令統合部40に指示し、指令統合部40は接近追従制御36に速度調整を指令する。さらに別の方法としては、電磁界発生源から発せられる電磁界の大きさは一定ではないことから、電磁界の影響が収まった時に再度撮影するように撮影制御39を中止してもよい。なお、撮影中、課電された電線から非常に大きな磁界を検知した場合、電磁界回避制御出力が大きくなって撮影対象物が測距センサ25の検知範囲外まで退避する場合があるが、その際はステップ2に移行する。   When detecting an electromagnetic field that affects the unmanned aerial vehicle 100 during shooting, the electromagnetic field avoidance control 38 determines an electromagnetic field generation source based on the target facility information 1 and the distance measurement sensor 25, as in step 2. An electromagnetic field avoidance control output is generated with the direction to be avoided as an eigenvector and the measurement value obtained from the electromagnetic field sensor 29 as an eigenvalue. At this time, since the electromagnetic field avoidance control output is a command contrary to the approach tracking control output, while the electromagnetic field avoidance control output is output, the approach tracking is performed at a different point from the relative position where the electromagnetic field avoiding control output is not affected by the electromagnetic field. continue. However, the camera control unit 51 adjusts the zoom magnification, and the angle of view changes accordingly, in order to ensure a constant image quality even in the state where the relative distance is different. Therefore, the image analyzing unit 41 instructs the command integrating unit 40 to adjust the following speed, and the command integrating unit 40 instructs the approach following control 36 to adjust the speed. As still another method, since the magnitude of the electromagnetic field generated from the electromagnetic field generation source is not constant, the photographing control 39 may be stopped so that photographing is performed again when the influence of the electromagnetic field has stopped. Note that, when an extremely large magnetic field is detected from the imposed electric wire during shooting, the electromagnetic field avoidance control output may increase and the shooting target may retreat outside the detection range of the distance measurement sensor 25. Then, the process proceeds to step 2.

また、山や未知の障害物300が影響して通信モジュール304が外部とデータの送受信が困難になった場合でも、データの送受信が回復するまで無人航空機100を待機または飛行してきた経路に沿って自律的に帰還させてもよい。なお、強風や磁界の影響を受けたり、後述のステップ3aに頻繁に移行するなどによりバッテリーを大きく消費したりする場合に備え、バッテリーの電圧または容量を監視してもよく、一定値以下となった際にはステップ4へ移行する。   Further, even if the communication module 304 has difficulty in transmitting and receiving data to and from the outside due to the influence of the mountains and the unknown obstacle 300, the communication module 304 follows the route on which the unmanned aerial vehicle 100 waits or flies until the transmission and reception of data is restored. It may return autonomously. In addition, the battery voltage or capacity may be monitored in case of being affected by a strong wind or a magnetic field, or when the battery is greatly consumed due to frequent shift to step 3a to be described later. Then, the process proceeds to step 4.

(ステップ3a)異常箇所の詳細撮影
図11に、本発明の一実施形態に係る自律移動撮影制御システムにおいてステップ3aで使用する制御則を示す。また、図12(a)に、本発明の一実施形態に係る自律移動撮影制御システムの異常検知時の接近追従制御出力と撮影制御出力とを統合して速度制御指令を生成する例を示し、図12(b)に、本発明の一実施形態に係る自律移動撮影制御システムのステップ3aにおける異常検知箇所撮影の過程を示す。ステップ3において、指令統合部40が画像解析部41から異常検知の通知情報を受けると、ステップ3aへ移行する。ステップ3aでは、指令統合部40から接近追従制御36に対して異常検知があった場所に停止するよう指令し、撮影制御39からのカメラ駆動部51により高精細な画像が撮影できるように、ズームにより高倍率側に再調整を行う指令を出力する。
(Step 3a) Detailed Shooting of Abnormal Location FIG. 11 shows a control rule used in step 3a in the autonomous mobile shooting control system according to one embodiment of the present invention. FIG. 12A shows an example of generating a speed control command by integrating an approach following control output and an imaging control output when an abnormality is detected in the autonomous mobile imaging control system according to an embodiment of the present invention, FIG. 12 (b) shows a process of photographing an abnormal detection point in step 3a of the autonomous mobile photographing control system according to one embodiment of the present invention. In step 3, when the command integration unit 40 receives notification information of abnormality detection from the image analysis unit 41, the process proceeds to step 3a. In step 3a, the command integration unit 40 instructs the approach following control 36 to stop at the location where the abnormality is detected, and the camera driving unit 51 from the imaging control 39 performs zooming so that a high-definition image can be captured. Outputs a command to perform readjustment on the high magnification side.

なお、ズームにより撮影対象点を拡大してより鮮明な画像を撮影しようとすると画角が狭まるが、無人航空機100の一時的な位置変動の大きさは変わらないため撮影対象箇所が画像に映り込まなくなる頻度が高くなる。そのため、図12(b)に示すように、撮影制御39は、異常が疑われる映像が撮影可能となる安定した状態になるまで接近追従制御36で自律的な追従を継続し、撮影可能になった時点で撮影を開始する。なお、撮影が完了した場合は撮影制御が指令統合部40に完了を通知し、その通知情報を受けてステップ3またはステップ4へ移行する。   Although the angle of view narrows when a clearer image is taken by enlarging the shooting target point by zooming, the location of the shooting target is reflected in the image because the magnitude of the temporary positional change of the unmanned aerial vehicle 100 does not change. The frequency of disappearance increases. Therefore, as shown in FIG. 12B, the shooting control 39 continues autonomous following by the approach following control 36 until a stable state in which a video suspected of being abnormal can be shot is obtained, and shooting becomes possible. Shooting is started when When the photographing is completed, the photographing control notifies the command integrating unit 40 of the completion, and the process proceeds to step 3 or 4 in response to the notification information.

(ステップ3b)撮影地点間移動
図13に、本発明の一実施形態に係る自律移動撮影制御システムにおいてステップ3bで使用する撮影地点間移動の制御則を示す。撮影対象物が単一でない場合、次の撮影対象物まで移動する際の制御はステップ2と同様に撮影対象物の撮影開始位置まで接近する。なお、ステップ3で撮影が完了した撮影対象物は、新たな障害物となることから、特徴接近制御35は離脱出力と新たな接近出力との合成指令となる。別の方法としては、元の撮影対象物が既知の障害物となることから、離脱出力については高速位置制御33を利用しても良い。また別の方法としては、一旦撮影が完了した撮影対象物から距離を置いてから次の撮影対象物まで移動させてもよい。
(Step 3b) Movement between photographing points FIG. 13 shows a control rule of movement between photographing points used in step 3b in the autonomous mobile photographing control system according to one embodiment of the present invention. If there is not a single object to be photographed, control for moving to the next object to be photographed approaches the photographing start position of the object as in step 2. It should be noted that since the photographing target whose photographing is completed in step 3 becomes a new obstacle, the feature approach control 35 is a command to combine the departure output and the new approach output. As another method, since the original imaging target is a known obstacle, the high-speed position control 33 may be used for the separation output. As another method, the object to be photographed may be moved to the next object after a distance from the object once photographed.

図14(a)に、本発明の一実施形態に係る自律移動撮影制御システムの特徴接近制御出力と電磁界回避制御出力とを統合して速度制御指令を生成する例を示し、図14(b)に、ステップ3bの一例を示し、送電鉄塔間にて上部の架空地線の撮影を完了し、新たな撮影対象物である本線に接近した場合の動作例を示している。ただし、課電されている電線に対して接近する場合は、撮影対象物が電磁界発生源になるため、接近中も電線から遠ざかる方向に電磁界回避制御出力が生成されるので、架空地線への接近よりも接近速度は遅くなる。無人航空機100に異常を生じさせる可能性のある強い電磁界が生じている領域の手前で特徴接近制御出力と電磁界回避制御出力とが拮抗するよう出力を調整し、特徴接近制御出力と電磁界回避制御出力とが拮抗する位置を新たな撮影位置とすることで、所定値以上の強い電磁界が生じている領域に入らないようにすることができる。   FIG. 14A shows an example of generating a speed control command by integrating the characteristic approach control output and the electromagnetic field avoidance control output of the autonomous mobile photography control system according to one embodiment of the present invention. 3) shows an example of step 3b, and shows an operation example in a case where the photographing of the overhead overhead ground line between the power transmission towers is completed and the vehicle approaches the main line which is a new photographing target. However, when approaching an electric wire to which power is being applied, the object to be photographed becomes an electromagnetic field generation source, and an electromagnetic field avoidance control output is generated in a direction away from the electric wire even during approach, so the overhead ground wire The approach speed is slower than the approach to. The output is adjusted so that the characteristic approach control output and the electromagnetic field avoidance control output are opposed to each other before an area where a strong electromagnetic field that may cause an abnormality in the unmanned aerial vehicle 100 is generated. By setting a position where the avoidance control output is in opposition to a new imaging position, it is possible to prevent the position from entering a region where a strong electromagnetic field of a predetermined value or more is generated.

(ステップ3c)固定設備点検
図15に、本発明の一実施形態に係る自律移動撮影制御システムにおいてステップ3cで使用する固定設備点検の制御則を示す。また図16に、本発明の一実施形態に係る自律移動撮影制御システムのステップ3cにおける固定設備点検時の様子を示す。
(Step 3c) Inspection of Fixed Equipment FIG. 15 shows a control rule for inspecting fixed equipment used in step 3c in the autonomous mobile photography control system according to one embodiment of the present invention. FIG. 16 shows a state at the time of fixed facility inspection in step 3c of the autonomous mobile photography control system according to the embodiment of the present invention.

鉄塔などの構造物、またはそこに固定された設備、例えば碍子やアークホーンなどを近接撮影する場合、撮影位置まで移動すると同時に、ステップ3と同様、カメラ駆動部51およびカメラ撮影部52へ相対距離などの情報とともに撮影指令を出力する。動作させる制御則もステップ3と同様であるが、架空地線や電線などのように撮影時の状況により位置が大きく変化することがない物体であるため、対象設備情報1を更に有効に活用して無人航空機100の位置情報を補正することができる。また、測距センサ25では物体を複数検知することになるため、撮影制御39ではカメラ5の焦点を移動させることにより複数の画像を取得することができる。   In the case of taking a close-up image of a structure such as a steel tower, or equipment fixed thereto, for example, an insulator or an arc horn, at the same time as moving to the image capturing position, the relative distance to the camera driving unit 51 and the camera image capturing unit 52 is the same as in step 3. A shooting command is output together with information such as. The control rule to be operated is the same as that in step 3, but the object equipment information 1 is used more effectively because it is an object such as an overhead ground wire or electric wire whose position does not greatly change depending on the situation at the time of shooting. Thus, the position information of the unmanned aerial vehicle 100 can be corrected. Further, since the distance measurement sensor 25 detects a plurality of objects, the imaging control 39 can acquire a plurality of images by moving the focus of the camera 5.

(ステップ4)目標位置に着陸
図17に、本発明の一実施形態に係る自律移動撮影制御システムにおいてステップ4で使用する目標位置に着陸する制御則を示す。また図18に、本発明の一実施形態に係る自律移動撮影制御システムのステップ4における撮影位置から着陸までの移動過程を示す。
(Step 4) Landing at Target Position FIG. 17 shows a control law for landing at the target position used in step 4 in the autonomous mobile photography control system according to one embodiment of the present invention. FIG. 18 shows a moving process from the photographing position to the landing in step 4 of the autonomous mobile photographing control system according to the embodiment of the present invention.

ステップ4は、無人航空機100を目標地点、例えば離陸地点へ帰還する際に選択される手続きであり、撮影完了となった場合や残り飛行時間が僅かな場合、強風や強電磁界により無人航空機100での自律撮影飛行が困難となった場合、あるいは通信部307を通じて操作者から帰還指令を受信した場合にステップ1と同じ制御則にて任意の地点へ着陸する。   Step 4 is a procedure selected when returning the unmanned aerial vehicle 100 to a target point, for example, a take-off point. When the photographing is completed or the remaining flight time is short, the unmanned aerial vehicle 100 When the autonomous photographing flight becomes difficult, or when a return command is received from the operator through the communication unit 307, the vehicle lands at an arbitrary point according to the same control rule as in step 1.

着陸する地点は無人航空機100が離陸した地点に加えて、離陸地点とは異なる着陸候補地点を予め複数設定することで、バッテリー状態に応じた残り飛行時間や劣環境状態により適した地点を判断して着陸地点を適宜変更することができ、より安全性を高めることもできる。   In addition to the point where the unmanned aerial vehicle 100 took off, the landing point is determined in advance by setting a plurality of landing candidate points different from the takeoff point, so that the point suitable for the remaining flight time and the poor environmental condition according to the battery state is determined. The landing site can be changed as needed, and the safety can be further improved.

1 対象設備情報
2 センサ部
3 制御部
4 モータ駆動部
5 カメラ
21 IMU部
22 衛星測位部
23 気圧センサ
24 高度LIDAR部
25 測距センサ
26 障害物LIDAR部
27 赤外線センサ
28 超音波センサ
29 電磁界センサ
31 姿勢制御
32 速度制御
33 高速位置制御
34 高精度位置制御
35 特徴接近制御
36 接近追従制御
37 接近回避制御
38 電磁界回避制御
39 撮影制御
40 指令統合部
41 画像解析部
51 カメラ駆動部
52 カメラ撮影部
100 無人航空機
200 撮影対象設備
300 未知の障害物
301 メモリ
302 CPU
303 ストレージ
304 GPU
305 DRAM
306 移動体制御ユニット
307 通信部
308 入出力I/F
DESCRIPTION OF SYMBOLS 1 Target equipment information 2 Sensor part 3 Control part 4 Motor drive part 5 Camera 21 IMU part 22 Satellite positioning part 23 Atmospheric pressure sensor 24 Altitude LIDAR part 25 Distance measuring sensor 26 Obstacle LIDAR part 27 Infrared sensor 28 Ultrasonic sensor 29 Electromagnetic field sensor 31 attitude control 32 speed control 33 high-speed position control 34 high-precision position control 35 feature approach control 36 approach tracking control 37 approach avoidance control 38 electromagnetic field avoidance control 39 shooting control 40 command integration unit 41 image analysis unit 51 camera drive unit 52 camera shooting Unit 100 unmanned aerial vehicle 200 equipment to be photographed 300 unknown obstacle 301 memory 302 CPU
303 Storage 304 GPU
305 DRAM
306 Mobile unit control unit 307 Communication unit 308 Input / output I / F

上記の課題を解決するために、本発明の一実施態様では、カメラを搭載した自律移動体を制御する自律移動撮影制御システムであって、撮影対象物の形状情報および撮影場所の位置情報を含む対象設備情報を記憶する設備情報記憶部と、前記自律移動体の姿勢と方位を計測するIMU(慣性測定ユニット:Inertial Measurement Unit)部と、前記自律移動体の水平方向および鉛直方向の位置を測位する衛星測位部と、前記自律移動体の鉛直方向の位置を測位する高度計測センサと、前記自律移動体周囲の障害物との離隔距離を計測する障害物計測センサと、前記自律移動体と前記自律移動体周囲の撮影対象物との相対位置および相対角度を計測する測距センサと、前記IMU部から取得した方位の情報、前記衛星測位部および前記高度計測センサから取得した前記水平方向の位置および前記鉛直方向の位置を含む自位置情報から前記撮影場所の位置情報が示す撮影開始位置までの経路を、前記対象設備情報をもとに前記撮影対象物への衝突を回避するように生成する経路形成部と、前記経路に沿って前記撮影開始位置まで移動するための経路追従指令と、前記障害物計測センサにより前記自律移動体と前記自律移動体周囲の障害物との離隔距離が所定の離隔距離よりも短くなった場合に前記自律移動体が前記自律移動体周囲の障害物から遠ざかる指令とを生成し、複数の前記指令を統合した統合指令に基づき前記自律移動体の位置を制御する位置制御部と、前記相対位置に基づき前記カメラの焦点を調整して前記撮影対象物を撮影するカメラ制御部とを備えたことを特徴とする。 In order to solve the above problems, an embodiment of the present invention is an autonomous mobile imaging control system for controlling an autonomous mobile body equipped with a camera, the system including shape information of an imaging target and positional information of an imaging location. A facility information storage unit that stores target facility information; an IMU (Inertial Measurement Unit) unit that measures the attitude and orientation of the autonomous mobile body; and a horizontal and vertical position of the autonomous mobile body. a satellite positioning unit for the altitude measuring sensor for positioning the vertical position of the autonomous moving body, and the obstacle measurement sensor that measures the distance between the autonomous moving body around the obstacle, the front Symbol autonomous moving body wherein a distance measuring sensor for measuring the relative position and the relative angle between the autonomous moving body around the shooting target, azimuth information acquired from the IMU unit, measuring the satellite The path from the self-position information including the horizontal position and the vertical position obtained from the unit and the altitude measurement sensor to the shooting start position indicated by the position information of the shooting location, based on the target facility information A route forming unit that generates so as to avoid collision with the shooting target, a route following command for moving to the shooting start position along the route, and the autonomous moving body and the When the separation distance from the obstacle around the autonomous moving body becomes shorter than a predetermined separation distance, the autonomous moving body generates a command to move away from the obstacle around the autonomous moving body, and integrates the plurality of commands. It includes the position control section for controlling the position of the autonomous moving body on the basis of the integrated command, a camera control unit for photographing a focus the imaging target by adjusting the camera based on the relative position It is characterized by having.

また、別の態様では、前記カメラで撮影した画像を解析する画像解析部であって、前記カメラで撮影した複数の画像を連結して前記撮影対象物全体の画像を合成する画像解析部と、前記画像解析部における前記カメラで撮影した画像の解析結果を記録する解析記録部とをさらに備えたことを特徴とする。 In another aspect, an image analysis unit that analyzes an image captured by the camera, an image analysis unit that combines a plurality of images captured by the camera and synthesizes an image of the entire imaging target, An analysis recording unit that records an analysis result of an image captured by the camera in the image analysis unit is further provided.

また、別の態様では、二周波かつ見通し外の無線通信で前記各センサおよび前記各部の情報を伝送する通信部をさらに備えたことを特徴とする。 In another aspect, the apparatus further includes a communication unit that transmits information of each of the sensors and each of the units by dual-frequency and non-line-of-sight wireless communication .

また、別の態様では、前記自律移動体周囲の電磁界を計測する電磁界センサをさらに備え、前記位置制御部は、前記電磁界センサで所定値以上の値を計測した場合、前記自位置情報が示す自位置に最も近い電磁界発生源の位置を前記対象設備情報から特定し、前記磁界発生源から遠ざかる指令をさらに生成することを特徴とする。 In another aspect, the apparatus further comprises an electromagnetic field sensor that measures an electromagnetic field around the autonomous mobile body, wherein the position control unit is configured to, when a value equal to or more than a predetermined value is measured by the electromagnetic field sensor, obtain the position information. The position of the electromagnetic field generation source closest to the own position indicated by is specified from the target facility information, and a command to move away from the magnetic field generation source is further generated.

また、別の一態様は、駆動部を有して自律的に移動可能な自律移動体であって、前記自律移動体に搭載されたカメラと、撮影対象物の形状情報および撮影場所の位置情報を含む対象設備情報を記憶する設備情報記憶部と、撮影対象物の形状情報および撮影場所の位置情報を含む対象設備情報を記憶する設備情報記憶部と、前記自律移動体の姿勢と方位を計測するIMU部と、前記自律移動体の水平方向および鉛直方向の位置を測位する衛星測位部と、前記自律移動体の鉛直方向の位置を測位する高度計測センサと、前記自律移動体周囲の障害物との離隔を計測する障害物計測センサと、前記自律移動体と前記自律移動体周囲の物体との相対位置を計測する測センサと、前記IMU部から取得した方位の情報、前記衛星測位部および前記高度計測センサから取得した前記水平方向の位置および前記鉛直方向の位置を含む自位置情報から前記撮影場所の位置情報が示す撮影開始位置までの経路を、前記対象設備情報をもとに前記撮影対象物への衝突を回避するように生成する経路形成部と、前記経路に沿って前記撮影開始位置まで移動するための経路追従指令と、前記障害物計測センサにより前記自律移動体と前記自律移動体周囲の障害物との離隔距離が所定の離隔距離よりも短くなった場合に前記自律移動体が前記自律移動体周囲の障害物から遠ざかる指令とを生成し、複数の前記指令を統合した統合指令に基づき前記自律移動体の位置を制御する位置制御部と、前記相対位置に基づき前記カメラの焦点を調整して前記撮影対象物を撮影するカメラ制御部とを備えたことを特徴とする。
また、別の一態様は、カメラを搭載した自律移動体を制御する自律移動撮影制御システムであって、撮影対象物の形状情報および撮影場所の位置情報を含む対象設備情報を記憶する設備情報記憶部と、前記自律移動体の姿勢と方位を計測するセンサを含む、複数のセンサを有するセンサ部と、前記センサ部から取得した前記自律移動体の自位置情報から前記撮影場所の位置情報が示す撮影開始位置までの経路を、前記対象設備情報をもとに前記撮影対象物への衝突を回避するように生成する経路形成部と、前記経路に沿って前記撮影開始位置まで移動するための経路追従指令と、前記センサ部により前記自律移動体と前記自律移動体周囲の障害物との離隔距離が所定の離隔距離よりも短くなった場合に前記自律移動体が前記自律移動体周囲の障害物から遠ざかる指令とを生成し、複数の前記指令を統合した統合指令に基づき前記自律移動体の位置を制御する位置制御部と、前記相対距離に基づき前記カメラの焦点を調整して前記撮影対象物を撮影するカメラ制御部とを備えたことを特徴とする。
Another aspect is an autonomous mobile body that has a driving unit and can move autonomously, and includes a camera mounted on the autonomous mobile body, shape information of a shooting target, and position information of a shooting location. A facility information storage unit that stores target facility information including a target object, a facility information storage unit that stores target facility information including shape information of a photographing target and positional information of a photographing location, and measures a posture and an orientation of the autonomous mobile body. An IMU unit, a satellite positioning unit that measures the horizontal and vertical positions of the autonomous mobile object, an altitude measurement sensor that measures the vertical position of the autonomous mobile object, and obstacles around the autonomous mobile object. and the obstacle measurement sensor which measures the separation between the front Symbol autonomous moving body and the distance sensor measuring for measuring the relative position of the autonomous moving body surrounding objects, azimuth information acquired from the IMU unit, the satellite positioning Part and the altitude The path from the self-position information including the horizontal position and the vertical position acquired from the measurement sensor to the photographing start position indicated by the position information of the photographing place is defined by the photographing target object based on the target facility information. A route forming unit that generates so as to avoid collision with the vehicle, a route following command for moving to the shooting start position along the route, and the autonomous moving body and the surroundings of the autonomous moving body by the obstacle measurement sensor. When the separation distance from the obstacle is shorter than a predetermined separation distance, the autonomous moving body generates a command to move away from obstacles around the autonomous moving object, and generates an integrated command obtained by integrating a plurality of the commands. to a position control unit for controlling the position of the autonomous moving body based, characterized in that to adjust the focus of the camera based on the relative position and a camera control unit for photographing the photographic subject .
Another aspect is an autonomous mobile imaging control system that controls an autonomous mobile body equipped with a camera, and stores equipment information including target equipment information including shape information of an imaging target and position information of an imaging location. Unit, including a sensor for measuring the attitude and orientation of the autonomous mobile body, a sensor unit having a plurality of sensors, and the location information of the shooting location from the self-position information of the autonomous mobile body obtained from the sensor unit indicates A route forming unit that generates a route to a shooting start position based on the target facility information so as to avoid collision with the shooting target, and a route for moving to the shooting start position along the route A tracking command, and when the separation distance between the autonomous moving body and an obstacle around the autonomous moving body is shorter than a predetermined separation distance by the sensor unit, the autonomous moving body is moved around the autonomous moving body. A position control unit that generates a command to move away from the harmful object and controls the position of the autonomous mobile body based on an integrated command obtained by integrating a plurality of the commands, and adjusts the focus of the camera based on the relative distance to perform the shooting. A camera control unit for photographing the object.

上記の課題を解決するために、本発明の一実施態様では、カメラを搭載した自律移動体を制御する自律移動撮影制御システムであって、撮影対象物の形状情報および撮影場所の位置情報を含む対象設備情報を記憶する設備情報記憶部と、前記自律移動体の姿勢と方位を計測するIMU(慣性測定ユニット:Inertial Measurement Unit)部と、前記自律移動体の水平方向および鉛直方向の位置を測位する衛星測位部と、前記自律移動体の鉛直方向の位置を測位する高度計測センサと、前記自律移動体周囲の障害物との離隔距離を計測する障害物計測センサと、前記自律移動体と前記自律移動体周囲の撮影対象物との相対位置および相対角度を計測する測距センサと、前記IMU部から取得した方位の情報、前記衛星測位部および前記高度計測センサから取得した前記水平方向の位置および前記鉛直方向の位置を含む自位置情報から前記撮影場所の位置情報が示す撮影開始位置までの経路を、前記対象設備情報をもとに前記撮影対象物への衝突を回避するように生成する経路形成部と、前記カメラで撮影した画像を解析する画像解析部であって、前記カメラで撮影した複数の画像を連結して前記撮影対象物全体の画像を合成する画像解析部と、前記経路に沿って前記撮影開始位置まで移動するための経路追従指令と、前記障害物計測センサにより前記自律移動体と前記自律移動体周囲の障害物との離隔距離が所定の離隔距離よりも短くなった場合に前記自律移動体が前記自律移動体周囲の障害物から遠ざかる指令とを含む複数の飛行制御に関する指令、および、前記画像解析部により生成された、前記カメラで撮影した画像から検知した異常箇所の撮影位置に移動する指令と、前記自律移動体と前記撮影対象物との相対方位を補正する指令とを含む複数の撮影制御に関する指令のうち、飛行状況に応じた複数の指令を統合した統合指令に基づき前記自律移動体の位置および姿勢を制御する位置制御部と、前記相対位置に基づき前記カメラの焦点を調整して前記撮影対象物を撮影するカメラ制御部とを備えたことを特徴とする。 In order to solve the above problems, an embodiment of the present invention is an autonomous mobile imaging control system for controlling an autonomous mobile body equipped with a camera, the system including shape information of an imaging target and positional information of an imaging location. A facility information storage unit that stores target facility information; an IMU (Inertial Measurement Unit) unit that measures the attitude and orientation of the autonomous mobile body; and a horizontal and vertical position of the autonomous mobile body. A satellite positioning unit, an altitude measurement sensor that measures the vertical position of the autonomous mobile object, an obstacle measurement sensor that measures a separation distance between obstacles around the autonomous mobile object, the autonomous mobile object, A distance measuring sensor for measuring a relative position and a relative angle with respect to an object to be photographed around the autonomous moving object; information on an azimuth obtained from the IMU unit; The path from the self-position information including the horizontal position and the vertical position obtained from the unit and the altitude measurement sensor to the shooting start position indicated by the position information of the shooting location, based on the target facility information A path forming unit for generating a collision with the object to be photographed, and an image analyzing unit for analyzing an image photographed by the camera, wherein a plurality of images photographed by the camera are connected to each other, An image analysis unit that synthesizes an image of the entire object, a path following command for moving to the shooting start position along the path, and the autonomous moving body and obstacles around the autonomous moving body by the obstacle measurement sensor A command relating to a plurality of flight controls, including a command to move the autonomous mobile body away from obstacles around the autonomous mobile body when the separation distance becomes shorter than a predetermined separation distance , and A plurality of commands including a command generated by the image analysis unit to move to a shooting position of an abnormal location detected from an image shot by the camera, and a command to correct a relative orientation between the autonomous moving body and the shooting target. of Directive imaging control, a position control unit for controlling the position and attitude of the autonomous moving body on the basis of the integrated command which integrates plural directive in response to the flight conditions, the focus of the camera based on the relative position A camera control unit for adjusting and photographing the object to be photographed.

また、別の一態様は、駆動部を有して自律的に移動可能な自律移動体であって、前記自律移動体に搭載されたカメラと、撮影対象物の形状情報および撮影場所の位置情報を含む対象設備情報を記憶する設備情報記憶部と、撮影対象物の形状情報および撮影場所の位置情報を含む対象設備情報を記憶する設備情報記憶部と、前記自律移動体の姿勢と方位を計測するIMU部と、前記自律移動体の水平方向および鉛直方向の位置を測位する衛星測位センサと、前記自律移動体の鉛直方向の位置を測位する高度計測センサと、前記自律移動体周囲の障害物との離隔を計測する障害物計測センサと、前記自律移動体と前記自律移動体周囲の物体との相対位置を計測する測距センサと、前記IMU部から取得した方位の情報、前記衛星測位センサおよび前記高度計測センサから取得した前記水平方向の位置および前記鉛直方向の位置を含む自位置情報から前記撮影場所の位置情報が示す撮影開始位置までの経路を、前記対象設備情報をもとに前記撮影対象物への衝突を回避するように生成する経路形成部と、前記カメラで撮影した画像を解析する画像解析部であって、前記カメラで撮影した複数の画像を連結して前記撮影対象物全体の画像を合成する画像解析部と、前記経路に沿って前記撮影開始位置まで移動するための経路追従指令と、前記障害物計測センサにより前記自律移動体と前記自律移動体周囲の障害物との離隔距離が所定の離隔距離よりも短くなった場合に前記自律移動体が前記自律移動体周囲の障害物から遠ざかる指令とを含む複数の飛行制御に関する指令、および、前記画像解析部により生成された、前記カメラで撮影した画像から検知した異常箇所の撮影位置に移動する指令と、前記自律移動体と前記撮影対象物との相対方位を補正する指令とを含む複数の撮影制御に関する指令のうち、飛行状況に応じた複数の指令を統合した統合指令に基づき前記自律移動体の位置および姿勢を制御する位置制御部と、前記相対位置に基づき前記カメラの焦点を調整して前記撮影対象物を撮影するカメラ制御部とを備えたことを特徴とする。
また、別の一態様は、カメラを搭載した自律移動体を制御する自律移動撮影制御システムであって、撮影対象物の形状情報および撮影場所の位置情報を含む対象設備情報を記憶する設備情報記憶部と、前記自律移動体の姿勢と方位を計測するセンサを含む、複数のセンサを有するセンサ部と、前記センサ部から取得した前記自律移動体の自位置情報から前記撮影場所の位置情報が示す撮影開始位置までの経路を、前記対象設備情報をもとに前記撮影対象物への衝突を回避するように生成する経路形成部と、前記カメラで撮影した画像を解析する画像解析部と、前記経路に沿って前記撮影開始位置まで移動するための経路追従指令である速度ベクトルと、前記センサ部により前記自律移動体と前記自律移動体周囲の障害物との離隔距離が所定の離隔距離よりも短くなった場合に前記自律移動体が前記自律移動体周囲の障害物から遠ざかる指令である速度ベクトルとを含む複数の飛行制御に関する速度ベクトルおよび、前記画像解析部により生成された、前記カメラで撮影した画像から検知した異常箇所の撮影位置に移動する指令である速度ベクトルと、前記自律移動体と前記撮影対象物との相対方位を補正する指令である速度ベクトルとを含む複数の撮影制御に関する速度ベクトルのうち、飛行状況に応じた複数の速度ベクトル合成した統合指令に基づき前記自律移動体の位置および姿勢6を制御する位置制御部と、前記相対距離に基づき前記カメラの焦点を調整して前記撮影対象物を撮影するカメラ制御部とを備えたことを特徴とする。
Another aspect is an autonomous mobile body that has a driving unit and can move autonomously, and includes a camera mounted on the autonomous mobile body, shape information of a shooting target, and position information of a shooting location. A facility information storage unit that stores target facility information including a target object, a facility information storage unit that stores target facility information including shape information of a photographing target and positional information of a photographing location, and measures a posture and an orientation of the autonomous mobile body. An IMU unit, a satellite positioning sensor that measures the horizontal and vertical positions of the autonomous mobile object, an altitude measurement sensor that measures the vertical position of the autonomous mobile object, and obstacles around the autonomous mobile object. An obstacle measurement sensor for measuring a distance from the vehicle, a distance measurement sensor for measuring a relative position between the autonomous mobile body and an object around the autonomous mobile body, azimuth information obtained from the IMU unit, the satellite positioning sensor and The route from the self-position information including the horizontal position and the vertical position acquired from the altitude measurement sensor to the photographing start position indicated by the position information of the photographing location is obtained based on the target facility information. A path forming unit that generates so as to avoid collision with an object, and an image analyzing unit that analyzes an image captured by the camera, wherein a plurality of images captured by the camera are connected to each other, and An image analysis unit that synthesizes the images of the images, a path following instruction for moving to the shooting start position along the path, and the autonomous mobile body and the obstacle around the autonomous mobile body by the obstacle measurement sensor. command separation distance for a plurality of flight control comprising a command and that the autonomous moving body when it becomes shorter than the predetermined distance is away from the autonomous moving body around obstacles, and the image A plurality of shootings including a command generated by the analyzing unit to move to a shooting position of an abnormal location detected from an image shot by the camera, and a command to correct a relative orientation between the autonomous moving body and the shooting target. of Directive on control, and adjust a position control unit for controlling the position and attitude of the autonomous moving body on the basis of the integrated command which integrates plural directive in response to the flight conditions, the focus of the camera based on the relative position And a camera control unit for photographing the photographing object.
Another aspect is an autonomous mobile imaging control system that controls an autonomous mobile body equipped with a camera, and stores equipment information including target equipment information including shape information of an imaging target and position information of an imaging location. Unit, including a sensor for measuring the attitude and orientation of the autonomous mobile body, a sensor unit having a plurality of sensors, and the location information of the shooting location from the self-position information of the autonomous mobile body obtained from the sensor unit indicates A route to a shooting start position, a route forming unit that generates a collision with the shooting target based on the target facility information to avoid collision, an image analysis unit that analyzes an image shot by the camera, a velocity vector which is a path following command to move to the imaging start position along the path, distance between the autonomous moving body and the autonomous moving body around the obstacle by the sensor portion is of a predetermined Velocity vectors for a plurality of flight control comprising a velocity vector which is a command to the autonomous moving body when it becomes shorter than the interval distance away from the autonomous moving body around obstacles, and generated by the image analysis unit A speed vector that is a command to move to an imaging position of an abnormal location detected from an image captured by the camera, and a speed vector that is a command to correct the relative orientation between the autonomous mobile object and the imaging target. the photographing control of the velocity vectors for a position control unit for controlling the position and attitude 6 of the autonomous moving body based on a plurality of integrated commands the velocity vector was synthesized in accordance with the flight conditions, the camera based on the relative distance A camera control unit that adjusts the focus to photograph the photographing object.

上記の課題を解決するために、本発明の一実施態様では、カメラを搭載し、駆動部を有して自律的に移動可能な自律移動であって、電力設備の送電線・架空地線に沿って移動しながら当該送電線・架空地線を撮影する自律移動体において、前記送電線・架空地線を含む撮影対象物の形状情報および撮影場所の位置情報を含む対象設備情報を予め記憶する設備情報記憶部と、前記自律移動体の姿勢と方位を計測するIMU(慣性測定ユニット:Inertial Measurement Unit)部と、前記自律移動体の水平方向および鉛直方向の位置を測位する衛星測位センサと、前記自律移動体の鉛直方向の位置を測位する高度計測センサと、前記自律移動体周囲の障害物との離隔を計測する障害物計測センサと、前記自律移動体と前記自律移動体周囲の前記送電線・架空地線との相対距離および相対角度を計測する測距センサと、前記送電線・架空地線からの電磁界を計測する電磁界センサと、前記カメラで撮影した画像を解析する画像解析部であって、前記カメラで撮影した複数の画像を連結して前記送電線・架空地線全体の画像を合成する画像解析部と、飛行状況に応じた複数の指令を統合した統合指令に基づき前記自律移動体の位置および姿勢を制御する制御部であって、a)前記IMU部から取得した方位の情報、前記衛星測位センサおよび前記高度計測センサから取得した前記水平方向の位置および前記鉛直方向の位置を含む自位置情報から前記送電線・架空地線の位置情報が示す撮影開始位置までの経路を生成し、前記経路に沿って前記撮影開始位置まで移動するための経路追従指令と、前記障害物計測センサにより前記自律移動体と前記自律移動体周囲の障害物または前記送電線・架空地線との離隔距離が所定の離隔距離よりも短くなった場合に前記自律移動体が前記自律移動体周囲の障害物または前記送電線・架空地線から遠ざかる接近回避制御指令とを統合した統合指令、b)前記衛星測位センサによる自位置情報によらず、前記測距センサから計測される離隔距離に基づいて、前記送電線・架空地線の前記撮影開始位置まで接近する特徴接近制御指令と、前記電磁界センサで所定値以上の値を計測した場合、前記送電線・架空地線から遠ざかる電磁界回避制御指令とを統合した統合指令、および、c)前記衛星測位センサによる自位置情報によらず、前記測距センサから計測される離隔距離に基づいて、前記送電線・架空地線に接近する接近追従制御指令と、前記画像解析部により生成された、前記カメラで撮影した画像から前記自律移動体と前記撮影対象物との相対方位を補正する指令と、前記カメラで撮影した画像から検知した異常箇所の撮影位置に移動する指令のうち、複数の指令を統合した統合指令に基づき前記自律移動体の位置および姿勢を制御する制御部と、前記相対位置に基づき前記カメラの焦点を調整して前記撮影対象物を撮影するカメラ制御部とを備えたことを特徴とする。 In order to solve the above-described problems, in one embodiment of the present invention, an autonomous mobile body equipped with a camera and having a drive unit and capable of autonomous movement, including a transmission line and an overhead ground line of a power facility. In an autonomous mobile body that shoots the transmission line / overhead ground line while moving along, the target equipment information including the shape information of the shooting target including the transmission line / overhead ground line and the position information of the shooting location is stored in advance. An IMU (Inertial Measurement Unit) unit for measuring the attitude and orientation of the autonomous mobile unit, a satellite positioning sensor for positioning the horizontal and vertical positions of the autonomous mobile unit, and An altitude measurement sensor that measures the vertical position of the autonomous mobile body, an obstacle measurement sensor that measures the distance between obstacles around the autonomous mobile body, A distance measuring sensor for measuring the relative distance and relative angle between the transmission lines and ground wire around the autonomous moving body, an electromagnetic field sensor for measuring the electromagnetic field from the transmission lines and ground wire, captured by the camera An image analysis unit for analyzing the captured image, the image analysis unit for combining a plurality of images taken by the camera to synthesize an image of the entire transmission line / overhead ground wire, and a plurality of commands according to the flight situation A control unit for controlling a position and an attitude of the autonomous mobile body based on an integrated command obtained by integrating: a) azimuth information obtained from the IMU unit; and the horizontal information obtained from the satellite positioning sensor and the altitude measurement sensor. generate a route from the current position information including the direction of the position and the vertical position to the imaging start position indicated by the position information of the transmission lines and ground wire movement, until the imaging start position along said path A path following instruction because, if the distance between the autonomous moving body and the autonomous moving body around the obstacle or the transmission lines and ground wire by the obstacle measurement sensor becomes shorter than the predetermined distance An integrated command in which the autonomous mobile body integrates an obstacle avoidance around the autonomous mobile body or an approach avoidance control command to move away from the transmission line / overhead ground wire , b) the self-positioning information by the satellite positioning sensor, Based on the separation distance measured from the distance measurement sensor, the feature approach control command to approach the imaging start position of the transmission line / overhead ground line, and when a value of a predetermined value or more is measured by the electromagnetic field sensor, integrated command which integrates the electromagnetic field around control command away from power lines, ground wire, and, c) irrespective of the current position information by the satellite positioning sensor, distance to be measured from the distance measuring sensor Based on a close follow-up control command to approach the transmission lines and ground wire, produced by the image analysis unit, from the image captured by the camera, the relative orientation of the shooting target and the autonomous moving body a command correction to, among command to move the photographing position of the anomaly has been detected from an image captured by the camera, system that controls the position and attitude of the autonomous moving body on the basis of the integrated command which integrates instruction multiple A camera control unit that adjusts the focus of the camera based on the relative position and shoots the shooting target.

また、別の態様では、前記制御部は、前記電磁界センサで所定値以上の値を計測した場合、前記自位置情報が示す自位置に最も近い電磁界発生源の位置を前記対象設備情報から特定し、前記磁界発生源から遠ざかる電磁界回避制指令をさらに生成することを特徴とする。 Further, in another aspect, prior Symbol control section, the case of measuring the value of a predetermined value or more in the electromagnetic field sensor, the relevant equipment the position of the nearest field generation source to the own position in which the current position information indicates An electromagnetic field avoidance control command that specifies from information and moves away from the magnetic field generation source is further generated.

また、別の態様では、前記カメラ制御部は、前記電磁界センサで所定値以上の値を計測した場合、前記電磁界回避制御指令による前記自律移動体に追従して前記カメラのズーム倍率を調整し、前記画像解析部は、追従速度を調整するための撮影制御出力を前記制御部に出力し、前記カメラ制御部は、前記電磁界センサの値が所定値以下となる位置で撮影を継続することを特徴とする。 In another aspect, the camera control unit adjusts a zoom magnification of the camera by following the autonomous moving object according to the electromagnetic field avoidance control command when the electromagnetic field sensor measures a value equal to or greater than a predetermined value. and, wherein the image analysis unit, the imaging control output to adjust the tracking speed is outputted to the control unit, the camera control unit, continued shooting at a position where the value of the electromagnetic field sensor is equal to or less than a predetermined value vinegar Rukoto and features.

また、別の態様では、前記画像解析部は、前記送電線・架空地線の画像のフレーム各辺に対する傾き角度を算出し、前記傾き角度に基づき前記自律移動体と前記送電線・架空地線との相対方位を補正する撮影制御出力を前記制御部に出力することを特徴とする。 In another aspect, the image analysis unit calculates an inclination angle of the image of the transmission line / overhead ground line with respect to each side of a frame, and based on the inclination angle, the autonomous mobile body and the transmission line / overhead ground line. And outputting a photographing control output for correcting the relative azimuth to the control unit .

また、別の態様では、前記制御部が生成する各前記指令は、速度ベクトルであり、前記統合指令は、前記速度ベクトルを合成したものであることを特徴とする。 Further, in another aspect, each of the instruction pre-Symbol control section generates is the velocity vector, the integrated command is characterized in that it is obtained by combining the velocity vector.

Claims (16)

カメラを搭載した自律移動体を制御する自律移動撮影制御システムであって、
撮影対象物の形状情報および撮影場所の位置情報を含む対象設備情報を記憶する設備情報記憶部と、
前記自律移動体の姿勢と方位を計測するIMU部と、
前記自律移動体の水平方向および鉛直方向の位置を測位する衛星測位部と、
前記自律移動体の鉛直方向の位置を測位する高度計測センサと、
前記自律移動体周囲の障害物との離隔距離を計測する障害物計測センサと、
前記自律移動体周囲の電磁界を計測する電磁界センサと、
前記自律移動体と前記自律移動体周囲の撮影対象物との相対距離および相対角度を計測する測距センサと、
前記相対距離に基づき前記カメラの焦点を調整して前記撮影対象物を撮影するカメラ制御部と、
前記カメラで撮影した画像を解析する画像解析部であって、前記カメラで撮影した複数の画像を連結して前記撮影対象物全体の画像を合成する画像解析部と、
前記画像解析部における前記カメラで撮影した画像の解析結果を記録する解析記録部と、
前記各センサおよび前記各部の情報に基づき前記自律移動体の位置を制御する位置制御部と、
二周波かつ見通し外の無線通信で前記各センサおよび前記各部の情報を伝送する通信部と、
を備えたことを特徴とする自律移動撮影制御システム。
An autonomous mobile shooting control system for controlling an autonomous mobile body equipped with a camera,
Equipment information storage unit that stores target equipment information including the shape information of the imaging target and the position information of the imaging location,
An IMU unit for measuring the attitude and orientation of the autonomous mobile body,
A satellite positioning unit that measures the horizontal and vertical positions of the autonomous mobile body,
An altitude measurement sensor that measures the vertical position of the autonomous mobile body,
An obstacle measurement sensor that measures a separation distance from an obstacle around the autonomous mobile body,
An electromagnetic field sensor that measures an electromagnetic field around the autonomous moving body,
A distance measuring sensor that measures a relative distance and a relative angle between the autonomous moving body and the imaging object around the autonomous moving body,
A camera control unit that adjusts the focus of the camera based on the relative distance and shoots the shooting target,
An image analysis unit that analyzes an image captured by the camera, an image analysis unit that combines a plurality of images captured by the camera and synthesizes an image of the entire imaging target,
An analysis recording unit that records an analysis result of an image captured by the camera in the image analysis unit,
A position control unit that controls the position of the autonomous mobile body based on the information of the sensors and the units;
A communication unit that transmits the information of each of the sensors and the respective units by dual-frequency and non-line-of-sight wireless communication,
An autonomous mobile photography control system comprising:
前記IMU部から取得した方位の情報、前記衛星測位部および前記高度計測センサから取得した前記水平方向の位置および前記鉛直方向の位置を含む自位置情報から前記撮影場所の位置情報が示す撮影開始位置までの経路を、前記対象設備情報をもとに前記撮影対象物への衝突を回避するように生成する経路形成部をさらに備えたことを特徴とする請求項1に記載の自律移動撮影制御システム。   The shooting start position indicated by the position information of the shooting location from the self-position information including the azimuth information obtained from the IMU unit, the horizontal position and the vertical position obtained from the satellite positioning unit and the altitude measurement sensor. The autonomous mobile imaging control system according to claim 1, further comprising: a route forming unit configured to generate a route to the imaging target based on the target facility information so as to avoid collision with the imaging target. . 前記位置制御部は、前記経路に沿って前記撮影開始位置まで移動するための経路追従指令と、前記障害物計測センサにより前記自律移動体と前記自律移動体周囲の障害物との離隔距離が所定の離隔距離よりも短くなった場合に前記自律移動体が前記自律移動体周囲の障害物から遠ざかる指令とを生成し、複数の前記指令を統合した統合指令に基づき前記自律移動体の位置を制御することを特徴とする請求項2に記載の自律移動撮影制御システム。   The position control unit is configured to determine a route following command for moving to the shooting start position along the route, and determine a distance between the autonomous moving body and an obstacle around the autonomous moving body by the obstacle measurement sensor. When the distance becomes shorter than the separation distance, the autonomous mobile generates a command to move away from an obstacle around the autonomous mobile, and controls the position of the autonomous mobile based on an integrated command obtained by integrating a plurality of the commands. The autonomous mobile photography control system according to claim 2, wherein 前記位置制御部は、前記自位置情報と前記対象設備情報と前記相対距離および前記相対角度から、前記撮影対象物の撮影対象箇所および撮影位置を特定し、
前記カメラ制御部は、前記撮影位置において前記撮影対象物を撮影することを特徴とする請求項3に記載の自律移動撮影制御システム。
The position control unit, from the own position information and the target equipment information and the relative distance and the relative angle, to specify the shooting target location and shooting position of the shooting target,
4. The autonomous mobile photography control system according to claim 3, wherein the camera control unit photographs the photography target at the photography position. 5.
前記位置制御部は、前記電磁界センサで所定値以上の値を計測した場合、前記自位置情報が示す自位置に最も近い電磁界発生源の位置を前記対象設備情報から特定し、前記電磁界発生源から遠ざかる指令をさらに生成することを特徴とする請求項3または4に記載の自律移動撮影制御システム。   When the electromagnetic field sensor measures a value equal to or greater than a predetermined value, the position control unit specifies the position of the electromagnetic field generation source closest to the own position indicated by the own position information from the target facility information, and The autonomous mobile radiographing control system according to claim 3 or 4, wherein a command for moving away from the source is further generated. 前記カメラ制御部は、前記電磁界センサで所定値以上の値を計測した場合、前記電磁界センサの値が所定値以下となる位置で撮影を継続または中止することを特徴とする請求項5に記載の自律移動撮影制御システム。   6. The camera control unit according to claim 5, wherein when the electromagnetic field sensor measures a value equal to or greater than a predetermined value, the camera controller continues or stops shooting at a position where the value of the electromagnetic field sensor is equal to or less than a predetermined value. An autonomous mobile photography control system as described. 前記位置制御部は、前記撮影対象物との前記相対距離および相対角度を一定に保つように追従しながら、前記撮影開始位置から前記撮影場所の位置情報が示す撮影終了位置まで移動する指令をさらに生成することを特徴とする請求項4乃至6のいずれか一項に記載の自律移動撮影制御システム。   The position control unit further issues a command to move from the photographing start position to a photographing end position indicated by the position information of the photographing place while following the relative distance and the relative angle with the photographing object so as to keep the relative distance and the relative angle constant. The autonomous mobile photography control system according to any one of claims 4 to 6, wherein the system is generated. 前記対象設備情報と、前記画像と、撮影開始位置情報および撮影終了位置情報により、前記撮影対象物全体を抜けなく撮影できたことを確認しおよび記録することを特徴とする請求項7に記載の自律移動撮影制御システム。   The method according to claim 7, wherein the target facility information, the image, the photographing start position information, and the photographing end position information are used to confirm and record that the entire photographing object has been photographed without falling off. Autonomous mobile photography control system. 前記画像解析部は、前記対象設備情報と、前記画像と、前記画像の撮影開始位置情報、撮影終了位置情報に基づいて、過去に撮影された前記撮影対象物の過去撮影位置情報の中から前記撮影場所の位置情報に近い前記過去撮影位置情報に紐付けされた画像を抽出し、比較して異常を示す特定の差異を検知することを特徴とする請求項8に記載の自律移動撮影制御システム。   The image analysis unit, based on the target equipment information, the image, the shooting start position information of the image, the shooting end position information, based on the past shooting position information of the shooting target previously shot, The autonomous mobile photography control system according to claim 8, wherein an image associated with the past photography location information close to the location information of the photography location is extracted and compared to detect a specific difference indicating an abnormality. . 前記カメラ制御部は、前記対象設備情報により前記撮影対象物の特定された撮影箇所を撮影するとき、前記対象設備情報が有する色、材質、ならびに直前に撮影した画像に基づきISO感度、絞り、倍率およびシャッタースピードを調整し、それらの前記カメラの調整値を記録することを特徴とする請求項4乃至9のいずれか一項に記載の自律移動撮影制御システム。   The camera control unit is configured to, when photographing the specified photographing location of the photographing target based on the target facility information, determine an ISO sensitivity, an aperture, and a magnification based on a color, a material, and an image captured immediately before the target facility information. The autonomous mobile photography control system according to any one of claims 4 to 9, further comprising adjusting a shutter speed and a shutter speed, and recording the adjustment values of the cameras. 前記画像解析部は、異常を検知した場合、異常箇所の位置情報を含む異常検知信号を前記位置制御部および前記カメラ制御部に出力し、
前記位置制御部は、前記異常箇所の撮影位置に移動する指令を生成し、
前記カメラ制御部は、前記異常箇所の撮影位置において、より高倍率で前記異常箇所を撮影し、前記異常箇所の高倍率による撮影開始時間、撮影終了時間、撮影開始位置、撮影終了位置、前記カメラの調整値、前記異常箇所の画像を記録することを特徴とする請求項10に記載の自律移動撮影制御システム。
The image analysis unit, when detecting an abnormality, outputs an abnormality detection signal including position information of an abnormal part to the position control unit and the camera control unit,
The position control unit generates a command to move to the imaging position of the abnormal location,
The camera control unit, at the imaging position of the abnormal location, captures the abnormal location at a higher magnification, the imaging start time, the imaging end time, the imaging start position, the imaging end position, the imaging end time at a higher magnification of the abnormal location The autonomous mobile radiographing control system according to claim 10, wherein an adjustment value of (i) and an image of the abnormal part are recorded.
前記画像解析部は、前記撮影対象物の画像のフレーム各辺に対する傾き角度を算出し、前記傾き角度に基づき前記自律移動体と前記撮影対象物との相対方位を補正することを特徴とする請求項8乃至11のいずれか一項に記載の自律移動撮影制御システム。   The image analysis unit calculates an angle of inclination of each side of a frame of an image of the object to be photographed, and corrects a relative orientation between the autonomous mobile body and the object to be photographed based on the angle of inclination. Item 12. The autonomous mobile imaging control system according to any one of Items 8 to 11. 前記経路形成部は、前記撮影対象物が複数ある場合、前記撮影対象物の1つの撮影が完了すると、前記IMU部から取得した方位の情報および前記衛星測位部および前記高度計測センサから取得した前記自位置情報から撮影が完了していない他の撮影対象物の前記撮影場所の位置情報が示す撮影開始位置までの経路を、前記対象設備情報をもとに前記撮影対象物への衝突を回避するように生成することを特徴とする請求項4乃至12のいずれか一項に記載の自律移動撮影制御システム。   The path forming unit, when there is a plurality of the imaging target, when one imaging of the imaging target is completed, the information of the azimuth obtained from the IMU unit and the information obtained from the satellite positioning unit and the altitude measurement sensor A route to a shooting start position indicated by the position information of the shooting location of another shooting target whose shooting is not completed based on the own location information is avoided based on the target facility information to avoid a collision with the shooting target. The autonomous mobile photography control system according to any one of claims 4 to 12, wherein the autonomous mobile photography control system is generated as described above. 前記位置制御部が生成する各前記指令は、速度ベクトルであり、前記統合指令は、前記速度ベクトルを合成したものであることを特徴とする請求項3乃至13のいずれか一項に記載の自律移動撮影制御システム。   The autonomous device according to any one of claims 3 to 13, wherein each of the commands generated by the position control unit is a speed vector, and the integrated command is a combination of the speed vectors. Mobile shooting control system. 前記高度計測センサは、気圧センサ及びLIDARセンサの少なくともいずれか一方を含むことを特徴とする請求項1乃至13のいずれか一項に記載の自律移動撮影制御システム。   14. The autonomous mobile photography control system according to claim 1, wherein the altitude measurement sensor includes at least one of a barometric pressure sensor and a LIDAR sensor. 駆動部を有して自律的に移動可能な自律移動体であって、
前記自律移動体に搭載されたカメラと、
前記自律移動体の姿勢と方位を計測するIMU部と、
前記自律移動体の水平方向および鉛直方向の位置を測位する衛星測位センサと、
前記自律移動体の鉛直方向の位置を測位する高度計測センサと、
前記自律移動体周囲の障害物との離隔を計測する障害物計測センサと、
前記自律移動体周囲の電磁界を計測する電磁界センサと、
前記自律移動体と前記自律移動体周囲の撮影対象物との相対位置および相対角度を計測する測距センサと、
前記相対位置に基づき前記カメラの焦点を調整して前記撮影対象物を撮影するカメラ制御部と、
前記カメラで撮影した画像を解析する画像解析部であって、前記カメラで撮影した複数の画像を連結して前記撮影対象物全体の画像を合成する画像解析部と、
前記画像解析部における前記カメラで撮影した画像の解析結果を記録する解析記録部と、
前記各センサおよび前記各部の情報に基づき前記自律移動体の位置を制御する位置制御部と、
二周波かつ見通し外の無線通信で前記各センサおよび前記各部の情報を伝送する通信モジュールと、
を備えたことを特徴とする自律移動体。
An autonomous mobile body having a driving unit and capable of autonomously moving,
A camera mounted on the autonomous mobile body,
An IMU unit for measuring the attitude and orientation of the autonomous mobile body,
A satellite positioning sensor for positioning the horizontal and vertical positions of the autonomous mobile body,
An altitude measurement sensor that measures the vertical position of the autonomous mobile body,
An obstacle measurement sensor that measures a distance from an obstacle around the autonomous mobile body,
An electromagnetic field sensor that measures an electromagnetic field around the autonomous moving body,
A distance measuring sensor that measures a relative position and a relative angle between the autonomous moving body and a shooting target around the autonomous moving body,
A camera control unit that adjusts the focus of the camera based on the relative position and shoots the shooting target.
An image analysis unit that analyzes an image captured by the camera, an image analysis unit that combines a plurality of images captured by the camera and synthesizes an image of the entire imaging target,
An analysis recording unit that records an analysis result of an image captured by the camera in the image analysis unit,
A position control unit that controls the position of the autonomous mobile body based on the information of the sensors and the units;
A communication module that transmits the information of each of the sensors and the respective units by dual-frequency and non-line-of-sight wireless communication,
An autonomous mobile body comprising:
JP2018116366A 2018-06-19 2018-06-19 Autonomous mobile shooting control system and autonomous mobile body Active JP6719738B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018116366A JP6719738B2 (en) 2018-06-19 2018-06-19 Autonomous mobile shooting control system and autonomous mobile body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018116366A JP6719738B2 (en) 2018-06-19 2018-06-19 Autonomous mobile shooting control system and autonomous mobile body

Publications (2)

Publication Number Publication Date
JP2019219874A true JP2019219874A (en) 2019-12-26
JP6719738B2 JP6719738B2 (en) 2020-07-08

Family

ID=69096654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018116366A Active JP6719738B2 (en) 2018-06-19 2018-06-19 Autonomous mobile shooting control system and autonomous mobile body

Country Status (1)

Country Link
JP (1) JP6719738B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021231219A1 (en) * 2020-05-11 2021-11-18 Canon U.S.A., Inc. An unmanned autonomous vehicle and method for controlling the same
CN114040072A (en) * 2021-11-08 2022-02-11 Oppo广东移动通信有限公司 Camera mechanism, driving method thereof and electronic equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016082441A (en) * 2014-10-17 2016-05-16 ソニー株式会社 Controller, control method and computer program
JP2016535879A (en) * 2014-05-30 2016-11-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd System and method for UAV docking
JP2016203978A (en) * 2015-04-23 2016-12-08 パロット ドローンズ System for piloting a drone in immersed state
JP2016540453A (en) * 2013-09-26 2016-12-22 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Data communication system and method
WO2017029982A1 (en) * 2015-08-14 2017-02-23 ソニー株式会社 Moving body, information processing device, moving body system, information processing method, and information processing program
WO2017150433A1 (en) * 2016-03-02 2017-09-08 日本電気株式会社 Unmanned air vehicle, unmanned air vehicle control system, flight control method, and program storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016540453A (en) * 2013-09-26 2016-12-22 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Data communication system and method
JP2016535879A (en) * 2014-05-30 2016-11-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd System and method for UAV docking
JP2016082441A (en) * 2014-10-17 2016-05-16 ソニー株式会社 Controller, control method and computer program
JP2016203978A (en) * 2015-04-23 2016-12-08 パロット ドローンズ System for piloting a drone in immersed state
WO2017029982A1 (en) * 2015-08-14 2017-02-23 ソニー株式会社 Moving body, information processing device, moving body system, information processing method, and information processing program
WO2017150433A1 (en) * 2016-03-02 2017-09-08 日本電気株式会社 Unmanned air vehicle, unmanned air vehicle control system, flight control method, and program storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021231219A1 (en) * 2020-05-11 2021-11-18 Canon U.S.A., Inc. An unmanned autonomous vehicle and method for controlling the same
CN114040072A (en) * 2021-11-08 2022-02-11 Oppo广东移动通信有限公司 Camera mechanism, driving method thereof and electronic equipment

Also Published As

Publication number Publication date
JP6719738B2 (en) 2020-07-08

Similar Documents

Publication Publication Date Title
US10273000B2 (en) Control of image triggering for aerial image capturing in nadir alignment for an unmanned aircraft
CN109665099B (en) Unmanned aerial vehicle and overhead line shooting method
JP5775632B2 (en) Aircraft flight control system
EP2879371A1 (en) System for following an object marked by a tag device with a camera
CN111953892B (en) Unmanned aerial vehicle and inspection method
JP2006027448A (en) Aerial photographing method and device using unmanned flying body
JP2006027331A (en) Method for collecting aerial image information by utilizing unmanned flying object
FI3596570T4 (en) Method for determining a path along an object, system and method for automatic inspecting an object
WO2020172800A1 (en) Patrol control method for movable platform, and movable platform
US20200145568A1 (en) Electro-optical imager field of regard coverage using vehicle motion
WO2019230604A1 (en) Inspection system
JP7362203B2 (en) unmanned moving body
JP2019144804A5 (en)
JP6719738B2 (en) Autonomous mobile shooting control system and autonomous mobile body
CN112985359B (en) Image acquisition method and image acquisition equipment
JP6681101B2 (en) Inspection system
JP2005289127A (en) Posture and position controlling system and posture and position controlling device for flying device
JP2009118375A (en) Aerial photography device, aerial photographic system and image correction method of aerial photograph
KR101541783B1 (en) Production apparatus to make time-lapse image and method thereof
CN111630466A (en) Information processing device, flight control method, and flight control system
JP7012522B2 (en) Measurement system, measurement instruction device, and program
JP7468523B2 (en) MOBILE BODY, POSITION ESTIMATION METHOD, AND PROGRAM
JP2019018664A (en) Imaging control system
JP2009086471A (en) Overhead wire photographing system and method
KR102149494B1 (en) Structure inspection system and method using dron

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180619

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180712

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190513

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20190513

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190521

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20190528

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20190614

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20190618

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20191105

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200225

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20200325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200401

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20200421

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20200526

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200602

R150 Certificate of patent or registration of utility model

Ref document number: 6719738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250