JP2020131768A - Maneuvering system, maneuvering device, maneuvering control method, and program - Google Patents

Maneuvering system, maneuvering device, maneuvering control method, and program Download PDF

Info

Publication number
JP2020131768A
JP2020131768A JP2019024015A JP2019024015A JP2020131768A JP 2020131768 A JP2020131768 A JP 2020131768A JP 2019024015 A JP2019024015 A JP 2019024015A JP 2019024015 A JP2019024015 A JP 2019024015A JP 2020131768 A JP2020131768 A JP 2020131768A
Authority
JP
Japan
Prior art keywords
moving body
unit
image
maneuvering
surrounding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2019024015A
Other languages
Japanese (ja)
Inventor
正豪 原島
Masatake Harashima
正豪 原島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019024015A priority Critical patent/JP2020131768A/en
Publication of JP2020131768A publication Critical patent/JP2020131768A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To solve the problem that a maneuverer is unable to perform maneuvering on grasping a circumferential situation of an object to be maneuvered.SOLUTION: The present invention relates to a maneuvering system having a moving body and a maneuvering device for remotely maneuvering the moving body. The moving body has a circumference information acquisition part which measures information on a circumference of the moving body, and a transmission part which transmits the circumference information measured by the circumference information acquisition part to the maneuvering device. The maneuvering device has a reception part which received the circumference information, an operation part which receives an operation for maneuvering the moving body, and a force sense imparting part which imparts force sense to the operation based upon the received circumference information.SELECTED DRAWING: Figure 6

Description

本開示内容は、操縦システム、操縦装置、操縦制御方法、及びプログラムに関する。 The present disclosure relates to a maneuvering system, a maneuvering device, a maneuvering control method, and a program.

高所や狭所、有害物質の発生個所などの構造物について、遠隔操作可能な装値を構造物に近づけて検査する検査システムが知られている。 An inspection system is known that inspects a structure such as a high place, a narrow place, or a place where a harmful substance is generated by bringing a remote-controlled reading value close to the structure.

たとえば特許文献1には、遠隔操作により空中浮揚させる浮遊手段を備えた無人浮遊機と、前記無人浮遊機を操縦する操縦装置と、を備え、前記無人浮遊機は、検査対象物の被検査情報を取得する取得手段と、当該無人浮遊機の飛行状態を検出する飛行状態検出手段と、検出した前記飛行状態を前記操縦装置に送信する送信手段と、を有し、前記操縦装置は、前記無人浮遊機の操縦者に対して力覚又は聴覚にて報知を行う伝達手段と、前記無人浮遊機から受信した飛行状態に応じた動作態様で前記伝達手段を動作させる制御手段と、を有することを特徴とする検査システムが記載されている。 For example, Patent Document 1 includes an unmanned floating machine provided with a floating means for levitating in the air by remote operation, and a control device for operating the unmanned floating machine. The unmanned floating machine provides information to be inspected for an object to be inspected. The flight state detecting means for detecting the flight state of the unmanned levitation aircraft, and the transmitting means for transmitting the detected flight state to the control device, the control device includes the unmanned control device. Having a transmission means for notifying the operator of the levitation machine by force or hearing, and a control means for operating the transmission means in an operation mode according to a flight state received from the unmanned levitation machine. The featured inspection system is described.

しかしながら、特許文献1に記載の検査システムでは、無人浮遊機の飛行状態を検出しているが、無人浮遊機の周囲の状態は検出していない。 However, the inspection system described in Patent Document 1 detects the flight state of the unmanned float, but does not detect the state around the unmanned float.

したがって、操縦する対象の周囲状況を操縦者が把握して操縦ができないという課題が生じている。 Therefore, there is a problem that the operator cannot grasp the surrounding conditions of the object to be operated and operate the aircraft.

上述した課題を解決すべく、請求項1に係る発明は、移動体と、前記移動体を遠隔から操縦する操縦装置と、を有する操縦システムであって、前記移動体は、前記移動体の周囲の情報を計測する周囲情報取得部と、前記周囲情報取得部によって計測された周囲情報を前記操縦装置に送信する送信部と、を有し、前記操縦装置は、前記周囲情報を受信する受信部と、前記移動体を操縦するための操作を受け付ける操作部と、前記受信された周囲情報に基づいて、前記操作に対して力覚を与える力覚付与部と、を有する操縦システムである。 In order to solve the above-mentioned problems, the invention according to claim 1 is a control system including a moving body and a control device for remotely controlling the moving body, wherein the moving body is around the moving body. The control device has a surrounding information acquisition unit that measures the information of the surroundings and a transmission unit that transmits the surrounding information measured by the surrounding information acquisition unit to the control device, and the control device receives the surrounding information. The control system includes an operation unit that receives an operation for manipulating the moving body, and a force sense imparting unit that gives a force sense to the operation based on the received surrounding information.

本発明によれば、移動体の操縦者が、操縦する対象の周囲状況をより正確に把握して操縦することができるという効果を奏する。 According to the present invention, there is an effect that the operator of the moving body can more accurately grasp and operate the surrounding conditions of the object to be operated.

第1の実施形態に係る操縦システムの全体構成説明図である。It is explanatory drawing of the whole structure of the control system which concerns on 1st Embodiment. 第1の実施形態に係る移動体の外観図である。It is an external view of the moving body which concerns on 1st Embodiment. 第1の実施形態に係る移動体のハードウェア構成図である。It is a hardware block diagram of the moving body which concerns on 1st Embodiment. 第1の実施形態に係る操縦装置の外観図である。It is an external view of the control device which concerns on 1st Embodiment. 第1の実施形態に係る操縦装置のハードウェア構成図である。It is a hardware block diagram of the control device which concerns on 1st Embodiment. 第1の実施形態にかかる操縦システムの機能ブロック図である。It is a functional block diagram of the control system which concerns on 1st Embodiment. 操縦処理を示すフローチャートである。It is a flowchart which shows the maneuvering process. 周囲情報送信処理を示すフローチャートである。It is a flowchart which shows the ambient information transmission processing. 周囲情報の一例としての距離情報の説明図である。It is explanatory drawing of the distance information as an example of the surrounding information. 力覚付与処理を示すフローチャートである。It is a flowchart which shows the force sense giving process. 第2の実施形態に係る操縦装置の外観図である。It is an external view of the control device which concerns on 2nd Embodiment. 形状画像表示処理を示すフローチャートである。It is a flowchart which shows the shape image display processing. 形状画像生成対象としての橋梁Kの外観図である。It is an external view of the bridge K as a shape image generation target. 形状画像および位置画像の表示例を説明する図である。It is a figure explaining the display example of a shape image and a position image. 入力補助画面の表示例である。This is a display example of the input assistance screen. 入力補助処理を示すフローチャートである。It is a flowchart which shows the input auxiliary processing. 入力補助画像表示処理を示すフローチャートである。It is a flowchart which shows the input auxiliary image display processing.

以下、図面を参照しながら、発明を実施するための形態を説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。 Hereinafter, modes for carrying out the invention will be described with reference to the drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted.

図1は、本実施形態に係る操縦システムの概略図である。 FIG. 1 is a schematic view of a maneuvering system according to the present embodiment.

図1に示されるように、操縦システムS1は、診断システムS2とともに、点検システムS3を構築している。そして本実施形態の操縦システムS1は、移動体1及び操縦装置2によって構築されている。 As shown in FIG. 1, the maneuvering system S1 constructs the inspection system S3 together with the diagnostic system S2. The control system S1 of the present embodiment is constructed by the moving body 1 and the control device 2.

操縦システムS1を構成する移動体1と操縦装置2とは、無線を介して通信することができ、操縦者Oは、操縦装置2を操作することによって、移動体1を操縦することができる。 The moving body 1 and the control device 2 constituting the control system S1 can communicate with each other via radio, and the operator O can control the moving body 1 by operating the control device 2.

なお、本実施形態において移動体1はドローン、マルチコプタ、無人飛行体等の飛行体であり、人では足場を組んだりしなければ届かない橋梁K等のような大型の構造物の検査等に使用可能である。例えば、図1に示される橋梁Kは、橋脚部K1と本体部K2とを有する比較的大型の構造物である。操縦者Oは、移動体1を操縦装置2で操縦して移動させ、カメラやセンサを搭載した移動体1を橋梁Kの所望の箇所に近づけて検査を行うことができる。 In the present embodiment, the moving body 1 is a flying body such as a drone, a multicopter, an unmanned aerial vehicle, etc., and is used for inspection of a large structure such as a bridge K, which cannot be reached by a person without scaffolding. It is possible. For example, the bridge K shown in FIG. 1 is a relatively large structure having a pier portion K1 and a main body portion K2. The operator O can operate the moving body 1 by the control device 2 to move the moving body 1, and bring the moving body 1 equipped with the camera and the sensor closer to a desired portion of the bridge K to perform the inspection.

より具体的には、カメラを搭載した移動体1が、橋梁Kの壁面近くまで飛行し、橋梁Kの壁面を撮像することで、調査のためのデータとして、壁面のひび割れH等の変状部の近接画像を得ることができる。さらには、橋梁Kの壁面近くを飛行しながら、連続して橋梁Kの壁面を撮像することで、位置的に連続した橋梁Kの近接画像を得られる。別途それら近接画像を組み合わせることで、橋梁Kの壁面内における変状部の位置を示す画像(変状展開図)や変状画像等を得ることもできる。またカメラ以外にも移動体1の移動のため、また橋梁Kの状態を検知するための各種センサを搭載していてもよい。 More specifically, the moving body 1 equipped with the camera flies near the wall surface of the bridge K and images the wall surface of the bridge K, so that the data for the investigation is a deformed part such as a crack H on the wall surface. You can get a close-up image of. Furthermore, by continuously imaging the wall surface of the bridge K while flying near the wall surface of the bridge K, a close-up image of the bridge K that is continuously positioned can be obtained. By separately combining these close-up images, it is possible to obtain an image (deformed development view) showing the position of the deformed portion in the wall surface of the bridge K, a deformed image, or the like. In addition to the camera, various sensors for moving the moving body 1 and for detecting the state of the bridge K may be mounted.

検査者は、また検査者に補助者がいる場合には補助者は、変状の様子を示す画像・音声や変状に関するコメントを野帳等に記載したり、場合によっては橋梁K全体や周囲の撮像を行なったりする。野帳は、タブレット型PC等を用いてもよい。 The inspector, and if the inspector has an assistant, the assistant may write images / sounds showing the state of the deformation and comments on the deformation in field notes, etc., and in some cases, the entire bridge K and its surroundings. Or take an image of. As the field note, a tablet-type PC or the like may be used.

次に診断システムS2について説明する。診断システムS2は、診断処理装置3及び診断管理サーバ4によって構築されている。また、診断システムS2を構成する診断処理装置3、及び診断管理サーバ4は、通信ネットワークNを介して通信することができる。通信ネットワークNは、インターネット、移動体通信網、LAN(Local Area Network)等によって構築されている。通信ネットワークNには、有線通信だけでなく、3G(3rd Generation)、4G(4th Generation)、5G(5th Generation)、WiMAX(Worldwide Interoperability for Microwave Access)、LTE(Long Term Evolution)等の無線通信によるネットワークが含まれてもよい。また、診断処理装置3は、NFC(Near Field Communication)(登録商標)等の近距離通信技術によって通信可能である。 Next, the diagnostic system S2 will be described. The diagnostic system S2 is constructed by the diagnostic processing device 3 and the diagnostic management server 4. Further, the diagnostic processing device 3 and the diagnostic management server 4 constituting the diagnostic system S2 can communicate with each other via the communication network N. The communication network N is constructed by the Internet, a mobile communication network, a LAN (Local Area Network), and the like. Communication network N includes not only wired communication, but also 3G (3rd Generation), 4G (4th Generation), 5G (5th Generation), WiMAX (Worldwide Interoperability for Microwave Access), LTE (Long Radio), etc. The network may be included. Further, the diagnostic processing device 3 can communicate by a short-range communication technique such as NFC (Near Field Communication) (registered trademark).

移動体1により得られた橋梁Kの画像のデータ、及び各センサから得られた各検出データは、診断処理装置3を介して、診断管理サーバ4に送信され、この診断管理サーバ4で管理可能である。 The image data of the bridge K obtained by the moving body 1 and the detected data obtained from each sensor are transmitted to the diagnostic management server 4 via the diagnostic processing device 3 and can be managed by the diagnostic management server 4. Is.

橋梁だけでなく、ダムやビル等の建造物は、コンクリートで覆工されているため、経年変化により、ひび割れ等の変状が起こる。このまま放置しておくと、コンクリート片が剥がれ落ちて、通行中の車両や人に損害を与える可能性がある。そのため、検査業者が、定期的な検査を行い、国又は都道府県の機関(以下「国等」と示す)に検査結果を報告している。この報告をするため、検査業者は、国や自治体によって定められた書類を提出する必要がある。 Since not only bridges but also structures such as dams and buildings are covered with concrete, deformation such as cracks occurs due to aging. If left as it is, the concrete pieces may come off and damage vehicles and people in transit. Therefore, the inspector conducts regular inspections and reports the inspection results to the national or prefectural organizations (hereinafter referred to as "countries, etc."). In order to make this report, the inspector must submit the documents required by the national and local governments.

検査業者は、検査の際に記載されたコメント等の野帳、建造物の変状部分を撮像することで得られた変状写真、及び、建造部を特定する情報を記載する役所から入手する台帳等に基づいて、国等への提出書類を作成する。 The inspector obtains from a field note such as comments written at the time of inspection, a photograph of the deformation obtained by photographing the deformed part of the building, and a government office that describes information identifying the building part. Prepare documents to be submitted to the national government based on the ledger.

また、診断処理装置3は、変状の判定結果を含む診断情報、診断対象画像および診断領域等の、各種データ入力を行なうためのコンピュータ(情報処理装置)であり、描画用の専用アプリケーションプログラムがインストールされている。診断処理装置3の利用者は、野帳等のコメント、構造物の一例としての橋梁Kの画像のデータ、及び各センサの検出データを診断処理装置3に入力する。なお、他の装置に入力後、他の装置から診断処理装置3にデータを転送してもよい。更に、診断処理装置3の利用者は、国等から入手した橋梁等を特定する台帳のデータを、診断処理装置3に入力する。台帳には、橋梁等の長さや高さ等が記載されている。この場合、診断処理装置3は、入力装置である。 Further, the diagnostic processing device 3 is a computer (information processing device) for inputting various data such as diagnostic information including a determination result of deformation, a diagnosis target image, a diagnostic area, and the like, and a dedicated application program for drawing is provided. It is installed. The user of the diagnostic processing device 3 inputs comments such as field notes, image data of the bridge K as an example of the structure, and detection data of each sensor into the diagnostic processing device 3. After inputting to another device, data may be transferred from the other device to the diagnostic processing device 3. Further, the user of the diagnostic processing device 3 inputs the data of the ledger for identifying the bridge or the like obtained from the national government or the like into the diagnostic processing device 3. The length and height of bridges, etc. are recorded in the ledger. In this case, the diagnostic processing device 3 is an input device.

更に、診断処理装置3には、ブラウザが搭載されており、診断処理装置3は、診断管理サーバ4から送られて来る展開画像を表示することができる。また、診断処理装置3の利用者は、展開画像上に表されているひび割れ等の変状部分の上から線等の描画を行うことで、画像である変状部分の位置の数値化などを行う。 Further, the diagnostic processing device 3 is equipped with a browser, and the diagnostic processing device 3 can display the expanded image sent from the diagnostic management server 4. In addition, the user of the diagnostic processing device 3 draws a line or the like from above the deformed portion such as a crack shown on the developed image to quantify the position of the deformed portion which is an image. Do.

診断処理装置3の利用者は、診断管理サーバ4から、変状部分の描画を行うことで作成した変状展開図を含む提出書類のデータをダウンロードして、印刷した書類又は印刷しない状態のデータを、国等に対して提出する。 The user of the diagnostic processing device 3 downloads the data of the submitted document including the deformed development drawing created by drawing the deformed part from the diagnostic management server 4, and prints the document or the data in the non-printed state. To the government, etc.

診断管理サーバ4は、展開画像、コメント、及び台帳等のデータの管理を行う。また、診断管理サーバ4は、診断処理装置3で描画されたひび割れ等の変状部分を数値化したデータの管理、及び画像における座標データの管理等を行う。 The diagnostic management server 4 manages data such as expanded images, comments, and ledgers. In addition, the diagnostic management server 4 manages data in which deformed portions such as cracks drawn by the diagnostic processing device 3 are quantified, and manages coordinate data in images.

図2は、第1の実施形態に係る移動体1の外観の一例について説明する。図2は、第1の実施形態に係る移動体1の概略構成図である。(A)は移動体1の平面図、(B)は(A)の左側面図、(C)は(A)の正面図である。なお、図2に示す外観構成は、各実施形態において同様の構成を備えていてもよく、必要に応じて構成要素が追加または削除されてもよい。 FIG. 2 describes an example of the appearance of the moving body 1 according to the first embodiment. FIG. 2 is a schematic configuration diagram of the moving body 1 according to the first embodiment. (A) is a plan view of the moving body 1, (B) is a left side view of (A), and (C) is a front view of (A). The appearance configuration shown in FIG. 2 may have the same configuration in each embodiment, and components may be added or deleted as needed.

移動体1は、フレーム101と、駆動装置102と、回転翼103と、脚部104と、とを有する遠隔操縦式の飛行体である。 The moving body 1 is a remote-controlled flying body having a frame 101, a driving device 102, a rotary wing 103, and a leg portion 104.

そして、移動体1は、被写体を撮像して撮像画像を取得する撮像装置105を有する移動可能な撮像装置である。撮像装置105は、移動体1の周囲の一部を撮影して平面画像を取得する単眼カメラであってもよいし、移動体1の周囲を撮影して全天球(360°)パノラマ画像を取得する特殊撮影装置であってもよい。また、取得される画像は、動画であっても静止画であってもよく、動画と静止画の両方であってもよい。さらに、取得される画像は、画像とともに音データを含んだ映像であってもよい。撮像装置105は撮像部の一例である。 The moving body 1 is a movable imaging device having an imaging device 105 that images a subject and acquires an captured image. The image pickup device 105 may be a monocular camera that captures a part of the periphery of the moving body 1 to acquire a plane image, or captures the periphery of the moving body 1 to obtain a spherical (360 °) panoramic image. It may be a special photographing device to be acquired. Further, the acquired image may be a moving image or a still image, and may be both a moving image and a still image. Further, the acquired image may be an image including sound data together with the image. The image pickup apparatus 105 is an example of an image pickup unit.

移動体1の飛行や撮像等の処理または動作は制御装置100によって制御される。 The processing or operation of the moving body 1 such as flight and imaging is controlled by the control device 100.

フレーム101は、図3(A)に示すように、ウエブ部101aと、ウエブ部101aの両端部に配置されたフランジ部101bとが平面視においてH型の形状となるように配置されている。 しかし、フレーム101はこの限りではなく、移動体1の中心から放射状に伸び、互いに直角をなすようにX字状に設けられた4本のアームを有する構成としてよい。また、駆動装置102と回転翼103の数だけ中心から放射状にアームが伸びた構造であってよい。 As shown in FIG. 3A, the frame 101 is arranged so that the web portion 101a and the flange portions 101b arranged at both ends of the web portion 101a have an H-shape in a plan view. However, the frame 101 is not limited to this, and may have a configuration having four arms extending radially from the center of the moving body 1 and provided in an X shape so as to form a right angle to each other. Further, the arm may extend radially from the center by the number of the drive device 102 and the rotary blade 103.

駆動装置102は、回転翼103を回転させるモータであり、ブラシレスモータが好ましい。駆動装置102は、2本のフランジ部101bの先端部の各々に取り付けられ、回転翼103の回転軸と連結されている。各駆動装置102は、制御装置100により、互いに独立して制御される。制御装置100は制御部の一例である。 The drive device 102 is a motor that rotates the rotary blade 103, and a brushless motor is preferable. The drive device 102 is attached to each of the tip portions of the two flange portions 101b and is connected to the rotation shaft of the rotary blade 103. Each drive device 102 is controlled independently of each other by the control device 100. The control device 100 is an example of a control unit.

回転翼103は、各駆動装置102のそれぞれに取り付けられており、駆動装置102の駆動により回転する。回転翼103は、各駆動装置102の駆動が独立して制御されることで、その回転速度が調整される。 回転翼103の数としては、図示例の4個に限定されるものではなく、3以上であれば飛行体として安定した飛行ができるよう機能し、さらには4、6、8のような偶数であることが望ましい。また、回転翼103は、図3(A)に示すように、略同一平面上に複数の回転翼103が配置される形態に限定されるものではなく、略同一平面上に配置された複数の回転翼103が多段に積層される形態であってもよい。 The rotary blade 103 is attached to each of the drive devices 102, and is rotated by the drive of the drive device 102. The rotation speed of the rotary blade 103 is adjusted by independently controlling the drive of each drive device 102. The number of rotors 103 is not limited to four in the illustrated example, but if it is 3 or more, it functions so that stable flight can be performed as an air vehicle, and even numbers such as 4, 6 and 8 are used. It is desirable to have. Further, as shown in FIG. 3A, the rotary blade 103 is not limited to a form in which a plurality of rotary blades 103 are arranged on substantially the same plane, and a plurality of rotary blades 103 arranged on substantially the same plane. The rotary blades 103 may be stacked in multiple stages.

脚部104は、2本のフランジ部101bの略中央位置の下面と連結されている。脚部104は、下側部が逆V字形状に形成されて、移動体1が地面に着陸した際等に移動体1を衝撃から保護する。 The leg portion 104 is connected to the lower surface of the two flange portions 101b at a substantially central position. The lower portion of the leg portion 104 is formed in an inverted V shape to protect the moving body 1 from impact when the moving body 1 lands on the ground.

制御装置100は、フレーム101のウエブ部101aの下面側に取り付けられている。制御装置100は、目的に応じて設置された各種のセンサからの信号や、外部から送信される操縦信号に応じて駆動装置102の駆動を制御する。 The control device 100 is attached to the lower surface side of the web portion 101a of the frame 101. The control device 100 controls the drive of the drive device 102 according to signals from various sensors installed according to the purpose and control signals transmitted from the outside.

また、制御装置100は、各駆動装置102の駆動を独立して制御することで各々の回転翼103の回転速度を独立に制御し、移動体1を上昇、下降、前進、後退、水平回転の各方向へと移動、また空中へ移動してホバリング(停止飛行)させる。 Further, the control device 100 independently controls the rotation speed of each rotor 103 by independently controlling the drive of each drive device 102, and moves the moving body 1 up, down, forward, backward, and horizontally. Move in each direction and move into the air to hover (stop flight).

撮像装置105は、制御装置100からの信号により画像を取得するカメラである。撮像装置105は、フレーム101のウエブ部101aに固定されている。 The image pickup device 105 is a camera that acquires an image by a signal from the control device 100. The image pickup apparatus 105 is fixed to the web portion 101a of the frame 101.

本実施形態の撮像装置105は、移動体1の飛行時に光軸が略水平になるよう設置された第1撮像装置105aと、移動体1の飛行時に光軸が略鉛直上向きになるよう設置された第2撮像装置105bを有している。 The image pickup device 105 of the present embodiment is installed so that the first image pickup device 105a is installed so that the optical axis is substantially horizontal when the moving body 1 is flying, and the optical axis is substantially vertically upward when the moving body 1 is flying. It also has a second imaging device 105b.

上記の構成により、橋梁Kの側面のような垂直部分を第1撮像装置105aで撮像し、橋梁Kの裏側を第2撮像装置105bで撮像することができる。 With the above configuration, a vertical portion such as the side surface of the bridge K can be imaged by the first imaging device 105a, and the back side of the bridge K can be imaged by the second imaging device 105b.

本実施形態の測距センサ106は、移動体1と周囲の構造物との距離を検知するセンサである。測距センサ106は、移動体1の水平方向の略中央に設置されている。測距センサは、例えば、TOF(Time Of Flight)センサ、LIDAR(Light Detection and Ranging)センサ等であるがこれらに限られない。 The distance measuring sensor 106 of the present embodiment is a sensor that detects the distance between the moving body 1 and the surrounding structure. The distance measuring sensor 106 is installed at substantially the center of the moving body 1 in the horizontal direction. The range finder is, for example, a TOF (Time Of Flight) sensor, a LIDAR (Light Detection and Ranking) sensor, and the like, but is not limited thereto.

次に、図3を用いて、実施形態における移動体1のハードウェア構成を説明する。なお、図3に示すハードウェア構成は、各実施形態において同様の構成を備えていてもよく、必要に応じて構成要素が追加または削除されてもよい。 Next, the hardware configuration of the moving body 1 in the embodiment will be described with reference to FIG. The hardware configuration shown in FIG. 3 may have the same configuration in each embodiment, and components may be added or deleted as needed.

移動体1は、移動体1の処理または動作を制御する制御装置100を備える。制御装置100は、上述のように、移動体1内部に備えられている。なお、制御装置100は、移動体1の外部に設けられてもよく、または移動体1とは別の装置として設けられていてもよい。制御装置100は、情報処理装置の一例である。 The moving body 1 includes a control device 100 that controls the processing or operation of the moving body 1. As described above, the control device 100 is provided inside the moving body 1. The control device 100 may be provided outside the moving body 1, or may be provided as a device separate from the moving body 1. The control device 100 is an example of an information processing device.

制御装置100は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、HDD(Hard Disk Drive)14、無線I/F(Inter Face)15、メディアI/F16、ネットワークI/F17、拡張I/F18およびバスライン19を有する。その他、音入出力I/Fなどを有していてもよい。 The control device 100 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an HDD (Hard Disk Drive) 14, a wireless I / F (Inter Face) 15, and a media I / F. It has an F16, a network I / F17, an extended I / F18 and a bus line 19. In addition, it may have a sound input / output I / F and the like.

CPU11は、移動体1全体の制御を行う。CPU11は、ROM12またはHD(Hard Disk)14a等に格納された、プログラムもしくはデータをRAM13上に読み出し、処理を実行することで、移動体1の各機能を実現する演算装置である。制御システムS2は、例えば、本発明に係るプログラムの一部または全てをCPU11で実行することによって、本発明に係る操縦制御方法等の情報処理方法を実現する。 The CPU 11 controls the entire moving body 1. The CPU 11 is an arithmetic unit that realizes each function of the moving body 1 by reading a program or data stored in a ROM 12 or an HD (Hard Disk) 14a or the like on a RAM 13 and executing a process. The control system S2 realizes an information processing method such as a steering control method according to the present invention by, for example, executing a part or all of the program according to the present invention on the CPU 11.

RAM13は、CPU11のワークエリア等として用いられる揮発性のメモリである。ROM12は、電源を切ってもプログラムまたはデータを保持することができる不揮発性のメモリである。HDD14は、CPU11の制御にしたがってHD14aに対する各種データの読み出し、または書き込みを制御する。HD14aは、プログラム等の各種データを記憶する。 The RAM 13 is a volatile memory used as a work area or the like of the CPU 11. The ROM 12 is a non-volatile memory capable of holding a program or data even when the power is turned off. The HDD 14 controls reading or writing of various data to the HD 14a according to the control of the CPU 11. The HD14a stores various data such as programs.

無線I/F15は、操縦装置2と無線通信するための通信インターフェースである。 The wireless I / F15 is a communication interface for wireless communication with the control device 2.

メディアI/F16は、USB(Universal Serial Bus)メモリ、メモリカード、光学ディスクまたはフラッシュメモリ等の記録メディア17aに対するデータの読み出しまたは書き込み(記憶)を制御する。 The media I / F16 controls reading or writing (storage) of data to a recording medium 17a such as a USB (Universal Serial Bus) memory, a memory card, an optical disk, or a flash memory.

ネットワークI/F17は、例えば、有線または無線LAN(Local Area Network)等の通信インターフェースである。また、ネットワークI/F17は、3G(3rd Generation)、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation)、Zigbee(登録商標)、BLE(Bluetooth(登録商標)Low Energy)、ミリ波無線通信の通信インターフェースを備えてもよい。 The network I / F17 is, for example, a communication interface such as a wired or wireless LAN (Local Area Network). In addition, network I / F17 includes 3G (3rd Generation), LTE (Long Term Evolution), 4G (4th Generation), 5G (5th Generation), Zigbee (registered trademark), BLE (Bluetooth (registered trademark) Low Energy), and so on. A communication interface for millimeter-wave wireless communication may be provided.

さらに、制御装置100には、拡張I/F18を介して、上述した駆動装置102、撮影装置105、測距センサ106が接続されている。さらに測距センサ以外の各種センサ107、GPS(Global Positioning System)受信部108、タイマ109が接続されている。 Further, the drive device 102, the photographing device 105, and the distance measuring sensor 106 described above are connected to the control device 100 via the extended I / F 18. Further, various sensors 107 other than the distance measuring sensor, a GPS (Global Positioning System) receiving unit 108, and a timer 109 are connected.

駆動装置102は、CPU11からの命令に基づき、回転翼103を回転駆動させて移動体1を飛行させて移動させる。各種センサ107は、例えば、飛行機能に用いられる、地磁気を検知する電子磁気コンパス、ジャイロコンパスおよび加速度センサ等のセンサである。その他気圧計、温度計、光度計、人感センサ、または照度計等が設けられてもよい。GPS受信部108は、GPS衛星からGPS信号を受信する。タイマ109は、時間計測機能を有する計測装置である。タイマ109は、コンピュータによるソフトタイマであってもよい。 Based on the command from the CPU 11, the drive device 102 rotationally drives the rotary blade 103 to fly and move the moving body 1. The various sensors 107 are, for example, sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor that detect the geomagnetism used for the flight function. In addition, a barometer, a thermometer, a photometer, a motion sensor, an illuminance meter, or the like may be provided. The GPS receiving unit 108 receives GPS signals from GPS satellites. The timer 109 is a measuring device having a time measuring function. The timer 109 may be a computer soft timer.

バスライン19は、上記各構成要素を電気的に接続するためのアドレスバスやデータバス等であり、アドレス信号、データ信号、および各種制御信号等を伝送する。CPU11、ROM12、RAM13、HDD14、無線I/F15、メディアI/F16、ネットワークI/F17、拡張I/F18は、バスライン19介して相互に接続されている。 The bus line 19 is an address bus, a data bus, or the like for electrically connecting each of the above components, and transmits an address signal, a data signal, various control signals, and the like. The CPU 11, ROM 12, RAM 13, HDD 14, wireless I / F15, media I / F16, network I / F17, and expansion I / F18 are connected to each other via the bus line 19.

次に、図4を用いて、実施形態における操縦装置2の外観を説明する。 Next, the appearance of the control device 2 in the embodiment will be described with reference to FIG.

図4においては、操縦装置2の特に操作部201の構成について説明する。本実施形態の操作部201は、操縦者O等のユーザが力覚によって入力し、またユーザの操作に対して力覚を与えることが可能な操作部である。ユーザの操作に対して、反力によって制約を与えることが可能なデバイスということもできる。フォースフィードバックデバイス、ハプティックインタフェース等と呼ばれることもある。 In FIG. 4, the configuration of the operation unit 201 of the control device 2 will be described. The operation unit 201 of the present embodiment is an operation unit capable of being input by a user such as the operator O by a force sense and giving a force sense to the user's operation. It can also be said that the device can constrain the user's operation by a reaction force. It is also called a force feedback device, a haptic interface, or the like.

操作部201は、ハンドル部202、関節部203a、203b、203c、接続部204a、204b、回転軸205a、205b、205c、205d、エンコーダ206a、206b、206c、206d、台座207を有する。 The operation unit 201 has a handle portion 202, joint portions 203a, 203b, 203c, connection portions 204a, 204b, rotary shafts 205a, 205b, 205c, 205d, encoders 206a, 206b, 206c, 206d, and a pedestal 207.

図4に示すように、ハンドル部202と、関節部203a、203b、203cは、接続部204a、204bによって接続されている。関節部203cは台座207に設置されている。 As shown in FIG. 4, the handle portion 202 and the joint portions 203a, 203b, 203c are connected by the connecting portions 204a, 204b. The joint portion 203c is installed on the pedestal 207.

各関節部203a、203b、203cはそれぞれ、回転軸205a、205b、205cを有し、ハンドル部202と接続部204aは関節部203aに対して回転し、接続部204aと接続部204bとは関節部203bに対して回転し、接続部204bは関節部203cに対して回転する。台座207は回転軸205dを有し、関節部203cは、台座207に対して回転する。 Each of the joint portions 203a, 203b, 203c has a rotation shaft 205a, 205b, 205c, respectively, the handle portion 202 and the connection portion 204a rotate with respect to the joint portion 203a, and the connection portion 204a and the connection portion 204b are joint portions. It rotates with respect to 203b, and the connection portion 204b rotates with respect to the joint portion 203c. The pedestal 207 has a rotation shaft 205d, and the joint portion 203c rotates with respect to the pedestal 207.

上述の構成により、移動体1への操縦指示のための操作を、ユーザはハンドル部202を動かすことにより位置(X、Y、Z)/姿勢(ロール、ピッチ、ヨー)情報とそれぞれの量を入力することができる。 With the above configuration, the user can perform an operation for maneuvering the moving body 1 by moving the handle portion 202 to obtain position (X, Y, Z) / posture (roll, pitch, yaw) information and their respective amounts. You can enter it.

例えば移動体1が飛行体であった場合、飛行体のスロットル(上下)、飛行体のロール(左右)、ピッチ(前後)、ヨー(旋回)動作を操縦可能である。なお、ハンドル部202は図4のようなレバー型に限られず、スティック型、ペン型などであってもよい。 For example, when the moving body 1 is a flying body, the throttle (up and down), the rolling (left and right), the pitch (front and back), and the yaw (turning) operations of the flying body can be controlled. The handle portion 202 is not limited to the lever type as shown in FIG. 4, and may be a stick type, a pen type, or the like.

そして各エンコーダ206a、206b、206c、206dはそれぞれ、回転軸205a、205b、205c、205dの回転角を計測し、ハンドル部202の位置/姿勢情報を算出する。 Then, each encoder 206a, 206b, 206c, 206d measures the rotation angles of the rotation shafts 205a, 205b, 205c, 205d, respectively, and calculates the position / attitude information of the handle portion 202.

なお、エンコーダやモータは上述の回転タイプに限られず、リニアタイプのものであってもよい。 The encoder and motor are not limited to the above-mentioned rotary type, and may be linear type.

次に、図5を用いて、実施形態における操縦装置2のハードウェア構成を説明する。なお、図5に示すハードウェア構成は、各実施形態において同様の構成を備えていてもよく、必要に応じて構成要素が追加または削除されてもよい。 Next, the hardware configuration of the control device 2 in the embodiment will be described with reference to FIG. The hardware configuration shown in FIG. 5 may have the same configuration in each embodiment, and components may be added or deleted as needed.

操縦装置2は、操縦装置2の処理または動作を制御する制御装置200を備える。制御装置200は、操縦装置2の筐体の内部に備えられている。なお、制御装置200は、操縦装置2の筐体の外部に設けられてもよく、または操縦装置2とは別の装置として設けられていてもよい。制御装置200は、制御部の一例である。 The control device 2 includes a control device 200 that controls the processing or operation of the control device 2. The control device 200 is provided inside the housing of the control device 2. The control device 200 may be provided outside the housing of the control device 2, or may be provided as a device separate from the control device 2. The control device 200 is an example of a control unit.

制御装置200は、CPU(Central Processing Unit)21、ROM(Read Only Memory)22、RAM(Random Access Memory)23、HDD(Hard Disk Drive)24、無線I/F25、操作部I/F26、メディアI/F27、入出力I/F28、拡張I/F29、およびバスライン30を備える。その他音入出力I/F等を有していてもよい。 The control device 200 includes a CPU (Central Processing Unit) 21, a ROM (Read Only Memory) 22, a RAM (Random Access Memory) 23, an HDD (Hard Disk Drive) 24, a wireless I / F25, an operation unit I / F26, and a media I. It includes / F27, input / output I / F28, extended I / F29, and bus line 30. In addition, it may have sound input / output I / F and the like.

CPU21は、操縦装置2全体の制御を行う。CPU21は、ROM22またはHD(Hard Disk)24a等に格納された、プログラムもしくはデータをRAM23上に読み出し、処理を実行することで、操縦装置2の各機能を実現する演算装置である。制御システムS2は、例えば、本発明に係るプログラムの一部または全てをCPU21で実行することによって、本発明に係る操縦制御方法等の情報処理方法を実現する。 The CPU 21 controls the entire control device 2. The CPU 21 is an arithmetic unit that realizes each function of the control device 2 by reading a program or data stored in a ROM 22 or an HD (Hard Disk) 24a or the like onto a RAM 23 and executing processing. The control system S2 realizes an information processing method such as a steering control method according to the present invention by, for example, executing a part or all of the program according to the present invention on the CPU 21.

RAM23は、CPU21のワークエリア等として用いられる揮発性のメモリである。ROM22は、電源を切ってもプログラムまたはデータを保持することができる不揮発性のメモリである。HDD24は、CPU21の制御にしたがってHD24aに対する各種データの読み出し、または書き込みを制御する。HD24aは、プログラム等の各種データを記憶する。 The RAM 23 is a volatile memory used as a work area or the like of the CPU 21. The ROM 22 is a non-volatile memory capable of holding a program or data even when the power is turned off. The HDD 24 controls reading or writing of various data to the HD 24a according to the control of the CPU 21. The HD24a stores various data such as programs.

無線I/F25は、移動体1と無線通信するためのインターフェースである。 The wireless I / F 25 is an interface for wireless communication with the mobile body 1.

操作部I/F26は、エンコーダ206とモータ208と接続され、操作部201を制御するためのインターフェースである。 The operation unit I / F 26 is connected to the encoder 206 and the motor 208, and is an interface for controlling the operation unit 201.

メディアI/F27は、USB(Universal Serial Bus)メモリ、メモリカード、光学ディスクまたはフラッシュメモリ等の記録メディア27aに対するデータの読み出しまたは書き込み(記憶)を制御する。 The media I / F 27 controls reading or writing (storage) of data to a recording medium 27a such as a USB (Universal Serial Bus) memory, a memory card, an optical disk, or a flash memory.

入出力I/F28は、文字、数値、各種指示等を各種外部機器等との間で入出力するためのインターフェースである。入出力I/F28は、LCD(Liquid Crystal Display)等の表示装置であるディスプレイに対する文字または画像等の各種情報の表示を制御する。また、入出力I/F28は、ディスプレイのほかに、例えば、マウス、キーボード等の入力手段が接続され、それらを制御してもよい。 The input / output I / F 28 is an interface for inputting / outputting characters, numerical values, various instructions, etc. to / from various external devices. The input / output I / F28 controls the display of various information such as characters or images on a display which is a display device such as an LCD (Liquid Crystal Display). Further, in addition to the display, the input / output I / F 28 may be connected to input means such as a mouse and a keyboard to control them.

さらに、制御装置200には、拡張I/F29を介して、タイマ209が接続されている。タイマ209は、時間計測機能を有する計測装置である。タイマ209は、コンピュータによるソフトタイマであってもよい。 Further, a timer 209 is connected to the control device 200 via the expansion I / F29. The timer 209 is a measuring device having a time measuring function. The timer 209 may be a soft timer by a computer.

バスライン30は、上記各構成要素を電気的に接続するためのアドレスバスやデータバス等であり、アドレス信号、データ信号、および各種制御信号等を伝送する。CPU21、ROM22、RAM23、HDD24、無線I/F25、操作部I/F26、メディアI/F27、入出力I/F28、拡張I/F29は、バスライン30を介して相互に接続されている。 The bus line 30 is an address bus, a data bus, or the like for electrically connecting each of the above components, and transmits an address signal, a data signal, various control signals, and the like. The CPU 21, ROM 22, RAM 23, HDD 24, wireless I / F 25, operation unit I / F 26, media I / F 27, input / output I / F 28, and expansion I / F 29 are connected to each other via a bus line 30.

操縦装置2はその他に、CPU21の制御に従ってマイクやスピーカとの間で音信号の入出力を処理する音入出力I/F、CPU21の制御に従って通信ネットワークを介して他機器との通信を処理するネットワークI/F等を有していてもよい。 In addition, the control device 2 processes sound input / output I / F that processes sound signal input / output with a microphone or speaker under the control of the CPU 21, and processes communication with other devices via a communication network under the control of the CPU 21. It may have a network I / F or the like.

図6を用いて、まず移動体1の処理または動作を制御する制御装置100の機能構成について説明する。制御装置100によって実現される機能は、送受信部110、操作入力受付部120、移動制御部130、撮像制御部140、周囲情報取得部150、判断部160、記憶・読出部170および記憶部1000を含む。 First, the functional configuration of the control device 100 that controls the processing or operation of the moving body 1 will be described with reference to FIG. The functions realized by the control device 100 include the transmission / reception unit 110, the operation input reception unit 120, the movement control unit 130, the image pickup control unit 140, the surrounding information acquisition unit 150, the judgment unit 160, the storage / reading unit 170, and the storage unit 1000. Including.

送受信部110は、無線通信によって、操縦装置2との間で各種データまたは情報の送受信を行う機能である。送受信部110は、例えば、周囲情報取得部150によって取得された周囲情報を、操縦装置2へ送信する。また、送受信部110は、例えば、操縦装置2から送信されてきた操縦指示を受信する。送受信部110は、主に、図5に示したCPU11の処理、および無線I/F15によって実現される。送受信部110は、送信部の一例である。 The transmission / reception unit 110 is a function of transmitting / receiving various data or information to / from the control device 2 by wireless communication. The transmission / reception unit 110 transmits, for example, the ambient information acquired by the ambient information acquisition unit 150 to the control device 2. Further, the transmission / reception unit 110 receives, for example, a control instruction transmitted from the control device 2. The transmission / reception unit 110 is mainly realized by the processing of the CPU 11 shown in FIG. 5 and the wireless I / F15. The transmission / reception unit 110 is an example of a transmission unit.

操作入力受付部120は、移動体1に対する操作を受け付ける機能である。例えば操縦装置2から受信した操縦指示による操作等を受け付ける。操作入力受付部120は、主に、図5に示したCPU11の処理によって実現される。 The operation input receiving unit 120 is a function of receiving an operation on the moving body 1. For example, it accepts an operation or the like according to a control instruction received from the control device 2. The operation input receiving unit 120 is mainly realized by the processing of the CPU 11 shown in FIG.

移動制御部130は、駆動装置102を駆動させることによって、移動体1の移動を制御する機能である。移動制御部130は、例えば、操縦装置2から送信されてきた操縦指示に応じて駆動装置102の駆動を制御することで、移動体1を移動させる。移動制御部130は、主に、図5に示したCPU11の処理、および拡張I/F18によって実現される。移動制御部130は、移動制御部の一例である。 The movement control unit 130 is a function of controlling the movement of the moving body 1 by driving the driving device 102. The movement control unit 130 moves the moving body 1 by controlling the driving of the driving device 102 in response to a steering instruction transmitted from the control device 2, for example. The movement control unit 130 is mainly realized by the processing of the CPU 11 shown in FIG. 5 and the extended I / F18. The movement control unit 130 is an example of the movement control unit.

撮像制御部140は、撮像装置105に対する撮像処理を指示する機能である。撮像制御部140は、例えば、操縦装置2の操縦指示に基づき撮像装置105による撮像を指示するための指示情報を、撮像装置105へ送信する。撮像制御部140は、主に、図5に示したCPU11の処理、および拡張I/F18によって実現される。 The image pickup control unit 140 is a function of instructing the image pickup device 105 to perform an image pickup process. The image pickup control unit 140 transmits, for example, instruction information for instructing the image pickup by the image pickup device 105 based on the control instruction of the control device 2 to the image pickup device 105. The image pickup control unit 140 is mainly realized by the processing of the CPU 11 shown in FIG. 5 and the extended I / F18.

周囲情報取得部150は、例えば測距センサ106が計測する移動体1と周囲構造物との距離等、移動体1の周囲の情報を取得する機能である。周囲情報取得部150は、周囲情報を計測して取得しており、周囲情報計測部ということもできる。周囲情報は移動体1の周囲情報であれば撮像装置105によって取得された画像データであってもよいし、各種センサによって検知される各種検知結果であってもよい。周囲情報取得部150は、主に、図5に示したCPU11の処理、および拡張I/F18によって実現される。 The surrounding information acquisition unit 150 is a function of acquiring information around the moving body 1 such as the distance between the moving body 1 and the surrounding structure measured by the distance measuring sensor 106. The surrounding information acquisition unit 150 measures and acquires surrounding information, and can also be called a surrounding information measuring unit. The surrounding information may be image data acquired by the image pickup apparatus 105 as long as it is the surrounding information of the moving body 1, or may be various detection results detected by various sensors. The surrounding information acquisition unit 150 is mainly realized by the processing of the CPU 11 shown in FIG. 5 and the extended I / F18.

判断部160は、後述する各種判断をする機能である。判断部160は、主に、図5に示したCPU11の処理によって実現される。 The determination unit 160 is a function for making various determinations, which will be described later. The determination unit 160 is mainly realized by the processing of the CPU 11 shown in FIG.

記憶・読出部170は、記憶部1000に各種データを記憶させ、または記憶部1000から各種データを読み出す機能である。記憶・読出部180主に、図5に示したCPU11の処理によって実現される。記憶部1000は、主に、図5に示したROM12、HD14aおよび記録メディア17aによって実現されるが、RAM13の一時記憶機能によって実現されてもよい。 The storage / reading unit 170 is a function of storing various data in the storage unit 1000 or reading various data from the storage unit 1000. Storage / Reading Unit 180 This is mainly realized by the processing of the CPU 11 shown in FIG. The storage unit 1000 is mainly realized by the ROM 12, HD 14a and the recording medium 17a shown in FIG. 5, but may be realized by the temporary storage function of the RAM 13.

記憶部1000は、遠隔制御に必要な各種設定があらかじめ記憶されている。また、移動体1が動作するに際して取得される各種情報、例えば撮像制御部140によって撮像された画像データや各種センサの検知結果等を記憶可能である。また操縦装置2から受信した操縦命令を一時的に記憶することも可能である。なお、記憶部1000に記憶されている画像データや検知結果等は、取得されてから所定の時間経過した場合に削除される構成であってもよいし、操縦装置2へ送信されたデータが削除される構成であってもよいし、操縦装置2からの操縦指示に基づき、削除される構成であってもよい。 The storage unit 1000 stores various settings required for remote control in advance. In addition, various information acquired when the moving body 1 operates, for example, image data captured by the image pickup control unit 140, detection results of various sensors, and the like can be stored. It is also possible to temporarily store the control command received from the control device 2. The image data, the detection result, etc. stored in the storage unit 1000 may be deleted when a predetermined time has elapsed since they were acquired, or the data transmitted to the control device 2 may be deleted. It may be configured to be deleted, or it may be deleted based on the pilot instruction from the control device 2.

次に、図6を用いて、操縦装置2の制御装置200の機能構成について説明する。制御装置200により実現される機能は、送受信部210、操作入力受付部220、操縦指示生成部230、力覚付与部240、表示制御部250、形状画像生成部260、位置画像生成部270、補助画像生成部280、判断部290、記憶・読出部300および記憶部2000を含む。操縦装置2は、移動体1を遠隔操作するための専用のアプリケーションプログラムがあらかじめインストールされている。操縦装置2は、例えば、インストールされたアプリケーションプログラムをCPU21が実行することによって各機能を実現する。制御装置200は、制御部の一例である。 Next, the functional configuration of the control device 200 of the control device 2 will be described with reference to FIG. The functions realized by the control device 200 are the transmission / reception unit 210, the operation input reception unit 220, the operation instruction generation unit 230, the force sense imparting unit 240, the display control unit 250, the shape image generation unit 260, the position image generation unit 270, and the auxiliary. It includes an image generation unit 280, a determination unit 290, a storage / reading unit 300, and a storage unit 2000. A dedicated application program for remotely controlling the moving body 1 is pre-installed in the control device 2. The control device 2 realizes each function by, for example, the CPU 21 executing the installed application program. The control device 200 is an example of a control unit.

送受信部210は、無線通信を介して、移動体1との間で各種データまたは情報の送受信を行う機能である。送受信部210は、例えば、移動体1が備える周囲情報取得部150が取得した周囲情報を移動体1から受信する。また移動体1の撮像装置105によって取得された画像データを、移動体1から受信する。送受信部210は、主に、図5に示したCPU21の処理、および無線I/F25によって実現される。送受信部210は、受信部の一例である。 The transmission / reception unit 210 is a function of transmitting / receiving various data or information to / from the mobile body 1 via wireless communication. The transmission / reception unit 210 receives, for example, the surrounding information acquired by the surrounding information acquisition unit 150 included in the moving body 1 from the moving body 1. Further, the image data acquired by the image pickup device 105 of the moving body 1 is received from the moving body 1. The transmission / reception unit 210 is mainly realized by the processing of the CPU 21 shown in FIG. 5 and the wireless I / F 25. The transmission / reception unit 210 is an example of a reception unit.

操作入力受付部220は、操縦装置2への各種選択または操作入力を受け付ける機能である。操作入力受付部220は、主に、CPU21の処理、および操作部I/F26によって実現される。なお、操作入力受付部220は、操作部201以外の入力手段、例えば音声による入力、キーボードやマウスによる操作入力によって実現されてもよい。 The operation input receiving unit 220 is a function of receiving various selections or operation inputs to the control device 2. The operation input receiving unit 220 is mainly realized by the processing of the CPU 21 and the operation unit I / F 26. The operation input receiving unit 220 may be realized by an input means other than the operation unit 201, for example, input by voice, operation input by a keyboard or a mouse.

操縦指示生成部230は、移動体1への操縦指示を生成する機能である。操縦指示生成部230は、主に、CPU21の処理によって実現される。 The maneuvering instruction generation unit 230 is a function of generating a maneuvering instruction to the moving body 1. The maneuvering instruction generation unit 230 is mainly realized by the processing of the CPU 21.

力覚付与部240は、操作部201によって操作に力覚を与えるための各種処理をする機能である。力覚付与部240は、主に、CPU21の処理、または操作部I/F26の処理によって実現される。 The force sense applying unit 240 is a function of performing various processes for giving a force sense to the operation by the operation unit 201. The force sense imparting unit 240 is mainly realized by the processing of the CPU 21 or the processing of the operation unit I / F 26.

表示制御部250は、表示装置に各種画像を表示させる機能である。表示制御部250は、主に、図5に示したCPU21の処理、および入出力I/F28によって実現される。表示制御部250は、表示制御部の一例である。 The display control unit 250 is a function of displaying various images on the display device. The display control unit 250 is mainly realized by the processing of the CPU 21 shown in FIG. 5 and the input / output I / F 28. The display control unit 250 is an example of the display control unit.

形状画像生成部260は、移動体1の周囲構造物の形状を示す画像、一例として3次元モデル画像を生成する。形状画像生成部260は、主に、図5に示したCPU21の処理によって実現される。 The shape image generation unit 260 generates an image showing the shape of the surrounding structure of the moving body 1, for example, a three-dimensional model image. The shape image generation unit 260 is mainly realized by the processing of the CPU 21 shown in FIG.

位置画像生成部270は、移動体1の周囲構造物に対する位置を示す画像、一例として3次元モデル内のカーソル画像を生成する機能である。位置画像生成部270は、主に、図5に示したCPU21の処理によって実現される。 The position image generation unit 270 is a function of generating an image showing the position of the moving body 1 with respect to the surrounding structure, for example, a cursor image in the three-dimensional model. The position image generation unit 270 is mainly realized by the processing of the CPU 21 shown in FIG.

補助画像生成部280は、形状画像を用いた移動体1の操縦の補助となる画像である補助画像を生成する機能である。補助画像生成部280は、主に、図5に示したCPU21の処理によって実現される。 The auxiliary image generation unit 280 is a function of generating an auxiliary image which is an image assisting the maneuvering of the moving body 1 using the shape image. The auxiliary image generation unit 280 is mainly realized by the processing of the CPU 21 shown in FIG.

判断部290は、後述する各種判断を実行する機能である。判断部290は、主に、図5に示したCPU21の処理によって実現される。 The determination unit 290 is a function for executing various determinations described later. The determination unit 290 is mainly realized by the processing of the CPU 21 shown in FIG.

記憶・読出部300は、記憶部2000に各種データを記憶させ、または記憶部2000から各種データを読み出す機能である。記憶・読出部300は、主に、図5に示したCPU21の処理によって実現される。記憶部2000は、主に、図5に示したROM22、RAM23および記録メディア27aによって実現される。 The storage / reading unit 300 is a function of storing various data in the storage unit 2000 or reading various data from the storage unit 2000. The storage / reading unit 300 is mainly realized by the processing of the CPU 21 shown in FIG. The storage unit 2000 is mainly realized by the ROM 22, the RAM 23, and the recording medium 27a shown in FIG.

また記憶部2000は、遠隔制御に必要な各種設定があらかじめ記憶されている。また、移動体1から受信した各種情報、例えば撮像制御部140によって撮像された画像データや各種センサの検知結果等を記憶可能である。なお、記憶部1000に記憶されている画像データや検知結果等は、取得されてから所定の時間経過した場合に削除される構成であってもよい。 Further, the storage unit 2000 stores various settings required for remote control in advance. In addition, various information received from the moving body 1, for example, image data captured by the image pickup control unit 140, detection results of various sensors, and the like can be stored. The image data, the detection result, and the like stored in the storage unit 1000 may be deleted when a predetermined time has elapsed since they were acquired.

図7は、操縦処理を示すフローチャートである。操縦者により、操縦装置に移動または撮像等に関する操作入力がされると実行されるフローである。 FIG. 7 is a flowchart showing the maneuvering process. This is a flow that is executed when the operator inputs an operation related to movement or imaging to the control device.

まず、操作入力受付部220が、操縦者の操作を受け付ける(S11)。すると操縦指示生成部230は、受け付けた操作に基づき、移動体1に対する操縦指示を生成する(S12)。そして送受信部210は、生成された操縦指示を移動体1に送信する。 First, the operation input receiving unit 220 receives the operation of the operator (S11). Then, the maneuvering instruction generation unit 230 generates a maneuvering instruction for the moving body 1 based on the received operation (S12). Then, the transmission / reception unit 210 transmits the generated maneuvering instruction to the moving body 1.

このように、操縦装置2から送信された操縦指示を受信した移動体1は、受信した操縦指示に従って動作することにより、遠隔操縦される。 In this way, the moving body 1 that has received the control instruction transmitted from the control device 2 is remotely controlled by operating according to the received control instruction.

図8は、周囲情報取得処理を示すフローチャートである。操縦装置2の操作部201による移動体1に対する操作により移動が制御される際に移動体1において実行されるフローである。 FIG. 8 is a flowchart showing the surrounding information acquisition process. This is a flow executed in the moving body 1 when the movement is controlled by the operation of the operating unit 201 of the control device 2 with respect to the moving body 1.

まず周囲情報取得部150は、周囲情報取得ステップとして、移動体1の周囲の情報である周囲情報を取得する(S21)。そして判断部160は、移動体1の周囲情報が更新されているかを判断する(S22)。更新されていなかった場合(Noの場合)は、ステップS21に戻り、また周囲情報を取得する。 First, the surrounding information acquisition unit 150 acquires surrounding information, which is information around the moving body 1, as a peripheral information acquisition step (S21). Then, the determination unit 160 determines whether the surrounding information of the moving body 1 is updated (S22). If it has not been updated (No), the process returns to step S21 and the surrounding information is acquired again.

更新されていた場合(Yesの場合)は、送受信部110は、周囲情報送信ステップとして、取得した周囲情報を操縦部1に送信する(S23)。そして、判断部160は、操縦装置2から操縦の終了指示を受信したかを判断し(S24)、受信した場合(Yesの場合)は本フローを終了する。 If it has been updated (yes), the transmission / reception unit 110 transmits the acquired surrounding information to the control unit 1 as a peripheral information transmission step (S23). Then, the determination unit 160 determines whether or not the operation end instruction has been received from the control device 2 (S24), and if it receives it (in the case of Yes), ends this flow.

一方ステップS24で終了指示を受信していない場合(Noの場合)、ステップS21に戻り、操縦装置2による操縦が継続する間、本処理フローを継続する。 On the other hand, if the end instruction has not been received in step S24 (No), the process returns to step S21, and the present processing flow is continued while the control by the control device 2 continues.

このように、移動体1は操縦装置2によって操縦されている間、移動体1の周囲の情報である周囲情報を連続的に取得し操縦装置2に送信する。 In this way, while the moving body 1 is being steered by the control device 2, the moving body 1 continuously acquires surrounding information, which is information on the surroundings of the moving body 1, and transmits the surrounding information to the control device 2.

ここで図9を用いて周囲情報の一例について説明する。 Here, an example of surrounding information will be described with reference to FIG.

図9は、移動体1と、移動体1の周囲にある構造物である周囲構造物Fの概念図である。移動体1と周囲構造物Fとの距離は、周囲構造物Fの箇所によって異なる。したがって測距センサ106の検知結果である距離情報は、異なった複数の値を取得する場合がある。本実施形態では、測距センサ106と周囲構造物Fとの最短距離dを、周囲情報として操縦装置2に送信する。 FIG. 9 is a conceptual diagram of the moving body 1 and the surrounding structure F, which is a structure around the moving body 1. The distance between the moving body 1 and the surrounding structure F differs depending on the location of the surrounding structure F. Therefore, the distance information, which is the detection result of the distance measuring sensor 106, may acquire a plurality of different values. In the present embodiment, the shortest distance d between the distance measuring sensor 106 and the surrounding structure F is transmitted to the control device 2 as surrounding information.

図10は、操縦装置2の操作部201による移動体1に対する操作により移動が制御されている際に操縦装置2において実行されるフローである。 FIG. 10 is a flow executed in the control device 2 when the movement is controlled by the operation of the operation unit 201 of the control device 2 with respect to the moving body 1.

まず、力覚付与部240は、閾値設定ステップとして、移動体1と周囲構造物との距離の閾値d0を設定する(S31)。本ステップS31における設定は、本ステップS31のタイミングで操縦者O等のユーザが実行する閾値d0の入力を取得して設定してもよいし、あらかじめ記憶部2000に記憶しておいた閾値d0を記憶・読出部300から取得して設定してもよい。この周囲情報である移動体1と周囲構造物との最短距離の閾値は、所定値の一例である。 First, the force sense imparting unit 240 sets a threshold value d0 of the distance between the moving body 1 and the surrounding structure as a threshold value setting step (S31). The setting in this step S31 may be set by acquiring the input of the threshold value d0 executed by the user such as the operator O at the timing of this step S31, or the threshold value d0 stored in the storage unit 2000 in advance may be set. It may be acquired from the storage / reading unit 300 and set. The threshold value of the shortest distance between the moving body 1 and the surrounding structure, which is the surrounding information, is an example of a predetermined value.

ここで判断部290は、操作受付ステップとして、操作入力受付部220による操作部201からの位置/姿勢情報の更新の受付有無を判断する(S32)。更新が無い場合(Noの場合)はステップS32を繰り返す。ステップS32で更新があった場合(Yesの場合)、力覚付与部240は、力覚算出ステップとして、力覚の大きさを算出する(ステップS33)。 Here, the determination unit 290 determines whether or not the operation input reception unit 220 accepts the update of the position / attitude information from the operation unit 201 as the operation reception step (S32). If there is no update (No), step S32 is repeated. When there is an update in step S32 (in the case of Yes), the force sense imparting unit 240 calculates the magnitude of the force sense as the force sense calculation step (step S33).

ここで力覚の算出について述べる。力覚付与部240は、移動体1から送受信部210が受信した周囲情報である周囲構造体との最短距離dと周囲情報の閾値である所定値d0に基づき、操作に対して与える力覚の大きさFを算出する。すなわち、以下(式1)(式2)のように設定する。 Here, the calculation of force sense will be described. The force sense imparting unit 240 gives the force sense to the operation based on the shortest distance d from the moving body 1 to the surrounding structure which is the surrounding information received by the transmitting / receiving unit 210 and the predetermined value d0 which is the threshold value of the surrounding information. Calculate the size F. That is, the settings are as follows (Equation 1) and (Equation 2).

d>d0の場合 F=0 ・・・(式1)
d≦d0の場合 F=k(d0−d) ;kは定数 ・・・(式2)
When d> d0 F = 0 ... (Equation 1)
When d ≦ d0 F = k (d0−d); k is a constant ... (Equation 2)

以上のように、前記周囲情報に示される距離に応じて前記力覚の強さを変更する。より具体的には前記周囲情報で示される距離のうち前記周囲構造物までの最短距離dが所定値d0以下または未満になった場合に、前記力覚の強さを上げる。ここでd0は一例として、移動体1のほぼ中央に測距センサ106を設けたときに、測距センサ106から構造体1の最も遠い箇所までの長さに設定する。つまり周囲構造物に対しd0よりも近づこうとした際に、離れる方向に反力が操作部201のハンドル部202に作用する。したがって、構造体1が周囲構造体に接触せずに、周囲構造体に沿って移動させることが直感的に可能になる。 As described above, the strength of the force sense is changed according to the distance indicated by the surrounding information. More specifically, when the shortest distance d to the surrounding structure among the distances indicated by the surrounding information becomes a predetermined value d0 or less or less, the strength of the force sense is increased. Here, as an example, d0 is set to the length from the distance measuring sensor 106 to the farthest point of the structure 1 when the distance measuring sensor 106 is provided substantially in the center of the moving body 1. That is, when trying to approach the surrounding structure closer than d0, a reaction force acts on the handle portion 202 of the operation portion 201 in the direction of separation. Therefore, it is possible to intuitively move the structure 1 along the surrounding structure without contacting the surrounding structure.

フローの説明に戻り、力覚付与部240は、力覚付与ステップとして、ステップS33で算出された大きさFの力覚を操作部201に対して与える(S34)。 Returning to the explanation of the flow, the force sense applying unit 240 gives the force sense of the magnitude F calculated in step S33 to the operation unit 201 (S34) as the force sense applying step.

そしてステップS32で更新があった場合(Yesの場合)、操縦指示生成部230は、操縦指示生成ステップとして、位置/姿勢情報に基づき操縦指示を生成し(S35)、さらに送受指示送信ステップとして、生成した操縦指示を移動体1に送信する(S36)。操縦指示を受信した移動体1は、操縦指示に従い動作を実行する。 Then, when there is an update in step S32 (in the case of Yes), the maneuvering instruction generation unit 230 generates a maneuvering instruction based on the position / attitude information as a maneuvering instruction generation step (S35), and further, as a transmission / reception instruction transmission step. The generated maneuvering instruction is transmitted to the moving body 1 (S36). The moving body 1 that has received the maneuvering instruction executes an operation according to the maneuvering instruction.

そして判断部290は、操縦者Oからの本フローの終了指示の有無を判断する(S37)。終了指示があった場合(Yesの場合)、本フローは終了する。一方、終了指示が無い場合(Noの場合)は、ステップS32に戻る。 Then, the determination unit 290 determines whether or not there is an instruction to end the main flow from the pilot O (S37). If there is an end instruction (yes), this flow ends. On the other hand, if there is no end instruction (No), the process returns to step S32.

以上説明したように本実施形態によれば、移動体1の操縦者が、移動体1の周囲状況をより正確に把握して操縦することができるという効果を奏する。 As described above, according to the present embodiment, there is an effect that the operator of the moving body 1 can more accurately grasp and control the surrounding situation of the moving body 1.

つまり、例えば操縦者が操縦装置によって移動体の移動方向を把握できたとしても、移動体の周囲情報は目視で確認しなくては操縦できない。それに対し本発明によって、遠隔操縦で構造物に近接して移動させる操縦システムにおいて、移動体が操縦者からは直接見えない、見えにくい箇所において操縦する場合や、操縦者が目視しながらの操縦するための高度な技術を有していない場合でも、移動体を構造物へ接近させたり、狭隘部へ侵入・移動させたりしての点検が可能となる。 That is, for example, even if the operator can grasp the moving direction of the moving body by the control device, he / she cannot maneuver without visually confirming the surrounding information of the moving body. On the other hand, according to the present invention, in a control system that moves a moving body close to a structure by remote control, when the moving body is operated in a place where it is difficult to see directly from the operator, or when the operator operates while visually observing. Even if you do not have the advanced technology for this, you can inspect the moving body by approaching it to the structure or invading or moving it into a narrow space.

また、移動体と近傍の構造物との位置・姿勢関係の情報から、操縦者の操作入力に対してフォースフィードバックを与えることにより、操縦者は飛行体の周囲情報をリアルタイムに操縦者が把握できる。したがって操縦者は、点検対象の構造物に対し飛行体をどのように操縦すればよいかの判断が容易となり、構造物に近接させる操縦を直感的に行えるようになる。 In addition, by giving force feedback to the operator's operation input from the information on the position / attitude relationship between the moving body and nearby structures, the operator can grasp the surrounding information of the aircraft in real time. .. Therefore, the operator can easily determine how to maneuver the flying object with respect to the structure to be inspected, and can intuitively maneuver in close proximity to the structure.

なお目視せずに飛行体を制御する方法としてはたとえば以下(1)〜(3)がある。
(1)GPSやトータルステーション(Total Station)など飛行体の位置情報をセンシングする装置を用いて、あらかじめ得られている地図上で設定された飛行経路を照らし合わせながら飛行させる。
(2)飛行体に搭載したカメラ映像を地上の操縦者が見ながら飛行体を操縦する。
(3)飛行体の速度、姿勢、高度等に応じた情報を、操縦者に力覚や聴覚にて伝達する。
As a method of controlling the flying object without visually observing, for example, there are the following (1) to (3).
(1) Using a device that senses the position information of the flying object, such as GPS or a total station, the flight is performed while comparing the flight routes set on the map obtained in advance.
(2) The pilot on the ground operates the aircraft while watching the camera image mounted on the aircraft.
(3) Information according to the speed, attitude, altitude, etc. of the aircraft is transmitted to the operator by force sense or hearing.

このうち(1)の場合は、特に点検対象の構造物近傍においては、GPS衛星や地上設置されたトータルステーションから飛行体までの間に遮蔽物があったり、構造体自体が遮蔽物となったりする場合が多く、飛行体の位置情報を取得できないことが根本的問題である。 Of these, in the case of (1), there is a shield between the GPS satellite or the total station installed on the ground and the flying object, or the structure itself becomes a shield, especially in the vicinity of the structure to be inspected. In many cases, the fundamental problem is that the position information of the air vehicle cannot be obtained.

(2)の場合は、FPV(First Person View、一人称視点)映像によるドローン遠隔操縦として、ドローンレースなどで使われているシステム等がある。これは飛行体に搭載されたカメラ映像を無線伝送し、操縦者の装着するヘッドマウントディスプレイにリアルタイム表示するシステムであり、操縦者はこの映像を見ながら設定されたコースを飛行させ、そのタイムを競うものである。しかし、比較低速で構造物に近接して移動する点検用途では、映像のみを頼りに操縦する場合、周囲の状況に注意しつつ、点検対象に着目しながら操縦することが困難である。 In the case of (2), there is a system used in drone racing and the like as a drone remote control by FPV (First Person View, first person view) image. This is a system that wirelessly transmits the camera image mounted on the aircraft and displays it in real time on the head-mounted display worn by the pilot, and the pilot flies the set course while watching this image and sets the time. It is a competition. However, in inspection applications where the vehicle moves close to the structure at a relatively low speed, it is difficult to operate while paying attention to the inspection target while paying attention to the surrounding conditions when maneuvering by relying only on the image.

(3)の場合は、飛行体から目を離すことなく飛行体や周囲の状態を把握できるが、その伝達される情報が操作入力と連携しておらず、直感的な操作が困難である。 In the case of (3), it is possible to grasp the state of the flying object and its surroundings without taking one's eyes off the flying object, but the transmitted information is not linked with the operation input, and intuitive operation is difficult.

それ対し本実施形態においては、操縦者による操作に対して力覚を与えており、移動体1の操縦者が、移動体1の周囲状況を自らの操作と連動して直感的に把握しながら操縦することができるという効果を奏する。周囲情報として周辺構造物との距離情報を用いることで、例えば移動体1が周囲構造物に接触して移動するための機構が損傷することを防ぐことができる。また、周囲構造物の調査等を行う際に、周囲構造物との距離を一定に保つのを容易にし、適切な調査結果を取得するための補助を行うことができる。 On the other hand, in the present embodiment, a sense of force is given to the operation by the operator, and the operator of the moving body 1 intuitively grasps the surrounding situation of the moving body 1 in conjunction with his / her own operation. It has the effect of being able to steer. By using the distance information with the surrounding structure as the surrounding information, it is possible to prevent, for example, the mechanism for the moving body 1 to come into contact with the surrounding structure and move. In addition, when conducting a survey of surrounding structures, it is possible to facilitate keeping the distance from the surrounding structures constant, and to assist in obtaining appropriate survey results.

なお、本実施形態では周囲情報として周辺構造物との最短距離を用いたが、これに限られない。例えば周囲情報として周囲の温度情報や有害物質の濃度を用い、所定値より高い方向への動きを制限するように力覚を与えることで、熱や有害物質によって移動体1へ悪影響が及ぶことを防ぐことができる。 In this embodiment, the shortest distance to the surrounding structure is used as the surrounding information, but the present invention is not limited to this. For example, by using ambient temperature information and the concentration of harmful substances as ambient information and giving a force sensation to restrict movement in a direction higher than a predetermined value, heat and harmful substances may adversely affect the moving body 1. Can be prevented.

次に、図11ないし図17を用いて、第2の実施形態を説明する。なお、本実施形態のシステム構成、ハードウェア構成、機能構成は、第1の実施形態と同様の構成を適用可能である。したがって本実施形態のシステム構成、ハードウェア構成、機能構成については、図1〜図10で述べた構成と同様として説明を省略する。 Next, the second embodiment will be described with reference to FIGS. 11 to 17. The system configuration, hardware configuration, and functional configuration of this embodiment can be the same as those of the first embodiment. Therefore, the system configuration, the hardware configuration, and the functional configuration of the present embodiment will be described in the same manner as those described in FIGS. 1 to 10.

図11は、操縦装置2が、さらに表示装置5を有する例の説明図である。操縦装置2に入出力I/F28を介して表示装置5が接続される。表示装置5には、例えば移動体1から送信される撮影装置105によって撮影された画像や、移動体1の各種センサの検知情報、動作状況に関する情報等が表示される。操縦装置2の操縦者は、表示装置5に表示される表示画像を見ることにより、遠隔にある移動体1の状況を視覚的に把握しながら操作可能である。表示装置5は表示部の一例である。 FIG. 11 is an explanatory diagram of an example in which the control device 2 further includes a display device 5. The display device 5 is connected to the control device 2 via the input / output I / F 28. The display device 5 displays, for example, an image taken by the photographing device 105 transmitted from the moving body 1, detection information of various sensors of the moving body 1, information on the operation status, and the like. The operator of the control device 2 can operate the moving body 1 while visually grasping the situation of the remote moving body 1 by looking at the display image displayed on the display device 5. The display device 5 is an example of a display unit.

表示装置5は、固定部51、方向センサ52および表示画面53を有するヘッドマウントディスプレイである。固定部51は、操縦者Oの頭部に表示装置5を固定する。方向センサ52は、表示装置5が操縦者Oの頭部に固定されているため、操縦者Oの頭部とともに動き、操縦者Oの頭部が動く方向を検知する。方向センサ52は、加速度センサ、ジャイロセンサ等が挙げられるがこれらに限られない。表示画面53には各種表示画像が表示される。表示画面53は、操縦者Oの目に対向するように画像を表示する。図11においては表示画面53の表示画像側を拡大して示している。表示装置5は、方向センサ52の検知結果に連動させて、表示画像の表示位置を変更することが可能である。なお表示装置5はヘッドマウントディスプレイに限らず、デスクトップ型のディスプレイにおいて、マウスやキーボードを用いて表示位置を変更させるものであってもよい。 The display device 5 is a head-mounted display having a fixed portion 51, a direction sensor 52, and a display screen 53. The fixing portion 51 fixes the display device 5 to the head of the operator O. Since the display device 5 is fixed to the head of the operator O, the direction sensor 52 moves together with the head of the operator O and detects the direction in which the head of the operator O moves. Examples of the direction sensor 52 include, but are not limited to, an acceleration sensor and a gyro sensor. Various display images are displayed on the display screen 53. The display screen 53 displays an image so as to face the eyes of the pilot O. In FIG. 11, the display image side of the display screen 53 is enlarged and shown. The display device 5 can change the display position of the display image in conjunction with the detection result of the direction sensor 52. The display device 5 is not limited to the head-mounted display, and may be a desktop display in which the display position is changed by using a mouse or a keyboard.

本実施形態では一例として、表示画面53に、移動体1の周囲構造体の3次元形状を示す画像である3次元モデル(点群、メッシュなどの表示モデル)Dおよび、3DカーソルCを表示させる例を説明する。3DカーソルCは、操作部201のハンドル部202によって操縦者Oにより入力される位置・姿勢と同期した位置に表示される。そしてヘッドマウントディスプレイである表示装置5を装着した操縦者Oの頭部の動きに連動させて3次元モデルの表示位置は変更される。これにより操縦者Oは、周囲構造体と移動体1を3次元モデル内で位置や角度を変えながら見て操縦可能である。なお3次元モデル内の周囲構造体と移動体1の位置関係は、操作部201の操作情報に基づき算出・変更されてもよいし、移動体1から送信される画像や各種センサの情報に基づき算出・変更されてもよいし、両方の情報を組み合わせて算出・変更されてもよい。 In the present embodiment, as an example, a three-dimensional model (display model such as a point cloud or mesh) D and a 3D cursor C, which are images showing the three-dimensional shape of the surrounding structure of the moving body 1, are displayed on the display screen 53. An example will be described. The 3D cursor C is displayed at a position synchronized with the position / posture input by the operator O by the handle portion 202 of the operation unit 201. Then, the display position of the three-dimensional model is changed in conjunction with the movement of the head of the pilot O who is equipped with the display device 5 which is a head-mounted display. As a result, the operator O can control the surrounding structure and the moving body 1 while changing the position and angle in the three-dimensional model. The positional relationship between the surrounding structure and the moving body 1 in the three-dimensional model may be calculated or changed based on the operation information of the operation unit 201, or based on the image transmitted from the moving body 1 or the information of various sensors. It may be calculated / changed, or it may be calculated / changed by combining both information.

図12は、形状画像表示処理を示すフローチャートである。操縦者O等のユーザによって形状画像を用いた操縦モードが指定された場合などにスタートするフローである。 FIG. 12 is a flowchart showing the shape image display process. This is a flow that starts when a maneuvering mode using a shape image is specified by a user such as pilot O.

まず形状画像生成部260は、3次元モデルを生成するための周囲構造物情報を取得する(S41)。周囲構造物情報は、一例として撮像装置105が撮像した形状画像生成用の周囲構造物の画像である。そして形状画像生成部260は、形状画像生成ステップとして、周囲構造物の3次元モデルを生成する(S42)。すると表示制御部250は、形状画像表示ステップとして、生成された3次元モデルを表示する(S43)。 First, the shape image generation unit 260 acquires surrounding structure information for generating a three-dimensional model (S41). The surrounding structure information is, for example, an image of the surrounding structure for generating a shape image captured by the image pickup apparatus 105. Then, the shape image generation unit 260 generates a three-dimensional model of the surrounding structure as a shape image generation step (S42). Then, the display control unit 250 displays the generated three-dimensional model as a shape image display step (S43).

次に位置画像生成部270は、操作部201の入力に基づき、移動体1の位置/姿勢情報を取得する(S44)。そして、位置画像位置算出ステップとして、周囲構造体の3次元モデルに対する、3DカーソルCの位置を算出する(S45)。すると表示制御部250は、位置画像表示ステップとして、3次元モデル画像M内に位置画像である3DカーソルCを表示する(S46)。 Next, the position image generation unit 270 acquires the position / posture information of the moving body 1 based on the input of the operation unit 201 (S44). Then, as a position image position calculation step, the position of the 3D cursor C with respect to the three-dimensional model of the surrounding structure is calculated (S45). Then, the display control unit 250 displays the 3D cursor C, which is a position image, in the three-dimensional model image M as the position image display step (S46).

ここで判断部290は、操作部201による位置/姿勢情報の更新の有無を判断する(S47)。更新があった場合(Yesの場合)、ステップS44に戻り、位置画像生成部270は、更新された新たな位置/姿勢情報に基づく3DカーソルCを生成し、表示する。 Here, the determination unit 290 determines whether or not the position / attitude information is updated by the operation unit 201 (S47). When there is an update (in the case of Yes), the process returns to step S44, and the position image generation unit 270 generates and displays the 3D cursor C based on the updated new position / attitude information.

一方ステップS47で更新が無い場合(Noの場合)は、判断部290はさらに操縦装置2からの本フローの終了指示の有無を判断する(S48)。終了指示があった場合(Yesの場合)、本フローは終了する。一方、終了指示が無い場合(Noの場合)は、ステップS47に戻る。このように本処理フローによって、操作部201に対する操作により移動体1の位置/姿勢情報が更新されるのに伴い、位置画像である3DカーソルCの位置を変更する。 On the other hand, if there is no update in step S47 (No), the determination unit 290 further determines whether or not there is an instruction to end the main flow from the control device 2 (S48). If there is an end instruction (yes), this flow ends. On the other hand, if there is no end instruction (No), the process returns to step S47. In this way, according to this processing flow, the position of the 3D cursor C, which is the position image, is changed as the position / posture information of the moving body 1 is updated by the operation with respect to the operation unit 201.

このように表示制御部250は、周囲構造物の形状を表す形状画像を表示するとともに、当該周囲構造物に対する位置の移動体を、当該形状画像に対する位置を表す位置画像として表示する。したがって表示画面53には、移動体1の周囲構造物の形状を表す形状画像と、当該周囲構造物に対する位置の移動体を、当該形状画像に対する位置を表す位置画像とが表示される。したがって操縦者Oは表示画面53の表示を見て、周囲構造物と移動体1の位置関係を確認しながら操縦装置2を操作可能である。 In this way, the display control unit 250 displays the shape image showing the shape of the surrounding structure, and displays the moving body of the position with respect to the surrounding structure as the position image showing the position with respect to the shape image. Therefore, on the display screen 53, a shape image showing the shape of the surrounding structure of the moving body 1 and a position image showing the position of the moving body with respect to the surrounding structure and the position with respect to the shape image are displayed. Therefore, the operator O can operate the control device 2 while checking the positional relationship between the surrounding structure and the moving body 1 by looking at the display on the display screen 53.

なお、本フローではステップS41、S42において3次元モデルを生成しているが、あらかじめ生成して、記憶部2000に記憶させておいてもよい。その場合、操縦者O等のユーザによって形状画像を用いた制御モードが指定され本処理フローがスタートする場合は、記憶部2000から3次元モデルを取得して表示させてもよい。 In this flow, the three-dimensional model is generated in steps S41 and S42, but it may be generated in advance and stored in the storage unit 2000. In that case, when the control mode using the shape image is specified by the user such as the operator O and the present processing flow is started, the three-dimensional model may be acquired from the storage unit 2000 and displayed.

ここで図13および図14を用いて、形状画像の一例である3次元モデルの例を説明する。 Here, an example of a three-dimensional model, which is an example of a shape image, will be described with reference to FIGS. 13 and 14.

まず図13は、3次元モデルが生成される対象の例としての橋梁Kの外観である。橋梁Kは、前述のとおり橋脚部K1と本体部K2を有する。そして図13に示すように、本体部K2は、主桁K21、床板K22、側面部K23、路面K24を有している。床板K22の主桁K21より外側には、張出部K22aが形成されている。 First, FIG. 13 shows the appearance of the bridge K as an example of the object for which the three-dimensional model is generated. The bridge K has a pier portion K1 and a main body portion K2 as described above. As shown in FIG. 13, the main body portion K2 has a main girder K21, a floor plate K22, a side surface portion K23, and a road surface K24. An overhanging portion K22a is formed on the outside of the main girder K21 of the floor plate K22.

このうち移動体1を用いた調査点検要求がある橋梁Kの部位としては、人や車が通行する路面K24より下の部分で、主桁K21の下面や側面、床板K22の裏面(張出部K22a)などがあげられる。以降床板K22について述べる。 Of these, the parts of the bridge K for which an investigation and inspection request using the moving body 1 is required are the parts below the road surface K24 through which people and vehicles pass, the lower surface and side surfaces of the main girder K21, and the back surface (overhanging portion) of the floor plate K22. K22a) and the like. Hereinafter, the floor board K22 will be described.

図14は、形状画像および位置画像の表示例を説明する図である。図14(A)は橋梁Kの一例の写真、図14(B)は図14(A)に示される橋梁の形状画像である3次元モデルMである。3次元モデルMにおいて、主桁K21に該当する箇所をK21M、床板K22に該当する箇所をK22Mと示している。 FIG. 14 is a diagram illustrating a display example of a shape image and a position image. FIG. 14 (A) is a photograph of an example of the bridge K, and FIG. 14 (B) is a three-dimensional model M which is a shape image of the bridge shown in FIG. 14 (A). In the three-dimensional model M, the portion corresponding to the main girder K21 is indicated as K21M, and the portion corresponding to the floor plate K22 is indicated as K22M.

図14(B)に示されるように、移動体1に搭載されたカメラの画像などのデータを用いて構成された機体近傍の構造物の3次元モデル(3次元メッシュモデル)M、および前述の3DカーソルCが表示されている。操作部201の動作空間と3次元モデル空間は、操作部201の可動領域が実空間の移動体1が、橋梁Kの調査対象範囲をカバーできるように、スケーリングも含め適切な座標系の対応関係で関係づけられている。 As shown in FIG. 14B, a three-dimensional model (three-dimensional mesh model) M of a structure in the vicinity of the machine body constructed by using data such as an image of a camera mounted on the moving body 1 and the above-mentioned The 3D cursor C is displayed. The operating space of the operation unit 201 and the three-dimensional model space have an appropriate coordinate system correspondence including scaling so that the moving body 1 whose movable area of the operation unit 201 is the real space can cover the investigation target range of the bridge K. Is related by.

操縦者Oは、移動体1の周囲構造物としてのメッシュモデルMの橋梁Kから受ける反力をハンドル部202から受けながら、そして3DカーソルCをメッシュモデルMの橋梁Kに接触するように視覚的に確認しながらその表面をなぞることができる。このように操縦者Oは、また移動体1を橋梁Kに近づけ過ぎたり離れすぎたりしないように、力覚によるガイドを受けながら、そして3次元モデル空間内を視覚で確認しながら、移動体1を操縦して移動させることができる。 The operator O visually receives the reaction force received from the bridge K of the mesh model M as the peripheral structure of the moving body 1 from the handle portion 202, and makes the 3D cursor C come into contact with the bridge K of the mesh model M. You can trace the surface while checking. In this way, the pilot O also receives the guide by force so as not to bring the moving body 1 too close to or too far from the bridge K, and visually confirms the inside of the three-dimensional model space. Can be steered and moved.

ここで、図15を用いて図14(A)の写真中の点線内領域Rの床板K22を、撮像装置105bで撮像する場合を考える。図15は、形状画像および位置画像の表示例を説明する図である。図15(A)は、説明のために、図14(B)に示される3次元モデルMのうち領域R付近のみを、簡略化して示した図である。図15(A)において、移動体1は、図15(A)中の主桁K21Mと最短距離dの位置にある。また図15(A)中の領域Aは撮像装置105bの撮像範囲を示す。 Here, consider a case where the floor plate K22 in the dotted line region R in the photograph of FIG. 14A is imaged by the image pickup apparatus 105b using FIG. FIG. 15 is a diagram illustrating a display example of a shape image and a position image. 15 (A) is a simplified view of only the vicinity of the region R in the three-dimensional model M shown in FIG. 14 (B) for the sake of explanation. In FIG. 15A, the moving body 1 is located at the shortest distance d from the main girder K21M in FIG. 15A. Further, the region A in FIG. 15A shows the imaging range of the imaging device 105b.

図14で示されるように床板K22のうち、領域Rは主桁K21と、主桁K21に直交する桁によって囲まれている。この直交する桁が図15においては画像Pとしてしめされている。したがって操縦者Oは、図15(A)に示されるように、操作部201から一定の力覚を与えられながら、表示画面53の表示画像を見て、画像Pに沿うように操作部201を動かすことで、桁に対して最短距離dを保って移動体1を主桁K21等に沿った移動軌跡G1で移動させることができる。橋梁Kの変状等を漏れなく調査するためには、橋梁Kの表面を網羅的に撮像する要望があるが、このように移動軌跡G1のように移動させながら撮像することにより、図15(A)において1点鎖線で示される、所定の領域としての領域R1Mを網羅的に撮像できる。 As shown in FIG. 14, in the floor plate K22, the region R is surrounded by the main girder K21 and the girder orthogonal to the main girder K21. The orthogonal digits are shown as image P in FIG. Therefore, as shown in FIG. 15A, the operator O looks at the display image of the display screen 53 while being given a constant force sense by the operation unit 201, and moves the operation unit 201 along the image P. By moving the moving body 1 can be moved along the main girder K21 or the like along the moving locus G1 while maintaining the shortest distance d with respect to the girder. In order to investigate the deformation of the bridge K without omission, there is a request to comprehensively image the surface of the bridge K, but by imaging while moving like the moving locus G1 in this way, FIG. 15 ( The region R1M as a predetermined region represented by the alternate long and short dash line in A) can be comprehensively imaged.

このように周囲情報として距離情報を用いることで、周囲構造物との所定距離を保った移動を、直感的に行うことができる。なお、撮像装置105による撮像のタイミングは、操縦装置2から移動体1に操縦指示を送信してもよいし、移動体1のタイマ109により計測させた所定のタイミングで撮像させてもよい。 By using the distance information as the surrounding information in this way, it is possible to intuitively move while maintaining a predetermined distance from the surrounding structure. As for the timing of imaging by the image pickup device 105, the control device 2 may transmit a control instruction to the moving body 1, or the image pickup may be performed at a predetermined timing measured by the timer 109 of the moving body 1.

次に、領域R内のR1M以外の領域の撮像について述べる。図15(B)は撮像装置105bによって、2点鎖線で示される他の領域R2Mを撮像している様子を示す。領域R内を網羅的に撮影するためには、R1M以外の領域も撮像する要望がある。図15(B)は、領域R1M以外の領域も網羅的に移動させるために、最短距離の閾値d0を、hだけオフセットするよう変更させている。 Next, imaging of a region other than R1M in the region R will be described. FIG. 15B shows how the imaging device 105b is imaging the other region R2M indicated by the alternate long and short dash line. In order to comprehensively photograph the inside of the area R, there is a request to image an area other than R1M. In FIG. 15B, the threshold value d0 of the shortest distance is changed to be offset by h in order to comprehensively move the region other than the region R1M.

この場合も、図15(A)の場合と同様、操縦者Oは、操作部201から一定の力覚を与えられながら桁に沿うように操作部201を動かすことで、直感的に桁に対して一定の距離を保って移動体1を移動させることができる。図15(A)の場合と違う点は、図15(B)においては、図15(A)の移動軌跡G1と比較して内側にhだけオフセットされた移動軌跡G2で移動させている点である。 In this case as well, as in the case of FIG. 15A, the operator O intuitively touches the girder by moving the operation unit 201 along the girder while being given a certain force sense by the operation unit 201. The moving body 1 can be moved while maintaining a certain distance. The difference from the case of FIG. 15A is that in FIG. 15B, the movement locus G2 is offset inward by h as compared with the movement locus G1 of FIG. 15A. is there.

移動軌跡G1から移動軌跡G2に変更した結果、領域R内の所定の領域R1Mとは異なる他の領域R2Mを網羅的に撮像することができる。さらに所定値を大きくすることで、移動軌跡G2と異なる移動軌跡を移動させて、領域R内全てを網羅的に撮像することができる。 As a result of changing from the movement locus G1 to the movement locus G2, it is possible to comprehensively image another region R2M in the region R different from the predetermined region R1M. By further increasing the predetermined value, it is possible to move a movement locus different from the movement locus G2 and comprehensively image the entire region R.

次に、図15(B)に表示されている入力補助画像P´について説明する。入力補助画像P´は、図15(A)には表示されていない画像であり、画像Pに対し、hだけオフセットされた桁の画像を示す。この入力補助画像P´を操縦者Oに提示することにより、操縦者OHは、より桁に沿った移動を視覚的に把握しやすい。つまり、閾値d0のオフセットが行われると、図15(A)の時と比べると視覚的には桁と3DカーソルCが離れているにも関わらず同じ大きさの力覚が付与される。その場合、操縦者Oは違和感を覚える可能性がある。入力補助画像P´を示すことにより、操縦者Oは、視覚的に図15(A)で操作部201を操作した時と同じ感覚で、3DカーソルCを桁に沿わせるように移動させることができる。 Next, the input auxiliary image P'displayed in FIG. 15B will be described. The input auxiliary image P'is an image that is not displayed in FIG. 15 (A), and shows an image of digits offset by h with respect to the image P. By presenting the input auxiliary image P'to the operator O, the operator OH can more easily visually grasp the movement along the girder. That is, when the threshold value d0 is offset, the same magnitude of force is given even though the digit and the 3D cursor C are visually separated from each other as compared with the case of FIG. 15A. In that case, the pilot O may feel uncomfortable. By showing the input auxiliary image P', the operator O can visually move the 3D cursor C along the digits with the same feeling as when operating the operation unit 201 in FIG. 15 (A). it can.

なお所定の領域R1Mと他の領域R2Mは一部が重なっていてもよい。後で画像同士をつなぎ合わせる場合は、ある程度重なりがあった方が好ましい。オフセット距離hは撮像装置105bの撮影距離、画角、所定の領域R1と他の領域R2とのオーバーラップ率等を考慮して適宜設定すればよい。 A part of the predetermined region R1M and the other region R2M may overlap. When joining the images later, it is preferable that there is some overlap. The offset distance h may be appropriately set in consideration of the photographing distance of the image pickup apparatus 105b, the angle of view, the overlap rate between the predetermined region R1 and the other region R2, and the like.

図16は、入力補助処理を示すフローチャートである。図16は、一例として、上記で説明したように操縦者O等が移動体1を移動させながら、ある領域を網羅的に撮像する際に選択してスタートするフローである。 FIG. 16 is a flowchart showing the input assist processing. FIG. 16 shows, as an example, a flow in which the pilot O and the like move the moving body 1 and select and start the image when comprehensively imaging a certain area as described above.

まず、力覚付与部240は、移動体1と周囲構造物との距離の閾値d0を設定する(S51)。本処理フローで操縦者Oが入力してもよいし、あらかじめ記憶部2000に記憶しておいた値を使用してもよい。この周囲情報である移動体1と周囲構造物との最短距離の閾値は、所定値の一例である。 First, the force sense imparting unit 240 sets a threshold value d0 of the distance between the moving body 1 and the surrounding structure (S51). The pilot O may input in this processing flow, or a value stored in the storage unit 2000 in advance may be used. The threshold value of the shortest distance between the moving body 1 and the surrounding structure, which is the surrounding information, is an example of a predetermined value.

ここで判断部290は、操作受付ステップとして、操作入力受付部220による操作部201からの位置/姿勢情報の更新受付の有無を判断する(S52)。更新が無い場合(Noの場合)はステップS52を繰り返す。ステップS52で更新があった場合(Yesの場合)、力覚付与部240は、力覚の大きさを算出する(ステップS53)。ここで力覚の算出については、図10のステップS33と同様のためここでは説明を省略する。 Here, the determination unit 290 determines whether or not the operation input reception unit 220 has received the update reception of the position / attitude information from the operation unit 201 as the operation reception step (S52). If there is no update (No), step S52 is repeated. When there is an update in step S52 (in the case of Yes), the force sensation imparting unit 240 calculates the magnitude of the force sensation (step S53). Here, since the calculation of the force sense is the same as in step S33 of FIG. 10, the description thereof is omitted here.

次に力覚付与部240は、ステップS53で算出された大きさFの力覚を、操作部201に対して与える(S54)。 Next, the force sense imparting unit 240 gives the force sense of the magnitude F calculated in step S53 to the operation unit 201 (S54).

そしてステップS52で更新があった場合(Yesの場合)、操縦指示生成部230は、位置/姿勢情報に基づき操縦指示を生成し(S55)、生成した操縦指示を移動体1に送信する(S56)。前述のとおり、操縦指示を受信した移動体1は操縦指示に従い動作を実行する。 Then, when there is an update in step S52 (in the case of Yes), the maneuvering instruction generation unit 230 generates a maneuvering instruction based on the position / attitude information (S55), and transmits the generated maneuvering instruction to the moving body 1 (S56). ). As described above, the moving body 1 that has received the maneuvering instruction executes the operation according to the maneuvering instruction.

次に判断部290は、操縦者O等からの撮像領域変更の補助指示入力があるかを判断する(S57)。ステップS57で指示があった場合(Yesの場合)、力覚付与部240は所定値変更ステップとして、周囲情報の閾値を変更する(S58)。つまり移動体1と周囲構造体との最短距離の閾値を変更前のd0からd0+hに変更し、ステップS52に戻る。こうすることによって操縦者Oは以降、図16(B)のR2Mに示される領域を撮像するのを補助するための力覚フィードバックを、操作部201より与えられる。変更前の所定値が例えば50cmであった場合、変更後の所定値は大きくなっており、例えば100cm等である。 Next, the determination unit 290 determines whether or not there is an auxiliary instruction input for changing the imaging area from the operator O or the like (S57). When instructed in step S57 (in the case of Yes), the force sense applying unit 240 changes the threshold value of the surrounding information as a predetermined value changing step (S58). That is, the threshold value of the shortest distance between the moving body 1 and the surrounding structure is changed from d0 before the change to d0 + h, and the process returns to step S52. By doing so, the pilot O is subsequently provided with haptic feedback from the operating unit 201 to assist in imaging the region shown in R2M of FIG. 16 (B). When the predetermined value before the change is, for example, 50 cm, the predetermined value after the change is larger, for example, 100 cm.

ステップS57で指示がなかった場合(Noの場合)、本フローの終了指示の有無を判断する(S59)。終了指示があった場合(Yesの場合)、本フローは終了する。一方、終了指示が無い場合(Noの場合)は、ステップS52に戻る。ステップS52を経た場合は、最短距離の閾値はd0のままである。本フローの場合、ステップS58を経る度に最短距離の閾値d0は大きくなる。 If there is no instruction in step S57 (No), it is determined whether or not there is an instruction to end the flow (S59). If there is an end instruction (yes), this flow ends. On the other hand, if there is no end instruction (No), the process returns to step S52. After step S52, the shortest distance threshold remains d0. In the case of this flow, the threshold value d0 of the shortest distance increases each time the step S58 is passed.

図17は、入力補助画像表示処理を示すフローチャートである。本処理フローは一例として、操縦者O等から入力補助画像表示指示があった際にスタートするフローである。 FIG. 17 is a flowchart showing an input auxiliary image display process. As an example, this processing flow is a flow that starts when an input auxiliary image display instruction is given by the operator O or the like.

まず補助画像生成部280は、移動軌跡取得ステップとして、直前の移動軌跡情報、例えば図15(A)の移動軌跡G1を取得する(S61)。次に補助画像生成部280は、参照画像抽出ステップとして、取得した移動軌跡情報から参照画像を抽出する(S62)。 First, the auxiliary image generation unit 280 acquires the immediately preceding movement locus information, for example, the movement locus G1 in FIG. 15A (S61) as the movement locus acquisition step. Next, the auxiliary image generation unit 280 extracts a reference image from the acquired movement locus information as a reference image extraction step (S62).

参照画像について説明すると、例えば図15(A)の移動軌跡G1から、画像Pを周囲構造体として、移動体1と周囲構造体の最短距離による力覚フィードバックを与えられたと想定できる。そこで、画像Pを、入力補助画像P´を生成するための参照画像として抽出する。さらに補助画像生成部280は、周囲画像との最短距離の閾値d0のオフセット値hを取得する(S63)。 Explaining the reference image, it can be assumed that, for example, from the movement locus G1 of FIG. 15 (A), the force sensation feedback by the shortest distance between the moving body 1 and the surrounding structure is given by using the image P as the surrounding structure. Therefore, the image P is extracted as a reference image for generating the input auxiliary image P'. Further, the auxiliary image generation unit 280 acquires the offset value h of the threshold value d0 of the shortest distance from the surrounding image (S63).

そして補助画像生成部280は、参照画像と移動軌跡情報とオフセット値から入力補助画像P´を生成する(S64)。具体的には、参照画像である画像Pの移動軌跡G1が存在する側に、画像Pをhだけオフセットさせることにより入力補助画像P´を生成する。そして表示制御部250は、3Dモデル空間内に入力補助画像P´を表示し(S65)、本処理フローは終了する。 Then, the auxiliary image generation unit 280 generates the input auxiliary image P'from the reference image, the movement locus information, and the offset value (S64). Specifically, the input auxiliary image P'is generated by offsetting the image P by h on the side where the movement locus G1 of the image P which is the reference image exists. Then, the display control unit 250 displays the input auxiliary image P'in the 3D model space (S65), and this processing flow ends.

●補足●
なお、各実施形態の機能は、アセンブラ、C、C++、C#、Java(登録商標)等のレガシープログラミング言語やオブジェクト指向プログラミング言語等で記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM(Electrically Erasable Programmable Read−Only Memory)、EPROM(Erasable Programmable Read−Only Memory)、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SDカード、MO(Magneto−Optical disc)等の装置可読な記録媒体に格納して、または電気通信回線を通じて頒布することができる。
● Supplement ●
The functions of each embodiment can be realized by a computer-executable program described in a legacy programming language such as an assembler, C, C ++, C #, or Java (registered trademark), an object-oriented programming language, or the like, and ROM, EPROM. (Electrically Erasable Read-Only Memory), EPROM (Erasable Program Read-Only Memory), Flash Memory, Flexible Disc, CD-ROM, CD-RW, DVD-ROM, DVD-RAM, DVD-ROM, DVD-ROM It can be stored in a device-readable recording medium such as a card or MO (Magnet-Optical computer), or distributed through a telecommunications line.

また、各実施形態の機能の一部または全部は、例えばFPGA(Field Programmable Gate Array)等のプログラマブルデバイス(PD)上に実装することができ、またはASICとして実装することができ、各実施形態の機能をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(Very High Speed Integrated Circuits Hardware Description Language)、Verilog−HDL等により記述されたデータとして記録媒体により配布することができる。 In addition, some or all of the functions of each embodiment can be implemented on a programmable device (PD) such as FPGA (Field Programmable Gate Array), or can be implemented as an ASIC, and each embodiment can be implemented. Circuit configuration data (bit stream data) to be downloaded to PD to realize the function on PD, HDL (Hardware Description Language) for generating circuit configuration data, VHDL (Very High Speed Integrated Circuits Technology) -It can be distributed on a recording medium as data described in HDL or the like.

これまで本発明の一実施形態に係る操縦装置、移動体、操縦システム、操縦制御方法およびプログラムについて説明してきたが、本発明は上述した実施形態に限定されるものではなく、他の実施形態の追加、変更または削除等、当業者が想到することができる範囲内で変更することができる。 Although the control device, the moving body, the control system, the control method and the program according to one embodiment of the present invention have been described so far, the present invention is not limited to the above-described embodiment, and other embodiments Changes such as additions, changes or deletions can be made within the range that can be conceived by those skilled in the art.

S1 操縦システム
S2 診断システム
S3 点検システム
1 移動体
100 制御装置(制御部の一例)
110 送受信部(送信部の一例)
120 操作入力受付部
130 移動制御部
140 撮像制御部
150 周囲情報取得部
2 操縦装置
200 制御装置(制御部の一例)
210 送受信部(受信部の一例)
220 操作入力受付部
230 操縦指示生成部
240 力覚付与部
250 表示制御部
260 形状画像生成部
270 位置画像生成部
280 補助画像生成部
5 表示部
S1 Maneuvering system S2 Diagnostic system S3 Inspection system 1 Mobile body 100 Control device (example of control unit)
110 Transmitter / receiver (example of transmitter)
120 Operation input reception unit 130 Movement control unit 140 Imaging control unit 150 Surrounding information acquisition unit 2 Control device 200 Control device (example of control unit)
210 Transmitter / receiver (example of receiver)
220 Operation input reception unit 230 Maneuvering instruction generation unit 240 Power sense application unit 250 Display control unit 260 Shape image generation unit 270 Position image generation unit 280 Auxiliary image generation unit 5 Display unit

特開2018−116443号公報JP-A-2018-116443

Claims (14)

移動体と、
前記移動体を遠隔から操縦する操縦装置と、
を有する操縦システムであって、
前記移動体は、
前記移動体の周囲の情報を計測する周囲情報取得部と、
前記周囲情報取得部によって計測された周囲情報を前記操縦装置に送信する送信部と、
を有し、
前記操縦装置は、
前記周囲情報を受信する受信部と、
前記移動体を操縦するための操作を受け付ける操作部と、
前記受信された周囲情報に基づいて、前記操作に対して力覚を与える力覚付与部と、
を有する操縦システム。
With a moving body
A control device that remotely controls the moving body,
It is a maneuvering system that has
The moving body is
A surrounding information acquisition unit that measures information around the moving body, and
A transmission unit that transmits the surrounding information measured by the surrounding information acquisition unit to the control device, and a transmission unit.
Have,
The control device
A receiver that receives the surrounding information and
An operation unit that accepts operations for maneuvering the moving body,
Based on the received surrounding information, a force sense applying unit that gives a force sense to the operation, and
Maneuvering system with.
前記周囲情報取得部は、前記周囲の情報として、前記移動体から前記移動体の周囲の構造物である周囲構造物までの距離を計測する請求項1の操縦システム。 The maneuvering system according to claim 1, wherein the surrounding information acquisition unit measures the distance from the moving body to the surrounding structure, which is a structure around the moving body, as the surrounding information. 前記力覚付与部は、前記周囲情報に示される距離に応じて前記力覚の強さを変更する請求項2の操縦システム。 The maneuvering system according to claim 2, wherein the force sense applying unit changes the strength of the force sense according to a distance indicated by the surrounding information. 前記力覚付与部は、前記周囲情報で示される距離のうち前記周囲構造物までの最短距離が所定値以下または未満になった場合に、前記力覚の強さを上げる請求項3の操縦システム。 The maneuvering system according to claim 3, wherein the force sense applying unit increases the strength of the force sense when the shortest distance to the surrounding structure is less than or equal to a predetermined value among the distances indicated by the surrounding information. .. 前記移動体は被写体を撮像して撮像画像を取得する撮像部を有し、
前記力覚付与部は、前記撮像部によって前記周囲構造物における所定の領域を撮像した後で前記周囲構造物の他の領域を撮像する際に、前記所定値を変更して、前記周囲情報で示される距離のうち前記周囲構造物までの前記最短距離が変更後の前記所定値以下または未満になった場合に、前記力覚の強さを上げる請求項4の操縦システム。
The moving body has an imaging unit that captures a subject and acquires an captured image.
When the force sense imparting unit images a predetermined region in the surrounding structure by the imaging unit and then images another region of the surrounding structure, the force sense applying unit changes the predetermined value and uses the surrounding information. The maneuvering system according to claim 4, wherein when the shortest distance to the surrounding structure among the indicated distances becomes less than or less than the predetermined value after the change, the strength of the force sense is increased.
前記操縦システムは、
表示部に画像を表示する表示制御部を有し、
前記表示制御部は、前記周囲構造物の形状を表す形状画像を表示するとともに、前記周囲構造物に対する位置の前記移動体を、前記形状画像に対する位置を表す位置画像として表示する請求項2ないし5いずれか一項の操縦システム。
The maneuvering system
It has a display control unit that displays an image on the display unit.
The display control unit displays a shape image showing the shape of the surrounding structure, and displays the moving body at a position with respect to the surrounding structure as a position image showing the position with respect to the shape image. Any one of the maneuvering systems.
前記形状画像は、前記周囲構造物の3次元モデル画像であり、前記位置画像は3Dカーソルである請求項6の操縦システム。 The maneuvering system according to claim 6, wherein the shape image is a three-dimensional model image of the surrounding structure, and the position image is a 3D cursor. 前記表示部はヘッドマウントディスプレイであり、
前記表示制御部は、前記ヘッドマウントディスプレイの動きを検知するセンサの検知結果に基づき、前記形状画像の表示を変化させる請求項6または7いずれか一項の操縦システム。
The display unit is a head-mounted display.
The control system according to claim 6 or 7, wherein the display control unit changes the display of the shape image based on the detection result of the sensor that detects the movement of the head-mounted display.
前記移動体は、ドローン、マルチコプタ、無人飛行体である請求項1ないし8いずれか一項の操縦システム。 The maneuvering system according to any one of claims 1 to 8, wherein the moving body is a drone, a multicopter, or an unmanned aerial vehicle. 前記操作部は、ハプティックインタフェースある請求項1ないし9いずれか一項の操縦システム。 The operation unit is a control system according to any one of claims 1 to 9, which has a haptic interface. 前記周囲構造物は橋梁である請求項2ないし10いずれか一項の操縦システム。 The maneuvering system according to any one of claims 2 to 10, wherein the peripheral structure is a bridge. 移動体を遠隔から操縦する操縦装置であって、
前記移動体が取得して前記操縦装置に送信された、前記移動体の周囲の情報を計測する周囲情報取得部によって計測された周囲情報を受信する受信部と、
前記移動体を操縦するための操作を受け付ける操作部と、
前記受信された周囲情報に基づいて、前記操作に対して力覚を与える力覚付与部と、を有する操縦装置。
A control device that remotely controls a moving body
A receiving unit that receives the surrounding information measured by the surrounding information acquisition unit that measures the information around the moving body, which is acquired by the moving body and transmitted to the control device.
An operation unit that accepts operations for maneuvering the moving body,
A control device having a force sense applying unit that gives a force sense to the operation based on the received surrounding information.
移動体を遠隔から操縦する操縦方法であって、
前記移動体を操縦するための操作を受け付ける操作受付ステップと、
前記移動体が取得して前記操縦装置に送信する、前記移動体の周囲の情報を取得する周囲情報取得部によって計測された周囲情報に基づいて前記操作に対して力覚を与える力覚付与ステップと、を含む操縦制御方法。
It is a control method that controls a moving body remotely.
An operation reception step that accepts an operation for manipulating the moving body, and
A force sense imparting step that gives a force sense to the operation based on the surrounding information measured by the surrounding information acquisition unit that acquires the information around the moving body and transmits it to the control device. And, including maneuvering control methods.
コンピュータに、請求項13に記載の方法を実行させるプログラム。
A program that causes a computer to perform the method according to claim 13.
JP2019024015A 2019-02-13 2019-02-13 Maneuvering system, maneuvering device, maneuvering control method, and program Withdrawn JP2020131768A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019024015A JP2020131768A (en) 2019-02-13 2019-02-13 Maneuvering system, maneuvering device, maneuvering control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019024015A JP2020131768A (en) 2019-02-13 2019-02-13 Maneuvering system, maneuvering device, maneuvering control method, and program

Publications (1)

Publication Number Publication Date
JP2020131768A true JP2020131768A (en) 2020-08-31

Family

ID=72277455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019024015A Withdrawn JP2020131768A (en) 2019-02-13 2019-02-13 Maneuvering system, maneuvering device, maneuvering control method, and program

Country Status (1)

Country Link
JP (1) JP2020131768A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010248703A (en) * 2009-04-10 2010-11-04 Ntt Docomo Inc Control system, control method, operation control unit, and working device
JP2012201176A (en) * 2011-03-24 2012-10-22 Mitsubishi Heavy Ind Ltd Collision avoidance apparatus, helicopter, and collision avoidance program
JP2014094746A (en) * 2012-11-09 2014-05-22 Ge Aviation Systems Ltd Aircraft haptic touch screen and method for operating the same
JP2017501475A (en) * 2014-09-05 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Flight mode selection based on situation
JP2018110352A (en) * 2017-01-05 2018-07-12 Kddi株式会社 Steering device, information processing method, program, and flight system
JP2018116443A (en) * 2017-01-18 2018-07-26 住友重機械工業株式会社 Inspection system
JP2018165066A (en) * 2017-03-28 2018-10-25 セイコーエプソン株式会社 Head mounted display and method for controlling the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010248703A (en) * 2009-04-10 2010-11-04 Ntt Docomo Inc Control system, control method, operation control unit, and working device
JP2012201176A (en) * 2011-03-24 2012-10-22 Mitsubishi Heavy Ind Ltd Collision avoidance apparatus, helicopter, and collision avoidance program
JP2014094746A (en) * 2012-11-09 2014-05-22 Ge Aviation Systems Ltd Aircraft haptic touch screen and method for operating the same
JP2017501475A (en) * 2014-09-05 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Flight mode selection based on situation
JP2018110352A (en) * 2017-01-05 2018-07-12 Kddi株式会社 Steering device, information processing method, program, and flight system
JP2018116443A (en) * 2017-01-18 2018-07-26 住友重機械工業株式会社 Inspection system
JP2018165066A (en) * 2017-03-28 2018-10-25 セイコーエプソン株式会社 Head mounted display and method for controlling the same

Similar Documents

Publication Publication Date Title
US10712739B1 (en) Feedback to facilitate control of unmanned aerial vehicles (UAVs)
JP6228679B2 (en) Gimbal and gimbal simulation system
JP7008948B2 (en) Inspection system, mobile robot device and inspection method
JP6962812B2 (en) Information processing equipment, flight control instruction method, program, and recording medium
JP2017151008A (en) Flight vehicle tracking method, flight vehicle image acquisition method, flight vehicle display method, and flight vehicle guide system
JP2019507924A (en) System and method for adjusting UAV trajectory
JP6675537B1 (en) Flight path generation device, flight path generation method and program, and structure inspection method
WO2019230604A1 (en) Inspection system
WO2018112848A1 (en) Flight control method and apparatus
WO2021251441A1 (en) Method, system, and program
JPWO2020166178A1 (en) Information processing equipment, information processing methods and programs
WO2019105231A1 (en) Information processing apparatus, flight control instruction method and recording medium
JP6875269B2 (en) Information processing equipment, flight control instruction method, program, and recording medium
JP7435599B2 (en) Information processing device, information processing method, and program
JP6681101B2 (en) Inspection system
WO2021079516A1 (en) Flight route creation method for flying body and management server
JP6560479B1 (en) Unmanned aircraft control system, unmanned aircraft control method, and program
JP2020131768A (en) Maneuvering system, maneuvering device, maneuvering control method, and program
JP2019211486A (en) Inspection system
JP7004374B1 (en) Movement route generation method and program of moving object, management server, management system
JP2020036163A (en) Information processing apparatus, photographing control method, program, and recording medium
JP6818379B1 (en) Flight route creation method and management server for aircraft
JP6684012B1 (en) Information processing apparatus and information processing method
US20220166917A1 (en) Information processing apparatus, information processing method, and program
KR102542181B1 (en) Method and apparatus for controlling unmanned air vehicle for generating 360 degree virtual reality image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20230308