JP2017163265A - Controlling support system, information processing device, and program - Google Patents

Controlling support system, information processing device, and program Download PDF

Info

Publication number
JP2017163265A
JP2017163265A JP2016044531A JP2016044531A JP2017163265A JP 2017163265 A JP2017163265 A JP 2017163265A JP 2016044531 A JP2016044531 A JP 2016044531A JP 2016044531 A JP2016044531 A JP 2016044531A JP 2017163265 A JP2017163265 A JP 2017163265A
Authority
JP
Japan
Prior art keywords
image
spherical
information processing
traveling direction
air vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016044531A
Other languages
Japanese (ja)
Inventor
文幸 吉田
Fumiyuki Yoshida
文幸 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016044531A priority Critical patent/JP2017163265A/en
Publication of JP2017163265A publication Critical patent/JP2017163265A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system for supporting a safety flight of an unmanned flying object.SOLUTION: A flying object controlling support system 1000 includes: an unmanned flying object 20 on which an omnidirectional imaging device; an information processing device 10 that forms controlling supporting image; display means 12 of displaying the controlling supporting image; and visual field change means 302 of designating the change of a visual field of the controlling supporting image. The unmanned flying object includes: a photographing image transmission part 202 that transmits a photographing image photographed by the omnidirectional imaging device to the information processing device; and a sensor information transmission part 204 that transmits sensor information indicating a posture of an airframe at the photographing of the photographing image to the information processing device. The information processing device includes: a spherical image formation part 102 that forms a spherical image obtained by attaching an entire-celestial-sphere image to a virtual spherical surface on the basis of the photographing image received from the unmanned flying object; and a controlling supporting image formation part 108 in which an image region corresponding to an arbitrate visual field designated by the spherical image is cut out, and that forms the controlling supporting image on the basis of a plane-surface image formed by projecting and converting the image region.SELECTED DRAWING: Figure 3

Description

本発明は、操縦支援システム、情報処理装置およびプログラムに関する。   The present invention relates to a steering support system, an information processing apparatus, and a program.

近年、高度成長期に建設されたトンネル・橋梁などの公共インフラの老朽化が進んでおり、それが原因で各地で悲惨な崩落事故も発生していることから、早急な対策が迫られているが、近年の人手不足や財政難の影響で、思うように点検作業が進んでいない。   In recent years, public infrastructure such as tunnels and bridges constructed during the high growth period has been aging, and due to this, there have been catastrophic collapse accidents in various places. However, due to the recent shortage of labor and financial difficulties, the inspection work has not progressed as expected.

この点につき、近年、カメラを搭載した無人飛行体を利用して公共インフラの点検を行うことが検討されている。この場合、点検者は、直接目視できない場所を飛行する無人飛行体から送信される映像に頼って、無人飛行体の操縦と目的箇所の点検を同時的に行うことになる   In recent years, it has been studied to inspect public infrastructure using an unmanned air vehicle equipped with a camera. In this case, the inspector relies on the image transmitted from the unmanned air vehicle flying in a place where it cannot be directly seen, and simultaneously controls the unmanned air vehicle and checks the target location.

ここで、機体の操縦性や点検効率の観点からすれば、カメラの撮影方向を自在に変更する駆動機構が無人飛行体に搭載されていることが好ましいが、一方で、駆動機構の搭載は、電力消費やペイロード(搭載重量)の増大を招くため、飛行の安全性や長時間化の観点からは好ましくない。   Here, from the viewpoint of maneuverability and inspection efficiency of the aircraft, it is preferable that the driving mechanism that freely changes the shooting direction of the camera is mounted on the unmanned air vehicle, but on the other hand, the mounting of the driving mechanism is This increases power consumption and payload (loading weight), which is not preferable from the viewpoint of flight safety and longer time.

一方、全方位カメラで取得した映像を加工して、ユーザが指定した任意の注視点に対応する範囲の平面画像として見せる技術が知られている(例えば、特許文献1)。   On the other hand, a technique is known in which a video acquired by an omnidirectional camera is processed and displayed as a planar image in a range corresponding to an arbitrary gazing point designated by a user (for example, Patent Document 1).

本発明は、上記問題に鑑みてなされたものであり、無人飛行体の安全な飛行を支援するための飛行体操縦支援システムを提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a flying object maneuvering support system for supporting safe flight of an unmanned flying object.

本発明者は、無人飛行体の安全な飛行を支援するための飛行体操縦支援システムにつき鋭意検討した結果、以下の構成に想到し、本発明に至ったのである。   As a result of earnest studies on the flying object maneuvering support system for supporting the safe flight of the unmanned aerial vehicle, the present inventor has arrived at the present invention and arrived at the present invention.

すなわち、本発明によれば、全方位撮像装置を搭載した無人飛行体と、前記無人飛行体の操縦を支援する操縦支援画像を生成する情報処理装置と、前記操縦支援画像を表示する表示手段と、前記操縦支援画像の視野の変更を指定するための視野変更手段と、を含む操縦支援システムであって、前記無人飛行体は、前記全方位撮像装置が撮影した撮影画像を前記情報処理装置に送信する撮影画像送信部と、前記撮影画像の撮影時の機体の姿勢を示すセンサ情報を前記情報処理装置に送信するセンサ情報送信部と、を含み、前記情報処理装置は、前記無人飛行体から受信した前記撮影画像に基づいて全天球画像を生成し、全天球画像を仮想球面に貼り付けて球面画像を生成する球面画像生成部と、前記球面画像から、前記視野変更手段が指定する任意の視野に対応する画像領域を切り出し、該画像領域を投影変換してなる平面画像に基づいて前記操縦支援画像を生成する操縦支援画像生成部とを含む操縦支援システムが提供される。   That is, according to the present invention, an unmanned aerial vehicle equipped with an omnidirectional imaging device, an information processing device that generates a steering assistance image that supports the manipulation of the unmanned aerial vehicle, and a display unit that displays the steering assistance image And a field of view changing means for designating a change of the field of view of the steering assistance image, wherein the unmanned air vehicle provides the information processing device with a captured image taken by the omnidirectional imaging device. A captured image transmission unit for transmitting, and a sensor information transmission unit for transmitting sensor information indicating the attitude of the aircraft at the time of capturing the captured image to the information processing device, the information processing device from the unmanned aerial vehicle A spherical image generation unit that generates an omnidirectional image based on the received photographed image, pastes the omnidirectional image to a virtual spherical surface to generate a spherical image, and the visual field changing unit specifies from the spherical image Cut out image area corresponding to the field of view at will, steering assistance system that includes a steering assist image generation unit which generates the steering assist image based on the image area on the planar image obtained by projection transformation is provided.

上述したように、本発明によれば、無人飛行体の安全な飛行を支援するための飛行体操縦支援システムが提供される。   As described above, according to the present invention, a flying object maneuvering support system for supporting safe flight of an unmanned flying object is provided.

本実施形態の飛行体操縦支援システムのシステム構成図。1 is a system configuration diagram of a flying object handling support system of an embodiment. 本実施形態の無人飛行体と操縦装置を示す図。The figure which shows the unmanned air vehicle and control apparatus of this embodiment. 本実施形態の飛行体操縦支援システムの機能ブロック図。The functional block diagram of the flying object maneuvering assistance system of this embodiment. 球面画像生成部が実行する処理を説明するための図。The figure for demonstrating the process which a spherical image production | generation part performs. 球面画像生成部が実行する処理を説明するための図。The figure for demonstrating the process which a spherical image production | generation part performs. 本実施形態の情報処理装置が実行する処理のフローチャート。6 is a flowchart of processing executed by the information processing apparatus according to the embodiment. 本実施形態の情報処理装置が実行する処理のフローチャート。6 is a flowchart of processing executed by the information processing apparatus according to the embodiment. 本実施形態の効果を説明するための図。The figure for demonstrating the effect of this embodiment. 本実施形態の飛行体操縦支援システムのハードウェア構成図。1 is a hardware configuration diagram of a flying object maneuvering support system of an embodiment.

以下、本発明を、実施形態をもって説明するが、本発明は後述する実施形態に限定されるものではない。なお、以下に参照する各図においては、共通する要素について同じ符号を用い、適宜、その説明を省略するものとする。   Hereinafter, although this invention is demonstrated with embodiment, this invention is not limited to embodiment mentioned later. In the drawings referred to below, the same reference numerals are used for common elements, and the description thereof is omitted as appropriate.

図1は、本発明の実施形態である飛行体操縦支援システム1000のシステム構成を示す。図1に示すように、本実施形態の飛行体操縦支援システム1000は、無人飛行体20と、無人飛行体20を無線操縦するための操縦装置30と、情報処理装置10と、ディスプレイ12とを含んで構成されている。   FIG. 1 shows a system configuration of a flying object handling support system 1000 according to an embodiment of the present invention. As shown in FIG. 1, the flying object maneuvering support system 1000 according to this embodiment includes an unmanned aerial vehicle 20, a maneuvering device 30 for wirelessly maneuvering the unmanned aerial vehicle 20, an information processing device 10, and a display 12. It is configured to include.

本実施形態の無人飛行体20は、無線操縦で自律飛行する飛行体であり、好ましくは、マルチコプターである。図1に示すように、無人飛行体20は、全方位360度を動画撮影することができる全方位撮像装置22を搭載しており、全方位撮像装置22が撮影した画像を情報処理装置10に無線でリアルタイム送信する。以下、全方位撮像装置22を“全天球カメラ22”という。   The unmanned air vehicle 20 of the present embodiment is an air vehicle that autonomously flies by radio control, and is preferably a multicopter. As shown in FIG. 1, the unmanned aerial vehicle 20 is equipped with an omnidirectional imaging device 22 that can shoot 360 degrees of moving images, and images captured by the omnidirectional imaging device 22 are stored in the information processing device 10. Real-time transmission by radio. Hereinafter, the omnidirectional imaging device 22 is referred to as an “omnidirectional camera 22”.

本実施形態の情報処理装置10は、無人飛行体20からリアルタイム送信される全天球カメラ22の撮影画像に基づいて所定の画像処理を実行するコンピュータであり、無人飛行体20の遠隔操縦を支援するための画像(以下、操縦支援画像という)をリアルタイムに生成する役割を担う。情報処理装置10は、生成した操縦支援画像を表示手段12に出力し、表示手段12がこれを表示する。なお、情報処理装置10とディスプレイ12の接続方式は有線または無線のいずれであってもよい。以下、表示手段12を“ディスプレイ12”という。   The information processing apparatus 10 according to the present embodiment is a computer that executes predetermined image processing based on a captured image of the omnidirectional camera 22 transmitted in real time from the unmanned air vehicle 20, and supports remote control of the unmanned air vehicle 20. It plays a role of generating an image (hereinafter referred to as a steering assistance image) for real time in real time. The information processing apparatus 10 outputs the generated steering assistance image to the display unit 12, and the display unit 12 displays this. The connection method between the information processing apparatus 10 and the display 12 may be either wired or wireless. Hereinafter, the display means 12 is referred to as “display 12”.

操縦装置30は、無人飛行体20を無線で遠隔操縦するための既知の操縦機能に加えて、ディスプレイ12に表示される操縦支援画像操縦の視野の変更を指定するための操作信号を情報処理装置10に送信する機能を備える。なお、操作信号の送信方式は有線または無線のいずれであってもよい。   In addition to a known control function for remotely controlling the unmanned air vehicle 20 by radio, the control device 30 receives an operation signal for specifying a change in the field of view of the control support image displayed on the display 12 as an information processing device. 10 is provided. Note that the operation signal transmission method may be either wired or wireless.

ここで、無人飛行体20および操縦装置30の詳細構成を図2に基づいて説明する。   Here, detailed configurations of the unmanned air vehicle 20 and the control device 30 will be described with reference to FIG.

図2(a)は、無人飛行体20の正面図と側面図を併せて示す。本実施形態において、無人飛行体20は、マイクロコンピュータ(図示せず)を搭載しており、マイクロコンピュータが機体の自律飛行制御と情報処理装置10に対するデータ送信を行う。   FIG. 2A shows a front view and a side view of the unmanned air vehicle 20 together. In the present embodiment, the unmanned air vehicle 20 is equipped with a microcomputer (not shown), and the microcomputer performs autonomous flight control of the aircraft and data transmission to the information processing apparatus 10.

また、無人飛行体20は、安定飛行を実現するための各種センサを搭載する。無人飛行体20のマイクロコンピュータは、各種センサ情報を情報処理装置10に無線でリアルタイム送信する。ここいうセンサとは、例えば、3軸ジャイロセンサ、3軸加速度センサ、3軸地磁気センサであり、無人飛行体20は、少なくとも、3軸ジャイロセンサを搭載し、3軸(x,y,z)の角速度を機体の姿勢を示すセンサ情報として取得・送信するように構成されている。   The unmanned air vehicle 20 is equipped with various sensors for realizing stable flight. The microcomputer of the unmanned air vehicle 20 wirelessly transmits various sensor information to the information processing apparatus 10 in real time. The sensor here is, for example, a three-axis gyro sensor, a three-axis acceleration sensor, or a three-axis geomagnetic sensor, and the unmanned air vehicle 20 has at least a three-axis gyro sensor and three axes (x, y, z). Is obtained and transmitted as sensor information indicating the attitude of the aircraft.

さらに、無人飛行体20は、先述したように、全方位360度を動画撮影することができる全天球カメラ22を搭載する。本実施形態における全天球カメラ22は、2つの魚眼レンズを含む撮像光学系を有し、各魚眼レンズは、180度を超える画角を有している。全天球カメラ22は、一方の撮像光学系によって無人飛行体20の前方180度超の範囲を撮影して第1の魚眼画像を取得し、他方の撮像光学系によって無人飛行体20の後方180度超の範囲を撮影して第2の魚眼画像を取得するように構成されており、無人飛行体20のマイクロコンピュータは、全天球カメラ22が取得した2つの撮影画像(第1の魚眼画像および第2の魚眼画像)を情報処理装置10に無線でリアルタイム送信する。   Further, as described above, the unmanned air vehicle 20 is equipped with the omnidirectional camera 22 that can shoot 360 degrees in all directions. The omnidirectional camera 22 in this embodiment has an imaging optical system including two fisheye lenses, and each fisheye lens has an angle of view exceeding 180 degrees. The omnidirectional camera 22 captures a range of more than 180 degrees ahead of the unmanned aerial vehicle 20 with one imaging optical system to obtain a first fisheye image, and the rear of the unmanned aircraft 20 with the other imaging optical system. The second fisheye image is obtained by photographing a range exceeding 180 degrees, and the microcomputer of the unmanned air vehicle 20 has two photographed images (the first images acquired by the omnidirectional camera 22). A fish-eye image and a second fish-eye image) are wirelessly transmitted to the information processing apparatus 10 in real time.

図2(b)は、操縦装置30を示す。操縦装置30は、無人飛行体20の動き(前後、左右、上下、旋回)を遠隔操作するための操作レバー33などの既知の操作用インターフェースに加えて、ディスプレイ12に表示される操縦支援画像の視野を指定する操作を受け付けるインターフェースとして、6つのボタンからなるボタン群32を備えている。ここで、ボタン群32は、視野を左右に移動させるパン操作を受け付ける2つのパンボタン(右、左)、視野を上下に移動させるチルト操作を受け付ける2つのチルトボタン(上、下)、視野の拡大・縮小を受け付けるためのズームインボタンおよびズームアウトボタンからなる。   FIG. 2B shows the control device 30. In addition to a known operation interface such as an operation lever 33 for remotely controlling the movement (front / back, left / right, up / down, and turning) of the unmanned air vehicle 20, the control device 30 displays an operation support image displayed on the display 12. A button group 32 including six buttons is provided as an interface for accepting an operation for designating a visual field. Here, the button group 32 includes two pan buttons (right and left) for accepting a pan operation for moving the visual field to the left and right, two tilt buttons (up and down) for accepting a tilt operation for moving the visual field up and down, It consists of a zoom-in button and a zoom-out button for accepting enlargement / reduction.

本システムでは、ユーザは、無人飛行体20から送信される全天球カメラ22の撮影画像に基づいてリアルタイムに生成される操縦支援画像をディスプレイ12上で確認しながら、操縦装置30の操作レバー33で無人飛行体20の飛行を遠隔操作する。ここで、本システムでは、ユーザが、必要に応じて、操縦装置30のボタン群32を介して、視野を上下左右に移動したり(パン、チルト)、視野の拡大・縮小を行ったり(ズームイン、ズームアウト)することにより、無人飛行体20の進行方向前方の視野に対応する画像だけでなく、ユーザが任意に指定する任意の視野に対応する画像をリアルタイムに視認することができるようになっている。   In this system, the user checks the operation support image generated in real time on the display 12 based on the image captured by the omnidirectional camera 22 transmitted from the unmanned air vehicle 20, while operating the operation lever 33 of the control device 30. To remotely control the flight of the unmanned air vehicle 20. Here, in this system, the user moves the field of view up and down and left and right (pan, tilt), and enlarges / reduces the field of view (zoom in as necessary) via the button group 32 of the control device 30. By zooming out), not only the image corresponding to the field of view of the unmanned air vehicle 20 in the traveling direction but also the image corresponding to the field of view arbitrarily designated by the user can be viewed in real time. ing.

これにより、ユーザは、時々刻々と変化する全方位の状況を目視で確認しながら無人飛行体20を操縦することが可能になり、障害物が多い挟所においても、無人飛行体20を安全に飛行させることが可能になる。   Thus, the user can maneuver the unmanned aerial vehicle 20 while visually checking the omnidirectional situation that changes from moment to moment, and the unmanned aerial vehicle 20 can be safely operated even in a niche with many obstacles. It becomes possible to fly.

ただし、無人飛行体20の進行方向前方以外の視野を自由に見ることができる(よそ見ができる)ということは、一方で、ユーザが無人飛行体20の進行方向を見失う原因にもなる。この点つき、本システムでは、ユーザが無人飛行体20の進行方向を見失わない工夫がなされており、その詳しい内容については後述する。   However, the fact that the field of view of the unmanned air vehicle 20 other than the front of the unmanned air vehicle 20 can be freely seen (can be looked away) also causes the user to lose sight of the travel direction of the unmanned air vehicle 20. With this point, the present system is devised so that the user does not lose sight of the traveling direction of the unmanned air vehicle 20, and the details will be described later.

以上、本実施形態の飛行体操縦支援システム1000を構成する各装置の構成について説明してきたが、続いて、本システムを構成する各装置の機能構成を図3に示す機能ブロック図に基づいて説明する。   As mentioned above, although the structure of each apparatus which comprises the flying object steering assistance system 1000 of this embodiment was demonstrated, it continues and the functional structure of each apparatus which comprises this system is demonstrated based on the functional block diagram shown in FIG. To do.

無人飛行体20は、撮影画像送信部202とセンサ情報送信部204を含んで構成される。   The unmanned air vehicle 20 includes a captured image transmission unit 202 and a sensor information transmission unit 204.

撮影画像送信部202は、全天球カメラ22が撮影した画像(2つの魚眼画像)を情報処理装置10に無線でリアルタイム送信する手段である。   The captured image transmission unit 202 is a means for wirelessly transmitting the images (two fisheye images) captured by the omnidirectional camera 22 to the information processing apparatus 10 in real time.

センサ情報送信部204は、少なくとも3軸ジャイロセンサのセンサ出力であるを3軸(x,y,z)の角速度を機体の姿勢を示すセンサ情報として情報処理装置10に無線でリアルタイム送信する手段である。   The sensor information transmission unit 204 is a means for wirelessly transmitting in real time to the information processing apparatus 10 as sensor information indicating the attitude of the airframe, the angular velocity of the three axes (x, y, z) that is at least the sensor output of the three-axis gyro sensor. is there.

なお、本実施形態では、無人飛行体20に搭載されるマイクロコンピュータが所定のプログラムを実行することにより、無人飛行体20が上述した各手段として機能する。   In the present embodiment, the unmanned aerial vehicle 20 functions as the above-described units when a microcomputer mounted on the unmanned air vehicle 20 executes a predetermined program.

操縦装置30は、視野変更手段302と飛行制御手段304を含んで構成される。   The control device 30 includes a visual field changing unit 302 and a flight control unit 304.

飛行制御手段304は、無人飛行体20の動き(前後、左右、上下、旋回)を遠隔制御するための既知の手段である。   The flight control means 304 is a known means for remotely controlling the movement (front / rear, left / right, up / down, turning) of the unmanned air vehicle 20.

視野変更手段302は、ボタン群32を介した操作に応じて、操縦支援画像の視野の変更を指定するための操作信号を情報処理装置10に送信する手段である。   The field-of-view changing unit 302 is a unit that transmits an operation signal for designating the change of the field of view of the steering assistance image to the information processing apparatus 10 according to an operation via the button group 32.

情報処理装置10は、球面画像生成部102、進行方向特定部104、進行方向描画部106および操縦支援画像生成部108を含んで構成される。   The information processing apparatus 10 includes a spherical image generating unit 102, a traveling direction specifying unit 104, a traveling direction drawing unit 106, and a steering assistance image generating unit 108.

球面画像生成部102は、無人飛行体20から受信した撮影画像に基づいて全天球画像を生成し、全天球画像を仮想的な球面に貼り付けて球面画像を生成する手段である。   The spherical image generation unit 102 is a unit that generates an omnidirectional image based on the captured image received from the unmanned air vehicle 20, and generates a spherical image by pasting the omnidirectional image on a virtual spherical surface.

進行方向特定部104は、無人飛行体20から受信したセンサ情報(3軸(x,y,z)の角速度)に基づいて無人飛行体20の現在の姿勢を求め、求めた現在の姿勢から無人飛行体20の現在の進行方向を特定する手段である。   The traveling direction specifying unit 104 obtains the current attitude of the unmanned aerial vehicle 20 based on the sensor information (angular velocity of three axes (x, y, z)) received from the unmanned aerial vehicle 20, and unmanned from the obtained current attitude. It is a means for specifying the current traveling direction of the flying object 20.

進行方向描画部106は、球面画像生成部102が生成した球面画像における進行方向の位置に所定の印を描画する手段である。   The traveling direction drawing unit 106 is a unit that draws a predetermined mark at a position in the traveling direction in the spherical image generated by the spherical image generation unit 102.

操縦支援画像生成部108は、進行方向描画部106が所定の印を描画した球面画像から、操縦装置30(視野変更手段302)から送信される操作信号によて指定される任意の視野に対応する画像領域を切り出し、切り出した画像領域を投影変換してなる平面画像に基づいて操縦支援画像を生成する手段である。   The steering support image generation unit 108 corresponds to an arbitrary field of view specified by an operation signal transmitted from the control device 30 (field of view changing unit 302) from a spherical image in which the traveling direction drawing unit 106 has drawn a predetermined mark. This is means for generating an operation support image based on a plane image formed by cutting out an image area to be cut and projecting the cut out image area.

なお、本実施形態では、情報処理装置10に搭載されるプロセッサが所定のプログラムを実行することにより、情報処理装置10が上述した各手段として機能する。   In the present embodiment, the information processing apparatus 10 functions as each unit described above when a processor mounted on the information processing apparatus 10 executes a predetermined program.

以上、本システムを構成する各装置の機能構成について説明してきたが、続いて、情報処理装置10の上述した各手段が実行する具体的な処理の内容を説明する。   The functional configuration of each device constituting this system has been described above. Next, the content of specific processing executed by each unit described above of the information processing device 10 will be described.

まず最初に、球面画像生成部102が実行する処理を説明する。   First, processing executed by the spherical image generation unit 102 will be described.

本実施形態において、球面画像生成部102は、無人飛行体20から受信した2つの魚眼画像に基づいて、下記(1)〜(3)の手順で球面画像を生成する。
(1)無人飛行体20から受信した2つの魚眼画像を読み出す。図4(a)は、その2つの魚眼画像を例示する。
(2)それぞれの魚眼画像に対して、カメラレンズごとの特性に応じたカメラ補正行列を用いた写像により、歪み補正を施した後、歪み補正後の2つの画像をスティッチング(貼りあわせ)し、これに天地補正を施して、1枚の全天球画像を生成する。図4(b)は、生成された全天球画像を例示する。
(3)既知のテクスチャマッピングの手法を用いて、生成された全天球画像を仮想球体の内面に貼り付けた3次元モデルを球面画像として生成する。図4(c)は、生成された球面画像を例示する。
In the present embodiment, the spherical image generation unit 102 generates a spherical image by the following procedures (1) to (3) based on the two fisheye images received from the unmanned air vehicle 20.
(1) Two fisheye images received from the unmanned air vehicle 20 are read out. FIG. 4A illustrates the two fisheye images.
(2) After distortion correction is performed on each fisheye image by mapping using a camera correction matrix corresponding to the characteristics of each camera lens, the two images after distortion correction are stitched (bonded). Then, top and bottom correction is performed on this to generate a single spherical image. FIG. 4B illustrates the generated omnidirectional image.
(3) Using a known texture mapping technique, a three-dimensional model in which the generated omnidirectional image is pasted on the inner surface of the virtual sphere is generated as a spherical image. FIG. 4C illustrates the generated spherical image.

続いて、操縦支援画像生成部108が実行する処理を説明する。   Next, processing executed by the steering assistance image generation unit 108 will be described.

操縦支援画像生成部108は、球面画像生成部102が生成した球面画像から、操縦装置30の視野変更手段302によって指定された視野に対応する画像領域rを切り出し、切り出した画像領域rに対して、仮想球体の中心を投影中心(原点)とする透視投影変換を行って平面画像Rを生成する。図5は、球面画像から画像領域rが切り出され、平面画像Rに透視投影変換される流れを概念的に示す。なお、本実施形態では、透視投影変換のパラメータ(視線方向、視野角、投影範囲(zNear,zFar)、アスペクト比)のうち、「視線方向」が操縦装置30のボタン群32の4つのボタン(パンとチルト)を介した入力によって変更されることで、視野が指定される。   The steering assist image generation unit 108 cuts out an image region r corresponding to the field of view specified by the field of view changing unit 302 of the steering device 30 from the spherical image generated by the spherical image generation unit 102, and the cut image region r is extracted. The plane image R is generated by performing perspective projection transformation with the center of the virtual sphere as the projection center (origin). FIG. 5 conceptually shows a flow in which the image region r is cut out from the spherical image and is perspective-projected into the flat image R. In the present embodiment, among the perspective projection conversion parameters (line-of-sight direction, viewing angle, projection range (zNear, zFar), aspect ratio), the “line-of-sight direction” is the four buttons of the button group 32 of the control device 30 ( The field of view is specified by being changed by input via (pan and tilt).

以上、球面画像生成部102と操縦支援画像生成部108が実行する処理について説明してきたが、続いて、情報処理装置10の上述した各手段が協働して実行する処理を図6に示すフローチャートに基づいて説明する。   The processing executed by the spherical image generation unit 102 and the steering support image generation unit 108 has been described above. Subsequently, the processing shown in FIG. Based on

まず、ステップ101で、図5の球面画像からの画像の切り出し位置の初期状態を示す向きと傾き(角速度)を設定する。ここで、本実施形態では、操縦支援画像生成部108は、球面画像からの現在の画像切り出し位置を示す向きと傾きをそれぞれ実部および虚部とするクォータニオン(四元数)を保持しており、ステップ101では、クォータニオンの4つの要素を0に設定する。   First, in step 101, the direction and inclination (angular velocity) indicating the initial state of the cutout position of the image from the spherical image in FIG. 5 are set. Here, in the present embodiment, the steering assist image generation unit 108 holds quaternions (quaternions) having a real part and an imaginary part indicating the current image cut-out position from the spherical image and the inclination, respectively. In step 101, the four elements of the quaternion are set to zero.

続くステップ102では、パースペクティブの値を初期値に設定する。   In the following step 102, the perspective value is set to the initial value.

以降、後述するステップ103〜113の処理を繰り返し実行する。   Thereafter, steps 103 to 113 described later are repeatedly executed.

まず、ステップ103では、「パン」ボタンまたは「チルト」ボタンが押されているか否かを判断する。その結果、いずれのボタンも押されていない場合は(ステップ103、No)、処理はステップ107に進む。   First, in step 103, it is determined whether or not the “pan” button or the “tilt” button is pressed. As a result, when no button is pressed (No at Step 103), the process proceeds to Step 107.

一方、「パン」ボタンまたは「チルト」ボタンが押されている場合は(ステップ103、Yes)、続くステップ104で、押されているボタン(パン(左)、パン(右)、チルト(上)、チルト(下))に対応する変数「角度」を更新する。例えば、押されたボタンが「パン(右)」であれば、ボタンが押された時間を角速度に変換して、相当する回転を右側へ与えるように変数「角度」を更新する。仮に、100ms毎にステップ103〜113が繰り返されるとすると、ボタンが押された時間1秒につきπ/6角速度を変化させるルールの下では、ステップ104で、押されたボタンに対応する方向(左右上下)へπ/60(=π/6×0.1)の回転を与えるように変数「角度」を更新する。   On the other hand, when the “pan” button or the “tilt” button is pressed (step 103, Yes), in the subsequent step 104, the pressed button (pan (left), pan (right), tilt (up)). , Tilt (down)), the variable “angle” is updated. For example, if the pressed button is “pan (right)”, the time when the button is pressed is converted into an angular velocity, and the variable “angle” is updated so as to give the corresponding rotation to the right side. If steps 103 to 113 are repeated every 100 ms, under the rule that changes the π / 6 angular velocity per second when the button is pressed, the direction corresponding to the pressed button (left and right) is determined in step 104. Update the variable “angle” to give a rotation of π / 60 (= π / 6 × 0.1) to the top and bottom).

続くステップ105で、更新後の角度に基づいて新たなクォータニオンを生成する。ここで、クォータニオンは、角速度とx,y,z軸が決まれば一義的に求まり、画像は平面なのでzは常に0となる。   In the subsequent step 105, a new quaternion is generated based on the updated angle. Here, the quaternion is uniquely obtained when the angular velocity and the x, y, and z axes are determined, and z is always 0 because the image is a plane.

続くステップ106では、現在の画像切り出し位置を示すクォータニオンに、先のステップ105で生成したクォータニオンを掛けて、現在の画像切り出し位置を示すクォータニオンを更新する。   In subsequent step 106, the quaternion indicating the current image cutout position is updated by multiplying the quaternion indicating the current image cutout position by the quaternion generated in the previous step 105.

続くステップ107では、「ズームイン」ボタンが押されているか否かを判断する。その結果、「ズームイン」ボタンが押されていない場合は(ステップ107、No)、処理はステップ108に進む。   In the following step 107, it is determined whether or not the “zoom in” button is pressed. As a result, when the “zoom-in” button is not pressed (No at Step 107), the process proceeds to Step 108.

一方、「ズームイン」ボタンが押されていた場合は(ステップ107、Yes)、続くステップ108で、パースペクティブを「zNear」側に増分値を足し込む。   On the other hand, if the “zoom-in” button has been pressed (step 107, Yes), in the subsequent step 108, the perspective is added to the “zNear” side by an increment value.

続くステップ109では、「ズームアウト」ボタンが押されているか否かを判断する。その結果、「ズームアウト」ボタンが押されていない場合は(ステップ109、No)、処理はステップ111に進む。   In the following step 109, it is determined whether or not the “zoom out” button is pressed. As a result, if the “zoom out” button has not been pressed (step 109, No), the process proceeds to step 111.

一方、「ズームアウト」ボタンが押されている場合は(ステップ109、Yes)、続くステップ110で、パースペクティブを「zFar」側に増分値を足し込む。   On the other hand, when the “zoom-out” button is pressed (step 109, Yes), the subsequent step 110 adds the increment value to the “zFar” side.

続くステップ111では、先出の進行方向特定部104と進行方向描画部106が協働して「進行方向描画処理」を実行する。ここで、「進行方向描画処理」の詳細内容を図7に示すフローチャートに基づいて説明する。   In the subsequent step 111, the advance direction specifying unit 104 and the advance direction drawing unit 106 cooperate to execute the “travel direction drawing process”. Here, the detailed content of the “traveling direction drawing process” will be described based on the flowchart shown in FIG.

まず、ステップ201では、無人飛行体20の初期の姿勢状態を示す向きと傾き(角速度)を設定する。ここで、操縦支援画像生成部108は、飛行体の姿勢状態を示す向きおよび傾きをそれぞれ実部および虚部とするクォータニオン(四元数)を保持しており、ステップ201では、クォータニオンの4つの要素を0に設定する。   First, in step 201, the direction and inclination (angular velocity) indicating the initial posture state of the unmanned air vehicle 20 are set. Here, the maneuvering support image generation unit 108 holds quaternions (quaternions) in which the direction and inclination indicating the attitude state of the flying object are respectively real and imaginary parts. Set the element to 0.

続くステップ202では、進行方向特定部104が、無人飛行体20から受信したセンサ情報の中から最新の角速度(3軸)を取得し、続くステップ203で、角速度の時間積分によって飛行体の現在の姿勢角を求め、続くステップ204で、飛行体の現在の姿勢状態を示すクォータニオンを更新する。これにより、無人飛行体20の最新の進行方向が特定される。   In the following step 202, the traveling direction specifying unit 104 acquires the latest angular velocity (three axes) from the sensor information received from the unmanned air vehicle 20, and in the subsequent step 203, the current direction of the aircraft is obtained by time angular integration. The attitude angle is obtained, and in the subsequent step 204, the quaternion indicating the current attitude state of the flying object is updated. Thereby, the latest traveling direction of the unmanned air vehicle 20 is specified.

続くステップ205では、進行方向描画部106が、無人飛行体20の現在の姿勢状態を示すクォータニオンが示す無人飛行体20の現在の進行方向の位置が現在の画像内に含まれるか否かを判断する。その結果、無人飛行体20の現在の進行方向の位置が現在の画像内に含まれていない場合は(ステップ205、No)、「進行方向描画処理」を終了する。   In the subsequent step 205, the traveling direction drawing unit 106 determines whether or not the current image includes the current traveling direction position of the unmanned air vehicle 20 indicated by the quaternion indicating the current attitude state of the unmanned air vehicle 20. To do. As a result, when the position of the unmanned air vehicle 20 in the current traveling direction is not included in the current image (No in Step 205), the “traveling direction drawing process” is ended.

一方、無人飛行体20の現在の姿勢状態を示すクォータニオンが示す位置が現在の画像内に含まれている場合は(ステップ205、Yes)、処理はステップ206に進む。続くステップ206では、進行方向描画部106が、メモリ上(フレームバッファ)の画像内の無人飛行体20の現在の進行方向の位置にアイコンを描画して、「進行方向描画処理」を終了する。なお、ステップ206で描画するアイコンは、進行方向を表す印としてユーザに認識されるものであればよく、その具体的な態様は任意である。   On the other hand, when the position indicated by the quaternion indicating the current posture state of the unmanned air vehicle 20 is included in the current image (step 205, Yes), the process proceeds to step 206. In the next step 206, the traveling direction drawing unit 106 draws an icon at the current traveling direction position of the unmanned air vehicle 20 in the image on the memory (frame buffer), and ends the “traveling direction drawing process”. Note that the icon drawn in step 206 may be any icon that can be recognized by the user as a mark indicating the traveling direction, and its specific mode is arbitrary.

上述したように、初期状態では、カメラのレンズ正面方向=無人飛行体20の進行方向となる。そして、飛行開始後は、無人飛行体20の最新の姿勢角に基づいて無人飛行体20のその時点の進行方向を特定することができる。その結果、最初の初期値座標から画像のx,y方向にどのくらい移動したかを把握することができ、その時点における画像の正面にあたる画像の位置を球面画像上の座標で把握することができる。これにより、向きが変更(パン・チルト)された球面画像における、無人飛行体20の進行方向の座標を把握することができ、球面画像からユーザが指定した視野に対応する画像を切り抜いたときに、進行方向の位置にあたる画像を切り抜いたかどうかがわかる。これに合わせ、画像の重ね合わせを行い、進行方向がわかるようにする。   As described above, in the initial state, the lens front direction of the camera is the traveling direction of the unmanned air vehicle 20. Then, after the flight starts, the traveling direction of the unmanned air vehicle 20 at that time can be specified based on the latest attitude angle of the unmanned air vehicle 20. As a result, it is possible to grasp how much the image has moved in the x and y directions from the initial initial value coordinates, and it is possible to grasp the position of the image corresponding to the front of the image at that time by coordinates on the spherical image. As a result, the coordinates of the traveling direction of the unmanned air vehicle 20 in the spherical image whose orientation has been changed (pan / tilt) can be grasped, and when the image corresponding to the field of view designated by the user is cut out from the spherical image. It can be determined whether the image corresponding to the position in the traveling direction has been cut out. In accordance with this, the images are superimposed so that the traveling direction can be known.

再び、図6に戻って説明を続ける。   Returning again to FIG. 6, the description will be continued.

ステップ111の「進行方向描画処理」を経た後、続くステップ112では、パースペクティブおよび現在の画像切り出し位置を用いて写像し、メモリ上(フレームバッファ)の画像を更新する。その後、ステップ113で次の画像を引き取って、再び、ステップ103に戻る。以降、上述したステップ103〜113の処理を繰り返す。   After passing through the “traveling direction drawing process” in step 111, in the subsequent step 112, mapping is performed using the perspective and the current image cutout position, and the image on the memory (frame buffer) is updated. Thereafter, in step 113, the next image is taken and the process returns to step 103 again. Thereafter, the processes in steps 103 to 113 described above are repeated.

ここで、上述したステップ103〜113の処理が繰り返されることによる効果を図8を例にとって説明する。   Here, an effect obtained by repeating the above-described steps 103 to 113 will be described with reference to FIG.

図8は、ユーザがディスプレイ12に表示される操作支援画像を見ながら操縦装置30を操作している状態を示す。図8(a)が示す状態では、操作支援画像の正面に無人飛行体20の進行方向を示す「○」アイコンが表示されており、このとき、ユーザは、操作支援画像の正面に表示される画像が無人飛行体20の進行方向前方の画像であることを認識した上で無人飛行体20を操縦することができる。   FIG. 8 shows a state where the user is operating the control device 30 while looking at the operation support image displayed on the display 12. In the state shown in FIG. 8A, a “◯” icon indicating the traveling direction of the unmanned air vehicle 20 is displayed in front of the operation support image. At this time, the user is displayed in front of the operation support image. The unmanned aerial vehicle 20 can be operated after recognizing that the image is an image ahead of the unmanned air vehicle 20 in the traveling direction.

続いて、操作支援画像の右側に映り込んだ対象Xに気づいたユーザが、対象Xをよく観察しようとして、操縦装置30の「パン(右)ボタン」を押すと、図8(b)が示すように、操作支援画像の正面に対象Xが映り込んだ画像が表示されるとともに、無人飛行体20の進行方向を示す「○」アイコンが操作支援画像の左側に移動する。このように、本実施形態によれば、ユーザは、無人飛行体20の進行方向を確認しながら、進行方向とは別の任意の方向を観察することが可能になる。   Subsequently, when a user who notices the target X reflected on the right side of the operation support image presses the “pan (right) button” of the control device 30 to observe the target X well, FIG. 8B shows. As described above, the image in which the target X is reflected is displayed in front of the operation support image, and the “◯” icon indicating the traveling direction of the unmanned air vehicle 20 moves to the left side of the operation support image. Thus, according to the present embodiment, the user can observe an arbitrary direction different from the traveling direction while confirming the traveling direction of the unmanned air vehicle 20.

以上、説明したように、本実施形態によれば、電力消費やペイロードの増大を招く駆動機構を無人飛行体に搭載することなく、無人飛行体の動きとは独立して、自由に映像の視点を移動したり、ズームしたりすることができるようになるので、本システムを公共インフラの点検作業に応用した場合には、飛行の安全化・長時間化と作業効率の向上が同時に実現される。   As described above, according to the present embodiment, the viewpoint of the video can be freely determined independently of the movement of the unmanned air vehicle without mounting the driving mechanism that causes the power consumption and the payload to be increased on the unmanned air vehicle. The system can be moved and zoomed, so when this system is applied to public infrastructure inspection work, flight safety and longer time and improved work efficiency are realized at the same time. .

加えて、本実施形態では、ユーザが進行方向前方以外に視野を変更した場合でも、操作支援画像上に無人飛行体の進行方向が示されるので、ユーザは、無人飛行体20の進行方向を見失って混乱するといったことが起こらず、無人飛行体20を安全に飛行させることができる。   In addition, in the present embodiment, even when the user changes the field of view other than the front in the traveling direction, the traveling direction of the unmanned aerial vehicle is shown on the operation support image, so the user loses sight of the traveling direction of the unmanned aerial vehicle 20. Thus, the unmanned air vehicle 20 can safely fly.

以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではなく、種々の設計変更が可能である。   As mentioned above, although this invention was demonstrated with embodiment, this invention is not limited to embodiment mentioned above, A various design change is possible.

例えば、上述した実施形態では、視野変更手段302と飛行制御手段304を一体化した操縦装置30について説明したが、視野変更手段302と飛行制御手段304を別個の装置としてもよく、この場合、視野変更手段302をジョイスティックなどで構成してもよい。また、視野変更手段302と飛行制御手段304の機能を有するアプリケーションをタブレット端末やスマートフォンにインストールしたものを操縦装置30として用いてもよい。   For example, in the above-described embodiment, the control device 30 in which the visual field changing unit 302 and the flight control unit 304 are integrated has been described. However, the visual field changing unit 302 and the flight control unit 304 may be separate devices. The changing means 302 may be configured with a joystick or the like. Moreover, you may use as the control apparatus 30 what installed the application which has the function of the visual field change means 302 and the flight control means 304 in the tablet terminal or the smart phone.

また、上述した実施形態では、表示手段12として、フラットバネルディスプレイを例示したが、表示手段12は、ヘッドマウントディスプレイであってもよい。   In the above-described embodiment, a flat panel display is exemplified as the display unit 12, but the display unit 12 may be a head mounted display.

また、上述した実施形態では、2つの撮像光学系からなる全方位撮像装置を例示したが、3以上の撮像光学系からなる全方位撮像装置を採用してもよい。   In the above-described embodiment, an omnidirectional imaging apparatus including two imaging optical systems is illustrated. However, an omnidirectional imaging apparatus including three or more imaging optical systems may be employed.

最後に、本実施形態の情報処理装置100と無人飛行体20のハードウェア構成を図9に示すハードウェア構成図に基づいて説明する。   Finally, the hardware configuration of the information processing apparatus 100 and the unmanned air vehicle 20 of the present embodiment will be described based on the hardware configuration diagram shown in FIG.

図9(a)に示すように、本実施形態の情報処理装置100は、装置全体の動作を制御するプロセッサ13と、ブートプログラムやファームウェアプログラムなどを保存するROM14と、プログラムの実行空間を提供するRAM15と、情報処理装置100を上述した各手段として機能させるためのプログラムやオペレーティングシステム(OS)等を保存するための補助記憶装置16と、ディスプレイ12に画像を出力するための画像出力インタフェース17と、無人飛行体20および操縦装置30との間の無線接続を確立するための無線通信インターフェース18とを備えている。   As shown in FIG. 9A, the information processing apparatus 100 according to the present embodiment provides a processor 13 that controls the operation of the entire apparatus, a ROM 14 that stores a boot program, a firmware program, and the like, and a program execution space. The RAM 15, an auxiliary storage device 16 for storing a program or operating system (OS) for causing the information processing apparatus 100 to function as the above-described units, and an image output interface 17 for outputting an image to the display 12. A wireless communication interface 18 for establishing a wireless connection between the unmanned air vehicle 20 and the control device 30.

一方、無人飛行体20に搭載されるマイクロコンピュータは、図9(b)に示すように、無人飛行体20全体の動作を制御するプロセッサ23と、ブートプログラムやファームウェアプログラムなどを保存するROM24と、プログラムの実行空間を提供するRAM25と、無人飛行体20を上述した各手段として機能させるためのプログラム等を保存するための補助記憶装置26と、各種センサ21(3軸ジャイロセンサ、3軸加速度センサ、3軸地磁気センサ等)を接続するためのセンサ・インターフェース27と、全天球カメラ22を接続するためのカメラ・インターフェース28と、情報処理装置100および操縦装置30との間の無線接続を確立するための無線通信インターフェース29とを備えている。   On the other hand, as shown in FIG. 9B, the microcomputer mounted on the unmanned air vehicle 20 includes a processor 23 that controls the operation of the entire unmanned air vehicle 20, a ROM 24 that stores a boot program, a firmware program, and the like. A RAM 25 that provides an execution space for the program, an auxiliary storage device 26 for storing a program for causing the unmanned air vehicle 20 to function as the above-described means, and various sensors 21 (3-axis gyro sensor, 3-axis acceleration sensor) Wireless connection between the sensor interface 27 for connecting a three-axis geomagnetic sensor, the camera interface 28 for connecting the omnidirectional camera 22, and the information processing apparatus 100 and the control apparatus 30 is established. A wireless communication interface 29.

なお、上述した実施形態の各機能は、C、C++、C#、Java(登録商標)などで記述された装置実行可能なプログラムにより実現でき、本実施形態のプログラムは、ハードディスク装置、CD−ROM、MO、DVD、フレキシブルディスク、EEPROM、EPROMなどの装置可読な記録媒体に格納して頒布することができ、また他装置が可能な形式でネットワークを介して伝送することができる。   Note that each function of the above-described embodiment can be realized by a device-executable program described in C, C ++, C #, Java (registered trademark), and the like. The program of this embodiment includes a hard disk device, a CD-ROM. , MO, DVD, flexible disk, EEPROM, EPROM and the like can be stored and distributed in a device-readable recording medium, and can be transmitted via a network in a format that other devices can.

以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではなく、当業者が推考しうるその他の実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。   As described above, the present invention has been described with the embodiment. However, the present invention is not limited to the above-described embodiment, and the functions and effects of the present invention are within the scope of other embodiments that can be considered by those skilled in the art. As long as it plays, it is included in the scope of the present invention.

10…情報処理装置
12…表示手段(ディスプレイ)
13…プロセッサ
14…ROM
15…RAM
16…補助記憶装置
17…画像出力インタフェース
18…無線通信インターフェース
20…無人飛行体
21…各種センサ
22…全方位撮像装置(全天球カメラ)
23…プロセッサ
24…ROM
25…RAM
26…補助記憶装置
27…センサ・インターフェース
28…カメラ・インターフェース
29…無線通信インターフェース
30…操縦装置
32…ボタン群
33…操作レバー
100…情報処理装置
102…球面画像生成部
104…進行方向特定部
106…進行方向描画部
108…操縦支援画像生成部
202…撮影画像送信部
204…センサ情報送信部
302…視野変更手段
304…飛行制御手段
1000…飛行体操縦支援システム
10. Information processing device 12. Display means (display)
13 ... Processor 14 ... ROM
15 ... RAM
16 ... Auxiliary storage device 17 ... Image output interface 18 ... Wireless communication interface 20 ... Unmanned air vehicle 21 ... Various sensors 22 ... Omnidirectional imaging device (omnidirectional camera)
23 ... Processor 24 ... ROM
25 ... RAM
26 ... Auxiliary storage device 27 ... Sensor interface 28 ... Camera interface 29 ... Wireless communication interface 30 ... Control device 32 ... Button group 33 ... Operation lever 100 ... Information processing device 102 ... Spherical image generation unit 104 ... Advancing direction specifying unit 106 ... Traveling direction drawing unit 108 ... Maneuvering support image generation unit 202 ... Captured image transmission unit 204 ... Sensor information transmission unit 302 ... Field of view changing means 304 ... Flight control means 1000 ... Aircraft maneuvering support system

特開2005−56295号公報JP 2005-56295 A

Claims (6)

全方位撮像装置を搭載した無人飛行体と、
前記無人飛行体の操縦を支援する操縦支援画像を生成する情報処理装置と、
前記操縦支援画像を表示する表示手段と、
前記操縦支援画像の視野の変更を指定するための視野変更手段と、
を含む操縦支援システムであって、
前記無人飛行体は、
前記全方位撮像装置が撮影した撮影画像を前記情報処理装置に送信する撮影画像送信部と、
前記撮影画像の撮影時の機体の姿勢を示すセンサ情報を前記情報処理装置に送信するセンサ情報送信部と、
を含み、
前記情報処理装置は、
前記無人飛行体から受信した前記撮影画像に基づいて全天球画像を生成し、全天球画像を仮想球面に貼り付けて球面画像を生成する球面画像生成部と、
前記球面画像から、前記視野変更手段が指定する任意の視野に対応する画像領域を切り出し、該画像領域を投影変換してなる平面画像に基づいて前記操縦支援画像を生成する操縦支援画像生成部と、
を含む、
操縦支援システム。
An unmanned aerial vehicle equipped with an omnidirectional imaging device;
An information processing device for generating a maneuvering support image for maneuvering the unmanned air vehicle;
Display means for displaying the steering assist image;
Visual field changing means for designating a change in the visual field of the steering assistance image;
A steering support system including:
The unmanned air vehicle is
A captured image transmission unit that transmits a captured image captured by the omnidirectional imaging apparatus to the information processing apparatus;
A sensor information transmitting unit that transmits sensor information indicating the attitude of the aircraft at the time of capturing the captured image to the information processing apparatus;
Including
The information processing apparatus includes:
A spherical image generating unit that generates an omnidirectional image based on the captured image received from the unmanned air vehicle, and generates a spherical image by pasting the omnidirectional image on a virtual spherical surface;
A maneuvering support image generation unit configured to cut out an image region corresponding to an arbitrary field of view designated by the field of view changing unit from the spherical image, and to generate the maneuvering support image based on a planar image formed by projecting the image region; ,
including,
Maneuvering support system.
前記情報処理装置は、
前記センサ情報に基づいて前記無人飛行体の姿勢を求め、該姿勢から該無人飛行体の進行方向を特定する進行方向特定部と、
前記球面画像における前記進行方向の位置に所定の印を描画する進行方向描画部と、
を含み、
前記操縦支援画像生成部は、
前記所定の印が描画された前記球面画像から、前記視野変更手段が指定する任意の視野に対応する画像領域を切り出し、該画像領域を投影変換してなる平面画像に基づいて前記操縦支援画像を生成する、
請求項1に記載の操縦支援システム。
The information processing apparatus includes:
A traveling direction specifying unit that obtains the attitude of the unmanned air vehicle based on the sensor information, and identifies the traveling direction of the unmanned air vehicle from the attitude;
A traveling direction drawing unit that draws a predetermined mark at a position of the traveling direction in the spherical image;
Including
The steering assist image generation unit
An image region corresponding to an arbitrary field of view designated by the field of view changing unit is cut out from the spherical image on which the predetermined mark is drawn, and the steering support image is converted based on a planar image formed by projecting the image region. Generate,
The steering assistance system according to claim 1.
無人飛行体の操縦を支援する操縦支援画像を生成する情報処理装置であって、
全方位撮像装置を搭載した無人飛行体から受信した撮影画像に基づいて全天球画像を生成し、全天球画像を仮想球面に貼り付けて球面画像を生成する球面画像生成部と、
前記球面画像から、指定された任意の視野に対応する画像領域を切り出し、該画像領域を投影変換してなる平面画像に基づいて前記操縦支援画像を生成する操縦支援画像生成部と、
を含む、
情報処理装置。
An information processing apparatus that generates a maneuvering support image that supports maneuvering of an unmanned air vehicle,
A spherical image generation unit that generates an omnidirectional image based on a captured image received from an unmanned aerial vehicle equipped with an omnidirectional imaging device, and generates a spherical image by pasting the omnidirectional image on a virtual spherical surface;
An operation support image generation unit that generates an image of the operation support image based on a plane image obtained by cutting out an image area corresponding to a specified arbitrary field of view from the spherical image and projecting the image area, and
including,
Information processing device.
前記無人飛行体から受信した機体の姿勢を示すセンサ情報に基づいて該無人飛行体の姿勢を求め、該姿勢から該無人飛行体の進行方向を特定する進行方向特定部と、
前記球面画像における前記進行方向の位置に所定の印を描画する進行方向描画部と、
を含み、
前記操縦支援画像生成部は、
前記所定の印が描画された前記球面画像から、指定された任意の視野に対応する画像領域を切り出し、該画像領域を投影変換してなる平面画像に基づいて前記操縦支援画像を生成する、
請求項3に記載の情報処理装置。
Based on sensor information indicating the attitude of the aircraft received from the unmanned aerial vehicle, the attitude of the unmanned aerial vehicle is obtained, and a traveling direction identifying unit that identifies the advancing direction of the unmanned aerial vehicle from the attitude;
A traveling direction drawing unit that draws a predetermined mark at a position of the traveling direction in the spherical image;
Including
The steering assist image generation unit
From the spherical image on which the predetermined mark is drawn, an image region corresponding to a specified arbitrary field of view is cut out, and the steering support image is generated based on a planar image formed by projecting the image region.
The information processing apparatus according to claim 3.
コンピュータを、
全方位撮像装置を搭載した無人飛行体から受信した撮影画像に基づいて全天球画像を生成し、全天球画像を仮想球面に貼り付けて球面画像を生成する球面画像生成手段、
前記球面画像から、指定された任意の視野に対応する画像領域を切り出し、該画像領域を投影変換してなる平面画像に基づいて無人飛行体の操縦を支援する操縦支援画像を生成する操縦支援画像生成手段、
として機能させるためのプログラム。
Computer
A spherical image generating means for generating an omnidirectional image based on a photographed image received from an unmanned air vehicle equipped with an omnidirectional imaging device, and generating a spherical image by pasting the omnidirectional image on a virtual spherical surface;
An operation support image that generates an operation support image that supports operation of an unmanned air vehicle based on a plane image formed by cutting out an image area corresponding to a specified arbitrary field of view from the spherical image and projecting the image area. Generating means,
Program to function as.
前記コンピュータを、さらに、
前記無人飛行体から受信した機体の姿勢を示すセンサ情報に基づいて該無人飛行体の姿勢を求め、該姿勢から該無人飛行体の進行方向を特定する進行方向特定手段、
前記球面画像における前記進行方向の位置に所定の印を描画する進行方向描画手段、
として機能させるプログラムであって、
前記操縦支援画像生成手段は、
前記所定の印が描画された前記球面画像から、指定された任意の視野に対応する画像領域を切り出し、該画像領域を投影変換してなる平面画像に基づいて前記操縦支援画像を生成する、
請求項5に記載のプログラム。
Said computer further
A traveling direction specifying means for obtaining the attitude of the unmanned aerial vehicle based on sensor information indicating the attitude of the airframe received from the unmanned aerial vehicle, and identifying the traveling direction of the unmanned aerial vehicle from the attitude;
A traveling direction drawing means for drawing a predetermined mark at a position of the traveling direction in the spherical image;
A program that functions as
The steering assist image generating means includes
From the spherical image on which the predetermined mark is drawn, an image region corresponding to a specified arbitrary field of view is cut out, and the steering support image is generated based on a planar image formed by projecting the image region.
The program according to claim 5.
JP2016044531A 2016-03-08 2016-03-08 Controlling support system, information processing device, and program Pending JP2017163265A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016044531A JP2017163265A (en) 2016-03-08 2016-03-08 Controlling support system, information processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016044531A JP2017163265A (en) 2016-03-08 2016-03-08 Controlling support system, information processing device, and program

Publications (1)

Publication Number Publication Date
JP2017163265A true JP2017163265A (en) 2017-09-14

Family

ID=59857301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016044531A Pending JP2017163265A (en) 2016-03-08 2016-03-08 Controlling support system, information processing device, and program

Country Status (1)

Country Link
JP (1) JP2017163265A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6324649B1 (en) * 2017-10-25 2018-05-16 楽天株式会社 Detection system, detection method, and program
JP2019084898A (en) * 2017-11-03 2019-06-06 株式会社エアロネクスト Flight body maneuvering system and method for maneuvering flight body using flight body maneuvering system
JP2019177748A (en) * 2018-03-30 2019-10-17 株式会社Liberaware Flight body
JP2020019481A (en) * 2019-11-12 2020-02-06 株式会社Liberaware Flight body
WO2020049993A1 (en) * 2018-09-05 2020-03-12 ソニー株式会社 Image processing device, image processing method, and program
WO2020153316A1 (en) * 2019-01-23 2020-07-30 株式会社ナイルワークス Drone system, drone, mobile unit, operation determination device, drone system control method, and drone system control program
US10917560B2 (en) 2018-06-28 2021-02-09 Ricoh Company, Ltd. Control apparatus, movable apparatus, and remote-control system
JP2022040417A (en) * 2019-11-12 2022-03-10 株式会社Liberaware Flying object
WO2022253017A1 (en) * 2021-06-02 2022-12-08 影石创新科技股份有限公司 Control method and control system for unmanned aerial vehicle
US11797000B2 (en) 2018-03-27 2023-10-24 Nileworks Inc. Unmanned aerial vehicle, control system thereof and control program
US11868144B2 (en) 2019-01-23 2024-01-09 Nileworks Inc. Drone system, drone, plan management apparatus, plan management method for drone system, and plan management program for drone system
US11873100B2 (en) 2018-12-05 2024-01-16 Nileworks Inc. Drone system, drone, movable body, drone system control method, and drone system control program
JP7469797B2 (en) 2020-04-17 2024-04-17 柳井電機工業株式会社 Building Inspection Equipment
US12001225B2 (en) 2019-01-16 2024-06-04 Nileworks Inc. Drone system, drone, movable body, demarcating member, control method for drone system, and drone system control program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011173237A (en) * 2000-05-01 2011-09-08 Irobot Corp Method and system for remote control of mobile robot
JP2015046171A (en) * 2014-09-29 2015-03-12 株式会社リコー Apparatus and method for generating image
WO2016017245A1 (en) * 2014-07-31 2016-02-04 ソニー株式会社 Information processing device, information processing method, and image display system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011173237A (en) * 2000-05-01 2011-09-08 Irobot Corp Method and system for remote control of mobile robot
WO2016017245A1 (en) * 2014-07-31 2016-02-04 ソニー株式会社 Information processing device, information processing method, and image display system
JP2015046171A (en) * 2014-09-29 2015-03-12 株式会社リコー Apparatus and method for generating image

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019082301A1 (en) * 2017-10-25 2019-05-02 楽天株式会社 Unmanned aircraft control system, unmanned aircraft control method, and program
JP6324649B1 (en) * 2017-10-25 2018-05-16 楽天株式会社 Detection system, detection method, and program
JP2019084898A (en) * 2017-11-03 2019-06-06 株式会社エアロネクスト Flight body maneuvering system and method for maneuvering flight body using flight body maneuvering system
JP7024997B2 (en) 2017-11-03 2022-02-24 株式会社エアロネクスト Aircraft Maneuvering System and How to Maneuver an Aircraft Using an Aircraft Maneuvering System
US11797000B2 (en) 2018-03-27 2023-10-24 Nileworks Inc. Unmanned aerial vehicle, control system thereof and control program
JP2019177748A (en) * 2018-03-30 2019-10-17 株式会社Liberaware Flight body
US10917560B2 (en) 2018-06-28 2021-02-09 Ricoh Company, Ltd. Control apparatus, movable apparatus, and remote-control system
WO2020049993A1 (en) * 2018-09-05 2020-03-12 ソニー株式会社 Image processing device, image processing method, and program
US11873100B2 (en) 2018-12-05 2024-01-16 Nileworks Inc. Drone system, drone, movable body, drone system control method, and drone system control program
US12001225B2 (en) 2019-01-16 2024-06-04 Nileworks Inc. Drone system, drone, movable body, demarcating member, control method for drone system, and drone system control program
JPWO2020153316A1 (en) * 2019-01-23 2021-10-21 株式会社ナイルワークス Drone system, drone, moving object, motion determination device, drone system control method, and drone system control program
WO2020153316A1 (en) * 2019-01-23 2020-07-30 株式会社ナイルワークス Drone system, drone, mobile unit, operation determination device, drone system control method, and drone system control program
JP7169009B2 (en) 2019-01-23 2022-11-10 株式会社ナイルワークス Drone system, drone, moving body, motion determination device, drone system control method, and drone system control program
US11868144B2 (en) 2019-01-23 2024-01-09 Nileworks Inc. Drone system, drone, plan management apparatus, plan management method for drone system, and plan management program for drone system
JP2022040417A (en) * 2019-11-12 2022-03-10 株式会社Liberaware Flying object
JP7038421B2 (en) 2019-11-12 2022-03-18 株式会社Liberaware Flying object
JP7296153B2 (en) 2019-11-12 2023-06-22 株式会社Liberaware flying object
JP2020019481A (en) * 2019-11-12 2020-02-06 株式会社Liberaware Flight body
JP7469797B2 (en) 2020-04-17 2024-04-17 柳井電機工業株式会社 Building Inspection Equipment
WO2022253017A1 (en) * 2021-06-02 2022-12-08 影石创新科技股份有限公司 Control method and control system for unmanned aerial vehicle

Similar Documents

Publication Publication Date Title
JP2017163265A (en) Controlling support system, information processing device, and program
JP6329343B2 (en) Image processing system, image processing apparatus, image processing program, and image processing method
WO2020143677A1 (en) Flight control method and flight control system
WO2019242553A1 (en) Method and device for controlling capturing angle of image capturing device, and wearable device
JP4012749B2 (en) Remote control system
US11228737B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
WO2019227289A1 (en) Time-lapse photography control method and device
WO2020048365A1 (en) Flight control method and device for aircraft, and terminal device and flight control system
US11467572B2 (en) Moving object operation system, operation signal transmission system, moving object operation method, program, and recording medium
JP2018201119A (en) Mobile platform, flying object, support apparatus, portable terminal, method for assisting in photography, program, and recording medium
JP7435599B2 (en) Information processing device, information processing method, and program
WO2021168821A1 (en) Mobile platform control method and device
JP6560479B1 (en) Unmanned aircraft control system, unmanned aircraft control method, and program
CN107636592B (en) Channel planning method, control end, aircraft and channel planning system
JP6329219B2 (en) Operation terminal and moving body
JP6684012B1 (en) Information processing apparatus and information processing method
WO2022056683A1 (en) Field of view determination method, field of view determination device, field of view determination system, and medium
KR20180060403A (en) Control apparatus for drone based on image
JP6921026B2 (en) Transmitters, flying objects, flight control instruction methods, flight control methods, programs, and storage media
WO2021130980A1 (en) Aircraft flight path display method and information processing device
CN115442510A (en) Video display method and system for view angle of unmanned aerial vehicle
CN108319295B (en) Obstacle avoidance control method, equipment and computer readable storage medium
JP6929674B2 (en) Environmental image display system and environmental image display method
WO2023089960A1 (en) Control method, control system, and mobile body
EP4309999A1 (en) Flight control system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160408

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200317