JP2019079091A - Moving body control program, moving body control method and information processing apparatus - Google Patents

Moving body control program, moving body control method and information processing apparatus Download PDF

Info

Publication number
JP2019079091A
JP2019079091A JP2017203063A JP2017203063A JP2019079091A JP 2019079091 A JP2019079091 A JP 2019079091A JP 2017203063 A JP2017203063 A JP 2017203063A JP 2017203063 A JP2017203063 A JP 2017203063A JP 2019079091 A JP2019079091 A JP 2019079091A
Authority
JP
Japan
Prior art keywords
control
unit
information
mobile
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017203063A
Other languages
Japanese (ja)
Other versions
JP7092981B2 (en
Inventor
雄 久原
Takeshi Kuhara
雄 久原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Broad Solution and Consulting Inc
Original Assignee
Fujitsu Broad Solution and Consulting Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Broad Solution and Consulting Inc filed Critical Fujitsu Broad Solution and Consulting Inc
Priority to JP2017203063A priority Critical patent/JP7092981B2/en
Publication of JP2019079091A publication Critical patent/JP2019079091A/en
Application granted granted Critical
Publication of JP7092981B2 publication Critical patent/JP7092981B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To improve operability in control of a moving body.SOLUTION: An information processing apparatus 10 includes a display unit 13, a detection unit 12, and control unit 11. The display unit 13 displays image information photographed by an imaging unit of a moving body 20 equipped with the imaging unit. The detection unit 12 detects a detection coordinate that is a coordinate on a screen of the display unit 13 at which an operator gazes. The control unit 11 receives the image information from the moving body 20, determines control information for controlling the moving body 20 according to the detection coordinate, and notifies the moving body 20 of the control information.SELECTED DRAWING: Figure 1

Description

本発明は、移動体制御プログラム、移動体制御方法および情報処理装置に関する。   The present invention relates to a mobile control program, a mobile control method, and an information processing apparatus.

近年、近赤外線などを利用者の眼球に照射して、角膜表面における反射像の位置から得られる角膜曲率中心と瞳孔中心から視線を検出する技術がある。この視線を検出する技術を利用し、利用者が注視するディスプレイ上の位置を判定することで、利用者がキーボードを操作しなくてもディスプレイ上のオブジェクトを選択する技術が実現されている。   In recent years, there is a technique of detecting a line of sight from a corneal curvature center and a pupil center obtained from the position of a reflection image on the surface of the cornea by irradiating near infrared rays or the like to the eyeballs of the user. By using this technology for detecting the sight line and determining the position on the display at which the user gazes, a technology for selecting an object on the display without the user operating the keyboard is realized.

また、近年、ドローン(drone)と呼ばれる飛行体の技術が進歩し、物流、空撮、測量、農薬散布などにおいて利用が期待されている。ドローンは、無線通信を使用したコントローラによって無線制御される。   Moreover, in recent years, the technology of the flying body called drone (drone) has advanced, and the use is expected in distribution, aerial photography, surveying, pesticide spraying, and the like. The drone is wirelessly controlled by a controller using wireless communication.

特開2012−65781号公報JP, 2012-65781, A

これまでドローンは、操作者がコントローラを手動で操作することにより制御されている。ドローンのコントローラは、上下および左右回転の動きを操作する制御スティックと前後および左右の動きを操作する制御スティックの2つの制御スティックを備えている。操作者は、2つの制御スティックを左右それぞれの手で操作する必要がある。操作に慣れていない者にとってドローンをコントローラで制御することは難しい。   Heretofore, the drone has been controlled by the operator manually operating the controller. The drone's controller has two control sticks, a control stick for manipulating up and down and left and right rotational movements and a control stick for manipulating back and forth and left and right movements. The operator is required to operate the two control sticks with the left and right hands respectively. It is difficult for the controller to control the drone for those who are not familiar with the operation.

また、ドローンに限らず無線制御される移動体の操作においては、操作者が両手でコントローラを操作し移動体の位置を制御することが多い。このため、操作者は、移動体に備えられた移動以外の機能(アームの操作、カメラの角度操作、農薬散布操作など)の操作を実行することが困難であった。   In addition, in the operation of the mobile unit wirelessly controlled as well as the drone, the operator often operates the controller with both hands to control the position of the mobile unit. For this reason, it has been difficult for the operator to execute operations of functions (operation of an arm, operation of an angle of a camera, operation of agrochemical spraying, etc.) other than movement provided in a moving body.

このため、無線制御される移動体を移動させる操作において、操作性を向上することが望まれている。
1つの側面では、本発明の目的は、移動体の制御において操作性を向上できる移動体制御プログラム、移動体制御方法および情報処理装置を提供することにある。
For this reason, it is desirable to improve the operability in the operation of moving the moving object to be wirelessly controlled.
In one aspect, an object of the present invention is to provide a mobile control program, a mobile control method, and an information processing apparatus capable of improving operability in control of a mobile.

1つの態様では、移動体制御プログラムが提供される。移動体制御プログラムは、撮像部を備える移動体から撮像部によって撮像された画像情報を受信し、画像情報を表示した表示部において、操作者が注視している表示部の画面上の座標である検知座標を検知し、検知座標に応じて移動体を制御する制御情報を決定し、制御情報を移動体に通知する、処理をコンピュータに実行させる。   In one aspect, a mobile control program is provided. The moving body control program receives the image information captured by the imaging unit from the moving body including the imaging unit, and on the display unit displaying the image information, the coordinates are on the screen of the display unit at which the operator is gazing The detection coordinates are detected, control information for controlling the moving body is determined according to the detection coordinates, and the control information is notified to the moving body.

1つの側面では、移動体の制御において操作性を向上できる。   In one aspect, operability can be improved in the control of the moving object.

第1の実施の形態の移動体制御システムの一例を示す図である。It is a figure showing an example of the mobile control system of a 1st embodiment. 第2の実施の形態の飛行体制御システムの一例を示す図である。It is a figure showing an example of the control object control system of a 2nd embodiment. 情報処理装置のハードウェアの一例を示す図である。It is a figure showing an example of the hardware of an information processor. 飛行体のハードウェアの一例を示す図である。It is a figure showing an example of the hardware of a flight body. 視線検知座標と検知領域の一例を示す図である。It is a figure which shows an example of a gaze detection coordinate and a detection area. 検知領域の他の一例を示す図である。It is a figure which shows another example of a detection area | region. 飛行体制御システムが有する機能の一例を示したブロック図である。It is a block diagram showing an example of a function which a flight control system has. 制御管理情報の一例を示す図である。It is a figure which shows an example of control management information. 飛行体制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of a flying body control process. 移動制御処理の一例を示すフローチャートである。It is a flow chart which shows an example of movement control processing. 画像表示処理の一例を示すフローチャートである。It is a flowchart which shows an example of an image display process.

以下、本実施の形態について図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態の移動体制御システムの一例を示す図である。
Hereinafter, the present embodiment will be described with reference to the drawings.
First Embodiment
FIG. 1 is a diagram showing an example of a mobile control system according to the first embodiment.

第1の実施の形態の移動体制御システムは、情報処理装置10および移動体20を含む。移動体制御システムは、情報処理装置10が操作者の視線の座標を検知し、検知した座標に基づいて移動体20の移動を制御するシステムである。情報処理装置10と移動体20は、無線通信が可能である。   The mobile control system according to the first embodiment includes an information processing apparatus 10 and a mobile 20. The moving object control system is a system in which the information processing apparatus 10 detects the coordinates of the line of sight of the operator and controls the movement of the moving object 20 based on the detected coordinates. The information processing apparatus 10 and the mobile unit 20 can communicate wirelessly.

情報処理装置10は、例えば、制御部11および記憶部を有するコンピュータである。情報処理装置10は、検知部12および表示部13を有する。なお、記憶部は、図示を省略する。   The information processing apparatus 10 is, for example, a computer having a control unit 11 and a storage unit. The information processing apparatus 10 includes a detection unit 12 and a display unit 13. The storage unit is not shown.

制御部11は、情報処理装置10の制御を行うものであり、例えば、プロセッサである。プロセッサは、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などである。制御部11は、検知部12で検知した情報に基づき、移動体20の移動を制御する制御情報を決定し、制御情報を移動体20に通知する。   The control unit 11 controls the information processing apparatus 10 and is, for example, a processor. The processor is a central processing unit (CPU), a digital signal processor (DSP), an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), or the like. The control unit 11 determines control information for controlling the movement of the mobile unit 20 based on the information detected by the detection unit 12 and notifies the mobile unit 20 of the control information.

制御情報には、移動制御命令と移動制御命令の実行時間とを含む。移動制御命令は、例えば、移動体20を上下左右の各方向に移動させる命令(コマンド)である。実行時間は、例えば、移動体20を移動させる命令を実行する時間である。制御部11は、移動体20から画像情報を受信し、画像情報を表示部13に表示する制御を行う。記憶部は、各種プログラムや情報を記憶する記憶装置であり、例えば、RAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)などである。   The control information includes the movement control instruction and the execution time of the movement control instruction. The movement control instruction is, for example, an instruction (command) for moving the moving body 20 in the up, down, left, and right directions. The execution time is, for example, a time to execute an instruction to move the mobile 20. The control unit 11 receives image information from the moving body 20 and controls the display unit 13 to display the image information. The storage unit is a storage device that stores various programs and information, and is, for example, a random access memory (RAM), a hard disk drive (HDD), a solid state drive (SSD), or the like.

検知部12は、情報処理装置10を操作する操作者の視線を検知するセンサである。検知部12は、表示部13において操作者が注視した画面上の座標(検知座標)と、操作者が注視した時間(注視時間)とを取得し、制御部11に出力する。検知座標は、操作者の視線に相当する直線と表示部13の画面に相当する平面との交点の座標ともいえる。   The detection unit 12 is a sensor that detects the line of sight of the operator who operates the information processing apparatus 10. The detection unit 12 acquires coordinates (detection coordinates) on the screen at which the operator gazes at the display unit 13 and a time at which the operator gazes (gaze time), and outputs the acquired time to the control unit 11. The detected coordinates can also be said to be coordinates of an intersection point of a straight line corresponding to the line of sight of the operator and a plane corresponding to the screen of the display unit 13.

表示部13は、画像を表示するものであり、例えば、ディスプレイである。表示部13は、制御部11の制御に従い、入力された画像情報に応じた画像を表示する。
移動体20は、例えば、地上から数cm〜数十m程度の高度を飛行するドローンなどの飛行体である。図1において、移動体20の一例としてドローンを描画しているが、ドローン以外の移動体を用いてもよい。ドローンとは、遠隔操縦式又は自律式の制御機構を有するマルチコプタ(3つ以上のロータを搭載する回転翼機)である。ドローン以外の移動体の一例として、無線制御可能な車両、船舶、潜水艇、ロボットおよび内視鏡などがある。
The display unit 13 displays an image, and is, for example, a display. The display unit 13 displays an image according to the input image information according to the control of the control unit 11.
The moving body 20 is, for example, a flying body such as a drone flying at an altitude of several cm to several tens of meters from the ground. Although a drone is drawn as an example of the mobile unit 20 in FIG. 1, a mobile unit other than the drone may be used. A drone is a multicopter (rotorcraft equipped with three or more rotors) having a remotely controlled or autonomous control mechanism. Examples of mobiles other than drone include radio-controllable vehicles, ships, submersibles, robots and endoscopes.

移動体20は、制御部、撮像部、駆動部を有するが、図示を省略する。制御部は、移動体20の制御を行うものであり、例えば、プロセッサである。
制御部は、情報処理装置10から受信した制御情報に基づき駆動部を制御する。例えば、制御部は、上方向に移動させる命令を3秒間実行する制御情報を受信した場合、制御情報に基づき駆動部を制御する。制御部は、撮像部に画像を撮像する制御を行い、撮像した画像データを情報処理装置10に送信する。撮像部は、移動体20の正面に備えられ、画像を撮像するものであり、例えば、カメラである。撮像部の向きは、移動体20の前方を向くように固定されている。そして、撮像部は移動体20の前方の風景を撮像する。移動体20が移動するとき、撮像部は移動体20の進行方向に臨む風景を撮像する。駆動部は、制御部の制御に従い、移動体20の回転翼の制御を行う。
The movable body 20 includes a control unit, an imaging unit, and a drive unit, but the illustration is omitted. The control unit controls the mobile unit 20 and is, for example, a processor.
The control unit controls the drive unit based on the control information received from the information processing apparatus 10. For example, when the control unit receives control information for executing an instruction to move upward for 3 seconds, the control unit controls the driving unit based on the control information. The control unit controls the imaging unit to capture an image, and transmits the captured image data to the information processing apparatus 10. The imaging unit is provided in front of the movable body 20 and picks up an image, and is, for example, a camera. The orientation of the imaging unit is fixed to face the front of the moving body 20. Then, the imaging unit images the scenery in front of the moving body 20. When the mobile unit 20 moves, the imaging unit images a landscape facing in the traveling direction of the mobile unit 20. The drive unit controls the rotary wings of the movable body 20 according to the control of the control unit.

ここで、情報処理装置10によって移動体20を制御する移動体制御方法について説明する。まず、操作者は、情報処理装置10の表示部13の画面を目視する。表示部13に表示される画面は、第1の画面13aであるものとする。第1の画面13aは、移動体20の正面に備えられたカメラによって台形状の物体(例えば、山)を撮像した画像の画像情報を表示部13に表示したものである。情報処理装置10は、移動体20から画像情報を受信するごとに、画像情報を表示部13に表示する。表示部13に表示される画面において、中心部を基準位置13oとし、中心部を含む所定の領域を基準領域13pとする。なお、基準位置13oは一例に過ぎず、他の位置を基準位置13oとしてもよい。また、基準領域13pは一例に過ぎず、他の形状の領域(例えば、矩形や楕円など)を基準領域13pの形状としてもよい。   Here, a mobile control method for controlling the mobile 20 by the information processing apparatus 10 will be described. First, the operator visually observes the screen of the display unit 13 of the information processing apparatus 10. The screen displayed on the display unit 13 is assumed to be the first screen 13a. The first screen 13 a is one in which image information of an image obtained by capturing a trapezoidal object (for example, a mountain) by a camera provided in front of the moving body 20 is displayed on the display unit 13. The information processing apparatus 10 displays image information on the display unit 13 each time image information is received from the moving body 20. In the screen displayed on the display unit 13, the central portion is set as the reference position 13o, and a predetermined region including the central portion is set as the reference region 13p. The reference position 13o is merely an example, and another position may be used as the reference position 13o. The reference area 13p is merely an example, and areas of other shapes (for example, a rectangle, an ellipse, etc.) may be used as the shape of the reference area 13p.

検知部12は、操作者が注視している第1の画面13a上の座標を検知する。検知部12は、第1の画面13aにおいて検知した操作者が注視している座標が検知座標13jであると検知する。制御部11は、検知部12から検知座標13jを取得し、検知座標13jが基準領域13pに含まれると判定し、ホバリングを行う移動制御命令を含む制御情報を移動体20に送信する。なお、制御部11は、所定時間(例えば、10秒間)ホバリングを行う移動制御命令(ホバリングコマンド)を制御情報に含めることができる。移動体20は、制御情報を制御部11から受信し、ホバリングを行う。なお、ホバリングを行う移動制御命令は一例に過ぎず、移動体20に応じて現在(操作者が基準領域13pを注視した時刻)の座標を維持するコマンドであればよい。例えば、移動体20が車両やロボットである場合、移動体20を停止させるコマンドであってもよい。また、移動体20が船舶や潜水艇である場合、基準領域13pを注視した時刻における位置を維持するため、潮の流れに逆らう方向に移動させるコマンドや碇を投下させるコマンドであってもよい。   The detection unit 12 detects the coordinates on the first screen 13a at which the operator is gazing. The detection unit 12 detects that the coordinates detected by the operator detected on the first screen 13a are the detected coordinates 13j. The control unit 11 acquires the detected coordinates 13 j from the detection unit 12, determines that the detected coordinates 13 j are included in the reference area 13 p, and transmits control information including a movement control command for hovering to the moving body 20. The control unit 11 can include, in the control information, a movement control instruction (hovering command) that performs hovering for a predetermined time (for example, 10 seconds). The mobile unit 20 receives control information from the control unit 11 and performs hovering. Note that the movement control command for hovering is merely an example, and may be a command that maintains the current (time when the operator gazes at the reference area 13p) according to the moving body 20. For example, when the moving body 20 is a vehicle or a robot, a command to stop the moving body 20 may be used. When the moving body 20 is a ship or a submersible, it may be a command to move in a direction against the flow of the tide or a command to drop a weir in order to maintain the position at the time of watching the reference area 13p.

つぎに、操作者は、視線を移動させたものとする。検知部12は、操作者が注視している座標が検知座標13kであると検知する。制御部11は、検知部12から検知座標13kを取得し、検知座標13kが基準位置13oに対して左上方向にあると判定し、左上に移動を行う移動制御命令(左進行コマンドおよび上昇コマンド)を含む制御情報を移動体20に送信する。移動体20は、制御情報を制御部11から受信し、左上に移動する。   Next, it is assumed that the operator moves the line of sight. The detection unit 12 detects that the coordinates at which the operator is gazing are detected coordinates 13k. The control unit 11 acquires the detected coordinate 13k from the detection unit 12, determines that the detected coordinate 13k is in the upper left direction with respect to the reference position 13o, and moves to the upper left movement control instruction (left advancing command and rising command) And transmit control information to the mobile unit 20. The mobile unit 20 receives control information from the control unit 11 and moves to the upper left.

移動体20は、左上に移動し、撮像した画像情報を情報処理装置10に通知する。情報処理装置10は、移動体20から画像情報を取得し、第2の画面13bを表示部13に表示する。   The moving body 20 moves to the upper left, and notifies the information processing apparatus 10 of the captured image information. The information processing apparatus 10 acquires image information from the moving body 20 and displays the second screen 13 b on the display unit 13.

こうして、情報処理装置10は、検知座標13kが基準位置13oに対して第1の方向に位置する場合、移動体20の撮像部による撮像方向に対する第1の方向に移動体20を移動させる命令を移動体20に通知する。第1の方向とは、撮像方向の地面と水平な成分に対する方向である。なお、第1の方向とは、表示部13の画面における座標系(X座標およびY座標)に対する基準位置13oから検知座標13kへの方向であってもよい。   Thus, when the detected coordinates 13k are located in the first direction with respect to the reference position 13o, the information processing apparatus 10 instructs the information processing unit 10 to move the moving body 20 in the first direction with respect to the imaging direction by the imaging unit of the moving body 20. The mobile 20 is notified. The first direction is a direction relative to a component horizontal to the ground in the imaging direction. The first direction may be a direction from the reference position 13o to the detection coordinate 13k with respect to the coordinate system (X coordinate and Y coordinate) on the screen of the display unit 13.

このように、情報処理装置10は、操作者が注視している画面上の座標を検知し、検知した座標に応じて移動体20を制御する制御情報を決定し、移動体20に通知する。これにより、操作者は、表示部13を注視し視線を移動させることで、移動体20を移動させる操作が可能となり、手動でコントローラを操作せずとも移動体を移動させることが可能となる。   As described above, the information processing apparatus 10 detects the coordinates on the screen at which the operator is gazing, determines control information for controlling the moving body 20 according to the detected coordinates, and notifies the moving body 20 of the control information. As a result, the operator can move the moving body 20 by gazing the display unit 13 and moving the sight line, and can move the moving body without operating the controller manually.

こうして、移動体制御システムは、移動体20の制御において操作性を向上できる。
[第2の実施の形態]
図2は、第2の実施の形態の飛行体制御システムの一例を示す図である。第2の実施の形態の飛行体制御システムは、情報処理装置100、飛行体200を有する。
Thus, the mobile control system can improve operability in the control of the mobile 20.
Second Embodiment
FIG. 2 is a diagram showing an example of a flying object control system according to the second embodiment. The flying object control system of the second embodiment includes an information processing device 100 and a flying object 200.

情報処理装置100は、操作者の視線を検知し、飛行体200に制御情報を送信するコンピュータである。情報処理装置100は、視線を検知する装置を備えており、検知した視線に応じた制御情報を飛行体200に送信する。情報処理装置100は、飛行体200から画像情報を受信しディスプレイなどの表示部に表示する。   The information processing apparatus 100 is a computer that detects the line of sight of the operator and transmits control information to the flying object 200. The information processing apparatus 100 includes an apparatus for detecting a line of sight, and transmits control information corresponding to the detected line of sight to the aircraft 200. The information processing apparatus 100 receives image information from the flying object 200 and displays the image information on a display unit such as a display.

情報処理装置100は、飛行体200との間で無線通信が可能である。無線通信の規格として、例えば、IEEE(The Institute of Electrical and Electronic Engineers)802.15.1(Bluetooth(登録商標))やIEEE802.11(無線LAN(Local Area Network))などの規格がある。なお、情報処理装置100と飛行体200との無線通信に利用する規格は、LTE(Long Term Evolution)やWi−Fi(登録商標)などの他の規格であってもよい。   The information processing apparatus 100 can wirelessly communicate with the aircraft 200. Examples of standards for wireless communication include standards such as IEEE (The Institute of Electrical and Electronic Engineers) 802.15.1 (Bluetooth (registered trademark)) and IEEE 802.11 (Wireless Local Area Network (LAN)). The standard used for wireless communication between the information processing apparatus 100 and the aircraft 200 may be another standard such as LTE (Long Term Evolution) or Wi-Fi (registered trademark).

飛行体200は、情報処理装置100から制御情報を受信し、制御情報に基づいて移動する装置である。飛行体200の一例として、回転翼機の一種であるドローンを図示する。ドローンは、遠隔操縦式又は自律式の制御機構を有するマルチコプタ(3つ以上のロータを搭載する回転翼機)である。また、ドローンは、カメラおよび通信機能を備えており、画像情報を撮像し送信することが可能である。ドローンには、移動経路や各種処理の制御を遠隔操作により実施する遠隔操縦式の制御機能を備えるものや、自律的に移動経路や各種処理の制御を実施するプログラムを実行する自律式の制御機能を備えるものがある。ここでは、飛行体200として、遠隔操縦式の制御機能を備えるドローンを対象とするが、自律式の制御機能を備えてもよい。   The flying object 200 is a device that receives control information from the information processing device 100 and moves based on the control information. As an example of the flying object 200, a drone, which is a type of rotary wing aircraft, is illustrated. A drone is a multicopter (rotorcraft with three or more rotors) that has a remotely controlled or autonomous control mechanism. In addition, the drone has a camera and a communication function, and can capture and transmit image information. The drone has a remote control type control function that remotely controls the movement route and various processes, and an autonomous control function that executes a program that autonomously controls the movement route and various processes There is something that is provided. Here, although a drone provided with a remote-controlled control function is targeted as the flying object 200, an autonomous control function may be provided.

ここで、操作者が情報処理装置100を用いて飛行体200を操作する場合について説明する。まず、情報処理装置100は、操作者の視線を検知する。具体的には、情報処理装置100は、視線を検知する装置から所定時間ごとに(例えば、1秒間に15回)視線を検知した座標情報(視線検知座標)を取得する。情報処理装置100は、視線検知座標に基づき、移動制御を実行する制御情報を飛行体200に送信する。また、情報処理装置100は、飛行体200のカメラが撮像した画像情報を所定時間ごとに受信し、ディスプレイなどの表示部に表示する。飛行体200は、飛行体200の前方方向を向き、前方方向の風景を撮像するカメラを備えている。飛行体200は、当該カメラを用いて矩形の物体を正面から撮像した画像情報を情報処理装置100に送信したものとする。情報処理装置100は、画像情報を飛行体200から受信し表示部に表示する。   Here, a case where the operator operates the flying object 200 using the information processing apparatus 100 will be described. First, the information processing apparatus 100 detects the line of sight of the operator. Specifically, the information processing apparatus 100 acquires coordinate information (line-of-sight detection coordinates) in which the line of sight is detected at predetermined time intervals (for example, 15 times per second) from the apparatus that detects the line of sight. The information processing apparatus 100 transmits control information for executing movement control to the flying object 200 based on the gaze detection coordinates. The information processing apparatus 100 also receives image information captured by the camera of the flying object 200 at predetermined time intervals and displays the image information on a display unit such as a display. The flying object 200 is provided with a camera that faces in the forward direction of the flying object 200 and captures a landscape in the forward direction. It is assumed that the flying object 200 transmits image information obtained by imaging a rectangular object from the front using the camera to the information processing apparatus 100. The information processing apparatus 100 receives image information from the flying object 200 and displays the image information on the display unit.

次に、情報処理装置100は、操作者の視線が移動したことを検知する。情報処理装置100は、視線検知座標に基づき、移動制御を実行する制御情報を飛行体200に送信する。例えば、情報処理装置100は、視線が左上に移動したことを検知した場合、飛行体200の前方に向かって(飛行体200の撮像方向に対して)左上に移動する制御情報を飛行体200に送信する。飛行体200は、情報処理装置100から受信した制御情報に基づき移動する。飛行体200は、移動した位置から撮像した画像情報(移動前の位置の左上前方からのカメラの視野に入る矩形の物体の画像を含む画像情報)を情報処理装置100に送信する。情報処理装置100は、飛行体200から受信した画像情報を表示部に表示する。   Next, the information processing apparatus 100 detects that the line of sight of the operator has moved. The information processing apparatus 100 transmits control information for executing movement control to the flying object 200 based on the gaze detection coordinates. For example, when the information processing apparatus 100 detects that the line of sight has moved to the upper left, the control information to move to the upper left (with respect to the imaging direction of the flying object 200) ahead of the Send. The flying object 200 moves based on the control information received from the information processing device 100. The flying object 200 transmits, to the information processing apparatus 100, image information captured from the moved position (image information including an image of a rectangular object entering the field of view of the camera from the upper left front of the position before moving). The information processing apparatus 100 displays the image information received from the flying object 200 on the display unit.

このようにして、情報処理装置100は、操作者の視線を検知し、視線検知座標に基づき制御情報を飛行体200に送信することにより、飛行体200を操作する。また、操作者は、情報処理装置100の表示部に表示された画像を目視で確認しつつ、飛行体200を操作することが可能になる。   In this manner, the information processing apparatus 100 detects the line of sight of the operator, and transmits control information to the aircraft 200 based on the line-of-sight detection coordinates, thereby operating the aircraft 200. In addition, the operator can operate the flying object 200 while visually confirming the image displayed on the display unit of the information processing apparatus 100.

図3は、情報処理装置のハードウェアの一例を示す図である。情報処理装置100は、プロセッサ101、RAM102、HDD103、画像信号処理部104、入力信号処理部105、媒体リーダ106、NIC(Network Interface Card)107および外部インタフェース108を有する。各ハードウェアは情報処理装置100のバスに接続されている。   FIG. 3 is a diagram illustrating an example of hardware of the information processing apparatus. The information processing apparatus 100 includes a processor 101, a RAM 102, an HDD 103, an image signal processing unit 104, an input signal processing unit 105, a medium reader 106, an NIC (Network Interface Card) 107, and an external interface 108. Each piece of hardware is connected to the bus of the information processing apparatus 100.

プロセッサ101は、情報処理装置100の情報処理を制御するハードウェアである。プロセッサ101は、マルチプロセッサであってもよい。プロセッサ101は、例えばCPU、DSP、ASICまたはFPGAなどである。プロセッサ101は、CPU、DSP、ASIC、FPGAなどのうちの2以上の要素の組合せであってもよい。   The processor 101 is hardware that controls the information processing of the information processing apparatus 100. The processor 101 may be a multiprocessor. The processor 101 is, for example, a CPU, a DSP, an ASIC, or an FPGA. The processor 101 may be a combination of two or more elements of a CPU, a DSP, an ASIC, an FPGA, and the like.

RAM102は、情報処理装置100の主記憶装置である。RAM102は、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部を一時的に記憶する。また、RAM102は、プロセッサ101による処理に用いる各種データを記憶する。   The RAM 102 is a main storage device of the information processing apparatus 100. The RAM 102 temporarily stores at least part of an OS (Operating System) program and application programs to be executed by the processor 101. The RAM 102 also stores various data used for processing by the processor 101.

HDD103は、情報処理装置100の補助記憶装置である。HDD103は、内蔵した磁気ディスクに対して、磁気的にデータの書き込みおよび読み出しを行う。HDD103は、OSのプログラム、アプリケーションプログラム、および各種データを記憶する。情報処理装置100は、フラッシュメモリやSSDなどの他の種類の補助記憶装置を備えてもよく、複数の補助記憶装置を備えてもよい。   The HDD 103 is an auxiliary storage device of the information processing apparatus 100. The HDD 103 magnetically writes data to and reads data from the built-in magnetic disk. The HDD 103 stores an OS program, an application program, and various data. The information processing apparatus 100 may include other types of auxiliary storage devices such as a flash memory and an SSD, and may include a plurality of auxiliary storage devices.

画像信号処理部104は、プロセッサ101からの命令に従って、情報処理装置100に接続されたディスプレイ121に画像を出力する。ディスプレイ121として、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイなどを用いることができる。   The image signal processing unit 104 outputs an image to the display 121 connected to the information processing apparatus 100 in accordance with an instruction from the processor 101. As the display 121, a CRT (Cathode Ray Tube) display, a liquid crystal display, or the like can be used.

入力信号処理部105は、情報処理装置100に接続された入力デバイス122から入力信号を取得し、プロセッサ101に出力する。入力デバイス122として、例えば、マウスやタッチパネルなどのポインティングデバイス、キーボードなどを用いることができる。   The input signal processing unit 105 acquires an input signal from the input device 122 connected to the information processing apparatus 100, and outputs the input signal to the processor 101. As the input device 122, for example, a pointing device such as a mouse or a touch panel, a keyboard, or the like can be used.

媒体リーダ106は、記録媒体123に記録されたプログラムやデータを読み取る装置である。記録媒体123として、例えば、フレキシブルディスク(FD:Flexible Disk)やHDDなどの磁気ディスク、CD(Compact Disc)やDVD(Digital Versatile Disc)などの光ディスク、光磁気ディスク(MO:Magneto-Optical disk)を使用できる。また、記録媒体123として、例えば、フラッシュメモリカードなどの不揮発性の半導体メモリを使用することもできる。媒体リーダ106は、例えば、プロセッサ101からの命令に従って、記録媒体123から読み取ったプログラムやデータをRAM102またはHDD103に格納する。   The medium reader 106 is a device that reads a program or data recorded on the recording medium 123. As the recording medium 123, for example, a magnetic disk such as a flexible disk (FD: Flexible Disk) or HDD, an optical disk such as a CD (Compact Disc) or a DVD (Digital Versatile Disc), a magneto-optical disk (MO: Magneto-Optical disk) It can be used. Also, as the recording medium 123, for example, a nonvolatile semiconductor memory such as a flash memory card can be used. The medium reader 106 stores programs and data read from the recording medium 123 in the RAM 102 or the HDD 103, for example, in accordance with an instruction from the processor 101.

NIC107は、ネットワーク130を介して他の装置と通信を行う。NIC107は、有線通信インタフェースでもよいし、無線通信インタフェースでもよい。
外部インタフェース108は、情報処理装置100に接続された視線検出装置140から信号を取得し、プロセッサ101に出力する。視線検出装置140は、操作者が注視しているディスプレイ121上の座標(視線検知座標)を検出し、操作者が所定の座標を注視している時間を検出できる。
The NIC 107 communicates with other devices via the network 130. The NIC 107 may be a wired communication interface or a wireless communication interface.
The external interface 108 acquires a signal from the line-of-sight detection device 140 connected to the information processing device 100 and outputs the signal to the processor 101. The line-of-sight detection device 140 detects coordinates (line-of-sight detection coordinates) on the display 121 at which the operator is gazing, and can detect time during which the operator is gazing at predetermined coordinates.

図4は、飛行体のハードウェアの一例を示す図である。飛行体200は、CPU201、メモリ202、カメラ203、通信処理部204a、アンテナ204b、駆動部205a、およびロータ205bを有する。   FIG. 4 is a diagram showing an example of the hardware of the flying object. The flying object 200 includes a CPU 201, a memory 202, a camera 203, a communication processing unit 204a, an antenna 204b, a driving unit 205a, and a rotor 205b.

CPU201は、飛行体200の制御を実施する。CPU201は、DSP、ASIC、FPGAなどで代替可能である。
メモリ202は、例えば、RAM、ROM(Read Only Memory)、HDD、SSDなどの記憶装置である。
The CPU 201 implements control of the flying object 200. The CPU 201 can be replaced by a DSP, an ASIC, an FPGA or the like.
The memory 202 is, for example, a storage device such as a RAM, a read only memory (ROM), an HDD, or an SSD.

カメラ203は、飛行体200の正面に備えられ、画像を撮像し、画像データをCPU201に出力する。カメラ203は、動画、静止画いずれも撮像可能であってもよいし、動画のみが撮像可能であってもよい。   The camera 203 is provided in front of the flying object 200, captures an image, and outputs image data to the CPU 201. The camera 203 may be capable of capturing both moving and still images, or may be capable of capturing only moving images.

通信処理部204aは、アンテナ204bを備え、情報処理装置100と情報を送受信する。例えば、通信処理部204aは、情報処理装置100から制御情報を受信し、CPU201に出力する。また、通信処理部204aは、カメラ203が撮像した画像の画像情報を情報処理装置100に送信する。通信処理部204aは、通信に必要となるRF(Radio Frequency)回路や、信号処理回路などを備える。RF回路は、アンテナ204bによるRF信号の送受信、周波数変換、AD(Analog to Digital)・DA(Digital to Analog)変換処理などの処理を実行する。信号処理回路は、変調・復調などの処理を実行する。アンテナ204bは、RF信号の送受信に用いられるアンテナである。   The communication processing unit 204a includes an antenna 204b, and transmits and receives information to and from the information processing apparatus 100. For example, the communication processing unit 204 a receives control information from the information processing apparatus 100 and outputs the control information to the CPU 201. Also, the communication processing unit 204 a transmits image information of an image captured by the camera 203 to the information processing apparatus 100. The communication processing unit 204a includes an RF (Radio Frequency) circuit necessary for communication, a signal processing circuit, and the like. The RF circuit executes processing such as transmission / reception of an RF signal by the antenna 204b, frequency conversion, AD (Analog to Digital) / DA (Digital to Analog) conversion processing, and the like. The signal processing circuit executes processing such as modulation and demodulation. The antenna 204 b is an antenna used to transmit and receive an RF signal.

駆動部205aは、回転翼機の翼であるロータ205bの回転軸に接続されるモータを駆動し、ロータ205bを回転させる。駆動部205aは、ロータ205bの回転を制御することで水平位置、高度、姿勢、移動方向などを制御する。なお、飛行体200は、複数のロータ205bを備えるが、図示を省略する。   The driving unit 205a drives a motor connected to the rotation shaft of a rotor 205b which is a wing of a rotary wing aircraft, and rotates the rotor 205b. The driving unit 205a controls the rotation of the rotor 205b to control the horizontal position, the altitude, the attitude, the moving direction, and the like. Although the flying body 200 includes the plurality of rotors 205b, the illustration is omitted.

なお、飛行体200は、図示しないセンサ群を備えることができる。センサ群は、例えば、気圧センサや超音波センサを含むセンサの集合である。気圧センサは、例えば、高度の測定に利用される。超音波センサは、例えば、障害物の検知に利用される。センサ群には、現在位置の測定に利用できるGPS(Global Positioning System)や加速度センサなどが含まれてもよい。   In addition, the flying body 200 can be equipped with the sensor group which is not shown in figure. The sensor group is, for example, a collection of sensors including an air pressure sensor and an ultrasonic sensor. A barometric pressure sensor is used, for example, for measurement of altitude. The ultrasonic sensor is used, for example, for detection of an obstacle. The sensor group may include a GPS (Global Positioning System), an acceleration sensor, etc. that can be used to measure the current position.

図5は、視線検知座標と検知領域の一例を示す図である。図5(A)は、視線検知座標の一例を示す図である。情報処理装置100は、視線検出装置140を介して操作者がディスプレイ121の画面を注視した座標を検知する。ここでは、操作者が注視した座標が視線検知座標350であるものとする。画面において、中心位置を原点301とし、視線検知座標350の位置をX座標およびY座標で示す。X軸のプラス方向は、原点301から水平右方向である。X軸のマイナス方向は、原点301から水平左方向である。Y軸のプラス方向は、原点301から垂直上方向である。Y軸のマイナス方向は、原点301から垂直下方向である。なお、視線検知座標350は、ドットやピクセルなどの値で示してもよい。   FIG. 5 is a diagram showing an example of gaze detection coordinates and a detection area. FIG. 5A is a diagram showing an example of gaze detection coordinates. The information processing device 100 detects the coordinates at which the operator gazes at the screen of the display 121 via the sight line detection device 140. Here, it is assumed that coordinates at which the operator gazes are gaze detection coordinates 350. In the screen, the center position is set as the origin 301, and the position of the gaze detection coordinate 350 is indicated by the X coordinate and the Y coordinate. The positive direction of the X axis is the horizontal right direction from the origin 301. The negative direction of the X axis is the horizontal left direction from the origin 301. The positive direction of the Y axis is vertically upward from the origin 301. The negative direction of the Y axis is vertically downward from the origin 301. The gaze detection coordinates 350 may be indicated by values such as dots and pixels.

図5(B)は、検知領域の一例を示す図である。検知領域は、ディスプレイ121の画面を複数の区画に区切った領域である。検知領域は、左上指示領域302、上昇指示領域303、右上指示領域304、左横指示領域305、中心領域306、右横指示領域307、左下指示領域308、下降指示領域309および右下指示領域310を含む。なお、検知領域を区切る領域は一例に過ぎず、その他の領域で検知領域を区切ることも可能である。   FIG. 5B is a diagram showing an example of the detection area. The detection area is an area obtained by dividing the screen of the display 121 into a plurality of sections. The detection area is the upper left instruction area 302, the upper instruction area 303, the upper right instruction area 304, the left horizontal instruction area 305, the center area 306, the right horizontal instruction area 307, the lower left instruction area 308, the downward instruction area 309 and the lower right instruction area 310. including. In addition, the area | region which divides a detection area is only an example, and it is also possible to divide a detection area in another area | region.

情報処理装置100は、視線検知座標350が含まれる検知領域に応じて飛行体200に送信する制御情報を決定する。例えば、情報処理装置100は、左上指示領域302に視線検知座標350が含まれることを検知した場合、左上に移動する制御情報を飛行体200に送信する。   The information processing apparatus 100 determines control information to be transmitted to the flying object 200 in accordance with the detection area in which the sight line detection coordinates 350 are included. For example, when the information processing apparatus 100 detects that the line-of-sight detection coordinate 350 is included in the upper left instruction area 302, the information processing apparatus 100 transmits control information for moving to the upper left to the aircraft 200.

図6は、検知領域の他の一例を示す図である。図6に示す検知領域は、ディスプレイ121の画面を5行5列のマトリクス状の区間に区切った領域である。各検知領域は、行と列によって識別可能であり、例えば、左上の検知領域は検知領域A1として識別され、右下の検知領域は検知領域E5として識別される。なお、検知領域は、m行m列に限らず、m行n列(m≠n)でマトリクス状の区画に区分された領域であってもよい。   FIG. 6 is a diagram showing another example of the detection area. The detection area shown in FIG. 6 is an area obtained by dividing the screen of the display 121 into five-row, five-column, matrix-like sections. Each detection area can be identified by row and column. For example, the upper left detection area is identified as detection area A1, and the lower right detection area is identified as detection area E5. The detection area is not limited to m rows and m columns, and may be areas divided into m rows and n columns (m ≠ n) into matrix-like sections.

図5においては、視線検出装置140が操作者によって注視された位置を詳細に検知する例を示したが、図6においては、視線検出装置140が操作者によって注視された位置の検知の精度が低い場合の一例を示すものとする。   Although FIG. 5 shows an example in which the visual axis detection device 140 detects in detail the position at which the operator gazes, in FIG. 6 the accuracy of detection of the position at which the visual axis detection device 140 looks at is An example of the low case is shown.

図6において、視線検出装置140は、操作者が注視した位置が検知領域A1〜E5のいずれかに含まれることを検知するものとする。
例えば、視線検出装置140は、操作者が注視した位置が検知領域A1に含まれる場合、視線検知座標350として(−2,2)をプロセッサ101に出力するものとする。また、視線検出装置140は、操作者が注視した位置が検知領域E5に含まれる場合、視線検知座標350として(2,−2)をプロセッサ101に出力するものとする。
In FIG. 6, it is assumed that the visual axis detection device 140 detects that the position at which the operator gazes is included in any of the detection areas A1 to E5.
For example, when the position at which the operator gazes is included in the detection area A1, the visual axis detection device 140 outputs (−2, 2) as the visual axis detection coordinate 350 to the processor 101. In addition, when the position at which the operator gazes is included in the detection area E5, the line-of-sight detection device 140 outputs (2, -2) as the line-of-sight detection coordinate 350 to the processor 101.

なお、情報処理装置100は、検知領域A1,A2,B1,B2を左上指示領域302として扱い、検知領域A3,B3を上昇指示領域303として扱い、検知領域A4,A5,B4,B5を右上指示領域304として扱うことができる。また、情報処理装置100は、検知領域C1,C2を左横指示領域305として扱い、検知領域C3を中心領域306として扱い、検知領域C4,C5を右横指示領域307として扱うことができる。また、情報処理装置100は、検知領域D1,D2,E1,E2を左下指示領域308として扱い、検知領域D3,E3を下降指示領域309として扱い、検知領域D4,D5,E4,E5を右下指示領域310として扱うことができる。   The information processing apparatus 100 treats the detection areas A1, A2, B1 and B2 as the upper left instruction area 302, treats the detection areas A3 and B3 as the upward instruction area 303, and instructs the detection areas A4, A5, B4 and B5 as the upper right It can be treated as the area 304. Further, the information processing apparatus 100 can treat the detection areas C1 and C2 as the left lateral indication area 305, treat the detection area C3 as the central area 306, and treat the detection areas C4 and C5 as the right lateral indication area 307. Further, the information processing apparatus 100 treats the detection areas D1, D2, E1, and E2 as the lower left instruction area 308, treats the detection areas D3, E3 as the descent instruction area 309, and lowers the detection areas D4, D5, E4, and E5. It can be treated as the instruction area 310.

このように、情報処理装置100は、視線検出装置140の精度が低い場合であっても、操作者がいずれの検知領域を注視しているかを検知し、検知領域に応じた制御情報を決定できる。   As described above, even when the accuracy of the visual axis detection device 140 is low, the information processing apparatus 100 can detect which detection area the operator is gazing at, and can determine control information according to the detection area. .

図7は、飛行体制御システムが有する機能の一例を示したブロック図である。情報処理装置100は、制御部150、記憶部151および表示部152を有する。制御部150は、プロセッサ101により実現される。具体的には、プロセッサ101は、RAM102に記憶されたプログラムを実行することで、制御部150の機能を発揮する。ただし、制御部150は、FPGAやASICなどハードワイヤードロジックにより実現されてもよい。   FIG. 7 is a block diagram showing an example of the functions of the aircraft control system. The information processing apparatus 100 includes a control unit 150, a storage unit 151, and a display unit 152. The control unit 150 is realized by the processor 101. Specifically, the processor 101 executes the program stored in the RAM 102 to exert the function of the control unit 150. However, the control unit 150 may be realized by hard wired logic such as FPGA or ASIC.

記憶部151は、RAM102の記憶領域やHDD103の記憶領域を用いて実現される。記憶部151は、制御管理情報を記憶する。制御管理情報は、情報処理装置100が視線検知座標に基づいて飛行体200を制御するために用いる情報である。制御管理情報は、後で図8を用いて説明する。   The storage unit 151 is realized using the storage area of the RAM 102 and the storage area of the HDD 103. The storage unit 151 stores control management information. The control management information is information used by the information processing apparatus 100 to control the flying object 200 based on the gaze detection coordinates. Control management information will be described later with reference to FIG.

表示部152は、ディスプレイ121により実現される。表示部152は、制御部150の制御に従い情報を表示する。なお、表示部152は、情報処理装置100に外付けであってもよいし、情報処理装置100と一体化したものであってもよい。   The display unit 152 is realized by the display 121. The display unit 152 displays information in accordance with the control of the control unit 150. The display unit 152 may be externally attached to the information processing apparatus 100 or may be integrated with the information processing apparatus 100.

制御部150は、視線検出装置140が検知した視線検知座標と記憶部151に記憶された制御管理情報に基づき、制御情報を飛行体200に送信する。また、制御部150は、飛行体200から受信した画像情報を表示部152に表示する。   The control unit 150 transmits control information to the flying object 200 based on the gaze detection coordinates detected by the gaze detection device 140 and the control management information stored in the storage unit 151. The control unit 150 also displays the image information received from the flying object 200 on the display unit 152.

飛行体200は、制御部250を有する。制御部250は、CPU201により実現される。具体的には、CPU201は、メモリ202に記憶されたプログラムを実行することで、制御部250の機能を発揮する。ただし、制御部250は、FPGAやASICなどハードワイヤードロジックにより実現されてもよい。   The flying object 200 has a control unit 250. The control unit 250 is realized by the CPU 201. Specifically, the CPU 201 executes the program stored in the memory 202 to exert the function of the control unit 250. However, the control unit 250 may be realized by hard wired logic such as FPGA or ASIC.

制御部250は、カメラ203で画像を撮像し、撮像した画像データを情報処理装置100に送信する。制御部250は、情報処理装置100から受信した制御情報に基づいて駆動部205aを制御し、飛行体200を移動させる。   The control unit 250 captures an image with the camera 203, and transmits the captured image data to the information processing apparatus 100. The control unit 250 controls the drive unit 205 a based on the control information received from the information processing apparatus 100 to move the flying object 200.

図8は、制御管理情報の一例を示す図である。制御管理情報401は、検知領域に応じた制御情報を管理する情報である。制御管理情報401は、情報処理装置100の記憶部151に記憶される情報である。   FIG. 8 is a diagram showing an example of control management information. The control management information 401 is information for managing control information according to the detection area. The control management information 401 is information stored in the storage unit 151 of the information processing apparatus 100.

制御管理情報401は、領域、実行コマンドおよび実行時間(秒)の項目を含む。制御情報は、実行コマンドおよび実行時間を含むものとする。
領域の項目には、検知領域が登録される。検知領域に登録される領域は、図5(B)で説明した通りである。
Control management information 401 includes items of an area, an execution command, and an execution time (seconds). Control information includes execution command and execution time.
A detection area is registered in the item of the area. The area registered in the detection area is as described in FIG. 5 (B).

実行コマンドの項目には、飛行体200の移動を制御するコマンドが登録される。ここで、各コマンドの移動方向について説明する。飛行体200の正面には、カメラ203が備えられている。飛行体200は、左進行コマンドを実行した場合、カメラ203で撮像している方向に対して左方向に移動する。また、飛行体200は、右進行コマンドを実行した場合、カメラ203で撮像している方向に対して右方向に移動する。飛行体200は、上昇コマンドを実行した場合、カメラ203で撮像している方向に対して上方向に移動する。飛行体200は、下降コマンドを実行した場合、カメラ203で撮像している方向に対して下方向に移動する。   In the item of the execution command, a command for controlling the movement of the aircraft 200 is registered. Here, the moving direction of each command will be described. A camera 203 is provided in front of the flying object 200. When the flying object 200 executes a left advance command, the flying object 200 moves in the left direction with respect to the direction in which the camera 203 is imaging. In addition, the flying object 200 moves in the right direction with respect to the direction in which the camera 203 is capturing an image, when the right advance command is executed. The flying object 200 moves upward with respect to the direction in which the camera 203 is imaging, when the lifting command is executed. The flying object 200 moves downward with respect to the direction in which the camera 203 is imaging when the lowering command is executed.

実行時間の項目には、実行コマンドを実行する時間が登録される。なお、|X座標|は、X座標の絶対値を示す。また、|Y座標|は、Y座標の絶対値を示す。
例えば、制御管理情報401には、領域が「左上指示領域」、実行コマンドが「左進行コマンド」および実行時間が「|X座標|×0.2」、実行コマンドが「上昇コマンド」および実行時間が「Y座標×0.1」という情報が登録される。
In the item of execution time, the time to execute the execution command is registered. Note that | X coordinate | indicates the absolute value of X coordinate. In addition, | Y coordinate | indicates the absolute value of Y coordinate.
For example, in the control management information 401, the area is “upper left instruction area”, the execution command is “left progress command”, the execution time is “| X coordinate | × 0.2”, the execution command is “rise command” and the execution time The information that “Y coordinate × 0.1” is registered.

これは、情報処理装置100が、操作者が注視する視線検知座標が左上指示領域302に含まれることを検知した場合に、飛行体200に送信する制御情報を示す。情報処理装置100は、左進行コマンドを「|X座標|×0.2」秒間実行する制御情報と、上昇コマンドを「Y座標×0.1」秒間実行する制御情報とを飛行体200に送信することを示す。   This indicates the control information to be transmitted to the flying object 200 when the information processing apparatus 100 detects that the gaze detection coordinates at which the operator gazes are included in the upper left instruction area 302. The information processing apparatus 100 transmits, to the flying object 200, control information for executing the left advancing command for “| X coordinate | × 0.2” seconds, and control information for executing the rising command for “Y coordinate × 0.1” seconds. Indicates to do.

このように、情報処理装置100は、操作者が画面の左上指示領域302を注視した場合に、左進行コマンドと上昇コマンドとを組み合わせた制御情報を飛行体200に送信することで、飛行体200を左上に移動させることができる。また、情報処理装置100は、原点301と操作者が注視した位置(視線検知座標)との距離(X座標、Y座標)に応じて実行時間を設定する。これにより、情報処理装置100は、距離に比例して飛行体200の移動距離を制御できる。   As described above, when the operator gazes at the upper left instruction area 302 on the screen, the information processing apparatus 100 transmits to the flying object 200 the control information in which the left advancing command and the raising command are combined. Can be moved to the upper left. Further, the information processing apparatus 100 sets the execution time according to the distance (X coordinate, Y coordinate) between the origin 301 and the position (visual axis detection coordinate) at which the operator gazes. Thus, the information processing apparatus 100 can control the moving distance of the aircraft 200 in proportion to the distance.

なお、制御管理情報401において、下降コマンドの実行時間に上限を設けることで、急激に下降することによる地面との接触を回避することも可能である。
なお、ホバリングコマンドは一例に過ぎず、現在(操作者が中心領域306を注視した時刻)における飛行体200の位置を維持できるコマンドであればその他のコマンドであってもよい。以下の説明においても同様とする。
In the control management information 401, by providing an upper limit to the execution time of the descent command, it is possible to avoid contact with the ground due to rapid descent.
The hovering command is merely an example, and any other command may be used as long as it can maintain the position of the aircraft 200 at the present time (time when the operator gazes at the central area 306). The same applies to the following description.

次に、情報処理装置100による飛行体200に制御情報を送信する手順を説明する。図9は、飛行体制御処理の一例を示すフローチャートである。以下、図9に示す処理をステップ番号に沿って説明する。飛行体制御処理は、情報処理装置100が飛行体200に制御情報を送信し、飛行体200を操作する処理である。情報処理装置100の制御部150は、視線検出装置140から視線検知座標および注視時間を取得し、飛行体制御処理を実行する。なお、視線検出装置140は、所定の時間ごとに(例えば、1秒間に15回)視線検知座標および注視時間を制御部150に出力するものとする。   Next, a procedure of transmitting control information to the flying object 200 by the information processing apparatus 100 will be described. FIG. 9 is a flowchart showing an example of a flight control process. Hereinafter, the process shown in FIG. 9 will be described in order of step number. The airframe control process is a process in which the information processing apparatus 100 transmits control information to the airframe 200 and operates the airframe 200. The control unit 150 of the information processing device 100 acquires the gaze detection coordinates and the gaze time from the gaze detection device 140, and executes the flying body control processing. Note that the sight line detection device 140 outputs the sight line detection coordinates and the gaze time to the control unit 150 at predetermined time intervals (for example, fifteen times per second).

[ステップS11]制御部150は、視線検出装置140から視線検知座標を取得する。
[ステップS12]制御部150は、視線検知座標が中心領域306に含まれるか否かを判定する。制御部150は、視線検知座標が中心領域306に含まれる場合にステップS13にすすみ、含まれない場合にステップS11にすすむ。
[Step S11] The control unit 150 acquires line-of-sight detection coordinates from the line-of-sight detection device 140.
[Step S12] The control unit 150 determines whether or not the sight line detection coordinates are included in the central area 306. The control unit 150 proceeds to step S13 when the line-of-sight detection coordinates are included in the central area 306, and proceeds to step S11 when not included.

[ステップS13]制御部150は、離陸コマンドを飛行体200に送信する。具体的には、制御部150は、上昇コマンドを所定の時間(例えば、5秒間)実行する制御情報を飛行体200に送信する。ここで、飛行体200は、制御情報を受信し、離陸するものとする。   [Step S13] The control unit 150 transmits a takeoff command to the aircraft 200. Specifically, the control unit 150 transmits control information for executing a rising command for a predetermined time (for example, 5 seconds) to the flying object 200. Here, it is assumed that the flying object 200 receives control information and takes off.

[ステップS14]制御部150は、ホバリングコマンドを飛行体200に送信する。制御部150は、次の制御情報を送信するまで飛行体200がホバリングを継続するようにホバリングコマンドを飛行体200に送信する。   [Step S14] The control unit 150 transmits a hovering command to the flying object 200. The control unit 150 transmits a hovering command to the aircraft 200 so that the aircraft 200 continues to hover until transmitting the next control information.

[ステップS15]制御部150は、視線検出装置140から視線検知座標を取得する。
[ステップS16]制御部150は、所定時間(例えば、1秒)が経過したか否かを判定する。制御部150は、所定時間が経過した場合、ステップS17にすすむ。制御部150は、所定の時間が経過していない場合にステップS15にすすむ。
[Step S15] The control unit 150 acquires line-of-sight detection coordinates from the line-of-sight detection device 140.
[Step S16] The control unit 150 determines whether a predetermined time (for example, one second) has elapsed. If the predetermined time has elapsed, the control unit 150 proceeds to step S17. If the predetermined time has not elapsed, the control unit 150 proceeds to step S15.

本ステップの処理は、制御部150が、操作者がいずれの検知領域を注視しているかを判定するための視線検知座標を取得する処理である。例えば、視線検出装置140が、1秒間に15回の頻度で視線検知座標を制御部150に送る場合、制御部150は所定時間である1秒間に15個の視線検知座標を取得する。また、1つの視線検知座標を操作者が注視している時間は、15分の1秒(1/15秒)であるものとする。   The process of this step is a process in which the control unit 150 acquires line-of-sight detection coordinates for determining which detection area the operator is gazing at. For example, when the gaze detection apparatus 140 sends gaze detection coordinates to the control unit 150 at a frequency of 15 times per second, the control unit 150 acquires fifteen gaze detection coordinates in one second which is a predetermined time. Further, it is assumed that the time during which the operator gazes at one gaze detection coordinate is one fifteenth of a second (1/15 second).

[ステップS17]制御部150は、視線検知座標が検知領域内であるか否かを判定する。制御部150は、視線検知座標が検知領域内である場合、ステップS18にすすむ。制御部150は、視線検知座標が検知領域内でない場合、言い換えると、視線検知座標が画面外である場合、ステップS19にすすむ。   [Step S17] The control unit 150 determines whether the sight line detection coordinates are within the detection area. If the line of sight detection coordinates are within the detection area, the control unit 150 proceeds to step S18. If the sight line detection coordinates are not within the detection area, in other words, if the sight line detection coordinates are outside the screen, the control unit 150 proceeds to step S19.

[ステップS18]制御部150は、移動制御処理を実行する。移動制御処理は、視線検知座標と注視時間に基づき、飛行体200に送信する制御情報を特定する処理である。移動制御処理は、後で図10を用いて説明する。   [Step S18] The control unit 150 executes movement control processing. The movement control process is a process of specifying control information to be transmitted to the flying object 200 based on the gaze detection coordinates and the gaze time. The movement control process will be described later with reference to FIG.

[ステップS19]制御部150は、所定時間(例えば、15秒)が経過したか否かを判定する。制御部150は、所定時間が経過した場合、言い換えると、視線検知座標が検知領域外である状態が所定時間継続した場合、ステップS20にすすむ。制御部150は、所定時間が経過しない場合、言い換えると、視線検知座標が検知領域外である状態が所定時間継続していない場合、ステップS15にすすむ。   [Step S19] The control unit 150 determines whether a predetermined time (for example, 15 seconds) has elapsed. If the predetermined time has elapsed, in other words, if the state in which the sight line detection coordinates are outside the detection area continues for a predetermined time, the control unit 150 proceeds to step S20. If the predetermined time has not elapsed, in other words, if the state in which the sight line detection coordinates are outside the detection area has not continued for a predetermined time, the control unit 150 proceeds to step S15.

[ステップS20]制御部150は、着陸コマンドを飛行体200に送信し、処理を終了する。
なお、情報処理装置100の制御部150は、離陸および着陸を別の方法で実行してもよい。例えば、情報処理装置100は、操作者による離陸コマンドの入力に応じて当該離陸コマンドを飛行体200に送信してもよい。また、情報処理装置100は、操作者による着陸コマンドの入力に応じて当該着陸コマンドを飛行体200に送信してもよい。
[Step S20] The control unit 150 transmits a landing command to the aircraft 200, and ends the process.
Note that the control unit 150 of the information processing apparatus 100 may execute takeoff and landing by another method. For example, the information processing apparatus 100 may transmit the takeoff command to the aircraft 200 in response to the input of the takeoff command by the operator. Further, the information processing apparatus 100 may transmit the landing command to the aircraft 200 in response to the input of the landing command by the operator.

図10は、移動制御処理の一例を示すフローチャートである。以下、図10に示す処理をステップ番号に沿って説明する。移動制御処理は、視線検知座標と注視時間に基づき、飛行体200に送信する制御情報を特定する処理である。移動制御処理は、飛行体操作処理のステップS18で制御部150が実行する処理である。   FIG. 10 is a flowchart showing an example of the movement control process. Hereinafter, the process shown in FIG. 10 will be described in order of step number. The movement control process is a process of specifying control information to be transmitted to the flying object 200 based on the gaze detection coordinates and the gaze time. The movement control process is a process executed by the control unit 150 in step S18 of the flight vehicle operation process.

[ステップS31]制御部150は、ステップS15で取得した視線検知座標に基づき、操作者が注視した領域を特定する。
例えば、ステップS15において取得した視線検知座標が15個であり、左上指示領域302に含まれる視線検知座標が10個で最多である場合、制御部150は左上指示領域302を特定する。
[Step S31] The control unit 150 specifies an area at which the operator gazes, based on the gaze detection coordinates acquired in Step S15.
For example, when the number of eye gaze detection coordinates acquired in step S15 is 15 and the number of eye gaze detection coordinates included in the upper left designation area 302 is the largest, the control unit 150 specifies the upper left designation area 302.

[ステップS32]制御部150は、検知領域に基づき制御管理情報401から制御情報を特定する。具体的には、制御部150は、ステップS31で特定した領域に対応する実行コマンドを特定する。また、制御部150は、視線検知座標(X座標、Y座標)に基づき、実行コマンドに対応する実行時間を特定する。   [Step S32] The control unit 150 specifies control information from the control management information 401 based on the detection area. Specifically, the control unit 150 specifies an execution command corresponding to the area specified in step S31. In addition, the control unit 150 specifies the execution time corresponding to the execution command based on the gaze detection coordinates (X coordinate, Y coordinate).

例えば、左上指示領域302が特定され、視線検知座標が(−2,2)である場合、制御部150は、左進行コマンドを|−2|×0.2=0.4(秒)実行し、上昇コマンドを2×0.1=0.2(秒)実行する制御情報を特定する。   For example, when the upper left instruction area 302 is specified, and the line-of-sight detection coordinate is (-2, 2), the control unit 150 executes the left advancing command | -2 | × 0.2 = 0.4 (seconds). , Specify the control information for executing the rise command 2 × 0.1 = 0.2 (seconds).

[ステップS33]制御部150は、特定した制御情報(実行コマンドおよび実行時間)を飛行体200に送信する。
[ステップS34]制御部150は、ステップS31で特定した検知領域を操作者が注視した時間である注視時間を算出する。
[Step S33] The control unit 150 transmits the specified control information (execution command and execution time) to the aircraft 200.
[Step S34] The control unit 150 calculates a fixation time which is a time when the operator gazes at the detection area specified in Step S31.

例えば、ステップS31において、左上指示領域302に含まれる視線検知座標が10個である場合、1個の視線検知座標を注視した時間が(1/15秒)であるため、(1/15)×10=2/3(秒)として算出できる。   For example, in the case where the number of visual axis detection coordinates included in the upper left instruction area 302 is 10 in step S31, the time for which one visual axis detection coordinate is gazed is 1/15 second, so (1/15) × It can be calculated as 10 = 2/3 (seconds).

なお、注視時間の算出方法は一例に過ぎず、その他の方法で算出してもよいし、センサで注視時間を検出してもよい。
[ステップS35]制御部150は、前進コマンドと実行時間を注視時間とする制御情報を飛行体200に送信し、処理を終了する。前進コマンドとは、飛行体200が備えるカメラ203による撮像方向(すなわち、飛行体200の前方方向)に飛行体200を移動させる移動制御命令である。
In addition, the calculation method of gaze time is only an example, and may be calculated by other methods, and the gaze time may be detected by a sensor.
[Step S35] The control unit 150 transmits, to the flying object 200, control information having the forward command and the execution time as the gaze time, and ends the processing. The forward command is a movement control command for moving the flying object 200 in the imaging direction (that is, the forward direction of the flying object 200) by the camera 203 included in the flying object 200.

制御部150は、操作者の視線を検知した方向に飛行体200を移動させる制御情報を飛行体200に送信し、注視時間に応じて飛行体200を前進させる制御情報を飛行体200に送信する。操作者による注視時間が長いほど飛行体200を前進させるコマンドの実行時間が長くなるため、飛行体200が前方に進行する距離も長くなる。   The control unit 150 transmits, to the flying object 200, control information for moving the flying object 200 in the direction in which the line of sight of the operator is detected, and sends, to the flying object 200, control information for advancing the flying object 200 according to the gaze time. . The longer the gaze time by the operator, the longer the execution time of the command for advancing the flying object 200, and hence the distance the flying object 200 travels forward becomes longer.

このようにして、情報処理装置100は、操作者の視線を視線検出装置140で検知し、飛行体200を制御する。操作者は、コントローラを手動で操作することなく、表示部152の画面上において視線を移動させることで飛行体200を制御できる。   Thus, the information processing apparatus 100 detects the line of sight of the operator with the line of sight detection apparatus 140 and controls the flying object 200. The operator can control the flying object 200 by moving the sight line on the screen of the display unit 152 without manually operating the controller.

次に、情報処理装置100による飛行体200から受信した画像情報を表示する手順を説明する。図11は、画像表示処理の一例を示すフローチャートである。以下、図11に示す処理をステップ番号に沿って説明する。   Next, the procedure of displaying the image information received from the flying object 200 by the information processing apparatus 100 will be described. FIG. 11 is a flowchart showing an example of the image display process. The process shown in FIG. 11 will be described below in order of step number.

画像表示処理は、情報処理装置100の制御部150が飛行体200から受信した画像情報を表示する処理である。情報処理装置100の制御部150は、飛行体200から画像情報を受信し、画像表示処理を実行する。なお、制御部150は、画像表示処理を飛行体制御処理とは独立して実行できる。また、飛行体200は、所定の時間ごとに画像情報を情報処理装置100に送信することができる。   The image display process is a process of displaying the image information received from the flying object 200 by the control unit 150 of the information processing apparatus 100. The control unit 150 of the information processing apparatus 100 receives the image information from the flying object 200 and executes the image display process. The control unit 150 can execute the image display process independently of the flying object control process. In addition, the flying object 200 can transmit image information to the information processing apparatus 100 at predetermined time intervals.

[ステップS41]制御部150は、画像情報を飛行体200から受信する。なお、画像情報は、静止画のデータであってもよいし、動画のデータであってもよい。
[ステップS42]制御部150は、画像情報を表示部152に表示し、ステップS41にすすむ。
[Step S41] The control unit 150 receives image information from the aircraft 200. The image information may be still image data or moving image data.
[Step S42] The control unit 150 displays the image information on the display unit 152, and the process goes to Step S41.

このように、制御部150が飛行体200から受信した画像情報を表示部152に表示することにより、操作者は、表示部152に表示された画像情報を目視で確認しつつ飛行体200の制御ができる。   In this manner, the control unit 150 displays the image information received from the flying object 200 on the display unit 152, so that the operator controls the flying object 200 while visually confirming the image information displayed on the display unit 152. Can.

こうして、飛行体制御システムは、情報処理装置100において操作者の視線を検知し、検知した視線の座標情報に応じた制御情報を特定し、制御情報を飛行体200に送信することにより、操作者の視線による飛行体200の操作を可能とする。   Thus, the flying object control system detects the line of sight of the operator in the information processing apparatus 100, specifies control information according to the coordinate information of the detected line of sight, and transmits the control information to the aircraft 200. Operation of the flying object 200 by the line of sight of

なお、第1の実施の形態においては制御対象物として移動体20を例示し、第2の実施の形態においては制御対象物として飛行体200を例示したが、他のものを制御対象物としてもよい。例えば、制御対象の移動体は、無線制御可能な車両、船舶、潜水艇、ロボットおよび内視鏡などであってもよい。本システムは、視線により移動体の移動を制御可能とすることで、例えば、操作者は手を用いて、移動以外の機能(移動体が備えるアームの操作、カメラ角度操作、農薬散布操作など)の操作を容易に行えるようになる。   In the first embodiment, the moving object 20 is illustrated as the control object, and in the second embodiment, the flying object 200 is illustrated as the control object, but other objects may be used as the control object. Good. For example, the mobile object to be controlled may be a wirelessly controllable vehicle, a ship, a submersible, a robot, an endoscope and the like. In this system, the movement of the moving body can be controlled by the line of sight, for example, the operator uses a hand to perform functions other than movement (operation of an arm provided to the moving body, camera angle operation, pesticide spreading operation, etc.) Operation can be easily performed.

なお、第1の実施の情報処理は、制御部11にプログラムを実行させることで実現できる。また、第2の実施の形態の情報処理は、プロセッサ101にプログラムを実行させることで実現できる。プログラムは、コンピュータ読み取り可能な記録媒体123に記録できる。   Note that the information processing of the first embodiment can be realized by causing the control unit 11 to execute a program. Also, the information processing of the second embodiment can be realized by causing the processor 101 to execute a program. The program can be recorded on a computer readable recording medium 123.

例えば、プログラムを記録した記録媒体123を配布することで、プログラムを流通させることができる。また、プログラムを他のコンピュータに格納しておき、ネットワーク130経由でプログラムを配布してもよい。コンピュータは、例えば、記録媒体123に記録されたプログラムまたは他のコンピュータから受信したプログラムをRAM102やHDD103などの記憶装置に格納し(インストールし)、記憶装置からプログラムを読み込んで実行してもよい。   For example, the program can be distributed by distributing the recording medium 123 in which the program is recorded. Alternatively, the program may be stored in another computer, and the program may be distributed via the network 130. For example, the computer may store (install) a program recorded in the recording medium 123 or a program received from another computer in a storage device such as the RAM 102 or the HDD 103, and read and execute the program from the storage device.

10 情報処理装置
11 制御部
12 検知部
13 表示部
13a 第1の画面
13b 第2の画面
13j,13k 検知座標
13o 基準位置
13p 基準領域
20 移動体
DESCRIPTION OF SYMBOLS 10 information processing apparatus 11 control part 12 detection part 13 display part 13a 1st screen 13b 2nd screen 13j, 13k detection coordinate 13o reference position 13p reference area 20 moving body

Claims (10)

撮像部を備える移動体から前記撮像部によって撮像された画像情報を受信し、
前記画像情報を表示した表示部において、操作者が注視している前記表示部の画面上の座標である検知座標を検知し、
前記検知座標に応じて前記移動体を制御する制御情報を決定し、前記制御情報を前記移動体に通知する、
処理をコンピュータに実行させる移動体制御プログラム。
Receiving image information captured by the imaging unit from a moving object including the imaging unit;
In the display unit on which the image information is displayed, detection coordinates which are coordinates on the screen of the display unit at which the operator is gazing are detected.
Control information for controlling the mobile unit is determined according to the detected coordinates, and the control information is notified to the mobile unit.
Mobile control program that causes a computer to execute processing.
前記画面上の基準位置から前記検知座標への方向に応じて前記移動体を移動させる移動制御命令を決定する、
請求項1記載の移動体制御プログラム。
Determining a movement control command to move the moving body according to the direction from the reference position on the screen to the detected coordinates;
The mobile control program according to claim 1.
前記基準位置と前記検知座標との距離に応じて前記移動制御命令の実行時間を決定する、
請求項2記載の移動体制御プログラム。
The execution time of the movement control instruction is determined according to the distance between the reference position and the detected coordinates.
The mobile control program according to claim 2.
前記移動制御命令と前記移動制御命令の実行時間とを含む前記制御情報を前記移動体に通知する、
請求項2記載の移動体制御プログラム。
Notifying the mobile unit of the control information including the movement control instruction and an execution time of the movement control instruction;
The mobile control program according to claim 2.
前記移動制御命令の決定では、前記検知座標が前記基準位置に対して第1の方向に位置する場合、前記移動体の撮像部による撮像方向に対する前記第1の方向に前記移動体を移動させる命令を前記移動制御命令として決定する、
請求項2記載の移動体制御プログラム。
In the determination of the movement control command, when the detected coordinates are positioned in a first direction with respect to the reference position, a command to move the moving body in a first direction with respect to an imaging direction by an imaging unit of the moving body As the movement control command,
The mobile control program according to claim 2.
前記基準位置を含む基準領域に前記検知座標が含まれる場合、
前記操作者が前記基準領域を注視した時刻における前記移動体の位置を維持させる命令を前記移動制御命令として決定し、
前記移動制御命令と前記移動制御命令を所定時間実行させる実行時間とを含む制御情報を前記移動体に通知する、
請求項2記載の移動体制御プログラム。
When the detected coordinates are included in a reference area including the reference position:
A command to maintain the position of the mobile at a time when the operator gazes at the reference area is determined as the movement control command.
Notifying the mobile body of control information including the movement control instruction and an execution time for causing the movement control instruction to be executed for a predetermined time;
The mobile control program according to claim 2.
前記撮像部による撮像方向に前記移動体を移動させる移動制御命令を決定し、
前記操作者が注視した時間に応じて前記移動制御命令の実行時間を決定する、
請求項1記載の移動体制御プログラム。
Determining a movement control command to move the moving body in the imaging direction by the imaging unit;
The execution time of the movement control command is determined according to the time at which the operator gazes.
The mobile control program according to claim 1.
前記移動体から前記画像情報を受信するごとに前記画像情報を表示し、
所定の時間ごとに前記検知座標を検知する、
請求項1記載の移動体制御プログラム。
Each time the image information is received from the moving body, the image information is displayed;
Detecting the detected coordinates at predetermined time intervals;
The mobile control program according to claim 1.
コンピュータが、
撮像部を備える移動体から前記撮像部によって撮像された画像情報を受信し、
前記画像情報を表示した表示部において、操作者が注視している前記表示部の画面上の座標である検知座標を検知し、
前記検知座標に応じて前記移動体を制御する制御情報を決定し、前記制御情報を前記移動体に通知する、
移動体制御方法。
The computer is
Receiving image information captured by the imaging unit from a moving object including the imaging unit;
In the display unit on which the image information is displayed, detection coordinates which are coordinates on the screen of the display unit at which the operator is gazing are detected.
Control information for controlling the mobile unit is determined according to the detected coordinates, and the control information is notified to the mobile unit.
Mobile control method.
撮像部を備える移動体の前記撮像部によって撮像された画像情報を表示する表示部と、
操作者が注視している前記表示部の画面上の座標である検知座標を検知する検知部と、
前記画像情報を前記移動体から受信し、前記検知座標に応じて前記移動体を制御する制御情報を決定し、前記制御情報を前記移動体に通知する制御部と、
を備える情報処理装置。
A display unit that displays image information captured by the imaging unit of the moving object including the imaging unit;
A detection unit that detects detection coordinates that are coordinates on the screen of the display unit at which an operator is gazing;
A control unit that receives the image information from the mobile unit, determines control information for controlling the mobile unit according to the detected coordinates, and notifies the mobile unit of the control information;
An information processing apparatus comprising:
JP2017203063A 2017-10-20 2017-10-20 Mobile control program, mobile control method and information processing device Active JP7092981B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017203063A JP7092981B2 (en) 2017-10-20 2017-10-20 Mobile control program, mobile control method and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017203063A JP7092981B2 (en) 2017-10-20 2017-10-20 Mobile control program, mobile control method and information processing device

Publications (2)

Publication Number Publication Date
JP2019079091A true JP2019079091A (en) 2019-05-23
JP7092981B2 JP7092981B2 (en) 2022-06-29

Family

ID=66627814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017203063A Active JP7092981B2 (en) 2017-10-20 2017-10-20 Mobile control program, mobile control method and information processing device

Country Status (1)

Country Link
JP (1) JP7092981B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021184289A1 (en) * 2020-03-19 2021-09-23 深圳市大疆创新科技有限公司 Methods and device for solving an object and flying around point

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0538684A (en) * 1991-07-30 1993-02-19 Toshiba Corp Robot safety securing system
JPH09167049A (en) * 1995-12-15 1997-06-24 Nissan Motor Co Ltd Line of sight input device for console
JP2012509812A (en) * 2008-11-27 2012-04-26 パロット Device for maneuvering drone
WO2017069176A1 (en) * 2015-10-19 2017-04-27 株式会社オリィ研究所 Line-of-sight input device, line-of-sight input method, and line-of-sight input program
US20170214856A1 (en) * 2016-01-22 2017-07-27 Mediatek Inc. Method for controlling motions and actions of an apparatus including an image capture device having a moving device connected thereto using a controlling device
KR20170090888A (en) * 2016-01-29 2017-08-08 한국전자통신연구원 Apparatus for unmanned aerial vehicle controlling using head mounted display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0538684A (en) * 1991-07-30 1993-02-19 Toshiba Corp Robot safety securing system
JPH09167049A (en) * 1995-12-15 1997-06-24 Nissan Motor Co Ltd Line of sight input device for console
JP2012509812A (en) * 2008-11-27 2012-04-26 パロット Device for maneuvering drone
WO2017069176A1 (en) * 2015-10-19 2017-04-27 株式会社オリィ研究所 Line-of-sight input device, line-of-sight input method, and line-of-sight input program
US20170214856A1 (en) * 2016-01-22 2017-07-27 Mediatek Inc. Method for controlling motions and actions of an apparatus including an image capture device having a moving device connected thereto using a controlling device
KR20170090888A (en) * 2016-01-29 2017-08-08 한국전자통신연구원 Apparatus for unmanned aerial vehicle controlling using head mounted display

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021184289A1 (en) * 2020-03-19 2021-09-23 深圳市大疆创新科技有限公司 Methods and device for solving an object and flying around point

Also Published As

Publication number Publication date
JP7092981B2 (en) 2022-06-29

Similar Documents

Publication Publication Date Title
US20220091607A1 (en) Systems and methods for target tracking
US11632497B2 (en) Systems and methods for controlling an image captured by an imaging device
US10551834B2 (en) Method and electronic device for controlling unmanned aerial vehicle
US11422560B2 (en) Flying camera and a system
US20230386064A1 (en) Obstacle avoidance during target tracking
CN108279694B (en) Electronic device and control method thereof
WO2017147792A1 (en) Methods and systems for target tracking
JP2017503226A5 (en)
KR101657086B1 (en) Vision-based guidance of UAV equipped with a fixed camera control system
JP6849272B2 (en) Methods for controlling unmanned aerial vehicles, unmanned aerial vehicles, and systems for controlling unmanned aerial vehicles
JP7092981B2 (en) Mobile control program, mobile control method and information processing device
JP2019114036A (en) Information processing apparatus, flight control instruction method, program, and recording medium
JP7128409B2 (en) REMOTE CONTROL DEVICE, REMOTE CONTROL SYSTEM, REMOTE CONTROL METHOD AND REMOTE CONTROL PROGRAM
JP2021073796A (en) Control device, and method for obtaining image
KR102681582B1 (en) Electronic device and controlling method thereof

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190419

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210714

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220530

R150 Certificate of patent or registration of utility model

Ref document number: 7092981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150