JP6855616B2 - Operating devices, mobile devices, and their control systems - Google Patents

Operating devices, mobile devices, and their control systems Download PDF

Info

Publication number
JP6855616B2
JP6855616B2 JP2020066233A JP2020066233A JP6855616B2 JP 6855616 B2 JP6855616 B2 JP 6855616B2 JP 2020066233 A JP2020066233 A JP 2020066233A JP 2020066233 A JP2020066233 A JP 2020066233A JP 6855616 B2 JP6855616 B2 JP 6855616B2
Authority
JP
Japan
Prior art keywords
touch
moving
moving device
touch operation
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020066233A
Other languages
Japanese (ja)
Other versions
JP2020120388A (en
Inventor
佳弘 水尾
佳弘 水尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020066233A priority Critical patent/JP6855616B2/en
Publication of JP2020120388A publication Critical patent/JP2020120388A/en
Application granted granted Critical
Publication of JP6855616B2 publication Critical patent/JP6855616B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ドローン等の移動装置に撮像装置を有するものの移動制御システムに関し、特にタッチパネル等の操作により撮像装置の移動を行うものに関する。 The present invention relates to a movement control system for a mobile device such as a drone having an image pickup device, and more particularly to a system for moving the image pickup device by operating a touch panel or the like.

近年、ドローンと呼ばれる無線操作に応じて移動可能な飛行装置に撮像装置を有するものがあり、その操作のために一般的には専用の操作端末が用意されている。操作端末には、タッチパネルを利用して操作することが可能なものも存在するが、専用操作端末の動作を単純に置き換えたUIによるものが多く、直観的な操作ができず自由に操作するには操作への習熟を必要とする。また、タッチパネルによる撮像装置の操作という観点では、一般的に監視カメラの分野において直観的な操作を実現する従来技術が存在する。 In recent years, some flight devices called drones that can move according to wireless operations have an image pickup device, and a dedicated operation terminal is generally prepared for the operation. There are some operation terminals that can be operated using a touch panel, but most of them use a UI that simply replaces the operation of the dedicated operation terminal, so intuitive operation is not possible and it is possible to operate freely. Requires proficiency in operation. Further, from the viewpoint of operating the image pickup device by the touch panel, there is a conventional technique for realizing intuitive operation in the field of surveillance cameras in general.

特許文献1では、スマートフォンやタブレット等のタッチパネル操作で一般的なピンチイン、ピンチアウトの操作を、監視カメラのズーム動作に対応させる操作方法の発明が開示されている。これは操作者が普段からタッチパネルで行っている操作から直観的に推測できる結果と、監視カメラの動作で類似の結果が起こる処理とを関連付けている。 Patent Document 1 discloses an invention of an operation method in which a pinch-in and pinch-out operations, which are common in touch panel operations of smartphones and tablets, correspond to zoom operations of surveillance cameras. This correlates the result that can be intuitively inferred from the operation that the operator normally performs on the touch panel and the process that causes a similar result in the operation of the surveillance camera.

特開2014−99719号公報Japanese Unexamined Patent Publication No. 2014-99719

特許文献1では、備え付けの監視カメラに関してタッチパネル操作による撮影方向の変更及びズームの制御について開示されている。しかし、ドローン等に搭載されているような撮像装置の位置移動をタッチパネル操作によって行う構成は考えられていない。 Patent Document 1 discloses a change in the shooting direction and a zoom control by operating a touch panel with respect to the built-in surveillance camera. However, a configuration in which the position of the image pickup device mounted on a drone or the like is moved by touch panel operation has not been considered.

そこで、本発明の目的は、ドローン等の移動装置に搭載されて位置移動が可能な撮像装置を、タッチパネル機能のある操作端末で操作する場合に、その移動を直観的にわかりやすく行える移動制御システムを提供することである。 Therefore, an object of the present invention is a movement control system that can intuitively and easily understand the movement of an imaging device mounted on a moving device such as a drone and capable of moving a position when operated by an operation terminal having a touch panel function. Is to provide.

上記の目的を達成するために、本発明における移動制御システムは、撮像手段を保持する移動装置を外部から制御する操作装置であって、前記撮像手段で撮像している画像を表示する表示手段と、タッチ操作を検出するタッチ操作手段と、前記タッチ操作手段により検出されたタッチ操作に応答して、該タッチ操作がムーブ操作である場合に該ムーブ操作の操作方向に基づいて前記移動装置を移動させる指示手段と、を有し、前記タッチ操作手段により、前記ムーブ操作の後、タッチオンの状態が継続して検出されている場合は、前記指示手段は、前記ムーブ操作に基づく移動を継続させることを特徴とすることを特徴とする。 In order to achieve the above object, the movement control system in the present invention is an operation device for externally controlling a mobile device holding the image pickup means, and is a display means for displaying an image captured by the image pickup means. In response to the touch operation means for detecting the touch operation and the touch operation detected by the touch operation means, the moving device is moved based on the operation direction of the move operation when the touch operation is a move operation. When the touch-on state is continuously detected by the touch operation means after the move operation, the instruction means continues the movement based on the move operation. It is characterized by being characterized by.

本発明によれば、ドローン等に搭載されて位置移動が可能な撮像装置をタッチパネル機能のある操作端末で操作する場合に、その移動を直観的にわかりやすく行えるようになる。 According to the present invention, when an image pickup device mounted on a drone or the like and capable of moving a position is operated by an operation terminal having a touch panel function, the movement can be intuitively and easily understood.

本発明の第1の実施形態に係る操作システムの構成例を示すブロック図A block diagram showing a configuration example of an operation system according to the first embodiment of the present invention. 本発明の第1の実施形態に係る操作端末の処理を示すフローチャートA flowchart showing the processing of the operation terminal according to the first embodiment of the present invention. 本発明の第1の実施形態に係るピンチ操作について示す図The figure which shows the pinch operation which concerns on 1st Embodiment of this invention. 本発明の第1の実施形態に係るタッチ位置について示す図The figure which shows the touch position which concerns on 1st Embodiment of this invention. 本発明の第1の実施形態に係るピンチアウトの位置による移動方向の決定について示す図The figure which shows the determination of the moving direction by the pinch-out position which concerns on 1st Embodiment of this invention. 本発明の第1の実施形態に係るピンチインの位置による移動方向の決定について示す図The figure which shows the determination of the moving direction by the position of the pinch-in which concerns on 1st Embodiment of this invention. 本発明の第1の実施形態に係るドラッグ操作に対応する動作を示す図The figure which shows the operation corresponding to the drag operation which concerns on 1st Embodiment of this invention. 本発明の第1の実施形態に係るピンチアウト操作による撮像装置の動作を示す図The figure which shows the operation of the image pickup apparatus by the pinch-out operation which concerns on 1st Embodiment of this invention. 本発明の第1の実施形態に係るピンチアウト操作による撮像装置の動作を示す図The figure which shows the operation of the image pickup apparatus by the pinch-out operation which concerns on 1st Embodiment of this invention. 本発明の第1の実施形態に係る移動装置の処理を示すフローチャートA flowchart showing the processing of the mobile device according to the first embodiment of the present invention. 本発明の第1の実施形態に係る移動方向を明示させるUIを示す図The figure which shows the UI which makes clear the moving direction which concerns on 1st Embodiment of this invention. 本発明の第2の実施形態に係る移動座標系と光学座標系について示す図The figure which shows the moving coordinate system and the optical coordinate system which concerns on 2nd Embodiment of this invention. 本発明の第2の実施形態に係る操作端末の処理を示すフローチャートA flowchart showing the processing of the operation terminal according to the second embodiment of the present invention.

以下図面を参照しながら、本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態に係る移動制御システムの構成例を示すブロック図である。図1において、100は移動装置、200は操作装置(操作端末)を示す。移動装置100と操作装置200とを有して移動制御システムは構成される。
(First Embodiment)
FIG. 1 is a block diagram showing a configuration example of a movement control system according to the first embodiment of the present invention. In FIG. 1, 100 indicates a mobile device, and 200 indicates an operation device (operation terminal). The movement control system includes the movement device 100 and the operation device 200.

118は撮像装置であり、移動装置100に保持部材によって保持される。撮像装置118は、移動装置100に対して取り外し可能な構成であっても良いし、一体的に固定された構成であっても良い。 Reference numeral 118 denotes an imaging device, which is held by the moving device 100 by a holding member. The image pickup device 118 may have a structure that is removable from the moving device 100, or may have a structure that is integrally fixed.

撮像光学系101は外部の光を撮像素子103へ集光するレンズ群、及びレンズ群を操作、固定するためのメカ機構で構成される。撮像光学系操作部102は、撮像光学系101のメカ機構を操作する電気機構であり、CPU106からの操作指令により撮像光学系101の内部のメカ機構を操作する電気信号を出力する。撮像素子103は、撮像光学系101より取り入れた光を結像し、結像された像を電気情報に変換する。また撮像素子103は像面位相差方式による距離検出のための情報を取得する構成とすることが可能である。撮像信号処理部104は撮像素子103から得られた画像情報を成形するとともに、撮像素子103から得られる像面位相差情報から、撮像装置から撮像素子103の各撮像画素に結像している光源物体までの距離を算出することができる。すなわち撮像された画像の任意の局所的な部分に関して、撮像装置からどれだけの距離を以て撮像されたかが算出され、その情報を必要に応じて記録、利用することができる。算出可能な原理としては、例えば、従来から広く使用されている瞳分割による位相差AFの方式の応用である。各画素単位で右目画像用情報、左目画像用情報を得られる2つのフォトダイオードを備えた構造を撮像素子103が有していることから位相差AF方式での距離情報検出が可能となっているものとする。 The image pickup optical system 101 includes a lens group that collects external light on the image pickup element 103, and a mechanical mechanism for operating and fixing the lens group. The image pickup optical system operation unit 102 is an electric mechanism for operating the mechanical mechanism of the image pickup optical system 101, and outputs an electric signal for operating the internal mechanical mechanism of the image pickup optical system 101 by an operation command from the CPU 106. The image sensor 103 forms an image of the light taken in from the image pickup optical system 101, and converts the formed image into electrical information. Further, the image sensor 103 can be configured to acquire information for distance detection by the image plane phase difference method. The image pickup signal processing unit 104 forms the image information obtained from the image pickup element 103, and from the image plane phase difference information obtained from the image pickup element 103, the light source forming an image on each image pickup pixel of the image pickup element 103 from the image pickup device. The distance to the object can be calculated. That is, with respect to an arbitrary local part of the captured image, how far the image was captured from the imaging device is calculated, and the information can be recorded and used as needed. The principle that can be calculated is, for example, an application of the phase difference AF method by pupil division, which has been widely used in the past. Since the image sensor 103 has a structure including two photodiodes that can obtain information for the right eye image and information for the left eye image for each pixel, distance information can be detected by the phase difference AF method. It shall be.

CPU105は撮像装置118を含む移動装置100の処理の全体統括を行う。ROM106には移動装置100の処理プログラム、処理に必要な情報が予め保持されており、CPU105はこのROM106に保持された処理プログラムに基づいて動作する。RAM107は処理中の一時的なデータ保持の役割を担っている。 The CPU 105 controls the entire processing of the mobile device 100 including the image pickup device 118. The processing program of the mobile device 100 and information necessary for processing are stored in advance in the ROM 106, and the CPU 105 operates based on the processing program held in the ROM 106. The RAM 107 plays a role of temporarily holding data during processing.

被写体認識部108は撮像信号処理部104で処理された画像情報から特定の物体を認識し、その物体の範囲などの情報を出力することができる。具体的には、予め登録されている物体情報、例えば人物の人体、顔等の検出を行うことができる。事前に登録した顔の情報などがあれば特定の人物を検出することもできる。メモリスロット109は記録データをメモリカード110に読み書きするためのインタフェースである。メモリカード110はメモリスロット109を通じて画像情報を記録されるものである。 The subject recognition unit 108 can recognize a specific object from the image information processed by the image pickup signal processing unit 104 and output information such as the range of the object. Specifically, it is possible to detect pre-registered object information, for example, a human body, a face, or the like of a person. A specific person can be detected if there is face information registered in advance. The memory slot 109 is an interface for reading and writing recorded data to and from the memory card 110. The memory card 110 records image information through the memory slot 109.

駆動部111は移動装置100の自律的な位置移動を可能にするための機構部分であり、本実施例においては具体的には4つのモータとモータ軸にとりつけられたプロペラを備えている。CPU105から総合的に判断された移動命令により4つのプロペラを適切に回転駆動させ、位置の移動、姿勢変化、方向回転などの動作を行うことができる。方位検知センサ112は移動装置100が東西南北どちらを向いているかを検出できる。GPS113は現在の位置をGPS信号を受信し処理することで特定することができる。加速度センサ114は移動装置100にかかる3次元方向の加速度を検出することができ、加速中の加速度や落下状況などを検出することができる。ジャイロ115は3次元の3軸方向に関する回転量を検出することができる。移動装置100は方位検知センサ112〜ジャイロ115の構成から得られる情報を総合的に処理して、現在の位置、加速度状態、回転状態などを算出することができる。通信部116は操作端末200内と通信部206との無線通信を介して、操作端末200との指令のやり取り、画像情報、位置の情報等、必要な情報を送受信することができる。 The drive unit 111 is a mechanical part for enabling the autonomous position movement of the moving device 100, and specifically includes four motors and propellers attached to the motor shafts in this embodiment. The four propellers can be appropriately rotationally driven by a movement command comprehensively determined from the CPU 105, and operations such as position movement, posture change, and directional rotation can be performed. The orientation detection sensor 112 can detect whether the mobile device 100 is facing north, south, east, or west. GPS 113 can identify the current position by receiving and processing GPS signals. The acceleration sensor 114 can detect the acceleration in the three-dimensional direction applied to the moving device 100, and can detect the acceleration during acceleration, the falling state, and the like. The gyro 115 can detect the amount of rotation in three dimensions in three axial directions. The mobile device 100 can comprehensively process the information obtained from the configurations of the orientation detection sensors 112 to 115 to calculate the current position, acceleration state, rotation state, and the like. The communication unit 116 can transmit and receive necessary information such as command exchange, image information, and position information with the operation terminal 200 via wireless communication between the operation terminal 200 and the communication unit 206.

撮像光学系102、及び撮像信号処理部104〜通信部116はバス117を介して指令、情報のやり取りが可能である。 The imaging optical system 102 and the imaging signal processing units 104 to 116 can exchange commands and information via the bus 117.

CPU201は操作端末200の処理の全体統括を行う。ROM202には操作端末200の処理プログラム、処理に必要な情報が予め保持されており、CPU201はこのROM202に保持された処理プログラムに基づいて動作する。RAM203は処理中の一時的なデータ保持の役割を担っている。 The CPU 201 controls the entire processing of the operation terminal 200. The processing program of the operation terminal 200 and information necessary for processing are stored in advance in the ROM 202, and the CPU 201 operates based on the processing program held in the ROM 202. The RAM 203 plays a role of temporarily holding data during processing.

LCD表示部204は、後述する通信部206を介して受信した撮像装置118で撮像している画像や映像を表示したり、タッチ操作部205のための操作部材を表示することが可能である。 The LCD display unit 204 can display an image or video image captured by the image pickup device 118 received via the communication unit 206, which will be described later, or can display an operation member for the touch operation unit 205.

タッチ操作部205はユーザからの操作・指示を受け付けるためのインターフェースである。CPU201はタッチ操作部205への以下の操作パターン・状態を検出できる。
・タッチ操作部を指やペンで触れたこと(以下、タッチダウンと称する)。
・タッチ操作部を指やペンで触れている状態であること(以下、タッチオンと称する)。
・タッチ操作部を指やペンで触れたまま移動していること(以下、ムーブと称する)。
・タッチ操作部へ触れていた指やペンを離したこと(以下、タッチアップと称する)。
・タッチ操作部に何も触れていない状態(以下、タッチオフと称する)。
The touch operation unit 205 is an interface for receiving operations / instructions from the user. The CPU 201 can detect the following operation patterns / states for the touch operation unit 205.
-Touching the touch operation unit with a finger or pen (hereinafter referred to as touchdown).
-The touch operation unit must be touched with a finger or pen (hereinafter referred to as touch-on).
-Move while touching the touch operation part with a finger or pen (hereinafter referred to as move).
-Release of the finger or pen that was touching the touch operation unit (hereinafter referred to as touch-up).
-A state in which nothing is touched on the touch operation unit (hereinafter referred to as touch-off).

これらの操作や、タッチ操作部205に指やペンが触れているタッチ位置座標は非図示の内部バスを通じてCPU201に通知され、CPU201は通知された情報に基づいてタッチ操作部205にどのような操作が行なわれたかを判定する。 These operations and the touch position coordinates in which the finger or pen is touching the touch operation unit 205 are notified to the CPU 201 through an internal bus (not shown), and the CPU 201 performs what kind of operation to the touch operation unit 205 based on the notified information. Is determined.

ムーブについてはタッチ操作部205を移動する指やペンの移動方向についても、位置座標の変化に基づいて垂直成分・水平成分毎に判定できる。またタッチ操作部205をタッチダウンから一定のムーブを経てタッチアップをしたとき、ストロークを描いたこととする。ムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。素早くドラッグを行い最後に指を弾くように離す操作を、フリックと判定するものとする。 Regarding the move, the moving direction of the finger or pen moving the touch operation unit 205 can also be determined for each vertical component and horizontal component based on the change in the position coordinates. Further, it is assumed that a stroke is drawn when the touch operation unit 205 is touched up after a certain move from the touchdown. If it is detected that the move has been performed, it is determined that the drag has been performed. The operation of quickly dragging and finally releasing the finger as if flipping it shall be judged as a flick.

また、タッチ操作部205に対する2箇所の同時タッチ(マルチタッチ)が行われていることも検出できる。マルチタッチの検出を利用して、図3(a)のように、指などでタッチパネルの2箇所に触れた状態のまま、タッチされている2点間の距離が離れるようにムーブしていること(以下、ピンチアウトと称する)も判別できる。また、逆に、図3(b)のように、タッチされている2点間の距離が近づくようにムーブしていること(以下、ピンチインと称する)も判別できる。なお、ピンチインとピンチアウトを総称してピンチ操作と称するものとする。 It can also be detected that two simultaneous touches (multi-touch) are performed on the touch operation unit 205. Using multi-touch detection, as shown in Fig. 3 (a), the touch panel is moved so that the distance between the two touched points is separated while the touch panel is touched at two points with a finger or the like. (Hereinafter referred to as pinch-out) can also be discriminated. On the contrary, as shown in FIG. 3B, it can be determined that the movement is made so that the distance between the two touched points becomes closer (hereinafter, referred to as pinch-in). The pinch-in and pinch-out are collectively referred to as a pinch operation.

また、タッチ操作部205は、LCD表示部204に操作部材を表示した上で、操作部材に対応する個別操作を受け付けることも可能である。通信部206は移動装置100内の通信部116との通信を介して、移動装置100との指令のやり取り、画像情報、位置の情報等、必要な情報を送受信することができる。 Further, the touch operation unit 205 can display the operation member on the LCD display unit 204 and then accept the individual operation corresponding to the operation member. The communication unit 206 can transmit and receive necessary information such as command exchange, image information, and position information with the mobile device 100 via communication with the communication unit 116 in the mobile device 100.

図2は、本発明の第1の実施形態に係る操作端末の処理を示すフローチャートである。図2のフローチャートは、操作端末200の各処理ブロックを制御し実行される処理手順を図示したものであり、ROM202に格納されているプログラムをRAM203に展開し、CPU201が実行することにより実現される。 FIG. 2 is a flowchart showing the processing of the operation terminal according to the first embodiment of the present invention. The flowchart of FIG. 2 illustrates a processing procedure that is executed by controlling each processing block of the operation terminal 200, and is realized by expanding the program stored in the ROM 202 into the RAM 203 and executing the program by the CPU 201. ..

まず始めにステップS201においてタッチ操作部205へのタッチ操作があるか否かを判定している。タッチ操作がない場合は、ステップS201を繰り返し、タッチ操作があるまで待機する。このとき移動装置100は、空中の1点で停止(ホバリング)し、撮像装置118で撮影されている映像が通信部116、通信部206を介して、操作端末200のLCD表示部204にリアルタイムで表示されているものとする。また本実施例では、図12(d)のように撮像装置118の光軸方向と、移動装置100の駆動部111で規定される移動軸方向が一致しているものとする。タッチ操作がある場合、ステップS202に進む。ステップS202では行われたタッチ操作の操作パターンが、ピンチ操作であるかどうかを判定する。ステップS202では行われたタッチ操作がピンチ操作であればステップS203に進み、そうでなければステップS209に進む。 First, in step S201, it is determined whether or not there is a touch operation on the touch operation unit 205. If there is no touch operation, step S201 is repeated and the process waits until there is a touch operation. At this time, the mobile device 100 stops (hovering) at one point in the air, and the image captured by the image pickup device 118 is displayed on the LCD display unit 204 of the operation terminal 200 in real time via the communication unit 116 and the communication unit 206. It is assumed that it is displayed. Further, in this embodiment, it is assumed that the optical axis direction of the imaging device 118 and the moving axis direction defined by the driving unit 111 of the moving device 100 match as shown in FIG. 12D. If there is a touch operation, the process proceeds to step S202. In step S202, it is determined whether or not the operation pattern of the touch operation performed is a pinch operation. In step S202, if the touch operation performed is a pinch operation, the process proceeds to step S203, otherwise the process proceeds to step S209.

ステップS203ではタッチ中心点がタッチパネル中央領域の内部に入っているか否かを判定する。この判定について図4に基づいて、詳細に説明する。図4(a)はタッチパネル上でのタッチパネル中央領域を説明する図である。タッチパネル枠402はタッチ操作部205の操作可能な領域の大きさを示している。説明のためタッチパネル枠402の中心点を元にxy座標を設定している。タッチパネル枠402の中心を基準としてタッチパネル枠402より小さな領域としてタッチパネル中央領域401を設定している。図4(b)(c)の2つの例からステップS203の処理の分岐を説明する。図4(b)において指領域403、404はそれぞれピンチ操作のために最初にタッチされた2つの指の接地領域(ピンチ操作の開始点)を示している。指領域403、404それぞれの重心位置を求め、その2つの重心位置の中間点をタッチ中心点405として定義している。図4(b)の場合タッチ中心点405がタッチパネル中央領域401の中に入っているので、ステップS203においてはステップS204に進む分岐となる。反対の場合として図4(c)では、同様に求めたタッチ中心点408が、タッチパネル中央領域401の外に存在するので、ステップS203においてはステップS205に進む分岐となる。ステップS204、S205における移動装置100への移動指令での移動軸の方向の決定方法について、図5、図6に基づいて、詳細に説明する。 In step S203, it is determined whether or not the touch center point is inside the touch panel center region. This determination will be described in detail with reference to FIG. FIG. 4A is a diagram illustrating a touch panel central region on the touch panel. The touch panel frame 402 indicates the size of the operable area of the touch operation unit 205. For the sake of explanation, the xy coordinates are set based on the center point of the touch panel frame 402. The touch panel center area 401 is set as an area smaller than the touch panel frame 402 with reference to the center of the touch panel frame 402. The branching of the process in step S203 will be described from the two examples of FIGS. 4 (b) and 4 (c). In FIG. 4B, the finger areas 403 and 404 show the ground contact areas (start points of the pinch operation) of the two fingers first touched for the pinch operation, respectively. The positions of the center of gravity of each of the finger regions 403 and 404 are obtained, and the midpoint between the two center of gravity positions is defined as the touch center point 405. In the case of FIG. 4B, since the touch center point 405 is included in the touch panel center region 401, in step S203, the branch proceeds to step S204. In the opposite case, in FIG. 4C, since the similarly obtained touch center point 408 exists outside the touch panel central region 401, in step S203, the branch proceeds to step S205. The method of determining the direction of the moving axis by the moving command to the moving device 100 in steps S204 and S205 will be described in detail with reference to FIGS. 5 and 6.

図5は、本発明の第1の実施形態に係るピンチアウトの位置による移動方向の決定について示す図である。図5(a)におけるタッチパネル中央領域401、タッチパネル枠402、指領域406、407、タッチ中心点408は図4(c)と同様のものである。図5(a)では、図4のxy軸に加えて説明のためにz軸も追加している。図5(a)では、タッチパネル枠402に対して3次元的に距離Lだけ離れた位置の平面枠を仮想し、この枠を仮想前方枠502とする。距離Lは予め設定されている値で、操作端末200内のROM202に格納されている値とする。手501で示すように実際にタッチしている平面はタッチパネル枠402の位置である。指領域406、407、タッチ中心点408を仮想前方枠502に射影させたものを指領域503、504、タッチ中心点505とする。 FIG. 5 is a diagram showing a determination of a moving direction depending on a pinch-out position according to the first embodiment of the present invention. The touch panel center area 401, the touch panel frame 402, the finger areas 406, 407, and the touch center point 408 in FIG. 5A are the same as those in FIG. 4C. In FIG. 5A, in addition to the xy axis of FIG. 4, the z axis is also added for explanation. In FIG. 5A, a plane frame at a position three-dimensionally separated from the touch panel frame 402 by a distance L is virtualized, and this frame is referred to as a virtual front frame 502. The distance L is a preset value and is a value stored in the ROM 202 in the operation terminal 200. As shown by the hand 501, the plane actually touched is the position of the touch panel frame 402. The finger regions 406 and 407 and the touch center point 408 projected onto the virtual front frame 502 are referred to as the finger regions 503 and 504 and the touch center point 505.

図5(a)はタッチパネル枠502の距離L前方に仮想枠を設定しているが、それに対し距離L後方に仮想枠を設定しているのが図6であり、この仮想枠を仮想後方枠606とする。指領域406、407、タッチ中心点408を仮想後方枠606に射影させたものを指領域601、602、タッチ中心点603とする。 In FIG. 5A, a virtual frame is set in front of the touch panel frame 502 at a distance L, whereas in FIG. 6, a virtual frame is set behind the distance L, and this virtual frame is set as a virtual rear frame. It is set to 606. The finger regions 406 and 407 and the touch center point 408 projected onto the virtual rear frame 606 are referred to as the finger regions 601, 602 and the touch center point 603.

ステップS204で移動軸を光軸方向に決定するが、この方向は図5(a)におけるz軸の方向である。もし前進する場合は図5(a)の方向506で定義する方向が移動装置100の進行方向となる。もし後進する場合は図6の方向604で定義する方向が移動装置100の進行方向となる。 The moving axis is determined in the optical axis direction in step S204, and this direction is the z-axis direction in FIG. 5A. If moving forward, the direction defined in the direction 506 of FIG. 5A is the traveling direction of the moving device 100. If the vehicle moves backward, the direction defined in the direction 604 of FIG. 6 is the traveling direction of the moving device 100.

ステップS205で決定する移動軸は、前進の場合、タッチパネル枠402の中心からタッチ中心点505へ向けた方向507が移動軸となる。これをxz平面、yz平面への射影として示したものが図5(b)、(c)となる。タッチ中心点408,505のxy座標を(x1、y1)とすると、図5(b)のxz平面上では原点から(x、z)=(x1、L)へ引いた直線のなす角度θ1で定義できる。図5(c)のyz平面上では(x、z)=(y1、L)へ引いた直線のなす角度θ2で定義できる。 In the case of forward movement, the moving axis determined in step S205 is the moving axis in the direction 507 from the center of the touch panel frame 402 toward the touch center point 505. FIGS. 5 (b) and 5 (c) show this as a projection onto the xz plane and the yz plane. Assuming that the xy coordinates of the touch center points 408 and 505 are (x1, y1), the angle θ1 formed by the straight line drawn from the origin to (x, z) = (x1, L) on the xz plane of FIG. 5 (b). Can be defined. On the yz plane of FIG. 5C, it can be defined by the angle θ2 formed by the straight line drawn to (x, z) = (y1, L).

もし後進の場合、図6においてタッチパネル枠402の中心からタッチ中心点603へ向けた方向605が移動軸となる。このように移動装置100の移動軸を決定した後にステップS206に進む。 If the vehicle is moving backward, the movement axis is the direction 605 from the center of the touch panel frame 402 toward the touch center point 603 in FIG. After determining the moving axis of the moving device 100 in this way, the process proceeds to step S206.

ステップS206では、タッチ操作の操作方向からなされたタッチ操作ピンチアウトか否かを判定する。もしピンチアウトである場合、ステップS207に移り、移動方向を移動軸の前進方向にする。この場合、もしステップS204を通過していたならば方向506の方向に、ステップS205を通過していたならば方向507の方向が移動方向として決定される。もしピンチインである場合、ステップS208に移り、移動方向を移動軸の後進方向にする。この場合、もしステップS204を通過していたならば方向604の方向に、ステップS205を通過していたならば方向605の方向が移動方向として決定される。これらの移動方向決定の後、ステップS211に進む。 In step S206, it is determined whether or not the touch operation is pinched out from the operation direction of the touch operation. If it is a pinch-out, the process proceeds to step S207, and the moving direction is set to the forward direction of the moving axis. In this case, if the process has passed step S204, the direction of direction 506 is determined, and if the process has passed step S205, the direction of direction 507 is determined as the moving direction. If it is a pinch-in, the process proceeds to step S208, and the moving direction is set to the backward direction of the moving axis. In this case, if the step S204 has been passed, the direction of the direction 604 is determined, and if the step S205 has been passed, the direction of the direction 605 is determined as the moving direction. After determining the moving direction, the process proceeds to step S211.

ここでステップS202戻り、ステップS202においてピンチ操作以外の操作が行われた場合について説明する。 Here, a case where an operation other than the pinch operation is performed in step S202 after returning to step S202 will be described.

ステップS202においてピンチ操作以外の操作が行われた場合、ステップS209に進み、行われたタッチ操作がドラッグ操作であるかどうかの判定を行う。ステップS209において行われたタッチ操作がドラッグ操作と判定された場合、ステップS210に移り移動方向を決定する。ドラッグ操作が行われた場合の移動方向の決定方法を図7に基づいて詳細に説明する。 If an operation other than the pinch operation is performed in step S202, the process proceeds to step S209, and it is determined whether or not the touch operation performed is a drag operation. If the touch operation performed in step S209 is determined to be a drag operation, the process proceeds to step S210 to determine the moving direction. A method of determining the moving direction when the drag operation is performed will be described in detail with reference to FIG. 7.

図7は、本発明の第1の実施形態に係るドラッグ操作に対応する動作を示す図である。ステップS210では、上下左右方向、もしくはそれらの組み合わせの方向が移動方向として決定される。図7(b)において指領域701をドラッグ操作の始点とし、ドラッグ操作の操作方向が、方向(1)(上方)、方向(2)(右方向)、方向(3)(下方向)、方向(4)(左方向)の場合を考える。この時、ドラッグ操作で入力されたそれぞれの方向に対応する移動装置の進行方向を図7(c)に示す。それぞれ図7(c)の方向(1)(下方向)、方向(2)(左方向)、方向(3)(上方向)、方向(4)(右方向)と指領域701の重心点について対称な方向を移動装置100の移動方向として設定する。この方向に一定方向進んだ場合の、撮像装置118で撮像されているLCD表示部204の表示画像を図7(d)に示す。図7(b)において方向(1)(2)(3)(4)の方向にそれぞれドラッグ操作をした場合、図7(d)で示す画像(1)(2)(3)(4)がそれぞれ得られる。スマートフォンやタブレットの画像ビューワにおいて、画像に対して一般的なドラッグ操作を行った場合の画像の変化と同じ効果が得られる。これにより操作者はよりドラッグ操作によって、より直観的に移動装置100すなわち撮像装置118の操作をできることになる。このようにドラッグ操作による移動方向決定がなされた後、ステップS211に進む。 FIG. 7 is a diagram showing an operation corresponding to a drag operation according to the first embodiment of the present invention. In step S210, the up / down / left / right direction or the direction of a combination thereof is determined as the moving direction. In FIG. 7B, the finger area 701 is set as the start point of the drag operation, and the operation directions of the drag operation are the direction (1) (upward), the direction (2) (right direction), the direction (3) (downward), and the direction. (4) Consider the case (to the left). At this time, the traveling direction of the moving device corresponding to each direction input by the drag operation is shown in FIG. 7 (c). About the direction (1) (downward), direction (2) (leftward), direction (3) (upward), direction (4) (rightward) and the center of gravity of the finger region 701 in FIG. 7 (c), respectively. A symmetrical direction is set as the moving direction of the moving device 100. FIG. 7 (d) shows a display image of the LCD display unit 204 imaged by the image pickup apparatus 118 when traveling in a certain direction in this direction. When the drag operation is performed in the directions (1), (2), (3), and (4) in FIG. 7 (b), the images (1), (2), (3), and (4) shown in FIG. 7 (d) are displayed. You can get each. In the image viewer of a smartphone or tablet, the same effect as the change of the image when a general drag operation is performed on the image can be obtained. As a result, the operator can more intuitively operate the moving device 100, that is, the imaging device 118 by the drag operation. After the moving direction is determined by the drag operation in this way, the process proceeds to step S211.

ピンチ操作、ドラッグ操作により移動方向が決定された後は、決定した移動方向(S211)、移動開始コマンド(S212)を移動装置100に送信し、ステップS213に進む。 After the moving direction is determined by the pinch operation and the drag operation, the determined moving direction (S211) and the moving start command (S212) are transmitted to the moving device 100, and the process proceeds to step S213.

ステップS213ではピンチ操作、ドラッグ操作が行われた後、タッチオンの状態が継続しているか、この場合、操作の後に指がタッチ操作部205から離されずに付けられたままであるかどうかを判定する。具体的にはタッチ操作の検出後も、一定時間以上タッチオン状態が継続されているかどうかで判断する。 In step S213, it is determined whether the touch-on state continues after the pinch operation and the drag operation are performed, and in this case, whether or not the finger is kept attached to the touch operation unit 205 after the operation. Specifically, even after the touch operation is detected, it is determined whether or not the touch-on state is continued for a certain period of time or longer.

ステップS213においてタッチ操作が継続中であると判定した場合、ステップS213を繰り返し、タッチアップされるまで待機する。すなわち、タッチオンが継続している間は、移動装置100は指示方向への移動を継続することになる。その際、例えば、図11に示すように、タッチ操作に応じた移動装置100の移動方向を、矢印又は文字などで画像と一緒に表示するようにしても良い。 If it is determined in step S213 that the touch operation is continuing, step S213 is repeated and waits until the touch-up is performed. That is, while the touch-on continues, the moving device 100 continues to move in the instructed direction. At that time, for example, as shown in FIG. 11, the moving direction of the moving device 100 in response to the touch operation may be displayed together with the image by an arrow or characters.

タッチ操作が終了している(タッチアップされた)と判定された場合、ステップS214へ進み、移動装置100へ、移動停止コマンドを送信し、ステップS201に戻る。 When it is determined that the touch operation is completed (touched up), the process proceeds to step S214, a movement stop command is transmitted to the moving device 100, and the process returns to step S201.

ここでステップS209戻り、ステップS209においてドラッグ操作以外の操作が行われた場合について説明する。ステップS209においてドラッグ操作以外の操作が行われた場合、ステップS215へ進み、操作に対応するコマンドの有無の判定を行う。対応するコマンドがある場合は、ステップS216へ進み、移動装置100へ対応するコマンドを送信した後、ステップS201に戻る。対応するコマンドが無い場合は、ステップS201に戻る。 Here, a case where an operation other than the drag operation is performed in step S209 after returning to step S209 will be described. If an operation other than the drag operation is performed in step S209, the process proceeds to step S215 to determine whether or not there is a command corresponding to the operation. If there is a corresponding command, the process proceeds to step S216, the corresponding command is transmitted to the mobile device 100, and then the process returns to step S201. If there is no corresponding command, the process returns to step S201.

以上、第1の実施形態に係る操作端末200の処理について説明をしたが、ここで、操作端末200からコマンドを受信した場合の、移動装置100の動作について図10を使って説明する。図10は、本実施例に係る移動装置の処理を示すフローチャートである。図10のフローチャートは、移動装置100の各処理ブロックを制御し実行される処理手順を図示したものであり、ROM106に格納されているプログラムをRAM107に展開し、CPU105が実行することにより実現される。 The processing of the operation terminal 200 according to the first embodiment has been described above, but here, the operation of the mobile device 100 when a command is received from the operation terminal 200 will be described with reference to FIG. FIG. 10 is a flowchart showing the processing of the mobile device according to the present embodiment. The flowchart of FIG. 10 illustrates a processing procedure that is executed by controlling each processing block of the mobile device 100, and is realized by expanding the program stored in the ROM 106 into the RAM 107 and executing the program by the CPU 105. ..

まず始めにステップS1001において、操作端末200から移動方向及び移動開始コマンドを受信したか否かを判定している。移動開始コマンドを受信した場合は、ステップS1002へ進み、移動装置100は指示された移動方向への移動を開始する。受信していない場合は、ステップS1001を繰り返し、操作があるまで移動制御は行わない。 First, in step S1001, it is determined whether or not the movement direction and the movement start command have been received from the operation terminal 200. When the movement start command is received, the process proceeds to step S1002, and the moving device 100 starts moving in the instructed moving direction. If not received, step S1001 is repeated and movement control is not performed until an operation is performed.

ステップS1002で移動制御を開始した後は、ステップS1003へ進み、移動停止コマンドを受信したか否かを判定する。移動停止コマンドを受信した場合は、移動装置100は移動を停止(S1004)する。移動停止コマンドを受信していない場合は、ステップS1002を繰り返し、操作があるまで移動を続ける。 After starting the movement control in step S1002, the process proceeds to step S1003, and it is determined whether or not the movement stop command has been received. When the movement stop command is received, the movement device 100 stops the movement (S1004). If the movement stop command has not been received, step S1002 is repeated, and the movement is continued until there is an operation.

この操作の一例としてピンチアウトを行った場合を示したのが図8、図9である。 8 and 9 show a case where pinch-out is performed as an example of this operation.

図8は、タッチパネルの中央領域でピンチアウト操作をした場合の、移動装置100の動作示す図である。図8(a)は、進行方向が「前進」のときに指領域801、802へ指を置き方向803、804へピンチアウト操作をした場合を示している。この場合、図8(b)のように移動装置100が位置808から809方向へ移動する。この時、LCD表示部204に表示されている画像は図8(c)のようになる。 FIG. 8 is a diagram showing the operation of the moving device 100 when the pinch-out operation is performed in the central region of the touch panel. FIG. 8A shows a case where the finger is placed in the finger regions 801 and 802 and the pinch-out operation is performed in the directions 803 and 804 when the traveling direction is “advance”. In this case, the moving device 100 moves from the position 808 to the 809 direction as shown in FIG. 8B. At this time, the image displayed on the LCD display unit 204 is as shown in FIG. 8 (c).

図9は、タッチパネルの中央領域外でピンチアウト操作をした場合の、移動装置100の動作示す図である。図9(a)は、指領域901、903へ指を置き方向903、904へピンチアウト操作した場合で、移動装置100の移動方向が撮像装置118の光軸と並行でない。この場合、移動装置100は斜め右上前方に移動し、この時のLCD表示部204に表示されている画像は図9(b)のようになる。 FIG. 9 is a diagram showing the operation of the moving device 100 when the pinch-out operation is performed outside the central region of the touch panel. FIG. 9A shows a case where the finger is placed in the finger regions 901 and 903 and the pinch-out operation is performed in the directions 903 and 904, and the moving direction of the moving device 100 is not parallel to the optical axis of the imaging device 118. In this case, the moving device 100 moves diagonally to the upper right and forward, and the image displayed on the LCD display unit 204 at this time is as shown in FIG. 9B.

なお、移動装置100の移動速度は所定の速度としても良いが、操作端末200から送信する構成としても良い。その場合、例えば、ピンチ操作の際のなぞり距離に応じて決定しても良いし、タッチオンの継続時間に応じて加速するようにしても良い。例えばピンチアウト後にタッチオンを継続したまま、ピンチインの方向に動かすなど、タッチオンを継続しながら2点を逆方向に移動させた際には、減速するようにしても良い。また、タッチアップされた後、短時間の間に繰り返しピンチ操作が行われた場合は、停止コマンドを送信せず、移動を続ける構成としても良く、またピンチ操作の繰り返し回数ごとに段階的に移動速度を変えるようにしても良い。また、移動装置100の移動開始からの経過時間などに応じて、速度を制御する構成としても良い。 The moving speed of the moving device 100 may be a predetermined speed, but it may also be configured to transmit from the operation terminal 200. In that case, for example, it may be determined according to the tracing distance at the time of the pinch operation, or it may be accelerated according to the duration of the touch-on. For example, when the two points are moved in opposite directions while continuing the touch-on, such as moving in the direction of the pinch-in while the touch-on is continued after the pinch-out, the speed may be decelerated. In addition, if the pinch operation is repeatedly performed within a short period of time after being touched up, the stop command may not be sent and the movement may be continued, or the movement may be performed stepwise according to the number of times the pinch operation is repeated. You may change the speed. Further, the speed may be controlled according to the elapsed time from the start of movement of the moving device 100.

以上述べてきた第1の実施形態の処理により、ドローンなどに搭載された位置移動が可能な撮像装置をタッチパネル機能のある操作端末で操作する場合に、直観的にわかりやすい操作で撮像装置の移動制御が可能である。 By the processing of the first embodiment described above, when the image pickup device mounted on the drone or the like and capable of moving the position is operated by the operation terminal having the touch panel function, the movement control of the image pickup device is intuitively easy to understand. Is possible.

(第2の実施形態)
以下、図を参照しながら、本発明の第2の実施形態における処理について説明する。なお、第1の実施形態と同一の処理を行う部分は同一の記号で示し、説明を省略する。第2の実施形態では、例えば図12(e)のように、撮像装置118が移動装置100に対してパンチルト角度を変更可能な構成で、操作端末200から撮像装置118へコマンドを送信するなどの操作によりパンチルト制御が可能なものとする。
(Second embodiment)
Hereinafter, the process according to the second embodiment of the present invention will be described with reference to the drawings. The portion where the same processing as that of the first embodiment is performed is indicated by the same symbol, and the description thereof will be omitted. In the second embodiment, for example, as shown in FIG. 12E, the image pickup device 118 has a configuration in which the pan / tilt angle can be changed with respect to the moving device 100, and a command is transmitted from the operation terminal 200 to the image pickup device 118. Pan-tilt control shall be possible by operation.

図13は、本発明の第2の実施形態に係る操作端末の処理を示すフローチャートである。図13のフローチャートは、操作端末200の各処理ブロックを制御し実行される処理手順を図示したものであり、ROM202に格納されているプログラムをRAM203に展開し、CPU201が実行することにより実現される。 FIG. 13 is a flowchart showing the processing of the operation terminal according to the second embodiment of the present invention. The flowchart of FIG. 13 illustrates a processing procedure that is executed by controlling each processing block of the operation terminal 200, and is realized by expanding the program stored in the ROM 202 into the RAM 203 and executing the program by the CPU 201. ..

ステップS1301において、操作端末200は移動装置100の向きに対する撮像装置118の撮像方向に関する情報を取得する。この情報は、例えば、一定期間ごとに操作端末200から移動装置100へ問い合わせたり、移動装置100が撮像装置118の撮像方向を変更した際に、操作端末200へ通知することにより取得可能である。 In step S1301, the operation terminal 200 acquires information regarding the imaging direction of the imaging device 118 with respect to the orientation of the mobile device 100. This information can be acquired, for example, by inquiring from the operation terminal 200 to the mobile device 100 at regular intervals, or by notifying the operation terminal 200 when the mobile device 100 changes the imaging direction of the image pickup device 118.

移動装置100に対する撮像装置118の撮像方向に関する情報を取得した後は、ステップS1302に進み、パンチルト操作が行われているかどうか、すなわち、移動装置100の正位置と撮像装置118の光軸方向が一致しているか否かを判定する。一致している状態とは、移動装置100と撮像装置118の前後方向、上下方向、左右方向が一致していることを指す。一致している場合はステップS1304へ進む。 After acquiring the information regarding the imaging direction of the imaging device 118 with respect to the moving device 100, the process proceeds to step S1302, and whether or not the pan / tilt operation is performed, that is, the normal position of the moving device 100 and the optical axis direction of the imaging device 118 are one. Determine if you are doing it. The matching state means that the moving device 100 and the imaging device 118 are in the same front-rear direction, up-down direction, and left-right direction. If they match, the process proceeds to step S1304.

一致していない場合はステップS1303へ進み、そのパンチルト角において、移動装置100の移動座標系と撮像装置118の光学座標系を一致させる処理を行う。ここで、移動座標系とは移動装置100の前後方向、上下方向、左右方向を表す座標系である。光学座標系とは撮像装置118の前後方向、上下方向、左右方向を表す座標系を表す座標系であり、操作端末200に表示される画像の座標系と一致する。このステップS1303における座標変換処理について図12を用いて説明する。 If they do not match, the process proceeds to step S1303, and a process of matching the moving coordinate system of the moving device 100 and the optical coordinate system of the imaging device 118 at the pan-tilt angle is performed. Here, the moving coordinate system is a coordinate system representing the front-back direction, the up-down direction, and the left-right direction of the moving device 100. The optical coordinate system is a coordinate system representing a coordinate system representing the front-back direction, the up-down direction, and the left-right direction of the image pickup apparatus 118, and matches the coordinate system of the image displayed on the operation terminal 200. The coordinate transformation process in step S1303 will be described with reference to FIG.

図12(a)はタッチ操作部の中央で指領域1201、1202に指を置き、方向1203、1204へ指を広げたピンチアウト、(b)はピンチイン、(c)はドラッグ操作を示している。図12(d)は、移動装置100に対して撮像装置118のパンチルト角度が付いておらず、移動装置100の移動座標系の前方方向と、撮像装置118の光軸方向1210が一致している場合である。この場合、図12(a)で示すピンチアウトで図12(d)の方向(1)へ進行し、図12(b)で示すピンチイン操作で図12(d)の方向(2)へ進行する。図12(c)ドラッグ操作で方向(3)、(4)、(5)、(6)の操作をそれぞれ行った場合、図12(d)の方向(3)、(4)、(5)、(6)のへ進行する。 12 (a) shows a pinch-out in which a finger is placed in the finger areas 1201 and 1202 in the center of the touch operation unit and the finger is spread in the directions 1203 and 1204, (b) is a pinch-in, and (c) is a drag operation. .. In FIG. 12D, the pan-tilt angle of the image pickup device 118 is not attached to the moving device 100, and the forward direction of the moving coordinate system of the moving device 100 and the optical axis direction 1210 of the image pickup device 118 coincide with each other. If this is the case. In this case, the pinch-out shown in FIG. 12 (a) advances in the direction (1) of FIG. 12 (d), and the pinch-in operation shown in FIG. 12 (b) advances in the direction (2) of FIG. 12 (d). .. 12 (c) When the operations of the directions (3), (4), (5), and (6) are performed by the drag operation, the directions (3), (4), and (5) of FIG. 12 (d) are performed, respectively. , (6).

ここで図12(e)のように移動装置100に対して撮像装置118が−90度方向にチルト角を持っていた場合を考える。この場合、図12(a)のピンチアウトに応じて鉛直下方向、すなわち図12(e)における方向(1)の方向に移動しないと、操作者が操作端末200のLCD表示部204での表示に対して不自然になる。よってこの場合は、光軸方向1211の方向をピンチアウト動作の前進方向とし、その方向を基準として、図12(e)の方向(2)、(3)、(4)、(5)、(6)の方向座標を決定する。そのうえで、ピンチ操作により指示された移動方向を、移動装置100と撮像装置118との相対関係に基づき変換し、移動装置100の移動方向を決定する。図12(e)の例ではチルト角が−90度の場合を示しているが、パン・チルト角が任意の値であっても、上述の要領で光軸方向をピンチアウトの方向と合わせることを基準に移動座標系の変換を行うことができる。以下の処理では、全てこの座標変換を行った上で、移動方向を決定するものとする。 Here, consider a case where the image pickup device 118 has a tilt angle in the −90 degree direction with respect to the moving device 100 as shown in FIG. 12 (e). In this case, if the operator does not move in the vertical downward direction, that is, in the direction (1) in FIG. 12 (e) in response to the pinch-out in FIG. 12 (a), the operator displays the display on the LCD display unit 204 of the operation terminal 200. Becomes unnatural. Therefore, in this case, the direction of the optical axis direction 1211 is set as the forward direction of the pinch-out operation, and the directions (2), (3), (4), (5), and (5) of FIG. 6) Determine the directional coordinates. Then, the moving direction instructed by the pinch operation is converted based on the relative relationship between the moving device 100 and the imaging device 118, and the moving direction of the moving device 100 is determined. In the example of FIG. 12E, the case where the tilt angle is −90 degrees is shown, but even if the pan / tilt angle is an arbitrary value, the optical axis direction is aligned with the pinch-out direction as described above. The moving coordinate system can be converted based on. In the following processing, it is assumed that the moving direction is determined after performing this coordinate conversion.

続くステップS1304からステップS1319の処理は、第1の実施形態のステップS201〜ステップS216と同様であるので詳細説明は割愛する。 Since the subsequent processes of steps S1304 to S1319 are the same as those of steps S201 to S216 of the first embodiment, detailed description thereof will be omitted.

本実施例では、操作端末200でタッチ操作に応じた移動方向、移動距離を算出し、移動装置100に送信する構成を例としたが、操作端末200から操作情報を送信し、移動装置100で受信した操作情報から移動方向、移動速度を算出しても良い。その場合は、移動装置100と撮像装置118の方向の相対関係に基づいて、移動装置100で操作情報を変換して移動方向を算出する。 In this embodiment, the operation terminal 200 calculates the movement direction and the movement distance according to the touch operation and transmits the operation information to the movement device 100. However, the operation terminal 200 transmits the operation information and the movement device 100 transmits the operation information. The moving direction and moving speed may be calculated from the received operation information. In that case, the moving device 100 converts the operation information to calculate the moving direction based on the relative relationship between the directions of the moving device 100 and the imaging device 118.

以上述べてきた第2の実施形態の処理により、ドローン等の前進方向と撮像装置の光軸の方向が任意に変更された状況でも、移動装置100の移動をタッチ操作で直観的にわかりやすく行える。 By the process of the second embodiment described above, even in a situation where the forward direction of the drone or the like and the direction of the optical axis of the image pickup device are arbitrarily changed, the movement of the moving device 100 can be intuitively and easily understood by a touch operation. ..

本実施例では、移動装置100が指定された方向に移動開始コマンドを受信してから停止コマンドを受信するまでの間移動するが、移動動作中に障害物などを認識して自動停止する構成とすることも可能である。操作端末200からの停止コマンドを受信していない場合でも、被写体認識部108によって障害物などが存在する場合には、撮像素子103の構成から可能になる距離情報検出を用いて、安全のため衝突しない距離で停止する。この時、被写体認識部によって検出された障害物の種別によって、近づける距離の制限に変化を持たせてもよい。例えば、障害物が壁などの物体である場合は、移動装置100が障害物から距離Aだけ手前で停止し、障害物が人物の場合は、移動装置100が障害物から距離Bだけ手前の位置で停止する(距離B>距離A)。 In this embodiment, the moving device 100 moves in the designated direction from the reception of the movement start command to the reception of the stop command, but it is configured to recognize an obstacle or the like during the movement operation and automatically stop. It is also possible to do. Even if the stop command from the operation terminal 200 is not received, if an obstacle or the like is present by the subject recognition unit 108, a collision is performed for safety by using the distance information detection enabled by the configuration of the image sensor 103. Stop at a distance that does not. At this time, the limit of the approaching distance may be changed depending on the type of the obstacle detected by the subject recognition unit. For example, when the obstacle is an object such as a wall, the moving device 100 stops in front of the obstacle by a distance A, and when the obstacle is a person, the moving device 100 is in a position in front of the obstacle by a distance B. Stop at (distance B> distance A).

また、障害物等の移動制限により移動を停止した場合には、同じ方向にズーム動作をするように制御を切り替えても良い。その場合には、図11に示す矢印の色や表示する文字列を変えて、障害物等により移動できない旨、ズーム動作に切り替えた旨を、認識しやすく表示することも可能である。同様に、ドラッグ操作による移動装置の移動を、撮像方向の変更に切り替えても良い。 Further, when the movement is stopped due to the movement restriction of an obstacle or the like, the control may be switched so that the zoom operation is performed in the same direction. In that case, it is possible to change the color of the arrow shown in FIG. 11 and the character string to be displayed so that it is easy to recognize that the movement cannot be performed due to an obstacle or the like and that the zoom operation has been switched. Similarly, the movement of the moving device by the drag operation may be switched to the change of the imaging direction.

また、本実施例では移動装置100の動作に関して前後進移動、上下左右方向移動のみであったが、円環状のなぞり操作に応じて旋回動作を受け付けるようにしても良い。例えば、円環状のUIを用意し、指で時計方向になぞると右旋回コマンドを移動装置100に送信し、反時計方向になぞると左旋回コマンドを移動装置100に送信する。 Further, in this embodiment, the movement of the moving device 100 is limited to forward / backward movement and vertical / horizontal movement, but a turning movement may be accepted according to the circular tracing operation. For example, an annular UI is prepared, and a right-handed turn command is transmitted to the moving device 100 by tracing clockwise with a finger, and a left-turning command is transmitted to the moving device 100 when tracing counterclockwise.

また、例えばLCD表示部204に表示させた切替部材をタッチすることにより、ピンチ操作に対応する動作を、前後方向への移動と、ズーム動作とを切り替える構成としても良い。同様に、ドラッグ操作に対応する動作を、左右方向又は上下方向への移動と、撮像方向の変更(パンチルト動作)とを切り替えることも可能である。このように、本実施形態では、所定の条件に応じて移動装置100に対する移動指示と、撮像装置118に対するズーム指示を選択的に実行可能である。 Further, for example, by touching the switching member displayed on the LCD display unit 204, the operation corresponding to the pinch operation may be configured to switch between the movement in the front-rear direction and the zoom operation. Similarly, it is also possible to switch the operation corresponding to the drag operation between moving in the left-right direction or up-down direction and changing the imaging direction (pan-tilt operation). As described above, in the present embodiment, the movement instruction to the moving device 100 and the zoom instruction to the imaging device 118 can be selectively executed according to a predetermined condition.

なお、本実施例では、ドローン等を例として説明したが、移動装置は三次元の移動ができなくても良く、例えば、レール等で移動方向が規制された監視カメラなどにも応用可能である。 In this embodiment, a drone or the like has been described as an example, but the moving device does not have to be able to move in three dimensions, and can be applied to, for example, a surveillance camera whose moving direction is regulated by a rail or the like. ..

以上が本発明の好ましい実施形態の説明であるが、本発明は、本発明の技術思想の範囲内において、上記実施形態に限定されるものではなく、対象となる回路形態により適時変更されて適応するべきものである。 The above is a description of a preferred embodiment of the present invention, but the present invention is not limited to the above embodiment within the scope of the technical idea of the present invention, and is appropriately modified and adapted depending on the target circuit form. It should be done.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 移動装置
101 撮像光学系
102 撮像光学系操作部
103 撮像素子
104 撮像信号処理部
105 CPU
106 ROM
107 RAM
108 被写体認識部
109 メモリスロット
110 メモリカード
111 駆動部
112 方位検知センサ
113 GPS
114 加速度センサ
115 ジャイロ
116 通信部
118 撮像装置
200 操作端末
201 CPU
202 ROM
203 RAM
204 LCD表示部
205 タッチ操作部
206 通信部
100 Move device 101 Imaging optical system 102 Imaging optical system operation unit 103 Image sensor 104 Image pickup signal processing unit 105 CPU
106 ROM
107 RAM
108 Subject recognition unit 109 Memory slot 110 Memory card 111 Drive unit 112 Direction detection sensor 113 GPS
114 Accelerometer 115 Gyro 116 Communication unit 118 Imaging device 200 Operation terminal 201 CPU
202 ROM
203 RAM
204 LCD display 205 Touch operation 206 Communication

Claims (16)

撮像手段を保持する移動装置を外部から制御する操作装置であって、
前記撮像手段で撮像している画像を表示する表示手段と、
タッチ操作を検出するタッチ操作手段と、
前記タッチ操作手段により検出されたタッチ操作に応答して、該タッチ操作がムーブ操作である場合に該ムーブ操作の操作方向に基づいて前記移動装置を移動させる指示手段と、を有し、
前記タッチ操作手段により、前記ムーブ操作の後、タッチオンの状態が継続して検出されている場合は、
前記指示手段は、前記ムーブ操作に基づく移動を継続させることを特徴とする操作装置。
An operating device that externally controls a mobile device that holds an imaging means.
A display means for displaying an image captured by the image pickup means, and a display means.
Touch operation means to detect touch operation and
It has an instruction means for moving the moving device based on the operation direction of the move operation when the touch operation is a move operation in response to the touch operation detected by the touch operation means.
When the touch-on state is continuously detected by the touch operation means after the move operation,
The instruction means is an operation device characterized in that movement based on the move operation is continued.
前記指示手段は、前記タッチ操作の後、タッチオンの状態が継続して検出されている場合の継続時間または所定の時間内の間隔で同じ操作が繰り返されている場合の繰り返し回数が増えることに応じて、前記移動の速度を速めることを特徴とする請求項1に記載の操作装置。 The instruction means responds to an increase in the duration when the touch-on state is continuously detected after the touch operation or the number of repetitions when the same operation is repeated at intervals within a predetermined time. The operating device according to claim 1, wherein the speed of movement is increased. 前記指示手段は、前記表示手段に表示されている画像が前記ムーブ操作の操作方向へ移動するように前記移動装置を移動させることを特徴とする請求項1又は2に記載の操作装置。 The operation device according to claim 1 or 2, wherein the instruction means moves the moving device so that the image displayed on the display means moves in the operation direction of the move operation. 前記指示手段は、さらに、前記移動装置と前記撮像手段の設置角度に基づいて、前記移動の方向を決定することを特徴とする請求項1乃至3のいずれか1項に記載の操作装置。 The operating device according to any one of claims 1 to 3, wherein the instruction means further determines a direction of movement based on an installation angle between the moving device and the imaging means. 前記指示手段は、前記タッチ操作手段により検出されたタッチ操作が円弧状のなぞり操作である場合に、前記移動装置を旋回動作させることを特徴とする請求項1乃至4のいずれか1項に記載の操作装置。 The instruction means according to any one of claims 1 to 4, wherein the moving device is swiveled when the touch operation detected by the touch operation means is an arcuate tracing operation. Operating device. 前記表示手段は、前記移動装置の移動方向を前記画像に重畳して表示することを特徴とする請求項1乃至5のいずれか1項に記載の操作装置。 The operating device according to any one of claims 1 to 5, wherein the display means superimposes and displays the moving direction of the moving device on the image. 請求項1乃至6のいずれか1項に記載の操作装置と、
前記移動装置と、
を有することを特徴とする制御システム。
The operating device according to any one of claims 1 to 6.
With the moving device
A control system characterized by having.
撮像手段を保持する移動装置を外部の操作装置から制御する制御方法であって、
前記操作装置は、前記撮像手段により撮像された画像を表示する表示手段と、タッチ操作を検出する検出手段と、を有し、
前記検出手段により検出されたタッチ操作に応答して、
前記タッチ操作がムーブ操作の場合に該ムーブ操作の操作方向に基づいて前記移動装置を移動させるステップと、
前記検出手段により、前記ムーブ操作の後、タッチオンの状態が継続して検出されている場合は、該ムーブ操作に基づく移動を継続させるステップと、
を有することを特徴とする制御方法。
A control method for controlling a mobile device holding an imaging means from an external operating device.
The operating device includes a display means for displaying an image captured by the imaging means and a detecting means for detecting a touch operation.
In response to the touch operation detected by the detection means,
When the touch operation is a move operation, a step of moving the moving device based on the operation direction of the move operation, and
If the touch-on state is continuously detected by the detection means after the move operation, the step of continuing the movement based on the move operation and
A control method characterized by having.
前記タッチ操作の検出後、前記タッチオンの状態が継続して検出されている場合の継続時間または所定の時間内の間隔で同じ操作が繰り返されている場合の繰り返し回数が増えることに応じて、前記移動の速度を速めるステップ
を有することを特徴とする請求項8に記載の制御方法。
After the detection of the touch operation, the duration when the touch-on state is continuously detected or the number of repetitions when the same operation is repeated at intervals within a predetermined time increases. The control method according to claim 8, further comprising a step of increasing the speed of movement.
前記ムーブ操作の操作方向に基づいて、前記表示手段に表示されている画像が該ムーブ操作の操作方向へ移動するように前記移動装置を移動させる
ことを特徴とする請求項8又は9に記載の制御方法。
8. The aspect of claim 8 or 9, wherein the moving device is moved so that the image displayed on the display means moves in the operating direction of the move operation based on the operating direction of the move operation. Control method.
前記移動において、さらに、前記移動装置と前記撮像手段の設置角度に基づいて、前記移動の方向を決定することを特徴とする請求項8乃至10のいずれか1項に記載の制御方法。 The control method according to any one of claims 8 to 10, further comprising determining the direction of the movement based on the installation angle of the moving device and the imaging means. 前記検出手段により検出されたタッチ操作が円弧状のなぞり操作である場合に、前記移動装置を旋回動作させるステップと、
を有することを特徴とする請求項8乃至11のいずれか1項に記載の制御方法。
When the touch operation detected by the detection means is an arcuate tracing operation, a step of rotating the moving device and a step of rotating the moving device.
The control method according to any one of claims 8 to 11, wherein the control method comprises.
前記移動装置の移動方向を前記画像に重畳して前記表示手段に表示するステップをさらに有することを特徴とする請求項8乃至12のいずれか1項に記載の制御方法。 The control method according to any one of claims 8 to 12, further comprising a step of superimposing the moving direction of the moving device on the image and displaying it on the display means. 前記操作装置から前記検出手段により検出されたタッチ操作のパターン及び操作方向を含む操作情報を受けとる通信手段と、
前記操作情報に基づいて請求項8乃至13のいずれか1項に記載の各ステップを実行する制御手段と、
を有することを特徴とする移動装置。
A communication means that receives operation information including a touch operation pattern and an operation direction detected by the detection means from the operation device.
A control means for executing each step according to any one of claims 8 to 13 based on the operation information, and
A mobile device characterized by having.
請求項8乃至14のいずれか1項に記載の各ステップをコンピュータによって実行させるためのコンピュータプログラム。 A computer program for causing a computer to execute each step according to any one of claims 8 to 14. 請求項15に記載のプログラムを記載したコンピュータで読み取り可能な記録媒体。 A computer-readable recording medium according to claim 15.
JP2020066233A 2020-04-01 2020-04-01 Operating devices, mobile devices, and their control systems Active JP6855616B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020066233A JP6855616B2 (en) 2020-04-01 2020-04-01 Operating devices, mobile devices, and their control systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020066233A JP6855616B2 (en) 2020-04-01 2020-04-01 Operating devices, mobile devices, and their control systems

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016018367A Division JP6685742B2 (en) 2016-02-02 2016-02-02 Operating device, moving device, and control system thereof

Publications (2)

Publication Number Publication Date
JP2020120388A JP2020120388A (en) 2020-08-06
JP6855616B2 true JP6855616B2 (en) 2021-04-07

Family

ID=71891359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020066233A Active JP6855616B2 (en) 2020-04-01 2020-04-01 Operating devices, mobile devices, and their control systems

Country Status (1)

Country Link
JP (1) JP6855616B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7274157B1 (en) 2022-08-01 2023-05-16 株式会社アルヴィオン Program for operating the target device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022220307A1 (en) * 2021-04-16 2022-10-20 パナソニックIpマネジメント株式会社 Video display system, observation device, information processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014063411A (en) * 2012-09-24 2014-04-10 Casio Comput Co Ltd Remote control system, control method, and program
JP2014212479A (en) * 2013-04-19 2014-11-13 ソニー株式会社 Control device, control method, and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7274157B1 (en) 2022-08-01 2023-05-16 株式会社アルヴィオン Program for operating the target device

Also Published As

Publication number Publication date
JP2020120388A (en) 2020-08-06

Similar Documents

Publication Publication Date Title
US11262835B2 (en) Human-body-gesture-based region and volume selection for HMD
US10410608B2 (en) Method for displaying image and electronic device thereof
KR102219698B1 (en) Apparatus and method for controlling unmanned aerial vehicle
CN109416535B (en) Aircraft navigation technology based on image recognition
CN111344644B (en) Techniques for motion-based automatic image capture
KR20150012274A (en) Operating a computing device by detecting rounded objects in image
KR20180121344A (en) System and method for presentation and control of augmented vehicle surround views
JP6855616B2 (en) Operating devices, mobile devices, and their control systems
US11228737B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
KR102155895B1 (en) Device and method to receive image by tracking object
US10771707B2 (en) Information processing device and information processing method
US10979700B2 (en) Display control apparatus and control method
KR20170086482A (en) Control device and control method of flying bot
JP6685742B2 (en) Operating device, moving device, and control system thereof
CN111164544A (en) Motion sensing
KR20200020295A (en) AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF
TWI498804B (en) Electronic device and method for capturing image
KR20100112408A (en) Taget parking space degination method and apparatus and computer readable recording medium therefor and parking assist apparatus using same
EP3702008A1 (en) Displaying a viewport of a virtual space
WO2020017600A1 (en) Display control device, display control method and program
JP6882147B2 (en) Operation guidance system
JP6371547B2 (en) Image processing apparatus, method, and program
KR101956694B1 (en) Drone controller and controlling method thereof
KR20170019777A (en) Apparatus and method for controling capturing operation of flying bot
EP4207087A1 (en) Method and system for creating and storing map targets

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210317

R151 Written notification of patent or utility model registration

Ref document number: 6855616

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151