JP6855616B2 - Operating devices, mobile devices, and their control systems - Google Patents
Operating devices, mobile devices, and their control systems Download PDFInfo
- Publication number
- JP6855616B2 JP6855616B2 JP2020066233A JP2020066233A JP6855616B2 JP 6855616 B2 JP6855616 B2 JP 6855616B2 JP 2020066233 A JP2020066233 A JP 2020066233A JP 2020066233 A JP2020066233 A JP 2020066233A JP 6855616 B2 JP6855616 B2 JP 6855616B2
- Authority
- JP
- Japan
- Prior art keywords
- touch
- moving
- moving device
- touch operation
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 50
- 238000003384 imaging method Methods 0.000 claims description 29
- 238000004891 communication Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 5
- 238000009434 installation Methods 0.000 claims 2
- 238000004590 computer program Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 33
- 230000003287 optical effect Effects 0.000 description 19
- 230000008859 change Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 4
- CNQCVBJFEGMYDW-UHFFFAOYSA-N lawrencium atom Chemical compound [Lr] CNQCVBJFEGMYDW-UHFFFAOYSA-N 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000005484 gravity Effects 0.000 description 3
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Description
本発明は、ドローン等の移動装置に撮像装置を有するものの移動制御システムに関し、特にタッチパネル等の操作により撮像装置の移動を行うものに関する。 The present invention relates to a movement control system for a mobile device such as a drone having an image pickup device, and more particularly to a system for moving the image pickup device by operating a touch panel or the like.
近年、ドローンと呼ばれる無線操作に応じて移動可能な飛行装置に撮像装置を有するものがあり、その操作のために一般的には専用の操作端末が用意されている。操作端末には、タッチパネルを利用して操作することが可能なものも存在するが、専用操作端末の動作を単純に置き換えたUIによるものが多く、直観的な操作ができず自由に操作するには操作への習熟を必要とする。また、タッチパネルによる撮像装置の操作という観点では、一般的に監視カメラの分野において直観的な操作を実現する従来技術が存在する。 In recent years, some flight devices called drones that can move according to wireless operations have an image pickup device, and a dedicated operation terminal is generally prepared for the operation. There are some operation terminals that can be operated using a touch panel, but most of them use a UI that simply replaces the operation of the dedicated operation terminal, so intuitive operation is not possible and it is possible to operate freely. Requires proficiency in operation. Further, from the viewpoint of operating the image pickup device by the touch panel, there is a conventional technique for realizing intuitive operation in the field of surveillance cameras in general.
特許文献1では、スマートフォンやタブレット等のタッチパネル操作で一般的なピンチイン、ピンチアウトの操作を、監視カメラのズーム動作に対応させる操作方法の発明が開示されている。これは操作者が普段からタッチパネルで行っている操作から直観的に推測できる結果と、監視カメラの動作で類似の結果が起こる処理とを関連付けている。
特許文献1では、備え付けの監視カメラに関してタッチパネル操作による撮影方向の変更及びズームの制御について開示されている。しかし、ドローン等に搭載されているような撮像装置の位置移動をタッチパネル操作によって行う構成は考えられていない。
そこで、本発明の目的は、ドローン等の移動装置に搭載されて位置移動が可能な撮像装置を、タッチパネル機能のある操作端末で操作する場合に、その移動を直観的にわかりやすく行える移動制御システムを提供することである。 Therefore, an object of the present invention is a movement control system that can intuitively and easily understand the movement of an imaging device mounted on a moving device such as a drone and capable of moving a position when operated by an operation terminal having a touch panel function. Is to provide.
上記の目的を達成するために、本発明における移動制御システムは、撮像手段を保持する移動装置を外部から制御する操作装置であって、前記撮像手段で撮像している画像を表示する表示手段と、タッチ操作を検出するタッチ操作手段と、前記タッチ操作手段により検出されたタッチ操作に応答して、該タッチ操作がムーブ操作である場合に該ムーブ操作の操作方向に基づいて前記移動装置を移動させる指示手段と、を有し、前記タッチ操作手段により、前記ムーブ操作の後、タッチオンの状態が継続して検出されている場合は、前記指示手段は、前記ムーブ操作に基づく移動を継続させることを特徴とすることを特徴とする。 In order to achieve the above object, the movement control system in the present invention is an operation device for externally controlling a mobile device holding the image pickup means, and is a display means for displaying an image captured by the image pickup means. In response to the touch operation means for detecting the touch operation and the touch operation detected by the touch operation means, the moving device is moved based on the operation direction of the move operation when the touch operation is a move operation. When the touch-on state is continuously detected by the touch operation means after the move operation, the instruction means continues the movement based on the move operation. It is characterized by being characterized by.
本発明によれば、ドローン等に搭載されて位置移動が可能な撮像装置をタッチパネル機能のある操作端末で操作する場合に、その移動を直観的にわかりやすく行えるようになる。 According to the present invention, when an image pickup device mounted on a drone or the like and capable of moving a position is operated by an operation terminal having a touch panel function, the movement can be intuitively and easily understood.
以下図面を参照しながら、本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(第1の実施形態)
図1は、本発明の第1の実施形態に係る移動制御システムの構成例を示すブロック図である。図1において、100は移動装置、200は操作装置(操作端末)を示す。移動装置100と操作装置200とを有して移動制御システムは構成される。
(First Embodiment)
FIG. 1 is a block diagram showing a configuration example of a movement control system according to the first embodiment of the present invention. In FIG. 1, 100 indicates a mobile device, and 200 indicates an operation device (operation terminal). The movement control system includes the
118は撮像装置であり、移動装置100に保持部材によって保持される。撮像装置118は、移動装置100に対して取り外し可能な構成であっても良いし、一体的に固定された構成であっても良い。
撮像光学系101は外部の光を撮像素子103へ集光するレンズ群、及びレンズ群を操作、固定するためのメカ機構で構成される。撮像光学系操作部102は、撮像光学系101のメカ機構を操作する電気機構であり、CPU106からの操作指令により撮像光学系101の内部のメカ機構を操作する電気信号を出力する。撮像素子103は、撮像光学系101より取り入れた光を結像し、結像された像を電気情報に変換する。また撮像素子103は像面位相差方式による距離検出のための情報を取得する構成とすることが可能である。撮像信号処理部104は撮像素子103から得られた画像情報を成形するとともに、撮像素子103から得られる像面位相差情報から、撮像装置から撮像素子103の各撮像画素に結像している光源物体までの距離を算出することができる。すなわち撮像された画像の任意の局所的な部分に関して、撮像装置からどれだけの距離を以て撮像されたかが算出され、その情報を必要に応じて記録、利用することができる。算出可能な原理としては、例えば、従来から広く使用されている瞳分割による位相差AFの方式の応用である。各画素単位で右目画像用情報、左目画像用情報を得られる2つのフォトダイオードを備えた構造を撮像素子103が有していることから位相差AF方式での距離情報検出が可能となっているものとする。
The image pickup
CPU105は撮像装置118を含む移動装置100の処理の全体統括を行う。ROM106には移動装置100の処理プログラム、処理に必要な情報が予め保持されており、CPU105はこのROM106に保持された処理プログラムに基づいて動作する。RAM107は処理中の一時的なデータ保持の役割を担っている。
The
被写体認識部108は撮像信号処理部104で処理された画像情報から特定の物体を認識し、その物体の範囲などの情報を出力することができる。具体的には、予め登録されている物体情報、例えば人物の人体、顔等の検出を行うことができる。事前に登録した顔の情報などがあれば特定の人物を検出することもできる。メモリスロット109は記録データをメモリカード110に読み書きするためのインタフェースである。メモリカード110はメモリスロット109を通じて画像情報を記録されるものである。
The subject recognition unit 108 can recognize a specific object from the image information processed by the image pickup
駆動部111は移動装置100の自律的な位置移動を可能にするための機構部分であり、本実施例においては具体的には4つのモータとモータ軸にとりつけられたプロペラを備えている。CPU105から総合的に判断された移動命令により4つのプロペラを適切に回転駆動させ、位置の移動、姿勢変化、方向回転などの動作を行うことができる。方位検知センサ112は移動装置100が東西南北どちらを向いているかを検出できる。GPS113は現在の位置をGPS信号を受信し処理することで特定することができる。加速度センサ114は移動装置100にかかる3次元方向の加速度を検出することができ、加速中の加速度や落下状況などを検出することができる。ジャイロ115は3次元の3軸方向に関する回転量を検出することができる。移動装置100は方位検知センサ112〜ジャイロ115の構成から得られる情報を総合的に処理して、現在の位置、加速度状態、回転状態などを算出することができる。通信部116は操作端末200内と通信部206との無線通信を介して、操作端末200との指令のやり取り、画像情報、位置の情報等、必要な情報を送受信することができる。
The drive unit 111 is a mechanical part for enabling the autonomous position movement of the
撮像光学系102、及び撮像信号処理部104〜通信部116はバス117を介して指令、情報のやり取りが可能である。
The imaging
CPU201は操作端末200の処理の全体統括を行う。ROM202には操作端末200の処理プログラム、処理に必要な情報が予め保持されており、CPU201はこのROM202に保持された処理プログラムに基づいて動作する。RAM203は処理中の一時的なデータ保持の役割を担っている。
The
LCD表示部204は、後述する通信部206を介して受信した撮像装置118で撮像している画像や映像を表示したり、タッチ操作部205のための操作部材を表示することが可能である。
The
タッチ操作部205はユーザからの操作・指示を受け付けるためのインターフェースである。CPU201はタッチ操作部205への以下の操作パターン・状態を検出できる。
・タッチ操作部を指やペンで触れたこと(以下、タッチダウンと称する)。
・タッチ操作部を指やペンで触れている状態であること(以下、タッチオンと称する)。
・タッチ操作部を指やペンで触れたまま移動していること(以下、ムーブと称する)。
・タッチ操作部へ触れていた指やペンを離したこと(以下、タッチアップと称する)。
・タッチ操作部に何も触れていない状態(以下、タッチオフと称する)。
The
-Touching the touch operation unit with a finger or pen (hereinafter referred to as touchdown).
-The touch operation unit must be touched with a finger or pen (hereinafter referred to as touch-on).
-Move while touching the touch operation part with a finger or pen (hereinafter referred to as move).
-Release of the finger or pen that was touching the touch operation unit (hereinafter referred to as touch-up).
-A state in which nothing is touched on the touch operation unit (hereinafter referred to as touch-off).
これらの操作や、タッチ操作部205に指やペンが触れているタッチ位置座標は非図示の内部バスを通じてCPU201に通知され、CPU201は通知された情報に基づいてタッチ操作部205にどのような操作が行なわれたかを判定する。
These operations and the touch position coordinates in which the finger or pen is touching the
ムーブについてはタッチ操作部205を移動する指やペンの移動方向についても、位置座標の変化に基づいて垂直成分・水平成分毎に判定できる。またタッチ操作部205をタッチダウンから一定のムーブを経てタッチアップをしたとき、ストロークを描いたこととする。ムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。素早くドラッグを行い最後に指を弾くように離す操作を、フリックと判定するものとする。
Regarding the move, the moving direction of the finger or pen moving the
また、タッチ操作部205に対する2箇所の同時タッチ(マルチタッチ)が行われていることも検出できる。マルチタッチの検出を利用して、図3(a)のように、指などでタッチパネルの2箇所に触れた状態のまま、タッチされている2点間の距離が離れるようにムーブしていること(以下、ピンチアウトと称する)も判別できる。また、逆に、図3(b)のように、タッチされている2点間の距離が近づくようにムーブしていること(以下、ピンチインと称する)も判別できる。なお、ピンチインとピンチアウトを総称してピンチ操作と称するものとする。
It can also be detected that two simultaneous touches (multi-touch) are performed on the
また、タッチ操作部205は、LCD表示部204に操作部材を表示した上で、操作部材に対応する個別操作を受け付けることも可能である。通信部206は移動装置100内の通信部116との通信を介して、移動装置100との指令のやり取り、画像情報、位置の情報等、必要な情報を送受信することができる。
Further, the
図2は、本発明の第1の実施形態に係る操作端末の処理を示すフローチャートである。図2のフローチャートは、操作端末200の各処理ブロックを制御し実行される処理手順を図示したものであり、ROM202に格納されているプログラムをRAM203に展開し、CPU201が実行することにより実現される。
FIG. 2 is a flowchart showing the processing of the operation terminal according to the first embodiment of the present invention. The flowchart of FIG. 2 illustrates a processing procedure that is executed by controlling each processing block of the
まず始めにステップS201においてタッチ操作部205へのタッチ操作があるか否かを判定している。タッチ操作がない場合は、ステップS201を繰り返し、タッチ操作があるまで待機する。このとき移動装置100は、空中の1点で停止(ホバリング)し、撮像装置118で撮影されている映像が通信部116、通信部206を介して、操作端末200のLCD表示部204にリアルタイムで表示されているものとする。また本実施例では、図12(d)のように撮像装置118の光軸方向と、移動装置100の駆動部111で規定される移動軸方向が一致しているものとする。タッチ操作がある場合、ステップS202に進む。ステップS202では行われたタッチ操作の操作パターンが、ピンチ操作であるかどうかを判定する。ステップS202では行われたタッチ操作がピンチ操作であればステップS203に進み、そうでなければステップS209に進む。
First, in step S201, it is determined whether or not there is a touch operation on the
ステップS203ではタッチ中心点がタッチパネル中央領域の内部に入っているか否かを判定する。この判定について図4に基づいて、詳細に説明する。図4(a)はタッチパネル上でのタッチパネル中央領域を説明する図である。タッチパネル枠402はタッチ操作部205の操作可能な領域の大きさを示している。説明のためタッチパネル枠402の中心点を元にxy座標を設定している。タッチパネル枠402の中心を基準としてタッチパネル枠402より小さな領域としてタッチパネル中央領域401を設定している。図4(b)(c)の2つの例からステップS203の処理の分岐を説明する。図4(b)において指領域403、404はそれぞれピンチ操作のために最初にタッチされた2つの指の接地領域(ピンチ操作の開始点)を示している。指領域403、404それぞれの重心位置を求め、その2つの重心位置の中間点をタッチ中心点405として定義している。図4(b)の場合タッチ中心点405がタッチパネル中央領域401の中に入っているので、ステップS203においてはステップS204に進む分岐となる。反対の場合として図4(c)では、同様に求めたタッチ中心点408が、タッチパネル中央領域401の外に存在するので、ステップS203においてはステップS205に進む分岐となる。ステップS204、S205における移動装置100への移動指令での移動軸の方向の決定方法について、図5、図6に基づいて、詳細に説明する。
In step S203, it is determined whether or not the touch center point is inside the touch panel center region. This determination will be described in detail with reference to FIG. FIG. 4A is a diagram illustrating a touch panel central region on the touch panel. The
図5は、本発明の第1の実施形態に係るピンチアウトの位置による移動方向の決定について示す図である。図5(a)におけるタッチパネル中央領域401、タッチパネル枠402、指領域406、407、タッチ中心点408は図4(c)と同様のものである。図5(a)では、図4のxy軸に加えて説明のためにz軸も追加している。図5(a)では、タッチパネル枠402に対して3次元的に距離Lだけ離れた位置の平面枠を仮想し、この枠を仮想前方枠502とする。距離Lは予め設定されている値で、操作端末200内のROM202に格納されている値とする。手501で示すように実際にタッチしている平面はタッチパネル枠402の位置である。指領域406、407、タッチ中心点408を仮想前方枠502に射影させたものを指領域503、504、タッチ中心点505とする。
FIG. 5 is a diagram showing a determination of a moving direction depending on a pinch-out position according to the first embodiment of the present invention. The touch
図5(a)はタッチパネル枠502の距離L前方に仮想枠を設定しているが、それに対し距離L後方に仮想枠を設定しているのが図6であり、この仮想枠を仮想後方枠606とする。指領域406、407、タッチ中心点408を仮想後方枠606に射影させたものを指領域601、602、タッチ中心点603とする。
In FIG. 5A, a virtual frame is set in front of the
ステップS204で移動軸を光軸方向に決定するが、この方向は図5(a)におけるz軸の方向である。もし前進する場合は図5(a)の方向506で定義する方向が移動装置100の進行方向となる。もし後進する場合は図6の方向604で定義する方向が移動装置100の進行方向となる。
The moving axis is determined in the optical axis direction in step S204, and this direction is the z-axis direction in FIG. 5A. If moving forward, the direction defined in the
ステップS205で決定する移動軸は、前進の場合、タッチパネル枠402の中心からタッチ中心点505へ向けた方向507が移動軸となる。これをxz平面、yz平面への射影として示したものが図5(b)、(c)となる。タッチ中心点408,505のxy座標を(x1、y1)とすると、図5(b)のxz平面上では原点から(x、z)=(x1、L)へ引いた直線のなす角度θ1で定義できる。図5(c)のyz平面上では(x、z)=(y1、L)へ引いた直線のなす角度θ2で定義できる。
In the case of forward movement, the moving axis determined in step S205 is the moving axis in the
もし後進の場合、図6においてタッチパネル枠402の中心からタッチ中心点603へ向けた方向605が移動軸となる。このように移動装置100の移動軸を決定した後にステップS206に進む。
If the vehicle is moving backward, the movement axis is the
ステップS206では、タッチ操作の操作方向からなされたタッチ操作ピンチアウトか否かを判定する。もしピンチアウトである場合、ステップS207に移り、移動方向を移動軸の前進方向にする。この場合、もしステップS204を通過していたならば方向506の方向に、ステップS205を通過していたならば方向507の方向が移動方向として決定される。もしピンチインである場合、ステップS208に移り、移動方向を移動軸の後進方向にする。この場合、もしステップS204を通過していたならば方向604の方向に、ステップS205を通過していたならば方向605の方向が移動方向として決定される。これらの移動方向決定の後、ステップS211に進む。
In step S206, it is determined whether or not the touch operation is pinched out from the operation direction of the touch operation. If it is a pinch-out, the process proceeds to step S207, and the moving direction is set to the forward direction of the moving axis. In this case, if the process has passed step S204, the direction of
ここでステップS202戻り、ステップS202においてピンチ操作以外の操作が行われた場合について説明する。 Here, a case where an operation other than the pinch operation is performed in step S202 after returning to step S202 will be described.
ステップS202においてピンチ操作以外の操作が行われた場合、ステップS209に進み、行われたタッチ操作がドラッグ操作であるかどうかの判定を行う。ステップS209において行われたタッチ操作がドラッグ操作と判定された場合、ステップS210に移り移動方向を決定する。ドラッグ操作が行われた場合の移動方向の決定方法を図7に基づいて詳細に説明する。 If an operation other than the pinch operation is performed in step S202, the process proceeds to step S209, and it is determined whether or not the touch operation performed is a drag operation. If the touch operation performed in step S209 is determined to be a drag operation, the process proceeds to step S210 to determine the moving direction. A method of determining the moving direction when the drag operation is performed will be described in detail with reference to FIG. 7.
図7は、本発明の第1の実施形態に係るドラッグ操作に対応する動作を示す図である。ステップS210では、上下左右方向、もしくはそれらの組み合わせの方向が移動方向として決定される。図7(b)において指領域701をドラッグ操作の始点とし、ドラッグ操作の操作方向が、方向(1)(上方)、方向(2)(右方向)、方向(3)(下方向)、方向(4)(左方向)の場合を考える。この時、ドラッグ操作で入力されたそれぞれの方向に対応する移動装置の進行方向を図7(c)に示す。それぞれ図7(c)の方向(1)(下方向)、方向(2)(左方向)、方向(3)(上方向)、方向(4)(右方向)と指領域701の重心点について対称な方向を移動装置100の移動方向として設定する。この方向に一定方向進んだ場合の、撮像装置118で撮像されているLCD表示部204の表示画像を図7(d)に示す。図7(b)において方向(1)(2)(3)(4)の方向にそれぞれドラッグ操作をした場合、図7(d)で示す画像(1)(2)(3)(4)がそれぞれ得られる。スマートフォンやタブレットの画像ビューワにおいて、画像に対して一般的なドラッグ操作を行った場合の画像の変化と同じ効果が得られる。これにより操作者はよりドラッグ操作によって、より直観的に移動装置100すなわち撮像装置118の操作をできることになる。このようにドラッグ操作による移動方向決定がなされた後、ステップS211に進む。
FIG. 7 is a diagram showing an operation corresponding to a drag operation according to the first embodiment of the present invention. In step S210, the up / down / left / right direction or the direction of a combination thereof is determined as the moving direction. In FIG. 7B, the
ピンチ操作、ドラッグ操作により移動方向が決定された後は、決定した移動方向(S211)、移動開始コマンド(S212)を移動装置100に送信し、ステップS213に進む。
After the moving direction is determined by the pinch operation and the drag operation, the determined moving direction (S211) and the moving start command (S212) are transmitted to the moving
ステップS213ではピンチ操作、ドラッグ操作が行われた後、タッチオンの状態が継続しているか、この場合、操作の後に指がタッチ操作部205から離されずに付けられたままであるかどうかを判定する。具体的にはタッチ操作の検出後も、一定時間以上タッチオン状態が継続されているかどうかで判断する。
In step S213, it is determined whether the touch-on state continues after the pinch operation and the drag operation are performed, and in this case, whether or not the finger is kept attached to the
ステップS213においてタッチ操作が継続中であると判定した場合、ステップS213を繰り返し、タッチアップされるまで待機する。すなわち、タッチオンが継続している間は、移動装置100は指示方向への移動を継続することになる。その際、例えば、図11に示すように、タッチ操作に応じた移動装置100の移動方向を、矢印又は文字などで画像と一緒に表示するようにしても良い。
If it is determined in step S213 that the touch operation is continuing, step S213 is repeated and waits until the touch-up is performed. That is, while the touch-on continues, the moving
タッチ操作が終了している(タッチアップされた)と判定された場合、ステップS214へ進み、移動装置100へ、移動停止コマンドを送信し、ステップS201に戻る。
When it is determined that the touch operation is completed (touched up), the process proceeds to step S214, a movement stop command is transmitted to the moving
ここでステップS209戻り、ステップS209においてドラッグ操作以外の操作が行われた場合について説明する。ステップS209においてドラッグ操作以外の操作が行われた場合、ステップS215へ進み、操作に対応するコマンドの有無の判定を行う。対応するコマンドがある場合は、ステップS216へ進み、移動装置100へ対応するコマンドを送信した後、ステップS201に戻る。対応するコマンドが無い場合は、ステップS201に戻る。
Here, a case where an operation other than the drag operation is performed in step S209 after returning to step S209 will be described. If an operation other than the drag operation is performed in step S209, the process proceeds to step S215 to determine whether or not there is a command corresponding to the operation. If there is a corresponding command, the process proceeds to step S216, the corresponding command is transmitted to the
以上、第1の実施形態に係る操作端末200の処理について説明をしたが、ここで、操作端末200からコマンドを受信した場合の、移動装置100の動作について図10を使って説明する。図10は、本実施例に係る移動装置の処理を示すフローチャートである。図10のフローチャートは、移動装置100の各処理ブロックを制御し実行される処理手順を図示したものであり、ROM106に格納されているプログラムをRAM107に展開し、CPU105が実行することにより実現される。
The processing of the
まず始めにステップS1001において、操作端末200から移動方向及び移動開始コマンドを受信したか否かを判定している。移動開始コマンドを受信した場合は、ステップS1002へ進み、移動装置100は指示された移動方向への移動を開始する。受信していない場合は、ステップS1001を繰り返し、操作があるまで移動制御は行わない。
First, in step S1001, it is determined whether or not the movement direction and the movement start command have been received from the
ステップS1002で移動制御を開始した後は、ステップS1003へ進み、移動停止コマンドを受信したか否かを判定する。移動停止コマンドを受信した場合は、移動装置100は移動を停止(S1004)する。移動停止コマンドを受信していない場合は、ステップS1002を繰り返し、操作があるまで移動を続ける。
After starting the movement control in step S1002, the process proceeds to step S1003, and it is determined whether or not the movement stop command has been received. When the movement stop command is received, the
この操作の一例としてピンチアウトを行った場合を示したのが図8、図9である。 8 and 9 show a case where pinch-out is performed as an example of this operation.
図8は、タッチパネルの中央領域でピンチアウト操作をした場合の、移動装置100の動作示す図である。図8(a)は、進行方向が「前進」のときに指領域801、802へ指を置き方向803、804へピンチアウト操作をした場合を示している。この場合、図8(b)のように移動装置100が位置808から809方向へ移動する。この時、LCD表示部204に表示されている画像は図8(c)のようになる。
FIG. 8 is a diagram showing the operation of the moving
図9は、タッチパネルの中央領域外でピンチアウト操作をした場合の、移動装置100の動作示す図である。図9(a)は、指領域901、903へ指を置き方向903、904へピンチアウト操作した場合で、移動装置100の移動方向が撮像装置118の光軸と並行でない。この場合、移動装置100は斜め右上前方に移動し、この時のLCD表示部204に表示されている画像は図9(b)のようになる。
FIG. 9 is a diagram showing the operation of the moving
なお、移動装置100の移動速度は所定の速度としても良いが、操作端末200から送信する構成としても良い。その場合、例えば、ピンチ操作の際のなぞり距離に応じて決定しても良いし、タッチオンの継続時間に応じて加速するようにしても良い。例えばピンチアウト後にタッチオンを継続したまま、ピンチインの方向に動かすなど、タッチオンを継続しながら2点を逆方向に移動させた際には、減速するようにしても良い。また、タッチアップされた後、短時間の間に繰り返しピンチ操作が行われた場合は、停止コマンドを送信せず、移動を続ける構成としても良く、またピンチ操作の繰り返し回数ごとに段階的に移動速度を変えるようにしても良い。また、移動装置100の移動開始からの経過時間などに応じて、速度を制御する構成としても良い。
The moving speed of the moving
以上述べてきた第1の実施形態の処理により、ドローンなどに搭載された位置移動が可能な撮像装置をタッチパネル機能のある操作端末で操作する場合に、直観的にわかりやすい操作で撮像装置の移動制御が可能である。 By the processing of the first embodiment described above, when the image pickup device mounted on the drone or the like and capable of moving the position is operated by the operation terminal having the touch panel function, the movement control of the image pickup device is intuitively easy to understand. Is possible.
(第2の実施形態)
以下、図を参照しながら、本発明の第2の実施形態における処理について説明する。なお、第1の実施形態と同一の処理を行う部分は同一の記号で示し、説明を省略する。第2の実施形態では、例えば図12(e)のように、撮像装置118が移動装置100に対してパンチルト角度を変更可能な構成で、操作端末200から撮像装置118へコマンドを送信するなどの操作によりパンチルト制御が可能なものとする。
(Second embodiment)
Hereinafter, the process according to the second embodiment of the present invention will be described with reference to the drawings. The portion where the same processing as that of the first embodiment is performed is indicated by the same symbol, and the description thereof will be omitted. In the second embodiment, for example, as shown in FIG. 12E, the
図13は、本発明の第2の実施形態に係る操作端末の処理を示すフローチャートである。図13のフローチャートは、操作端末200の各処理ブロックを制御し実行される処理手順を図示したものであり、ROM202に格納されているプログラムをRAM203に展開し、CPU201が実行することにより実現される。
FIG. 13 is a flowchart showing the processing of the operation terminal according to the second embodiment of the present invention. The flowchart of FIG. 13 illustrates a processing procedure that is executed by controlling each processing block of the
ステップS1301において、操作端末200は移動装置100の向きに対する撮像装置118の撮像方向に関する情報を取得する。この情報は、例えば、一定期間ごとに操作端末200から移動装置100へ問い合わせたり、移動装置100が撮像装置118の撮像方向を変更した際に、操作端末200へ通知することにより取得可能である。
In step S1301, the
移動装置100に対する撮像装置118の撮像方向に関する情報を取得した後は、ステップS1302に進み、パンチルト操作が行われているかどうか、すなわち、移動装置100の正位置と撮像装置118の光軸方向が一致しているか否かを判定する。一致している状態とは、移動装置100と撮像装置118の前後方向、上下方向、左右方向が一致していることを指す。一致している場合はステップS1304へ進む。
After acquiring the information regarding the imaging direction of the
一致していない場合はステップS1303へ進み、そのパンチルト角において、移動装置100の移動座標系と撮像装置118の光学座標系を一致させる処理を行う。ここで、移動座標系とは移動装置100の前後方向、上下方向、左右方向を表す座標系である。光学座標系とは撮像装置118の前後方向、上下方向、左右方向を表す座標系を表す座標系であり、操作端末200に表示される画像の座標系と一致する。このステップS1303における座標変換処理について図12を用いて説明する。
If they do not match, the process proceeds to step S1303, and a process of matching the moving coordinate system of the moving
図12(a)はタッチ操作部の中央で指領域1201、1202に指を置き、方向1203、1204へ指を広げたピンチアウト、(b)はピンチイン、(c)はドラッグ操作を示している。図12(d)は、移動装置100に対して撮像装置118のパンチルト角度が付いておらず、移動装置100の移動座標系の前方方向と、撮像装置118の光軸方向1210が一致している場合である。この場合、図12(a)で示すピンチアウトで図12(d)の方向(1)へ進行し、図12(b)で示すピンチイン操作で図12(d)の方向(2)へ進行する。図12(c)ドラッグ操作で方向(3)、(4)、(5)、(6)の操作をそれぞれ行った場合、図12(d)の方向(3)、(4)、(5)、(6)のへ進行する。
12 (a) shows a pinch-out in which a finger is placed in the
ここで図12(e)のように移動装置100に対して撮像装置118が−90度方向にチルト角を持っていた場合を考える。この場合、図12(a)のピンチアウトに応じて鉛直下方向、すなわち図12(e)における方向(1)の方向に移動しないと、操作者が操作端末200のLCD表示部204での表示に対して不自然になる。よってこの場合は、光軸方向1211の方向をピンチアウト動作の前進方向とし、その方向を基準として、図12(e)の方向(2)、(3)、(4)、(5)、(6)の方向座標を決定する。そのうえで、ピンチ操作により指示された移動方向を、移動装置100と撮像装置118との相対関係に基づき変換し、移動装置100の移動方向を決定する。図12(e)の例ではチルト角が−90度の場合を示しているが、パン・チルト角が任意の値であっても、上述の要領で光軸方向をピンチアウトの方向と合わせることを基準に移動座標系の変換を行うことができる。以下の処理では、全てこの座標変換を行った上で、移動方向を決定するものとする。
Here, consider a case where the
続くステップS1304からステップS1319の処理は、第1の実施形態のステップS201〜ステップS216と同様であるので詳細説明は割愛する。 Since the subsequent processes of steps S1304 to S1319 are the same as those of steps S201 to S216 of the first embodiment, detailed description thereof will be omitted.
本実施例では、操作端末200でタッチ操作に応じた移動方向、移動距離を算出し、移動装置100に送信する構成を例としたが、操作端末200から操作情報を送信し、移動装置100で受信した操作情報から移動方向、移動速度を算出しても良い。その場合は、移動装置100と撮像装置118の方向の相対関係に基づいて、移動装置100で操作情報を変換して移動方向を算出する。
In this embodiment, the
以上述べてきた第2の実施形態の処理により、ドローン等の前進方向と撮像装置の光軸の方向が任意に変更された状況でも、移動装置100の移動をタッチ操作で直観的にわかりやすく行える。
By the process of the second embodiment described above, even in a situation where the forward direction of the drone or the like and the direction of the optical axis of the image pickup device are arbitrarily changed, the movement of the moving
本実施例では、移動装置100が指定された方向に移動開始コマンドを受信してから停止コマンドを受信するまでの間移動するが、移動動作中に障害物などを認識して自動停止する構成とすることも可能である。操作端末200からの停止コマンドを受信していない場合でも、被写体認識部108によって障害物などが存在する場合には、撮像素子103の構成から可能になる距離情報検出を用いて、安全のため衝突しない距離で停止する。この時、被写体認識部によって検出された障害物の種別によって、近づける距離の制限に変化を持たせてもよい。例えば、障害物が壁などの物体である場合は、移動装置100が障害物から距離Aだけ手前で停止し、障害物が人物の場合は、移動装置100が障害物から距離Bだけ手前の位置で停止する(距離B>距離A)。
In this embodiment, the moving
また、障害物等の移動制限により移動を停止した場合には、同じ方向にズーム動作をするように制御を切り替えても良い。その場合には、図11に示す矢印の色や表示する文字列を変えて、障害物等により移動できない旨、ズーム動作に切り替えた旨を、認識しやすく表示することも可能である。同様に、ドラッグ操作による移動装置の移動を、撮像方向の変更に切り替えても良い。 Further, when the movement is stopped due to the movement restriction of an obstacle or the like, the control may be switched so that the zoom operation is performed in the same direction. In that case, it is possible to change the color of the arrow shown in FIG. 11 and the character string to be displayed so that it is easy to recognize that the movement cannot be performed due to an obstacle or the like and that the zoom operation has been switched. Similarly, the movement of the moving device by the drag operation may be switched to the change of the imaging direction.
また、本実施例では移動装置100の動作に関して前後進移動、上下左右方向移動のみであったが、円環状のなぞり操作に応じて旋回動作を受け付けるようにしても良い。例えば、円環状のUIを用意し、指で時計方向になぞると右旋回コマンドを移動装置100に送信し、反時計方向になぞると左旋回コマンドを移動装置100に送信する。
Further, in this embodiment, the movement of the moving
また、例えばLCD表示部204に表示させた切替部材をタッチすることにより、ピンチ操作に対応する動作を、前後方向への移動と、ズーム動作とを切り替える構成としても良い。同様に、ドラッグ操作に対応する動作を、左右方向又は上下方向への移動と、撮像方向の変更(パンチルト動作)とを切り替えることも可能である。このように、本実施形態では、所定の条件に応じて移動装置100に対する移動指示と、撮像装置118に対するズーム指示を選択的に実行可能である。
Further, for example, by touching the switching member displayed on the
なお、本実施例では、ドローン等を例として説明したが、移動装置は三次元の移動ができなくても良く、例えば、レール等で移動方向が規制された監視カメラなどにも応用可能である。 In this embodiment, a drone or the like has been described as an example, but the moving device does not have to be able to move in three dimensions, and can be applied to, for example, a surveillance camera whose moving direction is regulated by a rail or the like. ..
以上が本発明の好ましい実施形態の説明であるが、本発明は、本発明の技術思想の範囲内において、上記実施形態に限定されるものではなく、対象となる回路形態により適時変更されて適応するべきものである。 The above is a description of a preferred embodiment of the present invention, but the present invention is not limited to the above embodiment within the scope of the technical idea of the present invention, and is appropriately modified and adapted depending on the target circuit form. It should be done.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 移動装置
101 撮像光学系
102 撮像光学系操作部
103 撮像素子
104 撮像信号処理部
105 CPU
106 ROM
107 RAM
108 被写体認識部
109 メモリスロット
110 メモリカード
111 駆動部
112 方位検知センサ
113 GPS
114 加速度センサ
115 ジャイロ
116 通信部
118 撮像装置
200 操作端末
201 CPU
202 ROM
203 RAM
204 LCD表示部
205 タッチ操作部
206 通信部
100
106 ROM
107 RAM
108
114
202 ROM
203 RAM
204
Claims (16)
前記撮像手段で撮像している画像を表示する表示手段と、
タッチ操作を検出するタッチ操作手段と、
前記タッチ操作手段により検出されたタッチ操作に応答して、該タッチ操作がムーブ操作である場合に該ムーブ操作の操作方向に基づいて前記移動装置を移動させる指示手段と、を有し、
前記タッチ操作手段により、前記ムーブ操作の後、タッチオンの状態が継続して検出されている場合は、
前記指示手段は、前記ムーブ操作に基づく移動を継続させることを特徴とする操作装置。 An operating device that externally controls a mobile device that holds an imaging means.
A display means for displaying an image captured by the image pickup means, and a display means.
Touch operation means to detect touch operation and
It has an instruction means for moving the moving device based on the operation direction of the move operation when the touch operation is a move operation in response to the touch operation detected by the touch operation means.
When the touch-on state is continuously detected by the touch operation means after the move operation,
The instruction means is an operation device characterized in that movement based on the move operation is continued.
前記移動装置と、
を有することを特徴とする制御システム。 The operating device according to any one of claims 1 to 6.
With the moving device
A control system characterized by having.
前記操作装置は、前記撮像手段により撮像された画像を表示する表示手段と、タッチ操作を検出する検出手段と、を有し、
前記検出手段により検出されたタッチ操作に応答して、
前記タッチ操作がムーブ操作の場合に該ムーブ操作の操作方向に基づいて前記移動装置を移動させるステップと、
前記検出手段により、前記ムーブ操作の後、タッチオンの状態が継続して検出されている場合は、該ムーブ操作に基づく移動を継続させるステップと、
を有することを特徴とする制御方法。 A control method for controlling a mobile device holding an imaging means from an external operating device.
The operating device includes a display means for displaying an image captured by the imaging means and a detecting means for detecting a touch operation.
In response to the touch operation detected by the detection means,
When the touch operation is a move operation, a step of moving the moving device based on the operation direction of the move operation, and
If the touch-on state is continuously detected by the detection means after the move operation, the step of continuing the movement based on the move operation and
A control method characterized by having.
を有することを特徴とする請求項8に記載の制御方法。 After the detection of the touch operation, the duration when the touch-on state is continuously detected or the number of repetitions when the same operation is repeated at intervals within a predetermined time increases. The control method according to claim 8, further comprising a step of increasing the speed of movement.
ことを特徴とする請求項8又は9に記載の制御方法。 8. The aspect of claim 8 or 9, wherein the moving device is moved so that the image displayed on the display means moves in the operating direction of the move operation based on the operating direction of the move operation. Control method.
を有することを特徴とする請求項8乃至11のいずれか1項に記載の制御方法。 When the touch operation detected by the detection means is an arcuate tracing operation, a step of rotating the moving device and a step of rotating the moving device.
The control method according to any one of claims 8 to 11, wherein the control method comprises.
前記操作情報に基づいて請求項8乃至13のいずれか1項に記載の各ステップを実行する制御手段と、
を有することを特徴とする移動装置。 A communication means that receives operation information including a touch operation pattern and an operation direction detected by the detection means from the operation device.
A control means for executing each step according to any one of claims 8 to 13 based on the operation information, and
A mobile device characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020066233A JP6855616B2 (en) | 2020-04-01 | 2020-04-01 | Operating devices, mobile devices, and their control systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020066233A JP6855616B2 (en) | 2020-04-01 | 2020-04-01 | Operating devices, mobile devices, and their control systems |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016018367A Division JP6685742B2 (en) | 2016-02-02 | 2016-02-02 | Operating device, moving device, and control system thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020120388A JP2020120388A (en) | 2020-08-06 |
JP6855616B2 true JP6855616B2 (en) | 2021-04-07 |
Family
ID=71891359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020066233A Active JP6855616B2 (en) | 2020-04-01 | 2020-04-01 | Operating devices, mobile devices, and their control systems |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6855616B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7274157B1 (en) | 2022-08-01 | 2023-05-16 | 株式会社アルヴィオン | Program for operating the target device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022220307A1 (en) * | 2021-04-16 | 2022-10-20 | パナソニックIpマネジメント株式会社 | Video display system, observation device, information processing method, and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014063411A (en) * | 2012-09-24 | 2014-04-10 | Casio Comput Co Ltd | Remote control system, control method, and program |
JP2014212479A (en) * | 2013-04-19 | 2014-11-13 | ソニー株式会社 | Control device, control method, and computer program |
-
2020
- 2020-04-01 JP JP2020066233A patent/JP6855616B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7274157B1 (en) | 2022-08-01 | 2023-05-16 | 株式会社アルヴィオン | Program for operating the target device |
Also Published As
Publication number | Publication date |
---|---|
JP2020120388A (en) | 2020-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11262835B2 (en) | Human-body-gesture-based region and volume selection for HMD | |
US10410608B2 (en) | Method for displaying image and electronic device thereof | |
KR102219698B1 (en) | Apparatus and method for controlling unmanned aerial vehicle | |
CN109416535B (en) | Aircraft navigation technology based on image recognition | |
CN111344644B (en) | Techniques for motion-based automatic image capture | |
KR20150012274A (en) | Operating a computing device by detecting rounded objects in image | |
KR20180121344A (en) | System and method for presentation and control of augmented vehicle surround views | |
JP6855616B2 (en) | Operating devices, mobile devices, and their control systems | |
US11228737B2 (en) | Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium | |
KR102155895B1 (en) | Device and method to receive image by tracking object | |
US10771707B2 (en) | Information processing device and information processing method | |
US10979700B2 (en) | Display control apparatus and control method | |
KR20170086482A (en) | Control device and control method of flying bot | |
JP6685742B2 (en) | Operating device, moving device, and control system thereof | |
CN111164544A (en) | Motion sensing | |
KR20200020295A (en) | AUGMENTED REALITY SERVICE PROVIDING APPARATUS INTERACTING WITH ROBOT and METHOD OF THEREOF | |
TWI498804B (en) | Electronic device and method for capturing image | |
KR20100112408A (en) | Taget parking space degination method and apparatus and computer readable recording medium therefor and parking assist apparatus using same | |
EP3702008A1 (en) | Displaying a viewport of a virtual space | |
WO2020017600A1 (en) | Display control device, display control method and program | |
JP6882147B2 (en) | Operation guidance system | |
JP6371547B2 (en) | Image processing apparatus, method, and program | |
KR101956694B1 (en) | Drone controller and controlling method thereof | |
KR20170019777A (en) | Apparatus and method for controling capturing operation of flying bot | |
EP4207087A1 (en) | Method and system for creating and storing map targets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200406 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210317 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6855616 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |