JP7092981B2 - 移動体制御プログラム、移動体制御方法および情報処理装置 - Google Patents

移動体制御プログラム、移動体制御方法および情報処理装置 Download PDF

Info

Publication number
JP7092981B2
JP7092981B2 JP2017203063A JP2017203063A JP7092981B2 JP 7092981 B2 JP7092981 B2 JP 7092981B2 JP 2017203063 A JP2017203063 A JP 2017203063A JP 2017203063 A JP2017203063 A JP 2017203063A JP 7092981 B2 JP7092981 B2 JP 7092981B2
Authority
JP
Japan
Prior art keywords
control command
movement control
moving body
coordinates
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017203063A
Other languages
English (en)
Other versions
JP2019079091A (ja
Inventor
雄 久原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017203063A priority Critical patent/JP7092981B2/ja
Publication of JP2019079091A publication Critical patent/JP2019079091A/ja
Application granted granted Critical
Publication of JP7092981B2 publication Critical patent/JP7092981B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、移動体制御プログラム、移動体制御方法および情報処理装置に関する。
近年、近赤外線などを利用者の眼球に照射して、角膜表面における反射像の位置から得られる角膜曲率中心と瞳孔中心から視線を検出する技術がある。この視線を検出する技術を利用し、利用者が注視するディスプレイ上の位置を判定することで、利用者がキーボードを操作しなくてもディスプレイ上のオブジェクトを選択する技術が実現されている。
また、近年、ドローン(drone)と呼ばれる飛行体の技術が進歩し、物流、空撮、測量、農薬散布などにおいて利用が期待されている。ドローンは、無線通信を使用したコントローラによって無線制御される。
特開2012-65781号公報
これまでドローンは、操作者がコントローラを手動で操作することにより制御されている。ドローンのコントローラは、上下および左右回転の動きを操作する制御スティックと前後および左右の動きを操作する制御スティックの2つの制御スティックを備えている。操作者は、2つの制御スティックを左右それぞれの手で操作する必要がある。操作に慣れていない者にとってドローンをコントローラで制御することは難しい。
また、ドローンに限らず無線制御される移動体の操作においては、操作者が両手でコントローラを操作し移動体の位置を制御することが多い。このため、操作者は、移動体に備えられた移動以外の機能(アームの操作、カメラの角度操作、農薬散布操作など)の操作を実行することが困難であった。
このため、無線制御される移動体を移動させる操作において、操作性を向上することが望まれている。
1つの側面では、本発明の目的は、移動体の制御において操作性を向上できる移動体制御プログラム、移動体制御方法および情報処理装置を提供することにある。
1つの態様では、移動体制御プログラムが提供される。移動体制御プログラムは、撮像部を備える移動体から撮像部によって撮像された画像情報を受信し、画像情報を表示した表示部において、操作者が注視している表示部の画面上の座標である検知座標を検知し、検知座標に応じて移動体を制御する制御情報を決定し、制御情報を移動体に通知する、処理をコンピュータに実行させる。
1つの側面では、移動体の制御において操作性を向上できる。
第1の実施の形態の移動体制御システムの一例を示す図である。 第2の実施の形態の飛行体制御システムの一例を示す図である。 情報処理装置のハードウェアの一例を示す図である。 飛行体のハードウェアの一例を示す図である。 視線検知座標と検知領域の一例を示す図である。 検知領域の他の一例を示す図である。 飛行体制御システムが有する機能の一例を示したブロック図である。 制御管理情報の一例を示す図である。 飛行体制御処理の一例を示すフローチャートである。 移動制御処理の一例を示すフローチャートである。 画像表示処理の一例を示すフローチャートである。
以下、本実施の形態について図面を参照して説明する。
[第1の実施の形態]
図1は、第1の実施の形態の移動体制御システムの一例を示す図である。
第1の実施の形態の移動体制御システムは、情報処理装置10および移動体20を含む。移動体制御システムは、情報処理装置10が操作者の視線の座標を検知し、検知した座標に基づいて移動体20の移動を制御するシステムである。情報処理装置10と移動体20は、無線通信が可能である。
情報処理装置10は、例えば、制御部11および記憶部を有するコンピュータである。情報処理装置10は、検知部12および表示部13を有する。なお、記憶部は、図示を省略する。
制御部11は、情報処理装置10の制御を行うものであり、例えば、プロセッサである。プロセッサは、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などである。制御部11は、検知部12で検知した情報に基づき、移動体20の移動を制御する制御情報を決定し、制御情報を移動体20に通知する。
制御情報には、移動制御命令と移動制御命令の実行時間とを含む。移動制御命令は、例えば、移動体20を上下左右の各方向に移動させる命令(コマンド)である。実行時間は、例えば、移動体20を移動させる命令を実行する時間である。制御部11は、移動体20から画像情報を受信し、画像情報を表示部13に表示する制御を行う。記憶部は、各種プログラムや情報を記憶する記憶装置であり、例えば、RAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)などである。
検知部12は、情報処理装置10を操作する操作者の視線を検知するセンサである。検知部12は、表示部13において操作者が注視した画面上の座標(検知座標)と、操作者が注視した時間(注視時間)とを取得し、制御部11に出力する。検知座標は、操作者の視線に相当する直線と表示部13の画面に相当する平面との交点の座標ともいえる。
表示部13は、画像を表示するものであり、例えば、ディスプレイである。表示部13は、制御部11の制御に従い、入力された画像情報に応じた画像を表示する。
移動体20は、例えば、地上から数cm~数十m程度の高度を飛行するドローンなどの飛行体である。図1において、移動体20の一例としてドローンを描画しているが、ドローン以外の移動体を用いてもよい。ドローンとは、遠隔操縦式又は自律式の制御機構を有するマルチコプタ(3つ以上のロータを搭載する回転翼機)である。ドローン以外の移動体の一例として、無線制御可能な車両、船舶、潜水艇、ロボットおよび内視鏡などがある。
移動体20は、制御部、撮像部、駆動部を有するが、図示を省略する。制御部は、移動体20の制御を行うものであり、例えば、プロセッサである。
制御部は、情報処理装置10から受信した制御情報に基づき駆動部を制御する。例えば、制御部は、上方向に移動させる命令を3秒間実行する制御情報を受信した場合、制御情報に基づき駆動部を制御する。制御部は、撮像部に画像を撮像する制御を行い、撮像した画像データを情報処理装置10に送信する。撮像部は、移動体20の正面に備えられ、画像を撮像するものであり、例えば、カメラである。撮像部の向きは、移動体20の前方を向くように固定されている。そして、撮像部は移動体20の前方の風景を撮像する。移動体20が移動するとき、撮像部は移動体20の進行方向に臨む風景を撮像する。駆動部は、制御部の制御に従い、移動体20の回転翼の制御を行う。
ここで、情報処理装置10によって移動体20を制御する移動体制御方法について説明する。まず、操作者は、情報処理装置10の表示部13の画面を目視する。表示部13に表示される画面は、第1の画面13aであるものとする。第1の画面13aは、移動体20の正面に備えられたカメラによって台形状の物体(例えば、山)を撮像した画像の画像情報を表示部13に表示したものである。情報処理装置10は、移動体20から画像情報を受信するごとに、画像情報を表示部13に表示する。表示部13に表示される画面において、中心部を基準位置13oとし、中心部を含む所定の領域を基準領域13pとする。なお、基準位置13oは一例に過ぎず、他の位置を基準位置13oとしてもよい。また、基準領域13pは一例に過ぎず、他の形状の領域(例えば、矩形や楕円など)を基準領域13pの形状としてもよい。
検知部12は、操作者が注視している第1の画面13a上の座標を検知する。検知部12は、第1の画面13aにおいて検知した操作者が注視している座標が検知座標13jであると検知する。制御部11は、検知部12から検知座標13jを取得し、検知座標13jが基準領域13pに含まれると判定し、ホバリングを行う移動制御命令を含む制御情報を移動体20に送信する。なお、制御部11は、所定時間(例えば、10秒間)ホバリングを行う移動制御命令(ホバリングコマンド)を制御情報に含めることができる。移動体20は、制御情報を制御部11から受信し、ホバリングを行う。なお、ホバリングを行う移動制御命令は一例に過ぎず、移動体20に応じて現在(操作者が基準領域13pを注視した時刻)の座標を維持するコマンドであればよい。例えば、移動体20が車両やロボットである場合、移動体20を停止させるコマンドであってもよい。また、移動体20が船舶や潜水艇である場合、基準領域13pを注視した時刻における位置を維持するため、潮の流れに逆らう方向に移動させるコマンドや碇を投下させるコマンドであってもよい。
つぎに、操作者は、視線を移動させたものとする。検知部12は、操作者が注視している座標が検知座標13kであると検知する。制御部11は、検知部12から検知座標13kを取得し、検知座標13kが基準位置13oに対して左上方向にあると判定し、左上に移動を行う移動制御命令(左進行コマンドおよび上昇コマンド)を含む制御情報を移動体20に送信する。移動体20は、制御情報を制御部11から受信し、左上に移動する。
移動体20は、左上に移動し、撮像した画像情報を情報処理装置10に通知する。情報処理装置10は、移動体20から画像情報を取得し、第2の画面13bを表示部13に表示する。
こうして、情報処理装置10は、検知座標13kが基準位置13oに対して第1の方向に位置する場合、移動体20の撮像部による撮像方向に対する第1の方向に移動体20を移動させる命令を移動体20に通知する。第1の方向とは、撮像方向の地面と水平な成分に対する方向である。なお、第1の方向とは、表示部13の画面における座標系(X座標およびY座標)に対する基準位置13oから検知座標13kへの方向であってもよい。
このように、情報処理装置10は、操作者が注視している画面上の座標を検知し、検知した座標に応じて移動体20を制御する制御情報を決定し、移動体20に通知する。これにより、操作者は、表示部13を注視し視線を移動させることで、移動体20を移動させる操作が可能となり、手動でコントローラを操作せずとも移動体を移動させることが可能となる。
こうして、移動体制御システムは、移動体20の制御において操作性を向上できる。
[第2の実施の形態]
図2は、第2の実施の形態の飛行体制御システムの一例を示す図である。第2の実施の形態の飛行体制御システムは、情報処理装置100、飛行体200を有する。
情報処理装置100は、操作者の視線を検知し、飛行体200に制御情報を送信するコンピュータである。情報処理装置100は、視線を検知する装置を備えており、検知した視線に応じた制御情報を飛行体200に送信する。情報処理装置100は、飛行体200から画像情報を受信しディスプレイなどの表示部に表示する。
情報処理装置100は、飛行体200との間で無線通信が可能である。無線通信の規格として、例えば、IEEE(The Institute of Electrical and Electronic Engineers)802.15.1(Bluetooth(登録商標))やIEEE802.11(無線LAN(Local Area Network))などの規格がある。なお、情報処理装置100と飛行体200との無線通信に利用する規格は、LTE(Long Term Evolution)やWi-Fi(登録商標)などの他の規格であってもよい。
飛行体200は、情報処理装置100から制御情報を受信し、制御情報に基づいて移動する装置である。飛行体200の一例として、回転翼機の一種であるドローンを図示する。ドローンは、遠隔操縦式又は自律式の制御機構を有するマルチコプタ(3つ以上のロータを搭載する回転翼機)である。また、ドローンは、カメラおよび通信機能を備えており、画像情報を撮像し送信することが可能である。ドローンには、移動経路や各種処理の制御を遠隔操作により実施する遠隔操縦式の制御機能を備えるものや、自律的に移動経路や各種処理の制御を実施するプログラムを実行する自律式の制御機能を備えるものがある。ここでは、飛行体200として、遠隔操縦式の制御機能を備えるドローンを対象とするが、自律式の制御機能を備えてもよい。
ここで、操作者が情報処理装置100を用いて飛行体200を操作する場合について説明する。まず、情報処理装置100は、操作者の視線を検知する。具体的には、情報処理装置100は、視線を検知する装置から所定時間ごとに(例えば、1秒間に15回)視線を検知した座標情報(視線検知座標)を取得する。情報処理装置100は、視線検知座標に基づき、移動制御を実行する制御情報を飛行体200に送信する。また、情報処理装置100は、飛行体200のカメラが撮像した画像情報を所定時間ごとに受信し、ディスプレイなどの表示部に表示する。飛行体200は、飛行体200の前方方向を向き、前方方向の風景を撮像するカメラを備えている。飛行体200は、当該カメラを用いて矩形の物体を正面から撮像した画像情報を情報処理装置100に送信したものとする。情報処理装置100は、画像情報を飛行体200から受信し表示部に表示する。
次に、情報処理装置100は、操作者の視線が移動したことを検知する。情報処理装置100は、視線検知座標に基づき、移動制御を実行する制御情報を飛行体200に送信する。例えば、情報処理装置100は、視線が左上に移動したことを検知した場合、飛行体200の前方に向かって(飛行体200の撮像方向に対して)左上に移動する制御情報を飛行体200に送信する。飛行体200は、情報処理装置100から受信した制御情報に基づき移動する。飛行体200は、移動した位置から撮像した画像情報(移動前の位置の左上前方からのカメラの視野に入る矩形の物体の画像を含む画像情報)を情報処理装置100に送信する。情報処理装置100は、飛行体200から受信した画像情報を表示部に表示する。
このようにして、情報処理装置100は、操作者の視線を検知し、視線検知座標に基づき制御情報を飛行体200に送信することにより、飛行体200を操作する。また、操作者は、情報処理装置100の表示部に表示された画像を目視で確認しつつ、飛行体200を操作することが可能になる。
図3は、情報処理装置のハードウェアの一例を示す図である。情報処理装置100は、プロセッサ101、RAM102、HDD103、画像信号処理部104、入力信号処理部105、媒体リーダ106、NIC(Network Interface Card)107および外部インタフェース108を有する。各ハードウェアは情報処理装置100のバスに接続されている。
プロセッサ101は、情報処理装置100の情報処理を制御するハードウェアである。プロセッサ101は、マルチプロセッサであってもよい。プロセッサ101は、例えばCPU、DSP、ASICまたはFPGAなどである。プロセッサ101は、CPU、DSP、ASIC、FPGAなどのうちの2以上の要素の組合せであってもよい。
RAM102は、情報処理装置100の主記憶装置である。RAM102は、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部を一時的に記憶する。また、RAM102は、プロセッサ101による処理に用いる各種データを記憶する。
HDD103は、情報処理装置100の補助記憶装置である。HDD103は、内蔵した磁気ディスクに対して、磁気的にデータの書き込みおよび読み出しを行う。HDD103は、OSのプログラム、アプリケーションプログラム、および各種データを記憶する。情報処理装置100は、フラッシュメモリやSSDなどの他の種類の補助記憶装置を備えてもよく、複数の補助記憶装置を備えてもよい。
画像信号処理部104は、プロセッサ101からの命令に従って、情報処理装置100に接続されたディスプレイ121に画像を出力する。ディスプレイ121として、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイなどを用いることができる。
入力信号処理部105は、情報処理装置100に接続された入力デバイス122から入力信号を取得し、プロセッサ101に出力する。入力デバイス122として、例えば、マウスやタッチパネルなどのポインティングデバイス、キーボードなどを用いることができる。
媒体リーダ106は、記録媒体123に記録されたプログラムやデータを読み取る装置である。記録媒体123として、例えば、フレキシブルディスク(FD:Flexible Disk)やHDDなどの磁気ディスク、CD(Compact Disc)やDVD(Digital Versatile Disc)などの光ディスク、光磁気ディスク(MO:Magneto-Optical disk)を使用できる。また、記録媒体123として、例えば、フラッシュメモリカードなどの不揮発性の半導体メモリを使用することもできる。媒体リーダ106は、例えば、プロセッサ101からの命令に従って、記録媒体123から読み取ったプログラムやデータをRAM102またはHDD103に格納する。
NIC107は、ネットワーク130を介して他の装置と通信を行う。NIC107は、有線通信インタフェースでもよいし、無線通信インタフェースでもよい。
外部インタフェース108は、情報処理装置100に接続された視線検出装置140から信号を取得し、プロセッサ101に出力する。視線検出装置140は、操作者が注視しているディスプレイ121上の座標(視線検知座標)を検出し、操作者が所定の座標を注視している時間を検出できる。
図4は、飛行体のハードウェアの一例を示す図である。飛行体200は、CPU201、メモリ202、カメラ203、通信処理部204a、アンテナ204b、駆動部205a、およびロータ205bを有する。
CPU201は、飛行体200の制御を実施する。CPU201は、DSP、ASIC、FPGAなどで代替可能である。
メモリ202は、例えば、RAM、ROM(Read Only Memory)、HDD、SSDなどの記憶装置である。
カメラ203は、飛行体200の正面に備えられ、画像を撮像し、画像データをCPU201に出力する。カメラ203は、動画、静止画いずれも撮像可能であってもよいし、動画のみが撮像可能であってもよい。
通信処理部204aは、アンテナ204bを備え、情報処理装置100と情報を送受信する。例えば、通信処理部204aは、情報処理装置100から制御情報を受信し、CPU201に出力する。また、通信処理部204aは、カメラ203が撮像した画像の画像情報を情報処理装置100に送信する。通信処理部204aは、通信に必要となるRF(Radio Frequency)回路や、信号処理回路などを備える。RF回路は、アンテナ204bによるRF信号の送受信、周波数変換、AD(Analog to Digital)・DA(Digital to Analog)変換処理などの処理を実行する。信号処理回路は、変調・復調などの処理を実行する。アンテナ204bは、RF信号の送受信に用いられるアンテナである。
駆動部205aは、回転翼機の翼であるロータ205bの回転軸に接続されるモータを駆動し、ロータ205bを回転させる。駆動部205aは、ロータ205bの回転を制御することで水平位置、高度、姿勢、移動方向などを制御する。なお、飛行体200は、複数のロータ205bを備えるが、図示を省略する。
なお、飛行体200は、図示しないセンサ群を備えることができる。センサ群は、例えば、気圧センサや超音波センサを含むセンサの集合である。気圧センサは、例えば、高度の測定に利用される。超音波センサは、例えば、障害物の検知に利用される。センサ群には、現在位置の測定に利用できるGPS(Global Positioning System)や加速度センサなどが含まれてもよい。
図5は、視線検知座標と検知領域の一例を示す図である。図5(A)は、視線検知座標の一例を示す図である。情報処理装置100は、視線検出装置140を介して操作者がディスプレイ121の画面を注視した座標を検知する。ここでは、操作者が注視した座標が視線検知座標350であるものとする。画面において、中心位置を原点301とし、視線検知座標350の位置をX座標およびY座標で示す。X軸のプラス方向は、原点301から水平右方向である。X軸のマイナス方向は、原点301から水平左方向である。Y軸のプラス方向は、原点301から垂直上方向である。Y軸のマイナス方向は、原点301から垂直下方向である。なお、視線検知座標350は、ドットやピクセルなどの値で示してもよい。
図5(B)は、検知領域の一例を示す図である。検知領域は、ディスプレイ121の画面を複数の区画に区切った領域である。検知領域は、左上指示領域302、上昇指示領域303、右上指示領域304、左横指示領域305、中心領域306、右横指示領域307、左下指示領域308、下降指示領域309および右下指示領域310を含む。なお、検知領域を区切る領域は一例に過ぎず、その他の領域で検知領域を区切ることも可能である。
情報処理装置100は、視線検知座標350が含まれる検知領域に応じて飛行体200に送信する制御情報を決定する。例えば、情報処理装置100は、左上指示領域302に視線検知座標350が含まれることを検知した場合、左上に移動する制御情報を飛行体200に送信する。
図6は、検知領域の他の一例を示す図である。図6に示す検知領域は、ディスプレイ121の画面を5行5列のマトリクス状の区間に区切った領域である。各検知領域は、行と列によって識別可能であり、例えば、左上の検知領域は検知領域A1として識別され、右下の検知領域は検知領域E5として識別される。なお、検知領域は、m行m列に限らず、m行n列(m≠n)でマトリクス状の区画に区分された領域であってもよい。
図5においては、視線検出装置140が操作者によって注視された位置を詳細に検知する例を示したが、図6においては、視線検出装置140が操作者によって注視された位置の検知の精度が低い場合の一例を示すものとする。
図6において、視線検出装置140は、操作者が注視した位置が検知領域A1~E5のいずれかに含まれることを検知するものとする。
例えば、視線検出装置140は、操作者が注視した位置が検知領域A1に含まれる場合、視線検知座標350として(-2,2)をプロセッサ101に出力するものとする。また、視線検出装置140は、操作者が注視した位置が検知領域E5に含まれる場合、視線検知座標350として(2,-2)をプロセッサ101に出力するものとする。
なお、情報処理装置100は、検知領域A1,A2,B1,B2を左上指示領域302として扱い、検知領域A3,B3を上昇指示領域303として扱い、検知領域A4,A5,B4,B5を右上指示領域304として扱うことができる。また、情報処理装置100は、検知領域C1,C2を左横指示領域305として扱い、検知領域C3を中心領域306として扱い、検知領域C4,C5を右横指示領域307として扱うことができる。また、情報処理装置100は、検知領域D1,D2,E1,E2を左下指示領域308として扱い、検知領域D3,E3を下降指示領域309として扱い、検知領域D4,D5,E4,E5を右下指示領域310として扱うことができる。
このように、情報処理装置100は、視線検出装置140の精度が低い場合であっても、操作者がいずれの検知領域を注視しているかを検知し、検知領域に応じた制御情報を決定できる。
図7は、飛行体制御システムが有する機能の一例を示したブロック図である。情報処理装置100は、制御部150、記憶部151および表示部152を有する。制御部150は、プロセッサ101により実現される。具体的には、プロセッサ101は、RAM102に記憶されたプログラムを実行することで、制御部150の機能を発揮する。ただし、制御部150は、FPGAやASICなどハードワイヤードロジックにより実現されてもよい。
記憶部151は、RAM102の記憶領域やHDD103の記憶領域を用いて実現される。記憶部151は、制御管理情報を記憶する。制御管理情報は、情報処理装置100が視線検知座標に基づいて飛行体200を制御するために用いる情報である。制御管理情報は、後で図8を用いて説明する。
表示部152は、ディスプレイ121により実現される。表示部152は、制御部150の制御に従い情報を表示する。なお、表示部152は、情報処理装置100に外付けであってもよいし、情報処理装置100と一体化したものであってもよい。
制御部150は、視線検出装置140が検知した視線検知座標と記憶部151に記憶された制御管理情報に基づき、制御情報を飛行体200に送信する。また、制御部150は、飛行体200から受信した画像情報を表示部152に表示する。
飛行体200は、制御部250を有する。制御部250は、CPU201により実現される。具体的には、CPU201は、メモリ202に記憶されたプログラムを実行することで、制御部250の機能を発揮する。ただし、制御部250は、FPGAやASICなどハードワイヤードロジックにより実現されてもよい。
制御部250は、カメラ203で画像を撮像し、撮像した画像データを情報処理装置100に送信する。制御部250は、情報処理装置100から受信した制御情報に基づいて駆動部205aを制御し、飛行体200を移動させる。
図8は、制御管理情報の一例を示す図である。制御管理情報401は、検知領域に応じた制御情報を管理する情報である。制御管理情報401は、情報処理装置100の記憶部151に記憶される情報である。
制御管理情報401は、領域、実行コマンドおよび実行時間(秒)の項目を含む。制御情報は、実行コマンドおよび実行時間を含むものとする。
領域の項目には、検知領域が登録される。検知領域に登録される領域は、図5(B)で説明した通りである。
実行コマンドの項目には、飛行体200の移動を制御するコマンドが登録される。ここで、各コマンドの移動方向について説明する。飛行体200の正面には、カメラ203が備えられている。飛行体200は、左進行コマンドを実行した場合、カメラ203で撮像している方向に対して左方向に移動する。また、飛行体200は、右進行コマンドを実行した場合、カメラ203で撮像している方向に対して右方向に移動する。飛行体200は、上昇コマンドを実行した場合、カメラ203で撮像している方向に対して上方向に移動する。飛行体200は、下降コマンドを実行した場合、カメラ203で撮像している方向に対して下方向に移動する。
実行時間の項目には、実行コマンドを実行する時間が登録される。なお、|X座標|は、X座標の絶対値を示す。また、|Y座標|は、Y座標の絶対値を示す。
例えば、制御管理情報401には、領域が「左上指示領域」、実行コマンドが「左進行コマンド」および実行時間が「|X座標|×0.2」、実行コマンドが「上昇コマンド」および実行時間が「Y座標×0.1」という情報が登録される。
これは、情報処理装置100が、操作者が注視する視線検知座標が左上指示領域302に含まれることを検知した場合に、飛行体200に送信する制御情報を示す。情報処理装置100は、左進行コマンドを「|X座標|×0.2」秒間実行する制御情報と、上昇コマンドを「Y座標×0.1」秒間実行する制御情報とを飛行体200に送信することを示す。
このように、情報処理装置100は、操作者が画面の左上指示領域302を注視した場合に、左進行コマンドと上昇コマンドとを組み合わせた制御情報を飛行体200に送信することで、飛行体200を左上に移動させることができる。また、情報処理装置100は、原点301と操作者が注視した位置(視線検知座標)との距離(X座標、Y座標)に応じて実行時間を設定する。これにより、情報処理装置100は、距離に比例して飛行体200の移動距離を制御できる。
なお、制御管理情報401において、下降コマンドの実行時間に上限を設けることで、急激に下降することによる地面との接触を回避することも可能である。
なお、ホバリングコマンドは一例に過ぎず、現在(操作者が中心領域306を注視した時刻)における飛行体200の位置を維持できるコマンドであればその他のコマンドであってもよい。以下の説明においても同様とする。
次に、情報処理装置100による飛行体200に制御情報を送信する手順を説明する。図9は、飛行体制御処理の一例を示すフローチャートである。以下、図9に示す処理をステップ番号に沿って説明する。飛行体制御処理は、情報処理装置100が飛行体200に制御情報を送信し、飛行体200を操作する処理である。情報処理装置100の制御部150は、視線検出装置140から視線検知座標および注視時間を取得し、飛行体制御処理を実行する。なお、視線検出装置140は、所定の時間ごとに(例えば、1秒間に15回)視線検知座標および注視時間を制御部150に出力するものとする。
[ステップS11]制御部150は、視線検出装置140から視線検知座標を取得する。
[ステップS12]制御部150は、視線検知座標が中心領域306に含まれるか否かを判定する。制御部150は、視線検知座標が中心領域306に含まれる場合にステップS13にすすみ、含まれない場合にステップS11にすすむ。
[ステップS13]制御部150は、離陸コマンドを飛行体200に送信する。具体的には、制御部150は、上昇コマンドを所定の時間(例えば、5秒間)実行する制御情報を飛行体200に送信する。ここで、飛行体200は、制御情報を受信し、離陸するものとする。
[ステップS14]制御部150は、ホバリングコマンドを飛行体200に送信する。制御部150は、次の制御情報を送信するまで飛行体200がホバリングを継続するようにホバリングコマンドを飛行体200に送信する。
[ステップS15]制御部150は、視線検出装置140から視線検知座標を取得する。
[ステップS16]制御部150は、所定時間(例えば、1秒)が経過したか否かを判定する。制御部150は、所定時間が経過した場合、ステップS17にすすむ。制御部150は、所定の時間が経過していない場合にステップS15にすすむ。
本ステップの処理は、制御部150が、操作者がいずれの検知領域を注視しているかを判定するための視線検知座標を取得する処理である。例えば、視線検出装置140が、1秒間に15回の頻度で視線検知座標を制御部150に送る場合、制御部150は所定時間である1秒間に15個の視線検知座標を取得する。また、1つの視線検知座標を操作者が注視している時間は、15分の1秒(1/15秒)であるものとする。
[ステップS17]制御部150は、視線検知座標が検知領域内であるか否かを判定する。制御部150は、視線検知座標が検知領域内である場合、ステップS18にすすむ。制御部150は、視線検知座標が検知領域内でない場合、言い換えると、視線検知座標が画面外である場合、ステップS19にすすむ。
[ステップS18]制御部150は、移動制御処理を実行する。移動制御処理は、視線検知座標と注視時間に基づき、飛行体200に送信する制御情報を特定する処理である。移動制御処理は、後で図10を用いて説明する。
[ステップS19]制御部150は、所定時間(例えば、15秒)が経過したか否かを判定する。制御部150は、所定時間が経過した場合、言い換えると、視線検知座標が検知領域外である状態が所定時間継続した場合、ステップS20にすすむ。制御部150は、所定時間が経過しない場合、言い換えると、視線検知座標が検知領域外である状態が所定時間継続していない場合、ステップS15にすすむ。
[ステップS20]制御部150は、着陸コマンドを飛行体200に送信し、処理を終了する。
なお、情報処理装置100の制御部150は、離陸および着陸を別の方法で実行してもよい。例えば、情報処理装置100は、操作者による離陸コマンドの入力に応じて当該離陸コマンドを飛行体200に送信してもよい。また、情報処理装置100は、操作者による着陸コマンドの入力に応じて当該着陸コマンドを飛行体200に送信してもよい。
図10は、移動制御処理の一例を示すフローチャートである。以下、図10に示す処理をステップ番号に沿って説明する。移動制御処理は、視線検知座標と注視時間に基づき、飛行体200に送信する制御情報を特定する処理である。移動制御処理は、飛行体操作処理のステップS18で制御部150が実行する処理である。
[ステップS31]制御部150は、ステップS15で取得した視線検知座標に基づき、操作者が注視した領域を特定する。
例えば、ステップS15において取得した視線検知座標が15個であり、左上指示領域302に含まれる視線検知座標が10個で最多である場合、制御部150は左上指示領域302を特定する。
[ステップS32]制御部150は、検知領域に基づき制御管理情報401から制御情報を特定する。具体的には、制御部150は、ステップS31で特定した領域に対応する実行コマンドを特定する。また、制御部150は、視線検知座標(X座標、Y座標)に基づき、実行コマンドに対応する実行時間を特定する。
例えば、左上指示領域302が特定され、視線検知座標が(-2,2)である場合、制御部150は、左進行コマンドを|-2|×0.2=0.4(秒)実行し、上昇コマンドを2×0.1=0.2(秒)実行する制御情報を特定する。
[ステップS33]制御部150は、特定した制御情報(実行コマンドおよび実行時間)を飛行体200に送信する。
[ステップS34]制御部150は、ステップS31で特定した検知領域を操作者が注視した時間である注視時間を算出する。
例えば、ステップS31において、左上指示領域302に含まれる視線検知座標が10個である場合、1個の視線検知座標を注視した時間が(1/15秒)であるため、(1/15)×10=2/3(秒)として算出できる。
なお、注視時間の算出方法は一例に過ぎず、その他の方法で算出してもよいし、センサで注視時間を検出してもよい。
[ステップS35]制御部150は、前進コマンドと実行時間を注視時間とする制御情報を飛行体200に送信し、処理を終了する。前進コマンドとは、飛行体200が備えるカメラ203による撮像方向(すなわち、飛行体200の前方方向)に飛行体200を移動させる移動制御命令である。
制御部150は、操作者の視線を検知した方向に飛行体200を移動させる制御情報を飛行体200に送信し、注視時間に応じて飛行体200を前進させる制御情報を飛行体200に送信する。操作者による注視時間が長いほど飛行体200を前進させるコマンドの実行時間が長くなるため、飛行体200が前方に進行する距離も長くなる。
このようにして、情報処理装置100は、操作者の視線を視線検出装置140で検知し、飛行体200を制御する。操作者は、コントローラを手動で操作することなく、表示部152の画面上において視線を移動させることで飛行体200を制御できる。
次に、情報処理装置100による飛行体200から受信した画像情報を表示する手順を説明する。図11は、画像表示処理の一例を示すフローチャートである。以下、図11に示す処理をステップ番号に沿って説明する。
画像表示処理は、情報処理装置100の制御部150が飛行体200から受信した画像情報を表示する処理である。情報処理装置100の制御部150は、飛行体200から画像情報を受信し、画像表示処理を実行する。なお、制御部150は、画像表示処理を飛行体制御処理とは独立して実行できる。また、飛行体200は、所定の時間ごとに画像情報を情報処理装置100に送信することができる。
[ステップS41]制御部150は、画像情報を飛行体200から受信する。なお、画像情報は、静止画のデータであってもよいし、動画のデータであってもよい。
[ステップS42]制御部150は、画像情報を表示部152に表示し、ステップS41にすすむ。
このように、制御部150が飛行体200から受信した画像情報を表示部152に表示することにより、操作者は、表示部152に表示された画像情報を目視で確認しつつ飛行体200の制御ができる。
こうして、飛行体制御システムは、情報処理装置100において操作者の視線を検知し、検知した視線の座標情報に応じた制御情報を特定し、制御情報を飛行体200に送信することにより、操作者の視線による飛行体200の操作を可能とする。
なお、第1の実施の形態においては制御対象物として移動体20を例示し、第2の実施の形態においては制御対象物として飛行体200を例示したが、他のものを制御対象物としてもよい。例えば、制御対象の移動体は、無線制御可能な車両、船舶、潜水艇、ロボットおよび内視鏡などであってもよい。本システムは、視線により移動体の移動を制御可能とすることで、例えば、操作者は手を用いて、移動以外の機能(移動体が備えるアームの操作、カメラ角度操作、農薬散布操作など)の操作を容易に行えるようになる。
なお、第1の実施の情報処理は、制御部11にプログラムを実行させることで実現できる。また、第2の実施の形態の情報処理は、プロセッサ101にプログラムを実行させることで実現できる。プログラムは、コンピュータ読み取り可能な記録媒体123に記録できる。
例えば、プログラムを記録した記録媒体123を配布することで、プログラムを流通させることができる。また、プログラムを他のコンピュータに格納しておき、ネットワーク130経由でプログラムを配布してもよい。コンピュータは、例えば、記録媒体123に記録されたプログラムまたは他のコンピュータから受信したプログラムをRAM102やHDD103などの記憶装置に格納し(インストールし)、記憶装置からプログラムを読み込んで実行してもよい。
10 情報処理装置
11 制御部
12 検知部
13 表示部
13a 第1の画面
13b 第2の画面
13j,13k 検知座標
13o 基準位置
13p 基準領域
20 移動体

Claims (9)

  1. 撮像部を備える移動体から前記撮像部によって撮像された画像情報を受信し、
    前記画像情報を表示した表示部において、操作者が注視している前記表示部の画面上の座標である検知座標を検知し、
    前記検知座標に応じて前記移動体を制御する第1移動制御命令を決定し、
    前記第1移動制御命令を前記移動体に通知し、
    前記撮像部による撮像方向に前記移動体を移動させる第2移動制御命令を決定し、
    前記操作者が注視した時間に応じて前記第2移動制御命令の実行時間を決定し、
    記第2移動制御命令と前記第2移動制御命令の実行時間とを前記移動体に通知する、
    処理をコンピュータに実行させる移動体制御プログラム。
  2. 前記画面上の基準位置から前記検知座標への方向に応じて前記移動体を移動させる前記第1移動制御命令を決定する、
    請求項1記載の移動体制御プログラム。
  3. 撮像部を備える移動体から前記撮像部によって撮像された画像情報を受信し、
    前記画像情報を表示した表示部において、操作者が注視している前記表示部の画面上の座標である検知座標を検知し、
    前記画面上の基準位置から前記検知座標への方向に応じて前記移動体を移動させる移動制御命令を決定し、
    前記基準位置と前記検知座標との距離に応じて前記移動制御命令の実行時間を決定し、
    前記移動制御命令と前記移動制御命令の実行時間とを前記移動体に通知する、
    処理をコンピュータに実行させる移動体制御プログラム。
  4. 前記第1移動制御命令と前記第1移動制御命令の実行時間とを前記移動体に通知する、
    請求項1記載の移動体制御プログラム。
  5. 前記第1移動制御命令の決定では、前記検知座標が前記基準位置に対して第1の方向に位置する場合、前記移動体の撮像部による撮像方向に対する前記第1の方向に前記移動体を移動させる命令を前記第1移動制御命令として決定する、
    請求項記載の移動体制御プログラム。
  6. 前記基準位置を含む基準領域に前記検知座標が含まれる場合、
    前記操作者が前記基準領域を注視した時刻における前記移動体の位置を維持させる命令を前記第1移動制御命令として決定し、
    前記第1移動制御命令と前記第1移動制御命令を所定時間実行させる実行時間とを前記移動体に通知する、
    請求項記載の移動体制御プログラム。
  7. 前記移動体から前記画像情報を受信するごとに前記画像情報を表示し、
    所定の時間ごとに前記検知座標を検知する、
    請求項1記載の移動体制御プログラム。
  8. コンピュータが、
    撮像部を備える移動体から前記撮像部によって撮像された画像情報を受信し、
    前記画像情報を表示した表示部において、操作者が注視している前記表示部の画面上の座標である検知座標を検知し、
    前記検知座標に応じて前記移動体を制御する第1移動制御命令を決定し、
    前記第1移動制御命令を前記移動体に通知し、
    前記撮像部による撮像方向に前記移動体を移動させる第2移動制御命令を決定し、
    前記操作者が注視した時間に応じて前記第2移動制御命令の実行時間を決定し、
    記第2移動制御命令と前記第2移動制御命令の実行時間とを前記移動体に通知する、
    移動体制御方法。
  9. 撮像部を備える移動体の前記撮像部によって撮像された画像情報を表示する表示部と、
    操作者が注視している前記表示部の画面上の座標である検知座標を検知する検知部と、
    前記画像情報を前記移動体から受信し、前記検知座標に応じて前記移動体を制御する第1移動制御命令を決定し、前記第1移動制御命令を前記移動体に通知し、前記撮像部による撮像方向に前記移動体を移動させる第2移動制御命令を決定し、前記操作者が注視した時間に応じて前記第2移動制御命令の実行時間を決定し、前記第2移動制御命令と前記第2移動制御命令の実行時間とを前記移動体に通知する制御部と、
    を備える情報処理装置。
JP2017203063A 2017-10-20 2017-10-20 移動体制御プログラム、移動体制御方法および情報処理装置 Active JP7092981B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017203063A JP7092981B2 (ja) 2017-10-20 2017-10-20 移動体制御プログラム、移動体制御方法および情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017203063A JP7092981B2 (ja) 2017-10-20 2017-10-20 移動体制御プログラム、移動体制御方法および情報処理装置

Publications (2)

Publication Number Publication Date
JP2019079091A JP2019079091A (ja) 2019-05-23
JP7092981B2 true JP7092981B2 (ja) 2022-06-29

Family

ID=66627814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017203063A Active JP7092981B2 (ja) 2017-10-20 2017-10-20 移動体制御プログラム、移動体制御方法および情報処理装置

Country Status (1)

Country Link
JP (1) JP7092981B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021184289A1 (zh) * 2020-03-19 2021-09-23 深圳市大疆创新科技有限公司 对象解算、绕点飞行方法及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012509812A (ja) 2008-11-27 2012-04-26 パロット 無人機を操縦する装置
US20170214856A1 (en) 2016-01-22 2017-07-27 Mediatek Inc. Method for controlling motions and actions of an apparatus including an image capture device having a moving device connected thereto using a controlling device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0538684A (ja) * 1991-07-30 1993-02-19 Toshiba Corp ロボツト保全システム
JPH09167049A (ja) * 1995-12-15 1997-06-24 Nissan Motor Co Ltd コンソール用視線入力装置
KR20180053402A (ko) * 2015-10-19 2018-05-21 오리랩 인크. 시선입력장치, 시선입력방법 및 시선입력 프로그램이 기록되어 있는 기록매체
KR102449439B1 (ko) * 2016-01-29 2022-09-30 한국전자통신연구원 Hmd를 이용한 무인기 조종 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012509812A (ja) 2008-11-27 2012-04-26 パロット 無人機を操縦する装置
US20170214856A1 (en) 2016-01-22 2017-07-27 Mediatek Inc. Method for controlling motions and actions of an apparatus including an image capture device having a moving device connected thereto using a controlling device

Also Published As

Publication number Publication date
JP2019079091A (ja) 2019-05-23

Similar Documents

Publication Publication Date Title
US11106201B2 (en) Systems and methods for target tracking
US11632497B2 (en) Systems and methods for controlling an image captured by an imaging device
US11914370B2 (en) System and method for providing easy-to-use release and auto-positioning for drone applications
US10551834B2 (en) Method and electronic device for controlling unmanned aerial vehicle
US20240118701A1 (en) Systems and methods for controlling an unmanned aerial vehicle
CN108279694B (zh) 电子设备及其控制方法
CN108701362B (zh) 目标跟踪期间的障碍避免
JP2017503226A5 (ja)
JP6849272B2 (ja) 無人航空機を制御するための方法、無人航空機、及び無人航空機を制御するためのシステム
JP7092981B2 (ja) 移動体制御プログラム、移動体制御方法および情報処理装置
US20210181769A1 (en) Movable platform control method, movable platform, terminal device, and system
JP2021073796A (ja) 制御装置、及び画像を取得する方法
JP7128409B2 (ja) 遠隔制御装置、遠隔制御システム、遠隔制御方法及び遠隔制御プログラム
KR20170019777A (ko) 플라잉 봇의 촬영 제어 장치 및 그 제어방법

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190419

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210714

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220530

R150 Certificate of patent or registration of utility model

Ref document number: 7092981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150