JP2019026022A - Portable electronic equipment and security system - Google Patents

Portable electronic equipment and security system Download PDF

Info

Publication number
JP2019026022A
JP2019026022A JP2017145921A JP2017145921A JP2019026022A JP 2019026022 A JP2019026022 A JP 2019026022A JP 2017145921 A JP2017145921 A JP 2017145921A JP 2017145921 A JP2017145921 A JP 2017145921A JP 2019026022 A JP2019026022 A JP 2019026022A
Authority
JP
Japan
Prior art keywords
authentication
flight
controller
user
flying object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017145921A
Other languages
Japanese (ja)
Other versions
JP6703507B2 (en
Inventor
茂輝 田辺
Shigeki Tanabe
茂輝 田辺
上野 泰弘
Yasuhiro Ueno
泰弘 上野
英樹 森田
Hideki Morita
英樹 森田
功 益池
Isao Masuike
功 益池
浩太郎 山内
Kotaro Yamauchi
浩太郎 山内
学 佐久間
Manabu Sakuma
学 佐久間
健史 島田
Takeshi Shimada
健史 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2017145921A priority Critical patent/JP6703507B2/en
Priority to PCT/JP2018/026986 priority patent/WO2019021915A1/en
Publication of JP2019026022A publication Critical patent/JP2019026022A/en
Priority to US16/750,706 priority patent/US10948908B2/en
Application granted granted Critical
Publication of JP6703507B2 publication Critical patent/JP6703507B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To improve various techniques which apply flight performance of a flight device.SOLUTION: In one embodiment, portable electronic equipment is detachably attached to a flight device, and comprises: a communication part which communicates with the flight device; an atmospheric pressure part; and a control part which determines whether the flight device, onto which an own machine is installed, is flying or not based on a detection result of the atmospheric pressure part, and executes a prescribed function when the flight device is flying as the result of determination. The control part measures a distance to a use of the own machine when a prescribed event occurs, executes authentication processing by a first authentication method when the distance is less than a threshold, and executes authentication processing by a second authentication method when the distance is the threshold or more.SELECTED DRAWING: Figure 6

Description

本出願は、携帯電子機器及びセキュリティシステムに関する。   The present application relates to a portable electronic device and a security system.

近年、単独飛行が可能な小型の飛行装置の飛行性能を応用する各種技術の開発が進められている(例えば、特許文献1等参照)。   In recent years, development of various technologies applying the flight performance of a small flight device capable of independent flight has been promoted (see, for example, Patent Document 1).

特開2014−227166号公報JP 2014-227166 A

飛行装置の飛行性能を応用する各種技術には改善の余地がある。   There is room for improvement in various technologies that apply the flight performance of flight equipment.

1つの態様に係る携帯電子機器は、飛行装置に着脱可能に装着される携帯電子機器であって、飛行装置と通信する通信部と、自機が装着された飛行装置が飛行中であるかを判定し、判定の結果、飛行装置が飛行中であるときに所定の機能を実行する制御部とを備える。制御部は、所定のイベントが発生すると、自機のユーザまでの距離を計測し、距離が閾値未満である場合、第1の認証方法により認証処理を実行し、距離が閾値以上である場合、第2の認証方法により認証処理を実行する。   A portable electronic device according to one aspect is a portable electronic device that is detachably attached to a flying device, wherein a communication unit that communicates with the flying device and whether the flying device to which the aircraft is attached are in flight. And a control unit that executes a predetermined function when the flying device is in flight as a result of the determination. When a predetermined event occurs, the control unit measures the distance to the user of the own device, and when the distance is less than the threshold, executes the authentication process by the first authentication method, and when the distance is greater than or equal to the threshold, The authentication process is executed by the second authentication method.

1つの態様に係るセキュリティシステムは、飛行装置と、飛行装置に着脱可能に装着される携帯電子機器と、を含む。携帯電子機器は、飛行装置と通信する通信部と、気圧検出部と、気圧検出部の検出結果に基づいて、自機が装着された飛行装置が飛行中であるかを判定し、判定の結果、飛行装置が飛行中であるときに所定の機能を実行する制御部とを備える。制御部は、所定のイベントが発生すると、自機のユーザまでの距離を計測し、距離が閾値未満である場合、第1の認証方法により認証処理を実行し、距離が閾値以上である場合、第2の認証方法により認証処理を実行する。   A security system according to one aspect includes a flying device and a portable electronic device that is detachably attached to the flying device. The portable electronic device determines whether the flying device on which the aircraft is mounted is in flight based on the detection results of the communication unit, the atmospheric pressure detection unit, and the atmospheric pressure detection unit that communicate with the flying device, and the result of the determination And a control unit that executes a predetermined function when the flying device is in flight. When a predetermined event occurs, the control unit measures the distance to the user of the own device, and when the distance is less than the threshold, executes the authentication process by the first authentication method, and when the distance is greater than or equal to the threshold, The authentication process is executed by the second authentication method.

図1は、実施形態に係る飛行体の外観構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of an external configuration of a flying object according to an embodiment. 図2は、実施形態に係る飛行体に対する携帯端末の装着方法の一例を示す図である。FIG. 2 is a diagram illustrating an example of a method of attaching the mobile terminal to the flying object according to the embodiment. 図3は、実施形態に係る携帯端末の外観構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of an external configuration of the mobile terminal according to the embodiment. 図4は、実施形態に係る携帯端末の外観構成の一例を示す図である。FIG. 4 is a diagram illustrating an example of an external configuration of the mobile terminal according to the embodiment. 図5は、実施形態に係る携帯端末の外観構成の一例を示す図である。FIG. 5 is a diagram illustrating an example of an external configuration of the mobile terminal according to the embodiment. 図6は、実施形態に係る携帯端末の機能構成の一例を示す図である。FIG. 6 is a diagram illustrating an example of a functional configuration of the mobile terminal according to the embodiment. 図7は、実施形態に係る認証実行高度設定テーブルの構成例を示す図である。FIG. 7 is a diagram illustrating a configuration example of an authentication execution altitude setting table according to the embodiment. 図8は、実施形態に係る認証実行高度設定テーブルに基づく高度調整方法の概要を示す図である。FIG. 8 is a diagram illustrating an overview of the altitude adjustment method based on the authentication execution altitude setting table according to the embodiment. 図9は、実施形態に係るユーザ情報の一例を示す図である。FIG. 9 is a diagram illustrating an example of user information according to the embodiment. 図10は、実施形態に係る飛行体が有する機能構成の一例を示す図である。FIG. 10 is a diagram illustrating an example of a functional configuration of the flying object according to the embodiment. 図11は、実施形態に係る携帯端末の処理の一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of processing of the mobile terminal according to the embodiment. 図12は、実施形態に係る高度調整処理の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of the altitude adjustment process according to the embodiment.

本出願に係る複数の実施形態を、図面を参照しつつ詳細に説明する。以下の説明において、同様の構成要素について同一の符号を付すことがある。さらに、重複する説明は省略することがある。また、本出願に係る実施形態を説明する上で密接に関連しない事項は、説明及び図示を省略することがある。   A plurality of embodiments according to the present application will be described in detail with reference to the drawings. In the following description, the same code | symbol may be attached | subjected about the same component. Furthermore, duplicate descriptions may be omitted. Further, matters that are not closely related to the description of the embodiment according to the present application may be omitted from the description and illustration.

図1は、実施形態に係る飛行体の外観構成の一例を示す図である。図1は、実施形態に係る飛行体100の平面図V1及び正面図V2を含む。以下の説明において、飛行体100は、モータなどの動力機構により駆動する回転翼が生み出す揚力及び推進力により飛行する。飛行体100は、「飛行装置」の一例である。   FIG. 1 is a diagram illustrating an example of an external configuration of a flying object according to an embodiment. FIG. 1 includes a plan view V1 and a front view V2 of an aircraft 100 according to the embodiment. In the following description, the flying object 100 flies by lift and propulsion generated by a rotor blade that is driven by a power mechanism such as a motor. The flying object 100 is an example of a “flight device”.

図1に示すように、飛行体100は、本体110と、連結フレーム130と、回転翼150a〜150dと、脚部170a,170bと、カメラ190とを備える。飛行体100は、複数の連結フレーム130が、本体110及び回転翼150a〜150dとの間を相互に連結して構成される。本体110は端末装着ユニット111を有する。飛行体100は、飛行中ではないとき、脚部170a,170bを接地させた状態で待機する。   As shown in FIG. 1, the flying object 100 includes a main body 110, a connecting frame 130, rotary blades 150 a to 150 d, legs 170 a and 170 b, and a camera 190. The flying object 100 is configured by connecting a plurality of connecting frames 130 between the main body 110 and the rotor blades 150a to 150d. The main body 110 has a terminal mounting unit 111. When the flying object 100 is not in flight, the flying object 100 stands by with the legs 170a and 170b grounded.

図1に示す飛行体100の外観構成は一例であって、本体110、連結フレーム130、回転翼150a〜150d、及び脚部170a,170bにより形作られる外観、及び連結フレーム130及び回転翼150a〜150dなどの構成部品の数など、必ずしも図1に示す例に限定される必要はない。   The appearance configuration of the flying object 100 shown in FIG. 1 is an example, and the appearance formed by the main body 110, the connecting frame 130, the rotor blades 150a to 150d, and the legs 170a and 170b, and the connecting frame 130 and the rotor blades 150a to 150d. The number of components such as these is not necessarily limited to the example shown in FIG.

図2は、実施形態に係る飛行体に対する携帯端末の装着方法の一例を示す図である。図2に示すように、携帯端末1は、例えば、携帯端末1の正面が、飛行体100の平面側(z軸プラス方向)を向くように、端末装着ユニット111に着脱可能に装着される。携帯端末1が端末装着ユニット111に装着されたとき、携帯端末1の筐体(以下、「ハウジング」と表記する)の一部(以下に説明するサイドフェイス1Cの一部)は、端末装着ユニット111が有する突起部111a,111bと隙間なく接触する。突起部111a,111bは、適度な弾性を有する弾性材料で構成されてよい。   FIG. 2 is a diagram illustrating an example of a method of attaching the mobile terminal to the flying object according to the embodiment. As shown in FIG. 2, the mobile terminal 1 is detachably mounted on the terminal mounting unit 111 such that, for example, the front surface of the mobile terminal 1 faces the plane side (z-axis plus direction) of the flying object 100. When the mobile terminal 1 is mounted on the terminal mounting unit 111, a part of the casing (hereinafter referred to as “housing”) of the mobile terminal 1 (a part of the side face 1C described below) is a terminal mounting unit. It contacts the protrusions 111a and 111b of 111 without a gap. The protrusions 111a and 111b may be made of an elastic material having moderate elasticity.

携帯端末1の正面は、携帯端末1を利用するユーザと対面する、あるいはユーザに接する面であり、以下の説明おいて「正面」又は「表示面」と記載する場合がある。以下の説明において、「正面」とは逆側の面を「背面」と記載する場合がある。携帯端末1は、「携帯電子機器」の一例である。   The front surface of the mobile terminal 1 is a surface that faces or contacts the user who uses the mobile terminal 1, and may be referred to as “front” or “display surface” in the following description. In the following description, a surface opposite to the “front” may be referred to as a “back”. The mobile terminal 1 is an example of a “portable electronic device”.

図3から図5は、実施形態に係る携帯端末の外観構成の一例を示す図である。図3から図5に示すように、携帯端末1は、ハウジング1Hを有する。ハウジング1Hの表面をなす面には、フロントフェイス1Aと、フロントフェイス1Aの背面に相当するバックフェイス1Bと、フロントフェイス1Aとバックフェイス1Bとを接続するサイドフェイス1C1〜1C4とが含まれる。なお、以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。   3 to 5 are diagrams illustrating an example of an external configuration of the mobile terminal according to the embodiment. As shown in FIGS. 3 to 5, the mobile terminal 1 has a housing 1H. The surface forming the surface of the housing 1H includes a front face 1A, a back face 1B corresponding to the back of the front face 1A, and side faces 1C1 to 1C4 connecting the front face 1A and the back face 1B. Hereinafter, the side faces 1C1 to 1C4 may be collectively referred to as the side face 1C without specifying which face.

携帯端末1は、タッチスクリーン2Bと、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。携帯端末1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。携帯端末1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下の説明において、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。   The portable terminal 1 has a touch screen 2B, buttons 3A to 3C, an illuminance sensor 4, a proximity sensor 5, a receiver 7, a microphone 8, and a camera 12 on the front face 1A. The portable terminal 1 has a speaker 11 and a camera 13 on the back face 1B. The portable terminal 1 has buttons 3D to 3F and a connector 14 on the side face 1C. In the following description, the buttons 3A to 3F may be collectively referred to as the button 3 without specifying which button.

携帯端末1は、サイドフェイス1C3及びサイドフェイス1C4に沿って配置された圧力センサ19を有する。圧力センサ19は、サイドフェイス1C3及びサイドフェイス1C4に対する圧力を検知できる。圧力センサ19は、例えば、携帯端末1が飛行体100の端末装着ユニット111に装着されたときに、突起部111a,111bがサイドフェイス1C3及びサイドフェイス1C4に対して及ぼす圧力を感知できる。   The portable terminal 1 includes a pressure sensor 19 disposed along the side face 1C3 and the side face 1C4. The pressure sensor 19 can detect pressure on the side face 1C3 and the side face 1C4. For example, when the portable terminal 1 is mounted on the terminal mounting unit 111 of the flying object 100, the pressure sensor 19 can detect pressure exerted on the side face 1C3 and the side face 1C4 by the protrusions 111a and 111b.

図6は、実施形態に係る携帯端末の機能構成の一例を示す図である。図6に示すように、携帯端末1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ(インカメラ)12と、カメラ(アウトカメラ)13と、コネクタ14と、加速度センサ15と、方位センサ16と、角速度センサ17と、気圧センサ18と、圧力センサ19と、GPS受信機20とを含む。   FIG. 6 is a diagram illustrating an example of a functional configuration of the mobile terminal according to the embodiment. As shown in FIG. 6, the mobile terminal 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, and a controller. 10, a speaker 11, a camera (in-camera) 12, a camera (out-camera) 13, a connector 14, an acceleration sensor 15, an orientation sensor 16, an angular velocity sensor 17, an atmospheric pressure sensor 18, and a pressure sensor 19 And a GPS receiver 20.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2A及びタッチスクリーン2Bは、例えば、重なって位置してよいし、並んで位置してよいし、離れて位置してよい。ディスプレイ2Aとタッチスクリーン2Bとが重なって位置する場合、例えば、ディスプレイ2Aの1ないし複数の辺は、タッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。   The touch screen display 2 includes a display 2A and a touch screen 2B. The display 2A and the touch screen 2B may be positioned, for example, may be positioned side by side, or may be positioned apart from each other. When the display 2A and the touch screen 2B are positioned so as to overlap each other, for example, one or more sides of the display 2A may not be along any of the sides of the touch screen 2B.

ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを含む。ディスプレイ2Aは、文字、画像、記号、及び図形等のオブジェクトを画面内に表示する。ディスプレイ2Aが表示するオブジェクトを含む画面は、ロック画面と呼ばれる画面、ホーム画面と呼ばれる画面、アプリケーションの実行中に表示されるアプリケーション画面を含む。ホーム画面は、デスクトップ、待受画面、アイドル画面、標準画面、アプリ一覧画面又はランチャー画面と呼ばれることもある。   The display 2A is a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display). The display 2A displays objects such as characters, images, symbols, and graphics on the screen. The screen including the object displayed on the display 2A includes a screen called a lock screen, a screen called a home screen, and an application screen displayed during execution of the application. The home screen may be called a desktop, a standby screen, an idle screen, a standard screen, an application list screen, or a launcher screen.

タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触又は近接を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触又は近接したときのタッチスクリーン2B上の位置を検出することができる。以下の説明において、タッチスクリーン2Bが検出する複数の指、ペン、及びスタイラスペン等がタッチスクリーン2Bに接触又は近接した位置を「検出位置」と表記する。タッチスクリーン2Bは、タッチスクリーン2Bに対する指の接触又は近接を、検出位置とともにコントローラ10に通知する。タッチスクリーン2Bは、検出位置の通知をもって接触又は近接の検出をコントローラ10に通知してよい。タッチスクリーン2Bが行える動作を、タッチスクリーン2Bを有するタッチスクリーンディスプレイ2は実行できる。言い換えると、タッチスクリーン2Bが行う動作は、タッチスクリーンディスプレイ2が行ってもよい。   The touch screen 2B detects contact or proximity of a finger, pen, stylus pen, or the like to the touch screen 2B. The touch screen 2B can detect a position on the touch screen 2B when a plurality of fingers, pens, stylus pens, or the like are in contact with or close to the touch screen 2B. In the following description, a position where a plurality of fingers, pens, stylus pens, and the like detected by the touch screen 2B are in contact with or close to the touch screen 2B is referred to as a “detection position”. The touch screen 2B notifies the controller 10 of the contact or proximity of the finger to the touch screen 2B together with the detection position. The touch screen 2B may notify the controller 10 of detection of contact or proximity by notification of the detection position. The touch screen display 2 having the touch screen 2B can execute operations that can be performed by the touch screen 2B. In other words, the operation performed by the touch screen 2B may be performed by the touch screen display 2.

コントローラ10は、タッチスクリーン2Bにより検出された接触又は近接、検出位置、検出位置の変化、接触又は近接が継続した時間、接触又は近接が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいて、ジェスチャの種別を判別する。コントローラ10が行える動作を、コントローラ10を有する携帯端末1は実行できる。言い換えると、コントローラ10が行う動作は、携帯端末1が行ってもよい。ジェスチャは、指を用いて、タッチスクリーン2Bに対して行われる操作である。タッチスクリーン2Bに対して行われる操作は、タッチスクリーン2Bを有するタッチスクリーンディスプレイ2により行われてもよい。コントローラ10が、タッチスクリーン2Bを介して判別するジェスチャには、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるが、これらに限定されない。   The controller 10 receives at least one of the contact or proximity detected by the touch screen 2B, the detection position, the change in the detection position, the time that the contact or proximity has continued, the interval at which contact or proximity was detected, and the number of times the contact was detected. The type of gesture is determined based on the one. The portable terminal 1 having the controller 10 can execute operations that the controller 10 can perform. In other words, the operation performed by the controller 10 may be performed by the mobile terminal 1. The gesture is an operation performed on the touch screen 2B using a finger. The operation performed on the touch screen 2B may be performed by the touch screen display 2 having the touch screen 2B. The gestures that the controller 10 determines via the touch screen 2B include, for example, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. It is not limited to.

「タッチ」は、タッチスクリーン2Bに指が触れるジェスチャである。携帯端末1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別する。「ロングタッチ」は、タッチスクリーン2Bに指が一定時間より長く触れるジェスチャである。携帯端末1は、タッチスクリーン2Bに指が一定時間より長く接触するジェスチャをロングタッチとして判別する。   “Touch” is a gesture in which a finger touches the touch screen 2B. The portable terminal 1 determines a gesture in which a finger contacts the touch screen 2B as a touch. “Long touch” is a gesture in which a finger touches the touch screen 2B for a longer period of time. The portable terminal 1 determines a gesture in which a finger is in contact with the touch screen 2B for a longer period of time as a long touch.

「リリース」は、指がタッチスクリーン2Bから離れるジェスチャである。携帯端末1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別する。「スワイプ」は、指がタッチスクリーン2Bに接触したままで移動するジェスチャである。携帯端末1は、指がタッチスクリーン2Bに接触したままで移動するジェスチャをスワイプとして判別する。   “Release” is a gesture in which a finger leaves the touch screen 2B. The mobile terminal 1 determines a gesture in which a finger is separated from the touch screen 2B as a release. “Swipe” is a gesture in which a finger moves while touching the touch screen 2B. The mobile terminal 1 determines a gesture that moves while the finger is in contact with the touch screen 2B as a swipe.

「タップ」は、タッチに続いてリリースをするジェスチャである。携帯端末1は、タッチに続いてリリースをするジェスチャをタップとして判別する。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。携帯端末1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。   A “tap” is a gesture for releasing following a touch. The portable terminal 1 determines a gesture that is released following a touch as a tap. The “double tap” is a gesture in which a gesture for releasing following a touch is continued twice. The mobile terminal 1 determines that a gesture in which a gesture for releasing following a touch continues twice is a double tap.

「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。携帯端末1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。携帯端末1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。   “Long tap” is a gesture for releasing following a long touch. The mobile terminal 1 determines a gesture for releasing following a long touch as a long tap. “Drag” is a gesture for performing a swipe starting from an area where a movable object is displayed. The mobile terminal 1 determines that a gesture of swiping from a region where a movable object is displayed as a starting point is a drag.

「フリック」は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャである。すなわち、「フリック」は、タッチに続いて指が移動しながらリリースが行われるジェスチャである。携帯端末1は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャをフリックとして判別する。フリックは、指が一方方向へ移動しながら行われることが多い。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」等を含む。フリックにおける指の移動は、スワイプにおける指の移動よりも素早いことが多い。   “Flick” is a gesture in which a finger leaves the touch screen 2B while moving after touching the touch screen 2B. In other words, “flick” is a gesture in which a release is performed while a finger moves following a touch. The portable terminal 1 discriminate | determines as a flick the gesture which leaves | separates from the touch screen 2B while moving, after a finger | toe touches the touch screen 2B. The flick is often performed while the finger moves in one direction. Flick is "upper flick" where the finger moves upward on the screen, "lower flick" where the finger moves downward on the screen, "right flick" where the finger moves rightward on the screen, finger is left on the screen Including “left flick” moving in the direction. The movement of a finger in a flick is often quicker than the movement of a finger in a swipe.

「ピンチイン」は、複数の指が互いに近付く方向にスワイプするジェスチャである。携帯端末1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が短くなるジェスチャをピンチインとして判別する。「ピンチアウト」は、複数の指が互いに遠ざかる方向にスワイプするジェスチャである。携帯端末1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が長くなるジェスチャをピンチアウトとして判別する。   “Pinch-in” is a gesture of swiping in a direction in which a plurality of fingers approach each other. The mobile terminal 1 determines, as a pinch-in, a gesture that shortens the distance between the position of one finger and the position of another finger detected by the touch screen 2B. “Pinch out” is a gesture of swiping a plurality of fingers away from each other. The portable terminal 1 determines a gesture that increases the distance between the position of one finger and the position of another finger detected by the touch screen 2B as a pinch out.

以下の説明では、1本の指により行われるジェスチャを「シングルタッチジェスチャ」と呼び、2本以上の指により行われるジェスチャを「マルチタッチジェスチャ」と呼ぶことがある。マルチタッチジェスチャは、例えば、ピンチインおよびピンチアウトを含む。タップ、フリックおよびスワイプ等は、1本の指で行われればシングルタッチジェスチャであり、2本以上の指で行われればマルチタッチジェスチャである。   In the following description, a gesture performed with one finger may be referred to as a “single touch gesture”, and a gesture performed with two or more fingers may be referred to as a “multi-touch gesture”. Multi-touch gestures include, for example, pinch-in and pinch-out. Taps, flicks, swipes, and the like are single-touch gestures when performed with one finger, and multi-touch gestures when performed with two or more fingers.

コントローラ10は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってコントローラ10が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なることがある。   The controller 10 operates according to these gestures determined via the touch screen 2B. Therefore, an operability that is intuitive and easy to use for the user is realized. The operation performed by the controller 10 according to the determined gesture may differ depending on the screen displayed on the display 2A.

タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式、赤外線方式、及び荷重検出方式等の任意の方式でよい。   The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method, an infrared method, and a load detection method.

ボタン3は、ユーザからの操作入力を受け付ける。ボタン3は、例えば、ボタン3A〜ボタン3Fを有する。ボタン3の数は、任意の数であってよい。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュを含むが、これらに限定されない。   The button 3 receives an operation input from the user. The button 3 includes, for example, a button 3A to a button 3F. The number of buttons 3 may be an arbitrary number. The controller 10 detects an operation on the button 3 by cooperating with the button 3. The operation on the button 3 includes, for example, click, double click, triple click, push, and multi-push, but is not limited thereto.

ボタン3A〜3Cは、例えば、ホームボタン、バックボタンまたはメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタン(電源ボタン)である。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。   The buttons 3A to 3C are, for example, a home button, a back button, or a menu button. The button 3D is, for example, a power on / off button (power button) of the smartphone 1. The button 3D may also serve as a sleep / sleep release button. The buttons 3E and 3F are volume buttons, for example.

照度センサ4は、照度を検出する。照度は、照度センサ4の測定面の単位面積に入射する光束の値である。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。   The illuminance sensor 4 detects illuminance. The illuminance is the value of the light beam incident on the unit area of the measurement surface of the illuminance sensor 4. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example.

近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、赤外線を照射する発光素子と、発光素子から照射された赤外線の反射光を受光する受光素子を有する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。   The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 includes a light emitting element that emits infrared light and a light receiving element that receives reflected infrared light emitted from the light emitting element. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor.

通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G、5G等のセルラーフォンの通信規格と、近距離無線の通信規格とが含まれる。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W−CDMA(登録商標)(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)、PHS(Personal Handy−phone System)等がある。近距離無線の通信規格としては、例えば、WiMAX(登録商標)(Worldwide interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(登録商標)(Near Field Communication)、WPAN(Wireless Personal Area Network)等が含まれる。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。通信ユニット6は「通信部」の一例である。   The communication unit 6 communicates wirelessly. The wireless communication standards supported by the communication unit 6 include, for example, cellular phone communication standards such as 2G, 3G, 4G, and 5G, and short-range wireless communication standards. Examples of cellular phone communication standards include LTE (Long Term Evolution), W-CDMA (registered trademark) (Wideband Code Division Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (registered trademark) Gst (registered trademark) Gst Mobile communications) and PHS (Personal Handy-phone System). Examples of short-range wireless communication standards include WiMAX (registered trademark) (Worldwide interoperability for Microwave Access), IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), ), WPAN (Wireless Personal Area Network), and the like. The communication unit 6 may support one or more of the communication standards described above. The communication unit 6 is an example of a “communication unit”.

レシーバ7は、コントローラ10から送出される音信号を音として出力する。マイク8は、入力されるユーザの声等を音信号へ変換してコントローラ10へ送信する。   The receiver 7 outputs the sound signal transmitted from the controller 10 as sound. The microphone 8 converts an input user's voice or the like into a sound signal and transmits the sound signal to the controller 10.

ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域として利用されてもよい。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage 9 stores programs and data. The storage 9 may be used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. The storage 9 may include a plurality of types of storage media. The storage 9 may include a combination of a storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する支援プログラム(図示略)とが含まれる。アプリケーションは、例えば、フォアグランドで実行される場合、当該アプリケーションに係る画面を、ディスプレイ2Aに表示する。支援プログラムには、例えば、OS(Operating System)が含まれる。プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background, and a support program (not shown) that supports the operation of the application. For example, when the application is executed in the foreground, a screen related to the application is displayed on the display 2A. The support program includes, for example, an OS (Operating System). The program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.

ストレージ9は、制御プログラム9A、飛行体連携アプリケーション9B、ユーザ探索用データ9C、指紋認証アプリケーション9D、虹彩認証アプリケーション9E、顔認証アプリケーション9F、音声認証アプリケーション9G、指紋認証用データH、虹彩認証用データ9I、顔認証用データ9J、音声認証用データ9K、認証実行高度設定テーブル9L、及び設定データ9Zなどを記憶できる。   The storage 9 includes a control program 9A, a flying object cooperation application 9B, user search data 9C, a fingerprint authentication application 9D, an iris authentication application 9E, a face authentication application 9F, a voice authentication application 9G, a fingerprint authentication data H, and an iris authentication data. 9I, face authentication data 9J, voice authentication data 9K, authentication execution altitude setting table 9L, setting data 9Z, and the like can be stored.

制御プログラム9Aは、携帯端末1の各種動作に関する処理を実現するための機能をそれぞれ提供できる。制御プログラム9Aが提供する機能は、照度センサ4の検出結果に基づいて、ディスプレイ2Aの輝度を調整する機能を含む。制御プログラム9Aが提供する機能は、近接センサ5の検出結果に基づいて、タッチスクリーン2Bに対する操作を無効とする機能を含む。制御プログラム9Aが提供する機能は、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる機能を含む。制御プログラム9Aが提供する機能は、カメラ12、及びカメラ13の撮影処理を制御する機能を含む。制御プログラム9Aが提供する機能は、コネクタ14を介して接続される外部機器との間の通信を制御する機能を含む。制御プログラム9Aが提供する機能は、タッチスクリーン2Bの検出結果に基づいて判別したジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う機能を含む。制御プログラム9Aが提供する機能は、加速度センサ15の検出結果に基づいて、携帯端末1を携帯するユーザの移動、停止等を検出する機能を含む。制御プログラム9Aが提供する機能は、GPS受信機20より取得する信号に基づいて、現在位置に基づく処理を実行する機能を含む。   The control program 9A can provide functions for realizing processing related to various operations of the mobile terminal 1. The function provided by the control program 9A includes a function of adjusting the luminance of the display 2A based on the detection result of the illuminance sensor 4. The function provided by the control program 9 </ b> A includes a function for invalidating the operation on the touch screen 2 </ b> B based on the detection result of the proximity sensor 5. The function provided by the control program 9A includes a function for realizing a call by controlling the communication unit 6, the receiver 7, the microphone 8, and the like. The functions provided by the control program 9 </ b> A include functions for controlling the photographing processing of the camera 12 and the camera 13. The function provided by the control program 9A includes a function of controlling communication with an external device connected via the connector 14. The function provided by the control program 9A includes a function of performing various controls such as changing information displayed on the display 2A in accordance with a gesture determined based on the detection result of the touch screen 2B. Functions provided by the control program 9 </ b> A include functions for detecting movement, stop, and the like of the user carrying the mobile terminal 1 based on the detection result of the acceleration sensor 15. The function provided by the control program 9A includes a function of executing processing based on the current position based on a signal acquired from the GPS receiver 20.

制御プログラム9Aは、飛行体100に携帯端末1(以下、適宜「自機」と表記する)が装着されたかを判定する機能を提供できる。制御プログラム9Aは、例えば、圧力センサ19の検出結果に基づいて、飛行体100に自機が装着されたかを判定できる。制御プログラム9Aは、例えば、サイドフェイス1Cに作用する圧力の範囲(例えば、圧力の分布)が、端末装着ユニット111の突起部111aとサイドフェイス1C3との接触面積、及び突起部111bとサイドフェイス1C4との接触面積と略一致する場合、飛行体100に自機が装着されたという判定結果を導出してもよい。   The control program 9A can provide a function of determining whether or not the mobile terminal 1 (hereinafter referred to as “own aircraft” as appropriate) is attached to the flying object 100. For example, the control program 9A can determine whether the aircraft 100 is mounted on the flying object 100 based on the detection result of the pressure sensor 19. In the control program 9A, for example, the pressure range (for example, pressure distribution) acting on the side face 1C is such that the contact area between the protrusion 111a and the side face 1C3 of the terminal mounting unit 111, and the protrusion 111b and the side face 1C4. If the contact area substantially matches the contact area, the determination result that the aircraft 100 is mounted on the flying object 100 may be derived.

制御プログラム9Aは、飛行体100との通信が可能な状態にペアリングするための機能を提供できる。制御プログラム9Aは、飛行体100に対する自機の装着を確認できると、飛行体連携プログラム9Bに対して、飛行体100との自機とのペアリング指示を送出する。制御プログラム9Aから飛行体100に対する指示及びデータの送信は、以下に説明する飛行体連携プログラム9Bを介して実行される。   The control program 9A can provide a function for pairing in a state where communication with the flying object 100 is possible. When the control program 9A can confirm the installation of the aircraft with respect to the flying object 100, the control program 9A sends a pairing instruction with the flying object 100 to the aircraft 100 to the flying object cooperation program 9B. The instruction and data transmission from the control program 9A to the flying object 100 are executed via the flying object cooperation program 9B described below.

制御プログラム9Aは、気圧センサ18の検出結果に基づいて、自機が装着されている飛行体100が飛行中であるかを判定するための機能を提供できる。制御プログラム9Aは、自機が飛行体100に装着されたときに、気圧センサ18のゼロ点調整を実行するための機能を提供できる。制御プログラム9Aは、気圧センサ18の検出結果の代替的、或いは補助的に、動力制御部124の制御状況を参照して、自機が装着されている飛行体100が飛行中であるかを判定するための機能を提供してもよい。   The control program 9 </ b> A can provide a function for determining whether the flying object 100 to which the aircraft is mounted is in flight based on the detection result of the atmospheric pressure sensor 18. The control program 9A can provide a function for executing the zero point adjustment of the atmospheric pressure sensor 18 when the aircraft is mounted on the flying object 100. The control program 9A refers to the control status of the power control unit 124 instead of or in addition to the detection result of the atmospheric pressure sensor 18, and determines whether the flying object 100 on which the aircraft is mounted is in flight. A function may be provided.

制御プログラム9Aは、自機が装着されている飛行体100の飛行中に、所定のイベントが発生すると、自機と自機のユーザとの間の距離に基づいて、複数の認証方法の中から、セキュリティロックを解除するための認証方法を選択するための機能を提供できる。   When a predetermined event occurs during the flight of the flying object 100 to which the aircraft is mounted, the control program 9A can select from a plurality of authentication methods based on the distance between the aircraft and the user of the aircraft. It is possible to provide a function for selecting an authentication method for releasing the security lock.

例えば、制御プログラム9Aは、飛行体100の飛行中に所定のイベントが発生すると、自機と自機のユーザとの間の距離の計測を指示する距離計測指示を飛行体100に送信できる。制御プログラム9Aは、例えば、飛行体100において計測された自機と自機のユーザとの間の距離が閾値未満である場合、セキュリティロックを解除するための認証方法として、第1の認証方法を選択できる。第1の認証方法は、ユーザが携帯端末1を直接操作又は触れることにより行われる認証方法であり、例えば、指紋認証を含む。制御プログラム9Aは、例えば、飛行体100において計測された自機と自機のユーザとの間の距離が閾値以上である場合、セキュリティロックを解除するための認証方法として、第2の認証方法を選択できる。第2の認証方法は、ユーザが携帯端末1に触れることなく行われる認証方法であり、例えば、虹彩認証、顔認証及び音声認証の中の少なくとも1つを含む。制御プログラム9Aは、例えば、第2の認証方法として、虹彩認証、顔認証及び音声認証の中の少なくとも1つを選択できる。所定のイベントは、電話着信、メール受信、スケジューラによる通知などを含む。   For example, when a predetermined event occurs during the flight of the flying object 100, the control program 9 </ b> A can transmit a distance measurement instruction that instructs measurement of the distance between the own aircraft and the user of the own aircraft to the flying object 100. For example, when the distance between the own aircraft measured by the flying object 100 and the user of the own aircraft is less than the threshold, the control program 9A uses the first authentication method as an authentication method for releasing the security lock. You can choose. The first authentication method is an authentication method performed when the user directly operates or touches the mobile terminal 1, and includes, for example, fingerprint authentication. For example, when the distance between the own aircraft measured by the flying object 100 and the user of the own aircraft is equal to or greater than a threshold, the control program 9A uses the second authentication method as an authentication method for releasing the security lock. You can choose. The second authentication method is an authentication method that is performed without the user touching the mobile terminal 1, and includes, for example, at least one of iris authentication, face authentication, and voice authentication. For example, the control program 9A can select at least one of iris authentication, face authentication, and voice authentication as the second authentication method. Predetermined events include incoming calls, mail reception, notification by scheduler, and the like.

制御プログラム9Aは、指紋認証アプリケーション9D、虹彩認証アプリケーション9E、顔認証アプリケーション9F、及び音声認証アプリケーション9Gの各アプリケーションと連携し、セキュリティロックを解除するための認証処理を実行するための機能を提供できる。   The control program 9A can provide a function for executing authentication processing for releasing the security lock in cooperation with the fingerprint authentication application 9D, the iris authentication application 9E, the face authentication application 9F, and the voice authentication application 9G. .

制御プログラム9Aは、第2の認証方法を選択したとき、ユーザの姿勢を特定するための機能を提供できる。制御プログラム9Aは、例えば、カメラ12またはカメラ13で撮影したユーザの画像若しくは飛行体100により撮影された画像から、ユーザの姿勢を特定することができる。なお、ユーザの姿勢を特定するための画像解析手法は公知のものを用いればよい。   The control program 9A can provide a function for specifying the posture of the user when the second authentication method is selected. The control program 9 </ b> A can specify the posture of the user from, for example, a user image captured by the camera 12 or the camera 13 or an image captured by the flying object 100. In addition, what is necessary is just to use the image analysis method for specifying a user's attitude | position.

制御プログラム9Aは、ユーザの姿勢に応じて、第2の認証方法を用いて認証処理を実行するときの高度(以下、「認証実行高度」と表記する)を算出するための機能を提供できる。制御プログラム9Aは、例えば、後述する認証実行高度設定テーブル9Lに従って、ユーザの姿勢に応じた認証実行高度を算出できる。   The control program 9A can provide a function for calculating an altitude (hereinafter referred to as “authentication execution altitude”) when executing the authentication process using the second authentication method in accordance with the attitude of the user. For example, the control program 9A can calculate the authentication execution altitude corresponding to the posture of the user according to the authentication execution altitude setting table 9L described later.

制御プログラム9Aは、現在の飛行体100(自機)の飛行高度が認証実行高度と一致するまで、飛行高度の調整を指示するための機能を提供できる。例えば、制御プログラム9Aは、飛行高度の調整を指示する高度調整指示を飛行体100に送信できる。一方、制御プログラム9Aは、現在の飛行体100(自機)の飛行高度が認証実行高度と一致することを条件に、第2の認証方法による認証処理を実行するための機能を提供できる。制御プログラム9Aは、第2の認証方法として、虹彩認証又は顔認証を選択したとき、飛行体100に撮影される画像を利用してもよいし、カメラ12又はカメラ13により撮影される画像を利用してもよい。制御プログラム9Aは、カメラ12又はカメラ13により認証処理に必要な解像度を備えた虹彩及び顔などのデータを取得する際に、カメラ12又はカメラ13による撮影処理を制御する補助機能としてフェイストラッキング機能及びオートフォーカス機能などを含んでよい。   The control program 9A can provide a function for instructing the adjustment of the flight altitude until the current flight altitude of the aircraft 100 (own aircraft) matches the authentication execution altitude. For example, the control program 9A can transmit an altitude adjustment instruction for instructing the adjustment of the flight altitude to the aircraft 100. On the other hand, the control program 9A can provide a function for executing the authentication process by the second authentication method on condition that the current flight altitude of the flying object 100 (own aircraft) matches the authentication execution altitude. The control program 9A may use an image captured by the flying object 100 when the iris authentication or face authentication is selected as the second authentication method, or use an image captured by the camera 12 or the camera 13. May be. The control program 9A has a face tracking function as an auxiliary function for controlling the photographing process by the camera 12 or the camera 13 when the camera 12 or the camera 13 acquires data such as an iris and a face having a resolution necessary for the authentication process. An autofocus function may be included.

飛行体連携プログラム9Bは、制御プログラム9Aと連携することにより、飛行体100と協働して各種処理を実現するための機能を提供できる。なお、飛行体連携プログラム9Bは、例えば、制御プログラム9Aから送出された飛行体100に対する各種命令を飛行体100自身が翻訳して実行可能な制御信号などに変換して飛行体100に送信できる。   The flying object cooperation program 9B can provide a function for realizing various processes in cooperation with the flying object 100 in cooperation with the control program 9A. Note that the flying object cooperation program 9B can convert various commands for the flying object 100 sent from the control program 9A into a control signal that can be translated and executed by the flying object 100, and transmit it to the flying object 100, for example.

飛行体連携プログラム9Bは、例えば、制御プログラム9Aからの指示を受けて、例えば、Bluetooth(登録商標)を用いて、飛行体100との間の近距離無線接続を確立することにより、自機と飛行体100とをペアリングできる。   The aircraft cooperation program 9B, for example, receives an instruction from the control program 9A, and establishes a short-range wireless connection with the aircraft 100 using, for example, Bluetooth (registered trademark). Pairing with the flying object 100 is possible.

飛行体連携プログラム9Bは、例えば、飛行体100との間に確立された近距離無線通信により、制御プログラム9Aから飛行体100に向けて送出された指示、及び飛行体100において実行される各種処理に用いられるデータなどを飛行体100との間で送受信することができる。飛行体連携プログラム9Bから飛行体100に送信される指示は、例えば、距離計測指示及び高度調整指示などを含む。飛行体連携プログラム9Bから飛行体100に送信されるデータは、ユーザ探索用データ9Cに含まれる識別子のデータなどを含む。飛行体連携プログラム9Bから制御プログラム9Aに対して受け渡しが行われるデータは、飛行体100において算出された自機と自機のユーザとの間の距離に関するデータなどを含む。   The flying object cooperation program 9B is, for example, an instruction sent to the flying object 100 from the control program 9A by short-range wireless communication established with the flying object 100, and various processes executed in the flying object 100. Data used for the vehicle can be transmitted to and received from the flying object 100. The instructions transmitted from the flying object cooperation program 9B to the flying object 100 include, for example, a distance measurement instruction and an altitude adjustment instruction. The data transmitted from the flying object cooperation program 9B to the flying object 100 includes identifier data included in the user search data 9C. The data transferred from the flying object cooperation program 9B to the control program 9A includes data related to the distance between the own aircraft and the user of the own aircraft calculated in the flying object 100.

ユーザ探索用データ9Cは、自機のユーザを認証する際に参照される。ユーザ探索用データ9Cは、例えば、自機のユーザが装着するウェアラブル端末などに一意に付与される識別子のデータを含む。ユーザ探索用データ9Cは、例えば、ユーザによって事前に登録される。   The user search data 9C is referred to when authenticating the user of the own device. The user search data 9C includes, for example, data of an identifier uniquely given to a wearable terminal worn by the user of the own device. The user search data 9C is registered in advance by the user, for example.

指紋認証アプリケーション9Dは、ユーザの指紋を用いた認証を行うための機能を提供できる。   The fingerprint authentication application 9D can provide a function for performing authentication using a user's fingerprint.

虹彩認証アプリケーション9Eは、ユーザの虹彩を用いた認証を行うための機能を提供できる。   The iris authentication application 9E can provide a function for performing authentication using the user's iris.

顔認証アプリケーション9Fは、ユーザの顔を用いて認証を行うための機能を提供できる。   The face authentication application 9F can provide a function for performing authentication using the user's face.

音声認証アプリケーション9Gは、ユーザが発生する音声を用いて認証を行うための機能を提供できる。   The voice authentication application 9G can provide a function for performing authentication using voice generated by the user.

指紋認証用データ9Hは、指紋認証アプリケーション9Dによる認証処理において参照される参照用データである。   The fingerprint authentication data 9H is reference data that is referred to in authentication processing by the fingerprint authentication application 9D.

虹彩認証用データ9Iは、虹彩認証アプリケーション9Eによる認証処理において参照される参照用データである。   The iris authentication data 9I is reference data that is referred to in authentication processing by the iris authentication application 9E.

顔認証用データ9Jは、顔認証アプリケーション9Fによる認証処理において参照される参照用データである。   The face authentication data 9J is reference data that is referred to in authentication processing by the face authentication application 9F.

音声認証用データ9Kは、音声認証アプリケーション9Gによる認証処理において参照される参照用データである。   The voice authentication data 9K is reference data that is referred to in the authentication process by the voice authentication application 9G.

認証実行高度設定テーブル9Lは、第2の認証方法を用いて認証処理を実行するときの飛行体100(自機)の飛行高度の調整を行う際に参照される。図7は、実施形態に係る認証実行高度設定テーブルの構成例を示す図である。図8は、実施形態に係る認証実行高度設定テーブルに基づく高度調整方法の概要を示す図である。図7に示すように、認証実行高度設定テーブル9Lは、ユーザの姿勢に応じて、第2の認証方法を用いて認証処理を実行するときの認証実行高度を規定する。図7に示す変数「T」はユーザの身長を示し、図7に示す変数「S」はユーザの座高を示し、図7に示す変数「F」はユーザの顔の長さを示す(後述する図9参照)。第2の認証方法は、ユーザの頭部付近の生体情報あるいはユーザ頭部付近から発生される音声情報に基づいて実行される。そこで、例えば、ユーザの姿勢が「立位」又は「座位」の場合、図8に示すように、携帯端末1が装着された飛行体100の現在の飛行高度H1が、例えば、ユーザU1の頭部中央付近の高さH2と一致するように認証実行高度が決められるようになっている。例えば、制御プログラム9Aは、飛行体100の現在の飛行高度H1よりも、ユーザの頭部中央付近の高さH2が低い場合(Δh>0)、飛行体100に対して飛行高度を下げる指示を送信できる。一方、制御プログラム9Aは、飛行体100の現在の飛行高度H1よりも、ユーザの頭部中央付近の高さH2が高い場合(Δh<0)、飛行体100に対して飛行高度を上げる指示を送信できる。   The authentication execution altitude setting table 9L is referred to when the flight altitude of the flying object 100 (own aircraft) is adjusted when executing the authentication process using the second authentication method. FIG. 7 is a diagram illustrating a configuration example of an authentication execution altitude setting table according to the embodiment. FIG. 8 is a diagram illustrating an overview of the altitude adjustment method based on the authentication execution altitude setting table according to the embodiment. As shown in FIG. 7, the authentication execution altitude setting table 9L defines the authentication execution altitude when executing the authentication process using the second authentication method according to the user's attitude. The variable “T” shown in FIG. 7 indicates the height of the user, the variable “S” shown in FIG. 7 indicates the sitting height of the user, and the variable “F” shown in FIG. 7 indicates the length of the user's face (described later). (See FIG. 9). The second authentication method is executed based on biological information near the user's head or voice information generated near the user's head. Therefore, for example, when the user's posture is “standing” or “sitting”, as shown in FIG. 8, the current flight altitude H1 of the flying object 100 to which the mobile terminal 1 is attached is, for example, the head of the user U1. The authentication execution altitude is determined so as to coincide with the height H2 near the center of the section. For example, when the height H2 near the center of the user's head is lower than the current flight height H1 of the flying object 100 (Δh> 0), the control program 9A instructs the flying object 100 to lower the flying height. Can be sent. On the other hand, if the height H2 near the center of the user's head is higher than the current flight altitude H1 of the flying object 100 (Δh <0), the control program 9A instructs the flying object 100 to increase the flying altitude. Can be sent.

設定データ9Zは、携帯端末1の動作に関する各種設定の情報を含む。設定データ9Zは、例えば、ユーザ情報91を含む。図9は、実施形態に係るユーザ情報の一例を示す図である。図9に示すように、ユーザ情報91は、例えば、ユーザの身長(T)、座高(S)、顔の長さ(F)などのユーザの身体的特徴に関するデータである。   The setting data 9Z includes information on various settings regarding the operation of the mobile terminal 1. The setting data 9Z includes user information 91, for example. FIG. 9 is a diagram illustrating an example of user information according to the embodiment. As shown in FIG. 9, the user information 91 is data relating to the user's physical characteristics such as the user's height (T), sitting height (S), face length (F), and the like.

携帯端末1は、通信ユニット6を介してクラウドストレージと連携し、当該クラウドストレージが記憶するファイル及びデータにアクセスしてもよい。クラウドストレージは、ストレージ9に記憶されるプログラム及びデータの一部又は全部を記憶してもよい。   The mobile terminal 1 may cooperate with the cloud storage via the communication unit 6 and access files and data stored in the cloud storage. The cloud storage may store a part or all of the programs and data stored in the storage 9.

コントローラ10は、演算処理装置を含む。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−Chip)、MCU(Micro Control Unit)、FPGA(Field−Programmable Gate Array)、およびコプロセッサを含むが、これらに限定されない。コントローラ10は、携帯端末1の動作を統括的に制御して各種の機能を実現する。コントローラ10は「制御部」の一例である。   The controller 10 includes an arithmetic processing device. The arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-Chip), an MCU (Micro Control Unit), an FPGA (Field-Programmable Gate Array), and a coprocessor. It is not limited. The controller 10 comprehensively controls the operation of the mobile terminal 1 to realize various functions. The controller 10 is an example of a “control unit”.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、マイク8、スピーカ11及びGPS受信機20を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、カメラ13、加速度センサ15、方位センサ16、角速度センサ17、気圧センサ18及び圧力センサ19を含むが、これらに限定されない。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement | achieves various functions by it. The functional unit includes, for example, the display 2A, the communication unit 6, the microphone 8, the speaker 11, and the GPS receiver 20, but is not limited thereto. The controller 10 may change the control according to the detection result of the detection unit. The detection unit includes, for example, the touch screen 2B, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the camera 12, the camera 13, the acceleration sensor 15, the azimuth sensor 16, the angular velocity sensor 17, the atmospheric pressure sensor 18, and the pressure sensor 19. Including, but not limited to.

コントローラ10は、制御プログラム9Aを実行することにより、自機の動作に関する各種制御を実現できる。コントローラ10は、例えば、照度センサ4の検出結果に基づいて、ディスプレイ2Aの輝度を調整する処理を実現できる。コントローラ10は、例えば、近接センサ5の検出結果に基づいて、タッチスクリーン2Bに対する操作を無効とする処理を実現できる。コントローラ10は、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる処理を実現できる。コントローラ10は、例えば、カメラ12及びカメラ13の撮影処理を制御する処理を実現できる。コントローラ10は、例えば、コネクタ14を介して接続される外部機器との間の通信を制御する処理を実現できる。コントローラ10は、例えば、タッチスクリーン2Bの検出結果に基づいて判別したジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う処理を実現できる。コントローラ10は、例えば、加速度センサ15の検出結果に基づいて、自機を携帯するユーザの移動、停止等を検出する処理を実現できる。コントローラ10は、例えば、GPS受信機20より取得する信号に基づいて、現在位置に基づく処理を実現できる。   By executing the control program 9A, the controller 10 can realize various controls related to the operation of the own device. For example, the controller 10 can realize a process of adjusting the luminance of the display 2 </ b> A based on the detection result of the illuminance sensor 4. For example, the controller 10 can realize a process of invalidating the operation on the touch screen 2 </ b> B based on the detection result of the proximity sensor 5. For example, the controller 10 can realize a process for realizing a call by controlling the communication unit 6, the receiver 7, the microphone 8, and the like. For example, the controller 10 can realize processing for controlling the photographing processing of the camera 12 and the camera 13. For example, the controller 10 can realize processing for controlling communication with an external device connected via the connector 14. For example, the controller 10 can implement various processes such as changing information displayed on the display 2A according to the gesture determined based on the detection result of the touch screen 2B. For example, based on the detection result of the acceleration sensor 15, the controller 10 can realize processing for detecting the movement, stop, etc. of the user carrying the device. For example, the controller 10 can realize processing based on the current position based on a signal acquired from the GPS receiver 20.

コントローラ10は、制御プログラム9Aを実行することにより、圧力センサ19の検出結果に基づいて、飛行体100に自機が装着されたかを判定する処理を実現できる。   By executing the control program 9 </ b> A, the controller 10 can realize processing for determining whether the aircraft 100 is mounted on the flying object 100 based on the detection result of the pressure sensor 19.

コントローラ10は、制御プログラム9A及び飛行体連携プログラム9Bを実行することにより、飛行体100との通信が可能な状態にペアリングする処理を実現できる。   The controller 10 can implement the process of pairing in a state where communication with the flying object 100 is possible by executing the control program 9A and the flying object cooperation program 9B.

コントローラ10は、制御プログラム9Aを実行することにより、気圧センサ18の検出結果に基づいて、自機が装着されている飛行体100が飛行中であるかを判定する処理を実現できる。   By executing the control program 9A, the controller 10 can realize processing for determining whether the flying object 100 on which the aircraft is mounted is in flight based on the detection result of the atmospheric pressure sensor 18.

コントローラ10は、制御プログラム9Aを実行することにより、自機が装着されている飛行体100の飛行中に、所定のイベントが発生すると、自機と自機のユーザとの間の距離に基づいて、複数の認証方法の中から、セキュリティロックを解除するための認証方法を選択する処理を実現できる。コントローラ10は、例えば、自機と自機のユーザとの間の距離が閾値未満である場合、セキュリティロックを解除するための認証方法として、第1の認証方法を選択できる。コントローラ10は、例えば、自機と自機のユーザとの間の距離が閾値以上である場合、セキュリティロックを解除するための認証方法として、第2の認証方法を選択できる。   When the controller 10 executes the control program 9A and a predetermined event occurs during the flight of the flying object 100 to which the aircraft 10 is mounted, the controller 10 is based on the distance between the aircraft and the user of the aircraft. A process for selecting an authentication method for releasing the security lock from a plurality of authentication methods can be realized. For example, when the distance between the own device and the user of the own device is less than the threshold value, the controller 10 can select the first authentication method as the authentication method for releasing the security lock. For example, when the distance between the own device and the user of the own device is equal to or greater than the threshold, the controller 10 can select the second authentication method as the authentication method for releasing the security lock.

コントローラ10は、指紋認証アプリケーション9D、虹彩認証アプリケーション9E、顔認証アプリケーション9F、及び音声認証アプリケーション9Gの各アプリケーションにより提供される機能に基づいて、セキュリティロックを解除するための認証処理を実現できる。   The controller 10 can realize an authentication process for releasing the security lock based on functions provided by the fingerprint authentication application 9D, the iris authentication application 9E, the face authentication application 9F, and the voice authentication application 9G.

スピーカ11は、コントローラ10から送出される音信号を音として出力する。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。   The speaker 11 outputs the sound signal sent from the controller 10 as sound. The speaker 11 is used for outputting a ring tone and music, for example. One of the receiver 7 and the speaker 11 may also function as the other.

カメラ12及びカメラ13は、撮影した画像を電気信号へ変換する。カメラ12は、ディスプレイ2Aに面している物体を撮影するインカメラである。カメラ13は、ディスプレイ2Aの反対側の面に面している物体を撮影するアウトカメラである。カメラ12及びカメラ13は、インカメラ及びアウトカメラを切り換えて利用可能なカメラユニットとして、機能的及び物理的に統合された状態で携帯端末1に実装されてもよい。   The camera 12 and the camera 13 convert the captured image into an electrical signal. The camera 12 is an in camera that captures an object facing the display 2A. The camera 13 is an out camera that captures an object facing the opposite surface of the display 2A. The camera 12 and the camera 13 may be mounted on the portable terminal 1 in a functionally and physically integrated state as a camera unit that can be used by switching between the in-camera and the out-camera.

コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、MHL(Mobile High−difinition Link)、ライトピーク(Light Peak)、サンダーボルト(登録商標)(Thunderbolt)、LANコネクタ(Local Area Network connector)、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用に設計された端子でもよい。コネクタ14に接続される装置は、例えば、飛行体、充電器、外部ストレージ、スピーカ、通信装置、及び情報処理装置を含むが、これらに限定されない。   The connector 14 is a terminal to which another device is connected. The connectors 14 are USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), MHL (Mobile High-definition Link), Light Peak (Light Peak), Therbolt (d), Therbolt (d), Therbolt (trademark) General-purpose terminals such as a LAN connector (Local Area Network connector) and an earphone microphone connector may be used. The connector 14 may be a dedicated terminal such as a dock connector. Examples of the device connected to the connector 14 include, but are not limited to, an aircraft, a charger, an external storage, a speaker, a communication device, and an information processing device.

加速度センサ15は、携帯端末1に作用する加速度の方向及び大きさを検出できる。実施形態の1つの例として、X軸方向、Y軸方向、及びZ軸方向の加速度を検出する3軸型の加速度センサ15を採用できる。加速度センサ15は、ピエゾ抵抗型、静電容量型、圧電素子型(圧電式)、熱検知型によるMEMS(Micro Electro Mechanical Systems)式、動作させた可動コイルをフィードバック電流により元に戻すサーボ式、あるいは歪みゲージ式などにより構成することができる。加速度センサ15は、検出結果をコントローラ10に送出する。コントローラ10は、加速度センサ15の検出結果に基づいて各種制御を実行できる。例えば、携帯端末1に作用している重力が加速度として加速度センサ15から出力されると、コントローラ10は、携帯端末1に作用する重力方向を反映した制御を実行できる。   The acceleration sensor 15 can detect the direction and magnitude of acceleration acting on the mobile terminal 1. As an example of the embodiment, a triaxial acceleration sensor 15 that detects acceleration in the X axis direction, the Y axis direction, and the Z axis direction can be employed. The acceleration sensor 15 includes a piezoresistive type, a capacitance type, a piezoelectric element type (piezoelectric type), a MEMS (Micro Electro Mechanical Systems) type based on a heat detection type, a servo type that returns an operated movable coil to its original state by a feedback current, Alternatively, a strain gauge type can be used. The acceleration sensor 15 sends the detection result to the controller 10. The controller 10 can execute various controls based on the detection result of the acceleration sensor 15. For example, when gravity acting on the mobile terminal 1 is output from the acceleration sensor 15 as acceleration, the controller 10 can execute control reflecting the direction of gravity acting on the mobile terminal 1.

方位センサ16は、地磁気の向きを検出できる。方位センサ16は、検出結果をコントローラ10に送出する。コントローラ10は、方位センサ16の検出結果に基づいて各種制御を実行できる。例えば、コントローラ10は、地磁気の向きから携帯端末1の向き(方位)を特定し、特定した携帯端末1の方位を反映した制御を実行できる。   The direction sensor 16 can detect the direction of geomagnetism. The direction sensor 16 sends the detection result to the controller 10. The controller 10 can execute various controls based on the detection result of the direction sensor 16. For example, the controller 10 can specify the direction (orientation) of the mobile terminal 1 from the direction of geomagnetism and execute control that reflects the orientation of the specified mobile terminal 1.

角速度センサ17は、携帯端末1の角速度を検出できる。角速度センサ17は、検出結果をコントローラ10に送出する。コントローラ10は、角速度センサ17の検出結果に基づいて各種制御を実行できる。例えば、コントローラ10は、角速度センサ17から出力される角速度の有無に基づいて、携帯端末1の回転を反映した制御を実現できる。   The angular velocity sensor 17 can detect the angular velocity of the mobile terminal 1. The angular velocity sensor 17 sends the detection result to the controller 10. The controller 10 can execute various controls based on the detection result of the angular velocity sensor 17. For example, the controller 10 can realize control reflecting the rotation of the mobile terminal 1 based on the presence or absence of the angular velocity output from the angular velocity sensor 17.

コントローラ10は、加速度センサ15、方位センサ16、及び角速度センサ17の各検出結果を個別に利用する場合に限定されず、各検出結果を組み合わせて利用することもできる。   The controller 10 is not limited to the case where the detection results of the acceleration sensor 15, the azimuth sensor 16, and the angular velocity sensor 17 are individually used, and the detection results can be used in combination.

気圧センサ18は、携帯端末1に作用する気圧を検出できる。気圧センサ18の検出結果は、単位時間あたりの気圧変化量を含んでよい。気圧変化量は、絶対値もしくはスカラー量を累積した値であってよい。単位時間は、任意の時間を設定してよい。気圧センサ18は、検出結果をコントローラ10に送出する。気圧センサ18は「気圧検出部」の一例である。   The atmospheric pressure sensor 18 can detect the atmospheric pressure acting on the mobile terminal 1. The detection result of the atmospheric pressure sensor 18 may include an amount of change in atmospheric pressure per unit time. The atmospheric pressure change amount may be an absolute value or a value obtained by accumulating a scalar amount. An arbitrary time may be set as the unit time. The atmospheric pressure sensor 18 sends the detection result to the controller 10. The atmospheric pressure sensor 18 is an example of a “barometric pressure detection unit”.

圧力センサ19は、携帯端末1に作用する圧力を検出できる。圧力センサ19は、複数の感圧素子を備えてよい。圧力センサ19は、コントローラ10が、圧力センサ19の検出結果に基づいて、携帯端末1に作用している圧力の範囲(例えば、圧力の分布)を特定するための情報を取得することもできる。   The pressure sensor 19 can detect the pressure acting on the mobile terminal 1. The pressure sensor 19 may include a plurality of pressure sensitive elements. The pressure sensor 19 can also acquire information for the controller 10 to specify a pressure range (for example, pressure distribution) acting on the mobile terminal 1 based on the detection result of the pressure sensor 19.

GPS受信機20は、GPS衛星からの所定の周波数帯の電波信号を受信できる。GPS受信機は、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。   The GPS receiver 20 can receive a radio signal in a predetermined frequency band from a GPS satellite. The GPS receiver demodulates the received radio signal and sends the processed signal to the controller 10.

携帯端末1は、バイブレータを備えてもよい。バイブレータは、携帯端末1の一部又は全体を振動させる。バイブレータは、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。携帯端末1は、上述のセンサの他、温度センサ、湿度センサ、圧力センサなどを備えてもよい。携帯端末1は、バッテリなど、携帯端末1の機能を維持するために当然に用いられる機能部、及び携帯端末1の制御を実現するために当然に用いられる検出部を実装する。   The mobile terminal 1 may include a vibrator. The vibrator vibrates a part or the whole of the mobile terminal 1. The vibrator includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration. The mobile terminal 1 may include a temperature sensor, a humidity sensor, a pressure sensor, and the like in addition to the sensors described above. The mobile terminal 1 is equipped with a function unit that is naturally used to maintain the functions of the mobile terminal 1 such as a battery, and a detection unit that is naturally used to control the mobile terminal 1.

図10は、実施形態に係る飛行体が有する機能構成の一例を示す図である。図10に示すように、飛行体100の本体110は、通信部121と、接続部122と、撮影制御部123と、動力制御部124と、センサユニット125と、記憶部126と、制御ユニット127とを備える。   FIG. 10 is a diagram illustrating an example of a functional configuration of the flying object according to the embodiment. As shown in FIG. 10, the main body 110 of the flying object 100 includes a communication unit 121, a connection unit 122, an imaging control unit 123, a power control unit 124, a sensor unit 125, a storage unit 126, and a control unit 127. With.

通信部121は、携帯端末1との間で各種データのやり取りに関する通信を実行する。通信部121は、例えば、携帯端末1との間で確立される近距離無線接続を介して通信する。   The communication unit 121 executes communication related to the exchange of various data with the mobile terminal 1. For example, the communication unit 121 communicates with the mobile terminal 1 via a short-range wireless connection established.

接続部122は、他の装置が接続される端子である。接続部122は、USBのような汎用的な端子であってよい。   The connection unit 122 is a terminal to which another device is connected. The connection unit 122 may be a general-purpose terminal such as a USB.

撮影制御部123は、カメラ190を用いた画像の撮影を制御する。撮影制御部123による制御は、カメラ190の撮影方向の制御を含む。   The shooting control unit 123 controls shooting of an image using the camera 190. The control by the shooting control unit 123 includes control of the shooting direction of the camera 190.

動力制御部124は、モータ140a〜140dの駆動力を制御する。モータ140aは回転翼150aの回転数を制御し、モータ140bは回転翼150bの回転数を制御し、モータ140cは回転翼150cの回転数を制御し、モータ140dは回転翼150dの回転数を制御する。   The power control unit 124 controls the driving force of the motors 140a to 140d. The motor 140a controls the rotation speed of the rotor blade 150a, the motor 140b controls the rotation speed of the rotor blade 150b, the motor 140c controls the rotation speed of the rotor blade 150c, and the motor 140d controls the rotation speed of the rotor blade 150d. To do.

センサユニット125は、飛行体100の飛行及び飛行体100に備えられる機器の制御などに用いるデータを検知する複数のセンサを含む。センサユニット125は、例えば、タッチセンサ125a及び距離画像センサ125bを含む。   The sensor unit 125 includes a plurality of sensors that detect data used for the flight of the flying object 100 and the control of equipment provided in the flying object 100. The sensor unit 125 includes, for example, a touch sensor 125a and a distance image sensor 125b.

タッチセンサ125aは、静電容量方式、抵抗膜方式、表面弾性波方式、超音波方式、赤外線方式、電磁誘導方式、又は荷重検出方式等の任意の方式のセンサを含む。飛行体100は、例えば、タッチセンサ125aの検出結果に基づいて、連結フレーム130が携帯端末1のユーザに掴まれたことを検知できる。タッチセンサ125aは、連結フレーム130の他、例えば、飛行装置100の本体110の外周部分など、携帯端末1のユーザが直接掴む可能性がある位置に配設してもよい。また、携帯端末1のユーザが飛行装置100を掴むための取手を飛行装置100に設け、当該取手にタッチセンサ125aを配設してもよい。タッチセンサ125aは、飛行体100に設けられるタッチセンサ125aの設置部分を挟みこむようにして配設されてよい。例えば、タッチセンサ125aは、シート状のタッチセンサ125aを上記設置部分に巻きつける方法、若しくは上記設置部分を挟みこむ位置に少なくとも2つのタッチセンサ125aを別々に固定する方法により配設されてよい。飛行体100は、タッチセンサ125aの検出結果に基づいて、例えば、上記設置部分を挟みこむそれぞれの位置でユーザの接触を検出すると、ユーザに掴まれたことを検知できる。   The touch sensor 125a includes a sensor of an arbitrary method such as a capacitance method, a resistance film method, a surface acoustic wave method, an ultrasonic method, an infrared method, an electromagnetic induction method, or a load detection method. For example, the flying object 100 can detect that the connection frame 130 is grasped by the user of the mobile terminal 1 based on the detection result of the touch sensor 125a. The touch sensor 125a may be disposed at a position where the user of the mobile terminal 1 may directly grab, for example, the outer periphery of the main body 110 of the flying device 100, in addition to the connection frame 130. Further, a handle for the user of the portable terminal 1 to hold the flying device 100 may be provided in the flying device 100, and the touch sensor 125a may be provided on the handle. The touch sensor 125a may be disposed so as to sandwich an installation portion of the touch sensor 125a provided on the flying object 100. For example, the touch sensor 125a may be provided by a method in which the sheet-like touch sensor 125a is wound around the installation part or a method in which at least two touch sensors 125a are separately fixed at a position sandwiching the installation part. Based on the detection result of the touch sensor 125a, the flying object 100 can detect that the user is grasped by detecting the user's contact at each position where the installation portion is sandwiched, for example.

距離画像センサ125bは、対象物に対して照射されるレーザ光などの光が対象物に反射して戻るまでの時間に基づいて対象物との距離を計測できる。距離画像センサ125bは、レーザ光を放射状に照射して、飛行体100の周囲にある物体の方向及び物体までの距離を計測してもよい。   The distance image sensor 125b can measure the distance to the object based on the time until the light such as laser light irradiated to the object is reflected by the object and returned. The distance image sensor 125b may irradiate laser light radially to measure the direction of an object around the flying object 100 and the distance to the object.

記憶部126は、プログラム及びデータを記憶できる。記憶部126は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的な記憶媒体を含んでよい。記憶部126は、メモリカード、光ディスク、又は光磁気ディスク等の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。記憶部126は、RAMなどの一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage unit 126 can store programs and data. The storage unit 126 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. The storage unit 126 may include a combination of a storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage unit 126 may include a storage device used as a temporary storage area such as a RAM.

記憶部126は、制御プログラム126a、制御用データ126b及び識別子データ126cを記憶できる。制御プログラム126aは、飛行体100の各種動作に関する処理を実現するための機能をそれぞれ提供できる。制御プログラム126aにより提供される機能は、飛行体100に備えられる機器の制御に関する機能を含む。機器の制御に関する機能は、通信部121と携帯端末1との間で近距離無線接続を確立してペアリングする機能、通信部121を介して携帯端末1と通信するための機能、撮影制御部123を介してカメラ190の画像撮影を制御するための機能を含む。携帯端末1と通信するための機能は、飛行体100に対して所定の接触が検出されたことを携帯端末1に通知することを含む。   The storage unit 126 can store a control program 126a, control data 126b, and identifier data 126c. The control program 126a can provide functions for realizing processing related to various operations of the flying object 100. The functions provided by the control program 126a include functions related to control of equipment provided in the aircraft 100. Functions related to device control include a function for establishing and pairing a short-range wireless connection between the communication unit 121 and the portable terminal 1, a function for communicating with the portable terminal 1 via the communication unit 121, and a photographing control unit. 123 includes a function for controlling the image capturing of the camera 190 via 123. The function for communicating with the portable terminal 1 includes notifying the portable terminal 1 that predetermined contact with the flying object 100 has been detected.

制御プログラム126aにより提供される機能は、センサユニット125の検出結果に基づいてモータ140a〜140dの駆動力を制御するための機能を含む。例えば、モータ140a〜140dの駆動力を制御するための機能は、タッチセンサ125aの検出結果に基づいて、飛行体100に対する所定の操作が検出された場合、モータを停止させることを含む。所定の操作は、例えば、連結フレーム130の少なくとも1箇所を掴むことを含む。   The function provided by the control program 126a includes a function for controlling the driving force of the motors 140a to 140d based on the detection result of the sensor unit 125. For example, the function for controlling the driving force of the motors 140a to 140d includes stopping the motor when a predetermined operation on the flying object 100 is detected based on the detection result of the touch sensor 125a. The predetermined operation includes, for example, grasping at least one position of the connection frame 130.

制御プログラム126aにより提供される機能は、センサユニット125の検出結果に基づいて飛行体100の飛行姿勢を調整するための機能を含む。   The functions provided by the control program 126a include a function for adjusting the flight attitude of the flying object 100 based on the detection result of the sensor unit 125.

制御プログラム126aにより提供される機能は、携帯端末1からの指示に従い、識別子データ126cに基づいて携帯端末1のユーザを探索し、距離画像センサ125bの計測結果に基づいて、飛行体100に装着されている携帯端末1のユーザまでの距離を算出して、算出した距離を携帯端末1に送信する機能を含む。   The function provided by the control program 126a searches for a user of the portable terminal 1 based on the identifier data 126c in accordance with an instruction from the portable terminal 1, and is mounted on the flying object 100 based on the measurement result of the distance image sensor 125b. A function of calculating a distance to the user of the mobile terminal 1 and transmitting the calculated distance to the mobile terminal 1.

制御プログラム126aにより提供される機能は、携帯端末1からの指示に従い、識別子データ126cに基づいて携帯端末1のユーザを探索し、ユーザが装着するウェアラブル端末から発信される電波強度に基づいて、飛行体100に装着されている携帯端末1のユーザまでの距離を算出して、算出した距離を携帯端末1に送信する機能を含む。   The function provided by the control program 126a searches for a user of the portable terminal 1 based on the identifier data 126c in accordance with an instruction from the portable terminal 1, and performs flight based on the radio wave intensity transmitted from the wearable terminal worn by the user. A function of calculating a distance to the user of the mobile terminal 1 attached to the body 100 and transmitting the calculated distance to the mobile terminal 1 is included.

制御プログラム126aにより提供される機能は、携帯端末1からの指示に従って飛行高度を調整する機能を含む。   The function provided by the control program 126a includes a function of adjusting the flight altitude according to an instruction from the mobile terminal 1.

制御プログラム126aにより提供される機能は、カメラ190の画像撮影を制御するための機能に含まれるフェイストラッキング機能及びオートフォーカス機能などを用いて、カメラの190と被写体(認証部位)との位置関係を微調整する機能を含む。例えば、制御プログラム126aにより提供される機能により、虹彩及び顔などの画像データを、認証処理を実行するために必要な解像度で取得できる。   The function provided by the control program 126a uses the face tracking function and the autofocus function included in the function for controlling the image shooting of the camera 190 to determine the positional relationship between the camera 190 and the subject (authentication site). Includes a fine-tuning function. For example, the function provided by the control program 126a can acquire image data such as an iris and a face at a resolution necessary for executing the authentication process.

制御プログラム126aにより提供される機能は、距離画像センサ125bの計測結果に基づいて、飛行体100の周囲にある物体との位置関係を示す情報を取得する機能、センサユニット125の検出結果に基づいて飛行体100の機首が向く方向のなす角度(方位)に関する方位情報、回転翼150a〜150dの中心位置を通る鉛直線を中心とする回転角に関する回転角度情報などを検出する機能を含んでよい。これらの機能に基づいて、制御プログラム126aは、飛行体100の飛行を制御できる。   The function provided by the control program 126a is based on the measurement result of the distance image sensor 125b, based on the detection result of the sensor unit 125, and the function of acquiring information indicating the positional relationship with objects around the flying object 100. It may include a function of detecting azimuth information related to an angle (azimuth) formed by the nose of the flying object 100, rotation angle information related to a rotation angle centered on a vertical line passing through the center position of the rotor blades 150a to 150d, and the like. . Based on these functions, the control program 126a can control the flight of the vehicle 100.

制御用データ126bは、飛行体100の各種動作に関する処理を実行するために参照される。   The control data 126b is referred to in order to execute processing relating to various operations of the flying object 100.

識別子データ126cは、携帯端末1のユーザがウェアラブル端末に一意に割り当てられる識別子のデータである。識別子データ126cは、携帯端末1が記憶するユーザ探索用データ9Cに含まれる識別子のデータに対応する。識別子データ126cは、携帯端末1から受信され、記憶部126に格納される。   The identifier data 126c is data of an identifier that is uniquely assigned to the wearable terminal by the user of the mobile terminal 1. The identifier data 126c corresponds to identifier data included in the user search data 9C stored in the mobile terminal 1. The identifier data 126 c is received from the mobile terminal 1 and stored in the storage unit 126.

制御ユニット127は、1又は複数の演算装置を含む。演算装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−Chip)、MCU(Micro Control Unit)、FPGA(Field−Programmable Gate Array)、およびコプロセッサを含むが、これらに限定されない。制御ユニット127は、制御プログラム126aを演算装置に実行させることにより、飛行体100の各種動作に関する処理を実現する。制御ユニット127は、制御プログラム126aにより提供される機能の少なくとも一部を専用のIC(Integrated Circuit)により実現してもよい。   The control unit 127 includes one or more arithmetic devices. The arithmetic unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-Chip), an MCU (Micro Control Unit), an FPGA (Field-Programmable Gate Array), and a coprocessor. Not. The control unit 127 realizes processing related to various operations of the flying object 100 by causing the arithmetic device to execute the control program 126a. The control unit 127 may realize at least a part of the functions provided by the control program 126a with a dedicated IC (Integrated Circuit).

図11は、実施形態に係る携帯端末の処理の一例を示すフローチャートである。図11に示す処理は、コントローラ10が、制御プログラム9A及び飛行体連携プログラム9Bを実行することにより実現される。   FIG. 11 is a flowchart illustrating an example of processing of the mobile terminal according to the embodiment. The processing shown in FIG. 11 is realized by the controller 10 executing the control program 9A and the flying object cooperation program 9B.

図11に示すように、コントローラ10は、飛行体100が飛行中であるかを判定する(ステップS101)。   As shown in FIG. 11, the controller 10 determines whether the flying object 100 is flying (step S101).

コントローラ10は、判定の結果、飛行体100が飛行中である場合(ステップS101,Yes)、所定のイベントが発生したかを判定する(ステップS102)。   If the result of determination is that the flying object 100 is in flight (step S101, Yes), the controller 10 determines whether a predetermined event has occurred (step S102).

コントローラ10は、判定の結果、所定のイベントが発生した場合(ステップS102,Yes)、セキュリティロック状態であるかを判定する(ステップS103)。   If a predetermined event occurs as a result of the determination (step S102, Yes), the controller 10 determines whether the security lock state is set (step S103).

コントローラ10は、判定の結果、セキュリティロック状態である場合(ステップS103,Yes)、飛行体100において計測されるユーザとの距離が閾値未満であるかを判定する(ステップS104)。ユーザは、飛行体100に搭載されている携帯端末1のユーザである。   When the controller 10 is in the security lock state as a result of the determination (step S103, Yes), the controller 10 determines whether the distance to the user measured in the flying object 100 is less than the threshold (step S104). The user is a user of the mobile terminal 1 mounted on the flying object 100.

コントローラ10は、判定の結果、ユーザとの距離が閾値未満である場合(ステップS104,Yes)、第1の認証方法を選択する(ステップS105)。   As a result of the determination, when the distance to the user is less than the threshold value (step S104, Yes), the controller 10 selects the first authentication method (step S105).

コントローラ10は、セキュリティロックを解除するため、ステップS105で選択された第1の認証方法による認証処理を実行して(ステップS106)、図11に示す処理を終了する。   In order to release the security lock, the controller 10 executes an authentication process by the first authentication method selected in step S105 (step S106), and ends the process shown in FIG.

上記ステップS104において、コントローラ10は、判定の結果、ユーザとの距離が閾値未満ではない場合(ステップS104,No)、第2の認証方法を選択する(ステップS107)。   In step S104, if the distance from the user is not less than the threshold value as a result of the determination (step S104, No), the controller 10 selects the second authentication method (step S107).

コントローラ10は、第2の認証方法を選択後、携帯端末1からの指示に基づいて高度調整処理を実行する(ステップS108)。   After selecting the second authentication method, the controller 10 executes altitude adjustment processing based on an instruction from the mobile terminal 1 (step S108).

コントローラ10は、高度調整処理を完了後、セキュリティロックを解除するため、ステップS107で選択した第2の認証方法による認証処理を実行して(ステップS109)、図11に示す処理を終了する。   After completing the altitude adjustment process, the controller 10 executes the authentication process by the second authentication method selected in step S107 in order to release the security lock (step S109), and ends the process shown in FIG.

上記ステップS103において、コントローラ10は、判定の結果、セキュリティロック状態ではない場合(ステップS103,No)、図11に示す処理を終了する。   In step S103, when the controller 10 is not in the security lock state as a result of the determination (No in step S103), the controller 10 ends the process illustrated in FIG.

上記ステップS102において、コントローラ10は、判定の結果、所定のイベントが発生していない場合(ステップS102,No)、図11に示す処理を終了する。   In step S102, if the result of determination is that a predetermined event has not occurred (step S102, No), the controller 10 ends the processing shown in FIG.

上記ステップS101において、コントローラ10は、判定の結果、飛行体100が飛行中ではない場合(ステップS101,No)、図11に示す処理を終了する。   In step S101, if the result of determination is that the flying object 100 is not in flight (step S101, No), the controller 10 ends the processing shown in FIG.

図12は、実施形態に係る高度調整処理の一例を示すフローチャートである。図12に示す処理は、コントローラ10が、制御プログラム9A及び飛行体連携プログラム9Bを実行することにより実現される。   FIG. 12 is a flowchart illustrating an example of the altitude adjustment process according to the embodiment. The process shown in FIG. 12 is realized by the controller 10 executing the control program 9A and the flying object cooperation program 9B.

図12に示すように、コントローラ10は、ユーザの姿勢を特定する(ステップS201)。   As shown in FIG. 12, the controller 10 specifies the user's posture (step S201).

コントローラ10は、認証実行高度設定テーブル9Lに基づいて、ステップS201で特定したユーザの姿勢に応じた認証実行高度を算出する(ステップS202)。   Based on the authentication execution altitude setting table 9L, the controller 10 calculates the authentication execution altitude corresponding to the user posture specified in step S201 (step S202).

コントローラ10は、気圧センサ18の検出結果に基づいて、現在の飛行体100(携帯端末1)の飛行高度を算出する(ステップS203)。コントローラ10は、動力制御部124の制御状況を参照して、自機が装着されている飛行体100が飛行を開始してから、どの程度上昇したかを推定し、飛行高度を算出してもよい。   The controller 10 calculates the flight altitude of the current flying object 100 (the portable terminal 1) based on the detection result of the atmospheric pressure sensor 18 (step S203). The controller 10 refers to the control status of the power control unit 124, estimates how much the aircraft 100 to which the aircraft 100 is attached has started flying, and calculates the flight altitude. Good.

コントローラ10は、ステップS202で算出した認証実行高度と、ステップS203で算出した現在の飛行高度とが一致するかを判定する(ステップS204)。   The controller 10 determines whether the authentication execution altitude calculated in step S202 matches the current flight altitude calculated in step S203 (step S204).

コントローラ10は、判定の結果、認証実行高度と現在の飛行高度とが一致する場合(ステップS204,Yes)、図12に示す処理を終了する。   If the authentication execution altitude matches the current flight altitude as a result of the determination (step S204, Yes), the controller 10 ends the process shown in FIG.

一方、コントローラ10は、判定の結果、認証実行高度と現在の飛行高度とが一致しない場合(ステップS204,No)、高度調整指示を飛行体100に送信して(ステップS205)、上記ステップS203の処理手順に戻る。   On the other hand, if the result of determination is that the authentication execution altitude does not match the current flight altitude (No at step S204), the controller 10 transmits an altitude adjustment instruction to the aircraft 100 (step S205), Return to the procedure.

上記の実施形態では、携帯端末1が搭載された飛行体100が、携帯端末1における所定のイベントの発生を契機として、携帯端末1とユーザとの距離に応じて、セキュリティロックを解除するための認証方法を選択することができる。携帯端末1は、例えば、携帯端末1がユーザの手元にあると判断できる場合は指紋認証を選択し、携帯端末1がユーザの手元にないと判断できる場合は虹彩認証、顔認証または音声認証を選択できる。このため、携帯端末1を搭載した飛行体100がユーザと離れていても、虹彩認証などの非接触型の認証処理を実行してセキュリティロックを解除できる。   In the above embodiment, the flying object 100 on which the mobile terminal 1 is mounted is used to release the security lock according to the distance between the mobile terminal 1 and the user when a predetermined event occurs in the mobile terminal 1. An authentication method can be selected. For example, the mobile terminal 1 selects fingerprint authentication when it can be determined that the mobile terminal 1 is at the user's hand, and performs iris authentication, face authentication or voice authentication when the mobile terminal 1 can be determined not to be at the user's hand. You can choose. For this reason, even if the flying object 100 equipped with the portable terminal 1 is away from the user, the security lock can be released by executing non-contact type authentication processing such as iris authentication.

上記の実施形態では、携帯端末1は、第2の認証方法を選択しているとき、ユーザの姿勢に応じて、第2の認証方法による認証を実行するための高度を設定できる。このため、認証処理に必要な画像データなどを取得しやすい。   In the above embodiment, when the second authentication method is selected, the mobile terminal 1 can set an altitude for executing authentication by the second authentication method according to the user's attitude. For this reason, it is easy to acquire image data and the like necessary for authentication processing.

上述してきたように、上記の実施形態は、飛行体100が有する飛行性能を応用する技術の改善手法の一例を提案できる。すなわち、上記の実施形態によれば、携帯端末1を飛行体100に搭載することにより、セキュリティロックの解除に関して、ユーザの利便性に寄与する付加価値をユーザに提供できる。   As described above, the above embodiment can propose an example of a technique improvement technique that applies the flight performance of the flying object 100. That is, according to the above embodiment, by mounting the mobile terminal 1 on the flying object 100, it is possible to provide the user with an added value that contributes to the convenience of the user regarding the release of the security lock.

上記の実施形態では、携帯端末1が選択する第1の認証方法の候補として指紋認証を例示するが、パスワード認証など、ユーザ接触型の認証方法であれば、任意の認証方法を採用できる。   In the above embodiment, fingerprint authentication is exemplified as a candidate for the first authentication method selected by the mobile terminal 1, but any authentication method can be adopted as long as it is a user contact type authentication method such as password authentication.

上記の実施形態では、携帯端末1が選択する第2の認証方法の候補として、虹彩認証、顔認証及び音声認証などを例示した。上記の実施形態において、携帯端末1が、虹彩認証及び顔認証の少なくとも一方による認証処理に失敗した場合に、音声認証を実行してもよい。   In the above embodiment, iris authentication, face authentication, voice authentication, and the like are exemplified as candidates for the second authentication method selected by the mobile terminal 1. In the above embodiment, voice authentication may be executed when the mobile terminal 1 fails in the authentication process by at least one of iris authentication and face authentication.

上記の実施形態において、携帯端末1が第2の認証方法として音声認証を実行する場合、方位センサ16の検出結果に基づいて、マイク8の方向をユーザの顔の方向に向けるように制御してもよい。   In the above embodiment, when the mobile terminal 1 performs voice authentication as the second authentication method, control is performed so that the direction of the microphone 8 is directed toward the user's face based on the detection result of the direction sensor 16. Also good.

上記の実施形態では、認証処理を実行するので、携帯端末1を飛行体100に搭載した状態で飛行させても安全性を担保できる。なお、上記の実施形態において、携帯端末1は、認証処理を実行するエリアを予め設定しておき、GPS受信機20などで取得される位置情報に基づいて該当エリアであると認定されるとき、認証処理を実行してもよい。   In the above embodiment, since the authentication process is executed, safety can be ensured even when the mobile terminal 1 is caused to fly while mounted on the flying object 100. In the above embodiment, when the mobile terminal 1 preliminarily sets an area for executing the authentication process and is recognized as the corresponding area based on position information acquired by the GPS receiver 20 or the like, An authentication process may be executed.

上記の実施形態において、携帯端末1が、飛行体100が有するセンサユニット125の検出結果を利用できるようにしてもよい。例えば、連結フレーム130に対する操作を介して指紋を取得する指紋センサをセンサユニット125に搭載し、取得した指紋データを携帯端末1に送信してもよい。例えば、携帯端末1は、距離画像センサ125bの計測結果に基づいて、ユーザから所定距離範囲に接近したかを直接判定してもよい。上記の実施形態において、携帯端末1が、飛行体100が有する距離画像センサ125bに対応するセンサを備え、自機に搭載されたセンサの検出結果に基づいてユーザとの距離を測定してもよい。上記の実施形態において、携帯端末1が有するコントローラ10が、飛行体100の飛行動力の制御を実行できるようにしてもよい。上記実施形態において、飛行体100は、携帯端末1が備える各センサの検出結果を利用できるようにしてもよい。例えば、飛行体100は、携帯端末1が備える方位センサ16の検出結果に基づいて、飛行体100の機首が向く方向のなす角度を計測してもよい。   In the above embodiment, the mobile terminal 1 may be able to use the detection result of the sensor unit 125 included in the flying object 100. For example, a fingerprint sensor that acquires a fingerprint through an operation on the connection frame 130 may be mounted on the sensor unit 125 and the acquired fingerprint data may be transmitted to the mobile terminal 1. For example, the mobile terminal 1 may directly determine whether the user has approached a predetermined distance range based on the measurement result of the distance image sensor 125b. In said embodiment, the portable terminal 1 is provided with the sensor corresponding to the distance image sensor 125b which the flying body 100 has, and may measure the distance with a user based on the detection result of the sensor mounted in the own aircraft. . In the above embodiment, the controller 10 included in the mobile terminal 1 may be able to execute control of the flying power of the flying object 100. In the above embodiment, the flying object 100 may be able to use the detection results of the sensors included in the mobile terminal 1. For example, the flying object 100 may measure the angle formed by the direction in which the nose of the flying object 100 faces based on the detection result of the direction sensor 16 provided in the mobile terminal 1.

上記の実施形態では、携帯端末1と飛行体100とを近距離無線接続を確立してペアリングすることにより、携帯端末1と飛行体100との間の通信が可能な状態に接続される例を説明したが、携帯端末1と飛行体100とをケーブルなどによって電気的に接続することにより通信可能な状態としてもよい。   In the above embodiment, the portable terminal 1 and the flying object 100 are connected in a state where communication between the portable terminal 1 and the flying object 100 is possible by establishing a short-range wireless connection and pairing. However, the mobile terminal 1 and the flying object 100 may be in a communicable state by being electrically connected by a cable or the like.

携帯端末1は、飛行中にセキュリティロックが解除されると、飛行中でないと検知するまで、再びセキュリティロック状態に設定しなくてもよい。携帯端末1は、飛行中にセキュリティロックを解除した後、飛行中でないと検知すると、再びセキュリティロック状態になるよう設定されてよい。このような携帯端末1は、飛行中において一度セキュリティロックが解除されれば、飛行中でないと検知するまでセキュリティロック状態になることがないので、ユーザは、携帯端末1の飛行中にセキュリティロック解除操作を何度もおこなうことなく飛行中の携帯端末1を操作することができる。また、携帯端末1は、飛行中でないと検知すると再びセキュリティロック状態になるため、ある程度のセキュリティレベルを担保することができる。   When the security lock is released during the flight, the mobile terminal 1 does not need to be set again to the security lock state until it is detected that the flight is not in flight. The portable terminal 1 may be set so as to be in the security lock state again when it is detected that it is not in flight after releasing the security lock during flight. Since such a portable terminal 1 does not enter a security locked state until it is detected that it is not in flight once the security lock is released during the flight, the user releases the security lock during the flight of the portable terminal 1. The mobile terminal 1 in flight can be operated without performing the operation many times. Moreover, since the portable terminal 1 will be in a security lock state again, if it detects that it is not in flight, it can ensure a certain security level.

携帯端末1は、飛行中にセキュリティロックが解除されると、所定の操作指示を受け付けない状態が続いたとしても、飛行中でないと検知するまで、スリープ状態とならないようにしてもよい。携帯端末1は、飛行中にセキュリティロックを解除した後、飛行中でないと検知するとスリープ状態になるよう設定されてよい。このような携帯端末1は、飛行中において一度セキュリティロックが解除されれば、飛行中でないと検知するまでスリープ状態になることがないので、ユーザは、携帯端末1の飛行中にスリープ状態から復帰させる操作を行うことなく飛行中の携帯端末1を操作することができる。スリープ状態は、例えば、ディスプレイ2Aのバックライトを消灯する等、一部の機能を制限する省電力モードを含む。   When the security lock is released during the flight, the portable terminal 1 may not be in the sleep state until it is detected that the predetermined operation instruction is not received even if the state where the predetermined operation instruction is not received continues. The portable terminal 1 may be set to sleep when it detects that it is not in flight after releasing the security lock during flight. Since such a portable terminal 1 does not enter a sleep state until it is detected that it is not in flight once the security lock is released during the flight, the user returns from the sleep state during the flight of the portable terminal 1. It is possible to operate the mobile terminal 1 in flight without performing the operation. The sleep state includes a power saving mode that restricts some functions such as turning off the backlight of the display 2A.

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記の実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be embodied by a possible configuration.

1 携帯端末
2A ディスプレイ
2B タッチスクリーン
2 タッチスクリーンディスプレイ
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B 飛行体連携プログラム
9C ユーザ探索用データ
9D 指紋認証アプリケーション
9E 虹彩認証アプリケーション
9F 顔認証アプリケーション
9G 音声認証アプリケーション
9H 指紋認証用データ
9I 虹彩認証用データ
9J 顔認証用データ
9K 音声認証用データ
9L 認証実行高度設定テーブル
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 角速度センサ
18 気圧センサ
19 圧力センサ
20 GPS受信機
DESCRIPTION OF SYMBOLS 1 Mobile terminal 2A Display 2B Touch screen 2 Touch screen display 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Receiver 8 Microphone 9 Storage 9A Control program 9B Aircraft cooperation program 9C User search data 9D Fingerprint authentication application 9E Iris authentication application 9F Face authentication application 9G Voice authentication application 9H Fingerprint authentication data 9I Iris authentication data 9J Face authentication data 9K Voice authentication data 9L Authentication execution altitude setting table 9Z Setting data 10 Controller 11 Speaker 12 Camera 13 Camera 14 Connector 15 Acceleration sensor 16 Direction sensor 17 Angular velocity sensor 18 Barometric pressure sensor 19 Pressure sensor 20 GPS receiver

Claims (6)

飛行装置に着脱可能に装着される携帯電子機器であって、
前記飛行装置と通信する通信部と、
自機が装着された前記飛行装置が飛行中であるかを判定し、判定の結果、前記飛行装置が飛行中であるときに所定の機能を実行する制御部と、を備え、
前記制御部は、
所定のイベントが発生すると、自機のユーザまでの距離を計測し、
前記距離が閾値未満である場合、第1の認証方法により認証処理を実行し、
前記距離が閾値以上である場合、第2の認証方法により認証処理を実行する携帯電子機器。
A portable electronic device that is detachably attached to a flying device,
A communication unit communicating with the flying device;
A controller that determines whether or not the flying device equipped with the aircraft is in flight, and executes a predetermined function when the flying device is in flight as a result of the determination; and
The controller is
When a predetermined event occurs, measure the distance to the user of the aircraft,
If the distance is less than the threshold value, an authentication process is executed by the first authentication method,
A portable electronic device that executes an authentication process by the second authentication method when the distance is greater than or equal to a threshold.
ユーザの身体的特徴に関するユーザ情報を記憶するストレージをさらに備え、
前記制御部は、
前記第2の認証方法により認証処理を実行する場合、前記ユーザ情報に基づいて前記飛行装置の飛行高度が所定の高さに調整されるように、前記飛行装置に対して指示する信号を送信する請求項1に記載の携帯電子機器。
A storage for storing user information related to the user's physical characteristics;
The controller is
When executing the authentication process by the second authentication method, a signal instructing the flying device is transmitted so that the flight altitude of the flying device is adjusted to a predetermined height based on the user information. The portable electronic device according to claim 1.
前記第1の認証方法は、指紋認証を含み、
前記第2の認証方法は、虹彩認証、顔認証及び音声認証の少なくとも1つを含む請求項1又は2に記載の携帯電子機器。
The first authentication method includes fingerprint authentication;
The portable electronic device according to claim 1 or 2, wherein the second authentication method includes at least one of iris authentication, face authentication, and voice authentication.
前記制御部は、前記飛行装置が飛行中であるときに、前記認証処理を実行した結果、セキュリティロックが解除されると、前記飛行装置が飛行中でないと判定するまで、再びセキュリティロック状態としない、請求項1乃至3のいずれか1項に記載の携帯電子機器。   When the security lock is released as a result of executing the authentication process when the flying device is in flight, the control unit does not enter the security lock state again until it is determined that the flying device is not in flight. The portable electronic device according to any one of claims 1 to 3. 前記制御部は、前記飛行装置が飛行中であるときに、前記認証処理を実行した結果、セキュリティロックが解除されると、前記飛行装置が飛行中でないと判定するまで、スリープ状態としない、請求項1乃至4のいずれか1項に記載の携帯電子機器。   If the security lock is released as a result of executing the authentication process when the flying device is in flight, the control unit does not enter a sleep state until it is determined that the flying device is not in flight. Item 5. The portable electronic device according to any one of Items 1 to 4. 飛行装置と、前記飛行装置に着脱可能に装着される携帯電子機器と、を含むセキュリティシステムであって、
前記携帯電子機器は、
前記飛行装置と通信する通信部と、
気圧検出部と、
前記気圧検出部の検出結果に基づいて、自機が装着された前記飛行装置が飛行中であるかを判定し、判定の結果、前記飛行装置が飛行中であるときに所定の機能を実行する制御部と、を備え、
前記制御部は、
所定のイベントが発生すると、自機のユーザまでの距離を計測し、
前記距離が閾値未満である場合、第1の認証方法により認証処理を実行し、
前記距離が閾値以上である場合、第2の認証方法により認証処理を実行する、セキュリティシステム。
A security system including a flying device and a portable electronic device detachably attached to the flying device,
The portable electronic device is
A communication unit communicating with the flying device;
An atmospheric pressure detector;
Based on the detection result of the atmospheric pressure detection unit, it is determined whether the flying device on which the aircraft is mounted is in flight, and the predetermined function is executed when the flying device is in flight as a result of the determination. A control unit,
The controller is
When a predetermined event occurs, measure the distance to the user of the aircraft,
If the distance is less than the threshold value, an authentication process is executed by the first authentication method,
A security system that executes an authentication process by a second authentication method when the distance is equal to or greater than a threshold.
JP2017145921A 2017-07-27 2017-07-27 Portable electronic device and security system Active JP6703507B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017145921A JP6703507B2 (en) 2017-07-27 2017-07-27 Portable electronic device and security system
PCT/JP2018/026986 WO2019021915A1 (en) 2017-07-27 2018-07-18 Aircraft, portable electronic instrument, security system, and telephone system
US16/750,706 US10948908B2 (en) 2017-07-27 2020-01-23 Unmanned aerial vehicle and mobile electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017145921A JP6703507B2 (en) 2017-07-27 2017-07-27 Portable electronic device and security system

Publications (2)

Publication Number Publication Date
JP2019026022A true JP2019026022A (en) 2019-02-21
JP6703507B2 JP6703507B2 (en) 2020-06-03

Family

ID=65477460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017145921A Active JP6703507B2 (en) 2017-07-27 2017-07-27 Portable electronic device and security system

Country Status (1)

Country Link
JP (1) JP6703507B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023051693A (en) * 2021-09-30 2023-04-11 Kddi株式会社 Communication terminal, management system, and communication control method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140297067A1 (en) * 2012-08-02 2014-10-02 Benjamin Malay Vehicle control system
US20160376004A1 (en) * 2015-03-16 2016-12-29 XCraft Enterprises, LLC Unmanned aerial vehicle with detachable computing device
CN206171830U (en) * 2016-09-23 2017-05-17 珠海格力电器股份有限公司 Aircraft and system of taking photo by plane
US20170201614A1 (en) * 2014-11-27 2017-07-13 Purdue Research Foundation Mobile device enabled robotic system
WO2017208355A1 (en) * 2016-05-31 2017-12-07 株式会社オプティム Unmanned aircraft flight control application and unmanned aircraft flight control method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140297067A1 (en) * 2012-08-02 2014-10-02 Benjamin Malay Vehicle control system
US20170201614A1 (en) * 2014-11-27 2017-07-13 Purdue Research Foundation Mobile device enabled robotic system
US20160376004A1 (en) * 2015-03-16 2016-12-29 XCraft Enterprises, LLC Unmanned aerial vehicle with detachable computing device
WO2017208355A1 (en) * 2016-05-31 2017-12-07 株式会社オプティム Unmanned aircraft flight control application and unmanned aircraft flight control method
CN206171830U (en) * 2016-09-23 2017-05-17 珠海格力电器股份有限公司 Aircraft and system of taking photo by plane

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023051693A (en) * 2021-09-30 2023-04-11 Kddi株式会社 Communication terminal, management system, and communication control method

Also Published As

Publication number Publication date
JP6703507B2 (en) 2020-06-03

Similar Documents

Publication Publication Date Title
KR20160045269A (en) Wearable device and mobile terminal for supporting communication with the device
JP6713960B2 (en) Portable electronic devices, air vehicles and telephone systems
CN106101776B (en) Method, smart machine and the speaker of volume adjustment
KR101618783B1 (en) A mobile device, a method for controlling the mobile device, and a control system having the mobile device
JP2016511875A (en) Image thumbnail generation method, apparatus, terminal, program, and recording medium
WO2014176901A1 (en) Method, device and storage medium for starting application in electronic apparatus
US20170048379A1 (en) Mobile electronic device, control method, and non-transitory storage medium
JP6703507B2 (en) Portable electronic device and security system
JP6141352B2 (en) Electronic equipment and control program
US20190069136A1 (en) Electronic device and system
US10948908B2 (en) Unmanned aerial vehicle and mobile electronic device
KR20210040759A (en) Mobile terminal
JP6261546B2 (en) Portable device, control method and control program
KR20150106535A (en) Mobile terminal and controlling method thereof
JP2016092476A (en) Electronic apparatus, control method, and control program
KR20150114826A (en) Mobile terminal and method for controlling the same
KR20150145550A (en) Mobile terminal
JP6062484B2 (en) Electronic device, control method, and control program
JP2016136351A (en) Electronic apparatus and control method
JP6789189B2 (en) Aircraft and portable electronics
KR20170014904A (en) Wearable device and method for controlling the same
KR20160032915A (en) Mobile terminal
JP2017022535A (en) Electronic apparatus, control method, and control program
KR20160036394A (en) Mobile terminal and screen unlocking method thereof
JP2016092440A (en) Mobile terminal and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200204

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200204

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200508

R150 Certificate of patent or registration of utility model

Ref document number: 6703507

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150