JP6570002B1 - Call system - Google Patents

Call system Download PDF

Info

Publication number
JP6570002B1
JP6570002B1 JP2018082789A JP2018082789A JP6570002B1 JP 6570002 B1 JP6570002 B1 JP 6570002B1 JP 2018082789 A JP2018082789 A JP 2018082789A JP 2018082789 A JP2018082789 A JP 2018082789A JP 6570002 B1 JP6570002 B1 JP 6570002B1
Authority
JP
Japan
Prior art keywords
call
flying device
processing unit
voice data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018082789A
Other languages
Japanese (ja)
Other versions
JP2019193054A (en
Inventor
功太郎 千葉
功太郎 千葉
稔 中畑
稔 中畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Drone IPLab Inc
Original Assignee
Drone IPLab Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Drone IPLab Inc filed Critical Drone IPLab Inc
Priority to JP2018082789A priority Critical patent/JP6570002B1/en
Priority to JP2019139077A priority patent/JP6945149B2/en
Application granted granted Critical
Publication of JP6570002B1 publication Critical patent/JP6570002B1/en
Publication of JP2019193054A publication Critical patent/JP2019193054A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】観察者が被観察者と容易にコミュニケーションを取ることができる通話システムを提供する。【解決手段】通話システムは、第1のマイクおよび第1のスピーカを有する携帯端末20と、第2のマイクおよび第2のスピーカを有する飛行装置10と、を備える。携帯端末は、通話相手の近傍まで飛行装置を飛行させるように制御する飛行制御部と、第1のマイクが集音した第1の音声データを飛行装置に送信し、飛行装置から送信される第2の音声データを受信して第1のスピーカから出力する第1の通話処理部と、を備える。飛行装置は、第2のマイクが集音した第2の音声データを携帯端末に送信し、携帯端末から送信される第1の音声データを受信して第2のスピーカから出力する第2の通話処理部を備える。【選択図】図1The present invention provides a call system in which an observer can easily communicate with an observer. A call system includes a mobile terminal having a first microphone and a first speaker, and a flying device having a second microphone and a second speaker. The portable terminal transmits the first voice data collected by the flight control unit that controls the flying device to fly to the vicinity of the other party and the first microphone, and is transmitted from the flying device. A first call processing unit that receives the second audio data and outputs the second audio data from the first speaker. The flying device transmits the second voice data collected by the second microphone to the portable terminal, receives the first voice data transmitted from the portable terminal, and outputs the second voice data from the second speaker. A processing unit is provided. [Selection] Figure 1

Description

本発明は、通話システムに関する。   The present invention relates to a call system.

飛行装置を用いて被観察者の状況を観察することが行われている。例えば特許文献1には、被追尾対象を特定して追尾する飛行型カメラシステムが開示されている。   Observing the condition of the person being observed using a flying device is performed. For example, Patent Document 1 discloses a flying camera system that specifies and tracks a tracking target.

特開2017−185928号公報JP 2017-185928 A

被観察者の状況によっては観察者が被観察者とコミュニケーションを取りたいことがある。しかしながら、特許文献1に記載のシステムでは、被追尾対象を撮影することはできるものの、観察者側から被追尾対象に対してどのようにコミュニケーションを取ることができるかの示唆は存在しない。   Depending on the situation of the observer, the observer may want to communicate with the observer. However, in the system described in Patent Document 1, although the tracked target can be photographed, there is no suggestion on how the observer can communicate with the tracked target.

本発明はこのような背景を鑑みてなされたものであり、観察者が被観察者と容易にコミュニケーションを取ることのできる通話システムを提供することを目的とする。   The present invention has been made in view of such a background, and an object of the present invention is to provide a call system in which an observer can easily communicate with an observer.

上記課題を解決するための本発明の主たる発明は、通話システムであって、第1のマイクおよび第1のスピーカを有する携帯端末と、第2のマイクおよび第2のスピーカを有する飛行装置と、を備え、前記携帯端末は、通話相手の近傍まで前記飛行装置を飛行させるように制御する飛行制御部と、前記第1のマイクが集音した第1の音声データを前記飛行装置に送信し、前記飛行装置から送信される第2の音声データを受信して前記第1のスピーカから出力する第1の通話処理部と、を備え、前記飛行装置は、前記第2のマイクが集音した前記第2の音声データを前記携帯端末に送信し、前記携帯端末から送信される前記第1の音声データを受信して前記第2のスピーカから出力する第2の通話処理部を備えること、を特徴とする通話システムとする。   A main invention of the present invention for solving the above problems is a call system, a portable terminal having a first microphone and a first speaker, a flying device having a second microphone and a second speaker, The portable terminal transmits to the flying device a flight control unit that controls the flying device to fly to the vicinity of a call partner, and first voice data collected by the first microphone; A first call processing unit that receives second audio data transmitted from the flying device and outputs the second voice data from the first speaker, wherein the flying device collects sound from the second microphone. A second call processing unit that transmits second voice data to the portable terminal, receives the first voice data transmitted from the portable terminal, and outputs the first voice data from the second speaker; Call system To.

その他本願が開示する課題やその解決方法については、発明の実施形態の欄及び図面により明らかにされる。   Other problems and solutions to be disclosed by the present application will be made clear by the embodiments of the invention and the drawings.

本発明によれば、観察者が被観察者と容易にコミュニケーションを取ることができる。   According to the present invention, an observer can easily communicate with an observer.

本発明の一実施形態に係る通話システムの全体構成を示す図である。It is a figure showing the whole telephone system composition concerning one embodiment of the present invention. 飛行装置10のハードウェア構成例を示す図である。2 is a diagram illustrating a hardware configuration example of a flying device 10. FIG. フライトコントローラ11のソフトウェア構成例を示す図である。FIG. 3 is a diagram illustrating a software configuration example of a flight controller 11. ユーザ端末20のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the user terminal 20. FIG. ユーザ端末20のソフトウェア構成例を示す図である。FIG. 3 is a diagram illustrating a software configuration example of a user terminal 20. 本実施形態に係る通話システムにおいて実行される処理の流れを説明する図である。It is a figure explaining the flow of the process performed in the telephone system which concerns on this embodiment. 飛行装置10が表示装置120を備える場合の飛行装置10の構成例を示す図である。It is a figure which shows the structural example of the flying apparatus 10 in case the flying apparatus 10 is provided with the display apparatus 120. FIG. 飛行装置10が表示装置120を備える場合のフライトコントリーラ11の構成例を示す図である。It is a figure which shows the structural example of the flight controller 11 in case the flight apparatus 10 is provided with the display apparatus 120. FIG. 飛行装置10が表示装置120を備える場合のユーザ端末20のソフトウェア構成例を示す図である。It is a figure which shows the software structural example of the user terminal 20 in case the flight apparatus 10 is provided with the display apparatus 120. FIG.

本発明の実施形態の内容を列記して説明する。本発明の実施の形態による飛行体は、以下のような構成を備える。   The contents of the embodiment of the present invention will be listed and described. An aircraft according to an embodiment of the present invention has the following configuration.

[項目1]
第1のマイクおよび第1のスピーカを有する携帯端末と、
第2のマイクおよび第2のスピーカを有する飛行装置と、
を備え、
前記携帯端末は、
通話相手の近傍まで前記飛行装置を飛行させるように制御する飛行制御部と、
前記第1のマイクが集音した第1の音声データを前記飛行装置に送信し、前記飛行装置から送信される第2の音声データを受信して前記第1のスピーカから出力する第1の通話処理部と、を備え、
前記飛行装置は、
前記第2のマイクが集音した前記第2の音声データを前記携帯端末に送信し、前記携帯端末から送信される前記第1の音声データを受信して前記第2のスピーカから出力する第2の通話処理部を備えること、
を特徴とする通話システム。
[Item 1]
A portable terminal having a first microphone and a first speaker;
A flying device having a second microphone and a second speaker;
With
The portable terminal is
A flight control unit for controlling the flying device to fly to the vicinity of the other party,
A first call that transmits first sound data collected by the first microphone to the flying device, receives second sound data transmitted from the flying device, and outputs the second sound data from the first speaker. A processing unit,
The flying device is
The second audio data collected by the second microphone is transmitted to the mobile terminal, the first audio data transmitted from the mobile terminal is received, and the second audio data is output from the second speaker. A telephone call processing unit,
Call system characterized by.

[項目2]
項目1に記載の通話システムであって、
前記飛行装置は、
カメラと、
前記カメラが撮影した画像を前記携帯端末に送信する画像送信部と、
をさらに備えることを特徴とする通話システム。
[Item 2]
The call system according to item 1, wherein
The flying device is
A camera,
An image transmission unit that transmits an image captured by the camera to the mobile terminal;
A call system characterized by further comprising:

[項目3]
項目1に記載の通話システムであって、
前記第2の音声送信部は、前記第2の音声データから特徴量を抽出し、所定の前記特徴量を抽出できた場合に、前記携帯端末のユーザに対してメッセージを送信し、
前記第1の音声受信部は、前記メッセージに応じて前記携帯端末のユーザに対して注意喚起のための画像または音声を出力すること、
を特徴とする通話システム。
[Item 3]
The call system according to item 1, wherein
The second voice transmission unit extracts a feature amount from the second voice data, and when a predetermined feature amount can be extracted, transmits a message to the user of the portable terminal,
The first sound receiving unit outputs an image or sound for alerting a user of the mobile terminal in response to the message;
Call system characterized by.

[項目4]
項目1に記載の通話システムであって、
前記携帯端末は、前記通話相手の呼出し用の前記第1の音声データである呼出し音声データを作成し、前記呼び出し音性データを前記飛行装置に送信する第1の呼出し処理部をさらに備え、
前記飛行装置は、前記呼出し音声データを受信し、受信した前記呼出し音声データを前記第2のスピーカから出力する第2の呼出し処理部をさらに備えること、
を特徴とする通話システム。
[Item 4]
The call system according to item 1, wherein
The portable terminal further includes a first call processing unit that creates call voice data that is the first voice data for calling the other party and transmits the ringing tone data to the flying device;
The flying device further includes a second call processing unit that receives the call voice data and outputs the received call voice data from the second speaker.
Call system characterized by.

[項目5]
項目4に記載の通話システムであって、
前記飛行装置は、前記第2の音声データに基づいて前記通話相手の認証を行う認証処理部をさらに備えること、
を特徴とする通話システム。
[Item 5]
The call system according to item 4, wherein
The flying device further includes an authentication processing unit that authenticates the other party based on the second voice data;
Call system characterized by.

[項目6]
項目5に記載の通話システムであって、
前記第2の呼出し処理部は、前記認証処理部が前記通話相手の認証に成功するまで、前記呼出し音声データを前記第2のスピーカから出力すること、
を特徴とする通話システム。
[Item 6]
The call system according to item 5, wherein
The second call processing unit outputs the call voice data from the second speaker until the authentication processing unit succeeds in authenticating the call partner.
Call system characterized by.

[項目7]
項目4に記載の通話システムであって、
前記飛行装置は、情報を表示する表示装置を備え、
前記第1の呼出し処理部は、前記通話相手の呼出し用の画像を前記飛行装置に送信し、
前記第2の呼出し処理部は、前記呼出し用の画像を受信し、受信した前記呼出し用の画像を前記表示装置に表示すること、
を特徴とする通話システム。
[Item 7]
The call system according to item 4, wherein
The flying device includes a display device for displaying information,
The first call processing unit transmits an image for calling the other party to the flying device,
The second call processing unit receives the call image and displays the received call image on the display device;
Call system characterized by.

==概要・全体構成==
図1は、本発明の一実施形態に係る通話システムの全体構成を示す図である。
本実施形態の通話システムは、飛行装置10が備えるカメラ12を用いて監視者2が被監視者1を遠隔から監視するとともに、飛行装置10が備えるマイク15およびスピーカ16を用いて被監視者1と監視者2との間で通話を行うことができるようにしている。飛行装置10とユーザ端末20とは、例えば、WiFiやBlueTooth(登録商標)などのプロトコルに従う無線通信路30を介して互いに通信可能に接続される。
== Overview / Overall structure ==
FIG. 1 is a diagram showing an overall configuration of a call system according to an embodiment of the present invention.
In the call system of the present embodiment, the monitor 2 remotely monitors the monitored person 1 using the camera 12 provided in the flying device 10, and the monitored person 1 using the microphone 15 and the speaker 16 provided in the flying device 10. And the supervisor 2 can make a call. The flying device 10 and the user terminal 20 are connected so as to be communicable with each other via a wireless communication path 30 according to a protocol such as WiFi or BlueTooth (registered trademark).

(飛行装置10)
図2は、飛行装置10のハードウェア構成例を示す図である。飛行装置10は、プロペラ19と、プロペラ19にESC(Electronic Speed Controller)17を介して接続された推進機構(本実施形態ではモータ18を想定する。)と、これらを制御するフライトコントローラ11とを備える。
(Flying device 10)
FIG. 2 is a diagram illustrating a hardware configuration example of the flying device 10. The flying device 10 includes a propeller 19, a propulsion mechanism connected to the propeller 19 via an ESC (Electronic Speed Controller) 17 (in this embodiment, a motor 18 is assumed), and a flight controller 11 that controls them. Prepare.

フライトコントローラ11は、プログラマブルプロセッサ(本実施形態では、中央演算処理装置(CPU)を想定する。)などの1つ以上のプロセッサ101を有することができる。   The flight controller 11 can include one or more processors 101 such as a programmable processor (in this embodiment, a central processing unit (CPU) is assumed).

カメラ12は、ジンバル13を介して機体に装備され、ジンバル13によって、例えば、機体に対して上下方向に回転することができる。好ましくは、機体に対して3軸方向(ピッチ角、ロール角、ヨー角)に回転できることが好ましい。また、図2の例では、飛行装置10はカメラ12を1台だけ備える構成を示しているが、2台以上のカメラを備える構成であってもよい。また、カメラ12に代えて、またはカメラ12に加えて、人感センサーなどの各種のセンサを設けるようにしてもよい。   The camera 12 is mounted on the airframe via the gimbal 13 and can be rotated by the gimbal 13 in the vertical direction with respect to the airframe, for example. Preferably, it is possible to rotate in three axis directions (pitch angle, roll angle, yaw angle) with respect to the airframe. In the example of FIG. 2, the flying device 10 is configured to include only one camera 12, but may be configured to include two or more cameras. Further, instead of the camera 12 or in addition to the camera 12, various sensors such as a human sensor may be provided.

マイク15およびスピーカ16は機体に固定される。なお、マイク15およびスピーカ16についても、カメラ12と同様にジンバル13を介して機体に取り付けるようにしてもよい。   The microphone 15 and the speaker 16 are fixed to the body. Note that the microphone 15 and the speaker 16 may be attached to the airframe via the gimbal 13 in the same manner as the camera 12.

フライトコントローラ11は、メモリ102を有しており、当該メモリ102にアクセス可能である。メモリ102は、1つ以上のステップを行うためにフライトコントローラ11が実行可能であるロジック、コード、および/またはプログラム命令を記憶する。メモリ102は、例えば、SDカードやランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。カメラ12やセンサなどから取得したデータは、メモリ102に直接に伝達されかつ記憶されてもよい。   The flight controller 11 has a memory 102 and can access the memory 102. Memory 102 stores logic, code, and / or program instructions that are executable by flight controller 11 to perform one or more steps. The memory 102 may include a separable medium such as an SD card or a random access memory (RAM) or an external storage device. Data acquired from the camera 12, sensor, or the like may be directly transmitted to and stored in the memory 102.

フライトコントローラ11はまた、各種のセンサ類103を備える。本実施形態においてセンサ類103は、例えば、慣性センサ(加速度センサ、ジャイロセンサ)、GPS(Global Positioning System)センサ、近接センサ(例えば、ライダー)、またはビジョン/イメージセンサ(例えば、カメラ)を含み得る。   The flight controller 11 also includes various sensors 103. In this embodiment, the sensors 103 may include, for example, an inertial sensor (acceleration sensor, gyro sensor), a GPS (Global Positioning System) sensor, a proximity sensor (eg, a rider), or a vision / image sensor (eg, a camera). .

フライトコントローラ11は、1つ以上の外部のデバイス(例えば、送受信機(プロポ)、端末、表示装置、または他の遠隔の制御器などである。本実施形態ではユーザ端末20を想定する。)からのデータを送信および/または受け取るように構成された送受信部14と通信可能である。送受信機14は、有線通信または無線通信などの任意の適当な通信手段を使用することができる。本実施形態では、送受信部14は、主に管理サーバ30と通信を行い、必要に応じて監視端末40とも通信を行う。送受信部14は、例えば、ローカルエリアネットワーク(Local Area Network;LAN)、ワイドエリアネットワーク(Wide Area Network;WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用することができる。送受信部14は、センサ類で取得したデータ、フライトコントローラが生成した処理結果、所定の制御データ、端末または遠隔の制御器からのユーザコマンドなどのうちの1つ以上を送信および/または受け取ることもできる。   The flight controller 11 is from one or more external devices (for example, a transmitter / receiver (propo), a terminal, a display device, or other remote controller. In this embodiment, the user terminal 20 is assumed). Can be communicated with the transceiver 14 configured to transmit and / or receive data. The transceiver 14 can use any appropriate communication means such as wired communication or wireless communication. In the present embodiment, the transmission / reception unit 14 mainly communicates with the management server 30 and also communicates with the monitoring terminal 40 as necessary. The transmission / reception unit 14 is, for example, a local area network (LAN), a wide area network (WAN), infrared, wireless, WiFi, point-to-point (P2P) network, telecommunication network, cloud communication, etc. One or more of these can be used. The transmission / reception unit 14 may transmit and / or receive one or more of data acquired by sensors, a processing result generated by the flight controller, predetermined control data, a user command from a terminal or a remote controller, and the like. it can.

図3は、フライトコントローラ11のソフトウェア構成例を示す図である。フライトコントローラ11は、指示受信部111、飛行制御部112、現在位置取得部113、呼出し処理部114、トリガー検出部115、撮影処理部116、通話処理部117、現在位置記憶部151、呼出し音声記憶部152、認証特徴量記憶部153およびトリガー特徴量記憶部154を備える。   FIG. 3 is a diagram illustrating a software configuration example of the flight controller 11. The flight controller 11 includes an instruction receiving unit 111, a flight control unit 112, a current position acquisition unit 113, a call processing unit 114, a trigger detection unit 115, a photographing processing unit 116, a call processing unit 117, a current position storage unit 151, and a call voice storage. Unit 152, authentication feature amount storage unit 153, and trigger feature amount storage unit 154.

なお、指示受信部111、飛行制御部112、現在位置取得部113、呼出し処理部114、トリガー検出部115、撮影処理部116および通話処理部117は、プロセッサ101がメモリ102に格納されているプログラムを実行することにより実現される。また、現在位置記憶部151、呼出し音声記憶部152、認証特徴量記憶部153およびトリガー特徴量記憶部154は、メモリ102の提供する記憶領域として実現される。   The instruction reception unit 111, the flight control unit 112, the current position acquisition unit 113, the call processing unit 114, the trigger detection unit 115, the imaging processing unit 116, and the call processing unit 117 are programs in which the processor 101 is stored in the memory 102. It is realized by executing. In addition, the current position storage unit 151, the calling voice storage unit 152, the authentication feature amount storage unit 153, and the trigger feature amount storage unit 154 are realized as storage areas provided by the memory 102.

指示受信部111は、飛行装置10の動作を指示する各種のコマンドを受け付ける。指示受信部111が受信するコマンドには、飛行装置10の飛行動作を指示するコマンド(以下、飛行操作コマンドという。)、被監視者1との間の通話を開始するためのコマンド(以下、通話開始コマンド)、および当該通話を終了するためのコマンド(以下、通話終了コマンドという.)が含まれる。   The instruction receiving unit 111 receives various commands for instructing the operation of the flying device 10. The command received by the instruction receiving unit 111 includes a command for instructing a flight operation of the flying device 10 (hereinafter referred to as a flight operation command), and a command for starting a call with the monitored person 1 (hereinafter referred to as a call). Start command) and a command for ending the call (hereinafter referred to as a call end command).

本実施形態では、飛行操作コマンドは、ユーザ端末20から送信されることを想定するが、プロポや他のコンピュータなどユーザ端末20とは異なる送受信機から飛行操作コマンドが送信されるようにしてもよい。指示受信部111は、飛行操作コマンドを受信した場合、後述する飛行制御部112を呼び出す。
本実施形態では、通話開始コマンドには、被監視者1に対して呼びかけを行うための音声データ(以下、呼出し音声データという。)と、被監視者1の認証に用いる音声の特徴量(以下、認証特徴量という。)とが含まれる。呼出し音声データは、例えば、監視者2の音声を録音した音声データである。認証特徴量は、例えば、被監視者1の声の特徴量である。指示受信部111は、通話開始コマンドを受信した場合、呼出し音声データを呼出し音声記憶部152に登録し、後述する呼出し処理部114を呼び出す。
In the present embodiment, it is assumed that the flight operation command is transmitted from the user terminal 20, but the flight operation command may be transmitted from a transmitter / receiver different from the user terminal 20 such as a transmitter or another computer. . When receiving the flight operation command, the instruction receiving unit 111 calls the flight control unit 112 described later.
In the present embodiment, the call start command includes voice data for calling the monitored person 1 (hereinafter referred to as call voice data) and a voice feature amount used for authentication of the monitored person 1 (hereinafter referred to as “calling voice data”). , Referred to as an authentication feature amount). The call voice data is, for example, voice data obtained by recording the voice of the supervisor 2. The authentication feature amount is, for example, a feature amount of the voice of the monitored person 1. When receiving the call start command, the instruction receiving unit 111 registers the call voice data in the call voice storage unit 152 and calls a call processing unit 114 described later.

飛行制御部112は、飛行装置10の動作を制御する。飛行制御部112は、例えば、6自由度(並進運動x、yおよびz、並びに回転運動θx、θyおよびθz)を有する飛行装置10の空間的配置、速度、および/または加速度を調整するために、ESC17を経由してモータ18を制御する。モータ18によりプロペラ19が回転することで飛行装置10の揚力を生じさせる。また、飛行制御部113は、搭載部、センサ類の状態のうちの1つ以上を制御することができる。   The flight control unit 112 controls the operation of the flying device 10. For example, the flight control unit 112 adjusts the spatial arrangement, speed, and / or acceleration of the flying device 10 having six degrees of freedom (translational motions x, y, and z and rotational motions θx, θy, and θz). The motor 18 is controlled via the ESC 17. The propeller 19 is rotated by the motor 18 to generate lift of the flying device 10. Further, the flight control unit 113 can control one or more of the states of the mounting unit and sensors.

本実施形態では、飛行制御部112は、指示受信部111が受信した飛行操作コマンドに応じて飛行装置10の動作を制御する。例えば、指示受信部111が被監視者1を追尾する自律飛行を行うように指示する飛行操作コマンドを受信した場合には、飛行制御部112は、カメラ12が撮影した被監視者1の画像を解析して被監視者1の位置を把握するとともに、後述する現在位置取得部113が取得した当該飛行装置10の現在位置を被監視者1の位置の近傍に移動させるようにESC17を介してモータ18等を制御することにより、被監視者1を追尾するように飛行装置10を飛行させることができる。また、飛行制御部112は、自律飛行を可能とするべく、コマンドによらずに飛行装置10が飛行を継続するように各種の制御を行うこともできる。例えば、飛行制御部112は、カメラ12により撮影された画像に基づいて、被監視者1を追尾するように飛行装置10の動作を制御することが可能である。   In the present embodiment, the flight control unit 112 controls the operation of the flying device 10 in accordance with the flight operation command received by the instruction receiving unit 111. For example, when the instruction receiving unit 111 receives a flight operation command instructing to perform autonomous flight to track the monitored person 1, the flight control unit 112 captures the image of the monitored person 1 captured by the camera 12. The position of the monitored person 1 is analyzed to analyze the motor 1 via the ESC 17 so that the current position of the flying device 10 acquired by the current position acquisition unit 113 described later is moved to the vicinity of the position of the monitored person 1. By controlling 18 or the like, the flying device 10 can be caused to fly so as to track the monitored person 1. Further, the flight control unit 112 can perform various controls so that the flying device 10 continues to fly without depending on a command so as to enable autonomous flight. For example, the flight control unit 112 can control the operation of the flying device 10 so as to track the monitored person 1 based on an image captured by the camera 12.

現在位置取得部113は、飛行装置10の現在位置を取得する。本実施形態では、センサ類103にはGPSセンサ104が含まれており、現在位置取得部113は、例えば、GPSセンサ104がGPS衛星から受信した電波から、飛行装置10の現在位置(以下、飛行位置ともいう。)を算出することができる。現在位置取得部113は、取得した飛行装置10の飛行位置をメモリ102の現在位置記憶部151に格納する。飛行位置は、例えば緯度経度により表現することができる。フライトコントローラ11は、現在位置記憶部151を参照することにより、飛行装置10の飛行位置を迅速に把握することができる。   The current position acquisition unit 113 acquires the current position of the flying device 10. In the present embodiment, the sensors 103 include the GPS sensor 104, and the current position acquisition unit 113, for example, from the radio wave received by the GPS sensor 104 from the GPS satellite, It is also called a position). The current position acquisition unit 113 stores the acquired flight position of the flying device 10 in the current position storage unit 151 of the memory 102. The flight position can be expressed by, for example, latitude and longitude. The flight controller 11 can quickly grasp the flight position of the flying device 10 by referring to the current position storage unit 151.

本実施形態では、指示受信部111が飛行操作コマンドを受信した後、現在位置取得部113は、当該飛行操作コマンドの送信元(本実施形態ではユーザ端末20)に対して、飛行位置を定期的に送信するものとする。なお、飛行位置の送信間隔は、1秒ごと、5秒ごとなど任意に設定することができる。   In the present embodiment, after the instruction receiving unit 111 receives the flight operation command, the current position acquisition unit 113 periodically sets the flight position to the transmission source of the flight operation command (the user terminal 20 in the present embodiment). Shall be sent to The flight position transmission interval can be set arbitrarily, such as every 1 second or every 5 seconds.

呼出し処理部114は、被監視者1に対して通話の呼出しを行う。本実施形態では、呼出し処理部114は、所定の呼出し音声をスピーカ16から出力することにより被監視者1に対して呼出しを行う。本実施形態では、呼出し処理部114は、呼出し音声記憶部152に記憶されている呼出し音声データを読み出してスピーカ16から出力する。呼出し処理部114は、マイク15で集音した音声データから認証特徴量記憶部153に記憶されている認証特徴量を抽出できるか否かにより、呼出し音声データの再生に対して被監視者1から応答されたか否かを判定し、被監視者1からの応答があるまで、繰り返し呼出し音声データをスピーカ16から出力する。   The call processing unit 114 calls a call to the monitored person 1. In the present embodiment, the call processing unit 114 makes a call to the monitored person 1 by outputting a predetermined call sound from the speaker 16. In the present embodiment, the call processing unit 114 reads out the call voice data stored in the call voice storage unit 152 and outputs it from the speaker 16. The call processing unit 114 determines whether or not the authentication feature quantity stored in the authentication feature quantity storage unit 153 can be extracted from the voice data collected by the microphone 15 from the monitored person 1 with respect to the reproduction of the call voice data. It is determined whether or not a response has been made, and the call voice data is repeatedly output from the speaker 16 until there is a response from the monitored person 1.

トリガー検出部115は、所定のキーワードの音声を検出する。トリガー特徴量記憶部154には、所定のキーワードを発音した場合に抽出可能な特徴量(以下、トリガー特徴量という。)が予め記憶される。トリガー特徴量は、例えば、複数の人間が同じキーワードを発声した場合に共通する特徴量とすることができる。トリガー検出部115は、マイク15が集音した音声データから、トリガー特徴量記憶部154に記憶されている特徴量を抽出できるか否かにより、所定のキーワードとなる音声が集音されたか否かを判定する。トリガー検出部115は、所定のキーワードとなる音声が集音されたことを示す情報(以下、トリガー通知という。)をユーザ端末20に送信する。   The trigger detection unit 115 detects the voice of a predetermined keyword. The trigger feature quantity storage unit 154 stores in advance a feature quantity that can be extracted when a predetermined keyword is pronounced (hereinafter referred to as a trigger feature quantity). For example, the trigger feature amount may be a common feature amount when a plurality of persons utter the same keyword. The trigger detection unit 115 determines whether or not a voice as a predetermined keyword has been collected depending on whether or not the feature quantity stored in the trigger feature quantity storage unit 154 can be extracted from the voice data collected by the microphone 15. Determine. The trigger detection unit 115 transmits to the user terminal 20 information (hereinafter referred to as trigger notification) indicating that the voice as the predetermined keyword has been collected.

撮影処理部116は、カメラ12を制御してカメラ12が撮影した画像(以下、撮影画像という。)を取得する。本実施形態では、撮影画像は動画像であるものとするが、撮影画像は1枚または複数枚の静止画像であってもよい。撮影処理部116は、ジンバル13を制御し、カメラ12を被監視者1に向けたり、カメラ12を被監視者1の周囲に向けたりすることもできる。また、撮影処理部116は、指示受信部111がユーザ端末20または他の外部装置から、カメラ12のパン、チルト、ズーム、撮影などを指示するコマンド(以下、カメラコマンドという。)を受信した場合には、カメラコマンドに応じてカメラ12やジンバル13を制御することも可能である。撮影処理部116はさらに、カメラ12が撮影した撮影画像を外部に送出する。本実施形態では、撮影処理部116は、指示受信部111が受信した飛行操作コマンドの送信元であるユーザ端末20に対して画像を送信するものとする。なお、撮影処理部116は、飛行操作コマンドの送信元とは異なる送信先に画像を送信するようにしてもよい。本実施形態では、撮影処理部116は、カメラ12による撮影を開始した後の全ての画像をユーザ端末20に送信するものとする。なお、メモリ102に撮影画像を記録しておき、記録している撮影画像を取得するためのコマンド(以下、画像取得コマンドという。)に応じて、撮影処理部116がメモリ102から撮影画像を読み出して送信するようにしてもよい。   The imaging processing unit 116 controls the camera 12 and acquires an image captured by the camera 12 (hereinafter referred to as a captured image). In the present embodiment, the captured image is a moving image, but the captured image may be one or a plurality of still images. The imaging processing unit 116 can control the gimbal 13 to point the camera 12 toward the monitored person 1 or point the camera 12 around the monitored person 1. In addition, the imaging processing unit 116 receives a command (hereinafter referred to as a camera command) for instructing panning, tilting, zooming, shooting, and the like of the camera 12 from the user terminal 20 or another external device. It is also possible to control the camera 12 and the gimbal 13 according to the camera command. The imaging processing unit 116 further sends out the captured image captured by the camera 12 to the outside. In the present embodiment, the imaging processing unit 116 transmits an image to the user terminal 20 that is the transmission source of the flight operation command received by the instruction receiving unit 111. Note that the imaging processing unit 116 may transmit the image to a transmission destination different from the transmission source of the flight operation command. In this embodiment, the imaging processing unit 116 transmits all images after the imaging by the camera 12 is started to the user terminal 20. Note that a photographic image is recorded in the memory 102, and the photographic processing unit 116 reads out the photographic image from the memory 102 in accordance with a command for acquiring the recorded photographic image (hereinafter referred to as an image acquisition command). May be transmitted.

通話処理部117は、ユーザ端末20との間での通話に係る処理を行う。通話処理部117は、マイク15で集音された音声データを取得し、取得した音声データをユーザ端末20に送信する。また、通話処理部117は、ユーザ端末20から送信される音声データを受信し、受信した音声データをスピーカ16から出力する。なお、通話処理部117による通話処理については、公知の音声通話に関する処理を用いることができる。   The call processing unit 117 performs a process related to a call with the user terminal 20. The call processing unit 117 acquires audio data collected by the microphone 15 and transmits the acquired audio data to the user terminal 20. In addition, the call processing unit 117 receives audio data transmitted from the user terminal 20 and outputs the received audio data from the speaker 16. Note that a known voice call process can be used for the call process by the call processing unit 117.

(ユーザ端末20)
図4は、ユーザ端末20のハードウェア構成例を示す図である。ユーザ端末20は、CPU201、メモリ202、記憶装置203、通信装置204、GPSモジュール205、タッチパネルディスプレイ206、マイク207およびスピーカ208を備える。記憶装置203は、各種のデータやプログラムを記憶する、例えばハードディスクドライブやソリッドステートドライブ、フラッシュメモリなどである。通信装置204は、通信ネットワーク50を介して他の装置と通信を行う。通信装置204は、例えばイーサネット(登録商標)に接続するためのアダプタ、公衆電話回線網に接続するためのモデム、無線通信を行うための無線通信機、シリアル通信のためのUSB(Universal Serial Bus)コネクタやRS232Cコネクタなどを含んで構成される。GPSモジュール205は、GPS衛星からの信号を受信する。タッチパネルディスプレイ206は、データを入出力するインタフェースである。ユーザ1はタッチパネルディスプレイ206に表示された情報を閲覧し、タッチパネルディスプレイ206に触れることによりデータの入力を行うことができる。マイク207は音声の入力装置である。マイク207に入力された音声は音声データとして取得可能である。スピーカ208は音声の出力装置である。音声データをスピーカ208に与えることにより音声が再生される。
(User terminal 20)
FIG. 4 is a diagram illustrating a hardware configuration example of the user terminal 20. The user terminal 20 includes a CPU 201, a memory 202, a storage device 203, a communication device 204, a GPS module 205, a touch panel display 206, a microphone 207, and a speaker 208. The storage device 203 is, for example, a hard disk drive, a solid state drive, or a flash memory that stores various data and programs. The communication device 204 communicates with other devices via the communication network 50. The communication device 204 includes, for example, an adapter for connecting to Ethernet (registered trademark), a modem for connecting to a public telephone network, a wireless communication device for performing wireless communication, and a USB (Universal Serial Bus) for serial communication. It includes a connector, an RS232C connector and the like. The GPS module 205 receives a signal from a GPS satellite. The touch panel display 206 is an interface for inputting and outputting data. The user 1 can input data by browsing the information displayed on the touch panel display 206 and touching the touch panel display 206. The microphone 207 is an audio input device. The voice input to the microphone 207 can be acquired as voice data. The speaker 208 is an audio output device. Audio is reproduced by providing audio data to the speaker 208.

図5は、ユーザ端末20のソフトウェア構成例を示す図である。ユーザ端末20は、現在位置取得部211、開始位置指定部212、呼出し音声登録部213、飛行制御部214、トリガー通知部215、画像出力部216、通話処理部217、飛行位置記憶部251、呼出し音声記憶部252および認証特徴量記憶部253を備える。   FIG. 5 is a diagram illustrating a software configuration example of the user terminal 20. The user terminal 20 includes a current position acquisition unit 211, a start position designation unit 212, a call voice registration unit 213, a flight control unit 214, a trigger notification unit 215, an image output unit 216, a call processing unit 217, a flight position storage unit 251, a call An audio storage unit 252 and an authentication feature amount storage unit 253 are provided.

なお、現在位置取得部211、開始位置指定部212、呼出し音声登録部213、飛行制御部214、トリガー通知部215、画像出力部216および通話処理部217は、ユーザ端末20の備えるCPU201が記憶装置203に記憶されているプログラムをメモリ202に読み出して実行することにより実現され、飛行位置記憶部251、呼出し音声記憶部252および認証特徴量記憶部253は、メモリ202および記憶装置203により提供される記憶領域の一部として実現される。   Note that the current position acquisition unit 211, the start position designation unit 212, the calling voice registration unit 213, the flight control unit 214, the trigger notification unit 215, the image output unit 216, and the call processing unit 217 are stored in the CPU 201 of the user terminal 20 as a storage device. The flight position storage unit 251, the call voice storage unit 252, and the authentication feature amount storage unit 253 are provided by the memory 202 and the storage device 203. Realized as part of the storage area.

現在位置取得部211は、ユーザ端末20の現在位置を取得する。現在位置取得部211は、例えば、GPSモジュール205がGPS衛星から受信した電波に基づいてユーザ端末20の現在位置を算出することができる。また、現在位置取得部211は、通信装置204が通信するWiFiルータや基地局などの情報も利用してユーザ端末20の現在位置を高精度に求めるようにしてもよい。   The current position acquisition unit 211 acquires the current position of the user terminal 20. The current position acquisition unit 211 can calculate the current position of the user terminal 20 based on, for example, radio waves received by the GPS module 205 from GPS satellites. Further, the current position acquisition unit 211 may obtain the current position of the user terminal 20 with high accuracy by using information such as a WiFi router and a base station with which the communication device 204 communicates.

飛行位置指定部212は、飛行装置10の飛行先となる位置の指定を受け付ける。飛行位置指定部212が受け付ける位置は、被監視者1の現在位置または予定移動先の位置とすることができる。飛行位置指定部212は、例えば、地図をタッチパネルディスプレイ206に表示し、地図上で位置の指定を受け付けることができる。位置は、例えば緯度経度で表現することができる。   The flight position designation unit 212 receives designation of a position that is the flight destination of the flying device 10. The position received by the flight position designation unit 212 can be the current position of the monitored person 1 or the position of the planned movement destination. For example, the flight position designation unit 212 can display a map on the touch panel display 206 and accept designation of a position on the map. The position can be expressed by latitude and longitude, for example.

呼出し音声登録部213は、マイク207が集音した音声データを呼び出し音声データとして呼出し音声記憶部252に登録する。呼出し音声登録部213は、例えば、呼出し音声データを集音することを示すメッセージをタッチパネルディスプレイ206に表示し、監視者2からの指示に応じてマイク207から音声データを取得するようにすることができる。このようにして、呼出し音声登録部213は、例えば、監視者2が被監視者1に対して呼びかけを行う音声を呼出し音声データとして取得することができる。なお、呼出し音声登録部213は、例えば、監視者2から呼出し用のメッセージのテキスト入力を受け付けて、音声合成処理により当該テキストを呼出し音声データに変換するようにしてもよい。また、呼出し音声登録部213は、予め登録されているいくつかの呼出し音声データの中からひとつを選択させるようにしてもよい。   The calling voice registration unit 213 registers the voice data collected by the microphone 207 in the calling voice storage unit 252 as the calling voice data. For example, the call voice registration unit 213 displays a message indicating that the call voice data is collected on the touch panel display 206 and acquires the voice data from the microphone 207 in accordance with an instruction from the supervisor 2. it can. In this way, the calling voice registration unit 213 can acquire, for example, the voice that the supervisor 2 calls the monitored person 1 as the calling voice data. The call voice registration unit 213 may receive, for example, text input of a call message from the supervisor 2 and convert the text into call voice data by voice synthesis processing. Further, the call voice registration unit 213 may select one of several call voice data registered in advance.

飛行制御部214は、飛行装置10を制御する。本実施形態では、飛行制御部214は、飛行装置10に対して飛行操作コマンドを送信することにより飛行装置10を操作する。飛行制御部214は、最初に飛行位置指定部212が受け付けた位置を指定して、当該位置に飛行するように指示する飛行操作コマンドを飛行飛行装置10に送信して、飛行装置10を当該位置まで飛行させる。なお、本実施形態では、認証特徴量記憶部253には、被監視者1の声の特徴量を表すデータ(以下、認証特徴量という。)が予め記憶されており、飛行操作コマンドには、飛行先の位置に加えて、認証特徴量記憶部253に記憶されている認証特徴量と、呼出し音声記憶部252に記憶されている呼出し音声データとが含められるものとする。   The flight control unit 214 controls the flying device 10. In the present embodiment, the flight control unit 214 operates the flying device 10 by transmitting a flight operation command to the flying device 10. The flight control unit 214 first designates the position received by the flight position designation unit 212, transmits a flight operation command instructing to fly to the position to the flying device 10, and causes the flying device 10 to move to the position. To fly. In the present embodiment, the authentication feature value storage unit 253 stores data representing the feature value of the voice of the monitored person 1 (hereinafter referred to as authentication feature value) in advance, and the flight operation command includes: In addition to the flight destination position, it is assumed that the authentication feature quantity stored in the authentication feature quantity storage unit 253 and the call voice data stored in the call voice storage unit 252 are included.

また、飛行制御部214は、飛行操作コマンドを送信後、飛行装置10から送信される飛行装置10の現在位置を受信し、受信した飛行装置10の現在位置を飛行位置記憶部251に登録する。飛行制御部214は、定期的に飛行装置10から送信される飛行装置10の現在位置を受信した場合には、飛行位置記憶部322の現在位置を更新する。   Further, after transmitting the flight operation command, the flight control unit 214 receives the current position of the flying device 10 transmitted from the flying device 10, and registers the received current position of the flying device 10 in the flight position storage unit 251. The flight control unit 214 updates the current position of the flight position storage unit 322 when receiving the current position of the flying device 10 periodically transmitted from the flying device 10.

トリガー通知部215は、飛行装置10から送信されるトリガー通知を受信する。トリガー通知部215は、トリガー通知を受信した場合、その旨を監視者2に報知する。トリガー通知部215は、例えば、タッチパネルディスプレイ206にトリガー通知を受信した旨を表示してもよいし、トリガー通知を受信した旨を表現する音声データをスピーカ208から出力してもよい。   The trigger notification unit 215 receives the trigger notification transmitted from the flying device 10. When the trigger notification unit 215 receives the trigger notification, the trigger notification unit 215 notifies the monitoring person 2 to that effect. For example, the trigger notification unit 215 may display that the trigger notification has been received on the touch panel display 206, and may output audio data representing that the trigger notification has been received from the speaker 208.

画像出力部216は、飛行装置10から受信した画像をタッチパネルディスプレイ206に出力する。画像出力部216は、受信した画像をメモリ202や記憶装置203に書き込むようにしてもよい。   The image output unit 216 outputs the image received from the flying device 10 to the touch panel display 206. The image output unit 216 may write the received image in the memory 202 or the storage device 203.

通話処理部217は、飛行装置10との間での通話に係る処理を行う。通話処理部217は、マイク207で集音された音声データを取得し、取得した音声データを飛行装置10に送信する。また、通話処理部217は、飛行装置10から送信される音声データを受信し、受信した音声データをスピーカ208から出力する。なお、通話処理部217による通話処理については、公知の音声通話に関する処理を用いることができる。   The call processing unit 217 performs processing related to a call with the flying device 10. The call processing unit 217 acquires the voice data collected by the microphone 207 and transmits the acquired voice data to the flying device 10. In addition, the call processing unit 217 receives audio data transmitted from the flying device 10 and outputs the received audio data from the speaker 208. For the call process by the call processing unit 217, a known voice call process can be used.

==処理==
以下、本実施形態の通話システムにおける処理について説明する。
== Processing ==
Hereinafter, processing in the call system according to the present embodiment will be described.

図6は、本実施形態に係る通話システムにおいて実行される処理の流れを説明する図である。
ユーザ端末20において飛行位置指定部212は、監視者2から飛行装置10の飛行先となる位置の指定を受け付ける(S301)。呼出し音声登録部213は、呼出し音声データとなる音声データの入力を受け付け、受け付けた音声データを呼出し音声記憶部252に呼出し音声データとして登録する(S302)。飛行位置指定部212は、飛行位置指定部212が受け付けた飛行先の位置と、呼出し音声記憶部252に記憶されている呼出し音声データと、認証特徴量記憶部253に登録されている認証特徴量とを設定した飛行操作コマンドを飛行装置10に送信する(S303)。
FIG. 6 is a diagram for explaining the flow of processing executed in the call system according to the present embodiment.
In the user terminal 20, the flight position designation unit 212 receives designation of a position that is the flight destination of the flying device 10 from the supervisor 2 (S301). The calling voice registration unit 213 receives input of voice data serving as calling voice data, and registers the received voice data as calling voice data in the calling voice storage unit 252 (S302). The flight position designation unit 212 receives the flight destination position received by the flight position designation unit 212, call voice data stored in the call voice storage unit 252, and authentication feature quantity registered in the authentication feature quantity storage unit 253. The flight operation command in which is set to be transmitted to the flying device 10 (S303).

飛行装置10では、指示受信部111がユーザ端末20から送信される飛行操作コマンドを受信し、受信した飛行操作コマンドに含まれている呼出し音声データを呼出し音声記憶部152に登録するとともに、飛行操作コマンドに含まれている認証特徴量を認証特徴量記憶部153に登録する(S304)。飛行制御部112は、飛行操作コマンドに含まれている位置まで飛行するように各種の制御を行い(S305)、飛行装置10が指定された位置まで飛行すると、撮影処理部116はカメラ12による画像の撮影を開始し、撮影した画像をユーザ端末20に順次送信する(S306)。   In the flying device 10, the instruction receiving unit 111 receives the flight operation command transmitted from the user terminal 20, registers the call voice data included in the received flight operation command in the call voice storage unit 152, and performs the flight operation. The authentication feature amount included in the command is registered in the authentication feature amount storage unit 153 (S304). The flight control unit 112 performs various controls so as to fly to the position included in the flight operation command (S305), and when the flying device 10 flies to the specified position, the imaging processing unit 116 displays the image by the camera 12. The captured images are sequentially transmitted to the user terminal 20 (S306).

呼出し処理部114は、呼出し音声記憶部152に記憶されている呼出し音声データをスピーカ16から出力し(S307)、マイク15が集音した音声データを取得する(S308)。呼出し処理部114は、マイク15が集音した音声データから認証特徴量記憶部153に記憶されている認証特徴量を抽出できなければ(S309:YES)、ステップS307からの処理を繰り返す。呼出し処理部114が認証特徴量を抽出できた場合(S309:YES)、通話処理部117は、マイク15で集音された音声データをユーザ端末20に送信し、ユーザ端末20から送信されてくる音声データを受信して、受信した音声データをスピーカ16から出力し、ユーザ端末20との間で音声データの送受信を行って通話に係る処理を行う(S310)。   The call processing unit 114 outputs the call voice data stored in the call voice storage unit 152 from the speaker 16 (S307), and acquires the voice data collected by the microphone 15 (S308). If the authentication feature amount stored in the authentication feature amount storage unit 153 cannot be extracted from the voice data collected by the microphone 15 (S309: YES), the call processing unit 114 repeats the processing from step S307. When the call processing unit 114 can extract the authentication feature amount (S309: YES), the call processing unit 117 transmits the voice data collected by the microphone 15 to the user terminal 20, and is transmitted from the user terminal 20. The audio data is received, the received audio data is output from the speaker 16, and the audio data is transmitted / received to / from the user terminal 20 to perform processing related to the call (S310).

ユーザ端末20では、画像出力部216が、飛行装置10から送信されてくる画像を受信してタッチパネルディスプレイ206に出力し(S311)、通話処理部217が、飛行装置10から送信される音声データを受信し、スピーカ208から出力し、マイク207で集音した音声データを飛行装置10に送信して通話に係る処理を行う(S312)。   In the user terminal 20, the image output unit 216 receives the image transmitted from the flying device 10 and outputs it to the touch panel display 206 (S 311), and the call processing unit 217 receives the audio data transmitted from the flying device 10. The voice data received, output from the speaker 208, and collected by the microphone 207 is transmitted to the flying device 10 to perform processing related to the call (S312).

==効果==
以上説明したように、本実施形態の通話システムによれば、監視者2は被監視者1のところまで飛行装置10を飛行させ、飛行装置10とユーザ端末20とを介して被監視者1と通話することができる。したがって、例えば、被監視者1が携帯電話等の通話装置を携帯していないような場合であっても、監視者2は被監視者1と直接音声にてコミュニケーションを取ることが可能となる。
== Effect ==
As described above, according to the call system of the present embodiment, the supervisor 2 causes the flying device 10 to fly to the monitored person 1, and the monitored person 1 and the user terminal 20 communicate with the monitored person 1. You can make a call. Therefore, for example, even when the monitored person 1 does not carry a call device such as a mobile phone, the monitoring person 2 can communicate with the monitored person 1 by voice directly.

また、本実施形態の通話システムによれば、飛行装置10が備えるカメラ15を用いて被監視者1の様子を監視者2は映像でも確認することができる。   Moreover, according to the telephone call system of this embodiment, the supervisor 2 can also confirm the state of the person 1 to be monitored by video using the camera 15 provided in the flying device 10.

また、本実施形態の通話システムによれば、所定のキーワードが発声されたことを契機として監視者2に対する通知を行うことができる。したがって、監視者2が常に被監視者1の音声を視聴していなくても、被監視者1側からコミュニケーションの端緒を形成することが可能となる。これにより、双方向のコミュニケーションを容易に実現することができる。   Further, according to the call system of the present embodiment, it is possible to notify the supervisor 2 when a predetermined keyword is uttered. Therefore, even if the monitoring person 2 does not always watch the voice of the monitored person 1, it is possible to form the beginning of communication from the monitored person 1 side. Thereby, bidirectional communication can be easily realized.

また、本実施形態の通話システムによれば、録音しておいた呼出し音声データを用いて被監視者1に対する呼びかけを行うことができる。この場合において、監視者2の声を録音した音声データを呼出し音声データとして用いることにより、被監視者1にとって効果的に注意を喚起することが可能となる。よって、コミュニケーションを容易に確立することができる。   Further, according to the call system of the present embodiment, a call can be made to the monitored person 1 using the recorded call voice data. In this case, it is possible to call attention to the monitored person 1 effectively by using the voice data obtained by recording the voice of the monitoring person 2 as the calling voice data. Therefore, communication can be established easily.

また、本実施形態の通話システムによれば、予め準備しておいた被監視者1の声の特徴量を用いて被監視者1からの応答を検出することができる。したがって、カメラでの視認が困難か状況であっても、音声を用いて被監視者1を特定することができる。   Moreover, according to the call system of this embodiment, it is possible to detect a response from the monitored person 1 using the voice feature amount of the monitored person 1 prepared in advance. Therefore, even if it is difficult to visually recognize with the camera, the monitored person 1 can be identified using the voice.

また、本実施形態の通話システムによれば、録音しておいた呼出し音声データを繰り返し再生することにより被監視者1に対する呼びかけを行うことができる。これにより、監視者2は発声し続けることなく被監視者1への呼びかけを継続することが可能となる。よって、コミュニケーションを確実に確立することができる。   Further, according to the call system of the present embodiment, it is possible to call the monitored person 1 by repeatedly reproducing the recorded call voice data. As a result, the supervisor 2 can continue to call the monitored person 1 without continuing to speak. Therefore, communication can be established reliably.

以上、本発明の一実施形態について説明したが、上記実施形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得るとともに、本発明にはその等価物も含まれる。   As mentioned above, although one Embodiment of this invention was described, the said embodiment is for making an understanding of this invention easy, and is not for limiting and interpreting this invention. The present invention can be changed and improved without departing from the gist thereof, and the present invention includes equivalents thereof.

==変形例==
(ビーコン)
本実施形態では、被監視者1の位置はユーザ端末20を用いて監視者2が指定するものとしたが、これに限らず、例えば、被監視者1にビーコンを携帯させ、被監視者1の活動範囲にビーコンの受信機を設置しておき、ビーコンからの信号を受信した受信機の位置を被監視者1の位置としてユーザ端末20が取得するようにしてもよい。
== Modification ==
(beacon)
In the present embodiment, the position of the monitored person 1 is specified by the monitoring person 2 using the user terminal 20. However, the present invention is not limited to this. For example, the monitored person 1 carries a beacon and the monitored person 1 A beacon receiver may be installed in the activity range, and the user terminal 20 may acquire the position of the receiver that has received the signal from the beacon as the position of the monitored person 1.

(カメラなし)
本実施形態では、飛行装置10はカメラ12を備え、飛行装置10が撮影した画像がユーザ端末20に送信されるものとしたが、飛行装置10はカメラ12を備えず、飛行装置10とユーザ端末20との間は音声データのやりとりだけが行われるようにしてもよい。
(No camera)
In the present embodiment, the flying device 10 includes the camera 12 and an image captured by the flying device 10 is transmitted to the user terminal 20. However, the flying device 10 does not include the camera 12, and the flying device 10 and the user terminal Only the voice data may be exchanged with 20.

(複数台のカメラ)
また、本実施形態では、飛行体10には1台のカメラが搭載されるものとしたが、これに限らず、被監視者1を撮影するカメラと、被監視者1の周囲を撮影するカメラを含む複数台のカメラが搭載されてもよい。
(Multiple cameras)
In the present embodiment, the flying object 10 is equipped with one camera. However, the present invention is not limited to this, and a camera that photographs the monitored person 1 and a camera that captures the surroundings of the monitored person 1. A plurality of cameras including may be mounted.

(飛行装置10による危険検知)
本実施形態では、飛行装置10にカメラ12を搭載し、ユーザ端末20において飛行装置10が撮影した映像を視聴するものとしたが、ユーザ端末20が備えるカメラが撮影した映像を飛行装置10に送信し、飛行装置10側においてユーザ端末20側の様子を表示するようにしてもよい。
(Danger detection by the flying device 10)
In the present embodiment, the camera 12 is mounted on the flying device 10 and the user terminal 20 views the video captured by the flying device 10. However, the video captured by the camera included in the user terminal 20 is transmitted to the flying device 10. Then, the state of the user terminal 20 side may be displayed on the flying device 10 side.

(物を運搬する)
本実施形態では、飛行装置10はユーザ端末20からの指示に応じてそのまま飛行するものとしたが、飛行するにあたり、被監視者1に対して物品を輸送してもよい。この場合、飛行装置10は、ユーザ端末20からの指示に応じて飛行する前に、荷物を積載する場所まで飛行し、荷物を積載してから被監視者1の近傍まで飛行するようにする。また、飛行装置10は、被監視者1の近傍まで飛行したのち、被監視者1から輸送して欲しい物品の指定を受け付け、指定された物品を積載するために荷物の積載場所まで移動し、荷物を積載したうえで被監視者1の位置まで戻るようにすることもできる。この場合、被監視者1は音声により物品を指定し、飛行装置10はマイク15が集音した音声データを解析して音声認識により積載する物品を特定することができる。
(Carrying things)
In the present embodiment, the flying device 10 flies as it is in response to an instruction from the user terminal 20, but an article may be transported to the monitored person 1 during the flight. In this case, before flying according to the instruction from the user terminal 20, the flying device 10 flies to the place where the luggage is loaded, and flies to the vicinity of the monitored person 1 after loading the luggage. In addition, after flying to the vicinity of the monitored person 1, the flying device 10 receives designation of an article desired to be transported from the monitored person 1, moves to a loading place for loading the designated article, It is also possible to return to the position of the monitored person 1 after loading the luggage. In this case, the person to be monitored 1 specifies an article by voice, and the flying device 10 can analyze the voice data collected by the microphone 15 and specify the article to be loaded by voice recognition.

(飛行装置10で画像の表示)
本実施形態では、ユーザ端末20から飛行装置10に対して送信される情報は音声データのみであるものとしたが、飛行装置10が表示装置を備えるようにして、ユーザ端末20から飛行装置10に画像を送信し、飛行装置10側に視覚に訴える情報を出力させるようにしてもよい。
(Displaying images with the flying device 10)
In the present embodiment, the information transmitted from the user terminal 20 to the flying device 10 is only audio data. However, the flying device 10 is provided with a display device, and the user terminal 20 transmits the information to the flying device 10. You may make it output the information which appeals visually to the flying device 10 side by transmitting an image.

この場合の飛行装置10の構成例を図7に示す。図1との違いは、飛行装置10がさらに表示装置120を備える点である。表示装置120は、例えば、液晶ディプレイやプロジェクタなど、視覚に訴える情報を出力する装置である。また、図8は、飛行装置10が表示装置120を備える場合のフライトコントリーラ11の構成例を示す図である。図3との違いは、画像を表示するための画像表示部118をフライトコントローラ11が備える点である。画像表示部118は、ユーザ端末20から受信した画像データを表示装置120に表示する。   A configuration example of the flying device 10 in this case is shown in FIG. The difference from FIG. 1 is that the flying device 10 further includes a display device 120. The display device 120 is a device that outputs visually appealing information such as a liquid crystal display or a projector. FIG. 8 is a diagram illustrating a configuration example of the flight controller 11 when the flying device 10 includes the display device 120. The difference from FIG. 3 is that the flight controller 11 includes an image display unit 118 for displaying an image. The image display unit 118 displays the image data received from the user terminal 20 on the display device 120.

図9は、飛行装置10が表示装置120を備える場合のユーザ端末20のソフトウェア構成例を示す図である。図5との違いは、ユーザ端末20が伝達画像記憶部254を備える点である。伝達画像記憶部254は、飛行装置10に送信するための画像データを記憶する。なお、伝達画像記憶部254は、例えば、ユーザ端末20が備えるカメラが撮影した画像データを記憶するライブラリとすることができる。   FIG. 9 is a diagram illustrating a software configuration example of the user terminal 20 when the flying device 10 includes the display device 120. The difference from FIG. 5 is that the user terminal 20 includes a transmission image storage unit 254. The transmission image storage unit 254 stores image data to be transmitted to the flying device 10. Note that the transmitted image storage unit 254 may be a library that stores image data captured by a camera included in the user terminal 20, for example.

この場合、図6に示した処理において、飛行制御部214は、飛行装置10に飛行操作コマンドを送信するにあたり(S303)、伝達画像記憶部254に記憶されている画像データのうち飛行装置10に表示するべき画像データの指定を監視者2から受け付け、指定された画像データを飛行操作コマンドに含めて飛行装置10に送信する。   In this case, in the process shown in FIG. 6, when the flight control unit 214 transmits a flight operation command to the flying device 10 (S303), among the image data stored in the transmission image storage unit 254, the flying device 10 The designation of image data to be displayed is received from the supervisor 2 and the designated image data is included in the flight operation command and transmitted to the flying device 10.

画像表示部118は、飛行操作コマンドを受信した場合に(S304)、受信した飛行操作コマンドに含まれている画像データを表示装置120に表示したうえで、呼出し処理部114が呼出し音声データの再生を行う(S307)。   When the flight operation command is received (S304), the image display unit 118 displays the image data included in the received flight operation command on the display device 120, and then the call processing unit 114 reproduces the call voice data. Is performed (S307).

このようにすることで、例えば、被監視者1に対して視覚に訴える情報を出力しながら、聴覚に訴える呼出し音声データを再生することができるので、被監視者1が飛行装置10に注意を向ける可能性が高まると考えられる。よって、より迅速なコミュニケーションの端緒となることが期待される。   By doing so, for example, the call voice data appealing to the auditory sense can be reproduced while outputting the visually appealing information to the monitored person 1, so that the monitored person 1 pays attention to the flying device 10. The possibility of turning will increase. Therefore, it is expected to become the beginning of faster communication.

10 飛行装置
20 ユーザ端末
11 フライトコントローラ
12 カメラ
13 ジンバル
14 送受信部
15 マイク
16 スピーカ
17 ESC
18 モータ
19 プロペラ
111 指示受信部
112 飛行制御部
113 現在位置取得部
114 呼出し処理部
115 トリガー検出部
116 撮影処理部
117 通話処理部
118 画像表示部
120 表示装置
151 現在位置記憶部
152 呼出し音声記憶部
153 認証特徴量記憶部
154 トリガー特徴量記憶部
211 現在位置取得部
212 開始位置指定部
213 呼出し音声登録部
214 飛行制御部
215 トリガー通知部
216 画像出力部
217 通話処理部
251 飛行位置記憶部
252 呼出し音声記憶部
253 認証特徴量記憶部
254 伝達画像記憶部


10 Flight equipment
20 User terminal 11 Flight controller 12 Camera 13 Gimbal 14 Transmitter / receiver 15 Microphone 16 Speaker 17 ESC
DESCRIPTION OF SYMBOLS 18 Motor 19 Propeller 111 Instruction receiving part 112 Flight control part 113 Current position acquisition part 114 Call processing part 115 Trigger detection part 116 Shooting processing part 117 Call processing part 118 Image display part 120 Display device 151 Current position storage part 152 Call voice storage part 153 Authentication feature amount storage unit 154 Trigger feature amount storage unit 211 Current position acquisition unit 212 Start position designation unit 213 Call voice registration unit 214 Flight control unit 215 Trigger notification unit 216 Image output unit 217 Call processing unit 251 Flight position storage unit 252 Call Voice storage unit 253 Authentication feature amount storage unit 254 Transfer image storage unit


Claims (4)

第2のマイクおよび第2のスピーカを有する飛行装置とユーザ端末と、を備え、
前記ユーザ端末は、
通話相手の近傍まで前記飛行装置を飛行させるように制御する飛行制御部と、
前記通話相手の呼出し用の呼出し音声データを作成し、前記呼び出し音声データを前記飛行装置に送信する第1の呼出し処理部と、
を備え、
前記飛行装置は、
前記呼出し音声データを受信し、受信した前記呼出し音声データを前記第2のスピーカから出力する第2の呼出し処理部と、
前記第2のマイクが集音した音声データに基づいて前記通話相手の認証を行う認証処理部と、
を備え、
前記第2の呼出し処理部は、前記認証処理部が前記通話相手の認証に成功するまで、前記呼出し音声データを前記第2のスピーカから出力すること、
を特徴とする通話システム。
A flying device having a second microphone and a second speaker, and a user terminal ,
The user terminal is
A flight control unit for controlling the flying device to fly to the vicinity of the other party,
A first call processing unit for creating call voice data for calling the other party and transmitting the call voice data to the flying device;
With
The flying device is
A second call processing unit that receives the call voice data and outputs the received call voice data from the second speaker;
An authentication processing unit for authenticating the other party on the basis of voice data collected by the second microphone ;
With
The second call processing unit outputs the call voice data from the second speaker until the authentication processing unit succeeds in authenticating the call partner.
Call system characterized by.
請求項1に記載の通話システムであって、
前記飛行装置は、
カメラと、
前記カメラが撮影した画像を前記ユーザ端末に送信する画像送信部と、
をさらに備えることを特徴とする通話システム。
The call system according to claim 1,
The flying device is
A camera,
An image transmission unit that transmits an image captured by the camera to the user terminal;
A call system characterized by further comprising:
請求項1に記載の通話システムであって、
前記飛行装置は、前記第2の音声データから特徴量を抽出し、所定の前記特徴量を抽出できた場合に、前記ユーザ端末のユーザに対してメッセージを送信する第2の通話処理部を備え
前記ユーザ端末は、前記メッセージに応じて前記ユーザ端末のユーザに対して注意喚起のための画像または音声を出力する第1の通話処理部を備えること、
を特徴とする通話システム。
The call system according to claim 1,
The flying device includes a second call processing unit that extracts a feature amount from the second voice data and transmits a message to a user of the user terminal when the predetermined feature amount can be extracted. ,
The user terminal includes a first call processing unit that outputs an image or sound for alerting a user of the user terminal in response to the message;
Call system characterized by.
請求項に記載の通話システムであって、
前記飛行装置は、情報を表示する表示装置を備え、
前記第1の呼出し処理部は、前記通話相手の呼出し用の画像を前記飛行装置に送信し、
前記第2の呼出し処理部は、前記呼出し用の画像を受信し、受信した前記呼出し用の画像を前記表示装置に表示すること、
を特徴とする通話システム。

The call system according to claim 1 ,
The flying device includes a display device for displaying information,
The first call processing unit transmits an image for calling the other party to the flying device,
The second call processing unit receives the call image and displays the received call image on the display device;
Call system characterized by.

JP2018082789A 2018-04-24 2018-04-24 Call system Active JP6570002B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018082789A JP6570002B1 (en) 2018-04-24 2018-04-24 Call system
JP2019139077A JP6945149B2 (en) 2018-04-24 2019-07-29 Call system, call method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018082789A JP6570002B1 (en) 2018-04-24 2018-04-24 Call system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019139077A Division JP6945149B2 (en) 2018-04-24 2019-07-29 Call system, call method

Publications (2)

Publication Number Publication Date
JP6570002B1 true JP6570002B1 (en) 2019-09-04
JP2019193054A JP2019193054A (en) 2019-10-31

Family

ID=67844786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018082789A Active JP6570002B1 (en) 2018-04-24 2018-04-24 Call system

Country Status (1)

Country Link
JP (1) JP6570002B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005103679A (en) * 2003-09-29 2005-04-21 Toshiba Corp Robot device
JP2005103703A (en) * 2003-09-30 2005-04-21 Toshiba Corp Robot
US8761933B2 (en) * 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
JP6393918B2 (en) * 2015-04-20 2018-09-26 株式会社プロドローン Audio transmission system

Also Published As

Publication number Publication date
JP2019193054A (en) 2019-10-31

Similar Documents

Publication Publication Date Title
US10021339B2 (en) Electronic device for generating video data
WO2018008224A1 (en) Robot, robot system, and recording medium
US20140037262A1 (en) Data storage device and storage medium
KR101689621B1 (en) Image recording device having function for dual wifi access mode and image sharing system having the said device
WO2019119434A1 (en) Information processing method, unmanned aerial vehicle, remote control apparatus, and non-volatile storage medium
JP6711565B2 (en) Communication device, control method thereof, and program
EP3261405B1 (en) Local network for simultaneously exchanging data between a drone and a plurality of user terminals and assigning a main single user that controls the drone
US8692666B2 (en) Communication system and communication terminal
WO2019041633A1 (en) Communication relay method, relay aerial vehicle, program, and recording medium
WO2019134124A1 (en) Control method, unmanned aerial vehicle, remote control device, and nonvolatile storage medium
JP7400882B2 (en) Information processing device, mobile object, remote control system, information processing method and program
JP2001209426A (en) Mobile body controller
WO2019241970A1 (en) Unmanned aerial vehicle speaker control method and device
WO2021251441A1 (en) Method, system, and program
JP6570002B1 (en) Call system
JP2004118087A (en) Photographing apparatus, flight photography system, and photographing method
WO2020179869A1 (en) Information-processing device and information-processing program
JP6945149B2 (en) Call system, call method
WO2020237429A1 (en) Control method for remote control device, and remote control device
WO2022091787A1 (en) Communication system, robot, and storage medium
WO2021075138A1 (en) Information processing device, information processing system, information processing method, and program
JP6992365B2 (en) Terminal device, camera system and control method
JP2019043473A (en) Flight device, management device, photographing control method, and photographing control program
JP2019018664A (en) Imaging control system
JP2010271064A (en) Navigation apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180508

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180920

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181112

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190729

R150 Certificate of patent or registration of utility model

Ref document number: 6570002

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250