JP2019101766A - User support system - Google Patents

User support system Download PDF

Info

Publication number
JP2019101766A
JP2019101766A JP2017232212A JP2017232212A JP2019101766A JP 2019101766 A JP2019101766 A JP 2019101766A JP 2017232212 A JP2017232212 A JP 2017232212A JP 2017232212 A JP2017232212 A JP 2017232212A JP 2019101766 A JP2019101766 A JP 2019101766A
Authority
JP
Japan
Prior art keywords
user
information
control unit
support system
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017232212A
Other languages
Japanese (ja)
Inventor
憲幸 高田
Noriyuki Takada
憲幸 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Grangate Japan Co Ltd
Original Assignee
Grangate Japan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Grangate Japan Co Ltd filed Critical Grangate Japan Co Ltd
Priority to JP2017232212A priority Critical patent/JP2019101766A/en
Publication of JP2019101766A publication Critical patent/JP2019101766A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a user support system that performs processing according to a request of a user even outdoors.SOLUTION: A user side device 20 includes: acquisition means (microphone 26) for acquiring a voice uttered by a user; and transmission means (transmission/reception unit 21) for transmitting information on the voice acquired by the acquisition means to an aircraft. An aircraft 10 includes: hovering means (control unit 16) for performing control to hover the aircraft in the vicinity of the user; tracking means (control unit 16) for performing control to make the aircraft follow the user as the user moves; reception means (transmission/reception unit 15) for receiving information on the voice transmitted from the transmission means of a user side device; and execution means (control unit 16) for executing a process corresponding to the information on the voice received by the reception means.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザ支援システムに関するものである。   The present invention relates to a user support system.

近年、ユーザの音声による指示を受け、例えば、ユーザの予定を返答したり、天気予報を返答したり、インターネットによる検索を行って結果を返答したりするデバイスが市場に拡販されつつある。   In recent years, devices that receive user's voice instructions, for example, respond to user's schedule, respond to a weather forecast, search on the Internet, and respond to results, are being sold in the market.

このようなデバイスに関する先行技術として特許文献1がある。特許文献1に開示された技術は、第1格納部、第1取得部、第1検索部、第2格納部、第2検索部および制御部を含む。第1格納部は、周囲の環境に関する第1環境情報と、周囲の状況を説明する状況説明文とを対応づけて、複数格納する。第1取得部は、処理対象となる周囲の環境に関する第2環境情報を取得する。第1検索部は、第2環境情報との類似度が第1閾値以上となる第1環境情報である類似環境情報を検索し、類似環境情報に対応する状況説明文を得る。第2格納部は、課題表現と課題表現の1以上の解決策とを対応づけて、複数格納する。第2検索部は、状況説明文との類似度が第2閾値以上となる課題表現である類似課題表現を検索し、類似課題表現に対応する1以上の解決策を得る。制御部は、取得した1以上の解決策を用いてユーザとの対話を制御する。このような技術によれば、効率的にユーザに解決策を提示できる。   There is Patent Document 1 as a prior art related to such a device. The technology disclosed in Patent Document 1 includes a first storage unit, a first acquisition unit, a first search unit, a second storage unit, a second search unit, and a control unit. The first storage unit stores a plurality of pieces of first environment information related to the surrounding environment and a situation explanatory note describing the surrounding situation. The first acquisition unit acquires second environment information on a surrounding environment to be processed. The first search unit searches similar environment information which is first environment information whose similarity to the second environment information is equal to or more than a first threshold value, and obtains a situation explanatory note corresponding to the similar environment information. The second storage unit stores a plurality of task expressions in association with one or more solutions of the task expressions. The second search unit searches for a similar task expression that is a task expression in which the degree of similarity to the situation explanatory text is equal to or higher than a second threshold, and obtains one or more solutions corresponding to the similar task expression. The control unit controls the interaction with the user using the acquired one or more solutions. According to such a technology, it is possible to efficiently present the solution to the user.

特開2015−148842号公報JP, 2015-148842, A

しかしながら、特許文献1に開示された技術では、例えば、ユーザが屋外にいる場合には、ユーザの要求を受けることができないという問題点がある。そこで、ユーザに追従するために、二足歩行用の脚部を具備することも可能であるが、二足歩行の制御には非常に多くのリソースが必要になることから、装置が高価になるという問題点がある。   However, in the technique disclosed in Patent Document 1, for example, when the user is outdoors, there is a problem that the user's request can not be received. Therefore, although it is possible to provide a biped walking leg in order to follow the user, the apparatus becomes expensive because the control of biped walking requires a large number of resources. There is a problem of that.

本発明は、屋外においてもユーザに追従して様々な要求に応じた処理を行うことが可能なユーザ支援システムを提供することを目的としている。   An object of the present invention is to provide a user support system capable of performing processing according to various requests following a user even outdoors.

上記課題を解決するために、本発明は、ホバリング可能な飛行体と、ユーザが身体の一部に装着するユーザ側デバイスとを少なくとも有するユーザ支援システムであって、前記ユーザ側デバイスは、前記ユーザが発話した音声を取得する取得手段と、前記取得手段によって取得された前記音声に関する情報を前記飛行体に対して送信する送信手段と、を有し、前記飛行体は、前記ユーザの近傍で前記飛行体をホバリングさせる制御を行うホバリング手段と、前記ユーザの移動に伴って前記飛行体を前記ユーザに追従させる制御を行う追従手段と、前記ユーザ側デバイスの前記送信手段から送信される前記音声に関する情報を受信する受信手段と、前記受信手段によって受信された前記音声に関する情報に対応する処理を実行する実行手段と、を有する、ことを特徴とする。
このような構成によれば、屋外においてもユーザに追従して様々な要求に応じた処理を行うことが可能となる。
In order to solve the above problems, the present invention is a user support system comprising at least a hoverable flying object and a user side device worn by a user on a part of the body, wherein the user side device is the user An acquiring unit for acquiring a voice uttered by the user, and a transmitting unit for transmitting information on the audio acquired by the acquiring unit to the aircraft, the aircraft in the vicinity of the user Regarding the voice transmitted from the transmission means of the user-side device, hovering means for performing control to hover the flying object, tracking means for performing control to cause the user to follow the user with the movement of the user, and Receiving means for receiving information, and execution means for executing a process corresponding to the information on the voice received by the receiving means; A, wherein the.
According to such a configuration, it is possible to follow the user and perform processing according to various requests even outdoors.

また、本発明は、前記飛行体は、予め登録した複数の前記ユーザの前記音声の中から、発話した前記ユーザを特定する話者特定手段と、前記ユーザ毎に実行すべき前記処理を示す情報を登録したデータベースから、前記話者特定手段によって特定された前記ユーザに対応する、実行すべき前記処理を示す情報を検索する検索手段と、を有し、前記実行手段は、前記検索手段によって取得された情報に対応する前記処理を実行する、ことを特徴とする。
このような構成によれば、ユーザ毎に所望の処理を実行することが可能になる。
Further, according to the present invention, the flying object is a speaker specifying unit for specifying the uttered user among the voices of the plurality of users registered in advance, and information indicating the process to be executed for each of the users Search means for searching for information indicating the process to be executed, corresponding to the user identified by the speaker identification means, from a database in which is registered, and the execution means is acquired by the search means Executing the processing corresponding to the stored information.
According to such a configuration, it is possible to execute desired processing for each user.

また、本発明は、前記処理は、前記ユーザの周辺の交通状況または不審者を監視する周辺状況監視処理であることを特徴とする。
このような構成によれば、ユーザを交通事故や不審者の被害から保護することが可能になる。
Further, the present invention is characterized in that the process is a surrounding situation monitoring process for monitoring a traffic situation around the user or a suspicious person.
According to such a configuration, it is possible to protect the user from the traffic accident and the damage of the suspicious person.

また、本発明は、前記処理は、前記ユーザを目的地まで案内する道案内処理であることを特徴とする。
このような構成によれば、ユーザを目的地に確実に案内することが可能になる。
Further, the present invention is characterized in that the process is a route guidance process for guiding the user to a destination.
According to such a configuration, it is possible to reliably guide the user to the destination.

また、本発明は、前記処理は、前記ユーザの周辺から特定の人物を探索する人物探索処理であることを特徴とする。
このような構成によれば、所望の人物を確実に探索することができる。
Further, the present invention is characterized in that the process is a person search process for searching for a specific person from around the user.
According to such a configuration, it is possible to reliably search for a desired person.

また、本発明は、前記処理は、緊急事態の発生を周囲の人物に通報する緊急通報処理であることを特徴とする。
このような構成によれば、緊急事態の発生を周囲の人物に通報することで、ユーザが被害を受けることを防止することができる。
Further, the present invention is characterized in that the process is an emergency notification process in which occurrence of an emergency situation is notified to surrounding people.
According to such a configuration, it is possible to prevent the user from being damaged by notifying the surrounding person of the occurrence of the emergency situation.

また、本発明は、前記処理は、荷物を目的地まで搬送する荷物搬送処理であることを特徴とする。
このような構成によれば、荷物を迅速に目的地まで搬送することができる。
Further, the present invention is characterized in that the process is a package transfer process of transferring a package to a destination.
According to such a configuration, the package can be quickly transported to the destination.

また、本発明は、前記処理は、インターネットから所望の情報を検索する検索処理であることを特徴とする。
このような構成によれば、屋外においても所望の情報を得ることができる。
Further, the present invention is characterized in that the process is a search process for searching for desired information from the Internet.
According to such a configuration, desired information can be obtained even outdoors.

また、本発明は、前記処理は、現在地に関連する情報または広告を前記ユーザに通知する情報通知処理であることを特徴とする。
このような構成によれば、現在地に関する様々な情報を得ることができる。
Further, the present invention is characterized in that the process is an information notification process of notifying the user of information or an advertisement related to a current location.
According to such a configuration, various information on the current location can be obtained.

また、本発明は、前記処理は、緊急事態が発生した場合に、前記ユーザを安全な場所まで誘導する緊急事態処理であることを特徴とする。
このような構成によれば、地震や津波等の緊急事態が発生した場合に、ユーザを安全な場所に避難誘導することができる。
Further, the present invention is characterized in that the processing is an emergency processing for guiding the user to a safe place when an emergency occurs.
According to such a configuration, when an emergency such as an earthquake or a tsunami occurs, it is possible to evacuate the user to a safe place.

また、本発明は、前記ユーザ側デバイスは、実在する風景に対して、画像処理によって得られた視覚情報を重畳して表示する拡張現実表示部を有し、前記拡張現実表示部は、前記飛行体における処理によって得られた視覚情報を表示する、ことを特徴とする。
このような構成によれば、飛行体による処理によって得られた情報を、ユーザの視覚を妨げることなく提示することができる。
Further, according to the present invention, the user-side device further includes an augmented reality display unit that superimposes and displays visual information obtained by image processing on an existing landscape, and the augmented reality display unit is configured to Display visual information obtained by processing in the body.
According to such a configuration, it is possible to present the information obtained by the processing by the flying object without disturbing the user's vision.

本発明によれば、屋外においてもユーザに追従して様々な要求に応じた処理を行うことが可能なユーザ支援システムを提供することが可能となる。   According to the present invention, it is possible to provide a user support system capable of performing processing according to various requests following the user even outdoors.

本発明の実施形態に係るユーザ支援システムの構成例を示す図である。It is a figure showing an example of composition of a user support system concerning an embodiment of the present invention. 図1に示す飛行体の詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the flying body shown in FIG. 図1に示すユーザ側デバイスの詳細な構成例を示す図である。It is a figure which shows the example of a detailed structure of the user side device shown in FIG. 図1に示すサーバの詳細な構成例を示す図である。It is a figure which shows the example of a detailed structure of the server shown in FIG. 図2に示す飛行体において実行されるメイン処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the main process performed in the flying body shown in FIG. 図4に示すサーバに登録されているユーザの属性情報の一例を示す図である。It is a figure which shows an example of the user's attribute information registered into the server shown in FIG. 図5に示す追従処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the follow-up process shown in FIG. 図5に示す見守り処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the watching process shown in FIG. 図5に示す要求対応処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the requirement corresponding | compatible process shown in FIG. 図9に示す道案内処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the route guidance process shown in FIG. 図9に示す人探索処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the person search process shown in FIG. 図5に示す情報通知処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the information notification process shown in FIG. 図5に示す緊急事態処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of emergency processing shown in FIG. 図3に示すユーザ側デバイスの他の構成例を示す図である。It is a figure which shows the other structural example of the user side device shown in FIG. 図14に示すユーザ側デバイスの外観を示す図である。It is a figure which shows the external appearance of the user side device shown in FIG.

次に、本発明の実施形態について説明する。   Next, an embodiment of the present invention will be described.

(A)本発明の実施形態の構成の説明
図1は、本発明の実施形態に係るユーザ支援システムの構成例を示す図である。図1に示すように、ユーザ支援システム1は、飛行体10、ユーザ側デバイス20、基地局30、ネットワーク40、および、サーバ50を有し、ユーザの支援を行う。
(A) Description of the Configuration of the Embodiment of the Present Invention FIG. 1 is a diagram showing an example of the configuration of a user support system according to the embodiment of the present invention. As shown in FIG. 1, the user support system 1 has a flying object 10, a user device 20, a base station 30, a network 40, and a server 50, and supports the user.

飛行体10は、無人航空機UAV(Unmanned Air Vehicle)であり、例えば、4つ以上のプロペラによってホバリング(空中停止)することが可能なドローン等によって構成される。なお、図1に示す飛行体10の形態は一例であって、これ以外の形態を有する飛行体であってもよい。また、飛行体10は、小型ヘリコプタや、気球等によって構成されるようにしてもよい。   The flying object 10 is an unmanned air vehicle (UAV), and is configured of, for example, a drone or the like that can be hovered (stopped in the air) by four or more propellers. In addition, the form of the flying object 10 shown in FIG. 1 is an example, and the flying object may have other forms. Further, the flying object 10 may be configured by a small helicopter, a balloon or the like.

ユーザ側デバイス20は、例えば、ユーザの手首に装着されるリストバンド型のデバイスによって構成され、ユーザの指示または要求等の情報(以下、「指示等」と称する)を飛行体10に送信するとともに、飛行体10から送信される情報を受信し、音声または画像として提示する。   The user-side device 20 is constituted by, for example, a wristband-type device worn on the wrist of the user, and transmits information such as an instruction or request of the user (hereinafter referred to as “instruction or the like”) to the aircraft 10. , Receive information transmitted from the aircraft 10 and present it as voice or image.

基地局30は、ユーザ側デバイス20との間で電波によって情報を授受するとともに、ネットワーク40を介してサーバ50との間で情報を授受する。   The base station 30 exchanges information with the user device 20 by radio waves, and exchanges information with the server 50 via the network 40.

ネットワーク40は、例えば、インターネットによって構成され、基地局30とサーバ50との間で、所定のプロトコルに基づいて、情報を授受する。   The network 40 is configured by, for example, the Internet, and exchanges information between the base station 30 and the server 50 based on a predetermined protocol.

サーバ50は、基地局30およびネットワーク40を介してユーザ側デバイス20から伝送された要求に対応する処理を実行するとともに、ユーザ側デバイス20に対して種々の情報を供給する。   The server 50 performs processing corresponding to the request transmitted from the user device 20 via the base station 30 and the network 40, and supplies various information to the user device 20.

図2は、飛行体10の構成例を示している。図2の例では、飛行体10は、撮像素子11、ジンバル12、画像処理部13、音声処理部14、送受信部15、アンテナ15a,15b、制御部16、GPS(Global Positioning System)17、センサ18、および、モータ19−1〜19−4を有している。   FIG. 2 shows a configuration example of the flying object 10. In the example of FIG. 2, the flying object 10 includes an imaging device 11, a gimbal 12, an image processing unit 13, an audio processing unit 14, a transmitting and receiving unit 15, antennas 15 a and 15 b, a control unit 16, a GPS (Global Positioning System) 17, and a sensor And motors 19-1 to 19-4.

撮像素子11は、被写体によって反射される可視光を3原色に分解し、それぞれの色の光の強度を対応する電荷に光電変換し、画像データとして出力する。   The imaging device 11 separates the visible light reflected by the subject into the three primary colors, photoelectrically converts the intensities of the light of the respective colors into corresponding charges, and outputs the charges as image data.

ジンバル12は、撮像素子11が固定された固定部材の傾きを電子制御によって制御することで、飛行体10が揺動した場合でも、撮像素子11によって撮像される画像が揺らがないように制御する。なお、ジンバル12は、撮像素子11の垂直方向の傾き(チルト)を制御できる構成とされている。   The gimbal 12 controls the inclination of the fixing member to which the imaging device 11 is fixed by electronic control, so that the image captured by the imaging device 11 does not swing even when the flying object 10 swings. The gimbal 12 is configured to be able to control the tilt (tilt) in the vertical direction of the imaging device 11.

画像処理部13は、撮像素子11から出力される画像データに対して、画像認識処理等を施し、得られた結果を、送受信部15を介して制御部16に供給する。   The image processing unit 13 performs image recognition processing and the like on the image data output from the imaging device 11, and supplies the obtained result to the control unit 16 via the transmission / reception unit 15.

音声処理部14は、ユーザ側デバイス20から送信され、送受信部15によって受信されたユーザの音声データに対して認識処理を実行し、得られた結果を、送受信部15を介して制御部16に供給する。   The voice processing unit 14 executes recognition processing on the voice data of the user transmitted from the user device 20 and received by the transmitting and receiving unit 15, and the obtained result is transmitted to the control unit 16 via the transmitting and receiving unit 15. Supply.

送受信部15は、アンテナ15aによってユーザ側デバイス20との間で電波によって情報を送受信するとともに、アンテナ15bによって基地局30との間で電波によって情報を送受信する。   The transmitting / receiving unit 15 transmits / receives information by radio waves to / from the user device 20 by the antenna 15a, and transmits / receives information by radio waves to / from the base station 30 by the antenna 15b.

制御部16は、送受信部15から供給される情報、GPS17から供給される位置情報、および、センサ18から供給される飛行体10の飛行状態を示す情報等に基づいて、ジンバル12およびモータ19−1〜19−4を制御する。   The control unit 16 controls the gimbal 12 and the motor 19 based on the information supplied from the transmitting / receiving unit 15, the position information supplied from the GPS 17, the information indicating the flight state of the flying object 10 supplied from the sensor 18, etc. Control 1 to 19-4.

GPS17は、複数の人工衛星から送信される時刻情報を有する信号を受信し、これらの時間差から自身の位置に関する情報(緯度情報および経度情報)を検出し、制御部16に供給する。   The GPS 17 receives signals having time information transmitted from a plurality of artificial satellites, detects information (latitude information and longitude information) regarding its own position from these time differences, and supplies the information to the control unit 16.

センサ18は、例えば、ジャイロセンサ、磁気センサ、気圧センサ、超音波センサ、および、ビジョンポジショニングセンサを有し、飛行体10の姿勢、高度、および、障害物との距離、障害物の形状等を検出し、制御部16に通知する。   The sensor 18 has, for example, a gyro sensor, a magnetic sensor, a barometric pressure sensor, an ultrasonic sensor, and a vision positioning sensor, and the attitude, height, and distance to an obstacle, the shape of the obstacle, etc. It detects and notifies the control unit 16.

モータ19−1〜19−4は、例えば、ブラシレスモータ等によって構成され、それぞれのモータ19−1〜19−4には、プロペラが取り付けられている。制御部16は、これらのモータ19−1〜19−4の回転数を個別に制御することで、目的の方向に移動したり、飛行体10の方向を変更したりすることができる。   The motors 19-1 to 19-4 are constituted by, for example, brushless motors or the like, and propellers are attached to the respective motors 19-1 to 19-4. The control unit 16 can move in a target direction or change the direction of the flying object 10 by individually controlling the rotational speeds of the motors 19-1 to 19-4.

図3は、図1に示すユーザ側デバイス20の詳細な構成例を示す図である。図3の例では、ユーザ側デバイス20は、送受信部21、アンテナ21a、センサ22、制御部23、表示部24、操作部25、マイク26、および、スピーカ27を有している。   FIG. 3 is a diagram showing a detailed configuration example of the user device 20 shown in FIG. In the example of FIG. 3, the user device 20 includes a transmitting / receiving unit 21, an antenna 21 a, a sensor 22, a control unit 23, a display unit 24, an operation unit 25, a microphone 26, and a speaker 27.

ここで、送受信部21は、アンテナ21aを介して、飛行体10との間で電波によって情報を送受信する。   Here, the transmitting / receiving unit 21 transmits / receives information by radio waves to / from the flying object 10 via the antenna 21 a.

制御部23は、マイク26および操作部25から供給される情報に基づいて飛行体10に対する指示等を生成し、送受信部21およびアンテナ21aを介して飛行体10に送信する。また、飛行体10から送信され、アンテナ21aおよび送受信部21を介して受信した情報を表示部24およびスピーカ27から出力する。   The control unit 23 generates an instruction or the like for the flying object 10 based on the information supplied from the microphone 26 and the operation unit 25 and transmits the instruction to the flying object 10 via the transmission / reception unit 21 and the antenna 21 a. Further, the information transmitted from the flying object 10 and received via the antenna 21 a and the transmitting and receiving unit 21 is output from the display unit 24 and the speaker 27.

表示部24は、例えば、液晶表示パネル等によって構成され、制御部23から供給される情報を表示する。   The display unit 24 is configured of, for example, a liquid crystal display panel or the like, and displays information supplied from the control unit 23.

操作部25は、例えば、タッチパネルによって構成され、表示部24に重畳して構成され、ユーザの操作に基づく情報を生成して制御部23に供給する。なお、操作部25は、例えば、操作ボタン、および、ジョグダイアル等によって構成されるようにしてもよい。   The operation unit 25 is configured by, for example, a touch panel, and is configured to be superimposed on the display unit 24. The operation unit 25 generates information based on a user's operation and supplies the information to the control unit 23. The operation unit 25 may be configured by, for example, an operation button and a jog dial.

マイク26は、ユーザの発話する音声を電気信号に変換して制御部23に供給する。スピーカ27は、制御部23から供給される電気信号を音声に変換して出力する。   The microphone 26 converts the voice uttered by the user into an electrical signal and supplies the electrical signal to the control unit 23. The speaker 27 converts the electric signal supplied from the control unit 23 into sound and outputs the sound.

図4は、図1に示すサーバ50の詳細な構成例を示している。図4に示すように、サーバ50は、CPU(Central Processing Unit)51、ROM(Read Only Memory)52、RAM(Random Access Memory)53、HDD(Hard Disk Drive)54、I/F55、および、バス56を有している。   FIG. 4 shows a detailed configuration example of the server 50 shown in FIG. As shown in FIG. 4, the server 50 includes a central processing unit (CPU) 51, a read only memory (ROM) 52, a random access memory (RAM) 53, a hard disk drive (HDD) 54, an I / F 55, and a bus. It has 56.

ここで、CPU51は、ROM52およびHDD54に格納されたプログラムに応じて各部を制御する中央処理装置である。   Here, the CPU 51 is a central processing unit that controls each unit in accordance with programs stored in the ROM 52 and the HDD 54.

ROM52は、不揮発性の半導体記憶装置によって構成され、CPU51が実行する基本的なプログラム等を格納する。   The ROM 52 is configured by a non-volatile semiconductor storage device, and stores a basic program and the like executed by the CPU 51.

RAM53は、揮発性の半導体記憶装置によって構成され、CPU51が実行対象とするプログラムや、計算途中のデータを一時的に格納する。   The RAM 53 is configured of a volatile semiconductor storage device, and temporarily stores a program to be executed by the CPU 51 and data during calculation.

HDD54は、磁気記憶装置によって構成され、CPU51が実行するプログラムやユーザに対して供給するための情報等を格納する。なお、HDD54には、後述する、ユーザの属性情報等が格納されている。   The HDD 54 is formed of a magnetic storage device, and stores programs executed by the CPU 51, information to be supplied to the user, and the like. The HDD 54 stores user attribute information and the like, which will be described later.

I/F55は、ネットワーク40を介して基地局30との間で情報を授受する際に、情報の表現形式を変換する処理を実行する。   When the I / F 55 exchanges information with the base station 30 via the network 40, the I / F 55 executes a process of converting the representation form of the information.

バス56は、CPU51、ROM52、RAM53、HDD54、および、I/F55を相互に接続し、これらの間で情報の授受を可能とするための信号線群である。   The bus 56 is a group of signal lines for mutually connecting the CPU 51, the ROM 52, the RAM 53, the HDD 54, and the I / F 55 and enabling the exchange of information among them.

(B)本発明の実施形態の動作の説明
つぎに、本発明の実施形態の動作について説明する。本実施形態に係るユーザ支援システムは、例えば、ユーザが外出する際に、ユーザに追従して飛行するとともに、ユーザの支援を行う。図5は、図2に示す飛行体において実行されるメイン処理の一例を説明するためのフローチャートである。図5に示すフローチャートの処理が開始されると、以下のステップが実行される。
(B) Description of Operation of the Embodiment of the Present Invention Next, the operation of the embodiment of the present invention will be described. For example, when the user goes out, the user support system according to the present embodiment follows the user and flies while supporting the user. FIG. 5 is a flow chart for explaining an example of main processing executed in the flying object shown in FIG. When the process of the flowchart shown in FIG. 5 is started, the following steps are performed.

ステップS10では、制御部16は、離陸指示がされたか否かを判定し、離陸指示がされたと判定した場合(ステップS10:Y)にはステップS11に進み、それ以外の場合(ステップS10:N)には同じ処理を繰り返す。例えば、飛行体10がユーザ宅の玄関に配置されており、ユーザ側デバイス20を装着したユーザが、玄関から屋外に出ようとした場合や、ユーザがユーザ側デバイス20の操作部25の離陸を指示するボタンを操作した場合や、ユーザが音声によって離陸を指示した場合や、あるいは、ユーザがポケットやカバン等に収容している飛行体10を取り出して空中に放り投げた場合には、離陸が指示されたと判定し、ステップS11に進む。なお、これら以外の方法によって、離陸を指示するようにしてもよい。   In step S10, the control unit 16 determines whether or not the takeoff instruction has been made. If it is determined that the takeoff instruction has been made (step S10: Y), the process proceeds to step S11, otherwise (step S10: N) Repeat the same process for). For example, when the flying object 10 is disposed at the entrance of the user's house and the user wearing the user-side device 20 tries to go outside from the entrance, or when the user takes off the operation unit 25 of the user-side device 20 When the user operates a button to instruct, when the user instructs takeoff by voice, or when the user takes out the flying object 10 accommodated in a pocket or bag and throws it into the air, the takeoff is performed. It is determined that the instruction has been given, and the process proceeds to step S11. Note that takeoff may be instructed by a method other than these.

ステップS11では、制御部16は、離陸指示を行ったユーザを特定する。より詳細には、例えば、ユーザ側デバイス20がユーザID(Identification)を有している場合には、ユーザIDによってユーザを特定することができる。なお、これ以外にも、例えば、ユーザ側デバイス20のマイク26から入力された音声を音声処理部14で声紋分析処理に基づく話者特定処理を実行することでユーザを特定することができる。あるいは、撮像素子11によって撮像されたユーザの画像に対して、画像処理部13によって認識処理を施すことでユーザを特定するようにしてもよい。   In step S11, the control unit 16 specifies the user who has issued the takeoff instruction. More specifically, for example, when the user device 20 has a user ID (Identification), the user can identify the user. In addition to this, for example, the user can be specified by executing the speaker specifying process based on the voiceprint analysis process in the voice processing unit 14 of the voice input from the microphone 26 of the user device 20. Alternatively, the image processing unit 13 may perform recognition processing on the image of the user captured by the imaging device 11 to specify the user.

なお、ステップS11の処理によって、ユーザが特定されると、制御部16は、サーバ50にアクセスし、特定されたユーザの属性情報を得ることができる。図6は、サーバ50のHDD54に格納されているユーザの属性情報の一例である。図6の例では、ユーザの属性情報としては、ユーザID、年齢、性別、音声の特徴、顔の特徴、身体の特徴、所持デバイス、行動パターン、嗜好性情報(食、衣類、場所等)、移動速度(通常時)、移動速度(緊急時)、通知情報種類、および、見守り内容がある。   When the user is specified by the process of step S11, the control unit 16 can access the server 50 and obtain attribute information of the specified user. FIG. 6 is an example of user attribute information stored in the HDD 54 of the server 50. In the example of FIG. 6, as the user attribute information, user ID, age, gender, voice feature, face feature, body feature, possessed device, behavior pattern, preference information (food, clothes, place, etc.), There are moving speed (normal time), moving speed (emergency time), notification information type, and watching content.

ここで、ユーザID、年齢、および、性別は、ユーザのID、年齢、および、性別を示す。また、音声の特徴は、話者識別をするための声の特徴を示す情報であり、顔の特徴は、顔認識によってユーザを識別するための特徴を示す情報であり、身体の特徴は、例えば、身長、体重、体格等の身体の特徴を示す情報である。また、所持デバイスは、ユーザ側デバイス20の種類を示す情報である。行動パターンは、ユーザの行動パターンを示す情報であり、例えば、曜日毎および時間帯毎の行動パターン(散歩、通学、通勤等)を示す情報である。嗜好性情報(食、衣類、場所等)は、ユーザの嗜好性を示す情報であり、例えば、食の好み(例えば、和食を好む等)、衣類の好み(例えば、カジュアルな服装が好む等)、場所の好み(例えば、音楽が演奏されている場所を好む等)を示す情報である。移動速度(通常時)および移動速度(緊急時)は、通常時の移動可能速度(例えば、時速4km)と、緊急時(例えば、緊急事態が発生した場合)の移動可能速度(例えば、時速8km)を示す情報である。通知情報種類は、ユーザが通知することを許可している情報(例えば、プッシュ広告、場所に関する情報等)を示す。見守り内容は、ユーザが必要な見守りの種類(例えば、不審者の監視、周囲の交通状況の監視等)を示す情報である。なお、図6は一例であって、これら以外の情報を登録したり、図6の一部の情報を登録したりするようにしてもよい。   Here, the user ID, the age, and the gender indicate the ID, the age, and the gender of the user. Also, the voice feature is information indicating the voice feature for speaker identification, the face feature is information indicating the feature for identifying the user by face recognition, and the body feature is, for example, , Body weight, body weight, and other characteristics of the body. The possessed device is information indicating the type of the user device 20. The action pattern is information indicating an action pattern of the user, for example, information indicating an action pattern (walking, attending school, commuting, etc.) for each day of the week and for each time zone. The preference information (food, clothing, place, etc.) is information indicating the user's preference, and, for example, food preference (eg, preference for Japanese food etc.), clothing preference (eg, casual clothes preference, etc.) , And is information indicating a preference of a place (e.g., prefer a place where music is being played, etc.). The moving speed (normal time) and moving speed (emergency time) are the normal moving speed (for example, 4 km / h) and the movable speed time for emergency (for example, when an emergency occurs) (for example, 8 km / hour) It is the information which shows). The notification information type indicates information that the user is permitted to notify (for example, a push advertisement, information on a place, etc.). The watching content is information indicating the type of watching required by the user (for example, monitoring of a suspicious person, monitoring of surrounding traffic conditions, etc.). Note that FIG. 6 is an example, and information other than these may be registered, or part of the information in FIG. 6 may be registered.

ステップS12では、制御部16は、ホバリングを開始する。より詳細には、制御部16は、GPS17から供給される位置情報と、センサ18から供給される加速度情報等に基づき、飛行体10が所定の位置に留まるように制御する。   In step S12, the control unit 16 starts hovering. More specifically, the control unit 16 controls the flying object 10 to stay at a predetermined position based on the position information supplied from the GPS 17 and the acceleration information supplied from the sensor 18 or the like.

ステップS13では、制御部16は、ユーザが移動したか否かを判定し、移動したと判定した場合(ステップS13:Y)にはステップS14に進み、それ以外の場合(ステップS13:N)にはステップS15に進む。例えば、ユーザ側デバイス20のセンサ22が有するGPSによって検出されるユーザの位置情報を参照し、ユーザが移動したと判定した場合にはステップS14に進むことができる。なお、ユーザが移動したか否かを判定する方法としては、例えば、送受信部15によって受信するユーザ側デバイス20からの電波の強度が変化した場合には、ユーザが移動したと判定することができる。   In step S13, the control unit 16 determines whether or not the user has moved, and if it is determined that the user has moved (step S13: Y), the process proceeds to step S14, and otherwise (step S13: N) The process proceeds to step S15. For example, the position information of the user detected by the GPS of the sensor 22 of the user device 20 is referred to, and when it is determined that the user has moved, the process can proceed to step S14. In addition, as a method of determining whether the user has moved, for example, when the intensity of the radio wave from the user-side device 20 received by the transmitting / receiving unit 15 changes, it can be determined that the user has moved .

ステップS14では、制御部16は、飛行体10がユーザに追従する処理である追従処理を実行する。なお、この処理の詳細については、図7を参照して後述する。   In step S14, the control unit 16 executes a following process, which is a process in which the flying object 10 follows the user. The details of this process will be described later with reference to FIG.

ステップS15では、制御部16は、ユーザの見守り処理を実行するか否かを判定し、実行すると判定した場合(ステップS15:Y)にはステップS16に進み、それ以外の場合(ステップS15:N)にはステップS17に進む。例えば、図6に示す属性情報の末尾の「見守り内容」に、見守りが必要である旨を示す情報が付加されている場合にはYと判定してステップS16に進むことができる。   In step S15, the control unit 16 determines whether or not the user watching process is to be performed. If it is determined that the process is to be performed (step S15: Y), the process proceeds to step S16, otherwise (step S15: N) In step S17). For example, when information indicating that watching is necessary is added to the “watching content” at the end of the attribute information shown in FIG. 6, it is possible to determine Y and proceed to step S16.

ステップS16では、制御部16は、飛行体10によってユーザを見守る見守り処理を実行する。なお、見守り処理の詳細については、図8を参照して後述する。   In step S16, the control unit 16 executes watching processing to watch the user by the flying object 10. The details of the watching process will be described later with reference to FIG.

ステップS17では、制御部16は、ユーザが要求を行ったか否かを判定し、要求を行ったと判定した場合(ステップS17:Y)にはステップS18に進み、それ以外の場合(ステップS17:N)にはステップS19に進む。例えば、ユーザがユーザ側デバイス20のマイク26に対して何らかの要求を行った場合、または、操作部25を操作して何らかの要求を行った場合にはYと判定してステップS18に進む。   In step S17, the control unit 16 determines whether the user has made a request, and if it is determined that a request has been made (step S17: Y), the process proceeds to step S18, otherwise (step S17: N) )) Goes to step S19. For example, when the user makes a request to the microphone 26 of the user device 20 or when the user operates the operation unit 25 to make a request, it is determined as Y and the process proceeds to step S18.

ステップS18では、制御部16は、ユーザの要求に応じた要求対応処理を実行する。なお、要求対応処理の詳細については、図9を参照して後述する。   In step S18, the control unit 16 executes a request handling process according to the user's request. The details of the request handling process will be described later with reference to FIG.

ステップS19では、制御部16は、ユーザに通知する情報があるか否かを判定し、通知する情報があると判定した場合(ステップS19:Y)にはステップS20に進み、それ以外の場合(ステップS19:N)にはステップS21に進む。例えば、ユーザがプッシュ広告を許可している場合に、表示すべきプッシュ広告が存在する場合にはYと判定してステップS20に進む。   In step S19, the control unit 16 determines whether or not there is information to be notified to the user. If it is determined that there is information to be notified (step S19: Y), the process proceeds to step S20. In step S19: N), the process proceeds to step S21. For example, when the user permits the push advertisement, if there is a push advertisement to be displayed, it is determined as Y and the process proceeds to step S20.

ステップS20では、制御部16は、ユーザに対して情報を通知する情報通知処理を実行する。なお、情報通知処理の詳細については、図12を参照して後述する。   In step S20, the control unit 16 executes an information notification process of notifying the user of the information. The details of the information notification process will be described later with reference to FIG.

ステップS21では、制御部16は、緊急事態が発生したか否かを判定し、緊急事態が発生したと判定した場合(ステップS21:Y)にはステップS22に進み、それ以外の場合(ステップS21:N)にはステップS23に進む。例えば、地震等が発生した場合にはYと判定してステップS22に進む。   In step S21, the control unit 16 determines whether or not an emergency situation has occurred. If it is determined that an emergency situation has occurred (step S21: Y), the process proceeds to step S22, otherwise (step S21) : N) Go to step S23. For example, when an earthquake or the like occurs, it is determined as Y and the process proceeds to step S22.

ステップS22では、制御部16は、緊急事態に対応する緊急事態処理を実行する。なお、緊急事態処理の詳細については、図13を参照して後述する。   In step S22, the control unit 16 executes emergency situation processing corresponding to the emergency situation. The details of the emergency process will be described later with reference to FIG.

ステップS23では、制御部16は、着陸するか否かを判定し、着陸すると判定した場合(ステップS23:Y)にはステップS24に進み、それ以外の場合(ステップS23:N)にはステップS10に戻って前述の場合と同様の処理を繰り返す。例えば、ユーザが外出先から自宅に到着した場合には、Yと判定してステップS24に進む。   In step S23, the control unit 16 determines whether to land or not, and when it is determined to land (step S23: Y), the process proceeds to step S24, and in other cases (step S23: N), step S10. Return to and repeat the same process as described above. For example, when the user arrives at home from the place to go out, it is determined as Y and the process proceeds to step S24.

ステップS24では、制御部16は、着陸する処理を実行する。具体的には、制御部16はGPS17およびセンサ18の出力を参照し、機体を水平に保ちながら所定の場所(例えば、玄関先の充電設備が配置されている場所)に着陸する。   In step S24, the control unit 16 executes a landing process. Specifically, the control unit 16 refers to the outputs of the GPS 17 and the sensor 18, and lands on a predetermined place (for example, a place where a charging facility at the entrance is arranged) while keeping the airframe horizontal.

以上のフローチャートによれば、ユーザの外出に応じて離陸し、ユーザの行動等を支援するとともに、ユーザの帰宅等に応じて着陸することができる。   According to the above-described flowchart, it is possible to take off in response to the user going out, support the user's action and the like, and land in response to the user's return and the like.

つぎに、図7を参照して、図5のステップS14に示す追従処理の詳細について説明する。図7に示すフローチャートの処理が開始されると、以下のステップが実行される。   Next, details of the follow-up process shown in step S14 of FIG. 5 will be described with reference to FIG. When the process of the flowchart shown in FIG. 7 is started, the following steps are performed.

ステップS30では、制御部16は、設定された飛行体10のデフォルト位置を取得する。例えば、見守り等の場合には、飛行体10のデフォルト位置は、ユーザの直上または後方上部とされる。また、道案内の場合にはユーザよりも2〜3m程度前方の位置とされる。   In step S30, the control unit 16 acquires the set default position of the flying object 10. For example, in the case of watching or the like, the default position of the flying object 10 is the upper side immediately above or behind the user. Moreover, in the case of a route guidance, it is set as a position ahead of a user about 2-3 m.

ステップS31では、制御部16は、飛行体10の自機の位置を取得する。より詳細には、制御部16は、GPS17から供給される位置情報(緯度および経度情報)に基づいて自機の位置を取得する。   In step S31, the control unit 16 acquires the position of the own aircraft of the aircraft 10. More specifically, the control unit 16 acquires the position of the own aircraft based on the position information (latitude and longitude information) supplied from the GPS 17.

ステップS32では、制御部16は、ユーザの位置を取得する。より詳細には、制御部16は、ユーザ側デバイス20に対して位置情報を送信するように要求する。この結果、ユーザ側デバイス20は、センサ22に含まれるGPSから位置情報(緯度および経度情報)を取得し、送受信部21が位置情報を飛行体10に対して送信する。これにより、飛行体10の制御部16は、ユーザの位置情報を取得することができる。   In step S32, the control unit 16 acquires the position of the user. More specifically, the control unit 16 requests the user device 20 to transmit position information. As a result, the user device 20 acquires position information (latitude and longitude information) from the GPS included in the sensor 22, and the transmitting and receiving unit 21 transmits the position information to the aircraft 10. Thereby, the control unit 16 of the aircraft 10 can acquire the position information of the user.

ステップS33では、制御部16は、ユーザの進行方向を取得する。より詳細には、制御部16は、ステップS32で取得したユーザ位置情報の時間的な変化から、ユーザの進行方向を取得する。   In step S33, the control unit 16 acquires the traveling direction of the user. More specifically, the control unit 16 acquires the traveling direction of the user from the temporal change of the user position information acquired in step S32.

ステップS34では、制御部16は、電波の受信強度を検出する。より詳細には、制御部16は、ユーザ側デバイス20から送信される電波の送受信部15による受信強度を検出する。   In step S34, the control unit 16 detects the reception intensity of the radio wave. More specifically, the control unit 16 detects the reception intensity of the radio wave transmitted from the user device 20 by the transmission / reception unit 15.

ステップS35では、制御部16は、撮像素子11によってユーザの画像を撮像させる。この結果、飛行体10の現在位置からのユーザの画像が撮像される。   In step S35, the control unit 16 causes the imaging device 11 to capture an image of the user. As a result, an image of the user from the current position of the flying object 10 is captured.

ステップS36では、制御部16は、ステップS32で取得したユーザの位置、進行方向、電波の受信強度、および、ユーザの画像を参照して、ユーザと自機との位置関係を算出する。より詳細には、電波の強度からユーザと自機との距離を推定するとともに、GPSによる位置情報から大まかな位置関係を推定する。そして、撮像された画像により、推定した位置関係を補正する処理を実行する。これにより、自機とユーザとの正確
な位置関係が判明する。
In step S36, the control unit 16 calculates the positional relationship between the user and the own apparatus with reference to the position of the user, the traveling direction, the reception intensity of radio waves, and the image of the user acquired in step S32. More specifically, the distance between the user and the own aircraft is estimated from the strength of the radio wave, and the rough positional relationship is estimated from the position information by GPS. Then, a process of correcting the estimated positional relationship is executed based on the captured image. As a result, the correct positional relationship between the own machine and the user can be determined.

ステップS37では、制御部16は、自機の移動方向および移動速度を算出する。より詳細には、ステップS36で算出したユーザと自機の位置関係と、ステップS33で取得したユーザの進行方向に基づいて、自機の移動方向と移動速度を算出する。   At step S37, the control unit 16 calculates the moving direction and moving speed of the own machine. More specifically, the moving direction and the moving speed of the own device are calculated based on the positional relationship between the user and the own device calculated in step S36 and the traveling direction of the user acquired in step S33.

ステップS38では、制御部16は、モータ19−1〜19−4を制御して、ステップS37で算出した移動方向および移動速度を参照し、自機を移動する処理を実行する。この結果、例えば、ユーザが徒歩で移動する場合であっても、走って移動する場合であっても、所定のデフォルト位置を保ちながら追従することができる。   In step S38, the control unit 16 controls the motors 19-1 to 19-4, refers to the moving direction and the moving speed calculated in step S37, and executes the process of moving the own machine. As a result, for example, even when the user moves on foot or travels, it is possible to follow while maintaining a predetermined default position.

ステップS39では、制御部16は、適切な位置関係となったか否かを判定し、適切な位置関係となったと判定した場合(ステップS39:Y)には元の処理に復帰(リターン)し、それ以外の場合(ステップS39:N)にはステップS30に戻って前述の場合と同様の処理を繰り返す。   In step S39, the control unit 16 determines whether or not the appropriate positional relationship has been obtained, and if it is determined that the appropriate positional relationship has been obtained (step S39: Y), the processing returns to the original processing (return). Otherwise (step S39: N), the process returns to step S30 and repeats the same process as described above.

以上のフローチャートの処理によれば、飛行体10をユーザと所定の位置関係を保った状態で、ユーザに追従させることができる。   According to the processing of the above flowchart, the user can be made to follow the flying object 10 while maintaining the predetermined positional relationship with the user.

つぎに、図8を参照して、図5のステップS16に示す見守り処理の詳細について説明する。図8に示すフローチャートの処理が開始されると、以下のステップが実行される。   Next, details of the watching process shown in step S16 of FIG. 5 will be described with reference to FIG. When the process of the flowchart shown in FIG. 8 is started, the following steps are performed.

ステップS50では、制御部16は、子どもの見守りを実行するか否かを判定し、子どもの見守りを実行すると判定した場合(ステップS50:Y)にはステップS51に進み、それ以外の場合(ステップS50:N)にはステップS53に進む。例えば、図6に示すユーザの属性情報の見守り内容を参照し、現在、追従しているユーザが子どもであって、子どもの見守りを実行すると判定した場合にはステップS51に進む。   In step S50, the control unit 16 determines whether or not to watch over the child, and if it is determined to watch over the child (step S50: Y), the process proceeds to step S51, otherwise (step In step S50, the process proceeds to step S53. For example, the monitoring content of the user's attribute information shown in FIG. 6 is referred to, and if it is determined that the currently following user is a child and the child monitoring is to be performed, the process proceeds to step S51.

ステップS51では、制御部16は、周囲の交通状況を監視する処理を実行する。より詳細には、制御部16は、ジンバル12を制御するとともに、モータ19−1〜19−4を制御し、ユーザの周辺の画像を撮像する。特に、ユーザの死角になりやすい後方等を撮像する。なお、撮像素子として、画角が広い魚眼レンズ等を用いるようにしてもよい。あるいは、2つの魚眼レンズと2つの撮像素子を用いて、自機の周辺360度の画像を撮像できるようにしてもよい。画像処理部13は、このようにして撮像されたユーザの周辺画像を参照し、ユーザに対して接近している車両(例えば、自動車、バイク、自転車等)の存在を検出する。そして、接近する車両がユーザに接触したり、衝突したりしないかを監視する。なお、子どもの場合には、突然の飛び出し等を行う場合があるので、ユーザが急に走り出したりした場合には、追従するとともに、周辺の車両を監視するようにしてもよい。また、制御部16は、GPS17によって現在の位置情報を取得し、取得した位置情報を基地局30およびネットワーク40を介してサーバ50に送信し、現在位置を中心とする地図情報を取得するようにしてもよい。そして、現在位置を中心とする地図情報から道路の状況を把握し、ユーザが現在居る場所が道路であるのか、路側帯であるのかを把握し、把握した内容に基づいて監視を行うようにしてもよい。   In step S51, the control unit 16 executes a process of monitoring surrounding traffic conditions. More specifically, the control unit 16 controls the gimbal 12 and controls the motors 19-1 to 19-4 to capture an image around the user. In particular, the rear etc. which are easy to become a blind spot of a user are imaged. A fisheye lens or the like having a wide angle of view may be used as the imaging device. Alternatively, two fisheye lenses and two imaging devices may be used to capture an image of 360 degrees around the player. The image processing unit 13 refers to the peripheral image of the user captured in this manner, and detects the presence of a vehicle (for example, a car, a motorcycle, a bicycle, etc.) approaching the user. Then, it is monitored whether the approaching vehicle contacts or collides with the user. In the case of a child, a sudden jump or the like may be performed. Therefore, when the user suddenly runs, the vehicle may follow and monitor surrounding vehicles. Also, the control unit 16 acquires current position information by the GPS 17, transmits the acquired position information to the server 50 via the base station 30 and the network 40, and acquires map information centered on the current position. May be Then, the situation of the road is grasped from the map information centering on the current position, and it is grasped whether the place where the user is now is the road or the roadside zone, and monitoring is performed based on the grasped contents. It is also good.

ステップS52では、制御部16は、周囲の不審者を監視する処理を実行する。より詳細には、制御部16は、ジンバル12を制御するとともに、モータ19−1〜19−4を制御し、ユーザの周辺の画像を撮像し、ステップS51と同様に、ユーザの周辺に、不審な動きをする人が存在しないか監視する。なお、不審な動きとしては、例えば、一定速度で移動しておらず、移動したり、立ち止まったりする動きを不審な動きと定義することができる。もちろん、これ以外の定義であってもよい。   At step S52, the control unit 16 executes a process of monitoring surrounding suspicious persons. More specifically, the control unit 16 controls the gimbal 12 and controls the motors 19-1 to 19-4 to capture an image of the periphery of the user, and in the same manner as in step S51, the controller 16 is suspicious around the user. Monitor if there is a person making a move. In addition, as suspicious movement, for example, movement at a constant speed can be defined as suspicious movement such as movement or stopping. Of course, other definitions may be used.

ステップS53では、制御部16は、高齢者の見守りを実行するか否かを判定し、高齢者の見守りを実行すると判定した場合(ステップS53:Y)にはステップS54に進み、それ以外の場合(ステップS53:N)にはステップS56に進む。例えば、図6に示すユーザの属性情報の見守り内容を参照し、現在、追従しているユーザが高齢者であって、高齢者の見守りを実行すると判定した場合にはステップS54に進む。   In step S53, the control unit 16 determines whether or not watching of the elderly person is to be executed, and if it is determined that watching of the elderly person is to be executed (step S53: Y), the process proceeds to step S54. In (Step S53: N), the process proceeds to Step S56. For example, the monitoring content of the user's attribute information shown in FIG. 6 is referred to, and if it is determined that the currently following user is an elderly person and that the elderly person is to be guarded, the process proceeds to step S54.

ステップS54では、制御部16は、ステップS51と同様の処理によって、周辺の交通状況を監視する処理を実行する。なお、高齢者の場合には、歩行速度が遅く、認知能力の低下によって、接近する車両を感知できない場合が多いので、例えば、図6に示す属性情報の移動速度(通常時)を参照するとともに、サーバ50から取得した現在地を中心とする地図情報を参照し、道路を横断していると判定した場合には、自機の高度を上げる等して、周辺から接近する車両が存在しないか監視するようにしてもよい。   In step S54, the control unit 16 executes a process of monitoring the surrounding traffic condition by the same process as step S51. In the case of an elderly person, the walking speed is slow, and in many cases the approaching vehicle can not be detected due to a decrease in cognitive ability. Therefore, for example, the moving speed of attribute information shown in FIG. Refers to map information centered on the current location acquired from the server 50, and when it is determined that a road is crossed, the altitude of the own aircraft is raised to see if there is a vehicle approaching from the periphery. You may do it.

ステップS55では、制御部16は、転倒等の有無を監視する処理を実行する。例えば、ユーザが同じ場所から移動しなくなるとともに、撮像した画像から、歩行していない状態(地面に横たわっている状態)になっていないか監視する。なお、横たわっていなくても地面に腰を下ろしている状態になっていないか監視するようにしてもよい。   In step S55, the control unit 16 executes a process of monitoring the presence or absence of a fall or the like. For example, while the user does not move from the same place, it is monitored from the captured image whether it is not in a walking state (a state of lying on the ground). In addition, even if not lying, it may be monitored whether or not the user is sitting down on the ground.

ステップS56では、制御部16は、女性の見守りを実行するか否かを判定し、女性の見守りを実行すると判定した場合(ステップS56:Y)にはステップS57に進み、それ以外の場合(ステップS56:N)にはステップS58に進む。例えば、図6に示すユーザの属性情報の見守り内容を参照し、現在、追従しているユーザが女性であって、女性の見守りを実行すると判定した場合にはステップS57に進む。   In step S56, the control unit 16 determines whether or not to watch a woman, and if it is determined that a watch on a woman is to be executed (step S56: Y), the process proceeds to step S57, otherwise (step S56) In step S56: N), the process proceeds to step S58. For example, the monitoring content of the user's attribute information shown in FIG. 6 is referred to, and when it is determined that the currently following user is a female and the female watching is to be performed, the process proceeds to step S57.

ステップS57では、制御部16は、ステップS52と同様の処理により、周囲の不審者を監視する処理を実行する。なお、ストーカー等の被害を防ぐために、例えば、ユーザの周辺に不審な動きをする人物が存在する場合には、当該人物の顔を撮像するとともに、人物同定処理によって、同じ人物が周辺に継続して存在する場合には、ストーカーと判定するようにしてもよい。   In step S57, the control unit 16 executes a process of monitoring surrounding suspicious persons by the same process as step S52. In addition, in order to prevent damage such as stalkers, for example, when there is a person who makes a suspicious motion around the user, the face of the person is imaged, and the same person continues around the person by the person identification process. If it exists, it may be determined as a stalker.

ステップS58では、制御部16は、ランニングの見守りを実行するか否かを判定し、ランニングの見守りを実行すると判定した場合(ステップS58:Y)にはステップS59に進み、それ以外の場合(ステップS58:N)にはステップS61に進む。例えば、図6に示すユーザの属性情報の行動パターンを参照し、ジョギングを行うことが記載されているとともに、見守り内容にランニングの見守りを実行すると判定した場合にはステップS59に進む。   In step S58, the control unit 16 determines whether or not watching of the running is to be executed, and when it is determined that watching of the running is to be executed (step S58: Y), the process proceeds to step S59, and in the other case (step In step S58: N), the process proceeds to step S61. For example, it is described that jogging is performed with reference to the action pattern of the user's attribute information shown in FIG. 6, and when it is determined that watching of running is performed on watching content, the process proceeds to step S59.

ステップS59では、制御部16は、ステップS51と同様の処理によって、周辺の交通状況を監視する処理を実行する。なお、ジョギングの場合には、移動速度が速いことから他の歩行者等と衝突するリスクが高くなるとともに、ユーザがヘッドフォン等を装着している場合には接近する車両を感知できない場合が多い。このため、広い範囲を監視するとともに、早めに警告を発することが望ましい。   In step S59, the control unit 16 executes a process of monitoring the surrounding traffic condition by the same process as step S51. In the case of jogging, the moving speed is high, so the risk of collision with other pedestrians and the like increases, and when the user wears headphones and the like, it is often impossible to detect an approaching vehicle. For this reason, it is desirable to monitor a wide area and issue a warning early.

ステップS60では、制御部16は、ユーザの身体状況を監視する処理を実行する。より詳細には、例えば、ユーザ側デバイス20のセンサ22として、脈拍センサが含まれている場合には、属性情報に含まれる年齢から推定される運動時に推奨される心拍数を、脈拍センサによって検出される心拍数が超過しないか監視し、超過した場合にはペースを落とすように警告するようにしてもよい。   In step S60, the control unit 16 executes a process of monitoring the physical condition of the user. More specifically, for example, when a pulse sensor is included as the sensor 22 of the user-side device 20, the pulse sensor detects a recommended heart rate at the time of exercise estimated from the age included in the attribute information The monitored heart rate may be monitored to see if it is exceeded, and if it is exceeded it may be warned to slow down.

ステップS61では、制御部16は、ステップS50〜ステップS60の処理によって、危険を感知したか否かを判定し、危険を感知した場合(ステップS61:Y)にはステップS62に進み、それ以外の場合(ステップS61:N)には元の処理に復帰(リターン)する。   In step S61, the control unit 16 determines whether or not a danger has been detected by the processes of steps S50 to S60. If a danger is detected (step S61: Y), the process proceeds to step S62. In the case (step S61: N), the process returns to the original process (return).

ステップS62では、制御部16は、感知した危険に対応する警告処理を実行する。例えば、周辺の交通状況から危険を感知した場合には大きな警告音を発するようにするとともに、ユーザの直前に降下して進行を阻止するようにしてもよい。あるいは、高齢者の転倒等の場合には、周囲の人に転倒したことを音声によって通知するとともに、登録された電話番号またはメールアドレスにメッセージを発信することができる。また、女性の見守りの場合には、女性に対して不審者の存在を通知するとともに、ある程度以上接近した場合には、不審者が接近できない高度まで上昇して、周辺の人に助けを求める音声を発するようにしてもよい。また、ランニングの見守りにおける身体状況等の監視では、音声でユーザに伝えるとともに、ユーザの直前に降下してペースダウンするように警告するようにしてもよい。なお、ユーザ側デバイス20のスピーカ27から警告音を発するようにしたり、図示しない振動部をユーザ側デバイス20に設け、この振動部を振動させることで警告したりしてもよい。   In step S62, the control unit 16 executes a warning process corresponding to the detected danger. For example, when a danger is detected from the surrounding traffic condition, a loud warning sound may be emitted, and the vehicle may be lowered immediately before the user to prevent the vehicle from advancing. Alternatively, in the case of an elderly person's fall or the like, it is possible to notify the surrounding people of the fall by voice and send a message to the registered telephone number or e-mail address. Also, in the case of watching over a woman, the woman is notified of the presence of a suspicious person, and when approaching a certain extent, it rises to an altitude at which the suspicious person can not approach and voices asking for help from surrounding people May be emitted. In addition, in monitoring the physical condition or the like in watching over the running, the user may be notified by voice and warn that he / she descends immediately before the user to pace down. A warning sound may be emitted from the speaker 27 of the user device 20, or a warning may be issued by vibrating the vibration unit (not shown).

ステップS63では、制御部16は、感知した危険に対応する録画処理を実行する。より詳細には、不審者の場合には、不審者の顔を鮮明に撮像するような位置に接近して撮像する。また、周囲の交通状況の監視の場合には、万一、事故が発生した場合の状況を示す証拠とするために、車両のナンバーや、運転者の顔を撮影することができる。また、転倒等の場合には、転倒場所が分かるように周辺のランドマークを含むように撮像し、当該画像を予め登録した家族等に送信することができる。   In step S63, the control unit 16 executes a recording process corresponding to the detected danger. More specifically, in the case of a suspicious person, an image is taken close to a position where the face of the suspicious person is clearly imaged. Further, in the case of monitoring of the surrounding traffic condition, the vehicle number and the driver's face can be photographed in order to provide evidence showing the situation in the event of an accident. In addition, in the case of a fall or the like, it is possible to capture an image so as to include surrounding landmarks so that the fall place is known, and transmit the image to a family or the like registered in advance.

つぎに、図9を参照して、図5のステップS18に示す要求対応処理の詳細について説明する。図9に示すフローチャートの処理が開始されると、以下のステップが実行される。   Next, the details of the request handling process shown in step S18 of FIG. 5 will be described with reference to FIG. When the process of the flowchart shown in FIG. 9 is started, the following steps are performed.

ステップS70では、制御部16は、道案内処理がユーザから要求されたか否かを判定し、道案内処理が要求されたと判定した場合(ステップS70:Y)にはステップS71に進み、それ以外の場合(ステップS70:N)にはステップS72に進む。例えば、ユーザが、ユーザ側デバイス20のマイク26に向けて、「近くのフレンチレストランまで案内して」と発話したとする。この場合、マイク26によって電気信号に変換されたユーザの音声は、制御部16によってデジタル信号に変換され、送受信部21を介して飛行体10に送信される。飛行体10では、送受信部15が音声データを受信し、音声処理部14に供給する。音声処理部14は、音声データに対して、自然言語解析処理としての形態素解析処理、構文解析処理、意味解析処理、および、文脈解析処理を実行して得られた処理結果を、送受信部15を介して制御部16に供給する。制御部16は、音声処理部14から供給された情報に基づいて、ユーザが近くのフレンチレストランまでの案内を要求していると判定し、ステップS71に進む。なお、音声で要求を行うのではなく、例えば、ユーザ側デバイス20の操作部25を操作することで、道案内の要求を行うようにしてもよい。   In step S70, the control unit 16 determines whether or not the route guidance processing has been requested by the user, and if it is determined that the route guidance processing has been requested (step S70: Y), the process proceeds to step S71. In the case (step S70: N), the process proceeds to step S72. For example, it is assumed that the user spoke to the microphone 26 of the user-side device 20 as "guide to a nearby French restaurant". In this case, the voice of the user converted into an electrical signal by the microphone 26 is converted into a digital signal by the control unit 16, and is transmitted to the flying object 10 via the transmission / reception unit 21. In the flying object 10, the transmitting and receiving unit 15 receives audio data and supplies the audio data to the audio processing unit 14. The speech processing unit 14 transmits / receives processing results obtained by executing morpheme analysis processing as natural language analysis processing, syntax analysis processing, semantic analysis processing, and context analysis processing on speech data. It supplies to the control part 16 via. The control unit 16 determines that the user has requested guidance to a nearby French restaurant based on the information supplied from the voice processing unit 14, and proceeds to step S71. In addition, you may make it request the route guidance by operating the operation part 25 of the user side device 20 instead of making a request | requirement by an audio | voice, for example.

ステップS71では、制御部16は、ユーザを指定された目的地まで案内する道案内処理を実行する。なお、この処理の詳細は、図10を参照して後述する。   In step S71, the control unit 16 executes route guidance processing for guiding the user to the designated destination. The details of this process will be described later with reference to FIG.

ステップS72では、制御部16は、ユーザが所定の人物を探索する人探索処理の実行を要求しているか否かを判定し、人探索処理の実行を要求していると判定した場合(ステップS72:Y)にはステップS73に進み、それ以外の場合(ステップS73:N)にはステップS74に進む。例えば、ユーザが母親であり、迷子になった子どもを探索することを要求した場合にはYと判定してステップS73に進む。   In step S72, the control unit 16 determines whether the user requests execution of a person search process for searching for a predetermined person, and determines that the user search request is performed (step S72). If Y (Y), then the process proceeds to step S73; otherwise (N in step S73), the process proceeds to step S74. For example, when the user is a mother and requests to search for a lost child, it is determined as Y, and the process proceeds to step S73.

ステップS73では、制御部16は、所定の人物を探索する人探索処理を実行する。なお、当該処理の詳細は、図11を参照して後述する。   In step S73, the control unit 16 executes a person search process for searching for a predetermined person. The details of the process will be described later with reference to FIG.

ステップS74では、制御部16は、ユーザが所定の情報をインターネットから検索するネット検索処理の実行を要求しているか否かを判定し、ネット検索処理の実行を要求していると判定した場合(ステップS74:Y)にはステップS75に進み、それ以外の場合(ステップS74:N)にはステップS77に進む。例えば、ユーザが、インターネットから、眼前のレストランの評価をマイク26に向かって聞いた場合(例えば、「このレストラン〇〇の評価を教えて」と聞いた場合)には、検索が要求されたと判定してステップS75に進む。あるいは、サーバ50の属性情報に対応付けて格納されている買い物リストを参照し、買い物する品物があるか否かを問い合わせた場合(例えば、「買い物リストに、このお店で買いだしするものある?」と聞いた場合)には、検索が要求されたと判定してステップS75に進む。   In step S74, the control unit 16 determines whether the user has requested execution of the net search processing for searching for predetermined information from the Internet, and determines that the execution of the net search processing has been requested ( In step S74: Y, the process proceeds to step S75, and in the case other than that (step S74: N), the process proceeds to step S77. For example, it is determined that a search is requested when the user hears an evaluation of a restaurant in front of the eye toward the microphone 26 from the Internet (for example, when "tell me the evaluation of this restaurant 00"). Then, the process proceeds to step S75. Alternatively, when referring to the shopping list stored in association with the attribute information of the server 50 and inquiring whether or not there is an item to be shopped (for example, “the shopping list is to be bought out at this shop If it is determined that a search has been requested, the process proceeds to step S75.

ステップS75では、制御部16は、ステップS74で要求された情報を、送受信部15および基地局30を介してネットワーク40上から検索する。例えば、「このレストラン〇〇の評価を教えて」の場合には、GPS17から取得した位置情報から直近のレストランを検索し、そのレストランに関連する評価をネットワーク40から検索して取得する。また、「買い物リストに、このお店で買いだしするものある?」の場合は、まず、サーバ50から買い物リストを取得し、買い物リストにリストアップされている商品群と、直近の小売店が販売している商品群とを比較し、両者に一致する商品を特定する。   In step S75, the control unit 16 searches the network 40 via the transmission / reception unit 15 and the base station 30 for the information requested in step S74. For example, in the case of “Tell me the evaluation of this restaurant 00”, the nearest restaurant is searched from the position information acquired from the GPS 17, and the evaluation related to the restaurant is searched and acquired from the network 40. Also, in the case of “Is there a shopping list available for purchase at this store?”, First, the shopping list is obtained from the server 50, and the group of products listed in the shopping list and the latest retail store The group of products sold is compared, and products matching the two are identified.

ステップS76では、制御部16は、ステップS75の検索結果として得られた情報を、例えば、ユーザ側デバイス20に通知し、スピーカ27から音声として出力させるか、表示部24に画像またはテキストとして表示させる。例えば、「このレストラン〇〇の評価を教えて」の場合には、「評価は星4.5です。」が出力される。また、「買い物リストに、このお店で買いだしするものある?」の場合には、「醤油とジャムを買う必要があります」が出力される。   In step S76, the control unit 16 notifies, for example, the user device 20 of the information obtained as the search result in step S75, and causes the speaker 27 to output the information as sound or display on the display unit 24 as an image or text. . For example, in the case of "Teach me the rating of this restaurant 00", "a rating of 4.5 stars" is output. In addition, in the case of "Is there anything to buy in this store on the shopping list?", "You need to buy soy sauce and jam" is output.

ステップS77では、制御部16は、ユーザから緊急通報処理が要求されたか否かを判定し、緊急通報処理が要求されたと判定した場合(ステップS77:Y)にはステップS78に進み、それ以外の場合(ステップS77:N)にはステップS80に進む。例えば、不審者に尾行されているような場合に、マイク26に向かってユーザが「助けて」と叫んだ場合には、緊急通報処理が要求されたと判定してステップS78に進む。   In step S77, the control unit 16 determines whether or not the emergency notification process has been requested by the user. If it is determined that the emergency notification process has been requested (step S77: Y), the process proceeds to step S78. In the case (step S77: N), the process proceeds to step S80. For example, in the case where the suspicious person is being followed, if the user screams "help" toward the microphone 26, it is determined that the emergency notification process is requested, and the process proceeds to step S78.

ステップS78では、制御部16は、緊急通報処理を実行する。例えば、不審者の場合には、GPS17から取得した位置情報とともに、不審者に尾行されていることを、警察等に通報する。   In step S78, the control unit 16 executes an emergency notification process. For example, in the case of a suspicious person, the police or the like is notified that the suspicious person is being followed along with the position information acquired from the GPS 17.

ステップS79では、制御部16は、周囲の人に対して助けを求める処理を実行する。例えば、撮像素子11によって周辺を撮像して周囲に居る人物を顔認識処理等によって特定し、その人に向かって助けを求めることができる。助けを求める方法としては、例えば、図示しないスピーカから「助けて」等の音声を出力したり、警告音(例えば、ブザー等の音)等を出力したりすることができる。なお、スピーカが存在しない場合には、モータ19−1〜19−4を駆動する駆動電流に対して、音声信号を重畳することで、モータ19−1〜19−4に取り付けられたプロペラから音声(例えば、「助けて」または「警告音」)を出力することもできる。   In step S79, the control unit 16 executes a process of asking the surrounding people for help. For example, it is possible to capture an image of the periphery by the imaging device 11, identify a person present in the periphery by face recognition processing or the like, and request the person for help. As a method for asking for help, for example, a sound such as “help” or the like can be output from a speaker (not shown) or a warning sound (for example, a sound such as a buzzer) can be output. In addition, when a speaker does not exist, an audio | voice signal is superimposed with respect to the drive current which drives motor 19-1-19-4, and the sound from the propeller attached to motor 19-1-19-4 It is also possible to output (for example, "help" or "alert sound").

ステップS80では、制御部16は、ユーザから荷物搬送処理が要求されたか否かを判定し、荷物搬送処理が要求されたと判定した場合(ステップS80:Y)にはステップS81に進み、それ以外の場合(ステップS80:N)には元の処理に復帰(リターン)する。例えば、急いで自宅に持って帰りたい物(例えば、冷凍食品や焼きたての食品)がある場合に、ユーザがマイク26に向かって「自宅まで持って帰って」と発話したときは、Yと判定してステップS81に進む。   In step S80, the control unit 16 determines whether or not the package transfer processing has been requested by the user, and if it is determined that the package transfer processing has been requested (step S80: Y), the process proceeds to step S81. In the case (step S80: N), the process returns to the original process (return). For example, if there is a thing (for example, frozen food or freshly baked food) that you want to bring home quickly and hurry, when the user utters "take home home" to the microphone 26, Y And the process proceeds to step S81.

ステップS81では、制御部16は、ユーザが持っている、搬送すべき荷物を、例えば、飛行体10の機体の底部に設けられたフック等(不図示)に取り付けるために下降し、荷物の取り付けが完了した場合には、GPS17の出力を参照して、自宅まで荷物を搬送する処理を実行する。なお、自宅に着いた場合には、電話等によって、家族を呼び出し、荷物を受け渡すことができる。もちろん、自宅のホームネットワークに接続し、インターフォンから呼び出しを行うこともできる。   In step S81, the control unit 16 descends to attach the load carried by the user to, for example, a hook or the like (not shown) provided on the bottom of the fuselage of the aircraft 10, and attaches the load. Is completed, the processing of transporting the package to the home is executed with reference to the output of the GPS 17. In addition, when arriving at home, you can call a family member by phone etc. and deliver the package. Of course, you can also connect to your home network and make calls from the intercom.

以上の処理によれば、ユーザの様々な要求に対応する処理を実行することができる。   According to the above process, it is possible to execute the process corresponding to various requests of the user.

つぎに、図10を参照して、図9のステップS71に示す道案内処理の詳細について説明する。図10に示すフローチャートの処理が開始されると、以下のステップが実行される。   Next, with reference to FIG. 10, the details of the route guidance process shown in step S71 of FIG. 9 will be described. When the process of the flowchart shown in FIG. 10 is started, the following steps are performed.

ステップS90では、制御部16は、ユーザから目的地の指定を受ける。例えば、ユーザがマイク26に向かって「〇〇まで案内して」と発話した場合には、送受信部15を介して当該音声データを取得し、音声処理部14によって処理することで、目的地である「〇〇」を取得する。なお、音声ではなく、例えば、ユーザ側デバイス20の表示部24に表示された地図上で目的地の指定を受けるようにしてもよい。   In step S90, the control unit 16 receives designation of a destination from the user. For example, when the user utters "guide to 00" toward the microphone 26, the voice data is acquired via the transmitting / receiving unit 15, and processed by the voice processing unit 14 so that the destination can be obtained. Acquire a certain "OO". Note that, for example, the designation of the destination may be received on the map displayed on the display unit 24 of the user device 20 instead of the voice.

ステップS91では、制御部16は、ステップS90で取得した目的地を地図上で検索する処理を実行する。例えば、「〇〇」に対応する場所を、地図上で検索して特定する。   In step S91, the control unit 16 executes a process of searching for the destination acquired in step S90 on the map. For example, a place corresponding to “〇” is searched and specified on the map.

ステップS92では、制御部16は、現在位置から目的地までの経路を探索する処理を実行する。制御部16は、GPS17から現在位置を示す位置情報を取得し、ステップS91で特定した「〇〇」までの経路を、地図上で検索する。   In step S92, the control unit 16 executes a process of searching for a route from the current position to the destination. The control unit 16 acquires position information indicating the current position from the GPS 17, and searches the map for the route up to "OO" specified in step S91.

ステップS93では、制御部16は、飛行体10のデフォルト位置をユーザの前方(例えば、前方2m)に設定する。   In step S93, the control unit 16 sets the default position of the flying object 10 in front of the user (for example, 2 m ahead).

ステップS94では、制御部16は、ステップS92で探索した経路に沿って移動する。より詳細には、制御部16は、GPS17およびセンサ18の出力を参照しつつ、モータ19−1〜19−4を制御し、経路に沿って移動する処理を実行する。   In step S94, the control unit 16 moves along the route searched in step S92. More specifically, the control unit 16 controls the motors 19-1 to 19-4 while referring to the outputs of the GPS 17 and the sensor 18, and executes a process of moving along the route.

ステップS95では、制御部16は、ユーザと自機との距離を一定に保つ処理を実行する。より詳細には、制御部16は、GPS17から供給される自機の位置情報と、センサ22に含まれるGPSから出力され、送受信部15を介して受信されるユーザの位置情報とを比較し、ユーザとの距離を一定に保つように自機を制御する(例えば、ユーザから2m前方に位置するように制御する)。   In step S95, the control unit 16 executes processing to keep the distance between the user and the own machine constant. More specifically, the control unit 16 compares the position information of the own device supplied from the GPS 17 with the position information of the user which is output from the GPS included in the sensor 22 and is received through the transmitting / receiving unit 15; Control the own machine to keep the distance to the user constant (for example, control to be located 2 m ahead of the user).

ステップS96では、制御部16は、GPS17から出力される位置情報と、目的地の位置情報を比較し、目的地に到着したか否かを判定し、目的地に到着したと判定した場合(ステップS96:Y)にはステップS97に進み、それ以外の場合(ステップS96:N)にはステップS94に戻って前述の場合と同様の処理を繰り返す。   In step S96, the control unit 16 compares the position information output from the GPS 17 with the position information of the destination, determines whether or not the destination has arrived, and determines that the destination has arrived (step). In step S96, the process proceeds to step S97. In other cases (step S96: N), the process returns to step S94 to repeat the same process as described above.

ステップS97では、制御部16は、目的地に到着したことをユーザに対して通知する。例えば、制御部16は、ユーザ側デバイス20のスピーカ27から音声「目的地に到着しました。」を出力することで、目的地に到着したことをユーザに通知する。   In step S97, the control unit 16 notifies the user that the destination has arrived. For example, the control unit 16 notifies the user that the user has arrived at the destination by outputting the voice “Arrive at destination” from the speaker 27 of the user-side device 20.

以上の処理によれば、ユーザを目的地まで案内することが可能になる。   According to the above process, it is possible to guide the user to the destination.

つぎに、図11を参照して、図9のステップS73に示す人探索処理の詳細について説明する。図11に示すフローチャートの処理が開始されると、以下のステップが実行される。   Next, the details of the person search process shown in step S73 of FIG. 9 will be described with reference to FIG. When the process of the flowchart shown in FIG. 11 is started, the following steps are performed.

ステップS110では、制御部16は、ユーザから探索する人物の指定を受ける。例えば、ユーザがマイク26に向かって「〇〇(人物名)を探して」と発話すると、当該音声データは送受信部21を介して音声処理部14に送信される。音声処理部14は、音声データから人物名としての〇〇を特定する。また、ユーザが表示部24に表示されている情報を参照し、操作部25を操作して特定の人物を指定した場合に、当該人物を探索対象とするようにしてもよい。   In step S110, the control unit 16 receives designation of a person to be searched from the user. For example, when the user utters “search for 0 (person's name)” toward the microphone 26, the voice data is transmitted to the voice processing unit 14 via the transmission / reception unit 21. The voice processing unit 14 specifies “OO” as the person's name from the voice data. In addition, when the user refers to the information displayed on the display unit 24 and operates the operation unit 25 to designate a specific person, the person may be set as a search target.

ステップS111では、制御部16は、該当する人物に関する情報を取得する。例えば、制御部16は、該当する人物の顔の画像をサーバ50から取得する。なお、顔の画像だけでなく、身長、体重、性別等の属性情報を合わせて取得するようにしてもよい。   In step S111, the control unit 16 acquires information on the corresponding person. For example, the control unit 16 acquires an image of the face of the corresponding person from the server 50. Note that not only the image of the face but also attribute information such as height, weight, and gender may be acquired together.

ステップS112では、制御部16は、モータ19−1〜19−4を制御して、飛行体10を人に衝突しない高度(例えば、2.5m)まで上昇させる。   In step S112, the control unit 16 controls the motors 19-1 to 19-4 to raise the flying object 10 to an altitude (for example, 2.5 m) that does not collide with a person.

ステップS113では、制御部16は、周囲の人物の探索処理を実行する。より詳細には、制御部16は、ユーザの周囲に存在する複数の物体の中から、顔認識処理によって、人物を探索する処理を実行する。   In step S113, the control unit 16 executes a process of searching for surrounding people. More specifically, the control unit 16 executes processing for searching for a person by face recognition processing among a plurality of objects present around the user.

ステップS114では、制御部16は、ステップS113による探索の結果特定された人物を撮像素子11によって撮像する処理を実行する。   In step S114, the control unit 16 executes a process of imaging the person specified as a result of the search in step S113 by the imaging device 11.

ステップS115では、制御部16は、ステップS114で撮像した人物の特徴を抽出する処理を画像処理部13に実行させる。この結果、撮像された人物の特徴が、例えば、特徴ベクトルとして抽出される。   In step S115, the control unit 16 causes the image processing unit 13 to execute a process of extracting the feature of the person imaged in step S114. As a result, the features of the captured person are extracted as feature vectors, for example.

ステップS116では、制御部16は、ステップS114で撮像された画像から、ステップS115で抽出された特徴と、ステップS111で取得された探索対象の人物の特徴とを比較し、特徴が一致するか否かを判定し、特徴が一致すると判定した場合(ステップS116:Y)にはステップS117に進み、それ以外の場合(ステップS116:N)にはステップS113に戻って同様の処理を繰り返す。   In step S116, the control unit 16 compares the feature extracted in step S115 with the feature of the person to be searched obtained in step S111 from the image captured in step S114, and the feature matches or not If it is determined that the features match (step S116: Y), the process proceeds to step S117. Otherwise (step S116: N), the process returns to step S113 to repeat the same process.

ステップS117では、制御部16は、探索対象となる人物を発見したことをユーザに通知する。例えば、ユーザ側デバイス20のスピーカ27から「〇〇さんが見つかりました。」等の音声を出力させる。   In step S117, the control unit 16 notifies the user that a person to be searched for has been found. For example, the speaker 27 of the user-side device 20 outputs a voice such as “Mr.

ステップS118では、制御部16は、ステップS117で見つけた人物が居る場所までユーザを案内する。より詳細には、制御部16は、探索対象となる人物の位置情報を記憶し、現在地から当該位置までモータ19−1〜19−4を制御して案内する。そして、元の処理に復帰(リターン)する。   In step S118, the control unit 16 guides the user to the place where the person found in step S117 is present. More specifically, the control unit 16 stores position information of a person to be searched and guides the motors 19-1 to 19-4 from the current position to the position. Then, the process returns to the original process (return).

以上の処理によれば、例えば、迷子になった子どもや、待ち合わせをしている人物を探索することができる。特に大勢の人がいる場合や、障害物等が存在する場合でも、高所からの画像により対象となる人物を迅速に見つけ出すことができる。   According to the above processing, for example, a child who got lost or a person who is waiting can be searched. In particular, even when there are a large number of people or obstacles or the like, it is possible to quickly find out the person who is the object by the image from a high place.

つぎに、図12を参照して、図5のステップS20に示す情報通知処理の詳細について説明する。図12に示すフローチャートの処理が開始されると、以下のステップが実行される。   Next, the details of the information notification process shown in step S20 of FIG. 5 will be described with reference to FIG. When the process of the flowchart shown in FIG. 12 is started, the following steps are performed.

ステップS130では、制御部16は、図6に示すユーザの属性情報に含まれる通知情報種類を参照し、プッシュ広告が許可されているか否かを判定し、許可されていると判定した場合(ステップS130:Y)にはステップS131に進み、それ以外の場合(ステップS130:N)にはステップS135に進む。   In step S130, the control unit 16 refers to the notification information type included in the attribute information of the user shown in FIG. 6, determines whether or not the push advertisement is permitted, and determines that it is permitted (step In step S130, the process proceeds to step S131. In other cases (step S130: N), the process proceeds to step S135.

ステップS131では、制御部16は、サーバ50に格納されているユーザの属性情報から、嗜好性情報を取得する。例えば、嗜好性情報として、食の好み(例えば、和食を好む等)、衣類の好み(例えば、カジュアルな服装が好む等)、場所の好み(例えば、音楽が演奏されている場所を好む等)を示す情報を取得する。なお、これら以外の情報を取得するようにしてもよい。   In step S131, the control unit 16 acquires preference information from the attribute information of the user stored in the server 50. For example, as preference information, food preference (for example, preference for Japanese food etc.), clothing preference (for example, casual clothes preference, etc.), location preference (for example, preference for places where music is played, etc.) Get information that indicates Note that information other than these may be acquired.

ステップS132では、制御部16は、GPS17から現在位置を示す位置情報を取得する。   In step S132, the control unit 16 acquires position information indicating the current position from the GPS 17.

ステップS133では、制御部16は、現在位置に関連付けされた情報であって、ユーザの嗜好に合致する広告が存在するか否かを判定し、存在する場合(ステップS133:Y)にはステップS134に進み、それ以外の場合(ステップS133:N)にはステップS135に進む。例えば、現在位置に関連付けされた広告として「和食レストラン」、「洋食レストラン」、および、「パン屋」の広告が存在し、時刻が12:00であって、かつ、ユーザの嗜好が、例えば、「和食を好む」である場合には、「和食レストラン」の広告が存在すると判定されてステップS134に進む。   In step S133, the control unit 16 determines whether there is an advertisement that is information associated with the current position and that matches the user's preference, and if there is an advertisement (step S133: Y), step S134. Otherwise (step S133: N), the process proceeds to step S135. For example, there are "Japanese restaurant", "Western restaurant", and "bakery" advertisements as advertisements associated with the current position, and the time is 12:00 and the user's preference is, for example, In the case of “prefer Japanese food”, it is determined that an advertisement of “Japanese food restaurant” is present, and the process proceeds to step S134.

ステップS134では、制御部16は、ステップS133で嗜好に合致すると判定された広告をユーザ側デバイス20に送信して提示させる。例えば、いまの例では、「和食レストラン〇〇は、本日××がおすすめです」が、ユーザ側デバイス20から音声または画像として提示される。   In step S134, the control unit 16 transmits and presents the advertisement determined to match the preference in step S133 to the user device 20. For example, in the present example, “Japanese restaurant 〇 is recommended today xxx” is presented from the user-side device 20 as a voice or an image.

ステップS135では、制御部16は、図6に示すユーザの属性情報に含まれる通知情報種類を参照し、場所に関する情報の通知が許可されているか否かを判定し、許可されていると判定した場合(ステップS135:Y)にはステップS136に進み、それ以外の場合(ステップS135:N)には元の処理に復帰(リターン)する。   In step S135, the control unit 16 refers to the notification information type included in the attribute information of the user shown in FIG. 6, and determines whether notification of the information on the place is permitted, and it is determined that the permission is permitted. In the case (step S135: Y), the process proceeds to step S136, and in the other case (step S135: N), the process returns to the original process (return).

ステップS136では、制御部16は、ステップS131と同様に、サーバ50に格納されているユーザの属性情報から、嗜好性情報を取得する。   In step S136, the control unit 16 acquires preference information from the user's attribute information stored in the server 50, as in step S131.

ステップS137では、制御部16は、ステップS132と同様に、GPS17から現在位置を示す位置情報を取得する。   In step S137, the control unit 16 acquires position information indicating the current position from the GPS 17 as in step S132.

ステップS138では、制御部16は、現在位置に関連付けされた情報であって、ユーザの嗜好に合致する情報が存在するか否かを判定し、存在する場合(ステップS138:Y)にはステップS139に進み、それ以外の場合(ステップS133:N)には元の処理に復帰(リターン)する。例えば、現在位置に関連付けされた情報として「歴史的な情報」、「ビジネスに関する情報」、および、「音楽に関する情報」が存在し、ユーザの嗜好が、例えば、「音楽が演奏されている場所を好む」である場合には、ステップS139に進む。   In step S138, the control unit 16 determines whether there is information that is associated with the current position and that matches the preference of the user. If there is information (step S138: Y), the process proceeds to step S139. Otherwise (step S133: N), the processing returns to the original processing (return). For example, “historical information”, “business information”, and “information on music” exist as information associated with the current position, and the user's preference is, for example, “a place where music is played. In the case of “prefer”, the process proceeds to step S139.

ステップS139では、制御部16は、その場所に関する情報を提示する。より詳細には、例えば、制御部16は、「音楽に関する情報」を選択し、「本日、音楽グループ〇〇の路上ライブがあります。」がユーザ側デバイス20から音声または画像として提示される。   In step S139, the control unit 16 presents information on the place. More specifically, for example, the control unit 16 selects "information about music", and "Today, there is a live on the street of the music group 00" is presented from the user device 20 as a voice or an image.

以上の処理によれば、その場所に関連付けされるとともに、ユーザの嗜好に合致した情報を提示することができる。   According to the above process, it is possible to present information that is associated with the place and that matches the user's preference.

つぎに、図13を参照して、図5のステップS22に示す緊急事態処理の詳細について説明する。図13に示すフローチャートの処理が開始されると、以下のステップが実行される。   Next, with reference to FIG. 13, the details of the emergency process shown in step S22 of FIG. 5 will be described. When the process of the flowchart shown in FIG. 13 is started, the following steps are performed.

ステップS150では、制御部16は、ネットワーク40の災害情報を配信するサイトから地震情報を取得し、地震が発生したと判定した場合(ステップS150:Y)にはステップS151に進み、それ以外の場合(ステップS150:N)には153に進む。   In step S150, the control unit 16 acquires earthquake information from the site distributing the disaster information of the network 40, and if it is determined that an earthquake has occurred (step S150: Y), the process proceeds to step S151, otherwise The process proceeds to 153 in (step S150: N).

ステップS151では、制御部16は、構造物や斜面等のように崩落の危険がある場所からある程度離れた安全な場所を周辺から検索する。例えば、制御部16は、GPS17から取得した現在位置に関する位置情報を参照し、現在位置の周辺に存在する安全な場所(例えば、公園等)を検索する。   In step S151, the control unit 16 searches the surroundings for a safe place that is somewhat distant from the place where there is a risk of collapse, such as a structure or a slope. For example, the control unit 16 refers to position information on the current position acquired from the GPS 17, and searches for a safe place (for example, a park or the like) existing around the current position.

ステップS152では、制御部16は、例えば、図10と同様の処理により、ユーザをステップS151で検索した安全な場所まで案内する。   In step S152, the control unit 16 guides the user to the safe place searched in step S151, for example, by the same process as that of FIG.

ステップS153では、制御部16は、ネットワーク40の天気情報を配信するサイトから地震情報を取得し、大雨、竜巻、雷が発生したと判定した場合(ステップS153:Y)にはステップS154に進み、それ以外の場合(ステップS153:N)には156に進む。   In step S153, the control unit 16 acquires earthquake information from the site to which the weather information of the network 40 is distributed, and proceeds to step S154 if it is determined that heavy rain, tornado and lightning have occurred (step S153: Y). Otherwise (step S153: N), the process proceeds to 156.

ステップS154では、制御部16は、頑丈な建物(例えば、鉄筋コンクリート造の建物)を周辺から検索する。例えば、制御部16は、GPS17から取得した現在位置に関する位置情報を参照し、現在位置の周辺に存在する頑丈な建物を検索する。   In step S154, the control unit 16 searches for a strong building (for example, a reinforced concrete building) from the surroundings. For example, the control unit 16 refers to position information on the current position acquired from the GPS 17 and searches for a robust building existing around the current position.

ステップS155では、制御部16は、例えば、図10と同様の処理により、ユーザをステップS154で検索した頑丈な建物まで案内する。   In step S155, the control unit 16 guides the user to the robust building searched in step S154, for example, by the same process as that of FIG.

ステップS156では、制御部16は、ネットワーク40の震災情報を配信するサイトから津波情報を取得し、津波が発生したと判定した場合(ステップS156:Y)にはステップS157に進み、それ以外の場合(ステップS156:N)には元の処理に復帰(リターン)する。   In step S156, the control unit 16 acquires tsunami information from the site to which the earthquake information on the network 40 is distributed, and when it is determined that a tsunami has occurred (step S156: Y), the process proceeds to step S157. In the case (step S156: N), the process returns to the original process (return).

ステップS157では、制御部16は、震災情報を配信するサイトの情報と、ユーザの現在位置とに基づいて、その地点に津波が到達した場合の波高を推測する。   In step S157, the control unit 16 estimates the wave height when the tsunami reaches the point based on the information on the site to which the earthquake information is distributed and the current position of the user.

ステップS158では、制御部16は、ステップS157で推測した波高よりも高い場所または建物を周辺から検索する。例えば、制御部16は、GPS17から取得した現在位置に関する位置情報を参照し、現在位置の周辺に存在する波高よりも高い場所または建物を検索する。   In step S158, the control unit 16 searches for places or buildings higher than the wave height estimated in step S157 from the surroundings. For example, the control unit 16 refers to position information on the current position acquired from the GPS 17 and searches for a place or a building higher than a wave height existing around the current position.

ステップS159では、制御部16は、例えば、図10と同様の処理により、ユーザをステップS158で検索した波高よりも高い場所または建物まで案内する。なお、ユーザの属性情報に含まれているユーザの移動速度(緊急時)を参照し、津波到達予想時刻までの時間と、移動速度(緊急時)から最適な避難場所を検索するようにしてもよい。   In step S159, the control unit 16 guides the user to a place or a building higher than the wave height searched in step S158, for example, by the same processing as that in FIG. Even if the user's moving speed (emergency) included in the user's attribute information is referred to, the optimal evacuation location is searched from the time until the tsunami arrival expected time and the moving speed (emergency). Good.

以上の処理によれば、緊急事態が発生した場合に、ユーザを安全な場所に誘導することができる。   According to the above processing, when an emergency occurs, the user can be guided to a safe place.

(C)変形実施形態の説明
以上の各実施形態は一例であって、本発明が上述した場合のみに限定されるものでないことはいうまでもない。例えば、以上の例では、画像処理部13および音声処理部14は、飛行体10が有するようにしたが、例えば、ユーザ側デバイス20が有したり、あるいは、サーバ50が有するようにしたりしてもよい。
(C) Description of Modified Embodiments It goes without saying that each of the above-described embodiments is an example, and the present invention is not limited only to the case described above. For example, in the above example, the image processing unit 13 and the voice processing unit 14 are provided to the flying object 10, but for example, the user side device 20 or the server 50 is provided. It is also good.

また、話者を特定する処理は、飛行体10において実行するようにしたが、ユーザ側デバイス20またはサーバ50において実行するようにしてもよい。   In addition, although the process of identifying the speaker is performed in the flying object 10, the process may be performed in the user device 20 or the server 50.

また、ユーザの属性情報は、サーバ50に格納するようにしたが、例えば、飛行体10またはユーザ側デバイス20に格納するようにしてもよい。   Further, although the attribute information of the user is stored in the server 50, it may be stored in the flying object 10 or the user device 20, for example.

また、人探索処理では、人物の顔の画像を用いて探索を行うようにしたが、例えば、探索の対象となる人物が所持するデバイス(例えば、携帯電話またはユーザ側デバイス等)から送信される電波に含まれるID情報を用いて、人物を探索するようにしてもよい。   Further, in the person search process, the search is performed using the image of the face of a person, but for example, it is transmitted from a device (for example, a mobile phone or a device on the user side) possessed by the person to be searched. A person may be searched using ID information included in radio waves.

また、前述した実施形態では、ユーザ側デバイス20は、図1に示すリストバンド型デバイスとしたが、例えば、図14および図15に示すスマートグラス型デバイスとしてもよい。図14は、スマートグラス型デバイスの構成例を示すブロック図である。図14に示す例では、スマートグラス型デバイス20Aは、送受信部21、アンテナ21a、センサ22、制御部23、表示部24、マイク26、および、スピーカ27を有している。   Further, in the above-described embodiment, the user device 20 is the wristband device shown in FIG. 1, but may be a smart glass device shown in FIGS. 14 and 15, for example. FIG. 14 is a block diagram showing a configuration example of a smart glass type device. In the example shown in FIG. 14, the smart glass type device 20A includes a transmitting / receiving unit 21, an antenna 21a, a sensor 22, a control unit 23, a display unit 24, a microphone 26, and a speaker 27.

図15は、図14に示すスマートグラス型デバイス20Aの構成例を示す斜視図である。スマートグラス型デバイス20Aは、眼鏡のレンズ部分が表示部24とされ、レンズ部分に画像およびテキストが投射され、ユーザは、投射された画像およびテキストを閲覧するとともに、景色も見ることができる。すなわち、図14および図15に示すスマートグラス型デバイスでは、AR(Augmented Reality(拡張現実))として、景色に重畳する態様で、画像およびテキストを閲覧することができる。また、スマートグラス型デバイス20Aには、マイク26およびスピーカ27が内蔵されているので、マイク26によりユーザが発話した音声を取得して飛行体10に送信するとともに、飛行体10から送信された音声データをスピーカ27から音声として出力することができる。さらに、スマートグラス型デバイス20AにはGPSセンサ、加速度センサ、および、地磁気センサ等のセンサ22が内蔵されているので、ユーザの位置、頭の動き、および、移動方向等を取得して、飛行体10に送信することができる。   FIG. 15 is a perspective view showing a configuration example of the smart glass type device 20A shown in FIG. In the smart glass type device 20A, the lens portion of the glasses is used as the display unit 24, images and text are projected on the lens portion, and the user can view the projected image and text as well as view the scenery. That is, in the smart glass type device shown in FIGS. 14 and 15, the image and the text can be browsed in a mode of being superimposed on the landscape as AR (Augmented Reality). Further, since the smart glass type device 20A has the microphone 26 and the speaker 27 built-in, the voice uttered by the user is acquired by the microphone 26 and transmitted to the flying object 10, and the sound transmitted from the flying object 10 Data can be output as sound from the speaker 27. Furthermore, since the smart glass type device 20A incorporates a sensor 22 such as a GPS sensor, an acceleration sensor, and a geomagnetic sensor, the user's position, head movement, movement direction, etc. are acquired, and the flying object is obtained. Can be sent to ten.

なお、図14に示す構成例では、操作部25が除外され、指センサ28が新たに追加されている。すなわち、図14の例では、指センサ28を含むポインティングデバイス20Bが、スマートグラス型デバイス20Aとは別体として構成されている。図14の例では、ポインティングデバイス20Bは、ユーザの指に装着し、指センサ28によって指の動きを検出し、検出した指の動きを、アンテナ28aを介してスマートグラス型デバイス20Aの送受信部21に送信する構成とされている。ユーザが指を動かすと、指の動きを指センサ28が検知し、アンテナ28aおよびアンテナ21aを介して送受信部21が受信する。制御部23は、受信した指の動きを示す信号を生成し、送受信部21を介して飛行体10に送信する。このような指の動きに関する信号を受信した飛行体10では、指の動きに応じた動作を行うことができる。なお、スマートグラス型デバイス20Aに視線センサを設け、この視線センサによってユーザの視線を検出し、検出した視線の動きに対応した情報を生成して、飛行体10に送信するようにしてもよい。このような構成によれば、ユーザが視線を移動させることで、飛行体にコマンドを送ることができる。また、前述の例では、スマートグラス型デバイス20Aは、レンズに画像を投影するようにしたが、網膜に直接投影する網膜操作ディスプレイを用いるようにしてもよい。   In the configuration example shown in FIG. 14, the operation unit 25 is excluded and a finger sensor 28 is newly added. That is, in the example of FIG. 14, the pointing device 20B including the finger sensor 28 is configured separately from the smart glass type device 20A. In the example of FIG. 14, the pointing device 20B is attached to the user's finger, the movement of the finger is detected by the finger sensor 28, and the detected finger movement is transmitted and received through the antenna 28a. It is configured to be sent to. When the user moves the finger, the finger sensor 28 detects the movement of the finger, and the transmitting and receiving unit 21 receives the signal via the antenna 28a and the antenna 21a. The control unit 23 generates a signal indicating the movement of the received finger, and transmits the signal to the aircraft 10 via the transmission / reception unit 21. The flying object 10 that has received such a signal related to the movement of the finger can perform an operation according to the movement of the finger. A visual line sensor may be provided in the smart glass type device 20A, the visual axis of the user may be detected by this visual line sensor, and information corresponding to the movement of the detected visual axis may be generated and transmitted to the flying object 10. According to such a configuration, the user can send a command to the flying object by moving the sight line. Also, in the above-described example, the smart glass type device 20A projects an image on a lens, but a retina manipulation display that projects directly on the retina may be used.

図14および図15に示す構成によれば、ユーザの視界を遮ることなく、飛行体10から供給される画像およびテキストをユーザに提供することができる。また、画像およびテキストに加えて、音声による情報の授受も可能になる。   According to the configurations shown in FIGS. 14 and 15, it is possible to provide the user with images and text supplied from the flying object 10 without blocking the user's view. In addition to images and texts, it also becomes possible to exchange information by voice.

なお、表示部およびスピーカを飛行体10に配置し、制御部16によって得られた情報を飛行体10に配置された表示部に表示するとともに、スピーカから音声として出力するようにしてもよい。   The display unit and the speaker may be disposed on the flying object 10, and the information obtained by the control unit 16 may be displayed on the display unit disposed on the flying object 10 and output as sound from the speaker.

なお、図5および図7〜図19に示すフローチャートは一例であって、本発明がこれらのフローチャートに限定されるものではない。   The flowcharts shown in FIGS. 5 and 7 to 19 are merely examples, and the present invention is not limited to these flowcharts.

1 :ユーザ支援システム
10 :飛行体
11 :撮像素子
12 :ジンバル
13 :画像処理部
14 :音声処理部
15 :送受信部
15a :アンテナ
15b :アンテナ
16 :制御部
17 :GPS
18 :センサ
19 :モータ
20 :ユーザ側デバイス
20A :ユーザ側デバイス
21 :送受信部
21a :アンテナ
22 :センサ
23 :制御部
24 :表示部
25 :操作部
26 :マイク
27 :スピーカ
30 :基地局
40 :ネットワーク
50 :サーバ
51 :CPU
52 :ROM
53 :RAM
54 :HDD
55 :I/F
56 :バス
1: user support system 10: flying object 11: imaging device 12: gimbal 13: image processing unit 14: audio processing unit 15: transmitting and receiving unit 15 a: antenna 15 b: antenna 16: control unit 17: GPS
18: sensor 19: motor 20: user device 20A: user device 21: transceiver 21a: antenna 22: sensor 23: control unit 24: display unit 25: operation unit 26: microphone 27: speaker 30: base station 40: base station 40: Network 50: Server 51: CPU
52: ROM
53: RAM
54: HDD
55: I / F
56: Bus

上記課題を解決するために、本発明は、ホバリング可能な飛行体と、ユーザが装着するユーザ側デバイスとを少なくとも有するユーザ支援システムであって、前記ユーザ側デバイスは、前記ユーザが発話した音声を取得する取得手段と、前記取得手段によって取得された前記音声に関する情報を前記飛行体に対して送信する送信手段と、を有し、前記飛行体は、前記ユーザの近傍で前記飛行体をホバリングさせる制御を行うホバリング手段と、前記ユーザの移動に伴って前記飛行体を前記ユーザに追従させる制御を行う追従手段と、ネットワークから災害に関する情報を取得する獲得手段と、前記獲得手段によって獲得された災害の種類を特定する特定手段と、前記特定手段によって特定された災害の種類に応じた避難場所を、前記ユーザの現在位置の周辺から検索する検索手段と、前記検索手段によって検索された避難場所まで誘導する誘導手段と、を有することを特徴とする。
In order to solve the above problems, the present invention is a user support system having at least a hoverable flying object and a user-side device worn by a user, wherein the user-side device performs voice uttered by the user. An acquisition means for acquiring, and a transmission means for transmitting information on the voice acquired by the acquisition means to the aircraft, the aircraft hovering the aircraft in the vicinity of the user A hovering means for controlling, a following means for controlling the flying object to follow the user as the user moves, an acquiring means for acquiring information on disaster from the network, and a disaster acquired by the acquiring means Specific means for specifying the type of the evacuation site, and an evacuation site corresponding to the type of disaster identified by the Search means for searching from near standing position, and having a an induction means for inducing until retrieved refuge by the searching means.

また、本発明は、ホバリング可能な飛行体少なくとも有するユーザ支援システムであって、前記飛行体は、ユーザの近傍で前記飛行体をホバリングさせる制御を行うホバリング手段と、前記ユーザの移動に伴って前記飛行体を前記ユーザに追従させる制御を行う追従手段と、ネットワークから災害に関する情報を獲得する獲得手段と、前記獲得手段によって獲得された災害の種類を特定する特定手段と、前記特定手段によって特定された災害の種類に応じた避難場所を、前記ユーザの現在位置の周辺から検索する検索手段と、前記検索手段によって検索された避難場所まで誘導する誘導手段と、を有することを特徴とする。
Further, the present invention is a user support system having at least a hovering capable aircraft, the aircraft includes a hovering means for performing control to hover the aircraft in the vicinity of the user, in accordance with the movement of the user Tracking means for performing control to cause the user to follow the user, acquisition means for acquiring information on disaster from a network, identification means for identifying the type of disaster acquired by the acquisition means, identification by the identification means It has a search means which searches the evacuation place according to the kind of disaster made from the periphery of the user's present position, and the guidance means which guides to the evacuation place searched by the search means .

また、本発明は、前記検索手段は、災害の種類が地震である場合には、構造物の崩落の危険がない場所を検索することを特徴とする。
Further, the present invention is characterized in that, when the type of disaster is an earthquake, the search means searches a place where there is no risk of collapse of the structure .

また、本発明は、前記検索手段は、災害の種類が大雨、竜巻、雷である場合には、鉄筋コンクリート造の建物を検索することを特徴とする。
Further, the present invention is characterized in that the search means searches for a reinforced concrete structure when the type of disaster is heavy rain, tornado, or lightning.

また、本発明は、前記検索手段は、災害の種類が津波である場合には、推測される津波の波高よりも高い場所または建物を検索することを特徴とする。
Further, the present invention is characterized in that the search means searches for a place or a building higher than the estimated tsunami wave height when the type of disaster is a tsunami.

また、本発明は、前記検索手段は、津波の到着予想時間と、前記ユーザの移動速度に基づいて、最適な場所を検索することを特徴とする。
Further, the present invention is characterized in that the search means searches for an optimum place based on an estimated arrival time of a tsunami and a moving speed of the user.

また、本発明は、前記飛行体は、ホバリングするためのプロペラと、前記プロペラを回転させるモータを有し、前記モータを駆動する駆動電流に対して、音声信号を重畳することで、前記プロペラから音声を出力する、ことを特徴とする。
Further, according to the present invention, the flying object has a propeller for hovering and a motor for rotating the propeller, and an audio signal is superimposed on a drive current for driving the motor to generate a signal from the propeller. It is characterized by outputting voice.

Claims (11)

ホバリング可能な飛行体と、ユーザが装着するユーザ側デバイスとを少なくとも有するユーザ支援システムであって、
前記ユーザ側デバイスは、
前記ユーザが発話した音声を取得する取得手段と、
前記取得手段によって取得された前記音声に関する情報を前記飛行体に対して送信する送信手段と、を有し、
前記飛行体は、
前記ユーザの近傍で前記飛行体をホバリングさせる制御を行うホバリング手段と、
前記ユーザの移動に伴って前記飛行体を前記ユーザに追従させる制御を行う追従手段と、
前記ユーザ側デバイスの前記送信手段から送信される前記音声に関する情報を受信する受信手段と、
前記受信手段によって受信された前記音声に関する情報に対応する処理を実行する実行手段と、を有する、
ことを特徴とするユーザ支援システム。
A user assistance system comprising at least a hoverable flying object and a user side device worn by a user, comprising:
The user device is
Acquisition means for acquiring the voice uttered by the user;
And transmission means for transmitting information on the voice acquired by the acquisition means to the aircraft.
The aircraft is
Hovering means for controlling the hovering of the flying object in the vicinity of the user;
Tracking means for performing control of causing the flight object to follow the user as the user moves;
Receiving means for receiving information on the voice transmitted from the transmitting means of the user-side device;
Executing means for executing processing corresponding to the information on the voice received by the receiving means;
User support system characterized in that.
前記飛行体は、予め登録した複数の前記ユーザの前記音声の中から、発話した前記ユーザを特定する話者特定手段と、
前記ユーザ毎に実行すべき前記処理を示す情報を登録したデータベースから、前記話者特定手段によって特定された前記ユーザに対応する、実行すべき前記処理を示す情報を検索する検索手段と、を有し、
前記実行手段は、前記検索手段によって取得された情報に対応する前記処理を実行する、
ことを特徴とする請求項1に記載のユーザ支援システム。
A speaker specifying unit for specifying the uttered user among the voices of a plurality of the users registered in advance;
Search means for searching for information indicating the process to be executed corresponding to the user identified by the speaker identification means from a database in which information indicating the process to be executed for each user is registered; And
The execution means executes the process corresponding to the information acquired by the search means.
The user support system according to claim 1, characterized in that:
前記処理は、前記ユーザの周辺の交通状況または不審者を監視する周辺状況監視処理であることを特徴とする請求項1または2に記載のユーザ支援システム。   The user support system according to claim 1 or 2, wherein the process is a surrounding situation monitoring process for monitoring a traffic situation or a suspicious person around the user. 前記処理は、前記ユーザを目的地まで案内する道案内処理であることを特徴とする請求項1または2に記載のユーザ支援システム。   The user support system according to claim 1, wherein the process is a route guidance process for guiding the user to a destination. 前記処理は、前記ユーザの周辺から特定の人物を探索する人物探索処理であることを特徴とする請求項1または2に記載のユーザ支援システム。   The user support system according to claim 1, wherein the process is a person search process for searching for a specific person from around the user. 前記処理は、緊急事態の発生を周囲の人物に通報する緊急通報処理であることを特徴とする請求項1または2に記載のユーザ支援システム。   The user support system according to claim 1 or 2, wherein the process is an emergency notification process of notifying a surrounding person of occurrence of an emergency situation. 前記処理は、荷物を目的地まで搬送する荷物搬送処理であることを特徴とする請求項1または2に記載のユーザ支援システム。   The user support system according to claim 1 or 2, wherein the process is a package transfer process for transferring a package to a destination. 前記処理は、インターネットから所望の情報を検索する検索処理であることを特徴とする請求項1または2に記載のユーザ支援システム。   The user support system according to claim 1 or 2, wherein the process is a search process for searching for desired information from the Internet. 前記処理は、現在地に関連する情報または広告を前記ユーザに通知する情報通知処理であることを特徴とする請求項1または2に記載のユーザ支援システム。   The user support system according to claim 1 or 2, wherein the process is an information notification process of notifying the user of information or an advertisement related to a current location. 前記処理は、緊急事態が発生した場合に、前記ユーザを安全な場所まで誘導する緊急事態処理であることを特徴とする請求項1または2に記載のユーザ支援システム。   The user support system according to claim 1 or 2, wherein the process is an emergency process for guiding the user to a safe place when an emergency situation occurs. 前記ユーザ側デバイスは、実在する風景に対して、画像処理によって得られた視覚情報を重畳して表示する拡張現実表示部を有し、
前記拡張現実表示部は、前記飛行体における前記処理によって得られた視覚情報を表示する、
ことを特徴とする請求項1乃至10のいずれか1項に記載のユーザ支援システム。
The user-side device has an augmented reality display unit that superimposes and displays visual information obtained by image processing on an existing landscape,
The augmented reality display unit displays visual information obtained by the process on the aircraft.
The user support system according to any one of claims 1 to 10, characterized in that:
JP2017232212A 2017-12-03 2017-12-03 User support system Pending JP2019101766A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017232212A JP2019101766A (en) 2017-12-03 2017-12-03 User support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017232212A JP2019101766A (en) 2017-12-03 2017-12-03 User support system

Publications (1)

Publication Number Publication Date
JP2019101766A true JP2019101766A (en) 2019-06-24

Family

ID=66976978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017232212A Pending JP2019101766A (en) 2017-12-03 2017-12-03 User support system

Country Status (1)

Country Link
JP (1) JP2019101766A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112336038A (en) * 2020-10-19 2021-02-09 广州市君卓信息科技有限公司 Intelligent method for automatically blowing hair and robot

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252683A (en) * 2012-01-03 2012-12-20 Ism Corp Tsunami evacuation navigation system, method for the same and program
JP2015018344A (en) * 2013-07-09 2015-01-29 シャープ株式会社 Reproduction device, control method for reproduction device, and control program
JP2015525985A (en) * 2012-07-20 2015-09-07 Toa株式会社 Loudspeaker system and loudspeaker system monitoring device
JP2015195030A (en) * 2014-03-27 2015-11-05 株式会社電通 Evacuation support system, evacuation support management program, evacuation support terminal application program, and evacuation support method
JP2015207149A (en) * 2014-04-21 2015-11-19 薫 渡部 monitoring system and monitoring method
JP2017059143A (en) * 2015-09-18 2017-03-23 株式会社日立システムズ Autonomous flight moving body, and autonomous flight moving body system
JP2017156511A (en) * 2016-03-01 2017-09-07 ソニー株式会社 Information processing device, information processing method, and program
JP2017163511A (en) * 2016-03-11 2017-09-14 株式会社プロドローン Living body search system
JP6227176B1 (en) * 2017-01-05 2017-11-08 ポケットシェルター株式会社 Mobile terminal, mobile terminal control method and program
JP2017204244A (en) * 2016-05-13 2017-11-16 テルモ株式会社 Unmanned aircraft and medical support method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252683A (en) * 2012-01-03 2012-12-20 Ism Corp Tsunami evacuation navigation system, method for the same and program
JP2015525985A (en) * 2012-07-20 2015-09-07 Toa株式会社 Loudspeaker system and loudspeaker system monitoring device
JP2015018344A (en) * 2013-07-09 2015-01-29 シャープ株式会社 Reproduction device, control method for reproduction device, and control program
JP2015195030A (en) * 2014-03-27 2015-11-05 株式会社電通 Evacuation support system, evacuation support management program, evacuation support terminal application program, and evacuation support method
JP2015207149A (en) * 2014-04-21 2015-11-19 薫 渡部 monitoring system and monitoring method
JP2017059143A (en) * 2015-09-18 2017-03-23 株式会社日立システムズ Autonomous flight moving body, and autonomous flight moving body system
JP2017156511A (en) * 2016-03-01 2017-09-07 ソニー株式会社 Information processing device, information processing method, and program
JP2017163511A (en) * 2016-03-11 2017-09-14 株式会社プロドローン Living body search system
JP2017204244A (en) * 2016-05-13 2017-11-16 テルモ株式会社 Unmanned aircraft and medical support method
JP6227176B1 (en) * 2017-01-05 2017-11-08 ポケットシェルター株式会社 Mobile terminal, mobile terminal control method and program

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
小山安博: "プロも絶賛! 「MOVERIO BT-300」+ドローンは最強の組み合わせだ!!", ASCII.JP [ONLINE], JPN6018006701, 16 March 2017 (2017-03-16), ISSN: 0003987513 *
戸山 九: "北海道佐呂間町で大竜巻が発生", 子供の科学, vol. 第70巻第1号, JPN6018033495, 1 January 2007 (2007-01-01), pages 42 - 43, ISSN: 0003987511 *
斯波 祐介: "日本初、高層ビル街でドローン災害訓練", リスク対策.COM [ONLINE], JPN6018006700, 13 February 2017 (2017-02-13), ISSN: 0003987510 *
松井 倫弘: "落電事故から人体を守るには", OHM, vol. 第101巻 第6号, JPN6018033496, 12 June 2014 (2014-06-12), pages 32 - 35, ISSN: 0003987512 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112336038A (en) * 2020-10-19 2021-02-09 广州市君卓信息科技有限公司 Intelligent method for automatically blowing hair and robot

Similar Documents

Publication Publication Date Title
US11081013B1 (en) Electronic landing marker
US11365014B2 (en) System and method for automated tracking and navigation
JP7120002B2 (en) flight device
US10258534B1 (en) Methods and systems for providing feedback based on information received from an aerial vehicle
US10024667B2 (en) Wearable earpiece for providing social and environmental awareness
US20230350411A1 (en) Control aerial movement of drone based on line-of-sight of humans using devices
US20190383620A1 (en) Information processing apparatus, information processing method, and program
US10902263B1 (en) Image processing system for object identification
US10012505B2 (en) Wearable system for providing walking directions
CN111373769A (en) Information processing apparatus, information processing method, and computer program
US20130293586A1 (en) Information processing device, alarm method, and program
KR102391914B1 (en) Method for operating moving robot
US20160080897A1 (en) Wearable clip for providing social and environmental awareness
US10567917B2 (en) System and method for indicating drones flying overhead
KR20190100085A (en) Robor being capable of detecting danger situation using artificial intelligence and operating method thereof
US20210331315A1 (en) Robot navigating through waypoints based on obstacle avoidance and method of robot's navigation
WO2016111068A1 (en) Information processing device, information processing method, and program
JP2017103598A (en) Information processing apparatus, information processing method, and program
KR102303785B1 (en) Artificial intelligence server and method for setting language of robot
KR20160119956A (en) System for tracking using drone
CN110737212A (en) Unmanned aerial vehicle control system and method
US20220100208A1 (en) Autonomous Multifunctional Aerial Drone
KR20200128486A (en) Artificial intelligence device for determining user's location and method thereof
KR102231922B1 (en) Artificial intelligence server for controlling a plurality of robots using artificial intelligence
EP3253283B1 (en) Fan-driven force device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180118

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180118

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180307

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180829

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190307