JP2019101766A - User support system - Google Patents
User support system Download PDFInfo
- Publication number
- JP2019101766A JP2019101766A JP2017232212A JP2017232212A JP2019101766A JP 2019101766 A JP2019101766 A JP 2019101766A JP 2017232212 A JP2017232212 A JP 2017232212A JP 2017232212 A JP2017232212 A JP 2017232212A JP 2019101766 A JP2019101766 A JP 2019101766A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- control unit
- support system
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ユーザ支援システムに関するものである。 The present invention relates to a user support system.
近年、ユーザの音声による指示を受け、例えば、ユーザの予定を返答したり、天気予報を返答したり、インターネットによる検索を行って結果を返答したりするデバイスが市場に拡販されつつある。 In recent years, devices that receive user's voice instructions, for example, respond to user's schedule, respond to a weather forecast, search on the Internet, and respond to results, are being sold in the market.
このようなデバイスに関する先行技術として特許文献1がある。特許文献1に開示された技術は、第1格納部、第1取得部、第1検索部、第2格納部、第2検索部および制御部を含む。第1格納部は、周囲の環境に関する第1環境情報と、周囲の状況を説明する状況説明文とを対応づけて、複数格納する。第1取得部は、処理対象となる周囲の環境に関する第2環境情報を取得する。第1検索部は、第2環境情報との類似度が第1閾値以上となる第1環境情報である類似環境情報を検索し、類似環境情報に対応する状況説明文を得る。第2格納部は、課題表現と課題表現の1以上の解決策とを対応づけて、複数格納する。第2検索部は、状況説明文との類似度が第2閾値以上となる課題表現である類似課題表現を検索し、類似課題表現に対応する1以上の解決策を得る。制御部は、取得した1以上の解決策を用いてユーザとの対話を制御する。このような技術によれば、効率的にユーザに解決策を提示できる。
There is
しかしながら、特許文献1に開示された技術では、例えば、ユーザが屋外にいる場合には、ユーザの要求を受けることができないという問題点がある。そこで、ユーザに追従するために、二足歩行用の脚部を具備することも可能であるが、二足歩行の制御には非常に多くのリソースが必要になることから、装置が高価になるという問題点がある。
However, in the technique disclosed in
本発明は、屋外においてもユーザに追従して様々な要求に応じた処理を行うことが可能なユーザ支援システムを提供することを目的としている。 An object of the present invention is to provide a user support system capable of performing processing according to various requests following a user even outdoors.
上記課題を解決するために、本発明は、ホバリング可能な飛行体と、ユーザが身体の一部に装着するユーザ側デバイスとを少なくとも有するユーザ支援システムであって、前記ユーザ側デバイスは、前記ユーザが発話した音声を取得する取得手段と、前記取得手段によって取得された前記音声に関する情報を前記飛行体に対して送信する送信手段と、を有し、前記飛行体は、前記ユーザの近傍で前記飛行体をホバリングさせる制御を行うホバリング手段と、前記ユーザの移動に伴って前記飛行体を前記ユーザに追従させる制御を行う追従手段と、前記ユーザ側デバイスの前記送信手段から送信される前記音声に関する情報を受信する受信手段と、前記受信手段によって受信された前記音声に関する情報に対応する処理を実行する実行手段と、を有する、ことを特徴とする。
このような構成によれば、屋外においてもユーザに追従して様々な要求に応じた処理を行うことが可能となる。
In order to solve the above problems, the present invention is a user support system comprising at least a hoverable flying object and a user side device worn by a user on a part of the body, wherein the user side device is the user An acquiring unit for acquiring a voice uttered by the user, and a transmitting unit for transmitting information on the audio acquired by the acquiring unit to the aircraft, the aircraft in the vicinity of the user Regarding the voice transmitted from the transmission means of the user-side device, hovering means for performing control to hover the flying object, tracking means for performing control to cause the user to follow the user with the movement of the user, and Receiving means for receiving information, and execution means for executing a process corresponding to the information on the voice received by the receiving means; A, wherein the.
According to such a configuration, it is possible to follow the user and perform processing according to various requests even outdoors.
また、本発明は、前記飛行体は、予め登録した複数の前記ユーザの前記音声の中から、発話した前記ユーザを特定する話者特定手段と、前記ユーザ毎に実行すべき前記処理を示す情報を登録したデータベースから、前記話者特定手段によって特定された前記ユーザに対応する、実行すべき前記処理を示す情報を検索する検索手段と、を有し、前記実行手段は、前記検索手段によって取得された情報に対応する前記処理を実行する、ことを特徴とする。
このような構成によれば、ユーザ毎に所望の処理を実行することが可能になる。
Further, according to the present invention, the flying object is a speaker specifying unit for specifying the uttered user among the voices of the plurality of users registered in advance, and information indicating the process to be executed for each of the users Search means for searching for information indicating the process to be executed, corresponding to the user identified by the speaker identification means, from a database in which is registered, and the execution means is acquired by the search means Executing the processing corresponding to the stored information.
According to such a configuration, it is possible to execute desired processing for each user.
また、本発明は、前記処理は、前記ユーザの周辺の交通状況または不審者を監視する周辺状況監視処理であることを特徴とする。
このような構成によれば、ユーザを交通事故や不審者の被害から保護することが可能になる。
Further, the present invention is characterized in that the process is a surrounding situation monitoring process for monitoring a traffic situation around the user or a suspicious person.
According to such a configuration, it is possible to protect the user from the traffic accident and the damage of the suspicious person.
また、本発明は、前記処理は、前記ユーザを目的地まで案内する道案内処理であることを特徴とする。
このような構成によれば、ユーザを目的地に確実に案内することが可能になる。
Further, the present invention is characterized in that the process is a route guidance process for guiding the user to a destination.
According to such a configuration, it is possible to reliably guide the user to the destination.
また、本発明は、前記処理は、前記ユーザの周辺から特定の人物を探索する人物探索処理であることを特徴とする。
このような構成によれば、所望の人物を確実に探索することができる。
Further, the present invention is characterized in that the process is a person search process for searching for a specific person from around the user.
According to such a configuration, it is possible to reliably search for a desired person.
また、本発明は、前記処理は、緊急事態の発生を周囲の人物に通報する緊急通報処理であることを特徴とする。
このような構成によれば、緊急事態の発生を周囲の人物に通報することで、ユーザが被害を受けることを防止することができる。
Further, the present invention is characterized in that the process is an emergency notification process in which occurrence of an emergency situation is notified to surrounding people.
According to such a configuration, it is possible to prevent the user from being damaged by notifying the surrounding person of the occurrence of the emergency situation.
また、本発明は、前記処理は、荷物を目的地まで搬送する荷物搬送処理であることを特徴とする。
このような構成によれば、荷物を迅速に目的地まで搬送することができる。
Further, the present invention is characterized in that the process is a package transfer process of transferring a package to a destination.
According to such a configuration, the package can be quickly transported to the destination.
また、本発明は、前記処理は、インターネットから所望の情報を検索する検索処理であることを特徴とする。
このような構成によれば、屋外においても所望の情報を得ることができる。
Further, the present invention is characterized in that the process is a search process for searching for desired information from the Internet.
According to such a configuration, desired information can be obtained even outdoors.
また、本発明は、前記処理は、現在地に関連する情報または広告を前記ユーザに通知する情報通知処理であることを特徴とする。
このような構成によれば、現在地に関する様々な情報を得ることができる。
Further, the present invention is characterized in that the process is an information notification process of notifying the user of information or an advertisement related to a current location.
According to such a configuration, various information on the current location can be obtained.
また、本発明は、前記処理は、緊急事態が発生した場合に、前記ユーザを安全な場所まで誘導する緊急事態処理であることを特徴とする。
このような構成によれば、地震や津波等の緊急事態が発生した場合に、ユーザを安全な場所に避難誘導することができる。
Further, the present invention is characterized in that the processing is an emergency processing for guiding the user to a safe place when an emergency occurs.
According to such a configuration, when an emergency such as an earthquake or a tsunami occurs, it is possible to evacuate the user to a safe place.
また、本発明は、前記ユーザ側デバイスは、実在する風景に対して、画像処理によって得られた視覚情報を重畳して表示する拡張現実表示部を有し、前記拡張現実表示部は、前記飛行体における処理によって得られた視覚情報を表示する、ことを特徴とする。
このような構成によれば、飛行体による処理によって得られた情報を、ユーザの視覚を妨げることなく提示することができる。
Further, according to the present invention, the user-side device further includes an augmented reality display unit that superimposes and displays visual information obtained by image processing on an existing landscape, and the augmented reality display unit is configured to Display visual information obtained by processing in the body.
According to such a configuration, it is possible to present the information obtained by the processing by the flying object without disturbing the user's vision.
本発明によれば、屋外においてもユーザに追従して様々な要求に応じた処理を行うことが可能なユーザ支援システムを提供することが可能となる。 According to the present invention, it is possible to provide a user support system capable of performing processing according to various requests following the user even outdoors.
次に、本発明の実施形態について説明する。 Next, an embodiment of the present invention will be described.
(A)本発明の実施形態の構成の説明
図1は、本発明の実施形態に係るユーザ支援システムの構成例を示す図である。図1に示すように、ユーザ支援システム1は、飛行体10、ユーザ側デバイス20、基地局30、ネットワーク40、および、サーバ50を有し、ユーザの支援を行う。
(A) Description of the Configuration of the Embodiment of the Present Invention FIG. 1 is a diagram showing an example of the configuration of a user support system according to the embodiment of the present invention. As shown in FIG. 1, the
飛行体10は、無人航空機UAV(Unmanned Air Vehicle)であり、例えば、4つ以上のプロペラによってホバリング(空中停止)することが可能なドローン等によって構成される。なお、図1に示す飛行体10の形態は一例であって、これ以外の形態を有する飛行体であってもよい。また、飛行体10は、小型ヘリコプタや、気球等によって構成されるようにしてもよい。
The
ユーザ側デバイス20は、例えば、ユーザの手首に装着されるリストバンド型のデバイスによって構成され、ユーザの指示または要求等の情報(以下、「指示等」と称する)を飛行体10に送信するとともに、飛行体10から送信される情報を受信し、音声または画像として提示する。
The user-
基地局30は、ユーザ側デバイス20との間で電波によって情報を授受するとともに、ネットワーク40を介してサーバ50との間で情報を授受する。
The
ネットワーク40は、例えば、インターネットによって構成され、基地局30とサーバ50との間で、所定のプロトコルに基づいて、情報を授受する。
The
サーバ50は、基地局30およびネットワーク40を介してユーザ側デバイス20から伝送された要求に対応する処理を実行するとともに、ユーザ側デバイス20に対して種々の情報を供給する。
The
図2は、飛行体10の構成例を示している。図2の例では、飛行体10は、撮像素子11、ジンバル12、画像処理部13、音声処理部14、送受信部15、アンテナ15a,15b、制御部16、GPS(Global Positioning System)17、センサ18、および、モータ19−1〜19−4を有している。
FIG. 2 shows a configuration example of the flying
撮像素子11は、被写体によって反射される可視光を3原色に分解し、それぞれの色の光の強度を対応する電荷に光電変換し、画像データとして出力する。
The
ジンバル12は、撮像素子11が固定された固定部材の傾きを電子制御によって制御することで、飛行体10が揺動した場合でも、撮像素子11によって撮像される画像が揺らがないように制御する。なお、ジンバル12は、撮像素子11の垂直方向の傾き(チルト)を制御できる構成とされている。
The
画像処理部13は、撮像素子11から出力される画像データに対して、画像認識処理等を施し、得られた結果を、送受信部15を介して制御部16に供給する。
The image processing unit 13 performs image recognition processing and the like on the image data output from the
音声処理部14は、ユーザ側デバイス20から送信され、送受信部15によって受信されたユーザの音声データに対して認識処理を実行し、得られた結果を、送受信部15を介して制御部16に供給する。
The
送受信部15は、アンテナ15aによってユーザ側デバイス20との間で電波によって情報を送受信するとともに、アンテナ15bによって基地局30との間で電波によって情報を送受信する。
The transmitting / receiving
制御部16は、送受信部15から供給される情報、GPS17から供給される位置情報、および、センサ18から供給される飛行体10の飛行状態を示す情報等に基づいて、ジンバル12およびモータ19−1〜19−4を制御する。
The
GPS17は、複数の人工衛星から送信される時刻情報を有する信号を受信し、これらの時間差から自身の位置に関する情報(緯度情報および経度情報)を検出し、制御部16に供給する。
The
センサ18は、例えば、ジャイロセンサ、磁気センサ、気圧センサ、超音波センサ、および、ビジョンポジショニングセンサを有し、飛行体10の姿勢、高度、および、障害物との距離、障害物の形状等を検出し、制御部16に通知する。
The
モータ19−1〜19−4は、例えば、ブラシレスモータ等によって構成され、それぞれのモータ19−1〜19−4には、プロペラが取り付けられている。制御部16は、これらのモータ19−1〜19−4の回転数を個別に制御することで、目的の方向に移動したり、飛行体10の方向を変更したりすることができる。
The motors 19-1 to 19-4 are constituted by, for example, brushless motors or the like, and propellers are attached to the respective motors 19-1 to 19-4. The
図3は、図1に示すユーザ側デバイス20の詳細な構成例を示す図である。図3の例では、ユーザ側デバイス20は、送受信部21、アンテナ21a、センサ22、制御部23、表示部24、操作部25、マイク26、および、スピーカ27を有している。
FIG. 3 is a diagram showing a detailed configuration example of the
ここで、送受信部21は、アンテナ21aを介して、飛行体10との間で電波によって情報を送受信する。
Here, the transmitting / receiving
制御部23は、マイク26および操作部25から供給される情報に基づいて飛行体10に対する指示等を生成し、送受信部21およびアンテナ21aを介して飛行体10に送信する。また、飛行体10から送信され、アンテナ21aおよび送受信部21を介して受信した情報を表示部24およびスピーカ27から出力する。
The
表示部24は、例えば、液晶表示パネル等によって構成され、制御部23から供給される情報を表示する。
The
操作部25は、例えば、タッチパネルによって構成され、表示部24に重畳して構成され、ユーザの操作に基づく情報を生成して制御部23に供給する。なお、操作部25は、例えば、操作ボタン、および、ジョグダイアル等によって構成されるようにしてもよい。
The operation unit 25 is configured by, for example, a touch panel, and is configured to be superimposed on the
マイク26は、ユーザの発話する音声を電気信号に変換して制御部23に供給する。スピーカ27は、制御部23から供給される電気信号を音声に変換して出力する。
The
図4は、図1に示すサーバ50の詳細な構成例を示している。図4に示すように、サーバ50は、CPU(Central Processing Unit)51、ROM(Read Only Memory)52、RAM(Random Access Memory)53、HDD(Hard Disk Drive)54、I/F55、および、バス56を有している。
FIG. 4 shows a detailed configuration example of the
ここで、CPU51は、ROM52およびHDD54に格納されたプログラムに応じて各部を制御する中央処理装置である。
Here, the
ROM52は、不揮発性の半導体記憶装置によって構成され、CPU51が実行する基本的なプログラム等を格納する。
The ROM 52 is configured by a non-volatile semiconductor storage device, and stores a basic program and the like executed by the
RAM53は、揮発性の半導体記憶装置によって構成され、CPU51が実行対象とするプログラムや、計算途中のデータを一時的に格納する。
The RAM 53 is configured of a volatile semiconductor storage device, and temporarily stores a program to be executed by the
HDD54は、磁気記憶装置によって構成され、CPU51が実行するプログラムやユーザに対して供給するための情報等を格納する。なお、HDD54には、後述する、ユーザの属性情報等が格納されている。
The HDD 54 is formed of a magnetic storage device, and stores programs executed by the
I/F55は、ネットワーク40を介して基地局30との間で情報を授受する際に、情報の表現形式を変換する処理を実行する。
When the I /
バス56は、CPU51、ROM52、RAM53、HDD54、および、I/F55を相互に接続し、これらの間で情報の授受を可能とするための信号線群である。
The
(B)本発明の実施形態の動作の説明
つぎに、本発明の実施形態の動作について説明する。本実施形態に係るユーザ支援システムは、例えば、ユーザが外出する際に、ユーザに追従して飛行するとともに、ユーザの支援を行う。図5は、図2に示す飛行体において実行されるメイン処理の一例を説明するためのフローチャートである。図5に示すフローチャートの処理が開始されると、以下のステップが実行される。
(B) Description of Operation of the Embodiment of the Present Invention Next, the operation of the embodiment of the present invention will be described. For example, when the user goes out, the user support system according to the present embodiment follows the user and flies while supporting the user. FIG. 5 is a flow chart for explaining an example of main processing executed in the flying object shown in FIG. When the process of the flowchart shown in FIG. 5 is started, the following steps are performed.
ステップS10では、制御部16は、離陸指示がされたか否かを判定し、離陸指示がされたと判定した場合(ステップS10:Y)にはステップS11に進み、それ以外の場合(ステップS10:N)には同じ処理を繰り返す。例えば、飛行体10がユーザ宅の玄関に配置されており、ユーザ側デバイス20を装着したユーザが、玄関から屋外に出ようとした場合や、ユーザがユーザ側デバイス20の操作部25の離陸を指示するボタンを操作した場合や、ユーザが音声によって離陸を指示した場合や、あるいは、ユーザがポケットやカバン等に収容している飛行体10を取り出して空中に放り投げた場合には、離陸が指示されたと判定し、ステップS11に進む。なお、これら以外の方法によって、離陸を指示するようにしてもよい。
In step S10, the
ステップS11では、制御部16は、離陸指示を行ったユーザを特定する。より詳細には、例えば、ユーザ側デバイス20がユーザID(Identification)を有している場合には、ユーザIDによってユーザを特定することができる。なお、これ以外にも、例えば、ユーザ側デバイス20のマイク26から入力された音声を音声処理部14で声紋分析処理に基づく話者特定処理を実行することでユーザを特定することができる。あるいは、撮像素子11によって撮像されたユーザの画像に対して、画像処理部13によって認識処理を施すことでユーザを特定するようにしてもよい。
In step S11, the
なお、ステップS11の処理によって、ユーザが特定されると、制御部16は、サーバ50にアクセスし、特定されたユーザの属性情報を得ることができる。図6は、サーバ50のHDD54に格納されているユーザの属性情報の一例である。図6の例では、ユーザの属性情報としては、ユーザID、年齢、性別、音声の特徴、顔の特徴、身体の特徴、所持デバイス、行動パターン、嗜好性情報(食、衣類、場所等)、移動速度(通常時)、移動速度(緊急時)、通知情報種類、および、見守り内容がある。
When the user is specified by the process of step S11, the
ここで、ユーザID、年齢、および、性別は、ユーザのID、年齢、および、性別を示す。また、音声の特徴は、話者識別をするための声の特徴を示す情報であり、顔の特徴は、顔認識によってユーザを識別するための特徴を示す情報であり、身体の特徴は、例えば、身長、体重、体格等の身体の特徴を示す情報である。また、所持デバイスは、ユーザ側デバイス20の種類を示す情報である。行動パターンは、ユーザの行動パターンを示す情報であり、例えば、曜日毎および時間帯毎の行動パターン(散歩、通学、通勤等)を示す情報である。嗜好性情報(食、衣類、場所等)は、ユーザの嗜好性を示す情報であり、例えば、食の好み(例えば、和食を好む等)、衣類の好み(例えば、カジュアルな服装が好む等)、場所の好み(例えば、音楽が演奏されている場所を好む等)を示す情報である。移動速度(通常時)および移動速度(緊急時)は、通常時の移動可能速度(例えば、時速4km)と、緊急時(例えば、緊急事態が発生した場合)の移動可能速度(例えば、時速8km)を示す情報である。通知情報種類は、ユーザが通知することを許可している情報(例えば、プッシュ広告、場所に関する情報等)を示す。見守り内容は、ユーザが必要な見守りの種類(例えば、不審者の監視、周囲の交通状況の監視等)を示す情報である。なお、図6は一例であって、これら以外の情報を登録したり、図6の一部の情報を登録したりするようにしてもよい。
Here, the user ID, the age, and the gender indicate the ID, the age, and the gender of the user. Also, the voice feature is information indicating the voice feature for speaker identification, the face feature is information indicating the feature for identifying the user by face recognition, and the body feature is, for example, , Body weight, body weight, and other characteristics of the body. The possessed device is information indicating the type of the
ステップS12では、制御部16は、ホバリングを開始する。より詳細には、制御部16は、GPS17から供給される位置情報と、センサ18から供給される加速度情報等に基づき、飛行体10が所定の位置に留まるように制御する。
In step S12, the
ステップS13では、制御部16は、ユーザが移動したか否かを判定し、移動したと判定した場合(ステップS13:Y)にはステップS14に進み、それ以外の場合(ステップS13:N)にはステップS15に進む。例えば、ユーザ側デバイス20のセンサ22が有するGPSによって検出されるユーザの位置情報を参照し、ユーザが移動したと判定した場合にはステップS14に進むことができる。なお、ユーザが移動したか否かを判定する方法としては、例えば、送受信部15によって受信するユーザ側デバイス20からの電波の強度が変化した場合には、ユーザが移動したと判定することができる。
In step S13, the
ステップS14では、制御部16は、飛行体10がユーザに追従する処理である追従処理を実行する。なお、この処理の詳細については、図7を参照して後述する。
In step S14, the
ステップS15では、制御部16は、ユーザの見守り処理を実行するか否かを判定し、実行すると判定した場合(ステップS15:Y)にはステップS16に進み、それ以外の場合(ステップS15:N)にはステップS17に進む。例えば、図6に示す属性情報の末尾の「見守り内容」に、見守りが必要である旨を示す情報が付加されている場合にはYと判定してステップS16に進むことができる。
In step S15, the
ステップS16では、制御部16は、飛行体10によってユーザを見守る見守り処理を実行する。なお、見守り処理の詳細については、図8を参照して後述する。
In step S16, the
ステップS17では、制御部16は、ユーザが要求を行ったか否かを判定し、要求を行ったと判定した場合(ステップS17:Y)にはステップS18に進み、それ以外の場合(ステップS17:N)にはステップS19に進む。例えば、ユーザがユーザ側デバイス20のマイク26に対して何らかの要求を行った場合、または、操作部25を操作して何らかの要求を行った場合にはYと判定してステップS18に進む。
In step S17, the
ステップS18では、制御部16は、ユーザの要求に応じた要求対応処理を実行する。なお、要求対応処理の詳細については、図9を参照して後述する。
In step S18, the
ステップS19では、制御部16は、ユーザに通知する情報があるか否かを判定し、通知する情報があると判定した場合(ステップS19:Y)にはステップS20に進み、それ以外の場合(ステップS19:N)にはステップS21に進む。例えば、ユーザがプッシュ広告を許可している場合に、表示すべきプッシュ広告が存在する場合にはYと判定してステップS20に進む。
In step S19, the
ステップS20では、制御部16は、ユーザに対して情報を通知する情報通知処理を実行する。なお、情報通知処理の詳細については、図12を参照して後述する。
In step S20, the
ステップS21では、制御部16は、緊急事態が発生したか否かを判定し、緊急事態が発生したと判定した場合(ステップS21:Y)にはステップS22に進み、それ以外の場合(ステップS21:N)にはステップS23に進む。例えば、地震等が発生した場合にはYと判定してステップS22に進む。
In step S21, the
ステップS22では、制御部16は、緊急事態に対応する緊急事態処理を実行する。なお、緊急事態処理の詳細については、図13を参照して後述する。
In step S22, the
ステップS23では、制御部16は、着陸するか否かを判定し、着陸すると判定した場合(ステップS23:Y)にはステップS24に進み、それ以外の場合(ステップS23:N)にはステップS10に戻って前述の場合と同様の処理を繰り返す。例えば、ユーザが外出先から自宅に到着した場合には、Yと判定してステップS24に進む。
In step S23, the
ステップS24では、制御部16は、着陸する処理を実行する。具体的には、制御部16はGPS17およびセンサ18の出力を参照し、機体を水平に保ちながら所定の場所(例えば、玄関先の充電設備が配置されている場所)に着陸する。
In step S24, the
以上のフローチャートによれば、ユーザの外出に応じて離陸し、ユーザの行動等を支援するとともに、ユーザの帰宅等に応じて着陸することができる。 According to the above-described flowchart, it is possible to take off in response to the user going out, support the user's action and the like, and land in response to the user's return and the like.
つぎに、図7を参照して、図5のステップS14に示す追従処理の詳細について説明する。図7に示すフローチャートの処理が開始されると、以下のステップが実行される。 Next, details of the follow-up process shown in step S14 of FIG. 5 will be described with reference to FIG. When the process of the flowchart shown in FIG. 7 is started, the following steps are performed.
ステップS30では、制御部16は、設定された飛行体10のデフォルト位置を取得する。例えば、見守り等の場合には、飛行体10のデフォルト位置は、ユーザの直上または後方上部とされる。また、道案内の場合にはユーザよりも2〜3m程度前方の位置とされる。
In step S30, the
ステップS31では、制御部16は、飛行体10の自機の位置を取得する。より詳細には、制御部16は、GPS17から供給される位置情報(緯度および経度情報)に基づいて自機の位置を取得する。
In step S31, the
ステップS32では、制御部16は、ユーザの位置を取得する。より詳細には、制御部16は、ユーザ側デバイス20に対して位置情報を送信するように要求する。この結果、ユーザ側デバイス20は、センサ22に含まれるGPSから位置情報(緯度および経度情報)を取得し、送受信部21が位置情報を飛行体10に対して送信する。これにより、飛行体10の制御部16は、ユーザの位置情報を取得することができる。
In step S32, the
ステップS33では、制御部16は、ユーザの進行方向を取得する。より詳細には、制御部16は、ステップS32で取得したユーザ位置情報の時間的な変化から、ユーザの進行方向を取得する。
In step S33, the
ステップS34では、制御部16は、電波の受信強度を検出する。より詳細には、制御部16は、ユーザ側デバイス20から送信される電波の送受信部15による受信強度を検出する。
In step S34, the
ステップS35では、制御部16は、撮像素子11によってユーザの画像を撮像させる。この結果、飛行体10の現在位置からのユーザの画像が撮像される。
In step S35, the
ステップS36では、制御部16は、ステップS32で取得したユーザの位置、進行方向、電波の受信強度、および、ユーザの画像を参照して、ユーザと自機との位置関係を算出する。より詳細には、電波の強度からユーザと自機との距離を推定するとともに、GPSによる位置情報から大まかな位置関係を推定する。そして、撮像された画像により、推定した位置関係を補正する処理を実行する。これにより、自機とユーザとの正確
な位置関係が判明する。
In step S36, the
ステップS37では、制御部16は、自機の移動方向および移動速度を算出する。より詳細には、ステップS36で算出したユーザと自機の位置関係と、ステップS33で取得したユーザの進行方向に基づいて、自機の移動方向と移動速度を算出する。
At step S37, the
ステップS38では、制御部16は、モータ19−1〜19−4を制御して、ステップS37で算出した移動方向および移動速度を参照し、自機を移動する処理を実行する。この結果、例えば、ユーザが徒歩で移動する場合であっても、走って移動する場合であっても、所定のデフォルト位置を保ちながら追従することができる。
In step S38, the
ステップS39では、制御部16は、適切な位置関係となったか否かを判定し、適切な位置関係となったと判定した場合(ステップS39:Y)には元の処理に復帰(リターン)し、それ以外の場合(ステップS39:N)にはステップS30に戻って前述の場合と同様の処理を繰り返す。
In step S39, the
以上のフローチャートの処理によれば、飛行体10をユーザと所定の位置関係を保った状態で、ユーザに追従させることができる。
According to the processing of the above flowchart, the user can be made to follow the flying
つぎに、図8を参照して、図5のステップS16に示す見守り処理の詳細について説明する。図8に示すフローチャートの処理が開始されると、以下のステップが実行される。 Next, details of the watching process shown in step S16 of FIG. 5 will be described with reference to FIG. When the process of the flowchart shown in FIG. 8 is started, the following steps are performed.
ステップS50では、制御部16は、子どもの見守りを実行するか否かを判定し、子どもの見守りを実行すると判定した場合(ステップS50:Y)にはステップS51に進み、それ以外の場合(ステップS50:N)にはステップS53に進む。例えば、図6に示すユーザの属性情報の見守り内容を参照し、現在、追従しているユーザが子どもであって、子どもの見守りを実行すると判定した場合にはステップS51に進む。
In step S50, the
ステップS51では、制御部16は、周囲の交通状況を監視する処理を実行する。より詳細には、制御部16は、ジンバル12を制御するとともに、モータ19−1〜19−4を制御し、ユーザの周辺の画像を撮像する。特に、ユーザの死角になりやすい後方等を撮像する。なお、撮像素子として、画角が広い魚眼レンズ等を用いるようにしてもよい。あるいは、2つの魚眼レンズと2つの撮像素子を用いて、自機の周辺360度の画像を撮像できるようにしてもよい。画像処理部13は、このようにして撮像されたユーザの周辺画像を参照し、ユーザに対して接近している車両(例えば、自動車、バイク、自転車等)の存在を検出する。そして、接近する車両がユーザに接触したり、衝突したりしないかを監視する。なお、子どもの場合には、突然の飛び出し等を行う場合があるので、ユーザが急に走り出したりした場合には、追従するとともに、周辺の車両を監視するようにしてもよい。また、制御部16は、GPS17によって現在の位置情報を取得し、取得した位置情報を基地局30およびネットワーク40を介してサーバ50に送信し、現在位置を中心とする地図情報を取得するようにしてもよい。そして、現在位置を中心とする地図情報から道路の状況を把握し、ユーザが現在居る場所が道路であるのか、路側帯であるのかを把握し、把握した内容に基づいて監視を行うようにしてもよい。
In step S51, the
ステップS52では、制御部16は、周囲の不審者を監視する処理を実行する。より詳細には、制御部16は、ジンバル12を制御するとともに、モータ19−1〜19−4を制御し、ユーザの周辺の画像を撮像し、ステップS51と同様に、ユーザの周辺に、不審な動きをする人が存在しないか監視する。なお、不審な動きとしては、例えば、一定速度で移動しておらず、移動したり、立ち止まったりする動きを不審な動きと定義することができる。もちろん、これ以外の定義であってもよい。
At step S52, the
ステップS53では、制御部16は、高齢者の見守りを実行するか否かを判定し、高齢者の見守りを実行すると判定した場合(ステップS53:Y)にはステップS54に進み、それ以外の場合(ステップS53:N)にはステップS56に進む。例えば、図6に示すユーザの属性情報の見守り内容を参照し、現在、追従しているユーザが高齢者であって、高齢者の見守りを実行すると判定した場合にはステップS54に進む。
In step S53, the
ステップS54では、制御部16は、ステップS51と同様の処理によって、周辺の交通状況を監視する処理を実行する。なお、高齢者の場合には、歩行速度が遅く、認知能力の低下によって、接近する車両を感知できない場合が多いので、例えば、図6に示す属性情報の移動速度(通常時)を参照するとともに、サーバ50から取得した現在地を中心とする地図情報を参照し、道路を横断していると判定した場合には、自機の高度を上げる等して、周辺から接近する車両が存在しないか監視するようにしてもよい。
In step S54, the
ステップS55では、制御部16は、転倒等の有無を監視する処理を実行する。例えば、ユーザが同じ場所から移動しなくなるとともに、撮像した画像から、歩行していない状態(地面に横たわっている状態)になっていないか監視する。なお、横たわっていなくても地面に腰を下ろしている状態になっていないか監視するようにしてもよい。
In step S55, the
ステップS56では、制御部16は、女性の見守りを実行するか否かを判定し、女性の見守りを実行すると判定した場合(ステップS56:Y)にはステップS57に進み、それ以外の場合(ステップS56:N)にはステップS58に進む。例えば、図6に示すユーザの属性情報の見守り内容を参照し、現在、追従しているユーザが女性であって、女性の見守りを実行すると判定した場合にはステップS57に進む。
In step S56, the
ステップS57では、制御部16は、ステップS52と同様の処理により、周囲の不審者を監視する処理を実行する。なお、ストーカー等の被害を防ぐために、例えば、ユーザの周辺に不審な動きをする人物が存在する場合には、当該人物の顔を撮像するとともに、人物同定処理によって、同じ人物が周辺に継続して存在する場合には、ストーカーと判定するようにしてもよい。
In step S57, the
ステップS58では、制御部16は、ランニングの見守りを実行するか否かを判定し、ランニングの見守りを実行すると判定した場合(ステップS58:Y)にはステップS59に進み、それ以外の場合(ステップS58:N)にはステップS61に進む。例えば、図6に示すユーザの属性情報の行動パターンを参照し、ジョギングを行うことが記載されているとともに、見守り内容にランニングの見守りを実行すると判定した場合にはステップS59に進む。
In step S58, the
ステップS59では、制御部16は、ステップS51と同様の処理によって、周辺の交通状況を監視する処理を実行する。なお、ジョギングの場合には、移動速度が速いことから他の歩行者等と衝突するリスクが高くなるとともに、ユーザがヘッドフォン等を装着している場合には接近する車両を感知できない場合が多い。このため、広い範囲を監視するとともに、早めに警告を発することが望ましい。
In step S59, the
ステップS60では、制御部16は、ユーザの身体状況を監視する処理を実行する。より詳細には、例えば、ユーザ側デバイス20のセンサ22として、脈拍センサが含まれている場合には、属性情報に含まれる年齢から推定される運動時に推奨される心拍数を、脈拍センサによって検出される心拍数が超過しないか監視し、超過した場合にはペースを落とすように警告するようにしてもよい。
In step S60, the
ステップS61では、制御部16は、ステップS50〜ステップS60の処理によって、危険を感知したか否かを判定し、危険を感知した場合(ステップS61:Y)にはステップS62に進み、それ以外の場合(ステップS61:N)には元の処理に復帰(リターン)する。
In step S61, the
ステップS62では、制御部16は、感知した危険に対応する警告処理を実行する。例えば、周辺の交通状況から危険を感知した場合には大きな警告音を発するようにするとともに、ユーザの直前に降下して進行を阻止するようにしてもよい。あるいは、高齢者の転倒等の場合には、周囲の人に転倒したことを音声によって通知するとともに、登録された電話番号またはメールアドレスにメッセージを発信することができる。また、女性の見守りの場合には、女性に対して不審者の存在を通知するとともに、ある程度以上接近した場合には、不審者が接近できない高度まで上昇して、周辺の人に助けを求める音声を発するようにしてもよい。また、ランニングの見守りにおける身体状況等の監視では、音声でユーザに伝えるとともに、ユーザの直前に降下してペースダウンするように警告するようにしてもよい。なお、ユーザ側デバイス20のスピーカ27から警告音を発するようにしたり、図示しない振動部をユーザ側デバイス20に設け、この振動部を振動させることで警告したりしてもよい。
In step S62, the
ステップS63では、制御部16は、感知した危険に対応する録画処理を実行する。より詳細には、不審者の場合には、不審者の顔を鮮明に撮像するような位置に接近して撮像する。また、周囲の交通状況の監視の場合には、万一、事故が発生した場合の状況を示す証拠とするために、車両のナンバーや、運転者の顔を撮影することができる。また、転倒等の場合には、転倒場所が分かるように周辺のランドマークを含むように撮像し、当該画像を予め登録した家族等に送信することができる。
In step S63, the
つぎに、図9を参照して、図5のステップS18に示す要求対応処理の詳細について説明する。図9に示すフローチャートの処理が開始されると、以下のステップが実行される。 Next, the details of the request handling process shown in step S18 of FIG. 5 will be described with reference to FIG. When the process of the flowchart shown in FIG. 9 is started, the following steps are performed.
ステップS70では、制御部16は、道案内処理がユーザから要求されたか否かを判定し、道案内処理が要求されたと判定した場合(ステップS70:Y)にはステップS71に進み、それ以外の場合(ステップS70:N)にはステップS72に進む。例えば、ユーザが、ユーザ側デバイス20のマイク26に向けて、「近くのフレンチレストランまで案内して」と発話したとする。この場合、マイク26によって電気信号に変換されたユーザの音声は、制御部16によってデジタル信号に変換され、送受信部21を介して飛行体10に送信される。飛行体10では、送受信部15が音声データを受信し、音声処理部14に供給する。音声処理部14は、音声データに対して、自然言語解析処理としての形態素解析処理、構文解析処理、意味解析処理、および、文脈解析処理を実行して得られた処理結果を、送受信部15を介して制御部16に供給する。制御部16は、音声処理部14から供給された情報に基づいて、ユーザが近くのフレンチレストランまでの案内を要求していると判定し、ステップS71に進む。なお、音声で要求を行うのではなく、例えば、ユーザ側デバイス20の操作部25を操作することで、道案内の要求を行うようにしてもよい。
In step S70, the
ステップS71では、制御部16は、ユーザを指定された目的地まで案内する道案内処理を実行する。なお、この処理の詳細は、図10を参照して後述する。
In step S71, the
ステップS72では、制御部16は、ユーザが所定の人物を探索する人探索処理の実行を要求しているか否かを判定し、人探索処理の実行を要求していると判定した場合(ステップS72:Y)にはステップS73に進み、それ以外の場合(ステップS73:N)にはステップS74に進む。例えば、ユーザが母親であり、迷子になった子どもを探索することを要求した場合にはYと判定してステップS73に進む。
In step S72, the
ステップS73では、制御部16は、所定の人物を探索する人探索処理を実行する。なお、当該処理の詳細は、図11を参照して後述する。
In step S73, the
ステップS74では、制御部16は、ユーザが所定の情報をインターネットから検索するネット検索処理の実行を要求しているか否かを判定し、ネット検索処理の実行を要求していると判定した場合(ステップS74:Y)にはステップS75に進み、それ以外の場合(ステップS74:N)にはステップS77に進む。例えば、ユーザが、インターネットから、眼前のレストランの評価をマイク26に向かって聞いた場合(例えば、「このレストラン〇〇の評価を教えて」と聞いた場合)には、検索が要求されたと判定してステップS75に進む。あるいは、サーバ50の属性情報に対応付けて格納されている買い物リストを参照し、買い物する品物があるか否かを問い合わせた場合(例えば、「買い物リストに、このお店で買いだしするものある?」と聞いた場合)には、検索が要求されたと判定してステップS75に進む。
In step S74, the
ステップS75では、制御部16は、ステップS74で要求された情報を、送受信部15および基地局30を介してネットワーク40上から検索する。例えば、「このレストラン〇〇の評価を教えて」の場合には、GPS17から取得した位置情報から直近のレストランを検索し、そのレストランに関連する評価をネットワーク40から検索して取得する。また、「買い物リストに、このお店で買いだしするものある?」の場合は、まず、サーバ50から買い物リストを取得し、買い物リストにリストアップされている商品群と、直近の小売店が販売している商品群とを比較し、両者に一致する商品を特定する。
In step S75, the
ステップS76では、制御部16は、ステップS75の検索結果として得られた情報を、例えば、ユーザ側デバイス20に通知し、スピーカ27から音声として出力させるか、表示部24に画像またはテキストとして表示させる。例えば、「このレストラン〇〇の評価を教えて」の場合には、「評価は星4.5です。」が出力される。また、「買い物リストに、このお店で買いだしするものある?」の場合には、「醤油とジャムを買う必要があります」が出力される。
In step S76, the
ステップS77では、制御部16は、ユーザから緊急通報処理が要求されたか否かを判定し、緊急通報処理が要求されたと判定した場合(ステップS77:Y)にはステップS78に進み、それ以外の場合(ステップS77:N)にはステップS80に進む。例えば、不審者に尾行されているような場合に、マイク26に向かってユーザが「助けて」と叫んだ場合には、緊急通報処理が要求されたと判定してステップS78に進む。
In step S77, the
ステップS78では、制御部16は、緊急通報処理を実行する。例えば、不審者の場合には、GPS17から取得した位置情報とともに、不審者に尾行されていることを、警察等に通報する。
In step S78, the
ステップS79では、制御部16は、周囲の人に対して助けを求める処理を実行する。例えば、撮像素子11によって周辺を撮像して周囲に居る人物を顔認識処理等によって特定し、その人に向かって助けを求めることができる。助けを求める方法としては、例えば、図示しないスピーカから「助けて」等の音声を出力したり、警告音(例えば、ブザー等の音)等を出力したりすることができる。なお、スピーカが存在しない場合には、モータ19−1〜19−4を駆動する駆動電流に対して、音声信号を重畳することで、モータ19−1〜19−4に取り付けられたプロペラから音声(例えば、「助けて」または「警告音」)を出力することもできる。
In step S79, the
ステップS80では、制御部16は、ユーザから荷物搬送処理が要求されたか否かを判定し、荷物搬送処理が要求されたと判定した場合(ステップS80:Y)にはステップS81に進み、それ以外の場合(ステップS80:N)には元の処理に復帰(リターン)する。例えば、急いで自宅に持って帰りたい物(例えば、冷凍食品や焼きたての食品)がある場合に、ユーザがマイク26に向かって「自宅まで持って帰って」と発話したときは、Yと判定してステップS81に進む。
In step S80, the
ステップS81では、制御部16は、ユーザが持っている、搬送すべき荷物を、例えば、飛行体10の機体の底部に設けられたフック等(不図示)に取り付けるために下降し、荷物の取り付けが完了した場合には、GPS17の出力を参照して、自宅まで荷物を搬送する処理を実行する。なお、自宅に着いた場合には、電話等によって、家族を呼び出し、荷物を受け渡すことができる。もちろん、自宅のホームネットワークに接続し、インターフォンから呼び出しを行うこともできる。
In step S81, the
以上の処理によれば、ユーザの様々な要求に対応する処理を実行することができる。 According to the above process, it is possible to execute the process corresponding to various requests of the user.
つぎに、図10を参照して、図9のステップS71に示す道案内処理の詳細について説明する。図10に示すフローチャートの処理が開始されると、以下のステップが実行される。 Next, with reference to FIG. 10, the details of the route guidance process shown in step S71 of FIG. 9 will be described. When the process of the flowchart shown in FIG. 10 is started, the following steps are performed.
ステップS90では、制御部16は、ユーザから目的地の指定を受ける。例えば、ユーザがマイク26に向かって「〇〇まで案内して」と発話した場合には、送受信部15を介して当該音声データを取得し、音声処理部14によって処理することで、目的地である「〇〇」を取得する。なお、音声ではなく、例えば、ユーザ側デバイス20の表示部24に表示された地図上で目的地の指定を受けるようにしてもよい。
In step S90, the
ステップS91では、制御部16は、ステップS90で取得した目的地を地図上で検索する処理を実行する。例えば、「〇〇」に対応する場所を、地図上で検索して特定する。
In step S91, the
ステップS92では、制御部16は、現在位置から目的地までの経路を探索する処理を実行する。制御部16は、GPS17から現在位置を示す位置情報を取得し、ステップS91で特定した「〇〇」までの経路を、地図上で検索する。
In step S92, the
ステップS93では、制御部16は、飛行体10のデフォルト位置をユーザの前方(例えば、前方2m)に設定する。
In step S93, the
ステップS94では、制御部16は、ステップS92で探索した経路に沿って移動する。より詳細には、制御部16は、GPS17およびセンサ18の出力を参照しつつ、モータ19−1〜19−4を制御し、経路に沿って移動する処理を実行する。
In step S94, the
ステップS95では、制御部16は、ユーザと自機との距離を一定に保つ処理を実行する。より詳細には、制御部16は、GPS17から供給される自機の位置情報と、センサ22に含まれるGPSから出力され、送受信部15を介して受信されるユーザの位置情報とを比較し、ユーザとの距離を一定に保つように自機を制御する(例えば、ユーザから2m前方に位置するように制御する)。
In step S95, the
ステップS96では、制御部16は、GPS17から出力される位置情報と、目的地の位置情報を比較し、目的地に到着したか否かを判定し、目的地に到着したと判定した場合(ステップS96:Y)にはステップS97に進み、それ以外の場合(ステップS96:N)にはステップS94に戻って前述の場合と同様の処理を繰り返す。
In step S96, the
ステップS97では、制御部16は、目的地に到着したことをユーザに対して通知する。例えば、制御部16は、ユーザ側デバイス20のスピーカ27から音声「目的地に到着しました。」を出力することで、目的地に到着したことをユーザに通知する。
In step S97, the
以上の処理によれば、ユーザを目的地まで案内することが可能になる。 According to the above process, it is possible to guide the user to the destination.
つぎに、図11を参照して、図9のステップS73に示す人探索処理の詳細について説明する。図11に示すフローチャートの処理が開始されると、以下のステップが実行される。 Next, the details of the person search process shown in step S73 of FIG. 9 will be described with reference to FIG. When the process of the flowchart shown in FIG. 11 is started, the following steps are performed.
ステップS110では、制御部16は、ユーザから探索する人物の指定を受ける。例えば、ユーザがマイク26に向かって「〇〇(人物名)を探して」と発話すると、当該音声データは送受信部21を介して音声処理部14に送信される。音声処理部14は、音声データから人物名としての〇〇を特定する。また、ユーザが表示部24に表示されている情報を参照し、操作部25を操作して特定の人物を指定した場合に、当該人物を探索対象とするようにしてもよい。
In step S110, the
ステップS111では、制御部16は、該当する人物に関する情報を取得する。例えば、制御部16は、該当する人物の顔の画像をサーバ50から取得する。なお、顔の画像だけでなく、身長、体重、性別等の属性情報を合わせて取得するようにしてもよい。
In step S111, the
ステップS112では、制御部16は、モータ19−1〜19−4を制御して、飛行体10を人に衝突しない高度(例えば、2.5m)まで上昇させる。
In step S112, the
ステップS113では、制御部16は、周囲の人物の探索処理を実行する。より詳細には、制御部16は、ユーザの周囲に存在する複数の物体の中から、顔認識処理によって、人物を探索する処理を実行する。
In step S113, the
ステップS114では、制御部16は、ステップS113による探索の結果特定された人物を撮像素子11によって撮像する処理を実行する。
In step S114, the
ステップS115では、制御部16は、ステップS114で撮像した人物の特徴を抽出する処理を画像処理部13に実行させる。この結果、撮像された人物の特徴が、例えば、特徴ベクトルとして抽出される。
In step S115, the
ステップS116では、制御部16は、ステップS114で撮像された画像から、ステップS115で抽出された特徴と、ステップS111で取得された探索対象の人物の特徴とを比較し、特徴が一致するか否かを判定し、特徴が一致すると判定した場合(ステップS116:Y)にはステップS117に進み、それ以外の場合(ステップS116:N)にはステップS113に戻って同様の処理を繰り返す。
In step S116, the
ステップS117では、制御部16は、探索対象となる人物を発見したことをユーザに通知する。例えば、ユーザ側デバイス20のスピーカ27から「〇〇さんが見つかりました。」等の音声を出力させる。
In step S117, the
ステップS118では、制御部16は、ステップS117で見つけた人物が居る場所までユーザを案内する。より詳細には、制御部16は、探索対象となる人物の位置情報を記憶し、現在地から当該位置までモータ19−1〜19−4を制御して案内する。そして、元の処理に復帰(リターン)する。
In step S118, the
以上の処理によれば、例えば、迷子になった子どもや、待ち合わせをしている人物を探索することができる。特に大勢の人がいる場合や、障害物等が存在する場合でも、高所からの画像により対象となる人物を迅速に見つけ出すことができる。 According to the above processing, for example, a child who got lost or a person who is waiting can be searched. In particular, even when there are a large number of people or obstacles or the like, it is possible to quickly find out the person who is the object by the image from a high place.
つぎに、図12を参照して、図5のステップS20に示す情報通知処理の詳細について説明する。図12に示すフローチャートの処理が開始されると、以下のステップが実行される。 Next, the details of the information notification process shown in step S20 of FIG. 5 will be described with reference to FIG. When the process of the flowchart shown in FIG. 12 is started, the following steps are performed.
ステップS130では、制御部16は、図6に示すユーザの属性情報に含まれる通知情報種類を参照し、プッシュ広告が許可されているか否かを判定し、許可されていると判定した場合(ステップS130:Y)にはステップS131に進み、それ以外の場合(ステップS130:N)にはステップS135に進む。
In step S130, the
ステップS131では、制御部16は、サーバ50に格納されているユーザの属性情報から、嗜好性情報を取得する。例えば、嗜好性情報として、食の好み(例えば、和食を好む等)、衣類の好み(例えば、カジュアルな服装が好む等)、場所の好み(例えば、音楽が演奏されている場所を好む等)を示す情報を取得する。なお、これら以外の情報を取得するようにしてもよい。
In step S131, the
ステップS132では、制御部16は、GPS17から現在位置を示す位置情報を取得する。
In step S132, the
ステップS133では、制御部16は、現在位置に関連付けされた情報であって、ユーザの嗜好に合致する広告が存在するか否かを判定し、存在する場合(ステップS133:Y)にはステップS134に進み、それ以外の場合(ステップS133:N)にはステップS135に進む。例えば、現在位置に関連付けされた広告として「和食レストラン」、「洋食レストラン」、および、「パン屋」の広告が存在し、時刻が12:00であって、かつ、ユーザの嗜好が、例えば、「和食を好む」である場合には、「和食レストラン」の広告が存在すると判定されてステップS134に進む。
In step S133, the
ステップS134では、制御部16は、ステップS133で嗜好に合致すると判定された広告をユーザ側デバイス20に送信して提示させる。例えば、いまの例では、「和食レストラン〇〇は、本日××がおすすめです」が、ユーザ側デバイス20から音声または画像として提示される。
In step S134, the
ステップS135では、制御部16は、図6に示すユーザの属性情報に含まれる通知情報種類を参照し、場所に関する情報の通知が許可されているか否かを判定し、許可されていると判定した場合(ステップS135:Y)にはステップS136に進み、それ以外の場合(ステップS135:N)には元の処理に復帰(リターン)する。
In step S135, the
ステップS136では、制御部16は、ステップS131と同様に、サーバ50に格納されているユーザの属性情報から、嗜好性情報を取得する。
In step S136, the
ステップS137では、制御部16は、ステップS132と同様に、GPS17から現在位置を示す位置情報を取得する。
In step S137, the
ステップS138では、制御部16は、現在位置に関連付けされた情報であって、ユーザの嗜好に合致する情報が存在するか否かを判定し、存在する場合(ステップS138:Y)にはステップS139に進み、それ以外の場合(ステップS133:N)には元の処理に復帰(リターン)する。例えば、現在位置に関連付けされた情報として「歴史的な情報」、「ビジネスに関する情報」、および、「音楽に関する情報」が存在し、ユーザの嗜好が、例えば、「音楽が演奏されている場所を好む」である場合には、ステップS139に進む。
In step S138, the
ステップS139では、制御部16は、その場所に関する情報を提示する。より詳細には、例えば、制御部16は、「音楽に関する情報」を選択し、「本日、音楽グループ〇〇の路上ライブがあります。」がユーザ側デバイス20から音声または画像として提示される。
In step S139, the
以上の処理によれば、その場所に関連付けされるとともに、ユーザの嗜好に合致した情報を提示することができる。 According to the above process, it is possible to present information that is associated with the place and that matches the user's preference.
つぎに、図13を参照して、図5のステップS22に示す緊急事態処理の詳細について説明する。図13に示すフローチャートの処理が開始されると、以下のステップが実行される。 Next, with reference to FIG. 13, the details of the emergency process shown in step S22 of FIG. 5 will be described. When the process of the flowchart shown in FIG. 13 is started, the following steps are performed.
ステップS150では、制御部16は、ネットワーク40の災害情報を配信するサイトから地震情報を取得し、地震が発生したと判定した場合(ステップS150:Y)にはステップS151に進み、それ以外の場合(ステップS150:N)には153に進む。
In step S150, the
ステップS151では、制御部16は、構造物や斜面等のように崩落の危険がある場所からある程度離れた安全な場所を周辺から検索する。例えば、制御部16は、GPS17から取得した現在位置に関する位置情報を参照し、現在位置の周辺に存在する安全な場所(例えば、公園等)を検索する。
In step S151, the
ステップS152では、制御部16は、例えば、図10と同様の処理により、ユーザをステップS151で検索した安全な場所まで案内する。
In step S152, the
ステップS153では、制御部16は、ネットワーク40の天気情報を配信するサイトから地震情報を取得し、大雨、竜巻、雷が発生したと判定した場合(ステップS153:Y)にはステップS154に進み、それ以外の場合(ステップS153:N)には156に進む。
In step S153, the
ステップS154では、制御部16は、頑丈な建物(例えば、鉄筋コンクリート造の建物)を周辺から検索する。例えば、制御部16は、GPS17から取得した現在位置に関する位置情報を参照し、現在位置の周辺に存在する頑丈な建物を検索する。
In step S154, the
ステップS155では、制御部16は、例えば、図10と同様の処理により、ユーザをステップS154で検索した頑丈な建物まで案内する。
In step S155, the
ステップS156では、制御部16は、ネットワーク40の震災情報を配信するサイトから津波情報を取得し、津波が発生したと判定した場合(ステップS156:Y)にはステップS157に進み、それ以外の場合(ステップS156:N)には元の処理に復帰(リターン)する。
In step S156, the
ステップS157では、制御部16は、震災情報を配信するサイトの情報と、ユーザの現在位置とに基づいて、その地点に津波が到達した場合の波高を推測する。
In step S157, the
ステップS158では、制御部16は、ステップS157で推測した波高よりも高い場所または建物を周辺から検索する。例えば、制御部16は、GPS17から取得した現在位置に関する位置情報を参照し、現在位置の周辺に存在する波高よりも高い場所または建物を検索する。
In step S158, the
ステップS159では、制御部16は、例えば、図10と同様の処理により、ユーザをステップS158で検索した波高よりも高い場所または建物まで案内する。なお、ユーザの属性情報に含まれているユーザの移動速度(緊急時)を参照し、津波到達予想時刻までの時間と、移動速度(緊急時)から最適な避難場所を検索するようにしてもよい。
In step S159, the
以上の処理によれば、緊急事態が発生した場合に、ユーザを安全な場所に誘導することができる。 According to the above processing, when an emergency occurs, the user can be guided to a safe place.
(C)変形実施形態の説明
以上の各実施形態は一例であって、本発明が上述した場合のみに限定されるものでないことはいうまでもない。例えば、以上の例では、画像処理部13および音声処理部14は、飛行体10が有するようにしたが、例えば、ユーザ側デバイス20が有したり、あるいは、サーバ50が有するようにしたりしてもよい。
(C) Description of Modified Embodiments It goes without saying that each of the above-described embodiments is an example, and the present invention is not limited only to the case described above. For example, in the above example, the image processing unit 13 and the
また、話者を特定する処理は、飛行体10において実行するようにしたが、ユーザ側デバイス20またはサーバ50において実行するようにしてもよい。
In addition, although the process of identifying the speaker is performed in the flying
また、ユーザの属性情報は、サーバ50に格納するようにしたが、例えば、飛行体10またはユーザ側デバイス20に格納するようにしてもよい。
Further, although the attribute information of the user is stored in the
また、人探索処理では、人物の顔の画像を用いて探索を行うようにしたが、例えば、探索の対象となる人物が所持するデバイス(例えば、携帯電話またはユーザ側デバイス等)から送信される電波に含まれるID情報を用いて、人物を探索するようにしてもよい。 Further, in the person search process, the search is performed using the image of the face of a person, but for example, it is transmitted from a device (for example, a mobile phone or a device on the user side) possessed by the person to be searched. A person may be searched using ID information included in radio waves.
また、前述した実施形態では、ユーザ側デバイス20は、図1に示すリストバンド型デバイスとしたが、例えば、図14および図15に示すスマートグラス型デバイスとしてもよい。図14は、スマートグラス型デバイスの構成例を示すブロック図である。図14に示す例では、スマートグラス型デバイス20Aは、送受信部21、アンテナ21a、センサ22、制御部23、表示部24、マイク26、および、スピーカ27を有している。
Further, in the above-described embodiment, the
図15は、図14に示すスマートグラス型デバイス20Aの構成例を示す斜視図である。スマートグラス型デバイス20Aは、眼鏡のレンズ部分が表示部24とされ、レンズ部分に画像およびテキストが投射され、ユーザは、投射された画像およびテキストを閲覧するとともに、景色も見ることができる。すなわち、図14および図15に示すスマートグラス型デバイスでは、AR(Augmented Reality(拡張現実))として、景色に重畳する態様で、画像およびテキストを閲覧することができる。また、スマートグラス型デバイス20Aには、マイク26およびスピーカ27が内蔵されているので、マイク26によりユーザが発話した音声を取得して飛行体10に送信するとともに、飛行体10から送信された音声データをスピーカ27から音声として出力することができる。さらに、スマートグラス型デバイス20AにはGPSセンサ、加速度センサ、および、地磁気センサ等のセンサ22が内蔵されているので、ユーザの位置、頭の動き、および、移動方向等を取得して、飛行体10に送信することができる。
FIG. 15 is a perspective view showing a configuration example of the smart glass type device 20A shown in FIG. In the smart glass type device 20A, the lens portion of the glasses is used as the
なお、図14に示す構成例では、操作部25が除外され、指センサ28が新たに追加されている。すなわち、図14の例では、指センサ28を含むポインティングデバイス20Bが、スマートグラス型デバイス20Aとは別体として構成されている。図14の例では、ポインティングデバイス20Bは、ユーザの指に装着し、指センサ28によって指の動きを検出し、検出した指の動きを、アンテナ28aを介してスマートグラス型デバイス20Aの送受信部21に送信する構成とされている。ユーザが指を動かすと、指の動きを指センサ28が検知し、アンテナ28aおよびアンテナ21aを介して送受信部21が受信する。制御部23は、受信した指の動きを示す信号を生成し、送受信部21を介して飛行体10に送信する。このような指の動きに関する信号を受信した飛行体10では、指の動きに応じた動作を行うことができる。なお、スマートグラス型デバイス20Aに視線センサを設け、この視線センサによってユーザの視線を検出し、検出した視線の動きに対応した情報を生成して、飛行体10に送信するようにしてもよい。このような構成によれば、ユーザが視線を移動させることで、飛行体にコマンドを送ることができる。また、前述の例では、スマートグラス型デバイス20Aは、レンズに画像を投影するようにしたが、網膜に直接投影する網膜操作ディスプレイを用いるようにしてもよい。
In the configuration example shown in FIG. 14, the operation unit 25 is excluded and a
図14および図15に示す構成によれば、ユーザの視界を遮ることなく、飛行体10から供給される画像およびテキストをユーザに提供することができる。また、画像およびテキストに加えて、音声による情報の授受も可能になる。
According to the configurations shown in FIGS. 14 and 15, it is possible to provide the user with images and text supplied from the flying
なお、表示部およびスピーカを飛行体10に配置し、制御部16によって得られた情報を飛行体10に配置された表示部に表示するとともに、スピーカから音声として出力するようにしてもよい。
The display unit and the speaker may be disposed on the flying
なお、図5および図7〜図19に示すフローチャートは一例であって、本発明がこれらのフローチャートに限定されるものではない。 The flowcharts shown in FIGS. 5 and 7 to 19 are merely examples, and the present invention is not limited to these flowcharts.
1 :ユーザ支援システム
10 :飛行体
11 :撮像素子
12 :ジンバル
13 :画像処理部
14 :音声処理部
15 :送受信部
15a :アンテナ
15b :アンテナ
16 :制御部
17 :GPS
18 :センサ
19 :モータ
20 :ユーザ側デバイス
20A :ユーザ側デバイス
21 :送受信部
21a :アンテナ
22 :センサ
23 :制御部
24 :表示部
25 :操作部
26 :マイク
27 :スピーカ
30 :基地局
40 :ネットワーク
50 :サーバ
51 :CPU
52 :ROM
53 :RAM
54 :HDD
55 :I/F
56 :バス
1: user support system 10: flying object 11: imaging device 12: gimbal 13: image processing unit 14: audio processing unit 15: transmitting and receiving unit 15 a: antenna 15 b: antenna 16: control unit 17: GPS
18: sensor 19: motor 20: user device 20A: user device 21: transceiver 21a: antenna 22: sensor 23: control unit 24: display unit 25: operation unit 26: microphone 27: speaker 30: base station 40: base station 40: Network 50: Server 51: CPU
52: ROM
53: RAM
54: HDD
55: I / F
56: Bus
上記課題を解決するために、本発明は、ホバリング可能な飛行体と、ユーザが装着するユーザ側デバイスとを少なくとも有するユーザ支援システムであって、前記ユーザ側デバイスは、前記ユーザが発話した音声を取得する取得手段と、前記取得手段によって取得された前記音声に関する情報を前記飛行体に対して送信する送信手段と、を有し、前記飛行体は、前記ユーザの近傍で前記飛行体をホバリングさせる制御を行うホバリング手段と、前記ユーザの移動に伴って前記飛行体を前記ユーザに追従させる制御を行う追従手段と、ネットワークから災害に関する情報を取得する獲得手段と、前記獲得手段によって獲得された災害の種類を特定する特定手段と、前記特定手段によって特定された災害の種類に応じた避難場所を、前記ユーザの現在位置の周辺から検索する検索手段と、前記検索手段によって検索された避難場所まで誘導する誘導手段と、を有することを特徴とする。
In order to solve the above problems, the present invention is a user support system having at least a hoverable flying object and a user-side device worn by a user, wherein the user-side device performs voice uttered by the user. An acquisition means for acquiring, and a transmission means for transmitting information on the voice acquired by the acquisition means to the aircraft, the aircraft hovering the aircraft in the vicinity of the user A hovering means for controlling, a following means for controlling the flying object to follow the user as the user moves, an acquiring means for acquiring information on disaster from the network, and a disaster acquired by the acquiring means Specific means for specifying the type of the evacuation site, and an evacuation site corresponding to the type of disaster identified by the Search means for searching from near standing position, and having a an induction means for inducing until retrieved refuge by the searching means.
また、本発明は、ホバリング可能な飛行体を少なくとも有するユーザ支援システムであって、前記飛行体は、ユーザの近傍で前記飛行体をホバリングさせる制御を行うホバリング手段と、前記ユーザの移動に伴って前記飛行体を前記ユーザに追従させる制御を行う追従手段と、ネットワークから災害に関する情報を獲得する獲得手段と、前記獲得手段によって獲得された災害の種類を特定する特定手段と、前記特定手段によって特定された災害の種類に応じた避難場所を、前記ユーザの現在位置の周辺から検索する検索手段と、前記検索手段によって検索された避難場所まで誘導する誘導手段と、を有することを特徴とする。
Further, the present invention is a user support system having at least a hovering capable aircraft, the aircraft includes a hovering means for performing control to hover the aircraft in the vicinity of the user, in accordance with the movement of the user Tracking means for performing control to cause the user to follow the user, acquisition means for acquiring information on disaster from a network, identification means for identifying the type of disaster acquired by the acquisition means, identification by the identification means It has a search means which searches the evacuation place according to the kind of disaster made from the periphery of the user's present position, and the guidance means which guides to the evacuation place searched by the search means .
また、本発明は、前記検索手段は、災害の種類が地震である場合には、構造物の崩落の危険がない場所を検索することを特徴とする。
Further, the present invention is characterized in that, when the type of disaster is an earthquake, the search means searches a place where there is no risk of collapse of the structure .
また、本発明は、前記検索手段は、災害の種類が大雨、竜巻、雷である場合には、鉄筋コンクリート造の建物を検索することを特徴とする。
Further, the present invention is characterized in that the search means searches for a reinforced concrete structure when the type of disaster is heavy rain, tornado, or lightning.
また、本発明は、前記検索手段は、災害の種類が津波である場合には、推測される津波の波高よりも高い場所または建物を検索することを特徴とする。
Further, the present invention is characterized in that the search means searches for a place or a building higher than the estimated tsunami wave height when the type of disaster is a tsunami.
また、本発明は、前記検索手段は、津波の到着予想時間と、前記ユーザの移動速度に基づいて、最適な場所を検索することを特徴とする。
Further, the present invention is characterized in that the search means searches for an optimum place based on an estimated arrival time of a tsunami and a moving speed of the user.
また、本発明は、前記飛行体は、ホバリングするためのプロペラと、前記プロペラを回転させるモータを有し、前記モータを駆動する駆動電流に対して、音声信号を重畳することで、前記プロペラから音声を出力する、ことを特徴とする。
Further, according to the present invention, the flying object has a propeller for hovering and a motor for rotating the propeller, and an audio signal is superimposed on a drive current for driving the motor to generate a signal from the propeller. It is characterized by outputting voice.
Claims (11)
前記ユーザ側デバイスは、
前記ユーザが発話した音声を取得する取得手段と、
前記取得手段によって取得された前記音声に関する情報を前記飛行体に対して送信する送信手段と、を有し、
前記飛行体は、
前記ユーザの近傍で前記飛行体をホバリングさせる制御を行うホバリング手段と、
前記ユーザの移動に伴って前記飛行体を前記ユーザに追従させる制御を行う追従手段と、
前記ユーザ側デバイスの前記送信手段から送信される前記音声に関する情報を受信する受信手段と、
前記受信手段によって受信された前記音声に関する情報に対応する処理を実行する実行手段と、を有する、
ことを特徴とするユーザ支援システム。 A user assistance system comprising at least a hoverable flying object and a user side device worn by a user, comprising:
The user device is
Acquisition means for acquiring the voice uttered by the user;
And transmission means for transmitting information on the voice acquired by the acquisition means to the aircraft.
The aircraft is
Hovering means for controlling the hovering of the flying object in the vicinity of the user;
Tracking means for performing control of causing the flight object to follow the user as the user moves;
Receiving means for receiving information on the voice transmitted from the transmitting means of the user-side device;
Executing means for executing processing corresponding to the information on the voice received by the receiving means;
User support system characterized in that.
前記ユーザ毎に実行すべき前記処理を示す情報を登録したデータベースから、前記話者特定手段によって特定された前記ユーザに対応する、実行すべき前記処理を示す情報を検索する検索手段と、を有し、
前記実行手段は、前記検索手段によって取得された情報に対応する前記処理を実行する、
ことを特徴とする請求項1に記載のユーザ支援システム。 A speaker specifying unit for specifying the uttered user among the voices of a plurality of the users registered in advance;
Search means for searching for information indicating the process to be executed corresponding to the user identified by the speaker identification means from a database in which information indicating the process to be executed for each user is registered; And
The execution means executes the process corresponding to the information acquired by the search means.
The user support system according to claim 1, characterized in that:
前記拡張現実表示部は、前記飛行体における前記処理によって得られた視覚情報を表示する、
ことを特徴とする請求項1乃至10のいずれか1項に記載のユーザ支援システム。 The user-side device has an augmented reality display unit that superimposes and displays visual information obtained by image processing on an existing landscape,
The augmented reality display unit displays visual information obtained by the process on the aircraft.
The user support system according to any one of claims 1 to 10, characterized in that:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017232212A JP2019101766A (en) | 2017-12-03 | 2017-12-03 | User support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017232212A JP2019101766A (en) | 2017-12-03 | 2017-12-03 | User support system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019101766A true JP2019101766A (en) | 2019-06-24 |
Family
ID=66976978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017232212A Pending JP2019101766A (en) | 2017-12-03 | 2017-12-03 | User support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019101766A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112336038A (en) * | 2020-10-19 | 2021-02-09 | 广州市君卓信息科技有限公司 | Intelligent method for automatically blowing hair and robot |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012252683A (en) * | 2012-01-03 | 2012-12-20 | Ism Corp | Tsunami evacuation navigation system, method for the same and program |
JP2015018344A (en) * | 2013-07-09 | 2015-01-29 | シャープ株式会社 | Reproduction device, control method for reproduction device, and control program |
JP2015525985A (en) * | 2012-07-20 | 2015-09-07 | Toa株式会社 | Loudspeaker system and loudspeaker system monitoring device |
JP2015195030A (en) * | 2014-03-27 | 2015-11-05 | 株式会社電通 | Evacuation support system, evacuation support management program, evacuation support terminal application program, and evacuation support method |
JP2015207149A (en) * | 2014-04-21 | 2015-11-19 | 薫 渡部 | monitoring system and monitoring method |
JP2017059143A (en) * | 2015-09-18 | 2017-03-23 | 株式会社日立システムズ | Autonomous flight moving body, and autonomous flight moving body system |
JP2017156511A (en) * | 2016-03-01 | 2017-09-07 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017163511A (en) * | 2016-03-11 | 2017-09-14 | 株式会社プロドローン | Living body search system |
JP6227176B1 (en) * | 2017-01-05 | 2017-11-08 | ポケットシェルター株式会社 | Mobile terminal, mobile terminal control method and program |
JP2017204244A (en) * | 2016-05-13 | 2017-11-16 | テルモ株式会社 | Unmanned aircraft and medical support method |
-
2017
- 2017-12-03 JP JP2017232212A patent/JP2019101766A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012252683A (en) * | 2012-01-03 | 2012-12-20 | Ism Corp | Tsunami evacuation navigation system, method for the same and program |
JP2015525985A (en) * | 2012-07-20 | 2015-09-07 | Toa株式会社 | Loudspeaker system and loudspeaker system monitoring device |
JP2015018344A (en) * | 2013-07-09 | 2015-01-29 | シャープ株式会社 | Reproduction device, control method for reproduction device, and control program |
JP2015195030A (en) * | 2014-03-27 | 2015-11-05 | 株式会社電通 | Evacuation support system, evacuation support management program, evacuation support terminal application program, and evacuation support method |
JP2015207149A (en) * | 2014-04-21 | 2015-11-19 | 薫 渡部 | monitoring system and monitoring method |
JP2017059143A (en) * | 2015-09-18 | 2017-03-23 | 株式会社日立システムズ | Autonomous flight moving body, and autonomous flight moving body system |
JP2017156511A (en) * | 2016-03-01 | 2017-09-07 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017163511A (en) * | 2016-03-11 | 2017-09-14 | 株式会社プロドローン | Living body search system |
JP2017204244A (en) * | 2016-05-13 | 2017-11-16 | テルモ株式会社 | Unmanned aircraft and medical support method |
JP6227176B1 (en) * | 2017-01-05 | 2017-11-08 | ポケットシェルター株式会社 | Mobile terminal, mobile terminal control method and program |
Non-Patent Citations (4)
Title |
---|
小山安博: "プロも絶賛! 「MOVERIO BT-300」+ドローンは最強の組み合わせだ!!", ASCII.JP [ONLINE], JPN6018006701, 16 March 2017 (2017-03-16), ISSN: 0003987513 * |
戸山 九: "北海道佐呂間町で大竜巻が発生", 子供の科学, vol. 第70巻第1号, JPN6018033495, 1 January 2007 (2007-01-01), pages 42 - 43, ISSN: 0003987511 * |
斯波 祐介: "日本初、高層ビル街でドローン災害訓練", リスク対策.COM [ONLINE], JPN6018006700, 13 February 2017 (2017-02-13), ISSN: 0003987510 * |
松井 倫弘: "落電事故から人体を守るには", OHM, vol. 第101巻 第6号, JPN6018033496, 12 June 2014 (2014-06-12), pages 32 - 35, ISSN: 0003987512 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112336038A (en) * | 2020-10-19 | 2021-02-09 | 广州市君卓信息科技有限公司 | Intelligent method for automatically blowing hair and robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11081013B1 (en) | Electronic landing marker | |
US11365014B2 (en) | System and method for automated tracking and navigation | |
JP7120002B2 (en) | flight device | |
US10258534B1 (en) | Methods and systems for providing feedback based on information received from an aerial vehicle | |
US10024667B2 (en) | Wearable earpiece for providing social and environmental awareness | |
US20230350411A1 (en) | Control aerial movement of drone based on line-of-sight of humans using devices | |
US20190383620A1 (en) | Information processing apparatus, information processing method, and program | |
US10902263B1 (en) | Image processing system for object identification | |
US10012505B2 (en) | Wearable system for providing walking directions | |
CN111373769A (en) | Information processing apparatus, information processing method, and computer program | |
US20130293586A1 (en) | Information processing device, alarm method, and program | |
KR102391914B1 (en) | Method for operating moving robot | |
US20160080897A1 (en) | Wearable clip for providing social and environmental awareness | |
US10567917B2 (en) | System and method for indicating drones flying overhead | |
KR20190100085A (en) | Robor being capable of detecting danger situation using artificial intelligence and operating method thereof | |
US20210331315A1 (en) | Robot navigating through waypoints based on obstacle avoidance and method of robot's navigation | |
WO2016111068A1 (en) | Information processing device, information processing method, and program | |
JP2017103598A (en) | Information processing apparatus, information processing method, and program | |
KR102303785B1 (en) | Artificial intelligence server and method for setting language of robot | |
KR20160119956A (en) | System for tracking using drone | |
CN110737212A (en) | Unmanned aerial vehicle control system and method | |
US20220100208A1 (en) | Autonomous Multifunctional Aerial Drone | |
KR20200128486A (en) | Artificial intelligence device for determining user's location and method thereof | |
KR102231922B1 (en) | Artificial intelligence server for controlling a plurality of robots using artificial intelligence | |
EP3253283B1 (en) | Fan-driven force device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180118 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180118 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180307 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180502 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180703 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180829 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190307 |