JP2022007799A - Flying type robot, program and method for controlling flying type robot - Google Patents

Flying type robot, program and method for controlling flying type robot Download PDF

Info

Publication number
JP2022007799A
JP2022007799A JP2020110979A JP2020110979A JP2022007799A JP 2022007799 A JP2022007799 A JP 2022007799A JP 2020110979 A JP2020110979 A JP 2020110979A JP 2020110979 A JP2020110979 A JP 2020110979A JP 2022007799 A JP2022007799 A JP 2022007799A
Authority
JP
Japan
Prior art keywords
specific user
flying
flight
robot
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020110979A
Other languages
Japanese (ja)
Other versions
JP2022007799A5 (en
Inventor
郁子 岸田
Ikuko Kishida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sakai Sogo Kenkyusho LLC
Original Assignee
Sakai Sogo Kenkyusho LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sakai Sogo Kenkyusho LLC filed Critical Sakai Sogo Kenkyusho LLC
Priority to JP2020110979A priority Critical patent/JP2022007799A/en
Publication of JP2022007799A publication Critical patent/JP2022007799A/en
Publication of JP2022007799A5 publication Critical patent/JP2022007799A5/en
Pending legal-status Critical Current

Links

Images

Abstract

To heal user's heart and offer a user with a feeling of fullness.SOLUTION: A flying type robot 100 includes: a drone 101 flying with automatic driving; and a camera 103 installed to the drone 101. The flying type robot recognizes a specific user 600 on the basis of an image captured by the camera 103 and flies around the specific user 600. Accordingly, the flying type robot can operate while simulating a pet that requires a communication from the specific user 600 as the owner thereof, thereby healing the heart of the user 600 and offering the user 600 with a feeling of fullness.SELECTED DRAWING: Figure 6A

Description

この発明は、ペットを模した動作をする飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法に関する。 The present invention relates to a flying robot that imitates a pet, a control program for the flying robot, and a control method for the flying robot.

従来、犬や猫などの動物の形状をなし、自ら移動したり鳴き声を発したりという動物の動作を模した動作をするペット型ロボットがある。このようなペット型ロボットは、利便性を求めた実用的な機能ではなく、主に、その外観や動作によって利用者の心を癒やし楽しませることを目的として設計されている。 Conventionally, there is a pet-type robot that has the shape of an animal such as a dog or a cat and that imitates the movement of an animal such as moving or making a cry. Such a pet-type robot is not a practical function for convenience, but is designed mainly for the purpose of healing and entertaining the user's mind by its appearance and movement.

具体的には、従来、たとえば、学習対象物を特定し、特定した学習対象物の情報を連想想起記憶部に記憶し、新たに検出した物と連想想起記憶部に記憶した学習対象物の情報とに基づいて行動させることにより、学習対象物の共有(共同注意)を可能として、適切に学習対象物を特定できるようにした技術があった(たとえば、下記特許文献1を参照。)。 Specifically, conventionally, for example, the learning object is specified, the information of the specified learning object is stored in the associative recall storage unit, and the newly detected object and the learning object information stored in the associative recall storage unit are stored. There was a technique that made it possible to share (joint attention) the learning object and appropriately identify the learning object by acting on the basis of (for example, see Patent Document 1 below).

特開2011-115944号公報Japanese Unexamined Patent Publication No. 2011-115944

しかしながら、動物であれば自らの意思をもち、必ずしも飼い主の動作のみに応じて動作するものではなく、時には飼い主の指示を聞かなかったり飼い主がいなくても自由に動き回ったりするが、上述した従来の技術は、一様にユーザーとのコミュニケーションに応じて動作するものであって、自律性に劣る。 However, if it is an animal, it has its own will and does not necessarily move only according to the movement of the owner, and sometimes it does not listen to the owner's instructions or moves around freely without the owner. The technology uniformly operates in response to communication with the user, and is inferior in autonomy.

この発明は、上述した従来技術による問題点を解消するため、ユーザーの心を癒やし、ユーザーに充足感を与えることができる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法を提供することを目的とする。 INDUSTRIAL APPLICABILITY The present invention solves the above-mentioned problems caused by the prior art, and thus heals the user's mind and gives the user a sense of satisfaction. A flight robot, a control program for the flight robot, and a control method for the flight robot. The purpose is to provide.

上述した課題を解決し、目的を達成するため、この発明にかかる飛行型ロボットは、自動操縦により飛行する無人航空機と、前記無人航空機に搭載されたカメラと、を備え、前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、当該特定のユーザーの周囲を飛行することを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the flight-type robot according to the present invention includes an unmanned aerial vehicle flying by autopilot and a camera mounted on the unmanned aerial vehicle, and is photographed by the camera. It is characterized by recognizing a specific user based on an image and flying around the specific user.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記特定のユーザーが、前記カメラによって所定時間以上または所定回数以上撮影された人物であることを特徴とする。 Further, the flight-type robot according to the present invention is characterized in that, in the above invention, the specific user is a person who has been photographed by the camera for a predetermined time or more or a predetermined number of times or more.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記特定のユーザーが、特定の範囲内において、前記カメラによって撮影された人物であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the specific user is a person photographed by the camera within a specific range.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーの少なくとも一部が前記無人航空機に接近した場合、当該特定のユーザーから離れるように飛行することを特徴とする。 Further, in the above invention, the flying robot according to the present invention leaves the specific user when at least a part of the specific user approaches the unmanned aerial vehicle while flying around the specific user. It is characterized by flying like this.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーが前記無人航空機を目視しない場合、当該特定のユーザーに接近するように飛行することを特徴とする。 Further, in the above invention, the flying robot according to the present invention flies so as to approach the specific user when the specific user does not see the unmanned aerial vehicle while flying around the specific user. It is characterized by doing.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記特定のユーザーの周囲を所定回数飛行した後、当該特定のユーザーから離れるように飛行することを特徴とする。 Further, the flight-type robot according to the present invention is characterized in that, in the above invention, after flying around the specific user a predetermined number of times, the robot flies away from the specific user.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載された無線通信インターフェースを備え、前記無線通信インタフェースを介して、所定の情報を取得した場合、前記特定のユーザーの周囲を飛行することを特徴とする。 Further, in the above-mentioned invention, the flight-type robot according to the present invention is provided with a wireless communication interface mounted on the unmanned aerial vehicle, and when predetermined information is acquired via the wireless communication interface, the specific user. It is characterized by flying around.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の情報が、特定の端末装置から出力された通知情報であることを特徴とする。 Further, the flight-type robot according to the present invention is characterized in that, in the above invention, the predetermined information is notification information output from a specific terminal device.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の情報が、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報であることを特徴とする。 Further, in the flying robot according to the present invention, in the above invention, the predetermined information causes a disaster, an earthquake, a tsunami, a lightning strike, a rainfall, a strong wind, and a sudden change in the weather within a predetermined time after the present time. It is characterized by being information indicating that there is a possibility.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載されたスピーカーを備え、前記特定のユーザーに向けて前記スピーカーから音声を出力するとともに、当該特定のユーザーの周囲を飛行することを特徴とする。 Further, in the above-mentioned invention, the flight-type robot according to the present invention includes a speaker mounted on the unmanned aerial vehicle, outputs sound from the speaker to the specific user, and surrounds the specific user. It is characterized by flying.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載されたマイクを備え、前記マイクによって所定の音声が集音された場合、前記特定のユーザーの周囲を飛行することを特徴とする。 Further, in the above invention, the flying robot according to the present invention includes a microphone mounted on the unmanned aerial vehicle, and when a predetermined sound is collected by the microphone, it flies around the specific user. It is characterized by.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、電話機に電話および電子メールの少なくとも一方が着信していることを通知する着信音であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the predetermined voice is a ringtone for notifying the telephone that at least one of a telephone and an e-mail has arrived.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、前記特定のユーザーの声であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the predetermined voice is the voice of the specific user.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載されたスピーカーを備え、前記マイクによって所定の音声が集音された場合、前記特定のユーザーに向けて前記スピーカーから音声を出力するとともに、当該特定のユーザーの周囲を飛行することを特徴とする。 Further, in the above invention, the flight type robot according to the present invention includes a speaker mounted on the unmanned aerial vehicle, and when a predetermined sound is collected by the microphone, the speaker is directed toward the specific user. It is characterized by outputting audio and flying around the specific user.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記スピーカーから出力する音声が、動物の鳴き声を模した音声であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the sound output from the speaker is a sound imitating the bark of an animal.

また、この発明にかかる飛行型ロボットの制御プログラムは、カメラが搭載され、自動操縦により飛行する無人航空機が備えるコンピュータに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、認識された前記特定のユーザーの周囲を飛行させる、処理を実行させることを特徴とする。 Further, the control program of the flying robot according to the present invention is recognized by causing a computer of an unmanned aerial vehicle equipped with a camera and flying by autopilot to recognize a specific user based on an image taken by the camera. It is characterized in that it flies around the specific user and executes a process.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーの少なくとも一部が前記無人航空機に接近した場合、当該特定のユーザーから離れるように飛行させる、処理を実行させることを特徴とする。 Further, in the above invention, the control program of the flying robot according to the present invention is the specific user when at least a part of the specific user approaches the unmanned aerial vehicle while flying around the specific user. It is characterized by flying away from the user and executing processing.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーが前記無人航空機を目視しない場合、当該特定のユーザーに接近するように飛行させる、処理を実行させることを特徴とする。 Further, in the above invention, the control program of the flying robot according to the present invention approaches the specific user when the specific user does not see the unmanned aerial vehicle while flying around the specific user. It is characterized by flying and executing processing.

また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記特定のユーザーの周囲を所定回数飛行した後、当該特定のユーザーから離れるように飛行させる、処理を実行させることを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, after flying around the specific user a predetermined number of times, the robot is made to fly away from the specific user. And.

また、この発明にかかる飛行型ロボットの制御方法は、カメラが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、認識された前記特定のユーザーの周囲を飛行させる、ことを特徴とする。 Further, in the control method of the flying robot according to the present invention, a flying robot equipped with a camera and equipped with an unmanned aircraft flying by autopilot is made to recognize a specific user based on an image taken by the camera. It is characterized by flying around the recognized specific user.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーの少なくとも一部が前記無人航空機に接近した場合、当該特定のユーザーから離れるように飛行させる、ことを特徴とする。 Further, in the above-mentioned invention, the control method of the flying robot according to the present invention is the specific when at least a part of the specific user approaches the unmanned aerial vehicle while flying around the specific user. It is characterized by flying away from the user.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーが前記無人航空機を目視しない場合、当該特定のユーザーに接近するように飛行させる、ことを特徴とする。 Further, in the above-mentioned invention, the control method of the flying robot according to the present invention approaches the specific user when the specific user does not see the unmanned aerial vehicle while flying around the specific user. It is characterized by flying like this.

また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記特定のユーザーの周囲を所定回数飛行した後、当該特定のユーザーから離れるように飛行させる、ことを特徴とする。 Further, the method for controlling a flying robot according to the present invention is characterized in that, in the above invention, after flying around the specific user a predetermined number of times, the robot is made to fly away from the specific user.

また、この発明にかかる飛行型ロボットは、自動操縦により飛行する無人航空機と、前記無人航空機に搭載されたカメラと、前記無人航空機に搭載されたマイクと、を備え、前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行することを特徴とする。 Further, the flying robot according to the present invention includes an unmanned aerial vehicle that flies by automatic control, a camera mounted on the unmanned aerial vehicle, and a microphone mounted on the unmanned aerial vehicle, and an image taken by the camera. When a specific user is recognized based on the above and a predetermined sound is collected by the microphone, between the vicinity of the recognized specific user and the source of the predetermined sound according to the predetermined sound. It is characterized by flying.

前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの周囲を周回してから、当該特定のユーザーの近傍と所定の音声の発生源との間を飛行することを特徴とする請求項24に記載の飛行型ロボット。 When a predetermined voice is collected by the microphone, the microphone orbits around the recognized specific user in response to the predetermined voice, and then the vicinity of the specific user and the source of the predetermined voice. The flying robot according to claim 24, wherein the robot flies between.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、電話機に電話および電子メールの少なくとも一方が着信していることを通知する着信音で Further, in the above-mentioned invention, the flying robot according to the present invention is a ringtone for notifying the telephone that at least one of a telephone and an e-mail has received the predetermined voice.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、建物または敷地の入り口に、当該建物または敷地への訪問者が当該建物または敷地の居住者または管理者を呼び出すために設けられた呼び鈴の呼出音であることを特徴とする。 Further, in the flight-type robot according to the present invention, in the above invention, the predetermined voice calls the resident or manager of the building or site at the entrance of the building or site by a visitor to the building or site. It is characterized by the ringing tone of a doorbell provided for this purpose.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、所定の閾値以上の音圧の音声であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the predetermined voice is a voice having a sound pressure equal to or higher than a predetermined threshold value.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、前記特定のユーザーから所定範囲内において発生する音声であることを特徴とする。 Further, the flight-type robot according to the present invention is characterized in that, in the above invention, the predetermined voice is a voice generated from the specific user within a predetermined range.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声に応じて、当該所定の音声に対応する飛行態様で、認識した前記特定のユーザーの周囲を飛行することを特徴とする。 Further, the flight-type robot according to the present invention is characterized in that, in the above invention, it flies around the recognized specific user in a flight mode corresponding to the predetermined voice in response to the predetermined voice. do.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載されたプロジェクターを備え、前記マイクによって所定の音声が集音された場合に、認識した前記特定のユーザーの前方に、当該所定の音声に応じた画像を前記プロジェクターから投影することを特徴とする。 Further, in the above invention, the flying robot according to the present invention includes a projector mounted on the unmanned aerial vehicle, and is in front of the specific user who recognizes when a predetermined sound is collected by the microphone. It is characterized in that an image corresponding to the predetermined sound is projected from the projector.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載された無線通信インターフェースを備え、前記無線通信インタフェースを介して、前記プロジェクターから投影する画像にかかる画像データを取得することを特徴とする。 Further, in the above invention, the flying robot according to the present invention includes a wireless communication interface mounted on the unmanned aerial vehicle, and acquires image data related to an image projected from the projector via the wireless communication interface. It is characterized by that.

また、この発明にかかる飛行型ロボットは、上記の発明において、前記マイクによって所定の音声が集音された場合に、認識した前記特定のユーザーの前方に、当該所定の音声に応じた文字を前記プロジェクターから投影することを特徴とする。 Further, in the above-mentioned invention, the flight-type robot according to the present invention displays characters corresponding to the predetermined voice in front of the specific user who recognizes the voice when the predetermined voice is collected by the microphone. It is characterized by projecting from a projector.

また、この発明にかかる飛行型ロボットの制御プログラムは、カメラおよびマイクが搭載されて自動操縦により飛行する無人航空機を備えた飛行型ロボットが備えるコンピュータに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、処理を実行させることを特徴とする。 Further, the control program for a flying robot according to the present invention is specified on a computer provided by a flying robot equipped with an unmanned aircraft equipped with a camera and a microphone and flying by automatic control based on an image taken by the camera. When a predetermined voice is collected by the microphone, the user is made to fly between the vicinity of the recognized specific user and the source of the predetermined voice in response to the predetermined voice. It is characterized by executing a process.

また、この発明にかかる飛行型ロボットの制御方法は、カメラおよびマイクが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、ことを特徴とする。 Further, in the control method of a flying robot according to the present invention, a flying robot equipped with an unmanned aircraft equipped with a camera and a microphone and flying by automatic control recognizes a specific user based on an image taken by the camera. When a predetermined sound is collected by the microphone, the robot is characterized in that it flies between the recognized vicinity of the specific user and the source of the predetermined sound in response to the predetermined sound. do.

また、この発明にかかる飛行型ロボットの制御プログラムは、カメラ、マイクおよびプロジェクターが搭載されて自動操縦により飛行する無人航空機を備える飛行型ロボットが備えるコンピュータに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させるとともに、認識した前記特定のユーザーの前方に、当該所定の音声に応じた画像を前記プロジェクターから投影させる、処理を実行させることを特徴とする。 Further, the control program for a flying robot according to the present invention is based on an image taken by the camera on a computer provided with a flying robot equipped with an unmanned aircraft equipped with a camera, a microphone and a projector and flying by automatic control. When a specific user is recognized and a predetermined sound is collected by the microphone, the flight is made to fly between the vicinity of the recognized specific user and the source of the predetermined sound in response to the predetermined sound. At the same time, it is characterized in that a process of projecting an image corresponding to the predetermined sound from the projector is executed in front of the recognized specific user.

また、この発明にかかる飛行型ロボットの制御方法は、カメラ、マイクおよびプロジェクターが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させるとともに、認識した前記特定のユーザーの前方に、当該所定の音声に応じた画像を前記プロジェクターから投影させる、ことを特徴とする。 Further, the control method of the flying robot according to the present invention is a flying robot equipped with a camera, a microphone and a projector and equipped with an unmanned aircraft flying by automatic control, based on an image taken by the camera, and a specific user. When a predetermined sound is collected by the microphone, the aircraft is made to fly between the vicinity of the recognized specific user and the source of the predetermined sound according to the predetermined sound, and is recognized. It is characterized in that an image corresponding to the predetermined sound is projected from the projector in front of the specific user.

また、この発明にかかる飛行型ロボットは、自動操縦により飛行する無人航空機と、前記無人航空機に搭載されたカメラと、前記無人航空機に搭載された無線通信インターフェースを備え、を備え、前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、前記無線通信インタフェースを介して、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得した場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行することを特徴とする。 Further, the flight-type robot according to the present invention includes an unmanned aerial vehicle that flies by autopilot, a camera mounted on the unmanned aerial vehicle, and a wireless communication interface mounted on the unmanned aerial vehicle, and is photographed by the camera. A specific user can be recognized based on the image, and a disaster, earthquake, tsunami, lightning, rainfall, strong wind, or sudden weather change can occur within a predetermined time after the present time via the wireless communication interface. It is characterized in that, when information indicating that there is a property is acquired, it flies between the vicinity of the recognized specific user and the source of the predetermined voice in response to the predetermined voice.

また、この発明にかかる飛行型ロボットの制御プログラムは、カメラおよび無線通信インターフェースが搭載されて自動操縦により飛行する無人航空機を備える飛行型ロボットが備えるコンピュータに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、前記無線通信インタフェースを介して、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得した場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、処理を実行させることを特徴とする。 Further, the control program for a flying robot according to the present invention is based on an image taken by the camera on a computer provided with a flying robot equipped with an unmanned aircraft equipped with a camera and a wireless communication interface and flying by autopilot. Recognize a specific user and indicate that a disaster, earthquake, tsunami, lightning, rainfall, strong wind, or sudden weather change may occur within a predetermined time after the present time via the wireless communication interface. When the information is acquired, it is characterized in that a process of flying between the vicinity of the recognized specific user and the source of the predetermined voice is executed in response to the predetermined voice.

また、この発明にかかる飛行型ロボットの制御方法は、カメラおよび無線通信インターフェースが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、前記無線通信インタフェースを介して、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得した場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、ことを特徴とする。 Further, the control method of the flying robot according to the present invention is a flying robot equipped with a camera and a wireless communication interface and equipped with an unmanned aircraft flying by autopilot, and a specific user based on an image taken by the camera. And obtains information indicating that a disaster, earthquake, tsunami, lightning, rainfall, strong wind, or sudden weather change may occur within a predetermined time after the present time through the wireless communication interface. In that case, it is characterized in that it flies between the vicinity of the recognized specific user and the source of the predetermined voice in response to the predetermined voice.

この発明にかかる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法によれば、ユーザーの心を癒やし、ユーザーに充足感を与えることができるという効果を奏する。 According to the flight-type robot, the control program of the flight-type robot, and the control method of the flight-type robot according to the present invention, there is an effect that the user's mind can be healed and the user can be given a sense of satisfaction.

この発明にかかる実施の形態1の飛行型ロボットの外観の一例を示す説明図(その1)である。It is explanatory drawing (the 1) which shows an example of the appearance of the flight type robot of Embodiment 1 which concerns on this invention. この発明にかかる実施の形態1の飛行型ロボットの外観の一例を示す説明図(その2)である。It is explanatory drawing (the 2) which shows an example of the appearance of the flight type robot of Embodiment 1 which concerns on this invention. この発明にかかる実施の形態1の飛行型ロボットのハードウエア構成を示す説明図である。It is explanatory drawing which shows the hardware composition of the flight type robot of Embodiment 1 which concerns on this invention. この発明にかかる実施の形態1の飛行型ロボットの機能的構成を示す説明図である。It is explanatory drawing which shows the functional structure of the flight type robot of Embodiment 1 which concerns on this invention. 充電スポットの一例を示す説明図(その1)である。It is explanatory drawing (the 1) which shows an example of a charge spot. 充電スポットの一例を示す説明図(その2)である。It is explanatory drawing (the 2) which shows an example of a charge spot. この発明にかかる実施の形態1の飛行型ロボットの処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure of the flight type robot of Embodiment 1 which concerns on this invention. この発明にかかる実施の形態1の飛行型ロボットの利用態様の一例を示す説明図(その1)である。It is explanatory drawing (the 1) which shows an example of the use mode of the flight type robot of Embodiment 1 which concerns on this invention. この発明にかかる実施の形態1の飛行型ロボットの利用態様の一例を示す説明図(その2)である。It is explanatory drawing (the 2) which shows an example of the use mode of the flight type robot of Embodiment 1 which concerns on this invention. この発明にかかる実施の形態1の飛行型ロボットの利用態様の一例を示す説明図(その3)である。It is explanatory drawing (the 3) which shows an example of the use mode of the flight type robot of Embodiment 1 which concerns on this invention. この発明にかかる実施の形態2の飛行型ロボットの外観の一例を示す説明図である。It is explanatory drawing which shows an example of the appearance of the flight type robot of Embodiment 2 which concerns on this invention. この発明にかかる実施の形態2の飛行型ロボットのハードウエア構成を示す説明図である。It is explanatory drawing which shows the hardware composition of the flight type robot of Embodiment 2 which concerns on this invention. この発明にかかる実施の形態2の飛行型ロボットの処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure of the flight type robot of Embodiment 2 which concerns on this invention.

以下に添付図面を参照して、この発明にかかる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法の好適な実施の形態を詳細に説明する。 Hereinafter, preferred embodiments of the flight robot, the control program for the flight robot, and the control method for the flight robot according to the present invention will be described in detail with reference to the accompanying drawings.

<実施の形態1>
(飛行型ロボットの外観の一例)
まず、この発明にかかる実施の形態1の飛行型ロボットの外観の一例について説明する。図1Aおよび図1Bは、この発明にかかる実施の形態1の飛行型ロボットの外観の一例を示す説明図である。図1Aおよび図1Bに示すように、飛行型ロボット100は、ドローン(無人航空機)101を備えている。
<Embodiment 1>
(An example of the appearance of a flying robot)
First, an example of the appearance of the flying robot according to the first embodiment of the present invention will be described. 1A and 1B are explanatory views showing an example of the appearance of the flying robot according to the first embodiment of the present invention. As shown in FIGS. 1A and 1B, the flying robot 100 includes a drone (unmanned aerial vehicle) 101.

ドローン101は、具体的には、たとえば、4つのプロペラ102を備えたクアッドコプターを採用することができる。ドローン101は、クアッドコプターに限るものではなく、6つのプロペラを備えたヘキサコプター、8つのプロペラを備えたオクトコプターなど、各種のマルチコプターを採用することができる。 Specifically, the drone 101 can employ, for example, a quadcopter equipped with four propellers 102. The drone 101 is not limited to a quadcopter, and various multicopters such as a hexacopter equipped with six propellers and an octocopter equipped with eight propellers can be adopted.

また、飛行型ロボット100は、カメラ103を備えている。図1Aや図1Bに示すように、動物のような形状の飛行型ロボット100において、カメラ103は、たとえば、目に相当する部分に設けることができる。あるいは、カメラ103は、ドローン101の筐体の下側に設けてもよい。 Further, the flight type robot 100 includes a camera 103. As shown in FIGS. 1A and 1B, in the flying robot 100 having an animal-like shape, the camera 103 can be provided, for example, in a portion corresponding to an eye. Alternatively, the camera 103 may be provided under the housing of the drone 101.

カメラ103は、飛行型ロボット100の周囲の画像を撮影する。飛行型ロボット100は、たとえば、カメラ103によって撮影された画像に基づいて、特定のユーザーを認識する。カメラ103は、たとえば、汎用的なデジタルカメラによって実現することができる。 The camera 103 captures an image of the surroundings of the flying robot 100. The flying robot 100 recognizes a specific user, for example, based on an image taken by a camera 103. The camera 103 can be realized by, for example, a general-purpose digital camera.

特定のユーザーは、たとえば、カメラ103によって所定時間以上または所定回数以上撮影された人物、すなわち、飛行型ロボット100と相応に接する機会をもった人物とすることができる。また、特定のユーザーは、たとえば、特定の範囲内において撮影された人物、すなわち、自宅内、学校の敷地内、店舗内などのような特定の範囲内にいる機会が相応にあるために、カメラ103によって撮影される可能性の高い人物とすることができる。特定の範囲は、充電スポット(図4Aおよび図4Bを参照)から所定範囲内としてもよい。 The specific user may be, for example, a person who has been photographed by the camera 103 for a predetermined time or more or a predetermined number of times or more, that is, a person who has a corresponding opportunity to come into contact with the flying robot 100. Also, because a particular user has a corresponding opportunity to be within a particular range, such as a person photographed within a particular range, i.e., at home, on school grounds, in a store, etc. It can be a person who is likely to be photographed by 103. The specific range may be within a predetermined range from the charging spot (see FIGS. 4A and 4B).

あるいは、特定のユーザーは、たとえば、特定の範囲内において、カメラ103によって所定時間以上または所定回数以上撮影された人物としてもよい。このような人物は、自宅内、学校の敷地内、店舗内などのような特定の範囲内にいる機会が相応にあり、かつ、飛行型ロボットと相応に接する機会をもった人物であると見なせるため、特定の範囲内において飛行型ロボットと長時間・高頻度で接する機会をもった人物を、特定のユーザーとすることができる。 Alternatively, the specific user may be, for example, a person who has been photographed by the camera 103 for a predetermined time or more or a predetermined number of times or more within a specific range. Such a person can be regarded as a person who has a suitable opportunity to be in a specific range such as a home, a school premises, a store, etc., and also has a suitable opportunity to interact with a flying robot. Therefore, a person who has an opportunity to come into contact with a flying robot for a long time and frequently within a specific range can be a specific user.

特定のユーザーは、1人であってもよく、複数人であってもよい。特定のユーザーとする人物の数は、所定の数に制限してもよく、無制限であってもよい。特定のユーザーとする人物の数を所定の数に制限することにより、メモリ(図2を参照)の容量を抑えることができる。 The specific user may be one person or a plurality of people. The number of persons as a specific user may be limited to a predetermined number or may be unlimited. By limiting the number of persons to be a specific user to a predetermined number, the capacity of the memory (see FIG. 2) can be suppressed.

また、特定のユーザーは、現在時点から所定期間遡った時点までの間に、特定の範囲内において、カメラ103によって所定時間以上または所定回数以上撮影された人物としてもよい。これにより、特定のユーザーとする人物の数を所定の数に制限する運用において、先に特定のユーザーとされた人物から別の人物に飛行型ロボット100が譲渡されたり、学校や保育園における進級や卒業・卒園などにより特定の範囲内に立ち入る人物が変わったりした場合にも、直近に飛行型ロボット100と相応に接する機会をもった人物を特定のユーザーとすることができ、現状に即した運用を実現することができる。 Further, the specific user may be a person who has been photographed by the camera 103 for a predetermined time or more or a predetermined number of times or more within a specific range from the current time point to the time point retroactive to a predetermined period. As a result, in the operation of limiting the number of persons to be a specific user to a predetermined number, the flight robot 100 is transferred from the person who was previously identified as a specific user to another person, or promotion in a school or a nursery school. Even if the person who enters within a specific range changes due to graduation, graduation, etc., the person who has the opportunity to come into contact with the flight robot 100 most recently can be designated as a specific user, which is in line with the current situation. Operation can be realized.

カメラ103は、汎用的なデジタルカメラに代えて、光に対して感度を増幅させることによって暗い場所を撮影する暗視カメラ、赤外線に感度を有する赤外線カメラ、赤外線カメラが撮影した画像における白黒の濃淡を解析してカラー画像を撮影する赤外線カラー暗視カメラなどによって実現してもよい。暗視カメラ、赤外線カメラ、赤外線カラー暗視カメラなどを用いて画像を撮影することにより、夜間や照度の低い室内などにおいても、特定のユーザーを精度よく認識することができる。 Instead of a general-purpose digital camera, the camera 103 is a dark-vision camera that shoots a dark place by amplifying the sensitivity to light, an infrared camera that has sensitivity to infrared rays, and a black-and-white shade in an image taken by the infrared camera. It may be realized by an infrared color dark vision camera or the like that analyzes and captures a color image. By taking an image using a night-vision camera, an infrared camera, an infrared color night-vision camera, or the like, it is possible to accurately recognize a specific user even at night or in a room with low illuminance.

飛行型ロボット100が備えるカメラ103は、1台であってもよく、複数台であってもよい。複数台のカメラ103を備える飛行型ロボット100においては、1種類のカメラ103に限るものではなく、異なる複数種類のカメラ103を備えていてもよい。 The flying robot 100 may have one camera 103 or a plurality of cameras 103. The flight-type robot 100 having a plurality of cameras 103 is not limited to one type of camera 103, and may be provided with a plurality of different types of cameras 103.

カメラ103は、ドローン101に対して、姿勢の調整が可能な状態で連結されていてもよい。カメラ103は、具体的には、たとえば、ドローン101の底面部にボールジョイントなどの自在継手を介して連結することができる。カメラ103を、ボールジョイントなどの自在継手を介してドローン101に連結することにより、カメラ103の姿勢の調整にかかる高い自由度を確保することができる。 The camera 103 may be connected to the drone 101 in a state in which the posture can be adjusted. Specifically, the camera 103 can be connected to the bottom surface of the drone 101 via a universal joint such as a ball joint. By connecting the camera 103 to the drone 101 via a universal joint such as a ball joint, it is possible to secure a high degree of freedom in adjusting the posture of the camera 103.

さらに、飛行型ロボット100は、ドローン101に対するカメラ103の姿勢を変化させる駆動機構を備えていてもよい。これにより、人手を介さずに、ドローン101に対するカメラ103の姿勢を調整することができる。駆動機構は、たとえば、モーターやギア列などによって構成することができる。ドローン101に対するカメラ103の姿勢を人手を介さずに調整可能とすることにより、ドローン101の姿勢にかかわらず、飛行型ロボット100の飛行中に、撮影方向を任意に調整することができる。カメラ103は、ズーム機能の備えていてもよい。 Further, the flight robot 100 may be provided with a drive mechanism that changes the posture of the camera 103 with respect to the drone 101. As a result, the posture of the camera 103 with respect to the drone 101 can be adjusted without human intervention. The drive mechanism can be configured by, for example, a motor, a gear train, or the like. By making it possible to adjust the posture of the camera 103 with respect to the drone 101 without human intervention, the shooting direction can be arbitrarily adjusted during the flight of the flying robot 100 regardless of the posture of the drone 101. The camera 103 may have a zoom function.

飛行型ロボット100は、ドローン101の筐体内に、ワイヤレス電力伝送(Wireless Power Transfer、Contactless Power Transmission)における受電コイルを備えている。ワイヤレス給電は、バッテリー(図2を参照)に対して、充電用接点を介することなく電力を受電する技術であって、非接触給電あるいは無線給電などとも称される。 The flight-type robot 100 includes a power receiving coil for wireless power transmission (Wireless Power Transfer, Connectless Power Transfer) in the housing of the drone 101. Wireless power transfer is a technique for receiving electric power from a battery (see FIG. 2) without going through a charging contact, and is also referred to as non-contact power supply or wireless power supply.

受電コイルは、ドローン101の筐体の外装面よりも内側に設けられている。これにより、飲料や雨露などの水滴による飛行型ロボット100の劣化や故障を回避することができる。飛行型ロボット100は、受電コイルに代えて、あるいは、加えて、バッテリーの充電のための充電用接点を備えていてもよい。 The power receiving coil is provided inside the outer surface of the housing of the drone 101. This makes it possible to avoid deterioration and failure of the flying robot 100 due to water droplets such as beverages and rain dew. The flying robot 100 may include, or in addition to, a charging contact for charging the battery in place of or in addition to the power receiving coil.

また、図1Aや図1Bに示すように、動物のような形状の飛行型ロボット100においては、たとえば、目に相当する部分にLEDランプ104を備えていてもよい。LEDランプ104は、たとえば、目玉に相当する部分や、目玉に相当する部分にカメラ103のレンズがある場合には当該レンズを縁取るように設けることができる。このような飛行型ロボット100においては、尻尾、耳、翼、足(脚、肢)、角、牙、髭など、鳥獣類が備える特徴的な部位に相当する部材105を備えていてもよい。 Further, as shown in FIGS. 1A and 1B, the flying robot 100 having an animal-like shape may be provided with an LED lamp 104 in a portion corresponding to the eyes, for example. The LED lamp 104 can be provided, for example, so as to border the lens of the camera 103 in the portion corresponding to the eyeball or the portion corresponding to the eyeball. In such a flying robot 100, a member 105 corresponding to a characteristic part of birds and beasts such as a tail, ears, wings, legs (legs, limbs), horns, fangs, and whiskers may be provided.

鳥獣類が備える特徴的な部位に相当する部材105は、現代において実在している鳥獣類が備える部位に相当する部材に限らず、恐竜などのように絶滅した動物が備える部位や、竜やユニコーンのような幻獣が備える部位に相当する部材であってもよい。また、これらの部材は、可動式とし、動作させるためのモーターなどの駆動機構を備えていてもよい。これにより、飛行型ロボット100は、尻尾を振ったり、耳を動かしたりする動作を模すことができる。 The member 105 corresponding to the characteristic part of birds and beasts is not limited to the part corresponding to the part of birds and beasts that actually exist in modern times, but also the parts of extinct animals such as dinosaurs, dragons and unicorns. It may be a member corresponding to a part provided by a unicorn such as. Further, these members may be movable and may be provided with a drive mechanism such as a motor for operating them. As a result, the flying robot 100 can imitate the movement of shaking the tail and moving the ears.

飛行型ロボット100は、さらに、太陽光などの外光によって発電するソーラーセル(太陽電池)106を備えていてもよい。ソーラーセル106は、たとえば、ドローン101の筐体における上側の面に設ける。これにより、飛行中に確実に外光を取り入れて効率よく発電することができる。また、ソーラーセル106を備えることにより、飛行中も充電することができるため、1回当たりの飛行時間を長く確保することができる。 The flying robot 100 may further include a solar cell (solar cell) 106 that generates electricity by external light such as sunlight. The solar cell 106 is provided, for example, on the upper surface of the housing of the drone 101. As a result, it is possible to reliably take in outside light during flight and generate electricity efficiently. Further, by providing the solar cell 106, it is possible to charge the battery even during the flight, so that it is possible to secure a long flight time per flight.

(飛行型ロボット100のハードウエア構成)
つぎに、飛行型ロボット100のハードウエア構成について説明する。図2は、この発明にかかる実施の形態1の飛行型ロボット100のハードウエア構成を示す説明図である。図2に示すように、飛行型ロボット100のハードウエアは、バッテリー201、モーター202、カメラ103、マイク203、スピーカー204、GPSセンサー205、対物センサー206、制御回路207、通信I/F208、LEDランプ104、ソーラーセル106などによって構成される。飛行型ロボット100が備える各部103、104、106、201~208は、バス200によって接続されている。
(Hardware configuration of flying robot 100)
Next, the hardware configuration of the flight robot 100 will be described. FIG. 2 is an explanatory diagram showing a hardware configuration of the flight-type robot 100 according to the first embodiment of the present invention. As shown in FIG. 2, the hardware of the flying robot 100 includes a battery 201, a motor 202, a camera 103, a microphone 203, a speaker 204, a GPS sensor 205, an objective sensor 206, a control circuit 207, a communication I / F 208, and an LED lamp. It is composed of 104, a solar cell 106, and the like. Each part 103, 104, 106, 201 to 208 included in the flight type robot 100 is connected by a bus 200.

バッテリー201は、飛行型ロボット100が備える各部の動作に要する電源を供給する。バッテリー201は、たとえば、リチウム電池などの二次電池(充電式電池、蓄電池)によって実現することができる。二次電池によって実現されるバッテリー201は、ドローン101に対して着脱可能であってもよい。 The battery 201 supplies power required for the operation of each part of the flight robot 100. The battery 201 can be realized by, for example, a secondary battery (rechargeable battery, storage battery) such as a lithium battery. The battery 201 realized by the secondary battery may be detachable from the drone 101.

モーター202は、制御回路207によって制御され、回転することによってプロペラ102を回転させる。モーター202は、具体的には、たとえば、回転子が永久磁石であって、固定子がコイルによって構成されるブラシレスモータを使用することができる。モーター202は、プロペラ102の数と同数設けることにより、各プロペラ102をそれぞれ独立して回転させ、飛行型ロボット100を前進させたり、後進させたり左右方向に旋回させたりすることができる。 The motor 202 is controlled by the control circuit 207 and rotates to rotate the propeller 102. Specifically, as the motor 202, a brushless motor in which the rotor is a permanent magnet and the stator is composed of a coil can be used. By providing the same number of motors 202 as the number of propellers 102, each propeller 102 can be rotated independently, and the flight-type robot 100 can be moved forward, backward, or turned in the left-right direction.

飛行型ロボット100が、カメラ103の姿勢を調整する駆動機構を備えている場合、制御回路207は、当該駆動機構を構成するモーターの動作も制御する。これにより、飛行型ロボット100は移動しながら、人手を介することなく、カメラ103の姿勢を調整し、任意の範囲や広範囲を撮影することができる。 When the flight robot 100 includes a drive mechanism for adjusting the attitude of the camera 103, the control circuit 207 also controls the operation of the motors constituting the drive mechanism. As a result, the flying robot 100 can adjust the posture of the camera 103 while moving and shoot an arbitrary range or a wide range without human intervention.

カメラ103は、撮像素子を備え、撮影レンズを通過したレンズを撮像素子に受光させることにより画像を撮影する。また、カメラ103は、撮影した画像、すなわち撮像素子に受光した光信号を電気信号に変換した画像情報(撮影データ)を、制御回路207に出力する。 The camera 103 includes an image pickup element, and captures an image by causing the image pickup element to receive light from a lens that has passed through the photographing lens. Further, the camera 103 outputs the captured image, that is, the image information (photographed data) obtained by converting the optical signal received by the image pickup element into an electric signal, to the control circuit 207.

カメラ103は、静止画を撮影するものであってもよく、動画を撮影するものであってもよい。動画は、所定時間間隔で撮影された静止画を連続して再生するものを含む。画像情報は、所定の動画・音声データの圧縮方式の標準規格(たとえば、MPEG(Moving Picture Experts Group)など)によって圧縮されたものであってもよい。 The camera 103 may capture a still image or may capture a moving image. The moving image includes a continuous reproduction of still images taken at predetermined time intervals. The image information may be compressed by a standard of a predetermined video / audio data compression method (for example, MPEG (Moving Picture Experts Group) or the like).

マイク203は、飛行型ロボット100の周囲の音声を集音する。マイク203は、アナログデータとして入力された音声を電気信号に変換する。具体的に、マイク203は、アナログデータとして入力されたアナログの音声信号を、アナログ/デジタル変換し、デジタル形式の音声データを生成する。 The microphone 203 collects sounds around the flying robot 100. The microphone 203 converts the voice input as analog data into an electric signal. Specifically, the microphone 203 performs analog / digital conversion of an analog audio signal input as analog data, and generates audio data in a digital format.

スピーカー204は、音声信号である電気信号によって振動板を振動させて音を発生させる。また、スピーカー204は、音声信号を出力する出力端子であってもよく、当該出力端子に外部スピーカー204を接続して、音を発生させるようにしてもよい。 The speaker 204 vibrates the diaphragm by an electric signal which is an audio signal to generate sound. Further, the speaker 204 may be an output terminal that outputs an audio signal, and an external speaker 204 may be connected to the output terminal to generate sound.

GPSセンサー205は、飛行型ロボット100の現在位置を特定する。GPSセンサー205は、具体的には、たとえば、GPSアンテナ、RF(Radio Frequency)部、ベースバンド部などを備えている。GPSアンテナは、GPS衛星が放送する電波を受信する。RF部は、GPSアンテナが受信した変調前の信号をベースバンド信号に復調する。ベースバンド部は、RF部が復調したベースバンド信号に基づいて飛行型ロボット100の現在位置を算出する。GPSセンサー205は、さらに、不要成分を除去するフィルタや、LNA(Low Noise Amplifier)やパワーアンプPA(Power Amplifier)などの増幅器を備えていてもよい。 The GPS sensor 205 identifies the current position of the flying robot 100. Specifically, the GPS sensor 205 includes, for example, a GPS antenna, an RF (Radio Frequency) unit, a baseband unit, and the like. The GPS antenna receives radio waves broadcast by GPS satellites. The RF unit demodulates the unmodulated signal received by the GPS antenna into a baseband signal. The baseband unit calculates the current position of the flight robot 100 based on the baseband signal demodulated by the RF unit. The GPS sensor 205 may further include a filter for removing unnecessary components and an amplifier such as an LNA (Low Noise Amplifier) or a power amplifier PA (Power Amplifier).

飛行型ロボット100の現在位置は、複数のGPS衛星から送信される電波に基づく測位によって特定することができる。ベースバンド部は、4機のGPS衛星との距離をそれぞれ算出し、それぞれの距離が一つに交わる位置を算出することによって測位をおこなう。GPS衛星から受信した電波に基づいて、GPS衛星と飛行型ロボット100との幾何学的位置を求めるGPSに代えて、みちびき、グローナス(GLONASS)、ガリレオ(Galileo)などの衛星測位システムを用いて飛行型ロボット100の現在位置を特定してもよい。 The current position of the flight robot 100 can be specified by positioning based on radio waves transmitted from a plurality of GPS satellites. The baseband unit calculates the distances to each of the four GPS satellites, and performs positioning by calculating the position where each distance intersects with one. Fly using satellite positioning systems such as Michibiki, GLONASS, and Galileo instead of GPS, which determines the geometrical position of the GPS satellite and the flying robot 100 based on the radio waves received from the GPS satellites. The current position of the type robot 100 may be specified.

対物センサー206は、飛行型ロボット100から所定範囲内に存在する障害物の有無を検出する。障害物は、飛行型ロボット100の飛行の支障になる物体であって、具体的には、たとえば、壁、天井、家具、人物などが該当する。飛行型ロボット100を屋外で飛行させる場合、たとえば、車両、自装置以外の飛行型ロボット100、樹木、建物など、飛行型ロボット100の飛行の支障になるすべての物体が障害物に該当する。 The objective sensor 206 detects the presence or absence of an obstacle existing within a predetermined range from the flight robot 100. The obstacle is an object that hinders the flight of the flying robot 100, and specifically, for example, a wall, a ceiling, furniture, a person, or the like. When the flight-type robot 100 is flown outdoors, for example, all objects that hinder the flight of the flight-type robot 100, such as a vehicle, a flight-type robot 100 other than its own device, trees, and buildings, correspond to obstacles.

対物センサー206は、具体的には、たとえば、赤外線センサー、静電容量センサー、超音波センサーなどの非接触センサーによって実現することができる。対物センサー206は、赤外線センサー、静電容量センサー、超音波センサーなどの非接触センサーのうち少なくともいずれかによって実現することができる。飛行型ロボット100は、複数種類の非接触センサーを対物センサー206として搭載していてもよい。また、飛行型ロボット100は、カメラ103によって撮影した画像に基づいて、飛行型ロボット100から所定範囲内に存在する障害物の有無を検出してもよい。 Specifically, the objective sensor 206 can be realized by a non-contact sensor such as an infrared sensor, a capacitance sensor, or an ultrasonic sensor. The objective sensor 206 can be realized by at least one of non-contact sensors such as an infrared sensor, a capacitance sensor, and an ultrasonic sensor. The flying robot 100 may be equipped with a plurality of types of non-contact sensors as the objective sensor 206. Further, the flying robot 100 may detect the presence or absence of an obstacle existing within a predetermined range from the flying robot 100 based on the image taken by the camera 103.

ソーラーセル106は、プラスを帯びやすいP型シリコン半導体とマイナスを帯びやすいN型シリコン半導体とを、PN接合面を介して張り合わせることによって構成されている。ソーラーセル106においては、太陽光などの外光による光エネルギーがPN接合面に加わると、P型シリコン半導体はプラスを帯び、N型シリコン半導体はマイナスを帯びる。ソーラーセル106において、P型シリコン半導体およびN型シリコン半導体にはそれぞれ電極が接続されており、当該電極にそれぞれ接続された電線を介して発電した電力を取り出すことができる。 The solar cell 106 is configured by bonding a P-type silicon semiconductor, which tends to be positive, and an N-type silicon semiconductor, which tends to be negative, via a PN junction surface. In the solar cell 106, when light energy due to external light such as sunlight is applied to the PN junction surface, the P-type silicon semiconductor becomes positive and the N-type silicon semiconductor becomes negative. In the solar cell 106, electrodes are connected to the P-type silicon semiconductor and the N-type silicon semiconductor, respectively, and the electric power generated through the electric wires connected to the electrodes can be taken out.

制御回路207は、飛行型ロボット100が備える各部を駆動制御する。制御回路207は、CPUやメモリなどによって構成されるマイコンによって実現することができる。制御回路207は、具体的には、たとえば、LSI(Large Scale Integration)やFPGA(Field-Programmable Gate Array)などによって実現することができる。 The control circuit 207 drives and controls each part of the flight robot 100. The control circuit 207 can be realized by a microcomputer configured by a CPU, a memory, or the like. Specifically, the control circuit 207 can be realized by, for example, LSI (Large Scale Integration), FPGA (Field-Programmable Gate Array), or the like.

CPUは、メモリに記憶されたプログラムを実行することによって、飛行型ロボット100の全体の制御をつかさどる。メモリは、たとえば、CPUが実行するプログラムや、飛行型ロボット100の動作に関する各種条件に関する情報、カメラ103が撮影した画像に関する情報などの各種の情報を記憶する。 The CPU controls the entire flight-type robot 100 by executing a program stored in the memory. The memory stores, for example, various information such as a program executed by the CPU, information on various conditions related to the operation of the flying robot 100, and information on images taken by the camera 103.

メモリは、具体的には、たとえば、ICメモリやSSD(Solid State Drive)などによって実現することができる。また、メモリは、飛行型ロボット100に対して、飛行型ロボット100に設けられたカードスロットを介して着脱可能なメモリカードであってもよい。メモリカードは、たとえば、SD(Secure Digital)メモリカードなどのICカードによってその機能を実現することができる。メモリは、外付けのUSBメモリなどによって、その機能を実現するようにしてもよい。 Specifically, the memory can be realized by, for example, an IC memory or an SSD (Solid State Drive). Further, the memory may be a memory card that can be attached to and detached from the flight robot 100 via a card slot provided in the flight robot 100. The function of the memory card can be realized by an IC card such as an SD (Secure Digital) memory card. The memory may realize its function by an external USB memory or the like.

制御回路207は、ソーラーセル106によって発電された電力をバッテリー201に充電する充電回路などを備える。充電回路は、ソーラーセル106が発電した電力における電圧を調整するDC/DCコンバータなどを含む。 The control circuit 207 includes a charging circuit for charging the battery 201 with the electric power generated by the solar cell 106. The charging circuit includes a DC / DC converter or the like that adjusts the voltage in the electric power generated by the solar cell 106.

また、制御回路207は、IMU(Inertial Measurement Unit)、ESC(Electronic Speed Controller)や、BEC(Battery Elimination Circuit)あるいはUBEC(Universal BEC)などの回路を含んでいる。 Further, the control circuit 207 includes a circuit such as an IMU (Inertial Measurement Unit), an ESC (Electronic Speed Controller), a BEC (Battery Elimination Circuit) or a UBEC (Universal BEC).

IMUは、ドローン101が外部の情報を取得するために必要なセンサー類であって、たとえば、ジャイロセンサー、加速度センサー、気圧センサー、超音波センサー、磁気方位センサー(コンパス)などによって構成される。また、上記のGPSセンサー205も、IMUに含まれる。 The IMU is sensors necessary for the drone 101 to acquire external information, and is composed of, for example, a gyro sensor, an acceleration sensor, a pressure sensor, an ultrasonic sensor, a magnetic orientation sensor (compass), and the like. The GPS sensor 205 is also included in the IMU.

ジャイロセンサーは、ドローン101の角度の変化量を検出する。ジャイロセンサーは、たとえば、コリオリ力を利用して角速度を計測することによって、ドローン101の角度の変化量を検出する。ジャイロセンサーにより、ドローン101を安定して飛行させることができる。 The gyro sensor detects the amount of change in the angle of the drone 101. The gyro sensor detects the amount of change in the angle of the drone 101, for example, by measuring the angular velocity using the Coriolis force. The gyro sensor allows the drone 101 to fly stably.

加速度センサーは、ドローン101の速度の変化量を検出する。ジャイロセンサーおよび加速度センサーにより、ドローン101の傾き具合とドローン101の速度との両方の変化量を計算することができるので、ドローン101が傾いたままであっても、飛行し続けることができる。 The accelerometer detects the amount of change in the speed of the drone 101. Since the gyro sensor and the acceleration sensor can calculate the amount of change in both the degree of inclination of the drone 101 and the speed of the drone 101, the drone 101 can continue to fly even if it is still tilted.

気圧センサーは、ドローン101の高度を検出する。気圧センサーは、たとえば、気圧の変化を検出することによって、ドローン101の高度を検出する。気圧センサーによってドローン101の高度を測定することにより、ドローン101の高度を維持することができる。 The barometric pressure sensor detects the altitude of the drone 101. The barometric pressure sensor detects the altitude of the drone 101, for example, by detecting a change in barometric pressure. By measuring the altitude of the drone 101 with a barometric pressure sensor, the altitude of the drone 101 can be maintained.

超音波センサーは、ドローン101の下方に位置する物体(床面、障害物など)からの距離を検出する。超音波センサーは、たとえば、ドローン101の下面に設けられ、ドローン101の下方に発した超音波の跳ね返りを利用して、ドローン101の下方に位置する物体からの距離を検出する。これにより、ドローン101の地上(床面、地面など)追跡や、着陸を安定しておこなうことができる。対物センサー206として超音波センサーを用いる場合、ドローン101の全方位に超音波を発し、当該超音波センサーによって、対物センサー206としての機能と、IMUの一部としての機能と、を両立させてもよい。 The ultrasonic sensor detects the distance from an object (floor surface, obstacle, etc.) located below the drone 101. The ultrasonic sensor is provided on the lower surface of the drone 101, for example, and detects the distance from an object located below the drone 101 by utilizing the bounce of ultrasonic waves emitted below the drone 101. As a result, the drone 101 can be tracked on the ground (floor surface, ground, etc.) and landed stably. When an ultrasonic sensor is used as the objective sensor 206, ultrasonic waves are emitted in all directions of the drone 101, and the ultrasonic sensor can achieve both the function as the objective sensor 206 and the function as a part of the IMU. good.

磁気方位センサーは、ドローン101が東西南北のいずれの方角に向いているかを検出する。飛行型ロボット100は、飛行させる場所によって磁気の影響を受けるため、運用上、飛行させる場所の変更に際しては、コンパスキャリブレーションをおこない、磁気方位センサーの調整をおこなうことが好ましい。 The magnetic compass sensor detects in which direction the drone 101 is facing north, south, east, or west. Since the flying robot 100 is affected by magnetism depending on the place to fly, it is preferable to perform compass calibration and adjust the magnetic direction sensor when changing the place to fly.

IMUは、上記のマイコンとともにフライトコントローラを構成する。フライトコントローラは、モーター202の回転制御にかかる演算をおこない、ESCに対して、プロペラ(プロペラのモーター202)の回転方向や回転数を制御する制御信号を出力する。ESCは、フライトコントローラから出力された制御信号に基づきモーター202を回転制御する。フライトコントローラは、飛行型ロボット100の飛行中、飛行型ロボット100の傾きなどを検知して演算を繰り返しおこない、モーター202に対する制御信号を再帰的に出力する。 The IMU constitutes a flight controller together with the above-mentioned microcomputer. The flight controller performs calculations related to rotation control of the motor 202, and outputs a control signal for controlling the rotation direction and rotation speed of the propeller (propeller motor 202) to the ESC. The ESC rotates and controls the motor 202 based on the control signal output from the flight controller. The flight controller detects the tilt of the flight robot 100 during flight of the flight robot 100, repeats the calculation, and recursively outputs a control signal to the motor 202.

フライトコントローラは、具体的には、たとえば、隣り合うプロペラどうしを逆回転させるように制御する制御信号を出力することによって飛行型ロボット100の回転を防止する。また、たとえば、進行方向前方のプロペラを進行方向後方のプロペラよりも遅く回転させるように制御することによって飛行型ロボット100を前進させる。また、たとえば、進行方向右側のプロペラを進行方向左側のプロペラよりも遅く回転させるように制御することによって飛行型ロボット100を右方向に旋回させる。 Specifically, the flight controller prevents the flight robot 100 from rotating by outputting, for example, a control signal for controlling the adjacent propellers to rotate in the reverse direction. Further, for example, the flight robot 100 is advanced by controlling the propeller in the front in the traveling direction to rotate slower than the propeller in the rear in the traveling direction. Further, for example, the flight robot 100 is turned to the right by controlling the propeller on the right side in the traveling direction to rotate slower than the propeller on the left side in the traveling direction.

また、制御回路207は、バッテリー201の残量を計測する残量計測回路を含んでいる。残量計測回路は、たとえば、インピーダンス・トラック方式、電圧測定方式、クーロン・カウンタ方式、あるいは、電池セル・モデリング方式など、公知の各種の方式を用いてバッテリー201の残量を計測する。 Further, the control circuit 207 includes a remaining amount measuring circuit for measuring the remaining amount of the battery 201. The remaining amount measuring circuit measures the remaining amount of the battery 201 by using various known methods such as an impedance track method, a voltage measuring method, a Coulomb counter method, and a battery cell modeling method.

通信I/F208は、通信回線を通じて飛行型ロボット100とネットワークNとを接続する無線通信インタフェースであって、ネットワークNと飛行型ロボット100の内部とのインタフェースをつかさどり、ネットワークNを介して接続されている外部装置からのデータの入力および外部装置へのデータの出力を制御する。ネットワークNは、たとえば、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)などによって実現される。 The communication I / F 208 is a wireless communication interface that connects the flying robot 100 and the network N through a communication line, controls the interface between the network N and the inside of the flying robot 100, and is connected via the network N. Controls the input of data from an external device and the output of data to an external device. The network N is realized by, for example, the Internet, LAN (Local Area Network), WAN (Wide Area Network), and the like.

通信I/F208は、たとえば、Wi-Fi(登録商標)による無線インタフェースである。また、通信I/F208は、携帯電話回線(たとえばLTE(Long Term Evolution)、PHS(Personal Handy-phone System)などの無線通信のインタフェースであってもよい。 The communication I / F 208 is, for example, a Wi-Fi® wireless interface. Further, the communication I / F 208 may be an interface for wireless communication such as a mobile phone line (for example, LTE (Long Term Evolution), PHS (Personal Handy-phone System)).

通信I/F208を介した通信は、所定の時刻、所定時間ごとなど定期的におこなってもよく、通信回線の状況などに応じて任意のタイミングでおこなってもよい。上記のメモリは、通信I/F208を介した通信によって取得した情報を記憶してもよい。また、メモリは、飛行型ロボット100のユーザなどによってあらかじめ入力された情報を記憶してもよい。 Communication via the communication I / F 208 may be performed periodically at a predetermined time, at a predetermined time, or at any time depending on the condition of the communication line. The above memory may store information acquired by communication via communication I / F 208. Further, the memory may store information input in advance by a user of the flight robot 100 or the like.

目に相当する部分に設けられたLEDランプ104は、制御回路207によって制御され、飛行型ロボット100の飛行動作と連動して点灯したり消灯したり点滅したりする。また、LEDランプ104は、飛行型ロボット100の状態を案内してもよい。具体的には、たとえば、充電残量が所定の閾値を下回った場合に、所定のパターンで点滅する。LEDランプ104の発光色は1色に限るものではなく、複数色であってもよい。 The LED lamp 104 provided in the portion corresponding to the eyes is controlled by the control circuit 207, and turns on, off, and blinks in conjunction with the flight operation of the flight-type robot 100. Further, the LED lamp 104 may guide the state of the flight robot 100. Specifically, for example, when the remaining charge falls below a predetermined threshold value, the battery blinks in a predetermined pattern. The emission color of the LED lamp 104 is not limited to one color, and may be a plurality of colors.

飛行型ロボット100は、その他、図示は省略するが、飛行型ロボット100に対する入力指示をおこなうキーまたはボタンなどの入出力デバイスや、飛行型ロボット100の電源のON/OFFを切り替える電源スイッチ、および、目に相当する部分以外の位置に設けられたLEDランプなどを備えていてもよい。入出力デバイスは、他の情報処理装置を接続可能な接続端子などによって実現されるものであってもよい。 Although not shown, the flying robot 100 includes input / output devices such as keys or buttons that give input instructions to the flying robot 100, a power switch that switches the power of the flying robot 100 on and off, and a power switch that switches the power of the flying robot 100 on and off. An LED lamp or the like provided at a position other than the portion corresponding to the eyes may be provided. The input / output device may be realized by a connection terminal or the like to which another information processing device can be connected.

(飛行型ロボット100の機能的構成)
つぎに、飛行型ロボット100の機能的構成について説明する。図3は、この発明にかかる実施の形態1の飛行型ロボット100の機能的構成を示す説明図である。図3に示すように、飛行型ロボット100の機能は、記憶部301と、検出部302と、撮影部303と、取得部304と、駆動部305と、出力部306と、制御部307と、によって実現される。
(Functional configuration of the flying robot 100)
Next, the functional configuration of the flight robot 100 will be described. FIG. 3 is an explanatory diagram showing a functional configuration of the flight-type robot 100 according to the first embodiment of the present invention. As shown in FIG. 3, the functions of the flight robot 100 include a storage unit 301, a detection unit 302, a photographing unit 303, an acquisition unit 304, a drive unit 305, an output unit 306, and a control unit 307. Realized by.

記憶部301は、制御部307による制御にかかる各種プログラムや、プログラムの実行に用いる閾値などを含む各種情報を記憶する。また、記憶部301は、撮影部303が撮影した画像情報や、取得部304が取得した情報などを記憶する。記憶部301は、バッテリーの充電スポットに関する情報などを記憶してもよい。記憶部301302は、具体的には、たとえば、図2に示した制御回路207におけるメモリなどによって、その機能を実現することができる。 The storage unit 301 stores various information including various programs controlled by the control unit 307 and threshold values used for executing the programs. Further, the storage unit 301 stores image information captured by the photographing unit 303, information acquired by the acquisition unit 304, and the like. The storage unit 301 may store information about the charging spot of the battery and the like. Specifically, the storage unit 301302 can realize its function by, for example, the memory in the control circuit 207 shown in FIG. 2.

検出部302は、飛行型ロボット100から所定範囲内に存在する障害物の有無を検出する。検出部302は、具体的には、たとえば、図2に示した対物センサー206などによって、その機能を実現することができる。また、検出部302は、具体的には、たとえば、対物センサー206に代えて、あるいは、対物センサー206に加えて、図2に示したカメラ103などによって、その機能を実現してもよい。 The detection unit 302 detects the presence or absence of an obstacle existing within a predetermined range from the flight robot 100. Specifically, the detection unit 302 can realize its function by, for example, the objective sensor 206 shown in FIG. Further, specifically, the detection unit 302 may realize its function by, for example, instead of the objective sensor 206, or by a camera 103 shown in FIG. 2 in addition to the objective sensor 206.

カメラ103による障害物の有無の検出は、たとえば、飛行型ロボット100が移動することにより得られる、異なる複数の位置において撮影された各画像における視差(各画像どうしの差分)に基づき、障害物までの距離を求める移動ステレオ方法を用いることによって実現することができる。移動ステレオ方法を用いることにより、単眼のカメラを用いて、飛行型ロボット100から所定範囲内に存在する障害物の有無を検出することができる。 The detection of the presence or absence of an obstacle by the camera 103 is performed, for example, based on the parallax (difference between the images) of each image taken at a plurality of different positions obtained by moving the flying robot 100, up to the obstacle. This can be achieved by using a moving stereo method for determining the distance between. By using the mobile stereo method, it is possible to detect the presence or absence of an obstacle existing within a predetermined range from the flying robot 100 by using a monocular camera.

撮影部303は、飛行型ロボット100の周囲の画像を撮影する。撮影部303は、具体的には、たとえば、図2に示したカメラ103などによって、その機能を実現することができる。上記の記憶部301は、撮影部303が撮影した画像にかかる画像情報を記憶する。 The photographing unit 303 captures an image of the surroundings of the flying robot 100. Specifically, the photographing unit 303 can realize its function by, for example, the camera 103 shown in FIG. The storage unit 301 stores image information related to the image captured by the photographing unit 303.

また、記憶部301は、画像情報に加えて、当該画像情報にかかる画像を撮影した場所に関する情報を、当該画像情報に関連付けて記憶してもよい。画像を撮影した場所に関する情報は、たとえば、GPSセンサー205を用いて特定することができる。 Further, in addition to the image information, the storage unit 301 may store information about the place where the image related to the image information is taken in association with the image information. Information about the location where the image was taken can be identified using, for example, the GPS sensor 205.

取得部304は、飛行型ロボット100の外部の情報を取得する。具体的には、取得部304は、たとえば、飛行型ロボット100の周囲の画像を取得する。この場合、取得部304は、具体的には、たとえば、図2に示したカメラ103などによって、その機能を実現することができる。上記の記憶部301は、取得部304が取得した情報のうち、少なくとも、撮影した画像に含まれる人物、あるいは、当該人物の特徴に関する情報を記憶する。 The acquisition unit 304 acquires information outside the flight robot 100. Specifically, the acquisition unit 304 acquires, for example, an image of the surroundings of the flight-type robot 100. In this case, the acquisition unit 304 can specifically realize its function by, for example, the camera 103 shown in FIG. The storage unit 301 stores at least information about a person included in the captured image or the characteristics of the person among the information acquired by the acquisition unit 304.

また、具体的には、取得部304は、たとえば、ネットワークNを介して、外部装置から所定の情報を取得してもよい。この場合、取得部304は、具体的には、たとえば、図2に示した通信I/F208などによって、その機能を実現することができる。 Further, specifically, the acquisition unit 304 may acquire predetermined information from an external device via, for example, the network N. In this case, the acquisition unit 304 can specifically realize its function by, for example, the communication I / F 208 shown in FIG.

この場合の取得部304は、たとえば、特定の端末装置から出力された通知情報を、所定の情報として取得する。特定の端末装置は、たとえば、あらかじめ記憶部301に識別情報を記憶した端末装置であって、具体的には、特定のユーザーが所有するスマートフォンなどによって実現することができる。 In this case, the acquisition unit 304 acquires, for example, the notification information output from a specific terminal device as predetermined information. The specific terminal device is, for example, a terminal device in which identification information is stored in the storage unit 301 in advance, and can be specifically realized by a smartphone owned by a specific user or the like.

また、この場合の取得部304は、たとえば、現時点以降の所定時間内に、災害などのような特定のユーザーに影響を与える可能性がある事象が発生する可能性があることを示す情報を、所定の情報として取得してもよい。所定の情報は、たとえば、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報であってもよい。取得部304は、ネットワークNを介して、たとえば、常時、あるいは所定間隔ごとに通信をおこなってこのような所定の情報を取得する。 Further, the acquisition unit 304 in this case provides information indicating that an event that may affect a specific user, such as a disaster, may occur within a predetermined time after the present time. It may be acquired as predetermined information. The predetermined information may be, for example, information indicating that a disaster, an earthquake, a tsunami, a lightning strike, a rainfall, a strong wind, or a sudden change in the weather may occur within a predetermined time after the present time. The acquisition unit 304 acquires such predetermined information via the network N, for example, by communicating at all times or at predetermined intervals.

また、取得部304は、たとえば、特定のユーザーの嗜好に合致した音楽やニュース、物品の販売情報などの各種の情報を、所定の情報として取得してもよい。この場合、取得部304は、具体的には、たとえば、図2に示したカメラ103やマイク203などによって、その機能を実現することができる。特定のユーザーの嗜好に合致した音楽・ニュース・物品の販売情報などは、たとえば、マイク203によって特定のユーザーの周囲において集音された音声、特定のユーザーの使用頻度が高い物品、特定のユーザーの視界に入る頻度が高い物品、などに基づいて判断することができる。 Further, the acquisition unit 304 may acquire various information such as music, news, and sales information of goods that match the tastes of a specific user as predetermined information. In this case, the acquisition unit 304 can specifically realize its function by, for example, the camera 103 or the microphone 203 shown in FIG. Sales information of music, news, goods, etc. that match the tastes of a specific user can be, for example, voice collected around a specific user by the microphone 203, articles frequently used by the specific user, or information of a specific user. Judgment can be made based on items that are frequently in sight.

特定のユーザーの視界に入る頻度が高い物品は、たとえば、映画、ニュース、バラエティなどのテレビ番組、園芸品や食器などの趣味性の高い物品などであって、特定のユーザーの使用頻度が高い物品と同様に、撮影部303が撮影した画像などに基づいて判断することができる。上記の記憶部301は、取得部304が取得した情報のうち、少なくとも、特定のユーザーの嗜好に関する情報を記憶することができる。 Items that are frequently seen by a specific user are, for example, TV programs such as movies, news, and variety shows, and highly hobby items such as gardening and tableware, which are frequently used by a specific user. Similarly, the determination can be made based on the image or the like captured by the photographing unit 303. The storage unit 301 can store at least information about the preference of a specific user among the information acquired by the acquisition unit 304.

また、取得部304は、たとえば、特定のユーザーの声を取得してもよい。特定のユーザーの声は、たとえば、マイク203によって集音された音声や、マイク203によって集音された音声および同時期にカメラによって撮影された画像などに基づいて判断することができる。この場合、取得部304は、具体的には、たとえば、図2に示したカメラ103やマイク203などによって、その機能を実現することができる。上記の記憶部301は、取得部304が取得した情報のうち、特定のユーザーの声に関する情報を記憶することができる。 Further, the acquisition unit 304 may acquire the voice of a specific user, for example. The voice of a specific user can be determined based on, for example, the voice collected by the microphone 203, the voice collected by the microphone 203, and the image taken by the camera at the same time. In this case, the acquisition unit 304 can specifically realize its function by, for example, the camera 103 or the microphone 203 shown in FIG. The storage unit 301 can store information related to the voice of a specific user among the information acquired by the acquisition unit 304.

また、取得部304は、たとえば、別の飛行型ロボット100が学習した情報を、所定の情報として取得してもよい。これにより、単機の飛行型ロボット100の学習により得られた情報を、別の複数の飛行型ロボット100が共有することができ、飛行型ロボット100に、特定のユーザーの嗜好により一層合致した行動をさせることができる。 Further, the acquisition unit 304 may acquire, for example, the information learned by another flight-type robot 100 as predetermined information. As a result, the information obtained by learning the single flying robot 100 can be shared by another plurality of flying robots 100, and the flying robot 100 can behave more closely to the taste of a specific user. Can be made to.

駆動部305は、ドローン101の飛行を制御する。駆動部305は、具体的には、たとえば、図1に示したドローン101によって、その機能を実現することができる。駆動部305は、より具体的には、たとえば、図1に示したプロペラ102や図2に示した制御回路207におけるフライトコントローラ、ESC、BEC(UBEC)、および、モーター202、対物センサー206などによって、その機能を実現することができる。 The drive unit 305 controls the flight of the drone 101. Specifically, the drive unit 305 can realize its function by, for example, the drone 101 shown in FIG. More specifically, the drive unit 305 is driven by, for example, the flight controller, ESC, BEC (UBEC) in the propeller 102 shown in FIG. 1 and the control circuit 207 shown in FIG. 2, the motor 202, the objective sensor 206, and the like. , The function can be realized.

出力部306は、飛行型ロボット100の飛行動作と連動して動作する。また、出力部306は、飛行型ロボット100の状態に応じて動作する。出力部306は、たとえば、飛行型ロボット100が特定のユーザーの周辺を飛行する飛行動作に連動して動作したり、飛行型ロボット100が特定のユーザーの周辺を飛行している状態におけるバッテリーの残量に応じて動作する。 The output unit 306 operates in conjunction with the flight operation of the flight-type robot 100. Further, the output unit 306 operates according to the state of the flight type robot 100. The output unit 306 operates, for example, in conjunction with a flight operation in which the flight-type robot 100 flies around a specific user, or the remaining battery in a state where the flight-type robot 100 is flying around a specific user. It works according to the amount.

具体的に、出力部306は、たとえば、飛行型ロボット100が特定のユーザーの周辺を飛行する際に、目に相当する部分に設けられたLEDランプ104を点灯させたり、点滅させたりする。この場合、出力部306は、具体的には、たとえば、図1や図2に示したLEDランプ104などによって、その機能を実現することができる。 Specifically, for example, when the flight-type robot 100 flies around a specific user, the output unit 306 turns on or blinks the LED lamp 104 provided in the portion corresponding to the eyes. In this case, the output unit 306 can specifically realize its function by, for example, the LED lamp 104 shown in FIGS. 1 and 2.

また、出力部306は、たとえば、飛行型ロボット100が特定のユーザーの周辺を飛行する際に、スピーカー204から音声を出力してもよい。出力部306が出力する音声は、たとえば、動物の鳴き声を模した音声であってもよく、特定のユーザーへ語りかける声であってもよく、音楽であってもよい。この場合、出力部306は、具体的には、たとえば、図2に示したスピーカー204などによって、その機能を実現することができる。 Further, the output unit 306 may output sound from the speaker 204, for example, when the flight robot 100 flies around a specific user. The voice output by the output unit 306 may be, for example, a voice imitating the bark of an animal, a voice speaking to a specific user, or music. In this case, the output unit 306 can specifically realize its function by, for example, the speaker 204 shown in FIG.

また、出力部306は、たとえば、災害、地震、津波、発雷、降雨、強風、急激な天候の変化など、特定のユーザーに影響を与える可能性がある事象が発生する可能性があることを示す情報が取得されたことに応じて、飛行型ロボット100が特定のユーザーの周辺に近づいた際に、当該事象が発生する可能性があることを案内する音声を出力したり、特定のパターンや発光色でLEDランプ104を発光させたり点滅させたりしてもよい。 Further, the output unit 306 may cause an event that may affect a specific user, such as a disaster, an earthquake, a tsunami, a lightning strike, a rainfall, a strong wind, or a sudden change in the weather. In response to the acquisition of the indicated information, when the flying robot 100 approaches the vicinity of a specific user, it outputs a voice informing that the event may occur, or outputs a specific pattern or a specific pattern. The LED lamp 104 may be made to emit light or blink depending on the emission color.

制御部307は、飛行型ロボット100の全体を制御する。制御部307は、具体的には、たとえば、図2に示した制御回路207によって、その機能を実現することができる。制御部307は、より具体的には、たとえば、図2に示した制御回路207におけるCPUによって、メモリなどに記憶されたプログラムを実行することによって、その機能を実現することができる。 The control unit 307 controls the entire flight-type robot 100. Specifically, the control unit 307 can realize its function by the control circuit 207 shown in FIG. 2, for example. More specifically, the control unit 307 can realize its function by executing a program stored in a memory or the like by the CPU in the control circuit 207 shown in FIG. 2, for example.

制御部307は、たとえば、駆動部305を制御することによって、ドローン101を飛行させる。具体的に、制御部307は、バッテリーがフル充電された場合に、ドローン101の飛行を開始する。また、制御部307は、たとえば、特定のユーザーの呼び声を検出した場合に、飛行を開始する。また、制御部307は、たとえば、通信I/F208を介して取得した情報に基づいて、所定の情報を取得した場合に、飛行を開始する。 The control unit 307 flies the drone 101, for example, by controlling the drive unit 305. Specifically, the control unit 307 starts the flight of the drone 101 when the battery is fully charged. Further, the control unit 307 starts flight when, for example, detects a call of a specific user. Further, the control unit 307 starts the flight when the predetermined information is acquired based on the information acquired via the communication I / F 208, for example.

また、制御部307は、たとえば、撮影部303によって撮影された画像に基づいて特定のユーザーを認識する。特定のユーザーの認識に際し、制御部307は、たとえば、撮影部303によって撮影された画像のノイズや歪みなどを取り除き、当該画像に含まれるオブジェクトの輪郭を強調したり、当該画像の明るさや色合いを調整したりすることによって人物を抽出しやすくする。 Further, the control unit 307 recognizes a specific user based on the image captured by the photographing unit 303, for example. Upon recognition of a specific user, the control unit 307 removes noise and distortion of an image captured by the photographing unit 303, emphasizes the outline of an object included in the image, and enhances the brightness and color of the image. Make it easier to extract people by making adjustments.

また、特定のユーザーの認識に際し、制御部307は、たとえば、撮影部303によって撮影された画像から当該画像を構成する最小要素であるピクセル単位で、目・口・鼻などの特徴を抽出し、ピクセルに付与されている色や明るさなどの各種の情報に基づいて、当該画像に撮影されている人物を認識する。 Further, when recognizing a specific user, the control unit 307 extracts features such as eyes, mouth, and nose from the image captured by the imaging unit 303 in pixel units, which are the minimum elements constituting the image. The person photographed in the image is recognized based on various information such as color and brightness given to the pixel.

また、特定のユーザーの認識に際し、制御部307は、たとえば、抽出した人物に関する情報を、記憶部301に記憶する。抽出した人物に関する情報は、たとえば、当該人物が撮影された累積の時間、当該人物が撮影された累積の回数のうちの少なくとも一方を含む。抽出した人物に関する情報は、たとえば、当該人物が撮影された累積の時間、および、当該人物が撮影された累積の回数の両方を含んでいてもよい。 Further, when recognizing a specific user, the control unit 307 stores, for example, information about the extracted person in the storage unit 301. The information about the extracted person includes, for example, at least one of the cumulative time that the person was photographed and the cumulative number of times that the person was photographed. The information about the extracted person may include, for example, both the cumulative time the person was photographed and the cumulative number of times the person was photographed.

また、特定のユーザーの認識に際し、制御部307は、たとえば、撮影部303によって撮影された画像と、記憶部301に記憶されている抽出した人物に関する情報とに基づいて、撮影部303によって撮影された画像から認識された人物が、撮影部303によって所定時間以上または所定回数以上撮影された人物であるか否かを判断する。そして、撮影部303によって撮影された画像から抽出された人物が、所定時間以上または所定回数以上撮影された人物である場合に、当該画像から認識された人物が特定のユーザーであると認識する。 Further, when recognizing a specific user, the control unit 307 is photographed by the photographing unit 303, for example, based on the image captured by the photographing unit 303 and the information about the extracted person stored in the storage unit 301. It is determined whether or not the person recognized from the image is a person who has been photographed by the photographing unit 303 for a predetermined time or more or a predetermined number of times or more. Then, when the person extracted from the image taken by the photographing unit 303 is a person who has been photographed for a predetermined time or more or a predetermined number of times or more, the person recognized from the image is recognized as a specific user.

制御部307は、特定の範囲内において撮影部303によって撮影された人物であるか否かを判断することにより、特定のユーザーを認識してもよい。具体的には、たとえば、自宅内、学校の敷地内、店舗内などのような特定の範囲内にいる機会が相応にある人物を、特定のユーザーであると認識することができる。 The control unit 307 may recognize a specific user by determining whether or not the person is photographed by the photographing unit 303 within a specific range. Specifically, a person who has a suitable opportunity to be in a specific range such as a home, a school premises, a store, etc. can be recognized as a specific user.

制御部307は、さらに、特定の範囲内において、撮影部303によって撮影された画像から認識された人物が、撮影部303によって所定時間以上または所定回数以上撮影された人物であるか否かを判断することによって、特定のユーザーを認識してもよい。具体的には、たとえば、自宅内、学校の敷地内、店舗内などのような特定の範囲内において、撮影部303によって撮影された画像から認識された人物が、所定時間以上または所定回数以上撮影された人物である場合に、当該画像から認識された人物が特定のユーザーであると認識する。 The control unit 307 further determines whether or not the person recognized from the image captured by the photographing unit 303 is a person photographed by the photographing unit 303 for a predetermined time or more or a predetermined number of times or more within a specific range. By doing so, a specific user may be recognized. Specifically, a person recognized from an image taken by the photographing unit 303 takes a predetermined time or more or a predetermined number of times or more in a specific range such as in a home, a school premises, or a store. In the case of a person who has been identified, the person recognized from the image is recognized as a specific user.

また、制御部307は、たとえば、特定のユーザーを認識した場合に、駆動部305を制御することによって、当該特定のユーザーの周囲において飛行型ロボット100を飛行させる。制御部307は、具体的には、たとえば、特定のユーザーが手を伸ばしても飛行型ロボット100に触れることができない程度に、当該特定のユーザーに近い位置において飛行型ロボット100を飛行させる。 Further, for example, when the control unit 307 recognizes a specific user, the control unit 307 controls the drive unit 305 to fly the flight robot 100 around the specific user. Specifically, the control unit 307 flies the flying robot 100 at a position close to the specific user so that the specific user cannot touch the flying robot 100 even if he / she reaches out.

制御部307は、より具体的には、たとえば、特定のユーザーの頭上において飛行型ロボット100を旋回させたり、特定のユーザーの正面において飛行型ロボット100をホバリングさせたり、特定のユーザーにじゃれるように当該特定のユーザーに対して飛行型ロボット100を近づけたり遠のけたりするように、飛行型ロボット100を飛行させる。制御部307は、特定のユーザーが飛行型ロボット100を視認したことを検出した場合、当該特定のユーザーから離れて充電スポットに戻るように、飛行型ロボット100を飛行させてもよい。このように、飛行型ロボット100が、巣の周囲を巡回して状況を確認して巣に戻るという、いわば、充電スポットを巣に見立てた「縄張り行動」を模すことにより、特定のユーザーを含む周囲の人物に、あたかも、飛行型ロボット100が自らの意思をもった生物であるような印象を与えることができる。 More specifically, the control unit 307 makes the flying robot 100 turn over the head of a specific user, hover the flying robot 100 in front of the specific user, or play with the specific user. The flight-type robot 100 is made to fly so as to move the flight-type robot 100 closer to or further away from the specific user. When the control unit 307 detects that a specific user has visually recognized the flying robot 100, the control unit 307 may fly the flying robot 100 so as to move away from the specific user and return to the charging spot. In this way, the flying robot 100 patrolls around the nest, checks the situation, and returns to the nest. It is possible to give the surrounding people including the impression that the flying robot 100 is a creature having its own intention.

制御部307は、駆動部305を制御することによって、飛行型ロボット100に特定のユーザーの周囲を飛行させるだけでもよく、駆動部305と出力部306とを連動させて、飛行型ロボット100に特定のユーザーの周囲を飛行させながら、LEDランプ104を発光(点滅)させたり、スピーカー204から音声を出力させたりしてもよい。 The control unit 307 may only make the flight robot 100 fly around a specific user by controlling the drive unit 305, and may specify the flight robot 100 by interlocking the drive unit 305 and the output unit 306. The LED lamp 104 may be made to emit light (blink) or the sound may be output from the speaker 204 while flying around the user.

(充電スポットの外観の一例)
つぎに、充電スポットの外観の一例について説明する。図4Aおよび図4Bは、充電スポットの一例を示す説明図である。図4Aにおいては、充電スポットの外観の一例を示している。図4Bにおいては、図4AにおけるA-A断面を示している。図4Aおよび図4Bに示すように、充電スポット400は、充電パッド401と、外装部402と、を備えている。
(An example of the appearance of the charging spot)
Next, an example of the appearance of the charging spot will be described. 4A and 4B are explanatory views showing an example of a charging spot. FIG. 4A shows an example of the appearance of the charging spot. FIG. 4B shows a cross section taken along the line AA in FIG. 4A. As shown in FIGS. 4A and 4B, the charging spot 400 includes a charging pad 401 and an exterior portion 402.

充電パッド401は、送電コイル401aを備えている。送電コイル401aは、ABS樹脂やシリコンゴムなどを用いて形成されたカバー401bに内包されている。また、充電パッド401(送電コイル401a)には、先端にコンセントプラグが設けられた電源ケーブル401cが接続されている。電源ケーブル401cの先端に設けられたコンセントプラグを商用電源に接続し、送電コイル401aに電気を流すことによって、送電コイル401aに磁界を発生させることができる。 The charging pad 401 includes a power transmission coil 401a. The power transmission coil 401a is included in a cover 401b formed of ABS resin, silicon rubber, or the like. Further, a power cable 401c having an outlet plug at the tip thereof is connected to the charging pad 401 (power transmission coil 401a). A magnetic field can be generated in the power transmission coil 401a by connecting an outlet plug provided at the tip of the power cable 401c to a commercial power source and passing electricity through the power transmission coil 401a.

充電パッド401は、電源ケーブル401cに代えて、メス型USB端子などのような、充電ケーブルを接続可能な端子を備えていてもよい。この場合、オス型USB端子を備える電源ケーブルや、商用電源とUSB電源との変換用アダプターを用いて、送電コイル401aに電気を流すことによって、送電コイル401aに磁界を発生させることができる。これにより、充電スポット400の設置場所などに応じた任意の長さの電源ケーブルを用いることができる。 The charging pad 401 may include a terminal to which a charging cable can be connected, such as a female USB terminal, instead of the power cable 401c. In this case, a magnetic field can be generated in the power transmission coil 401a by passing electricity through the power transmission coil 401a using a power cable provided with a male USB terminal or a conversion adapter between a commercial power supply and a USB power supply. This makes it possible to use a power cable having an arbitrary length according to the installation location of the charging spot 400 and the like.

外装部402は、たとえば、鳥獣類の巣を模した外観をなし、充電パッド401を覆うように設置される。外装部402は、充電パッド401に対する飛行型ロボット100の発着を許容する開口部を備えている。外装部402は、たとえば、図4Aや図4Bに示すように充電スポット400の上方に開口を備えた形状であってもよく、充電スポット400の真上を覆い側方を開放する開口を備えた洞穴のような形状であってもよい。飛行型ロボット100は、充電パッド401の上方に開口が設けられている場合、充電パッド401に対して、充電パッド401の上側から接近し、充電パッド401の上側へ飛び立つ。飛行型ロボット100は、洞穴のような形状の外装部402を備えている場合、充電パッド401の上側側方から接近し、充電パッド401の上側側方へ飛び立つ。 The exterior portion 402 has, for example, an appearance imitating a nest of birds and beasts, and is installed so as to cover the charging pad 401. The exterior portion 402 is provided with an opening that allows the flight-type robot 100 to arrive and depart from the charging pad 401. The exterior portion 402 may have a shape having an opening above the charging spot 400, as shown in FIGS. 4A and 4B, and has an opening that covers directly above the charging spot 400 and opens to the side. It may be shaped like a cave. When the flying robot 100 is provided with an opening above the charging pad 401, the flying robot 100 approaches the charging pad 401 from the upper side of the charging pad 401 and takes off to the upper side of the charging pad 401. When the flying robot 100 is provided with an exterior portion 402 shaped like a cave, the flying robot 100 approaches from the upper side of the charging pad 401 and takes off to the upper side of the charging pad 401.

充電スポット400は、Wi-Fiルーターなどの無線ルーターを備えていてもよい。これにより、充電スポット400を通信スポットとして機能させることができ、飛行型ロボット100は、充電スポット400を介して通信をおこなうことができる。自宅などに引き込まれているインターネット回線に充電スポット400を接続し、飛行型ロボット100が充電スポット400を介して通信をおこなうことにより、1台の充電スポット400を設置して、複数台の飛行型ロボット100を利用することができる。 The charging spot 400 may include a wireless router such as a Wi-Fi router. As a result, the charging spot 400 can function as a communication spot, and the flight-type robot 100 can perform communication via the charging spot 400. A charging spot 400 is connected to an internet line drawn into a home or the like, and the flying robot 100 communicates via the charging spot 400 to install one charging spot 400 and to install a plurality of flying robots. The robot 100 can be used.

(飛行型ロボット100の処理手順の一例)
つぎに、飛行型ロボット100の処理手順の一例について説明する。図5は、この発明にかかる実施の形態1の飛行型ロボット100の処理手順の一例を示すフローチャートである。図5のフローチャートにおいて、まず、飛行を開始するか否かを判断する(ステップS501)。ステップS501においては、たとえば、バッテリーの残量に基づいて、バッテリーがフル充電された場合に、飛行を開始すると判断する。また、ステップS501においては、たとえば、マイク203を介して集音される音声に基づいて、特定のユーザーの呼び声を検出した場合に、飛行を開始すると判断してもよい。また、ステップS501においては、たとえば、通信I/F208を介して取得した情報に基づいて、所定の情報を取得した場合に、飛行を開始すると判断してもよい。
(Example of processing procedure of the flight robot 100)
Next, an example of the processing procedure of the flight robot 100 will be described. FIG. 5 is a flowchart showing an example of the processing procedure of the flight-type robot 100 according to the first embodiment of the present invention. In the flowchart of FIG. 5, first, it is determined whether or not to start the flight (step S501). In step S501, for example, based on the remaining amount of the battery, it is determined that the flight is started when the battery is fully charged. Further, in step S501, it may be determined that the flight is started when, for example, the call of a specific user is detected based on the voice collected through the microphone 203. Further, in step S501, it may be determined that the flight is started when the predetermined information is acquired based on the information acquired via the communication I / F 208, for example.

ステップS501においては、飛行を開始すると判断するまで待機する(ステップS501:No)。一方、ステップS501において、飛行を開始すると判断した場合(ステップS501:Yes)、飛行を開始する(ステップS502)。ステップS502においては、たとえば、ドローン101を駆動し、充電スポット400から飛び立ち、障害物を回避しながら所定の範囲内を飛行する。所定の範囲は、たとえば、自宅内、学校の敷地内、店舗内などのような特定の範囲を含む任意の範囲とすることができる。 In step S501, it waits until it is determined that the flight will start (step S501: No). On the other hand, when it is determined in step S501 to start the flight (step S501: Yes), the flight is started (step S502). In step S502, for example, the drone 101 is driven, takes off from the charging spot 400, and flies within a predetermined range while avoiding obstacles. The predetermined range can be any range including a specific range such as, for example, in a home, in a school premises, in a store, and the like.

つぎに、飛行中にカメラによって撮影した画像に基づいて、特定のユーザーを検出したか否かを判断する(ステップS503)。ステップS503においては、たとえば、上記のように、所定の画像処理をおこなって抽出された人物が、撮影部303によって所定時間以上または所定回数以上撮影された人物であるか否かを判断することによって、特定のユーザーを検出したか否かを判断することができる。また、ステップS503においては、たとえば、上記のように、特定の範囲内において、撮影部303によって撮影された画像から認識された人物が、撮影部303によって所定時間以上または所定回数以上撮影された人物であるか否かを判断することによって、特定のユーザーを検出したか否かを判断してもよい。 Next, it is determined whether or not a specific user has been detected based on the image taken by the camera during the flight (step S503). In step S503, for example, as described above, by determining whether or not the person extracted by performing the predetermined image processing is a person who has been photographed by the photographing unit 303 for a predetermined time or more or a predetermined number of times or more. , It is possible to determine whether or not a specific user has been detected. Further, in step S503, for example, as described above, a person recognized from an image captured by the photographing unit 303 within a specific range is a person photographed by the photographing unit 303 for a predetermined time or more or a predetermined number of times or more. It may be determined whether or not a specific user has been detected by determining whether or not the user has been detected.

ステップS503において、特定のユーザーを検出していない場合(ステップS503:No)、ステップS505へ移行する。一方、ステップS503において、特定のユーザーを検出したと判断した場合(ステップS503:Yes)、所定のプロセスの実行を開始する(ステップS504)。ステップS504においては、たとえば、あらかじめ設定された複数のプロセスの中から、任意に選択したプロセスの実行を開始する。 If a specific user is not detected in step S503 (step S503: No), the process proceeds to step S505. On the other hand, if it is determined in step S503 that a specific user has been detected (step S503: Yes), execution of a predetermined process is started (step S504). In step S504, for example, execution of an arbitrarily selected process from a plurality of preset processes is started.

ステップS504において実行を開始するプロセスは、たとえば、バッテリーの残量、飛行型ロボットの現在位置、ステップS503:Yesにおいて検出した特定のユーザーなどに基づいて選択することができる。また、ステップS504においては、たとえば、特定のユーザーの周囲を任意の回数旋回した後に、充電スポット400に帰還するプロセスの実行を開始してもよい。 The process to start execution in step S504 can be selected based on, for example, the remaining battery level, the current position of the flying robot, the specific user detected in step S503: Yes, and the like. Further, in step S504, for example, after turning around a specific user an arbitrary number of times, the process of returning to the charging spot 400 may be started.

具体的に、ステップS504においては、たとえば、特定のユーザーの周辺に近づいたり、目に相当する部分に設けられたLEDランプ104を点灯あるいは点滅させたり、動物の鳴き声を模した音声を出力したりするプロセスの実行を開始する。これによって、ペットなどの生物がもつ愛嬌を模した動作を実現することができる。 Specifically, in step S504, for example, the user approaches the vicinity of a specific user, the LED lamp 104 provided in the portion corresponding to the eyes is turned on or blinks, or a voice imitating the bark of an animal is output. Starts the execution of the process. This makes it possible to realize movements that imitate the charm of living things such as pets.

また、特定のユーザーが移動している場合は、ステップS504において、当該特定のユーザーを追いかけるプロセスの実行を開始してもよい。ステップS504において実行を開始するプロセスは、1つであってもよく、複数であってもよい。複数のプロセスの実行を開始する場合、同時に複数のプロセスの実行を開始してもよく、開始時期をずらしてもよい。 Further, if a specific user is moving, the process of chasing the specific user may be started in step S504. The process that starts execution in step S504 may be one or a plurality. When starting the execution of a plurality of processes, the execution of the plurality of processes may be started at the same time, or the start time may be staggered.

また、ステップS504においては、たとえば、特定のユーザーの嗜好に合致した音楽を出力したり、ニュースを報知したりしてもよい。また、ステップS504においては、たとえば、特定のユーザーの過去の行動や嗜好などのプロファイルに基づいて、当該特定のユーザーの行動や嗜好などが類似する別のユーザーが利用する飛行型ロボット100のアクションパターンなどの情報を、ネットワークNを介して取得し、取得した情報に基づいて実行するプロセスを決定してもよい。 Further, in step S504, for example, music matching the taste of a specific user may be output or news may be notified. Further, in step S504, for example, based on the profile of the past behaviors and preferences of the specific user, the action pattern of the flight robot 100 used by another user having similar behaviors and preferences of the specific user. Such information may be acquired via the network N, and the process to be executed may be determined based on the acquired information.

つぎに、バッテリーの残量が、あらかじめ設定された第1の閾値を下回ったか否かを判断する(ステップS505)。第1の閾値は、たとえば、飛行型ロボット100が飛行しうる所定の範囲のうちもっとも充電スポット400から遠い位置から、飛行型ロボット100が充電スポット400に帰還するために要するバッテリー量に設定することができる。 Next, it is determined whether or not the remaining battery level has fallen below the preset first threshold value (step S505). The first threshold value is set, for example, to the amount of battery required for the flying robot 100 to return to the charging spot 400 from the position farthest from the charging spot 400 in the predetermined range in which the flying robot 100 can fly. Can be done.

ステップS505において、バッテリーの残量が第1の閾値を下回っていない場合(ステップS505:No)、ステップS503へ移行して、特定のユーザーを検出しながらプロセスを実行する。一方、ステップS505において、バッテリーの残量が第1の閾値を下回った場合(ステップS505:Yes)、ステップS504において開始したプロセスが実行中であるか否かを判断する(ステップS506)。ステップS506において、プロセスが実行中ではない場合(ステップS506:No)、ステップS511へ移行する。 In step S505, if the remaining battery level is not below the first threshold value (step S505: No), the process proceeds to step S503, and the process is executed while detecting a specific user. On the other hand, in step S505, when the remaining battery level falls below the first threshold value (step S505: Yes), it is determined whether or not the process started in step S504 is being executed (step S506). If the process is not being executed in step S506 (step S506: No), the process proceeds to step S511.

一方、ステップS506において、プロセスが実行中である場合(ステップS506:Yes)、警告を出力する(ステップS507)。ステップS507においては、たとえば、目に相当する部分に設けられたLEDランプ104を赤色などの特定の色で点灯あるいは点滅させたり、スピーカー204から警告音を出力したりする。あるいは、ステップS507においては、たとえば、「バッテリーがなくなりそう」、「お腹が空いた」などのように、特定のユーザーに飛行型ロボット100の状態を言葉で知らせる音声を出力してもよい。また、あるいは、ステップS507においては、たとえば、ヨロヨロとふらつくような動作を模した飛行動作をおこなってもよい。 On the other hand, in step S506, when the process is being executed (step S506: Yes), a warning is output (step S507). In step S507, for example, the LED lamp 104 provided in the portion corresponding to the eyes is turned on or blinks in a specific color such as red, or a warning sound is output from the speaker 204. Alternatively, in step S507, a voice may be output to inform a specific user of the state of the flying robot 100 in words, such as "the battery is about to run out" or "I am hungry". Alternatively, in step S507, for example, a flight motion that imitates a swaying motion may be performed.

つぎに、ステップS506:Yesにおいて実行中と判断されたプロセスが完了したか否かを判断し(ステップS508)、当該プロセスが完了した場合(ステップS508:Yes)、ステップS511へ移行する。ステップS508において、プロセスが完了していない場合(ステップS508:No)、バッテリーの残量が、あらかじめ設定された第2の閾値を下回ったか否かを判断する(ステップS509)。第2の閾値は、第1の閾値よりも少ない量に設定されており、飛行型ロボット100が充電スポット400への飛行に要するバッテリー量に設定することができる。第2の閾値は、たとえば、飛行型ロボット100の現在位置や充電スポット400の位置などに基づいて設定することができる。 Next, it is determined whether or not the process determined to be running in step S506: Yes is completed (step S508), and if the process is completed (step S508: Yes), the process proceeds to step S511. In step S508, if the process is not completed (step S508: No), it is determined whether or not the remaining battery level has fallen below the preset second threshold value (step S509). The second threshold value is set to an amount smaller than the first threshold value, and can be set to the battery amount required for the flight robot 100 to fly to the charging spot 400. The second threshold value can be set based on, for example, the current position of the flying robot 100, the position of the charging spot 400, and the like.

ステップS509において、バッテリーの残量が第2の閾値を下回っていない場合(ステップS509:No)、ステップS508へ移行して、ステップS506:Yesにおいて実行中と判断されたプロセスが完了したか否かを判断する。一方、ステップS509において、バッテリーの残量が第2の閾値を下回った場合(ステップS509:Yes)、実行中のプロセスを強制終了して(ステップS510)、充電スポット400への帰還処理を実行して(ステップS511)、一連の処理を終了する。 If the remaining battery level is not below the second threshold value in step S509 (step S509: No), the process proceeds to step S508 and whether or not the process determined to be running in step S506: Yes is completed. To judge. On the other hand, in step S509, when the remaining battery level falls below the second threshold value (step S509: Yes), the running process is forcibly terminated (step S510), and the return process to the charging spot 400 is executed. (Step S511), the series of processes is completed.

ステップS510において、複数のプロセスを実行している場合は、実行中のすべてのプロセスを強制終了する。ステップS511においては、ドローン101のフェールセーフ機能のうちのRTH(Return To Home)を発動させることによって、充電スポット400への帰還処理を実行することができる。RTHの発動中は、カメラ103によって撮影された画像や対物センサー206の検出結果に基づいて障害物を回避する。 If a plurality of processes are being executed in step S510, all the running processes are forcibly terminated. In step S511, the return process to the charging spot 400 can be executed by activating RTH (Return To Home) among the fail-safe functions of the drone 101. While the RTH is activated, obstacles are avoided based on the image taken by the camera 103 and the detection result of the objective sensor 206.

上述した実施の形態1においては、バッテリーの残量が、第1の閾値を下回った場合に警告を出力し、第1の閾値より低い第2の閾値を下回った場合に帰還処理をおこなうようにしたが、これに限るものではない。バッテリーの残量に基づく判断に代えて、あるいは、当該判断に加えて、飛行を開始してからの経過時間に基づいて、警告を出力したり、実行中のプロセスを強制終了して帰還処理をおこなうようにしてもよい。 In the first embodiment described above, a warning is output when the remaining battery level falls below the first threshold value, and a feedback process is performed when the remaining battery level falls below the second threshold value lower than the first threshold value. However, it is not limited to this. Instead of making a judgment based on the remaining battery power, or in addition to that judgment, a warning is output or a running process is forcibly terminated to perform return processing based on the elapsed time since the flight started. You may do it.

ステップS502において飛行を開始してから第1の閾値や第2の閾値に達するまでの時間は、ステップS502において飛行を開始した時点におけるバッテリーの残量に応じて異なる。このため、飛行を開始した時点におけるバッテリーの残量に応じて、ステップS504において実行を開始するプロセスの種類や数を決定してもよい。 The time from the start of the flight in step S502 to the arrival of the first threshold value and the second threshold value varies depending on the remaining battery level at the time when the flight is started in step S502. Therefore, the type and number of processes to be executed may be determined in step S504 according to the remaining battery level at the time when the flight is started.

(飛行型ロボット100の利用態様の一例)
つぎに、実施の形態1の飛行型ロボット100の利用態様の一例について説明する。図6A、図6Bおよび図6Cは、飛行型ロボット100の利用態様の一例を示す説明図である。
(Example of usage of the flight robot 100)
Next, an example of how to use the flight-type robot 100 according to the first embodiment will be described. 6A, 6B and 6C are explanatory views showing an example of the usage mode of the flight robot 100.

飛行型ロボット100は、たとえば、任意のタイミングで飛行を開始し、特定のユーザー600を認識すると、特定のユーザー600に接近し、当該特定のユーザー600の周囲を飛行する(図6Aを参照)。そして、たとえば、特定のユーザー600の周囲を任意の回数周回した後、あるいは、特定のユーザー600が飛行型ロボット100から目を離した際などに、充電スポット400へ帰還する。 For example, the flight robot 100 starts flying at an arbitrary timing, and when it recognizes a specific user 600, it approaches the specific user 600 and flies around the specific user 600 (see FIG. 6A). Then, for example, after orbiting around the specific user 600 an arbitrary number of times, or when the specific user 600 takes his or her eyes off the flying robot 100, the robot returns to the charging spot 400.

このように、飛行型ロボット100が特定のユーザー600の意思とは無関係に動作することにより、あたかも、飛行型ロボット100が自らの意思をもって、不意に巣からやってきて、いつの間にか巣に戻っているような感覚を、特定のユーザー600に抱かせることができる。また、飛行型ロボット100がユーザーの意思とは無関係に動作することにより、あたかも、退屈した飛行型ロボット100が、何の目的もなくやってきて、何の目的もなく飛び回っているかのような感覚を、特定のユーザー600に抱かせることができる。 In this way, the flying robot 100 operates independently of the intention of the specific user 600, so that the flying robot 100 suddenly comes out of the nest with its own intention and returns to the nest unknowingly. Such a feeling can be given to a specific user 600. In addition, since the flying robot 100 operates regardless of the user's intention, it feels as if the bored flying robot 100 came for no purpose and flew around for no purpose. , Can be embraced by a specific user 600.

そして、飛行型ロボット100が特定のユーザー600の意思とは無関係に予測のできない動作をすることにより、飛行型ロボット100が自らの意思で動作し、自らの意思で特定のユーザー600を探し出してコミュニケーションを取ろうとしているような感覚を、特定のユーザー600に抱かせることができる。これにより、ペットを飼っている状況と近似した状況を作り出すことができ、飛行型ロボット100を愛玩することで特定のユーザー600の寂しさや孤独感を和らげたり、ストレスを低下させたりすることができる。また、特定のユーザー600を精神的に充足させたり、気持ちを穏やかにさせたりすることができる。 Then, the flight-type robot 100 operates in an unpredictable manner regardless of the intention of the specific user 600, so that the flight-type robot 100 operates by its own intention, searches for the specific user 600 by its own intention, and communicates. It is possible to give a specific user 600 the feeling of trying to take. This makes it possible to create a situation similar to the situation of having a pet, and by petting the flying robot 100, it is possible to alleviate the loneliness and loneliness of a specific user 600 and reduce stress. .. In addition, the specific user 600 can be mentally satisfied or calm.

また、特定のユーザー600の意思とは無関係な、飛行型ロボット100の予測のできない動作に対して、特定のユーザー600に、飛行型ロボット100の動作の意図を考えさせることができる。これによって、特定のユーザー600に、飛行型ロボット100が無機質・無機的なロボットではなく、命あり心ある生物と触れ合うような感覚を抱かせることができる。そして、これによって、特定のユーザー600の、寂しさや孤独感を和らげたり、ストレスを低下させたり、精神的な充足を高めたり、気持ちを穏やかにさせたりすることができる。 Further, the specific user 600 can be made to think about the intention of the operation of the flight robot 100 for the unpredictable operation of the flight robot 100, which is irrelevant to the intention of the specific user 600. As a result, the specific user 600 can be made to feel that the flying robot 100 is not an inorganic / inorganic robot but is in contact with a living and hearty creature. This can alleviate the loneliness and loneliness of a particular user 600, reduce stress, increase mental satisfaction, and calm the feelings.

飛行型ロボット100は、特定のユーザー600が特定の動作をした場合、その特定の動作に応じて、別のプロセスを実行するようにしてもよい。具体的には、たとえば、特定のユーザー600が飛行型ロボット100に手を近づけるなど、飛行型ロボット100に対して何らかの行動をおこなった場合に、当該特定のユーザー600から離れるように飛行してもよい(図6Bを参照)。このように、飛行型ロボット100が、敢えて、特定のユーザー600の意に反する動作をおこなうことにより、あたかも、飛行型ロボット100が、特定のユーザー600には媚びない、まるで気まぐれな猫のような態度をとっているような感覚を、特定のユーザー600に抱かせることができる。 When a specific user 600 performs a specific motion, the flight robot 100 may execute another process according to the specific motion. Specifically, even if a specific user 600 takes some action on the flight robot 100, such as bringing his / her hand close to the flight robot 100, he / she may fly away from the specific user 600. Good (see Figure 6B). In this way, the flying robot 100 dares to perform an operation contrary to the intention of the specific user 600, so that the flying robot 100 does not flirt with the specific user 600, just like a whimsical cat. It is possible to give a specific user 600 a feeling of taking an attitude.

あるいは、具体的には、たとえば、特定のユーザー600の周囲を周回しても、当該特定のユーザー600が無反応(「飛行型ロボット100に顔を向けない」という動作、など)である場合に、特定のユーザー600に一層接近するように飛行してもよい(図6Cを参照)。飛行型ロボット100がこのような動作をおこなうことにより、あたかも、飛行型ロボット100が構ってもらいたくて特定のユーザー600に接近している(絡んでくる)ような感覚を、特定のユーザー600に抱かせることができる。 Alternatively, specifically, for example, when the specific user 600 does not respond (such as "do not turn his face to the flying robot 100") even if he or she orbits around the specific user 600. , May fly closer to a particular user 600 (see FIG. 6C). By performing such an operation of the flying robot 100, the specific user 600 feels as if the flying robot 100 is approaching (entangled) with the specific user 600 in order to have the specific user 600 set up. Can be embraced.

このように、飛行型ロボット100が、特定のユーザー600を監視(モニタリング)し、モニタリングの結果に基づいて特定のユーザー600に対する所定の動作をおこない、当該動作に応じた特定のユーザー600の行動に基づいてつぎの動作をおこなうことにより、特定のユーザー600に対して、無機質・無機的なロボットではなく、命あり心あるペットなどの生物と触れ合うような感覚を抱かせることができる。 In this way, the flight-type robot 100 monitors (monitors) the specific user 600, performs a predetermined action for the specific user 600 based on the monitoring result, and performs the action of the specific user 600 according to the action. By performing the following actions based on the above, it is possible to give a specific user 600 a feeling of touching a living creature such as a pet with a life and a heart, instead of an inorganic / inorganic robot.

飛行型ロボット100は、特定のユーザー600の同一の行動に対して、常に同じ動作をおこなうものではなくてもよい。たとえば、前回、特定のユーザー600が飛行型ロボット100に手を近づけたことに応じて、当該特定のユーザー600に一層接近した動作をおこなった場合にも、次回、特定のユーザー600が同じ行動をおこなった場合には、当該特定のユーザー600から離れるように飛行してもよい。このように、特定のユーザー600に、飛行型ロボット100の動作の意図を明確に分からせないようにしてもよい。これによって、生物どうしの触れ合いにおいて往々にして発生する不可解さを模すことができる。 The flight-type robot 100 does not have to always perform the same action for the same action of the specific user 600. For example, even if the specific user 600 moves closer to the specific user 600 in response to the fact that the specific user 600 approaches the flight robot 100 last time, the specific user 600 performs the same action next time. If so, you may fly away from the particular user 600. In this way, the specific user 600 may not be able to clearly understand the intention of the operation of the flying robot 100. This makes it possible to imitate the mystery that often occurs in the interaction between living things.

特定のユーザー600は、飛行型ロボット100の動作の意図が明確に分からない場合があっても、飛行型ロボット100の動作自体を楽しむことができ、生物どうしの触れ合いにおいて往々にして発生する不可解さを楽しむことができる。このようにして、ペットなどの生物との関係性を再現することにより、特定のユーザー600は、正解の不明な(正解があるともないとも不明な)飛行型ロボット100の動作の意図を考えること自体を楽しむことができる。 The specific user 600 can enjoy the movement of the flying robot 100 itself even if the intention of the movement of the flying robot 100 is not clearly understood, and it is a mystery that often occurs in the contact between living things. Can be enjoyed. By reproducing the relationship with living things such as pets in this way, the specific user 600 thinks about the intention of the operation of the flying robot 100 whose correct answer is unknown (whether or not there is a correct answer). Can be enjoyed.

また、飛行型ロボット100が暗視カメラや赤外線カメラを搭載している場合、夜間であっても、撮像補助用の光源を用いることなく、飛行型ロボット100の周囲の画像を鮮明に撮影することができる。これによって、暗闇において人物(泥棒など)を検出した場合は、大きな音を出力したり、通信I/F208を介して警備会社などの外部と連絡をとったりすることができる。 Further, when the flying robot 100 is equipped with a night-vision camera or an infrared camera, the image around the flying robot 100 can be clearly taken even at night without using a light source for assisting imaging. Can be done. As a result, when a person (thief or the like) is detected in the dark, it is possible to output a loud sound or contact the outside such as a security company via the communication I / F 208.

上述した実施の形態1においては、利用者(特定のユーザー600)に癒やしを提供する飛行型ロボット100について説明したが、飛行型ロボット100の利用方法はこれに限るものではない。飛行型ロボット100は、たとえば、ボクシングや空手などの格闘技における実戦や試合のシミュレーションの支援をおこなうファイティングシミュレーターとして利用することができる。 In the first embodiment described above, the flight-type robot 100 that provides healing to the user (specific user 600) has been described, but the method of using the flight-type robot 100 is not limited to this. The flying robot 100 can be used as a fighting simulator that supports simulation of actual battles and games in martial arts such as boxing and karate, for example.

ファイティングシミュレーターとして利用される飛行型ロボット100は、具体的には、たとえば、ボクシングや空手などの格闘技において、打ち込みをおこなうに適した場所を案内するように飛行する。この場合、利用者は、飛行型ロボット100をめがけて打ち込みをおこなうことにより、実戦形式や試合形式を模した練習(いわゆるスパーリング)をおこなうことができる。 Specifically, the flying robot 100 used as a fighting simulator flies so as to guide a suitable place for driving in a martial art such as boxing or karate. In this case, the user can practice (so-called sparring) imitating the actual battle format or the game format by driving toward the flying robot 100.

スパーリングに際しては、LEDライトの点灯や点滅、発光色の調整、あるいは、音声の出力などによって、打ち込むタイミングを案内してもよい。具体的に、スパーリングに際しては、たとえば、手(拳)で打ち込む場所を、LEDライトを赤色に発光させることによって案内し、足で打ち込む(蹴る)場所を、LEDライトを緑色に発光させることによって案内する。また、スパーリングに際しては、ネットワークNを介して、著名な選手の動きに関する情報を取得し、当該情報に基づいて、著名な選手の動きを模した飛行動作をおこなってもよい。 At the time of sparring, the timing of driving may be guided by turning on or blinking the LED light, adjusting the emission color, or outputting voice. Specifically, when sparring, for example, the LED light emits red light to guide the place to hit with the hand (fist), and the LED light emits green light to the place to hit (kick) with the foot. invite. Further, at the time of sparring, information on the movement of a prominent player may be acquired via the network N, and based on the information, a flight motion imitating the movement of a prominent player may be performed.

また、飛行型ロボット100は、たとえば、オーケストラや吹奏楽などにおける演奏の指揮をおこなうフライングコンダクターとして利用することができる。フライングコンダクターとして利用される飛行型ロボット100は、具体的には、たとえば、指揮棒(タクト、バトン)の先端の動きを模した飛行動作をおこなう。また、演奏の途中でパートが切り替わる際に、該当するパート(楽器)の近くに飛行するようにしてもよい。これにより、各パートにおける演奏を確実に支援することができる。 Further, the flying robot 100 can be used as a flying conductor for conducting a performance in an orchestra, a brass band, or the like, for example. Specifically, the flight-type robot 100 used as a flying conductor performs a flight motion that imitates the movement of the tip of a baton (tact, baton). Further, when the part is switched in the middle of the performance, the flight may be made to fly near the corresponding part (instrument). This can surely support the performance in each part.

また、飛行型ロボット100は、たとえば、カラオケなどにおいて、楽曲の進行などにあわせて合いの手を入れたり、楽曲に合わせて踊るように飛行したりするフライングパフォーマーとして利用することができる。フライングパフォーマーとして利用される飛行型ロボット100は、さらに、カラオケにおける演奏楽曲をスピーカー204から出力してもよい。これにより、利用者は、屋外など電源を確保することが難しい場所であっても、任意の場所においてカラオケを楽しむことができる。 Further, the flying robot 100 can be used as a flying performer, for example, in karaoke or the like, to make a match with the progress of a musical piece or to fly to dance to the musical piece. The flying robot 100 used as a flying performer may further output music played in karaoke from the speaker 204. As a result, the user can enjoy karaoke at any place even in a place where it is difficult to secure a power source such as outdoors.

以上説明したように、この発明にかかる実施の形態の飛行型ロボット100は、自動操縦により飛行するドローン(無人航空機)101と、ドローン101に搭載されたカメラ103と、を備え、カメラ103によって撮影された画像に基づいて特定のユーザー600を認識し、当該特定のユーザー600の周囲を飛行するようにしたことを特徴としている。 As described above, the flight-type robot 100 according to the embodiment of the present invention includes a drone (unmanned aerial vehicle) 101 flying by autopilot and a camera 103 mounted on the drone 101, and is photographed by the camera 103. It is characterized in that it recognizes a specific user 600 based on the image and flies around the specific user 600.

この発明にかかる実施の形態1の飛行型ロボット100によれば、カメラ103によって撮影された画像に基づいて認識した特定のユーザー600の周囲を自動操縦によって飛行することにより、特定のユーザー600を飼い主として認識し、飼い主にコミュニケーションを要求するという、動物のペットと同様な動作をすることができる。これにより、特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えることができる。 According to the flight-type robot 100 of the first embodiment according to the present invention, the owner of the specific user 600 is by flying around the specific user 600 recognized based on the image taken by the camera 103 by autopilot. It can behave like an animal pet by recognizing it as a pet and requesting communication from its owner. As a result, the mind of the specific user 600 can be healed and the specific user 600 can be given a sense of satisfaction.

また、飛行型ロボット100によれば、清潔な状態を保つことができるため、生物を飼育する場合と比較して、衛生面における問題をなくすことができる。また、飛行型ロボット100によれば、動物アレルギーの問題が生じないため、特定のユーザー600の体質にかかわらず、ペットとのコミュニケーションを体験することができる。 Further, according to the flying robot 100, since it is possible to maintain a clean state, it is possible to eliminate problems in hygiene as compared with the case of breeding an organism. Further, according to the flying robot 100, since the problem of animal allergy does not occur, it is possible to experience communication with a pet regardless of the constitution of a specific user 600.

また、飛行型ロボット100によれば、衛生面や動物アレルギーの問題が生じないことに加えて、空中を飛行することにより、床などから細菌やウイルス、汚れなどが付着することがないため、病院や介護施設のような場所においても使用することができる。これにより、病院や介護施設の利用者に対するセラピー効果を期待することができる。 Further, according to the flying robot 100, in addition to not causing problems of hygiene and animal allergies, since flying in the air does not cause bacteria, viruses, dirt, etc. to adhere from the floor or the like, the hospital. It can also be used in places such as nursing homes and nursing homes. This can be expected to have a therapeutic effect on users of hospitals and long-term care facilities.

また、この発明にかかる実施の形態1の飛行型ロボット100は、カメラ103によって所定時間以上または所定回数以上撮影された人物を、特定のユーザー600として認識することを特徴としている。 Further, the flight-type robot 100 according to the first embodiment of the present invention is characterized in that a person photographed by a camera 103 for a predetermined time or more or a predetermined number of times or more is recognized as a specific user 600.

この発明にかかる実施の形態1の飛行型ロボット100によれば、飛行型ロボット100と相応に接する機会をもった特定のユーザー600の周囲を自動操縦によって飛行することにより、相応に接することでユーザーに馴れるというペットを模した動作をすることができる。これにより、特定のユーザー600に、長期にわたって飛行型ロボットに対する関心をもたせ、特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えることができる。 According to the flight-type robot 100 of the first embodiment according to the present invention, the user by flying around a specific user 600 who has an opportunity to have a corresponding contact with the flight-type robot 100 by autopilot, and by appropriately contacting the user. You can act like a pet to get used to it. As a result, the specific user 600 can be interested in the flying robot for a long period of time, the mind of the specific user 600 can be healed, and the specific user 600 can be given a sense of satisfaction.

また、この発明にかかる実施の形態1の飛行型ロボット100は、特定の範囲内において、カメラ103によって撮影された人物を、特定のユーザー600として認識することを特徴としている。 Further, the flight-type robot 100 according to the first embodiment of the present invention is characterized in that a person photographed by the camera 103 is recognized as a specific user 600 within a specific range.

この発明にかかる実施の形態1の飛行型ロボット100によれば、たとえば、自宅内、学校の敷地内、店舗内などのような特定の範囲内にいる機会が相応にあるために、カメラによって撮影される可能性の高い特定のユーザー600の周囲を自動操縦によって飛行することにより、特定の範囲内において相応に接した特定のユーザー600に馴れるというペットを模した動作をすることができる。これにより、特定のユーザー600に、長期にわたって飛行型ロボット100に対する関心や親近感や愛着をもたせ、特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えることができる。 According to the flight-type robot 100 of the first embodiment according to the present invention, since there is a corresponding opportunity to be in a specific range such as in a home, a school premises, a store, etc., the image is taken by a camera. By flying around a specific user 600, which is likely to be a pet, by autopilot, it is possible to perform an action imitating a pet to become accustomed to a specific user 600 who has appropriately contacted within a specific range. As a result, the specific user 600 can be given an interest, familiarity, and attachment to the flight-type robot 100 for a long period of time, the mind of the specific user 600 can be healed, and the specific user 600 can be given a sense of satisfaction.

このような動作をする飛行型ロボット100は、たとえば、自宅内において飛行型ロボット100と相応に接する機会をもった特定のユーザー600と、自宅外において飛行型ロボット100と相応に接する機会をもった特定のユーザー600の友人と、で異なる動作をするため、特定のユーザー600が飛行型ロボットに対して親近感や愛着をもちやすくなり、より確実に特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えることができる。 The flying robot 100 that performs such an operation has, for example, a specific user 600 who has an opportunity to come into contact with the flying robot 100 in the home and an opportunity to come into contact with the flying robot 100 outside the home. Since it behaves differently with a friend of a specific user 600, it becomes easier for the specific user 600 to have a feeling of familiarity and attachment to the flying robot, and more surely heals the mind of the specific user 600 and identifies it. It is possible to give a feeling of satisfaction to the user 600 of.

また、この発明にかかる実施の形態1の飛行型ロボット100は、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーの少なくとも一部が前記無人航空機に接近した場合、当該特定のユーザーから離れるように飛行することを特徴としている。 Further, the flight-type robot 100 according to the first embodiment of the present invention is used from the specific user when at least a part of the specific user approaches the unmanned aerial vehicle while flying around the specific user. It is characterized by flying away.

この発明にかかる実施の形態1の飛行型ロボット100によれば、「飼い主(特定のユーザー600)に近寄ってきたものの、触れられるのは避けたい」という、室内飼いの犬や猫によく見られる「飼い主の行動をチェックしにくる」ような動作を飛行型ロボット100におこなわせることができ、あたかも、飛行型ロボット100が自らの意思をもった生物のような印象を与えることができる。 According to the flight-type robot 100 according to the first embodiment of the present invention, it is often seen in indoor dogs and cats who say, "I have approached the owner (specific user 600), but I do not want to be touched." It is possible to make the flying robot 100 perform an action such as "come to check the behavior of the owner", and the flying robot 100 can give the impression of a creature having its own intention.

また、この発明にかかる実施の形態1の飛行型ロボット100は、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーが前記無人航空機を目視しない場合、当該特定のユーザーに接近するように飛行することを特徴としている。 Further, the flight-type robot 100 according to the first embodiment of the present invention is designed to approach the specific user when the specific user does not see the unmanned aerial vehicle while flying around the specific user. It is characterized by flying.

この発明にかかる実施の形態1の飛行型ロボット100によれば、「飼い主(特定のユーザー600)が構ってくれないのでちょっかいをだす」という、甘えたい性格のペットによく見られる愛情表現動作を飛行型ロボット100におこなわせることができ、あたかも、飛行型ロボット100が自らの意思をもった生物のような印象を与えることができる。 According to the flight-type robot 100 of the first embodiment according to the present invention, the affection expression action that is often seen in pets with a spoiled personality, such as "the owner (specific user 600) does not care, so he gives a little bit", is performed. It can be made to do by the flying robot 100, and the flying robot 100 can give the impression of a creature having its own intention.

また、この発明にかかる実施の形態1の飛行型ロボット100は、前記特定のユーザーの周囲を所定回数飛行した後、当該特定のユーザーから離れるように飛行することを特徴としている。 Further, the flight-type robot 100 according to the first embodiment of the present invention is characterized in that it flies around the specific user a predetermined number of times and then flies away from the specific user.

この発明にかかる実施の形態1の飛行型ロボット100によれば、室内飼いの犬や猫によく見られる「飼い主の行動をチェックしにくる」ような動作を飛行型ロボット100におこなわせることができ、あたかも、飛行型ロボット100が自らの意思をもった生物のような印象を与えることができる。 According to the flying robot 100 of the first embodiment according to the present invention, the flying robot 100 can perform an operation such as "come to check the behavior of the owner" which is often seen in indoor dogs and cats. Yes, the flying robot 100 can give the impression of a creature with its own intention.

また、この発明にかかる実施の形態1の飛行型ロボット100は、ドローン101に搭載された通信I/F208を備え、通信I/F208を介して、所定の情報を取得した場合、特定のユーザー600の周囲を飛行することを特徴としている。 Further, the flight robot 100 according to the first embodiment of the present invention includes a communication I / F 208 mounted on the drone 101, and when a predetermined information is acquired via the communication I / F 208, the specific user 600 It is characterized by flying around.

この発明にかかる実施の形態1の飛行型ロボット100によれば、通信I/F208を介して、所定の情報を取得した場合に特定のユーザー600の周囲を自動操縦によって飛行することにより、特定のユーザー600が意識していなくても、当該特定のユーザー600に有用な情報を伝達することができる。 According to the flight-type robot 100 of the first embodiment according to the present invention, when predetermined information is acquired via the communication I / F 208, the specific user 600 is automatically piloted to fly around the specific user 600. Useful information can be transmitted to the specific user 600 even if the user 600 is not aware of it.

また、この発明にかかる実施の形態1の飛行型ロボット100によれば、通信I/F208を介して別の飛行型ロボット100と通信をおこなうことにより、当該別の飛行型ロボット100の学習により得られた情報を共有することができるので、飛行型ロボット100に、特定のユーザー600の嗜好により一層合致した行動をさせることができる。 Further, according to the flight-type robot 100 of the first embodiment according to the present invention, the flight-type robot 100 can be obtained by learning the other flight-type robot 100 by communicating with another flight-type robot 100 via the communication I / F 208. Since the information can be shared, the flight-type robot 100 can be made to perform an action that is more suitable for the preference of the specific user 600.

また、この発明にかかる実施の形態1の飛行型ロボット100は、通信I/F208を介して、特定の端末装置から出力された通知情報を取得した場合、特定のユーザー600の周囲を飛行することを特徴としている。 Further, the flight-type robot 100 according to the first embodiment of the present invention flies around the specific user 600 when the notification information output from the specific terminal device is acquired via the communication I / F 208. It is characterized by.

この発明にかかる実施の形態1の飛行型ロボット100によれば、たとえば、特定のユーザー600の所有するスマートフォンなどを特定の端末装置とし、着信があったスマートフォンから飛行型ロボット100に対して出力された通知情報を取得した場合に特定のユーザー600の周囲を自動操縦によって飛行することにより、スマートフォンを常時携帯していなくても、また、スマートフォンをマナーモードに設定していても、当該スマートフォンに通知があったことを迅速に知ることができる。 According to the flight-type robot 100 of the first embodiment according to the present invention, for example, a smartphone owned by a specific user 600 is used as a specific terminal device, and an incoming smartphone outputs to the flight-type robot 100. By automatically flying around a specific user 600 when the notification information is acquired, the smartphone is notified even if the smartphone is not always carried or the smartphone is set to the manner mode. You can quickly know that there was.

また、この発明にかかる実施の形態1の飛行型ロボット100は、たとえば、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得した場合、特定のユーザー600の周囲を飛行することを特徴としている。 Further, in the flight robot 100 according to the first embodiment of the present invention, for example, a disaster, an earthquake, a tsunami, a lightning strike, a rainfall, a strong wind, or a sudden change in the weather may occur within a predetermined time after the present time. It is characterized by flying around a specific user 600 when it obtains information indicating that there is.

この発明にかかる実施の形態1の飛行型ロボット100によれば、特定のユーザー600が意識して情報を収集しなくても、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを迅速に知ることができる。これにより、安心して生活することができる。 According to the flight-type robot 100 according to the first embodiment of the present invention, disasters, earthquakes, tsunamis, lightning strikes, and rainfall can be achieved within a predetermined time after the present time even if a specific user 600 does not consciously collect information. , Strong winds, and sudden changes in weather can occur quickly. As a result, you can live with peace of mind.

また、この発明にかかる実施の形態1の飛行型ロボット100は、ドローン101に搭載されたスピーカー204を備え、特定のユーザー600に向けてスピーカー204から音声を出力するとともに、当該特定のユーザー600の周囲を飛行することを特徴としている。 Further, the flight-type robot 100 according to the first embodiment of the present invention includes the speaker 204 mounted on the drone 101, outputs voice from the speaker 204 toward the specific user 600, and outputs sound from the speaker 204 to the specific user 600. It is characterized by flying around.

この発明にかかる実施の形態1の飛行型ロボット100によれば、特定のユーザー600の周囲を自動操縦によって飛行しながらスピーカー204から音声を出力することにより、特定のユーザー600を飼い主として鳴き声である音声を発しながらコミュニケーションを要求するというペットを模した動作をすることができる。これにより、特定のユーザー600の関心をより確実に惹き付け、特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えることができる。 According to the flight-type robot 100 according to the first embodiment of the present invention, the specific user 600 is the owner of the specific user 600 by outputting the sound from the speaker 204 while flying around the specific user 600 by autopilot. It is possible to imitate a pet by requesting communication while emitting voice. As a result, it is possible to more surely attract the interest of the specific user 600, heal the mind of the specific user 600, and give a feeling of satisfaction to the specific user 600.

また、この発明にかかる実施の形態1の飛行型ロボット100は、ドローン101に搭載されたマイク203を備え、マイク203によって所定の音声が集音された場合、特定のユーザー600の周囲を飛行することを特徴としている。 Further, the flight-type robot 100 according to the first embodiment of the present invention includes a microphone 203 mounted on the drone 101, and when a predetermined voice is collected by the microphone 203, it flies around a specific user 600. It is characterized by that.

この発明にかかる実施の形態1の飛行型ロボット100によれば、特定のユーザー600の声、住宅の玄関や門に設置された呼び鈴の音、スマートフォンへの着信音などの所定の音声が集音された場合に、特定のユーザー600の周囲を自動操縦によって飛行することにより、所定の音声を契機として、特定のユーザー600とのコミュニケーションに応じたり、第三者の来訪やスマートフォンへの着信を特定のユーザー600に伝達したりすることができる。 According to the flight-type robot 100 according to the first embodiment of the present invention, predetermined voices such as the voice of a specific user 600, the sound of a doorbell installed at the entrance or gate of a house, and the ringtone to a smartphone are collected. In that case, by flying around a specific user 600 by automatic control, it responds to communication with a specific user 600, or identifies a third party's visit or an incoming call to a smartphone, triggered by a predetermined voice. It can be transmitted to the user 600 of.

また、この発明にかかる実施の形態1の飛行型ロボット100は、特定のユーザー600の声が集音された場合に、特定のユーザー600の周囲を自動操縦によって飛行することにより、特定のユーザー600に「自分が呼んだらやってきた」という気持ちを持たせることができ、嬉しくさせ、ペットとのコミュニケーションを体験させることができる。 Further, the flight-type robot 100 according to the first embodiment of the present invention flies around the specific user 600 by autopilot when the voice of the specific user 600 is collected, thereby causing the specific user 600 to fly. You can make them feel "I came when I called them", which makes them happy and allows them to experience communication with their pets.

これにより、特定のユーザー600の心を癒やすのみならず、必要な状況において必要な情報を特定のユーザー600に伝達することができる。特に、聴覚が不自由なユーザーに対して必要な状況において必要な情報をユーザーに伝達することにより、入手が難しく飼育に負担がかかる聴導犬による補助を受ける場合と比較して、当該ユーザーの生活を容易かつ安価に支援することができる。 This not only heals the mind of the specific user 600, but also can convey necessary information to the specific user 600 in the necessary situation. In particular, the life of a hearing-impaired user is compared to the case of receiving assistance from a hearing dog, which is difficult to obtain and burdensome to breed by transmitting necessary information to the user in the necessary situation. Can be supported easily and inexpensively.

また、この発明にかかる実施の形態1の飛行型ロボット100は、ドローン101に搭載されたスピーカー204を備え、マイク203によって所定の音声が集音された場合、特定のユーザー600に向けてスピーカー204から音声を出力するとともに、当該特定のユーザー600の周囲を飛行することを特徴としている。 Further, the flight robot 100 according to the first embodiment of the present invention includes a speaker 204 mounted on the drone 101, and when a predetermined sound is collected by the microphone 203, the speaker 204 is directed to a specific user 600. It is characterized by outputting sound from the user and flying around the specific user 600.

この発明にかかる実施の形態1の飛行型ロボット100によれば、特定のユーザー600の声、住宅の玄関や門に設置された呼び鈴の音、スマートフォンへの着信音などの所定の音声が集音された場合に、特定のユーザー600の周囲を自動操縦によって飛行しながらスピーカー204から音声を出力することにより、特定のユーザー600を飼い主として鳴き声である音声を発しながらコミュニケーションを要求するというペットを模した動作をしたり、呼び鈴の音やスマートフォンへの着信に気づいていない特定のユーザー600に対して、第三者の来訪やスマートフォンへの着信を特定のユーザー600に伝達したりすることができる。 According to the flight-type robot 100 according to the first embodiment of the present invention, predetermined voices such as the voice of a specific user 600, the sound of a doorbell installed at the entrance or gate of a house, and the ringtone to a smartphone are collected. In this case, by automatically maneuvering around the specific user 600 and outputting the sound from the speaker 204, the specific user 600 imitates a pet that requests communication while emitting the voice that is the owner. It is possible to transmit a third party's visit or an incoming call to the smartphone to the specific user 600 to the specific user 600 who is not aware of the sound of the doorbell or the incoming call to the smartphone.

これにより、特定のユーザー600の関心をより確実に惹き付け、特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えたり、必要な状況において必要な情報を特定のユーザー600に伝達したりすることができる。そして、これによって、特定のユーザー600の心理状態や生活をより豊かにすることができる。 This will more reliably attract the attention of the specific user 600, heal the mind of the specific user 600, give the specific user 600 a sense of satisfaction, and provide the necessary information in the required situation to the specific user 600. Can be communicated to. As a result, the psychological state and life of the specific user 600 can be enriched.

また、この発明にかかる実施の形態1の飛行型ロボット100は、スピーカー204から出力する音声が、動物の鳴き声を模した音声であることを特徴としている。 Further, the flight-type robot 100 according to the first embodiment of the present invention is characterized in that the sound output from the speaker 204 is a sound imitating the bark of an animal.

この発明にかかる実施の形態1の飛行型ロボット100によれば、動物の鳴き声を模した音声を出力することにより、特定のユーザー600の関心をより確実に惹き付けることができる。これにより、特定のユーザー600に対して、ペットとのコミュニケーションをとっている実感を強く持たせ、特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えることができる。 According to the flight-type robot 100 according to the first embodiment of the present invention, it is possible to more reliably attract the interest of a specific user 600 by outputting a voice imitating the bark of an animal. As a result, it is possible to give the specific user 600 a strong feeling of communicating with the pet, heal the mind of the specific user 600, and give the specific user 600 a sense of satisfaction.

また、この発明にかかる実施の形態1の飛行型ロボット100は、所定の音声が、前記特定のユーザー600の声であることを特徴とする。 Further, the flight-type robot 100 according to the first embodiment of the present invention is characterized in that the predetermined voice is the voice of the specific user 600.

この発明にかかる実施の形態1の飛行型ロボット100によれば、マイク203によって特定のユーザー600の声が集音された場合に、特定のユーザー600の周囲を自動操縦によって飛行する。これにより、あたかも、特定のユーザー600の呼び声に応じてやってきたような動作を模し、特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えることができる。また、特定のユーザー600以外の人物の呼び声には反応しないことから、飛行型ロボット100に対する親近感や愛着をもたせ、特定のユーザー600に充足感を与えることができる。 According to the flight-type robot 100 according to the first embodiment of the present invention, when the voice of the specific user 600 is collected by the microphone 203, the robot flies around the specific user 600 by autopilot. As a result, it is possible to imitate the operation as if it came in response to the call of the specific user 600, heal the mind of the specific user 600, and give a feeling of satisfaction to the specific user 600. Further, since it does not respond to the call of a person other than the specific user 600, it is possible to give a feeling of familiarity and attachment to the flying robot 100 and to give a feeling of satisfaction to the specific user 600.

このように、この発明にかかる実施の形態1の飛行型ロボット100は、ペットのように自律的に移動して、人物に愛玩されることを主眼とし、ペットを模した自然な動作をおこなって特定のユーザーとのコミュニケーションをとることにより、当該特定のユーザーのストレスを下げ、癒やしを与えることができる。そして、これにより、たとえば、一人暮らしの人や高齢の人の寂しさや孤独感を和らげることができ、精神的に充足した、穏やかな生活の一助とすることができる。 As described above, the flight-type robot 100 according to the first embodiment of the present invention moves autonomously like a pet, and mainly aims to be petted by a person, and performs a natural movement imitating a pet. By communicating with a specific user, the stress of the specific user can be reduced and healing can be given. As a result, for example, the loneliness and loneliness of a person living alone or an elderly person can be alleviated, and it is possible to contribute to a mentally satisfied and calm life.

<実施の形態2>
つぎに、この発明にかかる実施の形態2の飛行型ロボットの一例について説明する。実施の形態2の飛行型ロボットは、特定の目的を達成するために動作する。具体的に、実施の形態2の飛行型ロボットは、聴覚に障害をもつ人を特定のユーザーとして認識し、当該特定のユーザーの生活において必要な音を知らせ、当該特定のユーザーを音源まで誘導する、いわゆる聴導犬と同様の目的を達成するために動作する。
<Embodiment 2>
Next, an example of the flight-type robot according to the second embodiment of the present invention will be described. The flight-type robot of the second embodiment operates to achieve a specific purpose. Specifically, the flight-type robot of the second embodiment recognizes a person with a hearing impairment as a specific user, informs the sound necessary for the life of the specific user, and guides the specific user to a sound source. Works to achieve the same purpose as the so-called hearing dog.

聴導犬は、盲導犬と比較して歴史が浅く、聴覚に障害をもつ人の数に対して聴導犬の数が圧倒的に少ないという現状がある。また、聴覚に障害をもつ人に貸与できるまでに要する、聴導犬の訓練期間は最短でも1年8ヶ月を要し、聴導犬の訓練費用は100万円程度かかるとされている。このような背景からも、聴覚に障害をもつ人に聴導犬が十分に行き渡っていないという現状がある。 Hearing dogs have a shorter history than guide dogs, and the number of hearing dogs is overwhelmingly smaller than the number of people with hearing impairments. In addition, it takes at least one year and eight months to train a hearing dog before it can be lent to a hearing-impaired person, and it is said that the training cost for a hearing dog is about 1 million yen. Against this background, the current situation is that hearing dogs are not sufficiently distributed to people with hearing impairments.

実施の形態2の飛行型ロボットは、このような現状を鑑み、聴導犬の貸与を受けることができずにいる聴覚に障害をもつ人の、自立への意欲や生活における安心感を高めることを目的とする。 In view of this situation, the flight-type robot of the second embodiment is intended to increase the motivation for independence and the sense of security in life of a hearing-impaired person who cannot receive a loan of a hearing dog. The purpose.

(飛行型ロボットの外観の一例)
図7は、この発明にかかる実施の形態2の飛行型ロボットの外観の一例を示す説明図である。実施の形態2においては、上述した実施の形態1と同一部分は同一符号で示し、説明を省略する。図7に示すように、飛行型ロボット700は、ドローン101に搭載されたカメラ103およびプロジェクター701を備えている。
(An example of the appearance of a flying robot)
FIG. 7 is an explanatory diagram showing an example of the appearance of the flight-type robot according to the second embodiment of the present invention. In the second embodiment, the same parts as those in the first embodiment described above are designated by the same reference numerals, and the description thereof will be omitted. As shown in FIG. 7, the flying robot 700 includes a camera 103 and a projector 701 mounted on the drone 101.

プロジェクター701は、プロジェクター光源、光学系、投影レンズなどを備えている(いずれも図示を省略する)。プロジェクター701は、プロジェクター光源から発した光を、光学系により所定経路に導き、投影レンズ701aを介してプロジェクター701の外部に照射することによって、光が照射された場所に画像を投影する。光学系は、プロジェクター光源から発した光の照度の均一性を高めるインテグレーターレンズ、非偏光光源から出射する光を所定の偏光方向に変換(偏光)する偏光変換素子、プロジェクター701光からの光をR・G・Bの三原色に分離するダイクロイック・ミラー、R・G・Bの各色の光に応じた画像を表示する液晶パネル、各液晶パネルが表示した各色の画像を合成するダイクロイック・プリズムなどによって構成される(いずれも図示を省略する)。 The projector 701 includes a projector light source, an optical system, a projection lens, and the like (all of which are not shown). The projector 701 guides the light emitted from the projector light source to a predetermined path by an optical system and irradiates the outside of the projector 701 through the projection lens 701a to project an image on the irradiated place. The optical system includes an integrator lens that enhances the uniformity of the illuminance of the light emitted from the projector light source, a polarization conversion element that converts (polarizes) the light emitted from the non-polarized light source into a predetermined polarization direction, and R the light from the projector 701 light. -Composed of a dichroic mirror that separates into the three primary colors of GB, a liquid crystal panel that displays images corresponding to the light of each color of R, GB, and a dichroic prism that synthesizes images of each color displayed by each liquid crystal panel. (In each case, the illustration is omitted).

プロジェクター701としては、たとえば、プロジェクター光源にレーザーを採用したレーザー方式のプロジェクターを用いることができる。レーザー方式のプロジェクターを用いることにより、プロジェクター701の小型化を図ることができる。具体的に、レーザー方式のプロジェクターは、プロジェクター光源に水銀ランプを採用した水銀ランプ方式のプロジェクターよりも発熱を低く抑えることができるため、冷却ファンなどの機構を省くことによる小型化および軽量化を図ることができる。 As the projector 701, for example, a laser type projector that employs a laser as a projector light source can be used. By using a laser type projector, the size of the projector 701 can be reduced. Specifically, a laser-type projector can suppress heat generation lower than a mercury lamp-type projector that uses a mercury lamp as the projector light source, so it is possible to reduce the size and weight by omitting a mechanism such as a cooling fan. be able to.

また、レーザー方式のプロジェクターを用いることにより、迅速に起動して画像の投影を開始することができる。また、レーザー方式のプロジェクターを用いることにより、水銀ランプ方式のプロジェクターよりも、消費電力を抑えつつ、投影される画像の高輝度化を図ることができる。 Further, by using a laser type projector, it is possible to start up quickly and start projecting an image. Further, by using the laser type projector, it is possible to increase the brightness of the projected image while suppressing the power consumption as compared with the mercury lamp type projector.

水銀ランプ方式のプロジェクターは、投影(光軸)方向が水平方向になる状態で使用することが推奨されているため投影方向の自由度が制限される一方で、レーザー方式のプロジェクターは、光軸を水平方向に対して傾けた状態で使用することができる。このため、レーザー方式のプロジェクターは、投影方向の高い自由度を確保することができ、壁面のみならず地面・床面にも画像を投影することができる。 The mercury lamp type projector is recommended to be used in a state where the projection (optical axis) direction is horizontal, so the degree of freedom in the projection direction is limited, while the laser type projector uses the optical axis. It can be used in a state of being tilted with respect to the horizontal direction. Therefore, the laser type projector can secure a high degree of freedom in the projection direction, and can project an image not only on the wall surface but also on the ground / floor surface.

プロジェクター701は、ドローン101に固定されており、ドローン101の移動(飛行)にともなって移動する。プロジェクター701は、ドローン101に対して、姿勢調整が可能な状態で連結されていてもよい。具体的には、たとえば、プロジェクター701は、ドローン101の底面部にボールジョイントなどの自在継手を介して連結することができる。プロジェクター701を、ボールジョイントなどの自在継手を介してドローン101に連結することにより、プロジェクター701の姿勢の調整にかかる高い自由度を確保することができる。 The projector 701 is fixed to the drone 101 and moves with the movement (flying) of the drone 101. The projector 701 may be connected to the drone 101 in a state in which the posture can be adjusted. Specifically, for example, the projector 701 can be connected to the bottom surface of the drone 101 via a universal joint such as a ball joint. By connecting the projector 701 to the drone 101 via a universal joint such as a ball joint, it is possible to secure a high degree of freedom in adjusting the posture of the projector 701.

この場合、飛行型ロボット700は、ドローン101に対するプロジェクター701の姿勢を人手を介さずに調整するために、ドローン101に対するプロジェクター701の姿勢を変化させる駆動機構を備えていてもよい。駆動機構は、たとえば、モーターやギア列などによって構成することができる。ドローン101に対するプロジェクター701の姿勢を調整可能とすることにより、画像を投影する場所に応じた最適な角度で画像を投影することができる。 In this case, the flying robot 700 may be provided with a drive mechanism that changes the attitude of the projector 701 with respect to the drone 101 in order to adjust the attitude of the projector 701 with respect to the drone 101 without human intervention. The drive mechanism can be configured by, for example, a motor, a gear train, or the like. By making it possible to adjust the posture of the projector 701 with respect to the drone 101, it is possible to project the image at an optimum angle according to the place where the image is projected.

(飛行型ロボット700のハードウエア構成)
つぎに、飛行型ロボット700のハードウエア構成について説明する。図8は、この発明にかかる実施の形態2の飛行型ロボット700のハードウエア構成を示す説明図である。図8に示すように、飛行型ロボット700のハードウエアは、バッテリー201、モーター202、カメラ103、マイク203、スピーカー204、GPSセンサー205、対物センサー206、制御回路207、通信I/F208、LEDランプ104、ソーラーセル106、プロジェクター701などによって構成される。
(Hardware configuration of flying robot 700)
Next, the hardware configuration of the flying robot 700 will be described. FIG. 8 is an explanatory diagram showing a hardware configuration of the flight-type robot 700 according to the second embodiment of the present invention. As shown in FIG. 8, the hardware of the flying robot 700 includes a battery 201, a motor 202, a camera 103, a microphone 203, a speaker 204, a GPS sensor 205, an objective sensor 206, a control circuit 207, a communication I / F 208, and an LED lamp. It is composed of 104, a solar cell 106, a projector 701, and the like.

上記のように、プロジェクター701は、プロジェクター光源から発した光を、光学系により所定経路に導き、投影レンズ701aを介してプロジェクター701の外部に照射することによって、光が照射された場所に画像を投影する。プロジェクター701は、画像を投影する位置からの距離に応じて、プロジェクター光源から発する光の強度を調整することにより、投影される画像の画質を調整するようにしてもよい。プロジェクター701と、画像を投影する位置との間の距離は、たとえば、距離センサーを用いて特定することができる。距離センサーは、たとえば、レーザ距離センサー、超音波センサー、赤外線センサーなど公知の各種のセンサーを用いることができる。 As described above, the projector 701 guides the light emitted from the projector light source to a predetermined path by an optical system and irradiates the outside of the projector 701 via the projection lens 701a to produce an image at a place where the light is irradiated. Project. The projector 701 may adjust the image quality of the projected image by adjusting the intensity of the light emitted from the projector light source according to the distance from the position where the image is projected. The distance between the projector 701 and the position where the image is projected can be specified, for example, by using a distance sensor. As the distance sensor, various known sensors such as a laser distance sensor, an ultrasonic sensor, and an infrared sensor can be used.

(飛行型ロボット700の機能的構成)
つぎに、飛行型ロボット700の機能的構成について説明する。実施の形態2の飛行型ロボット700の機能は、上述した飛行型ロボット100と同様に、記憶部301と、検出部302と、撮影部303と、取得部304と、駆動部305と、出力部306と、制御部307と、によって実現される。
(Functional configuration of the flying robot 700)
Next, the functional configuration of the flying robot 700 will be described. The functions of the flight-type robot 700 according to the second embodiment are the storage unit 301, the detection unit 302, the photographing unit 303, the acquisition unit 304, the drive unit 305, and the output unit, similarly to the flight-type robot 100 described above. It is realized by 306 and the control unit 307.

飛行型ロボット700における制御部307は、たとえば、マイク203によって所定の音声が集音された場合に、駆動部305を制御することによってドローン101を飛行させ、当該所定の音声に応じて、認識した特定のユーザー600の周囲を飛行する。 For example, when a predetermined voice is collected by the microphone 203, the control unit 307 of the flight-type robot 700 flies the drone 101 by controlling the drive unit 305, and recognizes the drone 101 in response to the predetermined voice. Fly around a specific user 600.

所定の音声は、たとえば、電話機(固定電話、スマートフォンなど)に電話および電子メールの少なくとも一方が着信していることを通知する着信音とすることができる。また、所定の音声は、たとえば、建物または敷地の入り口に、当該建物または敷地への訪問者が当該建物または敷地の居住者または管理者を呼び出すために設けられた呼び鈴の呼出音とすることができる。 The predetermined voice can be, for example, a ringtone notifying the telephone (landline, smartphone, etc.) that at least one of the telephone and the e-mail has arrived. In addition, the predetermined voice may be, for example, a ringing tone of a doorbell provided at the entrance of a building or site for a visitor to the building or site to call a resident or manager of the building or site. can.

また、所定の音声は、たとえば、所定の閾値以上の音圧の音声とすることができる。具体的に、所定の音声は、たとえば、警報音・サイレンのように、不特定多数の者に周知することを目的として大音量で出力される音声とすることができる。より具体的には、たとえば、音圧レベル70dB以上の音声とすることができる。 Further, the predetermined voice can be, for example, a voice having a sound pressure equal to or higher than a predetermined threshold value. Specifically, the predetermined voice can be a voice that is output at a loud volume for the purpose of disseminating it to an unspecified number of people, such as an alarm sound or a siren. More specifically, for example, the sound can be a sound having a sound pressure level of 70 dB or higher.

また、所定の音声は、たとえば、特定のユーザー600から所定範囲内において発生する音声であってもよい。具体的には、目覚まし時計、キッチンタイマー、スマートフォンなど、特定のユーザー600との位置関係が頻繁に変わりうるものが発する音声とすることができる。さらに、所定の音声は、沸騰しているヤカンの音、ガス漏れ検知ブザー、冷蔵後の扉の閉め忘れや半ドアを知らせるアラームなどであってもよい。 Further, the predetermined voice may be, for example, a voice generated within a predetermined range from a specific user 600. Specifically, it can be a voice emitted by an alarm clock, a kitchen timer, a smartphone, or the like, whose positional relationship with a specific user 600 can change frequently. Further, the predetermined sound may be a boiling kettle sound, a gas leak detection buzzer, an alarm for forgetting to close the door after refrigeration, or an alarm notifying the half-door.

所定の音声は、あらかじめ制御回路207におけるメモリに記憶した音声であってもよく、通信I/F208を介して取得した情報に基づき学習した音声であってもよい。所定の音声は、特定のユーザー600の声であってもよい。所定の音声は、降雨や発雷などの自然環境の変化にともなう音声であってもよい。 The predetermined voice may be a voice stored in a memory in the control circuit 207 in advance, or may be a voice learned based on the information acquired via the communication I / F 208. The predetermined voice may be the voice of a specific user 600. The predetermined voice may be a voice accompanying changes in the natural environment such as rainfall and lightning.

制御部307は、マイク203によって所定の音声が集音された場合に、特定のユーザー600に対して、音声の発生源を案内するように、ドローン101を飛行させる。制御部307は、マイク203によって所定の音声が集音された場合に、たとえば、認識した特定のユーザー600の近傍と、所定の音声の発生源との間を飛行するように、ドローン101を飛行させる。より具体的には、たとえば、特定のユーザー600の周囲を飛行して当該特定のユーザー600の注意を引きつけてから、音声の発生源まで飛行する動作を繰り返しおこなう。 The control unit 307 flies the drone 101 so as to guide the source of the voice to the specific user 600 when the predetermined voice is collected by the microphone 203. The control unit 307 flies the drone 101 so as to fly between the vicinity of the recognized specific user 600 and the source of the predetermined voice when the predetermined voice is collected by the microphone 203, for example. Let me. More specifically, for example, the operation of flying around the specific user 600 to attract the attention of the specific user 600 and then flying to the source of the voice is repeated.

制御部307は、所定の音声に応じて、当該所定の音声に対応する飛行態様で飛行するように、ドローン101を飛行させてもよい。具体的には、制御部307は、たとえば、電話の着信があった場合に、特定のユーザー600の前方においてドローン101をジグザグに飛行させる。また、具体的には、制御部307は、たとえば、呼び鈴が鳴った場合に、特定のユーザー600の周囲を飛行してから、音声の発生源(玄関)までドローン101を飛行させてもよい。 The control unit 307 may fly the drone 101 in response to a predetermined voice so as to fly in a flight mode corresponding to the predetermined voice. Specifically, the control unit 307 makes the drone 101 fly in a zigzag manner in front of the specific user 600, for example, when there is an incoming call. Specifically, the control unit 307 may fly the drone 101 to the voice source (entrance) after flying around the specific user 600, for example, when the doorbell rings.

飛行型ロボット700における出力部306は、飛行型ロボット700の状態に応じて、飛行型ロボット700の飛行動作と連動して動作する。出力部306は、たとえば、マイク203によって所定の音声が集音された場合に、当該所定の音声に応じて特定のユーザー600の周囲を飛行する動作に連動して、プロジェクター701から画像を投影する。画像は、特定のユーザー600の前方に投影することが好ましい。 The output unit 306 of the flight-type robot 700 operates in conjunction with the flight operation of the flight-type robot 700 according to the state of the flight-type robot 700. For example, when a predetermined voice is collected by the microphone 203, the output unit 306 projects an image from the projector 701 in conjunction with an operation of flying around a specific user 600 in response to the predetermined voice. .. The image is preferably projected in front of a particular user 600.

具体的には、たとえば、電話の着信があった場合は、電話の画像を投影する。また、具体的には、たとえば、呼び鈴が鳴った場合は、玄関や門の画像や、来客をあらわす画像を投影する。子供が泣いている場合は、泣いている子供の画像を投影してもよい。投影する画像の画像データは、たとえば、通信I/F208を介してネットワークN上から取得することができる。 Specifically, for example, when there is an incoming call, an image of the phone is projected. Specifically, for example, when the doorbell rings, an image of the entrance or the gate or an image showing a visitor is projected. If the child is crying, an image of the crying child may be projected. The image data of the image to be projected can be acquired from the network N via, for example, the communication I / F 208.

投影する画像は、カメラ103によって撮影した画像であってもよい。この場合、飛行型ロボット700は、たとえば、所定の音声が鳴っていることを検知するごとに、当該所定の音声の発生源を撮影し、撮影した画像を投影する。このように、実際の物品の画像を投影することにより、特定のユーザー600に対して、音声の発生源を確実に理解させることができる。また、これにより、複数の画像データを記憶しておくことなく、適切な画像を投影することができる。 The image to be projected may be an image taken by the camera 103. In this case, for example, each time the flight robot 700 detects that a predetermined voice is sounding, the flight robot 700 photographs the source of the predetermined voice and projects the captured image. By projecting an image of an actual article in this way, it is possible to make a specific user 600 surely understand the source of the sound. Further, this makes it possible to project an appropriate image without storing a plurality of image data.

あるいは、出力部306は、たとえば、所定の音声に応じて特定のユーザー600の周囲を飛行する動作に連動して、プロジェクター701から文字を投影してもよい。具体的には、たとえば、「電子メールの着信がありました」、「玄関の呼び鈴が鳴っています」などの文字(メッセージ)を、特定のユーザー600の前方に投影する。特定のユーザー600の前方位置は、カメラ103によって撮影した画像に基づいて判断することができる。この場合、出力部306は、具体的には、たとえば、図7や図8に示したプロジェクター701などによって、その機能を実現することができる。 Alternatively, the output unit 306 may project characters from the projector 701, for example, in conjunction with an operation of flying around a specific user 600 in response to a predetermined voice. Specifically, for example, characters (messages) such as "There was an incoming e-mail" and "The doorbell is ringing" are projected in front of a specific user 600. The front position of the specific user 600 can be determined based on the image taken by the camera 103. In this case, the output unit 306 can specifically realize its function by, for example, the projector 701 shown in FIGS. 7 and 8.

また、出力部306は、たとえば、所定の音声に応じて特定のユーザー600の周囲を飛行する動作に連動して、LEDランプ104を点灯させたり点滅させたりしてもよい。この場合、出力部306は、具体的には、たとえば、図8に示したLEDランプ104などによって、その機能を実現することができる。 Further, the output unit 306 may turn on or blink the LED lamp 104 in conjunction with the operation of flying around the specific user 600 in response to a predetermined voice, for example. In this case, the output unit 306 can specifically realize its function by, for example, the LED lamp 104 shown in FIG.

所定の音声に応じてLEDランプ104を点灯(点滅)させる場合、赤色や橙色など、波長が長く、特定のユーザー600が気づきやすい発光色としてもよい。また、照度を調整し、平時よりも高い照度で点灯(点滅)させてもよい。また、屋内あるいは屋外であっても夜間の照度よりも、屋外における昼間の照度をより高くなるように、LEDランプ104を点灯(点滅)させてもよい。さらに、LEDランプ104に代えて、プロジェクター701から光を発してもよい。 When the LED lamp 104 is turned on (blinks) in response to a predetermined voice, the emission color may be a long wavelength such as red or orange, which is easily noticed by a specific user 600. Further, the illuminance may be adjusted to light (blink) at a higher illuminance than in normal times. Further, the LED lamp 104 may be turned on (blinking) so that the illuminance in the daytime outdoors is higher than the illuminance in the daytime even indoors or outdoors. Further, instead of the LED lamp 104, light may be emitted from the projector 701.

(飛行型ロボット700の処理手順の一例)
つぎに、飛行型ロボット700の処理手順の一例について説明する。図9は、この発明にかかる実施の形態2の飛行型ロボット700の処理手順の一例を示すフローチャートである。図9のフローチャートにおいて、まず、マイク203を介して音声を取得し(ステップS901)、取得した音声を解析する(ステップS902)。ステップS902においては、たとえば、取得した音声の強さ(大きさ)、周波数、音と音の間隔など、音声の特徴量を示すデータを生成する。
(Example of processing procedure of flying robot 700)
Next, an example of the processing procedure of the flying robot 700 will be described. FIG. 9 is a flowchart showing an example of the processing procedure of the flight-type robot 700 according to the second embodiment of the present invention. In the flowchart of FIG. 9, first, voice is acquired via the microphone 203 (step S901), and the acquired voice is analyzed (step S902). In step S902, for example, data indicating the feature amount of the voice such as the strength (magnitude), the frequency, and the interval between the sounds of the acquired voice is generated.

つぎに、ステップS902における解析結果に基づいて、取得した音声が所定の音声か否かを判断する(ステップS903)。ステップS903において、取得した音声が所定の音声ではない場合(ステップS903:No)、ステップS901へ移行して、音声を取得する。 Next, based on the analysis result in step S902, it is determined whether or not the acquired voice is a predetermined voice (step S903). If the acquired voice is not a predetermined voice in step S903 (step S903: No), the process proceeds to step S901 to acquire the voice.

一方、ステップS903において、取得した音声が所定の音声である場合(ステップS903:Yes)、飛行を開始する(ステップS904)。ステップS904においては、たとえば、ドローン101を駆動し、充電スポット400から飛び立ち、障害物を回避しながら所定の範囲内を飛行する。 On the other hand, in step S903, when the acquired voice is a predetermined voice (step S903: Yes), the flight is started (step S904). In step S904, for example, the drone 101 is driven, takes off from the charging spot 400, and flies within a predetermined range while avoiding obstacles.

つぎに、飛行中にカメラ103によって撮影した画像に基づいて、特定のユーザー600を検出したか否かを判断する(ステップS905)。ステップS905において検出する特定のユーザー600は、たとえば、上記のように、撮影部303によって所定時間以上または所定回数以上撮影された人物であってもよく、特徴量(画像や声など)をあらかじめメモリに記憶した人物であってもよい。特徴量をあらかじめメモリに記憶した人物を特定のユーザー600とすることにより、飛行型ロボット700の利用をはじめてすぐに、該当する人物を特定のユーザー600として認識することができる。 Next, it is determined whether or not a specific user 600 has been detected based on the image taken by the camera 103 during the flight (step S905). The specific user 600 detected in step S905 may be, for example, a person who has been photographed by the photographing unit 303 for a predetermined time or more or a predetermined number of times or more, and a feature amount (image, voice, etc.) is stored in advance in the memory. It may be a person memorized in. By setting a person whose feature amount is stored in the memory in advance as the specific user 600, the corresponding person can be recognized as the specific user 600 immediately after the use of the flight robot 700.

ステップS905においては、バッテリー201の残量に応じて、特定のユーザー600を検出するまで(ステップS503:No)、飛行をおこなう。特定のユーザー600を検出しない状態で、充電スポット400に戻ることができる閾値までバッテリー201の残量が低下した場合、帰還処理をおこなう。 In step S905, the flight is performed until a specific user 600 is detected (step S503: No) according to the remaining amount of the battery 201. When the remaining amount of the battery 201 drops to the threshold value at which the charging spot 400 can be returned without detecting the specific user 600, the feedback process is performed.

ステップS905において、特定のユーザー600を検出した場合(ステップS905:Yes)、所定のプロセスの実行を開始する(ステップS906)。ステップS906においては、たとえば、特定のユーザー600の周囲を飛行して当該特定のユーザー600の注意を引きつけるような動作と、特定のユーザー600と音声の発生源との間を往復する動作を繰り返しおこなう。また、ステップS906においては、たとえば、音声が発生していることや音声の発生源、あるいは、発生した音声にかかる内容(事象)を案内する文字を、プロジェクター701から投影してもよい。 When a specific user 600 is detected in step S905 (step S905: Yes), execution of a predetermined process is started (step S906). In step S906, for example, an operation of flying around a specific user 600 to attract the attention of the specific user 600 and an operation of reciprocating between the specific user 600 and the voice source are repeatedly performed. .. Further, in step S906, for example, characters that guide the generation of voice, the source of voice, or the content (event) related to the generated voice may be projected from the projector 701.

ステップS906における処理は、特定のユーザー600が音声の発生源(発生原因)に気づくまで(ステップS907:No)、継続しておこなう。あるいは、ステップS906における処理は、バッテリー201の残量に応じて、飛行型ロボット700が充電スポット400まで帰還できる範囲でおこなってもよい。具体的には、たとえば、特定のユーザー600が音源に気づかない状態で、充電スポット400に戻ることができる閾値までバッテリー201の残量が低下した場合、帰還処理をおこなう。 The process in step S906 is continuously performed until the specific user 600 notices the source (cause of generation) of the voice (step S907: No). Alternatively, the process in step S906 may be performed within a range in which the flying robot 700 can return to the charging spot 400 according to the remaining amount of the battery 201. Specifically, for example, when the remaining amount of the battery 201 drops to the threshold value at which the charging spot 400 can be returned to the charging spot 400 without the specific user 600 noticing the sound source, the feedback process is performed.

ステップS907において、特定のユーザー600が音源に気づいた場合(ステップS907:Yes)、帰還処理をおこなって(ステップS908)、一連の処理を終了する。ステップS907においては、たとえば、カメラ103によって撮影した画像に基づいて、特定のユーザー600が音声の発生源に近づく動作をおこなったかどうかを判断するなどして、特定のユーザー600が音声の発生源に気づいたか否かを判断することができる。 In step S907, when the specific user 600 notices the sound source (step S907: Yes), the feedback process is performed (step S908), and the series of processes is terminated. In step S907, for example, based on the image taken by the camera 103, the specific user 600 determines whether or not the specific user 600 has performed an operation approaching the sound source, and the specific user 600 becomes the sound source. You can judge whether you noticed it or not.

以上説明したように、この発明にかかる実施の形態2の飛行型ロボット700は、自動操縦により飛行するドローン101と、ドローン101に搭載されたカメラ103と、ドローン101に搭載されたマイク203と、を備え、カメラ103によって撮影された画像に基づいて特定のユーザー600を認識し、マイク203によって所定の音声が集音された場合に、当該所定の音声に応じて、認識した特定のユーザー600の周囲を飛行することを特徴としている。 As described above, the flight-type robot 700 according to the second embodiment according to the present invention includes a drone 101 flying by autopilot, a camera 103 mounted on the drone 101, a microphone 203 mounted on the drone 101, and a microphone 203. The specific user 600 is recognized based on the image taken by the camera 103, and when a predetermined sound is collected by the microphone 203, the recognized specific user 600 is recognized according to the predetermined sound. It is characterized by flying around.

この発明にかかる実施の形態2の飛行型ロボット700によれば、マイク203によって所定の音声が集音された場合に、カメラ103によって撮影された画像に基づいて認識した特定のユーザー600の周囲を飛行することにより、所定の音声が鳴っていることを飛行型ロボット700の動作によって視覚的に案内することができる。これにより、特定のユーザー600が聴覚に障害をもつ場合にも、所定の音声が鳴っていることを確実に伝達することができる。 According to the flight-type robot 700 according to the second embodiment of the present invention, when a predetermined sound is collected by the microphone 203, the surroundings of the specific user 600 recognized based on the image taken by the camera 103 are observed. By flying, it is possible to visually guide that a predetermined sound is sounding by the operation of the flying robot 700. As a result, even when a specific user 600 has a hearing impairment, it is possible to reliably convey that a predetermined voice is sounding.

これにより、聴覚に障害をもつために自身の周囲の状況がわかりづらいという事態をなくし、自身の周囲の状況を把握するために常に意識を張り巡らせることによる疲労やストレスを緩和することができる。そして、格別意識をしていなくても自身の周囲の状況がわかりやすくなるため、音が聞こえないことによる生活の恐怖を軽減し、自立への意欲や生活における安心感を高めることができる。 As a result, it is possible to eliminate the situation where it is difficult to understand the situation around oneself due to hearing loss, and to alleviate the fatigue and stress caused by constantly keeping consciousness in order to grasp the situation around oneself. And since it becomes easier to understand the situation around oneself without being particularly conscious, it is possible to reduce the fear of life due to the inability to hear sound, and to increase the motivation for independence and the sense of security in life.

また、この発明にかかる実施の形態2の飛行型ロボット700は、所定の音声に応じて、当該所定の音声に対応する飛行態様で、認識した特定のユーザー600の周囲を飛行することを特徴としている。 Further, the flight-type robot 700 according to the second embodiment of the present invention is characterized in that it flies around the recognized specific user 600 in a flight mode corresponding to the predetermined voice in response to the predetermined voice. There is.

この発明にかかる実施の形態2の飛行型ロボット700によれば、飛行態様によって音声の種類や内容を視覚的に案内することができる。これにより、特定のユーザー600が聴覚に障害をもつ場合にも、特定のユーザー600に対して、所定の音声が鳴っていること、および、その音声の種類や内容を迅速かつ詳しく案内することができる。これによって、視覚に障害をもつ特定のユーザー600の生活の利便性を向上させることができる。 According to the flight-type robot 700 according to the second embodiment of the present invention, it is possible to visually guide the type and content of the voice depending on the flight mode. As a result, even when a specific user 600 has a hearing impairment, it is possible to promptly and in detail inform the specific user 600 that a predetermined voice is sounding and the type and content of the voice. can. This makes it possible to improve the convenience of life of a specific user 600 who is visually impaired.

また、この発明にかかる実施の形態2の飛行型ロボット700は、ドローン101に搭載されたプロジェクター701を備え、マイク203によって所定の音声が集音された場合に、認識した特定のユーザー600の前方に、当該所定の音声に応じた画像を前記プロジェクター701から投影することを特徴としている。 Further, the flight-type robot 700 according to the second embodiment of the present invention includes a projector 701 mounted on the drone 101, and is in front of a specific user 600 who recognizes when a predetermined voice is collected by the microphone 203. In addition, it is characterized in that an image corresponding to the predetermined sound is projected from the projector 701.

この発明にかかる実施の形態2の飛行型ロボット700によれば、マイク203によって所定の音声が集音された場合に、カメラ103によって撮影された画像に基づいて認識した特定のユーザー600の周囲を飛行するとともに、認識した特定のユーザー600の前方に、当該所定の音声に応じた画像を前記プロジェクター701から投影することにより、飛行型ロボット700の動作、および、画像によって、所定の音声が鳴っていることを視覚的に案内することができる。これにより、特定のユーザー600が聴覚に障害をもつ場合にも、所定の音声が鳴っていることを確実にわかりやすく伝達することができる。 According to the flight-type robot 700 according to the second embodiment of the present invention, when a predetermined sound is collected by the microphone 203, the surroundings of the specific user 600 recognized based on the image taken by the camera 103 are recognized. By projecting an image corresponding to the predetermined sound from the projector 701 in front of the recognized specific user 600 while flying, the operation of the flight type robot 700 and the predetermined sound are emitted by the image. It is possible to visually guide you to be there. As a result, even when a specific user 600 has a hearing impairment, it is possible to reliably and clearly convey that a predetermined voice is sounding.

また、この発明にかかる実施の形態2の飛行型ロボット700は、マイク203によって所定の音声が集音された場合に、認識した特定のユーザー600の前方に、当該所定の音声に応じた文字をプロジェクター701から投影することを特徴としている。 Further, the flight-type robot 700 according to the second embodiment of the present invention displays characters corresponding to the predetermined voice in front of the recognized specific user 600 when the predetermined voice is collected by the microphone 203. It is characterized by projecting from the projector 701.

この発明にかかる実施の形態2の飛行型ロボット700によれば、マイク203によって所定の音声が集音された場合に、カメラ103によって撮影された画像に基づいて認識した特定のユーザー600の周囲を飛行するとともに、認識した特定のユーザー600の前方に、当該所定の音声に応じた文字をプロジェクター701から投影することにより、飛行型ロボット700の動作、および、文字によって、所定の音声が鳴っていることを視覚的に案内することができる。これにより、特定のユーザー600が聴覚に障害をもつ場合にも、所定の音声が鳴っていることを確実にわかりやすく伝達することができる。 According to the flight-type robot 700 according to the second embodiment of the present invention, when a predetermined sound is collected by the microphone 203, the surroundings of the specific user 600 recognized based on the image taken by the camera 103 are observed. By projecting a character corresponding to the predetermined voice from the projector 701 in front of the recognized specific user 600 while flying, the operation of the flight-type robot 700 and the predetermined voice are sounded by the character. You can visually guide that. As a result, even when a specific user 600 has a hearing impairment, it is possible to reliably and clearly convey that a predetermined voice is sounding.

なお、この実施の形態で説明した飛行型ロボットの制御方法は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、CD-ROM、MO、DVD、USBメモリ、SSDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。 The control method of the flying robot described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, CD-ROM, MO, DVD, USB memory, SSD, etc., and is executed by being read from the recording medium by the computer. Further, this program may be a transmission medium that can be distributed via a network such as the Internet.

以上のように、この発明にかかる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法は、ペット型ロボットを求めるユーザーに有用であり、特に、容易な飼育を希望するユーザーに適している。 As described above, the flight-type robot, the control program for the flight-type robot, and the control method for the flight-type robot according to the present invention are useful for users who desire a pet-type robot, and are particularly suitable for users who desire easy breeding. ing.

100、700 飛行型ロボット
101 ドローン
103 カメラ
104 LEDランプ
106 ソーラーセル
201 バッテリー
202 モーター
203 マイク
204 スピーカー
205 GPSセンサー
206 対物センサー
207 制御回路
208 通信I/F
301 記憶部
302 検出部
303 撮影部
304 取得部
305 駆動部
306 出力部
307 制御部
400 充電スポット
401a 送電コイル
401b カバー
401c 電源ケーブル
402 外装部
600 特定のユーザー
701 プロジェクター
701a 投影レンズ
100, 700 Flying robot 101 Drone 103 Camera 104 LED lamp 106 Solar cell 201 Battery 202 Motor 203 Microphone 204 Speaker 205 GPS sensor 206 Objective sensor 207 Control circuit 208 Communication I / F
301 Storage unit 302 Detection unit 303 Imaging unit 304 Acquisition unit 305 Drive unit 306 Output unit 307 Control unit 400 Charging spot 401a Power transmission coil 401b Cover 401c Power cable 402 Exterior unit 600 Specific user 701 Projector 701a Projection lens

Claims (40)

自動操縦により飛行する無人航空機と、
前記無人航空機に搭載されたカメラと、
を備え、
前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、当該特定のユーザーの周囲を飛行することを特徴とする飛行型ロボット。
Unmanned aerial vehicles flying by autopilot and
The camera mounted on the unmanned aerial vehicle and
Equipped with
A flying robot characterized by recognizing a specific user based on an image taken by the camera and flying around the specific user.
前記特定のユーザーは、前記カメラによって所定時間以上または所定回数以上撮影された人物であることを特徴とする請求項1に記載の飛行型ロボット。 The flight-type robot according to claim 1, wherein the specific user is a person photographed by the camera for a predetermined time or more or a predetermined number of times or more. 前記特定のユーザーは、特定の範囲内において、前記カメラによって撮影された人物であることを特徴とする請求項1または2に記載の飛行型ロボット。 The flight-type robot according to claim 1 or 2, wherein the specific user is a person photographed by the camera within a specific range. 前記特定のユーザーの周囲を飛行中に、当該特定のユーザーの少なくとも一部が前記無人航空機に接近した場合、当該特定のユーザーから離れるように飛行することを特徴とする請求項1~3のいずれか一つに記載の飛行型ロボット。 Any of claims 1 to 3, wherein when at least a part of the specific user approaches the unmanned aerial vehicle while flying around the specific user, the aircraft flies away from the specific user. The flying robot described in one. 前記特定のユーザーの周囲を飛行中に、当該特定のユーザーが前記無人航空機を目視しない場合、当該特定のユーザーに接近するように飛行することを特徴とする請求項1~3のいずれか一つに記載の飛行型ロボット。 One of claims 1 to 3, wherein when the specific user does not see the unmanned aerial vehicle while flying around the specific user, the specific user flies so as to approach the specific user. The flying robot described in. 前記特定のユーザーの周囲を所定回数飛行した後、当該特定のユーザーから離れるように飛行することを特徴とする請求項1~3のいずれか一つに記載の飛行型ロボット。 The flight-type robot according to any one of claims 1 to 3, wherein the robot flies around the specific user a predetermined number of times and then flies away from the specific user. 前記無人航空機に搭載された無線通信インターフェースを備え、
前記無線通信インタフェースを介して、所定の情報を取得した場合、前記特定のユーザーの周囲を飛行することを特徴とする請求項1~6のいずれか一つに記載の飛行型ロボット。
Equipped with a wireless communication interface mounted on the unmanned aerial vehicle,
The flight-type robot according to any one of claims 1 to 6, wherein when a predetermined information is acquired via the wireless communication interface, the robot flies around the specific user.
前記所定の情報は、特定の端末装置から出力された通知情報であることを特徴とする請求項7に記載の飛行型ロボット。 The flight-type robot according to claim 7, wherein the predetermined information is notification information output from a specific terminal device. 前記所定の情報は、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報であることを特徴とする請求項7に記載の飛行型ロボット。 The predetermined information is a claim indicating that a disaster, an earthquake, a tsunami, a lightning strike, a rainfall, a strong wind, or a sudden change in the weather may occur within a predetermined time after the present time. Item 7. The flying robot according to Item 7. 前記無人航空機に搭載されたスピーカーを備え、
前記特定のユーザーに向けて前記スピーカーから音声を出力するとともに、当該特定のユーザーの周囲を飛行することを特徴とする請求項1~9のいずれか一つに記載の飛行型ロボット。
Equipped with a speaker mounted on the unmanned aerial vehicle
The flight-type robot according to any one of claims 1 to 9, wherein a voice is output from the speaker to the specific user and the robot flies around the specific user.
前記無人航空機に搭載されたマイクを備え、
前記マイクによって所定の音声が集音された場合、前記特定のユーザーの周囲を飛行することを特徴とする請求項1~10のいずれか一つに記載の飛行型ロボット。
Equipped with a microphone mounted on the unmanned aerial vehicle
The flight-type robot according to any one of claims 1 to 10, wherein when a predetermined sound is collected by the microphone, the robot flies around the specific user.
前記所定の音声は、電話機に電話および電子メールの少なくとも一方が着信していることを通知する着信音であることを特徴とする請求項11に記載の飛行型ロボット。 The flight-type robot according to claim 11, wherein the predetermined voice is a ringtone for notifying the telephone that at least one of a telephone and an e-mail has arrived. 前記所定の音声は、前記特定のユーザーの声であることを特徴とする請求項11に記載の飛行型ロボット。 The flight-type robot according to claim 11, wherein the predetermined voice is the voice of the specific user. 前記無人航空機に搭載されたスピーカーを備え、
前記マイクによって所定の音声が集音された場合、前記特定のユーザーに向けて前記スピーカーから音声を出力するとともに、当該特定のユーザーの周囲を飛行することを特徴とする請求項11~13のいずれか一つに記載の飛行型ロボット。
Equipped with a speaker mounted on the unmanned aerial vehicle
Any of claims 11 to 13, wherein when a predetermined sound is collected by the microphone, the sound is output from the speaker to the specific user and the person flies around the specific user. The flying robot described in one.
前記スピーカーから出力する音声は、動物の鳴き声を模した音声であることを特徴とする請求項10または14に記載の飛行型ロボット。 The flight-type robot according to claim 10 or 14, wherein the sound output from the speaker is a sound imitating the bark of an animal. カメラが搭載され、自動操縦により飛行する無人航空機が備えるコンピュータに、
前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、
認識された前記特定のユーザーの周囲を飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御プログラム。
A computer equipped with an unmanned aerial vehicle equipped with a camera and flying by autopilot,
Recognize a specific user based on the image taken by the camera
Fly around the recognized specific user,
A control program for a flying robot characterized by executing processing.
前記特定のユーザーの周囲を飛行中に、当該特定のユーザーの少なくとも一部が前記無人航空機に接近した場合、当該特定のユーザーから離れるように飛行させる、
処理を実行させることを特徴とする請求項16に記載の飛行型ロボットの制御プログラム。
When flying around the specific user and at least a part of the specific user approaches the unmanned aerial vehicle, the flight is made to move away from the specific user.
The control program for a flying robot according to claim 16, wherein the process is executed.
前記特定のユーザーの周囲を飛行中に、当該特定のユーザーが前記無人航空機を目視しない場合、当該特定のユーザーに接近するように飛行させる、
処理を実行させることを特徴とする請求項16に記載の飛行型ロボットの制御プログラム。
While flying around the specific user, if the specific user does not see the unmanned aerial vehicle, the flight is made to approach the specific user.
The control program for a flying robot according to claim 16, wherein the process is executed.
前記特定のユーザーの周囲を所定回数飛行した後、当該特定のユーザーから離れるように飛行させる、
処理を実行させることを特徴とする請求項16に記載の飛行型ロボットの制御プログラム。
After flying around the specific user a predetermined number of times, the flight is made to move away from the specific user.
The control program for a flying robot according to claim 16, wherein the process is executed.
カメラが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットに、
前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、
認識された前記特定のユーザーの周囲を飛行させる、
ことを特徴とする飛行型ロボットの制御方法。
For flying robots equipped with unmanned aerial vehicles equipped with cameras and flying by autopilot,
Recognize a specific user based on the image taken by the camera
Fly around the recognized specific user,
A control method for a flying robot.
前記特定のユーザーの周囲を飛行中に、当該特定のユーザーの少なくとも一部が前記無人航空機に接近した場合、当該特定のユーザーから離れるように飛行させる、
ことを特徴とする請求項20に記載の飛行型ロボットの制御方法。
When flying around the specific user and at least a part of the specific user approaches the unmanned aerial vehicle, the flight is made to move away from the specific user.
The control method for a flying robot according to claim 20.
前記特定のユーザーの周囲を飛行中に、当該特定のユーザーが前記無人航空機を目視しない場合、当該特定のユーザーに接近するように飛行させる、
ことを特徴とする請求項20に記載の飛行型ロボットの制御方法。
While flying around the specific user, if the specific user does not see the unmanned aerial vehicle, the flight is made to approach the specific user.
The control method for a flying robot according to claim 20.
前記特定のユーザーの周囲を所定回数飛行した後、当該特定のユーザーから離れるように飛行させる、
ことを特徴とする請求項20に記載の飛行型ロボットの制御方法。
After flying around the specific user a predetermined number of times, the flight is made to move away from the specific user.
The control method for a flying robot according to claim 20.
自動操縦により飛行する無人航空機と、
前記無人航空機に搭載されたカメラと、
前記無人航空機に搭載されたマイクと、
を備え、
前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、
前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行することを特徴とする飛行型ロボット。
Unmanned aerial vehicles flying by autopilot and
The camera mounted on the unmanned aerial vehicle and
With the microphone mounted on the unmanned aerial vehicle,
Equipped with
Recognizing a specific user based on the image taken by the camera,
A flight type characterized in that when a predetermined voice is collected by the microphone, the flight is performed between the vicinity of the recognized specific user and the source of the predetermined voice in response to the predetermined voice. robot.
前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの周囲を周回してから、当該特定のユーザーの近傍と所定の音声の発生源との間を飛行することを特徴とする請求項24に記載の飛行型ロボット。 When a predetermined voice is collected by the microphone, the microphone orbits around the recognized specific user in response to the predetermined voice, and then the vicinity of the specific user and the source of the predetermined voice. The flying robot according to claim 24, wherein the robot flies between. 前記所定の音声は、電話機に電話および電子メールの少なくとも一方が着信していることを通知する着信音であることを特徴とする請求項24または25に記載の飛行型ロボット。 The flying robot according to claim 24 or 25, wherein the predetermined voice is a ringtone for notifying the telephone that at least one of a telephone and an e-mail has arrived. 前記所定の音声は、建物または敷地の入り口に、当該建物または敷地への訪問者が当該建物または敷地の居住者または管理者を呼び出すために設けられた呼び鈴の呼出音であることを特徴とする請求項請求項24または25に記載の飛行型ロボット。 The predetermined voice is a ringing tone of a doorbell provided at the entrance of the building or site for a visitor to the building or site to call a resident or manager of the building or site. Claim The flying robot according to claim 24 or 25. 前記所定の音声は、所定の閾値以上の音圧の音声であることを特徴とする請求項24または25に記載の飛行型ロボット。 The flight-type robot according to claim 24 or 25, wherein the predetermined voice is a voice having a sound pressure equal to or higher than a predetermined threshold value. 前記所定の音声は、前記特定のユーザーから所定範囲内において発生する音声であることを特徴とする請求項24または25に記載の飛行型ロボット。 The flight-type robot according to claim 24 or 25, wherein the predetermined voice is a voice generated within a predetermined range from the specific user. 前記所定の音声に応じて、当該所定の音声に対応する飛行態様で、認識した前記特定のユーザーの周囲を飛行することを特徴とする請求項24~29のいずれか一つに記載の飛行型ロボット。 The flight type according to any one of claims 24 to 29, which comprises flying around the recognized specific user in a flight mode corresponding to the predetermined voice in response to the predetermined voice. robot. 前記無人航空機に搭載されたプロジェクターを備え、
前記マイクによって所定の音声が集音された場合に、認識した前記特定のユーザーの前方に、当該所定の音声に応じた画像を前記プロジェクターから投影することを特徴とする請求項24~30のいずれか一つに記載の飛行型ロボット。
Equipped with a projector mounted on the unmanned aerial vehicle
Any of claims 24 to 30, wherein when a predetermined voice is collected by the microphone, an image corresponding to the predetermined voice is projected from the projector in front of the recognized specific user. The flying robot described in one.
前記無人航空機に搭載された無線通信インターフェースを備え、
前記無線通信インタフェースを介して、前記プロジェクターから投影する画像にかかる画像データを取得することを特徴とする請求項31に記載の飛行型ロボット。
Equipped with a wireless communication interface mounted on the unmanned aerial vehicle,
The flight-type robot according to claim 31, wherein the image data of the image projected from the projector is acquired via the wireless communication interface.
前記マイクによって所定の音声が集音された場合に、認識した前記特定のユーザーの前方に、当該所定の音声に応じた文字を前記プロジェクターから投影することを特徴とする請求項24~32のいずれか一つに記載の飛行型ロボット。 Any of claims 24 to 32, wherein when a predetermined voice is collected by the microphone, characters corresponding to the predetermined voice are projected from the projector in front of the recognized specific user. The flying robot described in one. カメラおよびマイクが搭載されて自動操縦により飛行する無人航空機を備えた飛行型ロボットが備えるコンピュータに、
前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、
前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御プログラム。
A computer equipped with a flying robot equipped with an unmanned aerial vehicle equipped with a camera and a microphone and flying by autopilot.
Recognizing a specific user based on the image taken by the camera,
When a predetermined voice is collected by the microphone, the flight is made to fly between the recognized vicinity of the specific user and the source of the predetermined voice in response to the predetermined voice.
A control program for a flying robot characterized by executing processing.
カメラおよびマイクが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットに、
前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、
前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、
ことを特徴とする飛行型ロボットの制御方法。
For flying robots equipped with unmanned aerial vehicles equipped with cameras and microphones and flying by autopilot,
Recognize a specific user based on the image taken by the camera
When a predetermined voice is collected by the microphone, the flight is made to fly between the recognized vicinity of the specific user and the source of the predetermined voice in response to the predetermined voice.
A control method for a flying robot.
カメラ、マイクおよびプロジェクターが搭載されて自動操縦により飛行する無人航空機を備える飛行型ロボットが備えるコンピュータに、
前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、
前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させるとともに、認識した前記特定のユーザーの前方に、当該所定の音声に応じた画像を前記プロジェクターから投影させる、
処理を実行させることを特徴とする飛行型ロボットの制御プログラム。
Computers on flying robots with unmanned aerial vehicles equipped with cameras, microphones and projectors and flying by autopilot
Recognizing a specific user based on the image taken by the camera,
When a predetermined voice is collected by the microphone, the specific user is made to fly between the recognized vicinity of the specific user and the source of the predetermined voice in response to the predetermined voice, and the recognized specific voice is recognized. An image corresponding to the predetermined voice is projected from the projector in front of the user.
A control program for a flying robot characterized by executing processing.
カメラ、マイクおよびプロジェクターが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットに、
前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、
前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させるとともに、認識した前記特定のユーザーの前方に、当該所定の音声に応じた画像を前記プロジェクターから投影させる、
ことを特徴とする飛行型ロボットの制御方法。
For flying robots equipped with unmanned aerial vehicles equipped with cameras, microphones and projectors and flying by autopilot.
Recognize a specific user based on the image taken by the camera
When a predetermined voice is collected by the microphone, the specific user is made to fly between the recognized vicinity of the specific user and the source of the predetermined voice in response to the predetermined voice, and the recognized specific voice is recognized. An image corresponding to the predetermined voice is projected from the projector in front of the user.
A control method for a flying robot.
自動操縦により飛行する無人航空機と、
前記無人航空機に搭載されたカメラと、
前記無人航空機に搭載された無線通信インターフェースを備え、
を備え、
前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、
前記無線通信インタフェースを介して、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得した場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行することを特徴とする飛行型ロボット。
Unmanned aerial vehicles flying by autopilot and
The camera mounted on the unmanned aerial vehicle and
Equipped with a wireless communication interface mounted on the unmanned aerial vehicle,
Equipped with
Recognizing a specific user based on the image taken by the camera,
When information indicating that a disaster, earthquake, tsunami, lightning, rainfall, strong wind, or sudden change in weather may occur within a predetermined time after the present time is acquired via the wireless communication interface. A flight-type robot characterized in that it flies between the vicinity of the recognized specific user and a source of the predetermined voice in response to the predetermined voice.
カメラおよび無線通信インターフェースが搭載されて自動操縦により飛行する無人航空機を備える飛行型ロボットが備えるコンピュータに、
前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、
前記無線通信インタフェースを介して、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得した場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御プログラム。
A computer equipped with a flying robot equipped with an unmanned aerial vehicle equipped with a camera and a wireless communication interface and flying by autopilot.
Recognizing a specific user based on the image taken by the camera,
When information indicating that a disaster, an earthquake, a tsunami, a lightning strike, a rainfall, a strong wind, or a sudden change in the weather may occur within a predetermined time after the present time is acquired through the wireless communication interface. Flying between the recognized vicinity of the specific user and the source of the predetermined voice in response to the predetermined voice.
A control program for a flying robot characterized by executing processing.
カメラおよび無線通信インターフェースが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットに、
前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、
前記無線通信インタフェースを介して、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得した場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、
ことを特徴とする飛行型ロボットの制御方法。
For flying robots equipped with unmanned aerial vehicles equipped with cameras and wireless communication interfaces and flying by autopilot.
Recognizing a specific user based on the image taken by the camera,
When information indicating that a disaster, an earthquake, a tsunami, a lightning strike, a rainfall, a strong wind, or a sudden change in the weather may occur within a predetermined time after the present time is acquired through the wireless communication interface. Flying between the recognized vicinity of the specific user and the source of the predetermined voice in response to the predetermined voice.
A control method for a flying robot.
JP2020110979A 2020-06-26 2020-06-26 Flying type robot, program and method for controlling flying type robot Pending JP2022007799A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020110979A JP2022007799A (en) 2020-06-26 2020-06-26 Flying type robot, program and method for controlling flying type robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020110979A JP2022007799A (en) 2020-06-26 2020-06-26 Flying type robot, program and method for controlling flying type robot

Publications (2)

Publication Number Publication Date
JP2022007799A true JP2022007799A (en) 2022-01-13
JP2022007799A5 JP2022007799A5 (en) 2023-07-04

Family

ID=80110469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020110979A Pending JP2022007799A (en) 2020-06-26 2020-06-26 Flying type robot, program and method for controlling flying type robot

Country Status (1)

Country Link
JP (1) JP2022007799A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7232945B1 (en) 2022-03-15 2023-03-03 ソフトバンク株式会社 Control device, flying object, program, and control method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7232945B1 (en) 2022-03-15 2023-03-03 ソフトバンク株式会社 Control device, flying object, program, and control method
JP2023135562A (en) * 2022-03-15 2023-09-28 ソフトバンク株式会社 Control device, flight body, program, and control method

Similar Documents

Publication Publication Date Title
JP7320239B2 (en) A robot that recognizes the direction of a sound source
EP3100609A1 (en) Pet interactive system based on wireless communication network
US20180361263A1 (en) Educational device
US10397527B2 (en) Remotely controlled robotic sensor ball
CN210155626U (en) Information processing apparatus
JP2020000279A (en) Autonomously acting type robot assuming virtual character
WO2020115972A1 (en) Information processing apparatus, information processing method and program
WO2018203453A1 (en) Information processing device, information processing method, and program
JP2022007799A (en) Flying type robot, program and method for controlling flying type robot
JPWO2020116233A1 (en) Information processing equipment, information processing methods, and programs
JP2024055866A (en) A robot that autonomously selects actions according to its internal state or external environment
JP6586810B2 (en) toy
JP2022106252A (en) Flight type robot, control program for flight type robot, and control method for flight type robot
WO2019123744A1 (en) Information processing device, information processing method, and program
CN109257490A (en) Audio-frequency processing method, device, wearable device and storage medium
TWI699198B (en) Intelligent assistant system for the visually impaired
US20220410023A1 (en) Information processing device, control method of the same, and program
JP2022093201A (en) Flight type robot, flight type robot control program and flight type robot control method
US20220291665A1 (en) Information processing apparatus, control method, and program
JP2022104060A (en) Flight type robot, control program of flight type robot, and control method of flight type robot
KR102128285B1 (en) Device and method for controlling thereof
CN109878750B (en) A companion formula intelligence early warning unmanned aerial vehicle for taking care of infant
US20220126439A1 (en) Information processing apparatus and information processing method
KR102072175B1 (en) Smart character toy embedded artificiall intelligence function
JP2023098220A (en) Flight type robot, control program of flight type robot and control method of flight type robot

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230626

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240325