JP2022007799A - Flying type robot, program and method for controlling flying type robot - Google Patents
Flying type robot, program and method for controlling flying type robot Download PDFInfo
- Publication number
- JP2022007799A JP2022007799A JP2020110979A JP2020110979A JP2022007799A JP 2022007799 A JP2022007799 A JP 2022007799A JP 2020110979 A JP2020110979 A JP 2020110979A JP 2020110979 A JP2020110979 A JP 2020110979A JP 2022007799 A JP2022007799 A JP 2022007799A
- Authority
- JP
- Japan
- Prior art keywords
- specific user
- flying
- flight
- robot
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 89
- 238000004891 communication Methods 0.000 claims abstract description 55
- 230000008569 process Effects 0.000 claims description 49
- 230000004044 response Effects 0.000 claims description 29
- 238000013459 approach Methods 0.000 claims description 20
- 230000008859 change Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 16
- 241001465754 Metazoa Species 0.000 claims description 11
- 230000035876 healing Effects 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 26
- 230000033001 locomotion Effects 0.000 description 18
- 230000009471 action Effects 0.000 description 13
- 241000282472 Canis lupus familiaris Species 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 210000001508 eye Anatomy 0.000 description 9
- 208000016354 hearing loss disease Diseases 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 206010037180 Psychiatric symptoms Diseases 0.000 description 6
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 6
- 239000004065 semiconductor Substances 0.000 description 6
- 229910052710 silicon Inorganic materials 0.000 description 6
- 239000010703 silicon Substances 0.000 description 6
- 230000006399 behavior Effects 0.000 description 4
- 230000001186 cumulative effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000005611 electricity Effects 0.000 description 4
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 4
- 229910052753 mercury Inorganic materials 0.000 description 4
- 235000019640 taste Nutrition 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 3
- 208000032041 Hearing impaired Diseases 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000004297 night vision Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 206010001742 Allergy to animal Diseases 0.000 description 2
- 235000005156 Brassica carinata Nutrition 0.000 description 2
- 244000257790 Brassica carinata Species 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 2
- 241000377209 Unicorn Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 238000009395 breeding Methods 0.000 description 2
- 230000001488 breeding effect Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 239000004020 conductor Substances 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000008450 motivation Effects 0.000 description 2
- 230000000474 nursing effect Effects 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 241000894006 Bacteria Species 0.000 description 1
- 229910001369 Brass Inorganic materials 0.000 description 1
- 241000052343 Dares Species 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 241000086550 Dinosauria Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 241001653634 Russula vesca Species 0.000 description 1
- 241000700605 Viruses Species 0.000 description 1
- 229920000122 acrylonitrile butadiene styrene Polymers 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- ZYXYTGQFPZEUFX-UHFFFAOYSA-N benzpyrimoxan Chemical compound O1C(OCCC1)C=1C(=NC=NC=1)OCC1=CC=C(C=C1)C(F)(F)F ZYXYTGQFPZEUFX-UHFFFAOYSA-N 0.000 description 1
- 235000013361 beverage Nutrition 0.000 description 1
- 238000009835 boiling Methods 0.000 description 1
- 239000010951 brass Substances 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000010413 gardening Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000010370 hearing loss Effects 0.000 description 1
- 231100000888 hearing loss Toxicity 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005057 refrigeration Methods 0.000 description 1
- 229920002379 silicone rubber Polymers 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Abstract
Description
この発明は、ペットを模した動作をする飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法に関する。 The present invention relates to a flying robot that imitates a pet, a control program for the flying robot, and a control method for the flying robot.
従来、犬や猫などの動物の形状をなし、自ら移動したり鳴き声を発したりという動物の動作を模した動作をするペット型ロボットがある。このようなペット型ロボットは、利便性を求めた実用的な機能ではなく、主に、その外観や動作によって利用者の心を癒やし楽しませることを目的として設計されている。 Conventionally, there is a pet-type robot that has the shape of an animal such as a dog or a cat and that imitates the movement of an animal such as moving or making a cry. Such a pet-type robot is not a practical function for convenience, but is designed mainly for the purpose of healing and entertaining the user's mind by its appearance and movement.
具体的には、従来、たとえば、学習対象物を特定し、特定した学習対象物の情報を連想想起記憶部に記憶し、新たに検出した物と連想想起記憶部に記憶した学習対象物の情報とに基づいて行動させることにより、学習対象物の共有(共同注意)を可能として、適切に学習対象物を特定できるようにした技術があった(たとえば、下記特許文献1を参照。)。 Specifically, conventionally, for example, the learning object is specified, the information of the specified learning object is stored in the associative recall storage unit, and the newly detected object and the learning object information stored in the associative recall storage unit are stored. There was a technique that made it possible to share (joint attention) the learning object and appropriately identify the learning object by acting on the basis of (for example, see Patent Document 1 below).
しかしながら、動物であれば自らの意思をもち、必ずしも飼い主の動作のみに応じて動作するものではなく、時には飼い主の指示を聞かなかったり飼い主がいなくても自由に動き回ったりするが、上述した従来の技術は、一様にユーザーとのコミュニケーションに応じて動作するものであって、自律性に劣る。 However, if it is an animal, it has its own will and does not necessarily move only according to the movement of the owner, and sometimes it does not listen to the owner's instructions or moves around freely without the owner. The technology uniformly operates in response to communication with the user, and is inferior in autonomy.
この発明は、上述した従来技術による問題点を解消するため、ユーザーの心を癒やし、ユーザーに充足感を与えることができる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法を提供することを目的とする。 INDUSTRIAL APPLICABILITY The present invention solves the above-mentioned problems caused by the prior art, and thus heals the user's mind and gives the user a sense of satisfaction. A flight robot, a control program for the flight robot, and a control method for the flight robot. The purpose is to provide.
上述した課題を解決し、目的を達成するため、この発明にかかる飛行型ロボットは、自動操縦により飛行する無人航空機と、前記無人航空機に搭載されたカメラと、を備え、前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、当該特定のユーザーの周囲を飛行することを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the flight-type robot according to the present invention includes an unmanned aerial vehicle flying by autopilot and a camera mounted on the unmanned aerial vehicle, and is photographed by the camera. It is characterized by recognizing a specific user based on an image and flying around the specific user.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記特定のユーザーが、前記カメラによって所定時間以上または所定回数以上撮影された人物であることを特徴とする。 Further, the flight-type robot according to the present invention is characterized in that, in the above invention, the specific user is a person who has been photographed by the camera for a predetermined time or more or a predetermined number of times or more.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記特定のユーザーが、特定の範囲内において、前記カメラによって撮影された人物であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the specific user is a person photographed by the camera within a specific range.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーの少なくとも一部が前記無人航空機に接近した場合、当該特定のユーザーから離れるように飛行することを特徴とする。 Further, in the above invention, the flying robot according to the present invention leaves the specific user when at least a part of the specific user approaches the unmanned aerial vehicle while flying around the specific user. It is characterized by flying like this.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーが前記無人航空機を目視しない場合、当該特定のユーザーに接近するように飛行することを特徴とする。 Further, in the above invention, the flying robot according to the present invention flies so as to approach the specific user when the specific user does not see the unmanned aerial vehicle while flying around the specific user. It is characterized by doing.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記特定のユーザーの周囲を所定回数飛行した後、当該特定のユーザーから離れるように飛行することを特徴とする。 Further, the flight-type robot according to the present invention is characterized in that, in the above invention, after flying around the specific user a predetermined number of times, the robot flies away from the specific user.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載された無線通信インターフェースを備え、前記無線通信インタフェースを介して、所定の情報を取得した場合、前記特定のユーザーの周囲を飛行することを特徴とする。 Further, in the above-mentioned invention, the flight-type robot according to the present invention is provided with a wireless communication interface mounted on the unmanned aerial vehicle, and when predetermined information is acquired via the wireless communication interface, the specific user. It is characterized by flying around.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の情報が、特定の端末装置から出力された通知情報であることを特徴とする。 Further, the flight-type robot according to the present invention is characterized in that, in the above invention, the predetermined information is notification information output from a specific terminal device.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の情報が、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報であることを特徴とする。 Further, in the flying robot according to the present invention, in the above invention, the predetermined information causes a disaster, an earthquake, a tsunami, a lightning strike, a rainfall, a strong wind, and a sudden change in the weather within a predetermined time after the present time. It is characterized by being information indicating that there is a possibility.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載されたスピーカーを備え、前記特定のユーザーに向けて前記スピーカーから音声を出力するとともに、当該特定のユーザーの周囲を飛行することを特徴とする。 Further, in the above-mentioned invention, the flight-type robot according to the present invention includes a speaker mounted on the unmanned aerial vehicle, outputs sound from the speaker to the specific user, and surrounds the specific user. It is characterized by flying.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載されたマイクを備え、前記マイクによって所定の音声が集音された場合、前記特定のユーザーの周囲を飛行することを特徴とする。 Further, in the above invention, the flying robot according to the present invention includes a microphone mounted on the unmanned aerial vehicle, and when a predetermined sound is collected by the microphone, it flies around the specific user. It is characterized by.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、電話機に電話および電子メールの少なくとも一方が着信していることを通知する着信音であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the predetermined voice is a ringtone for notifying the telephone that at least one of a telephone and an e-mail has arrived.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、前記特定のユーザーの声であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the predetermined voice is the voice of the specific user.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載されたスピーカーを備え、前記マイクによって所定の音声が集音された場合、前記特定のユーザーに向けて前記スピーカーから音声を出力するとともに、当該特定のユーザーの周囲を飛行することを特徴とする。 Further, in the above invention, the flight type robot according to the present invention includes a speaker mounted on the unmanned aerial vehicle, and when a predetermined sound is collected by the microphone, the speaker is directed toward the specific user. It is characterized by outputting audio and flying around the specific user.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記スピーカーから出力する音声が、動物の鳴き声を模した音声であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the sound output from the speaker is a sound imitating the bark of an animal.
また、この発明にかかる飛行型ロボットの制御プログラムは、カメラが搭載され、自動操縦により飛行する無人航空機が備えるコンピュータに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、認識された前記特定のユーザーの周囲を飛行させる、処理を実行させることを特徴とする。 Further, the control program of the flying robot according to the present invention is recognized by causing a computer of an unmanned aerial vehicle equipped with a camera and flying by autopilot to recognize a specific user based on an image taken by the camera. It is characterized in that it flies around the specific user and executes a process.
また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーの少なくとも一部が前記無人航空機に接近した場合、当該特定のユーザーから離れるように飛行させる、処理を実行させることを特徴とする。 Further, in the above invention, the control program of the flying robot according to the present invention is the specific user when at least a part of the specific user approaches the unmanned aerial vehicle while flying around the specific user. It is characterized by flying away from the user and executing processing.
また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーが前記無人航空機を目視しない場合、当該特定のユーザーに接近するように飛行させる、処理を実行させることを特徴とする。 Further, in the above invention, the control program of the flying robot according to the present invention approaches the specific user when the specific user does not see the unmanned aerial vehicle while flying around the specific user. It is characterized by flying and executing processing.
また、この発明にかかる飛行型ロボットの制御プログラムは、上記の発明において、前記特定のユーザーの周囲を所定回数飛行した後、当該特定のユーザーから離れるように飛行させる、処理を実行させることを特徴とする。 Further, the control program for a flying robot according to the present invention is characterized in that, in the above invention, after flying around the specific user a predetermined number of times, the robot is made to fly away from the specific user. And.
また、この発明にかかる飛行型ロボットの制御方法は、カメラが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、認識された前記特定のユーザーの周囲を飛行させる、ことを特徴とする。 Further, in the control method of the flying robot according to the present invention, a flying robot equipped with a camera and equipped with an unmanned aircraft flying by autopilot is made to recognize a specific user based on an image taken by the camera. It is characterized by flying around the recognized specific user.
また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーの少なくとも一部が前記無人航空機に接近した場合、当該特定のユーザーから離れるように飛行させる、ことを特徴とする。 Further, in the above-mentioned invention, the control method of the flying robot according to the present invention is the specific when at least a part of the specific user approaches the unmanned aerial vehicle while flying around the specific user. It is characterized by flying away from the user.
また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーが前記無人航空機を目視しない場合、当該特定のユーザーに接近するように飛行させる、ことを特徴とする。 Further, in the above-mentioned invention, the control method of the flying robot according to the present invention approaches the specific user when the specific user does not see the unmanned aerial vehicle while flying around the specific user. It is characterized by flying like this.
また、この発明にかかる飛行型ロボットの制御方法は、上記の発明において、前記特定のユーザーの周囲を所定回数飛行した後、当該特定のユーザーから離れるように飛行させる、ことを特徴とする。 Further, the method for controlling a flying robot according to the present invention is characterized in that, in the above invention, after flying around the specific user a predetermined number of times, the robot is made to fly away from the specific user.
また、この発明にかかる飛行型ロボットは、自動操縦により飛行する無人航空機と、前記無人航空機に搭載されたカメラと、前記無人航空機に搭載されたマイクと、を備え、前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行することを特徴とする。 Further, the flying robot according to the present invention includes an unmanned aerial vehicle that flies by automatic control, a camera mounted on the unmanned aerial vehicle, and a microphone mounted on the unmanned aerial vehicle, and an image taken by the camera. When a specific user is recognized based on the above and a predetermined sound is collected by the microphone, between the vicinity of the recognized specific user and the source of the predetermined sound according to the predetermined sound. It is characterized by flying.
前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの周囲を周回してから、当該特定のユーザーの近傍と所定の音声の発生源との間を飛行することを特徴とする請求項24に記載の飛行型ロボット。 When a predetermined voice is collected by the microphone, the microphone orbits around the recognized specific user in response to the predetermined voice, and then the vicinity of the specific user and the source of the predetermined voice. The flying robot according to claim 24, wherein the robot flies between.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、電話機に電話および電子メールの少なくとも一方が着信していることを通知する着信音で Further, in the above-mentioned invention, the flying robot according to the present invention is a ringtone for notifying the telephone that at least one of a telephone and an e-mail has received the predetermined voice.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、建物または敷地の入り口に、当該建物または敷地への訪問者が当該建物または敷地の居住者または管理者を呼び出すために設けられた呼び鈴の呼出音であることを特徴とする。 Further, in the flight-type robot according to the present invention, in the above invention, the predetermined voice calls the resident or manager of the building or site at the entrance of the building or site by a visitor to the building or site. It is characterized by the ringing tone of a doorbell provided for this purpose.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、所定の閾値以上の音圧の音声であることを特徴とする。 Further, the flying robot according to the present invention is characterized in that, in the above invention, the predetermined voice is a voice having a sound pressure equal to or higher than a predetermined threshold value.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声が、前記特定のユーザーから所定範囲内において発生する音声であることを特徴とする。 Further, the flight-type robot according to the present invention is characterized in that, in the above invention, the predetermined voice is a voice generated from the specific user within a predetermined range.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記所定の音声に応じて、当該所定の音声に対応する飛行態様で、認識した前記特定のユーザーの周囲を飛行することを特徴とする。 Further, the flight-type robot according to the present invention is characterized in that, in the above invention, it flies around the recognized specific user in a flight mode corresponding to the predetermined voice in response to the predetermined voice. do.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載されたプロジェクターを備え、前記マイクによって所定の音声が集音された場合に、認識した前記特定のユーザーの前方に、当該所定の音声に応じた画像を前記プロジェクターから投影することを特徴とする。 Further, in the above invention, the flying robot according to the present invention includes a projector mounted on the unmanned aerial vehicle, and is in front of the specific user who recognizes when a predetermined sound is collected by the microphone. It is characterized in that an image corresponding to the predetermined sound is projected from the projector.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記無人航空機に搭載された無線通信インターフェースを備え、前記無線通信インタフェースを介して、前記プロジェクターから投影する画像にかかる画像データを取得することを特徴とする。 Further, in the above invention, the flying robot according to the present invention includes a wireless communication interface mounted on the unmanned aerial vehicle, and acquires image data related to an image projected from the projector via the wireless communication interface. It is characterized by that.
また、この発明にかかる飛行型ロボットは、上記の発明において、前記マイクによって所定の音声が集音された場合に、認識した前記特定のユーザーの前方に、当該所定の音声に応じた文字を前記プロジェクターから投影することを特徴とする。 Further, in the above-mentioned invention, the flight-type robot according to the present invention displays characters corresponding to the predetermined voice in front of the specific user who recognizes the voice when the predetermined voice is collected by the microphone. It is characterized by projecting from a projector.
また、この発明にかかる飛行型ロボットの制御プログラムは、カメラおよびマイクが搭載されて自動操縦により飛行する無人航空機を備えた飛行型ロボットが備えるコンピュータに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、処理を実行させることを特徴とする。 Further, the control program for a flying robot according to the present invention is specified on a computer provided by a flying robot equipped with an unmanned aircraft equipped with a camera and a microphone and flying by automatic control based on an image taken by the camera. When a predetermined voice is collected by the microphone, the user is made to fly between the vicinity of the recognized specific user and the source of the predetermined voice in response to the predetermined voice. It is characterized by executing a process.
また、この発明にかかる飛行型ロボットの制御方法は、カメラおよびマイクが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、ことを特徴とする。 Further, in the control method of a flying robot according to the present invention, a flying robot equipped with an unmanned aircraft equipped with a camera and a microphone and flying by automatic control recognizes a specific user based on an image taken by the camera. When a predetermined sound is collected by the microphone, the robot is characterized in that it flies between the recognized vicinity of the specific user and the source of the predetermined sound in response to the predetermined sound. do.
また、この発明にかかる飛行型ロボットの制御プログラムは、カメラ、マイクおよびプロジェクターが搭載されて自動操縦により飛行する無人航空機を備える飛行型ロボットが備えるコンピュータに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させるとともに、認識した前記特定のユーザーの前方に、当該所定の音声に応じた画像を前記プロジェクターから投影させる、処理を実行させることを特徴とする。 Further, the control program for a flying robot according to the present invention is based on an image taken by the camera on a computer provided with a flying robot equipped with an unmanned aircraft equipped with a camera, a microphone and a projector and flying by automatic control. When a specific user is recognized and a predetermined sound is collected by the microphone, the flight is made to fly between the vicinity of the recognized specific user and the source of the predetermined sound in response to the predetermined sound. At the same time, it is characterized in that a process of projecting an image corresponding to the predetermined sound from the projector is executed in front of the recognized specific user.
また、この発明にかかる飛行型ロボットの制御方法は、カメラ、マイクおよびプロジェクターが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させるとともに、認識した前記特定のユーザーの前方に、当該所定の音声に応じた画像を前記プロジェクターから投影させる、ことを特徴とする。 Further, the control method of the flying robot according to the present invention is a flying robot equipped with a camera, a microphone and a projector and equipped with an unmanned aircraft flying by automatic control, based on an image taken by the camera, and a specific user. When a predetermined sound is collected by the microphone, the aircraft is made to fly between the vicinity of the recognized specific user and the source of the predetermined sound according to the predetermined sound, and is recognized. It is characterized in that an image corresponding to the predetermined sound is projected from the projector in front of the specific user.
また、この発明にかかる飛行型ロボットは、自動操縦により飛行する無人航空機と、前記無人航空機に搭載されたカメラと、前記無人航空機に搭載された無線通信インターフェースを備え、を備え、前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、前記無線通信インタフェースを介して、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得した場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行することを特徴とする。 Further, the flight-type robot according to the present invention includes an unmanned aerial vehicle that flies by autopilot, a camera mounted on the unmanned aerial vehicle, and a wireless communication interface mounted on the unmanned aerial vehicle, and is photographed by the camera. A specific user can be recognized based on the image, and a disaster, earthquake, tsunami, lightning, rainfall, strong wind, or sudden weather change can occur within a predetermined time after the present time via the wireless communication interface. It is characterized in that, when information indicating that there is a property is acquired, it flies between the vicinity of the recognized specific user and the source of the predetermined voice in response to the predetermined voice.
また、この発明にかかる飛行型ロボットの制御プログラムは、カメラおよび無線通信インターフェースが搭載されて自動操縦により飛行する無人航空機を備える飛行型ロボットが備えるコンピュータに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、前記無線通信インタフェースを介して、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得した場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、処理を実行させることを特徴とする。 Further, the control program for a flying robot according to the present invention is based on an image taken by the camera on a computer provided with a flying robot equipped with an unmanned aircraft equipped with a camera and a wireless communication interface and flying by autopilot. Recognize a specific user and indicate that a disaster, earthquake, tsunami, lightning, rainfall, strong wind, or sudden weather change may occur within a predetermined time after the present time via the wireless communication interface. When the information is acquired, it is characterized in that a process of flying between the vicinity of the recognized specific user and the source of the predetermined voice is executed in response to the predetermined voice.
また、この発明にかかる飛行型ロボットの制御方法は、カメラおよび無線通信インターフェースが搭載され、自動操縦により飛行する無人航空機を備える飛行型ロボットに、前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、前記無線通信インタフェースを介して、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得した場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、ことを特徴とする。 Further, the control method of the flying robot according to the present invention is a flying robot equipped with a camera and a wireless communication interface and equipped with an unmanned aircraft flying by autopilot, and a specific user based on an image taken by the camera. And obtains information indicating that a disaster, earthquake, tsunami, lightning, rainfall, strong wind, or sudden weather change may occur within a predetermined time after the present time through the wireless communication interface. In that case, it is characterized in that it flies between the vicinity of the recognized specific user and the source of the predetermined voice in response to the predetermined voice.
この発明にかかる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法によれば、ユーザーの心を癒やし、ユーザーに充足感を与えることができるという効果を奏する。 According to the flight-type robot, the control program of the flight-type robot, and the control method of the flight-type robot according to the present invention, there is an effect that the user's mind can be healed and the user can be given a sense of satisfaction.
以下に添付図面を参照して、この発明にかかる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法の好適な実施の形態を詳細に説明する。 Hereinafter, preferred embodiments of the flight robot, the control program for the flight robot, and the control method for the flight robot according to the present invention will be described in detail with reference to the accompanying drawings.
<実施の形態1>
(飛行型ロボットの外観の一例)
まず、この発明にかかる実施の形態1の飛行型ロボットの外観の一例について説明する。図1Aおよび図1Bは、この発明にかかる実施の形態1の飛行型ロボットの外観の一例を示す説明図である。図1Aおよび図1Bに示すように、飛行型ロボット100は、ドローン(無人航空機)101を備えている。
<Embodiment 1>
(An example of the appearance of a flying robot)
First, an example of the appearance of the flying robot according to the first embodiment of the present invention will be described. 1A and 1B are explanatory views showing an example of the appearance of the flying robot according to the first embodiment of the present invention. As shown in FIGS. 1A and 1B, the flying
ドローン101は、具体的には、たとえば、4つのプロペラ102を備えたクアッドコプターを採用することができる。ドローン101は、クアッドコプターに限るものではなく、6つのプロペラを備えたヘキサコプター、8つのプロペラを備えたオクトコプターなど、各種のマルチコプターを採用することができる。
Specifically, the
また、飛行型ロボット100は、カメラ103を備えている。図1Aや図1Bに示すように、動物のような形状の飛行型ロボット100において、カメラ103は、たとえば、目に相当する部分に設けることができる。あるいは、カメラ103は、ドローン101の筐体の下側に設けてもよい。
Further, the
カメラ103は、飛行型ロボット100の周囲の画像を撮影する。飛行型ロボット100は、たとえば、カメラ103によって撮影された画像に基づいて、特定のユーザーを認識する。カメラ103は、たとえば、汎用的なデジタルカメラによって実現することができる。
The
特定のユーザーは、たとえば、カメラ103によって所定時間以上または所定回数以上撮影された人物、すなわち、飛行型ロボット100と相応に接する機会をもった人物とすることができる。また、特定のユーザーは、たとえば、特定の範囲内において撮影された人物、すなわち、自宅内、学校の敷地内、店舗内などのような特定の範囲内にいる機会が相応にあるために、カメラ103によって撮影される可能性の高い人物とすることができる。特定の範囲は、充電スポット(図4Aおよび図4Bを参照)から所定範囲内としてもよい。
The specific user may be, for example, a person who has been photographed by the
あるいは、特定のユーザーは、たとえば、特定の範囲内において、カメラ103によって所定時間以上または所定回数以上撮影された人物としてもよい。このような人物は、自宅内、学校の敷地内、店舗内などのような特定の範囲内にいる機会が相応にあり、かつ、飛行型ロボットと相応に接する機会をもった人物であると見なせるため、特定の範囲内において飛行型ロボットと長時間・高頻度で接する機会をもった人物を、特定のユーザーとすることができる。
Alternatively, the specific user may be, for example, a person who has been photographed by the
特定のユーザーは、1人であってもよく、複数人であってもよい。特定のユーザーとする人物の数は、所定の数に制限してもよく、無制限であってもよい。特定のユーザーとする人物の数を所定の数に制限することにより、メモリ(図2を参照)の容量を抑えることができる。 The specific user may be one person or a plurality of people. The number of persons as a specific user may be limited to a predetermined number or may be unlimited. By limiting the number of persons to be a specific user to a predetermined number, the capacity of the memory (see FIG. 2) can be suppressed.
また、特定のユーザーは、現在時点から所定期間遡った時点までの間に、特定の範囲内において、カメラ103によって所定時間以上または所定回数以上撮影された人物としてもよい。これにより、特定のユーザーとする人物の数を所定の数に制限する運用において、先に特定のユーザーとされた人物から別の人物に飛行型ロボット100が譲渡されたり、学校や保育園における進級や卒業・卒園などにより特定の範囲内に立ち入る人物が変わったりした場合にも、直近に飛行型ロボット100と相応に接する機会をもった人物を特定のユーザーとすることができ、現状に即した運用を実現することができる。
Further, the specific user may be a person who has been photographed by the
カメラ103は、汎用的なデジタルカメラに代えて、光に対して感度を増幅させることによって暗い場所を撮影する暗視カメラ、赤外線に感度を有する赤外線カメラ、赤外線カメラが撮影した画像における白黒の濃淡を解析してカラー画像を撮影する赤外線カラー暗視カメラなどによって実現してもよい。暗視カメラ、赤外線カメラ、赤外線カラー暗視カメラなどを用いて画像を撮影することにより、夜間や照度の低い室内などにおいても、特定のユーザーを精度よく認識することができる。
Instead of a general-purpose digital camera, the
飛行型ロボット100が備えるカメラ103は、1台であってもよく、複数台であってもよい。複数台のカメラ103を備える飛行型ロボット100においては、1種類のカメラ103に限るものではなく、異なる複数種類のカメラ103を備えていてもよい。
The flying
カメラ103は、ドローン101に対して、姿勢の調整が可能な状態で連結されていてもよい。カメラ103は、具体的には、たとえば、ドローン101の底面部にボールジョイントなどの自在継手を介して連結することができる。カメラ103を、ボールジョイントなどの自在継手を介してドローン101に連結することにより、カメラ103の姿勢の調整にかかる高い自由度を確保することができる。
The
さらに、飛行型ロボット100は、ドローン101に対するカメラ103の姿勢を変化させる駆動機構を備えていてもよい。これにより、人手を介さずに、ドローン101に対するカメラ103の姿勢を調整することができる。駆動機構は、たとえば、モーターやギア列などによって構成することができる。ドローン101に対するカメラ103の姿勢を人手を介さずに調整可能とすることにより、ドローン101の姿勢にかかわらず、飛行型ロボット100の飛行中に、撮影方向を任意に調整することができる。カメラ103は、ズーム機能の備えていてもよい。
Further, the
飛行型ロボット100は、ドローン101の筐体内に、ワイヤレス電力伝送(Wireless Power Transfer、Contactless Power Transmission)における受電コイルを備えている。ワイヤレス給電は、バッテリー(図2を参照)に対して、充電用接点を介することなく電力を受電する技術であって、非接触給電あるいは無線給電などとも称される。
The flight-
受電コイルは、ドローン101の筐体の外装面よりも内側に設けられている。これにより、飲料や雨露などの水滴による飛行型ロボット100の劣化や故障を回避することができる。飛行型ロボット100は、受電コイルに代えて、あるいは、加えて、バッテリーの充電のための充電用接点を備えていてもよい。
The power receiving coil is provided inside the outer surface of the housing of the
また、図1Aや図1Bに示すように、動物のような形状の飛行型ロボット100においては、たとえば、目に相当する部分にLEDランプ104を備えていてもよい。LEDランプ104は、たとえば、目玉に相当する部分や、目玉に相当する部分にカメラ103のレンズがある場合には当該レンズを縁取るように設けることができる。このような飛行型ロボット100においては、尻尾、耳、翼、足(脚、肢)、角、牙、髭など、鳥獣類が備える特徴的な部位に相当する部材105を備えていてもよい。
Further, as shown in FIGS. 1A and 1B, the flying
鳥獣類が備える特徴的な部位に相当する部材105は、現代において実在している鳥獣類が備える部位に相当する部材に限らず、恐竜などのように絶滅した動物が備える部位や、竜やユニコーンのような幻獣が備える部位に相当する部材であってもよい。また、これらの部材は、可動式とし、動作させるためのモーターなどの駆動機構を備えていてもよい。これにより、飛行型ロボット100は、尻尾を振ったり、耳を動かしたりする動作を模すことができる。
The
飛行型ロボット100は、さらに、太陽光などの外光によって発電するソーラーセル(太陽電池)106を備えていてもよい。ソーラーセル106は、たとえば、ドローン101の筐体における上側の面に設ける。これにより、飛行中に確実に外光を取り入れて効率よく発電することができる。また、ソーラーセル106を備えることにより、飛行中も充電することができるため、1回当たりの飛行時間を長く確保することができる。
The flying
(飛行型ロボット100のハードウエア構成)
つぎに、飛行型ロボット100のハードウエア構成について説明する。図2は、この発明にかかる実施の形態1の飛行型ロボット100のハードウエア構成を示す説明図である。図2に示すように、飛行型ロボット100のハードウエアは、バッテリー201、モーター202、カメラ103、マイク203、スピーカー204、GPSセンサー205、対物センサー206、制御回路207、通信I/F208、LEDランプ104、ソーラーセル106などによって構成される。飛行型ロボット100が備える各部103、104、106、201~208は、バス200によって接続されている。
(Hardware configuration of flying robot 100)
Next, the hardware configuration of the
バッテリー201は、飛行型ロボット100が備える各部の動作に要する電源を供給する。バッテリー201は、たとえば、リチウム電池などの二次電池(充電式電池、蓄電池)によって実現することができる。二次電池によって実現されるバッテリー201は、ドローン101に対して着脱可能であってもよい。
The
モーター202は、制御回路207によって制御され、回転することによってプロペラ102を回転させる。モーター202は、具体的には、たとえば、回転子が永久磁石であって、固定子がコイルによって構成されるブラシレスモータを使用することができる。モーター202は、プロペラ102の数と同数設けることにより、各プロペラ102をそれぞれ独立して回転させ、飛行型ロボット100を前進させたり、後進させたり左右方向に旋回させたりすることができる。
The
飛行型ロボット100が、カメラ103の姿勢を調整する駆動機構を備えている場合、制御回路207は、当該駆動機構を構成するモーターの動作も制御する。これにより、飛行型ロボット100は移動しながら、人手を介することなく、カメラ103の姿勢を調整し、任意の範囲や広範囲を撮影することができる。
When the
カメラ103は、撮像素子を備え、撮影レンズを通過したレンズを撮像素子に受光させることにより画像を撮影する。また、カメラ103は、撮影した画像、すなわち撮像素子に受光した光信号を電気信号に変換した画像情報(撮影データ)を、制御回路207に出力する。
The
カメラ103は、静止画を撮影するものであってもよく、動画を撮影するものであってもよい。動画は、所定時間間隔で撮影された静止画を連続して再生するものを含む。画像情報は、所定の動画・音声データの圧縮方式の標準規格(たとえば、MPEG(Moving Picture Experts Group)など)によって圧縮されたものであってもよい。
The
マイク203は、飛行型ロボット100の周囲の音声を集音する。マイク203は、アナログデータとして入力された音声を電気信号に変換する。具体的に、マイク203は、アナログデータとして入力されたアナログの音声信号を、アナログ/デジタル変換し、デジタル形式の音声データを生成する。
The
スピーカー204は、音声信号である電気信号によって振動板を振動させて音を発生させる。また、スピーカー204は、音声信号を出力する出力端子であってもよく、当該出力端子に外部スピーカー204を接続して、音を発生させるようにしてもよい。
The
GPSセンサー205は、飛行型ロボット100の現在位置を特定する。GPSセンサー205は、具体的には、たとえば、GPSアンテナ、RF(Radio Frequency)部、ベースバンド部などを備えている。GPSアンテナは、GPS衛星が放送する電波を受信する。RF部は、GPSアンテナが受信した変調前の信号をベースバンド信号に復調する。ベースバンド部は、RF部が復調したベースバンド信号に基づいて飛行型ロボット100の現在位置を算出する。GPSセンサー205は、さらに、不要成分を除去するフィルタや、LNA(Low Noise Amplifier)やパワーアンプPA(Power Amplifier)などの増幅器を備えていてもよい。
The
飛行型ロボット100の現在位置は、複数のGPS衛星から送信される電波に基づく測位によって特定することができる。ベースバンド部は、4機のGPS衛星との距離をそれぞれ算出し、それぞれの距離が一つに交わる位置を算出することによって測位をおこなう。GPS衛星から受信した電波に基づいて、GPS衛星と飛行型ロボット100との幾何学的位置を求めるGPSに代えて、みちびき、グローナス(GLONASS)、ガリレオ(Galileo)などの衛星測位システムを用いて飛行型ロボット100の現在位置を特定してもよい。
The current position of the
対物センサー206は、飛行型ロボット100から所定範囲内に存在する障害物の有無を検出する。障害物は、飛行型ロボット100の飛行の支障になる物体であって、具体的には、たとえば、壁、天井、家具、人物などが該当する。飛行型ロボット100を屋外で飛行させる場合、たとえば、車両、自装置以外の飛行型ロボット100、樹木、建物など、飛行型ロボット100の飛行の支障になるすべての物体が障害物に該当する。
The
対物センサー206は、具体的には、たとえば、赤外線センサー、静電容量センサー、超音波センサーなどの非接触センサーによって実現することができる。対物センサー206は、赤外線センサー、静電容量センサー、超音波センサーなどの非接触センサーのうち少なくともいずれかによって実現することができる。飛行型ロボット100は、複数種類の非接触センサーを対物センサー206として搭載していてもよい。また、飛行型ロボット100は、カメラ103によって撮影した画像に基づいて、飛行型ロボット100から所定範囲内に存在する障害物の有無を検出してもよい。
Specifically, the
ソーラーセル106は、プラスを帯びやすいP型シリコン半導体とマイナスを帯びやすいN型シリコン半導体とを、PN接合面を介して張り合わせることによって構成されている。ソーラーセル106においては、太陽光などの外光による光エネルギーがPN接合面に加わると、P型シリコン半導体はプラスを帯び、N型シリコン半導体はマイナスを帯びる。ソーラーセル106において、P型シリコン半導体およびN型シリコン半導体にはそれぞれ電極が接続されており、当該電極にそれぞれ接続された電線を介して発電した電力を取り出すことができる。
The
制御回路207は、飛行型ロボット100が備える各部を駆動制御する。制御回路207は、CPUやメモリなどによって構成されるマイコンによって実現することができる。制御回路207は、具体的には、たとえば、LSI(Large Scale Integration)やFPGA(Field-Programmable Gate Array)などによって実現することができる。
The
CPUは、メモリに記憶されたプログラムを実行することによって、飛行型ロボット100の全体の制御をつかさどる。メモリは、たとえば、CPUが実行するプログラムや、飛行型ロボット100の動作に関する各種条件に関する情報、カメラ103が撮影した画像に関する情報などの各種の情報を記憶する。
The CPU controls the entire flight-
メモリは、具体的には、たとえば、ICメモリやSSD(Solid State Drive)などによって実現することができる。また、メモリは、飛行型ロボット100に対して、飛行型ロボット100に設けられたカードスロットを介して着脱可能なメモリカードであってもよい。メモリカードは、たとえば、SD(Secure Digital)メモリカードなどのICカードによってその機能を実現することができる。メモリは、外付けのUSBメモリなどによって、その機能を実現するようにしてもよい。
Specifically, the memory can be realized by, for example, an IC memory or an SSD (Solid State Drive). Further, the memory may be a memory card that can be attached to and detached from the
制御回路207は、ソーラーセル106によって発電された電力をバッテリー201に充電する充電回路などを備える。充電回路は、ソーラーセル106が発電した電力における電圧を調整するDC/DCコンバータなどを含む。
The
また、制御回路207は、IMU(Inertial Measurement Unit)、ESC(Electronic Speed Controller)や、BEC(Battery Elimination Circuit)あるいはUBEC(Universal BEC)などの回路を含んでいる。
Further, the
IMUは、ドローン101が外部の情報を取得するために必要なセンサー類であって、たとえば、ジャイロセンサー、加速度センサー、気圧センサー、超音波センサー、磁気方位センサー(コンパス)などによって構成される。また、上記のGPSセンサー205も、IMUに含まれる。
The IMU is sensors necessary for the
ジャイロセンサーは、ドローン101の角度の変化量を検出する。ジャイロセンサーは、たとえば、コリオリ力を利用して角速度を計測することによって、ドローン101の角度の変化量を検出する。ジャイロセンサーにより、ドローン101を安定して飛行させることができる。
The gyro sensor detects the amount of change in the angle of the
加速度センサーは、ドローン101の速度の変化量を検出する。ジャイロセンサーおよび加速度センサーにより、ドローン101の傾き具合とドローン101の速度との両方の変化量を計算することができるので、ドローン101が傾いたままであっても、飛行し続けることができる。
The accelerometer detects the amount of change in the speed of the
気圧センサーは、ドローン101の高度を検出する。気圧センサーは、たとえば、気圧の変化を検出することによって、ドローン101の高度を検出する。気圧センサーによってドローン101の高度を測定することにより、ドローン101の高度を維持することができる。
The barometric pressure sensor detects the altitude of the
超音波センサーは、ドローン101の下方に位置する物体(床面、障害物など)からの距離を検出する。超音波センサーは、たとえば、ドローン101の下面に設けられ、ドローン101の下方に発した超音波の跳ね返りを利用して、ドローン101の下方に位置する物体からの距離を検出する。これにより、ドローン101の地上(床面、地面など)追跡や、着陸を安定しておこなうことができる。対物センサー206として超音波センサーを用いる場合、ドローン101の全方位に超音波を発し、当該超音波センサーによって、対物センサー206としての機能と、IMUの一部としての機能と、を両立させてもよい。
The ultrasonic sensor detects the distance from an object (floor surface, obstacle, etc.) located below the
磁気方位センサーは、ドローン101が東西南北のいずれの方角に向いているかを検出する。飛行型ロボット100は、飛行させる場所によって磁気の影響を受けるため、運用上、飛行させる場所の変更に際しては、コンパスキャリブレーションをおこない、磁気方位センサーの調整をおこなうことが好ましい。
The magnetic compass sensor detects in which direction the
IMUは、上記のマイコンとともにフライトコントローラを構成する。フライトコントローラは、モーター202の回転制御にかかる演算をおこない、ESCに対して、プロペラ(プロペラのモーター202)の回転方向や回転数を制御する制御信号を出力する。ESCは、フライトコントローラから出力された制御信号に基づきモーター202を回転制御する。フライトコントローラは、飛行型ロボット100の飛行中、飛行型ロボット100の傾きなどを検知して演算を繰り返しおこない、モーター202に対する制御信号を再帰的に出力する。
The IMU constitutes a flight controller together with the above-mentioned microcomputer. The flight controller performs calculations related to rotation control of the
フライトコントローラは、具体的には、たとえば、隣り合うプロペラどうしを逆回転させるように制御する制御信号を出力することによって飛行型ロボット100の回転を防止する。また、たとえば、進行方向前方のプロペラを進行方向後方のプロペラよりも遅く回転させるように制御することによって飛行型ロボット100を前進させる。また、たとえば、進行方向右側のプロペラを進行方向左側のプロペラよりも遅く回転させるように制御することによって飛行型ロボット100を右方向に旋回させる。
Specifically, the flight controller prevents the
また、制御回路207は、バッテリー201の残量を計測する残量計測回路を含んでいる。残量計測回路は、たとえば、インピーダンス・トラック方式、電圧測定方式、クーロン・カウンタ方式、あるいは、電池セル・モデリング方式など、公知の各種の方式を用いてバッテリー201の残量を計測する。
Further, the
通信I/F208は、通信回線を通じて飛行型ロボット100とネットワークNとを接続する無線通信インタフェースであって、ネットワークNと飛行型ロボット100の内部とのインタフェースをつかさどり、ネットワークNを介して接続されている外部装置からのデータの入力および外部装置へのデータの出力を制御する。ネットワークNは、たとえば、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)などによって実現される。
The communication I /
通信I/F208は、たとえば、Wi-Fi(登録商標)による無線インタフェースである。また、通信I/F208は、携帯電話回線(たとえばLTE(Long Term Evolution)、PHS(Personal Handy-phone System)などの無線通信のインタフェースであってもよい。
The communication I /
通信I/F208を介した通信は、所定の時刻、所定時間ごとなど定期的におこなってもよく、通信回線の状況などに応じて任意のタイミングでおこなってもよい。上記のメモリは、通信I/F208を介した通信によって取得した情報を記憶してもよい。また、メモリは、飛行型ロボット100のユーザなどによってあらかじめ入力された情報を記憶してもよい。
Communication via the communication I /
目に相当する部分に設けられたLEDランプ104は、制御回路207によって制御され、飛行型ロボット100の飛行動作と連動して点灯したり消灯したり点滅したりする。また、LEDランプ104は、飛行型ロボット100の状態を案内してもよい。具体的には、たとえば、充電残量が所定の閾値を下回った場合に、所定のパターンで点滅する。LEDランプ104の発光色は1色に限るものではなく、複数色であってもよい。
The
飛行型ロボット100は、その他、図示は省略するが、飛行型ロボット100に対する入力指示をおこなうキーまたはボタンなどの入出力デバイスや、飛行型ロボット100の電源のON/OFFを切り替える電源スイッチ、および、目に相当する部分以外の位置に設けられたLEDランプなどを備えていてもよい。入出力デバイスは、他の情報処理装置を接続可能な接続端子などによって実現されるものであってもよい。
Although not shown, the flying
(飛行型ロボット100の機能的構成)
つぎに、飛行型ロボット100の機能的構成について説明する。図3は、この発明にかかる実施の形態1の飛行型ロボット100の機能的構成を示す説明図である。図3に示すように、飛行型ロボット100の機能は、記憶部301と、検出部302と、撮影部303と、取得部304と、駆動部305と、出力部306と、制御部307と、によって実現される。
(Functional configuration of the flying robot 100)
Next, the functional configuration of the
記憶部301は、制御部307による制御にかかる各種プログラムや、プログラムの実行に用いる閾値などを含む各種情報を記憶する。また、記憶部301は、撮影部303が撮影した画像情報や、取得部304が取得した情報などを記憶する。記憶部301は、バッテリーの充電スポットに関する情報などを記憶してもよい。記憶部301302は、具体的には、たとえば、図2に示した制御回路207におけるメモリなどによって、その機能を実現することができる。
The
検出部302は、飛行型ロボット100から所定範囲内に存在する障害物の有無を検出する。検出部302は、具体的には、たとえば、図2に示した対物センサー206などによって、その機能を実現することができる。また、検出部302は、具体的には、たとえば、対物センサー206に代えて、あるいは、対物センサー206に加えて、図2に示したカメラ103などによって、その機能を実現してもよい。
The
カメラ103による障害物の有無の検出は、たとえば、飛行型ロボット100が移動することにより得られる、異なる複数の位置において撮影された各画像における視差(各画像どうしの差分)に基づき、障害物までの距離を求める移動ステレオ方法を用いることによって実現することができる。移動ステレオ方法を用いることにより、単眼のカメラを用いて、飛行型ロボット100から所定範囲内に存在する障害物の有無を検出することができる。
The detection of the presence or absence of an obstacle by the
撮影部303は、飛行型ロボット100の周囲の画像を撮影する。撮影部303は、具体的には、たとえば、図2に示したカメラ103などによって、その機能を実現することができる。上記の記憶部301は、撮影部303が撮影した画像にかかる画像情報を記憶する。
The photographing
また、記憶部301は、画像情報に加えて、当該画像情報にかかる画像を撮影した場所に関する情報を、当該画像情報に関連付けて記憶してもよい。画像を撮影した場所に関する情報は、たとえば、GPSセンサー205を用いて特定することができる。
Further, in addition to the image information, the
取得部304は、飛行型ロボット100の外部の情報を取得する。具体的には、取得部304は、たとえば、飛行型ロボット100の周囲の画像を取得する。この場合、取得部304は、具体的には、たとえば、図2に示したカメラ103などによって、その機能を実現することができる。上記の記憶部301は、取得部304が取得した情報のうち、少なくとも、撮影した画像に含まれる人物、あるいは、当該人物の特徴に関する情報を記憶する。
The
また、具体的には、取得部304は、たとえば、ネットワークNを介して、外部装置から所定の情報を取得してもよい。この場合、取得部304は、具体的には、たとえば、図2に示した通信I/F208などによって、その機能を実現することができる。
Further, specifically, the
この場合の取得部304は、たとえば、特定の端末装置から出力された通知情報を、所定の情報として取得する。特定の端末装置は、たとえば、あらかじめ記憶部301に識別情報を記憶した端末装置であって、具体的には、特定のユーザーが所有するスマートフォンなどによって実現することができる。
In this case, the
また、この場合の取得部304は、たとえば、現時点以降の所定時間内に、災害などのような特定のユーザーに影響を与える可能性がある事象が発生する可能性があることを示す情報を、所定の情報として取得してもよい。所定の情報は、たとえば、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報であってもよい。取得部304は、ネットワークNを介して、たとえば、常時、あるいは所定間隔ごとに通信をおこなってこのような所定の情報を取得する。
Further, the
また、取得部304は、たとえば、特定のユーザーの嗜好に合致した音楽やニュース、物品の販売情報などの各種の情報を、所定の情報として取得してもよい。この場合、取得部304は、具体的には、たとえば、図2に示したカメラ103やマイク203などによって、その機能を実現することができる。特定のユーザーの嗜好に合致した音楽・ニュース・物品の販売情報などは、たとえば、マイク203によって特定のユーザーの周囲において集音された音声、特定のユーザーの使用頻度が高い物品、特定のユーザーの視界に入る頻度が高い物品、などに基づいて判断することができる。
Further, the
特定のユーザーの視界に入る頻度が高い物品は、たとえば、映画、ニュース、バラエティなどのテレビ番組、園芸品や食器などの趣味性の高い物品などであって、特定のユーザーの使用頻度が高い物品と同様に、撮影部303が撮影した画像などに基づいて判断することができる。上記の記憶部301は、取得部304が取得した情報のうち、少なくとも、特定のユーザーの嗜好に関する情報を記憶することができる。
Items that are frequently seen by a specific user are, for example, TV programs such as movies, news, and variety shows, and highly hobby items such as gardening and tableware, which are frequently used by a specific user. Similarly, the determination can be made based on the image or the like captured by the photographing
また、取得部304は、たとえば、特定のユーザーの声を取得してもよい。特定のユーザーの声は、たとえば、マイク203によって集音された音声や、マイク203によって集音された音声および同時期にカメラによって撮影された画像などに基づいて判断することができる。この場合、取得部304は、具体的には、たとえば、図2に示したカメラ103やマイク203などによって、その機能を実現することができる。上記の記憶部301は、取得部304が取得した情報のうち、特定のユーザーの声に関する情報を記憶することができる。
Further, the
また、取得部304は、たとえば、別の飛行型ロボット100が学習した情報を、所定の情報として取得してもよい。これにより、単機の飛行型ロボット100の学習により得られた情報を、別の複数の飛行型ロボット100が共有することができ、飛行型ロボット100に、特定のユーザーの嗜好により一層合致した行動をさせることができる。
Further, the
駆動部305は、ドローン101の飛行を制御する。駆動部305は、具体的には、たとえば、図1に示したドローン101によって、その機能を実現することができる。駆動部305は、より具体的には、たとえば、図1に示したプロペラ102や図2に示した制御回路207におけるフライトコントローラ、ESC、BEC(UBEC)、および、モーター202、対物センサー206などによって、その機能を実現することができる。
The
出力部306は、飛行型ロボット100の飛行動作と連動して動作する。また、出力部306は、飛行型ロボット100の状態に応じて動作する。出力部306は、たとえば、飛行型ロボット100が特定のユーザーの周辺を飛行する飛行動作に連動して動作したり、飛行型ロボット100が特定のユーザーの周辺を飛行している状態におけるバッテリーの残量に応じて動作する。
The
具体的に、出力部306は、たとえば、飛行型ロボット100が特定のユーザーの周辺を飛行する際に、目に相当する部分に設けられたLEDランプ104を点灯させたり、点滅させたりする。この場合、出力部306は、具体的には、たとえば、図1や図2に示したLEDランプ104などによって、その機能を実現することができる。
Specifically, for example, when the flight-
また、出力部306は、たとえば、飛行型ロボット100が特定のユーザーの周辺を飛行する際に、スピーカー204から音声を出力してもよい。出力部306が出力する音声は、たとえば、動物の鳴き声を模した音声であってもよく、特定のユーザーへ語りかける声であってもよく、音楽であってもよい。この場合、出力部306は、具体的には、たとえば、図2に示したスピーカー204などによって、その機能を実現することができる。
Further, the
また、出力部306は、たとえば、災害、地震、津波、発雷、降雨、強風、急激な天候の変化など、特定のユーザーに影響を与える可能性がある事象が発生する可能性があることを示す情報が取得されたことに応じて、飛行型ロボット100が特定のユーザーの周辺に近づいた際に、当該事象が発生する可能性があることを案内する音声を出力したり、特定のパターンや発光色でLEDランプ104を発光させたり点滅させたりしてもよい。
Further, the
制御部307は、飛行型ロボット100の全体を制御する。制御部307は、具体的には、たとえば、図2に示した制御回路207によって、その機能を実現することができる。制御部307は、より具体的には、たとえば、図2に示した制御回路207におけるCPUによって、メモリなどに記憶されたプログラムを実行することによって、その機能を実現することができる。
The
制御部307は、たとえば、駆動部305を制御することによって、ドローン101を飛行させる。具体的に、制御部307は、バッテリーがフル充電された場合に、ドローン101の飛行を開始する。また、制御部307は、たとえば、特定のユーザーの呼び声を検出した場合に、飛行を開始する。また、制御部307は、たとえば、通信I/F208を介して取得した情報に基づいて、所定の情報を取得した場合に、飛行を開始する。
The
また、制御部307は、たとえば、撮影部303によって撮影された画像に基づいて特定のユーザーを認識する。特定のユーザーの認識に際し、制御部307は、たとえば、撮影部303によって撮影された画像のノイズや歪みなどを取り除き、当該画像に含まれるオブジェクトの輪郭を強調したり、当該画像の明るさや色合いを調整したりすることによって人物を抽出しやすくする。
Further, the
また、特定のユーザーの認識に際し、制御部307は、たとえば、撮影部303によって撮影された画像から当該画像を構成する最小要素であるピクセル単位で、目・口・鼻などの特徴を抽出し、ピクセルに付与されている色や明るさなどの各種の情報に基づいて、当該画像に撮影されている人物を認識する。
Further, when recognizing a specific user, the
また、特定のユーザーの認識に際し、制御部307は、たとえば、抽出した人物に関する情報を、記憶部301に記憶する。抽出した人物に関する情報は、たとえば、当該人物が撮影された累積の時間、当該人物が撮影された累積の回数のうちの少なくとも一方を含む。抽出した人物に関する情報は、たとえば、当該人物が撮影された累積の時間、および、当該人物が撮影された累積の回数の両方を含んでいてもよい。
Further, when recognizing a specific user, the
また、特定のユーザーの認識に際し、制御部307は、たとえば、撮影部303によって撮影された画像と、記憶部301に記憶されている抽出した人物に関する情報とに基づいて、撮影部303によって撮影された画像から認識された人物が、撮影部303によって所定時間以上または所定回数以上撮影された人物であるか否かを判断する。そして、撮影部303によって撮影された画像から抽出された人物が、所定時間以上または所定回数以上撮影された人物である場合に、当該画像から認識された人物が特定のユーザーであると認識する。
Further, when recognizing a specific user, the
制御部307は、特定の範囲内において撮影部303によって撮影された人物であるか否かを判断することにより、特定のユーザーを認識してもよい。具体的には、たとえば、自宅内、学校の敷地内、店舗内などのような特定の範囲内にいる機会が相応にある人物を、特定のユーザーであると認識することができる。
The
制御部307は、さらに、特定の範囲内において、撮影部303によって撮影された画像から認識された人物が、撮影部303によって所定時間以上または所定回数以上撮影された人物であるか否かを判断することによって、特定のユーザーを認識してもよい。具体的には、たとえば、自宅内、学校の敷地内、店舗内などのような特定の範囲内において、撮影部303によって撮影された画像から認識された人物が、所定時間以上または所定回数以上撮影された人物である場合に、当該画像から認識された人物が特定のユーザーであると認識する。
The
また、制御部307は、たとえば、特定のユーザーを認識した場合に、駆動部305を制御することによって、当該特定のユーザーの周囲において飛行型ロボット100を飛行させる。制御部307は、具体的には、たとえば、特定のユーザーが手を伸ばしても飛行型ロボット100に触れることができない程度に、当該特定のユーザーに近い位置において飛行型ロボット100を飛行させる。
Further, for example, when the
制御部307は、より具体的には、たとえば、特定のユーザーの頭上において飛行型ロボット100を旋回させたり、特定のユーザーの正面において飛行型ロボット100をホバリングさせたり、特定のユーザーにじゃれるように当該特定のユーザーに対して飛行型ロボット100を近づけたり遠のけたりするように、飛行型ロボット100を飛行させる。制御部307は、特定のユーザーが飛行型ロボット100を視認したことを検出した場合、当該特定のユーザーから離れて充電スポットに戻るように、飛行型ロボット100を飛行させてもよい。このように、飛行型ロボット100が、巣の周囲を巡回して状況を確認して巣に戻るという、いわば、充電スポットを巣に見立てた「縄張り行動」を模すことにより、特定のユーザーを含む周囲の人物に、あたかも、飛行型ロボット100が自らの意思をもった生物であるような印象を与えることができる。
More specifically, the
制御部307は、駆動部305を制御することによって、飛行型ロボット100に特定のユーザーの周囲を飛行させるだけでもよく、駆動部305と出力部306とを連動させて、飛行型ロボット100に特定のユーザーの周囲を飛行させながら、LEDランプ104を発光(点滅)させたり、スピーカー204から音声を出力させたりしてもよい。
The
(充電スポットの外観の一例)
つぎに、充電スポットの外観の一例について説明する。図4Aおよび図4Bは、充電スポットの一例を示す説明図である。図4Aにおいては、充電スポットの外観の一例を示している。図4Bにおいては、図4AにおけるA-A断面を示している。図4Aおよび図4Bに示すように、充電スポット400は、充電パッド401と、外装部402と、を備えている。
(An example of the appearance of the charging spot)
Next, an example of the appearance of the charging spot will be described. 4A and 4B are explanatory views showing an example of a charging spot. FIG. 4A shows an example of the appearance of the charging spot. FIG. 4B shows a cross section taken along the line AA in FIG. 4A. As shown in FIGS. 4A and 4B, the charging
充電パッド401は、送電コイル401aを備えている。送電コイル401aは、ABS樹脂やシリコンゴムなどを用いて形成されたカバー401bに内包されている。また、充電パッド401(送電コイル401a)には、先端にコンセントプラグが設けられた電源ケーブル401cが接続されている。電源ケーブル401cの先端に設けられたコンセントプラグを商用電源に接続し、送電コイル401aに電気を流すことによって、送電コイル401aに磁界を発生させることができる。
The
充電パッド401は、電源ケーブル401cに代えて、メス型USB端子などのような、充電ケーブルを接続可能な端子を備えていてもよい。この場合、オス型USB端子を備える電源ケーブルや、商用電源とUSB電源との変換用アダプターを用いて、送電コイル401aに電気を流すことによって、送電コイル401aに磁界を発生させることができる。これにより、充電スポット400の設置場所などに応じた任意の長さの電源ケーブルを用いることができる。
The
外装部402は、たとえば、鳥獣類の巣を模した外観をなし、充電パッド401を覆うように設置される。外装部402は、充電パッド401に対する飛行型ロボット100の発着を許容する開口部を備えている。外装部402は、たとえば、図4Aや図4Bに示すように充電スポット400の上方に開口を備えた形状であってもよく、充電スポット400の真上を覆い側方を開放する開口を備えた洞穴のような形状であってもよい。飛行型ロボット100は、充電パッド401の上方に開口が設けられている場合、充電パッド401に対して、充電パッド401の上側から接近し、充電パッド401の上側へ飛び立つ。飛行型ロボット100は、洞穴のような形状の外装部402を備えている場合、充電パッド401の上側側方から接近し、充電パッド401の上側側方へ飛び立つ。
The
充電スポット400は、Wi-Fiルーターなどの無線ルーターを備えていてもよい。これにより、充電スポット400を通信スポットとして機能させることができ、飛行型ロボット100は、充電スポット400を介して通信をおこなうことができる。自宅などに引き込まれているインターネット回線に充電スポット400を接続し、飛行型ロボット100が充電スポット400を介して通信をおこなうことにより、1台の充電スポット400を設置して、複数台の飛行型ロボット100を利用することができる。
The charging
(飛行型ロボット100の処理手順の一例)
つぎに、飛行型ロボット100の処理手順の一例について説明する。図5は、この発明にかかる実施の形態1の飛行型ロボット100の処理手順の一例を示すフローチャートである。図5のフローチャートにおいて、まず、飛行を開始するか否かを判断する(ステップS501)。ステップS501においては、たとえば、バッテリーの残量に基づいて、バッテリーがフル充電された場合に、飛行を開始すると判断する。また、ステップS501においては、たとえば、マイク203を介して集音される音声に基づいて、特定のユーザーの呼び声を検出した場合に、飛行を開始すると判断してもよい。また、ステップS501においては、たとえば、通信I/F208を介して取得した情報に基づいて、所定の情報を取得した場合に、飛行を開始すると判断してもよい。
(Example of processing procedure of the flight robot 100)
Next, an example of the processing procedure of the
ステップS501においては、飛行を開始すると判断するまで待機する(ステップS501:No)。一方、ステップS501において、飛行を開始すると判断した場合(ステップS501:Yes)、飛行を開始する(ステップS502)。ステップS502においては、たとえば、ドローン101を駆動し、充電スポット400から飛び立ち、障害物を回避しながら所定の範囲内を飛行する。所定の範囲は、たとえば、自宅内、学校の敷地内、店舗内などのような特定の範囲を含む任意の範囲とすることができる。
In step S501, it waits until it is determined that the flight will start (step S501: No). On the other hand, when it is determined in step S501 to start the flight (step S501: Yes), the flight is started (step S502). In step S502, for example, the
つぎに、飛行中にカメラによって撮影した画像に基づいて、特定のユーザーを検出したか否かを判断する(ステップS503)。ステップS503においては、たとえば、上記のように、所定の画像処理をおこなって抽出された人物が、撮影部303によって所定時間以上または所定回数以上撮影された人物であるか否かを判断することによって、特定のユーザーを検出したか否かを判断することができる。また、ステップS503においては、たとえば、上記のように、特定の範囲内において、撮影部303によって撮影された画像から認識された人物が、撮影部303によって所定時間以上または所定回数以上撮影された人物であるか否かを判断することによって、特定のユーザーを検出したか否かを判断してもよい。
Next, it is determined whether or not a specific user has been detected based on the image taken by the camera during the flight (step S503). In step S503, for example, as described above, by determining whether or not the person extracted by performing the predetermined image processing is a person who has been photographed by the photographing
ステップS503において、特定のユーザーを検出していない場合(ステップS503:No)、ステップS505へ移行する。一方、ステップS503において、特定のユーザーを検出したと判断した場合(ステップS503:Yes)、所定のプロセスの実行を開始する(ステップS504)。ステップS504においては、たとえば、あらかじめ設定された複数のプロセスの中から、任意に選択したプロセスの実行を開始する。 If a specific user is not detected in step S503 (step S503: No), the process proceeds to step S505. On the other hand, if it is determined in step S503 that a specific user has been detected (step S503: Yes), execution of a predetermined process is started (step S504). In step S504, for example, execution of an arbitrarily selected process from a plurality of preset processes is started.
ステップS504において実行を開始するプロセスは、たとえば、バッテリーの残量、飛行型ロボットの現在位置、ステップS503:Yesにおいて検出した特定のユーザーなどに基づいて選択することができる。また、ステップS504においては、たとえば、特定のユーザーの周囲を任意の回数旋回した後に、充電スポット400に帰還するプロセスの実行を開始してもよい。
The process to start execution in step S504 can be selected based on, for example, the remaining battery level, the current position of the flying robot, the specific user detected in step S503: Yes, and the like. Further, in step S504, for example, after turning around a specific user an arbitrary number of times, the process of returning to the charging
具体的に、ステップS504においては、たとえば、特定のユーザーの周辺に近づいたり、目に相当する部分に設けられたLEDランプ104を点灯あるいは点滅させたり、動物の鳴き声を模した音声を出力したりするプロセスの実行を開始する。これによって、ペットなどの生物がもつ愛嬌を模した動作を実現することができる。
Specifically, in step S504, for example, the user approaches the vicinity of a specific user, the
また、特定のユーザーが移動している場合は、ステップS504において、当該特定のユーザーを追いかけるプロセスの実行を開始してもよい。ステップS504において実行を開始するプロセスは、1つであってもよく、複数であってもよい。複数のプロセスの実行を開始する場合、同時に複数のプロセスの実行を開始してもよく、開始時期をずらしてもよい。 Further, if a specific user is moving, the process of chasing the specific user may be started in step S504. The process that starts execution in step S504 may be one or a plurality. When starting the execution of a plurality of processes, the execution of the plurality of processes may be started at the same time, or the start time may be staggered.
また、ステップS504においては、たとえば、特定のユーザーの嗜好に合致した音楽を出力したり、ニュースを報知したりしてもよい。また、ステップS504においては、たとえば、特定のユーザーの過去の行動や嗜好などのプロファイルに基づいて、当該特定のユーザーの行動や嗜好などが類似する別のユーザーが利用する飛行型ロボット100のアクションパターンなどの情報を、ネットワークNを介して取得し、取得した情報に基づいて実行するプロセスを決定してもよい。
Further, in step S504, for example, music matching the taste of a specific user may be output or news may be notified. Further, in step S504, for example, based on the profile of the past behaviors and preferences of the specific user, the action pattern of the
つぎに、バッテリーの残量が、あらかじめ設定された第1の閾値を下回ったか否かを判断する(ステップS505)。第1の閾値は、たとえば、飛行型ロボット100が飛行しうる所定の範囲のうちもっとも充電スポット400から遠い位置から、飛行型ロボット100が充電スポット400に帰還するために要するバッテリー量に設定することができる。
Next, it is determined whether or not the remaining battery level has fallen below the preset first threshold value (step S505). The first threshold value is set, for example, to the amount of battery required for the flying
ステップS505において、バッテリーの残量が第1の閾値を下回っていない場合(ステップS505:No)、ステップS503へ移行して、特定のユーザーを検出しながらプロセスを実行する。一方、ステップS505において、バッテリーの残量が第1の閾値を下回った場合(ステップS505:Yes)、ステップS504において開始したプロセスが実行中であるか否かを判断する(ステップS506)。ステップS506において、プロセスが実行中ではない場合(ステップS506:No)、ステップS511へ移行する。 In step S505, if the remaining battery level is not below the first threshold value (step S505: No), the process proceeds to step S503, and the process is executed while detecting a specific user. On the other hand, in step S505, when the remaining battery level falls below the first threshold value (step S505: Yes), it is determined whether or not the process started in step S504 is being executed (step S506). If the process is not being executed in step S506 (step S506: No), the process proceeds to step S511.
一方、ステップS506において、プロセスが実行中である場合(ステップS506:Yes)、警告を出力する(ステップS507)。ステップS507においては、たとえば、目に相当する部分に設けられたLEDランプ104を赤色などの特定の色で点灯あるいは点滅させたり、スピーカー204から警告音を出力したりする。あるいは、ステップS507においては、たとえば、「バッテリーがなくなりそう」、「お腹が空いた」などのように、特定のユーザーに飛行型ロボット100の状態を言葉で知らせる音声を出力してもよい。また、あるいは、ステップS507においては、たとえば、ヨロヨロとふらつくような動作を模した飛行動作をおこなってもよい。
On the other hand, in step S506, when the process is being executed (step S506: Yes), a warning is output (step S507). In step S507, for example, the
つぎに、ステップS506:Yesにおいて実行中と判断されたプロセスが完了したか否かを判断し(ステップS508)、当該プロセスが完了した場合(ステップS508:Yes)、ステップS511へ移行する。ステップS508において、プロセスが完了していない場合(ステップS508:No)、バッテリーの残量が、あらかじめ設定された第2の閾値を下回ったか否かを判断する(ステップS509)。第2の閾値は、第1の閾値よりも少ない量に設定されており、飛行型ロボット100が充電スポット400への飛行に要するバッテリー量に設定することができる。第2の閾値は、たとえば、飛行型ロボット100の現在位置や充電スポット400の位置などに基づいて設定することができる。
Next, it is determined whether or not the process determined to be running in step S506: Yes is completed (step S508), and if the process is completed (step S508: Yes), the process proceeds to step S511. In step S508, if the process is not completed (step S508: No), it is determined whether or not the remaining battery level has fallen below the preset second threshold value (step S509). The second threshold value is set to an amount smaller than the first threshold value, and can be set to the battery amount required for the
ステップS509において、バッテリーの残量が第2の閾値を下回っていない場合(ステップS509:No)、ステップS508へ移行して、ステップS506:Yesにおいて実行中と判断されたプロセスが完了したか否かを判断する。一方、ステップS509において、バッテリーの残量が第2の閾値を下回った場合(ステップS509:Yes)、実行中のプロセスを強制終了して(ステップS510)、充電スポット400への帰還処理を実行して(ステップS511)、一連の処理を終了する。
If the remaining battery level is not below the second threshold value in step S509 (step S509: No), the process proceeds to step S508 and whether or not the process determined to be running in step S506: Yes is completed. To judge. On the other hand, in step S509, when the remaining battery level falls below the second threshold value (step S509: Yes), the running process is forcibly terminated (step S510), and the return process to the charging
ステップS510において、複数のプロセスを実行している場合は、実行中のすべてのプロセスを強制終了する。ステップS511においては、ドローン101のフェールセーフ機能のうちのRTH(Return To Home)を発動させることによって、充電スポット400への帰還処理を実行することができる。RTHの発動中は、カメラ103によって撮影された画像や対物センサー206の検出結果に基づいて障害物を回避する。
If a plurality of processes are being executed in step S510, all the running processes are forcibly terminated. In step S511, the return process to the charging
上述した実施の形態1においては、バッテリーの残量が、第1の閾値を下回った場合に警告を出力し、第1の閾値より低い第2の閾値を下回った場合に帰還処理をおこなうようにしたが、これに限るものではない。バッテリーの残量に基づく判断に代えて、あるいは、当該判断に加えて、飛行を開始してからの経過時間に基づいて、警告を出力したり、実行中のプロセスを強制終了して帰還処理をおこなうようにしてもよい。 In the first embodiment described above, a warning is output when the remaining battery level falls below the first threshold value, and a feedback process is performed when the remaining battery level falls below the second threshold value lower than the first threshold value. However, it is not limited to this. Instead of making a judgment based on the remaining battery power, or in addition to that judgment, a warning is output or a running process is forcibly terminated to perform return processing based on the elapsed time since the flight started. You may do it.
ステップS502において飛行を開始してから第1の閾値や第2の閾値に達するまでの時間は、ステップS502において飛行を開始した時点におけるバッテリーの残量に応じて異なる。このため、飛行を開始した時点におけるバッテリーの残量に応じて、ステップS504において実行を開始するプロセスの種類や数を決定してもよい。 The time from the start of the flight in step S502 to the arrival of the first threshold value and the second threshold value varies depending on the remaining battery level at the time when the flight is started in step S502. Therefore, the type and number of processes to be executed may be determined in step S504 according to the remaining battery level at the time when the flight is started.
(飛行型ロボット100の利用態様の一例)
つぎに、実施の形態1の飛行型ロボット100の利用態様の一例について説明する。図6A、図6Bおよび図6Cは、飛行型ロボット100の利用態様の一例を示す説明図である。
(Example of usage of the flight robot 100)
Next, an example of how to use the flight-
飛行型ロボット100は、たとえば、任意のタイミングで飛行を開始し、特定のユーザー600を認識すると、特定のユーザー600に接近し、当該特定のユーザー600の周囲を飛行する(図6Aを参照)。そして、たとえば、特定のユーザー600の周囲を任意の回数周回した後、あるいは、特定のユーザー600が飛行型ロボット100から目を離した際などに、充電スポット400へ帰還する。
For example, the
このように、飛行型ロボット100が特定のユーザー600の意思とは無関係に動作することにより、あたかも、飛行型ロボット100が自らの意思をもって、不意に巣からやってきて、いつの間にか巣に戻っているような感覚を、特定のユーザー600に抱かせることができる。また、飛行型ロボット100がユーザーの意思とは無関係に動作することにより、あたかも、退屈した飛行型ロボット100が、何の目的もなくやってきて、何の目的もなく飛び回っているかのような感覚を、特定のユーザー600に抱かせることができる。
In this way, the flying
そして、飛行型ロボット100が特定のユーザー600の意思とは無関係に予測のできない動作をすることにより、飛行型ロボット100が自らの意思で動作し、自らの意思で特定のユーザー600を探し出してコミュニケーションを取ろうとしているような感覚を、特定のユーザー600に抱かせることができる。これにより、ペットを飼っている状況と近似した状況を作り出すことができ、飛行型ロボット100を愛玩することで特定のユーザー600の寂しさや孤独感を和らげたり、ストレスを低下させたりすることができる。また、特定のユーザー600を精神的に充足させたり、気持ちを穏やかにさせたりすることができる。
Then, the flight-
また、特定のユーザー600の意思とは無関係な、飛行型ロボット100の予測のできない動作に対して、特定のユーザー600に、飛行型ロボット100の動作の意図を考えさせることができる。これによって、特定のユーザー600に、飛行型ロボット100が無機質・無機的なロボットではなく、命あり心ある生物と触れ合うような感覚を抱かせることができる。そして、これによって、特定のユーザー600の、寂しさや孤独感を和らげたり、ストレスを低下させたり、精神的な充足を高めたり、気持ちを穏やかにさせたりすることができる。
Further, the
飛行型ロボット100は、特定のユーザー600が特定の動作をした場合、その特定の動作に応じて、別のプロセスを実行するようにしてもよい。具体的には、たとえば、特定のユーザー600が飛行型ロボット100に手を近づけるなど、飛行型ロボット100に対して何らかの行動をおこなった場合に、当該特定のユーザー600から離れるように飛行してもよい(図6Bを参照)。このように、飛行型ロボット100が、敢えて、特定のユーザー600の意に反する動作をおこなうことにより、あたかも、飛行型ロボット100が、特定のユーザー600には媚びない、まるで気まぐれな猫のような態度をとっているような感覚を、特定のユーザー600に抱かせることができる。
When a
あるいは、具体的には、たとえば、特定のユーザー600の周囲を周回しても、当該特定のユーザー600が無反応(「飛行型ロボット100に顔を向けない」という動作、など)である場合に、特定のユーザー600に一層接近するように飛行してもよい(図6Cを参照)。飛行型ロボット100がこのような動作をおこなうことにより、あたかも、飛行型ロボット100が構ってもらいたくて特定のユーザー600に接近している(絡んでくる)ような感覚を、特定のユーザー600に抱かせることができる。
Alternatively, specifically, for example, when the
このように、飛行型ロボット100が、特定のユーザー600を監視(モニタリング)し、モニタリングの結果に基づいて特定のユーザー600に対する所定の動作をおこない、当該動作に応じた特定のユーザー600の行動に基づいてつぎの動作をおこなうことにより、特定のユーザー600に対して、無機質・無機的なロボットではなく、命あり心あるペットなどの生物と触れ合うような感覚を抱かせることができる。
In this way, the flight-
飛行型ロボット100は、特定のユーザー600の同一の行動に対して、常に同じ動作をおこなうものではなくてもよい。たとえば、前回、特定のユーザー600が飛行型ロボット100に手を近づけたことに応じて、当該特定のユーザー600に一層接近した動作をおこなった場合にも、次回、特定のユーザー600が同じ行動をおこなった場合には、当該特定のユーザー600から離れるように飛行してもよい。このように、特定のユーザー600に、飛行型ロボット100の動作の意図を明確に分からせないようにしてもよい。これによって、生物どうしの触れ合いにおいて往々にして発生する不可解さを模すことができる。
The flight-
特定のユーザー600は、飛行型ロボット100の動作の意図が明確に分からない場合があっても、飛行型ロボット100の動作自体を楽しむことができ、生物どうしの触れ合いにおいて往々にして発生する不可解さを楽しむことができる。このようにして、ペットなどの生物との関係性を再現することにより、特定のユーザー600は、正解の不明な(正解があるともないとも不明な)飛行型ロボット100の動作の意図を考えること自体を楽しむことができる。
The
また、飛行型ロボット100が暗視カメラや赤外線カメラを搭載している場合、夜間であっても、撮像補助用の光源を用いることなく、飛行型ロボット100の周囲の画像を鮮明に撮影することができる。これによって、暗闇において人物(泥棒など)を検出した場合は、大きな音を出力したり、通信I/F208を介して警備会社などの外部と連絡をとったりすることができる。
Further, when the flying
上述した実施の形態1においては、利用者(特定のユーザー600)に癒やしを提供する飛行型ロボット100について説明したが、飛行型ロボット100の利用方法はこれに限るものではない。飛行型ロボット100は、たとえば、ボクシングや空手などの格闘技における実戦や試合のシミュレーションの支援をおこなうファイティングシミュレーターとして利用することができる。
In the first embodiment described above, the flight-
ファイティングシミュレーターとして利用される飛行型ロボット100は、具体的には、たとえば、ボクシングや空手などの格闘技において、打ち込みをおこなうに適した場所を案内するように飛行する。この場合、利用者は、飛行型ロボット100をめがけて打ち込みをおこなうことにより、実戦形式や試合形式を模した練習(いわゆるスパーリング)をおこなうことができる。
Specifically, the flying
スパーリングに際しては、LEDライトの点灯や点滅、発光色の調整、あるいは、音声の出力などによって、打ち込むタイミングを案内してもよい。具体的に、スパーリングに際しては、たとえば、手(拳)で打ち込む場所を、LEDライトを赤色に発光させることによって案内し、足で打ち込む(蹴る)場所を、LEDライトを緑色に発光させることによって案内する。また、スパーリングに際しては、ネットワークNを介して、著名な選手の動きに関する情報を取得し、当該情報に基づいて、著名な選手の動きを模した飛行動作をおこなってもよい。 At the time of sparring, the timing of driving may be guided by turning on or blinking the LED light, adjusting the emission color, or outputting voice. Specifically, when sparring, for example, the LED light emits red light to guide the place to hit with the hand (fist), and the LED light emits green light to the place to hit (kick) with the foot. invite. Further, at the time of sparring, information on the movement of a prominent player may be acquired via the network N, and based on the information, a flight motion imitating the movement of a prominent player may be performed.
また、飛行型ロボット100は、たとえば、オーケストラや吹奏楽などにおける演奏の指揮をおこなうフライングコンダクターとして利用することができる。フライングコンダクターとして利用される飛行型ロボット100は、具体的には、たとえば、指揮棒(タクト、バトン)の先端の動きを模した飛行動作をおこなう。また、演奏の途中でパートが切り替わる際に、該当するパート(楽器)の近くに飛行するようにしてもよい。これにより、各パートにおける演奏を確実に支援することができる。
Further, the flying
また、飛行型ロボット100は、たとえば、カラオケなどにおいて、楽曲の進行などにあわせて合いの手を入れたり、楽曲に合わせて踊るように飛行したりするフライングパフォーマーとして利用することができる。フライングパフォーマーとして利用される飛行型ロボット100は、さらに、カラオケにおける演奏楽曲をスピーカー204から出力してもよい。これにより、利用者は、屋外など電源を確保することが難しい場所であっても、任意の場所においてカラオケを楽しむことができる。
Further, the flying
以上説明したように、この発明にかかる実施の形態の飛行型ロボット100は、自動操縦により飛行するドローン(無人航空機)101と、ドローン101に搭載されたカメラ103と、を備え、カメラ103によって撮影された画像に基づいて特定のユーザー600を認識し、当該特定のユーザー600の周囲を飛行するようにしたことを特徴としている。
As described above, the flight-
この発明にかかる実施の形態1の飛行型ロボット100によれば、カメラ103によって撮影された画像に基づいて認識した特定のユーザー600の周囲を自動操縦によって飛行することにより、特定のユーザー600を飼い主として認識し、飼い主にコミュニケーションを要求するという、動物のペットと同様な動作をすることができる。これにより、特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えることができる。
According to the flight-
また、飛行型ロボット100によれば、清潔な状態を保つことができるため、生物を飼育する場合と比較して、衛生面における問題をなくすことができる。また、飛行型ロボット100によれば、動物アレルギーの問題が生じないため、特定のユーザー600の体質にかかわらず、ペットとのコミュニケーションを体験することができる。
Further, according to the flying
また、飛行型ロボット100によれば、衛生面や動物アレルギーの問題が生じないことに加えて、空中を飛行することにより、床などから細菌やウイルス、汚れなどが付着することがないため、病院や介護施設のような場所においても使用することができる。これにより、病院や介護施設の利用者に対するセラピー効果を期待することができる。
Further, according to the flying
また、この発明にかかる実施の形態1の飛行型ロボット100は、カメラ103によって所定時間以上または所定回数以上撮影された人物を、特定のユーザー600として認識することを特徴としている。
Further, the flight-
この発明にかかる実施の形態1の飛行型ロボット100によれば、飛行型ロボット100と相応に接する機会をもった特定のユーザー600の周囲を自動操縦によって飛行することにより、相応に接することでユーザーに馴れるというペットを模した動作をすることができる。これにより、特定のユーザー600に、長期にわたって飛行型ロボットに対する関心をもたせ、特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えることができる。
According to the flight-
また、この発明にかかる実施の形態1の飛行型ロボット100は、特定の範囲内において、カメラ103によって撮影された人物を、特定のユーザー600として認識することを特徴としている。
Further, the flight-
この発明にかかる実施の形態1の飛行型ロボット100によれば、たとえば、自宅内、学校の敷地内、店舗内などのような特定の範囲内にいる機会が相応にあるために、カメラによって撮影される可能性の高い特定のユーザー600の周囲を自動操縦によって飛行することにより、特定の範囲内において相応に接した特定のユーザー600に馴れるというペットを模した動作をすることができる。これにより、特定のユーザー600に、長期にわたって飛行型ロボット100に対する関心や親近感や愛着をもたせ、特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えることができる。
According to the flight-
このような動作をする飛行型ロボット100は、たとえば、自宅内において飛行型ロボット100と相応に接する機会をもった特定のユーザー600と、自宅外において飛行型ロボット100と相応に接する機会をもった特定のユーザー600の友人と、で異なる動作をするため、特定のユーザー600が飛行型ロボットに対して親近感や愛着をもちやすくなり、より確実に特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えることができる。
The flying
また、この発明にかかる実施の形態1の飛行型ロボット100は、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーの少なくとも一部が前記無人航空機に接近した場合、当該特定のユーザーから離れるように飛行することを特徴としている。
Further, the flight-
この発明にかかる実施の形態1の飛行型ロボット100によれば、「飼い主(特定のユーザー600)に近寄ってきたものの、触れられるのは避けたい」という、室内飼いの犬や猫によく見られる「飼い主の行動をチェックしにくる」ような動作を飛行型ロボット100におこなわせることができ、あたかも、飛行型ロボット100が自らの意思をもった生物のような印象を与えることができる。
According to the flight-
また、この発明にかかる実施の形態1の飛行型ロボット100は、前記特定のユーザーの周囲を飛行中に、当該特定のユーザーが前記無人航空機を目視しない場合、当該特定のユーザーに接近するように飛行することを特徴としている。
Further, the flight-
この発明にかかる実施の形態1の飛行型ロボット100によれば、「飼い主(特定のユーザー600)が構ってくれないのでちょっかいをだす」という、甘えたい性格のペットによく見られる愛情表現動作を飛行型ロボット100におこなわせることができ、あたかも、飛行型ロボット100が自らの意思をもった生物のような印象を与えることができる。
According to the flight-
また、この発明にかかる実施の形態1の飛行型ロボット100は、前記特定のユーザーの周囲を所定回数飛行した後、当該特定のユーザーから離れるように飛行することを特徴としている。
Further, the flight-
この発明にかかる実施の形態1の飛行型ロボット100によれば、室内飼いの犬や猫によく見られる「飼い主の行動をチェックしにくる」ような動作を飛行型ロボット100におこなわせることができ、あたかも、飛行型ロボット100が自らの意思をもった生物のような印象を与えることができる。
According to the flying
また、この発明にかかる実施の形態1の飛行型ロボット100は、ドローン101に搭載された通信I/F208を備え、通信I/F208を介して、所定の情報を取得した場合、特定のユーザー600の周囲を飛行することを特徴としている。
Further, the
この発明にかかる実施の形態1の飛行型ロボット100によれば、通信I/F208を介して、所定の情報を取得した場合に特定のユーザー600の周囲を自動操縦によって飛行することにより、特定のユーザー600が意識していなくても、当該特定のユーザー600に有用な情報を伝達することができる。
According to the flight-
また、この発明にかかる実施の形態1の飛行型ロボット100によれば、通信I/F208を介して別の飛行型ロボット100と通信をおこなうことにより、当該別の飛行型ロボット100の学習により得られた情報を共有することができるので、飛行型ロボット100に、特定のユーザー600の嗜好により一層合致した行動をさせることができる。
Further, according to the flight-
また、この発明にかかる実施の形態1の飛行型ロボット100は、通信I/F208を介して、特定の端末装置から出力された通知情報を取得した場合、特定のユーザー600の周囲を飛行することを特徴としている。
Further, the flight-
この発明にかかる実施の形態1の飛行型ロボット100によれば、たとえば、特定のユーザー600の所有するスマートフォンなどを特定の端末装置とし、着信があったスマートフォンから飛行型ロボット100に対して出力された通知情報を取得した場合に特定のユーザー600の周囲を自動操縦によって飛行することにより、スマートフォンを常時携帯していなくても、また、スマートフォンをマナーモードに設定していても、当該スマートフォンに通知があったことを迅速に知ることができる。
According to the flight-
また、この発明にかかる実施の形態1の飛行型ロボット100は、たとえば、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得した場合、特定のユーザー600の周囲を飛行することを特徴としている。
Further, in the
この発明にかかる実施の形態1の飛行型ロボット100によれば、特定のユーザー600が意識して情報を収集しなくても、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを迅速に知ることができる。これにより、安心して生活することができる。
According to the flight-
また、この発明にかかる実施の形態1の飛行型ロボット100は、ドローン101に搭載されたスピーカー204を備え、特定のユーザー600に向けてスピーカー204から音声を出力するとともに、当該特定のユーザー600の周囲を飛行することを特徴としている。
Further, the flight-
この発明にかかる実施の形態1の飛行型ロボット100によれば、特定のユーザー600の周囲を自動操縦によって飛行しながらスピーカー204から音声を出力することにより、特定のユーザー600を飼い主として鳴き声である音声を発しながらコミュニケーションを要求するというペットを模した動作をすることができる。これにより、特定のユーザー600の関心をより確実に惹き付け、特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えることができる。
According to the flight-
また、この発明にかかる実施の形態1の飛行型ロボット100は、ドローン101に搭載されたマイク203を備え、マイク203によって所定の音声が集音された場合、特定のユーザー600の周囲を飛行することを特徴としている。
Further, the flight-
この発明にかかる実施の形態1の飛行型ロボット100によれば、特定のユーザー600の声、住宅の玄関や門に設置された呼び鈴の音、スマートフォンへの着信音などの所定の音声が集音された場合に、特定のユーザー600の周囲を自動操縦によって飛行することにより、所定の音声を契機として、特定のユーザー600とのコミュニケーションに応じたり、第三者の来訪やスマートフォンへの着信を特定のユーザー600に伝達したりすることができる。
According to the flight-
また、この発明にかかる実施の形態1の飛行型ロボット100は、特定のユーザー600の声が集音された場合に、特定のユーザー600の周囲を自動操縦によって飛行することにより、特定のユーザー600に「自分が呼んだらやってきた」という気持ちを持たせることができ、嬉しくさせ、ペットとのコミュニケーションを体験させることができる。
Further, the flight-
これにより、特定のユーザー600の心を癒やすのみならず、必要な状況において必要な情報を特定のユーザー600に伝達することができる。特に、聴覚が不自由なユーザーに対して必要な状況において必要な情報をユーザーに伝達することにより、入手が難しく飼育に負担がかかる聴導犬による補助を受ける場合と比較して、当該ユーザーの生活を容易かつ安価に支援することができる。
This not only heals the mind of the
また、この発明にかかる実施の形態1の飛行型ロボット100は、ドローン101に搭載されたスピーカー204を備え、マイク203によって所定の音声が集音された場合、特定のユーザー600に向けてスピーカー204から音声を出力するとともに、当該特定のユーザー600の周囲を飛行することを特徴としている。
Further, the
この発明にかかる実施の形態1の飛行型ロボット100によれば、特定のユーザー600の声、住宅の玄関や門に設置された呼び鈴の音、スマートフォンへの着信音などの所定の音声が集音された場合に、特定のユーザー600の周囲を自動操縦によって飛行しながらスピーカー204から音声を出力することにより、特定のユーザー600を飼い主として鳴き声である音声を発しながらコミュニケーションを要求するというペットを模した動作をしたり、呼び鈴の音やスマートフォンへの着信に気づいていない特定のユーザー600に対して、第三者の来訪やスマートフォンへの着信を特定のユーザー600に伝達したりすることができる。
According to the flight-
これにより、特定のユーザー600の関心をより確実に惹き付け、特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えたり、必要な状況において必要な情報を特定のユーザー600に伝達したりすることができる。そして、これによって、特定のユーザー600の心理状態や生活をより豊かにすることができる。
This will more reliably attract the attention of the
また、この発明にかかる実施の形態1の飛行型ロボット100は、スピーカー204から出力する音声が、動物の鳴き声を模した音声であることを特徴としている。
Further, the flight-
この発明にかかる実施の形態1の飛行型ロボット100によれば、動物の鳴き声を模した音声を出力することにより、特定のユーザー600の関心をより確実に惹き付けることができる。これにより、特定のユーザー600に対して、ペットとのコミュニケーションをとっている実感を強く持たせ、特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えることができる。
According to the flight-
また、この発明にかかる実施の形態1の飛行型ロボット100は、所定の音声が、前記特定のユーザー600の声であることを特徴とする。
Further, the flight-
この発明にかかる実施の形態1の飛行型ロボット100によれば、マイク203によって特定のユーザー600の声が集音された場合に、特定のユーザー600の周囲を自動操縦によって飛行する。これにより、あたかも、特定のユーザー600の呼び声に応じてやってきたような動作を模し、特定のユーザー600の心を癒やし、特定のユーザー600に充足感を与えることができる。また、特定のユーザー600以外の人物の呼び声には反応しないことから、飛行型ロボット100に対する親近感や愛着をもたせ、特定のユーザー600に充足感を与えることができる。
According to the flight-
このように、この発明にかかる実施の形態1の飛行型ロボット100は、ペットのように自律的に移動して、人物に愛玩されることを主眼とし、ペットを模した自然な動作をおこなって特定のユーザーとのコミュニケーションをとることにより、当該特定のユーザーのストレスを下げ、癒やしを与えることができる。そして、これにより、たとえば、一人暮らしの人や高齢の人の寂しさや孤独感を和らげることができ、精神的に充足した、穏やかな生活の一助とすることができる。
As described above, the flight-
<実施の形態2>
つぎに、この発明にかかる実施の形態2の飛行型ロボットの一例について説明する。実施の形態2の飛行型ロボットは、特定の目的を達成するために動作する。具体的に、実施の形態2の飛行型ロボットは、聴覚に障害をもつ人を特定のユーザーとして認識し、当該特定のユーザーの生活において必要な音を知らせ、当該特定のユーザーを音源まで誘導する、いわゆる聴導犬と同様の目的を達成するために動作する。
<Embodiment 2>
Next, an example of the flight-type robot according to the second embodiment of the present invention will be described. The flight-type robot of the second embodiment operates to achieve a specific purpose. Specifically, the flight-type robot of the second embodiment recognizes a person with a hearing impairment as a specific user, informs the sound necessary for the life of the specific user, and guides the specific user to a sound source. Works to achieve the same purpose as the so-called hearing dog.
聴導犬は、盲導犬と比較して歴史が浅く、聴覚に障害をもつ人の数に対して聴導犬の数が圧倒的に少ないという現状がある。また、聴覚に障害をもつ人に貸与できるまでに要する、聴導犬の訓練期間は最短でも1年8ヶ月を要し、聴導犬の訓練費用は100万円程度かかるとされている。このような背景からも、聴覚に障害をもつ人に聴導犬が十分に行き渡っていないという現状がある。 Hearing dogs have a shorter history than guide dogs, and the number of hearing dogs is overwhelmingly smaller than the number of people with hearing impairments. In addition, it takes at least one year and eight months to train a hearing dog before it can be lent to a hearing-impaired person, and it is said that the training cost for a hearing dog is about 1 million yen. Against this background, the current situation is that hearing dogs are not sufficiently distributed to people with hearing impairments.
実施の形態2の飛行型ロボットは、このような現状を鑑み、聴導犬の貸与を受けることができずにいる聴覚に障害をもつ人の、自立への意欲や生活における安心感を高めることを目的とする。 In view of this situation, the flight-type robot of the second embodiment is intended to increase the motivation for independence and the sense of security in life of a hearing-impaired person who cannot receive a loan of a hearing dog. The purpose.
(飛行型ロボットの外観の一例)
図7は、この発明にかかる実施の形態2の飛行型ロボットの外観の一例を示す説明図である。実施の形態2においては、上述した実施の形態1と同一部分は同一符号で示し、説明を省略する。図7に示すように、飛行型ロボット700は、ドローン101に搭載されたカメラ103およびプロジェクター701を備えている。
(An example of the appearance of a flying robot)
FIG. 7 is an explanatory diagram showing an example of the appearance of the flight-type robot according to the second embodiment of the present invention. In the second embodiment, the same parts as those in the first embodiment described above are designated by the same reference numerals, and the description thereof will be omitted. As shown in FIG. 7, the flying
プロジェクター701は、プロジェクター光源、光学系、投影レンズなどを備えている(いずれも図示を省略する)。プロジェクター701は、プロジェクター光源から発した光を、光学系により所定経路に導き、投影レンズ701aを介してプロジェクター701の外部に照射することによって、光が照射された場所に画像を投影する。光学系は、プロジェクター光源から発した光の照度の均一性を高めるインテグレーターレンズ、非偏光光源から出射する光を所定の偏光方向に変換(偏光)する偏光変換素子、プロジェクター701光からの光をR・G・Bの三原色に分離するダイクロイック・ミラー、R・G・Bの各色の光に応じた画像を表示する液晶パネル、各液晶パネルが表示した各色の画像を合成するダイクロイック・プリズムなどによって構成される(いずれも図示を省略する)。
The
プロジェクター701としては、たとえば、プロジェクター光源にレーザーを採用したレーザー方式のプロジェクターを用いることができる。レーザー方式のプロジェクターを用いることにより、プロジェクター701の小型化を図ることができる。具体的に、レーザー方式のプロジェクターは、プロジェクター光源に水銀ランプを採用した水銀ランプ方式のプロジェクターよりも発熱を低く抑えることができるため、冷却ファンなどの機構を省くことによる小型化および軽量化を図ることができる。
As the
また、レーザー方式のプロジェクターを用いることにより、迅速に起動して画像の投影を開始することができる。また、レーザー方式のプロジェクターを用いることにより、水銀ランプ方式のプロジェクターよりも、消費電力を抑えつつ、投影される画像の高輝度化を図ることができる。 Further, by using a laser type projector, it is possible to start up quickly and start projecting an image. Further, by using the laser type projector, it is possible to increase the brightness of the projected image while suppressing the power consumption as compared with the mercury lamp type projector.
水銀ランプ方式のプロジェクターは、投影(光軸)方向が水平方向になる状態で使用することが推奨されているため投影方向の自由度が制限される一方で、レーザー方式のプロジェクターは、光軸を水平方向に対して傾けた状態で使用することができる。このため、レーザー方式のプロジェクターは、投影方向の高い自由度を確保することができ、壁面のみならず地面・床面にも画像を投影することができる。 The mercury lamp type projector is recommended to be used in a state where the projection (optical axis) direction is horizontal, so the degree of freedom in the projection direction is limited, while the laser type projector uses the optical axis. It can be used in a state of being tilted with respect to the horizontal direction. Therefore, the laser type projector can secure a high degree of freedom in the projection direction, and can project an image not only on the wall surface but also on the ground / floor surface.
プロジェクター701は、ドローン101に固定されており、ドローン101の移動(飛行)にともなって移動する。プロジェクター701は、ドローン101に対して、姿勢調整が可能な状態で連結されていてもよい。具体的には、たとえば、プロジェクター701は、ドローン101の底面部にボールジョイントなどの自在継手を介して連結することができる。プロジェクター701を、ボールジョイントなどの自在継手を介してドローン101に連結することにより、プロジェクター701の姿勢の調整にかかる高い自由度を確保することができる。
The
この場合、飛行型ロボット700は、ドローン101に対するプロジェクター701の姿勢を人手を介さずに調整するために、ドローン101に対するプロジェクター701の姿勢を変化させる駆動機構を備えていてもよい。駆動機構は、たとえば、モーターやギア列などによって構成することができる。ドローン101に対するプロジェクター701の姿勢を調整可能とすることにより、画像を投影する場所に応じた最適な角度で画像を投影することができる。
In this case, the flying
(飛行型ロボット700のハードウエア構成)
つぎに、飛行型ロボット700のハードウエア構成について説明する。図8は、この発明にかかる実施の形態2の飛行型ロボット700のハードウエア構成を示す説明図である。図8に示すように、飛行型ロボット700のハードウエアは、バッテリー201、モーター202、カメラ103、マイク203、スピーカー204、GPSセンサー205、対物センサー206、制御回路207、通信I/F208、LEDランプ104、ソーラーセル106、プロジェクター701などによって構成される。
(Hardware configuration of flying robot 700)
Next, the hardware configuration of the flying
上記のように、プロジェクター701は、プロジェクター光源から発した光を、光学系により所定経路に導き、投影レンズ701aを介してプロジェクター701の外部に照射することによって、光が照射された場所に画像を投影する。プロジェクター701は、画像を投影する位置からの距離に応じて、プロジェクター光源から発する光の強度を調整することにより、投影される画像の画質を調整するようにしてもよい。プロジェクター701と、画像を投影する位置との間の距離は、たとえば、距離センサーを用いて特定することができる。距離センサーは、たとえば、レーザ距離センサー、超音波センサー、赤外線センサーなど公知の各種のセンサーを用いることができる。
As described above, the
(飛行型ロボット700の機能的構成)
つぎに、飛行型ロボット700の機能的構成について説明する。実施の形態2の飛行型ロボット700の機能は、上述した飛行型ロボット100と同様に、記憶部301と、検出部302と、撮影部303と、取得部304と、駆動部305と、出力部306と、制御部307と、によって実現される。
(Functional configuration of the flying robot 700)
Next, the functional configuration of the flying
飛行型ロボット700における制御部307は、たとえば、マイク203によって所定の音声が集音された場合に、駆動部305を制御することによってドローン101を飛行させ、当該所定の音声に応じて、認識した特定のユーザー600の周囲を飛行する。
For example, when a predetermined voice is collected by the
所定の音声は、たとえば、電話機(固定電話、スマートフォンなど)に電話および電子メールの少なくとも一方が着信していることを通知する着信音とすることができる。また、所定の音声は、たとえば、建物または敷地の入り口に、当該建物または敷地への訪問者が当該建物または敷地の居住者または管理者を呼び出すために設けられた呼び鈴の呼出音とすることができる。 The predetermined voice can be, for example, a ringtone notifying the telephone (landline, smartphone, etc.) that at least one of the telephone and the e-mail has arrived. In addition, the predetermined voice may be, for example, a ringing tone of a doorbell provided at the entrance of a building or site for a visitor to the building or site to call a resident or manager of the building or site. can.
また、所定の音声は、たとえば、所定の閾値以上の音圧の音声とすることができる。具体的に、所定の音声は、たとえば、警報音・サイレンのように、不特定多数の者に周知することを目的として大音量で出力される音声とすることができる。より具体的には、たとえば、音圧レベル70dB以上の音声とすることができる。 Further, the predetermined voice can be, for example, a voice having a sound pressure equal to or higher than a predetermined threshold value. Specifically, the predetermined voice can be a voice that is output at a loud volume for the purpose of disseminating it to an unspecified number of people, such as an alarm sound or a siren. More specifically, for example, the sound can be a sound having a sound pressure level of 70 dB or higher.
また、所定の音声は、たとえば、特定のユーザー600から所定範囲内において発生する音声であってもよい。具体的には、目覚まし時計、キッチンタイマー、スマートフォンなど、特定のユーザー600との位置関係が頻繁に変わりうるものが発する音声とすることができる。さらに、所定の音声は、沸騰しているヤカンの音、ガス漏れ検知ブザー、冷蔵後の扉の閉め忘れや半ドアを知らせるアラームなどであってもよい。
Further, the predetermined voice may be, for example, a voice generated within a predetermined range from a
所定の音声は、あらかじめ制御回路207におけるメモリに記憶した音声であってもよく、通信I/F208を介して取得した情報に基づき学習した音声であってもよい。所定の音声は、特定のユーザー600の声であってもよい。所定の音声は、降雨や発雷などの自然環境の変化にともなう音声であってもよい。
The predetermined voice may be a voice stored in a memory in the
制御部307は、マイク203によって所定の音声が集音された場合に、特定のユーザー600に対して、音声の発生源を案内するように、ドローン101を飛行させる。制御部307は、マイク203によって所定の音声が集音された場合に、たとえば、認識した特定のユーザー600の近傍と、所定の音声の発生源との間を飛行するように、ドローン101を飛行させる。より具体的には、たとえば、特定のユーザー600の周囲を飛行して当該特定のユーザー600の注意を引きつけてから、音声の発生源まで飛行する動作を繰り返しおこなう。
The
制御部307は、所定の音声に応じて、当該所定の音声に対応する飛行態様で飛行するように、ドローン101を飛行させてもよい。具体的には、制御部307は、たとえば、電話の着信があった場合に、特定のユーザー600の前方においてドローン101をジグザグに飛行させる。また、具体的には、制御部307は、たとえば、呼び鈴が鳴った場合に、特定のユーザー600の周囲を飛行してから、音声の発生源(玄関)までドローン101を飛行させてもよい。
The
飛行型ロボット700における出力部306は、飛行型ロボット700の状態に応じて、飛行型ロボット700の飛行動作と連動して動作する。出力部306は、たとえば、マイク203によって所定の音声が集音された場合に、当該所定の音声に応じて特定のユーザー600の周囲を飛行する動作に連動して、プロジェクター701から画像を投影する。画像は、特定のユーザー600の前方に投影することが好ましい。
The
具体的には、たとえば、電話の着信があった場合は、電話の画像を投影する。また、具体的には、たとえば、呼び鈴が鳴った場合は、玄関や門の画像や、来客をあらわす画像を投影する。子供が泣いている場合は、泣いている子供の画像を投影してもよい。投影する画像の画像データは、たとえば、通信I/F208を介してネットワークN上から取得することができる。
Specifically, for example, when there is an incoming call, an image of the phone is projected. Specifically, for example, when the doorbell rings, an image of the entrance or the gate or an image showing a visitor is projected. If the child is crying, an image of the crying child may be projected. The image data of the image to be projected can be acquired from the network N via, for example, the communication I /
投影する画像は、カメラ103によって撮影した画像であってもよい。この場合、飛行型ロボット700は、たとえば、所定の音声が鳴っていることを検知するごとに、当該所定の音声の発生源を撮影し、撮影した画像を投影する。このように、実際の物品の画像を投影することにより、特定のユーザー600に対して、音声の発生源を確実に理解させることができる。また、これにより、複数の画像データを記憶しておくことなく、適切な画像を投影することができる。
The image to be projected may be an image taken by the
あるいは、出力部306は、たとえば、所定の音声に応じて特定のユーザー600の周囲を飛行する動作に連動して、プロジェクター701から文字を投影してもよい。具体的には、たとえば、「電子メールの着信がありました」、「玄関の呼び鈴が鳴っています」などの文字(メッセージ)を、特定のユーザー600の前方に投影する。特定のユーザー600の前方位置は、カメラ103によって撮影した画像に基づいて判断することができる。この場合、出力部306は、具体的には、たとえば、図7や図8に示したプロジェクター701などによって、その機能を実現することができる。
Alternatively, the
また、出力部306は、たとえば、所定の音声に応じて特定のユーザー600の周囲を飛行する動作に連動して、LEDランプ104を点灯させたり点滅させたりしてもよい。この場合、出力部306は、具体的には、たとえば、図8に示したLEDランプ104などによって、その機能を実現することができる。
Further, the
所定の音声に応じてLEDランプ104を点灯(点滅)させる場合、赤色や橙色など、波長が長く、特定のユーザー600が気づきやすい発光色としてもよい。また、照度を調整し、平時よりも高い照度で点灯(点滅)させてもよい。また、屋内あるいは屋外であっても夜間の照度よりも、屋外における昼間の照度をより高くなるように、LEDランプ104を点灯(点滅)させてもよい。さらに、LEDランプ104に代えて、プロジェクター701から光を発してもよい。
When the
(飛行型ロボット700の処理手順の一例)
つぎに、飛行型ロボット700の処理手順の一例について説明する。図9は、この発明にかかる実施の形態2の飛行型ロボット700の処理手順の一例を示すフローチャートである。図9のフローチャートにおいて、まず、マイク203を介して音声を取得し(ステップS901)、取得した音声を解析する(ステップS902)。ステップS902においては、たとえば、取得した音声の強さ(大きさ)、周波数、音と音の間隔など、音声の特徴量を示すデータを生成する。
(Example of processing procedure of flying robot 700)
Next, an example of the processing procedure of the flying
つぎに、ステップS902における解析結果に基づいて、取得した音声が所定の音声か否かを判断する(ステップS903)。ステップS903において、取得した音声が所定の音声ではない場合(ステップS903:No)、ステップS901へ移行して、音声を取得する。 Next, based on the analysis result in step S902, it is determined whether or not the acquired voice is a predetermined voice (step S903). If the acquired voice is not a predetermined voice in step S903 (step S903: No), the process proceeds to step S901 to acquire the voice.
一方、ステップS903において、取得した音声が所定の音声である場合(ステップS903:Yes)、飛行を開始する(ステップS904)。ステップS904においては、たとえば、ドローン101を駆動し、充電スポット400から飛び立ち、障害物を回避しながら所定の範囲内を飛行する。
On the other hand, in step S903, when the acquired voice is a predetermined voice (step S903: Yes), the flight is started (step S904). In step S904, for example, the
つぎに、飛行中にカメラ103によって撮影した画像に基づいて、特定のユーザー600を検出したか否かを判断する(ステップS905)。ステップS905において検出する特定のユーザー600は、たとえば、上記のように、撮影部303によって所定時間以上または所定回数以上撮影された人物であってもよく、特徴量(画像や声など)をあらかじめメモリに記憶した人物であってもよい。特徴量をあらかじめメモリに記憶した人物を特定のユーザー600とすることにより、飛行型ロボット700の利用をはじめてすぐに、該当する人物を特定のユーザー600として認識することができる。
Next, it is determined whether or not a
ステップS905においては、バッテリー201の残量に応じて、特定のユーザー600を検出するまで(ステップS503:No)、飛行をおこなう。特定のユーザー600を検出しない状態で、充電スポット400に戻ることができる閾値までバッテリー201の残量が低下した場合、帰還処理をおこなう。
In step S905, the flight is performed until a
ステップS905において、特定のユーザー600を検出した場合(ステップS905:Yes)、所定のプロセスの実行を開始する(ステップS906)。ステップS906においては、たとえば、特定のユーザー600の周囲を飛行して当該特定のユーザー600の注意を引きつけるような動作と、特定のユーザー600と音声の発生源との間を往復する動作を繰り返しおこなう。また、ステップS906においては、たとえば、音声が発生していることや音声の発生源、あるいは、発生した音声にかかる内容(事象)を案内する文字を、プロジェクター701から投影してもよい。
When a
ステップS906における処理は、特定のユーザー600が音声の発生源(発生原因)に気づくまで(ステップS907:No)、継続しておこなう。あるいは、ステップS906における処理は、バッテリー201の残量に応じて、飛行型ロボット700が充電スポット400まで帰還できる範囲でおこなってもよい。具体的には、たとえば、特定のユーザー600が音源に気づかない状態で、充電スポット400に戻ることができる閾値までバッテリー201の残量が低下した場合、帰還処理をおこなう。
The process in step S906 is continuously performed until the
ステップS907において、特定のユーザー600が音源に気づいた場合(ステップS907:Yes)、帰還処理をおこなって(ステップS908)、一連の処理を終了する。ステップS907においては、たとえば、カメラ103によって撮影した画像に基づいて、特定のユーザー600が音声の発生源に近づく動作をおこなったかどうかを判断するなどして、特定のユーザー600が音声の発生源に気づいたか否かを判断することができる。
In step S907, when the
以上説明したように、この発明にかかる実施の形態2の飛行型ロボット700は、自動操縦により飛行するドローン101と、ドローン101に搭載されたカメラ103と、ドローン101に搭載されたマイク203と、を備え、カメラ103によって撮影された画像に基づいて特定のユーザー600を認識し、マイク203によって所定の音声が集音された場合に、当該所定の音声に応じて、認識した特定のユーザー600の周囲を飛行することを特徴としている。
As described above, the flight-
この発明にかかる実施の形態2の飛行型ロボット700によれば、マイク203によって所定の音声が集音された場合に、カメラ103によって撮影された画像に基づいて認識した特定のユーザー600の周囲を飛行することにより、所定の音声が鳴っていることを飛行型ロボット700の動作によって視覚的に案内することができる。これにより、特定のユーザー600が聴覚に障害をもつ場合にも、所定の音声が鳴っていることを確実に伝達することができる。
According to the flight-
これにより、聴覚に障害をもつために自身の周囲の状況がわかりづらいという事態をなくし、自身の周囲の状況を把握するために常に意識を張り巡らせることによる疲労やストレスを緩和することができる。そして、格別意識をしていなくても自身の周囲の状況がわかりやすくなるため、音が聞こえないことによる生活の恐怖を軽減し、自立への意欲や生活における安心感を高めることができる。 As a result, it is possible to eliminate the situation where it is difficult to understand the situation around oneself due to hearing loss, and to alleviate the fatigue and stress caused by constantly keeping consciousness in order to grasp the situation around oneself. And since it becomes easier to understand the situation around oneself without being particularly conscious, it is possible to reduce the fear of life due to the inability to hear sound, and to increase the motivation for independence and the sense of security in life.
また、この発明にかかる実施の形態2の飛行型ロボット700は、所定の音声に応じて、当該所定の音声に対応する飛行態様で、認識した特定のユーザー600の周囲を飛行することを特徴としている。
Further, the flight-
この発明にかかる実施の形態2の飛行型ロボット700によれば、飛行態様によって音声の種類や内容を視覚的に案内することができる。これにより、特定のユーザー600が聴覚に障害をもつ場合にも、特定のユーザー600に対して、所定の音声が鳴っていること、および、その音声の種類や内容を迅速かつ詳しく案内することができる。これによって、視覚に障害をもつ特定のユーザー600の生活の利便性を向上させることができる。
According to the flight-
また、この発明にかかる実施の形態2の飛行型ロボット700は、ドローン101に搭載されたプロジェクター701を備え、マイク203によって所定の音声が集音された場合に、認識した特定のユーザー600の前方に、当該所定の音声に応じた画像を前記プロジェクター701から投影することを特徴としている。
Further, the flight-
この発明にかかる実施の形態2の飛行型ロボット700によれば、マイク203によって所定の音声が集音された場合に、カメラ103によって撮影された画像に基づいて認識した特定のユーザー600の周囲を飛行するとともに、認識した特定のユーザー600の前方に、当該所定の音声に応じた画像を前記プロジェクター701から投影することにより、飛行型ロボット700の動作、および、画像によって、所定の音声が鳴っていることを視覚的に案内することができる。これにより、特定のユーザー600が聴覚に障害をもつ場合にも、所定の音声が鳴っていることを確実にわかりやすく伝達することができる。
According to the flight-
また、この発明にかかる実施の形態2の飛行型ロボット700は、マイク203によって所定の音声が集音された場合に、認識した特定のユーザー600の前方に、当該所定の音声に応じた文字をプロジェクター701から投影することを特徴としている。
Further, the flight-
この発明にかかる実施の形態2の飛行型ロボット700によれば、マイク203によって所定の音声が集音された場合に、カメラ103によって撮影された画像に基づいて認識した特定のユーザー600の周囲を飛行するとともに、認識した特定のユーザー600の前方に、当該所定の音声に応じた文字をプロジェクター701から投影することにより、飛行型ロボット700の動作、および、文字によって、所定の音声が鳴っていることを視覚的に案内することができる。これにより、特定のユーザー600が聴覚に障害をもつ場合にも、所定の音声が鳴っていることを確実にわかりやすく伝達することができる。
According to the flight-
なお、この実施の形態で説明した飛行型ロボットの制御方法は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、CD-ROM、MO、DVD、USBメモリ、SSDなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒体であってもよい。 The control method of the flying robot described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program is recorded on a computer-readable recording medium such as a hard disk, CD-ROM, MO, DVD, USB memory, SSD, etc., and is executed by being read from the recording medium by the computer. Further, this program may be a transmission medium that can be distributed via a network such as the Internet.
以上のように、この発明にかかる飛行型ロボット、飛行型ロボットの制御プログラムおよび飛行型ロボットの制御方法は、ペット型ロボットを求めるユーザーに有用であり、特に、容易な飼育を希望するユーザーに適している。 As described above, the flight-type robot, the control program for the flight-type robot, and the control method for the flight-type robot according to the present invention are useful for users who desire a pet-type robot, and are particularly suitable for users who desire easy breeding. ing.
100、700 飛行型ロボット
101 ドローン
103 カメラ
104 LEDランプ
106 ソーラーセル
201 バッテリー
202 モーター
203 マイク
204 スピーカー
205 GPSセンサー
206 対物センサー
207 制御回路
208 通信I/F
301 記憶部
302 検出部
303 撮影部
304 取得部
305 駆動部
306 出力部
307 制御部
400 充電スポット
401a 送電コイル
401b カバー
401c 電源ケーブル
402 外装部
600 特定のユーザー
701 プロジェクター
701a 投影レンズ
100, 700
301
Claims (40)
前記無人航空機に搭載されたカメラと、
を備え、
前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、当該特定のユーザーの周囲を飛行することを特徴とする飛行型ロボット。 Unmanned aerial vehicles flying by autopilot and
The camera mounted on the unmanned aerial vehicle and
Equipped with
A flying robot characterized by recognizing a specific user based on an image taken by the camera and flying around the specific user.
前記無線通信インタフェースを介して、所定の情報を取得した場合、前記特定のユーザーの周囲を飛行することを特徴とする請求項1~6のいずれか一つに記載の飛行型ロボット。 Equipped with a wireless communication interface mounted on the unmanned aerial vehicle,
The flight-type robot according to any one of claims 1 to 6, wherein when a predetermined information is acquired via the wireless communication interface, the robot flies around the specific user.
前記特定のユーザーに向けて前記スピーカーから音声を出力するとともに、当該特定のユーザーの周囲を飛行することを特徴とする請求項1~9のいずれか一つに記載の飛行型ロボット。 Equipped with a speaker mounted on the unmanned aerial vehicle
The flight-type robot according to any one of claims 1 to 9, wherein a voice is output from the speaker to the specific user and the robot flies around the specific user.
前記マイクによって所定の音声が集音された場合、前記特定のユーザーの周囲を飛行することを特徴とする請求項1~10のいずれか一つに記載の飛行型ロボット。 Equipped with a microphone mounted on the unmanned aerial vehicle
The flight-type robot according to any one of claims 1 to 10, wherein when a predetermined sound is collected by the microphone, the robot flies around the specific user.
前記マイクによって所定の音声が集音された場合、前記特定のユーザーに向けて前記スピーカーから音声を出力するとともに、当該特定のユーザーの周囲を飛行することを特徴とする請求項11~13のいずれか一つに記載の飛行型ロボット。 Equipped with a speaker mounted on the unmanned aerial vehicle
Any of claims 11 to 13, wherein when a predetermined sound is collected by the microphone, the sound is output from the speaker to the specific user and the person flies around the specific user. The flying robot described in one.
前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、
認識された前記特定のユーザーの周囲を飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御プログラム。 A computer equipped with an unmanned aerial vehicle equipped with a camera and flying by autopilot,
Recognize a specific user based on the image taken by the camera
Fly around the recognized specific user,
A control program for a flying robot characterized by executing processing.
処理を実行させることを特徴とする請求項16に記載の飛行型ロボットの制御プログラム。 When flying around the specific user and at least a part of the specific user approaches the unmanned aerial vehicle, the flight is made to move away from the specific user.
The control program for a flying robot according to claim 16, wherein the process is executed.
処理を実行させることを特徴とする請求項16に記載の飛行型ロボットの制御プログラム。 While flying around the specific user, if the specific user does not see the unmanned aerial vehicle, the flight is made to approach the specific user.
The control program for a flying robot according to claim 16, wherein the process is executed.
処理を実行させることを特徴とする請求項16に記載の飛行型ロボットの制御プログラム。 After flying around the specific user a predetermined number of times, the flight is made to move away from the specific user.
The control program for a flying robot according to claim 16, wherein the process is executed.
前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、
認識された前記特定のユーザーの周囲を飛行させる、
ことを特徴とする飛行型ロボットの制御方法。 For flying robots equipped with unmanned aerial vehicles equipped with cameras and flying by autopilot,
Recognize a specific user based on the image taken by the camera
Fly around the recognized specific user,
A control method for a flying robot.
ことを特徴とする請求項20に記載の飛行型ロボットの制御方法。 When flying around the specific user and at least a part of the specific user approaches the unmanned aerial vehicle, the flight is made to move away from the specific user.
The control method for a flying robot according to claim 20.
ことを特徴とする請求項20に記載の飛行型ロボットの制御方法。 While flying around the specific user, if the specific user does not see the unmanned aerial vehicle, the flight is made to approach the specific user.
The control method for a flying robot according to claim 20.
ことを特徴とする請求項20に記載の飛行型ロボットの制御方法。 After flying around the specific user a predetermined number of times, the flight is made to move away from the specific user.
The control method for a flying robot according to claim 20.
前記無人航空機に搭載されたカメラと、
前記無人航空機に搭載されたマイクと、
を備え、
前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、
前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行することを特徴とする飛行型ロボット。 Unmanned aerial vehicles flying by autopilot and
The camera mounted on the unmanned aerial vehicle and
With the microphone mounted on the unmanned aerial vehicle,
Equipped with
Recognizing a specific user based on the image taken by the camera,
A flight type characterized in that when a predetermined voice is collected by the microphone, the flight is performed between the vicinity of the recognized specific user and the source of the predetermined voice in response to the predetermined voice. robot.
前記マイクによって所定の音声が集音された場合に、認識した前記特定のユーザーの前方に、当該所定の音声に応じた画像を前記プロジェクターから投影することを特徴とする請求項24~30のいずれか一つに記載の飛行型ロボット。 Equipped with a projector mounted on the unmanned aerial vehicle
Any of claims 24 to 30, wherein when a predetermined voice is collected by the microphone, an image corresponding to the predetermined voice is projected from the projector in front of the recognized specific user. The flying robot described in one.
前記無線通信インタフェースを介して、前記プロジェクターから投影する画像にかかる画像データを取得することを特徴とする請求項31に記載の飛行型ロボット。 Equipped with a wireless communication interface mounted on the unmanned aerial vehicle,
The flight-type robot according to claim 31, wherein the image data of the image projected from the projector is acquired via the wireless communication interface.
前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、
前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御プログラム。 A computer equipped with a flying robot equipped with an unmanned aerial vehicle equipped with a camera and a microphone and flying by autopilot.
Recognizing a specific user based on the image taken by the camera,
When a predetermined voice is collected by the microphone, the flight is made to fly between the recognized vicinity of the specific user and the source of the predetermined voice in response to the predetermined voice.
A control program for a flying robot characterized by executing processing.
前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、
前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、
ことを特徴とする飛行型ロボットの制御方法。 For flying robots equipped with unmanned aerial vehicles equipped with cameras and microphones and flying by autopilot,
Recognize a specific user based on the image taken by the camera
When a predetermined voice is collected by the microphone, the flight is made to fly between the recognized vicinity of the specific user and the source of the predetermined voice in response to the predetermined voice.
A control method for a flying robot.
前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、
前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させるとともに、認識した前記特定のユーザーの前方に、当該所定の音声に応じた画像を前記プロジェクターから投影させる、
処理を実行させることを特徴とする飛行型ロボットの制御プログラム。 Computers on flying robots with unmanned aerial vehicles equipped with cameras, microphones and projectors and flying by autopilot
Recognizing a specific user based on the image taken by the camera,
When a predetermined voice is collected by the microphone, the specific user is made to fly between the recognized vicinity of the specific user and the source of the predetermined voice in response to the predetermined voice, and the recognized specific voice is recognized. An image corresponding to the predetermined voice is projected from the projector in front of the user.
A control program for a flying robot characterized by executing processing.
前記カメラによって撮影された画像に基づいて特定のユーザーを認識させ、
前記マイクによって所定の音声が集音された場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させるとともに、認識した前記特定のユーザーの前方に、当該所定の音声に応じた画像を前記プロジェクターから投影させる、
ことを特徴とする飛行型ロボットの制御方法。 For flying robots equipped with unmanned aerial vehicles equipped with cameras, microphones and projectors and flying by autopilot.
Recognize a specific user based on the image taken by the camera
When a predetermined voice is collected by the microphone, the specific user is made to fly between the recognized vicinity of the specific user and the source of the predetermined voice in response to the predetermined voice, and the recognized specific voice is recognized. An image corresponding to the predetermined voice is projected from the projector in front of the user.
A control method for a flying robot.
前記無人航空機に搭載されたカメラと、
前記無人航空機に搭載された無線通信インターフェースを備え、
を備え、
前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、
前記無線通信インタフェースを介して、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得した場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行することを特徴とする飛行型ロボット。 Unmanned aerial vehicles flying by autopilot and
The camera mounted on the unmanned aerial vehicle and
Equipped with a wireless communication interface mounted on the unmanned aerial vehicle,
Equipped with
Recognizing a specific user based on the image taken by the camera,
When information indicating that a disaster, earthquake, tsunami, lightning, rainfall, strong wind, or sudden change in weather may occur within a predetermined time after the present time is acquired via the wireless communication interface. A flight-type robot characterized in that it flies between the vicinity of the recognized specific user and a source of the predetermined voice in response to the predetermined voice.
前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、
前記無線通信インタフェースを介して、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得した場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、
処理を実行させることを特徴とする飛行型ロボットの制御プログラム。 A computer equipped with a flying robot equipped with an unmanned aerial vehicle equipped with a camera and a wireless communication interface and flying by autopilot.
Recognizing a specific user based on the image taken by the camera,
When information indicating that a disaster, an earthquake, a tsunami, a lightning strike, a rainfall, a strong wind, or a sudden change in the weather may occur within a predetermined time after the present time is acquired through the wireless communication interface. Flying between the recognized vicinity of the specific user and the source of the predetermined voice in response to the predetermined voice.
A control program for a flying robot characterized by executing processing.
前記カメラによって撮影された画像に基づいて特定のユーザーを認識し、
前記無線通信インタフェースを介して、現時点以降の所定時間内に災害、地震、津波、発雷、降雨、強風、急激な天候の変化が発生する可能性があることを示す情報を取得した場合に、当該所定の音声に応じて、認識した前記特定のユーザーの近傍と所定の音声の発生源との間を飛行させる、
ことを特徴とする飛行型ロボットの制御方法。 For flying robots equipped with unmanned aerial vehicles equipped with cameras and wireless communication interfaces and flying by autopilot.
Recognizing a specific user based on the image taken by the camera,
When information indicating that a disaster, an earthquake, a tsunami, a lightning strike, a rainfall, a strong wind, or a sudden change in the weather may occur within a predetermined time after the present time is acquired through the wireless communication interface. Flying between the recognized vicinity of the specific user and the source of the predetermined voice in response to the predetermined voice.
A control method for a flying robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020110979A JP2022007799A (en) | 2020-06-26 | 2020-06-26 | Flying type robot, program and method for controlling flying type robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020110979A JP2022007799A (en) | 2020-06-26 | 2020-06-26 | Flying type robot, program and method for controlling flying type robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022007799A true JP2022007799A (en) | 2022-01-13 |
JP2022007799A5 JP2022007799A5 (en) | 2023-07-04 |
Family
ID=80110469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020110979A Pending JP2022007799A (en) | 2020-06-26 | 2020-06-26 | Flying type robot, program and method for controlling flying type robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022007799A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7232945B1 (en) | 2022-03-15 | 2023-03-03 | ソフトバンク株式会社 | Control device, flying object, program, and control method |
-
2020
- 2020-06-26 JP JP2020110979A patent/JP2022007799A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7232945B1 (en) | 2022-03-15 | 2023-03-03 | ソフトバンク株式会社 | Control device, flying object, program, and control method |
JP2023135562A (en) * | 2022-03-15 | 2023-09-28 | ソフトバンク株式会社 | Control device, flight body, program, and control method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7320239B2 (en) | A robot that recognizes the direction of a sound source | |
EP3100609A1 (en) | Pet interactive system based on wireless communication network | |
US20180361263A1 (en) | Educational device | |
US10397527B2 (en) | Remotely controlled robotic sensor ball | |
CN210155626U (en) | Information processing apparatus | |
JP2020000279A (en) | Autonomously acting type robot assuming virtual character | |
WO2020115972A1 (en) | Information processing apparatus, information processing method and program | |
WO2018203453A1 (en) | Information processing device, information processing method, and program | |
JP2022007799A (en) | Flying type robot, program and method for controlling flying type robot | |
JPWO2020116233A1 (en) | Information processing equipment, information processing methods, and programs | |
JP2024055866A (en) | A robot that autonomously selects actions according to its internal state or external environment | |
JP6586810B2 (en) | toy | |
JP2022106252A (en) | Flight type robot, control program for flight type robot, and control method for flight type robot | |
WO2019123744A1 (en) | Information processing device, information processing method, and program | |
CN109257490A (en) | Audio-frequency processing method, device, wearable device and storage medium | |
TWI699198B (en) | Intelligent assistant system for the visually impaired | |
US20220410023A1 (en) | Information processing device, control method of the same, and program | |
JP2022093201A (en) | Flight type robot, flight type robot control program and flight type robot control method | |
US20220291665A1 (en) | Information processing apparatus, control method, and program | |
JP2022104060A (en) | Flight type robot, control program of flight type robot, and control method of flight type robot | |
KR102128285B1 (en) | Device and method for controlling thereof | |
CN109878750B (en) | A companion formula intelligence early warning unmanned aerial vehicle for taking care of infant | |
US20220126439A1 (en) | Information processing apparatus and information processing method | |
KR102072175B1 (en) | Smart character toy embedded artificiall intelligence function | |
JP2023098220A (en) | Flight type robot, control program of flight type robot and control method of flight type robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230626 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230626 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240325 |