JP4521540B2 - Flying robot - Google Patents

Flying robot Download PDF

Info

Publication number
JP4521540B2
JP4521540B2 JP2004201188A JP2004201188A JP4521540B2 JP 4521540 B2 JP4521540 B2 JP 4521540B2 JP 2004201188 A JP2004201188 A JP 2004201188A JP 2004201188 A JP2004201188 A JP 2004201188A JP 4521540 B2 JP4521540 B2 JP 4521540B2
Authority
JP
Japan
Prior art keywords
flying robot
camera
marker object
marker
monitor screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004201188A
Other languages
Japanese (ja)
Other versions
JP2005349556A (en
Inventor
敏行 堀内
諭 兒玉
明子 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Denki University
Original Assignee
Tokyo Denki University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Denki University filed Critical Tokyo Denki University
Priority to JP2004201188A priority Critical patent/JP4521540B2/en
Publication of JP2005349556A publication Critical patent/JP2005349556A/en
Application granted granted Critical
Publication of JP4521540B2 publication Critical patent/JP4521540B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、人間が入れない狭い場所、異臭、有毒ガス、放射線などの存在が予想され、人間が入ると危害が及ぶことが予想される場所、武器を持つ人がいる場所、などの状況を察知するための飛翔ロボットに関するものである。  The present invention is intended for situations such as narrow places where humans cannot enter, places where strange odors, toxic gases, radiation, etc. are expected, places where humans are expected to be harmful, places where there are people with weapons, etc. It relates to flying robots for sensing.

倉庫内の貯蔵品の裏側、タンクや容器の内部、配管群に囲まれた空間などの、人間が入れなかったり、入りにくかったりする狭い空間や、災害により異臭、有毒ガス、放射線などの存在が予想され、人間が入ると危害が及ぶことが予想される場所や、立てこもり犯を包囲した場合など武器や爆薬などを持つ人がいて近付くことが危険な場所、などの様子を観察したり、場合によっては、その場所の状況写真を採取したり、有害物質を検知したりすることを目的とする飛翔ロボットが提案されている(例えば、特許文献1および非特許文献1、2、3参照。)。  There is a narrow space where humans cannot enter or enter, such as the backside of stored items in the warehouse, the interior of tanks and containers, and piping groups, and the presence of odors, toxic gases, radiation, etc. due to disasters Observing the situation where it is expected that a person may enter the person, or where it is expected to be harmed, or where there is a person with weapons or explosives, etc. In some cases, a flying robot has been proposed for collecting a situation photograph of the place or detecting a harmful substance (for example, see Patent Document 1 and Non-Patent Documents 1, 2, and 3). .

従来、これらの狭い場所や危険な場所の監視、観察には、固定式の監視カメラや首振り機構付きの監視カメラが使用されていた。  Conventionally, a fixed surveillance camera or a surveillance camera with a swing mechanism has been used to monitor and observe these narrow places and dangerous places.

しかし、従来の方法では、監視、観察するためのカメラの方向が限定され、観察する方向を変えたり、距離を変えて観察したり、裏側を観察したりすることができなかったりする問題があった。  However, the conventional method has a problem that the direction of the camera for monitoring and observation is limited, and the observation direction cannot be changed, the distance can be changed, and the back side cannot be observed. It was.

任意の場所を任意の方向から観察したり、裏側もよく観察するためには、空間を自由に移動できる飛翔ロボットがより有効と考えられる。  In order to observe an arbitrary place from an arbitrary direction and to observe the back side well, a flying robot that can freely move in space is considered to be more effective.

この目的の飛翔ロボットには、空間を自由に移動したり、空中で停止したりする機能が必要であり、人間が入れない場所で使うための物であるから、該飛翔ロボットをそばで人間が見なくても操縦でき、自在に場所や空間姿勢を制御できなければならない。  A flying robot for this purpose needs to have the ability to move freely in the space and stop in the air, and is intended for use in places where humans cannot enter. You must be able to control it without having to look at it, and you must be able to freely control the location and space posture.

しかし、人間が飛翔ロボットを直接見なくても自在に場所や空間姿勢を制御できる飛翔ロボットはまだ存在しない。  However, there is still no flying robot that can freely control the location and space posture even if a human does not look directly at the flying robot.

模型のラジコンヘリコプターやラジコン飛行機は、一応、位置、姿勢の制御機能を備えており、熟練者が該ラジコンヘリコプターやラジコン飛行機の飛行状況を目前に見ながら操縦すれば、かなりの精度、安定性で位置や姿勢を制御できる。  Model radio-controlled helicopters and radio-controlled airplanes are equipped with position and attitude control functions, and if an expert maneuvers while looking at the flight status of the radio-controlled helicopters or radio-controlled airplanes, the accuracy and stability of the model will be improved. The position and posture can be controlled.

しかし、人間がラジコンヘリコプターやラジコン飛行機を直接見て、機体の細かい動きを観察しながらでないと操縦できず、人間が飛翔ロボットを直接見なくても自在に場所や空間姿勢を制御できる飛翔ロボットの操縦方式はまだ確立されていない。  However, a flying robot that can control the location and space posture freely without human beings looking directly at the radio controlled helicopter or radio airplane and observing the fine movements of the aircraft, and human beings can control freely without looking directly at the flying robot The control method has not been established yet.

また、非特許文献2には、目的の飛翔ロボットには視覚機能を持たせることが重要である旨の記載があり、操縦者が飛翔ロボットから送られて来るモニタ画面を見ている図が記載されているが、該視覚機能に関しては何ら記載がない。そして、該飛翔ロボットはGPSによって制御されると記載されている。  Non-Patent Document 2 describes that it is important to give the target flying robot a visual function, and describes a diagram in which a pilot is watching a monitor screen sent from the flying robot. However, there is no description regarding the visual function. It is described that the flying robot is controlled by GPS.

また、目的の飛翔ロボットに視覚機能を与えるためカメラを搭載することは容易に思い付くところであるが、発明者が実験を行った結果によると、非特許文献2に示されるように単純に飛翔ロボットに搭載したカメラの映像をモニタ画面に映して操縦者が見ても、飛翔ロボットの操縦は不可能であることが分かった。  In addition, it is easy to think of mounting a camera to give a visual function to the target flying robot, but according to the results of experiments conducted by the inventor, as shown in Non-Patent Document 2, the flying robot is simply Even if the image of the installed camera is projected on the monitor screen and seen by the operator, it was found that the flying robot cannot be operated.

発明者が実験を行った結果によると、単純に飛翔ロボットに搭載したカメラの映像をモニタ画面に映して操縦者が見ても、該映像と飛翔ロボットとの相対的な位置関係や該映像と飛翔ロボットとの相対的な運動状況との関係を把握できないため、どのように操縦すれば、映像がどう変わるかという予測が全くできない。  According to the results of the experiment conducted by the inventor, even if the video of the camera mounted on the flying robot is simply displayed on the monitor screen and viewed by the operator, the relative positional relationship between the video and the flying robot and the video Since it is impossible to grasp the relationship between the flight robot and the relative motion status, it is impossible to predict how the video will change if it is operated.

そのため、たとえば、モニタ画面上に回避すべき障害物が非常によく見えていてもうまくかわせずにぶつかったり、目標物がよく見えていたのに操舵を誤って目標を見失ったりしてしまう事態となる。
特願2003−436851 精密工学会誌、第66巻、第4号、p.594−600 日本機械工学会誌、Vol.106,No.1019,p.16−19 機械設計、第48巻、第2号、p.1−4
Therefore, for example, a situation where an obstacle to be avoided on the monitor screen is seen very well, but it does not hit well, or the target is seen well but the target is accidentally lost due to steering. Become.
Japanese Patent Application No. 2003-436851 Journal of Precision Engineering, Vol. 66, No. 4, p. 594-600 Journal of the Japan Society for Mechanical Engineering, Vol. 106, no. 1019, p. 16-19 Mechanical Design, Vol. 48, No. 2, p. 1-4

本発明が解決しようとする課題は、人間が直接見なくても周囲の状況を認識でき、自在に場所や空間姿勢を制御できる飛翔ロボットを提供することである。  The problem to be solved by the present invention is to provide a flying robot capable of recognizing surrounding conditions without being directly viewed by humans and freely controlling the location and the space posture.

本発明は上記の課題を解決するため、飛翔ロボットの一部または端を認知するためのマーカー物体と、該マーカー物体を含めて前記飛翔ロボットの周囲を観察するカメラとを設け、該マーカー物体の少なくとも一部が前記カメラの視野内に観察景色の前景として入るようになし、前記カメラのモニタ画面に映されるようになしたことを特徴とする。  In order to solve the above problems, the present invention is provided with a marker object for recognizing a part or end of a flying robot, and a camera for observing the periphery of the flying robot including the marker object. It is characterized in that at least a part of the image enters the field of view of the camera as a foreground of an observation scene and is reflected on the monitor screen of the camera.

さらに、前記のマーカー物体を発光体としたことを特徴とする。  Furthermore, the marker object is a light emitter.

本発明によると、飛翔ロボットの周囲を映すカメラ映像を、常に該飛翔ロボットの一部または端を認知できるマーカー物体とともに見ながら操縦することができる。このため、自分で自動車に乗ってボンネット越しに前方の景色を見ながら運転する感覚で該飛翔ロボットを操縦することができる。  According to the present invention, it is possible to maneuver while always viewing a camera image that reflects the surroundings of the flying robot together with a marker object that can recognize a part or end of the flying robot. For this reason, it is possible to maneuver the flying robot as if driving on a car while looking at the scenery in front through the hood.

したがって、操縦は容易であり、周囲の様子を見ながら柔軟に飛翔ロボットの位置や姿勢を制御することができる。  Therefore, the maneuvering is easy, and the position and posture of the flying robot can be flexibly controlled while watching the surrounding situation.

また、使用目的からして飛翔ロボットに搭載が不可避の観察用カメラを利用して該飛翔ロボットの周囲を把握して位置や姿勢を判断できるため、対物距離センサ、方位角センサ、高さセンサなど、位置、姿勢制御用の別の機器や素子を必ずしも設けなくてもよい。  In addition, because it is possible to determine the position and posture by grasping the surroundings of the flying robot using an observation camera that is unavoidably mounted on the flying robot for the purpose of use, an objective distance sensor, azimuth angle sensor, height sensor, etc. It is not always necessary to provide another device or element for position and orientation control.

そのため、飛翔ロボットの揚力に余裕が生ずるとともに、消費電力も減るので、同じ電池を用いる時の滞空時間を増すことができる。  For this reason, there is a margin in the lift of the flying robot and the power consumption is reduced, so that it is possible to increase the hover time when using the same battery.

そして、前記のマーカー物体を飛翔ロボットの端を認知できる場所としておけば、万一操縦を誤ったり、風など吹かれるなどして、飛翔ロボットが急に空中で位置や姿勢を変えて何かにぶつかるとしても、該マーカー物体がまずぶつかるので、飛翔ロボットの回転翼や固定翼が破損して墜落することを防止できる。  And if you put the marker object as a place where you can recognize the end of the flying robot, the flying robot suddenly changes its position and posture in the air to something due to mishandling or blowing wind etc. Even if it collides, since the marker object first collides, it is possible to prevent the rotary wing and fixed wing of the flying robot from being damaged and falling.

また、ぶつかる時やぶつかりそうな時に、該マーカー物体がカメラ映像に入っているため、ぶつかるかどうかを判断したり、衝突の状態を監視することができ、あわてずに対処することができる。  In addition, when a collision or a collision is likely to occur, the marker object is included in the camera image. Therefore, it is possible to determine whether or not to collide with each other and to monitor the state of the collision.

該マーカー物体を発光体とすれば、暗い場所でも飛翔ロボットの端をより良く認識できるため、衝突を回避し易い。また、衝突時の対処をより適確に行える。  If the marker object is a light emitter, the end of the flying robot can be better recognized even in a dark place, and collision can be easily avoided. In addition, it is possible to deal with a collision more accurately.

本発明を実施するための最良の形態を図1に基づいて説明する。図1は本発明の飛翔ロボットの実施形態である。  The best mode for carrying out the present invention will be described with reference to FIG. FIG. 1 shows an embodiment of a flying robot of the present invention.

飛翔ロボットの基体1は浮揚機構2により空中に浮遊する揚力を得る。図1では浮揚機構2を単数の回転翼として描いてあるが、複数の回転翼でもよい。  The base 1 of the flying robot obtains a lift force floating in the air by the levitation mechanism 2. In FIG. 1, the levitation mechanism 2 is depicted as a single rotor blade, but a plurality of rotor blades may be used.

浮揚機構2は任意であり、気球、気体噴射装置、プロペラと固定翼との組み合わせなど、飛翔ロボットの基体1を空中に浮遊させ得るものであれば任意である。回転翼とこれらのいずれかを組み合わせた浮揚機構2でもよい。  The levitation mechanism 2 is optional, and any levitation mechanism 2 may be used as long as it can float the flying robot base 1 in the air, such as a balloon, a gas jetting device, or a combination of a propeller and a fixed wing. The levitation mechanism 2 may be a combination of a rotary blade and any one of these.

飛翔ロボットの基体1には、該飛翔ロボットの前方を監視、観察するカメラ3を取り付ける。そして、該カメラ3の撮影範囲に入るように、該飛翔ロボットの一部または端を示すマーカー物体4を設ける。  A camera 3 for monitoring and observing the front of the flying robot is attached to the base 1 of the flying robot. And the marker object 4 which shows a part or edge of this flying robot is provided so that it may enter into the imaging | photography range of this camera 3. FIG.

飛翔ロボットは立体形状であるため、水平方向に該飛翔ロボットが動く時に別の物体に衝突することを回避できるようにマーカー物体4を付けても、上部の浮揚機構2や基体1の下部が物にぶつかることもままある。したがって、該飛翔ロボットの左右端および上下端が判断できるマーカー物体4とすればなおよい。  Since the flying robot has a three-dimensional shape, even if the marker object 4 is attached so that it can avoid colliding with another object when the flying robot moves in the horizontal direction, the upper levitation mechanism 2 and the lower part of the base body 1 are attached to the object. There are still some hits. Therefore, the marker object 4 that can determine the left and right ends and the upper and lower ends of the flying robot is better.

マーカー物体の個数、形状は任意でよい。図1ではマーカー物体4として、該飛翔ロボットの前部上端すなわち浮揚機構2として設けた回転翼の回転範囲のすぐ外側を示すマーカー物体4a、該飛翔ロボットの前下部左右端を示すマーカー物体4b、4cおよび基体1の下端を示すマーカー物体4dとを設けた。  The number and shape of the marker objects may be arbitrary. In FIG. 1, as the marker object 4, a marker object 4a indicating the front upper end of the flying robot, that is, the outer side of the rotation range of the rotary wing provided as the levitation mechanism 2, a marker object 4b indicating the front lower left and right ends of the flying robot, 4c and a marker object 4d indicating the lower end of the substrate 1 were provided.

5a、5b、5cは、マーカー物体4a、4b、4cを飛翔ロボットの基体1に取り付けるためのマーカー物体支持部品である。  Reference numerals 5a, 5b, and 5c are marker object support parts for attaching the marker objects 4a, 4b, and 4c to the base 1 of the flying robot.

マーカー物体4a、4b、4c、4dやマーカー物体支持部品5a、5b、5cは、該飛翔ロボットの脚部や回転翼保護部を兼ねてもよい。  The marker objects 4a, 4b, 4c, and 4d and the marker object support parts 5a, 5b, and 5c may also serve as the legs of the flying robot and the rotor protection part.

たとえば、図3に示すように、円輪状やスカート状の衝突保護具4eを設け、その一部または全部をマーカー物体4としてもよい。5d、5e、5fは、衝突保護具4eの支持部品である。  For example, as shown in FIG. 3, a ring-shaped or skirt-shaped collision protector 4 e may be provided, and a part or all of them may be used as the marker object 4. Reference numerals 5d, 5e, and 5f denote support parts for the collision protector 4e.

マーカー物体4は、前記カメラ3により観察する環境となるべく異なる色や形状を有し、観察する画像と明瞭に区別できるマーカー物体であることが好ましい。  The marker object 4 is preferably a marker object that has a color and shape that is as different as possible in the environment observed by the camera 3 and can be clearly distinguished from the image to be observed.

また、カメラ3の視野は人間の視野に近い視野角とすると、カメラ3の映像を見ながら操縦するのに都合が良く、少なくとも110°以上とすることが好ましい。  If the field of view of the camera 3 is close to the human field of view, it is convenient for maneuvering while viewing the image of the camera 3, and is preferably at least 110 ° or more.

カメラ3の視野を広くするにしたがって一般に撮影した映像の周辺部が歪むが、映像の周辺部が歪んでも、視野角がおおむね180°以下であれば、広い視野とした方が周囲の状況を適確に把握でき、より容易に操縦できるようになる。  As the field of view of the camera 3 is increased, the peripheral part of the captured image is generally distorted, but even if the peripheral part of the image is distorted, if the viewing angle is approximately 180 ° or less, a wider field of view is more suitable for the surrounding situation. It can be grasped accurately and can be operated more easily.

該飛翔ロボット上の任意の位置に、カメラ映像を該飛翔ロボットの操縦者が居る場所まで送るための映像送信回路を搭載し、カメラ3の映像を操縦者が居る場所のモニタ画面6に映す。7はモニタ装置の本体である。  A video transmission circuit for sending a camera image to a place where the flight robot operator is located is installed at an arbitrary position on the flying robot, and the image of the camera 3 is displayed on the monitor screen 6 where the operator is located. Reference numeral 7 denotes a main body of the monitor device.

操縦者は、前記のモニタ6の画面に映し出された映像を見ながら、操縦機8を用いて飛翔ロボットを操縦する。  The operator operates the flying robot using the controller 8 while watching the image displayed on the screen of the monitor 6.

操縦するには、該操縦機8のジョイスティック9やスイッチ10などから、浮揚機構2を動かすための信号や該飛翔ロボットの位置や姿勢角を制御するための機構を動かす信号を該飛翔ロボットに適宜送る。  In order to control the flying robot, a signal for moving the levitation mechanism 2 and a signal for moving the mechanism for controlling the position and posture angle of the flying robot are appropriately given to the flying robot from the joystick 9 and the switch 10 of the pilot 8. send.

該飛翔ロボットの位置や姿勢角を制御するための機構は任意でよい。図1に示したように、浮揚機構2としてヘリコプターと同様に単数の主回転翼を設ける場合には、該主回転翼の回転面が飛翔ロボットの基体1となす角度を制御するか、該飛翔ロボットに搭載した重錘の位置を制御して傾斜角を制御するか、の方策をとれば、前後および左右への移動と傾斜角を制御できる。また、補助回転翼11を設けてその回転数を制御すれば、方位角を制御できる。  A mechanism for controlling the position and posture angle of the flying robot may be arbitrary. As shown in FIG. 1, when a single main rotor blade is provided as the levitation mechanism 2 in the same manner as the helicopter, the angle formed by the rotating surface of the main rotor blade with the base 1 of the flying robot is controlled, or the flight If the measure of whether the tilt angle is controlled by controlling the position of the weight mounted on the robot, the forward / backward and left / right movement and the tilt angle can be controlled. Moreover, if the auxiliary rotor blade 11 is provided and the rotation speed is controlled, the azimuth angle can be controlled.

なお、図1において、12は脚部である。  In FIG. 1, reference numeral 12 denotes a leg portion.

カメラ3からの映像送受信回路、および/または位置や姿勢角の制御信号送受信回路は、飛翔ロボットの機動性を確保する点からすると無線回路であることが好ましい。  The video transmission / reception circuit from the camera 3 and / or the position / posture angle control signal transmission / reception circuit is preferably a wireless circuit from the viewpoint of ensuring the mobility of the flying robot.

しかし、飛翔に支障がない細くて軽い通信線を用いれば、該飛翔ロボット上のカメラ3の映像送信回路と、操縦者が居る場所のモニタ画面6やモニタ装置の本体7との間を有線で接続してもよく、前記操縦機7と該飛翔ロボット間も有線で接続してもよい。  However, if a thin and light communication line that does not hinder the flight is used, a wired connection between the video transmission circuit of the camera 3 on the flying robot and the monitor screen 6 where the operator is present or the monitor device body 7 is wired. It may be connected, and the controller 7 and the flying robot may be connected by wire.

図2はモニタ画面6に映し出された映像の模式図である。モニタ画面6内に図1に示したマーカー物体4a、4b、4c、4dの映像14a、14b、14c、14dが映り、その奥に該飛翔ロボットの前方の景色が見える状況を示している。  FIG. 2 is a schematic diagram of an image displayed on the monitor screen 6. Images 14a, 14b, 14c, and 14d of the marker objects 4a, 4b, 4c, and 4d shown in FIG. 1 are shown in the monitor screen 6, and a scene in front of the flying robot can be seen in the back.

図は部屋の隅の狭い空間で液漏れが起きた状況を模しており、床15上の壁16、17、18、19に囲まれた場所で、壁19上の格子20から液体21が漏洩して広がっている状態を示している。  The figure simulates a situation in which a liquid leak occurs in a narrow space in the corner of the room. In a place surrounded by the walls 16, 17, 18, 19 on the floor 15, the liquid 21 flows from the lattice 20 on the wall 19. It shows a state of leaking and spreading.

マーカー物体4a、4b、4c、4dの映像14a、14b、14c、14dとしては、たとえば図示したように、マーカー物体4a、4b、4c、4dと判別できる程度に該マーカー物体4a、4b、4c、4dの少なくとも一部が映っていればよい。  As the images 14a, 14b, 14c, and 14d of the marker objects 4a, 4b, 4c, and 4d, for example, as illustrated, the marker objects 4a, 4b, 4c, and 14d can be distinguished from the marker objects 4a, 4b, 4c, and 4d. It is sufficient that at least a part of 4d is reflected.

カメラ3を飛翔ロボットの基体1上に固定して用いれば、モニタ画面6にマーカー物体4a、4b、4cの映像14a、14b、14c、14dが映る場所はモニタ画面6上の一定の場所となる。  If the camera 3 is fixed on the flying robot base 1 and used, the place where the images 14a, 14b, 14c and 14d of the marker objects 4a, 4b and 4c appear on the monitor screen 6 is a fixed place on the monitor screen 6. .

一方、カメラ3に図示していないカメラ姿勢角制御機構を設け、首振り動作ができるようにしてもよい。  On the other hand, a camera attitude angle control mechanism (not shown) may be provided in the camera 3 so that the head can be swung.

首振り動作を行っても、モニタ画面6上に少なくとも一部のマーカー物体4が映るようにする。  Even when the head swing operation is performed, at least a part of the marker object 4 is projected on the monitor screen 6.

図1に示したカメラ3を左右に首振りする時、たとえば、映像として図4に示すように該マーカー物体14a、14c、14dがモニタ画面6上に残るようにすれば、該マーカー物体14a、14c、14dのモニタ画面6上の位置により、飛翔ロボットに対する景色が見えている方向を容易に判別することができる。  When the camera 3 shown in FIG. 1 is swung left and right, for example, if the marker objects 14a, 14c, and 14d remain on the monitor screen 6 as shown in FIG. 4, the marker objects 14a, From the positions on the monitor screen 6 of 14c and 14d, the direction in which the scenery with respect to the flying robot is seen can be easily determined.

同様に、図1に示したカメラ3を上下に首振りする時、たとえば、映像として図5に示すように該マーカー物体14b、14c、14dがモニタ画面6上に残るようにすれば、該マーカー物体14b、14c、14dのモニタ画面6上の位置により、飛翔ロボットに対する景色が見えている方向を容易に判別することができる。  Similarly, when the camera 3 shown in FIG. 1 is swung up and down, for example, if the marker objects 14b, 14c, and 14d are left on the monitor screen 6 as shown in FIG. Based on the positions of the objects 14b, 14c, and 14d on the monitor screen 6, the direction in which the scenery with respect to the flying robot is seen can be easily determined.

首振り動作を行う場合には、マーカー物体4を任意に多数設けておき、そのいずれかがモニタ画面6上に映るようにし、どのマーカー物体がモニタ画面6上に映っているのかが操縦者にすぐに認識できるようにすればなおよい。  When performing the swing motion, an arbitrarily large number of marker objects 4 are provided, and any one of them is displayed on the monitor screen 6, and which marker object is displayed on the monitor screen 6 is indicated to the operator. It is even better if you can recognize it immediately.

たとえば、マーカー物体4a、4b、4c、……毎に色を変えたり、形を変えたり、マーカー物体4a、4b、4c、……に番号や記号を付したりしてもよい。  For example, the color or the shape may be changed for each marker object 4a, 4b, 4c,..., Or a number or a symbol may be attached to the marker objects 4a, 4b, 4c,.

以上に説明したようにすれば、常に飛翔ロボットの周囲を映すカメラ3の映像を該飛翔ロボットの一部または端を示すマーカー物体とともに見ながら該飛翔ロボットを操縦するため、自分で自動車に乗ってボンネット越しに前方の景色を見ながら自動車を運転する感覚で該飛翔ロボットを操縦することができる。このため、周囲の様子を見ながら柔軟に飛翔ロボットの位置や姿勢を制御することができ、容易に操縦することができる。  As described above, in order to maneuver the flying robot while watching the image of the camera 3 always reflecting the surroundings of the flying robot together with the marker object indicating a part or end of the flying robot, The flying robot can be operated as if driving a car while looking at the scenery in front of the bonnet. For this reason, the position and posture of the flying robot can be controlled flexibly while watching the surrounding situation, and can be easily operated.

したがって、壁11、12、13や床15にぶつからないように、該飛翔ロボットを最適な位置や姿勢にして漏洩液体17の量や溜り方などを観察することができる。  Therefore, the amount of the leaked liquid 17 and how it collects can be observed with the flying robot in an optimal position and posture so as not to hit the walls 11, 12, 13 and the floor 15.

カメラ3として飛翔ロボットに搭載が不可避の観察用カメラを利用すれば、対物距離センサ、方位角センサ、高さセンサなど、該カメラが単なる観察用カメラの場合には必要となる位置、姿勢制御のための機器の一部または全部を必ずしも別途設けなくて済む。そのため、飛翔ロボットの揚力に余裕が生ずるとともに、消費電力も減るので、同じ電池を用いる時の滞空時間を増すことができる。  If an observation camera that is unavoidably mounted on a flying robot is used as the camera 3, an objective distance sensor, an azimuth angle sensor, a height sensor, and the like, which are necessary when the camera is a simple observation camera, are used for position and orientation control. Therefore, it is not always necessary to provide a part or all of the equipment for this purpose. For this reason, there is a margin in the lift of the flying robot and the power consumption is reduced, so that it is possible to increase the hover time when using the same battery.

そして、万一操縦を誤ったり、風など吹かれるなどして、飛翔ロボットが急に空中で位置や姿勢を変えて何かにぶつかるとしても、前記飛翔ロボットの端を示すマーカー物体がまずぶつかるので、飛翔ロボットの浮揚機構2が破損して墜落するような事態を避けることができる。  And even if the flying robot suddenly changes position and posture in the air and hits something by accident such as mishandling or blowing wind, the marker object indicating the end of the flying robot will hit first Thus, it is possible to avoid a situation where the flying robot's levitation mechanism 2 is damaged and crashes.

また、ぶつかる時やぶつかりそうな時に、マーカー物体がカメラ映像に入っているため、ぶつかるかどうかを判断したり、衝突の状態を監視することができ、あわてずに対処することができる。したがって、衝突の回避動作をスムーズにでき、破損も最小限に食い止めることができる。  In addition, since the marker object is included in the camera image when it collides or is likely to collide, it can be determined whether or not it collides, and the state of the collision can be monitored, so that it is possible to deal with it without panic. Therefore, the collision avoidance operation can be performed smoothly, and damage can be minimized.

また、要観察場所が暗くて状況を察知しにくい場合があり、その場合には飛翔ロボットから照明光を照射して観察することになる。しかし、飛翔ロボット自体は照明されないので、衝突の危険性が増す。  In addition, there is a case where the observation required place is dark and it is difficult to detect the situation. In this case, the observation is performed by irradiating illumination light from the flying robot. However, the flying robot itself is not illuminated, increasing the risk of collision.

図1または図3における、マーカー物体4a、4b、4c、4d、4eを発光体とすれば、このように要観察場所が暗くて状況を察知しにくい場合に有効である。発光体は発光ダイオード、豆電球、蓄光材料など任意の発光体でよい。  If the marker objects 4a, 4b, 4c, 4d, and 4e in FIG. 1 or FIG. 3 are light emitters, it is effective when it is difficult to perceive the situation because the observation location is dark. The light emitter may be any light emitter such as a light emitting diode, miniature light bulb, or phosphorescent material.

暗い場所でマーカー物体を発光体とすれば、背景の景色と分離して認知し易くなる。また、飛翔ロボットの端付近が照明されるので、衝突を回避し易くなる。  If the marker object is a illuminant in a dark place, it will be easy to recognize separately from the background scenery. In addition, since the vicinity of the end of the flying robot is illuminated, it is easy to avoid a collision.

マーカー物体を発光、非発光に切り替え可能としておき、暗い場所でのみ発光させてもよいことは言うまでもない。  Needless to say, the marker object can be switched between light emission and non-light emission, and light can be emitted only in a dark place.

本発明の飛翔ロボットの実施形態  Embodiment of the flying robot of the present invention 本発明の飛翔ロボットを操縦するためのモニタ画面の実施形態  Embodiment of monitor screen for maneuvering flying robot of the present invention 本発明の飛翔ロボットの別の実施形態  Another embodiment of the flying robot of the present invention 左右にカメラの首を振った時のモニタ画面の実施形態  Embodiment of the monitor screen when the camera's head is swung from side to side 上下にカメラの首を振った時のモニタ画面の実施形態  Embodiment of monitor screen when camera head is shaken up and down

符号の説明Explanation of symbols

1 飛翔ロボットの基体
2 浮揚機構
3 カメラ
4a、4b、4c、4d、4e マーカー物体
6 モニタ画面
8 操縦機
14a、14b、14c、14d マーカー物体の映像
DESCRIPTION OF SYMBOLS 1 Flying robot base body 2 Levitation mechanism 3 Cameras 4a, 4b, 4c, 4d, 4e Marker object 6 Monitor screen 8 Pilots 14a, 14b, 14c, 14d Image of marker object

Claims (2)

飛翔ロボットの一部または端を認知するためのマーカー物体と、該マーカー物体を含めて前記飛翔ロボットの周囲を観察するカメラとを設け、該マーカー物体の少なくとも一部が前記カメラの視野内に観察景色の前景として入るようになし、前記カメラのモニタ画面に映されるようになしたことを特徴とする飛翔ロボット  A marker object for recognizing a part or end of the flying robot and a camera for observing the surroundings of the flying robot including the marker object are provided, and at least a part of the marker object is observed in the field of view of the camera A flying robot characterized in that it enters as a foreground of a scene and is projected on the monitor screen of the camera. 請求項1に示した飛翔ロボットにおいて、マーカー物体を発光体としたことを特徴とする飛翔ロボット  The flying robot according to claim 1, wherein the marker object is a light emitter.
JP2004201188A 2004-06-11 2004-06-11 Flying robot Expired - Fee Related JP4521540B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004201188A JP4521540B2 (en) 2004-06-11 2004-06-11 Flying robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004201188A JP4521540B2 (en) 2004-06-11 2004-06-11 Flying robot

Publications (2)

Publication Number Publication Date
JP2005349556A JP2005349556A (en) 2005-12-22
JP4521540B2 true JP4521540B2 (en) 2010-08-11

Family

ID=35584429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004201188A Expired - Fee Related JP4521540B2 (en) 2004-06-11 2004-06-11 Flying robot

Country Status (1)

Country Link
JP (1) JP4521540B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4670052B2 (en) * 2005-08-19 2011-04-13 学校法人東京電機大学 Flying robot control device and flying robot control method
KR101074279B1 (en) * 2008-03-10 2011-10-19 주식회사 제이캐스트 Monitering system using unmanned air vehicle with WiMAX communication
JP5381147B2 (en) * 2009-02-17 2014-01-08 富士電機株式会社 Work transfer system
JP6188065B2 (en) * 2013-08-05 2017-08-30 株式会社日立ビルシステム Inspection equipment for elevators
JP6729879B2 (en) * 2017-04-06 2020-07-29 株式会社自律制御システム研究所 Unmanned aerial vehicle and method of using the same
JP6494701B2 (en) * 2017-07-27 2019-04-03 株式会社日立ビルシステム Inspection equipment for elevators
JP6922733B2 (en) * 2017-12-29 2021-08-18 富士通株式会社 Robots, self-diagnosis programs, and self-diagnosis methods
JP6994205B2 (en) * 2020-06-24 2022-01-14 株式会社Acsl Unmanned aerial vehicle and how to use it

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002006784A (en) * 2000-06-20 2002-01-11 Mitsubishi Electric Corp Floating type robot
JP2003018665A (en) * 2001-07-03 2003-01-17 Matsushita Electric Ind Co Ltd Remote controller
JP2003118697A (en) * 2001-10-17 2003-04-23 Sharp Corp Robot system, and flapping device and flapping flight controller used therein

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62213786A (en) * 1986-03-13 1987-09-19 石井 要司 Operation of remote control helicopter
JPH07178235A (en) * 1993-12-21 1995-07-18 Casio Comput Co Ltd Control device
JPH0943753A (en) * 1995-07-31 1997-02-14 Chiaki Ochiai Aerial photographic method for remote controlled aircraft
JPH1159595A (en) * 1997-08-11 1999-03-02 Mugen:Kk Industrial unmanned motor paraplane

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002006784A (en) * 2000-06-20 2002-01-11 Mitsubishi Electric Corp Floating type robot
JP2003018665A (en) * 2001-07-03 2003-01-17 Matsushita Electric Ind Co Ltd Remote controller
JP2003118697A (en) * 2001-10-17 2003-04-23 Sharp Corp Robot system, and flapping device and flapping flight controller used therein

Also Published As

Publication number Publication date
JP2005349556A (en) 2005-12-22

Similar Documents

Publication Publication Date Title
US11370540B2 (en) Context-based flight mode selection
US11697411B2 (en) Apparatus and methods for obstacle detection
JP6085153B2 (en) Indoor survey system
AU2016352014B2 (en) Unmanned moving vehicle piloting method and unmanned moving vehicle watching device
CA2954671C (en) Helicopter hoist systems, devices, and methodologies
US20190068954A1 (en) Senising on uavs for mapping and obstacle avoidance
CN110709320A (en) System and method for intercepting and countering Unmanned Aerial Vehicles (UAVs)
JP4670052B2 (en) Flying robot control device and flying robot control method
US20100179691A1 (en) Robotic Platform
JP6539072B2 (en) Surveillance system and flight robot
KR101739262B1 (en) The unmanned air vehicle for castaway tracking
WO2006106730A1 (en) Fuselage information display panel
JP4521540B2 (en) Flying robot
JP6749693B2 (en) Unmanned aerial vehicle
JP6509599B2 (en) Flight robot control system and flight robot
JP6664209B2 (en) Investigation method using flight-type survey aircraft
JP2019101765A (en) Tracking image presentation system for moving object
JP2006051893A (en) Position/posture detecting system
US20220238987A1 (en) Mobile surveillance systems extendable mast control systems and methods
WO2024009447A1 (en) Flight control system and flight control method
Kuntz et al. Autonomous cargo transport system for an unmanned aerial vehicle, using visual servoing
JP2023510420A (en) mobile safety device
KR20230104385A (en) Drone with electromagnet suspension
EP3166845A1 (en) Helicopter hoist systems, devices, and methodologies

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100413

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100422

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130604

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130604

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees