JP2017027396A - Vehicular driving support device - Google Patents

Vehicular driving support device Download PDF

Info

Publication number
JP2017027396A
JP2017027396A JP2015145847A JP2015145847A JP2017027396A JP 2017027396 A JP2017027396 A JP 2017027396A JP 2015145847 A JP2015145847 A JP 2015145847A JP 2015145847 A JP2015145847 A JP 2015145847A JP 2017027396 A JP2017027396 A JP 2017027396A
Authority
JP
Japan
Prior art keywords
vehicle
obstacle
drone
detection unit
host vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015145847A
Other languages
Japanese (ja)
Other versions
JP6631776B2 (en
Inventor
真吾 入方
Shingo Irikata
真吾 入方
宗義 難波
Muneyoshi Nanba
宗義 難波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Motors Corp
Original Assignee
Mitsubishi Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Motors Corp filed Critical Mitsubishi Motors Corp
Priority to JP2015145847A priority Critical patent/JP6631776B2/en
Publication of JP2017027396A publication Critical patent/JP2017027396A/en
Application granted granted Critical
Publication of JP6631776B2 publication Critical patent/JP6631776B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicular driving support device capable of improving obstacle collision avoidance performance of an unmanned flying body in supporting driving.SOLUTION: A vehicular driving support device comprises: an unmanned flying body 1 with an imaging device 7 capable of flying a prescribed position in front of a travel direction of a self vehicle 30; a presentation unit 37 for presenting an image, captured by the imaging device, of the front of the travel direction of the vehicle to a crew of the vehicle; and control units 13 and 41 for controlling the unmanned flying body to fly the prescribed position in front of the vehicle. The unmanned flying body includes a flying body side detection unit 7 for detecting an obstacle therearound, the vehicle includes a vehicle side detection unit 49 for detecting an obstacle in front of the travel direction of the vehicle, and the control units include an obstacle avoidance indication unit 50 for indicating flying of the unmanned flying body to a direction for avoiding an obstacle on the basis of the obstacle detected by the flying body side detection unit and the obstacle detected by the vehicle side detection unit.SELECTED DRAWING: Figure 1

Description

本発明は、自車両の運転支援を行う車両の運転支援装置に関する。   The present invention relates to a driving support apparatus for a vehicle that supports driving of the host vehicle.

自動車(車両)では、近時、無人飛行体、例えば撮像カメラ(撮像装置)を搭載したドローン(無人飛行体)を用いて、自車両の運転の支援を行う運転支援装置が提案されている。この運転支援装置は、ドローンを自車両前方上空に飛行させ、撮像カメラによって自車両の進行方向前方の撮像画像を自車両のドライバー(運転者)に提示し、自車両のドライバーに現在の障害物の状況や交通状況などを知らせて、ドライバーに前方状況に応じた運転を促す(例えば特許文献1を参照)。   In automobiles (vehicles), recently, driving support devices that support driving of the own vehicle using an unmanned air vehicle, for example, a drone (unmanned air vehicle) equipped with an imaging camera (imaging device) have been proposed. This driving support device flies a drone in front of the host vehicle, presents a captured image ahead of the traveling direction of the host vehicle with an imaging camera to the driver (driver) of the host vehicle, and informs the driver of the host vehicle the current obstacle. To inform the driver of driving and driving according to the front situation (see, for example, Patent Document 1).

特開2010−250478号公報JP 2010-250478 A

ドローンは、自車両が左方向へ曲がれば、その自車両に追従して当該自車両の前方を飛行し、自車両が右方向へ曲がれば、その自車両に追従して当該自車両の前方を飛行する。この際、ドローンが障害物と衝突しないよう、ドローンには衝突センサが搭載され、障害物を避けながら飛行が続けられるようにしている。
ところで、ドローンは、例えば自車両が右左折したような場合、自車両の前方位置に追い付くため、当初の位置から後方左右方向へ曲がり、右左折した自車両の前方の所定位置へ向かうよう飛行する。この際、ドローンの進行方向は変わる。
The drone follows the host vehicle if the host vehicle turns to the left and flies ahead of the host vehicle. If the host vehicle turns to the right, the drone follows the host vehicle and follows the host vehicle. To fly. At this time, a collision sensor is mounted on the drone so that the drone does not collide with an obstacle so that the flight can be continued while avoiding the obstacle.
By the way, when the own vehicle turns right or left, for example, the drone makes a turn to the left and right from the original position to catch up with the front position of the own vehicle, and flies to a predetermined position in front of the own vehicle that has turned right and left. . At this time, the traveling direction of the drone changes.

通常、ドローンの障害物を検出する範囲は、ドローンの周囲の限られた範囲、多くは飛行方向前方の範囲に限られているため、進路を変える際、障害物センサの障害物検出範囲外を飛行することがある。
ところが、ドローンの障害物検出範囲外の上空に障害物が有る場合、例えば同上空に樹木の枝先が張り出ていたり、同上空を雀や燕など鳥が飛んでいたりすると、ドローン自身では検出されないため、飛行中のドローンが障害物と衝突するおそれがある。
Usually, drone obstacle detection range is limited to the limited area around the drone, most of which is limited to the front of the flight direction. May fly.
However, if there is an obstacle above the obstacle detection range of the drone, for example, if a branch of a tree overhangs the sky, or if a bird such as a sparrow or a spider is flying in the sky, the drone itself detects it. The drone in flight may collide with obstacles.

そこで、本発明の目的は、運転支援中の無人飛行体における障害物の衝突回避性能の向上が図れる車両の運転支援装置を提供する。   SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a vehicle driving assistance device capable of improving the obstacle collision avoidance performance of an unmanned air vehicle that is driving assistance.

本発明の態様は、自車両の進行方向前方の所定位置を飛行可能な、撮像装置が付いた無人飛行体と、撮像装置で撮像した自車両の進行方向前方の画像を自車両の乗員に提示する提示部と、自車両前方の所定位置に無人飛行体が飛行され続けるよう無人飛行体の飛行を制御する制御部とを備えた車両の運転支援装置であって、無人飛行体は、無人飛行体の周囲の障害物を検出する飛行体側検出部を有し、自車両は、自車両の進行方向前方における障害物を検出する車両側検出部を有し、制御部は、飛行体側検出部により検出される障害物および車両側検出部により検出される障害物に基づき、障害物を回避する方向へ無人飛行体の飛行を指示する障害物回避指示部を有するものとした。   Aspects of the present invention present an unmanned aerial vehicle with an imaging device capable of flying at a predetermined position ahead in the traveling direction of the host vehicle, and an image of the host vehicle in the traveling direction captured by the imaging device to an occupant of the host vehicle. A vehicle driving support device comprising: a presenting unit that controls the flight of the unmanned air vehicle so that the unmanned air vehicle continues to fly at a predetermined position in front of the host vehicle. A vehicle-side detection unit that detects obstacles around the body, the host vehicle has a vehicle-side detection unit that detects obstacles ahead of the traveling direction of the host vehicle, and the control unit is Based on the detected obstacle and the obstacle detected by the vehicle side detection unit, an obstacle avoidance instruction unit that instructs the flight of the unmanned air vehicle in a direction to avoid the obstacle is provided.

本発明によれば、たとえ無人飛行体自身で障害物の検出が困難な場合でも、自車両が同障害物を捉えて無人飛行体の飛行方向を当該障害物を回避する方向に指示する。このため、無人飛行体の不足している障害物検出機能は、自車両にて補われるので、どのような姿勢で無人飛行体が飛行しても、無人飛行体は、障害物との衝突を避けながら飛行する。
したがって、無人飛行体と自車両との協調制御により、運転支援中の無人飛行体の障害物に対する衝突回避性能の向上を図ることができる。
According to the present invention, even if it is difficult for the unmanned air vehicle itself to detect an obstacle, the host vehicle catches the obstacle and instructs the flight direction of the unmanned air vehicle to avoid the obstacle. For this reason, the obstacle detection function that the unmanned aerial vehicle lacks is compensated for by the host vehicle, so that the unmanned aerial vehicle will not collide with the obstacle, regardless of the attitude. Fly while avoiding.
Therefore, it is possible to improve the collision avoidance performance for the obstacle of the unmanned air vehicle that is driving assistance by cooperative control of the unmanned air vehicle and the host vehicle.

本発明の第1の実施形態に係る車両の運転支援装置を、制御系と共に示す斜視図。The perspective view which shows the driving assistance device of the vehicle which concerns on the 1st Embodiment of this invention with a control system. 制御系が行うドローン(無人飛行体)と障害物とにおける衝突回避の制御を説明するフローチャート。The flowchart explaining the control of the collision avoidance in the drone (unmanned aerial vehicle) and an obstacle which a control system performs. 同制御の状況を説明する説明する図。The figure explaining the condition of the control. 障害物の位置が3次元的に割り出されるのを説明する斜視図。The perspective view explaining that the position of an obstruction is calculated | required three-dimensionally. 本発明の第2の実施形態の要部となる制御を説明するフローチャート。The flowchart explaining the control used as the principal part of the 2nd Embodiment of this invention.

以下、本発明を図1から図4に示す第1の実施形態にもとづいて説明する。
図1は、車両の運転支援装置の全体および同装置の制御系を示していて、図1中1は無人飛行体であるところの例えばドローン、30は自車両を示している。
図1に示されるように例えばドローン1は、本体部3、本体部3の側部に放射状に据え付けた複数、例えば4基のモータ駆動式のプロペラ5a(推進部)と、本体部3に据え付けたカメラ、例えばドローン前方(ドローン周囲)を撮像する撮像装置とドローン前方(ドローン周囲)の障害物を検出する障害物センサの双方の機能を有するステレオカメラ7と、本体部3内に収めたバッテリ(図示しない)や制御ユニット9とを有したマルチコプターから構成される。プロペラ駆動用のモータ5bを収めるカバー部は離着陸用の脚部を兼ねている。なお、図1中、符号7aは、ステレオカメラ7の左右一対の撮像部(片側しか図示せず)を示している。
Hereinafter, the present invention will be described based on a first embodiment shown in FIGS.
FIG. 1 shows an entire vehicle driving support apparatus and a control system of the apparatus. In FIG. 1, reference numeral 1 denotes, for example, a drone that is an unmanned air vehicle, and reference numeral 30 denotes a host vehicle.
As shown in FIG. 1, for example, the drone 1 is installed on the main body 3, a plurality of, for example, four motor-driven propellers 5 a (propulsion unit) installed radially on the side of the main body 3, and the main body 3. Cameras, for example, a stereo camera 7 having the functions of both an imaging device that images the front of the drone (around the drone) and an obstacle sensor that detects obstacles in front of the drone (around the drone), and a battery housed in the main body 3 (Not shown) and a multicopter having a control unit 9. The cover for housing the propeller driving motor 5b also serves as a landing / landing leg. In FIG. 1, reference numeral 7 a indicates a pair of left and right imaging units (only one side is illustrated) of the stereo camera 7.

ドローン1の制御ユニット9には、図1中のブロック図に示されるように制御部13や姿勢制御用の姿勢センサ15やGPS19や送受信部21が収められている。そして、制御部13の指令により、バッテリを電力源としたモータ5bの駆動、プロペラ5aの回転制御などが行われ、所望の高度、所望の向きで飛行が行えるようになっている。むろんドローン1は、制御部13の制御により、ステレオカメラ7でドローン前方を撮像しながら飛行する。そして、ステレオカメラ7で撮像した画像から、飛行中のドローン1周囲の障害物、ここではドローン1の前方の障害物を検出し、同障害物を避ける飛行を行う(詳細は後述)。   As shown in the block diagram of FIG. 1, the control unit 9 of the drone 1 houses a control unit 13, a posture sensor 15 for posture control, a GPS 19, and a transmission / reception unit 21. And by the command of the control part 13, the drive of the motor 5b which used the battery as an electric power source, the rotation control of the propeller 5a, etc. are performed, and it can fly by desired altitude and desired direction. Of course, the drone 1 flies while imaging the front of the drone with the stereo camera 7 under the control of the control unit 13. Then, an obstacle around the drone 1 in flight, in this case, an obstacle ahead of the drone 1 is detected from the image captured by the stereo camera 7, and the flight avoiding the obstacle is performed (details will be described later).

自車両30は、車体33のルーフ33a上に例えばドローン用のヘリポート35(離着陸部)を有している。また例えばインストルメントパネル部30aには、自車両30のドライバー(乗員)が目視可能なディスプレイ37(本願の提示部に相当)や、制御ユニット39を有している。そして、ヘリポート35上に上記ドローン1が搭載され、ドローン1を車体上部で離着陸可能としている。ヘリポート35上のドローン1は、フック機構(図示しない)で着脱可能にホールドされる。   The host vehicle 30 has, for example, a drone heliport 35 (takeoff and landing portion) on the roof 33a of the vehicle body 33. Further, for example, the instrument panel unit 30 a includes a display 37 (corresponding to the presenting unit of the present application) and a control unit 39 that can be viewed by a driver (occupant) of the host vehicle 30. Then, the drone 1 is mounted on the heliport 35 so that the drone 1 can be taken off and landing at the upper part of the vehicle body. The drone 1 on the heliport 35 is detachably held by a hook mechanism (not shown).

制御ユニット39には、図1中のブロック図に示されるように制御部41や、GPS43や、ドローン1側の送受信部21との間で通信を行う送受信部45が収められている。そして、GPS43で検出された自車両30の位置が、ディスプレイ37に映出される地図上に表示されたり、ドローン1のステレオカメラ7で捉えたドローン前方の撮像画像がディスプレイ37に映出されたりする。ディスプレイ37には、ステレオカメラ7の片側の撮像部7aで撮像した情景が映し出される。ちなみに、GPS43および撮像部7aの双方の信号が有る場合は、例えばディスプレイ37の画面の左右半分のうちの一方側でドローン1からの画像が表示され、他方側で自車両位置が表示される。   As shown in the block diagram of FIG. 1, the control unit 39 houses a control unit 41, a GPS 43, and a transmission / reception unit 45 that performs communication with the transmission / reception unit 21 on the drone 1 side. Then, the position of the host vehicle 30 detected by the GPS 43 is displayed on a map displayed on the display 37, or a captured image in front of the drone captured by the stereo camera 7 of the drone 1 is displayed on the display 37. . On the display 37, a scene captured by the imaging unit 7a on one side of the stereo camera 7 is displayed. Incidentally, when there are signals from both the GPS 43 and the imaging unit 7a, for example, the image from the drone 1 is displayed on one of the left and right halves of the screen of the display 37, and the host vehicle position is displayed on the other side.

ドローン1は、自車両30からの指令により、自車両30の前方上空を飛行する。そして、走行中の自車両30の進路方向前方の情景をドローン1のステレオカメラ7で撮像し続けるため、自車両30の制御部41には、ドローン1の飛行目標位置を設定する機能が設定される。例えばGPS43で検出される自車両30位置を基準に、一定の前方位置、一定の上空高さ位置などが飛行位置として設定される。そして、自車両30の送受信部45から、ドローン1の送受信部21(いずれも通信部)へ飛行目標位置が送信される。   The drone 1 flies over the front of the host vehicle 30 in response to a command from the host vehicle 30. Then, in order to continue to capture the scene ahead of the traveling direction of the own vehicle 30 with the stereo camera 7 of the drone 1, the control unit 41 of the own vehicle 30 is set with a function for setting the flight target position of the drone 1. The For example, on the basis of the position of the host vehicle 30 detected by the GPS 43, a certain forward position, a certain sky height position, etc. are set as the flight position. Then, the flight target position is transmitted from the transmission / reception unit 45 of the host vehicle 30 to the transmission / reception unit 21 (both communication units) of the drone 1.

ドローン1の制御部13には、受信する飛行目標位置にしたがい、ドローン1の飛行を制御する制御プログラムが設定される。これにより、設定される飛行目標位置にしたがいドローン1が、走行する自車両30の進行方向前方の定位置を飛行し続けられる。そして、自車両30の前方画像(ステレオカメラ7の片側で捉えた画像)が、ディスプレイ37を通じて自車両30のドライバー(運転者)に提示され、自車両30の運転支援が行われる。   The control unit 13 of the drone 1 is set with a control program for controlling the flight of the drone 1 according to the flight target position received. As a result, the drone 1 can continue to fly at a fixed position ahead of the traveling direction of the host vehicle 30 according to the set flight target position. Then, a front image of the host vehicle 30 (an image captured on one side of the stereo camera 7) is presented to the driver (driver) of the host vehicle 30 through the display 37, and driving support of the host vehicle 30 is performed.

また運転支援装置には、ドローン1側と自車両30側との協調にて障害物を広域で検出し、ドローン1自体では検出できない障害物までも衝突を回避可能とした手段が講じられている。
例えば本実施形態では、ドローン1は上記したように通常の撮像カメラでなくその代りにステレオカメラ7(本願の飛行体側検出部に相当)を装備し、例えば自車両30のルームミラー30bに、自車両30前方の障害物を検出するステレオカメラ49(本願の車両側検出部に相当)を装備して、ドローン1の前方およびドローン1の死角となる後方を含むドローン1周囲の広域な領域の障害物を検出可能とする。つまり、ドローン1のステレオカメラ7は、所定の距離をあけて左右両側に配置した一対の撮像部7aで、ドローン1の進行方向前方に所在する障害物を捉える。自車両30のステレオカメラ49は、ルームミラー30bを挟んで左右両両側に配置した一対の撮像部49aで、自車両30の進行方向前方に所在する障害物を捉える。むろん、一対の撮像部49aは、自車両30の前方に位置するドローン1も捉える。
Further, the driving support device is provided with means for detecting obstacles in a wide area in cooperation with the drone 1 side and the own vehicle 30 side, and making it possible to avoid collision even for obstacles that cannot be detected by the drone 1 itself. .
For example, in this embodiment, the drone 1 is equipped with a stereo camera 7 (corresponding to the flying object side detection unit of the present application) instead of a normal imaging camera as described above. Equipped with a stereo camera 49 (corresponding to the vehicle-side detection unit of the present application) that detects an obstacle ahead of the vehicle 30, an obstacle in a wide area around the drone 1 including the front of the drone 1 and the rear as the blind spot of the drone 1 The object can be detected. That is, the stereo camera 7 of the drone 1 captures an obstacle located ahead in the traveling direction of the drone 1 with a pair of imaging units 7a arranged on both the left and right sides at a predetermined distance. The stereo camera 49 of the host vehicle 30 captures an obstacle located forward in the traveling direction of the host vehicle 30 with a pair of imaging units 49a disposed on both the left and right sides of the room mirror 30b. Of course, the pair of imaging units 49 a also captures the drone 1 positioned in front of the host vehicle 30.

また制御部13,41には、割出し部51,55が設けられ、ステレオカメラ7,49で捉えた全て障害物の大きさや位置を検出可能としている。すなわち、制御部13に設けた割出し部51は、一対の撮像部7a,7a(ステレオカメラ7)から取得されるドローン1の前方の画像を画像処理、さらには視差処理して、画像情報に含まれる障害物の大きさや、ドローン1の位置を基準とした障害物の3次元位置を割り出す。この検出した障害物の情報は、ドローン1の送受信部21から自車両30の送受信部45へ送信される。   In addition, the control units 13 and 41 are provided with indexing units 51 and 55 so that the size and position of all obstacles captured by the stereo cameras 7 and 49 can be detected. That is, the indexing unit 51 provided in the control unit 13 performs image processing and further parallax processing on the image in front of the drone 1 acquired from the pair of imaging units 7a and 7a (stereo camera 7), and converts the image information into image information. The three-dimensional position of the obstacle is determined based on the size of the included obstacle and the position of the drone 1. Information on the detected obstacle is transmitted from the transmission / reception unit 21 of the drone 1 to the transmission / reception unit 45 of the host vehicle 30.

制御部41に設けた割出し部55は、一対の撮像部49a,49a(ステレオカメラ49)から取得される自車両30の前方の画像を画像処理、さらには視差処理して、画像情報に含まれる障害物の大きさや、自車両30の位置を基準とした障害物の3次元位置を割り出す。むろん、自車両30前方のドローン1の位置も割り出される。
さらに自車両30の制御部41には、ドローン1側で割り出された障害物の大きさや3次元位置と、自車両30側で割り出された障害物の大きさや3次元位置とを照合処理する広域照合部57が設けられる。この広域照合部57での照合により、自車両30を基準として、ドローン1を含むドローン1の周囲の全ての障害物の位置が認識される。さらに広域照合部57は、障害物がドローン1に接近する場合や飛行中のドローン1の進路が変わる場合(自車両30が右左折するときなど)などをドローン1と障害物とが衝突する可能性があると判定する機能や、衝突の可能性があると判定したときに障害物の位置に基づき、衝突の対象となる障害物を重視し、さらにはその他の障害物も考慮して、ドローン1の飛行方向(飛行位置)を障害物と衝突しない方向、つまり衝突を回避する方向(飛行位置)に指示する機能を有している。これにより、ドローン1と障害物とが衝突するおそれが発生する場合、ドローン1には、衝突対象となる障害物から遠ざかりながら、目標の飛行方向(目標の飛行位置)に誘導する飛行指示の信号が与えられる(送信)。つまり、広域照合部57、上記割出し部51,55の組み合わせから、ドローン1を障害物から回避させる障害物回避指示部50を構成している。
The indexing unit 55 provided in the control unit 41 performs image processing and further parallax processing on an image in front of the host vehicle 30 acquired from the pair of imaging units 49a and 49a (stereo camera 49), and includes them in the image information. The three-dimensional position of the obstacle based on the size of the obstacle to be detected and the position of the host vehicle 30 is determined. Of course, the position of the drone 1 in front of the host vehicle 30 is also determined.
Further, the control unit 41 of the host vehicle 30 compares the size and three-dimensional position of the obstacle determined on the drone 1 side with the size and three-dimensional position of the obstacle determined on the host vehicle 30 side. A wide-area matching unit 57 is provided. By the collation in the wide area collation unit 57, the positions of all obstacles around the drone 1 including the drone 1 are recognized with the own vehicle 30 as a reference. Further, the wide-area collation unit 57 can collide with the drone 1 and the obstacle when the obstacle approaches the drone 1 or when the course of the drone 1 in flight changes (such as when the host vehicle 30 turns right or left). A drone that focuses on obstacles subject to collision based on the function of judging whether there is a possibility of collision or the position of an obstacle when it is judged that there is a possibility of collision, and also considers other obstacles. 1 has a function of instructing the direction of flight (flight position) in a direction that does not collide with an obstacle, that is, a direction (flight position) that avoids collision. Accordingly, when there is a possibility that the drone 1 and the obstacle collide, the drone 1 sends a flight instruction signal to the target flight direction (target flight position) while moving away from the obstacle to be collided. Is given (send). That is, the obstacle avoidance instruction unit 50 that avoids the drone 1 from the obstacle is configured by a combination of the wide area collation unit 57 and the indexing units 51 and 55.

つぎに、このように構成された運転支援装置の作用を、図2に示すフローチャート、図3に示す自車両30の走行状態を参照して説明する。
例えば自車両30の走行中、交通状況などを考慮した運転を行うため、運転支援装置の助けを受けるとする。このときドライバーは、自車両30に設けた離着陸操作部(図示しない)を操作する。すると、ヘリポート35上のドローン1は、ホールド(フック機構)が解除され、さらに各モータ5bが駆動される。
Next, the operation of the driving support apparatus configured as described above will be described with reference to the flowchart shown in FIG. 2 and the traveling state of the host vehicle 30 shown in FIG.
For example, it is assumed that the driving support device receives help in order to perform driving in consideration of traffic conditions while the host vehicle 30 is traveling. At this time, the driver operates a take-off and landing operation unit (not shown) provided in the host vehicle 30. Then, the hold (hook mechanism) of the drone 1 on the heliport 35 is released, and each motor 5b is further driven.

これにより、図1および図3に示されるようにドローン1は、自車両30から送信される制御信号によりモータ5bが駆動され、プロペラ5aがもたらす推進力によって、ヘリポート35から離陸し、走行中の自車両30の前方上空の所定位置を飛行する。すると、ドローン1に搭載のステレオカメラ7により撮像された自車両30の前方画像(片側の撮像部7aが捉えた画像)が、ディスプレイ37を通じて自車両30のドライバーに提示され、ドライバーに前方状況に応じた運転を促す。   As a result, as shown in FIGS. 1 and 3, the drone 1 is driven by the control signal transmitted from the host vehicle 30 and is taken off from the heliport 35 by the propulsive force provided by the propeller 5a. Fly over a predetermined position in front of the host vehicle 30. Then, a front image of the host vehicle 30 captured by the stereo camera 7 mounted on the drone 1 (an image captured by the imaging unit 7a on one side) is presented to the driver of the host vehicle 30 through the display 37, and the driver is in a forward situation. Encourage appropriate driving.

こうした運転支援中、ドローン1や自車両30は、ドローン1の周囲における障害物の情報を取得している。
すなわち、ドローン1では、例えばステップS1に示されるようにステレオカメラ7を通じて、ドローン1の周囲の障害物の情報、例えば図3(a),(b)に示されるような例えば道路αの両側に植えられている樹木X1〜X4や、ドローン1前方を飛んでいる小鳥X5といった各種障害物の画像情報を含む画像情報が取得される。
During such driving assistance, the drone 1 and the host vehicle 30 acquire information on obstacles around the drone 1.
That is, in the drone 1, for example, as shown in step S1, through the stereo camera 7, information on obstacles around the drone 1, for example, on both sides of the road α as shown in FIGS. 3A and 3B, for example. Image information including image information of various obstacles such as the planted trees X1 to X4 and the small bird X5 flying in front of the drone 1 is acquired.

この画像情報が、割出し部51で行われる画像処理や視差処理などの処理を受け、画像に含まれる樹木X1〜X4や小鳥X5の大きさが3次元的に割り出される。同じく画像処理や視差処理などにより、ステップS3に示されるように各樹木X1〜X4や小鳥X5の位置も、3次元位置で割り出される。例えば図4に示されるように樹木X1〜X4や小鳥X5の位置は、ドローン1を中心とした三次元座標の左右(x)、前後(y)、高さ(z)で表す座標位置により割り出される。図3(a),(b)中、e1は、ステレオカメラ7の撮像範囲(障害物検出範囲)を示している。   This image information is subjected to processing such as image processing and parallax processing performed by the indexing unit 51, and the sizes of the trees X1 to X4 and the small bird X5 included in the image are determined three-dimensionally. Similarly, as shown in step S3, the positions of the trees X1 to X4 and the small bird X5 are also determined by the three-dimensional position by image processing, parallax processing, and the like. For example, as shown in FIG. 4, the positions of the trees X1 to X4 and the small bird X5 are divided by the coordinate positions represented by the left and right (x), front and rear (y), and height (z) of the three-dimensional coordinates centered on the drone 1. Is issued. In FIGS. 3A and 3B, e1 indicates the imaging range (obstacle detection range) of the stereo camera 7.

自車両30では、例えばステップS7に示されるようにステレオカメラ49を通じて、ドローン1の周囲の情報、例えば図3(a),(b)に示されるようなドローン1の直前方や後方に有る、樹木X3,X4やドローン1の後方右下を飛んでいる小鳥X6といった各種障害物を含む画像情報が取得される。小鳥X6は、飛行中のドローン1からでは、検出することができない位置、すなわちドローン1の死角に位置する。   In the host vehicle 30, for example, as shown in step S <b> 7, the information around the drone 1 is provided through the stereo camera 49, for example, immediately before or behind the drone 1 as shown in FIGS. Image information including various obstacles such as the trees X3 and X4 and the small bird X6 flying in the lower right rear of the drone 1 is acquired. The bird X6 is located at a position that cannot be detected from the drone 1 in flight, that is, at the blind spot of the drone 1.

この画像情報が、割出し部55での画像処理や視差処理などの処理を受け、画像に含まれる樹木X3,X4や小鳥X6の大きさが3次元的に割り出される。同じく画像処理や視差処理などにより、ステップS9に示されるように各樹木X3,X4や小鳥X6や飛行中のドローン1の位置も、3次元位置で割り出される。例えば図4に示されるように樹木X3,X4や小鳥X6やドローン1の位置は、自車両30を中心とした三次元座標の左右(x)、前後(y)、高さ(z)で表す座標位置により割り出される。図3(a),(b)中、e2は、ステレオカメラ49の撮像範囲(障害物検出範囲)を示している。   This image information is subjected to processing such as image processing and parallax processing in the indexing unit 55, and the sizes of the trees X3 and X4 and the small bird X6 included in the image are determined three-dimensionally. Similarly, as shown in step S9, the positions of the trees X3 and X4, the small bird X6, and the drone 1 in flight are also determined by the three-dimensional position by image processing, parallax processing, and the like. For example, as shown in FIG. 4, the positions of the trees X3, X4, the small bird X6, and the drone 1 are represented by the left and right (x), the front and rear (y), and the height (z) of the three-dimensional coordinates around the host vehicle 30. Calculated by coordinate position. In FIGS. 3A and 3B, e2 indicates an imaging range (obstacle detection range) of the stereo camera 49.

続くステップS13にて、ステレオカメラ7(ドローン1)の画像から割り出した障害物(樹木X1〜X4,小鳥X5)の大きさや3次元位置と、ステレオカメラ49(自車両30)の画像から割り出した障害物(樹木X3,X4,小鳥X6)の大きさや3次元位置とが、ドローン1の位置や自車両30の位置に基づき照合される。この照合により、図4に示されるように全て障害物(X1〜X6)の位置が自車両30を中心に明らかとなる(認識)。   In the following step S13, the size and three-dimensional position of the obstacle (trees X1 to X4, small bird X5) determined from the image of the stereo camera 7 (drone 1) and the image of the stereo camera 49 (own vehicle 30) are determined. The size of the obstacle (tree X3, X4, small bird X6) and the three-dimensional position are collated based on the position of the drone 1 and the position of the host vehicle 30. By this collation, as shown in FIG. 4, the positions of all obstacles (X1 to X6) are clarified around the host vehicle 30 (recognition).

このとき、運転支援を受けている自車両30が、図3中の矢印方向aへ右折したとする。すると、ドローン1の飛行位置は、自車両30の進路変更を受けて、右折する自車両30にしたがい変更する。すなわち、ドローン1は、右折した自車両30の前方の所定位置に追い付くよう右後方へ飛行方向(飛行位置)を変える。この進路が変わる場合、ドローン1と障害物とが衝突する可能性がある。   At this time, it is assumed that the host vehicle 30 receiving driving assistance makes a right turn in the arrow direction a in FIG. Then, the flight position of the drone 1 is changed in accordance with the own vehicle 30 that makes a right turn in response to the course change of the own vehicle 30. That is, the drone 1 changes the flight direction (flight position) to the right rear so as to catch up with a predetermined position in front of the host vehicle 30 turned right. When this course changes, the drone 1 and the obstacle may collide.

すなわち、従来のようにドローン1からの画像情報だけで、障害物を検出する場合、ドローン1の周囲の障害物X1〜X5は検出されるものの、ドローン1の障害物検出範囲外、すなわち死角に位置するドローン1後方右下の障害物(小鳥X6)については検出されない。このため、ドローン1の飛行方向が右後方へ変わると、ドローン1が障害物(小鳥X6)と衝突するおそれがある。   That is, when an obstacle is detected only by image information from the drone 1 as in the prior art, obstacles X1 to X5 around the drone 1 are detected, but outside the obstacle detection range of the drone 1, that is, in the blind spot. The obstacle (small bird X6) in the lower right of the drone 1 is not detected. For this reason, if the flight direction of the drone 1 changes to the right rear, the drone 1 may collide with an obstacle (small bird X6).

そこで、本実施形態はドローン1だけでなく自車両30からも障害物を検出している。すなわち、ドローン1のステレオカメラ7および自車両30のステレオカメラ49による検出により、ドローン1の死角を含む、ドローン1周囲の全ての障害物の位置が網羅される。このため、ステップS15のようにドローン1の飛行方向が右後方へ変わり、ドローン1と障害物とが衝突する可能性がある場合、続くステップS17のようにドローン1だけでは不可能であった、ドローン1の障害物に対する回避の指示、例えばドローン1の検出範囲内にある障害物(X1〜X5)やドローン1の検出範囲外にある障害物(小鳥X6)との衝突を回避する、ドローン1の飛行方向(飛行位置)の設定が可能となる。   Therefore, the present embodiment detects an obstacle not only from the drone 1 but also from the host vehicle 30. That is, the positions of all the obstacles around the drone 1 including the blind spot of the drone 1 are covered by the detection by the stereo camera 7 of the drone 1 and the stereo camera 49 of the host vehicle 30. For this reason, when the flight direction of the drone 1 changes to the right rear as in step S15 and there is a possibility that the drone 1 and the obstacle collide, it is impossible with the drone 1 alone as in the subsequent step S17. Drone 1 instruction for avoiding obstacles of drone 1, for example, avoiding collision with obstacles (X1 to X5) within the detection range of drone 1 and obstacles (small bird X6) outside the detection range of drone 1 It is possible to set the flight direction (flight position).

ここでは、例えば図3中の矢印方向bのように障害物(小鳥X6)を挟んでドローン1とは反対方向へ向かう方向、具体的には障害物(小鳥X6)を遠巻きにして右後方へ向かう飛行方向(飛行位置)が設定される。そして、同飛行方向(飛行位置)の制御信号が自車両30から送信され、ステップS19のようにドローン1の飛行を指示する。これにより、たとえドローン1の死角に障害物(小鳥X6)が位置していたとしても、ドローン1は、同障害物(小鳥X6)と衝突することなく、右折した自車両30に追従しながら、同自車両30の前方上空の所定位置へ戻る(復帰)。そして、再び運転支援を続ける。   Here, for example, as shown by the arrow direction b in FIG. 3, the obstacle (small bird X6) is sandwiched in a direction toward the direction opposite to the drone 1, specifically, the obstacle (small bird X6) is wound in the far direction to the right rear. The direction of flight (flight position) is set. And the control signal of the flight direction (flight position) is transmitted from the own vehicle 30, and instruct | indicates the flight of the drone 1 like step S19. Thereby, even if the obstacle (bird X6) is located in the blind spot of the drone 1, the drone 1 follows the own vehicle 30 that has turned right without colliding with the obstacle (bird X6). Return to a predetermined position in front of the host vehicle 30 (return). And continue driving assistance again.

以上のように運転支援装置は、ドローン1から得られる障害物の情報だけでなく、自車両30から得られる障害物の情報を用いて、ドローン1の飛行を、障害物を避ける方向へ指示するので、ドローン1の死角に障害物が位置するなど、たとえ障害物の検出が困難な場合でも、ドローン1を障害物を回避する方向(障害物回避方向)へ飛行させることができる。このため、どのような姿勢でドローン1が飛行することがあっても、ドローン1と障害物との衝突が避けられる。   As described above, the driving support device instructs the flight of the drone 1 in the direction of avoiding the obstacle by using not only the obstacle information obtained from the drone 1 but also the obstacle information obtained from the own vehicle 30. Therefore, even if it is difficult to detect an obstacle such as an obstacle located in the blind spot of the drone 1, the drone 1 can be caused to fly in a direction to avoid the obstacle (obstacle avoiding direction). For this reason, no matter what posture the drone 1 flies, the collision between the drone 1 and the obstacle can be avoided.

したがって、ドローン1と自車両30とによる協調制御により、運転支援中のドローンの障害物に対する衝突回避性能を向上させることができる。
特にドローン1の衝突回避指示は、ドローン1で捉えた障害物の位置や、自車両30で捉えた障害物の位置を照合して、全障害物の位置を認識してから行うので、信頼性は高い。
Therefore, the collision avoidance performance with respect to the obstacle of the drone during driving support can be improved by cooperative control by the drone 1 and the host vehicle 30.
In particular, the collision avoidance instruction for the drone 1 is performed after the positions of the obstacles captured by the drone 1 and the positions of the obstacles captured by the host vehicle 30 are collated to recognize the positions of all obstacles. Is expensive.

図5は、本発明の第2の実施形態を示す。
これは、第1の実施形態のような並列な手法で、ドローン1に衝突を回避する指示をするのではなく、直列的な手法で、ドローン1に衝突を回避する指示をするようにしたものである。図5には、その要部となる制御のフローチャートが示されている。
すなわち、本実施形態は、ドローン1のステレオカメラ7にて、ドローン1前方側の障害物の位置を捉え、自車両30のステレオカメラ49にて、ドローン1後方側のドローン1の死角にある障害物を捉えて、全障害物の監視を行う(ステップS1〜S11)。そして、自車両30の走行方向の変更など、ドローン1が障害物と衝突する可能性がある場合(ステップS21)、まずドローン1に対し、ステレオカメラ49(自車両30)で捉えた画像情報から割り出された障害物の位置情報に基づき、ドローン1の死角(検出範囲外)に位置する障害物との衝突を回避する飛行方向(飛行位置)を指示する。その後、ステレオカメラ7(ドローン1)で捉えた画像情報から割り出された障害物の位置情報に基づき、ドローン1の検出範囲内に位置する障害物との衝突を回避するよう飛行方向(飛行位置)を指示するようにしたものである。
FIG. 5 shows a second embodiment of the present invention.
This is a parallel technique as in the first embodiment, in which the drone 1 is not instructed to avoid the collision, but the serial technique is instructed to avoid the collision. It is. FIG. 5 shows a flowchart of the control that is the main part.
That is, in the present embodiment, the position of the obstacle on the front side of the drone 1 is captured by the stereo camera 7 of the drone 1, and the obstacle at the blind spot of the drone 1 on the rear side of the drone 1 is detected by the stereo camera 49 of the host vehicle 30. An obstacle is caught and all obstacles are monitored (steps S1 to S11). When there is a possibility that the drone 1 collides with an obstacle, such as a change in the traveling direction of the host vehicle 30 (step S21), first, the image information captured by the stereo camera 49 (host vehicle 30) for the drone 1 is used. Based on the determined obstacle position information, a flight direction (flight position) for avoiding a collision with an obstacle located in the blind spot (outside the detection range) of the drone 1 is indicated. Thereafter, based on the position information of the obstacle determined from the image information captured by the stereo camera 7 (drone 1), the flight direction (flight position) is avoided so as to avoid a collision with an obstacle located within the detection range of the drone 1. ).

運転支援中、ドローン1の向きが変わる場合(障害物と衝突の可能性がある場合)、多くは最初にドローン1の後方へ向かうという挙動が生じるので、最初に死角となるステレオカメラ49(自車両30)が捉えた障害物を回避するよう指示した後、ステレオカメラ7(ドローン1)が捉えた障害物を回避するよう指示することにより、ドローン1は効果的に障害物を避けることができる。   During driving assistance, if the direction of the drone 1 changes (when there is a possibility of collision with an obstacle), many of them will behave toward the rear of the drone 1 first. After instructing to avoid the obstacle captured by the vehicle 30), the drone 1 can effectively avoid the obstacle by instructing to avoid the obstacle captured by the stereo camera 7 (drone 1). .

このようにしても第1の実施形態と同様の作用効果を奏する。但し、図5において第1の実施形態と同じ部分には同一符号を付して、その説明を省略した。
なお、上述した実施形態における各構成および組み合わせ等は一例であり、本発明の趣旨から逸脱しない範囲内で、構成の付加、省略、置換、およびその他の変更が可能であることはいうまでもない。また本発明は、上述した実施形態によって限定されることはなく、「特許請求の範囲」によってのみ限定されることはいうまでもない。例えば上述した実施形態では、ステレオカメラを用いて、障害物の位置を検出するようにしたが、これに限らず、例えば超音波を検知媒体に用いたソナーを用いて、障害物の位置を検出するようにしても構わない。
Even if it does in this way, there exists an effect similar to 1st Embodiment. However, in FIG. 5, the same parts as those of the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
In addition, each structure, combination, etc. in embodiment mentioned above are examples, and it cannot be overemphasized that addition, omission, substitution, and other change of a structure are possible within the range which does not deviate from the meaning of the present invention. . Further, the present invention is not limited by the above-described embodiment, and it is needless to say that the present invention is limited only by the “claims”. For example, in the above-described embodiment, the position of an obstacle is detected using a stereo camera. However, the present invention is not limited to this, and the position of an obstacle is detected using, for example, a sonar that uses ultrasonic waves as a detection medium. You may make it.

1 ドローン(無人飛行体)
7 ステレオカメラ(飛行体側検出部)
30 自車両
37 ディスプレイ(提示部)
13,41 制御部
49 ステレオカメラ(車両側検出部)
50 障害物回避指示部
51 割出し部(飛行体側位置検出部)
55 割出し部(車両側位置検出部)
57 広域照合部
1 drone (unmanned aerial vehicle)
7 Stereo camera (aircraft side detector)
30 Vehicle 37 Display (presentation part)
13, 41 Control unit 49 Stereo camera (vehicle side detection unit)
50 Obstacle avoidance instruction unit 51 Index unit (aircraft side position detection unit)
55 Indexing part (vehicle position detection part)
57 Wide-area verification unit

Claims (3)

自車両の進行方向前方の所定位置を飛行可能な、撮像装置が付いた無人飛行体と、
前記撮像装置で撮像した自車両の進行方向前方の画像を前記自車両の乗員に提示する提示部と、
自車両前方の所定位置に前記無人飛行体が飛行され続けるよう前記無人飛行体を制御する制御部とを備えた車両の運転支援装置であって、
前記無人飛行体は、当該無人飛行体の周囲の障害物を検出する飛行体側検出部を有し、
前記自車両は、前記自車両の進行方向前方の障害物を検出する車両側検出部を有し、
前記制御部は、
前記飛行体側検出部により検出される障害物および前記車両側検出部により検出される障害物に基づき、前記障害物を回避する方向へ前記無人飛行体の飛行を指示する障害物回避指示部を有する
ことを特徴とする車両の運転支援装置。
An unmanned air vehicle with an imaging device capable of flying at a predetermined position ahead of the traveling direction of the host vehicle;
A presentation unit that presents an image ahead of the traveling direction of the host vehicle captured by the imaging device to an occupant of the host vehicle;
A vehicle driving support device comprising: a control unit that controls the unmanned air vehicle so that the unmanned air vehicle continues to fly at a predetermined position in front of the host vehicle;
The unmanned air vehicle has an air vehicle side detection unit that detects obstacles around the unmanned air vehicle,
The host vehicle has a vehicle-side detection unit that detects an obstacle ahead of the host vehicle in the traveling direction;
The controller is
Based on the obstacle detected by the vehicle-side detection unit and the obstacle detected by the vehicle-side detection unit, the vehicle has an obstacle avoidance instruction unit that instructs the flight of the unmanned air vehicle in a direction to avoid the obstacle. A vehicle driving support device characterized by the above.
前記障害物回避指示部は、
前記飛行体側検出部により検出された障害物の位置を割り出す飛行体側位置検出部と、
前記車両側検出部により検出された障害物の位置を割り出す車両側位置検出部と、
前記飛行体側位置検出部で割り出された障害物の位置と車両側位置検出部で割り出された障害物の位置とを照合し全障害物の位置を認識する広域照合部とを有し、
照合により認識された全障害物の位置に基づき、前記無人飛行体に前記障害物を回避する飛行方向への飛行を指示するものである
ことを特徴とする請求項1に記載の車両の運転支援装置。
The obstacle avoidance instruction unit
A vehicle-side position detector that determines the position of an obstacle detected by the aircraft-side detector;
A vehicle side position detection unit for determining the position of the obstacle detected by the vehicle side detection unit;
A wide-area collation unit that collates the position of the obstacle determined by the vehicle-side position detection unit and the position of the obstacle calculated by the vehicle-side position detection unit and recognizes the position of all obstacles;
The vehicle driving support according to claim 1, wherein the unmanned air vehicle is instructed to fly in a flight direction avoiding the obstacle based on the positions of all obstacles recognized by the collation. apparatus.
前記障害物回避指示部は、
前記飛行体側検出部により検出された障害物の位置を割り出す飛行体側位置検出部と、
前記車両側検出部により検出された障害物の位置を割り出す車両側位置検出部とを有し、
前記車両側位置検出部により割り出された障害物を回避するよう前記無人飛行体の飛行を指示した後、前記飛行体側位置検出部で割り出された障害物を回避するよう前記無人飛行体の飛行を指示するものである
ことを特徴とする請求項1に記載の車両の運転支援装置。
The obstacle avoidance instruction unit
A vehicle-side position detector that determines the position of an obstacle detected by the aircraft-side detector;
A vehicle-side position detection unit for determining the position of the obstacle detected by the vehicle-side detection unit;
After instructing the flight of the unmanned air vehicle to avoid the obstacle determined by the vehicle-side position detection unit, the unmanned air vehicle is arranged to avoid the obstacle determined by the vehicle-side position detection unit. The vehicle driving support apparatus according to claim 1, wherein the vehicle driving instruction is performed.
JP2015145847A 2015-07-23 2015-07-23 Vehicle driving support device Active JP6631776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015145847A JP6631776B2 (en) 2015-07-23 2015-07-23 Vehicle driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015145847A JP6631776B2 (en) 2015-07-23 2015-07-23 Vehicle driving support device

Publications (2)

Publication Number Publication Date
JP2017027396A true JP2017027396A (en) 2017-02-02
JP6631776B2 JP6631776B2 (en) 2020-01-15

Family

ID=57946580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015145847A Active JP6631776B2 (en) 2015-07-23 2015-07-23 Vehicle driving support device

Country Status (1)

Country Link
JP (1) JP6631776B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133441A (en) * 2018-01-31 2019-08-08 井関農機株式会社 Work vehicle managing system
JP2019175312A (en) * 2018-03-29 2019-10-10 井関農機株式会社 Management system for working vehicle
CN111142552A (en) * 2018-11-06 2020-05-12 宝沃汽车(中国)有限公司 Method and device for controlling unmanned aerial vehicle, storage medium and vehicle
WO2020116492A1 (en) * 2018-12-05 2020-06-11 株式会社ナイルワークス Drone system, drone, movable body, drone system control method, and drone system control program
US11495027B2 (en) * 2020-05-19 2022-11-08 Mazda Motor Corporation Vehicle periphery monitoring system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010140239A1 (en) * 2009-06-04 2010-12-09 トヨタ自動車株式会社 Vehicle surrounding monitor device and method for monitoring surroundings used for vehicle
US9056676B1 (en) * 2014-05-30 2015-06-16 SZ DJI Technology Co., Ltd Systems and methods for UAV docking

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010140239A1 (en) * 2009-06-04 2010-12-09 トヨタ自動車株式会社 Vehicle surrounding monitor device and method for monitoring surroundings used for vehicle
US9056676B1 (en) * 2014-05-30 2015-06-16 SZ DJI Technology Co., Ltd Systems and methods for UAV docking

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019133441A (en) * 2018-01-31 2019-08-08 井関農機株式会社 Work vehicle managing system
JP7003699B2 (en) 2018-01-31 2022-01-21 井関農機株式会社 Field work vehicle management system
JP2019175312A (en) * 2018-03-29 2019-10-10 井関農機株式会社 Management system for working vehicle
JP7003798B2 (en) 2018-03-29 2022-01-21 井関農機株式会社 Field work vehicle management system
CN111142552A (en) * 2018-11-06 2020-05-12 宝沃汽车(中国)有限公司 Method and device for controlling unmanned aerial vehicle, storage medium and vehicle
WO2020116492A1 (en) * 2018-12-05 2020-06-11 株式会社ナイルワークス Drone system, drone, movable body, drone system control method, and drone system control program
JPWO2020116492A1 (en) * 2018-12-05 2021-02-15 株式会社ナイルワークス Drone system, drone, mobile, drone system control method, and drone system control program
US11873100B2 (en) 2018-12-05 2024-01-16 Nileworks Inc. Drone system, drone, movable body, drone system control method, and drone system control program
US11495027B2 (en) * 2020-05-19 2022-11-08 Mazda Motor Corporation Vehicle periphery monitoring system

Also Published As

Publication number Publication date
JP6631776B2 (en) 2020-01-15

Similar Documents

Publication Publication Date Title
US11370540B2 (en) Context-based flight mode selection
US11845546B2 (en) Vehicle vision system using aerial camera
JP6631776B2 (en) Vehicle driving support device
US11846940B2 (en) Methods and apparatus for vehicle control
CN106292684B (en) Vehicle carrying aircraft
JP6583621B2 (en) Vehicle driving support device
US20160129999A1 (en) Drone systems for pre-trip inspection and assisted backing
US11787346B2 (en) Systems and methods for a housing equipment for a security vehicle
CN110087989B (en) Vehicle illumination based on unmanned aerial vehicle
US20190243356A1 (en) Method for controlling flight of an aircraft, device, and aircraft
WO2015142919A1 (en) Airplane collision avoidance
CN110998273A (en) Vehicle inspection system and method
JP2017021755A (en) Vehicular operation support apparatus
JP2017011614A (en) Driving support control device
US20180231975A1 (en) Vehicle entertainment system
JP2017021756A (en) Vehicular operation support apparatus
KR102441077B1 (en) Apparatus for controlling taking off and landing of a dron in a vehicle and method thereof
JP2017199172A (en) Peripheral situation presentation system for vehicle, unmanned flying body, and peripheral situation presentation method for vehicle
JP2017010445A (en) Driving support control device
KR101893815B1 (en) Apparatus for providing around view and Vehicle
US9896032B2 (en) Folding mirror apparatus and method for improving fuel efficiency
CN113978482A (en) Automatic driving vehicle and emergency response method based on unmanned aerial vehicle
KR20210090314A (en) Remote control methods and devices based on the simulator output screen
BE1027996B1 (en) Unmanned aircraft application like rear view camera
JP7532893B2 (en) Vehicle Surroundings Monitoring System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191126

R151 Written notification of patent or utility model registration

Ref document number: 6631776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151