JP2017011614A - Driving support control device - Google Patents

Driving support control device Download PDF

Info

Publication number
JP2017011614A
JP2017011614A JP2015127882A JP2015127882A JP2017011614A JP 2017011614 A JP2017011614 A JP 2017011614A JP 2015127882 A JP2015127882 A JP 2015127882A JP 2015127882 A JP2015127882 A JP 2015127882A JP 2017011614 A JP2017011614 A JP 2017011614A
Authority
JP
Japan
Prior art keywords
vehicle
imaging
flying object
information
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015127882A
Other languages
Japanese (ja)
Inventor
真吾 入方
Shingo Irikata
真吾 入方
宗義 難波
Muneyoshi Nanba
宗義 難波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Motors Corp
Original Assignee
Mitsubishi Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Motors Corp filed Critical Mitsubishi Motors Corp
Priority to JP2015127882A priority Critical patent/JP2017011614A/en
Publication of JP2017011614A publication Critical patent/JP2017011614A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To change an imaging mode by an imaging device of a flying body in accordance with the travel environment condition of a vehicle.SOLUTION: A driving support control device 1 includes: an imaging device 47 mounted on an unmanned flying body 3 capable of flying away from a vehicle 2 for imaging an image of the periphery of the vehicle; a presentation part 59 for presenting information (G) corresponding to the image photographed by the imaging device to a crew member of the vehicle; a vehicle position information acquisition part 51 for acquiring vehicle position information (P2) of the vehicle; a peripheral environment information acquisition part 80 for acquiring peripheral environment information (A) of a road on which the vehicle travels; a travel environment condition estimation part 81 for estimating a travel environment condition (B) under which the vehicle travels from the vehicle position information (P2) acquired by the vehicle position information acquisition part and the peripheral environment information (A) acquired by the peripheral environment information acquisition part; and a control part 4 for controlling the imaging state of the imaging device or the flying state of the flying body such that imaging by the imaging device is executable in the imaging mode corresponding to the travel environment condition (B) estimated by the travel environment condition estimation part 81.SELECTED DRAWING: Figure 9

Description

本発明は、無人の飛行体を用いた運転支援制御装置に関する。   The present invention relates to a driving support control device using an unmanned air vehicle.

ビデオカメラなどの撮像装置が搭載された無人の飛行体を車両から離間して飛行させ、飛行体の撮像装置が撮像した画像を車両に送信して乗員に提示する運転支援装置が知られている(特許文献1)。   2. Description of the Related Art A driving support device is known in which an unmanned flying object equipped with an imaging device such as a video camera is made to fly away from a vehicle and an image captured by the imaging device of the flying object is transmitted to the vehicle and presented to the occupant. (Patent Document 1).

特開2010−250478号公報JP 2010-250478 A

特許文献1に記載の運転支援装置では、車両の走行環境条件に応じて飛行体の撮像装置による撮像モードを変更することについては、何ら考慮されていない。
本発明は、車両の走行環境条件に応じて飛行体の撮像装置による撮像モードを変更することを、その目的とする。
In the driving support device described in Patent Document 1, no consideration is given to changing the imaging mode by the imaging device of the flying object according to the traveling environment condition of the vehicle.
An object of the present invention is to change an imaging mode by an imaging device for a flying object according to a traveling environment condition of a vehicle.

上記目的を達成するため、本発明に係る運転支援制御装置は、車両と離間して飛行可能な無人の飛行体に搭載されていて、車両の周囲の画像を撮像する撮像装置と、撮像装置が撮像した画像に応じた情報を車両の乗員に提示する提示部と、車両の車両位置情報を取得する車両位置情報取得部と、車両が走行する周辺環境情報を取得する周辺環境情報取得部と、車両位置情報取得部で取得した車両位置情報と周辺環境情報取得部で取得した周辺環境情報とから車両が走行する走行環境条件を推定する走行環境条件推定部と、走行環境条件推定部で推定された走行環境条件に応じた撮像モードで撮像装置による撮像が可能となるように、撮像装置の撮像状態又は飛行体の飛行状態を制御する制御部を有することを特徴としている。   In order to achieve the above object, a driving support control device according to the present invention is mounted on an unmanned flying object that can fly away from a vehicle, and an imaging device that captures an image around the vehicle, A presentation unit that presents information corresponding to the captured image to a vehicle occupant, a vehicle position information acquisition unit that acquires vehicle position information of the vehicle, a peripheral environment information acquisition unit that acquires peripheral environment information in which the vehicle travels, Estimated by the driving environment condition estimation unit and the driving environment condition estimation unit for estimating the driving environment condition for the vehicle to travel from the vehicle position information acquired by the vehicle position information acquisition unit and the surrounding environment information acquired by the surrounding environment information acquisition unit. It has a control part which controls the imaging state of an imaging device or the flight state of a flying body so that imaging with an imaging device is attained in the imaging mode according to the running environment conditions which were different.

本発明によれば、車両位置情報取得部で取得した車両位置情報と周辺環境情報取得部で取得した周辺環境情報とから車両が走行する走行環境条件を走行環境条件推定部で推定し、推定された走行環境条件に応じた撮像モードで撮像装置による撮像が可能となるように、撮像装置の撮像状態又は飛行体の飛行状態を制御部で制御するので、車両の走行環境条件に応じて飛行体の撮像装置による撮像モードを変更することができる。   According to the present invention, the traveling environment condition estimating unit estimates the traveling environment condition in which the vehicle travels from the vehicle position information acquired by the vehicle position information acquiring unit and the surrounding environment information acquired by the surrounding environment information acquiring unit. Since the control unit controls the imaging state of the imaging device or the flight state of the flying body so that the imaging device can capture images in the imaging mode according to the traveling environment condition, the flying body according to the traveling environment condition of the vehicle The imaging mode by the imaging apparatus can be changed.

本発明に係る運転支援制御装置の概略構成と、飛行体と車両との位置関係を示す図であり、(a)は側面視図、(b)は平面視図。It is a figure which shows schematic structure of the driving assistance control apparatus which concerns on this invention, and the positional relationship of a flying body and a vehicle, (a) is a side view, (b) is a top view. 運転支援制御装置を構成する飛行体側の構成を示す概略図。Schematic which shows the structure by the side of the aircraft which comprises a driving assistance control apparatus. 飛行体に搭載されている飛行体側制御部と飛行現在情報取得部の構成を示すブロック図。The block diagram which shows the structure of the flight body side control part and flight current information acquisition part which are mounted in the flight body. 運転支援制御装置を構成する車両側の構成を示す概略図。Schematic which shows the structure by the side of the vehicle which comprises a driving assistance control apparatus. 車両に搭載されている車両側制御部と走行現在情報取得部の構成を示すブロック図。The block diagram which shows the structure of the vehicle side control part and driving | running | working current information acquisition part which are mounted in the vehicle. 車両の走行環境条件の一例を示す図。The figure which shows an example of the driving environment conditions of a vehicle. 車両の走行環境条件の別な例を示す図。The figure which shows another example of the driving | running | working environmental condition of a vehicle. 車両の走行環境条件の別な例を示す図。The figure which shows another example of the driving | running | working environmental condition of a vehicle. 本発明に係る運転支援制御装置による撮像装置の撮像モード切替え制御の主要部の構成を示すブロック図。The block diagram which shows the structure of the principal part of the imaging mode switching control of the imaging device by the driving assistance control apparatus which concerns on this invention. (a)は、撮像モードと撮像形態の関係のデータテーブルの内容を示す図、(b)は、走行環境条件と撮像モードの関係のデータテーブルの内容を示す図。(A) is a figure which shows the content of the data table of the relationship between imaging mode and an imaging form, (b) is a figure which shows the content of the data table of the relationship between driving environment conditions and imaging mode. 飛行体の撮像装置による撮像モードの切替え処理のフローチャート。The flowchart of the switching process of the imaging mode by the imaging device of a flying body. 飛行体の飛行形態の変形例を示す図。The figure which shows the modification of the flight form of a flying body.

以下、本発明の実施形態について図面を用いて説明する。実施形態において、同一部材や同一機能を有する部材には、同一の符号を付し、重複説明は適宜省略する。なお、図面を見やすさを考慮して、構成要件を部分的に省略して記載することもある。
本発明に係る運転支援制御装置は、車両の周辺環境情報に応じて飛行体の撮像装置による撮像モードが切り替わるように、車両位置情報取得部で取得した位置情報と周辺環境情報取得部で取得した周辺環境情報とから車両が走行する走行環境条件を走行環境条件推定部で推定し、推定された走行環境条件に応じた撮像モードで撮像装置による撮像が可能となるように、撮像装置の撮像状態又は飛行体の飛行状態を制御部で制御するものである。
(概略)
本実施形態に係る運転支援制御装置1は、図1(a)、図1(b)に示すように、車両(以下「自車両」と記す)2と離間して飛行可能な飛行体3が撮像した画像の情報を、自車両2を運転する運転者に文字や画像として提示することで、運転者の状況判断をサポートして運転支援するものである。
自車両2は、道路5の走行レーン6を走行するものである。道路5には、自動車専用道や一般道が含まれる。飛行体3は、自車両2と離間して飛行することで自車両2の周囲の状況を車両上方から空撮し、空撮した画像情報(G)を自車両2に送信する機能を備えている。自車両2は、飛行体3から送信された画像情報(G)を運転者に提示する機能と、飛行体3の飛行状態を制御する制御指示を行う機能を備えている。符号7は道路5の中央線を示し、符号8は反対車線の走行レーンを示す。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the embodiment, the same member or a member having the same function is denoted by the same reference numeral, and redundant description is appropriately omitted. In view of ease of viewing the drawing, the structural requirements may be partially omitted.
The driving support control device according to the present invention is acquired by the position information acquired by the vehicle position information acquisition unit and the surrounding environment information acquisition unit so that the imaging mode by the imaging device of the flying object is switched according to the surrounding environment information of the vehicle. The imaging condition of the imaging device is estimated so that the driving environment condition estimation unit estimates a driving environment condition in which the vehicle travels based on the surrounding environment information, and imaging by the imaging device is possible in an imaging mode according to the estimated driving environment condition. Alternatively, the flight state of the flying object is controlled by the control unit.
(Outline)
As shown in FIGS. 1 (a) and 1 (b), the driving support control apparatus 1 according to the present embodiment includes a flying body 3 that can fly away from a vehicle (hereinafter referred to as "own vehicle") 2. The information of the captured image is presented to the driver who drives the host vehicle 2 as characters and images, thereby supporting the driver's situation determination and driving assistance.
The host vehicle 2 travels on a travel lane 6 of the road 5. The road 5 includes an automobile exclusive road and a general road. The flying body 3 has a function of flying away from the host vehicle 2 to take an aerial view of the situation around the host vehicle 2 from above the vehicle, and transmitting aerial image information (G) to the host vehicle 2. Yes. The host vehicle 2 has a function of presenting image information (G) transmitted from the flying object 3 to the driver and a function of giving a control instruction for controlling the flight state of the flying object 3. Reference numeral 7 indicates a center line of the road 5, and reference numeral 8 indicates a traveling lane in the opposite lane.

実施形態においては、飛行体3は、運転支援をする際には、基本的に自車両2よりも前方の走行レーン6の上空を飛行するものとする。本実施形態では、自車両2が走行している走行環境条件に応じて飛行体3の飛行位置も変更するようにしている。
走行レーン6には、外灯、案内表示板、信号機、各種計測器を支持する支柱、歩道橋、鉄道などの高架橋などが適宜設置されている。これら設置物の最大高さは、それぞれ法規、規格で定められているので、予めこれら設置物の最大高さを取得しておく。そして飛行体3の飛行高度は、これら設置物の最大高さよりも低い高度、あるいは高い高度を原則飛行するものとする。また、道路5がトンネル内を通過する場合もある。この場合でもトンネルの最大坑内高さを事前に取得しておき、飛行体3の飛行高度が最大坑内高さよりも低い高度で飛行するものとする。つまり、飛行体3は、設置物やトンネル等と接触しない飛行高度で飛行するものとする。
運転支援制御装置1は、飛行体3に搭載された機体側制御部40と、自車両2に搭載された車両側制御部50を有している。機体側制御部40と車両側制御部50は、制御部4を構成していて、これらが互いに通信して各種情報を送受信することで、運転支援と飛行体3の飛行状態を制御する。
In the embodiment, the vehicle 3 basically flies over the traveling lane 6 ahead of the host vehicle 2 when driving assistance is performed. In the present embodiment, the flight position of the flying object 3 is also changed according to the traveling environment condition in which the host vehicle 2 is traveling.
In the traveling lane 6, an outside light, a guidance display board, a traffic light, a column supporting various measuring instruments, a pedestrian bridge, and a viaduct such as a railway are appropriately installed. Since the maximum heights of these installations are determined by laws and standards, respectively, the maximum heights of these installations are acquired in advance. The flying height of the flying object 3 is assumed to fly in principle at an altitude lower than or higher than the maximum height of these installations. Moreover, the road 5 may pass through the tunnel. Even in this case, the maximum mine height of the tunnel is acquired in advance, and the flying height of the flying object 3 is assumed to fly at an altitude lower than the maximum mine height. That is, it is assumed that the flying object 3 flies at a flying altitude that does not come into contact with an installation object, a tunnel, or the like.
The driving support control device 1 includes a vehicle body side control unit 40 mounted on the flying body 3 and a vehicle side control unit 50 mounted on the host vehicle 2. The airframe-side control unit 40 and the vehicle-side control unit 50 constitute the control unit 4, which communicates with each other to transmit and receive various information, thereby controlling driving support and the flight state of the aircraft 3.

(飛行体の構成)
図2に示すように、飛行体3は、遠隔操作による飛行指示や自律制御によって自律飛行可能な無人の飛行体である。飛行体3は、いわゆるMAV(Micro Air Vehicle)と呼ばれる小型で無人の飛行機である。飛行体3は、自車両2に搭載されていて、自車両2に設けられた離着陸部20(図1参照)から離陸するとともに、離着陸部20へ着陸する。飛行体3は、自車両2を運転する運転者への運転支援がなされる場合には、自車両2から離陸して飛行し、その他の場合には自車両2に格納されている。
飛行体3としては、例えばティルトローター型の構造を有する機体や、クアッドローター型の構造を有する機体が挙げられる。飛行体3は、ティルトローター型の構造を有する機体である場合、離着陸時および一定高度で停止するホバリング時には回転翼を上方に向けることで揚力を得て、巡航飛行時には回転翼を横向きに傾けることで推進力を得る。飛行体3は、クアッドローター型の構造を有する機体である場合、複数の回転翼の各々の傾斜角を個別に制御したり、複数の回転翼の各々の出力を個別に制御したりすることによって、揚力および推進力を得る。クアッドローター型の構造を有する機体が挙げられる。
(Structure of the flying object)
As shown in FIG. 2, the flying object 3 is an unmanned flying object capable of autonomous flight by a flight instruction or autonomous control by remote control. The flying body 3 is a small and unmanned airplane called a so-called MAV (Micro Air Vehicle). The flying body 3 is mounted on the host vehicle 2, takes off from the takeoff / landing unit 20 (see FIG. 1) provided on the host vehicle 2, and landing on the takeoff / landing unit 20. The flying object 3 takes off from the own vehicle 2 to fly when driving assistance to the driver who drives the own vehicle 2 is performed, and is stored in the own vehicle 2 in other cases.
As the flying object 3, for example, an airframe having a tilt rotor type structure or an airframe having a quad rotor type structure can be cited. When the airframe 3 has a tilt rotor type structure, when taking off and landing, and when hovering to stop at a constant altitude, the rotor 3 obtains lift by directing the rotor upward, and during cruise flight, the rotor is tilted sideways. Get the driving force. In the case where the flying body 3 has a quad-rotor type structure, by controlling the inclination angle of each of the plurality of rotor blades or by individually controlling the output of each of the plurality of rotor blades. , Gain lift and propulsion. An airframe having a quad-rotor type structure is exemplified.

このような飛行体3は、電動駆動源となる駆動モータ30と、駆動モータ30によって回転駆動される回転翼31と、駆動モータ30へ電力を供給する電源となるバッテリー32を有している。無論電動のものではなく、エンジンによって回転翼31を回転させて飛行する飛行体であってもよい。この場合、制御部4によって制御される対象は、回転翼31を回転駆動するエンジンとなる。
本実施形態において、飛行体3は、電動のクアッドローター型の機体であり、複数の回転翼31と、各回転翼31を個別に回転駆動する複数の駆動モータ30を有するものとする。そして、各駆動モータ30をそれぞれ制御して各回転翼31の回転数を調整することで、前後方向への飛行(前進と後進)、左右方向への飛行(左右旋回)、飛行速度(対気速度)、飛行高度、ホバリングなどの飛行状態が制御可能とされている。バッテリー32は、充電可能なものである。バッテリー32は1つあるいは複数個を搭載しても良い。バッテリー32を複数個搭載する場合、電力容量が多くなるので、飛行距離や飛行時間を延長することができるので好ましい。
Such an aircraft 3 includes a drive motor 30 that is an electric drive source, a rotary blade 31 that is rotationally driven by the drive motor 30, and a battery 32 that is a power source that supplies power to the drive motor 30. Of course, it is not an electric thing, and the flying body which rotates the rotary wing 31 by an engine and flies may be sufficient. In this case, the target controlled by the control unit 4 is an engine that rotationally drives the rotary blade 31.
In the present embodiment, the flying body 3 is an electric quad-rotor type airframe, and includes a plurality of rotor blades 31 and a plurality of drive motors 30 that individually rotate and drive the rotor blades 31. Then, by controlling each drive motor 30 and adjusting the rotation speed of each rotor blade 31, flight in the front-rear direction (forward and reverse), flight in the left-right direction (left-right turn), flight speed (air-to-air) Speed), flight altitude, hovering and other flight conditions can be controlled. The battery 32 can be charged. One or a plurality of batteries 32 may be mounted. When a plurality of batteries 32 are mounted, the power capacity is increased, which is preferable because the flight distance and the flight time can be extended.

飛行体3は、駆動モータ30、回転翼31、バッテリー32、機体側制御部40、GPS受信機41、磁気方位計42、角速度計43、高度計45、機体カメラ47及び無線送受信機49を有している。
図3に示すように、機体側制御部40は、中央演算部としてのCPU(Central Processing Unit)、記憶部としてのROM(Read Only Memory)とRAM(Random Access Memory)および入出力インターフェイスなどを備えて構成されたコンピュータである。機体側制御部40には、GPS受信機41、磁気方位計42、角速度計43、高度計45、飛行速度計46、機体カメラ47及び無線送受信機49が信号線を介して接続されている。
The flying object 3 has a drive motor 30, a rotating wing 31, a battery 32, a fuselage-side control unit 40, a GPS receiver 41, a magnetic azimuth meter 42, an angular velocity meter 43, an altimeter 45, a fuselage camera 47, and a wireless transceiver 49. ing.
As shown in FIG. 3, the aircraft-side control unit 40 includes a CPU (Central Processing Unit) as a central processing unit, a ROM (Read Only Memory) and a RAM (Random Access Memory) as input / output interfaces, and the like. Computer configured. A GPS receiver 41, a magnetic azimuth meter 42, an angular velocity meter 43, an altimeter 45, a flight speed meter 46, an aircraft camera 47, and a wireless transceiver 49 are connected to the aircraft controller 40 via signal lines.

GPS受信機41は飛行体位置情報取得部であり、飛行体3の地上座標上の絶対位置を、GPS衛星から経度および緯度により取得する。GPS受信機41は、取得した飛行体3の絶対位置を示す情報である飛行位置情報(P1)を機体側制御部40に送信する。この飛行位置情報(P1)は、飛行現在情報の1つである。
磁気方位計42は、飛行体3の絶対方位角を取得するものである。磁気方位計42は、取得した飛行体3の絶対方位角を示す情報である飛行方向情報として機体側制御部40に送信する。この飛行方向情報は、飛行現在情報の1つである。
角速度計43は、3軸のジャイロスコープであって、飛行体3のロール角、ピッチ角及びヨー角の方向における角速度を計測して取得するものである。角速度計43は、取得した飛行体3の角速度を示す情報である機体姿勢情報を機体側制御部40に送信する。この機体姿勢情報は飛行現在情報の1つである。飛行体3は、角速度計43から出力される機体姿勢情報に基づいて、機体側制御部40よって自らの姿勢を自動制御可能とされている。
高度計45は、たとえば気圧高度計であって、飛行体3の地表面からの高度を計測して取得するものである。高度計45は、取得した飛行体3の高度を示す情報である機体高度情報を機体側制御部40に送信する。この機体高度情報は、飛行現在情報の1つである。高度計45は、気圧を計測して高度に換算することから、飛行体3が飛行する上空の気圧を計測して取得し、取得した気圧を示す情報である気圧情報を機体側制御部40に送信することもできる。
飛行速度計46は、飛行体3の飛行速度(対地速度)を計測して取得するものである。高度計45は、取得した飛行体3の飛行速度を示す情報である機体速度情報を機体側制御部40に送信する。この機体速度情報は、飛行現在情報の1つである。飛行速度計46としては、対地速度を計測して取得するものを用いることができる。
これらGPS受信機41、磁気方位計42、角速度計43、高度計45及び飛行速度計46は、飛行体3の飛行現在情報を取得する飛行現在情報取得部を構成している。
The GPS receiver 41 is a flying object position information acquisition unit, and acquires the absolute position of the flying object 3 on the ground coordinates from the GPS satellite by longitude and latitude. The GPS receiver 41 transmits flight position information (P1), which is information indicating the acquired absolute position of the flying object 3, to the aircraft control unit 40. This flight position information (P1) is one piece of current flight information.
The magnetic azimuth meter 42 acquires the absolute azimuth angle of the flying object 3. The magnetic azimuth meter 42 transmits to the airframe-side control unit 40 as flight direction information that is information indicating the acquired absolute azimuth angle of the aircraft 3. This flight direction information is one of the current flight information.
The angular velocity meter 43 is a three-axis gyroscope, and measures and acquires the angular velocity of the flying object 3 in the roll angle, pitch angle, and yaw angle directions. The angular velocity meter 43 transmits aircraft posture information, which is information indicating the acquired angular velocity of the flying vehicle 3, to the aircraft-side control unit 40. This aircraft attitude information is one of the current flight information. The flying body 3 can be automatically controlled by the airframe side control unit 40 based on the airframe attitude information output from the angular velocity meter 43.
The altimeter 45 is a barometric altimeter, for example, which measures and acquires the altitude from the ground surface of the flying object 3. The altimeter 45 transmits the aircraft altitude information, which is information indicating the acquired altitude of the flying vehicle 3, to the aircraft-side control unit 40. This aircraft altitude information is one of the current flight information. Since the altimeter 45 measures the atmospheric pressure and converts it into an altitude, it measures and acquires the atmospheric pressure over which the flying vehicle 3 flies, and transmits the atmospheric pressure information, which is information indicating the acquired atmospheric pressure, to the aircraft-side control unit 40. You can also
The flight speed meter 46 measures and acquires the flight speed (ground speed) of the flying object 3. The altimeter 45 transmits aircraft speed information, which is information indicating the obtained flight speed of the aircraft 3, to the aircraft-side control unit 40. This aircraft speed information is one of the current flight information. As the flight speed meter 46, one that measures and acquires the ground speed can be used.
The GPS receiver 41, the magnetic azimuth meter 42, the angular velocity meter 43, the altimeter 45, and the flight speed meter 46 constitute a current flight information acquisition unit that acquires current flight information of the flying object 3.

機体カメラ47は、飛行体3に搭載された状況取得部と一例としての撮像装置であって、飛行体3から画像を撮像して取得するものである。機体カメラ47は、動画と静止画を撮像することができるものである。つまり、飛行体3は、空撮可能とされている。機体カメラ47は、取得した飛行体3からの画像を示す画像情報Gを機体側制御部40に送信する。機体カメラ47としては、動画と静止画の双方を撮像できるタイプのものを用いているが、動作又は静止画の何れか一方だけを撮像できるタイプのものであっても良い。機体カメラ47は、図2に示すように、オートフォーカース機能を備えているとともに、レンズを有する筐体部47aが飛行体3の下方(地上)に向かうように飛行体3に搭載されている。機体カメラ47は、筐体部47aが360°旋回可能なものである。機体カメラ47は、車両側制御部50から送られる撮像指示に含まれている撮像開始信号によって、動画撮像や静止画撮像を開始する。機体カメラ47は、車両側制御部50から送られる撮像指示に含まれている撮像停止信号によって、動画撮像や静止画撮像を停止する。車両側制御部50から送られる撮像指示に含まれている撮像モードに応じて筐体部47aの方向を変更して撮像方向を自由に変えることができるとともに、筐体部47aの焦点距離を調整して広角撮像や望遠撮像が可能に構成されている。
無線送受信機49は、飛行体3に搭載されていて、飛行体3と自車両2との間において信号や情報の送受信を行う通信装置である。無線送受信機49は、機体側制御部40から送信された飛行現在情報と画像情報(G)とを自車両2に送信するとともに、自車両2側から送信される飛行指示と撮像モード等の撮像指示の情報を受信して、機体側制御部40に入力する。
The airframe camera 47 is a situation acquisition unit mounted on the flying body 3 and an imaging device as an example, and captures and acquires an image from the flying body 3. The body camera 47 can capture moving images and still images. That is, the flying object 3 can be aerial photographed. The body camera 47 transmits image information G indicating the acquired image from the flying body 3 to the body side control unit 40. The body camera 47 is of a type that can capture both moving images and still images, but may be of a type that can capture only one of the motion and still images. As shown in FIG. 2, the airframe camera 47 has an autofocus function, and is mounted on the flying body 3 so that a casing portion 47 a having a lens faces downward (on the ground) of the flying body 3. . The body camera 47 is one in which the casing 47a can turn 360 °. The body camera 47 starts moving image capturing or still image capturing in response to an imaging start signal included in the imaging instruction sent from the vehicle-side control unit 50. The airframe camera 47 stops moving image capturing and still image capturing in response to an imaging stop signal included in the imaging instruction sent from the vehicle-side control unit 50. The direction of the casing 47a can be changed according to the imaging mode included in the imaging instruction sent from the vehicle-side controller 50, and the imaging direction can be changed freely, and the focal length of the casing 47a is adjusted. Thus, wide-angle imaging and telephoto imaging are possible.
The wireless transceiver 49 is a communication device that is mounted on the flying body 3 and transmits and receives signals and information between the flying body 3 and the host vehicle 2. The wireless transceiver 49 transmits the current flight information and the image information (G) transmitted from the airframe-side control unit 40 to the host vehicle 2, and the flight instruction and the imaging mode and the like transmitted from the host vehicle 2 side. The instruction information is received and input to the airframe side control unit 40.

飛行体3は、距離計を備えていてもよい。距離計は、飛行体3の周囲に存在する障害物を検知し、検知された障害物までの距離を測定して取得するものである。距離計は、飛行体3が飛行中の際の、飛行体3の周囲に存在する障害物を検知し、検知された障害物までの距離を測定して取得するもので、取得した障害物までの距離を示す情報である障害物距離情報を機体側制御部40に送信する。このような距離計を備えていると、飛行体3の飛行の妨げになる設置物の高度情報やトンネルの最大坑内高さを事前に取得しなくても、障害物距離情報に基づいて、障害物との距離がゼロになる前に飛行体3の飛行状態(例えば飛行方向や飛行高度)を制御することで、飛行体3と障害物との接触を回避することができるので好ましい。距離計としては、例えばレーザーやミリ波レーダーなどを照射して、その反射光や反射波から距離を測定する周知の構成を用いることができる。   The flying body 3 may include a distance meter. The distance meter detects an obstacle existing around the flying object 3 and measures and acquires a distance to the detected obstacle. The rangefinder detects obstacles around the flying object 3 when the flying object 3 is in flight, and measures and acquires the distance to the detected obstacle. Obstacle distance information, which is information indicating the distance, is transmitted to the airframe side control unit 40. With such a distance meter, it is possible to obtain obstacles based on the obstacle distance information without having to obtain altitude information about the installation that hinders the flight of the vehicle 3 and the maximum tunnel height of the tunnel in advance. It is preferable to control the flight state (for example, flight direction and flight altitude) of the flying object 3 before the distance to the object becomes zero, so that contact between the flying object 3 and the obstacle can be avoided. As the distance meter, for example, a known configuration in which a laser, a millimeter wave radar, or the like is irradiated and the distance is measured from the reflected light or the reflected wave can be used.

機体側制御部40は、車両側制御部50から送信される飛行指示や撮像指示の情報を、無線送受信機49を介して受信する。機体側制御部40は、受信した飛行指示を示す情報に基づいて、飛行体3が自車両2の進行方向に自車両2から離間して飛行体3が飛行するように飛行状態を制御する。
機体側制御部40は、自車両2の進行方向に自車両2から離間して飛行体3が飛行するように、各駆動モータ30によって回転駆動される回転翼31の回転数を個別に制御する。
機体側制御部40は、車両側制御部50から送信される撮像指示に基づいて、機体カメラ47による撮像モードを切り替えるように機体カメラ47の撮像状態を制御する。機体カメラ47の撮像モードとは、機体カメラ47による撮像方向や望遠撮像、広角撮像等の、機体カメラ47の撮像形態を決めるためのモードである。撮像モードと機体カメラ47の撮像形態とは互いに関連付けて機体側制御部40のROMに、データテーブルとして予め記憶設定されていて、撮像指示に基づいて機体側制御部40によって読み出される。
このデータテーブルは、機体側制御部40のROMではなく、車両側制御部50のROMに記憶しても良い。この場合、撮像指示の1つとして機体カメラ47の撮像形態を飛行体3に送信するようにすればよい。
撮像モードは予め設定するものに限定されるものではなく、任意に設定するようにしても良い。この場合、例えば、メモリーカードのような携帯式の記憶媒体に、任意に撮像モードと撮像形態を関連付けたデータテーブルを記憶し、機体側制御部40あるいは車両側制御部50にカード読み出し装置を設ける。そして、当該カード読み出し装置でデータテーブルの内容を読み出すようにしてもよい。
機体側制御部40は、車両側制御部50から送信される撮像指示に基づいて、機体カメラ47の撮像を停止するように制御する。機体側制御部40は、撮像制御部としても機能する。機体側制御部40は、機体カメラ47から送信される画像情報(G)を、無線送受信機49を介して自車両2の車両側制御部50に送信する。この画像情報(G)は、自車両2の周辺環境情報(A)の1つでもある。
The airframe side control unit 40 receives the flight instruction and imaging instruction information transmitted from the vehicle side control unit 50 via the wireless transceiver 49. The airframe-side control unit 40 controls the flight state based on the received information indicating the flight instruction so that the flying object 3 moves away from the own vehicle 2 in the traveling direction of the own vehicle 2.
The airframe-side control unit 40 individually controls the rotational speeds of the rotor blades 31 that are rotationally driven by the drive motors 30 so that the flying object 3 flies away from the own vehicle 2 in the traveling direction of the own vehicle 2. .
The airframe side control unit 40 controls the imaging state of the airframe camera 47 so as to switch the imaging mode by the airframe camera 47 based on the imaging instruction transmitted from the vehicle side control unit 50. The imaging mode of the airframe camera 47 is a mode for determining the imaging mode of the airframe camera 47, such as the imaging direction by the airframe camera 47, the telephoto imaging, and the wide-angle imaging. The imaging mode and the imaging form of the aircraft camera 47 are associated with each other and stored in advance as a data table in the ROM of the aircraft controller 40, and are read by the aircraft controller 40 based on the imaging instruction.
This data table may be stored in the ROM of the vehicle-side control unit 50 instead of the ROM of the body-side control unit 40. In this case, the imaging form of the airframe camera 47 may be transmitted to the flying object 3 as one imaging instruction.
The imaging mode is not limited to the preset mode, and may be set arbitrarily. In this case, for example, a data table in which an imaging mode and an imaging mode are arbitrarily associated is stored in a portable storage medium such as a memory card, and a card reading device is provided in the body-side control unit 40 or the vehicle-side control unit 50. . Then, the contents of the data table may be read by the card reading device.
The airframe side control unit 40 controls to stop the imaging of the airframe camera 47 based on the imaging instruction transmitted from the vehicle side control unit 50. The airframe side control unit 40 also functions as an imaging control unit. The body side control unit 40 transmits the image information (G) transmitted from the body camera 47 to the vehicle side control unit 50 of the host vehicle 2 via the wireless transceiver 49. This image information (G) is also one of the surrounding environment information (A) of the host vehicle 2.

(自車両の構成)
自車両2は、図4、図5に示すように、車両側制御部50、GPS受信機51、ハンドル角情報取得部52、角速度計53、加速度計54、ブレーキ情報取得部55、車速計56、アクセル開度情報取得部57、周辺環境取情報得部58、表示装置59及び無線送受信機60を有している。
車両側制御部50は、CPU、ROM、RAMおよび入出力インターフェイスなどを備えて構成されるコンピュータである。車両側制御部50には、GPS受信機51、ハンドル角情報取得部52、角速度計53、加速度計54、ブレーキ情報取得部55、車速計56、アクセル開度情報取得部57、周辺環境情報取得部58、表示装置59、無線送受信機60が信号線を介して接続されている。
(Configuration of own vehicle)
As shown in FIGS. 4 and 5, the host vehicle 2 includes a vehicle-side control unit 50, a GPS receiver 51, a handle angle information acquisition unit 52, an angular velocity meter 53, an accelerometer 54, a brake information acquisition unit 55, and a vehicle speed meter 56. , An accelerator opening information acquisition unit 57, a surrounding environment information acquisition unit 58, a display device 59, and a wireless transceiver 60.
The vehicle-side control unit 50 is a computer that includes a CPU, a ROM, a RAM, an input / output interface, and the like. The vehicle-side controller 50 includes a GPS receiver 51, a steering wheel angle information acquisition unit 52, an angular velocity meter 53, an accelerometer 54, a brake information acquisition unit 55, a vehicle speed meter 56, an accelerator opening information acquisition unit 57, and ambient environment information acquisition. The unit 58, the display device 59, and the wireless transceiver 60 are connected via a signal line.

GPS受信機51は、車両位置情報取得部であり、自車両2の地上座標上の絶対位置を、GPS衛星から緯度および経度により取得するとともに、自車両2の高度も取得する。GPS受信機51は、取得した自車両2の絶対位置を示す情報である車両位置情報(P2)と高度情報とを車両側制御部50に送信する。この車両位置情報(P2)と高度情報は、走行現在情報の1つである。
ハンドル角情報取得部52は、自車両2のハンドルの角度を検出して取得するものである。ハンドル角情報取得部52は、自車両2のハンドル角度から自車両2の進行方向情報を車両側制御部50に送信する。この進行方向情報は、走行現在情報の1つである。
角速度計53は、ここでは、自車両2の傾斜状態となるヨー角度とロール角度の角速度を計測して取得する2軸のジャイロである。角速度計53は、2軸のジャイロではなく、ヨー角度とロール角度の角速度を個別に計測するものであっても良い。角速度計53は、自車両2のヨー角度とロール角度の角速度の各情報を車両姿勢情報として車両側制御部50に送信する。この車両姿勢情報は、走行現在情報の1つである。
加速度計54は、自車両2の前後傾斜状態で在るピッチ角の角速度を計測して取得するものである。角速度計53は、自車両2のピッチ角の角速度の情報を車両姿勢情報として車両側制御部50に送信する。この車両姿勢情報は、走行現在情報の1つである。
The GPS receiver 51 is a vehicle position information acquisition unit, and acquires the absolute position of the host vehicle 2 on the ground coordinates from the GPS satellite by latitude and longitude, and also acquires the altitude of the host vehicle 2. The GPS receiver 51 transmits vehicle position information (P2), which is information indicating the acquired absolute position of the host vehicle 2, and altitude information to the vehicle-side control unit 50. This vehicle position information (P2) and altitude information are one of the current travel information.
The steering wheel angle information acquisition unit 52 detects and acquires the steering wheel angle of the host vehicle 2. The steering wheel angle information acquisition unit 52 transmits the traveling direction information of the host vehicle 2 from the steering wheel angle of the host vehicle 2 to the vehicle side control unit 50. This traveling direction information is one of the traveling current information.
Here, the angular velocity meter 53 is a biaxial gyro that measures and acquires the angular velocity of the yaw angle and the roll angle at which the host vehicle 2 is inclined. The angular velocity meter 53 may measure the angular velocity of the yaw angle and the roll angle separately instead of the biaxial gyro. The angular velocity meter 53 transmits information on the yaw angle of the host vehicle 2 and the angular velocity of the roll angle to the vehicle-side control unit 50 as vehicle posture information. This vehicle attitude information is one piece of current travel information.
The accelerometer 54 measures and acquires the angular velocity of the pitch angle when the host vehicle 2 is tilted back and forth. The angular velocity meter 53 transmits information on the angular velocity of the pitch angle of the host vehicle 2 to the vehicle-side control unit 50 as vehicle posture information. This vehicle attitude information is one piece of current travel information.

ブレーキ情報取得部55は、自車両2のブレーキが操作されているか否かを検出するものである。ブレーキ情報取得部55は、自車両2のブレーキ操作が運転者によって行われると、減速情報として車両側制御部50に送信する。この減速情報は、走行現在情報Bの1つである。
車速計56は、自車両2の移動量および速度を測定して取得するものである。車速計56は、速度を示す情報を車速情報(Vv)として車両側制御部50に送信する。この車速情報は、走行現在情報の1つである。車速計56は車両速度取得部である。
アクセル開度情報取得部57は、自車両2のアクセルペダルの踏込量を計測して取得するものである。アクセル開度情報取得部57は、アクセルペダルの踏込量の情報を車両側制御部50に送信する。この踏込量情報は、走行現在情報の1つである。
これらGPS受信機51、ハンドル角情報取得部52、角速度計53、加速度計54、ブレーキ情報取得部55、車速計56、アクセル開度情報取得部57は、走行現在情報取得部を構成している。
The brake information acquisition part 55 detects whether the brake of the own vehicle 2 is operated. The brake information acquisition part 55 will transmit to the vehicle side control part 50 as deceleration information, if the brake operation of the own vehicle 2 is performed by the driver | operator. This deceleration information is one of the traveling current information B.
The vehicle speed meter 56 measures and acquires the movement amount and speed of the host vehicle 2. The vehicle speed meter 56 transmits information indicating the speed to the vehicle-side control unit 50 as vehicle speed information (Vv). This vehicle speed information is one piece of current travel information. The vehicle speed meter 56 is a vehicle speed acquisition unit.
The accelerator opening information acquisition unit 57 measures and acquires the amount of depression of the accelerator pedal of the host vehicle 2. The accelerator opening information acquisition unit 57 transmits information on the depression amount of the accelerator pedal to the vehicle-side control unit 50. This depression amount information is one piece of current travel information.
The GPS receiver 51, the steering wheel angle information acquisition unit 52, the angular velocity meter 53, the accelerometer 54, the brake information acquisition unit 55, the vehicle speed meter 56, and the accelerator opening information acquisition unit 57 constitute a traveling current information acquisition unit. .

周辺環境情報取得部58は、自車両2が走行する周辺環境情報(A)を取得するものである。周辺環境情報取得部58は、例えば、記録媒体に記憶されている地図情報を読み出して、自車両2の周辺環境を取得して表示装置59に表示する、例えばナビゲーション装置である。周辺環境情報取得部58は、地図情報を周辺環境情報(A)として車両側制御部50に送信する。
なお、設置物の高度情報やトンネルの最大坑内高さは、予め取得して車両側制御部50のROMに格納して記憶させておいても良い。あるいは、インターネットなどの通信回線を介して車両側制御部50のROMに適宜ダウンロードして記憶しても良い。あるいは、設置物の高度情報やトンネルの最大坑内高さの各種データを、メモリーカードのような外部記憶媒体に記憶して、周辺環境情報取得部58で読み出す形態であってもよい。
表示装置59は、周辺環境情報(A)である地図情報や自車両2の位置や走行ルートを表示するとともに、機体カメラ47からの画像情報Gを画像や文字として表示するモニタ装置である。表示装置59は、機体カメラ47が撮像した画像に応じた情報を、自車両2の乗員(運転者)に提示する提示部として機能する。
無線送受信機60は、自車両2に搭載されていて、飛行体3と自車両2との間において信号や情報の送受信を行う通信装置である。無線送受信機60は、車両側制御部50に送信された飛行指示と撮像指示を送信するとともに、飛行体3側から送信される飛行現在情報と画像情報(G)を受信して、車両側制御部50に入力する。
The surrounding environment information acquisition unit 58 acquires the surrounding environment information (A) in which the host vehicle 2 travels. The surrounding environment information acquisition unit 58 is, for example, a navigation device that reads out map information stored in a recording medium, acquires the surrounding environment of the host vehicle 2, and displays it on the display device 59. The surrounding environment information acquisition part 58 transmits map information to the vehicle side control part 50 as surrounding environment information (A).
Note that the altitude information of the installed object and the maximum mine height of the tunnel may be acquired in advance and stored in the ROM of the vehicle-side control unit 50 for storage. Or you may download and memorize | store suitably in ROM of the vehicle side control part 50 via communication lines, such as the internet. Alternatively, the altitude information of the installed object and various data of the maximum pit height of the tunnel may be stored in an external storage medium such as a memory card and read by the surrounding environment information acquisition unit 58.
The display device 59 is a monitor device that displays the map information as the surrounding environment information (A), the position of the host vehicle 2 and the travel route, and also displays the image information G from the body camera 47 as images and characters. The display device 59 functions as a presentation unit that presents information corresponding to the image captured by the body camera 47 to the passenger (driver) of the host vehicle 2.
The wireless transceiver 60 is a communication device that is mounted on the host vehicle 2 and transmits and receives signals and information between the flying vehicle 3 and the host vehicle 2. The wireless transmitter / receiver 60 transmits the flight instruction and the imaging instruction transmitted to the vehicle-side control unit 50, receives the flight current information and the image information (G) transmitted from the aircraft 3 side, and performs vehicle-side control. Input to the unit 50.

車両側制御部50は、GPS受信部51から送信される車両位置情報(P2)と、ハンドル角情報取得部52から送信される進行方向情報と、角速度計53と加速度計54から送信される車両姿勢情報と、ブレーキ情報取得部55から送信されるブレーキ情報と、車速計56から送信される速度情報(Vv)と、アクセル開度情報取得部57から送信されるアクセルペダルの踏込量情報等の走行現在情報から、自車両2の現在の走行状態(走行現在状態)を判断する。走行現在状態とは、自車両2の車両位置情報である緯度と経度と高度、進行方向と車速、停止中か走行中か、直進走行中かカーブ走行中かという内容である。車両側制御部50は、これら自車両2の走行状態に応じた車両現像情報とともに、表示装置59上にその走行状態をアイコンあるいは文字や数字で表示する。
車両側制御部50は、飛行指示と撮像指示とともに無線送受信機60を介して飛行体3に送信する。
The vehicle-side control unit 50 includes vehicle position information (P2) transmitted from the GPS receiving unit 51, traveling direction information transmitted from the steering wheel angle information acquiring unit 52, and vehicles transmitted from the angular velocity meter 53 and the accelerometer 54. Attitude information, brake information transmitted from the brake information acquisition unit 55, speed information (Vv) transmitted from the vehicle speedometer 56, accelerator pedal depression amount information transmitted from the accelerator opening information acquisition unit 57, etc. Based on the current travel information, the current travel state (current travel state) of the host vehicle 2 is determined. The current traveling state includes the latitude, longitude and altitude, which are vehicle position information of the host vehicle 2, the traveling direction and the vehicle speed, whether the vehicle is stopped or traveling, whether traveling straight, or traveling on a curve. The vehicle-side control unit 50 displays the running state on the display device 59 with icons, characters, or numbers together with the vehicle development information corresponding to the running state of the host vehicle 2.
The vehicle-side control unit 50 transmits the flight instruction and the imaging instruction to the flying object 3 via the wireless transceiver 60.

このような構成の運転支援制御装置1において、飛行体3は自車両2から離陸して自車両2よりも前方を飛行する。飛行体3では、飛行指示と撮像指示とを無線送受信機49で受信して機体側制御部40でその内容を判断する。機体側制御部40は、指示された飛行状態となるように、各駆動モータ30の駆動を制御して各回転翼31の回転数を調整することで飛行状態を制御する。また、機体側制御部40は、機体カメラ47で自車両2の周囲の道路5を中心に動画又は静止画を撮像する。撮像された画像は、画像情報(G)として飛行体3から無線送受信機49を介して自車両2へ向けて送信される。
自車両2では、送信された画像を無線送受信機60で受信して車両側制御部50に入力し、表示装置59に地図情報と一緒に表示することで、運転者に自車両2の前方の情報を提示する。
このため、運転者は、自車両2の周囲や進行方向の情報(例えば渋滞箇所、駐車車両のある箇所、各種工事の箇所、事故現場)に到達する前に事前に認識することができるので、ドライバビリティが向上する。
In the driving support control device 1 having such a configuration, the flying object 3 takes off from the own vehicle 2 and flies ahead of the own vehicle 2. In the flying object 3, the flight instruction and the imaging instruction are received by the wireless transceiver 49, and the contents are determined by the aircraft-side controller 40. The airframe side control unit 40 controls the flight state by controlling the drive of each drive motor 30 and adjusting the rotation speed of each rotor blade 31 so that the instructed flight state is obtained. In addition, the airframe side control unit 40 captures a moving image or a still image with the airframe camera 47 around the road 5 around the host vehicle 2. The captured image is transmitted as image information (G) from the flying vehicle 3 to the host vehicle 2 via the wireless transceiver 49.
In the host vehicle 2, the transmitted image is received by the wireless transceiver 60, input to the vehicle-side control unit 50, and displayed together with the map information on the display device 59, so that the driver can see the front of the host vehicle 2. Present information.
For this reason, the driver can recognize in advance before reaching the information around the host vehicle 2 and the traveling direction (for example, a traffic jam location, a location with a parked vehicle, various construction locations, an accident site) Improved drivability.

実施形態において、運転支援とは、機体カメラ47で撮像した画像の情報を運転者に提示するものとして説明したが、運転支援としては、画像の情報を運転者に提示するものに限定するものではない。
例えば、飛行体3がGPS受信機41を備えている場合、自車両2の真上を飛行させることで、自車両2の位置をGPS受信機41からの位置情報で得ることができる。このため、自車両2のGPS受信機51が故障した場合には、その代用として位置情報をGPS受信機41から車両側制御部50が取得する。そして、ナビゲーションシステムの自車両位置の情報として用いることで、運転支援に利用することができる。
あるいは、飛行体3が気圧計(高度計)45や風速計46を備えている場合には、当該気圧計からの気圧情報や風速計からの風速情報を車両側制御部50で取得する。一方、車両側制御部50には、所定の閾値や気圧変化率や風速変化率等を予め設定しておく。そして、飛行体3から送られてくる気圧情報や風速情報と、これら閾値や気圧変化率や風速変化率とを比較して、飛行体3から送られてくる気圧情報や風速情報が、閾値や変化率を超える場合には、自車両2が走行しているエリアの気象状況が悪化したものとして、運転者に提示するようにしても良い。この場合、局地的な天候の変化を表示装置59に表示して運転者に知らせることで、その運転を支援することができる。この場合、気圧計(高度計)45や風速計46が、自車両2の周囲の状況の取得する状況取得部となる。
実施形態において、提示部としては画像を表示する表示装置59を例示したが、例えば、局地的な天候の変化を運転者に知らせる場合、表示装置59に表示するものではなく、光や音声によって知らせることで提示するものであって良い。
In the embodiment, the driving assistance is described as presenting information on the image captured by the body camera 47 to the driver. However, the driving assistance is not limited to presenting image information to the driver. Absent.
For example, when the flying object 3 includes the GPS receiver 41, the position of the host vehicle 2 can be obtained from position information from the GPS receiver 41 by flying right above the host vehicle 2. For this reason, when the GPS receiver 51 of the own vehicle 2 breaks down, the vehicle-side control unit 50 acquires position information from the GPS receiver 41 as a substitute. And it can utilize for driving assistance by using it as information on the own vehicle position of a navigation system.
Alternatively, when the flying object 3 includes the barometer (altimeter) 45 and the anemometer 46, the vehicle-side control unit 50 acquires the barometric information from the barometer and the wind speed information from the anemometer. On the other hand, a predetermined threshold value, an atmospheric pressure change rate, a wind speed change rate, and the like are set in advance in the vehicle-side control unit 50. Then, the atmospheric pressure information and the wind speed information sent from the flying object 3 are compared with the threshold value, the atmospheric pressure change rate and the wind speed change rate, and the atmospheric pressure information and the wind speed information sent from the flying object 3 are When the rate of change is exceeded, it may be presented to the driver that the weather condition of the area where the host vehicle 2 is traveling has deteriorated. In this case, it is possible to support the driving by displaying the local weather change on the display device 59 and notifying the driver. In this case, the barometer (altimeter) 45 and the anemometer 46 serve as a situation acquisition unit that acquires the situation around the host vehicle 2.
In the embodiment, the display device 59 that displays an image is exemplified as the presentation unit. However, for example, when notifying the driver of a local weather change, the display device 59 is not displayed on the display device 59, but by light or sound. It may be presented by informing.

次に運転支援の別な実施形態について説明する。
この実施形態では、飛行体3の飛行位置と機体カメラ47の撮像モードを走行環境条件によって切り替えるものである。
飛行体3は、機体カメラ47の筐体部47aを飛行体3(自車両2)の進行方向に向けて自車両2から離間して車両前方の上空を飛行している。このため、自車両2の前方を漠然と空撮することはできるが、自車両2の走行環境条件に応じて撮像モードを適切に自動切替えするという、走行環境条件に基づいて撮像することはできない。飛行体3の飛行状態を無線操作部で操作者が操作する形態の場合、操作者が操作部を手動操作して、機体カメラ47の撮像方向等の撮像形態を調整することは既に行われている。しかし、これは自車両2の走行環境条件に応じて撮像モードを切り替えて撮像形態を自動制御するものではなく、煩雑である。
Next, another embodiment of driving assistance will be described.
In this embodiment, the flight position of the flying object 3 and the imaging mode of the airframe camera 47 are switched depending on the traveling environment conditions.
The flying object 3 flies over the front of the vehicle with the casing 47a of the airframe camera 47 facing away from the own vehicle 2 in the traveling direction of the flying object 3 (own vehicle 2). For this reason, it is possible to take an aerial image of the front of the host vehicle 2, but it is not possible to capture an image based on the driving environment condition of appropriately automatically switching the imaging mode according to the driving environment condition of the host vehicle 2. In the case where the operator operates the flight state of the flying object 3 with the wireless operation unit, the operator has manually operated the operation unit to adjust the imaging mode such as the imaging direction of the airframe camera 47. Yes. However, this does not automatically control the imaging mode by switching the imaging mode according to the traveling environment condition of the host vehicle 2, but is complicated.

ここで、自車両2の走行時の走行環境条件について代表的な例を図6〜図8を用いて説明する。図6は、自車両2が走行している走行レーン6の前方に交差点(R)がある走行環境条件を示している。従来の飛行体3の飛行制御では、自車両2よりも前方を飛行する飛行体3によって交差点(R)内を撮像することはできるが、交差点(R)を横切る方向に延びる道路9の状況を撮像するには至らない。特に信号機のない交差点の場合や、交差点(R)の周辺に建物があると、交差点(R)以外の道路9の部分は自車両2の運転者(乗員)からの死角になる。このため、他車両や自動二輪車、自転車、歩行者が交差点に向かって進行している場合、交差点(R)での出会い頭の事故を回避するには、死角となる方向の画像を撮像し、運転者にその画像情報(G)を提示することが運転支援になると考えられる。以下、図6の走行環境条件を「交差点条件」とする。
図7は、自車両2が、駐車場や縦列駐車などの限られたパーキング領域10に駐車又は停車する場合の走行環境条件を示している。このような場合、飛行体3の機体カメラ47で自車両2の前方を撮像するよりも、自車両2の直上部から自車両2の周囲の領域(M)を拡大して撮像し、運転者にその画像情報(G)を提示することが運転支援になると考えられる。以下、図7の走行環境条件を「駐車アシスト条件」とする。
図8は、自車両2が、複数の駐車スペースがある駐車場11に駐車又は停車する走行環境条件を示している。このような場合、飛行体3の機体カメラ47で自車両2の前方を撮像するよりも、駐車場11の上空から駐車場全体を入る領域(M1)を撮像し、運転者にその画像情報(G)を提示することで、駐車場11の空きスペース状況を運転者が把握でき、運転支援になると考えられる。以下、図8の走行環境条件を「空きスペース提示条件」とする。
Here, typical examples of the traveling environment conditions during traveling of the host vehicle 2 will be described with reference to FIGS. FIG. 6 shows driving environment conditions in which an intersection (R) is in front of the driving lane 6 in which the host vehicle 2 is driving. In the conventional flight control of the flying object 3, the inside of the intersection (R) can be imaged by the flying object 3 flying in front of the host vehicle 2, but the situation of the road 9 extending in the direction crossing the intersection (R) is determined. It does not lead to imaging. In particular, in the case of an intersection without a traffic light or when there is a building around the intersection (R), the portion of the road 9 other than the intersection (R) becomes a blind spot from the driver (occupant) of the host vehicle 2. For this reason, when other vehicles, motorcycles, bicycles, and pedestrians are moving toward the intersection, in order to avoid encounter accidents at the intersection (R), take an image in the direction of the blind spot and drive Presenting the image information (G) to the person is considered to be driving assistance. Hereinafter, the driving environment condition in FIG. 6 is referred to as an “intersection condition”.
FIG. 7 shows traveling environment conditions when the host vehicle 2 parks or stops in a limited parking area 10 such as a parking lot or parallel parking. In such a case, rather than imaging the front of the host vehicle 2 with the airframe camera 47 of the flying vehicle 3, the area (M) around the host vehicle 2 is enlarged and imaged from directly above the host vehicle 2, and the driver It is considered that presenting the image information (G) to the driving assistance. Hereinafter, the driving environment condition of FIG. 7 is referred to as “parking assist condition”.
FIG. 8 shows traveling environment conditions in which the host vehicle 2 parks or stops in the parking lot 11 having a plurality of parking spaces. In such a case, rather than imaging the front of the host vehicle 2 with the airframe camera 47 of the flying object 3, the area (M1) that enters the entire parking lot from above the parking lot 11 is imaged and the image information ( By presenting G), it is considered that the driver can grasp the empty space situation of the parking lot 11 and is driving assistance. Hereinafter, the driving environment condition of FIG. 8 is referred to as “empty space presentation condition”.

そこで、本実施形態に係る運転支援制御装置1では、自車両2の走行位置や走行先等の走行環境条件(B)に応じて機体カメラ47の撮像モードを自動的に切り替えるようにしたものである。また、機体カメラ47の撮像モードを切り替えるに際し、飛行体3の飛行位置も走行環境条件(B)に応じて変更するようにしている。
すなわち、本実施形態に係る運転支援制御装置1は、図9に示すように、飛行体3に搭載された機体カメラ47と、機体カメラ47が撮像した画像の画像情報(G)を自車両2の乗員に提示する表示部59を備えている。
運転支援制御装置1は、飛行体3の飛行位置情報(P1)を取得する飛行体位置情報取得部としてのGPS受信機41と、車両位置情報(P2)を取得する車両位置情報取得部としてのGPS受信51を有している。
運転支援制御装置1は、自車両2が走行する周辺環境情報(A)である地図情報を取得する周辺環境情報取得部80と、GPS受信機51で取得した車両位置情報(P2)と周辺環境情報取得部80で取得した周辺環境情報(A)とから自車両2の走行環境条件(B)を推定する走行環境条件推定部81と、飛行位置情報(P1)と走行環境条件(B)とから、撮像モードに応じた位置に飛行体3を位置させる目標飛行位置(F)を取得する目標飛行位置取得部82とを有している。
周辺環境情報(A)は、自車両2が走行する道路位置情報を含んでいる。周辺環境情報取得部80は周辺環境情報(A)である地図情報や地図情報に含まれている道路情報、建物や駐車場情報等を、例えばナビゲーションシステムから取得する。
Therefore, in the driving support control device 1 according to the present embodiment, the imaging mode of the body camera 47 is automatically switched according to the travel environment condition (B) such as the travel position of the host vehicle 2 and the travel destination. is there. Further, when switching the imaging mode of the airframe camera 47, the flight position of the flying object 3 is also changed according to the traveling environment condition (B).
That is, as shown in FIG. 9, the driving support control device 1 according to the present embodiment uses the aircraft camera 47 mounted on the flying body 3 and the image information (G) of the image captured by the aircraft camera 47 as the host vehicle 2. The display part 59 shown to a passenger | crew is provided.
The driving support control device 1 includes a GPS receiver 41 as a flying object position information acquisition unit that acquires flight position information (P1) of the flying object 3, and a vehicle position information acquisition unit that acquires vehicle position information (P2). A GPS receiver 51 is provided.
The driving support control device 1 includes a surrounding environment information acquisition unit 80 that acquires map information that is surrounding environment information (A) in which the host vehicle 2 travels, vehicle position information (P2) acquired by the GPS receiver 51, and the surrounding environment. A travel environment condition estimation unit 81 that estimates the travel environment condition (B) of the host vehicle 2 from the ambient environment information (A) acquired by the information acquisition unit 80, the flight position information (P1), and the travel environment condition (B) And a target flight position acquisition unit 82 for acquiring a target flight position (F) for positioning the flying object 3 at a position corresponding to the imaging mode.
The surrounding environment information (A) includes road position information on which the host vehicle 2 travels. The surrounding environment information acquisition unit 80 acquires the map information that is the surrounding environment information (A), road information included in the map information, building and parking lot information, and the like from the navigation system, for example.

走行環境条件推定部81は、車両位置情報(P2)と周辺環境情報(A)から自車両2の走行環境条件が図6〜図8で示したどの走行環境条件に該当するかを選択して選択したものを走行環境条件(B)としている。
走行環境条件推定部81は、GPS受信機51で取得した車両位置情報(P2)と周辺環境情報取得部80で取得された周辺環境情報(A)とから自車両2の行き先(X)を走行環境条件(B)として推定する。例えば、周辺環境情報(A)に交差点情報がある場合には、交差点(R)を行き先(X)とする。周辺環境情報(A)に駐車場11がある場合には、駐車場11を行き先(X)とする。周辺環境情報(A)に道路5上のパーキングエリア等のパーキング領域10の情報がある場合には、パーキング領域10を行き先(X)とする。
目標飛行位置取得部82は、飛行位置情報(P1)と走行環境条件(B)とから、飛行体3と自車両2の位置や行き先(X)の差分から、絶像モードに応じた位置に飛行体3を位置させる目標飛行位置(F)を算出して取得する。
The traveling environment condition estimation unit 81 selects which traveling environment condition shown in FIGS. 6 to 8 corresponds to the traveling environment condition of the host vehicle 2 from the vehicle position information (P2) and the surrounding environment information (A). The selected one is used as the driving environment condition (B).
The traveling environment condition estimating unit 81 travels the destination (X) of the host vehicle 2 from the vehicle position information (P2) acquired by the GPS receiver 51 and the surrounding environment information (A) acquired by the surrounding environment information acquiring unit 80. Estimated as environmental condition (B). For example, when there is intersection information in the surrounding environment information (A), the intersection (R) is set as the destination (X). When the surrounding environment information (A) includes the parking lot 11, the parking lot 11 is set as the destination (X). When the surrounding environment information (A) includes information on the parking area 10 such as the parking area on the road 5, the parking area 10 is set as the destination (X).
The target flight position acquisition unit 82 obtains a position corresponding to the image processing mode from the flight position information (P1) and the travel environment condition (B), based on the difference between the position of the flying object 3 and the host vehicle 2 and the destination (X). A target flight position (F) for positioning the flying object 3 is calculated and acquired.

ここでは、ナビゲーションシステムの地図情報を周辺環境情報(A)とし、走行環境条件(B)である行き先(X)をGPS受信機51で取得した車両位置情報(P2)と周辺環境情報(A)とから推定して取得するようにしている。しかし行き先(X)は、例えばナビゲーションシステム上で、運転者によって目的地が設定されている場合には、当該目的地を行き先(X)として用いても良い。   Here, the map information of the navigation system is the surrounding environment information (A), and the vehicle location information (P2) and the surrounding environment information (A) acquired by the GPS receiver 51 as the destination (X) that is the driving environment condition (B). It is estimated to get from. However, the destination (X) may be used as the destination (X) when the destination is set by the driver on the navigation system, for example.

図10(a)は、上述した機体カメラ47の撮像モードと撮像形態の関係を示すデータテーブルの一例であり、ここでは機体側制御部40のROMに記憶設定されているものとする。図10(a)に示すように、撮像モードは第1撮像モード〜第3撮像モードの3つの撮像モードを有している。
第1撮像モードは、走行環境条件が図6の交差点条件の際に選択されるものである。第1撮像モードでの撮像形態は、飛行体3を交差点(R)上で、自車両2が走行している道路5と直交する道路9を撮像するために、機体カメラ47を道路9に向かって回転させて撮像する撮像形態である。具体的には飛行体3の進行方向に対して左右に機体カメラ47を回転させて道路9を撮像する。この撮像形態を「回転撮像形態」とする。
第2撮像モードは、走行環境条件が図7の駐車アシスト条件の際に選択されるものである。第2撮像モードでの撮像形態は、自車両2の真上に飛行体3を位置させ、自車両2を中心にした自車両2が周囲の領域(M)を拡大して撮像するために、機体カメラ47で自車両2の周囲を拡大するように撮像する撮像形態である。具体的には機体カメラ47で望遠撮像する。この撮像形態を「限定撮像形態」とする。
ここでは、飛行体3の飛行高度を一定であることを前提にしているので、機体カメラ47で望遠撮像をするようにしている。しかし、飛行体3の飛行高度を下げて撮像画角を狭くして自車両2の周囲を拡大して限定的に撮像するようにしても良い。
第3撮像モードは、走行環境条件が図8の空きスペース提示条件の際に選択されるものである。第3撮像モードでの撮像形態は、飛行体3を図8に示す駐車場11の上空へと飛行させ、当該駐車場11の上空から駐車場全体が撮像できるようにするために、機体カメラ47で駐車場を広域撮像する撮像形態である。具体的には機体カメラ47で広角撮像する。この撮像形態を「広域撮像形態」とする。
ここでは、飛行体3の飛行高度を一定であることを前提にしているので、機体カメラ47で広角撮像をするようにしている。しかし、飛行体3の飛行高度を上げて撮像画角を広くして駐車場全体を広域に撮像するようにしても良い。この場合は、走行環境条件(B)に応じた撮像モードで機体カメラ47による撮像が可能となるように、飛行体3の飛行状態を制御することとなる。
FIG. 10A is an example of a data table showing the relationship between the imaging mode and imaging mode of the aircraft camera 47 described above, and is assumed to be stored in the ROM of the aircraft-side control unit 40 here. As shown in FIG. 10A, the imaging mode has three imaging modes of a first imaging mode to a third imaging mode.
The first imaging mode is selected when the driving environment condition is the intersection condition in FIG. The imaging mode in the first imaging mode is that the airframe camera 47 is directed toward the road 9 in order to image the road 9 perpendicular to the road 5 on which the host vehicle 2 is traveling on the intersection (R). It is an imaging form which rotates and rotates and images. Specifically, the body camera 47 is rotated left and right with respect to the traveling direction of the flying body 3 to image the road 9. This imaging mode is referred to as a “rotating imaging mode”.
The second imaging mode is selected when the driving environment condition is the parking assist condition of FIG. The imaging mode in the second imaging mode is that the flying vehicle 3 is positioned directly above the host vehicle 2 and the host vehicle 2 centered on the host vehicle 2 enlarges and captures the surrounding area (M). In this imaging mode, the body camera 47 captures an image so as to enlarge the surroundings of the host vehicle 2. Specifically, telephoto imaging is performed with the body camera 47. This imaging mode is referred to as “limited imaging mode”.
Here, since it is assumed that the flying altitude of the flying object 3 is constant, telephoto imaging is performed by the body camera 47. However, the flying altitude of the flying object 3 may be lowered to narrow the imaging angle of view, and the surroundings of the host vehicle 2 may be enlarged so that limited imaging is performed.
The third imaging mode is selected when the driving environment condition is the empty space presentation condition in FIG. The imaging mode in the third imaging mode is such that the aircraft 3 flies over the parking lot 11 shown in FIG. 8 and the entire parking lot can be imaged from above the parking lot 11. This is an imaging mode for imaging a parking lot over a wide area. Specifically, wide-angle imaging is performed with the body camera 47. This imaging mode is referred to as a “wide area imaging mode”.
Here, since it is assumed that the flying altitude of the flying body 3 is constant, wide-angle imaging is performed by the body camera 47. However, the entire altitude of the parking lot may be imaged in a wide area by increasing the flight altitude of the flying object 3 and widening the imaging angle of view. In this case, the flight state of the flying vehicle 3 is controlled so that imaging by the airframe camera 47 is possible in the imaging mode corresponding to the traveling environment condition (B).

図10(b)は、走行環境条件と撮像モードの関係を規定したデータテーブルの一例を示す。このデータテーブルは、走行環境条件と機体カメラ47の撮像モードとが互いに関連付けられていて、車両側制御部50のROMに予め記憶されて設定されている。
交差点条件は第1撮像モードと関連付けられていて、駐車アシスト条件は第2撮像モードと関連付けられていて、空きスペース提示条件は第3撮像モードと関連付けられている。このデータテーブルは、走行環境情報推定部81で走行環境が推定されたときに、車両側制御部50によって読み出されるように構成されている。つまり、本実施形態において、撮像モードは、走行環境条件(B)に応じて適宜設定された複数の撮像モードを有している。
FIG. 10B shows an example of a data table that defines the relationship between the driving environment condition and the imaging mode. In this data table, the driving environment condition and the imaging mode of the airframe camera 47 are associated with each other, and are stored and set in advance in the ROM of the vehicle-side control unit 50.
The intersection condition is associated with the first imaging mode, the parking assist condition is associated with the second imaging mode, and the empty space presentation condition is associated with the third imaging mode. This data table is configured to be read by the vehicle-side control unit 50 when the driving environment is estimated by the driving environment information estimating unit 81. That is, in the present embodiment, the imaging mode has a plurality of imaging modes that are appropriately set according to the driving environment condition (B).

運転支援制御装置1は、走行環境推定部81で推定された走行環境条件(B)に応じた撮像モードで機体カメラ47による撮像が可能となるように、機体カメラ47の撮像状態又は飛行体3の飛行状態を制御する。
すなわち、制御部4は、推定された走行環境条件(B)に応じた撮像モードで撮像装置による撮像が可能となるように、機体カメラ47の撮像状態又は飛行体3の飛行状態を制御する。制御部4は、飛行体3が推定された自車両2の行き先(X)に飛行するように、飛行体3の飛行状態を制御する。つまり、制御部4は、飛行体3が、目標飛行位置(F)へ飛行するように、飛行体の飛行状態を制御する。
すなわち、車両側制御部50は、走行環境条件推定部81によって、自車両2の走行環境条件(B)、行き先(X)が推定された場合、飛行体3の飛行位置と機体カメラ47の撮像状態が、走行環境条件(B)に応じた撮影モードと撮影位置となる、目標飛行位置(F)を占めるように、飛行指示と撮像指示を機体側制御部40に行う。これら車両側制御部50から行われる飛行指示や撮像指示は、無線送受信機49を介して飛行体3に向かって送信される。
車両側制御部50は、走行環境条件(B)として交差点条件が推定された場合には、図10(b)に示すデータベースから第1撮像モードを選択し、撮像指示として飛行体3に送信する。
車両側制御部50は、走行環境条件(B)として駐車アシスト条件が推定された場合には、図10(b)に示すデータベースから第2撮像モードを選択し、撮像指示として飛行体3に送信する。
車両側制御部50は、走行環境条件(B)として空きスペース提示条件が推定された場合には、図10(b)に示すデータベースから第3撮像モードを選択し、撮像指示として飛行体3に送信する。
The driving support control device 1 is configured so that the imaging state of the airframe camera 47 or the flying object 3 can be captured by the airframe camera 47 in an imaging mode according to the traveling environment condition (B) estimated by the traveling environment estimation unit 81. Control the flight status.
That is, the control unit 4 controls the imaging state of the airframe camera 47 or the flying state of the flying body 3 so that the imaging device can perform imaging in the imaging mode according to the estimated traveling environment condition (B). The control unit 4 controls the flight state of the flying object 3 so that the flying object 3 flies to the estimated destination (X) of the host vehicle 2. That is, the control unit 4 controls the flight state of the flying object so that the flying object 3 flies to the target flight position (F).
That is, when the traveling environment condition estimation unit 81 estimates the traveling environment condition (B) and the destination (X) of the host vehicle 2, the vehicle-side control unit 50 captures the flight position of the flying object 3 and the imaging of the aircraft camera 47. The flight instruction and the imaging instruction are given to the airframe side control unit 40 so that the state occupies the target flight position (F) corresponding to the imaging mode and the imaging position according to the traveling environment condition (B). These flight instructions and imaging instructions given from the vehicle-side control unit 50 are transmitted toward the flying object 3 via the wireless transceiver 49.
When the intersection condition is estimated as the driving environment condition (B), the vehicle-side control unit 50 selects the first imaging mode from the database shown in FIG. 10B and transmits it to the flying object 3 as an imaging instruction. .
When the parking assist condition is estimated as the driving environment condition (B), the vehicle-side control unit 50 selects the second imaging mode from the database shown in FIG. 10B and transmits it to the flying object 3 as an imaging instruction. To do.
When the empty space presentation condition is estimated as the driving environment condition (B), the vehicle-side control unit 50 selects the third imaging mode from the database shown in FIG. Send.

図11に示すフローチャートを用いて飛行体3の飛行位置と機体カメラ47の撮像モード切替え処理の内容について説明する。この飛行体3の撮像モード切替え処理において、飛行指示と撮像指示までの処理は車両側制御部50で実行され、飛行体3を行き先(X)へ向かわせる飛行制御や、機体カメラ47の撮像モードによる撮像形態に関する撮像制御は、機体側制御部40によって実行される。
運転支援制御装置1は、GPS受信機51で取得した車両位置情報(P2)を取り込んで車体側制御部50のRAMに記憶して保存する(ステップST1)。
運転支援制御装置1は、GPS受信機41からの飛行位置情報(P1)を取り込んで車体側制御部50のRAMに記憶して保存する(ステップST2)。
運転支援制御装置1は、周辺環境情報取得部58から地図情報等の周辺環境情報(A)を取得して車体側制御部50のRAMに記憶して保存する(ステップST3)。
運転支援制御装置1は、走行環境条件推定部(81)で、車両位置情報(P2)と周辺環境情報(A)とから走行環境条件(B)を推定し車体側制御部50のRAMに記憶して保存する(ステップST4)。
運転支援制御装置1は、目標飛行位置取得部(82)で飛行位置情報(P1)と周辺環境情報(A)とから飛行体3の目標飛行位置(F)を取得して車体側制御部50のRAMに記憶して保存する(ステップST5)。
運転支援制御装置1は、車両側制御部50で、走行環境条件(B)に応じた撮像モードをROMから読み出して特定する(ステップST6)。
車両側制御部50は、特定した撮像モードを撮像指示とするとともに、当該撮像モードを行なえる飛行位置である目標飛行位置(F)を飛行指示として、無線送受信機60を介して飛行体3へ送信する(ステップST7)。
飛行体3側では、自車両2から送信された飛行指示(目標飛行位置(F))と撮像指示(撮像モード)を無線送受信機60で受信し、機体側制御部40によってRAMに記憶して保存する(ステップST8)。
機体側制御部40は、撮像指示(撮像モード)に対応して撮像形態をROMのデータテーブルから読みだして、当該撮像形態となるように、図2、図3に示す機体カメラ47の動作を制御するとともに、飛行指示となる飛行位置を占めるように、各駆動モータ30の駆動を制御して各回転翼31の回転数を調整して飛行状態を制御する(ステップST9)。
このようなステップST1〜ステップST9までの逸脱復帰制御処理は、例えば1秒ごとに繰り返されて実行される。
The contents of the flight position of the flying object 3 and the imaging mode switching process of the airframe camera 47 will be described using the flowchart shown in FIG. In the imaging mode switching process of the flying object 3, the flight instruction and the process up to the imaging instruction are executed by the vehicle-side control unit 50, the flight control for directing the flying object 3 to the destination (X), and the imaging mode of the aircraft camera 47. Imaging control related to the imaging mode is executed by the airframe side control unit 40.
The driving support control device 1 takes in the vehicle position information (P2) acquired by the GPS receiver 51, stores it in the RAM of the vehicle body side control unit 50, and stores it (step ST1).
The driving assistance control device 1 takes in the flight position information (P1) from the GPS receiver 41, stores it in the RAM of the vehicle body side control unit 50, and stores it (step ST2).
The driving support control device 1 acquires the surrounding environment information (A) such as map information from the surrounding environment information acquisition unit 58, stores it in the RAM of the vehicle body side control unit 50, and stores it (step ST3).
The driving support control device 1 estimates the driving environment condition (B) from the vehicle position information (P2) and the surrounding environment information (A) by the driving environment condition estimation unit (81) and stores it in the RAM of the vehicle body side control unit 50. (Step ST4).
The driving support control device 1 acquires the target flight position (F) of the flying object 3 from the flight position information (P1) and the surrounding environment information (A) by the target flight position acquisition unit (82), and the vehicle body side control unit 50 Are stored and stored in the RAM (step ST5).
The driving support control device 1 uses the vehicle-side control unit 50 to read and specify the imaging mode corresponding to the traveling environment condition (B) from the ROM (step ST6).
The vehicle-side control unit 50 uses the specified imaging mode as an imaging instruction, and uses the target flight position (F), which is a flight position capable of performing the imaging mode, as a flight instruction to the flying object 3 via the wireless transceiver 60. Transmit (step ST7).
On the aircraft 3 side, the flight instruction (target flight position (F)) and the imaging instruction (imaging mode) transmitted from the host vehicle 2 are received by the wireless transceiver 60 and stored in the RAM by the aircraft-side controller 40. Save (step ST8).
The body-side control unit 40 reads the imaging form from the ROM data table in response to the imaging instruction (imaging mode), and performs the operation of the body camera 47 shown in FIGS. 2 and 3 so as to obtain the imaging form. In addition to controlling, the drive of each drive motor 30 is controlled so as to occupy the flight position as a flight instruction, and the number of rotations of each rotor blade 31 is adjusted to control the flight state (step ST9).
Such deviation return control processing from step ST1 to step ST9 is repeated, for example, every second.

このような構成の運転支援制御装置1によると、GPS受信機51で取得した車両位置情報(P2)と周辺環境情報取得部(80)で取得した周辺環境情報(A)とから自車両2が走行する走行環境条件(B)を走行環境条件推定部(81)で推定し、推定された走行環境条件に応じた撮像モードで機体カメラ47による撮像が可能となるように、機体カメラ47の撮像状態と飛行体3の飛行状態を制御部4で制御するので、自車両2の走行環境条件に応じて飛行体3の機体カメラ47による撮像モードを変更することができる。
例えば、走行環境条件が、図6に示す交差点条件の場合、飛行体3は交差点(P)の上空に移動して、機体カメラ47は交差点(P)を横切る方向に延びる道路9を撮像するようには作動して、撮像した画像情報(G)を自車両2に送信する。自車両2では、送信された交差点(P)を横切る道路9の画像情報(G)が、表示装置59に映し出されて提示される。このため、本来死角となる道路9の状況を、交差点(P)に到達する前に画像として認識することができるので、交差点(P)での出会い頭の事故の回避に役立つ運転支援を行える。
走行環境条件が、図7に示す駐車アシスト条件の場合、飛行体3は自車両2の直上に移動して、機体カメラ47は自車両2の周囲の領域(M)を撮像するようには作動し、撮像した画像情報(G)を自車両2に送信する。自車両2では、送信された自車両2の周囲の領域(M)の画像情報(G)が、表示装置59に映し出されて提示される。このため、運転者は、画像情報(G)を確認しながらパーキング領域10に駐停車することができるので、駐停車時に役立つ運転支援を行える。
走行環境条件が、図8示す空きスペース提示条件の場合、飛行体3は行き先(X)である駐車場11の上空に移動し、機体カメラ47は駐車場全体を入る領域(M1)を撮像するように作動し、撮像した画像情報(G)を自車両2に送信する。自車両2では、送信された駐車場全体を入る領域(M1)の画像情報(G)が、表示装置59に映し出されて提示される。このため、運転者は、表示装置59に映し出されている画像から、駐車場11に到達する前に事前に空いている駐車スペースをン確認することができるので、駐車場11内で駐車スペースを探し回らなくて済み、駐停車時に役立つ運転支援を行える。
According to the driving support control device 1 having such a configuration, the host vehicle 2 is determined from the vehicle position information (P2) acquired by the GPS receiver 51 and the surrounding environment information (A) acquired by the surrounding environment information acquisition unit (80). The traveling environment condition (B) for traveling is estimated by the traveling environment condition estimation unit (81), and imaging by the aircraft camera 47 is performed so that the imaging by the aircraft camera 47 is possible in an imaging mode according to the estimated traveling environment condition. Since the control unit 4 controls the state and the flight state of the flying object 3, the imaging mode of the flying object 3 by the body camera 47 can be changed according to the traveling environment condition of the host vehicle 2.
For example, when the traveling environment condition is the intersection condition shown in FIG. 6, the flying object 3 moves above the intersection (P), and the airframe camera 47 images the road 9 extending in the direction crossing the intersection (P). Is operated to transmit the captured image information (G) to the host vehicle 2. In the host vehicle 2, the transmitted image information (G) of the road 9 crossing the intersection (P) is displayed on the display device 59 and presented. For this reason, since the situation of the road 9 which is originally a blind spot can be recognized as an image before reaching the intersection (P), driving assistance useful for avoiding an accident at the intersection (P) can be performed.
When the driving environment condition is the parking assist condition shown in FIG. 7, the flying vehicle 3 moves directly above the host vehicle 2 and the airframe camera 47 operates so as to image the area (M) around the host vehicle 2. Then, the captured image information (G) is transmitted to the host vehicle 2. In the host vehicle 2, the transmitted image information (G) of the area (M) around the host vehicle 2 is displayed on the display device 59 and presented. For this reason, since the driver can park in the parking area 10 while confirming the image information (G), the driver can provide driving assistance useful for parking.
When the traveling environment condition is the empty space presentation condition shown in FIG. 8, the flying object 3 moves over the parking lot 11 as the destination (X), and the airframe camera 47 images the area (M1) that enters the entire parking lot. The captured image information (G) is transmitted to the host vehicle 2. In the host vehicle 2, the transmitted image information (G) of the area (M1) that enters the entire parking lot is displayed on the display device 59 and presented. For this reason, since the driver can confirm the vacant parking space in advance before reaching the parking lot 11 from the image displayed on the display device 59, the parking space in the parking lot 11 can be confirmed. You don't have to search for it, and you can provide driving assistance that is useful when parking and stopping.

(変形例)
上記の運転支援制御装置1では、走行環境条件推定部81がGPS受信機51で取得した車両位置情報(P2)と周辺環境情報取得部80で取得された周辺環境情報(A)とから自車両2の行き先(X)を走行環境条件(B)として推定したが、図12に示すように、行き先(X)が存在する周辺環境範囲(Y)を走行環境条件(B)として推定してもよい。
この場合には、制御部4は、車両位置情報(P2)が周辺環境範囲(Y)に位置する場合には、飛行体3が自車両2の行き先(X)に飛行するように、飛行体3の飛行状態を制御する。
例えば、走行環境条件(B)が空きスペース提示条件の場合、駐車場11の上空を飛行させるのが望ましい。しかし、自車両2から離間飛行している飛行体3を自車両2との位置関係を考慮しないで駐車場11の上空に飛行させると、自車両2の行き先(X)が当初の駐車場11から別な地点に変更になった場合、駐車場11の上空から新たな行き先(X)に向かう自車両2の前方まで飛行しなければならない。このため、運転支援の中断状態が発生、もしくは中断時間が長くなってしまう。このため、自車両2が、少なくとも行き先(X)が駐車場11で、その駐車場11が位置する所定範囲である、例えば行き先(X)を中心に半径30mの範囲内を周辺環境範囲(Y)としたとき、周辺環境範囲(Y)内に自車両2が位置してから、飛行体3を行き先(X)である駐車場11へと飛行させるように制御する。この場合、自車両2が位置は車両位置情報(P2)で推定すればよい。
このように飛行体3の飛行を制御すると、自車両2の行き先(X)が当初の駐車場11から別な地点に変更になった場合でも、飛行体3と自車両2の離間距離が、周辺環境範囲(Y)である30m以内に限定することができる。このため、飛行体3が変更された新たな行き先(X)に向かって飛行する際の回り道(ロス)を低減することができる。よって、運転支援の中断状態が発生しても短くて済み、ドライバビリティ―が向上することになる。 なお、周辺環境範囲(Y)は、30m以内に限定するものではない。
(Modification)
In the driving support control apparatus 1 described above, the host vehicle is derived from the vehicle position information (P2) acquired by the driving environment condition estimation unit 81 with the GPS receiver 51 and the surrounding environment information (A) acquired with the surrounding environment information acquisition unit 80. Although the destination (X) of 2 is estimated as the driving environment condition (B), as shown in FIG. 12, the surrounding environment range (Y) where the destination (X) exists is estimated as the driving environment condition (B). Good.
In this case, when the vehicle position information (P2) is located in the surrounding environment range (Y), the control unit 4 causes the flying object 3 to fly to the destination (X) of the host vehicle 2. 3 flight status is controlled.
For example, when the traveling environment condition (B) is an empty space presentation condition, it is desirable to fly over the parking lot 11. However, if the flying object 3 flying away from the host vehicle 2 is caused to fly over the parking lot 11 without considering the positional relationship with the host vehicle 2, the destination (X) of the host vehicle 2 is changed to the original parking lot 11. When the vehicle is changed to another point, the vehicle must fly from above the parking lot 11 to the front of the host vehicle 2 toward the new destination (X). For this reason, the interruption state of driving assistance occurs or the interruption time becomes long. For this reason, at least the destination (X) is the parking lot 11 and the host vehicle 2 is a predetermined range in which the parking lot 11 is located. For example, the surrounding environment range (Y ), The vehicle 3 is controlled to fly to the parking lot 11 as the destination (X) after the host vehicle 2 is positioned within the surrounding environment range (Y). In this case, the position of the host vehicle 2 may be estimated by the vehicle position information (P2).
When the flight of the flying object 3 is controlled in this way, even if the destination (X) of the own vehicle 2 is changed from the original parking lot 11 to another point, the separation distance between the flying object 3 and the own vehicle 2 is The surrounding environment range (Y) can be limited to within 30 m. For this reason, the detour (loss) at the time of flying toward the new destination (X) in which the flying body 3 was changed can be reduced. Therefore, even if the driving support is interrupted, it can be shortened and drivability is improved. The surrounding environment range (Y) is not limited to within 30 m.

以上、本発明の好ましい実施の形態について説明したが、本発明はかかる推定の実施形態に限定されるものではなく、上述の説明で特に限定していない限り、特許請求の範囲に記載された本発明の趣旨の範囲内において、種々の変形・変更が可能である。例えば、実施形態では、自車両2から離陸した飛行体3を自車両2へ帰還するものとして説明したが、飛行体3の離陸は自車両2とは別な地点から行ったものを自車両2の車両側制御部50で制御し、自車両2に帰還させるようにしてもよい。
機体カメラ47で撮像した画像情報(G)は、運転支援時に飛行体3から自車両2に送信して運転支援に用いているが、別な用途に用いても良い。例えば、帰還時にも機体カメラ47を起動して飛行体3から自車両2を空撮し、当該空撮した画像情報G1を自車両2に送信し、自車両2の離着陸部20の位置を車両側制御部50で画像処理し、当該離着陸部20を目標に飛行体3を帰還するようにしても良い。
本発明の実施の形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施の形態に記載されたものに限定されるものではない。
The preferred embodiment of the present invention has been described above. However, the present invention is not limited to such an estimated embodiment, and the present invention described in the claims unless otherwise limited by the above description. Various modifications and changes are possible within the scope of the gist of the invention. For example, in the embodiment, the flying object 3 that has taken off from the own vehicle 2 has been described as returning to the own vehicle 2, but the takeoff of the flying object 3 is performed from a point different from the own vehicle 2. May be controlled by the vehicle-side control unit 50 and returned to the host vehicle 2.
The image information (G) captured by the airframe camera 47 is transmitted from the flying vehicle 3 to the host vehicle 2 and used for driving support during driving support, but may be used for other purposes. For example, the airframe camera 47 is activated even when returning, and the subject vehicle 2 is aerial photographed from the flying object 3, the aerial image information G <b> 1 is transmitted to the subject vehicle 2, and the position of the takeoff and landing part 20 of the subject vehicle 2 is determined by the vehicle. Image processing may be performed by the side control unit 50, and the flying object 3 may be returned to the take-off and landing unit 20 as a target.
The effects described in the embodiments of the present invention are only the most preferable effects resulting from the present invention, and the effects of the present invention are limited to those described in the embodiments of the present invention. is not.

1・・・運転支援制御装置、2・・・車両、3・・・飛行体、4・・・制御部、30・・・駆動源、40・・・機体側制御部、41・・・飛行体位置部、47・・・状況取得部,撮像装置、50・・・車両側制御部、51・・・車両位置情報取得部、59・・・提示部,表示装置、80・・・周辺環境情報取得部、81・・・走行環境条件推定部、82・・・目標飛行位置取得、A・・・周辺環境情報、B・・・周辺環境情報、F・・・目標飛行位置、G・・・画像に応じた情報、P2・・・車両位置情報、X・・・行き先、Y・・・周辺環境範囲。   DESCRIPTION OF SYMBOLS 1 ... Driving assistance control apparatus, 2 ... Vehicle, 3 ... Flying object, 4 ... Control part, 30 ... Drive source, 40 ... Airframe side control part, 41 ... Flight Body position part, 47 ... situation acquisition part, imaging device, 50 ... vehicle side control part, 51 ... vehicle position information acquisition part, 59 ... presentation part, display device, 80 ... peripheral environment Information acquisition unit, 81... Traveling environment condition estimation unit, 82... Target flight position acquisition, A .. ambient environment information, B .. ambient environment information, F. -Information according to the image, P2 ... Vehicle position information, X ... Destination, Y ... Surrounding environment range.

Claims (7)

車両と離間して飛行可能な無人の飛行体に搭載されていて、前記車両の周囲の画像を撮像する撮像装置と、
前記撮像装置が撮像した画像に応じた情報を前記車両の乗員に提示する提示部と、
前記車両の車両位置情報を取得する車両位置情報取得部と、
前記車両が走行する周辺環境情報を取得する周辺環境情報取得部と、
前記車両位置情報取得部で取得した車両位置情報と前記周辺環境情報取得部で取得した周辺環境情報とから前記車両の走行環境条件を推定する走行環境条件推定部と、
前記走行環境推定部で推定された走行環境条件に応じた撮像モードで前記撮像装置による撮像が可能となるように、前記撮像装置の撮像状態又は前記飛行体の飛行状態を制御する制御部を有することを特徴とする運転支援制御装置。
An imaging device that is mounted on an unmanned air vehicle capable of flying away from the vehicle and that captures an image of the surroundings of the vehicle;
A presentation unit for presenting information corresponding to an image captured by the imaging device to an occupant of the vehicle;
A vehicle position information acquisition unit for acquiring vehicle position information of the vehicle;
A surrounding environment information acquisition unit for acquiring surrounding environment information in which the vehicle travels;
A driving environment condition estimation unit that estimates the driving environment condition of the vehicle from the vehicle position information acquired by the vehicle position information acquisition unit and the surrounding environment information acquired by the surrounding environment information acquisition unit;
A control unit that controls an imaging state of the imaging device or a flying state of the flying body so that imaging by the imaging device is possible in an imaging mode according to the traveling environment condition estimated by the traveling environment estimation unit; A driving support control device characterized by that.
請求項1に記載の運転支援制御装置において、
前記撮像モードは、前記走行環境条件に応じて設定された複数の撮像モードを有することを特徴とする運転支援制御装置。
In the driving assistance control device according to claim 1,
The driving support control apparatus, wherein the imaging mode has a plurality of imaging modes set according to the driving environment condition.
請求項1又は2に記載の運転支援制御装置において、
前記走行環境条件推定部は、前記車両位置情報取得部で取得した車両位置情報と前記周辺環境情報取得部で取得された周辺環境情報とから前記車両の行き先を走行環境条件として推定し、
前記制御部は、前記飛行体が前記推定された車両の行き先に飛行するように、前記飛行体の飛行状態を制御することを特徴とする運転支援制御装置。
In the driving assistance control device according to claim 1 or 2,
The driving environment condition estimation unit estimates the destination of the vehicle as a driving environment condition from the vehicle position information acquired by the vehicle position information acquisition unit and the surrounding environment information acquired by the surrounding environment information acquisition unit,
The driving support control device, wherein the control unit controls a flight state of the flying object so that the flying object flies to the estimated destination of the vehicle.
請求項1又は2に記載の運転支援制御装置において、
前記走行環境条件推定部は、前記車両位置情報取得部で取得した車両位置情報と前記周辺環境情報取得部で取得された周辺環境情報とから前記車両の行き先が存在する周辺環境範囲を前記走行環境条件として推定し、
前記制御部は、前記車両位置情報が前記周辺環境範囲に位置する場合には、前記飛行体が前記車両の行き先に飛行するように、前記飛行体の飛行状態を制御することを特徴とする運転支援制御装置。
In the driving assistance control device according to claim 1 or 2,
The driving environment condition estimation unit determines a surrounding environment range where the destination of the vehicle exists from the vehicle position information acquired by the vehicle position information acquisition unit and the surrounding environment information acquired by the surrounding environment information acquisition unit. As a condition,
The control unit controls a flight state of the flying object so that the flying object flies to a destination of the vehicle when the vehicle position information is located in the surrounding environment range. Support control device.
請求項1又は2に記載の運転支援制御装置において、
前記制御部は、前記撮像モードとして回転撮像形態、限定撮像形態及び広域撮像形態を備えており、
前記走行環境条件として、交差点条件が推定された場合には前記回転撮像形態を選択し、駐車アシスト条件が推定された場合には前記限定撮像形態を選択し、駐車場における空きスペース提示条件が推定された場合には前記広域撮像形態を選択することを特徴とする運転支援制御装置。
In the driving assistance control device according to claim 1 or 2,
The control unit includes a rotation imaging mode, a limited imaging mode, and a wide area imaging mode as the imaging mode,
When the intersection condition is estimated as the driving environment condition, the rotational imaging mode is selected. When the parking assist condition is estimated, the limited imaging mode is selected, and the empty space presentation condition in the parking lot is estimated. When it is, the driving assistance control device, wherein the wide area imaging mode is selected.
請求項1〜5の内の何れか1項に記載の運転支援制御装置において、
前記飛行体の飛行位置情報を取得する飛行体位置情報取得部を有し、
前記飛行位置情報と前記走行環境条件とから、前記絶像モードに応じた位置に前記飛行体を位置させる目標飛行位置を取得する目標飛行位置取得部とを有し、
前記制御部は、前記飛行体が、目標飛行位置へ飛行するように、前記飛行体の飛行状態を制御することを特徴とする運転支援制御装置。
In the driving assistance control device according to any one of claims 1 to 5,
Having a flying object position information acquisition unit for acquiring flight position information of the flying object;
A target flight position acquisition unit that acquires a target flight position for positioning the flying object at a position corresponding to the image-accompaniment mode from the flight position information and the traveling environment condition;
The control unit controls the flight state of the flying object so that the flying object flies to a target flight position.
請求項1〜6の内の何れか1項に記載の運転支援制御装置において、
前記制御部は、前記車両に搭載される車両側制御部と、前記飛行体に搭載される飛行体制御部を有し、
前記車両側制御部は、前記撮像モードで前記撮像装置が撮像できるように、前記撮像装置の撮像状態を制御する撮像指示又は前記飛行体の飛行状態を制御する制御指示を前記飛行体制御部に行うことを特徴とする運転支援制御装置。
In the driving assistance control device according to any one of claims 1 to 6,
The control unit includes a vehicle-side control unit mounted on the vehicle, and a flying object control unit mounted on the flying object,
The vehicle-side control unit sends an imaging instruction for controlling an imaging state of the imaging apparatus or a control instruction for controlling a flying state of the flying object to the flying object control unit so that the imaging apparatus can capture an image in the imaging mode. A driving support control device characterized by performing.
JP2015127882A 2015-06-25 2015-06-25 Driving support control device Pending JP2017011614A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015127882A JP2017011614A (en) 2015-06-25 2015-06-25 Driving support control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015127882A JP2017011614A (en) 2015-06-25 2015-06-25 Driving support control device

Publications (1)

Publication Number Publication Date
JP2017011614A true JP2017011614A (en) 2017-01-12

Family

ID=57762550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015127882A Pending JP2017011614A (en) 2015-06-25 2015-06-25 Driving support control device

Country Status (1)

Country Link
JP (1) JP2017011614A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3348477A1 (en) * 2017-01-13 2018-07-18 MAN Truck & Bus AG Motor vehicle with start and landing device for a unmanned aerial vehicle
WO2018138882A1 (en) * 2017-01-27 2018-08-02 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Flying vehicle, operation control method, operation control system, program, and storage medium
JP2018181116A (en) * 2017-04-18 2018-11-15 株式会社自律制御システム研究所 Unmanned aircraft, position estimation system, flight control system, position estimation method, control method, and program
KR101957958B1 (en) 2018-08-28 2019-03-14 주식회사 에이엠 특장 Safety apparatus of a trash truck using a drone
JP2019114038A (en) * 2017-12-22 2019-07-11 日本コンピューターテクノス株式会社 Aircraft, server device, environment information acquisition method, environment information storage method, and program
JP2020180786A (en) * 2019-04-23 2020-11-05 川崎重工業株式会社 Movement support program, movement support system and movement support method
EP3930316A4 (en) * 2019-03-27 2022-04-20 Sony Group Corporation Information processing device, method, and program
JP2022095771A (en) * 2018-02-06 2022-06-28 シーエーブイエイチ エルエルシー Intelligent road infrastructure system (iris): system and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008074275A (en) * 2006-09-21 2008-04-03 Aisin Aw Co Ltd Operation assistant device, operation assistant system and operation assistant method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008074275A (en) * 2006-09-21 2008-04-03 Aisin Aw Co Ltd Operation assistant device, operation assistant system and operation assistant method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3348477A1 (en) * 2017-01-13 2018-07-18 MAN Truck & Bus AG Motor vehicle with start and landing device for a unmanned aerial vehicle
WO2018138882A1 (en) * 2017-01-27 2018-08-02 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Flying vehicle, operation control method, operation control system, program, and storage medium
JPWO2018138882A1 (en) * 2017-01-27 2019-11-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Aircraft, motion control method, motion control system, program, and recording medium
JP2018181116A (en) * 2017-04-18 2018-11-15 株式会社自律制御システム研究所 Unmanned aircraft, position estimation system, flight control system, position estimation method, control method, and program
JP2019114038A (en) * 2017-12-22 2019-07-11 日本コンピューターテクノス株式会社 Aircraft, server device, environment information acquisition method, environment information storage method, and program
JP2022095771A (en) * 2018-02-06 2022-06-28 シーエーブイエイチ エルエルシー Intelligent road infrastructure system (iris): system and method
JP7339635B2 (en) 2018-02-06 2023-09-06 シーエーブイエイチ エルエルシー Intelligent Road Infrastructure Systems (IRIS): systems and methods
KR101957958B1 (en) 2018-08-28 2019-03-14 주식회사 에이엠 특장 Safety apparatus of a trash truck using a drone
EP3930316A4 (en) * 2019-03-27 2022-04-20 Sony Group Corporation Information processing device, method, and program
JP2020180786A (en) * 2019-04-23 2020-11-05 川崎重工業株式会社 Movement support program, movement support system and movement support method
JP7240239B2 (en) 2019-04-23 2023-03-15 カワサキモータース株式会社 MOBILITY ASSISTANCE PROGRAM, MOBILITY ASSISTANCE SYSTEM AND MOBILITY ASSISTANCE METHOD

Similar Documents

Publication Publication Date Title
JP2017011614A (en) Driving support control device
JP6893140B2 (en) Control devices, control methods, control programs and control systems
US9849832B2 (en) Information presentation system
EP3299238B1 (en) Determining and displaying auto drive lanes in an autonomous vehicle
JP2010250478A (en) Driving support device
CN111386217A (en) Techniques for switching between manual and autonomous control of a movable object
JP5837032B2 (en) Aircraft that can travel on the ground
US20190193738A1 (en) Vehicle and Control Method Thereof
IL275174B1 (en) Methods and systems for sun-aware vehicle routing
US10558218B2 (en) Vehicle surroundings monitoring apparatus, monitoring system, remote monitoring apparatus, and monitoring method
JP2017007603A (en) Operation support controlling apparatus
JP7140037B2 (en) Vehicle remote indication system
EP3532342B1 (en) Method and system for adjusting a virtual camera&#39;s orientation when a vehicle is making a turn
CN113261274B (en) Image processing method and related terminal device
US11636762B2 (en) Image display device
US20210109515A1 (en) Remote autonomous driving vehicle and vehicle remote instruction system
KR20190107279A (en) Electronic device for vehicle and method for operating the same
KR20210104185A (en) Vehicle electronic device and operating method of vehicle electronic device
JP2017021755A (en) Vehicular operation support apparatus
JP2017056903A (en) Control system, control method and control program for unmanned flight body
JP2017010445A (en) Driving support control device
WO2023102911A1 (en) Data collection method, data presentation method, data processing method, aircraft landing method, data presentation system and storage medium
JP5813250B2 (en) Display device, control method, program, and storage medium
JP6547446B2 (en) Driver assistance control device
EP4202587A1 (en) Methods and systems for providing incremental remote assistance to an autonomous vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190702