JP7350500B2 - Display method of images for remote control and remote control device - Google Patents

Display method of images for remote control and remote control device Download PDF

Info

Publication number
JP7350500B2
JP7350500B2 JP2019062484A JP2019062484A JP7350500B2 JP 7350500 B2 JP7350500 B2 JP 7350500B2 JP 2019062484 A JP2019062484 A JP 2019062484A JP 2019062484 A JP2019062484 A JP 2019062484A JP 7350500 B2 JP7350500 B2 JP 7350500B2
Authority
JP
Japan
Prior art keywords
vehicle
image
remote control
screen
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019062484A
Other languages
Japanese (ja)
Other versions
JP2020161039A (en
Inventor
俊助 望月
政康 鈴木
真樹 渡邉
大介 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019062484A priority Critical patent/JP7350500B2/en
Publication of JP2020161039A publication Critical patent/JP2020161039A/en
Application granted granted Critical
Publication of JP7350500B2 publication Critical patent/JP7350500B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両の遠隔操作に用いられる画像の表示方法と、遠隔操作用画像を表示する遠隔操作装置と、に関するものである。 The present invention relates to a method for displaying images used for remote control of a vehicle, and a remote control device that displays images for remote control.

遠隔操作の対象となる車両から、車両の前方と、左方及び右方とを撮像した画像を、無線通信を介して取得し、これらの画像を表示装置に表示して、オペレータが表示された画像を見ながら車両を遠隔操作できるようにした遠隔操作装置が知られている(特許文献1)。 From the vehicle to be remotely controlled, images of the front, left and right sides of the vehicle are acquired via wireless communication, and these images are displayed on a display device for the operator to see. A remote control device that allows a vehicle to be remotely controlled while viewing an image is known (Patent Document 1).

特開2018-180771号公報Japanese Patent Application Publication No. 2018-180771

従来の遠隔操作装置では、一人のオペレータが複数種類の画像を見ながら遠隔操作を行なうため、画像確認に要する負荷が大きくなる場合があった。 In conventional remote control devices, one operator performs remote control while viewing a plurality of types of images, which may result in a heavy load required for image confirmation.

本発明が解決しようとする課題は、オペレータによる画像の確認の負荷が低減可能な遠隔操作用画像の表示方法と、遠隔操作装置とを提供することである。 The problem to be solved by the present invention is to provide a remote control image display method and a remote control device that can reduce the burden of image confirmation by an operator.

本発明は、自律走行制御機能を備えた車両から、車両の周囲を撮像した周囲映像を取得し、取得した周囲映像を、車両の遠隔操作用画像として表示し、車両の状態に応じて、遠隔操作用画像の所定領域を強調表示する場合に、車両から周囲の複数方向を撮像した複数種類の方向画像を含み、車両の状態に応じて、重要度が高い方向画像の全体を強調表示し、車両が車線内を走行している場合には、方向画像として、車両の前方画像、左側画像及び右側画像を強調表示し、車両が走行中の車線から右側車線へ移動する場合には、車両の前方画像、右側画像及び右後方画像を強調表示し、車両が走行中の車線から左側車線へ移動する場合には、車両の前方画像、左側画像及び左後方画像を強調表示することにより、上記課題を解決する。 The present invention acquires an image of the surroundings of the vehicle from a vehicle equipped with an autonomous driving control function, displays the acquired surrounding image as an image for remote control of the vehicle, and remotely controls the vehicle according to the state of the vehicle. When highlighting a predetermined area of the operation image, including multiple types of direction images taken from the vehicle in multiple directions around the vehicle, highlighting the entire direction image with high importance depending on the state of the vehicle, When the vehicle is traveling within the lane, the front image, left side image, and right side image of the vehicle are highlighted as direction images, and when the vehicle moves from the lane in which it is traveling to the right lane, the vehicle's direction image is highlighted. The front image, right side image, and right rear image are highlighted, and when the vehicle moves from the lane in which it is traveling to the left lane, the above image is highlighted by highlighting the front image, left side image, and left rear image of the vehicle. Solve problems.

本発明によれば、遠隔操作装置のオペレータは、車両の遠隔操作を行うにあたり、遠隔操作用画像の強調表示された所定領域に注目すればよいので、オペレータによる画像の確認の負荷を低減することができる。 According to the present invention, the operator of the remote control device only needs to focus on a highlighted predetermined area of the remote control image when remotely controlling the vehicle, thereby reducing the burden of image confirmation by the operator. I can do it.

本発明に係る遠隔操作用画像の表示方法及び遠隔操作装置を適用した無人運転システムの構成の一例を示すブロック図である。1 is a block diagram showing an example of the configuration of an unmanned driving system to which a remote control image display method and remote control device according to the present invention are applied. 車両及び遠隔操作装置の機能的な構成を示すブロック図である。FIG. 2 is a block diagram showing the functional configuration of a vehicle and a remote control device. 車両に設けられたカメラ、レーダ装置及びライダー装置の位置を示す車両の上面図である。FIG. 2 is a top view of the vehicle showing the positions of a camera, a radar device, and a lidar device provided in the vehicle. 図2の表示制御部によって表示部に表示される操作画面を示す図である。3 is a diagram showing an operation screen displayed on a display unit by the display control unit of FIG. 2. FIG. 図4の俯瞰画面PVに表示される画像の一例であって、左側通行の片側1車線道路(上下2車線道路)の衛星画像である。This is an example of an image displayed on the bird's-eye view screen PV in FIG. 4, and is a satellite image of a one-lane road (two lanes up and down) with left-hand traffic. 図5に示す車両V0の左側画面LV、前方画面FV、右側画面RV、左後方画面LBV、後方画面BV及び右後方画面RBVをそれぞれ示す図である。6 is a diagram showing a left screen LV, a front screen FV, a right screen RV, a left rear screen LBV, a rear screen BV, and a right rear screen RBV of the vehicle V0 shown in FIG. 5, respectively. 図5及び図6に示す車両V0の回避経路を示す俯瞰画面PVである。7 is an overhead view screen PV showing the avoidance route of the vehicle V0 shown in FIGS. 5 and 6. FIG. 通常の走行を行っている場合において、遠隔操作装置の表示部に表示される操作画面を示す図である。FIG. 6 is a diagram showing an operation screen displayed on the display section of the remote control device when the vehicle is traveling normally. 車両V0が片側1車線道路を走行中に、前方に停車車両V1が停車しているため、停車車両V1の後ろに停車した場合に、遠隔操作により停車車両V1を迂回して走行を再開する状況を示す図である。A situation in which a vehicle V0 is traveling on a road with one lane in each direction and stops behind the stopped vehicle V1 because a stopped vehicle V1 is parked in front of it, and then resumes driving by bypassing the stopped vehicle V1 by remote control. FIG. 図9に示す状況において、画像強調部により、遠隔操作装置の表示部に表示される左側画像、前方画像、右側画像、左後方画像、後方画像及び右後方画像の一例を示す図である。10 is a diagram showing an example of a left side image, a front image, a right side image, a left rear image, a rear image, and a right rear image displayed on the display unit of the remote control device by the image enhancement unit in the situation shown in FIG. 9. FIG. 図9に示す状況において、物体強調部により、遠隔操作装置の表示部に表示される左側画像、前方画像、右側画像、左後方画像、後方画像及び右後方画像の一例を示す図である。10 is a diagram showing an example of a left side image, a front image, a right side image, a left rear image, a rear image, and a right rear image displayed on the display unit of the remote control device by the object emphasis unit in the situation shown in FIG. 9. FIG. 図9に示す状況において、解析情報強調部により、遠隔操作装置の表示部に表示される左側画像、前方画像、右側画像、左後方画像、後方画像及び右後方画像の一例を示す図である。10 is a diagram showing an example of a left side image, a front image, a right side image, a left rear image, a rear image, and a right rear image displayed on the display unit of the remote control device by the analysis information emphasis unit in the situation shown in FIG. 9. FIG. 無人運転システムの制御手順を示すフローチャートである。It is a flowchart which shows the control procedure of an unmanned driving system. 図13のステップS7のサブルーチンの処理を示すフローチャートである。14 is a flowchart showing the subroutine processing of step S7 in FIG. 13.

以下、本発明の実施形態を図面に基づいて説明する。図1は、本実施形態に係る無人運転システム1の構成の一例を示すブロック図である。本実施形態に係る無人運転システム1は、本発明に係る遠隔操作用画像の表示方法、及び遠隔操作装置を実施する一実施の形態でもある。 Embodiments of the present invention will be described below based on the drawings. FIG. 1 is a block diagram showing an example of the configuration of an unmanned driving system 1 according to the present embodiment. The unmanned driving system 1 according to the present embodiment is also an embodiment for implementing a remote control image display method and a remote control device according to the present invention.

本実施形態に係る無人運転システム1は、自律走行制御機能を備え、自律走行制御により、又は外部からの遠隔操作に基づく自律走行制御により走行する車両V0を、タクシー、乗合自動車その他の商用車として運用するシステムである。本実施形態に係る無人運転システム1は、複数台の車両V0と、複数台の遠隔操作装置3と、車両V0と遠隔操作装置3とを相互に通信可能に接続するネットワークNW1と、を備える。 The unmanned driving system 1 according to the present embodiment has an autonomous driving control function and operates a vehicle V0, which is equipped with an autonomous driving control function and runs under autonomous driving control or under autonomous driving control based on remote control from the outside, as a taxi, a passenger car, or other commercial vehicle. It is a system to be operated. The unmanned driving system 1 according to the present embodiment includes a plurality of vehicles V0, a plurality of remote control devices 3, and a network NW1 that connects the vehicle V0 and the remote control devices 3 so as to be able to communicate with each other.

遠隔操作装置3は、車両V0が自律走行制御による走行を行えなくなった場合に、車両V0を遠隔操作する。複数台の遠隔操作装置3は、通信設備を備えた車両管理センタ4に設置されている。車両管理センタ4には、遠隔操作装置3とともにLAN等の構内ネットワークNW2に接続された管理サーバ5が設置されている。管理サーバ5は、ネットワークNW1を通じて複数台の車両V0と接続し、構内ネットワークNW2を通じて複数台の遠隔操作装置3と接続して、複数台の車両V0及び遠隔操作装置3を管理する。 The remote control device 3 remotely controls the vehicle V0 when the vehicle V0 is no longer able to travel under autonomous driving control. The plurality of remote control devices 3 are installed in a vehicle management center 4 equipped with communication equipment. In the vehicle management center 4, a management server 5 connected to a local network NW2 such as a LAN together with a remote control device 3 is installed. The management server 5 connects to the plurality of vehicles V0 through the network NW1, connects to the plurality of remote control devices 3 through the local network NW2, and manages the plurality of vehicles V0 and the remote control devices 3.

ネットワークNW1には、例えば、インターネット等が用いられる。また、各車両V0のネットワークNW1への接続には、広いエリアで普及し、かつ、比較的高速な通信速度が得られる携帯電話通信網等が利用される。なお、無人運転システム1が稼働される所定エリア内に無線通信用の複数のアクセスポイントを設置し、無人運転システム専用の無線通信網を形成して、この無線通信網により車両V0と遠隔操作装置3とを接続してもよい。 For example, the Internet is used as the network NW1. Further, to connect each vehicle V0 to the network NW1, a mobile phone communication network or the like that is widespread in a wide area and can provide a relatively high communication speed is used. In addition, a plurality of access points for wireless communication are installed in a predetermined area where the unmanned driving system 1 is operated, and a wireless communication network dedicated to the unmanned driving system is formed. 3 may be connected.

本実施形態に係る無人運転システム1は、例えば、複数台の車両V0を、予め所定の乗車開始位置に配置している。乗客Pは、例えば、スマートフォン等の携帯端末Tにインストールされた専用アプリケーションを操作し、顧客情報や乗車開始時時刻、目的地等の情報を入力して乗車予約を行なう。携帯端末Tの専用アプリケーションに入力された情報は、予約情報として管理サーバ5に送信される。 In the unmanned driving system 1 according to the present embodiment, for example, a plurality of vehicles V0 are arranged in advance at predetermined boarding start positions. For example, the passenger P operates a dedicated application installed on a mobile terminal T such as a smartphone, enters information such as customer information, ride start time, destination, etc., and makes a reservation for the ride. The information input into the dedicated application of the mobile terminal T is transmitted to the management server 5 as reservation information.

管理サーバ5は、受信した予約情報に基づいて、乗客Pを乗せて走行する車両V0(以下、予約車両ともいう)と、乗車開始時刻と、目的地までの走行順路とを設定する。また、管理サーバ5は、乗客Pの携帯端末Tに予約確認情報として、設定した予約車両V0の車両番号と、乗車開始時刻と、目的地と、走行順路とを送信する。さらに、管理サーバ5は、予約車両V0に運行情報として、乗客Pの顧客情報と、乗車開始時刻と、目的地と、走行順路とを送信する。予約車両V0は、走行順路内の道路で車線をはみ出さずに走行するための走行経路を設定し、自律走行制御により交通法規を遵守しながら走行経路を自律走行することにより、乗車した乗客Pを目的地まで送り届ける。 Based on the received reservation information, the management server 5 sets a vehicle V0 (hereinafter also referred to as a reserved vehicle) that carries the passenger P, a boarding start time, and a route to the destination. In addition, the management server 5 transmits the vehicle number of the set reserved vehicle V0, boarding start time, destination, and travel route as reservation confirmation information to the passenger P's mobile terminal T. Furthermore, the management server 5 transmits the customer information of the passenger P, the boarding start time, the destination, and the route of travel as operation information to the reserved vehicle V0. The reserved vehicle V0 sets a travel route for driving on the road within the driving route without straying from the lane, and uses autonomous driving control to autonomously travel along the travel route while observing traffic regulations. to the destination.

また、車両V0は、走行順路に沿って設定された走行経路を自律走行中に、進行方向に存在する停車車両や工事現場等の路上の障害物により、車線からはみ出さずに自律走行制御が行えなくなった場合には、一旦停車し、管理サーバ5に支援要求信号を送信する。車両V0から支援要求信号を受信した管理サーバ5は、複数台の遠隔操作装置3のうちから車両V0を遠隔操作する遠隔操作装置3を決定し、決定した遠隔操作装置3に支援要請を行い、支援要請を受け付けた遠隔操作装置3と車両V0とを通信可能に接続する。遠隔操作装置3は、車両V0が再び自律走行制御を行えるように、路上の障害物を回避して走行するための走行経路である回避経路を設定し、車両V0に送信する。車両V0は、自律走行制御により回避経路を走行して路上の障害物を回避し、再び走行順路に沿って設定された走行経路を自律走行制御により走行する。 In addition, while the vehicle V0 is autonomously traveling along the travel route set along the driving route, the autonomous driving control is prevented from moving out of the lane due to obstacles on the road such as parked vehicles or construction sites in the direction of travel. If the vehicle is unable to do so, the vehicle temporarily stops and sends a support request signal to the management server 5. The management server 5, which has received the support request signal from the vehicle V0, determines the remote control device 3 that remotely controls the vehicle V0 from among the plurality of remote control devices 3, requests support from the determined remote control device 3, and The remote control device 3 that has received the support request and the vehicle V0 are communicably connected. The remote control device 3 sets an avoidance route, which is a travel route for avoiding obstacles on the road, and transmits it to the vehicle V0 so that the vehicle V0 can perform autonomous driving control again. The vehicle V0 travels on an avoidance route under autonomous driving control to avoid obstacles on the road, and then travels again on a travel route set along the driving route under autonomous driving control.

図2は、車両V0と遠隔操作装置3の機能的な構成を示すブロック図である。なお、図2では、図面の煩雑化を防ぐため、ネットワークNW1の図示は省略している。本実施形態に係る車両V0は、通信部21と、センサ22と、障害物認識部23と、経路設定部24と、走行制御部25と、車両情報取得部26と、を備える。 FIG. 2 is a block diagram showing the functional configuration of the vehicle V0 and the remote control device 3. As shown in FIG. Note that in FIG. 2, illustration of the network NW1 is omitted to avoid complication of the drawing. The vehicle V0 according to the present embodiment includes a communication section 21, a sensor 22, an obstacle recognition section 23, a route setting section 24, a travel control section 25, and a vehicle information acquisition section 26.

車両V0を構成する各部のうち、障害物認識部23と、経路設定部24と、走行制御部25と、車両情報取得部26とは、一又は複数のコンピュータ及び当該コンピュータにインストールされたソフトウェアにより構成されている。コンピュータは、上述した各部を機能させるためのプログラムを格納したROMと、このROMに格納されたプログラムを実行するCPUと、アクセス可能な記憶装置として機能するRAMとから構成される。なお、CPUに代えて又はこれとともに、MPU、DSP、ASIC、FPGAなどを用いることができる。また、各部を構成するコンピュータは、通信部21と、センサ22とに対し、相互に情報の送受信を行うために、たとえばCAN(Controller Area Network)その他の車載LANによって接続されている。 Among the parts that make up the vehicle V0, the obstacle recognition part 23, the route setting part 24, the travel control part 25, and the vehicle information acquisition part 26 are operated by one or more computers and software installed on the computers. It is configured. A computer is comprised of a ROM that stores programs for making the above-mentioned parts function, a CPU that executes the programs stored in the ROM, and a RAM that functions as an accessible storage device. Note that an MPU, DSP, ASIC, FPGA, etc. can be used in place of or in addition to the CPU. Further, the computers constituting each section are connected to the communication section 21 and the sensor 22 by, for example, a CAN (Controller Area Network) or other in-vehicle LAN in order to mutually transmit and receive information.

通信部21は、ネットワークNW1を介して車両管理センタ4と通信を行う。具体的には、通信部21は、管理サーバ5から運行情報として送信された乗客Pの顧客情報と、乗車開始時刻と、目的地と、走行順路とを受信する。また、通信部21は、所定時間毎又は所定の走行距離毎に、車両V0の現在位置情報(例えば、緯度、経度等)と、車両V0の前面が向いている方向(以下、車両方向情報ともいう)と、速度情報とを管理サーバ5に送信する。管理サーバ5は、受信した現在位置情報、車両方向情報及び速度情報に基づいて、各車両V0の走行状況を管理する。さらに、通信部21は、車両V0が自律走行制御による走行を行えなくなった場合に、管理サーバ5に支援要求信号を送信する。また、通信部21は、車両V0を遠隔操作する遠隔操作装置3が決定した場合、その遠隔操作装置3に、車両V0の遠隔操作を行うために必要な各種車両情報を送信する。 The communication unit 21 communicates with the vehicle management center 4 via the network NW1. Specifically, the communication unit 21 receives the customer information of the passenger P, the boarding start time, the destination, and the travel route transmitted from the management server 5 as operation information. The communication unit 21 also transmits the current position information (for example, latitude, longitude, etc.) of the vehicle V0 and the direction in which the front of the vehicle V0 is facing (hereinafter also referred to as vehicle direction information) at predetermined time intervals or predetermined travel distances. ) and speed information to the management server 5. The management server 5 manages the running status of each vehicle V0 based on the received current position information, vehicle direction information, and speed information. Furthermore, the communication unit 21 transmits an assistance request signal to the management server 5 when the vehicle V0 is no longer able to travel under autonomous driving control. Further, when the remote control device 3 that remotely controls the vehicle V0 is determined, the communication unit 21 transmits various vehicle information necessary for remotely controlling the vehicle V0 to the remote control device 3.

センサ22は、車両V0の周囲の状況を検出する。センサ22は、例えば、カメラと、障害物センサとを備える。カメラは、CCDやCMOS等のイメージセンサにより車両V0の周囲映像を撮像し、周囲映像の画像データを生成する撮像装置である。センサ22を構成するカメラは、複数のカメラからなり、例えば、車両V0の上面図である図3に示すように、車両V0の前方を撮像する前方カメラ221Fと、車両V0の後方を撮像する後方カメラ221Bと、車両V0の左右の側方をそれぞれ撮像する左側カメラ221L及び右側カメラ221Rと、車両V0の左右の後方をそれぞれ撮像する左後方カメラ221LB及び右後方カメラ221RBと、を含む。 Sensor 22 detects the surrounding situation of vehicle V0. The sensor 22 includes, for example, a camera and an obstacle sensor. The camera is an imaging device that captures an image of the surroundings of the vehicle V0 using an image sensor such as a CCD or CMOS, and generates image data of the surroundings image. The camera constituting the sensor 22 is composed of a plurality of cameras, and for example, as shown in FIG. 3 which is a top view of the vehicle V0, a front camera 221F that images the front of the vehicle V0, and a rear camera 221F that images the rear of the vehicle V0. It includes a camera 221B, a left camera 221L and a right camera 221R that take images of the left and right sides of the vehicle V0, respectively, and a left rear camera 221LB and a right rear camera 221RB that take images of the left and right rear of the vehicle V0, respectively.

センサ22を構成する障害物センサは、車両V0の周囲の障害物を検出する。障害物センサには、レーダ装置や、ライダー装置等の各種センサが、単独であるいは適宜組み合わせて利用される。図3に示すように、レーダ装置222aは、例えば、車両V0の前部に設置されており、ミリ波や超音波を車両V0の前方に照射して反射波を受信することにより、車両V0の周囲に存在する障害物(物体)までの距離や相対速度等を検出する。ライダー装置222b、222cは、例えば、車両V0の前部及び後部に設置されており、レーザ光を車両V0の周囲に照射して反射光を受光し、受光した反射光を三次元にマッピングすることにより、車両V0の周囲に存在する物体までの距離や、物体の形状等を検出する。 The obstacle sensor forming the sensor 22 detects obstacles around the vehicle V0. As the obstacle sensor, various sensors such as radar devices and lidar devices are used alone or in appropriate combinations. As shown in FIG. 3, the radar device 222a is installed, for example, at the front of the vehicle V0, and radiates millimeter waves or ultrasonic waves to the front of the vehicle V0 and receives reflected waves. Detects the distance and relative speed to surrounding obstacles (objects). The lidar devices 222b and 222c are installed, for example, at the front and rear of the vehicle V0, emit laser light around the vehicle V0, receive reflected light, and three-dimensionally map the received reflected light. As a result, the distance to objects existing around the vehicle V0, the shape of the objects, etc. are detected.

障害物認識部23は、センサ22のカメラで撮像された画像データと、障害物センサの検出結果である障害物センサ情報とを解析して、車両V0の周囲に存在する、自律走行に影響を及ぼす物体を認識する。障害物認識部23により認識される物体としては、例えば、歩行者、自転車、バイク及び自動車等の移動物体や、停止車両、工事現場、路上落下物及び路上建造物等の静止物体等である。路上建造物としては、ガードレール、路肩、中央分離帯及び信号機等が含まれる。なお、前方カメラ221Fの画像データは、センターラインや車道外側線等のレーンマークや、停止線、横断歩道等の路面標示の検出にも用いられる。 The obstacle recognition unit 23 analyzes the image data captured by the camera of the sensor 22 and the obstacle sensor information that is the detection result of the obstacle sensor, and identifies objects existing around the vehicle V0 that may affect autonomous driving. Recognize the objects that affect you. Objects recognized by the obstacle recognition unit 23 include, for example, moving objects such as pedestrians, bicycles, motorcycles, and automobiles, stationary objects such as stopped vehicles, construction sites, fallen objects on the road, and structures on the road. Roadside structures include guardrails, road shoulders, median strips, traffic lights, etc. Note that the image data from the front camera 221F is also used to detect lane marks such as center lines and outside lines of the roadway, and road markings such as stop lines and crosswalks.

経路設定部24は、車両管理センタ4から受信した走行順路に沿って車両V0が実際に走行する経路である走行経路を設定する。経路設定部24は、詳しくは図示しないが、位置検出部と、地図データベースとを備える。 The route setting unit 24 sets a travel route along which the vehicle V0 actually travels along the travel route received from the vehicle management center 4. Although not shown in detail, the route setting section 24 includes a position detection section and a map database.

位置検出部は、GPSユニットと、ジャイロセンサと、車速センサ等を備える。位置検出部は、GPSユニットにより複数のGPS衛星から送信される電波を検出し、車両V0の位置情報を周期的に取得するとともに、取得した車両V0の位置情報と、ジャイロセンサから取得した角度変化情報と、車速センサから取得した速度情報とに基づいて、車両V0の現在位置情報を生成する。 The position detection section includes a GPS unit, a gyro sensor, a vehicle speed sensor, and the like. The position detection unit detects radio waves transmitted from multiple GPS satellites by the GPS unit, periodically acquires position information of the vehicle V0, and detects the acquired position information of the vehicle V0 and the angle change acquired from the gyro sensor. The current position information of the vehicle V0 is generated based on the information and the speed information acquired from the vehicle speed sensor.

地図データベースは、カーナビゲーション装置等で用いられている地図情報と同様のものであり、各種施設や特定の地点の位置情報とともに、道路に関する情報が記録されている。道路に関する情報としては、道路種別、道路幅、車線数、交差点や信号機の位置、右折・左折専用車線の有無とその専用車線の数、制限速度、合流地点、分岐地点、料金所、車線数の減少位置、サービスエリア(SA)/パーキングエリア(PA)などの位置情報等が記録されている。 The map database is similar to the map information used in car navigation devices and the like, and records information on roads as well as location information on various facilities and specific points. Road-related information includes road type, road width, number of lanes, location of intersections and traffic lights, existence and number of right-turn/left-turn lanes, speed limits, merging points, branching points, toll booths, and number of lanes. Location information such as reduced location, service area (SA)/parking area (PA), etc. are recorded.

経路設定部24は、位置検出部により生成された車両V0の現在位置情報と、地図データベースと、障害物認識部23による障害物の認識結果とに基づいて、車両V0が走行する走行順路の道路の幅を特定し、この道路の幅の中央に車両V0の走行経路を設定することにより、車両V0が走行順路の車線からはみ出さずに走行可能な走行経路を設定する。経路設定部24は、本発明の経路設定部に相当する。 The route setting unit 24 determines the road of the driving route on which the vehicle V0 will travel, based on the current position information of the vehicle V0 generated by the position detection unit, the map database, and the recognition results of obstacles by the obstacle recognition unit 23. By specifying the width of the road and setting the travel route of the vehicle V0 in the center of the width of the road, a travel route that allows the vehicle V0 to travel without protruding from the lane of the route is set. The route setting unit 24 corresponds to the route setting unit of the present invention.

走行制御部25は、車両V0の自律走行制御機能を司る機能部であり、車両V0の各部を制御して、車両V0を経路設定部24により設定された走行経路に沿って走行させる。より具体的には、走行制御部25は、例えば、エンジンやモータ等の駆動機構、変速機構及び制動機構等を制御して車両V0の速度を調節するとともに、車両V0の前後方向に沿って設定された車両中心線VL(図3参照)が走行経路上を移動するように操舵機構を制御する。また、走行制御部25は、車両V0が走行経路に沿って右折又は左折をする場合には、駆動機構、変速機構及び制動機構を制御して速度を調節するとともに、操舵機構及び方向指示器等を制御して、車両V0を右折又は左折させる。 The driving control unit 25 is a functional unit that controls the autonomous driving control function of the vehicle V0, and controls each part of the vehicle V0 to cause the vehicle V0 to travel along the driving route set by the route setting unit 24. More specifically, the traveling control unit 25 controls, for example, a drive mechanism such as an engine or a motor, a transmission mechanism, a braking mechanism, etc. to adjust the speed of the vehicle V0, and also adjusts the speed of the vehicle V0 along the longitudinal direction of the vehicle V0. The steering mechanism is controlled so that the vehicle center line VL (see FIG. 3) moved along the travel route. Further, when the vehicle V0 turns right or left along the travel route, the travel control unit 25 controls the drive mechanism, transmission mechanism, and braking mechanism to adjust the speed, and also controls the steering mechanism, direction indicator, etc. to make the vehicle V0 turn right or left.

さらに、走行制御部25は、現在位置情報と、地図データベースと、障害物認識部23の認識結果とに基づいて、車両V0の進行方向に一時停止位置や、赤信号の交差点等が存在することが判明した場合には、駆動機構、変速機構及び制動機構等を制御し、車両V0の速度を低下させて停車させる。また、走行制御部25は、障害物認識部23により、車両V0の進行方向に、自律走行制御の支障となる停止車両や工事現場、歩行者等の障害物が存在することが判明した場合には、駆動機構、変速機構及び制動機構等を制御して車両V0の速度を低下させ、必要に応じて車両V0を停止させる。なお、本実施形態において、走行制御部25が備える自律走行制御機能は、特に限定されるものではなく、本発明の出願時における技術を適宜援用できる。 Further, the travel control unit 25 determines whether there is a temporary stop position, an intersection with a red light, etc. in the traveling direction of the vehicle V0 based on the current position information, the map database, and the recognition result of the obstacle recognition unit 23. If this is determined, the drive mechanism, transmission mechanism, braking mechanism, etc. are controlled to reduce the speed of the vehicle V0 and bring it to a stop. In addition, when the obstacle recognition unit 23 determines that there is an obstacle such as a stopped vehicle, a construction site, or a pedestrian in the direction of movement of the vehicle V0, the driving control unit 25 detects the presence of an obstacle such as a stopped vehicle, a construction site, a pedestrian, etc. that interferes with the autonomous driving control. The control unit controls the drive mechanism, transmission mechanism, braking mechanism, etc. to reduce the speed of the vehicle V0 and, if necessary, stops the vehicle V0. In addition, in this embodiment, the autonomous driving control function provided in the driving control unit 25 is not particularly limited, and the technology at the time of filing of the present invention can be used as appropriate.

また、走行制御部25は、車両V0が自律走行制御による走行が行えなくなって停車させた場合には、通信部21により、車両管理センタ4の管理サーバ5に支援要求信号を送信する。なお、支援要求信号は、たんに支援を求めるだけの信号であってもよいし、支援要請の内容を含む信号であってもよい。支援要求信号に、支援要請の内容を含めて送信すれば、管理サーバ5では、その支援要請の内容に応じて車両V0を遠隔操作する遠隔操作装置3の決定に利用することができる。また、支援要求信号が複数の車両V0から送信されている場合には、支援要求信号の支援要請の内容に応じて、支援を開始する車両V0の優先順位の決定等に利用することができる。 Furthermore, when the vehicle V0 is stopped because it is no longer able to travel under autonomous travel control, the travel control unit 25 transmits an assistance request signal to the management server 5 of the vehicle management center 4 through the communication unit 21. Note that the support request signal may be a signal that simply requests support, or may be a signal that includes the content of the support request. If the support request signal includes the content of the support request and is transmitted, the management server 5 can use the content of the support request to determine the remote control device 3 that remotely controls the vehicle V0. Further, when the support request signal is transmitted from a plurality of vehicles V0, it can be used to determine the priority of the vehicle V0 to start support, etc., depending on the content of the support request in the support request signal.

車両情報取得部26は、車両V0を遠隔操作する遠隔操作装置3に送信する各種車両情報を取得する。車両情報取得部26により取得される車両情報としては、例えば、センサ22の前方カメラ221F、後方カメラ221B、左側カメラ221L、右側カメラ221R、左後方カメラ221LB及び右後方カメラ221RBにより撮像された周囲映像の画像データと、レーダ装置222a及びライダー装置222b、222cにより検出された障害物に関する障害物センサ情報と、車両V0の現在位置情報と、車両方向情報等が含まれる。 The vehicle information acquisition unit 26 acquires various vehicle information to be transmitted to the remote control device 3 that remotely controls the vehicle V0. The vehicle information acquired by the vehicle information acquisition unit 26 includes, for example, surrounding images captured by the front camera 221F, rear camera 221B, left camera 221L, right camera 221R, left rear camera 221LB, and right rear camera 221RB of the sensor 22. image data, obstacle sensor information regarding obstacles detected by the radar device 222a and lidar devices 222b, 222c, current position information of the vehicle V0, vehicle direction information, etc. are included.

次に、遠隔操作装置3について説明する。遠隔操作装置3は、図2に示すように、通信部31と、入力部32と、表示部33と、表示制御部34と、遠隔制御部35と、を備える。遠隔操作装置3の表示制御部34及び遠隔制御部35は、一又は複数のコンピュータ及び当該コンピュータにインストールされたソフトウェアにより構成されている。コンピュータは、上述した各部を機能させるためのプログラムを格納したROMと、このROMに格納されたプログラムを実行するCPUと、アクセス可能な記憶装置として機能するRAMとから構成される。なお、CPUに代えて又はこれとともに、MPU、DSP、ASIC、FPGAなどを用いることができる。また、各部を構成するコンピュータは、通信部31と、入力部32と、表示部33とに対し、相互に情報の送受信を行うように接続されている。 Next, the remote control device 3 will be explained. As shown in FIG. 2, the remote control device 3 includes a communication section 31, an input section 32, a display section 33, a display control section 34, and a remote control section 35. The display control unit 34 and remote control unit 35 of the remote control device 3 are configured by one or more computers and software installed on the computers. A computer is comprised of a ROM that stores programs for making the above-mentioned parts function, a CPU that executes the programs stored in the ROM, and a RAM that functions as an accessible storage device. Note that an MPU, DSP, ASIC, FPGA, etc. can be used in place of or in addition to the CPU. Further, the computers constituting each section are connected to a communication section 31, an input section 32, and a display section 33 so as to mutually transmit and receive information.

通信部31は、ネットワークNW1を介して車両V0と通信を行う。具体的には、通信部31は、管理サーバ5から要請された車両V0の遠隔操作を行う場合に、当該車両V0から遠隔操作に必要な各種の走行情報として、前方カメラ221F、後方カメラ221B、左側カメラ221L、右側カメラ221R、左後方カメラ221LB及び右後方カメラ221RBにより撮像された周囲映像の画像データと、レーダ装置222a及びライダー装置222b、222cにより検出された障害物に関する障害物センサ情報と、車両V0の現在位置情報及び車両方向情報と、を受信する。また、通信部31は、例えば、車両V0が路上の障害物を回避して自律走行制御を継続できるようにするために、回避経路等の遠隔制御情報を車両V0に送信する。すなわち、通信部31は、本発明の映像取得手段に相当する。 Communication unit 31 communicates with vehicle V0 via network NW1. Specifically, when performing remote control of the vehicle V0 requested by the management server 5, the communication unit 31 sends the front camera 221F, rear camera 221B, Image data of surrounding images captured by the left camera 221L, right camera 221R, left rear camera 221LB, and right rear camera 221RB, and obstacle sensor information regarding obstacles detected by the radar device 222a and lidar devices 222b and 222c, Current position information and vehicle direction information of vehicle V0 are received. Further, the communication unit 31 transmits remote control information such as an avoidance route to the vehicle V0, for example, in order to enable the vehicle V0 to avoid obstacles on the road and continue autonomous driving control. That is, the communication section 31 corresponds to the video acquisition means of the present invention.

入力部32は、遠隔操作装置3のオペレータにより操作される機器であり、車両V0の回避経路の生成などの各種操作を行うために用いられる。入力部32としては、例えば、ディスプレー上に配置されるタッチパネルやキーボード、マウスやジョイスティックなどのオペレータの手動操作を検知する装置や、マイク及び音声認識部を備えた音声入力装置等が用いられる。 The input unit 32 is a device operated by the operator of the remote control device 3, and is used to perform various operations such as generating an avoidance route for the vehicle V0. As the input unit 32, for example, a touch panel arranged on a display, a keyboard, a device for detecting an operator's manual operation such as a mouse or a joystick, a voice input device equipped with a microphone and a voice recognition unit, etc. are used.

表示部33は、液晶ディスプレー等の表示装置であり、車両V0を遠隔操作するための操作画面等が表示される。表示制御部34は、表示部33に操作画面を表示させる。表示部33及び表示制御部34は、本発明の表示手段及び表示制御手段に相当する。 The display unit 33 is a display device such as a liquid crystal display, and displays an operation screen for remotely controlling the vehicle V0. The display control unit 34 causes the display unit 33 to display an operation screen. The display section 33 and the display control section 34 correspond to display means and display control means of the present invention.

図4は、表示制御部34によって表示部33に表示される操作画面を示している。この操作画面は、俯瞰画面PVと、左側画面LVと、前方画面FVと、右側画面RVと、左後方画面LBVと、後方画面BVと、右後方画面RBVと、を備える。これらの俯瞰画面PVと、左側画面LVと、前方画面FVと、右側画面RVと、左後方画面LBVと、後方画面BVと、右後方画面RBVとに表示される画像は、車両V0から周囲の複数方向を撮像した複数種類の方向画像に相当する。 FIG. 4 shows an operation screen displayed on the display unit 33 by the display control unit 34. This operation screen includes an overhead screen PV, a left side screen LV, a front screen FV, a right side screen RV, a left rear screen LBV, a rear screen BV, and a right rear screen RBV. The images displayed on the bird's-eye view screen PV, left side screen LV, front screen FV, right side screen RV, left rear screen LBV, rear screen BV, and right rear screen RBV are images from the vehicle V0 to the surrounding area. This corresponds to multiple types of directional images captured in multiple directions.

俯瞰画面PVは、例えば、車両V0の現在位置情報に基づいて取得した地図画像又は衛星画像あるいは航空画像に、車両V0の上面画像と、レーダ装置222a及びライダー装置222b、222cにより検出された障害物センサ情報とが重ね合わせて表示される。左側画面LV、前方画面FV、右側画面RV、左後方画面LBV、後方画面BV及び右後方画面RBVには、車両V0から受信した左側カメラ221L、前方カメラ221F、右側カメラ221R、左後方カメラ221LB、後方カメラ221B、及び右後方カメラ221RBの画像データが、それぞれ表示される。 The bird's-eye view screen PV includes, for example, a map image, a satellite image, or an aerial image acquired based on the current position information of the vehicle V0, a top view image of the vehicle V0, and obstacles detected by the radar device 222a and lidar devices 222b and 222c. The sensor information is displayed in an overlapping manner. The left screen LV, front screen FV, right screen RV, left rear screen LBV, rear screen BV, and right rear screen RBV include the left camera 221L, front camera 221F, right camera 221R, left rear camera 221LB, which are received from the vehicle V0. Image data of the rear camera 221B and the right rear camera 221RB are respectively displayed.

例えば、図5に示す俯瞰画面PVは、左側通行の片側1車線道路(上下2車線道路)の衛星画像である。この道路の図中下方から上方へと向かう上り車線L1と、図中上方から下方へと向かう下り車線L2には、それぞれ車両待避所L1s、L2sが設けられている。また、上り車線L1と下り車線L2との間の一部には、ゼブラゾーンZが設けられている。さらに、上り車線L1と下り車線L2との外側には、路肩U1、U2と、歩道J1、J2とがそれぞれ配置されている。また、上り車線L1には、自律走行制御により走行経路に沿って自律走行する車両V0の上面図が表示されている。また、車両V0の前方には、上り車線L1に存在する停車車両V1(図6の前方画面FV参照)を、車両V0のライダー装置222b、222cにより検出した検出結果である障害物センサ情報FIが表示されている。障害物センサ情報FIには、停車車両V1の後部の輪郭のみが表示される。 For example, the bird's-eye view screen PV shown in FIG. 5 is a satellite image of a one-lane road (two lanes up and down) with left-hand traffic. Vehicle shelter areas L1s and L2s are provided in the up lane L1 of this road, which goes from the bottom to the top in the figure, and the down lane L2, which goes from the top to the bottom in the figure, respectively. Further, a zebra zone Z is provided in a part between the up lane L1 and the down lane L2. Furthermore, road shoulders U1 and U2 and sidewalks J1 and J2 are arranged on the outside of the up lane L1 and the down lane L2, respectively. Further, in the up lane L1, a top view of a vehicle V0 autonomously traveling along a travel route under autonomous travel control is displayed. In addition, in front of the vehicle V0, there is obstacle sensor information FI that is the detection result of the lidar devices 222b and 222c of the vehicle V0 detecting a stopped vehicle V1 (see front screen FV in FIG. 6) existing in the up lane L1. Displayed. Only the outline of the rear part of the stopped vehicle V1 is displayed in the obstacle sensor information FI.

図6は、図5に示す車両V0の左側画面LV、前方画面FV、右側画面RV、左後方画面LBV、後方画面BV及び右後方画面RBVを示している。前方画面FVには、前方カメラ221Fによって撮像された停車車両V1の後部が表示されている。なお、左側画面LV、前方画面FV、右側画面RV、左後方画面LBV、後方画面BV及び右後方画面RBVにおいて、ドットでハッチングされている部分は、車両V0のボディを示している。 FIG. 6 shows the left screen LV, front screen FV, right screen RV, left rear screen LBV, rear screen BV, and right rear screen RBV of the vehicle V0 shown in FIG. The rear part of the stopped vehicle V1 imaged by the front camera 221F is displayed on the front screen FV. Note that in the left screen LV, front screen FV, right screen RV, left rear screen LBV, rear screen BV, and right rear screen RBV, the portion hatched with dots indicates the body of the vehicle V0.

遠隔制御部35は、走行順路に沿って設定された走行経路を自律走行制御により走行する車両V0が、停車車両や工事現場等の路上の障害物によって自律走行が行えなくなった場合に、路上の障害物を自律走行制御により回避するための回避経路を設定する。すなわち、遠隔制御部35は、車両V0の経路設定部24とともに、本発明の経路設定部に相当する。回避経路の設定は、入力部32を操作して、表示部33に表示されている俯瞰画面PV上で車両V0の前部から障害物を回避して元の走行経路に戻るまでの回避経路を入力することにより行われる。 The remote control unit 35 is configured to control the vehicle V0 on the road when the vehicle V0, which is traveling under autonomous driving control on a travel route set along the driving route, is unable to autonomously travel due to an obstacle on the road such as a stopped vehicle or a construction site. Set an avoidance route to avoid obstacles using autonomous driving control. That is, the remote control unit 35 corresponds to the route setting unit of the present invention, together with the route setting unit 24 of the vehicle V0. To set the avoidance route, operate the input unit 32 to set the avoidance route from the front of the vehicle V0 to avoid the obstacle and return to the original travel route on the overhead screen PV displayed on the display unit 33. This is done by inputting.

図7は、図5、6に示す車両V0の回避経路を示す俯瞰画面PVである。遠隔操作装置3のオペレータは、車両V0の前部から、停車車両V1を回避するように、車両V0が通過する予定位置である経路ポイントPtを複数設定する。遠隔制御部35は、設定された複数の経路ポイントPtを接続して回避経路Raを生成する。俯瞰画面PVには、設定された複数の経路ポイントPtと、生成された回避経路Raと、回避経路Raに沿って走行する車両V0の移動軌跡Mtとが、衛星画像上に表示される。設定された回避経路Raは、通信部31によって車両V0に送信される。 FIG. 7 is an overhead screen PV showing the avoidance route of the vehicle V0 shown in FIGS. 5 and 6. The operator of the remote control device 3 sets a plurality of route points Pt, which are planned positions for the vehicle V0 to pass, from the front of the vehicle V0 so as to avoid the stopped vehicle V1. The remote control unit 35 connects the plurality of set route points Pt to generate an avoidance route Ra. On the bird's-eye view screen PV, the plurality of set route points Pt, the generated avoidance route Ra, and the movement trajectory Mt of the vehicle V0 traveling along the avoidance route Ra are displayed on the satellite image. The set avoidance route Ra is transmitted to the vehicle V0 by the communication unit 31.

表示制御部34は、画像表示部341と、画像強調部342と、物体検出部343と、物体強調部344と、物体予測部345と、解析情報強調部346と、を備える。画像表示部341は、車両V0から受信した左側カメラ221L、前方カメラ221F、右側カメラ221R、左後方カメラ221LB、後方カメラ221B、及び右後方カメラ221RBの画像データを、表示部33の左側画面LV、前方画面FV、右側画面RV、左後方画面LBV、後方画面BV及び右後方画面RBVにそれぞれ表示する。また、画像表示部341は、車両V0から定期的に受信した左側カメラ221L、前方カメラ221F、右側カメラ221R、左後方カメラ221LB、後方カメラ221B、及び右後方カメラ221RBの画像データに基づいて、表示部33の左側画面LV、前方画面FV、右側画面RV、左後方画面LBV、後方画面BV及び右後方画面RBVを更新する。 The display control unit 34 includes an image display unit 341, an image enhancement unit 342, an object detection unit 343, an object enhancement unit 344, an object prediction unit 345, and an analysis information enhancement unit 346. The image display unit 341 displays the image data of the left camera 221L, front camera 221F, right camera 221R, left rear camera 221LB, rear camera 221B, and right rear camera 221RB received from the vehicle V0 on the left screen LV of the display unit 33, It is displayed on the front screen FV, right side screen RV, left rear screen LBV, rear screen BV, and right rear screen RBV, respectively. The image display unit 341 also displays images based on the image data of the left camera 221L, front camera 221F, right camera 221R, left rear camera 221LB, rear camera 221B, and right rear camera 221RB, which are regularly received from the vehicle V0. The left screen LV, front screen FV, right screen RV, left rear screen LBV, rear screen BV, and right rear screen RBV of the section 33 are updated.

画像強調部342は、車両V0の状態に応じて、遠隔操作用画像の所定領域を強調表示する。具体的には、車両V0の進行方向に応じて、遠隔操作用画像の所定領域を強調表示する。この進行方向とは、車両V0が走行している方向、もしくは車両V0を自律走行制御により走行させる走行経路の方向を進行方向として、遠隔操作用画像の所定領域を強調表示する。 The image enhancement unit 342 highlights a predetermined area of the remote control image according to the state of the vehicle V0. Specifically, a predetermined area of the remote control image is highlighted depending on the traveling direction of the vehicle V0. The traveling direction is defined as the direction in which the vehicle V0 is traveling or the direction of the traveling route along which the vehicle V0 is driven under autonomous driving control, and a predetermined area of the remote control image is highlighted.

例えば、車両V0が自律走行制御により設定された走行経路を走行している場合、すなわち、通常の走行を行っている場合には、図8に示すように、表示部33の左側画面LV、前方画面FV及び右側画面RVの外枠が、例えば、赤色の太線等によって強調表示される。 For example, when the vehicle V0 is traveling on a travel route set by autonomous driving control, that is, when it is traveling normally, the left screen LV of the display unit 33, the front The outer frames of the screen FV and the right screen RV are highlighted with, for example, thick red lines.

また、図9(A)に示すように、車両V0が片側1車線道路を走行中に、前方に停車車両V1が停車しており、車両V0が停車車両V1の後ろに停車したような場合には、車両V0は、同図(B)に示すように、遠隔操作により停車車両V1を迂回して走行を再開する必要がある。このような場合には、遠隔操作装置3によって生成された回避経路の方向が進行方向として特定され、図10に示すように、回避経路の進行方向である前方画面FV、右側画面RV及び右後方画面RBVの外枠が、例えば、赤色の太線等によって強調表示される。 Further, as shown in FIG. 9(A), when the vehicle V0 is traveling on a road with one lane on each side, a stopped vehicle V1 is stopped in front, and the vehicle V0 is stopped behind the stopped vehicle V1. In this case, the vehicle V0 needs to detour around the stopped vehicle V1 and resume traveling by remote control, as shown in FIG. 2(B). In such a case, the direction of the avoidance route generated by the remote control device 3 is specified as the traveling direction, and as shown in FIG. The outer frame of the screen RBV is highlighted with, for example, a thick red line.

物体検出部343は、車両V0から受信した左側カメラ221L、前方カメラ221F、右側カメラ221R、左後方カメラ221LB、後方カメラ221B、及び右後方カメラ221RBの画像データを解析し、その解析結果と、車両V0から受信したレーダ装置222a及びライダー装置222b、222cの障害物センサ情報とに基づいて、車両V0の走行に影響を及ぼす物体や、車両V0の走行経路と交差する経路に存在する物体等を検出する。物体検出部343により認識される物体としては、例えば、歩行者、自転車、バイク及び自動車等の移動物体や、停止車両、工事現場、路上落下物及び路上建造物等の静止物体等である。路上建造物としては、ガードレール、路肩、中央分離帯及び信号機等が含まれる。 The object detection unit 343 analyzes the image data of the left camera 221L, front camera 221F, right camera 221R, left rear camera 221LB, rear camera 221B, and right rear camera 221RB received from the vehicle V0, and uses the analysis results and the vehicle Based on the radar device 222a and the obstacle sensor information of the lidar devices 222b and 222c received from V0, detect objects that affect the running of the vehicle V0, objects that exist on a route that intersects the running route of the vehicle V0, etc. do. Objects recognized by the object detection unit 343 include, for example, moving objects such as pedestrians, bicycles, motorcycles, and automobiles, stationary objects such as stopped vehicles, construction sites, fallen objects on the road, and structures on the road. Roadside structures include guardrails, road shoulders, median strips, traffic lights, etc.

物体予測部345は、物体検出部343により検出された物体の種類を特定し、物体の種類に応じて車両V0への接近可能性を判断する。例えば、移動物体として、歩行者、自転車及び自動車等が検出されるが、これらの各物体の位置と、移動速度と、移動方向と、自車両V0の位置等に基づいて接近可能性を判断する。 The object prediction unit 345 identifies the type of object detected by the object detection unit 343, and determines the possibility of approaching the vehicle V0 according to the type of the object. For example, pedestrians, bicycles, cars, etc. are detected as moving objects, and the approachability is determined based on the position, moving speed, moving direction, and position of the own vehicle V0 of each of these objects. .

物体強調部344は、物体検出部343で車両V0の走行に影響を及ぼす物体を検出した場合、又は車両V0に対する接近可能性の高い物体を検出した場合に、遠隔操作用画像の所定領域を強調表示する。具体的には、車両V0の走行に影響を及ぼす物体と、この物体を含む遠隔操作用画像の所定領域とを強調表示する。 The object enhancement unit 344 emphasizes a predetermined area of the remote control image when the object detection unit 343 detects an object that affects the running of the vehicle V0 or an object that has a high possibility of approaching the vehicle V0. indicate. Specifically, an object that affects the running of the vehicle V0 and a predetermined area of the remote control image that includes this object are highlighted.

例えば、図11に示す例では、物体検出部343により、前方画面FVに表示されている停車車両V1が検出されるので、物体強調部344は、前方画面FVの外枠を点滅させるなどして強調表示する。また、物体強調部344は、物体検出部343の検出結果に基づいて、俯瞰画面PVの停車車両V1が停車している位置に、停車車両V1を示す画像を、注意を引きやすい赤色等の色調で表示したり、点滅表示させる等して強調表示する。このように、物体が実際に表示されている画面だけでなく、俯瞰画面PVにも検出された物体を表示するので、自車両V0との位置関係が把握しやすくなる。なお、俯瞰画面PVは、車両V0の遠隔操作において、オペレータにより必ず確認される画面であるため、外枠等の強調表示は行っていないが、検出された物体を表示する際に強調表示するようにしてもよい。 For example, in the example shown in FIG. 11, the object detection unit 343 detects the stopped vehicle V1 displayed on the front screen FV, so the object emphasis unit 344 blinks the outer frame of the front screen FV. Highlight. Furthermore, based on the detection result of the object detection unit 343, the object enhancement unit 344 displays an image showing the stopped vehicle V1 at the position where the stopped vehicle V1 is stopped on the bird's-eye view screen PV in a color tone such as red that tends to attract attention. Highlight it by displaying it with or blinking it. In this way, the detected object is displayed not only on the screen where the object is actually displayed, but also on the bird's-eye view screen PV, making it easier to understand the positional relationship with the own vehicle V0. The bird's-eye view screen PV is a screen that is always checked by the operator during remote control of the vehicle V0, so the outer frame etc. is not highlighted, but it is highlighted when displaying detected objects. You can also do this.

解析情報強調部346は、物体検出部343により物体が検出された場合に、物体の種類、物体までの距離、物体の速度もしくは物体と車両との相対速度の少なくとも1つを含む物体情報を特定し、物体を検出したことを示す物体検出情報とともに、物体情報を遠隔操作用画像の上に重ねて表示する。また、物体検出情報として、物体の車両への接近状況を示す情報を表示する。 When an object is detected by the object detection unit 343, the analysis information emphasis unit 346 specifies object information including at least one of the type of the object, the distance to the object, the speed of the object, or the relative speed between the object and the vehicle. Then, the object information is displayed superimposed on the remote control image along with object detection information indicating that an object has been detected. Additionally, information indicating the approach of the object to the vehicle is displayed as object detection information.

例えば、図12に示す例では、物体検出部343により、前方画面FVに表示されている停車車両V1と、右側画面RVに表示されている追い越し車両V2とが検出される。追い越し車両V2は、車両V0と停車車両V1とを反対車線から追い越そうとしている車両である。物体強調部344は、前方画面FVと右側画面RVの外枠を点滅させるなどして強調表示する。また、物体強調部344は、物体検出部343の検出結果に基づいて、俯瞰画面PVの停車車両V1が停車している位置に、停車車両V1を示す画像を強調表示し、追い越し車両V2が停車している位置に、追い越し車両V2を示す画像を強調表示する。解析情報強調部346は、前方画面FVに「停車車両あり」という物体検出情報を表示する。また、解析情報強調部346は、右側画面RVに「接近車両あり」という物体検出情報と、「XXkmで接近中」という物体情報を表示する。さらに、解析情報強調部346は、俯瞰画面PVの停車車両V1の近傍と、追い越し車両V2の近傍に、「停車車両あり」と、「接近車両あり」という物体検出情報をそれぞれ表示する。 For example, in the example shown in FIG. 12, the object detection unit 343 detects a stopped vehicle V1 displayed on the front screen FV and an overtaking vehicle V2 displayed on the right screen RV. The overtaking vehicle V2 is a vehicle that is attempting to overtake the vehicle V0 and the stopped vehicle V1 from the opposite lane. The object emphasizing unit 344 highlights the outer frames of the front screen FV and right screen RV by blinking them. Furthermore, based on the detection result of the object detection unit 343, the object enhancement unit 344 highlights an image showing the stopped vehicle V1 at the position where the stopped vehicle V1 is stopped on the bird's-eye view screen PV, and displays an image showing the stopped vehicle V1 in a highlighted manner at the position where the stopped vehicle V1 is stopped, and the overtaking vehicle V2 is stopped. An image showing the overtaking vehicle V2 is highlighted at the location where the overtaking vehicle V2 is located. The analysis information emphasizing unit 346 displays object detection information indicating “there is a stopped vehicle” on the front screen FV. In addition, the analysis information emphasizing unit 346 displays object detection information such as "vehicle approaching" and object information "approaching at XX km" on the right screen RV. Furthermore, the analysis information emphasizing unit 346 displays object detection information such as "stopped vehicle present" and "approaching vehicle present" in the vicinity of the stopped vehicle V1 and in the vicinity of the overtaking vehicle V2 on the bird's-eye view screen PV, respectively.

次に、図13及び図14に示すフローチャートを参照し、本実施形態の無人運転システム1の作用について説明する。管理サーバ5は、乗客Pの携帯端末Tから予約情報を受信すると、乗客Pを乗せて走行する車両V0と、乗車開始時刻と、目的地までの走行順路等を設定し(ステップS1)、携帯端末Tに予約確認情報を送信し、予約車両V0に運行情報を送信する(ステップS2)。管理サーバ5は、車両V0から所定時間毎又は所定の走行距離毎に送信される現在位置情報、車両方向情報及び速度情報を受信し、車両V0の自律走行の状況を管理、監視する(ステップS3)。 Next, the operation of the unmanned driving system 1 of this embodiment will be explained with reference to the flowcharts shown in FIGS. 13 and 14. When the management server 5 receives the reservation information from the passenger P's mobile terminal T, it sets the vehicle V0 carrying the passenger P, the boarding start time, the route to the destination, etc. (step S1), and Reservation confirmation information is transmitted to terminal T, and operation information is transmitted to reserved vehicle V0 (step S2). The management server 5 receives the current position information, vehicle direction information, and speed information transmitted from the vehicle V0 every predetermined time or every predetermined travel distance, and manages and monitors the autonomous running status of the vehicle V0 (step S3 ).

車両V0は、管理サーバ5から送信された運行情報を通信部21により受信し、経路設定部24により運行情報の走行順路に基づいて、車両V0が走行順路上の車線からはみ出さずに走行するための走行経路を設定する。 The vehicle V0 receives the operation information transmitted from the management server 5 through the communication unit 21, and the route setting unit 24 causes the vehicle V0 to travel without straying from the lane on the travel route based on the travel route in the operation information. Set a driving route for the vehicle.

車両V0は、乗車開始時刻になると乗客Pを乗車させ、乗客Pを目的地まで送り届けるための自律走行制御を開始する。この自律走行制御では、車両V0は、走行制御部25により駆動機構、変速機構及び制動機構等を制御して速度を調節するとともに、車両中心線VLが走行経路上を移動するように操舵機構を制御する。また、車両V0は、走行経路に沿って右折又は左折をする場合には、走行制御部25により駆動機構、変速機構及び制動機構を制御して速度を調節し、操舵機構及び方向指示器等を制御して右折又は左折を行う。さらに、車両V0は、現在位置情報と、地図データベースと、障害物認識部23の認識結果とに基づいて、進行方向に一時停止位置や、赤信号の交差点等が存在することが判明した場合には、走行制御部25により駆動機構、変速機構及び制動機構等を制御して車両V0の速度を低下させ、停車させる。 When the boarding start time arrives, the vehicle V0 allows the passenger P to board the vehicle and starts autonomous driving control for transporting the passenger P to the destination. In this autonomous driving control, the vehicle V0 controls the driving mechanism, transmission mechanism, braking mechanism, etc. by the driving control unit 25 to adjust the speed, and also controls the steering mechanism so that the vehicle center line VL moves on the driving route. Control. In addition, when the vehicle V0 makes a right or left turn along the travel route, the travel control unit 25 controls the drive mechanism, transmission mechanism, and braking mechanism to adjust the speed, and turns the steering mechanism, direction indicator, etc. Make a controlled right or left turn. Furthermore, if it is determined that there is a temporary stop position, an intersection with a red light, etc. in the direction of travel, based on the current position information, the map database, and the recognition result of the obstacle recognition unit 23, the vehicle V0 The drive control unit 25 controls the drive mechanism, transmission mechanism, braking mechanism, etc. to reduce the speed of the vehicle V0 and bring it to a stop.

自律走行制御により走行中の車両V0は、センサ22の前方カメラ221F、後方カメラ221B、左側カメラ221L、右側カメラ221R、左後方カメラ221LB及び右後方カメラ221RBにより、車両V0の周囲を撮像する。また、自律走行中の車両V0は、センサ22のレーダ装置222a及びライダー装置222b、222cにより、車両V0の周囲の物体を検出する。車両V0の障害物認識部23は、センサ22の各カメラで撮像された画像データと、レーダ装置222a及びライダー装置222b、222cの検出結果である障害物センサ情報とを解析して、車両V0の周囲に存在する、自律走行に影響を及ぼす物体を認識する。 Vehicle V0 running under autonomous driving control captures images of the surroundings of vehicle V0 by the front camera 221F, rear camera 221B, left camera 221L, right camera 221R, left rear camera 221LB, and right rear camera 221RB of the sensor 22. Furthermore, the autonomously running vehicle V0 detects objects around the vehicle V0 using the radar device 222a and lidar devices 222b and 222c of the sensor 22. The obstacle recognition unit 23 of the vehicle V0 analyzes the image data captured by each camera of the sensor 22 and the obstacle sensor information that is the detection result of the radar device 222a and lidar devices 222b, 222c, and identifies the object of the vehicle V0. Recognize objects around you that affect autonomous driving.

車両V0の進行方向に、停車車両や工事現場等の路上の障害物が存在し、車両V0が車線からはみ出さずに自律走行制御が行えない場合には、走行制御部25は、自律走行制御により車両V0を一旦停車させ、管理サーバ5に支援要求信号を送信する。 If there is an obstacle on the road such as a stopped vehicle or a construction site in the direction of travel of the vehicle V0, and autonomous driving control cannot be performed without the vehicle V0 protruding from the lane, the driving control unit 25 performs autonomous driving control. The vehicle V0 is temporarily stopped and a support request signal is transmitted to the management server 5.

車両V0から支援要求信号を受信した管理サーバ5は(ステップS4でYES)、複数台の遠隔操作装置3のうちから車両V0を遠隔操作する遠隔操作装置3を決定し、決定した遠隔操作装置3に支援要請を行い、支援要請を受け付けた遠隔操作装置3と車両V0とを通信可能に接続する(ステップS5)。 The management server 5 that has received the support request signal from the vehicle V0 (YES in step S4) determines the remote control device 3 that remotely controls the vehicle V0 from among the plurality of remote control devices 3, and selects the determined remote control device 3. A support request is made to the vehicle V0, and the remote control device 3 that received the support request is communicably connected to the vehicle V0 (step S5).

遠隔操作装置3は、支援要請を受け付けた車両V0から、車両情報取得部26により取得した画像データ等の各種走行情報を受信する。この各種走行情報とは、前方カメラ221F、後方カメラ221B、左側カメラ221L、右側カメラ221R、左後方カメラ221LB及び右後方カメラ221RBにより撮像された周囲映像の画像データと、レーダ装置222a及びライダー装置222b、222cにより検出された障害物に関する障害物センサ情報と、車両V0の現在位置情報と、車両方向情報等である。 The remote control device 3 receives various driving information such as image data acquired by the vehicle information acquisition unit 26 from the vehicle V0 that has received the support request. This various traveling information includes image data of surrounding images captured by the front camera 221F, rear camera 221B, left camera 221L, right camera 221R, left rear camera 221LB, and right rear camera 221RB, and the radar device 222a and lidar device 222b. , 222c, current position information of the vehicle V0, vehicle direction information, etc.

遠隔操作装置3は、車両V0から受信した画像データ等の各種データに基づいて、車両V0が障害物を回避して走行させるための回避処理を開始する。具体的には、表示制御部34の画像表示部341により、表示部33に対し、車両V0及び障害物センサ情報FIが衛星画像上に表示された俯瞰画面PVと、左側カメラ221Lにより撮像された左側画面LVと、前方カメラ221Fにより撮像された前方画面FVと、右側カメラ221Rにより撮像された右側画面RVと、左後方カメラ221LBにより撮像された左後方画面LBVと、後方カメラ221Bにより撮像された後方画面BVと、右後方カメラ221RBにより撮像された右後方画面RBVと、を表示する(ステップS6)。 The remote control device 3 starts an avoidance process for causing the vehicle V0 to avoid obstacles and run based on various data such as image data received from the vehicle V0. Specifically, the image display unit 341 of the display control unit 34 displays the vehicle V0 and obstacle sensor information FI on the overhead screen PV displayed on the satellite image and the image captured by the left camera 221L on the display unit 33. The left screen LV, the front screen FV taken by the front camera 221F, the right screen RV taken by the right camera 221R, the left rear screen LBV taken by the left rear camera 221LB, and the left rear screen LBV taken by the rear camera 221B. The rear screen BV and the right rear screen RBV captured by the right rear camera 221RB are displayed (step S6).

次いで、遠隔操作装置3は、遠隔操作画像の注目領域を決定する注目領域決定処理を実行する(ステップS7)。図14は、図13のステップS7の注目領域決定処理のサブルーチンを示すフローチャートである。図14に示すように、注目領域決定処理では、画像強調部342により、車両V0の走行方向、又は走行経路の方向を進行方向として特定し(ステップS71)、特定した進行方向に基づいて、強調表示する方向画像の画面を決定する(ステップS72)。たとえば、車両V0が自律走行制御により設定された走行経路を通常に走行している場合には、図8に示すように、表示部33の左側画面LV、前方画面FV及び右側画面RVの外枠が、例えば、赤色の太線等によって強調表示されるように、注目領域を左側画面LV、前方画面FV及び右側画面RVの3つに決定する。 Next, the remote control device 3 executes a region-of-interest determination process for determining a region of interest in the remote-control image (step S7). FIG. 14 is a flowchart showing the subroutine of the attention area determination process in step S7 of FIG. As shown in FIG. 14, in the attention area determination process, the image enhancement unit 342 specifies the traveling direction of the vehicle V0 or the direction of the traveling route as the traveling direction (step S71), and emphasizes the traveling direction based on the identified traveling direction. The screen of the direction image to be displayed is determined (step S72). For example, when the vehicle V0 is normally traveling on a travel route set by autonomous driving control, the outer frames of the left screen LV, front screen FV, and right screen RV of the display unit 33 are However, three regions of interest are determined, for example, the left screen LV, the front screen FV, and the right screen RV, as highlighted by a thick red line or the like.

あるいは、図9(A)及び(B)に示すように、車両V0が片側1車線道路を走行中に、前方に停車車両V1が停車しており、車両V0が停車車両V1の後ろに停車したような場合には、車両V0は、遠隔操作により停車車両V1を迂回して走行を再開する必要がある。このような場合には、遠隔操作装置3によって生成された回避経路の方向が進行方向として特定され、図10に示すように、回避経路の進行方向である前方画面FV、右側画面RV及び右後方画面RBVの外枠が、例えば、赤色の太線等によって強調表示されるように、注目領域を前方画面FV、右側画面RV及び右後方画面RBVの3つに決定する。 Alternatively, as shown in FIGS. 9(A) and (B), while the vehicle V0 is traveling on a road with one lane on each side, a stopped vehicle V1 is stopped in front, and the vehicle V0 is stopped behind the stopped vehicle V1. In such a case, it is necessary for the vehicle V0 to detour around the stopped vehicle V1 and resume traveling by remote control. In such a case, the direction of the avoidance route generated by the remote control device 3 is specified as the traveling direction, and as shown in FIG. Three regions of interest are determined: the front screen FV, the right screen RV, and the right rear screen RBV so that the outer frame of the screen RBV is highlighted, for example, with a thick red line.

次に、追加注目領域を決定する(ステップS73)。ここで、物体検出部343は、各方向画像を解析して、車両V0の走行に影響を及ぼす物体や、車両V0の走行経路と交差する経路に存在する物体等を検出する。また、物体予測部345は、物体検出部343により検出された物体の種類を特定し、物体の種類に応じて車両V0への接近可能性を判断する。物体強調部344は、物体が検出された場合、又は接近可能性が予測された物体が検出された場合に、強調表示する物体として決定する。たとえば、図11に示す例では、物体検出部343により、前方画面FVに表示されている停車車両V1が検出されるので、前方画面FVの外枠を強調表示するように、追加注目領域を前方画面FVに決定する。また、物体強調部344は、物体検出部343の検出結果に基づいて、俯瞰画面PVの停車車両V1が停車している位置に、停車車両V1を示す画像を強調表示するように、追加注目領域を俯瞰画面PVに決定する。 Next, an additional region of interest is determined (step S73). Here, the object detection unit 343 analyzes images in each direction and detects objects that affect the travel of the vehicle V0, objects that exist on a route that intersects the travel route of the vehicle V0, and the like. Further, the object prediction unit 345 identifies the type of object detected by the object detection unit 343, and determines the possibility of approaching the vehicle V0 according to the type of the object. The object highlighting unit 344 determines an object to be highlighted when an object is detected or when an object with predicted approachability is detected. For example, in the example shown in FIG. 11, the object detection unit 343 detects the stopped vehicle V1 displayed on the front screen FV, so the additional attention area is set in front so as to highlight the outer frame of the front screen FV. Set to screen FV. Furthermore, the object enhancement unit 344 adds an additional attention area so as to highlight an image showing the stopped vehicle V1 at the position where the stopped vehicle V1 is stopped on the bird's-eye view screen PV based on the detection result of the object detection unit 343. is determined as the bird's-eye view PV.

次のステップS74では、物体検出部343により物体が検出されたか否かを判定し、物体が検出された場合はステップS75へ進み、物体が検出されない場合は図13のステップS8へ進む。物体検出部343により物体が検出された場合、ステップS75にて、解析情報強調部346は、検出された物体の種類、物体までの距離、物体の速度もしくは物体と車両との相対速度の少なくとも1つを含む物体情報を特定する。そして、続くステップS76にて、この物体情報と、物体を検出したことを示す物体検出情報とを生成する。なお、物体検出情報として、物体の車両への接近状況を示す情報を生成する。例えば、図12に示す例では、物体検出部343により、前方画面FVに表示されている停車車両V1と、右側画面RVに表示されている追い越し車両V2とが検出される。したがって、解析情報強調部346は、車両V1は停車車両であることを特定し、追い越し車両V2は、車両V0と停車車両V1とを反対車線から追い越そうとしている車両であることを特定する。 In the next step S74, the object detection unit 343 determines whether or not an object has been detected. If an object is detected, the process proceeds to step S75; if no object is detected, the process proceeds to step S8 of FIG. 13. When an object is detected by the object detection unit 343, in step S75, the analysis information emphasis unit 346 detects at least one of the type of the detected object, the distance to the object, the speed of the object, or the relative speed between the object and the vehicle. Identify object information that includes one. Then, in the subsequent step S76, this object information and object detection information indicating that an object has been detected are generated. Note that information indicating the approach status of the object to the vehicle is generated as the object detection information. For example, in the example shown in FIG. 12, the object detection unit 343 detects a stopped vehicle V1 displayed on the front screen FV and an overtaking vehicle V2 displayed on the right screen RV. Therefore, the analysis information emphasizing unit 346 specifies that the vehicle V1 is a stopped vehicle, and specifies that the overtaking vehicle V2 is a vehicle that is about to overtake the vehicle V0 and the stopped vehicle V1 from the opposite lane.

図13のステップS8に戻り、ステップS8において、画像強調部342は、ステップS72で決定した画面に対して強調表示を行う処理を実行する。図8に示す例について言えば、表示部33の左側画面LV、前方画面FV及び右側画面RVの3つがステップS72で決定した画面であるから、これら左側画面LV、前方画面FV及び右側画面RVの各外枠を、例えば、赤色の太線等によって強調表示する。 Returning to step S8 in FIG. 13, in step S8, the image enhancement unit 342 executes a process of highlighting the screen determined in step S72. Regarding the example shown in FIG. 8, since the left screen LV, front screen FV, and right screen RV of the display unit 33 are the screens determined in step S72, these left screen LV, front screen FV, and right screen RV Each outer frame is highlighted using, for example, a thick red line.

また、同じくステップS8において、物体強調部344は、物体が検出された場合、又は接近可能性が予測された物体が検出された場合に、当該物体に対して強調表示を行う処理を実行する。図11に示す例について言えば、ステップS73において決定される追加注目領域が前方画面FVであるので、当該前方画面FVの外枠を強調表示する。また、ステップS73において俯瞰画面PVも追加注目領域に決定されるので、当該俯瞰画面PVの停車車両V1が停車している位置に、停車車両V1を示す画像を強調表示する。 Also, in step S8, when an object is detected, or when an object with predicted approachability is detected, the object highlighting unit 344 executes a process of highlighting the object. Regarding the example shown in FIG. 11, since the additional attention area determined in step S73 is the front screen FV, the outer frame of the front screen FV is highlighted. Moreover, since the bird's-eye view screen PV is also determined as an additional attention area in step S73, an image showing the stopped vehicle V1 is displayed in an emphasized manner at the position where the stopped vehicle V1 is parked on the bird's-eye view screen PV.

さらに同じくステップS8において、解析情報強調部346は、ステップS76で生成した物体情報を該当する画面に強調表示する。例えば、図12に示す例では、物体検出部343により、前方画面FVに表示されている停車車両V1と、右側画面RVに表示されている追い越し車両V2とが検出され、これにより車両V1は停車車両であり、追い越し車両V2は、車両V0と停車車両V1とを反対車線から追い越そうとしている車両であることが特定されるので、解析情報強調部346は、俯瞰画面PVの車両V1の横に「停車車両」というテキストデータを強調表示し、車両V2の横に「接近車両」というテキストデータを強調表示する。また、解析情報強調部346は、前方画面FVの車両V1の横に「停車車両あり」というテキストデータを強調表示し、右側画面RVの車両V2の横に「接近車両あり、XXkmで接近中」というテキストデータを強調表示する。 Furthermore, in step S8, the analysis information emphasizing unit 346 highlights the object information generated in step S76 on the corresponding screen. For example, in the example shown in FIG. 12, the object detection unit 343 detects a stopped vehicle V1 displayed on the front screen FV and an overtaking vehicle V2 displayed on the right screen RV. Since the overtaking vehicle V2 is identified as a vehicle that is attempting to overtake the vehicle V0 and the stopped vehicle V1 from the opposite lane, the analysis information emphasizing unit 346 The text data "Stopped Vehicle" is highlighted, and the text data "Approaching Vehicle" is highlighted next to vehicle V2. In addition, the analysis information emphasizing unit 346 highlights the text data "There is a stopped vehicle" next to the vehicle V1 on the front screen FV, and "There is an approaching vehicle, approaching at XX km" next to the vehicle V2 on the right screen RV. Highlight the text data.

ステップS9では、ステップS5にて遠隔操作装置3に対して遠隔操作が要求されているので、当該遠隔操作装置3のオペレータは、車両V0から受信した画像データ等の各種データに基づいて遠隔操作装置3を操作し、車両V0が路上の障害物を自律走行制御により回避するための回避経路を設定する。具体的には、遠隔操作装置3の表示制御部34は、表示部33に対し、車両V0及び障害物センサ情報FIが衛星画像上に表示された俯瞰画面PVと、左側カメラ221Lにより撮像された左側画面LVと、前方カメラ221Fにより撮像された前方画面FVと、右側カメラ221Rにより撮像された右側画面RVと、左後方カメラ221LBにより撮像された左後方画面LBVと、後方カメラ221Bにより撮像された後方画面BVと、右後方カメラ221RBにより撮像された右後方画面RBVと、を表示する。 In step S9, since the remote control device 3 is requested to perform remote control in step S5, the operator of the remote control device 3 uses the remote control device 3 based on various data such as image data received from the vehicle V0. 3 to set an avoidance route for the vehicle V0 to avoid obstacles on the road through autonomous driving control. Specifically, the display control unit 34 of the remote control device 3 causes the display unit 33 to display an overhead screen PV in which the vehicle V0 and obstacle sensor information FI are displayed on a satellite image, and an image captured by the left camera 221L. The left screen LV, the front screen FV taken by the front camera 221F, the right screen RV taken by the right camera 221R, the left rear screen LBV taken by the left rear camera 221LB, and the left rear screen LBV taken by the rear camera 221B. The rear screen BV and the right rear screen RBV captured by the right rear camera 221RB are displayed.

遠隔操作装置3のオペレータは、図7に示すように、表示部33に表示された俯瞰画面PVと、左側画面LVと、前方画面FVと、右側画面RVと、左後方画面LBVと、後方画面BVと、右後方画面RBVと、に基づいて、車両V0の状況を把握し、入力部32を操作して、俯瞰画面PV上で障害物を回避するように複数の経路ポイントPtを設定する。遠隔操作装置3は、設定された複数の経路ポイントPtを接続するようにして回避経路Raを生成する。俯瞰画面PVには、表示制御部34により、設定された複数の経路ポイントPtと、生成された回避経路Raと、回避経路Raに沿って走行する車両V0の移動軌跡Mtとが表示され、オペレータによって確認される。この回避経路を設定する際に、オペレータは、強調表示された画面に注目しながら操作するので、オペレータの操作負荷を軽減することができる。 As shown in FIG. 7, the operator of the remote control device 3 can view the bird's-eye view screen PV, the left screen LV, the front screen FV, the right screen RV, the left rear screen LBV, and the rear screen displayed on the display unit 33, as shown in FIG. The situation of the vehicle V0 is grasped based on the BV and the right rear screen RBV, and the input unit 32 is operated to set a plurality of route points Pt to avoid obstacles on the bird's-eye view screen PV. The remote control device 3 generates an avoidance route Ra by connecting the plurality of set route points Pt. On the bird's-eye view screen PV, the plurality of route points Pt set by the display control unit 34, the generated avoidance route Ra, and the movement trajectory Mt of the vehicle V0 traveling along the avoidance route Ra are displayed, and the operator confirmed by. When setting this avoidance route, the operator operates while paying attention to the highlighted screen, so the operator's operational load can be reduced.

ステップS10では、ステップS9において設定された回避経路Raが、通信部31によって車両V0に送信され、これを受信した車両V0は、回避経路にしたがって回避のための自律走行を開始する。車両V0の走行制御部25は、障害物を回避して元の走行経路に戻った場合には(ステップS11でYES)、元の走行経路の自律走行制御を再開する。そして、ステップS11にて回避走行が終了するまでステップS6~S10の処理を繰り返し、回避走行が終了したらステップS12へ進む。 In step S10, the avoidance route Ra set in step S9 is transmitted to the vehicle V0 by the communication unit 31, and the vehicle V0 that receives this starts autonomous travel for avoidance according to the avoidance route. When the vehicle V0 returns to the original driving route after avoiding the obstacle (YES in step S11), the driving control unit 25 of the vehicle V0 resumes autonomous driving control of the original driving route. Then, in step S11, the process of steps S6 to S10 is repeated until the avoidance drive is completed, and when the avoidance drive is completed, the process advances to step S12.

ステップS12において、自律走行を実行している車両V0が目的地に到着したか否かを判定し、目的地に到着するまでステップS3~S12の処理を繰り返し、目的地に到着したらステップS13へ進んで、車両V0の自律走行の監視を終了する。 In step S12, it is determined whether the vehicle V0 running autonomously has arrived at the destination, and the processes of steps S3 to S12 are repeated until the vehicle V0 reaches the destination, and once the vehicle V0 has arrived at the destination, the process proceeds to step S13. Then, the monitoring of the autonomous running of the vehicle V0 is ended.

以上で説明したように、本実施形態の無人運転システム1は、自律走行制御機能を備えた車両V0を、車両の外部からの遠隔操作に基づく自律走行制御により走行させる場合に、車両V0から、車両の周囲を撮像した周囲映像を取得し、取得した周囲映像を、車両V0の遠隔操作用画像として表示し、車両V0の状態に応じて、遠隔操作用画像の所定領域を強調表示する。これにより、遠隔操作装置3のオペレータは、注目すべき領域が把握し易くなり、オペレータの画像確認に要する負荷を軽減することができる。 As explained above, the unmanned driving system 1 of the present embodiment, when the vehicle V0 equipped with an autonomous driving control function is driven by autonomous driving control based on remote control from the outside of the vehicle, from the vehicle V0, A surrounding image of the surroundings of the vehicle is acquired, the acquired surrounding image is displayed as a remote control image of the vehicle V0, and a predetermined area of the remote control image is highlighted depending on the state of the vehicle V0. Thereby, the operator of the remote control device 3 can easily grasp the area to be focused on, and the burden on the operator required for image confirmation can be reduced.

また、本実施形態の無人運転システム1は、車両V0の進行方向(車両が走行している方向、もしくは車両を自律走行制御により走行させる走行経路の方向を含む)に応じて、遠隔操作用画像の所定領域を強調表示するので、遠隔操作装置3のオペレータは、注目すべき領域がより把握し易くなり、オペレータの画像確認に要する負荷をより一層軽減することができる。 In addition, the unmanned driving system 1 of this embodiment uses an image for remote control according to the traveling direction of the vehicle V0 (including the direction in which the vehicle is traveling or the direction of the traveling route on which the vehicle is driven by autonomous driving control). Since the predetermined area of the image is highlighted, the operator of the remote control device 3 can more easily grasp the area of interest, and the burden on the operator required for image confirmation can be further reduced.

さらに、本実施形態の無人運転システム1は、遠隔操作用画像から、車両V0の走行に影響を及ぼす物体を検出し、物体を検出した場合に、物体に応じて遠隔操作用画像の所定領域を強調表示する。このとき、物体と、物体を含む遠隔操作用画像の所定領域を強調表示してもよい。これにより、遠隔操作すべき車両V0と干渉する可能性がある物体を把握し易くなり、オペレータの画像確認に要する負荷をより一層軽減することができる。 Furthermore, the unmanned driving system 1 of the present embodiment detects an object that affects the running of the vehicle V0 from the remote control image, and when an object is detected, a predetermined area of the remote control image is changed according to the object. Highlight. At this time, the object and a predetermined area of the remote control image including the object may be highlighted. This makes it easier to grasp objects that may interfere with the vehicle V0 to be remotely controlled, and further reduces the burden on the operator required for image confirmation.

さらに、本実施形態の無人運転システム1は、遠隔操作用画像から、車両V0が自律走行制御により走行する走行経路と交差する経路に存在する物体を検出し、物体を検出した場合に、物体を強調表示する。このとき、物体の種類を特定し、物体の種類に応じた車両への接近可能性に応じて、物体を強調表示してもよい。これにより、遠隔操作すべき車両V0と干渉する可能性がある物体を把握し易くなり、オペレータの画像確認に要する負荷をより一層軽減することができる。 Furthermore, the unmanned driving system 1 of this embodiment detects an object existing on a route that intersects the travel route on which the vehicle V0 travels under autonomous driving control from the remote control image, and when an object is detected, Highlight. At this time, the type of object may be identified and the object may be highlighted depending on the approachability to the vehicle depending on the type of object. This makes it easier to grasp objects that may interfere with the vehicle V0 to be remotely controlled, and further reduces the burden on the operator required for image confirmation.

さらに、本実施形態の無人運転システム1は、遠隔操作用画像から、車両V0の走行に影響を及ぼす物体を検出し、物体を検出した場合に、物体の種類、物体までの距離、物体の速度もしくは物体と車両V0との相対速度の少なくとも1つを含む物体情報を特定し、物体を検出したことを示す物体検出情報とともに、物体情報を遠隔操作用画像の上に重ねて表示する。このとき、物体検出情報として、物体の車両への接近状況を示す情報を表示してもよい。これにより、遠隔操作すべき車両V0と干渉する可能性がある物体の詳細な情報が把握し易くなり、オペレータの画像確認に要する負荷をより一層軽減することができる。 Furthermore, the unmanned driving system 1 of this embodiment detects an object that affects the running of the vehicle V0 from the remote control image, and when an object is detected, the type of the object, the distance to the object, the speed of the object, etc. Alternatively, object information including at least one of the relative speeds between the object and the vehicle V0 is specified, and the object information is displayed superimposed on the remote control image together with object detection information indicating that the object has been detected. At this time, information indicating how the object approaches the vehicle may be displayed as the object detection information. This makes it easier to grasp detailed information about objects that may interfere with the vehicle V0 to be remotely controlled, and further reduces the burden on the operator required for image confirmation.

さらに、本実施形態の無人運転システム1は、遠隔操作用画像は、車両V0から周囲の複数方向を撮像した複数種類の方向画像を含み、車両の状態に応じて、重要度が高い方向画像の全体を強調表示する。たとえば、車両が車線内を走行している場合には、方向画像として、車両の前方画像、左側画像及び右側画像を強調表示し、車両が走行中の車線から右側車線へ移動する場合には、車両の前方画像、右側画像及び右後方画像を強調表示し、車両が走行中の車線から左側車線へ移動する場合には、車両の前方画像、左側画像及び左後方画像を強調表示し、車両を自律走行制御により走行させる走行経路を生成する場合には、走行経路の方向に応じた前記方向画像を強調表示する。これにより、遠隔操作装置3のオペレータは、注目すべき領域が把握し易くなり、オペレータの画像確認に要する負荷をより一層軽減することができる。 Furthermore, in the unmanned driving system 1 of this embodiment, the remote control images include multiple types of direction images taken from the vehicle V0 in multiple directions around the vehicle, and depending on the state of the vehicle, the direction images with high importance are selected. Highlight the whole thing. For example, when a vehicle is traveling within a lane, the front image, left side image, and right side image of the vehicle are highlighted as direction images, and when the vehicle moves from the lane in which it is traveling to the right lane, The front image, right side image, and right rear image of the vehicle are highlighted, and when the vehicle moves from the lane in which it is traveling to the left lane, the front image, left side image, and left rear image of the vehicle are highlighted, and the vehicle is When a travel route is generated by autonomous travel control, the direction image corresponding to the direction of the travel route is highlighted. This makes it easier for the operator of the remote control device 3 to grasp the area of interest, and further reduces the burden on the operator required for image confirmation.

さらに、本実施形態の無人運転システム1は、遠隔操作用画像から、車両V0の走行に影響を及ぼす物体を検出し、物体を検出した場合に、物体の状態に応じた異なる色で強調表示する。このとき、遠隔操作用画像は、車両V0から周囲の複数方向を撮像した複数種類の方向画像を含み、物体が検出された場合に、検出された物体の表示の有無、及び物体の接近方向に応じて、複数種類の方向画像の外枠を異なる色で強調表示してもよい。またこのとき、遠隔操作用画像は、車両から周囲の複数方向を撮像した複数種類の方向画像と、車両の現在位置の地図画像、衛星画像もしくは航空画像の上に、車両の上面画像を重ねて表示した俯瞰画像と、を含み、複数種類の方向画像から、車両の走行に影響を及ぼす物体を検出し、物体を検出した場合に、俯瞰画像に、検出された物体を示す画像を重ねて表示してもよい。これにより、遠隔操作装置3のオペレータは、注目すべき領域が把握し易くなり、オペレータの画像確認に要する負荷をより一層軽減することができる。 Furthermore, the unmanned driving system 1 of this embodiment detects an object that affects the running of the vehicle V0 from the remote control image, and when an object is detected, highlights it in a different color depending on the state of the object. . At this time, the remote control image includes multiple types of directional images taken from the vehicle V0 in multiple directions around the vehicle, and when an object is detected, it is possible to determine whether or not the detected object is displayed and the direction in which the object approaches. Accordingly, the outer frames of multiple types of direction images may be highlighted in different colors. At this time, images for remote control include multiple types of directional images taken from the vehicle in multiple directions around it, and a top view image of the vehicle superimposed on a map image, satellite image, or aerial image of the current location of the vehicle. Detects objects that affect the running of the vehicle from multiple types of directional images, including the displayed bird's-eye view image, and when an object is detected, displays an image showing the detected object overlaid on the bird's-eye view image. You may. This makes it easier for the operator of the remote control device 3 to grasp the area of interest, and further reduces the burden on the operator required for image confirmation.

1…無人運転システム
V0…車両
21…通信部
22…センサ
221F…前方カメラ
221L…左側カメラ
221R…右側カメラ
221B…後方カメラ
221LB…左後方カメラ
221RB…右後方カメラ
222a…レーダ装置
222b、222c…ライダー装置
23…障害物認識部
24…経路設定部
25…走行制御部
26…車両情報取得部
3…遠隔操作装置
31…通信部
32…入力部
33…表示部
PV…俯瞰画面
LV…左側画面
RV…右側画面
BV…後方画面
LBV…左後方画面
RBV…右後方画面
34…表示制御部
35…遠隔制御部
4…車両管理センタ
5…管理サーバ
Ra…回避経路
1...Unmanned driving system V0...Vehicle 21...Communication unit 22...Sensor 221F...Front camera 221L...Left camera 221R...Right side camera 221B...Rear camera 221LB...Left rear camera 221RB...Right rear camera 222a...Radar device 222b, 222c...Rider Device 23...Obstacle recognition section 24...Route setting section 25...Travel control section 26...Vehicle information acquisition section 3...Remote control device 31...Communication section 32...Input section 33...Display section PV...Overhead view screen LV...Left side screen RV... Right side screen BV...Rear screen LBV...Left rear screen RBV...Right rear screen 34...Display control unit 35...Remote control unit 4...Vehicle management center 5...Management server Ra...Avoidance route

Claims (13)

自律走行制御機能を備えた車両を、前記車両の外部からの遠隔操作に基づく自律走行制御により走行させる場合に、前記車両から、前記車両の周囲を撮像した周囲映像を取得し、
取得した前記周囲映像を、前記車両の遠隔操作用画像として表示し、
前記車両の状態に応じて、前記遠隔操作用画像の所定領域を強調表示する遠隔操作用画像の表示方法において、
前記遠隔操作用画像は、前記車両から周囲の複数方向を撮像した複数種類の方向画像を含み、
前記車両の状態に応じて、重要度が高い方向画像の全体を強調表示し、
前記車両が車線内を走行している場合には、前記方向画像として、前記車両の前方画像、左側画像及び右側画像を強調表示し、
前記車両が走行中の車線から右側車線へ移動する場合には、前記車両の前方画像、右側画像及び右後方画像を強調表示し、
前記車両が走行中の車線から左側車線へ移動する場合には、前記車両の前方画像、左側画像及び左後方画像を強調表示する、遠隔操作用画像の表示方法。
When a vehicle equipped with an autonomous driving control function is driven by autonomous driving control based on remote control from the outside of the vehicle, acquiring a surrounding image of the surroundings of the vehicle from the vehicle,
Displaying the acquired surrounding image as a remote control image of the vehicle,
In a method for displaying a remote control image, the method includes highlighting a predetermined area of the remote control image according to a state of the vehicle,
The remote control image includes a plurality of types of directional images taken from the vehicle in a plurality of surrounding directions,
Highlighting the entire direction image with high importance according to the state of the vehicle,
When the vehicle is traveling within a lane, highlighting a front image, a left side image, and a right side image of the vehicle as the direction image,
When the vehicle moves from the lane in which it is traveling to the right lane, highlighting the front image, right side image, and right rear image of the vehicle,
A remote control image display method that highlights a front image, a left side image, and a left rear image of the vehicle when the vehicle moves from the lane in which it is traveling to the left lane.
前記車両の進行方向に応じて、前記遠隔操作用画像の所定領域を強調表示する、請求項1に記載の遠隔操作用画像の表示方法。 The method for displaying a remote control image according to claim 1, wherein a predetermined area of the remote control image is highlighted depending on the traveling direction of the vehicle. 前記車両が走行している方向、もしくは前記車両を自律走行制御により走行させる走行経路の方向を前記進行方向として、前記遠隔操作用画像の所定領域を強調表示する、請求項2に記載の遠隔操作用画像の表示方法。 The remote control according to claim 2, wherein a predetermined area of the remote control image is highlighted, with the direction in which the vehicle is traveling or the direction of a travel route along which the vehicle is driven under autonomous driving control as the traveling direction. How to display images. 前記遠隔操作用画像から、前記車両の走行に影響を及ぼす物体を検出し、
前記物体を検出した場合に、前記物体に応じて、前記遠隔操作用画像の所定領域を強調表示する、請求項1に記載の遠隔操作用画像の表示方法。
Detecting an object that affects the running of the vehicle from the remote control image,
2. The method for displaying a remote control image according to claim 1, wherein when the object is detected, a predetermined area of the remote control image is highlighted depending on the object.
前記遠隔操作用画像から、前記車両の走行に影響を及ぼす物体を検出した場合に、前記物体と、前記物体を含む前記遠隔操作用画像の所定領域を強調表示する、請求項4に記載の遠隔操作用画像の表示方法。 The remote controller according to claim 4, wherein when an object that affects the running of the vehicle is detected from the remote control image, the object and a predetermined area of the remote control image including the object are highlighted. How to display images for operation. 前記遠隔操作用画像から、前記車両が自律走行制御により走行する走行経路と交差する経路に存在する物体を検出し、
前記物体を検出した場合に、前記物体を強調表示する、請求項1に記載の遠隔操作用画像の表示方法。
Detecting, from the remote control image, an object present on a route that intersects with a travel route on which the vehicle travels under autonomous driving control;
The method for displaying images for remote control according to claim 1, wherein when the object is detected, the object is highlighted.
前記物体を検出した場合に、前記物体の種類を特定し、前記物体の種類に応じた前記車両への接近可能性に応じて、前記物体を強調表示する、請求項6に記載の遠隔操作用画像の表示方法。 7. The remote control device according to claim 6, wherein when the object is detected, the type of the object is specified, and the object is highlighted depending on the possibility of approaching the vehicle depending on the type of the object. How to display images. 前記遠隔操作用画像から、前記車両の走行に影響を及ぼす物体を検出し、
前記物体を検出した場合に、前記物体の種類、前記物体までの距離、前記物体の速度もしくは前記物体と前記車両との相対速度の少なくとも1つを含む物体情報を特定し、
前記物体を検出したことを示す物体検出情報とともに、前記物体情報を前記遠隔操作用画像の上に重ねて表示する、請求項1に記載の遠隔操作用画像の表示方法。
Detecting an object that affects the running of the vehicle from the remote control image,
When the object is detected, specifying object information including at least one of the type of the object, the distance to the object, the speed of the object, or the relative speed of the object and the vehicle;
2. The method for displaying a remote control image according to claim 1, wherein the object information is displayed superimposed on the remote control image together with object detection information indicating that the object has been detected.
前記物体検出情報として、前記物体の前記車両への接近状況を示す情報を表示する、請求項8に記載の遠隔操作用画像の表示方法。 9. The method for displaying images for remote control according to claim 8, wherein information indicating how the object approaches the vehicle is displayed as the object detection information. 前記遠隔操作用画像から、前記車両の走行に影響を及ぼす物体を検出し、
前記物体を検出した場合に、前記物体の状態に応じた異なる色で強調表示する請求項1に記載の遠隔操作用画像の表示方法。
Detecting an object that affects the running of the vehicle from the remote control image,
2. The method for displaying images for remote control according to claim 1, wherein when the object is detected, the object is highlighted in a different color depending on the state of the object.
前記遠隔操作用画像は、前記車両から周囲の複数方向を撮像した複数種類の方向画像を含み、
前記物体が検出された場合に、検出された前記物体の表示の有無、及び前記物体の接近方向に応じて、前記複数種類の方向画像の外枠を異なる色で強調表示する請求項10に記載の遠隔操作用画像の表示方法。
The remote control image includes a plurality of types of directional images taken from the vehicle in a plurality of surrounding directions,
According to claim 10, when the object is detected, the outer frames of the plurality of types of directional images are highlighted in different colors depending on whether the detected object is displayed and the approaching direction of the object. How to display images for remote control.
前記遠隔操作用画像は、前記車両から周囲の複数方向を撮像した複数種類の方向画像と、前記車両の現在位置の地図画像、衛星画像もしくは航空画像の上に、前記車両の上面画像を重ねて表示した俯瞰画像と、を含み、
前記複数種類の方向画像から、前記車両の走行に影響を及ぼす物体を検出し、
前記物体を検出した場合に、前記俯瞰画像に、検出された前記物体を示す画像を重ねて表示する請求項11に記載の遠隔操作用画像の表示方法。
The remote control image is obtained by superimposing a top view image of the vehicle on a plurality of types of directional images taken from the vehicle in a plurality of surrounding directions, and a map image, satellite image, or aerial image of the current position of the vehicle. including the displayed bird's-eye view image;
Detecting objects that affect the running of the vehicle from the plurality of types of direction images,
12. The method for displaying images for remote control according to claim 11, wherein when the object is detected, an image showing the detected object is displayed superimposed on the bird's-eye view image.
自律走行制御機能を備えた車両を、前記車両の外部から遠隔操作して自律走行制御により走行させる遠隔操作装置であって、
前記車両から、前記車両の周囲の複数方向を撮像した周囲映像を取得する映像取得手段と、
取得した前記周囲映像を、前記車両から周囲の複数方向を撮像した複数種類の方向画像を含む、前記車両の遠隔操作用画像として表示する表示手段と、
前記車両の状態に応じて、前記遠隔操作用画像の所定領域を強調表示する表示制御手段と、
前記車両の状態に応じて、重要度が高い方向画像の全体を強調表示し、
前記車両が車線内を走行している場合には、前記方向画像として、前記車両の前方画像、左側画像及び右側画像を強調表示し、
前記車両が走行中の車線から右側車線へ移動する場合には、前記車両の前方画像、右側画像及び右後方画像を強調表示し、
前記車両が走行中の車線から左側車線へ移動する場合には、前記車両の前方画像、左側画像及び左後方画像を強調表示する画像強調部と、を備える遠隔操作装置。
A remote control device that remotely controls a vehicle equipped with an autonomous driving control function from outside the vehicle and causes it to travel under autonomous driving control,
an image acquisition means for acquiring surrounding images captured from the vehicle in a plurality of directions around the vehicle;
Display means for displaying the acquired surrounding image as a remote control image of the vehicle, including a plurality of types of directional images taken from the vehicle in a plurality of surrounding directions;
display control means for highlighting a predetermined area of the remote control image according to the state of the vehicle;
Highlighting the entire direction image with high importance according to the state of the vehicle,
When the vehicle is traveling within a lane, highlighting a front image, a left side image, and a right side image of the vehicle as the direction image,
When the vehicle moves from the lane in which it is traveling to the right lane, highlighting the front image, right side image, and right rear image of the vehicle,
A remote control device comprising: an image enhancement unit that highlights a front image, a left side image, and a left rear image of the vehicle when the vehicle moves from the lane in which it is traveling to the left lane.
JP2019062484A 2019-03-28 2019-03-28 Display method of images for remote control and remote control device Active JP7350500B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019062484A JP7350500B2 (en) 2019-03-28 2019-03-28 Display method of images for remote control and remote control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019062484A JP7350500B2 (en) 2019-03-28 2019-03-28 Display method of images for remote control and remote control device

Publications (2)

Publication Number Publication Date
JP2020161039A JP2020161039A (en) 2020-10-01
JP7350500B2 true JP7350500B2 (en) 2023-09-26

Family

ID=72639546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019062484A Active JP7350500B2 (en) 2019-03-28 2019-03-28 Display method of images for remote control and remote control device

Country Status (1)

Country Link
JP (1) JP7350500B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022159912A (en) 2021-04-05 2022-10-18 ウーブン・プラネット・ホールディングス株式会社 Remote monitoring system, remote monitoring method, remote monitoring server, and on-vehicle information processing device
JP7447882B2 (en) 2021-10-07 2024-03-12 トヨタ自動車株式会社 Remote support system and remote support method
WO2023248776A1 (en) * 2022-06-22 2023-12-28 株式会社デンソー Remote support device, remote support method, and remote support program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006221339A (en) 2005-02-09 2006-08-24 Honda Motor Co Ltd Vehicle control system
JP2018106676A (en) 2016-12-22 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing device, operated vehicle, information processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3855552B2 (en) * 1999-08-26 2006-12-13 松下電工株式会社 Obstacle monitoring device around the vehicle
JP4698002B2 (en) * 2000-07-11 2011-06-08 マツダ株式会社 Vehicle display device
JP6610994B2 (en) * 2015-07-02 2019-11-27 株式会社デンソーテン Obstacle detection device and obstacle detection method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006221339A (en) 2005-02-09 2006-08-24 Honda Motor Co Ltd Vehicle control system
JP2018106676A (en) 2016-12-22 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing device, operated vehicle, information processing method, and program

Also Published As

Publication number Publication date
JP2020161039A (en) 2020-10-01

Similar Documents

Publication Publication Date Title
CN109472975B (en) Driving support system, driving support device, and driving support method
JP6493923B2 (en) Information display device, information display method, and information display program
JP7282543B2 (en) Vehicle travel route display method and vehicle travel route display device
CN110239547B (en) Vehicle control device, vehicle control method, and storage medium
JP7043450B2 (en) Vehicle control devices, vehicle control methods, and programs
US20210080943A1 (en) Vehicle remote instruction system
CN110281941B (en) Vehicle control device, vehicle control method, and storage medium
CN109421799B (en) Vehicle control device, vehicle control method, and storage medium
CN109466542B (en) Vehicle control device, vehicle control method, and storage medium
JP7350500B2 (en) Display method of images for remote control and remote control device
US9026356B2 (en) Vehicle navigation system and method
CN110920521B (en) Display system, display method, and storage medium
JP2019212095A (en) Autonomous driving assist system
US10564000B2 (en) Information display device, information display method, and information display program
CN110949389A (en) Vehicle control device, vehicle control method, and storage medium
EP3950446B1 (en) Vehicle control method and vehicle control device
US11183063B2 (en) Recognition and guidance to specialized stop spaces for different sized vehicles
US20210280057A1 (en) Systems and methods for assisting a maneuver of a moving object
JP2019156266A (en) Vehicle controller, vehicle control method and program
CN115176296B (en) Travel support device, travel support method, and travel support program
JP4911094B2 (en) Driving support device, driving support method, and computer program
JP7428294B2 (en) Driving support method and driving support device
WO2023194794A1 (en) Information providing device and information providing method
WO2023089835A1 (en) Vehicle travel assistance method and vehicle travel assistance device
RU2773067C1 (en) Vehicle control method and vehicle control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230913

R150 Certificate of patent or registration of utility model

Ref document number: 7350500

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150