JP7350500B2 - Display method of images for remote control and remote control device - Google Patents
Display method of images for remote control and remote control device Download PDFInfo
- Publication number
- JP7350500B2 JP7350500B2 JP2019062484A JP2019062484A JP7350500B2 JP 7350500 B2 JP7350500 B2 JP 7350500B2 JP 2019062484 A JP2019062484 A JP 2019062484A JP 2019062484 A JP2019062484 A JP 2019062484A JP 7350500 B2 JP7350500 B2 JP 7350500B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- remote control
- screen
- lane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 28
- 238000001514 detection method Methods 0.000 claims description 39
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 21
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 21
- 238000013459 approach Methods 0.000 claims description 5
- 239000003086 colorant Substances 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 25
- 238000012790 confirmation Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 7
- 238000010276 construction Methods 0.000 description 7
- 230000004397 blinking Effects 0.000 description 2
- 241000283070 Equus zebra Species 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Description
本発明は、車両の遠隔操作に用いられる画像の表示方法と、遠隔操作用画像を表示する遠隔操作装置と、に関するものである。 The present invention relates to a method for displaying images used for remote control of a vehicle, and a remote control device that displays images for remote control.
遠隔操作の対象となる車両から、車両の前方と、左方及び右方とを撮像した画像を、無線通信を介して取得し、これらの画像を表示装置に表示して、オペレータが表示された画像を見ながら車両を遠隔操作できるようにした遠隔操作装置が知られている(特許文献1)。 From the vehicle to be remotely controlled, images of the front, left and right sides of the vehicle are acquired via wireless communication, and these images are displayed on a display device for the operator to see. A remote control device that allows a vehicle to be remotely controlled while viewing an image is known (Patent Document 1).
従来の遠隔操作装置では、一人のオペレータが複数種類の画像を見ながら遠隔操作を行なうため、画像確認に要する負荷が大きくなる場合があった。 In conventional remote control devices, one operator performs remote control while viewing a plurality of types of images, which may result in a heavy load required for image confirmation.
本発明が解決しようとする課題は、オペレータによる画像の確認の負荷が低減可能な遠隔操作用画像の表示方法と、遠隔操作装置とを提供することである。 The problem to be solved by the present invention is to provide a remote control image display method and a remote control device that can reduce the burden of image confirmation by an operator.
本発明は、自律走行制御機能を備えた車両から、車両の周囲を撮像した周囲映像を取得し、取得した周囲映像を、車両の遠隔操作用画像として表示し、車両の状態に応じて、遠隔操作用画像の所定領域を強調表示する場合に、車両から周囲の複数方向を撮像した複数種類の方向画像を含み、車両の状態に応じて、重要度が高い方向画像の全体を強調表示し、車両が車線内を走行している場合には、方向画像として、車両の前方画像、左側画像及び右側画像を強調表示し、車両が走行中の車線から右側車線へ移動する場合には、車両の前方画像、右側画像及び右後方画像を強調表示し、車両が走行中の車線から左側車線へ移動する場合には、車両の前方画像、左側画像及び左後方画像を強調表示することにより、上記課題を解決する。 The present invention acquires an image of the surroundings of the vehicle from a vehicle equipped with an autonomous driving control function, displays the acquired surrounding image as an image for remote control of the vehicle, and remotely controls the vehicle according to the state of the vehicle. When highlighting a predetermined area of the operation image, including multiple types of direction images taken from the vehicle in multiple directions around the vehicle, highlighting the entire direction image with high importance depending on the state of the vehicle, When the vehicle is traveling within the lane, the front image, left side image, and right side image of the vehicle are highlighted as direction images, and when the vehicle moves from the lane in which it is traveling to the right lane, the vehicle's direction image is highlighted. The front image, right side image, and right rear image are highlighted, and when the vehicle moves from the lane in which it is traveling to the left lane, the above image is highlighted by highlighting the front image, left side image, and left rear image of the vehicle. Solve problems.
本発明によれば、遠隔操作装置のオペレータは、車両の遠隔操作を行うにあたり、遠隔操作用画像の強調表示された所定領域に注目すればよいので、オペレータによる画像の確認の負荷を低減することができる。 According to the present invention, the operator of the remote control device only needs to focus on a highlighted predetermined area of the remote control image when remotely controlling the vehicle, thereby reducing the burden of image confirmation by the operator. I can do it.
以下、本発明の実施形態を図面に基づいて説明する。図1は、本実施形態に係る無人運転システム1の構成の一例を示すブロック図である。本実施形態に係る無人運転システム1は、本発明に係る遠隔操作用画像の表示方法、及び遠隔操作装置を実施する一実施の形態でもある。
Embodiments of the present invention will be described below based on the drawings. FIG. 1 is a block diagram showing an example of the configuration of an
本実施形態に係る無人運転システム1は、自律走行制御機能を備え、自律走行制御により、又は外部からの遠隔操作に基づく自律走行制御により走行する車両V0を、タクシー、乗合自動車その他の商用車として運用するシステムである。本実施形態に係る無人運転システム1は、複数台の車両V0と、複数台の遠隔操作装置3と、車両V0と遠隔操作装置3とを相互に通信可能に接続するネットワークNW1と、を備える。
The
遠隔操作装置3は、車両V0が自律走行制御による走行を行えなくなった場合に、車両V0を遠隔操作する。複数台の遠隔操作装置3は、通信設備を備えた車両管理センタ4に設置されている。車両管理センタ4には、遠隔操作装置3とともにLAN等の構内ネットワークNW2に接続された管理サーバ5が設置されている。管理サーバ5は、ネットワークNW1を通じて複数台の車両V0と接続し、構内ネットワークNW2を通じて複数台の遠隔操作装置3と接続して、複数台の車両V0及び遠隔操作装置3を管理する。
The
ネットワークNW1には、例えば、インターネット等が用いられる。また、各車両V0のネットワークNW1への接続には、広いエリアで普及し、かつ、比較的高速な通信速度が得られる携帯電話通信網等が利用される。なお、無人運転システム1が稼働される所定エリア内に無線通信用の複数のアクセスポイントを設置し、無人運転システム専用の無線通信網を形成して、この無線通信網により車両V0と遠隔操作装置3とを接続してもよい。
For example, the Internet is used as the network NW1. Further, to connect each vehicle V0 to the network NW1, a mobile phone communication network or the like that is widespread in a wide area and can provide a relatively high communication speed is used. In addition, a plurality of access points for wireless communication are installed in a predetermined area where the
本実施形態に係る無人運転システム1は、例えば、複数台の車両V0を、予め所定の乗車開始位置に配置している。乗客Pは、例えば、スマートフォン等の携帯端末Tにインストールされた専用アプリケーションを操作し、顧客情報や乗車開始時時刻、目的地等の情報を入力して乗車予約を行なう。携帯端末Tの専用アプリケーションに入力された情報は、予約情報として管理サーバ5に送信される。
In the
管理サーバ5は、受信した予約情報に基づいて、乗客Pを乗せて走行する車両V0(以下、予約車両ともいう)と、乗車開始時刻と、目的地までの走行順路とを設定する。また、管理サーバ5は、乗客Pの携帯端末Tに予約確認情報として、設定した予約車両V0の車両番号と、乗車開始時刻と、目的地と、走行順路とを送信する。さらに、管理サーバ5は、予約車両V0に運行情報として、乗客Pの顧客情報と、乗車開始時刻と、目的地と、走行順路とを送信する。予約車両V0は、走行順路内の道路で車線をはみ出さずに走行するための走行経路を設定し、自律走行制御により交通法規を遵守しながら走行経路を自律走行することにより、乗車した乗客Pを目的地まで送り届ける。 Based on the received reservation information, the management server 5 sets a vehicle V0 (hereinafter also referred to as a reserved vehicle) that carries the passenger P, a boarding start time, and a route to the destination. In addition, the management server 5 transmits the vehicle number of the set reserved vehicle V0, boarding start time, destination, and travel route as reservation confirmation information to the passenger P's mobile terminal T. Furthermore, the management server 5 transmits the customer information of the passenger P, the boarding start time, the destination, and the route of travel as operation information to the reserved vehicle V0. The reserved vehicle V0 sets a travel route for driving on the road within the driving route without straying from the lane, and uses autonomous driving control to autonomously travel along the travel route while observing traffic regulations. to the destination.
また、車両V0は、走行順路に沿って設定された走行経路を自律走行中に、進行方向に存在する停車車両や工事現場等の路上の障害物により、車線からはみ出さずに自律走行制御が行えなくなった場合には、一旦停車し、管理サーバ5に支援要求信号を送信する。車両V0から支援要求信号を受信した管理サーバ5は、複数台の遠隔操作装置3のうちから車両V0を遠隔操作する遠隔操作装置3を決定し、決定した遠隔操作装置3に支援要請を行い、支援要請を受け付けた遠隔操作装置3と車両V0とを通信可能に接続する。遠隔操作装置3は、車両V0が再び自律走行制御を行えるように、路上の障害物を回避して走行するための走行経路である回避経路を設定し、車両V0に送信する。車両V0は、自律走行制御により回避経路を走行して路上の障害物を回避し、再び走行順路に沿って設定された走行経路を自律走行制御により走行する。
In addition, while the vehicle V0 is autonomously traveling along the travel route set along the driving route, the autonomous driving control is prevented from moving out of the lane due to obstacles on the road such as parked vehicles or construction sites in the direction of travel. If the vehicle is unable to do so, the vehicle temporarily stops and sends a support request signal to the management server 5. The management server 5, which has received the support request signal from the vehicle V0, determines the
図2は、車両V0と遠隔操作装置3の機能的な構成を示すブロック図である。なお、図2では、図面の煩雑化を防ぐため、ネットワークNW1の図示は省略している。本実施形態に係る車両V0は、通信部21と、センサ22と、障害物認識部23と、経路設定部24と、走行制御部25と、車両情報取得部26と、を備える。
FIG. 2 is a block diagram showing the functional configuration of the vehicle V0 and the
車両V0を構成する各部のうち、障害物認識部23と、経路設定部24と、走行制御部25と、車両情報取得部26とは、一又は複数のコンピュータ及び当該コンピュータにインストールされたソフトウェアにより構成されている。コンピュータは、上述した各部を機能させるためのプログラムを格納したROMと、このROMに格納されたプログラムを実行するCPUと、アクセス可能な記憶装置として機能するRAMとから構成される。なお、CPUに代えて又はこれとともに、MPU、DSP、ASIC、FPGAなどを用いることができる。また、各部を構成するコンピュータは、通信部21と、センサ22とに対し、相互に情報の送受信を行うために、たとえばCAN(Controller Area Network)その他の車載LANによって接続されている。
Among the parts that make up the vehicle V0, the obstacle recognition part 23, the route setting part 24, the travel control part 25, and the vehicle information acquisition part 26 are operated by one or more computers and software installed on the computers. It is configured. A computer is comprised of a ROM that stores programs for making the above-mentioned parts function, a CPU that executes the programs stored in the ROM, and a RAM that functions as an accessible storage device. Note that an MPU, DSP, ASIC, FPGA, etc. can be used in place of or in addition to the CPU. Further, the computers constituting each section are connected to the
通信部21は、ネットワークNW1を介して車両管理センタ4と通信を行う。具体的には、通信部21は、管理サーバ5から運行情報として送信された乗客Pの顧客情報と、乗車開始時刻と、目的地と、走行順路とを受信する。また、通信部21は、所定時間毎又は所定の走行距離毎に、車両V0の現在位置情報(例えば、緯度、経度等)と、車両V0の前面が向いている方向(以下、車両方向情報ともいう)と、速度情報とを管理サーバ5に送信する。管理サーバ5は、受信した現在位置情報、車両方向情報及び速度情報に基づいて、各車両V0の走行状況を管理する。さらに、通信部21は、車両V0が自律走行制御による走行を行えなくなった場合に、管理サーバ5に支援要求信号を送信する。また、通信部21は、車両V0を遠隔操作する遠隔操作装置3が決定した場合、その遠隔操作装置3に、車両V0の遠隔操作を行うために必要な各種車両情報を送信する。
The
センサ22は、車両V0の周囲の状況を検出する。センサ22は、例えば、カメラと、障害物センサとを備える。カメラは、CCDやCMOS等のイメージセンサにより車両V0の周囲映像を撮像し、周囲映像の画像データを生成する撮像装置である。センサ22を構成するカメラは、複数のカメラからなり、例えば、車両V0の上面図である図3に示すように、車両V0の前方を撮像する前方カメラ221Fと、車両V0の後方を撮像する後方カメラ221Bと、車両V0の左右の側方をそれぞれ撮像する左側カメラ221L及び右側カメラ221Rと、車両V0の左右の後方をそれぞれ撮像する左後方カメラ221LB及び右後方カメラ221RBと、を含む。
センサ22を構成する障害物センサは、車両V0の周囲の障害物を検出する。障害物センサには、レーダ装置や、ライダー装置等の各種センサが、単独であるいは適宜組み合わせて利用される。図3に示すように、レーダ装置222aは、例えば、車両V0の前部に設置されており、ミリ波や超音波を車両V0の前方に照射して反射波を受信することにより、車両V0の周囲に存在する障害物(物体)までの距離や相対速度等を検出する。ライダー装置222b、222cは、例えば、車両V0の前部及び後部に設置されており、レーザ光を車両V0の周囲に照射して反射光を受光し、受光した反射光を三次元にマッピングすることにより、車両V0の周囲に存在する物体までの距離や、物体の形状等を検出する。
The obstacle sensor forming the
障害物認識部23は、センサ22のカメラで撮像された画像データと、障害物センサの検出結果である障害物センサ情報とを解析して、車両V0の周囲に存在する、自律走行に影響を及ぼす物体を認識する。障害物認識部23により認識される物体としては、例えば、歩行者、自転車、バイク及び自動車等の移動物体や、停止車両、工事現場、路上落下物及び路上建造物等の静止物体等である。路上建造物としては、ガードレール、路肩、中央分離帯及び信号機等が含まれる。なお、前方カメラ221Fの画像データは、センターラインや車道外側線等のレーンマークや、停止線、横断歩道等の路面標示の検出にも用いられる。
The obstacle recognition unit 23 analyzes the image data captured by the camera of the
経路設定部24は、車両管理センタ4から受信した走行順路に沿って車両V0が実際に走行する経路である走行経路を設定する。経路設定部24は、詳しくは図示しないが、位置検出部と、地図データベースとを備える。
The route setting unit 24 sets a travel route along which the vehicle V0 actually travels along the travel route received from the
位置検出部は、GPSユニットと、ジャイロセンサと、車速センサ等を備える。位置検出部は、GPSユニットにより複数のGPS衛星から送信される電波を検出し、車両V0の位置情報を周期的に取得するとともに、取得した車両V0の位置情報と、ジャイロセンサから取得した角度変化情報と、車速センサから取得した速度情報とに基づいて、車両V0の現在位置情報を生成する。 The position detection section includes a GPS unit, a gyro sensor, a vehicle speed sensor, and the like. The position detection unit detects radio waves transmitted from multiple GPS satellites by the GPS unit, periodically acquires position information of the vehicle V0, and detects the acquired position information of the vehicle V0 and the angle change acquired from the gyro sensor. The current position information of the vehicle V0 is generated based on the information and the speed information acquired from the vehicle speed sensor.
地図データベースは、カーナビゲーション装置等で用いられている地図情報と同様のものであり、各種施設や特定の地点の位置情報とともに、道路に関する情報が記録されている。道路に関する情報としては、道路種別、道路幅、車線数、交差点や信号機の位置、右折・左折専用車線の有無とその専用車線の数、制限速度、合流地点、分岐地点、料金所、車線数の減少位置、サービスエリア(SA)/パーキングエリア(PA)などの位置情報等が記録されている。 The map database is similar to the map information used in car navigation devices and the like, and records information on roads as well as location information on various facilities and specific points. Road-related information includes road type, road width, number of lanes, location of intersections and traffic lights, existence and number of right-turn/left-turn lanes, speed limits, merging points, branching points, toll booths, and number of lanes. Location information such as reduced location, service area (SA)/parking area (PA), etc. are recorded.
経路設定部24は、位置検出部により生成された車両V0の現在位置情報と、地図データベースと、障害物認識部23による障害物の認識結果とに基づいて、車両V0が走行する走行順路の道路の幅を特定し、この道路の幅の中央に車両V0の走行経路を設定することにより、車両V0が走行順路の車線からはみ出さずに走行可能な走行経路を設定する。経路設定部24は、本発明の経路設定部に相当する。 The route setting unit 24 determines the road of the driving route on which the vehicle V0 will travel, based on the current position information of the vehicle V0 generated by the position detection unit, the map database, and the recognition results of obstacles by the obstacle recognition unit 23. By specifying the width of the road and setting the travel route of the vehicle V0 in the center of the width of the road, a travel route that allows the vehicle V0 to travel without protruding from the lane of the route is set. The route setting unit 24 corresponds to the route setting unit of the present invention.
走行制御部25は、車両V0の自律走行制御機能を司る機能部であり、車両V0の各部を制御して、車両V0を経路設定部24により設定された走行経路に沿って走行させる。より具体的には、走行制御部25は、例えば、エンジンやモータ等の駆動機構、変速機構及び制動機構等を制御して車両V0の速度を調節するとともに、車両V0の前後方向に沿って設定された車両中心線VL(図3参照)が走行経路上を移動するように操舵機構を制御する。また、走行制御部25は、車両V0が走行経路に沿って右折又は左折をする場合には、駆動機構、変速機構及び制動機構を制御して速度を調節するとともに、操舵機構及び方向指示器等を制御して、車両V0を右折又は左折させる。 The driving control unit 25 is a functional unit that controls the autonomous driving control function of the vehicle V0, and controls each part of the vehicle V0 to cause the vehicle V0 to travel along the driving route set by the route setting unit 24. More specifically, the traveling control unit 25 controls, for example, a drive mechanism such as an engine or a motor, a transmission mechanism, a braking mechanism, etc. to adjust the speed of the vehicle V0, and also adjusts the speed of the vehicle V0 along the longitudinal direction of the vehicle V0. The steering mechanism is controlled so that the vehicle center line VL (see FIG. 3) moved along the travel route. Further, when the vehicle V0 turns right or left along the travel route, the travel control unit 25 controls the drive mechanism, transmission mechanism, and braking mechanism to adjust the speed, and also controls the steering mechanism, direction indicator, etc. to make the vehicle V0 turn right or left.
さらに、走行制御部25は、現在位置情報と、地図データベースと、障害物認識部23の認識結果とに基づいて、車両V0の進行方向に一時停止位置や、赤信号の交差点等が存在することが判明した場合には、駆動機構、変速機構及び制動機構等を制御し、車両V0の速度を低下させて停車させる。また、走行制御部25は、障害物認識部23により、車両V0の進行方向に、自律走行制御の支障となる停止車両や工事現場、歩行者等の障害物が存在することが判明した場合には、駆動機構、変速機構及び制動機構等を制御して車両V0の速度を低下させ、必要に応じて車両V0を停止させる。なお、本実施形態において、走行制御部25が備える自律走行制御機能は、特に限定されるものではなく、本発明の出願時における技術を適宜援用できる。 Further, the travel control unit 25 determines whether there is a temporary stop position, an intersection with a red light, etc. in the traveling direction of the vehicle V0 based on the current position information, the map database, and the recognition result of the obstacle recognition unit 23. If this is determined, the drive mechanism, transmission mechanism, braking mechanism, etc. are controlled to reduce the speed of the vehicle V0 and bring it to a stop. In addition, when the obstacle recognition unit 23 determines that there is an obstacle such as a stopped vehicle, a construction site, or a pedestrian in the direction of movement of the vehicle V0, the driving control unit 25 detects the presence of an obstacle such as a stopped vehicle, a construction site, a pedestrian, etc. that interferes with the autonomous driving control. The control unit controls the drive mechanism, transmission mechanism, braking mechanism, etc. to reduce the speed of the vehicle V0 and, if necessary, stops the vehicle V0. In addition, in this embodiment, the autonomous driving control function provided in the driving control unit 25 is not particularly limited, and the technology at the time of filing of the present invention can be used as appropriate.
また、走行制御部25は、車両V0が自律走行制御による走行が行えなくなって停車させた場合には、通信部21により、車両管理センタ4の管理サーバ5に支援要求信号を送信する。なお、支援要求信号は、たんに支援を求めるだけの信号であってもよいし、支援要請の内容を含む信号であってもよい。支援要求信号に、支援要請の内容を含めて送信すれば、管理サーバ5では、その支援要請の内容に応じて車両V0を遠隔操作する遠隔操作装置3の決定に利用することができる。また、支援要求信号が複数の車両V0から送信されている場合には、支援要求信号の支援要請の内容に応じて、支援を開始する車両V0の優先順位の決定等に利用することができる。
Furthermore, when the vehicle V0 is stopped because it is no longer able to travel under autonomous travel control, the travel control unit 25 transmits an assistance request signal to the management server 5 of the
車両情報取得部26は、車両V0を遠隔操作する遠隔操作装置3に送信する各種車両情報を取得する。車両情報取得部26により取得される車両情報としては、例えば、センサ22の前方カメラ221F、後方カメラ221B、左側カメラ221L、右側カメラ221R、左後方カメラ221LB及び右後方カメラ221RBにより撮像された周囲映像の画像データと、レーダ装置222a及びライダー装置222b、222cにより検出された障害物に関する障害物センサ情報と、車両V0の現在位置情報と、車両方向情報等が含まれる。
The vehicle information acquisition unit 26 acquires various vehicle information to be transmitted to the
次に、遠隔操作装置3について説明する。遠隔操作装置3は、図2に示すように、通信部31と、入力部32と、表示部33と、表示制御部34と、遠隔制御部35と、を備える。遠隔操作装置3の表示制御部34及び遠隔制御部35は、一又は複数のコンピュータ及び当該コンピュータにインストールされたソフトウェアにより構成されている。コンピュータは、上述した各部を機能させるためのプログラムを格納したROMと、このROMに格納されたプログラムを実行するCPUと、アクセス可能な記憶装置として機能するRAMとから構成される。なお、CPUに代えて又はこれとともに、MPU、DSP、ASIC、FPGAなどを用いることができる。また、各部を構成するコンピュータは、通信部31と、入力部32と、表示部33とに対し、相互に情報の送受信を行うように接続されている。
Next, the
通信部31は、ネットワークNW1を介して車両V0と通信を行う。具体的には、通信部31は、管理サーバ5から要請された車両V0の遠隔操作を行う場合に、当該車両V0から遠隔操作に必要な各種の走行情報として、前方カメラ221F、後方カメラ221B、左側カメラ221L、右側カメラ221R、左後方カメラ221LB及び右後方カメラ221RBにより撮像された周囲映像の画像データと、レーダ装置222a及びライダー装置222b、222cにより検出された障害物に関する障害物センサ情報と、車両V0の現在位置情報及び車両方向情報と、を受信する。また、通信部31は、例えば、車両V0が路上の障害物を回避して自律走行制御を継続できるようにするために、回避経路等の遠隔制御情報を車両V0に送信する。すなわち、通信部31は、本発明の映像取得手段に相当する。
入力部32は、遠隔操作装置3のオペレータにより操作される機器であり、車両V0の回避経路の生成などの各種操作を行うために用いられる。入力部32としては、例えば、ディスプレー上に配置されるタッチパネルやキーボード、マウスやジョイスティックなどのオペレータの手動操作を検知する装置や、マイク及び音声認識部を備えた音声入力装置等が用いられる。
The
表示部33は、液晶ディスプレー等の表示装置であり、車両V0を遠隔操作するための操作画面等が表示される。表示制御部34は、表示部33に操作画面を表示させる。表示部33及び表示制御部34は、本発明の表示手段及び表示制御手段に相当する。
The
図4は、表示制御部34によって表示部33に表示される操作画面を示している。この操作画面は、俯瞰画面PVと、左側画面LVと、前方画面FVと、右側画面RVと、左後方画面LBVと、後方画面BVと、右後方画面RBVと、を備える。これらの俯瞰画面PVと、左側画面LVと、前方画面FVと、右側画面RVと、左後方画面LBVと、後方画面BVと、右後方画面RBVとに表示される画像は、車両V0から周囲の複数方向を撮像した複数種類の方向画像に相当する。
FIG. 4 shows an operation screen displayed on the
俯瞰画面PVは、例えば、車両V0の現在位置情報に基づいて取得した地図画像又は衛星画像あるいは航空画像に、車両V0の上面画像と、レーダ装置222a及びライダー装置222b、222cにより検出された障害物センサ情報とが重ね合わせて表示される。左側画面LV、前方画面FV、右側画面RV、左後方画面LBV、後方画面BV及び右後方画面RBVには、車両V0から受信した左側カメラ221L、前方カメラ221F、右側カメラ221R、左後方カメラ221LB、後方カメラ221B、及び右後方カメラ221RBの画像データが、それぞれ表示される。
The bird's-eye view screen PV includes, for example, a map image, a satellite image, or an aerial image acquired based on the current position information of the vehicle V0, a top view image of the vehicle V0, and obstacles detected by the
例えば、図5に示す俯瞰画面PVは、左側通行の片側1車線道路(上下2車線道路)の衛星画像である。この道路の図中下方から上方へと向かう上り車線L1と、図中上方から下方へと向かう下り車線L2には、それぞれ車両待避所L1s、L2sが設けられている。また、上り車線L1と下り車線L2との間の一部には、ゼブラゾーンZが設けられている。さらに、上り車線L1と下り車線L2との外側には、路肩U1、U2と、歩道J1、J2とがそれぞれ配置されている。また、上り車線L1には、自律走行制御により走行経路に沿って自律走行する車両V0の上面図が表示されている。また、車両V0の前方には、上り車線L1に存在する停車車両V1(図6の前方画面FV参照)を、車両V0のライダー装置222b、222cにより検出した検出結果である障害物センサ情報FIが表示されている。障害物センサ情報FIには、停車車両V1の後部の輪郭のみが表示される。
For example, the bird's-eye view screen PV shown in FIG. 5 is a satellite image of a one-lane road (two lanes up and down) with left-hand traffic. Vehicle shelter areas L1s and L2s are provided in the up lane L1 of this road, which goes from the bottom to the top in the figure, and the down lane L2, which goes from the top to the bottom in the figure, respectively. Further, a zebra zone Z is provided in a part between the up lane L1 and the down lane L2. Furthermore, road shoulders U1 and U2 and sidewalks J1 and J2 are arranged on the outside of the up lane L1 and the down lane L2, respectively. Further, in the up lane L1, a top view of a vehicle V0 autonomously traveling along a travel route under autonomous travel control is displayed. In addition, in front of the vehicle V0, there is obstacle sensor information FI that is the detection result of the
図6は、図5に示す車両V0の左側画面LV、前方画面FV、右側画面RV、左後方画面LBV、後方画面BV及び右後方画面RBVを示している。前方画面FVには、前方カメラ221Fによって撮像された停車車両V1の後部が表示されている。なお、左側画面LV、前方画面FV、右側画面RV、左後方画面LBV、後方画面BV及び右後方画面RBVにおいて、ドットでハッチングされている部分は、車両V0のボディを示している。
FIG. 6 shows the left screen LV, front screen FV, right screen RV, left rear screen LBV, rear screen BV, and right rear screen RBV of the vehicle V0 shown in FIG. The rear part of the stopped vehicle V1 imaged by the
遠隔制御部35は、走行順路に沿って設定された走行経路を自律走行制御により走行する車両V0が、停車車両や工事現場等の路上の障害物によって自律走行が行えなくなった場合に、路上の障害物を自律走行制御により回避するための回避経路を設定する。すなわち、遠隔制御部35は、車両V0の経路設定部24とともに、本発明の経路設定部に相当する。回避経路の設定は、入力部32を操作して、表示部33に表示されている俯瞰画面PV上で車両V0の前部から障害物を回避して元の走行経路に戻るまでの回避経路を入力することにより行われる。
The remote control unit 35 is configured to control the vehicle V0 on the road when the vehicle V0, which is traveling under autonomous driving control on a travel route set along the driving route, is unable to autonomously travel due to an obstacle on the road such as a stopped vehicle or a construction site. Set an avoidance route to avoid obstacles using autonomous driving control. That is, the remote control unit 35 corresponds to the route setting unit of the present invention, together with the route setting unit 24 of the vehicle V0. To set the avoidance route, operate the
図7は、図5、6に示す車両V0の回避経路を示す俯瞰画面PVである。遠隔操作装置3のオペレータは、車両V0の前部から、停車車両V1を回避するように、車両V0が通過する予定位置である経路ポイントPtを複数設定する。遠隔制御部35は、設定された複数の経路ポイントPtを接続して回避経路Raを生成する。俯瞰画面PVには、設定された複数の経路ポイントPtと、生成された回避経路Raと、回避経路Raに沿って走行する車両V0の移動軌跡Mtとが、衛星画像上に表示される。設定された回避経路Raは、通信部31によって車両V0に送信される。
FIG. 7 is an overhead screen PV showing the avoidance route of the vehicle V0 shown in FIGS. 5 and 6. The operator of the
表示制御部34は、画像表示部341と、画像強調部342と、物体検出部343と、物体強調部344と、物体予測部345と、解析情報強調部346と、を備える。画像表示部341は、車両V0から受信した左側カメラ221L、前方カメラ221F、右側カメラ221R、左後方カメラ221LB、後方カメラ221B、及び右後方カメラ221RBの画像データを、表示部33の左側画面LV、前方画面FV、右側画面RV、左後方画面LBV、後方画面BV及び右後方画面RBVにそれぞれ表示する。また、画像表示部341は、車両V0から定期的に受信した左側カメラ221L、前方カメラ221F、右側カメラ221R、左後方カメラ221LB、後方カメラ221B、及び右後方カメラ221RBの画像データに基づいて、表示部33の左側画面LV、前方画面FV、右側画面RV、左後方画面LBV、後方画面BV及び右後方画面RBVを更新する。
The
画像強調部342は、車両V0の状態に応じて、遠隔操作用画像の所定領域を強調表示する。具体的には、車両V0の進行方向に応じて、遠隔操作用画像の所定領域を強調表示する。この進行方向とは、車両V0が走行している方向、もしくは車両V0を自律走行制御により走行させる走行経路の方向を進行方向として、遠隔操作用画像の所定領域を強調表示する。 The image enhancement unit 342 highlights a predetermined area of the remote control image according to the state of the vehicle V0. Specifically, a predetermined area of the remote control image is highlighted depending on the traveling direction of the vehicle V0. The traveling direction is defined as the direction in which the vehicle V0 is traveling or the direction of the traveling route along which the vehicle V0 is driven under autonomous driving control, and a predetermined area of the remote control image is highlighted.
例えば、車両V0が自律走行制御により設定された走行経路を走行している場合、すなわち、通常の走行を行っている場合には、図8に示すように、表示部33の左側画面LV、前方画面FV及び右側画面RVの外枠が、例えば、赤色の太線等によって強調表示される。
For example, when the vehicle V0 is traveling on a travel route set by autonomous driving control, that is, when it is traveling normally, the left screen LV of the
また、図9(A)に示すように、車両V0が片側1車線道路を走行中に、前方に停車車両V1が停車しており、車両V0が停車車両V1の後ろに停車したような場合には、車両V0は、同図(B)に示すように、遠隔操作により停車車両V1を迂回して走行を再開する必要がある。このような場合には、遠隔操作装置3によって生成された回避経路の方向が進行方向として特定され、図10に示すように、回避経路の進行方向である前方画面FV、右側画面RV及び右後方画面RBVの外枠が、例えば、赤色の太線等によって強調表示される。
Further, as shown in FIG. 9(A), when the vehicle V0 is traveling on a road with one lane on each side, a stopped vehicle V1 is stopped in front, and the vehicle V0 is stopped behind the stopped vehicle V1. In this case, the vehicle V0 needs to detour around the stopped vehicle V1 and resume traveling by remote control, as shown in FIG. 2(B). In such a case, the direction of the avoidance route generated by the
物体検出部343は、車両V0から受信した左側カメラ221L、前方カメラ221F、右側カメラ221R、左後方カメラ221LB、後方カメラ221B、及び右後方カメラ221RBの画像データを解析し、その解析結果と、車両V0から受信したレーダ装置222a及びライダー装置222b、222cの障害物センサ情報とに基づいて、車両V0の走行に影響を及ぼす物体や、車両V0の走行経路と交差する経路に存在する物体等を検出する。物体検出部343により認識される物体としては、例えば、歩行者、自転車、バイク及び自動車等の移動物体や、停止車両、工事現場、路上落下物及び路上建造物等の静止物体等である。路上建造物としては、ガードレール、路肩、中央分離帯及び信号機等が含まれる。
The
物体予測部345は、物体検出部343により検出された物体の種類を特定し、物体の種類に応じて車両V0への接近可能性を判断する。例えば、移動物体として、歩行者、自転車及び自動車等が検出されるが、これらの各物体の位置と、移動速度と、移動方向と、自車両V0の位置等に基づいて接近可能性を判断する。
The object prediction unit 345 identifies the type of object detected by the
物体強調部344は、物体検出部343で車両V0の走行に影響を及ぼす物体を検出した場合、又は車両V0に対する接近可能性の高い物体を検出した場合に、遠隔操作用画像の所定領域を強調表示する。具体的には、車両V0の走行に影響を及ぼす物体と、この物体を含む遠隔操作用画像の所定領域とを強調表示する。
The object enhancement unit 344 emphasizes a predetermined area of the remote control image when the
例えば、図11に示す例では、物体検出部343により、前方画面FVに表示されている停車車両V1が検出されるので、物体強調部344は、前方画面FVの外枠を点滅させるなどして強調表示する。また、物体強調部344は、物体検出部343の検出結果に基づいて、俯瞰画面PVの停車車両V1が停車している位置に、停車車両V1を示す画像を、注意を引きやすい赤色等の色調で表示したり、点滅表示させる等して強調表示する。このように、物体が実際に表示されている画面だけでなく、俯瞰画面PVにも検出された物体を表示するので、自車両V0との位置関係が把握しやすくなる。なお、俯瞰画面PVは、車両V0の遠隔操作において、オペレータにより必ず確認される画面であるため、外枠等の強調表示は行っていないが、検出された物体を表示する際に強調表示するようにしてもよい。
For example, in the example shown in FIG. 11, the
解析情報強調部346は、物体検出部343により物体が検出された場合に、物体の種類、物体までの距離、物体の速度もしくは物体と車両との相対速度の少なくとも1つを含む物体情報を特定し、物体を検出したことを示す物体検出情報とともに、物体情報を遠隔操作用画像の上に重ねて表示する。また、物体検出情報として、物体の車両への接近状況を示す情報を表示する。
When an object is detected by the
例えば、図12に示す例では、物体検出部343により、前方画面FVに表示されている停車車両V1と、右側画面RVに表示されている追い越し車両V2とが検出される。追い越し車両V2は、車両V0と停車車両V1とを反対車線から追い越そうとしている車両である。物体強調部344は、前方画面FVと右側画面RVの外枠を点滅させるなどして強調表示する。また、物体強調部344は、物体検出部343の検出結果に基づいて、俯瞰画面PVの停車車両V1が停車している位置に、停車車両V1を示す画像を強調表示し、追い越し車両V2が停車している位置に、追い越し車両V2を示す画像を強調表示する。解析情報強調部346は、前方画面FVに「停車車両あり」という物体検出情報を表示する。また、解析情報強調部346は、右側画面RVに「接近車両あり」という物体検出情報と、「XXkmで接近中」という物体情報を表示する。さらに、解析情報強調部346は、俯瞰画面PVの停車車両V1の近傍と、追い越し車両V2の近傍に、「停車車両あり」と、「接近車両あり」という物体検出情報をそれぞれ表示する。
For example, in the example shown in FIG. 12, the
次に、図13及び図14に示すフローチャートを参照し、本実施形態の無人運転システム1の作用について説明する。管理サーバ5は、乗客Pの携帯端末Tから予約情報を受信すると、乗客Pを乗せて走行する車両V0と、乗車開始時刻と、目的地までの走行順路等を設定し(ステップS1)、携帯端末Tに予約確認情報を送信し、予約車両V0に運行情報を送信する(ステップS2)。管理サーバ5は、車両V0から所定時間毎又は所定の走行距離毎に送信される現在位置情報、車両方向情報及び速度情報を受信し、車両V0の自律走行の状況を管理、監視する(ステップS3)。
Next, the operation of the
車両V0は、管理サーバ5から送信された運行情報を通信部21により受信し、経路設定部24により運行情報の走行順路に基づいて、車両V0が走行順路上の車線からはみ出さずに走行するための走行経路を設定する。
The vehicle V0 receives the operation information transmitted from the management server 5 through the
車両V0は、乗車開始時刻になると乗客Pを乗車させ、乗客Pを目的地まで送り届けるための自律走行制御を開始する。この自律走行制御では、車両V0は、走行制御部25により駆動機構、変速機構及び制動機構等を制御して速度を調節するとともに、車両中心線VLが走行経路上を移動するように操舵機構を制御する。また、車両V0は、走行経路に沿って右折又は左折をする場合には、走行制御部25により駆動機構、変速機構及び制動機構を制御して速度を調節し、操舵機構及び方向指示器等を制御して右折又は左折を行う。さらに、車両V0は、現在位置情報と、地図データベースと、障害物認識部23の認識結果とに基づいて、進行方向に一時停止位置や、赤信号の交差点等が存在することが判明した場合には、走行制御部25により駆動機構、変速機構及び制動機構等を制御して車両V0の速度を低下させ、停車させる。 When the boarding start time arrives, the vehicle V0 allows the passenger P to board the vehicle and starts autonomous driving control for transporting the passenger P to the destination. In this autonomous driving control, the vehicle V0 controls the driving mechanism, transmission mechanism, braking mechanism, etc. by the driving control unit 25 to adjust the speed, and also controls the steering mechanism so that the vehicle center line VL moves on the driving route. Control. In addition, when the vehicle V0 makes a right or left turn along the travel route, the travel control unit 25 controls the drive mechanism, transmission mechanism, and braking mechanism to adjust the speed, and turns the steering mechanism, direction indicator, etc. Make a controlled right or left turn. Furthermore, if it is determined that there is a temporary stop position, an intersection with a red light, etc. in the direction of travel, based on the current position information, the map database, and the recognition result of the obstacle recognition unit 23, the vehicle V0 The drive control unit 25 controls the drive mechanism, transmission mechanism, braking mechanism, etc. to reduce the speed of the vehicle V0 and bring it to a stop.
自律走行制御により走行中の車両V0は、センサ22の前方カメラ221F、後方カメラ221B、左側カメラ221L、右側カメラ221R、左後方カメラ221LB及び右後方カメラ221RBにより、車両V0の周囲を撮像する。また、自律走行中の車両V0は、センサ22のレーダ装置222a及びライダー装置222b、222cにより、車両V0の周囲の物体を検出する。車両V0の障害物認識部23は、センサ22の各カメラで撮像された画像データと、レーダ装置222a及びライダー装置222b、222cの検出結果である障害物センサ情報とを解析して、車両V0の周囲に存在する、自律走行に影響を及ぼす物体を認識する。
Vehicle V0 running under autonomous driving control captures images of the surroundings of vehicle V0 by the
車両V0の進行方向に、停車車両や工事現場等の路上の障害物が存在し、車両V0が車線からはみ出さずに自律走行制御が行えない場合には、走行制御部25は、自律走行制御により車両V0を一旦停車させ、管理サーバ5に支援要求信号を送信する。 If there is an obstacle on the road such as a stopped vehicle or a construction site in the direction of travel of the vehicle V0, and autonomous driving control cannot be performed without the vehicle V0 protruding from the lane, the driving control unit 25 performs autonomous driving control. The vehicle V0 is temporarily stopped and a support request signal is transmitted to the management server 5.
車両V0から支援要求信号を受信した管理サーバ5は(ステップS4でYES)、複数台の遠隔操作装置3のうちから車両V0を遠隔操作する遠隔操作装置3を決定し、決定した遠隔操作装置3に支援要請を行い、支援要請を受け付けた遠隔操作装置3と車両V0とを通信可能に接続する(ステップS5)。
The management server 5 that has received the support request signal from the vehicle V0 (YES in step S4) determines the
遠隔操作装置3は、支援要請を受け付けた車両V0から、車両情報取得部26により取得した画像データ等の各種走行情報を受信する。この各種走行情報とは、前方カメラ221F、後方カメラ221B、左側カメラ221L、右側カメラ221R、左後方カメラ221LB及び右後方カメラ221RBにより撮像された周囲映像の画像データと、レーダ装置222a及びライダー装置222b、222cにより検出された障害物に関する障害物センサ情報と、車両V0の現在位置情報と、車両方向情報等である。
The
遠隔操作装置3は、車両V0から受信した画像データ等の各種データに基づいて、車両V0が障害物を回避して走行させるための回避処理を開始する。具体的には、表示制御部34の画像表示部341により、表示部33に対し、車両V0及び障害物センサ情報FIが衛星画像上に表示された俯瞰画面PVと、左側カメラ221Lにより撮像された左側画面LVと、前方カメラ221Fにより撮像された前方画面FVと、右側カメラ221Rにより撮像された右側画面RVと、左後方カメラ221LBにより撮像された左後方画面LBVと、後方カメラ221Bにより撮像された後方画面BVと、右後方カメラ221RBにより撮像された右後方画面RBVと、を表示する(ステップS6)。
The
次いで、遠隔操作装置3は、遠隔操作画像の注目領域を決定する注目領域決定処理を実行する(ステップS7)。図14は、図13のステップS7の注目領域決定処理のサブルーチンを示すフローチャートである。図14に示すように、注目領域決定処理では、画像強調部342により、車両V0の走行方向、又は走行経路の方向を進行方向として特定し(ステップS71)、特定した進行方向に基づいて、強調表示する方向画像の画面を決定する(ステップS72)。たとえば、車両V0が自律走行制御により設定された走行経路を通常に走行している場合には、図8に示すように、表示部33の左側画面LV、前方画面FV及び右側画面RVの外枠が、例えば、赤色の太線等によって強調表示されるように、注目領域を左側画面LV、前方画面FV及び右側画面RVの3つに決定する。
Next, the
あるいは、図9(A)及び(B)に示すように、車両V0が片側1車線道路を走行中に、前方に停車車両V1が停車しており、車両V0が停車車両V1の後ろに停車したような場合には、車両V0は、遠隔操作により停車車両V1を迂回して走行を再開する必要がある。このような場合には、遠隔操作装置3によって生成された回避経路の方向が進行方向として特定され、図10に示すように、回避経路の進行方向である前方画面FV、右側画面RV及び右後方画面RBVの外枠が、例えば、赤色の太線等によって強調表示されるように、注目領域を前方画面FV、右側画面RV及び右後方画面RBVの3つに決定する。
Alternatively, as shown in FIGS. 9(A) and (B), while the vehicle V0 is traveling on a road with one lane on each side, a stopped vehicle V1 is stopped in front, and the vehicle V0 is stopped behind the stopped vehicle V1. In such a case, it is necessary for the vehicle V0 to detour around the stopped vehicle V1 and resume traveling by remote control. In such a case, the direction of the avoidance route generated by the
次に、追加注目領域を決定する(ステップS73)。ここで、物体検出部343は、各方向画像を解析して、車両V0の走行に影響を及ぼす物体や、車両V0の走行経路と交差する経路に存在する物体等を検出する。また、物体予測部345は、物体検出部343により検出された物体の種類を特定し、物体の種類に応じて車両V0への接近可能性を判断する。物体強調部344は、物体が検出された場合、又は接近可能性が予測された物体が検出された場合に、強調表示する物体として決定する。たとえば、図11に示す例では、物体検出部343により、前方画面FVに表示されている停車車両V1が検出されるので、前方画面FVの外枠を強調表示するように、追加注目領域を前方画面FVに決定する。また、物体強調部344は、物体検出部343の検出結果に基づいて、俯瞰画面PVの停車車両V1が停車している位置に、停車車両V1を示す画像を強調表示するように、追加注目領域を俯瞰画面PVに決定する。
Next, an additional region of interest is determined (step S73). Here, the
次のステップS74では、物体検出部343により物体が検出されたか否かを判定し、物体が検出された場合はステップS75へ進み、物体が検出されない場合は図13のステップS8へ進む。物体検出部343により物体が検出された場合、ステップS75にて、解析情報強調部346は、検出された物体の種類、物体までの距離、物体の速度もしくは物体と車両との相対速度の少なくとも1つを含む物体情報を特定する。そして、続くステップS76にて、この物体情報と、物体を検出したことを示す物体検出情報とを生成する。なお、物体検出情報として、物体の車両への接近状況を示す情報を生成する。例えば、図12に示す例では、物体検出部343により、前方画面FVに表示されている停車車両V1と、右側画面RVに表示されている追い越し車両V2とが検出される。したがって、解析情報強調部346は、車両V1は停車車両であることを特定し、追い越し車両V2は、車両V0と停車車両V1とを反対車線から追い越そうとしている車両であることを特定する。
In the next step S74, the
図13のステップS8に戻り、ステップS8において、画像強調部342は、ステップS72で決定した画面に対して強調表示を行う処理を実行する。図8に示す例について言えば、表示部33の左側画面LV、前方画面FV及び右側画面RVの3つがステップS72で決定した画面であるから、これら左側画面LV、前方画面FV及び右側画面RVの各外枠を、例えば、赤色の太線等によって強調表示する。
Returning to step S8 in FIG. 13, in step S8, the image enhancement unit 342 executes a process of highlighting the screen determined in step S72. Regarding the example shown in FIG. 8, since the left screen LV, front screen FV, and right screen RV of the
また、同じくステップS8において、物体強調部344は、物体が検出された場合、又は接近可能性が予測された物体が検出された場合に、当該物体に対して強調表示を行う処理を実行する。図11に示す例について言えば、ステップS73において決定される追加注目領域が前方画面FVであるので、当該前方画面FVの外枠を強調表示する。また、ステップS73において俯瞰画面PVも追加注目領域に決定されるので、当該俯瞰画面PVの停車車両V1が停車している位置に、停車車両V1を示す画像を強調表示する。 Also, in step S8, when an object is detected, or when an object with predicted approachability is detected, the object highlighting unit 344 executes a process of highlighting the object. Regarding the example shown in FIG. 11, since the additional attention area determined in step S73 is the front screen FV, the outer frame of the front screen FV is highlighted. Moreover, since the bird's-eye view screen PV is also determined as an additional attention area in step S73, an image showing the stopped vehicle V1 is displayed in an emphasized manner at the position where the stopped vehicle V1 is parked on the bird's-eye view screen PV.
さらに同じくステップS8において、解析情報強調部346は、ステップS76で生成した物体情報を該当する画面に強調表示する。例えば、図12に示す例では、物体検出部343により、前方画面FVに表示されている停車車両V1と、右側画面RVに表示されている追い越し車両V2とが検出され、これにより車両V1は停車車両であり、追い越し車両V2は、車両V0と停車車両V1とを反対車線から追い越そうとしている車両であることが特定されるので、解析情報強調部346は、俯瞰画面PVの車両V1の横に「停車車両」というテキストデータを強調表示し、車両V2の横に「接近車両」というテキストデータを強調表示する。また、解析情報強調部346は、前方画面FVの車両V1の横に「停車車両あり」というテキストデータを強調表示し、右側画面RVの車両V2の横に「接近車両あり、XXkmで接近中」というテキストデータを強調表示する。
Furthermore, in step S8, the analysis
ステップS9では、ステップS5にて遠隔操作装置3に対して遠隔操作が要求されているので、当該遠隔操作装置3のオペレータは、車両V0から受信した画像データ等の各種データに基づいて遠隔操作装置3を操作し、車両V0が路上の障害物を自律走行制御により回避するための回避経路を設定する。具体的には、遠隔操作装置3の表示制御部34は、表示部33に対し、車両V0及び障害物センサ情報FIが衛星画像上に表示された俯瞰画面PVと、左側カメラ221Lにより撮像された左側画面LVと、前方カメラ221Fにより撮像された前方画面FVと、右側カメラ221Rにより撮像された右側画面RVと、左後方カメラ221LBにより撮像された左後方画面LBVと、後方カメラ221Bにより撮像された後方画面BVと、右後方カメラ221RBにより撮像された右後方画面RBVと、を表示する。
In step S9, since the
遠隔操作装置3のオペレータは、図7に示すように、表示部33に表示された俯瞰画面PVと、左側画面LVと、前方画面FVと、右側画面RVと、左後方画面LBVと、後方画面BVと、右後方画面RBVと、に基づいて、車両V0の状況を把握し、入力部32を操作して、俯瞰画面PV上で障害物を回避するように複数の経路ポイントPtを設定する。遠隔操作装置3は、設定された複数の経路ポイントPtを接続するようにして回避経路Raを生成する。俯瞰画面PVには、表示制御部34により、設定された複数の経路ポイントPtと、生成された回避経路Raと、回避経路Raに沿って走行する車両V0の移動軌跡Mtとが表示され、オペレータによって確認される。この回避経路を設定する際に、オペレータは、強調表示された画面に注目しながら操作するので、オペレータの操作負荷を軽減することができる。
As shown in FIG. 7, the operator of the
ステップS10では、ステップS9において設定された回避経路Raが、通信部31によって車両V0に送信され、これを受信した車両V0は、回避経路にしたがって回避のための自律走行を開始する。車両V0の走行制御部25は、障害物を回避して元の走行経路に戻った場合には(ステップS11でYES)、元の走行経路の自律走行制御を再開する。そして、ステップS11にて回避走行が終了するまでステップS6~S10の処理を繰り返し、回避走行が終了したらステップS12へ進む。
In step S10, the avoidance route Ra set in step S9 is transmitted to the vehicle V0 by the
ステップS12において、自律走行を実行している車両V0が目的地に到着したか否かを判定し、目的地に到着するまでステップS3~S12の処理を繰り返し、目的地に到着したらステップS13へ進んで、車両V0の自律走行の監視を終了する。 In step S12, it is determined whether the vehicle V0 running autonomously has arrived at the destination, and the processes of steps S3 to S12 are repeated until the vehicle V0 reaches the destination, and once the vehicle V0 has arrived at the destination, the process proceeds to step S13. Then, the monitoring of the autonomous running of the vehicle V0 is ended.
以上で説明したように、本実施形態の無人運転システム1は、自律走行制御機能を備えた車両V0を、車両の外部からの遠隔操作に基づく自律走行制御により走行させる場合に、車両V0から、車両の周囲を撮像した周囲映像を取得し、取得した周囲映像を、車両V0の遠隔操作用画像として表示し、車両V0の状態に応じて、遠隔操作用画像の所定領域を強調表示する。これにより、遠隔操作装置3のオペレータは、注目すべき領域が把握し易くなり、オペレータの画像確認に要する負荷を軽減することができる。
As explained above, the
また、本実施形態の無人運転システム1は、車両V0の進行方向(車両が走行している方向、もしくは車両を自律走行制御により走行させる走行経路の方向を含む)に応じて、遠隔操作用画像の所定領域を強調表示するので、遠隔操作装置3のオペレータは、注目すべき領域がより把握し易くなり、オペレータの画像確認に要する負荷をより一層軽減することができる。
In addition, the
さらに、本実施形態の無人運転システム1は、遠隔操作用画像から、車両V0の走行に影響を及ぼす物体を検出し、物体を検出した場合に、物体に応じて遠隔操作用画像の所定領域を強調表示する。このとき、物体と、物体を含む遠隔操作用画像の所定領域を強調表示してもよい。これにより、遠隔操作すべき車両V0と干渉する可能性がある物体を把握し易くなり、オペレータの画像確認に要する負荷をより一層軽減することができる。
Furthermore, the
さらに、本実施形態の無人運転システム1は、遠隔操作用画像から、車両V0が自律走行制御により走行する走行経路と交差する経路に存在する物体を検出し、物体を検出した場合に、物体を強調表示する。このとき、物体の種類を特定し、物体の種類に応じた車両への接近可能性に応じて、物体を強調表示してもよい。これにより、遠隔操作すべき車両V0と干渉する可能性がある物体を把握し易くなり、オペレータの画像確認に要する負荷をより一層軽減することができる。
Furthermore, the
さらに、本実施形態の無人運転システム1は、遠隔操作用画像から、車両V0の走行に影響を及ぼす物体を検出し、物体を検出した場合に、物体の種類、物体までの距離、物体の速度もしくは物体と車両V0との相対速度の少なくとも1つを含む物体情報を特定し、物体を検出したことを示す物体検出情報とともに、物体情報を遠隔操作用画像の上に重ねて表示する。このとき、物体検出情報として、物体の車両への接近状況を示す情報を表示してもよい。これにより、遠隔操作すべき車両V0と干渉する可能性がある物体の詳細な情報が把握し易くなり、オペレータの画像確認に要する負荷をより一層軽減することができる。
Furthermore, the
さらに、本実施形態の無人運転システム1は、遠隔操作用画像は、車両V0から周囲の複数方向を撮像した複数種類の方向画像を含み、車両の状態に応じて、重要度が高い方向画像の全体を強調表示する。たとえば、車両が車線内を走行している場合には、方向画像として、車両の前方画像、左側画像及び右側画像を強調表示し、車両が走行中の車線から右側車線へ移動する場合には、車両の前方画像、右側画像及び右後方画像を強調表示し、車両が走行中の車線から左側車線へ移動する場合には、車両の前方画像、左側画像及び左後方画像を強調表示し、車両を自律走行制御により走行させる走行経路を生成する場合には、走行経路の方向に応じた前記方向画像を強調表示する。これにより、遠隔操作装置3のオペレータは、注目すべき領域が把握し易くなり、オペレータの画像確認に要する負荷をより一層軽減することができる。
Furthermore, in the
さらに、本実施形態の無人運転システム1は、遠隔操作用画像から、車両V0の走行に影響を及ぼす物体を検出し、物体を検出した場合に、物体の状態に応じた異なる色で強調表示する。このとき、遠隔操作用画像は、車両V0から周囲の複数方向を撮像した複数種類の方向画像を含み、物体が検出された場合に、検出された物体の表示の有無、及び物体の接近方向に応じて、複数種類の方向画像の外枠を異なる色で強調表示してもよい。またこのとき、遠隔操作用画像は、車両から周囲の複数方向を撮像した複数種類の方向画像と、車両の現在位置の地図画像、衛星画像もしくは航空画像の上に、車両の上面画像を重ねて表示した俯瞰画像と、を含み、複数種類の方向画像から、車両の走行に影響を及ぼす物体を検出し、物体を検出した場合に、俯瞰画像に、検出された物体を示す画像を重ねて表示してもよい。これにより、遠隔操作装置3のオペレータは、注目すべき領域が把握し易くなり、オペレータの画像確認に要する負荷をより一層軽減することができる。
Furthermore, the
1…無人運転システム
V0…車両
21…通信部
22…センサ
221F…前方カメラ
221L…左側カメラ
221R…右側カメラ
221B…後方カメラ
221LB…左後方カメラ
221RB…右後方カメラ
222a…レーダ装置
222b、222c…ライダー装置
23…障害物認識部
24…経路設定部
25…走行制御部
26…車両情報取得部
3…遠隔操作装置
31…通信部
32…入力部
33…表示部
PV…俯瞰画面
LV…左側画面
RV…右側画面
BV…後方画面
LBV…左後方画面
RBV…右後方画面
34…表示制御部
35…遠隔制御部
4…車両管理センタ
5…管理サーバ
Ra…回避経路
1...Unmanned driving system V0...
Claims (13)
取得した前記周囲映像を、前記車両の遠隔操作用画像として表示し、
前記車両の状態に応じて、前記遠隔操作用画像の所定領域を強調表示する遠隔操作用画像の表示方法において、
前記遠隔操作用画像は、前記車両から周囲の複数方向を撮像した複数種類の方向画像を含み、
前記車両の状態に応じて、重要度が高い方向画像の全体を強調表示し、
前記車両が車線内を走行している場合には、前記方向画像として、前記車両の前方画像、左側画像及び右側画像を強調表示し、
前記車両が走行中の車線から右側車線へ移動する場合には、前記車両の前方画像、右側画像及び右後方画像を強調表示し、
前記車両が走行中の車線から左側車線へ移動する場合には、前記車両の前方画像、左側画像及び左後方画像を強調表示する、遠隔操作用画像の表示方法。 When a vehicle equipped with an autonomous driving control function is driven by autonomous driving control based on remote control from the outside of the vehicle, acquiring a surrounding image of the surroundings of the vehicle from the vehicle,
Displaying the acquired surrounding image as a remote control image of the vehicle,
In a method for displaying a remote control image, the method includes highlighting a predetermined area of the remote control image according to a state of the vehicle,
The remote control image includes a plurality of types of directional images taken from the vehicle in a plurality of surrounding directions,
Highlighting the entire direction image with high importance according to the state of the vehicle,
When the vehicle is traveling within a lane, highlighting a front image, a left side image, and a right side image of the vehicle as the direction image,
When the vehicle moves from the lane in which it is traveling to the right lane, highlighting the front image, right side image, and right rear image of the vehicle,
A remote control image display method that highlights a front image, a left side image, and a left rear image of the vehicle when the vehicle moves from the lane in which it is traveling to the left lane.
前記物体を検出した場合に、前記物体に応じて、前記遠隔操作用画像の所定領域を強調表示する、請求項1に記載の遠隔操作用画像の表示方法。 Detecting an object that affects the running of the vehicle from the remote control image,
2. The method for displaying a remote control image according to claim 1, wherein when the object is detected, a predetermined area of the remote control image is highlighted depending on the object.
前記物体を検出した場合に、前記物体を強調表示する、請求項1に記載の遠隔操作用画像の表示方法。 Detecting, from the remote control image, an object present on a route that intersects with a travel route on which the vehicle travels under autonomous driving control;
The method for displaying images for remote control according to claim 1, wherein when the object is detected, the object is highlighted.
前記物体を検出した場合に、前記物体の種類、前記物体までの距離、前記物体の速度もしくは前記物体と前記車両との相対速度の少なくとも1つを含む物体情報を特定し、
前記物体を検出したことを示す物体検出情報とともに、前記物体情報を前記遠隔操作用画像の上に重ねて表示する、請求項1に記載の遠隔操作用画像の表示方法。 Detecting an object that affects the running of the vehicle from the remote control image,
When the object is detected, specifying object information including at least one of the type of the object, the distance to the object, the speed of the object, or the relative speed of the object and the vehicle;
2. The method for displaying a remote control image according to claim 1, wherein the object information is displayed superimposed on the remote control image together with object detection information indicating that the object has been detected.
前記物体を検出した場合に、前記物体の状態に応じた異なる色で強調表示する請求項1に記載の遠隔操作用画像の表示方法。 Detecting an object that affects the running of the vehicle from the remote control image,
2. The method for displaying images for remote control according to claim 1, wherein when the object is detected, the object is highlighted in a different color depending on the state of the object.
前記物体が検出された場合に、検出された前記物体の表示の有無、及び前記物体の接近方向に応じて、前記複数種類の方向画像の外枠を異なる色で強調表示する請求項10に記載の遠隔操作用画像の表示方法。 The remote control image includes a plurality of types of directional images taken from the vehicle in a plurality of surrounding directions,
According to claim 10, when the object is detected, the outer frames of the plurality of types of directional images are highlighted in different colors depending on whether the detected object is displayed and the approaching direction of the object. How to display images for remote control.
前記複数種類の方向画像から、前記車両の走行に影響を及ぼす物体を検出し、
前記物体を検出した場合に、前記俯瞰画像に、検出された前記物体を示す画像を重ねて表示する請求項11に記載の遠隔操作用画像の表示方法。 The remote control image is obtained by superimposing a top view image of the vehicle on a plurality of types of directional images taken from the vehicle in a plurality of surrounding directions, and a map image, satellite image, or aerial image of the current position of the vehicle. including the displayed bird's-eye view image;
Detecting objects that affect the running of the vehicle from the plurality of types of direction images,
12. The method for displaying images for remote control according to claim 11, wherein when the object is detected, an image showing the detected object is displayed superimposed on the bird's-eye view image.
前記車両から、前記車両の周囲の複数方向を撮像した周囲映像を取得する映像取得手段と、
取得した前記周囲映像を、前記車両から周囲の複数方向を撮像した複数種類の方向画像を含む、前記車両の遠隔操作用画像として表示する表示手段と、
前記車両の状態に応じて、前記遠隔操作用画像の所定領域を強調表示する表示制御手段と、
前記車両の状態に応じて、重要度が高い方向画像の全体を強調表示し、
前記車両が車線内を走行している場合には、前記方向画像として、前記車両の前方画像、左側画像及び右側画像を強調表示し、
前記車両が走行中の車線から右側車線へ移動する場合には、前記車両の前方画像、右側画像及び右後方画像を強調表示し、
前記車両が走行中の車線から左側車線へ移動する場合には、前記車両の前方画像、左側画像及び左後方画像を強調表示する画像強調部と、を備える遠隔操作装置。 A remote control device that remotely controls a vehicle equipped with an autonomous driving control function from outside the vehicle and causes it to travel under autonomous driving control,
an image acquisition means for acquiring surrounding images captured from the vehicle in a plurality of directions around the vehicle;
Display means for displaying the acquired surrounding image as a remote control image of the vehicle, including a plurality of types of directional images taken from the vehicle in a plurality of surrounding directions;
display control means for highlighting a predetermined area of the remote control image according to the state of the vehicle;
Highlighting the entire direction image with high importance according to the state of the vehicle,
When the vehicle is traveling within a lane, highlighting a front image, a left side image, and a right side image of the vehicle as the direction image,
When the vehicle moves from the lane in which it is traveling to the right lane, highlighting the front image, right side image, and right rear image of the vehicle,
A remote control device comprising: an image enhancement unit that highlights a front image, a left side image, and a left rear image of the vehicle when the vehicle moves from the lane in which it is traveling to the left lane.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019062484A JP7350500B2 (en) | 2019-03-28 | 2019-03-28 | Display method of images for remote control and remote control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019062484A JP7350500B2 (en) | 2019-03-28 | 2019-03-28 | Display method of images for remote control and remote control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020161039A JP2020161039A (en) | 2020-10-01 |
JP7350500B2 true JP7350500B2 (en) | 2023-09-26 |
Family
ID=72639546
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019062484A Active JP7350500B2 (en) | 2019-03-28 | 2019-03-28 | Display method of images for remote control and remote control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7350500B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022159912A (en) | 2021-04-05 | 2022-10-18 | ウーブン・プラネット・ホールディングス株式会社 | Remote monitoring system, remote monitoring method, remote monitoring server, and on-vehicle information processing device |
JP7447882B2 (en) | 2021-10-07 | 2024-03-12 | トヨタ自動車株式会社 | Remote support system and remote support method |
WO2023248776A1 (en) * | 2022-06-22 | 2023-12-28 | 株式会社デンソー | Remote support device, remote support method, and remote support program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006221339A (en) | 2005-02-09 | 2006-08-24 | Honda Motor Co Ltd | Vehicle control system |
JP2018106676A (en) | 2016-12-22 | 2018-07-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information processing device, operated vehicle, information processing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3855552B2 (en) * | 1999-08-26 | 2006-12-13 | 松下電工株式会社 | Obstacle monitoring device around the vehicle |
JP4698002B2 (en) * | 2000-07-11 | 2011-06-08 | マツダ株式会社 | Vehicle display device |
JP6610994B2 (en) * | 2015-07-02 | 2019-11-27 | 株式会社デンソーテン | Obstacle detection device and obstacle detection method |
-
2019
- 2019-03-28 JP JP2019062484A patent/JP7350500B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006221339A (en) | 2005-02-09 | 2006-08-24 | Honda Motor Co Ltd | Vehicle control system |
JP2018106676A (en) | 2016-12-22 | 2018-07-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information processing device, operated vehicle, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2020161039A (en) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109472975B (en) | Driving support system, driving support device, and driving support method | |
JP6493923B2 (en) | Information display device, information display method, and information display program | |
JP7282543B2 (en) | Vehicle travel route display method and vehicle travel route display device | |
CN110239547B (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7043450B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
US20210080943A1 (en) | Vehicle remote instruction system | |
CN110281941B (en) | Vehicle control device, vehicle control method, and storage medium | |
CN109421799B (en) | Vehicle control device, vehicle control method, and storage medium | |
CN109466542B (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7350500B2 (en) | Display method of images for remote control and remote control device | |
US9026356B2 (en) | Vehicle navigation system and method | |
CN110920521B (en) | Display system, display method, and storage medium | |
JP2019212095A (en) | Autonomous driving assist system | |
US10564000B2 (en) | Information display device, information display method, and information display program | |
CN110949389A (en) | Vehicle control device, vehicle control method, and storage medium | |
EP3950446B1 (en) | Vehicle control method and vehicle control device | |
US11183063B2 (en) | Recognition and guidance to specialized stop spaces for different sized vehicles | |
US20210280057A1 (en) | Systems and methods for assisting a maneuver of a moving object | |
JP2019156266A (en) | Vehicle controller, vehicle control method and program | |
CN115176296B (en) | Travel support device, travel support method, and travel support program | |
JP4911094B2 (en) | Driving support device, driving support method, and computer program | |
JP7428294B2 (en) | Driving support method and driving support device | |
WO2023194794A1 (en) | Information providing device and information providing method | |
WO2023089835A1 (en) | Vehicle travel assistance method and vehicle travel assistance device | |
RU2773067C1 (en) | Vehicle control method and vehicle control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230913 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7350500 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |