JP2019070971A - 自動運転車両の配車システム、自動運転車両、及び配車方法 - Google Patents

自動運転車両の配車システム、自動運転車両、及び配車方法 Download PDF

Info

Publication number
JP2019070971A
JP2019070971A JP2017197070A JP2017197070A JP2019070971A JP 2019070971 A JP2019070971 A JP 2019070971A JP 2017197070 A JP2017197070 A JP 2017197070A JP 2017197070 A JP2017197070 A JP 2017197070A JP 2019070971 A JP2019070971 A JP 2019070971A
Authority
JP
Japan
Prior art keywords
vehicle
surrounding environment
dispatch
user terminal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017197070A
Other languages
English (en)
Other versions
JP6852638B2 (ja
Inventor
淳也 渡辺
Junya Watanabe
淳也 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017197070A priority Critical patent/JP6852638B2/ja
Priority to US16/122,178 priority patent/US10685571B2/en
Priority to CN201811032744.6A priority patent/CN109658684B/zh
Publication of JP2019070971A publication Critical patent/JP2019070971A/ja
Priority to US16/831,051 priority patent/US10885791B2/en
Application granted granted Critical
Publication of JP6852638B2 publication Critical patent/JP6852638B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】利用者の側から配車車両を容易に特定できるようにした自動運転車両の配車システムを提供する。【解決手段】利用者からの配車リクエストを受けて、自動運転車両の配車サービスを提供する配車システムであって、配車される配車車両に搭載されたセンサを用いて周辺環境認識情報を取得する認識情報取得部と、予め記憶された周辺環境記憶情報を取得する記憶情報取得部と、周辺環境認識情報と周辺環境記憶情報との比較に基づいて、配車車両位置を推定する配車車両位置推定部と、利用者端末位置を推定する利用者端末位置推定部と、周辺環境認識情報又は周辺環境記憶情報に基づいて、配車車両の周辺画像を生成する周辺画像生成部と、周辺画像に配車車両位置と利用者端末位置とを重ねた重畳画像を利用者端末に表示する表示処理部と、を備える。【選択図】図3

Description

本発明は、自動運転車両の配車システム、自動運転車両、及び配車方法に係り、特に、利用者からの配車リクエストを受けて、自動運転車両の配車サービスを提供する配車システム、自動運転車両、及び配車方法に関する。
特許文献1には、自動運転車両側から乗客候補を特定する技術が開示されている。具体的には、この技術では、利用者からの配車要求に含まれるピックアップ位置と車両センサ情報に基づいて、乗客候補が特定される。乗客候補が特定されると、自動運転車両は、乗客候補をピックアップ可能な位置へ車両を移動させる。
米国特許出願公開第2017/0153714号明細書
特許文献1のように、自動運転車両の配車サービスを提供する場合、次のような問題が発生し得る。それは、利用者側の視点に立つと、配車車両がピックアップ位置付近まで近づいているとしても、どの車が自身に配車された配車車両なのかを特定し難いことである。このように、自動運転車両の配車サービスでは、利用者の側から配車車両を特定し易くする技術の構築が望まれる。
本発明は、上述のような課題に鑑みてなされたもので、利用者の側から配車車両を容易に特定できるようにした自動運転車両の配車システムを提供することを目的とする。
また、本発明は、利用者の側から配車車両を容易に特定できるようにした自動運転車両、又はその配車方法を提供することを目的とする。
上記の課題を解決するため、第1の発明は、利用者からの配車リクエストを受けて配車サービスを提供する自動運転車両の配車システムに適用される。配車システムは、配車される自動運転車両である配車車両に搭載されたセンサを用いて、当該配車車両の周辺環境の情報である周辺環境認識情報を取得する認識情報取得部と、予め記憶された当該配車車両の周辺環境の情報である周辺環境記憶情報を取得する記憶情報取得部と、周辺環境認識情報と周辺環境記憶情報との比較に基づいて、配車車両の位置である配車車両位置を推定する配車車両位置推定部と、利用者端末の位置である利用者端末位置を推定する利用者端末位置推定部と、周辺環境認識情報又は周辺環境記憶情報に基づいて、配車車両の周辺環境を表す周辺画像を生成する周辺画像生成部と、周辺画像に配車車両位置と利用者端末位置とを重ねた重畳画像を生成する重畳画像生成部と、重畳画像を利用者端末に表示する画像表示部と、を備えている。
第2の発明は、第1の発明において、更に以下の特徴を有する。
配車システムは、周辺環境認識情報に基づいて、配車車両の周囲に存在する歩行者の位置である歩行者位置を推定する歩行者位置推定部を更に備えている。そして、周辺画像生成部は、周辺画像に更に歩行者位置を重ねるように構成されている。
第3の発明は、第1の発明において、更に以下の特徴を有する。
配車システムは、周辺環境認識情報に基づいて、配車車両の周囲に存在する歩行者の位置である歩行者位置を推定する歩行者位置推定部を更に備えている。そして、重畳画像生成部は、重畳画像に更に歩行者位置を重ねるように構成されている。
第4の発明は、第1乃至第3の何れか1つの発明において、更に以下の特徴を有する。
配車システムは、利用者端末位置の誤差範囲を推定する誤差範囲推定部を更に備えている。そして、重畳画像生成部は、重畳画像に更に誤差範囲を重ねるように構成されている。
第5の発明は、利用者からの配車リクエストを受けて配車サービスを提供する自動運転車両に適用される。自動運転車両は、配車される自動運転車両である配車車両に搭載されたセンサを用いて、当該配車車両の周辺環境の情報である周辺環境認識情報を取得する認識情報取得部と、予め記憶された当該配車車両の周辺環境の情報である周辺環境記憶情報を取得する記憶情報取得部と、周辺環境認識情報と周辺環境記憶情報との比較に基づいて、配車車両の位置である配車車両位置を推定する配車車両位置推定部と、利用者端末の位置である利用者端末位置を受信する利用者端末位置受信部と、周辺環境認識情報又は周辺環境記憶情報に基づいて、配車車両の周辺環境を表す周辺画像を生成する周辺画像生成部と、周辺画像に配車車両位置と利用者端末位置とを重ねた重畳画像を生成する重畳画像生成部と、重畳画像を利用者端末に送信する画像送信部と、を備えている。
第6の発明は、第5の発明において、更に以下の特徴を有する。
自動運転車両は、周辺環境認識情報に基づいて、配車車両の周囲に存在する歩行者の位置である歩行者位置を推定する歩行者位置推定部を更に備えている。そして、周辺画像生成部は、周辺画像に更に歩行者位置を重ねるように構成されている。
第7の発明は、第5の発明において、更に以下の特徴を有する。
自動運転車両は、周辺環境認識情報に基づいて、配車車両の周囲に存在する歩行者の位置である歩行者位置を推定する歩行者位置推定部を更に備えている。そして、重畳画像生成部は、重畳画像に更に歩行者位置を重ねるように構成されている。
第8の発明は、第5乃至第7の何れか1つの発明において、更に以下の特徴を有する。
自動運転車両は、利用者端末位置の誤差範囲を受信する誤差範囲受信部を更に備えている。そして、重畳画像生成部は、重畳画像に更に誤差範囲を重ねるように構成されている。
第9の発明は、利用者からの配車リクエストを受けて配車サービスを提供する自動運転車両の配車システムによって実現される配車方法に適用される。この配車方法は、配車される自動運転車両である配車車両に搭載されたセンサを用いて、当該配車車両の周辺環境の情報である周辺環境認識情報を取得する認識情報取得ステップと、予め記憶された当該配車車両の周辺環境の情報である周辺環境記憶情報を取得する記憶情報取得ステップと、周辺環境認識情報と周辺環境記憶情報との比較に基づいて、配車車両の位置である配車車両位置を推定する配車車両位置推定ステップと、利用者端末の位置である利用者端末位置を推定する利用者端末位置推定ステップと、周辺環境認識情報又は周辺環境記憶情報に基づいて、配車車両の周辺環境を表す周辺画像を生成する周辺画像生成ステップと、周辺画像に配車車両位置と利用者端末位置とを重ねた重畳画像を生成する重畳画像生成ステップと、重畳画像を利用者端末に表示する画像表示ステップと、を備えている。
第1の発明に係る自動運転車両の配車システム、及び第9の発明に係る配車方法によれば、周辺環境認識情報と周辺環境記憶情報との比較に基づいて、配車車両位置が高精度に推定される。これにより、正確な配車車両位置と利用者端末位置とを周辺画像に重ねた重畳画像を利用者端末に表示することができるので、利用者が配車車両位置を容易に特定することが可能となる。
また、第2の発明によれば、配車車両の周囲に存在する歩行者位置が周辺画像に更に重ねられる。これにより、歩行者位置が更に重ねられた重畳画像を利用者端末に表示することができるので、表示された歩行者の位置を頼りに配車車両を更に容易に特定することが可能となる。
また、第3の発明によれば、配車車両の周囲に存在する歩行者位置が重畳画像に更に重ねられる。これにより、表示された歩行者の位置を頼りに配車車両を更に容易に特定することが可能となる。
また、第4の発明によれば、利用者端末位置の誤差範囲が重畳画像に重ねられる。これにより、利用者端末位置に誤差がある場合であっても、当該誤差範囲と周辺画像を頼りに正確な利用者端末位置を把握することが可能となる。
また、第5の発明に係る自動運転車両によれば、周辺環境認識情報と周辺環境記憶情報との比較に基づいて、配車車両位置が高精度に推定される。これにより、正確な配車車両位置と利用者端末位置とを周辺画像に重ねた重畳画像を利用者端末に送信することができる。
また、第6の発明によれば、配車車両の周囲に存在する歩行者位置が周辺画像に更に重ねられる。これにより、歩行者位置が更に重ねられた重畳画像を利用者端末に送信することができるので、利用者端末の側では、当該重畳画像によって歩行者位置を把握することが可能となる。
また、第7の発明によれば、配車車両の周囲に存在する歩行者位置が重畳画像に更に重ねられる。これにより、歩行者位置が更に重ねられた重畳画像を利用者端末に送信することができるので、利用者端末の側では、当該重畳画像によって歩行者位置を把握することが可能となる。
また、第8の発明によれば、利用者端末位置の誤差範囲が重畳画像に重ねられる。これにより、誤差範囲が更に重ねられた重畳画像を利用者端末に送信することができるので、利用者端末の側では、当該重畳画像によって利用者端末位置の誤差範囲を把握することが可能となる。
このように、本発明によれば、利用者端末を所持する利用者の側から配車車両を容易に特定できるようにした自動運転車両の配車システムを提供することが可能となる。
実施の形態1に係る自動運転車両の配車システムの構成を概略的に示すブロック図である。 配車リクエストの手順の一例を示すフローチャートである。 重畳画像生成処理によって利用者端末に表示された重畳画像の一例を示す図である。 本実施の形態に係る自動運転車両の構成例を示すブロック図である。 自動運転車両の制御装置において実行されるローカライズ処理のルーチンを示すフローチャートである。 本実施の形態に係る利用者端末の構成例を示すブロック図である。 自動運転車両の制御装置が重畳画像生成処理を行うためのルーチンを示すフローチャートである。 自動運転車両による利用者端末位置の受信方法の一例を示す図である。 管理サーバによる重畳画像の生成方法の一例を示す図である。 管理サーバによる周辺画像の生成方法及び重畳画像の生成方法の一例を示す図である。 実施の形態2の自動運転車両の配車システムにおける重畳画像生成処理によって、利用者端末に表示された重畳画像の一例を示す図である。 実施の形態2の自動運転車両による利用者端末位置の受信方法の一例を示す図である。 実施の形態2の自動運転車両による利用者端末位置の受信方法の他の例を示す図である。 実施の形態3の自動運転車両の配車システムにおける重畳画像生成処理によって、利用者端末に表示された重畳画像の一例を示す図である。 実施の形態3の自動運転車両による利用者端末位置及びその誤差範囲の受信方法の一例を示す図である。
以下、図面を参照して本発明の実施の形態について説明する。ただし、以下に示す実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造やステップ等は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。
実施の形態1.
1−1.自動運転車両の配車システム
図1は、実施の形態1に係る自動運転車両の配車システムの構成を概略的に示すブロック図である。配車システム1は、利用者に対して自動運転車両の配車サービスを提供する。この配車システム1は、利用者端末10、管理サーバ20、及び自動運転車両30を備えている。
利用者端末10は、配車サービスの利用者が所持する端末である。利用者端末10は、プロセッサ、記憶装置、及び通信装置を少なくとも備えており、各種情報処理及び通信処理を行うことが可能である。例えば、利用者端末10は、通信ネットワークを介して、管理サーバ20及び自動運転車両30と通信可能である。このような利用者端末10としては、スマートフォンが例示される。
管理サーバ20は、主に配車サービスを管理するサーバである。管理サーバ20は、プロセッサ、記憶装置、及び通信装置を少なくとも備えており、各種情報処理及び通信処理を行うことが可能である。例えば、管理サーバ20は、通信ネットワークを介して、利用者端末10及び自動運転車両30と通信可能である。また、管理サーバ20は、利用者の情報を管理する。更に、管理サーバ20は、自動運転車両30の配車等を管理する。
自動運転車両30は、無人運転が可能である。自動運転車両30は利用者に対してピックアップ位置への配車サービス及び目的地までの輸送サービスを提供する。この自動運転車両30は、通信ネットワークを介して、利用者端末10及び管理サーバ20と通信可能である。
自動運転車両の配車サービスの基本的な流れは、次の通りである。
まず、利用者は、利用者端末10を用いて配車リクエストを送信する。図2は、配車リクエストの手順の一例を示すフローチャートである。この図に示すように、利用者は、先ず、利用者端末10にて専用のアプリケーションを起動する(ステップS1)。次に、利用者は、起動したアプリケーションを操作して、配車リクエストを入力する(ステップS2)。配車リクエストには、利用者の希望するピックアップ位置、目的地等が含まれる。なお、ピックアップ位置は、利用者端末10の位置情報から入手してもよい。配車リクエストは、通信ネットワークを介して、管理サーバ20に送られる。管理サーバ20は、利用者の周辺の自動運転車両30の中から、当該利用者にサービスを提供する配車車両を選択し(ステップS3)、選択した配車車両に配車リクエストの情報を送る。なお、配車車両は、利用者が選択して決定してもよい。当該情報を受け取った配車車両は、自動的にピックアップ位置に向かう。配車車両は、ピックアップ位置において利用者を乗車させた後、目的地に向かって自動的に走行する輸送サービスを提供する。
1−2.重畳画像生成処理の概要
自動運転車両の配車サービスにおいて配車車両がピックアップ位置へと向かう際、次のような問題が発生し得る。例えば、配車車両がピックアップ位置付近まで接近したとしても、利用者は配車車両が何れの方向から向かってくるのかを把握していないため、配車車両の特定が困難な可能性がある。このような問題は、他に複数の車両が走行しているような場合等に顕著に表れる。
そこで、本実施の形態によれば、配車車両が接近した際に、配車車両の位置と、利用者が所持している利用者端末の位置とが、推定される。利用者端末の位置は、例えばGPS(Global Positioning System)受信機によって推定される。一方、配車車両の位置は、ローカライズ処理によって特定される。ローカライズ処理とは、配車車両に搭載された周辺状況センサにより認識された該配車車両の周辺環境の情報(以下、「周辺環境認識情報」と称する)と、予め記憶された当該配車車両の周辺環境の情報(以下、「周辺環境記憶情報」と称する)との比較に基づいて、配車車両位置を正確に推定する処理である。
推定された配車車両位置と利用者端末位置は、周辺環境認識情報又は周辺環境記憶情報に基づいて生成された周辺画像に重ねて表示される。周辺画像は、実際の車線形状や道路標示等の情報を含んだ画像であり、例えば上方から見た2D画像又は3D画像として構成されている。配車車両位置と利用者端末位置を重畳させた2D又は3Dの重畳画像は、利用者端末に表示される。以下、このような一連の処理を「重畳画像生成処理」と称する。図3は、重畳画像生成処理によって利用者端末に表示された重畳画像の一例を示す図である。この図に示す例では、利用者端末10の表示部に2Dの重畳画像100が表示されている。重畳画像100は、周辺画像102に配車車両位置104と利用者端末位置106を重ねることにより生成されている。重畳画像生成処理によれば、配車車両の正確な位置を利用者端末位置と周辺画像とに関連付けて把握することができるので、利用者は、実際に接近してくる配車車両を容易に特定することが可能となる。
以下、本実施の形態に係る配車システム1を構成する自動運転車両30の構成、利用者端末10の構成及び重畳画像生成処理について、詳しく説明する。
1−3.自動運転車両の構成例
図4は、本実施の形態に係る自動運転車両30の構成例を示すブロック図である。自動運転車両30は、GPS(Global Positioning System)受信機31、地図データベース32、周辺状況センサ33、車両状態センサ34、通信装置35、走行装置36、及び制御装置40を備えている。GPS受信機31は、複数のGPS衛星から送信される信号を受信し、受信信号に基づいて車両の位置及び方位を算出する。GPS受信機31は、算出した情報を制御装置40に送る。
地図データベース32には、地形、道路、標識等の地図情報、及び地図上の道路の各レーンの境界位置を示す情報が予め記憶されている。各レーンの境界位置は、点群或いは線群で表される。この地図データベース32は、所定の記憶装置に格納される。
周辺状況センサ33は、車両の周囲の状況を検出する。周辺状況センサ33としては、ライダー(LIDAR:Laser Imaging Detection and Ranging)、レーダー、カメラなどが例示される。ライダーは、光を利用して車両の周囲の物標を検出する。レーダーは、電波を利用して車両の周囲の物標を検出する。カメラは、車両の周囲の状況を撮像する。周辺状況センサは、検出した情報を制御装置40に送る。
車両状態センサ34は、車両の走行状態を検出する。車両状態センサ34としては、横加速度センサ、ヨーレートセンサ、車速センサなどが例示される。横加速度センサは、車両に作用する横加速度を検出する。ヨーレートセンサは、車両のヨーレートを検出する。車速センサは、車両の車速を検出する。車両状態センサ34は、検出した情報を制御装置40に送る。
通信装置35は、自動運転車両30の外部と通信を行う。具体的には、通信装置35は、通信ネットワークを介して、利用者端末10と通信を行う。また、通信装置35は、通信ネットワークを介して、管理サーバ20と通信を行う。
走行装置36は、駆動装置、制動装置、操舵装置、トランスミッションなどを含んでいる。駆動装置は、駆動力を発生させる動力源である。駆動装置としては、エンジンや電動機が例示される。制動装置は制動力を発生させる。操舵装置は、車輪を転舵する。例えば、操舵装置は、電動パワーステアリング(EPS: Electronic Power Steering)装置を含んでいる。電動パワーステアリング装置のモータを駆動制御することによって、車輪を転舵することができる。
制御装置40は、車両の自動運転を制御する自動運転制御を行う。典型的には、制御装置40はプロセッサ、記憶装置、及び入出力インターフェースを備えるマイクロコンピュータである。制御装置40は、ECU(Electronic Control Unit)とも呼ばれる。制御装置40は入出力インターフェースを通して各種情報を受け取る。そして、制御装置40は、受け取った情報に基づいて、自動運転制御を行う。例えば、制御装置40は、管理サーバ20から受け取った配車リクエストの情報に基づいて、自動的にピックアップ位置に向かうための自動運転制御を行う。
また、制御装置40は、地図データベース32に記憶された周辺環境記憶情報と周辺状況センサ33により認識された周辺環境認識情報との比較に基づいて、正確な配車車両位置を推定するローカライズ処理を行う。図5は、自動運転車両の制御装置において実行されるローカライズ処理のルーチンを示すフローチャートである。以下、フローチャートを参照して、ローカライズ処理の具体的処理について説明する。
ローカライズ処理では、先ず、制御装置40は、周辺環境記憶情報を取得する(ステップS10)。ここでは、具体的には、地図データベース32に記憶されている情報のうち、GPS受信機31の受信信号に基づいて算出された車両位置の周辺の環境情報が、位置情報に関連付けられた周辺環境記憶情報として取得される。周辺環境記憶情報は、地形、道路、車線、標識等の物標が例示される。
次に、制御装置40は、周辺状況センサ33を用いて認識された情報のうち、当該車両位置の周辺の環境情報を位置情報に関連付けられた周辺環境認識情報として取得する(ステップS12)。周辺環境認識情報は、カメラにより撮像された周囲の画像、ライダーによって認識された地形、道路、車線、標識等の物標等が例示される。
次に、制御装置40は、取得した周辺環境記憶情報と周辺環境認識情報とを比較することにより、自己の車両の位置及び方位を推定する(ステップS14)。ここでの車両位置は、グローバル座標系での絶対位置である。このようなローカライズ処理による車両位置の推定によれば、GPS受信機31のみを用いて車両位置の推定する場合よりも、より正確な車両位置を推定することが可能となる。
1−4.利用者端末の構成例
図6は、本実施の形態に係る利用者端末10の構成例を示すブロック図である。利用者端末10は、GPS(Global Positioning System)受信機11、入力装置12、通信装置13、表示装置14、及び制御装置15を備えている。GPS受信機11は、複数のGPS衛星から送信される信号を受信し、受信信号に基づいて利用者端末10の位置及び方位を算出する。GPS受信機11は、算出した情報を制御装置15に送る。
入力装置12は、利用者が情報を入力し、また、利用者がアプリケーションを操作するための装置である。入力装置12としては、タッチパネル、スイッチ、ボタンが例示される。利用者は、入力装置12を用いて、例えば配車リクエストを入力することができる。
通信装置13は、利用者端末10の外部と通信を行う。具体的には、通信装置13は、通信ネットワークを介して、自動運転車両30と通信を行う。また、通信装置13は、通信ネットワークを介して、管理サーバ20と通信を行う。
表示装置14は、画像や映像を表示するためのディスプレイを含んでいる。表示装置14としては、LCD(Liquid Crystal Display)が例示される。表示装置14は、入力装置12を組み合わせたタッチパネルとして構成されていてもよい。
制御装置15は、利用者端末10の各種動作を制御する。典型的には、制御装置15はプロセッサ、記憶装置、及び入出力インターフェースを備えるマイクロコンピュータである。制御装置15は、ECU(Electronic Control Unit)とも呼ばれる。制御装置15は入出力インターフェースを通して各種情報を受け取る。そして、制御装置15は、受け取った情報に基づいて、各種動作を行う。
1−5.重畳画像生成処理
配車された自動運転車両30がピックアップ位置に近づくと、自動運転車両30は重畳画像を生成し利用者端末へと送信する重畳画像生成処理を行う。図7は、自動運転車両30の制御装置40が重畳画像生成処理を行うためのルーチンを示すフローチャートである。このルーチンは、配車された自動運転車両30がピックアップ位置に向かう間に繰り返し実行される。図7に示すルーチンでは、先ず、制御装置40は、ローカライズ処理により車両位置を推定する(ステップS20)。ここでは、具体的には、上述した図5に示すローカライズ処理のルーチンに従い、現在の配車車両の車両位置が推定される。
次に、制御装置40は、配車車両がピックアップ位置付近に到達したか否かを判定する(ステップS22)。ここでは、上記ステップS20にて推定された車両位置が、配車リクエストにおいて入力されたピックアップ位置から所定範囲に属しているか否かが判定される。その結果、判定の成立が認められない場合には、本ルーチンは終了される。
一方、上記ステップS22の処理において、判定の成立が認められた場合には、次のステップへと移行する。次のステップでは、制御装置40は、周辺画像を生成する(ステップS24)。ここでは、ローカライズ処理にて取得された周辺環境認識情報又は周辺環境記憶情報を用いて、車両位置の周辺画像が生成される。車両位置の周辺画像は2D画像でもよいし、また、立体視可能な3D画像でもよい。なお、周辺画像の種類及び生成方法に限定はない。ライダー等の周辺状況センサ33によって認識された周辺環境認識情報を用いて2D画像又は3D画像を生成する方法や、地図データベース32に記憶された周辺環境記憶情報を用いて2D画像又は3D画像を生成する方法は、種々の文献において既に提案されている。ここでは、これらの公知の技術を用いて、配車車両の周辺の周辺画像を生成することができる。
次に、制御装置40は、利用者端末位置を受信する(ステップS26)。図8は、自動運転車両30による利用者端末位置の受信方法の一例を示す図である。なお、図8において、図7に示すステップと共通の処理については、同じステップ番号を付してその説明を省略する。先ず利用者端末10は、GPS受信機11の受信信号に基づいて利用者端末位置を推定する(ステップS40)。ここで推定される利用者端末位置は、グローバル座標系での絶対位置である。そして、利用者端末10は、推定した利用者端末位置を管理サーバ20に提供する(ステップS42)。管理サーバ20は、提供された利用者端末位置を、配車された自動運転車両30に提供する(ステップS50)。なお、利用者端末位置の提供元は、管理サーバ20に限らず、直接利用者端末10から提供を受ける構成でもよい。
図7に示すルーチンに戻り、次に、制御装置40は、重畳画像を生成する(ステップS28)。ここでは、ステップS20にて推定された車両位置と、ステップS26にて受信した利用者端末位置と、ステップS24にて生成した周辺画像とを用いて、車両位置と利用者端末位置を周辺画像の上に重畳させた画像が生成される。
次に、制御装置40は、生成した重畳画像を利用者端末10へと送信する(ステップS30)。重畳画像の送信先は、利用者端末10へと直接送信する態様に限らず、管理サーバ20を経由して利用者端末10へと送信する態様でもよい。
利用者端末10は、重畳画像を受信し、利用者端末10の表示装置14に表示する(図8のステップS44)。
以上説明した重畳画像生成処理によれば、利用者が所持している利用者端末10の位置と配車された自動運転車両30の正確な位置が、周辺画像に重畳して表示されるので、利用者はピックアップ位置へと向かう配車車両を容易に特定することが可能となる。
1−6.実施の形態1の変形例
実施の形態1の自動運転車両の配車システムは、以下のように変形した形態を適用してもよい。
上述した重畳画像生成処理では、重畳画像を生成する処理を管理サーバ20にて実行してもよいし、また、周辺画像を生成する処理と重畳画像を生成する処理の両方を管理サーバ20にて実行してもよい。図9は、管理サーバ20による重畳画像の生成方法の一例を示す図である。なお、この図において、図8のステップと共通する処理については、同じステップ番号を付してその説明を省略する。この図に示すように、自動運転車両30は、周辺画像及び配車車両位置を管理サーバ20に提供する(ステップS60)。また、管理サーバ20は、配車車両位置と利用者端末位置とを用いて、配車車両位置と利用者端末位置を周辺画像の上に重畳させた画像を生成する(ステップS62)。そして、管理サーバ20は、生成した重畳画像を利用者端末10へと送信する(ステップS64)。
図10は、管理サーバ20による周辺画像の生成方法及び重畳画像の生成方法の一例を示す図である。なお、この図において、図8又は図9のステップと共通する処理については、同じステップ番号を付してその説明を省略する。この図に示すように、自動運転車両30は、周辺環境認識情報、周辺環境記憶情報、及び配車車両位置を管理サーバ20に提供する(ステップS70)。管理サーバ20は、提供された周辺環境認識情報又は周辺環境記憶情報を用いて、周辺画像を生成する(ステップS72)。そして、ステップS62では、生成した周辺画像の上に配車車両位置と利用者端末位置を重畳させた重畳画像を生成する。
なお、実施の形態1の自動運転車両の配車システムでは、ステップS11での処理が第1の発明の「認識情報取得部」での処理に相当し、ステップS10での処理が第1の発明の「記憶情報取得部」での処理に相当し、ステップS14での処理が第1の発明の「配車車両位置推定部」での処理に相当し、ステップS40での処理が第1の発明の「利用者端末位置推定部」での処理に相当し、ステップS24での処理が第1の発明の「周辺画像生成部」での処理に相当し、ステップS28での処理が第1の発明の「重畳画像生成部」での処理に相当し、ステップS44での処理が第1の発明の「画像表示部」での処理に相当している。
また、実施の形態1の自動運転車両では、ステップS11での処理が第4の発明の「認識情報取得部」での処理に相当し、ステップS10での処理が第4の発明の「記憶情報取得部」での処理に相当し、ステップS14での処理が第4の発明の「配車車両位置推定部」での処理に相当し、ステップS26での処理が第4の発明の「利用者端末位置受信部」での処理に相当し、ステップS24での処理が第4の発明の「周辺画像生成部」での処理に相当し、ステップS28での処理が第4の発明の「重畳画像生成部」での処理に相当し、ステップS30での処理が第4の発明の「画像送信部」での処理に相当している。
また、実施の形態1の自動運転車両の配車システムでは、ステップS11での処理が第9の発明の「認識情報取得ステップ」での処理に相当し、ステップS10での処理が第9の発明の「記憶情報取得ステップ」での処理に相当し、ステップS14での処理が第9の発明の「配車車両位置推定ステップ」での処理に相当し、ステップS40での処理が第9の発明の「利用者端末位置推定ステップ」での処理に相当し、ステップS24での処理が第9の発明の「周辺画像生成ステップ」での処理に相当し、ステップS28での処理が第9の発明の「重畳画像生成ステップ」での処理に相当し、ステップS44での処理が第9の発明の「画像表示ステップ」での処理に相当している。
実施の形態2.
次に、実施の形態2の自動運転車両の配車システムについて説明する。
2−1.実施の形態2の特徴
図11は、実施の形態2の自動運転車両の配車システムにおける重畳画像生成処理によって、利用者端末に表示された重畳画像の一例を示す図である。この図に示すように、実施の形態2の自動運転車両の配車システムで表示される重畳画像100には、配車車両位置104と利用者端末位置106に加えて、更に実際の歩行者位置201が重ねられている。歩行者位置201は、配車車両の周囲に存在する実際の歩行者の位置である。図11では、2人の歩行者の位置が例示されている。なお、図11に示す例では、利用者端末位置106と歩行者位置201とが異なる記号で表示されているが、これらの位置が同じ記号で表示されていてもよい。
図12は、実施の形態2の自動運転車両による利用者端末位置の受信方法の一例を示す図である。なお、図12において、図8に示すステップと共通の処理については、同じステップ番号を付してその説明を省略する。
歩行者位置201に関する情報は、周辺環境認識情報、つまり周辺状況センサ33によって認識された情報に含まれている。自動運転車両30の制御装置40は、取得された周辺環境認識情報に基づいて、歩行者位置201を推定する(ステップS80)。ここでは、具体的には、例えば周辺状況センサ33としてライダーを用いる場合には、制御装置40は、ライダーによって検出された点群の情報を基に分類処理を行う。そして、制御装置40は、認識された歩行者の重心位置を歩行者位置201として推定する。なお、歩行者位置201は、グローバル座標系での絶対位置である。
そして、制御装置40は、次のステップにおいて、歩行者位置201を重ねた周辺画像102を生成する(ステップS82)。図11に示す例では、制御装置40は、2Dの周辺画像に2重の丸印で表された歩行者位置201を重ねた周辺画像102を生成している。なお、制御装置40は、3D画像で表された周辺画像102を生成することとしてもよい。この場合、制御装置40は、3Dの周辺画像に歩行者用テンプレート画像で表された歩行者位置201を重ねた周辺画像102を生成すればよい。
その後のステップS28では、歩行者位置201が重ねられた周辺画像102を用いて重畳画像100が生成される。このようにして生成された重畳画像100によれば、表示された歩行者の位置を頼りに配車車両を更に容易に特定することが可能となる。
2−2.実施の形態2の変形例
ところで、歩行者位置201を重ねた重畳画像100を生成する方法は上記の方法に限られない。例えば、自動運転車両30の制御装置40は、周辺画像102に歩行者位置201を重ねる処理に替えて、重畳画像100に歩行者位置201を重ねる処理としてもよい。
図13は、実施の形態2の自動運転車両による利用者端末位置の受信方法の他の例を示す図である。なお、図13において、図8及び図12に示すステップと共通の処理については、同じステップ番号を付してその説明を省略或いは簡略化する。
自動運転車両30の制御装置40は、ステップS80の処理において歩行者位置201を推定する。次のステップS24の処理では歩行者位置201を重ねずに周辺画像102を生成する。そして、制御装置40は、配車車両位置104と利用者端末位置106に加えて、更に歩行者位置201を周辺画像102に重ねた重畳画像100を生成する(ステップS84)。このような方法においても、歩行者位置201を重ねた重畳画像100を生成することが可能となる。
なお、実施の形態2の自動運転車両の配車システムでは、ステップS80での処理が第2発明の「歩行者位置推定部」での処理に相当し、ステップS82での処理が第2の発明の「周辺画像生成部」での処理に相当している。
また、実施の形態2の自動運転車両の配車システムでは、ステップS80での処理が第3の発明の「歩行者位置推定部」での処理に相当し、ステップS84での処理が第3の発明の「重畳画像生成部」での処理に相当している。
また、実施の形態2の自動運転車両では、ステップS80での処理が第6発明の「歩行者位置推定部」での処理に相当し、ステップS82での処理が第6の発明の「周辺画像生成部」での処理に相当している。
また、実施の形態2の自動運転車両では、ステップS80での処理が第7の発明の「歩行者位置推定部」での処理に相当し、ステップS84での処理が第7の発明の「重畳画像生成部」での処理に相当している。
実施の形態3.
次に、実施の形態3の自動運転車両の配車システムについて説明する。
3−1.実施の形態3の特徴
図14は、実施の形態3の自動運転車両の配車システムにおける重畳画像生成処理によって、利用者端末に表示された重畳画像の一例を示す図である。この図に示すように、実施の形態3の自動運転車両の配車システムで表示される重畳画像100には、配車車両位置と利用者端末位置に加えて、更に利用者位置の誤差範囲301が重ねられている。誤差範囲301は、利用者端末10のGPS受信機31の受信精度等により生じる誤差の範囲である。図14では、利用者端末位置106を中心とした円の範囲が誤差範囲301として例示されている。
図15は、実施の形態3の自動運転車両による利用者端末位置及びその誤差範囲の受信方法の一例を示す図である。なお、図15において、図8に示すステップと共通の処理については、同じステップ番号を付してその説明を省略する。
利用者端末10の制御装置15は、GPS受信機11の受信信号に基づいて利用者端末位置及びその誤差範囲を推定する(ステップS90)。典型的には、誤差範囲301は、推定された利用者端末位置を中心とした所定半径の円の内部領域として推定される。他の例としては、GPS受信機11の受信信号に基づいて、誤差範囲301を都度推定する構成でもよい。また、配車された自動運転車両30が利用者端末10に接近している場合には、ローカライズ処理によって補正した自動運転車両30のGPS受信機31の誤差を誤差範囲301に用いてもよい。なお、ここで推定される利用者端末位置及びその誤差範囲は、グローバル座標系での絶対位置である。そして、利用者端末10は、推定した利用者端末位置及びその誤差範囲を管理サーバ20に提供する(ステップS92)。管理サーバ20は、提供された利用者端末位置及びその誤差範囲を、配車された自動運転車両30に提供する(ステップS94)。なお、利用者端末位置及びその誤差範囲の提供元は、管理サーバ20に限らず、直接利用者端末10から提供を受ける構成でもよい。
次に、制御装置40は、利用者端末位置及びその誤差範囲を受信する(ステップS96)。そして、制御装置40は、配車車両位置104と利用者端末位置106に加えて、更に利用者端末位置106の誤差範囲301を周辺画像102に重ねた重畳画像100を生成する(ステップS98)。
GPS受信機11を用いて推定された利用者位置は、ローカライズ処理による位置推定に比べて精度が低い。実施の形態3の自動運転車両の配車システムによれば、利用者端末位置の誤差範囲が重畳画像に表示されるので、利用者端末位置に誤差がある場合であっても、当該誤差範囲と周辺画像を頼りに正確な利用者端末位置及び配車車両の位置を把握することが可能となる。
なお、利用者端末位置の誤差範囲を含む重畳画像は、自動運転車両30の側にも表示される構成でもよい。このような構成によれば、自動運転車両30に乗車している運転手から利用者の特定が容易になる。
なお、実施の形態3の自動運転車両の配車システムでは、ステップS90での処理が第4の発明の「誤差範囲推定部」での処理に相当し、ステップS98での処理が第4の発明の「重畳画像生成部」での処理に相当している。
また、実施の形態3の自動運転車両では、ステップS96での処理が第8の発明の「誤差範囲受信部」での処理に相当し、ステップS98での処理が第8の発明の「重畳画像生成部」での処理に相当している。
1 配車システム
10 利用者端末
11 受信機
12 入力装置
13 通信装置
14 表示装置
15 制御装置
20 管理サーバ
30 自動運転車両
31 受信機
32 地図データベース
33 周辺状況センサ
34 車両状態センサ
35 通信装置
36 走行装置
40 制御装置
100 重畳画像
102 周辺画像
104 配車車両位置
106 利用者端末位置
201 歩行者位置
301 誤差範囲

Claims (9)

  1. 利用者からの配車リクエストを受けて配車サービスを提供する自動運転車両の配車システムであって、
    配車される自動運転車両である配車車両に搭載されたセンサを用いて、当該配車車両の周辺環境の情報である周辺環境認識情報を取得する認識情報取得部と、
    予め記憶された当該配車車両の周辺環境の情報である周辺環境記憶情報を取得する記憶情報取得部と、
    前記周辺環境認識情報と前記周辺環境記憶情報との比較に基づいて、前記配車車両の位置である配車車両位置を推定する配車車両位置推定部と、
    利用者端末の位置である利用者端末位置を推定する利用者端末位置推定部と、
    前記周辺環境認識情報又は前記周辺環境記憶情報に基づいて、前記配車車両の周辺環境を表す周辺画像を生成する周辺画像生成部と、
    前記周辺画像に前記配車車両位置と前記利用者端末位置とを重ねた重畳画像を生成する重畳画像生成部と、
    前記重畳画像を前記利用者端末に表示する画像表示部と、
    を備えることを特徴とする自動運転車両の配車システム。
  2. 前記周辺環境認識情報に基づいて、前記配車車両の周囲に存在する歩行者の位置である歩行者位置を推定する歩行者位置推定部を更に備え、
    前記周辺画像生成部は、前記周辺画像に更に前記歩行者位置を重ねるように構成されていることを特徴とする請求項1に記載の自動運転車両の配車システム。
  3. 前記周辺環境認識情報に基づいて、前記配車車両の周囲に存在する歩行者の位置である歩行者位置を推定する歩行者位置推定部を更に備え、
    前記重畳画像生成部は、前記重畳画像に更に前記歩行者位置を重ねるように構成されていることを特徴とする請求項1に記載の自動運転車両の配車システム。
  4. 前記利用者端末位置の誤差範囲を推定する誤差範囲推定部を更に備え、
    前記重畳画像生成部は、前記重畳画像に更に前記誤差範囲を重ねるように構成されていることを特徴とする請求項1乃至3の何れか1項に記載の自動運転車両の配車システム。
  5. 利用者からの配車リクエストを受けて配車サービスを提供する自動運転車両であって、
    配車される自動運転車両である配車車両に搭載されたセンサを用いて、当該配車車両の周辺環境の情報である周辺環境認識情報を取得する認識情報取得部と、
    予め記憶された当該配車車両の周辺環境の情報である周辺環境記憶情報を取得する記憶情報取得部と、
    前記周辺環境認識情報と前記周辺環境記憶情報との比較に基づいて、前記配車車両の位置である配車車両位置を推定する配車車両位置推定部と、
    利用者端末の位置である利用者端末位置を受信する利用者端末位置受信部と、
    前記周辺環境認識情報又は前記周辺環境記憶情報に基づいて、前記配車車両の周辺環境を表す周辺画像を生成する周辺画像生成部と、
    前記周辺画像に前記配車車両位置と前記利用者端末位置とを重ねた重畳画像を生成する重畳画像生成部と、
    前記重畳画像を前記利用者端末に送信する画像送信部と、
    を備えることを特徴とする自動運転車両。
  6. 前記周辺環境認識情報に基づいて、前記配車車両の周囲に存在する歩行者の位置である歩行者位置を推定する歩行者位置推定部を更に備え、
    前記周辺画像生成部は、前記周辺画像に更に前記歩行者位置を重ねるように構成されていることを特徴とする請求項5に記載の自動運転車両。
  7. 前記周辺環境認識情報に基づいて、前記配車車両の周囲に存在する歩行者の位置である歩行者位置を推定する歩行者位置推定部を更に備え、
    前記重畳画像生成部は、前記重畳画像に更に前記歩行者位置を重ねるように構成されていることを特徴とする請求項5に記載の自動運転車両。
  8. 前記利用者端末位置の誤差範囲を受信する誤差範囲受信部を更に備え、
    前記重畳画像生成部は、前記重畳画像に更に前記誤差範囲を重ねるように構成されていることを特徴とする請求項5乃至7の何れか1項に記載の自動運転車両。
  9. 利用者からの配車リクエストを受けて配車サービスを提供する自動運転車両の配車システムによって実現される配車方法であって、
    配車される自動運転車両である配車車両に搭載されたセンサを用いて、当該配車車両の周辺環境の情報である周辺環境認識情報を取得する認識情報取得ステップと、
    予め記憶された当該配車車両の周辺環境の情報である周辺環境記憶情報を取得する記憶情報取得ステップと、
    前記周辺環境認識情報と前記周辺環境記憶情報との比較に基づいて、前記配車車両の位置である配車車両位置を推定する配車車両位置推定ステップと、
    利用者端末の位置である利用者端末位置を推定する利用者端末位置推定ステップと、

    前記周辺環境認識情報又は前記周辺環境記憶情報に基づいて、前記配車車両の周辺環境を表す周辺画像を生成する周辺画像生成ステップと、
    前記周辺画像に前記配車車両位置と前記利用者端末位置とを重ねた重畳画像を生成する重畳画像生成ステップと、
    前記重畳画像を前記利用者端末に表示する画像表示ステップと、
    を備えることを特徴とする配車方法。
JP2017197070A 2017-10-10 2017-10-10 自動運転車両の配車システム、自動運転車両、及び配車方法 Active JP6852638B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017197070A JP6852638B2 (ja) 2017-10-10 2017-10-10 自動運転車両の配車システム、自動運転車両、及び配車方法
US16/122,178 US10685571B2 (en) 2017-10-10 2018-09-05 Vehicle dispatch system, autonomous driving vehicle, and vehicle dispatch method
CN201811032744.6A CN109658684B (zh) 2017-10-10 2018-09-05 车辆调度系统、自主驾驶车辆以及车辆调度方法
US16/831,051 US10885791B2 (en) 2017-10-10 2020-03-26 Vehicle dispatch system, autonomous driving vehicle, and vehicle dispatch method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017197070A JP6852638B2 (ja) 2017-10-10 2017-10-10 自動運転車両の配車システム、自動運転車両、及び配車方法

Publications (2)

Publication Number Publication Date
JP2019070971A true JP2019070971A (ja) 2019-05-09
JP6852638B2 JP6852638B2 (ja) 2021-03-31

Family

ID=65993376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017197070A Active JP6852638B2 (ja) 2017-10-10 2017-10-10 自動運転車両の配車システム、自動運転車両、及び配車方法

Country Status (3)

Country Link
US (2) US10685571B2 (ja)
JP (1) JP6852638B2 (ja)
CN (1) CN109658684B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021131669A (ja) * 2020-02-19 2021-09-09 日産自動車株式会社 通信装置、管理装置、管理システム、及び管理方法
JP7546142B2 (ja) 2021-03-17 2024-09-05 日産自動車株式会社 情報処理装置及び情報処理方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6669141B2 (ja) * 2017-08-07 2020-03-18 トヨタ自動車株式会社 配車システム、配車方法、サーバ、ユーザ端末、サーバプログラム、ユーザ端末プログラム、及び、記憶媒体
US10837788B1 (en) 2018-05-03 2020-11-17 Zoox, Inc. Techniques for identifying vehicles and persons
US11846514B1 (en) 2018-05-03 2023-12-19 Zoox, Inc. User interface and augmented reality for representing vehicles and persons
US10809081B1 (en) * 2018-05-03 2020-10-20 Zoox, Inc. User interface and augmented reality for identifying vehicles and persons
US10838416B1 (en) 2019-05-30 2020-11-17 Ford Global Technologies, Llc Vehicle control handoff
CN110491155A (zh) * 2019-07-30 2019-11-22 深圳市前海胡桃科技有限公司 一种自动驾驶装置的调度方法、装置及自动驾驶装置
KR102693610B1 (ko) * 2019-08-14 2024-08-13 엘지전자 주식회사 로봇의 충전 시스템 및 그 제어 방법
JP7083331B2 (ja) * 2019-12-09 2022-06-10 本田技研工業株式会社 車両制御システム
US11473924B2 (en) * 2020-02-28 2022-10-18 Lyft, Inc. Transition of navigation modes for multi-modal transportation
JP7294231B2 (ja) * 2020-05-07 2023-06-20 トヨタ自動車株式会社 自動運転車両の制御装置、配車システム、及び配車方法
WO2021237201A1 (en) * 2020-05-22 2021-11-25 Optimus Ride, Inc. Display system and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012160130A (ja) * 2011-02-02 2012-08-23 Toyota Motor Corp タクシー情報提供システム及びタクシー情報提供方法
JP2016143364A (ja) * 2015-02-05 2016-08-08 富士通株式会社 位置同定装置、位置同定方法、及びプログラム
JP2017182301A (ja) * 2016-03-29 2017-10-05 パナソニックIpマネジメント株式会社 自動輸送車両及び自動輸送システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002279588A (ja) 2001-03-22 2002-09-27 Osaka Gas Co Ltd 自動車の配車システム、および自動車の配車方法
CN103983271A (zh) * 2010-03-29 2014-08-13 宏达国际电子股份有限公司 周围兴趣点的显示方法及移动装置
JP5589900B2 (ja) 2011-03-03 2014-09-17 株式会社豊田中央研究所 局所地図生成装置、グローバル地図生成装置、及びプログラム
CN103971509B (zh) * 2013-01-31 2016-06-01 上海飞田通信技术有限公司 出租车调度系统、调度服务器及车载导航终端
US9733096B2 (en) 2015-06-22 2017-08-15 Waymo Llc Determining pickup and destination locations for autonomous vehicles
US10139237B2 (en) 2015-09-01 2018-11-27 Chris Outwater Method for remotely identifying one of a passenger and an assigned vehicle to the other
US10088846B2 (en) 2016-03-03 2018-10-02 GM Global Technology Operations LLC System and method for intended passenger detection
JP6390035B2 (ja) * 2016-05-23 2018-09-19 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
US20170343375A1 (en) * 2016-05-31 2017-11-30 GM Global Technology Operations LLC Systems to dynamically guide a user to an autonomous-driving vehicle pick-up location by augmented-reality walking directions
US9791291B1 (en) * 2016-09-26 2017-10-17 Uber Technologies, Inc. Modifying map configurations based on established location points
CN106373076A (zh) * 2016-09-30 2017-02-01 北京小米移动软件有限公司 信息处理方法及装置
US10372141B2 (en) 2017-05-24 2019-08-06 Uber Technologies, Inc. Systems and methods for controlling autonomous vehicles that provide a vehicle service to users
US10269246B2 (en) * 2017-06-07 2019-04-23 GM Global Technology Operations LLC Vehicle locator and guide
US20190072978A1 (en) 2017-09-01 2019-03-07 GM Global Technology Operations LLC Methods and systems for generating realtime map information
US11067410B2 (en) * 2017-09-07 2021-07-20 Uber Technologies, Inc. First-person perspective view

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012160130A (ja) * 2011-02-02 2012-08-23 Toyota Motor Corp タクシー情報提供システム及びタクシー情報提供方法
JP2016143364A (ja) * 2015-02-05 2016-08-08 富士通株式会社 位置同定装置、位置同定方法、及びプログラム
JP2017182301A (ja) * 2016-03-29 2017-10-05 パナソニックIpマネジメント株式会社 自動輸送車両及び自動輸送システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021131669A (ja) * 2020-02-19 2021-09-09 日産自動車株式会社 通信装置、管理装置、管理システム、及び管理方法
JP7470524B2 (ja) 2020-02-19 2024-04-18 日産自動車株式会社 管理装置、管理システム、及び管理方法
JP7546142B2 (ja) 2021-03-17 2024-09-05 日産自動車株式会社 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
CN109658684B (zh) 2021-07-27
CN109658684A (zh) 2019-04-19
JP6852638B2 (ja) 2021-03-31
US20200226932A1 (en) 2020-07-16
US20190108757A1 (en) 2019-04-11
US10685571B2 (en) 2020-06-16
US10885791B2 (en) 2021-01-05

Similar Documents

Publication Publication Date Title
JP6852638B2 (ja) 自動運転車両の配車システム、自動運転車両、及び配車方法
CA3073823C (en) Identifying unassigned passengers for autonomous vehicles
US10293748B2 (en) Information presentation system
CN108122425B (zh) 用于识别车辆位置的装置和方法
KR101622028B1 (ko) 차량 통신을 이용한 차량 제어 장치 및 제어 방법
JP6269552B2 (ja) 車両走行制御装置
JP6695999B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US20150066412A1 (en) Method and device for calibrating a surroundings sensor
US11548443B2 (en) Display system, display method, and program for indicating a peripheral situation of a vehicle
JP2009230390A (ja) 認識システム
JP2018203006A (ja) 車両制御システムおよび車両制御方法
KR20210082448A (ko) 정보 처리 장치, 정보 처리 방법 및 정보 처리 프로그램
KR102587085B1 (ko) 자율주행차량의 호출자 탐색 방법
JP2013196595A (ja) 車両走行支援システム
US11492004B2 (en) Automated driving system, portable device and travel control device
JP2017003395A (ja) 車両の測位システム
JP2021018636A (ja) 車両遠隔指示システム
US20200340821A1 (en) Route guidance system
JP2019008350A (ja) 地図データ構造、送信装置、及び、運転支援装置
JP2023142006A (ja) 車両制御装置、車両制御方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210222

R151 Written notification of patent or utility model registration

Ref document number: 6852638

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151