JP2020144711A - 車両制御システムおよび車両制御方法 - Google Patents

車両制御システムおよび車両制御方法 Download PDF

Info

Publication number
JP2020144711A
JP2020144711A JP2019041993A JP2019041993A JP2020144711A JP 2020144711 A JP2020144711 A JP 2020144711A JP 2019041993 A JP2019041993 A JP 2019041993A JP 2019041993 A JP2019041993 A JP 2019041993A JP 2020144711 A JP2020144711 A JP 2020144711A
Authority
JP
Japan
Prior art keywords
vehicle
content
user
unit
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019041993A
Other languages
English (en)
Other versions
JP7079744B2 (ja
Inventor
浩 山中
Hiroshi Yamanaka
山中  浩
克靖 山根
Katsuyasu Yamane
克靖 山根
嘉崇 味村
Yoshitaka Ajimura
嘉崇 味村
智衣 杉原
Chie Sugihara
智衣 杉原
優輝 茂木
Yuki Mogi
優輝 茂木
翼 芝内
Tsubasa Shibauchi
翼 芝内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019041993A priority Critical patent/JP7079744B2/ja
Priority to US16/804,042 priority patent/US11475690B2/en
Priority to CN202010133696.0A priority patent/CN111665835B/zh
Publication of JP2020144711A publication Critical patent/JP2020144711A/ja
Application granted granted Critical
Publication of JP7079744B2 publication Critical patent/JP7079744B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0285Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/041Potential occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed

Abstract

【課題】車外から車両を遠隔操作しているユーザを精度よく識別することができる車両制御システムおよび車両制御方法を提供する。【解決手段】ユーザ識別システムにおいて、車両システムが備える車両制御装置100は、端末装置に表示された第1コンテンツを認識する認識部130と、認識部により認識された第1コンテンツと、車両に対応付けられた一以上のコンテンツとの比較に基づいて、第1コンテンツが表示された端末装置を車両の外部で携える人間が、車両を利用する予定のユーザまたはユーザの関係者であることを識別する識別部182と、を備える。【選択図】図3

Description

本発明は、車両制御システムおよび車両制御方法に関する。
乗員のジェスチャに基づいて、車両の停止位置を変更する技術が知られている(例えば、特許文献1参照)。
特開2017−121865号公報
しかしながら、従来の技術では、特定のジェスチャに基づいて遠隔操作される車両の周囲に多くの人があふれており、皆が同じジェスチャを行っている場合、車外から車両を遠隔操作しているユーザを精度よく見分けることができない場合があった。
本発明は、このような事情を考慮してなされたものであり、車外から車両を遠隔操作しているユーザを精度よく識別することができる車両制御システムおよび車両制御方法を提供することを目的の一つとする。
本発明に係る車両制御システムおよび車両制御方法は、以下の構成を採用した。
(1)本発明の一態様は、端末装置に表示された第1コンテンツを認識する認識部と、前記認識部により認識された前記第1コンテンツと、車両に対応付けられた一以上のコンテンツとの比較に基づいて、前記第1コンテンツが表示された前記端末装置を前記車両の外部で携える人間が、前記車両を利用する予定のユーザまたは前記ユーザの関係者であることを識別する識別部と、を備える車両制御システムである。
(2)の態様は、上記(1)の態様の車両制御システムにおいて、前記識別部が、前記認識部により認識された前記第1コンテンツが、前記一以上のコンテンツのいずれかと同じ場合、前記人間を前記ユーザまたは前記関係者として識別するものである。
(3)の態様は、上記(1)または(2)の態様の車両制御システムにおいて、前記識別部によって前記人間が前記ユーザまたは前記関係者であることが識別された場合、前記車両の操舵および速度を制御して、前記車両を前記ユーザまたは前記関係者の側に停止させる第1制御部を更に備えるものである。
(4)の態様は、上記(1)から(3)のうちいずれか一つの態様の車両制御システムにおいて、前記第1コンテンツには、一以上の色で配色された第1画像が含まれ、前記一以上のコンテンツのそれぞれには、一以上の色で配色された第2画像が含まれ、前記識別部が、前記第1画像の配色と前記第2画像の配色とが同じ場合、前記人間を前記ユーザまたは前記関係者として識別するものである。
(5)の態様は、上記(1)から(4)のうちいずれか一つの態様の車両制御システムにおいて、前記第1コンテンツには、第1模様が描かれた第1画像が含まれ、前記一以上のコンテンツのそれぞれには、第2模様が描かれた第2画像が含まれ、前記識別部が、前記第1模様と前記第2模様とが同じ場合、前記人間を前記ユーザまたは前記関係者として識別するものである。
(6)の態様は、上記(1)から(5)のうちいずれか一つの態様の車両制御システムにおいて、前記端末装置と通信する通信部と、前記通信部を制御して、前記車両のユーザが携える前記端末装置に情報を送信することで、前記端末装置にコンテンツを表示させる第2制御部と、を更に備えるものである。
(7)の態様は、上記(6)の態様の車両制御システムにおいて、前記識別部が、複数の前記端末装置のそれぞれに前記第1コンテンツが表示されていることが前記認識部によって認識された場合、前記認識部によって認識された複数の前記第1コンテンツのそれぞれと、前記一以上のコンテンツとを比較し、前記第2制御部が、前記認識部によって認識された複数の前記第1コンテンツのうち、少なくとも2つ以上の前記第1コンテンツが前記一以上のコンテンツのいずれかと同じである場合、前記通信部を制御して、前記ユーザまたは前記関係者が携える前記端末装置に前記第1コンテンツと異なる第2コンテンツであって、前記一以上のコンテンツのいずれかと同じ前記第2コンテンツを表示させ、前記識別部が、前記第2制御部が前記車両のユーザが携える前記端末装置に前記第2コンテンツを表示させた後に、複数の前記端末装置のいずれかの端末装置に前記第2コンテンツが表示されたことが前記認識部によって認識された場合、前記第2コンテンツを表示した端末装置を携える人間を、前記ユーザまたは前記関係者として識別すものである。
(8)の態様は、上記(6)または(7)の態様の車両制御システムにおいて、前記第2制御部が、前記端末装置にコンテンツを表示させる際、前記端末装置にコンテンツを表示させない場合に比して、前記端末装置の画面を明るくするものである。
(9)の態様は、上記(1)から(8)のうちいずれか一つの態様の車両制御システムにおいて、前記第1コンテンツには、前記車両の制御態様に対応付けられた第1サブコンテンツが含まれ、前記一以上のコンテンツのそれぞれには、前記車両の制御態様に対応付けられた第2サブコンテンツが含まれ、前記第1サブコンテンツと前記第2サブコンテンツとが同じ場合、前記第1サブコンテンツまたは前記第2サブコンテンツに対応付けられた制御態様に基づいて、前記車両を制御する第3制御部を更に備えるものである。
(10)本発明の他の態様は、コンピュータが、端末装置に表示された第1コンテンツを認識し、前記認識した前記第1コンテンツと、車両に対応付けられた一以上のコンテンツとの比較に基づいて、前記第1コンテンツが表示された前記端末装置を前記車両の外部で携える人間が、前記車両を利用する予定のユーザまたは前記ユーザの関係者であることを識別する、車両制御方法である。
(1)〜(10)のいずれかの態様によれば、車外から車両を遠隔操作しているユーザを精度よく識別することができる。
第1実施形態に係るユーザ識別システム1の一例を示す図である。 第1実施形態に係る車両システム2の構成図である。 第1制御部120、第2制御部160、および第3制御部180の機能構成図である。 第1実施形態に係る端末装置400の構成図である。 自走駐車イベントが実行される場面を模式的に示す図である。 駐車場管理装置500の構成の一例を示す図である。 第1実施形態に係る自動運転制御装置100による一連の処理の一例を示すフローチャートである。 乗降エリア320に複数の人間が待機している場面の一例を示す図である。 乗降エリア320に複数の人間が待機している場面の他の例を示す図である。 自車両Mのユーザまたはその関係者を識別した後に行われる自動運転の様子を模式的に示す図である。 第1実施形態に係る端末装置400による一連の処理の一例を示すフローチャートである。 第2実施形態に係るコンテンツデータ192の一例を示す図である。 端末装置400の画面の一例を示す図である。 実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。
以下、図面を参照し、本発明の車両制御システムおよび車両制御方法の実施形態について説明する。
<第1実施形態>
図1は、第1実施形態に係るユーザ識別システム1の一例を示す図である。第1実施形態に係るユーザ識別システム1は、車両Mに搭載された車両システム2と、端末装置400とを備える。車両システム2と端末装置400とは、ネットワークNWを介して接続される。ネットワークNWは、LAN(Local Area Network)やWAN(Wide Area Network)などが含まれる。ネットワークNWには、例えば、Wi−FiやBluetooth(登録商標、以下省略)などの無線通信を利用したネットワークが含まれてよいし、アプリケーションサーバやウェブサーバなどが含まれてよい。
車両システム2が搭載される車両Mは、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。車両Mは、個人が所有する車両であってもよいし、タクシーやバス、レンタカーなどの不特定多数のユーザが利用することを目的とした車両であってもよいし、カーシェアリングなどのサービスを介して、ある特定のユーザ間で共同利用される車両であってもよい。
車両システム2は、自システムが搭載された車両M(以下、自車両Mと称する)の速度または操舵の少なくとも一方を制御したり、双方を制御したりすることで、自車両Mの運転者の運転操作に依らずに、自車両Mを自動的に運転する(以下、これを自動運転と称する)。例えば、車両システム2は、自車両Mを自動運転する際、自車両Mの車外に存在する一人または複数人の人間の中から、乗車して移動したり、荷物を預けたり、荷物を受け取ったりするような目的で自車両Mを利用する予定のユーザを識別したり、自車両Mを利用する予定のユーザの関係者を識別したりすることで、その識別したユーザまたは関係者の近くまで移動する。
ユーザの関係者とは、例えば、ユーザが宿泊するホテルの従業員や、ユーザの家族、ユーザの友達などであり、後述する特定のコンテンツを表示させた端末装置400の画面を自車両Mに向けるようにユーザから依頼された者である。以下、自車両Mを利用する予定のユーザのことを「自車両Mのユーザ」と称して説明する。
端末装置400は、車両システム2が搭載される各車両Mのユーザが利用可能な端末装置である。典型的には、端末装置400は、ユーザインターフェースとディスプレイを兼ねるタッチパネルや、アンテナなどを含む無線通信インターフェース、ストレージ、CPU(Central Processing Unit)などの演算装置を備える携帯電話やタブレット端末である。端末装置400では、ウェブブラウザやアプリケーションプログラムなどのUA(User Agent)が起動する。UAが起動した端末装置400は、ユーザから各種入力操作を受け付け、受け付けた入力操作に応じて各種処理を行う。例えば、端末装置400は、ユーザの入力操作に応じて、タッチパネルなどのディスプレイに、ある特定のコンテンツを表示する。特定のコンテンツとは、車両システム2に、車外に存在する複数のユーザの候補の中から、自車両Mのユーザや、そのユーザの関係者を識別させるための静止画像や動画像、GIF(Graphics Interchange Format)のマルチイメージなどを用いたアニメーションである。特定のコンテンツは、車両Mごとに異なるユニークなコンテンツであってよい。例えば、特定のコンテンツが静止画像である場合、その画像は、車両Mごとに異なる一以上の色で配色されていてもよいし、車両Mごとに異なる模様が描かれていてもよい。コンテンツである画像に描かれる模様は、例えば、縞模様や水玉模様のような幾何学的な模様であってもよいし、二次元コードのような情報が暗号化された模様であってもよいし、家紋のようにユーザやその家族を識別するための模様であってもよい。
[車両システムの構成]
図2は、第1実施形態に係る車両システム2の構成図である。第1実施形態に係る車両システム2は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。図2に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム2が搭載される車両(以下、自車両M)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM−CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に取り付けられる。
物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。車両システム2から物体認識装置16が省略されてもよい。
通信装置20は、例えば、ネットワークNWを介して、自車両Mの周辺に存在する他車両や、後述する駐車場管理装置、端末装置400、ウェブサーバやアプリケーションサーバなどと通信する。通信装置20は、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信してもよい。
HMI30は、自車両Mのユーザに対して各種情報を提示すると共に、ユーザによる入力操作を受け付ける。HMI30は、ディスプレイ、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、ディスプレイ、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いてユーザにより入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、ユーザの保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160と、第3制御部180と、記憶部190とを備える。第1制御部120、第2制御部160、および第3制御部180のそれぞれは、例えば、CPUやGPU(Graphics Processing Unit)などのプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め記憶部190のHDDやフラッシュメモリなどに格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、その記憶媒体がドライブ装置に装着されることで記憶部190にインストールされてもよい。
記憶部190は、例えば、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)などにより実現される。記憶部190は、例えば、プロセッサによって読み出されて実行されるプログラムや、コンテンツデータ192などを格納する。
コンテンツデータ192は、上述した特定のコンテンツを表すデータである。例えば、コンテンツデータ192には、自車両Mに対応付けられた一つまたは複数のユニークなコンテンツが特定のコンテンツとして含まれる。
図3は、第1制御部120、第2制御部160、および第3制御部180の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。
第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。
認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力された情報、すなわち、センサフュージョンされた検出結果に基づいて、自車両Mの周辺状況を認識する。例えば、認識部130は、周辺状況として、自車両Mの周辺に存在する物体の位置や、速度、加速度などの状態を認識する。周辺状況として認識される物体には、例えば、歩行者や他車両といった移動体や、工事用具などの静止体が含まれる。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、空間的な広がりをもった領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
また、例えば、認識部130は、周辺状況として、自車両Mが走行している車線(以下、自車線と称する)や、自車線に隣接した隣接車線などを認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、自車線や隣接車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、自車線や隣接車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、歩道、停止線(一時停止線を含む)、障害物、赤信号、料金所、道路構造その他の道路事象を認識してもよい。
認識部130は、自車線を認識する際に、自車線に対する自車両Mの相対的な位置や姿勢を認識する。認識部130は、例えば、車線中央に対する自車両Mの基準点の乖離、および自車両Mの進行方向を示すベクトルと車線中央を連ねた線とのなす角度を、自車線に対する自車両Mの相対位置および姿勢として認識してもよい。これに代えて、認識部130は、自車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、自車線に対する自車両Mの相対位置として認識してもよい。
また、認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置16を介して入力された情報に基づいて、自車両Mの外部に一人または複数人の人間を認識すると、カメラ10の画像を解析することで、各人間が携えた端末装置400のディスプレイの画面に表示されたコンテンツを認識する。「携えた」とは、例えば、人間が端末装置400を手に持っていることであってもよいし、人間の首や腕などにストラップなどを介して掛けられていることであってもよい。認識部130は、コンテンツを認識すると、その認識したコンテンツに関する情報を第3制御部180に提供する。コンテンツに関する情報とは、例えば、カメラ10によって撮像された画像から、コンテンツが表示されたディスプレイの画面の領域を切り出した画像データである。
行動計画生成部140は、推奨車線が決定された経路において自動運転のイベントを決定する。自動運転のイベントとは、上述した自動運転下において自車両Mがとるべき挙動の様、すなわち走行態様を規定した情報である。
イベントには、例えば、自車両Mのユーザ自らが駐車スペースに自車両Mを駐車するのではなく、バレーパーキングのように、自車両Mを自律走行させて駐車スペースに駐車させる駐車イベントや、自車両Mをその場で停止させる停止イベント、自車両Mを徐行させながら前進させる前進イベント、自車両Mを徐行させながら後退させる後退イベントなどが含まれる。
また、イベントには、例えば、自車両Mを一定の速度で同じ車線を走行させる定速走行イベント、自車両Mの前方の所定距離以内(例えば100[m]以内)に存在し、自車両Mに最も近い他車両(以下、前走車両と称する)に自車両Mを追従させる追従走行イベント、自車両Mを自車線から隣接車線へと車線変更させる車線変更イベント、道路の分岐地点で自車両Mを目的側の車線に分岐させる分岐イベント、合流地点で自車両Mを本線に合流させる合流イベント、自車両Mを一旦隣接車線に車線変更させて前走車両を隣接車線において追い越してから再び元の車線へと車線変更させる追い越しイベント、自車両Mの前方に存在する障害物を回避するために自車両Mに制動および操舵の少なくとも一方を行わせる回避イベント、自動運転を終了して手動運転に切り替えるためのテイクオーバーイベントなどが含まれてよい。「追従」とは、例えば、自車両Mと前走車両との相対距離(車間距離)を一定に維持させる走行態様であってもよいし、自車両Mと前走車両との相対距離を一定に維持させることに加えて、自車両Mを自車線の中央で走行させる走行態様であってもよい。
行動計画生成部140は、自車両Mの走行時に認識部130により認識された周辺状況に応じて、現在の区間或いは次の区間に対して既に決定したイベントを他のイベントに変更したり、現在の区間或いは次の区間に対して新たなイベントを決定したりしてよい。
行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を自車両Mが走行し、更に、自車両Mが推奨車線を走行する際に周辺状況に対応するため、イベントにより規定された走行態様で自車両Mを自動的に(運転者の操作に依らずに)走行させる将来の目標軌道を生成する。目標軌道には、例えば、将来の自車両Mの位置を定めた位置要素と、将来の自車両Mの速度や加速度等を定めた速度要素とが含まれる。
例えば、行動計画生成部140は、自車両Mが順に到達すべき複数の地点(軌道点)を、目標軌道の位置要素として決定する。軌道点は、所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点である。所定の走行距離は、例えば、経路に沿って進んだときの道なり距離によって計算されてよい。
また、行動計画生成部140は、所定のサンプリング時間(例えば0コンマ数秒程度)ごとの目標速度や目標加速度を、目標軌道の速度要素として決定する。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度は、サンプリング時間および軌道点の間隔によって決定される。行動計画生成部140は、生成した目標軌道を示す情報を、第2制御部160に出力する。
自走駐車制御部142は、行動計画生成部140の一機能であり、行動計画生成部140によって自走駐車イベントが実行される場合に開始される。自走駐車制御部142の機能の詳細については後述する。
第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部を制御する。すなわち、第2制御部160は、行動計画生成部140によって生成された目標軌道に基づいて自車両Mを自動運転させる。
第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。上述した行動計画生成部140および第2制御部160は、「第1制御部」の一例である。
取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、記憶部190のメモリに記憶させる。
速度制御部164は、メモリに記憶された目標軌道に含まれる速度要素(例えば目標速度や目標加速度等)に基づいて、走行駆動力出力装置200およびブレーキ装置210の一方または双方を制御する。
操舵制御部166は、メモリに記憶された目標軌道に含まれる位置要素(例えば目標軌道の曲り具合を表す曲率等)に応じて、ステアリング装置220を制御する。
速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道に対する自車両Mの乖離に基づくフィードバック制御とを組み合わせて実行する。
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するパワーECU(Electronic Control Unit)とを備える。パワーECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
第3制御部180は、例えば、識別部182と、通信制御部184とを備える。通信制御部184は、「第2制御部」の一例である。
識別部182は、認識部130によって認識された、端末装置400の画面に表示されたコンテンツに基づいて、その端末装置400を携える人間が、自車両Mのユーザであること、または自車両Mのユーザの関係者であることを識別する。例えば、識別部182は、認識部130によって認識されたコンテンツ(第1コンテンツの一例)と、コンテンツデータ192に含まれるコンテンツとの類似度を計算し、その類似度が閾値以上であり、互いのコンテンツが同じであると見做せる場合、端末装置400を携える人間が自車両Mのユーザまたはその関係者であると識別し、類似度が閾値未満であり、互いのコンテンツが同じであると見做せない場合、端末装置400を携える人間が自車両Mのユーザまたはその関係者でないと識別する。類似度は、静止画像や動画像などから得られる特徴点のマッチングや、ヒストグラムの比較などによって求められてよい。また、類似度は、静止画像や動画像などから得られる複数の特徴量や統計量を要素とする多次元ベクトルのコサイン類似度として求められてもよい。
例えば、コンテンツデータ192に含まれるコンテンツが、車両Mごとに異なる一以上の色で配色された画像である場合、識別部182は、認識部130によってコンテンツとして認識された画像の配色と、コンテンツデータ192に含まれる画像の配色とを比較し、これらの配色が閾値以上の類似度で同じ場合、端末装置400を携える人間が自車両Mのユーザまたはその関係者であると識別してよい。
また、例えば、コンテンツデータ192に含まれるコンテンツが、車両Mごとに異なる模様が描かれた画像である場合、識別部182は、認識部130によってコンテンツとして認識された画像の模様と、コンテンツデータ192に含まれる画像の模様とを比較し、これらの模様が閾値以上の類似度で同じ場合、端末装置400を携える人間が自車両Mのユーザまたはその関係者であると識別してよい。また、模様が一次元コードや二次元コードのような暗号化されたコードである場合、識別部182は、認識部130によってコンテンツとして認識された画像に含まれる暗号化コードを復号し、その複合した情報に基づいて、暗号化コードが模様として描かれた画像を表示した端末装置400を携える人間が、自車両Mのユーザまたはその関係者であると識別してよい。
識別部182は、端末装置400を携える人間が自車両Mのユーザまたはその関係者であること、或いは自車両Mのユーザまたはその関係者でないことを識別すると、その識別結果を、行動計画生成部140に提供する。これを受けて、行動計画生成部140は、実行中のイベントを他のイベントに変更したり、実行中のイベントを引き続き実行したりする。
通信制御部184は、識別部182によって端末装置400を携える人間が自車両Mのユーザまたはその関係者でないと識別されると、通信装置20を制御して、自車両Mのユーザまたはその関係者が携えていると想定される端末装置400に、現在表示されているコンテンツとは異なる他のコンテンツ(以下、代替コンテンツと称する)を表示させるための情報を送信する。代替コンテンツを表示させるための情報とは、例えば、静止画像や動画像といったコンテンツそのものであってよい。また、端末装置400に予め複数のコンテンツがインストールされている場合、代替コンテンツを表示させるための情報は、画面に表示させるコンテンツを切替させるコマンドであってよい。これによって、認識部130によって認識された一以上の人間の中に、自車両Mのユーザまたはその関係者が含まれていれば、その人間が携える端末装置400の画面に表示されたコンテンツが代替コンテンツに切り替わることになる。代替コンテンツは、「第2コンテンツ」の一例である。
[端末装置の構成]
図4は、第1実施形態に係る端末装置400の構成図である。第1実施形態に係る端末装置400は、例えば、通信部402と、表示部404と、入力部406と、制御部410と、記憶部420とを備える。
通信部402は、ネットワークNWに接続するためのハードウェアを含む。例えば、通信部402は、アンテナおよび送受信装置、またはNIC等を含んでよい。通信部402は、ネットワークNWを介して、車両システム2と通信したり、ウェブサーバやアプリケーションサーバなどと通信したりする。
表示部404は、例えば、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)ディスプレイなどのディスプレイを含む。表示部404は、制御部410により出力される情報に基づいて、静止画像や動画像などのコンテンツを表示する。
入力部406は、例えば、ボタン、キーボードやマウス等のユーザインターフェースを含む。入力部406は、ユーザの操作を受け付けて、受け付けた操作に応じた信号を制御部410に出力する。入力部406は、表示部404と一体として構成されるタッチパネルであってよい。
制御部410は、例えば、CPUなどのプロセッサが記憶部420に格納されたプログラムやアプリケーションを実行することにより実現される。また、制御部410は、LSI、ASIC、またはFPGAなどのハードウェアにより実現されてもよい。
記憶部420は、例えば、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。記憶部420には、例えば、制御部410を実現するプロセッサが参照するプログラムやアプリケーションが格納される。アプリケーションには、例えば、車外から自車両Mを遠隔操作するためのアプリケーション(以下、リモートアプリケーション422と称する)が含まれる。また、記憶部420には、特定のコンテンツとして、一つまたは複数のコンテンツが格納されていてよい。
[自走駐車イベント−入庫時]
以下、自走駐車制御部142の機能について説明する。自走駐車制御部142は、例えば、通信装置20によって駐車場管理装置500から取得された情報に基づいて、自車両Mを駐車スペース内に駐車させる。図5は、自走駐車イベントが実行される場面を模式的に示す図である。道路Rdから訪問先施設に至るまでの経路には、ゲート300−inおよび300−outが設けられている。訪問先施設は、例えば、ショッピングストアや飲食店、ホテルなどの宿泊施設、空港、病院、イベント会場などである。
自車両Mは、手動運転または自動運転によって、ゲート300−inを通過して停止エリア310まで進行する。手動運転とは、ユーザがステアリングホイールを操作することで自車両Mの操舵(ステアリング装置220)が制御され、ユーザがアクセルペダルやブレーキペダルを操作することで自車両Mの速度(走行駆動力出力装置200および/またはブレーキ装置210)が制御されることをいう。
停止エリア310は、訪問先施設に接続された乗降エリア320に面しており、車両から乗降エリア320にユーザを降ろしたり、乗降エリア320から車両にユーザを乗せたりするために、一時的に停車することが許された領域である。乗降エリア320は、車両からユーザが降車したり、車両にユーザが乗車したり、車両が到着するまでユーザがその場で待機したりするために設けられた領域である。乗降エリア320は、典型的には、停止エリア310が設けられた道路の片側一方に設けられる。乗降エリア320には、雨や雪、日差しを避けるための庇が設けられていてよい。
例えば、ユーザを乗せた自車両Mは、停止エリア310で停車し、乗降エリア320にユーザを降ろす。その後、自車両Mは、無人で自動運転を行い、停止エリア310から、駐車場PA内の駐車スペースPSまで自律して移動する自走駐車イベントを開始する。自走駐車イベントの開始トリガは、例えば、訪問先施設の所定距離以内に自車両Mが接近したことであってもよいし、ユーザが端末装置400でリモートアプリケーション422を起動したことであってもよいし、通信装置20が駐車場管理装置500から無線により所定の信号を受信したことであってもよい。
自走駐車制御部142は、行動計画生成部140によって自走駐車イベントが開始されると、通信装置20を制御して駐車リクエストを駐車場管理装置500に送信する。駐車リクエストを受信した駐車場管理装置500は、駐車場PAに車両が駐車可能なスペースが存在する場合、駐車リクエストの送信元の車両に、駐車リクエストのレスポンスとして所定の信号を送信する。所定の信号を受信した自車両Mは、停止エリア310から駐車場PAまで、駐車場管理装置500の誘導に従って、或いは自力でセンシングしながら移動する。なお、自走駐車イベントが行われる際、自車両Mは必ずしも無人である必要はなく、自車両Mには駐車場PAの係員などが乗車してもよい。
図6は、駐車場管理装置500の構成の一例を示す図である。駐車場管理装置500は、例えば、通信部510と、制御部520と、記憶部530とを備える。記憶部530には、駐車場地図情報532、駐車スペース状態テーブル534などの情報が格納されている。
通信部510は、自車両Mやその他の車両と無線により通信する。制御部520は、通信部510により取得(受信)された情報と、記憶部530に格納された情報とに基づいて、車両を駐車スペースPSに誘導する。駐車場地図情報532は、駐車場PAの構造を幾何的に表した情報であり、例えば、駐車スペースPSごとの座標を含む。駐車スペース状態テーブル534は、例えば、駐車スペースPSの識別情報である駐車スペースIDに対して、そのIDが示す駐車スペースに車両が駐車されていない空き状態であるか、IDが示す駐車スペースに車両が駐車されている満(駐車中)状態であるかを示す状態と、満状態である場合の駐車中の車両の識別情報である車両IDとが対応付けられたものである。
制御部520は、通信部510が車両から駐車リクエストを受信すると、駐車スペース状態テーブル534を参照して状態が空き状態である駐車スペースPSを抽出し、抽出した駐車スペースPSの位置を駐車場地図情報532から取得し、取得した駐車スペースPSの位置までの好適な経路を示す経路情報を、通信部510を用いて車両に送信する。また、制御部520は、複数の車両の位置関係に基づいて、同時に同じ位置に車両が進行しないように、必要に応じて特定の車両に停止を指示したり、徐行を指示したりしてよい。
自車両Mが駐車場管理装置500から経路情報を受信すると、自走駐車制御部142が、経路に基づく目標軌道を生成する。例えば、自走駐車制御部142は、自車両Mの現在位置から駐車スペースPSまでの経路において、駐車場PA内の制限速度よりも小さい速度を目標速度とし、駐車場PA内の道路の中央に軌道点を並べた目標軌道を生成してよい。認識部130は、自車両Mが目標となる駐車スペースPSに近づくと、駐車スペースPSを区画する駐車枠線などを認識し、自車両Mに対する駐車スペースPSの相対的な位置を認識する。認識部130は駐車スペースPSの位置を認識すると、その認識した駐車スペースPSの方位(自車両Mから見た駐車スペースの方角)や、駐車スペースPSまでの距離といった認識結果を、自走駐車制御部142に提供する。自走駐車制御部142は、提供された認識結果に基づいて目標軌道を補正する。第2制御部160は、自走駐車制御部142によって補正された目標軌道に従って自車両Mの操舵および速度を制御することで、自車両Mを駐車スペースPSに駐車させる。
[自走駐車イベント−出庫時]
行動計画生成部140および通信装置20は、自車両Mが駐車中も動作状態を維持している。例えば、自車両Mから降りたユーザが、端末装置400を操作してリモートアプリケーション422を起動し、自車両Mの通信装置20に迎車リクエストを送信したとする。迎車リクエストとは、自車両Mから離れた遠隔地から自車両Mを呼び出して、自車両Mを自身の近くまで移動するように要求するコマンドである。
迎車リクエストが通信装置20によって受信されると、行動計画生成部140は、自走駐車イベントを実行し、自走駐車制御部142を起動させる。起動した自走駐車制御部142は、自車両Mが駐車された駐車スペースPSから、停止エリア310まで自車両Mを移動させる目標軌道を生成する。第2制御部160は、自走駐車制御部142によって生成された目標軌道に従って自車両Mを停止エリア310まで移動させる。例えば、自走駐車制御部142は、停止エリア310までの経路において、駐車場PA内の制限速度よりも小さい速度を目標速度とし、駐車場PA内の道路の中央に軌道点を並べた目標軌道を生成してよい。
自車両Mが停止エリア310に近づくと、認識部130は、停止エリア310に面した乗降エリア320を認識し、乗降エリア320内に存在する人間や荷物などの物体を認識したり、認識した人間が携える端末装置400の画面に表示されたコンテンツを認識したりする。識別部182は、認識部130によって認識されたコンテンツに基づいて、乗降エリア320内に存在する一以上の人間の中から、自車両Mのユーザまたはその関係者を識別する。識別部182によって識別された自車両Mのユーザまたはその関係者に自車両Mが近づくと、自走駐車制御部142は、目標速度を更に小さくしたり、軌道点を道路中央から乗降エリア320寄りに近づけたりして目標軌道を補正する。これを受けて、第2制御部160は、停止エリア310内において、自車両Mを自車両Mのユーザまたはその関係者の側に寄せて停車させる。「側」とは、例えば、ユーザ或いは関係者として識別された人間と自車両Mとの間の距離が数メートル以内であることであってよい。
また、自走駐車制御部142は、迎車リクエストを受けて目標軌道を生成する際に、通信装置20を制御して駐車場管理装置500に発進リクエストを送信する。駐車場管理装置500の制御部520は、発進リクエストを受信すると、入庫時と同様に、複数の車両の位置関係に基づいて、同時に同じ位置に車両が進行しないように、必要に応じて特定の車両に停止を指示したり、徐行を指示したりする。自車両Mが停止エリア310まで移動し、乗降エリア320にいるユーザが自車両Mに乗車すると、自走駐車制御部142は、動作を停止する。すなわち、自走駐車イベントが終了する。以降は、自動運転制御装置100が、自車両Mを駐車場PAから市街地の道路へと合流させる合流イベントなどを計画し、その計画したイベントに基づいて自動運転を行ったり、ユーザ自らが自車両Mを手動運転したりする。
なお、上記の説明に限らず、自走駐車制御部142は、通信に依らず、カメラ10、レーダ装置12、ファインダ14、または物体認識装置16による検出結果に基づいて空き状態の駐車スペースPSを自ら発見し、発見した駐車スペースPS内に自車両Mを駐車させてもよい。
[出庫時の処理フロー]
以下、出庫時の自動運転制御装置100による一連の処理についてフローチャートを用いて説明する。図7は、第1実施形態に係る自動運転制御装置100による一連の処理の一例を示すフローチャートである。本フローチャートの処理は、例えば、所定周期で繰り返し行われてよい。本フローチャートの処理が行われる間、特段の断りがない限り、認識部130は、各種認識を行い続けるものとする。
まず、行動計画生成部140は、通信装置20によって迎車リクエストが受信されるまで待機し(ステップS100)、通信装置20によって迎車リクエストが受信されると、自走駐車イベントを実行する。これを受けて、自走駐車制御部142は、自車両Mが駐車された駐車スペースPSから停止エリア310へと自車両Mを移動させる目標軌道を生成する(ステップS102)。
次に、第2制御部160は、迎車リクエストが受信されたときに自走駐車制御部142によって生成された目標軌道に基づいて自動運転を行い、自車両Mを停止エリア310まで移動させる(ステップS104)。
次に、識別部182は、自車両Mが停止エリア310に近づくと、その停止エリア310に存在する人間が携える端末装置400の画面にコンテンツが表示されていることが認識部130によって認識されるまで待機し(ステップS106)、認識部130によって端末装置400の画面にコンテンツが表示されていることが認識されると、コンテンツを表示した端末装置400が複数台であるか否かを判定する(ステップS108)。すなわち、識別部182は、複数の端末装置400のそれぞれの画面にコンテンツが表示されていることが認識部130によって認識されたか否かを判定する。
識別部182は、コンテンツを表示した端末装置400が1台であると判定した場合、その1台の端末装置400に表示されたコンテンツと、コンテンツデータ192に含まれるコンテンツとが同じであるか否かを判定する(ステップS110)。
例えば、識別部182は、コンテンツデータ192に複数のコンテンツが含まれる場合、端末装置400に表示されたコンテンツと、複数のコンテンツのそれぞれとの類似度を算出し、複数のコンテンツのいずれかとの類似度が閾値以上である場合、端末装置400に表示されたコンテンツと、コンテンツデータ192に含まれるコンテンツとが同じであると判定し、複数のコンテンツの全てとの類似度が閾値未満である場合、端末装置400に表示されたコンテンツと、コンテンツデータ192に含まれるコンテンツとが同じでないと判定する。
識別部182は、端末装置400に表示されたコンテンツと、コンテンツデータ192に含まれるコンテンツとが同じでないと判定した場合、S106に処理を戻す。これによって、認識部1300は、コンテンツの認識処理を継続する。
一方、識別部182は、端末装置400に表示されたコンテンツと、コンテンツデータ192に含まれるコンテンツとが同じであると判定した場合、コンテンツを表示させた端末装置400を携える人間を、自車両Mのユーザまたはその関係者であると識別する(ステップS112)。
次に、自走駐車制御部142は、目標速度を更に小さくしたり、軌道点を道路中央から乗降エリア320寄りに近づけたりして目標軌道を補正する。これを受けて、第2制御部160は、停止エリア310内において、自車両Mのユーザまたはその関係者であると識別された人間の側(例えば、数メートル以内)に自車両Mを徐行させながら寄せて停止させる(ステップS114)。
一方、識別部182は、S108の処理でコンテンツを表示した端末装置400が1台ではなく、複数台であると判定した場合、複数の端末装置400のそれぞれに表示されたコンテンツのうち、2つ以上のコンテンツと、コンテンツデータ192に含まれるコンテンツとが同じであるか否かを判定する(ステップS116)。すなわち、識別部182は、コンテンツが表示された端末装置400を携えた複数の人間の中に、特定のコンテンツ(自車両Mに対応付けられたコンテンツと同じコンテンツ)が表示された端末装置400を携えた人間が複数人存在するか否かを判定する。
識別部182は、複数の端末装置400のそれぞれに表示されたコンテンツのうち、いずれのコンテンツも、コンテンツデータ192に含まれるコンテンツと同じでないと判定した場合、S106に処理を戻す。これによって、認識部1300は、コンテンツの認識処理を継続する。
一方、識別部182が、複数の端末装置400のそれぞれに表示されたコンテンツのうち、2つ以上のコンテンツと、コンテンツデータ192に含まれるコンテンツとが同じであると判定した場合、通信制御部184は、通信装置20を制御して、自車両Mのユーザまたはその関係者が携える端末装置400に、画面に表示させるコンテンツを代替コンテンツに切替させるコマンド(以下、切替コマンドと称する)を送信する(ステップS118)。
例えば、乗降エリア320に待機する人々の中に自車両Mのユーザまたはその関係者が存在すれば、いずれかの人間が携える端末装置400の画面に、代替コンテンツが表示されることになる。従って、識別部182は、通信制御部184が自車両Mのユーザまたはその関係者が携える端末装置400に切替コマンドを送信した後に、認識部130によって認識された複数のコンテンツのいずれかが代替コンテンツと同じであるか否かを判定する(ステップS120)。
なお、通信制御部184は、自車両Mのユーザまたはその関係者が携える端末装置400に切替コマンドを送信する代わりに、代替コンテンツを送信してもよい。例えば、通信制御部184は、ネットワークNWに含まれるウェブサーバによって提供されるウェブサイトを介して、代替コンテンツを端末装置400に送信してもよいし、ネットワークNWに含まれるアプリケーションサーバによって提供されるアプリケーションを介して、代替コンテンツを端末装置400に送信してもよい。また、通信制御部184は、Wi−Fiなどの無線通信ネットワークを利用して、代替コンテンツを直接端末装置400に送信してもよい。
識別部182は、認識部130によって認識された複数のコンテンツのいずれもが、代替コンテンツと同じでないと判定した場合、乗降エリア320には自車両Mのユーザまたはその関係者がいないと判定し、S106に処理を戻す。これによって、乗降エリア320に自車両Mのユーザまたはその関係者が現れるまで、認識部1300は、コンテンツの認識処理を継続する。
一方、識別部182は、認識部130によって認識された複数のコンテンツのいずれかが、代替コンテンツと同じであると判定した場合、代替コンテンツと同じコンテンツが表示された端末装置400を携える人間を、自車両Mのユーザまたはその関係者として識別する(ステップS122)。そして、識別部182は、S114に処理を進める。
図8は、乗降エリア320に複数の人間が待機している場面の一例を示す図である。図示の例では、第1の人間U1と、第2の人間U2と、第3の人間U3とのそれぞれが、端末装置400にコンテンツを表示させた状態で、乗降エリア320に待機している。このような場面では、認識部130が、3台の端末装置400のそれぞれにコンテンツが表示されていることを認識する。従って、識別部182は、3台の端末装置400のそれぞれについて、コンテンツデータ192に含まれるコンテンツと同じであるか否かを判定する。
例えば、コンテンツデータ192に含まれるコンテンツが、縦縞の模様が描かれた画像であった場合、3台の端末装置400のそれぞれには、縦縞の模様が描かれた画像が表示されているため、識別部182は、3台の端末装置400のそれぞれに表示された合計3つのコンテンツが、コンテンツデータ192に含まれるコンテンツと同じであると判定する。すなわち、識別部182は、乗降エリア320に待機している3人の中に、縦縞の模様が描かれた特定のコンテンツが表示された端末装置400を携えた人間が3人存在すると判定する。この場合、3人の人間のいずれもが、自車両Mのユーザまたはその関係者である可能性がある。
そこで、通信制御部184は、通信装置20を制御して、自車両Mのユーザまたはその関係者が携える端末装置400に、切替コマンドを送信する。例えば、代替コンテンツが縦縞の画像であった場合、通信制御部184は、縦縞の画像から横縞の画像に切り替えるように指示する切替コマンドを端末装置400に送信する。
図9は、乗降エリア320に複数の人間が待機している場面の他の例を示す図である。図示の例では、自車両Mのユーザまたはその関係者が携える端末装置400に切替コマンドが送信された以降の場面を表しており、第1の人間U1と、第2の人間U2と、第3の人間U3とのそれぞれが携える端末装置400のうち、第2の人間U2が携える端末装置400に表示されたコンテンツが、縦縞の画像から横縞の画像に切り替わっている。
上述したように、切替コマンドが、代替コンテンツとして横縞の画像に変更するように指示するコマンドであった場合、図示の場面では、第2の人間U2が携える端末装置400には横縞の画像が表示されているため、識別部182は、認識部130によって認識された複数のコンテンツのうち、第2の人間U2が携える端末装置400に表示されたコンテンツが、代替コンテンツと同じであると判定し、代替コンテンツと同じコンテンツが表示された端末装置400を携える人間、すなわち第2の人間U2を、自車両Mのユーザまたはその関係者として識別する。
図10は、自車両Mのユーザまたはその関係者を識別した後に行われる自動運転の様子を模式的に示す図である。上述したように、例えば、第1の人間U1、第2の人間U2、および第3の人間U3の計3人の中から、第2の人間U2が自車両Mのユーザまたはその関係者として識別された場合、自走駐車制御部142は、自車両Mを徐行させながら、第2の人間U2に近づける目標軌道を生成する。これによって、自車両Mは、第2の人間U2の側に寄って停車する。
[端末装置の処理フロー]
以下、端末装置400による一連の処理についてフローチャートを用いて説明する。図11は、第1実施形態に係る端末装置400による一連の処理の一例を示すフローチャートである。本フローチャートの処理は、例えば、リモートアプリケーション422が起動されたときに所定周期で繰り返し行われてよい。
まず、制御部410は、通信部402を介して、自車両Mの車両システム2に迎車リクエストを送信する(ステップS200)。
次に、制御部410は、表示部404に特定のコンテンツを表示させる(ステップS202)。例えば、制御部410は、表示部404に特定のコンテンツを表示させる際に、特定のコンテンツを表示させない場合に比して、表示部404の輝度を相対的に上げて、表示部404の画面を明るくする。これによって、表示部404に表示されたコンテンツが、自車両Mによって認識されやすくなる。
次に、制御部410は、リモートアプリケーション422の終了条件を満たしたか否かを判定する(ステップS204)。リモートアプリケーション422の終了条件には、例えば、遠隔地から呼び出した車両Mをユーザが利用することや、遠隔地から呼び出した車両Mが停止エリア310内において停止すること、ユーザがアプリケーションを終了させる操作を入力部406に対して行うこと、などが含まれる。
制御部410は、リモートアプリケーション422の終了条件を満たしていないと判定した場合、通信部402が自車両Mの車両システム2から切替コマンドまたは代替コンテンツを受信したか否かを判定する(ステップS206)。
制御部410は、通信部402が自車両Mの車両システム2から切替コマンドまたは代替コンテンツを受信していない場合、リモートアプリケーション422の終了条件が満たされるまで待機する。
一方、制御部410は、通信部402が自車両Mの車両システム2から切替コマンドまたは代替コンテンツを受信した場合、表示部404に代替コンテンツを表示させる(ステップS208)。
例えば、制御部410は、通信部402によって切替コマンドが受信された場合、記憶部420に格納された複数のコンテンツの中から、切替コマンドによって指定されたコンテンツを選択し、選択したコンテンツを代替コンテンツとして表示部404に表示させる。また、例えば、制御部410は、通信部402によって代替コンテンツが受信された場合、その代替コンテンツを表示部404に表示させる。この際、制御部410は、代替コンテンツを表示させない場合に比して、表示部404の輝度を相対的に上げて、表示部404の画面を明るくしてよい。
一方、制御部410は、S206の処理で、リモートアプリケーション422の終了条件を満たしたと判定した場合、リモートアプリケーション422を終了し(ステップS210)、本フローチャートの処理を終了する。
以上説明した第1実施形態によれば、端末装置400に表示されたコンテンツ(第1コンテンツの一例)を認識する認識部130と、認識部130により認識されたコンテンツと、コンテンツデータ192に含まれる一以上のコンテンツとの比較に基づいて、コンテンツが表示された端末装置400を自車両Mの外部で携える人間が、自車両Mのユーザまたはその関係者であることを識別する識別部182と、を備えるため、車外から車両を遠隔操作しているユーザを精度よく識別することができる。
また、上述した第1実施形態によれば、例えば、識別部182によって乗降エリア320に待機している複数の人々の中から自車両Mのユーザまたはその関係者が識別された場合、自走駐車制御部142は、自車両Mを自車両Mのユーザまたはその関係者に接近させる目標軌道を生成する。これによって、第2制御部160は、停止エリア310内において、自車両Mのユーザまたはその関係者として識別された人間の側に自車両M寄せて停車させるため、ユーザが車両を利用する際の利便性を高めることができる。
<第2実施形態>
以下、第2実施形態について説明する。第1実施形態では、端末装置400に、自車両Mにユーザを識別させるための特定のコンテンツを表示させるものとして説明した。これに対して、第2実施形態では、端末装置400に表示させる特定のコンテンツに、自車両Mの自動運転の態様、すなわちイベントを指定する補助的なコンテンツ(以下、サブコンテンツと称する)が含まれる点で上述した第1実施形態と相違する。以下、第1実施形態との相違点を中心に説明し、第1実施形態と共通する点については説明を省略する。なお、第2実施形態の説明において、第1実施形態と同じ部分については同一符号を付して説明する。
図12は、第2実施形態に係るコンテンツデータ192の一例を示す図である。第2実施形態に係るコンテンツデータ192は、特定のコンテンツに含まれ得るサブコンテンツごとに、自動運転下における自車両Mの走行態様(自動運転の態様)を規定したイベントが対応付けられている。
第2実施形態に係る端末装置400の制御部410は、表示部404に、自車両Mに対応したコンテンツを特定のコンテンツとして表示させるとともに、サブコンテンツを表示させる。
図13は、端末装置400の画面の一例を示す図である。図中CT1は、自車両Mにユーザであることを識別させるための特定のコンテンツを表しており、CT2は、サブコンテンツを表している。例えば、サブコンテンツCT2が、自車両Mのユーザまたはその関係者として識別された人間から、5[m]離れた位置に自車両Mを停止させるというイベントに対応付けられていたとする。このような場合に、認識部130によってサブコンテンツCT2(第1サブコンテンツの一例)が認識されると、行動計画生成部140は、認識部130によって認識されたサブコンテンツCT2と、コンテンツデータ192に含まれる一以上のサブコンテンツ(第2サブコンテンツの一例)のいずれかと、が同じであるか否かを判定する。行動計画生成部140は、コンテンツデータ192の中に、サブコンテンツCT2と同じサブコンテンツが含まれている場合、コンテンツデータ192においてサブコンテンツCT2に対応付けられたイベントに基づいて目標軌道を生成する。これによって、自車両Mは、自車両Mのユーザまたはその関係者を識別すると、そのユーザから5[m]離れた位置に停止する。このように、二種類のコンテンツを端末装置400の画面に同時に表示させることで、自車両Mの車両システム2に、自車両Mのユーザまたはその関係者がどの人間であるのかを識別させることができるとともに、どういった自動運転を行うべきなのかを遠隔から指示することができる。
なお、上述した第2実施形態では、サブコンテンツが自動運転下における自車両Mの走行態様を規定したイベントに対応付けられているものとして説明したがこれに限られない。例えば、サブコンテンツは、自車両Mのエンジンの始動や、ドアの開閉、トランクリッドの開閉、ワイパーの作動、ヘッドライトの点灯といった速度や操舵に関係しない車載機器の動作を規定したイベントに対応付けられていてもよい。例えば、認識部130によって認識されたサブコンテンツが自車両Mのエンジンを始動するというイベントに対応付けられていた場合、第2制御部160は、図示しない点火装置などを制御することで、自車両Mのエンジンを始動させる。この場合、行動計画生成部140および第2制御部160は、「第3制御部」の一例である。
以上説明した第2実施形態によれば、自車両Mのユーザまたはその関係者がどの人間であるのかを識別させるためのコンテンツと、どのような自動運転を行うべきなのか、或いはどの車載機器を制御すべきなのかを指定するためのコンテンツとを端末装置400に表示させるため、自車両Mの車両システム2にユーザを識別させることができ、更に、ユーザが遠隔から自車両Mを制御することができる。
[ハードウェア構成]
図14は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。図示するように、自動運転制御装置100は、通信コントローラ100−1、CPU100−2、ワーキングメモリとして使用されるRAM100−3、ブートプログラムなどを格納するROM100−4、フラッシュメモリやHDDなどの記憶装置100−5、ドライブ装置100−6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100−1は、自動運転制御装置100以外の構成要素との通信を行う。記憶装置100−5には、CPU100−2が実行するプログラム100−5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100−3に展開されて、CPU100−2によって実行される。これによって、第1制御部120、第2制御部160、および第3制御部180のうち一部または全部が実現される。
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶したストレージと、
プロセッサと、を備え、
前記プロセッサが前記プログラムを実行することにより、
端末装置に表示された第1コンテンツを認識し、
前記認識した前記第1コンテンツと、車両に対応付けられた一以上のコンテンツとの比較に基づいて、前記第1コンテンツが表示された前記端末装置を前記車両の外部で携える人間が、前記車両を利用する予定のユーザまたは前記ユーザの関係者であることを識別する、
ように構成されている、車両制御システム。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…ユーザ識別システム、2…車両システム、10…カメラ、12…レーダ装置、14…ファインダ、16…物体認識装置、20…通信装置、30…HMI、40…車両センサ、50…ナビゲーション装置、60…MPU、80…運転操作子、100…自動運転制御装置、120…第1制御部、130…認識部、140…行動計画生成部、142…自走駐車制御部、160…第2制御部、162…取得部、164…速度制御部、166…操舵制御部、180…第3制御部、182…識別部、184…通信制御部、190…記憶部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置、400…端末装置、M…自車両

Claims (10)

  1. 端末装置に表示された第1コンテンツを認識する認識部と、
    前記認識部により認識された前記第1コンテンツと、車両に対応付けられた一以上のコンテンツとの比較に基づいて、前記第1コンテンツが表示された前記端末装置を前記車両の外部で携える人間が、前記車両を利用する予定のユーザまたは前記ユーザの関係者であることを識別する識別部と、
    を備える車両制御システム。
  2. 前記識別部は、前記認識部により認識された前記第1コンテンツが、前記一以上のコンテンツのいずれかと同じ場合、前記人間を前記ユーザまたは前記関係者として識別する、
    請求項1に記載の車両制御システム。
  3. 前記識別部によって前記人間が前記ユーザまたは前記関係者であることが識別された場合、前記車両の操舵および速度を制御して、前記車両を前記ユーザまたは前記関係者の側に停止させる第1制御部を更に備える、
    請求項1または2に記載の車両制御システム。
  4. 前記第1コンテンツには、一以上の色で配色された第1画像が含まれ、
    前記一以上のコンテンツのそれぞれには、一以上の色で配色された第2画像が含まれ、
    前記識別部は、前記第1画像の配色と前記第2画像の配色とが同じ場合、前記人間を前記ユーザまたは前記関係者として識別する、
    請求項1から3のうちいずれか一項に記載の車両制御システム。
  5. 前記第1コンテンツには、第1模様が描かれた第1画像が含まれ、
    前記一以上のコンテンツのそれぞれには、第2模様が描かれた第2画像が含まれ、
    前記識別部は、前記第1模様と前記第2模様とが同じ場合、前記人間を前記ユーザまたは前記関係者として識別する、
    請求項1から4のうちいずれか一項に記載の車両制御システム。
  6. 前記端末装置と通信する通信部と、
    前記通信部を制御して、前記車両のユーザが携える前記端末装置に情報を送信することで、前記端末装置にコンテンツを表示させる第2制御部と、を更に備える、
    請求項1から5のうちいずれか一項に記載の車両制御システム。
  7. 前記識別部は、複数の前記端末装置のそれぞれに前記第1コンテンツが表示されていることが前記認識部によって認識された場合、前記認識部によって認識された複数の前記第1コンテンツのそれぞれと、前記一以上のコンテンツとを比較し、
    前記第2制御部は、前記認識部によって認識された複数の前記第1コンテンツのうち、少なくとも2つ以上の前記第1コンテンツが前記一以上のコンテンツのいずれかと同じである場合、前記通信部を制御して、前記ユーザまたは前記関係者が携える前記端末装置に前記第1コンテンツと異なる第2コンテンツであって、前記一以上のコンテンツのいずれかと同じ前記第2コンテンツを表示させ、
    前記識別部は、前記第2制御部が前記車両のユーザが携える前記端末装置に前記第2コンテンツを表示させた後に、複数の前記端末装置のいずれかの端末装置に前記第2コンテンツが表示されたことが前記認識部によって認識された場合、前記第2コンテンツを表示した端末装置を携える人間を、前記ユーザまたは前記関係者として識別する、
    請求項6に記載の車両制御システム。
  8. 前記第2制御部は、前記端末装置にコンテンツを表示させる際、前記端末装置にコンテンツを表示させない場合に比して、前記端末装置の画面を明るくする、
    請求項6または7に記載の車両制御システム。
  9. 前記第1コンテンツには、前記車両の制御態様に対応付けられた第1サブコンテンツが含まれ、
    前記一以上のコンテンツのそれぞれには、前記車両の制御態様に対応付けられた第2サブコンテンツが含まれ、
    前記第1サブコンテンツと前記第2サブコンテンツとが同じ場合、前記第1サブコンテンツまたは前記第2サブコンテンツに対応付けられた制御態様に基づいて、前記車両を制御する第3制御部を更に備える、
    請求項1から8のうちいずれか一項に記載の車両制御システム。
  10. コンピュータが、
    端末装置に表示された第1コンテンツを認識し、
    前記認識した前記第1コンテンツと、車両に対応付けられた一以上のコンテンツとの比較に基づいて、前記第1コンテンツが表示された前記端末装置を前記車両の外部で携える人間が、前記車両を利用する予定のユーザまたは前記ユーザの関係者であることを識別する、
    車両制御方法。
JP2019041993A 2019-03-07 2019-03-07 車両制御システムおよび車両制御方法 Active JP7079744B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019041993A JP7079744B2 (ja) 2019-03-07 2019-03-07 車両制御システムおよび車両制御方法
US16/804,042 US11475690B2 (en) 2019-03-07 2020-02-28 Vehicle control system and vehicle control method
CN202010133696.0A CN111665835B (zh) 2019-03-07 2020-02-28 车辆控制系统及车辆控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019041993A JP7079744B2 (ja) 2019-03-07 2019-03-07 車両制御システムおよび車両制御方法

Publications (2)

Publication Number Publication Date
JP2020144711A true JP2020144711A (ja) 2020-09-10
JP7079744B2 JP7079744B2 (ja) 2022-06-02

Family

ID=72336396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019041993A Active JP7079744B2 (ja) 2019-03-07 2019-03-07 車両制御システムおよび車両制御方法

Country Status (3)

Country Link
US (1) US11475690B2 (ja)
JP (1) JP7079744B2 (ja)
CN (1) CN111665835B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020119774A1 (de) * 2020-07-27 2022-01-27 Harman Becker Automotive Systems Gmbh System und Verfahren zum Übertragen unterschiedlicher Einstellungen zwischen Fahrzeugen unterschiedlicher Typen
MX2022008716A (es) * 2021-07-20 2023-01-23 Polaris Inc Control de vehiculo automatico.
KR20230023330A (ko) * 2021-08-10 2023-02-17 현대모비스 주식회사 차량의 표시 장치 및 그것의 동작 방법, 차량

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018413A (ja) * 2014-07-09 2016-02-01 富士通テン株式会社 車両用装置、車両制御システム、車両制御方法
JP2017121865A (ja) * 2016-01-07 2017-07-13 トヨタ自動車株式会社 自動運転車両

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5941315B2 (ja) * 2012-03-29 2016-06-29 富士通テン株式会社 車両制御装置、及び、車両制御システム
US20160378303A1 (en) * 2015-06-23 2016-12-29 Todd Crilley Mobile device system for hailing a taxi cab
CA3005147C (en) * 2015-11-20 2022-07-19 Uber Technologies, Inc. Controlling autonomous vehicles in connection with transport services
US20170178269A1 (en) * 2015-12-17 2017-06-22 Counterfy Llc Displayed identifier for a ridesharing service
US10088846B2 (en) * 2016-03-03 2018-10-02 GM Global Technology Operations LLC System and method for intended passenger detection
JP2018018205A (ja) * 2016-07-26 2018-02-01 株式会社デンソーテン 表示手段の画面上の位置を決定する入力システム、検知装置、制御装置、プログラム及び方法
US10210760B2 (en) * 2016-09-21 2019-02-19 Dura Operating, Llc System and method for autonomous parking of a vehicle
JP6691032B2 (ja) * 2016-10-12 2020-04-28 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018413A (ja) * 2014-07-09 2016-02-01 富士通テン株式会社 車両用装置、車両制御システム、車両制御方法
JP2017121865A (ja) * 2016-01-07 2017-07-13 トヨタ自動車株式会社 自動運転車両

Also Published As

Publication number Publication date
US11475690B2 (en) 2022-10-18
JP7079744B2 (ja) 2022-06-02
CN111665835B (zh) 2023-10-27
CN111665835A (zh) 2020-09-15
US20200285846A1 (en) 2020-09-10

Similar Documents

Publication Publication Date Title
KR102309575B1 (ko) 자율 차량들에서의 승객들의 조기 탑승
US20200262453A1 (en) Pick-up management device, pick-up control method, and storage medium
JP6715959B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP7032295B2 (ja) 車両制御システム、車両制御方法、およびプログラム
JP2019152613A (ja) 車両制御システム、車両制御方法、およびプログラム
JP7240218B2 (ja) 車両制御システム、車両制御方法、及びプログラム
US20200361450A1 (en) Vehicle control system, vehicle control method, and storage medium
US20200311623A1 (en) Parking management apparatus, method for controlling parking management apparatus, and storage medium
JP7058236B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US11475690B2 (en) Vehicle control system and vehicle control method
JP2020107212A (ja) 車両制御システム、車両制御方法、及びプログラム
US11027651B2 (en) Vehicle control device, vehicle control system, vehicle control method, and storage medium
US11543820B2 (en) Vehicle control apparatus, vehicle control method, and storage medium
US20200365027A1 (en) Management device, management method, and storage medium
JP7210336B2 (ja) 車両制御システム、車両制御方法、及びプログラム
US20200290599A1 (en) Vehicle control system, vehicle control method, and storage medium
JP2019156266A (ja) 車両制御装置、車両制御方法、及びプログラム
CN111837012A (zh) 车辆控制系统、车辆控制方法、程序及信息处理装置
US20200282978A1 (en) Vehicle control system, vehicle control method, and storage medium
JP7157686B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP7077255B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP7220587B2 (ja) 車両制御システム、車両制御方法、及びプログラム
JP6858110B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US11475767B2 (en) Information-processing device, vehicle control device, information-processing method, and storage medium
JP2020166765A (ja) 管理装置、管理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220523

R150 Certificate of patent or registration of utility model

Ref document number: 7079744

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150