JP6227211B1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP6227211B1
JP6227211B1 JP2017539046A JP2017539046A JP6227211B1 JP 6227211 B1 JP6227211 B1 JP 6227211B1 JP 2017539046 A JP2017539046 A JP 2017539046A JP 2017539046 A JP2017539046 A JP 2017539046A JP 6227211 B1 JP6227211 B1 JP 6227211B1
Authority
JP
Japan
Prior art keywords
image data
facility
vehicle
sensor
priority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017539046A
Other languages
English (en)
Other versions
JPWO2018167891A1 (ja
Inventor
長谷川 雄史
雄史 長谷川
雅浩 虻川
雅浩 虻川
村山 修
修 村山
洋平 三木
洋平 三木
道学 吉田
道学 吉田
健太郎 石川
健太郎 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6227211B1 publication Critical patent/JP6227211B1/ja
Publication of JPWO2018167891A1 publication Critical patent/JPWO2018167891A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0297Fleet control by controlling means in a control room
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/145Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
    • G08G1/146Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is a limited parking space, e.g. parking garage, restricted space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Astronomy & Astrophysics (AREA)
  • Theoretical Computer Science (AREA)

Abstract

第1の画像データ取得部(101)は、自動運転車両が自動走行する施設内の異なる領域が映された複数の画像データを取得する。優先度設定部(102)は、複数の画像データの各々に映されている状況を解析して、各画像データに優先度を設定する。第1の画像データ表示部(103)は、優先度設定部(102)により設定された優先度に従い、複数の画像データを表示する際の表示形態を決定する。

Description

本発明は、自動運転車両の監視に関する。
近年、自動ブレーキやAdaptive Cruise Control等に代表される先進運転支援システム(ADAS:Advanced Driver Assistance System)が販売されている。また自動運転走行技術の研究開発も進んでおり、複数の自動車メーカーが公道による実証実験を実施している。この自動運転走行技術の一つとして自動駐車技術の研究開発も盛んに行われており、複数の自動車メーカーが自動駐車機能を車両に搭載して販売している。
多くの自動駐車機能では、運転手が駐車位置をタッチパネルで選択すると、選択された駐車位置へ駐車するように車両が自動走行する。
ホテル又はレストランではバレット駐車サービスが提供されることがある。バレット駐車では、車両の鍵をホテル入口又はレストラン入口で管理人に渡すと、管理人が運転手の代わりに車両を駐車する。このバレット駐車を自動駐車機能によって実現しようとすると、車両は無人状態で自動走行する必要がある。自動運転技術の進歩により、通常は無人でも自動駐車が可能である。しかし、駐車場が混雑している場合は、安全確保のために、自動運転車両同士がお互いに走行を停止する場合がある。また、駐車場に自動運転車両と手動運転車両との両方が混在する場合は、自動運転車両だけの場合よりも自動駐車が困難になる。
前述のように、駐車場が混雑している場合及び駐車場に自動運転車両と手動運転車両とが混在する場合は、自動駐車が困難になる。このような状況を想定すると、自動運転車両の自動駐車機能を人が補助して、事故が起きないようにする必要がある。
この点につき、特許文献1では、駐車支援システムが開示されている。特許文献1では、駐車しようとする車両の車載カメラの撮影画像が駐車場の管理者へ送信される。管理者は、車載カメラの撮影画像を参照し、擬似ステアリングで運転手の代わりに車両を運転し、車両を駐車する。
特許文献1の技術により、駐車場の管理者は離れた場所にいても、運転手の代わりに車両を運転可能である。
また、特許文献2では、スマートフォンを用いて自動運転車両を停止する技術が開示されている。特許文献2では、運転手のスマートフォンに自動運転車両の位置と自動運転車両周囲の人や障害物を表す運転状況通知画像を提示する。そして、運転手が自動運転車両を停止する必要があると判断した場合に、運転手は停止ボタンを操作して、自動運転車両を停止する。
特許文献2の技術により、運転手は自動駐車中の自動運転車両の運転状況を確認して、危険な場合には停止ボタンを操作して、自動運転車両を停止させることができる。
特開2012−126193号公報 特開2016−99953号公報
特許文献1及び2の技術では、一台の自動運転車両につき、1人の管理者が運転支援する必要がある。このため、特許文献1の技術及び特許文献2の技術では、駐車場等の施設において、自動運転車両の台数が多くなると、管理者の支援が不十分になり、駐車場等の施設において自動駐車中の自動運転車両による事故が発生する可能性が高くなるという課題がある。
本発明は、このような課題を解決することを主な目的とする。より具体的には、本発明は、施設における自動運転車両による事故を有効に防止する構成を得ることを主な目的とする。
本発明に係る情報処理装置は、
自動運転車両が自動走行する施設内の異なる領域が映された複数の画像データを取得する画像データ取得部と、
前記複数の画像データの各々に映されている状況を解析して、各画像データに優先度を設定する優先度設定部と、
前記優先度設定部により設定された優先度に従い、前記複数の画像データを表示する際の表示形態を決定する表示制御部とを有する。
本発明によれば、1人の管理者が複数の自動運転車両の運転支援を行うことができ、施設における自動運転車両による事故を有効に防止することができる。
実施の形態1に係る駐車場管理システムの構成例を示す図。 実施の形態1に係る駐車場管理システムのハードウェア構成例を示す図。 実施の形態1に係る監視装置の機能構成例を示す図。 実施の形態1に係る施設センサ画像データの例を示す図。 実施の形態1に係る駐車場の鳥瞰画像図の例を示す図。 実施の形態1に係る施設センサ画像データの表示例を示す図。 実施の形態1に係る施設センサ画像データの表示例を示す図。 実施の形態1に係る監視装置の別の機能構成例を示す図。 実施の形態1に係る駐車場の鳥瞰画像図の生成手順を示す図。 実施の形態1に係る駐車場の鳥瞰画像図の生成手順を示す図。 実施の形態1に係る駐車場の鳥瞰画像図の生成手順を示す図。 実施の形態1に係る駐車場の強調表示を含む鳥瞰画像図の例を示す図。 実施の形態1に係る表示操作デバイスの表示例を示す図。 実施の形態1に係る全停止ボタンの例を示す図。 実施の形態1に係る監視装置の動作例を示すフローチャート。 実施の形態1に係る監視装置の動作例を示すフローチャート。 実施の形態2に係る駐車場管理システムのハードウェア構成例を示す図。 実施の形態2に係る監視装置の機能構成例を示す図。 実施の形態2に係る車両センサ画像データの例を示す図。 実施の形態2に係る駐車場の鳥瞰画像図の例を示す図。 実施の形態2に係る車両センサ画像データと施設センサ画像データの例を示す。 実施の形態2に係る車両センサ画像データの表示例を示す図。 実施の形態2に係る車両センサ画像データの表示例を示す図。 実施の形態2に係る車両センサ画像データと施設センサ画像データの表示例を示す図。 実施の形態2に係る監視装置の動作例を示すフローチャート。
以下、本発明の実施の形態について、図を用いて説明する。以下の実施の形態の説明及び図面において、同一の符号を付したものは、同一の部分または相当する部分を示す。
実施の形態1.
***構成の説明***
本実施の形態では、自動運転車両が自動走行する施設を管理するシステムを説明する。自動運転車両が自動走行する施設には、例えば、駐車場施設、倉庫、工場等が含まれる。
以下では、駐車場施設を管理する駐車管理システムを説明する。
図1は、本実施の形態に係る駐車場管理システムの構成例を示す。
駐車場施設20には、駐車場200が含まれる。
駐車場200では、1台以上の自動走行車両が自動走行し、また、自動駐車を行う。
駐車場施設20には、施設センサデバイス21が設置されている。施設センサデバイス21は、駐車場200を監視する。施設センサデバイス21は、例えば、カメラセンサ(監視カメラ)、赤外線センサ、光レーダセンサ等である。図1では、1台の施設センサデバイス21のみが図示されているが、駐車場施設20には複数台の施設センサデバイス21が設置されている。各施設センサデバイス21は、駐車場200内の異なる領域を監視する。各施設センサデバイス21は、監視により得られた画像データ(以下、施設センサ画像データという)を後述する駐車場管理室30の監視装置31に送信する。
駐車場管理室30は、駐車場施設20を管理するための部屋である。本実施の形態では、駐車場管理室30は、駐車場施設20から離れた場所にある。但し、駐車場管理室30は駐車場施設20に近接した場所にあってもよい。
駐車場管理室30において、監視装置31は、複数の施設センサデバイス21から送信された複数の施設センサ画像データを受信し、受信した複数の施設センサ画像データに優先度を設定する。監視装置31は、優先度に基づいて複数の施設センサ画像データを表示する際の表示形態を決定する。そして、監視装置31は、決定した表示形態にて複数の施設センサ画像データを表示する。また、監視装置31は、管理者300からの制御指示を駐車場200内の自動走行車両に送信する。
管理者300は、監視装置31を利用する。より具体的には、監視装置31により表示された複数の施設センサ画像データを閲覧して、駐車場200での自動走行車両の状況、歩行者の状況等を把握し、必要であれば、監視装置31に制御指示を入力する。
乗車位置40は、運転手400が自動運転車両41から降車する場所である。運転手400は、乗車位置40で自動運転車両41を停止して、自動運転車両41から降車する。運転手400が自動運転車両41から降車すると、自動運転車両の運転権限が管理者300へ委譲される。運転手400は、降車のほか、自動運転車両41に搭載されているカーナビゲーションのタッチパネル又は運転手400が所有するモバイル端末を用いて明示的に運転権限の委譲を指示してもよい。
自動運転車両41は、運転手400から管理者300に運転権限が委譲された後、駐車場施設20へ自動走行する。自動運転車両の走行状況は施設センサデバイス21によって感知され、施設センサデバイス21により施設センサ画像データが監視装置31に送信される。前述したように、管理者300が施設センサ画像データを閲覧して、自動運転車両41の走行状況を監視する。自動運転車両41の走行によって、他車両との衝突、歩行者との衝突等の危険が生じる可能性がある場合には、管理者300は自動運転車両41の走行停止を監視装置31に指示する。管理者300の走行停止指示により、監視装置31から自動運転車両41へ走行の停止を指示する車両制御情報が送信され、自動運転車両41は走行を停止する。
ここでは、自動運転車両41の走行停止を説明したが、駐車場200内が混雑して、自動走行が困難となって自動運転車両41が停止した場合は、管理者300が自動運転車両41の周辺の安全性を確認し、監視装置31を介して走行開始を指示する車両制御情報を送信してもよい。
図2は、駐車場管理システムのハードウェア構成例を示す。
駐車場施設20には、施設センサデバイス21と無線通信デバイス22との組が配置される。図2では、1組の施設センサデバイス21と無線通信デバイス22が示されるが、駐車場施設20には複数組の施設センサデバイス21と無線通信デバイス22が配置されているものとする。
駐車場管理室30には、監視装置31と表示操作デバイス32が配置されている。
監視装置31は、センサインタフェース12、プロセッサ13、RAM(Random Access Memory)14、ROM(Read Only Memory)15、表示操作インタフェース16、無線通信インタフェース17で構成される。監視装置31は、コンピュータである。監視装置31は、一般的なパーソナルコンピュータを用いて実現してもよい。また、監視装置31は、組込機器、FPGA(Field−Programmable Gate Array)ボード等で実現されてもよい。
監視装置31は、情報処理装置に相当する。また、監視装置31により行われる動作は、情報処理方法及び情報処理プログラムに相当する。
駐車場施設20に設置された複数の施設センサデバイス21の各々は、監視装置31と接続されている。複数の施設センサデバイス21と監視装置31は、例えばインターネットで接続される。複数の施設センサデバイス21と監視装置31がインターネットで接続されることにより、監視装置31が駐車場施設20から離れた場所にあっても、複数の施設センサデバイス21と監視装置31は通信可能である。
各施設センサデバイス21で得られた施設センサ画像データは監視装置31に送信される。監視装置31では、センサインタフェース12が各施設センサデバイス21から送信された施設センサ画像データを受信する。受信された施設センサ画像データは、RAM14に一時的に保存される。次に、プロセッサ13が、施設センサ画像データの優先度を算出する。優先度が高い施設センサ画像データは、表示操作インタフェース16を介して接続した表示操作デバイス32に優先的に表示される。
表示操作デバイス32は、例えば表示ディスプレイ付きのタッチパネルである。
管理者300が表示操作デバイス32に入力した自動運転車両41への指示は、表示操作インタフェース16で受信される。プロセッサ13が、管理者300からの指示に従って車両制御情報を生成する。生成された車両制御情報は無線通信インタフェース17から駐車場施設20に設置された無線通信デバイス22に送信される。
無線通信デバイス22は、監視装置31から送信された車両制御情報を受信し、受信した車両制御情報を配信する。
自動運転車両41は、無線通信デバイス42を搭載している。
無線通信デバイス42は、無線通信デバイス22から配信された車両制御情報を受信する。
通常は、自動運転車両41は、自動駐車機能によって走行する。しかし、自動運転車両41は、無線通信デバイス42が車両制御情報を受信した際は、車両制御情報の指示を優先して走行停止や走行開始を行う。
図3は、監視装置31の機能構成例を示す。
監視装置31は、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104及び移動制御部105を有する。
第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104及び移動制御部105は、プログラムにより実現される。第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104及び移動制御部105を実現するプログラムはROM15に格納されている。当該プログラムはROM15からRAM14にロードされる。そして、当該プログラムはプロセッサ13により読み出され、プロセッサ13により実行される。
図3は、プロセッサ13が第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104及び移動制御部105の機能を実現するプログラムを実行している状態を模式的に表している。
第1の画像データ取得部101は、センサインタフェース12を介して、複数の無線通信デバイス22から送信された複数の施設センサ画像データを取得する。
図4は、施設センサデバイス21がカメラセンサである場合の施設センサ画像データの例を示す。
画像データA、画像データB、画像データC及び画像データDは、それぞれ、異なる位置に配置された施設センサデバイス21により撮影された施設センサ画像データである。画像データA、画像データB、画像データC及び画像データDは、駐車場施設20の異なる領域の状況を表す。
また、施設センサデバイス21として、赤外線センサ又は光レーザセンサを使用することができる。赤外線センサは、温度変化を計測可能である。このため、施設センサデバイス21として赤外線センサを用いる場合は、施設センサデバイス21は、駐車場200内の歩行者を検知することができる。光レーザセンサは、投射光が物体に反射して到達するまでの時間から距離情報を算出する。レーザ光を様々な角度へ投射することで、光レーザセンサは、駐車場施設20の3次元形状を計測する。
第1の画像データ取得部101は、このように、駐車場200内の自動運転車両41の位置や外観、歩行者の有無、駐車場施設20の3次元形状等の情報を取得することができる。
第1の画像データ取得部101は、画像データ取得部に相当する。また、第1の画像データ取得部101により行われる処理は、画像データ取得処理に相当する。
優先度設定部102は、第1の画像データ取得部101により取得された複数の施設センサ画像データの各々に優先度を設定する。この優先度は、管理者300に施設センサ画像データを表示するための優先度である。
優先度が高い施設センサ画像データほど、視認性の高い表示形態で表示される。
優先度設定部102は、危険度をもとに優先度を算出する。優先度設定部102は、各施設センサ画像データに映されている状況を解析して、各施設センサ画像データに映されている領域の危険度を推定する。優先度設定部102は、例えば、車両同士の距離と混雑度、歩行者の有無、手動運転車両の有無のうちのいずれか又はこれらのうちのいずれかの組み合わせにより危険度を推定する。そして、優先度設定部102は、推定した危険度に基づき各施設センサ画像データに優先度を設定する。優先度設定部102は、危険度の高い施設センサ画像データほど高い優先度を設定する。
優先度設定部102により行われる処理は、優先度設定処理に相当する。
図5は、駐車場200の鳥瞰画像図の一例を示す。つまり、図5は、駐車場200の全体を上方から撮影した場合に得られる画像データである。図5の枠線(駐車場200の白枠)内にある車両は駐車中の車両であり、停止状態にある。図5の枠線外にある車両A、車両B及び車両Cは自動駐車のための自動走行中の車両であり、移動状態にある。
優先度設定部102は、自動走行中の車両が映されている施設センサ画像データの危険度を、停止中の車両が映されている施設センサ画像データの危険度よりも高く設定する。
また、優先度設定部102は、他の車両との距離が近い車両が映されている施設センサ画像データほど危険度を高く設定する。
優先度設定部102は、第1の画像データ取得部101が取得した車両の位置情報を使用して、車両同士の距離を算出する。なお、優先度設定部102は、車両間の直線距離を算出するのではなく、駐車場内での移動距離(道のり)を算出する。図5の車両Aと車両Bの直線距離と、車両Aと車両Cの直線距離はほぼ等しいが、車両Aと車両Cの間には枠線(白枠)(駐車スペース)が存在するため、車両Aの位置から車両Cの位置までの移動距離は車両Aの位置から車両Bの位置までの移動距離よりも長くなる。従って、車両Aが映されている施設センサ画像データの危険度及び車両Bが映されている施設センサ画像データの危険度は、車両Cが映されている施設センサ画像データの危険度よりも高くなる。なお、優先度設定部102は、後述する鳥瞰画像図生成部106により生成された鳥瞰画像図を解析して、車両間の距離を算出する。
また、優先度設定部102は、車両の混雑度が高い施設センサ画像データほど危険度を高く設定する。
優先度設定部102は、鳥瞰画像図を解析して駐車場200内の一定の面積において車両が占める割合を算出して、車両の混雑度を判定する。
また、優先度設定部102は、歩行者が映っている施設センサ画像データほど危険度を高く設定する。つまり、優先度設定部102は、施設センサ画像データを解析して歩行者を検出する。そして、優先度設定部102は、施設センサ画像データに映っている歩行者の数が多い施設センサ画像データほど危険度を高くする。
また、優先度設定部102は、手動運転車両が映っている施設センサ画像データの危険度を、手動運転車両が映っていない施設センサ画像データの危険度よりも高く設定する。
後述する移動制御部105によって、制御不能な車両は手動運転車両と判定される。優先度設定部102は、施設センサ画像データに映っている車両のナンバープレートに基づいて施設センサ画像データに車道運転車両が映っているか否かを判定する。
また、優先度設定部102は、車道において走行を停止している自動運転車両が映っている施設センサ画像データの危険度を、走行を停止している自動運転車両が映っていない施設センサ画像データよりも危険度よりも高く設定する。
自動運転車両は、近くに車両が所在している場合は安全を考慮して走行を停止する。このため、優先度設定部102は、車道において走行を停止している自動運転車両が映っている施設センサ画像データの危険度を高く設定する。
また、優先度設定部102は、自動運転車両に自動走行時の難易度を算出させてもよい。そして、優先度設定部102は、難易度情報を第1の画像データ取得部101を介して取得し、難易度が高い車両が映っている施設センサ画像データの危険度を高くしてもよい。
以上の手順にて、優先度設定部102は、複数の施設センサデバイス21で得られた施設センサ画像データの各々に優先度を算出する。
第1の画像データ表示部103は、優先度設定部102により設定された優先度に従い、複数の施設センサ画像データを表示する際の表示形態を決定する。そして、第1の画像データ表示部103は、表示操作インタフェース16を介して、決定した表示形態で複数の施設センサ画像データを表示操作デバイス32に表示する。
第1の画像データ表示部103は、表示制御部に相当する。また、第1の画像データ表示部103により行われる処理は、表示制御処理に相当する。
図6は、施設センサ画像データの表示例を示す。
図6は、表示操作デバイス32に、優先度の順に施設センサ画像データを並べて表示する例を示す。図6の例では、画面の左上の領域に最も優先度の高い施設センサ画像データが表示される。また、画面の右上の領域に2番目に優先度が高い施設センサ画像データが表示される。また、画面の左下の領域に3番目に優先度が高い施設センサ画像データが表示される。また、画面の右下の領域に最も優先度の低い施設センサ画像データが表示される。
また、監視装置31がn(n≧3)個の施設センサデバイス21により得られたn個の施設センサ画像データを受信している場合に、第1の画像データ表示部103は、優先度に基づき、m(2≦m<n)個の施設センサ画像データを選択し、m個の施設センサ画像データのみを表示操作デバイス32に表示させるようにしてもよい。
また、図6では4つの施設センサ画像データを同じサイズで表示しているが、優先度に応じて、施設センサ画像データの表示サイズを変更してもよい。
図7は、優先度に応じて施設センサ画像データの表示サイズを変化させている例を示す。
図7の例では、優先度が高い施設センサ画像データほど表示サイズが大きい。
また、第1の画像データ表示部103は、図5に例示した駐車場200の鳥瞰画像図を表示してもよい。第1の画像データ表示部103が駐車場200の鳥瞰画像図を表示する場合は、図8に示すように、図3の機能構成例に鳥瞰画像図生成部106が追加される。
鳥瞰画像図生成部106は、複数の施設センサデバイス21で得られた複数の施設センサ画像データから鳥瞰画像図を生成する。
鳥瞰画像図生成部106も、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104及び移動制御部105と同様にプログラムで実現される。
なお、図8に示す機能構成では、第1の画像データ表示部103及び鳥瞰画像図生成部106が表示制御部に相当する。
図9、図10及び図11に鳥瞰画像図生成部106による鳥瞰画像図の生成手順を示す。
図9の画像データA、画像データB、画像データC及び画像データDは、それぞれ、図4に示した画像データA、画像データB、画像データC及び画像データDと同じである。カメラセンサの設置位置と設置方向が既知であれば、鳥瞰画像図生成部106は、施設センサ画像データをアフィン変換(画像データの拡大縮小、回転及び平行移動)する。具体的には、鳥瞰画像図生成部106はアフィン変換により、画像データA、画像データB、画像データC及び画像データDを、図10に示すように、駐車場200を真上から見た画像データである画像データA’、画像データB’、画像データC’及び画像データD’に変換することができる。また、カメラセンサの設置方向が既知でない場合は、鳥瞰画像図生成部106が、駐車場200の枠線(白枠)の形状を参照して、画像変換を行ってもよい。また、カメラセンサの設置位置が既知でない場合は、鳥瞰画像図生成部106は、駐車場200の路面に印字された番号情報等を施設センサ画像データから認識し、カメラセンサの設置位置を推定してもよい。
次に、鳥瞰画像図生成部106は、アフィン変換により得られた画像データA’、画像データB’、画像データC’及び画像データD’を合成して、図11に示すように、駐車場200の全体の鳥瞰画像図を生成する。
鳥瞰画像図生成部106は、隣接するカメラセンサの施設センサ画像データの一部が相互に重なり合うようにして施設センサ画像データを合成する。このため、鳥瞰画像図生成部106は、カメラセンサのズーム機能を調整してもよい。より具体的には、鳥瞰画像図生成部106は、カメラセンサのズーム機能を調整して、カメラセンサの撮影領域を拡大又は縮小し、施設センサ画像データの一部が相互に重なり合うように制御する。
以上より、鳥瞰画像図生成部106は、複数台のカメラセンサの複数の施設センサ画像データを合成して駐車場200の全体の鳥瞰画像図を生成することができる。
そして、第1の画像データ表示部103は、鳥瞰画像図を、管理者300に提示することができる。
また、第1の画像データ表示部103は、図12に示すように、優先度設定部102により設定された優先度が規定の条件に合致する施設センサ画像データが反映されている鳥瞰画像図の部分を強調表示するようにしてもよい。
つまり、第1の画像データ表示部103は、閾値以上の優先度が設定されている施設センサ画像データが反映されている部分を強調表示してもよい。図12では、歩行者が映っている施設センサ画像データの優先度が閾値以上であるため、鳥瞰画像図内で歩行者が映っている部分が円で囲まれて強調表示されている。同様に、図12では、車両Aと車両Bの距離が短いため、車両Aが映っている施設センサ画像データの優先度と車両Bが映っている施設センサ画像データの優先度が閾値以上であり、このため、鳥瞰画像図内で車両Aと車両Bとが映っている部分が円で囲まれて強調表示されている。
図12に示すように、第1の画像データ表示部103は優先度が高い部分を強調表示することで、管理者300が危険を認識しやすくなる。
制御指示部104は、管理者300が例えば表示操作デバイス32に入力した自動運転車両41への指示に基づき、コマンドを生成する。そして、制御指示部104は、生成したコマンドを移動制御部105に出力する。
制御指示部104が生成するコマンドは、全自動運転車両41の停止を指示する全停止コマンド、特定の自動運転車両41の停止を指示する停止コマンド及び特定の自動運転車両41の移動を指示する移動コマンドのいずれかである。
本実施の形態では、例えば図13に示す表示操作デバイス32が用いられる。図13の表示操作デバイス32は表示ディスプレイ付きタッチパネルである。
図13の表示操作デバイス32の表示画面には、鳥瞰画像図生成部106が生成した駐車場200の全体の鳥瞰画像図が表示されている。表示画面の右側には全停止ボタン、停止ボタン及び移動ボタンが表示されている。これら全停止ボタン、停止ボタン及び移動ボタンは第1の画像データ表示部103により表示される。
管理者300が駐車場200を走行している全ての自動運転車両41の走行を停止する場合は、管理者300は表示画面の全停止ボタンをタッチする。全停止ボタンのタッチにより制御指示部104に駐車場200を走行している全ての自動運転車両41の走行を停止させる旨の指示が通知される。この結果、管理者300は、全ての自動運転車両41の走行を停止させることができる。
管理者300が特定の自動運転車両41の走行を停止する場合は、管理者300は、初めに表示画面の停止ボタンをタッチする。次に、管理者300は、停止させる自動運転車両41を鳥瞰画像図上でタッチする。これらの操作により、制御指示部104に特定の自動運転車両41の走行を停止させる旨の指示が通知される。この結果、管理者300は特定の自動運転車両41の走行の停止させることができる。
また、管理者300が特定の自動運転車両41を特定の場所へ移動させる場合は、管理者300は、初めに表示画面の移動ボタンをタッチする。次に、管理者300は、移動させる自動運転車両41を鳥瞰画像図上でタッチし、自動運転車両41をタッチした状態で任意の移動先まで指を移動させる。指の移動軌跡が当該自動運転車両41の走行経路となる。これらの操作により、制御指示部104に特定の自動運転車両41を特定の場所に移動させる旨の指示が通知される。この結果、管理者300は特定の自動運転車両41を特定の場所に移動させることができる。
なお、指を用いた走行経路の指示は指示精度が低いため、指がタッチパネル上で駐車場200の走行路面から外れた場合には、制御指示部104が、走行経路が走行路面内にとどまるように走行経路を修正する。
また、図14に示すように、表示操作デバイス32に全停止ボタン33が接続されていてもよい。管理者300が全停止ボタン33を押すと、制御指示部104に駐車場200を走行している全ての自動運転車両41の走行を停止させる旨の指示が通知される。この結果、管理者300は、全ての自動運転車両41の走行を停止させることができる。
なお、図14に示すように表示操作デバイス32に全停止ボタン33が接続されている場合も、特定の自動運転車両41の停止及び特定の自動運転車両41の移動は、図13に示した停止ボタン及び移動ボタンを用いて行われる。
制御指示部104は、管理者300からの指示が特定の自動運転車両41の停止指示であれば、表示操作インタフェース16を介して、当該自動運転車両41の現在位置の地理座標を表示操作デバイス32から取得する。次に、制御指示部104は、表示操作デバイス32から取得した当該自動運転車両41の現在位置の地理座標の近傍に配置されている無線通信デバイス22を特定する。そして、制御指示部104は、特定した無線通信デバイス22の識別子と停止コマンドとを移動制御部105に出力する。ROM15には、各無線通信デバイス22の識別子と各無線通信デバイス22の配置位置の地理座標とが示される無線通信デバイス座標情報が記憶されている。制御指示部104は、無線通信デバイス座標情報を用いて、自動運転車両41の現在位置の近傍に配置されている無線通信デバイス22を特定する。
また、制御指示部104は、管理者300からの指示が特定の自動運転車両41の移動指示であれば、表示操作インタフェース16を介して、当該自動運転車両41の現在位置の地理座標と、当該自動運転車両41の移動先の地理座標と、当該自動運転車両41の現在位置と移動先との間の1つ以上の中間地点の地理座標を表示操作デバイス32から取得する。次に、制御指示部104は、表示操作デバイス32から取得した当該自動運転車両41の現在位置の地理座標の近傍に配置されている無線通信デバイス22を特定する。そして、制御指示部104は、特定した無線通信デバイス22の識別子と、移動先の地理座標と、中間地点の地理座標と、移動コマンドとを移動制御部105に出力する。
また、制御指示部104は、管理者300からの指示が全自動運転車両41の停止指示であれば、駐車場200に配置されている全ての無線通信デバイス22の識別子を抽出する。そして、制御指示部104は、全ての無線通信デバイス22の識別子と、全停止コマンドとを移動制御部105に出力する。
移動制御部105は、制御指示部104により出力されたコマンドが含まれる車両制御情報を自動運転車両41に送信する。
具体的には、移動制御部105は、制御指示部104から停止コマンドと無線通信デバイス22の識別子が出力された場合は、停止コマンドが含まれる車両制御情報を、制御指示部104から出力された識別子に対応する無線通信デバイス22に送信する。
また、移動制御部105は、制御指示部104から移動コマンドと、無線通信デバイス22の識別子と、移動先の地理座標と、中間地点の地理座標とが出力された場合は、移動コマンドと移動先の地理座標と中間地点の地理座標とが含まれる車両制御情報を、制御指示部104から出力された識別子に対応する無線通信デバイス22に送信する。
また、移動制御部105は、全停止コマンドと全ての無線通信デバイス22の識別子が出力された場合は、全停止コマンドが含まれる車両制御情報を、全ての無線通信デバイス22に送信する。
車両制御情報を受信した無線通信デバイス22は、車両制御情報を周囲に配信する。
車両制御情報の送信先の自動運転車両41の無線通信デバイス42は、車両制御情報を配信する無線通信デバイス22の近傍に所在するため、車両制御情報を受信することができる。
***動作の説明***
次に、本実施の形態に係る監視装置31の動作例を説明する。
図15は、施設センサ画像データの取得から施設センサ画像データの表示までの監視装置31の手順を示すフローチャートである。
ステップS11において、第1の画像データ取得部101が、施設センサデバイス21で得られた施設センサ画像データを取得する。
次に、ステップS12において、優先度設定部102が、ステップS11で取得された施設センサ画像データの優先度を算出する。前述したように、優先度設定部102は、車両の混雑度、歩行者の有無、走行停止中の自動運転車両41の有無等に基づき危険度を算出し、危険度に基づき優先度を設定する。
次に、ステップS13では、第1の画像データ表示部103が、ステップS12で設定された優先度に従い、表示操作デバイス32に施設センサ画像データを表示する際の表示形態を決定し、決定した表示形態で表示画面を生成する。そして、第1の画像データ表示部103は、表示操作インタフェース16を介して、生成した表示画面を表示操作デバイス32に出力する。
つまり、図6のように施設センサ画像データを表示する場合は、第1の画像データ表示部103は、左上の領域に最も優先度の高い施設センサ画像データAを表示し、右上の領域に2番目に優先度が高い施設センサ画像データBを表示するというように、優先度に従った表示形態を決定する。
また、図7のように施設センサ画像データを表示する場合は、第1の画像データ表示部103は、最も優先度の高い画像データAを最も大きく表示し、2番目に優先度が高い画像データBを画像データAよりも小さいサイズで画像データAの右に表示するというように、優先度に従った表示形態を決定する。
ステップS14では、第1の画像データ表示部103が、施設センサ画像データの表示を継続するか否かを判定する。施設センサ画像データの表示を継続する場合は、ステップS11〜S13の処理が繰り返し行われる。
以上より、監視装置31は、駐車場施設20に設置された複数の施設センサデバイス21で得られた複数の施設センサ画像データに優先度を設定し、優先度に応じて複数の施設センサ画像データを管理者300が視認しやすい表示形態で表示する。
図16は、管理者300からの指示の取得から車両制御情報の送信までの監視装置31の手順を示すフローチャートである。
ステップS21では、制御指示部104が、管理者300からの指示が入力されるのを待つ。
表示操作デバイス32及び表示操作インタフェース16を介して管理者300から指示が入力された場合(ステップS22でYES)に、制御指示部104は、ステップS23で、コマンドを生成する。
前述したように、管理者300からの指示が特定の自動運転車両41の停止指示であれば、制御指示部104は、停止コマンドを生成する。管理者300からの指示が特定の自動運転車両41の移動指示であれば、制御指示部104は、移動コマンドを生成する。管理者300からの指示が全自動運転車両41の停止指示であれば、制御指示部104は、全停止コマンドを生成する。
また、前述したように、制御指示部104は、管理者300からの指示が特定の自動運転車両41の停止指示であれば、表示操作インタフェース16を介して、当該自動運転車両41の現在位置の地理座標を表示操作デバイス32から取得する。次に、制御指示部104は、表示操作デバイス32から取得した当該自動運転車両41の現在位置の地理座標の近傍に配置されている無線通信デバイス22を特定する。そして、制御指示部104は、特定した無線通信デバイス22の識別子と停止コマンドとを移動制御部105に出力する。
また、制御指示部104は、管理者300からの指示が特定の自動運転車両41の移動指示であれば、表示操作インタフェース16を介して、当該自動運転車両41の現在位置の地理座標と、当該自動運転車両41の移動先の地理座標と、当該自動運転車両41の現在位置と移動先との間の1つ以上の中間地点の地理座標を表示操作デバイス32から取得する。次に、制御指示部104は、表示操作デバイス32から取得した当該自動運転車両41の現在位置の地理座標の近傍に配置されている無線通信デバイス22を特定する。そして、制御指示部104は、特定した無線通信デバイス22の識別子と、移動先の地理座標と、中間地点の地理座標と、移動コマンドとを移動制御部105に出力する。
また、制御指示部104は、管理者300からの指示が全自動運転車両41の停止指示であれば、駐車場200に配置されている全ての無線通信デバイス22の識別子を抽出する。そして、制御指示部104は、全ての無線通信デバイス22の識別子と、全停止コマンドとを移動制御部105に出力する。
次に、ステップS24において、移動制御部105が、制御指示部104により出力されたコマンドが含まれる車両制御情報を無線通信デバイス22に送信する。
具体的には、移動制御部105は、制御指示部104から停止コマンドと無線通信デバイス22の識別子が出力された場合は、停止コマンドが含まれる車両制御情報を、制御指示部104から出力された識別子に対応する無線通信デバイス22に送信する。
また、移動制御部105は、制御指示部104から移動コマンドと、無線通信デバイス22の識別子と、移動先の地理座標と、中間地点の地理座標とが出力された場合は、移動コマンドと移動先の地理座標と中間地点の地理座標とが含まれる車両制御情報を、制御指示部104から出力された識別子に対応する無線通信デバイス22に送信する。
また、移動制御部105は、全停止コマンドと全ての無線通信デバイス22の識別子が出力された場合は、全停止コマンドが含まれる車両制御情報を、全ての無線通信デバイス22に送信する。
ステップS25では、制御指示部104が、自動運転車両41の制御を継続するか否かを判定する。自動運転車両41の制御を継続する場合は、ステップS21〜S24の処理が繰り返し行われる。
以上のように、監視装置31は、管理者300の指示に従って、自動運転車両41の走行制御を行う。
***実施の形態の効果の説明***
本実施の形態では、監視装置31は、駐車場施設20に設置された複数の施設センサデバイス21で得られた複数の施設センサ画像データに優先度を設定し、優先度に応じて複数の施設センサ画像データを管理者300が視認しやすい表示形態で表示する。このため、本実施の形態によれば、管理者300は、優先度の高い施設センサ画像データに着目して自動運転車両41の走行状況を監視することができる。従って、本実施の形態では、1人の管理者300が複数の自動運転車両41の運転支援を行うことができ、駐車場施設20における自動運転車両による事故を有効に防止することができる。
実施の形態2.
実施の形態2に係る監視装置31は、駐車場施設20に設置した施設センサデバイス21だけでなく、自動運転車両41に搭載したセンサデバイスで得られた画像データを使用する。このようにすることで、管理者300がより効率的に自動運転車両41の運転支援を行うことができる。
本実施の形態では、主に実施の形態1との差異を説明する。
なお、以下で説明していない事項は、実施の形態1と同様である。
***構成の説明***
本実施の形態でも、駐車場管理システムの全体構成は図1に示す通りである。
図17は、本実施の形態に係る駐車場管理システムのハードウェア構成例を示す。
図17では、図2のハードウェア構成と比較して、自動運転車両41に車両センサデバイス43が搭載されている。車両センサデバイス43は、カメラセンサ、赤外線センサ、光レーザセンサ、ミリ波レーダセンサ、超音波センサ等である。
車両センサデバイス43で得られた画像データ(以下、車両センサ画像データという)は、無線通信デバイス42により、無線通信デバイス22に送信される。
無線通信デバイス22は、車両センサ画像データを監視装置31に送信する。
監視装置31では、センサインタフェース12が車両センサ画像データを受信する。
図17において、車両センサデバイス43以外の構成要素は、図2に示したものと同じであるため、説明を省略する。
図18は、本実施の形態に係る監視装置31の機能構成例を示す。
図18では、図3の機能構成例と比較して、第2の画像データ取得部201と第2の画像データ表示部202が追加されている。
第2の画像データ取得部201及び第2の画像データ表示部202は、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104及び移動制御部105と同様にプログラムにより実現される。
第2の画像データ取得部201は、センサインタフェース12を介して、複数の車両センサデバイス43から送信された複数の車両センサ画像データを取得する。
図19は、車両センサデバイス43がカメラセンサである場合の車両センサ画像データの例を示す。画像データP、画像データQ、画像データR及び画像データSは、異なる自動運転車両41に配置された車両センサデバイス43により撮影された撮影画像である。
画像データPでは、画像データPを撮影した車両センサデバイス43を搭載した自動運転車両41の左右に駐車車両が存在している。画像データQでは、画像データPを撮影した車両センサデバイス43を搭載した自動運転車両41の前方に歩行者が歩行している。画像データRでは、画像データRを撮影した車両センサデバイス43を搭載した自動運転車両41の前方に走行中の他車両が存在している。画像データSでは、画像データSを撮影した車両センサデバイス43を搭載した自動運転車両41の周囲に他車両や歩行者が存在しない。
また、車両センサデバイス43として、赤外線センサ、光レーザセンサ、ミリ波レーダセンサ、超音波センサ等を使用することができる。赤外線センサ、光レーザセンサは実施の形態1で説明した通りであり、歩行者の有無や駐車場施設20の3次元形状を計測することができる。ミリ波レーダセンサは、ミリ波帯域の電波を使用することで、霧の中や降雨又は降雪時であっても車両や歩行者などの障害物を検出することができる。超音波センサは、他センサと比べて安価であり、近距離にある障害物を検出することができる。第2の画像データ取得部201は、このように、自動運転車両41の周辺にある障害物(歩行者又は他車両)、自動運転車両41の周辺の駐車場200内の状況、自動運転車両41の周辺の3次元形状等を取得することができる。
なお、本実施の形態では、第1の画像データ取得部101及び第2の画像データ取得部201が、画像データ取得部に相当する。また、第1の画像データ取得部101及び第2の画像データ取得部201により行われる処理が、画像データ取得処理に相当する。
本実施の形態に係る優先度設定部102は、第2の画像データ取得部201により取得された複数の車両センサ画像データの各々に優先度を設定する。この優先度は、管理者300に車両センサ画像データを表示するための優先度である。優先度が高い車両センサ画像データほど、視認性の高い表示形態で表示される。優先度設定部102は、実施の形態1と同様に、危険度をもとに優先度を算出する。
図19の画像データP、画像データQ、画像データR、画像データSの例では、優先度設定部102は、自動運転車両41の前方に歩行者が存在する画像データQの危険度を最も高く設定する。優先度設定部102は、次に自動運転車両41の前方に走行中の他車両が存在する画像データRの危険度を2番目に高く設定する。優先度設定部102は、自動運転車両41の左右に駐車車両が存在する画像データPの危険度を3番目に高く設定する。そして、優先度設定部102は、自動運転車両41の周辺に歩行者及び車両が存在しない画像データSの危険度を最も低く設定する。
この結果、図19の画像データの優先度は、画像データQ→画像データR→画像データP→画像データSの順に下がっていく。
また、優先度設定部102は、実施の形態1と同様に、優先度設定部102は、車道において走行を停止している自動運転車両の車両センサ画像データの危険度を高く設定してもよい。
また、優先度設定部102は、複数の施設センサ画像データと複数の車両センサ画像データとを解析して、各車両センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各車両センサ画像データに優先度を設定してもよい。
また、優先度設定部102は、複数の施設センサ画像データと複数の車両センサ画像データとを解析して、各施設センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各施設センサ画像データに優先度を設定してもよい。
優先度設定部102は、自動運転車両41の周囲にある障害物(他車両及び歩行者)の有無、障害物の位置は、車両センサ画像データを用いても、施設センサ画像データを用いても検知可能である。従って、優先度設定部102は、車両センサ画像データと施設センサ画像データの両方を参照して、危険度を推定し、優先度を設定してもよい。
一方で、車両センサ画像データと施設センサ画像データに同一の障害物が映されていても、車両センサ画像データを用いた障害物の認識結果と施設センサ画像データを用いた障害物の認識結果とが異なる場合がある。図20に示す駐車場200の鳥瞰画像図を用いて、認識結果の違いについて説明する。
図20の車両Bに搭載した車両センサデバイス43と、駐車場施設20に設置されている施設センサデバイス21は同一の障害物である歩行者Aを撮影する。
しかしながら、車両センサデバイス43と施設センサデバイス21は撮影方向が異なるため、図21のように撮影画像も異なる。従って、画像データPの解析及び画像データAの解析のいずれかで誤認識が生じる可能性がある。図21の画像データPにおける歩行者の画像範囲は、画像データAにおける歩行者の画像範囲よりも小さい。小さい画像範囲の対象物を画像認識するのは一般的に困難である。このため、施設センサデバイス21では歩行者を正しく検知できるが、車両Bの車両センサデバイス43では歩行者を検知できない可能性がある。この場合に、優先度設定部102は、画像データPと画像データAとの両者を解析することで、歩行者が歩行していることを正しく認識することができ、正しく危険度を推定することができる。自動運転車両41が走行経路上の障害物を未検知である場合は、危険性が非常に高い。従って、車両センサ画像データに対する解析結果と施設センサ画像データに対す解析結果とが異なる場合には、優先度設定部102は、当該車両センサ画像データの優先度を高くしてもよい。
以上より、優先度設定部102は、複数台の自動運転車両41に搭載された車両センサデバイス43により得られた車両センサ画像データと、駐車場施設20に設置された複数の施設センサデバイス21により得られた施設センサ画像データとを参照して、画像データの優先度を算出することができる。
第2の画像データ表示部202は、優先度設定部102により設定された優先度に従い、複数の車両センサ画像データを表示する際の表示形態を決定する。そして、第2の画像データ表示部202は、表示操作インタフェース16を介して、決定した表示形態で複数の車両センサ画像データを表示操作デバイス32に表示する。
本実施の形態では、第1の画像データ表示部103及び第2の画像データ表示部202が、表示制御部に相当する。また、第1の画像データ表示部103及び第2の画像データ表示部202により行われる処理が、表示制御処理に相当する。
図22は、車両センサ画像データの表示例を示す。
図22では、表示操作デバイス32に、優先度の順に車両センサ画像データを並べて表示する例を示す。図22の例では、画面の左上の領域に最も優先度の高い車両センサ画像データが表示される。右上の領域に2番目に優先度が高い車両センサ画像データが表示される。左下の領域に3番目に優先度が高い車両センサ画像データが表示される。右下の領域には最も優先度の低い車両センサ画像データが表示される。
また、監視装置31がn(n≧3)個の車両センサデバイス43により得られたn個の車両センサ画像データを受信している場合に、第2の画像データ表示部202は、優先度に基づき、m(2≦m<n)個の車両センサ画像データを選択し、m個の車両センサ画像データのみを表示操作デバイス32に表示させるようにしてもよい。
また、図22では4つの車両センサ画像データを同じサイズで表示しているが、優先度に応じて、車両センサ画像データの表示サイズを変更してもよい。
図23は、優先度に応じて車両センサ画像データの表示サイズを変化させている例を示す。
図23の例では、優先度が高い車両センサ画像データほど表示サイズが大きい。
また、第2の画像データ表示部202は、第1の画像データ表示部103又は図8に示す鳥瞰画像図生成部106が生成する表示画面と連動する表示画面を生成してもよい。
図24は、鳥瞰画像図生成部106が生成する鳥瞰画像図と連動させて、第2の画像データ表示部202が車両センサ画像データを表示する例を示す。
図24では、テーブル型表示操作デバイス321に駐車場200の鳥瞰画像図が表示され、複数台の表示操作デバイス322に複数の車両センサ画像データが表示されている。
なお、第1の画像データ表示部103は、鳥瞰画像図に車両センサ画像データに挿入してもよい。
また、鳥瞰画像図では、実施の形態1と同様に優先度が高い部分が強調表示される。また、第2の画像データ表示部202は、鳥瞰画像図で強調表示された部分に対応する車両センサ画像データを表示操作デバイス322に表示してもよい。
以上より、監視装置31は、危険度の高い自動運転車両41の車両センサ画像データを表示操作デバイス32に優先的に表示する。このため、管理者300は、優先度の高い車両センサ画像データに着目して自動運転車両41の走行状況を監視することができる。
***動作の説明***
次に、本実施の形態に係る監視装置31の動作例を説明する。
図25は、施設センサ画像データの取得から施設センサ画像データの表示までの監視装置31の手順を示すフローチャートである。
ステップS31において、第2の画像データ取得部201が、車両センサデバイス43で得られた車両センサ画像データを取得する。
次に、ステップS32において、優先度設定部102が、ステップS31で取得された車両センサ画像データの優先度を算出する。前述したように、優先度設定部102は、車両の混雑度、歩行者の有無、走行停止中の自動運転車両41の有無等に基づき危険度を算出し、危険度に基づき優先度を設定する。
次に、ステップS33では、第2の画像データ表示部202が、ステップS32で設定された優先度に従い、表示操作デバイス32へ表示する表示形態を決定し、決定した表示形態で表示画面を生成する。そして、第2の画像データ表示部202は、表示操作インタフェース16を介して、生成した表示画面を表示操作デバイス32に出力する。
つまり、図22のように車両センサ画像データを表示する場合は、第2の画像データ表示部202は、左上の領域に最も優先度の高い画像データQを表示し、右上の領域に2番目に優先度が高い画像データRを表示するというように、優先度に従った表示形態を決定する。
また、図23のように車両センサ画像データを表示する場合は、第2の画像データ表示部202は、最も優先度の高い画像データQを最も大きく表示し、2番目に優先度が高い画像データRを画像データQよりも小さいサイズで画像データRの右に表示するというように、優先度に従った表示形態を決定する。
ステップS34では、第2の画像データ表示部202が、車両センサ画像データの表示を継続するか否かを判定する。車両センサ画像データの表示を継続する場合は、ステップS31〜S33の処理が繰り返し行われる。
以上より、監視装置31は、複数の自動運転車両41に搭載された複数の車両センサデバイス43で得られた複数の車両センサ画像データに優先度を設定し、優先度に応じて複数の車両センサ画像データを管理者300が視認しやすい表示形態で表示する。
***実施の形態の効果の説明***
本実施の形態によれば、管理者300は、優先度の高い車両センサ画像データに着目して自動運転車両41の走行状況を監視することができる。従って、本実施の形態では、1人の管理者300が複数の自動運転車両41の運転支援を行うことができ、駐車場施設20における自動運転車両による事故を有効に防止することができる。
以上、本発明の実施の形態について説明したが、これら2つの実施の形態を組み合わせて実施しても構わない。
あるいは、これら2つの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これら2つの実施の形態を部分的に組み合わせて実施しても構わない。
なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
また、以上では、駐車場施設20における自動走行車両の管理を説明したが、本実施の形態に係る監視装置31を、倉庫、工場等の施設における自動走行車両の管理に適用可能である。
***ハードウェア構成の説明***
最後に、監視装置31のハードウェア構成の補足説明を行う。
プロセッサ13は、プロセッシングを行うIC(Integrated Circuit)である。
プロセッサ13は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)等である。
ROM15には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がRAM14にロードされ、また、プロセッサ13により読み出される。プロセッサ13は、少なくとも一部のOSを実行する。
プロセッサ13はOSの少なくとも一部を実行しながら、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104、移動制御部105、鳥瞰画像図生成部106、第2の画像データ取得部201及び第2の画像データ表示部202の機能を実現するプログラムを実行する。
プロセッサ13がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
また、監視装置31は、プロセッサ13を代替する複数のプロセッサを備えていてもよい。これら複数のプロセッサは、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104、移動制御部105、鳥瞰画像図生成部106、第2の画像データ取得部201及び第2の画像データ表示部202の機能を実現するプログラムの実行を分担する。それぞれのプロセッサは、プロセッサ13と同じように、プロセッシングを行うICである。
また、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104、移動制御部105、鳥瞰画像図生成部106、第2の画像データ取得部201及び第2の画像データ表示部202の処理の結果を示す情報、データ、信号値及び変数値の少なくともいずれかが、RAM14、プロセッサ13内のレジスタ及びキャッシュメモリの少なくともいずれかに記憶される。
また、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104、移動制御部105、鳥瞰画像図生成部106、第2の画像データ取得部201及び第2の画像データ表示部202の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記憶媒体に記憶されてもよい。
また、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104、移動制御部105、鳥瞰画像図生成部106、第2の画像データ取得部201及び第2の画像データ表示部202の「部」を、「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
また、監視装置31は、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGAといった電子回路により実現されてもよい。
この場合は、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104、移動制御部105、鳥瞰画像図生成部106、第2の画像データ取得部201及び第2の画像データ表示部202は、それぞれ電子回路の一部として実現される。
なお、プロセッサ及び上記の電子回路を総称してプロセッシングサーキットリーともいう。
12 センサインタフェース、13 プロセッサ、14 RAM、15 ROM、16 表示操作インタフェース、17 無線通信インタフェース、20 駐車場施設、21 施設センサデバイス、22 無線通信デバイス、30 駐車場管理室、31 監視装置、32 表示操作デバイス、33 全停止ボタン、40 乗車位置、41 自動運転車両、42 無線通信デバイス、43 車両センサデバイス、101 第1の画像データ取得部、102 優先度設定部、103 第1の画像データ表示部、104 制御指示部、105 移動制御部、106 鳥瞰画像図生成部、200 駐車場、201 第2の画像データ取得部、202 第2の画像データ表示部、300 管理者、400 運転手。

Claims (15)

  1. 自動運転車両が自動走行する施設内の異なる領域が映された複数の画像データを取得する画像データ取得部と、
    前記複数の画像データの各々に映されている状況を解析して、各画像データに優先度を設定する優先度設定部と、
    前記複数の画像データを合成して鳥瞰画像図を生成し、前記優先度設定部により設定された優先度が規定の条件に合致する画像データが反映されている前記鳥瞰画像図の部分を強調表示する表示制御部とを有する情報処理装置。
  2. 前記優先度設定部は、
    各画像データに映されている状況を解析して、各画像データに映されている領域の危険度を推定し、推定した危険度に基づき各画像データに優先度を設定する請求項1に記載の情報処理装置。
  3. 前記画像データ取得部は、
    1つ以上の自動運転車両が自動走行し、1人以上の歩行者が歩行する施設内の異なる領域が映された複数の画像データを取得し、
    前記優先度設定部は、
    各画像データに映されている状況として、自動運転車両の状況及び歩行者の状況を解析して、各画像データに映されている領域の危険度を推定する請求項2に記載の情報処理装置。
  4. 前記画像データ取得部は、
    前記施設に所在する複数の自動走行車両に設置されている複数のセンサデバイスで生成された複数の画像データを取得する請求項1に記載の情報処理装置。
  5. 自動運転車両が自動走行する施設に設置されている複数のセンサデバイスで生成された、前記施設内の異なる領域が映された複数の画像データである複数の施設センサ画像データを取得し、前記施設に所在する複数の自動走行車両に設置されている複数のセンサデバイスで生成された複数の画像データである複数の車両センサ画像データを取得する画像データ取得部と、
    前記複数の施設センサ画像データと前記複数の車両センサ画像データとを解析して、各施設センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各施設センサ画像データに優先度を設定する優先度設定部と、
    前記優先度設定部により設定された優先度に従い、前記複数の施設センサ画像データを表示する際の表示形態を決定する表示制御部とを有する情報処理装置。
  6. 自動運転車両が自動走行する施設に設置されている複数のセンサデバイスで生成された、前記施設内の異なる領域が映された複数の画像データである複数の施設センサ画像データを取得し、前記施設に所在する複数の自動走行車両に設置されている複数のセンサデバイスで生成された複数の画像データである複数の車両センサ画像データを取得する画像データ取得部と、
    前記複数の施設センサ画像データと前記複数の車両センサ画像データとを解析して、各車両センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各車両センサ画像データに優先度を設定する優先度設定部と、
    前記優先度設定部により設定された優先度に従い、前記複数の車両センサ画像データを表示する際の表示形態を決定する表示制御部とを有する情報処理装置。
  7. 前記情報処理装置は、更に、
    前記自動運転車両の走行停止を指示する制御指示部を有する請求項1、5又は6に記載の情報処理装置。
  8. 前記情報処理装置は、更に、
    走行経路を指定するとともに、前記走行経路に沿った前記自動運転車両の走行を指示する制御指示部を有する請求項1、5又は6に記載の情報処理装置。
  9. 前記情報処理装置は、更に、
    前記施設に複数の自動運転車両が所在する場合に、前記複数の自動運転車両の走行停止を指示する制御指示部を有する請求項1、5又は6に記載の情報処理装置。
  10. コンピュータが、自動運転車両が自動走行する施設内の異なる領域が映された複数の画像データを取得し、
    前記コンピュータが、前記複数の画像データの各々に映されている状況を解析して、各画像データに優先度を設定し、
    前記コンピュータが、前記複数の画像データを合成して鳥瞰画像図を生成し、設定された優先度が規定の条件に合致する画像データが反映されている前記鳥瞰画像図の部分を強調表示する情報処理方法。
  11. コンピュータが、自動運転車両が自動走行する施設に設置されている複数のセンサデバイスで生成された、前記施設内の異なる領域が映された複数の画像データである複数の施設センサ画像データを取得し、前記施設に所在する複数の自動走行車両に設置されている複数のセンサデバイスで生成された複数の画像データである複数の車両センサ画像データを取得し、
    前記コンピュータが、前記複数の施設センサ画像データと前記複数の車両センサ画像データとを解析して、各施設センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各施設センサ画像データに優先度を設定し、
    前記コンピュータが、設定された優先度に従い、前記複数の施設センサ画像データを表示する際の表示形態を決定する情報処理方法。
  12. コンピュータが、自動運転車両が自動走行する施設に設置されている複数のセンサデバイスで生成された、前記施設内の異なる領域が映された複数の画像データである複数の施設センサ画像データを取得し、前記施設に所在する複数の自動走行車両に設置されている複数のセンサデバイスで生成された複数の画像データである複数の車両センサ画像データを取得し、
    前記コンピュータが、前記複数の施設センサ画像データと前記複数の車両センサ画像データとを解析して、各車両センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各車両センサ画像データに優先度を設定し、
    前記コンピュータが、設定された優先度に従い、前記複数の車両センサ画像データを表示する際の表示形態を決定する情報処理方法。
  13. 自動運転車両が自動走行する施設内の異なる領域が映された複数の画像データを取得する画像データ取得処理と、
    前記複数の画像データの各々に映されている状況を解析して、各画像データに優先度を設定する優先度設定処理と、
    前記複数の画像データを合成して鳥瞰画像図を生成し、前記優先度設定処理により設定された優先度が規定の条件に合致する画像データが反映されている前記鳥瞰画像図の部分を強調表示する表示制御処理とをコンピュータに実行させる情報処理プログラム。
  14. 自動運転車両が自動走行する施設に設置されている複数のセンサデバイスで生成された、前記施設内の異なる領域が映された複数の画像データである複数の施設センサ画像データを取得し、前記施設に所在する複数の自動走行車両に設置されている複数のセンサデバイスで生成された複数の画像データである複数の車両センサ画像データを取得する画像データ取得処理と、
    前記複数の施設センサ画像データと前記複数の車両センサ画像データとを解析して、各施設センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各施設センサ画像データに優先度を設定する優先度設定処理と、
    前記優先度設定処理により設定された優先度に従い、前記複数の施設センサ画像データを表示する際の表示形態を決定する表示制御処理とをコンピュータに実行させる情報処理プログラム。
  15. 自動運転車両が自動走行する施設に設置されている複数のセンサデバイスで生成された、前記施設内の異なる領域が映された複数の画像データである複数の施設センサ画像データを取得し、前記施設に所在する複数の自動走行車両に設置されている複数のセンサデバイスで生成された複数の画像データである複数の車両センサ画像データを取得する画像データ取得処理と、
    前記複数の施設センサ画像データと前記複数の車両センサ画像データとを解析して、各車両センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各車両センサ画像データに優先度を設定する優先度設定処理と、
    前記優先度設定処理により設定された優先度に従い、前記複数の車両センサ画像データを表示する際の表示形態を決定する表示制御処理とをコンピュータに実行させる情報処理プログラム。
JP2017539046A 2017-03-15 2017-03-15 情報処理装置、情報処理方法及び情報処理プログラム Active JP6227211B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/010502 WO2018167891A1 (ja) 2017-03-15 2017-03-15 情報処理装置、情報処理方法及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP6227211B1 true JP6227211B1 (ja) 2017-11-08
JPWO2018167891A1 JPWO2018167891A1 (ja) 2019-03-28

Family

ID=60265754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017539046A Active JP6227211B1 (ja) 2017-03-15 2017-03-15 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (5)

Country Link
US (1) US11366477B2 (ja)
JP (1) JP6227211B1 (ja)
CN (1) CN110419211B (ja)
DE (1) DE112017007050B4 (ja)
WO (1) WO2018167891A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019128687A (ja) * 2018-01-22 2019-08-01 トヨタホーム株式会社 監視システム
JP2020061120A (ja) * 2018-10-05 2020-04-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法、及び、情報処理システム
JP2022034034A (ja) * 2020-12-25 2022-03-02 アポロ インテリジェント コネクティビティ (ベイジン) テクノロジー カンパニー リミテッド 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110678775B (zh) * 2017-06-01 2023-07-14 三菱电机株式会社 物体检测装置、物体检测方法以及计算机能读取的存储介质
JP6989429B2 (ja) * 2018-03-28 2022-01-05 株式会社東芝 隊列走行運用システムおよび隊列走行運用方法
CN111038521A (zh) * 2018-10-11 2020-04-21 顾泽苍 一种自动驾驶“意识决定”模型的构成方法
KR102651410B1 (ko) * 2018-12-28 2024-03-28 현대자동차주식회사 자율 발렛 주차를 지원하는 시스템 및 방법, 그리고 이를 위한 인프라 및 차량
CN113614805B (zh) * 2019-03-29 2024-01-30 本田技研工业株式会社 显示控制装置、显示控制方法以及存储介质
JP7363084B2 (ja) * 2019-04-24 2023-10-18 三菱電機株式会社 制御システム
US20220219687A1 (en) * 2019-05-14 2022-07-14 Volkswagen Aktiengesellschaft Method for Detecting a Potential Collision by a Vehicle with a Living Thing, and Car Park Management System
DE102019114673A1 (de) * 2019-05-31 2020-12-03 Fraba B.V. Fahrzeugsteueranordnung zur automatischen Steuerung von mindestens einem Fahrzeug sowie Verfahren zu dessen Steuerung
JP2021149704A (ja) * 2020-03-19 2021-09-27 本田技研工業株式会社 収容領域管理装置
CN111524347B (zh) * 2020-04-13 2022-05-06 东风柳州汽车有限公司 一种预介入的远程遥控泊车控制方法
JP7416219B2 (ja) * 2020-04-16 2024-01-17 日本電信電話株式会社 映像配信装置、映像配信方法及びプログラム
JP7420279B2 (ja) * 2020-09-30 2024-01-23 株式会社デンソー 中継装置、データ中継方法、及びデータ中継プログラム
CN112885087A (zh) * 2021-01-22 2021-06-01 北京嘀嘀无限科技发展有限公司 确定路况信息的方法、装置、设备和介质和程序产品
JP2022174620A (ja) * 2021-05-11 2022-11-24 トヨタ自動車株式会社 車両管理システム及び車両管理方法
US20230249588A1 (en) * 2022-02-10 2023-08-10 Matthew BAYES Vehicle seat adjustment system and method
WO2023188702A1 (ja) * 2022-03-28 2023-10-05 日本電気株式会社 制御装置、制御方法、および記録媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117800A (ja) * 2008-11-11 2010-05-27 Toshiba It & Control Systems Corp 駐車場監視装置及び方法
JP2015072651A (ja) * 2013-10-04 2015-04-16 株式会社デンソーアイティーラボラトリ 交通制御システム、交通制御方法、およびプログラム
JP2015228152A (ja) * 2014-06-02 2015-12-17 住友電気工業株式会社 通信方法、路側装置、移動通信機、車両、車両の制御装置、及び車両の動作決定方法
JP2016173682A (ja) * 2015-03-16 2016-09-29 シャープ株式会社 異常判定装置および異常判定方法
WO2017002471A1 (ja) * 2015-07-02 2017-01-05 ソニー株式会社 車両制御装置と車両制御方法およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100429101C (zh) * 2005-09-09 2008-10-29 中国科学院自动化研究所 汽车行驶安全监控系统及监控方法
CN101710943A (zh) * 2009-12-14 2010-05-19 奇瑞汽车股份有限公司 一种汽车全景与夜视显示方法及装置
JP2012126193A (ja) 2010-12-14 2012-07-05 Denso Corp 駐車場の自動駐車システム
US9400183B1 (en) * 2011-11-10 2016-07-26 Google Inc. Method and apparatus to transition between levels using warp zones
DE102012200636A1 (de) * 2012-01-17 2013-07-18 Robert Bosch Gmbh Anzeigesystem für ein Fahrzeug
US9129524B2 (en) * 2012-03-29 2015-09-08 Xerox Corporation Method of determining parking lot occupancy from digital camera images
DE102012222562A1 (de) * 2012-12-07 2014-06-12 Robert Bosch Gmbh System für bewirtschaftete Parkflächen zur Überführung eines Fahrzeugs von einer Startposition in eine Zielposition
JP6120371B2 (ja) 2013-10-23 2017-04-26 クラリオン株式会社 自動駐車制御装置および駐車支援装置
JP5983680B2 (ja) 2014-06-06 2016-09-06 トヨタ自動車株式会社 自動駐車システム
JP6354542B2 (ja) 2014-11-26 2018-07-11 株式会社デンソー 車両自動運転システム
KR101850795B1 (ko) * 2015-11-09 2018-04-20 엘지전자 주식회사 주차 수행 장치 및 차량
CN205609015U (zh) * 2016-03-18 2016-09-28 邦奇智能科技(上海)有限公司 一种基于图像识别的停车管理系统
CN205862609U (zh) * 2016-08-01 2017-01-04 北京博锐尚格节能技术股份有限公司 停车场调度系统
US20180178840A1 (en) * 2016-12-28 2018-06-28 Automotive Research & Testing Center Automatic vehicle parking assistance correcting system with instant environmental detection and correcting method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117800A (ja) * 2008-11-11 2010-05-27 Toshiba It & Control Systems Corp 駐車場監視装置及び方法
JP2015072651A (ja) * 2013-10-04 2015-04-16 株式会社デンソーアイティーラボラトリ 交通制御システム、交通制御方法、およびプログラム
JP2015228152A (ja) * 2014-06-02 2015-12-17 住友電気工業株式会社 通信方法、路側装置、移動通信機、車両、車両の制御装置、及び車両の動作決定方法
JP2016173682A (ja) * 2015-03-16 2016-09-29 シャープ株式会社 異常判定装置および異常判定方法
WO2017002471A1 (ja) * 2015-07-02 2017-01-05 ソニー株式会社 車両制御装置と車両制御方法およびプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019128687A (ja) * 2018-01-22 2019-08-01 トヨタホーム株式会社 監視システム
JP2020061120A (ja) * 2018-10-05 2020-04-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理方法、及び、情報処理システム
JP7249879B2 (ja) 2018-10-05 2023-03-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、及び、情報処理システム
JP2022034034A (ja) * 2020-12-25 2022-03-02 アポロ インテリジェント コネクティビティ (ベイジン) テクノロジー カンパニー リミテッド 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム
JP7351892B2 (ja) 2020-12-25 2023-09-27 阿波▲羅▼智▲聯▼(北京)科技有限公司 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム

Also Published As

Publication number Publication date
DE112017007050B4 (de) 2020-12-31
JPWO2018167891A1 (ja) 2019-03-28
US20210173400A1 (en) 2021-06-10
CN110419211B (zh) 2020-12-22
CN110419211A (zh) 2019-11-05
WO2018167891A1 (ja) 2018-09-20
US11366477B2 (en) 2022-06-21
DE112017007050T5 (de) 2019-10-24

Similar Documents

Publication Publication Date Title
JP6227211B1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US10303257B2 (en) Communication between autonomous vehicle and external observers
US11067986B2 (en) Autonomous driving vehicle, method of stopping autonomous driving vehicle, and recording medium
JP6830936B2 (ja) ダイクロイックミラーを使用する、自律走行車のための3d−lidarシステム
US9809218B2 (en) System and method for autonomous valet parking using plenoptic cameras
EP3367367B1 (en) Parking support method and parking support device
RU2656933C2 (ru) Способ и устройство для предупреждения о встречном транспортном средстве
JP2018079916A (ja) 自律走行車(adv)用のビジュアルコミュニケーションシステム
KR102215428B1 (ko) 주차 제어 방법 및 주차 제어 장치
US10733879B2 (en) Roadside device, method of controlling roadside device and non-transitory storage medium
US20170116862A1 (en) Driving support apparatus and driving support method
RU2744447C1 (ru) Способ управления парковкой и аппаратура управления парковкой
JP6584632B2 (ja) 駐車支援装置
JPWO2018235274A1 (ja) 駐車制御方法及び駐車制御装置
US11485354B2 (en) Parking control method and parking control device
RU2746684C1 (ru) Способ управления парковкой и оборудование управления парковкой
JP2020530618A (ja) 自律車両の通知のシステムと方法
EP3693230A1 (en) Parking control method and parking control device
US20190189014A1 (en) Display control device configured to control projection device, display control method for controlling projection device, and vehicle
JP2019174992A (ja) 情報処理装置及びプログラム
JP2019166992A (ja) 車両制御装置およびコンピュータプログラム
JP6996228B2 (ja) 駐車制御方法及び駐車制御装置
TW201025218A (en) Traffic information system, and its providing method and computer program product
JP2021179759A (ja) 電子制御装置
JP2019009599A (ja) 画像処理装置、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170724

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170724

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170724

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171010

R150 Certificate of patent or registration of utility model

Ref document number: 6227211

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250