JP6227211B1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法及び情報処理プログラム Download PDFInfo
- Publication number
- JP6227211B1 JP6227211B1 JP2017539046A JP2017539046A JP6227211B1 JP 6227211 B1 JP6227211 B1 JP 6227211B1 JP 2017539046 A JP2017539046 A JP 2017539046A JP 2017539046 A JP2017539046 A JP 2017539046A JP 6227211 B1 JP6227211 B1 JP 6227211B1
- Authority
- JP
- Japan
- Prior art keywords
- image data
- facility
- vehicle
- sensor
- priority
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 24
- 238000003672 processing method Methods 0.000 title claims description 5
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 59
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims description 59
- 238000000034 method Methods 0.000 claims description 30
- 238000010586 diagram Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 15
- 238000004891 communication Methods 0.000 description 52
- 238000012806 monitoring device Methods 0.000 description 48
- 230000006870 function Effects 0.000 description 11
- 238000012544 monitoring process Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 8
- 238000009434 installation Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012827 research and development Methods 0.000 description 2
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 1
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/005—Traffic control systems for road vehicles including pedestrian guidance indicator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/027—Parking aids, e.g. instruction means
- B62D15/0285—Parking performed automatically
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
- G05D1/0297—Fleet control by controlling means in a control room
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0116—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0137—Measuring and analyzing of parameters relative to traffic conditions for specific applications
- G08G1/0145—Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/14—Traffic control systems for road vehicles indicating individual free spaces in parking areas
- G08G1/141—Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
- G08G1/143—Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/14—Traffic control systems for road vehicles indicating individual free spaces in parking areas
- G08G1/145—Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
- G08G1/146—Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is a limited parking space, e.g. parking garage, restricted space
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Astronomy & Astrophysics (AREA)
- Theoretical Computer Science (AREA)
Abstract
Description
多くの自動駐車機能では、運転手が駐車位置をタッチパネルで選択すると、選択された駐車位置へ駐車するように車両が自動走行する。
特許文献1の技術により、駐車場の管理者は離れた場所にいても、運転手の代わりに車両を運転可能である。
特許文献2の技術により、運転手は自動駐車中の自動運転車両の運転状況を確認して、危険な場合には停止ボタンを操作して、自動運転車両を停止させることができる。
自動運転車両が自動走行する施設内の異なる領域が映された複数の画像データを取得する画像データ取得部と、
前記複数の画像データの各々に映されている状況を解析して、各画像データに優先度を設定する優先度設定部と、
前記優先度設定部により設定された優先度に従い、前記複数の画像データを表示する際の表示形態を決定する表示制御部とを有する。
***構成の説明***
本実施の形態では、自動運転車両が自動走行する施設を管理するシステムを説明する。自動運転車両が自動走行する施設には、例えば、駐車場施設、倉庫、工場等が含まれる。
以下では、駐車場施設を管理する駐車管理システムを説明する。
駐車場200では、1台以上の自動走行車両が自動走行し、また、自動駐車を行う。
駐車場施設20には、施設センサデバイス21が設置されている。施設センサデバイス21は、駐車場200を監視する。施設センサデバイス21は、例えば、カメラセンサ(監視カメラ)、赤外線センサ、光レーダセンサ等である。図1では、1台の施設センサデバイス21のみが図示されているが、駐車場施設20には複数台の施設センサデバイス21が設置されている。各施設センサデバイス21は、駐車場200内の異なる領域を監視する。各施設センサデバイス21は、監視により得られた画像データ(以下、施設センサ画像データという)を後述する駐車場管理室30の監視装置31に送信する。
駐車場管理室30において、監視装置31は、複数の施設センサデバイス21から送信された複数の施設センサ画像データを受信し、受信した複数の施設センサ画像データに優先度を設定する。監視装置31は、優先度に基づいて複数の施設センサ画像データを表示する際の表示形態を決定する。そして、監視装置31は、決定した表示形態にて複数の施設センサ画像データを表示する。また、監視装置31は、管理者300からの制御指示を駐車場200内の自動走行車両に送信する。
管理者300は、監視装置31を利用する。より具体的には、監視装置31により表示された複数の施設センサ画像データを閲覧して、駐車場200での自動走行車両の状況、歩行者の状況等を把握し、必要であれば、監視装置31に制御指示を入力する。
自動運転車両41は、運転手400から管理者300に運転権限が委譲された後、駐車場施設20へ自動走行する。自動運転車両の走行状況は施設センサデバイス21によって感知され、施設センサデバイス21により施設センサ画像データが監視装置31に送信される。前述したように、管理者300が施設センサ画像データを閲覧して、自動運転車両41の走行状況を監視する。自動運転車両41の走行によって、他車両との衝突、歩行者との衝突等の危険が生じる可能性がある場合には、管理者300は自動運転車両41の走行停止を監視装置31に指示する。管理者300の走行停止指示により、監視装置31から自動運転車両41へ走行の停止を指示する車両制御情報が送信され、自動運転車両41は走行を停止する。
ここでは、自動運転車両41の走行停止を説明したが、駐車場200内が混雑して、自動走行が困難となって自動運転車両41が停止した場合は、管理者300が自動運転車両41の周辺の安全性を確認し、監視装置31を介して走行開始を指示する車両制御情報を送信してもよい。
監視装置31は、センサインタフェース12、プロセッサ13、RAM(Random Access Memory)14、ROM(Read Only Memory)15、表示操作インタフェース16、無線通信インタフェース17で構成される。監視装置31は、コンピュータである。監視装置31は、一般的なパーソナルコンピュータを用いて実現してもよい。また、監視装置31は、組込機器、FPGA(Field−Programmable Gate Array)ボード等で実現されてもよい。
監視装置31は、情報処理装置に相当する。また、監視装置31により行われる動作は、情報処理方法及び情報処理プログラムに相当する。
各施設センサデバイス21で得られた施設センサ画像データは監視装置31に送信される。監視装置31では、センサインタフェース12が各施設センサデバイス21から送信された施設センサ画像データを受信する。受信された施設センサ画像データは、RAM14に一時的に保存される。次に、プロセッサ13が、施設センサ画像データの優先度を算出する。優先度が高い施設センサ画像データは、表示操作インタフェース16を介して接続した表示操作デバイス32に優先的に表示される。
表示操作デバイス32は、例えば表示ディスプレイ付きのタッチパネルである。
管理者300が表示操作デバイス32に入力した自動運転車両41への指示は、表示操作インタフェース16で受信される。プロセッサ13が、管理者300からの指示に従って車両制御情報を生成する。生成された車両制御情報は無線通信インタフェース17から駐車場施設20に設置された無線通信デバイス22に送信される。
無線通信デバイス22は、監視装置31から送信された車両制御情報を受信し、受信した車両制御情報を配信する。
無線通信デバイス42は、無線通信デバイス22から配信された車両制御情報を受信する。
通常は、自動運転車両41は、自動駐車機能によって走行する。しかし、自動運転車両41は、無線通信デバイス42が車両制御情報を受信した際は、車両制御情報の指示を優先して走行停止や走行開始を行う。
第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104及び移動制御部105は、プログラムにより実現される。第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104及び移動制御部105を実現するプログラムはROM15に格納されている。当該プログラムはROM15からRAM14にロードされる。そして、当該プログラムはプロセッサ13により読み出され、プロセッサ13により実行される。
図3は、プロセッサ13が第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104及び移動制御部105の機能を実現するプログラムを実行している状態を模式的に表している。
画像データA、画像データB、画像データC及び画像データDは、それぞれ、異なる位置に配置された施設センサデバイス21により撮影された施設センサ画像データである。画像データA、画像データB、画像データC及び画像データDは、駐車場施設20の異なる領域の状況を表す。
また、施設センサデバイス21として、赤外線センサ又は光レーザセンサを使用することができる。赤外線センサは、温度変化を計測可能である。このため、施設センサデバイス21として赤外線センサを用いる場合は、施設センサデバイス21は、駐車場200内の歩行者を検知することができる。光レーザセンサは、投射光が物体に反射して到達するまでの時間から距離情報を算出する。レーザ光を様々な角度へ投射することで、光レーザセンサは、駐車場施設20の3次元形状を計測する。
第1の画像データ取得部101は、このように、駐車場200内の自動運転車両41の位置や外観、歩行者の有無、駐車場施設20の3次元形状等の情報を取得することができる。
第1の画像データ取得部101は、画像データ取得部に相当する。また、第1の画像データ取得部101により行われる処理は、画像データ取得処理に相当する。
優先度が高い施設センサ画像データほど、視認性の高い表示形態で表示される。
優先度設定部102は、危険度をもとに優先度を算出する。優先度設定部102は、各施設センサ画像データに映されている状況を解析して、各施設センサ画像データに映されている領域の危険度を推定する。優先度設定部102は、例えば、車両同士の距離と混雑度、歩行者の有無、手動運転車両の有無のうちのいずれか又はこれらのうちのいずれかの組み合わせにより危険度を推定する。そして、優先度設定部102は、推定した危険度に基づき各施設センサ画像データに優先度を設定する。優先度設定部102は、危険度の高い施設センサ画像データほど高い優先度を設定する。
優先度設定部102により行われる処理は、優先度設定処理に相当する。
優先度設定部102は、自動走行中の車両が映されている施設センサ画像データの危険度を、停止中の車両が映されている施設センサ画像データの危険度よりも高く設定する。
優先度設定部102は、第1の画像データ取得部101が取得した車両の位置情報を使用して、車両同士の距離を算出する。なお、優先度設定部102は、車両間の直線距離を算出するのではなく、駐車場内での移動距離(道のり)を算出する。図5の車両Aと車両Bの直線距離と、車両Aと車両Cの直線距離はほぼ等しいが、車両Aと車両Cの間には枠線(白枠)(駐車スペース)が存在するため、車両Aの位置から車両Cの位置までの移動距離は車両Aの位置から車両Bの位置までの移動距離よりも長くなる。従って、車両Aが映されている施設センサ画像データの危険度及び車両Bが映されている施設センサ画像データの危険度は、車両Cが映されている施設センサ画像データの危険度よりも高くなる。なお、優先度設定部102は、後述する鳥瞰画像図生成部106により生成された鳥瞰画像図を解析して、車両間の距離を算出する。
優先度設定部102は、鳥瞰画像図を解析して駐車場200内の一定の面積において車両が占める割合を算出して、車両の混雑度を判定する。
後述する移動制御部105によって、制御不能な車両は手動運転車両と判定される。優先度設定部102は、施設センサ画像データに映っている車両のナンバープレートに基づいて施設センサ画像データに車道運転車両が映っているか否かを判定する。
自動運転車両は、近くに車両が所在している場合は安全を考慮して走行を停止する。このため、優先度設定部102は、車道において走行を停止している自動運転車両が映っている施設センサ画像データの危険度を高く設定する。
また、優先度設定部102は、自動運転車両に自動走行時の難易度を算出させてもよい。そして、優先度設定部102は、難易度情報を第1の画像データ取得部101を介して取得し、難易度が高い車両が映っている施設センサ画像データの危険度を高くしてもよい。
第1の画像データ表示部103は、表示制御部に相当する。また、第1の画像データ表示部103により行われる処理は、表示制御処理に相当する。
図6は、表示操作デバイス32に、優先度の順に施設センサ画像データを並べて表示する例を示す。図6の例では、画面の左上の領域に最も優先度の高い施設センサ画像データが表示される。また、画面の右上の領域に2番目に優先度が高い施設センサ画像データが表示される。また、画面の左下の領域に3番目に優先度が高い施設センサ画像データが表示される。また、画面の右下の領域に最も優先度の低い施設センサ画像データが表示される。
また、監視装置31がn(n≧3)個の施設センサデバイス21により得られたn個の施設センサ画像データを受信している場合に、第1の画像データ表示部103は、優先度に基づき、m(2≦m<n)個の施設センサ画像データを選択し、m個の施設センサ画像データのみを表示操作デバイス32に表示させるようにしてもよい。
図7は、優先度に応じて施設センサ画像データの表示サイズを変化させている例を示す。
図7の例では、優先度が高い施設センサ画像データほど表示サイズが大きい。
鳥瞰画像図生成部106は、複数の施設センサデバイス21で得られた複数の施設センサ画像データから鳥瞰画像図を生成する。
鳥瞰画像図生成部106も、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104及び移動制御部105と同様にプログラムで実現される。
なお、図8に示す機能構成では、第1の画像データ表示部103及び鳥瞰画像図生成部106が表示制御部に相当する。
鳥瞰画像図生成部106は、隣接するカメラセンサの施設センサ画像データの一部が相互に重なり合うようにして施設センサ画像データを合成する。このため、鳥瞰画像図生成部106は、カメラセンサのズーム機能を調整してもよい。より具体的には、鳥瞰画像図生成部106は、カメラセンサのズーム機能を調整して、カメラセンサの撮影領域を拡大又は縮小し、施設センサ画像データの一部が相互に重なり合うように制御する。
そして、第1の画像データ表示部103は、鳥瞰画像図を、管理者300に提示することができる。
つまり、第1の画像データ表示部103は、閾値以上の優先度が設定されている施設センサ画像データが反映されている部分を強調表示してもよい。図12では、歩行者が映っている施設センサ画像データの優先度が閾値以上であるため、鳥瞰画像図内で歩行者が映っている部分が円で囲まれて強調表示されている。同様に、図12では、車両Aと車両Bの距離が短いため、車両Aが映っている施設センサ画像データの優先度と車両Bが映っている施設センサ画像データの優先度が閾値以上であり、このため、鳥瞰画像図内で車両Aと車両Bとが映っている部分が円で囲まれて強調表示されている。
図12に示すように、第1の画像データ表示部103は優先度が高い部分を強調表示することで、管理者300が危険を認識しやすくなる。
制御指示部104が生成するコマンドは、全自動運転車両41の停止を指示する全停止コマンド、特定の自動運転車両41の停止を指示する停止コマンド及び特定の自動運転車両41の移動を指示する移動コマンドのいずれかである。
図13の表示操作デバイス32の表示画面には、鳥瞰画像図生成部106が生成した駐車場200の全体の鳥瞰画像図が表示されている。表示画面の右側には全停止ボタン、停止ボタン及び移動ボタンが表示されている。これら全停止ボタン、停止ボタン及び移動ボタンは第1の画像データ表示部103により表示される。
なお、指を用いた走行経路の指示は指示精度が低いため、指がタッチパネル上で駐車場200の走行路面から外れた場合には、制御指示部104が、走行経路が走行路面内にとどまるように走行経路を修正する。
なお、図14に示すように表示操作デバイス32に全停止ボタン33が接続されている場合も、特定の自動運転車両41の停止及び特定の自動運転車両41の移動は、図13に示した停止ボタン及び移動ボタンを用いて行われる。
また、制御指示部104は、管理者300からの指示が特定の自動運転車両41の移動指示であれば、表示操作インタフェース16を介して、当該自動運転車両41の現在位置の地理座標と、当該自動運転車両41の移動先の地理座標と、当該自動運転車両41の現在位置と移動先との間の1つ以上の中間地点の地理座標を表示操作デバイス32から取得する。次に、制御指示部104は、表示操作デバイス32から取得した当該自動運転車両41の現在位置の地理座標の近傍に配置されている無線通信デバイス22を特定する。そして、制御指示部104は、特定した無線通信デバイス22の識別子と、移動先の地理座標と、中間地点の地理座標と、移動コマンドとを移動制御部105に出力する。
また、制御指示部104は、管理者300からの指示が全自動運転車両41の停止指示であれば、駐車場200に配置されている全ての無線通信デバイス22の識別子を抽出する。そして、制御指示部104は、全ての無線通信デバイス22の識別子と、全停止コマンドとを移動制御部105に出力する。
具体的には、移動制御部105は、制御指示部104から停止コマンドと無線通信デバイス22の識別子が出力された場合は、停止コマンドが含まれる車両制御情報を、制御指示部104から出力された識別子に対応する無線通信デバイス22に送信する。
また、移動制御部105は、制御指示部104から移動コマンドと、無線通信デバイス22の識別子と、移動先の地理座標と、中間地点の地理座標とが出力された場合は、移動コマンドと移動先の地理座標と中間地点の地理座標とが含まれる車両制御情報を、制御指示部104から出力された識別子に対応する無線通信デバイス22に送信する。
また、移動制御部105は、全停止コマンドと全ての無線通信デバイス22の識別子が出力された場合は、全停止コマンドが含まれる車両制御情報を、全ての無線通信デバイス22に送信する。
車両制御情報を受信した無線通信デバイス22は、車両制御情報を周囲に配信する。
車両制御情報の送信先の自動運転車両41の無線通信デバイス42は、車両制御情報を配信する無線通信デバイス22の近傍に所在するため、車両制御情報を受信することができる。
次に、本実施の形態に係る監視装置31の動作例を説明する。
図15は、施設センサ画像データの取得から施設センサ画像データの表示までの監視装置31の手順を示すフローチャートである。
つまり、図6のように施設センサ画像データを表示する場合は、第1の画像データ表示部103は、左上の領域に最も優先度の高い施設センサ画像データAを表示し、右上の領域に2番目に優先度が高い施設センサ画像データBを表示するというように、優先度に従った表示形態を決定する。
また、図7のように施設センサ画像データを表示する場合は、第1の画像データ表示部103は、最も優先度の高い画像データAを最も大きく表示し、2番目に優先度が高い画像データBを画像データAよりも小さいサイズで画像データAの右に表示するというように、優先度に従った表示形態を決定する。
前述したように、管理者300からの指示が特定の自動運転車両41の停止指示であれば、制御指示部104は、停止コマンドを生成する。管理者300からの指示が特定の自動運転車両41の移動指示であれば、制御指示部104は、移動コマンドを生成する。管理者300からの指示が全自動運転車両41の停止指示であれば、制御指示部104は、全停止コマンドを生成する。
また、前述したように、制御指示部104は、管理者300からの指示が特定の自動運転車両41の停止指示であれば、表示操作インタフェース16を介して、当該自動運転車両41の現在位置の地理座標を表示操作デバイス32から取得する。次に、制御指示部104は、表示操作デバイス32から取得した当該自動運転車両41の現在位置の地理座標の近傍に配置されている無線通信デバイス22を特定する。そして、制御指示部104は、特定した無線通信デバイス22の識別子と停止コマンドとを移動制御部105に出力する。
また、制御指示部104は、管理者300からの指示が特定の自動運転車両41の移動指示であれば、表示操作インタフェース16を介して、当該自動運転車両41の現在位置の地理座標と、当該自動運転車両41の移動先の地理座標と、当該自動運転車両41の現在位置と移動先との間の1つ以上の中間地点の地理座標を表示操作デバイス32から取得する。次に、制御指示部104は、表示操作デバイス32から取得した当該自動運転車両41の現在位置の地理座標の近傍に配置されている無線通信デバイス22を特定する。そして、制御指示部104は、特定した無線通信デバイス22の識別子と、移動先の地理座標と、中間地点の地理座標と、移動コマンドとを移動制御部105に出力する。
また、制御指示部104は、管理者300からの指示が全自動運転車両41の停止指示であれば、駐車場200に配置されている全ての無線通信デバイス22の識別子を抽出する。そして、制御指示部104は、全ての無線通信デバイス22の識別子と、全停止コマンドとを移動制御部105に出力する。
具体的には、移動制御部105は、制御指示部104から停止コマンドと無線通信デバイス22の識別子が出力された場合は、停止コマンドが含まれる車両制御情報を、制御指示部104から出力された識別子に対応する無線通信デバイス22に送信する。
また、移動制御部105は、制御指示部104から移動コマンドと、無線通信デバイス22の識別子と、移動先の地理座標と、中間地点の地理座標とが出力された場合は、移動コマンドと移動先の地理座標と中間地点の地理座標とが含まれる車両制御情報を、制御指示部104から出力された識別子に対応する無線通信デバイス22に送信する。
また、移動制御部105は、全停止コマンドと全ての無線通信デバイス22の識別子が出力された場合は、全停止コマンドが含まれる車両制御情報を、全ての無線通信デバイス22に送信する。
本実施の形態では、監視装置31は、駐車場施設20に設置された複数の施設センサデバイス21で得られた複数の施設センサ画像データに優先度を設定し、優先度に応じて複数の施設センサ画像データを管理者300が視認しやすい表示形態で表示する。このため、本実施の形態によれば、管理者300は、優先度の高い施設センサ画像データに着目して自動運転車両41の走行状況を監視することができる。従って、本実施の形態では、1人の管理者300が複数の自動運転車両41の運転支援を行うことができ、駐車場施設20における自動運転車両による事故を有効に防止することができる。
実施の形態2に係る監視装置31は、駐車場施設20に設置した施設センサデバイス21だけでなく、自動運転車両41に搭載したセンサデバイスで得られた画像データを使用する。このようにすることで、管理者300がより効率的に自動運転車両41の運転支援を行うことができる。
本実施の形態では、主に実施の形態1との差異を説明する。
なお、以下で説明していない事項は、実施の形態1と同様である。
本実施の形態でも、駐車場管理システムの全体構成は図1に示す通りである。
図17は、本実施の形態に係る駐車場管理システムのハードウェア構成例を示す。
車両センサデバイス43で得られた画像データ(以下、車両センサ画像データという)は、無線通信デバイス42により、無線通信デバイス22に送信される。
無線通信デバイス22は、車両センサ画像データを監視装置31に送信する。
監視装置31では、センサインタフェース12が車両センサ画像データを受信する。
図17において、車両センサデバイス43以外の構成要素は、図2に示したものと同じであるため、説明を省略する。
第2の画像データ取得部201及び第2の画像データ表示部202は、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104及び移動制御部105と同様にプログラムにより実現される。
第2の画像データ取得部201は、センサインタフェース12を介して、複数の車両センサデバイス43から送信された複数の車両センサ画像データを取得する。
図19は、車両センサデバイス43がカメラセンサである場合の車両センサ画像データの例を示す。画像データP、画像データQ、画像データR及び画像データSは、異なる自動運転車両41に配置された車両センサデバイス43により撮影された撮影画像である。
画像データPでは、画像データPを撮影した車両センサデバイス43を搭載した自動運転車両41の左右に駐車車両が存在している。画像データQでは、画像データPを撮影した車両センサデバイス43を搭載した自動運転車両41の前方に歩行者が歩行している。画像データRでは、画像データRを撮影した車両センサデバイス43を搭載した自動運転車両41の前方に走行中の他車両が存在している。画像データSでは、画像データSを撮影した車両センサデバイス43を搭載した自動運転車両41の周囲に他車両や歩行者が存在しない。
また、車両センサデバイス43として、赤外線センサ、光レーザセンサ、ミリ波レーダセンサ、超音波センサ等を使用することができる。赤外線センサ、光レーザセンサは実施の形態1で説明した通りであり、歩行者の有無や駐車場施設20の3次元形状を計測することができる。ミリ波レーダセンサは、ミリ波帯域の電波を使用することで、霧の中や降雨又は降雪時であっても車両や歩行者などの障害物を検出することができる。超音波センサは、他センサと比べて安価であり、近距離にある障害物を検出することができる。第2の画像データ取得部201は、このように、自動運転車両41の周辺にある障害物(歩行者又は他車両)、自動運転車両41の周辺の駐車場200内の状況、自動運転車両41の周辺の3次元形状等を取得することができる。
なお、本実施の形態では、第1の画像データ取得部101及び第2の画像データ取得部201が、画像データ取得部に相当する。また、第1の画像データ取得部101及び第2の画像データ取得部201により行われる処理が、画像データ取得処理に相当する。
図19の画像データP、画像データQ、画像データR、画像データSの例では、優先度設定部102は、自動運転車両41の前方に歩行者が存在する画像データQの危険度を最も高く設定する。優先度設定部102は、次に自動運転車両41の前方に走行中の他車両が存在する画像データRの危険度を2番目に高く設定する。優先度設定部102は、自動運転車両41の左右に駐車車両が存在する画像データPの危険度を3番目に高く設定する。そして、優先度設定部102は、自動運転車両41の周辺に歩行者及び車両が存在しない画像データSの危険度を最も低く設定する。
この結果、図19の画像データの優先度は、画像データQ→画像データR→画像データP→画像データSの順に下がっていく。
また、優先度設定部102は、実施の形態1と同様に、優先度設定部102は、車道において走行を停止している自動運転車両の車両センサ画像データの危険度を高く設定してもよい。
また、優先度設定部102は、複数の施設センサ画像データと複数の車両センサ画像データとを解析して、各施設センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各施設センサ画像データに優先度を設定してもよい。
優先度設定部102は、自動運転車両41の周囲にある障害物(他車両及び歩行者)の有無、障害物の位置は、車両センサ画像データを用いても、施設センサ画像データを用いても検知可能である。従って、優先度設定部102は、車両センサ画像データと施設センサ画像データの両方を参照して、危険度を推定し、優先度を設定してもよい。
一方で、車両センサ画像データと施設センサ画像データに同一の障害物が映されていても、車両センサ画像データを用いた障害物の認識結果と施設センサ画像データを用いた障害物の認識結果とが異なる場合がある。図20に示す駐車場200の鳥瞰画像図を用いて、認識結果の違いについて説明する。
図20の車両Bに搭載した車両センサデバイス43と、駐車場施設20に設置されている施設センサデバイス21は同一の障害物である歩行者Aを撮影する。
しかしながら、車両センサデバイス43と施設センサデバイス21は撮影方向が異なるため、図21のように撮影画像も異なる。従って、画像データPの解析及び画像データAの解析のいずれかで誤認識が生じる可能性がある。図21の画像データPにおける歩行者の画像範囲は、画像データAにおける歩行者の画像範囲よりも小さい。小さい画像範囲の対象物を画像認識するのは一般的に困難である。このため、施設センサデバイス21では歩行者を正しく検知できるが、車両Bの車両センサデバイス43では歩行者を検知できない可能性がある。この場合に、優先度設定部102は、画像データPと画像データAとの両者を解析することで、歩行者が歩行していることを正しく認識することができ、正しく危険度を推定することができる。自動運転車両41が走行経路上の障害物を未検知である場合は、危険性が非常に高い。従って、車両センサ画像データに対する解析結果と施設センサ画像データに対す解析結果とが異なる場合には、優先度設定部102は、当該車両センサ画像データの優先度を高くしてもよい。
本実施の形態では、第1の画像データ表示部103及び第2の画像データ表示部202が、表示制御部に相当する。また、第1の画像データ表示部103及び第2の画像データ表示部202により行われる処理が、表示制御処理に相当する。
図22では、表示操作デバイス32に、優先度の順に車両センサ画像データを並べて表示する例を示す。図22の例では、画面の左上の領域に最も優先度の高い車両センサ画像データが表示される。右上の領域に2番目に優先度が高い車両センサ画像データが表示される。左下の領域に3番目に優先度が高い車両センサ画像データが表示される。右下の領域には最も優先度の低い車両センサ画像データが表示される。
また、監視装置31がn(n≧3)個の車両センサデバイス43により得られたn個の車両センサ画像データを受信している場合に、第2の画像データ表示部202は、優先度に基づき、m(2≦m<n)個の車両センサ画像データを選択し、m個の車両センサ画像データのみを表示操作デバイス32に表示させるようにしてもよい。
図23は、優先度に応じて車両センサ画像データの表示サイズを変化させている例を示す。
図23の例では、優先度が高い車両センサ画像データほど表示サイズが大きい。
図24は、鳥瞰画像図生成部106が生成する鳥瞰画像図と連動させて、第2の画像データ表示部202が車両センサ画像データを表示する例を示す。
図24では、テーブル型表示操作デバイス321に駐車場200の鳥瞰画像図が表示され、複数台の表示操作デバイス322に複数の車両センサ画像データが表示されている。
なお、第1の画像データ表示部103は、鳥瞰画像図に車両センサ画像データに挿入してもよい。
また、鳥瞰画像図では、実施の形態1と同様に優先度が高い部分が強調表示される。また、第2の画像データ表示部202は、鳥瞰画像図で強調表示された部分に対応する車両センサ画像データを表示操作デバイス322に表示してもよい。
***動作の説明***
次に、本実施の形態に係る監視装置31の動作例を説明する。
図25は、施設センサ画像データの取得から施設センサ画像データの表示までの監視装置31の手順を示すフローチャートである。
つまり、図22のように車両センサ画像データを表示する場合は、第2の画像データ表示部202は、左上の領域に最も優先度の高い画像データQを表示し、右上の領域に2番目に優先度が高い画像データRを表示するというように、優先度に従った表示形態を決定する。
また、図23のように車両センサ画像データを表示する場合は、第2の画像データ表示部202は、最も優先度の高い画像データQを最も大きく表示し、2番目に優先度が高い画像データRを画像データQよりも小さいサイズで画像データRの右に表示するというように、優先度に従った表示形態を決定する。
本実施の形態によれば、管理者300は、優先度の高い車両センサ画像データに着目して自動運転車両41の走行状況を監視することができる。従って、本実施の形態では、1人の管理者300が複数の自動運転車両41の運転支援を行うことができ、駐車場施設20における自動運転車両による事故を有効に防止することができる。
あるいは、これら2つの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これら2つの実施の形態を部分的に組み合わせて実施しても構わない。
なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
最後に、監視装置31のハードウェア構成の補足説明を行う。
プロセッサ13は、プロセッシングを行うIC(Integrated Circuit)である。
プロセッサ13は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)等である。
ROM15には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がRAM14にロードされ、また、プロセッサ13により読み出される。プロセッサ13は、少なくとも一部のOSを実行する。
プロセッサ13はOSの少なくとも一部を実行しながら、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104、移動制御部105、鳥瞰画像図生成部106、第2の画像データ取得部201及び第2の画像データ表示部202の機能を実現するプログラムを実行する。
プロセッサ13がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
また、監視装置31は、プロセッサ13を代替する複数のプロセッサを備えていてもよい。これら複数のプロセッサは、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104、移動制御部105、鳥瞰画像図生成部106、第2の画像データ取得部201及び第2の画像データ表示部202の機能を実現するプログラムの実行を分担する。それぞれのプロセッサは、プロセッサ13と同じように、プロセッシングを行うICである。
また、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104、移動制御部105、鳥瞰画像図生成部106、第2の画像データ取得部201及び第2の画像データ表示部202の処理の結果を示す情報、データ、信号値及び変数値の少なくともいずれかが、RAM14、プロセッサ13内のレジスタ及びキャッシュメモリの少なくともいずれかに記憶される。
また、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104、移動制御部105、鳥瞰画像図生成部106、第2の画像データ取得部201及び第2の画像データ表示部202の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記憶媒体に記憶されてもよい。
また、監視装置31は、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGAといった電子回路により実現されてもよい。
この場合は、第1の画像データ取得部101、優先度設定部102、第1の画像データ表示部103、制御指示部104、移動制御部105、鳥瞰画像図生成部106、第2の画像データ取得部201及び第2の画像データ表示部202は、それぞれ電子回路の一部として実現される。
なお、プロセッサ及び上記の電子回路を総称してプロセッシングサーキットリーともいう。
Claims (15)
- 自動運転車両が自動走行する施設内の異なる領域が映された複数の画像データを取得する画像データ取得部と、
前記複数の画像データの各々に映されている状況を解析して、各画像データに優先度を設定する優先度設定部と、
前記複数の画像データを合成して鳥瞰画像図を生成し、前記優先度設定部により設定された優先度が規定の条件に合致する画像データが反映されている前記鳥瞰画像図の部分を強調表示する表示制御部とを有する情報処理装置。 - 前記優先度設定部は、
各画像データに映されている状況を解析して、各画像データに映されている領域の危険度を推定し、推定した危険度に基づき各画像データに優先度を設定する請求項1に記載の情報処理装置。 - 前記画像データ取得部は、
1つ以上の自動運転車両が自動走行し、1人以上の歩行者が歩行する施設内の異なる領域が映された複数の画像データを取得し、
前記優先度設定部は、
各画像データに映されている状況として、自動運転車両の状況及び歩行者の状況を解析して、各画像データに映されている領域の危険度を推定する請求項2に記載の情報処理装置。 - 前記画像データ取得部は、
前記施設に所在する複数の自動走行車両に設置されている複数のセンサデバイスで生成された複数の画像データを取得する請求項1に記載の情報処理装置。 - 自動運転車両が自動走行する施設に設置されている複数のセンサデバイスで生成された、前記施設内の異なる領域が映された複数の画像データである複数の施設センサ画像データを取得し、前記施設に所在する複数の自動走行車両に設置されている複数のセンサデバイスで生成された複数の画像データである複数の車両センサ画像データを取得する画像データ取得部と、
前記複数の施設センサ画像データと前記複数の車両センサ画像データとを解析して、各施設センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各施設センサ画像データに優先度を設定する優先度設定部と、
前記優先度設定部により設定された優先度に従い、前記複数の施設センサ画像データを表示する際の表示形態を決定する表示制御部とを有する情報処理装置。 - 自動運転車両が自動走行する施設に設置されている複数のセンサデバイスで生成された、前記施設内の異なる領域が映された複数の画像データである複数の施設センサ画像データを取得し、前記施設に所在する複数の自動走行車両に設置されている複数のセンサデバイスで生成された複数の画像データである複数の車両センサ画像データを取得する画像データ取得部と、
前記複数の施設センサ画像データと前記複数の車両センサ画像データとを解析して、各車両センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各車両センサ画像データに優先度を設定する優先度設定部と、
前記優先度設定部により設定された優先度に従い、前記複数の車両センサ画像データを表示する際の表示形態を決定する表示制御部とを有する情報処理装置。 - 前記情報処理装置は、更に、
前記自動運転車両の走行停止を指示する制御指示部を有する請求項1、5又は6に記載の情報処理装置。 - 前記情報処理装置は、更に、
走行経路を指定するとともに、前記走行経路に沿った前記自動運転車両の走行を指示する制御指示部を有する請求項1、5又は6に記載の情報処理装置。 - 前記情報処理装置は、更に、
前記施設に複数の自動運転車両が所在する場合に、前記複数の自動運転車両の走行停止を指示する制御指示部を有する請求項1、5又は6に記載の情報処理装置。 - コンピュータが、自動運転車両が自動走行する施設内の異なる領域が映された複数の画像データを取得し、
前記コンピュータが、前記複数の画像データの各々に映されている状況を解析して、各画像データに優先度を設定し、
前記コンピュータが、前記複数の画像データを合成して鳥瞰画像図を生成し、設定された優先度が規定の条件に合致する画像データが反映されている前記鳥瞰画像図の部分を強調表示する情報処理方法。 - コンピュータが、自動運転車両が自動走行する施設に設置されている複数のセンサデバイスで生成された、前記施設内の異なる領域が映された複数の画像データである複数の施設センサ画像データを取得し、前記施設に所在する複数の自動走行車両に設置されている複数のセンサデバイスで生成された複数の画像データである複数の車両センサ画像データを取得し、
前記コンピュータが、前記複数の施設センサ画像データと前記複数の車両センサ画像データとを解析して、各施設センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各施設センサ画像データに優先度を設定し、
前記コンピュータが、設定された優先度に従い、前記複数の施設センサ画像データを表示する際の表示形態を決定する情報処理方法。 - コンピュータが、自動運転車両が自動走行する施設に設置されている複数のセンサデバイスで生成された、前記施設内の異なる領域が映された複数の画像データである複数の施設センサ画像データを取得し、前記施設に所在する複数の自動走行車両に設置されている複数のセンサデバイスで生成された複数の画像データである複数の車両センサ画像データを取得し、
前記コンピュータが、前記複数の施設センサ画像データと前記複数の車両センサ画像データとを解析して、各車両センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各車両センサ画像データに優先度を設定し、
前記コンピュータが、設定された優先度に従い、前記複数の車両センサ画像データを表示する際の表示形態を決定する情報処理方法。 - 自動運転車両が自動走行する施設内の異なる領域が映された複数の画像データを取得する画像データ取得処理と、
前記複数の画像データの各々に映されている状況を解析して、各画像データに優先度を設定する優先度設定処理と、
前記複数の画像データを合成して鳥瞰画像図を生成し、前記優先度設定処理により設定された優先度が規定の条件に合致する画像データが反映されている前記鳥瞰画像図の部分を強調表示する表示制御処理とをコンピュータに実行させる情報処理プログラム。 - 自動運転車両が自動走行する施設に設置されている複数のセンサデバイスで生成された、前記施設内の異なる領域が映された複数の画像データである複数の施設センサ画像データを取得し、前記施設に所在する複数の自動走行車両に設置されている複数のセンサデバイスで生成された複数の画像データである複数の車両センサ画像データを取得する画像データ取得処理と、
前記複数の施設センサ画像データと前記複数の車両センサ画像データとを解析して、各施設センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各施設センサ画像データに優先度を設定する優先度設定処理と、
前記優先度設定処理により設定された優先度に従い、前記複数の施設センサ画像データを表示する際の表示形態を決定する表示制御処理とをコンピュータに実行させる情報処理プログラム。 - 自動運転車両が自動走行する施設に設置されている複数のセンサデバイスで生成された、前記施設内の異なる領域が映された複数の画像データである複数の施設センサ画像データを取得し、前記施設に所在する複数の自動走行車両に設置されている複数のセンサデバイスで生成された複数の画像データである複数の車両センサ画像データを取得する画像データ取得処理と、
前記複数の施設センサ画像データと前記複数の車両センサ画像データとを解析して、各車両センサ画像データに映されている領域の危険度を推定し、推定した危険度に基づき各車両センサ画像データに優先度を設定する優先度設定処理と、
前記優先度設定処理により設定された優先度に従い、前記複数の車両センサ画像データを表示する際の表示形態を決定する表示制御処理とをコンピュータに実行させる情報処理プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/010502 WO2018167891A1 (ja) | 2017-03-15 | 2017-03-15 | 情報処理装置、情報処理方法及び情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6227211B1 true JP6227211B1 (ja) | 2017-11-08 |
JPWO2018167891A1 JPWO2018167891A1 (ja) | 2019-03-28 |
Family
ID=60265754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017539046A Active JP6227211B1 (ja) | 2017-03-15 | 2017-03-15 | 情報処理装置、情報処理方法及び情報処理プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11366477B2 (ja) |
JP (1) | JP6227211B1 (ja) |
CN (1) | CN110419211B (ja) |
DE (1) | DE112017007050B4 (ja) |
WO (1) | WO2018167891A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019128687A (ja) * | 2018-01-22 | 2019-08-01 | トヨタホーム株式会社 | 監視システム |
JP2020061120A (ja) * | 2018-10-05 | 2020-04-16 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報処理方法、及び、情報処理システム |
JP2022034034A (ja) * | 2020-12-25 | 2022-03-02 | アポロ インテリジェント コネクティビティ (ベイジン) テクノロジー カンパニー リミテッド | 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110678775B (zh) * | 2017-06-01 | 2023-07-14 | 三菱电机株式会社 | 物体检测装置、物体检测方法以及计算机能读取的存储介质 |
JP6989429B2 (ja) * | 2018-03-28 | 2022-01-05 | 株式会社東芝 | 隊列走行運用システムおよび隊列走行運用方法 |
CN111038521A (zh) * | 2018-10-11 | 2020-04-21 | 顾泽苍 | 一种自动驾驶“意识决定”模型的构成方法 |
KR102651410B1 (ko) * | 2018-12-28 | 2024-03-28 | 현대자동차주식회사 | 자율 발렛 주차를 지원하는 시스템 및 방법, 그리고 이를 위한 인프라 및 차량 |
CN113614805B (zh) * | 2019-03-29 | 2024-01-30 | 本田技研工业株式会社 | 显示控制装置、显示控制方法以及存储介质 |
JP7363084B2 (ja) * | 2019-04-24 | 2023-10-18 | 三菱電機株式会社 | 制御システム |
US20220219687A1 (en) * | 2019-05-14 | 2022-07-14 | Volkswagen Aktiengesellschaft | Method for Detecting a Potential Collision by a Vehicle with a Living Thing, and Car Park Management System |
DE102019114673A1 (de) * | 2019-05-31 | 2020-12-03 | Fraba B.V. | Fahrzeugsteueranordnung zur automatischen Steuerung von mindestens einem Fahrzeug sowie Verfahren zu dessen Steuerung |
JP2021149704A (ja) * | 2020-03-19 | 2021-09-27 | 本田技研工業株式会社 | 収容領域管理装置 |
CN111524347B (zh) * | 2020-04-13 | 2022-05-06 | 东风柳州汽车有限公司 | 一种预介入的远程遥控泊车控制方法 |
JP7416219B2 (ja) * | 2020-04-16 | 2024-01-17 | 日本電信電話株式会社 | 映像配信装置、映像配信方法及びプログラム |
JP7420279B2 (ja) * | 2020-09-30 | 2024-01-23 | 株式会社デンソー | 中継装置、データ中継方法、及びデータ中継プログラム |
CN112885087A (zh) * | 2021-01-22 | 2021-06-01 | 北京嘀嘀无限科技发展有限公司 | 确定路况信息的方法、装置、设备和介质和程序产品 |
JP2022174620A (ja) * | 2021-05-11 | 2022-11-24 | トヨタ自動車株式会社 | 車両管理システム及び車両管理方法 |
US20230249588A1 (en) * | 2022-02-10 | 2023-08-10 | Matthew BAYES | Vehicle seat adjustment system and method |
WO2023188702A1 (ja) * | 2022-03-28 | 2023-10-05 | 日本電気株式会社 | 制御装置、制御方法、および記録媒体 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010117800A (ja) * | 2008-11-11 | 2010-05-27 | Toshiba It & Control Systems Corp | 駐車場監視装置及び方法 |
JP2015072651A (ja) * | 2013-10-04 | 2015-04-16 | 株式会社デンソーアイティーラボラトリ | 交通制御システム、交通制御方法、およびプログラム |
JP2015228152A (ja) * | 2014-06-02 | 2015-12-17 | 住友電気工業株式会社 | 通信方法、路側装置、移動通信機、車両、車両の制御装置、及び車両の動作決定方法 |
JP2016173682A (ja) * | 2015-03-16 | 2016-09-29 | シャープ株式会社 | 異常判定装置および異常判定方法 |
WO2017002471A1 (ja) * | 2015-07-02 | 2017-01-05 | ソニー株式会社 | 車両制御装置と車両制御方法およびプログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100429101C (zh) * | 2005-09-09 | 2008-10-29 | 中国科学院自动化研究所 | 汽车行驶安全监控系统及监控方法 |
CN101710943A (zh) * | 2009-12-14 | 2010-05-19 | 奇瑞汽车股份有限公司 | 一种汽车全景与夜视显示方法及装置 |
JP2012126193A (ja) | 2010-12-14 | 2012-07-05 | Denso Corp | 駐車場の自動駐車システム |
US9400183B1 (en) * | 2011-11-10 | 2016-07-26 | Google Inc. | Method and apparatus to transition between levels using warp zones |
DE102012200636A1 (de) * | 2012-01-17 | 2013-07-18 | Robert Bosch Gmbh | Anzeigesystem für ein Fahrzeug |
US9129524B2 (en) * | 2012-03-29 | 2015-09-08 | Xerox Corporation | Method of determining parking lot occupancy from digital camera images |
DE102012222562A1 (de) * | 2012-12-07 | 2014-06-12 | Robert Bosch Gmbh | System für bewirtschaftete Parkflächen zur Überführung eines Fahrzeugs von einer Startposition in eine Zielposition |
JP6120371B2 (ja) | 2013-10-23 | 2017-04-26 | クラリオン株式会社 | 自動駐車制御装置および駐車支援装置 |
JP5983680B2 (ja) | 2014-06-06 | 2016-09-06 | トヨタ自動車株式会社 | 自動駐車システム |
JP6354542B2 (ja) | 2014-11-26 | 2018-07-11 | 株式会社デンソー | 車両自動運転システム |
KR101850795B1 (ko) * | 2015-11-09 | 2018-04-20 | 엘지전자 주식회사 | 주차 수행 장치 및 차량 |
CN205609015U (zh) * | 2016-03-18 | 2016-09-28 | 邦奇智能科技(上海)有限公司 | 一种基于图像识别的停车管理系统 |
CN205862609U (zh) * | 2016-08-01 | 2017-01-04 | 北京博锐尚格节能技术股份有限公司 | 停车场调度系统 |
US20180178840A1 (en) * | 2016-12-28 | 2018-06-28 | Automotive Research & Testing Center | Automatic vehicle parking assistance correcting system with instant environmental detection and correcting method thereof |
-
2017
- 2017-03-15 US US16/475,576 patent/US11366477B2/en active Active
- 2017-03-15 CN CN201780088182.4A patent/CN110419211B/zh not_active Expired - Fee Related
- 2017-03-15 JP JP2017539046A patent/JP6227211B1/ja active Active
- 2017-03-15 DE DE112017007050.3T patent/DE112017007050B4/de not_active Expired - Fee Related
- 2017-03-15 WO PCT/JP2017/010502 patent/WO2018167891A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010117800A (ja) * | 2008-11-11 | 2010-05-27 | Toshiba It & Control Systems Corp | 駐車場監視装置及び方法 |
JP2015072651A (ja) * | 2013-10-04 | 2015-04-16 | 株式会社デンソーアイティーラボラトリ | 交通制御システム、交通制御方法、およびプログラム |
JP2015228152A (ja) * | 2014-06-02 | 2015-12-17 | 住友電気工業株式会社 | 通信方法、路側装置、移動通信機、車両、車両の制御装置、及び車両の動作決定方法 |
JP2016173682A (ja) * | 2015-03-16 | 2016-09-29 | シャープ株式会社 | 異常判定装置および異常判定方法 |
WO2017002471A1 (ja) * | 2015-07-02 | 2017-01-05 | ソニー株式会社 | 車両制御装置と車両制御方法およびプログラム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019128687A (ja) * | 2018-01-22 | 2019-08-01 | トヨタホーム株式会社 | 監視システム |
JP2020061120A (ja) * | 2018-10-05 | 2020-04-16 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 情報処理方法、及び、情報処理システム |
JP7249879B2 (ja) | 2018-10-05 | 2023-03-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理方法、及び、情報処理システム |
JP2022034034A (ja) * | 2020-12-25 | 2022-03-02 | アポロ インテリジェント コネクティビティ (ベイジン) テクノロジー カンパニー リミテッド | 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム |
JP7351892B2 (ja) | 2020-12-25 | 2023-09-27 | 阿波▲羅▼智▲聯▼(北京)科技有限公司 | 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム |
Also Published As
Publication number | Publication date |
---|---|
DE112017007050B4 (de) | 2020-12-31 |
JPWO2018167891A1 (ja) | 2019-03-28 |
US20210173400A1 (en) | 2021-06-10 |
CN110419211B (zh) | 2020-12-22 |
CN110419211A (zh) | 2019-11-05 |
WO2018167891A1 (ja) | 2018-09-20 |
US11366477B2 (en) | 2022-06-21 |
DE112017007050T5 (de) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6227211B1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
US10303257B2 (en) | Communication between autonomous vehicle and external observers | |
US11067986B2 (en) | Autonomous driving vehicle, method of stopping autonomous driving vehicle, and recording medium | |
JP6830936B2 (ja) | ダイクロイックミラーを使用する、自律走行車のための3d−lidarシステム | |
US9809218B2 (en) | System and method for autonomous valet parking using plenoptic cameras | |
EP3367367B1 (en) | Parking support method and parking support device | |
RU2656933C2 (ru) | Способ и устройство для предупреждения о встречном транспортном средстве | |
JP2018079916A (ja) | 自律走行車(adv)用のビジュアルコミュニケーションシステム | |
KR102215428B1 (ko) | 주차 제어 방법 및 주차 제어 장치 | |
US10733879B2 (en) | Roadside device, method of controlling roadside device and non-transitory storage medium | |
US20170116862A1 (en) | Driving support apparatus and driving support method | |
RU2744447C1 (ru) | Способ управления парковкой и аппаратура управления парковкой | |
JP6584632B2 (ja) | 駐車支援装置 | |
JPWO2018235274A1 (ja) | 駐車制御方法及び駐車制御装置 | |
US11485354B2 (en) | Parking control method and parking control device | |
RU2746684C1 (ru) | Способ управления парковкой и оборудование управления парковкой | |
JP2020530618A (ja) | 自律車両の通知のシステムと方法 | |
EP3693230A1 (en) | Parking control method and parking control device | |
US20190189014A1 (en) | Display control device configured to control projection device, display control method for controlling projection device, and vehicle | |
JP2019174992A (ja) | 情報処理装置及びプログラム | |
JP2019166992A (ja) | 車両制御装置およびコンピュータプログラム | |
JP6996228B2 (ja) | 駐車制御方法及び駐車制御装置 | |
TW201025218A (en) | Traffic information system, and its providing method and computer program product | |
JP2021179759A (ja) | 電子制御装置 | |
JP2019009599A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170724 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170724 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170724 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170901 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171010 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6227211 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |