JP2018041176A - 駐車位置特定方法、駐車位置学習方法、駐車位置特定システム、駐車位置学習装置およびプログラム - Google Patents

駐車位置特定方法、駐車位置学習方法、駐車位置特定システム、駐車位置学習装置およびプログラム Download PDF

Info

Publication number
JP2018041176A
JP2018041176A JP2016173177A JP2016173177A JP2018041176A JP 2018041176 A JP2018041176 A JP 2018041176A JP 2016173177 A JP2016173177 A JP 2016173177A JP 2016173177 A JP2016173177 A JP 2016173177A JP 2018041176 A JP2018041176 A JP 2018041176A
Authority
JP
Japan
Prior art keywords
parking
parking position
vehicle
area
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016173177A
Other languages
English (en)
Other versions
JP6761708B2 (ja
Inventor
谷川 徹
Toru Tanigawa
徹 谷川
幸恵 庄田
Yukie Shoda
幸恵 庄田
哲司 渕上
Tetsuji Fuchigami
哲司 渕上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to JP2016173177A priority Critical patent/JP6761708B2/ja
Priority to US15/671,767 priority patent/US10650681B2/en
Publication of JP2018041176A publication Critical patent/JP2018041176A/ja
Application granted granted Critical
Publication of JP6761708B2 publication Critical patent/JP6761708B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/145Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
    • G08G1/146Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is a limited parking space, e.g. parking garage, restricted space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/145Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
    • G08G1/147Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is within an open public zone, e.g. city centre
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Abstract

【課題】適切な駐車位置を特定することができる駐車位置特定方法を提供する。【解決手段】この駐車位置特定方法は、対象車両に搭載されたカメラによる駐車領域の撮影によって生成される画像である入力データを取得するステップS13と、入力データを、少なくとも1台の車両が駐車可能な広さを有する駐車領域とその駐車領域における車両1台分の駐車位置との関係を示す学習モデルに入力することによって、撮影された駐車領域における対象車両の駐車位置を特定するステップS14とを含む。【選択図】図10A

Description

本発明は、車両の駐車位置を特定する駐車位置特定方法、および駐車位置を学習する駐車位置学習方法などに関する。
車両の運転者がその車両を駐車場に駐車するときに、白線などの目印がその駐車場に有る場合には、運転者はその目印にしたがって駐車位置を認識し、その駐車位置に車両を停める。しかし、白線などの目印が無い場合には、運転者は、駐車場の何処に車両を停めていいのか判断することが難しい。
そこで、白線などの目印がなくても駐車位置を提示することができる駐車支援装置が提案されている(例えば特許文献1参照)。
特開2006−160194号公報
しかしながら、上記特許文献1に記載の駐車支援装置では、適切な駐車位置を特定することができないという問題がある。
そこで、本発明は、適切な駐車位置を特定することができる駐車位置特定方法などを提供する。
本発明の一態様に係る駐車位置特定方法は、少なくとも1つのコンピュータが対象車両の駐車位置を特定する駐車位置特定方法であって、前記対象車両に搭載されたカメラによる駐車領域の撮影によって生成される画像である入力データを取得し、前記入力データを、少なくとも1台の車両が駐車可能な広さを有する駐車領域と前記駐車領域における車両1台分の駐車位置との関係を示す学習モデルに入力することによって、撮影された前記駐車領域における前記対象車両の駐車位置を特定する。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本発明の駐車位置特定方法は、適切な駐車位置を特定することができる。
図1は、実施の形態における駐車位置特定システムの構成を示す図である。 図2は、実施の形態におけるサーバの機能構成を示すブロック図である。 図3は、実施の形態における訓練データ取得部の処理動作の一例を説明するための図である。 図4は、実施の形態における訓練データ取得部の処理動作の他の例を説明するための図である。 図5は、実施の形態における車両の機能構成を示すブロック図である。 図6は、実施の形態における提示装置によって表示される出力データの一例を示す図である。 図7は、実施の形態における駐車位置特定システムによる効果の一例を説明するための図である。 図8Aは、実施の形態におけるサーバの処理動作を示すフローチャートである。 図8Bは、実施の形態における車載機器の処理動作を示すフローチャートである。 図9Aは、本発明の一態様に係る駐車位置学習方法を示すフローチャートである。 図9Bは、本発明の一態様に係る駐車位置学習装置の機能構成を示すブロック図である。 図10Aは、本発明の一態様に係る駐車位置特定方法を示すフローチャートである。 図10Bは、本発明の一態様に係る駐車位置特定システムの機能構成を示すブロック図である。 図11Aは、本発明の他の態様に係る駐車位置特定方法を示すフローチャートである。 図11Bは、本発明の一態様に係る駐車位置特定装置の機能構成を示すブロック図である。
(本発明の基礎となった知見)
本発明者は、「背景技術」の欄において記載した特許文献1の駐車支援装置に関し、以下の問題が生じることを見出した。
つまり、その駐車支援装置が駐車位置を特定するときには、まず、カメラによる撮影によって得られた画像から白線を検出することができるか否かを判定する。そして、白線を検出することができないと判定すると、駐車支援装置は、その画像から他車両のエッジの検出を行う。駐車支援装置は、このエッジの検出ができた場合に、その他車両の隣接位置に自車両を駐車する駐車位置が存在するか否かを判定する。
したがって、この駐車支援装置による駐車位置特定方法では、他車両の隣のスペースを駐車位置として特定する。
しかし、この駐車位置特定方法では、他車両が駐車場に駐車していなければ、自車両の駐車位置を特定することができないという問題がある。また、駐車場に他車両が駐車している場合であっても、不適切な位置を駐車位置として特定してしまうことがある。例えば、2台の車両が駐車可能な広さを有する駐車領域があっても、その駐車領域の中央を駐車位置として特定してしまうことがある。このような場合には、その駐車位置に自車両を駐車すると、2台の車両が駐車可能な広さを有する駐車領域であっても、その駐車領域には1台の車両しか駐車することができない。
このような問題を解決するために、本発明の一態様に係る駐車位置特定方法は、少なくとも1つのコンピュータが対象車両の駐車位置を特定する駐車位置特定方法であって、前記対象車両に搭載されたカメラによる駐車領域の撮影によって生成される画像である入力データを取得し、前記入力データを、少なくとも1台の車両が駐車可能な広さを有する駐車領域と前記駐車領域における車両1台分の駐車位置との関係を示す学習モデルに入力することによって、撮影された前記駐車領域における前記対象車両の駐車位置を特定する。例えば、前記学習モデルは、少なくとも1台の車両が駐車可能な広さを有する駐車領域を示す画像に対して、前記駐車領域における車両1台分の駐車位置を示す情報である第1のアノテーションが付与された訓練データを取得し、前記訓練データを用いて駐車領域における車両1台分の駐車位置を学習することによって構築されたものであってもよい。また、前記第1のアノテーションは、前記車両1台分の駐車位置を座標によって示してもよい。
これにより、第1のアノテーションを含む訓練データを用いた学習、つまり駐車領域における車両1台分の駐車位置の学習が行われることによって構築された学習モデルが用いられる。つまり、駐車領域における適切な駐車位置が学習モデルに教え込まれている。例えば、白線などの目印がない駐車領域であっても、その駐車領域における適切な駐車位置が教え込まれている。したがって、対象車両のカメラが駐車領域を撮影したときには、その学習モデルを用いることによって、撮影された駐車領域における対象車両の駐車位置を適切に特定することができる。つまり、白線などの目印がない駐車領域であっても、その駐車領域における対象車両の適切な駐車位置を特定することができる。
また、前記訓練データの取得では、前記駐車領域を示す画像に対して、前記車両1台分の駐車位置における駐車状態を示す情報である第2のアノテーションがさらに付与された前記訓練データを取得し、前記学習モデルは、前記訓練データを用いて、駐車領域における車両の駐車状態をさらに学習することによって構築され、前記駐車位置の特定では、前記入力データを前記学習モデルに入力することによって、前記対象車両の駐車位置における駐車状態をさらに特定してもよい。
これにより、第1および第2のアノテーションを含む訓練データを用いた学習、つまり駐車領域における車両1台分の駐車位置および駐車状態の学習が行われることによって構築された学習モデルが用いられる。つまり、駐車領域における適切な駐車位置および駐車状態が学習モデルに教え込まれている。例えば、白線などの目印がない駐車領域であっても、その駐車領域における適切な駐車位置および駐車状態が教え込まれている。したがって、対象車両のカメラが駐車領域を撮影したときには、その学習モデルを用いることによって、撮影された駐車領域における対象車両の駐車位置および駐車状態を適切に特定することができる。つまり、白線などの目印がない駐車領域であっても、その駐車領域における対象車両の適切な駐車位置および駐車状態を特定することができる。
また、具体的には、前記第2のアノテーションは、前記駐車領域を示す画像における前記車両1台分の駐車位置の周囲に、車両の乗降に対して障害となる乗降障害物が存在する場合に、前記車両1台分の駐車位置と前記乗降障害物との間の距離を前記駐車状態として示し、前記対象車両の駐車位置の特定では、前記入力データを前記学習モデルに入力することによって、前記入力データに映し出されている乗降障害物の周囲に前記対象車両の駐車位置を特定する場合に、前記入力データに映し出されている乗降障害物と前記対象車両の駐車位置との間の距離を、前記対象車両の駐車位置における駐車状態として特定してもよい。例えば、前記乗降障害物は、前記駐車領域を示す画像において前記車両1台分の駐車位置の隣に駐車されている車両であってもよい。
これにより、車両1台分の駐車位置と乗降障害物との間の距離が駐車状態として学習モデルに教え込まれている。したがって、対象車両のカメラが駐車領域を撮影して、乗降障害物の周囲に対象車両の駐車位置を特定した場合には、その乗降障害物と対象車両の駐車位置との間の距離を駐車状態として適切に特定することができる。また、その距離を対象車両の運転者に提示すれば、運転者は、その特定された駐車位置に対象車両を駐車することが可能か否かを、その距離に基づいて判断することができる。つまり、その距離が短い場合、運転者は、その特定された駐車位置に対象車両を駐車すれば、乗降障害物(例えば隣の車両)が障害となって対象車両から降りることができない。したがって、この場合、運転者は、その特定された駐車位置に対象車両を駐車することができないと判断することができる。
また、前記第2のアノテーションは、前記車両1台分の駐車位置における駐車状態として縦列駐車または並列駐車を示し、前記対象車両の駐車位置の特定では、前記入力データを前記学習モデルに入力することによって、前記対象車両の駐車位置における駐車状態として縦列駐車または並列駐車を特定してもよい。また、前記第2のアノテーションは、前記車両1台分の駐車位置における駐車状態として前入れまたは後入れを示し、前記対象車両の駐車位置の特定では、前記入力データを前記学習モデルに入力することによって、前記対象車両の駐車位置における駐車状態として前入れまたは後入れを特定してもよい。また、前記第2のアノテーションは、前記車両1台分の駐車位置における駐車状態として駐車禁止か否かを示し、前記対象車両の駐車位置の特定では、前記入力データを前記学習モデルに入力することによって、前記対象車両の駐車位置における駐車状態として駐車禁止か否かを特定してもよい。また、前記第2のアノテーションは、前記車両1台分の駐車位置における駐車状態として、前記車両1台分の駐車位置に、駐車に対して障害となる駐車障害物があるか否かを示し、前記対象車両の駐車位置の特定では、前記入力データを前記学習モデルに入力することによって、前記対象車両の駐車位置における駐車状態として、前記対象車両の駐車位置に駐車障害物があるか否かを特定してもよい。
また、前記学習モデルは、ニューラルネットワークモデルであってもよい。
これにより、多くの訓練データを取得することによって、適切な駐車位置を特定する精度を高めることができる。
また、本発明の一態様に係る駐車位置学習方法では、コンピュータが対象車両の駐車位置を学習する駐車位置学習方法であって、少なくとも1台の車両が駐車可能な広さを有する駐車領域を示す画像に対して、前記駐車領域における車両1台分の駐車位置を示す情報である第1のアノテーションが付与された訓練データを取得し、前記訓練データを用いて駐車領域における車両1台分の駐車位置を学習することによって、学習モデルを構築してもよい。
これにより、第1のアノテーションを含む訓練データを用いた学習、つまり駐車領域における車両1台分の駐車位置の学習が行われることによって、学習モデルが構築される。その結果、駐車領域における適切な駐車位置を学習モデルに教え込むことができる。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成部材については同じ符号を付している。
(実施の形態)
図1は、本実施の形態における駐車位置特定システムの構成を示す図である。
本実施の形態における駐車位置特定システム10は、少なくとも1つのコンピュータからなるシステムであって、対象車両である車両11の駐車位置を特定する。具体的には、駐車位置特定システム10は、車両11に備えられている車載機器と、その車載機器にインターネットなどの通信網13を介して接続されるサーバ12とを備える。
車両11の車載機器は、カメラを備え、そのカメラによる撮影によって画像を生成する。そして、車載機器は、その画像に駐車領域が映し出されていれば、その駐車領域における車両1台分の駐車位置を特定する。駐車領域は、少なくとも1台の車両が駐車可能な広さを有する駐車場または空き地などである。車載機器は、その駐車位置を特定するために、サーバ12から通信網13を介して学習モデルを取得する。
サーバ12は、表示装置14および入力デバイス15に有線または無線によって接続されている。表示装置14は、液晶ディスプレイまたは有機EL(electroluminescence)ディスプレイを有し、サーバ12からの制御に応じた画像を表示する。入力デバイス15は、例えばキーボードおよびマウスなどからなり、ユーザによる入力操作に応じた操作信号をサーバ12に出力する。
また、サーバ12は、例えば、複数の端末装置から通信網13を介して送信される画像を取得して保存する。具体的には、端末装置は、例えば車両11以外の車両に備えられたカメラによる撮像によって得られた画像をサーバ12に通信網13を介して送信する。このようにサーバ12に送信されて保存された画像が後述の訓練用画像として用いられる。
サーバ12は、保存されている複数の訓練用画像を用いて駐車領域における車両1台分の駐車位置を学習することによって、学習モデルを構築する。そして、サーバ12は、その構築された学習モデルを通信網13を介して車両11に送信する。
図2は、サーバ12の機能構成を示すブロック図である。
サーバ12は、訓練データ取得部120と、学習部127と、モデル格納部128と、制御部129とを備える。
訓練データ取得部120は、駐車位置の学習に用いられる訓練データを取得する。具体的には、訓練データ取得部120は、少なくとも1台の車両が駐車可能な広さを有する駐車領域を示す画像に対して、第1のアノテーションおよび第2のアノテーションを付与することによって訓練データを取得する。
より具体的には、訓練データ取得部120は、画像格納部121と、駐車場情報付与部122と、第1のアノテーション付与部123と、第2のアノテーション付与部124と、訓練データ格納部125とを備える。
画像格納部121は、RAMまたはハードディスクなどのデータを記録するための記録媒体であって、この画像格納部121には、それぞれ例えばカメラによる撮像によって生成された複数の画像が複数の訓練用画像として格納される。
駐車場情報付与部122は、画像格納部121に格納されている訓練用画像ごとに、その訓練用画像に、少なくとも1台の車両が駐車可能な広さを有する駐車領域が示されているか否かを判定する。そして、駐車場情報付与部122は、画像に駐車領域が示されていると判定すると、駐車場情報をその訓練用画像に付与する。なお、駐車場情報付与部122は、駐車領域が示されているか否かの判定を、自動的に行ってもよく、ユーザからの操作に応じて行ってもよい。つまり、駐車場情報付与部122は、訓練用画像を解析することによって、その訓練用画像に駐車領域が示されているか否かを自動的に判定してもよい。または、駐車場情報付与部122は、入力デバイス15から制御部129を介して操作信号を取得し、その操作信号に応じて、その訓練用画像に駐車領域が示されているか否かを判定してもよい。
第1のアノテーション付与部123は、駐車場情報が付与された訓練用画像に対して、第1のアノテーションを付与する。第1のアノテーションは、その訓練用画像に示される駐車領域における車両1台分の駐車位置を示す情報である。具体的には、第1のアノテーション付与部123は、入力デバイス15から制御部129を介して操作信号を取得し、その操作信号に応じて、第1のアノテーションを訓練用画像に付与する。
第2のアノテーション付与部124は、駐車場情報および第1のアノテーションが付与された訓練用画像に対して、車両1台分の駐車位置における駐車状態を示す情報である第2のアノテーションをさらに付与する。具体的には、第2のアノテーション付与部124は、入力デバイス15から制御部129を介して操作信号を取得し、その操作信号に応じて、第2のアノテーションを訓練用画像に付与する。
さらに、第2のアノテーション付与部124は、駐車場情報、第1のアノテーションおよび第2のアノテーションが付与された訓練用画像を訓練データとして訓練データ格納部125に格納する。これにより、訓練データが取得される。
訓練データ格納部125は、RAMまたはハードディスクなどのデータを記録するための記録媒体である。この訓練データ格納部125には、駐車場情報、第1のアノテーションおよび第2のアノテーションが付与された訓練用画像が訓練データとして格納される。
学習部127は、その訓練データを用いて駐車位置を学習する。すなわち、学習部127は、訓練データ格納部125に格納されている訓練データを用いて駐車領域における車両1台分の駐車位置を学習することによって、学習モデルを構築する。学習部127は、構築された学習モデルをモデル格納部128に格納する。具体的には、学習部127における学習は、Deep Learning(Neural Network)、Random Forest、またはGenetic Programmingなどの機械学習である。また、画像中の物体の認識およびセグメンテーションには、グラフカットなどを用いることができる。あるいは、Random ForestまたはGenetic Programmingによって作成された認識器などを用いてもよい。
モデル格納部128は、RAMまたはハードディスクなどのデータを記録するための記録媒体である。このモデル格納部128には、学習部127によって構築された学習モデルが格納される。
制御部129は、入力デバイス15からの操作信号を取得し、その操作信号に応じて訓練データ取得部120、学習部127および表示装置14を制御する。
図3は、訓練データ取得部120の処理動作の一例を説明するための図である。具体的には、図3は、表示装置14に表示される画像を示す。
制御部129は、画像格納部121に格納されている訓練用画像121aと、その訓練用画像121aに対応する情報欄141とを表示装置14に表示させる。なお、訓練用画像121aは、図3に示すように、魚眼レンズの車載カメラによる撮影によって得られた画像であるが、魚眼レンズ以外の他のレンズのカメラによる撮影によって得られた画像であってもよい。
例えば、サーバ12のユーザは、表示装置14に表示されている訓練用画像121aに駐車領域が映し出されているか否かを判断する。そして、ユーザは、駐車領域が映し出されていると判断すると、入力デバイス15を操作することによって、情報欄141に含まれている駐車領域の「あり」に対応付けられているラジオボタンを選択する。その結果、駐車場情報付与部122は、その訓練用画像121aに対して駐車場情報を付与して、その駐車場情報が付与された訓練用画像121aを第1のアノテーション付与部123に出力する。
次に、ユーザは、入力デバイス15を操作することによって、車両1台分の駐車位置を示す枠123aを訓練用画像121a上の駐車領域内に描く。枠123aは、例えば赤い四角形である。また、この枠123aは、具体的には、入力デバイス15からの操作信号に応じた制御部129による描画処理によって描かれる。
このような枠123aが描かれると、第1のアノテーション付与部123は、その訓練用画像121aにおける枠123aの座標を訓練用画像121aに付与する。つまり、第1のアノテーション付与部123は、訓練用画像121aに示されている駐車領域における車両1台分の駐車位置を示す情報である第1のアノテーションを、その訓練用画像121aに付与する。枠123aの座標、すなわち第1のアノテーションは、例えば枠123aの4つの頂点の座標からなる。制御部129は、その4つの頂点(頂点1〜頂点4)のそれぞれの座標を、駐車位置の座標として表示装置14の情報欄141内に表示させる。
次に、ユーザは、その枠123aの駐車位置における駐車状態を示す情報である第2のアノテーションを、入力デバイス15を操作することによってサーバ12に入力する。制御部129は、その第2のアノテーションを付属情報1〜6として表示装置14の情報欄141内に表示させる。また、第2のアノテーション付与部124は、その第2のアノテーションを訓練用画像121aに付与する。
具体的には、第2のアノテーションである付属情報1は、その駐車位置における駐車状態として縦列駐車または並列駐車を示す。例えば、その駐車位置での駐車状態が並列駐車であれば、ユーザは、入力デバイス15を操作することによって、情報欄141に含まれている付属情報1の「並列駐車」に対応付けられているラジオボタンを選択する。その結果、第2のアノテーション付与部124は、その訓練用画像121aに対して付属情報1「並列駐車」を付与する。
付属情報2は、その駐車位置における駐車状態として前入れまたは後入れ(すなわち「車庫入れ前向き」または「車庫入れ後向き」)を示す。例えば、その駐車位置での駐車状態が前入れであれば、ユーザは、入力デバイス15を操作することによって、情報欄141に含まれている付属情報2の「車庫入れ前向き」に対応付けられているラジオボタンを選択する。その結果、第2のアノテーション付与部124は、その訓練用画像121aに対して付属情報2「車庫入れ前向き」を付与する。
付属情報3は、その駐車位置における駐車状態として、その駐車位置に駐車障害物があるか否か(すなわち「障害物あり」または「障害物なし」)を示す。駐車障害物は、例えばロードコーンまたはパイロンなどの駐車に対して障害となる物である。具体的には、その駐車位置に駐車障害物がなければ、ユーザは、入力デバイス15を操作することによって、情報欄141に含まれている付属情報3の「障害物なし」に対応付けられているラジオボタンを選択する。その結果、第2のアノテーション付与部124は、その訓練用画像121aに対して付属情報3「障害物なし」を付与する。
付属情報4は、その駐車位置における駐車状態として駐車禁止か否か(すなわち「駐車スペース」または「駐車禁止スペース」)を示す。具体的には、その駐車位置に例えば「駐車禁止」の文字が描かれていなければ、ユーザは、入力デバイス15を操作することによって、情報欄141に含まれている付属情報4の「駐車スペース」に対応付けられているラジオボタンを選択する。その結果、第2のアノテーション付与部124は、その訓練用画像121aに対して付属情報4「駐車スペース」を付与する。
付属情報5は、その駐車位置における駐車状態として、その駐車位置と乗降障害物との間の距離を示す。乗降障害物は、例えば、その駐車位置の隣に駐車されている車両などであって、車両の乗降に対して障害となる物である。つまり、この付属情報5は、訓練用画像121aにおける駐車位置周辺にその乗降障害物がある場合に、その駐車位置と乗降障害物との間の距離を示す。具体的には、駐車位置の隣に乗降障害物となる車両が駐車されていれば、ユーザは、入力デバイス15を操作することによって、その距離L(cm)を入力する。その結果、第2のアノテーション付与部124は、その訓練用画像121aに対して付属情報5「距離L(cm)」を付与する。
付属情報6は、その駐車位置における駐車状態としてガイドラインがあるか否か(すなわち「ガイドラインあり」または「ガイドラインなし」)を示す。具体的には、その駐車位置に例えば白線などのガイドラインが描かれていなければ、ユーザは、入力デバイス15を操作することによって、情報欄141に含まれている付属情報6の「ガイドラインなし」に対応付けられているラジオボタンを選択する。その結果、第2のアノテーション付与部124は、その訓練用画像121aに対して付属情報6「ガイドラインなし」を付与する。
図4は、訓練データ取得部120の処理動作の他の例を説明するための図である。具体的には、図4は、表示装置14に表示される画像を示す。
制御部129は、画像格納部121に格納されている他の訓練用画像121bと、その訓練用画像121bに対応する情報欄141とを表示装置14に表示させる。なお、訓練用画像121bは、図4に示すように、魚眼レンズの車載カメラによる撮影によって得られた画像であるが、図3の訓練用画像121aと同様、魚眼レンズ以外の他のレンズのカメラによる撮影によって得られた画像であってもよい。
ユーザは、図4に示すように、訓練用画像121bに示される駐車領域が広ければ、入力デバイス15を操作することによって、それぞれ車両1台分の駐車位置を示す複数の枠を訓練用画像121b上の駐車領域内に描いてもよい。つまり、第1のアノテーション付与部123は、訓練用画像121bに対して複数の第1のアノテーションを付与してもよい。
この場合、第2のアノテーション付与部124は、第1のアノテーションによって示される駐車位置ごとに、その駐車位置における駐車状態を示す第2のアノテーションを付与する。
また、ユーザは、例えば、その訓練用画像121bに描かれた枠123bの駐車位置における駐車状態を示す情報である第2のアノテーションを、入力デバイス15を操作することによってサーバ12に入力する。ここで、その駐車位置には「駐車禁止」が示されている。したがって、第2のアノテーション付与部124は、第2のアノテーションとして付属情報4「駐車禁止スペース」を、その枠123b(すなわち第1のアノテーション)に対応付けて訓練用画像121bに付与する。
図5は、車両11の機能構成を示すブロック図である。
車両11は、上述の車載機器110と、車両駆動機構115とを備える。
車載機器110は、カメラ111と、認識器112と、提示装置113と、車両制御装置114とを備える。
カメラ111は、例えば車両11の前側、左側、右側または後側を撮影するようにその車両11に搭載されている。そして、カメラ111は、駐車領域を撮影したときには、その撮影によって生成される画像である入力データを認識器112に出力する。
認識器112は、サーバ12から通信網13を介して学習モデルを取得して保持している。認識器112は、車両11に搭載されたカメラ111による駐車領域の撮影によって生成される画像である入力データを取得する。このとき、認識器112は、その入力データを学習モデルに入力することによって、撮影された駐車領域における車両11の駐車位置および駐車状態を特定する。具体的には、認識器112は、乗降障害物とその駐車位置との間の距離、縦列駐車または並列駐車、前入または後入れ、駐車禁止か否か、および、駐車障害物があるか否かを、それぞれ駐車状態として特定する。
さらに、認識器112は、その特定された駐車位置および駐車状態を示す出力データを提示装置113と車両制御装置114とに出力する。出力データは、例えば、その特定された駐車位置を示す枠が重畳された入力データである提示画像と、その特定された駐車状態を示す駐車状態情報とからなる。
提示装置113は、例えば液晶ディスプレイまたは有機ELディスプレイとして構成され、認識器112から出力データを取得すると、その出力データを表示する。つまり、提示装置113は、提示画像と駐車状態情報とを表示する。これにより、カメラ111によって撮影された駐車領域において特定された車両11の駐車位置が、提示画像によって車両11の運転者に対して提示される。さらに、その駐車位置において特定された駐車状態が、駐車状態情報によって車両11の運転者に対して提示される。
車両制御装置114は、認識器112から出力データを取得すると、その出力データの提示画像に示される駐車領域における枠の位置、つまり特定された駐車位置に車両11が駐車されるように、車両駆動機構115を制御する。車両駆動機構115は、エンジン、車軸およびステアリングなどにより構成され、車両11を任意の方向に走行させるための機構である。このような車両制御装置114による制御によって、車両11は、自動的に走行してその特定された駐車位置に、特定された駐車状態で駐車する。
図6は、提示装置113によって表示される出力データの一例を示す図である。
認識器112は、入力データを学習モデルに入力することによって、例えば複数の駐車位置と、その複数の駐車位置のそれぞれに対応する駐車状態を特定する。このとき、認識器112は、特定された複数の駐車位置を示す枠112a〜112dが重畳された入力データである提示画像112xと、その複数の駐車位置のそれぞれに対応する駐車状態を示す駐車状態情報とからなる出力データを出力する。
提示装置113は、その出力データを取得すると、その出力データに含まれる提示画像112xを表示する。ここで、提示装置113は、車両11の運転者による操作に応じて、複数の枠112a〜112dのうちの何れかの枠(例えば、枠112a)が選択されると、その選択された枠112aと、選択されなかった枠112b〜112dとの表示形態を変更する。例えば、提示装置113は、選択された枠112aを赤色の実線で示し、選択されなかった枠112b〜112dを赤色の点線で示す。そして、提示装置113は、その枠112aに対応する駐車位置における駐車状態情報112aaを表示する。
駐車状態情報112aaは、例えば、並列駐車、前入れ(すなわち、車庫入れ前向き)、障害物なし、駐車スペース、隣車両との間の距離L(cm)、および、ガイドラインなしを、それぞれ枠112aの駐車位置における駐車状態として示す。
このように、駐車位置が特定されて、その駐車位置が枠112aとして表示されるため、車両11の運転者は、白線などの目印がなくても、その駐車位置に車両11を駐車すればよいと判断することができる。また、その駐車位置における駐車状態として、「並列駐車」、「車庫入れ前向き」、「障害物なし」、「駐車スペース」、「隣車両との距離(L cm)」および「ガイドラインなし」が表示される。したがって、車両11の運転者は、その表示されている駐車状態にしたがって車両11を駐車位置に駐車すればよいと判断することができる。また、「隣車両との距離(L cm)」が表示されるため、その距離が短い場合には、その駐車位置に駐車された車両11から運転者が降りることができないことがある。したがって、その場合には、運転者は、別の駐車位置を選択することができる。
図7は、本実施の形態における駐車位置特定システム10による効果の一例を説明するための図である。
例えば、図7の(a)の点線で示すように、駐車領域の広さが、2台の車両が駐車可能な広さであっても、2台の車両を駐車するための目印となる白線がその駐車領域につけられていない場合がある。このような場合、図7の(b)に示すように、車両は、駐車領域の中央に駐車してしまうことがあり、駐車領域の広さを有効に利用することができない。
しかし、本実施の形態における駐車位置特定システム10では、第1のアノテーション付与部123が、駐車領域を示す画像に対して2つの第1のアノテーションを付与する。これらの第1のアノテーションのそれぞれは、その駐車領域における車両1台分の駐車位置を示す情報である。さらに、第2のアノテーション付与部124が、駐車領域を示す画像のそれぞれの駐車位置に対して第2のアノテーションをさらに付与する。第2のアノテーションは、車両1台分の駐車位置における駐車状態を示す情報である。その結果、訓練データが得られる。そして、学習部127は、その訓練データを用いて駐車領域における車両1台分の駐車位置を学習することによって、学習モデルを構築する。車両11の認識器112は、車両11に搭載されたカメラ111による駐車領域の撮影によって生成される画像である入力データを取得する。そして、認識器112は、その入力データを学習モデルに入力することによって、撮影された駐車領域における車両11の駐車位置を特定する。
その結果、車両11の認識器112は、図7の(c)に示すように、2台の車両が駐車可能な広さを有する駐車領域から、1つの駐車位置ではなく、2つの駐車位置を特定する。これにより、車両11は、そのいずれか一方の駐車位置に駐車することができる。つまり、その駐車領域に2台の車両を駐車することができ、駐車領域の広さを有効に利用することができる。このように、駐車領域において適切な駐車位置を特定して駐車することができる。
図8Aは、本実施の形態におけるサーバ12の処理動作を示すフローチャートである。
サーバ12の駐車場情報付与部122は、まず、画像格納部121から訓練用画像を取得する(ステップS121)。そして、駐車場情報付与部122は、操作信号または画像処理によって、その訓練用画像に駐車領域が示されているか否かを判定する(ステップS122)。ここで、駐車領域が示されていると判定すると(ステップS122のY)、駐車場情報付与部122は、その訓練用画像に対して駐車場情報を付与する(ステップS123)。
次に、第1のアノテーション付与部123は、駐車場情報が付与された訓練用画像に対してさらに、車両1台分の駐車位置を示す情報である第1のアノテーションを付与する(ステップS124)。なお、第1のアノテーション付与部123は、複数の第1のアノテーションを付与してもよい。さらに、第2のアノテーション付与部124は、駐車場情報および第1のアノテーションが付与された訓練用画像に対してさらに、その駐車位置における駐車状態を示す第2のアノテーションを付与する(ステップS125)。なお、訓練用画像に対して複数の第1のアノテーションが付与されている場合には、第2のアノテーション付与部124は、第1のアノテーションによって示される駐車位置ごとに、その駐車位置における駐車状態を示す第2のアノテーションを付与する。そして、第2のアノテーション付与部124は、駐車場情報、第1のアノテーションおよび第2のアノテーションが付与された訓練用画像を訓練データとして訓練データ格納部125に格納する(ステップS127)。
次に、制御部129は、駐車領域があるか否かの判定が行われていない訓練用画像、すなわち未処理の訓練用画像が画像格納部121にあるか否かを判定する(ステップS128)。ここで、未処理の訓練用画像が有ると判定されると(ステップS128のY)、サーバ12は、ステップS121からの処理を繰り返し実行する。一方、未処理の訓練用画像がないと判定されると(ステップS128のN)、学習部127は、訓練データ格納部125に格納されている全ての訓練データを用いて駐車領域における駐車位置を学習する。これにより、学習部127は、駐車位置の学習モデルを構築し、その学習モデルをモデル格納部128に格納する(ステップS129)。
図8Bは、本実施の形態における車載機器110の処理動作を示すフローチャートである。
まず、車載機器110のカメラ111は、撮影することによって入力データを取得する(ステップS111)。次に、認識器112は、その入力データを学習モデルに入力する(ステップS112)。認識器112は、学習モデルからの出力を得ることにより、入力データに示される駐車領域における車両1台分の駐車位置と駐車状態とを特定する(ステップS113)。
提示装置113は、その特定された駐車位置と駐車状態とを提示する(ステップS114)。さらに、車両制御装置114は、車両駆動機構115を制御することにより、つまり自動運転によって、その特定された駐車位置に、その特定された駐車状態で車両11を駐車させる(ステップS115)。
[まとめ]
以上、本発明の態様に係る駐車位置特定方法などについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を実施の形態に施したものも、本発明の範囲内に含まれてもよい。
例えば、上記実施の形態では、駐車場情報および第2のアノテーションを付与したが、これらの情報を付与することなく、第1のアノテーションのみを付与してもよい。
図9Aは、本発明の一態様に係る駐車位置学習方法を示すフローチャートである。
本発明の一態様に係る駐車位置学習方法は、コンピュータが対象車両の駐車位置を学習する方法であって、ステップS11およびS12を含む。ステップS11では、少なくとも1台の車両が駐車可能な広さを有する駐車領域を示す画像(すなわち実施の形態の訓練用画像)に対して、その駐車領域における車両1台分の駐車位置を示す情報である第1のアノテーションが付与された訓練データを取得する。例えば、第1のアノテーションは、その車両1台分の駐車位置を座標によって示す。ステップS12では、訓練データを用いて駐車領域における車両1台分の駐車位置を学習することによって、学習モデルを構築する。
図9Bは、本発明の一態様に係る駐車位置学習装置の機能構成を示すブロック図である。
本発明の一態様に係る駐車位置学習装置20は、対象車両の駐車位置を学習する装置であって、訓練データ取得部21と学習部22とを備える。訓練データ取得部21は、少なくとも1台の車両が駐車可能な広さを有する駐車領域を示す画像(すなわち実施の形態の訓練用画像)に対して、その駐車領域における車両1台分の駐車位置を示す情報である第1のアノテーションが付与された訓練データを取得する。学習部22は、訓練データを用いて駐車領域における車両1台分の駐車位置を学習することによって、学習モデルを構築する。
このような駐車位置学習方法および駐車位置学習装置20では、第1のアノテーションを含む訓練データを用いた学習、つまり駐車領域における車両1台分の駐車位置の学習が行われることによって、学習モデルが構築される。その結果、駐車領域における適切な駐車位置を学習モデルに教え込むことができる。なお、図9Aおよび図9Bに示す駐車位置学習方法および駐車位置学習装置20はそれぞれ、上記実施の形態の図8Aのフローチャートによって示される処理動作および図2に示すサーバ12に相当する。
図10Aは、本発明の一態様に係る駐車位置特定方法を示すフローチャートである。
本発明の一態様に係る駐車位置特定方法は、少なくとも1つのコンピュータが対象車両の駐車位置を特定する方法であって、ステップS13およびS14を含む。ステップS13では、対象車両に搭載されたカメラによる駐車領域の撮影によって生成される画像である入力データを取得する。ステップS14では、その入力データを学習モデルに入力することによって、撮影された駐車領域における対象車両の駐車位置を特定する。学習データは、少なくとも1台の車両が駐車可能な広さを有する駐車領域と前記駐車領域における車両1台分の駐車位置との関係を示す。より具体的には、学習モデルは、少なくとも1台の車両が駐車可能な広さを有する駐車領域を示す画像に対して、その駐車領域における車両1台分の駐車位置を示す情報である第1のアノテーションが付与された訓練データを取得し、その訓練データを用いて駐車領域における車両1台分の駐車位置を学習することによって構築されたものである。
このような駐車位置特定方法では、第1のアノテーションを含む訓練データを用いた学習、つまり駐車領域における車両1台分の駐車位置の学習が行われることによって構築された学習モデルが用いられる。つまり、駐車領域における適切な駐車位置が学習モデルに教え込まれている。例えば、白線などの目印がない駐車領域であっても、その駐車領域における適切な駐車位置が教え込まれている。したがって、対象車両のカメラが駐車領域を撮影したときには、その学習モデルを用いることによって、撮影された駐車領域における対象車両の駐車位置を適切に特定することができる。つまり、白線などの目印がない駐車領域であっても、その駐車領域における対象車両の適切な駐車位置を特定することができる。
また、訓練データの取得では、駐車領域を示す画像に対して、車両1台分の駐車位置における駐車状態を示す情報である第2のアノテーションがさらに付与された上述の訓練データを取得してもよい。この場合、学習モデルは、その訓練データを用いて、駐車領域における車両の駐車状態をさらに学習することによって構築される。また、ステップS14では、入力データをその学習モデルに入力することによって、対象車両の駐車位置における駐車状態をさらに特定する。
これにより、第1および第2のアノテーションを含む訓練データを用いた学習、つまり駐車領域における車両1台分の駐車位置および駐車状態の学習が行われることによって構築された学習モデルが用いられる。つまり、駐車領域における適切な駐車位置および駐車状態が学習モデルに教え込まれている。例えば、白線などの目印がない駐車領域であっても、その駐車領域における適切な駐車位置および駐車状態が教え込まれている。したがって、対象車両のカメラが駐車領域を撮影したときには、その学習モデルを用いることによって、撮影された駐車領域における対象車両の駐車位置および駐車状態を適切に特定することができる。つまり、白線などの目印がない駐車領域であっても、その駐車領域における対象車両の適切な駐車位置および駐車状態を特定することができる。
また、第2のアノテーションは、駐車領域を示す画像における車両1台分の駐車位置の周囲に、車両の乗降に対して障害となる乗降障害物が存在する場合に、その車両1台分の駐車位置と乗降障害物との間の距離を駐車状態として示してもよい。この場合、ステップS14では、入力データを学習モデルに入力することによって、入力データに映し出されている乗降障害物の周囲に対象車両の駐車位置を特定する場合に、その入力データに映し出されている乗降障害物と対象車両の駐車位置との間の距離を、対象車両の駐車位置における駐車状態として特定する。例えば、乗降障害物は、駐車領域を示す画像において車両1台分の駐車位置の隣に駐車されている車両である。
これにより、車両1台分の駐車位置と乗降障害物との間の距離が駐車状態として学習モデルに教え込まれている。したがって、対象車両のカメラが駐車領域を撮影して、乗降障害物の周囲に対象車両の駐車位置を特定した場合には、その乗降障害物と対象車両の駐車位置との間の距離を駐車状態として適切に特定することができる。
また、上述の学習モデルは、例えばニューラルネットワークモデルである。これにより、多くの訓練データを取得することによって、適切な駐車位置を特定する精度を高めることができる。
図10Bは、本発明の一態様に係る駐車位置特定装置の機能構成を示すブロック図である。
本発明の一態様に係る駐車位置特定装置30aは、対象車両の駐車位置を特定する少なくとも1つのコンピュータであって、入力データ取得部23および特定部24を備える。
入力データ取得部23は、対象車両に搭載されたカメラによる駐車領域の撮影によって生成される画像である入力データを取得する。特定部24は、その入力データを、少なくとも1台の車両が駐車可能な広さを有する駐車領域とその駐車領域における車両1台分の駐車位置との関係を示す学習モデルに入力することによって、撮影された駐車領域における対象車両の駐車位置を特定する。
これにより、駐車位置特定装置30aでは、図10Aに示す駐車位置特定方法と同様の効果を得ることができる。
なお、図10Aおよび図10Bに示す駐車位置特定方法および駐車位置特定装置30aはそれぞれ、上記実施の形態の図8Bのフローチャートによって示される処理動作および図5に示す認識器112に相当する。
図11Aは、本発明の他の態様に係る駐車位置特定方法を示すフローチャートである。
本発明の一態様に係る駐車位置特定方法は、少なくとも1つのコンピュータからなるシステムが対象車両の駐車位置を特定する方法であって、ステップS11〜S14を含む。図11AのステップS11およびS12は、図9Aに示すステップS11およびS12と同一の処理であり、図11AのステップS13およびS14は、図10Aに示すステップS13およびS14と同一の処理である。
このような駐車位置特定方法では、第1のアノテーションを含む訓練データを用いた学習、つまり駐車領域における車両1台分の駐車位置の学習が行われることによって、学習モデルが構築される。その結果、駐車領域における適切な駐車位置を学習モデルに教え込むことができる。例えば、白線などの目印がない駐車領域であっても、その駐車領域における適切な駐車位置を教え込むことができる。したがって、対象車両のカメラが駐車領域を撮影したときには、その学習モデルを用いることによって、撮影された駐車領域における対象車両の駐車位置を適切に特定することができる。つまり、白線などの目印がない駐車領域であっても、その駐車領域における対象車両の適切な駐車位置を特定することができる。
図11Bは、本発明の一態様に係る駐車位置特定システムの機能構成を示すブロック図である。
本発明の一態様に係る駐車位置特定システム30は、対象車両の駐車位置を特定する少なくとも1つのコンピュータからなるシステムであって、訓練データ取得部21、学習部22、入力データ取得部23および特定部24を備える。
駐車位置特定システム30の訓練データ取得部21および学習部22は、図9Bに示す駐車位置学習装置20の訓練データ取得部21および学習部22と同一の構成要素である。駐車位置特定システム30の入力データ取得部23および特定部24は、図10Bに示す駐車位置特定装置30aの入力データ取得部23および特定部24と同一の構成要素である。
これにより、駐車位置特定システム30では、図11Aに示す駐車位置特定方法と同様の効果を得ることができる。
なお、図11Aおよび図11Bに示す駐車位置特定方法および駐車位置特定システム30はそれぞれ、上記実施の形態の図8Aおよび図8Bのフローチャートによって示される駐車位置特定方法と、図1に示す駐車位置特定システム10に相当する。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記実施の形態の車載機器110、サーバ12、駐車位置学習装置20、駐車位置特定装置30a、駐車位置特定システム10および30のそれぞれを実現するソフトウェアは、図8A、図8B、図9A、図10Aまたは図11Aに示すフローチャートの各ステップをコンピュータに実行させる。
なお、以下のような場合も本発明に含まれる。
(1)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
(2)上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
(3)上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
(4)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
本発明は、適切な駐車位置を特定することができ、例えば、車載機器、サーバ、およびそれらを含むシステムなどに利用可能である。
10、30 駐車位置特定システム
11 車両
12 サーバ
20 駐車位置学習装置
21 訓練データ取得部
22、127 学習部
23 入力データ取得部
24 特定部
30a 駐車位置特定装置
110 車載機器
111 カメラ
112 認識器
113 提示装置
120 訓練データ取得部
121 画像格納部
122 駐車場情報付与部
123 第1のアノテーション付与部
124 第2のアノテーション付与部
125 訓練データ格納部
128 モデル格納部

Claims (16)

  1. 少なくとも1つのコンピュータが対象車両の駐車位置を特定する駐車位置特定方法であって、
    前記対象車両に搭載されたカメラによる駐車領域の撮影によって生成される画像である入力データを取得し、
    前記入力データを、少なくとも1台の車両が駐車可能な広さを有する駐車領域と前記駐車領域における車両1台分の駐車位置との関係を示す学習モデルに入力することによって、撮影された前記駐車領域における前記対象車両の駐車位置を特定する
    駐車位置特定方法。
  2. 前記学習モデルは、
    少なくとも1台の車両が駐車可能な広さを有する駐車領域を示す画像に対して、前記駐車領域における車両1台分の駐車位置を示す情報である第1のアノテーションが付与された訓練データを取得し、
    前記訓練データを用いて駐車領域における車両1台分の駐車位置を学習することによって構築されたものである、
    請求項1に記載の駐車位置特定方法。
  3. 前記第1のアノテーションは、前記車両1台分の駐車位置を座標によって示す
    請求項2に記載の駐車位置特定方法。
  4. 前記訓練データの取得では、
    前記駐車領域を示す画像に対して、前記車両1台分の駐車位置における駐車状態を示す情報である第2のアノテーションがさらに付与された前記訓練データを取得し、
    前記学習モデルは、
    前記訓練データを用いて、駐車領域における車両の駐車状態をさらに学習することによって構築され、
    前記駐車位置の特定では、
    前記入力データを前記学習モデルに入力することによって、前記対象車両の駐車位置における駐車状態をさらに特定する
    請求項2または3に記載の駐車位置特定方法。
  5. 前記第2のアノテーションは、前記駐車領域を示す画像における前記車両1台分の駐車位置の周囲に、車両の乗降に対して障害となる乗降障害物が存在する場合に、前記車両1台分の駐車位置と前記乗降障害物との間の距離を前記駐車状態として示し、
    前記対象車両の駐車位置の特定では、
    前記入力データを前記学習モデルに入力することによって、前記入力データに映し出されている乗降障害物の周囲に前記対象車両の駐車位置を特定する場合に、前記入力データに映し出されている乗降障害物と前記対象車両の駐車位置との間の距離を、前記対象車両の駐車位置における駐車状態として特定する
    請求項4に記載の駐車位置特定方法。
  6. 前記乗降障害物は、前記駐車領域を示す画像において前記車両1台分の駐車位置の隣に駐車されている車両である
    請求項5に記載の駐車位置特定方法。
  7. 前記第2のアノテーションは、前記車両1台分の駐車位置における駐車状態として縦列駐車または並列駐車を示し、
    前記対象車両の駐車位置の特定では、
    前記入力データを前記学習モデルに入力することによって、前記対象車両の駐車位置における駐車状態として縦列駐車または並列駐車を特定する
    請求項6に記載の駐車位置特定方法。
  8. 前記第2のアノテーションは、前記車両1台分の駐車位置における駐車状態として前入れまたは後入れを示し、
    前記対象車両の駐車位置の特定では、
    前記入力データを前記学習モデルに入力することによって、前記対象車両の駐車位置における駐車状態として前入れまたは後入れを特定する
    請求項4に記載の駐車位置特定方法。
  9. 前記第2のアノテーションは、前記車両1台分の駐車位置における駐車状態として駐車禁止か否かを示し、
    前記対象車両の駐車位置の特定では、
    前記入力データを前記学習モデルに入力することによって、前記対象車両の駐車位置における駐車状態として駐車禁止か否かを特定する
    請求項4に記載の駐車位置特定方法。
  10. 前記第2のアノテーションは、前記車両1台分の駐車位置における駐車状態として、前記車両1台分の駐車位置に、駐車に対して障害となる駐車障害物があるか否かを示し、
    前記対象車両の駐車位置の特定では、
    前記入力データを前記学習モデルに入力することによって、前記対象車両の駐車位置における駐車状態として、前記対象車両の駐車位置に駐車障害物があるか否かを特定する
    請求項4に記載の駐車位置特定方法。
  11. 前記学習モデルは、ニューラルネットワークモデルである
    請求項1〜10の何れか1項に記載の駐車位置特定方法。
  12. コンピュータが対象車両の駐車位置を学習する駐車位置学習方法であって、
    少なくとも1台の車両が駐車可能な広さを有する駐車領域を示す画像に対して、前記駐車領域における車両1台分の駐車位置を示す情報である第1のアノテーションが付与された訓練データを取得し、
    前記訓練データを用いて駐車領域における車両1台分の駐車位置を学習することによって、学習モデルを構築する
    駐車位置学習方法。
  13. 対象車両の駐車位置を特定する駐車位置特定装置であって、
    前記対象車両に搭載されたカメラによる駐車領域の撮影によって生成される画像である入力データを取得する取得部と、
    前記入力データを、少なくとも1台の車両が駐車可能な広さを有する駐車領域と前記駐車領域における車両1台分の駐車位置との関係を示す学習モデルに入力することによって、撮影された前記駐車領域における前記対象車両の駐車位置を特定する特定部と
    を備える駐車位置特定装置。
  14. 対象車両の駐車位置を特定する少なくとも1つのコンピュータからなる駐車位置特定システムであって、
    少なくとも1台の車両が駐車可能な広さを有する駐車領域を示す画像に対して、前記駐車領域における車両1台分の駐車位置を示す情報である第1のアノテーションが付与された訓練データを取得する訓練データ取得部と、
    前記訓練データを用いて駐車領域における車両1台分の駐車位置を学習することによって、学習モデルを構築する学習部と、
    前記対象車両に搭載されたカメラによる駐車領域の撮影によって生成される画像である入力データを取得する入力データ取得部と、
    前記入力データを前記学習モデルに入力することによって、撮影された前記駐車領域における前記対象車両の駐車位置を特定する特定部と
    を備える駐車位置特定システム。
  15. 対象車両の駐車位置を学習する駐車位置学習装置であって、
    少なくとも1台の車両が駐車可能な広さを有する駐車領域を示す画像に対して、前記駐車領域における車両1台分の駐車位置を示す情報である第1のアノテーションが付与された訓練データを取得する訓練データ取得部と、
    前記訓練データを用いて駐車領域における車両1台分の駐車位置を学習することによって、学習モデルを構築する学習部と
    を備える駐車位置学習装置。
  16. コンピュータが対象車両の駐車位置を学習するためのプログラムであって、
    少なくとも1台の車両が駐車可能な広さを有する駐車領域を示す画像に対して、前記駐車領域における車両1台分の駐車位置を示す情報である第1のアノテーションが付与された訓練データを取得し、
    前記訓練データを用いて駐車領域における車両1台分の駐車位置を学習することによって、学習モデルを構築する
    ことを前記コンピュータに実行させるプログラム。
JP2016173177A 2016-09-05 2016-09-05 駐車位置特定方法、駐車位置学習方法、駐車位置特定システム、駐車位置学習装置およびプログラム Active JP6761708B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016173177A JP6761708B2 (ja) 2016-09-05 2016-09-05 駐車位置特定方法、駐車位置学習方法、駐車位置特定システム、駐車位置学習装置およびプログラム
US15/671,767 US10650681B2 (en) 2016-09-05 2017-08-08 Parking position identification method, parking position learning method, parking position identification system, parking position learning device, and non-transitory recording medium for recording program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016173177A JP6761708B2 (ja) 2016-09-05 2016-09-05 駐車位置特定方法、駐車位置学習方法、駐車位置特定システム、駐車位置学習装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2018041176A true JP2018041176A (ja) 2018-03-15
JP6761708B2 JP6761708B2 (ja) 2020-09-30

Family

ID=61280679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016173177A Active JP6761708B2 (ja) 2016-09-05 2016-09-05 駐車位置特定方法、駐車位置学習方法、駐車位置特定システム、駐車位置学習装置およびプログラム

Country Status (2)

Country Link
US (1) US10650681B2 (ja)
JP (1) JP6761708B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109800658A (zh) * 2018-12-26 2019-05-24 中汽研(天津)汽车工程研究院有限公司 基于神经网络的泊车位类型在线识别与定位系统及方法
JP2019168883A (ja) * 2018-03-23 2019-10-03 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム
WO2020158611A1 (ja) * 2019-02-01 2020-08-06 株式会社小松製作所 画像処理システム、画像処理方法、学習済みモデルの生成方法、および学習用データセット
JP2020191081A (ja) * 2019-05-17 2020-11-26 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 駐車違反の検出方法及び装置、電子機器、コンピュータ読み取り可能な媒体
CN112201075A (zh) * 2020-09-18 2021-01-08 厦门路桥信息股份有限公司 停车场车位可用性预测方法及系统
DE102021105073A1 (de) 2020-03-09 2021-09-09 Aisin Seiki Kabushiki Kaisha Vorrichtung zum Erfassen eines bestimmten Bereichs
JP2022510329A (ja) * 2019-05-29 2022-01-26 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 駐車スペース検出方法、装置及び電子機器
WO2023090001A1 (ja) * 2021-11-19 2023-05-25 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2023248468A1 (ja) * 2022-06-24 2023-12-28 日産自動車株式会社 駐車支援方法及び駐車支援装置
DE112022001983T5 (de) 2021-04-05 2024-01-25 Aisin Corporation Parkassistenzvorrichtung

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443192B1 (en) 2015-08-30 2016-09-13 Jasmin Cosic Universal artificial intelligence engine for autonomous computing devices and software applications
US9864933B1 (en) 2016-08-23 2018-01-09 Jasmin Cosic Artificially intelligent systems, devices, and methods for learning and/or using visual surrounding for autonomous object operation
US10452974B1 (en) 2016-11-02 2019-10-22 Jasmin Cosic Artificially intelligent systems, devices, and methods for learning and/or using a device's circumstances for autonomous device operation
US10607134B1 (en) 2016-12-19 2020-03-31 Jasmin Cosic Artificially intelligent systems, devices, and methods for learning and/or using an avatar's circumstances for autonomous avatar operation
JP7089355B2 (ja) * 2017-11-13 2022-06-22 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
US10474934B1 (en) 2017-11-26 2019-11-12 Jasmin Cosic Machine learning for computing enabled systems and/or devices
CN108407805B (zh) * 2018-03-30 2019-07-30 中南大学 一种基于dqn的车辆自动泊车方法
US10720058B2 (en) * 2018-09-13 2020-07-21 Volvo Car Corporation System and method for camera or sensor-based parking spot detection and identification
CN111098850A (zh) * 2018-10-25 2020-05-05 北京初速度科技有限公司 一种自动停车辅助系统及自动泊车方法
DE102019204203A1 (de) * 2019-03-27 2020-10-01 Volkswagen Aktiengesellschaft Verfahren zum Einparken eines Kraftfahrzeugs in eine Parkzone mit einem autonomen Parkvorgang ausgehend von einer temporären Parkposition, Parkassistenzsystem sowie Kraftfahrzeug
CN110348297B (zh) * 2019-05-31 2023-12-26 纵目科技(上海)股份有限公司 一种用于识别立体停车库的检测方法、系统、终端和存储介质
CN110490127A (zh) * 2019-08-15 2019-11-22 北京致行慕远科技有限公司 位置合规识别方法及装置、存储介质、电子装置
CN112417926B (zh) * 2019-08-22 2024-02-27 广州汽车集团股份有限公司 车位识别方法、装置、计算机设备及可读存储介质
CN111942376B (zh) * 2020-08-24 2021-07-06 罗忠明 基于5g和毫米波雷达的自动泊车系统
CN111881897B (zh) * 2020-09-27 2021-01-01 广州汽车集团股份有限公司 一种停车场地面中文标志识别方法及其系统、存储介质
CN112733703A (zh) * 2021-01-07 2021-04-30 深圳市捷顺科技实业股份有限公司 一种车辆停放状态检测方法及系统
CN113205059B (zh) * 2021-05-18 2024-03-12 北京纵目安驰智能科技有限公司 车位的检测方法、系统、终端及计算机可读存储介质
CN114445794A (zh) * 2021-12-21 2022-05-06 北京罗克维尔斯科技有限公司 车位检测模型训练方法、车位检测方法及其装置
CN114194180A (zh) * 2021-12-28 2022-03-18 阿波罗智联(北京)科技有限公司 一种辅助泊车信息的确定方法、装置、设备及介质
CN114613230A (zh) * 2022-03-28 2022-06-10 北京太合瑞至科技有限公司 驾驶培训教学点位的智能识别与控制方法及系统
CN115359650A (zh) * 2022-07-06 2022-11-18 浙江大华技术股份有限公司 停车泊位检测方法、装置、计算机设备和存储介质
CN115082277B (zh) * 2022-08-23 2022-11-11 交通运输部科学研究院 车辆管控区域行程识别方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991593A (ja) * 1995-09-28 1997-04-04 Hitachi Ltd 駐車場案内方法
JP2002087191A (ja) * 2000-06-30 2002-03-26 Matsushita Electric Ind Co Ltd 運転支援システム
JP2015231818A (ja) * 2014-06-10 2015-12-24 株式会社デンソー 運転支援装置
JP2016141161A (ja) * 2015-01-29 2016-08-08 株式会社デンソー 非接触充電駐車支援装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006160194A (ja) 2004-12-10 2006-06-22 Alpine Electronics Inc 駐車支援装置
KR101393881B1 (ko) * 2012-10-24 2014-05-12 현대자동차주식회사 차량의 주차구획 인식방법
DE102013209298A1 (de) * 2013-05-21 2014-11-27 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zum Erkennen von einem potentiell frei werdenden Parkplatz
US9619716B2 (en) * 2013-08-12 2017-04-11 Magna Electronics Inc. Vehicle vision system with image classification
US10328932B2 (en) * 2014-06-02 2019-06-25 Magna Electronics Inc. Parking assist system with annotated map generation
US10214206B2 (en) * 2015-07-13 2019-02-26 Magna Electronics Inc. Parking assist system for vehicle
US10078789B2 (en) * 2015-07-17 2018-09-18 Magna Electronics Inc. Vehicle parking assist system with vision-based parking space detection
US20170053192A1 (en) * 2015-08-18 2017-02-23 Parking Vision Information Technologies, INC. Systems and methods for detecting parking occupancy status
CA3008378A1 (en) * 2015-12-17 2017-06-22 Nissan Motor Co., Ltd. Parking support method and device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991593A (ja) * 1995-09-28 1997-04-04 Hitachi Ltd 駐車場案内方法
JP2002087191A (ja) * 2000-06-30 2002-03-26 Matsushita Electric Ind Co Ltd 運転支援システム
JP2015231818A (ja) * 2014-06-10 2015-12-24 株式会社デンソー 運転支援装置
JP2016141161A (ja) * 2015-01-29 2016-08-08 株式会社デンソー 非接触充電駐車支援装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019168883A (ja) * 2018-03-23 2019-10-03 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム
US11861060B2 (en) 2018-03-23 2024-01-02 Konami Digital Entertainment Co., Ltd. Recording medium for selecting objects using head mounted display, information processing system, and information processing method
CN109800658B (zh) * 2018-12-26 2023-05-26 中汽研(天津)汽车工程研究院有限公司 基于神经网络的泊车位类型在线识别与定位系统及方法
CN109800658A (zh) * 2018-12-26 2019-05-24 中汽研(天津)汽车工程研究院有限公司 基于神经网络的泊车位类型在线识别与定位系统及方法
WO2020158611A1 (ja) * 2019-02-01 2020-08-06 株式会社小松製作所 画像処理システム、画像処理方法、学習済みモデルの生成方法、および学習用データセット
JP2020126363A (ja) * 2019-02-01 2020-08-20 株式会社小松製作所 画像処理システム、画像処理方法、学習済みモデルの生成方法、および学習用データセット
JP7365122B2 (ja) 2019-02-01 2023-10-19 株式会社小松製作所 画像処理システムおよび画像処理方法
JP2020191081A (ja) * 2019-05-17 2020-11-26 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 駐車違反の検出方法及び装置、電子機器、コンピュータ読み取り可能な媒体
US11380104B2 (en) 2019-05-17 2022-07-05 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and device for detecting illegal parking, and electronic device
JP2022510329A (ja) * 2019-05-29 2022-01-26 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 駐車スペース検出方法、装置及び電子機器
DE102021105073A1 (de) 2020-03-09 2021-09-09 Aisin Seiki Kabushiki Kaisha Vorrichtung zum Erfassen eines bestimmten Bereichs
CN112201075B (zh) * 2020-09-18 2022-05-10 厦门路桥信息股份有限公司 停车场车位可用性预测方法及系统
CN112201075A (zh) * 2020-09-18 2021-01-08 厦门路桥信息股份有限公司 停车场车位可用性预测方法及系统
DE112022001983T5 (de) 2021-04-05 2024-01-25 Aisin Corporation Parkassistenzvorrichtung
WO2023090001A1 (ja) * 2021-11-19 2023-05-25 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2023248468A1 (ja) * 2022-06-24 2023-12-28 日産自動車株式会社 駐車支援方法及び駐車支援装置

Also Published As

Publication number Publication date
US10650681B2 (en) 2020-05-12
JP6761708B2 (ja) 2020-09-30
US20180068564A1 (en) 2018-03-08

Similar Documents

Publication Publication Date Title
JP2018041176A (ja) 駐車位置特定方法、駐車位置学習方法、駐車位置特定システム、駐車位置学習装置およびプログラム
US20190019042A1 (en) Computer implemented detecting method, computer implemented learning method, detecting apparatus, learning apparatus, detecting system, and recording medium
US20180373943A1 (en) Computer implemented detecting method, computer implemented learning method, detecting apparatus, learning apparatus, detecting system, and recording medium
JP6854840B2 (ja) 地図構築装置及びその地図構築方法
US11741690B2 (en) Method for generating parking model, electronic device, and storage medium
US20180211138A1 (en) Information processing device, information processing method, and storage medium
JP2019179372A (ja) 学習データ作成方法、学習方法、危険予測方法、学習データ作成装置、学習装置、危険予測装置、及び、プログラム
US11308722B2 (en) Method and system for determining an activity of an occupant of a vehicle
JP2011146796A5 (ja)
JP6726052B2 (ja) 画像処理方法およびプログラム
JPWO2017072955A1 (ja) 駐車支援装置及び駐車支援方法
CN104731446A (zh) 基于提示的斑点修复技术
CN103853462A (zh) 车辆内使用手形痕迹识别提供用户界面的系统和方法
JP2016038621A (ja) 空間入力システム
JP2021044749A (ja) 撮像装置、方法及びプログラム
CN111144315A (zh) 目标检测方法、装置、电子设备和可读存储介质
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2021043115A (ja) 画像処理装置、測距装置、方法及びプログラム
TW202029134A (zh) 行車偵測方法、車輛及行車處理裝置
WO2021183376A1 (en) Using rasterization to identify traffic signal devices
JP2018055614A (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP2017159884A (ja) 運転制御装置、運転制御方法及び運転制御プログラム
JP2013200778A (ja) 画像処理装置、画像処理方法
JP2008145541A (ja) 表示装置、表示方法およびプログラム
JP6828333B2 (ja) 画像処理装置及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200907

R150 Certificate of patent or registration of utility model

Ref document number: 6761708

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150