JP2023516502A - 画像ベースの場所決定及び駐車モニタリングのためのシステム及び方法 - Google Patents

画像ベースの場所決定及び駐車モニタリングのためのシステム及び方法 Download PDF

Info

Publication number
JP2023516502A
JP2023516502A JP2022554582A JP2022554582A JP2023516502A JP 2023516502 A JP2023516502 A JP 2023516502A JP 2022554582 A JP2022554582 A JP 2022554582A JP 2022554582 A JP2022554582 A JP 2022554582A JP 2023516502 A JP2023516502 A JP 2023516502A
Authority
JP
Japan
Prior art keywords
parking
image
background
matching
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022554582A
Other languages
English (en)
Inventor
チャラ,サブハッシュ
ヴォ,ニャット
クイン,ルイス
ヴォ,ドゥク
Original Assignee
センセン ネットワークス グループ ピーティーワイ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2020900736A external-priority patent/AU2020900736A0/en
Application filed by センセン ネットワークス グループ ピーティーワイ リミテッド filed Critical センセン ネットワークス グループ ピーティーワイ リミテッド
Publication of JP2023516502A publication Critical patent/JP2023516502A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J20/00Solid sorbent compositions or filter aid compositions; Sorbents for chromatography; Processes for preparing, regenerating or reactivating thereof
    • B01J20/28Solid sorbent compositions or filter aid compositions; Sorbents for chromatography; Processes for preparing, regenerating or reactivating thereof characterised by their form or physical properties
    • B01J20/28014Solid sorbent compositions or filter aid compositions; Sorbents for chromatography; Processes for preparing, regenerating or reactivating thereof characterised by their form or physical properties characterised by their form
    • B01J20/28026Particles within, immobilised, dispersed, entrapped in or on a matrix, e.g. a resin
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J20/00Solid sorbent compositions or filter aid compositions; Sorbents for chromatography; Processes for preparing, regenerating or reactivating thereof
    • B01J20/28Solid sorbent compositions or filter aid compositions; Sorbents for chromatography; Processes for preparing, regenerating or reactivating thereof characterised by their form or physical properties
    • B01J20/28014Solid sorbent compositions or filter aid compositions; Sorbents for chromatography; Processes for preparing, regenerating or reactivating thereof characterised by their form or physical properties characterised by their form
    • B01J20/28033Membrane, sheet, cloth, pad, lamellar or mat
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01JCHEMICAL OR PHYSICAL PROCESSES, e.g. CATALYSIS OR COLLOID CHEMISTRY; THEIR RELEVANT APPARATUS
    • B01J20/00Solid sorbent compositions or filter aid compositions; Sorbents for chromatography; Processes for preparing, regenerating or reactivating thereof
    • B01J20/28Solid sorbent compositions or filter aid compositions; Sorbents for chromatography; Processes for preparing, regenerating or reactivating thereof characterised by their form or physical properties
    • B01J20/28054Solid sorbent compositions or filter aid compositions; Sorbents for chromatography; Processes for preparing, regenerating or reactivating thereof characterised by their form or physical properties characterised by their surface properties or porosity
    • B01J20/28078Pore diameter
    • B01J20/2808Pore diameter being less than 2 nm, i.e. micropores or nanopores
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08GMACROMOLECULAR COMPOUNDS OBTAINED OTHERWISE THAN BY REACTIONS ONLY INVOLVING UNSATURATED CARBON-TO-CARBON BONDS
    • C08G18/00Polymeric products of isocyanates or isothiocyanates
    • C08G18/06Polymeric products of isocyanates or isothiocyanates with compounds having active hydrogen
    • C08G18/28Polymeric products of isocyanates or isothiocyanates with compounds having active hydrogen characterised by the compounds used containing active hydrogen
    • C08G18/40High-molecular-weight compounds
    • C08G18/4009Two or more macromolecular compounds not provided for in one single group of groups C08G18/42 - C08G18/64
    • C08G18/4072Mixtures of compounds of group C08G18/63 with other macromolecular compounds
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08GMACROMOLECULAR COMPOUNDS OBTAINED OTHERWISE THAN BY REACTIONS ONLY INVOLVING UNSATURATED CARBON-TO-CARBON BONDS
    • C08G18/00Polymeric products of isocyanates or isothiocyanates
    • C08G18/06Polymeric products of isocyanates or isothiocyanates with compounds having active hydrogen
    • C08G18/28Polymeric products of isocyanates or isothiocyanates with compounds having active hydrogen characterised by the compounds used containing active hydrogen
    • C08G18/40High-molecular-weight compounds
    • C08G18/48Polyethers
    • C08G18/4833Polyethers containing oxyethylene units
    • C08G18/4837Polyethers containing oxyethylene units and other oxyalkylene units
    • C08G18/485Polyethers containing oxyethylene units and other oxyalkylene units containing mixed oxyethylene-oxypropylene or oxyethylene-higher oxyalkylene end groups
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08GMACROMOLECULAR COMPOUNDS OBTAINED OTHERWISE THAN BY REACTIONS ONLY INVOLVING UNSATURATED CARBON-TO-CARBON BONDS
    • C08G18/00Polymeric products of isocyanates or isothiocyanates
    • C08G18/06Polymeric products of isocyanates or isothiocyanates with compounds having active hydrogen
    • C08G18/28Polymeric products of isocyanates or isothiocyanates with compounds having active hydrogen characterised by the compounds used containing active hydrogen
    • C08G18/40High-molecular-weight compounds
    • C08G18/63Block or graft polymers obtained by polymerising compounds having carbon-to-carbon double bonds on to polymers
    • C08G18/632Block or graft polymers obtained by polymerising compounds having carbon-to-carbon double bonds on to polymers onto polyethers
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08GMACROMOLECULAR COMPOUNDS OBTAINED OTHERWISE THAN BY REACTIONS ONLY INVOLVING UNSATURATED CARBON-TO-CARBON BONDS
    • C08G18/00Polymeric products of isocyanates or isothiocyanates
    • C08G18/06Polymeric products of isocyanates or isothiocyanates with compounds having active hydrogen
    • C08G18/70Polymeric products of isocyanates or isothiocyanates with compounds having active hydrogen characterised by the isocyanates or isothiocyanates used
    • C08G18/72Polyisocyanates or polyisothiocyanates
    • C08G18/74Polyisocyanates or polyisothiocyanates cyclic
    • C08G18/76Polyisocyanates or polyisothiocyanates cyclic aromatic
    • C08G18/7614Polyisocyanates or polyisothiocyanates cyclic aromatic containing only one aromatic ring
    • C08G18/7621Polyisocyanates or polyisothiocyanates cyclic aromatic containing only one aromatic ring being toluene diisocyanate including isomer mixtures
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08JWORKING-UP; GENERAL PROCESSES OF COMPOUNDING; AFTER-TREATMENT NOT COVERED BY SUBCLASSES C08B, C08C, C08F, C08G or C08H
    • C08J5/00Manufacture of articles or shaped materials containing macromolecular substances
    • C08J5/18Manufacture of films or sheets
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08JWORKING-UP; GENERAL PROCESSES OF COMPOUNDING; AFTER-TREATMENT NOT COVERED BY SUBCLASSES C08B, C08C, C08F, C08G or C08H
    • C08J9/00Working-up of macromolecular substances to porous or cellular articles or materials; After-treatment thereof
    • C08J9/0066Use of inorganic compounding ingredients
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08KUse of inorganic or non-macromolecular organic substances as compounding ingredients
    • C08K3/00Use of inorganic substances as compounding ingredients
    • C08K3/34Silicon-containing compounds
    • C08K3/36Silica
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • G06V20/39Urban scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08GMACROMOLECULAR COMPOUNDS OBTAINED OTHERWISE THAN BY REACTIONS ONLY INVOLVING UNSATURATED CARBON-TO-CARBON BONDS
    • C08G2110/00Foam properties
    • C08G2110/0008Foam properties flexible
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08GMACROMOLECULAR COMPOUNDS OBTAINED OTHERWISE THAN BY REACTIONS ONLY INVOLVING UNSATURATED CARBON-TO-CARBON BONDS
    • C08G2110/00Foam properties
    • C08G2110/0041Foam properties having specified density
    • C08G2110/005< 50kg/m3
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08GMACROMOLECULAR COMPOUNDS OBTAINED OTHERWISE THAN BY REACTIONS ONLY INVOLVING UNSATURATED CARBON-TO-CARBON BONDS
    • C08G2110/00Foam properties
    • C08G2110/0083Foam properties prepared using water as the sole blowing agent
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08JWORKING-UP; GENERAL PROCESSES OF COMPOUNDING; AFTER-TREATMENT NOT COVERED BY SUBCLASSES C08B, C08C, C08F, C08G or C08H
    • C08J2205/00Foams characterised by their properties
    • C08J2205/06Flexible foams
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08JWORKING-UP; GENERAL PROCESSES OF COMPOUNDING; AFTER-TREATMENT NOT COVERED BY SUBCLASSES C08B, C08C, C08F, C08G or C08H
    • C08J2323/00Characterised by the use of homopolymers or copolymers of unsaturated aliphatic hydrocarbons having only one carbon-to-carbon double bond; Derivatives of such polymers
    • C08J2323/02Characterised by the use of homopolymers or copolymers of unsaturated aliphatic hydrocarbons having only one carbon-to-carbon double bond; Derivatives of such polymers not modified by chemical after treatment
    • C08J2323/04Homopolymers or copolymers of ethene
    • C08J2323/06Polyethene
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08JWORKING-UP; GENERAL PROCESSES OF COMPOUNDING; AFTER-TREATMENT NOT COVERED BY SUBCLASSES C08B, C08C, C08F, C08G or C08H
    • C08J2375/00Characterised by the use of polyureas or polyurethanes; Derivatives of such polymers
    • C08J2375/04Polyurethanes
    • C08J2375/08Polyurethanes from polyethers
    • CCHEMISTRY; METALLURGY
    • C08ORGANIC MACROMOLECULAR COMPOUNDS; THEIR PREPARATION OR CHEMICAL WORKING-UP; COMPOSITIONS BASED THEREON
    • C08KUse of inorganic or non-macromolecular organic substances as compounding ingredients
    • C08K2201/00Specific properties of additives
    • C08K2201/002Physical properties
    • C08K2201/005Additives being defined by their particle size in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Organic Chemistry (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Polymers & Plastics (AREA)
  • Medicinal Chemistry (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Analytical Chemistry (AREA)
  • Materials Engineering (AREA)
  • Mathematical Physics (AREA)
  • Manufacturing & Machinery (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Inorganic Chemistry (AREA)
  • Nanotechnology (AREA)
  • Dispersion Chemistry (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)

Abstract

実施形態は、画像処理動作によって、都市部における駐車モニタリングのためのシステム、方法、及びコンピュータ可読媒体に関する。実施形態は、都市部の画像を捕捉することと、場所及び駐車条件を決定するために、捕捉画像を参照画像と比較することとによって駐車モニタリングを行う。実施形態は、駐車条件に対する車両の順守を決定するために、捕捉画像を処理して、ナンバープレート、車両、又は駐車標識を検出する。

Description

技術分野
[0001] 実施形態は、場所推定又は決定のためのシステム及び方法に関する。実施形態は、画像ベースの場所推定又は決定のためのシステム及び方法に関する。実施形態は、駐車モニタリングのために、画像ベースの場所推定又は決定を使用するシステム及び方法にも関する。
背景
[0002] 全地球測位システム(GPS)技術は、GPS受信機と通信するGPS専用衛星との通信によって、場所の決定を支援する。各GPS衛星は、現在の時刻及びその位置に関するデータを含む電波信号を継続的に送信する。衛星が信号を送信した時と、受信機がそれを受信した時との間の時間遅延は、衛星から受信機までの距離に比例する。GPS受信機は、複数の衛星をモニタリングし、受信機の厳密な位置、及び実際の時刻からのずれを決定するために式を解く。正確な場所情報を得るために、GPS受信機が4つの未知数(3つの位置座標及び衛星時刻からのクロックのずれ)を計算するために、4つの衛星がGPS受信機の視野内に存在しなければならない。
[0003] GPSベースの場所推定は、GPS受信機の位置を正確に特定するために、少なくとも4つの衛星に対して、遮るもののない見通し線を必要とする。GPS衛星に対する不十分な接続性、又は4つ未満のGPS衛星への接続性は、GPSに基づいた場所の決定の不正確さにつながる。GPS衛星への接続性は、地磁気嵐などの極端な大気条件によっても影響を受け得る。壁、建物、超高層ビル、及び木などの障害物は、GPS受信機の見通し線を遮る場合があり、それによって、不正確な場所推定がもたらされる。超高層ビル又は木などの幾つかの障害がある都市の一部などの幾つかの障害が存在するエリアでは、GPS場所情報は、信頼性を欠く、又は不正確な場合がある。
[0004] 本明細書に含まれる文献、行為、材料、デバイス、又は物品などの何れの記述も、これらの物の何れか又はすべてが、先行技術の基礎の一部を形成すること、又は本出願の各クレームの優先日前にそれが存在したため、本開示に関連した分野において共通の一般知識であったと認めるものと解釈されるものではない。
[0005] 本明細書全体を通して、「含む(comprise)」という言葉、又は「comprises」若しくは「comprising」などのバリエーションは、記述された要素、整数値、若しくはステップ、又は一群の要素、整数値、若しくはステップの包含を意味するが、その他の要素、整数値、若しくはステップ、又は一群の要素、整数値、若しくはステップの排除は意味しないことが理解されるだろう。
概要
[0006] 幾つかの実施形態は、都市部における駐車モニタリングのためのシステムであって、システムが、
少なくとも1つのカメラであって、少なくとも1つのカメラが、都市部の画像を捕捉するように位置決めされる、少なくとも1つのカメラと、
捕捉画像を受信するために、少なくとも1つのカメラと通信するコンピューティングデバイスと、を含み、
コンピューティングデバイスが、少なくとも1つのプロセッサと、少なくとも1つのプロセッサにアクセス可能なメモリと、を含み、
メモリが、参照背景画像及び各参照背景画像のメタデータのライブラリを含み、メタデータが、駐車場所情報及び駐車条件情報を含み、
メモリが、
第1の捕捉画像内のターゲット車両に対応したナンバープレート番号を決定するために、第1の捕捉画像を処理することと、
マッチする参照背景画像を識別するために、背景マッチングモジュールを使用して、第2の捕捉画像を処理することと、
マッチする参照背景画像のメタデータに基づいて、ターゲット車両の識別された駐車場所及び少なくとも1つの駐車条件を決定することと、
決定された少なくとも1つの駐車条件に対するターゲット車両の順守を決定することと、
を行うように少なくとも1つのプロセッサを構成するための、少なくとも1つのプロセッサによって実行可能なプログラムコードを保存する、システムに関する。
[0007] 幾つかの実施形態では、第1の捕捉画像は、第2の捕捉画像と同じ捕捉画像である。
[0008] 都市部における駐車モニタリングのためのシステムであって、システムが、
少なくとも1つのカメラであって、少なくとも1つのカメラが、都市部の画像を捕捉するように位置決めされる、少なくとも1つのカメラと、
捕捉画像を受信するために、少なくとも1つのカメラと通信するコンピューティングデバイスと、を含み、
コンピューティングデバイスが、少なくとも1つのプロセッサと、少なくとも1つのプロセッサにアクセス可能なメモリと、を含み、
メモリが、参照背景画像及び各参照背景画像のメタデータのライブラリを含み、メタデータが、駐車場所情報を含み、
メモリが、
捕捉画像の少なくとも1つにおける駐車指標を識別するために、駐車指標検出機械学習モデルを使用して捕捉画像を処理することと、
駐車指標の識別時に、捕捉画像の1つにマッチする、マッチする参照背景画像を識別するために、背景マッチングモジュールを使用して、捕捉画像を処理することと、
マッチする参照背景画像に関連付けられたメタデータに基づいて、駐車場所を決定することと、
識別された駐車指標に基づいて、駐車条件を決定することと、
ターゲット車両に対応したナンバープレート番号を決定するために、捕捉画像を処理することと、
決定された駐車条件に対するターゲット車両の順守を決定することと、
を行うように少なくとも1つのプロセッサを構成するための、少なくとも1つのプロセッサによって実行可能なプログラムコードも含む、システムに関する。
[0009] 幾つかの実施形態では、ターゲット車両に対応したナンバープレート番号は、ナンバープレート検出機械学習モデルを使用して決定される。
[0010] 幾つかの実施形態では、駐車指標は、駐車標識又はナンバープレートを含み、駐車指標検出機械学習モデルは、捕捉画像内の駐車標識又はナンバープレートを検出する。
[0011] 幾つかの実施形態では、メモリは、各参照背景画像に関連付けられた駐車外周メタデータをさらに含み、少なくとも1つのプロセッサは、
捕捉画像の1つにおけるターゲット車両に対応した画像部分を識別するために、少なくとも1つの捕捉画像を処理することと、
マッチする参照背景画像に関連付けられた駐車外周メタデータ、及びターゲット車両に対応した画像部分に基づいて、決定された駐車条件に対するターゲット車両の順守を決定することと、
を行うようにさらに構成される。
[0012] 幾つかの実施形態では、ターゲット車両に対応した画像部分は、車両検出機械学習モデルを使用して識別される。
[0013] 幾つかの実施形態では、背景マッチングモジュールは、背景特徴抽出器ニューラルネットワークを含み、少なくとも1つのプロセッサは、
背景特徴抽出器ニューラルネットワークを使用して、少なくとも1つの捕捉画像から背景記述子を抽出することと、
抽出された背景記述子に基づいて、背景画像のライブラリから1つ又は複数の候補マッチング画像を選択することと、
マッチする参照背景画像を選択するために、少なくとも1つの捕捉画像と候補マッチング画像との間で幾何学的マッチングを行うことと、
によって、マッチする参照背景画像を識別するようにさらに構成される。
[0014] 幾つかの実施形態では、幾何学的マッチングは、ランダムサンプルコンセンサスプロセスを使用して行われる。
[0015] 駐車場所情報は、街路名及び番地を含んでもよく、又は駐車場所情報は、街路名、番地、及び駐車区画識別子を含んでもよく、又は駐車場所情報は、駐車場所に関連付けられた経度座標及び緯度座標を含んでもよい。
[0016] 幾つかの実施形態では、1つ又は複数のカメラは、監視車両に取り付けられ、
コンピューティングデバイスは、監視車両によって運ばれ、及び
システムは、コンピューティングデバイスとリモートコンピュータシステムとの間の無線通信を可能にするための通信モジュールをさらに含む。
[0017] 幾つかの実施形態は、監視車両が都市部を移動するときに駐車モニタリングをリアルタイムで行うように構成される。
[0018] 幾つかの実施形態では、システムは、少なくとも2つのカメラを含み、監視車両の両側で駐車モニタリングを行うために、少なくとも1つのカメラが、監視車両のそれぞれの側に位置決めされる。
[0019] 幾つかの実施形態では、システムは、少なくとも2つのカメラを含み、両方のカメラが、監視車両の片側で画像を捕捉するように位置決めされ、背景マッチングモジュールは、マッチする参照背景画像を識別するために、少なくとも2つのカメラのそれぞれからの捕捉画像を使用して背景マッチングを行うように構成される。
[0020] 幾つかの実施形態は、監視車両が都市部を移動する際の捕捉画像にわたりターゲット車両を追跡するようにさらに構成される。
[0021] 幾つかの実施形態は、通信モジュールを介して、決定された駐車条件に対するターゲット車両の決定された順守、ターゲット車両に対応した決定されたナンバープレート番号、決定された駐車場所、又はターゲット車両の捕捉画像の1つ又は複数をリモートコンピュータシステムに送信するようにさらに構成される。
[0022] 幾つかの実施形態では、ナンバープレート検出機械学習モデルは、ターゲット車両のナンバープレートに対応した捕捉画像の部分を識別するように構成され、及びナンバープレート番号は、文字認識モジュールによって、ナンバープレートに対応した捕捉画像の部分の処理に基づいて決定される。
[0023] 幾つかの実施形態では、駐車条件は、文字認識モジュールを使用して、識別された駐車標識に対応した少なくとも1つの捕捉画像の部分を処理することによって認識された文字に基づいて決定される。
[0024] 幾つかの実施形態では、少なくとも1つの参照背景画像は、駐車区域開始場所に関し、及び別の少なくとも1つの参照背景画像は、駐車区域終了場所に関し、識別された少なくとも1つの駐車条件に対するターゲット車両の順守の決定は、識別された駐車場所と、駐車区域開始場所との間の距離、又は識別された駐車場所と、駐車区域終了場所との間の距離に基づく。
[0025] 幾つかの実施形態は、メモリと通信する少なくとも1つのプロセッサを含むコンピューティングデバイスによって行われる駐車モニタリングのためのコンピュータ実装方法であって、メモリが、参照背景画像のライブラリを含み、方法が、
コンピューティングデバイスと通信するカメラによって捕捉された都市部の画像を受信することと、
少なくとも1つの捕捉画像内の1つ又は複数の駐車指標を識別するために、駐車指標検出機械学習モデルを使用して捕捉画像を処理することと、
少なくとも1つの捕捉画像内の少なくとも1つの駐車指標の識別時に、マッチする参照背景画像を識別するために、背景マッチングモジュールを使用して、少なくとも1つの捕捉画像を処理することと、
マッチする参照背景画像に基づいて、駐車場所を決定することと、
決定された駐車場所、又は識別された1つ又は複数の駐車指標に基づいて、駐車条件を決定することと、
少なくとも1つの捕捉画像内のターゲット車両に対応したナンバープレート番号を決定するために、少なくとも1つの捕捉画像を処理することと、
決定されたナンバープレート番号及び決定された駐車条件に基づいて、決定された駐車条件に対するターゲット車両の順守を決定することと、
を含む、コンピュータ実装方法に関する。
[0026] 幾つかの実施形態は、場所決定のためのシステムであって、システムが、
少なくとも1つのプロセッサと、少なくとも1つのプロセッサにアクセス可能なメモリと、を含むコンピューティングデバイスを含み、
メモリが、参照背景画像及び各参照背景画像のメタデータのライブラリを含み、メタデータが、場所情報を含み、
メモリが、
リモートコンピューティングデバイスから入力画像データを受信することであって、入力画像データが、決定されるべき場所でリモートコンピューティングデバイスによって捕捉された少なくとも1つの画像の画像データを含む、受信することと、
マッチする参照背景画像を識別するために、背景マッチングモジュールを使用して、受信した入力画像データを処理することと、
ライブラリ内のマッチする参照背景画像のメタデータに基づいて、入力画像データに対応した場所情報を決定することと、
決定された場所情報をリモートコンピューティングデバイスに送信することと、
を行うように少なくとも1つのプロセッサを構成するための、少なくとも1つのプロセッサによって実行可能なプログラムコードを保存する、システムに関する。
[0027] 幾つかの実施形態では、背景マッチングモジュールは、背景特徴抽出器ニューラルネットワークを含み、少なくとも1つのプロセッサは、
背景特徴抽出器ニューラルネットワークを使用して、少なくとも1つの捕捉画像から背景記述子を抽出することと、
抽出された背景記述子に基づいて、背景画像のライブラリから1つ又は複数の候補マッチング画像を選択することと、
マッチする参照背景画像を選択するために、少なくとも1つの捕捉画像と候補マッチング画像との間で幾何学的マッチングを行うことと、
によって、マッチする参照背景画像を識別するようにさらに構成される。
[0028] 幾つかの実施形態では、幾何学的マッチングは、少なくとも1つの捕捉画像と候補マッチング画像のそれぞれとにおいて、共通の視覚的特徴を識別することを含む。
[0029] 幾つかの実施形態では、幾何学的マッチングは、ランダムサンプルコンセンサスプロセスを使用して行われる。
[0030] 幾つかの実施形態では、背景特徴抽出器ニューラルネットワークは、少なくとも1つの捕捉画像内の1つ又は複数の静止した特徴に対応した背景記述子を抽出するように訓練される。
[0031] 幾つかの実施形態では、メモリは、
リモートコンピューティングデバイスから入力画像に対応したGPSデータを受信することであって、GPSデータが低データ品質指標を含む、受信することと、
決定された場所情報に基づいて、GPS訂正信号を生成することと、
GPS訂正信号をリモートコンピューティングデバイスに送信することと、
を行うように少なくとも1つのプロセッサをさらに構成するための、少なくとも1つのプロセッサによって実行可能なプログラムコードを保存する。
[0032] 幾つかの実施形態は、都市部における場所決定のための車両搭載システムであって、システムが、
少なくとも1つのカメラであって、少なくとも1つのカメラが、都市部の画像を捕捉するように位置決めされる、少なくとも1つのカメラと、
捕捉画像を受信するために、少なくとも1つのカメラと通信するコンピューティングデバイスであって、コンピューティングデバイスが、少なくとも1つのプロセッサと、少なくとも1つのプロセッサにアクセス可能なメモリと、を含み、メモリが、参照背景画像のライブラリを含む、コンピューティングデバイスと、
を含み、
メモリが、
少なくとも1つの捕捉画像から背景記述子を抽出することと、
抽出された背景記述子に基づいて、背景画像のライブラリから1つ又は複数の候補マッチング参照画像を選択することと、
単一のマッチする参照背景画像を選択するために、少なくとも1つの捕捉画像と1つ又は複数の候補マッチング参照画像との間で幾何学的マッチングを行うことと、
単一のマッチする参照背景画像に基づいて、車両の場所を決定することと、
を行うように少なくとも1つのプロセッサを構成するための、少なくとも1つのプロセッサによって実行可能なプログラムコードを含む、車両搭載システムに関する。
[0033] 幾つかの実施形態では、メモリは、各参照背景画像に対応した場所メタデータをさらに含み、及び車両の場所は、単一のマッチする参照背景画像に対応した場所メタデータに基づいて決定される。
[0034] 幾つかの実施形態では、背景記述子は、背景特徴抽出器ニューラルネットワークを使用して、少なくとも1つの捕捉画像から抽出される。
[0035] 幾つかの実施形態では、場所を決定することは、リアルタイムで行われる。
[0036] 幾つかの実施形態は、車両の場所を決定するためのコンピュータ実装方法であって、方法が、メモリと通信する少なくとも1つのプロセッサを含む車両搭載コンピューティングデバイスによって行われ、メモリが、参照背景画像のライブラリを含み、方法が、
コンピューティングデバイスと通信するカメラによって捕捉された都市部の画像を受信することと、
カメラによって捕捉された少なくとも1つの画像から背景記述子を抽出することと、
抽出された背景記述子に基づいて、背景画像のライブラリから1つ又は複数の候補マッチング参照画像を選択することと、
単一のマッチする参照背景画像を選択するために、少なくとも1つの捕捉画像と1つ又は複数の候補マッチング参照画像との間で幾何学的マッチングを行うことと、
単一のマッチする参照背景画像に基づいて、車両の場所を決定することと、
を含む、コンピュータ実装方法に関する。
[0037] 幾つかの実施形態は、都市部における車両の場所を決定するためのコンピュータ実装方法であって、方法が、メモリ及び少なくとも1つのカメラと通信する少なくとも1つのプロセッサを含む車両搭載コンピューティングデバイスによって行われ、メモリが、参照背景画像のライブラリを含み、方法が、
少なくとも1つのカメラが都市部を移動中に都市部の画像を捕捉することと、
マッチする参照背景画像を識別するために、背景マッチングモジュールを使用して捕捉画像を処理することと、
マッチする参照背景画像のメタデータに基づいて、車両の場所を決定することと、
を含む、コンピュータ実装方法に関する。
[0038] 幾つかの実施形態では、少なくとも1つのカメラは、車両に取り付けられる。
[0039] 幾つかの実施形態では、車両の場所の決定は、車両搭載コンピューティングデバイスによってリアルタイムで行われる。
[0040] 幾つかの実施形態は、都市部における場所決定のためのシステムであって、システムが、
少なくとも1つのカメラであって、少なくとも1つのカメラが都市部を移動中に、少なくとも1つのカメラが都市部の画像を捕捉するように位置決めされる、少なくとも1つのカメラと、
少なくとも1つのカメラと共に移動し、及び捕捉画像を受信するために少なくとも1つのカメラと通信するコンピューティングデバイスと、
を含み、
コンピューティングデバイスが、少なくとも1つのプロセッサと、少なくとも1つのプロセッサにアクセス可能なメモリと、を含み、
メモリが、参照背景画像及び各参照背景画像のメタデータのライブラリを含み、メタデータが、場所情報を含み、
メモリが、
マッチする参照背景画像を識別するために、背景マッチングモジュールを使用して、捕捉画像を処理することと、
マッチする参照背景画像のメタデータに基づいて、少なくとも1つのカメラ及びコンピューティングデバイスの場所を決定することと、
を行うように少なくとも1つのプロセッサを構成するための、少なくとも1つのプロセッサによって実行可能なプログラムコードを保存する、システムに関する。
[0041] 幾つかの実施形態では、背景マッチングモジュールを使用して捕捉画像を処理することは、
捕捉画像から背景記述子を抽出することと、
抽出された背景記述子に基づいて、参照背景画像のライブラリから1つ又は複数の候補マッチング画像を選択することと、
マッチする参照背景画像を選択するために、捕捉画像と候補マッチング画像との間で幾何学的マッチングを行うことと、
を含む。
[0042] 幾つかの実施形態では、背景マッチングモジュールは、少なくとも1つの捕捉画像内の1つ又は複数の静止した特徴に対応した背景記述子を抽出するように構成された背景特徴抽出器ニューラルネットワークを含む。
[0043] 幾つかの実施形態では、幾何学的マッチングは、ランダムサンプルコンセンサスプロセスを使用して行われ、及び幾何学的マッチングは、少なくとも1つの捕捉画像と候補マッチング画像のそれぞれとにおいて、共通の視覚的特徴を識別することを含む。
[0044] 幾つかの実施形態では、コンピューティングデバイスは、場所をリアルタイムで決定するように構成される。
[0045] 幾つかの実施形態では、少なくとも1つのカメラは、車両の付近の画像を捕捉するために、車両に取り付けられる。
[0046] 幾つかの実施形態では、車両は、自律運転車両である。
[0047] 幾つかの実施形態では、車両は、車載GPS受信機を含み、車両は、画像ベースの場所決定トリガイベントに応答して、場所決定のためのシステムを使用して、場所決定をトリガするように構成される。
[0048] 幾つかの実施形態では、画像ベースの場所決定トリガイベントは、
車載GPS受信機による低確度GPSデータの生成、又は
車両による所定のジオフェンスの横断、
の少なくとも一方を含み得る。
[0049] 幾つかの実施形態は、場所決定のためのコンピュータ実装方法であって、方法が、メモリと通信する少なくとも1つのプロセッサを含むコンピューティングデバイスによって行われ、方法が、
リモートコンピューティングデバイスからコンピューティングデバイスによって入力画像を受信することであって、入力画像が、決定されるべき場所に対応する、受信することと、
メモリに保存された参照背景画像のライブラリの中からマッチする参照背景画像を識別するために、コンピューティングデバイスのメモリに設けられた背景マッチングモジュールを使用して、受信した入力画像を処理することと、
マッチする参照背景画像のメタデータに基づいて、入力画像に対応した場所情報を決定することと、
決定された場所情報をリモートコンピューティングデバイスに送信することと、
を含む、方法に関する。
[0050] 幾つかの実施形態では、背景マッチングモジュールは、背景特徴抽出器ニューラルネットワークを含み、方法は、
背景特徴抽出器ニューラルネットワークを使用して、少なくとも1つの捕捉画像から背景記述子を抽出することと、
抽出された背景記述子に基づいて、背景画像のライブラリから1つ又は複数の候補マッチング画像を選択することと、
マッチする参照背景画像を選択するために、少なくとも1つの捕捉画像と候補マッチング画像との間で幾何学的マッチングを行うことと、
によって、マッチする参照背景画像を識別することをさらに含む。
[0051] 幾つかの実施形態では、幾何学的マッチングは、少なくとも1つの捕捉画像と候補マッチング画像のそれぞれとにおいて、共通の視覚的特徴を識別することを含む。
[0052] 幾つかの実施形態では、幾何学的マッチングは、ランダムサンプルコンセンサスプロセスを使用して行われる。
[0053] 幾つかの実施形態では、背景特徴抽出器ニューラルネットワークは、少なくとも1つの捕捉画像内の1つ又は複数の恒久的な静止した特徴に対応した背景記述子を抽出するように訓練される。
[0054] 幾つかの実施形態では、方法は更に、
リモートコンピューティングデバイスから入力画像に対応したGPSデータを受信することであって、GPSデータが低データ品質指標を含む、受信することと、
決定された場所情報に基づいて、GPS訂正信号を生成することと、
GPS訂正信号をリモートコンピューティングデバイスに送信することと、
をさらに含み、
GPS訂正信号は、より正確なGPS場所データを決定するためにリモートコンピューティングデバイスによってアクセス可能な情報を含む。
[0055] 幾つかの実施形態は、コンピュータによって実行されると、コンピュータに上記実施形態の何れか1つに記載の駐車モニタリングの方法を行わせる命令を保存するコンピュータ可読ストレージ媒体に関する。
[0056] 幾つかの実施形態は、都市部における駐車モニタリングのためのシステムであって、システムが、
少なくとも1つのカメラであって、少なくとも1つのカメラが、都市部の画像を捕捉するように位置決めされる、少なくとも1つのカメラと、
捕捉画像を受信するために、少なくとも1つのカメラと通信するコンピューティングデバイスと、を含み、
コンピューティングデバイスが、少なくとも1つのプロセッサと、少なくとも1つのプロセッサにアクセス可能なメモリと、を含み、
メモリが、参照背景画像のライブラリを含み、
メモリが、
少なくとも1つの捕捉画像における1つ又は複数の駐車指標を識別するために、駐車指標検出機械学習モデルを使用して捕捉画像を処理することと、
少なくとも1つの捕捉画像における少なくとも1つの駐車指標の識別時に、マッチする参照背景画像を識別するために、背景マッチングモジュールを使用して、少なくとも1つの捕捉画像を処理することと、
マッチする参照背景画像に基づいて、駐車場所を決定することと、
決定された駐車場所又は識別された1つ又は複数の駐車指標に基づいて、駐車条件を決定することと、
少なくとも1つの捕捉画像においてターゲット車両に対応したナンバープレート番号を決定するために、少なくとも1つの捕捉画像を処理することと、
決定されたナンバープレート番号及び決定された駐車条件に基づいて、決定された駐車条件に対するターゲット車両の順守を決定することと、
を行うように少なくとも1つのプロセッサを構成するための、少なくとも1つのプロセッサによって実行可能なプログラムコードも含む、システムに関する。
図面の簡単な説明
[0057]幾つかの実施形態による、駐車モニタリングシステムのブロック図である。 [0058]幾つかの実施形態による、駐車モニタリングのためのプロセスのフローチャートである。 [0059]幾つかの実施形態による、場所決定のためのプロセスのフローチャートである。 [0060]駐車指標識別及び車両識別を示す捕捉画像の例である。 [0060]駐車指標識別及び車両識別を示す捕捉画像の例である。 [0060]駐車指標識別及び車両識別を示す捕捉画像の例である。 [0060]駐車指標識別及び車両識別を示す捕捉画像の例である。 [0061]背景マッチングプロセスを示す例示的な画像ペアである。 [0062]参照背景画像の一例である。 [0063]図9の参照背景画像と同じ駐車場所に対応した捕捉画像の一例である。 [0064]図9の画像を図10の画像上に重ね合わせることによって取得された画像である。 [0065]幾つかの実施形態による、監視車両の一部の画像である。 [0066]幾つかの実施形態による、画像注釈のためのプロセスのフローチャートである。 [0067]幾つかの実施形態による、画像注釈ユーザインタフェースのスクリーンショットである。 [0068]幾つかの実施形態による、自動場所外挿の結果を示す画像である。 [0069]幾つかの実施形態による、駐車モニタリングの幾つかの態様を示す模式図である。 [0070]幾つかの実施形態による、駐車モニタリングの幾つかの態様を示す模式図である。 [0071]幾つかの実施形態による、場所決定のためのシステムのブロック図である。 [0072]図18のシステムによって行われる場所決定のプロセスのフローチャートである。 [0073]幾つかの実施形態による、自律走行車両の一部のブロック図である。 [0074]背景マッチングプロセスを示す例示的な画像ペアである。 [0075]幾つかの実施形態による、例示的なコンピュータシステムを示す。
詳細な説明
[0076] 記載の実施形態は、画像を使用した場所推定のためのシステム及び方法に関する。建物の密度が高い都市部では、GPS信号の接続性及び精度は、路上又は地表面上では劣っていることが多く、それによって、GPSデバイスを使用した不正確な場所推定が引き起こされる。記載の実施形態は、場所情報をリアルタイムで、又はほぼリアルタイムで決定するために、画像処理技術に依存する。
[0077] 幾つかの記載の実施形態は、都市部における駐車及び駐車条件の順守をモニタリングするためのシステム及び方法にも関する。都市部では、駐車スペースが、限られた資源であることが多い。都市部は、交通の効率を管理しながら限られた駐車資源を最善に割り当てるための幾つかの駐車条件又は制約も適所に有し得る。駐車スペースは、地方自治体の財源にもなる場合がある。駐車条件又は制約の効果は、継続的施行の程度によって決まる。適所で適切な施行がなければ、駐車条件は、違反されることが多く、公正な駐車資源の割り当てに影響を与え、交通の効率を害する可能性がある。
[0078] 幾つかの実施形態は、自律走行車両による使用、又は自律走行車両における使用に適した場所推定のためのシステム及び方法に関する。
[0079] 記載の実施形態は、画像内の持続的な背景をマッチングさせることによって都市部における場所を決定するために、画像処理技術に依存する。幾つかの実施形態は、駐車標識、車両、及びナンバープレートなどの物体を識別するためにも、画像処理技術に依存する。幾つかの実施形態は、駐車標識又は車両ナンバープレートの文字を認識するために、文字認識技術に依存する。幾つかの実施形態は、識別された物体の重複を排除し、より信頼性のある結果を提供するために、幾つかの画像にわたり識別された物体の追跡も行う。幾つかの実施形態は、都市部を回って駐車条件の順守をリアルタイムで評価する監視車両に取り付けられてもよい。監視車両は、例えば、乗用車、バン、又は都市部の街路又は道路を横断可能な他の移動車両を含み得る。
[0080] 図1は、幾つかの実施形態による、システム100のブロック図である。システム100は、ネットワーク170上でリモートコンピュータシステム180と無線通信する監視車両110を含む。監視車両は、少なくとも1つのカメラ120を含む。幾つかの実施形態では、監視車両は、複数のカメラ120を含んでもよい。幾つかの実施形態では、カメラ120は、監視車両110の屋根に取り付けられてもよい。カメラ120は、駐車モニタリングを行うのに適した画像を取得するために、監視車両110の移動方向に対して適切な角度を成すことができる。幾つかの実施形態では、監視車両は、6つのカメラを含んでもよく、3つのカメラが、監視車両の各側方(左及び右)を向く。それぞれの側の3つのカメラは、例えば、監視車両の移動方向に対してそれぞれ45度、90度、及び135度の角度で位置決めされてもよい。異なる角度は、異なる視点から都市部の画像を捕捉することを可能にし得る。異なる角度からの画像を使用して様々な動作を重複して行うことによってシステムの精度を向上させるために、異なる複数の視点からの画像が使用され得る。さらに、一部の路上の看板は、街路と平行の場合があり、他の路上の看板は、街路に対して垂直、又は角度を成す場合がある。異なる角度のカメラ120は、様々な角度で路上の看板を捕捉することを可能にし得る。各カメラ120は、例えば、3072×1728ピクセルの解像度で画像を捕捉し得る。
[0081] システム100は、画像処理コンピューティングデバイス130も含む。画像処理コンピューティングデバイス130は、カメラ120と通信する。コンピューティングデバイス130は、車両110内に、又は車両110上で安全なハウジング内に位置決めされてもよい。コンピューティングデバイス130は、少なくとも1つのプロセッサ132、通信モジュール134、及びメモリ136を含む。メモリ136は、揮発性及び不揮発性両方のメモリを含み得る。幾つかの実施形態では、プロセッサ132は、機械学習プログラム又はプロセスの動作を加速させるように特別に設計されてもよい。具体的には、少なくとも1つのプロセッサ132は、機械学習プロセス又はプログラムの実行を加速させるためのグラフィック処理ユニット(GPU)を含んでもよい。GPUは、高度並列計算動作を可能にし、したがって、リアルタイムで、又はほぼリアルタイムで結果を取得するための機械学習プロセス又はプログラムの実行により適する。例えば、幾つかの実施形態は、プロセッサ132を提供するために、NVIDIA(商標)Jetson組み込みコンピューティングボードを組み込んでもよい。
[0082] メモリ136は、駐車指標検出機械学習(ML)モデル142、参照背景画像ライブラリ144、車両検出MLモデル158、ナンバープレート検出MLモデル159、背景マッチングモジュール152、駐車条件及び順守決定モジュール162、並びに文字認識モジュール164を含む。参照背景画像ライブラリ144は、参照背景画像146及び参照背景画像に関連付けられたメタデータ148を含む。背景マッチングモジュール152は、背景特徴抽出器モジュール154及び幾何学的マッチ検証モジュール156を含む。通信モジュール134は、コンピューティングデバイス130とネットワーク170との間の無線通信を容易にするために必要なハードウェア及びソフトウェアを含む。無線通信は、例えば3G、4G、又は5Gネットワークなどの無線テレコミュニケーションネットワークによって達成することができる。
[0083] 幾つかの実施形態では、車両110は、任意選択的に、画像処理コンピューティングデバイス130と通信するGPS受信機126を含んでもよい。GPS受信機126は、コンピューティングデバイス130に対して、車両110に対応したGPSデータを送信することができる。GPS受信機によって生成されたGPSデータは、GPS信号の品質表示を含む。例えば、米国海洋電子機器協会(NMEA:National Marine Electronics Association)0183規格によって規定された「SGPGGA」(全地球測位システム修正データ(Global Positioning System Fix Data))フォーマットで示されたGPSデータは、例えば、GPS修正品質指標(GPS fix quality indicator)、水平方向確度低下率指標(HDOP:horizontal dilution of precision)を含む。画像処理コンピューティングデバイス130は、GPS受信機126によって生成されたGPSデータを処理し、受信した1つ又は複数のGPSデータ品質指標が、品質の劣ったGPS信号データ又は望ましい確度に届かないGPS信号データを示すかどうかを決定するように構成され得る。幾つかの実施形態では、望ましい確度に届かないGPS信号データは、比較のための背景画像146を絞り込むために、背景マッチングモジュール152によって使用されてもよく、背景マッチングモジュール152における検討する画像の数を相対的に絞り込むことによって、計算上の利点が提供される。
[0084] 幾つかの実施形態では、画像処理コンピューティングデバイス130は、車両110内に、又は車両110上になくてもよく、場所決定が行われる都市部から離れて位置してもよい。例えば、画像処理コンピューティングデバイス130は、リモートコンピュータシステム180などのリモートサーバシステムの一部でもよく、又はそれを形成してもよい。このような実施形態では、画像処理コンピューティングデバイス130は、場所決定をリモートで行うために、カメラ120a、120bによって捕捉された画像を受信し得る。
[0085] 幾つかの実施形態では、画像処理コンピューティングデバイス130は、メモリ136に設けられたGPS訂正信号生成モジュール167を含み得る。従来のGPS受信機によって生成される信号は、様々な形態のエラーを受けやすい。これらのエラーには、例えば、建物又は木などの恒久的構造物によるGPS信号の障害、建物によるGPS信号の反射、電波障害、太陽嵐によるエラーが含まれ得る。GPS信号エラーの訂正を行うための代替手段の1つは、差分全地球測位システム(DGPS:Differential Global Positioning System)を使用することである。DGPSは、GPS衛星システムによって示される位置と、地上参照ステーション(ground-based reference station)の既知の固定位置との間の差を放送するために、固定地上参照ステーションのネットワークを使用する。DGPSシステムから信号を受信するように構成されたGPS受信機は、計算された場所を訂正するために、DGPSシステムによって送信された信号を使用する。
[0086] 幾つかの実施形態では、GPS訂正信号生成モジュール167は、1つ又は複数の受信画像に基づいて決定された場所情報に基づいて、GPS訂正信号を生成する。生成されたGPS訂正信号は、GPS場所をリアルタイムで、又はほぼリアルタイムで訂正するために、画像処理コンピューティングデバイス130によって他のコンピューティングデバイスに送信され得る。このような他のコンピューティングデバイスは、スマートフォン、又は自律走行車両、又は場所データを使用する場合があり、場所精度の向上の恩恵を受け得る他のコンピューティングデバイスを含み得る。
[0087] ネットワーク170は、例えば、1つ又は複数のメッセージ、パケット、信号、又はこれらのある組み合わせなどの送信、受信、転送、生成、バッファリング、保存、ルーティング、切換え、処理、又はそれらの組み合わせなどを行う1つ又は複数のノードを有する1つ又は複数のネットワークの少なくとも一部を含み得る。ネットワーク170は、例えば、無線ネットワーク、有線ネットワーク、インターネット、イントラネット、公衆網、パケット交換網、回線交換網、アドホックネットワーク、インフラネットワーク、公衆交換電話網(PSTN)、ケーブルネットワーク、セルラーネットワーク、光ファイバネットワーク、又はこれらのある組み合わせなどの1つ又は複数を含み得る。
[0088] 車両110は、カメラ120及び画像処理コンピューティングデバイス130に電力を供給するための電源125も含む。電源125は、車両110の電力供給システム、又はバッテリ、又はこれら2つの組み合わせによって生成された電力を供給することができる。
[0089] 駐車指標検出MLモデル142、ナンバープレート検出MLモデル159、及び車両検出MLモデル158は、画像処理技術に基づいて物体検出を行う。物体検出を行うために、実施形態によって様々な機械学習技術が用いられ得る。幾つかの実施形態では、駐車指標検出MLモデル142、ナンバープレート検出MLモデル159、及び車両検出MLモデル158は、深層学習ベースのニューラルネットワークを使用して物体検出を行い得る。幾つかの実施形態では、物体検出のためのYOLO(you look only once)フレームワーク、又はSSD(single shot multibox detector)ベースのモデルを使用して、物体検出が行われてもよい。幾つかの実施形態では、物体検出のための深層学習ベースのフレームワークは、R-CNN(regions with convolutional neural networks)、又はFast R-CNN(fast region-based convolutional network)法、又はFaster R-CNN(faster region-based convolutional network)法を含み得る。
[0090] 幾つかの実施形態によって実装されるCNNは、構造及び動作が互いに異なり得る複数のニューロン層を含み得る。CNNの第1の層は、ニューロンの畳み込み層でもよい。ニューロンの畳み込み層は、入力画像のピクセル間の空間的関係を維持しながら、入力画像から特徴を抽出する機能を行う。畳み込み演算の出力は、入力画像の特徴マップを含み得る。畳み込みの演算は、フィルタ又はカーネル行列を使用して行われ、フィルタ又はカーネル行列における具体的な重みは、以下に記載されるプロセスによってCNNを訓練することによって取得又は較正される。
[0091] 畳み込み層の後に、CNNは、幾つかの実施形態では、プーリング層、又は正規化線形ユニット(ReLU:rectified linear unit)層、又はその両方を実装する。プーリング層は、最も重要な特徴情報は保持しながら、各特徴マップの次元を減少させる。ReLU演算は、入力画像から学習されるべき現実世界のデータのほとんどが非線形であるため、CNNにおいて非線形性を導入する。CNNは、複数の畳み込み層、ReLU層、及びプーリング層を含んでもよく、先行するプーリング層の出力が、後続の畳み込み層への入力として供給され得る。この多数のニューロンの層は、CNNが深層学習アルゴリズム又は技術と呼ばれる理由である。CNNの最後の1つ又は複数の層は、出力を生じさせるために畳み込み層及びプーリング層によって抽出された高位特徴を使用する従来の多層パーセプトロンニューラルネットワークでもよい。CNNの設計は、動物の視覚野におけるニューロンのパターン及び接続性に発想を得たものである。CNNの設計のこの基礎は、画像内の物体検出の機能を行うためにCNNが選ばれ得る理由の1つである。
[0092] 駐車指標検出MLモデル142は、カメラ120によって捕捉された画像内の駐車指標を検出するように構成される。駐車指標は、駐車標識、又は車両上のナンバープレートを含む。駐車標識は、パーキングエリアに関連付けられた条件に関する制約を示す、パーキングエリア付近の看板を含む。条件は、ある特定の期間中に車両に許容された駐車の最大時間、駐車料金の適用、パーキングエリアにおける駐車許可要件、又はパーキングエリア内の車両が従う必要があるその他の関連の駐車条件を含み得る。パーキングエリアは、車両を駐車するよう指定された街路に隣接したエリアでもよい。パーキングエリアは、1つ又は複数の駐車区画又はスロットを含む場合があり、1つの区画又はスロットは、単一の車両用である。駐車標識は、パーキングエリア内のすべての区画、又はパーキングエリア内の区画の一部に関する駐車条件を規定し得る。駐車標識は、パーキングエリアの範囲又は境界も示し得る。
[0093] 駐車指標検出MLモデル142は、駐車指標を検出するために、カメラ120によって捕捉された画像を処理するように訓練される。駐車指標検出MLモデル142の訓練は、画像の訓練データセット内の各画像において識別された駐車指標(グラウンドトゥルース物体)を有する訓練データセットに基づいてもよい。訓練データセットを使用して、駐車指標検出MLモデル142は、逆伝搬などの教師あり学習方法論によって訓練される。訓練された駐車指標検出MLモデル142は、入力画像内の駐車指標を識別し、駐車指標に対応した入力画像の部分を分離することもできる。訓練された駐車指標検出MLモデル142は、様々な駐車指標を駐車標識又はナンバープレートなどの別個のカテゴリに分類することもでき得る。異なる都市は、異なる駐車標識を有する場合があり、それに応じて、駐車指標検出MLモデル142は、例えば、特定の都市の駐車標識を認識するように訓練されてもよい。
[0094] 車両検出MLモデル158は、カメラ120によって捕捉された画像内でターゲット車両を識別するために、駐車指標検出MLモデル142と類似の物体検出技術を使用する。ターゲット車両は、駐車条件が適用され得る二輪車、又は四輪車、又はトラックなどのより大型の車両を含み得る。車両検出MLモデル158は、捕捉画像内の1つ又は複数のターゲット車両を検出し、識別された車両に対応した画像の部分の識別するように訓練される。
[0095] 参照背景画像ライブラリ144は、参照背景画像146及び背景画像メタデータ148を含む。参照背景画像146は、場所を決定するためにカメラ120によって捕捉された画像をマッチングするプロセス中に、背景マッチングモジュール152用の参照として機能する画像を含む。参照背景画像メタデータ148は、各参照背景画像に関するメタデータを含む。メタデータ148は、参照背景画像に関連付けられた場所情報を含み得る。幾つかの実施形態では、場所情報は、経度座標情報及び緯度座標情報を含み得る。メタデータ148は、各参照背景画像に関連付けられた場所の付近にある駐車場所又はパーキングエリアに関連付けられた駐車条件を含み得る。駐車場所は、街路名、番地、駐車区画番号、及び都市名を含み得る。
[0096] 幾つかの実施形態では、背景画像メタデータ148は、駐車区域を規定する情報を含み得る。駐車区域は、共通の駐車条件セットを有する、駐車用に指定された、街路に隣接した連続エリアでもよい。背景画像146は、駐車区域の複数の画像を含み得る。各駐車区域は、駐車区域の始まりを示す標識又は標柱などの駐車区域開始指標によって規定されてもよい。同様に、各駐車区域の終わりは、駐車区域の終わりを示す標識又は標柱によって指定されてもよい。幾つかの実施形態では、メタデータ148は、特定の背景画像146が駐車区域の始まり、又は駐車区域の終わりに関するという表示を含み得る。幾つかの実施形態では、背景画像146は、規定された駐車区域を越えた、並びに駐車区域の始まり及び終わりに隣接した背景画像も含み得る。規定された駐車区域を越えた背景画像の包含は、規定された駐車区域を越えた駐車モニタリング中の場所の推定を可能にする。
[0097] 文字認識モジュール164は、画像内に存在する文字を認識するために、文字を含む画像又は画像の部分を処理するプログラムコードを含む。文字認識は、認識に備えて画像を準備するために画像の前処理を行うこと、及びパターンマッチング、又は代替的に特徴抽出(その後に、テキスト又は文字を認識するための、抽出された特徴の分類が続く)によって行われ得るテキスト認識を伴う。
[0098] 駐車条件及び順守決定モジュール162は、駐車条件を決定し、決定された駐車条件に対する車両の順守を評価する機能を行う。幾つかの実施形態では、駐車条件は、文字認識モジュール164を使用して駐車指標検出MLモデル142によって検出された駐車標識に対応した捕捉画像の部分を処理することによって決定され得る。文字認識モジュール164は、駐車標識に存在する文字を決定し、認識された文字は、駐車標識によって示される駐車条件を決定するために、駐車条件及び順守決定モジュール162のプログラムコードを実行するプロセッサ132によって処理され得る。決定された駐車条件は、例えば、特定の車両に関する最大駐車時間制限、又は特定の期間中の駐車禁止の場合がある。幾つかの実施形態では、駐車条件及び順守決定モジュール162は、パーキングエリア又はパーキングエリア内の駐車区画の場所に基づいて、駐車条件を決定し得る。駐車条件は、参照背景画像ライブラリ144内に背景画像メタデータ148の一部として保存されてもよい。駐車場所の捕捉画像が参照背景画像ライブラリ144内の画像とマッチした際に、捕捉画像内のパーキングエリアに関連付けられた駐車条件を取得するために、マッチした参照画像に関連付けられたメタデータが問い合わせされてもよい。駐車条件及び順守決定モジュール162は、ターゲット車両に関する情報に基づいて、ターゲット車両の駐車条件の順守も決定し得る。この情報は、ターゲット車両の輪郭を含み得る。この情報は、ターゲット車両に対応したナンバープレートが最初に特定のパーキングエリアで識別されたタイムスタンプも含み得る。
[0099] 背景マッチングモジュール152は、カメラ120によって捕捉された画像を参照背景画像ライブラリ144内の画像とマッチングさせる機能を行う。背景比較を効率的に行うために、幾つかの実施形態では、背景マッチングモジュール152は、大規模画像検索及び比較に適した注意深い局所的特徴記述子に基づいた、DELF(Deep Local Feature)として知られる画像検索及び比較プロセスを組み込んでもよい。
[0100] 駐車モニタリングのためのシステム100を実装する前に、都市部の様々な駐車スペースの調査が行われ得る。調査は、パーキングエリアの写真を撮ること、及び写真をそれらが対応する場所にマッピングすることを含み得る。調査は、基本的に参照背景画像ライブラリ144の内容を拡充する。パーキングエリアの各駐車区画又はパーキングエリアの部分に関する写真が撮られてもよい。駐車モニタリング中の決定された駐車場所の特定性に対する要求が、途切れのないパーキングエリアをカバーするのに必要とされる写真の数を決定し得る。例えば、決定された場所が、特定の駐車区画にマッピングされる必要がある場合には、参照背景画像ライブラリ144を拡充するために、各駐車区画の写真が撮られてもよい。決定された場所が、10メートルの範囲内で許容可能に存在するとするならば、参照背景画像ライブラリ144を拡充するために、途切れのないパーキングエリアにわたり、10メートルごとに写真が撮られてもよい。幾つかの実施形態では、参照背景画像を収集するための調査は、照明又は天候条件の変化にかかわらず場所の決定を可能にするために、様々な照明条件又は天候条件下で行われ得る。
[0101] パーキングエリアの調査の完了後に、背景特徴抽出器モジュール154は、捕捉画像内の背景特徴又は背景特徴記述子を抽出するために捕捉画像を処理するように訓練され得る。背景記述子は、捕捉画像の背景の符号化表現である。背景記述子は、最近傍探索などの計算最適化技術を使用して様々な画像の背景の比較を可能にする。
[0102] 背景記述子は、恒久的な、又は静止した画像の領域又は部分に対応し得る。したがって、決定された背景記述子は、ある場所に対応した画像の静止部分と動的部分を区別するために使用することができる。例えば、掲示板を備えたバス停の画像内で、掲示板の画像領域は、動的と見なすことができ、背景特徴抽出器モジュール154は、掲示板に対応する画像の部分又は領域を無視するように訓練することができる。バス停の同じ画像内で、標識又は支柱若しくは待合所などの恒久的構造物に対応する画像の部分が、背景特徴抽出器モジュール154によって、この画像の背景記述子として抽出され得る。したがって、背景特徴抽出器モジュール154は、同じ場所に対応する他の画像との比較のための効率的な、及び信頼性のある基礎を提供する、恒久的構造物、又は静止構造物に対応する画像内の背景記述子を識別するように訓練される。
[0103] 幾つかの実施形態では、特徴抽出器モジュール154は、捕捉画像から背景特徴記述子を抽出するように訓練されたCNNを含み得る。CNNは、捕捉画像内の特徴に関する注意指標(attention indicator)又は重みを決定するように訓練されたニューロンのさらなる層(注意決定層(attention determination layer))を含み得る。例えば、持続的な背景に対応する特徴は、高い注意重み(attention weight)を与えられ、非持続的又は一時的な背景に対応する特徴は、低い注意重みを与えられてもよい。注意決定層は、本質的に、背景特徴抽出器モジュール154が、捕捉画像の持続的な部分と一時的な部分を区別することを助け、参照背景画像ライブラリ144内の画像の背景に対する捕捉画像の背景の効率的な比較を支援する。
[0104] 幾つかの実施形態では、システム100は、駐車監視をリアルタイムで、又はほぼリアルタイムで行うことができる。駐車違反は、非常に一時的で、時間特定的な罪の場合があるため、効果的な駐車条件施行戦略のためには、このような違反をそれらが生じた際に捕捉することが非常に重要となり得る。都市部では、車両が利用可能な全パーキングエリアを詳しく調査するために、非常に多数の参照背景画像が必要となり得る。加えて、監視車両110は、都市部を走り回って画像を捕捉し得る。リアルタイム、又はほぼリアルタイムの駐車監視を可能にするためには、背景比較を行うために利用可能な計算時間(又はコンピューティング資源)が比較的少なくなり得る。背景マッチングモジュール152によって組み込まれたDELFプロセスは、捕捉画像と参照背景ライブラリ144内の画像の効率的な比較を可能にする。
[0105] 幾つかの実施形態では、背景特徴抽出器モジュール154は、2つ以上のマッチする背景画像を識別し得る。これは、背景の相対類似性によるものの場合がある。そのような場合、幾何学的マッチ検証モジュール156が、単一のマッチした画像に絞り込むことを支援し得る。幾何学的マッチ検証モジュール156は、単一のマッチした参照背景画像に絞り込むために、ホモグラフィテストプロセスに依存し得る。幾つかの実施形態では、幾何学的マッチ検証モジュール156は、単一のマッチした参照背景画像に絞り込むために、ランダムサンプルコンセンサス(RANSAC:random sample consensus)プロセスに依存し得る。
[0106] 幾何学的マッチ検証モジュール156は、2つの画像を解析し、これら2つの画像内の1つ又は複数の共通の視覚的特徴を決定又は識別するためのプログラムコードを含む。例えば、幾何学的マッチ検証モジュール156は、2つの画像から特徴のある視覚的特徴又は形状又は曲線を抽出し得る。これら2つの画像がマッチであると見なすことができ、したがって、共通の場所に対応すると見なすことができるか否かを評価するために、各画像からの対応する特徴のある視覚的特徴又は形状又は曲線間の重複が決定されてもよい。
[0107] 幾つかの実施形態では、背景マッチングモジュール152は、背景マッチングを行うために画像内の局所的特徴を検出及び記述するために、SIFT(scale-invariant feature transform)プロセスに依存し得る。幾つかの実施形態では、背景マッチングモジュール152は、背景マッチングを行うために画像内の局所的特徴を検出及び記述するために、SURF(speeded-up robust features)プロセスに依存し得る。
[0108] リモートコンピュータシステム180は、駐車違反に応答したアクションを管理し、及び例えば監視車両110又は別のコンピューティングデバイスで展開された参照背景画像ライブラリ144の内容を管理するためのシステムでもよい。監視車両110から受信した駐車条件不順守情報に基づいて、リモートコンピュータシステム180は、例えば、罰金の賦課、又は違反に関して官庁に通報することなどの施行アクションを支援すること、又は施行アクションを取ることを行い得る。
[0109] リモートコンピュータシステム180は、メモリ172と通信する少なくとも1つのプロセッサ174を含む。幾つかの実施形態では、メモリ172は、背景画像注釈ツール149を実装するためのプログラムコードを含む。
[0110] 背景画像注釈ツール149は、背景画像146の注釈及び背景画像メタデータ148の管理のためのユーザインタフェースを実装するためのプログラムコードを含む。背景画像注釈ツール149は、様々なバージョンの参照背景画像ライブラリ144の作成及び管理を可能にする。リモートコンピュータシステム180上で作成された参照背景画像ライブラリ144の1つのバージョンが、駐車モニタリングを行うために画像処理コンピューティングデバイス130に送信され得る。
[0111] 背景画像注釈ツール149は、ユーザが背景画像146を見直し、背景画像146に注釈を付け、及び注釈プロセスによって背景画像メタデータ148を作成することを可能にする注釈ユーザインタフェースモジュール192を含む。背景画像注釈ツール149は、背景画像146に関して場所の外挿を可能にする場所外挿モジュール194を含む。背景画像注釈ツール149を使用した注釈及び外挿の説明は、図13、図14、及び図15を参照して行う。
[0112] 図2は、幾つかの実施形態による、駐車モニタリングのためのプロセス200のフローチャートである。図2の駐車モニタリングプロセスの動作の前提条件として、関連の都市部の様々なパーキングエリアの調査が行われ、参照背景画像ライブラリ144は、例えば場所データ及び駐車条件を含む関連の画像メタデータと共に拡充される。駐車指標検出MLモデル142、車両検出MLモデル158、及び背景マッチングモジュール152は、モニタリングされている関連の都市部から取得された画像データに関して訓練される。
[0113] 210では、カメラ120は、都市部の画像を捕捉し、処理のために画像をプロセッサ132が利用できるようにする。画像は、監視車両110が都市部の中を移動するときに捕捉され得る。カメラ120は、駐車車両及び駐車標識の良好なビューを得るために、パーキングエリアに向けられ得る。複数のカメラ120を備えた幾つかの実施形態では、異なる角度で撮られた画像が、処理のためにプロセッサ132が利用できるようにされてもよい。異なる角度からの画像の利用可能性は、システム100によって行われる様々な物体検出及び背景マッチング動作の照合を可能にする。
[0114] 212では、駐車指標検出MLモデル142は、捕捉画像内の1つ又は複数の駐車指標を識別するために捕捉画像を処理する。駐車指標検出MLモデル142は、出力として、捕捉画像内で識別された各駐車指標の周りの境界ボックスを規定する座標を返し得る。駐車指標検出MLモデル142は、出力として、駐車指標の性質(例えば、駐車指標が駐車標識であるか、それともナンバープレートであるか)も返し得る。幾つかの実施形態では、駐車指標検出MLモデル142は、駐車の時間制限を規定する駐車指標、又はレッカー移動区域を知らせる駐車指標などの駐車指標のタイプを識別し得る。214では、捕捉画像内で少なくとも1つの駐車指標が決定された場合には、プロセスは、216に進む。駐車指標が検出されなければ、監視車両が移動しながら都市部の画像を捕捉し続けることを伴う210で、プロセスが継続する。幾つかの実施形態では、ステップ212及び214は、任意選択であってもよい。ステップ212及び214が任意選択である実施形態では、場所に関連付けられた駐車条件は、背景マッチングモジュール152によって推定された場所に基づいて、及び推定された場所に関連付けられた、背景画像メタデータ148に保存された駐車条件データを参照することによって、決定され得る。
[0115] 216では、駐車指標が識別される捕捉画像が、背景マッチングモジュール152によって処理される。背景マッチングモジュール152は、単一のマッチする参照背景画像を識別するために、捕捉画像を参照背景画像ライブラリ144内の画像と比較する。識別された単一の参照背景画像に基づいて、単一のマッチする参照背景画像に関連付けられた背景画像メタデータ148を問い合わせることによって、駐車場所が決定される。駐車場所は、例えば、街路名、番地、駐車区画識別子、又は駐車区域識別子を含み得る。
[0116] 幾つかの実施形態では、カメラ120は、都市部の中を移動するときに、画像ストリームを捕捉する。画像ストリームは、ストリーム内の幾つかの捕捉画像内の駐車指標を識別するために、駐車指標検出MLモデル142によって処理され得る。画像ストリーム内で検出された駐車指標は、物体追跡画像処理技術を使用して、捕捉画像のストリームを通して追跡され得る。捕捉画像のストリーム内の識別された物体の追跡は、識別された駐車指標の重複の排除を可能にする。同様に、捕捉画像のストリームは、216の背景マッチングに使用され得る。212及び216における画像ストリームの使用は、捕捉画像のストリーム全体にわたる潜在的エラーがクロスチェック及び照合され得るため、駐車モニタリングプロセスの精度を向上させることができる。
[0117] 218では、駐車条件及び順守決定モジュール162が、216で識別された駐車場所に関連付けられた駐車条件を決定する。幾つかの実施形態では、駐車条件は、文字認識モジュール164を使用して駐車標識を含む識別された駐車指標を処理して駐車標識内の文字又はテキストを識別することと、その文字を処理して駐車条件を決定することとによって決定され得る。例えば、駐車標識が「1P 730AM-630PM」と表示されている場合、駐車条件及び順守決定モジュール162は、午前7時30分~午後6時30分の期間中、最大で1時間、駐車スポットに駐車してもよいと決定することができる。幾つかの実施形態では、文字認識モジュール164は、パーキングエリアの始まり又は終わりを示す矢印記号などのシンボルも読み取ることができる。駐車条件及び順守決定モジュール162は、駐車条件が適用されるエリアの範囲を決定するために、このようなシンボルを解釈することができる。
[0118] 幾つかの実施形態では、駐車条件は、特定の駐車場所にマッピングされた背景画像メタデータ148として保存され得る。駐車条件は、駐車場所又は駐車場所の駐車区画に関連付けられた駐車外周を含み得る。幾つかの駐車条件は、即時に確かめることができ得る。例えば、駐車禁止区域に駐車した車両は、即時に、駐車条件に違反していると見なされ得る。特定の最大時間の駐車などの他の駐車条件は、ある期間にわたる、監視車両110による同じパーキングエリアの2つ以上の観測を必要とし得る。
[0119] 222では、捕捉画像は、ターゲット車両のナンバープレートを検出するために、ナンバープレート検出MLモデル159によって処理される。ナンバープレート検出MLモデルは、ナンバープレートに対応した捕捉画像の部分を識別することができ、それは、ナンバープレートの文字を読み取るために、文字認識モジュール164を呼び出すことができる。222では、プロセス200は、ターゲット車両のナンバープレートの検出に関連付けられたタイムスタンプも記録し得る。タイムスタンプは、日付、及び12時間又は24時間の時刻表示形式の時刻、及びタイムゾーンを含み得る。記録されたタイムスタンプは、時間ベースの駐車条件の順守をチェックするための基準を提供し得る。
[0120] ステップ224、226、及び227は、駐車場所に関して規定された駐車外周内にターゲット車両が存在するかどうかを決定するためにシステム100が構成される幾つかの実施形態では、任意選択である。ステップ224、226、及び227は、駐車条件及び順守決定モジュールによって行われる。224では、車両検出MLモデル158は、捕捉画像内のターゲット車両を検出する。ターゲット車両の検出は、例えば、ターゲット車両に対応した捕捉画像の部分の検出を含み得る。ターゲット車両の検出は、例えば、ターゲット車両に対応した輪郭の検出を含み得る。226では、駐車条件及び順守決定モジュール162は、識別された駐車場所に関連付けられた駐車外周を検索し、識別されたターゲット車両が駐車外周内に位置するかどうかを決定することができる。識別されたターゲット車両が少なくとも部分的に駐車外周内に位置しない場合には、駐車条件及び順守決定モジュール162は、決定された駐車条件の不順守を識別し得る。識別されたターゲット車両が駐車外周内に位置するかどうかを決定する画像処理技術は、ポリゴンワーピング(polygon warping)と呼ばれることがある。ポリゴンワーピングは、捕捉画像上に駐車外周を重ね合わせるための変換行列の計算を含み得る。変換行列は、捕捉画像内のピクセルをマッチした参照背景画像内のピクセルにマッピングする。行列変換は、例えば、プロクルステス分析又は透視変換を含み得る。
[0121] 227では、駐車条件及び順守決定モジュール162は、同じ駐車場所におけるターゲット車両の前の観測を問い合わせることができる。時間制限の駐車条件が駐車場所に適用される場合には、駐車条件及び順守決定モジュール162は、前の観測に基づいて、駐車場所におけるターゲット車両の最初の観測以来の継続時間を推定することができる。第1の観測以来の計算された継続時間に基づいて、駐車条件及び順守決定モジュール162は、ターゲット車両が時間ベースの駐車条件を順守しているかどうかを決定することができる。
[0122] 228では、駐車条件及び順守決定モジュール162は、218で決定された駐車条件に対するターゲット車両の順守を決定する。228における順守の決定は、222で検出されたナンバープレート、及び同じ場所における同じナンバープレートの前の観測に基づき得る。228における順守の決定は、ステップ224、226、及び227の何れか1つ又は複数の出力にも基づき得る。228における順守の決定は、不順守決定をもたらす場合があり、その場合には、駐車条件及び順守決定モジュール162は、例えば、フラグ、オブジェクト、又は遠隔若しくは局所伝送のためのパケットの形式で不順守結果を生成する。
[0123] 229では、コンピューティングデバイス130は、228における順守決定の結果をリモートコンピュータシステム180に送信する。228で不順守決定が行われた場合には、結果の送信は、不順守を示す1つ又は複数の捕捉画像、ターゲット車両のナンバープレート番号、ターゲット車両が検出された時点の1つ又は複数のタイムスタンプ、及びターゲット車両が違反していた1つ又は複数の駐車条件を含み得る。不順守結果の送信は、例えば、駐車条件の不順守に対する処罰が関係当局によって賦課されることを可能にするのに十分な証拠となる詳細を含み得る。不順守結果の送信は、リアルタイムで、又はほぼリアルタイムで駐車条件を守らせるために、不順守が決定された直後に生じ得る。例えば、不順守結果の送信は、近くの監視職員が、車両に関して適切な施行アクションを取ることができるように、職員が携行するローカルクライアントデバイスに転送されてもよい。代替的又は追加的に、不順守結果の送信は、リモートコンピュータシステム180などのサーバデバイスが、不順守を記録し、並びに不順守車両の登録名義人に適切な通知を発行するため、及び/又は罰金を科するために、ネットワーク170を介してサーバデバイスに転送されてもよい。
[0124] 図3は、幾つかの実施形態による場所決定のためのプロセス300のフローチャートである。幾つかの実施形態では、場所決定300のプロセスは、監視車両110に取り付けられたカメラ120aと通信する画像処理コンピューティングデバイス130によって行われてもよい。幾つかの実施形態では、場所決定300のプロセスは、監視車両110に設けられておらず、場所決定のために入力画像を受信するように、又は入力画像にアクセスできるように構成されたコンピューティングデバイス130によって行われてもよい。
[0125] 310では、車両110に取り付けられたカメラ120が、都市部の画像を捕捉し、画像をプロセッサ132が利用できるようにする。幾つかの実施形態では、ステップ310は、監視車両に位置しないコンピューティングデバイス130が、リモートコンピューティングデバイス又はリモートカメラ120から都市部の捕捉画像を受信することを含み得る。
[0126] 312では、プロセッサ132は、背景特徴抽出器モジュール154を使用して、画像に関連付けられた背景記述子を決定するために、捕捉画像を処理する。背景記述子は、本質的に、捕捉画像内に存在する背景を一意的に識別する、捕捉画像の持続的な示差的側面である。幾つかの実施形態では、背景記述子は、分類損失を用いて訓練された畳み込みニューラルネットワーク(CNN)の特徴抽出層を使用することによって構築された全層畳み込みネットワーク(FCN:fully convolutional network)を適用することによって抽出され得る。背景特徴抽出器モジュール154は、背景記述子の適合率を明示的に測定するための注意パラメータを有する分類子を含んでもよく、それは、持続的な背景特徴と一時的な背景特徴を区別するために訓練され得る。持続的な背景特徴は、例えば、背景内の建物の特徴的な部分、又は恒久的な灯柱若しくはボラードを含み得る。一時的な背景特徴は、例えば、変更される可能性がある掲示板又は広告板を含み得る。ステップ312の出力として、捕捉画像に関する背景記述子又は特徴のセットが取得される。これらの背景記述子又は特徴は、ベクター又は行列の形式で表されてもよい。ステップ312の結果として、(高解像度画像でもよい)捕捉画像が、関連した背景記述子又は特徴の圧縮された(compressed)、又は簡潔な(succinct)ベクター又は行列に変換され得る。
[0127] 参照背景画像ライブラリ144内の画像の数は、かなり大きくなり得るため(例えば、10,000~100万個の画像)、従来の画像比較技術の使用は、310で捕捉又は受信された画像を参照背景画像ライブラリ144内の各画像と比較するための実質的に正確な、又は実質的に計算効率の良い手法を提供しない場合がある。捕捉内の関連した背景記述子又は特徴の簡潔なベクター又は行列として表される、ステップ312で抽出された背景記述子は、参照背景画像ライブラリ144内の画像と比較するための計算効率の良い基礎を提供する。ステップ312で抽出された背景記述子は、参照背景画像ライブラリ144内の画像との比較に無関係の捕捉画像内の特徴を無視し、又は除外し、又はそれらの優先度を下げながら、持続的な、又は静止した背景特徴に関連した特徴のサブセットの効果的な符号化を提供する。参照背景画像ライブラリ144内の画像との比較に無関係の捕捉画像内の特徴は、例えば、人、掲示板、又は動的看板に関連した画像部分又は特徴を含み得る。
[0128] 314では、参照背景画像のライブラリ144から1つ又は複数の候補マッチング画像を選択するために、探索が行われる。幾つかの実施形態では、探索は、KD木及び積量子化(PQ:product quantisation)の組み合わせによって実装された最近傍探索でもよい。探索は、参照背景画像のライブラリ144内の画像の所定の背景記述子又は特徴を使用して行われる。314の出力は、捕捉画像の有力なマッチである候補参照背景画像のセットである。候補マッチング画像内の点に対応する捕捉画像の点は、重要点と呼ばれることがある。捕捉画像と参照背景画像ライブラリ144内の画像との間で識別された重要点の数は、これら2つの画像における背景の類似性を決定する際の因子と見なされ得る。
[0129] 316では、捕捉画像と候補参照背景画像との間で幾何学的マッチング又は照合が行われる。幾何学的照合は、2つの画像が共通の背景を共有するかどうかを評価するための2つの画像間のより詳細な比較を含む。ステップ314で取得される候補参照背景画像の数の減少により、幾何学的マッチングステップは、参照背景画像ライブラリ144全体にわたり幾何学的マッチングを行うことと比較して、それほど計算負荷が高くない。幾つかの実施形態では、幾何学的照合は、ランダムサンプルコンセンサス(RANSAC)を使用して行われ得る。316の結果は、捕捉画像のマッチとしての単一の候補参照画像の確認となり得る。幾何学的マッチ検証の一部として、捕捉画像と、各候補参照背景画像との間で、マッチする関心対象点の数が識別され得る。捕捉画像内の各関心対象点は、画像内の静止した、又は恒久的な背景に対応し得る。2つの画像間のマッチする関心対象点の数は、2つの画像がマッチする度合いを数値化するための測定基準として使用され得る。例えば、30個のマッチする関心対象点を有する画像A及びBは、10個のマッチする関心対象点を有する画像A及びCよりも、より良いマッチとなり得る。最多数のマッチする関心対象点を有する候補参照背景画像が、捕捉画像に最も近いマッチと見なされ得る。最小数のマッチする点の関心対象点マッチ閾値を使用することによって、最低限の幾何学的マッチングを確立することができる。候補参照背景画像が、関心対象点マッチ閾値を超えるマッチする関心対象点を含まない場合、捕捉画像は、マッチしないと見なすことができる。幾つかの実施形態では、関心対象点マッチ閾値は、例えば、5個の点、10個の点、15個の点、20個の点、又は25個の点であり得る。図8及び図21は、2つの画像間のマッチする関心対象点の例を示す。318では、マッチした参照背景画像に関連付けられた場所メタデータを問い合わせることによって、車両の場所が決定され得る。
[0130] 図4は、フローチャート200のステップ212の後の識別された駐車指標を示す捕捉画像400の一例である。識別された駐車指標は、ナンバープレート440及び420を含む。画像400は、識別された車両410及び430も示す。車両及びナンバープレートは、それぞれ車両及びナンバープレートに対応する捕捉画像の部分を示す境界ボックスによって取り囲まれる。
[0131] 図5は、フローチャート200のステップ212の後の識別された駐車指標を示す捕捉画像500の一例である。画像500では、駐車標識に対応した駐車指標510及び520は、駐車指標検出MLモデル142によって識別されたものである。同様に、図6は、駐車指標630、620、及び車両610が、それぞれ駐車指標検出MLモデル142及び車両検出MLモデル158によって識別されたものである捕捉画像600の一例である。図7は、駐車指標710が駐車指標検出MLモデル142によって識別されたものである捕捉画像700の一例である。
[0132] 図8は、背景マッチングモジュール152によって行われる背景マッチングのプロセスにおけるある段階を示す例示的画像800である。画像800は、2つの部分、すなわち画像810及び画像820を含む。画像810は、参照背景画像ライブラリ144に保存された参照背景画像である。画像820は、都市部における駐車監視中にカメラ120によって捕捉された画像である。画像820内の持続的な背景の様々な部分が、画像810との比較のための基礎を提供し、参照画像810に関連付けられた場所メタデータに基づいた駐車場所の決定を可能にする。例えば、画像810内の特徴816(灯柱の一部)は、捕捉画像820内の同一の特徴826に対応する。画像810内の特徴812(駐車道路標識の一部)は、捕捉画像820内の同一の特徴822に対応する。画像810内の特徴814(背景の建物の一部)は、捕捉画像820内の同一の特徴824に対応する。画像810内の特徴818(沿道の縁石の一部)は、捕捉画像820内の同一の特徴828に対応する。
[0133] 図9は、参照背景画像900の一例である。参照背景画像900のメタデータは、適切な駐車エリアを規定する外周910も含む。
[0134] 図10は、参照画像900に対応した場所における捕捉画像1000の一例である。図10は、ターゲット車両1010を示す。
[0135] 図11は、参照画像900を捕捉画像1000上に重ね合わせることによって取得された画像1100である。画像1100から認識できるように、重ね合わせは、駐車条件及び順守決定モジュール162による、駐車外周910の駐車条件に対する車両1010の順守の照合を可能にする。
[0136] 図12は、幾つかの実施形態による、カメラ120を含む車両搭載システムを示す監視車両1210の一部の画像である。図12の監視車両1210は、例えば4つのカメラ1221、1222、1223、及び1224を有し、これらはすべて、安全な外部ハウジング1229内に設けられる。他の実施形態では、6個又は8個以上のカメラが外部ハウジング1229内に取り付けられてもよい。外部ハウジング1229は、外部ハウジング1229の下側の周囲の周りで間隔を空けた場所に複数の撮像窓(又は撮像開口部)を規定する、一般的な耐候性を持つ硬いシェル外郭を有してもよい。各カメラ120(例えば、カメラ1221、1222、1223、1224)は、外部ハウジング1229の各撮像窓を通して車両1210の周りの異なるエリアの画像を捕捉するように位置決めされる。例えば、2つのカメラが車両の正面を向き、2つのカメラが車両の後部を向く。カメラは、監視車両1210が走行し得る街路の脇のパーキングエリアに向けて最良の視角を得るように適切に角度が付けられる。
[0137] 車両1210は、内部にコンピューティングデバイス130が位置し得るコンピュータハウジング1227も含む。コンピュータハウジング1227は、安全な外部ハウジング1229の内部に配置される。コンピュータハウジング1227及びカメラ120は、一般にコンピュータハウジング1227及びカメラ120を包囲する安全な外部ハウジング1229によって保護される。安全な外部ハウジング1229及びコンピュータハウジング1227は、カメラ120及びコンピューティングデバイス110の動作をいたずらから守り、並びに雨又は雪の中などの好ましくない天候条件においてカメラ120及びコンピューティングデバイス130の動作を保護するために耐候性であってもよい。安全な外部ハウジング1229の内部空洞は、手動で施錠可能でもよく、及び安全な外部ハウジング1229内の様々なコンポーネントを更新又は交換するために容易にアクセスできるように開けることが可能であってもよい。コンピュータハウジング1227の内部空洞は、手動で施錠可能でもよく、及びコンピュータハウジング1227内の様々なコンピューティングコンポーネントを更新又は交換するために容易にアクセスできるように開けることが可能であってもよい。安全な外部ハウジング1229は、例えばルーフラック1233に対して1つ又は複数のクランプを使用して、車両1210の上に固定されてもよい。
[0138] 図12では、カメラ120は、車両1210の走行方向(前方及び後方)に対して約45度の角度を向く。幾つかの実施形態では、カメラ120は、車両1210の走行方向に対して約60度又は90度の角度を向いてもよい。異なる視野をカバーするように配置された複数のカメラ120は、異なる視点からの駐車場所の画像の捕捉を可能にする。駐車場所は、車両による様々な種類の不明瞭さにさらされる可能性があり、異なる角度から画像を取得することは、参照背景画像ライブラリ144内の画像との比較を可能にする。背景マッチングを行うために複数のカメラ120を使用することは、冗長性を導入すること、及び異なる視点から捕捉された画像を使用したマッチングの照合を可能にすることによって、背景マッチングモジュール152の精度及び信頼性を向上させる。
[0139] 図13は、幾つかの実施形態による、画像注釈のためのプロセス1300のフローチャートである。画像注釈のためのプロセス1300は、背景画像注釈ツール149を使用して行われ得る。画像注釈のプロセス1300は、参照背景画像ライブラリ144の作成を可能にし、参照背景画像ライブラリ144は、画像処理コンピューティングデバイス130による場所推定の基礎を形成する。プロセス1300によって生成される注釈情報は、背景画像メタデータ148の一部を形成する。
[0140] 1310では、駐車モニタリングが行われるエリアの画像が捕捉される。画像は、駐車モニタリングが行われるエリアを走行して回る車両に取り付けられたカメラを使用して捕捉され得る。エリアは、例えば、パーキングエリアが数キロメートルの長さに沿って間隔を置いて位置し、又は数キロメートルの長さに沿って延在する、数平方キロメートル~数十平方キロメートルに及ぶ大型の都市部を含み得る。ステップ1310は、駐車モニタリングが行われる都市部全体を調査することを伴う。画像は、車両110が画像を捕捉する際の車両110の移動方向によって規定されるシーケンスで、車両110によって捕捉される。捕捉画像に関連付けられたシーケンス情報は、後続の注釈ステップを支援するために保持される。
[0141] 都市部の駐車区域は、歩道上の、駐車区域又はパーキングエリアに隣接して位置する標識又は標柱又は指標によって規定されることが多い。標識又は標柱は、駐車区域の始まり又は終わりを示し、それによって区域の始まり又は終わりの境界を定めることができる。特定の駐車条件が、駐車区域に関連付けられ得る。駐車モニタリングのために、駐車区域内又は駐車区域外として場所を決定することは、駐車条件に対する車両の順守の評価を可能にする。
[0142] 1312では、駐車区域の始まりに対応した画像が、注釈ユーザインタフェース192を使用して注釈を付けられる。注釈は、駐車区域の始まりに対応した画像に場所を指定すること、及びその場所を駐車区域の始まりとして識別することを含む。場所は、駐車区域の始まりに対応した場所の経度及び緯度座標を示すことによって指定されてもよい。
[0143] 同様に、1314において、駐車区域の終わりに対応した画像が、注釈ユーザインタフェース192を使用して注釈を付けられる。注釈は、駐車区域の終わりに対応した画像に場所を指定すること、及びその場所を駐車区域の終わりとして識別することを含む。場所は、駐車区域の終わりに対応した場所の経度及び緯度座標を示すことによって指定されてもよい。
[0144] 駐車区域の始まりの場所に対応した画像(又は複数の画像)及び駐車区域の終わりの場所に対応した別の画像(又は複数の画像)は、特定の駐車条件を有する特定の駐車区域の範囲を一緒に規定し得る。幾つかの実施形態では、規定された駐車区域は、地方自治体によって規定された正式な駐車区域に対応してもよく、注釈プロセスは、規定された駐車区域に対する地方自治体駐車区域コードの指定を含み得る。地方自治体駐車区域コードの指定は、例えば、画像処理コンピューティングデバイス130に対してリモートの地方自治体駐車条件データベースから、規定された駐車区域に関連付けられた駐車条件の抽出を可能にし得る。
[0145] 1310で捕捉された画像がシーケンス情報を含むため、駐車区域の始まり及び終わりの識別及び注釈付けを行うことによって、駐車区域の始まりに関連付けられた画像と、駐車区域の終わりに関連付けられた画像との間の画像が、駐車区域の始まり及び終わりによって規定される駐車区域に自動的に指定され得る。幾つかの実施形態では、規定された駐車区域に対する画像の指定は、駐車区域の始まりを規定する画像と終わりを規定する画像との間で順序付けられた1つ又は複数の画像の注釈によって支援され得る。一部の駐車区域は、街角を通って、街角全体にわたって、又は街角の周辺で延在する場合があり、自動外挿又は規定された駐車区域に対するあるシーケンスの画像の割り当てを支援するために、街角に対応した画像に注釈を付けることが有益となる場合がある。任意選択のステップ1316において、駐車区域の始まりに対応した画像と終わりに対応した画像との間で順序付けられた画像に注釈が付けられてもよい。注釈は、規定された駐車区域に対する画像の指定、及び画像に対する場所の指定を伴い得る。
[0146] 1318では、場所外挿モジュール194は、規定された駐車区域の始まりに対応した画像と終わりに対応した画像との間の画像のシーケンスの注釈を自動的に付けるために、ステップ1312、1314、及び1316において注釈を処理する。自動注釈は、駐車区域の始まりに対応した画像と終わりに対応した画像との間で順序付けられた画像に対する外挿場所の自動割り当てを伴い得る。幾つかの実施形態では、自動注釈は、駐車区域の始まりに対応した場所と終わりに対応した場所との間の距離の計算、駐車区域の始まりと終わりとの間で順序付けられた画像の数で上記距離を除算すること、及び駐車区域の始まりと終わりとの間で順序付けられた各画像に対する場所座標の増分割り当て(incremental allocation)を伴い得る。
[0147] 例えば、駐車区域の始まりと終わりとの間の距離が9mであり、及び駐車区域の始まりと終わりとの間に8個の画像が存在する場合には、各画像は、駐車区域の始まり及び終わりに対応した場所によって規定される直線上で、1m離された場所を指定され得る。駐車区域が街角を通って延在する実施形態では、街角に対応した、1316で注釈が付けられた画像が、場所外挿プロセスを支援し得る。幾つかの実施形態では、場所外挿モジュール194は、駐車区域の始まり及び終わりに関連付けられた場所情報に基づいて、場所情報の自動外挿を支援するために、Google(商標)Roads APIなどの公開されているストリートルーティングアプリケーションプログラミングインタフェース(API)に依存してもよい。
[0148] ステップ1312及び1318により、1310で捕捉された画像のシーケンスが、場所及び駐車区域の指定によって注釈が付けられる。1320では、ステップ1312及び1318によって生成された注釈情報に基づいた場所推定を可能にするために、注釈が付けられた画像が参照背景画像ライブラリ144に含められる。プロセス1300が、画像処理コンピューティングデバイス130に対してリモートのコンピュータシステム上で行われる実施形態では、注釈が付けられた画像は、背景画像メタデータ148に含めるために、注釈情報と共に画像処理コンピューティングデバイス130に送信され得る。
[0149] 図14は、幾つかの実施形態による、画像注釈ユーザインタフェース192のスクリーンショット1400を示す。ユーザインタフェースのパネル1410は、注釈用の画像シーケンスの一連のファイル名を列挙する。パネル1410内の個々のファイル名をクリックすると、パネル1420に画像が示される。パネル1430は、Google(商標)ストリートビューインタフェースを示す。Google(商標)ストリートビューインタフェース1430は、パネル1420に示された画像の場所の注釈のための効率的な機構を提供する。代替実施形態では、場所注釈のための他の類似の機構が使用されてもよい。パネル1420のGoogle(商標)ストリートビューインタフェースは、パネル1420内の画像に注釈を付けるのに望ましい場所を取得するために、クリック可能であり、及びナビゲート可能である。パネル1430の特定の部分をクリックすることにより、Google(商標)ストリートビューの場所にピンがドロップされ、ピンがドロップされた場所に関連付けられた座標が検索される。検索された場所は、比較的高い精度で、経度情報及び緯度情報を含み得る。ピンをドロップして場所を選択するためにパネル1430をクリックした後に、パネル1430でピンをドロップすることによって選択された場所に対して選択された画像に注釈を付けるために、ボタン1450がクリックされ得る。ボタン1450は、様々な画像を見て回り、それらに注釈を付けるためにクリックされ得る。図13のプロセス1300に関連して述べた通り、各画像に注釈を付ける必要はない。駐車区域の始まり及び終わりを示す注釈により、シーケンス情報、及びGoogle(商標)Roads APIなどの道路の配置に関する公開情報を使用して、画像の残りの部分の場所を外挿することが可能となり得る。
[0150] 幾つかの実施形態では、場所注釈は、Google(商標)ストリートビューパネル1430及びパネル1420の画像の両方で目に見える共通の静止又は恒久的構造物に依存し得る。スクリーンショット1400に示されるように、パネル1420内の画像、及びパネル1430内のGoogle(商標)ストリートビューの場所は、標柱1470を有する。標柱1470などの恒久的構造物の基部を使用して、場所に注釈を付けることが有益である。スクリーンショット1400に示されるように、注釈用マーカ1440は、歩道又は小道の高さにある標柱1470の基部又は底部に位置決めされる。従来、標柱などの恒久的構造物は、街路から比較的均一な距離に位置することから、標柱などの恒久的構造物の底部に注釈用マーカを位置決めすることにより、場所の自動外挿の効率が向上する。恒久的構造物は、街路から比較的均一な距離に位置するため、このような恒久的構造物の脚部又は基部を注釈のために使用することにより、注釈のためのより体系的な、及びより一貫した基礎が提供される。
[0151] 図15は、幾つかの実施形態による、自動場所外挿の結果を示す画像1500である。画像1500は、図13のプロセス1300に従って画像注釈が行われたエリアに対応したマップである。マーカ1510及び1530は、それぞれ駐車区域の始まり及び駐車区域の終わりとして識別された場所に対応する。マーカ1520及び1522は、駐車区域の始まり及び終わりに対応した場所1510及び1530の外挿に基づいて、自動的に画像に指定された場所に対応する。
[0152] 図16は、幾つかの実施形態による、駐車モニタリングの幾つかの態様を示す模式図1600である。図1600は、ターゲット車両1680及び監視車両110を示す。ターゲット車両1680は、駐車区域開始場所1610及び駐車区域終了場所1620によって規定される駐車区域内に位置する。監視車両110は、1640によって示される視線を有する、監視車両110に取り付けられたカメラ120を備える。カメラ120によって捕捉された画像を使用して、点1650に対応した場所座標が、図2のフローチャート200のステップ216を使用して決定される。点1650の決定された場所情報を使用して、画像処理コンピューティングデバイス130は、場所1610及び1620に対応した座標を検索することができる。場所1610は、駐車区域の始まりに対応し、場所1620は、駐車区域の終わりに対応する。場所1610及び1620に対応した座標は、参照背景画像ライブラリ144の背景画像メタデータ148に保存されてもよい。
[0153] 点1610及び1650の座標を使用して、距離Di(駐車区域の始まりと識別された場所との間の距離)が、駐車条件順守決定モジュール162によって決定される。同様に、距離De(駐車区域の終わりと識別された場所との間の距離)は、点1650及び1620の座標を使用して決定され得る。図示した位置において、画像処理コンピューティングデバイス130は、ナンバープレート検出機械学習モデル159を使用して、ターゲット車両1680に関連付けられたナンバープレートも決定する。距離Do(オフセット距離)は、視線1640に対応した場所とターゲット車両1680の決定されたナンバープレートとの間の予め決定されたオフセット距離である。Do値は、カメラ120又はカメラ120a、120bが位置決めされる角度、及び駐車場のサイズなどの都市環境自体の条件に依存し得る。オフセット距離は、都市部での実験に基づいて予め決定される。決定されたオフセット距離は、共通の駐車条件を持つ都市部又は都市部内の領域の一部に関して固定される。
[0154] 幾つかの実施形態では、カメラ120aは、監視車両110の移動方向に対して90度の角度で位置決めされてもよく、及び隣接する歩道に向けられてもよく、カメラ120bは、移動方向に対して45度の角度で位置決めされてもよい。このような実施形態では、カメラ120aによる画像は、場所推定に使用することができ、カメラ120bによる画像は、ナンバープレート検出に使用することができる。このような実施形態では、オフセット距離(Do)は、例えば、3m~8mの範囲に及び得る。
[0155] 駐車区域の始まり(1610)からのターゲット車両1680の距離(Ds)は、図16に示されるように、DoにDiを加算することによって決定することができる。駐車区域の全長(Dz)は、1620と1610との間の距離を決定することによって決定され得る。Ds<Dzである場合には、ターゲット車両1680は、識別された駐車区域に駐車されたと見なされ得る。Ds>Dzである場合には、ターゲット車両1680は、駐車区域の外に駐車されたと見なされ得る。
[0156] 図17は、幾つかの実施形態による、駐車モニタリングの幾つかの態様を示す別の模式図1700である。図1700は、点1610及び1620によって規定される図16の駐車区域を示す。参照背景画像ライブラリ144は、カメラ120の視線1740が駐車区域の外のエリアに向けられているときでも、監視車両110がその場所を決定することを可能にするために、駐車区域内からの参照画像だけでなく、駐車区域の外の参照画像も含む。
[0157] 模式図1700では、カメラ120aの視線は、場所1750に向けられる。カメラ120aによって捕捉された画像を使用して、場所1750の座標が、背景マッチングモジュール152によって決定され得る。それと同時に、ターゲット車両1780に対応したナンバープレートは、ナンバープレート検出機械学習モデル159を使用して、画像処理コンピューティングデバイス130によって検出され得る。場所1750の決定された場所座標に基づいて、駐車区域開始場所1610及び駐車区域終了場所1620の座標が、背景画像メタデータ148を参照することによって、画像処理コンピューティングデバイス130によって決定され得る。決定された点1610、1620、及び1750の座標を用いて、1610と1750との間の距離Diが計算される。図16に関して述べたように、オフセット距離Doは、予め決定される。ターゲット車両1780に対応した場所1730を取得するために、総和Di+Doが決定される。決定された場所1730に基づいて、ターゲット車両1780と駐車区域の始まり1610との間の距離Dsが決定される。図16に類似して、駐車区域の始まりと終わりとの間の距離Dzが決定される。Ds>Dzである場合には、ターゲット車両1780は、駐車区域の外に位置すると見なされ得る。Ds<Dzである場合には、ターゲット車両1780は、駐車区域の中に駐車されたと見なされ得る。図17に示されるように、Ds>Dzである。したがって、ターゲット車両1780は、駐車区域の外に位置すると決定される。
[0158] 図18は、幾つかの実施形態による、場所決定のためのシステム1800のブロック図を示す。システム1800は、リモートコンピューティングデバイス1810から入力画像及びGPS場所データを受信するように構成される。リモートコンピューティングデバイス1810は、スマートフォン、タブレットデバイス、又はGPS場所データを使用する別のポータブルコンピューティングデバイスなどのハンドヘルドコンピューティングデバイスでもよい。リモートコンピューティングデバイス1810は、例えば、自律走行乗用車若しくは作業車両などの車両の車載コンピュータシステムを含んでもよく、又はそれの一部を形成してもよい。入力画像及びGPS場所データに応答して、画像処理コンピューティングデバイス130は、GPS訂正信号を生成し、及びGPS訂正信号をリモートコンピューティングデバイス1810に送信するように構成される。リモートコンピューティングデバイス1810は、メモリ1840と通信する少なくとも1つのプロセッサ1810を含む。リモートコンピューティングデバイス1810は、カメラ1820及びGPS受信機1830も含む。メモリ1840は、場所決定モジュール1850、及び幾つかの実施形態では、背景特徴抽出器モジュール1855を実装するためのコンピュータプログラムコードを含む。
[0159] 場所決定モジュール1850は、画像処理コンピューティングデバイス130から受信したGPS訂正信号を処理し、及び訂正された場所を決定するように構成される。リモートコンピューティングデバイス1810は、スマートフォン、又は例えば場所の調査に使用されるコンピューティングデバイスでもよい。GPSデータへのアクセスが限られた、又は不正確な環境では、リモートコンピューティングデバイス1810は、カメラ1820を使用して、その場所の1つ又は複数の画像を捕捉し、ネットワーク170上で、その1つ又は複数の画像を画像処理コンピューティングデバイス130に送信する。幾つかの実施形態では、リモートコンピューティングデバイス1810は、各捕捉画像内の持続的な、又は静止した背景物体に対応した特徴のベクター又は行列を抽出するために、背景特徴抽出器モジュール1855を使用して捕捉画像を処理し得る。捕捉画像内の持続的な、又は静止した背景物体に対応した特徴のベクター又は行列の使用は、画像データをオリジナルの捕捉画像のサイズよりも小さいサイズに圧縮する方法である。捕捉画像のフルデータを画像処理コンピューティングデバイス130に送信する代わりに、リモートコンピューティングデバイス1810は、捕捉画像内の持続的な、又は静止した背景物体に関する十分に詳細なデータを保持しながら、送信されるデータ量を削減するために、捕捉画像内の持続的な、又は静止した背景物体に対応した特徴の捕捉画像データベクター又は行列を送信し得る。
[0160] リモートコンピューティングデバイス1810は、GPS受信機1830から取得されたGPSデータも画像処理コンピューティングデバイス130に送信し得る。送信された1つ又は複数の画像に応答して、画像処理は、1つ又は複数の画像に対応した場所情報をリモートコンピューティングデバイス1810に返し得る。幾つかの実施形態では、画像処理コンピューティングデバイス130は、GPS訂正信号もリモートコンピューティングデバイス1810に返し得る。
[0161] 図19は、図18のシステム1800によって行われる場所決定の方法1900のフローチャートを示す。方法1900は、図3の方法300のステップ312、314、316、及び318を含む。ステップ1910では、画像処理コンピューティングデバイス130は、1つ若しくは複数の画像(又は各捕捉画像に関する持続的な、若しくは静止した背景物体に対応した特徴のベクター若しくは行列)をリモートコンピューティングデバイス1810から受信する。ステップ1910では、画像処理コンピューティングデバイス130は、リモートコンピューティングデバイス1810からGPSデータも受信し得る。受信したGPSデータは、コンピューティングデバイス1810が訂正しようとしている、リモートコンピューティングデバイス1810によって取得された低品質GPSデータの場合がある。
[0162] ステップ312では、図3を参照して説明したように、画像処理コンピューティングデバイス130は、ステップ1910で受信した1つ又は複数の画像から背景記述子を抽出する。抽出された背景記述子は、ベクター又は行列の形式で表されてもよい。ステップ314では、背景マッチングモジュール152によって、1つ又は複数の候補マッチング画像が参照背景画像ライブラリ144から選択される。ステップ316では、幾何学的マッチ検証モジュール156が、幾何学的マッチ検証を行い、背景画像ライブラリ144から単一のマッチする参照背景画像を決定する。318では、ステップ1910で受信された1つ又は複数の画像に対応した場所情報を取得するために、マッチする参照背景画像の場所メタデータがチェックされる。
[0163] 幾つかの実施形態では、GPS訂正信号の生成の任意選択のステップ1920が行われる。GPS訂正信号は、ステップ318で識別された場所情報、及びステップ1910で受信された、リモートコンピューティングデバイス1810からのGPS信号に基づいて生成され得る。GPS訂正信号は、正確な場所情報を取得するために、GPS受信機1830から取得されたGPS場所データを修正するために、リモートコンピューティングデバイス1810の場所決定モジュール1850によって処理され得る情報を符号化し得る。ステップ1930では、ステップ318で決定された場所情報、及び1920で決定されたGPS訂正信号が、リモートコンピューティングデバイス1810に送信され得る。
[0164] 図18のシステム1800及び図19のフローチャート1900によって示されるように、幾つかの実施形態は、画像処理コンピューティングサービスが、リモートコンピューティングデバイスから画像を受信すること、画像に基づいて場所情報を決定すること、及び受信画像に応答して場所情報又はGPS訂正信号を送信することに関する。したがって、幾つかの実施形態は、画像内で捕捉された視覚的情報に基づいた場所決定のための代替方法及びシステムを提供することによって、特定の環境におけるGPS信号の不正確さ又は低品質に対処する。
[0165] 図20は、幾つかの実施形態による、画像処理コンピューティングデバイス130を備えた自律走行車両2000の一部のブロック図である。自律走行車両2000は、自律走行車両2000の運転動作を制御するための様々な動作を行うための自律走行車両コンピューティングデバイス2030を含む。幾つかの実施形態では、自律走行車両コンピューティングデバイス2030は、画像処理コンピューティングデバイス130と通信し、幾つかの実施形態では、画像処理コンピューティングデバイス130のコンポーネント及び機能は、自律走行車両コンピューティングデバイス2030に組み込まれ、及びその一部を形成する。自律走行又は自動運転車両2000は、それの場所を決定するために、GPS受信機126及び画像処理コンピューティングデバイス130の組み合わせに依存し得る。自律走行車両2000は、都市環境及び/又はGPS受信機によって受信された信号の品質若しくは確度が自律運転にとって最適ではないエリアにおいて、画像処理コンピューティングデバイス130に基づいた場所決定に切り替えることができる。画像ベースの場所決定トリガイベントは、自律走行車両2000が頻繁に画像処理コンピューティングデバイス130を使用してそれの場所の決定を行う動作モードを起動し得る。トリガイベントは、GPS受信機126によって受信された低品質若しくは低確度データ、又は画像ベースの場所推定がより信頼でき得るエリアを指定する所定のジオフェンスを車両110が通過することを含み得る。幾つかの実施形態では、画像処理及び場所推定計算能力の一部は、リモートサーバシステム2040上に実装されてもよく、自律走行車両コンピューティングデバイス2030は、無線でリモートサーバシステム2040と通信するように構成され得る。無線通信は、例えば、3G、4G、又は5Gセルラーネットワークなどのセルラーネットワークによって行われ得る。
[0166] 図21は、背景マッチングモジュール152によって行われる背景マッチングのプロセスにおけるある段階を示す例示的な画像ペア2100である。画像2100は、2つの部分、すなわち第1の画像2130及び第2の画像2140を含む。画像2140は、参照背景画像ライブラリ144に保存された参照背景画像である。画像2130は、ある都市部の駐車監視の過程でカメラ120によって捕捉された画像である。画像2140内の背景の様々な部分は、画像2130との比較のための基礎を提供し、参照画像2140に関連付けられた場所メタデータに基づいた駐車場所の決定を可能にする。各捕捉画像2130は、様々な動的画像特徴が経時的に変化するとしても、実質的に同じ場所で撮影された参照画像2140内にも存在する様々な静的画像特徴を有すると考えられる。例えば、画像2140内の特徴2112(灯柱の一部)は、捕捉画像2130内の同一の特徴2102に対応する。画像2140内の特徴2114(郵便ポストの脚部の一部)は、捕捉画像2130内の同一の特徴2104に対応する。画像2140内の特徴2116(建物のファサードの一部)は、捕捉画像2130内の同一のファサード特徴2106に対応する。画像2140内の特徴2118(凹凸模様の格子(textured grate)又は歩道の一部)は、捕捉画像2130内の同一の格子又は歩道の特徴2108に対応する。画像2140内の特徴2120(看板の非動的/静的部分)は、捕捉画像2130内の同一の特徴2110に対応する。図8の画像とは異なり、図21の画像は、監視車両110の走行方向に対して約90度の角度で捕捉されたものである。
[0167] 実験中に、実施形態の性能をベンチマークテストにかけるために、実施形態の精度を評価した。精度は、例えば0.5m~2mの誤差を使用して、ステップ216又はステップ318で決定された場所の精度に基づいて測定した。幾つかの実施形態に関して、決定された場所の精度は、場所推定が例えば30km、40km、50km、60km、又は70kmの長さにわたり延在する都市部全体にわたって行われたときに、およそ95%以上であった。95%以上の精度性能は、昼間及び夜間両方の条件で、並びに冬及び夏を含む1年の異なる季節にわたり取得された。
[0168] 駐車指標検出機械学習モデル142、背景マッチングモジュール152、ナンバープレート検出機械学習モデル159、車両検出機械学習モデル158を含む、コンピューティングデバイス130の様々なモデル及びモジュールは、プログラムコード、ライブラリ、アプリケーションプログラミングインタフェース(API)、メタデータ、コンフィギュレーションデータ、従属性、フレームワーク、及び様々なモジュール若しくはモデルの機能性を実装するための他の必要なコードコンポーネント若しくはハードウェアコンポーネントでもよく、又はそれらを含んでもよい。様々な機械学習モデル又はコンポーネントは、例えば、教師あり、教師なし、半教師あり、又は強化学習ベースの方法論を含む、代替の機械学習方法論を組み込んでもよい。様々な機械学習モデル又はコンポーネントは、例えば、OpenCV、TensorFlow、PyTorch、Caffe、EmuCV、VXL、GDAL、MIScnn、Marvin、及びKorniaを含む機械学習フレームワークから1つ又は複数のコンポーネントを組み込んでもよい。
[0169] 図22は、幾つかの実施形態による、例示的なコンピュータシステム2200を示す。特定の実施形態では、1つ又は複数のコンピュータシステム2200が、本明細書に記載又は図示した1つ又は複数の方法の1つ又は複数のステップを行う。特定の実施形態では、1つ又は複数のコンピュータシステム2200が、本明細書に記載又は図示した機能性を提供する。特定の実施形態では、1つ又は複数のコンピュータシステム2200上で走るソフトウェアが、本明細書に記載若しくは図示した1つ若しくは複数の方法の1つ若しくは複数のステップを行い、又は本明細書に記載若しくは図示した機能性を提供する。特定の実施形態は、1つ又は複数のコンピュータシステム2200の1つ又は複数の部分を含む。本明細書では、コンピュータシステムへの言及は、コンピューティングデバイスを包含する場合があり、適切な場合には、逆もまた同様である。また、コンピュータシステムへの言及は、適切な場合には、1つ又は複数のコンピュータシステムを包含する場合がある。コンピューティングデバイス130は、コンピュータシステム2200の一例である。コンピューティングデバイス1810は、コンピュータシステム2200の別の例である。
[0170] 本開示は、任意の適切な数のコンピュータシステム2200を企図する。本開示は、コンピュータシステム2200が任意の適切な物理的形態を取ることを企図する。限定としてではなく例として、コンピュータシステム2200は、埋込式コンピュータシステム、システムオンチップ(SOC)、シングルボードコンピュータシステム(SBC)(例えば、コンピュータオンモジュール(COM)又はシステムオンモジュール(SOM)など)、特殊用途コンピューティングデバイス、デスクトップコンピュータシステム、ラップトップ若しくはノートブック型コンピュータシステム、携帯電話、サーバ、タブレットコンピュータシステム、又はこれらの2つ以上の組み合わせでもよい。必要に応じて、コンピュータシステム2200は、1つ若しくは複数のコンピュータシステム2200を含んでもよく、単体でもよく、若しくは分散されてもよく、複数の場所に及んでもよく、複数の機械に及んでもよく、複数のデータセンターに及んでもよく、又はコンピューティングクラウド(これは、1つ若しくは複数のネットワーク内に1つ若しくは複数のクラウドコンピューティングコンポーネントを含み得る)内に部分的に、若しくは全体的に存在してもよい。必要に応じて、1つ又は複数のコンピュータシステム2200は、実質的な空間的又は時間的制限なしに、本明細書に記載又は図示した1つ又は複数の方法の1つ又は複数のステップを行い得る。限定ではなく例として、1つ又は複数のコンピュータシステム2200は、リアルタイムで、又はバッチモードで、本明細書に記載又は図示した1つ又は複数の方法の1つ又は複数のステップを行い得る。1つ又は複数のコンピュータシステム2200は、必要に応じて、異なる時点で、又は異なる場所で、本明細書に記載又は図示した1つ又は複数の方法の1つ又は複数のステップを行い得る。
[0171] 特定の実施形態では、コンピュータシステム2200は、少なくとも1つのプロセッサ2202、メモリ2204、ストレージ2206、入出力(I/O)インタフェース2208、通信インタフェース2210、及びバス2212を含む。本開示は、特定の配置にある特定の数の特定のコンポーネントを有する特定のコンピュータシステムを記載及び図示しているが、本開示は、任意の適切な配置にある任意の適切な数の任意の適切なコンポーネントを有する任意の適切なコンピュータシステムを企図する。
[0172] 特定の実施形態では、プロセッサ2202は、コンピュータプログラムを構成する命令などの命令を実行するためのハードウェアを含む。限定ではなく例として、命令を実行するために、プロセッサ2202は、内部レジスタ、内部キャッシュ、メモリ2204、又はストレージ2206から命令を検索し(又はフェッチし)、それらを復号及び実行し、その後、1つ又は複数の結果を内部レジスタ、内部キャッシュ、メモリ2204、又はストレージ2206に書き込むことができる。特定の実施形態では、プロセッサ2202は、データ、命令、又はアドレスのための1つ又は複数の内部キャッシュを含み得る。本開示は、必要に応じて、プロセッサ2202が、任意の適切な数の任意の適切な内部キャッシュを含むことを企図する。限定ではなく例として、プロセッサ2202は、1つ又は複数の命令キャッシュ、1つ又は複数のデータキャッシュ、及び1つ又は複数のTLB(translation lookaside buffer)を含み得る。命令キャッシュ内の命令は、メモリ2204又はストレージ2206内の命令のコピーの場合があり、命令キャッシュは、プロセッサ2202によるこれらの命令の検索を加速させることができる。データキャッシュ内のデータは、プロセッサ2202で作用するように実行される命令、プロセッサ2202で実行される後続の命令によるアクセスのため、又はメモリ2204若しくはストレージ2206に書き込むための、プロセッサ2202で実行された前の命令の結果、又は他の適切なデータ用のメモリ2204又はストレージ2206内のデータのコピーの場合がある。データキャッシュは、プロセッサ2202による読取り動作及び書込み動作を加速させることができる。TLBは、プロセッサ2202の仮想アドレス変換を加速させることができる。特定の実施形態では、プロセッサ2202は、データ、命令、又はアドレス用の1つ又は複数の内部レジスタを含み得る。本開示は、必要に応じて、プロセッサ2202が、任意の適切な数の任意の適切な内部レジスタを含むことを企図する。必要に応じて、プロセッサ2202は、1つ若しくは複数の演算論理装置(ALU)を含んでもよく、マルチコアプロセッサでもよく、又は1つ若しくは複数のプロセッサ2202を含んでもよい。本開示は、特定のプロセッサを記載及び図示しているが、本開示は、任意の適切なプロセッサを企図する。
[0173] 特定の実施形態では、メモリ2204は、プロセッサ2202が実行する命令、又はプロセッサ2202が操作するデータを保存するためのメインメモリを含む。限定ではなく例として、コンピュータシステム2200は、ストレージ2206又は別のソース(例えば、別のコンピュータシステム2200など)からメモリ2204へと命令をロードし得る。次に、プロセッサ2202は、メモリ2204から内部レジスタ又は内部キャッシュへと命令をロードし得る。命令を実行するために、プロセッサ2202は、内部レジスタ又は内部キャッシュから命令を検索し、それらを復号し得る。命令の実行中、又は命令の実行後に、プロセッサ2202は、1つ又は複数の結果(中間又は最終結果でもよい)を内部レジスタ又は内部キャッシュに書き込み得る。次に、プロセッサ2202は、これらの結果の1つ又は複数をメモリ2204に書き込み得る。特定の実施形態では、プロセッサ2202は、1つ又は複数の内部レジスタ又は内部キャッシュ内の、又は(ストレージ2206又は他の場所とは対照的に)メモリ2204内の命令のみを実行し、1つ又は複数の内部レジスタ又は内部キャッシュ内の、又は(ストレージ2206又は他の場所とは対照的に)メモリ2204内のデータのみを操作する。1つ又は複数のメモリバス(各メモリバスは、アドレスバス及びデータバスを含み得る)は、プロセッサ2202をメモリ2204に結合させ得る。バス2212は、以下に記載する通り、1つ又は複数のメモリバスを含み得る。特定の実施形態では、1つ又は複数のメモリ管理ユニット(MMU)が、プロセッサ2202とメモリ2204との間に存在し、プロセッサ2202によって要求されたメモリ2204へのアクセスを容易にする。特定の実施形態では、メモリ2204は、ランダムアクセスメモリ(RAM)を含む。このRAMは、必要に応じて、揮発性メモリでもよい。必要に応じて、このRAMは、ダイナミックRAM(DRAM)又はスタティックRAM(SRAM)でもよい。また、必要に応じて、このRAMは、シングルポート又はマルチポートRAMでもよい。本開示は、任意の適切なRAMを企図する。メモリ2204は、必要に応じて、1つ又は複数のメモリ2204を含んでもよい。本開示は、特定のメモリを記載及び図示しているが、本開示は、任意の適切なメモリを企図する。
[0174] 特定の実施形態では、ストレージ2206は、データ又は命令用のマスストレージを含む。限定ではなく例として、ストレージ2206は、ハードディスクドライブ(HDD)、フロッピーディスクドライブ、フラッシュメモリ、光ディスク、光磁気ディスク、磁気テープ、又はユニバーサルシリアルバス(USB)ドライブ、又はこれらの2つ以上の組み合わせを含み得る。ストレージ2206は、必要に応じて、リムーバブル又は非リムーバブル(若しくは固定)媒体を含み得る。ストレージ2206は、必要に応じて、コンピュータシステム2200の内部又は外部に存在してもよい。特定の実施形態では、ストレージ2206は、不揮発性の固体メモリである。特定の実施形態では、ストレージ2206は、読取り専用メモリ(ROM)を含む。必要に応じて、このROMは、マスクプログラムROM、プログラマブルROM(PROM)、消去可能PROM(EPROM)、電気的消去可能PROM(EEPROM)、電気的書き換え可能ROM(EAROM)、又はフラッシュメモリ、又はこれらの2つ以上の組み合わせを含む。本開示は、マスストレージ2206が、任意の適切な物理的形態を取ることを意図する。ストレージ2206は、必要に応じて、プロセッサ2202とストレージ2206との間の通信を容易にする1つ又は複数のストレージ制御ユニットを含み得る。必要に応じて、ストレージ2206は、1つ又は複数のストレージ2206を含み得る。本開示は、特定のストレージを記載及び図示しているが、本開示は、任意の適切なストレージを企図する。
[0175] 特定の実施形態では、I/Oインタフェース2208は、コンピュータシステム2200と1つ又は複数のI/Oデバイスとの間の通信用の1つ又は複数のインタフェースを提供する、ハードウェア、ソフトウェア、又はその両方を含む。コンピュータシステム2200は、必要に応じて、これらのI/Oデバイスの1つ又は複数を含み得る。これらのI/Oデバイスの1つ又は複数は、人とコンピュータシステム2200との間の通信を可能にし得る。限定ではなく例として、I/Oデバイスは、キーボード、キーパッド、マイクロホン、モニタ、マウス、プリンタ、スキャナ、スピーカ、スチールカメラ、スタイラス、タブレット、タッチスクリーン、トラックボール、ビデオカメラ、別の適切なI/Oデバイス、又はこれらの2つ以上の組み合わせを含み得る。I/Oデバイスは、1つ又は複数のセンサを含み得る。本開示は、任意の適切なI/Oデバイス、及びそれらのI/Oデバイスのための任意の適切なI/Oインタフェース2208を企図する。必要に応じて、I/Oインタフェース2208は、プロセッサ2202がこれらのI/Oデバイスの1つ又は複数を駆動することを可能にする1つ又は複数のデバイス又はソフトウェアドライバを含み得る。I/Oインタフェース2208は、必要に応じて、1つ又は複数のI/Oインタフェース2208を含み得る。本開示は、特定のI/Oインタフェースを記載及び図示しているが、本開示は、任意の適切なI/Oインタフェースを企図する。
[0176] 特定の実施形態では、通信インタフェース2210は、コンピュータシステム2200と、1つ若しくは複数の他のコンピュータシステム2200又は1つ若しくは複数のネットワークとの間の通信(例えば、パケットベースの通信など)のための1つ又は複数のインタフェースを提供する、ハードウェア、ソフトウェア、又はその両方を含む。限定ではなく例として、通信インタフェース2210は、WI-FI又はセルラーネットワークなどの無線ネットワークと通信するための無線アダプタと通信するためのネットワークインタフェースコントローラ(NIC)又はネットワークアダプタを含み得る。本開示は、任意の適切なネットワーク、及びそのネットワークのための任意の適切な通信インタフェース2210を企図する。限定ではなく例として、コンピュータシステム2200は、アドホックネットワーク、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、メトロポリタンエリアネットワーク(MAN)、又はインターネットの1つ若しくは複数の部分、又はこれらの2つ以上の組み合わせと通信し得る。これらのネットワークの1つ又は複数のネットワークの1つ又は複数の部分は、有線又は無線でもよい。例として、コンピュータシステム2200は、無線携帯電話ネットワーク(例えば、GSM(Global System for Mobile Communications)ネットワーク、又は3G、4G、若しくは5Gセルラーネットワークなど)、又は他の適切な無線ネットワーク、又はこれらの2つ以上の組み合わせと通信し得る。コンピュータシステム2200は、必要に応じて、これらのネットワークの何れかのための任意の適切な通信インタフェース2210を含み得る。通信インタフェース2210は、必要に応じて、1つ又は複数の通信インタフェース2210を含んでもよい。本開示は、特定の通信インタフェースを記載及び図示しているが、本開示は、任意の適切な通信インタフェースを企図する。
[0177] 特定の実施形態では、バス2212は、コンピュータシステム2200のコンポーネントを互いに結合させる、ハードウェア、ソフトウェア、又はその両方を含む。限定ではなく例として、バス2212は、AGP(Accelerated Graphics Port)若しくは他のグラフィックバス、EISA(Enhanced Industry Standard Architecture)バス、フロントサイドバス(FSB)、HYPERTRANSPORT(HT)相互接続、ISA(Industry Standard Architecture)バス、INFINIBAND相互接続、LPC(low-pin-count)バス、メモリバス、MCA(Micro Channel Architecture)バス、PCI(Peripheral Component Interconnect)バス、PCIe(PCI-Express)バス、SATA(serial advanced technology attachment)バス、VLB(Video Electronics Standards Association local bus)、又は別の適切なバス、又はこれらの2つ以上の組み合わせを含み得る。バス2212は、必要に応じて、1つ又は複数のバス2212を含んでもよい。本開示は、特定のバスを記載及び図示しているが、本開示は、任意の適切なバス又は相互接続を企図する。
[0178] 本明細書では、1つ又は複数のコンピュータ可読非一時的ストレージ媒体は、必要に応じて、1つ又は複数の半導体ベース若しくは他の集積回路(IC)(例えば、フィールドプログラマブルゲートアレイ(FPGA)、若しくは特定用途向けIC(ASIC)など)、ハードディスクドライブ(HDD)、ハイブリッドハードドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ(FDD)、固体ドライブ(SSD)、RAMドライブ、又はその他の適切なコンピュータ可読非一時的ストレージ媒体、又はこれらの2つ以上の任意の適切な組み合わせを含み得る。コンピュータ可読非一時的ストレージ媒体は、必要に応じて、揮発性、不揮発性、又は揮発性及び不揮発性の組み合わせでもよい。
[0179] 本開示の範囲は、当業者が理解するであろう、本明細書に記載又は図示した例示的実施形態に対するすべての変更、置換、バリエーション、改変、及び修正を包含する。本開示の範囲は、本明細書に記載又は例示した例示的実施形態に限定されない。また、本開示は、特定のコンポーネント、要素、特徴、機能、動作、又はステップを含むものとして本明細書の各実施形態を記載及び図示しているが、これらの実施形態の何れも、当業者が理解するであろう、本明細書のどこかに記載又は図示したコンポーネント、要素、特徴、機能、動作、又はステップの何れかの任意の組み合わせ又は並べ替えを含み得る。さらに、添付の特許請求の範囲において、特定の機能を行うように適応した、特定の機能を行うように配置された、特定の機能を行うことが可能な、特定の機能を行うように構成された、特定の機能を行うことを可能にされた、特定の機能を行うように動作可能な、又は特定の機能を行うように機能する装置、又はシステム、又は装置若しくはシステムのコンポーネントへの言及は、その装置、システム、又はコンポーネントが、そのように適応し、配置され、可能であり、構成され、可能にされ、動作可能であり、又は機能する限り、その装置、システム、コンポーネント(それ又はその特定の機能が起動されるかどうか、オンにされるかどうか、又はアンロックされるかどうかに関わりなく)を包含する。加えて、本開示は、特定の利点を提供するものとして特定の実施形態を記載又は図示しているが、特定の実施形態は、これらの利点を全く提供しなくてもよいし、これらの利点の一部又はすべてを提供してもよい。
[0180] 本開示の広い一般的範囲から逸脱することなく、上記の実施形態に対して多数のバリエーション及び/又は変更形態を作ることができることを当業者は理解するだろう。したがって、本実施形態は、あらゆる面で、制限的なものではなく、理解を助けるものと見なされるものである。

Claims (51)

  1. 都市部における駐車モニタリングのためのシステムであって、前記システムが、
    少なくとも1つのカメラであって、前記少なくとも1つのカメラが、前記都市部の画像を捕捉するように位置決めされる、少なくとも1つのカメラと、
    捕捉画像を受信するために、前記少なくとも1つのカメラと通信するコンピューティングデバイスと、を含み、
    前記コンピューティングデバイスが、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサにアクセス可能なメモリと、を含み、
    前記メモリが、参照背景画像及び各参照背景画像のメタデータのライブラリを含み、前記メタデータが、駐車場所情報及び駐車条件情報を含み、
    前記メモリが、
    第1の捕捉画像内のターゲット車両に対応したナンバープレート番号を決定するために、前記第1の捕捉画像を処理することと、
    マッチする参照背景画像を識別するために、背景マッチングモジュールを使用して、第2の捕捉画像を処理することと、
    前記マッチする参照背景画像の前記メタデータに基づいて、前記ターゲット車両の識別された駐車場所及び少なくとも1つの駐車条件を決定することと、
    前記決定された少なくとも1つの駐車条件に対する前記ターゲット車両の順守を決定することと、
    を行うように前記少なくとも1つのプロセッサを構成するための、前記少なくとも1つのプロセッサによって実行可能なプログラムコードを保存する、システム。
  2. 前記第1の捕捉画像が、前記第2の捕捉画像と同じ捕捉画像である、請求項1に記載のシステム。
  3. 都市部における駐車モニタリングのためのシステムであって、前記システムが、
    少なくとも1つのカメラであって、前記少なくとも1つのカメラが、前記都市部の画像を捕捉するように位置決めされる、少なくとも1つのカメラと、
    前記捕捉画像を受信するために、前記少なくとも1つのカメラと通信するコンピューティングデバイスと、を含み、
    前記コンピューティングデバイスが、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサにアクセス可能なメモリと、を含み、
    前記メモリが、参照背景画像及び各参照背景画像のメタデータのライブラリを含み、前記メタデータが、駐車場所情報を含み、
    前記メモリが、
    前記捕捉画像の少なくとも1つにおける駐車指標を識別するために、駐車指標検出機械学習モデルを使用して前記捕捉画像を処理することと、
    前記駐車指標の識別時に、前記捕捉画像の1つにマッチする、マッチする参照背景画像を識別するために、背景マッチングモジュールを使用して、前記捕捉画像を処理することと、
    前記マッチする参照背景画像に関連付けられた前記メタデータに基づいて、駐車場所を決定することと、
    前記識別された駐車指標に基づいて、駐車条件を決定することと、
    ターゲット車両に対応したナンバープレート番号を決定するために、前記捕捉画像を処理することと、
    前記決定された駐車条件に対する前記ターゲット車両の順守を決定することと、
    を行うように前記少なくとも1つのプロセッサを構成するための、前記少なくとも1つのプロセッサによって実行可能なプログラムコードも含む、システム。
  4. 前記ターゲット車両に対応した前記ナンバープレート番号が、ナンバープレート検出機械学習モデルを使用して決定される、請求項1~3の何れか一項に記載のシステム。
  5. 前記駐車指標が、駐車標識又はナンバープレートを含み、前記駐車指標検出機械学習モデルが、前記捕捉画像内の駐車標識又はナンバープレートを検出する、請求項3又は4に記載のシステム。
  6. 前記メモリが、各参照背景画像に関連付けられた駐車外周メタデータをさらに含み、前記少なくとも1つのプロセッサが、
    前記捕捉画像の1つにおける前記ターゲット車両に対応した画像部分を識別するために、前記少なくとも1つの捕捉画像を処理することと、
    前記マッチする参照背景画像に関連付けられた前記駐車外周メタデータ、及び前記ターゲット車両に対応した前記画像部分に基づいて、前記決定された駐車条件に対する前記ターゲット車両の順守を決定することと、
    を行うようにさらに構成される、請求項1~5の何れか一項に記載のシステム。
  7. 前記ターゲット車両に対応した前記画像部分が、車両検出機械学習モデルを使用して識別される、請求項6に記載のシステム。
  8. 前記背景マッチングモジュールが、背景特徴抽出器ニューラルネットワークを含み、前記少なくとも1つのプロセッサが、
    前記背景特徴抽出器ニューラルネットワークを使用して、前記少なくとも1つの捕捉画像から背景記述子を抽出することと、
    前記抽出された背景記述子に基づいて、前記背景画像のライブラリから1つ又は複数の候補マッチング画像を選択することと、
    前記マッチする参照背景画像を選択するために、前記少なくとも1つの捕捉画像と前記候補マッチング画像との間で幾何学的マッチングを行うことと、
    によって、前記マッチする参照背景画像を識別するようにさらに構成される、請求項1~7の何れか一項に記載のシステム。
  9. 前記幾何学的マッチングが、ランダムサンプルコンセンサスプロセスを使用して行われる、請求項8に記載のシステム。
  10. 前記駐車場所情報が、街路名及び番地を含み、又は
    前記駐車場所情報が、街路名、番地、及び駐車区画識別子を含み、又は
    前記駐車場所情報が、前記駐車場所に関連付けられた経度座標及び緯度座標を含む、請求項1~9の何れか一項に記載のシステム。
  11. 前記1つ又は複数のカメラが、監視車両に取り付けられ、
    前記コンピューティングデバイスが、前記監視車両によって運ばれ、及び
    前記システムが、前記コンピューティングデバイスとリモートコンピュータシステムとの間の無線通信を可能にするための通信モジュールをさらに含む、請求項1~10の何れか一項に記載のシステム。
  12. 前記システムが、前記監視車両が前記都市部を移動するときに駐車モニタリングをリアルタイムで行うように構成される、請求項11に記載のシステム。
  13. 前記システムが、少なくとも2つのカメラを含み、前記監視車両の両側で駐車モニタリングを行うために、少なくとも1つのカメラが、前記監視車両のそれぞれの側に位置決めされる、請求項11又は12に記載のシステム。
  14. 前記システムが、少なくとも2つのカメラを含み、両方のカメラが、前記監視車両の片側で画像を捕捉するように位置決めされ、
    前記背景マッチングモジュールが、マッチする参照背景画像を識別するために、前記少なくとも2つのカメラのそれぞれからの捕捉画像を使用して背景マッチングを行うように構成される、請求項11又は12に記載のシステム。
  15. 前記少なくとも1つのプロセッサが、前記監視車両が前記都市部を移動する際の前記捕捉画像にわたり前記ターゲット車両を追跡するようにさらに構成される、請求項11~14の何れか一項に記載のシステム。
  16. 前記少なくとも1つのプロセッサが、前記通信モジュールを介して、
    前記決定された駐車条件に対する前記ターゲット車両の前記決定された順守、
    前記ターゲット車両に対応した前記決定されたナンバープレート番号、
    前記決定された駐車場所、又は
    前記ターゲット車両の捕捉画像
    の1つ又は複数を前記リモートコンピュータシステムに送信するようにさらに構成される、請求項11に記載のシステム。
  17. 前記ナンバープレート検出機械学習モデルが、前記ターゲット車両のナンバープレートに対応した前記捕捉画像の部分を識別するように構成され、及び
    前記ナンバープレート番号が、文字認識モジュールによって、前記ナンバープレートに対応した前記捕捉画像の前記部分の処理に基づいて決定される、請求項4に記載のシステム。
  18. 前記駐車条件が、文字認識モジュールを使用して、前記識別された駐車指標に対応した前記少なくとも1つの捕捉画像の部分を処理することによって認識された文字に基づいて決定される、請求項3に記載のシステム。
  19. 少なくとも1つの参照背景画像が、駐車区域開始場所に関し、及び別の少なくとも1つの参照背景画像が、駐車区域終了場所に関し、
    前記識別された少なくとも1つの駐車条件に対する前記ターゲット車両の順守の決定が、
    前記識別された駐車場所と、前記駐車区域開始場所との間の距離、又は
    前記識別された駐車場所と、前記駐車区域終了場所との間の距離、
    に基づく、請求項1~18の何れか一項に記載のシステム。
  20. メモリと通信する少なくとも1つのプロセッサを含むコンピューティングデバイスによって行われる駐車モニタリングのためのコンピュータ実装方法であって、前記メモリが、参照背景画像のライブラリを含み、前記方法が、
    前記コンピューティングデバイスと通信するカメラによって捕捉された都市部の画像を受信することと、
    少なくとも1つの捕捉画像内の1つ又は複数の駐車指標を識別するために、駐車指標検出機械学習モデルを使用して前記捕捉画像を処理することと、
    前記少なくとも1つの捕捉画像内の少なくとも1つの駐車指標の識別時に、マッチする参照背景画像を識別するために、背景マッチングモジュールを使用して、前記少なくとも1つの捕捉画像を処理することと、
    前記マッチする参照背景画像に基づいて、駐車場所を決定することと、
    前記決定された駐車場所、又は前記識別された1つ又は複数の駐車指標に基づいて、駐車条件を決定することと、
    前記少なくとも1つの捕捉画像内のターゲット車両に対応したナンバープレート番号を決定するために、前記少なくとも1つの捕捉画像を処理することと、
    前記決定されたナンバープレート番号及び前記決定された駐車条件に基づいて、前記決定された駐車条件に対する前記ターゲット車両の順守を決定することと、
    を含む、コンピュータ実装方法。
  21. 場所決定のためのシステムであって、前記システムが、
    少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサにアクセス可能なメモリと、を含むコンピューティングデバイスを含み、
    前記メモリが、参照背景画像及び各参照背景画像のメタデータのライブラリを含み、前記メタデータが、場所情報を含み、
    前記メモリが、
    リモートコンピューティングデバイスから入力画像データを受信することであって、前記入力画像データが、決定されるべき場所で前記リモートコンピューティングデバイスによって捕捉された少なくとも1つの画像の画像データを含む、受信することと、
    マッチする参照背景画像を識別するために、背景マッチングモジュールを使用して、前記受信した入力画像データを処理することと、
    前記ライブラリ内の前記マッチする参照背景画像の前記メタデータに基づいて、前記入力画像データに対応した場所情報を決定することと、
    前記決定された場所情報を前記リモートコンピューティングデバイスに送信することと、
    を行うように前記少なくとも1つのプロセッサを構成するための、前記少なくとも1つのプロセッサによって実行可能なプログラムコードを保存する、システム。
  22. 前記背景マッチングモジュールが、背景特徴抽出器ニューラルネットワークを含み、前記少なくとも1つのプロセッサが、
    前記背景特徴抽出器ニューラルネットワークを使用して、前記少なくとも1つの捕捉画像から背景記述子を抽出することと、
    前記抽出された背景記述子に基づいて、前記背景画像のライブラリから1つ又は複数の候補マッチング画像を選択することと、
    前記マッチする参照背景画像を選択するために、前記少なくとも1つの捕捉画像と前記候補マッチング画像との間で幾何学的マッチングを行うことと、
    によって、前記マッチする参照背景画像を識別するようにさらに構成される、請求項21に記載のシステム。
  23. 前記幾何学的マッチングが、前記少なくとも1つの捕捉画像と前記候補マッチング画像のそれぞれとにおいて、共通の視覚的特徴を識別することを含む、請求項22に記載のシステム。
  24. 前記幾何学的マッチングが、ランダムサンプルコンセンサスプロセスを使用して行われる、請求項22又は23に記載のシステム。
  25. 前記背景特徴抽出器ニューラルネットワークが、前記少なくとも1つの捕捉画像内の1つ又は複数の静止した特徴に対応した背景記述子を抽出するように訓練される、請求項22~24の何れか一項に記載のシステム。
  26. 前記メモリが、
    前記リモートコンピューティングデバイスから前記入力画像に対応したGPSデータを受信することであって、前記GPSデータが低データ品質指標を含む、受信することと、
    前記決定された場所情報に基づいて、GPS訂正信号を生成することと、
    前記GPS訂正信号を前記リモートコンピューティングデバイスに送信することと、
    を行うように前記少なくとも1つのプロセッサをさらに構成するための、前記少なくとも1つのプロセッサによって実行可能なプログラムコードを保存する、請求項21~25の何れか一項に記載のシステム。
  27. 都市部における場所決定のための車両搭載システムであって、前記システムが、
    少なくとも1つのカメラであって、前記少なくとも1つのカメラが、前記都市部の画像を捕捉するように位置決めされる、少なくとも1つのカメラと、
    前記捕捉画像を受信するために、前記少なくとも1つのカメラと通信するコンピューティングデバイスであって、前記コンピューティングデバイスが、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサにアクセス可能なメモリと、を含み、前記メモリが、参照背景画像のライブラリを含む、コンピューティングデバイスと、
    を含み、
    前記メモリが、
    少なくとも1つの捕捉画像から背景記述子を抽出することと、
    前記抽出された背景記述子に基づいて、前記背景画像のライブラリから1つ又は複数の候補マッチング参照画像を選択することと、
    単一のマッチする参照背景画像を選択するために、前記少なくとも1つの捕捉画像と前記1つ又は複数の候補マッチング参照画像との間で幾何学的マッチングを行うことと、
    前記単一のマッチする参照背景画像に基づいて、前記車両の場所を決定することと、
    を行うように前記少なくとも1つのプロセッサを構成するための、前記少なくとも1つのプロセッサによって実行可能なプログラムコードを含む、車両搭載システム。
  28. 前記メモリが、各参照背景画像に対応した場所メタデータをさらに含み、
    前記車両の前記場所が、前記単一のマッチする参照背景画像に対応した前記場所メタデータに基づいて決定される、請求項27に記載のシステム。
  29. 前記背景記述子が、背景特徴抽出器ニューラルネットワークを使用して、少なくとも1つの捕捉画像から抽出される、請求項27又は28に記載のシステム。
  30. 前記場所を決定することが、リアルタイムで行われる、請求項27~29の何れか一項に記載のシステム。
  31. 車両の場所を決定するためのコンピュータ実装方法であって、前記方法が、メモリと通信する少なくとも1つのプロセッサを含む車両搭載コンピューティングデバイスによって行われ、前記メモリが、参照背景画像のライブラリを含み、前記方法が、
    前記コンピューティングデバイスと通信するカメラによって捕捉された都市部の画像を受信することと、
    前記カメラによって捕捉された少なくとも1つの画像から背景記述子を抽出することと、
    前記抽出された背景記述子に基づいて、前記背景画像のライブラリから1つ又は複数の候補マッチング参照画像を選択することと、
    単一のマッチする参照背景画像を選択するために、前記少なくとも1つの捕捉画像と前記1つ又は複数の候補マッチング参照画像との間で幾何学的マッチングを行うことと、
    前記単一のマッチする参照背景画像に基づいて、前記車両の場所を決定することと、
    を含む、コンピュータ実装方法。
  32. 都市部における車両の場所を決定するためのコンピュータ実装方法であって、前記方法が、メモリ及び少なくとも1つのカメラと通信する少なくとも1つのプロセッサを含む車両搭載コンピューティングデバイスによって行われ、前記メモリが、参照背景画像のライブラリを含み、前記方法が、
    前記少なくとも1つのカメラが前記都市部を移動中に前記都市部の画像を捕捉することと、
    マッチする参照背景画像を識別するために、背景マッチングモジュールを使用して前記捕捉画像を処理することと、
    前記マッチする参照背景画像のメタデータに基づいて、前記車両の場所を決定することと、
    を含む、コンピュータ実装方法。
  33. 前記少なくとも1つのカメラが、前記車両に取り付けられる、請求項32に記載の方法。
  34. 前記車両の前記場所の前記決定が、前記車両搭載コンピューティングデバイスによってリアルタイムで行われる、請求項32又は33に記載の方法。
  35. 都市部における場所決定のためのシステムであって、前記システムが、
    少なくとも1つのカメラであって、前記少なくとも1つのカメラが前記都市部を移動中に、前記少なくとも1つのカメラが前記都市部の画像を捕捉するように位置決めされる、少なくとも1つのカメラと、
    前記少なくとも1つのカメラと共に移動し、及び前記捕捉画像を受信するために前記少なくとも1つのカメラと通信するコンピューティングデバイスと、
    を含み、
    前記コンピューティングデバイスが、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサにアクセス可能なメモリと、を含み、
    前記メモリが、参照背景画像及び各参照背景画像のメタデータのライブラリを含み、前記メタデータが、場所情報を含み、
    前記メモリが、
    マッチする参照背景画像を識別するために、背景マッチングモジュールを使用して、捕捉画像を処理することと、
    前記マッチする参照背景画像の前記メタデータに基づいて、前記少なくとも1つのカメラ及び前記コンピューティングデバイスの場所を決定することと、
    を行うように前記少なくとも1つのプロセッサを構成するための、前記少なくとも1つのプロセッサによって実行可能なプログラムコードを保存する、システム。
  36. 背景マッチングモジュールを使用して前記捕捉画像を処理することが、
    前記捕捉画像から背景記述子を抽出することと、
    前記抽出された背景記述子に基づいて、前記参照背景画像のライブラリから1つ又は複数の候補マッチング画像を選択することと、
    前記マッチする参照背景画像を選択するために、前記捕捉画像と、前記候補マッチング画像との間で幾何学的マッチングを行うことと、
    を含む、請求項35に記載のシステム。
  37. 前記背景マッチングモジュールが、前記少なくとも1つの捕捉画像内の1つ又は複数の静止した特徴に対応した背景記述子を抽出するように構成された背景特徴抽出器ニューラルネットワークを含む、請求項36に記載のシステム。
  38. 前記幾何学的マッチングが、ランダムサンプルコンセンサスプロセスを使用して行われ、
    前記幾何学的マッチングが、前記少なくとも1つの捕捉画像と前記候補マッチング画像のそれぞれとにおいて、共通の視覚的特徴を識別することを含む、請求項36又は37に記載のシステム。
  39. 前記コンピューティングデバイスが、前記場所をリアルタイムで決定するように構成される、請求項35~38の何れか一項に記載のシステム。
  40. 請求項35~39の何れか一項に記載のシステムを取り付けた車両であって、前記少なくとも1つのカメラが、前記車両の付近の画像を捕捉するために、前記車両に取り付けられる、車両。
  41. 前記車両が自律運転車両である、請求項40に記載の車両。
  42. 前記車両が、車載GPS受信機を含み、前記車両が、画像ベースの場所決定トリガイベントに応答して、場所決定のための前記システムを使用して、場所決定をトリガするように構成される、請求項41に記載の車両。
  43. 前記画像ベースの場所決定トリガイベントが、
    前記車載GPS受信機によって生成された低確度GPSデータ、又は
    前記車両による所定のジオフェンスの横断、
    の少なくとも一方を含み得る、請求項42に記載の車両。
  44. 場所決定のためのコンピュータ実装方法であって、前記方法が、メモリと通信する少なくとも1つのプロセッサを含むコンピューティングデバイスによって行われ、前記方法が、
    リモートコンピューティングデバイスから前記コンピューティングデバイスによって入力画像を受信することであって、前記入力画像が、決定されるべき場所に対応する、受信することと、
    前記メモリに保存された参照背景画像のライブラリの中からマッチする参照背景画像を識別するために、前記コンピューティングデバイスの前記メモリに設けられた背景マッチングモジュールを使用して、前記受信した入力画像を処理することと、
    前記マッチする参照背景画像の前記メタデータに基づいて、前記入力画像に対応した場所情報を決定することと、
    前記決定された場所情報を前記リモートコンピューティングデバイスに送信することと、
    を含む、方法。
  45. 前記背景マッチングモジュールが、背景特徴抽出器ニューラルネットワークを含み、前記方法が、
    前記背景特徴抽出器ニューラルネットワークを使用して、前記少なくとも1つの捕捉画像から背景記述子を抽出することと、
    前記抽出された背景記述子に基づいて、前記背景画像のライブラリから1つ又は複数の候補マッチング画像を選択することと、
    前記マッチする参照背景画像を選択するために、前記少なくとも1つの捕捉画像と、前記候補マッチング画像との間で幾何学的マッチングを行うことと、
    によって、前記マッチする参照背景画像を識別することをさらに含む、請求項44に記載の方法。
  46. 前記幾何学的マッチングが、前記少なくとも1つの捕捉画像と前記候補マッチング画像のそれぞれとにおいて、共通の視覚的特徴を識別することを含む、請求項45に記載の方法。
  47. 前記幾何学的マッチングが、ランダムサンプルコンセンサスプロセスを使用して行われる、請求項45又は46に記載の方法。
  48. 前記背景特徴抽出器ニューラルネットワークが、前記少なくとも1つの捕捉画像内の1つ又は複数の恒久的な静止した特徴に対応した背景記述子を抽出するように訓練される、請求項45~47の何れか一項に記載の方法。
  49. 前記方法が、
    前記リモートコンピューティングデバイスから前記入力画像に対応したGPSデータを受信することであって、前記GPSデータが低データ品質指標を含む、受信することと、
    前記決定された場所情報に基づいて、GPS訂正信号を生成することと、
    前記GPS訂正信号を前記リモートコンピューティングデバイスに送信することと、
    をさらに含み、
    前記GPS訂正信号が、より正確なGPS場所データを決定するために前記リモートコンピューティングデバイスによってアクセス可能な情報を含む、請求項45~48の何れか一項に記載の方法。
  50. コンピュータによって実行されると、前記コンピュータに請求項20、31~34、及び44~49の何れか一項に記載の方法を行わせる命令を保存するコンピュータ可読ストレージ媒体。
  51. 都市部における駐車モニタリングのためのシステムであって、前記システムが、
    少なくとも1つのカメラであって、前記少なくとも1つのカメラが、前記都市部の画像を捕捉するように位置決めされる、少なくとも1つのカメラと、
    前記捕捉画像を受信するために、前記少なくとも1つのカメラと通信するコンピューティングデバイスと、を含み、
    前記コンピューティングデバイスが、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサにアクセス可能なメモリと、を含み、
    前記メモリが、参照背景画像のライブラリを含み、
    前記メモリが、
    少なくとも1つの捕捉画像における1つ又は複数の駐車指標を識別するために、駐車指標検出機械学習モデルを使用して前記捕捉画像を処理することと、
    前記少なくとも1つの捕捉画像における少なくとも1つの駐車指標の識別時に、マッチする参照背景画像を識別するために、背景マッチングモジュールを使用して、前記少なくとも1つの捕捉画像を処理することと、
    前記マッチする参照背景画像に基づいて、駐車場所を決定することと、
    前記決定された駐車場所又は前記識別された1つ又は複数の駐車指標に基づいて、駐車条件を決定することと、
    前記少なくとも1つの捕捉画像においてターゲット車両に対応したナンバープレート番号を決定するために、前記少なくとも1つの捕捉画像を処理することと、
    前記決定されたナンバープレート番号及び前記決定された駐車条件に基づいて、前記決定された駐車条件に対する前記ターゲット車両の順守を決定することと、
    を行うように前記少なくとも1つのプロセッサを構成するための、前記少なくとも1つのプロセッサによって実行可能なプログラムコードも含む、システム。
JP2022554582A 2020-03-10 2021-02-25 画像ベースの場所決定及び駐車モニタリングのためのシステム及び方法 Pending JP2023516502A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
AU2020900736A AU2020900736A0 (en) 2020-03-10 Systems and Methods for image-base location estimation
AU2020900736 2020-03-10
AU2020902942 2020-08-18
AU2020902942A AU2020902942A0 (en) 2020-08-18 Systems and methods for image-based location estimation
PCT/AU2021/050160 WO2021179035A1 (en) 2020-03-10 2021-02-25 Systems and methods for image-based location determination and parking monitoring

Publications (1)

Publication Number Publication Date
JP2023516502A true JP2023516502A (ja) 2023-04-19

Family

ID=77670370

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022554582A Pending JP2023516502A (ja) 2020-03-10 2021-02-25 画像ベースの場所決定及び駐車モニタリングのためのシステム及び方法
JP2022554563A Pending JP2023516500A (ja) 2020-03-10 2021-02-25 画像ベースの場所決定のためのシステム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022554563A Pending JP2023516500A (ja) 2020-03-10 2021-02-25 画像ベースの場所決定のためのシステム及び方法

Country Status (7)

Country Link
US (3) US20240052126A1 (ja)
EP (3) EP4118634A4 (ja)
JP (2) JP2023516502A (ja)
KR (2) KR20230004474A (ja)
AU (2) AU2021235756A1 (ja)
CA (2) CA3171233A1 (ja)
WO (2) WO2021179035A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022131497A (ja) * 2021-02-26 2022-09-07 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
CN113851015B (zh) * 2021-09-24 2023-04-14 深圳市捷顺科技实业股份有限公司 一种视频桩协同的方法以及视频桩
KR102596992B1 (ko) * 2021-09-27 2023-11-01 한국클라우드컴퓨팅연구조합 자율주행 기반 무허가 주정차 차량 단속 시스템
CN114613072B (zh) * 2022-04-18 2023-06-23 宁波小遛共享信息科技有限公司 共享车辆的还车控制方法、装置和电子设备
WO2024107459A1 (en) * 2022-11-14 2024-05-23 Hayden Ai Technologies, Inc. System and methods for automatically validating evidence of traffic violations using automatically detected context features
CN117036911A (zh) * 2023-10-10 2023-11-10 华侨大学 一种基于神经架构搜索的车辆再辨识轻量化方法及系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2392766B (en) * 2002-08-27 2005-10-05 Timothy Guy Carpenter An apparatus and a system for determining compliance with parking rules by a vehicle, vehicle observing means and a device for obtaining parking information
US8144920B2 (en) * 2007-03-15 2012-03-27 Microsoft Corporation Automated location estimation using image analysis
US8131118B1 (en) * 2008-01-31 2012-03-06 Google Inc. Inferring locations from an image
US9324003B2 (en) * 2009-09-14 2016-04-26 Trimble Navigation Limited Location of image capture device and object features in a captured image
CA3176193A1 (en) * 2010-05-10 2011-11-17 Daniel Cohen Method and system for managing a parking lot based on intelligent imaging
EP2450667B1 (en) * 2010-11-09 2016-11-02 Harman Becker Automotive Systems GmbH Vision system and method of analyzing an image
US8836788B2 (en) * 2012-08-06 2014-09-16 Cloudparc, Inc. Controlling use of parking spaces and restricted locations using multiple cameras
GB2510586A (en) * 2013-02-07 2014-08-13 Spiral Scratch Ltd Navigational aid for visually impaired people
US10078789B2 (en) * 2015-07-17 2018-09-18 Magna Electronics Inc. Vehicle parking assist system with vision-based parking space detection
US20170186317A1 (en) * 2015-12-29 2017-06-29 Tannery Creek Systems Inc. System and Method for Determining Parking Infraction
CN106875442A (zh) * 2016-12-26 2017-06-20 上海蔚来汽车有限公司 基于图像特征数据的车辆定位方法

Also Published As

Publication number Publication date
WO2021179036A1 (en) 2021-09-16
US20240052126A1 (en) 2024-02-15
KR20230005140A (ko) 2023-01-09
EP4239614A2 (en) 2023-09-06
EP4118576A1 (en) 2023-01-18
US20230260154A1 (en) 2023-08-17
CA3171223A1 (en) 2021-09-16
US20230091062A1 (en) 2023-03-23
EP4118634A4 (en) 2024-03-13
EP4239614A3 (en) 2023-10-18
WO2021179035A1 (en) 2021-09-16
AU2021235756A1 (en) 2022-10-27
EP4118576A4 (en) 2024-03-13
CA3171233A1 (en) 2021-09-16
AU2021233696A1 (en) 2022-11-03
EP4118634A1 (en) 2023-01-18
KR20230004474A (ko) 2023-01-06
JP2023516500A (ja) 2023-04-19

Similar Documents

Publication Publication Date Title
JP2023516502A (ja) 画像ベースの場所決定及び駐車モニタリングのためのシステム及び方法
US20200401617A1 (en) Visual positioning system
US11175145B2 (en) System and method for precision localization and mapping
Maddern et al. 1 year, 1000 km: The oxford robotcar dataset
Grassi et al. Parkmaster: An in-vehicle, edge-based video analytics service for detecting open parking spaces in urban environments
US11094112B2 (en) Intelligent capturing of a dynamic physical environment
Hu et al. GeoAI at ACM SIGSPATIAL: progress, challenges, and future directions
US10984275B1 (en) Determining location coordinates of a vehicle based on license plate metadata and video analytics
Sarlin et al. Orienternet: Visual localization in 2d public maps with neural matching
WO2011160672A1 (en) Method for obtaining drivable road area
WO2020156923A2 (en) Map and method for creating a map
US20220028262A1 (en) Systems and methods for generating source-agnostic trajectories
Yang et al. Road intersection identification from crowdsourced big trace data using Mask‐RCNN
Bai et al. Cyber mobility mirror: A deep learning-based real-world object perception platform using roadside LiDAR
WO2020155075A1 (zh) 一种导航装置、方法及相关设备
US11417098B1 (en) Determining location coordinates of a vehicle based on license plate metadata and video analytics
Luo et al. Complete trajectory extraction for moving targets in traffic scenes that considers multi-level semantic features
Liu et al. Crowd sensing and spatiotemporal analysis in urban open space using multi‐viewpoint geotagged videos
Hill Automatic Detection of Vehicles in Satellite Images for Economic Monitoring
Mots' oehli et al. Public parking spot detection and geo-localization using transfer learning
Machado Vehicle speed estimation based on license plate detection
Pordel et al. dmap: A low-cost distributed mapping concept for future road asset management
Zang et al. Lane Boundary Geometry Extraction from Satellite Imagery
Ptak et al. Mapping urban large‐area advertising structures using drone imagery and deep learning‐based spatial data analysis
CN118155272A (zh) 预设行为的检测方法、系统及电子设备