JP6844043B2 - 視覚測位方法、装置、電子機器およびシステム - Google Patents

視覚測位方法、装置、電子機器およびシステム Download PDF

Info

Publication number
JP6844043B2
JP6844043B2 JP2019572133A JP2019572133A JP6844043B2 JP 6844043 B2 JP6844043 B2 JP 6844043B2 JP 2019572133 A JP2019572133 A JP 2019572133A JP 2019572133 A JP2019572133 A JP 2019572133A JP 6844043 B2 JP6844043 B2 JP 6844043B2
Authority
JP
Japan
Prior art keywords
homography matrix
camera
viewing angle
information
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019572133A
Other languages
English (en)
Other versions
JP2020527263A (ja
Inventor
シン ダイ
シン ダイ
ジョー ワン
ジョー ワン
ジェンピン シー
ジェンピン シー
Original Assignee
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド, ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド filed Critical ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Publication of JP2020527263A publication Critical patent/JP2020527263A/ja
Application granted granted Critical
Publication of JP6844043B2 publication Critical patent/JP6844043B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)

Description

(関連出願の相互参照)
本願は2018年06月05日に出願された、出願番号201810581686.6の中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本願はコンピュータビジョン技術に関し、特に視覚測位方法、装置、電子機器およびシステムに関する。
無人運転システムまたは先進運転支援システム(Advanced Driver Assistant System、ADAS)は知的運転分野において用いられるシステムであり、目標測位は該システムのコア機能である。そのうち、単眼視覚測位の方法は一般的な単眼カメラのみを使用し、アルゴリズムが簡単で、効率が高く、計算量が小さいという利点を有するため、研究が盛んになっている。
単眼視覚測位は主にカメラのパラメータに基づいて行われ、カメラのパラメータは、カメラの姿勢などの要因に関連し、通常、カメラのパラメータは予め設定され、カメラのパラメータが設定されてからカメラのパラメータに基づいて測位が行われる。
本願の実施例は視覚測位の解決手段を提供する。
第一態様で、本願の実施例は、車両に取り付けられたカメラで取得した車両走行路面のビデオストリームに基づいて前記車両走行路面の区画線検出を行うことと、区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定することと、前記第一基準点情報と、前記カメラの過去視野角の基準点情報である第二基準点情報とに基づき、第三ホモグラフィ行列を特定することであって、前記第二基準点の位置が前記第一基準点の位置に対応し合い、前記第三ホモグラフィ行列が、現在視野角でのカメラの座標と過去視野角でのカメラの座標とのマッピング関係を表すために用いることと、前記第三ホモグラフィ行列と予め設定されたホモグラフィ行列とに基づいて第一ホモグラフィ行列を特定することであって、前記予め設定されたホモグラフィ行列が前記過去視野角でのカメラの座標と世界座標とのマッピング関係であることと、前記第一ホモグラフィ行列に基づいて測位することと、を含む視覚測位方法を提供する。
第二態様で、本願の実施例は、
車両に取り付けられたカメラで取得した車両走行路面のビデオストリームに基づいて前記車両走行路面の区画線検出を行うように構成される検出モジュールと、
区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定するように構成される第一特定モジュールと、
前記第一基準点情報と、前記カメラの過去視野角の基準点情報である第二基準点情報とに基づき、第三ホモグラフィ行列を特定するように構成され、前記第二基準点の位置が前記第一基準点の位置に対応し合い、前記第三ホモグラフィ行列が、現在視野角でのカメラの座標と過去視野角でのカメラの座標とのマッピング関係を表すために用いる第二特定モジュールと、
前記第三ホモグラフィ行列と予め設定されたホモグラフィ行列とに基づいて第一ホモグラフィ行列を特定するように構成され、前記予め設定されたホモグラフィ行列が前記過去視野角でのカメラの座標と世界座標とのマッピング関係である第三特定モジュールと、
第一ホモグラフィ行列に基づいて測位するように構成される測位モジュールと、を含む視覚測位装置を提供する。
本願の第三態様は、
プログラム命令を記憶するように構成されるメモリと、
前記メモリ内のプログラム命令を呼び出して実行し、前記第一態様に記載の方法のステップを実行するように構成されるプロセッサと、を含む電子機器を提供する。
本願の第四態様は、前記第一態様に記載の方法のステップを実行するためのコンピュータプログラムが記憶されている読み取り可能な記憶媒体を提供する。
本願の第五態様は、車両に用いられる視覚測位システムであって、前記車両に取り付けられたカメラ、および前記カメラと通信的に接続される前記第二態様に記載の視覚測位装置を含む視覚測位システムを提供する。
本願の第六態様は、コンピュータに前記第一態様に記載の方法を実行させるコンピュータプログラムを提供する。
本願が提供する視覚測位方法、装置、電子機器およびシステムは、現在視野角の第一基準点情報および過去視野角での第二基準点情報に基づき、カメラのリアルタイム姿勢を反映可能な現在視野角でのカメラの座標から世界座標への第一ホモグラフィ行列を生成し、さらに該第一ホモグラフィ行列に基づいて視覚測位を行い、それによりカメラの姿勢が変化した後、ユーザはパラメータを手動で計測する必要なく、視覚測位を正常に行うことができ、それにより操作の複雑度を低下させ、ユーザの使用体験を大幅に向上させる。
本願の実施例の現在視野角および過去視野角の模式図である。 本願の実施例が提供する視覚測位方法の実施例のフローチャートである。 本願の実施例が提供する視覚測位方法の実施例のフローチャートである。 本願の実施例が提供する縦方向較正の幾何モデルである。 本願の実施例が提供する横方向較正の幾何モデルである。 本願の実施例が提供する視覚測位方法の実施例のフローチャートである。 本願の実施例が提供する視覚測位方法の実施例のフローチャートである。 本願の実施例が提供する視覚測位方法の実施例のフローチャートである。 本願の実施例が提供する視覚測位装置の実施例の第一モジュール構成図である。 本願の実施例が提供する視覚測位装置の実施例の第二モジュール構成図である。 本願の実施例が提供する視覚測位装置の実施例の第三モジュール構成図である。 本願の実施例が提供する視覚測位装置の実施例の第四モジュール構成図である。 本願の実施例が提供する視覚測位装置の実施例の第五モジュール構成図である。 本願の実施例が提供する電子機器の実体のブロック図である。 本願の実施例が提供する視覚測位システムのアーキテクチャ模式図である。
本願または従来技術における技術的解決手段をより明確に説明するために、以下に実施例または従来技術の記述において必要な図面を用いて簡単に説明を行うが、当然ながら、上記に記載する図面は単に本願の実施例の一例であり、当業者であれば、創造的な労力を要することなく、これらの図面に基づいて他の図面に想到し得る。
本願の目的、技術的解決手段および利点をより明確にするために、以下に本願の実施例における図面と関連付けて、本願の実施例における技術的解決手段を明確に、完全に説明し、当然ながら、説明される実施例は本願の実施例の一部に過ぎず、全ての実施例ではない。本願における実施例に基づき、当業者が創造的な労力を要することなく、得られた他の全ての実施例は、いずれも本願の保護範囲に属する。
説明すべきは、本願の実施例に記載のカメラは視覚測位に用いられる車載カメラであり、該車載カメラによって路面情報を撮影できることである。
関連技術では、カメラが、例えば再実装されるか、他の車両に取り付けられるかまたは道路がでこぼこするかなど、姿勢が変化するシーンで、通常、ユーザは手動でパラメータを計測しなければならず、計測されるパラメータはカメラのピッチ角などのカメラ外部パラメータを含むため、ユーザは種々の複雑な操作を実行しなければパラメータ情報を計測できず、これはユーザ体験を低下させる。
本願の実施例は視覚測位方法を提供し、現在視野角および過去視野角での基準点によって、カメラのリアルタイム姿勢を反映可能な現在視野角でのカメラの座標から世界座標への第一ホモグラフィ行列を生成し、さらに該第一ホモグラフィ行列に基づいて視覚測位を行い、それによりカメラの姿勢が変化した後、ユーザはパラメータを手動で計測する必要なく、視覚測位を正常に行うことができ、それにより操作の複雑度を低下させ、ユーザの使用体験を大幅に向上させる。
当業者が本願の実施例の技術的解決手段をより明確に理解できるよう、以下、まず本願の実施例に係る用語を説明する。
1、現在視野角および過去視野角
現在視野角は現在時刻のカメラの視野角であり、過去視野角は現在時刻よりも前のある時刻の視野角である。本願の実施例の応用シーンについて、現在視野角および過去視野角は同じ視野角であってもなくてもよい。例えば、図1に示すように、視野角Aは過去視野角であり、カメラの姿勢が変化した後、それは現在視野角、即ち視野角Bに変わる。
2、ホモグラフィ行列(Homography Matrix)
同一平面の異なる時刻の視野角の座標変換に用いられるもの、即ち異なる時刻の視野角の座標間のマッピング関係を識別するためのものである。
図2は本願の実施例が提供する視覚測位方法の実施例のフローチャートであり、該方法は視覚測位が必要なあらゆる機器に用いることができ、つまり該方法の実行主体は視覚測位が必要な機器としてもよく、例えば、実行主体は、プロセッサおよびメモリを含む電子機器(プロセッサはメモリに記憶された対応する命令を呼び出して本願の実施例における方法のステップを実行する)、または、視覚測位装置(前記視覚測位装置は少なくとも検出モジュール、第一特定モジュール、第二特定モジュールおよび測位モジュールを含み、本願の実施例における方法のステップを実行可能である)を含む電子機器、または、ADASがインストールされた車両またはロボットなど、または無人運転車両もしくはロボットなどであってもよいが、これらに限定されない。方法の実行主体に対する説明は本願の他の方法の実施例にも適し、詳細な説明は繰り返さない。図2に示すように、該方法は以下を含む。
S201において、車両に取り付けられたカメラで取得した車両走行路面のビデオストリームに基づいて該車両走行路面の区画線検出を行う。
S202において、区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定する。
ここで、車両に取り付けられたカメラを事前に起動すると、カメラは車両が走行する路面のビデオストリームをリアルタイムに取得し、視覚測位を行う機器はカメラが取得したビデオストリームに基づいて区画線検出を行い、区画線検出結果を取得する。
本願の一つ以上の実施例によれば、区画線検出結果に基づいて区画線情報を特定することができる。
本願の一つ以上の実施例によれば、前記区画線情報は車両左右側の二つの区画線の情報または区画線平行線の情報であってもよい。該二つの区画線は直線区画線であってもよいし、湾曲区画線であってもよく、本願の実施例はこれを限定しない。区画線が湾曲区画線である場合、湾曲区画線を統計処理することで対応する直線区画線情報または直線区画線平行線情報を得ることができる。区画線は実線または点線などであってもよく、本願の実施例はその線種を限定せず、区画線の色は白色、黄色または黒色などであってもよく、本願の実施例はその色を限定しない。
前記区画線情報は区画線平行線関数で表すことができ、区画線情報の取得プロセスは下記実施例において説明する。
S203において、前記第一基準点情報と、前記カメラの過去視野角の基準点情報である第二基準点情報とに基づき、第三ホモグラフィ行列を特定し、前記第二基準点の位置が前記第一基準点の位置に対応し合い、前記第三ホモグラフィ行列が、現在視野角でのカメラの座標と過去視野角でのカメラの座標とのマッピング関係を表すために用いる。
S204において、前記第三ホモグラフィ行列と予め設定されたホモグラフィ行列とに基づいて第一ホモグラフィ行列を特定し、前記予め設定されたホモグラフィ行列が前記過去視野角でのカメラの座標と世界座標とのマッピング関係である。
本願の一つ以上の実施例によれば、前記第二基準点は既知の基準点であり、つまり本実施例を実行する前に、過去視野角での基準点が既に選択および記録されている。第一基準点も第二基準点も世界座標での座標点であり、しかもいずれも区画線平行線の縦方向における等距離且つ対になる位置点の座標である。前記第二基準点と前記第一基準点は位置が互いに対応し合い、具体的に第一基準点も第二基準点も区画線平行線における縦方向での等距離且つ対になる位置点であることと解されてもよい。図1を例にすると、図1における視野角Aは過去視野角であり、視野角Aでのm1、m2、m3およびm4は第二基準点であり、ここで、m1とm3は一つの点対であり、m2とm4は一つの点対であり、図1における視野角Bは現在視野角であり、視野角Bでのn1、n2、n3およびn4は第一基準点であり、ここで、n1とn3は一つの点対であり、n2とn4は一つの点対である。
例えば、過去視野角を前記図1における視野角A、現在視野角を図1における視野角Bとすると、視野角Aでのカメラの座標から世界座標へのマッピング関係は事前に取得および記録されることができる。さらに、本ステップでは、前記第一基準点および第二基準点に基づき、視野角Bから視野角Aでのカメラ座標へのマッピング関係を得ることができる。さらに、視野角Bから視野角Aへのマッピング関係と、視野角Aから世界座標へのマッピング関係とを統合すれば、視野角Bから世界座標へのマッピング関係を得ることができる。
以下に一例により説明する。
視野角Aでの第二基準点をM={m1,m2,...,m6,...}、視野角Bでの第一基準点をN={n1,n2,...,n3,...}、視野角Aでのカメラの座標から世界座標への予め設定されたホモグラフィ行列を
とすると、まず座標点集合M−Nの対応関係によって、opencvにおけるfindHomography関数を使用し、視野角Bから視野角Aへのホモグラフィ行列
を取得し、さらに、H3とH1とを乗算すれば、第一ホモグラフィ行列HT、具体的には、

を得ることができる。
S205において、第一ホモグラフィ行列に基づいて測位する。
本実施例では、現在視野角の第一基準点情報および過去視野角での第二基準点情報に基づき、カメラのリアルタイム姿勢を反映可能な現在視野角でのカメラの座標から世界座標への第一ホモグラフィ行列を生成し、さらに該第一ホモグラフィ行列に基づいて視覚測位を行い、それによりカメラの姿勢が変化した後、ユーザはパラメータを手動で計測する必要なく、視覚測位を正常に行うことができ、それにより操作の複雑度を低下させ、ユーザの使用体験を大幅に向上させる。
本願の任意選択的な一実施例では、第一ホモグラフィ行列を特定してから、前記予め設定されたホモグラフィ行列を更新し、前記第一ホモグラフィ行列を新たな予め設定されたホモグラフィ行列とし、該新たな予め設定されたホモグラフィ行列に基づいて視覚測位を行うことができる。
上記実施例のもとに、本実施例は第一ホモグラフィ行列に基づいて測位する具体的なプロセスに関する。
本願の一つ以上の実施例によれば、該第一ホモグラフィ行列を直接使用して測位することができる。具体的には、まずカメラで取得したビデオストリームに基づいて現在視野角でのカメラ座標を得て、続いてカメラ座標と該第一ホモグラフィ行列とを乗算し、それにより現在視野角での世界座標を得ることができる。
説明すべきは、具体的に実施する時、カメラの所在位置を現在視野角での座標原点と見なしてもよいことであり、そうすると、現在視野角での世界座標を得てから、カメラに対する目標物体の位置が得られ、それにより視覚測位が完了される。本願の以下の実施例では第一ホモグラフィ行列に基づいて現在視野角の世界座標を得る原理はいずれもこれと同様であり、詳細な説明は繰り返さない。
現実世界では、異なる路面における区画線の幅は必ずしも同じではないため、該第一ホモグラフィ行列を直接使用して測位する場合、得られた縦方向および横方向の距離は実際の距離との間にオフセットが出る可能性があるため、本願の実施例では、また別の任意選択的な実施形態を採用してもよく、つまり第一ホモグラフィ行列を較正し、さらに較正後のホモグラフィ行列に基づいて測位し、それによって測位結果をより正確にすることができる。
該任意選択的な実施形態では、前記第一ホモグラフィ行列に基づいて測位する前記ステップは、縦方向較正情報および横方向較正情報に基づき、前記第一ホモグラフィ行列を較正し、較正パラメータを得ることと、該較正パラメータおよび前記第一ホモグラフィ行列に基づいて測位することと、を含む。
本願の一つ以上の実施例によれば、目標物体の位置はその世界座標での縦座標および横座標によって決定される。例示的に、ある目標物体のカメラに対する横座標を3、縦座標を4とすると、該座標3および座標4の一意性によって目標物体の位置を特定することができる。それに対して、第一ホモグラフィ行列の偏差は横方向の偏差および縦方向の偏差により共同で形成されるため、本実施例では、縦方向較正情報および横方向較正情報に基づいて第一ホモグラフィ行列を較正し、それにより較正パラメータを得て、さらに較正パラメータおよび第一ホモグラフィ行列に基づいて測位する。
そのうち、前記縦方向較正情報はピッチ角などを含んでもよく、前記横方向較正情報は水平偏角などを含んでもよい。
具体的な実行プロセスは下記実施例において例を挙げて説明する。
以下に本願の実施例の応用シーンを説明する。本願の実施例に係る解決手段は知的運転シーン、例えば運転支援または自動運転シーンにおいて用いることができる。そのうち、無人運転システムまたはADASシステムは知的転分野に用いられるシステムであり、本願の実施例は以下にADASシステムを例にして本願の実施例の方法の知的運転シーンにおける応用プロセスを説明するが、当然、本願の実施例はこれに限定されない。
一つのシーンでは、ユーザが手動で入力するまたはADASシステムが特定のトリガ条件下で入力する較正命令を受信してから、上記ステップS201の実行をトリガし、さらにS201の後続のステップを実行する。一実施形態としては、ステップ202について、区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定する前記ステップは、較正命令を受信することと、前記較正命令に応じて、区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定することと、を含む。
例示的に、ユーザが手動でカメラの取付位置を調整した後、ユーザはADASシステムのインタフェースにおいてボタンクリックまたは音声などの方式で較正命令を入力することができ、システムはユーザが入力する較正命令を受信してから、上記ステップS201およびその後続のステップを実行し、それによりカメラの取付位置が変化した後、正確に測位することができる。
別のシーンでは、ユーザが較正命令を出す必要がなく、ADASシステムはカメラの姿勢が変化したかどうかを判断し、変化したと判断した場合、上記ステップS201および後続のステップの実行をトリガすることができる。別の実施形態としては、ステップ202について、区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定する前記ステップは、カメラの姿勢が変化したかどうかを判断し、変化したと判断した場合、区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定することを含む。
例示的に、ADASシステムはカメラの姿勢をリアルタイムに推定し、隣接する2回の姿勢推定結果に基づいてカメラの姿勢が変化したかどうかを判断することができ、カメラの姿勢が変化したとすれば、ADASシステムは上記ステップS201およびその後続のステップを実行し、それによりカメラの取付位置が変化した後、正確に測位することができる。
本願の一つ以上の実施例によれば、前記方法はさらに、第一の予め設定された周期内の複数の第一ホモグラフィ行列および複数セットの較正パラメータを取得することと、該複数の第一ホモグラフィ行列の平均値および複数セットの較正パラメータの平均値に基づき、新たに測位することと、を含む。
例示的に、ADASシステムはさらに、第一の予め設定された周期を10秒とし、この10秒内で合計8群のデータ、即ち8個の第一ホモグラフィ行列および8群の較正パラメータを取得する場合、第一の予め設定された周期後の時点で、前の8群のデータの平均値を直接使用して新たに測位し、つまり前の8個の第一ホモグラフィ行列を平均したホモグラフィ行列を新たなホモグラフィ行列とし、前の8群の較正パラメータを平均した較正パラメータを新たな較正パラメータとし、新たなホモグラフィ行列および新たな較正パラメータに基づいて測位するという動作を実行することができる。
本願の一つ以上の実施例によれば、前記方法はさらに、第二の予め設定された周期間隔に応じて、第一ホモグラフィ行列および較正パラメータを取得することと、該第一ホモグラフィ行列および該較正パラメータに基づいて新たに測位することと、を含む。
例示的に、ADASシステムはさらに、第二の予め設定された周期を5秒とし、5秒おきに1回第一ホモグラフィ行列および較正パラメータを取得し、さらに次の5秒の周期内で、前の周期で取得した第一ホモグラフィ行列および較正パラメータを使用して測位するという動作を実行することができる。
上記実施例のもとに、本実施例は第一ホモグラフィ行列を較正し、較正パラメータを得る具体的な実行プロセスに関する。
図3は本願の実施例が提供する視覚測位方法の実施例のフローチャートであり、図3に示すように、第一ホモグラフィ行列を較正し、較正パラメータを得る上記ステップは、具体的に以下を含むことができる。
S301において、区画線検出結果、前記第一ホモグラフィ行列およびカメラのピッチ角情報に基づき、縦方向較正の比例係数およびオフセット量を特定する。
S302において、前記第一ホモグラフィ行列および水平偏角情報に基づき、横方向較正の比例係数を特定する。
本願の一つ以上の実施例によれば、本実施例を実行する前に、前記ピッチ角情報および水平偏角情報を優先的に特定する必要がある。
本願の一つ以上の実施例によれば、前記第一ホモグラフィ行列を較正し、較正パラメータを得る前記ステップの前に、前記方法はさらに、区画線検出結果に基づき、カメラのピッチ角情報および水平偏角情報を特定することを含む。
本願の一つ以上の実施例によれば、区画線検出結果に基づいて地平線情報およびルート情報を特定することができる。地平線情報は地平線関数であってもよく、ルート情報はルート関数であってもよい。
なお、本願の実施例で言及された関数の具体的な数学的表現形式は例に過ぎず、当業者であれば、本願をもとにして他の数学的表現形式の関数を構築することができ、本願が提供する例は本願の技術的解決手段を実質的に限定するものではないことを理解すべきである。
まず、地平線関数によって、主光軸画素座標から地平線関数までの距離(下記図4中のPQ)を計算し、さらに下式(1)によってピッチ角θを計算する。
θ=arctan(PQ/(f*pm)) (1)
次に、ルート関数によって、主光軸画素座標からルート関数までの距離(下記図5中のCD)を計算し、さらに下式(2)によって水平偏角φを計算する。
φ=arctan(CD/(f*pm)) (2)
本願の一つ以上の実施例によれば、またジャイロスコープなどのハードウェアを使用して加速度を取得し、加速度変化に基づいてピッチ角情報および水平偏角情報を取得するようにしてもよい。
さらに、本実施例では、具体的に縦方向較正の比例係数およびオフセット量を含む縦方向較正パラメータおよび具体的に横方向較正の比例係数である横方向較正パラメータをそれぞれ取得する。
本願の一つ以上の実施例によれば、縦方向較正パラメータの取得プロセスは以下のとおりである。
まず、図4に示すような縦方向較正の幾何モデルを作成し、該モデルにおいて、Aは世界座標系での縦座標原点であり、B、Eは現在フレームと前のフレームの地上における同一点をそれぞれ表し、従って、BEは車両(カメラ)の実際の変位量を表し、B’E’は前記第一ホモグラフィ行列を使用して計算した世界座標での変位量を表し、BD’、BD、GN、E’F’、EFはいずれも地面と垂直であり、GHは地面と平行であり、D’DNMF’FQが存在する点線はカメラと同じ高さの地面平行線を表す。説明の便宜上、本実施例ではBGMが存在する直線をカメラ投影面と定義し、従って、点Gは前のフレームの写真における点Eの位置であり、透視の原理によって得ることができ、GM、BMはそれぞれ写真における実世界の地上の同一点の地平線との画素距離を表す。
図4に示す幾何モデルに基づき、まずカメラの現在フレームレートおよび車速に基づいて現在フレーム間の車両の実際の変位量BEを計算する。ここで、カメラの現在フレームレートおよび車速は予め取得する必要がある。さらにビデオにおける同一点(例えば区画線の角点)を追跡し、それにより写真におけるB、Gの画素座標を取得する。本願の一つ以上の実施例によれば、オプティカルフロー追跡という追跡方式でビデオにおける同一点を追跡することができる。さらに、前記第一ホモグラフィ行列によってB’、E’、世界座標F’、D’を算出し、それによりAF’、AD’を得る。同時に地平線関数(具体的な取得方式は下記実施例において説明する)によって、下記点から直線までの距離式(3)を利用し、B、G画素座標から地平線関数までの距離を計算すると、GM、BMを得ることができ、さらに、式(4)を使用してBGを算出することができる。
(3)
BG = BM−GM (4)
さらに、下式(5)を使用して縦方向較正の比例係数kを算出する。
(5)
下式(6)を使用してオフセット量bを算出する。
(6)
横方向較正パラメータの取得プロセスは以下のとおりである。
まず図5に示すような横方向較正の幾何モデルを作成し、該モデルにおいて、Aは世界座標系での座標原点であり、Bはあるフレームの写真における地上の任意の点であり、従って、BEは世界座標系での水平距離である。説明の便宜上、本実施例ではDCBが存在する直線をカメラ投影面と定義し、従って、BCは画素座標での点Bからルート関数(具体的な取得方式は下記実施例において説明する)までの距離である。AHはカメラの焦点距離であり、FHは実世界におけるカメラ撮像面の長さである。AHおよびFHは予め取得する必要がある。
図5に示す幾何モデルに基づき、まず前記点から直線までの距離式(3)によってBCを算出する。続いて、上記得られた縦方向較正の比例係数kおよびオフセット量bに基づき、下式(7)を使用してAEを算出する。さらに前記第一ホモグラフィ行列に基づいてBの世界座標を算出し、それによりBE’を得る。そしてカメラの内部パラメータおよび前記水平偏角と組み合わせて、下式(8)を使用して横方向較正の比例係数k’を計算する。
AE = k*AE’ + b (7)

(8)
本願の一つ以上の実施例によれば、また現在視野角でのカメラで取得した複数のフレームの画像における同一目標物体の座標を比較分析することで、縦方向較正の比例係数およびオフセット量、および横方向較正の比例係数を特定するようにしてもよい。
上記実施例のもとに、本実施例は較正パラメータおよび第一ホモグラフィ行列に基づいて測位する具体的なプロセスに関する。
図6は本願の実施例が提供する視覚測位方法の実施例のフローチャートであり、図6に示すように、較正パラメータおよび第一ホモグラフィ行列に基づいて測位する任意選択的な一実施形態は以下のとおりである。
S601において、前記較正パラメータおよび前記第一ホモグラフィ行列に基づき、較正後の現在視野角でのカメラの座標と世界座標とのマッピング関係行列である第二ホモグラフィ行列を特定する。
例えば、前記第一ホモグラフィ行列と前記較正パラメータとを統合し、第二ホモグラフィ行列を形成する。
本願の一つ以上の実施例によれば、前記較正パラメータおよび前記第一ホモグラフィ行列に基づき、第二ホモグラフィ行列を特定する前記ステップは、カメラで取得したビデオストリームの画面における第一の予め設定された数の座標点に基づき、較正パラメータを分割して得られたパラメータである較正パラメータの少なくとも一つのサブパラメータを特定し、該少なくとも一つのサブパラメータに基づいて第二ホモグラフィ行列を特定することを含む。
本願の一つ以上の実施例によれば、前記サブパラメータは前記オフセット量bのサブパラメータである。
例示的に、オフセット量bのサブパラメータをb1、b2およびb3とすると、任意の3つの座標点(それぞれ(x1、y1,1)、(x2、y2,1)、(x3、y3,1))を選択し、下式(9)によってサブパラメータb1、b2およびb3を算出することができる。
(9)
さらに、サブパラメータb1、b2およびb3、ならびに前記縦方向較正の比例kおよび横方向較正の比例係数k’を前記第一ホモグラフィ行列へ併合し、第二ホモグラフィ行列を形成する。
以下に一例により説明する。
図像におけるある座標点
が存在し、前記第一ホモグラフィ行列がHであるとすると、座標点Xの第一ホモグラフィ行列によるマッピングのみを経た世界座標は
となり、座標点Xの対応する実の世界座標は
とするべきである。
そうすると、行列演算によって、前記サブパラメータb1、b2およびb3、ならびに前記縦方向較正の比例kおよび横方向較正の比例係数k’を前記第一ホモグラフィ行列HTへ併合した第二ホモグラフィ行列は
となる。
S602において、前記第二ホモグラフィ行列を使用して測位する。
実施例では、第一ホモグラフィ行列と較正パラメータとを統合し、較正後のホモグラフィ行列を形成し、それにより視覚測位時に該較正後のホモグラフィ行列を使用して視覚測位を素早く完了し、視覚測位の効率を向上させることができる。
図7は本願の実施例が提供する視覚測位方法の実施例のフローチャートであり、図7に示すように、較正パラメータおよび第一ホモグラフィ行列に基づいて測位する別の任意選択的な実施形態は以下のとおりである。
S701において、現在視野角でのカメラで取得したビデオストリームの画面における座標点の同次座標および前記第一ホモグラフィ行列に基づき、中間行列を特定する。
本願の一つ以上の実施例によれば、現在視野角でのカメラで取得したビデオストリームの画面における座標点の同次座標を前記第一ホモグラフィ行列と乗算し、中間行列を得る。
S702において、前記中間行列と前記較正パラメータに対して線形計算を行い、現在視野角での世界座標を得る。
ここで、前記カメラの座標点はカメラで取得した画面における任意の座標点であってもよく、ある座標点Xを(x、y)とすると、座標点Xの同次座標は
となる。
つまり、本実施例では、カメラで取得した画面におけるいずれの座標点についても、その同次座標行列を第一ホモグラフィ行列と直接乗算し、さらに前記較正パラメータとの線形計算を行うことで、該座標点の現在視野角での世界座標を得ることができる。
本実施例では、第一ホモグラフィ行列と較正パラメータとの統合処理を行わず、視覚測位が必要である場合、第一ホモグラフィ行列および較正パラメータを直接使用する。第一ホモグラフィ行列および較正パラメータが持続的に変化する場合、本実施例の方法を使用することで計算量を低減し、計算効率を向上させることができる。
上記実施例のもとに、本実施例は区画線検出結果に基づいて第一基準点情報を特定する具体的な方法に関する。
第一基準点を特定する前に、まず区画線検出結果に基づいて区画線平行線情報、地平線情報、消失点情報およびルート情報を特定する必要がある。
ここで、前記ルート情報とは車両の走行路線および路線の延長線の情報をいい、消失点はルートに沿った路面消失点である。
本願の一つ以上の実施例によれば、まず車両左右側の区画線の平行線関数をリアルタイムにフィッティングし、続いて区画線交点を統計して地平線関数と消失点とをフィッティングし、さらに地平線および消失点に基づいてルート関数を計算することができる。
例えば、区画線平行線関数のフィッティングについて、まず深層学習における分割方法によって区画線が存在する画素点をマークし、さらにopencvによって現在の車両左右側の二つの区画線の曲線関数フィッティングを行うことができる。同時に、路面状況は直線道路である場合が多いため、統計方法に基づき、直線区画線平行線の確率マップを取得し、さらに該確率マップに基づいて車両左右側の直線区画線平行線の一次関数をフィッティングすることができる。または、区分関数などの方式で区画線平行線関数をフィッティングしてもよい。
地平線関数および消失点について、まず前記リアルタイムにフィッティングした区画線平行線関数によって、画像の座標範囲内の交点を計算する。続いて、車両が一定時間正常に走行した後、合流、曲がりなどの路面状況が存在するため、区画線交点の確率マップを得ることができ、該確率マップによって、密度に基づくクラスタリングアルゴリズム(DBSCANアルゴリズムなど)を使用して外れ値を除去すれば、地平線に落ちた一連の点を得ることができる。これらの点を使用すれば地平線平行線関数をフィッティングし、平均法などによって消失点座標を得ることができる。
ルート関数について、透視の原理によれば、前記フィッティングした地平線は必ずルートと直交し、同時にルートまたはその延長線は必ず消失点を経過することが知られる。従って、消失点を経過するように地平線の直交線関数を計算し、それをルート関数とする。または、オプティカルフローを使用して水平動きベクトルが0の点を計算し、さらにこれらの点でルート関数をフィッティングするようにしてもよい。
本願の一つ以上の実施例によれば、まず車両左右側の区画線平行線関数をリアルタイムにフィッティングし、続いてルート関数と消失点とをフィッティングし、さらにルートおよび消失点に基づいて地平線関数を計算することができる。
前記区画線情報、地平線情報およびルート情報を取得してから、これらの情報に基づいて第一基準点を特定する。
図8は本願の実施例が提供する視覚測位方法の実施例のフローチャートであり、図8に示すように、区画線検出結果に基づいて第一基準点を特定する具体的なプロセスは以下のとおりである。
S801において、区画線検出結果に基づいて区画線平行線情報および地平線平行線情報を特定する。
本願の一つ以上の実施例によれば、区画線検出結果に基づいて区画線平行線情報および地平線平行線情報を特定する前記ステップは、区画線検出結果に基づいて区画線平行線をフィッティングし、フィッティングした区画線平行線に基づき、地平線平行線情報を特定することを含む。
本願の一つ以上の実施例によれば、前記区画線平行線情報は前記区画線平行線関数であってもよく、前記地平線平行線情報は地平線平行線関数であってもよい。
S802において、前記区画線平行線情報、前記地平線平行線情報およびルート情報に基づいて前記第一基準点の座標を特定する。
本願の一つ以上の実施例によれば、前記区画線平行線情報、前記地平線平行線情報およびルート情報に基づいて前記第一基準点の座標を特定する前記ステップは、ルート方向での第二の予め設定された数の座標点を選択し、該第二の予め設定された数の座標点の地平線平行線情報を特定し、地平線平行線情報および区画線平行線情報に基づいて地平線平行線と区画線平行線との交点の座標を特定し、該座標を第一基準点の座標とすることを含む。
例えば、まず前記ルート関数に基づき、ルート方向から第二の予め設定された数の点を選択し、続いて、これらの点の地平線平行線関数を計算し、さらに該地平線平行線関数と区画線平行線関数との交点座標を計算し、これらの交点座標を前記第一基準点の座標とする。
本願の上記実施例では、前記カメラは路面の区画線を撮影可能な位置である車両における第一位置に取り付けてもよい。つまり、本願の実施例では、カメラの取付位置を限定せず、カメラが路面情報を撮影できれば、本願の実施例の方法によって視覚測位を実現できる。
また、本願の上記実施例では、車両に取り付けられたカメラで取得した車両走行路面のビデオストリームに基づいて前記路面の区画線検出を行う前記ステップは、車両が走行状態である時、車両に取り付けられたカメラで取得した車両走行路面のビデオストリームに基づいて前記路面の区画線検出を行い、さらに後続のステップを実行し、視覚測位を完了することを含む。
また、本願の実施例に記載のピッチ角は第一の予め設定された角度範囲内の任意の角度であってもよく、かつ、本願の実施例に記載の水平偏角は第二の予め設定された角度範囲内の任意の角度であってもよい。
図9は本願の実施例が提供する視覚測位装置の実施例の第一モジュール構成図であり、図9に示すように、該装置は、
車両に取り付けられたカメラで取得した車両走行路面のビデオストリームに基づいて前記車両走行路面の区画線検出を行うように構成される検出モジュール901と、
前記検出モジュール901により得られた区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定するように構成される第一特定モジュール902と、
前記第一特定モジュール902により特定された前記第一基準点情報と、前記カメラの過去視野角の基準点情報である第二基準点情報とに基づき、第三ホモグラフィ行列を特定するように構成され、前記第二基準点の位置が前記第一基準点の位置に対応し合い、前記第三ホモグラフィ行列が、現在視野角でのカメラの座標と過去視野角でのカメラの座標とのマッピング関係を表すために用いる第二特定モジュール903と、
前記第二特定モジュール903により特定された前記第三ホモグラフィ行列と予め設定されたホモグラフィ行列とに基づいて第一ホモグラフィ行列を特定するように構成され、前記予め設定されたホモグラフィ行列が前記過去視野角でのカメラの座標と世界座標とのマッピング関係である第三特定モジュール904と、
前記第三特定モジュール904により特定された前記第一ホモグラフィ行列に基づいて測位するように構成される測位モジュール905と、を含む。
該装置は前記方法の実施例を実現するために用いられ、その実現原理は技術的効果に類似し、ここでは詳細な説明を繰り返さない。
本願の一つ以上の実施例によれば、前記測位モジュール905は、縦方向較正情報および横方向較正情報に基づき、前記第一ホモグラフィ行列を較正し、較正パラメータを得て、そして前記較正パラメータおよび前記第一ホモグラフィ行列に基づいて測位するように構成される。
本願の一つ以上の実施例によれば、前記測位モジュール905は、前記較正パラメータおよび前記第一ホモグラフィ行列に基づき、較正後の現在視野角でのカメラの座標と世界座標とのマッピング関係行列である第二ホモグラフィ行列を特定し、そして前記第二ホモグラフィ行列を使用して測位するように構成される第一測位ユニットを含む。
本願の一つ以上の実施例によれば、前記第一測位ユニットは、前記カメラで取得したビデオストリームの画面における第一の予め設定された数の座標点に基づき、前記較正パラメータを分割して得られたパラメータである前記較正パラメータの少なくとも一つのサブパラメータを特定し、そして前記サブパラメータに基づき、前記第二ホモグラフィ行列を特定するように構成される行列特定ユニットを含む。
本願の一つ以上の実施例によれば、前記測位モジュール905は、現在視野角でのカメラで取得したビデオストリームの画面における座標点の同次座標および前記第一ホモグラフィ行列に基づき、中間行列を特定し、そして前記中間行列と前記較正パラメータに対して線形計算を行い、現在視野角での世界座標を得るように構成される第二測位ユニットを含む。
本願の一つ以上の実施例によれば、前記測位モジュール905はさらに、区画線検出結果、前記第一ホモグラフィ行列およびカメラのピッチ角情報に基づき、縦方向較正の比例係数およびオフセット量を特定し、そして前記第一ホモグラフィ行列および水平偏角情報に基づき、横方向較正の比例係数を特定するように構成される較正ユニットを含む。
図10は本願の実施例が提供する視覚測位装置の実施例の第二モジュール構成図であり、図10に示すように、該装置はさらに、
区画線検出結果に基づき、前記ピッチ角情報および前記水平偏角情報を特定するように構成される第四特定モジュール906を含む。
本願の一つ以上の実施例によれば、前記第一特定モジュール902は、区画線検出結果に基づいて区画線平行線情報および地平線平行線情報を特定し、そして前記区画線平行線情報および地平線平行線情報ならびにルート情報に基づいて前記第一基準点の座標を特定するように構成される。
本願の一つ以上の実施例によれば、前記第一特定モジュール902は、ルート方向での第二の予め設定された数の座標点を選択し、そして前記第二の予め設定された数の座標点の地平線平行線情報を特定するように構成される第一特定ユニット、および前記地平線平行線情報および前記区画線平行線情報に基づいて地平線平行線と前記区画線平行線との交点の座標を特定し、そして前記交点の座標を前記第一基準点の座標とするように構成される第二特定ユニットを含む。
本願の一つ以上の実施例によれば、前記第一特定モジュール902は、区画線検出結果に基づいて区画線平行線をフィッティングし、そしてフィッティングした区画線平行線に基づき、地平線平行線情報を特定するように構成される第三特定ユニットを含む。
本願の一つ以上の実施例によれば、前記カメラは、路面の区画線を撮影可能な位置である前記車両における第一位置に取り付けられる。
本願の一つ以上の実施例によれば、前記検出モジュール901は、前記車両が走行状態である時、車両に取り付けられたカメラで取得した車両走行路面のビデオストリームに基づいて前記路面の区画線検出を行うように構成される。
本願の一つ以上の実施例によれば、前記ピッチ角は第一の予め設定された角度範囲内の任意の角度であり、前記水平偏角は第二の予め設定された角度範囲内の任意の角度である。
図11は本願の実施例が提供する視覚測位装置の実施例の第三モジュール構成図であり、図11に示すように、該装置はさらに、
前記予め設定されたホモグラフィ行列を更新し、前記第一ホモグラフィ行列を新たな予め設定されたホモグラフィ行列とするように構成される更新モジュール907を含む。
本願の一つ以上の実施例によれば、前記第一特定モジュール902はさらに、較正命令を受信し、そして前記較正命令に応じて、区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定するように構成される。
本願の一つ以上の実施例によれば、前記第一特定モジュール902はさらに、カメラの姿勢が変化したかどうかを判断し、変化したと判断した場合、区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定するように構成される。
図12は本願の実施例が提供する視覚測位装置の実施例の第四モジュール構成図であり、図12に示すように、該装置はさらに、
第一の予め設定された周期内の複数の第一ホモグラフィ行列および複数セットの較正パラメータを取得するように構成される第一取得モジュール908と、
前記複数の第一ホモグラフィ行列の平均値および前記複数セットの較正パラメータの平均値に基づき、新たに測位するように構成される第一処理モジュール909と、を含む。
図13は本願の実施例が提供する視覚測位装置の実施例の第五モジュール構成図であり、図13に示すように、該装置はさらに、
第二の予め設定された周期間隔に応じて、前記第一ホモグラフィ行列および前記較正パラメータを取得するように構成される第二取得モジュール910と、
前記第一ホモグラフィ行列および前記較正パラメータに基づいて新たに測位するように構成される第二処理モジュール911と、を含む。
説明すべきは、上記実施例が提供する視覚測位装置は視覚測位時、上記各プログラムモジュールの分割のみを例にして説明しており、実際の適用では、必要に応じて上記処理を異なるプログラムモジュールに割り当てて完了させることができ、つまり装置の内部構成を異なるプログラムモジュールに分割し、以上に記載の全てまたは一部の処理を完了することができるということである。また、上記実施例が提供する視覚測位装置は視覚測位方法の実施例と同一思想に属し、その具体的な実現プロセスの詳細は方法の実施例を参照すればよく、ここでは説明を省略する。
図14は本願の実施例が提供する電子機器の実体のブロック図であり、図14に示すように、該電子機器は、
プログラム命令を記憶するように構成されるメモリ1401と、
前記メモリ内のプログラム命令を呼び出して実行し、上記方法の実施例に記載の方法のステップを実行するように構成されるプロセッサ1402と、を含む。
なお、メモリ1401は揮発性メモリまたは非揮発性メモリであってもよいし、揮発性および非揮発性メモリの両者を含んでもよいことを理解すべきである。ここで、非揮発性メモリは読み取り専用メモリ(ROM、Read Only Memory)、プログラマブル読み取り専用メモリ(PROM、Programmable Read−Only Memory)、フラッシュメモリ(Flash Memory)、磁性面記憶装置、光ディスク、またはコンパクトディスク読み取り専用メモリ(CD−ROM、Compact Disc Read−Only Memory)であってもよく、磁性面記憶装置は磁気ディスク記憶装置または磁気テープ記憶装置であってもよい。揮発性メモリはランダムアクセスメモリ(RAM、Random Access Memory)であってもよく、それは外部高速キャッシュメモリとして用いられる。例示的であるが限定的ではない説明によって、様々な形式のRAMは使用可能である。本発明の実施例に記載のメモリ1401はこれらおよび他の任意の適当なタイプに限定されないメモリを含もうとする。
上記本発明の実施例が開示する方法はプロセッサ1402において用いるか、またはプロセッサ1402によって実現することができる。プロセッサ1402は集積回路チップであり得、信号の処理能力を有する。実現プロセスでは、上記方法の各ステップはプロセッサ1402内のハードウェアの集積論理回路またはソフトウェア形式の命令によって完了できる。上記プロセッサ1402は共通プロセッサ、デジタル信号プロセッサ(DSP、Digital Signal Processor)、または他のプログラマブルロジックデバイス、離散ゲートもしくはトランジスタロジックデバイス、離散ハードウェアコンポーネントなどであってもよい。プロセッサ1402は本発明の実施例が開示する各方法、ステップおよび論理ブロック図を実現または実行することができる。共通プロセッサはマイクロプロセッサまたはあらゆる一般的なプロセッサなどであってもよい。
図15は本願の実施例が提供する視覚測位システムのアーキテクチャ模式図であり、該システムは車両に用いられ、図15に示すように、該システム1500は車両に取り付けられたカメラ1501およびカメラ1501と接続される上記視覚測位装置1502を含む。
なお、本願の実施例が提供するいずれかの視覚測位装置、視覚測位システム、電子機器内の各部材、モジュールまたはユニットの動作プロセスおよび設定方式は、本願の上記方法の実施例の対応する記載を参照すればよいことを理解すべきであり、紙数に限りがあるので、ここでは詳細な説明を省略する。
本願の実施例はさらにコンピュータプログラムを提供し、前記コンピュータプログラムがコンピュータに本願の上記方法の実施例を実行させる対応の記載は、紙数に限りがあるので、ここでは詳細な説明を省略する。
当業者であれば、上記各方法の実施例を実現する全てまたは一部のステップはプログラムによって関連ハードウェアに命令を出すことにより完了できることを理解できる。前記プログラムは、ROM、RAM、磁気ディスクまたは光ディスクなどのプログラムコードを記憶可能である様々な媒体を含むコンピュータ読み取り可能記憶媒体に記憶可能である。該プログラムは実行される時に、上記各方法の実施例を含むステップを実行する。
なお、本願が提供するいくつかの実施例では、開示した機器および方法は、他の形態で実現することができることを理解すべきである。以上に記載の機器の実施例は例示的なものに過ぎず、例えば、前記ユニットの分割は、論理機能の分割に過ぎず、実際に実現する場合に別の形態で分割してもよく、例えば、複数のユニットまたはコンポーネントは組み合わせてもよいし、または別のシステムに統合してもよいし、または一部の特徴を省略もしくは実行しなくてもよい。また、図示または説明した各構成要素の結合、または直接結合、または通信接続は、いくつかのインタフェース、機器またはユニットを介した間接結合または通信接続であり得、電気的、機械的または他の形態であり得る。
別々の部材として前述したユニットは物理的に分離されてもされなくてもよく、ユニットとして表示された部材は物理的ユニットであってもなくてもよい、即ち一箇所にあっても複数のネットワークユニットに分散してもよいし、本実施例の解決手段の目的を達成するには、実際の必要に応じて一部または全てのユニットを選択することができる。
また、本願の各実施例における各機能ユニットは全て一つの処理ユニットに統合されてもよいし、一つのユニットとして別々に使用されてもよいし、二つ以上で一つのユニットに統合されてもよく、上記統合されたユニットはハードウェアの形で、またはハードウェアとソフトウェアを組み合わせた機能ユニットの形で実現され得る。
当業者であれば、上記各方法の実施例を実現する全てまたは一部のステップはプログラムによって関連ハードウェアに命令を出すことにより完了できることを理解でき、前記プログラムは、携帯型記憶装置、読み取り専用メモリ(ROM、Read−Only Memory)、ランダムアクセスメモリ(RAM、Random Access Memory)、磁気ディスクまたは光ディスクなどのプログラムコードを記憶可能である様々な媒体を含むコンピュータ読み取り可能記憶媒体に記憶可能であり、該プログラムは実行される時に、上記各方法の実施例を含むステップを実行する。
あるいは、本願の上記統合されたユニットはソフトウェア機能モジュールの形で実現されかつ独立した製品として販売または使用される場合、コンピュータ読み取り可能記憶媒体に記憶されてもよい。このような見解をもとに、本願の実施例の技術的解決手段は実質的にまたは従来技術に寄与する部分がソフトウェア製品の形で実施することができ、該コンピュータソフトウェア製品は記憶媒体に記憶され、コンピュータ機器(パーソナルコンピュータ、サーバ、またはネットワーク機器などであってもよい)に本願の各実施例に記載の方法の全てまたは一部を実行させる複数の命令を含む。前記記憶媒体は、携帯型記憶装置、ROM、RAM、磁気ディスクまたは光ディスクなどのプログラムコードを記憶可能である様々な媒体を含む。
本願が提供するいくつかの方法の実施例が開示した方法は、矛盾なく任意に組み合わせて、新たな方法の実施例を得ることができる。
本願が提供するいくつかの製品の実施例が開示した特徴は、矛盾なく任意に組み合わせて、新たな製品の実施例を得ることができる。
本願が提供するいくつかの方法または機器の実施例が開示した特徴は、矛盾なく任意に組み合わせて、新たな方法の実施例または機器の実施例を得ることができる。
最後に、説明すべきは、以上の各実施例は本願の技術的解決手段を説明するためのものに過ぎず、それを限定するものではなく、前記各実施例を参照しながら本願を詳細に説明したが、当業者であれば、前記各実施例に記載の技術的解決手段に対する修正、またはその一部もしくは全ての技術的特徴に対する置換が可能であることは、当然理解されるものであり、これらの修正または置換は、該当する技術的解決手段の本質を本願の各実施例の技術的解決手段の範囲から逸脱させるものではないということである。

Claims (22)

  1. 車両に取り付けられたカメラで取得した車両走行路面のビデオストリームに基づいて前記車両走行路面の区画線検出を行うことと、
    区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定することと、
    前記第一基準点情報と、前記カメラの過去視野角の基準点情報である第二基準点情報とに基づき、第三ホモグラフィ行列を特定することであって、前記第二基準点の位置が前記第一基準点の位置に対応し合い、前記第三ホモグラフィ行列が、現在視野角でのカメラの座標と過去視野角でのカメラの座標とのマッピング関係を表すために用いることと、
    前記第三ホモグラフィ行列と予め設定されたホモグラフィ行列とに基づいて第一ホモグラフィ行列を特定することであって、前記予め設定されたホモグラフィ行列が前記過去視野角でのカメラの座標と世界座標とのマッピング関係であることと、
    前記第一ホモグラフィ行列に基づいて測位することと、を含む視覚測位方法。
  2. 前記第一ホモグラフィ行列に基づいて測位する前記ステップは、
    縦方向較正情報および横方向較正情報に基づき、前記第一ホモグラフィ行列を較正し、較正パラメータを得ることと、
    前記較正パラメータおよび前記第一ホモグラフィ行列に基づいて測位することと、を含む請求項1に記載の方法。
  3. 前記較正パラメータおよび前記第一ホモグラフィ行列に基づいて測位する前記ステップは、
    前記較正パラメータおよび前記第一ホモグラフィ行列に基づき、較正後の現在視野角でのカメラの座標と世界座標とのマッピング関係行列である第二ホモグラフィ行列を特定することと、
    前記第二ホモグラフィ行列を使用して測位することと、を含む請求項2に記載の方法。
  4. 前記較正パラメータおよび前記第一ホモグラフィ行列に基づき、第二ホモグラフィ行列を特定する前記ステップは、
    前記カメラで取得したビデオストリームの画面における第一の予め設定された数の座標点に基づき、前記較正パラメータの少なくとも一つのサブパラメータを特定することであって、前記少なくとも一つのサブパラメータが前記較正パラメータを分割して得られたパラメータであることと、
    前記少なくとも一つのサブパラメータに基づき、前記第二ホモグラフィ行列を特定することと、を含む請求項3に記載の方法。
  5. 前記較正パラメータおよび前記第一ホモグラフィ行列に基づいて測位する前記ステップは、
    現在視野角でのカメラで取得したビデオストリームの画面における座標点の同次座標および前記第一ホモグラフィ行列に基づき、中間行列を特定することと、
    前記中間行列と前記較正パラメータに対して線形計算を行い、現在視野角での世界座標を得ることと、を含む請求項2に記載の方法。
  6. 前記第一ホモグラフィ行列を較正し、較正パラメータを得る前記ステップは、
    区画線検出結果、前記第一ホモグラフィ行列およびカメラのピッチ角情報に基づき、縦方向較正の比例係数およびオフセット量を特定することと、
    前記第一ホモグラフィ行列および水平偏角情報に基づき、横方向較正の比例係数を特定することと、を含む請求項2から5のいずれか一項に記載の方法。
  7. 前記第一ホモグラフィ行列を較正し、較正パラメータを得る前記ステップの前に、さらに、
    区画線検出結果に基づき、前記ピッチ角情報および前記水平偏角情報を特定することを含む請求項6に記載の方法。
  8. 区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定する前記ステップは、
    区画線検出結果に基づいて区画線平行線情報および地平線平行線情報を特定することと、
    前記区画線平行線情報、前記地平線平行線情報およびルート情報に基づいて前記第一基準点の座標を特定することと、を含む請求項1から7のいずれか一項に記載の方法。
  9. 前記区画線平行線情報、前記地平線平行線情報およびルート情報に基づいて前記第一基準点の座標を特定する前記ステップは、
    ルート方向での第二の予め設定された数の座標点を選択することと、
    前記第二の予め設定された数の座標点の地平線平行線情報を特定することと、
    前記地平線平行線情報および前記区画線平行線情報に基づいて地平線平行線と前記区画線平行線との交点の座標を特定することと、
    前記交点の座標を前記第一基準点の座標とすることと、を含む請求項8に記載の方法。
  10. 区画線検出結果に基づいて区画線平行線情報および地平線平行線情報を特定する前記ステップは、
    区画線検出結果に基づいて区画線平行線をフィッティングすることと、
    フィッティングした区画線平行線に基づき、地平線平行線情報を特定することと、を含む請求項8または9に記載の方法。
  11. 前記カメラは、路面の区画線を撮影可能な位置である前記車両における第一位置に取り付けられる請求項1から10のいずれか一項に記載の方法。
  12. 車両に取り付けられたカメラで取得した車両走行路面のビデオストリームに基づいて前記路面の区画線検出を行う前記ステップは、
    前記車両が走行状態である時、車両に取り付けられたカメラで取得した車両走行路面のビデオストリームに基づいて前記路面の区画線検出を行うことを含む請求項1から11のいずれか一項に記載の方法。
  13. さらに、
    前記予め設定されたホモグラフィ行列を更新し、前記第一ホモグラフィ行列を新たな予め設定されたホモグラフィ行列とすることを含む請求項1から12のいずれか一項に記載の方法。
  14. 区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定する前記ステップは、
    較正命令を受信することと、
    前記較正命令に応じて、区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定することと、を含む請求項1から13のいずれか一項に記載の方法。
  15. 区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定する前記ステップは、
    カメラの姿勢が変化したかどうかを判断し、変化したと判断した場合、区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定することを含む請求項1から13のいずれか一項に記載の方法。
  16. さらに、
    第一の予め設定された周期内の複数の第一ホモグラフィ行列および複数セットの較正パラメータを取得することと、
    前記複数の第一ホモグラフィ行列の平均値および前記複数セットの較正パラメータの平均値に基づき、新たに測位することと、を含む請求項1から15のいずれか一項に記載の方法。
  17. さらに、
    第二の予め設定された周期間隔に応じて、前記第一ホモグラフィ行列および前記較正パラメータを取得することと、
    前記第一ホモグラフィ行列および前記較正パラメータに基づいて新たに測位することと、を含む請求項2から7のいずれか一項に記載の方法。
  18. 車両に取り付けられたカメラで取得した車両走行路面のビデオストリームに基づいて前記車両走行路面の区画線検出を行うように構成される検出モジュールと、
    区画線検出結果に基づいて前記カメラの現在視野角の第一基準点情報を特定するように構成される第一特定モジュールと、
    前記第一基準点情報と、前記カメラの過去視野角の基準点情報である第二基準点情報とに基づき、第三ホモグラフィ行列を特定するように構成され、前記第二基準点の位置が前記第一基準点の位置に対応し合い、前記第三ホモグラフィ行列が、現在視野角でのカメラの座標と過去視野角でのカメラの座標とのマッピング関係を表すために用いる第二特定モジュールと、
    前記第三ホモグラフィ行列と予め設定されたホモグラフィ行列とに基づいて第一ホモグラフィ行列を特定するように構成され、前記予め設定されたホモグラフィ行列が前記過去視野角でのカメラの座標と世界座標とのマッピング関係である第三特定モジュールと、
    前記第一ホモグラフィ行列に基づいて測位するように構成される測位モジュールと、を含む視覚測位装置。
  19. プログラム命令を記憶するように構成されるメモリと、
    前記メモリ内のプログラム命令を呼び出して実行し、請求項1から17のいずれか一項に記載の方法のステップを実行するように構成されるプロセッサと、を含む電子機器。
  20. 請求項1から17のいずれか一項に記載の方法のステップを実行するためのコンピュータプログラムが記憶されている読み取り可能な記憶媒体。
  21. 視覚測位システムであって、車両に適用され、
    前記車両に取り付けられたカメラ、および前記カメラと通信的に接続される請求項18に記載の視覚測位装置を含む視覚測位システム。
  22. コンピュータに請求項1から17のいずれか一項に記載の方法を実行させるコンピュータプログラム。
JP2019572133A 2018-06-05 2019-05-23 視覚測位方法、装置、電子機器およびシステム Active JP6844043B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810581686.6A CN110567469B (zh) 2018-06-05 2018-06-05 视觉定位方法、装置、电子设备及系统
CN201810581686.6 2018-06-05
PCT/CN2019/088207 WO2019233286A1 (zh) 2018-06-05 2019-05-23 视觉定位方法、装置、电子设备及系统

Publications (2)

Publication Number Publication Date
JP2020527263A JP2020527263A (ja) 2020-09-03
JP6844043B2 true JP6844043B2 (ja) 2021-03-17

Family

ID=68769234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019572133A Active JP6844043B2 (ja) 2018-06-05 2019-05-23 視覚測位方法、装置、電子機器およびシステム

Country Status (6)

Country Link
US (1) US11069088B2 (ja)
EP (1) EP3627109B1 (ja)
JP (1) JP6844043B2 (ja)
CN (1) CN110567469B (ja)
SG (1) SG11201913066WA (ja)
WO (1) WO2019233286A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113492829B (zh) * 2020-04-08 2022-08-26 华为技术有限公司 数据处理的方法和装置
US11080544B1 (en) * 2020-04-24 2021-08-03 StradVision, Inc. Method and device for calibrating pitch of camera on vehicle and method and device for continual learning of vanishing point estimation model to be used for calibrating the pitch
CN111681286B (zh) * 2020-06-09 2023-11-28 商汤集团有限公司 一种标定方法、装置、系统、电子设备及存储介质
CN111681285B (zh) * 2020-06-09 2024-04-16 商汤集团有限公司 一种标定方法、装置、电子设备及存储介质
CN112150558B (zh) * 2020-09-15 2024-04-12 阿波罗智联(北京)科技有限公司 用于路侧计算设备的障碍物三维位置获取方法及装置
CN112489136B (zh) * 2020-11-30 2024-04-16 商汤集团有限公司 标定方法、位置确定方法、装置、电子设备及存储介质
CN112819711B (zh) * 2021-01-20 2022-11-22 电子科技大学 一种基于单目视觉的利用道路车道线的车辆反向定位方法
CN113052904B (zh) * 2021-03-19 2022-12-13 上海商汤临港智能科技有限公司 一种定位方法、装置、电子设备及存储介质
CN113240750A (zh) * 2021-05-13 2021-08-10 中移智行网络科技有限公司 三维空间信息测算方法及装置
CN113819890B (zh) * 2021-06-04 2023-04-14 腾讯科技(深圳)有限公司 测距方法、装置、电子设备及存储介质
CN113232663B (zh) * 2021-06-29 2022-10-04 西安电子科技大学芜湖研究院 一种应用于高级辅助驾驶的控制系统
US20230083307A1 (en) * 2021-09-07 2023-03-16 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Camera Calibration Method
CN114609976A (zh) * 2022-04-12 2022-06-10 天津航天机电设备研究所 一种基于单应性和q学习的无标定视觉伺服控制方法
CN114677442B (zh) * 2022-05-26 2022-10-28 之江实验室 一种基于序列预测的车道线检测系统、装置和方法
CN115143887B (zh) * 2022-09-05 2022-11-15 常州市建筑科学研究院集团股份有限公司 视觉监测设备测量结果的修正方法及视觉监测系统
CN115731525B (zh) * 2022-11-21 2023-07-25 禾多科技(北京)有限公司 车道线识别方法、装置、电子设备和计算机可读介质
CN116993637B (zh) * 2023-07-14 2024-03-12 禾多科技(北京)有限公司 用于车道线检测的图像数据处理方法、装置、设备和介质
CN116993830A (zh) * 2023-08-17 2023-11-03 广州赋安数字科技有限公司 一种动态摄像头坐标映射的自动校准方法
CN116840243B (zh) * 2023-09-01 2023-11-28 湖南睿图智能科技有限公司 一种机器视觉对象识别的修正方法及系统
CN117928575A (zh) * 2024-03-22 2024-04-26 四川省公路规划勘察设计研究院有限公司 车道信息提取方法、系统、电子设备以及存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009129001A (ja) 2007-11-20 2009-06-11 Sanyo Electric Co Ltd 運転支援システム、車両、立体物領域推定方法
US8885049B2 (en) * 2010-03-19 2014-11-11 Sony Corporation Method and device for determining calibration parameters of a camera
EP2541498B1 (en) * 2011-06-30 2017-09-06 Harman Becker Automotive Systems GmbH Method of determining extrinsic parameters of a vehicle vision system and vehicle vision system
CN102661733B (zh) 2012-05-28 2014-06-04 天津工业大学 一种基于单目视觉的前方车辆测距方法
TW201443827A (zh) * 2013-05-03 2014-11-16 Altek Autotronics Corp 鏡頭影像校正系統及鏡頭影像校正方法
JP6674192B2 (ja) * 2014-05-28 2020-04-01 ソニー株式会社 画像処理装置と画像処理方法
CN105574552A (zh) 2014-10-09 2016-05-11 东北大学 一种基于单目视觉的车辆测距与碰撞预警方法
US9830706B2 (en) 2015-09-17 2017-11-28 Skycatch, Inc. Generating georeference information for aerial images
EP3193306B8 (en) * 2016-01-15 2019-01-23 Aptiv Technologies Limited A method and a device for estimating an orientation of a camera relative to a road surface
US10339390B2 (en) * 2016-02-23 2019-07-02 Semiconductor Components Industries, Llc Methods and apparatus for an imaging system
JP6583923B2 (ja) * 2016-08-19 2019-10-02 Kddi株式会社 カメラのキャリブレーション装置、方法及びプログラム
CN106443650A (zh) 2016-09-12 2017-02-22 电子科技大学成都研究院 一种基于几何关系的单目视觉测距方法
CN106446815B (zh) * 2016-09-14 2019-08-09 浙江大学 一种同时定位与地图构建方法
CN107330940A (zh) * 2017-01-25 2017-11-07 问众智能信息科技(北京)有限公司 车载相机姿态自动估计的方法和装置
CN107221007A (zh) * 2017-05-12 2017-09-29 同济大学 一种基于图像特征降维的无人车单目视觉定位方法
CN107389026B (zh) 2017-06-12 2019-10-01 江苏大学 一种基于固定点射影变换的单目视觉测距方法
CN107728175A (zh) * 2017-09-26 2018-02-23 南京航空航天大学 基于gnss和vo融合的无人驾驶车辆导航定位精度矫正方法
CN107843251B (zh) * 2017-10-18 2020-01-31 广东宝乐机器人股份有限公司 移动机器人的位姿估计方法

Also Published As

Publication number Publication date
WO2019233286A1 (zh) 2019-12-12
CN110567469A (zh) 2019-12-13
SG11201913066WA (en) 2020-01-30
US11069088B2 (en) 2021-07-20
JP2020527263A (ja) 2020-09-03
CN110567469B (zh) 2021-07-20
US20210158567A1 (en) 2021-05-27
EP3627109A1 (en) 2020-03-25
EP3627109B1 (en) 2021-10-27
EP3627109A4 (en) 2020-06-17

Similar Documents

Publication Publication Date Title
JP6844043B2 (ja) 視覚測位方法、装置、電子機器およびシステム
JP7007497B2 (ja) 測距方法、知能制御方法及び装置、電子機器ならびに記憶媒体
US9270891B2 (en) Estimation of panoramic camera orientation relative to a vehicle coordinate frame
CN110147382B (zh) 车道线更新方法、装置、设备、系统及可读存储介质
JP6995188B2 (ja) 車載カメラの姿勢推定方法、装置およびシステムならびに電子機器
WO2023016271A1 (zh) 位姿确定方法、电子设备及可读存储介质
JP7422105B2 (ja) 路側計算装置に用いる障害物3次元位置の取得方法、装置、電子デバイス、コンピュータ可読記憶媒体、及びコンピュータプログラム
WO2018128667A1 (en) Systems and methods for lane-marker detection
CN113029128B (zh) 视觉导航方法及相关装置、移动终端、存储介质
WO2020108285A1 (zh) 地图构建方法、装置及系统、存储介质
US11880993B2 (en) Image processing device, driving assistance system, image processing method, and program
CN112288825A (zh) 相机标定方法、装置、电子设备、存储介质和路侧设备
KR101549165B1 (ko) 차량 자세 추정 장치 및 차량 자세 추정 방법
CN115456898A (zh) 停车场的建图方法、装置、车辆及存储介质
CN111982132B (zh) 数据处理方法、装置和存储介质
CN112560769B (zh) 用于检测障碍物的方法、电子设备、路侧设备和云控平台
JP2018073275A (ja) 画像認識装置
CN114037977B (zh) 道路灭点的检测方法、装置、设备及存储介质
CN113112551B (zh) 相机参数的确定方法、装置、路侧设备和云控平台
CN110660134B (zh) 三维地图构建方法、三维地图构建装置及终端设备
WO2023185272A1 (zh) 车载相机的翻滚角标定方法、装置、设备及存储介质
CN115205828B (zh) 一种车辆定位方法、装置、整车控制器及可读存储介质
KR20180068022A (ko) 스테레오 카메라 영상 실시간 자동 캘리브레이션 장치, 그를 포함한 시스템 및 그 방법
CN112348875A (zh) 一种标志杆的结构化参数表示确定方法及装置
CN117115782A (zh) 针对鱼眼图像执行机器视觉任务的方法、装置及介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200108

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200108

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210224

R150 Certificate of patent or registration of utility model

Ref document number: 6844043

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250