JP7222031B2 - 画像の投影方法、装置、デバイス及び記憶媒体 - Google Patents

画像の投影方法、装置、デバイス及び記憶媒体 Download PDF

Info

Publication number
JP7222031B2
JP7222031B2 JP2021106266A JP2021106266A JP7222031B2 JP 7222031 B2 JP7222031 B2 JP 7222031B2 JP 2021106266 A JP2021106266 A JP 2021106266A JP 2021106266 A JP2021106266 A JP 2021106266A JP 7222031 B2 JP7222031 B2 JP 7222031B2
Authority
JP
Japan
Prior art keywords
image
camera
parameter matrix
obtaining
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021106266A
Other languages
English (en)
Other versions
JP2021166075A (ja
Inventor
スナン デン、
インフイ リ、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Original Assignee
Apollo Intelligent Connectivity Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Intelligent Connectivity Beijing Technology Co Ltd filed Critical Apollo Intelligent Connectivity Beijing Technology Co Ltd
Publication of JP2021166075A publication Critical patent/JP2021166075A/ja
Application granted granted Critical
Publication of JP7222031B2 publication Critical patent/JP7222031B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device
    • G06F3/0674Disk device
    • G06F3/0677Optical disk device, e.g. CD-ROM, DVD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • B60R2011/0026Windows, e.g. windscreen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0196Supplementary details having transparent supporting structure for display mounting, e.g. to a window or a windshield

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Instrument Panels (AREA)

Description

本願は、データ処理における知能交通の分野に関し、特に、画像の投影方法、装置、デバイス及び記憶媒体に関する。
ヘッドアップディスプレイ(Head Up Display、HUDと略称)は、車両のキー情報を車両のウインドシールドに投影することにより、運転者が頭を下げずにこれらのキー情報を知るようにすることができる技術であり、拡張現実(Augmented Reality、ARと略称)HUDは、投影を基に、投影される内容を実景に重ね合わせる必要がある実施形態である。
ARHUD投影を行う場合、投影される内容と実景との重ね合わせを実現する必要があるため、画像をウインドシールドの対応する位置に投影する必要がある。既存のARHUDの実現案は、人が運転席に座って、AR画像を投影し、続いて、投影された画像の位置に従って関連のパラメータを調整し、手動で試行と調整を続け、投影される画像と実景との重ね合わせを実現する。
上記の解決手段は、手動で調整と試行を続けるため、操作が複雑で、効率が低い。
本願は、画像の投影方法、装置、デバイス及び記憶媒体を提供する。
本願の第1態様によれば、画像投影方法を提供し、当該方法は、
キャリブレーション対象領域の、車両のARカメラのカメラ座標系での第1カメラ座標を取得するステップであって、前記キャリブレーション対象領域は、前記ARカメラの撮影範囲内にある、取得するステップと、
前記ARカメラの第1外部パラメータ行列と、前記車両のヘッドアップディスプレイの第2外部パラメータ行列との間の相対的変換関係を取得するステップと、
前記第1カメラ座標及び前記相対的変換関係に基づいて、前記キャリブレーション対象領域に対応する投影シンボルの、前記ヘッドアップディスプレイの座標系での第2カメラ座標を決定するステップと、
前記第2カメラ座標に基づいて、前記ヘッドアップディスプレイが前記投影シンボルを含む画像を投影するように制御するステップと、を含む。
本願の第2態様によれば、画像投影装置を提供し、当該装置は、
キャリブレーション対象領域の、車両のARカメラのカメラ座標系での第1カメラ座標を取得するものであって、前記キャリブレーション対象領域は、前記ARカメラの撮影範囲内にある第1取得モジュールと、
前記ARカメラの第1外部パラメータ行列と、前記車両のヘッドアップディスプレイの第2外部パラメータ行列との間の相対的変換関係を取得する第2取得モジュールと、
前記第1カメラ座標及び前記相対的変換関係に基づいて、前記キャリブレーション対象領域に対応する投影シンボルの、前記ヘッドアップディスプレイの座標系での第2カメラ座標を決定する決定モジュールと、
前記第2カメラ座標に基づいて、前記ヘッドアップディスプレイが前記投影シンボルを含む画像を投影するように制御する処理モジュールと、を含む。
本願の第3態様によれば、電子機器を提供し、当該電子機器は、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行できる命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが第1態様のいずれかに記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
本願の第4態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ可読記憶媒体を提供し、前記コンピュータ命令は、コンピュータに第1態様のいずれかに記載の方法を実行させるために用いられる。
本願の第5態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムはコンピュータプログラム可読記憶媒体に記憶されており、電子機器の少なくとも1つのプロセッサは、前記可読記憶媒体から前記コンピュータプログラムを読み取ることができ、前記少なくとも1つのプロセッサが前記コンピュータプログラムを実行することにより、電子機器に第1態様に記載の方法を実行させる。
本願の実施例にて提供される画像の投影方法、装置、デバイス及び記憶媒体は、まず、キャリブレーション対象領域の、車両のARカメラのカメラ座標系での第1カメラ座標を取得し、続いて、ARカメラの第1外部パラメータ行列と、車両のヘッドアップディスプレイの第2外部パラメータ行列との間の相対的変換関係を取得し、第1カメラ座標及び相対的変換関係に基づいて、キャリブレーション対象領域に対応する投影シンボルの、ヘッドアップディスプレイの座標系での第2カメラ座標を決定することにより、第2カメラ座標に基づいて、ヘッドアップディスプレイが投影シンボルを含む画像を投影するように制御する。本願の実施例の解決手段は、第1外部パラメータ行列と第2外部パラメータ行列との間の相対的変換関係により、ARカメラによって認識されたキャリブレーション対象領域の第1カメラ座標をヘッドアップディスプレイの座標系に変換することにより、投影シンボルのヘッドアップディスプレイでの第2カメラ座標を取得し、そして、第2カメラ座標に基づいて画像を投影し、それにより、画像投影後の投影シンボルとキャリブレーション対象領域との実景の重ね合わせが実現される。手動でパラメータを調整し、かつ、何度も試行する必要がなく、操作が簡便で、効率が高い。
本明細書に記載の内容は、本願の実施例の主要な特徴又は重要な特徴を特定することを意図したものではなく、本願の範囲を限定することを意図したものでもないことを理解されたい。本願のその他の特徴は、以下の明細書によって容易に理解される。
図面は、本実施形態をより良く理解するために使用され、本願の制限を構成するものではない。
本願の実施例にて提供される応用シーンの模式図である。 本願の実施例にて提供される画像投影方法のフローチャートである。 本願の実施例にて提供される相対的変換関係を取得するフローチャートである。 本願の実施例にて提供される第1相対的変換関係の取得の模式図である。 本願の実施例にて提供される第2相対的変換関係の取得の模式図である。 本願の実施例にて提供される画像投影システムのブロック図である。 本願の実施例にて提供される画像投影装置の構造模式図である。 本願の実施例にて提供される例示の電子機器の概略ブロック図である。
以下、図面を参照しながら本願の例示的な実施例を説明するが、この説明には、理解を容易にするために本願の実施例の様々な詳細事項が含まれており、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを理解できる。同様に、分かりやすくかつ簡潔にするために、以下の説明では、周知の機能及び構造についての説明を省略する。
HUD:Head Up Displayは、ヘッドアップ表示、アイレベル表示であり、ヘッドアップ(アイレベル)ディスプレイ、ヘッドアップ(アイレベル)表示システムとも呼ばれ、運転者を中心として時速やナビゲーションなどの重要な運転情報を運転者の前のウインドシールドに投影することができ、それにより、運転者ができるだけ頭を下げたり、首を回したりすることなく重要な運転情報を見ることができるようにする技術である。
AR:Augmented Realityは、拡張現実である。本願では、ARHUDは、HUDを基に、内部の特別に設計された光学システムで画像情報を実際の交通状況に精密に組み込み、例えば、タイヤ空気圧、速度、回転速度或いはナビゲーションなどの情報を前のウインドシールドに投影し、運転者は、頭を下げたり、首を回したりすることなく重要な運転情報を見ることができ、かつ、投影される情報は、車両の前方の実景と融合することができる。
内部パラメータ行列とは、カメラのパラメータであり、内部パラメータ行列は、3Dカメラ座標を2D同次画像座標に変換した行列であり、カメラ座標系と画素座標系との間の座標変換を実現できる。
外部パラメータ行列とは、カメラのパラメータであり、外部パラメータ行列は、回転行列及び平行移動ベクトルを含み、回転行列及び平行移動ベクトルは、いかに点をワールド座標系からカメラ座標系へ変換するかをまとめて説明し、ここで、回転行列はカメラ座標系の座標軸に対するワールド座標系の座標軸の向きを説明し、平行移動ベクトルはカメラ座標系での空間の原点の位置を説明する。外部パラメータ行列によってワールド座標系とカメラ座標系との間の座標変換を実現できる。
図1は、本願の実施例にて提供される応用シーンの模式図であり、図1に示すように、車両は、ARカメラ11及びヘッドアップディスプレイ12を含み、ARカメラ11の撮影範囲は、図1の対応する点線で示すとおりである。車両の前方には道路区間13があり、ARカメラ11は、車両の前方の画面を撮影することができ、ここで道路区間13は、ARカメラ11の撮影範囲内に位置する。
ヘッドアップディスプレイ12は、画面をウインドシールド14に投影するために用いられ、運転者は、運転中に前方を見るとき、ウインドシールド14上の投影画面を観察することができる。ここで、運転席の運転者が前方を観察するとき、投影された画面と車両の前方の実景との融合を実現する必要がある。
例えば、車両の前方の実景が道路区間13である例をあげると、図1の下方の例示のように、ここで、道路区間13は、右折レーン及び直行レーンを含む交差点である。この場合、ARカメラは、車両の前方の画面を撮影して当該交差点を認識することができる。ヘッドアップディスプレイ12が投影する必要のある画面に右折矢印が含まれている場合、運転者に見える右折矢印がちょうど右折レーンに対応することが望ましい。図1の下方の画面は、運転者に見える右折矢印が右折レーンに重ね合わされた画面である。
画像を投影する際に、投影される画像内容と実景との重ね合わせを実現する必要があるため、投影された画像は、ウインドシールドの対応する位置に位置する必要がある。現在、画像投影を実現する解決手段は、人が運転席に座って、ARカメラで画面を撮影して、画面におけるキャリブレーション対象領域を認識し、続いて、ヘッドアップディスプレイで画像を投影し、人が、投影される画像と実景との重ね合わせ効果を観察し、続いて、手動でパラメータを調整し、何度も試行、これを投影される画像と実景との重ね合わせが実現されるまで行う。このような方法の操作は複雑で、効率が低い。
当該問題に基づいて、本願の実施例は、画像投影解決手段を提供し、手動で何度も調整し、試行する必要がなく、画像投影の効率を向上させることができ、操作が簡便である。以下、図面を参照しながら本願の解決手段について説明する。
図2は、本願の実施例にて提供される画像投影方法のフローチャートであり、図2に示すように、当該方法は、S21~S24を含み得る。
S21、キャリブレーション対象領域の、車両のARカメラのカメラ座標系での第1カメラ座標を取得し、前記キャリブレーション対象領域は、前記ARカメラの撮影範囲内にある。
ARカメラは、車両の車載カメラであり、車両の前方の画像を撮影し、画像からキャリブレーション対象領域を認識するために使用され得る。キャリブレーション対象領域は、画像投影とキャリブレーションを行う必要がある領域であり、キャリブレーション対象領域はARカメラの撮影範囲内に位置する。例えば、よくあるキャリブレーション対象領域は、左折レーン、右折レーン、直行レーン、Uターン領域などがあり得る。
どの領域がキャリブレーション対象領域であるかを予め設定してから、ARカメラが撮影した画面を取得することができる。ARカメラが撮影した画面にキャリブレーション対象領域が出現すると、認識して、ARカメラのカメラ座標系でのキャリブレーション対象領域の第1カメラ座標を得ることができる。
S22、前記ARカメラの第1外部パラメータ行列と、前記車両のヘッドアップディスプレイの第2外部パラメータ行列との間の相対的変換関係を取得する。
ヘッドアップディスプレイは、車両上の装置であり、画像を投影するために用いられ、車両のウインドシールドに投影する。外部パラメータ行列によってワールド座標系及びカメラ座標系での座標変換が実現できる。例えば、ARカメラの第1外部パラメータ行列に基づいて、キャリブレーション対象領域の第1カメラ座標を、対応するワールド座標系での座標に変換することができる。本願の実施例では、ARカメラの第1外部パラメータ行列とヘッドアップディスプレイの第2外部パラメータ行列との間の相対的変換関係を取得する必要があり、これは、最終的に、ヘッドアップディスプレイによって画像が投影され、投影される画像は実景と融合する必要があり、キャリブレーション対象領域が1つの実景であるからである。
S23、前記第1カメラ座標及び前記相対的変換関係に基づいて、前記キャリブレーション対象領域に対応する投影シンボルの、前記ヘッドアップディスプレイの座標系での第2カメラ座標を決定する。
第1外部パラメータ行列と第2外部パラメータ行列との間の相対的変換関係を取得した後、第1外部パラメータ行列に基づいて第1カメラ座標をキャリブレーション対象領域のワールド座標系での座標に変換することができ、続いて、相対的変換関係及び第1外部パラメータ行列に基づいて、第2外部パラメータ行列を取得し、第2外部パラメータ行列に基づいてヘッドアップディスプレイの座標系でのキャリブレーション対象領域のカメラ座標を取得する。
投影シンボルは、最終的にウインドシールドに投影され、実景と融合する必要がる。キャリブレーション対象領域が右折レーンである例を挙げると、投影シンボルは右折矢印であり、実現する必要のある効果は、運転席から見た場合、右折矢印の位置がちょうど右折レーンにあることであり、それにより、実景との融合が実現される。したがって、ヘッドアップディスプレイの座標系でのキャリブレーション対象領域のカメラ座標を決定した後、それに応じて、ヘッドアップディスプレイの座標系での投影シンボルの第2カメラ座標を決定することができる。
S24、前記第2カメラ座標に基づいて、前記ヘッドアップディスプレイが前記投影シンボルを含む画像を投影するように制御する。
投影シンボルの第2カメラ座標を決定すると、ヘッドアップディスプレイが当該投影シンボルを含む画像を投影するように制御することができ、投影シンボルの第2カメラ座標に基づいて、投影シンボルの画像での位置を決定して、画像を投影することができる。
本願の実施例にて提供される画像投影方法は、まず、キャリブレーション対象領域の、車両のARカメラのカメラ座標系での第1カメラ座標を取得し、続いて、ARカメラの第1外部パラメータ行列と、車両のヘッドアップディスプレイの第2外部パラメータ行列との間の相対的変換関係を取得し、そして、第1カメラ座標及び相対的変換関係に基づいて、キャリブレーション対象領域に対応する投影シンボルの、ヘッドアップディスプレイの座標系での第2カメラ座標を決定することにより、第2カメラ座標に基づいて、ヘッドアップディスプレイが投影シンボルを含む画像を投影するように制御する。本願の実施例の解決手段は、第1外部パラメータ行列と第2外部パラメータ行列との間の相対的変換関係により、ARカメラによって認識されたキャリブレーション対象領域の第1カメラ座標をヘッドアップディスプレイの座標系に変換することにより、投影シンボルのヘッドアップディスプレイでの第2カメラ座標を取得し、そして、第2カメラ座標に基づいて画像を投影し、それにより、画像投影後の投影シンボルとキャリブレーション対象領域との実景の重ね合わせが実現される。手動でパラメータを調整し、かつ、何度も試行する必要がなく、操作が簡便で、効率が高い。
以下、図面を参照しながら、本願の解決手段について説明する。
図3は、本願の実施例にて提供される相対的変換関係を取得するフローチャートであり、図3に示すように、S31~S33を含む。
S31、前記第1外部パラメータ行列と、前記車両の運転席の所定の位置に設置される第1カメラの第3外部パラメータ行列との間の第1相対的変換関係を取得する。
第1カメラは、車両の運転席の所定の位置にあるカメラであり、第1カメラの撮影範囲は、運転席に座っている運転者の観察範囲に近く、一般の運転者の目のおおよその方位に基づいて、第1カメラの運転席での所定の位置を決定してよい。
図4は、本願の実施例にて提供される第1相対的変換関係の取得の模式図であり、図4に示すように、第1カメラ41、ARカメラ42及びウインドシールド43を含み、第1カメラ41がある所定の位置は、運転者の目がある位置に隣接する。図4の点線は、それぞれ第1カメラ41及びARカメラ42の撮影範囲である。
ARカメラの第1外部パラメータ行列と第1カメラの第3外部パラメータ行列との間の第1相対的変換関係を取得するためには、参照物を設定する必要があり、ARカメラ及び第1カメラはこの参照物を撮影する必要があり、続いて、座標変換にしたがって第1相対的変換関係を取得する。
具体的には、車両の前方に所定のパタンを設定することができ、ARカメラは当該所定のパタンを撮影して、第1画像を取得し、第1カメラは当該所定のパタンを撮影して、第2画像を取得する。続いて、ARカメラの第1内部パラメータ行列及び第1カメラの第2内部パラメータ行列を取得する。ここで、カメラの内部パラメータ行列はカメラの固定パラメータであり、直接に取得することができる。内部パラメータ行列によってカメラ座標系と画素座標系での座標変換を実現することができる。
第1内部パラメータ行列及び第2内部パラメータ行列を取得した後、第1画像、第2画像、第1内部パラメータ行列及び第2内部パラメータ行列に基づいて、第1相対的変換関係を取得することができる。
具体的には、所定のパタンの任意の第1所定の点について、第1所定の点のワールド座標系での第1ワールド座標と、第1所定の点の、第1画像で対応する第1画像座標及び第2画像で対応する第2画像座標を取得することができ、ただし、第1画像座標は、ARカメラの画素座標系での第1所定の点の座標であり、第2画像座標は、第1カメラの画素座標系での第1所定の点の座標である。
第1ワールド座標、第1画像座標及び第2画像座標を取得すると、第1ワールド座標、第1画像座標及び第1内部パラメータ行列に基づいて、ARカメラの第1姿勢を取得し、第1ワールド座標、第2画像座標及び第2内部パラメータ行列に基づいて、第1カメラの第2姿勢を取得することができる。
第1姿勢及び第2姿勢を取得すると、第1姿勢及び第2姿勢に基づいて、第1相対的変換関係を取得することができる。以下、図4を参照しながら、当該プロセスについて説明する。
図4に示すように、チェッカーボード44を所定のパタンの例とすると、ARカメラ42及び第1カメラ41は、それぞれ車両の前方のチェッカーボード44を撮影して、それぞれ第1画像及び第2画像を取得する。
チェッカーボード44の角点を第1所定の点とし、第1所定の点のワールド座標系での第1ワールド座標は(x,y)であり、続いて、第1画像に基づいて、ARカメラ42の画素座標系での第1所定の点の第1画像座標(u2i,v2i)を取得し、第2画像に基づいて、第1カメラ41の画素座標系での第1所定の点の第2画像座標(u1i,v1i)を取得する。
ARカメラ42の第1内部パラメータ行列はIで、第1姿勢は[R|t]で、第1カメラ41の第2内部パラメータ行列はIで、第2姿勢は[R|t]であると仮定する。
次の式を得ることができる。
Figure 0007222031000001
Figure 0007222031000002
ここで、S1iは第1カメラのスケールファクターであり、S2iはARカメラのスケールファクターであり、Iはユニタリ行列である。式(1)は、ARカメラの画素座標系とワールド座標系での第1所定の点の座標変換を表す式であり、式(2)は、第1カメラの画素座標系とワールド座標系での第1所定の点の座標変換を表す式である。
式(1)に基づいて第1姿勢[R|t]を取得することができ、式(2)に基づいて第2姿勢[R|t]を取得することができる。ここで、RはARカメラの回転行列であり、tは、対応する平行移動ベクトルである。Rは第1カメラの回転行列であり、tは、対応する平行移動ベクトルである。
第1姿勢及び第2姿勢を取得すると、第1相対的変換関係を取得することができる。
Figure 0007222031000003
ここで、
Figure 0007222031000004
は第3外部パラメータ行列であり、
Figure 0007222031000005
は第1外部パラメータ行列である。
S32、前記第2外部パラメータ行列と前記第3外部パラメータ行列との間の第2相対的変換関係を取得する。
第1相対的変換関係を取得した後、第2外部パラメータ行列と第3外部パラメータ行列との間の第2相対的変換関係を取得する必要があり、そうしてからこそ、第1外部パラメータ行列と第2外部パラメータ行列との間の相対的変換関係を最終的に取得することができ、ここで、第2相対的変換関係の取得は、第1相対的変換関係の取得と類似し、以下、詳細に説明する。
まず、ヘッドアップディスプレイによって投影される第3画像、及び第1カメラが第3画像を撮影して得た第4画像を取得する必要があり、第3画像と第4画像の解像度は同じである。
続いて、第1カメラの第2内部パラメータ行列及びヘッドアップディスプレイの第3内部パラメータ行列を取得し、第3画像、第4画像、第2内部パラメータ行列及び第3内部パラメータ行列に基づいて、第2相対的変換関係を取得する。
具体的には、第3画像の任意の第2所定の点について、第2所定の点のワールド座標系での第2ワールド座標と、第2所定の点の、第3画像で対応する第3画像座標及び第4画像で対応する第4画像座標、を取得することができ、ここで、第3画像座標は、ヘッドアップディスプレイの画素座標系での第2所定の点の座標であり、第4画像座標は、第1カメラの画素座標系での第2所定の点の座標である。
第2ワールド座標、第3画像座標及び第4画像座標を取得すると、第2ワールド座標、第3画像座標及び第3内部パラメータ行列に基づいて、ヘッドアップディスプレイの第3姿勢を取得し、第2ワールド座標、第4画像座標及び第2内部パラメータ行列に基づいて、第1カメラの第2姿勢を取得することができる。
第3姿勢及び第2姿勢を得た後、第3姿勢及び第2姿勢に基づいて、第2相対的変換関係を取得することができる。以下、図5を参照しながら、当該プロセスについて説明する。
図5は、本願の実施例にて提供される第2相対的変換関係の取得の模式図であり、図5に示すように、第1カメラ41、ヘッドアップディスプレイ51及びウインドシールド43を含み、第1カメラ41がある所定の位置は、運転者の目がある位置に隣接する。
一枚のチェッカーボード写真52を生成し、チェッカーボード写真52の角点を第2所定の点とし、第2所定の点のワールド座標系での第2ワールド座標は(x,y)であり、続いて、ヘッドアップディスプレイ51で当該チェッカーボード写真52を投影して第3画像を取得し、第1カメラ41がヘッドアップディスプレイ51によって投影されたチェッカーボード写真52を撮影して第4画像を取得する。
続いて、第3画像に基づいて、ヘッドアップディスプレイ51の画素座標系での第2所定の点の第3画像座標(u1j,v1j)を取得し、第4画像に基づいて、第1カメラ41の画素座標系での第2所定の点の第4画像座標(u2j,v2j)を取得する。
ヘッドアップディスプレイ51の第3内部パラメータ行列はIで、第3姿勢は[R|t]で、第1カメラ41の第2内部パラメータ行列はIで、第2姿勢は[R|t]であると仮定する。
次の式を得ることができる。
Figure 0007222031000006
ここで、S1jは、ヘッドアップディスプレイのスケールファクターであり、S2jは第1カメラのスケールファクターであり、Iはユニタリ行列である。式(4)は、ヘッドアップディスプレイの画素座標系とワールド座標系での第2所定の点の座標変換を表す式であり、式(5)は、第1カメラの画素座標系とワールド座標系での第2所定の点の座標変換を表す式である。
式(4)に基づいて、第3姿勢[R|t]を取得することができ、式(5)に基づいて、第2姿勢[R|t]を取得することができる。ここで、Rはヘッドアップディスプレイの回転行列であり、tは、対応する平行移動ベクトルである。Rは、第1カメラの回転行列であり、tは、対応する平行移動ベクトルである。
第3姿勢及び第2姿勢を取得すると、第2相対的変換関係を取得することができる。
Figure 0007222031000007
ここで、
Figure 0007222031000008
は第3外部パラメータ行列であり、
Figure 0007222031000009
は第2外部パラメータ行列である。
S33、前記第1相対的変換関係及び前記第2相対的変換関係に基づいて、前記相対的変換関係を取得する。
式(3)及び式(6)から、次の式を得ることができる。
Figure 0007222031000010
即ち、相対的変換関係Tahは次の式のとおりである。
Figure 0007222031000011
式(8)のキャリブレーション結果を構成ファイル又はデータベースに記憶すると、後続の画像投影に使用することができる。
具体的には、第1カメラ座標及び相対的変換関係に基づいて、ヘッドアップディスプレイの座標系でのキャリブレーション対象領域の第3カメラ座標を決定し、続いて、キャリブレーション対象領域と投影シンボルとの間の実景の重ね合わせ関係及び第3カメラ座標に基づいて、第2カメラ座標を決定することができる。最後に、第2カメラ座標に基づいて、ヘッドアップディスプレイが投影シンボルを含む画像を投影するように制御する。
図6は、本願の実施例にて提供される画像投影システムのブロック図であり、図6に示すように、センターパネル 、ARカメラ、第1カメラ、チェッカーボードディスプレイ及びヘッドアップディスプレイを含む。
ここで、ARカメラ及び第1カメラは、それぞれチェッカーボードを撮影して、それぞれ第1チェッカーボード画像(即ち、上記実施例の第1画像)及び第2チェッカーボード画像(即ち、上記実施例の第2画像)を取得し、続いて、ARカメラがセンターパネル に第1チェッカーボード画像を送信し、第1カメラがセンターパネルに第2チェッカーボード画像を送信する。続いて、ヘッドアップディスプレイが第3チェッカーボード画像(即ち、上記実施例の第3画像)を投影し、第1カメラが第3チェッカーボード画像を撮影して第4チェッカーボード画像(即ち、上記実施例の第4画像)を取得し、ヘッドアップディスプレイがセンターパネルに第3チェッカーボード画像を送信し、第1カメラがセンターパネル に第4チェッカーボード画像を送信する。
続いて、センターパネルは、上記チェッカーボード画像の座標変換関係に基づいて、ARカメラの第1外部パラメータ行列とヘッドアップディスプレイの第2外部パラメータ行列との間の相対的変換関係を取得し、当該相対的変換関係に基づいてヘッドアップディスプレイが画像をチェッカーボードディスプレイに投影するように制御し、当該チェッカーボードディスプレイは、例えば車両のウインドシールドなどであり得る。
本願の実施例にて提供される画像投影方法は、まず、キャリブレーション対象領域の、車両のARカメラのカメラ座標系での第1カメラ座標を取得し、続いて、ARカメラの第1外部パラメータ行列と、車両のヘッドアップディスプレイの第2外部パラメータ行列との間の相対的変換関係を取得し、そして、第1カメラ座標及び相対的変換関係に基づいて、キャリブレーション対象領域に対応する投影シンボルの、ヘッドアップディスプレイの座標系での第2カメラ座標を決定することにより、第2カメラ座標に基づいて、ヘッドアップディスプレイが投影シンボルを含む画像を投影するように制御する。本願の実施例の解決手段は、第1外部パラメータ行列と第2外部パラメータ行列との間の相対的変換関係により、ARカメラによって認識されたキャリブレーション対象領域の第1カメラ座標をヘッドアップディスプレイの座標系に変換することにより、投影シンボルのヘッドアップディスプレイでの第2カメラ座標を取得し、そして、第2カメラ座標に基づいて画像を投影し、それにより、画像投影後の投影シンボルとキャリブレーション対象領域との実景の重ね合わせが実現される。手動でパラメータを調整し、かつ、何度も試行する必要がなく、操作が簡便で、効率が高い。
図7は、本願の実施例にて提供される画像投影装置の構造模式図であり、図7に示すように、当該装置70は、
キャリブレーション対象領域の、車両のARカメラのカメラ座標系での第1カメラ座標を取得するために用いられ、ただし、前記キャリブレーション対象領域は、前記ARカメラの撮影範囲内にある第1取得モジュール71と、
前記ARカメラの第1外部パラメータ行列と、前記車両のヘッドアップディスプレイの第2外部パラメータ行列との間の相対的変換関係を取得するための第2取得モジュール72と、
前記第1カメラ座標及び前記相対的変換関係に基づいて、前記キャリブレーション対象領域に対応する投影シンボルの、前記ヘッドアップディスプレイの座標系での第2カメラ座標を決定するための決定モジュール73と、
前記第2カメラ座標に基づいて、前記ヘッドアップディスプレイが前記投影シンボルを含む画像を投影するように制御するための処理モジュール74と、を含む。
可能な一実施形態では、前記第2取得モジュール72は、
前記第1外部パラメータ行列と、前記車両の運転席の所定の位置に設置される第1カメラの第3外部パラメータ行列との間の第1相対的変換関係を取得するための第1取得ユニットと、
前記第2外部パラメータ行列と前記第3外部パラメータ行列との間の第2相対的変換関係を取得するための第2取得ユニットと、
前記第1相対的変換関係及び前記第2相対的変換関係に基づいて、前記相対的変換関係を取得するための第3取得ユニットと、を含む。
可能な一実施形態では、前記第1取得ユニットは、
前記ARカメラが所定のパタンを撮影した第1画像及び前記第1カメラが前記所定のパタンを撮影した第2画像を取得するために用いられ、前記所定のパタンは、前記車両の前方に設定される第1取得サブユニットと、
前記ARカメラの第1内部パラメータ行列及び前記第1カメラの第2内部パラメータ行列を取得するための第2取得サブユニットと、
前記第1画像、前記第2画像、前記第1内部パラメータ行列及び前記第2内部パラメータ行列に基づいて、前記第1相対的変換関係を取得するための第3取得サブユニットと、を含む。
可能な一実施形態では、前記第3取得サブユニットは、具体的には、
前記所定のパタンの任意の第1所定の点について、前記第1所定の点のワールド座標系での第1ワールド座標と、前記第1所定の点の、前記第1画像で対応する第1画像座標及び前記第2画像で対応する第2画像座標を取得し、
前記第1ワールド座標、前記第1画像座標及び前記第1内部パラメータ行列に基づいて、前記ARカメラの第1姿勢を取得し、
前記第1ワールド座標、前記第2画像座標及び前記第2内部パラメータ行列に基づいて、前記第1カメラの第2姿勢を取得し、
前記第1姿勢及び前記第2姿勢に基づいて、前記第1相対的変換関係を取得するために用いられる。
可能な一実施形態では、前記第2取得ユニットは、
前記ヘッドアップディスプレイによって投影された第3画像、及び前記第1カメラが前記第3画像を撮影して得られた第4画像を取得するために用いられ、前記第3画像は前記第4画像と解像度が同じである第4取得サブユニットと、
前記第1カメラの第2内部パラメータ行列及び前記ヘッドアップディスプレイの第3内部パラメータ行列を取得するための第5取得サブユニットと、
前記第3画像、前記第4画像、前記第2内部パラメータ行列及び前記第3内部パラメータ行列に基づいて、前記第2相対的変換関係を取得するための第6取得サブユニットと、を含む。
可能な一実施形態では、前記第6取得サブユニットは、具体的には、
前記第3画像の任意の第2所定の点について、前記第2所定の点のワールド座標系での第2ワールド座標と、前記第2所定の点の、前記第3画像で対応する第3画像座標及び前記第4画像で対応する第4画像座標と、を取得し、
前記第2ワールド座標、前記第3画像座標及び前記第3内部パラメータ行列に基づいて、前記ヘッドアップディスプレイの第3姿勢を取得し、
前記第2ワールド座標、前記第4画像座標及び前記第2内部パラメータ行列に基づいて、前記第1カメラの第2姿勢を取得し、
前記第3姿勢及び前記第2姿勢に基づいて、前記第2相対的変換関係を取得するために用いられる。
可能な一実施形態では、前記決定モジュール73は、
前記第1カメラ座標及び前記相対的変換関係に基づいて、前記ヘッドアップディスプレイの座標系での前記キャリブレーション対象領域の第3カメラ座標を決定するための決定ユニットと、
前記キャリブレーション対象領域と前記投影シンボルとの間の実景の重ね合わせ関係及び前記第3カメラ座標に基づいて、前記第2カメラ座標を決定するための処理ユニットと、を含む。
本願の実施例にて提供される画像投影装置は、上記方法の実施例を実行するために用いられ、その実現原理及び技術的効果は類似するため、本実施例では、ここで詳細な説明を省略する。
本願の実施例によれば、本願は、電子機器及び可読記憶媒体をさらに提供する。
本願の実施例によれば、本願は、コンピュータプログラムをさらに提供し、コンピュータプログラムはコンピュータプログラム可読記憶媒体に記憶されており、電子機器の少なくとも1つのプロセッサは、可読記憶媒体からコンピュータプログラムを読み取ることができ、少なくとも1つのプロセッサがコンピュータプログラムを実行すると、電子機器が上記のいずれの実施例にて提供される解決手段を実行する。
図8は、本願の実施例の実施に使用することができる例示の電子機器800の概略ブロック図を示した。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及びその他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを意図している。電子機器は、例えば、パーソナルデジタルアシスタント、携帯電話、スマートフォン、ウェアラブルデバイス、他の類似するコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書に示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本開示の実現を制限する意図ではない。
図8に示すように、電子機器800は、読み取り専用メモリ(ROM)802に記憶されているコンピュータプログラム又は記憶ユニット808からランダムアクセスメモリ(RAM)803にロードされたコンピュータプログラムにしたがって、様々な適切な動作及び処理を実行することができるコンピューティングユニット801を含む。RAM803には、デバイス800の操作に必要な様々なプログラム及びデータを記憶することもできる。コンピューティングユニット801、ROM802及びRAM 803は、バス804を介して互いに接続される。入力/出力(I/O)インターフェース805もバス804に接続される。
キーボード、マウスなどの入力ユニット806と、様々なタイプのディスプレイ、スピーカーなどの出力ユニット807と、磁気ディスク、光ディスクなどの記憶ユニット808と、ネットワークカード、モデム、ワイヤレス通信トランシーバーなどの通信ユニット809とを含むデバイス800の複数の部材は、I/Oインターフェース805に接続される。通信ユニット809は、インターネットなどのコンピュータネットワーク及び/又は様々な電気通信ネットワークなどを介して、デバイス800が他のデバイスと情報/データを交換することを可能にする。
コンピューティングユニット801は、処理及びコンピューティング能力を有する様々な汎用及び/又は特定用途向け処理アセンブリであり得る。コンピューティングユニット801の一部の例示は、中央処理ユニット(CPU)、グラフィックス処理ユニット(GPU)、様々な特定用途向けの人工知能(AI)コンピューティングチップ、機械学習モデルアルゴリズムを実行する様々なコンピューティングユニット、デジタルシグナルプロセッサ(DSP)、及びいずれの適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。コンピューティングユニット801は、上に説明した各方法及び処理、例えば画像投影方法を実行する。例えば、一部の実施例では、画像投影方法は、コンピュータソフトウェアプログラムとして実装されてもよく、記憶ユニット808などの機械可読媒体に物理的に含まれる。一部の実施例では、コンピュータプログラムの一部又は全部は、ROM802及び/又は通信ユニット809を介して及び/又はデバイス800にロード及び/又はインストールされてもよい。コンピュータプログラムがRAM803にロードされて、コンピューティングユニット801によって実行されると、上に説明した画像投影方法の1つ又は複数のステップを実行することができる。選択的に、他の実施例では、コンピューティングユニット801は、他のいずれの適切な方式(例えば、ファームウェアを介して)により画像投影方法を実行するように構成される。
本明細書に説明したシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、複合プログラマブルロジックデバイス(CPLD)、コンピュータのハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにより実装され得る。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含み、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用のプログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、かつ、データ及び命令を当該記憶システム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。
本開示の方法を実施するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組合せを用いて書くことができる。これらのプログラムコードは、汎用コンピュータ、特定用途向けコンピュータ或いは他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供されてもよいため、プログラムコードがプロセッサ又はコントローラによって実行されると、フローチャート及び/又はブロック図において定義された機能/操作が実施される。プログラムコードは、完全にマシン上で実行されても、部分的にマシン上で実行されてもよく、独立型ソフトウェアパッケージとして、一部がマシン上で実行されるとともに、一部がリモートマシン上で実行されるか、又は完全にリモートマシン或いはサーバ上で実行されてもよい。
本開示の文脈において、機械可読媒体は、有形媒体であってもよく、命令実行システム、装置或いはデバイスの使用に提供されるか、又は命令実行システム、装置或いはデバイスと結合して使用されるプログラムを含むか、又は記憶することができる。機械可読媒体は、機械可読信号媒体又は機械可読記憶媒体であってもよい。機械可読媒体は、電子、磁気、光学、電磁気、赤外線、又は半導体システム、装置或いはデバイス、又は上記内容の任意の適切な組み合わせを含むが、これらに限定されない。機械可読記憶媒体のさらなる具体的な例示は、1つ又は複数のワイヤに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能なログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光ストレージデバイス、磁気ストレージデバイス、又は上記内容のいずれの適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、本明細書に説明したシステム及び技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウスやトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって、コンピュータに入力することが可能になる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚的フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、そして、任意の形態(音響入力、音声入力、又は触覚入力を含む)でユーザからの入力を受信できる。
本明細書に説明したシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインターフェース又はWEBブラウザーを有するユーザコンピュータであり、ユーザは、当該グラフィカルユーザインターフェース又は当該WEBブラウザーを介して本明細書に説明したシステム及び技術の実施形態とインタラクションすることができる)、又はこのようなバックエンドコンポーネント、ミドルウェアコンポーネント、又はフロントエンドコンポーネントを含む任意の組み合わせコンピューティングシステム中で実施できる。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)を介してシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、及びインターネットを含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、かつ互いにクライアント-サーバの関係を有するコンピュータプログラムによって、クライアントとサーバとの関係が生成される。サーバは、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれるクラウドサーバであってもよく、従来の物理ホスト及びVPSサービス(「Virtual Private Server」、略称「VPS」)は、管理が難しく、サービス拡張性が弱いという欠点を解決するための、クラウドコンピューティングサービスシステムにおけるホスト製品の1つである。サーバは、分散システムのサーバであっても、ブロックチェーンと組み合わせたサーバであってもよい。
なお、上記の様々な形態のフローを使用して、ステップを並べ替えたり、追加したり、削除したりすることができる。例えば、本願に記載の各ことは、本願に開示されている技術案が所望の結果を達成できる限り、並行に実施されてもよいし、順次実施されてもよいし、異なる順序で実施されてもよく、本明細書では、それについて限定しない。
上記の具体的な実施形態は、本願の特許保護範囲に対する制限を構成するものではない。当業者にとって明らかなように、設計要件及び他の要因に応じて、様々な修正、組み合わせ、サブ組み合わせ、及び置換を行うことができる。本願の精神と原則の範囲内で行われる修正、同等の置換、及び改良であれば、本願の特許保護範囲に含まれるべきである。

Claims (15)

  1. キャリブレーション対象領域の、車両のARカメラのカメラ座標系での第1カメラ座標を取得するステップであって、前記キャリブレーション対象領域は、前記ARカメラの撮影範囲内にある、取得するステップと、
    前記ARカメラの第1外部パラメータ行列と、前記車両のヘッドアップディスプレイの第2外部パラメータ行列との間の相対的変換関係を取得するステップと、
    前記第1カメラ座標及び前記相対的変換関係に基づいて、前記キャリブレーション対象領域に対応する投影シンボルの、前記ヘッドアップディスプレイの座標系での第2カメラ座標を決定するステップと、
    前記第2カメラ座標に基づいて、前記ヘッドアップディスプレイが前記投影シンボルを含む画像を投影するように制御するステップと、を含み、
    前記ARカメラの第1外部パラメータ行列と、前記車両のヘッドアップディスプレイの第2外部パラメータ行列との間の相対的変換関係を取得するステップは、
    前記第1外部パラメータ行列と、第1カメラの第3外部パラメータ行列との間の第1相対的変換関係を取得するステップであって、前記第1カメラは、前記車両の運転席の所定の位置に設置される、取得するステップと、
    前記第2外部パラメータ行列と前記第3外部パラメータ行列との間の第2相対的変換関係を取得するステップと、
    前記第1相対的変換関係及び前記第2相対的変換関係に基づいて、前記相対的変換関係を取得するステップと、を含む
    画像投影方法。
  2. 前記第1外部パラメータ行列と、第1カメラの第3外部パラメータ行列との間の第1相対的変換関係を取得するステップは、
    前記ARカメラが所定のパタンを撮影した第1画像及び前記第1カメラが前記所定のパタンを撮影した第2画像を取得するステップであって、前記所定のパタンは、前記車両の前方に設定される、取得するステップと、
    前記ARカメラの第1内部パラメータ行列及び前記第1カメラの第2内部パラメータ行列を取得するステップと、
    前記第1画像、前記第2画像、前記第1内部パラメータ行列及び前記第2内部パラメータ行列に基づいて、前記第1相対的変換関係を取得するステップと、を含む、
    請求項に記載の画像投影方法。
  3. 前記第1画像、前記第2画像、前記第1内部パラメータ行列及び前記第2内部パラメータ行列に基づいて、前記第1相対的変換関係を取得するステップは、
    前記所定のパタンの任意の第1所定の点について、前記第1所定の点のワールド座標系での第1ワールド座標と、前記第1所定の点の、前記第1画像で対応する第1画像座標及び前記第2画像で対応する第2画像座標を取得するステップと、
    前記第1ワールド座標、前記第1画像座標及び前記第1内部パラメータ行列に基づいて、前記ARカメラの第1姿勢を取得するステップと、
    前記第1ワールド座標、前記第2画像座標及び前記第2内部パラメータ行列に基づいて、前記第1カメラの第2姿勢を取得するステップと、
    前記第1姿勢及び前記第2姿勢に基づいて、前記第1相対的変換関係を取得するステップと、を含む、
    請求項に記載の画像投影方法。
  4. 前記第2外部パラメータ行列と前記第3外部パラメータ行列との間の第2相対的変換関係を取得するステップは、
    前記ヘッドアップディスプレイによって投影された第3画像、及び前記第1カメラが前記第3画像を撮影して得られた第4画像を取得するステップであって、前記第3画像は前記第4画像と解像度が同じである、取得するステップと、
    前記第1カメラの第2内部パラメータ行列及び前記ヘッドアップディスプレイの第3内部パラメータ行列を取得するステップと、
    前記第3画像、前記第4画像、前記第2内部パラメータ行列及び前記第3内部パラメータ行列に基づいて、前記第2相対的変換関係を取得するステップと、を含む、
    請求項~請求項のいずれか1項に記載の画像投影方法。
  5. 前記第3画像、前記第4画像、前記第2内部パラメータ行列及び前記第3内部パラメータ行列に基づいて、前記第2相対的変換関係を取得するステップは、
    前記第3画像の任意の第2所定の点について、前記第2所定の点のワールド座標系での第2ワールド座標と、前記第2所定の点の、前記第3画像で対応する第3画像座標及び前記第4画像で対応する第4画像座標を取得するステップと、
    前記第2ワールド座標、前記第3画像座標及び前記第3内部パラメータ行列に基づいて、前記ヘッドアップディスプレイの第3姿勢を取得するステップと、
    前記第2ワールド座標、前記第4画像座標及び前記第2内部パラメータ行列に基づいて、前記第1カメラの第2姿勢を取得するステップと、
    前記第3姿勢及び前記第2姿勢に基づいて、前記第2相対的変換関係を取得するステップと、を含む、
    請求項に記載の画像投影方法。
  6. 前記第1カメラ座標及び前記相対的変換関係に基づいて、前記キャリブレーション対象領域に対応する投影シンボルの、前記ヘッドアップディスプレイの座標系での第2カメラ座標を決定するステップは、
    前記第1カメラ座標及び前記相対的変換関係に基づいて、前記ヘッドアップディスプレイの座標系での前記キャリブレーション対象領域の第3カメラ座標を決定するステップと、
    前記キャリブレーション対象領域と前記投影シンボルとの間の実景の重ね合わせ関係及び前記第3カメラ座標に基づいて、前記第2カメラ座標を決定するステップと、を含む、
    請求項1~のいずれか1項に記載の画像投影方法。
  7. キャリブレーション対象領域の、車両のARカメラのカメラ座標系での第1カメラ座標を取得するためのものであって、前記キャリブレーション対象領域は、前記ARカメラの撮影範囲内にある、第1取得モジュールと、
    前記ARカメラの第1外部パラメータ行列と、前記車両のヘッドアップディスプレイの第2外部パラメータ行列との間の相対的変換関係を取得するための第2取得モジュールと、
    前記第1カメラ座標及び前記相対的変換関係に基づいて、前記キャリブレーション対象領域に対応する投影シンボルの、前記ヘッドアップディスプレイの座標系での第2カメラ座標を決定するための決定モジュールと、
    前記第2カメラ座標に基づいて、前記ヘッドアップディスプレイが前記投影シンボルを含む画像を投影するように制御するための処理モジュールと、を含み、
    前記第2取得モジュールは、
    前記第1外部パラメータ行列と、前記車両の運転席の所定の位置に設置される第1カメラの第3外部パラメータ行列との間の第1相対的変換関係を取得するための第1取得ユニットと、
    前記第2外部パラメータ行列と前記第3外部パラメータ行列との間の第2相対的変換関係を取得するための第2取得ユニットと、
    前記第1相対的変換関係及び前記第2相対的変換関係に基づいて、前記相対的変換関係を取得するための第3取得ユニットと、を含む
    画像投影装置。
  8. 前記第1取得ユニットは、
    前記ARカメラが所定のパタンを撮影した第1画像及び前記第1カメラが前記所定のパタンを撮影した第2画像を取得するためのものであって、前記所定のパタンは、前記車両の前方に設定される、第1取得サブユニットと、
    前記ARカメラの第1内部パラメータ行列及び前記第1カメラの第2内部パラメータ行列を取得するための第2取得サブユニットと、
    前記第1画像、前記第2画像、前記第1内部パラメータ行列及び前記第2内部パラメータ行列に基づいて、前記第1相対的変換関係を取得するための第3取得サブユニットと、を含む、
    請求項に記載の画像投影装置。
  9. 前記第3取得サブユニットは、
    前記所定のパタンの任意の第1所定の点について、前記第1所定の点のワールド座標系での第1ワールド座標と、前記第1所定の点の、前記第1画像で対応する第1画像座標及び前記第2画像で対応する第2画像座標を取得し、
    前記第1ワールド座標、前記第1画像座標及び前記第1内部パラメータ行列に基づいて、前記ARカメラの第1姿勢を取得し、
    前記第1ワールド座標、前記第2画像座標及び前記第2内部パラメータ行列に基づいて、前記第1カメラの第2姿勢を取得し、
    前記第1姿勢及び前記第2姿勢に基づいて、前記第1相対的変換関係を取得するために用いられる、
    請求項に記載の画像投影装置。
  10. 前記第2取得ユニットは、
    前記ヘッドアップディスプレイによって投影された第3画像、及び前記第1カメラが前記第3画像を撮影して得られた第4画像を取得するためのものであって、前記第3画像は前記第4画像と解像度が同じである、第4取得サブユニットと、
    前記第1カメラの第2内部パラメータ行列及び前記ヘッドアップディスプレイの第3内部パラメータ行列を取得するための第5取得サブユニットと、
    前記第3画像、前記第4画像、前記第2内部パラメータ行列及び前記第3内部パラメータ行列に基づいて、前記第2相対的変換関係を取得するための第6取得サブユニットと、を含む、
    請求項のいずれか1項に記載の画像投影装置。
  11. 前記第6取得サブユニットは、
    前記第3画像の任意の第2所定の点について、前記第2所定の点のワールド座標系での第2ワールド座標と、前記第2所定の点の、前記第3画像で対応する第3画像座標及び前記第4画像で対応する第4画像座標を取得し、
    前記第2ワールド座標、前記第3画像座標及び前記第3内部パラメータ行列に基づいて、前記ヘッドアップディスプレイの第3姿勢を取得し、
    前記第2ワールド座標、前記第4画像座標及び前記第2内部パラメータ行列に基づいて、前記第1カメラの第2姿勢を取得し、
    前記第3姿勢及び前記第2姿勢に基づいて、前記第2相対的変換関係を取得するために用いられる、
    請求項10に記載の画像投影装置。
  12. 前記決定モジュールは、
    前記第1カメラ座標及び前記相対的変換関係に基づいて、前記ヘッドアップディスプレイの座標系での前記キャリブレーション対象領域の第3カメラ座標を決定するための決定ユニットと、
    前記キャリブレーション対象領域と前記投影シンボルとの間の実景の重ね合わせ関係及び前記第3カメラ座標に基づいて、前記第2カメラ座標を決定するための処理ユニットと、を含む、
    請求項11のいずれか1項に記載の画像投影装置。
  13. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、
    前記メモリには、前記少なくとも1つのプロセッサによって実行できる命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~のいずれか1項に記載の画像投影方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
    電子機器。
  14. コンピュータ命令が記憶されている非一時的なコンピュータ可読記憶媒体であって、
    前記コンピュータ命令は、コンピュータに請求項1~のいずれか1項に記載の画像投影方法を実行させるために用いられる、
    非一時的なコンピュータ可読記憶媒体。
  15. コンピュータプログラムであって、前記コンピュータプログラムがプロセッサによって実行されると、請求項1~のいずれか1項に記載の画像投影方法を実現する、
    コンピュータプログラム。
JP2021106266A 2020-12-24 2021-06-28 画像の投影方法、装置、デバイス及び記憶媒体 Active JP7222031B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011554180.X 2020-12-24
CN202011554180.XA CN112738487B (zh) 2020-12-24 2020-12-24 图像投射方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
JP2021166075A JP2021166075A (ja) 2021-10-14
JP7222031B2 true JP7222031B2 (ja) 2023-02-14

Family

ID=75615463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021106266A Active JP7222031B2 (ja) 2020-12-24 2021-06-28 画像の投影方法、装置、デバイス及び記憶媒体

Country Status (5)

Country Link
US (1) US11715238B2 (ja)
EP (1) EP3889908A3 (ja)
JP (1) JP7222031B2 (ja)
KR (1) KR102555820B1 (ja)
CN (1) CN112738487B (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102543899B1 (ko) * 2020-08-27 2023-06-20 네이버랩스 주식회사 헤드업 디스플레이 및 그 제어방법
CN113570671A (zh) * 2021-06-30 2021-10-29 惠州市德赛西威智能交通技术研究院有限公司 鱼眼摄像头标定方法、存储介质和电子设备
CN113592951A (zh) * 2021-07-14 2021-11-02 阿波罗智联(北京)科技有限公司 车路协同中路侧相机外参标定的方法、装置、电子设备
CN113409405A (zh) * 2021-07-19 2021-09-17 北京百度网讯科技有限公司 评估相机标定位置的方法、装置、设备和存储介质
CN113781575B (zh) * 2021-08-09 2024-01-12 上海奥视达智能科技有限公司 一种相机参数的标定方法、装置、终端和存储介质
CN114100160A (zh) * 2021-09-30 2022-03-01 成都博物馆 皮影戏增强展示方法、系统和可读储存介质
CN114332213B (zh) * 2022-03-17 2022-06-17 中国汽车技术研究中心有限公司 车辆视觉传感器仿真图像投射位姿确定方法和系统
CN116823590A (zh) * 2022-03-18 2023-09-29 中科寒武纪科技股份有限公司 数据获取方法、装置、设备及系统
CN114820807B (zh) * 2022-03-24 2023-01-31 合肥的卢深视科技有限公司 屏幕-相机的标定方法、系统、标定设备和存储介质
CN114862990B (zh) * 2022-04-22 2024-04-30 网易(杭州)网络有限公司 一种镜像参数获取方法、装置、电子设备及存储介质
CN115164823B (zh) * 2022-05-16 2024-04-02 上海芯翌智能科技有限公司 一种摄像机陀螺仪信息的获取方法及设备
CN114897996A (zh) * 2022-05-31 2022-08-12 上海商汤临港智能科技有限公司 一种车载相机的标定方法及装置、计算机设备、存储介质
CN115393497A (zh) * 2022-07-29 2022-11-25 中国第一汽车股份有限公司 虚拟成像方法、装置、非易失性存储介质和计算机设备
CN116051647A (zh) * 2022-08-08 2023-05-02 荣耀终端有限公司 一种相机标定方法和电子设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101763640B (zh) * 2009-12-31 2011-10-19 无锡易斯科电子技术有限公司 车载多目摄像机环视系统的在线标定处理方法
CN102861611B (zh) * 2011-07-08 2014-11-19 中国石油天然气股份有限公司 一种有机骨架多孔固体酸的应用
CN104915327B (zh) * 2014-03-14 2019-01-29 腾讯科技(深圳)有限公司 一种文本信息的处理方法及装置
CN107228681A (zh) 2017-06-26 2017-10-03 上海驾馥电子科技有限公司 一种通过摄像头加强导航功能的导航系统
JP6870109B2 (ja) * 2017-11-14 2021-05-12 マクセル株式会社 ヘッドアップディスプレイ装置およびその表示制御方法
KR102436730B1 (ko) 2017-12-06 2022-08-26 삼성전자주식회사 가상 스크린의 파라미터 추정 방법 및 장치
CN108195387B (zh) * 2017-12-22 2021-06-08 联创汽车电子有限公司 Ar-hud导航系统及其gps数据校验修正方法
TWI657409B (zh) * 2017-12-27 2019-04-21 財團法人工業技術研究院 虛擬導引圖示與真實影像之疊合裝置及其相關疊合方法
CN110322513B (zh) * 2018-03-30 2022-03-04 杭州海康威视数字技术股份有限公司 一种相机外参标定方法、装置及电子设备
KR20200057414A (ko) * 2018-11-16 2020-05-26 삼성전자주식회사 주행 가이드 정보를 제공하는 전자 장치 및 그 방법
CN109649275B (zh) 2018-11-29 2020-03-20 福瑞泰克智能系统有限公司 一种基于增强现实的驾驶辅助系统及方法
KR20200067641A (ko) * 2018-12-04 2020-06-12 삼성전자주식회사 3차원 증강 현실을 위한 캘리브레이션 방법 및 그 장치
CN109688392B (zh) * 2018-12-26 2021-11-02 联创汽车电子有限公司 Ar-hud光学投影系统及映射关系标定方法和畸变矫正方法
US20220073280A1 (en) * 2018-12-31 2022-03-10 Datalogic Usa Inc. Smart warehouse, conveyor, and pallet management system
CN109883439A (zh) * 2019-03-22 2019-06-14 百度在线网络技术(北京)有限公司 一种车辆导航方法、装置、电子设备及存储介质
CN110136519B (zh) * 2019-04-17 2022-04-01 阿波罗智联(北京)科技有限公司 基于arhud导航的模拟系统和方法
CN111405263A (zh) * 2019-12-26 2020-07-10 的卢技术有限公司 一种双摄像头结合共用于增强抬头显示的方法及系统
CN111121815B (zh) * 2019-12-27 2023-07-07 重庆利龙中宝智能技术有限公司 一种基于ar-hud导航的路径显示方法、系统及计算机存储介质
CN111086453A (zh) * 2019-12-30 2020-05-01 深圳疆程技术有限公司 一种基于摄像头的hud增强现实显示方法、装置及汽车
CN111147834A (zh) * 2019-12-31 2020-05-12 深圳疆程技术有限公司 一种基于增强现实抬头显示的虚拟图像标定方法
CN111612852B (zh) * 2020-05-20 2023-06-09 阿波罗智联(北京)科技有限公司 用于验证相机参数的方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Folker Wientapper et al.,A Camera-Based Calibration for Automotive Augmented Reality Head-Up-Displays,[online],2013年12月23日,https://ieeexplore.ieee.org/abstract/document/6671779

Also Published As

Publication number Publication date
EP3889908A2 (en) 2021-10-06
JP2021166075A (ja) 2021-10-14
CN112738487A (zh) 2021-04-30
EP3889908A3 (en) 2022-01-19
CN112738487B (zh) 2022-10-11
US20210312665A1 (en) 2021-10-07
KR102555820B1 (ko) 2023-07-14
KR20210091070A (ko) 2021-07-21
US11715238B2 (en) 2023-08-01

Similar Documents

Publication Publication Date Title
JP7222031B2 (ja) 画像の投影方法、装置、デバイス及び記憶媒体
US11645801B2 (en) Method for synthesizing figure of virtual object, electronic device, and storage medium
CN109829981B (zh) 三维场景呈现方法、装置、设备及存储介质
US20200292832A1 (en) Method and apparatus for adjusting on-vehicle projection
US11042730B2 (en) Method, apparatus and device for determining an object, and storage medium for the same
KR20220054754A (ko) 시선 추적 방법, 장치, 모델 트레이닝 방법 및 장치, 단말 기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램
CN111275801A (zh) 一种三维画面渲染方法及装置
WO2023056840A1 (zh) 三维物体的显示方法、装置、设备及介质
WO2020215960A1 (zh) 注视区域的确定方法、装置及可穿戴设备
WO2021227969A1 (zh) 一种数据处理方法及其设备
CN115525152A (zh) 图像处理方法及系统、装置、电子设备和存储介质
CN110631603B (zh) 车辆导航方法和装置
CN113483774A (zh) 导航方法、装置、电子设备及可读存储介质
CN113724391A (zh) 三维模型构建方法、装置、电子设备和计算机可读介质
KR102571066B1 (ko) 도로측 카메라의 외부 파라미터에 기반한 3차원 감지 정보 획득 방법과 도로측 기기
US11697428B2 (en) Method and apparatus for 3D modeling
CN115578432B (zh) 图像处理方法、装置、电子设备及存储介质
US20240046554A1 (en) Presenting virtual representation of real space using spatial transformation
CN116129087A (zh) 定位方法、视觉地图的生成方法及其装置
CN107784693B (zh) 一种信息处理方法和装置
CN115431764B (zh) 一种ar标尺展示方法、装置、电子设备及存储介质
JP7390436B2 (ja) ナビゲーション方法、装置、電子機器、コンピュータ読取可能な記憶媒体及びコンピュータプログラム
Zhang et al. [Poster] an accurate calibration method for optical see-through head-mounted displays based on actual eye-observation model
TWI831583B (zh) 虛擬實境設備調節方法、裝置、電子設備及儲存介質
Zhang et al. Enhancing data acquisition for calibration of optical see-through head-mounted displays

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230202

R150 Certificate of patent or registration of utility model

Ref document number: 7222031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150