JP2021051717A - 情報出力及びカメラキャリブレーションのための方法並びに装置 - Google Patents

情報出力及びカメラキャリブレーションのための方法並びに装置 Download PDF

Info

Publication number
JP2021051717A
JP2021051717A JP2020034870A JP2020034870A JP2021051717A JP 2021051717 A JP2021051717 A JP 2021051717A JP 2020034870 A JP2020034870 A JP 2020034870A JP 2020034870 A JP2020034870 A JP 2020034870A JP 2021051717 A JP2021051717 A JP 2021051717A
Authority
JP
Japan
Prior art keywords
image
point
selection operation
user
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020034870A
Other languages
English (en)
Inventor
シャン・リウ
Shan Liu
シュアン・チャン
Shuang Zhang
ビン・ガオ
Bin Gao
シャオシン・ジュ
Xiaoxing Zhu
ファン・ヤン
Fan Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021051717A publication Critical patent/JP2021051717A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】情報を出力するための方法及び装置並びにカメラをキャリブレーションするための方法及び装置を提供する。【解決手段】方法は、キャリブレーション対象のカメラにより撮像された第1画像と、前記第1画像が示す対象領域を含む高精細地図画像である第2画像と、前記対象領域を含む反射率画像である第3画像とを取得するステップと、前記第2画像及び前記第3画像を融合して、融合画像を得るステップと、前記第1画像及び前記融合画像においてユーザにより選定された点に基づいてマッチング点ペアを確定するステップと、前記マッチング点ペアの座標に基づいて前記キャリブレーション対象のカメラをキャリブレーションするステップと、を含む。【選択図】図4

Description

本願の実施例は、コンピュータ技術分野に関し、具体的には情報出力及びカメラキャリブレーションのための方法並びに装置に関する。
カメラキャリブレーションは写真測量、視覚検出、コンピュータ・ビジョン等の分野における重要な研究課題の1つであり、測量および図化、工業制御、ナビゲーション、軍事等の分野において極めて大幅に応用されている。カメラキャリブレーションは、視覚画像の2次元情報と実際の3次元物体世界に対して、対応するか、変換するかのための定量的な関係を提供している。
本願の実施例は、情報出力及びカメラキャリブレーションのための方法及び装置を提供している。
第1態様において、本願の実施例は、ユーザの第1画像取り込み操作に応答して、上記ユーザにより選定された第1画像を表示するステップであって、上記第1画像はキャリブレーション対象のカメラにより撮像された画像であるステップと、上記ユーザの第2画像取り込み操作に応答して、上記ユーザにより選定された第2画像及び第3画像を融合して、得られた融合画像を表示するステップであって、上記第2画像は上記第1画像が示す対象領域を含む高精細地図画像であり、上記第3画像は上記対象領域を含む反射率画像であるステップと、上記ユーザの上記第1画像及び/又は上記融合画像に対する点選択操作に応答して、上記ユーザにより選定された点を上記第1画像及び/又は上記融合画像に表示するステップと、選定された点の座標を出力するステップと、を含む情報を出力するための方法を提供している。
いくつかの実施例において、上記ユーザにより選定された第2画像及び第3画像を融合するステップは、高精細地図画像における画素点の座標及び反射率画像における画素点の座標に基づいて、上記第2画像及び上記第3画像を融合することを含む。
いくつかの実施例において、上記点選択操作は、上記第1画像に対する第1点選択操作と、上記融合画像に対する第2点選択操作とを含み、上記ユーザの上記第1画像及び/又は上記融合画像に対する点選択操作に応答して、上記ユーザにより選定された点を上記第1画像及び/又は上記融合画像に表示するステップは、上記第1点選択操作及び上記第1点選択操作の後の第2点選択操作に応答して、上記第1点選択操作が指示する第1点と上記第2点選択操作が指示する第2点とをマッチング点ペアとすることと、上記第1画像及び上記融合画像において上記マッチング点ペアを関連付けて表示することとを含む。
いくつかの実施例において、上記方法は、上記マッチング点ペアに対する追加操作に応答して、上記マッチング点ペアを予め設定されたマッチング点ペアの集合に追加するステップと、上記マッチング点ペアの集合に対する記憶操作に応答して、上記マッチング点ペアの集合をローカルで記憶するステップとをさらに含む。
いくつかの実施例において、上記点選択操作は、上記第1画像又は上記融合画像に対する第3点選択操作及び第4点選択操作を含み、上記ユーザの上記第1画像及び/又は上記融合画像に対する点選択操作に応答して、上記ユーザにより選定された点を上記第1画像及び/又は上記融合画像に表示するステップは、上記第3点選択操作に応答して、上記第3点選択操作が指示する第3点を補助線の始点とすることと、上記第4点選択操作に応答して、上記第4点選択操作が指示する第4点を補助線の終点とすることと、上記始点及び上記終点に対する線引き操作に応答して、上記始点及び上記終点を結ぶことと、上記始点、上記終点及び連結された直線を上記第1画像又は上記融合画像に表示することと、を含む。
いくつかの実施例において、上記方法は、上記ユーザの選定された点に対するキャンセル操作に応答して、キャンセル対象の点を再び表示しないステップをさらに含む。
第2態様において、本願の実施例は、キャリブレーション対象のカメラにより撮像された画像である第1画像と、上記第1画像が示す対象領域を含む高精細地図画像である第2画像と、上記対象領域を含む反射率画像である第3画像とを取得するステップと、上記第2画像及び上記第3画像を融合して、融合画像を得るステップと、上記第1画像及び上記融合画像においてユーザにより選定された点に基づいて、マッチング点ペアを確定するステップと、上記マッチング点ペアの座標に基づいて、上記キャリブレーション対象のカメラをキャリブレーションするステップと、を含むカメラをキャリブレーションするための方法を提供している。
いくつかの実施例において、上記第2画像及び上記第3画像を融合して、融合画像を得るステップは、高精細地図画像における画素点の座標及び反射率画像における画素点それぞれの座標に基づいて、上記第2画像及び上記第3画像を融合することを含む。
いくつかの実施例において、上記第1画像及び上記融合画像においてユーザにより選定された点に基づいて、マッチング点ペアを確定するステップは、ユーザにより上記第1画像において選定された第1点及び上記第1点を選定した後に上記融合画像において選定された第2点を確定することと、上記第1点及び上記第2点をマッチング点ペアとすることと、を含む。
いくつかの実施例において、上記方法は、上記マッチング点ペアを予め設定されたマッチング点ペアの集合に追加するステップと、上記マッチング点ペアの集合をローカルで記憶するステップと、をさらに含む。
第3態様において、本願の実施例は、ユーザの第1画像取り込み操作に応答して、上記ユーザにより選定された第1画像を表示するように構成される第1表示ユニットであって、上記第1画像はキャリブレーション対象のカメラにより撮像された画像である第1表示ユニットと、上記ユーザの第2画像取り込み操作に応答して、上記ユーザにより選定された第2画像及び第3画像を融合して、得られた融合画像を表示するように構成される第2表示ユニットであって、上記第2画像は上記第1画像が示す対象領域を含む高精細地図画像であり、上記第3画像は上記対象領域を含む反射率画像である第2表示ユニットと、上記ユーザの上記第1画像及び/又は上記融合画像に対する点選択操作に応答して、上記ユーザにより選定された点を上記第1画像及び/又は上記融合画像に表示するように構成される点選択ユニットと、選定された点の座標を出力するように構成される出力ユニットと、を含む情報を出力するための装置を提供している。
いくつかの実施例において、上記第2表示ユニットはさらに、上記高精細地図画像における画素点の座標及び反射率画像における画素点の座標に基づいて、上記第2画像及び上記第3画像を融合するように構成される。
いくつかの実施例において、上記点選択操作は、上記第1画像に対する第1点選択操作と、上記融合画像に対する第2点選択操作とを含み、上記第2表示ユニットはさらに、上記第1点選択操作及び上記第1点選択操作の後の第2点選択操作に応答して、上記第1点選択操作が指示する第1点と上記第2点選択操作が指示する第2点とをマッチング点ペアとし、上記第1画像及び上記融合画像において上記マッチング点ペアを関連付けて表示するように構成される。
いくつかの実施例において、上記装置は、上記マッチング点ペアに対する追加操作に応答して、上記マッチング点ペアを予め設定されたマッチング点ペアの集合に追加するように構成される追加ユニットと、上記マッチング点ペアの集合に対する記憶操作に応答して、上記マッチング点ペアの集合をローカルで記憶するように構成される記憶ユニットと、をさらに含む。
いくつかの実施例において、上記点選択操作は、上記第1画像又は上記融合画像に対する第3点選択操作及び第4点選択操作を含み、上記第2表示ユニットはさらに、上記第3点選択操作に応答して、上記第3点選択操作が指示する第3点を補助線の始点とし、上記第4点選択操作に応答して、上記第4点選択操作が指示する第4点を補助線の終点とし、上記始点及び上記終点に対する線引き操作に応答して、上記始点及び上記終点を結び、上記始点、上記終点及び連結された直線を上記第1画像又は上記融合画像に表示するように構成される。
いくつかの実施例において、上記装置は、上記ユーザの選択された点に対するキャンセル操作に応答して、キャンセル対象の点を再び表示しないように構成されるキャンセルユニットをさらに含む。
第4態様において、本願の実施例は、キャリブレーション対象のカメラにより撮像された画像である第1画像と、上記第1画像が示す対象領域を含む高精細地図画像である第2画像と、上記対象領域を含む反射率画像である第3画像とを取得するように構成される取得ユニットと、上記第2画像及び上記第3画像を融合して、融合画像を得るように構成される融合ユニットと、上記第1画像及び上記融合画像においてユーザにより選定された点に基づいて、マッチング点ペアを確定するように構成される確定ユニットと、上記マッチング点ペアの座標に基づいて、上記キャリブレーション対象のカメラをキャリブレーションするように構成されるキャリブレーションユニットと、を含むカメラをキャリブレーションするための装置を提供している。
いくつかの実施例において、上記融合ユニットはさらに、高精細地図画像における画素点の座標及び反射率画像における画素点それぞれの座標に基づいて、上記第2画像及び上記第3画像を融合するように構成される。
いくつかの実施例において、上記確定ユニットはさらに、ユーザにより上記第1画像において選定された第1点及び上記第1点の選定後に上記融合画像において選択された第2点を確定し、上記第1点及び上記第2点をマッチング点ペアとするように構成される。
いくつかの実施例において、上記装置は、上記マッチング点ペアを予め設定されたマッチング点ペアの集合に追加するように構成される追加ユニットと、上記マッチング点ペアの集合をローカルで記憶するように構成される記憶ユニットと、をさらに含む。
第5態様において、本願の実施例は、1つ又は複数のプロセッサと、1つ又は複数のプログラムが格納されている記憶装置と、を含む電子機器であって、上記1つ又は複数のプログラムが上記1つ又は複数のプロセッサによって実行される場合に、上記1つ又は複数のプロセッサに第1態様のいずれかの実施例に記載の方法を実現させる電子機器を提供している。
第6態様において、本願の実施例は、1つ又は複数のプロセッサと、1つ又は複数のプログラムが格納されている記憶装置と、を含む電子機器であって、上記1つ又は複数のプログラムが上記1つ又は複数のプロセッサによって実行される場合に、上記1つ又は複数のプロセッサに第2態様のいずれかの実施例に記載の方法を実現させる電子機器を提供している。
第7態様において、本願の実施例は、コンピュータプログラムが格納されているコンピュータ可読媒体であって、該コンピュータプログラムがプロセッサによって実行される場合に、第1態様のいずれかの実施例に記載の方法を実現するコンピュータ可読媒体を提供している。
第8態様において、本願の実施例は、コンピュータプログラムが格納されているコンピュータ可読媒体であって、該コンピュータプログラムがプロセッサによって実行される場合に、第2態様のいずれかの実施例に記載の方法を実現するコンピュータ可読媒体を提供している。
本願の上記実施例に係る情報を出力するための方法及び装置並びにカメラをキャリブレーションするための方法及び装置は、ユーザのキャリブレーション対象のカメラにより撮像された第1画像及び融合画像に対する点選択操作をサポートすることができ、さらにカメラをキャリブレーションするために、選定された点の座標を出力することができる。本実施例の方法によれば、ユーザがカメラをキャリブレーションするためにペアとなる点の選定に役立つ。
本願の他の特徴、目的及び利点は、以下の図面を参照してなされる非限定的な実施例に係る詳細な説明を読むことにより、より明らかになるであろう。
本願の一実施例を適用できる例示的なシステムアーキテクチャを示す図である。 本願に係る情報を出力するための方法の一実施例を示すフローチャートである。 本願に係る情報を出力するための方法におけるキャリブレーションツールの概略図である。 本願に係るカメラをキャリブレーションするための方法の一実施例を示すフローチャートである。 本願に係る情報を出力するための装置の一実施例を示す構造概略図である。 本願に係るカメラをキャリブレーションするための装置の一実施例を示す構造概略図である。 本願の実施例を実施するための電子機器に適するコンピュータシステムを示す構造概略図である。
以下、添付図面及び実施例を参照しながら、本願をより詳細に説明する。ここで説明する具体的な実施例は、関連する発明を説明するためのものに過ぎず、当該発明を限定するものではないことを理解されたい。また、説明の便宜上、図面には発明に関連する部分のみが示されていることに留意されたい。
なお、本願の実施例及び実施例における特徴は、矛盾を生じない限り、相互に組み合わせることができる。以下、添付図面及び実施例を参照しながら、本願を詳細に説明する。
図1は、本願に係る、情報を出力するための方法、カメラをキャリブレーションするための方法、情報を出力するための装置又はカメラをキャリブレーションするための装置の実施例を適用できる例示的なシステムアーキテクチャ100が示されている。
図1に示すように、システムアーキテクチャ100は、端末装置101、102、103、ネットワーク104及びサーバ105を含んでもよい。ネットワーク104は、端末装置101、102、103とサーバ105との間に通信リンクの媒体を提供するために用いられる。ネットワーク104は、有線、無線通信リンク又は光ファイバケーブル等のような、様々な接続タイプを含んでもよい。
ユーザは、メッセージを受信又は送信する等のために、端末装置101、102、103を使用してネットワーク104を介してサーバ105とやり取りすることができる。端末装置101、102、103には、例えば、画像閲覧アプリケーション、画像処理アプリケーション、ウェブブラウザアプリケーション、インスタントメッセンジャー、メールボックスクライアント、ソーシャルプラットフォームソフトウェア等の各種通信クライアントアプリケーションがインストールされていてもよい。
端末装置101、102、103は、ハードウェアであってもよいし、ソフトウェアであってもよい。端末装置101、102、103がハードウェアである場合には、表示画面を有するとともに画像処理をサポートする様々な電子機器であってもよく、スマートフォン、タブレットコンピュータ、ラップトップコンピュータ及びデスクトップコンピュータなどを含むが、これらに限定されない。端末装置101、102、103がソフトウェアである場合には、上記に挙げられる電子機器にインストールされてもよい。これは、複数のソフトウェア又はソフトウェアモジュール(例えば、分散サービスを提供するために用いられる)として実現されてもよく、単一のソフトウェア又はソフトウェアモジュールとして実現されてもよい。ここでは、特に限定されない。
サーバ105は、例えば、端末装置101、102、103に表示される画像をサポートするバックグラウンド画像サーバ等の、様々なサービスを提供するサーバであってもよい。バックグラウンド画像サーバは、受信された画像等のデータを解析する等の処理を行うことができる。
なお、サーバ105は、ハードウェアであってもよいし、ソフトウェアであってもよい。サーバ105がハードウェアである場合には、複数のサーバからなる分散サーバクラスタとして実現されてもよいし、単一のサーバとして実現されてもよい。サーバ105がソフトウェアである場合には、複数のソフトウェア又はソフトウェアモジュール(例えば、分散サービスを提供する)として実現されてもよいし、単一のソフトウェア又はソフトウェアモジュールとして実現されてもよい。ここでは特に限定されない。
なお、本願の実施例に係る情報を出力するための方法は、一般的に端末装置101、102、103によって実行され、カメラをキャリブレーションするための方法は、端末装置101、102、103によって実行されてもよいし、サーバ105によって実行されてもよい。したがって、情報を出力するための装置が一般的に端末装置101、102、103に設けられてもよく、カメラをキャリブレーションするための装置が端末装置101、102、103に設けられてもよいし、サーバ105に設けられてもよい。
図1における端末装置、ネットワーク及びサーバの数は、単なる例示的なものに過ぎないことを理解されたい。必要に応じて、端末装置、ネットワーク及びサーバの数を任意に加減してもよい。
引き続き図2を参照して、本願に係る情報を出力するための方法の一実施例を示すフロー200が示されている。本実施例の情報を出力するための方法は、ステップ201、ステップ202、ステップ203及びステップ204を含む。
ステップ201:ユーザの第1画像取り込み操作に応答して、ユーザにより選定された第1画像を表示する。
本実施例において、情報を出力するための方法の実行主体(例えば、図1に示す端末装置101、102、103)が、ユーザの操作を検出することができる。ユーザの第1画像取り込み操作が検出されると、ユーザにより選定された第1画像を表示することができる。具体的には、実行主体に第1画像取り込みボタンを含み得るキャリブレーションツールがインストールされてもよい。ユーザは、前記第1画像取り込みボタンをクリックすることにより、又は予め設定されたショートカットキーにより、第1画像取り込み操作を実行することができる。実行主体は第1画像取り込み操作が検出された後に、ユーザがキャリブレーションツールを取り込む必要がある第1画像を選定することに供して、画像取り込みウィンドウを表示することができる。前記キャリブレーションツールは、実行主体が第1画像を表示することができる表示ウィンドウをさらに備えてもよい。
本実施例において、前記第1画像は、キャリブレーション対象のカメラにより撮像された画像である。前記キャリブレーション対象のカメラは、路面の画像を撮像するために、道路又は交差点のある位置に固定されてもよい。
ステップ202:ユーザの第2画像取り込み操作に応答して、ユーザにより選定された第2画像及び第3画像を融合して、得られた融合画像を表示する。
実行主体はユーザの第2画像取り込み操作をさらに検出することができる。第2画像取り込み操作が検出された場合に、ユーザにより選定された第2画像及び第3画像を融合して、融合画像を得ることができる。得られた融合画像を表示する。具体的には、キャリブレーションツールが第2画像取り込みボタンを含み得る。ユーザは、前記第2画像取り込みボタンをクリックすることにより、又は予め設定されたショートカットキーにより、第2画像取り込み操作を実行する。実行主体は第2画像取り込み操作が検出された後に、ユーザが融合する必要がある第2画像及び第3画像を選定することに供して、画像取り込みウィンドウを表示することができる。
本実施例において、第2画像は第1画像が示す対象領域を含む高精細地図画像であり、第3画像は対象領域を含む反射率画像である。ここで、高精細地図とは、車線区画線、車線境界、横断歩道、停止線、信号機及び交通標識などの通常の地図よりも豊富な地図情報を有し、さらに高度、勾配距離などの情報を有する地図である。反射率画像とは、点群データを地面に投影した画像である。点群データには、建物の情報、道路情報等が含まれる。高精細地図画像及び反射率画像は、いずれも座標情報を有することを理解されたい。
実行主体は、高精細地図画像及び反射率画像における座標情報に基づいて両者を融合してもよいし、高精細地図画像及び反射率画像における道路情報に基づいて融合してもよい。ここで、融合とは、高精細地図画像及び反射率画像を画像処理し、得られた融合画像に高精細地図画像と反射率画像とに含まれる情報を同時に表示させることをいう。これにより、ユーザは融合画像において点を容易に選定することができる。
本実施例のいくつかの任意選択実施形態において、実行主体は、高精細地図画像における画素点の座標及び反射率画像における画素点の座標に基づいて、第2画像及び第3画像を融合するステップ(図2に示されていない)により第2画像及び第3画像を融合することができる。
本実施形態において、実行主体は、高精細地図画像における画素点の座標に基づいて、該座標と同じ反射率画像における画素点の座標を決定することができる。同じ座標の画素点を位置合わせすると、融合画像が得られる。
本実施例のいくつかの任意選択実施形態において、第1画像を表示するウィンドウと融合画像を表示するウィンドウとは、左右に配列されてもよいし、上下に配列されてもよい。これにより、ユーザは、第1画像及び融合画像をより容易に対照して、ペアとなる点を容易に選定することができる。
ステップ203:ユーザの第1画像及び/又は融合画像に対する点選択操作に応答して、ユーザにより選定された点を第1画像及び/又は融合画像に表示する。
ユーザによる表示される第1画像及び/又は融合画像に対する点選択操作は、具体的にキャリブレーションツールにおけるボタンをクリックするか、又はショートカットキーを使用することで、点選択操作を実行することができる。ユーザは、第1画像又は融合画像のみにおいて点を選定してもよいし、第1画像において点の選定後に融合画像において点を選定してもよい。本実施例において、実行主体は、ユーザにより選定された点を第1画像及び/又は融合画像に表示させてもよい。ユーザが第1画像において点を選定すると、選定された点は第1画像のみに表示できることが理解されよう。同様に、ユーザが融合画像のみにおいて点を選定すると、選定された点は融合画像のみにて表示できる。
ステップ204:選定された点の座標を出力する。
点選択操作終了後に、実行主体は選定された点の座標を出力することができる。具体的に、実行主体には、第1画像においてユーザにより選定された点に対して、その点の第1画像における座標を出力することができる。融合画像においてユーザにより選定された点に対して、実行主体は、その点の融合画像における投影座標を出力してもよいし、その点の3次元座標を出力してもよい。即ち、実行主体は、融合画像において選定される点に対して、点の高さ情報を出力してもよいし、出力しなくてもよい。
本実施例において、実行主体は、サーバがキャリブレーション対象のカメラをキャリブレーションすることに供して、前記選定された点の座標をサーバに出力してもよい。前記選定された点の座標を、キャリブレーション対象のカメラをキャリブレーションすることに供して、ローカルで実行されるキャリブレーションアルゴリズムに出力してもよい。
本願の前記実施例に係る情報を出力するための方法によれば、ユーザがペアとなる点をより容易に選定でき、カメラのキャリブレーションを容易にすることができる。
本実施例のいくつかの任意選択実施形態において、前記点選択操作は、第1画像に対する第1点選択操作と、融合画像に対する第2点選択操作とを含む。前記ステップ203は具体的に、第1点選択操作と、第1点選択操作の後の第2点選択操作とに応答して、第1点選択操作が指示する第1点と、第2点選択操作が指示する第2点とをマッチング点ペアとし、第1画像及び融合画像においてマッチング点ペアを関連付けて表示するステップ(図2に示されていない)を含んでもよい。
実行主体は、第1点選択操作を検出するとともに、第1点選択操作の後に第2点選択操作を検出すると、第1点選択操作が指示する第1点と、第2点選択操作が指示する第2点とをマッチング点ペアとすることができる。即ち、ユーザが第1画像において第1点を選定した後に、さらに続けて融合画像において第2点を選定した場合に、実行主体は、第1点及び第2点をマッチング点ペアとすることができる。実行主体はさらに第1画像及び融合画像においてマッチング点ペアを関連付けて表示してもよい。ここで、関連付けて表示することは、同じ色で表示されることを指してもよいし、同じマークで表示されることを指してもよい。
本実施例のいくつかの任意選択実施形態において、前記方法は、図2に示されていないが、マッチング点ペアに対する追加操作に応答して、マッチング点ペアを予め設定されたマッチング点ペアの集合に追加するステップと、マッチング点ペアの集合に対する記憶操作に応答して、マッチング点ペアの集合をローカルで記憶するステップとをさらに含むことができる。
本実施形態において、ユーザはさらに、マッチング点ペアに対して追加操作を実行することができる。ユーザは、キャリブレーションツールにおける追加ボタン又はショートカットキーによって追加操作を実行することができる。実行主体は、追加操作を検出した後に、予め設定されたマッチング点ペアの集合にマッチング点ペアを追加することができる。なお、マッチング点ペアの集合におけるマッチング点ペアの数が十分に多い場合に、実行主体は、各マッチング点ペアを利用してキャリブレーション対象のカメラをキャリブレーションすることができる。
実行主体は、ユーザがマッチング点ペアの集合に対する記憶操作を実行したか否かをさらに検出することができる。ユーザは、キャリブレーションツールにおける追加ボタン又はショートカットキーによって記憶操作を実行することができる。実行主体は、記憶操作を検出した後に、マッチング点ペアの集合をローカルで記憶することができる。
本実施例のいくつかの任意選択実施形態において、前記点選択操作は、第1画像又は融合画像に対する第3点選択操作及び第4点選択操作をさらに含むことができる。実行主体は、第3点選択操作に応答して、第3点選択操作が指示する第3点を補助線の始点とし、第4点選択操作に応答して、第4点選択操作が指示する第4点を補助線の終点とし、始点及び終点に対する線引き操作に応答して、始点及び終点を結び、始点、終点及び連結された直線を第1画像又は融合画像に表示するステップ(図2に示されていない)によってステップ203を実現することができる。
本実施形態において、ユーザはさらに、第1画像又は融合画像において2つの点を選定し、選定された2つの点を結んで直線を得ることができる。実際の応用において、第1画像又は融合画像にはっきり見えない箇所がある場合があり、ユーザは、補助線を作成することで実際に選択すべき点を確定することができる。具体的には、実行主体は、第3点選択操作が指示する第3点を補助線の始点とし、第4点選択操作が指示する第4点を補助線の終点としてもよい。始点及び終点に対する線引き操作が検出された後に、始点及び終点を結ぶ。連結された直線を第1画像又は融合画像に表示する。
本実施例のいくつかの任意選択実施形態において、前記方法は、ユーザの選定された点に対するキャンセル操作に応答して、キャンセル対象の点を再び表示しないステップ(図2に示されていない)をさらに含むことができる。
本実施形態において、ユーザは、点を選定した後に、選定された点をキャンセルしたい場合に、削除操作を実行することができる。実行主体は、キャンセル操作を検出すると、キャンセル対象の点を再び表示しなくてもよい。
本実施例において、ユーザはさらに、第1画像及び/又は融合画像において点を容易に選定するために、表示された第1画像及び/又は融合画像に対してズーム操作を行うことができる。
本実施例に係る情報を出力するための方法におけるキャリブレーションツールのユーザインターフェースを示す概略図である図3を参照する。ユーザは、ユーザインターフェースにおける各ボタンにより、第1画像(左側)及び融合画像(右側)において点をそれぞれ選定するために、様々な操作を実行することができる。
引き続き本願に係るカメラをキャリブレーションするための方法の一実施例を示すフロー400が示されている図4を参照する。図4に示すように、本実施例に係るカメラをキャリブレーションするための方法は、ステップ401、ステップ402、ステップ403及びステップ404を含むことができる。
ステップ401:第1画像、第2画像及び第3画像を取得する。
本実施例において、カメラをキャリブレーションするための方法の実行主体(例えば、図1に示す端末装置101、102、103又はサーバ105)が、第1画像、第2画像及び第3画像を取得することができる。実行主体が端末装置である場合に、ユーザの操作に応じて、第1画像、第2画像及び第3画像をローカルから取得することができる。例えば、端末装置にキャリブレーションツールが搭載されると、ユーザはキャリブレーションツールにおけるボタン又はショートカットキーをクリックすることにより、第1画像、第2画像及び第3画像をローカルから選定することができる。実行主体がサーバである場合に、第1画像、第2画像及び第3画像を他のデバイスから取得することができる。
前記第1画像は、キャリブレーション対象のカメラにより撮像された画像である。前記キャリブレーション対象のカメラは、路面の画像を撮像するために、道路又は交差点の特定の位置に固定されてもよい。第2画像は、第1画像が示す対象領域を含む高精細地図画像である。第3画像は、対象領域を含む反射率画像である。ここで、高精細地図とは、車線区画線、車線境界、横断歩道、停止線、信号機及び交通標識などの通常の地図よりも豊富な地図情報を有し、さらに高さ、勾配距離などの情報を有する地図である。反射率画像とは、点群データを地面に投影した画像である。点群データには、建物の情報、道路情報等が含まれる。高精細地図画像及び反射率画像は、いずれも座標情報を有することを理解されたい。
ステップ402:第2画像及び第3画像を融合して、融合画像を得る。
実行主体は、高精細地図画像及び反射率画像における座標情報に基づいて両者を融合してもよいし、高精細地図画像及び反射率画像における道路情報に基づいて融合してもよい。ここで、融合とは、両者を位置合わせして、得られた融合画像において両者の情報を表示することを意味することができる。これにより、ユーザは融合画像において点を容易に選定することができる。
本実施例のいくつかの任意選択実施形態において、実行主体は、高精細地図画像における画素点の座標及び反射率画像における画素点の座標に基づいて、第2画像及び第3画像を融合するステップ(図4に示されていない)により第2画像及び第3画像を融合することができる。
本実施形態において、実行主体は、高精細地図画像における画素点の座標に基づいて、該座標と同じ反射率画像における画素点の座標を確定することができる。同じ座標の画素点を重畳すると、融合画像が得られる。
ステップ403:第1画像及び融合画像においてユーザにより選定された点に基づいて、マッチング点ペアを確定する。
本実施例において、ユーザは、第1画像及び融合画像のそれぞれにおいて点を選定することができ、実行主体は、ユーザにより選定された点をマッチング点ペアとすることができる。具体的には、実行主体が端末装置である場合に、第1画像及び融合画像を画面に表示することができ、ユーザは端末装置の入力装置を介して第1画像及び融合画像のそれぞれにおいて点を選定することができる。実行主体がサーバである場合に、ユーザが使用する端末装置に第1画像及び融合画像を送信し、ユーザは、点を選定した後に、選定された点を含む第1画像及び融合画像をサーバに送信することができる。
本実施例のいくつかの任意選択実施形態において、実行主体は、ユーザにより第1画像において選定された第1点及び第1点が選定された後に融合画像において選定された第2点を確定し、第1点及び第2点をマッチング点ペアとするステップ(図4に示されていない)により、前記ステップ402を実現することができる。
実行主体は、第1画像においてユーザが第1点を選定したことを検出した後に、融合画像においてユーザが第2点を選定したことを検出した場合に、第1点及び第2点をマッチング点ペアとすることができる。即ち、ユーザが第1画像において第1点を選定した後に、さらに続けて融合画像において第2点を選定した場合に、実行主体は、第1点及び第2点をマッチング点ペアとすることができる。
ステップ404:マッチング点ペアの座標に基づいて、キャリブレーション対象のカメラをキャリブレーションする。
本実施例において、実行主体は、マッチング点ペアを確定した後に、まず、マッチング点ペアの座標を確定することができる。実行主体は、第1画像においてユーザにより選定された点の、第1画像における座標を出力することができる。融合画像においてユーザにより選定された点に対して、実行主体は、その融合画像における投影座標を出力してもよいし、その3次元座標を出力してもよい。即ち、実行主体は、融合画像において選定された点に対して、点の高さ情報を出力してもよいし、出力しなくてもよい。
本実施例において、融合画像における各点の座標は、測地座標系における座標であるため、第1画像における各点の座標は、カメラ座標系における座標であるため、従来のキャリブレーションアルゴリズムにより、カメラ座標系と測地座標系とにおけるキャリブレーションパラメータが得られ、キャリブレーション対象のカメラのキャリブレーションが実現される。
本実施例のいくつかの任意選択実施形態において、前記方法は、マッチング点ペアを予め設定されたマッチング点ペアの集合に追加するステップ(図4に示されていない)と、マッチング点ペアの集合をローカルで記憶するステップ(図4に示されていない)とをさらに含むことができる。
本実施形態において、実行主体はさらに、得られたマッチング点ペアを予め設定されたマッチング点ペアの集合に追加することができる。さらにマッチング点ペアの集合を実行主体にローカルで記憶することができる。このようにして、マッチング点ペアの集合におけるマッチング点ペアの数が十分に多い場合に、実行主体は、各マッチング点ペアの座標を利用してキャリブレーション対象のカメラをキャリブレーションすることができる。
本願の前記実施例に係るカメラをキャリブレーションするための方法は、キャリブレーション対象のカメラにより取り込まれた画像と、同一領域の高精細地図画像及び反射率画像とを利用して、ユーザによるマッチング点ペアの選定をサポートし、マッチング点ペアを利用してカメラをキャリブレーションすることができ、カメラを手動でキャリブレーションするキャリブレーション効率が向上された。
さらに図5を参照して、前記図2に示される方法の実施態様として、本願は、図2に示される方法の実施例に対応する情報を出力するための装置の一実施例を提供し、当該装置は、具体的に様々な電子機器に適用されてもよい。
図5に示すように、本実施例に係る情報を出力するための装置500は、第1表示ユニット501、第2表示ユニット502、点選択ユニット503及び出力ユニット504を備える。
第1表示ユニット501は、ユーザの第1画像取り込み操作に応答して、ユーザにより選定された第1画像を表示するように構成される。ここで、第1画像は、キャリブレーション対象のカメラにより撮像された画像である。
第2表示ユニット502は、ユーザの第2画像取り込み操作に応答して、ユーザにより選定された第2画像及び第3画像を融合して、得られた融合画像を表示するように構成される。ここで、第2画像は第1画像が示す対象領域を含む高精細地図画像であり、第3画像は対象領域を含む反射率画像である。
点選択ユニット503は、ユーザの第1画像及び/又は融合画像に対する点選択操作に応答して、ユーザにより選定された点を第1画像及び/又は融合画像に表示するように構成される。
出力ユニット504は、選定された点の座標を出力するように構成される。
本実施例のいくつかの任意選択実施形態において、第2表示ユニット502はさらに、高精細地図画像における画素点の座標及び反射率画像における画素点の座標に基づいて、第2画像及び第3画像を融合するように構成される。
本実施例のいくつかの任意選択実施形態において、点選択操作は、第1画像に対する第1点選択操作と、融合画像に対する第2点選択操作とを含む。第2表示ユニット502はさらに、第1点選択操作と、第1点選択操作の後の第2点選択操作とに応答して、第1点選択操作が指示する第1点と、第2点選択操作が指示する第2点とをマッチング点ペアとし、第1画像及び融合画像においてマッチング点ペアを関連付けて表示するように構成され得る。
本実施例のいくつかの任意選択実施形態において、前記装置500は、図5に示されていない追加ユニット及び記憶ユニットをさらに含むことができる。
追加ユニットは、マッチング点ペアに対する追加操作に応答して、マッチング点ペアを予め設定されたマッチング点ペアの集合に追加するように構成される。
記憶ユニットは、マッチング点ペアの集合に対する記憶操作に応答して、マッチング点ペアの集合をローカルで記憶するように構成される。
本実施例のいくつかの任意選択実施形態において、点選択操作は、第1画像又は融合画像に対する第3点選択操作及び第4点選択操作を含む。第2表示ユニット502はさらに、第3点選択操作に応答して、第3点選択操作が指示する第3点を補助線の始点とし、第4点選択操作に応答して、第4点選択操作が指示する第4点を補助線の終点とし、始点及び終点に対する線引き操作に応答して、始点と終点を結び、始点、終点及び連結された直線を第1画像又は融合画像に表示するように構成され得る。
本実施例のいくつかの任意選択実施形態において、前記装置500は、ユーザによる選定された点に対するキャンセル操作に応答して、キャンセル対象の点を再び表示しないように構成されるキャンセルユニット(図5に示されていない)をさらに含んでもよい。
なお、情報を出力するための装置500に記載されたユニット501〜ユニット504はそれぞれ、図2を参照して記述した方法における各ステップに対応するものである。したがって、以上、情報を出力するための方法について説明された動作及び特徴は、装置500及び装置500に含まれるユニットにも同様に適しており、ここではその説明が省略される。
さらに図6を参照して、前記図6に示される方法の実施態様として、本願は、図4に示される方法の実施例に対応するカメラをキャリブレーションするための装置の一実施例を提供し、当該装置は、具体的に様々な電子機器に適用されてもよい。
図6に示すように、本実施例に係るカメラをキャリブレーションするための装置600は、取得ユニット601と、融合ユニット602と、確定ユニット603と、キャリブレーションユニット604とを含む。
取得ユニット601は、第1画像、第2画像及び第3画像を取得するように構成される。ここで、第1画像はキャリブレーション対象のカメラにより撮像された画像であり、第2画像は第1画像が示す対象領域を含む高精細地図画像であり、第3画像は対象領域を含む反射率画像である。
融合ユニット602は、第2画像及び第3画像を融合して、融合画像を得るように構成される。
確定ユニット603は、第1画像及び融合画像においてユーザにより選定された点に基づいて、マッチング点ペアを確定するように構成される。
キャリブレーションユニット604は、マッチング点ペアの座標に基づいて、キャリブレーション対象のカメラをキャリブレーションするように構成される。
本実施例のいくつかの任意選択実施形態において、融合ユニット602はさらに、高精細地図画像における画素点の座標及び反射率画像における画素点それぞれの座標に基づいて、第2画像及び第3画像を融合するように構成され得る。
本実施例のいくつかの任意選択実施形態において、確定ユニット603はさらに、ユーザにより第1画像において選定された第1点及び第1点確定後に融合画像において選定された第2点を確定し、第1点及び第2点をマッチング点ペアとするように構成され得る。
本実施例のいくつかの任意選択実施形態において、前記装置600は、図6に示されていない追加ユニット及び記憶ユニットをさらに含むことができる。
追加ユニットは、マッチング点ペアを予め設定されたマッチング点ペアの集合に追加するように構成される。
記憶ユニットは、マッチング点ペアの集合をローカルで記憶するように構成される。
なお、カメラをキャリブレーションするための装置600に記載されたユニット601〜ユニット604はそれぞれ、図4を参照して記述した方法における各ステップに対応する。したがって、以上、カメラをキャリブレーションするための方法について説明された動作及び特徴は、装置600及び装置600に含まれるユニットにも同様に適しており、ここでその説明が省略される。
以下、本開示の実施例を実現するのに適した電子機器(例えば、図1におけるサーバ又は端末装置)700の構造概略図が示される図7を参照する。本開示の実施例における端末装置は、携帯電話、ラップトップコンピュータ、車載端末(例えば、カーナビゲーション端末)などの携帯端末、及びデスクトップコンピュータなどの固定端末を含み得るが、これらに限定されない。図7に示された電子機器はただの例示に過ぎず、本開示の実施例の機能及び使用範囲にいかなる限定を加えるものではない。
図7に示すように、電子機器700は、読み出し専用メモリ(ROM)702に格納されているプログラム又は記憶デバイス708からランダムアクセスメモリ(RAM)703にロードされたプログラムによって様々で、適当な動作及び処理を実行することができる処理デバイス(例えば、中央処理装置、グラフィックプロセッサ等)701を含んでもよい。RAM703には、電子機器700の操作に必要な様々なプログラム及びデータがさらに格納されている。処理デバイス701、ROM702及びRAM703がバス704を介して互いに接続されている。入力/出力(I/O)インターフェース705もバス704に接続されている。
通常、I/Oインターフェース705には、例えば、タッチスクリーン、タッチパッド、キーボード、マウス、カメラ、マイク、加速度計、ジャイロスコープ等を含む入力デバイス706、例えば、液晶ディスプレイ(LCD)、スピーカ、バイブレータ等を含む出力デバイス707、例えば磁気テープ、ハードディスク等を含む記憶デバイス708及び通信デバイス709が接続されてもよい。通信デバイス709は、電子機器700が他のデバイスと無線又は有線で通信してデータを交換することを可能にする。図7には、様々なデバイスを有する電子機器700が示されているが、示されたデバイスの全てを実施又は具備するように要求しないことを理解されたい。これより多い又は少ないデバイスが代替的に実施され又は具備されてもよい。図7に示すそれぞれのブロックは、1つのデバイスを表すものであってもよいし、必要に応じて複数のデバイスを表すものであってもよい。
特に、本開示の実施例によれば、以上でフローチャートを参照して記述されたプロセスは、コンピュータソフトウェアプログラムとして実現されてもよい。例えば、本開示の実施例は、コンピュータ可読媒体に担持されるコンピュータプログラムを備えるコンピュータプログラム製品を備え、該コンピュータプログラムは、フローチャートで示される方法を実行するためのプログラムコードを含む。このような実施例において、該コンピュータプログラムは、通信デバイス709を介してネットワークからダウンロードされてインストールされてもよく、又は記憶デバイス708からインストールされてもよく、又はROM702からインストールされてもよい。該コンピュータプログラムが処理デバイス701によって実行される場合に、本開示の実施例の方法で限定された上記の機能を実行する。なお、本開示の実施例に記載のコンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体、又はこれらの任意の組み合わせであってもよい。コンピュータ可読記憶媒体は、例えば、電気、磁気、光学、電磁気、赤外線、又は半導体のシステム、装置若しくはデバイス、又はこれらの任意の組み合わせを含むことができるが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例としては、1本又は複数本の導線を有する電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROM若しくはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み出し専用メモリ(CD−ROM)、光メモリ、磁気メモリ、又はこれらの任意の適切な組み合わせを含むことができるが、これらに限定されない。本開示の実施例において、コンピュータ可読記憶媒体は、命令実行システム、装置若しくはデバイスで使用可能な、又はそれらに組み込まれて使用可能なプログラムを包含又は格納する任意の有形の媒体であってもよい。本開示の実施例において、コンピュータ可読信号媒体は、コンピュータ可読プログラムコードが担持され、ベースバンド内で、又はキャリアの一部として伝送されるデータ信号を含んでもよい。このような伝送されたデータ信号は、様々な形態をとることができ、電磁信号、光信号、又はこれらの任意の適切な組み合わせを含むことができるが、これらに限定されない。コンピュータ可読信号媒体は、さらにコンピュータ可読記憶媒体以外のあらゆるコンピュータ可読媒体であってもよい。該コンピュータ可読信号媒体は、命令実行システム、装置若しくはデバイスによって使用されるか、又はそれらに組み込まれて使用されるプログラムを、送信、伝播、又は伝送することができる。コンピュータ可読媒体に含まれるプログラムコードは任意の適切な媒体で伝送することができ、有線、光ケーブル、RF(無線周波数)など、又はこれらの任意の適切な組み合わせを含むが、これらに限定されない。
上記のコンピュータ可読媒体は、上記の電子機器に含まれるものであってもよく、独立に存在して該電子機器に組み込まれていないものであってもよい。前記コンピュータ可読媒体には1つ又は複数のプログラムが担持され、前記1つ又は複数のプログラムが該電子機器によって実行される場合に、ユーザの第1画像取り込み操作に応答して、ユーザにより選定された第1画像をキャリブレーションツールに表示するステップであって、第1画像はキャリブレーション対象のカメラにより撮像された画像であるステップと、ユーザの第2画像取り込み操作に応答して、ユーザにより選定された第2画像及び第3画像を融合して、得られた融合画像をキャリブレーションツールに表示するステップであって、第2画像は第1画像が示す対象領域を含む高精細地図画像であり、第3画像は対象領域を含む反射率画像であるステップと、ユーザの第1画像及び/又は融合画像に対する点選択操作に応答して、ユーザにより選定された点を第1画像及び/又は融合画像に表示するステップと、選定された点の座標を出力するステップと、を含む動作を該電子機器に実行させる。又は、キャリブレーション対象のカメラにより撮像された第1画像と、第1画像が示す対象領域を含む高精細地図画像である第2画像と、対象領域を含む反射率画像である第3画像とを取得し、第2画像及び第3画像を融合して、融合画像を得、第1画像及び融合画像においてユーザにより選定された点に基づいてマッチング点ペアを確定し、マッチング点ペアの座標に基づいてキャリブレーション対象のカメラをキャリブレーションする。
1つ又は複数の種類のプログラミング言語又はそれらの組み合わせで、本開示の実施例の操作を実行するためのコンピュータプログラムコードを作成することができ、前記プログラミング言語には、オブジェクト指向プログラミング言語、例えばJava、Smalltalk、C++が含まれ、従来の手続き型プログラミング言語、例えば「C」言語又は類似しているプログラミング言語も含まれる。プログラムコードは、完全にユーザコンピュータに実行されてもよく、部分的にユーザコンピュータに実行されてもよく、1つのスタンドアロンソフトウェアパッケージとして実行されてもよく、部分的にユーザコンピュータに実行され且つ部分的にリモートコンピュータに実行されてもよく、又は完全にリモートコンピュータ又はサーバに実行されてもよい。リモートコンピュータの場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む任意の種類のネットワークを介して、ユーザコンピュータ、又は、外部コンピュータに接続できる(例えば、インターネットサービスプロバイダによりインターネットを介して接続できる)。
図面におけるフローチャート及びブロック図は、本開示の各実施例に係るシステム、方法及びコンピュータプログラム製品により実現可能なアーキテクチャ、機能及び操作を示す。ここで、フローチャート又はブロック図における各ブロックは、モジュール、プログラムセグメント若しくはコードの一部を示してもよく、該モジュール、プログラムセグメント、又はコードの一部は、規定されたロジック機能を達成するための1つ以上の実行可能な命令を含む。なお、いくつかの代替実施態様において、ブロック内に示された機能は、図面に示された順番とは異なるもので実行されてもよい。例えば、連続して示された2つのブロックは、実際には関連する機能によって、ほぼ並行に実行されてもよく、逆の順番で実行されてもよい。なお、ブロック図及び/又はフローチャートにおける各ブロック、並びに、ブロック図及び/又はフローチャートにおけるブロックの組み合わせは、規定された機能若しくは操作を実行する、ハードウェアに基づく専用システムで実現されてもよく、又は専用ハードウェアとコンピュータ命令との組み合わせで実行されてもよい。
本開示の実施例に係るユニットは、ソフトウェアの形式で実現されてもよいし、ハードウェアの形式で実現されてもよい。記述されたユニットは、プロセッサに設けられてもよく、例えば、第1表示ユニット、第2表示ユニット、点選択ユニット及び出力ユニットを備えるプロセッサ、又は、取得ユニット、融合ユニット、確定ユニット及びキャリブレーションユニットを含むプロセッサと記述されてもよい。ここで、これらのユニットの名称は、該ユニット自体を限定するものではなく、例えば、取得ユニットがさらに「第1画像、第2画像及び第3画像を取得するユニット」と記述されてもよい。
以上の記載は、本開示の好ましい実施例、及び使用される技術的原理に関する説明に過ぎない。本開示に係る発明の範囲が、上記の技術的特徴の特定の組み合わせからなる技術案に限定されるものではなく、上記の発明趣旨を逸脱しない範囲で、上記の技術的特徴又はそれらの同等の特徴を任意に組み合わせてなる他の技術案も含むべきであることを、当業者に理解されたい。例えば、上記の特徴と、本開示の実施例に開示された類似の機能を持っている技術的特徴(これらに限定されていない)とを互いに置き換えてなる技術案が挙げられる。

Claims (24)

  1. 情報を出力するための方法であって、
    ユーザの第1画像取り込み操作に応答して、前記ユーザにより選定された第1画像を表示するステップであって、前記第1画像はキャリブレーション対象のカメラにより撮像された画像であるステップと、
    前記ユーザの第2画像取り込み操作に応答して、前記ユーザにより選定された第2画像及び第3画像を融合して、得られた融合画像を表示するステップであって、前記第2画像は前記第1画像が示す対象領域を含む高精細地図画像であり、前記第3画像は前記対象領域を含む反射率画像であるステップと、
    前記ユーザの前記第1画像及び/又は前記融合画像に対する点選択操作に応答して、前記ユーザにより選定された点を前記第1画像及び/又は前記融合画像に表示するステップと、
    選定された点の座標を出力するステップと、を含む情報を出力するための方法。
  2. 前記ユーザにより選定された第2画像及び第3画像を融合するステップは、
    高精細地図画像における画素点の座標及び反射率画像における画素点の座標に基づいて、前記第2画像及び前記第3画像を融合することを含む請求項1に記載の方法。
  3. 前記点選択操作は、前記第1画像に対する第1点選択操作と、前記融合画像に対する第2点選択操作とを含み、
    前記ユーザの前記第1画像及び/又は前記融合画像に対する点選択操作に応答して、前記ユーザにより選定された点を前記第1画像及び/又は前記融合画像に表示するステップは、
    前記第1点選択操作及び前記第1点選択操作の後の第2点選択操作に応答して、前記第1点選択操作が指示する第1点と前記第2点選択操作が指示する第2点とをマッチング点ペアとすることと、
    前記第1画像及び前記融合画像において前記マッチング点ペアを関連付けて表示することとを含む請求項1に記載の方法。
  4. 前記方法は、
    前記マッチング点ペアに対する追加操作に応答して、前記マッチング点ペアを予め設定されたマッチング点ペアの集合に追加するステップと、
    前記マッチング点ペアの集合に対する記憶操作に応答して、前記マッチング点ペアの集合をローカルで記憶するステップとをさらに含む請求項3に記載の方法。
  5. 前記点選択操作は、前記第1画像又は前記融合画像に対する第3点選択操作及び第4点選択操作を含み、
    前記ユーザの前記第1画像及び/又は前記融合画像に対する点選択操作に応答して、前記ユーザにより選定された点を前記第1画像及び/又は前記融合画像に表示するステップは、
    前記第3点選択操作に応答して、前記第3点選択操作が指示する第3点を補助線の始点とすることと、
    前記第4点選択操作に応答して、前記第4点選択操作が指示する第4点を補助線の終点とすることと、
    前記始点及び前記終点に対する線引き操作に応答して、前記始点と前記終点を連結することと、
    前記始点、前記終点及び連結された直線を前記第1画像又は前記融合画像に表示することと、を含む請求項4に記載の方法。
  6. 前記方法は、
    前記ユーザの選定された点に対するキャンセル操作に応答して、キャンセル対象の点を再び表示しないステップをさらに含む請求項1に記載の方法。
  7. カメラをキャリブレーションするための方法であって、
    キャリブレーション対象のカメラにより撮像された画像である第1画像と、前記第1画像が示す対象領域を含む高精細地図画像である第2画像と、前記対象領域を含む反射率画像である第3画像とを取得するステップと、
    前記第2画像及び前記第3画像を融合して、融合画像を得るステップと、
    前記第1画像及び前記融合画像においてユーザにより選定された点に基づいて、マッチング点ペアを確定するステップと、
    前記マッチング点ペアの座標に基づいて、前記キャリブレーション対象のカメラをキャリブレーションするステップと、を含むカメラをキャリブレーションするための方法。
  8. 前記第2画像及び前記第3画像を融合して、融合画像を得るステップは、
    高精細地図画像における画素点の座標及び反射率画像における画素点それぞれの座標に基づいて、前記第2画像及び前記第3画像を融合することを含む請求項7に記載の方法。
  9. 前記第1画像及び前記融合画像においてユーザにより選定された点に基づいて、マッチング点ペアを確定するステップは、
    ユーザにより前記第1画像において選定された第1点及び前記第1点の選定後に前記融合画像において選定された第2点を確定することと、
    前記第1点及び前記第2点をマッチング点ペアとすることと、を含む請求項7に記載の方法。
  10. 前記方法は、
    前記マッチング点ペアを予め設定されたマッチング点ペアの集合に追加するステップと、
    前記マッチング点ペアの集合をローカルで記憶するステップと、をさらに含む請求項9に記載の方法。
  11. 情報を出力するための装置であって、
    ユーザの第1画像取り込み操作に応答して、前記ユーザにより選定された第1画像を表示するように構成される第1表示ユニットであって、前記第1画像はキャリブレーション対象のカメラにより撮像された画像である第1表示ユニットと、
    前記ユーザの第2画像取り込み操作に応答して、前記ユーザにより選定された第2画像及び第3画像を融合して、得られた融合画像を表示するように構成される第2表示ユニットであって、前記第2画像は前記第1画像が示す対象領域を含む高精細地図画像であり、前記第3画像は前記対象領域を含む反射率画像である第2表示ユニットと、
    前記ユーザの前記第1画像及び/又は前記融合画像に対する点選択操作に応答して、前記ユーザにより選定された点を前記第1画像及び/又は前記融合画像に表示するように構成される点選択ユニットと、
    選定された点の座標を出力するように構成される出力ユニットと、を含む情報を出力するための装置。
  12. 前記第2表示ユニットはさらに、
    前記高精細地図画像における画素点の座標及び反射率画像における画素点の座標に基づいて、前記第2画像及び前記第3画像を融合するように構成される請求項11に記載の装置。
  13. 前記点選択操作は、前記第1画像に対する第1点選択操作と、前記融合画像に対する第2点選択操作とを含み、
    前記第2表示ユニットはさらに、
    前記第1点選択操作及び前記第1点選択操作の後の第2点選択操作に応答して、前記第1点選択操作が指示する第1点と前記第2点選択操作が指示する第2点とをマッチング点ペアとし、
    前記第1画像及び前記融合画像において前記マッチング点ペアを関連付けて表示するように構成される請求項11に記載の装置。
  14. 前記装置は、
    前記マッチング点ペアに対する追加操作に応答して、前記マッチング点ペアを予め設定されたマッチング点ペアの集合に追加するように構成される追加ユニットと、
    前記マッチング点ペアの集合に対する記憶操作に応答して、前記マッチング点ペアの集合をローカルで記憶するように構成される記憶ユニットと、をさらに含む請求項13に記載の装置。
  15. 前記点選択操作は、前記第1画像又は前記融合画像に対する第3点選択操作及び第4点選択操作を含み、
    前記第2表示ユニットはさらに、
    前記第3点選択操作に応答して、前記第3点選択操作が指示する第3点を補助線の始点とし、
    前記第4点選択操作に応答して、前記第4点選択操作が指示する第4点を補助線の終点とし、
    前記始点及び前記終点に対する線引き操作に応答して、前記始点と前記終点を連結し、
    前記始点、前記終点及び連結された直線を前記第1画像又は前記融合画像に表示するように構成される請求項14に記載の装置。
  16. 前記装置は、
    前記ユーザの選定された点に対するキャンセル操作に応答して、キャンセル対象の点を再び表示しないように構成されるキャンセルユニットをさらに含む請求項11に記載の装置。
  17. カメラをキャリブレーションするための装置であって、
    キャリブレーション対象のカメラにより撮像された画像である第1画像と、前記第1画像が示す対象領域を含む高精細地図画像である第2画像と、前記対象領域を含む反射率画像である第3画像とを取得するように構成される取得ユニットと、
    前記第2画像及び前記第3画像を融合して、融合画像を得るように構成される融合ユニットと、
    前記第1画像及び前記融合画像においてユーザにより選定された点に基づいて、マッチング点ペアを確定するように構成される確定ユニットと、
    前記マッチング点ペアの座標に基づいて、前記キャリブレーション対象のカメラをキャリブレーションするように構成されるキャリブレーションユニットと、を含むカメラをキャリブレーションするための装置。
  18. 前記融合ユニットはさらに、
    高精細地図画像における画素点の座標及び反射率画像における画素点それぞれの座標に基づいて、前記第2画像及び前記第3画像を融合するように構成される請求項17に記載の装置。
  19. 前記確定ユニットはさらに、
    ユーザにより前記第1画像において選定された第1点及び前記第1点の選定後に前記融合画像において選定された第2点を確定し、
    前記第1点及び前記第2点をマッチング点ペアとするように構成される請求項17に記載の装置。
  20. 前記装置は、
    前記マッチング点ペアを予め設定されたマッチング点ペアの集合に追加するように構成される追加ユニットと、
    前記マッチング点ペアの集合をローカルで記憶するように構成される記憶ユニットと、をさらに含む請求項19に記載の装置。
  21. 1つ又は複数のプロセッサと、
    1つ又は複数のプログラムが格納されている記憶装置と、を含む電子機器であって、
    前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサによって実行される場合に、前記1つ又は複数のプロセッサに請求項1〜6のいずれか一項に記載の方法を実現させる電子機器。
  22. 1つ又は複数のプロセッサと、
    1つ又は複数のプログラムが格納されている記憶装置と、を含む電子機器であって、
    前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサによって実行される場合に、前記1つ又は複数のプロセッサに請求項7〜10のいずれか一項に記載の方法を実現させる電子機器。
  23. コンピュータプログラムが格納されているコンピュータ可読媒体であって、
    該プログラムがプロセッサによって実行される場合に、請求項1〜6のいずれか一項に記載の方法を実現するコンピュータ可読媒体。
  24. コンピュータプログラムが格納されているコンピュータ可読媒体であって、
    該プログラムがプロセッサによって実行される場合に、請求項7〜10のいずれか一項に記載の方法を実現するコンピュータ可読媒体。
JP2020034870A 2019-09-24 2020-03-02 情報出力及びカメラキャリブレーションのための方法並びに装置 Pending JP2021051717A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910907183.8 2019-09-24
CN201910907183.8A CN112634371B (zh) 2019-09-24 2019-09-24 用于输出信息、标定相机的方法和装置

Publications (1)

Publication Number Publication Date
JP2021051717A true JP2021051717A (ja) 2021-04-01

Family

ID=69960382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020034870A Pending JP2021051717A (ja) 2019-09-24 2020-03-02 情報出力及びカメラキャリブレーションのための方法並びに装置

Country Status (4)

Country Link
US (2) US11216977B2 (ja)
EP (1) EP3798987A1 (ja)
JP (1) JP2021051717A (ja)
CN (1) CN112634371B (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007225628A (ja) * 2004-03-31 2007-09-06 Pioneer Electronic Corp 地図生成装置
JP2008203940A (ja) * 2007-02-16 2008-09-04 Hitachi Ltd 立体地図表示システム、立体地図の表示方法、及びそのプログラム
JP2011018094A (ja) * 2009-07-07 2011-01-27 Nec Corp 巡回警備支援システム、方法及びプログラム
JP2017090420A (ja) * 2015-11-17 2017-05-25 パナソニックIpマネジメント株式会社 3次元情報復元装置及び3次元情報復元方法
JP2017097770A (ja) * 2015-11-27 2017-06-01 富士通株式会社 カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム
JP2018148422A (ja) * 2017-03-06 2018-09-20 キヤノン株式会社 情報処理システム、情報処理装置、情報処理方法ならびに情報処理方法をコンピュータに実行させるプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002274305A (ja) 2001-03-22 2002-09-25 Toshiba Corp 車両のトラブル処理支援システムおよびその支援方法ならびに車両の運転支援システムおよびその支援方法
US8031210B2 (en) * 2007-09-30 2011-10-04 Rdv Systems Ltd. Method and apparatus for creating a composite image
US8193909B1 (en) * 2010-11-15 2012-06-05 Intergraph Technologies Company System and method for camera control in a surveillance system
US10163031B2 (en) * 2012-02-29 2018-12-25 RetailNext, Inc. Method and system for full path analysis
CN102636159B (zh) * 2012-04-18 2014-05-07 中国人民解放军总参谋部测绘研究所 多镜头航天线阵相机系统在轨几何自检校方法
CN103247075B (zh) * 2013-05-13 2015-08-19 北京工业大学 基于变分机制的室内环境三维重建方法
FR3031406B1 (fr) 2015-01-05 2017-07-28 Valeo Schalter & Sensoren Gmbh Architecture pour systeme d'aide a la conduite a automatisation conditionnelle
DE102015209565A1 (de) 2015-05-26 2016-12-01 Robert Bosch Gmbh Vorrichtung und Verfahren zum Betreiben eines Kraftfahrzeugs
CN106485655A (zh) * 2015-09-01 2017-03-08 张长隆 一种基于四旋翼飞行器航拍地图生成系统及方法
WO2017208503A1 (ja) * 2016-05-30 2017-12-07 三菱電機株式会社 地図データ更新装置、地図データ更新方法および地図データ更新プログラム
US10186075B2 (en) * 2016-11-30 2019-01-22 Adcor Magnet Systems, Llc System, method, and non-transitory computer-readable storage media for generating 3-dimensional video images
JP6546617B2 (ja) 2017-05-18 2019-07-17 矢崎総業株式会社 電力分配システム
WO2018230132A1 (ja) 2017-06-12 2018-12-20 株式会社オートネットワーク技術研究所 分配器及び車載システム
CN107463918B (zh) * 2017-08-17 2020-04-24 武汉大学 基于激光点云与影像数据融合的车道线提取方法
JP6664363B2 (ja) 2017-10-27 2020-03-13 本田技研工業株式会社 電力供給装置及び車両
JP2019083450A (ja) 2017-10-31 2019-05-30 株式会社デンソー 通信システム及びゲートウェイ
JP6878324B2 (ja) 2018-01-31 2021-05-26 日立Astemo株式会社 車載ネットワークシステム、電子制御装置
CN110622213B (zh) * 2018-02-09 2022-11-15 百度时代网络技术(北京)有限公司 利用3d语义地图进行深度定位和分段的系统和方法
US11365976B2 (en) * 2018-03-02 2022-06-21 Nvidia Corporation Semantic label based filtering of objects in an image generated from high definition map data
CN108596979A (zh) * 2018-03-27 2018-09-28 深圳市智能机器人研究院 一种用于激光雷达和深度相机的标定装置和方法
CN108986169A (zh) * 2018-07-06 2018-12-11 北京字节跳动网络技术有限公司 用于处理图像的方法和装置
CN110263209B (zh) * 2019-06-27 2021-07-09 北京百度网讯科技有限公司 用于生成信息的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007225628A (ja) * 2004-03-31 2007-09-06 Pioneer Electronic Corp 地図生成装置
JP2008203940A (ja) * 2007-02-16 2008-09-04 Hitachi Ltd 立体地図表示システム、立体地図の表示方法、及びそのプログラム
JP2011018094A (ja) * 2009-07-07 2011-01-27 Nec Corp 巡回警備支援システム、方法及びプログラム
JP2017090420A (ja) * 2015-11-17 2017-05-25 パナソニックIpマネジメント株式会社 3次元情報復元装置及び3次元情報復元方法
JP2017097770A (ja) * 2015-11-27 2017-06-01 富士通株式会社 カメラ位置姿勢推定装置、カメラ位置姿勢推定方法およびカメラ位置姿勢推定プログラム
JP2018148422A (ja) * 2017-03-06 2018-09-20 キヤノン株式会社 情報処理システム、情報処理装置、情報処理方法ならびに情報処理方法をコンピュータに実行させるプログラム

Also Published As

Publication number Publication date
US20210272319A1 (en) 2021-09-02
EP3798987A1 (en) 2021-03-31
US11216977B2 (en) 2022-01-04
US11593964B2 (en) 2023-02-28
US20210090295A1 (en) 2021-03-25
CN112634371A (zh) 2021-04-09
CN112634371B (zh) 2023-12-15

Similar Documents

Publication Publication Date Title
US11776185B2 (en) Server, user terminal, and service providing method, and control method thereof for displaying photo images within a map
EP3188132B1 (en) Display control device, display control method, and program
US20160169662A1 (en) Location-based facility management system using mobile device
CN114363161B (zh) 异常设备的定位方法、装置、设备及介质
KR20150088662A (ko) 증강현실 특이점을 이용한 이동 길 안내 서비스 제공 방법 및 장치
US9488489B2 (en) Personalized mapping with photo tours
JP2014009993A (ja) 情報処理システム、情報処理装置、サーバ、端末装置、情報処理方法、及びプログラム
CN114422644A (zh) 设备控制方法、装置、用户设备和计算机可读存储介质
JP6938904B2 (ja) 送信制御プログラム、送信制御方法および情報処理装置
CN110969704B (zh) 一种基于ar导视的标记生成跟踪方法及装置
US20220383457A1 (en) Motion trail update method, head-mounted display device and computer-readable medium
JP2021051717A (ja) 情報出力及びカメラキャリブレーションのための方法並びに装置
EP2574029A1 (en) Object distribution range setting device and object distribution range setting method
JP5705793B2 (ja) 拡張現実表示装置、拡張現実表示システム、拡張現実表示方法、及び拡張現実表示プログラム
CN110942521B (zh) 一种ar信息点显示方法及装置
CN114822062A (zh) 交通站点的提示方法、装置及存储介质
KR101939530B1 (ko) 지형정보 인식을 기반으로 증강현실 오브젝트를 표시하는 방법 및 그 장치
JP2011217207A (ja) 高度情報取得システム、高度情報取得装置及びプログラム
US20220412761A1 (en) Navigation method, electronic device and readable storage medium
JP6713560B1 (ja) 地番情報提供システム、地番情報提供方法
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
CN114661938A (zh) 地图数据展示方法和装置
JP2015230420A (ja) 投射型表示装置
CN115454246A (zh) 虚拟导航方法、电子设备、计算机可读介质和程序产品
JP2020123381A (ja) 地番情報提供システム、地番情報提供方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200402

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220915

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230801