JP7164706B2 - 画像繋ぎ合わせ方法及び装置、車載画像処理装置、電子機器、記憶媒体 - Google Patents

画像繋ぎ合わせ方法及び装置、車載画像処理装置、電子機器、記憶媒体 Download PDF

Info

Publication number
JP7164706B2
JP7164706B2 JP2021507821A JP2021507821A JP7164706B2 JP 7164706 B2 JP7164706 B2 JP 7164706B2 JP 2021507821 A JP2021507821 A JP 2021507821A JP 2021507821 A JP2021507821 A JP 2021507821A JP 7164706 B2 JP7164706 B2 JP 7164706B2
Authority
JP
Japan
Prior art keywords
block
input image
information
input
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021507821A
Other languages
English (en)
Other versions
JP2021533507A (ja
Inventor
シン クアン,
ニンウェン マオ,
チンゼン リ,
Original Assignee
シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド filed Critical シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド
Publication of JP2021533507A publication Critical patent/JP2021533507A/ja
Application granted granted Critical
Publication of JP7164706B2 publication Critical patent/JP7164706B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

関連出願の相互参照
本開示は、2018年8月29日に中国国家知識産権局に提出された、出願番号がCN201810998634.9で、発明の名称が「画像繋ぎ合わせ方法及び装置、車載画像処理装置、電子機器、記憶媒体」である中国特許出願の優先権を主張し、その全ての内容は援用することによって本開示に組み込まれる。
本開示は画像処理技術に関し、特に画像繋ぎ合わせ方法及び装置、車載画像処理装置、電子機器、記憶媒体に関する。
サラウンドビュースプライシングシステムは、先進運転支援システム(Advanced Driver Assistance System、ADAS)の重要な構成要素として、自動車の周囲の状況をドライバー又はインテリジェントな意思決定システムにリアルタイムで表示することができる。従来のサラウンドビュースプライシングシステムは、通常、車体の周りの複数の方位にカメラをそれぞれ取り付け、各カメラによって車体の周りの画像をそれぞれ収集し、収集した画像を融合して360度のパノラマを形成してドライバー又はインテリジェントな意思決定システムに表示する。
本開示の実施例は、サラウンドビュースプライシングの発明を提供する。
本開示の実施例の一の側面では、繋ぎ合わせ対象となる複数枚の入力画像のそれぞれの輝度補償情報を取得することであって、前記複数枚の入力画像のそれぞれは、機器の異なる箇所に設けられたマルチカメラによって対応して収集されたものであることと、各入力画像の輝度補償情報に基づいてそれぞれ入力画像を輝度補償することと、輝度補償された入力画像を繋ぎ合わせ処理して繋ぎ合わせ画像を得ることとを含む画像繋ぎ合わせ方法を提供する。
本開示の実施例の別の側面では、繋ぎ合わせ対象となる複数枚の入力画像のそれぞれの輝度補償情報を取得するための第1の取得モジュールであって、前記複数枚の入力画像のそれぞれは、マルチカメラによって対応して収集されたものである第1の取得モジュールと、各入力画像の輝度補償情報に基づいてそれぞれ入力画像を輝度補償するための補償モジュールと、輝度補償された入力画像を繋ぎ合わせ処理して繋ぎ合わせ画像を得るための繋ぎ合わせモジュールとを含む画像繋ぎ合わせ装置を提供する。
本開示の実施例の別の側面では、繋ぎ合わせ情報テーブルと、それぞれマルチカメラによって対応して収集された複数枚の入力画像とを記憶するための第1の記憶モジュールと、前記第1の記憶モジュールから繋ぎ合わせ対象となる複数枚の入力画像のそれぞれの輝度補償情報を取得することと、各出力ブロックのそれぞれについて、前記第1の記憶モジュールから前記出力ブロックに対応する入力画像における入力画像ブロックを取得することと、前記入力画像ブロックの位置する入力画像の輝度補償情報に基づいて前記入力画像ブロックを輝度補償し、輝度補償された入力画像ブロックに基づいて前記出力ブロックにおける出力画像ブロックを取得して、取得された出力画像ブロックを前記第1の記憶モジュールに順次書き戻すことと、前記繋ぎ合わせ情報テーブルに対応する1つの繋ぎ合わせ画像のすべての出力画像ブロックが前記メモリに書き戻されたことに応じて、繋ぎ合わせ画像を得ることとに用いられるコンピューティングチップとを含む車載画像処理装置を提供する。
本開示の実施例の別の側面では、コンピュータプログラムを記憶するためのメモリと、前記メモリに記憶されたコンピュータプログラムを実行するためのプロセッサであって、前記コンピュータプログラムが実行されると、本開示の上記いずれかの実施例に記載の方法を実行するプロセッサとを含む電子機器を提供する。
本開示の実施例の別の側面では、コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、当該コンピュータプログラムがプロセッサによって実行されると、本開示の上記いずれかの実施例に記載の方法を実行させるコンピュータ読み取り可能な記憶媒体を提供する。
本開示の上記実施例に係る画像繋ぎ合わせ方法及び装置、車載画像処理装置、電子機器、記憶媒体によれば、マルチカメラによって対応して収集された複数枚の入力画像を繋ぎ合わせる場合、繋ぎ合わせ対象となる当該複数枚の入力画像のそれぞれの輝度補償情報を取得し、各入力画像の輝度補償情報に基づいてそれぞれ入力画像を輝度補償し、輝度補償された入力画像を繋ぎ合わせ処理して繋ぎ合わせ画像を得る。本開示の実施例では、繋ぎ合わせ対象となる複数枚の入力画像を輝度補償することにより、繋ぎ合わせ対象となる画像の全局的な輝度補償を実現し、異なるカメラが配置された環境の光線の違い及び露光の違いによる繋ぎ合わせ対象となる複数枚の入力画像の輝度の違いにより繋ぎ合わせ画像に繋ぎ合わせの跡が生じることを解消することができるため、繋ぎ合わせ画像に示される視覚効果が向上され、当該繋ぎ合わせ画像に基づく様々な応用効果に寄与することになり、例えば、本開示の実施例が車両に適用される場合、得られた車両の運転環境を表示するための繋ぎ合わせ画像は、インテリジェント運転制御の精度の向上に寄与する。
以下、図面及び実施例を参照しながら、本開示の発明をさらに詳しく説明する。
明細書の一部をなす図面は本開示の実施例を説明し、かつその説明とともに本開示の原理の解釈に用いられる。
図面を参照しながら、以下の詳しい説明に基づいて、本開示をより明確に理解できる。
図1は、本開示の画像繋ぎ合わせ方法の一実施例のフローチャートである。 図2は、本開示の実施例における6枚の入力画像に対応する繋ぎ合わせ画像の領域例示図である。 図3は、本開示の画像繋ぎ合わせ方法の別の実施例のフローチャートである。 図4は、本開示の画像繋ぎ合わせ方法の別の実施例のフローチャートである。 図5は、本開示の画像繋ぎ合わせ装置の一実施例の構造模式図である。 図6は、本開示の画像繋ぎ合わせ装置の別の実施例の構造模式図である。 図7は、本開示の車載画像処理装置の一実施例の構造模式図である。 図8は、本開示の車載画像処理装置の別の実施例の構造模式図である。 図9は、本開示の電子機器の一適用実施例の構造模式図である。
以下、図面を参照しながら、本開示の様々な例示的実施例を詳しく説明する。なお、別途で説明しない限り、これらの実施例に説明される部材及びステップの相対的な配置、数式及び数値は、本開示の範囲を限定しない。
本開示の実施例において、「複数」は、2つ以上を指してもよく、「少なくとも1つ」は、1つ、2つ以上、一部又は全部を指してもよいことが理解されたい。
当業者なら理解できるように、本開示の実施例における「第1」、「第2」などの用語は、異なるステップ、装置やモジュールなどを区別するためのものであり、何らの特別の技術的意味もなく、それらの間の必然的な論理的順序を示すものでもない。
また、本開示の実施例において言及される任意の部材、データ又は構造は、明確な限定や文脈からの逆な示唆がない場合、通常、1つ以上と理解される。
また、本開示の各実施例の説明は、主に各実施例間の相違点を強調するものであるが、その同一点又は類似点が相互参照できるので、簡潔にするために、一々詳しく説明しないことが理解されたい。
なお、説明の便宜上、図面に示される各部分の寸法は、実際の比例関係に基づいて作成されていないことが理解されたい。
以下、少なくとも1つの例示的実施例の説明は実際には、説明的なものに過ぎず、本開示及びその適用または使用への限定にならない。
当業者に知られている技術、方法及び装置を詳しく説明しないことがあるが、適切な場合、前記技術、方法及び装置は、明細書の一部として見なされるべきである。
なお、類似する符号及び文字は以下の図面において類似項を示すため、ある項目が1つの図面において定義されると、それ以降の図面においてそれをさらに検討する必要がない。
また、本明細書における用語「及び/又は」は、単に関連対象との関連関係を記述するものであり、3つの関係が存在可能であることを示し、例えば、A及び/又はBは、Aのみが存在し、AとBの両方が存在し、Bのみが存在するという3つの場合を示してもよい。また、本開示における「/」という記号は通常、前後関連対象が「又は」の関係にあることを示す。
本開示の実施例は、端末装置、コンピュータシステム、サーバなどの電子機器に適用でき、多くの他の汎用又は専用のコンピューティングシステム環境又は配置とともに動作し得る。端末装置、コンピュータシステム、サーバなどの電子機器とともに使用するのに適した周知の端末装置、コンピューティングシステム、環境及び/又は配置の例としては、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、シッククライアント、ハンドヘルドまたはラップトップデバイス、マイクロプロセッサに基づくシステム、セットトップボックス、プログラマブル家電、ネットワークPC、小型コンピュータシステム、大型コンピュータシステム及び上記システムのいずれかを含む分散クラウドコンピューティング技術環境などが挙げられるが、これらに限定されない。
端末装置、コンピュータシステム、サーバなどの電子機器は、コンピュータシステムによって実行されるコンピュータシステム実行可能命令(プログラムモジュールなど)の一般的なコンテキストで説明されてよい。一般に、プログラムモジュールは、特定のタスクを実行するか、又は特定の抽象データタイプを実現するルーチン、プログラム、目的プログラム、コンポーネント、論理、データ構造などを含んでよい。コンピュータシステム/サーバは、分散クラウドコンピューティング環境において実施されてよく、分散クラウドコンピューティング環境において、タスクは、通信ネットワークを介して接続された遠隔処理装置によって実行される。分散クラウドコンピューティング環境において、プログラムモジュールは、記憶装置を含むローカル又はリモートなコンピューティングシステム記憶媒体にあってよい。
図1は、本開示の画像繋ぎ合わせ方法の一実施例のフローチャートである。図1に示すように、この実施例の画像繋ぎ合わせ方法は、以下のことを含む。
102.繋ぎ合わせ対象となる複数枚の入力画像のそれぞれの輝度補償情報を取得する。
複数枚の入力画像のそれぞれは、機器の異なる箇所に設けられたマルチカメラによって対応して収集されたものである。当該マルチカメラの配置位置及び方向により、当該マルチカメラによって収集された複数枚の入力画像のうち少なくとも2枚の隣接画像間に重畳領域がある、あるいは、2枚の隣接画像間ごとに重畳領域がある、例えば、いずれの2枚の隣接画像間にも重畳領域があるようにすることができる。ただし、隣接画像は、上記機器の異なる箇所のうち隣接する箇所に設けられたカメラによって収集された画像、又は繋ぎ合わせ画像における隣接する位置にある画像に対応する複数枚の入力画像である。
本開示の実施例では、マルチカメラの配置位置及び方向を限定せず、マルチカメラによって収集された複数枚の入力画像のうち少なくとも2枚の隣接画像間又は2枚の隣接画像間ごとに重畳領域があれば、本開示の実施例を採用して複数枚の入力画像の繋ぎ合わせを実現できる。
いくつかの実施形態では、マルチカメラが設けられた上記機器は、車両又はロボット、また、繋ぎ合わせ画像の取得を必要とする機器、例えば、他の交通手段などであってもよい。マルチカメラが設けられた上記機器が車両である場合、車両の長さや幅およびカメラの撮像範囲によっては、上記マルチカメラの数が4~8個であってよい。
よって、いくつかの実施形態では、上記マルチカメラには、車両のヘッドに配置された少なくとも1つのカメラと、車両のテールに配置された少なくとも1つのカメラと、車両の車体の一方側の中央領域に配置された少なくとも1つのカメラと、車両の車体の他方側の中央領域に配置された少なくとも1つのカメラとが含まれ、あるいは、上記マルチカメラには、車両のヘッドに配置された少なくとも1つのカメラと、車両のテールに配置された少なくとも1つのカメラと、車両の車体の一方側の前半部領域及び後半部領域にそれぞれ配置された少なくとも2つのカメラと、車両の車体の他方側の前半部領域及び後半部領域にそれぞれ配置された少なくとも2つのカメラとが含まれてよい。
例えば、実際の応用では、長さ及び幅が大きい車両の場合、撮像範囲が車両の周りをカバーできることを確保するために、車両のヘッド、テール及び各側にそれぞれ2つのカメラを配置し、車両の周囲に合計で8つのカメラを配置することができる。長さが大きい車両の場合、撮像範囲が車両の周りをカバーできることを確保するために、車両のヘッド及びテールにそれぞれ1つのカメラを配置し、車両の各側にそれぞれ2つのカメラを配置し、車両の周囲に合計で6つのカメラを配置することができる。長さ及び幅が小さい車両の場合、撮像範囲が車両の周りをカバーできることを確保するために、車両のヘッド、テール及び各側にそれぞれ1つのカメラを配置し、車両の周囲に合計で4つのカメラを配置することができる。
いくつかの実施形態では、上記マルチカメラは、少なくとも1つの魚眼カメラ、及び/又は、少なくとも1つの非魚眼カメラを含んでよい。
ここで、魚眼カメラは、焦点距離が16mm以下で、画角が通常、90°を超え、ひいては180°に近い又は等しいレンズであり、極端な広角レンズである。魚眼カメラを用いる場合、画角範囲が広いという利点を有し、魚眼カメラを用いる場合、少ないカメラを配置することで広範囲のシーンを撮影することが可能となる。
一選択可能な例では、動作102は、メモリに記憶された対応する命令をプロセッサが呼び出すことによって実行されてもよいし、プロセッサによって実行される第1の取得モジュールによって実行されてもよい。
104.各入力画像の輝度補償情報に基づいてそれぞれ入力画像を輝度補償する。
本開示の実施例では、画像を輝度補償し、すなわち、画像における各画素点の画素値を調整して画像の輝度における視覚効果を調整する。
一選択可能な例では、動作104は、メモリに記憶された対応する命令をプロセッサが呼び出すことによって実行されてもよいし、プロセッサによって実行される補償モジュールによって実行されてもよい。
106.輝度補償された入力画像を繋ぎ合わせ処理して繋ぎ合わせ画像を得る。
一選択可能な例では、動作106は、メモリに記憶された対応する命令をプロセッサが呼び出すことによって実行されてもよいし、プロセッサによって実行される繋ぎ合わせモジュールによって実行されてもよい。
上記実施例によれば、マルチカメラによって対応して収集された複数枚の入力画像を繋ぎ合わせる場合、繋ぎ合わせ対象となる当該複数枚の入力画像のそれぞれの輝度補償情報を取得し、各入力画像の輝度補償情報に基づいてそれぞれ入力画像を輝度補償し、輝度補償された入力画像を繋ぎ合わせ処理して繋ぎ合わせ画像を得る。本開示の実施例では、繋ぎ合わせ対象となる複数枚の入力画像を輝度補償することにより、繋ぎ合わせ対象となる画像の全局的な輝度補償を実現し、異なるカメラが配置された環境の光線の違い及び露光の違いによる繋ぎ合わせ対象となる複数枚の入力画像の輝度の違いにより繋ぎ合わせ画像に繋ぎ合わせの跡が生じることを解消することができるため、繋ぎ合わせ画像に示される視覚効果が向上され、当該繋ぎ合わせ画像に基づく様々な応用効果に寄与することになり、例えば、本開示の実施例が車両に適用される場合、得られた車両の運転環境を表示するための繋ぎ合わせ画像は、インテリジェント運転制御の精度の向上に寄与する。
いくつかの実施形態では、上記動作102は、上記複数枚の入力画像間の重畳領域に基づいて、当該複数枚の入力画像のそれぞれの輝度補償情報を決定することを含んでよい。
いくつかの実施形態では、各入力画像の輝度補償情報は、輝度補償された各入力画像間の輝度差を予め設定された輝度許容範囲内に収めるために用いられる。
あるいは、いくつかの実施形態では、各入力画像の輝度補償情報は、輝度補償された重畳領域ごとに2枚の入力画像の画素値の差分の和を、最小にする又は予め設定された誤差値よりも小さくするために用いられる。
重畳領域の撮影対象は同一であるため、輝度の比較が可能となり、本開示の実施例では、重畳領域に基づいて入力画像の輝度補償情報を決定するため、精度が高いようになり、輝度補償された各入力画像間の輝度差を予め設定された輝度許容範囲内に収める、あるいは、重畳領域ごとに2枚の入力画像の画素値の差分の和を、最小にするまたは予め設定された誤差値よりも小さくすることにより、繋ぎ合わせ画像における異なる入力画像が環境光線の違い及びカメラの露光の違いにより重畳領域に繋ぎ合わせ跡を生じることを軽減又は回避し、視覚効果を向上させることができる。
いくつかの実施形態では、上記動作104は、以下のことを含んでよい。
それぞれ出力領域における各出力ブロックについて、出力ブロックに対応する入力画像における入力画像ブロックを取得する。ここで、ある出力ブロックに対応する入力画像ブロックが隣接する入力画像間の重畳領域に属する場合、この動作において、当該出力ブロックに対応する、重畳領域を有するすべての入力画像における入力画像ブロックを取得し、重畳領域の入力画像ブロックの重ね合わせ及び繋ぎ合わせを実現する。
輝度補償された入力画像ブロックの位置する入力画像の輝度補償情報に基づいて当該入力画像ブロックを輝度補償する。
本開示の実施例では、出力領域は、繋ぎ合わせ画像の出力領域であり、出力ブロックは、当該出力領域における1つのブロックである。図2は、本開示の実施例における6枚の入力画像に対応する繋ぎ合わせ画像の領域の例示図である。図2における6枚の入力画像はそれぞれ、繋ぎ合わせ画像の出力領域(1)~(6)に対応し、当該6枚の入力画像はそれぞれ、車両の周り(例えば、車両の前方、後方、左側中前部、左側中後部、右側中前部、右側中後部に分布する)に配置されたカメラにより収集して取得されたものである。
一選択可能な例では、出力ブロックは正方形であってもよく、出力ブロックの辺長は、2のN乗であってもよい。例えば、図2では、出力ブロックのサイズは、後続の計算を容易にするために32×32である。
本開示の実施例では、入力ブロック、出力ブロック、入力画像ブロック、出力画像ブロックのサイズ単位は、画像データの読み取りや処理を容易にするために、画素であってもよい。
いくつかの選択可能な例では、上記出力ブロックに対応する入力画像における入力画像ブロックを取得することは、以下の形態により実現され得る。
出力ブロックの座標情報に対応する入力画像における入力画像ブロックの位置情報を取得する。当該位置情報は、例えば、入力画像ブロックのサイズ及びオフセットアドレスを含んでよい。入力画像ブロックのサイズ及びオフセットアドレスに基づいて入力画像における入力画像ブロックの位置を決定することができる。
入力画像ブロックの位置情報に基づいて、対応する入力画像から入力画像ブロックを取得する。
画像は、赤緑青(RGB)の3つのチャンネルを有するので、本開示のいくつかの実施形態では、各入力画像の各チャンネルはそれぞれ、1つの輝度補償情報を有し、各チャンネルにおいて、繋ぎ合わせ対象となる複数枚の入力画像の輝度補償情報は、当該チャンネルの輝度補償情報の群を形成する。それに応じて、この実施形態では、入力画像ブロックの位置する入力画像の輝度補償情報に基づいて入力画像ブロックを輝度補償することは、入力画像ブロックの各チャンネルのそれぞれについて、入力画像の当該チャンネルでの輝度補償情報で当該入力画像ブロックの各画素のチャンネルでの画素値との乗算処理を行う、すなわち、入力画像ブロックの各画素の当該チャンネルでの画素値を当該入力画像ブロックの位置する入力画像の当該チャンネルでの輝度補償情報と乗算することを含んでよい。
また、本開示の別の実施例では、入力画像ブロックの位置する入力画像の輝度補償情報に基づいて当該入力画像ブロックを輝度補償した後、輝度補償された入力画像ブロックに基づいて当該出力ブロックにおける出力画像ブロックを取得することをさらに含んでよい。それに応じて、この実施例では、輝度補償された入力画像を繋ぎ合わせ処理して繋ぎ合わせ画像を得ることは、各出力画像ブロックを繋ぎ合わせて繋ぎ合わせ画像を得ることを含んでよい。
いくつかの実施形態では、輝度補償された入力画像ブロックに基づいて出力ブロックにおける出力画像ブロックを取得することは、以下のことを含んでよい。
出力ブロックにおける各画素点の座標及び対応する入力画像ブロックにおける座標に基づいて、補間アルゴリズム(例えば、バイリニア補間アルゴリズム)によって、当該対応する入力画像ブロックを補間して当該出力ブロックにおける出力画像ブロックを得る。本開示の実施例は、補間アルゴリズムの具体的な表現形態を限定しない。
例えば、出力ブロックにおける各画素点の座標及び対応する入力画像ブロックにおける座標に基づいて、出力ブロックの注目画素点1に対応する入力画像ブロックにおける4つの関連画素の座標をそれぞれx(n)y(m)、x(n+1)y(m)、x(n)y(m+1)、x(n+1)y(m+1)として決定することができる。入力画像ブロックにおいて4つの座標における画素の画素値に基づいて、バイリニア補間アルゴリズムによって出力画像の注目画素1の画素値を算出することができる。対応する画素点の画素値に基づいて補間処理を行うことにより、注目画素点の画素値をより正確にし、出力画像をよりリアルにすることができる。
ここで、出力ブロックに対応する入力画像における入力画像ブロックが重畳領域に属する場合、入力画像ブロックを補間して出力画像ブロックを得ることは、当該出力ブロックに対応する各入力画像ブロックのそれぞれを補間し、出力ブロックに対応するすべての補間された入力画像ブロックを重ね合わせて出力画像ブロックを得ることを含んでもよい。
いくつかの選択可能な例では、出力ブロックに対応するすべての補間された入力画像ブロックを重ね合わせることは、以下のことを含んでよい。
各補間された入力画像ブロックの各チャンネルのそれぞれについて、各画素点の少なくとも2つの異なる解像度における画素値の平均値、加重値、または加重平均値を取得する。ただし、少なくとも2つの異なる解像度は、補間された入力画像ブロックの解像度と、補間された入力画像ブロックの解像度よりも低い少なくとも1つの低い解像度とを含み、例えば、補間された入力画像ブロックの解像度が32×32である場合、ここの少なくとも2つの異なる解像度は、32×32、16×16、8×8及び4×4を含んでよく、すなわち、各画素点の32×32、16×16、8×8及び4×4の解像度における画素値の平均値、加重値、または加重平均値を取得する。ここで、1つの画素点の32×32、16×16、8×8及び4×4の解像度における画素値の平均値は、当該画素点の32×32、16×16、8×8及び4×4の解像度における画素値の和の平均値である。1つの画素点の32×32、16×16、8×8及び4×4の解像度における画素値の重み係数をA、B、C、Dとすると、1つの画素点の32×32、16×16、8×8及び4×4の解像度における画素値の加重値は、当該画素点の32×32、16×16、8×8及び4×4の解像度における画素値のそれぞれと対応する重み係数A、B、C、Dのそれぞれとの積の和である。1つの画素点の32×32、16×16、8×8及び4×4の解像度における画素値の加重平均値は、当該画素点の32×32、16×16、8×8及び4×4の解像度における画素値のそれぞれと対応する重み係数A、B、C、Dのそれぞれとの積の和の平均値である。
出力ブロックに対応するすべての補間された入力画像ブロックについて、各チャンネルごとに各画素点の画素値の平均値、加重値、または加重平均値の加重重ね合わせを行う。ただし、加重重ね合わせとは、各画素点の画素値の平均値、加重値、または加重平均値に、対応する予め設定された重み係数をそれぞれ乗算して重ね合わせることを意味する。
上記実施例によれば、重畳領域について、出力ブロックに対応するすべての補間された入力画像ブロックを重ね合わせる場合、各画素点の画素値の平均値、加重値、または加重平均値の加重重ね合わせを行うことができるため、重畳領域における継ぎ目の発生が解消され、表示効果が最適化される。
本開示の画像繋ぎ合わせ方法の別の実施例では、以下のことを含んでもよい。
上記マルチカメラによって対応して収集された複数枚の収集画像から繋ぎ合わせ画像への各段変換情報に基づいて、融合変換情報を取得する。ここの各段変換情報は例えば、レンズ歪み除去情報、画角変換情報、レジストレーション情報を含んでよい。
ここで、レンズ歪み除去情報は、魚眼カメラで撮像された入力画像に対する魚眼歪み除去情報、及び/又は、非魚眼カメラで撮像された入力画像に対する歪み除去情報を含む。
魚眼カメラ又は非魚眼カメラで撮像された入力画像には歪みが存在する可能性があるので、レンズ歪み除去情報により、様々な魚眼カメラ又は非魚眼カメラで撮像された入力画像を歪み除去することができる。
いくつかの選択可能な形態では、融合変換情報は、融合変換関数として表すことができる。
以下、それぞれ魚眼歪み除去情報、画角変換情報、レジストレーション情報を説明する。
1)魚眼歪み除去情報
魚眼歪み除去情報は、入力画像に対して魚眼歪み除去動作をするために用いられる。当該魚眼歪み除去情報は、魚眼歪み除去関数という関数として表すことができ、魚眼歪み除去関数に基づいて入力画像のある画素点に対して魚眼歪み除去動作を行った座標は、以下のように示される。
Figure 0007164706000001
式(1)
f1は、魚眼歪み除去関数である。入力画像に対して画素点毎に上記式(1)に基づいて魚眼歪み除去動作を行うと、魚眼歪み除去された画像が得られる。
魚眼歪み除去動作前の入力画像のある画素点の座標を(x0,y0)とすると、半径rは、以下のように示される。
Figure 0007164706000002
式(2)
まず、以下の式(3)によって逆増幅関数Mを求める。
Figure 0007164706000003
式(3)
ただし、
Figure 0007164706000004
式(4)
ただし、kは、カメラの歪みの程度に関する定数であり、カメラの広角レンズの角度に基づいて決定することができる。
魚眼歪み除去関数に基づいて上記画素点に対して魚眼歪み除去動作を行った座標は、以下のように示される。
Figure 0007164706000005
式(5)
2)画角変換情報
繋ぎ合わせ画像の画角については、通常、鳥瞰図、正面図、または背面図であり、画角変換情報により、魚眼歪み除去された画像を画角変換し、魚眼歪み除去された画像を繋ぎ合わせ画像に必要な画角に変換することができる。画角変換情報は、画角変換関数として表すことができ、画角変換関数によって魚眼歪み除去された画像における上記画素点を画角変換した座標は、以下のように示される。
Figure 0007164706000006
式(6)
ただし、f2は、画角変換関数である。同様に、魚眼歪み除去された画像を、画素毎に変換して得られた座標に基づいて写像すると、対応する画角変換された画像を得ることができる。本開示の実施例では、以下の方法により画角変換された画像のある画素点の座標写像関係を取得することができる。
画角変換前の画像における上記画素点の座標を(x1,y1)とし、画角変換された3次元座標を(x2,y2,z2)とすると、
Figure 0007164706000007
式(7)
Figure 0007164706000008
式(8)
となる。
繋ぎ合わせ画像における上記画素点の座標を(x,y)とすると、
Figure 0007164706000009
式(9)
となる。
上記式(9)に示す方程式系には、a11、a12、a13、a21、a22、a23、a31、a32、a33、x、yの8つの未知数がある。4群の画角変換前の画像から画角変換後の画像への同一の画素点の座標の写像関係に基づいて、上記8つの未知数の数値を取得することができる。
3)レジストレーション情報
画像の繋ぎ合わせ中に、画角変換された重畳領域を有する画像を位置上で2つずつレジストレーションする必要がある。複数枚の入力画像を繋ぎ合わせる場合、そのうちのいずれかの入力画像に対応する画角変換された画像を基準画像として選択し、画角変換された重畳領域を有する画像を2つずつレジストレーションする。その後、基準画像によってレジストレーションされた画像を基準画像として順次選択する。重畳領域を有する2枚の画像をレジストレーションする場合は、予め設定された特徴抽出アルゴリズム、例えばスケール不変特徴変換(SIFT)アルゴリズムを用いて、これらの2枚の画像の重畳領域の特徴点を抽出し、そして、予め設定されたマッチングアルゴリズム、例えばランダムサンプルコンセンサス(Random sample consensus、RANSAC)アルゴリズムを用いて、抽出された2枚の画像の、通常複数のペアがある特徴点をペアリングし、さらに、ペアになっている点の座標によって、2枚の画像における非基準画像から基準画像までのアフィン変換行列
Figure 0007164706000010
を算出することができる。
本開示のいくつかの実施例では、レジストレーション情報は、レジストレーション関数として表すことができ、このレジストレーション関数に基づいて、非基準画像から基準画像への同一の画素点の座標写像関係を得ることができる。
Figure 0007164706000011
式(10)
ただし、f3は、アフィン変換行列に対応するレジストレーション関数である。ここで、アフィン変換は、2次元座標変換であり、1つの画素点のアフィン変換前の座標を(x2,y2)とし、アフィン変換前の座標を(x,y)とすると、アフィン変換の座標形式は、以下のように示される。
Figure 0007164706000012
式(11)
Figure 0007164706000013
式(12)
上記した魚眼歪み除去、画角変換、レジストレーション(アフィン変換)は、いずれも線形変換であるため、本開示の実施例では、魚眼歪み除去、画角変換、レジストレーション(アフィン変換)という3つの動作を融合する、すなわち、3つの座標変換情報の融合変換関数f4を求めることができる。そのようにして、融合変換された上記画素点の座標は、p(x,y)=f4(x0,y0)として表すことができる。当該融合変換関数に基づいて、繋ぎ合わせ画像のある画素点の元入力画像における対応する座標値を得ることができる。
本開示の画像繋ぎ合わせ方法の別の実施例では、繋ぎ合わせ情報テーブルを生成する動作を含んでもよい。例えば、以下の形態により実現することができる。
マルチカメラによって対応して収集された複数枚の収集画像から繋ぎ合わせ画像への融合変換情報に基づいて、出力ブロックにおける各画素点の座標に対応する収集画像の入力ブロックにおける画素点の座標を取得する。
入力ブロックの位置情報(例えば、サイズ及びオフセットアドレス)、および、入力ブロックが任意の2枚の収集画像の重畳領域に属するか否かを示すための重畳属性情報を取得する。
出力ブロックの順序に従って、繋ぎ合わせ情報テーブルにおいて各出力ブロックの関連情報をそれぞれ1つの情報テーブルブロックによって記録する。いくつかの実施形態では、当該出力ブロックの関連情報は、例えば、出力ブロックの位置情報(例えば、出力ブロックのサイズ、出力ブロックのオフセットアドレス)、出力ブロックに対応する入力ブロックの重畳属性情報、出力ブロックに対応する入力ブロックの属する入力画像の識別子、出力ブロックにおける各画素点の座標に対応する入力ブロックにおける画素点の座標、入力ブロックの位置情報(例えば、入力ブロックのサイズ及び入力ブロックのオフセットアドレス)を含んでよいが、これらに限定されない。
入力ブロックサイズは、入力ブロックの画素点の座標における最大値と最小値との差である。その幅w及び高さhは、w=xmax-xmin、h=ymax-yminとして表すことができる。入力ブロックのオフセットアドレスは、xmin及びyminである。xmaxは、入力ブロックの画素点の座標におけるx座標の最大値であり、xminは、入力ブロックの画素点の座標におけるx座標の最小値であり、ymaxは、入力ブロックの画素点の座標におけるy座標の最大値であり、yminは、画素点の座標におけるy座標の最小値である。
それに応じて、この実施例では、出力ブロックに対応する入力画像における入力画像ブロックを取得することは、繋ぎ合わせ情報テーブルから1つの情報テーブルブロックを順次読み取り、読み取られた情報テーブルブロックに記録されている出力ブロックの関連情報に基づいて、記録されている出力ブロックに対応する入力画像ブロックを取得することを含んでよい。
上記実施例によれば、レンズ歪み除去情報、画角変換情報、レジストレーション情報を1つの融合変換情報に融合することができ、当該融合変換情報に基づいて、入力画像と繋ぎ合わせ画像との画素点の座標の対応関係を直接算出することができ、それにより、入力画像に対する歪み除去動作、画角変換動作及びレジストレーション動作を1つの動作によって実現することができるので、算出プロセスが簡略化され、処理速度及び効率が向上される。
いくつかの実施形態では、コンピューティングチップによる読み取りを容易にするために、各画素点の座標を定量化することができ、例えば、画素点のx座標及びy座標をそれぞれ8bitの整数及び4bitの小数に定量化することにより、座標で示されるデータのサイズを節約できるだけでなく、比較的正確な座標位置を示すこともできる。例えば、入力画像ブロックにおける1つの画素点の座標が(129.1234、210.4321)である場合、定量化された座標は、(1000001.0010、11010010.0111)として表すことができる。
上記マルチカメラのうちいずれか1つ以上のカメラの位置及び/又は方向が変わると、融合変換情報が変わる可能性があり、融合情報に基づいて生成された繋ぎ合わせ情報テーブルにおける情報が変わる可能性もある。そのため、本開示のさらなる実施例では、上記マルチカメラのうちいずれか1つ以上のカメラの位置及び/又は方向の変化に応じて、融合変換情報を再取得し、繋ぎ合わせ情報テーブルを再生成する。すなわち、マルチカメラによって対応して収集された複数枚の収集画像から繋ぎ合わせ画像への各段変換情報に基づいて融合変換情報を取得する動作と、マルチカメラによって対応して収集された複数枚の収集画像から繋ぎ合わせ画像への融合変換情報に基づいて、出力ブロックにおける各画素点の座標に対応する収集画像の入力ブロックにおける画素点の座標を取得する動作と、入力ブロックの位置情報、および、入力ブロックが任意の2枚の収集画像の重畳領域に属するか否かを示すための重畳属性情報を取得する動作と、出力ブロックの順序に従って、繋ぎ合わせ情報テーブルにおいて各出力ブロックの関連情報をそれぞれ1つの情報テーブルブロックによって記録する動作とを再実行する。
また、本開示の画像繋ぎ合わせ方法の別の実施例では、マルチカメラで収集された複数枚の収集画像間の重畳領域に基づいて、当該複数枚の収集画像のそれぞれの輝度補償情報を取得して繋ぎ合わせ情報テーブル、又は繋ぎ合わせ情報テーブルの各情報テーブルブロックに記憶することを含んでもよい。
それに応じて、この実施例では、繋ぎ合わせ対象となる複数枚の入力画像のそれぞれの輝度補償情報を取得することは、繋ぎ合わせ情報テーブル又は情報テーブルブロックから同一のカメラで収集された収集画像の輝度補償情報を対応する入力画像の輝度補償情報としてそれぞれ取得することにより実現することができる。
本開示のさらなる実施例では、以下のことを含んでもよい。上記マルチカメラが配置された環境における光線の変化が所定の条件を満たす場合、例えば、上記マルチカメラが配置された環境における光線の変化が予め設定された数値よりも大きい場合、複数枚の収集画像のそれぞれの輝度補償情報を再取得するようにし、すなわち、マルチカメラで収集された複数枚の収集画像間の重畳領域に基づいて、複数枚の収集画像のそれぞれの輝度補償情報を取得する動作と、今回取得した各収集画像の輝度補償情報で繋ぎ合わせ情報テーブルにおける各収集画像の輝度補償情報を更新する動作とを再実行するようにする。
いくつかの実施形態では、マルチカメラによって収集された複数枚の収集画像間の重畳領域に基づいて、複数枚の収集画像のそれぞれの輝度補償情報を取得することは、以下のことを含んでよい。
輝度補償された上記複数枚の収集画像間の重畳領域ごとに2枚の収集画像の画素値の差分の和が最小となるように、複数枚の収集画像のそれぞれの輝度補償情報を取得する。
各カラー画像はそれぞれ、赤緑青(RGB)の3つのチャンネルを有し、いくつかの実施形態では、それぞれ収集画像の各チャンネルについて、輝度補償された複数枚の収集画像間の重畳領域ごとに2枚の収集画像のチャンネルでの画素値の差分の和が最小となるように、上記複数枚の収集画像のそれぞれのチャンネルでの輝度補償情報を取得する。すなわち、この実施例では、収集画像の各チャンネル、例えば、Rチャンネル、Gチャンネル、Bチャンネルに対応して、それぞれ、上記複数枚の収集画像のそれぞれの当該チャンネルでの輝度補償情報を含む1群の輝度補償情報を取得する。この実施例によれば、上記複数枚の収集画像のそれぞれのRチャンネル、Gチャンネル、Bチャンネルでの3群の輝度補償情報を取得することができる。
例えば、一選択可能な例では、上記複数枚の収集画像間の重畳領域ごとに2枚の収集画像の画素値の差分の和を予め設定された誤差関数で示すことができるため、当該誤差関係の関数値が最小となるときの各収集画像の輝度補償情報を取得することができる。ここで、当該誤差関数は、同一の重畳領域を有する収集画像の輝度補償情報と重畳領域における少なくとも1つの画素点の画素値との関数である。
いくつかの選択可能な例では、それぞれ収集画像の各チャンネルについて、誤差関数の関数値が最小となるときに各収集画像のチャンネルでの輝度補償情報を取得することにより、誤差関数の関数値が最小するときの各収集画像の輝度補償情報を取得することができる。この実施例では、誤差関数は、同一の重畳領域を有する収集画像の輝度補償情報と重畳領域における少なくとも1つの画素点のチャンネルでの画素値との関数である。
例えば、一選択可能な例では、図2に示す6枚の繋ぎ合わせ対象となる入力画像について、その1つのチャンネルでの誤差関数は、以下のように示される。
Figure 0007164706000014
式(13)
ただし、a1、a2、a3、a4、a5、a6はそれぞれ、当該6枚の入力画像の当該チャンネルでの輝度補償情報(輝度補償係数ともいう)を示し、p1、p2、p3、p4、p5、p6はそれぞれ、当該チャンネルに対応する当該6枚の入力画像の画素値(すなわち、R成分、G成分、B成分)の平均値を示す。e(i)の関数値が最小となる場合、当該6枚の入力画像の当該チャンネルでの視覚的差異が最小である。また、本開示の実施例では、上記式(13)に示す形態に限定されず、他の形態の誤差関数を採用してもよい。
ここで、以下の形態により、1つのチャンネルの誤差関数の関数値を取得することができる。
収集画像の1つのチャンネルについて、同一の重畳領域を有する2枚の収集画像ごとに重畳領域における画素値の加重差分値の絶対値の和、又は、同一の重畳領域を有する2枚の収集画像ごとに重畳領域における画素値の加重差分値の自乗値の和をそれぞれ取得する。
ここで、2枚の収集画像の重畳領域における画素値の加重差分値は、第1の積と第2の積との差分値を含む。第1の積は、第1の収集画像の輝度補償情報と第1の収集画像の重畳領域における少なくとも1つの画素点の画素値の和との積を含む。第2の積は、第2の収集画像の輝度補償情報と第2の収集画像の重畳領域における少なくとも1つの画素点の画素値の和との第2の積を含む。
本開示の上記実施例によれば、繋ぎ合わせ情報テーブルにおいてすべての出力ブロックの関連情報を記録してから、当該繋ぎ合わせ情報テーブルに基づいて画像繋ぎ合わせを行うと、当該繋ぎ合わせ情報テーブルをメモリに読み込むとともに、マルチカメラによってリアルタイム又は予め設定された周期で収集された繋ぎ合わせ対象となる複数枚の入力画像をメモリに読み込むことにより、適用中に当該繋ぎ合わせ情報テーブル及び入力画像を容易に読み取ることができる。
繋ぎ合わせ情報テーブルを1回だけ生成すれば、直接検索して画像繋ぎ合わせを行うことができるが、光線が変わる及び/又はカメラの位置/方向が変わる場合のみに更新する必要があるため、画像繋ぎ合わせに必要な時間を短縮することができ、低遅延や大スループットの利点を有し、繋ぎ合わせ画像の処理効率を向上させ、スマートカーのサラウンドビュースプライシングのリアルタイム性要件を満たし、繋ぎ合わせ映像の表示フレームレート及び解像度を向上させることができる。
一つの可能な実施形態では、メモリは、DDR(Double Data Rate、ダブルレート)メモリなどの様々なタイプのメモリであり得る。
図3は、本開示の画像繋ぎ合わせ方法の別の実施例のフローチャートである。図3に示すように、当該実施例の画像繋ぎ合わせ方法は、以下のことを含む。
202.繋ぎ合わせ対象となる複数枚の入力画像の重畳領域に基づいて、当該複数枚の入力画像のそれぞれの輝度補償情報を決定する。
一選択可能な例では、当該動作202は、メモリに記憶された対応する命令をプロセッサが呼び出すことによって実行されてもよいし、プロセッサによって実行される第1の取得モジュールによって実行されてもよい。
204.それぞれ繋ぎ合わせ画像の対応する領域における各出力ブロックについて、出力ブロックに対応する入力画像における入力画像ブロックを取得する。
出力ブロックに対応する入力画像ブロックが重畳領域に属する場合、当該出力ブロックに対応する、重畳領域を有するすべての入力画像における入力画像ブロックを取得する。
一選択可能な例では、当該動作204は、メモリに記憶された対応する命令をプロセッサが呼び出すことによって実行されてもよいし、プロセッサによって実行される第2の取得モジュールによって実行されてもよい。
206.入力画像ブロックの位置する入力画像の輝度補償情報に基づいて当該入力画像ブロックを輝度補償する。
一選択可能な例では、当該動作206は、メモリに記憶された対応する命令をプロセッサが呼び出すことによって実行されてもよいし、プロセッサによって実行される補償モジュールによって実行されてもよい。
208.輝度補償された入力画像ブロックに基づいて当該出力ブロックにおける出力画像ブロックを取得する。
出力ブロックに対応する入力画像における入力画像ブロックが重畳領域に属する場合、さらに、それぞれ出力画像ブロックの各チャンネルについて、各画素点の少なくとも2つの異なる解像度における画素値の平均値、加重値、または加重平均値を取得し、各画素点の画素値の平均値、加重値、または加重平均値の加重重ね合わせを行って、出力画像ブロックを得ることができる。少なくとも2つの異なる解像度は、補間された入力画像ブロックの解像度と、補間された入力画像ブロックの解像度よりも低い少なくとも1つの低い解像度とを含む。
一選択可能な例では、当該動作208は、メモリに記憶された対応する命令をプロセッサが呼び出すことによって実行されてもよいし、プロセッサによって実行される第3の取得モジュールによって実行されてもよい。
210.繋ぎ合わせ画像の対応する領域におけるすべての出力画像ブロックを繋ぎ合わせて繋ぎ合わせ画像を得る。
一選択可能な例では、当該動作210は、メモリに記憶された対応する命令をプロセッサが呼び出すことによって実行されてもよいし、プロセッサによって実行される繋ぎ合わせモジュールによって実行されてもよい。
この実施例によれば、ブロック処理の方式を用いて各出力画像ブロックをそれぞれ取得する場合、フルパイプラインを使用して入力画像の処理を高速化できるため、処理遅延がとても小さく、スループットが大きく、映像繋ぎ合わせのリアルタイム性要件を満たすことができる。
図4は、本開示の画像繋ぎ合わせ方法の別の実施例のフローチャートである。この実施例では、繋ぎ合わせ情報テーブルを予め生成しておくことを例として、本開示の実施例の画像繋ぎ合わせ方法についてさらに説明する。図4に示すように、この実施例の画像繋ぎ合わせ方法は、以下のことを含む。
302.メモリにおける繋ぎ合わせ情報テーブルから1つの情報テーブルブロックを順次読み取ってコンピューティングチップに読み込み、読み取られた情報テーブルブロックに記録されている出力ブロックの関連情報に基づいて、メモリから記録されている出力ブロックに対応する入力画像ブロックを取得してコンピューティングチップに読み込む。
当該読み取られた情報テーブルブロックに記録されている出力ブロックの関連情報に基づいて、出力ブロックに対応する入力画像における入力画像ブロックが重畳領域に属する場合、メモリから当該出力ブロックに対応する、重畳領域を有するすべての入力画像における入力画像ブロックを取得してコンピューティングチップに読み込む。
一選択可能な例では、当該動作302は、メモリに記憶された対応する命令をプロセッサが呼び出すことによって実行されてもよいし、プロセッサによって実行される第2の取得モジュールによって実行されてもよい。
304.コンピューティングチップに読み込まれた各入力画像ブロックの各チャンネルのそれぞれについて、入力画像の当該チャンネルでの輝度補償情報で当該入力画像ブロックにおける各画素を輝度補償する。すなわち、各画素の当該チャンネルでの画素値を乗算処理する。
一選択可能な例では、当該動作304は、メモリに記憶された対応する命令をプロセッサが呼び出すことによって実行されてもよいし、プロセッサによって実行される補償モジュールによって実行されてもよい。
306.コンピューティングチップに読み込まれた情報テーブルブロックに記録されている出力ブロックの関連情報に基づいて、出力ブロックに対応する入力画像における入力画像ブロックが重畳領域に属するか否かを決定する。
出力ブロックに対応する入力画像における入力画像ブロックが重畳領域に属する場合、動作308を実行する。そうでなければ、出力ブロックに対応する入力画像における入力画像ブロックが重畳領域に属しない場合、動作314を実行する。
308.出力ブロックに対応する各入力画像ブロックのそれぞれについて、当該出力ブロックにおける各画素点の座標及び対応する入力画像ブロックにおける座標を取得して当該入力画像ブロックを補間する。
310.各補間された入力画像ブロックの各チャンネルのそれぞれについて、各画素点の少なくとも2つの異なる解像度における画素値の平均値、加重値、または加重平均値を取得する。
ここで、少なくとも2つの異なる解像度は、補間された入力画像ブロックの解像度と、補間された入力画像ブロックの解像度よりも低い少なくとも1つの低い解像度とを含む。
312.出力ブロックに対応するすべての補間された入力画像ブロックについて、各チャンネルごとに各画素点の画素値の平均値、加重値、または加重平均値の加重重ね合わせを行って出力画像ブロックを得る。
その後、動作316を実行する。
314.当該出力ブロックにおける各画素点の座標及び対応する入力画像ブロックにおける座標を取得し、当該入力画像ブロックを補間して出力画像ブロックを得る。
316.得られた出力画像ブロックをメモリに順次書き戻す。
一選択可能な例では、当該動作306~316は、メモリに記憶された対応する命令をプロセッサが呼び出すことによって実行されてもよいし、プロセッサによって実行される第3の取得モジュールによって実行されてもよい。
318.繋ぎ合わせ情報テーブルに対応する1つの繋ぎ合わせ画像領域のすべての出力画像ブロックがメモリに書き戻されたことに応じて、メモリにおけるすべての出力画像ブロックについて繋ぎ合わせて繋ぎ合わせ画像を得る。
一選択可能な例では、当該動作318は、メモリに記憶された対応する命令をプロセッサが呼び出すことによって実行されてもよいし、プロセッサによって実行される繋ぎ合わせモジュールによって実行されてもよい。
いくつかの実施形態では、上記コンピューティングチップは例えば、フィールド・プログラマブル・ゲート・アレイ(Field Programmable Gata Array、FPGA)であってもよい。コンピューティングチップがFPGAである場合、動作302において、メモリにおける繋ぎ合わせ情報テーブルから1つの情報テーブルブロックを順次読み取ってFPGAのキャッシュに記憶しておくことができる。動作304~314において、FPGAのキャッシュデータを処理する。
上記実施例によれば、FPGAの内部でフルパイプラインを用いて画像の処理を高速化することができるため、処理遅延がとても小さく、スループットが大きく、映像繋ぎ合わせのリアルタイム性要件を満たすことができる。
車両に配置されたマルチカメラで撮像された入力画像は、サイズが大きく、かつリアルタイムで撮像されたものであるため、繋ぎ合わせ情報テーブルに記憶されるデータ量も大きくなる一方、FPGAは、キャッシュが小さいが、ブロック読み取りの方式に従って、メモリから情報テーブルブロック及び対応する入力画像ブロックをキャッシュに読み取ってから処理するため、画像の並列処理効率が向上される。
出力ブロックの領域が小さいと、メモリの帯域幅使用率が低い一方、FPGAの内部キャッシュ容量が限られているため、出力ブロックの領域を大きくしすぎてはいけない。本開示の実施例では、効率とFPGAのキャッシュサイズとを同時に考慮して出力ブロックのサイズを決定でき、一選択可能な例では、出力ブロックのサイズは、32×32画素である。
繋ぎ合わせ画像における画素点の座標は、局所的な離散状で元入力画像における画素点の座標に対応しているため、1ラインの出力画像は、カメラで収集された同一の入力画像において1ラインにならない。ラインバッファとは、画像を1ラインずつ処理する際に、処理効率を向上させるために使用される先入れ先出し(FIFO)技術のことであり、従来のラインバッファ方式では、1ラインの出力画像に対応する入力に多くのラインの入力画像があるため、大量のライン入力画像を読み込んでしまい、しかし、多くの画素が使用されないため、必然的にメモリ帯域の利用率が低くなり、処理効率が低下することに繋がる。本開示の実施例では、ブロック処理の方式を提案しており、繋ぎ合わせ画像の領域をまずブロック化し、それに対応する入力画像及び繋ぎ合わせ情報テーブルもブロック化する。FPGAは画像繋ぎ合わせを行う際にメモリ内の入力画像ブロック及び情報テーブルブロックを少しずつ読み取って処理するので、FPGAのキャッシュデータ量を節約し、画像繋ぎ合わせの処理効率を向上させることができる。
また、本開示の上記実施例によれば、繋ぎ合わせ画像を得た後、以下のことを含んでもよい。
繋ぎ合わせ画像を表示する、又は、繋ぎ合わせ画像に基づいて衝突警報及び/又は運転制御を行う。
本開示の実施例に係るいずれかの画像繋ぎ合わせ方法は、データ処理能力を有する任意の適切な装置により実行されてもよい。その装置としては、端末装置やサーバなどを含むが、これらに限定されない。あるいは、本開示の実施例に係るいずれかの画像繋ぎ合わせ方法は、プロセッサによって実行されてもよい。例えば、プロセッサは、メモリに記憶された対応する命令を呼び出して本開示の実施例に係るいずれかの画像繋ぎ合わせ方法を実行する。以下、このことについて詳しく説明しない。
当業者なら理解できるように、上記方法の実施例の全部又は一部のステップは、プログラムが関連ハードウェアを命令して実現され、前記プログラムは、コンピュータ読み取り可能な記憶媒体に記憶されてよく、そのプログラムは実行されると、上記方法の実施例を含むステップを実行し、前記記憶媒体は、ROM、RAM、磁気ディスクや光学ディスクなどのプログラムコードを記憶できる様々な媒体を含む。
図5は、本開示の画像繋ぎ合わせ装置の一実施例の構造模式図である。この実施例の画像繋ぎ合わせ装置は、本開示の上記各画像繋ぎ合わせ方法の実施例を実現するために用いられる。図5に示すように、この実施例の画像繋ぎ合わせ装置は、第1の取得モジュールと、補償モジュールと、繋ぎ合わせモジュールとを含む。
第1の取得モジュールは、繋ぎ合わせ対象となる複数枚の入力画像のそれぞれの輝度補償情報を取得することに用いられる。複数枚の入力画像のそれぞれは、マルチカメラによって対応して収集されたものである。
複数枚の入力画像のそれぞれは、機器の異なる箇所に設けられたマルチカメラによって対応して収集されたものである。当該マルチカメラの配置位置及び方向により、当該マルチカメラによって収集された複数枚の入力画像のうち少なくとも2枚の隣接画像間に重畳領域がある、あるいは、2枚の隣接画像間ごとに重畳領域があるようにすることができる。
いくつかの実施形態では、マルチカメラが設けられた上記機器は、車両又はロボット、また、繋ぎ合わせ画像の取得を必要とする機器、例えば、他の交通手段などであってもよい。マルチカメラが設けられた上記機器が車両である場合、車両の長さや幅およびカメラの撮像範囲によっては、上記マルチカメラの数が4~8個であってよい。
よって、いくつかの実施形態では、上記マルチカメラには、車両のヘッドに配置された少なくとも1つのカメラと、車両のテールに配置された少なくとも1つのカメラと、車両の車体の一方側の中央領域に配置された少なくとも1つのカメラと、車両の車体の他方側の中央領域に配置された少なくとも1つのカメラとが含まれ、あるいは、マルチカメラには、車両のヘッドに配置された少なくとも1つのカメラと、車両のテールに配置された少なくとも1つのカメラと、車両の車体の一方側の前半部領域及び後半部領域にそれぞれ配置された少なくとも2つのカメラと、車両の車体の他方側の前半部領域及び後半部領域にそれぞれ配置された少なくとも2つのカメラとが含まれてよい。
いくつかの実施形態では、マルチカメラは、少なくとも1つの魚眼カメラ、及び/又は、少なくとも1つの非魚眼カメラを含んでよい。
補償モジュールは、各入力画像の輝度補償情報に基づいてそれぞれ入力画像を輝度補償することに用いられる。
繋ぎ合わせモジュールは、輝度補償された入力画像を繋ぎ合わせ処理して繋ぎ合わせ画像を得ることに用いられる。
上記実施例によれば、マルチカメラによって対応して収集された複数枚の入力画像を繋ぎ合わせる場合、繋ぎ合わせ対象となる当該複数枚の入力画像のそれぞれの輝度補償情報を取得し、各入力画像の輝度補償情報に基づいてそれぞれ入力画像を輝度補償し、輝度補償された入力画像を繋ぎ合わせ処理して繋ぎ合わせ画像を得る。本開示の実施例では、繋ぎ合わせ対象となる複数枚の入力画像を輝度補償することにより、繋ぎ合わせ対象となる画像の全局的な輝度補償を実現し、異なるカメラが配置された環境の光線の違い及び露光の違いによる繋ぎ合わせ対象となる複数枚の入力画像の輝度の違いにより繋ぎ合わせ画像に繋ぎ合わせの跡が生じることを解消することができるため、繋ぎ合わせ画像に示される視覚効果が向上され、当該繋ぎ合わせ画像に基づく様々な応用効果に寄与することになり、例えば、本開示の実施例が車両に適用される場合、得られた車両の運転環境を表示するための繋ぎ合わせ画像は、インテリジェント運転制御の精度の向上に寄与する。
いくつかの実施形態では、第1の取得モジュールは、複数枚の入力画像における重畳領域に基づいて、複数枚の入力画像のそれぞれの輝度補償情報を決定することに用いられる。
各入力画像の輝度補償情報は、輝度補償された各入力画像間の輝度差を予め設定された輝度許容範囲内に収めることに用いられる。あるいは、各入力画像の輝度補償情報は、輝度補償された重畳領域ごとに2枚の入力画像の画素値の差分の和を、最小にする又は予め設定された誤差値よりも小さくすることに用いられる。
図6は、本開示の画像繋ぎ合わせ装置の別の実施例の構造模式図である。図6に示すように、図5に示す実施例と比べて、この実施例は、各出力ブロックのそれぞれについて、出力ブロックに対応する入力画像における入力画像ブロックを取得するための第2の取得モジュールをさらに含む。それに応じて、この実施例では、補償モジュールは、入力画像ブロックの位置する入力画像の輝度補償情報に基づいて入力画像ブロックを輝度補償することに用いられる。
いくつかの実施形態では、出力ブロックに対応する入力画像における入力画像ブロックが隣接する入力画像間の重畳領域に属する場合、第2の取得モジュールは、出力ブロックに対応する、重畳領域を有するすべての入力画像における入力画像ブロックを取得することに用いられる。
いくつかの実施形態では、第2の取得モジュールは、出力ブロックの座標情報に対応する入力画像における入力画像ブロックの位置情報を取得することと、入力画像ブロックの位置情報に基づいて、対応する入力画像から入力画像ブロックを取得することとに用いられる。
いくつかの実施形態では、補償モジュールは、入力画像ブロックの各チャンネルのそれぞれについて、入力画像のチャンネルでの輝度補償情報で入力画像ブロックにおける各画素のチャンネルでの画素値との乗算処理を行うことに用いられる。
また、再度図6を参照すると、本開示の画像繋ぎ合わせ装置の別の実施例では、輝度補償された入力画像ブロックに基づいて出力ブロックにおける出力画像ブロックを取得するための第3の取得モジュールを含んでもよい。それに応じて、この実施例では、繋ぎ合わせモジュールは、各出力画像ブロックを繋ぎ合わせて繋ぎ合わせ画像を得ることに用いられる。
いくつかの実施形態では、第3の取得モジュールは、出力ブロックにおける各画素点の座標及び対応する入力画像ブロックにおける座標に基づいて、入力画像ブロックを補間して出力ブロックにおける出力画像ブロックを得ることに用いられる。
いくつかの実施形態では、出力ブロックに対応する入力画像ブロックが隣接する入力画像間の重畳領域に属する場合、第3の取得モジュールは、出力ブロックにおける各画素点の座標及び対応する各入力画像ブロックにおける座標に基づいて、出力ブロックに対応する各入力画像ブロックのそれぞれを補間し、出力ブロックに対応するすべての補間された入力画像ブロックを重ね合わせて出力画像ブロックを得ることに用いられる。
一選択可能な例では、第3の取得モジュールは、出力ブロックに対応するすべての補間された入力画像ブロックを重ね合わせる際に、各補間された入力画像ブロックの各チャンネルのそれぞれについて、各画素点の少なくとも2つの異なる解像度における画素値の平均値、加重値、または加重平均値を取得することであって、少なくとも2つの異なる解像度は、補間された入力画像ブロックの解像度と、補間された入力画像ブロックの解像度よりも低い少なくとも1つの低い解像度とを含むことと、出力ブロックに対応するすべての補間された入力画像ブロックについて、各チャンネルごとに各画素点の画素値の平均値、加重値、または加重平均値の加重重ね合わせを行うこととに用いられる。
また、再度図6を参照すると、本開示の画像繋ぎ合わせ装置の別の実施例では、マルチカメラによって対応して収集された複数枚の収集画像から繋ぎ合わせ画像への融合変換情報に基づいて、出力ブロックにおける各画素点の座標に対応する収集画像の入力ブロックにおける画素点の座標を取得するための第4の取得モジュールと、入力ブロックの位置情報、および、入力ブロックが任意の2枚の収集画像の重畳領域に属するか否かを示すための重畳属性情報を取得するための第5の取得モジュールと、出力ブロックの順序に従って、繋ぎ合わせ情報テーブルにおいて各出力ブロックの関連情報をそれぞれ1つの情報テーブルブロックによって記録するための生成モジュールと、繋ぎ合わせ情報テーブルを記憶するための記憶モジュールとを含んでもよい。それに応じて、この実施例では、第2の取得モジュールは、繋ぎ合わせ情報テーブルから1つの情報テーブルブロックを順次読み取り、読み取られた情報テーブルブロックに記録されている出力ブロックの関連情報に基づいて、記録されている出力ブロックに対応する入力画像ブロックを取得することに用いられる。
ここで、出力ブロックの関連情報は例えば、出力ブロックの位置情報、出力ブロックに対応する入力ブロックの重畳属性情報、出力ブロックに対応する入力ブロックの属する入力画像の識別子、出力ブロックにおける各画素点の座標に対応する入力ブロックにおける画素点の座標、入力ブロックの位置情報を含んでよいが、これらに限定されない。
また、再度図6を参照すると、本開示の画像繋ぎ合わせ装置の別の実施例では、マルチカメラによって対応して収集された複数枚の収集画像から繋ぎ合わせ画像への各段変換情報に基づいて、融合変換情報を取得するための第6の取得モジュールを含んでもよい。各段変換情報は例えば、レンズ歪み除去情報、画角変換情報、レジストレーション情報を含んでよいが、これらに限定されない。
ここで、レンズ歪み除去情報は、魚眼カメラで撮像された入力画像に対する魚眼歪み除去情報、及び/又は、非魚眼カメラで撮像された入力画像に対する歪み除去情報を含む。
再度図6を参照すると、本願の画像繋ぎ合わせ装置の別の実施例では、マルチカメラのうちいずれか1つ以上のカメラの位置及び/又は方向が変わる場合に、マルチカメラによって対応して収集された複数枚の収集画像から繋ぎ合わせ画像への融合変換情報に基づいて、出力ブロックにおける各画素点の座標に対応する収集画像の入力ブロックにおける画素点の座標を取得するように第4の取得モジュールに指示し、入力ブロックの位置情報、および、入力ブロックが任意の2枚の収集画像の重畳領域に属するか否かを示すための重畳属性情報を取得するように第5の取得モジュールに指示し、出力ブロックの順序に従って、繋ぎ合わせ情報テーブルにおいて各出力ブロックの関連情報をそれぞれ1つの情報テーブルブロックによって記録するように生成モジュールに指示するための制御モジュールを含んでもよい。
再度図6を参照すると、本開示の画像繋ぎ合わせ装置の別の実施例では、すべての出力ブロックの関連情報を繋ぎ合わせ情報テーブルに記録した後、繋ぎ合わせ情報テーブルをメモリに読み込むことと、マルチカメラで収集された繋ぎ合わせ対象となる複数枚の入力画像をメモリに読み込むこととに用いられる読み取りモジュールを含んでもよい。それに応じて、この実施例では、第2の取得モジュールは、メモリにおける繋ぎ合わせ情報テーブルから1つの情報テーブルブロックを順次読み取ってコンピューティングチップに読み込み、読み取られた情報テーブルブロックに記録されている出力ブロックの関連情報に基づいて、メモリから記録されている出力ブロックに対応する入力画像ブロックを取得してコンピューティングチップに読み込むことに用いられる。コンピューティングチップは、補償モジュールと、繋ぎ合わせモジュールとを含む。繋ぎ合わせモジュールは、取得された出力画像ブロックをメモリに順次書き戻すことと、繋ぎ合わせ情報テーブルに対応する1つの繋ぎ合わせ画像のすべての出力画像ブロックがメモリに書き戻されると、繋ぎ合わせ画像を得ることとに用いられる。
再度図6を参照すると、本開示の画像繋ぎ合わせ装置の別の実施例では、マルチカメラによって収集された複数枚の収集画像間の重畳領域に基づいて、複数枚の収集画像のそれぞれの輝度補償情報を取得して、繋ぎ合わせ情報テーブル又は繋ぎ合わせ情報テーブルの各情報テーブルブロックに記憶するための第7の取得モジュールを含んでもよい。それに応じて、この実施例では、第1の取得モジュールは、繋ぎ合わせ情報テーブル又は情報テーブルブロックから同一のカメラで収集された収集画像の輝度補償情報を、対応する入力画像の輝度補償情報としてそれぞれ取得することに用いられる。
また、さらなる実施例では、制御モジュールはさらに、光線の変化が所定の条件を満たすことを検出すると、マルチカメラによって収集された複数枚の収集画像間の重畳領域に基づいて、複数枚の収集画像のそれぞれの輝度補償情報を取得するように第7の取得モジュールに指示し、今回取得した各収集画像の輝度補償情報で繋ぎ合わせ情報テーブルにおける各収集画像の輝度補償情報を更新することに用いられる。
いくつかの実施形態では、第7の取得モジュールは、輝度補償された複数枚の収集画像間の重畳領域ごとに2枚の収集画像の画素値の差分の和が最小となるように、複数枚の収集画像のそれぞれの輝度補償情報を取得することに用いられる。
いくつかの実施形態では、第7の取得モジュールは、それぞれ収集画像の各チャンネルについて、輝度補償された複数枚の収集画像間の重畳領域ごとに2枚の収集画像のチャンネルでの画素値の差分の和が最小となるように、複数枚の収集画像のそれぞれのチャンネルでの輝度補償情報を取得することに用いられる。
いくつかの実施形態では、第7の取得モジュールは、収集画像の1つのチャンネルについて、同一の重畳領域を有する2枚の収集画像ごとに重畳領域における画素値の加重差分値の絶対値の和、又は、同一の重畳領域を有する2枚の収集画像ごとに重畳領域における画素値の加重差分値の自乗値の和をそれぞれ取得することにより、収集画像の1つのチャンネルについて、複数枚の収集画像間の重畳領域ごとに2枚の収集画像のチャンネルでの画素値の差分の和を取得する。2枚の収集画像の重畳領域における画素値の加重差分値は、第1の積と第2の積との差分値を含み、第1の積は、第1の収集画像の輝度補償情報と第1の収集画像の重畳領域における少なくとも1つの画素点の画素値の和との積を含み、第2の積は、第2の収集画像の輝度補償情報と第2の収集画像の重畳領域における少なくとも1つの画素点の画素値の和との第2の積を含む。
再度図6を参照すると、本開示の画像繋ぎ合わせ装置の別の実施例では、繋ぎ合わせ画像を表示するための表示モジュール、及び/又は、繋ぎ合わせ画像に基づいてインテリジェント運転制御を行うためのインテリジェント運転モジュールを含んでもよい。
図7は、本開示の車載画像処理装置の一実施例の構造模式図である。この実施例の車載画像処理装置は、本開示の上記各画像繋ぎ合わせ方法の実施例を実現するために用いられる。図7に示すように、この実施例の車載画像処理装置は、
繋ぎ合わせ情報テーブルと、それぞれマルチカメラによって対応して収集された複数枚の入力画像とを記憶するための第1の記憶モジュールと、
第1の記憶モジュールから繋ぎ合わせ対象となる複数枚の入力画像のそれぞれの輝度補償情報を取得することと、各出力ブロックのそれぞれについて、第1の記憶モジュールから出力ブロックに対応する入力画像における入力画像ブロックを取得することと、入力画像ブロックの位置する入力画像の輝度補償情報に基づいて入力画像ブロックを輝度補償し、輝度補償された入力画像ブロックに基づいて出力ブロックにおける出力画像ブロックを取得して、取得された出力画像ブロックを第1の記憶モジュールに順次書き戻すことと、繋ぎ合わせ情報テーブルに対応する1つの繋ぎ合わせ画像のすべての出力画像ブロックがメモリに書き戻されたことに応じて、繋ぎ合わせ画像を得ることとに用いられるコンピューティングチップとを含む。
いくつかの実施形態では、繋ぎ合わせ情報テーブルは、少なくとも1つの情報テーブルブロックを含み、当該情報テーブルブロックは、複数枚の入力画像の輝度補償情報と、各出力ブロックの関連情報とを含み、出力ブロックの関連情報は、出力ブロックの位置情報、出力ブロックに対応する入力ブロックの重畳属性情報、出力ブロックに対応する入力ブロックの属する入力画像の識別子、出力ブロックにおける各画素点の座標に対応する入力ブロックにおける画素点の座標、入力ブロックの位置情報を含む。
いくつかの実施形態では、上記第1の記憶モジュールは、揮発性記憶モジュールを含んでよく、コンピューティングチップは、フィールド・プログラマブル・ゲート・アレイFPGAを含んでよい。
いくつかの実施形態では、上記第1の記憶モジュールは、さらに、マルチカメラによって対応して収集された複数枚の収集画像から繋ぎ合わせ画像への融合変換情報に基づいて、出力ブロックにおける各画素点の座標に対応する収集画像の入力ブロックにおける画素点の座標を取得することと、入力ブロックの位置情報、および、入力ブロックが任意の2枚の収集画像の重畳領域に属するか否かを示すための重畳属性情報を取得することと、出力ブロックの順序に従って、繋ぎ合わせ情報テーブルにおいて各出力ブロックの関連情報をそれぞれ1つの情報テーブルブロックによって記録することとに用いられる第1のアプリケーションユニットと、マルチカメラによって収集された複数枚の収集画像間の重畳領域に基づいて、複数枚の収集画像のそれぞれの輝度補償情報を取得して繋ぎ合わせ情報テーブルの各情報テーブルブロックに記憶するための第2のアプリケーションユニットとを記憶することに用いられる。
図8は、本開示の車載画像処理装置の別の実施例の構造模式図である。図8に示すように、図7に示す実施例と比べて、この実施例の車載画像処理装置は、
コンピューティングチップの実行支援情報を記憶するための不揮発性記憶モジュールと、
マルチカメラと第1の記憶モジュールとを接続し、マルチカメラによって収集された複数枚の入力画像を第1の記憶モジュールに書き込むための入力インタフェースと、
第1の記憶モジュールと表示画面とを接続し、第1の記憶モジュールにおける繋ぎ合わせ画像を表示画面に出力して表示させるための第1の出力インタフェースと、
第1の記憶モジュールとインテリジェント運転モジュールとを接続し、インテリジェント運転モジュールが繋ぎ合わせ画像に基づいてインテリジェント運転制御を行うように、第1の記憶モジュールにおける繋ぎ合わせ画像をインテリジェント運転モジュールに出力するための第2の出力インタフェースとのいずれか1つ以上のモジュールを含んでもよい。
また、本開示の実施例に係る別の電子機器は、
コンピュータプログラムを記憶するためのメモリと、
メモリに記憶されるコンピュータプログラムを実行するためのプロセッサであって、コンピュータプログラムが実行されると、本開示の上記いずれかの実施例の画像繋ぎ合わせ方法を実行するプロセッサとを含む。
図9は、本開示の電子機器の一適用実施例の構造模式図である。以下、本開示の実施例の端末装置又はサーバを実現するための電子機器の構造模式図である図9を参照する。図9に示すように、この電子機器は、1つ以上のプロセッサや通信部などを含み、前記1つ以上のプロセッサは例えば、1つ以上の中央処理ユニット(CPU)、及び/又は1つ以上の画像プロセッサ(GPU)などであり、プロセッサは、読み出し専用メモリ(ROM)に記憶された実行可能命令又は記憶部からランダムアクセスメモリ(RAM)にロードされた実行可能命令に従って、様々な適切な動作及び処理を実行することができる。通信部は、ネットワークカードを含んでよいが、これに限定されない。前記ネットワークカードは、IB(Infiniband)ネットワークカードを含んでよいが、これに限定されない。プロセッサは、読み出し専用メモリ及び/又はランダムアクセスメモリと通信して実行可能命令を実行し、バスを介して通信部に接続し、通信部を介して他の対象機器と通信し、本開示の実施例に係るいずれかの画像繋ぎ合わせ方法に対応する動作を完了することができる。例えば、繋ぎ合わせ対象となる複数枚の入力画像のそれぞれの輝度補償情報を取得し、前記複数枚の入力画像のそれぞれは、機器の異なる箇所に設けられたマルチカメラによって対応して収集されたものであり、各入力画像の輝度補償情報に基づいてそれぞれ入力画像を輝度補償し、輝度補償された入力画像を繋ぎ合わせ処理して繋ぎ合わせ画像を得る。
なお、RAMには、装置の動作に必要な様々なプログラム及びデータがさらに記憶されてもよい。CPU、ROM及びRAMは、バスを介して互いに接続されている。RAMがある場合、ROMは、オプションモジュールである。RAMは、実行可能命令を記憶する、又は、実行されると本開示の上記いずれかの画像繋ぎ合わせ方法に対応する動作をプロセッサに実行させる実行可能命令をROMに書き込む。入力/出力(I/O)インタフェースも、バスに接続されている。通信部は、集積して設けられてもよいし、複数のサブモジュール(例えば、複数のIBネットワークカード)を有しかつバスに接続されるように設けられてもよい。
キーボードやマウスなどを含む入力部、陰極線管(CRT)や、液晶ディスプレイ(LCD)、スピーカなどを含む出力部、ハードディスクなどを含む記憶部、LANカードやモデムなどのネットワークインターフェースカードを含む通信部は、I/Oインタフェースに接続されている。通信部は、例えばインターネットのネットワークを介して通信処理を行う。ドライブも必要に応じて、I/Oインタフェースに接続されている。磁気ディスク、光学ディスク、光磁気ディスク、半導体メモリなどのリムーバブルメディアは、それから読み取られたコンピュータプログラムが必要に応じて記憶部にインストールされるように、必要に応じてドライブに装着される。
図9に示すアーキテクチャは、選択可能な実施形態の1つに過ぎなく、具体的な実践中に、実際の必要に応じて、上記図9の部品の数及び種類を選択、削除、追加又は置換することができ、異なる機能部品は、個別に設けられてもよいし、集積して設けられてもよく、例えば、GPU及びCPUは、個別に設けられてもよいし、GPUをCPUに集積してもよく、通信部は、個別に設けられてもよいし、CPU又はGPUに集積して設けられてもよいことなどが注意されたい。これらの代替可能な実施形態はすべて、本開示に開示される技術的範囲内に含まれる。
特に、本開示の実施例によれば、上記フローチャートを参照して説明するプロセスは、コンピュータソフトウェアプログラムとして実現され得る。例えば、本開示の実施例は、機械可読媒体に有形に含まれるコンピュータプログラムを含むコンピュータプログラム製品を含み、コンピュータプログラムは、フローチャートに示す方法を実行するためのプログラムコードを含み、プログラムコードは、本開示のいずれかの実施例に係る画像繋ぎ合わせ方法を実行するステップに対応する命令を含んでよい。このような実施例では、このコンピュータプログラムは、通信部を介してネットワークからダウンロード及びインストールされ、及び/又はリムーバブルメディアからインストールされ得る。コンピュータプログラムは、CPUによって実行されると、本開示の実施例の画像繋ぎ合わせ方法に記載の上記機能を実行する。
また、本開示の実施例は、コンピュータ命令を含み、コンピュータ命令が機器のプロセッサにおいて実行されると、本開示の上記いずれかの実施例の画像繋ぎ合わせ方法を実行させるコンピュータプログラムをさらに提供する。
また、本開示の実施例は、コンピュータプログラムが記憶されており、当該コンピュータプログラムがプロセッサによって実行されると、本開示の上記いずれかの実施例の画像繋ぎ合わせ方法を実行させるコンピュータ読み取り可能な記憶媒体をさらに提供する。
本開示の実施例は、以下のシーンに用いることができる。
本開示の実施例は、スマートカーの運転シーンに用いることができる。支援運転シーンでは、本開示の実施例を用いて映像サラウンドビュースプライシング処理を行って、繋ぎ合わせ効果、リアルタイム性及びフレームレートの要件を満たすことができる。
ドライバーがブラインドゾーンの状況を含む自動車の周囲のリアルタイムの状況を調べる必要がある場合、本開示の実施例によれば、例えば、車をバックしてパーキングする又は道が渋滞しているときなどのドライバーの視線が遮られるときや、狭い道路を走行しているとき、繋ぎ合わせ画像をドライバーに表示することができる。
スマートカーの一部として、スマートカーの運転決定に情報を提供する。スマートカー又は自動運転自動車システムは、リアルタイムで反応するために自動車の周囲の状況を感知する必要がある。本開示の実施例によれば、歩行者検出、ターゲット検出アルゴリズムを行って、緊急時に自動車を停止させるか、又は歩行者またはターゲットを回避するように自動的に制御することができる。
本明細書の各実施例は、段階的に説明されており、各実施例の説明は、他の実施例との相違点に焦点を当てており、各実施例間の同一の又は類似する部分は、互いに参照すればよい。システム実施例は、方法実施例にほぼ対応するので、その説明は比較的簡単であり、関連する部分については、方法実施例の一部の説明を参照すればよい。
多くの形態により本開示の方法及び装置、機器を実現することができる。例えば、ソフトウェア、ハードウェア、ファームウェア、又は、ソフトウェア、ハードウェア、ファームウェアの任意の組み合わせによって本開示の方法及び装置、機器を実現することができる。前記方法のステップに用いられる上記順序は、説明のためのものに過ぎず、本開示の方法のステップは、別途で特に説明しない限り、上記に説明された順序に限定されない。また、いくつかの実施例では、さらに、本開示を記録媒体に記憶されたプログラムとして実施することができ、これらのプログラムは、本開示に係る方法を実行するための機械可読命令を含む。よって、本開示は、本開示に係る方法を実行するためのプログラムを記憶するための記録媒体をさらにカバーする。
本開示の説明は、例示および説明のためになされたものであり、網羅的なもの又は本開示を開示された形態に限定するものではない。多くの補正及び変更は、当業者にとっては自明である。実施例を選択して説明するのは、本開示の原理及び実際の応用をよりよく説明し、当業者が本開示を理解して特定の用途に適した様々な変更を伴う様々な実施例を設計できるためである。

Claims (24)

  1. 繋ぎ合わせ対象となる複数枚の入力画像のそれぞれの輝度補償情報を取得することであって、前記複数枚の入力画像のそれぞれは、機器の異なる箇所に設けられたマルチカメラによって対応して収集されたものであることと、
    各入力画像の輝度補償情報に基づいてそれぞれ入力画像を輝度補償することと、
    輝度補償された入力画像を繋ぎ合わせ処理して繋ぎ合わせ画像を得ることとを含み、
    各入力画像の輝度補償情報に基づいてそれぞれ入力画像を輝度補償することは、
    各出力ブロックのそれぞれについて、前記出力ブロックに対応する入力画像における入力画像ブロックを取得することと、
    前記入力画像ブロックの位置する入力画像の輝度補償情報に基づいて前記入力画像ブロックを輝度補償することとを含むことを特徴とする画像繋ぎ合わせ方法。
  2. 前記複数枚の入力画像のうち少なくとも2枚の隣接する画像間に重畳領域があり、または、
    前記複数枚の入力画像のうち2枚の隣接する画像間ごとに重畳領域があることを特徴とする請求項1に記載の方法。
  3. 前記マルチカメラには、車両のヘッドに配置された少なくとも1つのカメラと、前記車両のテールに配置された少なくとも1つのカメラと、前記車両の車体の一方側の中央領域に配置された少なくとも1つのカメラと、前記車両の車体の他方側の中央領域に配置された少なくとも1つのカメラとが含まれ、あるいは、
    前記マルチカメラには、前記車両のヘッドに配置された少なくとも1つのカメラと、前記車両のテールに配置された少なくとも1つのカメラと、前記車両の車体の一方側の前半部領域及び後半部領域にそれぞれ配置された少なくとも2つのカメラと、前記車両の車体の他方側の前半部領域及び後半部領域にそれぞれ配置された少なくとも2つのカメラとが含まれることを特徴とする請求項1に記載の方法。
  4. 繋ぎ合わせ対象となる複数枚の入力画像のそれぞれの輝度補償情報を取得することは、
    前記複数枚の入力画像間の重畳領域に基づいて、前記複数枚の入力画像のそれぞれの輝度補償情報を決定することを含むことを特徴とする請求項1~3のいずれか1項に記載の方法。
  5. 前記各入力画像の輝度補償情報は、輝度補償された各入力画像間の輝度差を予め設定された輝度許容範囲内に収めるために用いられ、または、
    前記各入力画像の輝度補償情報は、輝度補償された重畳領域ごとに2枚の入力画像の画素値の差分の和を、最小にする又は予め設定された誤差値よりも小さくするために用いられることを特徴とする請求項4に記載の方法。
  6. 前記出力ブロックに対応する入力画像ブロックが隣接する入力画像間の重畳領域に属する場合、前記出力ブロックに対応する入力画像における入力画像ブロックを取得することは、
    前記出力ブロックに対応する、重畳領域を有するすべての入力画像における入力画像ブロックを取得することを含ことを特徴とする請求項に記載の方法。
  7. 前記出力ブロックに対応する入力画像における入力画像ブロックを取得することは、
    前記出力ブロックの座標情報に対応する入力画像における入力画像ブロックの位置情報を取得することと、
    前記入力画像ブロックの位置情報に基づいて、前記対応する入力画像から前記入力画像ブロックを取得することとを含むことを特徴とする請求項1に記載の方法。
  8. 前記入力画像ブロックの位置する入力画像の輝度補償情報に基づいて前記入力画像ブロックを輝度補償することは、
    前記入力画像ブロックの各チャンネルのそれぞれについて、前記入力画像の前記チャンネルでの輝度補償情報で前記入力画像ブロックにおける各画素の前記チャンネルでの画素値との乗算処理を行うことを含むことを特徴とする請求項1に記載の方法。
  9. 前記入力画像ブロックの位置する入力画像の輝度補償情報に基づいて前記入力画像ブロックを輝度補償した後、前記出力ブロックにおける各画素点の座標及び対応する入力画像ブロックにおける座標に基づいて、前記入力画像ブロックを補間して前記出力ブロックにおける出力画像ブロックを得ることをさらに含み、
    輝度補償された入力画像を繋ぎ合わせ処理して繋ぎ合わせ画像を得ることは、各出力画像ブロックを繋ぎ合わせて前記繋ぎ合わせ画像を得ることを含むことを特徴とする請求項に記載の方法。
  10. 前記出力ブロックに対応する入力画像ブロックが隣接する入力画像間の重畳領域に属する場合、前記入力画像ブロックを補間して前記出力画像ブロックを得ることは、
    前記出力ブロックに対応する各前記入力画像ブロックのそれぞれを補間し、前記出力ブロックに対応するすべての補間された入力画像ブロックを重ね合わせて前記出力画像ブロックを得ることを含むことを特徴とする請求項に記載の方法。
  11. 前記出力ブロックに対応するすべての補間された入力画像ブロックを重ね合わせることは、
    各前記補間された入力画像ブロックの各チャンネルのそれぞれについて、各画素点の少なくとも2つの異なる解像度における画素値の平均値、加重値、または加重平均値を取得することであって、前記少なくとも2つの異なる解像度は、前記補間された入力画像ブロックの解像度と、前記補間された入力画像ブロックの解像度よりも低い少なくとも1つの低い解像度とを含むことと、
    前記出力ブロックに対応するすべての前記補間された入力画像ブロックについて、各チャンネルごとに各画素点の前記画素値の平均値、加重値、または加重平均値の加重重ね合わせを行うこととを含むことを特徴とする請求項10に記載の方法。
  12. 前記マルチカメラによって対応して収集された複数枚の収集画像から繋ぎ合わせ画像への融合変換情報に基づいて、出力ブロックにおける各画素点の座標に対応する収集画像の入力ブロックにおける画素点の座標を取得することと、
    前記入力ブロックの位置情報、および、前記入力ブロックが任意の2枚の収集画像の重畳領域に属するか否かを示すための重畳属性情報を取得することと、
    出力ブロックの順序に従って、繋ぎ合わせ情報テーブルにおいて各出力ブロックの関連情報をそれぞれ1つの情報テーブルブロックによって記録することとをさらに含み、
    前記出力ブロックに対応する入力画像における入力画像ブロックを取得することは、前記繋ぎ合わせ情報テーブルから情報テーブルブロックを1つずつ順次読み取り、読み取られた情報テーブルブロックに記録されている出力ブロックの関連情報に基づいて、前記記録されている出力ブロックに対応する入力画像ブロックを取得することを含むことを特徴とする請求項9~11のいずれか1項に記載の方法。
  13. 前記出力ブロックの関連情報は、出力ブロックの位置情報と、出力ブロックに対応する入力ブロックの重畳属性情報と、出力ブロックに対応する入力ブロックの属する入力画像の識別子と、出力ブロックにおける各画素点の座標に対応する入力ブロックにおける画素点の座標と、入力ブロックの位置情報とを含む、ことを特徴とする請求項12に記載の方法。
  14. マルチカメラによって対応して収集された複数枚の収集画像から繋ぎ合わせ画像への各段変換情報に基づいて、融合変換情報を取得することであって、前記各段変換情報は、レンズ歪み除去情報、画角変換情報、レジストレーション情報を含むことをさらに含むことを特徴とする請求項12に記載の方法。
  15. 前記マルチカメラのうちいずれか1つ以上のカメラの位置及び/又は方向の変化に応じて、前記マルチカメラによって対応して収集された複数枚の収集画像から繋ぎ合わせ画像への融合変換関係に基づいて、出力ブロックにおける各画素点の座標に対応する収集画像の入力ブロックにおける画素点の座標を取得する動作、前記入力ブロックの位置情報、および、前記入力ブロックが任意の2枚の収集画像の重畳領域に属するか否かを示すための重畳属性情報を取得する動作、及び出力ブロックの順序に従って、繋ぎ合わせ情報テーブルにおいて各出力ブロックの関連情報をそれぞれ1つの情報テーブルブロックによって記録する動作を、再実行することをさらに含むことを特徴とする請求項12に記載の方法。
  16. すべての出力ブロックの関連情報を繋ぎ合わせ情報テーブルに記録した後、前記繋ぎ合わせ情報テーブルをメモリに読み込むことと、
    前記マルチカメラで収集された前記繋ぎ合わせ対象となる複数枚の入力画像を前記メモリに読み込むこととをさらに含み、
    前記繋ぎ合わせ情報テーブルから情報テーブルブロックを1つずつ順次読み取り、読み取られた情報テーブルブロックに記録されている出力ブロックの関連情報に基づいて、前記記録されている出力ブロックに対応する入力画像ブロックを取得することは、前記メモリにおける前記繋ぎ合わせ情報テーブルから情報テーブルブロックを1つずつ順次読み取ってコンピューティングチップに読み込み、読み取られた情報テーブルブロックに記録されている出力ブロックの関連情報に基づいて、前記メモリから前記記録されている出力ブロックに対応する入力画像ブロックを取得して前記コンピューティングチップに読み込むことを含み、
    各出力画像ブロックを繋ぎ合わせて前記繋ぎ合わせ画像を得ることは、
    取得された出力画像ブロックを前記メモリに順次書き戻すことと、
    前記繋ぎ合わせ情報テーブルに対応する1つの繋ぎ合わせ画像のすべての出力画像ブロックが前記メモリに書き戻されたことに応じて、前記繋ぎ合わせ画像を得ることとを含むことを特徴とする請求項12に記載の方法。
  17. マルチカメラによって収集された複数枚の収集画像間の重畳領域に基づいて、前記複数枚の収集画像のそれぞれの輝度補償情報を取得して、前記繋ぎ合わせ情報テーブル又は前記繋ぎ合わせ情報テーブルの各前記情報テーブルブロックに記憶することをさらに含み、
    繋ぎ合わせ対象となる複数枚の入力画像のそれぞれの輝度補償情報を取得することは、
    前記繋ぎ合わせ情報テーブル又は前記情報テーブルブロックから同一のカメラで収集された収集画像の輝度補償情報を、対応する入力画像の輝度補償情報としてそれぞれ取得することを含むことを特徴とする請求項12~16のいずれか1項に記載の方法。
  18. 光線の変化が所定の条件を満たすことを検出したことに応じて、マルチカメラによって収集された複数枚の収集画像間の重畳領域に基づいて、前記複数枚の収集画像のそれぞれの輝度補償情報を取得する動作を再実行し、今回取得した各収集画像の輝度補償情報で前記繋ぎ合わせ情報テーブルにおける各収集画像の輝度補償情報を更新することをさらに含むことを特徴とする請求項17に記載の方法。
  19. マルチカメラによって収集された複数枚の収集画像間の重畳領域に基づいて、前記複数枚の収集画像のそれぞれの輝度補償情報を取得することは、
    収集画像の各チャンネルのそれぞれについて、輝度補償された前記複数枚の収集画像間の重畳領域ごとに2枚の収集画像の前記チャンネルでの画素値の差分の和が最小となるように、前記複数枚の収集画像のそれぞれの前記チャンネルでの輝度補償情報を取得することを含むことを特徴とする請求項17または18に記載の方法。
  20. 収集画像の1つのチャンネルについて、同一の重畳領域を有する2枚の収集画像ごとに重畳領域における画素値の加重差分値の絶対値の和、又は、同一の重畳領域を有する2枚の収集画像ごとに重畳領域における画素値の加重差分値の自乗値の和をそれぞれ取得することにより、収集画像の1つのチャンネルについて、複数枚の収集画像間の重畳領域ごとに2枚の収集画像の前記チャンネルでの画素値の差分の和を取得し、
    前記2枚の収集画像の重畳領域における画素値の加重差分値は、第1の積と第2の積との差分値を含み、前記第1の積は、第1の収集画像の輝度補償情報と前記第1の収集画像の前記重畳領域における少なくとも1つの画素点の画素値の和との積を含み、前記第2の積は、第2の収集画像の輝度補償情報と前記第2の収集画像の前記重畳領域における前記少なくとも1つの画素点の画素値の和との第2の積を含むことを特徴とする請求項19に記載の方法。
  21. 繋ぎ合わせ対象となる複数枚の入力画像のそれぞれの輝度補償情報を取得するための第1の取得モジュールであって、前記複数枚の入力画像のそれぞれは、マルチカメラによって対応して収集されたものである第1の取得モジュールと、
    各入力画像の輝度補償情報に基づいてそれぞれ入力画像を輝度補償するための補償モジュールと、
    輝度補償された入力画像を繋ぎ合わせ処理して繋ぎ合わせ画像を得るための繋ぎ合わせモジュールとを含み、
    各出力ブロックのそれぞれについて、前記出力ブロックに対応する入力画像における入力画像ブロックを取得するための第2の取得モジュールをさらに含み、
    前記補償モジュールは、前記入力画像ブロックの位置する入力画像の輝度補償情報に基づいて前記入力画像ブロックを輝度補償することを特徴とする画像繋ぎ合わせ装置。
  22. コンピュータプログラムを記憶するためのメモリと、
    前記メモリに記憶されたコンピュータプログラムを実行するためのプロセッサであって、前記コンピュータプログラムが実行されると、上記請求項1~20のいずれか1項に記載の方法を実行するプロセッサとを含むことを特徴とする電子機器。
  23. コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、当該コンピュータプログラムがプロセッサによって実行されると、上記請求項1~20のいずれか1項に記載の方法を実行させることを特徴とするコンピュータ読み取り可能な記憶媒体。
  24. コンピュータ読取可能コードを含むコンピュータプログラムであって、前記コンピュータ読取可能コードは、機器で実行されると、前記機器のプロセッサに上記請求項1~20のいずれか一項に記載の方法を実現するためのコマンドを実行させることを特徴とする記憶媒体に記憶されているコンピュータプログラム。
JP2021507821A 2018-08-29 2019-07-31 画像繋ぎ合わせ方法及び装置、車載画像処理装置、電子機器、記憶媒体 Active JP7164706B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810998634.9 2018-08-29
CN201810998634.9A CN110874817B (zh) 2018-08-29 2018-08-29 图像拼接方法和装置、车载图像处理装置、设备、介质
PCT/CN2019/098546 WO2020042858A1 (zh) 2018-08-29 2019-07-31 图像拼接方法和装置、车载图像处理装置、电子设备、存储介质

Publications (2)

Publication Number Publication Date
JP2021533507A JP2021533507A (ja) 2021-12-02
JP7164706B2 true JP7164706B2 (ja) 2022-11-01

Family

ID=69644982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021507821A Active JP7164706B2 (ja) 2018-08-29 2019-07-31 画像繋ぎ合わせ方法及び装置、車載画像処理装置、電子機器、記憶媒体

Country Status (5)

Country Link
US (1) US20210174471A1 (ja)
JP (1) JP7164706B2 (ja)
CN (1) CN110874817B (ja)
SG (1) SG11202101462WA (ja)
WO (1) WO2020042858A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL271518B2 (en) * 2019-12-17 2023-04-01 Elta Systems Ltd Radiometric corrections in the Mozika image
CN111862623A (zh) * 2020-07-27 2020-10-30 上海福赛特智能科技有限公司 一种车辆侧面图拼接装置和方法
US11978181B1 (en) 2020-12-11 2024-05-07 Nvidia Corporation Training a neural network using luminance
US11637998B1 (en) * 2020-12-11 2023-04-25 Nvidia Corporation Determination of luminance values using image signal processing pipeline
CN112714282A (zh) * 2020-12-22 2021-04-27 北京百度网讯科技有限公司 远程控制中的图像处理方法、装置、设备和程序产品
CN112668442B (zh) * 2020-12-23 2022-01-25 南京市计量监督检测院 一种基于智能图像处理的数据采集与联网方法
CN112738469A (zh) * 2020-12-25 2021-04-30 浙江合众新能源汽车有限公司 图像处理方法、设备、系统和计算机可读介质
US20240064265A1 (en) * 2020-12-31 2024-02-22 Siemens Aktiengesellschaft Image Stitching Method and Apparatus
CN112785504B (zh) * 2021-02-23 2022-12-23 深圳市来科计算机科技有限公司 一种昼夜图像融合的方法
CN113240582B (zh) * 2021-04-13 2023-12-12 浙江大华技术股份有限公司 一种图像拼接方法及装置
CN113344834B (zh) * 2021-06-02 2022-06-03 深圳兆日科技股份有限公司 图像拼接方法、装置及计算机可读存储介质
CN113658058B (zh) * 2021-07-22 2024-07-02 武汉极目智能技术有限公司 一种车载环视系统中的亮度均衡方法及系统
CN113781302B (zh) * 2021-08-25 2022-05-17 北京三快在线科技有限公司 多路图像拼接方法、系统、可读存储介质、及无人车
EP4177823A1 (en) * 2021-11-03 2023-05-10 Axis AB Producing an output image of a scene from a plurality of source images captured by different cameras
CN115460354B (zh) * 2021-11-22 2024-07-26 北京罗克维尔斯科技有限公司 图像亮度处理方法、装置、电子设备、车辆和存储介质
CN114387163A (zh) * 2021-12-10 2022-04-22 爱芯元智半导体(上海)有限公司 图像处理方法和装置
CN114897684A (zh) * 2022-04-25 2022-08-12 深圳信路通智能技术有限公司 车辆图像的拼接方法、装置、计算机设备和存储介质
CN115278068A (zh) * 2022-07-20 2022-11-01 重庆长安汽车股份有限公司 车载360全景影像系统的弱光增强方法及装置
CN115343013B (zh) * 2022-10-18 2023-01-20 湖南第一师范学院 空腔模型的压力测量方法及相关设备
CN116579927B (zh) * 2023-07-14 2023-09-19 北京心联光电科技有限公司 一种图像拼接方法、装置、设备及存储介质
CN117911287B (zh) * 2024-03-20 2024-08-02 中国科学院西安光学精密机械研究所 一种大幅壁画图像的交互式拼接修复方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014090349A (ja) 2012-10-31 2014-05-15 Clarion Co Ltd 画像処理システム及び画像処理方法

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6802614B2 (en) * 2001-11-28 2004-10-12 Robert C. Haldiman System, method and apparatus for ambient video projection
US20040151376A1 (en) * 2003-02-05 2004-08-05 Konica Minolta Holdings, Inc. Image processing method, image processing apparatus and image processing program
JP2009258057A (ja) * 2008-04-21 2009-11-05 Hamamatsu Photonics Kk 放射線像変換パネル
CN101409790B (zh) * 2008-11-24 2010-12-29 浙江大学 一种高效的多投影仪拼接融合方法
WO2010147293A1 (ko) * 2009-06-15 2010-12-23 엘지전자 주식회사 디스플레이 장치
CN101980080B (zh) * 2010-09-19 2012-05-23 华为终端有限公司 共光心摄像机、图像处理方法及装置
CN102045546B (zh) * 2010-12-15 2013-07-31 广州致远电子股份有限公司 一种全景泊车辅助系统
JP5585494B2 (ja) * 2011-02-28 2014-09-10 富士通株式会社 画像処理装置、画像処理プログラム及び画像処理方法
JP5935432B2 (ja) * 2012-03-22 2016-06-15 株式会社リコー 画像処理装置、画像処理方法及び撮像装置
US9142012B2 (en) * 2012-05-31 2015-09-22 Apple Inc. Systems and methods for chroma noise reduction
CN104091316A (zh) * 2013-04-01 2014-10-08 德尔福电子(苏州)有限公司 一种车辆鸟瞰辅助系统图像数据处理方法
CN103810686A (zh) * 2014-02-27 2014-05-21 苏州大学 无缝拼接全景辅助驾驶系统及方法
US10040394B2 (en) * 2015-06-17 2018-08-07 Geo Semiconductor Inc. Vehicle vision system
CN105072365B (zh) * 2015-07-29 2018-04-13 深圳华侨城文化旅游科技股份有限公司 一种金属幕投影下增强图像效果的方法及系统
US10033928B1 (en) * 2015-10-29 2018-07-24 Gopro, Inc. Apparatus and methods for rolling shutter compensation for multi-camera systems
CN105516614B (zh) * 2015-11-27 2019-02-05 联想(北京)有限公司 信息处理方法及电子设备
CN106994936A (zh) * 2016-01-22 2017-08-01 广州求远电子科技有限公司 一种3d全景泊车辅助系统
CN107333051B (zh) * 2016-04-28 2019-06-21 杭州海康威视数字技术股份有限公司 一种室内全景视频生成方法及装置
CN105957015B (zh) * 2016-06-15 2019-07-12 武汉理工大学 一种螺纹桶内壁图像360度全景拼接方法及系统
US10290111B2 (en) * 2016-07-26 2019-05-14 Qualcomm Incorporated Systems and methods for compositing images
US10136055B2 (en) * 2016-07-29 2018-11-20 Multimedia Image Solution Limited Method for stitching together images taken through fisheye lens in order to produce 360-degree spherical panorama
CN106683047B (zh) * 2016-11-16 2020-05-22 深圳市梦网视讯有限公司 一种全景图像的光照补偿方法和系统
CN106709868A (zh) * 2016-12-14 2017-05-24 云南电网有限责任公司电力科学研究院 一种图像拼接方法及装置
CN106713755B (zh) * 2016-12-29 2020-02-18 北京疯景科技有限公司 全景图像的处理方法及装置
CN106875339B (zh) * 2017-02-22 2020-03-27 长沙全度影像科技有限公司 一种基于长条形标定板的鱼眼图像拼接方法
CN107424179A (zh) * 2017-04-18 2017-12-01 微鲸科技有限公司 一种图像均衡方法及装置
CN107330872A (zh) * 2017-06-29 2017-11-07 无锡维森智能传感技术有限公司 用于车载环视系统的亮度均衡方法和装置
CN108228696B (zh) * 2017-08-31 2021-03-23 深圳市商汤科技有限公司 人脸图像检索方法和系统、拍摄装置、计算机存储介质
CN108205704B (zh) * 2017-09-27 2021-10-29 深圳市商汤科技有限公司 一种神经网络芯片
CN108234975A (zh) * 2017-12-29 2018-06-29 花花猫显示科技有限公司 基于摄像机的拼接墙颜色均匀性和一致性控制方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014090349A (ja) 2012-10-31 2014-05-15 Clarion Co Ltd 画像処理システム及び画像処理方法

Also Published As

Publication number Publication date
WO2020042858A1 (zh) 2020-03-05
JP2021533507A (ja) 2021-12-02
CN110874817B (zh) 2022-02-01
US20210174471A1 (en) 2021-06-10
CN110874817A (zh) 2020-03-10
SG11202101462WA (en) 2021-03-30

Similar Documents

Publication Publication Date Title
JP7164706B2 (ja) 画像繋ぎ合わせ方法及び装置、車載画像処理装置、電子機器、記憶媒体
US8290212B2 (en) Super-resolving moving vehicles in an unregistered set of video frames
US8217956B1 (en) Method and apparatus for rendering spherical panoramas
US8755624B2 (en) Image registration device and method thereof
CN109005334B (zh) 一种成像方法、装置、终端和存储介质
US20130058589A1 (en) Method and apparatus for transforming a non-linear lens-distorted image
CN109934772B (zh) 一种图像融合方法、装置及便携式终端
JP2009129001A (ja) 運転支援システム、車両、立体物領域推定方法
WO2021184302A1 (zh) 图像处理方法、装置、成像设备、可移动载体及存储介质
US9542732B2 (en) Efficient image transformation
EP3640886B1 (en) Homography rectification
Kim et al. An efficient method to build panoramic image mosaics
WO2010095460A1 (ja) 画像処理システム、画像処理方法および画像処理プログラム
US20190251677A1 (en) Homography rectification
KR101705558B1 (ko) Avm 시스템의 공차 보정 장치 및 방법
EP2446612A1 (en) Real time video stabilization
TW201839716A (zh) 環景影像的拼接方法及其系統
CN112435223B (zh) 目标检测方法、装置及存储介质
CN114742866A (zh) 图像配准方法、装置、存储介质及电子设备
CN114616586A (zh) 图像标注方法、装置、电子设备及计算机可读存储介质
WO2019198399A1 (ja) 画像処理装置および方法
EP3701490B1 (en) Method and system of fast image blending for overlapping regions in surround view
JP6750847B2 (ja) 画像処理装置およびその制御方法並びにプログラム
KR102076635B1 (ko) 산재된 고정 카메라를 이용한 파노라마 영상 생성 장치 및 방법
CN118485738B (zh) Ipm图像生成方法、装置、设备及计算机可读存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221020

R150 Certificate of patent or registration of utility model

Ref document number: 7164706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150