JP2019092156A - 重なり合う視界を有する第1の画像と第2の画像とを合成するための方法、デバイス、およびカメラ - Google Patents

重なり合う視界を有する第1の画像と第2の画像とを合成するための方法、デバイス、およびカメラ Download PDF

Info

Publication number
JP2019092156A
JP2019092156A JP2018207838A JP2018207838A JP2019092156A JP 2019092156 A JP2019092156 A JP 2019092156A JP 2018207838 A JP2018207838 A JP 2018207838A JP 2018207838 A JP2018207838 A JP 2018207838A JP 2019092156 A JP2019092156 A JP 2019092156A
Authority
JP
Japan
Prior art keywords
image
overlapping
area
camera parameters
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018207838A
Other languages
English (en)
Other versions
JP6836568B2 (ja
JP2019092156A5 (ja
Inventor
ソン ユアン,
Song Yuan
ソン ユアン,
ハンプス リンス,
Hampus Linse
ハンプス リンス,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Axis AB
Original Assignee
Axis AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Axis AB filed Critical Axis AB
Publication of JP2019092156A publication Critical patent/JP2019092156A/ja
Publication of JP2019092156A5 publication Critical patent/JP2019092156A5/ja
Application granted granted Critical
Publication of JP6836568B2 publication Critical patent/JP6836568B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images

Abstract

【課題】重なり合う視界を有する第1の画像と第2の画像とを合成するための方法を提供すること。【解決手段】第1および第2の画像は合成領域において合成される。合成領域の幅は、第1の画像をキャプチャするときに使用された第1のセットのカメラパラメータと、第2の画像をキャプチャするときに使用された第2のセットのカメラパラメータとの間の類似性に基づいて、その類似性の増大に伴って幅が減少するように選択される。【選択図】図4b

Description

本発明は、画像の合成の分野に関するものである。具体的には、重なり合う視界を有する第1の画像と第2の画像とを合成するための方法、デバイス、およびカメラに関するものである。
今日では、個々の画像を組み合わされた視界に対応する視界を有するパノラマ画像を生成するために、重なり合う視界を有するいくつかの画像をキャプチャし、それらの画像を繋ぎ合わせることが一般的となっている。たとえば、複数の画像を同時にキャプチャし、それらの画像を互いに繋ぎ合わせてパノラマ画像を提示するために、マルチセンサカメラが用いられてもよい。
画像ステッチングは一般に、重なり合う視界を有する複数の画像を結合するプロセスである。ステッチングプロセスは、いくつかのプロセス段階に分割されてもよい。最初に、画像は、変換されて整合する視点を有するように位置合わせされる。たとえば、2枚の画像が繋ぎ合わされる場合、それらの画像のうちの一方は、それらの画像のうちのもう一方の視点と整合するように変換されてもよい。次いでこの位置合わせ段階に合成段階が続き、この合成段階においては、複数の画像の画像データが、たとえば画像データの直線結合を形成することによって、画像の重なり合いとして結合される。合成の目的は、ユーザが繋ぎ合わされた画像を単一の画像として体感するように、画像同士の間の遷移をより平滑にすることである。
ステッチングプロセスの合成段階は一般に、画像同士の間に大きな重なり合いが合成される場合には特に、計算量の多いものとなる。したがって、改善の余地が存在する。
上記に鑑みると、本発明の目的はしたがって、重なり合う視界を有する第1の画像と第2の画像とを合成する計算効率のよい方式を提供することである。
本発明の第1の態様によれば、上記の目的は、重なり合う視界を有する第1の画像と第2の画像とを合成するための方法であって、
第1の画像および第1の画像をキャプチャするときに使用された第1のセットのカメラパラメータと、第2の画像および第2の画像をキャプチャするときに用いられた第2のセットのカメラパラメータとを受信することであって、
第1の画像と第2の画像は、第1の画像と第2の画像との重なり合い領域においては重なり合い、第1の画像および第2の画像の各々の非重なり合い領域においては重なり合わない視界を有し、
重なり合い領域は、第1の画像の非重なり合い領域には隣接するが、第2の画像の非重なり合い領域には隣接しない第1の部分と、第2の画像の非重なり合い領域には隣接するが、第1の画像の非重なり合い領域には隣接しない第2の部分とを有することと、
第1の部分と第2の部分との間の境界からの距離よりも近い、重なり合い領域内のピクセルとして合成領域を選択することであって、その距離は、類似性の増大に伴ってその距離が減少するように、第1のセットのカメラパラメータと第2のセットのカメラパラメータとの間の類似性に基づいて選択されることと、
第1の画像と第2の画像とを合成領域において合成することと、を含む方法によって達成される。
提案する方法は、2つの重なり合う画像が大いに異なるときには、平滑な遷移を達成するために、重なり合いの大部分においてもしくは全体において、画像を合成することが必要となるのに対し、2つの画像が類似している場合には、画像は重なり合いのうちのより小さな部分において合成されるか、もしくはいかなる部分においても全く合成されないが平滑な遷移は達成され得るという実現を利用したものである。重なり合いのうちの画像が合成される部分のサイズを類似性に基づいて変更することにより、画像はこのようにして、重なり合いのうちの、平滑な遷移を与えることが要求される部分においてのみ合成される。このように、合成は最小限に保たれ、計算資源が保存される。たとえば、重なり合い領域のうちのより小さな部分における合成でも画像間の平滑な遷移をもたらすのに十分であるときは、重なり合い領域の全体における合成に処理電力は費やされない。
さらに、画像間の類似性を測定する計算効率のよい方式は、画像をキャプチャするときに使用されたカメラパラメータを比較することであることが認識されている。たとえば、ウィンドウが第1の画像の視界にはあるが、第2の画像にはなく、画像内の光の量の差が引き起こされると仮定する。画像間のそのような差は、ゲインおよびシャッタースピードの値などのカメラパラメータから発見され得る。たとえば、第1の画像をキャプチャするイメージセンサは、第2の画像をキャプチャするイメージセンサとは異なる光量レベルを感知し、それによってカメラパラメータを別々に選択することになる。画像データ自体を評価する代わりに、カメラパラメータの類似性に基づいて画像間の類似性を判断することにより、さらなる計算資源が保存され得る。たとえば、カメラパラメータを比較することは、1つまたは少数の差を計算することなど、少数の所与の数値を比較することしか伴わないのに対し、画像データに基づいて類似性を評価することは、強度データの平均値またはヒストグラムを評価することなど、より複雑な計算につながる。
第1の画像と第2の画像とを合成することは一般に、第1の画像の画像データと第2の画像の画像データとを結合することを意味する。
第1の画像と第2の画像が重なり合う視界を有することは、シーンの同じ部分を描写するピクセルが第1および第2の画像内に存在する、すなわちそれらのピクセルが重なり合い領域内に存在することを意味する。
第1のセットのカメラパラメータと第2のセットのカメラパラメータとの間の類似性は、第1のセットのカメラパラメータの値と、対応する第2のセットのカメラパラメータの値との間の類似性を意味する。類似性は、たとえば、それらの値の間の差を計算することによって測定されてもよい。
一般に、カメラ内における画像処理の間、様々なタイプのメタデータを画像に提供することが知られている。しかしながら、それらの画像は通常、処理の最初に、すなわちイメージセンサを去るときに既に存在するメタデータを提供されない。本発明の目的のために、カメラパラメータをメタデータとして提供すると効率的となり得ることが判明している。より正確に言えば、第1のセットのカメラパラメータは第1の画像に関連付けられるメタデータとして受信されてもよく、第2のセットのカメラパラメータは第2の画像に関連付けられるメタデータとして受信されてもよい。このように、画像に関連付けられるカメラパラメータが画像と共に容易に入手可能となり、別々に受信される必要はない。
第1および第2のセットのカメラパラメータはそれぞれ、1つ以上のカメラパラメータを含んでもよい。シャッタースピード、ゲイン、およびホワイトバランスのうちの1つなど、1つのカメラパラメータでも本発明の目的には十分となり得るが、複数のカメラパラメータが使用される場合には結果がさらに改善されることが判明している。
1つ以上のカメラパラメータは、第1および第2の画像における輝度レベルに関するものであってもよい。人間の目は画像内の輝度レベルに対して特に敏感であるので、そのようなカメラパラメータを画像の類似性の尺度として使用することが有利となる。輝度レベルが同等である場合、画像は人間である観測者によって、同等であると知覚されることになる。一例として、第1および第2のセットのカメラパラメータは、シャッタースピードおよびゲインの少なくとも一方を含んでもよい。このようにして、シャッタースピードまたはゲインは、単独で用いられても、組合せで用いられてもよい。周知のように、シャッタースピードは画像内の露光を制御するものであり、したがって画像の輝度レベルだけでなく、動きのぼやけにも影響を与える。さらに、ゲインは、画像内の光のレベルを調節するものであるが、画像内のノイズにも影響を与える。したがって、シャッタースピードとゲインの両方が、画像内の輝度レベルに関連付けられる。
1つ以上のカメラパラメータはさらに、画像内におけるカラーバランスに関連付けられてもよい。具体的に言えば、第1および第2のセットのカメラパラメータはホワイトバランスを含んでもよい。カメラパラメータのホワイトバランスは単独で使用されてもよいが、好ましくは、画像の光量レベルに関連するカメラパラメータを補足するものとして使用される。
重なり合い領域においては、第1の画像の非重なり合い領域には隣接するが、第2の画像の非重なり合い領域には隣接しない、重なり合い領域のうちの第1の部分と、第2の画像の非重なり合い領域には隣接するが、第1の画像の非重なり合い領域には隣接しない、重なり合い領域のうちの第2の部分との間に境界が画定される。境界はこのようにして、重なり合い領域を第1の部分と第2の部分とに分割する。上記で説明したように、合成は、境界の周りの領域、いわゆる合成領域でのみ遂行される。境界の周りの領域は、重なり合い領域内にある、境界からの距離よりも近いピクセルとして定義されてもよい。
境界は異なる形状を取り得る。たとえば、境界は直線であってもよい。直線はしたがって、重なり合い領域を2つの部分に分割してもよい。この結果、重なり合い領域を2つの部分に分割する簡潔で、それでいて効率的な方式が得られる。しかしながら、境界がそれに代わって曲線状の形状を有する実施形態もまた予想され得る。
いくつかの実施形態では、境界は事前定義され、そのため、重なり合い領域において所与の位置を有する。たとえば、境界は、重なり合い領域の中央に位置するように事前定義されてもよい。したがって、重なり合い領域の第1の部分と第2の部分は同じサイズを有してもよい。このように、合成は重なり合い領域の中央で遂行されるが、このことは合理的であり、多くの用途に対して良好な結果をもたらす。
しかしながら、合成領域のサイズを動的に調節することが可能であるだけでなく、重なり合い領域内における合成領域の位置を動的に調節することが可能であることが好まれる状況もあり得る。このことを達成するために、本方法はさらに、重なり合い領域における境界の位置を選択することを含んでもよい。
このことが関心の対象となる状況の一例はデジタルズームに関するものであり、具体的に言えば、第1および第2の画像の一部分が、組み合わされると、デジタルにズームインされるときである。より詳細には、本方法はさらに、
第1および第2の画像のうちのデジタルにズームインされる部分にズームウィンドウが対応していることを示すデータを受信することを含み、
合成領域を選択するステップはさらに、第1および第2の画像に対するズームウィンドウのサイズおよび位置の少なくとも一方に基づいて、重なり合い領域における境界の位置を選択することを含む。
このように、たとえば、ズームインされる関心の対象となるアイテムがおそらくは存在する、結合された画像の中央またはズームウィンドウの中央に合成領域を有することを回避してもよい。
したがって、境界の位置は、ズームウィンドウが第1および第2の画像に対してどれほど大きいか、すなわちズームのレベル、ならびに、ズームウィンドウが第1および第2の画像に対してどのように位置決めされるか、たとえば、ズームウィンドウが第1の画像または第2の画像の大部分をカバーするか否かに基づいて選択されてもよい。したがって、第1および第2の画像に対するズームウィンドウの相対的な重なり合いに応じて境界の位置を選択することが可能となる。より具体的に言えば、本方法はさらに、
ズームウィンドウと第1の画像の非重なり合い部分との第1の一致面積と、ズームウィンドウと第2の画像の非重なり合い部分との第2の一致面積とを計算することを含んでもよく、
境界の位置は、第1の一致面積が第2の一致面積よりも大きい場合には、重なり合い領域の第1の部分が重なり合い領域の第2の部分よりも大きく、第1の一致面積が第2の一致面積よりも小さい場合には、重なり合い領域の第1の部分が重なり合い領域の第2の部分よりも小さくなるように選択される。
この装置構成を用いると、合成領域は、ズームウィンドウ内に有する部分がより小さい画像の非重なり合い領域に向かってシフトされる。このことは、ズームウィンドウが第1および第2の画像の重なり合い領域の全体にわたってパンされる用途において有利となり得る。ズームウィンドウが、たとえば、第1の画像の非重なり合い部分から第2の画像の非重なり合い部分に向かう方向に重なり合い領域の全体にわたってパンするとき、境界は反対方向に平滑に移動し、それによって平滑な遷移をズームウィンドウのパンに与える。たとえば、重なり合い領域における境界の位置は、重なり合い領域の第1の部分の面積と重なり合い領域の第2の部分の面積との関係が、第1の一致面積と第2の一致面積との間の関係に等しくなるように選択されてもよい。
上記によれば、境界からの距離として表現される合成領域のサイズは、カメラパラメータの類似性に基づいて選択される。これが第1の画像および第2の画像の一部分へのズームインとさらに組み合わされる場合、組み合わされるときには、合成領域のさらなる調節が遂行されなければならない可能性がある。ズームはまた合成領域のズームインを引き起こすことになるので、合成領域のサイズは好ましくは、ズームレベルの増大に伴って低減される。より詳細には、距離はさらに、第1および第2の画像に対するズームウィンドウのサイズおよび位置の少なくとも一方に基づいて選択されてもよい。
本方法は、
パノラマ画像のうちの、第1の画像の非重なり合い部分に対応する部分、および合成領域の外側の重なり合い領域の第1の部分に対応する部分においては第1の画像からの画像データを使用し、
パノラマ画像のうちの、第2の画像の非重なり合い部分に対応する部分、および合成領域の外側の重なり合い領域の第2の部分に対応する部分においては第2の画像からの画像データを使用し、
パノラマ画像のうちの合成領域に対応する部分においては合成画像データを使用することによって、第1および第2の画像からパノラマ画像を生成することをさらに含んでもよい。
このように、合成された画像データが合成領域においてのみ使用されるパノラマ画像が生成される。
第1の画像および第2の画像は、異なるイメージセンサを使用することによって同時にキャプチャされてもよい。したがって、提案する方法は有利には、マルチセンサカメラにおいて使用されてもよい。
本発明の第2の態様によれば、上記の目的は、重なり合う視界を有する第1の画像と第2の画像とを合成するためのデバイスであって、
第1の画像および第1の画像をキャプチャするときに使用された第1のセットのカメラパラメータと、第2の画像および第2の画像をキャプチャするときに用いられた第2のセットのカメラパラメータとを受信するように構成された受信機であって、
第1の画像と第2の画像は、第1の画像と第2の画像との重なり合い領域においては重なり合い、第1の画像および第2の画像の各々の非重なり合い領域においては重なり合わない視界を有し、
重なり合い領域は、第1の画像の非重なり合い領域には隣接するが、第2の画像の非重なり合い領域には隣接しない第1の部分と、第2の画像の非重なり合い領域には隣接するが、第1の画像の非重なり合い領域には隣接しない第2の部分とを有する受信機と、
第1の部分と第2の部分との間の境界からの距離よりも近い、重なり合い領域内のピクセルとして合成領域を選択するように構成された選択構成要素であって、その距離は、類似性の増大に伴ってその距離が減少するように、第1のセットのパラメータと第2のセットのカメラとの間の類似性に基づいて選択される選択構成要素と、
第1の画像と前記第2の画像とを合成領域において合成するように構成された合成構成要素と、を備えるデバイスによって達成される。
第3の態様によれば、上記の目的は、第2の態様のデバイスを含んだカメラによって達成され、そのカメラは、第1のセットのカメラパラメータを使用して第1の画像をキャプチャし、第2のセットのカメラパラメータを使用して第2の画像をキャプチャするように装置されたものである。
第4の態様によれば、上記の目的は、コンピュータコード命令を記憶し(非一時的)コンピュータ可読媒体を備えたコンピュータプログラム製品によって達成され、そのコンピュータコード命令は、処理能力を有するデバイスによって実行されると、第1の態様の方法を遂行するように適合されたものである。
第2の態様、第3および第4の態様は概して、第1の態様と同じ特徴および利点を有し得る。本発明は、特に明記しない限り、各特徴の考えられるすべての組合せに関するものであることにさらに留意されたい。
本発明の上記のならびに他の目的、特徴および利点が、添付の図面を参照しながら、本発明の実施形態の以下の例示的かつ非限定的な詳細な説明によって、より良く理解されよう。同じ参照符号が同様の要素に対して使用されることになる。
実施形態が実装され得るシステムを示している。 実施形態による合成デバイスの内部構成要素を示している。 実施形態による、重なり合う視界を有する第1の画像と第2の画像とを合成するための方法の流れ図である。 実施形態による、重なり合う視界を有する第1の画像および第2の画像を示している。 実施形態による、重なり合う視界を有する第1の画像および第2の画像を示している。 実施形態による、重なり合う視界を有する第1の画像および第2の画像を示している。 実施形態による、重なり合う視界を有する第1の画像および第2の画像を示している。 実施形態による、重なり合う視界を有する第1の画像および第2の画像、ならびにズームウィンドウを示している。 実施形態による、重なり合う視界を有する第1の画像および第2の画像、ならびにズームウィンドウを示している。 実施形態による、重なり合う視界を有する第1の画像および第2の画像、ならびにズームウィンドウを示している。 実施形態による、重なり合う視界を有する第1の画像および第2の画像、ならびにズームウィンドウを示している。
本発明について、これから、本発明の実施形態を示す添付の図面を参照して以下により詳細に説明することにする。本明細書で開示するシステムおよびデバイスについては、動作中の状態として説明することにする。
図1は、実施形態が実装され得るシステム100を示している。システム100は、1つ以上のイメージセンサ102とステッチングモジュール104とを備える。次に、ステッチングモジュール104は、位置合わせデバイス106と合成デバイス108とを備える。システム100はカメラに含められてもよい。代替的に、1つ以上のイメージセンサ102がカメラに含められてもよく、ステッチングモジュール104は、ネットワークを介してカメラと通信するクライアントデバイス内など、カメラから離れて配置されてもよい。各実施形態はまた、1つ以上のイメージセンサがワイヤによって制御ユニットに接続されるモジューラカメラシステムにおいて使用されてもよい。そのようなシステムでは、ステッチングモジュールは制御ユニットに含められてもよい。
1つ以上のイメージセンサ102は、本明細書では第1のイメージセンサ102aおよび第2のイメージセンサ102bとして示されており、第1の画像110aおよび第2の画像110bをキャプチャするように装置されている。たとえば、第1のイメージセンサ102aおよび第2のイメージセンサ102bは、それぞれ第1の画像110aと第2の画像110bを同時にキャプチャするように装置されてもよい。代替的に、第1の画像110aおよび第2の画像110bは、1つ以上のイメージセンサ102によって逐次的にキャプチャされてもよい。第1の画像110aおよび第2の画像110bは、重なり合うが同一ではない視界を有している。
1つ以上のイメージセンサ102は、第1の画像110aおよび第2の画像110bをキャプチャするときにカメラパラメータを使用する。カメラパラメータには、たとえば、シャッタースピード、ゲイン、ホワイトバランスが含まれてよい。使用されるカメラパラメータは通常、カメラが、たとえば自動露光アルゴリズムを適用することによって、自動的に設定される。
1つ以上のイメージセンサ102は、第1の画像110aおよび第2の画像110bをステッチングモジュール104に転送するように構成されている。代替的に、1つ以上のイメージセンサ102は、第1の画像110aと関連付けられる第1のセットのカメラパラメータ112a、および第2の画像110bと関連付けられる第2のセットのカメラパラメータ112bを転送するように構成される。第1のセット112aのカメラパラメータおよび第2のセット112bのカメラパラメータは、それぞれ第1の画像110aおよび第2の画像110bをキャプチャするときに1つ以上のイメージセンサ102によって使用されるカメラパラメータのうちの1つ以上を含んでいる。一例として、第1および第2のセットのカメラパラメータ112a、112bはそれぞれ、シャッタースピード、ゲイン、およびホワイトバランスのうちの1つ以上を含んでもよい。好ましくは、第1および第2のセットのカメラパラメータ112a、112bはそれぞれ、少なくともシャッタースピードとゲインとを含む。
第1および第2のセットのカメラパラメータ112a、112bは、第1の画像110aおよび第2の画像110bとは別に転送されてもよい。しかしながら、例示的な実施形態によれば、第1および第2のセットのカメラパラメータ112a、112bは、メタデータの形式で、それぞれ第1および第2の画像110a、110bと共に転送されてもよい。
位置合わせデバイス106は、第1の画像110aと第2の画像110bとを位置合わせさせるように装置されている。この位置合わせは、とりわけ、バレル補正を実行すること、画像を回転させること、および、たとえば球形または円柱形への第1の画像110aおよび第2の画像110bの投影を実行することを含んでもよい。後者は、第1および第2のイメージセンサ102a、102bが同じ位置に取り付けられていない、すなわち、シーンが異なる視点から描写されるという事実を補償するためになされるものである。これは、投影を実行し、それによってフレームが同じ視点からキャプチャされているという印象を観覧者に与えることによって補正されてもよい。適用する特定の位置合わせは通常、イメージセンサ102の初期較正の後にイメージセンサ102によってキャプチャされた各画像に対して同じである。このようにして、位置合わせは、カメラのイメージセンサ102の較正からのパラメータを基にしてなされてもよい。位置合わせ後の第1および第2の画像がそれぞれ、アイテム114aおよび114bとして示されている。
位置合わせ後、第1および第2の画像114a、114b、ならびに第1および第2のセットのカメラパラメータ112a、112bは、第1の画像114aと第2の画像114bとを合成するように装置された合成デバイス108に転送される。最後に、合成デバイス108は、第1の画像114aと第2の画像114bとの結合であるパノラマ画像116を出力してもよい。
合成デバイス108は図2により詳細に示されている。合成デバイス108は、受信機202と、選択構成要素204と、合成構成要素206とを含んでいる。
一般に、合成デバイス108は、構成要素202、204、206を、より具体的にはそれらの機能性を実装するように構成された回路を備えてもよい。
ハードウェア実装では、構成要素202、204、206の各々は、専用のものであり、かつ構成要素の機能を提供するように特定的に設計された回路に対応してもよい。この回路は、1つ以上の特定用途向け集積回路など、1つ以上の集積回路の形態をなしてもよい。一例として、合成構成要素206はこのようにして、使用中に第1の画像114aと第2の画像114bとを合成する回路を備えてもよい。
ソフトウェア実装では、回路はそれに代わって、不揮発性メモリなどの(非一時的)コンピュータ可読媒体上に記憶されたコンピュータコード命令と関連付いて、本明細書で開示される任意の方法を合成デバイス108に遂行させる、1つ以上のマイクロプロセッサなどの1つ以上のプロセッサの形態をなしてもよい。その場合、構成要素202、204、206はこのようにして、プロセッサによって実行されると構成要素の機能を合成デバイス108に遂行させる、コンピュータ可読媒体上に記憶されたコンピュータコード命令の一部分にそれぞれ対応してもよい。
ハードウェア実装とソフトウェア実装との組合せを有することもまた可能であり、すなわち、構成要素202、204、206のうちのいくつかの構成要素の機能はハードウェアに、その他はソフトウェアに実装されることを理解されたい。
回路(ハードウェアおよび/またはソフトウェア)の面から合成デバイス108の実装に関して上記で述べたことは、必要な変更を加えて位置合わせデバイス108にも当てはまる。
合成デバイスの動作について、これから、図3の流れ図、ならびに図2、4a〜4b、5a〜5b、6a〜6b、および7a〜7bを参照して説明することにする。
ステップS02において、受信機202は、第1の画像114aと、第2の画像114bと、第1のセットのカメラパラメータ112aと、第2のセットのカメラパラメータ112bとを受信する。第1のセットのカメラパラメータ112aは第1の画像114aのメタデータとして提供されてもよく、第2のセットのカメラパラメータ112bは第2の画像114bのメタデータとして提供されてもよい。上記で説明したように、受信機202によって受信された第1の画像および第2の画像114a、114bは互いに位置合わせされる。
図4aは、第1の画像114aおよび第2の画像114bを示している。第1の画像114aと第2の画像114bは、重なり合う視界を有している。具体的に言えば、第1の画像114aと第2の画像114bは、重なり合い領域402において重なり合い、第1の画像114aの非重なり合い領域404aにおいて、また第2の画像114bの非重なり合い領域404bにおいては重なり合わない視界を有する。重なり合い領域402は、第1の画像114aの非重なり合い領域404aには隣接するが、第2の画像114bの非重なり合い領域404bには隣接しない第1の部分402aと、第2の画像114bの非重なり合い部分404bには隣接するが、第1の画像114aの非重なり合い領域404aには隣接しない第2の部分402bと、をさらに有している。第1および第2の部分402a、402bもまた、互いに隣接している。具体的に言えば、第1の部分402aと第2の部分402bとの間に規定された境界406が存在する。図4aに示すように、境界406は直線であってもよいが、他の実施形態では、曲線などの他の形状を有してもよい。さらに、図4aに示すように、境界406は、重なり合い領域402を等面積の2つの部分に分割してもよく、すなわち、第1および第2の部分402a、402bは同じ大きさを有してもよい。
図5aは、第1および第2の画像114a、114bが水平方向に位置合わせされない別の実施形態を示している。しかしながら、その実施形態においても、画像が重なり合う重なり合い領域502が存在し、第1および第2の画像114a、114bの各々は、第1および第2の画像114a、114bの他方と重なり合わない非重なり合い領域504aを有している。ここでも、重なり合い領域502は、第1の画像114aの非重なり合い領域404aには隣接するが、第2の画像114bの非重なり合い領域には隣接しない第1の部分502aと、第2の画像114bの非重なり合い領域504bには隣接するが、第1の画像114aの非重なり合い領域には隣接しない第2の部分502bと、を有している。重なり合い領域502の境界506は、ここでは直線の形態をなしており、重なり合い領域502を第1の部分502aと第2の部分502bとに分割している。
ステップS04では、選択構成要素204が進行して、図4bおよび5bにさらに示すように、合成領域408、508を選択する。合成領域408、508は、重なり合い領域402、502のサブセットである。より具体的に言えば、選択構成要素204は、重なり合い領域402、502内にある、境界406、506からの距離dよりも近いピクセルを含むように合成領域408、508を選択する。合成領域408、508はこのようにして、境界406、506に沿って延び、距離dの2倍に対応する幅を有している。選択構成要素204は、第1のセットのカメラパラメータ112aと第2のセットのカメラパラメータ112bとの間の類似性に基づいて合成領域408、508のサイズ、すなわち面積を設定する。カメラパラメータ112aとカメラパラメータ112bの間の類似性が高くなるほど、合成領域408、508のサイズは小さくなる。合成領域408、508のサイズを設定するために、選択構成要素204は、たとえば、距離dが類似性の増大と共に減少するように、境界406、506からの距離dを設定することによって、合成領域408、508の幅を設定してもよい。
選択構成要素204は、第1のセットおよび第2のセットのカメラパラメータ112a、112bの対応するパラメータを比較することによって、第1のセットのカメラパラメータ112aと第2のセットのカメラパラメータ112bとの間の類似性を評価してもよい。たとえば、選択構成要素204は、第1のセットおよび第2のセット112a、112bの対応するパラメータの間の差を計算してもよい。1つのカメラパラメータのみが使用される場合、そのように計算された差は類似性の尺度として使用されてもよい。複数のカメラパラメータが使用される場合、計算された差は、たとえば、差の絶対値の加重和、二乗差の加重和を計算することによって、または、差を組合せて単一の値にするのに適した任意の他の関数を差に適用することによって、単一の値へと組み合わされてもよい。選択構成要素204は次いで、たとえば、その目的で選択構成要素204によって記憶された既定の関数または表を使用することによって、そのように計算された類似性の尺度を合成領域408の幅(または距離d)の適切な値にマッピングしてもよい。たとえば、その既定の関数は、類似性の尺度が第1のしきい値未満である(距離dの2倍が重なり合い領域402の幅に等しい)ときには、合成領域408が重なり合い領域402の全体をカバーし、類似性の尺度が第2のしきい値を超えるときには、合成領域408が空となり(距離dがゼロとなり)、類似性の尺度が大きくなると、距離dがこれらの2つの極値の間で(直線などの)単調減少関数に従って変動するように、類似性の尺度を距離dにマッピングしてもよい。
図4a〜4bおよび図5a〜5bの例では、境界406、506は、重なり合い領域402、502を等しいサイズの2つの部分402a、402b、502a、502bに分割するように、既定されたものであり、重なり合い領域402、502の中央に配置されると想定されている。しかしながら、いくつかの実施形態では、合成領域408、508を選択するとき、選択構成要素204はまた、重なり合い領域における境界406、506の位置を選択してもよい。
図6a〜6bおよび図7a〜7bは、そのような実施形態の例を示しており、ここで、選択構成要素204は、第1および第2の画像114a、114bに対するズームウィンドウ610、710のサイズおよび位置の少なくとも一方に基づいて、重なり合い領域402、502における境界406、506の位置を選択する。
選択構成要素204は、第1の画像114aおよび第2の画像114bのうちのズームインされるべき部分に対応するズームウィンドウ610、710を示すデータを受信してもよい。受信したデータから、選択構成要素204は、ズームウィンドウ610、710のサイズおよび位置の少なくとも一方を第1および第2の画像114a、114bに、すなわち、第1および第2の画像114a、114bの結合された視界に関連させてもよい。たとえば、選択構成要素204は、ズームウィンドウ610、710が第1の画像114aの非重なり合い部分404a、504aと一致する、すなわち重なり合う面積である第1の一致面積と、ズームウィンドウ610が第2の画像114bの非重なり合い部分404b、504bと一致する、すなわち重なり合う面積である第2の一致面積とを計算してもよい。境界406、506の位置は次いで、ズームウィンドウ610、710のサイズおよび形状の少なくとも一方との関係を基にして選択されてもよい。より具体的に言えば、境界406の位置は、第1の一致面積が図6aおよび7aに示すように第2の一致面積よりも大きい場合、重なり合い領域402の第1の部分402aが重なり合い領域402の第2の部分402bよりも大きくなるように選択されてもよく、また図6bおよび7bに示すようにその逆も同様である。特に、境界406、506の位置は、重なり合い領域402、502の第1の部分402a、502aの面積と第2の部分402b、502bとの関係が、第1の一致面積と第2の一致面積との間の関係に等しくなるように選択されてもよい。したがって、ズームウィンドウ610が図6aに示すように、たとえば、図6bに示すズームウィンドウの位置へと右に移動するとき、第2の一致面積は第1の一致面積に対して増加し、それによって、第2の部分402bは第1の部分402aに対して増加することになり、すなわち、境界406は、たとえば、図6bに示す境界406の位置へと左に移動する。さらに、ズームウィンドウ710が図7aに示すように、たとえば図7bに示すズームウィンドウの位置へと対角線上を下向きに移動するとき、第2の一致面積は第1の一致面積に対して増加し、それによって、第2の部分502bは第1の部分502aに対して増加することになり、すなわち、境界506は、たとえば、図7bに示す境界506の位置へと対角線上を上向きに移動する。
上記で議論したように、合成領域408、508のサイズはこのようにして、類似性に基づいて選択される。追加的に、重なり合い領域402における合成領域408、508の位置は、たとえば、ズームウィンドウのサイズおよび/または位置に基づいて選択されてもよい。ズーミングに関する実施形態では、合成領域408、508のサイズはさらに、第1および第2の画像114a、114bに対するズームウィンドウ610、710のサイズおよび位置の少なくとも一方に基づいて選択または調節されてもよい。たとえば、ズームはまた、合成領域408、508のズームインを引き起こすことになるため、合成領域408、508のサイズは好ましくは、ズームレベルの増大に伴って、すなわち、第1および第2の画像114a、114bの結合された視界のサイズに対してズームウィンドウのサイズが減少するように低減される。
さらに、ズームウィンドウ610、710の第1の画像との重なり合いが第2の画像との重なり合いよりも大きい(またはその逆)、すなわち図6aおよび7aのような場合、2つの画像が異なるカメラパラメータを有するにもかかわらず、合成領域408、508のサイズを低減することが合理的となり得る。極端な場合、ズームウィンドウが非重なり合い部分404a、404bのいずれとも重なり合わない場合、合成領域は空となるように(dがゼロに等しい)に設定されてもよく、また画像の一方(ズームウィンドウと重なり合う非重なり合い部分404a、404bを有する画像)のみの画像データが、その場合にパノラマ画像を作成するために使用されてもよい。
ステップS06では、合成構成要素206が進行して、合成領域408、508においてのみ第1の画像114aと第2の画像114bとを合成する。合成するとは一般に、第1および第2の画像114a、114bの対応するピクセルに画像データの線形結合を形成することなどによって、第1の画像114aと第2の画像114bの画像データが結合されることを意味する。たとえば、第1の画像114aと第2の画像114bが、当該技術分野で知られているような、いわゆるアルファブレンディングを使用して、合成領域408、508において合成されてもよい。
既に説明したように、合成は通常、パノラマ画像116を生成するために、第1の画像114aと第2の画像114bとをステッチングするプロセスの一部である。パノラマ画像116は、第1の画像114aと第2の画像114bの結合された視界に対応している。パノラマ画像116はそれゆえに、非重なり合い部分404a、404b、504a、504b、重なり合い部分402、502、および合成領域408、508に対応する部分を有している。パノラマ画像116を生成するとき、合成構成要素206は、パノラマ116のうちの合成領域408、508に対応する部分においては、合成された画像データを使用する。パノラマ画像116の他のすべての部分では、第1の画像114aまたは第2の画像114bのいずれかからの画像データが使用される。より具体的に言えば、合成構成要素206は、パノラマ画像のうちの第1の画像114aの非重なり合い部分404a、504aに対応する部分、およびパノラマ画像116のうちの、合成領域408、508の外側の重なり合い領域の第1の部分402a、502aに対応する部分においては、第1の画像114aからの画像データを使用することによって、パノラマ画像116を生成してもよい。同様に、合成構成要素206は、パノラマ画像116のうちの第2の画像114bの非重なり合い部分404b、504bに対応する部分、およびパノラマ画像116のうちの、合成領域408、508の外側の重なり合い領域の第2の部分402b、502bに対応する部分においては、第2の画像114bからの画像データを使用してもよい。
当業者には、上述した実施形態を多数の方式で改良し、上記の実施形態に示すような本発明の利点を依然として利用し得ることが理解されよう。たとえば、上記の開示は、重なり合う視界を有する2つの画像を合成することに関するものであるが、同じ方法論が、重なり合う視界を有する3つ以上の画像を合成するために用いられてもよい。このようにして、本発明は、図示の実施形態に限定されるべきではないが、添付の特許請求の範囲によってのみ規定されるべきである。追加的に、当業者には理解されるように、図示の実施形態は組み合わされてもよい。
100 システム
102 イメージセンサを
104 ステッチングモジュール
106 位置合わせデバイス
108 合成デバイス
110a 第1の画像
110b 第2の画像
112a 第1のセットのカメラパラメータ
112b 第2のセットのカメラパラメータ
114a 第1の画像
114b 第2の画像
116 パノラマ画像
202 受信機
204 選択構成要素
206 合成構成要素
402 重なり合い領域
404a 非重なり合い領域
404b 非重なり合い領域
406 境界
408 合成領域
502 重なり合い領域
504a 非重なり合い領域
504b 非重なり合い領域
506 境界
508 合成領域
610 ズームウィンドウ
710 ズームウィンドウ

Claims (15)

  1. 重なり合う視界を有する第1の画像(114a)と第2の画像(114b)とを合成するための方法であって、
    前記第1の画像(114a)および前記第1の画像をキャプチャするときに使用された第1のセットのカメラパラメータ(112a)と、前記第2の画像(114b)および前記第2の画像をキャプチャするときに用いられた第2のセットのカメラパラメータ(112b)とを受信すること(S02)であって、
    前記第1の画像(114a)と前記第2の画像(114b)は互いに位置合わせされ、
    前記第1の画像(114a)と第2の画像(114b)は、前記第1の画像と前記第2の画像との重なり合い領域(402、502)においては重なり合い、前記第1の画像および前記第2の画像の各々の非重なり合い領域(404a、404b、504a、504b)においては重なり合わない視界を有し、
    前記重なり合い領域(402、502)は、境界(406、506)が第1の部分(402a、502a)と第2の部分(404b、505b)との間に規定されるように互いに隣接する第1の部分(402a、502a)と第2の部分(404b、505b)とを有し、前記第1の部分(402a、502b)はさらに前記第1の画像(114a)の前記非重なり合い領域(404a、504a)には隣接するが、前記第2の画像(114b)の前記非重なり合い領域(404b、504b)には隣接せず、前記第2の部分(404b)はさらに前記第2の画像(114b)の前記非重なり合い領域(404b、504b)には隣接するが、前記第1の画像(114a)の前記非重なり合い領域(404a、504a)には隣接しない、受信すること(S02)と、
    前記第1の画像(114a)と前記第2の画像(114b)とを合成領域(408)において合成すること(S06)と、
    前記第1の部分(402a、502a)と前記第2の部分(402b、502b)との間の前記境界(406、506)からの距離よりも近い、前記重なり合い領域(402、502)内のピクセルとして前記合成領域(406、506)を選択すること(S04)であって、前記距離は、類似性の増大に伴って前記距離が減少するように、前記第1のセットのカメラパラメータ(112a)と前記第2のセットのカメラパラメータ(112b)との間の類似性に基づいて選択される、選択すること(S04)と、を含む方法。
  2. 前記第1のセットのカメラパラメータ(112a)は前記第1の画像(114a)に関連付けられるメタデータとして受信され、前記第2のセットのカメラパラメータ(112b)は前記第2の画像(114b)に関連付けられるメタデータとして受信される、請求項1に記載の方法。
  3. 前記第1および前記第2のセットのカメラパラメータ(112a、112b)はシャッタースピードおよびゲインの少なくとも一方を含む、請求項1または2に記載の方法。
  4. 前記第1および前記第2のセットのカメラパラメータ(112a、112b)はホワイトバランスを含む、請求項1から3のいずれか一項に記載の方法。
  5. 前記境界(406、506)は直線である、請求項1から4のいずれか一項に記載の方法。
  6. 前記重なり合い領域(402)の前記第1の部分(402a、502a)と前記第2の部分(402b、502b)は同じサイズを有する、請求項1から5のいずれか一項に記載の方法。
  7. 前記第1および第2の画像(114a、114b)のうちのデジタルにズームインされる部分にズームウィンドウ(610、710)が対応していることを示すデータを受信することをさらに含み、
    合成領域(408、508)を選択する前記ステップはさらに、前記第1および前記第2の画像(114a、114b)に対する前記ズームウィンドウ(610、710)のサイズおよび位置の少なくとも一方に基づいて、前記重なり合い領域(402、502)における前記境界(406、506)の位置を選択することをさらに含む、請求項1から5のいずれか一項に記載の方法。
  8. 前記ズームウィンドウ(610、710)と前記第1の画像(114a)の前記非重なり合い部分(404a、504a)との第1の一致面積と、前記ズームウィンドウ(610、710)と前記第2の画像(114b)の前記非重なり合い部分(404b、504b)との第2の一致面積とを計算することであって、
    前記境界(406、506)の前記位置は、前記第1の一致面積が前記第2の一致面積よりも大きい場合には、前記重なり合い領域(402、502)の前記第1の部分(402a、502a)が前記重なり合い領域(402、502)の前記第2の部分(402b、502b)よりも大きく、前記第1の一致面積が前記第2の一致面積よりも小さい場合には、前記重なり合い領域の前記第1の部分(404a、504a)が前記重なり合い領域の前記第2の部分(404b、504b)よりも小さくなるように選択されることをさらに含む、請求項7に記載の方法。
  9. 前記重なり合い領域(402)における前記境界(406、506)の前記位置は、前記重なり合い領域の前記第1の部分(402a、502a)の面積と前記重なり合い領域の前記第2の部分(402b、502b)の面積との関係が、前記第1の一致面積と前記第2の一致面積との間の関係に等しくなるように選択される、請求項8に記載の方法。
  10. 前記距離はさらに、前記第1および前記第2の画像(114a、114b)に対する前記ズームウィンドウ(610、710)の前記サイズおよび位置の少なくとも一方に基づいて選択される、請求項7から9のいずれか一項に記載の方法。
  11. パノラマ画像(116)のうちの、前記第1の画像の前記非重なり合い部分(404a、504a)に対応する部分、および前記合成領域(408、508)の外側の前記重なり合い領域(402、502)の前記第1の部分(402a、502a)に対応する部分においては前記第1の画像(114a)からの画像データを使用し、
    前記パノラマ画像(116)のうちの、前記第2の画像の前記非重なり合い部分(404b、504b)に対応する部分、および前記合成領域(408、508)の外側の前記重なり合い領域(402、502)の前記第2の部分(402b、502b)に対応する部分においては前記第2の画像(114b)からの画像データを使用し、
    前記パノラマ画像のうちの前記合成領域(408、508)に対応する部分においては合成画像データを使用することによって、前記第1および前記第2の画像(114a、114b)からパノラマ画像(116)を生成することをさらに含む、請求項1から10のいずれか一項に記載の方法。
  12. 前記第1の画像(114a)と前記第2の画像(114b)は、異なるイメージセンサ(102a、102b)を使用することによって同時にキャプチャされる、請求項1から11のいずれか一項に記載の方法。
  13. 重なり合う視界を有する第1の画像(114a)と第2の画像(114b)とを合成するためのデバイスであって、
    第1の画像(114a)および前記第1の画像をキャプチャするときに使用された第1のセットのカメラパラメータ(112a)と、第2の画像(114b)および前記第2の画像をキャプチャするときに用いられた第2のセットのカメラパラメータ(112b)とを受信するように構成された受信機(202)であって、
    前記第1の画像(114a)と前記第2の画像(114b)は互いに位置合わせされ、
    前記第1の画像(114a)および第2の画像(114b)は、前記第1の画像(114a)と前記第2の画像(114b)との重なり合い領域(402、502)においては重なり合い、前記第1および前記第2の画像(114a、114b)の各々の非重なり合い領域(404a、404b、504a、504b)においては重なり合わない視界を有し、
    前記重なり合い領域(402、502)は、境界(406、506)が第1の部分(402a、502a)と第2の部分(404b、505b)との間に規定されるように互いに隣接する第1の部分(402a)と第2の部分(404b、505b)とを有し、前記第1の部分(402a、502b)はさらに前記第1の画像(114a)の前記非重なり合い領域(404a、504a)には隣接するが、前記第2の画像(114b)の前記非重なり合い領域(404b、504b)には隣接せず、前記第2の部分(402b)はさらに前記第2の画像(114b)の前記非重なり合い領域(404b、504b)には隣接するが、前記第1の画像(114a)の前記非重なり合い領域(404a、504a)には隣接しない受信機と、
    合成領域(408、508)において前記第1の画像(114a)と前記第2の画像(114b)とを合成するように構成された合成構成要素(206)と、
    前記第1の部分(404a、504a)と前記第2の部分(404b、504b)との間の境界(406、506)からの距離よりも近い、前記重なり合い領域(402)内のピクセルとして前記合成領域(408、508)を選択するように構成された選択構成要素(204)であって、前記距離は、類似性の増大に伴って前記距離が減少するように、前記第1のセットのカメラパラメータ(112a)と前記第2のセットのカメラパラメータ(112b)との間の類似性に基づいて選択される選択構成要素と、を備えるデバイス。
  14. 前記カメラは、前記第1のセットのカメラパラメータ(112a)を使用して前記第1の画像(114a)をキャプチャし、前記第2のセットのカメラパラメータ(112b)を使用して前記第2の画像(114b)をキャプチャするように装置される、請求項13に記載のデバイスを含んだカメラ。
  15. コンピュータコード命令を記憶されたコンピュータ可読媒体を備えたコンピュータプログラム製品であって、前記コンピュータコード命令は、処理能力を有するデバイスによって実行されると、請求項1から12のいずれか一項に記載の方法を遂行するように適合されているコンピュータプログラム製品。
JP2018207838A 2017-11-16 2018-11-05 重なり合う視界を有する第1の画像と第2の画像とを合成するための方法、デバイス、およびカメラ Active JP6836568B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17202029.9 2017-11-16
EP17202029.9A EP3487162B1 (en) 2017-11-16 2017-11-16 Method, device and camera for blending a first and a second image having overlapping fields of view

Publications (3)

Publication Number Publication Date
JP2019092156A true JP2019092156A (ja) 2019-06-13
JP2019092156A5 JP2019092156A5 (ja) 2020-11-26
JP6836568B2 JP6836568B2 (ja) 2021-03-03

Family

ID=60382105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018207838A Active JP6836568B2 (ja) 2017-11-16 2018-11-05 重なり合う視界を有する第1の画像と第2の画像とを合成するための方法、デバイス、およびカメラ

Country Status (6)

Country Link
US (1) US10699377B2 (ja)
EP (1) EP3487162B1 (ja)
JP (1) JP6836568B2 (ja)
KR (1) KR102154402B1 (ja)
CN (1) CN109803086B (ja)
TW (1) TWI707302B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110493526B (zh) * 2019-09-10 2020-11-20 北京小米移动软件有限公司 基于多摄像模块的图像处理方法、装置、设备及介质
CN111314615B (zh) * 2020-03-13 2021-06-15 浙江大华技术股份有限公司 一种控制双目双变焦摄像机的方法、装置及摄像机
US11928799B2 (en) 2020-06-29 2024-03-12 Samsung Electronics Co., Ltd. Electronic device and controlling method of electronic device
EP4060982B1 (en) * 2021-03-15 2023-06-28 Axis AB Method and monitoring camera for handling video streams
CN113112404B (zh) * 2021-04-02 2023-04-28 广州图匠数据科技有限公司 一种基于滑动窗口的图像拼接方法及装置
TWI800814B (zh) * 2021-04-12 2023-05-01 宏碁股份有限公司 影像拼接方法
WO2023107373A1 (en) * 2021-12-06 2023-06-15 Meta Platforms Technologies, Llc Grating-assisted field of view expansion
US20230176377A1 (en) * 2021-12-06 2023-06-08 Facebook Technologies, Llc Directional illuminator and display apparatus with switchable diffuser

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070081081A1 (en) * 2005-10-07 2007-04-12 Cheng Brett A Automated multi-frame image capture for panorama stitching using motion sensor
JP2010533282A (ja) * 2007-06-08 2010-10-21 テレ アトラス ベスローテン フエンノートシャップ 多視点パノラマを生成する方法及び装置
US20110052093A1 (en) * 2009-08-28 2011-03-03 Sony Corporation Method and apparatus for forming a composite image
US20150103197A1 (en) * 2013-10-11 2015-04-16 Telefonaktiebolaget L M Ericsson (Publ) Technique for view synthesis
JP2016046794A (ja) * 2014-08-27 2016-04-04 京セラドキュメントソリューションズ株式会社 画像処理装置及び画像処理方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1238889A (zh) * 1996-11-27 1999-12-15 普林斯顿视频图像公司 使用图像纹理模板的运动跟踪
US6434265B1 (en) 1998-09-25 2002-08-13 Apple Computers, Inc. Aligning rectilinear images in 3D through projective registration and calibration
US20030086002A1 (en) * 2001-11-05 2003-05-08 Eastman Kodak Company Method and system for compositing images
US7162102B2 (en) * 2001-12-19 2007-01-09 Eastman Kodak Company Method and system for compositing images to produce a cropped image
EP2030433B1 (de) * 2006-05-29 2018-06-20 HERE Global B.V. Verfahren und anordnung zur behandlung von datensätzen bildgebender sensoren sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
US8368720B2 (en) * 2006-12-13 2013-02-05 Adobe Systems Incorporated Method and apparatus for layer-based panorama adjustment and editing
TWI338264B (en) * 2007-07-02 2011-03-01 Asustek Comp Inc Image processing method and electric device using the same
KR100968378B1 (ko) * 2009-03-05 2010-07-09 주식회사 코아로직 파노라마 이미지를 생성하는 장치, 방법 및 그 방법을 실행하는 프로그램이 기록된 기록 매체
US8548269B2 (en) * 2010-12-17 2013-10-01 Microsoft Corporation Seamless left/right views for 360-degree stereoscopic video
FR2969353A1 (fr) 2010-12-20 2012-06-22 St Ericsson Sa Procede de realisation d'une image panoramique a partir d'une sequence video et appareil de mise en oeuvre.
US9098922B2 (en) 2012-06-06 2015-08-04 Apple Inc. Adaptive image blending operations
US20140267267A1 (en) * 2013-03-15 2014-09-18 Toshiba Medical Systems Corporation Stitching of volume data sets
GB2512621A (en) * 2013-04-04 2014-10-08 Sony Corp A method and apparatus
TW201612853A (en) * 2014-09-30 2016-04-01 Lite On Technology Corp Method for creating depth map and a multi-lens camera system using the method
TWI554107B (zh) * 2015-01-12 2016-10-11 晶睿通訊股份有限公司 可改變縮放比例的影像調整方法及其攝影機與影像處理系統
KR101614247B1 (ko) * 2015-05-20 2016-04-29 주식회사 와이즈오토모티브 파노라마 영상의 접합면 표시장치
US10484601B2 (en) * 2015-08-31 2019-11-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
CN105931186B (zh) * 2016-04-26 2019-04-02 电子科技大学 基于相机自动标定和颜色校正的全景视频拼接系统与方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070081081A1 (en) * 2005-10-07 2007-04-12 Cheng Brett A Automated multi-frame image capture for panorama stitching using motion sensor
JP2010533282A (ja) * 2007-06-08 2010-10-21 テレ アトラス ベスローテン フエンノートシャップ 多視点パノラマを生成する方法及び装置
US20110052093A1 (en) * 2009-08-28 2011-03-03 Sony Corporation Method and apparatus for forming a composite image
US20150103197A1 (en) * 2013-10-11 2015-04-16 Telefonaktiebolaget L M Ericsson (Publ) Technique for view synthesis
JP2016046794A (ja) * 2014-08-27 2016-04-04 京セラドキュメントソリューションズ株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
KR20190056292A (ko) 2019-05-24
US10699377B2 (en) 2020-06-30
CN109803086B (zh) 2021-05-07
JP6836568B2 (ja) 2021-03-03
EP3487162B1 (en) 2021-03-17
KR102154402B1 (ko) 2020-09-09
CN109803086A (zh) 2019-05-24
TW201933275A (zh) 2019-08-16
EP3487162A1 (en) 2019-05-22
US20190147564A1 (en) 2019-05-16
TWI707302B (zh) 2020-10-11

Similar Documents

Publication Publication Date Title
JP6836568B2 (ja) 重なり合う視界を有する第1の画像と第2の画像とを合成するための方法、デバイス、およびカメラ
US10540806B2 (en) Systems and methods for depth-assisted perspective distortion correction
US10638035B2 (en) Image processing devices, image processing method, and non-transitory computer-readable medium
US11700350B2 (en) Multi camera image processing
EP3198852B1 (en) Image processing apparatus and control method thereof
US9307165B2 (en) In-camera panorama image stitching assistance
JP5398156B2 (ja) ホワイトバランス制御装置およびその制御方法並びに撮像装置
JP4513905B2 (ja) 信号処理装置、信号処理方法、プログラム及び記録媒体
US10713820B2 (en) System and method for adjusting brightness in multiple images
JP6998388B2 (ja) 画像特性マップを処理するための方法及び装置
JP5860663B2 (ja) ステレオ撮像装置
KR101915036B1 (ko) 실시간 비디오 스티칭 방법, 시스템 및 컴퓨터 판독 가능 기록매체
US8731327B2 (en) Image processing system and image processing method
JP2017220885A (ja) 画像処理装置、その制御方法、および制御プログラム
JP2020057967A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JP6732440B2 (ja) 画像処理装置、画像処理方法、及びそのプログラム
US11158026B1 (en) Field of view extension in a stereo camera system
US11109034B2 (en) Image processing apparatus for alignment of images, control method for image processing apparatus, and storage medium
JP7458769B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
US20230421906A1 (en) Cylindrical panorama hardware
JP2016162376A (ja) 画像処理装置、撮像装置、および画像処理方法
CN110710202A (zh) 一种图像处理方法及装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201016

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201016

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201016

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210205

R150 Certificate of patent or registration of utility model

Ref document number: 6836568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250