JP2007183949A - イメージマッチング速度とブレンディング方法を改善したパノラマ映像提供方法および装置 - Google Patents

イメージマッチング速度とブレンディング方法を改善したパノラマ映像提供方法および装置 Download PDF

Info

Publication number
JP2007183949A
JP2007183949A JP2006349716A JP2006349716A JP2007183949A JP 2007183949 A JP2007183949 A JP 2007183949A JP 2006349716 A JP2006349716 A JP 2006349716A JP 2006349716 A JP2006349716 A JP 2006349716A JP 2007183949 A JP2007183949 A JP 2007183949A
Authority
JP
Japan
Prior art keywords
images
image
blending
region
source images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006349716A
Other languages
English (en)
Other versions
JP4512584B2 (ja
Inventor
Keunho Kim
根 豪 金
Do-Kyoon Kim
金 道 均
Seok-Yun Jeong
鄭 錫 潤
Konouchine Anton
コヌシン アントン
Vladimir Vezhnevets
ベズネベッツ ブラディミル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2007183949A publication Critical patent/JP2007183949A/ja
Application granted granted Critical
Publication of JP4512584B2 publication Critical patent/JP4512584B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04GSCAFFOLDING; FORMS; SHUTTERING; BUILDING IMPLEMENTS OR AIDS, OR THEIR USE; HANDLING BUILDING MATERIALS ON THE SITE; REPAIRING, BREAKING-UP OR OTHER WORK ON EXISTING BUILDINGS
    • E04G17/00Connecting or other auxiliary members for forms, falsework structures, or shutterings
    • E04G17/005Strips for covering joints between form sections, e.g. to avoid burring or spilling of laitance
    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04GSCAFFOLDING; FORMS; SHUTTERING; BUILDING IMPLEMENTS OR AIDS, OR THEIR USE; HANDLING BUILDING MATERIALS ON THE SITE; REPAIRING, BREAKING-UP OR OTHER WORK ON EXISTING BUILDINGS
    • E04G17/00Connecting or other auxiliary members for forms, falsework structures, or shutterings
    • E04G17/14Bracing or strutting arrangements for formwalls; Devices for aligning forms

Abstract

【課題】 イメージマッチング速度とブレンディング方法を改善したパノラマ映像提供方法および装置に関する。
【解決手段】 前記パノラマ映像を提供する方法においては、イメージステッチング時に、二つのソースイメージそれぞれを様々な比率でスケーリングした複数レベルのイメージを準備し、各レベルで二つのイメージの一定領域に対するSSDを計算してマッチングさせる。また、カラーブレンディング時に、二つのソースイメージの重なった部分のうち、一定範囲にて10%程度のみのブレンディング領域にリニアするように加重値を適用する。
【選択図】 図4

Description

本発明は、パノラマ映像を提供する方法に関し、特に、イメージステッチング(stitching)の処理速度を向上させ、カラーブレンディング(blending)においてイメージが円滑に連結されるようにしてパノラマ映像を提供する方法およびこれを実現する装置に関する。また、提案された方法および装置は、パノラマ映像だけでなく、二つ以上の映像が連結された(ステッチングされた)映像を提供する他のあらゆる分野においても活用可能である。
今日、普遍化されたナビゲーション(navigation)システム、移動通信端末機、PDA(Personal Digital Assistant)などを介して位置基盤サービスを提供することにおいて、サービス提供地域に対する実写(real scene)に基づき、より現実に近い映像情報を提供することができる。
例えば、図1のように、車が交差路でA→B→C方向に進行するのに伴い、道案内のための映像情報は、X位置の三脚台(tripod)(110)でカメラを用いて回転しながら撮った周囲のイメージ(111)からY位置の三脚台(120)で撮った周囲のイメージ(121)に変更する必要がある。
このように、様々な位置においてカメラで実写されたイメージが車などで位置基盤サービスを受けるユーザの所定システムに提供されるために、図2の210のように、各位置のイメージが互いに同じ位置を示す部分で互いにステッチングされるようにし、図2の220のように、一つのパノラマ映像形態で生成されなければならない。
パノラマ映像を提供するためのイメージステッチング技術としては、様々な場所または様々な位置からの実写イメージを仮想のシリンダ上に集めて付着して整合(registration)する方式を取る。例えば、図2の210のように、二つのイメージずつその幅の1/4〜3/4(25〜75%)間で重ねてみたり、その高さの0〜1/8(0〜12.5%)間で重ねてみて、そのデータのSSD(Sum of Square Difference)値からその値が最小となる位置を探し出す方式が用いられている。すなわち、二つのイメージデータ間の差が最小となる位置で図2の220のように重ねておくと、パノラマイメージが完成することができる。
しかし、このような一般的なイメージステッチング技術においては、SSD計算量が多くのオーバーヘッドを有する。すなわち、上記のように、二つのソースイメージに対して水平方向に1/4〜3/4、および垂直方向に0〜1/8領域のデータ値が互いに比較されなければならないため、これを処理する装置の負担が大きくならざるを得ない。
また、上記のように、イメージステッチング時に二つのイメージで互いに重なる(over lapped)同じイメージ部分であっても、写真を獲得した環境の差によってカラー情報が極端に変化することがある。この時、重なった部分のカラーブレンディングを介して二つのイメージが円滑に繋がることができるようにする。例えば、図3において、AからCまでの幅を有する第1イメージ(310)とBからDまでの幅を有する第2イメージ(320)を互いに連結する過程において、二つのイメージの重なる部分B〜Cに対して、両方のイメージ(データ)にリニアした(linear)加重値W(x)およびW(x)を与えて処理する。
しかし、このようなイメージブレンディング技術においても、リニア加重値による各イメージの修正されたデータを計算する量が大きく、二つのイメージが互いに円滑に連結されずに自然なパノラマ映像を提供することができない場合が多いため、これを改善する必要がある。
従って、本発明は、上述した問題点を解決するためのものであって、本発明は、パノラマ映像を提供するための多くの技法中、イメージステッチングの処理速度を向上させ、カラーブレンディングにおいて、処理速度だけでなく、イメージが円滑に連結されるようにするパノラマ映像提供方法を提供することを目的とする。ここで提案された二つの方法は、パノラマ映像だけでなく、二つ以上の映像が連結された映像を提供するためにも適用が可能である。
また、本発明は、前記イメージステッチングおよびカラーブレンディングと関連した方法を実現する装置を提供することを他の目的とする。
前記のような本発明の目的を達成するために、本発明の一面によるパノラマ映像を提供する方法は、二つのソースイメージそれぞれを様々な比率でスケーリングした複数レベルのイメージを準備する段階と、前記複数レベルそれぞれで二つのイメージの一定領域に対するSSD(Sum of Square Difference)を計算してマッチングされたイメージを生成する段階とを含むことを特徴とする。
前記複数レベルのうち、ピクセル数が少ないレベルに対して前記SSD計算のためのイメージ探索範囲は大きくし、ピクセル数が多いレベルに対して前記SSD計算のためのイメージ探索範囲は小さくして次第に精密度を高めることを特徴とする。
前記のような本発明の目的を達成するために、本発明の他の一面によるパノラマ映像を提供する方法は、二つのソースイメージに対して、前記二つのソースイメージの重なった部分のうち、一定範囲内側で一定パーセントのブレンディング領域を探し出す段階と、前記ブレンディング領域にある二つのイメージにリニアするように加重値を適用してブレンディングされたイメージを生成する段階とを更に含むことを特徴とする。
前記二つのソースイメージの重なった部分を複数に分け、各分けられた部分ごとに該当ブレンディング領域にある二つのイメージにリニアするように加重値を適用することができる。
前記のような本発明の目的を達成するために、本発明の更に他の一面によるパノラマ映像を提供する方法は、二つのソースイメージの重なった部分のうち、一定範囲内の内側一定パーセント領域で二つのイメージにリニアするように適用される第1加重関数によって該当領域のブレンディングされたイメージを生成する段階と、前記二つのソースイメージの重なった部分のうち、一定範囲内にあり、前記一定パーセント領域以外の一つの領域で前記二つのイメージのいずれか一つに適用される第2加重関数によって該当領域のブレンディングされたイメージを生成する段階と、前記二つのソースイメージの重なった部分のうち、一定範囲内にあり、前記一定パーセント領域以外の他の領域で前記二つのイメージのいずれか一つに適用される第3加重関数によって該当領域のブレンディングされたイメージを生成する段階とを含むことを特徴とする。
前記のような本発明の他の目的を達成するために、本発明の更に他の一面によるパノラマ映像のためのステッチング装置は、二つのソースイメージそれぞれを様々な比率でスケーリングした複数レベルのイメージのうち、ピクセル数が少ないレベルで二つのイメージの一定領域に対するSSDを計算し、その値が最小である位置を探し出して前記二つのソースイメージをマッチングさせる第1ステッチング部と、前記第1ステッチング部でマッチングされた二つのイメージに対して、前記様々な比率でスケーリングした複数レベルのイメージのうち、前記第1ステッチング部で用いられたレベルよりピクセル数が多いレベルで二つのイメージの一定領域に対するSSDを計算し、その値が最小である位置を探し出して再びマッチングさせる第2ステッチング部とを含むことを特徴とする。前記第1ステッチング部で前記SSD計算のためのイメージ探索範囲は、前記第2ステッチング部で前記SSD計算のためのイメージ探索範囲より大きいことを特徴とする。
前記のような本発明の他の目的を達成するために、本発明の更に他の一面によるパノラマ映像のためのブレンディング装置は、二つのソースイメージの重なった部分のうち、入力範囲によって前記入力範囲の内側で前記重なった領域の一定パーセントをブレンディング領域として探し出すブレンディング領域探索部と、前記ブレンディング領域にある二つのイメージにリニアするように加重値を適用してブレンディングされたイメージを生成する加重値適用部とを含むことを特徴とする。
前記のような本発明の他の目的を達成するために、本発明の更に他の一面によるパノラマ映像のためのブレンディング装置は、二つのソースイメージの重なった部分のうち、一定範囲内の内側一定パーセント領域で二つのイメージにリニアするように適用される第1加重関数によって該当領域のブレンディングされたイメージを生成する第1ブレンディング部と、前記二つのソースイメージの重なった部分のうち、一定範囲内にあり、前記一定パーセント領域以外の一つの領域で前記二つのイメージのいずれか一つに適用される第2加重関数によって該当領域のブレンディングされたイメージを生成する第2ブレンディング部と、前記二つのソースイメージの重なった部分のうち、一定範囲内にあり、前記一定パーセント領域以外の他の領域で前記二つのイメージのうちの他の一つに適用される第3加重関数によって該当領域のブレンディングされたイメージを生成する第3ブレンディング部とを含むことを特徴とする。
上述したように、本発明によるパノラマ映像を提供する方法および装置においては、交差路などで回転するカメラからの実写基盤映像データに対して、特に、イメージステッチングおよびカラーブレンディング処理時の速度を改善し、より円滑に連結がなされるように精密に校正することで、より自然で現実に近い映像を提供することができる。この時、提案されたイメージステッチングおよびカラーブレンディング処理方法は、パノラマ映像だけでなく、二枚以上の映像が連結された映像においても効果を現すことができる。これによって、ナビゲーションシステム、移動通信端末機、PDAなどの映像データ処理に適用し、より正確で実感のある映像と共に位置基盤サービスを提供することができるという効果がある。
以下、添付の図面および添付の図面に記載された内容を参照して、本発明の好ましい実施形態を詳細に説明するが、本発明が実施形態によって制限されたり限定されるものではない。各図面に提示された同一の参照符号は、同一の部材を示す。
図4は、本発明の一実施形態によるパノラマ映像提供方法を説明するための流れ図である。
ナビゲーションシステム、移動通信端末機、PDAなどを介して位置基盤サービスを提供することにおいて、より現実に近い地理的映像情報を提供するために、本発明においては、サービス提供地域に対する実写(real scene)に基づく。例えば、図1のように、交差路の周囲に設置される複数のカメラで三角台(tropoid)を用いて周囲景観が撮影される(S410)。
本発明においては、まず、カメラから得られたイメージの歪曲(distortion)を校正する(S420)。ここで、カメラから得られたイメージは、デジタルカメラなどで実写されたVGAなど一定規格の解像度を有するイメージを意味する。また、アナログカメラから得られた写真が準備された場合には、所定装置によってデジタル写真に変換させて用いることもできる。
また、ここで、イメージの処理とは、白黒デジタルデータの処理であることもあるが、好ましくは、R、G、B三色のデジタルイメージデータを処理するものと仮定される。
図5のように、カメラを用いて撮ったイメージ(520)は、実際に目で見る時のイメージ(510)と差がある。すなわち、図6においても示されているように、垂直に表示されるべきビルの形状がレンズの屈折方向に湾曲して見えることがある。これは、カメラで実際に3D物体の像を撮る時、光学系との関連によって、屈曲した効果が反映されて示されるためである。このように湾曲して見えるイメージ(520)は、反対に530のようにレンズ屈折歪曲校正(radial correction)させることで、実際に目で見る時のイメージ(510)と同様、正常に校正されることができる。
イメージ歪曲の校正処理のために、レンズ屈折歪曲校正のための幾何学的変換行列を用いる方法がある。このような方法に対しては、提案された他の特許出願において詳述されているため、ここではその特徴のみを簡略に記述する。すなわち、例えば、ソースイメージが平面方向に傾斜した角度と深さ方向に湾曲した角度などを一定値で仮定してレンズ屈折歪曲校正のための幾何学的変換行列を予測し、前記レンズ屈折歪曲校正のための幾何学的変換行列によってソースイメージの各ピクセルの位置がレンズ屈折歪曲校正された位置に移される。このように、ソースイメージの各ピクセルデータを前記レンズ屈折歪曲校正によるベクトルに位置させて幾何学的にレンズ屈折歪曲校正させる方法により、図6の620に示されたように、写真内のビルが傾斜したり湾曲したりせず、正しく見えるようにすることができる。
また、パノラマ映像を提供するために三角台で回転するカメラから撮ったイメージを集めて付着し、図7のように一つの光学中心Oで予想される仮想の3Dシリンダ形態の映像で投影させる方法を用いる(S430)。この時、シリンダ形態で完成したパノラマ映像は、ユーザの位置変動に従って提供される。
しかし、シリンダに投影するための一般的なワーピング(warping)技術においては、正確にシリンダ上に投影されず、図8のように、イメージ平面上の点A〜Fがa〜fに投影されるように、概念的にエッジ部分がシリンダ内側に縮小変換されることにより、図10の1010のように、写真の物体が小さく膨張して現れるように生成されるという問題点がある。本発明の中心事項ではないが、提案された他の特許出願において、これを改善するための方法が詳細に記述されているため、ここではその特徴のみを簡略に記述する。
すなわち、図9において、地平面(Ground Plane:GP)の原点(O)から見たものと仮定されたソースイメージの3次元平面の点を網膜平面(retinal plane)上の3DベクトルM(X、Y、W)に移されるように計算し、ソースイメージサイズ(幅/高さ)とFOV(Field of View)からワーピングされたイメージ幅(Waped Image Width:WIW)を予測する。これによって、前記網膜平面(retinal image plane)上に移された3Dベクトルと前記ワーピングされたイメージ幅に基づいて定義されたθ値とPQ距離値により、ソースイメージの位置ベクトルが前記原点(O)から距離が1(OC=1)であるシリンダ上のワーピングされた位置Pに移されるようにする。このような方法においては、前記予測されたワーピングされたイメージ幅によって水平方向に一定θ値にマッピング(mapping)される網膜イメージの幅を計算してソースイメージを縮小させることで、図10の1020に示されたように、写真内の人物やビルなどが膨張して見えることなく、正常に見えるようにすることができる。
一方、本発明の一実施形態によるイメージステッチング(stitching)を説明するための図面が図11に示されている。パノラマイメージを提供するために様々な場所に設置されたカメラで実写されたイメージは、上述したように、仮想のシリンダ上に集めて付着されて整合(registration)される(図4のS440)。この時、図2の210のように、二つのイメージずつその幅の1/4〜3/4(25〜75%)間で重ねてみたり、その高さの0〜1/8(0〜12.5%)間で重ねてみて、式(1)のように、そのデータのSSD(Sum of Square Difference)値からその値が最小となる位置を探し出す方式を用いることができる。すなわち、二つのイメージデータの間の差が最小となる位置において、図2の220のように重ねて置くと、パノラマイメージが完成することができる。式(1)において、I(x、y)およびI(x、y)は、二つのソースイメージそれぞれのピクセル座標(x、y)におけるデータである。
特に、本発明においては、SSD計算量を減らすために、ステッチングする二つのソースイメージそれぞれを、図11のように、様々な比率でスケーリングした複数レベルのイメージを準備する。例えば、幅で2048ピクセルを有するレベル0のソースイメージを1024(レベル1)→512(レベル2)→256(レベル3)→128(レベル4)→64(レベル5)とスケーリングしてピクセルデータの数を減らす。この時、スケーリングによって幅方向のピクセル数を1/2に減らす時、隣接したデータ4つの中に一つずつ選択する方法を用いることができる。
このように、複数レベルのイメージが準備されると、前記複数レベルそれぞれで二つのイメージの一定領域に対するSSDを計算し、その値が最小となる位置を探し出す方式でマッチングされたイメージを生成することができる。
例えば、各レベルの二つのイメージに対して、その幅の1/4〜3/4(25〜75%)間およびその高さの0〜1/8(0〜12.5%)間の領域でSSDを計算してその値が最小となる位置を探し出し、その探し出された位置で二つのイメージをステッチングすることができる。
この時、前記複数レベルのうち、ピクセル数が少ないレベルに対して、まず、前記SSD計算のためのイメージ探索範囲を大きくして計算し、次に、順にピクセル数が多いレベルに対して前記SSD計算のためのイメージ探索範囲を小さくして計算することで、次第に精密度を高める方法が用いられる。例えば、幅方向のピクセル数が512以下、1024以下、および1024超過である各場合に対し、探索範囲を6、2、1ピクセルとする。すなわち、幅方向のピクセル数が512以下である場合に6ピクセル単位で移動しながらラフ(rough)にSSD最小値を探し出してマッチングさせ、次に、幅方向のピクセル数が512超過1024以下である場合に2ピクセル単位で移動しながらSSD最小値を探し出してマッチングさせ、再び幅方向のピクセル数が1024超過である場合に1ピクセル単位で移動しながらより精密にSSD最小値を探し出してマッチングさせる。
このような本発明の一実施形態によるイメージステッチングを実現する装置(1200)の一例が図12に示されている。図12を参照すると、前記イメージステッチング装置(1200)は、第1ステッチング部(1210)、第2ステッチング部(1220)、および第3ステッチング部(1230)を含む。
図11のように、様々な比率でスケーリングした複数レベルの二つのソースイメージI(x、y)、I(x、y)に対して、まず、前記第1ステッチング部(1210)は、ピクセル数が少ないレベル、例えば、幅方向の512ピクセル以下であるレベルで、二つのイメージの一定領域に対して6ピクセル単位で移動しながらSSDを計算し、その値が最小である位置を探し出して二つのイメージをマッチングさせる。
前記第2ステッチング部(1220)は、前記第1ステッチング部(1210)でマッチングされた二つのイメージに対して、前記第1ステッチング部(1210)で用いられたレベルよりピクセル数が多いレベル、例えば、幅方向の512超過1024ピクセル以下であるレベルで、二つのイメージの一定領域に対して2ピクセル単位で移動しながらSSDを計算し、その値が最小である位置を探し出して二つのイメージをマッチングさせる。ここで、更に精密な位置を探し出すために、前記第1ステッチング部(1210)で探し出した位置付近でSSD計算を開始することができる。
前記第3ステッチング部(1230)は、前記第2ステッチング部(1220)でマッチングされた二つのイメージに対して、前記第2ステッチング部(1220)で用いられたレベルよりピクセル数が多いレベル、例えば、幅方向の1024ピクセル超過レベルで、二つのイメージの一定領域に対して1ピクセル単位で移動しながらSSDを計算し、その値が最小である位置を探し出して二つのイメージをマッチングさせる。ここでも、前記第2ステッチング部(1220)より更に精密な位置を探し出すために、前記第2ステッチング部(1220)で探し出した位置付近でSSD計算を開始することができる。
このように、マッチングされたイメージデータは、後続プロセッサでカラーブレンディング処理されることがある。図13は、本発明の一実施形態によるカラーブレンディング領域を説明するための図である。
上記のようなイメージステッチング時、二つのイメージで互いに重なる(over lapped)同じイメージ部分は、写真を獲得した環境の差によってカラー情報が極端に異なることがある。この時、重なった部分のカラーブレンディングを介して二つのイメージが円滑に繋がるようにする(図4のS450)。図3のように、二つのイメージの重なる部分B〜Cに対して、両方のイメージ(データ)にリニアした(linear)加重値を与えて処理する従来の方法においては、計算量が多いだけでなく、二つのイメージを充分に円滑に連結することができない場合もある。
本発明においては、図13のように、二つのソースイメージの重なった部分(1330)の10パーセント(%)のブレンディング領域(1331)を一定範囲(Q〜R)内側で探し出し、前記ブレンディング領域(1331)にある二つのイメージにリニアするように加重値を適用してブレンディングされたイメージを生成する。ここで、Q〜Rは、前記重なった部分(1330)の一定範囲を選択するためのパラメータであって、25〜75%であることもある。しかし、これは単に例示的なものであり、他の範囲が選択されることもある。
例えば、図15において、AからBまでの幅を有する第1イメージ(1310)とCからDまでの幅を有する第2イメージ(1320)が互いに重なる部分の25〜75%のうちの10%のブレンディング領域E〜Fに対してのみ、両方のイメージ(データ)にリニアした(linear)加重値w(x)およびw(x)を与えて処理することができる。
このようなブレンディング方法は、図16のように、二つのソースイメージ(1610、1620)の重なった部分(1630)を複数(1631〜1635)に分け、各分けられた部分ごとに、上記のように互いに重なる部分の25〜75%のうちの10%のブレンディング領域にある二つのイメージにリニアするように加重値を適用することができる。これは、分けられた各領域別の統計的特性を活用することができるという長所を有しており、映像を領域別で円滑に連結することができるという長所を与える。
このような本発明の一実施形態によって、カラーブレンディングを実現する装置(1400)の一例が図14に示されている。図14を参照すると、前記カラーブレンディング装置(1400)は、ブレンディング領域探索部(1410)および加重値適用部(1420)を含む。
前記ブレンディング領域探索部(1410)は、二つのソースイメージの重なった部分のうち、入力範囲(Q〜R)によって前記入力範囲(Q〜R)の内側で前記重なった領域の10%をブレンディング領域として探し出す。これによって、前記加重値適用部(1420)は、図15のように、前記ブレンディング領域(E〜F)にある二つのイメージにリニアするように加重値を適用してブレンディングされたイメージを生成する。
前記加重値適用部(1420)は、図16のように、複数に分けられた重なった部分(1631〜1635)ごとに、上記のように互いに重なる部分の25〜75%のうちの10%のブレンディング領域にある二つのイメージにリニアするように加重値を適用することもできる。
図17は、本発明の更に他の実施形態によるカラーブレンディングを説明するための図である。二つのイメージを充分に円滑に連結するために、より精密なカラーブレンディング方法を説明する。
図17のように、二つのソースイメージ(1710、1720)の重なった部分ののうち、一定範囲(25〜75%)(C〜B)内の内側10%領域(E〜F)に対しては、二つのイメージにリニアするように適用される式(2)のような第1加重関数IEF(x、y)によって該当領域のブレンディングされたイメージを生成する。式(2)において、I(x、y)およびI(x、y)は、二つのソースイメージ(1710、1720)それぞれのピクセル座標(x、y)におけるデータである。
式(2)において、前記第1加重関数IEF(x、y)は、二つのイメージデータI(x、y)、I(x、y)にリニアするように適用される1次関数w(x)、w(x)、前記二つのソースイメージI(x、y)、I(x、y)それぞれの平均M、Mと標準偏差D、D、および前記二つのソースイメージの全体平均Mmeanと標準偏差平均Dmeanを用いる関数である。ここで、平均は、カラーイメージである場合にR(Red)、G(Green)、B(Blue)各イメージデータの平均であったり、標準偏差も上記のような三色各イメージデータの標準偏差であったりする。
また、図17のように、二つのソースイメージ(1710、1720)の重なった部分のうち、一定範囲(25〜75%)(C〜B)内にあり、内側10%領域(E〜F)領域以外の左側領域(C〜E)で第1イメージ(1710)に適用される式(3)のような第2加重関数ICE(x、y)によって該当領域のブレンディングされたイメージを生成する。式(3)において、C、Eは、CE間の各位置のx座標値である。また、Kaxは、KaCとKaE間でリニアした値であったり、Daxは、DaCとDaE間でリニアした値であったりする。
式(3)において、前記第2加重関数ICE(x、y)は、二つのイメージデータI(x、y)、I(x、y)のうち、第1イメージデータI(x、y)の標準偏差Dと前記二つのソースイメージデータ全体の標準偏差Dmean、および前記二つのソースイメージのうち、加重値が適用される該当領域イメージ(第1イメージ)に対して予測された一次関数的標準偏差Daxを用いる関数である。
同様に、図17のように、二つのソースイメージ(1710、1720)の重なった部分のうち、一定範囲(25〜75%)(C〜B)内にあり、内側10%領域(E〜F)領域以外の右側領域(F〜B)で第2イメージ(1720)に適用される式(4)のような第3加重関数IFB(x、y)によって該当領域のブレンディングされたイメージを生成する。式(4)において、B、Fは、各位置のx座標値である。また、Kbxは、KbBとKbF間でリニアした値であったり、Dbxは、DbBとDbF間でリニアした値であったりする。
式(4)において、前記第3加重関数IFB(x、y)は、二つのイメージデータI(x、y)、I(x、y)のうち、第2イメージデータI(x、y)の標準偏差Dと前記二つのソースイメージデータ全体の標準偏差Dmean、および前記二つのソースイメージのうち、加重値が適用される該当領域イメージ(第2イメージ)に対して予測された一次関数的標準偏差Dbxを用いる関数である。
この他にも、(B、y)および(C、y)それぞれのブレンディングされたイメージデータは、式(5)のように、各位置の第1イメージデータI(x、y)および第2イメージデータI(x、y)が選択される。
このように、図17で説明されたような本発明の更に他の実施形態によるカラーブレンディングを実現する装置(1800)の一例が図18に示されている。図18を参照すると、前記カラーブレンディング装置(1800)は、第1ブレンディング部(1810)、第2ブレンディング部(1820)および第3ブレンディング部(1830)を含む。
前記第1ブレンディング部(1810)は、二つのソースイメージデータI(x、y)およびI(x、y)の重なった部分のうち、一定範囲内の内側10%領域(E〜F)で二つのイメージにリニアするように適用される式(2)の第1加重関数IEF(x、y)によって該当領域のブレンディングされたイメージを生成する。
前記第2ブレンディング部(1820)は、前記二つのソースイメージデータI(x、y)およびI(x、y)の重なった部分のうち、一定範囲内の内側10%領域以外の左側領域(C〜E)で、前記二つのイメージのうち、左側イメージに適用される式(3)の第2加重関数ICE(x、y)によって該当領域のブレンディングされたイメージを生成する。
前記第3ブレンディング部(1830)は、前記二つのソースイメージデータI(x、y)およびI(x、y)の重なった部分のうち、一定範囲内の内側10%領域以外の右側領域(F〜B)で、前記二つのイメージのうち、右側イメージに適用される式(4)の第3加重関数IFB(x、y)によって該当領域のブレンディングされたイメージを生成する。
前記イメージマッチングまたは前記ブレンディング処理前に、上述したようなティルティングまたはワーピングのいずれか一つ以上が更に処理される。また、前記イメージマッチングまたは前記ブレンディング処理後にシア(shear)校正を更に処理した後、そのデータをレンダリングに用いることができる。
図19は、本発明の一実施形態によるシア校正(shear correction)を説明するための図である。
上記のように、シリンダ上に移されるようにソースイメージがステッチングまたはカラーブレンディングされた後、該当パノラマイメージは、図19の1910のように傾斜していることがあり、上下に汚ないノイズイメージが現れることがある。この時、シリンダ形態で巻いた時に始点と終点が互いに一致するように、1920のように傾斜を合わせて連結させ、1930のように、互いに一致する部分から重複イメージを切断して上下のノイズイメージを排除する(図4のS460)。
このように、パノラマイメージ提供のために、入力ソースイメージに対するティルティング校正、ワーピング、イメージステッチング、カラーブレンディング、およびシア校正などが処理されると、処理されたイメージデータは、ナビゲーションシステム、移動通信端末機、PDAなどの所定メモリにデータベース化されることができ、位置基盤サービスの提供時、所定レンダリングを介してLCD(Liquid Crystal Display)などにきれいなパノラマイメージを提供することができるようになる(図4の470)。このように、提案されたソースイメージがステッチングまたはカラーブレンディングされる方法は、パノラマ映像だけでなく、二つ以上の映像が連結された映像の提供のためにも適用されることができる。
上述したように、本発明の一実施形態によるパノラマ映像または二つ以上のステッチングされた映像を提供する方法においては、イメージステッチング時に、二つのソースイメージそれぞれを様々な比率でスケーリングした複数レベルのイメージを準備し、各レベルで二つのイメージの一定領域に対するSSDを計算してマッチングさせる。この時、ピクセル数が少ないレベルのイメージ探索範囲は大きくし、ピクセル数が多いレベルのイメージ探索範囲は小さくして次第に精密度を高める。また、カラーブレンディング時に、二つのソースイメージの重なった部分のうち、一定範囲で10%のみのブレンディング領域にリニアするように加重値を適用する。この時、二つのソースイメージの重なった部分を複数に分け、各分けられた部分ごとに前記ブレンディング領域にリニアするように加重値を適用することもできる。また、前記二つのソースイメージの重なった部分のうち、一定範囲のブレンディング領域に対して、その内側10%領域とサイド領域に互いに異なる精密な加重関数を適用することもできる。
本明細書において開示された方法および装置で用いられる機能は、コンピュータで読み取り可能な記録媒体にコンピュータが読み取り可能なコードとして具現するのが可能である。コンピュータが読み取り可能な記録媒体は、コンピュータシステムによって読み取り可能なデータが格納されるあらゆる種類の記録装置を含む。コンピュータが読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ格納装置などがあり、また搬送波(例えば、インターネットを介した送信)の形態で具現されるものも含む。また、コンピュータが読み取り可能な記録媒体は、ネットワークで連結されたコンピュータシステムに分散し、分散方式でコンピュータが読み取り可能なコードが格納されて実行される。
以上のように、本発明は限定された実施形態と図面によって説明されたが、本発明は前記の実施形態に限定されるものではなく、本発明が属する分野において通常の知識を有する者にとっては、このような記載から多様な修正および変形が可能であろう。よって、本発明の範囲は、説明された実施形態に限って定められてはならず、添付の特許請求の範囲のみならず、この特許請求の範囲と均等なものによって定められなければならない。
交差路で実写を得る過程を説明するための図である。 一般的なイメージステッチング技術を説明するための図である。 一般的なカラーブレンディング技術を説明するための図である。 本発明の一実施形態によるパノラマ映像提供方法を説明するための流れ図である。 レンズ歪曲校正方法を説明するための図である。 レンズ歪曲校正前後の写真である。 パノラマ映像の光学中心点を説明するための図である。 3次元映像をシリンダに投影させる方法を説明するための図である。 ワーピング技術を説明するための図である。 ワーピング前後の写真である。 本発明の一実施形態によるイメージステッチングを説明するための図である。 本発明の一実施形態によるイメージステッチングを実現する装置の一例である。 本発明の一実施形態によるカラーブレンディング領域を説明するための図である。 本発明の一実施形態によるカラーブレンディングを実現する装置の一例である。 本発明の一実施形態によるカラーブレンディング時の加重値を説明するための図である。 本発明の他の実施形態によるカラーブレンディングを説明するための図である。 本発明の更に他の実施形態によるカラーブレンディングを説明するための図である。 図17のカラーブレンディングを実現する装置の一例である。 本発明の一実施形態によるシア校正を説明するための図である。
符号の説明
1210 第1ステッチング部
1220 第2ステッチング部
1230 第3ステッチング部
1410 ブレンディング領域探索部
1420 加重値適用部
1810 第1ブレンディング部
1820 第2ブレンディング部
1830 第3ブレンディング部

Claims (16)

  1. 二つのソースイメージそれぞれを様々な比率でスケーリングした複数レベルのイメージを準備する段階と、
    前記複数レベルそれぞれにおいて二つの該当イメージの一定領域に対するSSDを計算し、マッチングされたイメージを生成する段階と、
    を含むことを特徴とするパノラマ映像を提供する方法。
  2. 前記複数レベルのうち、ピクセル数が少ないレベルに対して前記SSD計算のためのイメージ探索範囲は大きくし、ピクセル数が多いレベルに対して前記SSD計算のためのイメージ探索範囲は小さくして次第に精密度を高めることを特徴とする請求項1に記載のパノラマ映像を提供する方法。
  3. 前記マッチングされたイメージを生成する段階は、
    前記二つのソースイメージそれぞれを様々な比率でスケーリングした複数レベルのイメージのうち、ピクセル数が少ないレベルで二つのイメージの一定領域に対するSSDを計算し、その値が最小である位置を探し出して前記二つのソースイメージを第1マッチングさせる段階と、
    前記第1マッチングされた二つのイメージに対し、前記様々な比率でスケーリングした複数レベルのイメージのうち、前記第1マッチングで用いられたレベルよりピクセル数が多いレベルで二つのイメージの一定領域に対するSSDを計算し、その値が最小である位置を探し出して再びマッチングさせる段階と、
    を含むことを特徴とする請求項1に記載のパノラマ映像を提供する方法。
  4. 二つのソースイメージに対して、前記二つのソースイメージの重なった部分のうち、一定範囲内側で一定パーセントのブレンディング領域を探し出す段階と、
    前記ブレンディング領域にある二つのイメージにリニアするように加重値を適用してブレンディングされたイメージを生成する段階と、
    を更に含むことを特徴とするパノラマ映像を提供する方法。
  5. 前記二つのソースイメージの重なった部分を複数に分け、各分けられた部分ごとに該当ブレンディング領域にある二つのイメージにリニアするように加重値を適用することを特徴とする請求項4に記載のパノラマ映像を提供する方法。
  6. 前記重なった部分のうち、一定範囲は25〜75%範囲であることを特徴とする請求項4に記載のパノラマ映像を提供する方法。
  7. 前記一定パーセントは10%であることを特徴とする請求項4に記載のパノラマ映像を提供する方法。
  8. 二つのソースイメージの重なった部分のうち、一定範囲内の内側一定パーセント領域で二つのイメージにリニアするように適用される第1加重関数によって該当領域のブレンディングされたイメージを生成する段階と、
    前記二つのソースイメージの重なった部分のうち、一定範囲内にあり、前記一定パーセント領域以外の一つの領域で前記二つのイメージのいずれか一つに適用される第2加重関数によって該当領域のブレンディングされたイメージを生成する段階と、
    前記二つのソースイメージの重なった部分のうち、一定範囲内にあり、前記一定パーセント領域以外の他の領域で前記二つのイメージのうちの他の一つに適用される第3加重関数によって該当領域のブレンディングされたイメージを生成する段階と、
    を含むことを特徴とするパノラマ映像を提供する方法。
  9. 前記第1加重関数は、
    二つのイメージにリニアするように適用される1次関数、前記二つのソースイメージそれぞれの平均と標準偏差、および前記二つのソースイメージの全体平均と標準偏差を用いる関数であることを特徴とする請求項8に記載のパノラマ映像を提供する方法。
  10. 前記第2加重関数または前記第3加重関数は、
    前記二つのソースイメージのいずれか一つの標準偏差と前記二つのソースイメージ全体の標準偏差、および前記二つのソースイメージのうち、加重値が適用される該当領域イメージに対して予測された一次関数的標準偏差を用いる関数であることを特徴とする請求項8に記載のパノラマ映像を提供する方法。
  11. 前記イメージマッチングまたは前記ブレンディング処理前にティルティングまたはワーピングのいずれか一つ以上を更に処理したり、前記イメージマッチングまたは前記ブレンディング処理後にシア校正を更に処理した後、レンダリングに用いることを特徴とする請求項1、4、または8のいずれか一項に記載のパノラマ映像を提供する方法。
  12. 請求項1ないし11のいずれか一項の方法を実行するためのプログラムが記録されていることを特徴とするコンピュータで読み取り可能な記録媒体。
  13. 二つのソースイメージそれぞれを様々な比率でスケーリングした複数レベルのイメージのうち、ピクセル数が少ないレベルで二つのイメージの一定領域に対するSSDを計算し、その値が最小である位置を探し出して前記二つのソースイメージをマッチングさせる第1ステッチング部と、
    前記第1ステッチング部でマッチングされた二つのイメージに対して、前記様々な比率でスケーリングした複数レベルのイメージのうち、前記第1ステッチング部で用いられたレベルよりピクセル数が多いレベルで二つのイメージの一定領域に対するSSDを計算し、その値が最小である位置を探し出して再びマッチングさせる第2ステッチング部と、
    を含むことを特徴とするパノラマ映像のためのステッチング装置。
  14. 前記第1ステッチング部で前記SSD計算のためのイメージ探索範囲は、前記第2ステッチング部で前記SSD計算のためのイメージ探索範囲より大きいことを特徴とする請求項13に記載のパノラマ映像のためのステッチング装置。
  15. 二つのソースイメージの重なった部分のうち、入力範囲によって前記入力範囲の内側で前記重なった領域の一定パーセントをブレンディング領域として探し出すブレンディング領域探索部と、
    前記ブレンディング領域にある二つのイメージにリニアするように加重値を適用してブレンディングされたイメージを生成する加重値適用部と、
    を含むことを特徴とするパノラマ映像のためのブレンディング装置。
  16. 二つのソースイメージの重なった部分のうち、一定範囲内の内側一定パーセント領域で二つのイメージにリニアするように適用される第1加重関数によって該当領域のブレンディングされたイメージを生成する第1ブレンディング部と、
    前記二つのソースイメージの重なった部分のうち、一定範囲内にあり、前記一定パーセント領域以外の一つの領域で前記二つのイメージのいずれか一つに適用される第2加重関数によって該当領域のブレンディングされたイメージを生成する第2ブレンディング部と、
    前記二つのソースイメージの重なった部分のうち、一定範囲内にあり、前記一定パーセント領域以外の他の領域で前記二つのイメージのうちの他の一つに適用される第3加重関数によって該当領域のブレンディングされたイメージを生成する第3ブレンディング部と、
    を含むことを特徴とするパノラマ映像のためのブレンディング装置。
JP2006349716A 2006-01-09 2006-12-26 イメージマッチング速度とブレンディング方法を改善したパノラマ映像提供方法および装置 Expired - Fee Related JP4512584B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060002170A KR100724134B1 (ko) 2006-01-09 2006-01-09 이미지 매칭 속도와 블렌딩 방법을 개선한 파노라마 영상제공 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2007183949A true JP2007183949A (ja) 2007-07-19
JP4512584B2 JP4512584B2 (ja) 2010-07-28

Family

ID=38232404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006349716A Expired - Fee Related JP4512584B2 (ja) 2006-01-09 2006-12-26 イメージマッチング速度とブレンディング方法を改善したパノラマ映像提供方法および装置

Country Status (3)

Country Link
US (1) US8189031B2 (ja)
JP (1) JP4512584B2 (ja)
KR (1) KR100724134B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017513245A (ja) * 2014-12-23 2017-05-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Uavによるパノラマ画像撮影方法
JP2019106708A (ja) * 2017-12-14 2019-06-27 アクシス アーベー 符号器を用いた効率的なブレンディング

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4947351B2 (ja) * 2006-07-28 2012-06-06 富士ゼロックス株式会社 画像処理装置、及び、プログラム
US8224122B2 (en) * 2006-12-15 2012-07-17 Microsoft Corporation Dynamic viewing of wide angle images
JP2008219428A (ja) * 2007-03-02 2008-09-18 Fujifilm Corp 撮像装置
JP2008306512A (ja) * 2007-06-08 2008-12-18 Nec Corp 情報提供システム
WO2009086197A1 (en) * 2007-12-20 2009-07-09 Monogram Biosciences, Inc. Her-2 diagnostic methods
KR100934211B1 (ko) * 2008-04-11 2009-12-29 주식회사 디오텍 휴대용 단말기의 파노라마 이미지 생성 방법
KR101473215B1 (ko) * 2008-04-18 2014-12-17 삼성전자주식회사 파노라마 이미지 생성장치 및 그 방법
US8160392B1 (en) * 2008-10-01 2012-04-17 Adobe Systems Incorporated Automatic suggestion of image blending techniques
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
KR100968378B1 (ko) * 2009-03-05 2010-07-09 주식회사 코아로직 파노라마 이미지를 생성하는 장치, 방법 및 그 방법을 실행하는 프로그램이 기록된 기록 매체
US20100235078A1 (en) * 2009-03-12 2010-09-16 Microsoft Corporation Driving directions with maps and videos
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US8817136B2 (en) * 2010-06-23 2014-08-26 Raytheon Company Image processing utilizing spatially-displaced image data
US9342998B2 (en) * 2010-11-16 2016-05-17 Microsoft Technology Licensing, Llc Techniques to annotate street view images with contextual information
KR101049928B1 (ko) * 2011-02-21 2011-07-15 (주)올라웍스 파노라마 이미지를 생성하기 위한 방법, 사용자 단말 장치 및 컴퓨터 판독 가능한 기록 매체
US8917322B2 (en) * 2011-04-01 2014-12-23 Lockheed Martin Corporation Method and apparatus for digital video latency reduction by real-time warping
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
CN103828343B (zh) 2011-06-10 2017-07-11 菲力尔系统公司 基于行的图像处理和柔性存储系统
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
CN103748867B (zh) 2011-06-10 2019-01-18 菲力尔系统公司 低功耗和小形状因子红外成像
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
KR101742120B1 (ko) * 2011-06-10 2017-05-31 삼성전자주식회사 영상 처리 장치 및 방법
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
CN103875235B (zh) 2011-06-10 2018-10-12 菲力尔系统公司 用于红外成像装置的非均匀性校正技术
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
JP5754312B2 (ja) 2011-09-08 2015-07-29 カシオ計算機株式会社 画像処理装置及び画像処理方法、並びにプログラム
US8824794B1 (en) * 2012-01-23 2014-09-02 Google Inc. Graduated color correction of digital terrain assets across different levels of detail
CN103366351B (zh) * 2012-03-29 2016-06-22 华晶科技股份有限公司 产生全景图像的方法及其图像获取装置
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9013543B1 (en) * 2012-11-14 2015-04-21 Google Inc. Depth map generation using multiple scanners to minimize parallax from panoramic stitched images
CN103106664A (zh) * 2013-02-27 2013-05-15 慈溪思达电子科技有限公司 基于像素块的遮挡区域图像匹配方法
JP2014225718A (ja) * 2013-05-15 2014-12-04 ソニー株式会社 画像処理装置および画像処理方法
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
KR101643550B1 (ko) * 2014-12-26 2016-07-29 조선대학교산학협력단 비선형 공간에서 고속 선명도 확산 방법을 이용하여 색상불변 특성을 검출하고 표현하는 시스템 및 그 방법
WO2017056942A1 (ja) * 2015-09-30 2017-04-06 富士フイルム株式会社 画像処理装置及び撮像装置及び画像処理方法及びプログラム
EP3206184A1 (en) 2016-02-11 2017-08-16 NXP USA, Inc. Apparatus, method and system for adjusting predefined calibration data for generating a perspective view
CN105976325A (zh) * 2016-06-29 2016-09-28 上海小蚁科技有限公司 用于调整多个图像的明亮度的方法
CN106373091B (zh) * 2016-09-05 2019-05-07 山东省科学院自动化研究所 全景泊车中鸟瞰图像的自动拼接方法、系统及车辆
US10497094B2 (en) 2016-12-28 2019-12-03 Nokia Technologies Oy Method and apparatus for multi-band blending of a seam in an image derived from multiple cameras
WO2018207303A1 (ja) * 2017-05-11 2018-11-15 三菱電機株式会社 車載用監視カメラ装置
KR101990491B1 (ko) 2017-08-03 2019-06-20 (주)아이피티브이코리아 초고해상도 영상 스티칭 방법 및 시스템
US11049218B2 (en) 2017-08-11 2021-06-29 Samsung Electronics Company, Ltd. Seamless image stitching
KR102198217B1 (ko) 2018-04-11 2021-01-04 한국전자통신연구원 순람표에 기반한 스티칭 영상 생성 장치 및 방법
CN112119626B (zh) * 2018-04-26 2022-03-18 十以及二株式会社 广角影像提供方法
US20200294194A1 (en) * 2019-03-11 2020-09-17 Nvidia Corporation View synthesis using neural networks
CN111045090B (zh) * 2019-12-31 2022-05-20 核工业北京地质研究院 一种磁异常网格快速缝合方法
US11470250B2 (en) * 2019-12-31 2022-10-11 Gopro, Inc. Methods and apparatus for shear correction in image projections
KR102581236B1 (ko) * 2022-02-16 2023-09-22 주식회사 비지트 파노라믹 영상 블렌딩 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046573A (ja) * 2002-07-12 2004-02-12 Sanyo Electric Co Ltd チルト角算出方法、円筒パノラマ画像合成方法、ならびに円筒パノラマ画像合成処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005175620A (ja) * 2003-12-08 2005-06-30 Canon Inc 画像処理方法及び装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5305204A (en) * 1989-07-19 1994-04-19 Kabushiki Kaisha Toshiba Digital image display apparatus with automatic window level and window width adjustment
US6549681B1 (en) * 1995-09-26 2003-04-15 Canon Kabushiki Kaisha Image synthesization method
JP3064928B2 (ja) * 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
US7133078B2 (en) * 1997-05-21 2006-11-07 Olympus Optical Co., Ltd. Automatic focal point sensing device
US6539126B1 (en) * 1998-04-17 2003-03-25 Equinox Corporation Visualization of local contrast for n-dimensional image data
US6834122B2 (en) * 2000-01-22 2004-12-21 Kairos Scientific, Inc. Visualization and processing of multidimensional data using prefiltering and sorting criteria
AU2002215743A1 (en) * 2000-12-07 2002-06-18 Just Iced Cubed Inventions Inc. Systems and methods for registration of hemispheric images for panomaric viewing
DE10062254C2 (de) * 2000-12-14 2002-12-19 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Charakterisieren einer Oberfläche und Verfahren und Vorrichtung zur Ermittlung einer Formanomalie einer Oberfläche
SE517626C3 (sv) * 2001-04-12 2002-09-04 Cellavision Ab Förfarande vid mikroskopering för att söka av och positionera ett objekt, där bilder tas och sammanfogas i samma bildkoordinatsystem för att noggrant kunna ställa in mikroskopbordet
JP3297040B1 (ja) * 2001-04-24 2002-07-02 松下電器産業株式会社 車載カメラの画像合成表示方法及びその装置
AU2002257442A1 (en) * 2001-05-14 2002-11-25 Fadi Dornaika Attentive panoramic visual sensor
US7362969B2 (en) * 2001-05-29 2008-04-22 Lucent Technologies Inc. Camera model and calibration procedure for omnidirectional paraboloidal catadioptric cameras
US7046401B2 (en) * 2001-06-01 2006-05-16 Hewlett-Packard Development Company, L.P. Camera-based document scanning system using multiple-pass mosaicking
US20030099295A1 (en) * 2001-10-31 2003-05-29 Infowrap Inc. Method for fast motion estimation using bi-directional and symmetrical gradient schemes
US7409092B2 (en) * 2002-06-20 2008-08-05 Hrl Laboratories, Llc Method and apparatus for the surveillance of objects in images
US6775411B2 (en) * 2002-10-18 2004-08-10 Alan D. Sloan Apparatus and method for image recognition
US7149368B2 (en) * 2002-11-19 2006-12-12 Microsoft Corporation System and method for synthesis of bidirectional texture functions on arbitrary surfaces
US7142723B2 (en) * 2003-07-18 2006-11-28 Microsoft Corporation System and process for generating high dynamic range images from multiple exposures of a moving scene
US7161606B2 (en) * 2003-09-08 2007-01-09 Honda Motor Co., Ltd. Systems and methods for directly generating a view using a layered approach
US7570803B2 (en) * 2003-10-08 2009-08-04 Microsoft Corporation Virtual camera translation
JP4407249B2 (ja) * 2003-11-18 2010-02-03 ソニー株式会社 データ処理装置およびその方法と符号化装置、その方法及びプログラム
KR100689419B1 (ko) * 2004-05-28 2007-03-08 삼성전자주식회사 카메라를 구비한 이동 단말에서 촬영 이미지 합성 장치 및방법
KR101009832B1 (ko) * 2004-06-18 2011-01-19 삼성전자주식회사 디지털 카메라에서 이미지 합성 장치 및 방법
JP4328692B2 (ja) * 2004-08-11 2009-09-09 国立大学法人東京工業大学 物体検出装置
US7623682B2 (en) * 2004-08-13 2009-11-24 Samsung Electronics Co., Ltd. Method and device for motion estimation and compensation for panorama image
KR100677142B1 (ko) * 2004-08-13 2007-02-02 경희대학교 산학협력단 파노라마 영상의 움직임 추정 및 보상
US7730406B2 (en) * 2004-10-20 2010-06-01 Hewlett-Packard Development Company, L.P. Image processing system and method
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US7239805B2 (en) * 2005-02-01 2007-07-03 Microsoft Corporation Method and system for combining multiple exposure images having scene and camera motion
US7889905B2 (en) * 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
US7865019B2 (en) * 2005-07-27 2011-01-04 Siemens Corporation On optimizing template matching via performance characterization

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046573A (ja) * 2002-07-12 2004-02-12 Sanyo Electric Co Ltd チルト角算出方法、円筒パノラマ画像合成方法、ならびに円筒パノラマ画像合成処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005175620A (ja) * 2003-12-08 2005-06-30 Canon Inc 画像処理方法及び装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017513245A (ja) * 2014-12-23 2017-05-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Uavによるパノラマ画像撮影方法
US9854165B2 (en) 2014-12-23 2017-12-26 Sz Dji Osmo Technology Co., Ltd. UAV panoramic imaging
US10187572B2 (en) 2014-12-23 2019-01-22 Sz Dji Osmo Technology Co., Ltd. UAV panoramic imaging
US10506158B2 (en) 2014-12-23 2019-12-10 Sz Dji Osmo Technology Co., Ltd. UAV panoramic imaging
US11330173B2 (en) 2014-12-23 2022-05-10 Sz Dji Osmo Technology Co., Ltd. UAV panoramic imaging
US11949992B2 (en) 2014-12-23 2024-04-02 Sz Dji Osmo Technology Co., Ltd. UAV panoramic imaging
JP2019106708A (ja) * 2017-12-14 2019-06-27 アクシス アーベー 符号器を用いた効率的なブレンディング

Also Published As

Publication number Publication date
KR100724134B1 (ko) 2007-06-04
JP4512584B2 (ja) 2010-07-28
US20070159524A1 (en) 2007-07-12
US8189031B2 (en) 2012-05-29

Similar Documents

Publication Publication Date Title
JP4512584B2 (ja) イメージマッチング速度とブレンディング方法を改善したパノラマ映像提供方法および装置
JP4435145B2 (ja) 幾何情報を校正してパノラマ映像を提供する方法および装置
JP5736526B2 (ja) 電子マップに基づく位置検索方法及び装置
EP2160714B1 (en) Augmenting images for panoramic display
US8660309B2 (en) Image processing apparatus, image processing method, image processing program and recording medium
EP2328125A1 (en) Image splicing method and device
CN104715447A (zh) 图像合成方法和装置
CN110809786A (zh) 校准装置、校准图表、图表图案生成装置和校准方法
US10733777B2 (en) Annotation generation for an image network
JP2014071850A (ja) 画像処理装置、端末装置、画像処理方法、およびプログラム
TWI820246B (zh) 具有像差估計之設備、估計來自廣角影像的像差之方法及電腦程式產品
CN112581389A (zh) 虚拟视点深度图处理方法、设备、装置及存储介质
US9197882B2 (en) Mobile communication terminal having image conversion function and method
CN111773706A (zh) 一种游戏场景的渲染方法和装置
US20230005213A1 (en) Imaging apparatus, imaging method, and program
JPH10208074A (ja) 画像生成方法
JP2013093673A (ja) 情報処理装置、制御方法、情報処理システム、プログラム
CN116188668B (zh) 一种基于ios平台的阴影渲染的方法、介质及电子设备
CN117274558B (zh) 一种视觉定位的ar导航方法、装置、设备及存储介质
CN117057086A (zh) 基于目标识别与模型匹配的三维重建方法、装置及设备
CN114723800A (zh) 点云数据的校正方法和校正装置、电子设备和存储介质
JP2016006654A (ja) 視界映像情報生成装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100413

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4512584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees