JP2012053896A - 画像情報出力方法 - Google Patents
画像情報出力方法 Download PDFInfo
- Publication number
- JP2012053896A JP2012053896A JP2011232739A JP2011232739A JP2012053896A JP 2012053896 A JP2012053896 A JP 2012053896A JP 2011232739 A JP2011232739 A JP 2011232739A JP 2011232739 A JP2011232739 A JP 2011232739A JP 2012053896 A JP2012053896 A JP 2012053896A
- Authority
- JP
- Japan
- Prior art keywords
- image
- road
- image information
- shooting
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/56—Information retrieval; Database structures therefor; File system structures therefor of still image data having vectorial format
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/732—Query formulation
- G06F16/7335—Graphical querying, e.g. query-by-region, query-by-sketch, query-by-trajectory, GUIs for designating a person/face/object as a query predicate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
- G06F16/784—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/44—Morphing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Library & Information Science (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computer Hardware Design (AREA)
- Processing Or Creating Images (AREA)
- Instructional Devices (AREA)
- Navigation (AREA)
- Image Processing (AREA)
Abstract
【解決手段】 航空機搭載および車載等の複数のディジタルカメラにより都市を上空ないし地上から高密度に多方向から撮影するシステムと、これらの画像をデータベース化すると同時に、任意の都市の位置に対して任意の視点経路と視線方向に対応した画像を検索するシステムと、検索した画像を実際の視点と撮影済み画像との視差に対応してモーフィング処理により連続した滑らかな3次元映像を生成するシステムを含むことを特徴とする都市景観3次元映像生成システム。
【選択図】 図1
Description
の視線273、時刻t+3δtの視線 274、時刻t+4δt の視線275、および時刻t+5δtの視線276によりδtごとにとらえられた地表上の軌跡である。本発明では該視点経路P(t) 270からの該目標トラジェクトリT(t) 280に対する都市景観3次元映像を生成する方法として、時刻tの視線271から時刻t+5δtの視線276に近く視差の少ない空中画像i260および空中画像i+1 261を空中画像データベース143より検索し、時刻t の視線271、時刻t+δtの視線272、および時刻t+2δt
の視線273の間は最も視線が近い空中画像i260を原画像として使用して、時刻t
の視線271、時刻t+δtの視線272、および時刻t+2δt の視線273と空中画像i260の視線の間の視点の相違による視差を空中画像i260に対するモーフィング処理で補正し、時刻t+3δtの視線 274からは空中画像i260よりも空中画像i+1 261の方が視点の相違による視差が少ないと判断して空中画像i+1 261を原画像に切り替え、時刻t+3δtの視線 274、時刻t+4δt
の視線275、時刻t+5δtの視線276と空中画像i+1 261の視線の間の視点の相違による視差を空中画像i+1 261に対するモーフィング処理で補正することにより滑らかな該目標トラジェクトリT(t)280に沿った都市景観の3次元映像生成を行うのである。なお、モーフィング処理を行わずに空中画像i260と空中画像i+1 261を切り替えるだけでもよい。
撮影画像中心光軸方位ベクトル(正規化) Gkc=t(Gkcx Gkcy Gkcz)
撮影画像右下端方位ベクトル(正規化) Gk1=t(Gk1x Gk1y Gk1z)
撮影画像右上端方位ベクトル(正規化) Gk2=t(Gk2x Gk2y Gk2z)
撮影画像左上端方位ベクトル(正規化) Gk3=t(Gk3x Gk3y Gk3z)
撮影画像左下端方位ベクトル(正規化) Gk4=t(Gk4x Gk4y Gk4z)
と定義すると、撮影位置Sは
となり、図17撮影パラメタの撮影位置(緯度,経度,高度)が求まる。正規化画像ベクトル(X,Y,Z)は(行列)Aと(ベクトル)GkCにより、AGkC,により求まる。
であればTcは三角形T1T2T3内部にあるといえる。すなわち交わる。撮影位置S=(x,y,z)からの画像ベクトル(正規化)Gkc がTcで三角形T1T2T3と交わるとすると
ここでa,bは任意のスカラー定数となる。ここでRは図17の撮影パラメタの画像距離である。画像距離とは撮影位置から撮影光軸がTerrain580に交わるまでの距離をいう。ここで、
とすると、
となり、図17の撮影パラメタのTerrain上中心点座標(緯度,経度,標高)がTcとして求まる。ただし三角形T1T2T3の内部にあるかは、外積を計算してチェックする。
機体のピッチ・ヨー・ロールによる座標変換が(行列)Aであると、画面フレームの水平線は下記で与えられる。
したがって、フレーム回転角は、
となる。ここで“・”は内積を表し、縦に2本線で囲んだ部分はノルムを表す。
(数9)
正規化ヒストグラム中央値+(画素輝度―中央値フィッティング値)
*正規化ヒストグラム値幅/値幅フィッティング値
で求められる。以上説明した処理は、図20で処理ブロック520から処理ブロック524で記された処理である。図21は本発明のモヤ影響除去処理の処理結果例を示すものであり、モヤ影響除去前画像530を処理した結果、モヤ影響除去後画像531が得られている。
Zmcを通りZm1とZm2の中点Zm12と、Zm3とZm4の中点Zm34を通るベクトルと平行なベクトルをZmHと定義する。
Zmcを通り(ベクトル)ZmVと(ベクトル)ZmHで張られる面をTerrain平面といい(平面)Zmであらわす。(平面)Zmの垂線を(ベクトル)nm(ノルム=1)とする。Zmcを通り、画像ベクトルGmに垂直な平面を(平面)Nmという。(平面)Nmは原画像撮影位置視点Sm671より撮影した画像(視野)である。(平面)Zm-->(平面)Nmへの変換が存在して、これをΦAという。これは原画像mの撮影行為である。視点Piに対して、視点座標Piと視線ベクトルVi(ノルム=1)とTerrain平面Zm(共通)が決まると同様にTiCとTi1、Ti2、Ti3、Ti4が決まる。TiCを通り視線ベクトルViに垂直な平面をNiという。平面TmiとはTerrain面Zmの中で、視点Piによる視野でZmの一部を構成する。視点Piの視野(平面)Niと(平面)Tmiは視点Piと(ベクトル)Viと視野角θiが決まれば一意に決まる。(平面)Tmiの(平面)Nmへの写像は原画像撮影位置視点Smと(ベクトル)Gmと原画像mの画角θmが決まれば一意に決まる。(平面)Ni―>(平面)Tmi―>(平面)Nmの対応により(平面)Niのθiに対応する各画素が、(平面)Nmのθmに対応する画素に対応付けられればモーフィングアルゴリズムは完成する。
であらわされる。ここで垂線条件である、
を代入すると、
が得られる。ここで・はベクトル内積をあらわす。視界の中心線ViCとTerrain平面Zmの交点TiCは、TiCが
を満足することからこれに代入して、
より
となり、
より、視点Piの画像中心点のTerrain平面Zmでの座標が求められる。同様に、視点Piの視界の4隅の正規化視線ベクトルをVi1、Vi2、Vi3、Vi4とし、これらとTerrain平面Zmの交点Ti1、Ti2、Ti3、Ti4のTerrain平面Zmでの座標を求めることができる。さらにこの座標のNm面上への変換を求める。Terrain平面Zm上の任意の点Xは、
であらわされ、垂線条件である、
より、4隅の正規化視線ベクトルをVi1、Vi2、Vi3、Vi4に対して、
ただしk=1,4を満足する
より
となり、
で、視点Piの画像の4隅の点のTerrain平面Zmでの座標が求められる。この平面Zm上での座標を平面Nm上での座標に対応付けることにより原画像である平面Zm上のどの点を視点Piの画面に映せばよいか分かる。(平面)Zm上での視点Piの画面の中心および四隅の点の座標TiC、Ti1、Ti2、Ti3、Ti4(まとめてTik、k=1,2,3,4,cとする)が(平面)Nm上でQiC、Qi1、Qi2、Qi3、Qi4(まとめてQik、k=1,2,3,4,cとする)に対応する。(平面)Nm面上での画面の水平ラインを(ベクトル)NH、垂直ラインを(ベクトル)NVとするとNm面上の任意の点Yは任意定数a,bに対して
で表される。画像ベクトルGmは(ベクトル)NH、(ベクトル)NVに垂直だから
となり、また、QikとTikは画像撮影位置Smより見て同一線上にあるから
であるので、
となり、Gmとの内積をとって
となるから
となる。
で既にTikは求まっているから、これで、視点Piの視界の原画面mの画面との対応が完成した。
として、z軸周りに回転させてyz平面に載せてからy軸周りに回転させてz軸と一致させる。z軸周りの回転は、
で与えられる。次に、y軸周りの回転は、
で与えられる。両方の回転を合成すると、
となる。平面Nmの交点Qik(k=1,2,3,4,C)に対してGmをz軸に移す変換を施せば、Qik(k=1,2,3,4,C)はxy面上の点に変換される。これは、原画像mの画面上の位置に対応する。すなわちモーフィングである。
タイプ1属性 次の端点までの辺に関する属性で、サブ属性として下記a投影面コードとb幅員がある。
a投影面コード:
0 辺の両側に投影面がない。
1 辺の進行方向左側だけに投影面がある。
2 辺の進行方向右側だけに投影面がある。
3 辺の進行方向両側に投影面がある。
b幅員 道路の両端の中心線グラフからの距離を示す。
タイプ2属性 端点における道路接続に関する情報で、サブ属性として下記a、bがある。
a接続先道路ID No.
b接続先道路ID No.に対応した道路グラフデータテーブルRDGDTにおける接続点の相対レコードアドレス この情報は道路の接続が交叉か分岐か合流かを判別するために使用する。
タイプ3属性 端点における道路終了を示す。
792k,i+3で交叉点を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwkとなる(端点k,i+3)。さらに端点k,i+4
792k,i+4以降に続く。道路ID No.=l(エル)777lの構造記述を図47−2道路グラフデータテーブルRDGDTl(エル)795lと図47に即して説明する。道路ID No.=l 777lは下端の端点l,j
793l,jよりスタートし、次の端点l,j+1 793l,j+1までは両側に投影面を持ち(属性コード=3)、幅員がwlである(端点l,j)。端点l,j+1 793l,j+1で交差点に入った結果両側の投影面が無くなり(属性コード=0)、幅員は未定義でブランクとなる(端点l,j+1)。端点l,j+2 793l,j+2で道路ID No.=k 777kと交差し(属性コード=k),属性の2は道路ID No.=k 777kのレコードアドレスが2の端点で交差していることを示す(端点l,j+2)。端点l,j+3793l,j+3で交差点を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwlとなる(端点l,j+3)。さらに端点l,j+4
793l,j+4以降に続く。
777lのレコードアドレスが0の端点すなわち開始点で分岐していることを示す(端点k,i+2)。端点k,i+3792k,i+3で3叉路を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwkとなる(端点k,i+3)。さらに端点k,i+4792k,i+4以降に続く。道路ID No.=l(エル) 777lの構造記述を図48−2道路グラフデータテーブルRDGDTl(エル)795lと図48に即して説明する。道路ID No.=l 777lは3叉路の端点l,j793l,jよりスタートし、道路ID
No.=k 777kから分岐し(属性コード=k),属性の2は道路ID No.=k777kのレコードアドレスが2の端点で分岐していることを示す(端点l,j)、次の端点l,j+1 793l,j+1までは3叉路内で両側に投影面が無く(属性コード=0)、幅員も無定義でブランクである(端点l,j)。端点l,j+1 793l,j+1で3叉路を出た結果両側に投影面が存在するようになり(属性コード=3)、幅員はwlとなる(端点l,j+1)。さらに端点l,j+2 793l,j+2以降に続く。
777lのレコードアドレスが0の端点すなわち開始点で分岐していることを示す(端点k,i+2)。端点k,i+3792k,i+3で分岐路を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwkとなる(端点k,i+3)。さらに端点k,i+4792k,i+4以降に続く。道路ID No.=l(エル)777lの構造記述を図49−2道路グラフデータテーブルRDGDTl(エル)795lと図49に即して説明する。道路ID No.=l 777lは分岐路の端点l,j793l,jよりスタートし、道路ID
No.=k 777kから分岐し(属性コード=k),属性の2は道路ID No.=k777kのレコードアドレスが2の端点で分岐していることを示す(端点l,j)、次の端点l,j+1 793l,j+1までは分岐路内で両側に投影面が無く(属性コード=0)、幅員も無定義でブランクである(端点l,j)。端点l,j+1 793l,j+1で左側に投影面が存在するようになり(属性コード=1)、幅員はwlとなる(端点l,j+1)。端点l,j+2 793l,j+2で分岐路を抜け出し両側に投影面が存在するようになり(属性コード=3)、幅員はwlとなる(端点l,j+2)。さらに端点l,j+3 793l,j+3以降に続く。
792k,i+2で両側の投影面が無くなり(属性コード=0)、幅員はブランクとなる(端点k,i+2)。端点k,i+3
792k,i+3で道路ID No.=l(エル) 777lと交差し(属性コード=l(エル))属性の3は道路ID No.=l(エル)777lのレコードアドレスが3の端点で交差していることを示す(端点k,i+3)。端点k,i+3792k,i+3で右側に投影面が出現し(属性コード=3)、幅員がwkである(端点k,i+4)。端点k,i+5792k,i+5で交差点を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwkとなる(端点k,i+5)。さらに端点k,i+6792k,i+6以降に続く。道路ID No.=l(エル) 777lの構造記述を図51−2道路グラフデータテーブルRDGDTl(エル) 795lと図51に即して説明する。道路ID No.=l 777lは左下端の端点l,j 793l,jよりスタートし、次の端点l,j+1 793l,j+1までは両側に投影面を持ち(属性コード=3)、幅員がwlである(端点l,j)。端点l,j+1793l,j+1で交差点に入った結果左側の投影面が無くなり(属性コード=2)、幅員はwlである。端点l,j+3 793l,j+3で両側の投影面が無くなり(属性コード=0)、幅員は未定義でブランクとなる(端点l,j+3)。端点l,j+3
793l,j+3で道路ID No.=k 777kと交差し(属性コード=k),属性の3は道路ID No.=k
777kのレコードアドレスが3の端点で交差していることを示す(端点l,j+3)。端点l,j+4793l,j+4で左側に投影面が出現し(属性コード=1)幅員がwlとなる(端点l,j+4)。端点l,j+5793l,j+5で交差点を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwlとなる(端点l,j+5)。さらに端点l,j+6
793l,j+6以降に続く。
777mのレコードアドレスがnの端点で合流していることを示す(端点l,j+3)。端点l,j+4793l,j+4で右側に投影面が出現し(属性コード=2)幅員がwlとなる(端点l,j+4)。端点l,j+5793l,j+5で交差点を抜けた結果、両側に投影面を持つようになり(属性コード=3)幅員がwlとなる(端点l,j+5)。さらに端点l,j+6
793l,j+6以降に続く。道路ID No.=m 777mの構造記述を図52−3道路グラフデータテーブルRDGDTm 795mと図52に即して説明する。道路ID No.=m 777mは合流路の端点m,n 793m,nで終了し、道路ID No.=l 777lへ合流し(属性コード=l),属性の3は道路ID No.=l 777lのレコードアドレスが3の端点で合流していることを示す(端点m,n)、前の端点m,n-1 793m,n-1からは分岐路内で両側に投影面が無く(属性コード=0)、幅員も無定義でブランクである(端点m,n-1)。その前の端点m,n-2 793m,n-2からは右側のみに投影面が存在しており(属性コード=2)、幅員はwmとなる(端点m,n-2)。その前の端点m,n-3 793m,n-3からは両側に投影面が存在し(属性コード=3)、幅員はwmである(端点m,n-3)。
第0番目を 投影面区分mil0座標(xmil0,ymil0)891
第1番目を 投影面区分mil1座標(xmil1,ymil1)892
第2番目を 投影面区分mil2座標(xmil2,ymil2)893
第3番目を 投影面区分mil3座標(xmil3,ymil4)894
以下同様と名づけて定義する。添え字lは左側を示す。同様に道路グラフの方向883の右側の投影面区分を、
第0番目を 投影面区分mir0座標(xmir0,ymir0)895
第1番目を 投影面区分mir1座標(xmir1,ymir1)896
第2番目を 投影面区分mir2座標(xmir2,ymir2)897
第3番目を 投影面区分mir3座標(xmir3,ymir4)898
以下同様と名づけて定義する。添え字rは右側を示す。各投影面区分は上記に示された端点座標に引き続く道路グラフの方向883の辺で表現される。
道路グラフの方向883の左側で視点の投影面区分への垂線の足が存在する投影面区分
道路グラフの方向883の右側で視点の投影面区分への垂線の足が存在する投影面区分
(2)左20°≦道路グラフの方向883に対する画像ベクトルとのなす角≦左160°
道路グラフの方向883の左側で画像ベクトルが交差する投影面区分
(3)左160°≦道路グラフの方向883に対する画像ベクトルとのなす角≦左180°
道路グラフの方向883の左側で視点の投影面区分への垂線の足が存在する投影面区分
道路グラフの方向883の右側で視点の投影面区分への垂線の足が存在する投影面区分
(4)0°≦道路グラフの方向883に対する画像ベクトルとのなす角≦右20°
道路グラフの方向883の右側で視点の投影面区分への垂線の足が存在する投影面区分
道路グラフの方向883の左側で視点の投影面区分への垂線の足が存在する投影面区分
(5)右20°≦道路グラフの方向883に対する画像ベクトルとのなす角≦右160°
道路グラフの方向883の左側で画像ベクトルが交差する投影面区分
(6)右160°≦道路グラフの方向883に対する画像ベクトルとのなす角≦右180°
道路グラフの方向883の左側で視点の投影面区分への垂線の足が存在する投影面区分
道路グラフの方向883の右側で視点の投影面区分への垂線の足が存在する投影面区分
すなわち(1)(3)(4)(6)は道路グラフの方向883の前後方向に対する画像であるため左右両側の投影面区分に登録する。
937に、原画像撮影位置c 916cは角度80-120°セクタ934に区分される。画像ベクトルが道路グラフの方向883とのなす角が前方左右20°の範囲920に存在する画像ベクトルd 919dは原画像撮影位置d 916dからの垂線の足が投影面区分917に存在するので角度20-40°セクタ 930に原画像を区分する。画像ベクトルが道路グラフの方向883とのなす角が後方左右20°の範囲921に存在する画像ベクトルe(919e)は原画像撮影位置d916dからの垂線の足が投影面区分 917に存在するので角度160-180°セクタ938に原画像を区分する。図68では、該都市の任意の通路に沿って、該通路に面する任意の場所を人間目線位置から見込む複数の該原画像の位置関係を示しており、原画像撮影位置b(916b)と原画像撮影位置c(916c)からそれぞれ画像ベクトルb(919b)と画像ベクトルc(919c)で投影面区分917を見込んで撮影している。投影面区分917上の任意の点から原画像撮影位置b(916b)と原画像撮影位置c(916c)を見込む角度(立体角)は図68では最大50度であり、該通路に沿った任意の場所から最大50度(半頂角25度)の立体角ごとに見込む角度で該3次元映像の原画像を準備する。立体角はステラジアンで半頂角θ度に対して2π(1-cosθ)で計算され、0.59ステラジアンとなり、これを該立体角の上限とする。
緯度経度−>道路ID No.−>端点座標―>投影面区分座標
投影面区分座標と視線方向―>原画像
で求められる。中心線左右距離Dv 853は
で求められ、道路グラフの左右いずれかにあるかは
の正負で判定する。原画像撮影位置S 916からの画像ベクトルGc904が投影面上で交わる点は、任意のスカラーa、nに対して、
これを解くと、
投影面区分の長さは通常同一とするが、投影面区分の座標が規定されているので、任意の投影面区分miri座標(xmiri,ymiri)までの投影面区分mir0座標(xmir0,ymir0)895からの総投影面長は判明する。上記nより投影面区分相対アドレスと画像ベクトル投影面区分内位置dc 856は単純な引き算でもとまる。同様に画像左端投影面区分内位置dl 857および画像右端投影面区分内位置dr 858も求めることができる。
(平面)Nmへの変換が存在して、これをΦAという。これは原画像mの撮影行為である。視点Piに対して、視点座標Piと視線ベクトルVi(ノルム=1)と投影面Zm(共通)が決まると同様にTiCとTiL、TiRが決まる。TiCを通り視線ベクトルViに垂直な平面をNiという。(平面)Tmiとは投影面Zmの中で、視点Piによる視野でZmの一部を構成する。視点Piの視野(平面)Niと(平面)Tmiは視点座標Piと視線ベクトルViと視野角θiが決まれば一意に決まる。平面Tmiの平面Nmへの写像はSmとGmと原画像mの画角θmが決まれば一意に決まる。(平面)Ni―>(平面)Tmi―>(平面)Nmの対応によりNiのθiに対応する各画素が、(平面)Nmのθmに対応する画素に対応付けられればモーフィングアルゴリズムは完成する。一般に平面Zm上の任意の点Xは、道路グラフの方向(ベクトル)R883を用いて
であらわされる。ここで垂線条件である、
を代入すると、
が得られる。ここで・はベクトル内積をあらわす。視界の中心線ViCと投影面Zmの交点TiCは、TiCが
を満足することからこれに代入して、
より
となり、
で、視点Piの画像中心点の投影面Zmでの座標が求められた。
であらわされ垂線条件である、
より、(数44)がViCの代わりに左右端の正規化視線ベクトルViL、ViRに対して成り立つ。(k=L,R)
より
となり、
で、視点Piの画像の左右端の投影面Zmでの座標が求められた。この平面Zm上での座標を平面Nm上での座標に対応付けることにより原画像である平面Zm上のどの点を視点Piの画面に映せばよいか分かる。Zm上での視点Piの画面の中心と左右端点の座標TiC、TiL、TiR(まとめてTik、k=L,R,Cとする)がNm上でQiC、QiL、QiR(まとめてQik、k=L,R,Cとする)に対応する。Nm面上での画面の水平ラインをNとするとNm面上の任意の点Yは任意定数aに対して
で表される。画像ベクトルGmはNに垂直だから
なり、また、QikとTikは画像撮影位置Smより見て同一線上にあるから
であるので、
となり、Gmとの内積をとって
となるから
となる。
で既にTikは求まっているから、これで、視点Piの視界の原画面mの画面との対応が完成する。
として、z軸周りに回転させるとNmはx軸に載る。z軸周りの回転は、
で与えられる。平面Nmの交点Qik(k=L,R,C)に対してGmをz軸に移す変換を施せば、Qik(k=L,R,C)はx軸の点に変換される。これは、原画像mの画面上の位置に対応する。すなわちモーフィングである。以上は2次元モーフィングであるので、図73に水平線上の対応が画素単位で求められた。視点における視野731の原画像730における対応が水平線上で示される。垂直方向は上下対称で拡大縮小比率は水平線上と同比率である。なお、視線の動きを水平面内に限定しないのであれば、空中3次元動画生成における3次元モーフィング処理を私用してもよい。なお、図74の処理ブロック947の前後視界モーフィング処理は、視点F 907の視界を撮影点a 916a での原画像から2次元モーフィングで処理ブロック948で述べたのと同様のアルゴリズムで生成する。以上で本発明になる都市景観の3次元動画生成アミューズメントシステムの路上3次元動画生成に関する説明を終了する。
101 空中画像取得計画ファイル
102 空中画像一次ファイル
110 路上画像取得システム
111 路上画像取得計画ファイル
112 路上画像一次ファイル
120 空中画像データベース生成登録システム
121 DEMファイル
122 DGPSファイル
130 路上画像データベース生成登録システム
140 空中画像データベース
142 空中画像インデクス機構
143 空中画像データベース
150 路上画像データベース
151 道路グラフデータベース
152 路上画像インデクス機構
153 路上画像データベース
160 空中3次元映像生成システム
165 空中画像検索エンジン
170 路上3次元映像生成システム
175 路上画像検索エンジン
180 グラフィックユーザインターフェイスシステム
190 インターネット
191 ユーザ
Claims (12)
- 撮影装置により、複数の撮影位置それぞれにおいて複数の方向への、複数のサブ領域に分割される撮影領域の撮影を行い複数の画像情報を取得してメモリに記憶し、
前記複数の画像情報それぞれを前記メモリに記憶する際に、前記画像情報が取得された時の撮影位置情報と撮影方向情報と画角情報とを前記画像情報に関連付けて前記メモリに記憶し、
前記メモリに記憶された前記画像情報に関連付けられた撮影位置情報と撮影方向情報と画角情報とを参照して前記画像情報が取得されたときに撮影されたサブ領域を特定し、
前記特定されたサブ領域に、前記画像情報と、前記撮影位置情報と、前記撮影方向情報と、前記画角情報とを関連付けてデータベースに記憶し、
前記撮影領域上に設定される視点経路上において順番に配置される複数の位置と前記複数の位置それぞれにおける視線の前記撮影領域へ向かう方向とを指定し、
前記サブ領域に関連付けられ前記データベースに記憶されている撮影方向情報と画角情報とを参照し、前記視点経路上の前記複数の位置それぞれにおける前記視線の前記方向に位置する前記サブ領域を含む画像情報を検索して前記順番にて読出し、
前記視点経路上の前記複数の位置における視線方向と視野情報に対応して前記順番にて読出された前記画像情報を出力することを含む画像情報出力方法。 - 請求項1の画像情報出力方法の撮影装置により予め撮影された地表の画像情報と画像情報に関連付けて記憶した情報に対して、地表の位置を指定することにより、指定された地表の位置に対して異なる視線方向からの画像情報を、指定された画像倍率で縮小または拡大または撮影時の倍率で表示することができる画像情報出力装置。
- 請求項1の画像情報出力方法の撮影装置により予め撮影された地表の画像情報と画像情報に関連付けて記憶した情報に対して、撮影された地表の上空の視点位置を指定することにより、指定された視点位置からの異なる方向の画像情報を、指定された画像倍率で縮小または拡大または撮影時の倍率で表示することができる画像情報出力装置。
- 請求項2において指定された地表の位置あるいはまた指定された上空の視点位置をモニタ画面を含む表示装置でカーソルあるいはキーパッドを含む位置指示装置により任意に変更でき、あるいはまた、指定された地表の位置に対する異なる視線方向あるいは指定された上空の視点位置に対する視線方向をモニタ画面を含む表示装置でカーソルあるいはキーパッドを含む位置指示装置により任意に変更できることを特徴とする画像情報出力装置。
- 請求項2および請求項4において、複数の異なる時点において前記撮影装置により撮影された地表の画像に対して、前記画像情報表示装置の複数の表示画面に対して、同一の地表の位置と同一の視線方向と同一の画像倍率で表示することができる画像情報出力装置。
- 請求項3および請求項4において、複数の異なる時点において前記撮影装置により撮影された地表の画像に対して、前記画像情報表示装置の複数の表示画面に対して、同一の視点位置と同一の視線方向と同一の画像倍率で表示することができる画像情報出力装置。
- 請求項1の画像情報出力方法の撮影装置により予め撮影された地表の画角情報と画像情報に関連付けて記憶した情報に対して、撮影された地表の上空の位置と撮影された地表の位置を指定することにより、指定された地表の上空の位置を出発点として、指定された地表の位置を到達点とする進行経路に沿う前方画像を生成する画像情報出力装置。
- 請求項1の画像情報出力方法の撮影装置により予め撮影された地表の上空の位置を指定することにより、指定された視点位置からの異なる方向の画像情報を、指定された画像倍率で縮小または拡大または撮影時の倍率で表示することができる画像情報出力装置。
- 請求項8の画像情報表示装置において進行経路の方向および視線方向およびの画像倍率のすべてまたは一部をモニタ画面を含む表示装置でカーソルあるいはキーパッドを含む位置支持装置により任意に変更できることを特徴とする画像情報出力装置。
- 請求項1の画像情報出力方法の装置において、モニタ画面を含む表示装置上に表示される視点移動経路指定用地図を参照し、モニタ画面を含む表示装置上でカーソルあるいはキーパッドを含む位置指示装置により視点移動経路を任意に変更でき、請求項1の画像情報出力方法の画像情報出力装置で生成される視界画像を見ながらカーソルあるいはキーパッドを含む指示入力装置を操作して移動経路方位および高度および移動速度を操作して前方視界をモニタ上または専用の模擬装置に表示することを特徴とする画像情報出力装置。
- 請求項10の画像情報出力方法の装置において、モニタ画面を含む表示装置上に視点位置からの任意の視線方向と画角情報と任意の画像倍率の視界画像を切り替え表示する機構を有し、視線方向と画角情報と画像倍率の制御を行えることを特徴とする画像情報出力装置。
- 請求項10およびの請求項11の画像情報出力方法の装置において、
視点位置の高度が一定値より下がった場合、地表上に視点を移行するランディング地点を視界前方斜め下に指定して該ランディング地点の路上地点に視点位置を移行し、以降、該路上での視界画像出力に切替え移行する。また、路上で視界画像出力中に離陸アイコンをクリックすると該アイコンの選択に応じて該離陸路上点の直上または該離陸路上点を下方に見る一定高度の上空に視点位置を移行して空中における視界画像出力に切替えること特徴とする画像情報出力装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011232739A JP5861150B2 (ja) | 2009-05-18 | 2011-10-24 | 画像情報出力方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009119484 | 2009-05-18 | ||
JP2009119484 | 2009-05-18 | ||
JP2011232739A JP5861150B2 (ja) | 2009-05-18 | 2011-10-24 | 画像情報出力方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011502189A Division JP4854819B2 (ja) | 2009-05-18 | 2010-05-17 | 画像情報出力方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012053896A true JP2012053896A (ja) | 2012-03-15 |
JP5861150B2 JP5861150B2 (ja) | 2016-02-16 |
Family
ID=43126180
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011502189A Expired - Fee Related JP4854819B2 (ja) | 2009-05-18 | 2010-05-17 | 画像情報出力方法 |
JP2011232739A Expired - Fee Related JP5861150B2 (ja) | 2009-05-18 | 2011-10-24 | 画像情報出力方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011502189A Expired - Fee Related JP4854819B2 (ja) | 2009-05-18 | 2010-05-17 | 画像情報出力方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US8593486B2 (ja) |
EP (1) | EP2434457A4 (ja) |
JP (2) | JP4854819B2 (ja) |
WO (1) | WO2010134502A1 (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015114954A (ja) * | 2013-12-13 | 2015-06-22 | 株式会社ジオ技術研究所 | 撮影画像解析方法 |
WO2015198675A1 (ja) * | 2014-06-23 | 2015-12-30 | ソニー株式会社 | 撮影装置 |
WO2017007254A1 (ko) * | 2015-07-08 | 2017-01-12 | 고려대학교 산학협력단 | 3차원 지도 생성 및 표시 장치 및 방법 |
KR101723639B1 (ko) * | 2016-12-12 | 2017-04-06 | (주)신한항업 | 위치별 수집 촬영이미지의 실시간 처리가 가능한 항공촬영방법 |
KR101723641B1 (ko) * | 2016-12-12 | 2017-04-06 | (주)동광지엔티 | 촬영고도별 해상도의 자동 조절기능을 갖는 지상 사각지대의 영상수집형 항공촬영장치 |
WO2017138776A1 (ko) * | 2016-02-12 | 2017-08-17 | 삼성전자 주식회사 | 통신 시스템에서 vr 컨텐트 디스플레이를 지원하는 기법 |
CN107836012A (zh) * | 2015-07-08 | 2018-03-23 | 高丽大学校产学协力团 | 投影图像生成方法及其装置、图像像素与深度值之间的映射方法 |
KR20190067671A (ko) * | 2017-12-07 | 2019-06-17 | 한국전자통신연구원 | 멀티 카메라 촬영 영상의 기하보정 방법 및 장치 |
KR20190074911A (ko) * | 2017-12-20 | 2019-06-28 | 김기효 | 실감형 영상 콘텐츠 제공 방법 및 이를 이용한 서버 |
JP6684012B1 (ja) * | 2019-10-04 | 2020-04-22 | 株式会社トラジェクトリー | 情報処理装置および情報処理方法 |
JP2020515977A (ja) * | 2017-03-29 | 2020-05-28 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | ビデオからの画像生成 |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8850011B2 (en) | 2005-04-21 | 2014-09-30 | Microsoft Corporation | Obtaining and displaying virtual earth images |
US9953459B2 (en) | 2008-11-05 | 2018-04-24 | Hover Inc. | Computer vision database platform for a three-dimensional mapping system |
US9479768B2 (en) * | 2009-06-09 | 2016-10-25 | Bartholomew Garibaldi Yukich | Systems and methods for creating three-dimensional image media |
JP5743142B2 (ja) | 2011-03-29 | 2015-07-01 | ソニー株式会社 | 画像理装置および方法、並びにプログラム |
US9476970B1 (en) * | 2012-03-19 | 2016-10-25 | Google Inc. | Camera based localization |
CN103491339B (zh) * | 2012-06-11 | 2017-11-03 | 华为技术有限公司 | 视频获取方法、设备及系统 |
US10771748B2 (en) * | 2012-11-27 | 2020-09-08 | Metropolitan Life Insurance Co. | System and method for interactive aerial imaging |
KR101478981B1 (ko) | 2012-12-04 | 2015-01-07 | (주)쓰리디랩스 | 스테레오 영상에서 기준점 추출 방법 및 장치 |
JP6078317B2 (ja) * | 2012-12-07 | 2017-02-08 | 株式会社トプコン | 全方位カメラ |
US9880623B2 (en) * | 2013-01-24 | 2018-01-30 | Immersion Corporation | Friction modulation for three dimensional relief in a haptic device |
EP2787319A1 (de) * | 2013-04-05 | 2014-10-08 | Leica Geosystems AG | Steuerung einer Bildauslösung zur Luftbilderfassung in Nadir-Ausrichtung für ein unbemanntes Fluggerät |
US9165397B2 (en) | 2013-06-19 | 2015-10-20 | Google Inc. | Texture blending between view-dependent texture and base texture in a geographic information system |
US9171402B1 (en) | 2013-06-19 | 2015-10-27 | Google Inc. | View-dependent textures for interactive geographic information system |
TWI508526B (zh) * | 2013-10-01 | 2015-11-11 | Wistron Corp | 產生視角平移影像之方法及其可攜式電子設備 |
US9528834B2 (en) | 2013-11-01 | 2016-12-27 | Intelligent Technologies International, Inc. | Mapping techniques using probe vehicles |
CN103646384B (zh) * | 2013-12-20 | 2016-06-22 | 江苏大学 | 一种遥感扫描成像平台飞行速度的优化方法 |
CN103995888B (zh) * | 2014-06-03 | 2017-06-09 | 立得空间信息技术股份有限公司 | 基于实景的路径引导信息表达方法与装置 |
CN105224570B (zh) * | 2014-06-30 | 2019-07-16 | 上海斐讯数据通信技术有限公司 | 一种兴趣点的显示方法及系统 |
WO2016008165A1 (zh) * | 2014-07-18 | 2016-01-21 | 深圳市大疆创新科技有限公司 | 一种基于飞行器的图像投影方法、装置及飞行器 |
JP6524547B2 (ja) * | 2015-04-20 | 2019-06-05 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 撮像システム、無人航空機、及び方法 |
US9948914B1 (en) * | 2015-05-06 | 2018-04-17 | The United States Of America As Represented By The Secretary Of The Air Force | Orthoscopic fusion platform |
US10275939B2 (en) | 2015-11-05 | 2019-04-30 | Google Llc | Determining two-dimensional images using three-dimensional models |
WO2017100702A2 (en) * | 2015-12-09 | 2017-06-15 | Flir Systems, Inc. | Unmanned aerial system based thermal imaging systems and methods |
US10203211B1 (en) * | 2015-12-18 | 2019-02-12 | Amazon Technologies, Inc. | Visual route book data sets |
US10021373B2 (en) * | 2016-01-11 | 2018-07-10 | Microsoft Technology Licensing, Llc | Distributing video among multiple display zones |
JP6733267B2 (ja) * | 2016-03-31 | 2020-07-29 | 富士通株式会社 | 情報処理プログラム、情報処理方法および情報処理装置 |
US9911189B1 (en) * | 2016-06-30 | 2018-03-06 | Kitty Hawk Corporation | Navigation based on downward facing sensors |
US10783170B2 (en) * | 2016-08-19 | 2020-09-22 | Adobe Inc. | Geotagging a landscape photograph |
CN106940897A (zh) * | 2017-03-02 | 2017-07-11 | 苏州蜗牛数字科技股份有限公司 | 一种在ar场景中介入现实光影的方法 |
CN107093204A (zh) * | 2017-04-14 | 2017-08-25 | 苏州蜗牛数字科技股份有限公司 | 一种基于全景画面影响虚拟对象光影效果的方法 |
US10816354B2 (en) | 2017-08-22 | 2020-10-27 | Tusimple, Inc. | Verification module system and method for motion-based lane detection with multiple sensors |
US10712810B2 (en) | 2017-12-08 | 2020-07-14 | Telefonaktiebolaget Lm Ericsson (Publ) | System and method for interactive 360 video playback based on user location |
US11009356B2 (en) * | 2018-02-14 | 2021-05-18 | Tusimple, Inc. | Lane marking localization and fusion |
US11009365B2 (en) | 2018-02-14 | 2021-05-18 | Tusimple, Inc. | Lane marking localization |
CN108846833A (zh) * | 2018-05-30 | 2018-11-20 | 郑州云海信息技术有限公司 | 一种基于TensorFlow图像识别诊断硬盘故障的方法 |
JP7199845B2 (ja) * | 2018-06-19 | 2023-01-06 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
WO2020065719A1 (ja) * | 2018-09-25 | 2020-04-02 | 株式会社エアロネクスト | 飛行体 |
KR101998140B1 (ko) * | 2018-09-28 | 2019-10-01 | 한국지질자원연구원 | 지질 요소의 경계면 표시 장치를 사용한 현장 3d 지질도 매핑 시스템 및 방법 |
EP3881161A1 (en) | 2018-11-14 | 2021-09-22 | Cape Analytics, Inc. | Systems, methods, and computer readable media for predictive analytics and change detection from remotely sensed imagery |
CN111197986B (zh) * | 2019-08-13 | 2022-03-11 | 苏州光之翼智能科技有限公司 | 一种无人机三维路径实时预警避障方法 |
DE102019217988A1 (de) * | 2019-11-21 | 2021-05-27 | Zf Friedrichshafen Ag | Kamerabasierte Detektion von Kippbewegungen |
JP6681105B2 (ja) * | 2019-11-28 | 2020-04-15 | 株式会社エアロネクスト | 飛行体 |
EP3893150A1 (en) | 2020-04-09 | 2021-10-13 | Tusimple, Inc. | Camera pose estimation techniques |
US20210349922A1 (en) * | 2020-05-05 | 2021-11-11 | Jane Huang Hsu | METHOD OF RECOGNIZING AN OBJECT IN AN IMAGE USING iMaG AUTOMATED GEOREGSTRATION SYSTEM GENERATED MULTI-ORBIT SATELLITE IMAGERY WITH A CADSTRAL DATA BASED IMAGERY BASE |
CN112085778A (zh) * | 2020-08-04 | 2020-12-15 | 广东国地规划科技股份有限公司 | 基于超像素和形态学的倾斜摄影违法建筑检测方法及系统 |
AU2021240322B2 (en) | 2021-01-07 | 2023-08-17 | Joji AONUMA | Versatile camera device mountable to pole |
JP7110450B1 (ja) * | 2021-06-15 | 2022-08-01 | 丈二 青沼 | 竿に装着される多用途性カメラ装置 |
KR20230006343A (ko) | 2021-07-02 | 2023-01-10 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN113612980B (zh) * | 2021-08-26 | 2023-01-24 | 歌尔科技有限公司 | 投影仪和投影定位方法 |
US20230143198A1 (en) * | 2021-11-05 | 2023-05-11 | Cape Analytics, Inc. | System and method for viewshed analysis |
US11861843B2 (en) | 2022-01-19 | 2024-01-02 | Cape Analytics, Inc. | System and method for object analysis |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10188029A (ja) * | 1996-12-24 | 1998-07-21 | Matsushita Electric Ind Co Ltd | 仮想空間生成装置 |
JP2002185981A (ja) * | 2000-12-14 | 2002-06-28 | Nec Corp | 3次元空中遊覧改良サーバ、クライアント、及びその方法、及びそのプログラムを記録した記録媒体 |
JP2003227722A (ja) * | 2002-02-05 | 2003-08-15 | Mitsubishi Electric Corp | ナビゲーション装置 |
JP2009129182A (ja) * | 2007-11-22 | 2009-06-11 | Internatl Business Mach Corp <Ibm> | 画像を記憶する方法、装置 |
JP2009217524A (ja) * | 2008-03-11 | 2009-09-24 | Kodaira Associates Kk | 都市景観の3次元動画生成および閲覧システム |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2807622B2 (ja) | 1993-12-13 | 1998-10-08 | 株式会社コア | 航空機搭載総合撮影装置 |
US6526352B1 (en) * | 2001-07-19 | 2003-02-25 | Intelligent Technologies International, Inc. | Method and arrangement for mapping a road |
JP4332231B2 (ja) * | 1997-04-21 | 2009-09-16 | ソニー株式会社 | 撮像装置コントローラおよび撮像システム |
US6307680B1 (en) * | 1999-10-13 | 2001-10-23 | Northrop Grumman Corporation | Optical blurring filter which is resistant to digital image restoration |
US7003153B1 (en) * | 2000-09-29 | 2006-02-21 | Sharp Laboratories Of America, Inc. | Video contrast enhancement through partial histogram equalization |
US7085409B2 (en) * | 2000-10-18 | 2006-08-01 | Sarnoff Corporation | Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery |
JP2002357419A (ja) | 2001-02-20 | 2002-12-13 | Kyushu Techno Research Kk | 斜め航空写真及び疑似オルソ画像。 |
EP1384046B1 (en) * | 2001-05-04 | 2018-10-03 | Vexcel Imaging GmbH | Digital camera for and method of obtaining overlapping images |
CA2453031A1 (en) * | 2001-07-06 | 2003-01-16 | Goodrich Avionics Systems, Inc. | System and method for synthetic vision terrain display |
US7893957B2 (en) | 2002-08-28 | 2011-02-22 | Visual Intelligence, LP | Retinal array compound camera system |
US7424133B2 (en) * | 2002-11-08 | 2008-09-09 | Pictometry International Corporation | Method and apparatus for capturing, geolocating and measuring oblique images |
JP3808833B2 (ja) | 2003-02-14 | 2006-08-16 | 株式会社パスコ | 空中写真測量方法 |
CA2559726C (en) * | 2004-03-24 | 2015-10-20 | A9.Com, Inc. | System and method for displaying images in an online directory |
US20050270387A1 (en) | 2004-05-25 | 2005-12-08 | Fuji Photo Film Co., Ltd. | Photographing system and photographing method |
JP4463151B2 (ja) * | 2004-05-25 | 2010-05-12 | 富士フイルム株式会社 | 撮影システムおよび撮影方法 |
US20080285886A1 (en) * | 2005-03-29 | 2008-11-20 | Matthew Emmerson Allen | System For Displaying Images |
US20070150188A1 (en) * | 2005-05-27 | 2007-06-28 | Outland Research, Llc | First-person video-based travel planning system |
JP2006350852A (ja) | 2005-06-17 | 2006-12-28 | Nabura:Kk | 画像生成システム |
WO2007032819A2 (en) * | 2005-07-21 | 2007-03-22 | Regents Of The University Of Minnesota | Camera placement and virtual-scene construction |
US8160400B2 (en) * | 2005-11-17 | 2012-04-17 | Microsoft Corporation | Navigating images using image based geometric alignment and object based controls |
US8483903B2 (en) * | 2006-09-07 | 2013-07-09 | Nissan North America, Inc. | Vehicle on-board unit |
US8195383B2 (en) * | 2006-11-29 | 2012-06-05 | The Boeing Company | System and method for electronic moving map and aeronautical context display |
CN101681525A (zh) * | 2007-06-08 | 2010-03-24 | 电子地图有限公司 | 产生多视点全景图的方法及设备 |
WO2009017393A1 (en) * | 2007-07-31 | 2009-02-05 | Tele Atlas B.V. | Method and device for determining a position |
US20090262194A1 (en) * | 2008-04-22 | 2009-10-22 | Sony Ericsson Mobile Communications Ab | Interactive Media and Game System for Simulating Participation in a Live or Recorded Event |
-
2010
- 2010-05-17 WO PCT/JP2010/058313 patent/WO2010134502A1/ja active Application Filing
- 2010-05-17 EP EP10777735.1A patent/EP2434457A4/en not_active Withdrawn
- 2010-05-17 JP JP2011502189A patent/JP4854819B2/ja not_active Expired - Fee Related
-
2011
- 2011-10-24 JP JP2011232739A patent/JP5861150B2/ja not_active Expired - Fee Related
- 2011-11-18 US US13/299,724 patent/US8593486B2/en not_active Expired - Fee Related
-
2013
- 2013-10-22 US US14/059,582 patent/US20140049617A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10188029A (ja) * | 1996-12-24 | 1998-07-21 | Matsushita Electric Ind Co Ltd | 仮想空間生成装置 |
JP2002185981A (ja) * | 2000-12-14 | 2002-06-28 | Nec Corp | 3次元空中遊覧改良サーバ、クライアント、及びその方法、及びそのプログラムを記録した記録媒体 |
JP2003227722A (ja) * | 2002-02-05 | 2003-08-15 | Mitsubishi Electric Corp | ナビゲーション装置 |
JP2009129182A (ja) * | 2007-11-22 | 2009-06-11 | Internatl Business Mach Corp <Ibm> | 画像を記憶する方法、装置 |
JP2009217524A (ja) * | 2008-03-11 | 2009-09-24 | Kodaira Associates Kk | 都市景観の3次元動画生成および閲覧システム |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015114954A (ja) * | 2013-12-13 | 2015-06-22 | 株式会社ジオ技術研究所 | 撮影画像解析方法 |
JPWO2015198675A1 (ja) * | 2014-06-23 | 2017-04-20 | ソニー株式会社 | 撮影装置 |
WO2015198675A1 (ja) * | 2014-06-23 | 2015-12-30 | ソニー株式会社 | 撮影装置 |
US10594950B2 (en) | 2014-06-23 | 2020-03-17 | Sony Corporation | Photographing apparatus |
US10349033B2 (en) | 2015-07-08 | 2019-07-09 | Teelabs Co., Ltd. | Three-dimensional map generating and displaying apparatus and method |
CN107836012A (zh) * | 2015-07-08 | 2018-03-23 | 高丽大学校产学协力团 | 投影图像生成方法及其装置、图像像素与深度值之间的映射方法 |
WO2017007254A1 (ko) * | 2015-07-08 | 2017-01-12 | 고려대학교 산학협력단 | 3차원 지도 생성 및 표시 장치 및 방법 |
CN107836012B (zh) * | 2015-07-08 | 2021-10-08 | 高丽大学校产学协力团 | 投影图像生成方法及其装置、图像像素与深度值之间的映射方法 |
WO2017138776A1 (ko) * | 2016-02-12 | 2017-08-17 | 삼성전자 주식회사 | 통신 시스템에서 vr 컨텐트 디스플레이를 지원하는 기법 |
US10609412B2 (en) | 2016-02-12 | 2020-03-31 | Samsung Electronics Co., Ltd. | Method for supporting VR content display in communication system |
KR101723639B1 (ko) * | 2016-12-12 | 2017-04-06 | (주)신한항업 | 위치별 수집 촬영이미지의 실시간 처리가 가능한 항공촬영방법 |
KR101723641B1 (ko) * | 2016-12-12 | 2017-04-06 | (주)동광지엔티 | 촬영고도별 해상도의 자동 조절기능을 갖는 지상 사각지대의 영상수집형 항공촬영장치 |
JP7138653B2 (ja) | 2017-03-29 | 2022-09-16 | コーニンクレッカ フィリップス エヌ ヴェ | ビデオからの画像生成 |
JP2020515977A (ja) * | 2017-03-29 | 2020-05-28 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | ビデオからの画像生成 |
KR102211769B1 (ko) * | 2017-12-07 | 2021-02-03 | 한국전자통신연구원 | 멀티 카메라 촬영 영상의 기하보정 방법 및 장치 |
KR20190067671A (ko) * | 2017-12-07 | 2019-06-17 | 한국전자통신연구원 | 멀티 카메라 촬영 영상의 기하보정 방법 및 장치 |
KR102009400B1 (ko) * | 2017-12-20 | 2019-08-12 | 김기효 | 실감형 영상 콘텐츠 제공 방법 및 이를 이용한 서버 |
KR20190074911A (ko) * | 2017-12-20 | 2019-06-28 | 김기효 | 실감형 영상 콘텐츠 제공 방법 및 이를 이용한 서버 |
WO2021064982A1 (ja) * | 2019-10-04 | 2021-04-08 | 株式会社トラジェクトリー | 情報処理装置および情報処理方法 |
JP6684012B1 (ja) * | 2019-10-04 | 2020-04-22 | 株式会社トラジェクトリー | 情報処理装置および情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2434457A1 (en) | 2012-03-28 |
WO2010134502A1 (ja) | 2010-11-25 |
EP2434457A4 (en) | 2014-01-15 |
US8593486B2 (en) | 2013-11-26 |
JP4854819B2 (ja) | 2012-01-18 |
US20120120069A1 (en) | 2012-05-17 |
JPWO2010134502A1 (ja) | 2012-11-12 |
JP5861150B2 (ja) | 2016-02-16 |
US20140049617A1 (en) | 2014-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5861150B2 (ja) | 画像情報出力方法 | |
JP2009217524A (ja) | 都市景観の3次元動画生成および閲覧システム | |
US8818076B2 (en) | System and method for cost-effective, high-fidelity 3D-modeling of large-scale urban environments | |
AU2008322565B9 (en) | Method and apparatus of taking aerial surveys | |
JP5899232B2 (ja) | 地理的位置指定パノラマを通した誘導付きナビゲーション | |
US7986825B2 (en) | Model forming apparatus, model forming method, photographing apparatus and photographing method | |
Weiss et al. | Intuitive 3D maps for MAV terrain exploration and obstacle avoidance | |
CN107514993A (zh) | 基于无人机的面向单体建筑建模的数据采集方法及系统 | |
KR101756946B1 (ko) | 경도선/위도선을 기반으로 교통로를 구성하고, 지도 검색을 수행하는 방법 및 장치 | |
JP5780561B2 (ja) | 視界映像情報生成装置 | |
EP3645971B1 (en) | Map feature identification using motion data and surfel data | |
CN109900274B (zh) | 一种图像匹配方法及系统 | |
JP4418857B1 (ja) | 路線の3次元動画生成用画像取得システム | |
CN116883604A (zh) | 一种基于天、空、地影像的三维建模技术方法 | |
JP2006003280A (ja) | 撮影装置及び撮影方法 | |
Stal et al. | Highly detailed 3D modelling of Mayan cultural heritage using an UAV | |
CN111222586A (zh) | 一种基于三维倾斜模型视角的倾斜影像匹配方法及装置 | |
Orlik et al. | 3D modelling using aerial oblique images with close range UAV based data for single objects | |
Zhang et al. | UAV-Borne Mapping Algorithms for Low-Altitude and High-Speed Drone Applications | |
Jurić Kaćunić et al. | Application of Unmanned Aerial Vehicles in Engineering Practice | |
Frank et al. | An Alternative Raw Data Acquisition Approach for Reconstruction of LOD3 Models | |
CN114663596A (zh) | 基于无人机实时仿地飞行方法的大场景建图方法 | |
CN117970951A (zh) | 无人机建模三维立体航线规划方法、终端及存储介质 | |
WO1999033026A1 (en) | Acquisition and animation of surface detail images | |
Tianen et al. | A method of generating panoramic street strip image map with mobile mapping system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130514 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150508 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151027 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151028 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5861150 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |