JP6006215B2 - 既存の静止画像内における映像の可視化 - Google Patents

既存の静止画像内における映像の可視化 Download PDF

Info

Publication number
JP6006215B2
JP6006215B2 JP2013529158A JP2013529158A JP6006215B2 JP 6006215 B2 JP6006215 B2 JP 6006215B2 JP 2013529158 A JP2013529158 A JP 2013529158A JP 2013529158 A JP2013529158 A JP 2013529158A JP 6006215 B2 JP6006215 B2 JP 6006215B2
Authority
JP
Japan
Prior art keywords
image
feed
computer
sample
image feed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013529158A
Other languages
English (en)
Other versions
JP2014502430A (ja
JP2014502430A5 (ja
Inventor
オフェク,エヤル
チェン,ビリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014502430A publication Critical patent/JP2014502430A/ja
Publication of JP2014502430A5 publication Critical patent/JP2014502430A5/ja
Application granted granted Critical
Publication of JP6006215B2 publication Critical patent/JP6006215B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/133Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops
    • G08G1/137Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops the indicator being in the form of a map
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6845Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Circuits (AREA)

Description

従来技術
[0001] 職業で電動車両を運転する者というような、少数の例外はあるが、運転に費やされる時間は、一般に、殆どの個人には非生産的時間と見なされる。このような非生産性は、大量交通状況において立ち往生している運転手が体験するいらいらやその他の感情的犠牲(toll)によって、一層悪化する可能性がある。したがって、運転の間大量交通状況を回避することが長い間望まれていた。このような望みは、個人に利用可能な多数の交通情報によって満たされ、大量交通状況を回避するとき、または回避したいその他の交通に基づく事件を回避するときに、彼らを補助する。例えば、多くの自動車ナビゲーション・システムは、今では、リアル・タイム交通情報の何らかの尺度を提供する。同様に、他の例として、多くのネットワーク系マッピング・アプリケーションも同様にリアル・タイムの交通情報を提供する。
[0002] 多くの場合、提供される交通情報は、消費し易くなるように一般化されている。例えば、交通情報は、至る所に存在する赤、黄色、および緑色のコード化を利用して提供されることが多く、緑色は、少量交通状況を示すために利用され、一方赤は、大量交通状況を示すために利用される。他の例として、交通情報は、平均速度、または2つの周知の交差点または他のそのような陸標間というような、予め定められた距離を走行するのに要する時間量に関して提供されることも多い。このような一般化された交通情報は、実際、ユーザーが電動車両を運転するのが心配な場合というようなときには、ユーザーにとって消費することが一層容易になる可能性があるが、ある種の状況では、単に十分な情報を提供できないに過ぎないという可能性もある。
[0003] もっと詳細な交通情報が望まれるかもしれない状況では、交通情報は、通例、至る所に存在するインターネット、または同様に至る所に存在するワールド・ワイド・ウェブというような、計算デバイスの大規模なネットワークに通信可能に結合されているビデオ・カメラを介して、特定の場所における自動車両交通量のリアル・タイム画像の形態で提供することもできる。従前より、このような交通カメラは、州または地方の運輸局というような、政府機関によって維持され、重要な道路または他の街路の特定の方向に見晴らしが利く場所を提供するようなやり方で取り付けられ、位置付けられる。通例、このような交通カメラによって提供される画像へのアクセスは、ウェブサイト、または他の同様のネットワーク系インターフェースを介して、生の交通カメラ画像フィードの形態で得ることができる。例えば、ウェブサイトは、しかるべきアイコン、または他のインディケーターによって示される交通カメラの位置を含む地図を表示することができる。このようなアイコン、または他のインディケーターを選択すると、生の交通カメラ画像フィードが提示され、多くの場合、サブ・ウィンドウまたは他の同様の独立したユーザー・インターフェース・エレメントの中に提示される。
[0004] コストおよび帯域幅の考慮により、通例、利用される交通カメラは高品質の画像を提供できない場合もある。更に、交通カメラは、電動車両の交通の画像を提供するように設計されており、コンテキスト(contextual)画像や周囲の画像を提供するのではない。その結果、ユーザーは、交通カメラの画像フィードにアクセスするとき、困惑を体験することが多い。例えば、交通カメラがどちらの方向を向いているのか判断することが、ユーザーにとって難しいことが多い。同様に、どの道路が撮影されているのか正確に特定することが、ユーザーにとって難しいことも多い。何故なら、ユーザーが選択した交通カメラからの表示マップが、交通カメラ位置のアイコン状視覚インディケーターを示していても、生のリアル・タイム動画提示のような交通カメラの画像フィードの提示は、コンテキスト的に大きく異なるからである。
[0005] 一実施形態では、交通カメラの画像フィードにおいて主に扱われている(featured)同じ道路を含む既存のパノラマのコンテキストの中で、交通カメラの画像フィードがユーザーに提示される。このような融合(amalgamation)によって、既存のパノラマにおけるもっと大きな視覚的コンテキストの中で、交通カメラによって提供される動的な交通動画を見ることを可能にすることができる。既存のパノラマは、通例、専用車両に取り付けられた専用のパノラマ・カメラによって取り込まれており、通例、既存のマップ・ベース・ウェブサイトまたは他の同様のネットワーク中心インターフェースを介して、選択された地図エリアのストリート・レベル・ビュー(street-level view)としてユーザーに提示される。ユーザーがこのようなストリート・レベル・ビューと、パノラマによって提供されるコンテキスト視覚情報との組み合わせに馴染むと、この動的な交通カメラ動画フィードがこのようなパノラマの中に提示されたとき、ユーザーが一層容易にこの画像フィードを理解し利用することを可能にすることができる。
[0006] 他の実施形態では、交通カメラ画像フィードを前処理して、交通カメラ画像フィードに適用可能な変換パラメーターを決定し、既存のパノラマとのその視覚的統合を改善することができる。このような前処理は、交通カメラ画像フィードを表示すべき1つ以上のしかるべきパノラマを特定するステップを含むことができ、更にときと共に変化する交通カメラ画像フィードの部分、およびときが経過しても変わらないままでいる部分を特定するステップも含むことができる。
[0007] 更に他の実施形態では、交通カメラ画像フィードを1つ以上の既存のパノラマに統合することができ、所定の変換パラメーターにしたがって交通カメラ画像フィード全体を変換し、次いでそれを既存のパノラマの中に表示することによって、交通カメラからの動的な動画映像を、1つ以上のパノラマのもっと大きな視覚的コンテキストの中で提示する。あるいは、交通カメラ画像フィードの内動画成分または可変成分のみをフィルタリングし、既存のパノラマの中に表示することもできる。更に他の代替案では、交通カメラ画像フィードの動画成分または可変成分は、道路、または他のしかるべき背景構造物と組み合わせて、フィルタリングし、既存のパノラマの中に表示することができる。
[0008] 更に他の実施形態では、線照合アルゴリズム(line matching algorithm)を利用して、変換パラメーターを計算することができる。このような線照合アルゴリズムは、交通カメラ画像フィードの静止部分のしかるべき態様の線を、1つ以上の既存のパラメーターの同様の態様と一致させようとすることができる。
[0009] この摘要は、詳細な説明の章において以下で更に説明する概念から選択したものを簡略化された形式で紹介するために、設けられている。この摘要は、特許請求する主題の主要な特徴や必須の特徴を特定することを意図するのではなく、特許請求する主題の範囲を限定するために使用されることを意図するのでもない。
[0010] その他の特徴および利点は、添付図面を参照しながら進められる以下の詳細な説明から明白になるであろう。
[0011] 以下の詳細な説明は、添付図面と関連付けて検討すると、最良に理解することができる。図面において、
図1は、交通カメラ画像フィードを既存のパノラマに統合するシステム例のブロック図である。 図2は、交通カメラ画像フィードを既存のパノラマに組み合わせるメカニズム例のブロック図である。 図3は、交通カメラ画像フィードを既存のパノラマに組み合わせるための前処理例の流れ図である。 図4は、交通カメラ画像フィードを既存のパノラマと照合するメカニズム例の流れ図である。 図5は、既存のパノラマの中に交通カメラ画像フィードを表示するメカニズム例のブロック図である。 図6は、計算デバイス例のブロック図である。
[0018] 以下の説明は、本明細書では「フィード」と呼ぶリアル・タイムのビデオ・カメラ・データーを、既存の画像に、通例、パノラマ画像の形態の中に統合し、ビデオ・カメラによって供給される動画映像を、既存画像のより広い画像コンテキストの中で表示することに関する。最初に、前処理を実行して変換パラメーターを得、この変換パラメーターを利用してビデオ・カメラの画像フィードを視覚的に変換し、1つ以上の既存のパノラマ画像の中に混ぜ合わせ(blend)、そしてこれらと共にはめ込むようにする。その後、所定の変換パラメーターを利用して、ユーザーがこのようなパノラマ画像にアクセスするために通例利用するユーザー・インターフェースを介してというようにして、ビデオ・カメラの画像フィードを、1つ以上の既存のパノラマ画像の中に表示することができる。車両交通(vehicular traffic)のコンテキストの中で、交通カメラ画像フィードを変換し、1つ以上の既存のパノラマに全体として統合することができ、あるいは、移動する車両のみというような、または代わりに、移動する車両および下を通る道路だけというような、交通カメラ画像フィードのある部分だけを、パノラマの中に表示することができる。変換パラメーターを得る1つのメカニズムには、ビデオ・カメラ画像フィードの静止部分からのしかるべき線を、1つ以上のパノラマ画像における対応する線と照合することができる線照合アルゴリズムを用いることができる。前述のしかるべき線を特定するには、動きの方向に基づくフィルタリング、または既存の重畳マップ・データーに基づくフィルタリングによるというように、フィルタリング技法を使用することができる。
[0019] 例示の目的に限って、本明細書において記載する技法は、交通カメラ画像フィードを対象とし、この交通カメラ画像フィードは、ネットワーク・マップ・インターフェースにおけるストリート・レベル・ビューのコンテキストに対して収集され、その中で提示される既存のパノラマ画像の中で提示される。このような引用は、しかしながら、厳格に例示であり、提供する特定の例に対して記載されるメカニズムに限定することを意図するのではない。実際、記載する技法は、動画部分および静止部分の双方を含む任意のビデオ・カメラ画像の、ビデオ・カメラ画像フィードによって組み立てられる1つ以上のエレメントを中心とするより広いコンテキストを規定する既存の静止画像との統合にも適用可能である。したがって、以下で「交通カメラ」に言及する場合、任意のビデオ・カメラを意味するように広く理解されることを意図しており、「パノラマ」に言及する場合、より大きな視覚的コンテキストを規定する任意の静止画像に適用されるように広く理解されることを意図している。何故なら、以下の説明は、このようなより広い概念にも等しく適用可能であり、交通カメラやパノラマ画像だけに一意には決して限定されないからである。
[0020] 必須ではないが、本発明の説明は、計算デバイスが実行するプログラム・モジュールのような、コンピューター実行可能命令という一般的なコンテキストで行う。更に具体的には、この説明は、特に示されない限り、1つ以上の計算デバイスまたは周辺機器によって実行される処理(operation)の動作(act)および象徴的表現に言及する。したがって、このような動作および処理は、ときとしてコンピューターによって実行されると言われることもあり、構造化された形態でデーターを表す電気信号の、演算装置による操作を含む。この操作は、データーを変換するか、またはそれをメモリー内の位置に維持し、当業者にはよく理解されているやり方で、計算デバイスまたは周辺機器の処理を構成し直すか、そうでなければこの処理を変更する。データーが維持されるデーター構造は、データーのフォーマットによって定められる特定のプロパティを有する物理的な位置である。
[0021] 一般に、プログラム・モジュールは、ルーチン、プログラム、オブジェクト、コンポーネント、データー構造等を含み、特定のタスクを実行するか、または特定の抽象的データー・タイプを実現する。更に、計算デバイスは、従来のパーソナル・コンピューターに限定される必要はなく、ハンドヘルド・デバイス、マルチプロセッサー・システム、マイクロプロセッサー・ベースまたはプログラマブル消費者用デバイス、ネットワークPC、ミニコンピューター、メインフレーム・コンピューター等が含まれる。同様に、計算デバイスは、スタンド・アロンの計算デバイスに限定される必要もない。何故なら、本メカニズムは、通信ネットワークによってリンクされているリモート処理デバイスによってタスクが実行される分散型計算環境においても実用化することができるからである。分散型計算環境では、プログラム・モジュールは、ローカルおよびリモート双方のメモリー記憶デバイスに配置することもできる。
[0022] 図1に移ると、システム例100が示されており、クライアント計算デバイス130、マップ・サーバー計算デバイス120、および交通カメラ110を含む。これらは、各々、互いにネットワーク180を介して通信可能に結合されている。例示の目的に限って、交通カメラ110は、図1のシステム例100において、道路170の上方にある立体交差171上に位置付けられて示されており、交通カメラ110が道路170上の車両交通の画像を提供できるようになっている。交通カメラ画像フィード140は、個々の画像141、142、143、144、および145によって図1のシステム100において図式的に表されており、ネットワーク180を経由した通信によって、1つ以上の計算デバイスに入手可能にすることができる。図1のシステム100によって示される例では、通信149によって例示されるように、マップ・サーバー計算デバイス120は交通カメラ画像フィード140を交通カメラ110から受け取ることができる。
[0023] クライアント計算デバイス130のユーザーのようなユーザーが、交通カメラ画像フィード140を一層有意に、そして一層容易に理解可能なコンテキストで受け取ることを可能にするために、マップ・サーバー計算デバイス120は、交通カメラ画像フィード140を1つ以上の既存のマップ・パノラマ150と組み合わせて、クライアント計算デバイス130に、融合画像160を供給することができる。融合画像160は、交通カメラ画像フィード140、またはその一部を含み、マップ・パノラマ150の内1つ以上の上に重ね合わされて、マップ・パノラマ150のコンテキストの中で提示される。当業者には認められようが、マップ・パノラマ150は、マップに基づくコンテキストの中でユーザーに提示することができるようなやり方で配列および編成されたパノラマ画像を含むことができる。例えば、マップ中心ウェブサイトのような、ネットワーク180を介して通例入手可能にされているマップ情報は、何らかの形態のストリート・レベル・ビューをユーザーに供給することができる1つ以上のインターフェースを含むことができる。このようなストリート・レベル・ビューは、通例、ユーザーが、選択した街路を歩行中または運転中に見て、以前からのマップ・ブラウジング技法によって選択した位置というような、特定の位置を可視化することを可能にする。当業者には認められようが、マップ・パノラマ150は、このようなストリート・レベル・ビューを提供するために利用することができる。
[0024] 更に具体的には、マップ・パノラマ150は、通例、専用パノラマ取り込み車両上に取り付けられた専用パノラマ・カメラによって得ることができる。専用パノラマ取り込み車両は、ストリート・レベル・ビューをユーザーに提示することが可能であることが望ましい特定の街路に沿って運転する。つまり、マップ・パノラマ150は、このような特定の街路に沿った連続地点において撮影した一連のパノラマ画像を含み、ユーザーに提示することができるストリート・レベル・ビューは、パノラマを連続的に表示することによって提示することができ、これによって、ユーザーが彼らの頭部を回すことを可能にしつつ、またはそれ以外で提示されているビューの方向を変更しつつ、 ユーザーがこの街路に沿った動きをシミュレートすることを可能にする。このような一連のパノラマ画像を例示する目的のために、図1のシステム100において、マップ上に現れた場合の交差点(intersection)159が、交差点159の街路の1本に沿った地点で撮影された一連の連続パノラマ画像151、152、153、154、および155と共に、示されている。パノラマ151、152、153、154、および155、ならびに他のパノラマも、マップ・サーバー計算デバイス120に通信可能に結合することができるマップ・パノラマ150の一部とすることができる。
[0025] 例示および説明の目的に限って言えば、交差点159は、下に位置する道路170および上を通過する立体交差171の交点と等価にすることができる。立体交差171上には、交通カメラ110が取り付けられている。その結果、パノラマ151、152、153、154、および155の内1つ以上は、少なくとも近似的に、交通カメラ110によって取り込まれた場面を構成することができる。以下で更に詳しく説明するが、マップ・サーバー計算デバイス120は、マップ・パノラマ150の内1つ以上を特定することができ、交通カメラ画像フィード140をこのようなパノラマに統合して、通信169によって示されるように、クライアント計算デバイス130に融合画像160を供給する。クライアント計算デバイス130のユーザーには、マップ・パノラマ150によってストリート・レベル・ビューが提示されており、このストリート・レベル・ビューの中で、交通カメラ110が交通カメラ画像フィード140によって提示する、道路170上における現在の交通を含む状態も、このユーザーが見ることができる。図の静止的な本質のため、例示するのが難しいが、融合画像160は、交通カメラ画像フィード140の形態で交通カメラ110によって供給され、既存の画像の上に重ね合わせられるまたはそれ以外で統合されるような、動的な動画(moving and dynamic image)を構成し、既存の画像が動的な動画映像(moving and dynamic video)に対してより広い視覚的コンテキストを規定するようなやり方で、そして映像が既存の画像の中に、可動かつ動的な形態で表示されるように、融合画像を提示することを意図している。既存のパノラマのコンテキストの中に交通カメラ画像フィード140を提示することによって、ユーザーには、かなり大きくなった視覚的コンテキストを提供し、その中で交通カメラ画像フィード140を理解する(understand and comprehend)することができる。
[0026] 加えて、個々の画像141、142、143、144、および145から分かるように、交通カメラ110は、一実施形態では、カメラによって取り込まれる有効範囲がときと共に変化できるように、移動可能にすることができる。例えば、画像142は、画像141の取り込み以降下に向けてパンニングされた交通カメラ110を表すことができる。同様に、画像143は、画像142の取り込み以降に、実際には画像141の取り込み以降に、上に向けてパンニングされた交通カメラ110を表すことができる。同様に、画像144および145は、それぞれ、画像141の取り込み以降に、右および左にパンニングされた交通カメラ110を表すことができる。以下で更に詳しく説明するが、マップ・サーバー計算デバイス120によって実行される処理は、交通カメラ110の向きのこのような変更を考慮に入れることができる。
[0027] 図2に移ると、システム200は、更に詳しく、ビデオ・カメラ・フィードを既存のパノラマと統合して、既存のパノラマの視覚的コンテキストの中で、可動かつ動的な形態でビデオ・カメラ・フィードを表示することができるようにする処理を示す。最初に、前処理段階の間等に、予め決めておくことができる時間量、または交通カメラ画像フィードから十分な量の視覚情報を得るために要する時間量というような、ある有限時間量の間交通カメラ画像フィード140をサンプリングすることができる。一実施形態では、このような所定の時間量は、自然照明の要因を考慮に入れることができ、例えば、日中および夜間双方の画像を含むことを回避するように、所定の時間量を選択することができ、または、他の例として、朝および夕方双方の画像を含むことを回避するように、所定の時間量を選択することができる。サンプリングされている交通カメラ画像フィード140が、交通カメラ画像フィードを供給している交通カメラを動かすことができ、このカメラによって取り込まれる有効範囲をときと共に変化させることができることを示す場合、一実施形態では、最初に、図2のシステム200によって例示されるように、初期画像安定化を実行することができる。更に具体的には、図2に示すように、図1のシステム100において個々に示した画像141、142、143、144、および145のような、各々変化する有効範囲を含む画像のシーケンスは、各画像の共通エレメントが重なるように位置合わせすることができる。次いで、その結果得られた複合体を利用することができ、ソース・ビデオ・カメラのその後の動きを、単にその複合体の異なる部分の後続の取り込みとして見なすことができる。
[0028] このような複合体から、動作225によって示される1つの分析によって、この複合体において、画像フィードがサンプリングされていた所定の時間量の間に動きを示したエリアを特定することができる。動きを示したエリアは、当業者には周知の既存の画像分析技法を利用して、動きマスク220の形態で特定することができる。同様に、複合体から、動作235によって示される他の分析によって、画像フィードがサンプリングされていた所定の時間量にわたって静止していたまたは一定のままであった、複合体のエリアを特定することができる。この場合も、当業者には周知の既存の画像分析技法を利用して、このようなエリアを特定することができる。例えば、このような技法の1つでは、画像フィードがサンプリングされていた所定の時間量の一部または全部にわたって交通カメラ画像フィード140からの画像の平均を取ることができる。このように平均を取ることによって、種々の画像フレームを跨いで動いていた要素を低減する、または実際には排除しつつ、静止したままの要素を強調することができる。結果的に得られた平均画像230は、ときの経過と共に変化しない、交通カメラ画像フィード140の一部である画像の部分を構成することができる。
[0029] 交通カメラ画像フィード140と共に、交通カメラ110の位置210に関する情報も得て、1つ以上の可能なパノラマ画像の選択を容易にすることができる。更に具体的には、図2のシステム200において示すように、カメラの位置210を、動作215によって示すように、パノラマ151、152、153、154、および155のような、1つ以上のパノラマ上における位置と比較することができる。当業者には認められようが、このようなパノラマ画像を最初に収集するときに、その正確な位置も同様に記録することができるので、これらのパノラマをしかるべく表示し、既存のマップと、例えば、このようなマップの提供と共に供給されるストリート・レベル・ビューの一部としてというように、統合することができる。結果的に、交通カメラ110の位置210とパノラマの1つ以上を撮影した場所との間の比較を単純に行うことができる。
[0030] 動作215は、要因のなかでもとりわけ、先に引用した位置メタデーターによって知らせることができる既存の1組のパノラマの中からの、候補パノラマの選択を表すことができる。例えば、一実施形態では、交通カメラ110の位置210から所定の距離以内で撮影することができた全てのパノラマを、候補パノラマに選択することができる。代替実施形態では、しかるべき街路に沿って撮影することができたパノラマを候補パノラマに選択することができる。更に他の代替実施形態では、候補パノラマの選択は、地形、見通し線、または交通カメラ画像フィード140を供給する交通カメラ110によって取り込まれるのと同様の画像範囲を、少なくともパノラマの一部に含む可能性が大きくなる他の要因というような、複数の要因によって知らせることができる。図2に示すシステム例200では、例示および説明の目的に限って言えば、少なくとも部分的に、動作215への入力として、パノラマの収集と共に供給される交通カメラ110の位置210に基づいて、パノラマ152、153、および154を動作215によって候補パノラマに選択することができる。
[0031] 一旦1組の候補パノラマが選択されたなら、これら候補パノラマの1つ以上のしかるべき部分を、交通カメラ画像フィード140によって供給された画像範囲と照合することができる。一実施形態では、これら候補パノラマの1つ以上のしかるべき部分の選択は、これらの候補パノラマと関連付けることができる既存のマップによって知らせることができる。例えば、当業者には認められようが、これらのパノラマ画像を利用したストリート・レベル・ビューの典型的な提示は、例えば、特定の道路または他のマップ指示要素というような、コンピューターが生成したマップ画像データーのオーバーレイも含む可能性がある。候補パノラマと関連したこのような既存のマップ・データーを利用して、これら候補パノラマの1つ以上のしかるべき部分の選択を知らせ、交通カメラ画像フィード140によって供給される画像と照合する。更に具体的には、カメラの位置210は、他の潜在的に入手可能な(potentially available)メタデーターと共に、1つ以上の街路を示すことができ、この街路に沿って交通カメラ110が向けられており、この街路の車両交通が、交通カメラ画像フィード140によって取り込まれている。次いで、候補パノラマと関連した既存のマップ・データーを参照して、同様の方向に、または同じ街路に沿って向けられる候補パノラマの部分を特定することができる。
[0032] 図2に示すシステム例200では、候補パノラマ152、153、および154の部分252、253、および254を、それぞれ、候補パノラマと関連付けることができる交差点159の形態で示される、マップ・データーを参照することによって選択することができる。既に示したように、交差点159は、例えば、カメラの位置210によって示されるような、交通カメラ画像フィード140を供給する交通カメラ110を配置することができる交差点とすることができる。つまり、マップ・データーを参照することによって、交差点159の道路の内しかるべき1本に沿って向けられていたことが分かっている、候補パノラマの部分を選択することによって、候補パノラマ152、153、および154の部分252、253、および254を、それぞれ、選択することができる。
[0033] 候補パノラマ152、153、および154の部分252、253、および254の中からそれぞれ選択された部分253は、動作250によって示すように、候補パノラマのこれらの部分の態様を、先に説明したようにして交通カメラ画像フィード140から生成することができた平均画像230と照合することによって得ることができる。例えば、一実施形態では、この照合動作250は、部分252、253、および254における線を、平均画像230における等価の線と照合することによって実行することができる。照合する線を選択する1つのメカニズムは、動きの方向にある線、または等価に道路の方向にある線を選択することができる。つまり、平均画像230に関して、その画像から照合のために選択することができる線は、動きマスク220を参照して選択することができる。例えば、照合のために平均画像230から選択することができる線は、動きマスク220に対して実質的に平行な線、または動きマスク220の中に含まれる線とすることができる。同様に、候補パノラマ152、153、および154の部分252、253、および254に関して、それぞれ、各部分からの照合するための線は、候補パノラマの各々と関連したマップ・データーを参照して選択することができる。更に具体的には、選択される線は、候補パノラマの各々と関連した重ね合わせマップ・データーによって示されるような、交通カメラ110が向けられる道路であると考えられる道路の方向に対して実質的に平行な線とすることができる。
[0034] 候補パノラマ152、153、および154の部分252、253、および254の各々について、それぞれ、選択された線は、平均画像230から選択された線と照合することができ、どの線が最も精度高く一致したかという判定に基づいて、選択部分253を選択することができる。線照合アルゴリズムは当業者には周知であるので、これ以上説明しない。しかしながら、照合動作250は、線照合に限定されるのではない。他の実施形態では、点、画像セグメント、またはデーター・クラスターを利用して、候補パノラマ152、153、および154の部分252、253、および254をそれぞれ平均画像230と照合することができる。本明細書において利用される場合、「画像特徴照合」という用語は、このような実施形態を総合して指すことを意図している。加えて、図2のシステム200は1つのパノラマ153のみからの選択部分253を示すが、他の実施形態では、以下で説明する変換パラメーター260の導出は、交通カメラ画像フィード140を複数の異なるパノラマと統合することができるように、複数のパノラマについて実行することができる。しかし、当業者には認められるように、異なる変換パラメーターを計算し、交通カメラ画像フィードを複数の異なるパノラマの内特定の1つにこのように統合する毎に利用することができる。
[0035] 一旦パノラマの選択部分253が選択されたなら、平均画像230を変換し、選択部分に位置合わせして、交通カメラ画像フィード140と、選択部分253が得られたパノラマ153との組み合わせを可能にすることができる。このような変換および位置合わせの結果は、動作265によって表されるように、変換パラメーター260となることができ、以下で更に説明するが、この変換パラメーター260は、続いて交通カメラ画像フィード140にリアル・タイムで適用することができ、パノラマ153のような既存のパノラマのコンテキストの中で、交通カメラ110からの現在の表示を可能にする。
[0036] 先に説明した照合250の場合におけるように、画像特徴照合は、同様に最適な変換パラメーター260を選択するための変換および位置合わせ265の一部として利用することができる。一実施形態では、変換および位置合わせ265を実行するために、射影変換 を利用することができる。更に具体的には、平均画像230からの線をランダムに選択することができ、これらのランダムに選択された線が選択部分253における等価の線と一致するように、射影変換 (homography)を利用して平均画像230を変換することができる。続いて、変換および位置合わせした平均画像230と選択部分253との間で他の選択されていない線が、どの位緊密に合致する(fit)かについてチェックを行うことができる。この合致の緊密さは、当業者には周知のやり方で採点することができ、この採点を、利用された変換パラメーターと共に格納することができる。続いて、変換されていない平均画像230を再度参照して、異なる1組の線を再度ランダムに選択し、他の射影変換 を実行して、新たにランダムに選択された線が、選択部分253における等価な線と一致するように、平均画像230を変換することができる。次いで、この変換の採点を再度前述と同様に判定することができ、利用された変換パラメーターと共に格納することができる。最後に、最終変換パラメーター260として選択することができる変換パラメーターは、変換および位置合わせした平均画像230と選択部分253との間における最良のはめ込みを証明する、最高の採点が得られた変換パラメーターとすることができる。他の実施形態では、アフィン・マッピング、または最大投射(full projection)というような、射影変換以外のはめ込みモデルを利用することもできる。
[0037] 一旦変換パラメーター260が決定されたなら、これらを利用して、本質的にリアル・タイムで、交通カメラ110から受け取られた交通カメラ画像フィード140を変換し、この変換した画像を既存のマップ・パノラマに統合することができる。更に具体的には、図2のシステム例200において示すように、リアル・タイムで受け取られた交通カメラ画像フィード140を、動作275で示すように、動きマスク220における変換パラメーター260に基づいて、フィルタリングおよび変換することができる。動きマスク220は、交通カメラ画像フィード140の内、既存のマップ・パノラマに統合しようとする部分を特定するために利用することができる。続いて、一旦これらの部分が特定され、交通カメラ画像フィード140の残りの部分をフィルタリングによって除去したなら、変換パラメーター260を適用して、交通カメラ画像フィードの残っている部分を変換することができる。フィルタリングおよび変換の結果得られた交通カメラ画像フィード270は、次に、以下で更に詳しく説明するように、既存の画像と組み合わせることができる。この場合も、図の静止的な本質のため、フィルタリングおよび変換後の交通カメラ画像フィード270は、図2では1つのグラフィック複合体として図示されているが、以前と同様、参照番号270によって特定されるグラフィック複合体は、先に説明した変換にしたがって、フレーム毎、または当業者には周知である他の基準で、ここではグラフィック的に変換されていることを除いて、交通カメラ110からの動的な動画映像を表すことを意図している。これについては、以下で更に詳細に説明する。
[0038] 次いで、フィルタリングおよび変換後の交通カメラ画像フィード270を、動作285によって示すように、既にマップ・パノラマ153から選択されている部分253と組み合わせることができる。組み合わせ285は、交通カメラ画像フィード140の画像範囲が、それよりも大きなマップ・パノラマ153の画像範囲の中に正しく位置付けられるように、または、更に正確には、交通カメラ画像フィードの画像特徴が、マップ・パノラマ153の等価の画像特徴上に重ね合わせられるようにすることができる。このような組み合わせによって、融合画像280を得ることができる。融合画像280は、生の交通カメラ画像フィード、または本質的に生の交通カメラ画像フィードを、マップ・パノラマ280の一部の中に表示された、動的な動画映像として含み、次いで動作295によって示すように、ユーザーに提示することができる。このようにして、ユーザーには、交通カメラ110から受け取られる映像に対して、より広いコンテキストを提供することができる。例えば、マップ・ベース・ウェブサイトを介して提示することができるような、ストリート・レベル・ビューをブラウズしているユーザーが、交通カメラ110が配置されている交差点をブラウズして通過すると、彼らにはこのような交差点のストリート・レベル・ビューだけでなく、実際に移動する車両交通のリアル・タイム、またはほぼリアル・タイムの画像も、交差する道路の画像上に重畳されて提示することができる。同様に、他の例として、交通カメラ画像フィード140を見ようとしているユーザーに、既存のマップ・パノラマのコンテキストの中でこのような交通カメラ画像フィードを提示することができ、ユーザーがパノラマと対話処理することができ、更に、動的な動画交通カメラ・映像の表示に対して、交通カメラ110がどの道路に向けられているか、そしてどの方向にカメラが照準を合わせているのかというような、より良いコンテキストを受けるようにすることができる。
[0039] 図3に移ると、ここに示されている流れ図300は、図2において先に示した、変換パラメーター260を得るために実行することができる一連の前処理ステップの一例を示す。最初に、図3に示すように、ステップ310において交通カメラ画像フィードをサンプリングすることができ、ステップ350において、交通カメラの位置を得ることができる。ステップ310における交通カメラ画像フィードのサンプリングの一部として、ステップ315において、交通カメラ画像フィードがサンプリングされている交通カメラが移動可能であるか否かについて、判定を行うことができる。ステップ315における判定は、例えば、画像範囲が交通カメラ画像フィードの個々の画像フレーム間で変化するか否か検出することによって行うことができる。ステップ315において、交通カメラが移動可能でないと判定された場合、本処理はステップ330および335に進むことができる。逆に、ステップ315において、交通カメラが移動可能であると判定された場合、本処理はステップ320に進むことができ、この時点で、先に説明したようなやり方で、交通カメラ画像フィードから受け取られている画像を安定させることができる。次いで、本処理はステップ330および335に進むことができる。
[0040] 図3の流れ図300において示すように、ステップ330および340、ならびに335は、並列に実行することができ、またはステップ330および340、ならびに335の間というような、実行の順序が無関係であることができるように実行することができる。ステップ330において、交通カメラ画像フィードをサンプリングしている時間の全てではないにしても、少なくとも一部を含む時間期間にわたって、平均画像を得ることができる。続いて、ステップ310において、一実施形態では、既知の検出技法を利用して、ステップ330において得た平均画像において線を検出することができる。ステップ335において、ときの経過と共に動きを示すエリアのマスクを、サンプリングされた交通カメラ画像フィードから得ることができる。
[0041] ステップ330および340、ならびに335を完了すると、本処理はステップ345に進むことができ、この時点で、ステップ335において得られた動きマスクを利用して、ステップ330において得た平均画像において、ステップ340において検出された線をフィルタリングすることができ、その結果得られた線が、動きマスクによって特定される、動きの方向に沿った線、またはほぼ平行な線となるようにする。
[0042] 以上で説明したステップと並行して、そしてこれらとは独立して、ステップ355において、交通カメラの位置近くで撮影されたパノラマを、ステップ350において受け取られた、またはそれ以外で得られた交通カメラの位置に基づいて、特定することができる。ステップ355において特定したパノラマの中で、既知の線検出技法の利用によって、ステップ360において、これらのパノラマのある部分、または実際には全部において、線を検出することができる。続いて、ステップ365において、選択されたパノラマと統合され、そして関連付けられる既存のマップ・データーに基づいて、ステップ360において検出した線をフィルタリングすることができる。更に具体的には、ステップ365において実行した線フィルタリングは、交通カメラ画像フィードを供給している交通カメラが向けられている道路として特定された1本以上の道路に沿っている線、またはその方向を向いている線を選択することができる。
[0043] ステップ345における線のフィルタリングおよびステップ365における線のフィルタリングを完了すると、ステップ370において、フィルタリングした線の間で比較を行って、サンプリングされた交通カメラ画像フィードと、1つ以上の既存のマップ・パノラマの少なくとも一部の部分との間における最良の一致を特定することができる。一旦ステップ370において最良の一致が特定されたなら、図4に示すシステム400によってというようにして、交通カメラ画像フィードを、特定されたパノラマ、またはその一部にはめ込んで位置合わせすることができる。システム400については、以下で更に詳しく説明する。最終的に、交通カメラ画像フィードのフィルタリング、および特定したパノラマ、またはその一部への交通カメラ画像フィードのはめ込みおよび位置合わせを実行するために利用された正確なメカニズムには関係なく、このようなメカニズムの結果から、変換パラメーターを得ることができる。このパラメーターが得られたときに、図3の流れ図300に示すように、この関連前処理はステップ375において終了することができる。
[0044] 図4に移り、ここに示す流れ図400は、既存のマップ・パノラマに視覚的にうまく統合することを可能にするために交通カメラ画像フィードに適用することができる変換パラメーターを得ることができるメカニズム例を示す。先に示したように、図4の流れ図400、そして実際に図3の流れ図300の態様は、交通カメラ画像フィードと1つ以上の既存のマップ・パノラマとの間における照合を実行し、一致を評価するための線の利用を参照するが、このような参照は単なる例示であり、他の画像特徴も同様に、このような照合および評価を実行するために利用することができる。
[0045] 最初に、図4の流れ図400に示すように、はめ込んで位置合わせしようとしている既存のパノラマにおける交通カメラ画像を、ステップ410において得ることができる。続いて、ステップ420において、交通カメラ画像における線をランダムに選択することができる。先に示したように、線の集合体は、その中からステップ420において一部の線をランダムに選択することができ、動きマスクによって特定された線とすることができ、あるいはそうでなければ、動きの方向に沿っている線、または実質的に平行な線とすることができる。続いて、ステップ430において、交通カメラ画像を変換し、既存のパノラマにおいて対応する線に、ランダムに選択した線が合致するように位置合わせすることができる。一実施形態では、このような変換を実行するために、射影変換を利用することができる。ステップ440において、他の線が、交通カメラ画像および既存のパノラマを位置合わせするための変換の間にどのくらい一致するか評価することによってというようにして、既存のパノラマにおいて変換および位置合わせした交通カメラ画像間の全体的なはめ込みを採点することができる。ステップ450において、ステップ430において得て利用した変換パラメーターを、ステップ440において決定した対応する採点と共に保存することができる。
[0046] ステップ460において、しきい値に達しているか否かについて判定を行うことができる。一実施形態では、このようなしきい値は単に特定の繰り返し回数とすることができるが、他の実施形態では、このようなしきい値は、変換および位置合わせした交通カメラ画像と既存のパノラマとの間のはめ込みを容認可能とするしきい値レベルと関連した最小得点、または他の同様のしきい値とすることができる。ステップ460において、しかるべきしきい値に未だ達していないと判定された場合、本処理はステップ420に戻ることができ、この時点で、異なる1組の線をランダムに選択し、ステップ430、440、および450の処理を、新たにランダムに選択した線で、繰り返すことができる。逆に、ステップ460において、しかるべきしきい値に達していると判定された場合、本処理はステップ470に進むことができ、この時点で、最高の得点が得られた変換パラメーターを選択することができる。ステップ470において選択された変換パラメーターは、ステップ375で示した、関連処理の目標とすることができる。この処理は、図3の流れ図300においても以前に引用されている。
[0047] 図5に移ると、その中に示されているブロック図500は、交通カメラ画像フィードを既存のパノラマと統合することができる3つのメカニズムを示す1組の複合画像の例を示す。以前と同様、図の静止的な本質のため、融合510、530、および550は、1つのグラフィック複合体として示されているが、これらは、静止画像と共に表示される、動的な動画映像の重畳、または他の組み合わせを表すことを意図している。したがって、この映像の中にある種々のグラフィック要素は、読み手が、動的な動画グラフィック要素であると理解し思い浮かべる(visualize)ことを意図している。加えて、当業者には認められようが、図示する3つのメカニズムは単なる例に過ぎず、本明細書において行われる説明から逸脱することなく、他の視覚的統合メカニズムも等しく交通カメラ画像フィードに適用することができる。融合画像510によって示される一実施形態では、マップ・パノラマから選択された部分253の上に、軽い陰影がついたエリア520によって表される交通カメラ動画映像を変換および位置合わせして、重畳することができる。しかしながら、当業者には認められるように、このような提示は、視覚的適性(visual fitness)に欠けている可能性があり、ある種のユーザーには否定的に捕らえられる可能性がある。
[0048] したがって、融合画像530によって示される他の実施形態では、マップ・パノラマから選択された部分253の上には、車両531、532、533、534、および535のような、車両交通であると考えられる、移動する交通カメラ映像のエレメントのみを重畳させることができる。このような実施形態の方が高い視覚的適合性を得ることができ、パノラマ画像の殆どの連続性を保持することができるが、多くの場合、パノラマ画像はそれ自体に車両交通の静止画像を含むことがある。これらの静止画像は、その画像がパノラマに取り込まれた時点に既に道路上に存在していた場合もある。つまり、複合画像530に示すように、既にパノラマの一部であった可能性がある車両541および542は、交通カメラ画像フィードからの車両531、532、533、534、および535と同じ空間、またはほぼ同じ空間を占めているように現れる可能性がある。加えて、車両531、532、533、534、および535は動的な動画映像の動画要素であるので、これらは、静止パノラマ部分253の静止要素である車両541および542を「抜いて」または「越えて」走るように現れる可能性がある。このような現れ方、およびこのような視覚的挙動は、あるユーザーにとっては紛らわしい可能性がある。
[0049] したがって、複合画像550によって示される更に他の実施形態では、マップ・パノラマから選択された部分253の上には、その上にある道路および車両交通と識別されたものを含む、交通カメラ動画映像の部分560を重畳させることができる。このような実施形態では、交通カメラ画像フィードからの道路が、その映像からの移動車両交通と共に、それらの上に重畳されるときに、パノラマの一部であったかもしれない任意の車両をマスクすることができる。このような実施形態は、ある種の状況では、交通カメラ・フィードによって提供される有意な視覚情報と、パノラマによって提供されるコンテキスト視覚情報との間に、ほぼシームレスな視覚統合を設けることができる。例えば、このような実施形態は、交通カメラ映像からの移動車両交通が、パノラマ253のその部分の中でシームレスに移動しているように現れさせることができる。しかしながら、先に示したように、以上の説明の範囲から逸脱することなく、2つの画像を統合する他の機構を利用することもできる。
[0050] 加えて、これも先に示したように、以上の説明は交通カメラおよびマップ・パノラマに特定して限定されるのではなく、このようなものに対する引用は、以上の説明を明確にするために限って行ったに過ぎない。実際、以上の説明は、映像の静止画像への任意の統合に適用可能である。例えば、種々の公衆エンティティおよび私有エンティティがそれら自体のビデオ・カメラを維持し、このようなビデオ・カメラからの画像フィードへのアクセスを提供する。このようなエンティティには、スキー・リゾートを含むことができ、そのビデオ・カメラが、種々のスキー・スロープにおける現在の状態を表示することができ、あるいは公の海岸または私有の海岸を含むことができ、そのビデオ・カメラが現在の海岸の状態を表示することができ、更に公立大学または私立大学を含むことができ、そのビデオ・カメラは単にそれらのキャンパスの種々の部分を表示することができる。このようなビデオ・カメラからの画像フィードは、先に引用した交通カメラからのフィードと同様に、既存の静止画像に統合することができる。例えば、多くの場合、スキー・スロープ、海岸、および大学のキャンパスは、道路の近くに位置しており、マッピング・コンテキストの中でストリート・レベル・ビューを提供することを目的に、これらの道路のパノラマが取り込まれている。つまり、このような他のビデオ・カメラがあれば、その動的動画映像を、先に引用した同じマップ・パノラマに統合させることもできる。更に他の代替物として、セキュリティ・カメラのような狭視野ビデオ・カメラ(narrow-field-of-vision video camera)があれば、その動的動画映像を、その狭視野セキュリティ・カメラの視覚的コンテキストを広げることを目的に撮影された静止画像に統合させることもできる。つまり、一例として、建物の広角静止画像を撮影することができ、その各々は、このような建物の少なくとも2つの側面を取り込む。続いて、この建物の周囲に位置する複数のセキュリティ・カメラの全てが、その映像を、このような広域画像のコンテキストの中に表示させることができる。以上から分かるであろうが、これまでの説明は、より広い視覚的コンテキストを提供する静止画像に統合される、広範囲の動的動画映像に適用可能である。
[0051] 図6に移ると、以上で説明したメカニズムを実現することができる計算デバイス例600が示されている。計算デバイス例600は、以前に参照した図に示され先により詳細に説明した、クライアント計算デバイス130、マップ・サーバー計算デバイス120、また更には交通カメラ110の内任意の1つ以上とすることができる。図6の計算デバイス例600は、1つ以上の中央処理ユニット(CPU)620、RAM632を含むことができるシステム・メモリー630、およびシステム・メモリーから演算装置620までを含む種々のシステム・コンポーネントを結合するシステム・バス621を含むことができるが、これらに限定されるのではない。システム・バス621は、メモリー・バスまたはメモリー・コントローラー、周辺バス、および種々のバス・アーキテクチャーの内任意のものを用いるローカル・バスを含む、様々なタイプのバス構造の内任意のものとすることができる。計算デバイス600は、オプションとして、グラフィクス・ハードウェア・インターフェース690およびディスプレイ・デバイス691を含むがこれらに限定されない、ビジュアル・ユーザー・インターフェースのディスプレイのためというような、グラフィクス・ハードウェアを含むことができる。加えて、計算デバイス600は、ディジタル・ビデオ・カメラ651のような、グラフィクス入力ハードウェアも含むことができる。ディジタル・ビデオ・カメラ651は、交通カメラ110が交通カメラ画像フィード140を取り込む物理ハードウェアを現すことができる。ディジタル・ビデオ・カメラ651のようなグラフィクス入力ハードウェアは、周辺インターフェース650を介してシステム・バス621に通信可能に結合することができる。
[0052] また、計算デバイス600は、通例、コンピューター読み取り可能媒体も含む。コンピューター読み取り可能媒体は、計算デバイス600によってアクセス可能な任意の入手可能な媒体とすることができ、揮発性および不揮発性、リムーバブルおよび非リムーバブル双方の媒体を含む。一例として、そして限定ではなく、コンピューター読み取り可能媒体は、コンピューター記憶媒体および通信媒体を含むことができる。コンピューター記憶媒体は、コンピューター読み取り可能命令、データー構造、プログラム・モジュール、またはその他のデーターというような情報の格納のために、任意の方法または技術で実現される媒体を含む。コンピューター記憶媒体は、限定ではなく、RAM、ROM、EEPROM、フラッシュ・メモリーまたは他のメモリー技術、CD−ROM、ディジタル・バーサタイル・ディスク(DVD)またはその他の光ディスク・ストレージ、磁気カセット、磁気テープ、磁気ディスク・ストレージまたはその他の磁気記憶デバイス、あるいは所望の情報を格納するために用いることができしかも計算デバイス600がアクセス可能なその他の任意の媒体を含む。通信媒体は、通例、コンピューター読み取り可能命令、データー構造、プログラム・モジュール、またはその他のデーターを、搬送波またはその他の移送機構のような変調データー信号において具体化し、任意の情報配信媒体を含む。一例として、そして限定ではなく、通信媒体は、有線ネットワークまたは直接有線接続というような有線媒体、ならびに音響、RF、赤外線、およびその他のワイヤレス媒体というようなワイヤレス媒体を含む。前述の内任意のものの組み合わせも、コンピューター読み取り可能媒体の範囲に含まれてしかるべきである。
[0053] システム・メモリー630は、リード・オンリ・メモリー(ROM)631および前述のRAM632のような揮発性および/または不揮発性メモリーの形態をなすコンピューター記憶媒体を含む。基本入出力システム633(BIOS)は、起動中のように、計算デバイス600内のエレメント間における情報転送を補助する基本的なルーチンを含み、通例ROM631内に格納されている。RAM632は、通例、演算装置620が直ちにアクセス可能であるデーターおよび/またはプログラム・モジュール、あるいは現在演算装置620によって処理されているデーターおよび/またはプログラム・モジュールを含む。一例として、そして限定ではなく、図6は、オペレーティング・システム634を、他のプログラム・モジュール635、およびプログラム・データー636と共に示す。
[0054] また、計算デバイス600は、他のリムーバブル/非リムーバブル揮発性/不揮発性コンピューター記憶媒体も含むことができる。一例として示すに過ぎないが、図6は、非リムーバブル不揮発性磁気媒体からの読み取りおよびこれへの書き込みを行なうハード・ディスク・ドライブ641を示す。この計算デバイス例において使用することができるその他のリムーバブル/非リムーバブル、揮発性/不揮発性コンピューター記憶媒体には、限定ではないが、磁気テープ・カセット、フラッシュ・メモリー・カード、ディジタル・バーサタイル・ディスク、ディジタル・ビデオ・テープ、ソリッド・ステートRAM、ソリッド・ステートROM等が含まれる。ハード・ディスク・ドライブ641は、通例、インターフェース640のような非リムーバブル・メモリー・インターフェースを介してシステム・バス621に接続されている。
[0055] 以上で論じ図6に示したドライブおよびそれらと関連したコンピューター記憶媒体は、コンピューター読み取り可能命令、データー構造、プログラム・モジュール、および計算デバイス600のその他のデーターを格納する。例えば、図6では、ハード・ディスク・ドライブ641は、オペレーティング・システム644、他のプログラム・モジュール645、およびプログラム・データー646を格納するように示されている。尚、これらのコンポーネントは、オペレーティング・システム634、他のプログラム・モジュール635、およびプログラム・データー636と同じであっても、異なっていても可能であることを注記しておく。オペレーティング・システム644、他のプログラム・モジュール645、およびプログラム・データー646は、ここで、少なくともこれらが異なるコピーであることを示すために、異なる番号が与えられている。
[0056] 計算デバイス600は、1つ以上のリモート・コンピューターへの論理接続を用いて、ネットワーク環境において動作することも可能である。計算デバイス600は、ネットワーク・インターフェースまたはアダプタ670を介して一般的なネットワーク接続671に接続されているように示されており、一方アダプタ670はシステム・バス621に接続されている。ネットワーク接続環境では、計算デバイス600に関して図示されているプログラム・モジュール、あるいはその一部またはペリフェラルは、一般的なネットワーク接続671を介して計算デバイス600に通信可能に結合されている1つ以上の他の計算デバイスのメモリーに格納することもできる。尚、図示したネットワーク接続は一例であり、計算デバイス間に通信リンクを作る他の手段を使用してもよいことは認められよう。
[0057] 以上の説明から分かるように、生のビデオ・カメラ・フィードを既存の静止画像と統合するメカニズムを列挙した。本明細書に記載した主題には多くの変形が可能であることを考慮して、以下の特許請求の範囲およびその均等の範囲に該当し得るこのような実施形態の全てを、本願発明として特許請求する。

Claims (13)

  1. 画像フィードを少なくとも1つの既存の静止画像の中に視覚的に統合するためのコンピューター実行可能命令を含む1つ以上のコンピューター読み取り可能記憶媒体であって、前記コンピューター実行可能命令が、コンピュータによって実行されるステップに向けられ、当該ステップが、コンピュータにより実行されたときに、以下のステップ、即ち、
    前記画像フィードのサンプルを得るステップと、
    画像範囲が前記画像フィードの、得られたサンプルの画像範囲の少なくとも一部を含む1つ以上の既存の静止画像を選択するステップであって、前記画像フィードおよび前記静止画像の双方と関連した位置情報によって、前記選択が決定される、ステップであって、前記画像フィードを得たカメラからの所定の距離内で得られ得る全ての画像フィード及び静止画像が、候補画像フィードとして選択され得るものと、
    前記画像フィードのサンプル全体において一定に維持される要素を含む平均画像を導出するステップと、
    前記画像フィードのサンプル全体において要素が移動する領域を特定する動きマスクを導出するステップと、
    前記選択された1つ以上の静止画像における対応する画像特徴を有する、前記動きマスクに沿った平均画像における複数の画像特徴を特定するステップであって、前記画像特徴が、前記平均画像と前記静止画像を位置合わせするために用いられる、前記画像フィードの特徴的な要素であるものと、
    前記画像フィードを変換し位置合わせするための変換パラメーターを得るステップであって、前記画像フィードの前記サンプルにおける特定した前記画像特徴が、変換および位置合わせ後において、前記選択された1つ以上の静止画像における前記対応する画像特徴のものに等価の可視サイズと可視外観を有するようにし、前記選択された1つ以上の静止画像における前記対応する画像フィード特徴に等価的に重なり合わされるようにできる、ステップと、
    を含むステップを実行する、コンピューター読み取り可能記憶媒体。
  2. 請求項1記載のコンピューター読み取り可能記憶媒体において、前記画像フィードが、交通カメラからであり、更に、前記既存の静止画像が、ストリート・レベル・ビューを提供するパノラマである、コンピューター読み取り可能記憶媒体。
  3. 請求項1記載のコンピューター読み取り可能記憶媒体において、前記画像フィードにおける前記画像特徴を特定するためのコンピューター実行可能命令が、
    コンピュータによって実行されるステップであって、コンピュータによって実行されると、
    前記選択された1つ以上の静止画像において、前記選択された1つ以上の静止画像と関連した道路に沿った画像特徴を特定するステップを含むステップを実行することに向けられ、前記道路に沿って、交通カメラが向けられており、前記画像フィードが前記交通カメラからであり、前記静止画像がパノラマである、コンピューター読み取り可能記憶媒体。
  4. 請求項1記載のコンピューター読み取り可能記憶媒体において、前記変換パラメーターを得るためのコンピューター実行可能命令が、
    コンピュータによって実行されるステップに向けられ、当該ステップが、コンピュータにより実行されたときに、以下のステップ、即ち、
    前記画像フィードの前記サンプルにおける前記特定した画像特徴の中から第1組の画像特徴を選択するステップと、
    予備的な変換パラメーターを得るステップと、
    前記画像フィードの前記サンプルを、得られた予備的な変換パラメーターにより変換し、前記静止画像と位置合わせするステップと、
    前記画像フィードの変換および位置合わせされたサンプルと、前記選択された静止画像の前記少なくとも1つとの間における全体的なはめ込みを採点するステップであって、前記採点が、前記第1組の画像特徴の一部ではない、前記特定した画像特徴の内他のものの位置合わせの精度に基づくものと、
    前記画像フィードの前記サンプルにおける前記特定した画像特徴の中から選択した複数の後続組の画像特徴に対して、前記得ることと前記採点することを繰り返すステップと、
    前記変換パラメーターとして、前記全体的なはめ込みの最高得点を生み出した予備的な変換パラメーターを選択するステップと、
    を実行する、コンピューター読み取り可能記憶媒体。
  5. 請求項1記載のコンピューター読み取り可能記憶媒体において、前記特定された画像特徴が交通車線マーキング線であり、更に、前記変換パラメーターを得るための前記コンピューター実行可能命が、前記交通車線マーキング線を使用して射影変換を実行するためのコンピューター実行可能命令を含む、コンピューター読み取り可能記憶媒体。
  6. 請求項1記載のコンピューター読み取り可能記憶媒体であって、当該コンピューター読み取り可能記憶媒体が、コンピュータにより実行されるステップに向けられ、コンピュータによって実行されると、更に、前記画像フィードのサンプルを安定化させ、各フレームの共通画像要素が重なり合うように前記画像フィードのサンプルの個々のフレームを互いに位置合わせした複合体にするステップを実行するコンピューター実行可能命令を含む、コンピューター読み取り可能記憶媒体。
  7. 既存の静止画像の中に視覚的に統合した画像フィードを含む融合画像を生成する方法であって、
    前記画像フィードのサンプルを得るステップと、
    前記画像フィードの得られたサンプルの画像範囲の少なくとも一部を含む画像範囲に基づいて前記既存の静止画像を選択するステップであって、前記画像フィードおよび前記静止画像の双方と関連した位置メタデーターによって、前記選択を伝える、ステップと、
    前記画像フィードのサンプル全体において一定に維持される要素を含む平均画像を導出するステップと、
    前記画像フィードのサンプル全体において要素が移動する領域を特定する動きマスクを導出するステップと、
    前記既存の静止画像における対応する画像特徴を有する、前記動きマスクに沿った前記平均画像における画像特徴を特定するステップであって、前記画像特徴が、前記平均画像と前記静止画像を位置合わせするために用いられる、前記画像フィードの特徴的な要素であるものと、
    前記画像フィードを変換し位置合わせするための変換パラメーターを得るステップであって、前記画像フィードの前記サンプルにおける前記特定した前記画像特徴が、変換および位置合わせ後において、前記既存の静止画像フィードにおける前記対応する画像特徴のものに等価の可視のサイズと外観を有するようにし、前記選択された静止画像における前記対応する画像フィード特徴に等価的に重なりあわされるようにできる、ステップと、
    を含む、方法。
  8. 請求項記載の方法において、前記画像フィードが、交通カメラからであり、更に、前記既存の静止画像が、ストリート・レベル・ビューを提供するために利用されるマップ・パノラマである、方法。
  9. 請求項記載の方法において、前記画像フィードにおける画像特徴を特定するステップが、
    前記画像フィードの前記サンプル全体において静止したままである要素を含む平均画像を得るステップと、前記画像フィードの前記サンプルにわたって要素が動くエリアを特定する動きマスクを得るステップと、前記平均画像において、前記動きマスクに沿った画像特徴を特定するステップとを含む、方法。
  10. 請求項記載の方法において、前記画像フィードにおける画像特徴を特定するステップが、
    前記既存の静止画像において、前記既存の静止画像と関連した道路に沿った画像特徴を特定するステップを含み、前記道路に沿って、交通カメラが向けられており、前記画像フィードが前記交通カメラからであり、前記既存の静止画像がパノラマである、方法。
  11. 請求項記載の方法において、前記変換パラメーターを得るステップが、
    前記画像フィードの前記サンプルにおける前記特定した画像特徴の中から第1組の画像特徴を選択するステップと、
    予備的な変換パラメーターを得るステップと、
    該得た予備的な変換パラメーターで前記画像フィードの前記サンプルを変換し位置合わせするステップと、
    前記画像フィードの変換および位置合わせされたサンプルと、前記選択された静止画像との間における全体的なはめ込みを採点するステップであって、前記採点が、前記第1組の画像特徴の一部ではない、前記特定した画像特徴の内他のものの位置合わせの精度に基づく、ステップと、
    前記画像フィードの前記サンプルにおける前記特定した画像特徴の中から選択した複数の後続組の画像特徴に対して、前記得るステップと前記採点するステップを繰り返すステップと、
    前記変換パラメーターとして、前記全体的なはめ込みの最高得点を生み出した予備的変換パラメーターを選択するステップと、
    を含む、方法。
  12. 請求項記載の方法において、前記特定された画像特徴が交通車線マーキング線であり、更に、前記変換パラメーターを得る前記ステップが、前記交通車線マーキング線を使用して射影変換を実行するステップを含む、方法。
  13. 請求項記載の方法であって、更に、前記画像フィードのサンプルを安定化させ、各フレームの共通画像要素が重なり合うように前記画像フィードのサンプルの個々のフレームを互いに位置合わせした複合体にするステップを含む、方法。
JP2013529158A 2010-09-14 2011-08-16 既存の静止画像内における映像の可視化 Active JP6006215B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/881,704 US9594960B2 (en) 2010-09-14 2010-09-14 Visualizing video within existing still images
US12/881,704 2010-09-14
PCT/US2011/047956 WO2012036832A1 (en) 2010-09-14 2011-08-16 Visualizing video within existing still images

Publications (3)

Publication Number Publication Date
JP2014502430A JP2014502430A (ja) 2014-01-30
JP2014502430A5 JP2014502430A5 (ja) 2014-10-02
JP6006215B2 true JP6006215B2 (ja) 2016-10-12

Family

ID=45806343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013529158A Active JP6006215B2 (ja) 2010-09-14 2011-08-16 既存の静止画像内における映像の可視化

Country Status (10)

Country Link
US (1) US9594960B2 (ja)
EP (1) EP2617007B1 (ja)
JP (1) JP6006215B2 (ja)
KR (1) KR101782670B1 (ja)
CN (1) CN102447886A (ja)
AU (1) AU2011302558B2 (ja)
IN (1) IN2013CN01716A (ja)
RU (1) RU2573239C2 (ja)
TW (1) TWI548276B (ja)
WO (1) WO2012036832A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5733565B2 (ja) * 2011-03-18 2015-06-10 ソニー株式会社 画像処理装置および方法、並びにプログラム
US9200919B2 (en) * 2012-06-05 2015-12-01 Apple Inc. Method, system and apparatus for selectively obtaining map image data according to virtual camera velocity
JP6450064B2 (ja) * 2013-03-18 2019-01-09 任天堂株式会社 情報処理装置、動画データのデータ構造、情報処理システム、動画再生プログラム、および、動画の再生方法。
US20150159895A1 (en) 2013-12-11 2015-06-11 Honeywell International Inc. Building automation system with user defined lifestyle macros
JP6503881B2 (ja) * 2015-05-20 2019-04-24 株式会社リコー コンテンツ提供システム、情報処理装置、プログラム、コンテンツ再生方法
US9767564B2 (en) 2015-08-14 2017-09-19 International Business Machines Corporation Monitoring of object impressions and viewing patterns
KR102339178B1 (ko) * 2015-08-27 2021-12-14 엘지전자 주식회사 이동단말기 및 그 제어방법
CN105163081B (zh) * 2015-09-02 2018-06-15 广东建设职业技术学院 一种基于异步渲染的实物展示方法及系统
CN105979136B (zh) * 2016-05-06 2019-03-12 安徽伟合电子科技有限公司 一种设备工作动态展示系统
WO2018142496A1 (ja) * 2017-02-01 2018-08-09 株式会社日立製作所 三次元計測装置
CN107147910B (zh) * 2017-05-31 2019-11-22 上海国茂数字技术有限公司 一种全景视频六角形采样方法及装置
CN108007946A (zh) * 2017-12-27 2018-05-08 同方威视技术股份有限公司 安全检查系统和检查方法
CN110430364A (zh) * 2019-08-26 2019-11-08 武汉众果科技有限公司 一种摄影拍照抠图局部动态图合成方法
CN111597986B (zh) * 2020-05-15 2023-09-29 北京百度网讯科技有限公司 用于生成信息的方法、装置、设备和存储介质
JP7314878B2 (ja) * 2020-08-11 2023-07-26 トヨタ自動車株式会社 キャリブレーションシステム、キャリブレーション方法及びキャリブレーションプログラム
US11636682B2 (en) 2020-11-05 2023-04-25 International Business Machines Corporation Embedding contextual information in an image to assist understanding

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3140782B2 (ja) 1991-12-10 2001-03-05 ストーム テクノロジー,インコーポレイテッド 画像を自動併合するための装置及び方法
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
JP3511892B2 (ja) * 1998-05-25 2004-03-29 日産自動車株式会社 車両用周囲モニタ装置
US7620909B2 (en) 1999-05-12 2009-11-17 Imove Inc. Interactive image seamer for panoramic images
US6937266B2 (en) 2001-06-14 2005-08-30 Microsoft Corporation Automated online broadcasting system and method using an omni-directional camera system for viewing meetings over a computer network
CN1218574C (zh) * 2001-10-15 2005-09-07 华为技术有限公司 交互式视频设备及其字幕叠加方法
US7130446B2 (en) 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
US20050033505A1 (en) * 2002-12-05 2005-02-10 Premier Wireless, Inc. Traffic surveillance and report system
JP2004214830A (ja) 2002-12-27 2004-07-29 Iwane Kenkyusho:Kk 一部リアルタイム画像表示装置
US7209601B2 (en) * 2003-07-22 2007-04-24 Omnivision Technologies, Inc. CMOS image sensor using high frame rate with frame addition and movement compensation
US7746375B2 (en) 2003-10-28 2010-06-29 Koninklijke Philips Electronics N.V. Digital camera with panorama or mosaic functionality
US8190003B2 (en) 2004-01-14 2012-05-29 Samsung Electronics Co., Ltd. Storage medium storing interactive graphics stream activated in response to user's command, and reproducing apparatus for reproducing from the same
US7643066B2 (en) * 2004-02-19 2010-01-05 Robert Bosch Gmbh Method and apparatus for producing frame accurate position data in a PTZ dome camera with open loop control
JP4424031B2 (ja) * 2004-03-30 2010-03-03 株式会社日立製作所 画像生成装置、システムまたは画像合成方法。
US9210312B2 (en) * 2004-06-02 2015-12-08 Bosch Security Systems, Inc. Virtual mask for use in autotracking video camera images
US20080291278A1 (en) * 2005-04-05 2008-11-27 Objectvideo, Inc. Wide-area site-based video surveillance system
GB0514715D0 (en) 2005-07-18 2005-08-24 Isis Innovation Combination of images
US20070070069A1 (en) * 2005-09-26 2007-03-29 Supun Samarasekera System and method for enhanced situation awareness and visualization of environments
JP2007102536A (ja) * 2005-10-05 2007-04-19 Fujifilm Corp 顔画像取得方法および装置
US8160400B2 (en) * 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
GB0523512D0 (en) 2005-11-18 2005-12-28 Applied Generics Ltd Enhancing traffic and navigation information with visual and audio data
JP4740723B2 (ja) * 2005-11-28 2011-08-03 富士通株式会社 画像解析プログラム、該プログラムを記録した記録媒体、画像解析装置、および画像解析方法
US7580547B2 (en) * 2006-10-24 2009-08-25 Iteris, Inc. Electronic traffic monitor
US10454995B2 (en) 2007-06-11 2019-10-22 Crackle, Inc. System and method for obtaining and sharing content associated with geographic information
US8068693B2 (en) 2007-07-18 2011-11-29 Samsung Electronics Co., Ltd. Method for constructing a composite image
US20090027418A1 (en) * 2007-07-24 2009-01-29 Maru Nimit H Map-based interfaces for storing and locating information about geographical areas
US20090030643A1 (en) * 2007-07-25 2009-01-29 White Timothy J Method for collecting statistics for movie theaters
US20090112452A1 (en) * 2007-10-25 2009-04-30 Gm Global Technology Operations, Inc. Vehicle navigation system with real time traffic image display
US20090122195A1 (en) * 2007-11-09 2009-05-14 Van Baar Jeroen System and Method for Combining Image Sequences
TWI381719B (zh) 2008-02-18 2013-01-01 Univ Nat Taiwan 穩定全幅式視訊之方法
US8237791B2 (en) 2008-03-19 2012-08-07 Microsoft Corporation Visualizing camera feeds on a map
US7921114B2 (en) * 2008-04-10 2011-04-05 Microsoft Corporation Capturing and combining media data and geodata in a composite file
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
JP2009284394A (ja) 2008-05-26 2009-12-03 Olympus Imaging Corp 撮像装置および撮像方法
US8130257B2 (en) 2008-06-27 2012-03-06 Microsoft Corporation Speaker and person backlighting for improved AEC and AGC
JP4591576B2 (ja) * 2008-08-18 2010-12-01 ソニー株式会社 画像処理装置、画像処理方法、プログラム
US8238610B2 (en) * 2008-12-18 2012-08-07 University Of Central Florida Research Foundation, Inc. Homography-based passive vehicle speed measuring
US9454847B2 (en) 2009-02-24 2016-09-27 Google Inc. System and method of indicating transition between street level images

Also Published As

Publication number Publication date
TW201215125A (en) 2012-04-01
AU2011302558B2 (en) 2014-06-19
EP2617007A1 (en) 2013-07-24
RU2573239C2 (ru) 2016-01-20
WO2012036832A1 (en) 2012-03-22
TWI548276B (zh) 2016-09-01
CN102447886A (zh) 2012-05-09
EP2617007B1 (en) 2019-10-02
JP2014502430A (ja) 2014-01-30
KR101782670B1 (ko) 2017-09-27
US9594960B2 (en) 2017-03-14
EP2617007A4 (en) 2017-12-20
IN2013CN01716A (ja) 2015-08-21
KR20130110156A (ko) 2013-10-08
AU2011302558A1 (en) 2013-03-21
RU2013111298A (ru) 2014-09-20
US20120062748A1 (en) 2012-03-15

Similar Documents

Publication Publication Date Title
JP6006215B2 (ja) 既存の静止画像内における映像の可視化
JP7480823B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US8531449B2 (en) System and method for producing multi-angle views of an object-of-interest from images in an image dataset
EP2261604B1 (en) Computer arrangement for and method of calculating motion vectors using range sensor data
AU2009257959B2 (en) 3D content aggregation built into devices
US7571051B1 (en) Cognitive change detection system
WO2021133964A1 (en) Systems and methods for presenting a reconstructed representation of a moving object detected in a scene
US20090289937A1 (en) Multi-scale navigational visualtization
US10909392B1 (en) Systems and methods for computer-based labeling of sensor data captured by a vehicle
DE112015003263T5 (de) Bildmodifikation
AU2008360066A1 (en) Method of and computer implemented system for generating a junction view image
CN114120170A (zh) 视频画面分析方法、装置、设备、介质及程序产品
JP7356383B2 (ja) 画像判定装置、画像判定方法、および、プログラム
JP2016115082A (ja) 画像検索システム及び画像検索方法
KR102633427B1 (ko) 교통사고 현장 재구성 리포트를 만드는 방법
KR102633425B1 (ko) 교통사고 현장 재구성 리포트를 만드는 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140818

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150414

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150826

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160531

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160908

R150 Certificate of patent or registration of utility model

Ref document number: 6006215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250