JP5647523B2 - 画像と位置による画像環境の認識 - Google Patents

画像と位置による画像環境の認識 Download PDF

Info

Publication number
JP5647523B2
JP5647523B2 JP2010545006A JP2010545006A JP5647523B2 JP 5647523 B2 JP5647523 B2 JP 5647523B2 JP 2010545006 A JP2010545006 A JP 2010545006A JP 2010545006 A JP2010545006 A JP 2010545006A JP 5647523 B2 JP5647523 B2 JP 5647523B2
Authority
JP
Japan
Prior art keywords
image
digital image
environment
acquired digital
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010545006A
Other languages
English (en)
Other versions
JP2011511365A (ja
JP2011511365A5 (ja
Inventor
ハオ,ウェイ
ルオ,ジエボ
エフ マッキンタイアー,デール
エフ マッキンタイアー,デール
Original Assignee
インテレクチュアル ベンチャーズ ファンド 83 エルエルシー
インテレクチュアル ベンチャーズ ファンド 83 エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテレクチュアル ベンチャーズ ファンド 83 エルエルシー, インテレクチュアル ベンチャーズ ファンド 83 エルエルシー filed Critical インテレクチュアル ベンチャーズ ファンド 83 エルエルシー
Publication of JP2011511365A publication Critical patent/JP2011511365A/ja
Publication of JP2011511365A5 publication Critical patent/JP2011511365A5/ja
Application granted granted Critical
Publication of JP5647523B2 publication Critical patent/JP5647523B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Description

本発明は、画像コンテンツとその画像を撮った場所に関する位置情報とを用いた画像環境の認識に関する。
コンピュータを用いたデジタルメディアアセットのコンテンツの意味の分析と識別は、意味論的理解(semantic understanding)として知られており、デジタルアセットを用いてユーザ体験を充実できる重要な分野である。デジタルイメージングの領域における意味論的理解のタイプとして、誕生日、野球の試合、コンサート、その他の画像撮影したイベントのタイプである、ユーザが撮ったイベントのタイプを識別する分析がある。一般的には、こうしたイベントを、トレーニング画像(a set of training images)を用いて学習した確率的グラフィックモデルを用いて認識し、新しく分析する画像があるイベントタイプに属する確率を計算する。このタイプのモデルは、例えば、L-J. Li、L. Fei-Fei著「What, where and who? Classifying event by scene and object recognition」(Proceedings of ICCV, 2007)に記載されている。
イベントタイプの認識を、ベイジアンネットワークのような古典的アプローチにより現在得られるもの以上に改善する必要がある。多くの場合、地域参照名前空間データベースへのエントリが、イベントの分類に十分役立つ。場所に関する追加的な意味論的知識を得て、その場所で撮影した画像の分類に役立てる必要がある。
本発明によれば、画像と、前記画像に関連する位置情報とから前記画像の環境を認識する方法を提供する。該方法は、
(a)前記画像とそれに関連する位置情報とを取得する段階と、
(b)前記位置情報を用いて前記位置情報に関連する空間像を取得する段階と、
(c)前記関連する空間像から前記画像の環境を特定する段階と、
(d)後で使用するために前記画像と関連付けて前記画像の環境を記憶する段階とを有する。
本発明の特徴と利点には、画像の位置情報に関連する参照画像を用いて、画像の環境のタイプをよりよく理解し、イベントやアクティビティの潜在的な性質の理解を容易にすることが含まれる。
本発明を利用できるシステムを示す図である。 本発明の一実施形態を実施するフローチャートである。 環境タイプの例のオントロジ構造を示す表である。 画像例とそれに対応する環境の空間像(aerial images)とを示す図である。 画像例とそれに対応する環境の空間像(aerial images)とを示す図である。
図1にシステム10を示した。システム10は、本発明を実施するのに必要な要素を有し、計算デバイス12、インデックスサーバ14、空間像サーバ16、及び通信ネットワーク20を含む。計算デバイス12は画像を格納するパーソナルコンピュータでよい。ここで、画像とは静止画像と動画像すなわちビデオ画像とを両方とも含むものとする。計算デバイス12は、デジタルカメラや携帯電話カメラ(図示せず)などにより撮られた画像を格納するために、これらの様々なデバイスと通信する。撮影されたこれらの画像はさらに、撮影デバイスにより提供されるグローバルポジショニングシステム(GPS)データなどの位置情報を含み得る。計算デバイス12は通信ネットワーク20を介してインターネットサービスとも通信できる。インターネットサービスは、位置情報無しで撮影された画像を利用し、その画像に対する位置情報をユーザに追加させる。いずれの場合であっても、位置情報を有する画像は本技術分野において周知である。
インデックスサーバ14は、画像のコンテンツを分析してイベントタイプなどの意味論的情報を求めるコンピュータ命令の形式のアルゴリズムを実行するための、通信ネットワーク20上で利用できる別のコンピュータ処理デバイスである。言うまでもなく、インデックスサーバ14によるウェブサービスとしてシステム10のこの機能を提供することは、本発明を限定しない。計算デバイス12も、インデックスのために提供された画像の分析をするアルゴリズムを実行するように構成してもよい。
空間像サーバ16は、通信ネットワーク20を介して他の計算デバイスと通信し、要求があれば、提供される位置情報に関連する空間像を提供する。空間像サーバ16に格納された空間像は、飛行機を含む有人操縦航空機や衛星を含む無人操縦航空機により撮影される。空間像は、特定の高度を真上から見下ろすカメラにより撮影してもよいし、撮影画像の3次元情報を保存するように斜めに撮影してもよい。Pictometry International Corp.は、位置情報と関連付けた、斜めに撮影した空間像を提供する会社の1つである。周知のインターネットサービスが、物理的アドレス、GPSデータ、その他の形式の位置情報(例えば、位置が知られた企業名)などの位置情報に関連づけられた衛星空間像を提供している。空間像はそれに関連するメタデータを有してもよい。メタデータは空間像サーバ上に空間像と関連付けて格納できる。空間像と関連するメタデータは、その画像により表される物理的エリア内にある企業名、歴史的建造物、公園その他の情報を含んでいてもよい。これらのメタデータは要求に応じて空間像とともに提供してもよい。また、空間像は、特定の高度から実際に撮影または撮影のシミュレーションを表すいろいろな解像度で提供できる。高解像度の空間像はより詳細を表すものであり、一般的には撮影により多くの費用がかかる。高解像度の空間像はより大きなファイルであり、より大きな帯域幅を要し、そのため送信に時間がかかる。
図2には、本発明を実施するのに必要なステップのシーケンスを示すプロセス図を示した。ステップ22において、GPSデータなどの関連位置情報を含む画像を取得する。位置情報は、好ましくはメタデータの形で画像と関連付けられているが、本発明の範囲から逸脱することなく、単に画像と関連づけて供給されてもよい。画像は、計算デバイス12により、その内部記憶装置から提供されてもよいし、または計算デバイス12がアクセスできる任意の記憶デバイスやシステム(例えば、ローカルネットワーク記憶デバイスやオンライン画像記憶サイト)から提供されてもよい。ステップ22において提供される位置情報を用いて、計算デバイス12は、ステップ24において空間像サーバ14に位置情報を提供し、その位置情報と関連する空間像を取得する。
ステップ24で取得した空間像を用いて、計算デバイス12は、ステップ26において分類子を用いて次のように画像の環境を特定する。近年、多数人が画像を非順序画像パッチ(unordered set of image patches)すなわち「ビジュアルワードのバッグ(bag of visual words)」として表すと効率がよいことを示した(F.-F. Li and P. Perona, A Bayesian hierarchical model for learning natural scene categories, Proceedings of CVPR, 2005; S. Lazebnik, C. Schmid, and J. Ponce, Beyond bags of features: spatial pyramid matching for recognizing natural scene categories, Proceedings of CVPR, 2006)。各トレーニング画像について好適な記述(例えば、いわゆるSIFT記述子)を計算し、この記述をさらにビンにクラスター分けして、「ビジュアルワード」よりなる「ビジュアルボキャブラリ」を構成する。これは、SIFT記述子を「ビジュアルワード」にクラスター分けして、その出現頻度により画像を表すためである。これらの記述子をクラスター化するため、周知のk-meansアルゴリズムをコサイン距離尺度とともに用いる。
この表示はこれらのパッチの空間的な構成に関する情報を捨ててしまうが、分類や認識のタスクにおけるこのタイプの表示を用いるシステムの性能はすばらしい。具体的には、画像を固定のグリッドでパーティションして、順序付けされていない一組の画像パッチ(unordered set of image patches)として表す。好適な記述を各画像パッチに対して計算し、ビンにクラスター化して、「ビジュアルボキャブラリ(visual vocabulary)」を構成する。本発明では、各画像グリッドを特徴付けるために、同じ方法論を適合させて、その方法論をカラーフィーチャとテクスチャフィーチャの両方を考慮するように拡張する。
カラーフィーチャを抽出するため、画像グリッドをさらに2×2の等サイズのサブグリッドにパーティションする。次に、各サブグリッドについて、R、G、Bの平均値を抽出して、4×3=12個のフィーチャのベクトルを構成する。このフィーチャベクトルは4つのサブグリッドのカラー情報を特徴付けるものである。テクスチャフィーチャを抽出するため、各サブグリッドで8つの方向ビンを有するヒストグラムの2×2配列を使ってもよい。このように、4×8=32次元のSIFT記述子を使って各画像グリッド内の構造を特徴付ける。これはLazebnik et al.の考え方と同様である。本発明の好ましい一実施形態では、画像が20万画素より大きければ、まず20万画素にサイズ変更する。そして画像グリッドサイズを16×16に設定し、重なるサンプリング区間を8×8とする。典型的には1つの画像からこのようなグリッドが117個できる。
本発明では、画像グリッドから原画像フィーチャをすべて抽出してから、k-meansクラスター化によりトレーニングデータセットのすべての画像グリッドをクラスター化して、カラーボキャブラリとテクスチャボキャブラリを別々に構成する。本発明では、両方のボキャブラリのサイズを500に設定する。トレーニング画像のセットのグリッドをすべて集約して、イベントに対する2つの規格化されたヒストグラムhe、htを求める。これらはそれぞれカラーボキャブラリとテクスチャボキャブラリのワード分布に対応している。heとhtとを連結すると、その結果はサイズが1000の規格化されたワードヒストグラムとなる。ヒストグラムの各ビンは対応するワードの出現頻度を示す。
位置座標に基づき求めた各入力空間像に対して、上記の通り、カラーワードのバッグとテクスチャワードのバッグとを両方とも計算する。あるタイプ(すなわちクラス)の環境に対応する画像はそのクラスのトレーニングセットを構成する。すべてのクラスのトレーニングセットが、トータルトレーニングセットを構成する。このトレーニングセットを用いて分類子をトレーニングする。
本発明の好ましい実施形態では、SAMME(by J. Zhu, S. Rosset, H. Zou, and T. Hastie. Multi-class Adaboost. Technique Report, 2005)として知られる分類子を、マルチクラス問題を解く分類子として選択する。AdaBoost.MHと呼ばれる別のアルゴリズムはK回の1対全分類(K one-against-all classifications)を実行する必要があるが、これと比較してSAMMEはKクラス分類を直接実行する。SAMMEは、当てずっぽうよりは良い(例えば、正しい確率が1/Kより大きい)弱い分類子(weak classifiers)があればよく、標準的な2クラスAdaBoostが必要とするような1/2より大きいものは必要としない。
分類を要する各入力空間像に対して、上記の通り、カラーワードのバッグとテクスチャワードのバッグとを両方とも計算する。トレーニングされた分類子を入力画像のワードのバッグに適用して、その入力画像の環境のクラスを生成する。
言うまでもなく、場所によっては複数の環境を有していてもよい。例えば、ニューヨーク州ハニオイェフォールスのノースメインストリートにあるロータリーパークには駐車環境、ピクニック環境、フィッシング環境、サッカー環境がある。限定としてではなく例として、環境には、野球場、フットボール場、テニスコート、ゴルフコース、居住エリア、商業施設、学校、ショッピングモール、遊び場、公園、海岸、森林、テーマパークがある。図3の表35に示す通り、環境には所定の単純化された環境オントロジが付随していてもよい。コンピュータ化学と情報科学において、オントロジとは、ドメイン内の一組のコンセプトと、そのコンセプト間の関係とを表すデータモデルである。オントロジを用いてそのドメイン内のオブジェクトについて推論する。図3の例では、非常に簡単なオントロジを2つの環境例に対して示した。図3に列挙したコンセプト間の関係は示していないが、関係を設ければ、アクティビティやイベントの性質を推論するために環境のオントロジの使用を支援できる。
ステップ28において、画像について特定された環境はその画像と関連付けて格納される。好ましくは、上記環境は、画像とともにEXIFデータなどのメタデータとして格納される。ステップ30において、データベース中のデータとして、画像と関連させて環境を格納できる。格納された画像の環境により、その画像に関連するイベントやアクティビティの性質に関する推論を行う。インデックスサーバ14または計算デバイス12は、格納された画像の環境により、例えば野球場であれば、イベントの性質が野球の試合であると推論できる。推論によりそのイベントが野球の試合として正しく分類できる。インデックスサーバ14が図4aに示したように画像を分析して、野球のグローブとベースボールがあることを検出した場合、これらのオブジェクトが野球場環境のオントロジに見つかると、そのイベントが野球の試合として適切に分類されているという、より確実な証拠となる。しかし、図4bに示したように、画像を分析して、ギター、人、ドラムセットなどのオブジェクトを判断して、それでも環境が野球場であるとされた場合には、イベントを野球の試合と分類することはおそらく正しくない。格納された画像の環境とその画像とを両方とも見ることによって、コンサートであるとの正しい推論をできる。空間像とともにメタデータが与えられていれば、その画像に関連するイベントやアクティビティの性質に関する推論をするときに、さらにその情報を他のデータと合わせて考慮することができる。後で使用したいときには、格納された環境のオントロジに加えて、空間像とともに提供されたメタデータを、格納することもできる。
アクティビティやイベントの性質を推論したので、計算デバイス12は、ステップ32において、推論されたイベントの画像(collection of images)を検索できる。イベントタイプ、格納された環境、格納された環境の要素、画像または空間像に関連するオントロジまたはメタデータを、単独または組み合わせて用いて、画像の検索を構成してもよい。検索する画像は、計算デバイス12のユーザのものでも、計算デバイス12に常駐のものであってもよし、計算デバイス12上で実行されたウェブブラウザにより実装されたグーグルイメージサーチなどのツールを用いて通信ネットワーク20を解して検索できる、公開された画像であってもよい。もう1つ、ウェブブラウザを用いてオンラインで検索できる画像コレクションでよく使われるものは、www.flickr.comにおいてFlickR(商標)により運営されている。ここではテキストタグを用いて画像を検索する。
図4aにおいて、画像40を、それに関連する位置情報の提供に応じて空間像サーバ14により提供される空間像42とともに示した。リスト44は、画像40のインデックス分析により決定されたオブジェクトを示し、リスト46は空間像42に関連するメタデータを示す。イベントの潜在的な性質が野球の試合であるという推論はほぼ確実であり、リスト中の用語を用いて同様のコンテンツを有する画像(images in the collection)を検索できる。同様に、図4bにおいて、異なる日時に同じ位置情報でもって撮影された画像48を、空間像42とともに示した。リスト50は、画像40のインデックス分析により決定されたオブジェクトを示す。リスト50とリスト46とを比較すると、このイベントの潜在的な性質が野球の試合であるとの推論は正しくない。格納された画像の環境とその画像とを両方とも考慮することによって、コンサートであるとの得心のいく推論をできる。
10 システム
12 計算デバイス
14 インデックスサーバ
16 空間像サーバ
20 通信ネットワーク
22 ステップ
24 ステップ
26 ステップ
28 ステップ
30 ステップ
32 ステップ
35 表
40 画像
42 取得空間像
44 リスト
46 リスト
48 画像
50 リスト

Claims (8)

  1. 取得したデジタル画像に関連する位置情報から前記取得したデジタル画像の環境を認識する方法であって、
    (a)画像キャプチャ装置を用いて前記デジタル画像とそれに関連する位置情報とを取得する段階と、
    (b)前記位置情報を用いて前記位置情報に関連する衛星画像または航空機から取得した画像である屋外デジタル空間像をサーバから取得する段階と、
    (c)計算装置を用いて、前記取得した屋外デジタル空間像を分析することにより、前記取得したデジタル画像の環境を特定する段階と、
    (d)前記取得したデジタル画像と関連付けて前記取得したデジタル画像の特定された環境を記憶する段階と
    (e)前記取得したデジタル画像の特定され記憶された環境から、前記取得したデジタル画像に関連するイベントまたはアクティビティの潜在的性質に関する推論を行う段階とを有する方法。
  2. 前記環境には、野球場、フットボール場、テニスコート、ゴルフコース、居住エリア、商業施設、学校、ショッピングモール、遊び場、公園、海岸、森林、またはテーマパークを含む、請求項1に記載の方法。
  3. 前記推論は、前記取得したデジタル画像の前記記憶した環境と、前記取得したデジタル画像とから行う、請求項1に記載の方法。
  4. 前記記憶した環境を用いて、前記イベントの複数のデジタル画像を検索する、請求項1に記載の方法。
  5. 前記取得した屋外デジタル空間像に関連するメタデータを取得する段階と、かかるメタデータを後で使うため、前記記憶した環境に関連づけて記憶する段階とを含む、請求項1に記載の方法。
  6. 前記取得したデジタル画像の前記記憶した環境と、前記記憶したメタデータから、前記取得したデジタル画像に関連するイベントまたはアクティビティの潜在的性質に関する推論を行う段階と、
    前記イベントの複数のデジタル画像を検索する段階とをさらに含む、請求項5に記載の方法。
  7. 前記推論は、前記取得したデジタル画像の前記記憶した環境、前記取得したデジタル画像、及び前記メタデータから行う、請求項6に記載の方法。
  8. 前記位置情報を用いて、前記取得したデジタル画像の環境を特定するのに必要な適切な解像度を選択する段階をさらに含む、請求項1に記載の方法。
JP2010545006A 2008-01-30 2009-01-27 画像と位置による画像環境の認識 Expired - Fee Related JP5647523B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/022,361 2008-01-30
US12/022,361 US8116596B2 (en) 2008-01-30 2008-01-30 Recognizing image environment from image and position
PCT/US2009/000519 WO2009134292A2 (en) 2008-01-30 2009-01-27 Recognizing image environment from image and position

Publications (3)

Publication Number Publication Date
JP2011511365A JP2011511365A (ja) 2011-04-07
JP2011511365A5 JP2011511365A5 (ja) 2012-03-08
JP5647523B2 true JP5647523B2 (ja) 2014-12-24

Family

ID=40899272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010545006A Expired - Fee Related JP5647523B2 (ja) 2008-01-30 2009-01-27 画像と位置による画像環境の認識

Country Status (5)

Country Link
US (1) US8116596B2 (ja)
EP (2) EP2320351A1 (ja)
JP (1) JP5647523B2 (ja)
CN (1) CN101911098B (ja)
WO (1) WO2009134292A2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016113732A1 (en) * 2015-01-15 2016-07-21 Wakingapp Ltd System for content matching and triggering for reality-virtuality continuum-based environment and methods thereof
US20100292917A1 (en) * 2009-05-13 2010-11-18 International Business Machines Corporation System and method for guiding a user through a surrounding environment
US8233711B2 (en) * 2009-11-18 2012-07-31 Nec Laboratories America, Inc. Locality-constrained linear coding systems and methods for image classification
US8427536B2 (en) * 2009-11-19 2013-04-23 Qualcomm Incorporated Orientation determination of a mobile station using side and top view images
US9298982B2 (en) 2011-07-26 2016-03-29 Xerox Corporation System and method for computing the visual profile of a place
DE202012013403U1 (de) 2011-08-26 2016-10-27 Terra Bella Technologies Inc. Erfassen und Verarbeiten adaptiver Bilder mit Bildanalyse-Rückmeldung
US9105128B2 (en) 2011-08-26 2015-08-11 Skybox Imaging, Inc. Adaptive image acquisition and processing with image analysis feedback
US8873842B2 (en) 2011-08-26 2014-10-28 Skybox Imaging, Inc. Using human intelligence tasks for precise image analysis
US9031326B2 (en) 2012-02-16 2015-05-12 Sony Corporation System and method for effectively performing an image categorization procedure
DE102012024873A1 (de) * 2012-12-19 2014-06-26 Audi Ag Verfahren und Steuervorrichtung zum Bereitstellen eines vorausliegenden Straßenverlaufs
US8761457B1 (en) 2013-11-27 2014-06-24 Google Inc. Aligning ground based images and aerial imagery
CN103760917B (zh) * 2013-12-31 2016-05-11 河南理工大学 航空摄影仪智能旋像设备及智能旋像方法
CN103713655B (zh) * 2014-01-17 2016-08-17 中测新图(北京)遥感技术有限责任公司 数字航摄仪旋偏角修正系统及方法
US9530235B2 (en) 2014-11-18 2016-12-27 Google Inc. Aligning panoramic imagery and aerial imagery
US10037712B2 (en) 2015-01-30 2018-07-31 Toyota Motor Engineering & Manufacturing North America, Inc. Vision-assist devices and methods of detecting a classification of an object
US10217379B2 (en) * 2015-01-30 2019-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Modifying vision-assist device parameters based on an environment classification
CN105354252A (zh) * 2015-10-19 2016-02-24 联想(北京)有限公司 一种信息处理方法和装置
CN105389555A (zh) * 2015-11-06 2016-03-09 天津航天中为数据系统科技有限公司 基于航拍图像的隐患目标分析方法及系统
US11423651B2 (en) * 2016-02-09 2022-08-23 Hrl Laboratories, Llc System and method for the fusion of bottom-up whole-image features and top-down enttiy classification for accurate image/video scene classification
CN105963951A (zh) * 2016-05-03 2016-09-28 北京高携科技发展有限公司 一种高尔夫球定位方法及装置
IL273722A (en) * 2020-03-31 2021-09-30 Israel Aerospace Ind Ltd Automatic labeling of objects in images
CN113936248B (zh) * 2021-10-12 2023-10-03 河海大学 一种基于图像识别的海滩人员危险性预警方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091634A (ja) * 1996-08-15 1998-04-10 Hewlett Packard Co <Hp> 写真画像検索システム
US8432414B2 (en) 1997-09-05 2013-04-30 Ecole Polytechnique Federale De Lausanne Automated annotation of a view
US6895126B2 (en) * 2000-10-06 2005-05-17 Enrico Di Bernardo System and method for creating, storing, and utilizing composite images of a geographic location
CA2559726C (en) * 2004-03-24 2015-10-20 A9.Com, Inc. System and method for displaying images in an online directory
JP4611675B2 (ja) * 2004-06-30 2011-01-12 本田技研工業株式会社 顧客応対ロボット
US20060190812A1 (en) * 2005-02-22 2006-08-24 Geovector Corporation Imaging systems including hyperlink associations
US7467147B2 (en) * 2005-06-01 2008-12-16 Groundspeak, Inc. System and method for facilitating ad hoc compilation of geospatial data for on-line collaboration
JP2006350879A (ja) * 2005-06-20 2006-12-28 Nikon Corp 情報提供システム
US20070032945A1 (en) * 2005-08-02 2007-02-08 Jason Kaufman System and method for providing location related information to a network user
US20070055441A1 (en) * 2005-08-12 2007-03-08 Facet Technology Corp. System for associating pre-recorded images with routing information in a navigation system
US8160400B2 (en) * 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
WO2008013568A2 (en) * 2005-12-30 2008-01-31 Irobot Corporation Autonomous mobile robot
US8139514B2 (en) * 2006-02-24 2012-03-20 Yahoo! Inc. Method and system for communicating with multiple users via a map over the internet
US9507778B2 (en) * 2006-05-19 2016-11-29 Yahoo! Inc. Summarization of media object collections

Also Published As

Publication number Publication date
US8116596B2 (en) 2012-02-14
US20090190797A1 (en) 2009-07-30
WO2009134292A3 (en) 2010-05-06
WO2009134292A2 (en) 2009-11-05
CN101911098A (zh) 2010-12-08
JP2011511365A (ja) 2011-04-07
CN101911098B (zh) 2014-09-17
EP2238561A2 (en) 2010-10-13
EP2320351A1 (en) 2011-05-11

Similar Documents

Publication Publication Date Title
JP5647523B2 (ja) 画像と位置による画像環境の認識
US8391617B2 (en) Event recognition using image and location information
Weyand et al. Planet-photo geolocation with convolutional neural networks
US8055081B2 (en) Image classification using capture-location-sequence information
Workman et al. A unified model for near and remote sensing
Hays et al. Large-scale image geolocalization
US20110184953A1 (en) On-location recommendation for photo composition
US9298982B2 (en) System and method for computing the visual profile of a place
CN109376603A (zh) 一种视频识别方法、装置、计算机设备及存储介质
Joshi et al. Inferring generic activities and events from image content and bags of geo-tags
Chen et al. Clues from the beaten path: Location estimation with bursty sequences of tourist photos
CN102591868A (zh) 用于拍照指南自动生成的系统和方法
JP5626042B2 (ja) 画像集合における代表画像の検索システム、方法及びプログラム
Dantone et al. Augmented faces
Cao et al. Learning human photo shooting patterns from large-scale community photo collections
Joshi et al. Inferring photographic location using geotagged web images
Singh et al. Semantically guided geo-location and modeling in urban environments
Alzu’bi et al. Learning transfer using deep convolutional features for remote sensing image retrieval
Kim et al. Classification and indexing scheme of large-scale image repository for spatio-temporal landmark recognition
Li et al. Global-scale location prediction for social images using geo-visual ranking
Weng et al. Semantic signatures for large-scale visual localization
Newsam et al. Georeferenced Social Multimedia as Volunteered Geographic Information
Yaegashi et al. Can geotags help image recognition?
Luo et al. Recognizing picture-taking environment from satellite images: a feasibility study
Song et al. Semantic features for food image recognition with geo-constraints

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130404

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130416

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130716

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141014

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141107

R150 Certificate of patent or registration of utility model

Ref document number: 5647523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees