JP2014507022A - 位置ベースの画像編成 - Google Patents

位置ベースの画像編成 Download PDF

Info

Publication number
JP2014507022A
JP2014507022A JP2013543211A JP2013543211A JP2014507022A JP 2014507022 A JP2014507022 A JP 2014507022A JP 2013543211 A JP2013543211 A JP 2013543211A JP 2013543211 A JP2013543211 A JP 2013543211A JP 2014507022 A JP2014507022 A JP 2014507022A
Authority
JP
Japan
Prior art keywords
image
location
queue
images
computing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013543211A
Other languages
English (en)
Other versions
JP5908494B2 (ja
JP2014507022A5 (ja
Inventor
デスペイン スチュアート
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014507022A publication Critical patent/JP2014507022A/ja
Publication of JP2014507022A5 publication Critical patent/JP2014507022A5/ja
Application granted granted Critical
Publication of JP5908494B2 publication Critical patent/JP5908494B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2477Temporal data queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

画像編成のためのシステムおよび方法を提供する。本開示の諸実施形態にかかる画像編成方法は、ユーザコンピューティング装置において、複数の画像を備える画像セットを受信することと、画像セット内の各画像の部分を、異なる地理的位置タグに対応する複数の視覚キューを含む検証済みのキューライブラリと比較することとを含む。本方法はさらに、上記部分に合致する視覚キューに対応する推奨された位置タグを含む、推奨パネルを表示することを含むことができる。

Description

本発明は、位置ベースの画像編成に関する。
現代の消費者は、ますます広範囲の装置により画像をキャプチャすることが可能である。その結果として、消費者は、異なる装置によってキャプチャされた画像をデジタル画像ライブラリに編成する、非常に時間がかかる労働集約的な処理を行う。ジオタグ(geo-tagging)は、画像生成の時に画像を地理的位置と合致させることによって画像編成を容易にするが、この技術を供給する装置は殆どない。さらに、成熟したジオタグ技術に先行してデジタル写真が使用されてきたが、これは、多数の既存の画像は、ジオタグまたは他の位置サービスを用いることができないことを意味する。
画像編成のためのシステムおよび方法を提供する。本開示の諸実施形態にかかる画像編成方法は、ユーザコンピューティング装置において、複数の画像を備えた画像セットを受信することと、画像セット内の各画像の部分を、異なる地理的位置タグに対応する複数の視覚キューを含む検証済みのキューライブラリと比較することとを含む。本方法はさらに、上記部分に合致する視覚キューに対応する推奨された位置タグを含む、推奨パネルを表示することを含むことができる。
本要約は、以下の詳細な説明においてさらに説明される概念の選択を簡潔な形で紹介するのに提供したものである。本要約は、特許請求される主題の主要な特徴または本質的な特徴を特定するようには意図されておらず、また特許請求される主題の範囲を限定するようにも意図されていない。さらに、特許請求される主題は、本開示のいずれかの部分において指摘したいずれかのまたは全ての欠点を解決する実装形態には限定されない。
本開示のコンピューティングシステムの一実施形態の概略図である。 本開示の画像編成グラフィカルユーザインタフェースの一実施形態を示す図である。 図2の画像編成グラフィカルユーザインタフェースの別の図である。 図2の画像編成グラフィカルユーザインタフェースの別の図である。 ユーザコンピューティング装置において実行される画像編成方法の一実施形態の流れ図である。 サーバコンピューティング装置において実行される画像編成方法の一実施形態の流れ図である。
本説明は、位置による索引付けを通じた画像の編成を容易にするために、位置タグを画像に対して推奨して割り当てるためのシステムおよび方法を対象とする。より具体的には、本説明は、画像に対する位置タグを、上記画像と、上記位置タグに対応する様々な検証済みのキューとの比較に基づいて推奨することに関する。異なる検証済みのキューとの合致に基づいて画像に対する位置タグを推奨することによって、画像作成後であっても画像に位置タグを割り当てることができる。したがって、作成時に位置タグが割り当てられなかったレガシー画像に位置タグを割り当てることができ、その結果、レガシー画像に対して、位置で索引付けすることができる。さらに、全地球測位システム(GPS:global position system)が使用可能なカメラなどを用いることなく、画像に位置タグ付けをすることができる。
さらに、推奨機能を、単一の画像に適用してもよく、あるいは、画像セット内の各画像に個別に位置タグ付けしなくともよいように複数の画像を含む画像セットに適用してもよい。位置タグを画像のセット全体に対して推奨することによって、単一の画像に手動でタグ付けすることを減少または排除することができる。したがって、位置の索引付けを介した画像編成を、所望に応じて迅速かつ容易に自動化または半自動化された手法で行うことができる。
図1は、コンピューティングシステム100の非限定的な実施形態を概略的に示しており、該コンピューティングシステム100において、位置タグを画像に対して推奨して割り当てるための方法またはプロセスを実行することができる。コンピューティングシステム100は簡略化された形で示されている。本開示の範囲から逸脱することなく、実質的に任意のコンピュータアーキテクチャを使用することができることが理解されよう。コンピューティングシステム100は、サーバコンピューティング装置またはコンピューティング装置クラウド146とネットワーク144を通じて通信する、ユーザコンピューティング装置102を含むことができる。
異なる実施形態において、ユーザコンピューティング装置102は、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、ホームエンターテイメントコンピュータ、ネットワークコンピューティング装置、モバイルコンピューティング装置、モバイル通信装置、ゲーム装置などの形をとることができる。さらに、コンピューティング装置クラウド146は、ネットワーク144を通じて相互に通信する複数の異なるソースを含むことができる。コンピューティング装置クラウド146の異なるソースは、メインフレームコンピュータ、サーバコンピュータ、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、ホームエンターテインメントコンピュータ、ネットワークコンピューティング装置、モバイルコンピューティング装置、モバイル通信装置、ゲーム装置などを含め、多種多様なコンピューティング装置の形をとることができる。
異なる実施形態において、ネットワーク144は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、有線ネットワーク、無線ネットワーク、パーソナルエリアネットワーク、またはインターネットを含むそれらの組合せの形をとることができる。
ユーザコンピューティング装置102は、論理サブシステム104、データ保持サブシステム106、ならびに表示サブシステム140、ならびに/あるいは、例えばキーボード、マウス、ゲームコントローラ、カメラ、マイクロフォン、および/またはタッチスクリーンを含むユーザ入力装置など、図1に図示されていない他のコンポーネントを含む。
論理サブシステム104は、1つまたは複数の命令を実行するように構成された1つまたは複数の物理装置を含むことができる。例えば、論理サブシステム104は、1つまたは複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造、または他の論理構造の一部である1つまたは複数の命令を実行するように構成されることがある。かかる命令は、タスクを実行し、データ型を実装し、1つまたは複数の装置の状態を変換し、あるいは所望の結果に到達するように実装され得る。
論理サブシステム104は、ソフトウェア命令を実行するように構成された1つまたは複数のプロセッサを含むことができる。あるいはまた、論理サブシステム104は、ハードウェア命令またはファームウェア命令を実行するように構成された1つまたは複数のハードウェアまたはファームウェアの論理マシンを含むことができる。論理サブシステム104のプロセッサは、単一コアまたはマルチコアとすることができ、そこで実行されるプログラムは、並列処理または分散処理用に構成されることができる。論理サブシステム104は、任意選択として、2つまたはそれ以上の装置にわたって分散される個々のコンポーネントを含むことができ、これらをリモートに配置することができ、および/または協調的処理向けに構成することができる。論理サブシステム104の1つまたは複数の態様を、コンピューティング装置クラウド146に含まれる論理サブシステム148などの、リモートにアクセス可能なネットワークコンピューティング装置によって仮想化して実行することができる。
データ保持サブシステム106は、本明細書で説明される方法およびプロセスを実装するのに論理サブシステムにより実行可能なデータおよび/または命令を保持するように構成された、1つまたは複数の物理的な持続的装置を含むことができる。かかる方法およびプロセスを実装するとき、(例えば、様々なデータを保持するのに)データ保持サブシステム106の状態を変換してもよい。
データ保持サブシステム106は、取外し可能媒体および/または組込み装置を含むことができる。データ保持サブシステム106は、特に、光メモリ装置(例えば、CD、DVD、HD−DVD、Blu−Ray Discなど)、半導体メモリ装置(例えば、RAM、EPROM、EEPROMなど)および/または磁気メモリ装置(例えば、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、MRAMなど)を含むことができる。データ保持サブシステム106は、取外し可能なコンピュータ読取可能記憶媒体を含むことができ、取外し可能なコンピュータ読取可能記憶媒体は、本明細書で説明される方法およびプロセスを実装するのに実行可能なデータおよび/または命令を格納および/または転送するのに用いることができる。取外し可能なコンピュータ読取可能記憶媒体は、特に、CD、DVD、HD−DVD、Blu−Ray Disc、EEPROM、および/またはフロッピーディスクの形をとることができる。データ保持サブシステム106は、次の特性、すなわち、揮発性、不揮発性、動的、静的、読み書き可能、読取専用、ランダムアクセス、逐次アクセス、位置アドレス可能、ファイルアドレス可能、およびコンテンツアドレス可能、のうち1つまたは複数の特性を有する装置を含むことができる。一部の実施形態において、論理サブシステム104およびデータ保持サブシステム106を、特定用途向け集積回路またはシステムオンチップなどの1つまたは複数の共通の装置に統合することができる。
データ保持サブシステム106が1つまたは複数の物理的な持続的装置を含むことは認識されよう。対照的に、一部の実施形態において、本明細書で説明される命令の諸態様を、少なくとも有限期間の間は物理装置で保持されない純粋な信号(例えば、電磁気信号、光信号など)により一時的な形で伝搬することができる。さらに、本開示に関するデータおよび/または他の形態の情報を純粋な信号により伝搬することができる。
「モジュール」、「プログラム」および「エンジン」という用語を用いて、1つまたは複数の特定の機能を実行するのに実装される、コンピューティングシステム100の態様を説明することができる。一部の場合において、かかるモジュール、プログラム、またはエンジンを、ユーザコンピューティング装置102によって、データ保持サブシステム106により保持される命令を実行する論理サブシステム104を介してインスタンス化することができる。一部の場合において、かかるモジュール、プログラム、またはエンジンを、サーバコンピューティング装置クラウド146によって、データストア150により保持される命令を実行する論理サブシステム148を介してインスタンス化することができる。異なるモジュール、プログラム、および/またはエンジンを、同一のアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、関数などからインスタンス化してもよいことは理解されよう。同様に、同一のモジュール、プログラム、および/またはエンジンを、異なるアプリケーション、サービス、コードブロック、オブジェクト、ルーチン、API、関数などによりインスタンス化してもよい。「モジュール」、「プログラム」、および「エンジン」という用語は、個々のまたは一群の実行可能ファイル、データファイル、ライブラリ、ドライバ、スクリプト、データベースレコードなどを包含するように意図されている。
サーバコンピューティング装置クラウド146のコンポーネントと実質的に同一でありうるユーザコンピューティング装置102のコンポーネントについては、さらに説明しないことに留意されたい。
複数の画像を収集して画像ライブラリ108を形成することができる。一部の実施形態では、画像ライブラリ108をユーザコンピューティング装置102のデータ保持サブシステム106に格納することができる。一部の実施形態では、画像ライブラリ108をサーバコンピューティング装置/クラウド146のデータストア150に格納することができる。一部の実施形態において、画像ライブラリ108は、ユーザコンピューティング装置102のデータ保持サブシステム106に格納された画像110を含むローカルコンポーネントと、データストア150内またはコンピューティング装置クラウド146全体にわたって分散される他のデータ保持装置内に格納された画像114を含むリモートコンポーネントとを備えることができる。
画像編成プログラム118は、異なる索引に従って画像ライブラリ108を編成するように構成されることがある。より具体的には、画像編成プログラム118は画像ライブラリ108内の画像に割り当てるべき位置タグを推奨し、その結果、画像ライブラリ108が位置で索引付けされるように構成されることがある。位置タグは、位置名および/または緯度経度の座標など、地理的位置を識別するメタデータを含むことができる。一部の場合において、画像ライブラリ内の画像に複数の位置タグを割り当てることができる。例えば、エッフェル塔の画像に、「エッフェル塔」の位置タグ、「パリ」の位置タグ、および「フランス」の位置タグを割り当てることができる。
一部の実施形態において、データ保持サブシステム106は、ユーザコンピューティング装置102において論理サブシステム104によりローカルに実行される画像編成プログラム118を構成する命令を保持することができる。したがって、一部の場合において、ユーザコンピューティング装置にローカルに存在する位置タグ112を、画像編成プログラム118によりローカルの画像110に対してタグ付けすることができる。一部の実施形態において、データストア152は、コンピューティング装置クラウド146において論理サブシステム148によりリモートに実行される画像編成プログラム118を構成する命令を保持することができる。したがって、一部の場合において、コンピューティング装置クラウド146内の異なるソースから収集された位置タグ116を、画像編成プログラム118によりリモートの画像に対してタグ付けすることができる。異なる実施形態において、画像編成プログラム118は、実行可能なアプリケーション、ブラウザのプラグイン、HTML5ファイル、モバイルアプリケーション、デスクトップアプリケーションなどの形をとることができ、あるいは画像編成プログラム118をこれらに組み込むこともできる。
ユーザコンピューティング装置102において実行される画像編成プログラム118のローカルな実装において、画像編成プログラム118は、画像ライブラリ108内のローカル画像110の選択されたセットに割り当てるべき位置タグを推奨するように構成され得る、位置タグモジュール120を含むことができる。位置タグモジュール120は、異なる位置タグ112に対応するキューの検証済みのキューライブラリ122を含むことができる。検証済みのキューライブラリ122に、データ保持サブシステム106に格納されたローカル画像110から識別されるローカルの既存のキューを追加することができる。一例において、検証済みのキューライブラリ122は、異なるキューが異なる関係を通じて異なる位置タグにリンクされる、関係データベースの形をとる。
検証済みのキューライブラリ122は、視覚キュー128、位置名キュー126、および補助キュー124を含むことができる。視覚キュー128は、位置タグに対応する地理的位置を定義する、視覚パターンまたは署名を含むことができる。視覚キュー128の非限定的な例には、光、温度、影、オブジェクト形状、言語などが含まれ得る。
位置名キュー126は、対応する位置タグを推奨するために、画像110のファイル名と比較され得る様々な地理的位置を含むことができる。位置名キュー126の非限定的な例には、ランドマーク、近隣、都市、州、国などが含まれ得る。
補助キュー124は、ユーザコンピューティング装置102において実行される他のプログラム138から抽出される情報を含むことができ、これは、画像のメタデータを地理的位置タグにリンクすることができる。一例として、補助キューは、地理的位置タグに対応する特定の時刻のユーザコンピューティング装置102の位置を提供する、スケジュールプログラムまたはカレンダプログラムのエントリから抽出される情報を含むことができる。別の例として、補助キューは、ネットワーク接続プログラムから抽出される情報を含むことができる。特に、インターネットプロトコル(IP)アドレスを使用して、地理的位置タグに対応する特定の時刻のユーザコンピューティング装置102の位置を識別することができる。
さらに別の例として、ユーザコンピューティング装置102が電話である実施形態において、補助キューは、通話認識から抽出された情報を含んでもよい。特に、電話の場所を、通話を中継する中継塔の位置によって提供することができる。上記の例では、位置タグモジュール120は、画像のタイムスタンプを、補助キューによって提供される時刻と比較することができ、その補助キューに対応する地理的位置タグを推奨することができる。タイムスタンプ以外に画像メタデータにリンクされる補助キューを、ユーザコンピューティング装置102によって実行される他のプログラム138から抽出することができることは認識されよう。
画像編成プログラム118は、画像110を分析して、検証済みのキューライブラリ122内の視覚キュー128と比較すべき各画像の部分を抽出するように構成された、視覚キュー分析器130を含むことができる。位置タグモジュール120は、視覚キュー分析器130によって提供される画像110の部分と合致する、検証済みのキューライブラリ122内の視覚キュー128に対応する位置タグ112を推奨することができる。
画像編成プログラム118は、検証済みのキューライブラリ122内の位置名キュー126と比較すべきファイル名を含むメタデータを画像110から抽出するように構成された、ファイル分析器132を含むことができる。位置タグモジュール120は、ファイル分析器132によって提供されるファイル名を含むメタデータと合致する、検証済みのキューライブラリ122内の位置名キュー126に対応する位置タグ112を推奨することができる。
画像編成プログラム118は、画像メタデータを地理的位置タグに合致させるのに使用され得る、ユーザコンピューティング装置102によって実行される他のプログラム138から情報を抽出するように構成された、装置分析器134を含むことができる。位置タグモジュール120は、装置分析器134によって提供される情報と合致する、検証済みのキューライブラリ122内の補助キュー124に対応する位置タグ112を推奨することができる。
一部の場合において、ユーザ提供の位置タグ142を、画像ライブラリ108内の選択された画像に割り当てることができる。位置タグモジュール120は、ユーザ提供の位置タグ143に対応する検証済みのキューライブラリ122内のキューを、画像ライブラリ108内の画像と比較するように構成され得る。位置タグモジュール120は、ユーザ提供の位置タグ142を画像ライブラリ108内の1つまたは複数の合致する画像に割り当てるという推奨を提供することができる。
画像編成プログラム118は、表示サブシステム140上の画像編成グラフィカルユーザインタフェース(GUI)136を表示するように構成されてもよい。画像編成GUI136は、推奨された位置タグをユーザに表示するように構成されてもよい。さらに、画像編成GUI136は、異なる索引によって編成された画像をユーザに表示するように構成されてもよい。画像編成GUI136を以下で図2〜4を参照してさらに詳細に論ずる。本明細書で説明される方法およびプロセスが、データ保持サブシステム106によって保持されるデータを変更し、従ってデータ保持サブシステムの状態を変化させると、表示サブシステム140の状態は同様に、基となるデータの変化を視覚的に表すように変化する。表示サブシステム140は、事実上任意のタイプの技術を用いる1つまたは複数の表示装置を含むことができる。かかる表示装置を、共有の筐体(enclosure)において論理サブシステム104および/またはデータ保持サブシステム106と結合することができ、あるいはかかる表示装置は周辺表示装置とすることもできる。
図1を続けると、コンピューティング装置クラウド146により実行される画像編成プログラム118のグローバルな実装において、画像編成プログラム118は、異なる位置タグ116に対応するキューから成る検証済みのキューライブラリ156を含むことができる、位置タグモジュール154を含むことができる。検証済みのキューライブラリ156に、コンピューティング装置クラウドの異なるソース(例えば、コンピューティング装置)から収集され、データストア150に格納される画像114から識別される検証済みのキューを追加することができる。一例において、検証済みのキューライブラリ156は、異なるキューが、異なる関係を通じて異なる位置タグにリンクされる、関係データベースの形をとる。検証済みのキューライブラリ156は、視覚キュー160および位置名キュー158を含むことができる。
検証済みのキューライブラリ156を、コンピューティング装置クラウド146の様々なソースから収集される位置タグに対応する様々な検証済みのキューで繰り返し更新することができる。例えば、画像編成プログラム118は、コンピューティング装置クラウド146のソースから、検証済みのキューライブラリ156に追加される新たなキュー166を受信することができる。新たなキュー166が追加されると、情報を収集した検証済みのキューライブラリを増大させて、検証済みのキューライブラリ156がより包括的になるようにすることができる。特に、より多くのキュー、位置タグ、およびリンク関係が検証済みのキューライブラリ156のグローバルな実装において存在するので、推奨はより正確になり、位置タグが画像に合致する可能性が高まる。
画像編成プログラム118は、視覚キュー分析器162、ファイル分析器164、および画像編成GUI168を含むことができる。これらのコンポーネントはローカルな実装のものと実質的に同一のものとすることができるので、これ以上は説明しない。
一部の実施形態において、グローバル画像編成プログラム118は、データストア150にグローバルに格納された画像に対して位置タグを推奨することができる。一部の実施形態において、グローバルな画像編成プログラム118は、ユーザコンピューティング装置102のデータ保持サブシステム106にローカルに格納された画像に対して位置タグを推奨することができる。換言すれば、選択された画像のセットを、画像編成プログラムのグローバルな実装によってユーザコンピューティング装置から受信することができる。画像編成プログラムのグローバルな実装は、画像セット内の画像を分析し、選択された画像セット内の画像と合致するキューに対応する推奨された位置タグをユーザコンピューティング装置に送信することができる。
図2〜4は、本開示の画像編成GUI200の実施形態の異なる図である。一例において、画像編成GUIを、図1に示される画像編成プログラム118によって表示サブシステム140上に表示することができる。
画像編成GUI200は、複数の画像204を含む画像表示領域202を含むことができる。複数の画像204は、画像ライブラリの一部または全部を形成することができる。画像表示領域202内の複数の画像204の各々が、画像を様々な索引で編成またはフィルタリングするのに使用され得るメタデータを含むことができる。
画像編成GUI200は、複数の画像204を様々な索引で編成するのに選択可能な複数のカテゴリセレクタ208を含む、画像編成制御領域206を含むことができる。図示された実施形態では、複数のカテゴリセレクタ208は、例として、人のカテゴリセレクタ、アルバムのカテゴリセレクタ、位置のカテゴリセレクタを含んでいるが、任意の適切なカテゴリセレクタを画像編成制御領域206に含めることができることは認識されよう。
画像表示領域202内に表示される、位置タグなどの割り当てられた編成タグを含むメタデータを含む各画像は、タグアイコン212を含むことができる。タグアイコン212は、ユーザに対して、その画像がタグ付けされており、複数のカテゴリセレクタ210のうち選択された1つによって索引付けできることを示すことができる。画像表示領域に表示される、位置タグなどの編成タグが割り当てられていない各画像は、当該画像に位置タグが割り当てられていないことを示す推奨アイコン214を含むことができる。推奨アイコン214は、位置タグを有しない画像のセットをユーザが識別および選択するのを助けることができ、その結果、選択された画像セット全体に対する位置タグを推奨し、割り当てることができる。
画像編成GUI200は、1つまたは複数の位置タグセレクタ218を含む推奨パネル216を含むことができる。位置タグセレクタ218は、推奨された位置タグを、当該推奨された位置タグに対応する検証済みのキューに合致する、画像表示領域202内の選択された画像に割り当てるのに選択可能なものとすることができる。視覚キューの場合、1つまたは複数の位置タグセレクタは、推奨された位置タグを、当該推奨された位置タグに対応する視覚キューに合致する部分を含む、選択された画像に割り当てるのに選択可能なものとすることができる。位置名キューの場合、1つまたは複数の位置タグセレクタは、推奨された位置タグを、当該推奨された位置タグに対応する位置名キューに合致するファイル名を含む、選択された画像に割り当てるのに選択可能なものとすることができる。
一部の実施形態において、推奨パネル216は、位置タグセレクタ218に対応する推奨された位置タグの順位付けされたリスト220を含むことができる。順位付けされたリスト220を、画像編成プログラム118により、画像と合致した検証済みのキューとの間の関係または対応強度に基づいて編成することができる。
画像編成GUI200は、画像表示領域202内の1つまたは複数の選択された画像に割り当てるべきユーザ提供の位置タグを受信するように構成された、ユーザ提供の位置タグ領域222を含むことができる。図3に示されるように、画像編成プログラム118は、ユーザ提供の位置タグ領域222に入力されたユーザ提供の位置タグ224を受信したことに応答して、ユーザ提供の位置タグ224に対応する検証済みのキューに合致する表示領域202内の1つまたは複数の画像を示すように構成されてもよい。ユーザ提供の位置タグ224に対応する、画像に合致するキューは、インジケータ228(例えば、点線)によって示される。インジケータ228は、位置タグの推奨用に選択される、画像セット内の画像を示すこともできる。インジケータ228は、ユーザが、どの画像が推奨された位置タグと合致するかを検証するのを助けることができる。
画像編成プログラム118は、推奨された位置タグセレクタ218の選択を受信したことに応答して、検証ウィンドウ226を画像編成グラフィカルユーザインタフェース200内に表示するように構成されてもよい。検証ウィンドウ226は、ユーザ検証を受け付けて、セレクタ218の推奨された位置タグを、インジケータ228によって識別されるような選択された画像に割り当てるように構成された、検証セレクタ230を含むことができる。検証ウィンドウ226は、ユーザの拒否を受け付けて、インジケータ228によって識別されるような選択された画像の選択を解除するように構成された、拒否セレクタ232を含むことができる。
図4は、画像編成グラフィカルユーザインタフェース200の別のビューを示す。このビューでは、画像表示領域202内の複数の画像204に、タグアイコン212によって示されるような同一の位置タグが割り当てられている。画像編成制御領域206内の位置カテゴリセレクタ210は、画像表示領域202に表示された複数の画像204を、割り当てられた位置タグによって編成するのに選択されており、推奨パネル216内の位置タグセレクタ218が選択されている。この例では、位置タグセレクタ218を選択することによって、各画像によって共有されるタグアイコン212によって示されるような、対応する位置タグを割り当てられた画像のみが画像表示領域に表示され、他の画像は画像表示領域202からフィルタアウトされる。
図5は、画像編成方法500の実施形態の流れ図である。方法500を、図1に示されるユーザコンピューティング装置102などのユーザコンピューティング装置において実行することができる。502において、この方法は、複数の画像を備える画像セットを受信することを含むことができる。一部の場合において、画像セット内の複数の画像のうち1つまたは複数が、割り当てられた位置タグを有さないことがある。一部の場合において、画像セット内の複数の画像のうち1つまたは複数が、1つまたは複数の割り当てられた位置タグを有することがある。
一部の場合、504において、本方法は、画像セットの選択された画像に対してユーザ提供の位置タグを受信することを含むことができる。ユーザ提供の位置タグは、画像セット内の他の合致する画像に位置タグ付けをするのを容易にするガイドとして動作することができる。ユーザ提供の位置タグが提供されない場合、504を方法500から省略してもよい。
506において、本方法は、画像セット内の各画像を検証済みのキューライブラリと比較することを含むことができる。検証済みのキューライブラリは、異なる地理的位置タグに対応する複数の視覚キューを含むことがある。508において、本方法は、画像セット内の各画像の部分を複数の視覚キューと比較することを含むことができる。
検証済みのキューライブラリは、異なる地理的位置タグと対応する複数の位置名キューを含むことがある。510において、本方法は、画像セット内の各画像のファイル名を位置名キューと比較することを含むことができる。検証済みのキューライブラリは、ユーザコンピューティング装置によって実行可能な他のアプリケーションから提供される複数の補助キューを含むことがあり、この補助キューは、異なる地理的位置タグに対応する。512において、本方法は、画像セット内の各画像のタイムスタンプを補助キューと比較することを含むことができる。選択された画像セットに対するユーザ提供の位置タグを受信した場合、514において、本方法は、画像セット内の各他の画像の部分を、ユーザ提供の位置タグに対応する視覚キューと比較することを含むことができる。ユーザ提供の位置タグが提供されない場合、514を方法500から省略してもよい。
516において、本方法は、画像に合致するキューに対応する推奨された位置タグを含む、推奨パネルを表示することを含むことができる。視覚キューに関して、画像の部分に合致する視覚キューに対応する推奨された位置タグを、推奨パネルに表示することができる。位置名キューに関して、画像のファイル名に合致する位置名キューに対応する推奨された位置タグを、推奨パネルに表示することができる。補助キューに関して、画像のタイムスタンプに合致する補助キューに対応する推奨された位置タグを、推奨パネルに表示することができる。
518において、本方法は、ユーザ提供の位置タグを、当該ユーザ提供の位置タグに対応する視覚キューに合致する部分を有する画像に割り当てる、という推奨を含む推奨ウィンドウを表示することを含むことができる。ユーザ提供の位置タグが提供されない場合は、518を方法500から省略してもよい。
520において、本方法は、推奨された位置タグが1つまたは複数の画像と合致するとの検証を受信することを含むことができる。当該検証は、検証セレクタの選択を介してユーザによって提供され得る。
522において、本方法は、推奨された位置タグが1つまたは複数の画像に合致するとの検証を受信したことに応答して、推奨された位置タグを、画像セットの1つまたは複数の画像に割り当てることを含むことができる。推奨された位置タグを割り当てることは、位置タグを、画像セットの1つまたは複数の画像の画像ファイルのメタデータに書き込むことを含んでもよい。
画像に合致するキューに対応する位置タグを推奨することによって、GPSまたは他の装置位置追跡技術を用いることなく、画像に位置タグを割り当てることができる。したがって、ユーザの画像のコレクションを、その画像が画像生成時にジオタグ付けされていなくとも、位置によって編成することができる。
図6は、画像編成方法600の実施形態の流れ図である。本方法600は、図1に示されるサーバコンピューティング装置またはクラウド146などのサーバコンピューティング装置において実行される。602において、本方法は、ユーザコンピューティング装置から、複数の画像を備えた画像セットを受信することを含むことができる。一部の場合において、画像セット内の複数の画像のうち1つまたは複数が、割り当てられた位置タグを有さなくともよい。一部の場合、画像セット内の複数の画像のうち1つまたは複数が、1つまたは複数の割り当てられた位置タグを有してもよい。
604において、本方法は、画像セット内の各画像を、異なる地理的位置タグに対応する複数のキューを含む検証済みのキューライブラリと比較することを含むことができる。複数のキューを、コンピューティング装置クラウド内の複数の異なるソースから収集することができる。検証済みのキューライブラリは、異なる地理的位置タグに対応する複数の視覚キューを含むことができる。606において、本方法は、画像セット内の各画像の部分を複数の視覚キューと比較することを含むことができる。検証済みのキューライブラリは、異なる地理的位置タグに対応する複数の位置名キューを含むことができる。608において、本方法は、画像セット内の各画像のファイル名を位置名キューと比較することを含むことができる。
610において、本方法は、ユーザコンピューティング装置に、画像に合致するキューに対応する推奨された位置タグを送信することを含むことができる。視覚キューに関して、画像の部分に合致する視覚キューに対応する推奨された位置タグを、ユーザコンピューティング装置に送信することができる。位置名キューに関して、画像のファイル名に合致する位置名キューに対応する推奨された位置タグを、ユーザコンピューティング装置に送信することができる。
612において、本方法は、検証済みのキューライブラリを新たなキューで更新することを含むことができる。新たなキューは、地理的位置タグに対応し得る。例えば、キューは、検証済みのキューライブラリ内の地理的位置タグを指す関係ポインタを含むことができる。新たなキューは、視覚キューまたは位置名キューの形をとることができる。一例において、新たなキューを、コンピューティング装置クラウド内の複数の異なるソースのうち1つから受信することができる。別の例において、新たなキューを、ユーザコンピューティング装置を介してユーザから受信することができる。
612において、本方法は、ユーザコンピューティング装置に、画像に合致する新たなキューに対応する地理的位置タグを送信することを含むことができる。新たなキューが視覚キューである場合、画像の部分に合致する新たな視覚キューに対応する地理的位置タグを、ユーザコンピューティング装置に送信することができる。新たなキューが位置名キューである場合、画像のファイル名に合致する新たな位置名キューに対応する地理的位置タグを、ユーザコンピューティング装置に送信することができる。
検証済みのキューライブラリを、複数の異なるソースから収集したキューで更新することにより、キューライブラリはより包括的になり、より正確な位置タグ推奨を提供することができる。さらに、新たなキューの追加により更新される追加の位置タグ推奨を送信することにより、画像に位置タグが割り当てられる可能性が高まる。
一部の実施形態では、上述の方法およびプロセスを、1つまたは複数のコンピュータを含むコンピューティングシステムに結びつけることができる。特に、本明細書で説明した方法およびプロセスを、コンピュータアプリケーション、コンピュータサービス、コンピュータAPI、コンピュータライブラリ、および/または他のコンピュータプログラム製品として実装することができる。
本明細書で説明した構成および/またはアプローチは本来例示であって、これらの具体的な実施形態または実施例は、多数の変形が可能であるので、限定的な意味で考えられるべきではないことは理解されよう。本明細書で説明した具体的なルーチンまたは方法は、任意の数の処理ストラテジのうち1つまたは複数を表し得る。したがって、例示される様々な動作を、例示された順序で、他の順序で、並列に実施してもよく、場合によっては省略してもよい。同様に、上述のプロセスの順序を変更してもよい。
本開示の主題は、本明細書で開示される様々なプロセス、システムおよび構成、ならびに他の特徴、機能、動作、および/またはプロパティの全ての新規で非自明な組合せおよび部分的組合せ、さらにそれらのいずれかおよび全ての均等物を含む。

Claims (10)

  1. 画像編成方法であって、ユーザコンピューティング装置において、
    複数の画像を備える画像セットを受信するステップと、
    前記画像セット内の各画像の部分を、異なる地理的位置タグに対応する複数の視覚キューを含む検証済みのキューライブラリと比較するステップと、
    前記部分と合致する視覚キューに対応する推奨された位置タグを含む、推奨パネルを表示するステップと
    を含む、方法。
  2. 前記推奨された位置タグが前記画像セットの1つまたは複数の画像に合致するとの検証を受け取ったことに応答して、前記推奨された位置タグを前記1つまたは複数の画像に割り当てるステップをさらに含む、請求項1に記載の方法。
  3. 前記画像セットの選択された画像に対するユーザ提供の位置タグを受信するステップと、
    前記画像セットの各他の画像の部分を、前記ユーザ提供の位置タグに対応する視覚キューと比較するステップと、
    前記ユーザ提供の位置タグを、前記ユーザ提供の位置タグに対応する前記視覚キューに合致する部分を有する画像に割り当てる、という推奨を含む推奨ウィンドウを表示するステップと
    をさらに含む、請求項1に記載の方法。
  4. 前記検証済みのキューライブラリ内の前記視覚キューは、前記ユーザコンピューティング装置に格納された検証済みの画像から抽出される、請求項1に記載の方法。
  5. 前記検証済みのキューライブラリ内の前記視覚キューは、複数のコンピューティング装置から収集された検証済みの画像から抽出され、前記ユーザコンピューティング装置によってアクセス可能なリモートのコンピューティング装置クラウドのデータストアに格納される、請求項1に記載の方法。
  6. 前記検証済みのキューライブラリは、異なる地理的位置タグに対応する複数の位置名キューを備え、さらに、
    前記画像セット内の各画像のファイル名を前記位置名キューと比較するステップと、
    前記推奨パネル内に、前記ファイル名に合致する位置名キューと対応する推奨された位置タグを表示するステップと
    を含む、請求項1に記載の方法。
  7. 前記推奨パネルは、推奨された位置タグの順位付けされたリストを含む、請求項1に記載の方法。
  8. 前記画像セット内の前記複数の画像のうち1つまたは複数は、割り当てられた位置タグを有さない、請求項1に記載の方法。
  9. 前記検証済みのキューライブラリは、前記ユーザコンピューティング装置によって実行可能な他のアプリケーションから提供される、異なる地理的位置タグに対応する複数の補助キューを備え、さらに、
    前記画像セット内の各画像のタイムスタンプを前記補助キューと比較するステップと、
    前記推奨パネル内に、前記タイムスタンプと合致する前記補助キューに対応する推奨された位置タグを表示するステップと
    を含む、請求項1に記載の方法。
  10. 前記ユーザコンピューティング装置は携帯電話であり、前記補助キューは、前記画像セット内の1つまたは複数の画像のタイムスタンプと時間的に近接して行った通話から決定される前記携帯電話の地理的位置を含む、請求項9に記載の方法。
JP2013543211A 2010-12-08 2011-11-29 位置ベースの画像編成 Active JP5908494B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/963,527 2010-12-08
US12/963,527 US9251173B2 (en) 2010-12-08 2010-12-08 Place-based image organization
PCT/US2011/062457 WO2012078414A2 (en) 2010-12-08 2011-11-29 Place-based image organization

Publications (3)

Publication Number Publication Date
JP2014507022A true JP2014507022A (ja) 2014-03-20
JP2014507022A5 JP2014507022A5 (ja) 2015-01-22
JP5908494B2 JP5908494B2 (ja) 2016-04-26

Family

ID=46199452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013543211A Active JP5908494B2 (ja) 2010-12-08 2011-11-29 位置ベースの画像編成

Country Status (7)

Country Link
US (2) US9251173B2 (ja)
EP (1) EP2649512A4 (ja)
JP (1) JP5908494B2 (ja)
KR (1) KR101841180B1 (ja)
CN (1) CN102567486B (ja)
TW (1) TWI560661B (ja)
WO (1) WO2012078414A2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9251173B2 (en) * 2010-12-08 2016-02-02 Microsoft Technology Licensing, Llc Place-based image organization
US8566329B1 (en) * 2011-06-27 2013-10-22 Amazon Technologies, Inc. Automated tag suggestions
KR101907002B1 (ko) * 2011-09-29 2018-10-12 삼성전자주식회사 컴퓨팅 기기에서 위치 정보가 부착된 컨텐츠 생성 및 검색을 위한 장치 및 방법
US9501507B1 (en) * 2012-12-27 2016-11-22 Palantir Technologies Inc. Geo-temporal indexing and searching
US8938460B2 (en) 2013-03-04 2015-01-20 Tracfone Wireless, Inc. Automated highest priority ordering of content items stored on a device
US10474714B2 (en) * 2013-05-01 2019-11-12 Kble Ltd Method and component for classifying resources of a database
US20150116541A1 (en) * 2013-10-28 2015-04-30 Jordan Gilman Method and apparatus for applying a tag/identification to a photo/video immediately after capture
US20160048989A1 (en) * 2014-08-17 2016-02-18 Mark Anthony Gabbidon Method for managing media associated with a user status
KR101668030B1 (ko) 2014-08-21 2016-10-21 삼성디스플레이 주식회사 유기 발광 소자 및 이를 포함하는 유기 발광 표시 장치
US10236464B2 (en) 2014-08-21 2019-03-19 Samsung Display Co., Ltd. Organic light emitting diode
US10003041B2 (en) 2014-08-21 2018-06-19 Samsung Display Co., Ltd. Organic light emitting diode and organic light emitting display device including the same
US11211575B2 (en) 2014-08-21 2021-12-28 Samsung Display Co., Ltd. Organic light emitting diode
US10817546B2 (en) * 2016-09-15 2020-10-27 Adobe Inc. Labelling of aggregated geolocation tags in a digital mapping system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080226130A1 (en) * 2007-03-15 2008-09-18 Microsoft Corporation Automated Location Estimation Using Image Analysis
JP2011065310A (ja) * 2009-09-16 2011-03-31 Panasonic Corp 位置情報付加方法、位置情報付加装置
JP2011215716A (ja) * 2010-03-31 2011-10-27 Toyota Motor Corp 位置推定装置、位置推定方法及びプログラム
WO2011145239A1 (ja) * 2010-05-19 2011-11-24 国立大学法人東京工業大学 位置推定装置、位置推定方法及びプログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6883146B2 (en) 2000-12-20 2005-04-19 Eastman Kodak Company Picture database graphical user interface utilizing map-based metaphors for efficient browsing and retrieving of pictures
US8285720B2 (en) 2003-04-07 2012-10-09 Belarc, Inc. Grouping of computers in a computer information database system
FI116547B (fi) 2003-09-04 2005-12-15 Nokia Corp Menetelmä ja laitteisto matkaviestimeen tallennettavien kuvien nimeämiseksi
NO323521B1 (no) * 2004-09-10 2007-06-04 Telenor Asa Lokasjonsbildekommentering pa kameratelefoner
US7702821B2 (en) * 2005-09-15 2010-04-20 Eye-Fi, Inc. Content-aware digital media storage device and methods of using the same
JP4916707B2 (ja) 2005-11-14 2012-04-18 富士フイルム株式会社 撮影位置施設検索システム及び方法
US7822746B2 (en) 2005-11-18 2010-10-26 Qurio Holdings, Inc. System and method for tagging images based on positional information
KR100649674B1 (ko) 2005-11-28 2006-11-27 한국전자통신연구원 이동단말의 내장 카메라를 이용한 위치인식 방법 및 그장치
US8712192B2 (en) * 2006-04-20 2014-04-29 Microsoft Corporation Geo-coding images
KR100868187B1 (ko) 2006-11-02 2008-11-10 주식회사 케이티 사진 기반 통합 컨텐츠 생성 및 제공 시스템 그리고 그방법.
KR20080053657A (ko) 2006-12-11 2008-06-16 주식회사 케이티 위치정보를 이용한 웹/왑 컨텐츠의 자동 태깅 방법
US20080204317A1 (en) 2007-02-27 2008-08-28 Joost Schreve System for automatic geo-tagging of photos
EP1978704A1 (en) 2007-04-02 2008-10-08 British Telecommunications Public Limited Company Content delivery
JP5229791B2 (ja) 2007-12-28 2013-07-03 独立行政法人情報通信研究機構 写真マッピング方法及びシステム、並びにプログラム及び記憶媒体
US20090202102A1 (en) * 2008-02-08 2009-08-13 Hermelo Miranda Method and system for acquisition and display of images
US9037583B2 (en) 2008-02-29 2015-05-19 Ratnakar Nitesh Geo tagging and automatic generation of metadata for photos and videos
US8055081B2 (en) 2008-04-14 2011-11-08 Eastman Kodak Company Image classification using capture-location-sequence information
TWI350974B (en) * 2008-04-18 2011-10-21 Asustek Comp Inc Method and system for information corresponding to geographical position
US20090280824A1 (en) 2008-05-07 2009-11-12 Nokia Corporation Geo-tagging objects with wireless positioning information
US20090324211A1 (en) 2008-06-25 2009-12-31 Nokia Corporation Method and Device for Geo-Tagging an Object Before or After Creation
US20100076976A1 (en) 2008-09-06 2010-03-25 Zlatko Manolov Sotirov Method of Automatically Tagging Image Data
TWI416440B (zh) * 2008-11-17 2013-11-21 Mitac Int Corp 用以顯示具有位置資料的照片之方法及其照片顯示裝置
US8122024B2 (en) 2008-12-12 2012-02-21 Research In Motion Limited Method and system for storing multiple geo-tagged media files and rendering the same
JP5023398B2 (ja) 2009-03-17 2012-09-12 Necフィールディング株式会社 電子アルバム作成装置、方法、プログラム、システム、サーバー、情報処理装置、端末装置、及び撮像装置
CN101902516B (zh) 2009-05-26 2013-11-06 深圳富泰宏精密工业有限公司 通话记录管理系统及方法
US9251173B2 (en) * 2010-12-08 2016-02-02 Microsoft Technology Licensing, Llc Place-based image organization

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080226130A1 (en) * 2007-03-15 2008-09-18 Microsoft Corporation Automated Location Estimation Using Image Analysis
JP2011065310A (ja) * 2009-09-16 2011-03-31 Panasonic Corp 位置情報付加方法、位置情報付加装置
JP2011215716A (ja) * 2010-03-31 2011-10-27 Toyota Motor Corp 位置推定装置、位置推定方法及びプログラム
WO2011145239A1 (ja) * 2010-05-19 2011-11-24 国立大学法人東京工業大学 位置推定装置、位置推定方法及びプログラム

Also Published As

Publication number Publication date
TWI560661B (en) 2016-12-01
WO2012078414A2 (en) 2012-06-14
EP2649512A4 (en) 2015-04-29
US20120148158A1 (en) 2012-06-14
JP5908494B2 (ja) 2016-04-26
WO2012078414A3 (en) 2013-02-14
CN102567486B (zh) 2015-07-08
KR20130123400A (ko) 2013-11-12
KR101841180B1 (ko) 2018-05-04
CN102567486A (zh) 2012-07-11
US9412035B2 (en) 2016-08-09
US20160078308A1 (en) 2016-03-17
EP2649512A2 (en) 2013-10-16
TW201229976A (en) 2012-07-16
US9251173B2 (en) 2016-02-02

Similar Documents

Publication Publication Date Title
JP5908494B2 (ja) 位置ベースの画像編成
US11709823B2 (en) Real time visual validation of digital content using a distributed ledger
US20190012914A1 (en) Parking Identification and Availability Prediction
CN113939792A (zh) 用于机器语言模型创建的用户界面
US20150156247A1 (en) Client-Side Bulk Uploader
US20130007667A1 (en) People centric, cross service, content discovery system
EP3090431A1 (en) Audio based on captured image data
US11036792B2 (en) Method for designating and tagging album of stored photographs in touchscreen terminal, computer-readable recording medium, and terminal
US9772746B2 (en) Dynamically organizing applications based on a calendar event
CA2850771A1 (en) Identification of sharing level
CN113946547B (zh) 网盘文件的摆渡方法、装置、网盘及存储介质
US10175958B2 (en) Acquiring identification of an application lifecycle management entity associated with similar code
US20170220452A1 (en) Performing a mirror test for localization testing
US20220035851A1 (en) Systems and methods to autonomously add geolocation information to media objects
US9087127B1 (en) Method for providing an integrated video module
US20230195720A1 (en) Deleting related data distributed across applications
US20140082023A1 (en) Associating an identity to a creator of a set of visual files

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130814

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141107

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160323

R150 Certificate of patent or registration of utility model

Ref document number: 5908494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250