JP2015505384A - 画像アノテーション方法およびシステム - Google Patents

画像アノテーション方法およびシステム Download PDF

Info

Publication number
JP2015505384A
JP2015505384A JP2014540442A JP2014540442A JP2015505384A JP 2015505384 A JP2015505384 A JP 2015505384A JP 2014540442 A JP2014540442 A JP 2014540442A JP 2014540442 A JP2014540442 A JP 2014540442A JP 2015505384 A JP2015505384 A JP 2015505384A
Authority
JP
Japan
Prior art keywords
image
user
annotation
augmented reality
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014540442A
Other languages
English (en)
Inventor
ラウペル,エリック
リッター,ルードルフ
リム,ロラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vidinoti SA
Original Assignee
Vidinoti SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vidinoti SA filed Critical Vidinoti SA
Publication of JP2015505384A publication Critical patent/JP2015505384A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/489Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/487Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Mathematical Physics (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

(a)発信ユーザーがモバイル機器(1)を用いてオリジナル画像(2)をキャプチャするステップと;(b)画像(21)が、第一のアノテーション(210)と共に発信ユーザーのモバイル機器(1)上に表示されるステップと;(c)前記第一のアノテーションが表示されたという情報と合わせて前記モバイル機器のロケーションおよび時刻を含む第一のデータ情報(R1)が、サーバー(3)に送られるステップと;(d)発信ユーザーが、画像を少なくとも一人の第二のユーザーの第二の機器(4)に伝送するステップと;(e)画像(22)が前記第二の機器上に表示されるステップと;(f)第二のアノテーション(211)が、前記画像と組合わされて前記第二のユーザーに表示されるステップと;(g)前記第二のアノテーション(211)が表示されたという情報と合わせて前記第二のユーザーの機器(1’)のロケーションおよび時刻を含む第二のデータ情報(R2)が、サーバー(3)に送られるステップと;(h)前記サーバー(3)が、前記ロケーションおよび/または時刻から、前記画像が発信ユーザーによりキャプチャされたオリジナル画像であるか、または第二のユーザーに対して表示された伝送された画像であるかを決定するステップとを含む方法。【選択図】図2

Description

本発明は、画像上の現実拡張型情報(reality augmented information)の表示と関連して使用される方法に関する。
国際公開第2008032203号は、モバイル機器を用いて、ユーザーが画像、例えば関心対象の画像をキャプチャする方法に関する。画像の特徴は、ソース画像と比較されて認識を試みられ、そして画像はタグ付けされる。これらのタグは、ユーザーに対して表示され、ユーザーは、タグをクリックまたは選択してキーワードに関連するより多くの情報を得ることができる。アプリケーションはさらに、タグを「ビジュアル検索サーバー」に送ることを提案する。したがってこの文献は画像の自動的分類に関するものではあるが、アノテーションが一つの画像の認識された特徴全体にわたって重ね合わされる、拡張現実(augmented reality)に関連するものではない。
「Communication through virtual active objects overlaid onto the real world」、Proceedings of the 3rd international conference on collaborative virtual environments、CVE2000、サンフランシスコ、2000年9月10〜12日、においてTarumi Hらは、限定されたエリア内および限定された期間内でのみアクセス可能なSpace Tagsと呼ばれる仮想オブジェクトをクリエイトし表示するためのシステムについて記述している。Space Tagsは、エンドユーザーによってクリエイトされ、サーバーに伝送されることが可能である。これらのSpace Tagsを実世界のオブジェクトと結びつけ、拡張現実アノテーションとして表示することが可能である。
欧州特許第1246080号明細書は、静止画像またはビデオ画像上に拡張現実拡張情報を表示する方法を開示している。一実施形態において、山の名称または他の地図製作上の特徴は、景観ビューの上に重ね合わされる。別の実施形態においては、絵画展において、来場者は、選択された絵画に関する追加情報をモバイルデバイスでキャプチャされたその絵画のビュー全体にわたり表示させることができる。ビューの拡張現実特徴は、追加のアノテーション、ハイライトなどを含むことが可能である。
拡張現実は、同様に、例えばビルボードまたは新聞広告のような広告にアノテーション付けするため、およびこの広告に関連する追加のコンテンツを顧客に提供するためにさまざまな会社により提案されている。
本発明の目的は、拡張現実に基づく新しい方法を提供することにある。
本発明は、より一層多くの画像が拡張現実コンテンツ、すなわちアノテーションと結びつけられるという発見に基づいている。これらの画像の一部は例えばEメール、MMS、ブログ、ソーシャルネットワークなどのさまざまな電子チャネル上で他の受信者に伝送されることがあり得る。例えば、一部のユーザーは、山、絵画または広告の画像を他のユーザーに伝送したいと考えるかもしれない。
拡張現実がよりユビキタスになったならば、これらの受信者の少なくとも一部が、自ら受信するこれらの画像が拡張現実アノテーションと結びつけられているかをチェックするだろう。例えば、一部のユーザーは、Eメールまたは他の形で受信した画像をキャプチャし、この画像を拡張現実コンテンツと結びつけるだろう。送信者は、拡張現実コンテンツが極めて興味深いものである場合受信者にそう行うよう勧めさえするかもしれない。
さらに、より一層多くのユーザーが、後続してキャプチャされた画像とマッチするように拡張現実モデルをクリエイトするだろう。これらの拡張現実モデルの一部は非公開であり、それ以外は公開されて全ての人が利用でき、それらの多くは、例えばソーシャルネットワーク上で共有または伝送され、友人または関係するユーザーがこのモデルに整合する画像をキャプチャした場合に、彼らが追加のコンテンツにアクセスできるようにする。
拡張現実コンテンツのプロバイダにとっては、アノテーション付けされたビューが発信ユーザーによりキャプチャされたオリジナルビューであるか、または受信者により受信されたこのビューの伝送された画像であるかを知ることが重要であり得ることが分かっている。また、どのようにして、および誰と拡張現実モデルが共有されているかを知ることも重要であるかもしれない。
付加価値付きコンテンツのプロバイダは、この情報を必要とするのに異なる理由があるだろう。例えば、一部のプロバイダは、様々なアノテーションを、これらのアノテーションにアクセスするのを妨げられている可能性さえある、後々に見る人々ではなく、むしろ最初の発信ユーザーに対して提供したいと考えるかもしれない。アノテーション付き画像が広告に対応している場合、広告会社は、後続するビューとは異なる料金を最初のビューについて課金し、および/または画像のバイラル配信を示すためのレポートの作成を望むかもしれない。一部の状況下では、画像をキャプチャしかつ配信したユーザーに対し、この画像が一部の受信者により表示されアノテーション付けされたことを知らせることが望まれるかもしれない。
先行技術においては、アノテーション付けされたビューが発信ユーザーによりキャプチャされたオリジナルビューであるか、または受信者により受信されたこのビューの伝送された画像であるかを知るための容易かつロバストな方法は存在していない。さらに、拡張現実モデルが共有されたかを知るための容易な方法も存在しない。
したがって、本発明の一態様によると、この情報は、
(a)発信ユーザーが、モバイル機器を用いてオリジナル画像をキャプチャするステップと、
(c)前記モバイル機器のロケーションおよび時刻を含む第一のデータ情報を記憶するステップと、
(d)アノテーション付けすべき画像としてか、または他の画像をアノテーション付けするためのモデルとして、発信ユーザーが、第二のユーザーの第二の機器と前記画像を共有するステップと、
(e)前記第二の機器上にアノテーション付き画像を表示するステップと、
(g)前記第二の機器のロケーションおよび時刻を含む第二のデータ情報を記憶するステップ
を含む方法を用いて利用可能となる。
これらのさまざまなステップは、上記のアルファベット文字付きリストのアルファベット順で実施されてよい。あるいは、これらのさまざまなステップを、アルファベット順でない異なる順序で実施してもよい。本明細書全体を通して、類似のおよび同一のステップは同じアルファベット文字で呼称されており、本明細書ではこれらのステップの細部がさまざまなレベルで記述されている。
第一および第二のデータ情報は、サーバー内、例えば全てのユーザーの機器によりアクセスされる中央データベース内に集中して記憶されてよい。あるいは、分散型システムにおいては、第一および第二のデータ情報を、ユーザーの機器内に記憶してもよい。
一実施形態において、ユーザーは、別途利用可能な拡張現実モデルを用いて、アノテーション付けすべき画像を共有する。第一および第二のデータ情報には、これらの伝送された画像が表示された時点の対応するユーザーの機器のロケーションおよび時刻が含まれる。あるいは、第一および第二のデータ情報には、これらの画像が伝送された時点の対応するユーザーの機器のロケーションおよび時刻が含まれる。
この実施形態の方法には、さらに以下のことも含まれていてよい。
(b)オリジナル画像は、認識された画像の特徴と関連づけして画像上に重ね合わされた第一のアノテーションと共に、発信ユーザーのモバイル機器上に表示される、
(c)前記第一のデータ情報には、さらに、前記第一のアノテーションが発信ユーザーのモバイル機器上に表示されたという情報が含まれる、
(d)発信ユーザーは、前記画像を前記第二の機器に伝送することによって、前記画像をアノテーション付けすべき画像として共有する、
(e)画像は前記第二の機器上に表示される、
(f)第二のアノテーションは、前記画像と組合わされて前記第二のユーザーに表示される、
(g)前記第二のデータ情報には、さらに、前記第二のアノテーションが前記第二のユーザーに表示されたという情報が含まれ、前記第二の情報はさらにサーバーに送られる、
(h)前記サーバーは、受信したロケーションおよび/または時刻から、前記画像が発信ユーザーによりキャプチャされたオリジナル画像であるか、または第二のユーザーに対して表示された伝送された画像であるかを決定する。
あらゆる状況において、画像がオリジナル画像であるかまたは伝送された画像であるかを決定するには、時刻とロケーションだけでは充分ではないかもしれない。それでも、キャンペーンの統計学的分析などの多くの利用分野においては、完璧な精度が求められてはおらず、常に信頼性が高いとは言えない決定でさえ極めて有用であり得る。より高い信頼性が必要とされる場合には、時刻およびロケーションに加えて、例えば埋込まれたウォーターマークを含めた他のパラメータを使用することができる。
さらなる実施形態において、ユーザーは拡張現実モデルを共有し、該モデルは他の画像にアノテーション付けするために受信者によって後に使用される。第一および第二のデータ情報には、拡張現実モデルが共有される瞬間におけるユーザーの機器のロケーションおよび時刻が含まれる。したがって、この実施形態の方法には、以下のことが含まれていてよい。
(b)前記第一のデータ情報には、モデルとして使用される前記画像が発信ユーザーにより共有された時点の前記第一のモバイル機器の前記ロケーションおよび時刻が含まれている、
(f)第二のアノテーションは、前記モデルに基づいて次の画像に重ね合わされて、前記第二のユーザーに対して表示され、
(f’)第二のユーザーは、前記モデルを第三のユーザーと共有する、
(g)前記第二のデータ情報には、モデルとして使用される前記画像が第二のユーザーによって共有された時点の前記第二のモバイル機器の前記ロケーションおよび時刻が含まれている。
したがって、本発明は、とりわけ拡張現実ソーシャルネットワーク内で、共有された画像または共有された拡張現実モデルを追跡するための方法およびシステムを提供する。こうして、与えられた共有拡張現実コンテンツの配信ならびにその修正についての情報を決定することが可能になる。
本出願において、「拡張現実モデル」、または時として単に「モデル」という表現は、画像を認識し拡張現実コンテンツを再生するのに必要とされるデータセットを意味する。拡張現実モデルは、一つのシーンの2Dもしくは3Dもしくはプレノプティックモデル、または、一つのシーンを識別する特徴のリストを含んでいてよく、該特徴のリストは、キャプチャされた画像内の対応する特徴と整合させることができ、またならびに、拡張現実モデルは、このモデル内の一つまたは複数の要素に結びつけられた一つまたは複数のアノテーションを含んでいてよい。
本発明の一態様によると、アノテーション付けされたビューが、発信ユーザーによりキャプチャされたオリジナルビューであるか、または受信者により受信された前記ビューの伝送された画像であるかを決定するための方法が提供され、該方法には以下のステップ、すなわち、
(a)第一のモバイル機器を用いて一つの要素の一つの画像をキャプチャするステップと、
(b)第一のモバイル機器上に該画像を表示するステップと、
(c)第一のアノテーションを用いて第一のモバイル機器上に表示された画像にアノテーション付けするステップであって、該第一のアノテーションが画像上に表示される、アノテーション付けするステップと、
(d)第一のデータ情報をサーバーに送るステップであって、該第一のデータ情報には、前記第一のモバイル機器上に表示された前記画像が第一のアノテーションを用いてアノテーション付けされたという情報と合わせて、前記第一のモバイル機器の現在時刻およびロケーションが含まれている、第一のデータ情報をサーバーに送るステップと、
(e)第一のモバイル機器から少なくとも一つの他の機器へ、前記画像を伝送するステップと、
(f)少なくとも一つの他の機器内で画像を受信し、少なくとも一つの他の機器で前記画像を表示するステップと;
(g)第二のアノテーションを用いて、少なくとも一つの他の機器で表示された画像をアノテーション付けするステップであって、該第二のアノテーションが該画像に追加される、アノテーション付けするステップと、
(h)第二のデータ情報をサーバーに送るステップであって、該第二のデータ情報には、少なくとも一つの他の機器上に表示された画像が前記第二のアノテーションを用いてアノテーション付けされたという情報と合わせて、前記少なくとも一つの他の機器の現在時刻およびロケーションが含まれている、第二のデータ情報をサーバーに送るステップと、
(i)サーバーを動作させて、それぞれの機器の前記現在時刻および/またはロケーションから、それぞれの機器上に表示された前記画像が、前記それぞれの機器によりキャプチャされたオリジナル画像であるか、または別の機器から前記それぞれの機器に伝送された画像であるかを決定するステップ
が含まれる。
本発明の態様によると、基準画像のような拡張現実モデルと結びつけられた期間および/またはロケーションをデータベースから検索し、この期間および/またはロケーションを用いて、前記拡張現実モデルと整合する画像がオリジナル画像であるか、またはコピーであるかを決定するための方法が提供される。画像のアノテーションは、このテストの結果によって左右され得る。
一態様によると、例えばサーバー内などで、一つの画像が撮られる可能性のある、考えられるロケーションおよび/または時刻が既知である。一例において、サーバーは、マッターホルンの北壁の昼間ビューを撮ることのできる、地理的エリアおよび期間を知り得る。広告用ビルボードの場合、サーバーは、各画像のロケーションおよび/または配信計画を検索するためにデータベースにアクセスすることができる。これらの状況においては、各発信画像を、画像をキャプチャすることができるロケーション、例えば点位置または地理的エリアと結びつけることができる。また、各発信画像を、画像を撮ることのできる時刻または一連の期間と結びつけることもできる。異なるロケーションおよび/または期間と結びつけられた画像は、最初の発信ビューのコピーであるとみなされる。
本発明は、下記の特徴を有する、例示されたいくつかの可能な実施形態の説明からより良く理解される。
発信ユーザーによる、拡張現実コンテンツへのアクセスを概略的に示す図である。 最初の画像が伝送された第二のユーザーによる、拡張現実コンテンツへの第二のアクセスを概略的に示す図である。 広告利用分野という例示的な場合における、拡張現実アプリケーションのための付加価値付きコンテンツを作成しかつ配信するためのシステムを概略的に強調している。 拡張現実コンテンツに結びつけられた画像または拡張現実モデルのバイラル配信を示す、拡張現実ソーシャルネットワークグラフを概略的に示している図である。 集中型データベースに記憶された情報を例示する表を示す図である。 分散型システム内のさまざまなユーザーデバイスに記憶され得るローカル情報を示す種々の表を示す図である。 二つの拡張現実モデル間の親/子関係を示す表を示す図である。
本明細書中、「モバイルデバイス」または「モバイル機器」とは、ネットワーク上で通信可能なカメラが備わったまたはそれに接続されている、携帯電話、移動局、PDA、タブレット、スマートフォンなどの持ち運び可能なパーソナルデバイスを意味する。
図1は、第一のユーザーによる、拡張現実コンテンツへのアクセスを示す。発信ユーザーは、モバイルデバイスを用いて、アノテーション付けすべき一つ以上の特徴を有する少なくとも一つの要素2を含むシーンの最初の画像をキャプチャする。この例において、要素は、広告用ポスター2、例えば紙製広告用ポスター、または電子式広告用ポスター、またはビルボードまたは広告用の静止画像もしくは動画表示用のデジタル看板である。デジタル看板は、ディスプレーとローカルコントローラを含み、このローカルコントローラは、視覚的コンテンツを表示するためにローカルデータ記憶装置(例えばハードディスク、USBスティックなど)に、または通信ネットワーク上でサーバーにアクセスできる。ポスター2は、互いに独立してアノテーション付けされることができる一つ以上の特徴20、例えば画像の一つまたは複数の要素、一つのバーコードまたはデータマトリクス、一つのロゴなどを含んでいてよい。ユーザーは、例えばユーザーのモバイル機器内で実行される好適なソフトウェアアプリケーションを用いて、自らのモバイル機器1上でアノテーション(拡張現実コンテンツ)の表示を開始させる。一実施形態において、アプリケーションは、iOSオペレーティングシステムで利用可能なPixLiveアプリケーションであり得る。一実施形態において、ソフトウェアアプリケーションは、ユーザーが画像をキャプチャすることを可能にする画像形成ツールを含む。この場合、アプリケーション内のツールを用いて、画像が直接キャプチャされる。画像は、スチール写真またはアニメーション画像であり得る。
一実施形態において、モバイル機器1内のアプリケーションは、アノテーション(追加コンテンツ)付けの要求R1を遠隔サーバー3に送る。遠隔サーバー3は、例えば、インターネットに接続された単一のサーバー、相互接続された異なる機械群、クラウドシステム内の仮想サーバーであり得る。要求R1は、インターネット上で送信され得る。要求R1は、好ましくは、アノテーション付けすべき静止画像もしくはビデオ画像、または整合する拡張現実モデルを遠隔サーバーが識別できるようにする少なくともいくつかの特徴を含んでおり、可能なアノテーションのセットを決定する。
一実施形態において、遠隔サーバー3のいくつかの部分は、モバイル機器1上に位置設定され、そこで直接動作させることができる。特に、アノテーション付け用モジュール30およびモデルデータベース32を、スマートフォン上に実装して、基準画像を認識しそのコンテンツを拡張させるプロセスを迅速化することができる。
一実施形態において、遠隔サーバー3は拡張現実モジュールを含み、拡張現実モジュールはコンピュータ視覚方法を用いて受信画像のコンテンツを分析し、それを予め記憶されたまたは他の形でサーバー3が利用できるようにされた基準画像32のようなモデルと整合させる。サーバーは、さらに、整合用モデルと共にキャプチャされた画像を登録し、アノテーション付け用モジュール30を用いて、メッセージA1上で送られモバイル機器によって表示されるべきアノテーション付き画像21を準備し、これにおいて、追加のコンテンツすなわちデータベース31からのアノテーション(拡張現実要素)210は画像の認識済み特徴上に追加されるかまたはこれらの特徴と関連した状態になる。アノテーション210は、テキスト、画像、ハイライト、ハイパーリンク、オーディオ、ビデオなどを含み得る。重ね合わされたアノテーションは、キャプチャまたは受信した画像の上に表示されるテキスト、画像、ハイライト、ハイパーリンク、ビデオなどを含み得る。
別の実施形態においては、キャプチャされた画像の特徴とモデルの基準特徴との整合、登録、および/または検索されたアノテーションと画像との組合せは、少なくとも部分的に、ユーザーのモバイル機器1内の拡張現実モジュールによって実施される。拡張現実モデルは、分散した形でユーザーの機器内に記憶され、例えば一つの機器から次の機器へとモデルを直接伝送することによってか、またはサーバー3内の中央記憶装置からモデルをダウンロードすることによって、ユーザー間で共有されてよい。この場合、アノテーション付けの要求R1は、ユーザーの機器内でローカルに実行される。
モバイル機器1によって送られた要求R1、またはアノテーション付けの後続する任意の要求は、GPSモジュールなどの衛星による無線位置測定システム、および/またはセルラーネットワークにより予め伝送されたネットワークロケーション情報、および/または一つ以上のビーコンの相対的位置などを用いてモバイル機器自体によって決定される、モバイル機器1のロケーションを含む。この要求R1は、追加でまたは代替的に、画像がキャプチャされた時刻および/またはアノテーション付けすべき画像もしくはモデルがユーザーのモバイル機器により送信もしくは受信された時刻を含む。一実施形態において、時刻は伝送されず、ユーザーの機器内のソフトウェアモジュールまたはサーバーは、画像のキャプチャ後に要求R1がリアルタイムで伝送されたと仮定する。この場合、時刻の伝送は暗黙的に行われる。
画像21上のアノテーションは、前記時刻および/またはロケーションによって左右され得る。例えば、アノテーション210の言語は、受信者が現在いる地域の主要言語によって左右され得ると考えられる。選択的には、モバイル機器1または遠隔サーバー3は、どの言語でアノテーション210を表示すべきかをユーザーが選択できるようにする手段を提供してよい。
サーバー3は、好ましくは、どのユーザーまたはユーザーグループが、拡張現実モデルの特徴と結びつけられた特定のアノテーションにアクセスできるかを決定するためのユーザー権限記憶用データベース33も含む。一部のコンテンツは、以下で記載する通り、以前のサブスクリプションまたはトークンにより左右され得る。したがって、アノテーション(アノテーション付け用コンテンツ)31の利用可能性は、データベース33内のユーザー権限に左右される。
図2では、モバイル機器1のユーザーは、第二の機器とオリジナル画像を共有するために、またはこの第二の機器とオリジナル画像に対応する拡張現実モデルを共有するために、ソフトウェアモジュールを使用する。このモジュールを使用して、モバイル機器のユーザーは、最初にキャプチャした画像、または後続する画像と整合させるべき拡張現実基準モデルを、第二の機器4に配信する。この特定の例において、第二の機器は、ラップトップコンピュータ4である。ただし、第二の機器は任意の好適な形態をとってよく、例えば、PC、または例えば携帯電話もしくはスマートフォンのような別のモバイルデバイスであり得るものと理解される。また、モバイル機器1は、最初にキャプチャした画像および/または拡張現実モデルを複数の他の第二の機器4に対し、逐次的にまたは同時に配信できるということも理解されるものとする。第一のユーザーは、モバイル機器を用いて、(この場合、広告用ポスター2である)要素の最初の画像を撮る。最初の画像は、図1で記述され示された要領でアノテーション付けされて、アノテーション付けされたビュー20を提供する。第一のユーザーは発信ユーザーと呼ばれ、先にキャプチャされた画像またはモデルの受信者は、第二のユーザーと呼ばれる。例中、発信ユーザーは、キャプチャされた画像(好ましくはアノテーション無し)をモバイル機器1から第二のユーザーの第二の機器すなわちパーソナルコンピュータまたはラップトップコンピュータ4に、例えばEメール、MMS、ブログ、またはFacebook、LinkedIn、Twitter、Google+のような拡張現実ソーシャルネットワークを用いて送る。拡張現実ソーシャルネットワークは、拡張現実モデルまたはキャプチャした画像を共有する拡張現実ユーザーのネットワークである。以下でわかるように、この拡張現実ネットワークを、拡張現実ソーシャルネットワークグラフにより表すことができる。
一実施形態において、発信機器は、最初の画像をキャプチャし、最初の画像をキャプチャしたままの状態で、いかなるアノテーションも無く共有する。まだアノテーション付けされていない伝送される画像22は、第二のユーザーにより受信され、そして第二のユーザーの機器(すなわちラップトップコンピュータ4)上で表示される。すでにアノテーション付けされた画像の伝送を共有することも考慮することができる。
第二のユーザーは、このとき、例えば携帯電話、PDA、タブレット、スマートフォンなどのカメラを伴う第二のモバイル機器1’を用いて、ラップトップコンピュータ4上に表示された画像の画像をキャプチャすることができる。あるいは、ラップトップコンピュータ4は、伝送された画像22を、例えばインターネット上で第二のモバイル機器1’に伝送してよい。第二のモバイル機器1’を用いてキャプチャされたかまたはラップトップコンピュータ4から第二のモバイル機器1’に送られた画像は、このとき、例えば図1に示され記述されているものと類似の方法で、受信ユーザーのモバイル機器1’上の好適なアプリケーションによってアノテーション付けすることができる。
別の実施形態において、受信ユーザーのラップトップコンピュータ4は、それが受信する伝送された画像22に直接アノテーション付けすることができる。画像のアノテーション付けは、ラップトップコンピュータ4内の好適なアプリケーションによって実施される。この場合、アノテーション付けは、画像をキャプチャするための第二のモバイル機器1’を必要とすることなく達成される。ラップトップコンピュータ4は、それが受信する伝送された画像22からアノテーション付けすべき第二の画像をキャプチャするかまたは形成し得る。この場合、第二の画像は、それがラップトップコンピュータ4上の好適なプログラムによってアノテーション付けされるのに好適な形態をしていることを除いて、伝送された画像22と同一である。また、第二のユーザーは、ラップトップコンピュータ4から、アノテーション付けされていない画像を少なくとも一人のさらなる友人に転送またはこの友人と共有することもできる。
第二のユーザーが、第二のモバイル機器1’を用いて第二のモバイル機器1’によりキャプチャされた画像にアノテーション付けする場合には、第二のモバイル機器1’は、第二のデータ情報を含む第二の要求R2を、第一のユーザーが先に要求R1を送信したのと同じ要領で(図1を参照して論述した通り)、第二のモバイル機器1’からサーバー3まで送る。第二の要求R2は、第二のモバイル機器1’のロケーションおよび/または第二のモバイル機器がラップトップコンピュータ4上に表示される画像の画像をキャプチャした時刻を含む。分散型システムにおいては、この第二の要求R2は、第二のモバイル機器1’を含めた、拡張現実モデルを内部で利用できる任意のデバイスにも送られ得る。
遠隔サーバー3、または第二のモバイル機器1’内もしくはラップトップコンピュータ4内の好適なアプリケーションは、第二のモバイル機器1’が表示すべきアノテーション付き画像A2を、要求R2内で受信した情報から準備するか、またはアノテーション付き画像を準備するためにこの第二のモバイル機器1’が必要とする情報を提供する。
両方のシナリオにおいて、遠隔サーバー3は、モバイル機器1、1’のロケーションおよび/または要求R1およびR2内で受信した時刻についての情報を確認し、この情報を用いて、受信した画像R1およびR2それぞれが、発信ユーザーによって送られたオリジナル画像であるかまたは別のユーザーから受信したコピーであるかを決定する。例えば、遠隔サーバー3は、各基準モデル32がキャプチャされたロケーションを示すデータベースを含むかまたはこのデータベースにアクセスでき、したがって、例えば、第一のモバイル機器によりアノテーション付けされるべき画像が一つの特徴としてエッフェル塔を含み、第一のモバイル機器のロケーションがスイスである場合には、遠隔サーバー3は、画像がオリジナル画像でない、すなわち画像が別の機器から第一のモバイル機器に送られたものであるという結論を下すことができる。一方、第一のモバイル機器のロケーションがフランス、パリのChamp de Marsである場合には、遠隔サーバー3は、その画像がオリジナル画像であると決定することができる。
すでに言及した通り、後続してキャプチャされた画像と整合させるための拡張現実モデルの共有も、考慮することができる。この場合、モバイル機器1の発信ユーザーは、拡張現実モデルをクリエイト、検索または編集し、例えばこのモデルを直接別のユーザーに伝送することによってかまたは他のユーザーが利用可能なサーバー3内のデータベース32内にこのモデルを記憶させることによって、このモデルを別のユーザーと共有する。
一実施形態において、データベース32内の少なくとも一部の拡張現実モデルは、ロケーションと結びつけられる。このロケーションは、地理的地点の座標として標示可能である。別の実施形態では、少なくとも一部のロケーションは、より大きな表面積、例えば中心と半径によって標示される領域、または論理的にセルに分割されたテリトリー内のセルもしくはセルグループなどに対応する。また、ロケーションは、3次元ボリュームにも対応し得る。このとき、特定の特徴と結びつけられていないロケーションから撮られたこの特定の特徴の任意の画像は、伝送されたコピーであると想定され、発信ユーザーからのオリジナルであるとは想定されない。
また、一部の拡張現実モデルは特定の期間(time period)とも結びつけられ得る。例えば、広告用ポスターは通常、限定された期間の間だけ表示され、この期間の後に伝送されたこのポスターに由来する特徴のあらゆる画像はコピーであると想定される。他の特徴は、一日のうちの時間(例えば昼間ビューまたは夜間ビュー)、一年のうちの時期(例えば雪山)、またはそれらをキャプチャすることが可能であるかまたは不可能である他の期間または期間セットと結びつけられるかもしれない。このとき、可能である期間以外に伝送された特徴(例えば、夏季の雪山画像、または特定の広告対象製品についての広告キャンペーンがもはや行なわれていない期間中の広告ポスターの画像)は、コピーであると想定される。
サーバー3により受信された他の情報を使用して、最初の画像とコピーからのビューとを区別することができる。例えば、サーバー3は、画像の品質、その色、画素のサイズ、(おそらくモニター上の再現によりひき起こされる)変形の可能性、光度などを分析して、画像がオリジナル画像ではなくスクリーンコピーのようなコピーの確率の方が高いことを決定することができる。さらに、以下で記述する通り、サーバーは、ウォーターマーク、または、画像のオリジナル表示と異なる機器による画像の後々の表示との間に追加された任意の隠しマークを分析して、オリジナル画像とコピーを区別することができ得る。
図3は、広告利用分野の場合の拡張現実用途の実例のために付加価値付きコンテンツを作成しかつ配信するためのシステムを概略的に示している。対応する要素と同一であるかまたはそれと類似の機能を有する要素が図1に示されており、これらの要素には同じ符号が付されている。図3に示されたシステムは、製品もしくはサービスの販促を希望する、製品もしくはサービスのプロバイダ7を含む。例えば、それは、マーケティングキャンペーンの準備を受持つマーケティング代理店であり、その代理店はポスターキャンペーンを準備するためにポスター広告会社9を活用することによって、既定の期間中いくつかの既定のロケーションで広告ポスター2を表示する。各ポスターと結びつけられたロケーションおよび期間は、ポスター広告会社9が管理および/または運営するデータベース90内に記憶されている。例えば、データベース90は、データレコードを記憶することができ、そのデータ記録は、正確なロケーションまたはセルのような2Dエリアまたは3Dボリュームを指し示し、そこから各特定の特徴が見え、それをキャプチャすることができ、なおかつ、期間または期間セットまたは反復的期間を指し示し、その期間中に特定の特徴が見える。ポスター広告の例において、データベース90は、例えば各個別のポスター2のロケーション、および各個別のポスター2が一つのロケーションで提示される期間のスケジュールを指し示すことができる。一実施形態において、例えば一つのポスターが複数のデジタル看板上で複数のロケーションにおいて同時に表示される場合のように、一つまたは複数のロケーションが一つの特徴と結びつけられる。一実施形態においては、ポスターのロケーションは、地理的に固定されておらず、バス、列車などの車両の軌道と結びつけられる。
アノテーション、および画像にアノテーション付けするための他の付加価値付きコンテンツが、ポスター広告会社9および/またはマーケティング代理店8により、サーバー3からアクセス可能な、アノテーションデータベース31内に記憶される。また、モバイル機器1、1’の定期的ユーザーは、データベース31にアノテーションを追加することもできる。
拡張現実モデルが、ポスター広告会社9および/またはマーケティング代理店8および/または他のユーザーにより、データベース32内に記憶される。これらの基準特徴は、後にキャプチャされた画像にアノテーション付けするために、サーバー3によって、これらの画像と整合される。
図4は、アノテーションと結びつけられた画像の、考えられるバイラル配信を示す拡張現実ソーシャルネットワークグラフの一例を示している。示されたグラフは、拡張現実ユーザーに対応するノードA〜Fと、ユーザー間で拡張現実モデルまたはアノテーション付けすべき画像を共有するために使用されるさまざまな考えられるチャネルに対応するこれらのノード間のアークを含む。ノードAは、ルート、すなわち、クリエイトまたは修正のいずれかによって新しい拡張現実モデルを最初に生成するネットワークのノードである。
このグラフは、以下の情報で記述され、この情報を用いて再現されてよい:
・ 拡張現実モデルID
共有モデルの識別子
・ 拡張現実画像ID
アノテーション付けすべき共有画像の識別子
・ 送信者ID
アノテーション付けすべき画像またはモデルを送る拡張現実ユーザーのデバイスユニーク識別子
・ 受信者ID
アノテーション付けすべき画像またはモデルを受信する拡張現実ユーザーのデバイスユニーク識別子
・ タイムスタンプ
アノテーション付けすべき画像または拡張現実モデルが送られる日付および時刻
・ ロケーション
アノテーション付けすべき画像または拡張現実モデルの共有または受信の時点における、GPS、セルラー式位置推定システムなどを用いて決定されるユーザーのロケーション
・ 共有チャネル
二人のユーザー間で、アノテーション付けすべき画像または拡張現実モデルを共有するのに使用されるチャネル。チャネルの例としては、Eメール、SMS、MMS、Facebook、Twitter、ブログなどが含まれ得る
・ コメントまたはフィードバック
アノテーション付けすべき画像または共有モデルに添付されるユーザーのコメントまたはフィードバック
アノテーションと結びつけられた特徴20を有する最初の画像2が、ネットワークのルートAにおいて、ユーザーのモバイル機器1によってキャプチャされ、その後、Eメール、ブログ、例えばFacebook、Twitterなどのソーシャルネットワークのようなさまざまなチャネル上で他のユーザーにバイラル配信される。この画像は、オリジナル画像であっても、別のソースからのコピーであってもよい。各ユーザーは、さらに、画像を他のユーザーに配信することができ、他のユーザーは自らのモバイル機器を用いて受信した画像にアノテーション付けすることができる。中央サーバー3(図1〜3)は、アノテーション付けの要求R1、R2が受信される都度ごとに通知されることから、中央サーバーはユーザー間の画像の配信を追跡でき、例えば、発信ユーザー1が最初にキャプチャした各画像を何人のユーザーが見ているか、またアノテーション付けするかを計算することができる。この情報は、例えば、広告会社7もしくはマーケティング代理店8に、このアノテーション付けのインボイスを送るために、または画像の配信を制御するために使用可能である。レポートは、レポーティングモジュール34によって作成され、拡張現実アノテーションと結びつけられた画像(オリジナルかまたは既にコピーされたもの)が、増殖作用を介してどのようにバイラル拡散するかを示すために表示され得る。
一実施形態において、画像は、一つの機器から次の機器まで、例えばMMS、Eメール、ブログもしくはソーシャルネットワークへの投稿などの多様なチャネルおよびさまざまなタイプのメッセージを用いて伝送される。この場合、ユーザーのモバイル機器内で実行されるアプリケーションは、画像のさらなる配信に使用されたチャネルについて(例えば画像がSMS、MMSまたはEメールなどのいずれを用いて転送されたか)、中央サーバー3に知らせるように構成されていてよい。これにより、画像を送るために各ユーザーが使用したチャネル/アプリケーション、ならびに伝送の時刻および日付を示す、より一層詳細なレポートの作成が可能となる。
一実施形態において、また、一つの機器から次の機器に画像を伝送するために使用されるアプリケーションは、例えばバーコード、データマトリクスもしくはウォーターマークのようなコードを追加または修正することによって、画像を修正する。この追加情報は、伝送された画像がビュー由来のオリジナル画像ではなく、別のユーザーから伝送されたものであるということのさらなる指標として使用でき得る。この追加情報は、また、一人のユーザーから次のユーザーまでの画像の配信を追跡するためにも使用でき、中央サーバー3によって伝送され使用され得る、バイラル配信についての追加情報を含むことができる。さらに、アノテーションおよび拡張現実コンテンツは、この追加情報またはウォーターマークに左右され得、こうして異なるユーザーがその画像に結びつけられた他のコードまたはウォーターマークに応じて異なるアノテーションを受信することになる。
一部の特徴は、それらに結びつけられたトークンを有していてよい。例えば、ポスターは、それに結びつけられたトークンを有していてよい。ユーザーがそのポスターが描かれた画像を転送する都度ごとに、このユーザーにトークンが授与される。トークンはトークンスキームの一部であり得、これにより、ユーザーが既定の数のトークンを集めた時点でユーザーに褒賞が与えられる。この特徴は、他の方法では到達できない市場に広告を到達させることを可能にすることから、広告のためには極めて有利である。例えば、特定の製品のための広告キャンペーンがアメリカ合衆国に限定され、各ポスターにトークンが結びつけられている場合には、ニューヨークにいるユーザーはポスターうちの一つの画像をキャプチャして、その画像を可能なかぎり多くの他の任意のユーザーに送るかもしれない。ユーザーは、画像を送る都度ごとに自らがトークンを獲得することから、できるだけ多くのユーザーに画像を配信するよう動機づけされる。ユーザーは、アメリカ合衆国以外にいるユーザーに画像を送り、したがって他の方法ではポスター広告キャンペーンが到達できないはずの市場に到達するかもしれない。画像を受信したユーザーは、今度は自ら受信した画像を他のユーザーに転送し、そうすることで彼らにもまたトークンが授与される。ユーザーは、既定の数のトークンを獲得した時点で、例えばそのモバイル機器用の新規アプリケーションなどの褒賞をトークンと引き換えに受け取ることができる。報酬は、共有ネットワーク内のユーザーのレベルに基づかせることができる。ルートにいるユーザーまたはルートに近いユーザーは、例えば、階層内のより深いところにいるかまたはルートにさほど近くない別のユーザーに比べ、大きい報酬を受け得る。
追加でまたは代替的に、各特徴は、例えば特徴に結びつけられる確認トークンのようなコードを有するかもしれず、これは、その特徴のアノテーションを表示できるか否かを前記サーバーが確認するために使用される。例えば、特徴が、特徴に結びつけられているトークンを有する、アートギャラリー内の一枚の絵画である場合、そのトークンは、サーバーがその絵画のオリジナル画像のためのアノテーションを提供できるよう許可するが、しかしオリジナル画像でない絵画の画像すなわち別のユーザーから受信した画像のためにはアノテーションをサーバーが提供することを妨げる。こうして、ギャラリーへの入場料を支払った人のみがその絵画のアノテーション付き画像を得る資格を有することが保証される。トークンは、例えばフィデリティプログラム(fidelity program)の一部として、または、特定のページのファンもしくは友人またはソーシャルネットワークのユーザーに対して配信されてよい。このようにして、ユーザーはソーシャルネットワーク内の自らの友人に対してトークンを動的に配信し、このトークンを用いて、アノテーション付け用コンテンツへのアクセスを制御し限定することができる。別の実施形態においては、アノテーション(追加コンテンツ)のアクセスを料金対象とするために、トークンまたはユーザー権利を売買することができる。こうして、クローズドユーザーグループがコードまたは確認を利用できることになる。また、コードまたはトークンは、第一のユーザーによって第二のユーザーに、そして後続するユーザーに伝送されることができる。
すでに言及した通り、ユーザーは、アノテーション付けすべき画像を共有する代りにまたはそれに加えて、拡張現実モデルを共有するかもしれない。この場合、図4に示されているものと類似のグラフを用いて、ユーザー間での拡張現実モデルの伝播を追跡することが可能であり得る。こうして、マーケティングキャンペーンがいかに成功しているかについての情報が得られ得る。グラフの異なる経路をより良く調べることによって、我々はネットワーク全体を通したARモデルの履歴を精確に決定し、ARモデルが修正されたか否か、またはどこからそしてどのチャネルを用いて人々がそれを共有していたかなどの有用な見識を抽出することができる。
グラフの分岐に結びつけられた時刻は、例えば、モデルが共有された時刻(および日付)であってよい。あるいは、グラフは、共有されたモデルが実際に受信者によって使用されている時刻(および日付)を指し示すかもしれない。
得られたグラフ情報は、メディア、広告または技術文書のような異なる市場に関する拡張現実コンテンツプロバイダに特に関連する。この情報は、実際、一部のユーザーに向けて送信すべき拡張現実コンテンツを選択するために使用可能である。提供された拡張現実コンテンツは、全く異なる複数のユーザーのために異なる形で調整されてよい。この選択は、例えば、グラフ内の拡張現実モデルの履歴に基づくものであり得る。例えば、広告を見ているユーザーは、拡張現実モデルをより多く共有すればするほどより一層の値引きを得られ、このモデル自体がさらに一層共有されるかもしれない。それは、バイラル広告をクリエイトするための強力でかつ制御可能なマーケティングツールとなる。類似の例では、バイラルマーケティングをクリエイトするために、ロケーション、時刻、共有チャネルまたは他の利用可能な情報が使用され得る。
別のアプリケーションは、コミュニティシェアリングに関する。例えば、新しい都市を訪問する観光客は、対話型ガイドとして拡張現実を使用し得る。自らのモバイル機器で歴史的建造物の画像をキャプチャしながら、見物者は、その画像上に重ね合わされた拡張現実アノテーションとして、追加情報を得る。建造物の特定の部分についての情報を共有したいと考える見物者は、それを直接建造物の拡張現実モデル内に追加することができる。このようにして、後続の見物者が同じ建造物の画像をキャプチャした時点で、これらの見物者は、画像上に重ね合わされたアノテーションとしてこの追加のコンテンツにアクセスできる。
全ての実施形態(アノテーション付けすべき画像の共有、または拡張現実モデルの共有)について、二つのアーキテクチャ設計、すなわち集中型または分散型を考慮してよい。集中型システムにおいては、拡張現実モデルデータベース32およびアノテーションデータベース31は、中央サーバー3内に集中的に記憶され、システムの全てのユーザーに共通である。したがって、それは全てのユーザーのための完全なデータベース表現を保証する。一方、分散型システムは、拡張現実モデルおよびアノテーションをユーザーの機器1、1’内に記憶し、その場合、集中型サーバーは利用できてもできなくてもよい。
図5は、図4のグラフに対応し、グラフのディスクリプションが集中型データベース内でどのように記憶されるか、および、例えば、アノテーション付けすべき画像または拡張現実モデルが共有または表示される都度ごとにどのように更新され得るかを示す表の一例である。データベース情報から、対応する完全なネットワークグラフを再現することが可能である。
この場合、集中型アーキテクチャにおいては、モデルが一受信者と共有される都度ごとに、集中型サーバー3からモデルデータをダウンロードするよう通知がこの受信者に対し送られ得る。このようにして、モデルが共有される都度ごとにモデルを送信することが回避される。
図6〜8は、図4のグラフに対応し、グラフのディスクリプションがどのように分散型システム内に記憶され得るかを示す表の例を示している。分散型システムにおいては、グラフ情報を含むデータベースはユーザーの機器上に記憶され、集中型サーバーを必要としない。典型的な分散型アーキテクチャは、ピアツーピアネットワークに基づくものであってよく、これにおいては、各ノードは、データを移送するために、他のノードのためのサーバーまたはクライアントとして作用する。このことは、拡張現実モデルまたは画像が二名のユーザー間で共有される都度ごとに、これらのユーザー間に拡張現実モデルを移送するための直接的接続が確立されることを意味している。データベースの一バージョンが、異なるユーザーの機器上に記憶され、そのユーザーとの接続がセットアップされる都度ごとに更新される。接続された二人のユーザーの更新されたデータベースは、それらのローカルデータベース内に記憶されたエントリーの結合で構成されている。
分散型システムは、各ユーザーが、自ら受信した関連する拡張現実モデルまたは画像の履歴を認識していることを保証する。図6、7および8は、それぞれ、ユーザーA、BおよびFそれぞれのために図4のネットワーク内に記憶されたローカル情報を示している。分散型データベースから、ユーザーは、各受信拡張現実モデルの履歴を決定することが可能である。
モデルを受信するユーザーは、それを他のユーザーにさらに転送するかまたは編集するかを選択できる。拡張現実モデルの編集は、アノテーションの変更または基準画像の修正を意味し得る。これは、新しい拡張現実モデルIDの割当てを導く。
類似の要領で、アノテーション付けすべき画像を受信するユーザーは、それをさらに他のユーザーに転送するか、またはそれを編集するかを選択できる。拡張現実画像の編集は、基準画像の修正を意味し得る。これは、新しい拡張現実画像IDの割当てを導く。
モデル、画像それぞれの修正は、それぞれ新しい拡張現実モデル、画像のクリエイトと類似している。主たる差異は、オリジナルの拡張現実モデルID、拡張現実画像IDそれぞれ(すなわち編集前)が保存されるという点にある。したがって、拡張現実モデル/画像の間に、親/子の関係を再現することが可能となる。この関係は、図9に表されている通り、親モデルIDおよびその子モデルIDを含むデータベース(集中型または分散型のいずれか)の別の表に記憶される。その新規のエントリーを除いて、拡張現実モデル、画像それぞれの編集時点で生成された他の全ての情報は、モデル/画像が改めてクリエイトされた場合と同じである。
また、更新されたモデルについてユーザーに通知するために、システム内に一つのメカニズムを実装することもできる。したがって、ユーザーは、自らのモデルを更新し、修正を見ることができる。それは、ユーザー間のフィードバックループおよびコミュニティシェアリングへの扉を開く。それはすなわち、ユーザーグループが、更新されたバージョンおよび旧バージョンを追跡し続けることができる一方で、同じ拡張現実モデルを共有し編集し続けることができるということを意味する。一部のユーザーのみに通知するかまたは一部のユーザーのみをフィルター排除するためのオプションが、機密性またはプライバシーの目的で利用可能であり得る。このようにして、他の分野では公知であるソース制御システムという構想が拡張現実モデルに適用される。
上述の方法のさまざまなオペレーションは、オペレーションを実施できる任意の好適な手段、例えばさまざまなハードウェアおよび/またはソフトウェア構成要素(単複)、回路、および/またはモジュール(単複)によって実施されてよい。概して、本出願中に記載されているいずれのオペレーションも、オペレーションの実施が可能な対応する機能的手段によって実施されてよい。さまざまな手段、論理ブロック、およびモジュールは、回路、特定用途向け集積回路(ASIC)、または汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ信号(FPGA)または他のプログラマブル論理デバイス(PLD)、離散的ゲートもしくはトランジスタ論理、離散的ハードウェア構成要素、または本明細書中に記載の機能を実施するように設計されたこれらの任意の組合せを含めた、ただしこれらに限定されないが、さまざまなハードウェアおよび/またはソフトウェア構成要素(単複)および/またはモジュール(単複)を含んでいてよい。汎用プロセッサは、マイクロプロセッサであってよいが、代替的には、プロセッサは任意の市販のプロセッサ、コントローラ、マイクロコントローラ、またはステートマシンであってよい。プロセッサは、同様に、複数のコンピュータデバイスの組合せ、例えばDSPとマイクロプロセッサの組合せ、複数のマイクロプロセッサ、DSPコアと併用された一つ以上のマイクロプロセッサ、または任意の他のこのような機器構成として実装されてもよい。サーバーは、単一のマシンとして、マシンの一セットとして、仮想サーバーとしてまたはクラウドサーバーとして実装されてよい。
本明細書中で使用する「アノテーション」という用語は、例えばテキスト、静止画像、ビデオ画像、ロゴ、画像層、音声および/または画像に対し重ね合わされるかまたは他の形で追加され得る他の要素を含めた、多種多様な可能な要素を包含する。
本明細書中で使用する「決定する」という用語は、多種多様な行為を包含する。例えば、「決定する」には、計算する、コンピュータで計算する、処理する、導出する、調査する、検索する(例えば表内、データベース内または別のデータ構造内で検索する)、確認する、推定するなどの意味を含んでいてよい。また、「決定する」には、受信する(例えば情報を受信する)、アクセスする(例えばメモリー内のデータにアクセスする)などの意味も含まれていてよい。また同様に、「決定する」には、解決する、選定する、選択する、確立するなどの意味も含まれていてよい。
本開示に関連して記述されている方法またはアルゴリズムのステップは、ハードウェア内、プロセッサにより実行されるソフトウェアモジュール内、またはこれら二つの組合せの形で直接実施されてよい。ソフトウェアモジュールは、当該技術分野において公知である任意の形の記憶媒体内に存在していてよい。使用されてよい記憶媒体の一部の例としては、ランダムアクセスメモリー(RAM)、読取り専用メモリー(ROM)、フラッシュメモリー、EPROMメモリー、EEPROMメモリー、レジスター、ハードディスク、リムーバブルディスク、CD−ROMなどが含まれる。ソフトウェアモジュールは、単一の命令または多くの命令を含んでいてよく、複数の異なるコードセグメント全体にわたって、さまざまなプログラム間で、および多数の記憶媒体を横断して分散されてよい。ソフトウェアモジュールは、実行可能なプログラム、完全なプログラム内で使用される一つの部分もしくはルーチンもしくはライブラリ、複数の相互接続されたプログラム、多くのスマートフォン、タブレットもしくはコンピュータによって実行される「アプリケーション」、ウィジェット、フラッシュアプリケーション、HTMLコードの一部分などで構成されていてよい。記憶媒体をプロセッサに結合させて、プロセッサが記憶媒体から情報を読取り、記憶媒体に情報を書込むことができるようにしてもよい。あるいは、記憶媒体は、プロセッサと一体を成していてよい。データベースを、SQLデータベース、XMLドキュメントセット、セマンテックデータベースまたはIPネットワーク上で利用可能な情報セット、あるいは他の任意の好適な構造を含めた、任意の構造化されたデータコレクションとして実装してよい。
こうして、一部の態様は、本明細書中で提示したオペレーションを実施するためのコンピュータプログラム製品を含んでいてよい。例えば、このようなコンピュータプログラム製品は、自身に命令が記憶され(および/またはコード化され)ているコンピュータ読取り可能媒体を含んでいてよく、該命令は、本明細書に記載のオペレーションを実施するために一つ以上のプロセッサによって実行可能である。一部の態様については、コンピュータプログラム製品は、パッケージマテリアルを含んでいてよい。
特許請求の範囲が、以上で例示した詳細な機器構成および構成要素に限定されないということを理解すべきである。以上で記述した方法および器具の配置、オペレーションおよび詳細に対して、特許請求の範囲から逸脱することなく、さまざまな修正、変更および変形を加えることができる。
1 モバイル機器
1’ 第二のモバイル機器
2 要素
3 サーバー
4 第二の機器
7 広告会社
8 マーケティング代理店
9 ポスター広告会社
20 特徴
21 アノテーション付き画像
22 伝送された画像
30 アノテーション付け用モジュール
31 データベース
32 拡張現実モデルデータベース
33 ユーザー権限記憶用データベース
34 レポーティングモジュール
90 データベース
210 アノテーション
国際公開第2008032203号 欧州特許第1246080号明細書

Claims (27)

  1. (a)発信ユーザーが、第一のモバイル機器(1)を用いてオリジナル画像(21)をキャプチャするステップと、
    (c)前記第一のモバイル機器(1)のロケーションおよび時刻を含む第一のデータ情報(R1)を記憶するステップと、
    (d)発信ユーザーが、第二の機器(4)のユーザーと前記画像または前記画像に対応する拡張現実モデルを共有するステップと、
    (e)前記第二の機器(1’)上にアノテーション付き画像を表示するステップと、
    (g)前記第二の機器(1’)のロケーションおよび時刻を含む第二のデータ情報(R2)を記憶するステップと
    を含む方法。
  2. (b)オリジナル画像(21)が、認識された画像の特徴と関連づけして画像上に重ね合わされた第一のアノテーション(210)と共に、発信ユーザーのモバイル機器(1)上に表示され、
    (c)前記第一のデータ情報(R1)には、さらに、前記第一のアノテーションが表示されたという情報が含まれ、前記第一のデータ情報(R1)は、サーバー(3)に送られてそこに記憶され、
    (d)発信ユーザーは、前記画像を前記第二の機器(4)に伝送することによって、前記画像をアノテーション付けすべき画像として共有し、
    (e)前記伝送された画像(22)は、前記第二の機器上に表示され、
    (f)第二のアノテーション(211)は、前記伝送された画像と組合わされて前記第二のユーザーに表示され、
    (g)前記第二のデータ情報(R2)には、さらに、前記第二のアノテーションが表示されたという情報が含まれ、前記第二の情報がさらにサーバー(3)に送られ、
    (h)前記サーバー(3)が、前記ロケーションおよび/または時刻から、前記画像が発信ユーザーによりキャプチャされたオリジナル画像であるか、または第二のユーザーに表示された伝送された画像であるかを決定する、
    請求項1に記載の方法。
  3. 前記第二のユーザーが、カメラを備える第二のモバイル機器(1’)を用いて、第二の機器上に表示される前記画像をキャプチャし、および、前記第二のユーザーが開始した第二のアノテーション(211)の前記表示が、前記第二のモバイル機器によって実施される、請求項2に記載の方法。
  4. 最初にキャプチャされたオリジナル画像と結びつけられた第一のアノテーション(210)が、任意の後続の伝送された画像と結びつけられた第二のアノテーション(211)と異なるものである、請求項1〜3のいずれか一つに記載の方法。
  5. 発信ユーザーが、前記画像に対応する拡張現実モデルを第二の機器のユーザーと共有し、および、
    (b)前記第一のデータ情報(R1)には、モデルとして使用される前記画像が発信ユーザーにより共有された時点の前記第一のモバイル機器(1)の前記ロケーションおよび時刻が含まれており、
    (f)第二のアノテーション(211)が、前記モデルに基づいて次の画像に重ね合わされて、前記第二のユーザーに対して表示され、
    (f’)第二のユーザーが、前記モデルを第三のユーザーと共有し、
    (g)前記第二のデータ情報(R2)には、モデルとして使用される前記画像が、第二のユーザーによって共有された時点の前記第二のモバイル機器の前記ロケーションおよび時刻が含まれている、
    請求項1に記載の方法。
  6. 前記第一および第二のデータ情報が、中央サーバー(3)内に記憶され、前記第一のモバイル機器(1)および前記第二の機器(1’、4)がアクセスできるようになっている、請求項1〜5のいずれか一つに記載の方法。
  7. 前記第一および第二のデータ情報が、前記ユーザーの機器内に分散した形で記憶されている、請求項1〜6のいずれか一つに記載の方法。
  8. 前記アノテーション(210、211)が、前記データ情報内の前記ロケーションによって左右され、したがって、前記ロケーションが異なる場合、同じ画像上に異なるアノテーションが重ね合わされるようになっている、請求項1〜7のいずれか一つに記載の方法。
  9. 前記アノテーション(210、211)が、前記データ情報内の前記時刻によって左右され、したがって、前記時刻が異なる場合、同じ画像上に異なるアノテーションが重ね合わされるようになっている、請求項1〜8のいずれか一つに記載の方法。
  10. 前記画像と結びつけられたコードをさらに含み、前記アノテーション(210、211)は、前記コードが前記第一、第二のユーザーのそれぞれにとって利用可能である場合にのみ、表示される、請求項1〜9のいずれか一つに記載の方法。
  11. 前記コードが、クローズドユーザーグループだけに利用可能にされる、請求項10に記載の方法。
  12. 前記コードが、前記第一のユーザーによって前記第二のユーザーに伝送される、請求項10または11に記載の方法。
  13. 前記コードが、ソーシャルネットワーク上でユーザーにより伝送される、請求項10〜12のいずれか一つに記載の方法。
  14. 前記コードが、ソーシャルネットワークの特定のページのファン全員に利用可能にされる、請求項10〜13のいずれか一つに記載の方法。
  15. − 前記画像内にウォーターマークを埋込むステップと、
    − 前記サーバー(3)に送られる前記データ情報内に、前記ウォーターマークに応じた情報を含み入れるステップと
    をさらに含む、請求項1〜14のいずれか一つに記載の方法。
  16. 前記画像を異なるユーザーに伝送するために、前記ウォーターマークを修正するステップをさらに含む、請求項15に記載の方法。
  17. 前記サーバーが、前記ウォーターマークに応じた前記情報から、前記画像が発信ユーザーによってキャプチャされたオリジナル画像であるかまたは第二のユーザーに対して表示された伝送された画像であるかを決定する、請求項16に記載の方法。
  18. 前記画像が広告(2)の画像であり、前記サーバー(3)が前記時刻および/またはロケーションを前記広告の公知の提示の時刻および/またはロケーションと比較して、前記アノテーションが発信ユーザーによりキャプチャされたオリジナル画像と結びつけられたか、または第二のユーザーに表示された伝送された画像と結びつけられたかを決定する、請求項1〜17のいずれか一つに記載の方法。
  19. 各々の前記画像を地理的エリアと結びつけるステップと、前記第二の機器(1’)の前記ロケーションが前記地理的エリア以外にある場合に、前記画像が伝送された画像であると決定するステップとをさらに含む、請求項1〜18のいずれか一つに記載の方法。
  20. ユーザーが、受信した拡張現実モデルを、新しい拡張現実モデルに編集して、受信した拡張現実モデルと編集された拡張現実モデルとの関係を記憶するステップをさらに含む、請求項5に記載の方法。
  21. サーバー(3)により実施され、
    (i)第一のアノテーション(210)がどこに表示されたかという情報、または拡張現実モデルが共有されたという情報と合わせて、モバイル機器(1)のロケーションおよび時刻を含む第一のデータ情報(R1)を前記サーバー内で受信するステップと、
    (ii)第二のアノテーション(211)が前記第二の機器によってどこに表示されたかという情報、または拡張現実モデルが前記第二の機器に利用可能になったという情報と合わせて、第二の機器のロケーションおよび時刻を含む第二のデータ情報(R2)を前記サーバー(3)内で受信するステップと、
    を含む方法。
  22. 前記ロケーションおよび/または時刻から、前記アノテーション(210、211)が、発信ユーザーによりキャプチャされたオリジナル画像と結びつけられたか、または第二のユーザーに対し表示された伝送された画像と結びつけられたかを決定するステップをさらに含む、請求項21に記載の方法。
  23. 前記画像が広告(2)の画像であり、前記サーバー(3)が前記時刻および/またはロケーションを前記広告の公知の提示の時刻および/またはロケーションと比較して、前記アノテーション(210、211)が発信ユーザーによりキャプチャされたオリジナル画像と結びつけられたか、または第二のユーザーに表示された伝送された画像と結びつけられたかを決定する、請求項22に記載の方法。
  24. 前記サーバー(3)が、前記画像内に埋込まれたウォーターマークから、前記画像が発信ユーザーによりキャプチャされたオリジナル画像であるか、または第二のユーザーに表示された伝送された画像であるかを決定する、請求項21〜23のいずれか一つに記載の方法。
  25. 前記サーバーがトークンを確認し、前記トークンから、前記アノテーションが表示可能か否かを決定する、請求項21〜24のいずれか一つに記載の方法。
  26. 非一時的媒体支持体に記憶され、少なくとも一つのデータプロセッサに請求項1〜25のいずれか一つに記載の方法のステップを実行させる命令を含む、コンピュータプログラム製品。
  27. システムであって、
    − オリジナル画像をキャプチャするのに好適なカメラと、前記画像を表示するためのディスプレーとを含む第一のモバイル機器(1)と、
    − 前記画像を検索しその上にアノテーションを重ね合わせるための拡張現実モジュールと、
    − ディスプレーを含む第二の機器(4)と、
    − 前記オリジナル画像を前記第二の機器と共有するためか、または前記オリジナル画像に対応する拡張現実モデルを前記第二の機器と共有するために配置されたソフトウェアモジュールと、
    − 前記第一のモバイル機器(1)のロケーションおよび時刻と、前記画像が表示された時点または前記画像もしくは前記モデルが共有された時点の前記第二のモバイル機器のロケーションおよび時刻とを含む、第一のデータ情報(R1)を記憶する記憶装置と
    を含むシステム。
JP2014540442A 2011-11-08 2012-11-07 画像アノテーション方法およびシステム Pending JP2015505384A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CH17912011 2011-11-08
CH1791/2011 2011-11-08
PCT/EP2012/072072 WO2013068429A1 (en) 2011-11-08 2012-11-07 Image annotation method and system

Publications (1)

Publication Number Publication Date
JP2015505384A true JP2015505384A (ja) 2015-02-19

Family

ID=47146403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014540442A Pending JP2015505384A (ja) 2011-11-08 2012-11-07 画像アノテーション方法およびシステム

Country Status (7)

Country Link
US (1) US9183604B2 (ja)
EP (1) EP2776951A1 (ja)
JP (1) JP2015505384A (ja)
KR (1) KR20140093974A (ja)
CN (1) CN104081389A (ja)
IN (1) IN2014CN03530A (ja)
WO (1) WO2013068429A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017040980A (ja) * 2015-08-17 2017-02-23 コニカミノルタ株式会社 コンテンツ提供サーバ、コンテンツ提供方法、およびコンピュータプログラム
WO2020175599A1 (ja) * 2019-02-28 2020-09-03 株式会社NearMe プログラム、情報処理方法及びサーバ装置
US10841531B2 (en) 2018-10-18 2020-11-17 Fujitsu Limited Display control apparatus and display control method

Families Citing this family (174)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8554868B2 (en) 2007-01-05 2013-10-08 Yahoo! Inc. Simultaneous sharing communication interface
US8463053B1 (en) 2008-08-08 2013-06-11 The Research Foundation Of State University Of New York Enhanced max margin learning on multimodal data mining in a multimedia database
IL306019A (en) 2011-07-12 2023-11-01 Snap Inc Methods and systems for delivering editing functions to visual content
US9536251B2 (en) * 2011-11-15 2017-01-03 Excalibur Ip, Llc Providing advertisements in an augmented reality environment
US8972357B2 (en) 2012-02-24 2015-03-03 Placed, Inc. System and method for data collection to validate location data
US11734712B2 (en) 2012-02-24 2023-08-22 Foursquare Labs, Inc. Attributing in-store visits to media consumption based on data collected from user devices
US10155168B2 (en) 2012-05-08 2018-12-18 Snap Inc. System and method for adaptable avatars
US9720895B1 (en) * 2012-12-26 2017-08-01 Metadata Authoring Technologies, LLC Device for construction of computable linked semantic annotations
US9286323B2 (en) * 2013-02-25 2016-03-15 International Business Machines Corporation Context-aware tagging for augmented reality environments
US9070217B2 (en) * 2013-03-15 2015-06-30 Daqri, Llc Contextual local image recognition dataset
US9818150B2 (en) * 2013-04-05 2017-11-14 Digimarc Corporation Imagery and annotations
CA2863124A1 (en) 2014-01-03 2015-07-03 Investel Capital Corporation User content sharing system and method with automated external content integration
US9628950B1 (en) 2014-01-12 2017-04-18 Investment Asset Holdings Llc Location-based messaging
US9934212B2 (en) * 2014-02-26 2018-04-03 Xerox Corporation Methods and systems for capturing, sharing, and printing annotations
US9681016B2 (en) * 2014-02-26 2017-06-13 Xerox Corporation Methods and systems for capturing, sharing, and printing annotations
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US9396354B1 (en) * 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
EP2955686A1 (en) 2014-06-05 2015-12-16 Mobli Technologies 2010 Ltd. Automatic article enrichment by social media trends
US9113301B1 (en) 2014-06-13 2015-08-18 Snapchat, Inc. Geo-location based event gallery
JP6331777B2 (ja) * 2014-07-01 2018-05-30 コニカミノルタ株式会社 拡張現実情報提供システム、拡張現実情報提供方法、及び、拡張現実情報提供プログラム
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
US10291597B2 (en) 2014-08-14 2019-05-14 Cisco Technology, Inc. Sharing resources across multiple devices in online meetings
US10423983B2 (en) 2014-09-16 2019-09-24 Snap Inc. Determining targeting information based on a predictive targeting model
US10824654B2 (en) 2014-09-18 2020-11-03 Snap Inc. Geolocation-based pictographs
US11216869B2 (en) 2014-09-23 2022-01-04 Snap Inc. User interface to augment an image using geolocation
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
US9015285B1 (en) 2014-11-12 2015-04-21 Snapchat, Inc. User interface for accessing media at a geographic location
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
US10311916B2 (en) 2014-12-19 2019-06-04 Snap Inc. Gallery of videos set to an audio time line
US10542126B2 (en) 2014-12-22 2020-01-21 Cisco Technology, Inc. Offline virtual participation in an online conference meeting
US9754355B2 (en) 2015-01-09 2017-09-05 Snap Inc. Object recognition based photo filters
US11388226B1 (en) 2015-01-13 2022-07-12 Snap Inc. Guided personal identity based actions
US10133705B1 (en) 2015-01-19 2018-11-20 Snap Inc. Multichannel system
US9521515B2 (en) 2015-01-26 2016-12-13 Mobli Technologies 2010 Ltd. Content request by location
US10223397B1 (en) 2015-03-13 2019-03-05 Snap Inc. Social graph based co-location of network users
CN112040410B (zh) 2015-03-18 2022-10-14 斯纳普公司 地理围栏认证提供
US9692967B1 (en) 2015-03-23 2017-06-27 Snap Inc. Systems and methods for reducing boot time and power consumption in camera systems
US9948786B2 (en) 2015-04-17 2018-04-17 Cisco Technology, Inc. Handling conferences using highly-distributed agents
US9881094B2 (en) 2015-05-05 2018-01-30 Snap Inc. Systems and methods for automated local story generation and curation
US10135949B1 (en) 2015-05-05 2018-11-20 Snap Inc. Systems and methods for story and sub-story navigation
US9654727B2 (en) * 2015-06-01 2017-05-16 Apple Inc. Techniques to overcome communication lag between terminals performing video mirroring and annotation operations
US10993069B2 (en) 2015-07-16 2021-04-27 Snap Inc. Dynamically adaptive media content delivery
US10817898B2 (en) 2015-08-13 2020-10-27 Placed, Llc Determining exposures to content presented by physical objects
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US10474321B2 (en) 2015-11-30 2019-11-12 Snap Inc. Network resource location linking and visual content sharing
US9984499B1 (en) 2015-11-30 2018-05-29 Snap Inc. Image and point cloud based tracking and in augmented reality systems
CN108463814B (zh) * 2015-12-17 2022-02-18 北京安和福祉科技有限公司 一种医学图像标注方法及系统
US10354425B2 (en) 2015-12-18 2019-07-16 Snap Inc. Method and system for providing context relevant media augmentation
US11023514B2 (en) 2016-02-26 2021-06-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
US10285001B2 (en) 2016-02-26 2019-05-07 Snap Inc. Generation, curation, and presentation of media collections
US10679389B2 (en) 2016-02-26 2020-06-09 Snap Inc. Methods and systems for generation, curation, and presentation of media collections
WO2017173153A1 (en) 2016-03-30 2017-10-05 Ebay, Inc. Digital model optimization responsive to orientation sensor data
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
GB2551473A (en) * 2016-04-29 2017-12-27 String Labs Ltd Augmented media
US10638256B1 (en) 2016-06-20 2020-04-28 Pipbin, Inc. System for distribution and display of mobile targeted augmented reality content
US10805696B1 (en) 2016-06-20 2020-10-13 Pipbin, Inc. System for recording and targeting tagged content of user interest
US11201981B1 (en) 2016-06-20 2021-12-14 Pipbin, Inc. System for notification of user accessibility of curated location-dependent content in an augmented estate
US10334134B1 (en) 2016-06-20 2019-06-25 Maximillian John Suiter Augmented real estate with location and chattel tagging system and apparatus for virtual diary, scrapbooking, game play, messaging, canvasing, advertising and social interaction
US11785161B1 (en) 2016-06-20 2023-10-10 Pipbin, Inc. System for user accessibility of tagged curated augmented reality content
US11044393B1 (en) 2016-06-20 2021-06-22 Pipbin, Inc. System for curation and display of location-dependent augmented reality content in an augmented estate system
US11876941B1 (en) 2016-06-20 2024-01-16 Pipbin, Inc. Clickable augmented reality content manager, system, and network
US9681265B1 (en) 2016-06-28 2017-06-13 Snap Inc. System to track engagement of media items
US10430838B1 (en) 2016-06-28 2019-10-01 Snap Inc. Methods and systems for generation, curation, and presentation of media collections with automated advertising
US10733255B1 (en) 2016-06-30 2020-08-04 Snap Inc. Systems and methods for content navigation with automated curation
US10855632B2 (en) 2016-07-19 2020-12-01 Snap Inc. Displaying customized electronic messaging graphics
US10410367B2 (en) 2016-08-30 2019-09-10 C3D Augmented Reality Solutions Ltd. Systems and methods for simulatenous localization and mapping
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
CN109952610B (zh) 2016-11-07 2021-01-08 斯纳普公司 图像修改器的选择性识别和排序
US10592867B2 (en) 2016-11-11 2020-03-17 Cisco Technology, Inc. In-meeting graphical user interface display using calendar information and system
CN106776939A (zh) * 2016-12-01 2017-05-31 山东师范大学 一种图像无损标注方法及系统
US10203855B2 (en) 2016-12-09 2019-02-12 Snap Inc. Customized user-controlled media overlays
US9961302B1 (en) * 2016-12-13 2018-05-01 Cisco Technology, Inc. Video conference annotation
US10516707B2 (en) 2016-12-15 2019-12-24 Cisco Technology, Inc. Initiating a conferencing meeting using a conference room device
US11616745B2 (en) 2017-01-09 2023-03-28 Snap Inc. Contextual generation and selection of customized media content
US10454857B1 (en) 2017-01-23 2019-10-22 Snap Inc. Customized digital avatar accessories
US10915911B2 (en) 2017-02-03 2021-02-09 Snap Inc. System to determine a price-schedule to distribute media content
US11250075B1 (en) 2017-02-17 2022-02-15 Snap Inc. Searching social media content
US10319149B1 (en) 2017-02-17 2019-06-11 Snap Inc. Augmented reality anamorphosis system
US10074381B1 (en) 2017-02-20 2018-09-11 Snap Inc. Augmented reality speech balloon system
US10565795B2 (en) 2017-03-06 2020-02-18 Snap Inc. Virtual vision system
US10523625B1 (en) 2017-03-09 2019-12-31 Snap Inc. Restricted group content collection
US10582277B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
US10581782B2 (en) 2017-03-27 2020-03-03 Snap Inc. Generating a stitched data stream
CN106997388A (zh) * 2017-03-30 2017-08-01 宁波亿拍客网络科技有限公司 一种图像及非图像标记方法、设备及应用方法
US10440073B2 (en) 2017-04-11 2019-10-08 Cisco Technology, Inc. User interface for proximity based teleconference transfer
US11170393B1 (en) 2017-04-11 2021-11-09 Snap Inc. System to calculate an engagement score of location based media content
US10387730B1 (en) 2017-04-20 2019-08-20 Snap Inc. Augmented reality typography personalization system
US10375125B2 (en) 2017-04-27 2019-08-06 Cisco Technology, Inc. Automatically joining devices to a video conference
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
US10382372B1 (en) 2017-04-27 2019-08-13 Snap Inc. Processing media content based on original context
EP3616153A1 (en) 2017-04-27 2020-03-04 Snap Inc. Friend location sharing mechanism for social media platforms
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
US10467147B1 (en) 2017-04-28 2019-11-05 Snap Inc. Precaching unlockable data elements
US10803120B1 (en) 2017-05-31 2020-10-13 Snap Inc. Geolocation based playlists
US10375474B2 (en) 2017-06-12 2019-08-06 Cisco Technology, Inc. Hybrid horn microphone
US10477148B2 (en) 2017-06-23 2019-11-12 Cisco Technology, Inc. Speaker anticipation
US10516709B2 (en) 2017-06-29 2019-12-24 Cisco Technology, Inc. Files automatically shared at conference initiation
US10706391B2 (en) 2017-07-13 2020-07-07 Cisco Technology, Inc. Protecting scheduled meeting in physical room
US10091348B1 (en) 2017-07-25 2018-10-02 Cisco Technology, Inc. Predictive model for voice/video over IP calls
US11475254B1 (en) 2017-09-08 2022-10-18 Snap Inc. Multimodal entity identification
US10740974B1 (en) 2017-09-15 2020-08-11 Snap Inc. Augmented reality system
US10491778B2 (en) 2017-09-21 2019-11-26 Honeywell International Inc. Applying features of low-resolution data to corresponding high-resolution data
US10499191B1 (en) 2017-10-09 2019-12-03 Snap Inc. Context sensitive presentation of content
US10573043B2 (en) 2017-10-30 2020-02-25 Snap Inc. Mobile-based cartographic control of display content
US11265273B1 (en) 2017-12-01 2022-03-01 Snap, Inc. Dynamic media overlay with smart widget
US11017173B1 (en) 2017-12-22 2021-05-25 Snap Inc. Named entity recognition visual context and caption data
US10678818B2 (en) 2018-01-03 2020-06-09 Snap Inc. Tag distribution visualization system
CN110032914A (zh) * 2018-01-12 2019-07-19 北京京东尚科信息技术有限公司 一种标注图片的方法和装置
US11507614B1 (en) 2018-02-13 2022-11-22 Snap Inc. Icon based tagging
US10979752B1 (en) 2018-02-28 2021-04-13 Snap Inc. Generating media content items based on location information
US10885136B1 (en) 2018-02-28 2021-01-05 Snap Inc. Audience filtering system
US10327096B1 (en) 2018-03-06 2019-06-18 Snap Inc. Geo-fence selection system
WO2019178361A1 (en) 2018-03-14 2019-09-19 Snap Inc. Generating collectible media content items based on location information
US11163941B1 (en) 2018-03-30 2021-11-02 Snap Inc. Annotating a collection of media content items
US10219111B1 (en) 2018-04-18 2019-02-26 Snap Inc. Visitation tracking system
CN108650465B (zh) * 2018-05-17 2020-08-28 深圳市零壹移动互联系统有限公司 摄像机画面增强现实标签的计算方法、装置及电子设备
US10896197B1 (en) 2018-05-22 2021-01-19 Snap Inc. Event detection system
WO2019245585A1 (en) * 2018-06-22 2019-12-26 Hewlett-Packard Development Company, L.P. Image markups
US10679393B2 (en) 2018-07-24 2020-06-09 Snap Inc. Conditional modification of augmented reality object
CN110858222A (zh) * 2018-08-08 2020-03-03 珠海格力电器股份有限公司 一种对实物进行标记的方法及数据处理装置
US10997760B2 (en) 2018-08-31 2021-05-04 Snap Inc. Augmented reality anthropomorphization system
US11743954B2 (en) * 2018-09-20 2023-08-29 Huawei Technologies Co., Ltd. Augmented reality communication method and electronic device
JP7031546B2 (ja) * 2018-09-25 2022-03-08 トヨタ自動車株式会社 情報処理装置および情報処理方法
US10698583B2 (en) 2018-09-28 2020-06-30 Snap Inc. Collaborative achievement interface
US10778916B2 (en) 2018-10-24 2020-09-15 Honeywell International Inc. Applying an annotation to an image based on keypoints
US10778623B1 (en) 2018-10-31 2020-09-15 Snap Inc. Messaging and gaming applications communication platform
KR102075270B1 (ko) 2018-11-09 2020-02-07 주식회사 루닛 어노테이션 작업 관리 방법, 이를 지원하는 장치 및 시스템
WO2020096098A1 (ko) 2018-11-09 2020-05-14 주식회사 루닛 어노테이션 작업 관리 방법, 이를 지원하는 장치 및 시스템
CN109740425A (zh) * 2018-11-23 2019-05-10 上海扩博智能技术有限公司 基于增强现实的图像标注方法、系统、设备及存储介质
US10939236B1 (en) 2018-11-30 2021-03-02 Snap Inc. Position service to determine relative position to map features
US11199957B1 (en) 2018-11-30 2021-12-14 Snap Inc. Generating customized avatars based on location information
GB201820541D0 (en) * 2018-12-17 2019-01-30 Spelfie Ltd Imaging method and system
US11032670B1 (en) 2019-01-14 2021-06-08 Snap Inc. Destination sharing in location sharing system
US10939246B1 (en) 2019-01-16 2021-03-02 Snap Inc. Location-based context information sharing in a messaging system
US11294936B1 (en) 2019-01-30 2022-04-05 Snap Inc. Adaptive spatial density based clustering
US11972529B2 (en) 2019-02-01 2024-04-30 Snap Inc. Augmented reality system
US10936066B1 (en) 2019-02-13 2021-03-02 Snap Inc. Sleep detection in a location sharing system
US10838599B2 (en) 2019-02-25 2020-11-17 Snap Inc. Custom media overlay system
US10964082B2 (en) 2019-02-26 2021-03-30 Snap Inc. Avatar based on weather
US10852918B1 (en) 2019-03-08 2020-12-01 Snap Inc. Contextual information in chat
US11868414B1 (en) 2019-03-14 2024-01-09 Snap Inc. Graph-based prediction for contact suggestion in a location sharing system
US11852554B1 (en) 2019-03-21 2023-12-26 Snap Inc. Barometer calibration in a location sharing system
US11249614B2 (en) 2019-03-28 2022-02-15 Snap Inc. Generating personalized map interface with enhanced icons
US10810782B1 (en) 2019-04-01 2020-10-20 Snap Inc. Semantic texture mapping system
CN110264515B (zh) * 2019-05-07 2023-08-18 联想(上海)信息技术有限公司 一种标注方法及电子设备
US10560898B1 (en) 2019-05-30 2020-02-11 Snap Inc. Wearable device location systems
US10582453B1 (en) 2019-05-30 2020-03-03 Snap Inc. Wearable device location systems architecture
US10893385B1 (en) 2019-06-07 2021-01-12 Snap Inc. Detection of a physical collision between two client devices in a location sharing system
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
US11821742B2 (en) 2019-09-26 2023-11-21 Snap Inc. Travel based notifications
US11218838B2 (en) 2019-10-31 2022-01-04 Snap Inc. Focused map-based context information surfacing
US11128715B1 (en) 2019-12-30 2021-09-21 Snap Inc. Physical friend proximity in chat
US11429618B2 (en) 2019-12-30 2022-08-30 Snap Inc. Surfacing augmented reality objects
US11343323B2 (en) 2019-12-31 2022-05-24 Snap Inc. Augmented reality objects registry
US11169658B2 (en) 2019-12-31 2021-11-09 Snap Inc. Combined map icon with action indicator
KR102413583B1 (ko) 2020-01-28 2022-06-27 주식회사 루닛 어노테이션 작업 관리 방법, 이를 지원하는 장치 및 시스템
KR102081037B1 (ko) 2020-01-28 2020-02-24 주식회사 루닛 어노테이션 작업 관리 방법, 이를 지원하는 장치 및 시스템
US11228551B1 (en) 2020-02-12 2022-01-18 Snap Inc. Multiple gateway message exchange
US11516167B2 (en) 2020-03-05 2022-11-29 Snap Inc. Storing data based on device location
US11619501B2 (en) 2020-03-11 2023-04-04 Snap Inc. Avatar based on trip
US10956743B1 (en) 2020-03-27 2021-03-23 Snap Inc. Shared augmented reality system
US11430091B2 (en) 2020-03-27 2022-08-30 Snap Inc. Location mapping for large scale augmented-reality
CN111310866B (zh) * 2020-05-09 2020-08-25 支付宝(杭州)信息技术有限公司 数据标注方法、装置、系统和终端设备
US11290851B2 (en) 2020-06-15 2022-03-29 Snap Inc. Location sharing using offline and online objects
US11503432B2 (en) 2020-06-15 2022-11-15 Snap Inc. Scalable real-time location sharing framework
US11314776B2 (en) 2020-06-15 2022-04-26 Snap Inc. Location sharing using friend list versions
US11483267B2 (en) 2020-06-15 2022-10-25 Snap Inc. Location sharing using different rate-limited links
US11308327B2 (en) 2020-06-29 2022-04-19 Snap Inc. Providing travel-based augmented reality content with a captured image
US11349797B2 (en) 2020-08-31 2022-05-31 Snap Inc. Co-location connection service
US11606756B2 (en) 2021-03-29 2023-03-14 Snap Inc. Scheduling requests for location data
US11645324B2 (en) 2021-03-31 2023-05-09 Snap Inc. Location-based timeline media content system
CN113448471B (zh) * 2021-07-12 2023-04-25 杭州海康威视数字技术股份有限公司 一种图像显示方法、装置及系统
US11829834B2 (en) 2021-10-29 2023-11-28 Snap Inc. Extended QR code
US12001750B2 (en) 2022-04-20 2024-06-04 Snap Inc. Location-based shared augmented reality experience system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1169136A (ja) * 1997-08-19 1999-03-09 Canon Inc 画像処理装置及び方法及び記憶媒体
JP2004078429A (ja) * 2002-08-13 2004-03-11 Nec Corp 電子チケットシステム、方法、サーバ、プログラム及び検札装置
JP2007179202A (ja) * 2005-12-27 2007-07-12 Canon Marketing Japan Inc 電子帳票サーバ、クライアント、電子帳票システム、情報提供方法、情報利用方法、サービス提供方法、サーバプログラム、クライアントプログラム及び記憶媒体
US20100262924A1 (en) * 2009-04-08 2010-10-14 Kalu Onuka Kalu System and method for linking items to a group
JP2011128977A (ja) * 2009-12-18 2011-06-30 Aplix Corp 拡張現実感提供方法及び拡張現実感提供システム

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8432414B2 (en) 1997-09-05 2013-04-30 Ecole Polytechnique Federale De Lausanne Automated annotation of a view
US6546405B2 (en) * 1997-10-23 2003-04-08 Microsoft Corporation Annotating temporally-dimensioned multimedia content
DE19847943A1 (de) * 1998-10-09 2000-04-13 Deutsche Telekom Ag Verfahren zum Generieren von digitalen Wasserzeichen für elekronische Dokumente
US20030028782A1 (en) * 2000-11-22 2003-02-06 Grundfest Joseph A. System and method for facilitating initiation and disposition of proceedings online within an access controlled environment
WO2002050773A1 (en) * 2000-12-09 2002-06-27 Markany Inc. Network camera apparatus, network camera server and digital video recorder for preventing forgery and alteration of a digital image, and apparatus for authenticating the digital image from said apparatus, and method thereof
US6664976B2 (en) * 2001-04-18 2003-12-16 Digimarc Corporation Image management system and methods using digital watermarks
US7856414B2 (en) * 2001-03-29 2010-12-21 Christopher Zee Assured archival and retrieval system for digital intellectual property
US7136197B2 (en) * 2001-07-24 2006-11-14 Murata Kikai Kabushiki Kaisha Internet facsimile machine
US7269622B2 (en) * 2001-07-26 2007-09-11 International Business Machines Corporation Watermarking messaging sessions
US20030128389A1 (en) * 2001-12-26 2003-07-10 Eastman Kodak Company Method for creating and using affective information in a digital imaging system cross reference to related applications
US20040001606A1 (en) * 2002-06-28 2004-01-01 Levy Kenneth L. Watermark fonts
JP3873047B2 (ja) * 2003-09-30 2007-01-24 株式会社東芝 識別情報埋込装置、識別情報解析装置、識別情報埋込方法、識別情報解析方法及びプログラム
KR20050078767A (ko) * 2004-02-02 2005-08-08 삼성전자주식회사 디지털 영상 워터마킹 장치 및 그 방법
US7461090B2 (en) * 2004-04-30 2008-12-02 Microsoft Corporation System and method for selection of media items
US7525578B1 (en) * 2004-08-26 2009-04-28 Sprint Spectrum L.P. Dual-location tagging of digital image files
US9819490B2 (en) * 2005-05-04 2017-11-14 Invention Science Fund I, Llc Regional proximity for shared image device(s)
US20070033408A1 (en) * 2005-08-08 2007-02-08 Widevine Technologies, Inc. Preventing illegal distribution of copy protected content
US7765184B2 (en) * 2005-09-22 2010-07-27 Nokia Corporation Metadata triggered notification for content searching
WO2008032203A2 (en) 2006-09-17 2008-03-20 Nokia Corporation Method, apparatus and computer program product for a tag-based visual search user interface
US8131562B2 (en) * 2006-11-24 2012-03-06 Compressus, Inc. System management dashboard
US20080130058A1 (en) * 2006-12-04 2008-06-05 Chi-Chen Cheng Method of protecting digital data by utilizing an embedded watermark
US8166168B2 (en) * 2007-12-17 2012-04-24 Yahoo! Inc. System and method for disambiguating non-unique identifiers using information obtained from disparate communication channels
US20100214111A1 (en) * 2007-12-21 2010-08-26 Motorola, Inc. Mobile virtual and augmented reality system
US7925980B2 (en) * 2008-02-19 2011-04-12 Harris Corporation N-way multimedia collaboration systems
US8245124B1 (en) * 2008-03-20 2012-08-14 Adobe Systems Incorporated Content modification and metadata
KR20100077263A (ko) * 2008-12-29 2010-07-08 삼성전자주식회사 개인 정보 제공 장치 및 방법
US9020038B2 (en) * 2009-06-14 2015-04-28 Rafael Advanced Defense Systems Ltd. Systems and methods for streaming and archiving video with geographic anchoring of frame contents
WO2011014869A2 (en) * 2009-07-31 2011-02-03 Giiv, Inc. Method and system for giving a gift
US20110072085A1 (en) * 2009-09-18 2011-03-24 Standley Stjohn Event reconciliation system and method
JP5520585B2 (ja) * 2009-12-04 2014-06-11 株式会社ソニー・コンピュータエンタテインメント 情報処理装置
US8447136B2 (en) * 2010-01-12 2013-05-21 Microsoft Corporation Viewing media in the context of street-level images
US20110201356A1 (en) * 2010-02-18 2011-08-18 Palm, Inc. System and method for providing location data to mobile devices
US8489600B2 (en) * 2010-02-23 2013-07-16 Nokia Corporation Method and apparatus for segmenting and summarizing media content
WO2011114578A1 (ja) * 2010-03-19 2011-09-22 シャープ株式会社 測定装置および測定方法、ならびに、測定結果処理装置、測定システム、測定結果処理方法、制御プログラムおよび記録媒体
US20110282965A1 (en) * 2010-05-17 2011-11-17 Ifan Media Corporation Systems and methods for providing interactivity between a host and a user
CN101924992B (zh) * 2010-07-30 2013-11-20 中国电信股份有限公司 通过移动终端获取景物资讯的方法、系统和设备
US20120036140A1 (en) * 2010-08-05 2012-02-09 Certusview Technologies, Llc Methods and apparatus for analyzing locate and marking operations by comparing filtered locate and/or marking information
US20120033247A1 (en) * 2010-08-05 2012-02-09 Bernardo Joseph A Simultaneous digital image and associated image metadata printing system
US8793211B2 (en) * 2010-08-19 2014-07-29 International Business Machines Corporation System and method for secure information sharing with untrusted recipients
US8316155B2 (en) * 2010-12-17 2012-11-20 Microsoft Corporation Distributed robust clock synchronization
DE112011104787B4 (de) * 2011-01-28 2019-05-16 Hewlett-Packard Development Company, L.P. Nutzung von Inhalten über persönliche Clouds
US8712208B2 (en) * 2011-05-24 2014-04-29 Hewlett-Packard Development Company, L.P. Storing a location within metadata of visual media
CN102194007B (zh) * 2011-05-31 2014-12-10 中国电信股份有限公司 获取移动增强现实信息的系统和方法
WO2013051061A1 (en) * 2011-10-05 2013-04-11 Hitachi, Ltd. Computer

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1169136A (ja) * 1997-08-19 1999-03-09 Canon Inc 画像処理装置及び方法及び記憶媒体
JP2004078429A (ja) * 2002-08-13 2004-03-11 Nec Corp 電子チケットシステム、方法、サーバ、プログラム及び検札装置
JP2007179202A (ja) * 2005-12-27 2007-07-12 Canon Marketing Japan Inc 電子帳票サーバ、クライアント、電子帳票システム、情報提供方法、情報利用方法、サービス提供方法、サーバプログラム、クライアントプログラム及び記憶媒体
US20100262924A1 (en) * 2009-04-08 2010-10-14 Kalu Onuka Kalu System and method for linking items to a group
JP2011128977A (ja) * 2009-12-18 2011-06-30 Aplix Corp 拡張現実感提供方法及び拡張現実感提供システム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017040980A (ja) * 2015-08-17 2017-02-23 コニカミノルタ株式会社 コンテンツ提供サーバ、コンテンツ提供方法、およびコンピュータプログラム
US10841531B2 (en) 2018-10-18 2020-11-17 Fujitsu Limited Display control apparatus and display control method
WO2020175599A1 (ja) * 2019-02-28 2020-09-03 株式会社NearMe プログラム、情報処理方法及びサーバ装置
JPWO2020175599A1 (ja) * 2019-02-28 2021-04-30 株式会社NearMe プログラム、情報処理方法及びサーバ装置
JP6996805B2 (ja) 2019-02-28 2022-01-17 株式会社NearMe プログラム、情報処理方法及びサーバ装置
US11902853B2 (en) 2019-02-28 2024-02-13 NearMe Inc. Non-transitory computer readable recording medium, information processing method, and server device for providing region information

Also Published As

Publication number Publication date
WO2013068429A1 (en) 2013-05-16
US20130129252A1 (en) 2013-05-23
KR20140093974A (ko) 2014-07-29
US9183604B2 (en) 2015-11-10
IN2014CN03530A (ja) 2015-07-03
CN104081389A (zh) 2014-10-01
EP2776951A1 (en) 2014-09-17

Similar Documents

Publication Publication Date Title
US9183604B2 (en) Image annotation method and system
KR101869473B1 (ko) 공유된 관심사를 갖는 메시지들의 갤러리
KR102094065B1 (ko) 메시지의 우선 순위 지정
US20200021734A1 (en) System for publishing digital images
US9015759B2 (en) Interactive map and related content for an entertainment program
KR20200033999A (ko) 메시지의 우선 순위 지정
US20130218680A1 (en) Location sensitive advertisement delivery and presentation
US20210056762A1 (en) Design and generation of augmented reality experiences for structured distribution of content based on location-based triggers
US20150106183A1 (en) Method and process for automatic social coupon code generation and tracking in a template-based local promotion system
CN107256492A (zh) 广告与应用之间的交互
KR20140143777A (ko) 증강 현실 통신 및 정보의 방법
CN103945008A (zh) 一种网络信息分享的方法及装置
KR101342122B1 (ko) 스마트폰을 이용한 멀티미디어 개인 홍보물 제공 시스템 및 방법
KR20160064711A (ko) 모바일 sns를 이용한 위치기반의 민원 공유 서비스 시스템 및 방법
US20160267068A1 (en) System, method and process for multi-modal annotation and distribution of digital object
US10163134B2 (en) Platform content moderation
KR101027155B1 (ko) 동영상 정보에 구간별로 부가 정보를 제공하는 방법
WO2012155179A1 (en) Method in a computing system
KR20140042648A (ko) 채팅 제공 방법 및 시스템
JP2009211422A (ja) コンテンツ配信サーバ、コンテンツ配信プログラム、およびコンテンツ配信方法
CN108596662B (zh) 信息推送方法及设备
US10311620B1 (en) System and method for creating multi-sided digital images
US20130268869A1 (en) Virtual messaging
KR20130142822A (ko) 모바일 기기를 기반으로 하는 앨범 공유 서비스를 제공하는 방법 및 그 서버
KR20210003516A (ko) 증강현실을이용한광고서비스시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160701

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161213