JP2016500959A - 画像キャプチャおよび容易なアノテーションのための方法およびシステム - Google Patents

画像キャプチャおよび容易なアノテーションのための方法およびシステム Download PDF

Info

Publication number
JP2016500959A
JP2016500959A JP2015537150A JP2015537150A JP2016500959A JP 2016500959 A JP2016500959 A JP 2016500959A JP 2015537150 A JP2015537150 A JP 2015537150A JP 2015537150 A JP2015537150 A JP 2015537150A JP 2016500959 A JP2016500959 A JP 2016500959A
Authority
JP
Japan
Prior art keywords
image
captured
data
mark
hidden
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015537150A
Other languages
English (en)
Inventor
リム,ロラン
モネ,マティウ
エイエ,セルジュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vidinoti SA
Original Assignee
Vidinoti SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vidinoti SA filed Critical Vidinoti SA
Publication of JP2016500959A publication Critical patent/JP2016500959A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area

Abstract

【課題】既存ARシステムの問題点を解決、軽減する。【解決手段】画像をキャプチャ/処理する方法が、画像センサでの画像のキャプチャと;キャプチャ画像内に隠されたステガノグラフィックマークのリトリーブと;前記隠しマークに基づいてキャプチャ画像を処理して、処理済み画像を生成することと;処理済み画像を、1組の基準画像由来の基準画像とマッチングし、前記基準画像に応じてキャプチャ画像上に要素を重ね合わせることとを含む。またユーザーデバイス(10)が、少なくとも1つの画像をキャプチャするのに適した画像センサ(12)と;キャプチャ画像内の隠しマーク(30)をリトリーブするように構成され、隠しマークのリトリーブに基づく処理済み画像を生成し、かつリモートで処理されたアノテーションを包含させるプロセッサ(13)とを含む。ユーザーデバイスは画像をマッチングする遠隔サーバ(20)を伴うシステムの一部である。【選択図】図5

Description

本発明は、画像キャプチャおよび容易なアノテーションのための方法およびシステムに関する。さらには、本発明は、以下で提示する方法のステップを実施するのに適したコンピュータプログラム製品も取扱う。
国際公開第2012/019163号は、携帯電話によって静止またはビデオ画像がキャプチャされ、ビデオディスプレイサイズに対応する矩形部分がリトリーブされ、次にこのような部分内の隠しマークが識別される方法を開示している。
国際公開第2011/088386号は、コンテンツオーサリングシステムによって予め包含させられた隠しデータを含むキャプチャ画像(captured image)の現実感を拡張する方法を開示している。
さらに米国特許出願公開第2007/0024527号明細書は、1つの画像が、携帯電話によりキャプチャされ、隠しコンテンツ包含に付された後、このような隠しコンテンツと共に遠隔ユニットに送られる方法を開示している。
同様に、国際公開第2011/156475号は、位置に関する隠しコンテンツを1つの画像の内部に包含させる方法を開示している。そのような画像は、携帯電話によってキャプチャされ得る。この文書はさらに、ひとたび携帯電話により表示された時点で、キャプチャ画像上に位置依存型情報をオーバーレイさせることを開示している。
拡張現実(augmented reality)のソリューションにおいては、画像は一般にユーザーによりハンドヘルドカメラ、例えばカメラを伴う携帯電話を用いてキャプチャされ、コレクション内に記憶された基準画像と比較される。マッチした場合、すなわちキャプチャ画像が予め記憶された基準画像の1つに一致した場合、この基準画像に結びつけられたアノテート用要素がリトリーブされ、該キャプチャ画像上に重ね合わされて、結果として、アノテートされた画像が得られる。
基準画像の数は非常に多い可能性があることから、ユーザーのデバイス内でローカルに基準画像の全コレクションを記憶することは、通常実現不可能である。その上、多くの場合、異なるユーザーが基準画像を追加、修正および共有でき、その結果として基準画像のコレクションが非常に頻繁に更新されることが望ましい。したがって、キャプチャ画像は遠隔サーバーに頻繁に送られ、ここで基準画像は記憶され、レジストレーションおよびマッチングプロセスが行なわれる。
この一般的に使用されている方法には、多くの欠点がある。ユーザーのユーザーデバイスは、キャプチャ画像のどれがアノテーションと結びつけられるかを知らないことから、このデバイスは遠隔サーバーに対し全てのキャプチャ画像を送る必要があり、この遠隔サーバーは次に、キャプチャされ伝送された各画像を、そのコレクション内の各々の基準画像とマッチさせようとする。ビデオ画像の場合、この結果として、多くのフレームがいずれの基準画像ともマッチせずアノテートされ得ず、したがって帯域幅を浪費するビデオストリームの無駄な伝送がもたらされる。その上、この結果として、基準画像と共に受け取る多数の無関係な画像を処理する必要がある遠隔サーバーの作業負荷の増大も発生する。
他の公知のシステムでは、送信指令を選択することによってサーバーに対するキャプチャ画像の伝送を開始させるユーザーからのアクションが求められる。このためには、ユーザーがどのキャプチャ画像がアノテーションと結びつけられる確率が高いかを知る必要があり、そしてどの画像を送るべきかを決定する必要がある。
遠隔サーバーの作業負荷は、受信した画像のキャプチャ条件が基準画像のキャプチャ条件と異なる場合、さらに一層増大する。例えば、画像が異なる距離および/または角度からキャプチャされている場合、サーバーは、レジストレーションを行って、考えられるマッチを確認するために、受信した画像をトリミング(crop)、回転および/または他の形で歪める(distort)必要があるかもしれない。キャプチャ画像および基準画像内で、異なるズーム比、明度、コントラスト、彩度、ホワイトバランスなどの釣り合いをとるために、他の調整が必要となる場合もある。しかしながら受信した多数のキャプチャ画像をリアルタイムで認識することには、莫大な処理能力が求められる。その上、サーバーはキャプチャ画像をどのようにレジストレーションすべきかを予め知らず、例えば考えられる異なる形でキャプチャ画像をトリミングするかまたはリサイジングすることなどによる異なる調整を必要とする可能性がある。
したがって、本発明の目的は、既存の拡張現実(augmented reality)システムの上述の問題点を解決するかまたは少なくとも軽減することにある。
1つの態様によると、これらの目的は、画像センサーを用いて画像を表わすキャプチャデータ(captured data)を得るステップと;前記キャプチャデータ内に隠されたステガノグラフィックマークをリトリーブするステップと;前記隠しマークに基づいて前記キャプチャデータを画像処理して、修正された画像を表わす画像処理済みデータを生成するステップと;前記画像処理済みデータと、種々の画像を表わす1組の基準データ由来の基準データとをマッチングするステップと;マッチした基準データに結びつけられたアノテーションをリトリーブするステップと;前記画像処理済みデータに基づいて、アノテートされた画像をレンダリングするステップと、を含む方法によって達成される。
これには、キャプチャ画像のうちの隠しマークと結びつけられたものしか処理する必要がないという利点がある。隠しマークは、例えばユーザーのデバイス内部の1モジュールによって、容易に検出され得る。したがって、ユーザーのデバイスは、これらの隠しマークのうちの1つを含みしたがって基準画像とマッチする確率の高いこれらの画像を選別し、これらの画像のみを遠隔サーバーに送り、結果として伝送すべきデータ量を削減することができる。
ステガノグラフィックマークは画像の中に隠されていることから、これらのマークは、一定の特殊な画像処理無しでは不可視であり、したがって、既存の静止またはビデオ画像内に容易に統合される。
特許請求の範囲に記載されている方法には、キャプチャ画像を表わすデータが、隠しマーク内に包含された情報を用いて処理され、その結果、画像処理済みデータは基準画像を表わすデータとより容易にマッチできることになるというさらなる利点がある。例えば、隠しマークは、対応する基準画像とマッチさせるためにキャプチャ画像をどのようにしてリサイズ、トリミング、回転または他の形で変形すべきかを決定するために使用されてよい。
一実施形態において、隠しマークは、キャプチャすべき画像の少なくとも1つの境界を画定する。
一実施形態において、隠しマークは、画像の幾何学的歪みまたはホワイトバランス、コントラスト、彩度および/または明度を補正するために使用可能である。
これには、ひとたび処理された時点で結果として得られる画質を増強できるという利点がある。これはまた、画像データのキャプチャの質も改善し、例えばより安定した、より集中した(centred)かつ他の点で改良された画像データストリームを生成する。こうして、既存の基準画像データとのマッチングおよびレジストレーションプロセスは、より容易で、より高速に、そしてよりロバスト(robust)なものとなる。
隠しマークは、画像を安定化するかまたは他の形で画像処理するのに求められるデータを指示する必要しかない。アノテーション自体は、コンピュータビジョンおよびフィーチャ認識方法で決定される、画像の可視的コンテンツによって左右される。したがって、隠しマークを、極めて小さく容易に隠れるものにすることができる。しかしながら、隠しマーク内のアノテーションを決定するために使用される一部のコンテンツを隠すことも可能である。
一実施形態においては、キャプチャ画像を表わすデータの1つの中で隠しマークがリトリーブされるまで、ビデオ中の連続するフレームまたは連続する静止画像などの連続する画像が、カメラを用いてキャプチャされる。該プロセスには、隠しマークを含むキャプチャ画像のみを前記基準画像とマッチさせようと試みることが含まれる。いかなる隠しマークもない画像を表わすデータはサーバーに送られず、さらに処理されず、帯域幅および計算リソースの無駄は回避される。
1つの態様によると、これらの目的はまた、少なくとも1つの画像を表わすデータをキャプチャするのに適した画像センサーと、前記キャプチャ画像内の隠しマークをリトリーブするように構成され、前記隠しマークのリトリーブに基づき処理済み画像をローカル的に生成し、かつリモートで処理されたアノテーションをマッチングするプロセッサと、を含むユーザーデバイスによっても追求される。
これには、ユーザーデバイスが、画像マッチングを実施するために求められると思われる処理能力全体を必要とせず、対照的にユーザーデバイスは有利にも一種の「前処理(pre processing)」により遠隔のプロセッサを補助でき、こうして遠隔プロセッサとの間で往復して交換されるデータの量が削減されるという利点がある。
一実施形態において、ユーザーデバイスは画像を表示するのに適したディスプレイを含み、プロセッサは、ディスプレイ上に補助サインを出現させることによって隠しマークのリトリーブおよび画像のキャプチャにおいてユーザーを補助するように構成されている。
これには、拡張現実プロセスにユーザーを関与させるという利点があり、同時にこれは、ユーザーデバイスが、さらなる処理負担をひき起こすことなく外部の人間による支援によって隠しマークの少なくとも一部分を認識するのを助ける。
好ましくは、一実施形態において、補助サインは、前記隠しマークの自動完全識別に失敗した場合、および/または、ユーザーがそのカメラを移動できるかまたはズーム比を修正できるかまたは他の任意の考えられる方法でキャプチャ条件を変更して隠しマークのリトリーブおよび/またはキャプチャ画像のレジストレーションを改善できるということをデバイスが検出した場合に、ディスプレイ上に出現させられる。
一実施形態において、ユーザーデバイスは、隠しマークをローカル的に検出し、隠しマークを検出するために遠隔サーバーにこれらの画像を伝送する必要は全くない。
こうして、隠しマークはローカル的にかついかなるデータ伝送も無く検出され得ることから、有利にも処理負担は削減される。隠しマークの検出は、キャプチャ画像が一部のアノテーションと結びつけられておりこれらのアノテーションをリトリーブするためにローカル的にまたは遠隔サーバー内で処理されるべきか否かを決定するために使用可能である。
アノテーションプロセスは、デバイスの内部で、例えば該デバイス内に記憶されたまたはサーバーから検索された一部の基準モデルを用いて行なうか、あるいは基準モデルを記憶しかつキャプチャ画像またはキャプチャ画像の処理済みバージョンが送られる遠隔サーバー内で行なうことができる。
画像をローカル的に処理するかあるいはサーバー内で処理するかの決定は、隠しマークに左右される。あるいは、デバイスは、マッチする基準画像をローカル的に見い出そうと試み、マッチする基準画像をそのローカルメモリー内に見い出すことができなかった場合にはキャプチャ画像またはキャプチャ画像の画像処理済みバージョンを遠隔サーバーに送ってよい。
したがって、前述の目的はまた、画像を表すデータをキャプチャするのに適した画像センサーと前記データ内の隠しマークを識別するために配置されたプロセッサとを伴う少なくとも1つのユーザーデバイスと;
− 前記少なくとも1つのユーザーデバイスに対しデータを受信しかつ伝送して、前記ユーザーデバイスから伝送されたキャプチャ画像の少なくとも一部分を処理し、かつ前記ユーザーデバイスに対してアノテーションまたはアノテートされた画像を送るのに適した遠隔サーバーと、を含むシステムによって得られる。
こうして、有利にも該システムは、ユーザーデバイスを画像マッチングプロセスの計算量の負担から解放する外部サーバーから受信したデータに基づいてユーザーデバイスがアノテートされた画像を表示できるようにする。
隠しマークの識別は、周波数ドメイン、時間ドメインおよび/または空間ドメインというドメインのうちの少なくとも1つの中で実施される。
これには、たとえ画像キャプチャ条件が悪くても、あるいは静止画像または非静止画像がノイズの多い低品質のものであっても、あるいはキャプチャ精度(capturing precision)の他の希釈(dilution)効果が存在していても、隠しマークをリトリーブできるという利点がある。
最後に、上述の目的は、非一時的媒体支持体(non−transitory media support)上に記憶され、少なくとも1つのデータプロセッサに先に開示した方法のステップを実行させる命令を含んでいる、コンピュータプログラム製品によって得られる。
上述の特徴のもう1つの利点は、ユーザーのデバイスと遠隔サーバーとの間で伝送されるデータ量を削減することにある。
本発明は、一例として提供され図中に示されている一実施形態についての記述からより良く理解できるものである。
画像キャプチャおよびアノテーション用のシステムの全体図を示す。 図1のシステムの一部の詳細を示す。 システムが実施するアルゴリズムの各部分を含むフローチャートを示す。 隠しマーク識別方法の選択を描写するフローチャートである。 方法およびシステムの使用例を示す。
明確さを期して、本明細書中の「アノテーション(annotation)」という名詞は、画像の特定のフィーチャと結びつけられる少なくとも1つのワード、記号、顔文字、描画、ライン、矢印、ハイパーテキスト、音声、静止またはビデオ画像を意味する。アノテーションは可視的であるか、あるいは画像の通常の観察の間に知覚可能状態にされる。例えば、アノテーションは、アノテートされる画像上に重ね合わされ得る。
図1に表わされている通り、画像キャプチャおよびアノテーション用システムは、少なくとも1つの遠隔サーバー20と;非限定的にハンドヘルドデバイス、例えばパーソナル携帯電話、スマートフォン、タブレット、コンピュータ、通信インターフェースを伴うカメラ、カメラ付きヘルメット、カメラ付きゴーグル、コンタクトレンズまたは、可視光、赤外線および/または紫外線光をキャプチャするためのセンサーならびにディスプレイを含む人体に搭載される他のデバイスであり得るユーザーデバイス10とを含む。遠隔サーバー20および少なくとも1つのユーザーデバイス10は、画像を表わすデータおよび他のデータを交換するのに適している。本明細書中では遠隔サーバーと呼んでいるものの、これは、例えばクラウドサーバーまたは複数のサーバーを含めた画像処理およびデータ送受信を実施することのできる任意の遠隔処理システムでも同等に置換可能である。
詳細には、ユーザーデバイス10は、ディスプレイ11と、静止および/またはビデオ画像(例えばスライド、プレゼンテーション、ポートレート、広告、スポットを含む)をキャプチャすることのできる画像センサー12とを含む。ユーザーデバイスはまた、画像を表わすデータを処理することのできるプロセッサ13と、該画像を記憶するように構成されたメモリ14とを含む。プロセッサ13は、メモリ14内に記憶された適切なプログラムコードを実行することができる。WIFIおよび/またはセルラーインターフェースなどの送受信器15が、インターネットなどのネットワークを介してデバイス10と遠隔サーバー20またはクラウドサーバーを接続するため、そして遠隔サーバー20と無線でデータを交換するために使用可能である。この送受信器は、使用されるユーザーデバイス10の実際のカテゴリにしたがって適応させられ、可能な場合には公知のデータ送受信規格に適合するように設計される。
メモリー14内に記憶され、ユーザーのデバイス10中でプロセッサ13により実行されるプログラムコードは、例えば、ユーザーがユーザーのデバイス10中にダウンロードしインストールすることのできるアプリケーションソフトウェアまたはapp.を含み得る。プログラムコードはまた、デバイス10のオペレーティングコードの一部も含むことができる。プログラムコードはまた、例えばJava(登録商標)、JavaScript(登録商標)、HTML5コードなどを含めたブラウザ内で実行されるかまたはウェブページ内に埋込まれたコードを含むこともできる。プログラムコードは、例えばフラッシュメモリ、ハードディスクまたは任意のタイプの永久、半永久メモリなどの有形装置可読媒体(tangible apparatus readable medium)内に、コンピュータプログラム製品として記憶されてよい。
サーバー20は、例えば2Dおよび/または3D基準画像などの基準画像のコレクション、および/または1つまたは複数のグローバルモデルを記憶するためのストレージ21であって、例えばSQLデータベース、XMLドキュメントセット、画像セットなどのデータベースを伴うストレージ21と、例えばアノテーション方法において必要とされるオペレーションをマイクロプロセッサに実施させるためのコンピュータコードを伴うマイクロプロセッサなどのプロセッサとを含む。
ここで、方法の一実施例について記述する。
画像センサー12によりキャプチャされる静止画像またはビデオフレームの少なくとも一部は、本明細書中では同義語のステガノグラフィックマークによっても示されている、キャプチャ画像の画像処理に使用可能ないくつかの隠しマーク30を含んでいる。これらの隠しマークは、画像を処理するユーザーのデバイス10内でプロセッサ13により実行される適切なソフトウェアモジュールによって抽出され得るが、人間の目ではこれらの隠しマークに気付くことはできない。こうして、リーダまたはユーザーにこれらのマークの無い画像との差異を認識させることなく、ステガノグラフィックマーク内に多くの情報を記憶することができる。
例えば、図2に表わされているように、システム1によって検出可能である一部のマークは、例えばスクリーン上や、モニター上に投影されたまたは紙に印刷される静止画像またはビデオ画像などの画像61のコーナー30a〜30dを示すアライメントマークを表わすことができる。一部のマークはまた、テストパターンを表すこともでき、該テストパターンは例えば、明度および/またはホワイトバランスを調整するための基準グレーレベルや、幾何学的歪みを補正するためのラインなどの画像の他のパラメータを示す。一部の隠しマークはまた、画像が遠隔サーバー20から入手可能であるアノテーションと結びつけられていることを示すためだけに包含されていてもよい。例えば、一部の隠しマークは、隠しハイパーリンクを含んでいてよい。
さまざまなステガノグラフィー方法が先行技術において公知であり、異なるタイプのマークを隠すために使用可能である。例えば、マークを、人間の眼または脳が平均化(averages)する複数の後続するフレーム中に包含させることができ、あるいは、時間および/または空間および/または周波数ドメイン内に画像の知覚できないバリエーションとして包含することができる。
こうして、隠しマークを、空間ドメインにおけるピクセルの操作または変位を通して隠すことができるだけでなく、時間ドメインにおける連続するフレーム中のピクセルの操作により隠すこともできる。一部の隠しマークは、DFT(離散フーリエ変換)またはDCT(直接コサイン変換)方法などの画像データのフーリエ変換を通してのみ暴露されてよい。これらのマーク隠蔽方法を混合して、検出に対しよりロバストな隠しマークを提供することが可能である。
一例において、マークを画像中に隠すためおよびマークをリトリーブするためにDCT技術が使用される。マークを隠すためには、各画像を複数のブロックにカットする。次に離散コサイン変換DCTが、各ブロックに対し独立した形で適用される。一実施形態においては、3つの異なる種類のデータが3つのブロック内に隠されて、これら3つのブロックを幾何学的インサイト(geometric insights)として使用して後に画像平面をリトリーブすることができるようになっている。これら3つの異なる情報を3つの選択されたブロック内に隠すためには、最下位(least significant)DCTブロックの最下位ビット(least significant bit:LSB)のビットを巧妙に修正することができる。空間内でノーマルな平面を回復し、したがって、投影スクリーン平面に対し平行でない平面のカメラによって導入された任意のキーストーンを正すために、各ブロック内に埋込まれる必要があるのは、わずか2つの情報ビットにすぎないと考えられる。より多くのブロックおよび/または各ブロック内のより多くのビットを修正することによって、追加の情報を隠すことができる。
隠しマークはまた、「拡張(extended)隠しマーク」でもあり得る。広告を含む新聞の場合を仮定する。この場合、画像の寸法が潜在的に小さいこと、画像のテクスチャが欠如していることおよび、それに付随して画質が低いことに起因して、ステガノグラフィックサインを正しく認識することが困難であり得る。こうして、拡張隠しマークは、キャプチャすべき画像それ自体の中に隠すことができるだけでなく、少なくとも部分的に、その周囲、キャプチャされるべき画像を取り囲むテクスチャエリアを含めた該周囲の中にも隠すことができる。このようにして、キャプチャされるべき画像内に含まれる隠しデータは、実際には以上で命名された拡張隠しマークを含む完全な隠しデータの一部にすぎない。
図3に示されているように、システムは、ユーザーデバイス10とサーバー20との間で交換されるデータ量を可能なかぎり削減する一方で、画像センサー12によってキャプチャされた画像上にデータをアノテートする可能性を伴って、容易なイメージフォーカシング(image focusing)、ぼけ修正、安定化(stabilization)、トリミングおよび/またはフロントプランニング(front‐planning)を導く方法を実施する。該アルゴリズムの詳細なオペレーションについて、以下で詳述する。該アルゴリズムのさまざまなステップが、ユーザーデバイス10またはサーバー20内のメモリーに記憶されたコンピュータプログラムによって都合よく実行可能である。
システムにより実施される該アルゴリズムの第1のステップ100は、ユーザーデバイス10を用いて画像センサー12を通して、画像、すなわち静止画像、またはビデオの1フレーム、または全ビデオを表わすデータをキャプチャすることである。キャプチャされたデータは、ユーザーデバイス10のメモリ14内に記憶される。
その後、次のステップ110は、キャプチャデータ内の隠しマーク30を検出することからなる。このステップ中、ユーザーデバイス10のプロセッサ13により実行されるモジュールは、キャプチャ画像を処理して隠しマーク(利用可能である場合)を抽出し、したがってその中に入っているデータをデコードする。
詳細には、図4に開示されている通り、画像上のステガノグラフィックマークは、複数の異なる方法にしたがって抽出可能である。このことは、ユーザーデバイス10のプロセッサ12により実行されるモジュールが、隠しマークをリトリーブするために、複数の方法の中から認識(方法)を自動的に選択することができる、ということを意味している。図4に示されているように、隠しマーク認識方法を選択するための第1のステップは、条件識別ステップ2000である。前記条件識別は、画像センサー12の集束距離、および/またはユーザーにより選択されるかまたはユーザーデバイス10のプロセッサ13により自動的に検出されるシーン/モード、および/または位置決めセンサーを用いて検出されるユーザーデバイスの位置、および/またはユーザーデバイスが受信した無線信号、例えばシーン内の1つのオブジェクトから受信した無線信号により左右され得る。
したがって、リトリーブされた少なくとも1つの条件を用いて、ユーザーデバイスのメモリーの内部に記憶されたプログラムコードにより実行され得る複数の識別方法の中から自動的に隠しマーク識別方法を選択する3000。
したがって、さらなるステップは、ステガノグラフィックマーク内に含まれるデータを抽出するためにキャプチャ画像に対して選択された識別方法を適用すること(ブロック4000)である。
ユーザーデバイス10は、キャプチャ画像を表わすデータにおける他のステガノグラフィックマークを識別することができ、マッチングおよびレジストレーションプロセスをより良く実現するためにこれを使用することができる。例えば、画像と結びつけられるステガノグラフィックマークは、日付、時刻、地理的位置特定(geolocalization)、画像タイプ、識別情報および概してステガノグラフィックメッセージとして画像内に記憶可能であるあらゆる種類の情報を示すことができる。この追加情報は、ユーザーデバイス10内で、または場合によっては遠隔サーバー20内でリトリーブされて、プロセスが画像を認識しかつ/またはこれらのマークに応じてアノテーションを変更するのを助けることができる。例えば、同じ画像を、これらの追加のステガノグラフィックマークに応じて異なるアノテーションと結びつけてもよい。
キャプチャされるべき1つまたは複数の画像の特定の位置または距離またはフィーチャに起因して、ユーザーデバイス10のプロセッサ13は、隠しマークの全セットの一部しか検出しないことがある。決定ブロック120の出口「イエス」に対応するこの場合においては、プロセッサ13により実行されるプログラムは、ユーザーデバイスのディスプレイ上またはビューファインダ内に補助サインを表示するかまたは可聴信号を出して、ユーザーに対して、隠しマークの全てそして望ましくはアノテーションすべき画像全体をキャプチャするために所与の方向に自らのデバイスを移動させるかまたは回転させるようにプロンプトするように構成されている(ブロック130、「コントロールサインを表示する」)。ユーザーはまた、リフォーカスすること、明度を調整すること、または隠しマークおよび画像全体のキャプチャを改善するために他の調整を行なうことのプロンプトを受けるかもしれない。焦点、明度および/または色の調整は、また、電子的にも制御可能であり、一方、設定値は、検出される隠しマークによって左右される。
他の補助サインは、ディスプレイ11上に出現するかまたは他の形でユーザーに提供され、そのキャプチャにおいてユーザーを支援してよい。例えば、1つの画像の検出された境界、または画像の一部の要素の境界がアウトライン化されるかもしれない。検出された要素は、隠しマークに基づいて他の形で強調されるかもしれない。ロゴ、ビデオ、広告がユーザーに対し表示されるかまたは他の形でレンダリングされて、ユーザーが、隠しマークを有し、したがって恐らくはアノテーションと結びつけられている1つのオブジェクトの画像を現在キャプチャしていることを知るような形で、隠しマークが検出されたことを示してもよい。したがって、ユーザーは、認識プロセスがシーンについての何か有用なことをすでに学習し始めたことを知る。隠しマークが、認識すべきオブジェクトのタイプ(例えば、2Dオブジェクト、3Dオブジェクト、顔、建物など)についての一部の情報をエンコードしている場合には、検出されたタイプに関連するアニメーションまたはイラストレーションがユーザーに対し提示され得る。
全獲得時間中に、ユーザーを助けるための信号を表示するかまたは他の形で提示して、ユーザーが、認識されるべき画像から離れるようにデバイスを移動させることなく常時同じ位置にユーザーデバイス10を向ける(pointing)のを助けることが可能である。ユーザーに対して提供され得るメッセージは、例えば、デバイスの振動、プロセッサがディスプレイに対して伝送するビデオ、画像に対しオーバーインポーズされるメッセージ、カメラが正しく配向されているか否かまたはどの方向にカメラを移動させるべきかを示すためのライン、矢印などの図形記号であり得る。
ステップ122において、ステップ100中にキャプチャされたデータは、ユーザーデバイス10内のソフトウェアモジュールによって画像処理されて、例えば非限定的に、より高度にフォーカスされた、再整列(realigned)、リサイズされたかまたはトリミング、ズーミング、色調適応、色変換、ノイズ除去、ぼけ修正、フロントプランニングまたは回転させられたものであり得る修正された画像に対応する画像処理済みデータを生成する。一態様によると、この画像処理は、ステップ110中に検出された隠しマークによって左右される。例えば、隠しマークがアノテートすべき矩形画像のコーナーを示す場合、ステップ122中に実施される画像処理には、これらのコーナーの外側の全てのエリアをトリミングして、問題のエリア(area of interest)のみを含む修正済み画像データを生成することが含まれていてよい。画像処理にはまた、例えば矩形の代りに台形を生成するカメラの配向に起因する、および/またはカメラのレンズに起因する幾何学的または光学的変形の補正も含まれていてよい。隠しマークが基準グレーまたは他の基準色を含むか、または基準グレーまたは他の基準色の計算を他の形で可能にするようにする場合、画像処理は、色補正された画像データ、例えばホワイトバランス、彩度、コントラストおよび/または明度などが補正されている画像を計算してよい。
ステップ125では、処理済み画像データに基づく画像記述が、ユーザーデバイス10内の適切なソフトウェアモジュールによって計算される。画像記述は、例えば画像のローカルフィーチャ、例えば高いエントロピーを有し1つの画像を高い信頼性で識別するフィーチャの記述子(descriptors)のリストを含んでいてよい。コンピュータビジョン技術において公知の通り、異なるタイプのフィーチャが使用されてよい。次に、これらのフィーチャの記述が計算される。記述子は好ましくは、ステップ122における画像処理の後に計算されることから、さらに信頼性の高い検出子が計算され、例えば、問題のゾーンの外側のエリアについての記述子は回避される。
ステップ140では、記述子のリストがサーバー20に送られ、これは場合によっては、GPS受信機によって示されるようなユーザーの位置特定(localization)、キャプチャされたオブジェクトから受信した信号によって示されるようなユーザーの位置特定、ユーザーが入力した選択、および/またはキャプチャデータからリトリーブされたデータに関する追加データと共に、すでにデコードされたステガノグラフィックマークを含めて、サーバー20に送られる。サーバー20は、次に、2Dまたは3Dモデルを含む基準画像のコレクション中のマッチする基準画像を見い出そうと試みる。キャプチャデータと比較すべき基準画像の選択は、ユーザーデバイスにより伝送される追加情報を使用することによって、かつ/または、一部の基準画像の持続時間(duration)が制限されている場合には時間に応じて、抑制され得る。マッチングは、画像全体に基づく代りに、フィーチャの記述に基づいて行うことができる場合に、より高速になる。
キャプチャデータを基準データとマッチングするために、異なるアルゴリズムを使用してよい。例えば、顔をマッチングするために第1のアルゴリズムを使用してよく、キャプチャデータと2D基準画像とをマッチングするために異なるアルゴリズムを使用してよく、キャプチャデータと3Dモデルとをマッチングするために第3のアルゴリズムを使用してよい、等々。最良のアルゴリズムの選択は、少なくとも部分的に、検出されたステガノグラフィックマークからリトリーブされた情報に基づいていてよい。例えば、1シーン内の1要素上の1つのステガノグラフィックマークは、そのシーンの3Dモデルが利用可能であることを示すことができ、3Dモデルに基づいて適切なアルゴリズムを選択するためにサーバによって使用され得る。
ステップ150では、1つまたは複数のマッチング基準画像がひとたび発見されると、サーバー20は、キャプチャ画像をマッチング基準画像またはモデルと整列させるためおよび、基準画像の座標系内のカメラ10の位置を決定するために、レジストレーションを実施する。
ステップ160では、マッチング基準画像と結びつけられたアノテーションのリストが、対応する画像の位置または結びつけられたフィーチャと共に、サーバー20により実行されるプログラムモジュールによって、ストレージ21からリトリーブされる。これらのアノテーションは、ユーザーデバイス10に送られる。代替的には、アノテートされた画像が送られる。
ステップ170では、アノテーションは、先に画像処理されたデータに付加され、テキスト、ビデオ、画像、音声またはハイパーリンクの形であり得るアノテーション530を伴う処理済み画像53を表わすデータが得られる結果となる。次に、修正されアノテートされた画像が、ディスプレイ11上に表示される。
本方法によると、ユーザーデバイスによってキャプチャされた画像は、ノイズが無く、正しい色を伴い、適正なズームを伴い、回転も、不要な部分もなく、あたかも同一平面内の方向でとられたかのように見えるように、可能なかぎり自動的に変換される。このようにして、画像、ストリーミングされたビデオ、プレゼンテーション、広告またはムービーの一部分の取り込みは、特に複雑なオペレーションまたはユーザーデバイス位置決めにユーザーを関与させることなく、容易になりかつ最終的品質は増強され、ユーザーをより充実した拡張現実へと導く。その上、これによりキャプチャ画像と基準画像とのマッチングプロセスは、より高速でよりロバストになる。
システムおよび方法の考えられる使用の一例について、ここで記述し、図5で図示する。この例においては、画像61が、プロジェクター60により壁に対して投影される。画像は例えば写真などの静止画像、テキストファイル、プレゼンテーション、映画などであり得る。それには、画像内にステガノグラフィにより隠されたいくつかの隠しマークを含む。
ユーザーは、プレゼンテーション(静止画像またはビデオのいずれか)を、そのユーザーデバイス10を用いてキャプチャする。しかしながら、プロジェクター60とデバイス10との間のミスアライメントに起因して、キャプチャ画像52内のプレゼンテーション61の画像は矩形ではなく、キーストーン(keystone)またはツームストン(tombstone)変形などのさまざまな幾何学的変形を含む。他の光学的変形は、プロジェクター60のレンズ、デバイス10内のカメラのレンズ、平坦でないかまたはプロジェクターからの投影ラインに対し直交していない投影表面などに起因するものであり得る。その上、ユーザーにとってユーザーデバイスで安定した画像をキャプチャするのは困難であり、そのため、キャプチャ画像は震えたものとなり、プレゼンテーションの画像の周りに多くの無関係なエリアを含む可能性がある。キャプチャ画像はまた、いくつかのホワイトバランス上および他のカラー上の問題を有する可能性がある。
記述した通り、キャプチャの質を改善するために、ユーザーのデバイス内でプロセッサにより実行されるプログラムは、キャプチャ画像52を表わすデータ内に隠されたステガノグラフィックマークを検出し、このデータを画像処理するための命令としてこれらのマークを使用し、こうして、安定化、トリミング、幾何学的調整または他の形での改善されたであろう画像を表わす修正済みデータを生成する。例えば、隠しマークが矩形表面の4つのコーナーを示す場合、プログラムは、これら4つのコーナーの外側の全てのエリアをトリミングし、内側部分を正して(redress)矩形にしてよい。
ユーザーデバイス内で実行されるプログラムは、これらの隠しマークを検出していることから、このプログラムは、キャプチャ画像がアノテーションと結びつけられていることも認識している。アノテーションまたはアノテートされた画像データは、このとき、ユーザーデバイス10内のローカルメモリーからか、あるいは遠隔サーバー20から、先に記述した方法を用いてリトリーブされる。このとき、アノテートされ修正された画像53が生成され、ユーザーデバイス10のディスプレイ11上に表示される。
一部の隠しマークはまた、完全な画像の特定の要素と結びつけられてもよい。例えば、人物またはオブジェクトの識別を、この要素に結びつけられたステガノグラフィックマークとして隠し、1ビデオの連続するフレーム上でこの人物またはオブジェクトを追跡するためにユーザーデバイス10内のプログラムにより使用することが可能である。
上述の方法のさまざまなオペレーションは、さまざまなハードウェアおよび/またはソフトウェアコンポーネント、回路および/またはモジュールなど、オペレーションを実施することのできる任意の適切な手段により実施されてよい。概して、本出願に記載のオペレーションはいずれも、オペレーションを実施することのできる対応する機能的手段によって実施され得る。さまざまな手段、論理ブロックおよびモジュールは、回路、特定用途向け集積回路(ASIC)または汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ信号(FPGA)または他のプログラマブル論理デバイス(PLD)、離散型ゲートまたはトランジスタロジック、離散型ハードウェアコンポーネントまたはここに記載の機能を実施するように設計されたこれらの任意の組合せを含めた(ただしこれらに限定されない)、さまざまなハードウェアおよび/またはソフトウェアコンポーネントおよび/またはモジュールを含んでいてよい。汎用プロセッサはマイクロプロセッサであってよいが、代替的には、プロセッサは、任意の市販のプロセッサ、コントローラー、マイクロコントローラまたは状態機械(state machine)であってよい。プロセッサは、また、計算デバイスの組合せ、例えばDSPとマイクロプロセッサの組合せ、複数のマイクロプロセッサ、DSPコアと併用した1つ以上のマイクロプロセッサ、または他の任意のこのような構成として実装されてもよい。サーバーは、単一の機械として、一組の機械として、仮想サーバーとして、またはクラウドサーバーとして実装されてよい。
ここで使用される「アノテーション」という用語は、例えばテキスト、静止画像、ビデオ画像、ロゴ、画像レイヤー、音声および/または1つの画像に重ね合わされるかまたは他の形で付加され得る他の要素を含めた、多様な考えられる要素を包含する。
ここで使用される「決定する」という用語は、多様なアクションを包含する。例えば、「決定する」という用語には、計算(calculating)する、コンピュータで計算(computing)する、処理する、導出(deriving)する、調査(investigating)する、参照(looking up)する(例えばテーブル、データベースまたは別のデータ構造内を参照する)、確定(ascertaining)する、推定(estimating)することなどが含まれる。同様に、「決定する」という用語は、受信する(例えば情報を受信する)、アクセスする(例えばメモリー内のデータにアクセスする)ことなども含む。同様に、「決定する」という用語には、解決(resolving)する、選択(selecting,choosing)する、設定(establishing)することなども含まれてよい。
シーンの一画像をキャプチャすることには、カメラの画像センサーに達する光の明度を測定するためのデジタルカメラの使用が関与する。
本開示に関連して記述された方法またはアルゴリズムのステップは、直接ハードウェアの形、プロセッサにより実行されるソフトウェアモジュールの形あるいは、その2つの組合せの形で実施されてよい。ソフトウェアモジュールは、当該技術分野において公知のあらゆる形態の記憶媒体内に存在していてよい。使用してよい記憶媒体の一部の例としては、ランダムアクセスメモリー(RAM)、読取り専用メモリー(ROM)、フラッシュメモリー、EPROMメモリー、EEPROMメモリー、レジスタ、ハードディスク、リムーバブルディスク、CD−ROMなどがある。ソフトウェアモジュールは、単一の命令または多くの命令を含んでいてよく、かつ、複数の異なるコードセグメントにわたり、異なる複数のプログラム間に、そして多数の記憶媒体を横断して分散させられてよい。ソフトウェアモジュールは、実行可能なプログラム、完全なプログラム内で使用される一つの部分、ルーチンまたはライブラリ、複数の相互接続されたプログラム、多くのスマートフォン、タブレットまたはコンピュータにより実行される「apps(アプリケーション)」、ウィジェット、フラッシュアプリケーション、HTMLコードの一部分などで構成されていてよい。記憶媒体は、プロセッサに結合されて、プロセッサが記憶媒体から情報を読出し、それに情報を書込むことができるようになっていてよい。代替的には、記憶媒体はプロセッサと一体化されていてよい。データベースは、SQLデータベース、XMLドキュメントセット、セマンティックデータベース、またはIPネットワーク上で利用可能な情報セットを含む任意の構造化されたデータコレクション、または他の任意の適切な構造として実装されてよい。
こうして、一部の態様には、ここで提示されたオペレーションを実施するためのコンピュータプログラム製品が含まれていてよい。例えば、このようなコンピュータプログラム製品は、命令が記憶された(および/またはコード化された)コンピュータ読取可能な媒体を含んでいてよく、これらの命令は、ここに記載のオペレーションを実施するため1つ以上のプロセッサによって実行可能である。一部の態様については、コンピュータプログラム製品は、パッケージングマテリアルを含んでいてよい。
クレームは、以上で例示した精確な構成およびコンポーネントに限定されるわけではないということを理解すべきである。クレームの範囲から逸脱することなく、以上に記載の方法および装置の配置、動作および詳細にさまざまな修正、変化および変更を加えてもよい。
10 ユーザーデバイス
11 ディスプレイ
12 画像センサー
13 プロセッサ
14 メモリ
15 送受信器
20 遠隔サーバー
21 ストレージ
30 隠しマーク
60 プロジェクター
国際公開第2012/019163号 国際公開第2011/088386号 米国特許出願公開第2007/0024527号明細書 国際公開第2011/156475号

Claims (22)

  1. 画像をキャプチャおよび処理するための方法であって、
    − 画像センサー(12)を用いてキャプチャ画像(52)を表わすデータをキャプチャするステップと;
    − 前記キャプチャデータ内に隠されたステガノグラフィックマーク(30)をリトリーブするステップと;
    − 前記隠しマークに基づいて前記キャプチャデータを画像処理して、修正された画像を表わす画像処理済みデータを生成するステップと;
    − 前記画像処理済みデータと、異なる画像を表わす1組の基準データ(21)由来の基準データとをマッチングするステップと;
    − 前記画像処理済みデータに基づいて、アノテートされた画像(53)をレンダリングするステップと;
    を含む方法。
  2. 前記キャプチャ画像がビデオ画像である、請求項1に記載の方法。
  3. 前記キャプチャ画像が静止画像である、請求項1に記載の方法。
  4. 前記ステガノグラフィックマーク(30)が、キャプチャすべき興味を引く部分の境界を画定するアライメントマークを含み、前記画像処理ステップには、前記画像をトリミングおよび/またはサイズ変更して前記マークに応じて前記処理済み画像を整列させるステップが含まれている、請求項1〜3のいずれか一つに記載の方法。
  5. 前記画像処理ステップが、前記隠しマークに基づいて幾何学的または光学的歪みを補正するステップを含む、請求項1〜4のいずれか一つに記載の方法。
  6. 前記画像処理ステップが、前記隠しマークに基づいて色を適応させるステップを含む、請求項1〜5のいずれか一つに記載の方法。
  7. 前記画像処理ステップが、前記隠しマークに基づいて、コントラストおよび/または彩度および/または明度を適応させるステップを含む、請求項1〜6のいずれか一つに記載の方法。
  8. 隠しマークがキャプチャ画像の1つの中でリトリーブされるまで、複数のキャプチャ画像を表わすデータをキャプチャするステップおよび、隠しマークを含む前記画像処理済みデータのみを前記基準画像とマッチさせるよう試みるステップとを含む、請求項1〜7のいずれか一つに記載の方法。
  9. 前記画像がユーザーデバイス(10)を用いてキャプチャされ、前記ステガノグラフィックマークをリトリーブし前記キャプチャ画像を処理するステップが前記ユーザーデバイス内で実施され、前記マッチングステップがリモートで実施される、請求項1〜8のいずれか一つに記載の方法。
  10. 前記キャプチャ画像のローカルフィーチャの記述子を前記ユーザーデバイス(10)内で計算するステップをさらに含む、請求項9に記載の方法。
  11. ユーザーに対して与えられる命令を決定するために前記隠しマークを使用するステップを含む、請求項1〜10のいずれか一つに記載の方法。
  12. 前記命令が、前記画像センサーを移動させる命令を含む、請求項11に記載の方法。
  13. 前記ステガノグラフィックマークをリトリーブするための複数の方法うちの1つの方法の選択を含み、前記選択が、
    − 画像センサー(12)の集束距離、
    − ユーザーによって選択されるかまたは自動的に検出されるシーン/モード、
    − シーンの1要素から受信された無線信号、
    − 位置、
    という条件のうちの少なくとも1つによって左右される、請求項1〜12のいずれか一つに記載の方法。
  14. 前記画像処理済みデータと基準データをマッチングするための複数の方法の中からの1つの方法の選択を含み、前記選択が、1つの前記ステガノグラフィックマークからリトリーブされた情報に左右される、請求項1〜13のいずれか一つに記載の方法。
  15. 少なくとも1つの画像を表わすデータをキャプチャするのに適した画像センサー(12)と、キャプチャデータ内の隠しマーク(30)を少なくとも部分的にリトリーブするようにプログラミングされ、前記隠しマークのリトリーブに基づき画像処理済みデータを生成し、かつ遠隔サーバー(20)から受取ったアノテーション(530)を包含させるプロセッサ(13)と、を含む装置(10)。
  16. 前記キャプチャデータまたは前記キャプチャデータからリトリーブされたフィーチャを遠隔サーバ(20)に伝送するのに、および前記サーバーから前記アノテーションを受取るのに適した送受信段(15)を含む、請求項15に記載の装置。
  17. 処理には、前記データのフォーカシング、ズーミング、トリミング、ホワイトバランシング、コントラスディングまたはカラーリングの中の1つまたは複数のものが含まれる、請求項15または16に記載の装置。
  18. 画像を示すのに適したディスプレイ(11)を含み、前記プロセッサ(13)が、補助サインをディスプレイ(11)上に出現させることによって隠しマークリトリーブにおいてユーザーを補助するようにプログラミングされている、請求項16または17に記載の装置。
  19. 一部の要求された隠しマークが画像の外にある場合、ディスプレイ(11)上に前記補助サインを出現させて、ユーザーに対しどのように装置を移動させるかを指示する、請求項18に記載の装置。
  20. 前記補助サインをディスプレイ(11)上に出現させて、1つの要素の境界の画像の境界をアウトライン化する、請求項18または19に記載の装置。
  21. − 画像をキャプチャし、前記画像内の隠しマークを識別するのに適した画像センサー(12)を伴う少なくとも1つの装置(10)と;
    − 前記少なくとも1つの装置との間でデータを受信しかつ伝送して、前記装置から伝送されたキャプチャ画像の少なくとも一部分を処理し、かつ前記装置に対してアノテーションまたはアノテートされた画像を送るための遠隔サーバー(20)と、
    を含むシステム。
  22. 非一時的媒体支持体に記憶され、少なくとも1つのデータプロセッサに請求項1〜14のいずれか一つに記載の方法の各ステップを実行させる命令を含んでいる、コンピュータプログラム製品。
JP2015537150A 2012-10-16 2012-10-16 画像キャプチャおよび容易なアノテーションのための方法およびシステム Pending JP2016500959A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2012/070515 WO2014060025A1 (en) 2012-10-16 2012-10-16 Method and system for image capture and facilitated annotation

Publications (1)

Publication Number Publication Date
JP2016500959A true JP2016500959A (ja) 2016-01-14

Family

ID=47146348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015537150A Pending JP2016500959A (ja) 2012-10-16 2012-10-16 画像キャプチャおよび容易なアノテーションのための方法およびシステム

Country Status (5)

Country Link
EP (1) EP2909792A1 (ja)
JP (1) JP2016500959A (ja)
KR (1) KR20150082204A (ja)
CN (1) CN104871179A (ja)
WO (1) WO2014060025A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016099527A1 (en) 2014-12-19 2016-06-23 Hewlett-Packard Development Company, L.P. Determine image capture position information based on a quasi-periodic pattern
US10417515B2 (en) * 2017-01-09 2019-09-17 Microsoft Technology Licensing, Llc Capturing annotations on an electronic display
WO2019072492A1 (en) * 2017-10-10 2019-04-18 Lumileds Holding B.V. COUNTERFEIT DETECTION IN A LIGHT ENVIRONMENT
EP3864570A1 (en) * 2018-10-10 2021-08-18 DeLaval Holding AB Animal identification using vision techniques
CN115442503B (zh) * 2022-08-18 2023-10-31 江苏护理职业学院 一种图像捕获装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005123974A (ja) * 2003-10-17 2005-05-12 Kyodo Printing Co Ltd 電子透かし検出システム及び電子透かし検出方法並びに情報提供システム及び情報提供方法
JP2005215922A (ja) * 2004-01-29 2005-08-11 Zeta Bridge Corp 情報検索システム、情報検索方法、情報検索装置、情報検索プログラム、画像認識装置、画像認識方法および画像認識プログラム、ならびに、販売システム
WO2011139980A1 (en) * 2010-05-05 2011-11-10 Digimarc Coporation Hidden image signaling

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005114476A1 (en) * 2004-05-13 2005-12-01 Nevengineering, Inc. Mobile image-based information retrieval system
US20060045321A1 (en) * 2004-08-24 2006-03-02 Chen-Yu Enterprises Llc Bank check and method for positioning and interpreting a digital check within a defined region
JP4591211B2 (ja) * 2005-05-31 2010-12-01 富士ゼロックス株式会社 画像処理装置、画像処理方法、媒体、符号読取装置、及びプログラム
US8933889B2 (en) 2005-07-29 2015-01-13 Nokia Corporation Method and device for augmented reality message hiding and revealing
JP2007267197A (ja) * 2006-03-29 2007-10-11 Fujitsu Ltd 画像処理方法、画像処理装置、および印刷物
US8565815B2 (en) * 2006-11-16 2013-10-22 Digimarc Corporation Methods and systems responsive to features sensed from imagery or other data
US8175617B2 (en) * 2009-10-28 2012-05-08 Digimarc Corporation Sensor-based mobile search, related methods and systems
CN105701189B (zh) 2010-01-15 2019-06-25 数字标记公司 与信号丰富艺术品有关的方法和配置方案
WO2011156475A1 (en) 2010-06-08 2011-12-15 Wms Gaming, Inc. Augmented reality for wagering game activity
US8781152B2 (en) 2010-08-05 2014-07-15 Brian Momeyer Identifying visual media content captured by camera-enabled mobile device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005123974A (ja) * 2003-10-17 2005-05-12 Kyodo Printing Co Ltd 電子透かし検出システム及び電子透かし検出方法並びに情報提供システム及び情報提供方法
JP2005215922A (ja) * 2004-01-29 2005-08-11 Zeta Bridge Corp 情報検索システム、情報検索方法、情報検索装置、情報検索プログラム、画像認識装置、画像認識方法および画像認識プログラム、ならびに、販売システム
WO2011139980A1 (en) * 2010-05-05 2011-11-10 Digimarc Coporation Hidden image signaling

Also Published As

Publication number Publication date
WO2014060025A1 (en) 2014-04-24
CN104871179A (zh) 2015-08-26
EP2909792A1 (en) 2015-08-26
KR20150082204A (ko) 2015-07-15

Similar Documents

Publication Publication Date Title
US9094616B2 (en) Method and system for image capture and facilitated annotation
CN105981368B (zh) 在成像装置中的照片构图和位置引导
US9398210B2 (en) Methods and systems for dealing with perspective distortion in connection with smartphone cameras
US9591237B2 (en) Automated generation of panning shots
JP4743892B2 (ja) 撮影画像に付加画像を重畳させて表示する端末及びプログラム
US9756260B1 (en) Synthetic camera lenses
US9554060B2 (en) Zoom images with panoramic image capture
KR102450236B1 (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
JP2016500959A (ja) 画像キャプチャおよび容易なアノテーションのための方法およびシステム
WO2018042074A1 (en) A method, apparatus and computer program product for indicating a seam of an image in a corresponding area of a scene
JP6283329B2 (ja) 拡張現実対象認識装置
JP2016082469A (ja) 撮像抽出装置
US20140105450A1 (en) System and method for targeting and reading coded content
WO2020261546A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
KR101915578B1 (ko) 시점 기반 오브젝트 피킹 시스템 및 그 방법
US10282633B2 (en) Cross-asset media analysis and processing
US11825191B2 (en) Method for assisting the acquisition of media content at a scene
JP2016091193A (ja) 画像処理装置、画像処理方法およびプログラム
US10013736B1 (en) Image perspective transformation system
US9058674B1 (en) Enhancing resolution of single images
US20200073967A1 (en) Technique for saving metadata onto photographs
KR102217198B1 (ko) Html 컨텐츠를 표현하는 증강 현실 제공 장치 및 방법
US20180232594A1 (en) Metadata based interest point detection
JP2013223133A (ja) 誘導装置、誘導方法、及び誘導プログラム
WO2015146237A1 (ja) 静止画の関連情報検出装置,検出方法,検出プログラムならびにそのプログラムを格納した記録媒体

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20160212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160906

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170328