JP2014513836A - カラー・チャネルおよび光マーカー - Google Patents

カラー・チャネルおよび光マーカー Download PDF

Info

Publication number
JP2014513836A
JP2014513836A JP2014506612A JP2014506612A JP2014513836A JP 2014513836 A JP2014513836 A JP 2014513836A JP 2014506612 A JP2014506612 A JP 2014506612A JP 2014506612 A JP2014506612 A JP 2014506612A JP 2014513836 A JP2014513836 A JP 2014513836A
Authority
JP
Japan
Prior art keywords
light
computing device
color
camera
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014506612A
Other languages
English (en)
Other versions
JP5961249B2 (ja
JP2014513836A5 (ja
Inventor
スグデン,ベンジャミン・ジェイ
ソルター,トーマス・ジー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014513836A publication Critical patent/JP2014513836A/ja
Publication of JP2014513836A5 publication Critical patent/JP2014513836A5/ja
Application granted granted Critical
Publication of JP5961249B2 publication Critical patent/JP5961249B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

カラー・チャネル光マーカー技法について記載する。1つ以上の実施態様において、カメラから得られた複数のカラー・チャネルを調べる。これらカラー・チャネルの各々が表現する光マーカーは、カラー・チャネルの他のものが表現する他の光マーカーとは異なるスケールを有する。複数のカラー・チャネルのそれぞれにおいて少なくとも1つの光マーカーを識別し、識別した光マーカーを用いて、光基準を計算する。この光基準は、計算デバイスの一部の少なくとも位置または向きを記述するために使用可能である。
【選択図】図1

Description

[0001] 計算デバイスによって利用される表示技法は、常に発展しつつある。例えば、初期の計算デバイスには、白黒モニターが設けられていた。ユーザーは、この白黒モニター上で単純なテキストを見て、キーボードを通じてテキストを入力し、このテキストがモニター上で見ることができることによって、計算デバイスと対話処理をしていた。
[0002] 次いで、表示技法は、カラーおよびグラフィカル・ユーザー・インターフェースの使用に拡大した。これらの技法は、例えば、カラーを用いて、ファイル、計算デバイスに接続されているデバイス、画像等を表すグラフィクスを示すために利用することができる。次いで、ユーザーは、キーボードを用いて、更にはマウスのようなカーソル制御デバイスを用いることによって、グラフィカル・ユーザー・インターフェースと対話処理することができるようになった。
[0003] 表示技法は、三次元テレビジョンを視聴するためのめがねの使用、仮想技術の使用等によるというようにして、発展し続けている。しかしながら、これらの技法を実現するにあたって複雑さが生ずることもあり、従前からの計算デバイスによってこれらの技法を実現することが難しい場合もある。
[0004] カラー・チャネル光マーカー技法について記載する。1つ以上の実施態様では、カメラから得られた複数のカラー・チャネルを検査する。これらのカラー・チャネルの各々が表現する光マーカーは、他のカラー・チャネルにおいて表現されている他の光マーカーとは異なるスケール(scale)を有する。複数のカラー・チャネルのそれぞれにおいて、少なくとも1つの光マーカーを識別し、この識別した光マーカーを用いて、光基準(optical basis)を計算する。光基準は、計算デバイスの一部の少なくとも位置または向きを記述するために使用可能である。
[0005] 1つ以上の実施態様では、装置は、第1光タグと、第2光タグとを含む。第1光タグは、計算デバイスのカメラによって第1距離において解明可能であり、第1カラーを用いて表現される。第2光タグは、計算デバイスのカメラによって第1光タグが解明できない第2距離において解明可能である。第2光タグは、第1カラーとは異なる第2カラーを用いて表現される。
[0006] 1つ以上の実施態様では、装置は、カメラと、ディスプレイ・デバイスと、1つ以上のモジュールとを含む。1つ以上のモジュールは、カメラの赤チャネルから第1画像、カメラの緑チャネルから第2画像、カメラの青チャネルから第3画像を得るように構成されている。また、1つ以上のモジュールは、第1、第2、または第3画像の内どれが、1つ以上のモジュールによって解明可能な光マーカーを表現するか特定し、本装置の少なくとも一部の位置または向きを判定し、本装置の少なくとも一部の位置および向きを記述する基準を計算し、この計算した基準を用いてディスプレイ・デバイスによって表示する拡張現実表示を生成するように構成されている。
[0007] この摘要は、詳細な説明の章において以下で更に説明する概念から選択したものを簡略化された形式で紹介するために、設けられている。この摘要は、特許請求する主題の主要な特徴や必須の特徴を特定することを意図するのではなく、特許請求する主題の範囲を判断する際に補助として使用されることを意図するのでもない。
[0008] 添付図面を参照して、詳細な説明を記載する。図では、参照番号の内一番左側にある数字(1つまたは複数)が、その参照番号が最初に現れる図を特定する。同じ参照番号が説明および図において異なる場合に用いられるときは、同様の項目または同一の項目を示すことがある。
図1は、本明細書において説明する拡張現実技法を採用するために動作可能な一実施態様例における環境の図である。 図2は、計算デバイスのための基準生成に採用した場合における図1の拡張リアリティ・モジュールを更に詳細に示す、一実施態様例におけるシステムの図である。 図3は、異なるサイズおよびカラーを有する複数のARタグから形成した複合拡張現実(AR)タグを示す、一実施態様例における装置を示す。 図4は、計算デバイスの少なくとも一部に対する光基準を計算するためにカラー・チャネル技法を利用する一実施態様例における手順を示す流れ図である。 図5は、赤、緑、および青カラー・チャネルから光マーカーの分解能(resolution)に基づいて拡張現実表示を生成する、一実施態様例における手順を示す流れ図である。
全体像
[0014] 本明細書の例では、拡張現実技法について説明する。拡張現実技法は、音響またはグラフィクスのようなコンピューター生成出力を用いて拡張した、実世界環境の場面(view)を生成するために利用することができる。このように、ユーザーの実世界視野(view)は、計算デバイスによって生成された感覚的入力を含むことができ、このためにユーザーの体験を向上させることができる。
[0015] 以下の論述では、光マーカーおよびカラー・チャネルの使用を伴う拡張現実技法について説明する。例えば、ユーザーのメディア・ルームのような、計算デバイスの物理的環境の画像を取り込むために、カメラを利用することができる。次いで、この画像を分析して、物理的環境に対するカメラの位置および/または向きの指示を与えるマーカーを突き止めることができる。拡張現実タグ(ARタグ)は、例えば、カメラとこれらのタグとの間の距離を示すため、更にはタグに対する向きを示すために用いることができる。このように、画像は、物理的環境におけるカメラの向きおよび/または位置を判定するための光基準を計算する役割を果たすことができる。
[0016] しかしながら、従前のARタグでは、これらのタグがカメラによって解明可能な範囲が非常に限られていた。例えば、カメラは所与の分解能を有するはずであり、従前のARタグは、カメラとARタグとの間の限られた距離範囲においてタグがカメラによって解明可能となるように、通例1つのスケールで形成されていた。つまり、設計者は、従来、カメラおよびARタグの典型的な動作範囲を決めるように強制されていたのであり、ARタグおよび計算デバイスの設計対象になっていない他の範囲では、この技法の有用性が妨げられることにもなり得る。
[0017] したがって、本明細書では、多数のARタグを重ねる(overlay)ことができる技法について記載する。更に、これらのタグは、計算デバイスによって解明可能なカラー・チャネルに対応するために異なるスケールおよびカラーを採用することができる。例えば、計算デバイスは、赤、緑、および青チャネルをサポートするカメラを含むことができる。これらのカラーを有するARタグは、これらのカラーに対応する異なるスケールをサポートする複合ARタグとして重ねることができる。例えば、大きなスケールのARタグは赤に着色することができ、中間スケールのARタグは緑に着色し、赤いARタグの上に重ねることができる。同様に、小さいスケールのARタグは青に着色することができ、赤および緑のARタグと共に重ねることができる。次いで、カメラは、複合タグの画像を取り込み、別々の赤チャネル、緑チャネル、および青チャネルを用いて、大きなタグ、中間タグ、または小さいタグの1つ以上を解明することができる。このように、計算デバイスによるARタグの有効範囲は、これらの異なる範囲を用いることによって、複合タグの全体的なサイズを拡大することなく、三倍に広げることができる。当然、他のカラーの例や光マーカー技法も考えられ、これらについてのこれ以上の論述は、以下の章と関連付けて見いだすことができる。
[0018] 以下の論述では、本明細書において説明する技法を採用することができる環境の一例について説明する。次いで、この環境の一例および他の環境でも実行することができる手順例について説明する。したがって、これらの手順例の実行は、環境の一例に限定されるのではなく、環境の一例は手順例の実行に限定されるのではない。
環境例
[0019] 図1は、本明細書において説明する拡張現実技法を採用するために動作可能な一実施態様例における環境100の図である。図示する環境100は、計算デバイス102を含む。計算デバイス102は、種々の方法で構成することができる。例えば、計算デバイス102は移動体通信デバイス(例えば、タブレット、ワイヤレス電話機)として示されているが、計算デバイス102は種々の他の方法で構成することもできる。例えば、計算デバイス102は、デスクトップ・コンピューター、移動局、娯楽機器、ディスプレイ・デバイスと通信状態で結合されているセット・トップ・ボックス、ゲーム・コンソール、タブレット等というような、ネットワーク104を通じて通信可能なコンピューターとして構成することもできる。
[0020] したがって、計算デバイス102は、大量のメモリーおよびプロセッサー・リソースを有するリソース充実デバイス(full resource device)(例えば、パーソナル・コンピューター、ゲーム・コンソール)から、メモリーおよび/または処理リソースが限られている低リソース・デバイス(例えば、従前のセット・トップ・ボックス、ハンドヘルド・ゲーム・コンソール)までの範囲を取ることができる。加えて、1つの計算デバイスが示されているが、計算デバイス102は、ユーザーが装着可能なヘルメットおよびゲーム・コンソール、「クラウド」においてプラットフォームを提供する動作を実行するために業務によって利用される多数のサーバ、リモコンおよびセット・トップ・ボックスの組み合わせ等というような、複数の異なるデバイスを表すこともできる。
[0021] また、計算デバイス102は、拡張現実モジュール106を含むようにも示されている。拡張現実モジュール106は、計算デバイス102の実世界の周囲状況の表示を拡張するための計算デバイス102の機能を表す。図示する例では、例えば、計算デバイス102は、部屋108内に物理的に存在するように示されている。部屋108には、ソファ110、椅子112、およびテーブル114があり、これらは部屋108の隅に配置されている。
[0022] 計算デバイス102は、カメラ116を含む。カメラ116は、計算デバイス102の物理的な周囲の状況、例えば、この例では部屋108の1つ以上の画像を取り込むように構成されている。これら1つ以上の画像は、拡張すべき「現実」の場面を取り込むために用いることができるが、マイクロフォンのような他の入力デバイスも考えられる。拡張現実モジュール106は、カメラ116からデーター(例えば、1つ以上の画像)を受け取り、フレーム118を生成することができる。フレーム118は、計算デバイス102のフレーム・バッファ120に格納されるように示されている。
[0023] 次いで、フレーム118を計算デバイス102のディスプレイ・デバイス122によって表示することができる。ディスプレイ・デバイス122は移動体通信デバイスの一部として図示されているが、種々の構成を取ることもできる。1つ以上の実施態様では、ディスプレイ・デバイス122は、ヘルメットの一部に含まれ、ユーザーの目の1つ以上によって見ることができるように位置付けることもできる。加えて、ディスプレイ・デバイス122は、部分的に透過性であってもなくてもよい。例えば、ディスプレイ・デバイス122は、カメラ116によって取り込んだ画像を増強(augmentations)と共に表示するように構成することもできる。他の例では、ディスプレイ・デバイス122は、カメラ116によって取り込んだ画像の表示をせずに増強のみを表示するように構成すればよいが、ディスプレイ・デバイス122の少なくとも一部を通じて物理的な周囲状況の場面も見ることができるように構成することもできる。このように、拡張現実モジュール106によって生成される増強は、種々の方法で表示することができる。
[0024] 図示した例では、ディスプレイ・デバイス122によって表示されたフレーム118は、カメラ116によって取り込まれた画像を含む。また、フレーム118は、拡張現実モジュール106によって生成された複数の拡張も含む。ディスプレイ・デバイス122によって表示された図示の例は、部屋108の壁に位置付けられたように見える第1および第2ピクチャ124、126と、テーブル114上に置かれたように見える洗面器128とを含む。つまり、拡張現実モジュール106は、ディスプレイ・デバイス122によって表示される現実の場面を拡張することができる。尚、拡張現実モジュール106によって生成される拡張は、ゲームの一部としての物体、および計算デバイス102の周囲の状況に対するその他の変化というような、種々の他の形態を取ってもよいことは、容易に認められよう。
[0025] この場面を生成し、拡張に対して「どこに」配置するが把握するために、拡張現実モジュール106は種々の技法を利用して、環境、例えば、図示のような部屋108に対する計算デバイス102の向きおよび/または位置を判定することができる。例えば、拡張現実モジュール106は、1つ以上の光マーカーを利用して、計算デバイス102をどのように位置付けるか、向きを決めるか、移動させるか等を決定することができる。これらの光マーカーは、種々の形態を取ることができる。例えば、拡張現実モジュール106は、居間の中における1つ以上の視点をマーカーとして設定することができ、したがって、テーブル114の角、椅子112の向き等というような、向きおよび/または位置付けを判定する基準としての役割を果たすことができる。つまり、部屋の中にある物品は、計算デバイス102を部屋108内のどこに位置付けるか決定するための基準として機能することができる。
[0026] 他の例では、拡張現実モジュール106は、計算デバイス102の周囲環境内に物理的に位置付けられている1つ以上の拡張現実(AR)タグの表示(view)を利用することもできる。ARタグの一例130が、部屋108の中にあるテーブル114の上に位置付けられているのが示されている。1つのARタグ130が示されているが、この環境において複数のARタグを利用することもできる。ARタグの一例130(または他のマーカー)は、深度(例えば、ARタグ130とカメラ116との間の距離)、ARタグ130に対する計算デバイス102の三次元的な向き等を判定する基準として用いることができる。
[0027] 例えば、ARタグ130は、計算デバイス102のARタグ130からの距離および/またはARタグ130に対する向きを判定するために、拡張現実モジュール106によって認識することができるパターンを含むことができる。このように、物理的環境において計算デバイス102が「どこに」そして「どのように」位置付けられているか判定するために、拡張現実モジュール106によってマーカーを利用することができる。拡張現実モジュール106は、この判定を、計算デバイス102のユーザーが見るために出力される拡張を生成する基準として用いることができる。
[0028] また、拡張現実モジュール106は、計算デバイス102の位置および/または向きを判定するために、1つ以上のセンサー132を利用することもできる。例えば、センサー132は、慣性測定ユニット(IMU)として構成することができ、ジャイロスコープ、1つ以上の加速度計、磁力計等、およびこれらのいずれかの組み合わせを含むことができる。これらのユニットは、既に説明した光マーカー技法を使用して生成される基準を検証するための、外部基準を生成する際に用いることができる。例えば、カメラ116を利用し前述の光マーカー技法を用いて生成される基準は、1つ以上のセンサー、例えば、IMU134によって生成される基準を用いて、不一致について評価することができる。このように、本技法は、計算デバイス102のその物理的な周囲の状況に対する向きおよび位置を判定するために用いることができる。
[0029] 更に、拡張現実モジュール106は、マーカー識別モジュール136を含むように示されている。マーカー識別モジュール136は、ARタグ130のような光マーカーと共にカラー・チャネル技法を採用する機能を表す。例えば、マーカー識別モジュール136は、各々異なるカラーの、多数のチャネルを有するフィード(feed)をカメラ116から受け取ることができる。ARタグ130の異なるスケールは、カメラ116によってサポートされるカラー・チャネルにしたがって、ARタグ130に着色することによって、サポートすることができる。このように、光マーカー技法の有効範囲は、異なるスケールおよび異なるカラーを利用することによって拡大することができる。これについてのこれ以上の論述は、図2に関して見いだすことができる。
[0030] 一般に、本明細書において説明する技法はいずれも、ソフトウェア、ファームウェア、ハードウェア(例えば、固定論理回路)、手作業の処理、またはこれらの実施態様の組み合わせを用いて実現することができる。「モジュール」および「機能」という用語は、本明細書において用いられる場合、一般に、ハードウェア、ソフトウェア、ファームウェア、またはその組み合わせを表す。ソフトウェア実施態様の場合、モジュール、機能、またはロジックは、ハードウェア、例えば、1つ以上のプロセッサーおよび/または機能ブロックによって指定される動作を実行する命令およびハードウェアを表す。
[0031] 例えば、計算デバイス102は、計算デバイスのハードウェアに動作を実行させるエンティティ(例えば、ソフトウェア)、例えば、プロセッサー、機能ブロック等も含むことができる。例えば、計算デバイス102は、当該計算デバイス、更に特定すると計算デバイス102のハードウェアに動作を実行させる命令を維持するように構成することができるコンピューター読み取り可能媒体を含むことができる。つまり、命令は、動作を実行するようにハードウェアを構成するように機能し、このようにして、機能を実行するようにハードウェアの変換を行う。命令は、コンピューター読み取り可能媒体によって、計算デバイス102に種々の異なる構成を通じて供給することができる。
[0032] コンピューター読み取り可能媒体のこのような一構成は、信号支持媒体であり、したがって、ネットワーク104を通じてというようにして、計算デバイスのハードウェアに命令を送信する(例えば、搬送波として)ように構成されている。また、コンピューター読み取り可能媒体は、コンピューター読み取り可能記憶媒体として構成することもでき、したがって信号支持媒体ではない。コンピューター読み取り可能記憶媒体の例には、ランダム・アクセス・メモリー(RAM)、リード・オンリー・メモリー(ROM)、光ディスク、フラッシュ・メモリー、ハード・ディスク・メモリー、ならびに命令およびその他のデーターを格納するために磁気、光、またはその他の技法を用いることができる他のメモリー・デバイスが含まれる。
[0033] 図2は、一実施態様例におけるシステム200の図であり、複数の異なるカラー・チャネルを利用する計算デバイス102に対する基準生成のために図1の拡張現実モジュール106を採用する場合を、更に詳しく示す。この例では、カメラ116はARタグ130の画像を取り込むことが示されている。
[0034] 画像は、複数のカラー・チャネルに分離されることが示されている。カラー・チャネルの例には、赤カラー・チャネル202、緑カラー・チャネル204、および青カラー・チャネル206が含まれる。これらのチャネルの各々は、それぞれのチャネルのカラーに対応するマーカーの画像を含むことが示されている。例えば、赤カラー・チャネル202は、比較的大きなスケールで赤ARタグの画像を含み、つまりカメラ116とARタグ130間の距離が相対的に大きいときに見えるように構成されている。一方、緑カラー・チャネル204は、緑ARタグの画像を含む。これは、赤ARタグの大きなスケールと比較すると相対的に中間のスケールを想定しており、したがってカメラとARタグ130との間の距離が相対的に中間であるときに見えるように構成されている。同様に、青カラー・チャネル206は、青ARタグの画像を含む。これは、相対的に小さなスケールを想定しており、したがってカメラ116とARタグ130との間の距離が相対的に近いときに見えるように構成されている。このように、カメラ116の1つの分解能を用いて、カラー・チャネルの各々を特定の距離範囲に関係付けることができ、特定の距離範囲はカメラ116とARタグ130との間で(例えば、全体的または部分的に)異なってもよい。
[0035] 次いで、マーカー識別モジュール136は、赤、緑、および青カラー・チャネル206を比較して、解明可能な1つ以上の画像を突き止め、計算デバイス102の一部、例えば、カメラ116を含む一部の位置または向きを判定することができる。例えば、赤および緑カラー・チャネル202、204から取り込んだ画像におけるARタグは解明可能であるが、青カラー・チャネル206に含まれるARタグは解明できない距離に、カメラ116を配置すればよい。
[0036] この例では、マーカー識別モジュール136はARタグの解明された画像の内1つ以上を利用して(たとえば、平均、加重平均、信頼度値、ARタグの「最も明確な」画像のみの使用等)、識別されたマーカー208に到達することができる。次いで、識別されたマーカー208は、基準計算モジュール210によって、計算デバイス102の一部の位置または向きを記述する光基準212を計算するために用いることができる。この光基準212は、次に、前述のような拡張現実表示を生成するためというように、種々の目的に用いることができる。
[0037] このように、本明細書において説明するカラー・チャネル技法は、従前からの技法を用いたときに生ずる種々の欠点を克服することができる。例えば、従前からの技法は、以前より、ARタグの画像を取り込むために用いられるカメラの分解能の限界により、範囲が限られていた。従前では、ARタグの利用は、固定サイズの識別マーカーに依存していたので、従前のARタグとカメラとの間の動作距離範囲は、この組み合わせによって限定される。例えば、この組み合わせのために、カメラが一旦ARタグの画像の分解能の範囲を超えて移動すると、動作しない可能性がある。例えば、ARタグの特徴を解明する能力は、カメラの画素分解能がその特徴を解明するのに十分でなくなると、失われる可能性がある。
[0038] 同様に、従前の「大きな」ARタグは、ARタグを解明できる最小距離に限界がある場合がある。何故なら、通例、取り込まれる画像は、その画像を解明できるためには、タグの大部分を含まなければならないからである。例えば、至近距離では、カメラは光基準を計算するためにタグを識別できるだけ十分に大きなARタグの部分の画像を取り込むことができないこともあり得る。
[0039] 他の例では、従前のARタグを計算デバイスによって分類できない場合、これらのARタグが飛ばされる可能性がある。このため、誤りが生じ、ARタグが識別のために利用できない場合、光基準の決定ができないと考えられる。更に他の例では、従前のARタグは重複することができなかった。したがって、物理的環境が比較的小さいがミクロおよびマクロの距離から見えなければならない場合、従前の技法を用いると、これらの異なる距離をサポートするために用いられる各タイプのARタグを含ませるだけの十分な空間が、この環境にはない可能性がある。
[0040] しかしながら、本明細書において説明するカラー・チャネル技法を用いると、異なるスケールを有する光マーカーの画像を取り込むために別個のチャネルを用いることができ、これによってカメラとマーカーとの間の有効距離の範囲を広げることができる。例えば、カメラ116から入って来るRGBストリームを、図示のように、その成分である赤、緑、および青のチャネル202、204、206に分離することができる。次いで、これらのチャネルを中間階調に変換し、処理してマーカーを識別することができる。このように、異なるカラー・チャネル毎に、別個のスケールのマーカーをエンコードすることができる。更に、以前の基準位置に基づいて、マーカー識別モジュール136は、どの画像が、所与のフレームに対して、比較から、最も関連がありそうか推定することによって、十分な画素適用範囲(pixel coverage)の拡大を図ることができる。
[0041] 図示のように、大きい方のマーカー・チャネル(例えば、赤カラー・チャネル202)は、比較的長い距離におけるカメラ位置または向きの登録(registration)に用いることができる。一方、小さい方のマーカー・チャネル(例えば、青カラー・チャネル206)は、比較的短い距離におけるカメラ116位置または向きの登録に用いることができる。カメラ116が大きいARタグに至近まで近づくと、例えば、カメラ116の視野からこの大きなARタグの領域がはみ出す可能性があり、この大きなタグのその部分の画像が識別されるのが妨げられる可能性がある。したがって、このような場合に対応するARタグ(例えば、緑または青カラー・チャネル204、206)を識別するためには、他のカラー・チャネルを用いればよい。
[0042] 加えて、マーカー識別モジュール136は、多数のカラー・チャネルからARタグの分解能を利用することができる。例えば、マーカー識別モジュール136は、複数のカラー・ストリームのそれぞれに含まれる複数のARタグを識別することができることもある。これらの識別されたARタグは、次に、加重和、信頼度値の平均等を取ることによってというようにして、組み合わせ値に到達するために用いることができる。複数の異なるカラーの使用によって、ARタグ130を組み合わせて複合ARタグを形成することもでき、こうして、利用する空間量を縮小しつつも、サポートする距離範囲を広げることができる。これについてのこれ以上の論述は、以下の図に関連付けて見いだすことができる。
[0043] 図3は、異なるサイズおよびカラーを有する複数のARタグから形成した複合ARタグを示す、一実施態様例における装置300を表す。この例では、3つの異なるサイズのマーカーが示されており、異なるスケールを有する。赤マーカー302は相対的に大きなスケールを有し、緑マーカー304は中間サイズのスケールを有し、青マーカー306は相対的に小さなスケールを有する。赤マーカー302による赤の使用は、右下がりの線影(forward hashing)の使用によって図示されており、緑マーカー304による緑の使用は、右上がりの線影(backward hashing)によって図示されており、青マーカー306による青の使用は、垂直な線影の使用によって図示されている。
[0044] 異なるカラーの使用により、赤、緑、および青マーカー306を含む複合マーカー308を形成することができる。例えば、複合マーカー308の部分は、1つのカラー、2つのカラー、3つのカラー、カラー無し等を含むこともできる。つまり、これらのカラーは、マーカーの異なるスケールを複合マーカー308によってサポートすることができるように、重ね合わせることができる。チャネルを分離することによって、これらのカラーの各々は、重なり合わされていても、解明することができる。
[0045] この例では3つのカラーについて説明したが、本発明の主旨や範囲から逸脱することなく、種々の異なる数のカラーおよびカラー自体を利用できることは容易に認められるはずである。更に、これらの例ではARタグについて説明したが、図1に関連付けて先に説明したような物理的環境において通例見られ識別可能な物体というような、種々の光マーカーも利用できることも、容易に認められるはずである。
手順例
[0046] 以下の論述では、これまでに説明したシステムおよびデバイスを利用して実現することができる拡張現実技法について説明する。手順の各々の態様は、ハードウェア、ファームウェア、ソフトウェア、またはその組み合わせで実現することができる。これらの手順は、1組のブロックとして示されており、これらのブロックは、1つ以上のデバイスによって実行される動作を指定し、それぞれのブロックによって動作を実行するために示される順序には必ずしも限定されない。以下の論述の一部では、図1の環境100、ならびに図2および図3のシステムおよび装置200、300をそれぞれ参照する。
[0047] 図4は、計算デバイスの少なくとも一部について光基準を計算するためにカラー・チャネル技法を利用する一実施態様例における手順400を示す。カメラから得られた複数のカラー・チャネルを調べる。これらのカラー・チャネルの各々は、カラー・チャネルの他の1つに表現されている他の光マーカーとは異なるスケールを有する光マーカーを表現する(ブロック402)。例えば、カメラ116は、ARタグ130、部屋106内にある物体(光マーカーとして用いることができる)等の画像を取り込むことができる。
[0048] 複数のカラー・チャネルの各々において、光マーカーの少なくとも1つを識別する(ブロック404)。マーカー識別モジュール136は、例えば、異なるカラー・チャネルにおける画像を調べて、画像の1つ以上が、光マーカーを識別するのに十分であるか否か判断する。
[0049] 識別した光マーカーを用いて、光基準を計算する。この光基準は、計算デバイスの一部の少なくとも位置または向きを記述するために使用可能である(ブロック406)。例えば、光基準の計算は、1つのカラー・チャネルにおいて識別された1つの光マーカー、多数のチャネルから取り込んだ画像に基づくことができ、以前の光基準および/またはカラー・チャネルから取り込んだ画像を用いる補間を伴うのでもよい。
[0050] 少なくとも部分的に光基準に基づいて、計算デバイスによる表示のために、拡張現実表示を生成する(ブロック408)。例えば、拡張現実表示は、拡張現実モジュール106によって生成され、光基準にしたがって表示内に位置付けられた物体を含むように構成することができる。
[0051] 図5は、赤、緑、および青カラー・チャネルからの光マーカーの分解能に基づいて拡張現実表示を生成する一実施態様例における手順を示す。カメラの赤チャネルから第1画像を得て、カメラの緑チャネルから第2画像を得て、カメラの青チャネルから第3画像を得る(ブロック502)。例えば、カメラ116は、赤画像、緑画像、および青画像を取り込み、これらの画像を別個のカラー・チャネルを通じて供給するように構成されているセンサーを含むことができる。他の例では、RGBフィードを計算デバイス102によって赤、緑、および青チャネルに分離することもできる。
[0052] 装置の少なくとも一部の位置または向きを判定するために、1つ以上のモジュールを用いて、第1画像、第2画像、または第3画像の内どれが、1つ以上のモジュールによって解明可能な光マーカーを表現するのか、識別する(ブロック504)。既に説明したように、これらの画像を中間階調に変換し、処理して、これらの画像の1つ以上が、ARタグのような光マーカーを識別するために解明可能か否か判断することができる。
[0053] 装置の少なくとも一部の位置または向きを記述する基準を計算する(ブロック506)。この基準は、ARタグの1つの画像、これらの画像の内2つからの平均値、3つのカラー・チャネルの加重平均等から計算することができる。次いで、計算した基準を用いて、ディスプレイ・デバイスによって表示するための拡張現実表示を生成することができる(ブロック508)。前述のように、赤、緑、青のカラー・チャネルについて説明したが、本発明の主旨や範囲から逸脱することなく、種々の異なるカラーも利用することができる。
結論
[0054] 以上、構造的特徴および/または方法論的動作に特定的な文言で本発明について説明したが、添付した特許請求の範囲において定義されている発明は、これらの説明した具体的な特徴や動作には必ずしも限定されないことは、理解されてしかるべきである。逆に、これらの具体的な特徴および動作は、特許請求する発明を実現する形態例として開示したまでである。

Claims (10)

  1. 計算デバイスによって実装する方法であって、
    カメラから得られた複数のカラー・チャネルを調べるステップであって、各前記カラー・チャネルが表現する光マーカーが、他の前記カラー・チャネルにおいて表現されている他の光マーカーとは異なるスケールを有する、ステップと、
    前記複数のカラー・チャネルのそれぞれにおいて、少なくとも前記光マーカーを識別するステップと、
    前記識別した光マーカーを用いて、前記計算デバイスの一部の少なくとも位置または向きを記述するために使用可能な光基準を計算するステップと、
    を備えている、方法。
  2. 請求項1記載の方法において、前記複数のカラー・チャネルが、赤カラー・チャネルと、緑カラー・チャネルと、青カラー・チャネルとを含む、方法。
  3. 請求項1記載の方法において、前記光マーカーの異なるスケールが、それぞれ、前記カメラから異なる距離において解明可能である、方法。
  4. 請求項1記載の方法であって、更に、前記複数のカラー・チャネルを、前記検査に用いるための別個のフィードに分離するステップを備えている、方法。
  5. 請求項1記載の方法において、前記計算するステップが、前記複数のカラー・チャネルからのそれぞれの光タグを用いて計算した信頼度値の加重出力を用いて、座標フレームを解明するステップを含む、方法。
  6. 請求項1記載の方法において、前記識別するステップが、複数のカラー・チャネルから取り込んだ画像から、前記光基準を計算するのに十分な分解能を有する少なくとも1つの前記光マーカーを選択するステップを含む、方法。
  7. 請求項1記載の方法において、前記光マーカーが、複数の異なるカラーで形成された複合光マーカーの一部であり、前記カラーの各々が、それぞれの前記カラー・チャネルに対応し、それぞれの前記スケールにおいてそれぞれの前記光マーカーを示すために解明可能である、方法。
  8. 請求項1記載の方法において、前記計算デバイスの一部が、ユーザーによって装着可能である、方法。
  9. 請求項1記載の方法であって、更に、前記光基準に少なくとも部分的に基づいて、前記計算デバイスによる表示のために、拡張現実表示を生成するステップを備えている、方法。
  10. 計算デバイスのカメラによって第1距離において解明可能であり、第1のカラーを用いて表現された第1光タグと、
    前記計算デバイスのカメラによって前記第1光タグが解明不可能な第2距離において解明可能な第2光タグであって、前記第1のカラーとは異なる第2のカラーを用いて表現された、第2光タグと、
    を備えている、装置。
JP2014506612A 2011-04-21 2012-04-21 カラー・チャネルおよび光マーカー Expired - Fee Related JP5961249B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/091,575 2011-04-21
US13/091,575 US8817046B2 (en) 2011-04-21 2011-04-21 Color channels and optical markers
PCT/US2012/034597 WO2012145731A2 (en) 2011-04-21 2012-04-21 Color channels and optical markers

Publications (3)

Publication Number Publication Date
JP2014513836A true JP2014513836A (ja) 2014-06-05
JP2014513836A5 JP2014513836A5 (ja) 2015-06-18
JP5961249B2 JP5961249B2 (ja) 2016-08-02

Family

ID=47020976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014506612A Expired - Fee Related JP5961249B2 (ja) 2011-04-21 2012-04-21 カラー・チャネルおよび光マーカー

Country Status (9)

Country Link
US (1) US8817046B2 (ja)
EP (1) EP2700040B1 (ja)
JP (1) JP5961249B2 (ja)
KR (1) KR101848959B1 (ja)
CN (1) CN103477348B (ja)
AR (1) AR086470A1 (ja)
ES (1) ES2729102T3 (ja)
TW (1) TWI533027B (ja)
WO (1) WO2012145731A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018367A (ja) * 2014-07-08 2016-02-01 沖電気工業株式会社 情報処理装置、情報処理方法、及びプログラム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10242456B2 (en) * 2011-06-23 2019-03-26 Limitless Computing, Inc. Digitally encoded marker-based augmented reality (AR)
US20130278626A1 (en) * 2012-04-20 2013-10-24 Matthew Flagg Systems and methods for simulating accessory display on a subject
US10180715B2 (en) 2012-10-05 2019-01-15 Elwha Llc Correlating user reaction with at least an aspect associated with an augmentation of an augmented view
US10713846B2 (en) 2012-10-05 2020-07-14 Elwha Llc Systems and methods for sharing augmentation data
US9077647B2 (en) 2012-10-05 2015-07-07 Elwha Llc Correlating user reactions with augmentations displayed through augmented views
US10269179B2 (en) 2012-10-05 2019-04-23 Elwha Llc Displaying second augmentations that are based on registered first augmentations
US8928695B2 (en) * 2012-10-05 2015-01-06 Elwha Llc Formatting of one or more persistent augmentations in an augmented view in response to multiple input factors
US9111383B2 (en) 2012-10-05 2015-08-18 Elwha Llc Systems and methods for obtaining and using augmentation data and for sharing usage data
US9141188B2 (en) 2012-10-05 2015-09-22 Elwha Llc Presenting an augmented view in response to acquisition of data inferring user activity
JP2015001875A (ja) * 2013-06-17 2015-01-05 ソニー株式会社 画像処理装置、画像処理方法、プログラム、印刷媒体及び印刷媒体のセット
US20150062158A1 (en) * 2013-08-28 2015-03-05 Qualcomm Incorporated Integration of head mounted displays with public display devices
USD788116S1 (en) * 2014-08-19 2017-05-30 Fujifilm Corporation Display screen for digital camera with animated graphical user interface
US10403019B2 (en) * 2015-12-16 2019-09-03 Lucasfilm Entertainment Company Multi-channel tracking pattern
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
CN107734320B (zh) * 2017-09-29 2019-08-13 成都国翼电子技术有限公司 一种计算vr摄影场地内主动发光标记点光强下限的方法
KR102545980B1 (ko) * 2018-07-19 2023-06-21 액티브 서지컬, 인크. 자동화된 수술 로봇을 위한 비전 시스템에서 깊이의 다중 모달 감지를 위한 시스템 및 방법
US11126845B1 (en) * 2018-12-07 2021-09-21 A9.Com, Inc. Comparative information visualization in augmented reality
KR20220122287A (ko) 2021-02-26 2022-09-02 삼성전자주식회사 증강 현실 제공 장치의 포즈 결정 방법 및 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830977A (ja) * 1994-07-19 1996-02-02 Olympus Optical Co Ltd 情報記録媒体及び情報記録再生システム
US20050035980A1 (en) * 2003-08-15 2005-02-17 Lonsing Werner Gerhard Method and apparatus for producing composite images which contain virtual objects
JP2008116373A (ja) * 2006-11-06 2008-05-22 Canon Inc 位置姿勢計測方法及び装置
JP2008176696A (ja) * 2007-01-22 2008-07-31 Misae Saito Cgキャラクタアニメーション作成装置
EP1970860A2 (en) * 2007-03-15 2008-09-17 Canon Kabushiki Kaisha Camera calibration apparatus and method
JP2011064579A (ja) * 2009-09-17 2011-03-31 Konica Minolta Sensing Inc 三次元測定システムおよび三次元測定方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL120175A (en) 1997-02-07 2000-11-21 Tribelsky Zamir Method for optically marking an elongated indication path and devices using this method
JP2001054971A (ja) 1999-08-18 2001-02-27 Funai Electric Co Ltd 印字装置
US7176936B2 (en) * 2001-03-27 2007-02-13 Siemens Corporate Research, Inc. Augmented reality guided instrument positioning with modulated guiding graphics
US20030076980A1 (en) * 2001-10-04 2003-04-24 Siemens Corporate Research, Inc.. Coded visual markers for tracking and camera calibration in mobile computing systems
JP4054585B2 (ja) 2002-02-18 2008-02-27 キヤノン株式会社 情報処理装置および方法
US7369101B2 (en) * 2003-06-12 2008-05-06 Siemens Medical Solutions Usa, Inc. Calibrating real and virtual views
US7515756B2 (en) 2003-06-23 2009-04-07 Shoestring Research, Llc. Region segmentation and characterization systems and methods for augmented reality
US8669936B2 (en) * 2004-04-21 2014-03-11 Wsi Corporation System and method for presenting a dynamically ordered presentation
US7965887B2 (en) 2005-12-01 2011-06-21 Cognex Technology And Investment Corp. Method of pattern location using color image data
US7800628B2 (en) * 2006-06-16 2010-09-21 Hewlett-Packard Development Company, L.P. System and method for generating scale maps
EP1887526A1 (en) 2006-08-11 2008-02-13 Seac02 S.r.l. A digitally-augmented reality video system
US8165345B2 (en) 2007-12-07 2012-04-24 Tom Chau Method, system, and computer program for detecting and characterizing motion
US8422777B2 (en) 2008-10-14 2013-04-16 Joshua Victor Aller Target and method of detecting, identifying, and determining 3-D pose of the target
GB2465792A (en) * 2008-11-28 2010-06-02 Sony Corp Illumination Direction Estimation using Reference Object
KR101013751B1 (ko) 2009-07-09 2011-02-14 주식회사 인스프리트 가상화 처리서버 및 dcd 컨텐츠를 이용한 증강현실 제공 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830977A (ja) * 1994-07-19 1996-02-02 Olympus Optical Co Ltd 情報記録媒体及び情報記録再生システム
US20050035980A1 (en) * 2003-08-15 2005-02-17 Lonsing Werner Gerhard Method and apparatus for producing composite images which contain virtual objects
JP2008116373A (ja) * 2006-11-06 2008-05-22 Canon Inc 位置姿勢計測方法及び装置
JP2008176696A (ja) * 2007-01-22 2008-07-31 Misae Saito Cgキャラクタアニメーション作成装置
EP1970860A2 (en) * 2007-03-15 2008-09-17 Canon Kabushiki Kaisha Camera calibration apparatus and method
JP2011064579A (ja) * 2009-09-17 2011-03-31 Konica Minolta Sensing Inc 三次元測定システムおよび三次元測定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016003074; 石井裕剛: '"拡張現実感を応用したプラント保守作業支援"' 画像ラボ 第22巻, 第2号, 20110210, p.1-7, 日本工業出版株式会社 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018367A (ja) * 2014-07-08 2016-02-01 沖電気工業株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
AR086470A1 (es) 2013-12-18
JP5961249B2 (ja) 2016-08-02
US20120268491A1 (en) 2012-10-25
CN103477348A (zh) 2013-12-25
KR101848959B1 (ko) 2018-05-28
KR20140013034A (ko) 2014-02-04
US8817046B2 (en) 2014-08-26
TW201243387A (en) 2012-11-01
EP2700040B1 (en) 2019-04-10
ES2729102T3 (es) 2019-10-30
WO2012145731A3 (en) 2013-01-17
EP2700040A4 (en) 2014-10-15
WO2012145731A2 (en) 2012-10-26
CN103477348B (zh) 2017-11-17
TWI533027B (zh) 2016-05-11
EP2700040A2 (en) 2014-02-26

Similar Documents

Publication Publication Date Title
JP5961249B2 (ja) カラー・チャネルおよび光マーカー
US9940720B2 (en) Camera and sensor augmented reality techniques
US9613463B2 (en) Augmented reality extrapolation techniques
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
US10083540B2 (en) Virtual light in augmented reality
TWI505709B (zh) 擴增實境場景中決定個體化深度資訊的系統和方法
US9361731B2 (en) Method and apparatus for displaying video on 3D map
JP2020514909A (ja) 多ソース仮想コンテンツ合成を伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
US20160148429A1 (en) Depth and Chroma Information Based Coalescence of Real World and Virtual World Images
JPWO2014069247A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
CN105611267B (zh) 现实世界和虚拟世界图像基于深度和色度信息的合并
JP6799017B2 (ja) 端末装置、システム、プログラム及び方法
KR20180120456A (ko) 파노라마 영상을 기반으로 가상현실 콘텐츠를 제공하는 장치 및 그 방법
US10296080B2 (en) Systems and methods to simulate user presence in a real-world three-dimensional space
Selvam et al. Augmented reality for information retrieval aimed at museum exhibitions using smartphones
US10750080B2 (en) Information processing device, information processing method, and program
KR101850134B1 (ko) 3차원 동작 모델 생성 방법 및 장치
CN117979070A (zh) 用于分享头戴显示设备显示画面的方法和装置
Bochem et al. Acceleration of blob detection in a video stream using hardware
JP2019061684A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2008065684A (ja) 立体映像合成装置、形状データ生成方法およびそのプログラム
KR20200046538A (ko) 3차원 컬러 블록 생성 방법 및 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150421

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160624

R150 Certificate of patent or registration of utility model

Ref document number: 5961249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees