JP7439088B2 - 拡張現実ディスプレイデバイスにおける動作のためのシステムおよび方法 - Google Patents

拡張現実ディスプレイデバイスにおける動作のためのシステムおよび方法 Download PDF

Info

Publication number
JP7439088B2
JP7439088B2 JP2021531466A JP2021531466A JP7439088B2 JP 7439088 B2 JP7439088 B2 JP 7439088B2 JP 2021531466 A JP2021531466 A JP 2021531466A JP 2021531466 A JP2021531466 A JP 2021531466A JP 7439088 B2 JP7439088 B2 JP 7439088B2
Authority
JP
Japan
Prior art keywords
color
identifying
captured
mobile communication
communication device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021531466A
Other languages
English (en)
Other versions
JP2021534521A (ja
Inventor
バーナード ジャバラ、ゲイリー
リー、ハロルド
リャン、ダグラス
プ-イ クアン、ジョージ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mobilitie LLC
Original Assignee
Mobilitie LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/179,315 external-priority patent/US10909375B2/en
Application filed by Mobilitie LLC filed Critical Mobilitie LLC
Publication of JP2021534521A publication Critical patent/JP2021534521A/ja
Application granted granted Critical
Publication of JP7439088B2 publication Critical patent/JP7439088B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6581Reference data, e.g. a movie identifier for ordering a movie or a product identifier in a home shopping application
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は、拡張現実システムを対象とし、より詳細には、拡張現実ディスプレイシステムにおける色彩、形状、および言語認識についてのシステムおよび方法を対象とする。
コンピュータ技術の進歩は、特に、コンピュータグラフィクスに関して、ユーザ体験を高めるための技術の大きな進歩につながっている。仮想現実(VR)は、典型的には、完全にシミュレーションされた環境におけるコンピュータ生成体験を含むように形成される。聴覚的および視覚的シミュレーションは、典型的には、仮想現実ヘッドセットにまたはマルチプロジェクタ環境に実装される。VRとは対照的に、拡張現実(AR)は、現実世界環境を、コンピュータ生成グラフィックオブジェクト、聴覚的データ、およびコンピュータ生成データを現実世界のデータと組み合わせる他の感覚的効果と組み合わせる相互作用の体験である。
典型的なAR体験は、あるオブジェクトを識別するためのコンピュータシステムを必要とする。しかしながら、技術の欠点は、ある構造的形状および色彩を認識できないことである。これに加えて、ユーザによって選択された言語により提示される聴覚的体験を有することが望ましい。構造および色彩認識ならびに言語識別を提供する技術を向上させる大きな必要性が存在することが認識され得る。本発明は、以下の詳細な説明および添付の図面において説明されるように、この利点および他の利点を提供する。
本開示の教示を実装するように用いられる見本のシステムアーキテクチャを示す図。 本教示に従う動作用に構成されたモバイルデバイスの機能ブロック図。 構造認識が存在しない拡張現実画像識別システムの無力を示す図。 オブジェクトの構造および色彩認識を提供する本教示に係るシステムの動作を示す図。 構造認識モジュールの動作を示すフローチャート。 色彩認識モジュールの動作を示すフローチャート。 モバイルデバイスのユーザによって選択された言語識別パラメータの動作を示すフローチャート。 色彩補正を支援するためのラベルにおける完全または理想的な白色ピクセルの選択を示す図。 キャプチャされた画像における色彩識別を視覚的に識別するように、トラブルシューティングツールとして用いられる色彩キューブを示す。
拡張現実(AR)追跡(トラッキング)用のマーカ認識に関して、色彩同士を区別する先行の方法は存在しない。マーカを区別するおよび識別する際の先行のアプローチは、マーカの内側の形状にしか基づいていない。広く用いられているAPIは、形状ベースのARマーカ認識しか利用しない。
さらに、これらの従来のAPIは、大幅に異なる形状間の区別をすることができない。例えば、キャンディパッケージの従来のAR追跡は、異なる味のパッケージ間の区別をするのが困難である。主要ロゴの大きさが大きい場合、それに伴うフィーチャにアルゴリズムが引き寄せられるので、このことが特に当てはまる。本明細書に記載されるシステムおよび方法は、同じ形状を有し異なる色彩のARマーカ同士を区別することが可能である。これは、色彩ベースの区別とともに形状ベースの認識を用いることによって達成される。
エンドユーザにとっては、同一のパッケージを有するが異なる色彩の2つの製品間の2つの異なる相互作用を見て取ることができる。例えば、開示される技術では、ユーザがビタミンウォータの2つの異なる味における2つの異なる相互作用を見て取ることができ、その場合、異なる味を区別するフィーチャは、ラベルの色彩のみである。
ビタミンウォータ製品ラインは、形状/形態/レイアウトがほぼ同一に見えるが色彩が異なるため、従来のAR追跡技術は、そのビタミンウォータ製品ラインを混同する。
さらに、開示される技術は、色彩の差異を検出することによって、製品ラインの類似のパッケージデザイン同士の区別を高精度に行うことが可能である。したがって、製造業者(上記のキャンディ製造業者など)は、自身のパッケージを大幅にリプリントする必要なく、自身の製品ラインを追跡することができる。
これに加えて、開示される技術は、異なる構造要素間の区別をすることもできる。例えば、システムによって識別されたオブジェクトは、ほぼ円柱である場合がある。これに代えて、オブジェクトは、形状において箱状である場合もある。オブジェクトは、平坦であり2次元構造として見える場合もある。開示される技術は、構造の種類を識別することができ、1つの実施形態では、識別された3D形状に基づくビデオ(動画)を選択することが可能である。
これに加えて、ユーザによって選択された言語の付随するオーディオトラックを有することが望ましい。より詳細に以下に記載されるように、モバイルデバイスは、ユーザが所望の言語(例えば、英語、スペイン語、ドイツ語など)を選択することを可能とする。本明細書に記載されるシステムは、ユーザ選択言語を識別し、適切な言語のオーディオトラックを選択し、選択されたオーディオトラックを選択されたビデオファイルに結び付けて、ユーザ選択言語のマルチメディアファイルを生成する。
本発明は、1つの実施形態では、図1に示されるシステム100として示される。図1は、画像認識データをモバイルデバイスから受け取るように、またモバイルデバイスに対する送達用にARファイルを形成するべく、ビデオおよびオーディオデータを選択するように構成された、サーバ102を示す。サーバ102は、複数のビデオARファイルの形態におけるビデオデータ104に対するアクセスを有する。同様に、サーバ102は、複数の異なる言語であり得るオーディオデータファイルの形態におけるオーディオデータ106に対するアクセスを有する。典型的には、ビデオデータ104におけるビデオファイルは、異なる言語の複数の対応するオーディオデータファイルを有する。ビデオデータ104およびオーディオデータ106は、サーバ102の一体部分であってよく、またはそれぞれ通信リンク108~110を介してサーバに対し通信可能に結合されてよい。
サーバ102は、通信リンク114を介してワイドエリアネットワーク(WAN)112(インターネットなど)に対し結合されている。通信リンク114は、有線、無線、光、衛星、および他の既知の形態の通信リンクを含む、複数の既知の通信技術のうちのいずれであってもよい。システム100は、通信リンク114の特定の形態によって限定されない。
図1は、さらに、モバイル通信デバイス116およびモバイル通信デバイス118を示す。モバイル通信デバイス116~118は、本明細書に記載されるAR処理技術によりプログラムされている従来の「スマートフォン」である。モバイル通信デバイス116は、通信リンク120を介してWAN112に対し結合されており、一方、モバイル通信デバイス118は、通信リンク122を介してWANに対し結合されている。
単純な通信リンク120~122として示されているが、当業者は、モバイルデバイスをインターネットに対し結合するための複数の既知の技術が存在することを認識する。例えば、モバイル通信デバイス116は、セルラーサービスプロバイダ、無線ホットスポット(典型的には、IEEE802.11に従うWiFiを利用する)などを介してWAN112と通信してよい。同様に、モバイル通信デバイス118は、通信リンク122を同様に実装してよい。モバイルデバイスをWAN112に対し結合するためのこれらの既知の技術は、より詳細に本明細書に記載される必要はない。
図1に示されるように、モバイルデバイス116は、カメラなどの撮像素子を備える。カメラは、モバイル通信デバイス116~118に備えられた一般的な付属品である。動作時、モバイル通信デバイス116は、オブジェクト124の画像をキャプチャする。モバイル通信デバイス116におけるAR認識技術は、オブジェクトの形状および色彩を識別することが可能である。このデータは、WAN112および様々な通信リンクを介してサーバ102に対し提供され、サーバ102がオブジェクト認識に基づいて適正なビデオデータを選択することを可能とする。これに加えて、モバイルデバイスは、そのモバイルデバイス116用の言語のユーザ選択に関連したデータを送信し、その情報を同様にサーバに対し提供する。画像認識データおよび言語選択データを用いて、サーバ102は、適正な言語選択により適切なビデオデータおよび付随するオーディオデータを選択し、モバイルデバイスのARディスプレイ用にモバイルデバイス116に戻すように送信する。
同様に、モバイルデバイス118は、オブジェクト126の画像をキャプチャし、同様の画像解析を行う。モバイルデバイス118は、画像解析データおよび言語選択データを、WAN112および関連付けられた通信リンクを介してサーバ102に対しレポートする。異なるオブジェクト126の認識に基づいて、サーバ102は、モバイルデバイス118に対する送信用に、適正な言語選択による異なるビデオデータおよび異なる付随オーディオデータを選択してよい。したがって、モバイルデバイス116~118の各々は、異なるオブジェクト124~126をそれぞれ識別してよく、結果として、異なるARビデオおよびオーディオデータを受信する。
さらに、各モバイルデバイス116~118は、それぞれのモバイルデバイスのユーザによって選択された言語の付随オーディオデータを受信する。
図2は、図1に示される複数のモバイルデバイスのうちの1つ(例えば、無線通信デバイス116)を説明する機能ブロック図である。モバイルデバイス116は、中央処理ユニット(CPU)130を備える。当業者は、CPU130が、従来のマイクロプロセッサ、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、プログラマグルゲートアレイ(PGA)などとして実装されてよいことを認識する。モバイルデバイス116は、CPU130の特定の形態によって限定されない。
図2におけるモバイルデバイス116はまた、メモリ132も備える。一般に、メモリ132は、CPU130の動作を制御するための命令およびデータを記憶する。メモリ132は、ランダムアクセスメモリ、リードオンリーメモリ、プログラマブルメモリ、フラッシュメモリなどを含んでよい。モバイルデバイス116は、メモリ132を実装するように用いられる任意の特定の形態のハードウェアによって限定されない。メモリ132は、全体または一部においてCPU130と一体に形成されてもよい。
図2のモバイルデバイス116はまた、タッチスクリーンディスプレイ134などの従来のコンポーネントを備える。これらは、知られているように動作する従来のコンポーネントであり、より詳細に記載される必要はない。図2のモバイルデバイス116はまた、カメラの形態における撮像デバイス138を備える。現代のモバイルデバイスは、前後のカメラを備えることが多い。以下に記載されるように、撮像デバイスは、構造および色彩の解析用に、オブジェクト124の画像をキャプチャする。
図2はまた、データ記憶エリア140を示す。データ記憶エリア140は、モバイルデバイス116の動作を制御するユーザ選択パラメータを含んでよい。データ記憶エリア140は、任意の便利なデータ構造として実装されてよく、またメモリ132の一部であってよい。
USBインタフェース、Bluetooth(登録商標)インタフェース、赤外線デバイスなどといった、無線通信デバイスに見られる他の従来のコンポーネントもまた、モバイルデバイス116に備えられてよい。明確さのため、従来の要素は、図2の機能ブロック図には示されていない。
図2のモバイルデバイス116はまた、セルラーネットワーク(図示せず)との従来の無線通信用のモバイルデバイスによって用いられ得るなどの、ネットワーク送信機144を備える。図2はまた、ネットワーク送信機144とともに動作し、セルラーネットワークと通信する、ネットワーク受信機146を示す。典型的な実施形態では、ネットワーク送信機144およびネットワーク受信機146は、回路を共有し、ネットワークトランシーバ148として実装される。ネットワークトランシーバ148は、アンテナ150に対し接続される。ネットワークトランシーバ148は、一般的なトランシーバとして示される。モバイルデバイス(例えば、モバイルデバイス116,118)は、CDMA、WCDMA(登録商標)、GSM(登録商標)、UMTS、3G、4G、5G、WiMAX、LTEなどを含むがこれらに限定されない、任意の既知の無線通信プロトコルに従って実装されてよい。セルラーネットワークとの通信用のネットワークトランシーバ148およびアンテナ150は、当分野では周知であり、より詳細に本明細書に記載される必要はない。
図2のモバイルデバイス116はまた、モバイルデバイス116によって用いられる短距離送信機152を備える。図2はまた、短距離送信機152とともに動作する短距離受信機154を示す。典型的な実施形態では、短距離送信機152および短距離受信機154は、短距離トランシーバ156として実装される。短距離トランシーバ156は、アンテナ158に対し接続される。例示的な実施形態では、アンテナ150および158は、共通のコンポーネントを有し、また単一のアンテナとして実装されてよい。例示的な実施形態では、短距離トランシーバ156は、IEEE802.11(WiFiと呼ばれることがある)に従う動作用に設計されてよい。多くの現代の無線通信デバイスは、WiFiが装備されており、本明細書に記載される機能を補助するように容易にアップグレードされてよい。
モバイルデバイス116はまた、構造認識モジュール160を備える。構造認識モジュール160は、オブジェクト124の構造を識別するように構成されている。例えば、構造認識モジュール160は、3D円柱オブジェクト、3D箱状オブジェクト、および本質的に平坦であるオブジェクトを識別する。構造認識モジュール160の動作は、より詳細に以下に説明される。
モバイルデバイス116はまた、色彩認識モジュール162を備える。色彩認識モジュール162は、オブジェクト124の色彩を識別するように構成されている。多くのオブジェクトは、色彩の差異を除いて類似しているか、または同一でさえある。上述したように、ビタミンウォータのボトルは、ラベルの色彩を除いてほぼ同一であってよい。色彩認識モジュール162は、オブジェクトの色彩を識別し、異なる色彩を有する類似のオブジェクト同士を区別するのを補助する。色彩認識モジュール162は、平坦なオブジェクトおよび3Dオブジェクトの色彩を識別することが可能である。色彩認識モジュール162は、色彩の勾配の変化によって構造を識別するのを補助するように、構造認識モジュール160とともに動作してもよい。構造認識モジュール162の動作は、より詳細に以下に説明される。
構造認識モジュール160および色彩認識モジュール162はともに、モバイルデバイス116に対し送り返される所望のARビデオおよびARオーディオの選択を支援するように、サーバ102(図1参照)に対し送られるオブジェクト識別データを生成する。
図2に示される様々なコンポーネントは、バスシステム164によってともに結合されている。バスシステムは、アドレスバス、データバス、電力バス、制御バスなどを備えてよい。便利のため、図2における様々なバスは、バスシステム164として示される。
構造認識
図3は、構造認識が利用できないときの、オブジェクトを認識するまたは対応のビデオを選択する際の困難を示す。図3の左には、情報が提供されている。本質的には、オブジェクト124(図1参照)は、円柱の、箱の、または平坦(もしくはほぼ平坦)なオブジェクトなど、異なる3D形態であってよい。モバイルデバイス116は、撮像デバイス138(図2参照)を用いてオブジェクトの画像をキャプチャする。構造認識がない場合は、典型的なAR識別ルーチンが平坦な2次元オブジェクトを識別する。
図3の例では、オブジェクトはチワワ(CHIHUAHUA)である。
チワワの平坦な画像としてのオブジェクト認識の結果、ビデオ選択が行われる。ビデオ選択は、図3の左に示される様々な3Dオブジェクトによる提示用にカスタマイズされることができない。
図4は、構造認識が提供される処理を示す。図4の左には、図3に示されるキャプチャされたオブジェクト画像におけるものと同じ、オブジェクト124(図1参照)に関する情報が提供される。図3および図4の例では、それらのオブジェクトは、円柱、本来は箱状、または本質的に平坦であってよい。構造認識モジュール160(図2参照)は、撮像デバイス138によってキャプチャされた画像を解析し、オブジェクト124の適切な構造的性質を決定するようにその画像を解析する。構造認識モジュール160は、ボトル(もしくは缶)、パッケージ、または商品の間の区別をするように、マーカを3つの別々の部分へと分割することを提供することが可能である。グリッド系が、ラベルおよび境界の湾曲を理解するように適用されてよい。1つの実施形態では、構造認識モジュール160は、湾曲および3D構造をシミュレーションするように、巻かれた知覚的マーカを使用する。
さらなる解析では、構造認識モジュール160は、キャプチャされた画像における光の勾配を解析し、オブジェクトの形状を判断することが可能である。色彩認識モジュール162は、オブジェクト同士を区別するように、オブジェクトにおける特定のエリアを検出することと、パッケージの広がるエリアを検出することとが可能である。上記の光の勾配の解析は、オブジェクトの形状を判断するように、色彩認識モジュール162によって適用されることも可能である。結果として、システム100は3D形状の十分な認識を提供し、オブジェクト124のすべての配向におけるマーカをキャプチャする。
構造認識モジュール160は、ラベルなどのオブジェクトにおけるドットのグリッドをレイアウトすることが可能である。ラベルの色彩は、各ドットの位置において決定される。ドットの垂直方向の列において抽出された色彩の明度は、類似の明度を生じることが期待される。一方、ドットの水平方向の行において抽出された色彩の明度レベルは、構造認識モジュール160がラベルの他端におけるドットを解析するときに、ラベルの縁付近のより暗いレベルから中間におけるより明るいレベルに、次いでより暗いレベルに戻る勾配を生成する。そうした情報を用いて、構造認識モジュール160は、構造が垂直方向の配向を変えずに留まったまま、水平方向の湾曲が存在することを検出することができる。
オブジェクト124の縁をさらに定めるように、コントラストおよびレベルフィルタリングを適用することも可能である。構造認識モジュール160は、ボトル(もしくは缶)、パッケージ、または商品などのオブジェクト間の区別を理解するように、縁の湾曲を評価する。この態様では、構造認識モジュール160は、ラベルなどのオブジェクトの縁における湾曲をより良く理解するように、ラインフィルタリングを適用してオブジェクトの構造を読み取る。プリントされたラベルの境界を分離するための高コントラストのフォトフィルタを用いて、次いで、境界の縁の軌道を計算し、その境界の縁が湾曲しているか直線的であるかを理解することが可能である。縁が直線的である場合、構造認識モジュール162は、ラベルが箱にプリントされていると結論付けることが可能である。縁が湾曲している場合、構造認識モジュール160は、ラベルがボトルまたは円柱にプリントされていると結論付けることが可能である。構造認識モジュールは、湾曲した軌道をさらに解析し、ボトルまたはシリンダの直径を決定することが可能である。
さらなる実施形態では、構造認識モジュール160は、ラベルがプリントされたオブジェクト(例えば、オブジェクト124~126)の3次元(3D)構造を、コンピュータ支援設計(CAD)モデルへと再生成する。モデルが生成されると、構造認識モジュール160は、ラベルをCADモデルに対し「貼付する」。CADモデルは回転してよく、撮像デバイス138(図2参照)を用いてすべての方向において画像収集されてよい。例えば、円柱オブジェクト124(図1参照)は、1度の増分にて回転することが可能であり、それらの増分の回転位置の各々にて画像がキャプチャされる。この例では、任意の角度おけるオブジェクトを含む、360度の回転に対応する全部で360個の画像がキャプチャされる。構造認識モジュール160は、識別されていないオブジェクトのキャプチャされた画像を観察し、その画像をCADモデルの360個のキャプチャされた画像と比較することによって、オブジェクトおよびその配向を正確に識別することが可能である。
図1における矩形パッケージのオブジェクト126の例では、CADモデルはまた、オブジェクトおよびその貼付されたラベルのキャプチャを可能とするように回転する。円柱オブジェクト124の例と同様に、構造認識モジュール160は、識別されていないオブジェクト126のキャプチャされた画像を観察し、その画像をCADモデルの360個のキャプチャされた画像と比較することによって、オブジェクトおよびその配向を正確に識別することが可能である。
さらなる実施形態では、構造認識モジュール160は、平面的オブジェクトと平面的でないオブジェクトとの間の差異を識別するように訓練される。構造認識モジュール160は、ラベルがある平面またはラベルが隣接する平面を探索する。2つの隣接する平面が互いに対して90°にて認識されると、構造認識モジュール160は、オブジェクトが箱状であると結論付けることが可能である。一方、構造認識モジュール160は、単一の分離した平面しか識別しない場合、オブジェクトがポスターまたはスタンプなどの平坦な画像であると結論付けることが可能である。さらに別の実施形態では、構造認識モジュール160は平面を検出することができないものの、依然としてラベルを識別することができる場合、構造認識モジュールは、オブジェクトが湾曲したラベルであると結論付けることが可能である。
構造認識モジュール160の動作は、図5のフローチャートに記載され、図5では、開始200にて、オブジェクト124がモバイルデバイス116に対し提示される。工程202にて、モバイルデバイス116は、撮像デバイス138(図2参照)を用いてオブジェクト124の画像をキャプチャする。工程204では、構造認識モジュール160は、オブジェクト同士を区別するための複数の部分を生成するように、分割マーカを適用する。工程206では、構造認識モジュール160は、オブジェクト124における湾曲および境界を識別するためのグリッド系を適用する。工程208では、構造認識モジュール160は、湾曲および3D構造をシミュレーションするように、巻かれた知覚的マーカを使用する。
工程210では、構造認識モジュール160は、商品の特定のエリアを検出する。工程212では、構造認識モジュール160は、オブジェクト同士を区別するのを再び補助するように、パッケージの広がるエリアを検出する。工程214では、構造認識モジュール160は、光の勾配を評価し、オブジェクトの形状を判断する。当業者が認識するように、湾曲したオブジェクトは、平坦なオブジェクトよりも大きい光の勾配を有する。さらに、色彩認識モジュール162は、色彩の勾配変化を評価し、オブジェクト124の構造的性質をさらに識別するように利用されてよい。
工程216では、構造認識モジュール160は、オブジェクト124の縁を定めるように、コントラストおよびレベルフィルタを適用する。工程218では、構造認識モジュールは、オブジェクト124の縁の湾曲を評価する。工程220では、構造認識モジュール160は、オブジェクトの3D画像をキャプチャし、そのオブジェクト(例えば、図1におけるオブジェクト124~126)の3D構造を識別することが可能である。構造認識モジュール160は、オブジェクトの3D構造を決定するのを補助するように、上記の平面検出フィーチャを適用することも可能である。これらの処理を利用して、構造認識モジュール160は、工程222においてオブジェクトの3D形状を識別する。処理は、222にて終了する。
当業者は、この処理のすべての工程が、オブジェクト124の構造的性質を識別するのに必要とされなくてよいことを認識する。さらに、上記の工程は、異なる順序において行われてよい。構造的解析の完了時、モバイルデバイス116は、オブジェクト識別データをサーバ102に対し上記の手法により送信する。
色彩認識
システム100は、類似した形状の、異なる色彩または異なって色付けされたエリアを有する拡張現実マーカ同士の区別を成し遂げる。色彩認識モジュール162(図2参照)は、オブジェクトを識別するさらなる手段として、オブジェクト124の色彩を解析する。モバイルデバイス116のユーザは、異なる色彩、背景、文字色および類似のマーカ同士の任意の色彩の変化を有する類似のマーカ同士の区別をするように、色彩認識モジュール162を用いることができる。
色彩認識モジュール162は、レンダリングされた可変の、圧縮されたもしくは圧縮されていないファイル、またはマーカからのメタデータを介して、マーカの情報を決定することが可能である。色彩認識モジュール162は、類似の形状のマーカ同士の特定のパーセンテージの差異にて、不一致の色付けされたマーカの認識を制限するように修正されることも可能である。換言すると、色彩認識モジュール162は、色彩がマーカに一致しない場合、予想されたまたは特定の色彩に最も近い色彩を見つける。
モバイルデバイス116における撮像デバイス138(図2参照)は、オブジェクト124のキャプチャされた画像を表すデータ配列を生成する。その配列は、撮像デバイス138における光センサにおける赤色、緑色および青色(RGB)光検知素子からの色彩値などの情報を含む。RGBレベルに加えて、撮像デバイス138は、画像配列における各ピクセルについての明度レベル値を記憶する。色彩認識モジュール162は、色彩解析の際に、このデータを利用する。ARマーカ(またはマーカ)は、典型的には、コンピュータビジョン技術によって認識される任意のオブジェクトと考えられる。オブジェクトの色彩は、デジタルメディアにおける色彩の任意の変化および表示と考えられ得る。
色彩認識モジュール162に対する複数の異なるコンポーネントが存在する。各々は、以下に記載される。当業者は、以下に記載されるすべての色彩認識コンポーネントが実装される必要がなくてよいこと、またコンポーネントは、いくつかの場合には、以下に記載される以外の順序により実装されてよいことを認識する。
コンポーネント1-検出
色彩認識モジュール162は、レンダリングされたオブジェクト124を検出するように、デジタルメディア内におけるコンピュータビジョン解析を用いる。色彩認識モジュール162は、変数、データの配列またはレンダリングされる画像を取得することによって、色彩を識別する。マーカは、ラベルなどのオブジェクト内の対象の特定のエリアである。これらは、本質的には、オブジェクトの境界内またはオブジェクトの境界付近のサンプル点である。色彩情報は、マーカから取得される。
検出は、変数、等式、テンプレート、または対象のエリアのマーカ特有形状のような、認識の正確さを増加させるように予め作られたフィルタを用いることも可能である。フィルタは、用いられるテンプレートを表す変数として特定されることが可能であり、データの配列は、影響を受けるエリアもしくは対象のマップのエリアまたは画像を特定する。例えば、缶またはボトルにあるラベルが、対象のエリアと考えられてよい。別の例では、平坦なパッケージ上のラベルが、対象のエリアであってよい。これらの例では、対象のエリアについての色彩データ値の配列は、色彩認識モジュール162によって評価され最良の一致を決定することが可能である。
色彩は、0から255までの赤色、緑色および青色(RGB)値の範囲を用いてソートされることが可能である。テンプレートは、最も高精度の色彩検出を提供するマーカ上の特定の点を選択することによって、フィルタの精度を増加させる。色彩検出用に選択された点の位置を特定するテンプレートは、製品オーナーによって編集されることが可能である。これに代えて、色彩認識モジュール162は、システムに提供された所定の複数のテンプレートのうちの1つを用いることが可能である。
例示的な実施形態では、マーカ特有形状は、マーカ3D形状および画像の記憶された型を参照してよい。例えば、図4は、円柱(例えば、缶)上のチワワを示す。この例では、缶の精密な寸法に合わせて円柱上に湾曲しているチワワの犬は、データ記憶エリア140(図2参照)に保存されることが可能である。この記憶されたマーカにより、平坦な面上のチワワの犬と缶の湾曲した面上のチワワの犬との間の区別を容易にすること、また適正なビデオを再生することが可能となる。色彩認識モジュール162は、有利には、上に記載したように、マーカ特有形状を用いて3D空間の異なる面における色彩を決定することが可能である。記憶されたマーカがなくても、色彩認識モジュール162は、異なる色彩間の区別をする際、より高精度になるように、既知の機械学習技法を適用することが可能である。
取り出されたデータは、1つの2次元(2D)デジタルメディアから2次元的に、2つの2Dデジタルメディアから3次元的に、またはいくつかの交差次元デジタルメディアから交差次元的に受け取られることが可能である、交差次元データに基づくことが可能である。交差次元は、任意の次元(例えば、2Dまたは3D)からの任意の種類のデータを参照する。交差次元データは、色彩をより高精度に決定するように、色彩認識モジュール162によって用いられる。
例えば、色彩認識モジュール162は、複数の次元において、オブジェクト124にわたって、光の勾配を調査することが可能である。円柱オブジェクト124が、図1に示されるように垂直方向の位置にある場合、マーカサンプルにおける光の勾配は、円柱面における湾曲に起因して水平方向において変化する。すなわち、マーカサンプルから抽出される色彩の明度は、湾曲した縁付近におけるより暗いレベルから、オブジェクトの中間におけるより明るいレベルに進展し、オブジェクトの他の湾曲した縁付近においてより暗いレベルに戻る。対照的に、垂直方向のマーカサンプルにおける光の勾配は、その寸法において湾曲が存在しないため、オブジェクト124の頂部から底部まで一定である。
対象のエリアは、2次元、3次元または交差次元であるフィルタによってその対象のエリアが表されることが可能な交差次元面によって、表示されることが可能である。撮像デバイス138(図2参照)によって生成された色彩および明度のデータとそのデータに適用されるフィルタとは、システムにおいて考慮される製品を観察するときに、次元制約に基づいて変化することも可能である。
コンポーネント2-色彩レンダリング
色彩認識モジュール162は、識別されたマーカに対する各マーカの可能性を決定することによって、データをレンダリングする。これが決定されることが可能である複数の手法が存在する。
1つの例示的な実施形態では、色彩認識モジュール162は、データを単一の変数内に配置し、その変数が最も類似した変数を見出すまで、その変数を同等のマーカと比較する。上記の「変数」は、RGB色彩値を参照する。単一の変数は、特定のマーカにおける単一の選択されたピクセルからの色彩値を参照する。
これに代えて、色彩認識モジュール162は、データ(例えば、撮像デバイス138からのRGBおよび明度データ)を得ることが可能であり、各マーカについての配列内の色彩のすべての単一のデータを評価する。この場合、「配列」は、上記の単一の変数とは対照的に、複数の変数を参照する。例えば、色彩認識モジュール162は、ピクセルのグリッドをラベルにわたってレイアウトすることによって追加の変数を得ること、またラベルの色彩全体を理解するように、グリッドにおける各ピクセルについてのRGB色彩値を取り出すことが可能である。
これは、データから色彩を得ることと、そのデータを各マーカについての所望の色彩と比較することとによって行われる。次いで、2つの色彩間の差異を調べた後、その違いは変数に格納される。理論上は、色彩が理想的な色彩に近いほど差異は小さくなり、一方、理想的な色彩から離れるほど差異は大きくなる。複数の色彩の各1つを比較することと、各データの差異を同一の配列内に加えることとによって、マーカのすべてから加えられたより小さい値は、最も類似した値である必要がある。
コンポーネント3-色彩一致(マッチング)技術
色彩認識モジュール162は、これに代えて、色彩信号処理において用いられる、色相、彩度、および明度(HSV)、色相、彩度、および輝度(HSL)、ならびに赤色、緑色、および青色(RGB)技術を用いた、異なる型を実装してよい。HSVおよびHSLでは、色彩認識モジュール162は、色彩を決定する手法として色相を用いる。差異は、このマーカである可能性がどのくらいであるかに等しい。3D空間における距離を決定するようにユークリッドの方法を用いることによるRGBでは、色彩認識モジュール162は、このマーカである可能性を決定するための追加の変数として距離を使用する。その可能性は、RGB、HSVおよびHSLの組合せとして評価されることも可能である。RGB、HSVおよびHSLについての結果を解析することによって、色彩認識モジュール162は、示された色彩である可能性がどのくらいであるかを確実に決定することが可能である。
さらに別の代替の解析技法では、色彩認識モジュール162は、所望のマーカに基づくフィルタを用いることによって、類似性を評価する。データが交差次元フィルタを用いることによって評価され、色彩と評価の結果とを調べる場合、実際のデータを用いたこのフィルタは、追跡されるオブジェクトである画像の可能性を生じる。HSVおよびHSLでは、HSVおよびHSLをより正確にするように、色彩認識モジュール162は、色相を過剰値として評価し、同様に、色彩がある範囲内である場合に限り、その色彩しか受け入れない。
コンポーネント4-オフセット計算技術
オフセットは、すべての他のマーカを有する平らな場の中に色彩を置くように用いられる変数である。例えば、特定の色彩の大きい広がりが存在すると、色彩認識モジュール162は、大きな量のこの色彩が存在することを認識し、他のマーカ同士のランク付けにおいてその色彩を一様にすることを決定することが可能である。オフセットの使用は、画像をレンダリングすること、関連する色彩以外の色彩を取り除くこと、およびその色彩の量を減少させることであり、その結果、異なるオブジェクト124と誤認することはできない。オフセットは、色彩の量による画像の圧縮の手法である。しかしながら、オフセットは、システムが、影響を受けるエリアの場所を具体的に知ること、また関係ない色彩を避けることを補助する色彩フィルタの表示であることも可能である。
コンポーネント5-オフセットレンダリング
オフセットは、影響を受けるエリアに関連付けられた撮像データを識別することによって処理される。オフセットは、対象のエリアを示すファイル、または対象のエリアにとって重要でない色彩の圧縮された量を表す変数によって表されることが可能である。オフセットは、データをシステムのものと同様に取得するように、色彩認識モジュール162によってレンダリングされることが可能であり、必要なフィルタまたは変数を生成する。オフセットは、無視されることが望まれるデータ、または無視される必要がある関連する色彩からのデータを表す。例えば、ラベルは、赤色の背景における白色文字により、主に赤色であってよい。通常の条件下では、色彩認識システムが白色文字を識別するのは困難であり得る。本明細書に記載されるオフセットレンダリングは、色彩認識モジュール162に、白色文字がより容易に背景から見分けられるように、主な色(本例においては赤色)を無視させるよう、有効に命令する。
コンポーネント6-色彩マーカペアリング
マーカは、カテゴリおよびサブカテゴリによって分類される。ここでは、カテゴリは、まず形状、次いで色彩として定められることが可能であり、または、まず色彩、次いで形状として定められることが可能である。これらは同様に、必要に応じて、色彩に基づいて個々のマーカとして定められることも可能である。
コンポーネント7-限定認識
十分に類似しない場合にはいくつかのマーカが示されることを防止することが可能であるシステム内に、変数が存在する。同様に、明度および他の要因を考慮するべく正確さの増加および減少を補助することが可能である変数が存在することが可能である。ラベルが色彩認識モジュール162によって識別されることができない場合、任意のビデオがモバイルデバイス116に表示されることを防止することが可能であってよい。
コンポーネント8-ホワイトバランス
この特徴は、様々な光源における、より高精度な色彩検出を可能とする。例えば、日没時、照明は非常に黄色になる。青色のラベルがこの照明下に置かれるとき、アプリは、出力が微かな青色を伴う黄色となることを読み取る。これは、所望される青色の結果の代わりに、黄色のラベルの失敗した出力を生じる。解決策は、完全な白色であるラベルの部分を選択することである。白色が何色になっているかを理解することによって、本当の色を出力するように画像を再調節することが可能である。図8の例は、チワワの犬がラベル上にあり白色ピクセルがチワワの画像の真下にあるラベルを示す。
別の例では、撮影者は、露出における白色バランスを提供するように、18%の反射率のグレーカードを用いる。カラー写真におけるグレーカードの使用は、周知である。同様に、ラベルは、上記の完全な白色ピクセルまたはグレーカードである、ラベル上の小さい色彩補正セグメントまたは領域を含むことが可能である。
コンポーネント9-RGBキューブ
撮像デバイス138(図2参照)によってキャプチャされたオブジェクトの色彩構成を決定することが有用であり得る。3D空間にRGBキューブを生成することによって、色彩の精密な出力を正確に示すことができる。図9は、色彩認識モジュール162が色彩の識別時に何を行っているかを視覚的に理解するように、トラブルシューティングツールとして便利に用いられ得る、そうした色彩キューブを示す。RGBキューブは、赤色をX軸に、青色をZ軸に、および緑色をY軸に置くことによって、出力の色彩を反映する。撮像デバイス138(図1参照)を通じて色彩が検出されたとき、その色彩は色彩認識モジュール162を通じて送られ、検出された実際の色彩としてRGBキューブに反映される。現時点では、RGBキューブは、トラブルシューティング動作に用いられるが、色彩認識モジュール162の実際の動作には用いらない。
結論
したがって、色彩認識モジュール162は、以下のコンポーネントのうちの1つまたはすべてを用いることが可能である。検出、色彩レンダリング、色彩一致技術、オフセット計算技術、オフセットレンダリング、色彩マーカペアリング、限定認識ホワイトバランス、およびRGBキューブ。したがって、このコンポーネントのうちのいずれかの任意の組合せは、色彩認識モジュール162によって実装されることが可能である。
システム100は、類似の形状であるが異なる色彩の異なるマーカ同士を区別するように、色彩認識モジュール162を使用することができる。色彩認識モジュール162は、フィルタリングシステムを用いることと設定を制限することとによって、色彩の任意の区域間の差異を決定することも可能である。
色彩認識モジュール162の動作は、図6のフローチャートに記載され、ここでは、開始230にて、モバイルデバイス116における撮像デバイス138(図2参照)がオブジェクト124の画像をキャプチャしている。工程232では、色彩認識モジュール162は、マーカを識別子、識別されたマーカに関連する関連データを取り出す。工程236では、色彩認識モジュール162は、色彩一致解析を行い、識別されたマーカの色彩を決定する。
工程238では、色彩認識モジュール162は、必要に応じて大きい広がりの色彩の効果を減少させるべく色彩レベルを調節するように、オフセット計算を決定する。工程240では、色彩認識モジュール162は、色彩のオフセットを適用し、対象の特定のエリアにとっては重要でない色彩を調節する。工程242では、色彩認識モジュール162は、色彩とマーカとをペアリングするように構成されている。上記の通り、この処理は、形状および色彩の両方に対し行われてよい。工程244では、色彩認識モジュール162は、マーカが期待された値に十分類似しない場合は、マーカを制限する(すなわち、除去する)。
工程246では、色彩認識モジュール162は、色彩解釈エラーを導き得る周囲の照明条件用に調節するべく、ホワイトバランス処理を行うように構成されている。上記の通り、ホワイトバランス処理は、オブジェクト(例えば、図1におけるオブジェクト124)において知られた白色ピクセルを用いてよい。同様のホワイトバランス処理が、ラベル上の白色補正セグメントまたはグレーカード補正セグメントにより行われることが可能である。
トラブルシューティング目的のため、工程248では、撮像デバイス138(図2参照)からの色彩データは、図9に示されるように表示するため、RGBキューブに対し送られることが可能である。これは、例えば、ラベル上の白色ピクセルまたは白色/灰色補正セグメントを用いた白色バランスの調節とともに、有用であり得る。最後に、工程250では、オブジェクトは色彩認識に基づいて識別され、処理は252にて終了する。
言語識別
システム100はまた、異なる言語のオーディオファイルの選択を可能とする。この態様では、特定のビデオARファイルは、複数の対応するオーディオファイルであるが、異なる言語のものであってよい。上記の通り、モバイルデバイスのユーザは、モバイルデバイスの動作用の言語を、そのデバイス自身の初期のセットアップの一部として選択する。そのデータは、データ記憶エリア140(図2参照)に記憶される。
モバイルデバイス116は、言語選択データをサーバ102(図1参照)に送る。このデータは、オブジェクト識別データの送信に含まれてよく、または別々の通信であってよい。サーバは、オブジェクト識別データに基づいて所望のビデオARファイルを識別する。上記の通り、サーバは、識別されたビデオARファイルに対応する複数のオーディオARファイルにアクセスすることが可能である。サーバ102は、次いで、モバイルデバイス116からの言語選択データに対応する言語の対応するオーディオARファイルのうちの1つを選択するように、言語選択データを用いることが可能である。言語識別およびオーディオARファイル選択は、図7のフローチャートにおいて概説される。開始260にて、モバイルデバイス116はユーザによって構成されており、言語選択を含むユーザ選択パラメータはデータ記憶エリア140(図2参照)に維持される。工程262では、モバイルデバイス116におけるシステム100は、そのモバイルデバイス用のユーザ言語選択を読み取る。工程264では、モバイルデバイスは、言語選択データを上記の通信リンクを介してサーバ102に送る。
サーバ102(図1参照)は、工程266において、受信した情報を用いて、選択された言語を識別する。サーバ102は、随意では、特定のモバイルデバイス(例えば、図1のモバイルデバイス116)に関連付けられた言語選択パラメータを記憶してよい。工程268では、サーバ102は、選択されたビデオファイルに対応するとともに選択された言語に一致するオーディオデータファイルを選択する。工程270では、サーバ102は、オーディオファイルを、ビデオファイルに対する適切な言語選択に結び付ける。工程272では、サーバ102は、適切な選択されたビデオファイルを有するARファイルと、ユーザ選択言語を有する対応するオーディオファイルとを、そのユーザ選択言語のその対応するオーディオファイルの表示および再生用に、モバイルデバイス116に対し送信する。処理は、274にて終了する。
上記の実施形態は、様々な他のコンポーネント内に含まれる、または様々な他のコンポーネントと接続される、様々なコンポーネントを示す。示されたアーキテクチャは例示に過ぎず、実際には多くの他のアーキテクチャが同じ機能を達成するように実装されることが可能であることが理解される。
概念的な意味では、同じ機能を達成するためのコンポーネントの任意の配置が、所望の機能を達成するように、有効に「関連する」。したがって、特定の機能を達成するように組み合わせられた本明細書における任意の2つのコンポーネントは、アーキテクチャまたは中間コンポーネントにかかわらず、所望の機能が達成されるように、互いに「関連付けられている」と理解される。同様に、そのように関連付けられた任意の2つのコンポーネントは、所望の機能を達成するように、互いに対し「動作可能に接続されている」、または「動作可能に結合されている」とも見られることが可能である。
本開示の実施形態は、以下の項を考慮して記載されることが可能である。
1.モバイル通信デバイスにおける拡張現実(AR)の制御のための方法であって、
表示用にレンダリングされる1つ以上のオブジェクトを含む画像をキャプチャするように構成された撮像デバイスと、
キャプチャされた前記画像を2次元データ配列としてメモリに記憶する工程と、
記憶された前記画像内のレンダリングされる前記オブジェクトを検出する工程と、
前記オブジェクトの構造的形状を識別する形状識別工程と、
前記オブジェクトの色彩を識別する工程と、
前記オブジェクトの識別された前記構造および識別された前記色彩に基づいて、キャプチャされた前記画像における前記オブジェクトを識別する工程と、
前記オブジェクトについての構造的形状情報および色彩情報を含むオブジェクト識別データを、サーバに対し送信する工程と、
前記サーバが、前記オブジェクト識別データを用いて、前記サーバに記憶された複数のARビデオファイルから1つの拡張現実(AR)ビデオファイルを選択する工程と、
選択された前記1つのARビデオファイルを前記モバイル通信デバイスに対し送信する工程と、
前記モバイル通信デバイスが、受信された前記1つのARビデオファイルを前記モバイル通信デバイスのディスプレイにおいて再生する工程と、を備える、方法。
2.前記モバイル通信デバイスが、前記モバイル通信デバイスの動作用のユーザ言語選択に基づく言語選択パラメータを送信する工程と、
前記サーバが、受信された前記言語選択パラメータを用いて、前記サーバに記憶された複数のARオーディオファイルから1つの拡張現実(AR)オーディオファイルを選択する工程であって、選択された前記1つのARオーディオファイルは、選択された前記1つのARビデオファイルに対応し、前記言語選択パラメータに対応する言語によるARオーディオファイルである、工程と、
選択された前記1つのARオーディオファイルを前記モバイル通信デバイスに対し送信する工程と、
前記モバイル通信デバイスが、受信された前記1つのARビデオファイルが前記モバイル通信デバイスの前記ディスプレイにおいて再生されるのとともに、受信された前記ARオーディオを前記モバイル通信デバイスのオーディオ出力デバイスにおいて再生する工程と、をさらに備える、1項に記載の方法。
3.前記形状識別工程は、
キャプチャされた前記画像を複数の部分を生成するように分解することによって、キャプチャされた前記画像内のオブジェクト同士を区別する工程と、
グリッドを適用することによって、キャプチャされた前記画像内の湾曲および境界を識別する工程と、
光の勾配を評価することによって、キャプチャされた前記画像におけるオブジェクトの任意の湾曲を識別する工程と、をさらに含む、1または2項に記載の方法。
4.前記形状識別工程は、キャプチャされた前記画像における前記光の勾配に基づいて、キャプチャされた前記オブジェクトを3次元(3D)円柱オブジェクトとして識別する工程をさらに含む、3項に記載の方法。
5.前記形状識別工程は、キャプチャされた前記画像における前記光の勾配に基づいて、キャプチャされた前記オブジェクトを3次元(3D)矩形オブジェクトとして識別する工程をさらに含む、3または4項に記載の方法。
6.前記形状識別工程は、キャプチャされた前記画像における前記光の勾配に基づいて、キャプチャされた前記オブジェクトを2次元(2D)オブジェクトとして識別する工程をさらに含む、3~5項のいずれか一項に記載の方法。
7.前記形状識別工程は、
製品の3次元(3D)モデルを生成する工程と、
様々な回転位置における前記3Dモデルの一連の画像をキャプチャすることによって、前記3Dモデルの360°の一連の画像を生成する、キャプチャ工程と、
記憶された前記画像を前記3Dモデルの前記一連の画像のうちの1つ以上と比較し、記憶された前記画像と前記3Dモデルの前記一連の画像のうちの前記1つ以上との間の一致を決定することによって、記憶された前記画像を識別する工程と、をさらに含む、1~6項のいずれか一項に記載の方法。
8.前記キャプチャ工程は、前記3Dモデルの前記一連の画像を増分1度の複数の回転位置にてキャプチャすることによって、1度の回転増分で前記3Dモデルの360個の画像を生成する工程を含む、7項に記載の方法。
9.キャプチャされた前記オブジェクトの特定の領域を指定する工程と、
キャプチャされた前記オブジェクトの前記特定の領域に関連付けられた色彩データを取り出す工程と、
色彩一致解析を行い、キャプチャされた前記オブジェクトの前記特定の領域の前記色彩を決定する工程と、をさらに含む、1~8項のいずれか一項に記載の方法。
10.前記色彩識別工程は、
キャプチャされた前記オブジェクトの前記特定の領域における大きい広がりの色彩の効果を減少させるべく色彩レベルを調節するように、オフセット計算を決定する工程と、
色彩のオフセットを適用することによって、キャプチャされた前記オブジェクトの前記特定の領域において重要でない前記大きい広がりの色彩を調節する工程と、をさらに含む、9に記載の方法。
11.前記色彩識別工程は、
前記オブジェクトの1つの領域を白色領域として指定する工程と、所定の周囲光条件下における前記白色領域に関連付けられた色彩データ値を取り出す工程と、
前記所定の周囲光条件下における前記白色領域に関連付けられた前記色彩データ値を記憶する工程と、
キャプチャされた前記画像の前記白色領域に関連付けられた色彩データ値を取り出す工程と、
前記白色領域についての取り出された色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の差異を決定する工程と、
前記白色領域についての取り出された前記色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の前記差異に基づいて、キャプチャされた前記画像について前記色彩データを調節し、それによって、前記所定の周囲光条件とは異なる周囲光条件を補償するように色彩バランスを調節する工程と、をさらに含む、9または10項に記載の方法。
12.色彩ディスプレイを有するモバイル通信デバイスにおける拡張現実(AR)の制御のためのシステムであって、
表示用にレンダリングされる1つ以上のオブジェクトを含む画像をキャプチャするように構成された撮像デバイスと、
計算命令を記憶するように、またキャプチャされた前記画像を記憶するように構成された、データ記憶デバイスと、
前記計算命令を取り出すように前記データ記憶デバイスに対し結合された1つまたは複数のプロセッサと、を備え、前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
記憶された前記画像内のレンダリングされる前記オブジェクトを検出することと、
オブジェクトの構造的形状を識別することと、
前記オブジェクトの色彩を識別することと、
前記オブジェクトの識別された前記構造および識別された前記色彩に基づいて、キャプチャされた前記画像における前記オブジェクトを識別することと、
前記オブジェクトについての構造的形状情報および色彩情報を含むオブジェクト識別データを、サーバに対し送信することと、
前記モバイル通信デバイスにて、前記オブジェクト識別データの前記サーバに対する前記送信に応答して、前記オブジェクト識別データに基づいて、前記サーバに記憶された複数のARビデオファイルから、前記サーバによって選択された1つの選択された拡張現実(AR)ビデオファイルを受信することと、
受信された前記1つのARビデオファイルを前記モバイル通信デバイスの前記色彩ディスプレイにおいて再生することと、を行わせる、システム。
13.オーディオ出力デバイスを有するモバイル通信デバイスとともに用いるためのシステムであって、
前記モバイル通信デバイスが、前記モバイル通信デバイスの動作用のユーザ言語選択に基づく言語選択パラメータを送信することと、
前記モバイル通信デバイスにて、前記言語選択パラメータの前記サーバに対する前記送信に応答して、前記言語選択パラメータに基づいて、前記サーバに記憶された複数のARオーディオファイルから、前記サーバによって選択された1つの選択された拡張現実(AR)オーディオファイルを受信することと、
前記モバイル通信デバイスの前記色彩ディスプレイにおいて再生されている受信された前記1つのARビデオファイルとともに、受信された前記1つのARオーディオファイルを前記モバイル通信デバイスの前記オーディオ出力デバイスにおいて再生することと、をさらに備える、12項に記載のシステム。
14.前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
キャプチャされた前記画像を複数の部分を生成するように分解することによって、キャプチャされた前記画像内のオブジェクト同士を区別することと、
グリッドを適用することによって、キャプチャされた前記画像内の湾曲および境界を識別することと、
光の勾配を評価することによって、キャプチャされた前記画像におけるオブジェクトの任意の湾曲を識別することと、によって、前記オブジェクトの構造的形状を識別することをさらに行わせる、12項に記載のシステム。
15.前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、キャプチャされた前記画像における前記光の勾配に基づいて、前記オブジェクトの前記構造的形状を3次元(3D)円柱オブジェクトとして識別することをさらに行わせる、14項に記載のシステム。
16.前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、キャプチャされた前記画像における前記光の勾配に基づいて、前記オブジェクトの前記構造的形状を3次元(3D)矩形オブジェクトとして識別することをさらに行わせる、14または15項に記載のシステム。
17.前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、キャプチャされた前記画像における前記光の勾配に基づいて、前記オブジェクトの前記構造的形状を2次元(2D)オブジェクトとして識別することをさらに行わせる、14~16項のいずれか一項に記載のシステム。
18.前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
製品の3次元(3D)モデルを生成することと、
様々な回転位置における前記3Dモデルの一連の画像をキャプチャすることによって、前記3Dモデルの360°の一連の画像を生成することと、
記憶された前記画像を前記3Dモデルの前記一連の画像のうちの1つ以上と比較し、記憶された前記画像と前記3Dモデルの前記一連の画像のうちの前記1つ以上との間の一致を決定することによって、記憶された前記画像を識別することと、をさらに行わせる、12~17項のいずれか一項に記載のシステム。
19.前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、前記3Dモデルの前記一連の画像を増分1度の複数の回転位置にてキャプチャすることにより、1度の回転増分で前記3Dモデルの360個の画像を生成することによって、前記オブジェクトの構造的形状を識別することをさらに行わせる、18項に記載のシステム。
20.前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
キャプチャされた前記オブジェクトの特定の領域を指定することと、
キャプチャされた前記オブジェクトの前記特定の領域に関連付けられた色彩データを取り出すことと、
色彩一致解析を行い、キャプチャされた前記オブジェクトの前記特定の領域の前記色彩を決定することと、によって前記オブジェクトの前記色彩を識別することをさらに行わせる、12~19項のいずれか一項に記載のシステム。
21.前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
キャプチャされた前記オブジェクトの前記特定の領域における大きい広がりの色彩の効果を減少させるべく色彩レベルを調節するように、オフセット計算を決定することと、
色彩のオフセットを適用することによって、キャプチャされた前記オブジェクトの前記特定の領域における前記大きい広がりの色彩を減少させることと、によって、前記オブジェクトの前記色彩を識別することをさらに行わせる、20項に記載のシステム。
22.前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
前記オブジェクトの1つの領域を白色領域として指定することと、
所定の周囲光条件下における前記白色領域に関連付けられた色彩データ値を取り出すことと、
前記所定の周囲光条件下における前記白色領域に関連付けられた前記色彩データ値を記憶することと、
キャプチャされた前記画像の前記白色領域に関連付けられた色彩データ値を取り出すことと、
前記白色領域についての取り出された色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の差異を決定することと、
前記白色領域についての取り出された前記色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の前記差異に基づいて、キャプチャされた前記画像について前記色彩データを調節し、それによって、前記所定の周囲光条件とは異なる周囲光条件を補償するように色彩バランスを調節することと、をさらに含む、20または21項に記載のシステム。
本発明の特定の実施形態が示され、記載されているが、当業者が、本明細書における教示に基づいて、本発明および本発明のより広い態様から逸脱することなく、変更及び修正をなし得ることが明らかであり、したがって、添付の特許請求の範囲は、すべてのそうした変更及び修正が本発明の本質および範囲内であるように、本発明の範囲に含まれる。さらに、本発明は、添付の特許請求の範囲によって定められるに過ぎないことが理解される。一般に、本明細書および特に添付の特許請求の範囲(例えば、添付の特許請求の範囲の本体)において用いられる用語、は、一般に、「開いた」用語として示されることが、当業者によって理解される。(例えば、用語「含む(including)」は、「含むがそれらに限定されない」と解され、用語「有する」は、「少なくとも・・・を有する」と解され、用語「含む(includes)」は、「含むがそれらに限定されない」と解されるなど。)前置の請求項記載の特定の数値が意図される場合、そうした意図は、請求項に明示的に記載され、そうした記載がない場合はそうした意図が存在しないことが、当業者によってさらに理解される。例えば、理解を補助するように、以下の添付の特許請求の範囲は、請求項記載の前置きをするように、前置きのフレーズ「1つ以上の」および「1つまたは複数の」の使用を含み得る。しかしながら、そうしたフレーズの使用は、同一の請求項が前置きのフレーズ「1つまたは複数の」または「1つ以上の」および「1つの(a)」または「1つの(an)」(例えば、「1つの(a)」および/または「1つの(an)」は、典型的には、「1つ以上の」または「1つまたは複数の」を意味するように解される)などの不定冠詞を含むときでも、不定冠詞「1つの(a)」または「1つの(an)」による請求項記載の前置きが、1つのそうした記載しか含まない発明に対するそうした前置きの請求項記載を含む、任意の特定の請求項を限定することを示唆するようには考慮されず、同一の理解が、請求項記載の前置きをするように使用される定冠詞の使用について当てはまる。これに加えて、前置きの請求項記載の特定の数値が明示的に記載されたとしても、当業者は、そうした記載は典型的には記載された数値以上(例えば、他の修飾を伴わない「2つの記載」の最低限の記載は、典型的には、2つ以上の記載、または2つもしくはより多くの記載である)を意味するように解されることを認識する。
したがって、本発明は、添付の特許請求の範囲による場合を除いて限定されない。

Claims (22)

  1. モバイル通信デバイスにおける拡張現実(AR)の制御のための方法であって、
    表示用にレンダリングされる1つ以上のオブジェクトを含む画像をキャプチャするように構成された撮像デバイスと、
    キャプチャされた前記画像を2次元データ配列としてメモリに記憶する工程と、
    記憶された前記画像内のレンダリングされる前記オブジェクトを検出する工程と、
    前記オブジェクトの構造的形状を識別する形状識別工程と、
    前記オブジェクトの色彩を識別する色彩識別工程と、
    前記オブジェクトの識別された前記構造および識別された前記色彩に基づいて、前記オブジェクト内の特定のエリアをマーカとして検出する工程と、
    前記特定のエリアの形状および色彩に基づいて、前記マーカを識別する工程と、
    識別された前記マーカに対応する識別データを、サーバに対し送信する工程と、
    前記サーバが、前記マーカの前記識別データを用いて、前記サーバに記憶された複数のARビデオファイルから1つの拡張現実(AR)ビデオファイルを選択する工程と、
    選択された前記1つのARビデオファイルを前記モバイル通信デバイスに対し送信する工程と、
    前記モバイル通信デバイスが、受信された前記1つのARビデオファイルを前記モバイル通信デバイスのディスプレイにおいて再生する工程と、を備える、方法。
  2. 前記モバイル通信デバイスが、前記モバイル通信デバイスの動作用のユーザ言語選択に基づく言語選択パラメータを送信する工程と、
    前記サーバが、受信された前記言語選択パラメータを用いて、前記サーバに記憶された複数のARオーディオファイルから1つの拡張現実(AR)オーディオファイルを選択する工程であって、選択された前記1つのARオーディオファイルは、選択された前記1つのARビデオファイルに対応し、前記言語選択パラメータに対応する言語によるARオーディオファイルである、工程と、
    選択された前記1つのARオーディオファイルを前記モバイル通信デバイスに対し送信する工程と、
    前記モバイル通信デバイスが、受信された前記1つのARビデオファイルが前記モバイル通信デバイスの前記ディスプレイにおいて再生されるのとともに、受信された前記ARオーディオを前記モバイル通信デバイスのオーディオ出力デバイスにおいて再生する工程と、をさらに備える、請求項1に記載の方法。
  3. 前記形状識別工程は、
    キャプチャされた前記画像を複数の部分を生成するように分解することによって、キャプチャされた前記画像内のオブジェクト同士を区別する工程と、
    グリッドを適用することによって、キャプチャされた前記画像内の湾曲および境界を識別する工程と、
    光の勾配を評価することによって、キャプチャされた前記画像におけるオブジェクトの任意の湾曲を識別する工程と、をさらに含む、請求項1に記載の方法。
  4. 前記形状識別工程は、キャプチャされた前記画像における前記光の勾配に基づいて、キャプチャされた前記オブジェクトを3次元(3D)円柱オブジェクトとして識別する工程をさらに含む、請求項3に記載の方法。
  5. 前記形状識別工程は、キャプチャされた前記画像における前記光の勾配に基づいて、キャプチャされた前記オブジェクトを3次元(3D)矩形オブジェクトとして識別する工程をさらに含む、請求項3に記載の方法。
  6. 前記形状識別工程は、キャプチャされた前記画像における前記光の勾配に基づいて、キャプチャされた前記オブジェクトを2次元(2D)オブジェクトとして識別する工程をさらに含む、請求項3に記載の方法。
  7. 前記形状識別工程は、
    製品の3次元(3D)モデルを生成する工程と、
    様々な回転位置における前記3Dモデルの一連の画像をキャプチャすることによって、前記3Dモデルの360°の一連の画像を生成する、キャプチャ工程と、
    記憶された前記画像を前記3Dモデルの前記一連の画像のうちの1つ以上と比較し、記憶された前記画像と前記3Dモデルの前記一連の画像のうちの前記1つ以上との間の一致を決定することによって、記憶された前記画像を識別する工程と、をさらに含む、請求項1に記載の方法。
  8. 前記キャプチャ工程は、前記3Dモデルの前記一連の画像を増分1度の複数の回転位置にてキャプチャすることによって、1度の回転増分で前記3Dモデルの360個の画像を生成する工程を含む、請求項7に記載の方法。
  9. キャプチャされた前記オブジェクトの特定の領域を指定する工程と、
    キャプチャされた前記オブジェクトの前記特定の領域に関連付けられた色彩データを取り出す工程と、
    色彩一致解析を行い、キャプチャされた前記オブジェクトの前記特定の領域の前記色彩を決定する工程と、をさらに含む、請求項1に記載の方法。
  10. 前記色彩識別工程は、
    キャプチャされた前記オブジェクトの前記特定の領域における大きい広がりの色彩の効果を減少させるべく色彩レベルを調節するように、オフセット計算を決定する工程と、
    色彩のオフセットを適用することによって、キャプチャされた前記オブジェクトの前記特定の領域において重要でない前記大きい広がりの色彩を調節する工程と、をさらに含む、請求項9に記載の方法。
  11. 前記色彩識別工程は、
    前記オブジェクトの1つの領域を白色領域として指定する工程と、所定の周囲光条件下における前記白色領域に関連付けられた色彩データ値を取り出す工程と、
    前記所定の周囲光条件下における前記白色領域に関連付けられた前記色彩データ値を記憶する工程と、
    キャプチャされた前記画像の前記白色領域に関連付けられた色彩データ値を取り出す工程と、
    前記白色領域についての取り出された色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の差異を決定する工程と、
    前記白色領域についての取り出された前記色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の前記差異に基づいて、キャプチャされた前記画像について前記色彩データを調節し、それによって、前記所定の周囲光条件とは異なる周囲光条件を補償するように色彩バランスを調節する工程と、をさらに含む、請求項9に記載の方法。
  12. 色彩ディスプレイを有するモバイル通信デバイスにおける拡張現実(AR)の制御のためのシステムであって、
    表示用にレンダリングされる1つ以上のオブジェクトを含む画像をキャプチャするように構成された撮像デバイスと、
    計算命令を記憶するように、またキャプチャされた前記画像を記憶するように構成された、データ記憶デバイスと、
    前記計算命令を取り出すように前記データ記憶デバイスに対し結合された1つまたは複数のプロセッサと、を備え、前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
    記憶された前記画像内のレンダリングされる前記オブジェクトを検出することと、
    オブジェクトの構造的形状を識別することと、
    前記オブジェクトの色彩を識別することと、
    前記オブジェクトの識別された前記構造および識別された前記色彩に基づいて、前記オブジェクト内の特定のエリアをマーカとして検出することと、
    前記特定のエリアの形状および色彩に基づいて、前記マーカを識別する工程と、
    識別された前記マーカに対応する識別データを、サーバに対し送信することと、
    前記モバイル通信デバイスにて、前記マーカの前記識別データの前記サーバに対する前記送信に応答して、前記マーカの前記識別データに基づいて、前記サーバに記憶された複数のARビデオファイルから、前記サーバによって選択された1つの選択された拡張現実(AR)ビデオファイルを受信することと、
    受信された前記1つのARビデオファイルを前記モバイル通信デバイスの前記色彩ディスプレイにおいて再生することと、を行わせる、システム。
  13. オーディオ出力デバイスを有するモバイル通信デバイスとともに用いるためのシステムであって、
    前記モバイル通信デバイスが、前記モバイル通信デバイスの動作用のユーザ言語選択に基づく言語選択パラメータを送信することと、
    前記モバイル通信デバイスにて、前記言語選択パラメータの前記サーバに対する前記送信に応答して、前記言語選択パラメータに基づいて、前記サーバに記憶された複数のARオーディオファイルから、前記サーバによって選択された1つの選択された拡張現実(AR)オーディオファイルを受信することと、
    前記モバイル通信デバイスの前記色彩ディスプレイにおいて再生されている受信された前記1つのARビデオファイルとともに、受信された前記1つのARオーディオファイルを前記モバイル通信デバイスの前記オーディオ出力デバイスにおいて再生することと、をさらに備える、請求項12に記載のシステム。
  14. 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
    キャプチャされた前記画像を複数の部分を生成するように分解することによって、キャプチャされた前記画像内のオブジェクト同士を区別することと、
    グリッドを適用することによって、キャプチャされた前記画像内の湾曲および境界を識別することと、
    光の勾配を評価することによって、キャプチャされた前記画像におけるオブジェクトの任意の湾曲を識別することと、によって、前記オブジェクトの構造的形状を識別することをさらに行わせる、請求項12に記載のシステム。
  15. 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、キャプチャされた前記画像における前記光の勾配に基づいて、前記オブジェクトの前記構造的形状を3次元(3D)円柱オブジェクトとして識別することをさらに行わせる、請求項14に記載のシステム。
  16. 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、キャプチャされた前記画像における前記光の勾配に基づいて、前記オブジェクトの前記構造的形状を3次元(3D)矩形オブジェクトとして識別することをさらに行わせる、請求項14に記載のシステム。
  17. 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、キャプチャされた前記画像における前記光の勾配に基づいて、前記オブジェクトの前記構造的形状を2次元(2D)オブジェクトとして識別することをさらに行わせる、請求項14に記載のシステム。
  18. 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
    製品の3次元(3D)モデルを生成することと、
    様々な回転位置における前記3Dモデルの一連の画像をキャプチャすることによって、前記3Dモデルの360°の一連の画像を生成することと、
    記憶された前記画像を前記3Dモデルの前記一連の画像のうちの1つ以上と比較し、記憶された前記画像と前記3Dモデルの前記一連の画像のうちの前記1つ以上との間の一致を決定することによって、記憶された前記画像を識別することと、をさらに行わせる、請求項12に記載のシステム。
  19. 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、前記3Dモデルの前記一連の画像を増分1度の複数の回転位置にてキャプチャすることにより、1度の回転増分で前記3Dモデルの360個の画像を生成することによって、前記オブジェクトの構造的形状を識別することをさらに行わせる、請求項18に記載のシステム。
  20. 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
    キャプチャされた前記オブジェクトの特定の領域を指定することと、
    キャプチャされた前記オブジェクトの前記特定の領域に関連付けられた色彩データを取り出すことと、
    色彩一致解析を行い、キャプチャされた前記オブジェクトの前記特定の領域の前記色彩を決定することと、によって前記オブジェクトの前記色彩を識別することをさらに行わせる、請求項12に記載のシステム。
  21. 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
    キャプチャされた前記オブジェクトの前記特定の領域における大きい広がりの色彩の効果を減少させるべく色彩レベルを調節するように、オフセット計算を決定することと、
    色彩のオフセットを適用することによって、キャプチャされた前記オブジェクトの前記特定の領域における前記大きい広がりの色彩を減少させることと、によって、前記オブジェクトの前記色彩を識別することをさらに行わせる、請求項20に記載のシステム。
  22. 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
    前記オブジェクトの1つの領域を白色領域として指定することと、
    所定の周囲光条件下における前記白色領域に関連付けられた色彩データ値を取り出すことと、
    前記所定の周囲光条件下における前記白色領域に関連付けられた前記色彩データ値を記憶することと、
    キャプチャされた前記画像の前記白色領域に関連付けられた色彩データ値を取り出すことと、
    前記白色領域についての取り出された色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の差異を決定することと、
    前記白色領域についての取り出された前記色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の前記差異に基づいて、キャプチャされた前記画像について前記色彩データを調節し、それによって、前記所定の周囲光条件とは異なる周囲光条件を補償するように色彩バランスを調節することと、をさらに含む、請求項20に記載のシステム。
JP2021531466A 2018-08-08 2019-08-08 拡張現実ディスプレイデバイスにおける動作のためのシステムおよび方法 Active JP7439088B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862716273P 2018-08-08 2018-08-08
US62/716,273 2018-08-08
US16/179,315 US10909375B2 (en) 2018-08-08 2018-11-02 System and method for operation in an augmented reality display device
US16/179,315 2018-11-02
PCT/US2019/045781 WO2020033747A1 (en) 2018-08-08 2019-08-08 System and method for operation in an augmented reality display device

Publications (2)

Publication Number Publication Date
JP2021534521A JP2021534521A (ja) 2021-12-09
JP7439088B2 true JP7439088B2 (ja) 2024-02-27

Family

ID=69415140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021531466A Active JP7439088B2 (ja) 2018-08-08 2019-08-08 拡張現実ディスプレイデバイスにおける動作のためのシステムおよび方法

Country Status (4)

Country Link
EP (1) EP3834096A4 (ja)
JP (1) JP7439088B2 (ja)
CN (1) CN112703492A (ja)
WO (1) WO2020033747A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114769021B (zh) * 2022-04-24 2022-11-25 广东天太机器人有限公司 一种基于全角度模板识别的机器人喷涂系统及方法
CN114751153B (zh) * 2022-04-24 2023-03-10 广东天太机器人有限公司 一种全角度的多模板码垛系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006114995A (ja) 2004-10-12 2006-04-27 Pentax Corp ホワイトバランス調整装置
JP2009146089A (ja) 2007-12-13 2009-07-02 National Institute Of Advanced Industrial & Technology 特徴抽出装置および特徴抽出方法
JP2016206973A (ja) 2015-04-23 2016-12-08 大日本印刷株式会社 多言語表示装置、多言語表示システム、多言語表示方法及び多言語表示プログラム
US20180122129A1 (en) 2014-05-13 2018-05-03 Pcp Vr Inc. Generation, transmission and rendering of virtual reality multimedia

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7684096B2 (en) * 2003-04-01 2010-03-23 Avid Technology, Inc. Automatic color correction for sequences of images
US8180112B2 (en) * 2008-01-21 2012-05-15 Eastman Kodak Company Enabling persistent recognition of individuals in images
US9185361B2 (en) * 2008-07-29 2015-11-10 Gerald Curry Camera-based tracking and position determination for sporting events using event information and intelligence data extracted in real-time from position information
JP5430254B2 (ja) * 2009-07-01 2014-02-26 キヤノン株式会社 画像表示装置及びその制御方法
US8606645B1 (en) * 2012-02-02 2013-12-10 SeeMore Interactive, Inc. Method, medium, and system for an augmented reality retail application
US9424461B1 (en) * 2013-06-27 2016-08-23 Amazon Technologies, Inc. Object recognition for three-dimensional bodies
US9720934B1 (en) * 2014-03-13 2017-08-01 A9.Com, Inc. Object recognition of feature-sparse or texture-limited subject matter
US9652534B1 (en) * 2014-03-26 2017-05-16 Amazon Technologies, Inc. Video-based search engine

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006114995A (ja) 2004-10-12 2006-04-27 Pentax Corp ホワイトバランス調整装置
JP2009146089A (ja) 2007-12-13 2009-07-02 National Institute Of Advanced Industrial & Technology 特徴抽出装置および特徴抽出方法
US20180122129A1 (en) 2014-05-13 2018-05-03 Pcp Vr Inc. Generation, transmission and rendering of virtual reality multimedia
JP2016206973A (ja) 2015-04-23 2016-12-08 大日本印刷株式会社 多言語表示装置、多言語表示システム、多言語表示方法及び多言語表示プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Poonsri Vate-U-Lan, Ed. D,An Augmented Reality 3D Pop-Up Book: The Development of a Multimedia Project for English Language Teaching,2012 IEEE International Conference on Multimedia and Expo,2012年07月09日,https://ieeexplore.ieee.org/document/6298515
田上 慎,飛澤 健太,AR(拡張現実)は,人間が手にした新たな未来,情報管理 第59巻 第8号,2016年11月01日,学会論文(国内)201600840001

Also Published As

Publication number Publication date
CN112703492A (zh) 2021-04-23
EP3834096A4 (en) 2022-04-20
WO2020033747A1 (en) 2020-02-13
JP2021534521A (ja) 2021-12-09
EP3834096A1 (en) 2021-06-16

Similar Documents

Publication Publication Date Title
US10909375B2 (en) System and method for operation in an augmented reality display device
US11062169B2 (en) Metric-based recognition, systems and methods
US8294794B2 (en) Shadow removal in an image captured by a vehicle-based camera for clear path detection
US8345100B2 (en) Shadow removal in an image captured by a vehicle-based camera using an optimized oriented linear axis
US9053537B2 (en) Classifier for use in generating a diffuse image
US20110274314A1 (en) Real-time clothing recognition in surveillance videos
US20120008020A1 (en) Shadow Removal in an Image Captured by a Vehicle Based Camera Using a Non-Linear Illumination-Invariant Kernel
KR20050094330A (ko) 화상 처리 장치, 화상 처리 방법, 및 그 프로그램 제품
US20180357819A1 (en) Method for generating a set of annotated images
JP7439088B2 (ja) 拡張現実ディスプレイデバイスにおける動作のためのシステムおよび方法
US20130342694A1 (en) Method and system for use of intrinsic images in an automotive driver-vehicle-assistance device
JP2013203374A (ja) 車両用表示装置、その制御方法及びプログラム
KR102595787B1 (ko) 전자 장치 및 그 제어 방법
CN115619787B (zh) 一种uv胶缺陷检测方法、系统、设备及介质
EP4030338A1 (en) Obstacle detection method, apparatus and device, and medium
WO2012170197A1 (en) Method and system for identifying tokens in an image
JP6311461B2 (ja) 視線分析システムおよび視線分析装置
US8787662B2 (en) Method and system for identifying tokens in an image
JP6742736B2 (ja) 信号機の点灯色判定装置および信号機の点灯色判定方法
JP2015501968A (ja) 固有画像の生成を改良するための後処理
CN113095147A (zh) 皮肤区域检测方法、系统、图像处理终端和存储介质
JP6180889B2 (ja) 印字検査装置
US11138807B1 (en) Detection of test object for virtual superimposition
US11750917B2 (en) Systems and methods for generating consistent images of objects
US20240046434A1 (en) Image processing method and image processing apparatus performing the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240214

R150 Certificate of patent or registration of utility model

Ref document number: 7439088

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150