JP7439088B2 - 拡張現実ディスプレイデバイスにおける動作のためのシステムおよび方法 - Google Patents
拡張現実ディスプレイデバイスにおける動作のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7439088B2 JP7439088B2 JP2021531466A JP2021531466A JP7439088B2 JP 7439088 B2 JP7439088 B2 JP 7439088B2 JP 2021531466 A JP2021531466 A JP 2021531466A JP 2021531466 A JP2021531466 A JP 2021531466A JP 7439088 B2 JP7439088 B2 JP 7439088B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- identifying
- captured
- mobile communication
- communication device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 48
- 230000003190 augmentative effect Effects 0.000 title claims description 19
- 238000010295 mobile communication Methods 0.000 claims description 48
- 239000003550 marker Substances 0.000 claims description 39
- 238000003384 imaging method Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 19
- 238000004458 analytical method Methods 0.000 claims description 11
- 238000013500 data storage Methods 0.000 claims description 10
- 230000000694 effects Effects 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 4
- 239000003086 colorant Substances 0.000 description 23
- 238000004891 communication Methods 0.000 description 19
- 235000008314 Echinocereus dasyacanthus Nutrition 0.000 description 9
- 240000005595 Echinocereus dasyacanthus Species 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 238000011960 computer-aided design Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013024 troubleshooting Methods 0.000 description 4
- 229940088594 vitamin Drugs 0.000 description 4
- 229930003231 vitamin Natural products 0.000 description 4
- 235000013343 vitamin Nutrition 0.000 description 4
- 239000011782 vitamin Substances 0.000 description 4
- 150000003722 vitamin derivatives Chemical class 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 239000000796 flavoring agent Substances 0.000 description 3
- 235000019634 flavors Nutrition 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 235000009508 confectionery Nutrition 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012916 structural analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6581—Reference data, e.g. a movie identifier for ordering a movie or a product identifier in a home shopping application
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
さらに、開示される技術は、色彩の差異を検出することによって、製品ラインの類似のパッケージデザイン同士の区別を高精度に行うことが可能である。したがって、製造業者(上記のキャンディ製造業者など)は、自身のパッケージを大幅にリプリントする必要なく、自身の製品ラインを追跡することができる。
図2は、図1に示される複数のモバイルデバイスのうちの1つ(例えば、無線通信デバイス116)を説明する機能ブロック図である。モバイルデバイス116は、中央処理ユニット(CPU)130を備える。当業者は、CPU130が、従来のマイクロプロセッサ、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、プログラマグルゲートアレイ(PGA)などとして実装されてよいことを認識する。モバイルデバイス116は、CPU130の特定の形態によって限定されない。
図3は、構造認識が利用できないときの、オブジェクトを認識するまたは対応のビデオを選択する際の困難を示す。図3の左には、情報が提供されている。本質的には、オブジェクト124(図1参照)は、円柱の、箱の、または平坦(もしくはほぼ平坦)なオブジェクトなど、異なる3D形態であってよい。モバイルデバイス116は、撮像デバイス138(図2参照)を用いてオブジェクトの画像をキャプチャする。構造認識がない場合は、典型的なAR識別ルーチンが平坦な2次元オブジェクトを識別する。
チワワの平坦な画像としてのオブジェクト認識の結果、ビデオ選択が行われる。ビデオ選択は、図3の左に示される様々な3Dオブジェクトによる提示用にカスタマイズされることができない。
システム100は、類似した形状の、異なる色彩または異なって色付けされたエリアを有する拡張現実マーカ同士の区別を成し遂げる。色彩認識モジュール162(図2参照)は、オブジェクトを識別するさらなる手段として、オブジェクト124の色彩を解析する。モバイルデバイス116のユーザは、異なる色彩、背景、文字色および類似のマーカ同士の任意の色彩の変化を有する類似のマーカ同士の区別をするように、色彩認識モジュール162を用いることができる。
色彩認識モジュール162は、レンダリングされたオブジェクト124を検出するように、デジタルメディア内におけるコンピュータビジョン解析を用いる。色彩認識モジュール162は、変数、データの配列またはレンダリングされる画像を取得することによって、色彩を識別する。マーカは、ラベルなどのオブジェクト内の対象の特定のエリアである。これらは、本質的には、オブジェクトの境界内またはオブジェクトの境界付近のサンプル点である。色彩情報は、マーカから取得される。
色彩認識モジュール162は、識別されたマーカに対する各マーカの可能性を決定することによって、データをレンダリングする。これが決定されることが可能である複数の手法が存在する。
色彩認識モジュール162は、これに代えて、色彩信号処理において用いられる、色相、彩度、および明度(HSV)、色相、彩度、および輝度(HSL)、ならびに赤色、緑色、および青色(RGB)技術を用いた、異なる型を実装してよい。HSVおよびHSLでは、色彩認識モジュール162は、色彩を決定する手法として色相を用いる。差異は、このマーカである可能性がどのくらいであるかに等しい。3D空間における距離を決定するようにユークリッドの方法を用いることによるRGBでは、色彩認識モジュール162は、このマーカである可能性を決定するための追加の変数として距離を使用する。その可能性は、RGB、HSVおよびHSLの組合せとして評価されることも可能である。RGB、HSVおよびHSLについての結果を解析することによって、色彩認識モジュール162は、示された色彩である可能性がどのくらいであるかを確実に決定することが可能である。
オフセットは、すべての他のマーカを有する平らな場の中に色彩を置くように用いられる変数である。例えば、特定の色彩の大きい広がりが存在すると、色彩認識モジュール162は、大きな量のこの色彩が存在することを認識し、他のマーカ同士のランク付けにおいてその色彩を一様にすることを決定することが可能である。オフセットの使用は、画像をレンダリングすること、関連する色彩以外の色彩を取り除くこと、およびその色彩の量を減少させることであり、その結果、異なるオブジェクト124と誤認することはできない。オフセットは、色彩の量による画像の圧縮の手法である。しかしながら、オフセットは、システムが、影響を受けるエリアの場所を具体的に知ること、また関係ない色彩を避けることを補助する色彩フィルタの表示であることも可能である。
オフセットは、影響を受けるエリアに関連付けられた撮像データを識別することによって処理される。オフセットは、対象のエリアを示すファイル、または対象のエリアにとって重要でない色彩の圧縮された量を表す変数によって表されることが可能である。オフセットは、データをシステムのものと同様に取得するように、色彩認識モジュール162によってレンダリングされることが可能であり、必要なフィルタまたは変数を生成する。オフセットは、無視されることが望まれるデータ、または無視される必要がある関連する色彩からのデータを表す。例えば、ラベルは、赤色の背景における白色文字により、主に赤色であってよい。通常の条件下では、色彩認識システムが白色文字を識別するのは困難であり得る。本明細書に記載されるオフセットレンダリングは、色彩認識モジュール162に、白色文字がより容易に背景から見分けられるように、主な色(本例においては赤色)を無視させるよう、有効に命令する。
マーカは、カテゴリおよびサブカテゴリによって分類される。ここでは、カテゴリは、まず形状、次いで色彩として定められることが可能であり、または、まず色彩、次いで形状として定められることが可能である。これらは同様に、必要に応じて、色彩に基づいて個々のマーカとして定められることも可能である。
十分に類似しない場合にはいくつかのマーカが示されることを防止することが可能であるシステム内に、変数が存在する。同様に、明度および他の要因を考慮するべく正確さの増加および減少を補助することが可能である変数が存在することが可能である。ラベルが色彩認識モジュール162によって識別されることができない場合、任意のビデオがモバイルデバイス116に表示されることを防止することが可能であってよい。
この特徴は、様々な光源における、より高精度な色彩検出を可能とする。例えば、日没時、照明は非常に黄色になる。青色のラベルがこの照明下に置かれるとき、アプリは、出力が微かな青色を伴う黄色となることを読み取る。これは、所望される青色の結果の代わりに、黄色のラベルの失敗した出力を生じる。解決策は、完全な白色であるラベルの部分を選択することである。白色が何色になっているかを理解することによって、本当の色を出力するように画像を再調節することが可能である。図8の例は、チワワの犬がラベル上にあり白色ピクセルがチワワの画像の真下にあるラベルを示す。
撮像デバイス138(図2参照)によってキャプチャされたオブジェクトの色彩構成を決定することが有用であり得る。3D空間にRGBキューブを生成することによって、色彩の精密な出力を正確に示すことができる。図9は、色彩認識モジュール162が色彩の識別時に何を行っているかを視覚的に理解するように、トラブルシューティングツールとして便利に用いられ得る、そうした色彩キューブを示す。RGBキューブは、赤色をX軸に、青色をZ軸に、および緑色をY軸に置くことによって、出力の色彩を反映する。撮像デバイス138(図1参照)を通じて色彩が検出されたとき、その色彩は色彩認識モジュール162を通じて送られ、検出された実際の色彩としてRGBキューブに反映される。現時点では、RGBキューブは、トラブルシューティング動作に用いられるが、色彩認識モジュール162の実際の動作には用いらない。
したがって、色彩認識モジュール162は、以下のコンポーネントのうちの1つまたはすべてを用いることが可能である。検出、色彩レンダリング、色彩一致技術、オフセット計算技術、オフセットレンダリング、色彩マーカペアリング、限定認識ホワイトバランス、およびRGBキューブ。したがって、このコンポーネントのうちのいずれかの任意の組合せは、色彩認識モジュール162によって実装されることが可能である。
システム100はまた、異なる言語のオーディオファイルの選択を可能とする。この態様では、特定のビデオARファイルは、複数の対応するオーディオファイルであるが、異なる言語のものであってよい。上記の通り、モバイルデバイスのユーザは、モバイルデバイスの動作用の言語を、そのデバイス自身の初期のセットアップの一部として選択する。そのデータは、データ記憶エリア140(図2参照)に記憶される。
1.モバイル通信デバイスにおける拡張現実(AR)の制御のための方法であって、
表示用にレンダリングされる1つ以上のオブジェクトを含む画像をキャプチャするように構成された撮像デバイスと、
キャプチャされた前記画像を2次元データ配列としてメモリに記憶する工程と、
記憶された前記画像内のレンダリングされる前記オブジェクトを検出する工程と、
前記オブジェクトの構造的形状を識別する形状識別工程と、
前記オブジェクトの色彩を識別する工程と、
前記オブジェクトの識別された前記構造および識別された前記色彩に基づいて、キャプチャされた前記画像における前記オブジェクトを識別する工程と、
前記オブジェクトについての構造的形状情報および色彩情報を含むオブジェクト識別データを、サーバに対し送信する工程と、
前記サーバが、前記オブジェクト識別データを用いて、前記サーバに記憶された複数のARビデオファイルから1つの拡張現実(AR)ビデオファイルを選択する工程と、
選択された前記1つのARビデオファイルを前記モバイル通信デバイスに対し送信する工程と、
前記モバイル通信デバイスが、受信された前記1つのARビデオファイルを前記モバイル通信デバイスのディスプレイにおいて再生する工程と、を備える、方法。
前記サーバが、受信された前記言語選択パラメータを用いて、前記サーバに記憶された複数のARオーディオファイルから1つの拡張現実(AR)オーディオファイルを選択する工程であって、選択された前記1つのARオーディオファイルは、選択された前記1つのARビデオファイルに対応し、前記言語選択パラメータに対応する言語によるARオーディオファイルである、工程と、
選択された前記1つのARオーディオファイルを前記モバイル通信デバイスに対し送信する工程と、
前記モバイル通信デバイスが、受信された前記1つのARビデオファイルが前記モバイル通信デバイスの前記ディスプレイにおいて再生されるのとともに、受信された前記ARオーディオを前記モバイル通信デバイスのオーディオ出力デバイスにおいて再生する工程と、をさらに備える、1項に記載の方法。
キャプチャされた前記画像を複数の部分を生成するように分解することによって、キャプチャされた前記画像内のオブジェクト同士を区別する工程と、
グリッドを適用することによって、キャプチャされた前記画像内の湾曲および境界を識別する工程と、
光の勾配を評価することによって、キャプチャされた前記画像におけるオブジェクトの任意の湾曲を識別する工程と、をさらに含む、1または2項に記載の方法。
製品の3次元(3D)モデルを生成する工程と、
様々な回転位置における前記3Dモデルの一連の画像をキャプチャすることによって、前記3Dモデルの360°の一連の画像を生成する、キャプチャ工程と、
記憶された前記画像を前記3Dモデルの前記一連の画像のうちの1つ以上と比較し、記憶された前記画像と前記3Dモデルの前記一連の画像のうちの前記1つ以上との間の一致を決定することによって、記憶された前記画像を識別する工程と、をさらに含む、1~6項のいずれか一項に記載の方法。
キャプチャされた前記オブジェクトの前記特定の領域に関連付けられた色彩データを取り出す工程と、
色彩一致解析を行い、キャプチャされた前記オブジェクトの前記特定の領域の前記色彩を決定する工程と、をさらに含む、1~8項のいずれか一項に記載の方法。
キャプチャされた前記オブジェクトの前記特定の領域における大きい広がりの色彩の効果を減少させるべく色彩レベルを調節するように、オフセット計算を決定する工程と、
色彩のオフセットを適用することによって、キャプチャされた前記オブジェクトの前記特定の領域において重要でない前記大きい広がりの色彩を調節する工程と、をさらに含む、9に記載の方法。
前記オブジェクトの1つの領域を白色領域として指定する工程と、所定の周囲光条件下における前記白色領域に関連付けられた色彩データ値を取り出す工程と、
前記所定の周囲光条件下における前記白色領域に関連付けられた前記色彩データ値を記憶する工程と、
キャプチャされた前記画像の前記白色領域に関連付けられた色彩データ値を取り出す工程と、
前記白色領域についての取り出された色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の差異を決定する工程と、
前記白色領域についての取り出された前記色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の前記差異に基づいて、キャプチャされた前記画像について前記色彩データを調節し、それによって、前記所定の周囲光条件とは異なる周囲光条件を補償するように色彩バランスを調節する工程と、をさらに含む、9または10項に記載の方法。
表示用にレンダリングされる1つ以上のオブジェクトを含む画像をキャプチャするように構成された撮像デバイスと、
計算命令を記憶するように、またキャプチャされた前記画像を記憶するように構成された、データ記憶デバイスと、
前記計算命令を取り出すように前記データ記憶デバイスに対し結合された1つまたは複数のプロセッサと、を備え、前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
記憶された前記画像内のレンダリングされる前記オブジェクトを検出することと、
オブジェクトの構造的形状を識別することと、
前記オブジェクトの色彩を識別することと、
前記オブジェクトの識別された前記構造および識別された前記色彩に基づいて、キャプチャされた前記画像における前記オブジェクトを識別することと、
前記オブジェクトについての構造的形状情報および色彩情報を含むオブジェクト識別データを、サーバに対し送信することと、
前記モバイル通信デバイスにて、前記オブジェクト識別データの前記サーバに対する前記送信に応答して、前記オブジェクト識別データに基づいて、前記サーバに記憶された複数のARビデオファイルから、前記サーバによって選択された1つの選択された拡張現実(AR)ビデオファイルを受信することと、
受信された前記1つのARビデオファイルを前記モバイル通信デバイスの前記色彩ディスプレイにおいて再生することと、を行わせる、システム。
前記モバイル通信デバイスが、前記モバイル通信デバイスの動作用のユーザ言語選択に基づく言語選択パラメータを送信することと、
前記モバイル通信デバイスにて、前記言語選択パラメータの前記サーバに対する前記送信に応答して、前記言語選択パラメータに基づいて、前記サーバに記憶された複数のARオーディオファイルから、前記サーバによって選択された1つの選択された拡張現実(AR)オーディオファイルを受信することと、
前記モバイル通信デバイスの前記色彩ディスプレイにおいて再生されている受信された前記1つのARビデオファイルとともに、受信された前記1つのARオーディオファイルを前記モバイル通信デバイスの前記オーディオ出力デバイスにおいて再生することと、をさらに備える、12項に記載のシステム。
キャプチャされた前記画像を複数の部分を生成するように分解することによって、キャプチャされた前記画像内のオブジェクト同士を区別することと、
グリッドを適用することによって、キャプチャされた前記画像内の湾曲および境界を識別することと、
光の勾配を評価することによって、キャプチャされた前記画像におけるオブジェクトの任意の湾曲を識別することと、によって、前記オブジェクトの構造的形状を識別することをさらに行わせる、12項に記載のシステム。
製品の3次元(3D)モデルを生成することと、
様々な回転位置における前記3Dモデルの一連の画像をキャプチャすることによって、前記3Dモデルの360°の一連の画像を生成することと、
記憶された前記画像を前記3Dモデルの前記一連の画像のうちの1つ以上と比較し、記憶された前記画像と前記3Dモデルの前記一連の画像のうちの前記1つ以上との間の一致を決定することによって、記憶された前記画像を識別することと、をさらに行わせる、12~17項のいずれか一項に記載のシステム。
キャプチャされた前記オブジェクトの特定の領域を指定することと、
キャプチャされた前記オブジェクトの前記特定の領域に関連付けられた色彩データを取り出すことと、
色彩一致解析を行い、キャプチャされた前記オブジェクトの前記特定の領域の前記色彩を決定することと、によって前記オブジェクトの前記色彩を識別することをさらに行わせる、12~19項のいずれか一項に記載のシステム。
キャプチャされた前記オブジェクトの前記特定の領域における大きい広がりの色彩の効果を減少させるべく色彩レベルを調節するように、オフセット計算を決定することと、
色彩のオフセットを適用することによって、キャプチャされた前記オブジェクトの前記特定の領域における前記大きい広がりの色彩を減少させることと、によって、前記オブジェクトの前記色彩を識別することをさらに行わせる、20項に記載のシステム。
前記オブジェクトの1つの領域を白色領域として指定することと、
所定の周囲光条件下における前記白色領域に関連付けられた色彩データ値を取り出すことと、
前記所定の周囲光条件下における前記白色領域に関連付けられた前記色彩データ値を記憶することと、
キャプチャされた前記画像の前記白色領域に関連付けられた色彩データ値を取り出すことと、
前記白色領域についての取り出された色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の差異を決定することと、
前記白色領域についての取り出された前記色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の前記差異に基づいて、キャプチャされた前記画像について前記色彩データを調節し、それによって、前記所定の周囲光条件とは異なる周囲光条件を補償するように色彩バランスを調節することと、をさらに含む、20または21項に記載のシステム。
したがって、本発明は、添付の特許請求の範囲による場合を除いて限定されない。
Claims (22)
- モバイル通信デバイスにおける拡張現実(AR)の制御のための方法であって、
表示用にレンダリングされる1つ以上のオブジェクトを含む画像をキャプチャするように構成された撮像デバイスと、
キャプチャされた前記画像を2次元データ配列としてメモリに記憶する工程と、
記憶された前記画像内のレンダリングされる前記オブジェクトを検出する工程と、
前記オブジェクトの構造的形状を識別する形状識別工程と、
前記オブジェクトの色彩を識別する色彩識別工程と、
前記オブジェクトの識別された前記構造および識別された前記色彩に基づいて、前記オブジェクト内の特定のエリアをマーカとして検出する工程と、
前記特定のエリアの形状および色彩に基づいて、前記マーカを識別する工程と、
識別された前記マーカに対応する識別データを、サーバに対し送信する工程と、
前記サーバが、前記マーカの前記識別データを用いて、前記サーバに記憶された複数のARビデオファイルから1つの拡張現実(AR)ビデオファイルを選択する工程と、
選択された前記1つのARビデオファイルを前記モバイル通信デバイスに対し送信する工程と、
前記モバイル通信デバイスが、受信された前記1つのARビデオファイルを前記モバイル通信デバイスのディスプレイにおいて再生する工程と、を備える、方法。 - 前記モバイル通信デバイスが、前記モバイル通信デバイスの動作用のユーザ言語選択に基づく言語選択パラメータを送信する工程と、
前記サーバが、受信された前記言語選択パラメータを用いて、前記サーバに記憶された複数のARオーディオファイルから1つの拡張現実(AR)オーディオファイルを選択する工程であって、選択された前記1つのARオーディオファイルは、選択された前記1つのARビデオファイルに対応し、前記言語選択パラメータに対応する言語によるARオーディオファイルである、工程と、
選択された前記1つのARオーディオファイルを前記モバイル通信デバイスに対し送信する工程と、
前記モバイル通信デバイスが、受信された前記1つのARビデオファイルが前記モバイル通信デバイスの前記ディスプレイにおいて再生されるのとともに、受信された前記ARオーディオを前記モバイル通信デバイスのオーディオ出力デバイスにおいて再生する工程と、をさらに備える、請求項1に記載の方法。 - 前記形状識別工程は、
キャプチャされた前記画像を複数の部分を生成するように分解することによって、キャプチャされた前記画像内のオブジェクト同士を区別する工程と、
グリッドを適用することによって、キャプチャされた前記画像内の湾曲および境界を識別する工程と、
光の勾配を評価することによって、キャプチャされた前記画像におけるオブジェクトの任意の湾曲を識別する工程と、をさらに含む、請求項1に記載の方法。 - 前記形状識別工程は、キャプチャされた前記画像における前記光の勾配に基づいて、キャプチャされた前記オブジェクトを3次元(3D)円柱オブジェクトとして識別する工程をさらに含む、請求項3に記載の方法。
- 前記形状識別工程は、キャプチャされた前記画像における前記光の勾配に基づいて、キャプチャされた前記オブジェクトを3次元(3D)矩形オブジェクトとして識別する工程をさらに含む、請求項3に記載の方法。
- 前記形状識別工程は、キャプチャされた前記画像における前記光の勾配に基づいて、キャプチャされた前記オブジェクトを2次元(2D)オブジェクトとして識別する工程をさらに含む、請求項3に記載の方法。
- 前記形状識別工程は、
製品の3次元(3D)モデルを生成する工程と、
様々な回転位置における前記3Dモデルの一連の画像をキャプチャすることによって、前記3Dモデルの360°の一連の画像を生成する、キャプチャ工程と、
記憶された前記画像を前記3Dモデルの前記一連の画像のうちの1つ以上と比較し、記憶された前記画像と前記3Dモデルの前記一連の画像のうちの前記1つ以上との間の一致を決定することによって、記憶された前記画像を識別する工程と、をさらに含む、請求項1に記載の方法。 - 前記キャプチャ工程は、前記3Dモデルの前記一連の画像を増分1度の複数の回転位置にてキャプチャすることによって、1度の回転増分で前記3Dモデルの360個の画像を生成する工程を含む、請求項7に記載の方法。
- キャプチャされた前記オブジェクトの特定の領域を指定する工程と、
キャプチャされた前記オブジェクトの前記特定の領域に関連付けられた色彩データを取り出す工程と、
色彩一致解析を行い、キャプチャされた前記オブジェクトの前記特定の領域の前記色彩を決定する工程と、をさらに含む、請求項1に記載の方法。 - 前記色彩識別工程は、
キャプチャされた前記オブジェクトの前記特定の領域における大きい広がりの色彩の効果を減少させるべく色彩レベルを調節するように、オフセット計算を決定する工程と、
色彩のオフセットを適用することによって、キャプチャされた前記オブジェクトの前記特定の領域において重要でない前記大きい広がりの色彩を調節する工程と、をさらに含む、請求項9に記載の方法。 - 前記色彩識別工程は、
前記オブジェクトの1つの領域を白色領域として指定する工程と、所定の周囲光条件下における前記白色領域に関連付けられた色彩データ値を取り出す工程と、
前記所定の周囲光条件下における前記白色領域に関連付けられた前記色彩データ値を記憶する工程と、
キャプチャされた前記画像の前記白色領域に関連付けられた色彩データ値を取り出す工程と、
前記白色領域についての取り出された色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の差異を決定する工程と、
前記白色領域についての取り出された前記色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の前記差異に基づいて、キャプチャされた前記画像について前記色彩データを調節し、それによって、前記所定の周囲光条件とは異なる周囲光条件を補償するように色彩バランスを調節する工程と、をさらに含む、請求項9に記載の方法。 - 色彩ディスプレイを有するモバイル通信デバイスにおける拡張現実(AR)の制御のためのシステムであって、
表示用にレンダリングされる1つ以上のオブジェクトを含む画像をキャプチャするように構成された撮像デバイスと、
計算命令を記憶するように、またキャプチャされた前記画像を記憶するように構成された、データ記憶デバイスと、
前記計算命令を取り出すように前記データ記憶デバイスに対し結合された1つまたは複数のプロセッサと、を備え、前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
記憶された前記画像内のレンダリングされる前記オブジェクトを検出することと、
オブジェクトの構造的形状を識別することと、
前記オブジェクトの色彩を識別することと、
前記オブジェクトの識別された前記構造および識別された前記色彩に基づいて、前記オブジェクト内の特定のエリアをマーカとして検出することと、
前記特定のエリアの形状および色彩に基づいて、前記マーカを識別する工程と、
識別された前記マーカに対応する識別データを、サーバに対し送信することと、
前記モバイル通信デバイスにて、前記マーカの前記識別データの前記サーバに対する前記送信に応答して、前記マーカの前記識別データに基づいて、前記サーバに記憶された複数のARビデオファイルから、前記サーバによって選択された1つの選択された拡張現実(AR)ビデオファイルを受信することと、
受信された前記1つのARビデオファイルを前記モバイル通信デバイスの前記色彩ディスプレイにおいて再生することと、を行わせる、システム。 - オーディオ出力デバイスを有するモバイル通信デバイスとともに用いるためのシステムであって、
前記モバイル通信デバイスが、前記モバイル通信デバイスの動作用のユーザ言語選択に基づく言語選択パラメータを送信することと、
前記モバイル通信デバイスにて、前記言語選択パラメータの前記サーバに対する前記送信に応答して、前記言語選択パラメータに基づいて、前記サーバに記憶された複数のARオーディオファイルから、前記サーバによって選択された1つの選択された拡張現実(AR)オーディオファイルを受信することと、
前記モバイル通信デバイスの前記色彩ディスプレイにおいて再生されている受信された前記1つのARビデオファイルとともに、受信された前記1つのARオーディオファイルを前記モバイル通信デバイスの前記オーディオ出力デバイスにおいて再生することと、をさらに備える、請求項12に記載のシステム。 - 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
キャプチャされた前記画像を複数の部分を生成するように分解することによって、キャプチャされた前記画像内のオブジェクト同士を区別することと、
グリッドを適用することによって、キャプチャされた前記画像内の湾曲および境界を識別することと、
光の勾配を評価することによって、キャプチャされた前記画像におけるオブジェクトの任意の湾曲を識別することと、によって、前記オブジェクトの構造的形状を識別することをさらに行わせる、請求項12に記載のシステム。 - 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、キャプチャされた前記画像における前記光の勾配に基づいて、前記オブジェクトの前記構造的形状を3次元(3D)円柱オブジェクトとして識別することをさらに行わせる、請求項14に記載のシステム。
- 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、キャプチャされた前記画像における前記光の勾配に基づいて、前記オブジェクトの前記構造的形状を3次元(3D)矩形オブジェクトとして識別することをさらに行わせる、請求項14に記載のシステム。
- 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、キャプチャされた前記画像における前記光の勾配に基づいて、前記オブジェクトの前記構造的形状を2次元(2D)オブジェクトとして識別することをさらに行わせる、請求項14に記載のシステム。
- 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
製品の3次元(3D)モデルを生成することと、
様々な回転位置における前記3Dモデルの一連の画像をキャプチャすることによって、前記3Dモデルの360°の一連の画像を生成することと、
記憶された前記画像を前記3Dモデルの前記一連の画像のうちの1つ以上と比較し、記憶された前記画像と前記3Dモデルの前記一連の画像のうちの前記1つ以上との間の一致を決定することによって、記憶された前記画像を識別することと、をさらに行わせる、請求項12に記載のシステム。 - 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、前記3Dモデルの前記一連の画像を増分1度の複数の回転位置にてキャプチャすることにより、1度の回転増分で前記3Dモデルの360個の画像を生成することによって、前記オブジェクトの構造的形状を識別することをさらに行わせる、請求項18に記載のシステム。
- 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
キャプチャされた前記オブジェクトの特定の領域を指定することと、
キャプチャされた前記オブジェクトの前記特定の領域に関連付けられた色彩データを取り出すことと、
色彩一致解析を行い、キャプチャされた前記オブジェクトの前記特定の領域の前記色彩を決定することと、によって前記オブジェクトの前記色彩を識別することをさらに行わせる、請求項12に記載のシステム。 - 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
キャプチャされた前記オブジェクトの前記特定の領域における大きい広がりの色彩の効果を減少させるべく色彩レベルを調節するように、オフセット計算を決定することと、
色彩のオフセットを適用することによって、キャプチャされた前記オブジェクトの前記特定の領域における前記大きい広がりの色彩を減少させることと、によって、前記オブジェクトの前記色彩を識別することをさらに行わせる、請求項20に記載のシステム。 - 前記計算命令は、実行された場合、前記1つまたは複数のプロセッサに、
前記オブジェクトの1つの領域を白色領域として指定することと、
所定の周囲光条件下における前記白色領域に関連付けられた色彩データ値を取り出すことと、
前記所定の周囲光条件下における前記白色領域に関連付けられた前記色彩データ値を記憶することと、
キャプチャされた前記画像の前記白色領域に関連付けられた色彩データ値を取り出すことと、
前記白色領域についての取り出された色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の差異を決定することと、
前記白色領域についての取り出された前記色彩データ値と、前記所定の周囲光条件下における前記白色領域に関連付けられた記憶された前記色彩データ値と、の間の前記差異に基づいて、キャプチャされた前記画像について前記色彩データを調節し、それによって、前記所定の周囲光条件とは異なる周囲光条件を補償するように色彩バランスを調節することと、をさらに含む、請求項20に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862716273P | 2018-08-08 | 2018-08-08 | |
US62/716,273 | 2018-08-08 | ||
US16/179,315 | 2018-11-02 | ||
US16/179,315 US10909375B2 (en) | 2018-08-08 | 2018-11-02 | System and method for operation in an augmented reality display device |
PCT/US2019/045781 WO2020033747A1 (en) | 2018-08-08 | 2019-08-08 | System and method for operation in an augmented reality display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021534521A JP2021534521A (ja) | 2021-12-09 |
JP7439088B2 true JP7439088B2 (ja) | 2024-02-27 |
Family
ID=69415140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021531466A Active JP7439088B2 (ja) | 2018-08-08 | 2019-08-08 | 拡張現実ディスプレイデバイスにおける動作のためのシステムおよび方法 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3834096A4 (ja) |
JP (1) | JP7439088B2 (ja) |
CN (1) | CN112703492A (ja) |
WO (1) | WO2020033747A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114751153B (zh) * | 2022-04-24 | 2023-03-10 | 广东天太机器人有限公司 | 一种全角度的多模板码垛系统 |
CN114769021B (zh) * | 2022-04-24 | 2022-11-25 | 广东天太机器人有限公司 | 一种基于全角度模板识别的机器人喷涂系统及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006114995A (ja) | 2004-10-12 | 2006-04-27 | Pentax Corp | ホワイトバランス調整装置 |
JP2009146089A (ja) | 2007-12-13 | 2009-07-02 | National Institute Of Advanced Industrial & Technology | 特徴抽出装置および特徴抽出方法 |
JP2016206973A (ja) | 2015-04-23 | 2016-12-08 | 大日本印刷株式会社 | 多言語表示装置、多言語表示システム、多言語表示方法及び多言語表示プログラム |
US20180122129A1 (en) | 2014-05-13 | 2018-05-03 | Pcp Vr Inc. | Generation, transmission and rendering of virtual reality multimedia |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7684096B2 (en) * | 2003-04-01 | 2010-03-23 | Avid Technology, Inc. | Automatic color correction for sequences of images |
US8180112B2 (en) * | 2008-01-21 | 2012-05-15 | Eastman Kodak Company | Enabling persistent recognition of individuals in images |
EP2150057A3 (en) * | 2008-07-29 | 2013-12-11 | Gerald Curry | Camera-based tracking and position determination for sporting events |
JP5430254B2 (ja) * | 2009-07-01 | 2014-02-26 | キヤノン株式会社 | 画像表示装置及びその制御方法 |
US8606645B1 (en) * | 2012-02-02 | 2013-12-10 | SeeMore Interactive, Inc. | Method, medium, and system for an augmented reality retail application |
US9424461B1 (en) * | 2013-06-27 | 2016-08-23 | Amazon Technologies, Inc. | Object recognition for three-dimensional bodies |
US9720934B1 (en) * | 2014-03-13 | 2017-08-01 | A9.Com, Inc. | Object recognition of feature-sparse or texture-limited subject matter |
US9652534B1 (en) * | 2014-03-26 | 2017-05-16 | Amazon Technologies, Inc. | Video-based search engine |
-
2019
- 2019-08-08 JP JP2021531466A patent/JP7439088B2/ja active Active
- 2019-08-08 CN CN201980053774.1A patent/CN112703492A/zh active Pending
- 2019-08-08 EP EP19848230.9A patent/EP3834096A4/en not_active Withdrawn
- 2019-08-08 WO PCT/US2019/045781 patent/WO2020033747A1/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006114995A (ja) | 2004-10-12 | 2006-04-27 | Pentax Corp | ホワイトバランス調整装置 |
JP2009146089A (ja) | 2007-12-13 | 2009-07-02 | National Institute Of Advanced Industrial & Technology | 特徴抽出装置および特徴抽出方法 |
US20180122129A1 (en) | 2014-05-13 | 2018-05-03 | Pcp Vr Inc. | Generation, transmission and rendering of virtual reality multimedia |
JP2016206973A (ja) | 2015-04-23 | 2016-12-08 | 大日本印刷株式会社 | 多言語表示装置、多言語表示システム、多言語表示方法及び多言語表示プログラム |
Non-Patent Citations (2)
Title |
---|
Poonsri Vate-U-Lan, Ed. D,An Augmented Reality 3D Pop-Up Book: The Development of a Multimedia Project for English Language Teaching,2012 IEEE International Conference on Multimedia and Expo,2012年07月09日,https://ieeexplore.ieee.org/document/6298515 |
田上 慎,飛澤 健太,AR(拡張現実)は,人間が手にした新たな未来,情報管理 第59巻 第8号,2016年11月01日,学会論文(国内)201600840001 |
Also Published As
Publication number | Publication date |
---|---|
WO2020033747A1 (en) | 2020-02-13 |
EP3834096A1 (en) | 2021-06-16 |
CN112703492A (zh) | 2021-04-23 |
EP3834096A4 (en) | 2022-04-20 |
JP2021534521A (ja) | 2021-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10909375B2 (en) | System and method for operation in an augmented reality display device | |
CN109583285B (zh) | 对象识别方法 | |
US11062169B2 (en) | Metric-based recognition, systems and methods | |
US8294794B2 (en) | Shadow removal in an image captured by a vehicle-based camera for clear path detection | |
US8345100B2 (en) | Shadow removal in an image captured by a vehicle-based camera using an optimized oriented linear axis | |
KR100658998B1 (ko) | 화상 처리 장치, 화상 처리 방법, 및 그 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체 | |
US9053537B2 (en) | Classifier for use in generating a diffuse image | |
US8319854B2 (en) | Shadow removal in an image captured by a vehicle based camera using a non-linear illumination-invariant kernel | |
US8055016B2 (en) | Apparatus and method for normalizing face image used for detecting drowsy driving | |
US20110274314A1 (en) | Real-time clothing recognition in surveillance videos | |
US20180357819A1 (en) | Method for generating a set of annotated images | |
JP2013203374A (ja) | 車両用表示装置、その制御方法及びプログラム | |
JP7439088B2 (ja) | 拡張現実ディスプレイデバイスにおける動作のためのシステムおよび方法 | |
WO2014004271A2 (en) | Method and system for use of intrinsic images in an automotive driver-vehicle-assistance device | |
EP4030338A1 (en) | Obstacle detection method, apparatus and device, and medium | |
CN115619787B (zh) | 一种uv胶缺陷检测方法、系统、设备及介质 | |
KR101673558B1 (ko) | 스마트기기를 이용한 식물정보 제공 시스템 및 방법 | |
WO2012170197A1 (en) | Method and system for identifying tokens in an image | |
JP6311461B2 (ja) | 視線分析システムおよび視線分析装置 | |
US11750917B2 (en) | Systems and methods for generating consistent images of objects | |
US11138807B1 (en) | Detection of test object for virtual superimposition | |
JP5860970B2 (ja) | 固有画像の生成を改良するための後処理 | |
US20120114231A1 (en) | Method and system for identifying tokens in an image | |
CN113095147A (zh) | 皮肤区域检测方法、系统、图像处理终端和存储介质 | |
US20240046434A1 (en) | Image processing method and image processing apparatus performing the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7439088 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |