JP2021136017A - 仮想オブジェクトを作成し、レンダリングするための視覚的オブジェクト認識及び記憶された幾何学形状を使用する拡張現実システム - Google Patents

仮想オブジェクトを作成し、レンダリングするための視覚的オブジェクト認識及び記憶された幾何学形状を使用する拡張現実システム Download PDF

Info

Publication number
JP2021136017A
JP2021136017A JP2021016096A JP2021016096A JP2021136017A JP 2021136017 A JP2021136017 A JP 2021136017A JP 2021016096 A JP2021016096 A JP 2021016096A JP 2021016096 A JP2021016096 A JP 2021016096A JP 2021136017 A JP2021136017 A JP 2021136017A
Authority
JP
Japan
Prior art keywords
geometry
virtual object
virtual
point
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021016096A
Other languages
English (en)
Other versions
JP2021136017A5 (ja
Inventor
マシュー・シュリーブ
Shreve Matthew
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Palo Alto Research Center Inc
Original Assignee
Palo Alto Research Center Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Palo Alto Research Center Inc filed Critical Palo Alto Research Center Inc
Publication of JP2021136017A publication Critical patent/JP2021136017A/ja
Publication of JP2021136017A5 publication Critical patent/JP2021136017A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】視覚的オブジェクト認識及び記憶された幾何学形状を使用して、仮想オブジェクトを作成およびレンダリングするための拡張現実システムを提供する。【解決手段】システムにおいて、オブジェクトの三次元幾何学形状を記憶し、カメラを介したオブジェクトの識別を容易にすることができるオブジェクトの表現も記憶する。オブジェクトの画像を、カメラ内のシーンを介して取得する。オブジェクトの存在を、オブジェクトの記憶された表現を介して画像から検出する。オブジェクトに対する三次元幾何学形状を、検出に基づいてシーン内にマッピングする。仮想オブジェクトを、マッピングに基づいて、三次元幾何学形状に対して固定された向きにある点に取り付ける。仮想オブジェクトを、オブジェクトに対する拡張現実ディスプレイの場所の変化に関係なく、点及び固定された向きに位置するように、拡張現実ディスプレイ上にレンダリングする。【選択図】図1

Description

本開示は、仮想オブジェクトを作成し、レンダリングするための視覚的オブジェクト認識及び記憶された幾何学形状を使用する拡張現実システムに関する。一実施形態では、オブジェクトの三次元幾何学形状が記憶され、カメラを介したオブジェクトの識別を容易にすることができるオブジェクトの表現も記憶される。オブジェクトの画像は、カメラ内のシーンを介して取得される。画像に基づいて、オブジェクトの存在は、オブジェクトの記憶された表現を介して検出される。オブジェクトの存在を検出することに基づいて、オブジェクトに対する三次元幾何学形状がシーン内にマッピングされる。仮想オブジェクトは、マッピングに基づいて、三次元幾何学形状に対して固定された向きにある点に取り付けられる。仮想オブジェクトは、オブジェクトに対する拡張現実ディスプレイの場所の変化に関係なく、点及び固定された向きに位置するように、拡張現実ディスプレイ上にレンダリングされる。
様々な実施形態のこれら及び他の特徴及び態様は、以下の詳細な考察及び添付の図面を考慮して理解され得る。
以下の考察は、以下の図を参照するが、同じ参照番号は、多数の図において類似の/同じ構成要素を識別するために使用されてもよい。
例示的な実施形態による、仮想オブジェクトの作成及び使用を示す斜視図である。 例示的な実施形態による、仮想オブジェクトの作成及び使用を示す斜視図である。
別の例示的実施形態による、システムで使用される三次元幾何学形状を示すブロック図である。
例示的な実施形態による、システムのブロック図である。
例示的な実施形態による、変更オブジェクトに適用される幾何学形状の変化を示す斜視図である。
例示的な実施形態による、方法のフローチャートである。
本開示は、概して、拡張現実(augmented reality、AR)方法及びシステムに関する。ARシステムは、最新のコンピューティングハードウェア(典型的にはモバイルデバイス)内のセンサを利用して、リアルタイム画像(例えば、画面上にレンダリングされたビデオ画像、又はユーザが見て透明なディスプレイ上にレンダリングされたビデオ画像)を、コンピュータ生成されたグラフィックと重ね合わせる。他のセンサ(例えば、ジオロケーション、ビデオカメラ、飛行時間センサなど)はまた、リアルタイム画像の三次元空間に関する情報を提供することによって、AR体験の向上を支援することができる。これにより、例えば、仮想オブジェクトを三次元空間内の固定位置に配置することを可能にすることができ、それにより、ユーザのビューポートが移動すると、仮想オブジェクトがビューポートと共に移動して、それが三次元空間内に位置する現実のオブジェクトであるという錯覚をもたらす。仮想オブジェクトが三次元オブジェクトとしてモデル化される場合、仮想オブジェクトのこのレンダリングは、ビューワがそれの周りを移動する際に仮想オブジェクトを回転させるように延在することができ、仮想オブジェクトが現実であるという錯覚を更に高めることができる。
ARハードウェアを改善する上で重要な研究がなされてきたが、ARコンテンツの容易な生成はあまり注目されていなかった。その結果、これらのデバイス上のコンテンツは、限定されたままである。これは、部分的には、ARコンテンツの生成が困難であるため、多くの場合、グラフィック設計又はコンピュータ支援設計(computer aided design、CAD)などの技術的分野の技能を必要とする。したがって、コンピュータビジョン及び機械学習を活用することによってコンテンツ作成プロセスを加速する方式は、メインストリームユーザに対するARの採用を増加させるのに役立ち得る。
本開示は、ユーザが、全て単一のデバイスからのARコンテンツ(例えば、手書き又はタイプされたメモ、写真、ビデオ、アニメーション、二次元又は三次元グラフィック、図面など)を有するオブジェクトを素早くアノテーションすることを可能にするシステム及び方法に関する。このようなデバイスは、対象のオブジェクトの三次元ポーズを追跡することができる、電話、タブレット、ARヘッドセットなどを含んでもよい。デバイスのユーザインターフェース(例えば、電話若しくはタブレットスクリーン上に表示されたライブカメラビュー、又はARヘッドセット上のホログラフビューポート)を使用して、ユーザは、コンテンツを配置したい領域上又はその近くにビューポートを配置することによってオブジェクトをアノテーションする。この配置は、タブレットなどが使用されるタッチスクリーンを操作することによって生じ得る。ヘッドセット、眼鏡などが使用される場合、ユーザは、ビュー内に投影され、ポインタ(例えば、レーザポインタ、ハンドヘルドコントローラ)によって選択される仮想コントロールを使用することができる。
システムが対象のオブジェクトを識別すると、システムは、ユーザ作成された仮想オブジェクトの場所を特定するために使用され得るオブジェクトの仮想バージョンを表すために使用されるオブジェクトの三次元幾何学形状を判定する。システムがオブジェクト及びその幾何学形状を識別した後、ユーザは、コンテンツを選び、オブジェクトに関連する場所に固定する。ユーザは、コンテンツをデバイス上の物理的場所に関連付ける(例えば、ビデオと対象のオブジェクトの表面にある点との間に線を引く)、かつ/又はコンテンツの正確な位置を精緻化する能力を有する。デバイス及び/又はビューポートが、コンテンツが配置された領域から外に移動されると、コンテンツは、配置されるように選択された場所から正確な場所及びポーズ(向き)に固定されたままである。コンテンツはまた、デバイスのライブビューポートを見ることができるリモートユーザによって配置されてもよい。
図1では、一連の斜視図は、例示的な実施形態によるシーケンスを示す。ビュー100では、ユーザ102は、この例では多機能プリンタ(multifunction printer、MFP)である標的オブジェクト106付近にモバイルデバイス104(例えば、タブレット、携帯電話、ラップトップ、ウェアラブルデバイスなど)を保持する。モバイルデバイス104は、ディスプレイ上にオブジェクト106のライブビデオをレンダリングすることを可能にするカメラ(図示せず)を有する。モバイルデバイス104は、ライブビデオに基づいてオブジェクト106の存在を検出するように構成される。いくつかの実施形態では、モバイルデバイス104は、透明窓(例えば、AR眼鏡又はヘッドセット)を有してもよく、その場合、モバイルデバイス104は、必ずしもディスプレイ上にビデオが示されていなくても、依然としてカメラ又は他の撮像センサを利用して標的オブジェクト106を検出することができることを留意されたい。
モバイルデバイス104は、画像認識を介してオブジェクトを検出することができる。例えば、機械学習モデル(例えば、畳み込みニューラルネットワーク)は、オブジェクトの外部の写真画像について訓練されることにより、オブジェクトのセット(例えば、製造業者の製造範囲内のモデル番号のセット)を検出するように訓練されてもよい。このモデルは、カメラフィードからオブジェクトを視覚的に検出するために使用することができる表現として機能する。このようなモデルは、訓練されたものとは異なる視野角であってもオブジェクトを検出することができるため、モバイルデバイス104は、オブジェクト106が、モデルが検出するように訓練されたクラスのメンバーであるという高確率の判定を行うことができる。
オブジェクトの表現は、オブジェクト106を表す識別子(例えば、バイナリ又は英数字シーケンス)を含んでもよく、オブジェクト106の外観の機械学習表現の代わりに、又はそれに加えて使用されてもよい。例えば、機械可読コード(例えば、バーコード、QRコード、無線周波数識別タグ)をオブジェクト106に添付することができ、これを使用して、オブジェクト106を一意に識別し(例えば、シリアル番号)、かつ/又はオブジェクト106のクラス(例えば、モデル番号)を識別することができる。機械読み取り(例えば、人間が読み取れるテキスト)用に具体的に設計されていない他のコードもまた、オブジェクトに添付され、機械学習モデル、例えば、光学文字認識を使用して識別されてもよい。
オブジェクト106が機械可読コードを使用してのみ識別される場合であっても、モバイルデバイス104は、カメラシーン内のオブジェクト106の向き及び場所を概ね判定するために、ビデオカメラフィードを利用してもよい。ビュー120に見られるように、モバイルデバイス104は、ここではオブジェクト106の上に重畳されたグリッドとして示されるオブジェクト106の三次元幾何学形状122にアクセスする。三次元幾何学形状122は、モバイルデバイス104上に記憶されてもよく、かつ/又はネットワークを介してアクセスされてもよい。三次元幾何学形状122は、オブジェクト106の最大範囲又はより複雑な幾何学形状、例えば、相互接続された表面のセットを包含する、単純な形状(例えば、直方体)であってもよい。これらの幾何学形状は、例えば、オブジェクト106のCADモデル及び/又はオブジェクト106の三次元走査を使用して形成されてもよい。
オブジェクト106を識別することができることに加えて、モバイルデバイス104は、シーンの仮想モデル内の幾何学形状122の場所が、シーン内の現実のオブジェクト106の場所と一致するように、三次元幾何学形状122をシーンにマッピングするように構成される。三次元幾何学形状122(例えば、グリッド)の表現は、ユーザ102に表示されたオブジェクト106の画像の上に重ね合わされてもよく、これはマッピングが正しいことを検証するのを支援することができる。
三次元幾何学形状122をオブジェクトのビデオ上(又はVR窓上)にマッピングするために、モバイルデバイス104はまた、機械学習アルゴリズム/モデルを使用してもよい。例えば、機械学習アルゴリズムは、三次元幾何学形状122の既知の基準点に対応するオブジェクト(例えば、角)上の少なくとも2つの物理的点をビデオ画像から訓練することができる。これらの検出点を使用してマッピングを実現することができる。他のしるし、例えば、機械検出可能マーキングは、ビデオ画像の代わりに、又はビデオ画像に加えて使用されてもよい。例えば、機械検出可能マーキング(例えば、インク、ステッカー)を、オブジェクト106の可視領域(例えば、2つ以上の角)に配置することができる。同様に、ユーザは、デバイスに触れることによって、又はポインティングデバイス(例えば、レーザポインタ)を使用することによって、これらの領域を物理的に示すことができる。
三次元幾何学形状122がオブジェクト106にマッピングされると、モバイルデバイス104は、モバイルデバイス104の移動に応答して、ディスプレイ上の三次元幾何学形状122のビューを変更することができ、これらの移動は、ビュー内のオブジェクト106の移動をマッピングする。これは、モバイルデバイス104と標的オブジェクト106との間の三次元空間内のオフセットベクトルを示す、モバイルデバイス104によって利用される場所及び向きセンサに基づいて達成され得る。このようにして、モバイルデバイス104は、オブジェクト106に対して固定点に位置する仮想オブジェクトをレンダリングするのに十分な情報を有し、その結果、仮想オブジェクトは、オブジェクト106に対する拡張現実ディスプレイの場所の変化に関係なく、ARディスプレイ上に位置するものとして示される。
ビュー130に示されるように、モバイルデバイス106は、標的オブジェクト106がモバイルデバイス104上に示されたライブビデオフィード内に位置するように、所望の場所に位置決めされる。次いで、モバイルデバイス(例えば、タッチスクリーン)のユーザインターフェースを介して、ユーザ102は、標的オブジェクト106に取り付けられている仮想オブジェクトを追加することができる。この例では、ユーザ102はメモ132を書き込むと、アニメーション化された矢印133が追加され、ビデオ134を選択する。メモ132、矢印133及びビデオ134は、モバイルデバイス104の正確なポーズ及び位置を使用して整列される。ビュー140に見られるように、ユーザ102はまた、仮想オブジェクト132〜134の間の線142を、仮想オブジェクト132〜134の正確なアンカー位置を示すオブジェクト106の表面に引く。この場合、仮想オブジェクトは、対象の一部、例えばMFPのカバーに固定される。
ユーザが仮想オブジェクト132〜134を作成した後、それらはデータベースに保存され、オブジェクト106にリンクされ得る。データベースは、三次元幾何学形状122が記憶される場所と同じであっても異なってもよい。その後、同じデータベースへのアクセスを有する同じモバイルデバイス104又は他のデバイスが、ARアプリケーション内のオブジェクト106を見る場合、仮想オブジェクト132〜134は、図1に設定されたものと同じ向きでデバイス内に表示される。これは図2に示されており、ビュー200及び202は、仮想オブジェクト132〜134及び142が作成され、記憶された後に、ARビューワに示され得るものを表す。ビュー200は、仮想オブジェクトが図1に作成されたときに使用されたものと同様の視点を表す。ビュー202は、側面図を表す。なお、平面上に二次元オブジェクトとして構築されている仮想オブジェクト132〜133は、側面から見たときに標的オブジェクト106の前方に浮いている板状のオブジェクトとしてレンダリングされることに留意されたい。
異なる閲覧デバイス上の互換性のあるARアプリケーションがオブジェクトに遭遇する場合、異なるデバイスは、環境内のその場所を検出するためのいくつかの能力、並びに実際のオブジェクト及び仮想オブジェクトがどこに位置するかを記述するデータも有してもよいことに留意されたい。三次元幾何学形状300を記述する場所データの例示的な例を図3の図に示す。いくつかの実施形態のように、この場所データは任意選択であり得、ARデバイスは、オブジェクト自体の画像のみに基づいて幾何基準点を確立することができ、したがって、オブジェクトの周囲の特定の座標のいかなる知識も厳密に必要としないことに留意されたい。
座標系302は、場所センサ(例えば、ジオロケーションセンサ、ビーコンセンサ)を有するデバイスによって使用可能な固定基準を表し、この基準は、定義された空間(例えば、部屋内、世界的に固有の緯度/経度/高度点)での場所を判定するために使用することができる。三次元幾何学形状300の基準点(例えば角)は、ベクトルXによって座標系302の原点からずれている。更に、幾何学形状300はベクトルθによって座標系に対して回転される。上述のように、幾何学形状300は、定義された空間内にある現実世界オブジェクト305に取り付けられる(例えば、包含する)。
ベクトルX、θは、向きセンサ及び場所センサを有する別の閲覧デバイス308が、例えばカメラレンズの焦点などの局所基準に対する幾何学形状300(及びしたがって現実世界のオブジェクト)の場所を判定することができる。図1に関連して説明されるように、仮想オブジェクト304は、幾何学形状300に取り付けることができ、仮想オブジェクト304の幾何学形状300に対する場所及び向きを記述するベクトルX、θのそれ自体のセットを有してもよい。したがって、仮想オブジェクト304を表示するために、閲覧デバイス308はオフセットX+Xを計算し、次いで、オフセットを回転θで仮想オブジェクト304のモデルに適用することができる。次いで、デバイス308は、別のセットの変換を適用して、オブジェクト304が、それ自体の局所基準に対してディスプレイ内に正しく現れるようにする。
なお、このシナリオでは、現実世界オブジェクト305の三次元幾何学形状300の使用は、仮想オブジェクト304のみのオフセット及び回転が元々作成された場所に表示するのに十分であるため、仮想オブジェクト304を表示するのに厳密に必要ではないことに留意されたい。しかしながら、現実世界オブジェクトが時折移動され得るため、これは仮想オブジェクト304が常に現実世界オブジェクトに対して正しく表示されることを保証するものではない。したがって、いくつかの実施形態では、閲覧デバイス308は、オブジェクト305を視覚的に認識し、幾何学的モデル300をオブジェクト305の実際の場所及び向きと整列させるなど、図1に示される動作を繰り返す能力を有する。これは、閲覧デバイス308がオブジェクト305に遭遇するたびに生じ得、又は、いくつかのイベント、例えば、ユーザ要求、ARアプリケーションなどによって検出された何らかの不一致に基づいてトリガされてもよい。
なお、閲覧デバイス308のオブジェクト300を検出し、幾何学的モデル300を再入手して整列させる能力はまた、仮想オブジェクト304が元々作成され、かつ取り付けられた場所だけでなく、仮想オブジェクト304を任意の場所で同様のオブジェクトに見せることを可能にするために使用されてもよいことに留意されたい。例えば、仮想オブジェクト304は、プリンタなどのデバイスにサービス提供するための命令(又はそのセット)であってもよい。設備は、多数のこのようなプリンタを有してもよく、したがって、サービスタスクを示す各プリンタに対して仮想オブジェクト304の1つのインスタンスのみを作製することが有利になるであろう。仮想オブジェクト304のこのインスタンスは、同じサービス命令にアクセスすることができるエンドユーザの閲覧デバイス308によって、同じタイプの他のプリンタに自動的に適用され得る。そのような配置では、作成デバイス及び閲覧デバイスが視覚認識を使用して、その上に幾何学形状300がマッピングされ得るオブジェクト固有の基準点を確立し、並びに仮想オブジェクト304の相対的な場所及び向きをマッピングすることができるため、場所検知を使用する必要がなくてもよい。
図4では、図は、例示的な実施形態によるシステムを示す。この例では、図3の三次元幾何学形状300、現実世界オブジェクト305及び仮想オブジェクト304が使用される。作成デバイス400は、オブジェクト305を最初に発見し、仮想オブジェクト304を作成するために使用される。カメラ402は、ネットワーク420を介して利用可能な表現データベース421を介して取得され得るオブジェクト305の表現を介してオブジェクト305を識別することができる。表現は、例えば、カメラ402によって生成された画像を分類する畳み込みニューラルネットワークにおいて使用することができる重み及びバイアスのアレイを含んでもよい。他の表現、例えば、機械可読コードもまた、データベース421から利用可能であってもよい。データベース421(及び以下に記載される他のデータベース)は、作成デバイス400(必要に応じて閲覧デバイス430も)上に局所的に記憶されてもよいことに留意されたい。
画像内のオブジェクト305を識別することに基づいて、作成デバイス400は、一実施形態では、ネットワークデータベース422から取得され得るオブジェクト305の三次元幾何学形状300を取得する。このような幾何学形状300は、例えば、CADモデルが記憶及び処理要件を減少させるために簡略化され得るが、製造業者のCADモデルから取得することができる。別の実施形態では、作成デバイス400は、オブジェクト305の完全な三次元メッシュを取得するために使用することができる深さスキャナ403によって示されるように、オブジェクト305自体を走査することができる。そのような場合、作成デバイス400は、他のデバイスによってアクセスすることができるデータベース422に幾何学形状をアップロードすることができる。
作成デバイス400は、任意選択的に、場所センサ404を介してオブジェクト305の場所を記録してもよい。場所センサ404はまた、デバイス400の向き、特にカメラ402又は他のセンサの向きを検出することができるセンサを含んでもよい。向き情報はまた、幾何学形状300に適用され、データベース422内に記憶されてもよく、例えば、オブジェクト305がどちらの方向に向いているかを定義する。場所及び向きセンサ404は、デバイスの現在の場所の緯度及び経度を判定するためのジオロケーションセンサ(例えば、全地球測位システムセンサ)、デバイス400及び加速度計の方向を判定して、地表に対するデバイス400の傾きを判定するためのコンパスを含んでもよい。他のセンサ及びシステムを使用して、同等の場所及び向き、例えば、無線周波数ビーコン、赤外線マーカなどを判定することができる。
作成デバイス400は、とりわけ、幾何学形状300のオブジェクト305への適用を検証すること、仮想オブジェクト304を作成し、検証すること、及び、例えば、ネットワーク420上のアカウントにアクセスして、他のコンピューティングタスクを実行すること、ARアプリケーション上の設定を変更することなどを容易にするユーザインターフェース405を含む。ユーザインターフェース405は、タッチスクリーン、ボタン、タッチパッドなどのような作成デバイス400と一体化されたハードウェアを含んでもよく、また、三次元空間に場所をマーキングするためのレーザポインタ又はハンドヘルドコントローラ、音声コマンドを受信するためのマイクロフォンなどの他のデバイスを含んでもよい。
作成デバイス400は、単一のモバイルデバイスか、又は、ヘッドセット、眼鏡/ゴーグル、タブレット、スマートフォン、ラップトップコンピュータなどの1つ以上のデバイスの集合であってもよい。作成デバイス400の処理の一部の量は、ネットワーク420を介して利用可能なクラウド処理サービスなどのサービスを介して提供されてもよい。作成デバイス400は、少なくとも中央処理装置(central processing unit、CPU)406、メモリ407(揮発性メモリ及び不揮発性メモリの両方を含む)、並びに前述のセンサ及びネットワーク420との通信を容易にするネットワークインターフェース408などの入出力デバイスを含み得る。
閲覧デバイス430は、作成デバイス400と同様のモバイルデバイス又はデバイスの集合であってもよい。作成デバイス400は概して、閲覧デバイス430の能力の全てを有してもよいが、その逆ではない。したがって、閲覧デバイス430は、オブジェクト305を少なくとも検出するためのカメラ432を含むが、いくつかの状況では、閲覧デバイスは、作成デバイス400によって使用される場合でも、場所センサ433(任意選択のものとして示される)を必要としない場合がある。例えば、閲覧デバイスが、例えばカメラ432を介して、オブジェクト305の存在及びその場所/向きを検出することができる場合、正確な場所センサ433の能力が必要とされない場合がある。しかしながら、閲覧デバイス430が仮想オブジェクト304の概して近傍にあることを示すために、マーカ(例えば、無線ネットワークホットスポットアイデンティティ、RFIDタグ、QRコードなど)の検出などの、ある種の一般的な場所特定能力が有用であり得る。これは、仮想オブジェクト304が特定の場所でのみレンダリングされるように、ARアプリケーションをジオフェンスするために使用することができる。ジオフェンスすることにより、仮想オブジェクトの近傍にない場合、かつ、認可された領域へのアクセスを制限すること、仮想オブジェクトの場所固有バージョンをレンダリングするなどの他の目的のために、コンピューティングリソースの使用を低減することができる。
閲覧デバイス430は、仮想オブジェクト304を少なくともレンダリングするユーザインターフェース434を含む。このレンダリングは、カメラ432によって撮像されたビデオ内で行われてもよく、又は透明スクリーン上、例えば、AR観察眼鏡などのレンズ上に投影されてもよい。ユーザインターフェース434はまた、仮想オブジェクト304との対話、例えば、ビデオの開始を停止すること、いくつかの要素を隠す/表示すること、仮想オブジェクトを移動させるなどを容易にしてもよい。閲覧デバイス430は、概して、CPU435、メモリ436及びネットワークインターフェース437などの他のコンピューティングハードウェアを含む。閲覧デバイス430はまた、ネットワークインターフェース437を介してネットワーク420のデータベースにアクセスするか、又はメモリ436内に局所的に記憶された類似のデータベースを有してもよい。
いくつかの実施形態では、ARシステムを使用して、デバイスへのサービス提供を支援するための命令を提供することを容易にすることができる。これは、とりわけ、部品の直接識別、分解又はアセンブリに必要とされるアクションを示すアニメーション、デバイスの状態の検証をユーザに提供することができる。このようなシナリオでは、パネルが開放されると、幾何学形状は変化してもよく、部品は除去され、追加されるなどする。したがって、ARシステムは、オブジェクトの整備に起因して、現実世界のオブジェクトの構成の変化を反映するために、異なる三次元幾何学形状を適用することができる。
図5では、斜視図により、例示的な実施形態によるARシステムで使用される三次元幾何学形状の変化を示す。三次元幾何学形状500は、デバイス502の上に重畳されて示される。この幾何学形状500は、デバイス502との最初の遭遇に有用な基本直方体エンベロープであってもよい。仮想オブジェクト504、506によって示されるように、カバー508を開くための命令が提供される。図の下部に見られるように、カバー508が開かれた後、第2の幾何学形状510がデバイス502にマッピングされ、新しい仮想オブジェクト512、514の場所を特定するために使用される。第2の幾何学形状510は、パネル508の背後の空洞の詳細を含み、ユーザが仮想オブジェクト512、514を介して引き出されるように命令されている取り外し可能な部品516の少なくとも一部分を表してもよい。
いくつかの実施形態では、現実世界オブジェクト502に取り付けられた追加の幾何学形状は、ドア、パネル、取り外し可能な部品などの関節運動可能な部品を捕捉するサブ幾何学形状、及び動きに対する、より大きいオブジェクトに対するそれらの関係(例えば、部品が取り付けられるドアの自由度)を含んでもよい。このようなサブ幾何学形状は、取り外し可能な部品のための新しい幾何学形状を広げることができ、それにより、部品は、前のアセンブリとは独立したオブジェクトとしてARビューワの目的で処理される。
本明細書に記載されるシステム及び方法は、ARデバイスのビューポートを通じるなどして、ユーザが、関心対象の物理的オブジェクトにリアルタイムで幾何学形状(例えば、数学的に画定されたメッシュ)を整列させることを可能にする、AR「トリガ」の訓練を容易にする。例示的なビューポートは、タブレット上に表示されるカメラのライブカメラフィード、又はヘッドマウントディスプレイによって提供される3Dホログラフィックビューポートを含む。ユーザは、対象のオブジェクトに近接して、二次元及び/又は三次元コンテンツを対象領域に配置することができる。コンテンツは、対象のオブジェクトからのビューポートの推定されたポーズ及び距離に沿って最初に整列される。コンテンツは、ビューポートを提供するデバイスのユーザインターフェースによって提供されるアフォーダンスを使用して調整することができる。次いで、ユーザは、コンテンツと対象のオブジェクトとの間の幾何学的関係と共に記憶されるように、永続的記憶装置に配置されるコンテンツを提出する。例示的な永続的記憶機構としては、クラウド、PC、タブレット、又はコンテンツを記憶する他のデバイスが挙げられる。同じ又は異なるデバイスのいずれかを使用して、コンテンツは記憶機構からロードされる。仮想コンテンツをロードするための方法は、アプリケーション、QRコード、電子メールリンクなどを含む。コンテンツをロードした後、コンテンツを配置したユーザによって配置されるように、仮想コンテンツをビューポート内に重畳される。
図6では、フローチャートは、例示的な実施形態による方法を示す。この方法は、オブジェクトの三次元幾何学形状、及びカメラを介したオブジェクトの識別を容易にすることができるオブジェクトの表現をメモリに記憶すること(600)を含む。オブジェクトの画像は、カメラ内のシーンを介して取得される(601)。画像に基づいて、オブジェクトの存在は、オブジェクトの記憶された表現を介して検出される(602)。検出に基づいて、三次元幾何学形状は、シーン内のオブジェクトにマッピングされる(603)。マッピングに基づいて、仮想オブジェクトは、三次元幾何学形状に対して固定された向きにある点に取り付けられる(604)。仮想オブジェクトは、オブジェクトに対する拡張現実ディスプレイの場所の変化に関係なく、点及び固定された向きに位置するように、拡張現実ディスプレイ上にレンダリングされる(605)。特定の順序で示されるフローチャートのブロックは、特定の順序で示されているが、いくつかの実施形態では、順序は変更されてもよく、かつ/又はいくつかのプロセスは、順序の代わりに並列に実行されてもよいことに留意されたい。
上記の様々な実施形態は、特定の結果を提供するために相互作用する回路、ファームウェア、及び/又はソフトウェアモジュールを使用して実装され得る。当業者は、当該技術分野において一般的に既知である知識を使用して、モジュール式レベル又は全体でのいずれかで、こうして記載された機能を容易に実装することができる。例えば、本明細書に例解されるフローチャート及び制御図は、プロセッサにより実行されるためのコンピュータ可読命令/コードを作成するために使用されてもよい。こうした命令は、非一時的コンピュータ可読媒体上に格納され、当該技術分野において既知であるように実行するためにプロセッサに転送されてもよい。上記の構造及び手順は、上述の機能を提供するために使用され得る実施形態の代表的な例に過ぎない。
例示的な実施形態の前述の説明は、図解及び説明の目的のために提示される。これは、網羅的であること、又は実施形態を、開示される形態に厳密に限定することを意図するものではない。上記の教示に照らして、多くの修正及び変形が可能である。開示される実施形態の任意の又は全ての特徴は、個別に、又は任意の組み合わせで適用することができ、限定することを意図するものではなく、純粋に例示である。本発明の範囲は、この「発明を実施するための形態」に限定されるものではなく、むしろ本明細書に添付の「特許請求の範囲」によって決定されることが意図される。

Claims (21)

  1. 方法であって、
    オブジェクトの三次元幾何学形状、及びカメラを介した前記オブジェクトの識別を容易にすることができる前記オブジェクトの表現をメモリに記憶することと、
    前記カメラ内のシーンを介して前記オブジェクトの画像を取得することと、
    前記画像に基づいて、前記オブジェクトの前記記憶された表現を介して前記オブジェクトの存在を検出することと、
    前記オブジェクトの前記存在を検出することに基づいて、前記シーン内の前記オブジェクトに前記三次元幾何学形状をマッピングすることと、
    前記マッピングに基づいて、前記三次元幾何学形状に対して固定された向きにある点に仮想オブジェクトを取り付けることと、
    前記オブジェクトに対する拡張現実ディスプレイの場所の変化に関係なく、前記拡張現実ディスプレイ上の前記仮想オブジェクトを、前記点及び前記固定された向きに位置するようにレンダリングすることと、を含む、方法。
  2. 前記オブジェクトがデバイスを含み、前記仮想オブジェクトが、前記デバイスにサービス提供するための命令を含む、請求項1に記載の方法。
  3. 前記命令が、前記オブジェクトの一部の上に重畳されたアニメーションを含む、請求項2に記載の方法。
  4. 前記デバイスにサービス提供するユーザが、前記オブジェクトの幾何学形状の変化を引き起こし、前記方法が、
    前記幾何学形状の変化に対応する前記シーン内の前記オブジェクトに第2の三次元幾何学形状をマッピングすることと、
    前記第2の三次元幾何学形状に対して固定された第2の点で第2の命令をレンダリングすることと、を更に含む、請求項2に記載の方法。
  5. 前記仮想オブジェクトを取り付けることが、作成デバイスのディスプレイにある前記オブジェクトのライブビュー内の前記点を選択することと、前記ディスプレイを介して前記仮想オブジェクトを作成するためのソフトウェアレンダリングツールを使用することと、を含む、請求項1に記載の方法。
  6. 前記仮想オブジェクトを取り付けることが、作成デバイスのディスプレイにある前記オブジェクトのライブビュー内の前記オブジェクトの前記表面にある前記点を選択することと、前記ディスプレイを介して前記仮想オブジェクトを作成するためのソフトウェアレンダリングツールを使用することと、を含む、請求項1に記載の方法。
  7. 前記取り付けられた仮想オブジェクトの前記場所が、前記ライブビュー内の前記オブジェクトの位置によって判定される、請求項5に記載の方法。
  8. 前記取り付けられた仮想オブジェクトが、グラフィック、手書きメモ、ビデオ、及びアニメーションのうちの少なくとも1つを含む、請求項7に記載の方法。
  9. 前記三次元幾何学形状、前記点を記述するデータ、及び前記仮想オブジェクトを記述するデータが、ネットワークデータベース上に記憶され、前記シーン内の前記オブジェクトに前記三次元幾何学形状をマッピングすることが、
    前記オブジェクトの前記存在を検出することに応じて、オブジェクトの識別子を前記ネットワークデータベースに通信することと、
    前記識別子を通信することに基づいて、前記三次元幾何学形状、前記点を記述する前記データ、及び前記仮想オブジェクトを記述する前記データを検索することと、を含む、請求項1に記載の方法。
  10. 第2のカメラを介して、前記オブジェクトの前記場所とは異なる別の場所における前記オブジェクトの第2のインスタンスを検出することと、
    前記三次元幾何学形状を前記他の場所内の前記オブジェクトの第2のインスタンスにマッピングすることと、
    前記第2のカメラからのストリーミング入力に基づいて、第2のディスプレイ上に第2のビデオをレンダリングすることであって、前記仮想オブジェクトが、前記オブジェクトの前記第2のインスタンス上の前記点に位置するように前記ビデオを用いてレンダリングされる、レンダリングすることと、を更に含む、請求項1に記載の方法。
  11. 前記記憶された表現が機械学習分類子を含む、請求項1に記載の方法。
  12. 前記記憶された表現が、機械可読コード又は人間が読み取れるテキストのいずれかを介して前記オブジェクトから読み取り可能なコードを含む、請求項1に記載の方法。
  13. 第1のカメラに連結された第1のプロセッサを含む作成デバイスであって、前記第1のプロセッサが、
    前記第1のカメラ内のシーンを介してオブジェクトの画像を取得し、
    前記画像に基づいて、前記オブジェクトの記憶された表現を介して前記オブジェクトの存在を検出し、
    前記オブジェクトの前記存在を検出することに基づいて、前記シーン内の前記オブジェクトに前記三次元幾何学形状をマッピングし、
    前記マッピングに基づいて、前記三次元幾何学形状に対して固定された向きにある点に仮想オブジェクトを取り付ける、ように構成されている、作成デバイスと、
    第2のカメラメモリに連結された第2のプロセッサを含む表示デバイスであって、前記第2のプロセッサが、
    前記第2のカメラを介して前記オブジェクト又は同等のオブジェクトを検出し、それに応じて、前記三次元幾何学形状を前記オブジェクト又は前記同等のオブジェクトにマッピングし、
    前記オブジェクトに対する前記表示デバイスの場所の変化に関係なく、拡張現実ディスプレイ上の前記仮想オブジェクトを、前記点及び前記固定された向きに位置するようにレンダリングする、ように構成されている、表示デバイスと、を備える、システム。
  14. 前記オブジェクトがデバイスを含み、前記仮想オブジェクトが、前記デバイスにサービス提供するための命令を含む、請求項13に記載のシステム。
  15. 前記閲覧デバイスを介して前記デバイスにサービス提供するユーザが、前記オブジェクト又は前記同等のオブジェクトの幾何学形状の変化を引き起こし、前記システムが、
    前記幾何学形状の変化に対応する前記シーン内の前記オブジェクトに第2の三次元幾何学形状をマッピングすることと、
    前記第2の三次元幾何学形状に対して固定された第2の点で第2の命令をレンダリングすることと、を更に含む、請求項14に記載のシステム。
  16. 前記仮想オブジェクトを取り付けることが、前記作成デバイスのディスプレイにある前記オブジェクトのライブビュー内の前記点を選択することと、前記ディスプレイを介して前記仮想オブジェクトを作成するためのソフトウェアレンダリングツールを使用することと、を含む、請求項13に記載のシステム。
  17. 前記取り付けられた仮想オブジェクトの前記場所が、前記ライブビュー内の前記オブジェクトの位置によって判定される、請求項16に記載のシステム。
  18. 前記取り付けられた仮想オブジェクトが、グラフィック、手書きメモ、ビデオ、及びアニメーションのうちの少なくとも1つを含む、請求項17に記載のシステム。
  19. 前記三次元幾何学形状、前記点を記述するデータ、及び前記仮想オブジェクトを記述するデータが、ネットワークデータベース上に記憶され、前記シーン内の前記オブジェクトに前記三次元幾何学形状をマッピングすることが、
    前記オブジェクトの前記存在を検出することに応じて、オブジェクトの識別子を前記ネットワークデータベースに通信することと、
    前記識別子を通信することに基づいて、前記三次元幾何学形状、前記点を記述する前記データ、及び前記仮想オブジェクトを記述する前記データを検索することと、を含む、請求項13に記載のシステム。
  20. 前記オブジェクト又は前記同等のオブジェクトが前記同等のオブジェクトを含み、前記同等のオブジェクトが前記オブジェクトとは異なる場所にある、請求項13に記載のシステム。
  21. 前記記憶された表現が機械学習分類子を含む、請求項13に記載のシステム。
JP2021016096A 2020-02-24 2021-02-03 仮想オブジェクトを作成し、レンダリングするための視覚的オブジェクト認識及び記憶された幾何学形状を使用する拡張現実システム Pending JP2021136017A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/798,583 US11263818B2 (en) 2020-02-24 2020-02-24 Augmented reality system using visual object recognition and stored geometry to create and render virtual objects
US16/798,583 2020-02-24

Publications (2)

Publication Number Publication Date
JP2021136017A true JP2021136017A (ja) 2021-09-13
JP2021136017A5 JP2021136017A5 (ja) 2024-02-14

Family

ID=74561697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021016096A Pending JP2021136017A (ja) 2020-02-24 2021-02-03 仮想オブジェクトを作成し、レンダリングするための視覚的オブジェクト認識及び記憶された幾何学形状を使用する拡張現実システム

Country Status (3)

Country Link
US (1) US11263818B2 (ja)
EP (1) EP3869468A1 (ja)
JP (1) JP2021136017A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11393202B2 (en) * 2020-02-28 2022-07-19 CareAR Holdings LLC Augmented reality support platform
FR3117650B1 (fr) * 2020-12-16 2023-09-08 Schneider Electric Ind Sas Procédé de gestion de l’affichage d’au moins une information, produit programme d’ordinateur, support d’information et système d’affichage associés
CN118215942A (zh) * 2021-11-10 2024-06-18 三星电子株式会社 用于增强现实或虚拟现实环境中的虚拟对象定位的方法和系统
US20230401847A1 (en) * 2022-05-31 2023-12-14 CareAR Holdings LLC System and Method to Create Configurable, Context Sensitive Functions in AR Experiences

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070187266A1 (en) * 2006-02-15 2007-08-16 Porter Gilbert D Method, apparatus, and system for tracking unique items
WO2010029553A1 (en) 2008-09-11 2010-03-18 Netanel Hagbi Method and system for compositing an augmented reality scene
US9514434B2 (en) * 2009-01-06 2016-12-06 The Boeing Company Apparatus and method for automatic work instruction generation
EA024739B1 (ru) * 2010-09-29 2016-10-31 Аэроботикс, Инк. Способ и система разработки эталонной базы данных для конкретного способа неразрушающего контроля
US9424371B2 (en) * 2010-11-05 2016-08-23 Autodesk, Inc. Click to accept as built modeling
US9235819B2 (en) * 2011-11-04 2016-01-12 Canon Kabushiki Kaisha Printing system, image forming apparatus, and method
EP2817785B1 (en) 2012-02-23 2019-05-15 Charles D. Huston System and method for creating an environment and for sharing a location based experience in an environment
US9858754B2 (en) * 2012-06-14 2018-01-02 Bally Gaming, Inc. System and method for augmented reality gaming
EP2704055A1 (en) 2012-08-31 2014-03-05 Layar B.V. Determining space to display content in augmented reality
US10269179B2 (en) * 2012-10-05 2019-04-23 Elwha Llc Displaying second augmentations that are based on registered first augmentations
US20140240349A1 (en) * 2013-02-22 2014-08-28 Nokia Corporation Method and apparatus for presenting task-related objects in an augmented reality display
US9070202B2 (en) * 2013-03-14 2015-06-30 Nec Laboratories America, Inc. Moving object localization in 3D using a single camera
US20150062123A1 (en) * 2013-08-30 2015-03-05 Ngrain (Canada) Corporation Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model
US9740935B2 (en) * 2013-11-26 2017-08-22 Honeywell International Inc. Maintenance assistant system
US9898844B2 (en) * 2013-12-31 2018-02-20 Daqri, Llc Augmented reality content adapted to changes in real world space geometry
US9432421B1 (en) * 2014-03-28 2016-08-30 A9.Com, Inc. Sharing links in an augmented reality environment
AU2014202574A1 (en) 2014-05-13 2015-12-03 Canon Kabushiki Kaisha Positioning of projected augmented reality content
US9824499B2 (en) * 2015-06-23 2017-11-21 Microsoft Technology Licensing, Llc Mixed-reality image capture
US9520002B1 (en) 2015-06-24 2016-12-13 Microsoft Technology Licensing, Llc Virtual place-located anchor
US20170200316A1 (en) 2015-09-10 2017-07-13 Sphere Optics Company, Llc Advertising system for virtual reality environments
KR101624670B1 (ko) * 2015-09-25 2016-05-26 주식회사 동우 이앤씨 건축사사무소 구조물의 모델링에 관한 정보를 제공하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
US9805343B2 (en) * 2016-01-05 2017-10-31 Intermec Technologies Corporation System and method for guided printer servicing
US10306315B2 (en) 2016-03-29 2019-05-28 International Business Machines Corporation Video streaming augmenting
IL281241B (en) * 2016-08-22 2022-08-01 Magic Leap Inc An augmented reality display device with deep learning sensors
US10140773B2 (en) * 2017-02-01 2018-11-27 Accenture Global Solutions Limited Rendering virtual objects in 3D environments
US11417091B2 (en) * 2017-05-30 2022-08-16 Ptc Inc. Use of coordinated local user devices during a shared augmented reality session
WO2019021058A2 (en) * 2017-07-25 2019-01-31 Mbl Limited SYSTEMS AND METHODS FOR OPERATING A ROBOTIC SYSTEM AND EXECUTING ROBOTIC INTERACTIONS
DK180470B1 (en) * 2017-08-31 2021-05-06 Apple Inc Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
US11592818B2 (en) * 2018-06-20 2023-02-28 Zoox, Inc. Restricted multi-scale inference for machine learning
US10885721B2 (en) * 2018-09-28 2021-01-05 Jido Inc. Method for detecting objects and localizing a mobile computing device within an augmented reality experience
US10679420B2 (en) * 2018-11-02 2020-06-09 General Motors Llc Augmented reality (AR) remote vehicle assistance
US11087541B2 (en) * 2018-12-03 2021-08-10 Honeywell International Inc. Location-based identification of petrochemical assets in an industrial plant
US10846899B2 (en) * 2019-04-17 2020-11-24 Honeywell International Inc. Methods and systems for augmented reality safe visualization during performance of tasks

Also Published As

Publication number Publication date
US11263818B2 (en) 2022-03-01
US20210264669A1 (en) 2021-08-26
EP3869468A1 (en) 2021-08-25

Similar Documents

Publication Publication Date Title
US11887312B2 (en) Fiducial marker patterns, their automatic detection in images, and applications thereof
JP7079231B2 (ja) 情報処理装置及び情報処理システム及び制御方法、プログラム
US11163997B2 (en) Methods and apparatus for venue based augmented reality
US11263818B2 (en) Augmented reality system using visual object recognition and stored geometry to create and render virtual objects
Zollmann et al. Augmented reality for construction site monitoring and documentation
KR101691903B1 (ko) 광학 캐릭터 인식을 사용하여 증강 현실을 제공하기 위한 방법 및 장치
US9424371B2 (en) Click to accept as built modeling
KR102222974B1 (ko) 홀로그램 스냅 그리드
CN105981076B (zh) 合成增强现实环境的构造
CN108304075B (zh) 一种在增强现实设备进行人机交互的方法与设备
US20180075652A1 (en) Server and method for producing virtual reality image about object
CN110363061B (zh) 计算机可读介质、训练对象检测算法的方法及显示装置
WO2015048529A1 (en) Simulating three-dimensional views using planes of content
US11532138B2 (en) Augmented reality (AR) imprinting methods and systems
CN112912936A (zh) 混合现实系统、程序、移动终端装置和方法
JPWO2020144848A1 (ja) オーサリング装置、オーサリング方法、及びオーサリングプログラム
US20210258476A1 (en) System for generating a three-dimensional scene of a physical environment
CN115100257A (zh) 套管对准方法、装置、计算机设备、存储介质
Moares et al. Inter ar: Interior decor app using augmented reality technology
US20230351706A1 (en) Scanning interface systems and methods for building a virtual representation of a location
TWI759764B (zh) 基於光通信裝置疊加虛擬物件的方法、電子設備以及電腦可讀取記錄媒體
Раиса et al. The method of visualization of 3D objects using augmented reality technology based on the marker
WO2023277897A1 (en) Replacing synthetic object within xr environment
KE Augmented reality interaction and vision-based tracking

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210302

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240205

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240627