JP2020504406A - 仮想現実または拡張現実環境において複雑なデータをレンダリングするためのシステムおよび方法 - Google Patents

仮想現実または拡張現実環境において複雑なデータをレンダリングするためのシステムおよび方法 Download PDF

Info

Publication number
JP2020504406A
JP2020504406A JP2019547573A JP2019547573A JP2020504406A JP 2020504406 A JP2020504406 A JP 2020504406A JP 2019547573 A JP2019547573 A JP 2019547573A JP 2019547573 A JP2019547573 A JP 2019547573A JP 2020504406 A JP2020504406 A JP 2020504406A
Authority
JP
Japan
Prior art keywords
mask
masks
voxel
visual marker
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019547573A
Other languages
English (en)
Other versions
JP2020504406A5 (ja
JP6968898B2 (ja
Inventor
ヤロン ヴァックスマン
ヤロン ヴァックスマン
ニヴ フィッシャー
ニヴ フィッシャー
ロイ ポラット
ロイ ポラット
オレン カリスマン
オレン カリスマン
Original Assignee
3ディー システムズ インコーポレイテッド
3ディー システムズ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3ディー システムズ インコーポレイテッド, 3ディー システムズ インコーポレイテッド filed Critical 3ディー システムズ インコーポレイテッド
Publication of JP2020504406A publication Critical patent/JP2020504406A/ja
Publication of JP2020504406A5 publication Critical patent/JP2020504406A5/ja
Application granted granted Critical
Publication of JP6968898B2 publication Critical patent/JP6968898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

3Dオブジェクトの仮想現実および拡張現実レンダリングのための方法が提供される。この方法は、3Dオブジェクトの複数の部分が識別可能および区別可能であり得るように3Dオブジェクトをセグメント化するステップを含み得る。この方法はマスクを作成するステップと、マスク間の関係を識別するステップと、それに従ってマスクをマーク付けするステップとを含み得る。【選択図】図1

Description

本発明は一般的に、イメージングデータを仮想現実または拡張現実において見られ得るフォーマットにレンダリングすることに関する。より具体的には、本発明は仮想現実または拡張現実において3次元(3D:three−dimensional)オブジェクトをレンダリングすることに関する。
現行の仮想現実または拡張現実システムが存在し、これは一般的に1つまたはそれ以上の2次元(2D:two−dimensional)スクリーンに3Dオブジェクトのコンピュータ生成シミュレーションを表示することを含む。3Dオブジェクトに基づいて2D画像を作成することは、かなりのコンピューティングリソースを必要とし得る。公知のシステムおよび方法は一般的に、性能の低さに苦慮している。たとえば、2Dフレームにおける画素の値を定めるために多くの(3Dオブジェクトの)サンプルおよび計算が必要となり得るため、いくつかの公知のシステムおよび方法は適切な解像度を提供しないことがある。加えて、たとえばズームまたは回転などの動作が必要とされるとき、公知のシステムおよび方法は遅延を被る。
加えて、重複する(例、互いに接する)トポロジを有する1つまたはそれ以上の部分を有する3Dオブジェクトを視覚化することは、特に仮想現実(virtual reality)(「VR」)および/または拡張現実(augmented reality)(「AR」)においては複雑なタスクになり得る。たとえば、3Dオブジェクトは通常、メッシュを用いて表示される。重複部分(例、相互トポロジ)を有する3Dオブジェクトに基づいて作成されたメッシュにおいては、通常、重複部分を互いに区別できなくなる。たとえば、互いに接する別個の3Dオブジェクトが相互トポロジを有するメッシュを有するとき、現行のシステムは通常、交差するメッシュを作成する。しかし、互いに接する別個の3Dオブジェクトのメッシュは通常交差するべきではない。なぜなら、たとえばそれは通常、それらの3Dオブジェクトが別個のものであるという事実を正確に表すことができないからである。
たとえばAR/VR技術におけるステレオビジョンなどによって、交差するメッシュはユーザによって検出可能になり得る。公知のシステムおよび方法は、AR/VR技術における視覚化に対して正確であり得る異なる3Dオブジェクトからのメッシュ(またはメッシュのセット)を適切に作成できない可能性がある。
本発明の1つの利点は、見る人がオブジェクトを区別できるような方式で、複雑な生体構造(例、重複するオブジェクトを有する生体構造)のAR/VR視覚化を提供できることである。本発明の別の利点は、たとえば3Dオブジェクトの正確な表現などによって、ユーザに3Dオブジェクトのより明瞭な理解を提供できることである。
したがって本発明の態様において、方法および非一時的コンピュータ可読媒体は、イメージングデータからオブジェクトの3次元(3D)仮想現実または拡張現実レンダリングを作成するための方法をコンピュータに行わせるためのプログラム命令を含む。
本発明の実施形態によると、イメージングデータに基づくオブジェクトタイプが定められ、そのオブジェクトタイプに基づくマスクのセットが作成される。各マスクはオブジェクトの一意の部分を表すことができ、それぞれのマスクの一意の部分に対応するイメージングデータからの複数のボクセルおよび一意の視覚マーカが割り当てられ得る。
マスクのセットの外側マスクが定められてもよく、この外側マスクから3Dメッシュが作成され得る。外側マスクの3Dメッシュの内壁の各頂点に対して、それぞれの現行ボクセルに対して外側マスクを除く各マスクに対して各ボクセルに対する測地的距離が定められ、頂点に対する最短の測地的距離を有するボクセルと同じ視覚マーカを有するように現行頂点のそれぞれの視覚マーカが修正され得る。外側マスクおよびすべてのマスクのそれぞれの一意の視覚マーカに基づいて、オブジェクトの3D仮想現実または拡張現実レンダリングが作成されてもよい。
いくつかの実施形態において、マスクに割り当てられていない複数のボクセルの各ボクセルに対して、現行ボクセルに対する最短距離にあるボクセルを有するマスクのセットからの1つのマスクが定められてもよく、その1つのマスクの一意の視覚マーカと同じ視覚マーカが現行ボクセルに割り当てられてもよい。一意の視覚マーカは色マーカ、パターン、またはそれらの任意の組み合わせであってもよい。
いくつかの実施形態において、予め定められた閾値を有するボックスフィルタを適用することによって、外側マスクが修正されてもよい。
特定の実施形態において、外側マスクの決定はユーザ入力、オブジェクトタイプ、またはそれらの任意の組み合わせに基づいていてもよい。
この段落の後に挙げられている添付の図面を参照して、以下に本開示の実施形態の非限定的な例が説明されている。2つ以上の図面に現れる同一の特徴は、一般的にそれらが現れるすべての図面において同じラベルでラベル付けされている。図面において本開示の実施形態の所与の特徴を表すアイコンをラベル付けするラベルが、その所与の特徴を参照するために用いられてもよい。図面に示される特徴の寸法は提示の利便性および明瞭性のために選択されたものであり、必ずしも縮尺通りに示されていない。
本発明とみなされる主題は、本明細書の終結部分に特定的に示され、明確に請求されている。しかし本発明は、構成および動作の方法の両方ならびにそれらの目的、特徴および利点に関して、添付の図面とともに読まれたときの以下の詳細な説明を参照することによって最もよく理解されるだろう。本発明の実施形態は例として示されたものであり、添付の図面の図における限定ではなく、図面において類似の参照番号は、対応する類似または同様の構成要素を示す。
本発明のいくつかの実施形態による例示的コンピュータデバイスを示す高レベルブロック図である。 本発明のいくつかの実施形態による方法を示す流れ図である。 本発明の例示的実施形態による、内壁および外壁を有する心臓メッシュの断面の例を示す図である。
例示の簡潔性および明瞭性のために、図面に示される構成要素は必ずしも正確または縮尺通りに描かれていないことが理解されるだろう。たとえば、明瞭性のためにいくつかの構成要素の寸法が他の構成要素に比べて誇張されていることがあり、いくつかの物理的コンポーネントが1つの機能ブロックまたは構成要素に含まれていることもある。さらに、適切と考えられるときには、対応または類似の構成要素を示すために図面間で参照番号が繰り返されることがある。
以下の詳細な説明において、本発明の完全な理解を提供するために多数の特定の詳細が示される。しかし、本発明はこれらの特定の詳細を伴わずに実行されてもよいことが当業者に理解されるだろう。他の場合には、本発明を不明瞭にしないために、周知の方法、手順、およびコンポーネント、モジュール、ユニット、および/または回路は詳細に説明されていない。1つの実施形態に関して記載されたいくつかの特徴または構成要素が、他の実施形態に関して記載された特徴または構成要素と組み合わされてもよい。明瞭性のために、同じまたは類似の特徴または構成要素の考察は繰り返さないことがある。
本発明の実施形態はこれに関して限定されないが、たとえば「処理」、「計算」、「算出」、「決定」、「確立」、「分析」、または「チェック」などの用語を用いた考察は、コンピュータのレジスタおよび/またはメモリ内の物理(例、電子)量として表されるデータを操作および/または変換して、コンピュータのレジスタおよび/またはメモリ、または動作および/もしくはプロセスを行うための命令を保存し得るその他の情報非一時的記憶媒体において同様に物理量として表される他のデータにする、コンピュータ、コンピュータプラットフォーム、コンピュータシステム、またはその他の電子コンピュータデバイスの動作(単数または複数)および/またはプロセス(単数または複数)を示すものであってもよい。本発明の実施形態はこれに関して限定されないが、本明細書において用いられる「複数(plurality)」および「複数(a plurality)」という用語は、たとえば「多数(multiple)」または「2つまたはそれ以上」などを含んでもよい。「複数(plurality)」または「複数(a plurality)」という用語は、2つまたはそれ以上のコンポーネント、デバイス、構成要素、ユニット、またはパラメータなどを記載するために、本明細書全体にわたって用いられてもよい。本明細書において用いられるときのこの用語セットは、1つまたはそれ以上の項目を含んでもよい。明確に述べられない限り、本明細書に記載される方法の実施形態は、特定の順序または順番に拘束されない。加えて、記載される方法の実施形態またはその構成要素のいくつかが同時に、同時点で、または並行して発生または実行されてもよい。
本発明のいくつかの実施形態による例示的コンピュータデバイス(またはシステム)の高レベルブロック図を示す図1を参照する。コンピュータデバイス100は、たとえば中央処理ユニットプロセッサ(CPU:central processing unit processor)、チップ、または任意の好適なコンピューティングもしくはコンピュータによるデバイスなどであってもよいコントローラ105と、オペレーティングシステム115と、メモリ120と、実行可能コード125と、記憶システム130と、入力デバイス135と、出力デバイス140とを含んでもよい。
コントローラ105(または1つもしくはそれ以上のコントローラもしくはプロセッサ、おそらくは複数のユニットまたはデバイスにまたがる)は、本明細書に記載される方法を行うため、および/またはさまざまなモジュール、ユニットなどとして実行もしくは作用するために構成されてもよい。本発明の例示的実施形態によるシステムのコンポーネントに2つ以上のコンピュータデバイス100が含まれていてもよいし、1つまたはそれ以上のコンピュータデバイス100がそのコンポーネントであるか、またはそのコンポーネントとして作用してもよい。たとえば、第1のコンピュータデバイス100が3Dモデル作成の方法を行ってもよく、第2のコンピュータデバイス100がディスプレイにおけるモデルのレンダリングの方法を行ってもよい。
オペレーティングシステム115は、調整、スケジューリング、調停、監視、制御、またはコンピュータデバイス100の別様の管理動作、たとえばソフトウェアプログラムの実行もしくは実行可能コードセグメントのスケジューリング、またはソフトウェアプログラムもしくはその他のモジュールもしくはユニットを通信可能にすることなどを含むタスクを行うように設計および/または構成された任意のコードセグメント(例、本明細書に記載される実行可能コード125と類似のもの)であってもよいし、それを含んでもよい。オペレーティングシステム115は市販のオペレーティングシステムであってもよい。
メモリ120は、たとえばランダムアクセスメモリ(RAM:Random Access Memory)、リードオンリメモリ(ROM:read only memory)、ダイナミックRAM(DRAM:Dynamic RAM)、同期DRAM(SD−RAM:Synchronous DRAM)、ダブルデータレート(DDR:double data rate)メモリチップ、フラッシュメモリ、揮発性メモリ、不揮発性メモリ、キャッシュメモリ、バッファ、短期メモリユニット、長期メモリユニット、またはその他の好適なメモリユニットもしくは記憶ユニットなどであってもよいし、それを含んでもよい。メモリ120は、複数の異なる可能性のあるメモリユニットであってもよいし、それらを含んでもよい。メモリ120はコンピュータもしくはプロセッサの非一時的可読媒体、またはコンピュータ非一時的記憶媒体、たとえばRAMなどであってもよい。
実行可能コード125は、たとえばアプリケーション、プログラム、プロセス、タスク、またはスクリプトなどの任意の実行可能コードであってもよい。実行可能コード125は、おそらくはオペレーティングシステム115の制御下で、コントローラ105によって実行されてもよい。たとえば、本明細書にさらに記載されるとおり、実行可能コード125は3Dモデルを自動的に作成し、かつ/またはモニタにおいて画像をレンダリングするアプリケーションであってもよい。明瞭性のために、図1には単一項目の実行可能コード125が示されているが、本発明の例示的実施形態によるシステムは、メモリ120にロードされて本明細書に記載される方法をコントローラ105に行わせてもよい実行可能コード125と類似の複数の実行可能コードセグメントを含んでもよい。たとえば、本明細書に記載されるユニットまたはモジュールは、コントローラ105、メモリ120、および実行可能コード125であってもよいし、それらを含んでもよい。
記憶システム130は、たとえばハードディスクドライブ、コンパクトディスク(CD:Compact Disk)ドライブ、記録可能CD(CD−R:CD−Recordable)ドライブ、ブルーレイディスク(BD:Blu−ray disk)、ユニバーサルシリアルバス(USB:universal serial bus)デバイス、またはその他の好適な取り外し可能かつ/もしくは固定記憶ユニットなどであってもよいし、それを含んでもよい。コンテンツは記憶システム130に保存されてもよく、記憶システム130からメモリ120にロードされてもよく、そこでコントローラ105によって処理されてもよい。示されるとおり、記憶システム130は3Dオブジェクトストア(例、イメージングデータストア131)と、マスク132と、レンダリングデータ133とを含んでもよい。記憶システム130に保存されるデータを、本明細書においてさらに説明する。
3Dオブジェクトストアは3Dオブジェクトを含み得る。3Dオブジェクトは、3Dオブジェクトを表す任意のデータを含み得る。3Dオブジェクトは3Dイメージングデータ、メッシュデータ、体積オブジェクト、多角形メッシュオブジェクト、ポイントクラウド、3Dオブジェクトの関数表現、cadファイル、3D pdfファイル、STLファイル、および/または3Dオブジェクトを表し得る任意の入力を含み得る。3Dイメージングデータは、コンピュータ断層撮影(Computed Tomography)(「CT」)イメージングデータ、コーンビーム断層撮影(Cone Beam Computed Tomography)(「CBCT」)イメージングデータ、磁気共鳴イメージング(Magnetic Resonance Imaging)(「MRI」)イメージングデータおよび/もしくはMRAイメージングデータ(例、造影剤を伴うMRI)、または超音波イメージングデータを含む医療用イメージングデータを含み得る。3Dオブジェクトは生体構造(例、複雑な生体構造)、工業用データ、または任意の3Dオブジェクトのものであり得る。
いくつかの実施形態において、図1に示されるコンポーネントのいくつかが省略されてもよい。たとえば、メモリ120は、記憶システム130の記憶容量を有する不揮発性メモリであってもよい。したがって、別個のコンポーネントとして示されているが、記憶システム130はメモリ120に埋め込まれるか、または含まれていてもよい。
入力デバイス135はマウス、キーボード、タッチスクリーンもしくはパッド、または任意の好適な入力デバイスであってもよいし、それを含んでもよい。ブロック135によって示されるとおり、コンピュータデバイス100に任意の好適な数の入力デバイスが動作的に接続されてもよいことが認識されるだろう。出力デバイス140は1つまたはそれ以上のスクリーン、ディスプレイもしくはモニタ、スピーカ、および/または任意のその他の好適な出力デバイスを含んでもよい。ブロック140によって示されるとおり、コンピュータデバイス100に任意の好適な数の出力デバイスが動作的に接続されてもよいことが認識されるだろう。
ブロック135および140によって示されるとおり、コンピュータデバイス100に任意の適用可能な入力/出力(I/O:input/output)デバイスが接続されてもよい。たとえば、入力デバイス135および/または出力デバイス140には有線または無線のネットワークインタフェースカード(NIC:network interface card)、プリンタ、ユニバーサルシリアルバス(USB)デバイス、または外部ハードドライブが含まれてもよい。
本発明の例示的実施形態によるシステムは、たとえば複数の中央処理ユニット(CPU)または任意のその他の好適な多目的もしくは特定のプロセッサもしくはコントローラ(例、コントローラ105と類似のコントローラ)、複数の入力ユニット、複数の出力ユニット、複数のメモリユニット、および複数の記憶ユニットなどであるがそれらに限定されないコンポーネントを含んでもよい。このシステムは付加的に、他の好適なハードウェアコンポーネントおよび/またはソフトウェアコンポーネントを含んでもよい。いくつかの実施形態において、システムはたとえばパーソナルコンピュータ、デスクトップコンピュータ、ラップトップコンピュータ、ワークステーション、サーバコンピュータ、ネットワークデバイス、または任意のその他の好適なコンピュータデバイスなどを含んでもよいし、それであってもよい。たとえば、本明細書に記載されるシステムは、たとえばコンピュータデバイス100などの1つまたはそれ以上のデバイスを含んでもよい。
イメージングデータ131は当該技術分野において公知の任意のイメージングデータであってもよく、たとえばイメージングデータ131は、たとえばコンピュータ断層撮影(CT)システム、または磁気共鳴イメージング(MRI)システム、および/またはコーンビーム断層撮影(CBCT)システムによって生成されるものなどの医療用データであってもよい。
マスク132に含まれるマスクは、3Dモデルにおけるオブジェクトのセットであってもよいし、それを示してもよいし、それに関係してもよい。たとえばマスクは、オブジェクトのセットを列挙するか、またはそれを指してもよく、たとえばイメージングデータのボクセルがマスクに関連付けられ(または含まれ)てもよい。マスクはたとえば、より大きなデータセットの各ボクセルまたはデータ点に対するたとえばブール型(例、1/0、yes/no)値などを含むデータ構成であってもよい。マスクは、ボクセルの外観を指定する視覚マーカ(例、色および/またはパターン)を含んでもよい。マスクは、より大きいデータセットに適用されたときに、ボクセルがマーク付けされたかマーク付けされていないかを示してもよい。ボクセルは当該技術分野において公知であり、一般的にボクセルは体積の構成要素のグループのうちの1つの構成要素であってもよく、その体積は(例、当該技術分野において公知であるデジタルデータを用いて)3D空間および/または3Dオブジェクトを表してもよい。
レンダリングデータ133は、スクリーンまたはモニタにおいて画像をレンダリングするために使用できる任意のデータであってもよい。たとえば、レンダリングデータ133は、当該技術分野において公知であるとおりに画像をレンダリングするために用いられてもよい画素値のセット(例、赤色、緑色および青色(RGB:red,green and blue)値、色相、および強度など)であってもよい。
本発明のいくつかの実施形態において、システムは入力として、オブジェクト(例、たとえば頭部または心臓などの器官)のイメージングデータを受信できる。システムは、メモリにマスクを保存および検索でき、かつ/またはオブジェクトのタイプに対応するマスクのセットを受信できる。システムは、マスクのセット中の各マスクに対応するイメージングデータを入れることができる。たとえば、心臓のイメージングデータ、左心室マスク、および右心室マスクをメモリから検索できる。心臓の右心室に対応するイメージングデータの部分が右心室マスクに割り当てられてもよく、左心室マスクに対応するイメージングデータの部分が左心室マスクに割り当てられてもよい。
システムは、割り当てられたイメージングデータを有するマスクのセットをレンダリングして、仮想現実または拡張現実において見ることのできるフォーマットにできる(例、器官またはオブジェクトの3Dモデルへの仮想現実または拡張現実レンダリング)。任意のファイルフォーマットが用いられてもよく、たとえば本発明の実施形態は、たとえば標準三角言語(STL:standard triangle language)、またはポリゴンファイルフォーマット(polygon file format)もしくはスタンフォードトライアングルフォーマット(stanford triangle format)(PLY)などのフォーマットを使用してもよい。たとえば、CTまたはMRIシステムから受信したイメージングデータに基づき、かつマスクのセットに基づいて、いくつかの実施形態は心室、血管、またはシステムなどの3D着色仮想現実または拡張現実レンダリングを生成してもよい。
いくつかの実施形態は、セグメント化オブジェクト(例、心臓の心臓区域)の3D仮想現実または拡張現実レンダリングを作成してもよく、その仮想現実または拡張現実レンダリングを用いて、たとえばオキュラスリフト(Oculus Rift)またはマイクロソフト(Microsoft)のホロレンズヘッドセットなどのVRグラスなどを介した仮想現実または拡張現実(VR)システムにおいてセグメント化オブジェクトを表示してもよい。
いくつかの実施形態において、3D仮想レンダリングは着色されてもよい。たとえば、着色された仮想現実または拡張現実レンダリング3Dモデルにおける血管は赤色であってもよく、骨は白色であってもよく、以下同様である。仮想現実または拡張現実レンダリング3Dモデルは任意の数の色を含んでもよく、たとえばそれは黒色および白色のみ、灰色のさまざまな陰影、または色スペクトルに沿った任意の色を含んでもよい。
上述のとおり、イメージングデータの仮想現実または拡張現実レンダリングは、マスクのセットの1つまたはそれ以上のマスクにイメージングデータを割り当てることによって行われ得る。各マスクは、ボクセルのセットを表し得る。いくつかの実施形態は、マスクに含まれるか、列挙されるか、表されるか、または参照されるボクセルを操作することによって、マスクに対する(またはマスクを伴う)さまざまな動作(例、モルフォロジー演算)を行ってもよい。
たとえば、ボクセルのグループAは半径Rの球形の構成要素によって拡張されてもよく(ここでは
Figure 2020504406
と示される)、ボクセルのグループAは半径Rの球形の構成要素によって侵食されてもよく(ここでは
Figure 2020504406
と示される)、ボクセルのグループAは半径Rの球形の構成要素によって開かれてもよく(ここでは
Figure 2020504406
と示される)、ボクセルのグループAは半径Rの球形の構成要素によって閉じられてもよい(ここでは
Figure 2020504406
と示される)。
図2Aの、本発明のいくつかの実施形態によるイメージングデータからオブジェクトの3D仮想現実または拡張現実レンダリングを作成するための方法の流れ図が参照される。ステップ210によって示されるとおり、イメージングデータに基づいてオブジェクトタイプが定められてもよい。もしイメージングデータ131が心臓のものであれば、オブジェクトタイプは心臓と定められる。もしイメージングデータが複数の構成要素(例、2つの心室および対応する静脈)を含んでいれば、イメージングデータのこれらの構成要素は心臓に属することが定められ得る。
ステップ215によって示されるとおり、オブジェクトタイプに基づいてマスクのセットが作成されてもよく、各マスクはオブジェクトの一意の部分を表す。いくつかの実施形態において、もしオブジェクトタイプが心臓であれば、軟部組織、心室、大動脈セグメント、肺動脈セグメントのマスクが作成されてもよく、もしオブジェクトが頭部であれば頭蓋骨マスク、脳マスク、および/または上顎洞骨マスクが作成されてもよい。他の場合、たとえば携帯電話などの電気デバイスがオブジェクトであるときは、本明細書に記載されるとおりにケースマスク、スクリーンマスク、または電気回路のマスクが作成されて使用されてもよい。
いくつかの実施形態において、ユーザはオブジェクトの外側マスク、およびこれらの実施形態においては、選択された外側マスクの内側のマスクのみを選択してもよい。たとえば、肺生体構造全体および心臓生体構造全体(心臓軟部組織、心室、大動脈セグメント、肺動脈セグメント)に対するマスクがあると仮定して、ユーザが軟部組織マスクを選択するとき、結果として得られる画像は軟部組織、心室、大動脈、および肺動脈のみを含んでもよい(それらは筋肉の内側にあるため)。
たとえば、もしオブジェクトタイプがヒトの心臓であれば、ヒトの心臓に対応するマスクのセットは、たとえば以下の表1に示されるとおりの心室およびその他の部分のマスクであってもよい。
LVMask−左心室マスク
RVMask−右心室マスク
RAMask−右心房マスク
LAMask−左心房マスク
AortaMask−大動脈マスク
PAMask−肺動脈マスク
BloodMask−血液量マスク
STMask−軟部組織マスク
表1
さまざまな実施形態において、ユーザによって入力される各オブジェクトタイプに対するマスクのセットは、別のコンピュータプログラムまたはその任意の組み合わせを介して生成される。当業者に明らかであるとおり、オブジェクトタイプは3Dイメージングされ得る任意のオブジェクトであり得る。たとえば、医学的適用に加えて、工業用設定においても3Dイメージングが行われ得る。工業用3Dイメージングデータは、エンジンおよび電気回路などのものであり得る。
ステップ220によって示されるとおり、マスクの各々に、セットまたは複数のボクセル(例、イメージングデータ131のボクセルのいくつかまたはすべて)が割り当てられてもよい。たとえば、イメージングデータ131において大動脈を記述するか、それに属するか、またはそれに含まれるボクセルは、大動脈マスクに割り当てられてもよい。各マスクには視覚マーカが割り当てられてもよく、たとえば視覚マーカは色であってもよい。視覚マーカは、(例、ユーザインタフェースを介して)ユーザによって割り当てられることも、マスクのタイプに基づいてシステムによって定められることも、それらの任意の組み合わせであることもできる。
ステップ225によって示されるとおり、外側マスクが識別および/または決定されてもよい。いくつかの実施形態においては、外側マスクが受信される。たとえば、外側マスクはユーザ入力によって定められ得る。いくつかの実施形態において、外側マスクはオブジェクトタイプに基づいて定められ得る。
オブジェクトタイプが心臓である上記の実施例を続けると、外側マスクを生成するために、心臓の周囲の軟部組織が用いられてもよい。
いくつかの実施形態において、マスクの1つまたはそれ以上が平滑化される。いくつかの実施形態においては、外側マスクが平滑化される。たとえば、もし外側マスクが心臓の軟部組織であれば、心臓の軟部組織のイメージングデータはノイズを含み得るため、たとえばノイズおよび/または望ましくないデータ点を除去するために、当該技術分野において公知であるとおりに外側マスクが平滑化され得る。いくつかの実施形態においては、ボックス平均フィルタ(たとえば、次元[3,3,3]の1つ)を用い、かつ閾値0.5を用いて、外側マスクが平滑化されてもよい。
いくつかの実施形態において、厚いマスク(例、1ボクセルより大きい幅を有するマスク)からメッシュを作成するとき、結果として得られるメッシュは内壁および外壁を有してもよい。これらの実施形態において、外側マスクが識別されるとき、それは外壁に対応し得る。これらの実施形態においては、外側マスクに属しているが、外側マスクに属すると識別されないボクセル(例、内壁のボクセル)が定められ得る。
たとえば図2Bは、本発明の例示的実施形態による、内壁および外壁を有する外側マスクを有する心臓メッシュの断面の例を示す。図2Bに示されるとおり、筋肉組織2115は、その内壁が鉛直線によって示され、その外壁が斜線でパターン化されるような厚さを有する。3Dメッシュは外側マスクから作成されるか、またはそれに基づいてもよいため(例、心臓モデリングの場合、筋肉組織は外側マスクである)、その内壁のボクセルは内側マスクの色を用いて着色され得る。各ボクセルは特定のマスクに対応でき、かつ各頂点は特定のメッシュに対応し得るため、結果としてメッシュの内壁の各頂点に対する色が定められ得る。外側マスクのメッシュの頂点は必ずしも内側マスクのボクセル上に置かれなくてもよいため(例、メッシュ作成プロセスによる)、測地的距離ステップが行われ得る。
図2Aに戻って、この方法は外側マスクからメッシュを作成するステップも含み得る(ステップ237)。加えてこの方法は、測地的距離に基づいて頂点の色を定めるステップを含み得る。ステップ230によって示されるとおり、マスクのセットのうち外側マスクを除く各マスクに対して、それぞれのマスクの各ボクセルと、外側マスクメッシュの内壁の頂点との測地的距離が定められてもよい。
上述の心臓の実施例を続けると、それぞれのマスクの各ボクセルと、外側マスクのメッシュの内壁の頂点との測地的距離を定めるステップは、たとえば以下のEQN.1に示されるとおり、1によってBloodMaskを拡張することによってTraverseMask(例、メッシュの内壁の範囲を包含し得る)を生成するステップを含み得る。
Figure 2020504406
心室および/または血管マスク(例、LVMask、RVMask)の各々を、1ボクセル半径によって拡張する(例、上述の
Figure 2020504406
演算を用いる)。
各マスクおよび各頂点の間の測地的距離が定められ得る。心臓の実施例を続けると、各頂点と各心室および血管マスクとの間の横断マスクにおける測地的距離が定められ得る。各頂点の視覚マーカは、頂点に対する最短の測地的距離を有する(例、最も近い)ボクセルの視覚マーカに修正され得る。
いくつかの実施形態において、ユーザ入力によって特定のマスクの色が修正されてもよい。たとえば、筋肉に興味があることを示すユーザ入力に基づいて、筋肉組織を表すボクセル(例、MuscleMask内)に、筋肉に対して選択された色(例、MuscleMaskに対して選択された色)が割り当てられてもよい。色に対する各ボクセルのマッピングを記録または表示するために、任意のオブジェクトまたは構造が用いられてもよい(例、リスト、ポインタまたは参照のセットなど)。
オブジェクトに対する3D仮想現実または拡張現実レンダリングデータを作成するために、着色されたボクセルのセット(例、マップによって示される)が生成されて使用されてもよい。たとえば、マスクが医師またはその他のユーザに要求されるとおりのビューを正確に表し、かつ/またはその作成を可能にするように、(例、記載されるとおりにボクセルとマスクとを関連付け、かつ/またはボクセルを着色することによって)記載されるとおりに最も外側のマスクが他のマスクの一部によって増強されてもよい。ステップ235によって示されるとおり、外側マスクおよびすべてのマスクのそれぞれの一意のマーカに基づいて、オブジェクトの3D仮想現実または拡張現実レンダリングのためのデータが生成されてもよい。たとえば、当該技術分野において公知のマーチングキューブアルゴリズムなどを用いて、上記の実施例に記載される心臓マスクに基づいて心臓の着色3D仮想レンダリングが作成されてもよい。
本出願の記載および請求項における各々の動詞「含む(comprise)」、「含む(include)」、および「有する」、ならびにそれらの活用形は、その動詞の単数または複数の目的語が、必ずしもその動詞の単数または複数の主語のコンポーネント、構成要素、または部分の完全な一覧ではないことを示すために用いられる。別様に述べられない限り、本開示の実施形態の単数または複数の特徴の条件または関係の特徴を修正するたとえば「実質的」および「約」などの形容詞は、その条件または特徴が記載される実施形態の動作にとって容認できる許容範囲内であることが定められることを意味することが理解される。加えて、「または(or)」という言葉は包含的「or」であって排他的orではなく、それが結合する項目の少なくとも1つまたはそれらの任意の組み合わせを示すものと考えられる。
本出願における本発明の実施形態の説明は例として提供されるものであって、本発明の範囲を制限することは意図されていない。記載される実施形態は異なる特徴を含み、すべての実施形態においてそれらの特徴すべてが必要とされるわけではない。いくつかの実施形態はそれらの特徴のいくつか、またはそれらの特徴の可能な組み合わせのみを使用する。記載される本発明の実施形態の変形、および記載される実施形態に示される特徴の異なる組み合わせを含む実施形態を当業者は想起するであろう。本発明の範囲は請求項のみによって限定される。
明確に述べられない限り、本明細書に記載される方法の実施形態は、特定の時間的順序または時系列に拘束されない。加えて、方法の動作の連続の間に、記載される方法構成要素のいくつかが省略されてもよいし、それらが繰り返されてもよい。
本明細書において本発明の特定の特徴を例示および説明したが、当業者は多くの修正、置換、変更、および均等物を想起してもよい。したがって、添付の請求項は、本発明の真の趣旨内にあるすべてのこうした修正および変更を包含することが意図されていることが理解されるべきである。
さまざまな実施形態が提示された。これらの実施形態の各々は、もちろん提示された他の実施形態からの特徴を含んでもよく、特定的に記載されていない実施形態が本明細書に記載されるさまざまな特徴を含んでもよい。

Claims (14)

  1. 3Dオブジェクトからオブジェクトの3次元(3D)仮想現実または拡張現実レンダリングを作成するための方法であって、前記方法は、
    マスクのセットを受信するステップであって、前記マスクのセットは外側マスクを含み、各マスクは一意の視覚マーカを含む、ステップと、
    前記外側マスクから3Dメッシュを作成するステップと、
    前記外側マスクの前記3Dメッシュの内壁の各頂点に対して、
    a)それぞれの現行ボクセルに対して、前記外側マスクを除く各マスクの各ボクセルに対する測地的距離を定めるステップと、
    b)前記頂点に対する最短の測地的距離を有する前記ボクセルと同じ視覚マーカを有するように前記現行頂点のそれぞれの前記視覚マーカを修正するステップと、
    前記外側マスクおよびすべての前記マスクのそれぞれの前記一意の視覚マーカに基づいて、前記オブジェクトの前記3D仮想現実または拡張現実レンダリングを作成するステップと、を含む、方法。
  2. 前記マスクのセットは、
    前記3Dオブジェクトに基づいてオブジェクトタイプを定めるステップと、
    前記オブジェクトタイプに基づいてマスクのセットを作成するステップであって、各マスクは前記オブジェクトの一意の部分を表す、ステップと、
    前記マスクのセットの各マスクにi)それぞれの前記マスクの一意の部分に対応する前記3Dオブジェクトからの複数のボクセル、およびii)前記一意の視覚マーカを割り当てるステップと、
    前記マスクのセットの外側マスクを定めるステップと、に基づく、請求項1に記載の方法。
  3. マスクに割り当てられていない前記複数のボクセルの各ボクセルに対して、
    a)前記現行ボクセルに対する最短距離にあるボクセルを有する前記マスクのセットからの1つのマスクを定めるステップと、
    b)前記1つのマスクの前記一意の視覚マーカと同じ視覚マーカを前記現行ボクセルに割り当てるステップと、をさらに含む、請求項1に記載の方法。
  4. 予め定められた閾値を有するボックスフィルタを適用することによって前記外側マスクを修正するステップをさらに含む、請求項1に記載の方法。
  5. 前記外側マスクを定めるステップは、ユーザ入力、前記オブジェクトタイプ、またはそれらの任意の組み合わせに基づく、請求項1に記載の方法。
  6. 前記一意の視覚マーカは、色マーカ、パターン、またはそれらの任意の組み合わせである、請求項1に記載の方法。
  7. 仮想現実もしくは拡張現実デバイスまたは拡張現実デバイスによって、前記3D仮想現実または拡張現実レンダリングを表示するステップをさらに含む、請求項1に記載の方法。
  8. コンピュータに以下の方法を行わせるためのプログラム命令を含む非一時的コンピュータ可読媒体であって、前記方法は、
    マスクのセットを受信するステップであって、前記マスクのセットは外側マスクを含み、各マスクは一意の視覚マーカを含む、ステップと、
    前記外側マスクから3Dメッシュを作成するステップと、
    前記外側マスクの前記3Dメッシュの内壁の各頂点に対して、
    c)それぞれの現行ボクセルに対して、前記外側マスクを除く各マスクの各ボクセルに対する測地的距離を定めるステップと、
    d)前記頂点に対する最短の測地的距離を有する前記ボクセルと同じ視覚マーカを有するように前記現行頂点のそれぞれの前記視覚マーカを修正するステップと、
    前記外側マスクおよびすべての前記マスクのそれぞれの前記一意の視覚マーカに基づいて、前記オブジェクトの3D仮想現実または拡張現実レンダリングを作成するステップと、を含む、非一時的コンピュータ可読媒体。
  9. 前記マスクのセットは、
    前記3Dオブジェクトに基づいてオブジェクトタイプを定めるステップと、
    前記オブジェクトタイプに基づいてマスクのセットを作成するステップであって、各マスクは前記オブジェクトの一意の部分を表す、ステップと、
    前記マスクのセットの各マスクにi)それぞれの前記マスクの一意の部分に対応する前記3Dオブジェクトからの複数のボクセル、およびii)前記一意の視覚マーカを割り当てるステップと、
    前記マスクのセットの外側マスクを定めるステップと、に基づく、請求項8に記載の非一時的コンピュータ可読媒体。
  10. マスクに割り当てられていない前記複数のボクセルの各ボクセルに対して、
    c)前記現行ボクセルに対する最短距離にあるボクセルを有する前記マスクのセットからの1つのマスクを定め、
    d)前記1つのマスクの前記一意の視覚マーカと同じ視覚マーカを前記現行ボクセルに割り当てる、請求項8に記載の非一時的コンピュータ可読媒体。
  11. 予め定められた閾値を有するボックスフィルタを適用することによって前記外側マスクを修正するステップをさらに含む、請求項8に記載の非一時的コンピュータ可読媒体。
  12. 前記外側マスクを定めるステップは、ユーザ入力、前記オブジェクトタイプ、またはそれらの任意の組み合わせに基づく、請求項8に記載の非一時的コンピュータ可読媒体。
  13. 前記一意の視覚マーカは、色マーカ、パターン、またはそれらの任意の組み合わせである、請求項8に記載の非一時的コンピュータ可読媒体。
  14. 仮想現実もしくは拡張現実デバイスまたは拡張現実デバイスによって、前記3D仮想現実または拡張現実レンダリングを表示するステップをさらに含む、請求項8に記載の非一時的コンピュータ可読媒体。

JP2019547573A 2016-11-23 2017-09-21 仮想現実または拡張現実環境において複雑なデータをレンダリングするためのシステムおよび方法 Active JP6968898B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/360,330 2016-11-23
US15/360,330 US10249092B2 (en) 2016-11-23 2016-11-23 System and method for rendering complex data in a virtual reality or augmented reality environment
PCT/US2017/052694 WO2018097882A1 (en) 2016-11-23 2017-09-21 System and method for rendering complex data in a virtual reality or augmented reality environment

Publications (3)

Publication Number Publication Date
JP2020504406A true JP2020504406A (ja) 2020-02-06
JP2020504406A5 JP2020504406A5 (ja) 2020-11-05
JP6968898B2 JP6968898B2 (ja) 2021-11-17

Family

ID=62147752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019547573A Active JP6968898B2 (ja) 2016-11-23 2017-09-21 仮想現実または拡張現実環境において複雑なデータをレンダリングするためのシステムおよび方法

Country Status (5)

Country Link
US (1) US10249092B2 (ja)
EP (1) EP3545500B1 (ja)
JP (1) JP6968898B2 (ja)
CN (1) CN110168619B (ja)
WO (1) WO2018097882A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112236077B (zh) * 2018-06-04 2024-07-30 巴德阿克塞斯系统股份有限公司 用于使解剖可视化、定位或放置医疗设备的系统和方法
CN108874153A (zh) * 2018-08-23 2018-11-23 上海机器人产业技术研究院有限公司 一种基于ar眼镜云机器人全息评审系统及方法
WO2020167573A1 (en) * 2019-02-15 2020-08-20 Xliminal, Inc. System and method for interactively rendering and displaying 3d objects
WO2020189038A1 (ja) * 2019-03-20 2020-09-24 ソニー株式会社 情報処理装置、情報処理方法、再生処理装置及び再生処理方法
KR102657877B1 (ko) * 2019-05-30 2024-04-17 삼성전자주식회사 증강 현실의 가상 객체 데이터 획득 방법 및 그에 관한 장치
WO2020242047A1 (en) * 2019-05-30 2020-12-03 Samsung Electronics Co., Ltd. Method and apparatus for acquiring virtual object data in augmented reality
US11424037B2 (en) 2019-11-22 2022-08-23 International Business Machines Corporation Disease simulation in medical images
KR102338984B1 (ko) * 2020-04-20 2021-12-14 주식회사 스쿱 인공지능을 활용한 3d 모형 증강현실 서비스 제공 시스템 및 그 방법
CN112492231B (zh) * 2020-11-02 2023-03-21 重庆创通联智物联网有限公司 远程交互方法、装置、电子设备和计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120230566A1 (en) * 1999-08-11 2012-09-13 Case Western Reserve University Producing a three dimensional model of an implant
EP2549441A1 (en) * 2010-03-18 2013-01-23 Universidad Politécnica De Madrid Method for displaying the information contained in three-dimensional images of the heart
US20150359430A1 (en) * 2013-01-24 2015-12-17 Tylerton International Holdings Inc. Body structure imaging

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6084979A (en) 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
GB2343602B (en) * 1998-11-06 2003-03-19 Videologic Ltd Shading 3-dimensional computer generated images
EP1236156A1 (en) * 1999-03-03 2002-09-04 Virginia Commonwealth University 3-d shape measurements using statistical curvature analysis
US7889209B2 (en) * 2003-12-10 2011-02-15 Sensable Technologies, Inc. Apparatus and methods for wrapping texture onto the surface of a virtual object
US8543338B2 (en) 2007-01-16 2013-09-24 Simbionix Ltd. System and method for performing computerized simulations for image-guided procedures using a patient specific model
US8270693B2 (en) 2007-04-03 2012-09-18 M2S Anatomical visualization and measurement system
CN103337096B (zh) * 2013-07-19 2015-09-09 东南大学 一种冠状动脉ct造影图像钙化点检测方法
WO2015077314A2 (en) 2013-11-20 2015-05-28 Fovia, Inc Volume rendering color mapping on polygonal objects for 3-d printing
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9710965B2 (en) * 2014-09-10 2017-07-18 Disney Enterprises, Inc. Capturing and stylizing hair for 3D fabrication
US10037603B2 (en) * 2015-05-04 2018-07-31 Siemens Healthcare Gmbh Method and system for whole body bone removal and vascular visualization in medical image data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120230566A1 (en) * 1999-08-11 2012-09-13 Case Western Reserve University Producing a three dimensional model of an implant
EP2549441A1 (en) * 2010-03-18 2013-01-23 Universidad Politécnica De Madrid Method for displaying the information contained in three-dimensional images of the heart
US20150359430A1 (en) * 2013-01-24 2015-12-17 Tylerton International Holdings Inc. Body structure imaging

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中尾 恵: "ボリュームインタラクションのためのマスキングとその実時間処理方法", 日本バーチャルリアリティ学会論文誌, vol. 10, no. 4, JPN6021024076, 2005, JP, pages 591 - 598, ISSN: 0004608596 *

Also Published As

Publication number Publication date
EP3545500B1 (en) 2021-11-03
CN110168619B (zh) 2023-11-28
US20180144550A1 (en) 2018-05-24
CN110168619A (zh) 2019-08-23
US10249092B2 (en) 2019-04-02
WO2018097882A1 (en) 2018-05-31
EP3545500A1 (en) 2019-10-02
EP3545500A4 (en) 2020-06-17
JP6968898B2 (ja) 2021-11-17

Similar Documents

Publication Publication Date Title
JP6968898B2 (ja) 仮想現実または拡張現実環境において複雑なデータをレンダリングするためのシステムおよび方法
JP7324268B2 (ja) 複雑なデータのリアルタイムレンダリングのためのシステムおよび方法
JP6273266B2 (ja) セグメント化の強調表示
EP2054860B1 (en) Selection of datasets from 3d renderings for viewing
Burns et al. Feature emphasis and contextual cutaways for multimodal medical visualization.
Lawonn et al. Adaptive surface visualization of vessels with animated blood flow
US10188361B2 (en) System for synthetic display of multi-modality data
EP2810217B1 (en) Graph cuts-based interactive segmentation of teeth in 3-d ct volumetric data
CN107851337B (zh) 交互式网格编辑
JP2010240409A (ja) 4dレンダリングにおいて定量的なセグメントデータを表示するための方法およびシステム
JP6619431B2 (ja) 解剖学的構造のモデルベースセグメンテーション
US20220346888A1 (en) Device and system for multidimensional data visualization and interaction in an augmented reality virtual reality or mixed reality environment
JP2011502566A (ja) 強調された冠状動脈表示
Bullitt et al. Volume rendering of segmented image objects
JP2020101860A (ja) 医用画像処理装置、システム及びプログラム
JP2011504117A (ja) 自動動画飛行経路計算
JP6532863B2 (ja) 多重分類による画像のボリュームレンダリング
CN112884879B (zh) 用于提供至少一个管状结构的二维展开图像的方法
Preim et al. Visualization, Visual Analytics and Virtual Reality in Medicine: State-of-the-art Techniques and Applications
Singh et al. A Narrative Review on 3D Visualization Techniques in Neurosurgical Education, Simulation and Planning
Tory et al. Visualization of time-varying MRI data for MS lesion analysis
JP7387340B2 (ja) 生体構造識別装置、生体構造識別方法及び生体構造識別用コンピュータプログラム
Fong et al. Development of a virtual reality system for Hepatocellular Carcinoma pre-surgical planning
Pajaziti et al. VheaRts: Reporting a Single-Centre Experience in Developing and Implementing a Virtual Reality Application for Planning Treatment of Congenital Heart Disease
Preim Model-based visualization for intervention planning

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200916

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211027

R150 Certificate of patent or registration of utility model

Ref document number: 6968898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250