JP2017534096A - 仮想現実環境において遮られた顔部分を再構築する方法およびシステム - Google Patents

仮想現実環境において遮られた顔部分を再構築する方法およびシステム Download PDF

Info

Publication number
JP2017534096A
JP2017534096A JP2017506358A JP2017506358A JP2017534096A JP 2017534096 A JP2017534096 A JP 2017534096A JP 2017506358 A JP2017506358 A JP 2017506358A JP 2017506358 A JP2017506358 A JP 2017506358A JP 2017534096 A JP2017534096 A JP 2017534096A
Authority
JP
Japan
Prior art keywords
face
image
occluded
data
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017506358A
Other languages
English (en)
Other versions
JP6654625B2 (ja
Inventor
グロッシンガー、ナダブ
アロン、エミル
Original Assignee
フェイスブック,インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フェイスブック,インク. filed Critical フェイスブック,インク.
Publication of JP2017534096A publication Critical patent/JP2017534096A/ja
Application granted granted Critical
Publication of JP6654625B2 publication Critical patent/JP6654625B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B45/00ICT specially adapted for bioinformatics-related data visualisation, e.g. displaying of maps or networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/416Exact reconstruction

Abstract

遮蔽された顔部分を再構築する方法およびシステムが提供される。方法は、顔を遮る物体であって人物の顔の一部を遮る物体を装着していない人物の頭部の3Dデータであるオフライン3Dデータを取得するステップと、顔を遮る物体を装着した人物の頭部の3Dデータであるリアルタイム3Dデータをリアルタイムで取得するステップと、リアルタイム3Dデータに基づいてオフライン3Dデータの少なくとも一部に3D変換を適用することにより、遮蔽された顔部分に関連するリアルタイム3Dデータである再構築されたリアルタイム3Dデータを生成するステップと、リアルタイム3Dデータに再構築されたリアルタイム3Dデータをマージするステップとを含み得る。システムは、コンピュータプロセッサでこれらのステップを実行し得る。

Description

本発明は、概して仮想現実環境、特に仮想現実環境の参加者の実画像を統合する環境に関する。
本発明の背景技術の記載に先立って、以下で用いる用語の定義を記載する。
本明細書で使用する用語「仮想現実」(VR)は、現実世界または仮想世界のある場所における物理的存在をシミュレート可能なコンピュータシミュレーション環境として定義される。仮想現実は、仮想の味覚、視覚、嗅覚、聴覚、触覚などの感覚体験を再現可能である。
本明細書で使用する用語「仮想現実ヘッドセット」は、コンピュータシミュレーション環境でユーザの視点をそれぞれ僅かに変更して、ユーザの目の前に3Dコンピュータシミュレーション環境を立体的に投影するヘッドマウントディスプレイ(HMD)として定義される。当該技術分野において周知のそのような仮想現実ヘッドセットの1つは、Oculus Rift(商標)である。仮想現実ヘッドセットは、任意のタイプの立体視バイザとして実装することができ、ヘルメットタイプの構造内に保持することができる。
本明細書で使用する用語「3Dモデル」は、物体(無生物または生物)の任意の3次元表面の数学的表現を表す処理である3Dモデル化の生成物として定義される。モデルは、例えば3D印刷装置を使用して物理的に生成することができ、あるいは手動でも物理的に作成することができる。3Dモデルは、三角形、線、曲面などの種々の幾何学的エンティティによって接続された3D空間内の点集合、つまりデータ集合(点および他の情報)を用いて3D物体を表すことができる。
本明細書で使用する用語「3Dデータ」は、3D物体から得られる任意の形式および種類の任意のデータ構造として定義される。3Dデータは、例えば、3Dモデル、3D画像、さらには、より少ない構造化データの形式を含むことができる。
3D仮想現実における現在の1つの課題は、ユーザ(例えば仮想現実環境の参加者)の実画像または実データを例えば他の各ユーザの視点でシームレスに組み込むことである。現在利用可能な仮想現実システムのいくつかは、ニアアイ(near eye)ディスプレイが一体化されたある種の仮想現実ヘッドセットを必要とするため、顔の少なくとも一部がヘッドセットによって遮られている。
いくつかの3D仮想現実アプリケーションでは、ユーザの画像をリアルタイムで取り込み、その画像を他の各ユーザのビューにマージすることが望まれている。このようなアプリケーションでは、仮想現実ヘッドセットなどのヘルメットやニアアイディスプレイとして機能する顔を遮る物体が、例えばユーザの顔の一部などのデータの損失を招き、ユーザ体験を損なわせる可能性がある。
図1は、従来技術の仮想現実環境100を示している。二人の人物(ユーザ)106,108がそれぞれニアアイディスプレイユニット102,104を装着しており、それによってそれぞれの顔の少なくとも一部が遮られている。二人のそれぞれのビュー(ディスプレイを介して見ているもの)110,112は、通常、本質的に3次元であり、したがって、各表示画像は2つの視点(簡略化のために図示せず)を含む。ニアアイディスプレイを介してユーザに提示されるビュー110,112は、現実の物体103,105を示さないコンピュータシミュレーション環境を含む。コンピュータシミュレーション環境のビュー110,112は、ユーザの動きにリアルタイムに応答して調整される。ビュー110,112は、ビュー112,110内で顔の大部分を遮っているニアアイディスプレイ102A,104Aを装着している相手の参加者106A,108Aの画像を提示する。このような顔の遮蔽は望ましくない結果であり、全体としてユーザの体験を損なわせるものとなる。
本発明のいくつかの実施形態は、仮想現実環境において遮られた顔部分を再構築するための方法およびシステムを提供することによって従来技術の上記の欠点を克服する。この方法は、顔を遮る物体であって人物の顔の一部を遮る物体を装着していない人物の頭部の3Dデータであるオフライン3Dデータを取得するステップと、前記顔を遮る物体を装着した前記人物の頭部の3Dデータであるリアルタイム3Dデータをリアルタイムで取得するステップと、前記リアルタイム3Dデータに基づいて前記オフライン3Dデータの少なくとも一部に3D変換を適用することにより、遮蔽された顔部分に関連するリアルタイム3Dデータである再構築されたリアルタイム3Dデータを生成するステップと、前記リアルタイム3Dデータに前記再構築されたリアルタイム3Dデータをマージするステップとを含み得る。システムは、コンピュータプロセッサでこれらのステップを実行し得る。
本発明の実施形態の上記態様、追加の態様、および/または他の態様、および/またはそれらの利点は、以下の詳細な説明に記載されるか、その説明から推測可能であるか、および/または本発明の実施形態の実施によって得ることができる。
従来技術による仮想現実環境を示す概略ブロック図である。 本発明の実施形態による仮想現実環境を示す概略ブロック図である。 本発明の実施形態による仮想現実環境を示す概略図である。 本発明の実施形態によるシステムを示す概略図である。 本発明の実施形態によるシステムを示す概略ブロック図である。 本発明の実施形態による一連の動作を示す概略図である。 本発明の実施形態によるシステムの一態様を示す概略ブロック図である。 本発明のいくつかの実施形態による方法を示すフローチャートである。
本発明の実施形態の理解を深め、かつその実施形態をどのように実施するかを示すために、単に一例として、添付図面を参照する。図中、同様の番号は対応する要素または部分を示す。
詳細な図面に対する特定の言及について、図示されている事項は一例であって、本技術の好ましい実施形態を例示的に説明することのみを目的としたものであり、本技術の原理および概念的側面の最も有用かつ容易に理解し得るものとして提示されている。この点に関して、本技術の基本的理解に必要なもの以上に本技術の構造的詳細を示すようにはなされておらず、本発明の種々の形態を実際にどのように実施するかについては図面を用いた説明から当業者には明らかである。
本技術の少なくとも1つの実施形態を詳細に説明する。本発明は、その適用において、以下の説明に記載されるかまたは図面に示された構成要素の構成および配置に限定されない。本技術は、他の実施形態に適用可能であり、または種々の方法で実施または実行される。また、本明細書で使用する表現および用語は説明を目的としたものであり、限定的であると見なされるべきではない。
本発明のいくつかの実施形態は、通常、Oculus Rift(商標)ヘッドセットやGoogle Glass(商標)などの3D仮想現実ヘッドセットにより顔の一部が遮られている場合に仮想現実参加者の顔部分を再構築するという課題に取り組む。3D仮想現実領域での動作は、仮想現実参加者の顔の3D画像などのリアルタイム3Dデータを他の視聴者すなわち参加者に対してシームレスに再構築するという課題を特に解決する。
図2は、本発明の実施形態による仮想現実環境を示す概略ブロック図である。仮想現実システムにおけるシーン200が示されている。二人の人物(参加者)206,208がそれぞれニアアイ(near eye)ディスプレイ、すなわちVRヘッドセット202,204を装着しており、それによってそれぞれの顔が遮られている。しかし、図1とは対照的に、ニアアイディスプレイ202,204を介して提示される二人のそれぞれのビュー210,212は、ニアアイディスプレイを装着していない相手の参加者を示している(現実世界の背景がコンピュータシミュレーション環境で置き換えられるため、現実の物体203,205も示されない)。これは、以下で詳細に説明するように、参加者の実際の動きおよび/または表現および/またはジェスチャに基づいて、遮蔽物体を含む画像部分を、リアルタイムで更新される追加または修正後の顔画像により置き換えることによって可能となる。
図3は、本発明のいくつかの実施形態による仮想現実環境を示す概略ブロック図である。ここでは、第3の参加者(図示せず)が、現実世界300においてVRヘッドセット304A,302Aなどのヘルメットを装着している他の2人の参加者308A,306Aを見ている。現実世界300は現実の物体303,305も含む。第3のユーザに提示される仮想現実ビュー300Bでは、再構築された顔画像によってヘルメットがシームレスに置き換えられるため、他の2人の参加者308B,306Bがヘルメットなしで提示される。
図4は、本発明のいくつかの実施形態による態様を示す概略図である。VRヘッドセットなどのユーザヘルメット404が示されている。このユーザヘルメット404は(ユーザの顔に取り付け可能な)その内側に沿って複数のセンサ402を備えている。これらのセンサは、目(例えば、目の瞳孔や眼瞼の動き)などのユーザのジェスチャを検出するように構成されており、コンピュータプロセッサは、進行中のジェスチャに基づいて顔のベース画像を修正し、それらをリアルタイムで(または可能な限り小さな遅延で)提示するように構成されている。例えば、センサ402は、ユーザが笑っているのかまたは微笑んでいるのかを示す顔の皮膚の動きを検知し得る。これにより、種々の部分を引き伸ばすなどの笑いや笑みの効果を適用する画像処理のプロセスが顔のベース画像に施される。このプロセスはリアルタイムで更新される。その結果、他の視聴者には、遮蔽された顔部分に代えて、ユーザの画像にシームレスに挿入される修正後のユーザの笑みの顔画像が提示される。
図5は、本発明の実施形態によるシステム500を示す概略ブロック図である。システム500は、顔を遮る物体を身に付けている少なくとも1人の人物を含むシーンの3Dデータ(例えば、画像)512を取得するように構成された3Dデータ取得装置510を含み得る。この3Dデータ512の取得は、特定のユーザの視点から行われる。システム500はさらに、例えば、顔を遮る物体によって遮蔽された顔部分を示すデータ550を例えば顔取得モジュール530から取得するように構成されたコンピュータプロセッサ520を含み得る。顔取得モジュール530は、センサ532〜534、またはネットワークデータベースなどの他のソースからデータを受信する。ユーザの輪郭画像を格納し得るFacebook(商標)やLinkedIn(商標)などのソーシャルネットワークを、ユーザの顔の2D画像のソースとすることができる。ユーザの頭や顔の3Dデータを生成するためにこれらの2D画像を使用することができる。
コンピュータプロセッサ520はさらに、取得したデータに基づき、遮蔽された顔部分の(例えば画像の)3Dデータを再構築するように構成され得る。コンピュータプロセッサ520はさらに、その再構築した顔画像を、取得したシーンの画像の対応する位置にマージするように構成され得る。システム500はさらに、そのマージされた画像を特定のユーザに提示するように構成されたニアアイディスプレイ570を含み得る。このマージされた画像は、特定のユーザの視点を元に調整可能なコンピュータシミュレーション環境に配置される。
本発明のいくつかの実施形態によれば、顔を遮る物体は、顔を遮る物体の内側に設けられた1つまたは複数のセンサを備える。このセンサは、顔を遮る物体によって遮蔽された顔部分を示すデータを取得するように構成される。
本発明のいくつかの実施形態によれば、センサによる検知は画像取得の形態とすることができ、この場合、取得されるデータは遮蔽された顔部分の画像である。
本発明のいくつかの実施形態によれば、センサは顔のジェスチャを検知するように構成され得る。この場合、顔画像の再構築は、以前に取得した遮蔽された顔部分のベース画像に対して顔を変化させるように、検知したジェスチャをモデル化することによって行われる。
本発明のいくつかの実施形態によれば、コンピュータプロセッサ520は、顔を遮る物体によって遮蔽された顔部分を示すデータを取得するように構成され得る。この取得には、以前に取得した遮蔽された顔部分のベース画像を取得することが含まれる。
本発明のいくつかの実施形態によれば、遮蔽された顔部分のベース画像をプロセッサによって取得することは、ネットワークデータベースを検索することによって行われる。
本発明のいくつかの実施形態によれば、遮蔽された顔部分の顔画像の再構築は、取得データに基づき、プロセッサによって、顔を遮る物体を装着している少なくとも1人の人物の位置、向き、輪郭、およびバイタルサイン(例えば心拍数や呼吸システムの指標など)のうちの少なくとも1つを監視し、取得データをその少なくとも1人の人物の顔の3次元モデルに適用して修正後の顔画像を生成することによって行われる。
本発明のいくつかの実施形態によれば、顔を遮る物体は、ニアアイディスプレイを備える。
本発明のいくつかの実施形態によれば、ニアアイディスプレイは、ヘルメット内に組み込まれる。
本発明のいくつかの実施形態によれば、コンピュータシミュレーション環境は、特定のユーザと顔を遮る物体を装着している少なくとも1人の人物とに共通の3次元シーンであり得る。
図6は、本発明の実施形態による一連の動作を示す概略図600である。第1ステップでは、これに限定されないが、人物612,614,616の複数の2D画像に基づいて人物610の頭部のオフライン3Dデータが(例えば、3Dモデルの形態で)取得される。人物612,614,616の2D画像は、ヘルメットを装着する前にオフラインセッションで取得されてもよいしまたはネットワークデータベースなどの第三者ソースから取得されてもよい。
あるいは、仮想現実ヘッドギアを装着する前に、構造化された光技術を用いてオフライン3Dデータが取得されてもよい。具体的には、参照によりその全体が本明細書に組み込まれる国際出願公開第2013/088442に開示されるような構造化された光を使用することによって、ユーザの頭部または顔の奥行きマップを生成し、その奥行きマップからオフライン3Dデータを抽出することができる。
次いで、第2ステップでは、ユーザが顔を遮る物体622(例えば、仮想現実ヘッドセット)を装着している間に、ユーザ620のリアルタイム3Dデータ(例えば、モデル)が取得される。このリアルタイム画像は常に更新される。次いで、第3ステップでは、再構築モジュール640にて、オフライン3Dデータ610またはその一部618(3Dモデル632から分割され得る遮蔽部分634の境界に一致する部分)に対して3D変換が適用され得る。この3D変換は、リアルタイム3Dデータ(モデル)620、より具体的には、リアルタイムパラメータ644に基づくものとすることができ、このリアルタイムパラメータ644から遮蔽部分634の外観を推定することができる。
リアルタイムパラメータ644は、例えば、ユーザの顔の位置や向き、または表現を含むことができ、さらには、その人の疲れの程度やリアルタイムで経験している感情の種類を含むことができる。これらのリアルタイムパラメータ644はすべて、仮想現実ヘッドセットによって遮蔽されている顔部分を推定し再構築するために使用される。
再構築モジュール(またはステップ)の生成物は、再構築されたリアルタイムデータ(またはモデル)650であり、この再構築されたリアルタイムデータ650は、非遮蔽部分の影響を受ける領域部分652、通常は、外側位置の頬に対してなされたジェスチャ変更の影響を受ける内側位置の頬を含む。この領域の外観は、非遮蔽部分に関するリアルタイムパラメータ644に基づいて推定することができる。別の領域は、非遮蔽部分の影響を受けない領域654(例えば、目)である。目の外観は、別のモデルに基づいて推定することができ、リアルタイム2Dデータ622の外部のソースからのメタデータ642、例えば仮想現実環境においてその人が別の人と対応している(その位置も知られている)場合にその人が見ている方向などのメタデータ642を用いて推定することができる。最後に、再構築されたリアルタイム3Dデータ(またはモデル)650が、例えば、遮蔽部分で分割された部分を有するリアルタイム3Dデータ(またはモデル)632とマージされることにより、遮蔽部分が再構築された状態で、人物の頭部について再構築されたリアルタイム3Dデータ(またはモデル)が生成される。これにより、仮想現実環境に参加している他の人に提示される3D画像でモデル660を生成することができる。
図7は、本発明の実施形態によるシステムの一態様を示す概略ブロック図であり、具体的には、遮蔽された顔部分がどのように再構築されるかを説明する概略図である。システム700はネットワーク710を含み得る。このネットワーク710は、参加者の顔画像のソースとして機能するインターネットであってもよい。上記したように、ベース画像720は、通常、Facebook(商標)などのソーシャルネットワークウェブサイトから取得され得る生画像である。
これと同時に、ソフトウェアにより実現されるモデラー730が、再構築する必要がある顔の3Dモデル732を生成し得る。このモデルは、顔画像を再構築する必要がある人の頭部のいくつかの2Dビューに基づくものとすることができる。その後、3Dモデル732と第三者ソースから取得された顔のベース画像720との双方がコンピュータプロセッサ740に送られ、顔画像を再構築する必要がある参加者の頭部の実際の位置や向き、例えば顔のジェスチャに関連するリアルタイムパラメータ750とともに、3Dモデル732とベース画像720が処理される。コンピュータプロセッサ740の出力は、再構築された顔画像760である。この再構築された顔画像760では、ベース画像を調整してモデルに適用するために参加者の実際の位置や近くの環境や向きが使用されることで、再構築された顔画像が仮想現実ビューにおいて可能な限り自然な状態で提示される。リアルタイムパラメータの例としては、参加者の視線の方向や、その人の身体的状態(例えば、その人の目の位置や顔の全体的な外観などに影響を及ぼし得る疲労の程度)や、その人の現在の気分(例えば、幸せである/怒っている/悲しいなど)や、その人の近くの環境(例えば、自宅にいるまたは暑い天候であり屋外のビーチにいるなど)が挙げられる。このような外観に影響を及ぼすデータをモデラーによって使用することで、当該技術分野において周知の方法(例えば、テクスチャリングおよびデジタルアニメーション)によりベース画像を再構築し修正してもよい。
いくつかの他の実施形態では、仮想世界(例えば、ゲーム内)でユーザに何が起きているのかなどの仮想現実環境を考慮して顔の表情を推定することができ、それにより再構築された顔画像を仮想現実の活動に基づいて動的に調整することができる。
図8は、本発明のいくつかの実施形態による方法800を示す上位フローチャートである。方法800は上記したシステム500の構造とは異なる構造によって実現し得ることが理解される。方法800は、顔を遮る物体であって人物の顔の一部を遮る物体を装着していない人物の頭部の3Dデータであるオフライン3Dデータを取得すること810と、顔を遮る物体を装着した人物の頭部の3Dデータであるリアルタイム3Dデータをリアルタイムで取得すること820と、リアルタイム3Dデータに基づいてオフライン3Dデータの少なくとも一部に3D変換を適用することにより、遮蔽された顔部分に関連するリアルタイム3Dデータである再構築されたリアルタイム3Dデータを生成すること830と、リアルタイム3Dデータに再構築されたリアルタイム3Dデータをマージすること840と、を含み得る。
本発明のいくつかの実施形態によれば、オフライン3Dデータはオフライン3Dモデルであってもよく、リアルタイム3Dデータはリアルタイム3Dモデルであってもよい。モデルは、空間的特徴を示す任意の数学的または実際の構造であり得る。
本発明のいくつかの実施形態によれば、方法はさらに、リアルタイム3Dデータと再構築されたリアルタイム3Dデータとのマージデータから、マージされたリアルタイム3D画像を生成するステップを含み得る。
本発明のいくつかの実施形態によれば、リアルタイム3Dデータは、仮想現実(VR)環境に重ね合わせられてもよい。
本発明のいくつかの実施形態によれば、リアルタイム3Dデータは、顔を遮る物体を装着している人の位置、向き、輪郭、およびバイタルサインのうちの少なくとも1つを監視することによって得ることができる。
本発明のいくつかの実施形態によれば、方法はさらに、得られたリアルタイム3Dデータを人物の顔の3Dモデルに適用することで修正後の顔画像を生成するステップを含み得る。
本発明のいくつかの実施形態によれば、3D変換はさらに、遮蔽されていない顔部分に対する変化の影響を受ける遮蔽された顔部分を推定するために、人物の遮蔽されていない顔部分から得られたデータを使用することを含み得る。具体的には、この推定は、リアルタイム3Dデータをもとに顔の表情を検知することに基づいて行うことができる。
本発明のいくつかの実施形態によれば、3D変換はさらに、遮蔽されていない顔部分に対する変化の影響を受けない遮蔽部分(例えば、目)の外観を推定し、その推定結果を3D変換に使用することを含み得る。具体的には、この推定は、その人物に関するメタデータに基づいて行うことができる。
本発明のいくつかの実施形態によれば、少なくとも1人の人物の遮蔽部分をVR環境における出来事に基づいて少なくとも部分的に再構築することができる。この特徴は遮蔽されていない顔部分にも適用できる。
本発明のいくつかの実施形態によれば、オフライン3Dデータの取得は、コンピュータネットワークから受信した2D画像を格納可能な外部データベースを介して実行することができる。あるいは、オフライン3Dデータの取得は、VR環境のセッションを開始する前に、3Dセンサを介して実行されてもよい。
以上の説明において、実施形態は、本発明の一例または実施態様である。「一実施形態」、「実施形態」、または「いくつかの実施形態」などの種々の表現は、必ずしもすべてが同じ実施形態を指すとは限らない。
本発明の種々の特徴は、単一の実施形態として説明することができるが、それらの特徴は、別々にまたは任意の適切な組み合わせで提供することもできる。逆に言えば、本発明は、明瞭化を目的として別々の実施形態として説明することができるが、単一の実施形態で実施することもできる。
本明細書において、「いくつかの実施形態」、「実施形態」、「一実施形態」、または「他の実施形態」という言及は、実施形態に関連して説明される特定の特徴、構造、または特性が本発明の少なくともいくつかの実施形態に含まれることを意味しており、本発明のすべての実施形態に含まれることを意味するものではない。
本明細書で使用する表現および用語は、限定として解釈されるものではなく、単に例示を目的としたものである。本発明の教示の原理および使用は、添付の図面や実施例を参照することによってより理解され得る。本明細書に記載される詳細な説明は、本発明の適用を制限するものではない。また、本発明は種々の方法で実行または実施することができ、上記説明した実施形態以外の実施形態でも実現することができる。
用語「含む」や、「備える」や、「〜から構成される」などは、1つまたは複数の構成、特徴、ステップ、またはそれらの組み合わせの追加を排除するものではなく、構成、特徴、ステップを特定するものとして解釈されるものである。明細書または特許請求の範囲において「追加の」要素に言及する場合、その追加の要素が複数存在することを排除しない。明細書または特許請求の範囲において「1つ」の要素に言及する場合、そのような言及はその要素が1つのみ存在するものと解釈されるものではない。本明細書において、構成、特徴、構造、または特性が含み「得る」や含む「ことができる」と説明されている場合、その特定の構成、特徴、構造、または特性が含まれない場合もある。
適宜、状態図、フローチャート、またはその双方を用いて実施形態を説明することができるが、本発明はこれらの図面または対応する説明に限定されるものではない。例えば、フローチャートにおける処理の順序は、図示したボックスまたは状態を介した順序、すなわち図示して説明した順序と全く同じ順序である必要はない。本発明の方法は、選択されたステップまたは処理を、手動で、自動で、またはそれらの組み合わせを実行または完了することによって実施することができる。
特許請求の範囲および明細書に提示された説明、実施例、方法、および材料は、限定でなく、単なる例示と解釈されるべきものである。本明細書で使用する技術用語や科学用語の意味は、特に定義されない限り、当該技術分野に属する当業者によって一般的に理解される意味である。本発明は、本明細書に記載されたものと同等または類似の方法や材料を用いて試験または実施において実施することができる。
本発明を限られた数の実施形態に関して説明したが、これらは本発明の範囲を限定するものではなく、むしろ好ましい実施形態のいくつかの例示と解釈すべきである。他の可能な変形、変更、および適用も本発明の範囲に含まれる。したがって、本発明の範囲は、これまでに説明したものによって限定されるべきではなく、添付の特許請求の範囲およびその同等物によって限定されるべきである。

Claims (26)

  1. 方法であって、
    顔を遮る物体を装着している少なくとも1人の人物を含むシーンの画像を取得すること、
    前記顔を遮る物体によって遮蔽された顔部分を示すデータを取得すること、
    前記取得したデータに基づき、前記遮蔽された顔部分の3D顔画像を再構築すること、
    前記再構築した3D顔画像を前記取得したシーンにおける前記人物の対応する3D画像にマージすること
    を備える方法。
  2. 前記マージした画像を特定のユーザにディスプレイを介して提示することをさらに備える請求項1に記載の方法。
  3. 前記ディスプレイがニアアイディスプレイである、請求項2に記載の方法。
  4. 前記顔を遮る物体によって遮蔽された顔部分を示すデータを取得することが、前記顔を遮る物体の内側で前記遮蔽された顔部分を検知することによって行われる、請求項1に記載の方法。
  5. 前記検知が画像取得を含み、前記取得したデータが前記遮蔽された顔部分の画像である、請求項4に記載の方法。
  6. 前記検知が顔のジェスチャの検知であり、前記3D顔画像を再構築することが、以前に取得した前記遮蔽された顔部分のベース画像に対して顔を変化させるように、検知したジェスチャをモデル化することによって行われる、請求項4に記載の方法。
  7. 前記顔を遮る物体によって遮蔽された顔部分を示すデータを取得することが、目に影響を及ぼす表情を抽出することによって行われる、請求項1に記載の方法。
  8. 前記顔を遮る物体によって遮蔽された顔部分を示すデータを取得することが、他の人物と通信している人物の状況を抽出することによって行われる、請求項1に記載の方法。
  9. 前記顔を遮る物体によって遮蔽された顔部分を示すデータを取得することが、以前に取得した前記遮蔽された顔部分のベース画像を取得することを含む、請求項1に記載の方法。
  10. 前記遮蔽された顔部分のベース画像を取得することが外部データベースを介して行われる、請求項9に記載の方法。
  11. 前記外部データベースがネットワークデータベースである、請求項10に記載の方法。
  12. 前記遮蔽された顔部分の3D顔画像を再構築することが、前記取得したデータに基づいて、位置、向き、および輪郭のうちの少なくとも1つを監視し、前記取得したデータを前記少なくとも1人の人物の顔の3次元モデルに適用して修正後の顔画像を生成することによって行われる、請求項9に記載の方法。
  13. 前記遮蔽された顔部分の3D顔画像を再構築することが、前記取得したデータに基づいて、前記顔を遮る物体を装着している前記少なくとも1人の人物のバイタルサインを監視し、前記取得したデータを前記少なくとも1人の人物の顔の3次元モデルに適用して修正後の顔画像を生成することによって行われる、請求項9に記載の方法。
  14. システムであって、
    顔を遮る物体を装着している少なくとも1人の人物を含むシーンの画像を取得するように構成された画像取得装置と、
    コンピュータプロセッサであって、
    前記顔を遮る物体によって遮蔽された顔部分を示すデータを取得し、
    前記取得したデータに基づき、前記遮蔽された顔部分の3D顔画像を再構築し、
    前記再構築した3D顔画像を前記取得したシーンにおける前記人物の対応する3D画像にマージするように構成された前記コンピュータプロセッサと
    を備えるシステム。
  15. 前記マージした画像を提示するように構成されたディスプレイをさらに備える請求項14に記載のシステム。
  16. 前記ディスプレイがニアアイディスプレイである、請求項15に記載のシステム。
  17. 前記顔を遮る物体によって遮蔽された顔部分を示すデータを取得することが、前記顔を遮る物体の内側で前記遮蔽された顔部分を検知するように構成されたセンサによって行われる、請求項14に記載のシステム。
  18. 前記検知が画像取得を含み、前記取得したデータが前記遮蔽された顔部分の画像である、請求項17に記載のシステム。
  19. 前記検知が顔のジェスチャの検知であり、前記3D顔画像を再構築することが、以前に取得した前記遮蔽された顔部分のベース画像に対して顔を変化させるように、検知したジェスチャをモデル化することによって行われる、請求項17に記載のシステム。
  20. 前記顔を遮る物体によって遮蔽された顔部分を示すデータを取得することが、目に影響を及ぼす表情を抽出することによって行われる、請求項14に記載のシステム。
  21. 前記顔を遮る物体によって遮蔽された顔部分を示すデータを取得することが、他の人物と通信している人物の状況を抽出することによって行われる、請求項14に記載のシステム。
  22. 前記顔を遮る物体によって遮蔽された顔部分を示すデータを取得することが、以前に取得した前記遮蔽された顔部分のベース画像を取得することを含む、請求項14に記載のシステム。
  23. 前記遮蔽された顔部分のベース画像を取得することが外部データベースを介して行われる、請求項22に記載のシステム。
  24. 前記外部データベースがネットワークデータベースである、請求項23に記載のシステム。
  25. 前記遮蔽された顔部分の3D顔画像を再構築することが、前記取得したデータに基づいて、位置、向き、および輪郭のうちの少なくとも1つを監視し、前記取得したデータを前記少なくとも1人の人物の顔の3次元モデルに適用して修正後の顔画像を生成することによって行われる、請求項14に記載のシステム。
  26. 前記遮蔽された顔部分の3D顔画像を再構築することが、前記取得したデータに基づいて、前記顔を遮る物体を装着している前記少なくとも1人の人物のバイタルサインを監視し、前記取得したデータを前記少なくとも1人の人物の顔の3次元モデルに適用して修正後の顔画像を生成することによって行われる、請求項14に記載のシステム。
JP2017506358A 2014-08-04 2015-08-04 仮想現実環境において遮られた顔部分を再構築する方法およびシステム Active JP6654625B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462032678P 2014-08-04 2014-08-04
US62/032,678 2014-08-04
PCT/IL2015/050801 WO2016020921A1 (en) 2014-08-04 2015-08-04 Method and system for reconstructing obstructed face portions for virtual reality environment

Publications (2)

Publication Number Publication Date
JP2017534096A true JP2017534096A (ja) 2017-11-16
JP6654625B2 JP6654625B2 (ja) 2020-02-26

Family

ID=55263254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017506358A Active JP6654625B2 (ja) 2014-08-04 2015-08-04 仮想現実環境において遮られた顔部分を再構築する方法およびシステム

Country Status (11)

Country Link
US (3) US10445863B2 (ja)
EP (1) EP3178066A4 (ja)
JP (1) JP6654625B2 (ja)
KR (1) KR102422469B1 (ja)
CN (1) CN107004296B (ja)
AU (1) AU2015300725A1 (ja)
BR (1) BR112017002426A2 (ja)
CA (1) CA2956508C (ja)
IL (1) IL250299B (ja)
MX (1) MX2017001646A (ja)
WO (1) WO2016020921A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019105894A (ja) * 2017-12-11 2019-06-27 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP2019121074A (ja) * 2017-12-28 2019-07-22 凸版印刷株式会社 Vr空間における自撮り装置、方法、およびプログラム
WO2023223377A1 (ja) * 2022-05-16 2023-11-23 日本電気株式会社 情報処理装置、情報処理方法、及び記録媒体

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9910275B2 (en) 2015-05-18 2018-03-06 Samsung Electronics Co., Ltd. Image processing for head mounted display devices
CN107305621A (zh) * 2016-04-17 2017-10-31 张翔宇 一种虚拟现实眼镜的图像捕获设备及图像合成系统
FR3053509B1 (fr) 2016-06-30 2019-08-16 Fittingbox Procede d’occultation d’un objet dans une image ou une video et procede de realite augmentee associe
WO2018002533A1 (fr) * 2016-06-30 2018-01-04 Fittingbox Procédé d'occultation d'un objet dans une image ou une vidéo et procédé de réalité augmentée associé
US10726792B2 (en) * 2017-04-17 2020-07-28 Intel Corporation Glare and occluded view compensation for automotive and other applications
CN109427083B (zh) * 2017-08-17 2022-02-01 腾讯科技(深圳)有限公司 三维虚拟形象的显示方法、装置、终端及存储介质
CN107680069B (zh) * 2017-08-30 2020-09-11 歌尔股份有限公司 一种图像处理方法、装置和终端设备
US11145124B2 (en) 2017-08-30 2021-10-12 Ronald H. Winston System and method for rendering virtual reality interactions
CN107590859A (zh) * 2017-09-01 2018-01-16 广州励丰文化科技股份有限公司 一种混合现实画面处理方法及服务设备
CN109785369A (zh) * 2017-11-10 2019-05-21 中国移动通信有限公司研究院 一种虚拟现实人像采集方法及装置
CN111936910A (zh) * 2018-03-13 2020-11-13 罗纳德·温斯顿 虚拟现实系统和方法
US11055887B2 (en) * 2018-11-29 2021-07-06 Adobe Inc. Modifying digital content with digital effects using facial skin mask
CN111353943B (zh) * 2018-12-20 2023-12-26 杭州海康威视数字技术股份有限公司 一种人脸图像恢复方法、装置及可读存储介质
US11315298B2 (en) * 2019-03-25 2022-04-26 Disney Enterprises, Inc. Personalized stylized avatars
CN110266959B (zh) * 2019-07-18 2021-03-26 珠海格力电器股份有限公司 一种移动终端拍照的方法及移动终端
KR102647730B1 (ko) * 2021-07-26 2024-03-14 서울대학교병원 워핑기술을 이용한 자폐증 환자의 상호작용 훈련 시스템 및 영상 워핑 모델 학습 방법
WO2023008811A2 (ko) * 2021-07-29 2023-02-02 이광희 신경망 모델을 이용한 마스크 착용 얼굴 이미지 복원 방법
KR102547630B1 (ko) * 2021-07-29 2023-06-26 이광희 신경망 모델을 이용한 마스크 착용 얼굴 이미지 복원 방법
DE102022208822A1 (de) * 2021-08-30 2023-03-02 Apple Inc. Anzeigen von bilddaten basierend auf umgebungslicht
CN114516166B (zh) * 2021-12-27 2024-03-29 中铭谷智能机器人(广东)有限公司 一种头盔眼罩专用的透明黑加工工艺
CN115174985B (zh) * 2022-08-05 2024-01-30 北京字跳网络技术有限公司 特效展示方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1196366A (ja) * 1997-09-19 1999-04-09 Nippon Telegr & Teleph Corp <Ntt> ヘッドマウントディスプレイを装着した人物の顔画像合成方法およびその装置
JP2000307973A (ja) * 2000-01-01 2000-11-02 Atr Media Integration & Communications Res Lab ヘッドマウンテッドディスプレイ
JP2001501346A (ja) * 1997-02-06 2001-01-30 モダン・カートゥーンズ・リミテッド バーチャルリアリティにおいて顔の動きを感知するためのシステム
JP2010206307A (ja) * 2009-02-27 2010-09-16 Toshiba Corp 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム
JP2013175929A (ja) * 2012-02-24 2013-09-05 Nikon Corp 情報出力装置、及び情報出力方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5886735A (en) * 1997-01-14 1999-03-23 Bullister; Edward T Video telephone headset
US7139767B1 (en) 1999-03-05 2006-11-21 Canon Kabushiki Kaisha Image processing apparatus and database
US6774869B2 (en) * 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
US8696113B2 (en) * 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US7653221B2 (en) 2006-01-31 2010-01-26 Fujifilm Corporation Method and apparatus for automatic eyeglasses detection and removal
JP5228305B2 (ja) * 2006-09-08 2013-07-03 ソニー株式会社 表示装置、表示方法
CN101266685A (zh) * 2007-03-14 2008-09-17 中国科学院自动化研究所 一种基于多幅照片去除无关图像的方法
WO2009002567A1 (en) * 2007-06-27 2008-12-31 The University Of Hawaii Virtual reality overlay
CN102034079B (zh) * 2009-09-24 2012-11-28 汉王科技股份有限公司 眼镜遮挡下的人脸识别方法和系统
JP4794678B1 (ja) * 2010-05-24 2011-10-19 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像通信システム
US8573866B2 (en) * 2011-02-03 2013-11-05 Jason R. Bond Head-mounted face image capturing devices and systems
CN102306304B (zh) * 2011-03-25 2017-02-08 上海星尘电子科技有限公司 人脸遮挡物识别方法及其装置
JP5879886B2 (ja) * 2011-10-03 2016-03-08 セイコーエプソン株式会社 虚像表示装置及びその製造方法
WO2013088442A1 (en) 2011-12-15 2013-06-20 Pebbles Ltd. Controllable optical sensing
RU2488882C1 (ru) 2012-01-19 2013-07-27 Общество с ограниченной ответственностью "Вокорд СофтЛаб" Способ идентификации личности человека
CN103472909B (zh) * 2012-04-10 2017-04-12 微软技术许可有限责任公司 用于头戴式、增强现实显示器的逼真遮挡
TWI486631B (zh) * 2014-01-24 2015-06-01 Quanta Comp Inc 頭戴式顯示裝置及其控制方法
US9672416B2 (en) * 2014-04-29 2017-06-06 Microsoft Technology Licensing, Llc Facial expression tracking
GB2534580B (en) * 2015-01-28 2020-06-17 Sony Interactive Entertainment Europe Ltd Image processing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001501346A (ja) * 1997-02-06 2001-01-30 モダン・カートゥーンズ・リミテッド バーチャルリアリティにおいて顔の動きを感知するためのシステム
JPH1196366A (ja) * 1997-09-19 1999-04-09 Nippon Telegr & Teleph Corp <Ntt> ヘッドマウントディスプレイを装着した人物の顔画像合成方法およびその装置
JP2000307973A (ja) * 2000-01-01 2000-11-02 Atr Media Integration & Communications Res Lab ヘッドマウンテッドディスプレイ
JP2010206307A (ja) * 2009-02-27 2010-09-16 Toshiba Corp 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム
JP2013175929A (ja) * 2012-02-24 2013-09-05 Nikon Corp 情報出力装置、及び情報出力方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MASAYUKI TAKEMURA: "Diminishing Head-Mounted Display for Shared Mixed Reality", ISMAR '02 PROCEEDINGS OF THE 1ST INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY, JPN6019028753, 30 September 2002 (2002-09-30), US, pages 1 - 8, ISSN: 0004084064 *
竹村 雅幸: "協調型複合現実環境のための人物映像加工によるアイコンタクトの復元", 電子情報通信学会技術研究報告 VOL.102 NO.554, vol. PRMU2002-183 (2003-01), JPN6019028751, 9 January 2003 (2003-01-09), JP, pages 85 - 90, ISSN: 0004084063 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019105894A (ja) * 2017-12-11 2019-06-27 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP7073702B2 (ja) 2017-12-11 2022-05-24 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
JP2019121074A (ja) * 2017-12-28 2019-07-22 凸版印刷株式会社 Vr空間における自撮り装置、方法、およびプログラム
JP7020115B2 (ja) 2017-12-28 2022-02-16 凸版印刷株式会社 Vr空間における自撮り装置、方法、およびプログラム
WO2023223377A1 (ja) * 2022-05-16 2023-11-23 日本電気株式会社 情報処理装置、情報処理方法、及び記録媒体

Also Published As

Publication number Publication date
US10445863B2 (en) 2019-10-15
US20170243334A1 (en) 2017-08-24
AU2015300725A1 (en) 2017-03-02
US10593025B2 (en) 2020-03-17
IL250299B (en) 2020-04-30
EP3178066A1 (en) 2017-06-14
US20200175655A1 (en) 2020-06-04
KR102422469B1 (ko) 2022-07-20
CN107004296A (zh) 2017-08-01
BR112017002426A2 (pt) 2021-10-05
US20190392559A1 (en) 2019-12-26
CA2956508A1 (en) 2016-02-11
WO2016020921A1 (en) 2016-02-11
US11238568B2 (en) 2022-02-01
MX2017001646A (es) 2017-10-31
IL250299A0 (en) 2017-03-30
EP3178066A4 (en) 2018-01-17
KR20170085477A (ko) 2017-07-24
JP6654625B2 (ja) 2020-02-26
CN107004296B (zh) 2020-12-29
CA2956508C (en) 2020-04-21

Similar Documents

Publication Publication Date Title
JP6654625B2 (ja) 仮想現実環境において遮られた顔部分を再構築する方法およびシステム
JP2021534516A (ja) 眼鏡用仮想試着システム及び方法
US11170521B1 (en) Position estimation based on eye gaze
US11733769B2 (en) Presenting avatars in three-dimensional environments
US11645823B2 (en) Neutral avatars
JP6756236B2 (ja) アクション指示プログラム、アクション指示方法及び画像生成装置
Nijholt Capturing obstructed nonverbal cues in augmented reality interactions: a short survey
WO2022066450A1 (en) Representation of users based on current user appearance
CN115413353A (zh) 扩展现实记录仪
US20230290096A1 (en) Progressive body capture of user body for building an avatar of user
CN112987914A (zh) 用于内容放置的方法和设备
CN113678173A (zh) 用于虚拟对象的基于图绘的放置的方法和设备
US11908098B1 (en) Aligning user representations
US20200356163A1 (en) Techniques related to configuring a display device
US20230260222A1 (en) Efficient dynamic occlusion based on stereo vision within an augmented or virtual reality application
US20230171484A1 (en) Devices, methods, and graphical user interfaces for generating and displaying a representation of a user
EP3185103A1 (en) A gazed virtual object identification determination module, a system for implementing gaze translucency, and a related method
US11823343B1 (en) Method and device for modifying content according to various simulation characteristics
CN116612234A (zh) 基于增强或虚拟现实应用程序内立体视觉的高效动态遮挡
WO2023096940A2 (en) Devices, methods, and graphical user interfaces for generating and displaying a representation of a user
JP2002269594A (ja) 主観的透視投影システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170915

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170915

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180613

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190517

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190604

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200130

R150 Certificate of patent or registration of utility model

Ref document number: 6654625

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250