JP6754817B2 - データ融合を用いた顔表情生成の方法 - Google Patents
データ融合を用いた顔表情生成の方法 Download PDFInfo
- Publication number
- JP6754817B2 JP6754817B2 JP2018226568A JP2018226568A JP6754817B2 JP 6754817 B2 JP6754817 B2 JP 6754817B2 JP 2018226568 A JP2018226568 A JP 2018226568A JP 2018226568 A JP2018226568 A JP 2018226568A JP 6754817 B2 JP6754817 B2 JP 6754817B2
- Authority
- JP
- Japan
- Prior art keywords
- facial expression
- facial
- parameter
- user
- virtual reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
1.上歯可視 ‐ 上の歯の可視性の有無
2.下歯可視 ‐ 下の歯の可視性の有無
3.額ライン ‐ 額の上部におけるしわの有無
4.眉ライン ‐ 眉の上の領域におけるしわの有無
5.鼻ライン ‐ 鼻の上に広がる眉の間の領域におけるしわの有無
6.顎ライン ‐ 下唇のすぐ下の顎領域におけるしわ又はラインの有無
7.鼻唇ライン(Nasolabial lines) ‐ 鼻の両側における、上唇に対して下に広がる厚いラインの有無
1.眉上昇距離 ‐ 上下まぶたの接合点と眉の下中央先端(lower central tip)との間の距離
2.上まぶたから眉の距離 ‐ 上まぶたと眉表面との間の距離
3.眉間距離 ‐ 双方の眉の下中央先端間の距離
4.上まぶた‐下まぶた距離 ‐ 上まぶたと下まぶたとの間の距離
5.上唇厚さ ‐ 上唇の厚さの尺度
6.下唇厚さ ‐ 下唇の厚さの尺度
7.口幅 ‐ 唇の角の先端間の距離
8.口の開き ‐ 上唇の下表面と下唇の上表面との間の距離
Claims (14)
- 仮想現実システムのコンピューティング装置のためのデータ融合による顔表情生成の方法であって、
複数のデータソースからユーザの顔情報を取得するステップであり、前記複数のデータソースは、リアルタイムデータ検出と前記コンピューティング装置により生成される事前構成されたデータとを含み、前記事前構成されたデータは、ランダムに生成された顔の特徴と所定間隔内の予め定義された顔の特徴とのうち少なくとも1つを含む、ステップと、
前記ユーザの顔幾何学モデルをシミュレートするために前記顔情報を顔表情パラメータにマッピングするステップと、
前記顔表情パラメータに従って融合処理を実行して、重み付けを用いて前記顔表情パラメータに関連づけられた融合パラメータを生成するステップと、
前記融合パラメータに従って前記仮想現実システム内のアバターの顔の表情を生成するステップと、
を含む方法。 - 前記ユーザの顔幾何学モデルをシミュレートするために前記顔情報を顔表情パラメータにマッピングするステップは、
前記顔情報に従って顔表情認識動作を実行して、前記ユーザの感情モデルを取得するステップと、
前記取得された感情モデルに従って前記顔情報を前記顔表情パラメータにマッピングするステップと、
を含む、請求項1に記載の方法。 - 前記顔表情パラメータは、幾何学パラメータ及びテクスチャパラメータを含み、前記幾何学パラメータは、前記顔幾何学モデル上の頂点の3D座標を示し、前記テクスチャパラメータは、前記感情モデルに対応するどの顔画像が前記顔幾何学モデル上のどの位置にペーストされるべきかを示す、請求項2に記載の方法。
- 前記顔情報に従って顔表情認識動作を実行することは、
前記顔情報から抽出された距離を用いてツリーに基づく分類方法に基づいて前記ユーザの前記感情モデルを決定する前記顔表情認識動作を実行すること、又は、
データベース及び前記顔情報からの顔表情画像を用いて機械学習分類方法に基づいて前記ユーザの前記感情モデルを決定する前記顔表情認識動作を実行すること
を含む、請求項2に記載の方法。 - 前記データソースは、顔の筋肉の活動、話しの発話、及び部分的又は全体的な顔の画像を含む、請求項1に記載の方法。
- 前記顔表情パラメータは、前記ユーザの眉、しわ、目、口、歯、舌、鼻、まばたきの頻度、目の動きの方向、瞳のサイズ、及び頭部6次元情報、のうち少なくとも1つを含む顔の特徴の情報を示す、請求項1に記載の方法。
- 前記顔表情パラメータに従って融合処理を実行することは、
前記マッピングされた顔表情パラメータに基づいて感情衝突が生じるかどうかを決定することと、
前記感情衝突が生じたとき、前記顔表情パラメータのために構成された重み付けを用いて融合パラメータを生成することと、
を含む、請求項4に記載の方法。 - データ融合を用いた顔表情生成のための仮想現実システムであって、
ソフトウェアシステムを実行して仮想現実画像を生成するコンピューティング装置と、
前記コンピューティング装置に接続し、ユーザに対する仮想現実画像を表示するヘッドマウントディスプレイ(HMD)と、
前記コンピューティング装置に接続し、複数のデータソースから前記ユーザの顔情報を収集する複数の追跡装置であり、前記複数のデータソースは、リアルタイムデータ検出と前記コンピューティング装置により生成される事前構成されたデータとを含み、前記事前構成されたデータは、ランダムに生成された顔の特徴と所定間隔内の予め定義された顔の特徴とのうち少なくとも1つを含む、複数の追跡装置と、を含み、
前記コンピューティング装置は、
プログラムを実行する処理手段と、
前記処理手段に結合され、前記プログラムを記憶する記憶ユニットと、を含み、
前記プログラムは、前記処理手段に、
前記複数の追跡装置から顔情報を取得するステップと、
前記ユーザの顔幾何学モデルをシミュレートするために前記顔情報を顔表情パラメータにマッピングするステップと、
前記顔表情パラメータに従って融合処理を実行して、重み付けを用いて前記顔表情パラメータに関連づけられた融合パラメータを生成するステップと、
前記融合パラメータに従って前記仮想現実システム内のアバターの顔の表情を生成するステップと、
を実行するように命令する、仮想現実システム。 - 前記プログラムは、前記処理手段に、
前記顔情報に従って顔表情認識動作を実行して、前記ユーザの感情モデルを取得するステップと、
前記取得された感情モデルに従って前記顔情報を前記顔表情パラメータにマッピングするステップと、
を実行するようにさらに命令する、請求項8に記載の仮想現実システム。 - 前記顔表情パラメータは、幾何学パラメータ及びテクスチャパラメータを含み、前記幾何学パラメータは、前記顔幾何学モデル上の頂点の3D座標を示し、前記テクスチャパラメータは、前記感情モデルに対応するどの顔画像が前記顔幾何学モデル上のどの位置にペーストされるべきかを示す、請求項9に記載の仮想現実システム。
- 前記プログラムは、前記処理手段に、
前記顔情報から抽出された距離を用いてツリーに基づく分類方法に基づいて前記ユーザの前記感情モデルを決定する前記顔表情認識動作を実行するステップ、又は、
データベース及び前記顔情報からの顔表情画像を用いて機械学習分類方法に基づいて前記ユーザの前記感情モデルを決定する前記顔表情認識動作を実行するステップ
を実行するようにさらに命令する、請求項9に記載の仮想現実システム。 - 前記データソースは、顔の筋肉の活動、話しの発話、及び部分的又は全体的な顔の画像を含む、請求項8に記載の仮想現実システム。
- 前記顔表情パラメータは、前記ユーザの眉、しわ、目、口、歯、舌、鼻、まばたきの頻度、目の動きの方向、瞳のサイズ、及び頭部6次元情報、のうち少なくとも1つを含む顔の特徴の情報を示す、請求項8に記載の仮想現実システム。
- 前記プログラムは、前記処理手段に、
前記マッピングされた顔表情パラメータに基づいて感情衝突が生じるかどうかを決定するステップと、
前記感情衝突が生じたとき、前記顔表情パラメータのために構成された重み付けを用いて融合パラメータを生成するステップと、
を実行するようにさらに命令する、請求項11に記載の仮想現実システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/136241 | 2018-09-19 | ||
US16/136,241 US20200090392A1 (en) | 2018-09-19 | 2018-09-19 | Method of Facial Expression Generation with Data Fusion |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020047237A JP2020047237A (ja) | 2020-03-26 |
JP6754817B2 true JP6754817B2 (ja) | 2020-09-16 |
Family
ID=64661165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018226568A Active JP6754817B2 (ja) | 2018-09-19 | 2018-12-03 | データ融合を用いた顔表情生成の方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200090392A1 (ja) |
EP (1) | EP3627381A1 (ja) |
JP (1) | JP6754817B2 (ja) |
CN (1) | CN110929553A (ja) |
TW (1) | TW202013242A (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11120599B2 (en) * | 2018-11-08 | 2021-09-14 | International Business Machines Corporation | Deriving avatar expressions in virtual reality environments |
KR102243040B1 (ko) * | 2019-04-10 | 2021-04-21 | 한양대학교 산학협력단 | 전자 장치, 아바타 얼굴 표정 표시 시스템 및 제어 방법 |
US11385907B1 (en) * | 2019-04-17 | 2022-07-12 | Snap Inc. | Automated scaling of application features based on rules |
CN110321872B (zh) * | 2019-07-11 | 2021-03-16 | 京东方科技集团股份有限公司 | 人脸表情识别方法及装置、计算机设备、可读存储介质 |
CN111144266B (zh) * | 2019-12-20 | 2022-11-22 | 北京达佳互联信息技术有限公司 | 人脸表情的识别方法及装置 |
CN111445417B (zh) * | 2020-03-31 | 2023-12-19 | 维沃移动通信有限公司 | 图像处理方法、装置、电子设备及介质 |
CN111583355B (zh) * | 2020-05-09 | 2024-01-23 | 维沃移动通信有限公司 | 面部形象生成方法、装置、电子设备及可读存储介质 |
CN113691833B (zh) * | 2020-05-18 | 2023-02-03 | 北京搜狗科技发展有限公司 | 虚拟主播换脸方法、装置、电子设备及存储介质 |
US11321892B2 (en) * | 2020-05-21 | 2022-05-03 | Scott REILLY | Interactive virtual reality broadcast systems and methods |
CN111638784B (zh) * | 2020-05-26 | 2023-07-18 | 浙江商汤科技开发有限公司 | 人脸表情互动方法、互动装置以及计算机存储介质 |
CN112348841B (zh) * | 2020-10-27 | 2022-01-25 | 北京达佳互联信息技术有限公司 | 虚拟对象的处理方法、装置、电子设备及存储介质 |
CN112907725B (zh) * | 2021-01-22 | 2023-09-26 | 北京达佳互联信息技术有限公司 | 图像生成、图像处理模型的训练、图像处理方法和装置 |
TWI814318B (zh) * | 2021-04-02 | 2023-09-01 | 美商索尼互動娛樂有限責任公司 | 用於使用模擬角色訓練模型以用於將遊戲角色之臉部表情製成動畫之方法以及用於使用三維(3d)影像擷取來產生遊戲角色之臉部表情之標籤值之方法 |
CN114422697B (zh) * | 2022-01-19 | 2023-07-18 | 浙江博采传媒有限公司 | 基于光学捕捉的虚拟拍摄方法、系统及存储介质 |
WO2023199256A2 (en) * | 2022-04-13 | 2023-10-19 | Soul Machines Limited | Affective response modulation in embodied agents |
US20240153182A1 (en) * | 2022-11-07 | 2024-05-09 | Meta Platforms Technologies, Llc | Embedded sensors in immersive reality headsets to enable social presence |
CN115908655B (zh) * | 2022-11-10 | 2023-07-14 | 北京鲜衣怒马文化传媒有限公司 | 一种虚拟人物面部表情处理方法及装置 |
CN116137673A (zh) * | 2023-02-22 | 2023-05-19 | 广州欢聚时代信息科技有限公司 | 数字人表情驱动方法及其装置、设备、介质 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2986441B2 (ja) * | 1998-01-27 | 1999-12-06 | 株式会社エイ・ティ・アール人間情報通信研究所 | 任意表情を持つ3次元顔モデルの生成方法 |
US7554549B2 (en) * | 2004-10-01 | 2009-06-30 | Sony Corporation | System and method for tracking facial muscle and eye motion for computer graphics animation |
JPWO2007043712A1 (ja) * | 2005-10-14 | 2009-04-23 | 国立大学法人 長崎大学 | 感情評価方法および感情表示方法、並びに、それらのための、プログラム、記録媒体およびシステム |
US9245176B2 (en) * | 2012-08-01 | 2016-01-26 | Disney Enterprises, Inc. | Content retargeting using facial layers |
US10262462B2 (en) * | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9830728B2 (en) * | 2014-12-23 | 2017-11-28 | Intel Corporation | Augmented facial animation |
JP6391465B2 (ja) * | 2014-12-26 | 2018-09-19 | Kddi株式会社 | ウェアラブル端末装置およびプログラム |
WO2017122299A1 (ja) * | 2016-01-13 | 2017-07-20 | フォーブ インコーポレーテッド | 表情認識システム、表情認識方法及び表情認識プログラム |
JP6574401B2 (ja) * | 2016-04-08 | 2019-09-11 | ソフトバンク株式会社 | モデリング制御システム、モデリング制御方法、及びモデリング制御プログラム |
EP3252566B1 (en) * | 2016-06-03 | 2021-01-06 | Facebook Technologies, LLC | Face and eye tracking and facial animation using facial sensors within a head-mounted display |
US20180158246A1 (en) * | 2016-12-07 | 2018-06-07 | Intel IP Corporation | Method and system of providing user facial displays in virtual or augmented reality for face occluding head mounted displays |
US10572720B2 (en) * | 2017-03-01 | 2020-02-25 | Sony Corporation | Virtual reality-based apparatus and method to generate a three dimensional (3D) human face model using image and depth data |
-
2018
- 2018-09-19 US US16/136,241 patent/US20200090392A1/en not_active Abandoned
- 2018-12-03 JP JP2018226568A patent/JP6754817B2/ja active Active
- 2018-12-04 TW TW107143383A patent/TW202013242A/zh unknown
- 2018-12-07 EP EP18211020.5A patent/EP3627381A1/en not_active Withdrawn
- 2018-12-13 CN CN201811525729.5A patent/CN110929553A/zh not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
CN110929553A (zh) | 2020-03-27 |
JP2020047237A (ja) | 2020-03-26 |
EP3627381A1 (en) | 2020-03-25 |
US20200090392A1 (en) | 2020-03-19 |
TW202013242A (zh) | 2020-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6754817B2 (ja) | データ融合を用いた顔表情生成の方法 | |
US11656680B2 (en) | Technique for controlling virtual image generation system using emotional states of user | |
US11347051B2 (en) | Facial expressions from eye-tracking cameras | |
JP7253017B2 (ja) | 反射を利用する拡張現実システムおよび方法 | |
JP7378431B2 (ja) | フレーム変調機能性を伴う拡張現実ディスプレイ | |
Zacharatos et al. | Automatic emotion recognition based on body movement analysis: a survey | |
Szwoch et al. | Emotion recognition for affect aware video games | |
US9134816B2 (en) | Method for using virtual facial and bodily expressions | |
Cordeiro et al. | ARZombie: A mobile augmented reality game with multimodal interaction | |
US20150279224A1 (en) | Method for using virtual facial and bodily expressions | |
Robitaille et al. | Increased affect-arousal in VR can be detected from faster body motion with increased heart rate | |
TWI829944B (zh) | 虛擬化身臉部表情產生系統和虛擬化身臉部表情產生方法 | |
US20200226136A1 (en) | Systems and methods to facilitate bi-directional artificial intelligence communications | |
WO2017085963A1 (ja) | 情報処理装置、及び映像表示装置 | |
Niewiadomski et al. | Vitality forms analysis and automatic recognition | |
DiMeglio | Fear feedback loop: creative and dynamic fear experiences driven by user emotion | |
TW202422377A (zh) | 具表情及人臉辨識與提示功能之互動式穿戴電子裝置以及互動式穿戴電子裝置處理方法 | |
JP2024036324A (ja) | オブジェクト制御プログラムおよびオブジェクト制御方法 | |
FLOR | DEVELOPMENT OF A MULTISENSORIAL SYSTEM FOR EMOTION RECOGNITION | |
WO2016205362A1 (en) | Method for using virtual facial and bodily expressions | |
Prodi et al. | Affective computing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200811 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200824 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6754817 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |