JP7167106B2 - 口形特徴予測方法、装置及び電子機器 - Google Patents
口形特徴予測方法、装置及び電子機器 Download PDFInfo
- Publication number
- JP7167106B2 JP7167106B2 JP2020157690A JP2020157690A JP7167106B2 JP 7167106 B2 JP7167106 B2 JP 7167106B2 JP 2020157690 A JP2020157690 A JP 2020157690A JP 2020157690 A JP2020157690 A JP 2020157690A JP 7167106 B2 JP7167106 B2 JP 7167106B2
- Authority
- JP
- Japan
- Prior art keywords
- mouth
- features
- neural network
- feature
- ppg
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 47
- 238000012549 training Methods 0.000 claims description 85
- 229920001451 polypropylene glycol Polymers 0.000 claims description 80
- 238000003062 neural network model Methods 0.000 claims description 75
- 230000015654 memory Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 230000015572 biosynthetic process Effects 0.000 claims description 7
- 238000003786 synthesis reaction Methods 0.000 claims description 7
- 230000007246 mechanism Effects 0.000 claims description 6
- 230000000306 recurrent effect Effects 0.000 claims description 6
- 230000000737 periodic effect Effects 0.000 claims 2
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000001373 regressive effect Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
- G10L2021/105—Synthesis of the lips movements from speech, e.g. for talking heads
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
音声特徴の音素事後確率(Phonetic Posterior Grams、PPG)を認識するステップと、
ニューラルネットワークモデルを用いて前記PPGを予測して、前記音声特徴の口形特徴を予測するステップであって、前記ニューラルネットワークモデルは、トレーニングサンプルを用いてトレーニングして得た入力にPPGが含まれ、出力に口形特徴が含まれるニューラルネットワークモデルであり、前記トレーニングサンプルはPPGトレーニングサンプル及び口形特徴トレーニングサンプルを含むステップとを含む。
動的スライシングに基づいて取得され、且つ完全な意味を持つ音声特徴であるターゲット音声特徴のPPGを含み、
前記口形特徴トレーニングサンプルは、前記ターゲット音声特徴のPPGに対応する口形特徴を含む。
現在フレームの前のフレームの口形特徴トレーニングサンプルを入力とし、前記現在フレームのPPGトレーニングサンプルを条件制約とし、前記現在フレームの口形特徴トレーニングサンプルをターゲットとしてトレーニングするステップを含む。
回帰口形ポイント、口形サムネイル、ブレンドシェイプ(blend shape)係数及び3Dモーフィングモデル(3D Morphable Models、3DMM)表情係数の少なくとも2つを含む。
本明細書で使用されているように、用語「機械可読媒体」及び「コンピュータ可読媒体」は、機械指令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、デバイス及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を意味し、機械可読信号としての機械指令を受信する機械可読媒体を含む。用語「機械可読信号」は機械指令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
Claims (12)
- 音素事後確率(PPG)トレーニングサンプルを入力として、対応する口形特徴トレーニングサンプルを出力としてニューラルネットワークモデルをトレーニングして、トレーニング済みニューラルネットワークモデルを得るステップと、
処理対象の音声特徴のPPGを認識するステップと、
トレーニング済みニューラルネットワークモデルを用いて、認識された前記処理対象の音声特徴のPPGを入力として、前記音声特徴の口形特徴を予測するステップとを含み、
前記PPGトレーニングサンプルは、
ターゲット音声の完全な意味に基づいて分割された音声特徴であるターゲット音声特徴のPPGを含み、
前記口形特徴トレーニングサンプルは、前記ターゲット音声特徴のPPGに対応する口形特徴を含む、ことを特徴とする口形特徴を予測する方法。 - 前記ターゲット音声特徴の単位時間当たりの周期性変化回数が前記ターゲット音声特徴のPPGに対応する口形特徴の単位時間当たりの周期性変化回数とマッチングする、
ことを特徴とする請求項1に記載の方法。 - 前記ニューラルネットワークモデルは、自己回帰メカニズムを備えたリカレントニューラルネットワークモデル(RNNモデル)であり、前記RNNモデルのトレーニングプロセスは、
現在フレームの前のフレームの口形特徴トレーニングサンプルを入力とし、前記現在フレームのPPGトレーニングサンプルを条件制約とし、前記現在フレームの口形特徴トレーニングサンプルをターゲットとしてトレーニングするステップを含む、
ことを特徴とする請求項1に記載の方法。 - 前記ニューラルネットワークモデルは、マルチブランチネットワークニューラルネットワークモデルであり、前記音声特徴の口形特徴は、
回帰口形ポイント、口形サムネイル、ブレンドシェイプ係数及び3Dモーフィングモデル(3DMM)表情係数の少なくとも2つを含む、
ことを特徴とする請求項1に記載の方法。 - 前記方法はさらに、
前記ニューラルネットワークモデルを用いて、実際の音声データのPPGを入力として、実際の音声データの口形特徴を予測して取得するステップと、
前記実際の音声データの口形特徴に基づいて、仮想画像の口形合成に用いられる口形特徴インデックスライブラリを構築するステップとを含む、
ことを特徴とする請求項1に記載の方法。 - 音素事後確率(PPG)トレーニングサンプルを入力として、対応する口形特徴トレーニングサンプルを出力としてニューラルネットワークモデルをトレーニングして、トレーニング済みニューラルネットワークモデルを得るためのトレーニングモジュールと、
処理対象の音声特徴のPPGを認識するための認識モジュールと、
トレーニング済みニューラルネットワークモデルを用いて、認識された前記処理対象の音声特徴のPPGを入力として、前記音声特徴の口形特徴を予測するための第1予測モジュールとを備え、
前記PPGトレーニングサンプルは、
ターゲット音声の完全な意味に基づいて分割された音声特徴であるターゲット音声特徴のPPGを含み、
前記口形特徴トレーニングサンプルは、前記ターゲット音声特徴のPPGに対応する口形特徴を含む、ことを特徴とする口形特徴を予測する装置。 - 前記ニューラルネットワークモデルは、自己回帰メカニズムを備えたリカレントニューラルネットワークモデル(RNNモデル)であり、前記RNNモデルのトレーニングプロセスは、
現在フレームの前のフレームの口形特徴トレーニングサンプルを入力とし、前記現在フレームのPPGトレーニングサンプルを条件制約とし、前記現在フレームの口形特徴トレーニングサンプルをターゲットとしてトレーニングするステップを含む、
ことを特徴とする請求項6に記載の装置。 - 前記ニューラルネットワークモデルは、マルチブランチネットワークニューラルネットワークモデルであり、前記音声特徴の口形特徴は、
回帰口形ポイント、口形サムネイル、ブレンドシェイプ係数及び3Dモーフィングモデル(3DMM)表情係数の少なくとも2つを含む、
ことを特徴とする請求項6に記載の装置。 - 前記装置はさらに、
前記ニューラルネットワークモデルを用いて実際の音声データのPPGを入力として、実際の音声データの口形特徴を予測して取得するための第2予測モジュールと、
前記実際の音声データの口形特徴に基づいて、仮想画像の口形合成に用いられる口形特徴インデックスライブラリを構築するための構築モジュールとを含む、
ことを特徴とする請求項6に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリとを備え、
前記メモリには、前記少なくとも1つのプロセッサに請求項1~5のいずれか1項に記載の方法を実行させるように、前記少なくとも1つのプロセッサにより実行可能な指令が格納されている、
ことを特徴とする電子機器。 - コンピュータ指令が格納されている非一時的コンピュータ可読記憶媒体であって、前記コンピュータ指令は請求項1~5のいずれか1項に記載の方法をコンピュータに実行させるためのものである、
ことを特徴とする非一時的コンピュータ可読記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサにより実行されると、請求項1~5のいずれか一項に記載の方法を実現する、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010091799.5A CN111354370B (zh) | 2020-02-13 | 2020-02-13 | 一种唇形特征预测方法、装置和电子设备 |
CN202010091799.5 | 2020-02-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021128327A JP2021128327A (ja) | 2021-09-02 |
JP7167106B2 true JP7167106B2 (ja) | 2022-11-08 |
Family
ID=71195723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020157690A Active JP7167106B2 (ja) | 2020-02-13 | 2020-09-18 | 口形特徴予測方法、装置及び電子機器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11562732B2 (ja) |
EP (1) | EP3866166B1 (ja) |
JP (1) | JP7167106B2 (ja) |
KR (1) | KR102528771B1 (ja) |
CN (1) | CN111354370B (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3467712B1 (en) * | 2017-10-06 | 2023-04-26 | Sensing Feeling Limited | Methods and systems for processing image data |
CN113314094B (zh) * | 2021-05-28 | 2024-05-07 | 北京达佳互联信息技术有限公司 | 唇形模型的训练方法和装置及语音动画合成方法和装置 |
CN113822968B (zh) * | 2021-11-24 | 2022-03-04 | 北京影创信息科技有限公司 | 语音实时驱动虚拟人的方法、系统及存储介质 |
US20230394732A1 (en) * | 2022-06-06 | 2023-12-07 | Samsung Electronics Co., Ltd. | Creating images, meshes, and talking animations from mouth shape data |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299300A (ja) | 2006-05-02 | 2007-11-15 | Advanced Telecommunication Research Institute International | アニメーション作成装置 |
JP2015038725A (ja) | 2013-07-18 | 2015-02-26 | 国立大学法人北陸先端科学技術大学院大学 | 発話アニメーション生成装置、方法、及びプログラム |
CN106653052A (zh) | 2016-12-29 | 2017-05-10 | Tcl集团股份有限公司 | 虚拟人脸动画的生成方法及装置 |
CN110503942A (zh) | 2019-08-29 | 2019-11-26 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的语音驱动动画方法和装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8751228B2 (en) * | 2010-11-04 | 2014-06-10 | Microsoft Corporation | Minimum converted trajectory error (MCTE) audio-to-video engine |
US20150287403A1 (en) * | 2014-04-07 | 2015-10-08 | Neta Holzer Zaslansky | Device, system, and method of automatically generating an animated content-item |
WO2017075452A1 (en) * | 2015-10-29 | 2017-05-04 | True Image Interactive, Inc | Systems and methods for machine-generated avatars |
US10839825B2 (en) * | 2017-03-03 | 2020-11-17 | The Governing Council Of The University Of Toronto | System and method for animated lip synchronization |
CN107944542A (zh) * | 2017-11-21 | 2018-04-20 | 北京光年无限科技有限公司 | 一种基于虚拟人的多模态交互输出方法及系统 |
CN108538308B (zh) * | 2018-01-09 | 2020-09-29 | 网易(杭州)网络有限公司 | 基于语音的口型和/或表情模拟方法及装置 |
CN108763190B (zh) | 2018-04-12 | 2019-04-02 | 平安科技(深圳)有限公司 | 基于语音的口型动画合成装置、方法及可读存储介质 |
US10699705B2 (en) | 2018-06-22 | 2020-06-30 | Adobe Inc. | Using machine-learning models to determine movements of a mouth corresponding to live speech |
AU2020211809A1 (en) * | 2019-01-25 | 2021-07-29 | Soul Machines Limited | Real-time generation of speech animation |
CN109712627A (zh) * | 2019-03-07 | 2019-05-03 | 深圳欧博思智能科技有限公司 | 一种使用语音触发虚拟人物表情及口型动画的语音系统 |
CN110136698B (zh) * | 2019-04-11 | 2021-09-24 | 北京百度网讯科技有限公司 | 用于确定嘴型的方法、装置、设备和存储介质 |
CN110428803B (zh) * | 2019-07-22 | 2020-04-28 | 北京语言大学 | 一种基于发音属性的发音人国别识别模型建模方法及系统 |
CN110503959B (zh) * | 2019-09-03 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 语音识别数据分发方法、装置、计算机设备及存储介质 |
-
2020
- 2020-02-13 CN CN202010091799.5A patent/CN111354370B/zh active Active
- 2020-09-17 US US17/024,662 patent/US11562732B2/en active Active
- 2020-09-18 JP JP2020157690A patent/JP7167106B2/ja active Active
-
2021
- 2021-02-09 KR KR1020210018506A patent/KR102528771B1/ko active IP Right Grant
- 2021-02-11 EP EP21156681.5A patent/EP3866166B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299300A (ja) | 2006-05-02 | 2007-11-15 | Advanced Telecommunication Research Institute International | アニメーション作成装置 |
JP2015038725A (ja) | 2013-07-18 | 2015-02-26 | 国立大学法人北陸先端科学技術大学院大学 | 発話アニメーション生成装置、方法、及びプログラム |
CN106653052A (zh) | 2016-12-29 | 2017-05-10 | Tcl集团股份有限公司 | 虚拟人脸动画的生成方法及装置 |
CN110503942A (zh) | 2019-08-29 | 2019-11-26 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的语音驱动动画方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3866166A1 (en) | 2021-08-18 |
CN111354370A (zh) | 2020-06-30 |
EP3866166B1 (en) | 2023-05-17 |
KR20210103423A (ko) | 2021-08-23 |
US20210256962A1 (en) | 2021-08-19 |
US11562732B2 (en) | 2023-01-24 |
CN111354370B (zh) | 2021-06-25 |
JP2021128327A (ja) | 2021-09-02 |
KR102528771B1 (ko) | 2023-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7167106B2 (ja) | 口形特徴予測方法、装置及び電子機器 | |
US11417314B2 (en) | Speech synthesis method, speech synthesis device, and electronic apparatus | |
JP7317791B2 (ja) | エンティティ・リンキング方法、装置、機器、及び記憶媒体 | |
JP7181332B2 (ja) | 音声変換方法、装置及び電子機器 | |
US20220084502A1 (en) | Method and apparatus for determining shape of lips of virtual character, device and computer storage medium | |
US11823660B2 (en) | Method, apparatus and device for training network and storage medium | |
JP7149993B2 (ja) | 感情分析モデルの事前トレーニング方法、装置及び電子機器 | |
JP2021119381A (ja) | 音声スペクトル生成モデルの学習方法、装置、電子機器及びコンピュータプログラム製品 | |
KR102565673B1 (ko) | 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체 | |
US11423907B2 (en) | Virtual object image display method and apparatus, electronic device and storage medium | |
KR102630243B1 (ko) | 구두점 예측 방법 및 장치 | |
CN111144108A (zh) | 情感倾向性分析模型的建模方法、装置和电子设备 | |
CN110782871B (zh) | 一种韵律停顿预测方法、装置以及电子设备 | |
JP7308903B2 (ja) | ストリーミング音声認識結果の表示方法、装置、電子機器及び記憶媒体 | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
CN110767212B (zh) | 一种语音处理方法、装置和电子设备 | |
CN111709252A (zh) | 基于预训练的语义模型的模型改进方法及装置 | |
JP7121791B2 (ja) | 言語生成方法、装置及び電子機器 | |
JP2022028889A (ja) | 対話生成方法、装置、電子機器及び記憶媒体 | |
CN114267375A (zh) | 音素检测方法及装置、训练方法及装置、设备和介质 | |
CN112527105B (zh) | 人机互动方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201028 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7167106 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |