JP7422867B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7422867B2 JP7422867B2 JP2022518579A JP2022518579A JP7422867B2 JP 7422867 B2 JP7422867 B2 JP 7422867B2 JP 2022518579 A JP2022518579 A JP 2022518579A JP 2022518579 A JP2022518579 A JP 2022518579A JP 7422867 B2 JP7422867 B2 JP 7422867B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- vibration
- machine learning
- waveform
- teacher
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 47
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000010801 machine learning Methods 0.000 claims description 140
- 238000006243 chemical reaction Methods 0.000 claims description 28
- 238000001228 spectrum Methods 0.000 claims description 21
- 230000008859 change Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 31
- 238000000034 method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 101100108191 Vibrio parahaemolyticus serotype O3:K6 (strain RIMD 2210633) add gene Proteins 0.000 description 5
- 101150060298 add2 gene Proteins 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 238000010183 spectrum analysis Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/28—Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
- A63F13/285—Generating tactile feedback signals via the game input device, e.g. force feedback
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/215—Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/67—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B6/00—Tactile signalling systems, e.g. personal calling systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/16—Transforming into a non-visible representation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Otolaryngology (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Description
OVD=γ×(α×add1+(1-α)×LPF(IAD)+add2)
このように、γ、α、add1、add2を用いることで、出力振動データOVDを生成することができる。
Claims (9)
- 音声データを取得する音声データ取得部と、
前記音声データに基づいて制作された、振動デバイスを振動させるために用いられる振動データを、教師振動データとして取得する教師振動データ取得部と、
前記音声データ、及び前記教師振動データを用いて機械学習を実行し、入力音声波形を出力振動波形に変換するために用いられる学習済みモデルデータを生成する機械学習部と、
を含み、
前記機械学習部は、前記音声データの周波数スペクトルを解析して得られる値を入力特徴量として、前記機械学習を実行する情報処理装置であって、
前記機械学習部は、入力音声波形の周波数スペクトルを解析して得られる複数の周波数それぞれの成分値を出力振動波形の対応する成分値に変換するためのパラメーターであって、前記複数の周波数のそれぞれに個別に適用されるパラメーター、及び前記複数の周波数の全体に共通するパラメーターのそれぞれの値を、前記機械学習の出力特徴量として出力する
ことを特徴とする情報処理装置。 - 音声データを取得する音声データ取得部と、
前記音声データに基づいて制作された、振動デバイスを振動させるために用いられる振動データを、教師振動データとして取得する教師振動データ取得部と、
前記音声データ、及び前記教師振動データを用いて機械学習を実行し、入力音声波形を出力振動波形に変換するために用いられる学習済みモデルデータを生成する機械学習部と、
を含み、
前記機械学習部は、前記音声データの周波数スペクトルを解析して得られる値を入力特徴量として、前記機械学習を実行する情報処理装置であって、
前記機械学習部は、前記教師振動データとともに当該教師振動データが表す振動の種類を示すカテゴリ情報を教師データとして受け付け、前記出力振動波形に対してカテゴリ情報を推定した結果が前記教師データとして指定されたカテゴリ情報と一致するように、前記機械学習を行う
ことを特徴とする情報処理装置。 - 音声データを取得する音声データ取得部と、
前記音声データに基づいて制作された、振動デバイスを振動させるために用いられる振動データを、教師振動データとして取得する教師振動データ取得部と、
前記音声データ、及び前記教師振動データを用いて機械学習を実行し、入力音声波形を出力振動波形に変換するために用いられる学習済みモデルデータを生成する機械学習部と、
を含み、
前記機械学習部は、前記音声データの周波数スペクトルを解析して得られる値を入力特徴量として、前記機械学習を実行する情報処理装置であって、
前記機械学習部は、前記機械学習の対象となる変換モデルを用いて入力音声波形を変換した後元の音声波形に戻すような機械学習を実行することによって、前記学習済みモデルデータを生成する
ことを特徴とする情報処理装置。 - 請求項1から3のいずれか一項に記載の情報処理装置において、
前記機械学習部は、前記入力特徴量として、前記周波数スペクトルの振幅成分に関する値に加えて、位相成分に関する値を入力特徴量として、前記機械学習を実行する
ことを特徴とする情報処理装置。 - 請求項4に記載の情報処理装置において、
前記機械学習部は、時系列に沿って並ぶ複数の時間区間ごとに前記入力特徴量を算出し、
前記位相成分に関する値は、隣接する時間区間の位相成分の値に対する位相成分の変化量を示す値である
ことを特徴とする情報処理装置。 - 音声データを取得する音声データ取得ステップと、
前記音声データに基づいて制作された、振動デバイスを振動させるために用いられる振動データを、教師振動データとして取得する教師振動データ取得ステップと、
前記音声データ、及び前記教師振動データを用いて機械学習を実行し、入力音声波形を出力振動波形に変換するために用いられる学習済みモデルデータを生成する機械学習ステップと、
を含み、
前記機械学習ステップでは、前記音声データの周波数スペクトルを解析して得られる値を入力特徴量として、前記機械学習を実行する情報処理方法であって、
前記機械学習ステップでは、入力音声波形の周波数スペクトルを解析して得られる複数の周波数それぞれの成分値を出力振動波形の対応する成分値に変換するためのパラメーターであって、前記複数の周波数のそれぞれに個別に適用されるパラメーター、及び前記複数の周波数の全体に共通するパラメーターのそれぞれの値を、前記機械学習の出力特徴量として出力する、又は、
前記機械学習ステップでは、前記教師振動データとともに当該教師振動データが表す振動の種類を示すカテゴリ情報を教師データとして受け付け、前記出力振動波形に対してカテゴリ情報を推定した結果が前記教師データとして指定されたカテゴリ情報と一致するように、前記機械学習を行う、又は、
前記機械学習ステップでは、前記機械学習の対象となる変換モデルを用いて入力音声波形を変換した後元の音声波形に戻すような機械学習を実行することによって、前記学習済みモデルデータを生成する、
ことを特徴とする情報処理方法。 - 音声データを取得する音声データ取得ステップと、
前記音声データに基づいて制作された、振動デバイスを振動させるために用いられる振動データを、教師振動データとして取得する教師振動データ取得ステップと、
前記音声データ、及び前記教師振動データを用いて機械学習を実行し、入力音声波形を出力振動波形に変換するために用いられる学習済みモデルデータを生成する機械学習ステップと、
をコンピュータに実行させるためのプログラムであって、
前記機械学習ステップでは、前記音声データの周波数スペクトルを解析して得られる値を入力特徴量として、前記機械学習を実行するプログラムであり、
前記機械学習ステップでは、入力音声波形の周波数スペクトルを解析して得られる複数の周波数それぞれの成分値を出力振動波形の対応する成分値に変換するためのパラメーターであって、前記複数の周波数のそれぞれに個別に適用されるパラメーター、及び前記複数の周波数の全体に共通するパラメーターのそれぞれの値を、前記機械学習の出力特徴量として出力する、又は、
前記機械学習ステップでは、前記教師振動データとともに当該教師振動データが表す振動の種類を示すカテゴリ情報を教師データとして受け付け、前記出力振動波形に対してカテゴリ情報を推定した結果が前記教師データとして指定されたカテゴリ情報と一致するように、前記機械学習を行う、又は、
前記機械学習ステップでは、前記機械学習の対象となる変換モデルを用いて入力音声波形を変換した後元の音声波形に戻すような機械学習を実行することによって、前記学習済みモデルデータを生成する、
ことを特徴とするプログラム。 - 処理対象となる対象音声データを取得する対象音声データ取得ステップと、
音声データの周波数スペクトルを解析して得られる値を入力特徴量として用い、音声データに基づいて制作された、振動デバイスを振動させるために用いられる振動データに関する情報である教師振動データを教師データとして用いる機械学習を実行した結果得られる、音声波形を振動波形に変換するために用いられる学習済みモデルデータを用いて、前記対象音声データを振動波形に変換して前記振動デバイスを振動させるための振動データを生成する振動データ生成ステップと、
をコンピュータに実行させるためのプログラムであって、
前記機械学習は、入力音声波形の周波数スペクトルを解析して得られる複数の周波数それぞれの成分値を出力振動波形の対応する成分値に変換するためのパラメーターであって、前記複数の周波数のそれぞれに個別に適用されるパラメーター、及び前記複数の周波数の全体に共通するパラメーターのそれぞれの値を、出力特徴量として出力する機械学習である、又は、
前記機械学習は、前記教師振動データとともに当該教師振動データが表す振動の種類を示すカテゴリ情報を教師データとして受け付け、前記出力振動波形に対してカテゴリ情報を推定した結果が前記教師データとして指定されたカテゴリ情報と一致するように学習を行う機械学習である、又は、
前記機械学習は、前記機械学習の対象となる変換モデルを用いて入力音声波形を変換した後元の音声波形に戻すような学習を実行することによって、前記学習済みモデルデータを生成する機械学習である、
ことを特徴とするプログラム。 - 処理対象となる対象音声データを取得する対象音声データ取得部と、
音声データの周波数スペクトルを解析して得られる値を入力特徴量として用い、音声データに基づいて制作された、振動デバイスを振動させるために用いられる振動データに関する情報である教師振動データを教師データとして用いる機械学習を実行した結果得られる、音声波形を振動波形に変換するために用いられる学習済みモデルデータを用いて、前記対象音声データを振動波形に変換して前記振動デバイスを振動させるための振動データを生成する振動データ生成部と、
を含み、
前記機械学習は、入力音声波形の周波数スペクトルを解析して得られる複数の周波数それぞれの成分値を出力振動波形の対応する成分値に変換するためのパラメーターであって、前記複数の周波数のそれぞれに個別に適用されるパラメーター、及び前記複数の周波数の全体に共通するパラメーターのそれぞれの値を、出力特徴量として出力する機械学習である、又は、
前記機械学習は、前記教師振動データとともに当該教師振動データが表す振動の種類を示すカテゴリ情報を教師データとして受け付け、前記出力振動波形に対してカテゴリ情報を推定した結果が前記教師データとして指定されたカテゴリ情報と一致するように学習を行う機械学習である、又は、
前記機械学習は、前記機械学習の対象となる変換モデルを用いて入力音声波形を変換した後元の音声波形に戻すような学習を実行することによって、前記学習済みモデルデータを生成する機械学習である、
ことを特徴とする情報処理装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/018454 WO2021220515A1 (ja) | 2020-05-01 | 2020-05-01 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021220515A1 JPWO2021220515A1 (ja) | 2021-11-04 |
JP7422867B2 true JP7422867B2 (ja) | 2024-01-26 |
Family
ID=78373602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022518579A Active JP7422867B2 (ja) | 2020-05-01 | 2020-05-01 | 情報処理装置、情報処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230233931A1 (ja) |
JP (1) | JP7422867B2 (ja) |
WO (1) | WO2021220515A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019169195A (ja) | 2014-05-20 | 2019-10-03 | イマージョン コーポレーションImmersion Corporation | 触覚設計オーサリングツール |
JP2020034624A (ja) | 2018-08-27 | 2020-03-05 | 株式会社東芝 | 信号生成装置、信号生成システム、信号生成方法およびプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9448626B2 (en) * | 2011-02-11 | 2016-09-20 | Immersion Corporation | Sound to haptic effect conversion system using amplitude value |
US8754757B1 (en) * | 2013-03-05 | 2014-06-17 | Immersion Corporation | Automatic fitting of haptic effects |
KR101641418B1 (ko) * | 2014-07-25 | 2016-07-20 | 포항공과대학교 산학협력단 | 청각 주목도에 기반한 햅틱 신호 생성 방법 및 이를 위한 장치 |
US10181331B2 (en) * | 2017-02-16 | 2019-01-15 | Neosensory, Inc. | Method and system for transforming language inputs into haptic outputs |
US10943503B2 (en) * | 2017-04-17 | 2021-03-09 | Facebook, Inc. | Envelope encoding of speech signals for transmission to cutaneous actuators |
JP7155643B2 (ja) * | 2018-06-18 | 2022-10-19 | ソニーグループ株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
-
2020
- 2020-05-01 WO PCT/JP2020/018454 patent/WO2021220515A1/ja active Application Filing
- 2020-05-01 US US17/918,949 patent/US20230233931A1/en active Pending
- 2020-05-01 JP JP2022518579A patent/JP7422867B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019169195A (ja) | 2014-05-20 | 2019-10-03 | イマージョン コーポレーションImmersion Corporation | 触覚設計オーサリングツール |
JP2020034624A (ja) | 2018-08-27 | 2020-03-05 | 株式会社東芝 | 信号生成装置、信号生成システム、信号生成方法およびプログラム |
Non-Patent Citations (1)
Title |
---|
YOSHIDA, K. et al.,VibVid: VIBration Estimation from VIDeo by using Neural Network, [online],International Conference on Artificial Reality and Telexistence and Eurographics Symposium on Virtua,2017年,第37-44ページ,[2020年7月3日検索], <URL: https://diglib.eg.org/handle/10.2312/egve20171336> |
Also Published As
Publication number | Publication date |
---|---|
US20230233931A1 (en) | 2023-07-27 |
JPWO2021220515A1 (ja) | 2021-11-04 |
WO2021220515A1 (ja) | 2021-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6903611B2 (ja) | 信号生成装置、信号生成システム、信号生成方法およびプログラム | |
CN112820315B (zh) | 音频信号处理方法、装置、计算机设备及存储介质 | |
JP7490894B2 (ja) | 深層生成ネットワークを用いたリアルタイムパケット損失隠蔽 | |
CN113345460B (zh) | 音频信号处理方法、装置、设备及存储介质 | |
US20230343348A1 (en) | Machine-Learned Differentiable Digital Signal Processing | |
JP7315591B2 (ja) | 情報処理装置 | |
JP7422867B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN109637509B (zh) | 一种音乐自动生成方法、装置及计算机可读存储介质 | |
CN110751941A (zh) | 语音合成模型的生成方法、装置、设备及存储介质 | |
CN111354367A (zh) | 一种语音处理方法、装置及计算机存储介质 | |
US20210356502A1 (en) | Systems and methods of signal analysis and data transfer using spectrogram construction and inversion | |
JP2022123072A (ja) | 情報処理方法 | |
JP6229576B2 (ja) | サンプリング周波数推定装置 | |
CN113066472A (zh) | 合成语音处理方法及相关装置 | |
JP2008203783A (ja) | 隠蔽信号生成装置、隠蔽信号生成方法および隠蔽信号生成プログラム | |
CN112534444A (zh) | 生成时间序列数据的频率成分矢量的方法及装置 | |
Plozza et al. | Real-time low power audio distortion circuit modeling: a tinyml deep learning approach | |
WO2022202341A1 (ja) | 音編集装置、音編集方法および音編集プログラム | |
JP6000094B2 (ja) | 話者適応化装置、話者適応化方法、プログラム | |
US20240134459A1 (en) | Haptic feedback method, system and related device for matching split-track music to vibration | |
CN112201227B (en) | Speech sample generation method and device, storage medium and electronic device | |
JP6668306B2 (ja) | サンプリング周波数推定装置 | |
Villalpando et al. | Predictive Models for Robot Ego-Noise Learning and Imitation | |
JP2008026836A (ja) | 音声の類似度を評価する方法、装置およびプログラム | |
JP2022108980A (ja) | 評価プログラム、及び評価システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231226 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7422867 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |