JP2018169744A - 物体認証装置および物体認証方法 - Google Patents
物体認証装置および物体認証方法 Download PDFInfo
- Publication number
- JP2018169744A JP2018169744A JP2017065863A JP2017065863A JP2018169744A JP 2018169744 A JP2018169744 A JP 2018169744A JP 2017065863 A JP2017065863 A JP 2017065863A JP 2017065863 A JP2017065863 A JP 2017065863A JP 2018169744 A JP2018169744 A JP 2018169744A
- Authority
- JP
- Japan
- Prior art keywords
- image
- likelihood
- model
- unit
- object authentication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000004364 calculation method Methods 0.000 abstract description 12
- 230000005236 sound signal Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000004807 localization Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 235000015197 apple juice Nutrition 0.000 description 3
- 235000013399 edible fruits Nutrition 0.000 description 3
- 239000004579 marble Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241001672694 Citrus reticulata Species 0.000 description 1
- 235000006040 Prunus persica var persica Nutrition 0.000 description 1
- 240000006413 Prunus persica var. persica Species 0.000 description 1
- 241000282887 Suidae Species 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/80—Recognising image objects characterised by unique random patterns
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/54—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
(4)また、本発明の一態様に係る物体認証装置1において、前記音声認識で使用する音響モデルを格納する音響モデル格納部(音響モデル・辞書DB102)、を備え、前記音響モデルは、同じ意味の言葉を関連付けて辞書として記憶するようにしてもよい。
また、(2)によれば、ネットワークを介して、より広い範囲で対象画像を検索することができ、認証精度を向上させることができる。
また、(3)によれば、ネットワークを介して画像を検索した場合であっても、画像がカテゴリー別に記憶されているため、検索速度を向上させることができ、ひいては物体認証速度を向上させることができる。
また、(4)によれば、同じ意味の言葉を辞書として登録するため、音声認識精度を向上させることができる。
図1は、本実施形態に係る物体認証装置1の構成例を示すブロック図である。図1に示すように、物体認証装置1は、音声信号取得部101、音響モデル・辞書DB102、音声認識部103、画像取得部106、画像モデルDB107、画像モデル生成部108、記憶部109、画像認識部110、通信部112、および物体認証部113を備える。また、音声認識部103は、音声尤度算出部104とカテゴリー推定部105を備える。画像認識部110は、画像尤度算出部111を備える。
物体認証装置1には、収音装置2および撮像装置3が接続されている。また、物体認証装置1は、ネットワークを介して画像サーバー4が接続されている。
なお、収音装置2は、マイクロフォンアレイであってもよい。この場合、収音装置2は、それぞれ異なる位置に配置されたP個のマイクロフォンを有する。そして、収音装置2は、収音した音からPチャネル(Pは、2以上の整数)の音響信号を生成し、生成したPチャネルの音響信号を物体認証装置1に出力する。
なお、収音装置2がマイクロフォンアレイの場合、物体認証装置1は、音源定位部、音源分離部、および音源同定部をさらに備える。この場合、物体認証装置1は、音声信号取得部101が取得した音声信号に対して予め生成した伝達関数を用いて音源定位部が音源定位を行う。そして、物体認証装置1は、音源定位部が定位して結果を用いて話者同定を行う。物体認証装置1は、音源定位部が定位して結果を用いて、音声信号取得部101が取得した音声信号に対して音源分離を行う。そして、物体認証装置1の音声認識部103は、分離された音声信号に対して発話区間の検出と音声認識を行う(例えば特開2017−9657号公報参照)。また、物体認証装置1は、残響音抑圧処理を行うようにしてもよい。
画像モデル生成部108は、画像モデルDB107に音声認識結果の候補の画像モデルが格納されている場合、対応する画像モデルを画像モデルDB107から取得する。
画像モデル生成部108は、画像モデルDB107に音声認識結果の候補の画像モデルが格納されていない場合、音声認識結果の候補に対応する画像を、記憶部109が記憶するURLアドレスを用いて通信部112を制御して画像サーバー4またはネットワーク(インターネット)上から取得する。なお、通信部112がアクセスするURLアドレスは、画像モデル生成部108または通信部112が記憶していてもよい。具体的には、画像モデルDB107に「ビー玉」の画像モデルが格納されていない場合、画像モデル生成部108は、「ビー玉」の画像を少なくとも1つ取得する。なお、画像モデル生成部108は、取得した画像の解像度を取得し、取得した解像度が所定の値と異なる場合、正規化するようにしてもよい。画像モデル生成部108は、取得した画像の特徴量を抽出し、抽出した特徴量を用いて画像モデルを生成する。なお、画像サーバー4またはネットワーク(インターネット)上から取得した画像を用いて画像モデルを生成する方法については、図7を用いて後述する。
画像モデル生成部108は、画像モデルDB107から取得した画像モデル、または生成した画像モデルを画像認識部110に音声尤度の高い順に出力する。
物体認証部113は、次式(2)を用いて算出した物体尤度FLが最大となる候補i^を推定する。
なお、上述した例では、ロジスティック関数を用いて、音声尤度Lsと画像尤度Lvとを統合する例を説明したが、これに限られない。他の関数を用いて統合するようにしてもよい。
SIFTの処理は、大きく分けて特徴点の検出と特徴量の記述の2段階である。特徴点の検出では、スケールの異なる平滑化画像の差分から画像特徴と思われる点(キーポイント)を決定する。そして、各キーポイントの周りで周辺の画像の勾配情報を用いることで情報を記述する。次に、各スケール間で差分を取ることで、画像の変化(物体と背景の境界など)が、どこに現れているかを算出する。この変化が極大となる点が、SIFTの特徴点(キーポイント)候補となる。この点を探索するために,差分画像を並べ、極値探索を行う。SIFT特徴は、このキーポイントの周りでの画像勾配を記述することで得られる。
図2は、本実施形態に係る音響モデル・辞書DB102が格納する情報例を示す図である。
図2に示すように、音響モデル・辞書DB102は、カテゴリー毎に項目(単語、語彙)を格納している。例えば、カテゴリーは、「乗り物」、「果物」、「食器」、・・・である。カテゴリー「乗り物」には、項目「新幹線」、「オートバイ」、「自動車」、「電車」、・・・が格納されている。
図3は、本実施形態に係る音響モデル・辞書DB102が格納する辞書の例を示す図である。
図3に示すように、本実施形態では、1つの単語に対して複数の項目(呼び方、表記)がある場合、それらを1つの単語に関連付けて格納する。例えば、「りんごジュース」に、「アップルジュース」と「りんごジュース」が関連付けられている。
図4は、本実施形態に係る画像モデル・辞書DB107が格納する情報例を示す図である。
図4に示すように、画像モデル・辞書DB107は、カテゴリー毎に画像モデルを分けて格納している。図4に示す例では、カテゴリーは、「乗り物」、「果実」、「食器」、・・・である。なお、画像モデル・辞書DB107で用いるカテゴリーと音響モデル・辞書DB102が用いるカテゴリーは一致している。なお、取得した画像が画像モデル・辞書DB107にない項目の場合、画像認識部110は、認識結果に基づいて、新たなカテゴリーや項目を画像モデルに追加するようにしてもよい。
図5は、本実施形態に係る記憶部109が記憶するURLアドレスの例を示す図である。
図5に示すように、画像サーバー4のULRアドレスは、カテゴリー毎に少なくとも1つ以上のURLアドレスが格納されている。なお、画像サーバー4は、各URLアドレスに、少なくとも1つの画像を格納し、複数の画像を格納するようにしてもよい。
図5に示す例では、乗り物の“カテゴリー”について、第1のURLアドレス“http://www.norimono1”、第2のURLアドレス“http://www.norimono2”、第3のURLアドレス“http://www.norimono3”、・・・が対応付けられている。そして、第1のURLアドレス“http://www.norimono1”には、飛行機の画像情報が格納され、第2のURLアドレス“http://www.norimono2”には、ヨットの画像情報が格納され、第3のURLアドレス“http://www.norimono3”には、タンカーの画像情報が格納されている。
図6は、本実施形態に係る物体認証装置1の物体認証の処理手順例を示すフローチャートである。
(ステップS3)カテゴリー推定部105は、尤度の高い方から所定の順位までの音声認識結果の候補のカテゴリーを、音響モデル・辞書DB102を参照して決定する。
以上で、物体認証装置1の物体認証の処理を終了する。
図7は、本実施形態に係る画像を画像サーバー4から取得して画像モデルを生成する処理手順例を示すフローチャートである。
(ステップS102)画像モデル生成部108は、候補ぞれぞれの画像毎に、例えばSIFT特徴量を抽出する。
また、本実施形態によれば、ネットワークを介して、より広い範囲で対象画像を検索することができ、認証精度を向上させることができる。
また、本実施形態によれば、ネットワークを介して画像を検索した場合であっても、画像がカテゴリー別に記憶されているため、検索速度を向上させることができ、ひいては物体認証速度を向上させることができる。
また、本実施形態によれば、同じ意味の言葉を辞書として登録するため、音声認識精度を向上させることができる。
また、本実施形態によれば、画像モデルDB107に格納されている第1の画像モデルと、画像サーバー4から取得した画像に基づく第2の画像モデルそれぞれの尤度を比較して大きい方を選択するようにしたので、物体認証の精度を向上させることができる。
Claims (5)
- 入力された音声の音声認識結果候補及びその尤度を音声尤度として求める音声認識部と、
前記音声尤度の高い方から所定数の前記音声認識結果候補の画像モデルを求める画像モデル生成部と、
入力された画像の該画像モデルに基づく画像尤度を求める画像尤度算出部と、
該画像尤度を使用して物体認証を行う物体認証部と、を備え、
音声認識されると予測される語彙がカテゴリー化され、前記画像モデルについても前記カテゴリーに紐づいて形成される、物体認証装置。 - 前記画像モデルを格納する画像データベース、を備え、
前記物体認証部は、対象となる該画像モデルを画像モデル格納部が格納していない場合に、ネットワークを介して画像を取得し、取得した該画像から該画像モデルを生成して物体の認証を行う、請求項1に記載の物体認証装置。 - 前記画像データベースも前記カテゴリーに応じてURLアドレスが分類される、請求項2に記載の物体認証装置。
- 前記音声認識で使用する音響モデルを格納する音響モデル格納部、を備え、
前記音響モデルは、同じ意味の言葉を関連付けて辞書として記憶する、請求項1から請求項3のいずれか1項に記載の物体認証装置。 - 音声認識部が、入力された音声の音声認識結果候補及びその尤度を音声尤度として求める音声認識するステップと、
画像モデル生成部が、前記音声尤度の高い方から所定数の音声認識結果候補の画像モデルを求める画像モデル生成するステップと、
画像尤度算出部が、入力された画像の該画像モデルに基づく画像尤度を求める画像尤度算出するステップと、
物体認証部が、該画像尤度を使用して物体認証を行う物体認証するステップと、を含み、
音声認識されると予測される語彙がカテゴリー化され、前記画像モデルについても前記カテゴリーに紐づいて形成される、物体認証方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017065863A JP6565084B2 (ja) | 2017-03-29 | 2017-03-29 | 物体認証装置および物体認証方法 |
US15/934,306 US10861452B2 (en) | 2017-03-29 | 2018-03-23 | Object authentication device and object authentication method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017065863A JP6565084B2 (ja) | 2017-03-29 | 2017-03-29 | 物体認証装置および物体認証方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018169744A true JP2018169744A (ja) | 2018-11-01 |
JP6565084B2 JP6565084B2 (ja) | 2019-08-28 |
Family
ID=63671050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017065863A Active JP6565084B2 (ja) | 2017-03-29 | 2017-03-29 | 物体認証装置および物体認証方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10861452B2 (ja) |
JP (1) | JP6565084B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002312796A (ja) * | 2001-04-09 | 2002-10-25 | Canon Inc | 主被写体推定装置、撮像装置、撮像システム、主被写体推定方法、撮像装置の制御方法、及び制御プログラムを提供する媒体 |
JP2014170295A (ja) * | 2013-03-01 | 2014-09-18 | Honda Motor Co Ltd | 物体認識システム及び物体認識方法 |
JP2015049843A (ja) * | 2013-09-04 | 2015-03-16 | 東芝テック株式会社 | 情報処理装置、店舗システム及びプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110150270A1 (en) * | 2009-12-22 | 2011-06-23 | Carpenter Michael D | Postal processing including voice training |
WO2012001216A1 (en) * | 2010-07-01 | 2012-01-05 | Nokia Corporation | Method and apparatus for adapting a context model |
JP5828552B2 (ja) * | 2011-12-22 | 2015-12-09 | 本田技研工業株式会社 | 物体分類装置、物体分類方法、物体認識装置及び物体認識方法 |
DE102014113817A1 (de) * | 2013-10-15 | 2015-04-16 | Electronics And Telecommunications Research Institute | Vorrichtung und Verfahren zur Erkennung eines Objekts in Einem Bild |
US10043069B1 (en) * | 2014-03-04 | 2018-08-07 | Amazon Technologies, Inc. | Item recognition using context data |
US20160180315A1 (en) * | 2014-12-22 | 2016-06-23 | Toshiba Tec Kabushiki Kaisha | Information processing apparatus using object recognition, and commodity identification method by the same |
US20170262051A1 (en) * | 2015-03-20 | 2017-09-14 | The Eye Tribe | Method for refining control by combining eye tracking and voice recognition |
US9658702B2 (en) * | 2015-08-12 | 2017-05-23 | Smart Technologies Ulc | System and method of object recognition for an interactive input system |
US10542315B2 (en) * | 2015-11-11 | 2020-01-21 | At&T Intellectual Property I, L.P. | Method and apparatus for content adaptation based on audience monitoring |
US10884503B2 (en) * | 2015-12-07 | 2021-01-05 | Sri International | VPA with integrated object recognition and facial expression recognition |
US10430657B2 (en) * | 2016-12-12 | 2019-10-01 | X Development Llc | Object recognition tool |
-
2017
- 2017-03-29 JP JP2017065863A patent/JP6565084B2/ja active Active
-
2018
- 2018-03-23 US US15/934,306 patent/US10861452B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002312796A (ja) * | 2001-04-09 | 2002-10-25 | Canon Inc | 主被写体推定装置、撮像装置、撮像システム、主被写体推定方法、撮像装置の制御方法、及び制御プログラムを提供する媒体 |
JP2014170295A (ja) * | 2013-03-01 | 2014-09-18 | Honda Motor Co Ltd | 物体認識システム及び物体認識方法 |
JP2015049843A (ja) * | 2013-09-04 | 2015-03-16 | 東芝テック株式会社 | 情報処理装置、店舗システム及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20180286397A1 (en) | 2018-10-04 |
US10861452B2 (en) | 2020-12-08 |
JP6565084B2 (ja) | 2019-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tao et al. | End-to-end audiovisual speech recognition system with multitask learning | |
JP6754184B2 (ja) | 音声認識装置及び音声認識方法 | |
JP6596376B2 (ja) | 話者識別方法及び話者識別装置 | |
JP6543844B2 (ja) | 音源同定装置および音源同定方法 | |
CN109635676B (zh) | 一种从视频中定位音源的方法 | |
CN104598644B (zh) | 喜好标签挖掘方法和装置 | |
CN103038765B (zh) | 用于适配情境模型的方法和装置 | |
JP2019522840A (ja) | アイデンティティ認証方法及び装置 | |
JP2021500616A (ja) | オブジェクト識別の方法及びその、コンピュータ装置並びにコンピュータ装置可読記憶媒体 | |
US20140278372A1 (en) | Ambient sound retrieving device and ambient sound retrieving method | |
CN106062871B (zh) | 使用所选择的群组样本子集来训练分类器 | |
US9595261B2 (en) | Pattern recognition device, pattern recognition method, and computer program product | |
KR20210052036A (ko) | 복수 의도어 획득을 위한 합성곱 신경망을 가진 장치 및 그 방법 | |
JP6427807B2 (ja) | 物体認証装置および物体認証方法 | |
KR20150145024A (ko) | 화자적응 음성인식 시스템의 단말 및 서버와 그 운용 방법 | |
US20180285643A1 (en) | Object recognition device and object recognition method | |
CN109947971A (zh) | 图像检索方法、装置、电子设备及存储介质 | |
KR20210044475A (ko) | 대명사가 가리키는 객체 판단 방법 및 장치 | |
WO2000022607A1 (fr) | Dispositif et procede d'apprentissage, dispositif et procede de reconnaissance et support d'enregistrement | |
JPWO2018061839A1 (ja) | 送信装置、送信方法及び送信プログラム | |
JP6565084B2 (ja) | 物体認証装置および物体認証方法 | |
KR102642617B1 (ko) | 인공 지능을 이용한 음성 합성 장치, 음성 합성 장치의 동작 방법 및 컴퓨터로 판독 가능한 기록 매체 | |
JP4345156B2 (ja) | 学習装置および学習方法、認識装置および認識方法、並びに記録媒体 | |
JP2019133447A (ja) | 感情推定装置、コンピュータプログラム及び感情推定方法 | |
JP4340939B2 (ja) | 学習装置および学習方法、認識装置および認識方法、並びに記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171128 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6565084 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |