JP7181693B2 - ニュース素材分類装置、プログラム及び学習モデル - Google Patents
ニュース素材分類装置、プログラム及び学習モデル Download PDFInfo
- Publication number
- JP7181693B2 JP7181693B2 JP2018017228A JP2018017228A JP7181693B2 JP 7181693 B2 JP7181693 B2 JP 7181693B2 JP 2018017228 A JP2018017228 A JP 2018017228A JP 2018017228 A JP2018017228 A JP 2018017228A JP 7181693 B2 JP7181693 B2 JP 7181693B2
- Authority
- JP
- Japan
- Prior art keywords
- vector
- ffnn
- information
- word
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
まず、実施例1について説明する。前述のとおり、実施例1は、学習モデルを用いて、ニュース性投稿情報の文面に基づき、ニュース性投稿情報を、第一報の非既出情報とその他の既出情報とに分類し、判定結果を生成する例である。
次に、実施例2について説明する。前述のとおり、実施例2は、実施例1の処理により、学習モデルを用いた判定結果を生成し、エージェント情報を用いたフィルタリングにて、ニュース性投稿情報を、第一報の非既出情報とその他の既出情報とに分類し、判定結果を生成し、学習モデルを用いた判定結果及びフィルタリングによる判定結果に基づいて、最終的な判定結果を生成する例である。
次に、実施例2の変形例について説明する。実施例2の変形例は、文字ベクトル及び単語ベクトルを入力データとして機械学習された学習モデルを用いる代わりに、文字ベクトルのみまたは単語ベクトルのみを入力データとして機械学習された学習モデルを用いるものである。つまり、実施例2の変形例は、文字ベクトルのみまたは単語ベクトルのみで機械学習された学習モデルを用いた判定結果を生成し、エージェント情報を用いたフィルタリングにて判定結果を生成し、学習モデルを用いた判定結果及びフィルタリングによる判定結果に基づいて、最終的な判定結果を生成する例である。
次に、図2及び図4に示した学習モデル記憶部12に記憶される学習モデルを機械学習する学習装置について説明する。
次に、図8に示した学習装置2により生成され、図1及び図2に示した実施例1のニュース素材分類装置1-1、または図3及び図4に示した実施例2のニュース素材分類装置1-2に用いる学習モデルについて説明する。
まず、具体例1の学習モデルについて説明する。図10は、FFNN及びLSTMを用いた学習モデル(具体例1)の概略構造を説明する図であり、図11は、具体例1におけるノード数及び入出力データを説明する図である。
宮崎他、“ニュース制作に役立つtweetの自動抽出手法”、言語処理学会、第23回年次大会、発表論文集(2017年3月)、P.418-421
次に、具体例2の学習モデルについて説明する。図12は、FFNN及びCNNを用いた学習モデル(具体例2)の概略構造を説明する図であり、図13は、具体例2におけるノード数及び入出力データを説明する図である。
次に、具体例3の学習モデルについて説明する。図14は、FFNNを用いた学習モデル(具体例3)の概略構造を説明する図であり、図15は、具体例3におけるノード数及び入出力データを説明する図である。
次に、コンピュータを用いたシミュレーションによる実験結果について説明する。図21は、実験結果を説明する図である。(1)は、キーワードフィルタリングの手法を用いた従来技術の実験結果を示し、(2)は、文字のみを入力データとしたNNを用いた従来技術の実験結果を示し、(3)は、単語のみを入力データとしたNNを用いた従来技術の実験結果を示す。また、(4)は、文字及び単語を入力データとしたNNを用いた実施例1の実験結果を示す。
2 学習装置
10 系列生成部
11 文面分類部
12 学習モデル記憶部
13 エージェント分類部
14 判定部
20 学習部
21 文字NN(ニューラルネットワーク)
22 単語NN
23 出力NN
24,30,36 文字入力層用FFNN(順伝播型ニューラルネットワーク)
25,31,37 単語入力層用FFNN
26 文字LSTM(長短期記憶ユニット)
27 単語LSTM
28,34,38 中間層用FFNN
29,35,39 出力層用FFNN
32 文字CNN(畳み込みニューラルネットワーク)
33 単語CNN
40,41 プーリング
100 ニュース素材抽出装置
a,b 既出・非既出情報
{xchar} 文字one-hotベクトル系列
{xword} 単語one-hotベクトル系列
xchar 文字BOWベクトル
xword 単語BOWベクトル
Claims (6)
- ソーシャルメディア情報のうち、ニュース素材となり得る投稿情報をニュース性投稿情報として入力し、当該ニュース性投稿情報を利用者の要求に応じて分類するニュース素材分類装置において、
前記ニュース性投稿情報を入力し、当該ニュース性投稿情報に含まれる文字及び単語をそれぞれ抽出し、前記文字の系列を表す文字ベクトルを生成すると共に、前記単語の系列を表す単語ベクトルを生成する系列生成部と、
機械学習された学習モデルを記憶する学習モデル記憶部と、
前記学習モデル記憶部から前記学習モデルを読み出し、当該学習モデルを用いて、前記系列生成部により生成された前記文字ベクトル及び前記単語ベクトルに基づき、前記ニュース性投稿情報についての前記利用者の要求に応じた分類情報を生成して出力する分類部と、を備え、
前記学習モデルは、
前記ニュース性投稿情報の前記文字ベクトルを入力データとし、演算結果のベクトルを出力データとする文字NN(ニューラルネットワーク)、
前記ニュース性投稿情報の前記単語ベクトルを入力データとし、演算結果のベクトルを出力データとする単語NN、及び、
前記文字NNの演算結果のベクトルと前記単語NNの演算結果のベクトルとを結合したベクトルを入力データとし、演算結果である前記分類情報を出力データとする出力NNにより構成され、
前記分類部は、
前記分類情報を、前記ニュース性投稿情報が既出であるか、または非既出であるかを示す既出・非既出情報として、
前記文字NNを用いて、前記ニュース性投稿情報の前記文字ベクトルに基づきNNの演算を行い、
前記単語NNを用いて、前記ニュース性投稿情報の前記単語ベクトルに基づきNNの演算を行い、
前記出力NNを用いて、前記文字NNの演算結果のベクトルと前記単語NNの演算結果のベクトルとを結合したベクトルに基づいてNNの演算を行い、演算結果である前記既出・非既出情報を第1分類結果として出力し、
当該ニュース素材分類装置は、さらに、第2分類部及び判定部を備え、
前記第2分類部は、
前記ニュース性投稿情報を入力し、当該ニュース性投稿情報に付加された、投稿元の機器を識別するためのエージェント情報を抽出し、当該エージェント情報に基づいて、前記既出・非既出情報を生成して第2分類結果として出力し、
前記判定部は、
前記分類部により出力された前記第1分類結果、及び前記第2分類部により出力された前記第2分類結果に基づいて、新たな既出・非既出情報を生成して出力する、ことを特徴とするニュース素材分類装置。 - 請求項1に記載のニュース素材分類装置において、
前記系列生成部は、
前記ニュース性投稿情報を入力し、当該ニュース性投稿情報に含まれる文字及び単語をそれぞれ抽出し、前記文字に対応したone-hot列ベクトルを並べて文字one-hotベクトル系列を生成すると共に、前記単語に対応したone-hot列ベクトルを並べて単語one-hotベクトル系列を生成し、
前記学習モデルは、
前記系列生成部により生成された前記文字one-hotベクトル系列を入力データとし、FFNN(フィードフォワードニューラルネットワーク)の演算結果のベクトルを出力データとする文字入力層用FFNN、
当該文字入力層用FFNNの演算結果のベクトルを入力データとし、RNN(リカレントニューラルネットワーク)の演算結果のベクトルを出力データとする文字RNN、
前記系列生成部により生成された前記単語one-hotベクトル系列を入力データとし、FFNNの演算結果のベクトルを出力データとする単語入力層用FFNN、
当該単語入力層用FFNNの演算結果のベクトルを入力データとし、RNNの演算結果のベクトルを出力データとする単語RNN、
前記文字RNNの演算結果のベクトルと前記単語RNNの演算結果のベクトルとを結合したベクトルを入力データとし、FFNNの演算結果のベクトルを出力データとする中間層用FFNN、及び、
当該中間層用FFNNの演算結果のベクトルを入力データとし、FFNNの演算結果である前記既出・非既出情報を出力データとする出力層用FFNNにより構成され、
前記分類部は、
前記文字入力層用FFNNを用いて、前記系列生成部により生成された前記文字one-hotベクトル系列に基づき、FFNNの演算を行い、
前記文字RNNを用いて、前記文字入力層用FFNNの演算結果のベクトルに基づき、RNNの演算を行い、
前記単語入力層用FFNNを用いて、前記系列生成部により生成された前記単語one-hotベクトル系列に基づき、FFNNの演算を行い、
前記単語RNNを用いて、前記単語入力層用FFNNの演算結果のベクトルに基づき、RNNの演算を行い、
前記中間層用FFNNを用いて、前記文字RNNの演算結果のベクトルと前記単語RNNの演算結果のベクトルとを結合したベクトルに基づき、FFNNの演算を行い、
前記出力層用FFNNを用いて、前記中間層用FFNNの演算結果のベクトルに基づき、FFNNの演算を行い、演算結果を前記既出・非既出情報として出力する、ことを特徴とするニュース素材分類装置。 - ソーシャルメディア情報のうち、ニュース素材となり得る投稿情報をニュース性投稿情報として入力し、当該ニュース性投稿情報を利用者の要求に応じて分類するニュース素材分類装置において、
前記ニュース性投稿情報を入力し、当該ニュース性投稿情報に含まれる文字及び単語をそれぞれ抽出し、前記文字の系列を表す文字ベクトルを生成すると共に、前記単語の系列を表す単語ベクトルを生成する系列生成部と、
機械学習された学習モデルを記憶する学習モデル記憶部と、
前記学習モデル記憶部から前記学習モデルを読み出し、当該学習モデルを用いて、前記系列生成部により生成された前記文字ベクトル及び前記単語ベクトルに基づき、前記ニュース性投稿情報についての前記利用者の要求に応じた分類情報を生成して出力する分類部と、を備え、
前記学習モデルは、
前記ニュース性投稿情報の前記文字ベクトルを入力データとし、演算結果のベクトルを出力データとする文字NN(ニューラルネットワーク)、
前記ニュース性投稿情報の前記単語ベクトルを入力データとし、演算結果のベクトルを出力データとする単語NN、及び、
前記文字NNの演算結果のベクトルと前記単語NNの演算結果のベクトルとを結合したベクトルを入力データとし、演算結果である前記分類情報を出力データとする出力NNにより構成され、
前記分類部は、
前記文字NNを用いて、前記ニュース性投稿情報の前記文字ベクトルに基づきNNの演算を行い、
前記単語NNを用いて、前記ニュース性投稿情報の前記単語ベクトルに基づきNNの演算を行い、
前記出力NNを用いて、前記文字NNの演算結果のベクトルと前記単語NNの演算結果のベクトルとを結合したベクトルに基づいてNNの演算を行い、演算結果を前記分類情報として出力し、
前記分類情報を、前記ニュース性投稿情報が既出であるか、または非既出であるかを示す既出・非既出情報とし、
前記系列生成部は、
前記ニュース性投稿情報を入力し、当該ニュース性投稿情報に含まれる文字及び単語をそれぞれ抽出し、前記文字に対応したone-hot列ベクトルを並べて文字one-hotベクトル系列を生成すると共に、前記単語に対応したone-hot列ベクトルを並べて単語one-hotベクトル系列を生成し、
前記学習モデルは、
前記系列生成部により生成された前記文字one-hotベクトル系列を入力データとし、FFNNの演算結果のベクトルを出力データとする文字入力層用FFNN、
当該文字入力層用FFNNの演算結果のベクトルを入力データとし、CNN(畳み込みニューラルネットワーク)の演算結果のベクトルを出力データとする文字CNN、
当該文字CNNの演算結果のベクトルを入力データとし、プーリングの演算結果のベクトルを出力データとする文字プーリング層と、
前記系列生成部により生成された前記単語one-hotベクトル系列を入力データとし、FFNNの演算結果のベクトルを出力データとする単語入力層用FFNN、
当該単語入力層用FFNNの演算結果のベクトルを入力データとし、CNNの演算結果のベクトルを出力データとする単語CNN、
当該単語CNNの演算結果のベクトルを入力データとし、プーリングの演算結果のベクトルを出力データとする単語プーリング層と、
前記文字プーリング層の演算結果のベクトルと前記単語プーリング層の演算結果のベクトルとを結合したベクトルを入力データとし、FFNNの演算結果のベクトルを出力データとする中間層用FFNN、及び、
当該中間層用FFNNの演算結果のベクトルを入力データとし、FFNNの演算結果である前記既出・非既出情報を出力データとする出力層用FFNNにより構成され、
前記分類部は、
前記文字入力層用FFNNを用いて、前記系列生成部により生成された前記文字one-hotベクトル系列に基づき、FFNNの演算を行い、
前記文字CNNを用いて、前記文字入力層用FFNNの演算結果のベクトルに基づき、CNNの演算を行い、
前記文字プーリング層を用いて、前記文字CNNの演算結果のベクトルに基づき、プーリングの演算を行い、
前記単語入力層用FFNNを用いて、前記系列生成部により生成された前記単語one-hotベクトル系列に基づき、FFNNの演算を行い、
前記単語CNNを用いて、前記単語入力層用FFNNの演算結果のベクトルに基づき、CNNの演算を行い、
前記単語プーリング層を用いて、前記単語CNNの演算結果のベクトルに基づき、プーリングの演算を行い、
前記中間層用FFNNを用いて、前記文字プーリング層の演算結果のベクトルと前記単語プーリング層の演算結果のベクトルとを結合したベクトルに基づき、FFNNの演算を行い、
前記出力層用FFNNを用いて、前記中間層用FFNNの演算結果のベクトルに基づき、FFNNの演算を行い、演算結果を前記既出・非既出情報として出力する、ことを特徴とするニュース素材分類装置。 - 請求項1に記載のニュース素材分類装置において、
前記系列生成部は、
前記ニュース性投稿情報を入力し、当該ニュース性投稿情報に含まれる文字及び単語をそれぞれ抽出し、抽出した全ての前記文字に対応した文字BOWベクトルを生成すると共に、抽出した全ての単語に対応した単語BOWベクトルを生成し、
前記学習モデルは、
前記系列生成部により生成された前記文字BOWベクトルを入力データとし、FFNNの演算結果のベクトルを出力データとする文字入力層用FFNN、
前記系列生成部により生成された前記単語BOWベクトルを入力データとし、FFNNの演算結果のベクトルを出力データとする単語入力層用FFNN、
前記文字入力層用FFNNの演算結果のベクトルと前記単語入力層用FFNNの演算結果のベクトルとを結合したベクトルを入力データとし、FFNNの演算結果のベクトルを出力データとする中間層用FFNN、及び、
当該中間層用FFNNの演算結果のベクトルを入力データとし、FFNNの演算結果である前記既出・非既出情報を出力データとする出力層用FFNNにより構成され、
前記分類部は、
前記文字入力層用FFNNを用いて、前記系列生成部により生成された前記文字BOWベクトルに基づき、FFNNの演算を行い、
前記単語入力層用FFNNを用いて、前記系列生成部により生成された前記単語BOWベクトルに基づき、FFNNの演算を行い、
前記中間層用FFNNを用いて、前記文字入力層用FFNNの演算結果のベクトルと前記単語入力層用FFNNの演算結果のベクトルとを結合したベクトルに基づき、FFNNの演算を行い、
前記出力層用FFNNを用いて、前記中間層用FFNNの演算結果のベクトルに基づき、FFNNの演算を行い、演算結果を前記既出・非既出情報として出力する、ことを特徴とするニュース素材分類装置。 - ソーシャルメディア情報のうち、ニュース素材となり得る投稿情報をニュース性投稿情報として入力し、当該ニュース性投稿情報を既出または非既出に分類するニュース素材分類装置において、
前記ニュース性投稿情報を入力し、当該ニュース性投稿情報に含まれる文字または単語をそれぞれ抽出し、前記文字の系列を表す文字ベクトル、または前記単語の系列を表す単語ベクトルを生成する系列生成部と、
前記ニュース性投稿情報の前記文字ベクトルまたは前記単語ベクトルを入力データとし、演算結果である、前記ニュース性投稿情報が既出であるか、または非既出であるかを示す既出・非既出情報を出力データとするNNにより構成された学習モデルであって、機械学習された前記学習モデルを記憶する学習モデル記憶部と、
前記学習モデル記憶部から前記学習モデルを読み出し、当該学習モデルを用いて、前記系列生成部により生成された前記文字ベクトルまたは前記単語ベクトルに基づき、前記既出・非既出情報を生成して第1分類結果として出力する分類部と、
前記ニュース性投稿情報を入力し、当該ニュース性投稿情報に付加された、投稿元の機器を識別するためのエージェント情報を抽出し、当該エージェント情報に基づいて、前記既出・非既出情報を生成して第2分類結果として出力する第2分類部と、
前記分類部により出力された前記第1分類結果、及び前記第2分類部により出力された前記第2分類結果に基づいて、新たな既出・非既出情報を生成して出力する判定部と、
を備えたことを特徴とするニュース素材分類装置。 - コンピュータを、請求項1から5までのいずれか一項のニュース素材分類装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018017228A JP7181693B2 (ja) | 2018-02-02 | 2018-02-02 | ニュース素材分類装置、プログラム及び学習モデル |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018017228A JP7181693B2 (ja) | 2018-02-02 | 2018-02-02 | ニュース素材分類装置、プログラム及び学習モデル |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019133565A JP2019133565A (ja) | 2019-08-08 |
JP7181693B2 true JP7181693B2 (ja) | 2022-12-01 |
Family
ID=67547513
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018017228A Active JP7181693B2 (ja) | 2018-02-02 | 2018-02-02 | ニュース素材分類装置、プログラム及び学習モデル |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7181693B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110765757B (zh) * | 2019-10-16 | 2024-08-27 | 腾讯云计算(北京)有限责任公司 | 文本识别方法、计算机可读存储介质和计算机设备 |
CN111984689B (zh) * | 2020-08-21 | 2023-07-25 | 北京百度网讯科技有限公司 | 信息检索的方法、装置、设备以及存储介质 |
CN114861630B (zh) * | 2022-05-10 | 2024-07-19 | 马上消费金融股份有限公司 | 信息获取及相关模型的训练方法、装置、电子设备和介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017201437A (ja) | 2016-05-02 | 2017-11-09 | 日本放送協会 | ニュース素材抽出装置及びプログラム |
-
2018
- 2018-02-02 JP JP2018017228A patent/JP7181693B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017201437A (ja) | 2016-05-02 | 2017-11-09 | 日本放送協会 | ニュース素材抽出装置及びプログラム |
Non-Patent Citations (3)
Title |
---|
C▲i▼cero Nogueira dos Santos et al.,Deep Convolutional Neural Networks for Sentiment Analysis of Short Texts,Proceedings of COLING 2014, the 25th International Conference on Computational Linguistics: Technical Papers [online],2014年,pp.69-78,[検索日:2021.12.20], Internet<URL: https://aclanthology.org/C14-1008/ > |
宮▲崎▼太郎ほか,ニュース制作のための有用tweet提示システム,映像情報メディア学会2017年年次大会講演予稿集 [CD-ROM],一般社団法人映像情報メディア学会,2017年08月16日,講演番号 32B-1 |
森田直志ほか,ソーシャルメディア情報を活用した防災システム,FUJITSU,富士通株式会社,2017年11月01日,Vol.68,No.6 ,pp.62-67 |
Also Published As
Publication number | Publication date |
---|---|
JP2019133565A (ja) | 2019-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11853704B2 (en) | Classification model training method, classification method, device, and medium | |
Xu et al. | Multisentinet: A deep semantic network for multimodal sentiment analysis | |
US10504010B2 (en) | Systems and methods for fast novel visual concept learning from sentence descriptions of images | |
US10592607B2 (en) | Iterative alternating neural attention for machine reading | |
CN110377740B (zh) | 情感极性分析方法、装置、电子设备及存储介质 | |
CN111190997B (zh) | 一种使用神经网络和机器学习排序算法的问答系统实现方法 | |
CN112749326B (zh) | 信息处理方法、装置、计算机设备及存储介质 | |
CN110489523B (zh) | 一种基于网购评价的细粒度情感分析方法 | |
CN105183717B (zh) | 一种基于随机森林和用户关系的osn用户情感分析方法 | |
CN113128557B (zh) | 基于胶囊网络融合模型的新闻文本分类方法、系统及介质 | |
US11822590B2 (en) | Method and system for detection of misinformation | |
JP7181693B2 (ja) | ニュース素材分類装置、プログラム及び学習モデル | |
CN113326374A (zh) | 基于特征增强的短文本情感分类方法及系统 | |
CN111414561A (zh) | 用于呈现信息的方法和装置 | |
CN116205222A (zh) | 一种基于多通道注意力融合的方面级情感分析系统及方法 | |
Thattinaphanich et al. | Thai named entity recognition using Bi-LSTM-CRF with word and character representation | |
CN116955591A (zh) | 用于内容推荐的推荐语生成方法、相关装置和介质 | |
CN117540023A (zh) | 基于模态融合图卷积网络的图像联合文本情感分析方法 | |
CN112131345A (zh) | 文本质量的识别方法、装置、设备及存储介质 | |
Mahmud et al. | Deep learning based sentiment analysis from Bangla text using glove word embedding along with convolutional neural network | |
Berkani et al. | S-SNHF: sentiment based social neural hybrid filtering | |
CN110309355A (zh) | 内容标签的生成方法、装置、设备及存储介质 | |
Kasthuriarachchy et al. | Cost effective annotation framework using zero-shot text classification | |
CN103514194B (zh) | 确定语料与实体的相关性的方法和装置及分类器训练方法 | |
CN107729509B (zh) | 基于隐性高维分布式特征表示的篇章相似度判定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220207 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220624 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220907 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220907 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220916 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221026 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7181693 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |