JP2023076598A - 情報検索の方法 - Google Patents

情報検索の方法 Download PDF

Info

Publication number
JP2023076598A
JP2023076598A JP2023060841A JP2023060841A JP2023076598A JP 2023076598 A JP2023076598 A JP 2023076598A JP 2023060841 A JP2023060841 A JP 2023060841A JP 2023060841 A JP2023060841 A JP 2023060841A JP 2023076598 A JP2023076598 A JP 2023076598A
Authority
JP
Japan
Prior art keywords
data
information
intellectual property
analysis
analysis data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2023060841A
Other languages
English (en)
Inventor
舜平 山崎
Shunpei Yamazaki
裕司 岩城
Yuji Iwaki
肇 木村
Hajime Kimura
欣聡 及川
Yoshiaki Oikawa
奈津子 高瀬
Natsuko Takase
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Semiconductor Energy Laboratory Co Ltd
Original Assignee
Semiconductor Energy Laboratory Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021194067A external-priority patent/JP2022019832A/ja
Application filed by Semiconductor Energy Laboratory Co Ltd filed Critical Semiconductor Energy Laboratory Co Ltd
Publication of JP2023076598A publication Critical patent/JP2023076598A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/93Document management systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/18Legal services
    • G06Q50/184Intellectual property management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Technology Law (AREA)
  • Medical Informatics (AREA)
  • General Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】高い精度で情報を検索できる、情報検索システムまたは知的財産情報検索システムを提供する。【解決手段】処理部を有する知的財産情報検索システムである。処理部には、第1のデータと、第1の参照用解析データと、が入力される。第1のデータは、第1の知的財産の情報を有する。第1の参照用解析データは、複数の第2の知的財産の情報を有する。処理部は、第1の参照用解析データから、第1のデータと類似するデータを検索することで、第2のデータを生成する機能を有する。処理部は、第2のデータを出力する機能を有する。第2のデータは、第1の知的財産の情報と類似する第2の知的財産の情報と、第2の知的財産の情報の第1の知的財産の情報に対する類似性の高さを示す情報と、を有する。【選択図】図2

Description

本発明の一態様は、情報検索システム及び情報検索方法に関する。本発明の一態様は、知
的財産情報検索システム及び知的財産情報検索方法に関する。
なお、本発明の一態様は、上記の技術分野に限定されない。本発明の一態様の技術分野と
しては、半導体装置、表示装置、発光装置、蓄電装置、記憶装置、電子機器、照明装置、
それらの駆動方法、又はそれらの製造方法を一例として挙げることができる。
出願前の発明に関し先行技術調査を行うことで、関連する知的財産権が存在するか否かを
調査することができる。先行技術調査を行うことで得られた国内外の特許文献及び論文な
どは、発明の新規性及び進歩性の確認、並びに、特許を出願するか否かの判断に、利用す
ることができる。また、先行技術調査は、工業製品または論文に関連する知的財産権が存
在するか否かを調査するなど、様々な目的で利用される。
例えば、特許文献を検索するシステムに、使用者がキーワードを入力することで、そのキ
ーワードを含む特許文献を出力することができる。
このようなシステムを用いて高い精度で先行技術調査を行うためには、適切なキーワード
で検索すること、さらに、出力された多くの特許文献から必要な特許文献を抽出すること
など、使用者に高いスキルが求められる。
また、様々な用途において、人工知能の活用が検討されている。特に、人工ニューラルネ
ットワークなどを利用することで、従来のノイマン型コンピュータよりも高性能なコンピ
ュータが実現できると期待されており、近年、電子回路上で人工ニューラルネットワーク
を構築する種々の研究が進められている。
例えば、特許文献1には、チャネル形成領域に酸化物半導体を有するトランジスタを用い
た記憶装置によって、人工ニューラルネットワークを用いた計算に必要な重みデータを保
持する発明が開示されている。
米国特許公開第2016/0343452号公報
そこで、本発明の一態様は、高い精度で情報を検索できる、情報検索システムまたは知的
財産情報検索システムを提供することを課題の一つとする。または、本発明の一態様は、
高い精度で情報を検索できる、情報検索方法または知的財産情報検索方法を提供すること
を課題の一つとする。または、本発明の一態様は、簡便な入力方法で、精度の高い情報検
索、特に知的財産情報の検索を実現することを課題の一つとする。
なお、これらの課題の記載は、他の課題の存在を妨げるものではない。本発明の一態様は
、必ずしも、これらの課題の全てを解決する必要はないものとする。明細書、図面、請求
項の記載から、これら以外の課題を抽出することが可能である。
本発明の一態様は、処理部を有する情報検索システムである。処理部には、第1のデータ
と、第1の参照用解析データと、が入力される。第1のデータは、第1の情報を有する。
第1の参照用解析データは、複数の第2の情報を有する。処理部は、第1の参照用解析デ
ータから、第1のデータと類似するデータを検索することで、第2のデータを生成する機
能を有する。処理部は、第2のデータを出力する機能を有する。第2のデータは、第1の
情報と類似する第2の情報と、第2の情報の第1の情報に対する類似性の高さを示す第3
の情報と、を有する。
本発明の一態様は、処理部を有する知的財産情報検索システムである。処理部には、第1
のデータと、第1の参照用解析データと、が入力される。第1のデータは、第1の知的財
産の情報を有する。第1の参照用解析データは、複数の第2の知的財産の情報を有する。
処理部は、第1の参照用解析データから、第1のデータと類似するデータを検索すること
で、第2のデータを生成する機能を有する。処理部は、第2のデータを出力する機能を有
する。第2のデータは、第1の知的財産の情報と類似する第2の知的財産の情報と、第2
の知的財産の情報の第1の知的財産の情報に対する類似性の高さを示す情報と、を有する
第1のデータは、文章データを有していてもよい。第1の参照用解析データは、参照用文
章解析データを有していてもよい。処理部は、第1の文章解析部と、第2の文章解析部と
、第3の文章解析部と、を有していてもよい。第1の文章解析部は、文章データの形態素
解析を行うことで、第1の文章解析データを生成する機能を有する。第2の文章解析部は
、第1の文章解析データを用いて文章データに含まれる単語の出現頻度を求めることで、
第2の文章解析データを生成する機能を有する。第3の文章解析部は、第2の文章解析デ
ータと、参照用文章解析データと、を比較することで、第2のデータの少なくとも一部を
生成する機能を有する。第2の文章解析部は、ニューラルネットワークを用いて、第2の
文章解析データを生成する機能を有していてもよい。第2の文章解析部は、ニューラルネ
ットワーク回路を有していてもよい。
第1のデータは、画像データを有していてもよい。第1の参照用解析データは、参照用画
像解析データを有していてもよい。処理部は、第1の画像解析部と、第2の画像解析部と
、を有していてもよい。第1の画像解析部は、学習モデルに画像データを入力することで
、第1の画像解析データを生成する機能を有する。第2の画像解析部は、第1の画像解析
データと、参照用画像解析データと、を用いて、第2のデータの少なくとも一部を生成す
る機能を有する。第1の画像解析部は、ニューラルネットワークを用いて、第1の画像解
析データを生成する機能を有していてもよい。第1の画像解析部は、ニューラルネットワ
ーク回路を有していてもよい。
第1のデータは、文章データと、画像データと、を有していてもよい。第1の参照用解析
データは、参照用文章解析データと、参照用画像解析データと、を有していてもよい。処
理部は、文章解析部と、画像解析部と、第1の解析部と、第2の解析部と、を有していて
もよい。第1の解析部は、第1のデータを、文章データと、画像データと、に分ける機能
を有する。文章解析部には、文章データと、参照用文章解析データと、が入力される。文
章解析部は、参照用文章解析データから、文章データと類似するデータを検索することで
、文章解析データを生成する機能を有する。画像解析部には、画像データと、参照用画像
解析データと、が入力される。画像解析部は、参照用画像解析データから、画像データと
類似するデータを検索することで、画像解析データを生成する機能を有する。第2の解析
部には、文章解析データと、画像解析データと、が入力される。第2の解析部は、文章解
析データと、画像解析データと、を用いて、第2のデータの少なくとも一部を生成する機
能を有する。
情報検索システムまたは知的財産情報検索システムは、さらに、記憶部を有していてもよ
い。記憶部は、第1の参照用解析データを有する。
処理部には、さらに、第2の参照用解析データが入力されてもよい。第2の参照用解析デ
ータは、複数の第3の知的財産の情報を有する。第1の参照用解析データ及び第2の参照
用解析データのうち一方は、特許文献の情報を有し、他方は、工業製品の情報を有する。
処理部は、第2の参照用解析データから、第1のデータと類似するデータを検索すること
で、第3のデータを生成する機能を有する。処理部は、第3のデータを出力する機能を有
する。第3のデータは、第1の知的財産の情報と類似する第3の知的財産の情報と、第3
の知的財産の情報の第1の知的財産の情報に対する類似性の高さを示す情報と、を有する
例えば、第1のデータは、工業製品の技術情報と、工業製品の発売日の情報と、を有し、
かつ、第2のデータは、出願日が当該工業製品の発売日よりも早い第1の特許文献の情報
を有していてもよい。
例えば、第1のデータは、第1の特許文献の情報と、第1の特許文献の出願日の情報と、
を有し、かつ、第2のデータは、出願日が第1の特許文献の出願日よりも早い第2の特許
文献の情報を有していてもよい。第2の特許文献の出願人は、第1の特許文献の出願人と
は異なっていてもよい。
情報検索システムまたは知的財産情報検索システムは、さらに、電子機器と、サーバと、
を有していてもよい。電子機器は、第1の通信部を有する。サーバは、処理部と、第2の
通信部と、を有する。第1の通信部は、有線通信及び無線通信のうち一方または双方によ
り、サーバに第1のデータを供給する機能を有する。処理部は、第2の通信部に第2のデ
ータを供給する機能を有する。第2の通信部は、有線通信及び無線通信のうち一方または
双方により、電子機器に第2のデータを供給する機能を有する。
処理部は、トランジスタを有していてもよい。トランジスタは、チャネル形成領域に金属
酸化物を有していてもよい。または、トランジスタは、チャネル形成領域にシリコンを有
していてもよい。
本発明の一態様は、第1の情報を有する第1のデータと、複数の第2の情報を有する第1
の参照用解析データと、を入力し、第1の参照用解析データから、第1のデータと類似す
るデータを検索して、第1の情報と類似する第2の情報と、第2の情報の第1の情報に対
する類似性の高さを示す情報と、を有する第2のデータを生成し、第2のデータを出力す
る、情報検索方法である。
本発明の一態様は、第1の知的財産の情報を有する第1のデータと、複数の第2の知的財
産の情報を有する第1の参照用解析データと、を入力し、第1の参照用解析データから、
第1のデータと類似するデータを検索して、第1の知的財産の情報と類似する第2の知的
財産の情報と、第2の知的財産の情報の第1の知的財産の情報に対する類似性の高さを示
す情報と、を有する第2のデータを生成し、第2のデータを出力する、知的財産情報検索
方法である。
第1のデータに含まれる文章データの形態素解析を行うことで、第1の文章解析データを
生成し、第1の文章解析データを用いて、文章データに含まれる単語の出現頻度を求める
ことで、第2の文章解析データを生成し、第2の文章解析データと、第1の参照用解析デ
ータに含まれる参照用文章解析データと、を比較することで、第2のデータの少なくとも
一部を生成してもよい。ニューラルネットワークを用いて、第2の文章解析データを生成
してもよい。
第1のデータに含まれる画像データを学習モデルに入力することで、第1の画像解析デー
タを生成し、第1の画像解析データと、第1の参照用解析データに含まれる参照用画像解
析データと、を用いて、第2のデータの少なくとも一部を生成してもよい。ニューラルネ
ットワークを用いて、第1の画像解析データを生成してもよい。
第1のデータを、文章データと、画像データと、に分け、第1の参照用解析データに含ま
れる参照用文章解析データから、文章データと類似するデータを検索することで、文章解
析データを生成し、第1の参照用解析データに含まれる参照用画像解析データから、画像
データと類似するデータを検索することで、画像解析データを生成し、文章解析データと
、画像解析データと、を用いて、第2のデータの少なくとも一部を生成してもよい。
さらに、複数の第3の知的財産の情報を有する第2の参照用解析データを入力し、第2の
参照用解析データから、第1のデータと類似するデータを検索することで、第1の知的財
産の情報と類似する第3の知的財産の情報と、第3の知的財産の情報の第1の知的財産の
情報に対する類似性の高さを示す情報と、を有する第3のデータを生成し、第3のデータ
を出力してもよい。
本発明の一態様により、高い精度で情報を検索できる、情報検索システムまたは知的財産
情報検索システムを提供できる。または、本発明の一態様により、高い精度で情報を検索
できる、情報検索方法または知的財産情報検索方法を提供できる。または、本発明の一態
様により、簡単な入力方法で、精度の高い情報検索、特に知的財産情報の検索を実現でき
る。
なお、これらの効果の記載は、他の効果の存在を妨げるものではない。本発明の一態様は
、必ずしも、これらの効果の全てを有する必要はない。明細書、図面、請求項の記載から
、これら以外の効果を抽出することが可能である。
知的財産情報検索システムの一例を示すブロック図。 知的財産情報検索方法の一例を示すフロー図。 処理部の一例を示すブロック図。 参照用解析データの生成方法の一例を示すフロー図。 参照用解析データの生成方法の一例を示す図。 知的財産情報検索方法の一例を示すフロー図。 知的財産情報検索方法の一例を示す図。 処理部の一例を示すブロック図。 参照用解析データの生成方法の一例を示すフロー図。 参照用解析データの生成方法の一例を示す図。 知的財産情報検索方法の一例を示すフロー図。 知的財産情報検索方法の一例を示す図。 処理部の一例を示すブロック図。 知的財産情報検索方法の一例を示すフロー図。 知的財産情報検索方法の一例を示す図。 処理部の一例を示すブロック図。 知的財産情報検索方法の一例を示すフロー図。 知的財産情報検索システムの一例を示すブロック図。 ニューラルネットワークの構成例を示す図。 半導体装置の構成例を示す図。 メモリセルの構成例を示す図。 オフセット回路の構成例を示す図。 タイミングチャート。
実施の形態について、図面を用いて詳細に説明する。但し、本発明は以下の説明に限定さ
れず、本発明の趣旨及びその範囲から逸脱することなくその形態及び詳細を様々に変更し
得ることは当業者であれば容易に理解される。従って、本発明は以下に示す実施の形態の
記載内容に限定して解釈されるものではない。
なお、以下に説明する発明の構成において、同一部分又は同様な機能を有する部分には同
一の符号を異なる図面間で共通して用い、その繰り返しの説明は省略する。また、同様の
機能を指す場合には、ハッチパターンを同じくし、特に符号を付さない場合がある。
また、図面において示す各構成の、位置、大きさ、範囲などは、理解の簡単のため、実際
の位置、大きさ、範囲などを表していない場合がある。このため、開示する発明は、必ず
しも、図面に開示された位置、大きさ、範囲などに限定されない。
なお、「膜」という言葉と、「層」という言葉とは、場合によっては、又は、状況に応じ
て、互いに入れ替えることが可能である。例えば、「導電層」という用語を、「導電膜」
という用語に変更することが可能である。または、例えば、「絶縁膜」という用語を、「
絶縁層」という用語に変更することが可能である。
(実施の形態1)
本実施の形態では、本発明の一態様の情報検索システムについて、図1~図18を用いて
説明する。
本発明の一態様の情報検索システムは、処理部を有する。処理部には、第1のデータ(入
力データともいえる)と、参照用解析データと、が入力される。情報検索システムの使用
者は、第1のデータとして、検索したい情報(第1の情報)を有するデータを、処理部に
入力する。参照用解析データは、検索対象となるデータであり、複数の情報を有する。例
えば、第1の情報が、1枚の画像であり、参照用解析データは、複数枚の画像を有する。
処理部は、参照用解析データから、第1のデータと類似するデータを検索する機能を有す
る。この検索では、参照用解析データに含まれる複数の情報の中から、第1の情報と類似
する第2の情報が検索される。例えば、第2の情報は、1枚または複数枚の画像である。
さらに、処理部は、第2のデータ(出力データともいえる)を生成する機能を有する。第
2のデータには、検索結果である、上記第2の情報が含まれる。さらに、第2のデータに
は、第2の情報の第1の情報に対する類似性の高さを示す第3の情報が含まれる。
第3の情報は、例えば、割合で表され、0以上1以下、または0%以上100%以下など
の数値で出力される(数値が大きいほど類似している)。
また、第2の情報が複数の情報(例えば、複数枚の画像)を含む場合、それぞれの類似性
の高さを示す第3の情報を用いて、複数の情報を第1のデータに対する類似性の高い順に
並べて出力することができる。また、第2の情報として、類似性の高さが所定の値よりも
高い情報を出力することができる。
さらに、情報検索システムは、第1の情報と第2の情報の相違点を出力する機能を有して
いてもよい。
情報検索システムは、少なくとも一部の処理に人工知能(AI:Artificial
Intelligence)を用いて、第2のデータを生成することが好ましい。
情報検索システムは、特に、人工ニューラルネットワーク(ANN:Artificia
l Neural Network、以下、単にニューラルネットワークとも記す)を用
いて、出力データを生成することが好ましい。ニューラルネットワークは、回路(ハード
ウェア)またはプログラム(ソフトウェア)により実現される。
本明細書等において、ニューラルネットワークとは、生物の神経回路網を模し、学習によ
ってニューロンどうしの結合強度を決定し、問題解決能力を持たせるモデル全般を指す。
ニューラルネットワークは、入力層、中間層(隠れ層)、及び出力層を有する。
本明細書等において、ニューラルネットワークについて述べる際に、既にある情報からニ
ューロンとニューロンの結合強度(重み係数ともいう)を決定することを「学習」と呼ぶ
場合がある。
また、本明細書等において、学習によって得られた結合強度を用いてニューラルネットワ
ークを構成し、そこから新たな結論を導くことを「推論」と呼ぶ場合がある。
ニューラルネットワークは、膨大な数の積和演算によって実行される。これらの演算処理
は、デジタル回路及びアナログ回路の一方または双方を用いて行うことができる。デジタ
ル回路を用いる場合、必要となるトランジスタ数が膨大になり、非効率的で消費電力が高
い。そのため、上述の積和演算はアナログ積和演算回路(以下、APS(Analog
Product-Sum circuit)と呼ぶ)で行うことが好ましい。また、AP
Sはアナログメモリを有することが好ましい。学習で得られた重み係数を上記アナログメ
モリに格納することで、APSは、アナログデータのまま積和演算を実行することができ
る。その結果、APSは少ないトランジスタで効率的にニューラルネットワークを構築す
ることができる。
なお、本明細書等においてアナログメモリはアナログデータを格納することが可能な記憶
装置のことを指す。また、本明細書においてアナログデータとは、3ビット(8値)以上
の分解能を有するデータのことを指す。多値データのことをアナログデータと呼ぶ場合も
ある。
上記アナログメモリとして、多値のフラッシュメモリ、ReRAM(Resistive
Random Access Memory)、MRAM(Magnetoresis
tive Random Access Memory)またはOSトランジスタを用い
たメモリ(以下、OSメモリ)を用いることができる。
また、本明細書等において、チャネル形成領域に酸化物半導体または金属酸化物を用いた
トランジスタをOxide Semiconductorトランジスタ、あるいはOSト
ランジスタと呼ぶ。OSトランジスタのチャネル形成領域は、金属酸化物を有することが
好ましい。
また、本明細書等において、金属酸化物(metal oxide)とは、広い表現での
金属の酸化物である。金属酸化物は、酸化物絶縁体、酸化物導電体(透明酸化物導電体を
含む)、酸化物半導体(Oxide Semiconductorまたは単にOSともい
う)などに分類される。例えば、トランジスタの半導体層に金属酸化物を用いた場合、当
該金属酸化物を酸化物半導体と呼称する場合がある。つまり、金属酸化物が増幅作用、整
流作用、及びスイッチング作用の少なくとも1つを有する場合、当該金属酸化物を、金属
酸化物半導体(metal oxide semiconductor)、略してOSと
呼ぶことができる。
チャネル形成領域が有する金属酸化物はインジウム(In)を含むことが好ましい。チャ
ネル形成領域が有する金属酸化物がインジウムを含む金属酸化物の場合、OSトランジス
タのキャリア移動度(電子移動度)が高くなる。また、チャネル形成領域が有する金属酸
化物は、元素Mを含む酸化物半導体であると好ましい。元素Mは、好ましくは、アルミニ
ウム(Al)、ガリウム(Ga)またはスズ(Sn)などとする。そのほかの元素Mに適
用可能な元素としては、ホウ素(B)、シリコン(Si)、チタン(Ti)、鉄(Fe)
、ニッケル(Ni)、ゲルマニウム(Ge)、イットリウム(Y)、ジルコニウム(Zr
)、モリブデン(Mo)、ランタン(La)、セリウム(Ce)、ネオジム(Nd)、ハ
フニウム(Hf)、タンタル(Ta)、タングステン(W)などがある。ただし、元素M
として、前述の元素を複数組み合わせても構わない場合がある。元素Mは、例えば、酸素
との結合エネルギーが高い元素である。例えば、酸素との結合エネルギーがインジウムよ
りも高い元素である。また、チャネル形成領域が有する金属酸化物は、亜鉛(Zn)を含
む金属酸化物であると好ましい。亜鉛を含む金属酸化物は結晶化しやすくなる場合がある
チャネル形成領域が有する金属酸化物は、インジウムを含む金属酸化物に限定されない。
半導体層は、例えば、亜鉛スズ酸化物、ガリウムスズ酸化物などの、インジウムを含まず
、亜鉛を含む金属酸化物、ガリウムを含む金属酸化物、スズを含む金属酸化物などであっ
ても構わない。
<1.知的財産情報検索システム>
本実施の形態では、情報検索システムの一例として、知的財産情報検索システムについて
説明する。知的財産情報検索システムは、知的財産情報の検索に用いることができる。な
お、本実施の形態の知的財産情報検索システムは、参照用のデータを変えることで、様々
な情報の検索システムに応用できる。
<1-1.知的財産情報検索システムの概要>
図1に、知的財産情報検索システム100のブロック図を示す。知的財産情報検索システ
ム100は、少なくとも、処理部103を有する。図1に示す知的財産情報検索システム
100は、さらに、入力部101、伝送路102、記憶部105、データベース107、
及び出力部109を有する。
[入力部101]
入力部101には、知的財産情報検索システム100の外部から情報が供給される。入力
部101に供給された情報は、伝送路102を介して、処理部103、記憶部105、ま
たはデータベース107に供給される。
[伝送路102]
伝送路102は、情報を伝達する機能を有する。入力部101、処理部103、記憶部1
05、データベース107、及び出力部109の間の情報の送受信は、伝送路102を介
して行うことができる。
[処理部103]
処理部103は、入力部101、記憶部105、データベース107などから供給された
情報を用いて、演算、推論などを行う機能を有する。処理部103は、演算結果、推論結
果などを、記憶部105、データベース107、出力部109などに供給することができ
る。
処理部103には、チャネル形成領域に金属酸化物を有するトランジスタを用いることが
好ましい。当該トランジスタはオフ電流が極めて低いため、当該トランジスタを記憶素子
として機能する容量素子に流入した電荷(データ)を保持するためのスイッチとして用い
ることで、データの保持期間を長期にわたり確保することができる。この特性を、処理部
103が有するレジスタ及びキャッシュメモリのうち少なくとも一方に用いることで、必
要なときだけ処理部103を動作させ、他の場合には直前の処理の情報を当該記憶素子に
待避させることにより処理部103をオフにすることができる。すなわち、ノーマリーオ
フコンピューティングが可能となり、知的財産情報検索システムの低消費電力化を図るこ
とができる。
処理部103は、例えば、演算回路、または中央演算装置(CPU:Central P
rocessing Unit)等を有する。
処理部103は、DSP(Digital Signal Processor)、GP
U(Graphics Processing Unit)等のマイクロプロセッサを有
していてもよい。マイクロプロセッサは、FPGA(Field Programmab
le Gate Array)、FPAA(Field Programmable A
nalog Array)等のPLD(Programmable Logic Dev
ice)によって実現された構成であってもよい。処理部103は、プロセッサにより種
々のプログラムからの命令を解釈し実行することで、各種のデータ処理及びプログラム制
御を行うことができる。プロセッサにより実行しうるプログラムは、プロセッサが有する
メモリ領域及び記憶部105のうち少なくとも一方に格納される。
処理部103はメインメモリを有していてもよい。メインメモリは、RAM(Rando
m Access Memory)等の揮発性メモリ、及びROM(Read Only
Memory)等の不揮発性メモリのうち少なくとも一方を有する。
RAMとしては、例えばDRAM(Dynamic Random Access Me
mory)、SRAM(Static Random Access Memory)等
が用いられ、処理部103の作業空間として仮想的にメモリ空間が割り当てられ利用され
る。記憶部105に格納されたオペレーティングシステム、アプリケーションプログラム
、プログラムモジュール、プログラムデータ、及びルックアップテーブル等は、実行のた
めにRAMにロードされる。RAMにロードされたこれらのデータ、プログラム、及びプ
ログラムモジュールは、それぞれ、処理部103に直接アクセスされ、操作される。
ROMには、書き換えを必要としない、BIOS(Basic Input/Outpu
t System)及びファームウェア等を格納することができる。ROMとしては、マ
スクROM、OTPROM(One Time Programmable Read
Only Memory)、EPROM(Erasable Programmable
Read Only Memory)等が挙げられる。EPROMとしては、紫外線照
射により記憶データの消去を可能とするUV-EPROM(Ultra-Violet
Erasable Programmable Read Only Memory)、
EEPROM(Electrically Erasable Programmabl
e Read Only Memory)、フラッシュメモリ等が挙げられる。
[記憶部105]
記憶部105は、処理部103が実行するプログラムを記憶する機能を有する。また、記
憶部105は、処理部103が生成した演算結果及び推論結果、並びに、入力部101に
入力された情報などを記憶する機能を有していてもよい。
記憶部105は、揮発性メモリ及び不揮発性メモリのうち少なくとも一方を有する。記憶
部105は、例えば、DRAM、SRAMなどの揮発性メモリを有していてもよい。記憶
部105は、例えば、ReRAM(Resistive Random Access
Memory、抵抗変化型メモリともいう)、PRAM(Phase change R
andom Access Memory)、FeRAM(Ferroelectric
Random Access Memory)、MRAM(Magnetoresis
tive Random Access Memory、磁気抵抗型メモリともいう)、
またはフラッシュメモリなどの不揮発性メモリを有していてもよい。また、記憶部105
は、ハードディスクドライブ(Hard Disc Drive:HDD)及びソリッド
ステートドライブ(Solid State Drive:SSD)等の記録メディアド
ライブを有していてもよい。
[データベース107]
データベース107は、参照用解析データを記憶する機能を有する。また、データベース
107は、処理部103が生成した演算結果及び推論結果、並びに、入力部101に入力
された情報などを記憶する機能を有していてもよい。なお、記憶部105及びデータベー
ス107は互いに分離されていなくてもよい。例えば、知的財産情報検索システムは、記
憶部105及びデータベース107の双方の機能を有する記憶ユニットを有していてもよ
い。
[出力部109]
出力部109は、知的財産情報検索システム100の外部に情報を供給する機能を有する
。例えば、処理部103における演算結果または推論結果などを外部に供給することがで
きる。
<1-2.知的財産情報検索方法の概要>
図2に、知的財産情報検索システム100を用いた知的財産情報検索方法のフローチャー
トを示す。
本実施の形態の知的財産情報検索方法では、事前に準備された複数の知的財産の情報を検
索の対象として、入力された知的財産の情報に類似する知的財産の情報を検索することが
できる。
[ステップS1]
まず、処理部103に、データDと、参照用解析データADrefと、を入力する。
データDは、知的財産情報検索システム100の外部から入力部101に入力される。そ
して、データDは、入力部101から、伝送路102を介して、処理部103に供給され
る。または、データDは、伝送路102を介して、記憶部105またはデータベース10
7に保存され、記憶部105またはデータベース107から、伝送路102を介して、処
理部103に供給されてもよい。
参照用解析データADrefは、記憶部105またはデータベース107から、伝送路1
02を介して、処理部103に供給される。
データDは、第1の知的財産の情報を有し、参照用解析データADrefは、複数の知的
財産の情報を有する。データD及び参照用解析データADrefは、文章データ及び画像
データのうち一方または双方を有する。
ここで、知的財産の情報としては、知的財産を説明する文章及び図面が挙げられ、具体的
には、特許文献(公開特許公報、特許公報など)、実用新案公報、意匠公報、及び論文な
どの刊行物が挙げられる。国内で発行された刊行物に限られず、世界各国で発行された刊
行物を、知的財産の情報として用いることができる。これらは、データD及び参照用解析
データADrefのいずれにも好適である。
特許文献に含まれる明細書、特許請求の範囲、要約書、及び図面は、それぞれ、一部また
は全部をデータDまたは参照用解析データADrefとして用いることができる。例えば
、特定の発明を実施するための形態、実施例、請求項、または図面を、データDまたは参
照用解析データADrefとして用いてもよい。同様に、論文など他の刊行物に含まれる
文章及び図面についても、一部または全部をデータDまたは参照用解析データADref
として用いることができる。
知的財産の情報は、刊行物に限られない。例えば、知的財産情報検索システムの使用者ま
たは使用団体が独自に有する文書ファイル及び画像ファイルなどの各種ファイルも、デー
タDまたは参照用解析データADrefとして用いることができる。
さらに、知的財産の情報としては、発明、考案または意匠を説明する文章及び図面、工業
製品の情報などが挙げられる。これらは、データD及び参照用解析データADrefのい
ずれにも好適である。
データDは、例えば、出願前の発明、考案または意匠を説明する文章及び図面、技術的思
想、技術情報、及び発売前の工業製品の情報などを有することができる。
参照用解析データADrefは、例えば、特定の出願人の特許文献、または特定の技術分
野の特許文献を有することができる。
データD及び参照用解析データADrefは、さらに、知的財産自体だけでなく、当該知
的財産に関係する様々な情報(例えば、書誌情報など)を有することができる。例えば、
知的財産が特許文献であれば、出願人、技術分野、出願番号、公開番号、ステータス(係
属中、登録済、取り下げ済など)、などが挙げられる。
データD及び参照用解析データADrefは、知的財産に係る日付情報を有することが好
ましい。日付情報としては、例えば、知的財産が特許文献であれば、出願日、公開日、登
録日などが挙げられ、知的財産が工業製品の情報であれば、発売日などが挙げられる。
このように、データD及び参照用解析データADrefが知的財産に関係する様々な情報
を有することで、知的財産情報検索システムを用いて、様々な検索範囲を選択することが
できる。
例えば、本実施の形態の知的財産情報検索システムを用いて、出願前の発明と類似する特
許文献、論文、または工業製品を検索することができる。これにより、出願前の発明に係
る先行技術調査をすることができる。関連する先行技術を把握し再検討することで、発明
を強化し、他社が回避困難な強い特許になる発明とすることができる。
また、例えば、本実施の形態の知的財産情報検索システムを用いて、発売前の工業製品と
類似する特許文献、論文、または工業製品を検索することができる。参照用解析データA
refが自社の特許文献を有する場合、発売前の工業製品に係る技術が社内で十分に特
許出願できているかを確認することができる。または、参照用解析データADrefが他
社の知的財産の情報を有する場合、発売前の工業製品が他社の知的財産権を侵害していな
いかを確認することができる。関連する先行技術を把握し再検討することで、新たな発明
を発掘し、自社の事業に貢献する強い特許になる発明とすることができる。なお、発売前
の工業製品に限らず、発売後の工業製品について、検索してもよい。
また、例えば、本実施の形態の知的財産情報検索システムを用いて、特定の特許と類似す
る特許文献、論文、または工業製品を検索することができる。特に、当該特許の出願日を
基準に調べることで、当該特許が無効理由を含まないか、簡便かつ高い精度で調査するこ
とができる。
[ステップS2]
次に、処理部103で、参照用解析データADrefの中から、データDと類似するデー
タを検索し、解析データADを生成する。
解析データADは、第1の知的財産の情報と類似する第2の知的財産の情報と、第2の知
的財産の情報の第1の知的財産の情報に対する類似性の高さを示す情報と、を有する。第
2の知的財産の情報は、検索により参照用解析データADrefから得られた、第1の知
的財産の情報と類似する知的財産の情報である。
解析データADの具体的な生成方法については、後述する。
[ステップS3]
次に、処理部103から、解析データADを出力する。解析データADは、伝送路102
を介して、出力部109に供給される。または、解析データADは、伝送路102を介し
て、記憶部105またはデータベース107に保存され、記憶部105またはデータベー
ス107から、伝送路102を介して、出力部109に供給されてもよい。
以上により、知的財産情報を検索することができる。
<2.解析>
次に、解析データADの具体的な生成方法について、説明する。まず、文章の解析と、画
像の解析と、について、それぞれ説明する。次に、文章及び画像の双方を解析して、解析
データADを生成する場合について説明する。次に、1つの知的財産の情報について、2
種類以上の知的財産の情報を検索して、解析データADを生成する場合について説明する
<2-1.文章の解析>
本発明の一態様の知的財産情報検索システムは、テキストマイニングを行うことができる
。そのため、知的財産情報検索システムの使用者は、検索に用いるキーワードもしくはフ
レーズを選択する必要がなく、分量のより多い文章データ(テキストデータ)をそのまま
知的財産情報検索システムに入力することができる。検索における適切なキーワードの選
択が不要となるため、検索精度の個人差を低減することができ、精度の高い情報検索が実
現できる。
テキストマイニングでは、まず、自然言語処理を用いて、文章データを分割する。例えば
、形態素解析を行い、名詞を抽出することができる。さらに、構文解析、意味解析、文脈
解析等を行ってもよい。
その他、自然言語処理としては、N-gram処理、TF-IDF(Term Freq
uency Inverse Document Frequency)処理などを行う
ことができる。
次に、データマイニング処理を行い、解析する。例えば、アソシエーション分析、クラス
ター分析等が挙げられる。データマイニング処理には、上記ニューラルネットワークを用
いることができる。文章データのような可変長のデータを扱うことができるため、再帰型
ニューラルネットワーク(recurrent neural network:RNN
)が好適である。また、Long Short-Term Memory(LSTM)な
ども好適である。
なお、日本語の文章だけでなく、様々な言語(例えば、英語、中国語、韓国語など)の文
章の解析を行うことができる。文章の解析方法は、言語に応じて様々な方法を適用できる
以下では、図3~図7を用いて、知的財産情報検索システム100で、文章を用いて検索
する場合について説明する。図3(A)、(B)に、文章を用いて検索できる処理部10
3の構成を示す。図4に、参照用解析データを生成する処理のフローチャートを示し、図
5に、図4に示す各ステップの模式図を示す。図6に、解析データを生成する処理のフロ
ーチャートを示し、図7に、図6に示す各ステップの模式図を示す。
まず、図3(A)、図4、及び図5を用いて、参照用解析データを生成する処理について
説明する。この処理を事前に行い、参照用解析データを生成しておくことで、知的財産情
報検索システム100を用いて、知的財産情報を検索することができる。
[ステップS11]
まず、第1の文章解析部111に、参照用文章データTDrefを入力し、参照用文章デ
ータTDrefの形態素解析を行うことで、第1の参照用文章解析データTAD1ref
を生成する。
参照用文章データTDrefは、知的財産情報検索システム100において検索対象とな
るデータである。参照用文章データTDrefとして用いるデータは、知的財産情報検索
システム100の用途に応じて適宜選択できる。
参照用文章データTDrefは、例えば、データベース107から、伝送路102を介し
て、処理部103(の第1の文章解析部111)に入力される。
図3(A)では、生成した第1の参照用文章解析データTAD1refを処理部103の
外部に出力する例を示す。例えば、第1の文章解析部111は、記憶部105またはデー
タベース107に、第1の参照用文章解析データTAD1refを出力することができる
。または、第1の文章解析部111から、直接、第2の文章解析部112に、第1の参照
用文章解析データTAD1refを供給してもよい。
図5(A)に示すように、参照用文章データTDrefは、複数の文章データを有する。
図5(A)では、n個(nは、2以上の整数)の文章データを図示し、それぞれ、データ
TDref(x)(xは、1以上n以下の整数)と記す。
第1の文章解析部111は、n個の文章データそれぞれの形態素解析を行い、n個の参照
用文章解析データ(それぞれ、データTAD1ref(x)(xは、1以上n以下の整数
)と記す)を生成する。例えば、データTDref(n)の形態素解析を行うことで、デ
ータTAD1ref(n)を生成する。
図5(A)に示す例では、入力するデータTDref(1)は長い文を含み、出力された
データTAD1ref(1)では、当該文が複数の単語に分けられている。
[ステップS12]
次に、第2の文章解析部112に、第1の参照用文章解析データTAD1refを入力し
、参照用文章データTDrefに含まれる単語の出現頻度を求めることで、第2の参照用
文章解析データTAD2refを生成する。そして、第2の参照用文章解析データTAD
refを出力する。
第2の文章解析部112は、ニューラルネットワークNNを用いた処理を行うことが好ま
しい。これにより、検索精度を高めることができる。
図3(A)では、生成した第2の参照用文章解析データTAD2refを処理部103の
外部に出力する例を示す。例えば、第2の文章解析部112は、記憶部105またはデー
タベース107に、第2の参照用文章解析データTAD2refを出力することができる
。または、第2の文章解析部112から、直接、第3の文章解析部113に、第2の参照
用文章解析データTAD2refを供給してもよい。
図3(A)及び図5(B)に示すように、第2の文章解析部112には、第1の参照用文
章解析データTAD1refだけでなく、参照用文章データTDrefも入力することが
できる。また、第1の参照用文章解析データTAD1refに含まれる単語をベクトル化
して用いてもよい。このように、第2の文章解析部112で行う処理に応じたデータを、
第2の文章解析部112に入力すればよい。
第2の文章解析部112には、辞書データが入力されてもよい。辞書データには、例えば
、第2の文章解析部112で出願頻度を求める単語、及び出現頻度を求めない単語のうち
一方または双方の情報が含まれる。これにより、ノイズの除去、及び検索精度の向上を図
ることができる。
第2の文章解析部112では、n個の文章データそれぞれに含まれる単語の出現頻度を求
め、n個の参照用文章解析データを生成する。例えば、データTAD1ref(n)を用
いて、データTDref(n)に含まれる単語の出現頻度を求めることで、データTAD
ref(n)を生成する。
図5(B)に示す例では、データTAD2ref(1)から、データTDref(1)に
一番多く含まれる単語は、「AAA」であり、二番目に多く含まれる単語は、「BBB」
であることがわかる。また、データTAD2ref(2)から、データTDref(2)
に一番多く含まれる単語は、「CCC」であり、二番目に多く含まれる単語は、「DDD
」であることがわかる。図5(B)では、出願頻度の高い順に単語を並べる例を示すが、
これに限られない。
以上により、参照用解析データを生成することができる。
次に、図3(B)、図6、及び図7を用いて、解析データを生成する処理について説明す
る。事前に生成された参照用解析データを用いることで、知的財産情報を検索することが
できる。
[ステップS21]
まず、第1の文章解析部111に、文章データTDを入力し、文章データTDの形態素解
析を行うことで、第1の文章解析データTAD1を生成する。
文章データTDは、例えば、知的財産情報検索システム100の外部から、入力部101
及び伝送路102を介して、処理部103(の第1の文章解析部111)に入力される。
図3(B)では、生成した第1の文章解析データTAD1を処理部103の外部に出力す
る例を示す。例えば、第1の文章解析部111は、記憶部105またはデータベース10
7に、第1の文章解析データTAD1を出力することができる。または、第1の文章解析
部111から、直接、第2の文章解析部112に、第1の文章解析データTAD1を供給
してもよい。
図7(A)に示すように、第1の文章解析部111で、文章データTDの形態素解析を行
い、第1の文章解析データTAD1を生成する。文章データTDに含まれる長い文章は、
第1の文章解析データTAD1では、複数の単語に分けられている。
[ステップS22]
次に、第2の文章解析部112に、第1の文章解析データTAD1を入力し、文章データ
TDに含まれる単語の出現頻度を求めることで、第2の文章解析データTAD2を生成す
る。
第2の文章解析部112は、ニューラルネットワークNNを用いた処理を行うことが好ま
しい。これにより、検索精度を高めることができる。
図3(B)では、生成した第2の文章解析データTAD2を処理部103の外部に出力す
る例を示す。例えば、第2の文章解析部112は、記憶部105またはデータベース10
7に、第2の文章解析データTAD2を出力することができる。または、第1の文章解析
部111から、直接、第3の文章解析部113に、第2の文章解析データTAD2を供給
してもよい。
図3(B)及び図7(B)に示すように、第2の文章解析部112には、第1の文章解析
データTAD1だけでなく、文章データTDも入力することができる。また、第1の文章
解析データTAD1に含まれる単語をベクトル化して用いてもよい。このように、第2の
文章解析部112で行う処理に応じたデータを、第2の文章解析部112に入力すればよ
い。
第2の文章解析部112には、辞書データが入力されてもよい。辞書データには、例えば
、第2の文章解析部112で出願頻度を求める単語、及び出現頻度を求めない単語のうち
一方または双方の情報が含まれる。これにより、ノイズの除去、及び検索精度の向上を図
ることができる。
第2の文章解析部112では、第1の文章解析データTAD1を用いて、文章データTD
に含まれる単語の出現頻度を求めることで、第2の文章解析データTAD2を生成する。
図7(B)に示すように、第2の文章解析データTAD2から、文章データTDに一番多
く含まれる単語は、「CCC」であり、二番目に多く含まれる単語は、「BBB」である
ことがわかる。図7(B)では、出願頻度の高い順に単語を並べる例を示すが、これに限
られない。
[ステップS23]
次に、第3の文章解析部113に、第2の文章解析データTAD2と、第2の参照用文章
解析データTAD2refと、を入力し、第2の文章解析データTAD2と、第2の参照
用文章解析データTAD2refと、を比較することで、第3の文章解析データTAD3
を生成する。そして、第3の文章解析データTAD3を出力する。
図3(B)では、生成した第3の文章解析データTAD3を処理部103の外部に出力す
る例を示す。例えば、第3の文章解析部113は、記憶部105またはデータベース10
7に、第3の文章解析データTAD3を出力することができる。
第3の文章解析部113では、第2の参照用文章解析データTAD2refが有するn個
のデータの中から、第2の文章解析データTAD2と類似するデータを検索する。
第3の文章解析部113では、n個のデータそれぞれの、第2の文章解析データTAD2
に対する類似性の高さを示す情報を求めることができる。例えば、当該情報を用いて、図
7(C)に示すように、類似性の高い順にデータを並べることができる。また、当該情報
を用いて、類似性の高さが所定の値以上のデータのみを出力することができる。
図7(C)に示す例では、第3の文章解析データTAD3から、第2の参照用文章解析デ
ータTAD2refが有するn個のデータのうち、第2の文章解析データTAD2と最も
類似しているデータは、データTAD2ref(2)であり、二番目に類似しているデー
タは、データTAD2ref(1)であるとわかる。
第3の文章解析データTAD3は、処理部103から出力される解析データADの一部ま
たは全部といえる。なお、さらに第3の文章解析データTAD3と別のデータとを組み合
わせることで、解析データADを生成してもよい。
以上により、知的財産情報検索システム100を用いて、文章データTDに類似するデー
タを検索することができる。上記の例では、データTDref(2)が、文章データTD
と最も類似するデータであるとわかる。
<2-2.画像の解析>
本発明の一態様の知的財産情報検索システムは、画像認識を行うことができる。そのため
、知的財産情報検索システムの使用者は、検索のためにキーワードや文章などを用意する
必要がなく、画像データをそのままシステムに入力することで、所望の情報を得ることが
できる。
画像を用いた検索には、畳み込みニューラルネットワーク(Convolutional
Neural Network:CNN)が好適である。特に、CNNを用いたディー
プラーニングを利用することが好ましい。
以下では、図8~図12を用いて、知的財産情報検索システム100で、画像を用いて検
索する場合について説明する。図8(A)、(B)に、画像を用いて検索できる処理部1
03の構成を示す。図9に、参照用解析データを生成する処理のフローチャートを示し、
図10に、図9に示す各ステップの模式図を示す。図11に、解析データを生成する処理
のフローチャートを示し、図12に、図11に示す各ステップの模式図を示す。
まず、図8(A)、図9、及び図10を用いて、参照用解析データを生成する処理につい
て説明する。この処理を事前に行い、参照用解析データを生成しておくことで、知的財産
情報検索システム100を用いて、知的財産情報を検索することができる。
[ステップS31]
まず、第1の画像解析部121に、参照用画像データIDrefを入力し、機械学習を行
うことにより、学習モデルLMを最適化する。
参照用画像データIDrefは、知的財産情報検索システム100において検索対象とな
るデータである。参照用画像データIDrefとして用いるデータは、知的財産情報検索
システム100の用途に応じて適宜選択できる。
参照用画像データIDrefは、例えば、データベース107から、伝送路102を介し
て、処理部103(の第1の画像解析部121)に入力される。
第1の画像解析部121は、ニューラルネットワークNNを用いた処理を行うことが好ま
しい。これにより、検索精度を高めることができる。参照用画像データIDrefを用い
た機械学習により、重み係数を決定することができる。
機械学習としては、教師あり学習と教師なし学習のどちらを行ってもよい。教師なし学習
を用いると、教師データが不要であるため、好ましい。
図10に示すように、参照用画像データIDrefは、複数の画像データを有する。図1
0では、n個(nは、2以上の整数)の画像データを図示し、それぞれ、データIDre
(x)(xは、1以上n以下の整数)と記す。例えば、データIDref(1)は、積
層体の断面図のデータである。
第1の画像解析部121は、n個の画像データを用いた機械学習により、学習モデルLM
を最適化する。
[ステップS32]
次に、最適化された学習モデルLMに、参照用画像データIDrefを入力し、参照用画
像解析データIADrefを生成する。そして、参照用画像解析データIADrefを出
力する。
図8(A)では、生成した参照用画像解析データIADrefを処理部103の外部に出
力する例を示す。例えば、第1の画像解析部121は、記憶部105またはデータベース
107に、参照用画像解析データIADrefを出力することができる。または、第1の
画像解析部121から、直接、第2の画像解析部122に、参照用画像解析データIAD
refを供給してもよい。
図10では、第1の画像解析部121で、クラスタリング(クラスター分析ともいう)を
行う例を示し、参照用画像解析データIADrefとしてクラスタリング結果を示す。参
照用画像解析データIADrefには、データIDref(1)からデータIDref
n)に対応するn個の座標情報が含まれる。
以上により、参照用解析データを生成することができる。
次に、図8(B)、図11、及び図12を用いて、解析データを生成する処理について説
明する。事前に生成された参照用解析データを用いることで、所望の知的財産情報を検索
することができる。
[ステップS41]
まず、学習モデルLMに画像データIDを入力することで、第1の画像解析データIAD
1を生成する。
画像データIDは、例えば、知的財産情報検索システム100の外部から、入力部101
及び伝送路102を介して、処理部103(の第1の画像解析部121)に入力される。
図8(B)では、生成した第1の画像解析データIAD1を処理部103の外部に出力す
る例を示す。例えば、第1の画像解析部121は、記憶部105またはデータベース10
7に、第1の画像解析データIAD1を出力することができる。または、第1の画像解析
部121から、直接、第2の画像解析部122に、第1の画像解析データIAD1を供給
してもよい。
第1の画像解析部121は、ニューラルネットワークNNを用いた処理を行うことが好ま
しい。これにより、検索精度を高めることができる。参照用画像データIDrefを用い
た機械学習により最適化された学習モデルLMに、画像データIDを入力することで、第
1の画像解析データIAD1を生成することができる。
図12(A)に示す画像データIDは、積層体の断面図のデータであり、データIDre
(1)の積層体とは、最上層を有さない点で異なる。
図12(A)では、第1の画像解析部121で、クラスタリングを行う例を示す。第1の
画像解析データIAD1には、画像データIDに対応する座標情報が含まれる。
[ステップS42]
次に、第2の画像解析部122に、第1の画像解析データIAD1と、参照用画像解析デ
ータIADrefと、を入力し、第1の画像解析データIAD1と、参照用画像解析デー
タIADrefと、を用いて、第2の画像解析データIAD2を生成する。そして、第2
の画像解析データIAD2を出力する。
図8(B)では、生成した第2の画像解析データIAD2を処理部103の外部に出力す
る例を示す。例えば、第2の画像解析部122は、記憶部105またはデータベース10
7に、第2の画像解析データIAD2を出力することができる。
第2の画像解析部122では、参照用画像解析データIADrefが有するn個のデータ
の中から、第1の画像解析データIAD1と類似するデータを検索する。
図12(B)に示すように、第2の画像解析部122では、第1の画像解析データIAD
1が有する、画像データIDに対応する座標情報と、参照用画像解析データIADref
が有する、データIDref(1)からデータIDref(n)に対応するn個の座標情
報と、を用いる。例えば、n個の座標のうち、画像データIDの座標からの距離が近い座
標ほど、類似性が高いデータの座標であるとみなすことができる。
第2の画像解析部122では、n個のデータそれぞれの、第1の画像解析データIAD1
に対する類似性の高さを示す情報を求めることができる。例えば、当該情報を用いて、図
12(B)に示すように、類似性の高い順にデータを並べることができる。また、当該情
報を用いて、類似性の高さが所定の値以上のデータのみを出力することができる。
図12(B)に示す例では、第2の画像解析データIAD2から、参照用画像解析データ
IADrefが有するn個のデータのうち、第1の画像解析データIAD1と最も類似し
ているデータは、データIDref(1)であり、二番目に類似しているデータは、デー
タIDref(n)であるとわかる。
第2の画像解析データIAD2は、処理部103から出力される解析データADの一部ま
たは全部といえる。なお、さらに第2の画像解析データIAD2と別のデータとを組み合
わせることで、解析データADを生成してもよい。
以上により、知的財産情報検索システム100を用いて、画像データIDに類似するデー
タを検索することができる。上記の例では、データIDref(1)が、画像データID
と最も類似するデータであるとわかる。
<2-3.文章及び画像の解析>
図13~図15を用いて、知的財産情報検索システム100で、文章及び画像の双方を用
いて検索する場合について説明する。図13に、文章及び画像の双方を用いて検索できる
処理部103の構成を示す。図14に、解析データを生成する処理のフローチャートを示
し、図15(A)に、ステップS51の模式図を示し、図15(B)に、ステップS53
の模式図を示す。
[ステップS51]
まず、解析部131に、データDを入力し、文章データTDと、画像データIDと、に分
ける。
データDは、例えば、データベース107から、伝送路102を介して、処理部103(
の解析部131)に入力される。
図13では、生成した文章データTD及び画像データIDを処理部103の外部に出力す
る例を示す。例えば、解析部131は、記憶部105またはデータベース107に、文章
データTD及び画像データIDを出力することができる。または、解析部131から、直
接、文章解析部110に、文章データTDを供給してもよい。同様に、解析部131から
、直接、画像解析部120に、画像データIDを供給してもよい。
図15(A)に示すように、文章と画像が含まれた一つのデータDを、文章データTDと
、画像データIDと、に分ける。
[ステップS52a]
次に、文章解析部110に、文章データTDと、参照用文章解析データTADrefと、
を入力し、参照用文章解析データTADrefの中から文章データTDと類似するデータ
を検索して、文章解析データTADを生成する。
文章解析データTADの生成方法は、上記<2-1.文章の解析>を参照できる。文章解
析データTADは、例えば、上記第3の文章解析データTAD3に相当する。
[ステップS52b]
また、画像解析部120に、画像データIDと、参照用画像解析データIADrefと、
を入力し、参照用画像解析データIADrefの中から画像データIDと類似するデータ
を検索して、画像解析データIADを生成する。
画像解析データIADの生成方法は、上記<2-2.画像の解析>を参照できる。画像解
析データIADは、例えば、上記第2の画像解析データIAD2に相当する。
ステップS52aとステップS52bは、どちらを先に行ってもよく、並行して行っても
よい。
[ステップS53]
次に、解析部132に、文章解析データTADと、画像解析データIADと、を入力し、
文章解析データTADと、画像解析データIADと、を用いて、解析データADを生成す
る。そして、解析データADを出力する。
解析部132は、文章解析データTADと、画像解析データIADとを、そのまま解析デ
ータADとして出力することもできる。
また、図15(B)に示すように、文章解析データTADと、画像解析データIADと、
を総合して、データDに類似するデータの順位づけを行い、解析データADを生成しても
よい。
以上により、知的財産情報検索システム100を用いて、文章及び画像の双方を含むデー
タDに類似するデータを検索することができる。これにより、より高い精度で、検索を行
うことができる。
なお、解析部131で、データDを、文章データTDと、画像データIDと、に分け、文
章データTDまたは画像データIDの一方のみを用いて、検索を行ってもよい。
<2-4.2種以上の知的財産情報の検索>
図16及び図17を用いて、知的財産情報検索システム100で、1つの知的財産の情報
について、2種類以上の知的財産の情報を検索する場合について説明する。図16に、1
つの知的財産の情報について、2種類以上の知的財産の情報を検索できる処理部103の
構成を示す。図17に、解析データを生成する処理のフローチャートを示す。
[ステップS61a]
まず、第1の処理部103aに、データDと、第1の参照用解析データAD1refと、
を入力する。
データD及び第1の参照用解析データAD1refは、例えば、データベース107から
、伝送路102を介して、処理部103(の第1の処理部103a)に入力される。
[ステップS62a]
次に、第1の参照用解析データAD1refの中からデータDと類似するデータを検索し
て、第1の解析データAD1を生成する。
[ステップS61b]
また、第2の処理部103bに、データDと、第2の参照用解析データAD2refと、
を入力する。
データD及び第2の参照用解析データAD2refは、例えば、データベース107から
、伝送路102を介して、処理部103(の第2の処理部103b)に入力される。
[ステップS62b]
次に、第2の参照用解析データAD2refの中からデータDと類似するデータを検索し
て、第2の解析データAD2を生成する。
データDが文章データのみを有する場合、第1の解析データAD1及び第2の解析データ
AD2の生成方法は、上記<2-1.文章の解析>を参照できる。データDが画像データ
のみを有する場合、当該生成方法は、上記<2-2.画像の解析>を参照できる。データ
Dが、文章データ及び画像データを有する場合、当該生成方法は、上記<2-3.文章及
び画像の解析>を参照できる。
ステップS61aからステップS62aまでの工程と、ステップS61bからステップS
62bまでの工程は、どちらを先に行ってもよく、並行して行ってもよい。
[ステップS63]
次に、第1の解析データAD1と、第2の解析データAD2と、を用いて、解析データA
Dを生成する。そして、解析データADを出力する。
解析部133は、第1の解析データAD1と、第2の解析データAD2とを、そのまま解
析データADとして出力することもできる。
または、第1の解析データAD1と、第2の解析データAD2と、を総合して、データD
に類似するデータの順位づけを行い、解析データADを生成してもよい。
例えば、第1の参照用解析データAD1refとして、特許文献を用い、第2の参照用解
析データAD2refとして、工業製品の情報を用いることで、データDと類似する特許
文献及び工業製品の情報の双方を検索することができる。
以上により、知的財産情報検索システム100を用いて、1つの知的財産の情報について
、2種類以上の知的財産の情報を検索することができる。
<3.知的財産情報検索システムの例>
次に、図18に示す知的財産情報検索システム150について説明する。
図18に、知的財産情報検索システム150のブロック図を示す。知的財産情報検索シス
テム150は、サーバ151と、端末152(パーソナルコンピュータなど)とを有する
サーバ151は、通信部161a、伝送路162、処理部163a、及びデータベース1
67を有する。図18では図示しないが、さらに、サーバ151は、記憶部、入出力部な
どを有していてもよい。
端末152は、通信部161b、伝送路168、処理部163b、記憶部165、及び入
出力部169を有する。図18では図示しないが、端末152は、さらに、データベース
などを有していてもよい。
知的財産情報検索システム150の使用者は、端末152から、検索したい情報(第1の
情報)を有するデータを、サーバ151に入力する。当該データは、通信部161bから
通信部161aに送信される。
通信部161aが受信したデータは、伝送路162を介して、データベース167または
記憶部(図示しない)に保存される。または、当該データは、通信部161aから、直接
、処理部163aに供給されてもよい。
上記<2.解析>で説明した各種処理は、処理部163aにて行われる。これらの処理は
、高い処理能力が求められるため、サーバ151が有する処理部163aで行うことが好
ましい。
そして、処理部163aにより、解析データが生成される。解析データは、伝送路162
を介して、データベース167または記憶部(図示しない)に保存される。または、解析
データは、処理部163aから、直接、通信部161aに供給されてもよい。その後、サ
ーバ151から、解析データが、端末152に出力される。当該データは、通信部161
aから通信部161bに送信される。
[入出力部169]
入出力部169には、知的財産情報検索システム150の外部から情報が供給される。入
出力部169は、知的財産情報検索システム150の外部に情報を供給する機能を有する
。なお、知的財産情報検索システム100のように、入力部と出力部が分かれていてもよ
い。
[伝送路162及び伝送路168]
伝送路162及び伝送路168は、情報を伝達する機能を有する。通信部161a、処理
部163a、及びデータベース167の間の情報の送受信は、伝送路162を介して行う
ことができる。通信部161b、処理部163b、記憶部165、及び入出力部169の
間の情報の送受信は、伝送路168を介して行うことができる。
[処理部163a及び処理部163b]
処理部163aは、通信部161a及びデータベース167などから供給された情報を用
いて、演算、推論などを行う機能を有する。処理部163bは、通信部161b、記憶部
165、及び入出力部169などから供給された情報を用いて、演算などを行う機能を有
する。処理部163a及び処理部163bは、処理部103の説明を参照できる。特に、
処理部163aは、上記<2.解析>で説明した各種処理を行うことができる。そのため
、処理部163aは、処理部163bに比べて処理能力が高いことが好ましい。
[記憶部165]
記憶部165は、処理部163bが実行するプログラムを記憶する機能を有する。また、
記憶部165は、処理部163bが生成した演算結果、通信部161bに入力された情報
、及び入出力部169に入力された情報などを記憶する機能を有する。
[データベース167]
データベース167は、参照用解析データを記憶する機能を有する。また、データベース
167は、処理部163aが生成した演算結果、及び通信部161aに入力された情報な
どを記憶する機能を有していてもよい。または、サーバ151は、データベース167と
は別に記憶部を有し、当該記憶部が、処理部163aが生成した演算結果、及び通信部1
61aに入力された情報などを記憶する機能を有していてもよい。
[通信部161a及び通信部161b]
通信部161a及び通信部161bを用いて、サーバ151と端末152との間で、情報
の送受信を行うことができる。通信部161a及び通信部161bとしては、ハブ、ルー
タ、モデムなどを用いることができる。情報の送受信には、有線を用いても無線(例えば
、電波、赤外線など)を用いてもよい。
以上のように、本実施の形態の情報検索システムでは、事前に準備された複数の情報を検
索の対象として、入力された情報に類似する情報を検索することができる。検索に用いる
キーワードもしくはフレーズを選択する必要がなく、文章や画像を用いて検索することが
できるため、検索精度の個人差を低減することができ、簡便かつ高精度に、情報を検索で
きる。
本実施の形態は、他の実施の形態と適宜組み合わせることができる。また、本明細書にお
いて、1つの実施の形態の中に、複数の構成例が示される場合は、構成例を適宜組み合わ
せることが可能である。
(実施の形態2)
本実施の形態では、ニューラルネットワークに用いることが可能な半導体装置の構成例に
ついて説明する。
図19(A)に示すように、ニューラルネットワークNNは入力層IL、出力層OL、中
間層(隠れ層)HLによって構成することができる。入力層IL、出力層OL、中間層H
Lはそれぞれ、1又は複数のニューロン(ユニット)を有する。なお、中間層HLは1層
であってもよいし2層以上であってもよい。2層以上の中間層HLを有するニューラルネ
ットワークはDNN(ディープニューラルネットワーク)と呼ぶこともでき、ディープニ
ューラルネットワークを用いた学習は深層学習と呼ぶこともできる。
入力層ILの各ニューロンには入力データが入力され、中間層HLの各ニューロンには前
層又は後層のニューロンの出力信号が入力され、出力層OLの各ニューロンには前層のニ
ューロンの出力信号が入力される。なお、各ニューロンは、前後の層の全てのニューロン
と結合されていてもよいし(全結合)、一部のニューロンと結合されていてもよい。
図19(B)に、ニューロンによる演算の例を示す。ここでは、ニューロンNと、ニュー
ロンNに信号を出力する前層の2つのニューロンを示している。ニューロンNには、前層
のニューロンの出力xと、前層のニューロンの出力xが入力される。そして、ニュー
ロンNにおいて、出力xと重みwの乗算結果(x)と出力xと重みwの乗
算結果(x)の総和x+xが計算された後、必要に応じてバイアスb
が加算され、値a=x+x+bが得られる。そして、値aは活性化関数hに
よって変換され、ニューロンNから出力信号y=h(a)が出力される。
このように、ニューロンによる演算には、前層のニューロンの出力と重みの積を足し合わ
せる演算、すなわち積和演算が含まれる(上記のx+x)。この積和演算は
、プログラムを用いてソフトウェア上で行ってもよいし、ハードウェアによって行われて
もよい。積和演算をハードウェアによって行う場合は、積和演算回路を用いることができ
る。この積和演算回路としては、デジタル回路を用いてもよいし、アナログ回路を用いて
もよい。積和演算回路にアナログ回路を用いる場合、積和演算回路の回路規模の縮小、又
は、メモリへのアクセス回数の減少による処理速度の向上及び消費電力の低減を図ること
ができる。
積和演算回路は、チャネル形成領域にシリコン(単結晶シリコンなど)を含むトランジス
タ(以下、Siトランジスタともいう)によって構成してもよいし、チャネル形成領域に
酸化物半導体を含むトランジスタ(以下、OSトランジスタともいう)によって構成して
もよい。特に、OSトランジスタはオフ電流が極めて小さいため、積和演算回路のメモリ
を構成するトランジスタとして好適である。なお、SiトランジスタとOSトランジスタ
の両方を用いて積和演算回路を構成してもよい。以下、積和演算回路の機能を備えた半導
体装置の構成例について説明する。
<半導体装置の構成例>
図20に、ニューラルネットワークの演算を行う機能を有する半導体装置MACの構成例
を示す。半導体装置MACは、ニューロン間の結合強度(重み)に対応する第1のデータ
と、入力データに対応する第2のデータの積和演算を行う機能を有する。なお、第1のデ
ータ及び第2のデータはそれぞれ、アナログデータ又は多値のデジタルデータ(離散的な
データ)とすることができる。また、半導体装置MACは、積和演算によって得られたデ
ータを活性化関数によって変換する機能を有する。
半導体装置MACは、セルアレイCA、電流源回路CS、カレントミラー回路CM、回路
WDD、回路WLD、回路CLD、オフセット回路OFST、及び活性化関数回路ACT
Vを有する。
セルアレイCAは、複数のメモリセルMC及び複数のメモリセルMCrefを有する。図
20には、セルアレイCAがm行n列(m,nは1以上の整数)のメモリセルMC(MC
[1,1]乃至[m,n])と、m個のメモリセルMCref(MCref[1]乃至[
m])を有する構成例を示している。メモリセルMCは、第1のデータを格納する機能を
有する。また、メモリセルMCrefは、積和演算に用いられる参照データを格納する機
能を有する。なお、参照データはアナログデータ又は多値のデジタルデータとすることが
できる。
メモリセルMC[i,j](iは1以上m以下の整数、jは1以上n以下の整数)は、配
線WL[i]、配線RW[i]、配線WD[j]、及び配線BL[j]と接続されている
。また、メモリセルMCref[i]は、配線WL[i]、配線RW[i]、配線WDr
ef、配線BLrefと接続されている。ここで、メモリセルMC[i,j]と配線BL
[j]間を流れる電流をIMC[i,j]と表記し、メモリセルMCref[i]と配線
BLref間を流れる電流をIMCref[i]と表記する。
メモリセルMC及びメモリセルMCrefの具体的な構成例を、図21に示す。図21に
は代表例としてメモリセルMC[1,1]、[2,1]及びメモリセルMCref[1]
、[2]を示しているが、他のメモリセルMC及びメモリセルMCrefにも同様の構成
を用いることができる。メモリセルMC及びメモリセルMCrefはそれぞれ、トランジ
スタTr11、トランジスタTr12、容量素子C11を有する。ここでは、トランジス
タTr11及びトランジスタTr12がnチャネル型のトランジスタである場合について
説明する。
メモリセルMCにおいて、トランジスタTr11のゲートは配線WLと接続され、ソース
又はドレインの一方はトランジスタTr12のゲート、及び容量素子C11の第1の電極
と接続され、ソース又はドレインの他方は配線WDと接続されている。トランジスタTr
12のソース又はドレインの一方は配線BLと接続され、ソース又はドレインの他方は配
線VRと接続されている。容量素子C11の第2の電極は、配線RWと接続されている。
配線VRは、所定の電位を供給する機能を有する配線である。ここでは一例として、配線
VRから低電源電位(接地電位など)が供給される場合について説明する。
トランジスタTr11のソース又はドレインの一方、トランジスタTr12のゲート、及
び容量素子C11の第1の電極と接続されたノードを、ノードNMとする。また、メモリ
セルMC[1,1]、[2,1]のノードNMを、それぞれノードNM[1,1]、[2
,1]と表記する。
メモリセルMCrefも、メモリセルMCと同様の構成を有する。ただし、メモリセルM
Crefは配線WDの代わりに配線WDrefと接続され、配線BLの代わりに配線BL
refと接続されている。また、メモリセルMCref[1]、[2]において、トラン
ジスタTr11のソース又はドレインの一方、トランジスタTr12のゲート、及び容量
素子C11の第1の電極と接続されたノードを、それぞれノードNMref[1]、[2
]と表記する。
ノードNMとノードNMrefはそれぞれ、メモリセルMCとメモリセルMCrefの保
持ノードとして機能する。ノードNMには第1のデータが保持され、ノードNMrefに
は参照データが保持される。また、配線BL[1]からメモリセルMC[1,1]、[2
,1]のトランジスタTr12には、それぞれ電流IMC[1,1]、IMC[2,1]
が流れる。また、配線BLrefからメモリセルMCref[1]、[2]のトランジス
タTr12には、それぞれ電流IMCref[1]、IMCref[2]が流れる。
トランジスタTr11は、ノードNM又はノードNMrefの電位を保持する機能を有す
るため、トランジスタTr11のオフ電流は小さいことが好ましい。そのため、トランジ
スタTr11としてオフ電流が極めて小さいOSトランジスタを用いることが好ましい。
これにより、ノードNM又はノードNMrefの電位の変動を抑えることができ、演算精
度の向上を図ることができる。また、ノードNM又はノードNMrefの電位をリフレッ
シュする動作の頻度を低く抑えることが可能となり、消費電力を削減することができる。
トランジスタTr12は特に限定されず、例えばSiトランジスタ又はOSトランジスタ
などを用いることができる。トランジスタTr12にOSトランジスタを用いる場合、ト
ランジスタTr11と同じ製造装置を用いて、トランジスタTr12を作製することが可
能となり、製造コストを抑制することができる。なお、トランジスタTr12はnチャネ
ル型であってもpチャネル型であってもよい。
電流源回路CSは、配線BL[1]乃至[n]及び配線BLrefと接続されている。電
流源回路CSは、配線BL[1]乃至[n]及び配線BLrefに電流を供給する機能を
有する。なお、配線BL[1]乃至[n]に供給される電流値と配線BLrefに供給さ
れる電流値は異なっていてもよい。ここでは、電流源回路CSから配線BL[1]乃至[
n]に供給される電流をI、電流源回路CSから配線BLrefに供給される電流をI
Crefと表記する。
カレントミラー回路CMは、配線IL[1]乃至[n]及び配線ILrefを有する。配
線IL[1]乃至[n]はそれぞれ配線BL[1]乃至[n]と接続され、配線ILre
fは、配線BLrefと接続されている。ここでは、配線IL[1]乃至[n]と配線B
L[1]乃至[n]の接続箇所をノードNP[1]乃至[n]と表記する。また、配線I
Lrefと配線BLrefの接続箇所をノードNPrefと表記する。
カレントミラー回路CMは、ノードNPrefの電位に応じた電流ICMを配線ILre
fに流す機能と、この電流ICMを配線IL[1]乃至[n]にも流す機能を有する。図
20には、配線BLrefから配線ILrefに電流ICMが排出され、配線BL[1]
乃至[n]から配線IL[1]乃至[n]に電流ICMが排出される例を示している。ま
た、カレントミラー回路CMから配線BL[1]乃至[n]を介してセルアレイCAに流
れる電流を、I[1]乃至[n]と表記する。また、カレントミラー回路CMから配線
BLrefを介してセルアレイCAに流れる電流を、IBrefと表記する。
回路WDDは、配線WD[1]乃至[n]及び配線WDrefと接続されている。回路W
DDは、メモリセルMCに格納される第1のデータに対応する電位を、配線WD[1]乃
至[n]に供給する機能を有する。また、回路WDDは、メモリセルMCrefに格納さ
れる参照データに対応する電位を、配線WDrefに供給する機能を有する。回路WLD
は、配線WL[1]乃至[m]と接続されている。回路WLDは、データの書き込みを行
うメモリセルMC又はメモリセルMCrefを選択するための信号を、配線WL[1]乃
至[m]に供給する機能を有する。回路CLDは、配線RW[1]乃至[m]と接続され
ている。回路CLDは、第2のデータに対応する電位を、配線RW[1]乃至[m]に供
給する機能を有する。
オフセット回路OFSTは、配線BL[1]乃至[n]及び配線OL[1]乃至[n]と
接続されている。オフセット回路OFSTは、配線BL[1]乃至[n]からオフセット
回路OFSTに流れる電流量、及び/又は、配線BL[1]乃至[n]からオフセット回
路OFSTに流れる電流の変化量を検出する機能を有する。また、オフセット回路OFS
Tは、検出結果を配線OL[1]乃至[n]に出力する機能を有する。なお、オフセット
回路OFSTは、検出結果に対応する電流を配線OLに出力してもよいし、検出結果に対
応する電流を電圧に変換して配線OLに出力してもよい。セルアレイCAとオフセット回
路OFSTの間を流れる電流を、Iα[1]乃至[n]と表記する。
オフセット回路OFSTの構成例を図22に示す。図22に示すオフセット回路OFST
は、回路OC[1]乃至[n]を有する。また、回路OC[1]乃至[n]はそれぞれ、
トランジスタTr21、トランジスタTr22、トランジスタTr23、容量素子C21
、及び抵抗素子R1を有する。各素子の接続関係は図22に示す通りである。なお、容量
素子C21の第1の電極及び抵抗素子R1の第1の端子と接続されたノードを、ノードN
aとする。また、容量素子C21の第2の電極、トランジスタTr21のソース又はドレ
インの一方、及びトランジスタTr22のゲートと接続されたノードを、ノードNbとす
る。
配線VrefLは電位Vrefを供給する機能を有し、配線VaLは電位Vaを供給する
機能を有し、配線VbLは電位Vbを供給する機能を有する。また、配線VDDLは電位
VDDを供給する機能を有し、配線VSSLは電位VSSを供給する機能を有する。ここ
では、電位VDDが高電源電位であり、電位VSSが低電源電位である場合について説明
する。また、配線RSTは、トランジスタTr21の導通状態を制御するための電位を供
給する機能を有する。トランジスタTr22、トランジスタTr23、配線VDDL、配
線VSSL、及び配線VbLによって、ソースフォロワ回路が構成される。
次に、回路OC[1]乃至[n]の動作例を説明する。なお、ここでは代表例として回路
OC[1]の動作例を説明するが、回路OC[2]乃至[n]も同様に動作させることが
できる。まず、配線BL[1]に第1の電流が流れると、ノードNaの電位は、第1の電
流と抵抗素子R1の抵抗値に応じた電位となる。また、このときトランジスタTr21は
オン状態であり、ノードNbに電位Vaが供給される。その後、トランジスタTr21は
オフ状態となる。
次に、配線BL[1]に第2の電流が流れると、ノードNaの電位は、第2の電流と抵抗
素子R1の抵抗値に応じた電位に変化する。このときトランジスタTr21はオフ状態で
あり、ノードNbはフローティング状態となっているため、ノードNaの電位の変化に伴
い、ノードNbの電位は容量結合により変化する。ここで、ノードNaの電位の変化をΔ
Naとし、容量結合係数を1とすると、ノードNbの電位はVa+ΔVNaとなる。そ
して、トランジスタTr22のしきい値電圧をVthとすると、配線OL[1]から電位
Va+ΔVNa-Vthが出力される。ここで、Va=Vthとすることにより、配線O
L[1]から電位ΔVNaを出力することができる。
電位ΔVNaは、第1の電流から第2の電流への変化量、抵抗素子R1、及び電位Vre
fに応じて定まる。ここで、抵抗素子R1と電位Vrefは既知であるため、電位ΔV
から配線BLに流れる電流の変化量を求めることができる。
上記のようにオフセット回路OFSTによって検出された電流量、及び/又は電流の変化
量に対応する信号は、配線OL[1]乃至[n]を介して活性化関数回路ACTVに入力
される。
活性化関数回路ACTVは、配線OL[1]乃至[n]、及び、配線NIL[1]乃至[
n]と接続されている。活性化関数回路ACTVは、オフセット回路OFSTから入力さ
れた信号を、あらかじめ定義された活性化関数に従って変換するための演算を行う機能を
有する。活性化関数としては、例えば、シグモイド関数、tanh関数、softmax
関数、ReLU関数、しきい値関数などを用いることができる。活性化関数回路ACTV
によって変換された信号は、出力データとして配線NIL[1]乃至[n]に出力される
<半導体装置の動作例>
上記の半導体装置MACを用いて、第1のデータと第2のデータの積和演算を行うことが
できる。以下、積和演算を行う際の半導体装置MACの動作例を説明する。
図23に半導体装置MACの動作例のタイミングチャートを示す。図23には、図21に
おける配線WL[1]、配線WL[2]、配線WD[1]、配線WDref、ノードNM
[1,1]、ノードNM[2,1]、ノードNMref[1]、ノードNMref[2]
、配線RW[1]、及び配線RW[2]の電位の推移と、電流I[1]-Iα[1]、
及び電流IBrefの値の推移を示している。電流I[1]-Iα[1]は、配線BL
[1]からメモリセルMC[1,1]、[2,1]に流れる電流の総和に相当する。
なお、ここでは代表例として図21に示すメモリセルMC[1,1]、[2,1]及びメ
モリセルMCref[1]、[2]に着目して動作を説明するが、他のメモリセルMC及
びメモリセルMCrefも同様に動作させることができる。
[第1のデータの格納]
まず、時刻T01-T02において、配線WL[1]の電位がハイレベルとなり、配線W
D[1]の電位が接地電位(GND)よりもVPR-VW[1,1]大きい電位となり、
配線WDrefの電位が接地電位よりもVPR大きい電位となる。また、配線RW[1]
、及び配線RW[2]の電位が基準電位(REFP)となる。なお、電位VW[1,1]
はメモリセルMC[1,1]に格納される第1のデータに対応する電位である。また、電
位VPRは参照データに対応する電位である。これにより、メモリセルMC[1,1]及
びメモリセルMCref[1]が有するトランジスタTr11がオン状態となり、ノード
NM[1,1]の電位がVPR-VW[1,1]、ノードNMref[1]の電位がV
となる。
このとき、配線BL[1]からメモリセルMC[1,1]のトランジスタTr12に流れ
る電流IMC[1,1],0は、次の式で表すことができる。ここで、kはトランジスタ
Tr12のチャネル長、チャネル幅、移動度、及びゲート絶縁膜の容量などで決まる定数
である。また、VthはトランジスタTr12のしきい値電圧である。
MC[1,1],0=k(VPR-VW[1,1]-Vth (E1)
また、配線BLrefからメモリセルMCref[1]のトランジスタTr12に流れる
電流IMCref[1],0は、次の式で表すことができる。
MCref[1],0=k(VPR-Vth (E2)
次に、時刻T02-T03において、配線WL[1]の電位がローレベルとなる。これに
より、メモリセルMC[1,1]及びメモリセルMCref[1]が有するトランジスタ
Tr11がオフ状態となり、ノードNM[1,1]及びノードNMref[1]の電位が
保持される。
なお、前述の通り、トランジスタTr11としてOSトランジスタを用いることが好まし
い。これにより、トランジスタTr11のリーク電流を抑えることができ、ノードNM[
1,1]及びノードNMref[1]の電位を正確に保持することができる。
次に、時刻T03-T04において、配線WL[2]の電位がハイレベルとなり、配線W
D[1]の電位が接地電位よりもVPR-VW[2,1]大きい電位となり、配線WDr
efの電位が接地電位よりもVPR大きい電位となる。なお、電位VW[2,1]はメモ
リセルMC[2,1]に格納される第1のデータに対応する電位である。これにより、メ
モリセルMC[2,1]及びメモリセルMCref[2]が有するトランジスタTr11
がオン状態となり、ノードNM[2,1]の電位がVPR-VW[2,1]、ノードNM
ref[2]の電位がVPRとなる。
このとき、配線BL[1]からメモリセルMC[2,1]のトランジスタTr12に流れ
る電流IMC[2,1],0は、次の式で表すことができる。
MC[2,1],0=k(VPR-VW[2,1]-Vth (E3)
また、配線BLrefからメモリセルMCref[2]のトランジスタTr12に流れる
電流IMCref[2],0は、次の式で表すことができる。
MCref[2],0=k(VPR-Vth (E4)
次に、時刻T04-T05において、配線WL[2]の電位がローレベルとなる。これに
より、メモリセルMC[2,1]及びメモリセルMCref[2]が有するトランジスタ
Tr11がオフ状態となり、ノードNM[2,1]及びノードNMref[2]の電位が
保持される。
以上の動作により、メモリセルMC[1,1]、[2,1]に第1のデータが格納され、
メモリセルMCref[1]、[2]に参照データが格納される。
ここで、時刻T04-T05において、配線BL[1]及び配線BLrefに流れる電流
を考える。配線BLrefには、電流源回路CSから電流が供給される。また、配線BL
refを流れる電流は、カレントミラー回路CM、メモリセルMCref[1]、[2]
へ排出される。電流源回路CSから配線BLrefに供給される電流をICref、配線
BLrefからカレントミラー回路CMへ排出される電流をICM,0とすると、次の式
が成り立つ。
Cref-ICM,0=IMCref[1],0+IMCref[2],0
(E5)
配線BL[1]には、電流源回路CSからの電流が供給される。また、配線BL[1]を
流れる電流は、カレントミラー回路CM、メモリセルMC[1,1]、[2,1]へ排出
される。また、配線BL[1]からオフセット回路OFSTに電流が流れる。電流源回路
CSから配線BL[1]に供給される電流をIC,0、配線BL[1]からオフセット回
路OFSTに流れる電流をIα,0とすると、次の式が成り立つ。
-ICM,0=IMC[1,1],0+IMC[2,1],0+Iα,0
(E6)
[第1のデータと第2のデータの積和演算]
次に、時刻T05-T06において、配線RW[1]の電位が基準電位よりもVX[1]
大きい電位となる。このとき、メモリセルMC[1,1]、及びメモリセルMCref[
1]のそれぞれの容量素子C11には電位VX[1]が供給され、容量結合によりトラン
ジスタTr12のゲートの電位が上昇する。なお、電位VX[1]はメモリセルMC[1
,1]及びメモリセルMCref[1]に供給される第2のデータに対応する電位である
トランジスタTr12のゲートの電位の変化量は、配線RWの電位の変化量に、メモリセ
ルの構成によって決まる容量結合係数を乗じた値となる。容量結合係数は、容量素子C1
1の容量、トランジスタTr12のゲート容量、及び寄生容量などによって算出される。
以下では便宜上、配線RWの電位の変化量とトランジスタTr12のゲートの電位の変化
量が同じ、すなわち容量結合係数が1であるとして説明する。実際には、容量結合係数を
考慮して電位Vを決定すればよい。
メモリセルMC[1,1]及びメモリセルMCref[1]の容量素子C11に電位V
[1]が供給されると、ノードNM[1,1]及びノードNMref[1]の電位がそれ
ぞれVX[1]上昇する。
ここで、時刻T05-T06において、配線BL[1]からメモリセルMC[1,1]の
トランジスタTr12に流れる電流IMC[1,1],1は、次の式で表すことができる
MC[1,1],1=k(VPR-VW[1,1]+VX[1]-Vth
(E7)
すなわち、配線RW[1]に電位VX[1]を供給することにより、配線BL[1]から
メモリセルMC[1,1]のトランジスタTr12に流れる電流は、ΔIMC[1,1]
=IMC[1,1],1-IMC[1,1],0増加する。
また、時刻T05-T06において、配線BLrefからメモリセルMCref[1]の
トランジスタTr12に流れる電流IMCref[1],1は、次の式で表すことができ
る。
MCref[1],1=k(VPR+VX[1]-Vth (E8)
すなわち、配線RW[1]に電位VX[1]を供給することにより、配線BLrefから
メモリセルMCref[1]のトランジスタTr12に流れる電流は、ΔIMCref[
1]=IMCref[1],1-IMCref[1],0増加する。
また、配線BL[1]及び配線BLrefに流れる電流について考える。配線BLref
には、電流源回路CSから電流ICrefが供給される。また、配線BLrefを流れる
電流は、カレントミラー回路CM、メモリセルMCref[1]、[2]へ排出される。
配線BLrefからカレントミラー回路CMへ排出される電流をICM,1とすると、次
の式が成り立つ。
Cref-ICM,1=IMCref[1],1+IMCref[2],0
(E9)
配線BL[1]には、電流源回路CSから電流Iが供給される。また、配線BL[1]
を流れる電流は、カレントミラー回路CM、メモリセルMC[1,1]、[2,1]へ排
出される。さらに、配線BL[1]からオフセット回路OFSTにも電流が流れる。配線
BL[1]からオフセット回路OFSTに流れる電流をIα,1とすると、次の式が成り
立つ。
-ICM,1=IMC[1,1],1+IMC[2,1],1+Iα,1
(E10)
そして、式(E1)乃至式(E10)から、電流Iα,0と電流Iα,1の差(差分電流
ΔIα)は次の式で表すことができる。
ΔIα=Iα,1-Iα,0=2kVW[1,1]X[1] (E11)
このように、差分電流ΔIαは、電位VW[1,1]とVX[1]の積に応じた値となる
その後、時刻T06-T07において、配線RW[1]の電位は接地電位となり、ノード
NM[1,1]及びノードNMref[1]の電位は時刻T04-T05と同様になる。
次に、時刻T07-T08において、配線RW[1]の電位が基準電位よりもVX[1]
大きい電位となり、配線RW[2]の電位が基準電位よりもVX[2]大きい電位となる
。これにより、メモリセルMC[1,1]、及びメモリセルMCref[1]のそれぞれ
の容量素子C11に電位VX[1]が供給され、容量結合によりノードNM[1,1]及
びノードNMref[1]の電位がそれぞれVX[1]上昇する。また、メモリセルMC
[2,1]、及びメモリセルMCref[2]のそれぞれの容量素子C11に電位VX[
2]が供給され、容量結合によりノードNM[2,1]及びノードNMref[2]の電
位がそれぞれVX[2]上昇する。
ここで、時刻T07-T08において、配線BL[1]からメモリセルMC[2,1]の
トランジスタTr12に流れる電流IMC[2,1],1は、次の式で表すことができる
MC[2,1],1=k(VPR-VW[2,1]+VX[2]-Vth
(E12)
すなわち、配線RW[2]に電位VX[2]を供給することにより、配線BL[1]から
メモリセルMC[2,1]のトランジスタTr12に流れる電流は、ΔIMC[2,1]
=IMC[2,1],1-IMC[2,1],0増加する。
また、時刻T05-T06において、配線BLrefからメモリセルMCref[2]の
トランジスタTr12に流れる電流IMCref[2],1は、次の式で表すことができ
る。
MCref[2],1=k(VPR+VX[2]-Vth (E13)
すなわち、配線RW[2]に電位VX[2]を供給することにより、配線BLrefから
メモリセルMCref[2]のトランジスタTr12に流れる電流は、ΔIMCref[
2]=IMCref[2],1-IMCref[2],0増加する。
また、配線BL[1]及び配線BLrefに流れる電流について考える。配線BLref
には、電流源回路CSから電流ICrefが供給される。また、配線BLrefを流れる
電流は、カレントミラー回路CM、メモリセルMCref[1]、[2]へ排出される。
配線BLrefからカレントミラー回路CMへ排出される電流をICM,2とすると、次
の式が成り立つ。
Cref-ICM,2=IMCref[1],1+IMCref[2],1
(E14)
配線BL[1]には、電流源回路CSから電流Iが供給される。また、配線BL[1]
を流れる電流は、カレントミラー回路CM、メモリセルMC[1,1]、[2,1]へ排
出される。さらに、配線BL[1]からオフセット回路OFSTにも電流が流れる。配線
BL[1]からオフセット回路OFSTに流れる電流をIα,2とすると、次の式が成り
立つ。
-ICM,2=IMC[1,1],1+IMC[2,1],1+Iα,2
(E15)
そして、式(E1)乃至式(E8)、及び、式(E12)乃至式(E15)から、電流I
α,0と電流Iα,2の差(差分電流ΔIα)は次の式で表すことができる。
ΔIα=Iα,2-Iα,0=2k(VW[1,1]X[1]+VW[2,1]X[
2]) (E16)
このように、差分電流ΔIαは、電位VW[1,1]と電位VX[1]の積と、電位V
[2,1]と電位VX[2]の積と、を足し合わせた結果に応じた値となる。
その後、時刻T08-T09において、配線RW[1]、[2]の電位は接地電位となり
、ノードNM[1,1]、[2,1]及びノードNMref[1]、[2]の電位は時刻
T04-T05と同様になる。
式(E9)及び式(E16)に示されるように、オフセット回路OFSTに入力される差
分電流ΔIαは、第1のデータ(重み)に対応する電位Vと、第2のデータ(入力デー
タ)に対応する電位Vの積を足し合わせた結果に応じた値となる。すなわち、差分電流
ΔIαをオフセット回路OFSTで計測することにより、第1のデータと第2のデータの
積和演算の結果を得ることができる。
なお、上記では特にメモリセルMC[1,1]、[2,1]及びメモリセルMCref[
1]、[2]に着目したが、メモリセルMC及びメモリセルMCrefの数は任意に設定
することができる。メモリセルMC及びメモリセルMCrefの行数mを任意の数とした
場合の差分電流ΔIαは、次の式で表すことができる。
ΔIα=2kΣW[i,1]X[i] (E17)
また、メモリセルMC及びメモリセルMCrefの列数nを増やすことにより、並列して
実行される積和演算の数を増やすことができる。
以上のように、半導体装置MACを用いることにより、第1のデータと第2のデータの積
和演算を行うことができる。なお、メモリセルMC及びメモリセルMCrefとして図2
1に示す構成を用いることにより、少ないトランジスタ数で積和演算回路を構成すること
ができる。そのため、半導体装置MACの回路規模の縮小を図ることができる。
半導体装置MACをニューラルネットワークにおける演算に用いる場合、メモリセルMC
の行数mは一のニューロンに供給される入力データの数に対応させ、メモリセルMCの列
数nはニューロンの数に対応させることができる。例えば、図19(A)に示す中間層H
Lにおいて半導体装置MACを用いた積和演算を行う場合を考える。このとき、メモリセ
ルMCの行数mは、入力層ILから供給される入力データの数(入力層ILのニューロン
の数)に設定し、メモリセルMCの列数nは、中間層HLのニューロンの数に設定するこ
とができる。
なお、半導体装置MACを適用するニューラルネットワークの構造は特に限定されない。
例えば半導体装置MACは、畳み込みニューラルネットワーク(CNN)、再帰型ニュー
ラルネットワーク(RNN)、オートエンコーダ、ボルツマンマシン(制限ボルツマンマ
シンを含む)などに用いることもできる。
以上のように、半導体装置MACを用いることにより、ニューラルネットワークの積和演
算を行うことができる。さらに、セルアレイCAに図21に示すメモリセルMC及びメモ
リセルMCrefを用いることにより、演算精度の向上、消費電力の削減、又は回路規模
の縮小を図ることが可能な集積回路を提供することができる。
本実施の形態は、他の実施の形態と適宜組み合わせることができる。
AD1 第1の解析データ
AD2 第2の解析データ
C11 容量素子
C21 容量素子
IAD1 第1の画像解析データ
IAD2 第2の画像解析データ
R1 抵抗素子
TAD1 第1の文章解析データ
TAD2 第2の文章解析データ
TAD3 第3の文章解析データ
Tr11 トランジスタ
Tr12 トランジスタ
Tr21 トランジスタ
Tr22 トランジスタ
Tr23 トランジスタ
100 知的財産情報検索システム
101 入力部
102 伝送路
103 処理部
103a 第1の処理部
103b 第2の処理部
105 記憶部
107 データベース
109 出力部
110 文章解析部
111 第1の文章解析部
112 第2の文章解析部
113 第3の文章解析部
120 画像解析部
121 第1の画像解析部
122 第2の画像解析部
131 解析部
132 解析部
133 解析部
150 知的財産情報検索システム
151 サーバ
152 端末
161a 通信部
161b 通信部
162 伝送路
163a 処理部
163b 処理部
165 記憶部
167 データベース
168 伝送路
169 入出力部

Claims (1)

  1. 第1の処理部に第1のデータと、第1の参照用解析データを入力し、前記第1の参照用解析データの中から前記第1のデータと類似するデータを検索して、第1の解析データを生成する第1のステップと、
    第2の処理部に前記第1のデータと、第2の参照用解析データを入力し、前記第2の参照用解析データの中から前記第1のデータと類似するデータを検索して、第2の解析データを生成する第2のステップと、
    前記第1の解析データと前記第2の解析データを用いて、第3の解析データを生成する第3のステップと、を有し、
    前記第1のステップと前記第2のステップとは、同時に行われる情報検索の方法。
JP2023060841A 2017-05-31 2023-04-04 情報検索の方法 Withdrawn JP2023076598A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017107358 2017-05-31
JP2017107358 2017-05-31
JP2021194067A JP2022019832A (ja) 2017-05-31 2021-11-30 システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021194067A Division JP2022019832A (ja) 2017-05-31 2021-11-30 システム

Publications (1)

Publication Number Publication Date
JP2023076598A true JP2023076598A (ja) 2023-06-01

Family

ID=87885039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023060841A Withdrawn JP2023076598A (ja) 2017-05-31 2023-04-04 情報検索の方法

Country Status (1)

Country Link
JP (1) JP2023076598A (ja)

Similar Documents

Publication Publication Date Title
JP2020205105A (ja) システム
Mittal A survey of ReRAM-based architectures for processing-in-memory and neural networks
JP6916941B2 (ja) 文書検索方法、文書検索システム、プログラム
JP7146751B2 (ja) レイアウト設計システム及びレイアウト設計方法
CN113711205A (zh) 文档检索系统及文档检索方法
Kang et al. Deep in-memory architectures for machine learning–accuracy versus efficiency trade-offs
Gebregiorgis et al. Tutorial on memristor-based computing for smart edge applications
WO2019018811A1 (en) SYSTEMS AND METHODS OF OPERATING RARITY
Kang et al. Deep in-memory architectures for machine learning
Lin et al. Uncertainty quantification via a memristor Bayesian deep neural network for risk-sensitive reinforcement learning
Eslami et al. A flexible and reliable RRAM-based in-memory computing architecture for data-intensive applications
US20230297331A1 (en) System and method for fast and efficient max/min searching in dram
JP2023076598A (ja) 情報検索の方法
Abgaryan et al. Integration platform for multiscale modeling of neuromorphic systems
Clay et al. Energy‐efficient and reliable in‐memory classifier for machine‐learning applications
Agarwal et al. Designing and modeling analog neural network training accelerators
KR102608683B1 (ko) Knn을 이용한 자연 언어 처리
CN113554158A (zh) 用于卷积神经网络应用的记忆体元件及其操作方法
Kanakaris et al. Predicting prices of Airbnb listings via Graph Neural Networks and Document Embeddings: The case of the island of Santorini
Bian et al. Computing in-memory with cascaded spintronic devices for AI edge
Kang et al. The Deep In-Memory Architecture (DIMA)
Kim et al. A 24.1 TOPS/W mixed-signal BNN processor in 28-nm CMOS
Xu et al. SRAM-based in-memory-computing for AI edge devices
LIU et al. Memory and Compute-in-Memory Based on Ferroelectric Field Effect Transistors
Rakka Resistive Content Addressable Memory Design for Decision Tree Acceleration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240312

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20240508