JP5737641B2 - 自律型思考パターン生成機 - Google Patents
自律型思考パターン生成機 Download PDFInfo
- Publication number
- JP5737641B2 JP5737641B2 JP2014119976A JP2014119976A JP5737641B2 JP 5737641 B2 JP5737641 B2 JP 5737641B2 JP 2014119976 A JP2014119976 A JP 2014119976A JP 2014119976 A JP2014119976 A JP 2014119976A JP 5737641 B2 JP5737641 B2 JP 5737641B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- information
- language
- input
- patterns
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000875 corresponding effect Effects 0.000 description 74
- 238000001514 detection method Methods 0.000 description 40
- 230000008878 coupling Effects 0.000 description 32
- 238000010168 coupling process Methods 0.000 description 32
- 238000005859 coupling reaction Methods 0.000 description 32
- 239000003607 modifier Substances 0.000 description 16
- 230000001629 suppression Effects 0.000 description 16
- 238000000034 method Methods 0.000 description 14
- 241000282412 Homo Species 0.000 description 12
- 230000000694 effects Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000005284 excitation Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 241000718541 Tetragastris balsamifera Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- UFHFLCQGNIYNRP-UHFFFAOYSA-N Hydrogen Chemical compound [H][H] UFHFLCQGNIYNRP-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Robotics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Description
さらに、入力される情報の価値を評価し記録することにより、自律的に知識を拡大していく知能機械に関するものである。
また、条件の検出および対応する動作が適切でなければ、計算機にインストールしたプログラムを人間が修正する必要があり、修正に多大な時間を要する等のデメリットがあった。
画像、音声および言語から生成されたパターンはパターン記録器に記録される。パターン記録器に記録されたパターンは他のパターンとの間に関係を設定することができる。例えば、ある事象AをパターンAと表現し、別の事象BをパターンBと表現することにする。事象Aが発生すると事象Bも発生する場合、対応するパターンAとパターンBは関係を有することになる。パターンAが励起されると引き続き、パターンBが励起されようにパターン制御器により結合関係を設定する。
同様の手順により、青信号の認識もできるようになる。
「赤信号」という言語パターンを励起させ、その次に「止まれ!」という言語パターンを励起すると、次の結合関係が生成される。「赤信号」→「止まれ!」
同様に「青信号」→「車に注意して渡れ!」という結合関係を生成することができる。
次に「止まれ!」という言語パターンは制御信号生成器に送られ、アクチュエータに対して「止まれ」を命じる制御信号が生成される。同様に「車に注意して渡れ!」という言語パターンは「車が近くにいない事を検出せよ!」と「渡れ!」という言語パターンに展開され、車が近くにいない事を検出すると、「渡れ!」という言語パターンが制御信号生成器に送られ、アクチュエータに対して「渡れ」を命じる制御信号が生成される。
以上のように人間の思考パターンに沿って、思考パターン生成機にパターンを生成し、動作させることにより、機械に対し、人間と同様の制御を『言語を使用した』パターンを使って実現することができる。
▲1▼ 誰から得た情報か分析する。
▲2▼ どの分野に関する情報か分析する。
▲3▼ 関心のある分野の情報か分析する。
▲4▼ 記録された情報との関係(整合、不整合、新規性、根拠の妥当性)を分析する。
▲5▼ 情報の種類(真実、事実、推測、噂、質問文、命令文、感嘆文等)を分析する。
情報分析器は入力した情報および情報の発信源(本、テレビ、人・・等)は何かを識別する。これは入力された情報の伝達経路を確認することにより可能である。たとえば本に書かれた画像情報は本からの情報であると識別できる。テレビからの情報は画像情報および音声情報からテレビからの情報であると識別できる。人からの情報は画像情報から周囲にいる人が誰かを識別し、また誰からの音声情報かを識別することができる。
一般的に入力した情報にはどの分野に関する情報か手がかりとなる単語および文等が含まれている。直近の情報に手がかりとなる単語および文等が含まれていなくても、暫くモニターしていると手がかりとなる単語および文等を検出することができる。
情報をパターン変換器に入力し、情報を言語パターンに変換する。人間がその情報を見て、どの分野に関するものかを判断できた時、分野に関する言語パターンをパターン記録器に登録し、入力情報に対応する言語パターンから分野を示す言語パターンへの結合関係を設定する。言語パターンと言語パターンの結合は結合係数を介して実施することができる。入力した情報1が分野1に対応すると判断した場合、情報1に対応する言語パターンから分野1に対応する言語パターンに結合係数を介した結合を生成する。情報1に対応する言語パターンが励起した時、分野1に対する結合は結合係数に比例した強さで強化する。分野1の言語パターンが励起するか否かは事前に設定した閾値に対し、結合係数を介して入力される結合の強さの大小関係によって決める。入力した情報に対し上記の識別を繰り返すことにより、入力した情報の分野分析が学習されていく。入力した情報に対する分野分析の結果が誤った場合は入力パターンに対する結合を弱めるように結合係数を修正する。
このような学習を繰り返すことにより、入力した情報の分野分析が正しく実施できるようになる。
これは▲2▼で述べた方法と同様の方法により実現できる。入力した情報の中に関心ある分野の単語および文等が含まれているかを分析することにより、入力した情報が関心ある分野の情報であるか否かの識別が可能となる。
入力された情報は上記に述べた分野分析を実施され、パターン記録器に記録されたパターンとの照合が実施される。関連のあるパターンが検出されると、入力された情報との関係について分析が行われる。パターン記録器に記録された言語パターンと言語パターンの間には整合、不整合の関係を定義することが可能である。例えば、「上」を示す言語パターンと「下」を示す言語パターンには反対の意味を示す結合関係を定義する。また、「美しい」を示す言語パターンと「綺麗」を示す言語パターンには類似の意味を示す結合関係を定義する。このように言語パターンと言語パターンとの間に反対の意味、類似の意味を識別する結合関係を設定することができる。例えば、入力した言語パターンに「上」を示す言語パターンが含まれていたとする。入力した情報に関連するする情報がパターン記録器の中で検出され、その関連情報の言語パターンに「下」を示す言語パターンが含まれていたとする。この時、入力した言語パターンは「上」という言語パターンを励起し、関連情報の言語パターンは「下」を励起する。言語パターン「上」と「下」は反対を示す結合となっているため、入力された情報と記録されている関連情報の間に不整合があることが認識できる。同様に「美しい」と「綺麗」の関係のように類似を示す言語パターンを励起した場合には入力された情報と記録されている関連情報の間に整合があることが認識できる。人間は新しい情報に接した際、関連する情報を想起、比較することにより、整合および不整合を確認する。機械においても同様の動作を行うことが可能である。
入力した情報の言語パターンを構成する下位の言語パターン(文に対しては単語が相当)と等価な言語パターンを含めた言語パターンを生成する。この言語パターンは入力した情報の新規性について影響を与えることなく、同一の意味を有する言語パターンの集合となる。
同じようにして、入力した情報に開連する情報の言語パターンを構成する下位の言語パターンと等価な言語パターンを含めた言語パターンを生成する。この言語パターンも含まれる情報量に影響を与えることなく、同一の意味を有する言語パターンの集合となる。この言語パターンの集合は単語で構成する意味空間において、言語が示す意味について最大限の領域を占めていると解釈することができる。
入力した情報に新規性があるか否かの判断は、記録されていた関連情報の示す言語パターンの集合と新規情報が示す言語パターンの集合を比較した時、関連情報が示す言語パターン以外の箇所に新規情報の言語パターンが存在する時、新規性があると判断できる。なぜならば、このことは関連情報にない情報が入力した情報に含まれていることを示すからである。
入力した情報を言語パターンに変換して記録する際、可能な限り根拠についても言語パターンに変換して記録するようにする。例えば、「AはBである。」という情報を入力した場合、「なぜならばAはCだから」という根拠についても言語パターンにし、記録するようにする。このような記録を繰り返すことにより、根拠を構成する言語パターンの集合が構成される。真実、事実または常識に基づいて根拠の記録を蓄積することにより、根拠を示す言語パターンに妥当性を持たせることができる。仮に入力した情報と記録している関連情報との間に不整合が検出された時に、その根拠について比較することにする。
入力した情報および関連情報の根拠を上記において生成した根拠を構成する言語パターンの集合と照合することにより、どちらが根拠として妥当であるか比較することができる。根拠を構成する言語パターンと照合した時に、照合するものが検出されなかった場合、その根拠は過去に説明されていないことになる。つまり、根拠を構成する言語パターンの集合と照合した時に、照合が多いほど根拠の妥当性が高く、照合が少ないほど、根拠の妥当性が低いことになる。
入力した情報の言語パターンは情報の種類が分析される。一般的に言語パターンには文の種類(平常文、疑問文、命令文、感嘆文等)を識別するパターンが含まれている。
平常文は「です」、「ます」、「である」、「だ」等
疑問文は「ですか」、「ますか」、「だろうか」等
命令文は「せよ」、「しろ」、「して下さい」等
感嘆文は「なんて・・だろう」、「なんて・・でしょう」等
推測は 「だろう」、「でしょう」等
噂は 「らしい」等
これらのパターンを検出することにより、情報の種類を識別することが可能である。
さらに言語パターン以外に画像パターン、音声パターンの情報を取り入れることにより、真実および事実の識別が可能である。画像パターンで実際に発生した事象を言語パターンとして記録する場合、事実として識別することが可能である。また、情報の源泉が信頼のある人、書物等からである場合、事実、真実と識別して記録することが可能である。
これにより、有用な情報が逐次蓄積され、膨大な知識がパターン記録器に構成されていくことになる。
思考パターン生成器を構成する文構成分析器は入力した情報の言語パターンの単語の品詞を分析する。各単語の品詞は決まるので、単語毎に品詞を対応付ける。次に文構成分析器は品詞およびその組合せにつき分析する。例えば下記のように主語、述語、修飾語等が識別できる。
・「名詞」+「助詞(が)」 →主語
・「名詞」+「助詞(を)」 →目的語
・「動詞」 →述語
・「形容詞」 →述語
・「形容詞」+「名詞」 →「形容詞」は「名詞」の修飾語
・「名詞1」+「助詞(の)」+「名詞2」→
「名詞1」+「助詞(の)」は「名詞2」の修飾語
・「動詞(・・した)」+「名詞」 →「動詞(・・した)」は「名詞」の修飾語
・「名詞1」+「助詞(を)」+「他動詞」+「名詞2」+「助詞(の)」+「名詞3」 →(ケース1:「他動詞」の主語が「名詞2」)
「名詞1」+「助詞(を)」+「他動詞」は「名詞2」の修飾語
→(ケース2:「他動詞」の主語が「名詞3」)
「名詞1」+「助詞(を)」+「他動詞」は「名詞3」の修飾語
・「名詞(日時)」 →(いつ)を意味
・「名詞(場所)」+「助詞(で)」 →(どこで)を意味
・「文(・・・する方向で)」 →(どのように)を意味
・「文(・・・だからである)」 →(なぜ)を意味
等
このように整理して配置された言語パターンを使用すれば、数々の質問に対し回答を生成するのは容易である。具体的には検索用の言語パターンとして下記を使うことにする。
検索用の言語パターン:
(いつ)+(どこで)+(誰が)+(何を)+(どのように)+(なぜ)+(何した)
例えば、(どこで)、(誰が)、(何を)、(どのように)、(なぜ)、(何した)かについては部分的に分かっているけれども、(いつ)かについて知りたいとしよう。この場合、(どこで)、(誰が)、(何を)、(どのように)、(なぜ)、(何した)の内、分かっている言語パターンで検索用の言語パターンを生成する。この検索用の言語パターンを使って、上記に述べた整理して配置された言語パターンの中を照合する。照合により(どこで)、(誰が)、(何を)、(どのように)、(なぜ)、(何した)の内、合致した言語パターンがあると、回答を含む候補として選出することができる。この候補の内、(いつ)という項目に対し、(いつ)を表現する言語パターンを含む場合、質問に対する回答となる。
このようにパターン記録器に質問に対する回答が含まれている場合には、直接的に回答を得ることができる。
・「パターンA」+「パターンB1」→「パターンC1」
・「パターンA」+「パターンB2」→「パターンC2」
・ ・・
・ ・・
・「パターンA」+「パターンBN」→「パターンCN」
これは先に説明したパターン制御器を使用する。
「パターンA」と「パターンBi」(i=1〜N)を励起させ、その後に「パターンCi」を励起させる。この時、パターン制御器により、「パターンA」、「パターンBi」から「パターンCi」(i=1〜N)へ結合が生成される。この結合が生成されると、「パターンA」と「パターンBi」が励起すると、「パターンCi」が励起するようになる。以上より入力するパターンの組合せを変えることにより、組合せに対応したパターンを出力することが可能となる。
図1において1は画像情報を検出する画像検出器である。2は画像検出器の出力を画像パターンに変換する画像パターン変換器である。3は音声情報を検出する音声検出器である。4は音声検出器の出力を音声パターンに変換する音声パターン変換器である。5は言語を入力する言語入力器である。6は言語入力器の出力を言語パターンに変換する言語パターン変換器である。7は画像パターン、音声パターンおよび言語パターンを記録するパターン記録器である。8はパターンの設定、変更およびパターンとパターンの結合関係を生成するパターン制御器である。9はパターンを制御信号に変換する制御信号生成器である。10は制御信号生成器の出力により駆動されるアクチュエータである。
1の画像検出器は対象物に応じた信号を生成する。この対象物に応じた信号は2の画像パターン変換器に入力され、画像パターンが生成される。同様に3の音声検出器は音声に応じた信号は4の音声パターン変換器に入力され、音声パターンが生成される。5の言語入力器は言語を入力する。言語とは語、単語および文のことである。言語入力器は入力した文を主語、述語、修飾語等に整理した型に変換する。6の言語パターン変換器は5の言語入力器の出力を言語パターンに変換する。図2、図3、図4に画像パターン、音声パターンおよび言語パターンの例を示す。ここでは画像、音声および言語の情報をそれぞれ識別する信号の組合せに変換したものをパターンと呼んでいる。ここではパターンの要素を「ON」「OFF」または「1」「0」で表現することにする。他の表現でも良いが相関処理の簡便性により本表現を採用している。生成されたパターンは7のパターン記録に記録される。8のパターン制御器はパターンの設定、変更およびパターンとパターンの結合関係を生成する。
図5にパターン記録器の構成を示す。
具体的な動作例として、画像情報として、『犬』を入力すると犬の画像パターンが生成され、パターン記録器に犬の画像パターンとして記録する。一方、言語情報として『いぬ』を5の言語入力器に入力し、整理した型に変換する。次に6の言語パターン変換において言語パターンに変換し、パターン記録器に記録する。8のパターン制御器により結合関係を設定すると、犬の画像パターンが励起すると、引き続き言語情報として『いぬ』を示す言語パターンが励起することになる。このように思考パターン生成機に犬の画像を見せ、言語情報として『いぬ』であることを関係付けておくと、次回に犬を見たときに『いぬ』であることを認識できるようになる。
図6にパターン記録器の動作例を示す。
具体的な動作例として、音声にて「あ」と発声し、音声検出器に入力する。3の音声検出器は音声の周波数パターンから「あ」に対応した音声信号を生成し、4の音声パターン変換器に出力する。音声パターン変換器は「あ」に対応した音声信号を音声パターンとして生成する。
次に、5の言語入力器に『あ』を入力し、6の言語パターン変換器で『あ』に対応する言語パターンに変換する。8のパターン制御器により結合関係を設定すると、「あ」という音声パターンが励起すると引き続き言語情報として『あ』に対応した言語パターンが励起することになる。
同様に「い」、「う」、「え」、「お」、「か」・・・「ん」と音声パターンを7のパターン記録器に記録していく。
言語パターン変換器は、さらに語と語の組合せから単語を言語パターンとして生成し、単語と単語の組合せから文を言語パターンとして生成する。生成した言語パターンは7のパターン記録器に記録する。
以上より音声パターンから対応する言語パターンを生成することが可能となる。
尚、音声パターンは話す人によっても微妙に異なるため、各人毎に音声パターンを記録すれば誰が話しているかについても検出することが可能である。
ある状況が生じた時、画像パターンまたは音声パターンが励起し、対応する言語パターンが励起する。この時、この言語パターンを人間が見て、次に思いつく言語または連想する言語を5の言語入力器に入力し、6の言語パターン変換器により言語パターンに変換していく。さらに8のパターン制御器により、言語パターンと言語パターンの関係を設定していく。8のパターン制御器は励起しているパターンの後に、別のパターンが励起すると、先に励起したパターンから後で励起するパターンに向けて、結合関係を生成する。これにより、ある言語パターンが励起すると、それに関連する言語パターンが逐次、励起されることになる。人間はある考えを意識した時、その次に関連する考えが思い浮かぶように、思考パターン生成機にも言語パターンから言語パターンを励起させることができる。人間がある考えを意識することは思考パターン生成機が言語パターンを励起したことに対応している。図7に言語パターンと言語パターンの結合関係の動作例を示す。
・画像パターン→画像で識別された対象の名称
・音声パターン→音声で識別された、語、単語、文章
・音声パターン→音声を発している対象が何か?(人か動物か? 誰か?等)
・言語パターン(ある事象)→言語パターン(事象から帰結する事象)
(例(科学的事実):酸素と水素を反応させる。→水が生成される。)
・言語パターン(ある事象)→言語パターン(事象から帰結する行動)
(例(習慣、慣習等):○○さんに会う。→○○さんに挨拶する。)
・言語パターン(ある事象)→言語パターン(事象から帰結する行動指針)
(例(規則等):赤信号 → 立ち止まる。)
・言語パターン(ある事象)→言語パターン(事象から連想される事象)
(例(予想):黒い雲が発生した。 → 雨が降るだろう。)
・言語パターン(質問)→言語パターン(質問に対する回答)
・言語パターン(問題)→言語パターン(問題の解決方法を想起)
・・・
等
例えば、人間が本思考パターン生成機に本日の推奨する娯楽は何かが良いかを思考パターン生成機に回答させるようなことは下記の手順により実施することができる。
1. 本日の推奨する娯楽を質問されたら、晴れならハイキング、雨なら映画が良い と回答するよう言語パターンを設定する。
2. 本日の天気に関する情報を入手したらパターン記録器に記録する。
3. 本日の推奨する娯楽を質問されたら、本日の天気に関する情報をパターン記録 器から検索し、その情報の内容により回答を生成する。
以上のように人間の思考パターンに沿って、思考パターン生成機にパターンを生成し、動作させることにより、人間と同様の思考および動作を機械に実施させることが可能である。
図8において1は画像情報を検出する画像検出器である。2は画像検出器の出力を画像パターンに変換する画像パターン変換器である。3は音声情報を検出する音声検出器である。4は音声検出器の出力を音声パターンに変換する音声パターン変換器である。5は言語を入力する言語入力器である。6は言語入力器の出力を言語パターンに変換する言語パターン変換器である。7は画像パターン、音声パターンおよび言語パターンを記録するパターン記録器である。8はパターンの設定、変更およびパターンとパターンの結合関係を生成するパターン制御器である。9はパターンを制御信号に変換する制御信号生成器である。10は制御信号生成器の出力により駆動されるアクチュエータである。11は入力した情報の価値を分析する情報分析器である。
1の画像検出器は対象物に応じた信号を生成する。この対象物に応じた信号は2の画像パターン変換器に入力され、画像パターンが生成される。同様に3の音声検出器は音声に応じた信号は4の音声パターン変換器に入力され、音声パターンが生成される。5の言語入力器は言語を入力する。6の言語パターン変換器は5の言語入力器の出力を言語パターンに変換する。生成されたパターンは7のパターン記録に記録される。8のパターン制御器はパターンの設定、変更およびパターンとパターンの結合関係を生成する。
11の情報分析器は入力した情報の価値を分析する。分析は一例として▲1▼から▲5▼の項目について実施する。▲1▼から▲5▼の分析により入力した情報は分析され、情報としての価値が評価される。信頼ある発信源からの関心ある分野の情報は価値が高いと判断され、信頼のない発信源からの関心の無い分野の情報は価値が低いと判断される。価値の高い情報は言語パターンとしてパターン記録器に記録し、価値の低い記録は記録しないこととする。
これにより、有用な情報が逐次蓄積され、膨大な知識がパターン記録器に構成されていくことになる。
▲1▼誰から得た情報か分析する。
▲2▼どの分野に関する情報か分析する。
▲3▼関心のある分野の情報か分析する。
▲4▼記録された情報との関係(整合、不整合、新規性、根拠の妥当性)を分析する。
▲5▼情報の種類(真実、事実、推測、噂、質問文、命令文、感嘆文等)を分析する。
情報分析器は入力した情報および情報の発信源(本、テレビ、人・・等)は何かを識別する。これは入力された情報の伝達経路を確認することにより実施する。本に書かれた画像情報は本からの情報であると識別できる。テレビからの情報は画像情報および音声情報からテレビからの情報であると識別できる。人からの情報は画像情報から周囲にいる人が誰かを識別し、また誰からの音声情報かを識別する。
入力した情報にはどの分野に関する情報か手がかりとなる単語および文等が含まれている。直近の情報に手がかりとなる単語および文等が含まれていなくても、暫くモニターしていると手がかりとなる単語および文等を検出することができる。
情報をパターン変換器に入力し、情報を言語パターンに変換する。人間がその情報を見て、どの分野に関するものかを判断できた時、分野に関する言語パターンをパターン記録器に登録し、入力情報に対応する言語パターンから分野を示す言語パターンへの結合関係を設定する。言語パターンと言語パターンの結合は結合係数を介して実施する。入力した情報1が分野1に対応すると判断した場合、情報1に対応する言語パターンから分野1に対応する言語パターンに結合係数を介した結合を生成する。情報1に対応する言語パターンが励起した時、分野1に対する結合は結合係数に比例した強さで強化する。分野1の言語パターンが励起するか否かは事前に設定した閾値に対し、結合係数を介して入力される結合の強さの大小関係によって決める。入力した情報に対し分野の識別を繰り返すことにより、入力した情報の分野分析が学習されていく。入力した情報に対する分野分析の結果が誤った場合は入力パターンに対する結合を弱めるように結合係数を修正する。
このような学習を繰り返すことにより、入力した情報の分野分析が正しく実施できるようになる。図9にどの分野に関する情報か分析する情報分析器の動作例を示す。
これは▲2▼で述べた方法と同様の方法により実現できる。入力した情報の中に関心ある分野の単語および文等が含まれているかを分析することにより、入力した情報が関心ある分野の情報であるか否かの識別を実施する。
入力された情報に対し上記に述べた分野分析を実施し、パターン記録器に記録されたパターンとの照合を実施する。関連のあるパターンが検出されると、入力された情報との関係について分析を実施する。パターン記録器に記録された言語パターンと言語パターンの間には整合、不整合の関係を定義しておく。例えば、「上」を示す言語パターンと「下」を示す言語パターンには反対の意味を示す結合関係を定義する。また、「美しい」を示す言語パターンと「綺麗」を示す言語パターンには類似の意味を示す結合関係を定義する。このように言語パターンと言語パターンとの間に反対の意味、類似の意味を識別する結合関係を設定しておく。例えば、入力した言語パターンに「上」を示す言語パターンが含まれていたとする。入力した情報に関連するする情報がパターン記録器の中で検出され、その関連情報の言語パターンに「下」を示す言語パターンが含まれていたとする。この時、入力した言語パターンは「上」という言語パターンを励起し、関連情報の言語パターンは「下」を励起する。言語パターン「上」と「下」は反対を示す結合関係となっているため、入力された情報と記録されている関連情報の間に不整合があることが認識できる。同様に「美しい」と「綺麗」の関係のように類似を示す言語パターンを励起した場合には入力された情報と記録されている関連情報の間に整合があることが認識できる。人間は新しい情報に接した際、関連する情報を想起、比較することにより、整合および不整合を確認する。思考パターン生成機においても同様の動作を行うことが可能である。
図10に整合・不整合に関する情報分析器の動作例を示す。
入力した情報の言語パターンを構成する下位の言語パターン(文に対しては単語が相当)と等価な言語パターンを含めた言語パターンを生成する。図11および図12は同意語の分析例について示したものである。この言語パターンは入力した情報の新規性について影響を与えることなく、同一の意味を有する言語パターンの集合となる。
同じようにして、入力した情報に関連する情報の言語パターンを構成する下位の言語パターンと等価な言語パターンを含めた言語パターンを生成する。この言語パターンも含まれる情報量に影響を与えることなく、同一の意味を有する言語パターンの集合となる。この言語パターンの集合は単語で構成する意味空間において、言語が示す意味について最大限の領域を占めていると解釈することができる。図13に同意語によって構成される集合体の構成について示す。
入力した情報に新規性があるか否かの判断は、記録されていた関連情報の示す言語パターンの集合と新規情報が示す言語パターンの集合を比較した時、関連情報が示す言語パターン以外の箇所に新規情報の言語パターンが存在する時、新規性があると判断できる。なぜならば、このことは関連情報にない情報が入力した情報に含まれていることを示すからである。
図14に新規性検出に関する情報分析器の動作例を示す。
入力した情報を言語パターンに変換して記録する際、可能な限り根拠についても言語パターンに変換して記録するようにする。例えば、「AはBである。」という情報を入力した場合、「なぜならばAはCだから」という根拠についても言語パターンにし、記録するようにする。このような根拠に関する記録を繰り返すことにより、根拠を構成する言語パターンの集合が構成される。真実、事実または常識に基づいて根拠の記録を蓄積することにより、根拠を示す言語パターンに妥当性を持たせることができる。仮に入力した情報と記録している関連情報との間に不整合が検出された時に、その根拠について比較することにする。
入力した情報および関連情報の根拠を上記において生成した根拠を構成する言語パターンの集合と照合することにより、どちらが根拠として妥当であるか比較することができる。根拠を構成する言語パターンと照合した時に、照合するものが検出されなかった場合、その根拠は過去に説明されていないことになる。つまり、根拠を構成する言語パターンの集合と照合した時に、照合が多いほど根拠の妥当性が高く、照合が少ないほど、根拠の妥当性が低いことになる。
入力した情報の言語パターンは情報の種類が分析される。一般的に言語パターンには文の種類(平常文、疑問文、命令文、感嘆文等)を識別するパターンが含まれている。
平常文は「です」、「ます」、「である」、「だ」等
疑問文は「ですか」、「ますか」、「だろうか」等
命令文は「せよ」、「しろ」、「して下さい」等
感嘆文は「なんて・・だろう」、「なんて・・でしょう」等
推測は 「だろう」、「でしょう」等
噂は 「らしい」等
これらのパターンを検出することにより、情報の種類を識別する。
さらに言語パターン以外に画像パターン、音声パターンの情報を取り入れることにより、真実および事実の識別を実施する。画像パターンで実際に発生した事象を検出し、言語パターンとして記録する場合、事実として識別する。また、情報の源泉が信頼のある人、書物等からである場合、確からしい情報と識別して記録する。
これにより、有用な情報が逐次蓄積され、膨大な知識がパターン記録器に構成されていくことになる。
図15に有用な情報の検出および記録の動作例について示す。
図16において1は画像情報を検出する画像検出器である。2は画像検出器の出力を画像パターンに変換する画像パターン変換器である。3は音声情報を検出する音声検出器である。4は音声検出器の出力を音声パターンに変換する音声パターン変換器である。5は言語を入力する言語入力器である。6は言語入力器の出力を言語パターンに変換する言語パターン変換器である。7は画像パターン、音声パターンおよび言語パターンを記録するパターン記録器である。8はパターンの設定、変更およびパターンとパターンの結合関係を生成するパターン制御器である。9はパターンを制御信号に変換する制御信号生成器である。10は制御信号生成器の出力により駆動されるアクチュエータである。12は入力した文の単語の品詞を分析し、文の主部、述部、主語、述語、修飾語等を識別し、いつ、どこで、誰が、何を、どのように、なぜ、したのかを識別・整理する文構成分析器である。13はパターン記録器に記録した情報から検索したい情報を抽出する情報抽出器である。
この発明における思考パターン生成機は入力した文の単語の品詞を分析し、文の主部、述部、主語、述語、修飾語等を識別し、いつ、どこで、誰が、何を、どのように、なぜ、何したのかを識別・整理し記録する。記録した情報から必要な情報を抽出したい場合、何に関する何を知りたいのかを入力することにより、必要な情報を出力する。
思考パターン生成器を構成する文構成分析器は入力した情報の言語パターンの単語の品詞を分析する。各単語の品詞は決まるので、単語毎に品詞を対応付ける。次に文構成分析器は品詞およびその組合せにつき分析する。例えば下記のように主語、述語、修飾語等が識別できる。
・「名詞」+「助詞(が)」 →主語
・「名詞」+「助詞(を)」 →目的語
・「動詞」 →述語
・「形容詞」 →述語
・「形容詞」+「名詞」 →「形容詞」は「名詞」の修飾語
・「名詞1」+「助詞(の)」+「名詞2」→
「名詞1」+「助詞(の)」は「名詞2」の修飾語
・「動詞(・・した)」+「名詞」 →「動詞(・・した)」は「名詞」の修飾語
・「名詞1」+「助詞(を)」+「他動詞」+「名詞2」+「助詞(の)」+「名詞3」 →(ケース1:「他動詞」の主語が「名詞2」)
「名詞1」+「助詞(を)」+「他動詞」は「名詞2」の修飾語
→(ケース2:「他動詞」の主語が「名詞3」)
「名詞1」+「助詞(を)」+「他動詞」は「名詞3」の修飾語
・「名詞(日時)」 →(いつ)を意味
・「名詞(場所)」+「助詞(で)」 →(どこで)を意味
・「文(・・・する方向で)」 →(どのように)を意味
・「文(・・・だからである)」 →(なぜ)を意味
等
図17に主語、述語、修飾語に整理し配置した言語パターンの一例を示す。
このように整理して配置された言語パターンを使用すれば、数々の質問に対し回答を生成するのは容易である。具体的には検索用の言語パターンとして下記を使うことにする。
13の情報抽出器において次の検索用の言語パターンを生成する。
検索用の言語パターン:
(いつ)+(どこで)+(誰が)+(何を)+(どのように)+(なぜ)+(何した)
例えば、(どこで)、(誰が)、(何を)、(どのように)、(なぜ)、(何した)かについては部分的に分かっているけれども、(いつ)かについて知りたいとしよう。この場合、(どこで)、(誰が)、(何を)、(どのように)、(なぜ)、(何した)の内、分かっている言語パターンで検索用の言語パターンを生成する。この検索用の言語パターンを使って、上記に述べた整理して配置された言語パターンの中を照合する。照合により(どこで)、(誰が)、(何を)、(どのように)、(なぜ)、(何した)の内、合致した言語パターンがあると、回答を含む候補として選出することができる。この候補の内、(いつ)という項目に対し、(いつ)を表現する言語パターンを含む場合、質問に対する回答となる。
このようにパターン記録器に質問に対する回答が含まれている場合には、直接的に回答を抽出することができる。
図18において1は画像情報を検出する画像検出器である。2は画像検出器の出力を画像パターンに変換する画像パターン変換器である。3は音声情報を検出する音声検出器である。4は音声検出器の出力を音声パターンに変換する音声パターン変換器である。5は言語を入力する言語入力器である。6は言語入力器の出力を言語パターンに変換する言語パターン変換器である。7は言語パターンを記録するパターン記録器である。8はパターンの設定、変更およびパターンとパターンの結合関係を生成するパターン制御器である。
9はパターンを制御信号に変換する制御信号生成器である。10は制御信号生成器の出力により駆動されるアクチュエータである。11は入力した情報の価値を分析する情報分析器である。
この発明における思考パターン生成機は、入力した複数のパターンから導出されるパターンおよび連想されるパターンを生成する。入力する複数のパターンを「パターンA」、「パターンB1」、「パターンB1」、・・「パターンBN」とし、導出または連想されるパターンを「パターンC1」、「パターンC1」、・・「パターンCN」とする。入力するパターンと導出または連想されるパターンには下記の関係があるとする。
・「パターンA」+「パターンB1」→「パターンC1」
・「パターンA」+「パターンB2」→「パターンC2」
・ ・・
・パターンA」+「パターンBi」→「パターンCi」
・ ・・
・「パターンA」+「パターンBN」→「パターンCN」
これは先に説明した8のパターン制御器を使用する。
「パターンA」と「パターンBi」(i=1〜N)を励起させ、その後に「パターンCi」を励起させる。この時、パターン制御器により、「パターンA」、「パターンBi」から「パターンCi」(i=1〜N)へ結合が生成される。この結合が生成されると、「パターンA」と「パターンBi」が励起すると、「パターンCi」が励起するようになる。以上より入力するパターンの組合せを変えることにより、組合せに対応したパターンを出力することが可能となる。図19にパターンに応じたパターンの出力例を示す。
20は誤検出したパターンを検出する抑制側パターン検出部である。21は抑制側閾値である。22は誤検出による誤った記録モジュールの活性化を抑制する誤検出抑制部である。23はモジュール間の結合を生成する抑制側モジュール間結合部である。24は活性側パターン検出部誤って活性させた誤パターンを保存する抑制側パターン保存部である。
14のパターンを15の活性側パターン検出部で検出する場合、14の信号パターンとの相関が活性側閾値を超えるよう活性側パターン検出部の結合係数を自動的に設定する。結合係数設定後、当該パターンが入力された場合、活性側パターン検出部の信号は活性側閾値こえ、17のモジュール活性部が励起し、本モジュールが活性化したことを示す。
仮に本モジュールを活性化させはいけない入力パターンにより、活性側パターン検出の信号が活性側閾値を超えたとする。この場合、検出となるため、誤検出であることを制御信号により通知する。この時、入力パターンとの相関が抑制側閾値を超えるよう抑制側パターン検出部の結合係数を自動的に設定する。これにより22の誤検出抑制部が動作し、誤検出を回避することができる。本モジュールで検出したパターンおよび活性側パターン検出部で誤って検出したパターンは、それぞれ活性側パターン保存部と抑制側パターン保存部で記録する。保存したパターンは活性側検出部の結合係数および抑制側検出部の結合係数が変更される時に、過去に実施した検出または抑制が維持されていることを確認する時に使用される。
本図では実施例とラインを2本としているが、必要に応じ複数設けることになる。
パターン検出部での相関は入力ライン毎に計算される。パターンAはある入力ラインに伝搬しパターン検出部で相関計算が実施される。パターンBも別の入力ラインに伝搬しパターン検出部で上記とは別に相関計算が実施される。従って、入力ラインに伝搬するパターンによって同一モジュールにおいて、励起する場合と励起しない場合が混在する。モジュールの励起が発生した場合、モジュールのパターンが出力ラインに出力される。
このように複数の入力に対し、干渉することなく相関計算が実施され、また励起したモジュールの情報も干渉することなく出力できる。
画像情報、音声情報および言語を対応するパターンに変換するパターン変換器と、パターンを記録するパターン記録器と、パターンの設定、変更およびパターンとパターンの結合関係を生成するパターン制御器と、パターンを制御信号に変換する制御信号生成器により、人間の思考をパターンとして逐次、学習し、状況に応じた動作が学習した通りに実行することができる。
画像情報、音声情報および言語を対応するパターンに変換するパターン変換器と、パターンを記録するパターン記録器と、パターンの設定、変更およびパターンとパターンの結合関係を生成するパターン制御器と、入力した情報の価値を分析する情報分析器により、有用と判断した情報を自律的に記録することができる。
いつ、どこで、誰が、何を、どのように、なぜ、したのかを識別・整理する文構成分析器と、文構成分析器で整理された文を記録するパターン記録器と、パターン記録器に記録した情報から検索したい情報を抽出する情報抽出器により、質問に対し直接的な回答を機械で生成することができる。
入力したパターンを記録するパターン記録器と、入力した複数のパターンから導出または連想されるパターンを生成するパターン制御器により、入力するパターンの組合せを変えることにより、組合せに対応したパターンを機械に出力させることができる。
2 画像パターン変換器
3 音声検出器
4 音声パターン変換器
5 言語入力器
6 言語パターン変換器
7 パターン記録器
8 パターン制御器
9 制御信号生成器
10 アクチュエータ
11 情報分析器
12 文構成分析器
13 情報抽出器
14 パターン
15 活性側検出部
16 活性側閾値
17 モジュール活性部
18 活性側モジュール間結合部
19 活性側パターン保存部
20 抑制側パターン検出部
21 抑制側閾値
22 誤検出抑制部
23 抑制側モジュール間結合部
24 抑制側パターン保存部
25 パターンA
26 パターンB
27 入力ライン
28 出力ライン
Claims (1)
- 画像情報、音声情報および言語を対応するパターンに変換するパターン変換器と、パターンを記録するパターン記録器と、パターンの設定、変更およびパターンとパターンの結合関係を生成するパターン制御器と、入力した情報の価値を分析する情報分析器を備え、有用と判断した情報を自律的に記録していく自律型思考パターン生成機。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014119976A JP5737641B2 (ja) | 2014-05-24 | 2014-05-24 | 自律型思考パターン生成機 |
CN201480079225.9A CN106415616A (zh) | 2014-05-24 | 2014-10-20 | 自主型思考模型生成机 |
US14/902,256 US11397896B2 (en) | 2014-05-24 | 2014-10-20 | Autonomous thinking pattern generator |
PCT/JP2014/078837 WO2015182007A1 (ja) | 2014-05-24 | 2014-10-20 | 自律型思考パターン生成機 |
EP14893139.7A EP3151170A4 (en) | 2014-05-24 | 2014-10-20 | Autonomous thinking pattern generator |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014119976A JP5737641B2 (ja) | 2014-05-24 | 2014-05-24 | 自律型思考パターン生成機 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014222504A JP2014222504A (ja) | 2014-11-27 |
JP5737641B2 true JP5737641B2 (ja) | 2015-06-17 |
Family
ID=52121979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014119976A Active JP5737641B2 (ja) | 2014-05-24 | 2014-05-24 | 自律型思考パターン生成機 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11397896B2 (ja) |
EP (1) | EP3151170A4 (ja) |
JP (1) | JP5737641B2 (ja) |
CN (1) | CN106415616A (ja) |
WO (1) | WO2015182007A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5821141B2 (ja) * | 2014-12-17 | 2015-11-24 | 洋彰 宮崎 | 自律型知識体系構築機 |
JP5807829B2 (ja) * | 2015-02-02 | 2015-11-10 | 洋彰 宮崎 | 自律型知識分析機 |
JP5807830B2 (ja) * | 2015-02-17 | 2015-11-10 | 洋彰 宮崎 | 自律型知能生成機 |
JP5821142B2 (ja) * | 2015-03-03 | 2015-11-24 | 洋彰 宮崎 | 自律型知能体系構築機 |
JP5807831B2 (ja) * | 2015-03-27 | 2015-11-10 | 洋彰 宮崎 | 自律型問題解決機 |
JP5810476B2 (ja) * | 2015-04-09 | 2015-11-11 | 洋彰 宮崎 | 自律型知識抽出機 |
JP5828437B2 (ja) * | 2015-05-07 | 2015-12-09 | 洋彰 宮崎 | 自律型処理手順生成および実行機 |
JP5828438B2 (ja) * | 2015-05-18 | 2015-12-09 | 洋彰 宮崎 | 自律型知識体系構築機 |
JP5866721B2 (ja) * | 2015-05-25 | 2016-02-17 | 洋彰 宮崎 | 人工知能装置 |
JP2017072875A (ja) * | 2015-10-05 | 2017-04-13 | 哲明 仲村 | 情報処理装置、情報処理方法、データ構造およびプログラム |
CN107967307A (zh) * | 2017-11-15 | 2018-04-27 | 胡明建 | 一种机械视觉和机械听觉以时间相互映射的设计方法 |
CN107891448A (zh) * | 2017-12-25 | 2018-04-10 | 胡明建 | 一种机械视觉听觉触觉以时间相互映射的设计方法 |
KR20210010184A (ko) * | 2019-07-19 | 2021-01-27 | 한국전자통신연구원 | 이상 상황 탐지 장치 및 방법 |
WO2022030134A1 (ja) * | 2020-08-04 | 2022-02-10 | Necソリューションイノベータ株式会社 | 情報処理装置、情報処理方法、プログラム及び記録媒体 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2856259B2 (ja) * | 1990-01-31 | 1999-02-10 | 富士通株式会社 | 自己学習システムの安定化方式 |
US5519608A (en) * | 1993-06-24 | 1996-05-21 | Xerox Corporation | Method for extracting from a text corpus answers to questions stated in natural language by using linguistic analysis and hypothesis generation |
JPH11126197A (ja) | 1997-10-21 | 1999-05-11 | Maikomu Kk | 人工知能システム |
US7711672B2 (en) * | 1998-05-28 | 2010-05-04 | Lawrence Au | Semantic network methods to disambiguate natural language meaning |
US20020193989A1 (en) * | 1999-05-21 | 2002-12-19 | Michael Geilhufe | Method and apparatus for identifying voice controlled devices |
JP2001005488A (ja) * | 1999-06-18 | 2001-01-12 | Mitsubishi Electric Corp | 音声対話システム |
US6895380B2 (en) * | 2000-03-02 | 2005-05-17 | Electro Standards Laboratories | Voice actuation with contextual learning for intelligent machine control |
CN1283428C (zh) * | 2000-03-31 | 2006-11-08 | 索尼公司 | 机器人设备、控制机器人设备动作的方法 |
US6658377B1 (en) * | 2000-06-13 | 2003-12-02 | Perspectus, Inc. | Method and system for text analysis based on the tagging, processing, and/or reformatting of the input text |
US7426505B2 (en) * | 2001-03-07 | 2008-09-16 | International Business Machines Corporation | Method for identifying word patterns in text |
US7860706B2 (en) * | 2001-03-16 | 2010-12-28 | Eli Abir | Knowledge system method and appparatus |
JP2003205483A (ja) * | 2001-11-07 | 2003-07-22 | Sony Corp | ロボットシステム及びロボット装置の制御方法 |
JP2007141090A (ja) | 2005-11-21 | 2007-06-07 | Fuji Xerox Co Ltd | 質問応答システム、およびデータ検索方法、並びにコンピュータ・プログラム |
US20080320087A1 (en) * | 2007-06-22 | 2008-12-25 | Microsoft Corporation | Swarm sensing and actuating |
US8676904B2 (en) * | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10540976B2 (en) * | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
JP5317061B2 (ja) * | 2009-07-30 | 2013-10-16 | 独立行政法人情報通信研究機構 | 単語間の意味的関係の有無についての、複数言語での同時分類器及びそのためのコンピュータプログラム。 |
JP2011221794A (ja) * | 2010-04-09 | 2011-11-04 | Kddi Corp | 画像選定装置 |
US9047567B2 (en) * | 2011-07-15 | 2015-06-02 | International Business Machines Corporation | Utilizing failures in question and answer system responses to enhance the accuracy of question and answer systems |
CN202736475U (zh) * | 2011-12-08 | 2013-02-13 | 华南理工大学 | 一种聊天机器人 |
JP5727980B2 (ja) * | 2012-09-28 | 2015-06-03 | 株式会社東芝 | 表現変換装置、方法およびプログラム |
KR102369784B1 (ko) * | 2013-06-07 | 2022-03-03 | 애플 인크. | 지능형 자동 어시스턴트 |
-
2014
- 2014-05-24 JP JP2014119976A patent/JP5737641B2/ja active Active
- 2014-10-20 CN CN201480079225.9A patent/CN106415616A/zh active Pending
- 2014-10-20 WO PCT/JP2014/078837 patent/WO2015182007A1/ja active Application Filing
- 2014-10-20 US US14/902,256 patent/US11397896B2/en active Active
- 2014-10-20 EP EP14893139.7A patent/EP3151170A4/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
EP3151170A4 (en) | 2018-02-28 |
US20160155051A1 (en) | 2016-06-02 |
US11397896B2 (en) | 2022-07-26 |
CN106415616A (zh) | 2017-02-15 |
JP2014222504A (ja) | 2014-11-27 |
WO2015182007A1 (ja) | 2015-12-03 |
EP3151170A1 (en) | 2017-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5737641B2 (ja) | 自律型思考パターン生成機 | |
US11210590B2 (en) | Generating free text representing semantic relationships between linked entities in a knowledge graph | |
CN104252864B (zh) | 实时语音分析方法和系统 | |
US10019984B2 (en) | Speech recognition error diagnosis | |
Van Rooij et al. | 9: Only: Meaning and lmplicatures | |
CN116343824B (zh) | 口才表达能力的全面评估与解决方法、系统、装置及介质 | |
WO2016024367A1 (ja) | 自律型知識向上装置 | |
You et al. | Towards data distillation for end-to-end spoken conversational question answering | |
WO2016067478A1 (ja) | 自動論理構築機 | |
Xu | English speech recognition and evaluation of pronunciation quality using deep learning | |
US11438283B1 (en) | Intelligent conversational systems | |
Campbell et al. | Paralinguistic and linguistic fluency features for Alzheimer's disease detection | |
Sahay et al. | Modeling intent, dialog policies and response adaptation for goal-oriented interactions | |
Dighe et al. | Leveraging large language models for exploiting asr uncertainty | |
WO2016163039A1 (ja) | 自律型知識抽出機 | |
JP5807830B2 (ja) | 自律型知能生成機 | |
WO2016139820A1 (ja) | 自律型知能体系構築機 | |
KR20240106507A (ko) | 감정 분석 모델을 활용한 상담 챗봇 장치 및 방법 | |
WO2016098366A1 (ja) | 自律型知識体系構築機 | |
De Silva et al. | Adding common sense to robots by completing the incomplete natural language instructions | |
CN114881243A (zh) | 一种开放式学习的系统及方法 | |
JP5828437B2 (ja) | 自律型処理手順生成および実行機 | |
William et al. | Bimodal Emotion Recognition Using Text and Speech With Deep Learning and Stacking Ensemble Technique | |
JP5828438B2 (ja) | 自律型知識体系構築機 | |
WO2016189755A1 (ja) | 人工知能装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20140728 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140728 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20140904 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150407 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150409 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5737641 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |