JP2019061662A - 情報を抽出する方法及び装置 - Google Patents

情報を抽出する方法及び装置 Download PDF

Info

Publication number
JP2019061662A
JP2019061662A JP2018154667A JP2018154667A JP2019061662A JP 2019061662 A JP2019061662 A JP 2019061662A JP 2018154667 A JP2018154667 A JP 2018154667A JP 2018154667 A JP2018154667 A JP 2018154667A JP 2019061662 A JP2019061662 A JP 2019061662A
Authority
JP
Japan
Prior art keywords
information
matching
contactor
contact
pinyin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018154667A
Other languages
English (en)
Other versions
JP6633153B2 (ja
Inventor
パン,シアンユイ
Xiangyu Pang
タン,コアンヤオ
Guangyao Tang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2019061662A publication Critical patent/JP2019061662A/ja
Application granted granted Critical
Publication of JP6633153B2 publication Critical patent/JP6633153B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/53Processing of non-Latin text
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/274Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
    • H04M1/2745Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
    • H04M1/27467Methods of retrieving data
    • H04M1/2748Methods of retrieving data by matching character strings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/193Formal grammars, e.g. finite state automata, context free grammars or word networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/086Recognition of spelled words
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】ユーザの本意に一致する連絡者情報をより良く認識でき、抽出された連絡者情報の正確性を向上するる情報抽出装置及び方法を提供する。【解決手段】方法は、ユーザの音声情報を受信し解析して当該音声情報に対応するテキスト情報を生成することと、当該テキスト情報から認識待ち連絡者情報を抽出することと、当該ユーザの、少なくとも二つの連絡者情報を含む連絡帳を取得することと、当該認識待ち連絡者情報に基づいて、少なくとも二つのマッチング用情報を生成することと、当該少なくとも二つのマッチング用情報における各種類のマッチング用情報について、当該種類のマッチング用情報に基づいて、当該認識待ち連絡者情報と当該少なくとも二つの連絡者情報における各連絡者情報とのマッチング度を確定することと、確定されたマッチング度に基づいて当該認識待ち連絡者情報にマッチした連絡者情報を当該連絡帳から抽出する。【選択図】図2

Description

本願は、コンピュータ技術分野に関し、具体的に音声認識技術分野に関し、特に情報を抽出する方法及び装置に関する。
音声認識技術(Automatic Speech Recognition、ASR)は、人間の音声における単語内容をコンピュータ読取可能な入力、例えばキー、二値化コード又は文字序列へ変換することを目標とする。音声認識技術は広い範囲に応用され、例えば音声ダイヤル、音声ナビゲーション、室内デバイス制御、音声ファイル検索などである。幾つかのシーンにおいて、認識ユーザの音声により、連絡帳からユーザに所望の連絡者情報を抽出する必要がある。
しかし、従来の連絡帳からユーザに所望の連絡者情報を抽出することは、正確率が低い課題がある。
本願の実施形態は、改善された情報を抽出する方法及び装置を提供して上記の背景技術の部分に言及された技術課題を解決することを目的とする。
第一の局面として、本願の実施形態は情報を抽出する方法を提供する。前記方法は、ユーザの音声情報を受信し解析して、前記音声情報に対応するテキスト情報を生成し、前記テキスト情報から認識待ち連絡者情報を抽出し、前記ユーザの、少なくとも二つの連絡者情報を含む連絡帳を取得し、前記認識待ち連絡者情報に基づいて、少なくとも二つのマッチング用情報を生成し、前記少なくとも二つのマッチング用情報における各種類のマッチング用情報について、当該種類のマッチング用情報に基づいて、前記認識待ち連絡者情報と前記少なくとも二つの連絡者情報における各連絡者情報とのマッチング度を確定し、確定されたマッチング度に基づいて、前記認識待ち連絡者情報にマッチした連絡者情報を前記連絡帳から抽出する、ことを含む。
第二の局面として、本願の実施形態は、情報を抽出する装置を提供する。前記装置は、ユーザの音声情報を受信し解析して、前記音声情報に対応するテキスト情報を生成する解析ユニットと、前記テキスト情報から認識待ち連絡者情報を抽出する第一抽出ユニットと、前記ユーザの少なくとも二つの連絡者情報を含む連絡帳を取得する取得ユニットと、前記認識待ち連絡者情報に基づいて、少なくとも二つのマッチング用情報を生成する生成ユニットと、前記少なくとも二つのマッチング用情報における各種類のマッチング用情報について、当該種類のマッチング用情報に基づいて、前記認識待ち連絡者情報と前記少なくとも二つの連絡者情報における各連絡者情報とのマッチング度を確定する確定ユニットと、確定されたマッチング度に基づいて、前記認識待ち連絡者情報にマッチした連絡者情報を前記連絡帳から抽出する第二抽出ユニットと、を備える。
第三の局面として、本願の実施形態はデバイスを提供する。前記デバイスは、一つ又は複数のプロセッサと、一つ又は複数のプログラムを記憶する記憶装置とを備え、前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサにより実行されると、前記一つ又は複数のプロセッサに第一の局面に記載の方法を実現させる。
第四の局面として、本願の実施形態は、コンピュータプログラムが記憶されており、当該プログラムがプロセッサにより実行されると、第一の局面に記載の方法を実現させるコンピュータ読取可能な記憶媒体を提供する。
本願の実施形態により提供される情報を抽出する方法及び装置によれば、最初に音声認識により、ユーザの音声から認識待ち連絡者情報を抽出し、その後に認識待ち連絡者情報に基づいて少なくとも二つのマッチング用情報を生成し、そして各種類のマッチング用情報に基づいて、認識待ち連絡者情報とユーザの連絡帳における各連絡者情報とのマッチング度を確定し、最後にこれら複数種のマッチング度を利用して連絡者情報を抽出する。これにより、このような過程において、複数種のマッチング用情報を利用してマッチングを行えるので、ユーザの本意に一致する連絡者情報をより良く認識でき、抽出された連絡者情報の正確性を向上させることができる。
以下の図面を参照してなされた制限的でない実施形態に対する詳細的な説明により、本発明の他の特徴、目的及び利点はより明らかになる。
本願が適用される例示的なシステムアーキテクチャ図である。 本願の情報を抽出する方法による一実施形態のフローチャートである。 本願の情報を抽出する方法によるシーンの模式図である。 本願の情報を抽出する装置による一実施形態の構成模式図である。 本願の実施形態を実現するためのデバイスに適用されるコンピュータシステムの構成模式図である。
以下、図面及び実施形態を参照しながら本発明をより詳細に説明する。理解すべきことは、ここで説明する具体的な実施形態は、当該発明を説明するものに過ぎず、当該発明を限定するものではない。ただし、説明の便宜上、図面には発明に関連する部分のみが示されている。
なお、衝突しない場合、本願の実施形態及び実施形態における特徴を相互に組み合せてもよい。以下、図面及び実施形態を参照しながら本願を詳細に説明する。
図1は、本願が適用できる情報を抽出する方法又は情報を抽出する装置の実施形態の例示的なシステムアーキテクチャ100を示した。
図1に示されたように、システムアーキテクチャ100は、端末デバイス101、102、103と、ネットワーク104と、サーバ105とを備えても良い。ネットワーク104は、端末デバイス101、102、103とサーバ105の間に通信リンクの媒体を提供する。ネットワーク104は、各種類の接続タイプ、例えば有線、無線通信リンク又は光ファイバ、ケーブルなどを含んでも良い。
ユーザは、端末デバイス101、102、103を使用してネットワーク104を介してサーバ105とやりとりすることにより、メッセージなどを送受信することができる。端末デバイス101、102、103には、各種類の通信クライアントアプリ、例えば音声補助型のアプリ、買物型のアプリ、検索型のアプリ、即時通信ツール、メールボックスクライアント、交際型のプラットフォームソフトウェアなどがインストールされても良い。
端末デバイス101、102、103は、音声受信機能を有する各種類の電子デバイスであっても良く、スマートフォーン、タブレット、電子書籍閲覧機、MP3プレーヤ(Moving Picture Experts Group Audio Layer III、ムービングピクチャエクスパーシグループオーディオレイヤー3)、MP4(Moving Picture Experts Group Audio Layer IV、ムービングピクチャエクスパーシグループオーディオレイヤー4)プレーヤ、ノードパソコン及びディスクトップコンピュータなどを含むが、それらに限定されない。
サーバ105は、各種類のサービスを提供するサーバ、例えば端末デバイス101、102、103における音声補助型のアプリに対してサポートを提供するバックグラウンドサーバであっても良い。バックグラウンドサーバは、受信された音声情報などのデータに対して分析などの処理を行い、処理結果(例えば前記音声情報に基づいて抽出された情報)を端末デバイスにフィードバックすることができる。
説明すべきなのは、本願の実施形態により提供される情報を抽出する方法は、一般的にサーバ105により実行される。それに応じて、情報を抽出する装置は一般的にサーバ105に設置される。説明すべきなのは、本願の実施形態により提供される情報を抽出する方法は、ある場合に端末デバイス101、102、103により実行されても良い。
理解すべきなのは、図1における端末デバイス、ネットワーク及びサーバの数は例示的なものに過ぎない。実現の必要に応じて、任意の数の端末デバイス、ネットワーク及びサーバを備えても良い。
続いて図2を参照する。図2は、本願の情報を抽出する方法による一実施形態の手順200を示した。前記情報を抽出する方法は、以下のステップを含む。
ステップ201において、ユーザの音声情報を受信し解析して、音声情報に対応するテキスト情報を生成する。
本実施形態において、情報を抽出する方法が運行される電子デバイス(例えば図1に示されたサーバ)は、まずユーザが利用して音声入力が行われる端末デバイスからユーザに入力された音声情報を受信し、そしてユーザの音声情報を解析して前記音声情報に対応するテキスト情報を生成することができる。
本実施形態において、音声認識技術を利用してユーザの音声情報を解析して、前記音声情報に対応するテキスト情報を生成することができ、ここでは詳しく説明しない。
例示として、ユーザの音声情報は、「張三に電話する」に対応する音声であっても良く、生成されたテキスト情報は「張三に電話する」である。
ステップ202において、テキスト情報から認識待ち連絡者情報を抽出する。
本実施形態において、前記電子デバイスは前記テキスト情報から認識待ち連絡者情報を抽出することができる。
例示として、語義解析技術を利用してテキスト情報から認識待ち連絡者情報を抽出することができる。例えば、主題モデルを利用して前記テキスト情報におけるキーワードを抽出し、そして、あるルールを利用して、例えばある語の性質のキーワードを抽出し、或いはテキスト情報においてある位置のキーワードを抽出し、前記テキスト情報から認識待ち連絡者情報を抽出することができる。
例示として、連絡者キーワードセットを予め設置し、連絡者キーワードセットにおける連絡者キーワードにマッチする方式を利用し、前記テキスト情報から認識待ち連絡者情報を検索してから認識待ち連絡者情報を抽出することができる。
例示として、テキスト情報が「張三に電話する」であり、このようなテキスト情報から認識待ち連絡者情報として「張三」を抽出することができる。
ステップ203において、ユーザの連絡帳を取得する。
本実施形態において、前記電子デバイスは前記ユーザの連絡帳を取得することができる。
本実施形態の一部の選択可能な実現手段において、前記電子デバイスは端末デバイスからユーザの連絡帳を受信することができる。
本実施形態の一部の選択可能な実現手段において、前記電子デバイスは更にローカルで予め記憶されている前記ユーザの連絡帳を取得することができる。
ステップ204において、認識待ち連絡者情報に基づいて、少なくとも二つのマッチング用情報を生成する。
本実施形態において、前記電子デバイスは、前記認識待ち連絡者情報に基づいて、少なくとも二つのマッチング用情報を生成することができる。
本実施形態において、マッチング用情報は、認識待ち連絡者情報と連絡帳における連絡者情報とをマッチングするために用いられることにより、認識待ち連絡者情報にマッチした連絡者情報を抽出することができる。
例示として、マッチング用情報は、前記認識待ち連絡者情報に対応するピンイン、前記認識待ち連絡者情報に対応する音波情報、名前のキーワード、名称のキーワードのような情報であっても良いが、それらに限定されない。
本実施形態において、ステップ204で生成されたマッチング用情報は少なくとも二つであっても良い。
説明すべきなのは、ユーザに入力される音声は、ユーザの会話の慣習又は発音の慣習の違い、例えば略語を使う傾向があり、話し言葉による表現の傾向があり、方言の発音があるなどによっては、ユーザの音声によりユーザの本意を正確に伝達できない恐れがある。複数種のマッチング用情報を利用してマッチングを行うことにより、ユーザの本意に一致する連絡者情報をより良く認識でき、抽出された連絡者情報の正確性を向上させることができる。
ステップ205において、少なくとも二つのマッチング用情報における各種類のマッチング用情報について、当該種類のマッチング用情報に基づいて、認識待ち連絡者情報と少なくとも二つの連絡者情報における各連絡者情報とのマッチング度を確定する。
本実施形態において、前記電子デバイスは、前記少なくとも二つのマッチング用情報における各種類のマッチング用情報について、当該種類のマッチング用情報に基づいて、前記認識待ち連絡者情報と前記少なくとも二つの連絡者情報における各連絡者情報とのマッチング度を確定することができる。
例示として、ステップ204においてマッチング用情報Aとマッチング用情報Bを生成した。連絡帳には、連絡者情報Cと連絡者情報Dが含まれる。マッチング用情報Aについて、マッチング用情報Aに基づいて、認識すべき連絡者と連絡者情報Cとのマッチング度が90%、認識すべき連絡者と連絡者情報Dとのマッチング度が95%と確定される。マッチング用情報Bについて、マッチング用情報Bに基づいて、認識すべき連絡者と連絡者情報Cとのマッチング度が80%、認識すべき連絡者と連絡者情報Dとのマッチング度が70%と確定される。
ステップ206において、確定されたマッチング度に基づいて、連絡帳から認識待ち連絡者情報にマッチした連絡者情報を抽出する。
本実施形態において、前記電子デバイスは、確定されたマッチング度に基づいて、前記連絡帳から前記認識待ち連絡者情報にマッチした連絡者情報を抽出することができる。
本実施形態の一部の選択可能な実現手段において、ステップ206は、マッチング度の大きい順で、所定の数のマッチング度を選択し、その後に、前記連絡帳から選択されたマッチング度に対応する連絡者情報を抽出するように実現可能である。
本実施形態の一部の選択可能な実現手段において、ステップ206は、更に、各種類のマッチング用情報に対して予め重みを設置し、そしてステップ205に確定されたマッチング度と対応するマッチング用情報の重みとの積を最終的なマッチング度とすることを含んでも良い。
本実施形態の一部の選択可能な実現手段において、抽出された連絡者情報は複数であっても良い。ステップ206の後に、本実施形態に示される方法は、更に、抽出された連絡者情報を前記ユーザに使用される端末デバイスに送信し、その後に、前記端末デバイスによりユーザに対して受信された連絡者情報を展示してユーザに選択させることを含んでも良い。
本実施形態の一部の選択可能な実現手段において、抽出された連絡者情報は一つであっても良い。ステップ202において、更に前記テキスト情報からユーザの本意情報を認識しても良い。ステップ206の後に、本実施形態に示された方法は、更に、本意情報に対応する制御指令、例えば、ダイヤル指令、新しいメッセージの生成指令などを生成し、抽出された連絡者情報と生成された制御指令を前記ユーザに使用される端末デバイスに送信し、その後に前記端末デバイスにより受信された連絡者情報を利用して前記制御指令を実行することを含んでも良い。
続いて図3を参照する。図3は本実施形態の情報を抽出する方法による応用シーンの模式図である。図3の応用シーンにおいて、ユーザは端末デバイスに対して「パパに電話する」という音声を話した。その後、端末デバイスは音声情報「パパに電話する」をサーバに送信する。その後、サーバは、前記音声情報を受信し解析して前記音声情報に対応するテキスト情報「パパに電話する」を生成する。その後、サーバは前記テキスト情報から認識待ち連絡者情報である「パパ」を抽出することができる。且つ、前記サーバは、前記ユーザの連絡帳を取得することができ、例えば連絡帳に連絡者情報Aと連絡者情報Bが含まれる。そして、前記サーバは、前記認識待ち連絡者情報に基づいて、少なくとも二つのマッチング用情報、例えば、名称のキーワード「パパ」と認識待ち連絡者情報に対応するピンイン「laoba」を生成することができる。その後に、名称のキーワード「パパ」に基づいて、前記認識待ち連絡者情報と連絡者情報Aとのマッチング度である甲、前記認識待ち連絡者情報と連絡者情報Bとのマッチング度である乙を確定することができ、且つ、ピンイン「laoba」に基づいて、前記認識待ち連絡者情報と連絡者情報Aとのマッチング度である丙、前記認識待ち連絡者情報と連絡者情報Bとのマッチング度である丁を確定することができる。確定されたマッチング度甲、マッチング度乙、マッチング度丙とマッチング度丁に基づいて、前記連絡帳から前記認識待ち連絡者情報にマッチした連絡者情報を抽出する。例えば、マッチング度甲、マッチング度乙、マッチング度丙とマッチング度丁のうち、マッチング度丙が最大であるので、前記連絡帳からマッチング度丙に対応する連絡者情報、即ち連絡者情報Aを抽出することができる。
本願の前記実施形態に提供される方法によれば、最初に音声認識を利用してユーザの音声から認識待ち連絡者情報を抽出し、そして認識待ち連絡者情報に基づいて少なくとも二つのマッチング用情報を生成し、その後に各種類のマッチング用情報に基づいて、認識待ち連絡者情報とユーザの連絡帳における各連絡者情報とのマッチング度を確定し、最後にこれら複数種のマッチング度を利用して連絡者情報を抽出する。これにより、このような過程において、複数種のマッチング用情報を利用してマッチングを行えるので、ユーザの本意に一致する連絡者情報をより良く認識でき、抽出された連絡者情報の正確性を向上させることができる。
本実施形態の一部の選択可能な実現手段において、マッチング用情報は、前記認識待ち連絡者情報に対応するピンインであっても良い。
本実施形態の一部の選択可能な実現手段において、ステップ204は、前記認識待ち連絡者情報に対応する第一のピンインを確定し、前記連絡帳における各連絡者情報について、当該連絡者情報に対応する第二のピンインを確定することを含んでも良い。
理解できるように、第二のピンインは少なくとも二つを有する。説明の便利のために、第一と第二でピンインを区分する。第一のピンインは、実質的に認識すべき連絡者に対応するピンインである。
例示として、認識待ち連絡者情報は「胡广」、認識待ち連絡者情報に対応する第一のピンインは「huguang」である。
本実施形態の一部の選択可能な実現手段において、ステップ205は、前記連絡帳における各連絡者について、前記第一のピンインと当該連絡者情報に対応する第二のピンインを予め作成されたピンイン類似度モデルに導入して前記第一のピンインと当該第二のピンインとのピンイン類似度を生成することを含んでも良い。ここでは、前記ピンイン類似度モデルは、第一のピンイン、第二のピンインの両者とピンイン類似度との対応関係を示す。当該ピンイン類似度を前記認識待ち連絡者情報と当該連絡者情報とのマッチング度として確定する。
本実現手段において、前記ピンイン類似度モデルは、大量のユーザの音声データ(言い間違いと方言情報を含む)に対して本意の標識を行い、標識された音声データを訓練のサンプルとして初期モデルを訓練してピンイン類似度モデルを得るような過程で作成することができる。ここでは、モデルの訓練に用いられるサンプルは、地域により区画して各領域に対応するピンイン類似度モデルを訓練して得られても良い。
本実現手段において、前記ピンイン類似度モデルはルックアップテーブルであっても良い。前記ルックアップテーブルは、ピンイン及びピンイン同士のピンイン類似度をリストアップする。第一のピンインと第二のピンインとの類似度は、ルックアップテーブルからルックアップすることができる。
説明すべきなのは、ピンイン類似度モデルにより、ユーザの発音慣習、例えば方言の発音、発音の不明瞭などに応じて、連絡帳からユーザの本意に一致する連絡者情報を抽出することができる。
本実施形態の一部の選択可能な実現手段において、ステップ205は、前記連絡帳における各連絡者情報について、前記第一のピンインと当該連絡者情報に対応する第二のピンインに基づいて、前記認識待ち連絡者情報と当該連絡者情報との編集距離を確定し、当該編集距離を前記認識待ち連絡者情報と当該連絡者情報とのマッチング度として確定することを含んでも良い。
本実現手段において、編集距離は、二つの文字列のうち、一方が他方に変換するのに必要な最も少ない編集操作の回数を示す。例示として、一方の姓名と他方の姓名との編集距離を取得するために、二つの姓名に含まれる文字を順番で比較する必要がある。例えば、「李磊」と「王麗」の編集距離を取得するために、「李」と「王」の編集距離を取得してから「磊」と「麗」の編集距離を取得し、そして二つの編集距離の和を求める必要がある。二つの文字の編集距離を判断することは、二つの文字の声母、韻母と音調を比較する。二つの文字の声母、韻母又は音調のうち何れか一つが異なると、二つの文字の発音の編集距離が1であり、二つが異なると、編集距離が2であり、三つが異なると、編集距離が3である。
本実施形態の一部の選択可能な実現手段において、マッチング用情報は、前記認識待ち連絡者情報に対応する音波情報であっても良い。
本実施形態の一部の選択可能な実現手段において、ステップ204は、前記認識待ち連絡者情報に対応する第一の音波情報を取得することを含んでも良い。
本実現手段において、予め記憶されている音波情報から前記第一の音波情報を取得しても良い。
本実現手段において、前記音声情報から前記第一の音波情報を切り取っても良い。
本実施形態の一部の選択可能な実現手段において、ステップ204は、更に、前記連絡帳における各連絡者情報について、当該連絡者情報に対応する第二の音波情報を取得することを含んでも良い。
本実施形態の一部の選択可能な実現手段において、ステップ205は、前記連絡帳における各連絡者情報について、前記第一の音波情報と当該連絡者情報に対応する第二の音波情報との類似度を前記認識待ち連絡者情報と当該連絡者情報とのマッチング度として確定することを含んでも良い。音波情報同士の類似度をどのように算出するかは、当業者であれば実現できるため、ここでは詳しく説明しない。
本実施形態の一部の選択可能な実現手段において、マッチング用情報は名前のキーワードであっても良い。
本実施形態の一部の選択可能な実現手段において、ステップ204は、認識待ち連絡者情報から名前のキーワードを抽出することを含んでも良い。
例示として、認識待ち連絡者情報「鳳儀美女」から名前のキーワード「鳳儀」を抽出することができる。
本実現手段において、名前のキーワードセットを予め設置し、認識待ち連絡者情報から名前のキーワードセットにおける詞を抽出して名前のキーワードとすることができる。
本実施形態の一部の選択可能な実現手段において、ステップ205は、前記連絡帳における各連絡者情報について、前記名前のキーワードと当該連絡者情報との一致度を認識待ち連絡者情報と当該連絡者情報とのマッチング度として確定することを含んでも良い。
例示として、連絡帳における連絡者情報は「張鳳儀」と「張三」である。そして、「鳳儀」と「張鳳儀」との一致度、更に「鳳儀」と「張三」との一致度を算出することができる。例示として、一致度は、連絡者情報と名前のキーワードのうち同じ文字の数と、連絡者情報と名前のキーワードのうち文字の総計との比であっても良い。これにより、「鳳儀」と「張鳳儀」の一致度は40%、「鳳儀」と「張三」の一致度は0である。
説明すべきなのは、名前のキーワードというマッチング用情報を利用することにより、ユーザの幾つかの話し慣習、例えば略語の使用という傾向があるなどに応じて、連絡帳からユーザの本意に一致する連絡者情報を抽出することができる。
本実施形態の一部の選択可能な実現手段において、マッチング用情報は名称のキーワードである。
本実施形態の一部の選択可能な実現手段において、ステップ204は、認識待ち連絡者情報から名称のキーワードを抽出することを含んでも良い。
本実現手段において、名称詞セットを予め設置し、前記認識待ち連絡者情報における各詞と名称詞セットにおける名称詞とをマッチングして名称のキーワードを抽出することができる。
本実施形態の一部の選択可能な実現手段において、ステップ205は、予め生成された名称詞関連関係情報を取得することを含んでも良い。ここでは、名称詞関連関係情報は、同じ意味を示す名称詞同士の関連関係を示す。
例示として、名称詞「お父さん」と名称詞「パパ」は、同じ意味を示す。
本実施形態の一部の選択可能な実現手段において、ステップ205は、更に、前記名称詞関連関係情報に基づいて、前記名称のキーワードと同じ意味を示す目標名称詞を取得することを含んでも良い。
例示として、名称のキーワードが「父」であれば、取得された目標名称詞が「お父さん」、「パパ」、「親父」などを含んでも良い。
本実施形態の一部の選択可能な実現手段において、ステップ205は、更に、前記連絡帳における各連絡者情報について、前記名称のキーワードと当該連絡者情報とのマッチング度及び前記目標名称詞と当該連絡者情報とのマッチング度のうち、最も大きいマッチング度を選択して認識待ち連絡者情報と当該連絡者情報とのマッチング度とすることを含んでも良い。
例示として、連絡帳に「美しいはは」と「可愛いパパ」が含まれ、「父」、「お父さん」、「パパ」、「親父」のそれぞれと「美しいはは」とのマッチング度、更に「父」、「お父さん」、「パパ」、「親父」のそれぞれと「可愛いパパ」とのマッチング度を算出することができる。明らかに、このような一連のマッチング度のうち、「パパ」と「可愛いパパ」とのマッチング度が最も高い。
本実施形態の一部の選択可能な実現手段において、名称のキーワードに対して最も高い優先順位を設置し、名称のキーワードに基づいてマッチング度が所定のマッチング度閾値よりも大きい連絡者情報が検索されると、他のマッチング用情報で検索された連絡者情報を採用することではなく、名称のキーワードに基づいて検索された連絡者情報をそのまま抽出することができる。
説明すべきなのは、名称のキーワードというマッチング用情報を利用することにより、ユーザの幾つかの表現の慣習、例えば話し言葉の表現の傾向があるなどに応じて、ユーザの本意に一致する連絡者情報を認識することができる。
説明すべきなのは、前記一連のマッチング用情報によれば、抽出された情報の正確性を向上し、且つユーザの表現の正確性に対する要求を下げることができる。例えば、ユーザにより記憶された連絡者の一部の姓名だけ表現すれば、所望の連絡をマッチングすることができる。
続いて図4を参照する。前記各図に示された方法の実現として、本願は情報を抽出する装置の一実施形態を提供した。当該装置の実施形態は図2に示された方法の実施形態に対応する。当該装置は具体的に各種類の電子デバイスに適用することができる。
図4に示されたように、本実施形態の前記情報を抽出する装置400は、解析ユニット401と、第一抽出ユニット402と、取得ユニット403と、生成ユニット404と、確定ユニット405と、第二抽出ユニット406とを備える。なお、解析ユニットは、ユーザの音声情報を受信し解析して前記音声情報に対応するテキスト情報を生成する。第一抽出ユニットは、前記テキスト情報から認識待ち連絡者情報を抽出する。取得ユニットは、前記ユーザの少なくとも二つの連絡者情報が含まれる連絡帳を取得する。生成ユニットは、前記認識待ち連絡者情報に基づいて、少なくとも二つのマッチング用情報を生成する。確定ユニットは、前記少なくとも二つのマッチング用情報における各種類のマッチング用情報について、当該種類のマッチング用情報に基づいて、前記認識待ち連絡者情報と前記少なくとも二つの連絡者情報における各連絡者情報とのマッチング度を確定する。第二抽出ユニットは、確定されたマッチング度に基づいて、前記連絡帳から前記認識待ち連絡者情報にマッチした連絡者情報を抽出する。
本実施形態の一部の選択可能な実現手段において、マッチング用情報は前記認識待ち連絡者情報に対応するピンインであり、前記第一生成ユニットは、更に、前記認識待ち連絡者情報に対応する第一のピンインを確定し、前記連絡帳における各連絡者情報について、当該連絡者情報に対応する第二のピンインを確定する。
本実施形態の一部の選択可能な実現手段において、前記確定ユニットは、更に、前記連絡帳における各連絡者情報について、前記第一のピンインと当該連絡者情報に対応する第二のピンインを予め作成された、第一のピンイン、第二のピンインの両者とピンイン類似度との対応関係を示すピンイン類似度モデルに導入して前記第一のピンインと当該第二のピンインとのピンイン類似度を生成し、当該ピンイン類似度を前記認識待ち連絡者情報と当該連絡者情報とのマッチング度として確定する。
本実施形態の一部の選択可能な実現手段において、前記確定ユニットは、前記連絡帳における各連絡者情報について、前記第一のピンインと当該連絡者情報に対応する第二のピンインに基づいて、前記認識待ち連絡者情報と当該連絡者情報との編集距離を確定し、当該編集距離を前記認識待ち連絡者情報と当該連絡者情報とのマッチング度として確定する。
本実施形態の一部の選択可能な実現手段において、マッチング用情報は前記認識待ち連絡者情報に対応する音波情報であり、前記第一生成ユニットは、更に、前記認識待ち連絡者情報に対応する第一の音波情報を取得し、前記連絡帳における各連絡者情報について、当該連絡者情報に対応する第二の音波情報を取得する。
本実施形態の一部の選択可能な実現手段において、前記確定ユニットは、更に、前記連絡帳における各連絡者情報について、前記第一の音波情報と当該連絡者情報に対応する第二の音波情報との類似度を、前記認識待ち連絡者情報と当該連絡者情報とのマッチング度として確定する。
本実施形態の一部の選択可能な実現手段において、マッチング用情報は名前のキーワードであり、前記第一生成ユニットは、更に、前記認識待ち連絡者情報から、名前のキーワードを抽出し、前記確定ユニットは、更に、前記連絡帳における各連絡者情報について、前記名前のキーワードと当該連絡者情報との一致度を、前記認識待ち連絡者情報と当該連絡者情報とのマッチング度として確定する。
本実施形態の一部の選択可能な実現手段において、マッチング用情報は名称のキーワードであり、前記第一生成ユニットは、更に、前記認識待ち連絡者情報から名称のキーワードを抽出する。
本実施形態の一部の選択可能な実現手段において、前記確定ユニットは、更に、予め生成された同じ意味を表現する名称詞同士の関連関係を示す名称詞関連関係情報を取得し、前記名称詞関連関係情報に基づいて、前記名称のキーワードと同じ意味を表現する目標名称詞を取得し、前記連絡帳における各連絡者情報について、前記名称のキーワードと当該連絡者情報とのマッチング度及び前記目標名称詞と当該連絡者情報とのマッチング度のうち、最大のマッチング度を取得して前記認識待ち連絡者情報と当該連絡者情報とのマッチング度とする。
本実施形態において、解析ユニット401、第一抽出ユニット402、取得ユニット403、生成ユニット404、確定ユニット405及び第二抽出ユニット406の具体的な処理及び実現された技術效果は、図2の対応の実施形態におけるステップ201、ステップ202、ステップ203、ステップ204、ステップ205及びステップ206の関連説明をそれぞれ参照することができ、ここでは詳しく説明しない。
説明すべきなのは、本実施形態により提供された情報を抽出する装置における各ユニットの実現の細部及び技術效果は、本願における他の実施形態の説明を参照でき、ここでは詳しく説明しない。
続いて図5を参照する。図5は、本願の実施形態を実現するための電子デバイスに適用されるコンピュータシステム500の構成模式図を示した。図5に示された電子デバイスは一つの例示に過ぎず、本願の実施形態の機能及び使用範囲に制限しない。
図5に示されたように、コンピュータシステム500は、読み出し専用メモリ(ROM)502に記憶されているプログラム又は記憶部506からランダムアクセスメモリ(RAM)503にロードされたプログラムに基づいて様々な適当な動作および処理を実行することができる中央処理装置(CPU)501を備える。RAM503には、システム500の操作に必要な様々なプログラムおよびデータがさらに記憶されている。CPU501、ROM502およびRAM 503は、バス504を介して互いに接続されている。入力/出力(I/O)インターフェース505もバス504に接続されている。
キーボード、マウスなどを含む入力部506、陰極線管(CRT)、液晶ディスプレイ(LCD)など、およびスピーカなどを含む出力部507、ハードディスクなどを含む記憶部508、およびLANカード、モデムなどを含むネットワークインターフェースカードの通信部509は、I/Oインターフェース505に接続されている。通信部509は、例えばインターネットのようなネットワークを介して通信処理を実行する。ドライバ510は、必要に応じてI/Oインターフェース505に接続される。リムーバブルメディア511は、例えば、マグネチックディスク、光ディスク、光磁気ディスク、半導体メモリなどのようなものであり、必要に応じてドライバ510に取り付けられ、したがって、ドライバ510から読み出されたコンピュータプログラムが必要に応じて記憶部508にインストールされる。
特に,本発明の実施形態によれば、上記のフローチャートに参照して説明された過程はコンピュータソフトウェアプログラムに実現されても良い。例えば、本発明の実施形態はコンピュータ読取可能な媒体にロードされるコンピュータプログラムを含むコンピュータプログラム製品を備える。当該コンピュータプログラムは、フローチャートに示される方法を実行するためのプログラムコードを含む。このような実施形態において、当該コンピュータプログラムは、通信部509を介してネットワークからダウンロードしてインストールされ、及び/又はリムーバブルメディア511からインストールされても良い。当該コンピュータプログラムは、中央処理ユニット(CPU)501により実行される場合に、本願の方法に限定される前記機能を実行する。
説明すべきなのは、本願のコンピュータ読取可能な媒体は、コンピュータ読取可能な信号媒体、コンピュータ読取可能な記憶媒体、或いは前記両者の任意の組み合わせであっても良い。コンピュータ読取可能な記憶媒体は、例えば電気、磁気、光、電磁気、赤外線、半導体のシステム、サーバ又は部品、或いはこれらの任意の組み合わせであっても良いが、それらに限定されない。コンピュータ読取可能な記憶媒体についてのより具体的な例は、一つ又は複数の導線を含む電気的な接続、携帯可能なコンピュータ磁気ディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、消去可能なプログラミング読取専用メモリ(EPROM又はフラッシュ)、光ファイバ、携帯可能なコンパクト磁気ディスク読取専用メモリ(CD−ROM)、光学記憶素子、磁気記憶素子、或いは前記任意の適当の組み合わせを含むが、それらに限定されない。本願において、コンピュータ読取可能な記憶媒体は、プログラムを含むか記憶する任意の有形の媒体であっても良い。当該プログラムは、コマンドによりシステム、サーバ又は部品の使用を実行し、或いはそれらに組み合わせて使用されても良い。本願において、コンピュータ読取可能な信号媒体は、ベースバンドに伝送され或いはキャリアの一部として伝送され、コンピュータ読取可能なプログラムコードがロードされるデータ信号を含んでも良い。このような伝送されるデータ信号は、各種類の形式を採用しても良く、電磁気信号、光信号又は前記任意の適当の組み合わせを含むが、それらに限定されない。コンピュータ読取可能な信号媒体は、コンピュータ読取可能な記憶媒体以外の任意のコンピュータ読取可能な媒体であっても良い。当該コンピュータ読取可能な媒体は、コマンドによりシステム、サーバ又は部品の使用を実行し又はそれらと組み合わせて使用されるプログラムを送信し、伝播し又は伝送することができる。コンピュータ読取可能な媒体に含まれるプログラムコードは、任意の適当の媒体で伝送されても良く、無線、電線、光ケーブル、RFなど、或いは前記任意の適当の組み合わせを含むが、それらに限定されない。
図面におけるフローチャート及びブロック図は、本願の各実施形態によるシステム、方法及びコンピュータプログラム製品により実現可能なシステム構造、機能及び操作を示した。この点において、フローチャート又はブロック図における各ブロックは、一つのモジュール、プログラムセグメント、又はコードの一部を表すことができる。当該モジュール、プログラムセグメント、コードの一部には、一つ又は複数の所定のロジック機能を実現するための実行可能なコマンドが含まれる。注意すべきなのは、幾つかの置換としての実現において、ブロックに示される機能は図面に示される順序と異なって発生されても良い。例えば、二つの接続的に表示されるブロックは実際に基本的に併行に実行されても良く、場合によっては逆な順序で実行されても良く、関連の機能に従って決定される。注意すべきなのは、ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は操作を実行する専用のハードウェアによるシステムで実現されても良く、或いは専用のハードウェアとコンピュータコードの組み合わせで実現されても良い。
本願の実施形態に説明されたユニットは、ソフトウェアの手段で実現されても良く、ハードウェアの手段で実現されても良い。説明されたユニットは、プロセッサに設置されても良い。例えば、解析ユニットと、第一抽出ユニットと、取得ユニットと、生成ユニットと、確定ユニットと、第二抽出ユニットとを備えるプロセッサとして記載されても良い。なお、これらのユニットの名称は場合によってユニットの自身に対する限定とされない。例えば、解析ユニットは、「ユーザの音声情報を受信し解析して前記音声情報に対応するテキスト情報を生成するユニット」と記載されても良い。
他の局面として、本願は更にコンピュータ読取可能な媒体を提供した。当該コンピュータ読取可能な媒体は、前記実施形態に説明された装置に含まれたものであっても良く、当該装置に実装されずに別途に存在するものであっても良い。前記コンピュータ読取可能な媒体には、一つ又は複数のプログラムがロードされる。前記一つ又は複数のプログラムが当該装置により実行されると、当該装置に、ユーザの音声情報を受信し解析して前記音声情報に対応するテキスト情報を生成し、前記テキスト情報から認識待ち連絡者情報を抽出し、前記ユーザの少なくとも二つの連絡者情報が含まれる連絡帳を取得し、前記認識待ち連絡者情報に基づいて、少なくとも二つのマッチング用情報を生成し、前記少なくとも二つのマッチング用情報における各種類のマッチング用情報について、当該種類のマッチング用情報に基づいて、前記認識待ち連絡者情報と前記少なくとも二つの連絡者情報における各連絡者情報とのマッチング度を確定し、確定されたマッチング度に基づいて、前記連絡帳から前記認識待ち連絡者情報にマッチした連絡者情報を抽出するように実行させる。
以上の記載は、ただ本発明の好適な実施形態及び運用される技術原理に対する説明である。当業者であればわかるように、本発明にかかる発明範囲は、前記技術特徴の特定の組み合わせからなる技術案に限定されず、前記発明構想から逸脱されない場合に前記技術特徴又は均等の特徴による任意の組み合わせで形成される他の技術案も同時に含まれるべきである。例えば前記特徴と本発明に開示された(それらに限定されない)類似の機能を具備する技術特徴が互いに置換されて得られる技術案は該当する。

Claims (13)

  1. 情報を抽出する方法であって、
    ユーザの音声情報を受信し解析して、前記音声情報に対応するテキスト情報を生成し、
    前記テキスト情報から認識待ち連絡者情報を抽出し、
    前記ユーザの、少なくとも二つの連絡者情報を含む連絡帳を取得し、
    前記認識待ち連絡者情報に基づいて、少なくとも二つのマッチング用情報を生成し、
    前記少なくとも二つのマッチング用情報における各種類のマッチング用情報について、当該種類のマッチング用情報に基づいて、前記認識待ち連絡者情報と前記少なくとも二つの連絡者情報における各連絡者情報とのマッチング度を確定し、
    確定されたマッチング度に基づいて、前記認識待ち連絡者情報にマッチした連絡者情報を前記連絡帳から抽出する、
    ことを含むことを特徴とする方法。
  2. マッチング用情報は、前記認識待ち連絡者情報に対応するピンインであり、
    前記認識待ち連絡者情報に基づいて、少なくとも二つのマッチング用情報を生成することは、
    前記認識待ち連絡者情報に対応する第一のピンインを確定し、
    前記連絡帳における各連絡者情報について、当該連絡者情報に対応する第二のピンインを確定する、
    ことを含むことを特徴とする請求項1に記載の方法。
  3. 前記少なくとも二つのマッチング用情報における各種類のマッチング用情報について、当該種類のマッチング用情報に基づいて、前記認識待ち連絡者情報と前記少なくとも二つの連絡者情報における各連絡者情報とのマッチング度を確定することは、
    前記連絡帳における各連絡者情報について、前記第一のピンインと当該連絡者情報に対応する第二のピンインとを、予め作成されたピンイン類似度モデルに導入して、前記第一のピンインと当該第二のピンインとのピンイン類似度を生成し、当該ピンイン類似度を前記認識待ち連絡者情報と当該連絡者情報とのマッチング度として確定することであって、前記ピンイン類似度モデルは、第一のピンイン、第二のピンインのこの両者とピンイン類似度との対応関係を示す、ことを含むことを特徴とする請求項2に記載の方法。
  4. 前記少なくとも二つのマッチング用情報における各種類のマッチング用情報について、当該種類のマッチング用情報に基づいて、前記認識待ち連絡者情報と前記少なくとも二つの連絡者情報における各連絡者情報とのマッチング度を確定することは、
    前記連絡帳における各連絡者情報について、前記第一のピンインと、当該連絡者情報に対応する第二のピンインとに基づいて、前記認識待ち連絡者情報と当該連絡者情報との編集距離を確定し、当該編集距離を前記認識待ち連絡者情報と当該連絡者情報とのマッチング度として確定することを含むことを特徴とする請求項2に記載の方法。
  5. マッチング用情報は、前記認識待ち連絡者情報に対応する音波情報であり、
    前記認識待ち連絡者情報に基づいて、少なくとも二つのマッチング用情報を生成することは、
    前記認識待ち連絡者情報に対応する第一の音波情報を取得し、
    前記連絡帳における各連絡者情報について、当該連絡者情報に対応する第二の音波情報を取得する、ことを含むことを特徴とする請求項1に記載の方法。
  6. 前記少なくとも二つのマッチング用情報における各種類のマッチング用情報について、当該種類のマッチング用情報に基づいて、前記認識待ち連絡者情報と前記少なくとも二つの連絡者情報における各連絡者情報とのマッチング度を確定することは、
    前記連絡帳における各連絡者情報について、前記第一の音波情報と、当該連絡者情報に対応する第二の音波情報との類似度を、前記認識待ち連絡者情報と当該連絡者情報とのマッチング度として確定することを含むことを特徴とする請求項5に記載の方法。
  7. マッチング用情報は、名前のキーワードであり、
    前記認識待ち連絡者情報に基づいて、少なくとも二つのマッチング用情報を生成することは、
    前記認識待ち連絡者情報から名前のキーワードを抽出することを含み、
    前記少なくとも二つのマッチング用情報における各種類のマッチング用情報について、当該種類のマッチング用情報に基づいて、前記認識待ち連絡者情報と前記少なくとも二つの連絡者情報における各連絡者情報とのマッチング度を確定することは、
    前記連絡帳における各連絡者情報について、前記名前のキーワードと当該連絡者情報との一致度を、前記認識待ち連絡者情報と当該連絡者情報とのマッチング度として確定することを含む、
    ことを特徴とする請求項1に記載の方法。
  8. マッチング用情報は名称のキーワードであり、
    前記認識待ち連絡者情報に基づいて、少なくとも二つのマッチング用情報を生成することは、
    前記認識待ち連絡者情報から名称のキーワードを抽出することを含む、
    ことを特徴とする請求項1に記載の方法。
  9. 前記少なくとも二つのマッチング用情報における各種類のマッチング用情報について、当該種類のマッチング用情報に基づいて、前記認識待ち連絡者情報と前記少なくとも二つの連絡者情報における各連絡者情報とのマッチング度を確定することは、
    予め生成された、同一の意味を示す名称詞同士の関連関係を示す名称詞関連関係情報を取得し、
    前記名称詞関連関係情報に基づいて、前記名称のキーワードと同一の意味を示す目標名称詞を取得し、
    前記連絡帳における各連絡者情報について、前記名称のキーワードと当該連絡者情報とのマッチング度及び前記目標名称詞と当該連絡者情報とのマッチング度の中で、最大のマッチング度を、前記認識待ち連絡者情報と当該連絡者情報とのマッチング度として選択する、ことを含むことを特徴とする請求項8に記載の方法。
  10. 情報を抽出する装置であって、
    ユーザの音声情報を受信し解析して、前記音声情報に対応するテキスト情報を生成する解析ユニットと、
    前記テキスト情報から認識待ち連絡者情報を抽出する第一抽出ユニットと、
    前記ユーザの少なくとも二つの連絡者情報を含む連絡帳を取得する取得ユニットと、
    前記認識待ち連絡者情報に基づいて、少なくとも二つのマッチング用情報を生成する生成ユニットと、
    前記少なくとも二つのマッチング用情報における各種類のマッチング用情報について、当該種類のマッチング用情報に基づいて、前記認識待ち連絡者情報と前記少なくとも二つの連絡者情報における各連絡者情報とのマッチング度を確定する確定ユニットと、
    確定されたマッチング度に基づいて、前記認識待ち連絡者情報にマッチした連絡者情報を前記連絡帳から抽出する第二抽出ユニットと、
    を備えることを特徴とする装置。
  11. 一つ又は複数のプロセッサと、
    一つ又は複数のプログラムを記憶する記憶装置と、を備え、
    前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサにより実行されると、前記一つ又は複数のプロセッサに請求項1〜9の何れか一つに記載の方法を実現させることを特徴とするデバイス。
  12. コンピュータプログラムが記憶されており、当該プログラムがプロセッサにより実行されると、請求項1〜9の何れか一つに記載の方法を実現させるコンピュータ読取可能な記憶媒体。
  13. プロセッサにより実行されると、請求項1〜9の何れか一つに記載の方法を実現させるコンピュータプログラム。
JP2018154667A 2017-09-25 2018-08-21 情報を抽出する方法及び装置 Active JP6633153B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710875327.7 2017-09-25
CN201710875327.7A CN107707745A (zh) 2017-09-25 2017-09-25 用于提取信息的方法和装置

Publications (2)

Publication Number Publication Date
JP2019061662A true JP2019061662A (ja) 2019-04-18
JP6633153B2 JP6633153B2 (ja) 2020-01-22

Family

ID=61174810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018154667A Active JP6633153B2 (ja) 2017-09-25 2018-08-21 情報を抽出する方法及び装置

Country Status (3)

Country Link
US (1) US11217236B2 (ja)
JP (1) JP6633153B2 (ja)
CN (1) CN107707745A (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111128142A (zh) * 2018-10-31 2020-05-08 深圳市冠旭电子股份有限公司 一种智能音箱拨打电话的方法、装置及智能音箱
CN109671436A (zh) * 2018-12-07 2019-04-23 陈包容 智能语音识别通讯录联系人人名的方法
CN109963022A (zh) * 2018-12-27 2019-07-02 广州云趣信息科技有限公司 一种基于soundex算法的语音电话本找人方法及流程
CN109936499A (zh) * 2019-02-28 2019-06-25 上海乐愚智能科技有限公司 一种信息传输方法、系统、服务器及计算器存储介质
CN111669451B (zh) * 2019-03-07 2022-10-21 顺丰科技有限公司 私人邮箱判断方法及判断装置
CN111312226A (zh) * 2020-02-17 2020-06-19 出门问问信息科技有限公司 一种语音识别方法、设备及计算机可读存储介质
CN113763961B (zh) * 2020-06-02 2024-04-09 阿里巴巴集团控股有限公司 一种文本处理方法及装置
CN112084773A (zh) * 2020-08-21 2020-12-15 国网湖北省电力有限公司电力科学研究院 一种基于词库双向最大匹配法的电网停电地址匹配方法
CN112651236B (zh) * 2020-12-28 2021-10-01 中电金信软件有限公司 提取文本信息的方法、装置、计算机设备和存储介质
CN112613310A (zh) * 2021-01-04 2021-04-06 成都颜创启新信息技术有限公司 一种人名匹配方法、装置、电子设备及存储介质
CN113326279A (zh) * 2021-05-27 2021-08-31 阿波罗智联(北京)科技有限公司 语音搜索方法和装置、电子设备、计算机可读介质
CN113593569A (zh) * 2021-07-27 2021-11-02 德邦物流股份有限公司 一种电子面单生成方法、装置、电子设备及存储介质
CN113992780B (zh) * 2021-09-13 2022-11-18 珠海格力电器股份有限公司 语音拨号方法、装置、存储介质和设备
CN116010562B (zh) * 2023-03-28 2023-07-07 之江实验室 一种基于多数据源的姓名匹配方法、装置、设备及介质

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1159661C (zh) * 1999-04-08 2004-07-28 肯特里奇数字实验公司 用于中文的标记和命名实体识别的系统
CN101308654B (zh) * 2007-05-14 2012-11-07 华为技术有限公司 一种语音分析识别方法、系统与装置
US20080312928A1 (en) * 2007-06-12 2008-12-18 Robert Patrick Goebel Natural language speech recognition calculator
US20080317219A1 (en) * 2007-06-21 2008-12-25 Siemens Communications, Inc. Method and apparatus for context based voice dialing
US10242104B2 (en) * 2008-03-31 2019-03-26 Peekanalytics, Inc. Distributed personal information aggregator
US8880555B2 (en) * 2010-12-17 2014-11-04 Facebook, Inc. Ranking of address book contacts based on social proximity
US9406077B1 (en) * 2011-10-19 2016-08-02 Google Inc. System and method for ad keyword scoring
CN103377652B (zh) * 2012-04-25 2016-04-13 上海智臻智能网络科技股份有限公司 一种用于进行语音识别的方法、装置和设备
US9721563B2 (en) * 2012-06-08 2017-08-01 Apple Inc. Name recognition system
CN103049567A (zh) * 2012-12-31 2013-04-17 威盛电子股份有限公司 检索方法、检索系统以及自然语言理解系统
JP5583230B2 (ja) * 2013-01-15 2014-09-03 株式会社Nttドコモ 情報検索装置及び情報検索方法
IL227135B (en) * 2013-06-23 2018-05-31 Drori Gideon Method and system for preparing a database of consolidated items
CN104010059B (zh) * 2014-06-09 2018-08-07 努比亚技术有限公司 一种移动终端及其实现拨打电话的方法和装置
US9529898B2 (en) * 2014-08-26 2016-12-27 Google Inc. Clustering classes in language modeling
CN104469002A (zh) * 2014-12-02 2015-03-25 科大讯飞股份有限公司 确定手机联系人的方法和装置
EP3193559B1 (en) * 2014-12-09 2019-09-11 Huawei Technologies Co., Ltd. Information processing method and device
CN104464735A (zh) * 2014-12-12 2015-03-25 宇龙计算机通信科技(深圳)有限公司 语音信息识别方法、语音信息识别装置与终端
CN105187656B (zh) * 2015-09-23 2018-09-07 百度在线网络技术(北京)有限公司 通讯录联系人匹配方法和装置
CN106683677B (zh) * 2015-11-06 2021-11-12 阿里巴巴集团控股有限公司 语音识别方法及装置
US10503798B2 (en) * 2015-11-24 2019-12-10 Trans Union Llc System and method for automated address verification
CN107016994B (zh) * 2016-01-27 2020-05-08 阿里巴巴集团控股有限公司 语音识别的方法及装置
US10275472B2 (en) * 2016-03-01 2019-04-30 Baidu Usa Llc Method for categorizing images to be associated with content items based on keywords of search queries
CN107153469B (zh) * 2016-03-03 2021-03-30 北京奇简云科技有限公司 为输入数据搜索匹配候选项的方法、数据库创建方法、装置及计算机程序产品
CN109923512A (zh) * 2016-09-09 2019-06-21 上海海知智能科技有限公司 人机交互的系统及方法
CN106776890B (zh) * 2016-11-29 2021-06-29 北京小米移动软件有限公司 视频播放进度的调整方法及装置
CN106603792B (zh) * 2017-01-20 2019-09-06 上海傲硕信息科技有限公司 一种号码查找设备
US10303681B2 (en) * 2017-05-19 2019-05-28 Microsoft Technology Licensing, Llc Search query and job title proximity computation via word embedding
US20190065612A1 (en) * 2017-08-24 2019-02-28 Microsoft Technology Licensing, Llc Accuracy of job retrieval using a universal concept graph
US10902192B2 (en) * 2017-11-20 2021-01-26 Adobe Inc. Dynamic digital document visual aids in a digital medium environment
US10838962B2 (en) * 2017-11-30 2020-11-17 Salesforce.Com, Inc. Metadata driven dataset management
US20190180753A1 (en) * 2017-12-12 2019-06-13 Ca, Inc. Analysis of collaborative dialog data structures from speech processing computer system

Also Published As

Publication number Publication date
US11217236B2 (en) 2022-01-04
US20190096402A1 (en) 2019-03-28
CN107707745A (zh) 2018-02-16
JP6633153B2 (ja) 2020-01-22

Similar Documents

Publication Publication Date Title
JP2019061662A (ja) 情報を抽出する方法及び装置
CN107590135B (zh) 自动翻译方法、设备和系统
CN107945786B (zh) 语音合成方法和装置
CN108962219B (zh) 用于处理文本的方法和装置
KR102582291B1 (ko) 감정 정보 기반의 음성 합성 방법 및 장치
CN111428010B (zh) 人机智能问答的方法和装置
US9190049B2 (en) Generating personalized audio programs from text content
US20200075024A1 (en) Response method and apparatus thereof
EP3405912A1 (en) Analyzing textual data
US8972265B1 (en) Multiple voices in audio content
KR20180064504A (ko) 개인화된 엔티티 발음 학습
CN107705782B (zh) 用于确定音素发音时长的方法和装置
US20200044999A1 (en) Voice forwarding in automated chatting
KR20200084260A (ko) 전자 장치 및 이의 제어 방법
CN112309365A (zh) 语音合成模型的训练方法、装置、存储介质以及电子设备
JP2013167666A (ja) 音声認識装置、音声認識方法、及びプログラム
JP6370962B1 (ja) 生成装置、生成方法および生成プログラム
WO2020052061A1 (zh) 用于处理信息的方法和装置
JP6976155B2 (ja) 類似テキスト抽出装置、自動応答システム、類似テキスト抽出方法、およびプログラム
CN107680584B (zh) 用于切分音频的方法和装置
JP6254504B2 (ja) 検索サーバ、及び検索方法
KR102226427B1 (ko) 호칭 결정 장치, 이를 포함하는 대화 서비스 제공 시스템, 호칭 결정을 위한 단말 장치 및 호칭 결정 방법
JP6674876B2 (ja) 補正装置、補正方法及び補正プログラム
CN114049875A (zh) 一种tts播报方法、装置、设备以及存储介质
CN113851106A (zh) 音频播放方法、装置、电子设备和可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191211

R150 Certificate of patent or registration of utility model

Ref document number: 6633153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250