JP6961906B1 - 外国人の国籍推定システム、外国人の母国語推定システム、外国人の国籍推定方法、外国人の母国語推定方法、及びプログラム - Google Patents
外国人の国籍推定システム、外国人の母国語推定システム、外国人の国籍推定方法、外国人の母国語推定方法、及びプログラム Download PDFInfo
- Publication number
- JP6961906B1 JP6961906B1 JP2021067998A JP2021067998A JP6961906B1 JP 6961906 B1 JP6961906 B1 JP 6961906B1 JP 2021067998 A JP2021067998 A JP 2021067998A JP 2021067998 A JP2021067998 A JP 2021067998A JP 6961906 B1 JP6961906 B1 JP 6961906B1
- Authority
- JP
- Japan
- Prior art keywords
- language
- pronunciation data
- foreigner
- estimation
- nationality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Machine Translation (AREA)
Abstract
Description
日本国内に滞在する外国人の国籍は多様であり、営業サービスの質の向上、マーケティングの効率化、治安の維持、又は安全保障上の理由等の様々な目的のため、パスポート等の公的書類や本人の申告によらずに、当該外国人の国籍を判別する需要が存在する。
特許文献1には、個人の人種・形質のような生物学的特性、民族といった文化人類学的特性、発声した言語の属する母国語ないし方言といった言語学的特性その他の個人の外部的特徴によって、個人の国籍を自動的に判定する技術が開示されている。
また、特許文献1の内、言語学的特性を利用する技術は、外国人の発声する母国語に基づいて機械的に国籍を割り振るものであるが、例えば接客サービスや電話による問い合わせなど日本国内に居住する外国人が会話する場面では、会話の相手方が日本人であり、会話が日本語で行われることが通常であるため、そもそも対象の外国人の母国語を把握することが難しい。
また、駅や空港の交通施設において、AIが音声を認識する無人案内サービスが知られている。
これらのサービスにおいて、客が外国人旅行客である場合、外国人の話す日本語から当該外国人の国籍が推定できれば、会話の途中から受付ロボットの言語を当該外国人の母国語に切り替えることで、よりスムーズで快適な接客が可能となる。
また、空港や港湾における入国管理の現場では、他人によるなりすましを防ぐため、外国人とパスポート記載の人物との照合が必要となる場合がある。
これらの場合、外国人の話す日本語から当該外国人の国籍が推定できれば、大使館への問い合わせなどによって、当該外国人の特定が容易になるなど、捜査や入国管理に資することが考えられる。
本発明は、上記のような課題を解決するための、外国人の国籍推定システム、外国人の母国語推定システム、及びプログラムを提供することを目的とするものである。
本発明において「特定言語」とは日本語、英語、スペイン語等の任意の1種類の言語を意味する。また、「外国人」とは特定言語を母国語としない者を意味し、必ずしも本発明を実施する国の国籍に基づくものではない。
本発明の国籍推定システム1は、外国人の発声による特定言語から当該外国人の国籍を推定するシステムである。
非特許文献1には、英語を母国語としない者の英語には、母国語の影響による訛りがあり、経験のある船員であれば、VHF無線から聞こえる英語の訛りによって相手の国籍が判断できることが開示されている。これは英語の例であるが、いずれの言語においても、その言語を母国語としない外国人の発音には程度の差こそあれ当該外国人の国籍に由来する特徴が表れる。すなわち、外国人による特定言語の発音は、当該外国人の国籍と相関関係を有する。
そこで、本発明の国籍推定システム1は、外国人が母国語以外の特定言語を話す際の発音の特徴(例えば訛り)に着目して、これを教師データとした機械学習によって学習モデルを取得し、未知の外国人が特定言語を話した音声に当該学習モデルを適用することで、未知の外国人の国籍を高精度に推定しようとする発明である。
なお、本実施例では「特定言語」が日本語である場合について説明するが、これは例示に過ぎず、本発明の国籍推定システム1は、いかなる言語にも適用が可能である。
国籍推定システム1は、少なくとも記憶手段20、学習手段30、取得手段40、分解手段50、及び推定手段60を備える(図1)。本例では、更に生成手段10を備え、これらの各手段に情報処理を実行させるプログラムを、情報処理装置(コンピュータ)にインストールしてなる。
この情報処理装置は単体である必要はなく、複数の情報処理装置(演算装置、制御装置、記憶装置、入力装置、出力装置等を備えた装置)を、ネットワークを介して相互に接続して、1つの国籍推定システム1を構成してもよい。
プログラムは、汎用のシステムに機能追加する形で導入するプラグイン形式のプログラムであってもよい。あるいはクラウドシステムを介して提供されてもよい。また、プログラムは、情報処理装置で読み取り可能な記憶媒体に格納することができる。
言語発音データAは、機械学習の学習用データとなるデータである。
言語発音データAは、少なくとも、単語情報A1と、単語情報A1と紐づけた音声情報A2及び国籍情報A3と、を含む。
単語情報A1とは、特定言語の単位言語からなる。ここで「単位言語」とは、特定言語における意味のある文章を、単語、文節、文等の任意の単位に区切ったものであり、予め多数の単位言語をリスト化しておくことができる。
音声情報A2は、外国人が単位言語を発音した音声からなる。
国籍情報A3は、外国人の国籍からなる。なお、該当国が広域である場合、地域によって言語特性が大きく異なる場合等には、国籍情報A3を同一国内の複数の地域に細分してもよい。
生成手段10は、言語発音データAを生成する手段である。
生成手段10は、外国人の発音による音声情報A2に、対応する単語情報A1を紐づけ、これに正解データである国籍情報A3を付加して、言語発音データAを生成する。
詳細には、例えば収音マイク等を用いて音声による空気の振動を波形データに変換し、環境音などのノイズを取り除くことで音声情報A2を生成する。
続いて、音声情報A2に公知の音声認識技術(後述)を適用して単位言語ごとに解析し、テキスト情報である単語情報A1を生成する。
最後に、単語情報A1に紐づいた音声情報A2に、音声情報A2の発音に係る外国人の国籍情報A3を付加する。
言語発音データAは後述する学習手段30の学習用データセットとし使用するため、多数の単位言語について相当量を生成する必要がある。
多数の言語発音データAを取得する方法には、例えば外国人モニターに特定言語のリストを読み上げさせ、その音声を収音する方法、テレビやラジオ等の放送媒体から取得する方法、インターネット上でクローリングした動画データ等からAIが音声情報A2であると機械的に判断したデータを収集する方法、電話サービスの通話音声から取集する方法、等を用いることができる。
この場合、言語発音データAから、当該外国人の氏名や電話番号を削除したり、動画であれば付随する画像データを削除するなどの匿名加工を行うことで、言語発音データAを、個人を特定できない匿名加工情報とするのが望ましい。
また、言語発音データAが欠測値や外れ値である場合には、当該言語発音データAを除去することができる。
以上の手順により、言語発音データAを生成して、記憶手段20へ送信する(生成ステップS1)。
記憶手段20は、複数の言語発音データAを保存する手段である。
記憶手段20は、主記憶部及び補助記憶部を含むことができる。例えば、主記憶部はRAMなどの揮発性メモリであり、補助記憶部は、ROM、EEPROM、フラッシュメモリ、又はハードディスクなどの不揮発性メモリである。
記憶手段20は、生成手段10によって入力された言語発音データAを記憶し、多数の言語発音データAを蓄積して、機械学習用の学習用データセットを構成する(記憶ステップS2)。
学習手段30は、複数の言語発音データAを学習データとした機械学習に基づいて、学習済みモデルXを取得する手段である。
学習手段30は、記憶手段20内に保存した大量の言語発音データAからなる学習用データセットを、公知の機械学習アルゴリズムに基づいて機械学習して、学習済みパラメータが組み込まれた学習済みモデルXを取得する(学習ステップS3)。
この学習済みモデルXは、多数の単位言語における多数の音声情報A2と国籍情報A3の相関から導き出した一定の規則を反映したモデルである。
機械学習は、例えばディープラーニングの方法により、サポートベクターマシーン(SVM)、ロジスティック回帰、ランダムフォレスト(決定木)等の公知の様々なアルゴリズムを利用できる。
生言語発音データBは、推定の対象となる外国人による音声のデータである。
生言語発音データBは、少なくとも外国人が特定言語を発音した音声データである生音声情報B1を含む。
取得手段40は、生言語発音データBを取得する手段である。
取得手段40は、例えば収音マイクや電話回線である。
取得手段40により、推定の対象となる外国人の会話から生言語発音データBを収音して、分解手段50へ送信する(取得ステップS4)。
単位言語発音データCは、生言語発音データBを単位言語ごとに分解してなるデータである。
単位言語発音データCは、分解音声情報C1と、分解音声情報C1に紐づいた分解テキスト情報C2と、を有する。
単位言語発音データCは、元になる生言語発音データBごとにグループ化される。
分解手段50は、生言語発音データBを単位言語毎に分解して、分解言語発音データCを生成する手段である。
分解手段50は、最初に、取得手段40が取得した生言語発音データBを、音声認識によってテキスト化する。
詳細には、例えば、生言語発音データBを、音響分析、音響モデル、発音辞書、言語モデル等の要素を用いて解析し、音声情報をテキスト情報に変換する。
続いてテキスト情報を、自然言語処理(Natural Language Processing)によって、当該テキスト情報を単位言語ごとに分節して、分解テキスト情報C2を生成する。
自然言語処理とは、人間の言語(自然言語)を機械で処理して内容を抽出する技術である。本例では、例えば特定言語の文法の性質を利用して言語間の境界を判断する文節構造モデルや、確率的言語モデルを適用することができる。
続いて、分解テキスト情報C2の区分に基づいて、生言語発音データBの生音声情報B1を分解音声情報C1に分解する。
こうして、生言語発音データBごとの複数の分解音声情報C1と、各分解音声情報C1に紐づけた分解テキスト情報C2を有する、単位言語発音データCが得られる(分解ステップS5)。
具体的には、例えば、生言語発音データBが、外国人の発声による日本語「今日は頭が痛いので、アルバイトを休みます。」からなる場合、分解手段50によって、この生言語発音データBを、「今日は」「頭が」「痛いので」「アルバイトを」「休みます」との文節による5つの単位言語に分解し、それぞれの単位言語に対応する分解音声情報C1と分解テキスト情報C2を得る。
この他、例えば「今日」「は」「頭」「が」「痛い」「ので」「アルバイト」「を」「休みます」と、単語による9つの単位言語に分解してもよいし、「今日は」「頭が痛いので」「アルバイトを休みます」と3つの単位言語に分解してもよい。
推定手段60は、外国人の国籍を推定する手段である。
推定手段60は、分解手段50が生成した分解言語発音データCに、学習手段30が取得した学習済みモデルXを適用して、分解言語発音データCの発音に係る外国人の国籍を推定する(推定ステップS6)。国籍の推定は、少なくとも一次推定及び二次推定を含む。
詳細には、推定手段60は、1の生言語発音データBに係る複数の分解言語発音データCを取得し、各分解言語発音データCの分解テキスト情報C2によって、各分解言語発音データCにかかる単位言語を特定する。
続いて、特定した単位言語に対応する学習済みモデルXを選択する。この際、対応する学習済みモデルXを有さない単位言語については、推定の対象から除くことができる。
各分解言語発音データCの分解音声情報C1に、単位言語に対応する学習済みモデルXを適用して、分解言語発音データCごとに国籍を推定する(一次推定)。一次推定の結果は、各分解言語発音データCにおける、複数の国別の推定率(%)として記録することができる。
上記の手順により、1の生言語発音データB内にグループ化された全ての分解言語発音データCに一次推定を行い、全ての一次推定の積算により、当該1の生言語発音データB全体の国籍を推定する(二次推定)。二次推定の結果は、当該1の生言語発音データBにおける、複数の国別の推定率(%)として記録することができる。
1の外国人から複数の生言語発音データBを取得できる場合には、一次推定及び二次推定に加えて、複数の二次推定結果を積算してなる三次推定を行うことができる。詳細な実施例について次項で説明する。
例えば、1つの生言語発音データB(AA00001)が「今日は」「頭が」「痛いので」「アルバイトを」「休みます」の5つの分解言語発音データCからなる場合、推定手段60は、以下の手順で一次推定及び二次推定を行う(表1)。
この5つの単位言語から、対応する学習済みモデルXを有さない「アルバイトを」を除いた4つの単位言語に、この単位言語に対応する学習済みモデルXをそれぞれ適用し、分解言語発音データC「今日は」に対応する国籍を[A国:71.1% B国:21.7% C国:7.2%]と推定する。
同様に、分解言語発音データC「頭が」に対応する国籍を[A国:55.6% B国:28.2% C国:9.0% D国:7.2%]と、分解言語発音データC「痛いので」に対応する国籍を[A国:45.2% B国:51.7% D国:3.1%]と、分解言語発音データC「休みます」に対応する国籍を[A国:38.9% B国:32.0% C国:29.1%]と、それぞれ一次推定する。
続いて、4つの単位言語それぞれの一次推定率を積算して、生言語発音データB(AA00001)の二次推定率を算出する。本例では二次推定率は[A国:52.7% B国:33.4% C国:11.3% D国:2.6%]と算出される。
なお、本例では説明の便宜上、複数の一次推定率を単純に合算して二次推定率を算出したが、実際には、特定言語の種類(発音の特徴が顕著に表れる特定言語とそうでない特定言語等)、特定言語の長さ、特定言語の発音順等によって、一次推定の結果に重みづけを行ったり、推定率の分布から信頼性の低い推定結果を除外するなど、統計処理上の各種の調整を行ってもよい。
続いて推定手段60は、生言語発音データB(AA00001)を含む、同一の外国人に係る複数の生言語発音データB(AA00001、AA00002、AA00003・・・)の二次推定率を積算して、当該外国人に係る三次推定率を算出する(表2)。
本例では三次推定の結果が[A国:74.2% B国:17.4% C国:5.8% D国:1.0% E国:1.3%・・]と算出される。
以上の結果より、最終的に当該外国人の国籍を74.2%の推定率で、A国であると推定する。
なお、三次推定にも、二次推定と同様の各種の統計処理上の調整を行うことができる。
本発明の母国語推定システム1’は、外国人の発声による特定言語から当該外国人の母国語を推定するシステムである(図2)。
本発明の母国語推定システム1’は、外国人が母国語以外の特定言語を話す際の発音の特徴(例えば訛り)に着目して、これを教師データとした機械学習によって学習モデルを取得し、未知の外国人が特定言語を話した音声に学習モデルを適用することで、未知の外国人の母国語を高精度に推定しようとする発明である。
母国語推定システム1’は、少なくとも記憶手段20、学習手段30、取得手段40、分解手段50、及び推定手段60を備える。本例では、更に生成手段10を備える。
母国語推定システム1’の具体的構成と母国語の推定方法は、(1)言語発音データAが、国籍情報A3ではなく、外国人の母国語の情報である母国語情報A4を備える点、(2)学習手段30が、国籍情報A3ではなく母国語情報A4を紐付けた機械学習に基づいて学習済みモデルXを取得する点、及び(3)推定手段60が、最終的に外国人の母国語を推定する点、以外は実施例1の国籍推定システム1と同一である。
本発明の国籍推定システム1及び母国語推定システム1’において、言語発音データAに、性別情報A5を備えてさせてもよい(図3)。
性別情報A5とは、外国人の性別の情報である。
学習手段30は、特定の単語情報A1について、音声情報A2と、国籍情報A3(又は母国語情報A4)と、性別情報A5を関連付けて、学習済みモデルXを取得する。
本例の場合、学習済みモデルXに、性別による音声の違いを反映させることで、より精度の高い推定が可能となる。
本発明の国籍推定システム1及び母国語推定システム1’において、言語発音データAに、年齢情報A6を備えてさせてもよい(図4)。
年齢情報A6とは、外国人の年齢又は年代の情報である。
学習手段30は、特定の単語情報A1について、音声情報A2と、国籍情報A3(又は母国語情報A4)と、年齢情報A6を関連付けて、学習済みモデルXを取得する。
本例の場合、学習済みモデルXに、年齢や年代による音声の違いを反映させることで、より精度の高い推定が可能となる。
なお、実施例3と実施例4を掛け合わせ、性別情報A5を年齢情報A6に加える構成としてもよい。
1’ 母国語推定システム
10 生成手段
20 記憶手段
30 学習手段
40 取得手段
50 分解手段
60 推定手段
S1 生成ステップ
S2 記憶ステップ
S3 学習ステップ
S4 取得ステップ
S5 分解ステップ
S6 推定ステップ
A 言語発音データ
A1 単語情報
A2 音声情報
A3 国籍情報
A4 母国語情報
A5 性別情報
A6 年齢情報
B 生言語発音データ
B1 生音声情報
C 分解言語発音データ
C1 分解音声情報
C2 分解テキスト情報
X 学習済みモデル
Claims (5)
- 特定言語を母国語としない外国人の音声から外国人の国籍を推定する、外国人の国籍推定システムであって、
複数の言語発音データであって、前記特定言語の単位言語からなる単語情報と、外国人が前記単位言語を発音した音声からなる音声情報と、外国人の国籍からなる国籍情報と、を紐づけてなる、複数の言語発音データを記憶する、記憶手段と、
前記記憶手段内の前記複数の言語発音データを学習用データとする機械学習によって、特定の前記単語情報における前記音声情報と前記国籍情報を関連付けた、学習済みモデルを取得する、学習手段と、
外国人が前記特定言語を発音した音声からなる、生言語発音データを取得する、取得手段と、
前記取得手段が取得した前記生言語発音データを単位言語に分解した、複数の分解言語発音データを生成する、分解手段と、
前記複数の分解言語発音データに、前記学習済みモデルを適用することで、前記生言語発音データに係る外国人の国籍を推定する、推定手段と、を備え、
前記推定手段が、1の前記生言語発音データにおける複数の前記分解言語発音データの国籍を個別に推定する一次推定と、前記一次推定の結果を積算して前記1の生言語発音データの国籍を推定する二次推定と、前記二次推定の結果を積算して複数の前記生言語発音データに係る1の外国人の国籍を推定する三次推定と、を行うことを特徴とする、
国籍推定システム。 - 特定言語を母国語としない外国人の音声から外国人の母国語を推定する、外国人の母国語推定システムであって、
複数の言語発音データであって、前記特定言語の単位言語からなる単語情報と、外国人が前記単位言語を発音した音声からなる音声情報と、外国人の母国語からなる母国語情報と、を紐づけてなる、複数の言語発音データを記憶する、記憶手段と、
前記記憶手段内の前記複数の言語発音データを学習用データとする機械学習によって、特定の前記単語情報における前記音声情報と前記母国語情報を関連付けた、学習済みモデルを取得する、学習手段と、
外国人が前記特定言語を発音した音声からなる、生言語発音データを取得する、取得手段と、
前記取得手段が取得した前記生言語発音データを単位言語に分解した、複数の分解言語発音データを生成する、分解手段と、
前記複数の分解言語発音データに、前記学習済みモデルを適用することで、前記生言語発音データに係る外国人の母国語を推定する、推定手段と、を備え、
前記推定手段が、1の前記生言語発音データにおける複数の前記分解言語発音データの母国語を個別に推定する一次推定と、前記一次推定の結果を積算して前 記1の生言語発音データの母国語を推定する二次推定と、前記二次推定の結果を積算して複数の前記生言語発音データに係る1の外国人の母国語を推定する三次推定と、を行うことを特徴とする、
母国語推定システム。 - コンピュータを、請求項1に記載の国籍推定システム、又は請求項2に記載の母国語推定システムとして機能させるための、
プログラム。 - 特定言語を母国語としない外国人の音声から外国人の国籍を推定する、外国人の国籍推定方法であって、
複数の言語発音データであって、前記特定言語の単位言語からなる単語情報と、外国人が前記単位言語を発音した音声からなる音声情報と、外国人の国籍からなる国籍情報と、を紐づけてなる、複数の言語発音データを記憶する、記憶ステップと、
前記記憶ステップで記憶した前記複数の言語発音データを学習用データとする機械学習によって、特定の単語情報における前記音声情報と前記国籍情報を関連付けた、学習済みモデルを取得する、学習ステップと、
外国人が前記特定言語を発音した音声からなる、生言語発音データを取得する、取得ステップと、
前記取得ステップで取得した前記生言語発音データを単位言語に分解した、複数の分解言語発音データを生成する、分解ステップと、
前記複数の分解言語発音データに、前記学習済みモデルを適用することで、前記生言語発音データに係る外国人の国籍を推定する、推定ステップと、を備え、
前記推定ステップにおいて、1の前記生言語発音データにおける複数の前記分解言語発音データの国籍を個別に推定する一次推定と、前記一次推定の結果を積算して前記1の生言語発音データの国籍を推定する二次推定と、前記二次推定の 結果を積算して複数の前記生言語発音データに係る1の外国人の国籍を推定する三次推定と、を行うことを特徴とする、
国籍推定方法。 - 特定言語を母国語としない外国人の音声から外国人の母国語を推定する、外国人の母国語推定方法であって、
複数の言語発音データであって、前記特定言語の単位言語からなる単語情報と、外国人が前記単位言語を発音した音声からなる音声情報と、外国人の母国語からなる母国語情報と、を紐づけてなる、複数の言語発音データを記憶する、記憶ステップと、
前記記憶ステップで記憶した前記複数の言語発音データを学習用データとする機械学習によって、特定の単語情報における前記音声情報と前記母国語情報を関連付けた、学習済みモデルを取得する、学習ステップと、
外国人が前記特定言語を発音した音声からなる、生言語発音データを取得する、取得ステップと、
前記取得ステップで取得した前記生言語発音データを単位言語に分解した、複数の分解言語発音データを生成する、分解ステップと、
前記複数の分解言語発音データに、前記学習済みモデルを適用することで、前記生言語発音データに係る外国人の母国語を推定する、推定ステップと、を備え、
前記推定ステップにおいて、1の前記生言語発音データにおける複数の前記分解言語発音データの母国語を個別に推定する一次推定と、前記一次推定の結果を積算して前記1の生言語発音データの母国語を推定する二次推定と、前記二次推定の結果を積算して複数の前記生言語発音データに係る1の外国人の母国語を推定する三次推定と、を行うことを特徴とする、
母国語推定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021067998A JP6961906B1 (ja) | 2021-02-24 | 2021-02-24 | 外国人の国籍推定システム、外国人の母国語推定システム、外国人の国籍推定方法、外国人の母国語推定方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021067998A JP6961906B1 (ja) | 2021-02-24 | 2021-02-24 | 外国人の国籍推定システム、外国人の母国語推定システム、外国人の国籍推定方法、外国人の母国語推定方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6961906B1 true JP6961906B1 (ja) | 2021-11-05 |
JP2022129328A JP2022129328A (ja) | 2022-09-05 |
Family
ID=78409817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021067998A Active JP6961906B1 (ja) | 2021-02-24 | 2021-02-24 | 外国人の国籍推定システム、外国人の母国語推定システム、外国人の国籍推定方法、外国人の母国語推定方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6961906B1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040098259A1 (en) * | 2000-03-15 | 2004-05-20 | Gerhard Niedermair | Method for recognition verbal utterances by a non-mother tongue speaker in a speech processing system |
JP2009251388A (ja) * | 2008-04-08 | 2009-10-29 | Denso Corp | 母国語発話装置 |
JP2010191530A (ja) * | 2009-02-16 | 2010-09-02 | Fujifilm Corp | 国籍判定装置、方法およびプログラム |
JP2012103554A (ja) * | 2010-11-11 | 2012-05-31 | Advanced Telecommunication Research Institute International | 音声言語識別装置の学習装置、音声言語の識別装置、及びそれらのためのプログラム |
JP2017041120A (ja) * | 2015-08-20 | 2017-02-23 | カシオ計算機株式会社 | 情報処理装置、情報処理システム、情報処理方法およびプログラム |
-
2021
- 2021-02-24 JP JP2021067998A patent/JP6961906B1/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040098259A1 (en) * | 2000-03-15 | 2004-05-20 | Gerhard Niedermair | Method for recognition verbal utterances by a non-mother tongue speaker in a speech processing system |
JP2009251388A (ja) * | 2008-04-08 | 2009-10-29 | Denso Corp | 母国語発話装置 |
JP2010191530A (ja) * | 2009-02-16 | 2010-09-02 | Fujifilm Corp | 国籍判定装置、方法およびプログラム |
JP2012103554A (ja) * | 2010-11-11 | 2012-05-31 | Advanced Telecommunication Research Institute International | 音声言語識別装置の学習装置、音声言語の識別装置、及びそれらのためのプログラム |
JP2017041120A (ja) * | 2015-08-20 | 2017-02-23 | カシオ計算機株式会社 | 情報処理装置、情報処理システム、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2022129328A (ja) | 2022-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7860705B2 (en) | Methods and apparatus for context adaptation of speech-to-speech translation systems | |
Lyu et al. | Mandarin–english code-switching speech corpus in south-east asia: Seame | |
US9047868B1 (en) | Language model data collection | |
US7792671B2 (en) | Augmentation and calibration of output from non-deterministic text generators by modeling its characteristics in specific environments | |
US20130073276A1 (en) | MT Based Spoken Dialog Systems Customer/Machine Dialog | |
KR20130128716A (ko) | 어학 학습 시스템 및 학습 방법 | |
US20190019078A1 (en) | Apparatus and method for distributing a question | |
JP2009139390A (ja) | 情報処理システム、処理方法及びプログラム | |
CN110610705A (zh) | 一种基于人工智能的语音交互提示器 | |
CN110853422A (zh) | 一种沉浸式语言学习系统及其学习方法 | |
Kumar et al. | Translations of the CALLHOME Egyptian Arabic corpus for conversational speech translation | |
KR101988165B1 (ko) | 청각 장애 학생들을 위한 전문 자료 텍스트 분석 기반 음성인식 기술 정확도 향상 방법 및 시스템 | |
JP2018190077A (ja) | 発話生成装置、発話生成方法及び発話生成プログラム | |
Künzel | Automatic speaker recognition with crosslanguage speech material | |
US20020087317A1 (en) | Computer-implemented dynamic pronunciation method and system | |
US10872615B1 (en) | ASR-enhanced speech compression/archiving | |
JP2007102104A (ja) | 応答文生成装置、応答文生成方法、そのプログラムおよび記憶媒体 | |
KR101521281B1 (ko) | 어학 학습 시스템 및 학습 방법 | |
Toyama et al. | Use of Global and Acoustic Features Associated with Contextual Factors to Adapt Language Models for Spontaneous Speech Recognition. | |
Rouhe et al. | Low resource comparison of attention-based and hybrid ASR exploiting wav2vec 2.0 | |
JP6961906B1 (ja) | 外国人の国籍推定システム、外国人の母国語推定システム、外国人の国籍推定方法、外国人の母国語推定方法、及びプログラム | |
US20180033432A1 (en) | Voice interactive device and voice interaction method | |
Rudžionis et al. | Recognition of voice commands using hybrid approach | |
CN115017900B (zh) | 一种基于多模态多去偏见的对话情感识别方法 | |
KR102350359B1 (ko) | 음성 인식 알고리즘을 이용한 영상 편집 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210224 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210921 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210924 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6961906 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |