JP2015022060A - Information providing device - Google Patents

Information providing device Download PDF

Info

Publication number
JP2015022060A
JP2015022060A JP2013148500A JP2013148500A JP2015022060A JP 2015022060 A JP2015022060 A JP 2015022060A JP 2013148500 A JP2013148500 A JP 2013148500A JP 2013148500 A JP2013148500 A JP 2013148500A JP 2015022060 A JP2015022060 A JP 2015022060A
Authority
JP
Japan
Prior art keywords
language
information
voice
unit
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013148500A
Other languages
Japanese (ja)
Inventor
貴昭 杉山
Takaaki Sugiyama
貴昭 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyosan Electric Manufacturing Co Ltd
Original Assignee
Kyosan Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyosan Electric Manufacturing Co Ltd filed Critical Kyosan Electric Manufacturing Co Ltd
Priority to JP2013148500A priority Critical patent/JP2015022060A/en
Publication of JP2015022060A publication Critical patent/JP2015022060A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide information using characters and voices of the same language as the language used by a passerby and output various pieces of information in the language which the passerby can understand.SOLUTION: Speech signals of the conversations of passers-by input from a speech input part 11 are subjected to language recognition processing for specifying a language to be used using speech dictionary database units 14b, 14c by a speech recognition part 15. A recognition rate N of each language input by the speech recognition part 15 is calculated, and a language for which the recognition rate N is the highest is specified as the language spoken by the passers-by. The spoken langue is output from a display 12 and a speaker 13 by display information and speech information using the specified language.

Description

本発明は、例えば駅構内、空港ロビー等に設置され、近傍の通行者が使用する言語と同じ言語の文字や音声を用いて情報提供を行う情報提供装置に関するものである。   The present invention relates to an information providing apparatus that is installed in, for example, a station premises, an airport lobby, and the like and provides information using characters and voices in the same language as a language used by a nearby passerby.

特許文献1には、駅構内、空港ロビー等にLED方式、プラズマ等の放電系方式、CRT方式、液晶方式の画像表示装置を配置し、この画像表示装置から政・公共情報の提供、緊急事故・災害時の情報提供、現場誘導、及び企業・店舗広告提供を行うことが開示されている。   In Patent Document 1, an LED display, a discharge system such as plasma, a CRT display, and a liquid crystal display are arranged in a station premises, an airport lobby, etc., providing political / public information from this image display, an emergency accident・ It is disclosed to provide information at the time of disaster, site guidance, and corporate / store advertising.

特許文献1の図3に示すように、画像表示装置に表示する文字は日本語で表示される。また、駅構内や空港ロビー等においては、外国人に対しても各種の情報を提供するために、日本語と英語等の多言語を交互に表示する情報提供装置が設置されている。   As shown in FIG. 3 of Patent Document 1, characters to be displayed on the image display device are displayed in Japanese. In addition, in a station yard, an airport lobby, and the like, an information providing device that alternately displays multilingual languages such as Japanese and English is installed in order to provide various information to foreigners.

特開2002−304574号公報JP 2002-304574 A

例えば、国際線の飛行機が空港に到着したときの到着ロビーでは、日本人以外の乗客が多数を占める場合がある。特許文献1の画像表示装置のような情報提供装置を用いて、日本語で誘導経路等の案内情報や広告情報の情報提供を行うと、多くの外国人は表示される内容が分からないという問題がある。   For example, there may be a large number of non-Japanese passengers in the arrival lobby when international planes arrive at the airport. A problem that many foreigners do not know the displayed content when providing information such as guidance routes and advertisement information in Japanese using an information providing device such as the image display device of Patent Document 1. There is.

また、日本語と英語を交互又は並列に表示する情報提供装置を用いても、日本語、英語の何れをも理解できない外国人にとっては、案内情報及び広告情報の表示内容が分からない。   Further, even if an information providing apparatus that displays Japanese and English alternately or in parallel is used, the display contents of guidance information and advertisement information are not understood by foreigners who cannot understand both Japanese and English.

本発明の目的は、上述の課題を解消し、近くにいる通行者が使用する言語により情報提供を行う情報提供装置を提供することにある。   The objective of this invention is providing the information provision apparatus which eliminates the above-mentioned subject and provides information with the language which a passerby nearby uses.

上記目的を達成するための請求項1に係る情報提供装置は、音声入力部と、該音声入力部から入力された音声信号を基に何れの言語であるかを識別する音声識別部と、該音声識別部により識別した言語による文字を含む映像情報を提供情報として出力する映像出力部とを備えたことを特徴とする。   In order to achieve the above object, an information providing apparatus according to claim 1 includes: a voice input unit; a voice identification unit that identifies which language is based on a voice signal input from the voice input unit; And a video output unit that outputs video information including characters in the language identified by the voice identification unit as provided information.

請求項2に係る情報提供装置は、前記音声識別部により識別した言語による音声情報を提供情報として出力する音声出力部を備えたことを特徴とする。   According to a second aspect of the present invention, there is provided an information providing apparatus including a voice output unit that outputs voice information in a language identified by the voice identification unit as provided information.

請求項3に係る情報提供装置は、前記提供情報には、少なくとも案内情報又は広告情報を含むことを特徴とする。   The information providing apparatus according to claim 3 is characterized in that the provided information includes at least guidance information or advertisement information.

請求項4に係る情報提供装置は、前記音声識別部は複数の言語の音声辞書データベース部を備え、前記音声信号に対してマッチング処理した解析音声信号と、前記音声辞書データベース部毎の語彙及びその発音とを比較し、言語毎の認識できた単語の認識率を算出し、該認識率が最も高い言語による提供情報を前記出力部から出力することを特徴とする。   The information providing apparatus according to claim 4, wherein the speech identification unit includes a speech dictionary database unit of a plurality of languages, an analysis speech signal obtained by performing a matching process on the speech signal, a vocabulary for each speech dictionary database unit, and The recognition rate of words recognized for each language is calculated by comparing with pronunciation, and provided information in a language with the highest recognition rate is output from the output unit.

請求項5に係る情報提供装置は、前記映像出力部は前記認識率が最も高い言語とその次に認識率が高い言語とを交互又は並列に表示することを特徴とする。   The information providing apparatus according to claim 5 is characterized in that the video output unit displays the language having the highest recognition rate and the language having the next highest recognition rate alternately or in parallel.

請求項6に係る情報提供装置は、駅構内又は空港内に設置することを特徴とする。   The information providing apparatus according to claim 6 is installed in a station premises or an airport.

本発明に係る情報提供装置は、近傍の通行者が使用する言語と同じ言語の文字、音声を用いて情報提供を行うことで、通行者が表示情報、音声情報を理解することが可能となり、各種の情報提供を効果的に行うことができる。   The information providing apparatus according to the present invention provides information using characters and voices in the same language as the language used by nearby passers-by, thereby enabling the passer-by to understand display information and voice information. Various kinds of information can be effectively provided.

情報提供装置の実施例のブロック回路構成図である。It is a block circuit block diagram of the Example of an information provision apparatus. 音声の言語を判定する処理部のフローチャート図である。It is a flowchart figure of the process part which determines the language of an audio | voice. 各言語で表示出力した表示例の説明図である。It is explanatory drawing of the example of a display output by each language.

本発明を図示の実施例に基づいて詳細に説明する。
図1は情報提供装置10のブロック回路構成図である。情報提供装置10は、通行者の音声を入力する集音マイク等から成る音声入力部11と、映像出力部であって経路案内等の各種情報を映像情報として表示する表示部12と、音声出力部であって表示内容に合わせて各種情報を音声により提供するスピーカ部13と、各言語の語彙及びそれらの発音を記憶した音声辞書データベース部14と、音声入力部11、表示部12、スピーカ部13、音声辞書データベース部14と接続した音声識別部15とから構成されている。また、音声辞書データベース部14は日本語音声辞書データベース部14a、英語音声辞書データベース部14b、中国語音声辞書データベース部14c、・・・から成っている。
The present invention will be described in detail based on the embodiments shown in the drawings.
FIG. 1 is a block circuit configuration diagram of the information providing apparatus 10. The information providing apparatus 10 includes an audio input unit 11 including a sound collecting microphone for inputting a passer's voice, a video output unit that displays various types of information such as route guidance as video information, and an audio output. A speaker unit 13 that provides various information according to display contents by voice, a voice dictionary database unit 14 that stores vocabulary and pronunciation of each language, a voice input unit 11, a display unit 12, and a speaker unit 13 and a voice identification unit 15 connected to the voice dictionary database unit 14. The speech dictionary database unit 14 includes a Japanese speech dictionary database unit 14a, an English speech dictionary database unit 14b, a Chinese speech dictionary database unit 14c,.

音声識別部15は言語の識別処理に負荷が掛かることから、各言語の音声辞書データベース部14a、14b、14c、・・・に対応するように複数個並列に設けてもよい。また、音声識別部15には記憶部を備え、予め各言語による文字を含む映像情報及び各言語による音声情報を記憶している。   Since the speech identification unit 15 places a burden on language identification processing, a plurality of speech identification units 15 may be provided in parallel so as to correspond to the speech dictionary database units 14a, 14b, 14c,. In addition, the voice identification unit 15 includes a storage unit, and stores in advance video information including characters in each language and voice information in each language.

音声入力部11は表示部12、スピーカ部13の近傍の通行者が話す音声を主に入力し、この音声入力部11は通行者の通行方向の上流側に配置することが望ましい。このように上流側に配置することで、音声識別部15の処理に多少の時間を要した場合であっても、通行者に対して表示部12及びスピーカ部13を介した情報提供のタイミングを一致させ易い。   The voice input unit 11 mainly inputs a voice spoken by a passerby in the vicinity of the display unit 12 and the speaker unit 13, and the voice input unit 11 is preferably arranged on the upstream side of the passer's pass direction. By arranging in this way on the upstream side, the timing of providing information via the display unit 12 and the speaker unit 13 to the passer-by even if the voice identification unit 15 takes some time to process. Easy to match.

表示部12は液晶ディスプレイやフルカラーLED表示器等を適宜に採用し、表示部12の大きさは、駅構内、空港内、商業施設等の設置場所に応じて適宜の大きさのものを用いる。例えば、空港通路に設置する場合は100インチ以上から成る表示画面が望ましい。   The display unit 12 employs a liquid crystal display, a full-color LED display, or the like as appropriate, and the display unit 12 has an appropriate size according to the installation location such as a station premises, an airport, or a commercial facility. For example, when installed in an airport passage, a display screen consisting of 100 inches or more is desirable.

表示部12の表示画面に表示する各種の提供情報は、行き先、経路を案内する案内情報や広告情報等であり、文字や画像を用いて表示される。駅構内又は空港内に情報提供装置10を設置する場合は、主に案内情報を表示し、商業施設等に情報提供装置10を設置する場合は、主に広告情報を表示する。所定時間間隔で案内情報と広告情報を交互に切換えて表示するようにしてもよい。スピーカ部13は案内情報や広告情報の内容に合わせた音声や音楽を出力する。   Various types of provision information displayed on the display screen of the display unit 12 are guidance information, advertisement information, and the like for guiding destinations and routes, and are displayed using characters and images. When the information providing apparatus 10 is installed in a station or an airport, guidance information is mainly displayed. When the information providing apparatus 10 is installed in a commercial facility or the like, advertisement information is mainly displayed. The guidance information and the advertisement information may be alternately switched and displayed at predetermined time intervals. The speaker unit 13 outputs voice and music according to the contents of the guidance information and advertisement information.

また、音声識別部15は管理センター等に設置した端末装置Tと無線又は有線により接続するようにしてもよい。映像情報及び音声情報の更新や各言語の辞書データベース部14a、14b、14c、・・・の更新は、無線又は有線により端末装置Tから行うことができる。無線又は有線により地震や火災等の緊急情報を受信し、今までの表示出力、音声内容に割り込んで避難誘導等の情報を提供してもよい。   The voice identification unit 15 may be connected to the terminal device T installed in the management center or the like by wireless or wired. Update of the video information and audio information and the update of the dictionary database units 14a, 14b, 14c,... For each language can be performed from the terminal device T by wireless or wired. Emergency information such as an earthquake or fire may be received wirelessly or by wire, and information such as evacuation guidance may be provided by interrupting the current display output and audio content.

図2は入力した音声の言語を判定する音声識別部15のフローチャート図である。ステップS1において、音声入力部11から通行者の会話の音声信号が入力され、ステップS2において、入力した音声信号はA/D変換される。   FIG. 2 is a flowchart of the voice identification unit 15 that determines the language of the input voice. In step S1, a voice signal of a passer's conversation is input from the voice input unit 11, and in step S2, the input voice signal is A / D converted.

ステップS3〜S5において、A/D変換された音声信号が、どの言語であるかを音声識別部15で分析し言語認識処理を行う。ステップS3において、A/D変換された音声信号に対して、ローマ字1文字にほぼ相当する音素や、かな1文字に相当する音節の周波数パターンを保持する音響モデルのマッチング処理を行う。   In steps S3 to S5, the speech recognition unit 15 analyzes which language the A / D converted speech signal is, and performs language recognition processing. In step S3, the A / D converted speech signal is subjected to a matching process of an acoustic model that holds a phoneme substantially equivalent to one Roman letter or a syllable frequency pattern equivalent to one Kana character.

この音響モデルは音声入力環境に応じたモデルを使用する必要があり、情報提供装置10の設置個所が雑音の多い入力環境である場合には、雑音下で収録した音声に基づいて学習した音響モデルを使用することになる。   This acoustic model needs to use a model according to the voice input environment. If the installation location of the information providing apparatus 10 is a noisy input environment, the acoustic model learned based on the voice recorded under the noise. Will be used.

ステップS4において、音声識別部15でマッチング処理した解析音声信号と音声辞書データベース部14a、14b、14c、・・・の語彙及びその発音と比較して、解析音声信号に対応する単語を識別する単語識別処理を行う。なお、音声辞書データベース部14は、日本語、英語、中国語以外にも複数の言語を用意してもよい。また、時間帯や曜日に応じて、複数の音声辞書データベース部14a、14b、14c、・・・から適宜に使用する音声辞書データベース部14を選択してもよい。   In step S4, the word that identifies the word corresponding to the analysis voice signal is compared with the analysis voice signal matched by the voice identification unit 15, the vocabulary of the voice dictionary database units 14a, 14b, 14c,. Perform identification processing. The speech dictionary database unit 14 may prepare a plurality of languages other than Japanese, English, and Chinese. Moreover, you may select the audio | voice dictionary database part 14 to use suitably from several audio | voice dictionary database parts 14a, 14b, 14c, ... according to a time zone and a day of the week.

ステップS5において、音声識別部15により、単語識別処理により識別された単語列に対して言語毎の認識率Nを算出し、認識率Nが高い言語を特定する。ステップS4で識別した単語列には、識別することのできない単語も存在し、単語識別処理を行った総単語数を分母とし、識別することのできた単語数を分子とした場合の認識率Nを算出する。   In step S5, the speech recognition unit 15 calculates a recognition rate N for each language for the word string identified by the word identification process, and identifies a language having a high recognition rate N. In the word string identified in step S4, there are some words that cannot be identified. The recognition rate N when the total number of words subjected to word identification processing is used as the denominator and the number of identified words is used as the numerator. calculate.

音声入力部11を介して日本語で音声入力した場合であれば、日本語の音響モデル、日本語音声辞書データベース部14aを用いて算出された認識率Nが最も高い数値となる。他の言語の音響モデル、音声辞書データベース部14b、14c、・・・により認識率Nを算出すると、日本語の発音による解析音声信号に対応する他の言語の単語が識別できないので識別率Nは低い値となる。   If speech is input in Japanese via the speech input unit 11, the recognition rate N calculated using the Japanese acoustic model and the Japanese speech dictionary database unit 14a is the highest numerical value. If the recognition rate N is calculated by the acoustic models of other languages and the speech dictionary database units 14b, 14c,..., The words of other languages corresponding to the analysis speech signal based on Japanese pronunciation cannot be identified. Low value.

このように入力した通行者の会話の音声に対して、言語毎にステップS3、S4の処理から認識率Nを算出し、ステップS5において最も高い認識率Nの言語を通行者が話している言語として特定する。この特定処理は認識率N以外にも、認識できた単語数Mとすることもできる。会話している言語に対して、同じ言語の音響モデル及び音声辞書データベース部14により言語認識処理を行った場合に、認識できる単語数Mが最も多くなるからである。   The recognition rate N is calculated from the processing in steps S3 and S4 for each language of the speech of the passerby input in this way, and the language in which the passerby speaks the language having the highest recognition rate N in step S5. As specified. In addition to the recognition rate N, this identification process can be performed with the number of recognized words M. This is because the number of recognizable words M is the largest when the language recognition processing is performed on the language in conversation by the acoustic model and the speech dictionary database unit 14 of the same language.

ステップS6において、特定した言語を用いて、予め記憶している特定言語の文字を含む映像情報及び特定言語の音声情報により表示部12及びスピーカ部13の出力を行う。   In step S6, using the specified language, the display unit 12 and the speaker unit 13 output the video information including the characters of the specific language stored in advance and the audio information of the specific language.

図3は言語が特定された場合の各言語で出力表示された表示部12の表示例を示している。例えば、到着した国際線の飛行機の乗客に対して手荷物受取所の行先方面案内の情報提供を行う場合に、通行者が主に日本語を話すことを特定したときは、通路に設置した表示部12には(a)に示すような表示内容が選択表示される。また、通行者が主に英語を話すことを特定したときは、(b)に示すような表示内容が選択表示される。更に、通行者が主に中国語を話すことを特定したときは、(c)に示すような表示内容が選択表示される。これらの図3(a)〜(c)の表示に対して、それぞれに対応する言語によりスピーカ部13から案内を音声出力も併せて行うことが好適である。   FIG. 3 shows a display example of the display unit 12 output and displayed in each language when the language is specified. For example, when providing information on the destination direction of the baggage claim area for passengers on an international flight that has arrived, if it is specified that the passerby mainly speaks Japanese, the display unit 12 installed in the aisle The display contents as shown in (a) are selectively displayed. In addition, when it is specified that the passerby mainly speaks English, the display content as shown in (b) is selectively displayed. Further, when it is specified that the passerby mainly speaks Chinese, the display contents as shown in (c) are selected and displayed. It is preferable to perform guidance and sound output from the speaker unit 13 in the languages corresponding to these displays shown in FIGS.

なお、一旦言語が特定され、情報の提供を始めてから所定の時間はその言語を継続して出力を続ける。言語が特定される度に異なる言語の出力に切換えると、混乱が生ずるからである。   It should be noted that once the language is specified and the provision of information is started, the language is continuously output for a predetermined time. This is because confusion arises when switching to a different language output each time a language is specified.

また、複数の表示部12を設置し、認識率Nの高い順から複数種類の言語を別個に表示するようにしてもよい。また、1つの表示部12の表示画面内に認識率Nの高かった複数の言語を交互又は並列に表示してもよい。ただし、スピーカ部13による出力は、その中の1種類の言語を選択して出力する。   Further, a plurality of display units 12 may be installed, and a plurality of types of languages may be displayed separately in descending order of recognition rate N. A plurality of languages having a high recognition rate N may be displayed alternately or in parallel on the display screen of one display unit 12. However, the output from the speaker unit 13 is output by selecting one of the languages.

10 情報提供装置
11 音声入力部
12 表示部
13 スピーカ部
14a、14b、14c 音声辞書データベース部
15 音声識別部
DESCRIPTION OF SYMBOLS 10 Information provision apparatus 11 Voice input part 12 Display part 13 Speaker part 14a, 14b, 14c Voice dictionary database part 15 Voice identification part

Claims (6)

音声入力部と、該音声入力部から入力された音声信号を基に何れの言語であるかを識別する音声識別部と、該音声識別部により識別した言語による文字を含む映像情報を提供情報として出力する映像出力部とを備えたことを特徴とする情報提供装置。   Provided information is a voice input unit, a voice identification unit that identifies which language is based on a voice signal input from the voice input unit, and video information including characters in the language identified by the voice identification unit An information providing apparatus comprising a video output unit for outputting. 前記音声識別部により識別した言語による音声情報を提供情報として出力する音声出力部を備えたことを特徴とする請求項1に記載の情報提供装置。   The information providing apparatus according to claim 1, further comprising a voice output unit that outputs voice information in a language identified by the voice identification unit as provided information. 前記提供情報には、少なくとも案内情報又は広告情報を含むことを特徴とする請求項1又は2に記載の情報提供装置。   The information providing apparatus according to claim 1, wherein the provision information includes at least guidance information or advertisement information. 前記音声識別部は複数の言語の音声辞書データベース部を備え、前記音声信号に対してマッチング処理した解析音声信号と、前記音声辞書データベース部毎の語彙及びその発音とを比較し、言語毎の認識できた単語の認識率を算出し、該認識率が最も高い言語による提供情報を前記出力部から出力することを特徴とする請求項1〜3の何れか1項に記載の情報提供装置。   The speech identification unit includes a speech dictionary database unit of a plurality of languages, and compares an analysis speech signal that has been subjected to matching processing on the speech signal, a vocabulary and a pronunciation of each speech dictionary database unit, and recognizes each language The information providing apparatus according to any one of claims 1 to 3, wherein a recognition rate of the completed word is calculated, and provided information in a language having the highest recognition rate is output from the output unit. 前記映像出力部は前記認識率が最も高い言語とその次に認識率が高い言語とを交互又は並列に表示することを特徴とする請求項4に記載の情報提供装置。   The information providing apparatus according to claim 4, wherein the video output unit displays the language having the highest recognition rate and the language having the next highest recognition rate alternately or in parallel. 駅構内又は空港内に設置することを特徴とする請求項1〜5の何れか1項に記載の情報提供装置。   The information providing apparatus according to claim 1, wherein the information providing apparatus is installed in a station premises or in an airport.
JP2013148500A 2013-07-17 2013-07-17 Information providing device Pending JP2015022060A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013148500A JP2015022060A (en) 2013-07-17 2013-07-17 Information providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013148500A JP2015022060A (en) 2013-07-17 2013-07-17 Information providing device

Publications (1)

Publication Number Publication Date
JP2015022060A true JP2015022060A (en) 2015-02-02

Family

ID=52486585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013148500A Pending JP2015022060A (en) 2013-07-17 2013-07-17 Information providing device

Country Status (1)

Country Link
JP (1) JP2015022060A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5996702B1 (en) * 2015-03-31 2016-09-21 東芝エレベータ株式会社 Elevator remote monitoring system
KR20180058939A (en) * 2016-11-25 2018-06-04 한국공항공사 Many languages auto guide apparatus and method
JP2020104506A (en) * 2018-12-28 2020-07-09 京セラドキュメントソリューションズ株式会社 Image formation apparatus
JP2020156846A (en) * 2019-03-27 2020-10-01 Toto株式会社 Voice guidance device for toilet
JP7439203B2 (en) 2015-07-21 2024-02-27 ロヴィ ガイズ, インコーポレイテッド System and method for identifying content corresponding to languages spoken in the home

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5996702B1 (en) * 2015-03-31 2016-09-21 東芝エレベータ株式会社 Elevator remote monitoring system
JP7439203B2 (en) 2015-07-21 2024-02-27 ロヴィ ガイズ, インコーポレイテッド System and method for identifying content corresponding to languages spoken in the home
KR20180058939A (en) * 2016-11-25 2018-06-04 한국공항공사 Many languages auto guide apparatus and method
JP2020104506A (en) * 2018-12-28 2020-07-09 京セラドキュメントソリューションズ株式会社 Image formation apparatus
JP7151478B2 (en) 2018-12-28 2022-10-12 京セラドキュメントソリューションズ株式会社 image forming device
JP2020156846A (en) * 2019-03-27 2020-10-01 Toto株式会社 Voice guidance device for toilet
JP7215287B2 (en) 2019-03-27 2023-01-31 Toto株式会社 Voice guidance device for toilet

Similar Documents

Publication Publication Date Title
JP2015022060A (en) Information providing device
JP2013134430A (en) Device, method, and program for processing command
KR20170009337A (en) Method and Apparatus for alarming user interest voice
WO2018118420A1 (en) Method, system, and apparatus for voice and video digital travel companion
US10878799B2 (en) Information presenting apparatus and information presenting method
US11935523B2 (en) Detection of correctness of pronunciation
JP2016521383A (en) Method, apparatus and computer readable recording medium for improving a set of at least one semantic unit
US20230005483A1 (en) System and method for displaying radio communication transcription
KR20100134396A (en) Voice bus inquiry guide system for blind people and controlling method for the same
JP2016008132A (en) Elevator system and information output method of elevator
KR101447556B1 (en) English Learning System
KR101562222B1 (en) Apparatus for evaluating accuracy of pronunciation and method thereof
KR20150026645A (en) Voice Recognition Application Program By Pattern Recognition Technology
JP3173022U (en) Moving image system with speech synthesis
JP2016184095A (en) Language recognition device, language recognition method, and program
KR101248157B1 (en) system for warnig disaster by voice provided in multinational language
US20160210961A1 (en) Speech interaction device, speech interaction system, and speech interaction method
JP2017107261A (en) Text data processing device, character broadcast display system, and character broadcast display program
WO2019130817A1 (en) Information processing device and speech analysis method
KR20130099375A (en) Hangul learning system
JP2011232521A (en) Speech recognition device
US10304460B2 (en) Conference support system, conference support method, and computer program product
KR102011595B1 (en) Device and method for communication for the deaf person
JP2016075728A (en) Facility inspection assistance device
JP3340163B2 (en) Voice recognition device