JP2018072509A - Voice reading device, voice reading system, voice reading method and program - Google Patents
Voice reading device, voice reading system, voice reading method and program Download PDFInfo
- Publication number
- JP2018072509A JP2018072509A JP2016210652A JP2016210652A JP2018072509A JP 2018072509 A JP2018072509 A JP 2018072509A JP 2016210652 A JP2016210652 A JP 2016210652A JP 2016210652 A JP2016210652 A JP 2016210652A JP 2018072509 A JP2018072509 A JP 2018072509A
- Authority
- JP
- Japan
- Prior art keywords
- character string
- unit
- voice
- operation input
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、音声読み上げ装置、音声読み上げシステム、音声読み上げ方法、およびプログラムに関する。 The present invention relates to a voice reading device, a voice reading system, a voice reading method, and a program.
昨今、スマートフォンをはじめ小型のディスプレイが搭載された携帯型端末が普及している。ディスプレイの小型化に伴い、当該ディスプレイに表示される文書の文字のサイズも小さくなるが、これにより、とくに視力が衰えた高齢者等にとっては、文字が小さすぎて読みにくい場合がある。例えば、スマートフォンの画面から何らかのサービスの契約の手続きをする際に、当該契約に関する確認事項や約款等の文書が表示される場合があるが、記載事項が多いために小さい文字サイズで表示されることが多い。そこで、例えば特許文献1に記載の保険契約情報提供システムは、予め約款を内容に応じて複数のパートに分けておき、約款の読み出し指示があると、約款全体の電子データのうち、提示すべき対象のパートの電子データを約款データベースから読み出してクライアント端末に表示させる。
In recent years, portable terminals equipped with a small display such as a smartphone have become widespread. Along with the miniaturization of the display, the text size of the document displayed on the display is also reduced. However, this may make the text too small and difficult to read, particularly for elderly people who have diminished vision. For example, when you process a contract for a service from the screen of a smartphone, documents such as confirmation items and contracts related to the contract may be displayed. There are many. Therefore, for example, the insurance contract information providing system described in
約款等が表示された画面の一部に対して拡大操作をして拡大表示すると、拡大された画像が表示画面に収まらなくなり、ユーザはスクロールさせながら読む必要がある。一方、特許文献1に記載の保険契約情報提供システムは、予め約款を内容に応じて複数のパートに分けておき、当該パート毎に分けられた電子データを約款データベースから読み出してクライアント端末に提供することができるため、ユーザは必ずしもそのパート全体を拡大する必要がないが、パート内の一部のみを確認したい場合であっても、必要ではないデータも含めて表示されてしまう。その場合、ユーザにとって必ずしも内容が確認しやすいとは限らない。
When an enlargement operation is performed on a part of the screen on which the terms and conditions are displayed, the enlarged image does not fit on the display screen, and the user needs to read while scrolling. On the other hand, the insurance contract information providing system described in
本発明は、このような事情に鑑みてなされたもので、その目的は、ユーザによって選択された範囲の文字列の内容を認識させやすくすることができる音声読み上げ装置、音声読み上げシステム、音声読み上げ方法、およびプログラムを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a speech reading device, a speech reading system, and a speech reading method capable of easily recognizing the contents of a character string in a range selected by a user. , And to provide a program.
上述した課題を解決するため、本発明の一態様は、テキスト情報を表示する表示部と、前記表示部によって表示された前記テキスト情報に含まれる文字列の一部または全部を選択する操作入力を受け付ける操作入力部と、前記操作入力によって選択された前記文字列を示す文字列データに基づく音声を再生する音声再生部と、を備えることを特徴とする音声読み上げ装置である。 In order to solve the above-described problem, according to one embodiment of the present invention, a display unit that displays text information and an operation input that selects a part or all of a character string included in the text information displayed by the display unit are provided. A speech reading apparatus comprising: an operation input unit that accepts; and an audio reproduction unit that reproduces audio based on character string data indicating the character string selected by the operation input.
また、本発明の一態様は、前記音声再生部は、前記文字列データに基づく文字列が辞書情報を用いて言語解析された文字列を示す文字列データに基づく音声を再生することを特徴とする(1)に記載の音声読み上げ装置である。 Moreover, one aspect of the present invention is characterized in that the voice reproduction unit reproduces voice based on character string data indicating a character string obtained by performing language analysis on the character string based on the character string data using dictionary information. The speech reading apparatus according to (1).
また、本発明の一態様は、前記音声再生部は、前記文字列データに基づく文字列が辞書情報を用いて言語解析された文字列がさらに他の言語に翻訳された文字列を示す文字列データに基づく音声を再生することを特徴とする(1)に記載の音声読み上げ装置である。 Further, according to one aspect of the present invention, the voice reproduction unit may include a character string in which a character string obtained by performing a linguistic analysis on a character string based on the character string data using dictionary information is further translated into another language. The voice reading apparatus according to (1), wherein voice based on data is reproduced.
また、本発明の一態様は、音声読み上げ装置と音声変換サーバとを有する音声読み上げシステムであって、前記音声読み上げ装置は、テキスト情報を表示する表示部と、前記表示部によって表示された前記テキスト情報に含まれる文字列の一部または全部を選択する操作入力を受け付ける操作入力部と、前記操作入力によって選択された文字列を示す文字列データを第2の通信部へ送信し、音声データを前記第2の通信部から受信する第1の通信部と、前記音声データに基づいて音声を再生する音声再生部と、
を備え、前記音声変換サーバは、前記第1の通信部から送信された前記文字列データを前記音声データに変換する音声変換部と、前記文字列データを前記第1の通信部から受信し、前記音声変換部によって変換された前記音声データを前記第1の通信部へ送信する第2の通信部と、を備えることを特徴とする音声読み上げシステムである。
Another embodiment of the present invention is a speech reading system including a speech reading device and a speech conversion server, wherein the speech reading device includes a display unit that displays text information and the text displayed by the display unit. An operation input unit that receives an operation input for selecting a part or all of a character string included in the information, and character string data indicating the character string selected by the operation input are transmitted to the second communication unit, and voice data is transmitted. A first communication unit that receives from the second communication unit; an audio reproduction unit that reproduces audio based on the audio data;
The voice conversion server receives a voice conversion unit that converts the character string data transmitted from the first communication unit into the voice data, and the character string data from the first communication unit, And a second communication unit that transmits the voice data converted by the voice conversion unit to the first communication unit.
また、本発明の一態様は、コンピュータによる音声読み上げ方法であって、表示部が、テキスト情報を表示する表示ステップと、操作入力部が、前記表示部によって表示された前記テキスト情報に含まれる文字列の一部または全部を選択する操作入力を受け付ける操作入力ステップと、音声再生部が、前記操作入力によって選択された前記文字列を示す文字列データに基づく音声を再生する音声再生ステップと、を有することを特徴とする音声読み上げ方法である。 One embodiment of the present invention is a computer-to-speech reading method, in which a display unit displays text information, and an operation input unit includes characters included in the text information displayed by the display unit. An operation input step for receiving an operation input for selecting a part or all of the column; and an audio reproduction step for reproducing an audio based on character string data indicating the character string selected by the operation input. It is a voice reading method characterized by having.
コンピュータに、テキスト情報を表示する表示ステップと、前記表示ステップによって表示された前記テキスト情報に含まれる文字列の一部または全部を選択するユーザによる操作入力を受け付ける操作入力ステップと、前記操作入力によって選択された前記文字列を示す文字列データに基づく音声を再生する音声再生ステップと、を実行させるためのプログラムである。 A display step for displaying text information on a computer, an operation input step for accepting an operation input by a user selecting a part or all of a character string included in the text information displayed by the display step, and the operation input And a sound reproduction step of reproducing sound based on character string data indicating the selected character string.
以上説明したように、この発明によれば、ユーザによって選択された範囲の文字列の内容を認識させやすくすることができる。 As described above, according to the present invention, the contents of the character string in the range selected by the user can be easily recognized.
<第1の実施形態>
以下、本発明の第1の実施形態による音声読み上げシステムについて図面を参照して説明する。
<First Embodiment>
Hereinafter, a voice reading system according to a first embodiment of the present invention will be described with reference to the drawings.
[音声読み上げシステムの構成]
図1は、この発明の第1の実施形態による音声読み上げシステムの音声読み上げ装置および音声変換サーバの機能構成を示すブロック図である。同図に示す音声読み上げシステム1は、音声読み上げ装置10Aと、音声変換サーバ20Aと、通信ネットワーク50と、で構成されている。
[Configuration of the voice reading system]
FIG. 1 is a block diagram showing a functional configuration of a speech reading apparatus and a speech conversion server of the speech reading system according to the first embodiment of the present invention. The
音声読み上げ装置10Aは、テキスト情報を表示し、表示したテキスト情報に含まれる文字列の一部または全部を選択する操作入力を受け付け、当該操作入力によって選択された文字列を示す文字列データを、通信ネットワーク50を介して音声変換サーバ20Aへ送信する。また、音声読み上げ装置10Aは、音声データを、音声変換サーバ20Aから通信ネットワーク50を介して受信し、当該音声データに基づいて音声を再生する。
音声読み上げ装置は、携帯型の小型情報端末、例えば、スマートフォン等である。
The
The speech reading apparatus is a portable small information terminal, such as a smartphone.
音声変換サーバ20Aは、音声読み上げ装置10Aから送信された文字列データを、通信ネットワーク50を介して受信し、受信した文字列データを音声データに変換し、変換した音声データを、通信ネットワーク50を介して音声読み上げ装置10Aへ送信する。
音声変換サーバ20は、コンピュータ装置、例えば、汎用コンピュータ、またはパーソナルコンピュータ等を含んで構成される。
The voice conversion server 20A receives the character string data transmitted from the
The voice conversion server 20 includes a computer device such as a general-purpose computer or a personal computer.
通信ネットワーク50は、音声読み上げ装置10Aと音声変換サーバ20とが通信接続される通信ネットワークである。通信ネットワーク50は、例えば、インターネット、WAN(Wide Area Network;広域通信網)、LAN(Local Area Network;構内通信網)、またはこれらの通信ネットワークの任意の組み合わせ、等によって構成される。
以下に、音声読み上げ装置10A、および音声変換サーバ20Aの機能構成について、それぞれ説明する。
The
Hereinafter, functional configurations of the
なお、本実施形態による音声読み上げシステム1は、音声読み上げ装置10Aと、音声変換サーバ20Aと、通信ネットワーク50と、から構成されるものとしたが、これに限られない。例えば、後述する第4の実施形態による音声読み上げシステム1のように、音声変換サーバ20Aが有する機能を音声読み上げ装置10Aが有するような構成であってもよい。例えば、スマートフォンが、テキスト情報を表示し、表示したテキスト情報に含まれる文字列の一部または全部を選択する操作入力を受け付け、選択された文字列を示す文字列データを音声データに変換して、当該音声データに基づく音声を再生するような構成、すなわち、スマートフォン単体で音声による読み上げが行われるような構成であってもよい。
The
[音声読み上げ装置の構成]
図1に示すように、音声読み上げ装置10Aは、制御部100と、記憶部101と、通信部102と、表示部103と、操作入力部104と、選択範囲検出部105と、音声再生部106と、を含んで構成される。
[Configuration of voice reading device]
As shown in FIG. 1, the
制御部100は、音声読み上げ装置10Aの各機能ブロックによって行われる処理を制御する。制御部100は、例えば、CPU(Central Processing Unit;中央演算処理装置)を含んで構成される。
The
記憶部101は、音声読み上げ装置10Aにおいて用いられる各種プログラムや、各種データを記憶する。なお、記憶部101は、後述する表示部103によって表示される画像に含まれるテキスト情報(例えば、HTML形式で記述されたソースファイル)等のコンテンツデータも記憶する。
記憶部101は、記憶媒体、例えば、例えば、HDD(Hard Disk Drive;ハードディスクドライブ)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory;イーイーピーロム)、RAM(Random Access read/write Memory;読み書き可能なメモリ)、ROM(Read Only Memory;読み出し専用メモリ)、またはこれらの記憶媒体の任意の組み合わせによって構成される。
The
The
通信部102は、通信ネットワーク50と通信接続する通信インターフェースである。通信部102は、通信ネットワーク50を介して、音声読み上げ装置10Aと音声変換サーバ20Aとの間における各種データの送受信を行う。通信部102(第1の通信部)は、例えば、操作入力によって選択された文字列を示す文字列データを、通信ネットワーク50を介して、後述する音声変換サーバ20Aの通信部202(第2の通信部)へ送信する。また、通信部102(第1の通信部)は、音声データを、後述する音声変換サーバ20Aの通信部202(第2の通信部)から通信ネットワーク50を介して受信する。
The
表示部103は、ユーザに対して画像情報を出力するユーザインターフェースである。例えば、表示部103は、テキスト情報を含む画像を表示する。当該テキスト情報は、記憶部101に記憶されているテキスト情報であってもよいし、通信ネットワーク50を介して外部のウェブサーバ(図示せず)等から取得するテキスト情報であってもよい。また、例えば、表示部103は、当該テキスト情報に含まれる文字列のうち、ユーザによって選択された範囲の文字列であることを示す画像(例えば、ユーザが選択した範囲の文字列に対して施される網掛けの画像等)を表示する。表示部103は、ディスプレイ、例えば、LCD(Liquid Crystal Display;液晶ディスプレイ)、または有機EL(エレクトロルミネッセンス)ディスプレイを含んで構成される。
The
操作入力部104は、ユーザからの操作入力を受け付けるユーザインターフェースである。例えば、操作入力部104は、表示部103によって表示されたテキスト情報に含まれる文字列の一部または全部を選択する操作入力を受け付ける。操作入力部104は、例えば、表示部103を構成するディスプレイとタッチ操作検出用のセンサーとが一体化された、タッチパネル式の液晶ディスプレイ等を含んで構成される。
The
選択範囲検出部105は、操作入力部104によって受け付けられた操作入力に基づく文字列の選択の選択範囲を検出し、検出した選択範囲に含まれる文字列を示す文字列データを生成する。なお、文字列選択の具体例については後述する。
The selection
音声再生部106は、ユーザに対して音声情報を出力するユーザインターフェースである。例えば、音声再生部106は、通信部102(第1の通信部)により通信ネットワーク50を介して受信する音声データに基づいて音声を再生する。音声再生部106は、例えば、スピーカー、またはヘッドホン等を含んで構成される。
The
[音声変換サーバの構成]
図1に示すように、音声変換サーバ20Aは、制御部200と、記憶部201と、通信部202と、音声情報記憶部203と、音声変換部204と、を含んで構成される。
[Configuration of voice conversion server]
As illustrated in FIG. 1, the voice conversion server 20A includes a
制御部200は、音声変換サーバ20Aの各機能ブロックによって行われる処理を制御する。制御部200は、例えば、CPUを含んで構成される。
The
記憶部201は、音声変換サーバ20Aにおいて用いられる各種プログラムや、各種データを記憶する。記憶部201は、記憶媒体、例えば、例えば、HDD、フラッシュメモリ、EEPROM、RAM、ROM、またはこれらの記憶媒体の任意の組み合わせによって構成される。
The
通信部202は、通信ネットワーク50と通信接続する通信インターフェースである。通信部202は、通信ネットワーク50を介して、音声変換サーバ20Aと音声読み上げ装置10Aとの間における各種データの送受信を行う。通信部202(第2の通信部)は、例えば、操作入力によって選択された文字列を示す文字列データを、音声読み上げ装置10Aの通信部102(第1の通信部)から通信ネットワーク50を介して受信する。また、通信部202(第2の通信部)は、後述する音声変換部204によって当該文字列が変換された音声データを、通信ネットワーク50を介して、音声読み上げ装置10Aの通信部102(第1の通信部)へ送信する。
The
音声情報記憶部203は、文字列データと音声データとが対応付けられた音声情報を記憶する。音声情報記憶部203は、記憶媒体、例えば、例えば、HDD、フラッシュメモリ、EEPROM、RAM、ROM、またはこれらの記憶媒体の任意の組み合わせによって構成される。
The voice
音声変換部204は、音声読み上げ装置10Aの通信部102(第1の通信部)から送信された文字列データを検索キーとして、音声情報記憶部203に記憶された音声情報に含まれる文字列データを検索し、検索された文字列データに対応付けられた音声データを取得する。これにより、音声変換部204は、音声読み上げ装置10Aの通信部102(第1の通信部)から送信された文字列データを音声データに変換する。
The
[文字列選択の具体例]
以下、音声読み上げ装置10Aにおける文字列選択の一例について説明する。
図2は、この発明の第1の実施形態による音声読み上げシステムの音声読み上げ装置における文字列選択の一例を示す概略図である。
[Specific example of character string selection]
Hereinafter, an example of character string selection in the
FIG. 2 is a schematic diagram showing an example of character string selection in the speech reading apparatus of the speech reading system according to the first embodiment of the present invention.
図2には、音声読み上げ装置10Aであるスマートフォンが図示されている。当該スマートフォンには、表示部103および操作入力部104を兼ねたタッチパネル式の液晶ディスプレイが搭載されている。図示するように、液晶ディスプレイには、「○○○○○株式会社は〜」の文言から始まる文書を示す画像が表示されており、液晶ディスプレイにおける当該文書を示す画像の上方には、プルダウンメニューpm1を示す画像と、音声読み上げボタンbt1を示す画像が表示されている。
FIG. 2 illustrates a smartphone that is the voice reading device 10 </ b> A. The smartphone is equipped with a touch panel type liquid crystal display that also serves as the
また、図示するように、液晶ディスプレイに表示された文書を示す画像において、「技術や〜」から「〜を最適化」までの文字列の範囲は網掛けがなされている。当該網掛けがなされた範囲は文字列選択範囲sa1であり、液晶ディスプレイにおいて、「技術や〜」から「〜を最適化」までの文字列が表示された部分がユーザの指によってなぞられたことを表す画像である。このように、ユーザは、液晶ディスプレイにおいて、文章を視認し、読みにくい部分があった場合には、その箇所の文字列を指でなぞることによって、文書内の一部の範囲の文字列を選択指定する(文字列選択する)ことができる。 Further, as shown in the figure, in the image showing the document displayed on the liquid crystal display, the range of the character string from “technical or ~” to “optimize ~” is shaded. The shaded range is the character string selection range sa1, and on the liquid crystal display, the portion where the character string from "Technology or ~" to "Optimize ~" is traced by the user's finger It is an image showing. In this way, when the user visually recognizes a sentence on the liquid crystal display and there is a difficult part to read, the user selects a part of the character string in the document by tracing the character string of the part with a finger. You can specify (select a character string).
なお、図2に示した音声読み上げ装置10Aの表示部103に表示された文言のうち、例えば、「術やノウハウをベースに、お客様の情報伝」の部分の文字列がユーザによって選択指定されたとする。このように、この「術」や「情報伝」のように単語や熟語の一部分のみが選択指定されていることを検知した場合、音声読み上げ装置10Aは、単語や熟語の区切りと推測される範囲まで自動的に選択指定範囲を広げて、「技術」から「情報伝達」までを選択指定するようにしてもよい。
Of the text displayed on the
[音声読み上げシステムの動作]
以下、第1の実施形態に係る音声読み上げシステム1の動作について説明する。
図3は、この発明の第1の実施形態による音声読み上げシステムの動作を示すフローチャートである。本フローチャートの処理は、音声読み上げ装置10Aの制御部100により表示部103へテキスト情報を含むコンテンツデータが出力された際に開始する。
[Operation of voice reading system]
Hereinafter, the operation of the
FIG. 3 is a flowchart showing the operation of the speech reading system according to the first embodiment of the present invention. The processing of this flowchart starts when content data including text information is output to the
(ステップS001)音声読み上げ装置10Aの表示部103は、テキスト情報を含むコンテンツデータを取得する。その後、ステップS002へ進む。
なお、コンテンツデータは、制御部100により、記憶部101から表示部103へ出力される、予め記憶部101に記憶されているコンテンツデータであってもよいし、または、制御部100により、通信部102から表示部103へ出力される、通信ネットワーク50に通信接続された外部のコンテンツサーバ(図示せず)から取得されるコンテンツデータであってもよい。
(Step S001)
The content data may be content data stored in advance in the
(ステップS002)音声読み上げ装置10Aの表示部103は、取得したコンテンツデータに基づくコンテンツを示す画像を表示する。その後、ステップS003へ進む。
(Step S002) The
(ステップS003)音声読み上げ装置10Aの操作入力部104は、ユーザの操作入力に基づく音声読み上げ指示を示す信号を検出する。例えば、図2に示した液晶ディスプレイにおいて、音声読み上げボタンbt1を示す画像の部分がユーザの指によってタッチされることによって、音声読み上げ指示を示す信号が生成され、操作入力部104は当該信号を検知する。操作入力部104は、当該信号を検知すると、ユーザによる文字列選択を示す操作入力を受け付けるモードになる。その後、ステップS004へ進む。
(Step S003) The
(ステップS004)音声読み上げ装置10Aの選択範囲検出部105は、操作入力部104によって受け付けられた操作入力に基づく文字列が選択された範囲を検出する。例えば、図2に示した液晶ディスプレイにおいて、文字列選択範囲sa1の部分(すなわち、「技術や〜」から「〜を最適化」までの文字列の範囲)がユーザの指によってなぞられたことを、当該液晶ディスプレイに搭載されたタッチ操作検出用のセンサーが検出することによって、選択範囲検出部105は当該文字列選択範囲を検出する。また、操作入力部104は、タッチ操作検出用のセンサーによりユーザの指が液晶ディスプレイから離れたことを検出すると、ユーザによる文字列選択を示す操作入力を受け付けるモードから、通常時のモードに切り替わる。その後、ステップS005へ進む。
(Step S004) The selection
(ステップS005)音声読み上げ装置10Aの選択範囲検出部105は、ステップS004において検出した文字列選択範囲の画像に含まれる文字列を抽出し、抽出した文字列をテキストデータに変換した文字列データを生成する。制御部100は、当該文字列データを、通信部102(第1の通信部)を介して、音声変換サーバ20Aの通信部202(第2の通信部)へ送信する。その後、ステップS006へ進む。
(Step S005) The selection
(ステップS006)音声変換サーバ20Aの通信部202(第2の通信部)は、ステップS005において音声読み上げ装置10Aの通信部102(第1の通信部)から送信された文字列データを、通信ネットワーク50を介して受信する。音声変換サーバ20Aの制御部200は、通信部202が受信した文字列データを音声変換部204へ出力する。
音声変換部204は、制御部200により通信部202が受信した文字列データを取得すると、当該文字列データを検索キーとして、音声情報記憶部203に記憶された音声情報に含まれる文字列データを検索し、検索された文字列データに対応付けられた音声データを取得する。これにより、音声変換部204は、音声読み上げ装置10Aの通信部102(第1の通信部)から送信された文字列データを音声データに変換する。
音声変換サーバ20Aの制御部200は、音声変換部204によって変換された音声データを、通信部202(第2の通信部)を介して、音声読み上げ装置10Aの通信部102(第1の通信部)へ送信する。その後、ステップS007へ進む。
(Step S006) The communication unit 202 (second communication unit) of the voice conversion server 20A transmits the character string data transmitted from the communication unit 102 (first communication unit) of the
When the
The
(ステップS007)音声読み上げ装置10Aの通信部102(第1の通信部)は、ステップS006において音声変換サーバ20Aの通信部202(第2の通信部)から送信された音声データを、通信ネットワーク50を介して受信する。音声読み上げ装置10Aの制御部100は、通信部102が受信した音声データを音声再生部106へ出力する。
音声再生部106は、制御部100により通信部102が受信した音声データを取得すると、当該音声データに基づく音声を再生する。
以上で本フローチャートの処理が終了する。
(Step S007) The communication unit 102 (first communication unit) of the
When the
Thus, the process of this flowchart is completed.
<第2の実施形態>
以下、本発明の第2の実施形態による音声読み上げシステムについて図面を参照して説明する。
<Second Embodiment>
Hereinafter, a speech reading system according to a second embodiment of the present invention will be described with reference to the drawings.
[音声変換サーバの構成]
図4は、この発明の第2の実施形態による音声読み上げシステムの音声変換サーバの機能構成を示すブロック図である。同図に示す音声変換サーバ20Bは、制御部200と、記憶部201と、通信部202と、音声情報記憶部203と、音声変換部204と、辞書記憶部205と、言語解析部206と、を含んで構成される。なお、同図において図1の各部に対応する部分には同一の符号を付け、その説明を省略する。
[Configuration of voice conversion server]
FIG. 4 is a block diagram showing a functional configuration of the voice conversion server of the voice reading system according to the second embodiment of the present invention. The
辞書記憶部205は、文字列データと、単語、熟語、意味、他のデータとの関係、起源、用途、フォーマット、およびイントネーション等の言語情報と、が対応付けられた辞書情報を、集中的に記憶する。辞書記憶部205は、記憶媒体、例えば、例えば、HDD、フラッシュメモリ、EEPROM、RAM、ROM、またはこれらの記憶媒体の任意の組み合わせによって構成される。
The
言語解析部206は、音声読み上げ装置10Aの通信部102(第1の通信部)から送信された文字列データを検索キーとして、辞書記憶部205に記憶された辞書情報に含まれる文字列データを検索し、検索された文字列データに対応付けられた言語情報を取得する。これにより、言語解析部206は、音声読み上げ装置10Aの通信部102(第1の通信部)から送信された文字列データが示す文字列を解析して、当該文字列における文節や単語の区切り等を特定し、当該文字列に含まれる語句およびイントネーション等を特定する。
The
音声変換部204は、言語解析部206による上記の解析によって特定された言語情報(例えば、語句およびイントネーション等を示す情報)を用いて、文字列データから音声データへ変換する。これにより、第2の実施形態における音声読み上げシステム1は、第1の実施形態における音声読み上げシステム1と比べて、より自然な発音での音声による読み上げをすることができる。
The
[音声読み上げシステムの動作]
以下、第2の実施形態に係る音声読み上げシステム1の動作について説明する。
図5は、この発明の第2の実施形態による音声読み上げシステムの動作を示すフローチャートである。本フローチャートの処理は、音声読み上げ装置10Aの制御部100により表示部103へテキスト情報を含むコンテンツデータが出力された際に開始する。
[Operation of voice reading system]
Hereinafter, the operation of the
FIG. 5 is a flowchart showing the operation of the speech reading system according to the second embodiment of the present invention. The processing of this flowchart starts when content data including text information is output to the
ステップS101からステップS105までの動作は、第1の実施形態に係る音声読み上げシステム1の動作において説明したステップS001からステップS005までの動作と同様であるため、説明を省略する。
Since the operation from step S101 to step S105 is the same as the operation from step S001 to step S005 described in the operation of the
(ステップS106)音声変換サーバ20Aの通信部202(第2の通信部)は、ステップS105において音声読み上げ装置10Aの通信部102(第1の通信部)から送信された文字列データを、通信ネットワーク50を介して受信する。音声変換サーバ20Aの制御部200は、通信部202が受信した文字列データを言語解析部206へ出力する。
言語解析部206は、制御部200により通信部202が受信した文字列データを取得すると、当該文字列データを検索キーとして、辞書記憶部205に記憶された辞書情報に含まれる文字列データを検索し、検索された文字列データに対応付けられた言語情報を取得する。制御部200は、言語解析部206が取得した言語情報を、音声変換部204へ出力する。その後、ステップS107へ進む。
(Step S106) The communication unit 202 (second communication unit) of the voice conversion server 20A transmits the character string data transmitted from the communication unit 102 (first communication unit) of the
When the
(ステップS107)音声変換サーバ20Aの音声変換部204は、制御部200により言語解析部206が取得した言語情報を取得すると、当該言語情報(例えば、語句およびイントネーション等を示す情報)を用いて、文字列データから音声データへ変換する。
これにより、音声変換部204は、音声読み上げ装置10Aの通信部102(第1の通信部)から送信された文字列データが、言語解析部206によって言語解析された文字列データを、音声データに変換する。
音声変換サーバ20Aの制御部200は、音声変換部204によって変換された音声データを、通信部202(第2の通信部)を介して、音声読み上げ装置10Aの通信部102(第1の通信部)へ送信する。その後、ステップS008へ進む。
(Step S107) When the
As a result, the
The
ステップS108の動作は、第1の実施形態に係る音声読み上げシステム1の動作において説明したステップS007の動作と同様であるため、説明を省略する。
以上で本フローチャートの処理が終了する。
Since the operation in step S108 is the same as the operation in step S007 described in the operation of the
Thus, the process of this flowchart is completed.
<第3の実施形態>
以下、本発明の第3の実施形態による音声読み上げシステムについて図面を参照して説明する。
<Third Embodiment>
Hereinafter, a speech reading system according to a third embodiment of the present invention will be described with reference to the drawings.
[音声変換サーバの構成]
図6は、この発明の第3の実施形態による音声読み上げシステムの音声変換サーバの機能構成を示すブロック図である。同図に示す音声変換サーバ20Cは、制御部200と、記憶部201と、通信部202と、音声情報記憶部203と、音声変換部204と、辞書記憶部205と、言語解析部206と、外国語辞書記憶部207と、翻訳部208と、を含んで構成される。なお、同図において図1および図4の各部に対応する部分には同一の符号を付け、その説明を省略する。
[Configuration of voice conversion server]
FIG. 6 is a block diagram showing a functional configuration of the voice conversion server of the voice reading system according to the third embodiment of the present invention. The
外国語辞書記憶部207は、母国語の言語情報と外国語の言語情報とが対応付けられた外国語辞書情報を記憶する。外国語辞書記憶部207は、記憶媒体、例えば、例えば、HDD、フラッシュメモリ、EEPROM、RAM、ROM、またはこれらの記憶媒体の任意の組み合わせによって構成される。
The foreign language
翻訳部208は、言語解析部206によって解析された母国語での言語情報を検索キーとして、外国語辞書記憶部207に記憶された外国語辞書情報に含まれる母国語の言語情報を検索し、検索された母国語の言語情報に対応付けられた外国語の言語情報を取得する。これにより、翻訳部208は、音声読み上げ装置10Aの通信部102(第1の通信部)から送信された文字列データが示す母国語の言語から、指定された外国語の言語へ翻訳する。
なお、図2に示したプルダウンメニューpm1によってユーザは言語を選択することができる。翻訳部208は、母国語の言語から、プルダウンメニューpm1によって指定された外国語の言語へ翻訳する。
The
Note that the user can select a language using the pull-down menu pm1 shown in FIG. The
[音声読み上げシステムの動作]
以下、第3の実施形態に係る音声読み上げシステム1の動作について説明する。
図7は、この発明の第3の実施形態による音声読み上げシステムの動作を示すフローチャートである。本フローチャートの処理は、音声読み上げ装置10Aの制御部100により表示部103へテキスト情報を含むコンテンツデータが出力された際に開始する。
[Operation of voice reading system]
Hereinafter, the operation of the
FIG. 7 is a flowchart showing the operation of the speech reading system according to the third embodiment of the present invention. The processing of this flowchart starts when content data including text information is output to the
ステップS201およびステップS202の動作は、第1の実施形態に係る音声読み上げシステム1の動作において説明したステップS001およびステップS002の動作とそれぞれ同様であるため、説明を省略する。
The operations in step S201 and step S202 are the same as the operations in step S001 and step S002 described in the operation of the
(ステップS203)音声読み上げ装置10Aの操作入力部104は、ユーザの操作入力(例えば、図2に示したプルダウンメニューpm1による操作入力)に基づく言語選択指示を示す信号を検出する。操作入力部104は、当該信号を検知すると、制御部100は、ユーザによって選択された言語を示す情報を、記憶部101に一時記憶させる。その後、ステップS205へ進む。
(Step S203) The
ステップS204およびステップS205の動作は、第1の実施形態に係る音声読み上げシステム1の動作において説明したステップS003およびステップS004の動作とそれぞれ同様であるため、説明を省略する。
The operations in step S204 and step S205 are the same as the operations in step S003 and step S004 described in the operation of the
(ステップS206)音声読み上げ装置10Aの選択範囲検出部105は、ステップS205において検出した文字列選択範囲の画像に含まれる文字列を抽出し、抽出した文字列をテキストデータに変換した文字列データを生成する。制御部100は、当該文字列データを、通信部102(第1の通信部)を介して、音声変換サーバ20Aの通信部202(第2の通信部)へ送信する。また、ステップS203において記憶部101に一時記憶された、ユーザによって選択された言語を示す情報も併せて送信される。その後、ステップS207へ進む。
(Step S206) The selection
(ステップS207)音声変換サーバ20Aの通信部202(第2の通信部)は、ステップS206において音声読み上げ装置10Aの通信部102(第1の通信部)から送信された文字列データ、およびユーザによって選択された言語を示す情報を、通信ネットワーク50を介して受信する。音声変換サーバ20Aの制御部200は、通信部202が受信した文字列データを言語解析部206へ出力する。
言語解析部206は、制御部200により通信部202が受信した文字列データを取得すると、当該文字列データを検索キーとして、辞書記憶部205に記憶された辞書情報に含まれる文字列データを検索し、検索された文字列データに対応付けられた言語情報を取得する。制御部200は、言語解析部206が取得した言語情報を、翻訳部208へ出力する。その後、ステップS208へ進む。
(Step S207) The communication unit 202 (second communication unit) of the speech conversion server 20A receives the character string data transmitted from the communication unit 102 (first communication unit) of the
When the
(ステップS208)音声変換サーバ20Aの翻訳部208は、制御部200により言語解析部206が取得した母国語の言語情報を取得すると、当該母国語の言語情報を検索キーとして、外国語辞書記憶部207に記憶された外国語辞書情報に含まれる母国語の言語情報を検索し、検索された母国語の言語情報に対応付けられた外国語の言語情報を取得する。ここで、翻訳部208は、ステップS207において通信部202より受信された、ユーザによって選択された言語を示す情報が示す外国語の言語情報を外国語辞書記憶部207から取得する。制御部200は、翻訳部208が取得した外国語の言語情報を、音声変換部へ出力する。その後、ステップS209へ進む。
(Step S208) When the
(ステップS209)音声変換サーバ20Aの音声変換部204は、制御部200により翻訳部208が取得した外国語の言語情報を取得すると、当該外国語の言語情報(例えば、語句およびイントネーション等を示す情報)を用いて、外国語の文字列データから外国語の音声データへ変換する。
これにより、音声変換部204は、音声読み上げ装置10Aの通信部102(第1の通信部)から送信された母国語の文字列データが、言語解析部206によって言語解析され、さらに翻訳部208による翻訳によって外国語に変換された外国語の文字列データを、音声データに変換する。
音声変換サーバ20Aの制御部200は、音声変換部204によって変換された音声データを、通信部202(第2の通信部)を介して、音声読み上げ装置10Aの通信部102(第1の通信部)へ送信する。その後、ステップS210へ進む。
(Step S209) When the
As a result, the
The
ステップS210の動作は、第1の実施形態に係る音声読み上げシステム1の動作において説明したステップS007の動作と同様であるため、説明を省略する。
以上で本フローチャートの処理が終了する。
The operation in step S210 is the same as the operation in step S007 described in the operation of the
Thus, the process of this flowchart is completed.
<第4の実施形態>
以下、本発明の第4の実施形態による音声読み上げシステムについて図面を参照して説明する。
上述した第1乃至第3の実施形態による音声読み上げシステム1は、図1に示したように、通信ネットワーク50によって通信接続された音声読み上げ装置10Aと音声変換サーバ20(20A、20B、20C)とによって構成された。第1乃至第3の実施形態による音声読み上げシステム1では、音声読み上げ装置10Aはユーザからの操作入力を受け付け、音声による読み上げを行い、音声変換サーバは文字列データから音声データへの変換を行う構成であるが、本発明はこの構成に限られない。例えば、この第4の実施形態による音声読み上げシステム1の音声読み上げ装置10Bのように、上述した音声変換サーバ20(20A、20B、20C)が有する機能を、音声読み上げ装置10B自体が有するような構成であってもよい。
<Fourth Embodiment>
Hereinafter, a speech reading system according to a fourth embodiment of the present invention will be described with reference to the drawings.
The
[音声読み上げ装置の構成]
図8は、この発明の第4の実施形態による音声読み上げシステムの音声読み上げ装置の機能構成を示すブロック図である。同図に示す音声読み上げ装置10Bは、制御部100と、記憶部101と、通信部102と、表示部103と、操作入力部104と、選択範囲検出部105と、音声再生部106と、音声情報記憶部203と、音声変換部204と、辞書記憶部205と、言語解析部206と、外国語辞書記憶部207と、翻訳部208と、を含んで構成される。なお、同図において図1、図4、および図6の各部に対応する部分には同一の符号を付け、その説明を省略する。
[Configuration of voice reading device]
FIG. 8 is a block diagram showing a functional configuration of the speech reading apparatus of the speech reading system according to the fourth embodiment of the present invention. The
以上、説明したように、本発明の各実施形態による音声読み上げシステム1は、ユーザによって選択された範囲の文字列の内容を認識させやすくすることができる。
As described above, the speech-to-
本発明の各実施形態による音声読み上げシステム1によれば、ユーザは、ディスプレイに表示された文書の中で、読みにくい文字列の部分を指でなぞることによって音声による読み上げを行わせることができる。スマートフォンの画面は一般に手のひらに収まる程度の大きさであり、スマートフォンの表示部に長い文書(例えば、Webページやアプリの説明表示等)を表示させた場合、表示部の横幅の範囲に文書の横幅全体が収まるように表示されている状態において、表示されている一文字当たりのサイズが、例えば、3ミリメートル程度以下の大きさで表示され、小さすぎて読みにくい部分が生ずる。しかし、本発明の各実施形態による音声読み上げシステム1によれば、指定された文字列に対応した音声を出力するようにしたので、ユーザは拡大表示をさせる操作等を行うことなく、ユーザはディスプレイに表示された文書の内容を認識しやすい。
According to the speech-to-
また、本発明の各実施形態による音声読み上げシステム1によれば、ユーザは、ディスプレイに表示された文書の中で、読みにくい文字列の部分を指でなぞることにより任意の範囲を指定して、当該範囲に含まれる文字列について音声による読み上げを行わせることができる。これにより、本発明の各実施形態による音声読み上げシステム1は、従来技術とは異なり、予め決められた文書や文字列についてのみ音声による読み上げを行うことができるというような制限がない。
Further, according to the
また、本発明の各実施形態による音声読み上げシステム1は、選択された文字列を言語解析し、さらに翻訳して音声による読み上げを行うことができる。これにより、例えば、銀行窓口等において、外国人の顧客が、表示されている文書の中で訳すことができない文字列の部分を指でなぞって選択し、選択した文字列を当該外国人の母国語に翻訳した音声にして読み上げさせることができる。
In addition, the
上述した実施形態における音声読み上げ装置10(10A、10B)および音声変換サーバ20(20A、20B、20C)をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。 The speech reading apparatus 10 (10A, 10B) and the speech conversion server 20 (20A, 20B, 20C) in the above-described embodiment may be realized by a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. You may implement | achieve using programmable logic devices, such as FPGA (Field Programmable Gate Array).
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
1・・・音声読み上げシステム、10(10A、10B)・・・音声読み上げ装置、20(20A、20B、20C)・・・音声変換サーバ、50・・・通信ネットワーク、100・・・制御部、101・・・記憶部、102・・・通信部(第1の通信部)、103・・・表示部、104・・・操作入力部、105・・・選択範囲検出部、106・・・音声再生部、200・・・制御部、201・・・記憶部、202・・・通信部(第2の通信部)、203・・・音声情報記憶部、204・・・音声変換部、205・・・辞書記憶部、206・・・言語解析部、207・・・外国語辞書記憶部、208・・・翻訳部、bt1・・・音声読み上げボタン、sa1・・・文字列選択範囲、pm1・・・プルダウンメニュー
DESCRIPTION OF
Claims (6)
前記表示部によって表示された前記テキスト情報に含まれる文字列の一部または全部を選択する操作入力を受け付ける操作入力部と、
前記操作入力によって選択された前記文字列を示す文字列データに基づく音声を再生する音声再生部と、
を備えることを特徴とする音声読み上げ装置。 A display for displaying text information;
An operation input unit that receives an operation input for selecting part or all of a character string included in the text information displayed by the display unit;
An audio reproduction unit for reproducing audio based on character string data indicating the character string selected by the operation input;
A speech-to-speech device comprising:
ことを特徴とする請求項1に記載の音声読み上げ装置。 The voice reading unit according to claim 1, wherein the voice reproduction unit reproduces voice based on character string data indicating a character string obtained by performing language analysis on the character string based on the character string data using dictionary information. apparatus.
ことを特徴とする請求項1に記載の音声読み上げ装置。 The voice reproduction unit reproduces voice based on character string data indicating a character string obtained by translating a character string based on the character string data using a dictionary information into a language. The speech reading apparatus according to claim 1, wherein
前記音声読み上げ装置は、
テキスト情報を表示する表示部と、
前記表示部によって表示された前記テキスト情報に含まれる文字列の一部または全部を選択する操作入力を受け付ける操作入力部と、
前記操作入力によって選択された文字列を示す文字列データを第2の通信部へ送信し、音声データを前記第2の通信部から受信する第1の通信部と、
前記音声データに基づいて音声を再生する音声再生部と、
を備え、
前記音声変換サーバは、
前記第1の通信部から送信された前記文字列データを前記音声データに変換する音声変換部と、
前記文字列データを前記第1の通信部から受信し、前記音声変換部によって変換された前記音声データを前記第1の通信部へ送信する第2の通信部と、
を備える
ことを特徴とする音声読み上げシステム。 A voice reading system having a voice reading device and a voice conversion server,
The voice reading device is
A display for displaying text information;
An operation input unit that receives an operation input for selecting part or all of a character string included in the text information displayed by the display unit;
A first communication unit that transmits character string data indicating a character string selected by the operation input to the second communication unit and receives voice data from the second communication unit;
An audio reproduction unit for reproducing audio based on the audio data;
With
The voice conversion server
A voice conversion unit that converts the character string data transmitted from the first communication unit into the voice data;
A second communication unit that receives the character string data from the first communication unit and transmits the voice data converted by the voice conversion unit to the first communication unit;
A speech-to-speech system characterized by comprising:
表示部が、テキスト情報を表示する表示ステップと、
操作入力部が、前記表示部によって表示された前記テキスト情報に含まれる文字列の一部または全部を選択する操作入力を受け付ける操作入力ステップと、
音声再生部が、前記操作入力によって選択された前記文字列を示す文字列データに基づく音声を再生する音声再生ステップと、
を有することを特徴とする音声読み上げ方法。 A computer-to-speech reading method,
A display step for displaying text information;
An operation input step in which an operation input unit receives an operation input for selecting a part or all of a character string included in the text information displayed by the display unit;
An audio reproduction step for reproducing audio based on character string data indicating the character string selected by the operation input;
A speech reading method characterized by comprising:
テキスト情報を表示する表示ステップと、
前記表示ステップによって表示された前記テキスト情報に含まれる文字列の一部または全部を選択するユーザによる操作入力を受け付ける操作入力ステップと、
前記操作入力によって選択された前記文字列を示す文字列データに基づく音声を再生する音声再生ステップと、
を実行させるためのプログラム。 On the computer,
A display step for displaying text information;
An operation input step of accepting an operation input by a user who selects a part or all of the character string included in the text information displayed by the display step;
An audio reproduction step of reproducing audio based on character string data indicating the character string selected by the operation input;
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016210652A JP2018072509A (en) | 2016-10-27 | 2016-10-27 | Voice reading device, voice reading system, voice reading method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016210652A JP2018072509A (en) | 2016-10-27 | 2016-10-27 | Voice reading device, voice reading system, voice reading method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018072509A true JP2018072509A (en) | 2018-05-10 |
Family
ID=62114262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016210652A Pending JP2018072509A (en) | 2016-10-27 | 2016-10-27 | Voice reading device, voice reading system, voice reading method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018072509A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022510528A (en) * | 2019-11-14 | 2022-01-27 | グーグル エルエルシー | Automatic audio playback of displayed text content |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09265299A (en) * | 1996-03-28 | 1997-10-07 | Secom Co Ltd | Text reading device |
JPH11338498A (en) * | 1998-05-21 | 1999-12-10 | Mitsubishi Electric Corp | Voice synthesizer |
JP2002158803A (en) * | 2000-11-17 | 2002-05-31 | Victor Co Of Japan Ltd | Portable terminal and communication system thereof |
JP2002328694A (en) * | 2001-03-02 | 2002-11-15 | Matsushita Electric Ind Co Ltd | Portable terminal device and read-aloud system |
JP2003302992A (en) * | 2002-04-11 | 2003-10-24 | Canon Inc | Method and device for synthesizing voice |
JP2012185323A (en) * | 2011-03-04 | 2012-09-27 | Sharp Corp | Reproduction apparatus, reproduction method, program and recording medium |
JP2014206677A (en) * | 2013-04-15 | 2014-10-30 | 株式会社アドバンスト・メディア | Voice recognition device and voice recognition result establishment method |
-
2016
- 2016-10-27 JP JP2016210652A patent/JP2018072509A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09265299A (en) * | 1996-03-28 | 1997-10-07 | Secom Co Ltd | Text reading device |
JPH11338498A (en) * | 1998-05-21 | 1999-12-10 | Mitsubishi Electric Corp | Voice synthesizer |
JP2002158803A (en) * | 2000-11-17 | 2002-05-31 | Victor Co Of Japan Ltd | Portable terminal and communication system thereof |
JP2002328694A (en) * | 2001-03-02 | 2002-11-15 | Matsushita Electric Ind Co Ltd | Portable terminal device and read-aloud system |
JP2003302992A (en) * | 2002-04-11 | 2003-10-24 | Canon Inc | Method and device for synthesizing voice |
JP2012185323A (en) * | 2011-03-04 | 2012-09-27 | Sharp Corp | Reproduction apparatus, reproduction method, program and recording medium |
JP2014206677A (en) * | 2013-04-15 | 2014-10-30 | 株式会社アドバンスト・メディア | Voice recognition device and voice recognition result establishment method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022510528A (en) * | 2019-11-14 | 2022-01-27 | グーグル エルエルシー | Automatic audio playback of displayed text content |
JP7395505B2 (en) | 2019-11-14 | 2023-12-11 | グーグル エルエルシー | Automatic audio playback of displayed text content |
US11887581B2 (en) | 2019-11-14 | 2024-01-30 | Google Llc | Automatic audio playback of displayed textual content |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9805718B2 (en) | Clarifying natural language input using targeted questions | |
US9053098B2 (en) | Insertion of translation in displayed text consisting of grammatical variations pertaining to gender, number and tense | |
US11176141B2 (en) | Preserving emotion of user input | |
US9971495B2 (en) | Context based gesture delineation for user interaction in eyes-free mode | |
US9484034B2 (en) | Voice conversation support apparatus, voice conversation support method, and computer readable medium | |
CN101998107B (en) | Information processing apparatus, conference system and information processing method | |
JP2009205579A (en) | Speech translation device and program | |
JP2006023860A (en) | Information browser, information browsing program, information browsing program recording medium, and information browsing system | |
JP2002116796A (en) | Voice processor and method for voice processing and storage medium | |
KR101626109B1 (en) | apparatus for translation and method thereof | |
JPWO2016103415A1 (en) | Head mounted display system and method for operating head mounted display device | |
JP5106608B2 (en) | Reading assistance apparatus, method, and program | |
JP2016061855A (en) | Audio learning device and control program | |
US20140210729A1 (en) | Gesture based user interface for use in an eyes-free mode | |
JP2009140466A (en) | Method and system for providing conversation dictionary services based on user created dialog data | |
US20140215339A1 (en) | Content navigation and selection in an eyes-free mode | |
US20190138598A1 (en) | Intelligent Integration of Graphical Elements into Context for Screen Reader Applications | |
WO2016088411A1 (en) | Information-processing apparatus, information-processing method, and program | |
JP2018072509A (en) | Voice reading device, voice reading system, voice reading method and program | |
JP2018072508A (en) | Voice input device and voice input method | |
WO2017122657A1 (en) | Speech translation device, speech translation method, and speech translation program | |
JP6365520B2 (en) | Audio output device, audio output method, and program | |
KR101498456B1 (en) | Apparatus and method for translating using encyclopedia | |
JP6310950B2 (en) | Speech translation device, speech translation method, and speech translation program | |
JP7109498B2 (en) | voice input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181019 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190710 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200602 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201124 |