JP2019185470A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2019185470A
JP2019185470A JP2018076747A JP2018076747A JP2019185470A JP 2019185470 A JP2019185470 A JP 2019185470A JP 2018076747 A JP2018076747 A JP 2018076747A JP 2018076747 A JP2018076747 A JP 2018076747A JP 2019185470 A JP2019185470 A JP 2019185470A
Authority
JP
Japan
Prior art keywords
information
reading
related information
volume
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018076747A
Other languages
Japanese (ja)
Other versions
JP7098390B2 (en
Inventor
友里恵 飯野
Yurie Iino
友里恵 飯野
雄太 的場
Yuta Matoba
雄太 的場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2018076747A priority Critical patent/JP7098390B2/en
Publication of JP2019185470A publication Critical patent/JP2019185470A/en
Application granted granted Critical
Publication of JP7098390B2 publication Critical patent/JP7098390B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To transmit information of the amount appropriate to the situation by reading a character string.SOLUTION: A character string information acquisition unit 102 acquires character string information indicating a character string included in a screen displayed on a user terminal 20. A related information acquisition unit 104 acquires related information that is information about the user terminal 20 that displays the character string indicated by the acquired character string information. The related information acquisition unit 104 acquires positional information indicating the position of the user terminal 20 as related information. A reading range determination unit 103 determines a reading range of the character string displayed on the user terminal 20 on the basis of the positional information acquired by the related information acquisition unit 104. A reading data generation unit 105 generates voice reading data indicating the character string in the determined reading range by voice. A character string reading unit 204 reads out the character string in the determined reading range by outputting the voice indicated by the generated voice reading data from a speaker.SELECTED DRAWING: Figure 3

Description

本発明は、ユーザインターフェースの技術に関する。   The present invention relates to a user interface technology.

文字列を音声で読み上げる技術がある。特許文献1には、ユーザが指定した範囲にある単語の音声をその単語数に応じた音声で出力する技術が開示されている。   There is a technology that reads out a character string by voice. Japanese Patent Application Laid-Open No. 2004-133620 discloses a technique for outputting a voice of a word in a range designated by a user with a voice corresponding to the number of words.

特開2016−212374号公報JP 2016-212374 A

例えば対話型のユーザインターフェースにおいて、コンテンツに含まれる文字列を読み上げる場合に、細部まで読み上げて欲しいのか、冒頭だけ読み上げてもらえればよいのか、状況によって異なることがある。
そこで、本発明は、状況に合った量の情報を文字列の読み上げによって伝えることを目的とする。
For example, in an interactive user interface, when a character string included in content is read out, it may differ depending on the situation whether it is desired to read out the details or only the beginning should be read out.
Therefore, an object of the present invention is to convey a suitable amount of information by reading a character string.

上記目的を達成するために、本発明は、文字列の表示機能及び音声出力機能を有するユーザ端末を利用するユーザ及び当該ユーザ端末の少なくとも一方に関する関連情報を取得する取得部と、取得された前記関連情報に基づいて前記ユーザ端末に表示されている文字列の読上げ範囲を決定する範囲決定部と、決定された前記読上げ範囲の音声を前記ユーザ端末に出力させるための処理を行う処理部とを備える情報処理装置を提供する。   In order to achieve the above object, the present invention provides a user who uses a user terminal having a character string display function and a voice output function, and an acquisition unit that acquires related information regarding at least one of the user terminal and the acquired A range determining unit that determines a reading range of a character string displayed on the user terminal based on related information; and a processing unit that performs a process for causing the user terminal to output a voice of the determined reading range. An information processing apparatus is provided.

また、前記取得部は、前記ユーザ端末の位置を示す情報を前記関連情報として取得し、前記範囲決定部は、取得された前記関連情報が示す位置を含む領域に対応付けられた大きさの読上げ範囲を決定してもよい。   In addition, the acquisition unit acquires information indicating the position of the user terminal as the related information, and the range determination unit reads a size corresponding to an area including the position indicated by the acquired related information A range may be determined.

また、前記取得部は、前記ユーザ端末が音声を出力させるデバイスを示す情報を前記関連情報として取得し、前記範囲決定部は、取得された前記関連情報が示すデバイスに対応付けられた大きさの読上げ範囲を決定してもよい。   The acquisition unit acquires information indicating a device from which the user terminal outputs sound as the related information, and the range determination unit has a size associated with the device indicated by the acquired related information. The reading range may be determined.

また、前記取得部は、前記ユーザの年齢を示す情報を前記関連情報として取得し、前記範囲決定部は、取得された前記関連情報が示す年齢に応じた大きさの読上げ範囲を決定してもよい。   The acquisition unit may acquire information indicating the age of the user as the related information, and the range determination unit may determine a reading range having a size corresponding to the age indicated by the acquired related information. Good.

また、前記取得部は、前記ユーザの職種を示す情報を前記関連情報として取得し、前記範囲決定部は、取得された前記関連情報が示す職種に対応付けられた大きさの読上げ範囲を決定してもよい。   The acquisition unit acquires information indicating the job type of the user as the related information, and the range determination unit determines a reading range having a size associated with the job type indicated by the acquired related information. May be.

また、前記取得部は、前記ユーザの時間帯ごとの活動内容を示す情報を前記関連情報として取得し、前記範囲決定部は、取得された前記関連情報が示す活動内容のうち現在時刻を含む時間帯の活動内容に対応付けられた大きさの読上げ範囲を決定してもよい。   In addition, the acquisition unit acquires information indicating activity contents for each user time zone as the related information, and the range determination unit includes a time including a current time among the activity contents indicated by the acquired related information. You may determine the reading range of the magnitude | size matched with the activity content of the belt | band | zone.

また、取得された前記関連情報に基づいて前記ユーザ端末が出力する音声の音量を決定する音量決定部を備えていてもよい。   Moreover, you may provide the volume determination part which determines the volume of the audio | voice which the said user terminal outputs based on the acquired said relevant information.

また、前記取得部は、前記ユーザ端末の位置を示す情報を前記関連情報として取得し、前記音量決定部は、取得された前記関連情報が示す位置を含む領域に対応付けられた大きさの音量を決定してもよい。   In addition, the acquisition unit acquires information indicating the position of the user terminal as the related information, and the volume determination unit has a volume corresponding to a region including a position indicated by the acquired related information. May be determined.

また、前記取得部は、前記ユーザが利用するユーザ端末が音声を出力させるデバイスを示す情報を前記関連情報として取得し、前記音量決定部は、取得された前記関連情報が示すデバイスに対応付けられた大きさの音量を決定してもよい。   The acquisition unit acquires information indicating a device that a user terminal used by the user outputs a sound as the related information, and the volume determination unit is associated with a device indicated by the acquired related information. The volume of the volume may be determined.

また、前記取得部は、前記ユーザ端末がマイクロフォンを有している場合に当該マイクロフォンが収集する音の大きさを示す情報を前記関連情報として取得し、前記音量決定部は、取得された前記関連情報が示す音の大きさに応じた大きさの音量を決定してもよい。   Further, the acquisition unit acquires, as the related information, information indicating a volume of sound collected by the microphone when the user terminal has a microphone, and the volume determination unit acquires the related You may determine the volume of a magnitude | size according to the magnitude | size of the sound which information shows.

本発明によれば、状況に合った量の情報を文字列の読み上げによって伝えることができる。   According to the present invention, a suitable amount of information can be conveyed by reading a character string.

実施例に係る対話型ユーザ支援システムの全体構成を表す図The figure showing the whole structure of the interactive user assistance system which concerns on an Example. サーバ装置及びユーザ端末のハードウェア構成を表す図The figure showing the hardware constitutions of a server apparatus and a user terminal 対話型ユーザ支援システムが実現する機能構成を表す図Diagram showing functional configuration realized by interactive user support system 読上げモードの画面の一例を表す図A figure showing an example of the screen in the reading mode 範囲テーブルの一例を表す図Diagram showing an example of a range table 読上げ処理における各装置の動作手順の一例を表す図The figure showing an example of the operation | movement procedure of each apparatus in a reading process 変形例で実現される機能構成の一例を表す図The figure showing an example of the functional composition realized by a modification 変形例の範囲テーブルの一例を表す図The figure showing an example of the range table of a modification 変形例で実現される機能構成の一例を表す図The figure showing an example of the functional composition realized by a modification 変形例の範囲テーブルの一例を表す図The figure showing an example of the range table of a modification 変形例の範囲テーブルの一例を表す図The figure showing an example of the range table of a modification 変形例で実現される機能構成の一例を表す図The figure showing an example of the functional composition realized by a modification 変形例の範囲テーブルの一例を表す図The figure showing an example of the range table of a modification 変形例で実現される機能構成の一例を表す図The figure showing an example of the functional composition realized by a modification 音量テーブルの一例を表す図The figure showing an example of a volume table 音量テーブルの別の一例を表す図The figure showing another example of a volume table 変形例で実現される機能構成の一例を表す図The figure showing an example of the functional composition realized by a modification 変形例の音量テーブルの一例を表す図The figure showing an example of the volume table of a modification 音量テーブルの別の一例を表す図The figure showing another example of a volume table

[1]実施例
図1は実施例に係る対話型ユーザ支援システム1の全体構成を表す。対話型ユーザ支援システム1は、対話型のユーザインターフェース(UI:User Interface)によりユーザを支援するためのシステムである。対話型のUIとは、人又は動物等を模したふるまいをする装置がユーザに対して問い掛け及び返答等のコミュニケーションを取りながら必要な情報及び機能等を提示するUIのことである。対話型ユーザ支援システム1は、例えば、ユーザが得たい情報を提示したり、ユーザが希望する処理を行うことが可能なサイトに誘導したりすることでユーザを支援する。
[1] Embodiment FIG. 1 shows an overall configuration of an interactive user support system 1 according to an embodiment. The interactive user support system 1 is a system for supporting a user through an interactive user interface (UI). An interactive UI is a UI in which a device that behaves like a person or an animal presents necessary information, functions, and the like while communicating to the user such as asking and responding. The interactive user support system 1 supports a user by, for example, presenting information that the user wants to obtain or guiding to a site where the user can perform a desired process.

対話型ユーザ支援システム1は、ネットワーク2と、サーバ装置10と、ユーザ端末20とを備える。ネットワーク2は、移動体通信網及びインターネット等を含む通信システムであり、自システムにアクセスする装置同士のデータのやり取りを中継する。ネットワーク2には、サーバ装置10が有線通信でアクセスしており、ユーザ端末20が無線通信でアクセスしている。なお、ネットワーク2とのアクセスは有線通信及び無線通信のどちらでもよい。   The interactive user support system 1 includes a network 2, a server device 10, and a user terminal 20. The network 2 is a communication system including a mobile communication network and the Internet, and relays data exchange between devices accessing the own system. The server device 10 is accessing the network 2 via wired communication, and the user terminal 20 is accessing via wireless communication. Access to the network 2 may be either wired communication or wireless communication.

サーバ装置10は、対話型UIにおいて表示される画面の情報を処理する情報処理装置である。サーバ装置10は、対話の進め方を表した対話シナリオ等のデータを記憶しており、それらのデータを用いて対話型UIにおける表示を制御する。ユーザ端末20は、表示面に画像を表示する表示機能を有するスマートフォン等の表示装置であり、ユーザによって利用される。ユーザ端末20は、サーバ装置10から送信されてきたデータが示す画像を表示することで、対話型UIを表示すると共に、ユーザによる入力を受け付けて対話型UIの画面を遷移させる。   The server device 10 is an information processing device that processes screen information displayed in the interactive UI. The server device 10 stores data such as a dialogue scenario representing how to proceed with the dialogue, and controls display on the interactive UI using the data. The user terminal 20 is a display device such as a smartphone having a display function for displaying an image on a display surface, and is used by a user. The user terminal 20 displays an interactive UI by displaying an image indicated by the data transmitted from the server device 10, and accepts an input from the user to change the screen of the interactive UI.

図2はサーバ装置10及びユーザ端末20のハードウェア構成を表す。サーバ装置10及びユーザ端末20は、いずれも、プロセッサ11と、メモリ12と、ストレージ13と、通信装置14と、入力装置15と、出力装置16と、バス17という各装置を備えるコンピュータである。なお、ここでいう「装置」という文言は、回路、デバイス及びユニット等に読み替えることができる。また、各装置は、1つ又は複数含まれていてもよいし、一部の装置が含まれていなくてもよい。   FIG. 2 shows a hardware configuration of the server device 10 and the user terminal 20. Each of the server device 10 and the user terminal 20 is a computer including each device such as a processor 11, a memory 12, a storage 13, a communication device 14, an input device 15, an output device 16, and a bus 17. The term “apparatus” here can be read as a circuit, a device, a unit, or the like. Each device may include one or a plurality of devices, or some of the devices may not be included.

プロセッサ11は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ11は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。また、プロセッサ11は、プログラム(プログラムコード)、ソフトウェアモジュール及びデータ等を、ストレージ13及び/又は通信装置14からメモリ12に読み出し、これらに従って各種の処理を実行する。   The processor 11 controls the entire computer by operating an operating system, for example. The processor 11 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, a register, and the like. Further, the processor 11 reads programs (program codes), software modules, data, and the like from the storage 13 and / or the communication device 14 to the memory 12, and executes various processes according to these.

各種処理を実行するプロセッサ11は1つでもよいし、2以上であってもよく、2以上のプロセッサ11は、同時又は逐次に各種処理を実行してもよい。また、プロセッサ11は、1以上のチップで実装されてもよい。プログラムは、電気通信回線を介してネットワークから送信されてもよい。   The number of processors 11 that execute various processes may be one, two or more, and the two or more processors 11 may execute various processes simultaneously or sequentially. Further, the processor 11 may be implemented by one or more chips. The program may be transmitted from the network via a telecommunication line.

メモリ12は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)及びRAM(Random Access Memory)等の少なくとも1つで構成されてもよい。メモリ12は、レジスタ、キャッシュ及びメインメモリ(主記憶装置)等と呼ばれてもよい。メモリ12は、前述したプログラム(プログラムコード)、ソフトウェアモジュール及びデータ等を保存することができる。   The memory 12 is a computer-readable recording medium, and includes, for example, at least one of ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), RAM (Random Access Memory), and the like. May be. The memory 12 may be called a register, a cache, a main memory (main storage device), or the like. The memory 12 can store the above-described program (program code), software module, data, and the like.

ストレージ13は、コンピュータが読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。   The storage 13 is a computer-readable recording medium such as an optical disc such as a CD-ROM (Compact Disc ROM), a hard disc drive, a flexible disc, a magneto-optical disc (eg, a compact disc, a digital versatile disc, a Blu- ray (registered trademark) disk, smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, or the like.

ストレージ13は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ12及び/又はストレージ13を含むデータベース、サーバその他の適切な媒体であってもよい。通信装置14は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。   The storage 13 may be called an auxiliary storage device. The above-described storage medium may be, for example, a database including the memory 12 and / or the storage 13, a server, or other suitable medium. The communication device 14 is hardware (transmission / reception device) for performing communication between computers via a wired and / or wireless network, and is also referred to as, for example, a network device, a network controller, a network card, or a communication module.

入力装置15は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、スイッチ、ボタン、マイクロフォン、センサなど)である。出力装置16は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、LEDランプなど)である。ユーザ端末20は、入力装置15及び出力装置16が一体となった構成であるタッチスクリーンを備える。また、ユーザ端末20は、音を出力する(放音する)内蔵スピーカを出力装置16として備える。   The input device 15 is an input device (for example, a keyboard, a mouse, a switch, a button, a microphone, a sensor, or the like) that accepts an external input. The output device 16 is an output device (for example, a display, an LED lamp, etc.) that performs output to the outside. The user terminal 20 includes a touch screen having a configuration in which the input device 15 and the output device 16 are integrated. In addition, the user terminal 20 includes a built-in speaker that outputs (releases sound) as the output device 16.

プロセッサ11及びメモリ12等の各装置は、情報を通信するためのバス17を介して互いにアクセス可能となっている。バス17は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。また、サーバ装置10等は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、及び、FPGA(Field Programmable Gate Array)等のハードウェアを含んで構成されてもよい。   The devices such as the processor 11 and the memory 12 are accessible to each other via a bus 17 for communicating information. The bus 17 may be composed of a single bus or may be composed of different buses between devices. The server device 10 and the like include hardware such as a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), and a field programmable gate array (FPGA). It may be comprised including.

また、サーバ装置10等は、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ11は、これらのハードウェアの少なくとも1つで実装されてもよい。サーバ装置10及びユーザ端末20には、本システムで提供されるプログラムが記憶されており、各装置のプロセッサがプログラムを実行して各部を制御することで以下に述べる機能群が実現される。   Moreover, part or all of each functional block may be implement | achieved by the said hardware as for the server apparatus 10 grade | etc.,. For example, the processor 11 may be implemented by at least one of these hardware. The server device 10 and the user terminal 20 store a program provided in the present system, and a function group described below is realized by the processor of each device executing the program and controlling each unit.

図3は対話型ユーザ支援システム1が実現する機能構成を表す。ユーザ端末20は、画面操作受付部201と、画面表示部202と、位置測定部203と、文字列読上部204とを備える。サーバ装置10は、画面データ生成部101と、文字列情報取得部102と、読上範囲決定部103と、関連情報取得部104と、読上データ生成部105とを備える。   FIG. 3 shows a functional configuration realized by the interactive user support system 1. The user terminal 20 includes a screen operation reception unit 201, a screen display unit 202, a position measurement unit 203, and a character string reading unit 204. The server device 10 includes a screen data generation unit 101, a character string information acquisition unit 102, a reading range determination unit 103, a related information acquisition unit 104, and a reading data generation unit 105.

ユーザ端末20の画面操作受付部201は、ユーザによる画面に関する操作(画面操作)を受け付ける。画面操作には、アプリ(アプリケーションプログラム)及びウェブページ等の画面を表示させる操作、それらの画面を切り替える操作並びに画面内の入力領域に所定の入力を行う操作等が含まれる。画面操作受付部201は、画面操作を受け付けると、受け付けた操作の内容を示す操作データを生成してサーバ装置10に送信する。   The screen operation reception unit 201 of the user terminal 20 receives an operation (screen operation) related to the screen by the user. The screen operation includes an operation for displaying a screen such as an application (application program) and a web page, an operation for switching the screen, an operation for performing a predetermined input in an input area in the screen, and the like. When the screen operation accepting unit 201 accepts the screen operation, the screen operation accepting unit 201 generates operation data indicating the content of the accepted operation and transmits the operation data to the server device 10.

サーバ装置10の画面データ生成部101は、送信されてきた操作データが示す操作の内容に応じてユーザ端末20に表示させる画面を示す画面データを生成する。本実施例では、サーバ装置10がブラウザ、SNS(Social Networking Service)、店舗検索、宿検索及び乗換案内等の機能を統合した統合アプリの画面を提供する。画面データ生成部101は、この統合アプリの画面に含まれるテキスト、画像及び動画等のデータを記憶しており、画面操作に応じて表示させる画面を示す画面データを生成する。   The screen data generation unit 101 of the server apparatus 10 generates screen data indicating a screen to be displayed on the user terminal 20 according to the content of the operation indicated by the transmitted operation data. In the present embodiment, the server device 10 provides a screen of an integrated application that integrates functions such as a browser, SNS (Social Networking Service), store search, hotel search, and transfer guidance. The screen data generation unit 101 stores data such as text, images, and moving images included in the screen of the integrated application, and generates screen data indicating a screen to be displayed according to the screen operation.

画面データ生成部101は、生成した画面データをユーザ端末20に送信する。ユーザ端末20の画面表示部202は、送信されてきた画面データが示す画面を自端末のディスプレイに表示する。画面表示部202は、表示した画面内に操作子を示す操作子画像が含まれている場合には、その画面上の位置を示す情報を画面操作受付部201に供給する。画面操作受付部201は、供給された情報が示す位置に基づいて画面操作を受け付ける。   The screen data generation unit 101 transmits the generated screen data to the user terminal 20. The screen display unit 202 of the user terminal 20 displays the screen indicated by the transmitted screen data on the display of the own terminal. The screen display unit 202 supplies information indicating the position on the screen to the screen operation receiving unit 201 when the displayed operation screen includes an operation unit image indicating an operation unit. The screen operation reception unit 201 receives a screen operation based on the position indicated by the supplied information.

画面表示部202は、画面に文字列が含まれている場合にはその文字列を表示する。つまり、画面表示部202は文字列を表示する機能であり、本発明の「表示機能」の一例である。ユーザ端末20には、この表示機能と共に、後述するように音声を出力する音声出力機能を備えている。画面データ生成部101は、例えば表示された文字列をこの音声出力機能により読み上げる読上げモードが選択されていると、読上げの操作が可能な画面を示す画面データを生成する。   If the screen display unit 202 includes a character string on the screen, the screen display unit 202 displays the character string. That is, the screen display unit 202 is a function for displaying a character string, and is an example of the “display function” of the present invention. In addition to this display function, the user terminal 20 has an audio output function for outputting audio as will be described later. For example, when a reading mode in which a displayed character string is read out by the voice output function is selected, the screen data generation unit 101 generates screen data indicating a screen that can be read out.

図4は読上げモードの画面の一例を表す。図4(a)では、画面表示部202が、ニュースの記事を表すニュース画面A1を表示している。ニュース画面A1には、ニュースのタイトルB1と、ニュースの本文B2、B3、B4と、アバターC1と、吹き出し画像D1とが含まれている。アバターC1は、対話型のUIにおいてユーザの対話の相手である装置を擬人化して表した画像である。   FIG. 4 shows an example of a screen in the reading mode. In FIG. 4A, the screen display unit 202 displays a news screen A1 representing a news article. The news screen A1 includes a news title B1, news texts B2, B3, and B4, an avatar C1, and a speech balloon image D1. The avatar C1 is an image that is an anthropomorphic representation of a device with which the user interacts in an interactive UI.

吹き出し画像D1は、アバターC1からユーザに向けてのメッセージを表す画像であり、「読上げを行いますか?」というメッセージを表している。この場合、アバターC1及び吹き出し画像D1が音声読上げの操作子画像となっている。図4(b)では、画面表示部202が、旅行に関する情報を表す旅行情報画面A2を表示している。旅行情報画面A2には、各旅行先B11、B13、B15と、それらの説明文B12、B14、B16と、アバターC1と、吹き出し画像D2とが含まれている。   The balloon image D1 is an image representing a message from the avatar C1 to the user, and represents a message “Do you want to read out?”. In this case, the avatar C1 and the balloon image D1 are operator images for voice reading. In FIG.4 (b), the screen display part 202 is displaying the travel information screen A2 showing the information regarding a trip. The travel information screen A2 includes travel destinations B11, B13, and B15, their explanations B12, B14, and B16, an avatar C1, and a balloon image D2.

吹き出し画像D2は、「お勧めの旅行先があります!」というメッセージを表している。これは音声読上げと関係のないメッセージなので、代わりにスピーカボタンE1が音声読上げの操作子画像として表示されている。画面操作受付部201は、音声読上げの操作を受け付けると、それを示す操作データをサーバ装置10に送信する。画面データ生成部101は、この操作データを受け取ると、ユーザ端末20に送信した画面データを文字列情報取得部102に供給する。   The balloon image D2 represents a message “There is a recommended travel destination!”. Since this is a message unrelated to voice reading, the speaker button E1 is displayed as an operator image for voice reading instead. When the screen operation accepting unit 201 accepts an operation for reading aloud, the screen operation accepting unit 201 transmits operation data indicating the operation to the server device 10. Upon receiving this operation data, the screen data generation unit 101 supplies the screen data transmitted to the user terminal 20 to the character string information acquisition unit 102.

文字列情報取得部102は、供給された画面データが示す画面に含まれている文字列を示す文字列情報を取得する。文字列情報取得部102は、画面データが例えばHTML(HyperText Markup Language)で記述されたデータであれば、タグの記述を解析し、ウェブページで文字列として表示される部分を文字列情報として取得する。また、文字列情報取得部102は、画面データが例えばJPEG(Joint Photographic Experts Group)等の画像データであれば、OCR(Optical Character Recognition)等の技術を用いて文字認識を行い、認識した文字の配置を含む情報を文字列情報として取得する。   The character string information acquisition unit 102 acquires character string information indicating a character string included in the screen indicated by the supplied screen data. If the screen data is data described in, for example, HTML (HyperText Markup Language), the character string information acquisition unit 102 analyzes the tag description and acquires the portion displayed as a character string on the web page as character string information. To do. In addition, if the screen data is image data such as JPEG (Joint Photographic Experts Group), the character string information acquisition unit 102 performs character recognition using a technique such as OCR (Optical Character Recognition) and the like. Information including the arrangement is acquired as character string information.

なお、文字列情報の取得方法はこれに限らず、画面データの形式に応じた方法が用いられればよい。文字列情報取得部102は、取得した文字列情報を読上範囲決定部103に供給する。読上範囲決定部103は、供給された文字列情報が示す文字列、すなわちユーザ端末20に表示されている文字列の読上げ範囲を決定する。読上範囲決定部103は本発明の「範囲決定部」の一例である。   In addition, the acquisition method of character string information is not restricted to this, The method according to the format of screen data should just be used. The character string information acquisition unit 102 supplies the acquired character string information to the reading range determination unit 103. The reading range determination unit 103 determines the reading range of the character string indicated by the supplied character string information, that is, the character string displayed on the user terminal 20. The reading range determination unit 103 is an example of the “range determination unit” in the present invention.

読上げ範囲とは、音声を再現した音を出力することで文字列を読み上げる際に実際に読み上げられる文字列の範囲のことである。読上範囲決定部103が決定した読上げ範囲の文字列は、後述するように音声を出力する音声出力機能を備えるユーザ端末20によって読み上げられる。読上範囲決定部103は、文字列情報が供給されると、その文字列情報が示す文字列を表示しているユーザ端末20に関する情報である関連情報を関連情報取得部104に要求する。   The reading range is a range of the character string that is actually read out when the character string is read out by outputting a sound that reproduces the voice. The character string in the reading range determined by the reading range determination unit 103 is read out by the user terminal 20 having a voice output function for outputting voice as will be described later. When the character string information is supplied, the reading range determination unit 103 requests the related information acquisition unit 104 for related information that is information regarding the user terminal 20 displaying the character string indicated by the character string information.

関連情報取得部104は、読上範囲決定部103から要求された関連情報を取得する。関連情報取得部104は本発明の「取得部」の一例である。関連情報取得部104は、本実施例では、ユーザ端末20の位置を示す位置情報を関連情報として取得する。関連情報取得部104は、操作データの送信元であるユーザ端末20に対して位置情報を要求する要求データを送信する。   The related information acquisition unit 104 acquires the related information requested from the reading range determination unit 103. The related information acquisition unit 104 is an example of the “acquisition unit” in the present invention. In this embodiment, the related information acquisition unit 104 acquires position information indicating the position of the user terminal 20 as related information. The related information acquisition unit 104 transmits request data for requesting position information to the user terminal 20 that is a transmission source of the operation data.

ユーザ端末20の位置測定部203は、送信されてきた要求データを受け取ると、その要求に従い、自端末の位置を測定し、測定した位置を示す位置データを生成してサーバ装置10に送信する。関連情報取得部104は、送信されてきた位置データが示す位置を位置情報として取得する。関連情報取得部104は、取得した位置情報を読上範囲決定部103に供給する。   Upon receiving the transmitted request data, the position measuring unit 203 of the user terminal 20 measures the position of the own terminal according to the request, generates position data indicating the measured position, and transmits the position data to the server device 10. The related information acquisition unit 104 acquires the position indicated by the transmitted position data as position information. The related information acquisition unit 104 supplies the acquired position information to the reading range determination unit 103.

読上範囲決定部103は、供給された位置情報、すなわち関連情報取得部104により取得された位置情報に基づいて読上げ範囲を決定する。読上範囲決定部103は、例えば、実在の領域を区分した領域区分と読上げ範囲の大きさとを対応付けた範囲テーブルを用いて決定を行う。この読上げ範囲の大きさは、例えば、文字列情報に含まれる文字の多少、単語の多少、句の多少、節の多少、文の多少、段落の多少又はそれらの組み合わせによって表される。また、文字列情報がデータベース化されている場合には、フィールド数の多少、レコード数の多少又はそれらの組み合わせによって読上げ範囲の大きさが表されてもよい。   The reading range determination unit 103 determines the reading range based on the supplied position information, that is, the position information acquired by the related information acquisition unit 104. The reading range determination unit 103 performs the determination using, for example, a range table in which an area classification obtained by dividing an actual area is associated with the size of the reading range. The size of the reading range is represented by, for example, the number of characters included in the character string information, the number of words, the number of phrases, the number of sections, the number of sentences, the number of paragraphs, or a combination thereof. When the character string information is stored in a database, the size of the reading range may be represented by the number of fields, the number of records, or a combination thereof.

図5は範囲テーブルの一例を表す。図5の例では、「住宅街」、「オフィス街」、「交通機関」という領域区分に対して、「大」、「中」、「小」という読上げ範囲の大きさが対応付けられている。図5では各領域区分の名称だけを表しているが、範囲テーブルには、これらの領域区分に含まれる位置の範囲を表す範囲情報(例えば領域区分の境界を示す緯度及び経度の情報)が含まれている。   FIG. 5 shows an example of a range table. In the example of FIG. 5, the size of the reading range of “Large”, “Medium”, and “Small” is associated with the area classifications “residential area”, “office area”, and “transportation”. . In FIG. 5, only the name of each area segment is shown, but the range table includes range information (for example, latitude and longitude information indicating the boundary of the area segment) indicating the range of positions included in these area segments. It is.

読上範囲決定部103は、供給された位置情報が示すユーザ端末20の位置を含む領域区分がある場合には、その領域区分に対応付けられた読上げ範囲の大きさに基づいて読上げ範囲を決定する。具体的には、読上範囲決定部103は、例えば読上げ範囲の大きさが「大」であれば取得された文字列情報が示す文字列全てを読上げ範囲として決定する。   When there is an area section including the position of the user terminal 20 indicated by the supplied position information, the reading range determination unit 103 determines the reading range based on the size of the reading range associated with the area section. To do. Specifically, the reading range determination unit 103 determines all the character strings indicated by the acquired character string information as the reading range if the size of the reading range is “large”, for example.

また、読上範囲決定部103は、読上げ範囲の大きさが「中」であればそれらの文字列のうち3分の2を読上げ範囲として決定し、「小」であればそれらの文字列のうち3分の1を読上げ範囲として決定する(例えば全ての文字列の文字数が900文字であれば、3分の2で600文字、3分の1で300文字という具合)。この方法であれば、読上げスピードが一定であれば、読上げに要する時間の比率も概ね一定にすることができる。   If the size of the reading range is “medium”, the reading range determination unit 103 determines two-thirds of those character strings as the reading range, and if the size of the reading range is “small”, One third of them is determined as a reading range (for example, if the number of characters in all character strings is 900 characters, two thirds are 600 characters, one third is 300 characters, etc.). With this method, if the reading speed is constant, the ratio of the time required for reading can be made substantially constant.

なお、読上げ範囲の決定方法はこれに限らない。例えば図4に表すタイトル、本文、説明文のように文字列がグループに分けられる場合に、読上範囲決定部103は、読上げ範囲の大きさが「大」であればそれら全てのグループ(ニュース画面A1ならタイトルB1、本文B2、B3、B4)を読上げ範囲として決定し、読上げ範囲の大きさが「中」であれば半分のグループ(ニュース画面A1ならタイトルB1及び本文B2)を読上げ範囲として決定する。   Note that the reading range determination method is not limited to this. For example, in the case where character strings are divided into groups such as the title, the body, and the explanatory text shown in FIG. 4, the reading range determination unit 103 determines that all the groups (news) if the reading range size is “large”. If screen A1, title B1, text B2, B3, B4) is determined as the reading range, and if the size of the reading range is “medium”, half of the group (title B1 and text B2 if news screen A1) is set as the reading range. decide.

また、読上範囲決定部103は、読上げ範囲の大きさが「小」であれば1つのグループ(ニュース画面A1ならタイトルB1)だけを読上げ範囲として決定する。この方法であれば、切りのいいところで読上げを終わらせることができる。また、読上範囲決定部103は、読上げ範囲の大きさに応じて定められた文字数だけを読上げ範囲として決定してもよい(「大」なら500文字、「中」なら300文字、「小」なら100文字など)。   Further, if the size of the reading range is “small”, the reading range determination unit 103 determines only one group (title B1 if the news screen A1) as the reading range. With this method, you can finish reading aloud where you can cut. Further, the reading range determination unit 103 may determine only the number of characters determined according to the size of the reading range as the reading range (500 characters for “large”, 300 characters for “medium”, “small”. 100 characters).

この方法であれば、どのような文字列が表示されていても、読上げに要する時間を各読上げ範囲について概ね一定にすることができる。いずれの場合も、読上範囲決定部103は、関連情報取得部104により取得された関連情報が示す位置を含む領域に対応付けられた大きさの読上げ範囲を決定する。読上範囲決定部103は、決定した読上げ範囲を示す範囲情報を、文字列情報と共に読上データ生成部105に供給する。   With this method, the time required for reading can be made substantially constant for each reading range regardless of what character string is displayed. In any case, the reading range determination unit 103 determines a reading range having a size associated with the area including the position indicated by the related information acquired by the related information acquisition unit 104. The reading range determination unit 103 supplies range information indicating the determined reading range to the reading data generation unit 105 together with the character string information.

読上データ生成部105は、読上範囲決定部103により決定された読上げ範囲の文字列を音声で示す音声読上データを生成する。読上データ生成部105は、供給された文字列情報が示す文字列のうち、供給された範囲情報が示す範囲の文字列を抽出し、周知の音声合成技術を用いてその文字列を音声で示す音声読上データを生成する。読上データ生成部105は、生成した音声読上データをユーザ端末20に送信する。   The reading data generation unit 105 generates voice reading data indicating the character string in the reading range determined by the reading range determination unit 103 by voice. The reading data generation unit 105 extracts a character string in the range indicated by the supplied range information from the character string indicated by the supplied character string information, and uses the well-known speech synthesis technique to extract the character string by voice. The voice reading data shown is generated. The reading data generation unit 105 transmits the generated voice reading data to the user terminal 20.

ユーザ端末20の文字列読上部204は、送信されてきた音声読上データが示す音声をスピーカから出力することで、読上範囲決定部103により決定された読上げ範囲の文字列を読み上げる。このように、読上データ生成部105が行う生成処理及び送信処理は、読上範囲決定部103により決定された読上げ範囲の音声をユーザ端末20に出力させるための処理である。読上データ生成部105は本発明の「処理部」の一例である。   The character string reading unit 204 of the user terminal 20 reads out the character string in the reading range determined by the reading range determination unit 103 by outputting the voice indicated by the transmitted voice reading data from the speaker. As described above, the generation process and the transmission process performed by the reading data generation unit 105 are processes for causing the user terminal 20 to output the voice in the reading range determined by the reading range determination unit 103. The reading data generation unit 105 is an example of the “processing unit” in the present invention.

対話型ユーザ支援システム1が備える各装置は、上記の構成に基づいて文字列を音声で読み上げる読上げ処理を行う。
図6は読上げ処理における各装置の動作手順の一例を表す。この動作手順は、例えば、ユーザにより画面を表示させる画面操作が行われることを契機に開始される。まず、ユーザ端末20(画面操作受付部201)は、ユーザによる画面操作を受け付け(ステップS11)、受け付けた画面操作の内容を示す操作データをサーバ装置10に送信する(ステップS12)。
Each device included in the interactive user support system 1 performs a reading process of reading out a character string by voice based on the above configuration.
FIG. 6 shows an example of the operation procedure of each device in the reading process. This operation procedure is started when a screen operation for displaying a screen is performed by the user, for example. First, the user terminal 20 (screen operation reception unit 201) receives a screen operation by the user (step S11), and transmits operation data indicating the content of the received screen operation to the server device 10 (step S12).

サーバ装置10(画面データ生成部101)は、送信されてきた操作データが示す操作の内容に応じて画面データを生成し(ステップS13)、生成した画面データをユーザ端末20に送信する(ステップS14)。ユーザ端末20(画面表示部202)は、送信されてきた画面データが示す画面を表示する(ステップS15)。ここで例えば図4に表す画面が表示されて音声読上げの操作が行われると、ユーザ端末20(画面操作受付部201)は、その操作を受け付け(ステップS21)、その操作を示す操作データをサーバ装置10に送信する(ステップS22)。   The server device 10 (screen data generation unit 101) generates screen data according to the content of the operation indicated by the transmitted operation data (step S13), and transmits the generated screen data to the user terminal 20 (step S14). ). The user terminal 20 (screen display unit 202) displays a screen indicated by the transmitted screen data (step S15). Here, for example, when the screen shown in FIG. 4 is displayed and a speech reading operation is performed, the user terminal 20 (screen operation reception unit 201) receives the operation (step S21), and the operation data indicating the operation is stored in the server. It transmits to the apparatus 10 (step S22).

送信されてきた操作データが音声読上げの操作を示す場合に、サーバ装置10(文字列情報取得部102)は、ユーザ端末20に表示された画面に含まれている文字列を示す文字列情報を取得する(ステップS23)。次に、サーバ装置10(関連情報取得部104)は、ユーザ端末20の関連情報としてその位置を示す位置情報を要求する要求データをユーザ端末20に送信する(ステップS24)。   When the transmitted operation data indicates a speech-reading operation, the server device 10 (character string information acquisition unit 102) displays character string information indicating a character string included in the screen displayed on the user terminal 20. Obtain (step S23). Next, the server device 10 (related information acquisition unit 104) transmits request data requesting position information indicating the position as related information of the user terminal 20 to the user terminal 20 (step S24).

ユーザ端末20(位置測定部203)は、送信されてきた要求データが示す要求に従い自端末の位置を測定し(ステップS25)、測定した位置を示す位置データをサーバ装置10に送信する(ステップS26)。サーバ装置10(関連情報取得部104)は、送信されてきた位置データが示す位置を位置情報として取得する(ステップS27)。次に、サーバ装置10(読上範囲決定部103)は、取得された位置情報に基づいて読上げ範囲を決定する(ステップS28)。   The user terminal 20 (position measuring unit 203) measures the position of the own terminal according to the request indicated by the transmitted request data (step S25), and transmits the position data indicating the measured position to the server device 10 (step S26). ). The server device 10 (related information acquisition unit 104) acquires the position indicated by the transmitted position data as position information (step S27). Next, the server device 10 (reading range determination unit 103) determines a reading range based on the acquired position information (step S28).

続いて、サーバ装置10(読上データ生成部105)は、決定された読上げ範囲の文字列を音声で示す音声読上データを生成し(ステップS29)、生成した音声読上データをユーザ端末20に送信する(ステップS30)。ユーザ端末20(文字列読上部204)は、送信されてきた音声読上データが示す音声をスピーカから出力して、決定された読上げ範囲の文字列を読み上げる(ステップS31)。   Subsequently, the server device 10 (reading data generation unit 105) generates voice reading data that indicates the character string of the determined reading range by voice (step S29), and the generated voice reading data is the user terminal 20. (Step S30). The user terminal 20 (character string reading upper part 204) outputs the voice indicated by the transmitted voice reading data from the speaker, and reads the character string in the determined reading range (step S31).

本実施例では、ユーザ端末20の位置によって読上げ範囲の大きさが変化する。例えば住宅街に位置するときには周囲がユーザの自宅等のプライベートな空間であり音声を多く出しても他人に迷惑を掛けない可能性が高い状況なので、大きな読上げ範囲が決定されている。一方、電車等の交通機関に位置するときには周囲にユーザ以外の他人が大勢いてあまり音声を出し続けると他人に迷惑をかける可能性が高い状況なので、小さな読上げ範囲が決定されている。   In this embodiment, the size of the reading range changes depending on the position of the user terminal 20. For example, when it is located in a residential area, the surrounding area is a private space such as the user's home and there is a high possibility that it will not cause trouble to others even if a lot of voice is output, so a large reading range is determined. On the other hand, when it is located in a transportation facility such as a train, there is a high possibility that it will cause trouble to others if there are many other people around the user and it keeps making a voice, so a small reading range is determined.

また、ユーザ端末20がオフィス街に位置するときには、交通機関に位置するときほど静かにする必要はないが、プライベートな空間という訳でもないので、中くらいの読上げ範囲が決定されている。以上のとおり、本実施例で決定された読上げ範囲は、いずれも、ユーザ端末20が音声を読み上げることが周囲の状況からどの程度許されるかという点を考慮して決定されている(そのような結果が得られるように範囲テーブルでの対応付けが行われている)。このように、本実施例によれば、ユーザ端末20の周囲の状況に合った量の情報を文字列の読み上げによって伝えることができる。   Further, when the user terminal 20 is located in the office district, it is not necessary to be as quiet as when located in the transportation facility, but since it is not a private space, a medium reading range is determined. As described above, all of the reading ranges determined in the present embodiment are determined in consideration of the extent to which the user terminal 20 is allowed to read out speech from the surrounding circumstances (such as Correspondence in the range table is performed so as to obtain a result). As described above, according to the present embodiment, it is possible to convey the amount of information suitable for the situation around the user terminal 20 by reading the character string.

[2]変形例
上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。
[2] Modifications The above-described embodiments are merely examples of the present invention, and may be modified as follows.

[2−1]音声出力デバイス
読上げ範囲の決定方法は実施例で述べた方法に限らない。
図7は本変形例で実現される機能構成の一例を表す。図7の例では、図3に表す位置測定部203に代えてデバイス情報記憶部205を備えるユーザ端末20aが表されている。
[2-1] Audio Output Device The reading range determination method is not limited to the method described in the embodiment.
FIG. 7 shows an example of a functional configuration realized in this modification. In the example of FIG. 7, a user terminal 20 a including a device information storage unit 205 instead of the position measurement unit 203 illustrated in FIG. 3 is illustrated.

デバイス情報記憶部205は、ユーザ端末20aが利用するデバイスに関する情報(デバイス情報)を記憶する。デバイスとは、例えば図2に表す入力装置15(入力デバイス)及び出力装置16(出力デバイス)である。また、これらのデバイスはユーザ端末20aと一体になっている内蔵デバイスであるが、例えば無線イヤホン及び無線スピーカ等のようにユーザ端末20aとは別の物品である外部デバイスが利用されることもある。   The device information storage unit 205 stores information (device information) related to devices used by the user terminal 20a. The devices are, for example, the input device 15 (input device) and the output device 16 (output device) shown in FIG. These devices are built-in devices integrated with the user terminal 20a. However, external devices that are different from the user terminal 20a, such as wireless earphones and wireless speakers, may be used. .

デバイス情報記憶部205は、デバイス情報として、例えば、ユーザ端末20aが利用可能な状態にあるデバイスのリスト情報を記憶する。実行されているプログラムによって、例えば内蔵デバイスのオンオフが切り替えられる場合に、デバイス情報記憶部205は、この切り替えが行われる度にその内蔵デバイスのリスト情報における有無を更新する。   The device information storage unit 205 stores, as device information, for example, list information of devices that are available to the user terminal 20a. For example, when on / off of an internal device is switched by the program being executed, the device information storage unit 205 updates the presence / absence in the list information of the internal device each time this switching is performed.

また、デバイス情報記憶部205は、外部デバイスがユーザ端末20aと通信可能な状態になる(接続される)とリスト情報にその外部デバイスを追加し、接続が切れるとリスト情報からその外部デバイスを削除する。また、デバイス情報記憶部205は、リスト情報に含まれるデバイスのうち、上述した統合アプリの読み上げモードにおいて音声を出力するデバイスとして設定されているものを示す音声出力デバイス情報を記憶する。   The device information storage unit 205 adds the external device to the list information when the external device becomes communicable (connected) with the user terminal 20a, and deletes the external device from the list information when the connection is lost. To do. In addition, the device information storage unit 205 stores audio output device information indicating devices set as a device for outputting audio in the above-described integrated application reading mode among the devices included in the list information.

読み上げモードにおいては、音声を出力するデバイスを自由に設定可能であり、ユーザ操作によりこの設定が変更される度に、デバイス情報記憶部205は、切り替え後のデバイスを示す新たな音声出力デバイス情報を記憶する。本変形例では、関連情報取得部104が、この音声出力デバイス情報、すなわちユーザ端末20aが音声を出力させるデバイスを示す情報を関連情報として取得する。   In the reading mode, it is possible to freely set a device that outputs sound, and whenever this setting is changed by a user operation, the device information storage unit 205 stores new sound output device information indicating the device after switching. Remember. In the present modification, the related information acquisition unit 104 acquires the sound output device information, that is, information indicating a device that the user terminal 20a outputs sound as related information.

関連情報取得部104は、音声出力デバイス情報を要求する要求データをユーザ端末20aに送信し、デバイス情報記憶部205は、要求データを受け取った時点で記憶している音声出力デバイス情報をサーバ装置10に送信する。関連情報取得部104は、こうして取得した音声出力デバイス情報を読上範囲決定部103に供給する。読上範囲決定部103は、供給された音声出力デバイス情報、すなわち関連情報取得部104により取得された関連情報が示すデバイスに対応付けられた大きさの読上げ範囲を決定する。   The related information acquisition unit 104 transmits request data for requesting voice output device information to the user terminal 20a, and the device information storage unit 205 stores the voice output device information stored when the request data is received in the server device 10. Send to. The related information acquisition unit 104 supplies the audio output device information acquired in this way to the reading range determination unit 103. The reading range determination unit 103 determines a reading range having a size corresponding to the device indicated by the supplied audio output device information, that is, the related information acquired by the related information acquisition unit 104.

図8は本変形例の範囲テーブルの一例を表す。図8の例では、「イヤホン/ヘッドホン」、「外部スピーカ」、「内蔵スピーカ」という音声出力デバイスに対して、「大」、「中」、「小」という読上げ範囲の大きさが対応付けられている。読上範囲決定部103は、供給された音声出力デバイス情報が示す音声出力デバイスが範囲テーブルに含まれている場合には、その音声出力デバイスに対応付けられた読上げ範囲の大きさに基づいて、実施例と同様に読上げ範囲を決定する。   FIG. 8 shows an example of the range table of this modification. In the example of FIG. 8, the size of the reading range of “Large”, “Medium”, and “Small” is associated with the audio output devices “Earphone / Headphone”, “External Speaker”, and “Built-in Speaker”. ing. When the audio output device indicated by the supplied audio output device information is included in the range table, the read-up range determination unit 103, based on the size of the reading range associated with the audio output device, The reading range is determined in the same manner as in the embodiment.

例えば音声出力デバイスとしてイヤホン及びヘッドホンが用いられる場合は、他の音声出力デバイスに比べて周囲の音が耳に入りにくく出力される音声が聞き取り易いので、読上げ範囲を大きくして音声中心で情報を伝えるようにしている。一方、内蔵スピーカが用いられる場合は、外部スピーカに比べて音量が小さいことが多いので、読上げ範囲を小さくして音声は補助的に情報を伝え、表示されている画像を中心に情報を伝えるようにしている。   For example, when earphones and headphones are used as the audio output device, it is easier to hear the sound that is output, making it easier to hear the surrounding sound than other audio output devices. I try to tell you. On the other hand, when a built-in speaker is used, the volume is often lower than that of an external speaker. Therefore, the reading range is reduced and the voice conveys information in an auxiliary manner, with the information displayed centering on the displayed image. I have to.

また、外部スピーカは内蔵スピーカよりは音量が大きく聞き取り易いことが多いので、内蔵スピーカとイヤホン及びヘッドホンとの間の量の情報を音声で伝えるようにしている。以上のとおり、本変形例で決定された読上げ範囲は、いずれも、音声による情報伝達と画像による情報伝達をどの程度の割合で行うかという点を考慮して決定されている(そのような結果が得られるように範囲テーブルでの対応付けが行われている)。これにより、使用される音声出力デバイスの状況に合った量の情報を文字列の読み上げによって伝えることができる。   In addition, the volume of the external speaker is larger than that of the built-in speaker and is often easy to hear. Therefore, the amount of information between the built-in speaker, the earphone, and the headphones is transmitted by voice. As described above, all of the reading ranges determined in this modification are determined in consideration of the ratio of information transmission by voice and information transmission by image (such a result) Are associated in the range table so that As a result, information corresponding to the situation of the voice output device to be used can be conveyed by reading out the character string.

[2−2]ユーザの属性
読上げ範囲の決定方法は上記の各例で述べた方法に限らない。
図9は本変形例で実現される機能構成の一例を表す。図9の例では、図3に表す位置測定部203に代えてユーザ属性記憶部206を備えるユーザ端末20bが表されている。
[2-2] User Attributes The reading range determination method is not limited to the method described in each of the above examples.
FIG. 9 shows an example of a functional configuration realized in this modification. In the example of FIG. 9, a user terminal 20b including a user attribute storage unit 206 is shown instead of the position measurement unit 203 shown in FIG.

ユーザ属性記憶部206は、ユーザ端末20bを利用するユーザの属性を記憶する。ユーザ属性記憶部206は、例えば、ユーザの年代を示す情報(生年月日又は年齢等)を記憶する。本変形例では、関連情報取得部104が、このユーザの年齢を示す年齢情報を関連情報として取得する。関連情報の取得方法は上記変形例と同様である。関連情報取得部104は、こうして取得した音声出力デバイス情報を読上範囲決定部103に供給する。   The user attribute storage unit 206 stores an attribute of a user who uses the user terminal 20b. The user attribute storage unit 206 stores, for example, information (birth date or age, etc.) indicating the user's age. In this modification, the related information acquisition unit 104 acquires age information indicating the age of the user as related information. The related information acquisition method is the same as that of the above-described modification. The related information acquisition unit 104 supplies the audio output device information acquired in this way to the reading range determination unit 103.

読上範囲決定部103は、供給された年齢情報、すなわち関連情報取得部104により取得された関連情報が示す年齢に応じた大きさの読上げ範囲を決定する。
図10は本変形例の範囲テーブルの一例を表す。図10の例では、「60代以上」、「10代以下」、「20代以上50代以下」というユーザの年齢に対して、「大」、「中」、「小」という読上げ範囲の大きさが対応付けられている。
The reading range determination unit 103 determines a reading range having a size corresponding to the age indicated by the supplied age information, that is, the related information acquired by the related information acquisition unit 104.
FIG. 10 shows an example of the range table of this modification. In the example of FIG. 10, the reading ranges of “Large”, “Medium”, and “Small” are large for the user ages of “60s and above”, “10s and below”, and “20s and above 50s” Are associated.

読上範囲決定部103は、供給された年齢情報が示すユーザの年齢に範囲テーブルで対応付けられた読上げ範囲の大きさに基づいて、実施例と同様に読上げ範囲を決定する。この場合、60代以上の仕事を引退して時間に余裕がある人が多い世代のユーザには読上げ範囲を大きくして音声中心で情報を伝え、20代から50代までの仕事や子育てで時間に余裕がない人が多い世代のユーザには読上げ範囲を小さくして表示されている画像を中心に情報を伝えている。そして、10代以下のユーザにはそれらの間の量の情報を音声で伝えるようにしている。   The reading range determination unit 103 determines the reading range in the same manner as in the embodiment, based on the size of the reading range associated with the user's age indicated by the supplied age information in the range table. In this case, the generation of users who have retired from work in their 60s or more and have a lot of time can increase the reading range to convey information centered on voice, and spend time in their 20s and 50s working and raising children. For the generation of users who have a lot of people who cannot afford, information is transmitted centering on the displayed image with a small reading range. And the information of the amount between them is conveyed to the user of teenagers or less by voice.

普通は文字列を黙って読むよりも音声で読み上げる方が時間がかかるので、図10の例では、読上げ範囲が、時間に余裕があるユーザであるか否かを考慮して決定されている(そうなるように範囲テーブルでの対応付けが行われている)。これにより、各ユーザの時間的な余裕の状況に合った量の情報を文字列の読み上げによって伝えることができる。   Normally, it takes more time to read out a character string than to read it silently. Therefore, in the example of FIG. 10, the reading range is determined in consideration of whether or not the user has sufficient time ( Correspondence in the range table is performed so as to be). Thereby, an amount of information suitable for each user's time allowance can be transmitted by reading the character string.

なお、年齢に応じた大きさの読上げ範囲は図10の例に限らない。例えば、受験生の年齢の場合は時間に余裕がないので読上げ範囲を小さくしてもよい。また、時間の余裕はあっても高齢になり聴力低下が起こり易い年齢の場合にも、読上げ範囲を小さくしてもよい。この場合は、聴力が低下しがちな年齢のユーザには、その状況に合った量の情報を文字列の読み上げによって伝えることができる。   Note that the reading range having a size corresponding to the age is not limited to the example shown in FIG. For example, in the case of the student's age, there is not enough time, so the reading range may be reduced. In addition, the reading range may be reduced even when there is an age that is easy to age and a hearing loss is likely to occur. In this case, it is possible to convey information of an amount suitable for the situation by reading a character string to a user whose age tends to decrease.

なお、読上げ範囲の決定に用いられるユーザ属性は年齢に限らない。ユーザ属性記憶部206は、例えば、ユーザの職種を示す職務情報(職種名)を記憶する。職種とは、例えば一般事務、営業、会計、人事、エンジニア等の仕事の内容を分類したものであるが、ユーザ属性記憶部206は、特に、職種が自営業、会社勤め(役員を含む)及び主婦業のいずれであるかを表す職種情報を記憶する。   Note that the user attribute used to determine the reading range is not limited to age. The user attribute storage unit 206 stores, for example, job information (job name) indicating the job type of the user. For example, the job type is classified into the contents of work such as general office work, sales, accounting, personnel, engineer, etc., but the user attribute storage unit 206 has a job type of self-employed, a company employee (including officers), and Stores job type information indicating whether the housewife is working.

関連情報取得部104は、このユーザの職種を示す職種情報を関連情報として取得する。読上範囲決定部103は、関連情報取得部104により取得された職種情報が示すユーザの職種に対応付けられた大きさの読上げ範囲を決定する。
図11は本変形例の範囲テーブルの一例を表す。図11の例では、「主婦業」、「自営業」、「会社勤め」というユーザの職種に対して、「大」、「中」、「小」という読上げ範囲の大きさが対応付けられている。
The related information acquisition unit 104 acquires job type information indicating the job type of the user as related information. The reading range determination unit 103 determines a reading range having a size associated with the job type of the user indicated by the job type information acquired by the related information acquisition unit 104.
FIG. 11 shows an example of a range table of this modification. In the example of FIG. 11, the reading ranges of “Large”, “Medium”, and “Small” are associated with the user occupations “housewife”, “self-employed”, and “company working”. Yes.

読上範囲決定部103は、供給された職種情報が示すユーザの職種に範囲テーブルで対応付けられた読上げ範囲の大きさに基づいて、実施例と同様に読上げ範囲を決定する。この場合、主婦業の仕事をしていて家にいる時間が長く出力された音声を自由に聞くことが可能な時間も長いユーザには読上げ範囲を大きくして音声中心で情報を伝え、会社勤めで家にいる時間が短く音声を自由に聞くことが可能な時間も短いユーザには読上げ範囲を小さくして表示されている画像を中心に情報を伝えている。   The reading range determination unit 103 determines the reading range in the same manner as in the embodiment, based on the size of the reading range associated with the job type of the user indicated by the supplied job type information in the range table. In this case, if you are a housewife and have a long time at home, you can listen to the voices that are output for a long time. For a user who has a short time at home and a short time to listen to the voice freely, information is transmitted mainly through the displayed image with a small reading range.

そして、家にいる時間(音声を自由に聞くことが可能な時間)が主婦業と会社勤めの間になりやすい自営業のユーザにはそれらの間の量の情報を音声で伝えるようにしている。このように、図11の例では、家にいて音声を自由に聞くことが可能な時間の長さを考慮して音声の読上げ範囲が決定されている(そうなるように範囲テーブルでの対応付けが行われている)。これにより、各ユーザの在宅時間の状況に合った量の情報を文字列の読み上げによって伝えることができる。   And, for self-employed users who tend to be between housewives and office workers when they are at home (the time when they can listen to audio freely), the amount of information between them is communicated by voice. . As described above, in the example of FIG. 11, the speech reading range is determined in consideration of the length of time that the user can listen to the voice freely at home (corresponding to the range table so as to be so) Is done). Thereby, the amount of information suitable for each user's time at home can be conveyed by reading out the character string.

[2−3]ユーザの活動状況
読上げ範囲の決定方法は上記の各例で述べた方法に限らない。
図12は本変形例で実現される機能構成の一例を表す。図12の例では、図3に表す各部に加えてスケジュール機能提供部106を備えるサーバ装置10cが表されている。
[2-3] User Activity Status The reading range determination method is not limited to the method described in each of the above examples.
FIG. 12 shows an example of a functional configuration realized in this modification. In the example of FIG. 12, a server apparatus 10c including a schedule function providing unit 106 in addition to the units illustrated in FIG. 3 is illustrated.

スケジュール機能提供部106は、スケジュールを管理するための各種の機能を提供する。この機能は例えば上述した統合アプリが備える機能の1つである。スケジュール機能提供部106は、ユーザの1日の活動内容の予定を示す予定情報を記憶している。予定情報の入力と更新を丁寧に行うユーザであれば、予定情報は実際の活動内容(通勤、通学、食事、仕事、授業、趣味、入浴及び就寝等)を表す情報とみなすことができる。   The schedule function providing unit 106 provides various functions for managing the schedule. This function is one of the functions provided in the integrated application described above, for example. The schedule function providing unit 106 stores schedule information indicating a schedule of the daily activity contents of the user. If the user carefully inputs and updates the schedule information, the schedule information can be regarded as information representing actual activity contents (commuting, attending school, meals, work, classes, hobbies, bathing, sleeping, etc.).

そして、予定情報には、それらの活動が行われる時刻が対応付けられているので、ユーザの時間帯ごとの活動内容を示す活動情報として予定情報を用いることができる。本変形例の関連情報取得部104は、この活動情報(予定情報)を関連情報として取得する。読上範囲決定部103は、関連情報取得部104により取得された活動情報(予定情報)が示す活動内容のうち現在時刻を含む時間帯の活動内容に対応付けられた大きさの読上げ範囲を決定する。   And since the time when those activities are performed is associated with the schedule information, the schedule information can be used as the activity information indicating the activity content for each user time zone. The related information acquisition unit 104 of this modification acquires this activity information (schedule information) as related information. The reading range determination unit 103 determines a reading range having a size associated with the activity content in the time zone including the current time among the activity contents indicated by the activity information (schedule information) acquired by the related information acquisition unit 104. To do.

図13は本変形例の範囲テーブルの一例を表す。図13の例では、「趣味/入浴」、「食事」、「通勤/通学」という活動内容に対して、「大」、「中」、「小」という読上げ範囲の大きさが対応付けられている。読上範囲決定部103は、供給された活動情報が示すユーザの活動内容に範囲テーブルで対応付けられた読上げ範囲の大きさに基づいて、実施例と同様に読上げ範囲を決定する。   FIG. 13 shows an example of a range table of this modification. In the example of FIG. 13, the activity contents of “hobby / bath”, “meal”, and “commuting / commuting” are associated with the size of the reading ranges of “large”, “medium”, and “small”. Yes. The reading range determination unit 103 determines the reading range in the same manner as in the embodiment, based on the size of the reading range associated with the user activity content indicated by the supplied activity information in the range table.

この場合、趣味の時間及び入浴時間という時間に余裕があるときには読上げ範囲を大きくして音声中心で情報を伝え、通勤及び通学という時間に余裕がないときには読上げ範囲を小さくして表示されている画像を中心に情報を伝えている。そして、食事の時間は時間的な余裕がそれらの中間であるものとして音声で伝える情報量も中間にしている。このように、本変形例では、現在の活動内容における時間的な余裕の有無を考慮して音声の読上げ範囲が決定されている(そうなるように範囲テーブルでの対応付けが行われている)。   In this case, when there is time in the hobby time and bathing time, the reading range is enlarged and the information is transmitted mainly by voice, and when there is no time for commuting and schooling, the reading range is reduced and displayed. It conveys information with a focus on. In addition, the amount of information that is conveyed by voice assuming that the time for meals is in between them is also in the middle. As described above, in this modification, the speech reading range is determined in consideration of whether there is a time margin in the current activity content (corresponding to the range table so as to be so). .

これにより、各ユーザの活動の状況に合った量の情報を文字列の読み上げによって伝えることができる。なお、図9から図13までの例で説明した読上げ範囲の決定方法では、関連情報取得部104が、ユーザ端末を利用するユーザに関する情報を関連情報として取得している。それらの場合でも、各関連情報が示す状況に合った量の情報を文字列の読み上げによって伝えることができる。   Thereby, an amount of information suitable for the activity status of each user can be conveyed by reading out the character string. In the reading range determination method described in the examples of FIGS. 9 to 13, the related information acquisition unit 104 acquires information about a user who uses the user terminal as related information. Even in these cases, an amount of information suitable for the situation indicated by each related information can be conveyed by reading out the character string.

[2−4]ユーザの活動状況
読上げ範囲の決定方法は上記の各例で述べた方法に限らない。
図14は本変形例で実現される機能構成の一例を表す。図14の例では、図3に表す各部に加えて読上音量決定部107を備えるサーバ装置10dが表されている。
[2-4] User Activity Status The reading range determination method is not limited to the method described in each of the above examples.
FIG. 14 shows an example of a functional configuration realized in this modification. In the example of FIG. 14, a server device 10 d that includes a reading volume determination unit 107 in addition to the units illustrated in FIG. 3 is illustrated.

読上音量決定部107は、ユーザ端末20が文字列の読み上げにおいて出力する音声の音量(読上げ音量)を決定する。読上音量決定部107は本発明の「音量決定部」の一例である。読上音量決定部107は、関連情報取得部104により取得された前記関連情報に基づいてこの読上げ音量を決定する。ここで用いられる関連情報は、例えば実施例で述べた位置情報(ユーザ端末20の位置を示す情報)である。   The reading volume determination unit 107 determines the volume (reading volume) of the voice that the user terminal 20 outputs when reading the character string. The reading volume determination unit 107 is an example of the “volume determination unit” in the present invention. The reading volume determination unit 107 determines the reading volume based on the related information acquired by the related information acquisition unit 104. The related information used here is, for example, the position information described in the embodiment (information indicating the position of the user terminal 20).

読上音量決定部107は、具体的には、取得された関連情報(位置情報)が示すユーザ端末20の位置を含む領域に対応付けられた大きさの音量を読上げ音量として決定する。読上音量決定部107は、例えば、実在の領域を区分した領域区分と読上げ音量とを対応付けた音量テーブルを用いて決定を行う。   Specifically, the reading volume determination unit 107 determines the volume corresponding to the area including the position of the user terminal 20 indicated by the acquired related information (position information) as the reading volume. The reading volume determination unit 107 performs the determination using, for example, a volume table in which an area segment obtained by dividing an actual area and a reading volume are associated with each other.

図15は音量テーブルの一例を表す。図15の例では、「住宅街」、「オフィス街」、「交通機関」という領域区分に対して、「大」、「中」、「小」という読上げ音量が対応付けられている。読上音量決定部107は、関連情報取得部104により取得された位置情報が示すユーザ端末20の位置を含む領域区分がある場合には、その領域区分に対応付けられた大きさの音量を読上げ音量として決定する。   FIG. 15 shows an example of a volume table. In the example of FIG. 15, the reading volumes “large”, “medium”, and “small” are associated with the area classifications “residential area”, “office area”, and “transportation”. When there is an area section including the position of the user terminal 20 indicated by the position information acquired by the related information acquisition section 104, the reading volume determination section 107 reads the volume corresponding to the area section Determine as volume.

例えばユーザ端末20が住宅街に位置するときには周囲がユーザの自宅等のプライベートな空間であり音量が大きくても他人に迷惑を掛けない可能性が高い状況なので、大きな読上げ音量が決定されている。一方、電車等の交通機関に位置するときには他人に迷惑をかける可能性が高い状況なので、小さな読上げ音量が決定されている。また、オフィス街に位置するときには、中くらいの読上げ音量が決定されている。   For example, when the user terminal 20 is located in a residential area, since the surrounding area is a private space such as the user's home and the volume is high, there is a high possibility that it will not bother others, so a large reading volume is determined. On the other hand, a low reading volume is determined because it is highly likely to cause trouble to others when located in a transportation facility such as a train. Also, when located in an office district, a medium reading volume is determined.

以上のとおり、本変形例で決定された読上げ音量は、いずれも、ユーザ端末20が読み上げる音声の音量が周囲の状況からどの程度許されるかという点を考慮して決定されている(そのような結果が得られるように音量テーブルでの対応付けが行われている)。このように、本変形例によれば、ユーザ端末20の周囲の状況に合った音量で読み上げをさせることができる。   As described above, the reading volume determined in the present modification is determined in consideration of how much the volume of the voice read by the user terminal 20 is allowed in the surrounding situation (such as Correspondence in the volume table is performed so that a result is obtained). As described above, according to this modification, it is possible to read aloud at a volume suitable for the situation around the user terminal 20.

なお、本変形例では他の関連情報が用いられてもよい。例えば、関連情報取得部104は、図7の説明で述べた音声出力デバイス情報(ユーザ端末20aが音声を出力させるデバイスを示す情報)を関連情報として取得する。この場合、読上音量決定部107は、取得された音声出力デバイス情報が示す音声出力デバイスに対応付けられた大きさの音量を決定する。   In this modification, other related information may be used. For example, the related information acquisition unit 104 acquires the sound output device information (information indicating the device that the user terminal 20a outputs sound) described in the description of FIG. 7 as the related information. In this case, the reading volume determination unit 107 determines the volume of the volume associated with the audio output device indicated by the acquired audio output device information.

図16は音量テーブルの別の一例を表す。図16の例では、「イヤホン/ヘッドホン」、「外部スピーカ」、「内蔵スピーカ」という音声出力デバイスに対して、「小」、「中」、「大」という読上げ音量が対応付けられている。読上音量決定部107は、関連情報取得部104により取得された音声出力デバイス情報が示す音声出力デバイスが音量テーブルに含まれている場合には、その音声出力デバイスに対応付けられた大きさの音量を読上げ音量として決定する。   FIG. 16 shows another example of the volume table. In the example of FIG. 16, the sound output devices “earphone / headphone”, “external speaker”, and “built-in speaker” are associated with the reading volumes “small”, “medium”, and “large”. When the audio output device indicated by the audio output device information acquired by the related information acquisition unit 104 is included in the volume table, the reading volume determination unit 107 has a size corresponding to the audio output device. Determine the volume as the reading volume.

例えば音声出力デバイスとしてイヤホン及びヘッドホンが用いられる場合は、出力される音声が聞き取り易いので読上げ音量を小さくしている。一方、内蔵スピーカが用いられる場合は音量を大きくしないと聞こえにくいので読上げ音量を大きくし、外部スピーカが用いられる場合はそれらの中間の読上げ音量が決定されている。これらの読上げ音量は、音声出力デバイスから出力される音声の聞こえやすさを考慮して決定されている(そのような結果が得られるように範囲テーブルでの対応付けが行われている)。これにより、使用される音声出力デバイスの状況に合った音量で読み上げをさせることができる。   For example, when earphones and headphones are used as the audio output device, the read sound volume is reduced because the output sound is easy to hear. On the other hand, when the built-in speaker is used, it is difficult to hear unless the volume is increased, so that the reading volume is increased. When an external speaker is used, the reading volume intermediate between them is determined. These reading volumes are determined in consideration of the ease of hearing of the voice output from the voice output device (corresponding to the range table so that such a result is obtained). Thereby, it is possible to read aloud at a volume suitable for the situation of the audio output device used.

[2−5]周囲の騒音
読上げ音量の決定方法は上記例で述べた方法に限らない。
図17は本変形例で実現される機能構成の一例を表す。図17の例では、図3に表す各部に加えて録音部207を備えるユーザ端末20eが表されている。録音部207は、自端末のマイクロフォンが収集する音を録音する。
[2-5] Ambient Noise The method for determining the reading volume is not limited to the method described in the above example.
FIG. 17 shows an example of a functional configuration realized in this modification. In the example of FIG. 17, a user terminal 20 e including a recording unit 207 in addition to the units illustrated in FIG. 3 is illustrated. The recording unit 207 records the sound collected by the microphone of its own terminal.

本変形例では、関連情報取得部104が、この録音部207により録音された音、すなわちユーザ端末20eが有しているマイクロフォンが収集する音の大きさを示す収集音量情報を関連情報として取得する。   In the present modification, the related information acquisition unit 104 acquires the collected sound volume information indicating the volume of the sound recorded by the recording unit 207, that is, the sound collected by the microphone of the user terminal 20e, as the related information. .

関連情報取得部104は、収集音量情報を要求する要求データをユーザ端末20eに送信する。録音部207は、要求データを受け取ると録音を一定時間行い、録音した音の音量を示す音量データをサーバ装置10に送信する。関連情報取得部104は、送信されてきた音量データが示す音量を収集音量情報として取得する。関連情報取得部104は、こうして取得した収集音量情報を読上音量決定部107に供給する。   The related information acquisition unit 104 transmits request data for requesting collected sound volume information to the user terminal 20e. When receiving the request data, the recording unit 207 performs recording for a certain period of time, and transmits volume data indicating the volume of the recorded sound to the server device 10. The related information acquisition unit 104 acquires the volume indicated by the transmitted volume data as collected volume information. The related information acquisition unit 104 supplies the collected volume information acquired in this way to the reading volume determination unit 107.

読上音量決定部107は、取得された収集音量情報が示す音の大きさに応じた大きさの音量を読上げ音量として決定する。本変形例における読上げ音量の決定方法は2つある。1つ目の決定方法は、収集音量情報が示す音量の音を騒音とみなす方法である。この場合、読上音量決定部107は図18に表す音量テーブルを用いる。   The reading volume determining unit 107 determines the volume corresponding to the volume indicated by the acquired collected volume information as the reading volume. There are two methods for determining the reading volume in this modification. The first determination method is a method in which the sound having the volume indicated by the collected volume information is regarded as noise. In this case, the reading volume determination unit 107 uses a volume table shown in FIG.

図18は本変形例の音量テーブルの一例を表す。図18の例では、「第1閾値未満」、「第1閾値以上第2閾値未満」、「第2閾値以上」という周辺音の音量に対して、「小」、「中」、「大」という読上げ音量が対応付けられている。読上音量決定部107は、関連情報取得部104により取得された収集音量情報が示す音量に音量テーブルにおいて対応付けられた大きさの音量を読上げ音量として決定する。   FIG. 18 shows an example of a volume table of this modification. In the example of FIG. 18, “small”, “medium”, “large” with respect to the volume of surrounding sounds “less than the first threshold”, “more than the first threshold and less than the second threshold”, and “more than the second threshold” Is read out. The reading volume determination unit 107 determines the volume of the volume associated with the volume indicated by the collected volume information acquired by the related information acquisition unit 104 in the volume table as the reading volume.

このように、図18の例では、読上音量決定部107は、取得された収集音量情報が示す周辺音が大きいほど大きい音量を読上げ音量として決定する。これにより、ユーザ端末20eの周囲の騒音が大きくて音声が聞こえにくい状況でも、その状況に合った音量で読み上げをさせることができる。2つ目の決定方法は、収集音量情報が示す音量の音をユーザ音声とみなす方法である。   As described above, in the example of FIG. 18, the reading volume determination unit 107 determines the larger volume as the reading volume as the peripheral sound indicated by the acquired collected volume information is larger. As a result, even in a situation where the noise around the user terminal 20e is loud and it is difficult to hear the voice, it is possible to read out with a volume suitable for the situation. The second determination method is a method in which a sound having a volume indicated by the collected sound volume information is regarded as a user voice.

この場合、録音部207は、録音した音そのものを示す音データを、自端末を利用するユーザのユーザIDに対応付けてサーバ装置10に送信する。この音データが示す音も録音された音の音量を表すので、関連情報取得部104は、送信されてきた音データが示す音の音量を収集音量情報として取得する。読上音量決定部107は、例えばユーザが登録したそのユーザの声紋情報をユーザIDに対応付けて記憶しておく。   In this case, the recording unit 207 transmits sound data indicating the recorded sound itself to the server device 10 in association with the user ID of the user who uses the terminal itself. Since the sound indicated by the sound data also represents the volume of the recorded sound, the related information acquisition unit 104 acquires the sound volume indicated by the transmitted sound data as the collected sound volume information. The reading volume determination unit 107 stores, for example, the user's voiceprint information registered by the user in association with the user ID.

読上音量決定部107は、取得された収集音量情報が示す音と、音データとユーザIDが共通する声紋情報とを比較して該当ユーザ(声紋情報に対応付けられたユーザIDのユーザ)の音声であるか否かを判断する。読上音量決定部107は、該当ユーザの音声であると判断すると、図19に表す音量テーブルを用いて読上げ音量を決定する。   The reading volume determination unit 107 compares the sound indicated by the acquired collected volume information with the voice print information in which the sound data and the user ID are common, and the corresponding user (the user with the user ID associated with the voice print information). It is determined whether or not it is voice. When the reading volume determination unit 107 determines that the sound is that of the corresponding user, the reading volume determination unit 107 determines the reading volume by using the volume table shown in FIG.

図19は本変形例の音量テーブルの一例を表す。図19の例では、「第3閾値未満」、「第3閾値以上第4閾値未満」、「第4閾値以上」というユーザ音声の音量に対して、「大」、「中」、「小」という読上げ音量が対応付けられている。このように、図19の例では、読上音量決定部107は、取得された収集音量情報が示すユーザ音声の音量が小さいほど大きい音量を読上げ音量として決定する。   FIG. 19 shows an example of a volume table of this modification. In the example of FIG. 19, “large”, “medium”, “small” with respect to the volume of the user voice “less than the third threshold”, “more than the third threshold and less than the fourth threshold”, and “more than the fourth threshold”. Is read out. As described above, in the example of FIG. 19, the reading volume determination unit 107 determines the larger volume as the reading volume as the volume of the user voice indicated by the acquired collected volume information is smaller.

録音されるユーザ音声の音量が小さいほど、ユーザ端末20eから離れた位置にユーザがいる可能性が高くなる。読上げ音量が上記のとおり決定されることで、ユーザ端末20eとユーザとの距離が異なる状況でも、それぞれの状況に合った音量で読み上げをさせることができる。   The smaller the volume of the recorded user voice, the higher the possibility that the user is at a position away from the user terminal 20e. By determining the reading volume as described above, even when the distance between the user terminal 20e and the user is different, the reading can be performed at a volume suitable for each situation.

[2−6]読上げ範囲、読上げ音量
上記の各例では、読上げ範囲及び読上げ音量が3段階(大、中、小)で決定されたが、これに限らない。例えば2段階で決定されてもよいし、4段階以上で決定されてもよい。また、読上げ範囲に「なし」及び「全部」が含まれていてもよいし、読上げ音量に「最小音量(ミュート含む)」及び「最大音量」が含まれていてもよい。要するに、読上げ範囲及び読上げ音量のいずれも、段階的に(少なくとも2段階以上で)大きさを変えて決定されるようになっていればよい。
[2-6] Reading range and reading volume In each of the above examples, the reading range and reading volume are determined in three stages (large, medium, and small), but the present invention is not limited to this. For example, it may be determined in two steps or may be determined in four or more steps. Further, “None” and “All” may be included in the reading range, and “Minimum volume (including mute)” and “Maximum volume” may be included in the reading volume. In short, both the reading range and the reading volume may be determined in stages (at least in two or more stages) by changing the size.

[2−7]複数の関連情報
上記の各例では、読上げ範囲の決定及び読上げ音量の決定に、関連情報(位置情報、音声出力デバイス情報、年齢情報、職種情報、活動情報(予定情報)、収集音量情報)がそれぞれ単独で用いられたが、複数の関連情報が用いられてもよい。例えば、読上範囲決定部103は、関連情報として取得された位置情報、年齢情報及び活動情報に基づいて読上げ範囲を決定する。
[2-7] Plural Related Information In each of the above examples, for determining the reading range and reading volume, related information (position information, voice output device information, age information, job type information, activity information (schedule information), (Collected sound volume information) is used alone, but a plurality of related information may be used. For example, the reading range determination unit 103 determines the reading range based on position information, age information, and activity information acquired as related information.

例えば各関連情報が「住宅街」、「20代以上50代以下」、「会社勤め」を表す場合、対応する範囲テーブルの読上げ範囲が「大」、「小」、「小」となる。この場合、読上範囲決定部103は、例えば「大」=3、「中」=2、「小」=1として平均値((3+1+1)÷3=約1.7)を算出し、平均値に最も近い値の「中」の読上げ範囲を決定する。なお、読上範囲決定部103は、「大」だと文字列全てを読上げ範囲として決定する場合に、文字列全ての文字量を「3」とみなした場合の平均値に相当する文字量(この例では「1.7」)の範囲を読上げ範囲として決定してもよい。   For example, when each related information represents “residential area”, “20 to 50 and below”, and “company work”, the reading ranges in the corresponding range table are “large”, “small”, and “small”. In this case, the reading range determination unit 103 calculates an average value ((3 + 1 + 1) ÷ 3 = about 1.7) with “large” = 3, “medium” = 2, and “small” = 1, for example, and the average value Determine the “medium” reading range closest to. Note that the reading range determination unit 103 determines the character amount corresponding to the average value when the character amount of all the character strings is regarded as “3” when determining the entire character string as the reading range if “large”. In this example, the range of “1.7”) may be determined as the reading range.

また、大中小が表す値を変えてもよいし(例えば大=10、中=5、小=3など)、関連情報毎に各値を変えてもよい。後者の場合は、重要な関連情報の値を大きくすることで重み付けを行ってもよい。また、各関連情報に応じた読上げ範囲及び読上げ音量を上記変形例のように2段階、3段階又は4段階以上で表して上記の計算を行ってもよい。このように複数の関連情報を組み合わせて用いることで、複数の状況を総合的に判断して読上げ範囲及び読上げ音量を決定することができる。   Further, the value represented by large, medium, and small may be changed (for example, large = 10, medium = 5, small = 3, etc.), or each value may be changed for each related information. In the latter case, weighting may be performed by increasing the value of important related information. Further, the above calculation may be performed by expressing the reading range and the reading volume according to each related information in two steps, three steps, or four steps or more as in the above modification. Thus, by using a plurality of related information in combination, it is possible to determine a reading range and a reading volume by comprehensively judging a plurality of situations.

[2−8]各部を実現する装置
図3等に表す各機能を実現する装置は、それらの図に表された装置に限らない。例えばサーバ装置が備える機能をユーザ端末が実現してもよい。その場合、ユーザ端末のプロセッサ11が本発明の「情報処理装置」の一例となる。そして、読上データ生成部105は、生成した音声読上データを自端末のスピーカに供給する処理を、読上範囲決定部103により決定された読上げ範囲の音声をユーザ端末20に出力させるための処理として実行する。
[2-8] Apparatus for Implementing Each Unit The apparatus for realizing each function illustrated in FIG. 3 and the like is not limited to the apparatuses illustrated in those drawings. For example, the user terminal may realize a function included in the server device. In that case, the processor 11 of the user terminal is an example of the “information processing apparatus” of the present invention. Then, the read-out data generation unit 105 outputs the voice in the reading range determined by the reading range determination unit 103 to the user terminal 20 in the process of supplying the generated voice reading data to the speaker of the own terminal. Run as a process.

また、サーバ装置が備える各機能を2以上の装置が分担してそれぞれ実現してもよい。また、各機能が行う動作を複数の機能に分けて行うようにしてもよい。例えば文字列情報取得部102が行う動作(タグの記述を解析する動作、文字列として表示される部分を抽出する動作、画像から文字認識をする動作、文字列情報を生成する動作等)を複数の機能がそれぞれ行ってもよい。要するに、対話型ユーザ支援システム全体としてこれらの機能が実現されていれば、対話型ユーザ支援システムが何台の装置を備えていてもよい。   Further, two or more devices may share and realize each function provided in the server device. Further, the operation performed by each function may be divided into a plurality of functions. For example, a plurality of operations performed by the character string information acquisition unit 102 (an operation for analyzing a tag description, an operation for extracting a portion displayed as a character string, an operation for character recognition from an image, an operation for generating character string information, etc.) Each of these functions may be performed. In short, as long as these functions are realized as the entire interactive user support system, the interactive user support system may include any number of devices.

[2−9]発明のカテゴリ
本発明は、ユーザ端末及びサーバ装置のような情報処理装置の他、それらの装置を備える対話型ユーザ支援システムのような情報処理システムとしても捉えられる。また、本発明は、各装置が実施する処理を実現するための情報処理方法としても捉えられるし、各装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。このプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
[2-9] Category of Invention The present invention can be understood as an information processing system such as an interactive user support system including such devices as well as information processing devices such as user terminals and server devices. In addition, the present invention can be understood as an information processing method for realizing processing performed by each device, or as a program for causing a computer that controls each device to function. This program may be provided in the form of a recording medium such as an optical disk in which it is stored, or may be provided in the form of being downloaded to a computer via a network such as the Internet, installed and made available for use. May be.

[2−10]処理手順等
本明細書で説明した各実施例の処理手順、シーケンス、フローチャートなどは、矛盾がない限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
[2-10] Processing Procedures, etc. The processing procedures, sequences, flowcharts, and the like of each embodiment described in this specification may be switched in order as long as there is no contradiction. For example, the methods described herein present the elements of the various steps in an exemplary order and are not limited to the specific order presented.

[2−11]入出力された情報等の扱い
入出力された情報等は特定の場所(例えばメモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
[2-11] Handling of input / output information and the like Input / output information and the like may be stored in a specific location (for example, a memory) or managed by a management table. Input / output information and the like can be overwritten, updated, or additionally written. The output information or the like may be deleted. The input information or the like may be transmitted to another device.

[2−12]ソフトウェア
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
[2-12] Software Software, regardless of whether it is called software, firmware, middleware, microcode, hardware description language, or another name, is an instruction, instruction set, code, code segment, program code, program , Subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, functions, etc. should be interpreted broadly.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。   Also, software, instructions, etc. may be transmitted / received via a transmission medium. For example, software may use websites, servers, or other devices using wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission media.

[2−13]情報、信号
本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
[2-13] Information, Signals The information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, commands, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these May be represented by a combination of

[2−14]システム、ネットワーク
本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。
[2-14] System, Network As used herein, the terms “system” and “network” are used interchangeably.

[2−15]「に基づいて」の意味
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
[2-15] Meaning of “based on” As used herein, the term “based on” does not mean “based only on”, unless expressly specified otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”

[2−16]「及び」、「又は」
本明細書において、「A及びB」でも「A又はB」でも実施可能な構成については、一方の表現で記載された構成を、他方の表現で記載された構成として用いてもよい。例えば「A及びB」と記載されている場合、他の記載との不整合が生じず実施可能であれば、「A又はB」として用いてもよい。
[2-16] “and”, “or”
In the present specification, for a configuration that can be implemented by either “A and B” or “A or B”, a configuration described in one expression may be used as a configuration described in the other expression. For example, when “A and B” is described, it may be used as “A or B” as long as it is feasible without inconsistency with other descriptions.

[2−17]態様のバリエーション等
本明細書で説明した各実施例は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
[2-17] Variations of Aspect, etc. Each embodiment described in the present specification may be used alone, in combination, or may be switched according to execution. In addition, notification of predetermined information (for example, notification of being “X”) is not limited to explicitly performed, but is performed implicitly (for example, notification of the predetermined information is not performed). Also good.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施例に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。従って、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。   Although the present invention has been described in detail above, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as modified and changed modes without departing from the spirit and scope of the present invention defined by the description of the scope of claims. Therefore, the description of the present specification is for illustrative purposes and does not have any limiting meaning to the present invention.

1…対話型ユーザ支援システム、10…サーバ装置、20…ユーザ端末、101…画面データ生成部、102…文字列情報取得部、103…読上範囲決定部、104…関連情報取得部、105…読上データ生成部、106…スケジュール機能提供部、107…読上音量決定部、201…画面操作受付部、202…画面表示部、203…位置測定部、204…文字列読上部、205…デバイス情報記憶部、206…ユーザ属性記憶部、207…録音部。 DESCRIPTION OF SYMBOLS 1 ... Interactive user support system, 10 ... Server apparatus, 20 ... User terminal, 101 ... Screen data generation part, 102 ... Character string information acquisition part, 103 ... Reading range determination part, 104 ... Related information acquisition part, 105 ... Reading data generation unit, 106 ... schedule function providing unit, 107 ... reading volume determination unit, 201 ... screen operation reception unit, 202 ... screen display unit, 203 ... position measurement unit, 204 ... character string reading upper part, 205 ... device Information storage unit 206... User attribute storage unit 207.

Claims (10)

文字列の表示機能及び音声出力機能を有するユーザ端末を利用するユーザ及び当該ユーザ端末の少なくとも一方に関する関連情報を取得する取得部と、
取得された前記関連情報に基づいて前記ユーザ端末に表示されている文字列の読上げ範囲を決定する範囲決定部と、
決定された前記読上げ範囲の音声を前記ユーザ端末に出力させるための処理を行う処理部と
を備える情報処理装置。
An acquisition unit for acquiring related information regarding at least one of a user using a user terminal having a character string display function and a voice output function and the user terminal;
A range determining unit that determines a reading range of a character string displayed on the user terminal based on the acquired related information;
An information processing apparatus comprising: a processing unit that performs a process for causing the user terminal to output the determined voice in the reading range.
前記取得部は、前記ユーザ端末の位置を示す情報を前記関連情報として取得し、
前記範囲決定部は、取得された前記関連情報が示す位置を含む領域に対応付けられた大きさの読上げ範囲を決定する
請求項1に記載の情報処理装置。
The acquisition unit acquires information indicating a position of the user terminal as the related information,
The information processing apparatus according to claim 1, wherein the range determination unit determines a reading range having a size associated with a region including a position indicated by the acquired related information.
前記取得部は、前記ユーザ端末が音声を出力させるデバイスを示す情報を前記関連情報として取得し、
前記範囲決定部は、取得された前記関連情報が示すデバイスに対応付けられた大きさの読上げ範囲を決定する
請求項1又は2に記載の情報処理装置。
The acquisition unit acquires, as the related information, information indicating a device from which the user terminal outputs sound.
The information processing apparatus according to claim 1, wherein the range determination unit determines a reading range having a size associated with a device indicated by the acquired related information.
前記取得部は、前記ユーザの年齢を示す情報を前記関連情報として取得し、
前記範囲決定部は、取得された前記関連情報が示す年齢に応じた大きさの読上げ範囲を決定する
請求項1から3のいずれか1項に記載の情報処理装置。
The acquisition unit acquires information indicating the age of the user as the related information,
The information processing apparatus according to any one of claims 1 to 3, wherein the range determination unit determines a reading range having a size corresponding to an age indicated by the acquired related information.
前記取得部は、前記ユーザの職種を示す情報を前記関連情報として取得し、
前記範囲決定部は、取得された前記関連情報が示す職種に対応付けられた大きさの読上げ範囲を決定する
請求項1から4のいずれか1項に記載の情報処理装置。
The acquisition unit acquires information indicating a job type of the user as the related information,
The information processing apparatus according to claim 1, wherein the range determination unit determines a reading range having a size associated with a job type indicated by the acquired related information.
前記取得部は、前記ユーザの時間帯ごとの活動内容を示す情報を前記関連情報として取得し、
前記範囲決定部は、取得された前記関連情報が示す活動内容のうち現在時刻を含む時間帯の活動内容に対応付けられた大きさの読上げ範囲を決定する
請求項1から5のいずれか1項に記載の情報処理装置。
The acquisition unit acquires information indicating activity contents for each time zone of the user as the related information,
The range determination unit determines a reading range having a size associated with activity contents in a time zone including a current time among the activity contents indicated by the acquired related information. The information processing apparatus described in 1.
取得された前記関連情報に基づいて前記ユーザ端末が出力する音声の音量を決定する音量決定部を備える
請求項1から6のいずれか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 6, further comprising a volume determination unit that determines a volume of sound output from the user terminal based on the acquired related information.
前記取得部は、前記ユーザ端末の位置を示す情報を前記関連情報として取得し、
前記音量決定部は、取得された前記関連情報が示す位置を含む領域に対応付けられた大きさの音量を決定する
請求項7に記載の情報処理装置。
The acquisition unit acquires information indicating a position of the user terminal as the related information,
The information processing apparatus according to claim 7, wherein the volume determination unit determines a volume having a size associated with an area including a position indicated by the acquired related information.
前記取得部は、前記ユーザが利用するユーザ端末が音声を出力させるデバイスを示す情報を前記関連情報として取得し、
前記音量決定部は、取得された前記関連情報が示すデバイスに対応付けられた大きさの音量を決定する
請求項7又は8に記載の情報処理装置。
The acquisition unit acquires, as the related information, information indicating a device that a user terminal used by the user outputs sound.
The information processing apparatus according to claim 7, wherein the volume determination unit determines a volume having a magnitude associated with a device indicated by the acquired related information.
前記取得部は、前記ユーザ端末がマイクロフォンを有している場合に当該マイクロフォンが収集する音の大きさを示す情報を前記関連情報として取得し、
前記音量決定部は、取得された前記関連情報が示す音の大きさに応じた大きさの音量を決定する
請求項7から9のいずれか1項に記載の情報処理装置。
The acquisition unit acquires, as the related information, information indicating the volume of sound collected by the microphone when the user terminal has a microphone,
The information processing apparatus according to any one of claims 7 to 9, wherein the volume determination unit determines a volume having a magnitude corresponding to a volume of sound indicated by the acquired related information.
JP2018076747A 2018-04-12 2018-04-12 Information processing equipment Active JP7098390B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018076747A JP7098390B2 (en) 2018-04-12 2018-04-12 Information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018076747A JP7098390B2 (en) 2018-04-12 2018-04-12 Information processing equipment

Publications (2)

Publication Number Publication Date
JP2019185470A true JP2019185470A (en) 2019-10-24
JP7098390B2 JP7098390B2 (en) 2022-07-11

Family

ID=68341380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018076747A Active JP7098390B2 (en) 2018-04-12 2018-04-12 Information processing equipment

Country Status (1)

Country Link
JP (1) JP7098390B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022510528A (en) * 2019-11-14 2022-01-27 グーグル エルエルシー Automatic audio playback of displayed text content

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259271A (en) * 1998-03-13 1999-09-24 Aqueous Reserch:Kk Agent device
JP2003030113A (en) * 2001-07-19 2003-01-31 Sharp Corp Communication terminal and program storage medium
WO2007036984A1 (en) * 2005-09-27 2007-04-05 Fujitsu Limited Program for intra-document text-to-speech processing, document reader, and method for intra-document text-to-speech processing
JP2015088086A (en) * 2013-11-01 2015-05-07 ソニー株式会社 Information processing apparatus and information processing method
JP2015528931A (en) * 2012-06-08 2015-10-01 フリーダム サイエンティフィック インコーポレイテッド Screen reader with customizable web page output
WO2016158792A1 (en) * 2015-03-31 2016-10-06 ソニー株式会社 Information processing device, control method, and program
JP2017072805A (en) * 2015-10-09 2017-04-13 クラリオン株式会社 On-vehicle device, on-vehicle system, and notification information output method
WO2017175432A1 (en) * 2016-04-05 2017-10-12 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2017207891A (en) * 2016-05-18 2017-11-24 ソニーモバイルコミュニケーションズ株式会社 Information processor, information processing system, information processing method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259271A (en) * 1998-03-13 1999-09-24 Aqueous Reserch:Kk Agent device
JP2003030113A (en) * 2001-07-19 2003-01-31 Sharp Corp Communication terminal and program storage medium
WO2007036984A1 (en) * 2005-09-27 2007-04-05 Fujitsu Limited Program for intra-document text-to-speech processing, document reader, and method for intra-document text-to-speech processing
JP2015528931A (en) * 2012-06-08 2015-10-01 フリーダム サイエンティフィック インコーポレイテッド Screen reader with customizable web page output
JP2015088086A (en) * 2013-11-01 2015-05-07 ソニー株式会社 Information processing apparatus and information processing method
WO2016158792A1 (en) * 2015-03-31 2016-10-06 ソニー株式会社 Information processing device, control method, and program
JP2017072805A (en) * 2015-10-09 2017-04-13 クラリオン株式会社 On-vehicle device, on-vehicle system, and notification information output method
WO2017175432A1 (en) * 2016-04-05 2017-10-12 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2017207891A (en) * 2016-05-18 2017-11-24 ソニーモバイルコミュニケーションズ株式会社 Information processor, information processing system, information processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022510528A (en) * 2019-11-14 2022-01-27 グーグル エルエルシー Automatic audio playback of displayed text content
JP7395505B2 (en) 2019-11-14 2023-12-11 グーグル エルエルシー Automatic audio playback of displayed text content
US11887581B2 (en) 2019-11-14 2024-01-30 Google Llc Automatic audio playback of displayed textual content

Also Published As

Publication number Publication date
JP7098390B2 (en) 2022-07-11

Similar Documents

Publication Publication Date Title
US9053096B2 (en) Language translation based on speaker-related information
US9245254B2 (en) Enhanced voice conferencing with history, language translation and identification
Wang et al. Adapting to the mobile world: A model of smartphone use
Ryan et al. Using artificial intelligence to assess clinicians’ communication skills
US9215194B2 (en) Method and apparatus to process an incoming message
US20130144619A1 (en) Enhanced voice conferencing
US20130144623A1 (en) Visual presentation of speaker-related information
JP2017513115A (en) Personalized recommendations based on user explicit declarations
CN107733722B (en) Method and apparatus for configuring voice service
TW200900966A (en) Client input method
US11586689B2 (en) Electronic apparatus and controlling method thereof
US11366634B2 (en) Memory retention system
US20200152304A1 (en) Systems And Methods For Intelligent Voice-Based Journaling And Therapies
Canam The link between nursing discourses and nurses' silence: Implications for a knowledge-based discourse for nursing practice
JP2016045583A (en) Response generation device, response generation method, and response generation program
JPWO2015102082A1 (en) Terminal device, program, and server device for providing information in response to user data input
Meyer The paradox of time post-pregnancy loss: Three things not to say when communicating social support
JP5881647B2 (en) Determination device, determination method, and determination program
JP2019185470A (en) Information processing device
KR20180089242A (en) Method, system and non-transitory computer-readable recording medium for generating dialogue contents according to output type for same at chatbot
JP7114307B2 (en) Information processing equipment
Reeve Preparation for practice: Can philosophy have a place in helping students incorporate the social model of disability within their praxis?
US20160072756A1 (en) Updating a Sender of an Electronic Communication on a Disposition of a Recipient Toward Content of the Electronic Communication
JP5427669B2 (en) Server device, information management system and program
JP2019197487A (en) Information processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220629

R150 Certificate of patent or registration of utility model

Ref document number: 7098390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150