WO2010084524A1 - 情報処理システム及びプログラム - Google Patents

情報処理システム及びプログラム Download PDF

Info

Publication number
WO2010084524A1
WO2010084524A1 PCT/JP2009/000188 JP2009000188W WO2010084524A1 WO 2010084524 A1 WO2010084524 A1 WO 2010084524A1 JP 2009000188 W JP2009000188 W JP 2009000188W WO 2010084524 A1 WO2010084524 A1 WO 2010084524A1
Authority
WO
WIPO (PCT)
Prior art keywords
read
out data
tag
ruby
data
Prior art date
Application number
PCT/JP2009/000188
Other languages
English (en)
French (fr)
Inventor
山本英美
石岡亜紀子
山口俊光
Original Assignee
Yamamoto Emi
Ishioka Akiko
Yamaguchi Toshimitsu
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamamoto Emi, Ishioka Akiko, Yamaguchi Toshimitsu filed Critical Yamamoto Emi
Priority to PCT/JP2009/000188 priority Critical patent/WO2010084524A1/ja
Publication of WO2010084524A1 publication Critical patent/WO2010084524A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Definitions

  • the present invention relates to an information processing system.
  • Patent Document 1 discloses a method of reading out text included in WWW information using a voice proxy server.
  • Japanese Patent Application Laid-Open No. 11-110186 Japanese Patent Application Laid-Open No. 11-110186
  • the present invention has been made from the above-described background, and aims to provide a more convenient reading service.
  • an information processing system is an information processing system including a request terminal that requests an audio file and an audio file generation device that generates an audio file, and the request terminal includes: Extraction means for extracting read-out data from the structured document, and read-out data extracted by the extraction means are transmitted to the audio file generation device in an order corresponding to tags associated with the respective read-out data.
  • the voice file generation device converts the received read-out data into voice data in the order received from the transmission means.
  • the requesting terminal includes replacement means for replacing the read-out data surrounded by the ruby tag among the read-out data extracted by the extraction means with a character string of ruby text associated with the tag.
  • the transmission means transmits the read-out data at least partially replaced by the replacement means to the voice file generation device.
  • the voice file generation device replaces read-out data surrounded by a ruby tag among read-out data received from the transmission means with a ruby text character string associated with the tag.
  • conversion means for converting the read-out data at least partially replaced by the replacement means into speech data, and the number of appearances of the read-out data and ruby text replaced by the replacement means.
  • appearance frequency counting means for counting each time.
  • the apparatus further comprises a document providing apparatus that provides the requesting terminal with a structured document including program request information for requesting a program file and a tag that specifies at least a reading range and a reading order.
  • the terminal acquires a predetermined program file using the program request information included in the structured document, and the extraction unit executes the acquired program file according to the tag included in the structured document.
  • the read-out data is extracted, and the transmission means executes the acquired program file to arrange the extracted read-out data according to the tag and transmit the arranged read-out data.
  • the audio file generation device performs streaming distribution of the converted audio data in the converted order.
  • the document providing apparatus provides a structured document further including timing designation information for designating timing for distributing the audio data, and the audio file generating apparatus is configured with the timing designated by the timing designation information.
  • the voice data corresponding to each read-out data is distributed to the request terminal.
  • the program according to the present invention includes a step of receiving a request operation for an audio file, a step of extracting read-out data according to a tag included in the structured document according to the request operation, and the extracted read-out data Are transmitted in the order corresponding to the tag associated with the read-out data.
  • the convenience of the reading service is improved.
  • FIG. 3 is a diagram illustrating a data file provided from a Web server 10.
  • FIG. It is a figure which illustrates the function structure of the script file 60 performed with the user terminal 30.
  • FIG. (A) illustrates range order specification information 504, and (B) is a diagram illustrating block rearrangement. It is a sequence diagram of the entire operation (S10) of the information processing system 1.
  • FIG. It is a figure which illustrates the data file 5 in which the output trigger information 506 was contained.
  • FIG. 1 It is a flowchart explaining the browsing process (S30) in a modification. It is a figure which illustrates the function structure of the script file 62 in a 2nd modification.
  • (A) illustrates a block (HTML file) including a ruby tag
  • (B) illustrates a block after replacement processing by the ruby replacement unit 650.
  • 2 is a diagram illustrating a functional configuration included in a reading server 20; FIG. It is a figure which illustrates the appearance frequency management table 212 produced by the appearance frequency counting part 210.
  • FIG. 1 is a diagram illustrating an overall configuration of an information processing system 1 in the present embodiment.
  • the information processing system 1 includes a Web server 10 and a reading server 20 connected to a network such as the Internet.
  • the Web server 10 is an example of a document providing device, and is a computer device that provides HTML files and the like.
  • the reading server 20 is an example of an audio file generation device, and is a computer device that provides audio data.
  • the user terminal 30 is an example of a request terminal. As a computer device operated by a user, the user terminal 30 acquires an HTML file from the Web server 10 via the Internet, displays the HTML file on a Web browser, and reads a displayed character string. The voice data corresponding to the transmitted character string is acquired from the reading server 20 by being transmitted to the server 20.
  • FIG. 2 is a diagram illustrating a data file provided from the Web server 10.
  • the Web server 10 transmits the data file 5 including the structured document file 50 to the user terminal 30 in response to a request from the user terminal 30.
  • the structured document file 50 is a data file described in a markup language such as HTML or XML, for example.
  • the structured document file 50 of this example includes a tag for displaying a plurality of character string groups (articles), a script request tag 502 illustrated in FIG. Range order designation information 504 is included.
  • the script request tag 502 is information for requesting the script file 60 illustrated in FIG. 3, and includes script file request destination specifying information (in this example, the URL of the reading server 20) and authentication information. ing.
  • the range order designation information 504 is information for controlling reading of information included in the structured document file 50, and includes, for example, information for specifying a range to be read and information for specifying the reading order. It is.
  • the user terminal 30 receives the data file 5 from the Web server 10
  • the user terminal 30 displays the received structured document file 50 with a Web browser. In this example, “article # 1” to “article # 3” are displayed on the user terminal 30.
  • FIG. 3 is a diagram illustrating a functional configuration of the script file 60 provided by the reading server 20 (FIG. 1) and executed on the user terminal 30.
  • the script file 60 includes a request reception unit 600, an extraction unit 610, an order determination unit 620, a communication unit 630, and an output control unit 640.
  • the script file 60 is executed on the web browser of the user terminal 30, for example.
  • the request reception unit 600 monitors the user's operation, and when receiving a reading request, instructs the other configuration to start the reading process.
  • the request receiving unit 600 of this example displays a reading button 820 (illustrated in FIG. 6) on the web browser of the user terminal 30, and when the reading button 820 is clicked, the extraction unit 610 starts reading processing. Output to.
  • the extraction unit 610 extracts read-out data from the structured document file 50 (FIG. 2).
  • the read-out data is data that is converted into voice data by the read-out server 20, and is, for example, text data.
  • the extraction unit 610 of this example specifies a range of text data to be extracted based on the range order designation information 504 and the tags included in the structured document file 50, and the text data within the specified range. Are extracted as one unit (block), and the extracted block is output to the communication unit 630. Further, the tag of each block is output to the order determination unit 620.
  • the order determination unit 620 determines the transmission order of the read-out data extracted by the extraction unit 610 based on the tag of the read-out data.
  • the order determination unit 620 of this example determines the transmission order of each block based on the range order designation information 504 and the tag of each block input from the extraction unit 610, and sets the determined transmission order to the communication unit 630.
  • the communication unit 630 communicates with the reading server 20 using a communication function such as Ajax (Asynchronous Java (registered trademark) Script + XML), and transmits read data and receives voice data.
  • the communication unit 630 of this example transmits the read data (block) extracted by the extraction unit 610 to the reading server 20 in the transmission order determined by the order determination unit 620.
  • the communication unit 630 outputs the audio data received from the reading server 20 to the output control unit 640.
  • the output control unit 640 controls the voice output module provided in the user terminal 30 to output the voice data received from the reading server 20 as voice.
  • FIG. 4A illustrates range order designation information 504, and FIG. 4B illustrates block rearrangement.
  • tags in a range to be extracted are arranged in the transmission order. That is, in this example, since “tag # 2”, “tag # 1”, and “tag # 3” are arranged in the order, “tag #” is selected from the structured document file 50 in FIG. “Article # 2” surrounded by “2”, “article # 1” surrounded by “tag # 1”, and “article # 3” surrounded by “tag # 3” are extracted and transmitted to the reading server 20 Is done. Thereby, as illustrated in FIG. 4B, the articles are transmitted in a rearranged state. This transmission order is the reading order.
  • FIG. 5 is a sequence diagram of the overall operation (S10) of the information processing system 1. This sequence is an example of the operation and can be changed by a user operation or the like.
  • the web server 10 transmits the data file 5 (HTML file) illustrated in FIG. 2 to the user terminal 30 in response to web access from the user terminal 30.
  • the user terminal 30 displays the HTML file received from the web server 10 on the web browser.
  • the browser screen 800 displays “Article # 1” to “Article # 3” included in the structured document file 50, and further displays a reading button 820.
  • step 110 the user terminal 30 makes a request for the script file 60 to the reading server 20 using the script request tag 502 included in the data file 5 (HTML file).
  • the user terminal 30 transmits the authentication information contained in the script request tag 502 to the reading server 20.
  • step 115 when the reading server 20 receives the request for the script file 60 from the user terminal 30, the reading server 20 performs authentication based on the authentication information.
  • step 120 the reading server 20 transmits the script file 60 to the user terminal 30 according to the authentication result.
  • the user terminal 30 receives and activates the script file 60, the user terminal 30 enables the reading button 820.
  • step 125 when the user clicks the reading button 820, the user terminal 30 starts the following reading process.
  • step 130 the user terminal 30 extracts a reading portion (block) from the structured document file 50 based on the range order designation information 504 and the tags included in the structured document file 50.
  • step 135 the user terminal 30 rearranges the extracted read-out portions (blocks) in accordance with the range order designation information 504.
  • step 140 the user terminal 30 transmits the rearranged reading portion (block) to the reading server 20.
  • step 145 the reading server 20 sequentially converts the reading portion (block) received from the user terminal 30 into voice data.
  • step 150 the reading server 20 determines the bandwidth up to the user terminal 30, and determines the transmission bit rate of the audio data according to the determined bandwidth and the authentication result.
  • step 155 the reading server 20 performs streaming delivery of the audio data to the user terminal 30 at the determined transmission bit rate.
  • step 160 the user terminal 30 outputs the voice data distributed from the reading server 20 as voice. Thereby, the article of FIG. 6 is read out.
  • FIG. 7 is a flowchart illustrating the browsing process (S20) in the user terminal 30.
  • the user terminal 30 activates a web browser, accesses the web server 10 and receives an HTML file (data file 5) according to a user operation. To do.
  • the user terminal 30 displays the received HTML file with a web browser as illustrated in FIG.
  • step 220 the user terminal 30 requests the script file 60 from the reading server 20 in accordance with the script request tag 502 (FIG. 2) included in the HTML file.
  • the user terminal 30 receives the script file 60 from the reading server 20
  • the user terminal 30 activates the script file 60 on the web browser, and the request receiving unit 600 (FIG. 3) of the script file 60 operates the reading button 820 (FIG. 6). Enable (active).
  • step 230 when the reading button 820 (FIG. 6) is clicked, the user terminal 30 proceeds to the processing of S240, and when the reading button 820 is not clicked, an HTML file is displayed. The process ends with only.
  • step 240 when the request receiving unit 600 of the script file 60 detects the click of the reading button 820, it instructs the extracting unit 610 to start reading processing.
  • the extraction unit 610 identifies the tag designated by the range order designation information 504, and extracts text data surrounded by the identified tag as a block from the HTML file.
  • step 250 the order determination unit 620 determines the transmission order based on the range order designation information 504, and outputs the determined transmission order to the communication unit 630.
  • the communication unit 630 rearranges the blocks extracted by the extraction unit 610 in the transmission order determined by the order determination unit 620.
  • step 260 the communication unit 630 transmits the rearranged blocks to the reading server 20 in order.
  • step 270 when the communication unit 630 receives voice data from the reading server 20, the communication unit 630 outputs the received voice data to the output control unit 640.
  • step 280 the output control unit 640 controls the audio module of the user terminal 30 to output the audio data input from the communication unit 630 as audio.
  • the information processing system 1 can provide a document file reading service.
  • FIG. 8 is a diagram illustrating the data file 5 including the output trigger information 506.
  • output trigger information 506 is added to the data file of FIG. 2 in the data file 5 of this modification.
  • the output trigger information 506 associates information specifying the timing of audio output with a tag.
  • the audio output timing is, for example, the timing at which the reading server 20 delivers audio data.
  • the timing at which a predetermined area of the web browser is operated in this example, the timing at which “Area A” is pointed
  • This is the timing at which a predetermined period has elapsed since the end of the previous audio distribution (in this example, the timing at which 50 seconds have elapsed since the area surrounded by the tag # 2 was read out).
  • the communication unit 630 of this modification detects these triggers in the order shown in the output trigger information 506 in FIG. 8B, the voice data of the read-out data surrounded by the tags associated with the triggers Is requested to the reading server 20.
  • FIG. 9 is a flowchart for explaining the browsing process (S30) in the present modification.
  • the user terminal 30 activates a web browser and accesses the web server 10 in accordance with a user operation, and accesses an HTML file (the data file 5 of FIG. ).
  • the data file 5 includes output trigger information 506 in addition to the script request tag 502 and the range order designation information 504.
  • the user terminal 30 displays the received HTML file using a web browser.
  • step 320 the user terminal 30 requests the script file 60 from the reading server 20 in accordance with the script request tag 502 (FIG. 8) included in the HTML file.
  • step 330 upon receiving the script file 60 from the reading server 20, the user terminal 30 activates the script file 60 on the web browser.
  • the request receiving unit 600 of the script file 60 instructs the start of the reading process immediately after activation.
  • the extraction unit 610 identifies the tag designated by the range order designation information 504, and extracts text data surrounded by the identified tag as a block from the HTML file.
  • step 340 the order determination unit 620 determines the transmission order based on the range order designation information 504, and outputs the determined transmission order to the communication unit 630.
  • the communication unit 630 rearranges the blocks extracted by the extraction unit 610 in the transmission order determined by the order determination unit 620.
  • step 350 the communication unit 630 transmits the rearranged blocks to the reading server 20 in order. In the reading server 20, the blocks received from the communication unit 630 are sequentially converted into audio data.
  • step 360 the communication unit 630 determines whether or not a voice output trigger is detected based on the output trigger information 506. Note that the voice output trigger is designated by the output trigger information 506, but the first trigger may be a click on the reading button 820.
  • the script file 60 waits until the trigger is detected, and when the trigger is detected, the process proceeds to S370.
  • step 370 the communication unit 630 identifies the tag corresponding to the detected trigger by the output trigger information 506, and transmits the voice data corresponding to the read-out data surrounded by the identified tag to the reading server 20. Request.
  • step 380 when the communication unit 630 receives voice data from the reading server 20, the communication unit 630 outputs the received voice data to the output control unit 640.
  • the output control unit 640 controls the audio module of the user terminal 30 and outputs the audio data input from the communication unit 630 as audio.
  • step 390 the communication unit 630 determines whether or not all the triggers specified by the output trigger information 506 have been detected. If there is no trigger, the process returns to S360 and waits until the next trigger is detected.
  • the information processing system 1 can perform voice output at the timing when each trigger is detected by setting a trigger for voice output for each block (a group of read data).
  • FIG. 10 is a diagram illustrating a functional configuration of the script file 62 in the present modification. Note that, among the components shown in the figure, the same reference numerals are given to substantially the same components as those shown in FIG.
  • the configuration of the information processing system 1 according to this modification is substantially the same as that in the above embodiment, and the functions and operations of the Web server 10 and the reading server 20 are also substantially the same as those in the above embodiment.
  • the script file 62 of this modification has a configuration in which a ruby replacement unit 650 is added to the script file 60 of FIG. 3.
  • the ruby replacement unit 650 converts the read-out data surrounded by the ruby tag from the blocks (read-out data) extracted by the extraction unit 610 into the character string of the ruby text associated with the tag. Replace. That is, the ruby replacement unit 650 replaces the ruby base and ruby text enclosed by the ruby tag with ruby text.
  • the ruby replacement unit 650 may replace only the read data surrounded by the ruby tag with the ruby text, or may replace the ruby tag and the read data surrounded by the ruby text with the ruby text.
  • the communication unit 630 transmits to the reading server 20 the block in which the read-out data surrounded by the ruby tag is replaced with the ruby text, and the reading server 20 is surrounded by the ruby tag based on the received block.
  • the read-out data is voiced according to ruby text.
  • FIG. 11A illustrates a block (HTML file) including a ruby tag
  • FIG. 11B illustrates a block after replacement processing by the ruby replacement unit 650.
  • the extraction unit 610 may extract a block including a ruby tag ( ⁇ ruby> and ⁇ / ruby> in the drawing).
  • the ruby tag of this block includes “WWW” (content surrounded by ⁇ rb> and ⁇ / rb> in the figure) that is ruby base and “World Wide Web” ( ⁇ rt> and ”in the figure) that is ruby text.
  • WWW content surrounded by ⁇ rb> and ⁇ / rb> in the figure
  • World Wide Web ⁇ rt> and ”in the figure
  • the ruby replacement unit 650 converts the ruby base “WWW” and the ruby text “World Wide Web” enclosed in the ruby tag into the character string “ Replace with "World Wide Web”. Note that the above is an example, and some tags may be omitted.
  • the web content can be read out as intended by the web page creator.
  • a web page written in Chinese can be read out in another language (Japanese or English).
  • FIG. 12 is a diagram illustrating a functional configuration included in the reading server 20.
  • the reading server 20 is provided with a reading program 200 and a voice dictionary database 22 (voice dictionary DB 22).
  • the speech dictionary DB 22 is a database for converting each element of read-out data into speech data. For example, speech data obtained when these character strings are read out are recorded in association with predetermined character strings. ing.
  • the reading program 200 includes a reception unit 202, a ruby replacement unit 204, a voice conversion unit 206, a voice distribution unit 208, an appearance count counter 210, and a voice dictionary update unit 212. It is.
  • the receiving unit 202 sequentially receives blocks to be read (read data) from the user terminal 30 (communication unit 630), and outputs the received blocks to the ruby replacement unit 204 in the received order.
  • the ruby replacement unit 204 is substantially the same as the ruby replacement unit 650 in FIG. 10, performs a ruby part replacement process on the block input from the reception unit 202, and outputs this block to the speech conversion unit 206. To do. Further, the ruby replacement unit 204 outputs the ruby text and the ruby base that have been subjected to the replacement processing to the appearance count counting unit 210.
  • the voice conversion unit 206 converts the block (read-to-read data) input from the ruby replacement unit 204 into voice data with reference to the voice dictionary DB 22, and outputs the generated voice data to the voice distribution unit 208.
  • the audio distribution unit 208 distributes the audio data input from the audio conversion unit 206 to the user terminal 30 in a streaming manner.
  • the appearance count unit 210 counts the number of appearances of the set of read-out data and ruby text replaced by the ruby replacement unit 204 for each set. As illustrated in FIG. 13, the appearance count unit 210 of this example counts the number of appearances of the ruby text and ruby base set input from the ruby replacement unit 204 for each set and domain. That is, the appearance count unit 210 of this example counts the number of appearances (replacement count) of each combination of ruby text and ruby base for each domain.
  • the voice dictionary updating unit 212 updates the voice dictionary DB 22 used in the voice conversion process based on the count result by the appearance count counting unit 210.
  • the speech dictionary DB 22 of this example has a speech dictionary for each domain, and the speech dictionary update unit 212 of this example prioritizes a pair with a high number of appearances according to the number of appearances of a pair of ruby base and ruby text in each domain.
  • the character string without ruby is converted into voice data.
  • the set of the replacement data (ie, ruby base) “WWW” and the ruby text “World Wide Web” is the target of the replacement process 131 times.
  • the combination of the data to be replaced “WWW” and the ruby text “WWW” has been subjected to replacement processing four times. That is, in this domain, it can be determined that there is a high possibility that “WWW” will be called “world wide web”. Therefore, in such a case, the speech dictionary update unit 212 updates the speech dictionary DB 22 so that speech data read out as “World Wide Web” is preferentially adopted for the character string “WWW”.
  • count of appearance for every domain was illustrated, it is not limited to this, For example, you may count for all the web pages, and for every language of a web page May be counted.
  • the processing load on the reading server 20 becomes heavier than that in the second modification, but statistics regarding ruby can be obtained. For example, based on the statistics (number of appearances)
  • the voice conversion dictionary can be updated.

Abstract

 より利便性の高い読上げサービスを提供する。 ユーザ端末30は、Webサーバ10からHTMLファイルを受信すると、HTMLファイルに含まれているスクリプト要求タグ502を用いて、読上げサーバ20からスクリプトファイル60を取得し、取得されたスクリプトファイル60を起動させて、HTMLファイルから読上げ部分を抽出し、抽出された読上げ部分をソートして読上げサーバ20にアップロードする。読上げサーバ20は、ユーザ端末30から受信した読上げ部分を順に音声データに変換し、ユーザ端末30にストリーミング配信する。

Description

情報処理システム及びプログラム
 本発明は、情報処理システムに関する。
 例えば、特許文献1には、音声プロキシサーバを用いて、WWWの情報に含まれるテキストなどを読み上げる方法が開示されている。
特開平11-110186号公報
 本発明は、上述した背景からなされたものであり、より利便性の高い読上げサービスを提供することを目的とする。
 上記目的を達成するために、本発明にかかる情報処理システムは、音声ファイルを要求する要求端末と、音声ファイルを生成する音声ファイル生成装置とを含む情報処理システムであって、前記要求端末は、構造化文書の中から、被読上げデータを抽出する抽出手段と、前記抽出手段により抽出された被読上げデータを、被読上げデータそれぞれに関連付けられたタグに対応する順序で前記音声ファイル生成装置に送信する送信手段とを含み、前記音声ファイル生成装置は、前記送信手段から受信した順序で、受信した被読上げデータを音声データに変換する。
 好適には、前記要求端末は、前記抽出手段により抽出された被読上げデータのうち、rubyタグで囲まれた被読上げデータを、このタグに関連付けられたルビテキストの文字列で置換する置換手段をさらに有し、前記送信手段は、前記置換手段により少なくとも一部が置換された被読上げデータを前記音声ファイル生成装置に送信する。
 好適には、前記音声ファイル生成装置は、前記送信手段から受信した被読上げデータのうち、rubyタグで囲まれた被読上げデータを、このタグに関連付けられたルビテキストの文字列で置換する置換手段と、前記置換手段により少なくとも一部が置換された被読上げデータを、音声データに変換する変換手段と、前記置換手段により置換された被読上げデータ及びルビテキストの組の出現回数を、これらの組毎に計数する出現回数計数手段とを有する。
 好適には、プログラムファイルを要求するためのプログラム要求情報と、少なくとも読上げ範囲及び読上げ順序を指定するタグとが含まれた構造化文書を前記要求端末に提供する文書提供装置をさらに含み、前記要求端末は、構造化文書に含まれたプログラム要求情報を用いて、既定のプログラムファイルを取得し、前記抽出手段は、取得された前記プログラムファイルを実行することにより、構造化文書に含まれるタグに従って、被読上げデータを抽出し、前記送信手段は、取得された前記プログラムファイルを実行することにより、抽出された被読上げデータをタグに従って配列し、配列された被読上げデータを送信する。
 好適には、前記音声ファイル生成装置は、変換された音声データを、変換された順序でストリーミング配信する。
 好適には、前記文書提供装置は、音声データを配信するタイミングを指定するタイミング指定情報がさらに含まれた構造化文書を提供し、前記音声ファイル生成装置は、前記タイミング指定情報により指定されたタイミングで、各被読上げデータに対応する音声データを前記要求端末に配信する。
 また、本発明にかかるプログラムは、音声ファイルの要求操作を受け付けるステップと、前記要求操作に応じて、構造化文書に含まれるタグに従って、被読上げデータを抽出するステップと、抽出された被読上げデータを、被読上げデータに関連付けられたタグに対応する順序で送信するステップとをコンピュータに実行させる。
 本発明の情報処理システムによれば、読上げサービスの利便性が向上する。
実施形態における情報処理システム1の全体構成を例示する図である。 Webサーバ10から提供されるデータファイルを例示する図である。 ユーザ端末30で実行されるスクリプトファイル60の機能構成を例示する図である。 (A)は、範囲順序指定情報504を例示し、(B)は、ブロックの並べ替えを例示する図である。 情報処理システム1の全体動作(S10)のシーケンス図である。 ユーザ端末30に表示されるブラウザ画面800を例示する図である。 ユーザ端末30におけるブラウジング処理(S20)を説明するフローチャートである。 出力トリガ情報506が含まれたデータファイル5を例示する図である。 変形例におけるブラウジング処理(S30)を説明するフローチャートである。 第2の変形例におけるスクリプトファイル62の機能構成を例示する図である。 (A)は、rubyタグが含まれたブロック(HTMLファイル)を例示し、(B)は、ルビ置換部650による置換処理後のブロックを例示する図である。 読上げサーバ20に含まれる機能構成を例示する図である。 出現回数計数部210により作成される出現回数管理テーブル212を例示する図である。
符号の説明
 1・・・情報処理システム
 10・・・Webサーバ
 20・・・読上げサーバ
 30・・・ユーザ端末
 50・・・構造化文書ファイル
 60,62・・・スクリプトファイル
 図1は、本実施形態における情報処理システム1の全体構成を例示する図である。
 図1に例示するように、情報処理システム1は、インターネットなどのネットワークに接続されたWebサーバ10と読上げサーバ20を含む。
 Webサーバ10は、文書提供装置の一例であり、HTMLファイルなどの提供を行うコンピュータ装置である。
 読上げサーバ20は、音声ファイル生成装置の一例であり、音声データの提供を行うコンピュータ装置である。
 ユーザ端末30は、要求端末の一例であり、ユーザが操作するコンピュータ装置として、インターネットを介して、Webサーバ10からHTMLファイルを取得してウェブブラウザ等で表示し、表示された文字列などを読上げサーバ20に送信して、送信した文字列に対応する音声データを読上げサーバ20から取得する。
 図2は、Webサーバ10から提供されるデータファイルを例示する図である。
 図2(A)に例示するように、Webサーバ10は、ユーザ端末30からの要求に応じて、構造化文書ファイル50が含まれたデータファイル5をユーザ端末30に送信する。構造化文書ファイル50は、例えば、HTML又はXMLなどのマークアップ言語で記述されたデータファイルである。本例の構造化文書ファイル50は、図2(B)に例示するように、複数の文字列群(記事)を表示するためのタグと、図2(A)に例示するスクリプト要求タグ502及び範囲順序指定情報504を含む。
 スクリプト要求タグ502とは、図3に例示するスクリプトファイル60を要求するための情報であり、スクリプトファイルの要求先特定情報(本例では、読上げサーバ20のURL)と、認証情報とが含まれている。
 範囲順序指定情報504とは、構造化文書ファイル50に含まれる情報の読上げを制御する情報であり、例えば、読上げの対象となる範囲を指定する情報と、読上げの順序を指定する情報とが含まれている。
 ユーザ端末30は、データファイル5をWebサーバ10から受信すると、受信した構造化文書ファイル50をウェブブラウザで表示する。本例では、「記事#1」~「記事#3」がユーザ端末30に表示される。
 図3は、読上げサーバ20(図1)により提供され、ユーザ端末30で実行されるスクリプトファイル60の機能構成を例示する図である。
 図3に例示するように、スクリプトファイル60は、要求受付部600、抽出部610、順序決定部620、通信部630、及び出力制御部640を有する。
 スクリプトファイル60は、例えば、ユーザ端末30のウェブブラウザ上で実行される。
 スクリプトファイル60において、要求受付部600は、ユーザの操作を監視して、読上げの要求を受け付けると、読上げ処理の開始を他の構成に指示する。
 本例の要求受付部600は、ユーザ端末30のウェブブラウザ上に、読上げボタン820(図6に例示)を表示して、この読上げボタン820がクリックされると、読上げ処理の開始を抽出部610に出力する。
 抽出部610は、構造化文書ファイル50(図2)の中から、被読上げデータを抽出する。被読上げデータとは、読上げサーバ20によって音声データに変換されるデータであり、例えば、テキストデータなどである。
 本例の抽出部610は、範囲順序指定情報504と、構造化文書ファイル50に含まれているタグとに基づいて、抽出すべきテキストデータの範囲を特定し、特定された範囲内のテキストデータを1つのまとまり(ブロック)として抽出し、抽出されたブロックを通信部630に出力する。また、各ブロックのタグは、順序決定部620に出力される。
 順序決定部620は、抽出部610により抽出された被読上げデータの送信順序を、被読上げデータのタグに基づいて決定する。
 本例の順序決定部620は、範囲順序指定情報504と、抽出部610から入力された各ブロックのタグとに基づいて、各ブロックの送信順序を決定し、決定された送信順序を通信部630に通知する。
 通信部630は、Ajax(Asynchronous Java(登録商標)Script + XML)などの通信機能を用いて読上げサーバ20と通信を行い、被読上げデータの送信、及び、音声データの受信を行う。
 本例の通信部630は、抽出部610により抽出された被読上げデータ(ブロック)を、順序決定部620により決定された送信順序で読上げサーバ20に送信する。
 また、通信部630は、読上げサーバ20から受信した音声データを出力制御部640に出力する。
 出力制御部640は、ユーザ端末30に設けられた音声出力モジュールを制御して、読上げサーバ20から受信した音声データを音声にして出力させる。
 図4(A)は、範囲順序指定情報504を例示し、図4(B)は、ブロックの並べ替えを例示する図である。
 図4(A)に例示するように、本例の範囲順序指定情報504には、抽出すべき範囲のタグが送信順序に配列されている。すなわち、本例では、「タグ#2」、「タグ#1」、「タグ#3」の順序で配列されているため、図2(B)の構造化文書ファイル50の中から、「タグ#2」で囲まれた「記事#2」、「タグ#1」で囲まれた「記事#1」、「タグ#3」で囲まれた「記事#3」が抽出され、読上げサーバ20に送信される。
 これにより、図4(B)に例示するように、各記事が並べ替えられた状態で送信される。この送信順序は、読上げの順序となる。
 図5は、情報処理システム1の全体動作(S10)のシーケンス図である。なお、本シーケンスは、動作の一例であり、ユーザの操作などによって変更されうる。
 図5に例示するように、ステップ100(S100)において、Webサーバ10は、ユーザ端末30からのウェブアクセスに応じて、図2に例示するデータファイル5(HTMLファイル)をユーザ端末30に送信する。
 ステップ105(S105)において、ユーザ端末30は、ウェブブラウザ上で、Webサーバ10から受信したHTMLファイルを表示する。ブラウザ画面800には、図6に例示するように、構造化文書ファイル50に含まれている「記事#1」~「記事#3」が表示され、さらに、読上げボタン820が表示される。
 ステップ110(S110)において、ユーザ端末30は、データファイル5(HTMLファイル)に含まれているスクリプト要求タグ502を用いて、読上げサーバ20に対してスクリプトファイル60の要求を行う。ユーザ端末30は、スクリプトファイル60の要求を行う時に、スクリプト要求タグ502に含まれている認証情報を読上げサーバ20に送信する。
 ステップ115(S115)において、読上げサーバ20は、ユーザ端末30からスクリプトファイル60の要求を受信すると、認証情報に基づいて認証を行う。
 ステップ120(S120)において、読上げサーバ20は、認証結果に応じて、スクリプトファイル60をユーザ端末30に送信する。ユーザ端末30は、スクリプトファイル60を受信して起動させると、読上げボタン820を操作可能にする。
 ステップ125(S125)において、ユーザ端末30は、ユーザが読上げボタン820をクリックすると、以下の読上げ処理を開始する。
 ステップ130(S130)において、ユーザ端末30は、範囲順序指定情報504と、構造化文書ファイル50に含まれるタグとに基づいて、読上げ部分(ブロック)を構造化文書ファイル50から抽出する。
 ステップ135(S135)において、ユーザ端末30は、抽出された読上げ部分(ブロック)を範囲順序指定情報504に従って並び替える。
 ステップ140(S140)において、ユーザ端末30は、並び替えられた読上げ部分(ブロック)を読上げサーバ20に送信する。
 ステップ145(S145)において、読上げサーバ20は、ユーザ端末30から受信した読上げ部分(ブロック)を順に音声データに変換する。
 ステップ150(S150)において、読上げサーバ20は、ユーザ端末30までの帯域を判定し、判定された帯域と、認証結果とに応じて、音声データの送信ビットレートを決定する。
 ステップ155(S155)において、読上げサーバ20は、決定された送信ビットレートで、音声データをユーザ端末30にストリーミング配信する。
 ステップ160(S160)において、ユーザ端末30は、読上げサーバ20から配信された音声データを音声として出力する。これにより、図6の記事が読み上げられる。
 図7は、ユーザ端末30におけるブラウジング処理(S20)を説明するフローチャートである。
 図7に例示するように、ステップ200(S200)において、ユーザ端末30は、ユーザの操作に応じて、ウェブブラウザを起動させてWebサーバ10にアクセスして、HTMLファイル(データファイル5)を受信する。
 ステップ210(S210)において、ユーザ端末30は、図6に例示するように、ウェブブラウザで、受信したHTMLファイルを表示する。
 ステップ220(S220)において、ユーザ端末30は、HTMLファイルに含まれるスクリプト要求タグ502(図2)に従って、読上げサーバ20にスクリプトファイル60を要求する。
 ユーザ端末30は、読上げサーバ20からスクリプトファイル60を受信すると、スクリプトファイル60をウェブブラウザ上で起動させ、スクリプトファイル60の要求受付部600(図3)は、読上げボタン820(図6)を操作可能(アクティブ)にする。
 ステップ230(S230)において、ユーザ端末30は、読上げボタン820(図6)がクリックされた場合には、S240の処理に移行し、読上げボタン820がクリックされなかった場合には、HTMLファイルの表示のみで処理を終了する。
 ステップ240(S240)において、スクリプトファイル60の要求受付部600は、読上げボタン820のクリックを検知すると、抽出部610に対して読上げ処理の開始を指示する。
 抽出部610は、範囲順序指定情報504で指定されたタグを特定し、HTMLファイルの中から、特定されたタグに囲まれたテキストデータをブロックとして抽出する。
 ステップ250(S250)において、順序決定部620は、範囲順序指定情報504に基づいて、送信順序を決定し、決定された送信順序を通信部630に出力する。
 通信部630は、順序決定部620により決定された送信順序で、抽出部610により抽出されたブロックを並べ替える。
 ステップ260(S260)において、通信部630は、並べ替えたブロックを順に読上げサーバ20に送信する。
 ステップ270(S270)において、通信部630は、読上げサーバ20から音声データを受信すると、受信した音声データを出力制御部640に出力する。
 ステップ280(S280)において、出力制御部640は、ユーザ端末30の音声モジュールを制御して、通信部630から入力された音声データを音声として出力させる。
 以上説明したように、本実施形態の情報処理システム1は、文書ファイルの読上げサービスを提供することができる。
 [変形例1]
 次に、上記実施形態の第1の変形例を説明する。
 上記実施形態では、読上げボタンのクリックをトリガーとして、被読上げデータを音声データに変換する処理、及び、音声データの配信処理が行われたが、これに限定されるものではなく、例えば、音声データの配信処理を別のトリガーで行ってもよい。
 そこで、本変形例では、音声データの配信処理について別個のトリガーを設定する形態を説明する。
 図8は、出力トリガ情報506が含まれたデータファイル5を例示する図である。
 図8(A)に例示するように、本変形例のデータファイル5には、図2のデータファイルに、出力トリガ情報506が追加されている。
 出力トリガ情報506は、図8(B)に例示するように、音声出力のタイミングを指定する情報をタグに対応付けている。音声出力のタイミングとは、例えば、読上げサーバ20が音声データを配信するタイミングであり、例えば、ウェブブラウザの所定領域が操作されたタイミング(本例では、「領域A」がポイントされたタイミング)、直前の音声配信が終了してから所定期間が経過したタイミング(本例では、タグ#2で囲まれた領域が読み上げられた時から、50秒経過したタイミング)などである。
 本変形例の通信部630は、図8(B)の出力トリガ情報506に示された順序で、これらのトリガーを検知すると、トリガーに対応付けられたタグに囲まれた被読上げデータの音声データを読上げサーバ20に要求する。
 図9は、本変形例におけるブラウジング処理(S30)を説明するフローチャートである。
 図9に例示するように、ステップ300(S300)において、ユーザ端末30は、ユーザの操作に応じて、ウェブブラウザを起動させてWebサーバ10にアクセスして、HTMLファイル(図8のデータファイル5)を受信する。データファイル5には、スクリプト要求タグ502及び範囲順序指定情報504に加えて、出力トリガ情報506が含まれている。
 ステップ310(S310)において、ユーザ端末30は、ウェブブラウザで、受信したHTMLファイルを表示する。
 ステップ320(S320)において、ユーザ端末30は、HTMLファイルに含まれるスクリプト要求タグ502(図8)に従って、読上げサーバ20にスクリプトファイル60を要求する。
 ステップ330(S330)において、ユーザ端末30は、読上げサーバ20からスクリプトファイル60を受信すると、スクリプトファイル60をウェブブラウザ上で起動させる。
 スクリプトファイル60の要求受付部600は、起動後すぐに、読上げ処理の開始を指示する。
 抽出部610は、範囲順序指定情報504で指定されたタグを特定し、HTMLファイルの中から、特定されたタグに囲まれたテキストデータをブロックとして抽出する。
 ステップ340(S340)において、順序決定部620は、範囲順序指定情報504に基づいて、送信順序を決定し、決定された送信順序を通信部630に出力する。
 通信部630は、順序決定部620により決定された送信順序で、抽出部610により抽出されたブロックを並べ替える。
 ステップ350(S350)において、通信部630は、並べ替えたブロックを順に読上げサーバ20に送信する。読上げサーバ20では、通信部630から受信したブロックが順に音声データに変換される。
 ステップ360(S360)において、通信部630は、出力トリガ情報506に基づいて、音声出力のトリガーが検知されたか否かを判断する。なお、音声出力のトリガーは、出力トリガ情報506により指定されたものであるが、最初のトリガーについては、読上げボタン820のクリックであってもよい。
 スクリプトファイル60は、トリガーが検知されるまで待機し、トリガーが検知されるとS370の処理に移行する。
 ステップ370(S370)において、通信部630は、検知されたトリガーに対応するタグを出力トリガ情報506で特定し、特定されたタグで囲まれた被読上げデータに対応する音声データを読上げサーバ20に要求する。
 ステップ380(S380)において、通信部630は、読上げサーバ20から音声データを受信すると、受信した音声データを出力制御部640に出力する。出力制御部640は、ユーザ端末30の音声モジュールを制御して、通信部630から入力された音声データを音声として出力させる。
 ステップ390(S390)において、通信部630は、出力トリガ情報506により指定されたトリガーが全て検知されたか否かを判断し、全トリガーが検知された場合に、読上げ処理を終了し、検知されていないトリガーが存在する場合に、S360の処理に戻って、次のトリガーが検知されるまで待機する。
 このように、本変形例の情報処理システム1は、ブロック(被読上げデータのかたまり)それぞれについて音声出力のトリガーを設定することにより、各トリガーを検知したタイミングで音声出力を行うことができる。
 [変形例2]
 次に、第2の変形例を説明する。
 本変形例では、rubyタグが構造化文書に含まれている場合には、このタグで囲まれた被読上げデータを、このタグに関連付けられたルビテキスト(ruby text)で置換して読み上げる。ここで、rubyタグとは、W3Cによって規定されたタグであり、ルビが振られる範囲を定義するものである。また、ルビテキストとは、ルビベース(ルビが振られるコンテンツ)に振られるルビのことである。
 図10は、本変形例におけるスクリプトファイル62の機能構成を例示する図である。なお、本図に示された各構成のうち、図3に示されたものと実質的に同一のものには同一の符号が付されている。また、本変形例の情報処理システム1の構成は、上記実施形態と実質的に同一であり、Webサーバ10及び読上げサーバ20の機能及び動作も、上記実施形態と実質的に同一である。
 図10に例示するように、本変形例のスクリプトファイル62は、図3のスクリプトファイル60に、ルビ置換部650を追加した構成をとる。
 スクリプトファイル62において、ルビ置換部650は、抽出部610により抽出されたブロック(被読上げデータ)のうち、rubyタグで囲まれた被読上げデータを、このタグに関連付けられたルビテキストの文字列で置換する。すなわち、ルビ置換部650は、rubyタグで囲まれたルビベース及びルビテキストを、ルビテキストで置換する。なお、ルビ置換部650は、rubyタグで囲まれた被読上げデータのみをルビテキストで置換してもよいし、rubyタグ及びこれに囲まれた被読上げデータをルビテキストで置換してもよい。
 これにより、通信部630は、rubyタグで囲まれた被読上げデータをルビテキストで置換されたブロックを読上げサーバ20に送信し、読上げサーバ20は、受信したブロックに基づいて、rubyタグで囲まれた被読上げデータを、ルビテキストに従って音声化する。
 図11(A)は、rubyタグが含まれたブロック(HTMLファイル)を例示し、図11(B)は、ルビ置換部650による置換処理後のブロックを例示する図である。
 図11(A)に例示するように、抽出部610は、rubyタグ(図中の<ruby>及び</ruby>)が含まれたブロックを抽出する場合がある。このブロックのrubyタグは、ルビベースである「WWW」(図中の<rb>及び</rb>に囲まれたコンテンツ)と、ルビテキストである「ワールド ワイド ウェブ」(図中の<rt>及び</rt>に囲まれた文字列)とを囲んでいる。
 このような場合に、ルビ置換部650は、図11(B)に例示するように、rubyタグに囲まれたルビベース「WWW」及びルビテキスト「ワールド ワイド ウェブ」等を、ルビテキストの文字列「ワールド ワイド ウェブ」で置換する。
 なお、上記は一例であり、一部のタグが省略されることもある。
 このように、本変形例によれば、ウェブページ製作者の意図通りに、ウェブコンテンツを読み上げることができる。例えば、中国語で表記されたウェブページを他の言語(日本語や英語)で読み上げさせることもできる。
 [変形例3]
 次に、第3の変形例を説明する。上記第2の変形例では、ユーザ端末30(すなわち、スクリプトファイル62)がルビ部分の置換処理を行ったが、本変形例では、読上げサーバ20がルビ部分の置換処理を行う。したがって、本変形例の情報処理システム1の各構成のうち、Webサーバ10及びユーザ端末30の機能及び動作は、上記実施形態と実質的に同一であり、読上げサーバ20の機能及び動作が異なる。
 図12は、読上げサーバ20に含まれる機能構成を例示する図である。
 図12に例示するように、読上げサーバ20には、読上げプログラム200がインストールされると共に、音声辞書データベース22(音声辞書DB22)が設けられている。
 音声辞書DB22は、被読上げデータの各要素を音声データに変換するためのデータベースであり、例えば、所定の文字列に対して、これらの文字列を読み上げたときの音声データを対応付けて記録している。
 また、図12に例示するように、読上げプログラム200には、受信部202、ルビ置換部204、音声変換部206、音声配信部208、出現回数計数部210、及び、音声辞書更新部212が含まれている。
 受信部202は、ユーザ端末30(通信部630)から、読上げ対象となるブロック(被読上げデータ)を順に受信し、受信した順序で、受信したブロックをルビ置換部204に出力する。
 ルビ置換部204は、図10のルビ置換部650と実質的に同一であり、受信部202から入力されたブロックに対して、ルビ部分の置換処理を行い、このブロックを音声変換部206に出力する。さらに、ルビ置換部204は、置換処理の対象となったルビテキスト及びルビベースを出現回数計数部210に出力する。
 音声変換部206は、ルビ置換部204から入力されたブロック(被読上げデータ)を、音声辞書DB22を参照して、音声データに変換し、生成された音声データを音声配信部208に出力する。
 音声配信部208は、音声変換部206から入力された音声データを、ユーザ端末30に対してストリーミング配信する。
 出現回数計数部210は、ルビ置換部204により置換された被読上げデータ及びルビテキストの組の出現回数を、これらの組毎に計数する。本例の出現回数計数部210は、図13に例示するように、ルビ置換部204から入力されるルビテキスト及びルビベースの組の出現回数を、これらの組及びドメイン毎に計数する。すなわち、本例の出現回数計数部210は、ドメイン毎に、ルビテキスト及びルビベースの各組合せの出現回数(置換回数)をカウントする。
 音声辞書更新部212は、出現回数計数部210による計数結果に基づいて、音声変換処理で用いられる音声辞書DB22を更新する。本例の音声辞書DB22は、ドメイン毎に音声辞書を有し、本例の音声辞書更新部212は、各ドメインにおけるルビベース及びルビテキストの組の出現回数に応じて、出現回数の多い組を優先的に採用して、ルビの付されていない文字列を音声データに変換する。
 図13の例でいえば、ドメイン「ABCD.COM」において、被置換データ(すなわち、ルビベース)「WWW」とルビテキスト「ワールド ワイド ウェブ」との組は、131回、置換処理の対象となっており、同じドメインにおいて、被置換データ「WWW」とルビテキスト「ダブリュダブリュダブリュ」との組は、4回、置換処理の対象となっている。すなわち、本ドメインでは、「WWW」を「ワールド ワイド ウェブ」と呼ばせる可能性が高いと判定できる。そこで、このような場合に、音声辞書更新部212は、「WWW」という文字列に対して、「ワールド ワイド ウェブ」と読み上げる音声データが優先的に採用されるように音声辞書DB22を更新する。
 なお、本変形例では、ドメイン毎に出現回数を計数する形態を例示したが、これに限定されるものではなく、例えば、全ウェブページを対象として計数してもよいし、ウェブページの言語毎に計数してもよい。
 このように、本変形例によれば、第2の変形例よりも読上げサーバ20の処理負荷が重くなってしまうが、ルビに関する統計をとることができ、例えば、この統計(出現回数)に基づいて音声変換の辞書を更新することができる。
 インターネットを介して音声データを配信する情報処理システムに適用できる。

Claims (7)

  1.  音声ファイルを要求する要求端末と、音声ファイルを生成する音声ファイル生成装置とを含む情報処理システムであって、
     前記要求端末は、
     構造化文書の中から、被読上げデータを抽出する抽出手段と、
     前記抽出手段により抽出された被読上げデータを、被読上げデータそれぞれに関連付けられたタグに対応する順序で前記音声ファイル生成装置に送信する送信手段と
     を含み、
     前記音声ファイル生成装置は、前記送信手段から受信した順序で、受信した被読上げデータを音声データに変換する
     情報処理システム。
  2.  前記要求端末は、
     前記抽出手段により抽出された被読上げデータのうち、rubyタグで囲まれた被読上げデータを、このタグに関連付けられたルビテキストの文字列で置換する置換手段
     をさらに有し、
     前記送信手段は、前記置換手段により少なくとも一部が置換された被読上げデータを前記音声ファイル生成装置に送信する
     請求項1に記載の情報処理システム。
  3.  前記音声ファイル生成装置は、
     前記送信手段から受信した被読上げデータのうち、rubyタグで囲まれた被読上げデータを、このタグに関連付けられたルビテキストの文字列で置換する置換手段と、
     前記置換手段により少なくとも一部が置換された被読上げデータを、音声データに変換する変換手段と、
     前記置換手段により置換された被読上げデータ及びルビテキストの組の出現回数を、これらの組毎に計数する出現回数計数手段と
     を有する
     請求項1に記載の情報処理システム。
  4.  プログラムファイルを要求するためのプログラム要求情報と、少なくとも読上げ範囲及び読上げ順序を指定するタグとが含まれた構造化文書を前記要求端末に提供する文書提供装置
     をさらに含み、
     前記要求端末は、構造化文書に含まれたプログラム要求情報を用いて、既定のプログラムファイルを取得し、
     前記抽出手段は、取得された前記プログラムファイルを実行することにより、構造化文書に含まれるタグに従って、被読上げデータを抽出し、
     前記送信手段は、取得された前記プログラムファイルを実行することにより、抽出された被読上げデータをタグに従って配列し、配列された被読上げデータを送信する
     請求項1に記載の情報処理システム。
  5.  前記音声ファイル生成装置は、変換された音声データを、変換された順序でストリーミング配信する
     請求項1に記載の情報処理システム。
  6.  前記文書提供装置は、音声データを配信するタイミングを指定するタイミング指定情報がさらに含まれた構造化文書を提供し、
     前記音声ファイル生成装置は、前記タイミング指定情報により指定されたタイミングで、各被読上げデータに対応する音声データを前記要求端末に配信する
     請求項4に記載の情報処理システム。
  7.  音声ファイルの要求操作を受け付けるステップと、
     前記要求操作に応じて、構造化文書に含まれるタグに従って、被読上げデータを抽出するステップと、
     抽出された被読上げデータを、被読上げデータに関連付けられたタグに対応する順序で送信するステップと
     をコンピュータに実行させるプログラム。
PCT/JP2009/000188 2009-01-20 2009-01-20 情報処理システム及びプログラム WO2010084524A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/000188 WO2010084524A1 (ja) 2009-01-20 2009-01-20 情報処理システム及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/000188 WO2010084524A1 (ja) 2009-01-20 2009-01-20 情報処理システム及びプログラム

Publications (1)

Publication Number Publication Date
WO2010084524A1 true WO2010084524A1 (ja) 2010-07-29

Family

ID=42355604

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/000188 WO2010084524A1 (ja) 2009-01-20 2009-01-20 情報処理システム及びプログラム

Country Status (1)

Country Link
WO (1) WO2010084524A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002158803A (ja) * 2000-11-17 2002-05-31 Victor Co Of Japan Ltd 携帯端末通信システム、及び携帯端末
JP2005010992A (ja) * 2003-06-18 2005-01-13 Kddi Corp 合成音声によるウェブページの説明および広告の方法及びサーバ
JP2005309173A (ja) * 2004-04-23 2005-11-04 Nippon Hoso Kyokai <Nhk> 音声合成制御装置、その方法、そのプログラムおよび音声合成用データ生成装置
JP2008234639A (ja) * 2008-02-25 2008-10-02 Sony Corp 文書処理装置、文書処理方法、及び記録媒体
JP2008276701A (ja) * 2007-05-07 2008-11-13 Nintendo Co Ltd 情報処理システム、情報処理プログラム
JP2009003717A (ja) * 2007-06-21 2009-01-08 Yahoo Japan Corp ふり仮名収集利用装置及びふり仮名収集利用方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002158803A (ja) * 2000-11-17 2002-05-31 Victor Co Of Japan Ltd 携帯端末通信システム、及び携帯端末
JP2005010992A (ja) * 2003-06-18 2005-01-13 Kddi Corp 合成音声によるウェブページの説明および広告の方法及びサーバ
JP2005309173A (ja) * 2004-04-23 2005-11-04 Nippon Hoso Kyokai <Nhk> 音声合成制御装置、その方法、そのプログラムおよび音声合成用データ生成装置
JP2008276701A (ja) * 2007-05-07 2008-11-13 Nintendo Co Ltd 情報処理システム、情報処理プログラム
JP2009003717A (ja) * 2007-06-21 2009-01-08 Yahoo Japan Corp ふり仮名収集利用装置及びふり仮名収集利用方法
JP2008234639A (ja) * 2008-02-25 2008-10-02 Sony Corp 文書処理装置、文書処理方法、及び記録媒体

Similar Documents

Publication Publication Date Title
US20190272313A1 (en) Dynamic generation of mobile web experience
US7865544B2 (en) Method and system for providing XML-based asynchronous and interactive feeds for web applications
JP2007141235A (ja) ユーザインターフェースを管理する装置及び方法
CN105095280A (zh) 一种浏览器缓存方法和装置
CN104053072B (zh) 分发控制系统、分发系统以及分发控制方法
US11151219B2 (en) Generating rich digital documents from limited instructional data
JP5164251B2 (ja) 情報処理システム及びプログラム
JP2012133515A (ja) 情報処理装置、情報処理方法、プログラム、情報処理システム
JP2008140353A (ja) 複数のソーシャルネットワーク情報を一括で表示するシステム
JP2008071116A (ja) 情報配信システム、情報配信装置、情報配信方法および情報配信用プログラム
WO2010084524A1 (ja) 情報処理システム及びプログラム
WO2016056054A1 (ja) Webページの表示のためのプログラム、端末装置、およびサーバ装置
KR101066610B1 (ko) Xml과 json 데이터의 압축 및 분할 전송시스템
Cao et al. The solution of web font-end performance optimization
KR100732134B1 (ko) 테이블 표시 전환 방법, 텍스트 데이터 변환 프로그램 및 태그 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
WO2017133659A1 (en) Method and system of push-template and url list for dash on full-duplex protocols
JPWO2007132848A1 (ja) 別ドメインの情報を利用する方法、別ドメインの情報を利用するためのプログラム及び情報転送プログラム
US7032167B1 (en) Method and apparatus for a document parser specification
WO2006120738A1 (ja) メニューバー提供方法及び情報閲覧画面構成ファイル作成プログラム
CN103227827B (zh) 请求资源的方法和装置
JP2005327150A (ja) 情報配信システムおよび情報配信方法
JP5500968B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
CN101902508B (zh) 嵌入式终端取得网络地址的方法及系统
JP4014361B2 (ja) 音声合成装置及び音声合成方法並びに音声合成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2011128970A (ja) ウェブページ作成支援装置、ウェブページ作成支援方法、コンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09838718

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 09838718

Country of ref document: EP

Kind code of ref document: A1