JP2005182127A - Information processor and information processing method - Google Patents

Information processor and information processing method Download PDF

Info

Publication number
JP2005182127A
JP2005182127A JP2003417815A JP2003417815A JP2005182127A JP 2005182127 A JP2005182127 A JP 2005182127A JP 2003417815 A JP2003417815 A JP 2003417815A JP 2003417815 A JP2003417815 A JP 2003417815A JP 2005182127 A JP2005182127 A JP 2005182127A
Authority
JP
Japan
Prior art keywords
output
content
sentence
output order
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003417815A
Other languages
Japanese (ja)
Inventor
Mikiro Sasaki
幹郎 佐々木
Junpei Hado
淳平 羽藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2003417815A priority Critical patent/JP2005182127A/en
Publication of JP2005182127A publication Critical patent/JP2005182127A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To preferentially output a sentence in which a user is highly interested concerning contents including a plurality of sentences. <P>SOLUTION: While a contents outputting part 8 outputs contents, a user request inputting part 4 inputs a request regarding a contents viewing operation from a user (that is, a request for the repetition of the output or the skip of the output of a specific sentence), and a state deciding part 9 decides the sentence being the target of the contents viewing operation request, and a user information generating part 10 counts points for words included in the sentence being the target of the contents viewing operation request, and generates user information representing the points of each word, and a contents analyzing part 6 compares the points of each word represented by the user information concerning each sentence of the contents received by a contents receiving part 5 with words included in each sentence, and decides the output sequence of the sentence in order to preferentially output the sentence whose point is high and a contents output part 8 outputs the sentence in the decided output order. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、通信端末上において、音声操作によって操作可能なWebブラウザに関するものである。   The present invention relates to a Web browser that can be operated by voice operation on a communication terminal.

インターネット上に存在する様々なコンテンツを取得し、視覚的に表示したり、次の情報へのリンクを備えることで様々な情報を利用可能としたWWW(World Wide Web)ブラウザは一般的に広まっている。さらに、視覚的な表示や、マウスやキーボードなどの入力デバイスに依らず、音声認識や音声合成などによるコンテンツの再生、操作を可能としたWWWブラウザが登場している。   WWW (World Wide Web) browsers that can acquire various contents existing on the Internet, display them visually, and provide various information by providing links to the following information are generally widespread Yes. In addition, WWW browsers that can reproduce and operate content by voice recognition, voice synthesis, etc. have appeared, regardless of visual display or input devices such as a mouse and a keyboard.

例えば、特開平11−110186号公報に示す「ブラウザシステム、音声プロキシサーバ、リンク項目の読み上げ方法及びリンク項目の読み上げプログラムを格納した記憶媒体」は、WWW情報に含まれるテキストを、音声操作の対象として順に読み上げることを可能としたものである。
特開平11−110186号公報
For example, “Browser system, voice proxy server, link item reading method and storage medium storing link item reading program” disclosed in Japanese Patent Application Laid-Open No. 11-110186 discloses a text included in WWW information as a target of voice operation. Can be read out in order.
JP-A-11-110186

従来技術では、音声などによるコンテンツの再生は行えても、コンテンツ内容によっては利用者の意図しない情報であったり、コンテンツ内で利用者の必要とする情報が後の方に記述されている場合、そこまで出力されるのを待つ必要があった。   In the prior art, even if the content can be played back by voice or the like, depending on the content content, if the information is not intended by the user, or if the information required by the user is described later in the content, I had to wait for it to be output.

また、様々な情報の中から利用者の意図する情報を選択することはできなかった。   In addition, the information intended by the user cannot be selected from various information.

そこで、本発明はこのような問題を解決することを目的の一つとする。   Accordingly, an object of the present invention is to solve such a problem.

本発明に係る情報処理装置は、
少なくとも一つ以上のセンテンスを含むコンテンツを受信するコンテンツ受信部と、
コンテンツに含まれるセンテンスを所定の出力順序に従って出力するコンテンツ出力部と、
コンテンツを利用するユーザからのコンテンツ視聴操作要求を入力するユーザ要求入力部と、
前記ユーザ要求入力部により入力されたコンテンツ視聴操作要求の履歴に基づいて、センテンスの出力順序の決定に用いられる出力順序基準を生成する出力順序基準生成部と、
前記出力順序基準生成部により生成された出力順序基準を用いて、前記コンテンツ受信部により受信されたコンテンツに含まれる各センテンスの出力順序を決定する出力順序決定部とを有することを特徴とする。
An information processing apparatus according to the present invention includes:
A content receiver that receives content including at least one sentence;
A content output unit that outputs sentences included in the content according to a predetermined output order;
A user request input unit for inputting a content viewing operation request from a user who uses the content;
An output order reference generation unit that generates an output order reference used to determine the output order of sentences based on a history of content viewing operation requests input by the user request input unit;
And an output order determining unit that determines an output order of each sentence included in the content received by the content receiving unit using the output order reference generated by the output order reference generating unit.

本発明によれば、コンテンツ視聴操作要求の履歴に基づいて出力順序基準を生成し、生成した出力順序基準を用いて、コンテンツに含まれる各センテンスの出力順序を決定するため、コンテンツの利用者の関心が高い情報を優先的に出力することができる。   According to the present invention, the output order reference is generated based on the history of the content viewing operation request, and the output order of each sentence included in the content is determined using the generated output order reference. Information with high interest can be preferentially output.

実施の形態1.
図1は実施の形態1のブラウザ装置1(情報処理装置)の基本構成を示すブロック図である。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a basic configuration of browser apparatus 1 (information processing apparatus) according to the first embodiment.

図において、コンテンツ受信部5は、通信により、インターネットなどからコンテンツを受信する。   In the figure, a content receiver 5 receives content from the Internet or the like by communication.

コンテンツ解析部6(出力順序決定部)は、受信したコンテンツを解析する。解析は、コンテンツを走査し、その文書構造や表示を行うためのコンテンツの区切りなどを判定し、解析データとして出力する処理である。図2に解析の例を示す。HTMLなどで記述されたHTMLコンテンツに対し、解析を行うことで見出し情報や内容情報を抽出する。図2に示すコンテンツ記述例を表示すると、表示例に示すように表示される。また、図2に示す内容1、内容2の内容情報のそれぞれが、センテンスに相当する。このため、本実施の形態に係るブラウザ装置1は、複数のセンテンスを含むコンテンツを受信する。後述するように、コンテンツ解析部6は、ブラウザ装置1のユーザの興味のあるセンテンスから出力するように各センテンスの出力順序を決定する。なお、コンテンツ解析部6により出力順序が決定された後のコンテンツを解析情報と呼ぶ。   The content analysis unit 6 (output order determination unit) analyzes the received content. The analysis is a process of scanning the content, determining the document structure and content breaks for display, and outputting the analysis data. FIG. 2 shows an example of analysis. Headline information and content information are extracted by analyzing HTML content described in HTML or the like. When the content description example shown in FIG. 2 is displayed, it is displayed as shown in the display example. Further, each of the contents information of contents 1 and 2 shown in FIG. 2 corresponds to a sentence. For this reason, the browser device 1 according to the present embodiment receives content including a plurality of sentences. As will be described later, the content analysis unit 6 determines the output order of each sentence so as to output from the sentence in which the user of the browser device 1 is interested. The content after the output order is determined by the content analysis unit 6 is referred to as analysis information.

解析情報記憶部11は、コンテンツ解析部6により出力順序が決定された後のコンテンツ、すなわち、解析情報を一時的に記憶し、コンテンツ出力部8に出力する。   The analysis information storage unit 11 temporarily stores the content after the output order is determined by the content analysis unit 6, that is, analysis information, and outputs it to the content output unit 8.

コンテンツ出力部8は、解析情報記憶部11から解析情報を入力し、解析情報を利用者が視覚的に見たり、音声として聞けるように出力する部分である。また、音声情報を出力する場合は、利用者からの操作要求を受けて、コンテンツの特定部分を再度繰り返して出力することができたり、コンテンツの特定部分の出力キャンセル(スキップ)ができるものとする。   The content output unit 8 is a part that inputs analysis information from the analysis information storage unit 11 and outputs the analysis information so that the user can visually see it or hear it as sound. In addition, when outputting audio information, it is possible to repeatedly output a specific part of content in response to an operation request from the user, or to cancel (skip) output of a specific part of content. .

ユーザ要求入力部4は「戻る」「進む」や、次の情報へのジャンプ操作、フォームへの入力操作といった一般的なWebブラウズ操作要求を入力する。これはマウス・キーボードなどを利用した画面に対する操作の他に、音声認識処理を利用して声で「次」「前」などの入力であっても構わない。また、ユーザ要求入力部4は、ユーザのマウス・キーボード操作や音声認識処理により、コンテンツの特定部分の繰返し出力を要求する出力リピート要求やコンテンツの特定部分の出力キャンセル(スキップ)を要求する出力キャンセル要求をユーザから入力することができる。なお、ユーザ要求入力部4がユーザから入力するコンテンツ視聴に関する操作要求をコンテンツ視聴操作要求という。以下では、コンテンツ視聴操作要求として、出力リピート要求、出力キャンセル要求を例にして説明するが、「戻る」、「進む」、次の情報へのジャンプ操作の要求もコンテンツ視聴操作要求として扱うことができる。   The user request input unit 4 inputs general Web browsing operation requests such as “return” and “forward”, jump operation to the next information, and input operation to the form. In addition to operations on the screen using a mouse / keyboard or the like, “next” or “previous” may be input using voice recognition processing. Further, the user request input unit 4 performs an output repeat request for requesting repeated output of a specific part of the content or an output cancel requesting output cancellation (skip) of the specific part of the content by a user's mouse / keyboard operation or voice recognition processing. A request can be input from the user. An operation request related to content viewing input from the user by the user request input unit 4 is referred to as a content viewing operation request. In the following description, an output repeat request and an output cancel request will be described as examples of content viewing operation requests. However, requests for “back”, “forward”, and jump operations to the next information can also be handled as content viewing operation requests. it can.

状態判定部9はコンテンツ視聴操作要求が入力された際に、コンテンツ出力状態がどのようになっているのかを判定する。音声出力が行われている場合、「繰り返し」の操作が指定されたら現在コンテンツのどの部分が出力されているのか、といった状況を確認する。   The state determination unit 9 determines the content output state when a content viewing operation request is input. When audio output is being performed, the status such as which part of the content is currently being output when the “repeat” operation is designated.

利用者情報生成部10(出力順序基準生成部)は上記状態判定によるコンテンツ状態とコンテンツ視聴操作要求の履歴から、利用者がどのような情報に興味を持っているのかを判断し、その情報を利用者情報(出力順序基準)として生成し、利用者情報記憶部12に記憶させる。   The user information generation unit 10 (output order reference generation unit) determines what kind of information the user is interested in from the content state by the state determination and the history of the content viewing operation request, and determines the information. It generates as user information (output order reference) and stores it in the user information storage unit 12.

なお、ブラウザ装置1は、図示していないが、例えばマイクロプロセッサ等のCPU、半導体メモリ等や磁気ディスク等の記録手段、及び通信手段を有する計算機により実現することができる。記録手段には、ブラウザ装置1に含まれる各構成要素の機能を実現するプログラムが記録されており、CPUがこれらのプログラムを読み込むことによりブラウザ装置1の動作を制御し、各構成要素の機能を実現することができる。   Although not shown, the browser device 1 can be realized by a computer having a CPU such as a microprocessor, a recording unit such as a semiconductor memory or a magnetic disk, and a communication unit. The recording means stores a program that realizes the function of each component included in the browser device 1. The CPU reads the program to control the operation of the browser device 1, and the function of each component is recorded. Can be realized.

また、音声出力部3により音声出力が行われる場合、操作により利用者は自分が聞きたい部分を指定して再度出力させることができるものとする。例えば、音声で見出し1の内容を読み上げている途中で、利用者が繰り返し操作を指定し、ユーザ要求入力部4が出力リピート要求として受信すると、その情報が状態判定部9を経由してコンテンツ解析部6に送られ、コンテンツ解析部6が繰返し出力の対象となるコンテンツの部分を再度出力するようコンテンツ出力部8に指示することで、読上げている内容を再度出力する機能を備えている。また、この操作は例えば「もう一度」発話などの音声操作によっても行えても構わない。さらに、不要なセンテンスをとばす操作として、「パス」「スキップ」などによる操作も考えられる。この場合は、ユーザ要求入力部4が出力キャンセル要求を入力し、コンテンツ解析部6が現在の情報の次の情報を出力するようコンテンツ出力部8に指示し、これによりコンテンツ出力部8が情報をスキップすることができる。   Further, when voice output is performed by the voice output unit 3, the user can specify a part he / she wants to hear and output it again by operation. For example, when the user designates a repetitive operation while reading the content of the heading 1 by voice and the user request input unit 4 receives it as an output repeat request, the information is analyzed through the state determination unit 9 for content analysis. The content analysis unit 6 has a function of outputting the content being read again by instructing the content output unit 8 to output again the part of the content to be repeatedly output. Further, this operation may be performed by a voice operation such as, for example, “again” utterance. Further, as an operation for skipping unnecessary sentences, operations such as “pass” and “skip” are also conceivable. In this case, the user request input unit 4 inputs an output cancellation request, and the content analysis unit 6 instructs the content output unit 8 to output the next information after the current information, whereby the content output unit 8 outputs the information. Can be skipped.

上記操作が行われた際に、状態判定部9は、コンテンツがどのように出力されているのかを抽出する。例えば、画面表示が行われている場合には、コンテンツ全体の中のどの部分が表示されているのかということから、表示部分の情報を抽出したり、音声出力が行われている場合には、コンテンツ中のどの部分が読上げられているのか、といった判断を行う。具体的には、見出しが「スポーツ」の「京阪ライダーズがダントツの優勝を」というセンテンスが読上げられているという情報が得られる。   When the above operation is performed, the state determination unit 9 extracts how the content is output. For example, when screen display is performed, it is determined which part of the entire content is displayed, so if information on the display part is extracted or audio output is performed, It is determined which part of the content is being read out. Specifically, the information that the sentence “Keihan Riders wins Dantotsu” with the headline “Sports” is read out.

利用者情報生成部10は上記の得られた情報から、利用者がどのような情報に対して興味を持っているのかを推定し、その情報を利用者情報として生成する。図3に処理の手順例を示す。   The user information generation unit 10 estimates what information the user is interested in from the obtained information, and generates the information as user information. FIG. 3 shows an example of the processing procedure.

まず、利用者情報生成部10は、出力リピート(繰返し出力)又は出力キャンセル(出力スキップ)の対象となったセンテンスを取り出し(S101)、取り出したセンテンスを単語(ワード)に分解する(S102)。そして、分解した各単語を取り出し(S103)、利用者情報記憶部12に記憶されている利用者情報に同じ単語があるかどうかを判断する(S104)。もし、同じ単語が利用者情報にあれば(S104でYes)、当該単語にポイント(評価値)を加算する。一方。同じ単語が利用者情報になければ(S104でNo)、利用者情報に当該単語を新規に登録する(S106)。図3の例では、図2に示した見出しが「スポーツ」の「京阪ライダーズがダントツの優勝を」というセンテンスが出力リピートの対象となった場合を想定している。この場合は、カテゴリとして「スポーツ」、注目単語として「京阪」「ライダーズ」などの情報が抽出され、それぞれに対してポイントが加算される。また、「パス」「スキップ」などの操作が指定された場合は、出力中のコンテンツ情報に対しては利用者は興味を持たないものと判断する。抽出した情報、例えばスキップ操作時に出力されていたセンテンスが「民民党総裁選挙は小林首相有利」というセンテンスであれば、「民民党」「総裁」「選挙」「小林」「首相」などの単語を抽出し、それらの単語についてはマイナスの情報として利用者情報に記録する。   First, the user information generation unit 10 extracts a sentence that is a target of output repeat (repetitive output) or output cancellation (output skip) (S101), and decomposes the extracted sentence into words (words) (S102). Then, each decomposed word is extracted (S103), and it is determined whether there is the same word in the user information stored in the user information storage unit 12 (S104). If the same word is in the user information (Yes in S104), points (evaluation value) are added to the word. on the other hand. If the same word is not in the user information (No in S104), the word is newly registered in the user information (S106). In the example of FIG. 3, it is assumed that the sentence “Keihan Riders wins the championship of Dantotsu” whose heading shown in FIG. 2 is the target of output repeat. In this case, information such as “sports” as the category and “Keihan” and “riders” as the attention words are extracted, and points are added to each. When an operation such as “pass” or “skip” is designated, it is determined that the user is not interested in the content information being output. If the extracted information, for example, the sentence that was output at the time of the skip operation is a sentence that the Democratic Party Governor ’s election is advantageous to Prime Minister Kobayashi, then “DLP”, “President”, “Election”, “Kobayashi”, “Prime Minister”, etc. Words are extracted, and those words are recorded in the user information as negative information.

図4に利用者情報の例を示す。本例では、抽出された単語が、その抽出頻度に応じてポイント(評価値)によるランク付けされて登録されている。ランクはセンテンスの出力順序を決定する際の優先順位(基準)として利用される。   FIG. 4 shows an example of user information. In this example, the extracted words are ranked and registered by points (evaluation values) according to the extraction frequency. The rank is used as a priority (reference) in determining the sentence output order.

利用者情報が蓄積されると、それ以降のコンテンツ出力において、それらの情報を使用する。コンテンツ解析部6は、利用者情報を利用者が興味を持つ情報を判断するための基準として利用する。処理手順を図5に示す。   When the user information is accumulated, the information is used in the subsequent content output. The content analysis unit 6 uses the user information as a reference for determining information that the user is interested in. The processing procedure is shown in FIG.

まず、コンテンツ解析部6は、コンテンツ受信部5が受信したコンテンツをセンテンスに分解する(S201)。次に、各センテンスについて、センテンスを単語(ワード)に分解し(S202)、分解した単語を取り出し(S203)、利用者情報に同じ単語があるかどうかを判断する(S204)。利用者情報に同じ単語があれば(S204でYes)、当該センテンスに対して当該単語に設定されているポイントを加算し、単語数分同様の処理を繰り返す。以上により各センテンスについてポイントが計上されると、コンテンツ解析部6は、各センテンスが持つポイントにより、ポイントの高い順にセンテンスを並び替え、出力順とする(S206)。
前の例では「京阪」「ライダーズ」を含むセンテンスがあれば、そのセンテンスのポイントが高くなるため、当該センテンスの出力優先順位を上げる。これにより、ポイントの高いセンテンス、すなわち、ユーザの関心が高いと考えられるセンテンスを、コンテンツ出力部8において先に表示したり音声出力したりすることができる。
First, the content analysis unit 6 breaks down the content received by the content reception unit 5 into sentences (S201). Next, for each sentence, the sentence is decomposed into words (words) (S202), the decomposed words are extracted (S203), and it is determined whether there is the same word in the user information (S204). If there is the same word in the user information (Yes in S204), the points set for the word are added to the sentence, and the same process is repeated for the number of words. When the points are counted for each sentence as described above, the content analysis unit 6 rearranges the sentences in the descending order of the points according to the points of each sentence, and sets them in the output order (S206).
In the previous example, if there is a sentence including “Keihan” and “Riders”, the point of that sentence becomes higher, so the output priority of the sentence is raised. As a result, a sentence having a high point, that is, a sentence that is considered to be of high interest to the user can be displayed in the content output unit 8 or output in voice.

このように、本実施の形態に係るブラウザ装置によれば、音声などによる操作が可能となり、また蓄積した利用者情報を元により適切な順番でコンテンツの出力を行う事ができる。つまり、利用者情報を抽出・利用することで、利用者が望む情報を優先的に出力することが可能になる。   As described above, according to the browser device according to the present embodiment, it is possible to perform operations by voice and the like, and it is possible to output contents in an appropriate order based on the accumulated user information. That is, by extracting and using user information, it is possible to preferentially output information desired by the user.

実施の形態2.
図6は実施の形態2のブラウザ装置1の出力例を示す説明図である。画面サイズが小さい場合やカーナビゲーション・システムのように操作上の問題で、画面出力が制限される場合、音声による出力が有効である。本実施の形態に係るブラウザ装置1のコンテンツ出力部8は、音声読上げ中の文字部分を画面で強調表示する。図の上の例では、読んでいる部分を画面中で文字を太くして強調している例である。また、文字の色を変えるようにしてもよい。下の例は、実際音で流れている部分だけをテロップのように出力する例である。
Embodiment 2. FIG.
FIG. 6 is an explanatory diagram illustrating an output example of the browser device 1 according to the second embodiment. Audio output is effective when the screen output is limited due to a small screen size or operational problems such as in a car navigation system. The content output unit 8 of the browser device 1 according to the present embodiment highlights the character portion being read aloud on the screen. In the upper example of the figure, the part being read is highlighted on the screen with thick characters. Moreover, you may make it change the color of a character. In the example below, only the part that is actually flowing is output like a telop.

一般的に音声読上げには読み間違いなどが存在する場合が多いが、このように実際に読上げている部分を画面上に強調表示することで読み間違いの部分を利用者が確認しやすくすることにより、コンテンツの理解を助けることができる。つまり、本実施の形態に係るブラウザ装置によれば、音声出力の際の読み間違いなどを容易に確認することができる。   Generally speaking, there are many mistakes in reading aloud, however, by highlighting the part that is actually read out on the screen in this way, it is easier for the user to check the part of the reading error. , Can help understand the content. In other words, according to the browser device according to the present embodiment, it is possible to easily confirm a reading error at the time of voice output.

実施の形態3.
次に、実施の形態3に係るブラウザ装置について説明する。
実施の形態1で説明したとおり、コンテンツ解析において、利用者情報を利用者が興味を持つ情報として利用し、該当する単語(前の例では「京阪」「ライダーズ」など)を含むセンテンスがあれば、その単語自体を強調するための情報を付加し、解析情報を出力する。
Embodiment 3 FIG.
Next, a browser device according to Embodiment 3 will be described.
As described in the first embodiment, in content analysis, if user information is used as information that the user is interested in, and there is a sentence including the corresponding word (such as “Keihan” or “Riders” in the previous example) The information for emphasizing the word itself is added, and the analysis information is output.

図7は実施の形態3に係るブラウザ装置の出力例を示す説明図である。図に示すように、コンテンツ出力部は、付加された情報を元に、利用者情報に含まれる単語を強調表示したり、該当する単語を含む部分の領域を画面表示する。また、音声出力であれば、該当するセンテンスを読上げる。   FIG. 7 is an explanatory diagram illustrating an output example of the browser device according to the third embodiment. As shown in the figure, the content output unit highlights the words included in the user information based on the added information, or displays the area of the portion including the corresponding words on the screen. If it is an audio output, the corresponding sentence is read out.

実施の形態4.
図8は実施の形態4に係るブラウザ装置の操作例を示す。コンテンツ解析および通常の出力処理は実施の形態3までのものと同様である。
本実施の形態では、利用者は例えば「次の注目」という、現在出力中のセンテンスに含まれている単語(ワード)であって利用者情報に示されている単語を含む次のセンテンスを出力したい、という操作要求(未出力センテンス出力要求)を出すことができる。ユーザ要求入力部4は「次の注目」といった形で、利用者情報を使用することができる要求が入力されると、それを状態判定部9に伝える。状態判定部9は現在出力中のセンテンスに含まれる単語であって利用者情報に示されている単語をサーチし、サーチした単語とともに当該単語を含む未出力のセンテンスを出力するようコンテンツ解析部6に依頼する。コンテンツ解析部6では、コンテンツ受信部5が受信したコンテンツ中に、状態判定部9から依頼のあった単語を含むセンテンスが存在するか否かを判断し、そのようなセンテンスが存在する場合には、そのセンテンスが優先して出力されるようにセンテンスの出力順序を決定する。これにより、コンテンツ出力部8は、そのセンテンスを優先して出力することができる。
Embodiment 4 FIG.
FIG. 8 shows an operation example of the browser device according to the fourth embodiment. Content analysis and normal output processing are the same as those up to the third embodiment.
In the present embodiment, the user outputs the next sentence including the word indicated in the user information, which is a word (word) included in the currently output sentence, for example, “next attention”. An operation request (non-output sentence output request) can be issued. When a request that can use user information is input in the form of “next attention”, the user request input unit 4 notifies the state determination unit 9 of the input. The state determination unit 9 searches for a word included in the currently output sentence and indicated in the user information, and outputs a non-output sentence including the word together with the searched word. To ask. The content analysis unit 6 determines whether or not there is a sentence including the word requested from the state determination unit 9 in the content received by the content reception unit 5, and if such a sentence exists, The sentence output order is determined so that the sentence is output with priority. As a result, the content output unit 8 can preferentially output the sentence.

図8は、「京阪ライダーズがダントツの優勝を」というセンテンスが出力されているときに、ユーザから未出力センテンス出力要求があった場合に、利用者情報に含まれている「京阪」の単語を含む未出力のセンテンス(「大阪を中心に京阪ファンは」とのセンテンス)を出力する例を示している。   FIG. 8 shows the word “Keihan” included in the user information when a sentence “Keihan Riders wins the championship” is output and a user requests a non-output sentence output. In this example, an unoutputted sentence including “sentence of“ Keihan fan is mainly in Osaka ”” is output.

以上のように、本実施の形態に係るブラウザ装置によれば、利用者情報に基づき、コンテンツに含まれる注目情報を元にしたブラウザ操作が行える。つまり、本実施の形態に係るブラウザ装置によれば、利用者が注目するであろう情報を優先的に出力することで利用者が望む情報を適切に出力することができる。   As described above, according to the browser device according to the present embodiment, a browser operation based on attention information included in content can be performed based on user information. That is, according to the browser device according to the present embodiment, it is possible to appropriately output information desired by the user by preferentially outputting information that the user will pay attention to.

実施の形態5.
図9は実施の形態5に係るブラウザ装置の基本構成を示すブロック図である。本実施の形態では、利用者からの操作を通して、利用者情報の編集を行う利用者情報編集部13(出力順序基準編集部)を備える。
Embodiment 5 FIG.
FIG. 9 is a block diagram showing the basic configuration of the browser device according to the fifth embodiment. In the present embodiment, a user information editing unit 13 (output order reference editing unit) that edits user information through an operation from the user is provided.

図10は利用者情報編集部13による利用者情報の編集の際の画面例を示したものである。本例では、画面には、図4で示したような利用者情報が表示されている。利用者は自分の意図しない単語が登録されている場合は、一覧画面から削除ボタンを押す事で単語の削除が行えたり、「追加」ボタンで注目する単語の登録が行えるようになっている。また、単語内容や頻度の修正も行える。利用者情報編集部13は、ユーザからの追加・削除・修正要求に基づき、利用者情報に対する編集を行う。本編集の結果は利用者情報として再度保存され、次回のコンテンツの出力の際には更新された情報が使用される。   FIG. 10 shows a screen example when the user information editing unit 13 edits user information. In this example, user information as shown in FIG. 4 is displayed on the screen. When a word that is not intended by the user is registered, the user can delete the word by pressing the delete button from the list screen, or can register the word of interest with the “add” button. You can also modify the word content and frequency. The user information editing unit 13 edits the user information based on the addition / deletion / correction request from the user. The result of this editing is saved again as user information, and the updated information is used for the next content output.

このように、本実施の形態に係るブラウザ装置によれば、利用者が注目するであろう情報を利用者によって確認し、編集することでより効果的に注目する情報の出力を行う事ができる。   As described above, according to the browser device according to the present embodiment, it is possible to output information to be noticed more effectively by confirming and editing the information that the user will pay attention to by editing the information. .

実施の形態6.
図11は実施の形態6に係るブラウザ装置において、記憶される利用者情報の例を示す説明図である。利用者情報は利用者情報生成部10による生成の際に、単語ごとのポイントとともに、どのWebページ/サイトにおいて使用されたのかというロケーション情報と合わせて生成される(図中、URLの列)。
コンテンツ解析部6は利用者情報を使用した解析処理を行う際に、利用者情報に記録されたロケーションと表示しようとするロケーションとが一致するかどうかを判定し、一致する場合にその利用者情報を使用することで、より精度の高いコンテンツの出力を行う事ができる。
Embodiment 6 FIG.
FIG. 11 is an explanatory diagram showing an example of user information stored in the browser device according to the sixth embodiment. When the user information is generated by the user information generation unit 10, the user information is generated together with the point information for each word and the location information indicating which Web page / site was used (URL column in the figure).
When the content analysis unit 6 performs analysis processing using user information, the content analysis unit 6 determines whether the location recorded in the user information matches the location to be displayed. By using, it is possible to output content with higher accuracy.

ここで、以上の実施の形態1〜6で説明したブラウザ装置の特徴を以下にて再言する。   Here, the features of the browser device described in the first to sixth embodiments will be described again below.

実施の形態1に係るブラウザ装置は、主に音声による操作・出力を可能としたWebブラウザにおいて、コンテンツ中の特定部分を切り出すことが可能で、利用者が意図した部分を繰り返し指定して再生可能であり、操作とコンテンツの内容から、利用者の興味に関する利用者情報を抽出・記録することを特徴とする。具体的には、コンテンツの内部を解析し、出力用の解析データを生成するコンテンツ解析部と、区分されたコンテンツをそれぞれ再生可能とするコンテンツ出力部と、区分されたコンテンツに対して指定でき、また繰り返し再生可能な操作部とを備える。さらに、どのコンテンツが選択されたのかを判断する状態判定部、選択されたセンテンスに含まれる単語情報を利用者情報として生成する利用者情報生成部とを備えることを特徴とする。   The browser device according to the first embodiment can cut out a specific part in content in a Web browser that can mainly be operated and output by voice, and can repeatedly reproduce a part intended by a user. It is characterized by extracting and recording user information related to the user's interest from the operation and the content. Specifically, a content analysis unit that analyzes the inside of the content and generates analysis data for output, a content output unit that can reproduce each divided content, and can be specified for the divided content, And an operation unit capable of repetitive reproduction. Furthermore, a state determination unit that determines which content has been selected and a user information generation unit that generates word information included in the selected sentence as user information are provided.

また、実施の形態2に係るブラウザ装置は、実施の形態1に加え、コンテンツ出力において特定の情報を強調して出力が行えることを特徴とする。   In addition to the first embodiment, the browser device according to the second embodiment is characterized in that specific information can be emphasized and output in content output.

また、実施の形態3に係るブラウザ装置は、実施の形態2に加え、利用者情報を利用して強調することを特徴とする。   In addition to the second embodiment, the browser device according to the third embodiment is characterized by emphasizing using user information.

また、実施の形態4に係るブラウザ装置は、実施の形態3に加え、利用者情報を利用してブラウズ操作対象を加えることを特徴とする。   In addition to the third embodiment, the browser device according to the fourth embodiment is characterized by adding a browse operation target using user information.

実施の形態5に係るブラウザ装置は、利用者情報の編集を行うための利用者情報編集部を備えることを特徴とする。   The browser device according to Embodiment 5 includes a user information editing unit for editing user information.

実施の形態6に係るブラウザ装置は、利用者情報をロケーション情報と組合せで管理することを特徴とする。   The browser device according to the sixth embodiment is characterized in that user information is managed in combination with location information.

本発明の実施の形態1の基本構成を示すブロック図。1 is a block diagram showing a basic configuration of a first embodiment of the present invention. 本発明の実施の形態1のコンテンツ解析の例を示す説明図。Explanatory drawing which shows the example of the content analysis of Embodiment 1 of this invention. 本発明の実施の形態1の利用者情報蓄積の処理手順を示す説明図。Explanatory drawing which shows the process sequence of accumulation | storage of user information of Embodiment 1 of this invention. 本発明の実施の形態1の利用者情報の例を示すブロック図。The block diagram which shows the example of the user information of Embodiment 1 of this invention. 本発明の実施の形態1の利用者情報を利用したコンテンツ解析の処理手順を示す説明図。Explanatory drawing which shows the process sequence of the content analysis using the user information of Embodiment 1 of this invention. 本発明の実施の形態2の読み上げ時の情報表示例を示す説明図。Explanatory drawing which shows the example of an information display at the time of reading-out of Embodiment 2 of this invention. 本発明の実施の形態3の情報表示例を示す説明図。Explanatory drawing which shows the example of information display of Embodiment 3 of this invention. 本発明の実施の形態4の操作例を示す説明図。Explanatory drawing which shows the operation example of Embodiment 4 of this invention. 本発明の実施の形態5の基本構成を示すブロック図。The block diagram which shows the basic composition of Embodiment 5 of this invention. 本発明の実施の形態5の操作の例を示す説明図。Explanatory drawing which shows the example of operation of Embodiment 5 of this invention. 本発明の実施の形態6の利用者情報編集画面の例を示す説明図。Explanatory drawing which shows the example of the user information edit screen of Embodiment 6 of this invention.

符号の説明Explanation of symbols

1 ブラウザ装置、2 ディスプレイ、3 音声出力部、4 ユーザ要求入力部、5 コンテンツ受信部、6 コンテンツ解析部、8 コンテンツ出力部、9 状態判定部、10 利用者情報生成部、11 解析情報記憶部、12 利用者情報記憶部、13 利用者情報編集部。   DESCRIPTION OF SYMBOLS 1 Browser apparatus, 2 Display, 3 Audio | voice output part, 4 User request | requirement input part, 5 Content receiving part, 6 Content analysis part, 8 Content output part, 9 State determination part, 10 User information generation part, 11 Analysis information storage part , 12 User information storage unit, 13 User information editing unit.

Claims (9)

少なくとも一つ以上のセンテンスを含むコンテンツを受信するコンテンツ受信部と、
コンテンツに含まれるセンテンスを所定の出力順序に従って出力するコンテンツ出力部と、
コンテンツを利用するユーザからのコンテンツ視聴操作要求を入力するユーザ要求入力部と、
前記ユーザ要求入力部により入力されたコンテンツ視聴操作要求の履歴に基づいて、センテンスの出力順序の決定に用いられる出力順序基準を生成する出力順序基準生成部と、
前記出力順序基準生成部により生成された出力順序基準を用いて、前記コンテンツ受信部により受信されたコンテンツに含まれる各センテンスの出力順序を決定する出力順序決定部とを有することを特徴とする情報処理装置。
A content receiver that receives content including at least one sentence;
A content output unit that outputs sentences included in the content according to a predetermined output order;
A user request input unit for inputting a content viewing operation request from a user who uses the content;
An output order reference generation unit that generates an output order reference used to determine the output order of sentences based on a history of content viewing operation requests input by the user request input unit;
An output order determining unit that determines an output order of each sentence included in the content received by the content receiving unit using the output order reference generated by the output order reference generating unit. Processing equipment.
前記ユーザ要求入力部は、
コンテンツ視聴操作要求として、前記コンテンツ受信部により受信されたコンテンツに含まれた特定のセンテンスの出力を繰り返すよう要求する出力リピート要求及び特定のセンテンスの出力をキャンセルするよう要求する出力キャンセル要求の少なくともいずれかを入力する場合があり、
前記出力順序基準生成部は、
出力リピート要求の履歴及び出力キャンセル要求の履歴の少なくともいずれかに基づいて、出力順序基準を生成することを特徴とする請求項1に記載の情報処理装置。
The user request input unit includes:
As a content viewing operation request, at least one of an output repeat request for requesting to repeat output of a specific sentence included in the content received by the content receiving unit and an output cancel request for requesting to cancel output of a specific sentence You may enter
The output order reference generation unit
The information processing apparatus according to claim 1, wherein an output order reference is generated based on at least one of an output repeat request history and an output cancel request history.
前記コンテンツ受信部は、
センテンスに少なくとも一つ以上のワードを含むコンテンツを受信し、
前記出力順序基準生成部は、
出力リピート要求及び出力キャンセル要求のいずれかが入力された場合に、出力リピート要求及び出力キャンセル要求のいずれかの対象とされたセンテンスに含まれるワードを抽出し、ワードの抽出頻度に応じてワードごとに評価値を設定し、ワードごとの評価値を示す出力順序基準を生成し、
前記出力順序決定部は、
前記コンテンツ受信部により受信されたコンテンツに含まれたセンテンスについて、各センテンスに含まれるワードと出力順序基準に示されたワードごとの評価値とを比較して、各センテンスの出力順序を決定することを特徴とする請求項2に記載の情報処理装置。
The content receiver is
Receive content that contains at least one word in the sentence,
The output order reference generation unit
When either an output repeat request or an output cancel request is input, the words included in the sentence that is the target of either the output repeat request or the output cancel request are extracted, and each word is selected according to the word extraction frequency. Set the evaluation value to, generate an output order criterion that shows the evaluation value for each word,
The output order determination unit includes:
For the sentence included in the content received by the content receiver, the word included in each sentence is compared with the evaluation value for each word indicated in the output order criterion to determine the output order of each sentence. The information processing apparatus according to claim 2.
前記コンテンツ出力部は、
センテンスの出力としてセンテンスの表示及び音声出力を同時に行うことができ、音声出力されている部分に対して所定の強調表示を行うことを特徴とする請求項1に記載の情報処理装置。
The content output unit
The information processing apparatus according to claim 1, wherein a sentence display and a voice output can be simultaneously performed as a sentence output, and a predetermined emphasis display is performed on a portion where the voice is output.
前記コンテンツ出力部は、
センテンスの出力の際に、出力順序基準に評価値が示されているワードに対して所定の強調表示を行うことを特徴とする請求項3に記載の情報処理装置。
The content output unit
4. The information processing apparatus according to claim 3, wherein, when outputting a sentence, predetermined highlighting is performed on a word whose evaluation value is indicated in an output order criterion.
前記ユーザ要求入力部は、
コンテンツ視聴操作要求として、前記コンテンツ出力部が出力中のセンテンスに含まれるワードであって出力順序基準に評価値が示されているワードが含まれる未出力のセンテンスを出力するよう要求する未出力センテンス出力要求を入力する場合があり、
前記出力順序決定部は、
未出力センテンス出力要求が入力された場合に、前記コンテンツ出力部が出力中のセンテンスに含まれるワードであって出力順序基準に評価値が設定されているワードが含まれる未出力のセンテンスを前記コンテンツ受信部が受信したコンテンツの中から抽出し、抽出した未出力のセンテンスの出力を優先させて各センテンスの出力順序を決定することを特徴とする請求項3に記載の情報処理装置。
The user request input unit includes:
As a content viewing operation request, a non-output sentence that requests that the content output unit output a non-output sentence that includes a word that is included in the sentence that is being output and whose evaluation value is indicated in the output order criterion You may enter an output request,
The output order determination unit includes:
When a non-output sentence output request is input, the content output unit outputs a non-output sentence that includes a word that is included in the sentence that is being output and has an evaluation value set in the output order criterion. 4. The information processing apparatus according to claim 3, wherein the receiving unit extracts contents received from the content and prioritizes the output of the extracted unoutputted sentences to determine the output order of the sentences.
前記情報処理装置は、更に、
コンテンツのユーザからの指示に基づき、前記出力順序基準生成部により生成された出力順序基準を編集する出力順序基準編集部を有することを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus further includes:
The information processing apparatus according to claim 1, further comprising: an output order reference editing unit that edits the output order reference generated by the output order reference generation unit based on an instruction from a user of content.
前記出力順序基準生成部は、
ワードごとの評価値と、ワードの抽出元のセンテンスの識別情報とを示す出力順序基準を生成することを特徴とする請求項3に記載の情報処理装置。
The output order reference generation unit
4. The information processing apparatus according to claim 3, wherein an output order reference indicating an evaluation value for each word and identification information of a sentence from which a word is extracted is generated.
少なくとも一つ以上のセンテンスを含むコンテンツを受信するコンテンツ受信ステップと、
コンテンツに含まれるセンテンスを所定の出力順序に従って出力するコンテンツ出力ステップと、
コンテンツを利用するユーザからのコンテンツ視聴操作要求を入力するユーザ要求入力ステップと、
前記ユーザ要求入力ステップにより入力されたコンテンツ視聴操作要求の履歴に基づいて、センテンスの出力順序の決定に用いられる出力順序基準を生成する出力順序基準生成ステップと、
前記出力順序基準生成ステップにより生成された出力順序基準を用いて、前記コンテンツ受信ステップにより受信されたコンテンツに含まれる各センテンスの出力順序を決定する出力順序決定ステップとを有することを特徴とする情報処理方法。
A content receiving step of receiving content including at least one sentence;
A content output step of outputting sentences included in the content according to a predetermined output order;
A user request input step for inputting a content viewing operation request from a user who uses the content;
An output order reference generation step for generating an output order reference used to determine the output order of sentences based on the history of content viewing operation requests input in the user request input step;
An output order determining step for determining an output order of each sentence included in the content received by the content receiving step using the output order reference generated by the output order reference generating step. Processing method.
JP2003417815A 2003-12-16 2003-12-16 Information processor and information processing method Pending JP2005182127A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003417815A JP2005182127A (en) 2003-12-16 2003-12-16 Information processor and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003417815A JP2005182127A (en) 2003-12-16 2003-12-16 Information processor and information processing method

Publications (1)

Publication Number Publication Date
JP2005182127A true JP2005182127A (en) 2005-07-07

Family

ID=34780200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003417815A Pending JP2005182127A (en) 2003-12-16 2003-12-16 Information processor and information processing method

Country Status (1)

Country Link
JP (1) JP2005182127A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011002982A (en) * 2009-06-18 2011-01-06 Yahoo Japan Corp Content providing device, content providing method and content providing program
JP2020201615A (en) * 2019-06-07 2020-12-17 株式会社日本経済新聞社 Information providing device, information providing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011002982A (en) * 2009-06-18 2011-01-06 Yahoo Japan Corp Content providing device, content providing method and content providing program
JP2020201615A (en) * 2019-06-07 2020-12-17 株式会社日本経済新聞社 Information providing device, information providing method, and program

Similar Documents

Publication Publication Date Title
CA2372544C (en) Information access method, information access system and program therefor
US8589169B2 (en) System and method for creating audio files
JP2007264792A (en) Voice browser program
US20080244381A1 (en) Document processing for mobile devices
JP2006244296A (en) Reading file creation device, link reading device, and program
US20070157081A1 (en) Browser with screen-reading function and browsing processing method
US20090150787A1 (en) Data processing device
KR20060015494A (en) Content creation system, content creation method, computer-executable program for executing the content creation method, computer-readable recording medium containing the program, graphical user interface system, and display control method
JP4771915B2 (en) Apparatus, method, and program for converting HTML text
JP2011028747A (en) System and method for generating search term
JP2005190338A (en) Device and method for information extraction
US20040103374A1 (en) Function extension type browser, browser component, program and recording medium
KR100491613B1 (en) Device and method for close-up web document having frame and and recording the method
JP4592719B2 (en) Digest content display device and program thereof
US6049795A (en) Application program starting method, recording medium on which said computer program is recorded, and computer system
JP2005182127A (en) Information processor and information processing method
JP2010108268A (en) Document processing apparatus
JP5338298B2 (en) Page browsing device and program
JP4885678B2 (en) Content creation apparatus and content creation method
JP4634461B2 (en) Document text-to-speech processing program and document browsing device
JP3237619B2 (en) Document display device, document display method, and recording medium recording document display program
JP5223293B2 (en) POSITION EXPRESSION EXTRACTION DEVICE, METHOD, AND PROGRAM
JP2812357B2 (en) Database search system
JP2006277090A (en) Web page processing program
JP2005242720A (en) Database retrieval method apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090507

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090908