JP5340059B2 - Character information presentation control device and program - Google Patents

Character information presentation control device and program Download PDF

Info

Publication number
JP5340059B2
JP5340059B2 JP2009158781A JP2009158781A JP5340059B2 JP 5340059 B2 JP5340059 B2 JP 5340059B2 JP 2009158781 A JP2009158781 A JP 2009158781A JP 2009158781 A JP2009158781 A JP 2009158781A JP 5340059 B2 JP5340059 B2 JP 5340059B2
Authority
JP
Japan
Prior art keywords
character information
character
unit
information presentation
presentation control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009158781A
Other languages
Japanese (ja)
Other versions
JP2011013542A (en
Inventor
崇史 深谷
真一 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2009158781A priority Critical patent/JP5340059B2/en
Publication of JP2011013542A publication Critical patent/JP2011013542A/en
Application granted granted Critical
Publication of JP5340059B2 publication Critical patent/JP5340059B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、文字情報提示制御装置及びプログラムに関し、特に、文字情報を視認する者に対し、視線を必要以上に移動させることのない形態で文字情報を提示する技術に関する。   The present invention relates to a character information presentation control apparatus and program, and more particularly to a technique for presenting character information in a form that does not move the line of sight more than necessary to a person who visually recognizes character information.

従来、画面表示された文字情報を視認する者(視認者)に対し、文字情報を容易に読むことができるように、表示形態を工夫して文字情報を提示する装置が知られている(特許文献1を参照)。この装置は、発話者の音声信号を入力し、音声信号を文字情報に変換すると共に、発話音声の音量及び音調を測定し、音量の大小及び音調の高低を文字情報の形態に反映して表示するものである。これにより、文字情報を見た視認者は、文字情報の形態により、発話者の感情等を視覚的に理解することができる。このように、表示形態を工夫した文字情報を提示することによって、文字情報の形態に反映した意味合いを視認者へ伝えることができる。   2. Description of the Related Art Conventionally, there is known an apparatus that presents character information by devising a display form so that character information can be easily read for a person who visually recognizes character information displayed on the screen (viewer) (Patent) Reference 1). This device inputs the voice signal of the speaker, converts the voice signal into character information, measures the volume and tone of the uttered voice, and displays the volume level and tone level in the form of character information. To do. Thereby, the viewer who saw the character information can visually understand the emotion of the speaker by the form of the character information. In this way, by presenting the character information with a devised display form, it is possible to convey the meaning reflected in the form of the character information to the viewer.

一方、テレビ番組、映画、教育、啓蒙等を目的とした映像制作において、アナウンサー、役者、教師、政治家等の発話者が、文字情報を見ながら撮影カメラに向かって発話をする際に、発話者に対して文字情報を提示する手法が知られている。例えば、カンペを用いる手法がある。この手法は、撮影カメラのレンズ付近でスタッフが持つスケッチブック等に書かれた文字情報を発話者へ提示するものである(非特許文献1,2を参照)。さらに、撮影カメラのレンズ付近に設置された表示装置によって、文字情報を発話者へ提示するものもある(特許文献2を参照)。   On the other hand, in video production for TV programs, movies, education, enlightenment, etc., when an utterer such as an announcer, actor, teacher, or politician speaks to the camera while watching text information A method for presenting character information to a person is known. For example, there is a method using a campaign. This method presents text information written in a sketch book or the like held by the staff near the lens of the photographing camera to the speaker (see Non-Patent Documents 1 and 2). Furthermore, there is a display device that presents character information to a speaker by a display device installed near the lens of the photographing camera (see Patent Document 2).

また、プロンプタを用いて発話者へ文字情報を提示する手法がある。この手法は、発話者へ提示する文字情報を、撮影カメラのレンズの前(発話者側)に設けられたハーフミラーに、表示装置を介して投影することにより、文字情報を発話者へ提示しつつ、ハーフミラーの透過によって発話者の撮影を行うものである(特許文献3を参照)。また、プロンプタを用いる手法において、光の透過状態を電気的に制御可能なスクリーンを用い、透過または非透過状態に応じて撮影または表示を時分割的に実行する装置が提案されている(特許文献4,5を参照)。これにより、文字情報を発話者へ提示しながら、スクリーンの透過によって発話者の撮影を行うことができる。   There is also a technique for presenting character information to a speaker using a prompter. This method presents text information to the speaker by projecting the text information to be presented to the speaker to a half mirror provided in front of the lens of the photographing camera (speaker side) via a display device. On the other hand, a speaker is photographed by transmission through a half mirror (see Patent Document 3). In addition, in a method using a prompter, there has been proposed a device that uses a screen that can electrically control the transmission state of light and that performs shooting or display in a time-sharing manner according to the transmission or non-transmission state (Patent Document). 4 and 5). As a result, it is possible to photograph the speaker by transmitting the screen while presenting the character information to the speaker.

また、音声認識を利用して文字情報を提示する手法もある(特許文献6,7,8を参照)。特許文献6の文字情報提示手法は、プレゼンテーション用画面の文字列に効果を加えるものである。特許文献7の文字情報提示手法は、音声認識による情報提示装置の操作に関するものである。特許文献8の文字情報提示手法は、音声認識による字幕及び画面の表示速度を制御するものである。   There is also a method of presenting character information using speech recognition (see Patent Documents 6, 7, and 8). The character information presentation method of Patent Document 6 adds an effect to a character string on a presentation screen. The character information presentation method of Patent Document 7 relates to the operation of the information presentation device by voice recognition. The character information presentation method of Patent Document 8 controls the display speed of subtitles and screens by voice recognition.

特開2005−274791号公報JP 2005-274791 A 特許第3478308号公報Japanese Patent No. 3478308 特許第3566998号公報Japanese Patent No. 3565998 特開平4−96581号公報Japanese Patent Laid-Open No. 4-96581 特開平4−11485号公報JP-A-4-11485 特開2005−208292号公報JP 2005-208292 A 特開平11−184671号公報JP-A-11-184671 特開2003−29779号公報JP 2003-29779 A

“フリー百科事典「ウィキペディア(Wikipedia)」”、[online]、[平成21年6月8日検索]、インターネット<URL:http://ja.wikipedia.org/wiki/カンペ>“Free encyclopedia“ Wikipedia ””, [online], [searched June 8, 2009], Internet <URL: http://en.wikipedia.org/wiki/campe> “映像業界用語辞典”、[online]、[平成21年6月8日検索]、インターネット<URL:http://www.geocities.jp/amukoris/dictionary01aka.htm#ka>“Video Industry Glossary”, [online], [Search June 8, 2009], Internet <URL: http://www.geocities.jp/amukoris/dictionary01aka.htm#ka>

前述の特許文献1による文字情報提示制御装置は、発話者の感情等を文字情報の形態に反映することにより、発話者の感情等を視認者へ視覚的に伝えるものである。しかしながら、視認者へ提示される文字情報は画面の左から右へかつ上から下へ向けて表示されるため、視認者が文字情報を認識するには、文字情報の位置に応じて視線を左右上下に移動させる必要があった。   The character information presentation control device according to Patent Document 1 described above visually conveys the speaker's emotion and the like to the viewer by reflecting the speaker's emotion and the like in the form of the character information. However, since the character information presented to the viewer is displayed from the left to the right and from the top to the bottom of the screen, in order for the viewer to recognize the character information, the line of sight depends on the position of the character information. It was necessary to move up and down.

また、映像制作を目的とした文字情報を提示する手法において、カンペを用いる手法では、カンペが撮影カメラのレンズ付近に設置されるため、発話者が文字情報を視認する際に、発話者の視線が撮影カメラの光軸からずれてしまい、撮影された発話者の視線が不自然になるという問題があった。また、カンペに書かれた文字が手書きの場合には、その文字が読み難く、読み誤ってしまう場合もあるという問題があった。さらに、撮影カメラ付近は照明の光量が少なく暗いのが通常であるから、カンペに書かれた文字が読み難いという問題もあった。特許文献2による表示装置を用いた手法においても同様に、発話者が文字情報を視認する際に、視線がずれてしまい不自然になるという問題があった。   Also, in the method of presenting text information for the purpose of video production, in the method using a campaign, the campaign is placed near the lens of the camera, so that the speaker's line of sight is visible when the speaker visually recognizes the text information. However, there is a problem that the line of sight of the photographed speaker becomes unnatural. In addition, when the characters written on the campaign are handwritten, the characters are difficult to read and may be misread. In addition, there is a problem that it is difficult to read the characters written on the campaign because the vicinity of the photographic camera is usually dark with little light. Similarly, in the method using the display device according to Patent Document 2, when the speaker visually recognizes the character information, there is a problem that the line of sight is shifted and becomes unnatural.

また、特許文献3のプロンプタを用いる手法では、発話者が読み上げる手元の原稿を、発話者の上方に設置したプロンプタ用カメラで撮影し、プロンプタ用カメラが捉えた手元原稿の映像を、撮影カメラのレンズの前に設置したハーフミラーで反射し、撮影レンズの光軸上に表示する。しかしながら、発話者が読み上げる原稿は、縦書きまたは横書き等の様々な書式により構成されているから、原稿を読んでいる発話者の視線は、その書式に従って配置された文字を追ってしまう。このため、発話者の視線の動きが撮影カメラに映ってしまい、発話者の視線が不自然になるという問題があった。また、発話者が読み上げる原稿は机の上等に固定されている必要があるが、立った状態の発話者は原稿を固定することができないため、立った状態の発話者に対してプロンプタを用いることは困難であった。   Further, in the method using the prompter of Patent Document 3, a hand manuscript read by a speaker is photographed by a prompter camera installed above the speaker, and an image of the hand manuscript captured by the prompter camera is captured by the photographing camera. Reflected by a half mirror installed in front of the lens and displayed on the optical axis of the taking lens. However, since the manuscript read by the speaker is composed of various formats such as vertical writing or horizontal writing, the line of sight of the speaker reading the manuscript follows characters arranged according to the format. For this reason, there has been a problem that the movement of the line of sight of the speaker is reflected on the photographing camera and the line of sight of the speaker becomes unnatural. In addition, the manuscript read by the speaker needs to be fixed on the desk or the like, but since a standing speaker cannot fix the manuscript, a prompter is used for a standing speaker. It was difficult.

特許文献4,5の装置を用いる手法も、特許文献3のプロンプタを用いる手法と同様に、表示される文字情報は、画面内の平面にレイアウトされるから、原稿を読んでいる発話者の視線は文字を追ってしまい、発話者の視線が不自然になるという問題があった。また、特許文献4,5の装置では、スクリーンの透過性が時間的に制御されるから、表示画像の投影が間欠的になり、表示画像が暗くなるという間題があった。さらに、投影装置を設置したり、スクリーン面からの反射光を防ぐために遮光処置を施したりする必要があるから、全体として装置が大きくなるという問題もあった。   Similarly to the method using the prompter of Patent Document 3 in the methods using the devices of Patent Documents 4 and 5, the displayed character information is laid out on a plane in the screen, so that the line of sight of the speaker reading the manuscript is read. Had the problem of chasing characters and making the speaker's gaze unnatural. Further, in the apparatuses of Patent Documents 4 and 5, since the transparency of the screen is temporally controlled, there is a problem that the display image is projected intermittently and the display image becomes dark. Furthermore, since it is necessary to install a projection apparatus or to perform a light shielding treatment to prevent reflected light from the screen surface, there is a problem that the apparatus becomes large as a whole.

特許文献6の手法は、多数の人が見るためのプレゼンテーション用画面の文字情報に対し、発話に基づいて予定の効果を加えるものである。これに対し、本発明は、文字情報を視認する者に対し、視線を必要以上に移動させることのない形態で文字情報を提示するものである。したがって、特許文献6の手法は、視線の移動を最小限に抑えるという目的を達成するものではないという点で、本発明とは基本的に異なる。   The method of Patent Document 6 adds a scheduled effect based on an utterance to character information on a presentation screen for viewing by many people. On the other hand, the present invention presents character information in a form that does not move the line of sight more than necessary to a person who visually recognizes the character information. Therefore, the method of Patent Document 6 is basically different from the present invention in that it does not achieve the purpose of minimizing the movement of the line of sight.

特許文献7の手法は、ユーザの音声を用いたユーザインタフェースに関するものであるから、本発明とは基本的に異なる。また、特許文献8の手法は、発話者の音声認識を利用した文字情報の再生制御に関するものであり、発話者の発声により制御された画面を、発話者及び第三者に提示するものである。したがって、この手法も、本発明とは基本的に異なる。   Since the technique of Patent Document 7 relates to a user interface using a user's voice, it is basically different from the present invention. The technique of Patent Document 8 relates to the reproduction control of character information using the speech recognition of the speaker, and presents the screen controlled by the speaker's speech to the speaker and a third party. . Therefore, this method is also fundamentally different from the present invention.

そこで、本発明は前記課題を解決するためになされたものであり、その目的は、文字情報を視認する者の視線移動が少なく、かつ文字情報の視認性を向上させることが可能な文字情報提示制御装置及びプログラムを提供することにある。また、その目的は、発話者の映像制作において、発話者の視線移動が少なく、かつ、発話者の発話タイミングに合った文字情報を提示可能な文字情報提示制御装置及びプログラムを提供することにある。   Accordingly, the present invention has been made to solve the above-described problems, and the object thereof is to present character information that can reduce the line-of-sight movement of a person who visually recognizes character information and can improve the visibility of character information. To provide a control device and a program. It is another object of the present invention to provide a character information presentation control apparatus and program capable of presenting character information suitable for the utterance timing of the utterer with little movement of the sightline of the speaker in video production of the utterer. .

本発明では、前記課題を解決するために以下の構成に係るものとした。請求項1の発明は、文字情報を仮想空間内に配置し画面表示してユーザへ提示するための制御を行う文字情報提示制御装置において、前記文字情報を分割し、文節毎の分割データを生成する文字情報分割部と、前記文字情報分割部により分割された分割データを、所定単位の文字グループとして設定し、前記文字グループ単位に、前記文字グループ単位の文字情報からモーラ数を算出し、前記モーラ数に基づいて、連続した文字グループの間隔を設定し、前記ユーザから見て画面中央における仮想空間内の奥側から手前側へ向けて、前記文字グループ単位の文字情報をセンタリングし所定速度及び前記間隔にて順次スクロールさせ、前記中央の奥側から新たな文字グループを出現させ、前記手前側へ向けてスクロールさせた後に、前記文字グループを消失させる文字情報提示部を備えたことを特徴とする。 In the present invention, in order to solve the above-described problems, the following configuration is adopted. According to the first aspect of the present invention, in the character information presentation control device that controls the character information to be arranged in the virtual space, displayed on the screen, and presented to the user, the character information is divided to generate divided data for each phrase. The character information dividing unit to be divided, and the divided data divided by the character information dividing unit are set as a character group of a predetermined unit, and the number of mora is calculated from the character information of the character group unit for the character group unit, Based on the number of mora, an interval between consecutive character groups is set, and character information for each character group is centered from the back side to the near side in the virtual space at the center of the screen when viewed from the user , and a predetermined speed and After sequentially scrolling at the intervals, a new character group appears from the back side of the center, and the character group is scrolled toward the front side. Characterized by comprising character information presentation unit to eliminate the-loop.

また、請求項2の発明は、請求項1に記載の文字情報提示制御装置において、前記文字情報提示部が、前記文字グループ単位の文字情報を、前記文字グループの前後において重ねて表示するように提示し、かつ、奥側に位置する文字情報が透過するような文字表示率にて提示することを特徴とする。   In the character information presentation control device according to claim 1, the character information presentation unit may display the character information in units of character groups in a superimposed manner before and after the character group. It is presented and presented at a character display rate so that character information located on the back side is transmitted.

また、請求項3の発明は、請求項2に記載の文字情報提示制御装置において、前記文字表示率が、手前側から奥側へ向けて、0%から徐々に増加し、100%よりも低い所定の最大値に到達し、徐々に減少して0%に到達するように設定されていることを特徴とする。   The character information presentation control device according to claim 2 is characterized in that the character display rate gradually increases from 0% toward the back side and is lower than 100%. It is set to reach a predetermined maximum value and gradually decrease to reach 0%.

また、請求項の発明は、請求項1からまでのいずれか一項に記載の文字情報提示制御装置において、前記文字情報提示部が、前記文字グループの終わりが句読点である場合に、前記文字グループの先頭に空白を挿入して新たな文字グループを生成し、前記新たな文字グループに対してセンタリングを行うことを特徴とする。 Further, the invention of claim 4 is the character information presentation control device according to any one of claims 1 to 3 , wherein the character information presentation unit, when the end of the character group is a punctuation mark, A new character group is generated by inserting a blank at the beginning of the character group, and centering is performed on the new character group.

また、請求項の発明は、請求項1から4までのいずれか一項に記載の文字情報提示制御装置において、さらに、単語と前記単語のモーラ数とが記憶されたモーラ辞書を備え、前記文字情報提示部が、前記文字情報に含まれる単語のモーラ数を算出し、前記単語及びモーラ数を前記モーラ辞書に登録することを特徴とする。 The invention according to claim 5 is the character information presentation control device according to any one of claims 1 to 4 , further comprising a mora dictionary in which a word and the number of mora of the word are stored, The character information presentation unit calculates the number of mora of words included in the character information, and registers the word and the number of mora in the mora dictionary.

また、請求項の発明は、請求項1からまでのいずれか一項に記載の文字情報提示制御装置において、さらに、前記ユーザのキー操作に従って、始動制御信号を出力する操作入力部を備え、前記文字情報提示部が、前記操作入力部から始動制御信号を入力し、前記始動制御信号の入力タイミングにて前記スクロールを開始し、前記文字情報の所定位置にて前記スクロールを停止することを特徴とする。 Further, the invention of claim 6 is the character information presentation control device according to any one of claims 1 to 5 , further comprising an operation input unit for outputting a start control signal in accordance with the key operation of the user. The character information presentation unit inputs a start control signal from the operation input unit, starts the scroll at the input timing of the start control signal, and stops the scroll at a predetermined position of the character information. Features.

また、請求項の発明は、請求項1からまでのいずれか一項に記載の文字情報提示制御装置において、さらに、前記ユーザのキー操作に従って、開始及び停止の始動制御信号をそれぞれ出力する操作入力部を備え、前記文字情報提示部が、前記操作入力部から始動制御信号を入力し、前記始動制御信号が開始の信号の場合、前記スクロールを開始し、前記始動制御信号が停止の信号の場合、前記スクロールを停止することを特徴とする。 Further, the invention according to claim 7 is the character information presentation control device according to any one of claims 1 to 5 , and further outputs start and stop start control signals according to the user's key operations, respectively. An operation input unit, wherein the character information presentation unit inputs a start control signal from the operation input unit, and when the start control signal is a start signal, the scrolling is started, and the start control signal is a stop signal In this case, the scrolling is stopped.

また、請求項の発明は、請求項1からまでのいずれか一項に記載の文字情報提示制御装置において、前記ユーザを、前記文字情報を読み上げる発話者とし、さらに、前記発話者による発話の音声信号を単語列に変換し、前記単語列に基づいて、前記文字情報における発話の進捗に応じた始動制御信号を出力する始動制御部を備え、前記文字情報提示部が、前記始動制御部から始動制御信号を入力し、前記始動制御信号の入力タイミングにて前記文字グループ単位のスクロールを開始し、前記文字情報の所定位置にて前記スクロールを停止することを特徴とする。 The invention according to claim 8 is the character information presentation control device according to any one of claims 1 to 5 , wherein the user is a speaker who reads out the character information, and further, the speech by the speaker And a start control unit that outputs a start control signal according to the progress of the utterance in the character information based on the word sequence, and the character information presenting unit includes the start control unit A start control signal is input, scrolling for each character group is started at the input timing of the start control signal, and the scroll is stopped at a predetermined position of the character information.

また、請求項の発明は、請求項に記載の文字情報提示制御装置において、前記始動制御部が、前記発話者による発話の音声信号と、予め記録された音声周波数パターンとの間で周波数マッチングを行い、予め記憶された単語の辞書を用いて、前記音声信号を単語列に変換する音声認識手段と、前記音声認識手段により変換された単語列と、前記文字情報を構成する単語列とに基づいて、前記文字情報を構成する複数の文字グループのうちの、一文を構成する連続した文字グループの始まりが、前記発話者により発話されたことを判定した場合、前記始動制御信号を出力する動作判定手段とを備え、前記文字情報提示部が、前記一文毎に、前記スクロールを行い、前記始動制御部から始動制御信号を入力したタイミングにて、前記一文についてスクロールを開始し、次の一文を構成する連続した文字グループの始まりが前記画面の手前側に表示され、その次の文字グループが前記奥側へ向けてそれぞれ表示されたときに、前記スクロールを停止することを特徴とする。 Further, the invention of claim 9 is the character information presentation control device according to claim 8 , wherein the start control unit has a frequency between an audio signal of an utterance by the speaker and an audio frequency pattern recorded in advance. Matching and using a word dictionary stored in advance, speech recognition means for converting the speech signal into a word string, a word string converted by the speech recognition means, and a word string constituting the character information, The start control signal is output when it is determined that the start of a continuous character group constituting one sentence among the plurality of character groups constituting the character information is uttered by the speaker Action determining means, and the character information presenting section performs the scrolling for each sentence and inputs the start control signal from the start control section. Scrolling is started, and when the beginning of the continuous character group constituting the next sentence is displayed on the front side of the screen, and the next character group is displayed toward the back side, the scrolling is performed. It is characterized by stopping.

また、請求項10の発明は、請求項に記載の文字情報提示制御装置において、前記一文がその終わりに句点を有することを特徴とする。 The invention according to claim 10 is the character information presentation control device according to claim 9 , wherein the one sentence has a punctuation mark at the end thereof.

また、請求項11の発明は、請求項に記載の文字情報提示制御装置において、前記スクロールを停止したときに表示されている文字グループの数は、前記発話者が前記表示されている文字グループの読み上げを開始してから前記表示されている全ての文字グループの読み上げを完了する前に次のスクロールを開始するように、前記読み上げの開始から次のスクロールの開始までの間の遅延時間に応じた数とすることを特徴とする。 Further, the invention of claim 11 is the character information presentation control device according to claim 8 , wherein the number of character groups displayed when the scrolling is stopped is the number of character groups displayed by the speaker. Depending on the delay time from the start of the reading to the start of the next scroll, so that the next scrolling is started before the reading of all the displayed character groups is completed. It is characterized by a number.

また、請求項12の発明は、コンピュータを、請求項1から11までのいずれか一項に記載の文字情報提示制御装置として機能させるための文字情報提示制御プログラムであることを特徴とする。 The invention of claim 12 is a character information presentation control program for causing a computer to function as the character information presentation control device according to any one of claims 1 to 11 .

本発明によれば、文字グループ単位の文字情報をセンタリングし、所定速度及び所定間隔にて順次スクロール表示し、画面中央の奥側から新たな文字グループを出現させ、手前側へ向けてスクロール表示した後に、その文字グループを消失させるようにした。これにより、文字情報を視認する者の視線移動が少なく、かつ文字情報の視認性を向上させることが可能となる。   According to the present invention, character information in units of character groups is centered, sequentially scroll-displayed at a predetermined speed and a predetermined interval, a new character group appears from the back side in the center of the screen, and scroll-displayed toward the front side. Later, the character group disappeared. Thereby, it is possible to reduce the line-of-sight movement of the person viewing the character information and improve the visibility of the character information.

また、本発明によれば、発話者による発話の音声信号を単語列に変換し、単語列から発話の進捗を求めて始動制御信号を生成し、始動制御信号のタイミングにて文字グループ単位のスクロール表示を開始し、文字情報の所定位置にてスクロール表示を停止するようにした。これにより、発話者の映像制作において、発話者の視線移動が少なく、かつ、発話者の発話タイミングに合った文字情報を提示することが可能となる。   Further, according to the present invention, the voice signal of the utterance by the speaker is converted into a word string, and the start control signal is generated from the word string to determine the progress of the utterance. The display is started and the scroll display is stopped at a predetermined position of the character information. As a result, in the video production of the speaker, it is possible to present character information suitable for the speaker's speech timing with little movement of the speaker's line of sight.

実施例1の文字情報提示制御装置を備えた携帯型情報端末の使用形態の例を説明する図である。It is a figure explaining the example of the usage condition of a portable information terminal provided with the character information presentation control apparatus of Example 1. FIG. 実施例1の文字情報提示制御装置を含む携帯型情報端末の構成を示すブロック図である。It is a block diagram which shows the structure of the portable information terminal containing the character information presentation control apparatus of Example 1. FIG. 実施例1の文字情報提示処理を説明するフローチャートである。It is a flowchart explaining the character information presentation process of Example 1. FIG. 実施例1の文字情報提示制御を説明するフローチャートである。It is a flowchart explaining the character information presentation control of Example 1. FIG. 文字情報の例を示す図である。It is a figure which shows the example of character information. 分割データの例を示す図である。It is a figure which shows the example of division | segmentation data. 文字グループの例を示す図である。It is a figure which shows the example of a character group. 仮想空間における文字グループと仮想カメラとの間の位置関係を示す図である。It is a figure which shows the positional relationship between the character group and virtual camera in virtual space. 文字グループの間隔及び文字表示率を示す図である。It is a figure which shows the space | interval of a character group, and a character display rate. 文字情報の提示例を示す図である。It is a figure which shows the example of presentation of character information. 実施例2の文字情報提示制御装置を用いて撮影を行う際の使用形態の例を説明する図である。It is a figure explaining the example of the usage pattern at the time of imaging | photography using the character information presentation control apparatus of Example 2. FIG. 実施例2の文字情報提示制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the character information presentation control apparatus of Example 2. FIG. 実施例2の文字情報提示処理を説明するフローチャートである。It is a flowchart explaining the character information presentation process of Example 2. 実施例2の文字情報提示制御を説明するフローチャートである。It is a flowchart explaining the character information presentation control of Example 2. 音声認識手段の構成を示すブロック図である。It is a block diagram which shows the structure of a speech recognition means. 発声、音声認識及び文字情報提示の時間関係を説明する図である。It is a figure explaining the time relationship of utterance, speech recognition, and character information presentation.

以下、本発明を実施するための形態について図面を用いて詳細に説明する。実施例1は、撮影を目的としない状況下で用いる文字情報提示制御装置において、ユーザの操作に従って、所定の文字グループ単位の文字情報をセンタリングし、所定サイズ、間隔、速度及び文字表示率にて、画面中央の奥側から手前側へ向けて連続してスクロール表示するものである。これにより、文字情報を視認する者は、センタリングされた文字情報を、所定の文字グループ単位に、画面中央の奥側から手前側への移動に伴って順番に認識することができるから、視線移動が少なくて済み、文字情報の視認性を向上させることができる。また、実施例2は、撮影を目的とする状況下で用いる文字情報提示制御装置において、実施例1と同様の形態で文字情報をスクロール表示することに加え、原稿を読み上げている発話者の読み上げ進捗タイミングに合わせて、発話の区切りに相当する一文単位に原稿の文字情報を表示するものである。これにより、発話者の視線移動が少なくなり、かつ、発話者の発話タイミングに合った文字情報を提示することができる。以下、実施例1,2について詳細に説明する。以下、文字情報とは、ユーザにより視認される文字、または発話者により発話される文字であり、句読点や記号を含む文字により構成される情報を意味する。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. In the character information presentation control apparatus used in a situation not intended for shooting, the character information is centered on a predetermined character group unit according to a user operation, and the first embodiment has a predetermined size, interval, speed, and character display rate. The screen is continuously scrolled from the back side to the front side in the center of the screen. As a result, the person who visually recognizes the character information can recognize the centered character information in units of a predetermined character group in order as it moves from the back side to the near side in the center of the screen. Therefore, the visibility of character information can be improved. Further, in the second embodiment, in the character information presentation control apparatus used in a situation where photographing is intended, the character information is scroll-displayed in the same manner as in the first embodiment, and the reading of the speaker who reads the document is read out. In accordance with the progress timing, the character information of the manuscript is displayed in one sentence unit corresponding to the utterance break. Thereby, the gaze movement of the speaker is reduced, and the character information suitable for the speaker's utterance timing can be presented. Hereinafter, Examples 1 and 2 will be described in detail. Hereinafter, the character information is a character that is visually recognized by the user or a character that is uttered by the speaker, and means information that includes characters including punctuation marks and symbols.

〔実施例1〕
まず、実施例1について説明する。実施例1の文字情報提示制御装置は、撮影を目的としない状況において文字情報を提示する装置であり、ユーザの操作に従って提示される全体の文字情報を所定の文字グループ単位の文字情報に区分してセンタリングし、所定サイズ、間隔、速度及び文字表示率にて、文字グループ単位に画面中央の奥側から手前側へ向けてスクロール表示する機能を有する。
[Example 1]
First, Example 1 will be described. The character information presentation control device according to the first embodiment is a device that presents character information in a situation where shooting is not intended. The character information presentation control device divides the entire character information presented in accordance with user operations into character information in predetermined character groups. And has a function of scrolling from the back side of the center of the screen toward the front side in units of character groups at a predetermined size, interval, speed, and character display rate.

図1は、実施例1の文字情報提示制御装置を備えた携帯型情報端末の使用形態の例を説明する図である。携帯型情報端末2は、小型ディスプレイ及び操作キーを備え、ユーザ3による操作に従い、文書を作成して電子メールを送受信したり、キーワードを入力してWeb画面を検索したりする通常の携帯電話機の機能を有し、さらに、実施例1の文字情報提示制御装置1−1(図示せず)を備えている。携帯型情報端末2は、受信した電子メール及び検索したWebデータ等の文字情報を、文字情報提示制御装置1−1(図示せず)を介して小型ディスプレイに出力して表示する。ユーザ3は、携帯型情報端末2の小型ディスプレイにより、電子メール及びWebデータ等の文字情報を視認することができる。   FIG. 1 is a diagram illustrating an example of a usage pattern of a portable information terminal including the character information presentation control device according to the first embodiment. The portable information terminal 2 has a small display and operation keys. According to an operation by the user 3, a portable information terminal 2 creates a document and transmits / receives an e-mail, or inputs a keyword to search a Web screen. And a character information presentation control device 1-1 (not shown) according to the first embodiment. The portable information terminal 2 outputs and displays character information such as received e-mail and searched Web data on a small display via a character information presentation control device 1-1 (not shown). The user 3 can visually recognize character information such as e-mail and Web data by using the small display of the portable information terminal 2.

図2は、実施例1の文字情報提示制御装置1−1を含む携帯型情報端末2の構成を示すブロック図である。この携帯型情報端末2は、通信部60、文字情報提示制御装置1−1及び表示部70を備えている。   FIG. 2 is a block diagram illustrating a configuration of the portable information terminal 2 including the character information presentation control device 1-1 according to the first embodiment. The portable information terminal 2 includes a communication unit 60, a character information presentation control device 1-1, and a display unit 70.

通信部60は、ユーザ3により作成された電子メールを送信する機能、電子メールを受信する機能、ユーザ3のキー操作により指定された検索ワード等を送信し、Webデータを受信する機能等を有する。また、通信部60は、電子メール、Webデータ等を外部から受信し、ユーザ3へ提示する文字情報を抽出し、文字情報提示制御装置1−1に出力する。抽出された文字情報は、文字情報提示制御装置1−1において所定の形態の文字情報に変換され、文字情報の映像信号として表示部70に出力される。ユーザ3は、表示部70により、携帯型情報端末2が受信した電子メール、Webデータ等の文字情報を視認する。   The communication unit 60 has a function of transmitting an e-mail created by the user 3, a function of receiving an e-mail, a function of transmitting a search word specified by a key operation of the user 3 and receiving Web data, and the like. . In addition, the communication unit 60 receives e-mail, Web data, and the like from the outside, extracts character information to be presented to the user 3, and outputs the character information to the character information presentation control device 1-1. The extracted character information is converted into character information of a predetermined form in the character information presentation control device 1-1 and output to the display unit 70 as a video signal of character information. The user 3 visually recognizes character information such as e-mail and web data received by the portable information terminal 2 on the display unit 70.

(文字情報提示制御装置)
文字情報提示制御装置1−1は、記憶部10、文字情報分割部20、操作入力部30及び文字情報提示部40を備えている。文字情報提示部40は、提示制御手段41、リアルタイムCG描画手段42及びモーラ辞書43を備えている。文字情報提示制御装置1−1は、通信部60から文字情報を入力し、所定の形態の文字情報に変換し、映像信号として表示部70に出力する。
(Character information presentation control device)
The character information presentation control device 1-1 includes a storage unit 10, a character information dividing unit 20, an operation input unit 30, and a character information presentation unit 40. The character information presentation unit 40 includes a presentation control unit 41, a real-time CG drawing unit 42, and a mora dictionary 43. The character information presentation control device 1-1 receives character information from the communication unit 60, converts it into character information of a predetermined form, and outputs it to the display unit 70 as a video signal.

図3は、実施例1の文字情報提示処理を説明するフローチャートであり、図4は、実施例1の文字情報提示制御を説明するフローチャートである。以下、図3及び図4のフローチャートを参照して、図2に示す文字情報提示制御装置1−1の各構成部の処理について説明する。   FIG. 3 is a flowchart illustrating the character information presentation processing according to the first embodiment, and FIG. 4 is a flowchart illustrating the character information presentation control according to the first embodiment. Hereinafter, processing of each component of the character information presentation control device 1-1 shown in FIG. 2 will be described with reference to the flowcharts of FIGS.

(1.文字情報の準備)
文字情報提示制御装置1−1は、通信部60から文字情報を入力し、記憶部10に格納する(ステップS301)。図5は、文字情報の例を示す図である。記憶部10には、例えば図5に示す文字情報「まず、ガソリン税などの暫定税率を維持するとした税制関連法の成立です。」が格納される。
(1. Preparation of character information)
The character information presentation control device 1-1 receives character information from the communication unit 60 and stores it in the storage unit 10 (step S301). FIG. 5 is a diagram illustrating an example of character information. The storage unit 10 stores, for example, the text information shown in FIG. 5 "Firstly, the establishment of a tax-related law that maintains a provisional tax rate such as gasoline tax."

(2.分割データの生成)
文字情報分割部20は、日本語辞書(図示せず)を備えており、記憶部10から文字情報を読み出し、日本語辞書を用いて、文字情報を文節及び単語に区切って分割データに変換し、分割データ(文節、単語)を文字情報提示部40に出力する。
(2. Generation of divided data)
The character information dividing unit 20 includes a Japanese dictionary (not shown), reads character information from the storage unit 10, and uses the Japanese dictionary to divide the character information into phrases and words and convert them into divided data. The divided data (phrase, word) is output to the character information presentation unit 40.

具体的には、文字情報分割部20は、日本語係り受け解析手法により、日本語辞書に登録された単語、品詞、文節区切り等の情報を参照して学習されたSVM(Support Vector Machine)のパターン認識手法を利用し、入力した文字情報を、連続した複数の単語からなる文節に区切り、文節と文節の間に<b>等のマーカーを挿入する(ステップS302)。日本語係り受け解析手法として、例えば、公知の日本語係り受け解析器(「CaboCha」、<http://chasen.org/~taku/software/cabocha/>を参照)が用いられる。また、文字情報分割部20は、形態素解析手法により、日本語辞書に登録された単語情報を参照して、入力した文字情報を、最小単位の形態素(単語)に区切り、単語と単語の間に空白(スペース)を挿入する(ステップS303)。形態素解析手法として、例えば、公知の形態素解析器(「ChaSen」、<http://chasen-legacy.sourceforge.jp/>を参照)が用いられる。   Specifically, the character information dividing unit 20 uses an SVM (Support Vector Machine) learned by referring to information such as words, parts of speech, and paragraph breaks registered in a Japanese dictionary by a Japanese dependency analysis method. Using the pattern recognition method, the input character information is divided into phrases composed of a plurality of continuous words, and a marker such as <b> is inserted between the phrases (step S302). As a Japanese dependency analysis method, for example, a known Japanese dependency analyzer (see “CaboCha”, <http://chasen.org/~taku/software/cabocha/>) is used. In addition, the character information dividing unit 20 refers to word information registered in the Japanese dictionary by using a morphological analysis method, and divides the input character information into minimum unit morphemes (words), and between the words. A blank is inserted (step S303). As a morphological analysis method, for example, a known morphological analyzer (see “ChaSen”, <http://chasen-legacy.sourceforge.jp/>) is used.

図6は、文字情報が文節及び単語に区切られた場合の分割データの例を示す図である。図6に示すように、単語は、空白(スペース)に挟まれており、文節は、<b>のマーカーに挟まれている。このように、文字情報分割部20は、文字情報を構成する個々の文節及び単語に対し、その前後に空白等の識別情報を挿入し、文節、単語及び識別情報を含む分割データを出力する。   FIG. 6 is a diagram illustrating an example of divided data in a case where character information is divided into clauses and words. As shown in FIG. 6, the word is sandwiched between blanks (spaces), and the phrase is sandwiched between <b> markers. As described above, the character information dividing unit 20 inserts identification information such as a space before and after each phrase and word constituting the character information, and outputs divided data including the phrase, the word, and the identification information.

(3.文字情報提示の準備)
次に、文字情報提示部40は、文字情報分割部20から分割データを入力し、文字情報を映像信号として表示部70に出力するための文字情報提示の準備を行う。ステップS304〜ステップS306において、分割データを構成する単語を、発音辞書(図2には図示せず)及びモーラ辞書43に登録する辞書登録処理が行われる。また、ステップS307〜ステップS312において、分割データを文節毎の文字グループに分け、3次元の仮想空間内に文節毎の文字グループを配置する等の処理が行われる。
(3. Preparation for presentation of text information)
Next, the character information presenting unit 40 receives the divided data from the character information dividing unit 20 and prepares to present character information for outputting the character information to the display unit 70 as a video signal. In steps S304 to S306, a dictionary registration process for registering words constituting the divided data in the pronunciation dictionary (not shown in FIG. 2) and the mora dictionary 43 is performed. In step S307 to step S312, the divided data is divided into character groups for each phrase, and processing such as arranging the character groups for each phrase in the three-dimensional virtual space is performed.

(3.1 発音辞書登録、モーラ辞書作成)
文字情報提示部40のリアルタイムCG描画手段42は、文字情報分割部20から分割データを入力し、分割データに含まれる空白で挟まれた単語を取り出し、取り出した単語と、発音辞書及びモーラ辞書43に既に登録されている単語とを比較し、未登録の単語を抽出する(ステップS304)。そして、リアルタイムCG描画手段42は、抽出した未登録単語を発音辞書に登録する(ステップS305)。また、リアルタイムCG描画手段42は、抽出した未登録単語のモーラ数を手動または自動にて設定し、未登録単語及びそのモーラ数をモーラ辞書43に登録することにより、新たなモーラ辞書43を作成する(ステップS306)。モーラ辞書43は、単語及びその単語のモーラ数が対応して、単語毎に格納されている。ここで、リアルタイムCG描画手段42は、手動にてモーラ数を設定する場合、未登録単語を表示部70に出力し、ユーザ3のキー操作により入力されたモーラ数をモーラ辞書43に登録する。一方、自動にてモーラ数を設定する場合、未登録単語から音素(母音、撥音、促音及び長母音)を特定し、その音素をカウントしてモーラ数を算出し、算出したモーラ数を未登録単語と共にモーラ辞書43に登録する。モーラ数は、単語を発音するために必要な拍数、すなわち音の区切り数である。このようにして作成されたモーラ辞書43は、後述するステップS309において用いられる。
(3.1 Pronunciation dictionary registration, mora dictionary creation)
The real-time CG drawing means 42 of the character information presenting unit 40 inputs the divided data from the character information dividing unit 20, takes out a word sandwiched between blanks included in the divided data, extracts the extracted word, the pronunciation dictionary, and the mora dictionary 43. Are compared with the words that have already been registered, and unregistered words are extracted (step S304). Then, the real-time CG drawing means 42 registers the extracted unregistered word in the pronunciation dictionary (step S305). Further, the real-time CG drawing means 42 creates a new mora dictionary 43 by manually or automatically setting the number of mora of the extracted unregistered word and registering the unregistered word and its mora number in the mora dictionary 43. (Step S306). The mora dictionary 43 stores a word and the number of mora of the word corresponding to each word. Here, when setting the number of mora manually, the real-time CG drawing means 42 outputs an unregistered word to the display unit 70 and registers the mora number input by the user's 3 key operation in the mora dictionary 43. On the other hand, when setting the number of mora automatically, phonemes (vowels, repellent sounds, prompting sounds and long vowels) are identified from unregistered words, and the number of mora is calculated by counting the phonemes, and the calculated number of mora is not registered. It is registered in the mora dictionary 43 together with the word. The number of mora is the number of beats necessary to pronounce a word, that is, the number of sound breaks. The mora dictionary 43 created in this way is used in step S309 described later.

(3.2 文字グループ化)
リアルタイムCG描画手段42は、入力した分割データに対し、単語と単語の間に挿入された空白を除去し、<b>のマーカーで挟まれた文節を、1つの文字グループとして設定する(ステップS307)。図7は、文字グループの例を示す図である。図7に示すように、文字グループは、かぎ括弧で挟まれた文字列である。例えば、文節「まず、」の文字グループは、「まず」の文字及び読点「、」により構成されている。このように、リアルタイムCG描画手段42は、分割データから文節を取得し、文節毎の文字グループを設定する。尚、リアルタイムCG描画手段42は、文節毎の文字グループではなく、所定単位の文字グループを設定するようにしてもよい。文節よりも長い単位の文字グループを設定するようにしてもよいし、文節よりも短い単位の文字グループを設定するようにしてもよい。要するに、ユーザ3が視認しやすい単位の文字グループであればよい。
(3.2 Character grouping)
The real-time CG drawing means 42 removes the blanks inserted between the words from the input divided data, and sets the phrase sandwiched between the markers <b> as one character group (step S307). ). FIG. 7 is a diagram illustrating an example of a character group. As shown in FIG. 7, the character group is a character string sandwiched between angle brackets. For example, the character group of the phrase “first” is composed of the characters “first” and the punctuation mark “,”. As described above, the real-time CG drawing unit 42 acquires a phrase from the divided data and sets a character group for each phrase. Note that the real-time CG drawing means 42 may set a character group of a predetermined unit instead of a character group for each phrase. A character group in a unit longer than the phrase may be set, or a character group in a unit shorter than the phrase may be set. In short, it may be a character group in a unit that is easy for the user 3 to visually recognize.

(3.3 センタリングのための句読点処理)
リアルタイムCG描画手段42は、文字グループのセンタリングのために句読点処理を行う(ステップS308)。具体的には、リアルタイムCG描画手段42は、文字グループに対し、文字グループの終わりが「。」または「、」等の句読点であるか否かを判定し、句読点であると判定した場合、後述するステップS310における文字グループの仮想空間配置処理にて、文字グループ内で句読点以外の文字情報をセンタリングするために、文字グループの文頭に半角の空白を挿入する。これは、半角の空白を挿入しない場合は、文字グループをセンタリングしても、文字グループ内で句読点以外の文字情報が句読点によって中央から左へずれてしまうからであり、半角の空白を挿入することにより、全角の文字情報により構成された文字グループは全体として右に半角ずれることになり、結果として文字グループ内で句読点以外の文字情報がセンタリングされることになるからである。例えば、リアルタイムCG描画手段42は、文字グループ「まず、」に対し、文字グループの終わりが読点「、」であると判定し、この文字グループ内で読点以外の文字情報「まず」をセンタリングするために、文字グループの文頭に半角の空白を挿入する。
(3.3 Punctuation processing for centering)
The real-time CG drawing means 42 performs punctuation processing for character group centering (step S308). Specifically, the real-time CG drawing unit 42 determines whether or not the end of the character group is a punctuation mark such as “.” Or “,” for the character group. In the character group virtual space arrangement processing in step S310, half-width spaces are inserted at the beginning of the character group in order to center character information other than punctuation marks in the character group. This is because if you do not insert a single-byte space, even if you center the character group, character information other than punctuation in the character group will be shifted from the center to the left due to the punctuation, so insert a single-byte space. Thus, the character group composed of full-width character information is shifted to the right by a half-width as a whole, and as a result, character information other than punctuation marks is centered within the character group. For example, the real-time CG drawing means 42 determines that the end of the character group is a reading “,” for the character group “First,” and centers the character information “First” other than the reading in this character group. Insert a single-byte space at the beginning of the character group.

一方、リアルタイムCG描画手段42は、文字グループの終わりが句読点でないと判定した場合、または、後述するステップS310における文字グループの仮想空間配置処理にて、文字グループの終わりの句読点を除去した状態で文字グループに含まれる文字情報をセンタリングして仮想空間に配置する場合、前述の半角の空白を挿入する処理を行わない。   On the other hand, if the real-time CG rendering means 42 determines that the end of the character group is not a punctuation mark, or the character group is removed in the character group virtual space placement process in step S310 described later, the character group is removed. When the character information included in the group is centered and arranged in the virtual space, the above-described processing for inserting a half-width space is not performed.

(3.4 文字情報提示間隔設定)
リアルタイムCG描画手段42は、文字グループ毎にモーラ数をカウントし、後述するステップS310において文字グループが3次元の仮想空間内に配置された場合の文字グループの間隔を設定する(ステップS309)。
(3.4 Character information presentation interval setting)
The real-time CG drawing means 42 counts the number of mora for each character group, and sets the character group interval when the character groups are arranged in the three-dimensional virtual space in step S310 to be described later (step S309).

ここで、文字グループの間隔とは、3次元の仮想空間において、文字グループから次に配置される奥側の文字グループまでの間の空間的な距離である。文字グループに含まれる文字情報の数(文字数)は異なるため、文字グループを発声する時間が文字グループ毎に異なる。このため、仮に、全ての文字グループが3次元の仮想空間に等間隔で配置された場合には、文字数の多い文字グループが提示された後に、文字数の少ない文字グループが提示されると、文字グループの提示を受けたユーザ3は、これらの文字グループの間隔が短いように感じてしまう。逆に、文字数の少ない文字グループが提示された後に、文字数の多い文字グループが提示されると、ユーザ3は、これらの文字グループの間隔が長いように感じてしまう。このように、全ての文字グループが3次元の仮想空間に等間隔で配置された場合には、文字グループを構成する文字記号列の長さに応じて時間的な感覚が変わってしまうという不具合が生じる。そこで、文字グループを発声するのに要する時間に基づいて、文字グループの間隔を設定することとし、文字グループを発声するのに要する時間として、文字グループのモーラ数を基準とすることとした。   Here, the interval between character groups is a spatial distance between a character group and the next character group to be arranged next in a three-dimensional virtual space. Since the number of character information (number of characters) included in the character group is different, the time for uttering the character group is different for each character group. For this reason, if all character groups are arranged at equal intervals in a three-dimensional virtual space, a character group with a small number of characters is presented after a character group with a large number of characters is presented. The user 3 who received the presentation feels that the interval between these character groups is short. Conversely, when a character group with a large number of characters is presented after a character group with a small number of characters is presented, the user 3 feels that the interval between these character groups is long. As described above, when all the character groups are arranged at equal intervals in the three-dimensional virtual space, there is a problem in that the sense of time changes depending on the length of the character symbol string constituting the character group. Arise. Therefore, the interval between the character groups is set based on the time required for speaking the character group, and the number of mora of the character group is used as a reference as the time required for speaking the character group.

リアルタイムCG描画手段42は、入力した分割データに含まれる空白を基準にして、文字グループから単語を抽出し、ステップS306において作成したモーラ辞書43を検索して単語のモーラ数を読み出し、文字グループを構成する全ての単語のモーラ数を合計し、文字グループのモーラ数を算出する。図7に示した文字グループの例のモーラ数は、「まず、」が2、「ガソリン税などの」が9、「暫定税率を」が9、「維持すると」が5、「した」が2、「税制関連法の」が11、「成立です。」が6となる。   The real-time CG rendering means 42 extracts words from the character group with reference to the blank included in the input divided data, searches the mora dictionary 43 created in step S306, reads the number of words in the mora, and sets the character group. The number of mora of all the constituent words is summed to calculate the number of mora of the character group. The number of mora in the example of the character group shown in FIG. 7 is “first” is 2, “gasoline tax etc.” is 9, “provisional tax rate” is 9, “if you maintain” is 5, “do” is 2 "Tax-related law" is 11, and "Issued." Is 6.

リアルタイムCG描画手段42は、文字グループについて算出したモーラ数の合計に応じて、その文字グループと次に配置される奥側の文字グループとの間隔を設定する。例えば、リアルタイムCG描画手段42は、文字グループのモーラ数が大きい場合は、それに比例して文字グループの間隔が広くなるように設定し、文字グループのモーラ数が小さい場合は、それに比例して文字グループの間隔が狭くなるように設定する。尚、リアルタイムCG描画手段42は、算出した文字グループのモーラ数に基づいて、その文字グループと前に配置される手前側の文字グループとの間隔を設定するようにしてもよい。また、文字グループを構成する文字の数等に基づいて、文字グループの間隔を設定するようにしてもよい。ここで、文字グループの間隔は比であり、実際に文字情報を提示する際に、基準となるcm、ピクセル、グリッド等の単位に応じて、仮想空間上における実際の間隔が規定される。   The real-time CG drawing unit 42 sets an interval between the character group and the next character group to be arranged next in accordance with the total number of mora calculated for the character group. For example, the real-time CG rendering means 42 sets the character group spacing to be proportionally larger when the character group has a larger number of mora, and proportionally increases the character group when the character group has a smaller number of mora. Set the interval between groups to be narrow. Note that the real-time CG drawing means 42 may set the interval between the character group and the front character group arranged in front based on the calculated number of mora of the character group. Further, the character group interval may be set based on the number of characters constituting the character group. Here, the interval between character groups is a ratio, and when actually presenting character information, the actual interval in the virtual space is defined according to units such as cm, pixels, grids and the like serving as a reference.

後述するステップS310において文字グループが仮想空間内に配置された場合、ユーザ3が文字グループを視認する際の距離感覚は、スケール、仮想カメラの撮影画角等により変わってしまう。そこで、リアルタイムCG描画手段42は、例えば以下の式(1)により、モーラ数の合計に係数kを乗算し、文字グループの間隔を設定するようにしてもよい。
文字グループの間隔=k×(モーラ数の合計) ・・・(1)
When the character group is arranged in the virtual space in step S310 to be described later, the sense of distance when the user 3 visually recognizes the character group changes depending on the scale, the shooting angle of view of the virtual camera, and the like. Therefore, the real-time CG drawing means 42 may set the character group interval by multiplying the sum of the number of mora by the coefficient k, for example, by the following equation (1).
Character group spacing = k × (total number of mora) (1)

また、リアルタイムCG描画手段42は、後述するステップS313の文字情報提示処理において提示される文字情報の重なり具合や奥行感等に応じた間隔係数kを、前述のモーラ数の合計に乗算する等により、文字数の少ない文字グループまたは文字数の多い文字グループの間隔を平準化するようにしてもよい。例えば、以下の式(2)により、文字グループの間隔を設定する。
文字グループの間隔=k×((モーラ数の合計/1.5)+2) ・・・(2)
Further, the real-time CG drawing means 42 multiplies the above-mentioned total number of mora by the interval coefficient k according to the overlapping state of the character information presented in the character information presentation processing in step S313 described later, the sense of depth, or the like. The intervals between character groups with a small number of characters or character groups with a large number of characters may be leveled. For example, the interval between character groups is set by the following equation (2).
Character group interval = k × ((total number of mora / 1.5) +2) (2)

リアルタイムCG描画手段42が、前述の式(2)を用いて、文字グループの間隔を設定することにより、文字グループのモーラ数が所定数未満の場合、すなわち文字列が比較的短い文字グループに対しては、その短さに応じた間隔よりも若干広く設定することができ、文字グループのモーラ数が所定数を超える場合、すなわち文字列が比較的長い文字グループに対しては、その長さに応じた間隔よりも若干狭く設定することができる。つまり、後述するステップS313の文字情報提示処理において提示される文字情報の重なり具合や奥行感等に応じて、ユーザ3が不具合を感じることなく文字情報を視認できるように、文字グループの間隔を平準化することができる。   The real-time CG rendering unit 42 sets the character group interval using the above-described equation (2), so that the character group has a mora number less than a predetermined number, that is, for a character group having a relatively short character string. If the number of mora of the character group exceeds a predetermined number, that is, for a character group having a relatively long character string, the length may be set to be slightly wider than the interval corresponding to the shortness. It can be set slightly narrower than the corresponding interval. That is, the intervals between the character groups are leveled so that the user 3 can visually recognize the character information without feeling any trouble according to the overlapping state of the character information presented in the character information presentation processing in step S313, which will be described later, or the sense of depth. Can be

前述のとおり、リアルタイムCG描画手段42は、文字グループから単語を抽出し、モーラ辞書43に登録された単語毎のモーラ数を合計することにより、文字グループのモーラ数を算出するようにした。ここで、アラビア数字による文字情報は、組み合わせが無限にあるため、全てのモーラ数をモーラ辞書43に登録することは難しいが、漢数字のモーラ数は予め登録しておくことが可能である。そこで、リアルタイムCG描画手段42は、アラビア数字のモーラ数を一旦漢数字に変換し、モーラ辞書43から漢数字のモーラ数を読み出し、各漢数字毎のモーラ数を合算するようにしてもよい。これにより、どのような数字の組み合わせであっても、文字グループのモーラ数を算出することができる。例えば、リアルタイムCG描画手段42は、文字グループから「5236」を抽出した場合、このアラビア数字「5236」を漢数字「五千二百三十六」に変換し、モーラ辞書43からそれぞれのモーラ数を読み出し、五(1)千(2)二(1)百(3)三(2)十(3)六(2)=14モーラとして算出する。また、句読点は実際の文を人が読み上げる際に「間」となることが多いため、例えば、「、」=4モーラ、「。」=10モーラのように、句読点にモーラ数を割り当てるようにしてもよい。これにより、実際の文を読み上げたときのテンポに近くなるように、文字グループの間隔を策定することができる。   As described above, the real-time CG drawing means 42 extracts the words from the character group and calculates the number of mora of the character group by summing up the number of mora for each word registered in the mora dictionary 43. Here, since there are infinite combinations of character information using Arabic numerals, it is difficult to register all the mora numbers in the mora dictionary 43, but the mora numbers of Chinese numerals can be registered in advance. Therefore, the real-time CG drawing means 42 may once convert the number of mora of the Arabic numerals into the Chinese numerals, read out the number of mora of the Chinese numerals from the mora dictionary 43, and add the number of mora for each Chinese numeral. Thereby, the number of mora of the character group can be calculated for any combination of numbers. For example, when “5236” is extracted from the character group, the real-time CG drawing means 42 converts the Arabic numeral “5236” into the Chinese numeral “five thousand three hundred thirty-six” and stores the number of mora from the mora dictionary 43. Are calculated as five (1) thousand (2) two (1) one hundred (3) three (2) ten (3) six (2) = 14 mora. Also, since punctuation marks are often “between” when a person reads an actual sentence, for example, “,” = 4 mora, “.” = 10 mora, and the number of mora is assigned to the punctuation marks. May be. As a result, the interval between character groups can be formulated so as to be close to the tempo when an actual sentence is read out.

(3.5 文字グループの仮想空間配置)
ユーザ3または文字情報提示制御装置1−1を調整するオペレータによって、それぞれの文字グループが1つのオブジェクトとして扱われ、3次元の仮想空間内に配置される(ステップS310)。図8は、仮想空間における文字グループと仮想カメラとの間の位置関係を示す図である。図8に示すように、文字グループ及び仮想カメラが3次元の仮想空間内に配置されることを想定する。仮想カメラにより撮影された文字グループの映像は映像信号として表示部70に出力され、その映像が表示される。仮想カメラにより撮影される文字グループの映像、すなわち表示部70に表示される画面は、公知の3次元グラフィック描画ソフトウェアにより、仮想カメラの位置、厚みのないプレートとしての文字グループの配置、文字表示率等の予め設定されたパラメータを用いて生成することができる。図8に示すように、3次元の仮想空間内に配置された仮想カメラが、仮想空間の底面に平行した光軸、または仮想空間の底面へ向けてやや下向きの光軸を有するものとする。そして、ステップS308にて句読点処理された文字グループは、仮想カメラの光軸に対して垂直または所定角度に、かつ底面から同じ高さになるように、仮想カメラに対して手前から奥へ向けて、ステップS309にて設定された文字グループの間隔により、センタリングして配置される。このように配置された文字グループは、仮想カメラへ向けて(奥側から手前側へ向けて)スクロール表示される。
(3.5 Character group virtual space layout)
Each character group is handled as one object by the user 3 or an operator who adjusts the character information presentation control device 1-1 and arranged in a three-dimensional virtual space (step S310). FIG. 8 is a diagram illustrating a positional relationship between a character group and a virtual camera in the virtual space. As shown in FIG. 8, it is assumed that a character group and a virtual camera are arranged in a three-dimensional virtual space. The video of the character group captured by the virtual camera is output as a video signal to the display unit 70, and the video is displayed. The image of the character group photographed by the virtual camera, that is, the screen displayed on the display unit 70 is displayed by a known three-dimensional graphic drawing software on the position of the virtual camera, the arrangement of the character group as a plate without thickness, the character display rate Or the like using a preset parameter such as. As shown in FIG. 8, it is assumed that a virtual camera arranged in a three-dimensional virtual space has an optical axis parallel to the bottom surface of the virtual space, or a slightly downward optical axis toward the bottom surface of the virtual space. The character group subjected to the punctuation processing in step S308 is directed from the front to the back with respect to the virtual camera so as to be perpendicular to the optical axis of the virtual camera or at a predetermined angle and at the same height from the bottom surface. The character groups are centered and arranged according to the character group interval set in step S309. The character groups arranged in this way are scroll-displayed toward the virtual camera (from the back side toward the front side).

この場合、文字グループは、仮想カメラへ向けてスクロールしたときに、滑らかに迫り上がるように配置されることが望ましい。前述したように、仮想空間の底面に平行に文字グループが配置された場合には、表示部70に文字グループがスクロール表示されたときにユーザ3の視線が下へ移動する可能性がある。しかし、文字グループが滑らかに迫り上がるように配置された場合には、文字グループは、表示部70の画面中央付近でフェードアウトして消失することになり、ユーザ3の視線は上下に移動しなくなる。これにより、ユーザ3の視線移動は一層少なくなり、文字情報の視認性を一層向上させることができる。尚、リアルタイムCG描画手段42によって、ステップS308にて文字グループの句読点処理が行われない場合、文字グループの終わりの句読点を除去した文字グループに含まれる文字情報をセンタリングして配置される。   In this case, it is desirable that the character group be arranged so as to smoothly move up when scrolling toward the virtual camera. As described above, when the character group is arranged in parallel to the bottom surface of the virtual space, the line of sight of the user 3 may move downward when the character group is scroll-displayed on the display unit 70. However, when the character groups are arranged so as to smoothly move up, the character groups fade out near the center of the screen of the display unit 70 and disappear, and the line of sight of the user 3 does not move up and down. Thereby, the line-of-sight movement of the user 3 is further reduced, and the visibility of the character information can be further improved. When the punctuation processing of the character group is not performed in step S308 by the real-time CG drawing unit 42, the character information included in the character group from which the punctuation mark at the end of the character group is removed is arranged and centered.

(3.6 仮想カメラ位置の設定)
ユーザ3またはオペレータは、後述するステップS312において設定される文字表示率0%の区間位置(仮想カメラから奥側の位置に設定される文字表示率0%の区間位置)のいずれかの位置に仮想カメラの注視点を設定することにより、3次元の仮想空間内に配置された仮想カメラの高さを、ステップS310において配置した文字グループの高さよりもやや高い位置に調整し、また、仮想カメラの画角を調整する。すなわち、仮想カメラによって文字グループを僅かに見下ろして撮影することができるように、仮想カメラの位置を設定する(ステップS311)。これにより、後述するステップS313の文字情報提示処理において、表示部70には、3次元の仮想空間内の仮想カメラにより撮影されたときの文字グループ単位の文字情報が提示されるから、ユーザ3は、表示部70の表示により、文字グループ間では重なっているが、前後関係が分かるように文字情報を視認することができる。すなわち、仮想カメラが撮影する文字グループは、奥に配置されるほど遠近法により小さくなるから、ユーザ3は、直感的に文字グループの前後関係が分かるようになる。
(3.6 Setting of virtual camera position)
The user 3 or the operator is virtual at any position of a section position with a character display rate of 0% set in step S312 to be described later (a section position with a character display ratio of 0% set at the back position from the virtual camera). By setting the gazing point of the camera, the height of the virtual camera arranged in the three-dimensional virtual space is adjusted to a position slightly higher than the height of the character group arranged in step S310. Adjust the angle of view. In other words, the position of the virtual camera is set so that the character group can be photographed while looking down slightly (step S311). As a result, in the character information presentation process in step S313 described later, the display unit 70 is presented with character information in units of character groups as captured by the virtual camera in the three-dimensional virtual space. Although the character groups are overlapped by the display on the display unit 70, the character information can be visually recognized so that the context can be understood. That is, the character group photographed by the virtual camera becomes smaller in perspective as it is arranged in the back, so that the user 3 can intuitively understand the context of the character group.

(3.7 文字表示率の設定)
ユーザ3またはオペレータによって、3次元の仮想空間に配置される文字グループ毎の文字情報の透過率(文字表示率)が、仮想カメラからの距離に応じて変化するように設定される(ステップS312)。文字表示率は、重なり合う文字情報の視認性を向上させるために設定される。具体的には、例えば、仮想カメラに最も近い位置で0%の文字表示率、すなわち完全透過状態になるように設定され、仮想カメラから離れるに従って徐々に上がるように文字表示率が設定される。そして、最大で80%の文字表示率とし、最も視認性が高い状態でもその文字グループの奥の文字グループが透けて見えるように設定される。そして、最大文字表示率80%が一定区間に設定され、その区間を過ぎると、今度は逆に徐々に下がるように設定される。最終的には0%の文字表示率、すなわち非表示状態に設定される。
(3.7 Character display rate setting)
The transmission rate (character display rate) of the character information for each character group arranged in the three-dimensional virtual space is set by the user 3 or the operator so as to change according to the distance from the virtual camera (step S312). . The character display rate is set to improve the visibility of overlapping character information. Specifically, for example, the character display rate is set to 0% at the position closest to the virtual camera, that is, to be in a completely transparent state, and the character display rate is set to gradually increase as the distance from the virtual camera increases. The character display rate is set to 80% at the maximum, so that the character group in the back of the character group can be seen through even when the visibility is highest. Then, the maximum character display rate of 80% is set to a certain section, and after that section, the maximum character display rate is set to gradually decrease. Finally, the character display rate is set to 0%, that is, the non-display state.

図9は、文字グループの間隔及び文字表示率を示す図である。横軸の矢印は、文字グループ単位の文字情報がスクロールにより進行する方向を示しており、縦軸は、文字表示率を示している。山型の台形の特性をしたグラフが、横軸の文字グループ位置に対する文字表示率である。また、文字グループ間の数字は、文字グループのモーラ数を示している。   FIG. 9 is a diagram illustrating character group intervals and character display rates. The arrows on the horizontal axis indicate the direction in which character information in character group units advances by scrolling, and the vertical axis indicates the character display rate. A graph having a mountain-shaped trapezoidal characteristic is the character display rate with respect to the character group position on the horizontal axis. The number between the character groups indicates the number of mora of the character group.

このように、文字表示率は、仮想カメラから所定距離離れた位置で最大の80%に設定され、その位置から仮想カメラに向けて徐々に下がり、最も近い位置で0%に設定される。したがって、後述するステップS313の文字情報提示処理において、ユーザ3は、表示部70により、手前側に移動するに従って徐々に薄くなるように、文字グループ単位の文字情報を視認することができる。また、文字表示率は、仮想カメラから所定距離離れた位置において、最大で100%ではなく80%に設定されるから、ユーザ3は、その位置よりも奥側に配置される文字グループを視認することができる。   Thus, the character display rate is set to the maximum 80% at a position away from the virtual camera by a predetermined distance, gradually decreases from the position toward the virtual camera, and is set to 0% at the nearest position. Therefore, in the character information presentation process in step S313 described later, the user 3 can visually recognize character information in character group units so that the display unit 70 gradually becomes thinner as it moves toward the front side. Further, since the character display rate is set to 80% instead of 100% at the maximum distance at a position away from the virtual camera, the user 3 visually recognizes the character group arranged behind the position. be able to.

尚、文字グループの仮想空間配置(ステップS310)、仮想カメラ位置の設定(ステップS311)及び文字表示率の設定(ステップS312)における各種パラメータの設定は、ユーザ3またはオペレータにより行われるものとして説明したが、携帯型情報端末2の製造時においてメーカーによりプリセットとして設定されるようにしてもよい。また、携帯型情報端末2の通信部60が、これらのパラメータが挿入された電子メール、Webデータ等を外部の装置から受信し、電子メール、Webデータ等からパラメータを抽出して記憶部10に格納し、リアルタイムCG描画手段42が、記憶部10からパラメータを読み出し、ステップS310〜ステップS312の設定を行うようにしてもよい。また、これらのパラメータは、ユーザ3による携帯型情報端末2の操作により、視聴環境の変化、自らの好み等に応じて変更されるようにしてもよい。   Note that the setting of various parameters in the character group virtual space layout (step S310), the virtual camera position setting (step S311), and the character display rate setting (step S312) has been described as being performed by the user 3 or the operator. However, it may be set as a preset by the manufacturer when the portable information terminal 2 is manufactured. In addition, the communication unit 60 of the portable information terminal 2 receives e-mail, web data, etc. in which these parameters are inserted from an external device, extracts the parameters from the e-mail, web data, etc. and stores them in the storage unit 10 The stored real-time CG rendering means 42 may read the parameters from the storage unit 10 and perform the settings in steps S310 to S312. Further, these parameters may be changed according to a change in viewing environment, own preference, etc., by the operation of the portable information terminal 2 by the user 3.

(4.文字情報の提示)
文字情報提示部40は、ステップS304〜ステップS312による文字情報提示の準備が完了した後、操作入力部30から始動制御信号を入力し、仮想空間内に配置された文字グループをスクロール制御し、仮想カメラが文字グループ単位の文字情報を仮想的に撮影したときの映像信号を生成し、表示部70に出力する(ステップS313)。
(4. Presentation of character information)
The character information presenting unit 40 receives a start control signal from the operation input unit 30 after the preparation for presenting character information in steps S304 to S312 is completed, scrolls the character group arranged in the virtual space, and performs virtual control. A video signal when the camera virtually captures character information in character group units is generated and output to the display unit 70 (step S313).

図10は、表示部70に表示された文字情報の提示例を示す図である。図10に示すように、文字グループ単位の文字情報は、センタリングされた状態で画面中央の奥側から手前側へ向けて徐々に大きくなり、かつ、徐々に薄くなるように重なって表示される。これにより、ユーザ3は、仮想空間内に配置された仮想カメラが文字グループ単位の文字情報を仮想的に撮影したときの映像を、図10に示した形態で表示部70により見ることができ、画面に表示される全ての文字グループ単位の文字情報を視認することができる。   FIG. 10 is a diagram illustrating a presentation example of character information displayed on the display unit 70. As shown in FIG. 10, the character information in units of character groups is displayed so as to be gradually enlarged from the back side to the near side in the center of the screen in a centered state and gradually thinned. Thereby, the user 3 can view the video when the virtual camera arranged in the virtual space virtually captures the character information in character group units on the display unit 70 in the form shown in FIG. The character information of all character groups displayed on the screen can be visually recognized.

(5.文字情報提示制御)
次に、文字グループ単位の文字情報を表示部70にスクロール表示するための、文字情報提示制御について説明する。この文字情報提示制御は、携帯型情報端末2に備えた始動制御スイッチをユーザ3が操作することにより行われる。文字情報提示部40は、始動制御スイッチの操作に従って発生する始動制御信号を操作入力部30から入力し、始動制御信号に基づいて、文字情報のスクロールを開始及び停止する。文字情報のスクロールは、予め設定された再生速度にて行われ、再生速度は、ユーザ3により設定される。
(5. Character information presentation control)
Next, character information presentation control for scrolling and displaying character information in character group units on the display unit 70 will be described. This character information presentation control is performed by the user 3 operating a start control switch provided in the portable information terminal 2. The character information presentation unit 40 inputs a start control signal generated according to the operation of the start control switch from the operation input unit 30, and starts and stops scrolling of character information based on the start control signal. The scrolling of the character information is performed at a preset reproduction speed, and the reproduction speed is set by the user 3.

また、スクロールの停止点については、全体の文字情報における句点までとするか、または全体の文字情報の終わりまでとするかが、ユーザ3により設定される。つまり、操作入力部30は、ユーザ3による開始の始動制御スイッチの操作に従って、開始の始動制御信号を文字情報提示部40に出力する。文字情報提示部40の提示制御手段41は、操作入力部30から開始の始動制御信号を入力すると、スクロールを開始するための制御信号をリアルタイムCG描画手段42に出力する。リアルタイムCG描画手段42は、提示制御手段41により出力されたスクロールを開始するための制御信号に基づいて、文字情報のスクロールを開始し、3次元の仮想空間内でスクロールする文字グループ単位の文字情報を仮想カメラが撮影したときの映像を生成し、映像信号として表示部70に出力する。これにより、ユーザ3は、表示部70の画面中央の奥側から手前側へ向けてスクロールする、連続した文字グループ単位の文字情報を視認することができる。この文字グループ単位の文字情報は、画面の横軸の中央に文字グループの中央が位置するようにセンタリングされ、新たな文字グループ単位の文字情報が画面中央の奥側から出現し、手前側へ向けてスクロールした後に消失する。   The user 3 sets whether the stop point of scrolling is up to the punctuation point in the entire character information or the end of the entire character information. That is, the operation input unit 30 outputs a start start control signal to the character information presentation unit 40 according to the operation of the start start control switch by the user 3. The presentation control unit 41 of the character information presentation unit 40 outputs a control signal for starting scrolling to the real-time CG drawing unit 42 when a start control signal is started from the operation input unit 30. The real-time CG rendering unit 42 starts scrolling character information based on a control signal for starting scrolling output by the presentation control unit 41, and character information in units of character groups that are scrolled in a three-dimensional virtual space. Is generated by the virtual camera and output to the display unit 70 as a video signal. Thereby, the user 3 can visually recognize character information in units of continuous character groups that scroll from the back side of the center of the screen of the display unit 70 toward the front side. The character information of each character group is centered so that the center of the character group is located at the center of the horizontal axis of the screen, and new character group-unit character information appears from the back side of the center of the screen and is directed toward the front side. Disappears after scrolling.

そして、提示制御手段41は、スクロールの停止点が句点に設定されている場合、句点を含む文字グループがスクロールして手前から消失した時点で、すなわち表示部70に表示されなくなった時点で、スクロールを停止するための制御信号をリアルタイムCG描画手段42に出力する。リアルタイムCG描画手段42は、提示制御手段41により出力されたスクロールを停止するための制御信号に基づいて、スクロールを停止する。この場合、リアルタイムCG描画手段42は、句点を含む文字グループがスクロールして手前から消失した時点、すなわち表示部70に表示されなくなった時点を判定し、提示制御手段41からのスクロールを停止するための制御信号に基づくことなく、スクロールを停止するようにしてもよい。ユーザ3が表示部70によりスクロールの停止を認識し、続きの文字情報を読みたい場合は、再度、開始の始動制御スイッチを操作する。そうすると、操作入力部30は開始の始動制御信号を出力し、リアルタイムCG描画手段42は、提示制御手段41により出力されたスクロールを開始するための制御信号に基づいて、引き続き文字情報のスクロールを開始する。   Then, when the scroll stop point is set as a phrase, the presentation control unit 41 scrolls when the character group including the phrase disappears from the front by scrolling, that is, when it is no longer displayed on the display unit 70. Is output to the real-time CG drawing means 42. The real-time CG drawing unit 42 stops scrolling based on the control signal for stopping scrolling output by the presentation control unit 41. In this case, the real-time CG drawing means 42 determines when the character group including the punctuation scrolls disappears from the front, that is, when it is no longer displayed on the display unit 70, and stops scrolling from the presentation control means 41. The scroll may be stopped without being based on the control signal. When the user 3 recognizes the stop of the scrolling by the display unit 70 and wants to read the subsequent character information, the start start control switch is operated again. Then, the operation input unit 30 outputs a start control signal for starting, and the real-time CG drawing means 42 continues to start scrolling character information based on the control signal for starting scrolling output by the presentation control means 41. To do.

また、提示制御手段41は、スクロールの停止点が全体の文字情報の終わりに設定されている場合、全体の文字情報を構成する全ての文字グループがスクロールして手前から消失した時点で、すなわち表示部70に表示されなくなった時点で、スクロールを停止するための制御信号をリアルタイムCG描画手段42に出力する。リアルタイムCG描画手段42は、提示制御手段41により出力されたスクロールを停止するための制御信号に基づいて、スクロールを停止する。   In addition, when the scroll stop point is set at the end of the entire character information, the presentation control unit 41 scrolls all character groups constituting the entire character information and disappears from the front, that is, the display. When it is no longer displayed on the unit 70, a control signal for stopping the scrolling is output to the real-time CG drawing means 42. The real-time CG drawing unit 42 stops scrolling based on the control signal for stopping scrolling output by the presentation control unit 41.

尚、前記説明では、スクロールの停止点を、全体の文字情報における句点、または全体の文字情報の終わりとしたが、後述する実施例2にて説明する一文の終わりとしてもよい。スクロールの停止点は、ユーザ3により設定される。   In the above description, the stop point of scrolling is the punctuation point in the entire character information or the end of the entire character information. However, it may be the end of one sentence described in Example 2 described later. The stop point of scrolling is set by the user 3.

また、文字情報がスクロールしているときに、ユーザ3がそのスクロールを一時停止したい場合、一時停止の始動制御スイッチを操作する。そうすると、操作入力部30は、一時停止の始動制御信号を提示制御手段41に出力する。提示制御手段41は、スクロールを途中で停止する場合、操作入力部30からの一時停止の始動制御信号の入力タイミングにて、スクロールを停止するための制御信号をリアルタイムCG描画手段42に出力する。一方、提示制御手段41は、最初に現れる句点まで表示した後にスクロールを停止する場合、最初に現れる句点を含む文字グループがスクロールして手前から消失した時点で、スクロールを停止するための制御信号をリアルタイムCG描画手段42に出力する。リアルタイムCG描画手段42は、提示制御手段41により出力されたスクロールを停止するための制御信号に基づいて、スクロールを停止する。そして、ユーザ3が一時停止を解除して続きの文字情報を読みたいと判断した場合は、再度、始動制御スイッチを操作する。このように、ユーザ3の意思に従って、スクロールの開始、所定の停止点での自動停止、及びスクロール途中の一時停止を実現することができる。   Further, when the user 3 wants to pause the scrolling while the character information is scrolling, the temporary start control switch is operated. Then, the operation input unit 30 outputs a temporary start control signal to the presentation control unit 41. When the scrolling is stopped halfway, the presentation control unit 41 outputs a control signal for stopping the scrolling to the real-time CG drawing unit 42 at the input timing of the temporary start control signal from the operation input unit 30. On the other hand, when the presentation control means 41 stops scrolling after displaying up to the first appearing phrase, a control signal for stopping scrolling is displayed when the character group including the first appearing phrase scrolls and disappears from the front. Output to the real-time CG drawing means 42. The real-time CG drawing unit 42 stops scrolling based on the control signal for stopping scrolling output by the presentation control unit 41. Then, when the user 3 cancels the pause and determines that the subsequent character information is to be read, the start control switch is operated again. Thus, according to the intention of the user 3, the start of scrolling, automatic stop at a predetermined stop point, and temporary stop during scrolling can be realized.

図4を参照して、文字情報提示制御装置1−1が提示待機状態にあるときに(ステップS401)、文字情報提示部40の提示制御手段41は、ユーザ3の操作に従って、開始の始動制御信号を操作入力部30から入力する(ステップS402)。リアルタイムCG描画手段42は、提示制御手段41からの開始の制御信号に基づいて、文字グループ単位の文字情報の提示処理、すなわちスクロール処理を開始する(ステップS403)。これにより、文字グループ単位の文字情報が表示部70にスクロール表示され、ユーザ3は文字情報を認識することができる。   Referring to FIG. 4, when character information presentation control device 1-1 is in the presentation standby state (step S 401), presentation control means 41 of character information presentation unit 40 starts start control according to the operation of user 3. A signal is input from the operation input unit 30 (step S402). The real-time CG drawing unit 42 starts a character information presentation process, that is, a scrolling process, based on a start control signal from the presentation control unit 41 (step S403). Thereby, the character information in character group units is scroll-displayed on the display unit 70, and the user 3 can recognize the character information.

操作入力部30は、ユーザ3により再生速度が設定変更されたか否かを判定し(ステップS404)、設定変更されたと判定した場合(ステップS404:Y)、設定変更された再生速度を文字情報提示部40に出力する(ステップS405)。一方、設定変更されていないと判定した場合(ステップS404:N)、ユーザ3による一時停止の操作入力があったか否かを判定する(ステップS406)。再生速度の設定変更は、文字情報が提示されている状態だけでなく、提示待機している状態においても可能である。   The operation input unit 30 determines whether or not the playback speed has been changed by the user 3 (step S404). When it is determined that the setting has been changed (step S404: Y), the changed playback speed is presented as character information. The data is output to the unit 40 (step S405). On the other hand, when it is determined that the setting has not been changed (step S404: N), it is determined whether or not there has been a pause operation input by the user 3 (step S406). The setting of the playback speed can be changed not only in the state where the character information is presented, but also in the state where the presentation is on standby.

操作入力部30は、ステップS406において、一時停止の操作入力があったと判定した場合(ステップS406:Y)、一時停止の始動制御信号を文字情報提示部40に出力する。そして、文字情報提示部40のリアルタイムCG描画手段42は、提示制御手段41からの停止の制御信号に基づいて、スクロールを一時停止する(ステップS407)。これにより、文字情報提示制御装置1−1は提示待機状態になる。そして、文字情報提示部40の提示制御手段41は、ユーザ3の操作に従って、開始の始動制御信号を操作入力部30から入力すると、リアルタイムCG描画手段42は、提示制御手段41からの開始の制御信号に基づいて、引き続き文字情報の提示処理、すなわちスクロール処理を再開する(ステップS408)。そして、ステップS409へ移行する。一方、提示制御手段41は、ステップS406において、操作入力部30により一時停止の操作入力がないと判定した場合(ステップS406:N)、ステップS409へ移行する。   If the operation input unit 30 determines in step S406 that there has been a pause operation input (step S406: Y), the operation input unit 30 outputs a pause start control signal to the character information presentation unit 40. Then, the real-time CG drawing unit 42 of the character information presentation unit 40 temporarily stops scrolling based on the stop control signal from the presentation control unit 41 (step S407). Thereby, the character information presentation control apparatus 1-1 will be in a presentation standby state. Then, when the presentation control unit 41 of the character information presentation unit 40 inputs a start control signal from the operation input unit 30 according to the operation of the user 3, the real-time CG drawing unit 42 controls the start from the presentation control unit 41. On the basis of the signal, the character information presentation process, that is, the scroll process is resumed (step S408). Then, the process proceeds to step S409. On the other hand, when the presentation control means 41 determines in step S406 that there is no pause operation input by the operation input unit 30 (step S406: N), the presentation control unit 41 proceeds to step S409.

提示制御手段41は、リアルタイムCG描画手段42に、所定位置でスクロールを停止させ、文字情報提示処理を停止させる。すなわち、リアルタイムCG描画手段42は、全体の文字情報における句点を含む文字グループまでのスクロールを行った後に、または、全体の文字情報の終わりの文字グループまでのスクロールを行った後に、提示制御手段41からの停止の制御信号に基づいて、スクロールを停止する(ステップS409)。そして、提示制御手段41は、次の文が存在するか否かを判定する(ステップS410)。次の文が存在すると判定した場合(ステップS410:Y)、ユーザ3により設定されたスクロールの停止点が全体の文字情報における句点か、または全体の文字情報の終わりかを判定し、すなわち句点毎の提示待機があるか否かを判定し(ステップS411)、スクロールの停止点が句点であると判定した場合、すなわち句点毎の提示待機があると判定した場合(ステップS411:Y)、ステップS401へ移行する。一方、スクロールの停止点が全体の文字情報の終わりであると判定した場合、すなわち句点毎の提示待機がないと判定した場合(ステップS411:N)、ステップS403へ移行する。ステップS410において、次の文が存在しないと判定した場合(ステップS410:N)、処理を終了する。   The presentation control unit 41 causes the real-time CG drawing unit 42 to stop scrolling at a predetermined position and stop the character information presentation process. That is, the real-time CG drawing means 42 performs the presentation control means 41 after scrolling to the character group including the punctuation in the whole character information or after scrolling to the character group at the end of the whole character information. The scrolling is stopped based on the stop control signal from (step S409). Then, the presentation control unit 41 determines whether or not the next sentence exists (step S410). When it is determined that the next sentence is present (step S410: Y), it is determined whether the scroll stop point set by the user 3 is a punctuation point in the whole character information or the end of the whole character information. Is determined (step S411), and when it is determined that the scroll stop point is a phrase, that is, when it is determined that there is a presentation waiting for each phrase (step S411: Y), step S401 Migrate to On the other hand, when it is determined that the scroll stop point is the end of the entire character information, that is, when it is determined that there is no standby for each phrase (step S411: N), the process proceeds to step S403. If it is determined in step S410 that the next sentence does not exist (step S410: N), the process ends.

尚、携帯型情報端末2の通信部60が外部から受信した電子メール、Webデータ等に、間(ま)、再生速度、文字グループの仮想空間配置、仮想カメラ位置、文字表示率等を制御するコマンドが挿入されている場合には、文字情報提示部40のリアルタイムCG描画手段42は、コマンドから間の情報を抽出し、その間に応じた文字間隔になるように文字グループの間隔を設定するようにしてもよい。また、リアルタイムCG描画手段42は、コマンドから再生速度を抽出し、その再生速度を用いてスクロールするようにしてもよい。また、リアルタイムCG描画手段42は、コマンドから文字グループの仮想空間配置、仮想カメラ位置、文字表示率の各パラメータを抽出し、これらのパラメータを設定するようにしてもよい。これにより、電子メール、Webデータ等を携帯型情報端末2へ送信する外部の装置は、携帯型情報端末2における文字情報の表示制御を、意図的に調整することができる。つまり、携帯型情報端末2の文字情報提示制御装置1−1が一律な文字情報を提示するのではなく、外部の装置が、当該装置を操作するユーザにより想定された文字情報に関するニュアンス(文字グループの間隔、スクロールの速度(再生速度)、文字情報を構成する文字の間隔、大きさ、形態等)をコマンドに反映し、文字情報提示制御装置1−1がそのコマンドに基づいて文字情報を提示する。これにより、受け側である携帯型情報端末2のユーザ3は、外部の装置を操作するユーザによる文字情報に関するニュアンスを、表示部70におけるスクロールの変化によって読み取ることが可能となる。   The communication unit 60 of the portable information terminal 2 controls the interval, playback speed, character group virtual space layout, virtual camera position, character display rate, etc., for e-mail, web data, etc. received from the outside. When a command is inserted, the real-time CG rendering means 42 of the character information presentation unit 40 extracts information between the commands and sets the character group interval so that the character interval according to the information is extracted. It may be. Further, the real-time CG drawing means 42 may extract the playback speed from the command and scroll using the playback speed. Further, the real-time CG drawing means 42 may extract each parameter of the virtual space arrangement of the character group, the virtual camera position, and the character display rate from the command, and set these parameters. Accordingly, an external device that transmits e-mail, Web data, and the like to the portable information terminal 2 can intentionally adjust the display control of the character information in the portable information terminal 2. That is, the character information presentation control device 1-1 of the portable information terminal 2 does not present uniform character information, but the external device has nuances (character groups) regarding character information assumed by the user who operates the device. , The scrolling speed (playback speed), the spacing, size, form, etc. of characters constituting the character information are reflected in the command, and the character information presentation control device 1-1 presents the character information based on the command. To do. As a result, the user 3 of the portable information terminal 2 that is the receiving side can read the nuance relating to the character information by the user operating the external device by the change of the scroll in the display unit 70.

実施例1による文字情報提示制御装置1−1について、携帯型情報端末2を例にして説明したが、文字情報提示制御装置1−1は、携帯型情報端末2に限らず、卓上のコンピュータ用ディスプレイ、テレビ受像装置等にも適用することができる。この場合、ユーザ3は、コンピュータのマウス、テレビ受像装置のリモコン等を使って、文字情報をスクロール制御するための操作を行うことができる。   The character information presentation control device 1-1 according to the first embodiment has been described by taking the portable information terminal 2 as an example. However, the character information presentation control device 1-1 is not limited to the portable information terminal 2, but for a desktop computer. The present invention can also be applied to a display, a television receiver, and the like. In this case, the user 3 can perform an operation for scroll control of the character information using a mouse of the computer, a remote control of the television receiver, or the like.

以上のように、実施例1の文字情報提示制御装置1−1によれば、文字情報提示部40のリアルタイムCG描画手段42は、文字グループ単位の文字情報を、画面の手前側から奥側へ向けてセンタリングしてレイアウトした形態で、奥側から手前側へ向けてスクロールし、表示部70に表示するようにした。これにより、ユーザ3は、文字グループ単位に、手前側にスクロールする文字情報を視認することができる。文字グループ単位の文字情報は、所定のサイズ、間隔、速度及び文字表示率にて、画面中央の奥側から手前側へ向けてセンタリングされて移動する。そして、文字グループ単位の文字情報は、画面中央の最も奥から出現し、スクロールして最も手前に表示された後、表示部70から消失する。したがって、ユーザ3は、自ずと表示部70の中心を見るようになり、視線移動が少なくなり、文字情報の視認性を向上させることが可能となる。   As described above, according to the character information presentation control device 1-1 of the first embodiment, the real-time CG drawing unit 42 of the character information presentation unit 40 transmits character information in character group units from the front side to the back side of the screen. In the form of being centered and laid out, it is scrolled from the back side toward the front side and displayed on the display unit 70. Thereby, the user 3 can visually recognize the character information scrolled to the near side for each character group. Character information in character group units is moved centered from the back side to the front side at the center of the screen at a predetermined size, interval, speed, and character display rate. The character information in character group units appears from the farthest center of the screen, scrolls and is displayed in the foreground, and then disappears from the display unit 70. Therefore, the user 3 naturally sees the center of the display unit 70, and the line-of-sight movement is reduced, and the visibility of the character information can be improved.

また、リアルタイムCG描画手段42は、文字グループ単位の文字情報を、手前側から奥側へ向け重ねて表示するようにした。また、奥側に位置する文字情報が遮蔽されることなく透過するような文字表示率にて、文字グループ単位の文字情報を表示するようにした。これにより、ユーザ3の視線移動は一層少なくなり、複数の文字グループ単位の文字情報における視認性を向上させることが可能となる。   In addition, the real-time CG drawing means 42 displays character information in units of character groups in an overlapping manner from the near side to the far side. In addition, the character information in character group units is displayed at a character display rate that allows the character information located on the back side to be transmitted without being blocked. Thereby, the line-of-sight movement of the user 3 is further reduced, and the visibility in the character information in a plurality of character groups can be improved.

また、リアルタイムCG描画手段42は、文字グループ単位の文字情報を、画面の手前側から奥側へ向けて、図9に示したような山型の台形の特性を有する文字表示率にて表示するようにした。これにより、文字グループ単位の文字情報は、手前側へ移動するに従って徐々に薄くなるように表示される。また、最大の文字表示率は100%でないから、ユーザ3は、文字表示率が最も高い位置よりも奥側に位置する文字情報を視認することができる。したがって、画面表示される全体の文字情報の視認性を、一層向上させることができる。   Further, the real-time CG drawing means 42 displays the character information of each character group from the front side to the back side of the screen at a character display rate having a mountain-shaped trapezoidal characteristic as shown in FIG. I did it. Thereby, the character information in character group units is displayed so as to gradually become thinner as it moves toward the front side. Moreover, since the maximum character display rate is not 100%, the user 3 can visually recognize the character information located behind the position where the character display rate is the highest. Therefore, the visibility of the entire character information displayed on the screen can be further improved.

また、文字情報分割部20は、全体の文字情報を文節及び単語に区切り分割データを生成し、リアルタイムCG描画手段42は、分割データから文節を取得し、文節毎の文字グループを設定するようにした。これにより、文節毎に区切った文字グループ単位の文字情報は、文字グループの句読点処理、間隔を設定する処理、3次元の仮想空間へ配置する処理のための判断材料となり、スクロールの単位となる。また、ユーザ3は、表示部70にスクロール表示される文字情報を文節毎に視認するから、時間をかけることなく一目で読み切ることができる。   Further, the character information dividing unit 20 generates the divided data by dividing the entire character information into clauses and words, and the real-time CG rendering means 42 acquires the clauses from the divided data and sets the character group for each clause. did. As a result, the character information in character group units divided for each phrase becomes a judgment material for punctuation processing of character groups, processing for setting intervals, and processing for arrangement in a three-dimensional virtual space, and becomes a unit of scrolling. Moreover, since the user 3 visually recognizes the character information scroll-displayed on the display unit 70 for each phrase, the user 3 can read it at a glance without taking time.

また、リアルタイムCG描画手段42は、文字グループが全角の文字記号により構成されている場合、文字グループの終わりが句読点であるときに、その先頭に半角の空白を挿入するようにした。これにより、文字グループに含まれる文字情報がセンタリングされるから、文字情報を視認するユーザ3は、文字グループに応じて視線を左右に移動させる必要がない。したがって、視線移動を一層少なくすることができ、視認性を一層向上させることができる。   In addition, when the character group is composed of full-width character symbols, the real-time CG rendering means 42 inserts a half-width space at the beginning when the end of the character group is a punctuation mark. Thereby, since the character information contained in the character group is centered, the user 3 who visually recognizes the character information does not need to move the line of sight to the left or right according to the character group. Therefore, the line-of-sight movement can be further reduced, and the visibility can be further improved.

また、リアルタイムCG描画手段42は、文字グループに含まれる文字情報のモーラ数または文字数を算出し、文字グループの間隔を設定するようにした。これにより、文字情報の長さに応じた間隔で文字グループがスクロール表示されるから、文字情報の視認性を一層向上させることが可能となる。   In addition, the real-time CG drawing means 42 calculates the number of mora or the number of characters in the character information included in the character group, and sets the character group interval. Thereby, since the character group is scroll-displayed at intervals corresponding to the length of the character information, the visibility of the character information can be further improved.

また、リアルタイムCG描画手段42は、文字情報に含まれる単語がモーラ辞書43に登録されていない場合、その単語と、その単語を構成する文字数等に基づいて策定したモーラ数とを対応させてモーラ辞書43に登録するようにした。これにより、文字情報に新語、造語等が含まれている場合であっても、新たな単語の情報がモーラ辞書43に登録されるから、モーラ辞書43を用いた文字グループの間隔の設定処理は、正確に行われる。   Further, when the word included in the character information is not registered in the mora dictionary 43, the real-time CG drawing unit 42 associates the word with the mora number determined based on the number of characters constituting the word. It was registered in the dictionary 43. Thereby, even when new words, coined words, and the like are included in the character information, new word information is registered in the mora dictionary 43. Therefore, the character group interval setting process using the mora dictionary 43 is performed. Done exactly.

また、操作入力部30は、ユーザ3による開始の始動制御スイッチの操作に従って開始の始動制御信号を出力し、リアルタイムCG描画手段42は、開始の始動制御信号を入力する提示制御手段41からの開始の制御信号に基づいて、文字情報のスクロールを開始し、全体の文字情報の句点または終わりまでスクロールした後に停止するようにした。これにより、ユーザ3の意思に従ったスクロール表示を実現することができる。尚、停止位置は、全体の文字情報の句点または終わり以外に、所定位置、すなわち文の終わりまたは文節の終わりであってもよい。例えば、重文または複文の場合、重文または複文を構成するそれぞれの文の終わりであってもよい。   The operation input unit 30 outputs a start control signal according to the start of the start control switch by the user 3, and the real-time CG drawing means 42 starts from the presentation control means 41 that inputs the start control signal. On the basis of the control signal, scrolling of character information is started, and after scrolling to the point or end of the whole character information, it is stopped. Thereby, the scroll display according to the intention of the user 3 is realizable. Note that the stop position may be a predetermined position, that is, the end of a sentence or the end of a phrase, in addition to the point or end of the entire character information. For example, in the case of a heavy sentence or a compound sentence, it may be the end of each sentence constituting the heavy sentence or the compound sentence.

また、操作入力部30は、文字情報がスクロールしている状態において、ユーザ3による一時停止の始動制御スイッチの操作に従って、一時停止の始動制御信号を出力し、リアルタイムCG描画手段42は、一時停止の始動制御信号を入力する提示制御手段41からの停止の制御信号に基づいて、スクロールを途中で停止するか、または最初に現れる句点までスクロールして停止するようにした。また、ユーザ3による開始の始動制御スイッチの操作に従って、スクロールを再開する。これにより、ユーザ3の意思に従って、スクロール表示を開始及び停止することができる。   Further, the operation input unit 30 outputs a pause start control signal in accordance with the operation of the pause start control switch by the user 3 while the character information is scrolling, and the real-time CG drawing means 42 pauses. On the basis of the stop control signal from the presentation control means 41 to which the start control signal is input, the scrolling is stopped halfway, or the scrolling is stopped by scrolling to the first appearing phrase. Further, the scrolling is resumed according to the operation of the start control switch started by the user 3. Thereby, according to the intention of the user 3, scroll display can be started and stopped.

〔実施例2〕
次に、実施例2について説明する。実施例2の文字情報提示制御装置は、撮影を目的とする状況において文字情報を発話者へ提示する装置であり、実施例1と同様にして文字情報を提示する機能に加え、原稿を読み上げている発話者の読み上げ進捗タイミングに合わせて、発話の区切りに相当する一文単位に原稿の文字情報をスクロール表示する機能を有する。
[Example 2]
Next, Example 2 will be described. The character information presentation control device according to the second embodiment is a device that presents character information to a speaker in a situation where shooting is intended. In addition to the function of presenting character information as in the first embodiment, the character information is read aloud. It has a function of scrolling and displaying character information of a manuscript in units of one sentence corresponding to an utterance break in accordance with the reading progress timing of a certain speaker.

図11は、実施例2の文字情報提示制御装置を用いて撮影を行う際の使用形態の例を説明する図である。この使用形態の撮影システムは、テレビ放送局のスタジオにおいて、文字情報提示制御装置1−2から提示される原稿の文字情報を、撮影カメラ7のレンズ前方に設けられた透過型の表示装置6に表示し、表示装置6に表示された原稿の文字情報を発話者4が読み上げ、その発話者4を撮影カメラ7が撮影するシステムである。撮影カメラ7は、透過型の表示装置6を介して発話者4を撮影し、発話者4のカメラ映像をテレビ受像装置8へ出力する。   FIG. 11 is a diagram illustrating an example of a usage pattern when shooting is performed using the character information presentation control apparatus according to the second embodiment. In this type of usage shooting system, the character information of the document presented from the character information presentation control device 1-2 is transmitted to the transmissive display device 6 provided in front of the lens of the shooting camera 7 in the studio of the television broadcasting station. This is a system in which the speaker 4 reads out the text information of the document displayed and displayed on the display device 6 and the photographing camera 7 photographs the speaker 4. The photographing camera 7 photographs the speaker 4 via the transmissive display device 6 and outputs the camera image of the speaker 4 to the television receiver 8.

文字情報提示制御装置1−2は、発話者4が読み上げる原稿の文字情報を、発話者4による読み上げ進捗タイミングに合わせて透過型の表示装置6へ出力する。具体的には、文字情報提示制御装置1−2は、発話者4による発話の音声信号をマイク5から入力し、音声信号を単語列に変換して原稿内の発話進捗を求め、発話者4が次に読み上げるべき原稿の文字情報を映像信号として、その進捗タイミングに合わせて表示装置6へ出力する。これにより、発話者4は、表示装置6により、発話者4が次に読み上げるべき原稿の文字情報を認識することができ、その文字情報に従って、所定の速度で原稿を読み上げることができる。   The character information presentation control device 1-2 outputs the character information of the manuscript read by the speaker 4 to the transmissive display device 6 in accordance with the reading progress timing of the speaker 4. Specifically, the character information presentation control device 1-2 receives the speech signal of the speech from the speaker 4 from the microphone 5, converts the speech signal into a word string, obtains the progress of the speech in the document, and determines the speaker 4 The character information of the original to be read out next is output as a video signal to the display device 6 in accordance with the progress timing. Thereby, the speaker 4 can recognize the character information of the original that the speaker 4 should read out next by the display device 6, and can read out the original at a predetermined speed according to the character information.

透過型の表示装置6は、文字情報を表示する透過型液晶表示板と、透過型液晶表示板にて透過した文字情報を発話者4へ向けて反射するハーフミラーとを備えたプロンプタである。発話者4と撮影カメラ7との間の距離が約3〜5mであるため、撮影カメラ7の前方に設けられた表示装置6によって発話者4が文字情報を視認するには、表示装置6の画面の大きさが40インチ以上である必要がある。従来のプロンプタは、ディスプレイ画面が最大でも24インチ程度である。このため、図11に示した撮影システムに用いるプロンプタは、40インチ以上の大型ディスプレイとハーフミラーとを組み合わせた表示装置6とする必要がある。   The transmissive display device 6 is a prompter that includes a transmissive liquid crystal display panel that displays character information and a half mirror that reflects the character information transmitted through the transmissive liquid crystal display board toward the speaker 4. Since the distance between the speaker 4 and the photographing camera 7 is about 3 to 5 m, the speaker 4 can visually recognize the character information by the display device 6 provided in front of the photographing camera 7. The screen size needs to be 40 inches or more. Conventional prompters have a maximum display screen of about 24 inches. For this reason, the prompter used in the photographing system shown in FIG. 11 needs to be a display device 6 that combines a large display of 40 inches or more and a half mirror.

表示装置6におけるハーフミラーの中央を、発話者4が撮影される撮影カメラ7の光軸の中心に一致させる。これにより、表示装置6の文字情報を読み上げる発話者4は、自ずと撮影カメラ7のレンズを見ることになる。したがって、撮影カメラ7により撮影された発話者4の視線は不自然ではないから、発話者4の映像を見る視聴者は、発話者4があたかも自分に発話しているように感じ、違和感を受けることがない。   The center of the half mirror in the display device 6 is made to coincide with the center of the optical axis of the photographing camera 7 where the speaker 4 is photographed. Thereby, the speaker 4 who reads out the character information on the display device 6 naturally sees the lens of the photographing camera 7. Therefore, since the line of sight of the speaker 4 photographed by the photographing camera 7 is not unnatural, the viewer who sees the video of the speaker 4 feels as if the speaker 4 is speaking to himself and feels strange. There is nothing.

(文字情報提示制御装置)
図12は、実施例2の文字情報提示制御装置1−2の構成を示すブロック図である。この文字情報提示制御装置1−2は、記憶部10、文字情報分割部20、文字情報提示部40及び始動制御部50を備えている。文字情報提示部40は、提示制御手段41、リアルタイムCG描画手段42及びモーラ辞書43を備えており、始動制御部50は、音声認識手段51及び動作判定手段52を備えている。文字情報提示制御装置1−2は、原稿の文字情報を分割して所定の文字グループを設定し、文字グループ単位の文字情報を、所定の形態の文字情報に変換し、すなわち、3次元の仮想空間内に配置された文字グループ単位の文字情報をスクロールし、その映像を仮想カメラに撮影させ、映像信号として出力する。また、文字情報提示制御装置1−2は、発話者4が原稿を読み上げているときの音声信号を入力し、3次元の仮想空間内に配置された文字グループ単位の文字情報のスクロールを、音声信号から変換した単語列に基づいて、発話の進捗タイミングに合うように制御する。
(Character information presentation control device)
FIG. 12 is a block diagram illustrating a configuration of the character information presentation control device 1-2 according to the second embodiment. The character information presentation control device 1-2 includes a storage unit 10, a character information division unit 20, a character information presentation unit 40, and a start control unit 50. The character information presentation unit 40 includes a presentation control unit 41, a real-time CG drawing unit 42, and a mora dictionary 43. The start control unit 50 includes a voice recognition unit 51 and an operation determination unit 52. The character information presentation control device 1-2 divides character information of a document to set a predetermined character group, converts character information in character group units into character information of a predetermined form, that is, a three-dimensional virtual The character information of each character group arranged in the space is scrolled, and the video is taken by the virtual camera and output as a video signal. In addition, the character information presentation control device 1-2 receives a voice signal when the speaker 4 is reading a document, and performs scrolling of character information in units of character groups arranged in a three-dimensional virtual space. Based on the word string converted from the signal, control is performed to match the progress timing of the utterance.

図13は、実施例2の文字情報提示処理を説明するフローチャートであり、図14は、実施例2の文字情報提示制御を説明するフローチャートである。以下、図13及び図14のフローチャートを参照して、図12に示す文字情報提示制御装置1−2の各構成部の処理について説明する。   FIG. 13 is a flowchart illustrating the character information presentation processing according to the second embodiment, and FIG. 14 is a flowchart illustrating character information presentation control according to the second embodiment. Hereinafter, processing of each component of the character information presentation control device 1-2 illustrated in FIG. 12 will be described with reference to the flowcharts of FIGS.

(1.原稿の準備)
文字情報提示制御装置1−2の記憶部10には、発話者4が読み上げる原稿の文字情報が予め格納されている。原稿の文字情報は、例えば図5に示した文字で構成された情報である。
(1. Preparation of manuscript)
In the storage unit 10 of the character information presentation control device 1-2, character information of the original read by the speaker 4 is stored in advance. The character information of the document is, for example, information composed of characters shown in FIG.

(2.分割データの生成)
文字情報分割部20は、実施例1と同様に、記憶部10から原稿の文字情報を読み出し(ステップS1301)、日本語辞書を用いて、原稿の文字情報を文節及び単語に区切って分割データに変換し(ステップS1302,1303)、分割データ(文節、単語)を文字情報提示部40及び始動制御部50に出力する。尚、図13のステップS1301〜ステップS1303は、図3に示した実施例1のステップS301〜ステップS303と同様である。
(2. Generation of divided data)
As in the first embodiment, the character information dividing unit 20 reads the character information of the original from the storage unit 10 (step S1301), and uses the Japanese dictionary to divide the character information of the original into phrases and words to obtain divided data. Conversion is performed (steps S1302 and 1303), and the divided data (sentence, word) is output to the character information presentation unit 40 and the start control unit 50. Note that steps S1301 to S1303 in FIG. 13 are the same as steps S301 to S303 in the first embodiment shown in FIG.

(3.文字情報提示の準備)
次に、文字情報提示部40は、実施例1と同様に、文字情報分割部20から分割データ(文節、単語)を入力し、文字情報を映像信号として表示装置6に出力するための準備を行う。また、始動制御部50は、文字情報分割部20から分割データ(文節、単語)を入力し、文字グループ単位の文字情報をスクロール制御するための準備を行う。ステップS1304〜ステップS1308において、分割データを構成する単語を、発音辞書(図12には図示せず)及びモーラ辞書43に登録する辞書登録処理が行われ、言語モデル及び音響モデル(図12には図示せず)の最適化が行われる。また、ステップS1309〜ステップS1314において、分割データを文節毎の文字グループに分け、3次元の仮想空間内に文字グループの文節を配置する等の処理が行われる。
(3. Preparation for presentation of text information)
Next, as in the first embodiment, the character information presentation unit 40 receives the divided data (phrase, word) from the character information division unit 20 and prepares to output the character information to the display device 6 as a video signal. Do. In addition, the start control unit 50 inputs division data (sentence, word) from the character information division unit 20 and prepares for scroll control of character information in character group units. In steps S1304 to S1308, dictionary registration processing for registering words constituting the divided data in the pronunciation dictionary (not shown in FIG. 12) and the mora dictionary 43 is performed, and a language model and an acoustic model (in FIG. 12). Optimization (not shown) is performed. Also, in steps S1309 to S1314, processing is performed such as dividing the divided data into character groups for each phrase and arranging the character group phrases in a three-dimensional virtual space.

(3.1 単語辞書登録、モーラ辞書作成、言語モデル適応化、音響モデル適応化)
始動制御部50の音声認識手段51は、文字情報分割部20から分割データ(文節、単語)を入力し、分割データから単語を取り出し、取り出した単語と、発音辞書に登録されている単語とを比較し、未登録の単語を抽出する(ステップS1304)。そして、音声認識手段51は、抽出した未登録単語を発音辞書に登録する(ステップS1305)。これにより、発音辞書に登録されていない新語または造語等の単語が原稿に存在する場合、発音辞書に予め登録することができる。また、文字情報提示部40のリアルタイムCG描画手段42も同様に、モーラ辞書43の作成のために未登録の単語を抽出する。
(3.1 Word dictionary registration, mora dictionary creation, language model adaptation, acoustic model adaptation)
The voice recognition means 51 of the start control unit 50 inputs the divided data (sentence, word) from the character information dividing unit 20, takes out the word from the divided data, and extracts the extracted word and the word registered in the pronunciation dictionary. The unregistered words are extracted by comparison (step S1304). Then, the voice recognition unit 51 registers the extracted unregistered word in the pronunciation dictionary (step S1305). Thereby, when a word such as a new word or coined word that is not registered in the pronunciation dictionary exists in the manuscript, it can be registered in the pronunciation dictionary in advance. Similarly, the real-time CG drawing means 42 of the character information presentation unit 40 extracts unregistered words for creating the mora dictionary 43.

リアルタイムCG描画手段42は、抽出した未登録単語のモーラ数を手動または自動にて設定し、未登録単語及びそのモーラ数をモーラ辞書43に登録することにより、新たなモーラ辞書43を作成する(ステップS1306)。モーラ数及びモーラ辞書43については実施例1において説明済みであるから、ここでは説明を省略する。このようにして作成されたモーラ辞書43は、後述するステップS1311において用いられる。尚、図13のステップS1304〜ステップS1306は、図3に示した実施例1のステップS304〜ステップS306と同様である。   The real-time CG drawing means 42 sets the number of mora of the extracted unregistered word manually or automatically, and registers the unregistered word and the number of mora in the mora dictionary 43 to create a new mora dictionary 43 ( Step S1306). Since the number of mora and the mora dictionary 43 have already been described in the first embodiment, description thereof is omitted here. The mora dictionary 43 created in this way is used in step S1311 described later. Note that steps S1304 to S1306 in FIG. 13 are the same as steps S304 to S306 in the first embodiment shown in FIG.

また、音声認識手段51は、言語面からみた単語間の類似度(言語スコア)を算出するために、未登録単語の言語パターンを言語モデルに予め登録し、言語モデルの適応化を図る(ステップS1307)。また、音声認識手段51は、音響面からみた単語間の類似度(音響スコア)を算出するために、必要に応じて、予め同一の発話者4による発話の音声信号を入力し、未登録単語の周波数パターンを音響モデルに登録し、音響モデルの適応化を図る(ステップS1308)。   Further, the speech recognition means 51 pre-registers the language pattern of unregistered words in the language model in order to calculate the similarity (word score) between words from the viewpoint of language, and adapts the language model (step). S1307). In addition, the speech recognition means 51 inputs a speech signal of an utterance by the same speaker 4 in advance in order to calculate the similarity (acoustic score) between words as viewed from the acoustic plane, and unregistered words Are registered in the acoustic model to adapt the acoustic model (step S1308).

このような事前学習による言語モデル及び音響モデルの適応化は、発話者4の発話を事前に録音することができる場合に行われる。このような適応化を図ることにより、音声認識手段51が音声信号を単語列に変換する際の音声認識精度を高めることができ、音声認識手段51は、入力した原稿の音声信号を、100%に近い音声認識精度で単語列に変換することができる。このため、発話者4による原稿の読み上げ音声に基づいた音声認識出力、すなわち、音声認識手段51により変換された単語列に基づいて、文字情報の提示制御を実現することができる。尚、発音辞書、言語モデル及び音響モデルを用いた音声認識手段51の処理については後述する。   Such adaptation of the language model and the acoustic model by pre-learning is performed when the speech of the speaker 4 can be recorded in advance. By adopting such adaptation, the voice recognition accuracy when the voice recognition unit 51 converts the voice signal into a word string can be improved. The voice recognition unit 51 converts the voice signal of the input document to 100%. Can be converted into a word string with a voice recognition accuracy close to. Therefore, it is possible to realize the presentation control of the character information based on the voice recognition output based on the reading voice of the original by the speaker 4, that is, on the word string converted by the voice recognition means 51. The processing of the speech recognition means 51 using the pronunciation dictionary, language model, and acoustic model will be described later.

(3.2 文字グループ化)(3.3 センタリングのための句読点処理)(3.4 文字情報提示間隔設定)(3.5 文字グループの仮想空間配置)(3.6 仮想カメラ位置の設定)(3.7 文字表示率の設定)
これらの処理は、実施例1と同様である。すなわち、リアルタイムCG描画手段42は、入力した分割データ(文節、単語)から、文節を1つの文字グループとして設定し(ステップS1309)、文字グループをセンタリングするために、文字グループの終わりが「。」または「、」等の句読点の場合、文字グループの先頭に半角の空白を挿入して句読点処理を行う(ステップS1310)。リアルタイムCG描画手段42は、モーラ辞書43を用いて文字グループ毎にモーラ数をカウントし、文字グループを3次元の仮想空間内に配置した場合の文字グループの間隔を設定する(ステップS1311)。そして、文字グループが3次元の仮想空間内に配置され(ステップS1312)、3次元の仮想空間内の仮想カメラの位置(高さ及び画角)が設定される(ステップS1313)。また、3次元の仮想空間に配置される文字グループ毎の文字表示率が、仮想カメラからの距離に応じて変化するように設定される(ステップS1314)。尚、図13のステップS1309〜ステップS1314は、図3に示した実施例1のステップS307〜ステップS312と同様である。
(3.2 Character grouping) (3.3 Punctuation processing for centering) (3.4 Character information presentation interval setting) (3.5 Virtual space layout of character group) (3.6 Virtual camera position setting) (3.7 Character display rate setting)
These processes are the same as those in the first embodiment. That is, the real-time CG drawing means 42 sets a phrase as one character group from the input divided data (phrase, word) (step S1309), and the character group ends at “.” In order to center the character group. Alternatively, in the case of punctuation marks such as “,”, a half-width space is inserted at the beginning of the character group to perform punctuation processing (step S1310). The real-time CG drawing means 42 counts the number of mora for each character group using the mora dictionary 43, and sets the character group interval when the character groups are arranged in the three-dimensional virtual space (step S1311). Then, the character group is arranged in the three-dimensional virtual space (step S1312), and the position (height and angle of view) of the virtual camera in the three-dimensional virtual space is set (step S1313). In addition, the character display rate for each character group arranged in the three-dimensional virtual space is set so as to change according to the distance from the virtual camera (step S1314). Steps S1309 to S1314 in FIG. 13 are the same as steps S307 to S312 in the first embodiment shown in FIG.

(4.文字情報の提示)
文字情報提示部40は、ステップS1309〜ステップS1314による文字情報提示の準備が完了した後、始動制御部50から始動制御信号を入力し、仮想空間内に配置した文字グループをスクロール制御し、仮想カメラが文字グループ単位の文字情報を仮想的に撮影したときの映像信号を生成し、表示装置6に出力する(ステップS1315)。尚、図13のステップS1315は、図3に示した実施例1のステップS313と同様である。
(4. Presentation of character information)
The character information presenting unit 40 receives a start control signal from the start control unit 50 after the preparation for character information presentation in steps S1309 to S1314 is completed, and controls scrolling of the character group arranged in the virtual space. Generates a video signal when the character information of the character group is virtually photographed and outputs it to the display device 6 (step S1315). Note that step S1315 in FIG. 13 is the same as step S313 in the first embodiment shown in FIG.

(5.文字情報提示制御)
次に、原稿を読み上げる発話者4の発話進捗タイミングに合った文字グループ単位の文字情報をスクロールし、その映像信号を表示装置6に出力するための文字情報提示制御について説明する。この文字情報提示制御は、文字情報提示部40がスクロールを開始及び停止する制御であり、始動制御部50により生成された始動制御信号に基づいて、一文毎に、予め設定された再生速度にて行われる。例えば、8モーラ/秒の再生速度にて行われる。再生速度は、文字グループ単位の文字情報が画面中央の奥側から手前側へ向けて移動する速度であり、文字グループの間隔は、文字グループのモーラ数に基づいて決定される。つまり、8モーラ/秒の再生速度とは、例えば8モーラ数の文字グループの間隔を、1秒で移動する速度である。始動制御信号は、表示装置6に表示された原稿の文字情報を発話者4が読み上げているときの進捗タイミングに合わせて、発話者4が次に読み上げるべき一文の文字情報がスクロールして表示されるように、発話者4の音声信号及び原稿の分割データに基づいて生成される。
(5. Character information presentation control)
Next, the character information presentation control for scrolling the character information in units of character groups in accordance with the speech progress timing of the speaker 4 who reads the document and outputting the video signal to the display device 6 will be described. This character information presentation control is a control in which the character information presentation unit 40 starts and stops scrolling. Based on the start control signal generated by the start control unit 50, the text information presentation control is performed at a preset reproduction speed for each sentence. Done. For example, it is performed at a reproduction speed of 8 mora / second. The reproduction speed is a speed at which character information in character group units moves from the back side toward the near side in the center of the screen, and the character group interval is determined based on the number of character groups. In other words, the playback speed of 8 mora / second is a speed at which, for example, an interval of character groups of 8 mora is moved in 1 second. The start control signal is displayed by scrolling the character information of one sentence that the speaker 4 should read out next in accordance with the progress timing when the speaker 4 is reading out the character information of the document displayed on the display device 6. As described above, it is generated based on the voice signal of the speaker 4 and the divided data of the original.

ここで、一文とは、基本的には主語と述語(一方が省略されることもある)からなる、一つの完結した言明を表す言語表現の単位をいい、文の始めから終わりまでをいう。例えば、文の始めから最初に現れる句点「。」までの文字情報をいい、複数の文字グループにより構成される。図5に示した例では、「まず、ガソリン税などの暫定税率を維持するとした税制関連法の成立です。」が一文になる。また、一文には、重文または複文を構成するそれぞれの文が含まれる。この場合、一文の終わりは、必ずしも句点「。」であるとは限らない。   Here, a sentence basically means a unit of linguistic expression representing a complete statement consisting of a subject and a predicate (one may be omitted), and means from the beginning to the end of a sentence. For example, it refers to character information from the beginning of a sentence to the first punctuation mark “.”, And is composed of a plurality of character groups. In the example shown in FIG. 5, “Firstly, the establishment of a tax-related law that maintains a provisional tax rate such as gasoline tax” is a single sentence. Further, one sentence includes each sentence constituting a heavy sentence or a compound sentence. In this case, the end of one sentence is not always a punctuation mark “.”.

文字情報提示制御を実現するために、音声認識手法が用いられる。図15は、図12に示した始動制御部50における音声認識手段51の構成を示すブロック図である。音声認識手段51は、音声分析手段53、探索手段54、言語モデル55、音響モデル56及び発音辞書57を備えており、撮影中の発話者4が原稿を読み上げているときのその音声信号を入力し、音声認識手法を用いて、音声信号と予め記憶された音声周波数パターンとの間で周波数マッチングを行い、音声信号を単語に変換し、単語列を動作判定手段52に出力する。言語モデル55は、大量の言語情報で学習された確率モデルであり、音響モデル56は、大量の音声データで学習された確率モデルである。発音辞書57は、単語の表記と発音とを対応づけたリストである。   A speech recognition method is used to implement character information presentation control. FIG. 15 is a block diagram showing the configuration of the voice recognition means 51 in the start control unit 50 shown in FIG. The voice recognition means 51 includes a voice analysis means 53, a search means 54, a language model 55, an acoustic model 56, and a pronunciation dictionary 57, and inputs the voice signal when the speaker 4 who is shooting is reading a document. Then, using a speech recognition method, frequency matching is performed between the speech signal and a speech frequency pattern stored in advance, the speech signal is converted into a word, and the word string is output to the motion determination means 52. The language model 55 is a probability model learned from a large amount of language information, and the acoustic model 56 is a probability model learned from a large amount of speech data. The pronunciation dictionary 57 is a list in which word notation and pronunciation are associated with each other.

音声分析手段53は、発話者4の音声を集音したマイク5から音声信号を入力し、音声信号を分析し、その音声信号の特徴量を特徴ベクトルとして抽出する。探索手段54は、音声分析手段53から音声信号の特徴ベクトルを入力し、言語モデル55から得られる確率値(言語スコア)をもとに、接続される出力系列(単語)の候補を順次リストアップする。また、リストアップした出力系列の探索候補毎に、発音辞書57で示される発音に対応する各音素の音響モデル56における特徴量と、入力した音声信号の特徴量(特徴ベクトル)との間の類似度(確率値)を音響スコアとして算出する。そして、探索手段54は、音響スコアと言語スコアとの積が最大となる出力系列を、音声認識出力の単語列として動作判定手段52に出力する。動作判定手段52は、音声認識手段51により変換された、発話者4が実際に読み上げている原稿の単語列に基づいて、始動制御信号を生成する。そして、文字情報提示部40は、この始動制御信号に基づいて、文字グループ単位の文字情報を表示装置6に提示し、スクロール表示する。   The voice analysis means 53 inputs a voice signal from the microphone 5 that picks up the voice of the speaker 4, analyzes the voice signal, and extracts a feature amount of the voice signal as a feature vector. The search means 54 receives the feature vector of the speech signal from the speech analysis means 53, and sequentially lists candidates for the output series (word) to be connected based on the probability value (language score) obtained from the language model 55. To do. For each output sequence search candidate listed, the similarity between the feature amount in the acoustic model 56 of each phoneme corresponding to the pronunciation shown in the pronunciation dictionary 57 and the feature amount (feature vector) of the input speech signal. The degree (probability value) is calculated as an acoustic score. Then, the search means 54 outputs the output series that maximizes the product of the acoustic score and the language score to the action determination means 52 as a word string of speech recognition output. The action determination unit 52 generates a start control signal based on the word string of the document that is actually read out by the speaker 4 and converted by the voice recognition unit 51. And the character information presentation part 40 presents the character information of a character group unit to the display apparatus 6 based on this starting control signal, and scroll-displays it.

以下、文字情報提示制御について具体的に説明する。図14を参照して、文字情報提示制御装置1−2が提示待機状態にあるときに(ステップS1401)、始動制御部50の動作判定手段52は、音声認識手段51から音声認識出力の単語列を入力すると共に、文字情報分割部20から原稿の分割データを入力し、分割データにおける一文の始まり(文章冒頭)の単語列と、音声認識出力の単語列とを比較する(ステップS1402)。すなわち、動作判定手段52は、分割データの単語列と音声認識出力の単語列との間の一致率を算出し、一致率が所定の閾値以上であるか否かを判定する(ステップS1403)。   Hereinafter, the character information presentation control will be specifically described. Referring to FIG. 14, when character information presentation control device 1-2 is in the presentation standby state (step S1401), operation determination unit 52 of start control unit 50 receives the word sequence of the speech recognition output from speech recognition unit 51. Is input from the character information dividing unit 20, and the word string at the beginning of the sentence (at the beginning of the sentence) in the divided data is compared with the word string in the speech recognition output (step S1402). In other words, the action determination unit 52 calculates a matching rate between the word string of the divided data and the word string of the speech recognition output, and determines whether or not the matching rate is equal to or higher than a predetermined threshold (step S1403).

動作判定手段52は、一致率が所定の閾値以上でないと判定した場合(ステップS1403:N)、ステップS1401へ移行する。一方、一致率が所定の閾値以上であると判定した場合(ステップS1403:Y)、発話者4が所定の一文の読み上げを開始したと判断し、始動制御信号を出力する。例えば、閾値を80%とした場合、分割データにおける一文の始まりから5個の単語と、音声認識出力の単語列における連続した5個の単語とをそれぞれ比較し、4個以上の単語が一致したときに、一致率が所定の閾値以上であると判定される。また、この例では、一文の始まりから5個の単語のうち4個以上一致した場合に閾値以上であると判定したが、応答速度を優先させるため、一文の始まりから3個の単語のうち2個以上の単語が一致した場合を閾値以上であると判定することもある等、発話者の声質や発話の特徴を考慮して、変更することも可能である。   If it is determined that the matching rate is not equal to or higher than the predetermined threshold (step S1403: N), the operation determination unit 52 proceeds to step S1401. On the other hand, when it is determined that the coincidence rate is equal to or higher than the predetermined threshold (step S1403: Y), it is determined that the speaker 4 has started reading a predetermined sentence, and a start control signal is output. For example, when the threshold is 80%, five words from the beginning of one sentence in the divided data are compared with five consecutive words in the word sequence of the speech recognition output, and four or more words match. Sometimes, it is determined that the match rate is equal to or greater than a predetermined threshold. In this example, when four or more of five words from the beginning of a sentence match, it is determined that the threshold value is exceeded. However, in order to prioritize response speed, two of three words from the beginning of one sentence are determined. It is also possible to change in consideration of the voice quality of the speaker and the characteristics of the utterance, such as determining that the number of words or more matches is greater than the threshold.

文字情報提示部40の提示制御手段41は、動作判定手段52から始動制御信号を入力すると、開始の制御信号をリアルタイムCG描画手段42に出力する。リアルタイムCG描画手段42は、提示制御手段41により出力された開始の制御信号に基づいて、一文に対する文字グループ単位の文字情報の提示処理、すなわち、一文のスクロール処理を開始する(ステップS1404)。これにより、一文に対する文字グループ単位の文字情報が表示装置6にスクロール表示され、発話者4は発話すべき文字情報を認識することができる。   When the start control signal is input from the action determination unit 52, the presentation control unit 41 of the character information presentation unit 40 outputs a start control signal to the real-time CG drawing unit 42. The real-time CG drawing unit 42 starts the presentation process of character information in units of character groups for one sentence, that is, the scroll process of one sentence, based on the start control signal output by the presentation control unit 41 (step S1404). As a result, the character group unit character information for one sentence is scroll-displayed on the display device 6, and the speaker 4 can recognize the character information to be uttered.

リアルタイムCG描画手段42は、提示制御手段41からの開始の制御信号に基づいて、一文の始まりの文字情報から終わりの文字情報まで、表示装置6の画面中央の奥側から手前側へ向けて文字グループ単位に、順次のスクロール表示を行い、一文の終わりの文字情報を表示装置6の最も手前に表示する。そして、リアルタイムCG描画手段42は、表示装置6から消失したときに、提示制御手段41からの停止の制御信号に基づいて、文字情報提示処理であるスクロール処理を停止する(ステップS1405)。この場合、リアルタイムCG描画手段42は、その一文の次に新たな一文が存在するときには、提示制御手段41からの制御信号に基づいて、その新たな一文の始まりの文字情報を表示装置6の最も手前までスクロール表示し、その次の文字情報を奥側に表示して、スクロール処理を停止する。   Based on the start control signal from the presentation control means 41, the real-time CG drawing means 42 performs characters from the back side of the center of the screen of the display device 6 toward the near side from the character information at the beginning of the sentence to the end of the character information. Sequential scroll display is performed for each group, and character information at the end of one sentence is displayed in front of the display device 6. Then, when the real-time CG drawing unit 42 disappears from the display device 6, the real-time CG drawing unit 42 stops the scroll process that is the character information presentation process based on the stop control signal from the presentation control unit 41 (step S 1405). In this case, when there is a new sentence next to the one sentence, the real-time CG drawing means 42 displays the character information of the start of the new sentence on the display device 6 based on the control signal from the presentation control means 41. Scroll to the front, display the next character information on the back side, and stop the scroll process.

これにより、発話者4は、現在読み上げている一文の読み上げが終了した後に読み上げるべき一文について、その始まりから複数の文字グループ単位の文字情報を、自分に最も近い位置から奥へ向けて順番に表示装置6によって認識することができる。したがって、発話者4は、一文の読み上げを終了した後に、一文と一文との間で間(ま)を置くことなく、継続して原稿を読み上げることができる。発話者4は、一文の読み上げを終了した後に間を置いたり、原稿の内容とは異なるアドリブを発話したり等、原稿の読み上げを継続しない場合であっても、次に読み上げるべき一文の始まりから複数の文字グループ単位の文字情報が表示装置6に表示されているから、次の一文の読み上げを円滑に行うことができる。   As a result, the speaker 4 displays the character information in units of a plurality of character groups from the beginning toward the back in order from the beginning of the one sentence to be read out after the reading of the one sentence currently being read out is completed. It can be recognized by the device 6. Therefore, the speaker 4 can continuously read out the original without leaving a space between the one sentence and the one sentence after completing the reading out of one sentence. Even if the speaker 4 does not continue reading the manuscript, such as after having finished reading one sentence or speaking an ad lib different from the contents of the manuscript, the speaker 4 starts from the beginning of the next sentence to be read out. Since the character information of a plurality of character groups is displayed on the display device 6, the next one sentence can be read out smoothly.

提示制御手段41は、原稿の文字情報に次の一文が存在するか否かを判定する(ステップS1406)。次の一文が存在すると判定した場合(ステップS1406:Y)、その新たな一文の始まりの文字情報を表示装置6の最も手前に、それに続く一連の文字グループ単位の文字情報がその奥側にそれぞれ表示された状態で、文字情報提示制御装置1−2が提示待機状態となり、ステップS1401へ移行する。一方、次の一文が存在しないと判定した場合(ステップS1406:N)、処理を終了する。   The presentation control unit 41 determines whether or not the next sentence exists in the character information of the document (step S1406). When it is determined that the next sentence is present (step S1406: Y), the character information at the beginning of the new sentence is placed at the forefront of the display device 6 and the character information in units of the following character groups is placed at the back side. In the displayed state, the character information presentation control device 1-2 enters a presentation standby state, and the process proceeds to step S1401. On the other hand, if it is determined that the next sentence does not exist (step S1406: N), the process ends.

ところで、発話者4が新たな一文を読み上げ始めようとするときに、表示装置6には、その新たな一文の始まりの文字グループが最も手前に、それに続く複数の文字グループが中央奥へ向けて表示されている。そして、発話者4が表示装置6に表示されている新たな一文を読み始めると、図14のステップS1402,1403においてスクロール表示が開始される。   By the way, when the speaker 4 starts reading a new sentence, the display device 6 has the character group at the beginning of the new sentence closest to the front, and the plurality of character groups that follow the character group toward the center back. It is displayed. When the speaker 4 starts reading a new sentence displayed on the display device 6, scroll display is started in steps S1402 and 1403 in FIG.

しかし、図12及び図15に示した音声認識手段51の処理(発話者4の音声信号を単語列に変換する処理)には、通常約500msの時間が必要である。同様に、動作判定手段52により始動制御信号を生成する処理にも、複数の単語間の一致率を算出して始動制御信号を生成するから、所定の時間が必要である。つまり、発話者4による発話の音声信号を単語列に変換する音声認識処理、始動制御信号の生成処理に時間がかかり、その時間分の遅延が生じる。このため、表示装置6に表示されている新たな一文の読み上げを開始した後、次に読み上げるべき文字情報が、読み上げタイミングよりも遅れて表示装置6に表示される場合があり得る。   However, the processing of the speech recognition means 51 shown in FIGS. 12 and 15 (processing for converting the speech signal of the speaker 4 into a word string) usually requires about 500 ms. Similarly, the process for generating the start control signal by the motion determination means 52 also requires a predetermined time since the start control signal is generated by calculating the coincidence rate between a plurality of words. That is, it takes time for the voice recognition process for converting the voice signal of the utterance by the speaker 4 into a word string and the generation process of the start control signal, and a delay corresponding to that time occurs. For this reason, after starting to read a new sentence displayed on the display device 6, the character information to be read next may be displayed on the display device 6 later than the reading timing.

そこで、表示装置6に表示されている一文の始まりの文字情報を読み始めてから、スクロールが開始するまでの間の遅延時間を吸収するために、すなわち、表示装置6において最も手前から開始して最も奥の文字情報の読み上げが完了する前にリアルタイムCG描画手段42がスクロールを開始するように、所定数の文字グループ単位の文字情報が予め表示装置6に表示されている必要がある。すなわち、文字情報提示準備の段階で、図13のステップS1312において、所定数の文字グループが3次元の仮想空間内に配置される必要がある。具体的には、図9を参照して、文字表示率が0%でない範囲における文字グループの数が所定数になるから、文字表示率が0%でない範囲において、一文の始まりの文字グループが手前(文字情報の進行方向側)に配置され、その文字グループから最も奥に後続の文字グループが配置された場合を想定する。発話者4が一文の先頭の文字グループから読み始めて最も奥の文字グループの読み上げを完了する時間(読み上げ時間)と、前述した遅延時間とにより、読み上げ時間が遅延時間よりも長くなるように、すなわち、遅延時間内に、最も奥までの読み上げが完了しないよう、ステップS1311にて設定された文字グループの間隔、及び再生速度を考慮し、文字表示率が0%でない範囲における文字グループの数が決定され、3次元の仮想空間内に文字グループが配置される。   Therefore, in order to absorb the delay time from the start of reading the character information at the beginning of one sentence displayed on the display device 6 until the start of scrolling, that is, the display device 6 starts from the foremost and most Character information for a predetermined number of character groups needs to be displayed in advance on the display device 6 so that the real-time CG drawing means 42 starts scrolling before the reading of the back character information is completed. That is, at the stage of character information presentation preparation, it is necessary to arrange a predetermined number of character groups in the three-dimensional virtual space in step S1312 of FIG. Specifically, referring to FIG. 9, since the number of character groups in the range where the character display rate is not 0% is a predetermined number, the character group at the beginning of one sentence is in the foreground within the range where the character display rate is not 0%. It is assumed that the character group is arranged on the character information traveling direction side and the subsequent character group is arranged farthest from the character group. The reading time is longer than the delay time by the time when the speaker 4 starts reading from the first character group of one sentence and completes the reading of the innermost character group (reading time) and the delay time described above, that is, The number of character groups in the range where the character display rate is not 0% is determined in consideration of the character group interval and the reproduction speed set in step S1311 so that the reading to the end is not completed within the delay time. The character group is arranged in the three-dimensional virtual space.

このように、一文の始まりの文字情報は、画面中央奥(中心)に対して、オフセットがかかった状態で手前側へ向けて表示される。図16は、発声、音声認識及び文字情報提示の時間関係を説明する図である。図16では、発話者4の発声と音声認識との間に遅延があり、画面の最も手前には「まず、」、その奥には「ガソリン税などの」「暫定税率を」「維持すると」「した」がそれぞれ表示されている状態を示している。また、発話者4が原稿の一文の読み上げを開始すると、2グループ分進んだ「暫定税率を」の文字グループを読み上げているときにスクロール表示が開始する。そして、「まず、」が手前から消失し、画面中央の最も奥から「税制関連法の」が出現し、画面の最も手前には「ガソリン税などの」、その奥には「暫定税率を」「維持すると」「した」「税制関連法の」がそれぞれ表示される。そして、スクロールにより文字グループ単位の文字情報の消失及び出現を繰り返し、表示される文字情報が順次更新される。   Thus, the character information at the beginning of a sentence is displayed toward the front side with an offset applied to the center back (center) of the screen. FIG. 16 is a diagram for explaining a time relationship between utterance, voice recognition, and character information presentation. In FIG. 16, there is a delay between the utterance of the speaker 4 and the voice recognition, “first” at the forefront of the screen, “gasoline tax etc.” “provisional tax rate” “maintain” in the back “Done” is displayed. When the speaker 4 starts reading a sentence of the manuscript, scroll display starts when the character group “provisional tax rate” advanced by two groups is read. Then, `` First '' disappears from the front, `` Tax-related law '' appears from the back of the center of the screen, `` Gasoline tax etc. '' at the front of the screen, `` Provisional tax rate '' at the back “To be maintained”, “Done”, and “Tax-related laws” are displayed. Then, the disappearance and appearance of character information in units of character groups are repeated by scrolling, and the displayed character information is sequentially updated.

したがって、発話者4が、表示装置6に表示されている一文の始まりの文字情報を読み始めてから、画面奥に表示されている文字情報を読み終わる前に、スクロール表示が開始されることになり、発話者4が読み上げるべき文字情報が、そのタイミングに遅れて表示装置6に表示されることがない。つまり、発話者4は、最も手前に表示されている文字情報から順次発声し、丁度、画面中央に表示されている文字グループを読み上げているときに、音声認識手段51及び動作判定手段52による音声認識等の処理が終了し、リアルタイムCG描画手段42は、次の文字グループ単位の文字情報を表示し、次の一文の始まりを表示するまで、予め設定された再生速度でスクロールを行う。   Therefore, after the speaker 4 starts reading the character information at the beginning of one sentence displayed on the display device 6, the scroll display is started before reading the character information displayed at the back of the screen. The character information that the speaker 4 should read out is not displayed on the display device 6 after the timing. That is, the speaker 4 speaks sequentially from the character information displayed on the foremost side, and when the speaker group is reading out the character group displayed in the center of the screen, the speech recognition unit 51 and the action determination unit 52 perform the speech. After the processing such as recognition is completed, the real-time CG drawing means 42 displays the character information of the next character group unit, and scrolls at a preset reproduction speed until the start of the next sentence is displayed.

以上のように、実施例2の文字情報提示制御装置1−2によれば、文字情報提示部40のリアルタイムCG描画手段42は、文字グループ単位の文字情報を、画面の手前側から奥側へ向けてセンタリングしてレイアウトした形態で、奥側から手前側へ向けてスクロールし、表示装置6に表示するようにした。これにより、発話者4は、文字グループ単位に手前側にスクロールする文字情報を、表示装置6のハーフミラーの反射により見ることができる。文字グループ単位の文字情報は、所定のサイズ、間隔、速度及び文字表示率にて、画面中央の奥側から手前側へ向けてセンタリングされて移動する。そして、文字グループ単位の文字情報は、画面中央の最も奥から出現し、スクロールして最も手前に表示された後消失する。したがって、発話者4は、自ずと表示装置6の中心を見るようになり、実施例1と同様に、視線移動が少なくなり、文字情報の視認性を向上させることが可能となる。また、発話者4は、撮影カメラ7の撮影レンズの中心を見ることになるから、発話者4の視線は不自然にならず、発話者4の映像を見る視聴者は、発話者4があたかも自分に発話しているように感じ、違和感を受けることがない。   As described above, according to the character information presentation control device 1-2 of the second embodiment, the real-time CG drawing unit 42 of the character information presentation unit 40 transmits character information in character group units from the front side to the back side of the screen. In the form of being centered and laid out, it is scrolled from the back side toward the front side and displayed on the display device 6. Thereby, the speaker 4 can see the character information scrolling forward in character group units by the reflection of the half mirror of the display device 6. Character information in character group units is moved centered from the back side to the front side at the center of the screen at a predetermined size, interval, speed, and character display rate. The character information in character group units appears from the farthest center of the screen, disappears after scrolling and being displayed at the front. Accordingly, the speaker 4 naturally sees the center of the display device 6, and as in the first embodiment, the line of sight movement is reduced, and the visibility of the character information can be improved. Further, since the speaker 4 looks at the center of the photographing lens of the photographing camera 7, the line of sight of the speaker 4 is not unnatural, and the viewer who views the image of the speaker 4 is as if the speaker 4 is speaking. I feel like I'm speaking to myself and I don't feel uncomfortable.

また、文字グループ単位の文字情報の表示形態、センタリングのための句読点処理、文字グループの間隔の設定等、実施例1と同一の処理については、実施例1と同様の効果を奏する。   In addition, the same processing as in the first embodiment, such as the display mode of character information in character group units, punctuation processing for centering, and the setting of character group intervals, has the same effects as in the first embodiment.

また、文字情報分割部20は、原稿の文字情報を文節及び単語に区切り分割データを生成し、音声認識手段51は、発話者4が読み上げている原稿の音声信号を、音声認識手法を用いて単語列に変換し、動作判定手段52は、音声信号の単語列と分割データの単語列とを比較し、表示装置6に既に表示されている一文の始まりを読み上げているかを判定し、発話進捗に応じた始動制御信号を出力するようにした。また、リアルタイムCG描画手段42は、始動制御信号のタイミングにて、スクロールを開始し、一文の終わりで停止するようにした。これにより、発話者4は、自分の手によって、読み上げている原稿を進めたり送ったりする必要がなくなり、自分の意思どおりに発話速度のタイミングで原稿を読み上げることができる。また、座った状態だけでなく立った状態においても、表示装置6から原稿の文字情報を連続的に入手することができる。   Further, the character information dividing unit 20 generates divided data by dividing the character information of the document into phrases and words, and the speech recognition means 51 uses the speech recognition method for the speech signal of the document read by the speaker 4. The motion determination means 52 compares the word sequence of the audio signal with the word sequence of the divided data, determines whether the start of one sentence already displayed on the display device 6 is read out, and the speech progress A start control signal corresponding to the output is output. The real-time CG drawing means 42 starts scrolling at the timing of the start control signal and stops at the end of one sentence. As a result, the speaker 4 does not need to advance or send the read-out manuscript by his / her hand, and can read out the manuscript at the utterance speed as his / her intention. Further, the character information of the document can be continuously obtained from the display device 6 not only in the sitting state but also in the standing state.

また、動作判定手段52は、音声信号の単語列と分割データの単語列とを比較し、表示装置6に既に提示されている一文の始まりを読み上げているかを判定し、読み上げていると判定した場合、始動制御信号を出力するようにした。また、リアルタイムCG描画手段42は、始動制御信号のタイミングにて、提示制御手段41からの開始の制御信号に基づいて、スクロールを開始し、発話者4が読み上げ始めた一文の最後の文字情報(句点「。」)が表示装置6から消失し、次の一文の始まりの文字情報を手前側に表示し、それに続く文字情報を奥側へ向けてそれぞれ表示したときに、スクロールを停止するようにした。これにより、発話者4による一文の読み上げの開始に伴って、その一文の文字情報が表示装置6にスクロール表示される。そして、一文の読み上げが完了したときには、次の一文の始まりから所定数の文字グループにおける文字情報を、表示装置6にて視認することができる。したがって、発話者は一文と一文との間に間(ま)を置くことなく原稿を読み続けることができ、この場合、読み上げた次の一文の読み始めの音声信号を音声認識することにより、次の一文の表示を連続的に行うことができる。また、発話者が一文の読み上げを終了した後に間を置いたり、原稿の内容とは異なるアドリブを発話したりすることもでき、その後に、次の一文の読み上げを円滑に行うことができる。   In addition, the operation determination unit 52 compares the word string of the audio signal and the word string of the divided data, determines whether the start of one sentence already presented on the display device 6 is read out, and determines that the reading is performed. In this case, a start control signal is output. Further, the real-time CG drawing means 42 starts scrolling based on the start control signal from the presentation control means 41 at the timing of the start control signal, and the last character information of one sentence that the speaker 4 has started to read ( The punctuation mark “.”) Disappears from the display device 6, the character information at the beginning of the next sentence is displayed on the front side, and the subsequent character information is displayed toward the back side so that the scrolling is stopped. did. Thereby, as the speaker 4 starts reading a sentence, the text information of the sentence is scroll-displayed on the display device 6. When the reading of one sentence is completed, the character information in a predetermined number of character groups can be visually recognized on the display device 6 from the beginning of the next sentence. Therefore, the speaker can continue to read the manuscript without leaving a space between one sentence, and in this case, by recognizing the voice signal at the beginning of reading the next sentence read out, One sentence can be displayed continuously. In addition, it is possible to pause after the speaker finishes reading one sentence, or to speak an ad-lib different from the content of the original, and thereafter, the next sentence can be read out smoothly.

また、リアルタイムCG描画手段42は、発話者4が読み上げるべき一文の始まりから連続した文字グループ単位の文字情報を表示装置6に表示した状態で、提示制御手段41からの停止の制御信号に基づいて、スクロール表示を停止する。この場合、表示装置6に表示されている文字グループの数は、表示されている文字情報を発話者4が読み上げ始めてから全ての文字情報の読み上げを完了する前に、リアルタイムCG描画手段42が提示制御手段41からの開始の制御信号に基づいてスクロールを開始するように、読み上げの開始からスクロールの開始までの間の遅延時間に応じた数とするようにした。すなわち、発話者4の読み上げが完了する前にリアルタイムCG描画手段42が提示制御手段41からの開始の制御信号に基づいてスクロールを開始するように、3次元の仮想空間内に所定数の文字グループが配置される。これにより、表示装置6に表示されている文字情報を発話者4が読み上げ、音声信号を認識して一文の読み始めを判定する処理等による遅延時間を考慮した文字グループの数にて、表示装置6に文字情報が表示される。したがって、発話者4が表示装置6に表示されている文字情報を読み終わる前には、スクロール表示が開始されており、読み上げるべき文字情報は表示装置6に表示され、常に表示装置6を見ながら読み上げを継続することができる。   In addition, the real-time CG drawing means 42 is based on the stop control signal from the presentation control means 41 in a state where the character information in units of character groups continuous from the beginning of one sentence to be read out by the speaker 4 is displayed on the display device 6. , Stop scrolling display. In this case, the number of character groups displayed on the display device 6 is provided by the real-time CG rendering means 42 after the speaker 4 starts reading the displayed character information and before completing the reading of all the character information. A number corresponding to the delay time from the start of reading to the start of scrolling is set so that scrolling is started based on a start control signal from the control means 41. That is, a predetermined number of character groups in the three-dimensional virtual space are set so that the real-time CG drawing means 42 starts scrolling based on the start control signal from the presentation control means 41 before the speaker 4 completes reading. Is placed. Thereby, the speaker 4 reads out the character information displayed on the display device 6, and the display device has the number of character groups in consideration of the delay time due to the process of determining the start of reading one sentence by recognizing the voice signal. Character information is displayed at 6. Therefore, before the speaker 4 finishes reading the character information displayed on the display device 6, scroll display is started, and the character information to be read out is displayed on the display device 6, always watching the display device 6. You can continue reading.

尚、実施例1の文字情報提示制御装置1−1及び実施例2の文字情報提示制御装置1−2は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。文字情報提示制御装置1−1に備えた文字情報分割部20、操作入力部30及び文字情報提示部40の各機能、並びに、文字情報提示制御装置1−2に備えた文字情報分割部20、文字情報提示部40及び始動制御部50の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもできる。   The character information presentation control device 1-1 according to the first embodiment and the character information presentation control device 1-2 according to the second embodiment include a volatile storage medium such as a CPU and a RAM, a nonvolatile storage medium such as a ROM, and The computer is configured with an interface and the like. Each function of the character information division unit 20, the operation input unit 30 and the character information presentation unit 40 provided in the character information presentation control device 1-1, and the character information division unit 20 provided in the character information presentation control device 1-2, Each function of the character information presentation unit 40 and the start control unit 50 is realized by causing the CPU to execute a program describing these functions. These programs can also be stored and distributed in a storage medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, or the like.

1 文字情報提示制御装置
2 携帯型情報端末
3 ユーザ
4 発話者
5 マイク
6 表示装置
7 撮影カメラ
8 テレビ受像装置
10 記憶部
20 文字情報分割部
30 操作入力部
40 文字情報提示部
41 提示制御手段
42 リアルタイムCG描画手段
43 モーラ辞書
50 始動制御部
51 音声認識手段
52 動作判定手段
53 音声分析手段
54 探索手段
55 言語モデル
56 音響モデル
57 発音辞書
60 通信部
70 表示部
DESCRIPTION OF SYMBOLS 1 Character information presentation control apparatus 2 Portable information terminal 3 User 4 Speaker 5 Microphone 6 Display apparatus 7 Shooting camera 8 Television receiver 10 Storage part 20 Character information division part 30 Operation input part 40 Character information presentation part 41 Presentation control means 42 Real-time CG drawing means 43 Mora dictionary 50 Start control section 51 Speech recognition means 52 Operation determination means 53 Speech analysis means 54 Search means 55 Language model 56 Acoustic model 57 Pronunciation dictionary 60 Communication section 70 Display section

Claims (12)

文字情報を仮想空間内に配置し画面表示してユーザへ提示するための制御を行う文字情報提示制御装置において、
前記文字情報を分割し、文節毎の分割データを生成する文字情報分割部と、
前記文字情報分割部により分割された分割データを、所定単位の文字グループとして設定し、
前記文字グループ単位に、前記文字グループ単位の文字情報からモーラ数を算出し、前記モーラ数に基づいて、連続した文字グループの間隔を設定し、
前記ユーザから見て画面中央における仮想空間内の奥側から手前側へ向けて、前記文字グループ単位の文字情報をセンタリングし所定速度及び前記間隔にて順次スクロールさせ、
前記中央の奥側から新たな文字グループを出現させ、前記手前側へ向けてスクロールさせた後に、前記文字グループを消失させる文字情報提示部を備えたことを特徴とする文字情報提示制御装置。
In a character information presentation control device that performs control for arranging character information in a virtual space, displaying it on the screen, and presenting it to the user,
A character information dividing unit for dividing the character information and generating divided data for each clause;
Set the divided data divided by the character information dividing unit as a character group of a predetermined unit,
In the character group unit, the number of mora is calculated from the character information in the character group unit, and based on the number of mora , a continuous character group interval is set.
From the back side to the near side in the virtual space in the center of the screen as seen from the user, the character information in the character group unit is centered and scrolled sequentially at a predetermined speed and the interval,
A character information presentation control apparatus comprising: a character information presentation unit that causes a new character group to appear from the back side of the center and scrolls toward the near side, and then erases the character group.
請求項1に記載の文字情報提示制御装置において、
前記文字情報提示部は、
前記文字グループ単位の文字情報を、前記文字グループの前後において重ねて表示するように提示し、かつ、奥側に位置する文字情報が透過するような文字表示率にて提示する、ことを特徴とする文字情報提示制御装置。
In the character information presentation control device according to claim 1,
The character information presentation unit
The character information of the character group unit is presented so as to be displayed in a superimposed manner before and after the character group, and presented at a character display rate so that the character information located on the back side is transparent. Character information presentation control device.
請求項2に記載の文字情報提示制御装置において、
前記文字表示率は、手前側から奥側へ向けて、0%から徐々に増加し、100%よりも低い所定の最大値に到達し、徐々に減少して0%に到達するように設定されている、ことを特徴とする文字情報提示制御装置。
In the character information presentation control device according to claim 2,
The character display rate is set so as to gradually increase from 0% toward the back side from the near side, reach a predetermined maximum value lower than 100%, and gradually decrease to reach 0%. A character information presentation control device characterized by that.
請求項1からまでのいずれか一項に記載の文字情報提示制御装置において、
前記文字情報提示部は、
前記文字グループの終わりが句読点である場合に、前記文字グループの先頭に空白を挿入して新たな文字グループを生成し、前記新たな文字グループに対してセンタリングを行う、ことを特徴とする文字情報提示制御装置。
In the character information presentation control device according to any one of claims 1 to 3 ,
The character information presentation unit
When the end of the character group is a punctuation mark, character information is generated by inserting a blank at the beginning of the character group to generate a new character group and centering the new character group Presentation control device.
請求項1から4までのいずれか一項に記載の文字情報提示制御装置において、
さらに、単語と前記単語のモーラ数とが記憶されたモーラ辞書を備え、
前記文字情報提示部は、前記文字情報に含まれる単語のモーラ数を算出し、前記単語及びモーラ数を前記モーラ辞書に登録する、ことを特徴とする文字情報提示制御装置。
In the character information presentation control device according to any one of claims 1 to 4 ,
And a mora dictionary storing words and the number of mora of the words.
The character information presentation control device, wherein the character information presentation unit calculates the number of mora of a word included in the character information, and registers the word and the number of mora in the mora dictionary.
請求項1からまでのいずれか一項に記載の文字情報提示制御装置において、
さらに、前記ユーザのキー操作に従って、始動制御信号を出力する操作入力部を備え、
前記文字情報提示部は、
前記操作入力部から始動制御信号を入力し、前記始動制御信号の入力タイミングにて前記スクロールを開始し、前記文字情報の所定位置にて前記スクロールを停止する、ことを特徴とする文字情報提示制御装置。
In the character information presentation control device according to any one of claims 1 to 5 ,
Furthermore, an operation input unit that outputs a start control signal according to the user's key operation,
The character information presentation unit
Character information presentation control, wherein a start control signal is input from the operation input unit, the scroll is started at an input timing of the start control signal, and the scroll is stopped at a predetermined position of the character information. apparatus.
請求項1からまでのいずれか一項に記載の文字情報提示制御装置において、
さらに、前記ユーザのキー操作に従って、開始及び停止の始動制御信号をそれぞれ出力する操作入力部を備え、
前記文字情報提示部は、
前記操作入力部から始動制御信号を入力し、前記始動制御信号が開始の信号の場合、前記スクロールを開始し、前記始動制御信号が停止の信号の場合、前記スクロールを停止する、ことを特徴とする文字情報提示制御装置。
In the character information presentation control device according to any one of claims 1 to 5 ,
Further, according to the key operation of the user, provided with an operation input unit for outputting start and stop start control signals, respectively.
The character information presentation unit
A start control signal is input from the operation input unit, and when the start control signal is a start signal, the scroll is started, and when the start control signal is a stop signal, the scroll is stopped. Character information presentation control device.
請求項1からまでのいずれか一項に記載の文字情報提示制御装置において、
前記ユーザを、前記文字情報を読み上げる発話者とし、
さらに、前記発話者による発話の音声信号を単語列に変換し、前記単語列に基づいて、前記文字情報における発話の進捗に応じた始動制御信号を出力する始動制御部を備え、
前記文字情報提示部は、
前記始動制御部から始動制御信号を入力し、前記始動制御信号の入力タイミングにて前記文字グループ単位のスクロールを開始し、前記文字情報の所定位置にて前記スクロールを停止する、ことを特徴とする文字情報提示制御装置。
In the character information presentation control device according to any one of claims 1 to 5 ,
The user is a speaker who reads out the character information,
Furthermore, the voice control signal of the utterance by the speaker is converted into a word string, and based on the word string, a start control unit that outputs a start control signal according to the progress of the utterance in the character information,
The character information presentation unit
A start control signal is input from the start control unit, scrolling for each character group is started at the input timing of the start control signal, and the scroll is stopped at a predetermined position of the character information. Character information presentation control device.
請求項に記載の文字情報提示制御装置において、
前記始動制御部は、
前記発話者による発話の音声信号と、予め記録された音声周波数パターンとの間で周波数マッチングを行い、予め記憶された単語の辞書を用いて、前記音声信号を単語列に変換する音声認識手段と、
前記音声認識手段により変換された単語列と、前記文字情報を構成する単語列とに基づいて、前記文字情報を構成する複数の文字グループのうちの、一文を構成する連続した文字グループの始まりが、前記発話者により発話されたことを判定した場合、前記始動制御信号を出力する動作判定手段とを備え、
前記文字情報提示部は、
前記一文毎に、前記スクロールを行い、前記始動制御部から始動制御信号を入力したタイミングにて、前記一文についてスクロールを開始し、次の一文を構成する連続した文字グループの始まりが前記画面の手前側に表示され、その次の文字グループが前記奥側へ向けてそれぞれ表示されたときに、前記スクロールを停止する、ことを特徴とする文字情報提示制御装置。
In the character information presentation control device according to claim 8 ,
The start controller is
A voice recognition means for performing frequency matching between a voice signal of the utterance by the speaker and a pre-recorded voice frequency pattern, and converting the voice signal into a word string using a dictionary of words stored in advance; ,
Based on the word string converted by the voice recognition means and the word string constituting the character information, the beginning of a continuous character group constituting a sentence out of a plurality of character groups constituting the character information is And an operation determining means for outputting the start control signal when it is determined that the speaker has spoken,
The character information presentation unit
The scrolling is performed for each sentence, and at the timing when the start control signal is input from the start control unit, the scroll for the one sentence is started, and the start of the continuous character group constituting the next sentence is in front of the screen. The character information presentation control device is characterized in that the scrolling is stopped when the next character group is displayed toward the back side.
請求項に記載の文字情報提示制御装置において、
前記一文は、その終わりに句点を有する、ことを特徴とする文字情報提示制御装置。
In the character information presentation control device according to claim 9 ,
The character information presentation control device, wherein the sentence has a punctuation mark at the end thereof.
請求項に記載の文字情報提示制御装置において、
前記スクロールを停止したときに表示されている文字グループの数は、前記発話者が前記表示されている文字グループの読み上げを開始してから前記表示されている全ての文字グループの読み上げを完了する前に次のスクロールを開始するように、前記読み上げの開始から次のスクロールの開始までの間の遅延時間に応じた数とする、ことを特徴とする文字情報提示制御装置。
In the character information presentation control device according to claim 8 ,
The number of character groups displayed when the scrolling is stopped is the number of character groups before the speaker completes reading all the displayed character groups after the speaker starts reading the displayed character groups. The character information presentation control device is characterized in that the number is set in accordance with a delay time from the start of the reading to the start of the next scroll so that the next scroll is started.
コンピュータを、請求項1から11までのいずれか一項に記載の文字情報提示制御装置として機能させるための文字情報提示制御プログラム。 Computer, character information presentation control program for functioning as the character information presentation control unit according to any one of claims 1 to 11.
JP2009158781A 2009-07-03 2009-07-03 Character information presentation control device and program Expired - Fee Related JP5340059B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009158781A JP5340059B2 (en) 2009-07-03 2009-07-03 Character information presentation control device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009158781A JP5340059B2 (en) 2009-07-03 2009-07-03 Character information presentation control device and program

Publications (2)

Publication Number Publication Date
JP2011013542A JP2011013542A (en) 2011-01-20
JP5340059B2 true JP5340059B2 (en) 2013-11-13

Family

ID=43592473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009158781A Expired - Fee Related JP5340059B2 (en) 2009-07-03 2009-07-03 Character information presentation control device and program

Country Status (1)

Country Link
JP (1) JP5340059B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113645493A (en) * 2020-04-24 2021-11-12 深圳市中兴系统集成技术有限公司 Display method for vertical scrolling of characters

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0411485A (en) * 1990-04-27 1992-01-16 Nippon Philips Kk Image display/image pickup device
JP3011439B2 (en) * 1990-08-14 2000-02-21 日本電信電話株式会社 Eye-gaze type image display device
JP3298254B2 (en) * 1993-08-24 2002-07-02 ソニー株式会社 Manuscript display system for announcer
JP3478308B2 (en) * 1993-10-18 2003-12-15 富士写真光機株式会社 TV camera prompter system
JP3552127B2 (en) * 1994-06-06 2004-08-11 富士写真光機株式会社 Prompter video signal processor
JP3566998B2 (en) * 1994-11-08 2004-09-15 富士写真光機株式会社 Prompter device for TV camera
US6034661A (en) * 1997-05-14 2000-03-07 Sony Corporation Apparatus and method for advertising in zoomable content
JPH11184671A (en) * 1997-12-22 1999-07-09 Ntt Data Corp Method, device and system for presenting information
JP4210723B2 (en) * 1999-03-17 2009-01-21 独立行政法人情報通信研究機構 Automatic caption program production system
JP2001282415A (en) * 2000-03-29 2001-10-12 Toshiba Corp Information selecting method, system therefor and computer readable storage medium
JP2001084075A (en) * 2000-07-24 2001-03-30 Hitachi Maxell Ltd Portable electronic device
JP4042360B2 (en) * 2001-07-18 2008-02-06 日本電気株式会社 Automatic interpretation system, method and program
JP2004062648A (en) * 2002-07-30 2004-02-26 Kyocera Corp Display control device and display control program for use in the same
US20060109283A1 (en) * 2003-02-04 2006-05-25 Shipman Samuel E Temporal-context-based video browsing interface for PVR-enabled television systems
JP2005208292A (en) * 2004-01-22 2005-08-04 Canon Inc Information presenting apparatus with speech recognizing function
JP2005274791A (en) * 2004-03-23 2005-10-06 Matsushita Electric Ind Co Ltd Mobile communication terminal
JP4459077B2 (en) * 2005-02-08 2010-04-28 株式会社東芝 Narration support device, original editing method and program
FR2881853B3 (en) * 2005-02-10 2008-06-27 David Luo DISPLAY DEVICE AND METHOD, DISPLAY AND KEYBOARD EMPLOYING THEM
JP4606202B2 (en) * 2005-02-28 2011-01-05 シャープ株式会社 Content display device, content display program, and recording medium for recording content display program
JP5032798B2 (en) * 2006-03-24 2012-09-26 富士フイルム株式会社 Information providing apparatus, information providing system, and information providing method

Also Published As

Publication number Publication date
JP2011013542A (en) 2011-01-20

Similar Documents

Publication Publication Date Title
EP4026119A1 (en) Transcription revision interface for speech recognition system
KR20160111335A (en) Foreign language learning system and foreign language learning method
JP2008210132A (en) Device, method and program for translating voice by original language into object language
JP2013046151A (en) Projector, projection system, and information search display method
KR20150076128A (en) System and method on education supporting of pronunciation ussing 3 dimensional multimedia
Secară Surtitling and captioning for theatre and opera
JP2012109901A (en) Data presentation device
CN108028966B (en) Video providing device, video providing method, and computer program
KR20200090355A (en) Multi-Channel-Network broadcasting System with translating speech on moving picture and Method thererof
WO2018105373A1 (en) Information processing device, information processing method, and information processing system
US9472113B1 (en) Synchronizing playback of digital content with physical content
US20240022772A1 (en) Video processing method and apparatus, medium, and program product
JP5340059B2 (en) Character information presentation control device and program
US10460178B1 (en) Automated production of chapter file for video player
KR20180128656A (en) English Teaching and Learning through the Application of Native Speakers Video Subtitles Recognition and Interpretation Systems
US9697851B2 (en) Note-taking assistance system, information delivery device, terminal, note-taking assistance method, and computer-readable recording medium
KR20180042058A (en) Terminal for performing hybrid caption effect, and method thereby
JP2017037212A (en) Voice recognizer, control method and computer program
US20200312183A1 (en) Interactive Reading Assistant
Bastanfard et al. The Persian linguistic based audio-visual data corpus, AVA II, considering coarticulation
CN113851029A (en) Barrier-free communication method and device
Tsioustas et al. Innovative applications of natural language processing and digital media in theatre and performing arts
KR20170051759A (en) Method and program for edcating language by making comparison sound
CN113033357A (en) Subtitle adjusting method and device based on mouth shape features
US20180108356A1 (en) Voice processing apparatus, wearable apparatus, mobile terminal, and voice processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130806

R150 Certificate of patent or registration of utility model

Ref document number: 5340059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees