JP2015091077A - Information display device, method and program - Google Patents

Information display device, method and program Download PDF

Info

Publication number
JP2015091077A
JP2015091077A JP2013230924A JP2013230924A JP2015091077A JP 2015091077 A JP2015091077 A JP 2015091077A JP 2013230924 A JP2013230924 A JP 2013230924A JP 2013230924 A JP2013230924 A JP 2013230924A JP 2015091077 A JP2015091077 A JP 2015091077A
Authority
JP
Japan
Prior art keywords
information
area
character information
voice
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013230924A
Other languages
Japanese (ja)
Other versions
JP6095553B2 (en
Inventor
祥子 山畠
Shoko Yamahata
祥子 山畠
太一 浅見
Taichi Asami
太一 浅見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013230924A priority Critical patent/JP6095553B2/en
Publication of JP2015091077A publication Critical patent/JP2015091077A/en
Application granted granted Critical
Publication of JP6095553B2 publication Critical patent/JP6095553B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information display technology capable of shortening the time required for grasping conversation contents further than the prior arts.SOLUTION: In an information display method of displaying information on a touch panel, a character information display part 4 displays character information corresponding to a voice on a second area that is a certain area on the touch panel. A character information duplication part 5 duplicates at least a portion of the character information that is displayed on the second area, on a first area different from the second area of the touch panel. An image information display part 6 displays image information that is inputted on the first area of the touch panel, on the first area together with the character information that is duplicated on the first area. A free description area information storage part 7 stores the character information duplicated on the first area and the image information that is inputted on the first area, in the vicinity of the character information duplicated on the first area while associating the character information and the image information with each other.

Description

この発明は、音声とその音声に付随するメモ書きとを記録及び/又は参照する技術に関する。   The present invention relates to a technique for recording and / or referring to a voice and a note accompanying the voice.

複数人の会議では、音声による意思疎通と、情報共有のための情報記録ツール(ホワイトボード等)とがしばしば用いられる。以下では、情報記録ツールとして、ホワイトボードが用いられる例を挙げて説明する。   In a multi-person conference, voice communication and information recording tools (such as a whiteboard) for information sharing are often used. Hereinafter, an example in which a whiteboard is used as an information recording tool will be described.

ホワイトボードには参加者が発言した単語列がそのまま記載され、その単語列に関する補足情報が追記される、といったことが頻繁に行われる。会議中にこうして作成されたホワイトボードは、会議中の意思疎通だけでなく、会議終了後の振り返りに用いられる。このとき、ホワイトボードの内容の中には、どのような文脈の会話において書かれたものか思い出せない記述が含まれる場合がある。   The whiteboard frequently includes a word string spoken by the participant, and supplementary information about the word string is additionally written. The whiteboard thus created during the meeting is used not only for communication during the meeting but also for reflection after the meeting. At this time, the contents of the whiteboard may include a description that cannot be remembered in what context of the conversation.

会議ではホワイトボード情報の他に、会議の音声情報が保存されることがある。この場合には、ホワイトボード中の記述で文脈不明な箇所に対して、該当箇所の音声を探し、再生するといったことが可能である。しかし、会議が長時間に渡る場合には該当箇所を探し出すことは容易ではない。従って、情報記録ツールと音声情報を紐づける技術は、会議内容把握作業の効率化に有効である。   In a conference, audio information of the conference may be stored in addition to the whiteboard information. In this case, it is possible to search for and reproduce the sound of the corresponding portion of the portion of the whiteboard whose context is unknown. However, it is not easy to find the corresponding part when the meeting is long. Therefore, the technology for associating the information recording tool with the audio information is effective in improving the efficiency of the meeting content grasping work.

情報記録ツールと音声情報を紐付ける会議内容把握支援技術は、これまでにも提案されている。   A conference content grasp support technology that links an information recording tool and audio information has been proposed so far.

特許文献1には、音声情報、映像情報、会議中に取得されるセンサ情報を時刻情報に基づいて関連づけ、1つの画面に出力する技術が記載されている。センサ情報には、例えばタッチパネルと描画用ペンで入力される文字情報や図形情報が含まれる。   Japanese Patent Application Laid-Open No. 2004-151561 describes a technique for associating audio information, video information, and sensor information acquired during a meeting based on time information and outputting the information on one screen. The sensor information includes, for example, character information and graphic information input with a touch panel and a drawing pen.

非特許文献1には、動画、音声、文字、図形、イメージ、手書きを含むマルチメディアを扱える遠隔会議システムが提案されている。マルチメディア情報は、時刻情報に基づいて同期され、1つの画面に出力される。   Non-Patent Document 1 proposes a remote conference system that can handle multimedia including moving images, voices, characters, figures, images, and handwriting. The multimedia information is synchronized based on the time information and is output on one screen.

特開2004-173058号公報JP 2004-173058 A

渡部和雄他, “マルチメディア分散在籍会議システム MERMAID”, 情報処理学会論文誌, Vol.32, No. 9, 1991.Kazuo Watanabe et al., “Multimedia Distributed Enrollment Conference System MERMAID”, IPSJ Transactions, Vol.32, No. 9, 1991.

特許文献1及び非特許文献1は何れも、音声と手書き情報を紐付けている。しかし、音声と手書き情報を紐付けたとき、手書き情報に関する会話内容が長時間に渡る場合、関連する部分をすべて聞きなおさなくてはならず、会話内容の把握に要する時間が長くなるという問題がある。   Both Patent Literature 1 and Non-Patent Literature 1 associate voice and handwritten information. However, when speech and handwritten information are linked, if the conversation content related to the handwritten information takes a long time, all the related parts must be re-listened, and the time required for grasping the conversation content increases. is there.

この発明の目的は、会話内容の把握に要する時間を従来よりも短くすること可能とする情報表示方法、装置及びプログラムを提供することである。   An object of the present invention is to provide an information display method, apparatus, and program that make it possible to shorten the time required for grasping the content of a conversation compared to the prior art.

この発明の1つの態様による情報表示方法によれば、タッチパネル上の情報表示方法において、文字情報表示部が、音声に対応する文字情報を、タッチパネルのある領域である第二領域に表示する文字情報表示ステップと、文字情報複製部が、第二領域に表示された文字情報の少なくとも一部を、タッチパネルの第二領域とは異なる第一領域に複製する文字情報複製ステップと、画像情報表示部が、タッチパネルの第一領域で入力された画像情報を、第一領域に複製された文字情報と共に第一領域に表示する画像情報表示ステップと、自由記述領域情報記憶部が、第一領域に複製された文字情報と、第一領域で入力された画像情報のうち第一領域に複製された文字情報の近傍にあるものとを関連付けて記憶する自由記述領域情報記憶ステップと、を有している。   According to the information display method according to one aspect of the present invention, in the information display method on the touch panel, the character information display unit displays the character information corresponding to the sound in the second area which is the area where the touch panel is located. A display step, a character information replication unit that replicates at least part of the character information displayed in the second area in a first area different from the second area of the touch panel, and an image information display section The image information display step for displaying the image information input in the first area of the touch panel in the first area together with the character information copied in the first area, and the free description area information storage unit are copied in the first area. Free description area information storage step for storing the character information and the image information input in the first area in association with the character information copied in the first area , The has.

この発明の他の態様による情報表示方法によれば、タッチパネル上の情報表示方法において、文字情報表示部が、音声認識により得られた文字情報を、タッチパネルのある領域である第一領域に表示する文字情報表示ステップと、画像情報表示が、タッチパネルの第一領域で入力された画像情報を、文字情報と共に第一領域に表示する画像情報表示ステップと、を有している。   According to the information display method according to another aspect of the present invention, in the information display method on the touch panel, the character information display unit displays the character information obtained by the speech recognition in the first area that is the area where the touch panel is located. The character information display step and the image information display include an image information display step of displaying the image information input in the first area of the touch panel in the first area together with the character information.

音声と手書き情報とではなく、音声に紐づく文字情報と画像情報とを関連付けることで、画像情報に関連する会話内容が文字情報により一目で把握できるため、会話内容の把握に要する時間を従来よりも短くすることが可能となる。   By associating text information and image information associated with voice instead of voice and handwritten information, the conversation content related to the image information can be grasped at a glance from the character information, so the time required for grasping the conversation content has been conventionally increased. Can be shortened.

第一実施形態から第三実施形態の情報表示装置の例を説明するためのブロック図。The block diagram for demonstrating the example of the information display apparatus of 3rd embodiment from 1st embodiment. 第四実施形態の情報表示装置の例を説明するためのブロック図。The block diagram for demonstrating the example of the information display apparatus of 4th embodiment. 第一実施形態から第三実施形態の学習フェーズの例を説明するための流れ図。The flowchart for demonstrating the example of the learning phase of 1st embodiment to 3rd embodiment. 第一実施形態から第三実施形態の振り返りフェーズの例を説明するための流れ図。The flowchart for demonstrating the example of the reflection phase of 3rd embodiment from 1st embodiment. 第四実施形態の学習フェーズの例を説明するための流れ図。The flowchart for demonstrating the example of the learning phase of 4th embodiment. 第四実施形態の振り返りフェーズの例を説明するための流れ図。The flowchart for demonstrating the example of the reflection phase of 4th embodiment. タッチパネルの画面の例を説明するための図。The figure for demonstrating the example of the screen of a touchscreen. タッチパネルの画面の例を説明するための図。The figure for demonstrating the example of the screen of a touchscreen.

[第一実施形態]
第一実施形態の情報表示装置は、図1に示すように、音声入力部1、音声情報記憶部2、文字情報変換部3、文字情報表示部4、文字情報複製部5、画像情報表示部6、自由記述領域情報処理部7、自由記述領域情報記憶部8、対応付部9及び文字情報記憶部10を例えば備えている。
[First embodiment]
As shown in FIG. 1, the information display device according to the first embodiment includes a voice input unit 1, a voice information storage unit 2, a character information conversion unit 3, a character information display unit 4, a character information duplication unit 5, and an image information display unit. 6. A free description area information processing unit 7, a free description area information storage unit 8, a correspondence unit 9, and a character information storage unit 10 are provided, for example.

情報表示装置は、記録フェーズ及び振り返りフェーズという異なる2つの動作モードがある。記録フェーズにおいては文字情報とそれに関連する画像情報とが記録され、振り返りフェーズにおいてはこれらの記録された情報が参照される。記録フェーズと振り返りフェーズとの切り替えは、例えばボタン操作等によりユーザが適宜切り替え可能であるとする。例えば会議に情報表示装置が用いられる場合には、会議開始及び終了ボタンを画面に配置し、会議開始ボタンが押されてから終了ボタンが押されるまでを会議実施時、それ以外を振り返り時とすればよい。また、振り返りボタンを追加し、会議実施時においてもそのボタンを押すことで、振り返り時の動作モードへ移行できるような構成も考えられる。   The information display device has two different operation modes of a recording phase and a retrospective phase. Character information and related image information are recorded in the recording phase, and these recorded information are referred to in the retrospective phase. It is assumed that the user can appropriately switch between the recording phase and the reflection phase, for example, by operating a button. For example, when an information display device is used for a conference, the conference start and end buttons are arranged on the screen. That's fine. In addition, a configuration is possible in which a review button is added, and the operation mode can be shifted to the review mode by pressing the button during the conference.

情報表示方法は、図3及び図4にそれぞれ例示した記録フェーズ及び振り返りフェーズの各処理を行うことにより実現される。   The information display method is realized by performing each process of the recording phase and the reflection phase illustrated in FIGS. 3 and 4 respectively.

<記録フェーズ>
音声入力部1は、マイクロフォン等の音を電気信号に変換する機器である。例えば会議実施時の音声が、音声入力部1に入力され電気信号に変換される(ステップR1)。変換された電気信号は、音声についての情報である音声情報として音声情報記憶部2に記憶される(ステップR2)。なお、第一実施形態においては、音声情報の記憶は行われなくてもよい。
<Recording phase>
The audio input unit 1 is a device that converts sound such as a microphone into an electric signal. For example, the voice at the time of the conference is input to the voice input unit 1 and converted into an electrical signal (step R1). The converted electrical signal is stored in the voice information storage unit 2 as voice information which is information about the voice (step R2). In the first embodiment, the audio information need not be stored.

文字情報変換部3は、音声入力部1に入力された音声に対応する文字情報を生成する(ステップR3)。例えば、文字情報変換部3は、音声情報記憶部2から読み込んだ音声情報に基づいて音声認識を行うことにより文字情報を生成する。生成された文字情報は、文字情報表示部4に提供される。また、生成された文字情報は、文字情報記憶部10に記憶される(ステップR4)。   The character information conversion unit 3 generates character information corresponding to the voice input to the voice input unit 1 (step R3). For example, the character information conversion unit 3 generates character information by performing voice recognition based on the voice information read from the voice information storage unit 2. The generated character information is provided to the character information display unit 4. The generated character information is stored in the character information storage unit 10 (step R4).

文字情報変換部3は、音声を構成する、任意の時間区間で分割された各発話に対し、発話IDを付与してもよい。また、発話に付随する情報がある場合には、その情報を発話IDに含めてもよい。発話に付随する情報とは、例えば、その発話を行った話者を識別するための話者IDやその発話の時刻情報等である。発話の区切りは、話者認識技術や無音区間検出技術等を用いて自動で行ってもよいし、手動で区間を区切ってもよい。例えば、句点を区切りとする一文を一発話として区切る。   The character information conversion unit 3 may assign an utterance ID to each utterance divided in an arbitrary time interval that constitutes a voice. If there is information accompanying the utterance, the information may be included in the utterance ID. The information accompanying the utterance is, for example, a speaker ID for identifying the speaker who made the utterance, time information of the utterance, or the like. Speech separation may be performed automatically using speaker recognition technology, silent section detection technology, or the like, or sections may be manually separated. For example, a sentence with a punctuation as a delimiter is delimited as one utterance.

なお、音声に対応する文字情報の生成は、速記者等の人によって行われてもよい。この場合、音声に基づいて書き起こされたテキストについての情報が、音声に対応する文字情報となる。この場合は、文字情報変換部3は情報表示装置に備えられていなくてもよい。   The generation of the character information corresponding to the voice may be performed by a person such as a stenographer. In this case, the information about the text transcribed based on the speech becomes character information corresponding to the speech. In this case, the character information conversion unit 3 may not be provided in the information display device.

文字情報表示部4は、文字情報変換部3により生成された、音声に対応する文字情報を、タッチパネルのある領域である第二領域に表示する(ステップR5)。この例では、第二領域は、図7に例示する音声テキスト表示部101である。   The character information display unit 4 displays the character information corresponding to the voice generated by the character information conversion unit 3 in a second region that is a region where the touch panel is located (step R5). In this example, the second area is the voice text display unit 101 illustrated in FIG.

発話IDや発話に付随する情報話者IDが存在する場合には、文字情報表示部4は、文字情報に加えて発話IDや発話に付随する情報話者IDを第二領域に表示してもよい。   When there is an utterance ID or an information speaker ID associated with the utterance, the character information display unit 4 displays the utterance ID or the information speaker ID associated with the utterance in addition to the character information in the second area. Good.

この例では、図7に示すようにタッチパネルは、自由に記述することができる自由記述領域部102である第一領域と、文字情報が表示される音声テキスト表示部101である第二領域とを含んでいる。タッチパネルは、タッチペンや指の接触があると、その接触部分の座標情報を生成することにより、座標情報の時系列を生成する。この座標情報の時系列に基づいて、例えば以下に述べる文字情報複製部5及び画像情報表示部6の処理が可能となる。   In this example, as shown in FIG. 7, the touch panel includes a first area that is a free description area portion 102 that can be freely described, and a second area that is a speech text display portion 101 on which character information is displayed. Contains. When a touch pen or a finger touches the touch panel, the touch panel generates coordinate information of the contact portion, thereby generating a time series of coordinate information. Based on the time series of the coordinate information, for example, processing of the character information duplicating unit 5 and the image information display unit 6 described below can be performed.

文字情報複製部5は、第二領域に表示された文字情報の少なくとも一部を、第一領域に複製する(ステップR6)。これにより、第二領域に表示された文字情報の少なくとも一部が第一領域に表示される。この文字情報複製部5の処理は、図8に示すように、第二領域である音声テキスト表示部101に表示されたテキストの一部が選択され、その選択されたテキストがタッチされそのまま音声テキスト表示部101から第一領域である自由記述領域部102にドラッグ&ドロップされた場合に行われる。   The character information duplication unit 5 duplicates at least a part of the character information displayed in the second area in the first area (step R6). Thereby, at least a part of the character information displayed in the second area is displayed in the first area. As shown in FIG. 8, the character information duplicating unit 5 performs processing by selecting a part of the text displayed on the voice text display unit 101, which is the second area, and touching the selected text as it is. This is performed when dragging and dropping from the display unit 101 to the free description area 102 which is the first area.

この場合、ドロップによりテキストの座標が定まった後、そのテキスト及びその座標が、自由記述領域情報処理部7に提供される。発話IDが付与されている場合には、そのテキストを含む発話の発話IDが更に自由記述領域情報処理部7に提供されてもよい。   In this case, after the coordinates of the text are determined by the drop, the text and the coordinates are provided to the free description area information processing unit 7. When the utterance ID is given, the utterance ID of the utterance including the text may be further provided to the free description area information processing unit 7.

また、タッチパネルの第一領域において、タッチペンや指を用いて文字、図形、記号等が入力されると、その入力に対応する画像についての情報である画像情報とその画像情報の座標情報が生成される。画像情報表示部6は、生成された画像情報を、第一領域に複製された文字情報と共に第一領域に表示する(ステップR7)。生成された画像情報及びその座標情報は、自由記述領域情報処理部7に提供される。   In addition, when characters, figures, symbols, etc. are input using the touch pen or finger in the first area of the touch panel, image information which is information about the image corresponding to the input and coordinate information of the image information are generated. The The image information display unit 6 displays the generated image information in the first area together with the character information duplicated in the first area (step R7). The generated image information and its coordinate information are provided to the free description area information processing unit 7.

なお、自由記述領域部102である第一領域の余白が不足した場合、ユーザが、現在表示されている自由記述領域部102を保存し、新規に白紙のページを作成することができるようにしてもよい。このとき、自由記述領域部102ごとにIDが振られる。各自由記述領域部102の座標は、(自由記述領域ID-座標値)のように一意に管理される。   If the margin of the first area which is the free description area 102 is insufficient, the user can save the currently displayed free description area 102 and create a new blank page. Also good. At this time, an ID is assigned to each free description area 102. The coordinates of each free description area 102 are uniquely managed as (free description area ID-coordinate value).

自由記述領域情報処理部7は、第一領域に複製された文字情報と、第一領域で入力された画像情報のうち第一領域に複製された文字情報の近傍にあるものとを関連付けて自由記述領域情報記憶部8に記憶させる。言い換えれば、自由記述領域情報記憶部8は、第一領域に複製された文字情報と、第一領域で入力された画像情報のうち第一領域に複製された文字情報の近傍にあるものとを関連付けて記憶する(ステップR8)。   The free description area information processing unit 7 freely associates the character information copied to the first area with the image information input in the first area that is in the vicinity of the character information copied to the first area. It is stored in the description area information storage unit 8. In other words, the free description area information storage unit 8 stores the character information copied to the first area and the image information input in the first area that is in the vicinity of the character information copied to the first area. The information is stored in association (step R8).

自由記述領域情報処理部7は、具体的には、第一領域に複製された文字情報と、その文字情報の座標情報と、画像情報と、その画像情報の座標情報とを1つの自由記述セグメントとしてグループ化する。自由記述領域情報処理部7は、各自由記述セグメントに、自由記述セグメントIDを付与することにより、第一領域に複製された文字情報と、その文字情報の座標情報と、画像情報と、その画像情報の座標情報とを紐付ける。発話IDが付与されている場合には、自由記述セグメントに、発話IDを含めてもよい。また、自由記述領域部102が複数ページ存在する場合、座標情報は自由記述領域IDを含んだ一意の値となる。   Specifically, the free description area information processing unit 7 combines the character information copied to the first area, the coordinate information of the character information, the image information, and the coordinate information of the image information into one free description segment. Group as. The free description area information processing unit 7 assigns a free description segment ID to each free description segment, thereby reproducing character information copied to the first area, coordinate information of the character information, image information, and the image Link the coordinate information of the information. If an utterance ID is assigned, the utterance ID may be included in the free description segment. When there are a plurality of pages in the free description area 102, the coordinate information is a unique value including the free description area ID.

このセグメント化の方法として、例えば、所定の時間内に例えば短い時間間隔で連続的に複製された複数の文字情報及び画像情報並びにこれらの座標情報を1つのグループとする方法や、ある座標の中心とした所定の形状の図形の範囲内に含まれる文字情報及び画像情報を1つのグループとする方法等がある。所定の形状の図形とは、例えば矩形、円、楕円等の環状の図形のことである。ある座標とは、文字情報の座標又は画像情報の座標である。このように、時間的又は空間的に近傍にある文字情報及び画像情報並びにこれらの座標情報が1つのグループとされる。   As this segmentation method, for example, a plurality of character information and image information continuously copied within a predetermined time, for example, at a short time interval, and a method of grouping these coordinate information into one group, or a center of a certain coordinate There is a method in which character information and image information included in a range of a figure having a predetermined shape are grouped. The figure having a predetermined shape is an annular figure such as a rectangle, a circle, or an ellipse. A certain coordinate is a coordinate of character information or a coordinate of image information. In this way, character information and image information that are close in time or space and their coordinate information are grouped into one group.

セグメントが決定された後、自由記述セグメントについての情報(例えば、第一文字情報、その文字情報の座標情報、画像情報、その画像情報の座標情報)と、自由記述セグメントIDとが、自由記述領域情報記憶部8に提供され記憶される。   After the segment is determined, the information about the free description segment (for example, the first character information, the coordinate information of the character information, the image information, the coordinate information of the image information) and the free description segment ID are the free description area information. It is provided and stored in the storage unit 8.

<振り返りフェーズ>
振り返りフェーズでは、タッチパネルの第一領域に画像情報及び複製された文字情報が表示されているとする。自由記述領域部102が複数ある場合には、ユーザは例えば画面スクロール等の操作により、所望の自由記述領域部102及び画像情報を参照することができるようにされている。
<Review Phase>
In the retrospective phase, it is assumed that image information and duplicated character information are displayed in the first area of the touch panel. When there are a plurality of free description area portions 102, the user can refer to the desired free description area portion 102 and image information by an operation such as screen scrolling, for example.

タッチパネルの第一領域における入力により画像情報がユーザにより指定されたとする。この場合、対応付部9は、その指定された画像情報と関連付けて記憶されている文字情報を自由記述領域情報記憶部8から読み込み、その読み込まれた文字情報を含む文字情報を文字情報記憶部10から読み込み第二領域に表示させる(ステップS1)。   It is assumed that image information is designated by the user by input in the first area of the touch panel. In this case, the associating unit 9 reads the character information stored in association with the designated image information from the free description area information storage unit 8 and reads the character information including the read character information into the character information storage unit. 10 is read and displayed in the second area (step S1).

ユーザがタッチペンや指によりタッチパネルに接触すると、その接触部分の座標情報を生成される。例えば、この座標情報に基づいて、対応する文字情報が検索される。すなわち、生成された座標情報をキーとして自由記述領域情報記憶部8を参照して、その座標情報に対応する座標情報を有する自由記述セグメントを検索する。条件に合致する自由記述セグメントが見つかった場合には、その自由記述セグメントに含まれる文字情報を含む文字情報を第二領域に表示させる。   When the user touches the touch panel with a touch pen or a finger, coordinate information of the contact portion is generated. For example, corresponding character information is searched based on this coordinate information. That is, referring to the free description area information storage unit 8 using the generated coordinate information as a key, a free description segment having coordinate information corresponding to the coordinate information is searched. When a free description segment matching the condition is found, character information including character information included in the free description segment is displayed in the second area.

ここで、その座標情報に対応する座標情報を有する自由記述セグメントとは、例えば、その座標情報により特定される座標が、自由記述セグメントに含まれる文字情報の座標又は自由記述セグメントに含まれる画像情報の座標を含む所定の形状の図形に含まれる場合のその自由記述セグメントのことである。所定の形状の図形とは、例えば矩形、円、楕円等の環状の図形のことである。この所定の形状の図形は、自由記述セグメントを生成する際の所定の形状の図形と同じであっても異なってもよい。   Here, the free description segment having the coordinate information corresponding to the coordinate information is, for example, the coordinates specified by the coordinate information are the character information coordinates included in the free description segment or the image information included in the free description segment. This is a free description segment when it is included in a figure of a predetermined shape including the coordinates. The figure having a predetermined shape is an annular figure such as a rectangle, a circle, or an ellipse. The graphic having the predetermined shape may be the same as or different from the graphic having the predetermined shape when the free description segment is generated.

また、その自由記述セグメントに含まれる文字情報を含む文字情報とは、例えばその自由記述セグメントに含まれる文字情報を含む発話の全部又は一部である。発話IDが付与されている場合には、対応付部9は、その自由記述セグメントに含まれる発話IDと同じ発話IDを有する発話を文字情報記憶部10から読み込み、読み込んだ発話の全部又は一部を第二領域である音声テキスト表示部101に表示させる。   The character information including character information included in the free description segment is, for example, all or a part of an utterance including character information included in the free description segment. When the utterance ID is assigned, the associating unit 9 reads from the character information storage unit 10 utterances having the same utterance ID as the utterance ID included in the free description segment, and all or part of the read utterances Is displayed on the voice text display unit 101 which is the second area.

なお、対応付部9は、文字情報を第二領域に表示させる際に、その文字情報を強調してもよい。文字情報の強調は、文字情報をスクロールして画面の一番上のように目立つ場所に表示することや、テキストの色や背景色を変更するなどしてハイライトすることにより例えば行われる。   The association unit 9 may emphasize the character information when displaying the character information in the second area. The character information is emphasized, for example, by scrolling the character information and displaying it in a prominent place like the top of the screen, or by changing the text color or background color to highlight it.

このように、音声と手書き情報とではなく、文字情報と画像情報とを関連付けることで、画像情報に関連する会話内容が文字情報により一目で把握できるため、会話内容の把握に要する時間を従来よりも短くすることが可能となる。   In this way, by associating character information and image information rather than voice and handwritten information, the conversation content related to the image information can be grasped at a glance from the character information, so the time required for grasping the conversation content has been conventionally increased. Can be shortened.

また、図7に示すように、タッチパネルに2個の領域を設けて、文字情報を原則として音声テキスト表示部101に表示し、画像情報を自由記述領域部102に表示し、時間軸の異なる情報の閲覧を実現することにより、柔軟な内容把握作業が可能となる。   In addition, as shown in FIG. 7, two areas are provided on the touch panel, character information is displayed on the speech text display unit 101 in principle, image information is displayed on the free description area unit 102, and information on different time axes is displayed. By realizing the browsing, flexible content grasping work becomes possible.

[第二実施形態]
第一実施形態では、自由記述領域部102に記載された文字情報の提示をした。しかし、文字情報の生成を音声認識システムで行う場合には、文字情報に誤りが含まれる場合がある。そこで、第二実施形態では、文字情報のみならず、文字情報に対応する音声情報をユーザに提示する。これにより、ユーザは文字情報と音声情報とを把握することができ、会話内容をより正しく把握することができる。
[Second Embodiment]
In the first embodiment, the character information described in the free description area 102 is presented. However, when the character information is generated by the voice recognition system, the character information may include an error. Therefore, in the second embodiment, not only character information but also audio information corresponding to the character information is presented to the user. Thereby, the user can grasp | ascertain character information and audio | voice information, and can grasp | ascertain the conversation content more correctly.

以下、第一実施形態と異なる部分を中心に説明する。第一実施形態と同様の部分については重複説明を省略する。   Hereinafter, a description will be given centering on differences from the first embodiment. A duplicate description of the same parts as in the first embodiment is omitted.

第二実施形態の情報表示装置は、図1に破線で示すように、音声再生部11を更に備えている。   The information display apparatus according to the second embodiment further includes an audio reproduction unit 11 as indicated by a broken line in FIG.

<記録フェーズ>
第一実施形態においては音声情報の記憶は行われなくてもよかったが、第二実施形態においては、音声情報の記憶は必ず行われる。すなわち、音声入力部1から入力された音声についての情報である音声情報は、音声情報記憶部2に記憶される。その際、各音声情報に音声情報IDを付与してもよい。この場合、音声情報は音声情報IDと共に音声情報記憶部2に記憶される。
<Recording phase>
In the first embodiment, the audio information need not be stored, but in the second embodiment, the audio information is always stored. That is, voice information that is information about the voice input from the voice input unit 1 is stored in the voice information storage unit 2. At that time, a voice information ID may be given to each voice information. In this case, the voice information is stored in the voice information storage unit 2 together with the voice information ID.

発話IDが付与される場合には、文字情報変換部3は、各発話の発話IDと音声情報IDとを対応付ける。この対応付けに関する情報についても音声情報記憶部2に記憶される。   When the utterance ID is given, the character information conversion unit 3 associates the utterance ID of each utterance with the voice information ID. Information regarding this association is also stored in the voice information storage unit 2.

記録フェーズにおける他の処理は、第一実施形態と同様である。   Other processes in the recording phase are the same as those in the first embodiment.

<振り返りフェーズ>
対応付部は、タッチパネルの第一領域における入力により画像情報が指定された場合には、その指定された画像情報と関連付けて記憶されている文字情報を自由記述領域情報記憶部8から読み込み、その読み込まれた文字情報を含む文字情報を文字情報記憶部10から読み込み第二領域に表示させ、その指定された画像情報と関連付けて記憶されている文字情報に対応する音声情報を音声情報記憶部2から読み込みその読み込まれた音声情報を音声再生部11に再生させる(ステップS1)。
<Review Phase>
When the image information is designated by input in the first area of the touch panel, the associating section reads the character information stored in association with the designated image information from the free description area information storage section 8, and Character information including the read character information is read from the character information storage unit 10 and displayed in the second area, and the voice information corresponding to the character information stored in association with the designated image information is displayed as the voice information storage unit 2. The audio information read from the audio data is read by the audio reproduction unit 11 (step S1).

対応付部9は、例えば、タッチパネルへの入力により指定された画像情報と関連付けて記憶されている文字情報を含む発話の発話IDを自由記述領域情報記憶部8に記憶されている自由記述セグメントから取得し、その発話IDに対応する音声情報IDを有する音声情報を音声情報記憶部2から読み込むことにより、音声情報を取得する。   For example, the associating unit 9 obtains the utterance ID of the utterance including the character information stored in association with the image information designated by the input to the touch panel from the free description segment stored in the free description area information storage unit 8. The voice information is acquired by reading the voice information having the voice information ID corresponding to the utterance ID from the voice information storage unit 2.

音声再生部11は、スピーカ、ヘッドフォン等の印加された電気信号に基づいて音を発生させる電気音響変換器である。   The sound reproducing unit 11 is an electroacoustic transducer that generates sound based on an applied electric signal such as a speaker or a headphone.

振り返りフェーズにおける他の処理は、第一実施形態と同様である。   Other processes in the retrospective phase are the same as those in the first embodiment.

[第三実施形態]
第一実施形態及び第二実施形態では、自由記述領域部102である第一領域の任意の箇所を指定すると、文字情報及び/又は音声情報の該当する部分がユーザに提示された。しかし、音声テキストである文字情報を追随して会議内容を把握するような場合には、文字情報から対応する画像情報を参照することができなければならない。
[Third embodiment]
In the first embodiment and the second embodiment, when an arbitrary portion of the first area which is the free description area portion 102 is designated, a corresponding portion of character information and / or voice information is presented to the user. However, in the case where the content of the meeting is grasped by following the text information that is a voice text, it is necessary to be able to refer to the corresponding image information from the text information.

そこで、第三実施形態では、音声テキスト表示部101に表示された任意の文字情報を指定すると、対応する画像情報を表示する処理を更に行う。これにより、文字情報を追随しながら対応する画像情報を参照することができ、内容把握の効率化につながる。   Therefore, in the third embodiment, when arbitrary character information displayed on the voice text display unit 101 is designated, the corresponding image information is further displayed. This makes it possible to refer to the corresponding image information while following the character information, leading to efficient content grasping.

以下、第一実施形態と異なる部分を中心に説明する。第一実施形態及び第二実施形態と同様の部分については重複説明を省略する。   Hereinafter, a description will be given centering on differences from the first embodiment. A duplicate description of the same parts as those in the first embodiment and the second embodiment is omitted.

<記録フェーズ>
記録フェーズにおける他の処理は、第一実施形態及び第二実施形態と同様である。
<Recording phase>
Other processes in the recording phase are the same as those in the first embodiment and the second embodiment.

<振り返りフェーズ>
対応付部9は、タッチパネルの音声テキスト表示部101である第二領域における入力により文字情報が指定された場合には、その指定された文字情報に含まれる文字情報と関連付けて記憶されている画像情報を自由記述領域情報記憶部8から読み込み、その読み込まれた画像情報を第一領域に表示させる(ステップS1)。もちろん、対応付部9は、必要に応じて、画像情報のみならず、その画像情報と関連付けて記憶されている文字情報を自由記述領域情報記憶部8から読み込み第一領域に表示させてもよい。
<Review Phase>
When the character information is designated by the input in the second area, which is the voice text display unit 101 of the touch panel, the associating unit 9 stores an image stored in association with the character information included in the designated character information. Information is read from the free description area information storage unit 8, and the read image information is displayed in the first area (step S1). Of course, the associating unit 9 may read not only the image information but also the character information stored in association with the image information from the free description area information storage unit 8 and display it in the first area as necessary. .

対応付部9は、具体的には、タッチパネルの第二領域における入力によりある文字情報が指定された場合、指定された文字情報に対応する発話IDを文字情報記憶部10から読み込む。自由記述領域部102が複数ページに渡る場合は、その自由記述領域IDも読み込まれる。そして、対応付部9は、読み込まれた発話IDをキーとして自由記述領域情報記憶部8を参照して、その発話IDと同じ発話IDを含む自由記述セグメントを検索する。条件に合致する自由記述セグメントが見つかった場合には、その自由記述セグメントに含まれる文字情報及び画像情報を自由記述領域情報記憶部8から読み込み第一領域に表示する。   Specifically, the correspondence unit 9 reads an utterance ID corresponding to the designated character information from the character information storage unit 10 when certain character information is designated by an input in the second area of the touch panel. When the free description area 102 extends over a plurality of pages, the free description area ID is also read. Then, the associating unit 9 searches the free description segment including the same utterance ID as the utterance ID with reference to the free description area information storage unit 8 using the read utterance ID as a key. If a free description segment matching the condition is found, the character information and image information included in the free description segment are read from the free description area information storage unit 8 and displayed in the first area.

読み込まれた文字情報及び画像情報は、自由セグメントに含まれるこれらの座標情報により定まる座標の位置に表示されてもよいし、他の位置に表示されてもよい。読み込まれた文字情報及び画像情報は、強調されて表示されてもよい。文字情報及び画像情報の強調は、文字情報及び画像情報の色や背景色を変更するなどしてハイライトすることや、文字情報及び画像情報をアニメーションで動かすことにより例えば行われる。   The read character information and image information may be displayed at a coordinate position determined by the coordinate information included in the free segment, or may be displayed at another position. The read character information and image information may be displayed with emphasis. The emphasis of character information and image information is performed, for example, by highlighting the character information and image information by changing the color or background color, or by moving the character information and image information by animation.

振り返りフェーズにおける他の処理は、第一実施形態及び第二実施形態と同様である。   Other processes in the retrospective phase are the same as those in the first embodiment and the second embodiment.

[第四実施形態]
第一実施形態から第三実施形態では、文字情報変換部3として、音声認識システムや速記者による書き起しを想定していた。文字情報変換部3に音声認識システムを使う場合、発話音声が音声テキストとして表示されるタイムラグがなるべく少ないことが好ましい。一方、音声認識の精度を高めるために、音声認識システム内の音響モデルや言語モデルに複雑なものを用いたり、一度出力した認識結果を用いて再度精度の高い認識結果を出力するといった技術を用いたりすることがある。しかし、これらの技術は計算量が多く、音声テキストが出力されるまでにタイムラグが生じてしまう可能性がある。
[Fourth embodiment]
In the first to third embodiments, the character information conversion unit 3 is assumed to be a transcription by a voice recognition system or a stenographer. When a speech recognition system is used for the character information conversion unit 3, it is preferable that the time lag in which the speech is displayed as speech text is as small as possible. On the other hand, in order to improve the accuracy of speech recognition, technologies such as using complicated acoustic models and language models in speech recognition systems, or outputting highly accurate recognition results again using the recognition results once output are used. Sometimes. However, these techniques are computationally intensive and may cause a time lag before the speech text is output.

そこで、第四実施形態では、例えば会議実施時には簡易的なモデルを用いてすばやく音声テキストを出力し、会議終了後に複雑なモデルや認識結果を使って精度を高める技術を用いて、文字情報記憶部10に保存されている音声テキストを修正する。これにより、会議実施時の音声テキスト生成のタイムラグを少なくし、かつ振り返り時に高精度な音声テキストを利用することが可能となる。   Therefore, in the fourth embodiment, for example, a text information storage unit is used to quickly output speech text using a simple model at the time of a conference, and improve accuracy using a complex model or a recognition result after the conference ends. 10 to modify the voice text stored in Thereby, it is possible to reduce the time lag of the voice text generation at the time of carrying out the conference, and to use the voice text with high accuracy when looking back.

以下、第一実施形態と異なる部分を中心に説明する。第一実施形態及び第二実施形態と同様の部分については重複説明を省略する。   Hereinafter, a description will be given centering on differences from the first embodiment. A duplicate description of the same parts as those in the first embodiment and the second embodiment is omitted.

第四実施形態の情報表示装置は、図2に示すように、文字情報変換部3に代えて第一音声認識部31及び第二音声認識部32を備えている点を除いては、第一実施形態の情報表示装置と同様である。   As shown in FIG. 2, the information display device according to the fourth embodiment includes a first voice recognition unit 31 and a second voice recognition unit 32 in place of the character information conversion unit 3. This is the same as the information display device of the embodiment.

第四実施形態の情報表示方法は、図5及び図6にそれぞれ例示した学習フェーズ及び振り返りフェーズの各処理を行うことにより実現される。   The information display method of the fourth embodiment is realized by performing each process of the learning phase and the reflection phase illustrated in FIGS. 5 and 6, respectively.

<記録フェーズ>
第一音声認識部31は、文字情報変換部3に代わり、第一音声認識方法により音声入力部1に入力された音声を音声認識して、その音声に対応する文字情報とする(ステップR3)。第一音声認識方法は、簡易な音声認識方法である。生成された文字情報は、第一実施形態と同様にして、文字情報表示部4に表示され、文字情報記憶部10に記憶される。
<Recording phase>
The first voice recognition unit 31 recognizes the voice input to the voice input unit 1 by the first voice recognition method, instead of the character information conversion unit 3, and sets it as character information corresponding to the voice (step R3). . The first speech recognition method is a simple speech recognition method. The generated character information is displayed on the character information display unit 4 and stored in the character information storage unit 10 as in the first embodiment.

記録フェーズにおける他の処理は、第一実施形態及び第二実施形態と同様である。   Other processes in the recording phase are the same as those in the first embodiment and the second embodiment.

<振り返りフェーズ>
第二音声認識部32が、第二音声認識方法により音声入力部1に入力された音声を音声認識して、音声に対応する文字情報を生成し、第一音声認識方法により生成された文字情報を第二音声認識方法により生成された文字情報に置き換える(ステップS2)。ここで、第二音声認識方法は、第一音声認識方法よりも音声認識の精度が高くその演算量が大きいとする。
<Review Phase>
The second voice recognition unit 32 recognizes the voice input to the voice input unit 1 by the second voice recognition method, generates character information corresponding to the voice, and the character information generated by the first voice recognition method Is replaced with the character information generated by the second speech recognition method (step S2). Here, it is assumed that the second voice recognition method has higher voice recognition accuracy and a larger calculation amount than the first voice recognition method.

具体的には、文字情報記憶部10に記憶された文字情報が、第二音声認識方法により生成された文字情報に置き換えられる。もちろん、更に、自由記述領域情報記憶部8に記憶されている文字情報について、第一音声認識方法により生成された文字情報から、第二音声認識方法により生成された文字情報に置き換えてもよい。   Specifically, the character information stored in the character information storage unit 10 is replaced with the character information generated by the second speech recognition method. Of course, the character information stored in the free description area information storage unit 8 may be replaced with the character information generated by the second speech recognition method from the character information generated by the first speech recognition method.

発話の発話IDと音声情報IDとが対応付けられている場合には、この対応付けに関する情報に基づいて文字情報の置き換えが行われてもよい。すなわち、ある音声情報IDの音声情報について第二音声認識方法により生成された文字情報は、その音声情報IDに対応する発話IDを有する発話の文字情報に置き換えられる。   When the utterance ID and the voice information ID are associated with each other, the character information may be replaced based on the information regarding the association. That is, the character information generated by the second speech recognition method for the sound information of a certain sound information ID is replaced with the character information of the utterance having the utterance ID corresponding to the sound information ID.

第二音声認識部32による処理は、振り返りフェーズが始まる前に、例えば学習フェーズの終了後に自動的に行われる。もちろん、ユーザの明示の指示があった後に、第二音声認識部32による処理が行われてもよい。   The processing by the second voice recognition unit 32 is automatically performed before the look-back phase starts, for example, after the learning phase ends. Of course, the processing by the second speech recognition unit 32 may be performed after the user's explicit instruction.

[変形例等]
上記の実施形態では、会議実施時の音声が音声入力部1に入力される例を挙げて説明しているが、他の音声が音声入力部1に入力されてもよい。言い換えれば、情報表示装置及び方法は、会議録としての利用に限られるものではない。
[Modifications, etc.]
In the above-described embodiment, an example is described in which the audio at the time of the conference is input to the audio input unit 1, but other audio may be input to the audio input unit 1. In other words, the information display apparatus and method are not limited to use as a conference record.

上記の実施形態では、文字情報変換部3又は第一音声認識部31により生成された文字情報は、第二領域である音声テキスト表示部101に表示されたが、第一領域に表示されてもよい。また、この場合、第二領域である音声テキスト表示部101はタッチパネルに設けられていなくてもよい。   In the above embodiment, the character information generated by the character information conversion unit 3 or the first voice recognition unit 31 is displayed on the voice text display unit 101 which is the second region, but may be displayed on the first region. Good. In this case, the voice text display unit 101 that is the second region may not be provided on the touch panel.

上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。   The various processes described above are not only executed in time series according to the description, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. Needless to say, other modifications are possible without departing from the spirit of the present invention.

例えば、第一実施形態から第四実施形態を適宜組み合わせてもよい。言い換えれば、ある1つの情報表示装置が第一実施形態から第四実施形態の情報表示装置の機能を有していてもよい。この場合、ユーザは第一実施形態から第四実施形態の何れの情報表示装置の機能を使用するかを例えばスイッチにより選択可能であるとする。また、ある1つの情報表示方法として、第一実施形態から第四実施形態の情報表示方法の少なくとも2個の方法を行うことが可能であってもよい。これにより、更に柔軟な内容把握が可能となる。   For example, the first to fourth embodiments may be appropriately combined. In other words, one certain information display device may have the function of the information display device of the first to fourth embodiments. In this case, it is assumed that the user can select which function of the information display device of the first embodiment to the fourth embodiment is used by, for example, a switch. Further, as one information display method, it may be possible to perform at least two methods of the information display methods of the first embodiment to the fourth embodiment. This makes it possible to grasp the contents more flexibly.

上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は、非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。   When the above configuration is realized by a computer, the processing contents of the functions that each device should have are described by a program. By executing this program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. An example of a computer-readable recording medium is a non-transitory recording medium. Examples of such a recording medium are a magnetic recording device, an optical disk, a magneto-optical recording medium, a semiconductor memory, and the like.

このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   This program is distributed, for example, by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。処理の実行時、このコンピュータは、自己の記録装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, this computer reads a program stored in its own recording device and executes a process according to the read program. As another execution form of the program, the computer may read the program directly from the portable recording medium and execute processing according to the program, and each time the program is transferred from the server computer to the computer. The processing according to the received program may be executed sequentially. The above-described processing may be executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by an execution instruction and result acquisition without transferring a program from the server computer to the computer. Good.

上記実施形態では、コンピュータ上で所定のプログラムを実行させて本装置の処理機能が実現されたが、これらの処理機能の少なくとも一部がハードウェアで実現されてもよい。   In the above embodiment, the processing functions of the apparatus are realized by executing a predetermined program on a computer. However, at least a part of these processing functions may be realized by hardware.

1 音声入力部
2 音声情報記憶部
3 文字情報変換部
31 第一音声認識部
32 第二音声認識部
4 文字情報表示部
5 文字情報複製部
6 画像情報表示部
7 自由記述領域情報処理部
8 自由記述領域情報記憶部
9 対応付部
10 文字情報記憶部
11 音声再生部
DESCRIPTION OF SYMBOLS 1 Voice input part 2 Voice information storage part 3 Character information conversion part 31 First voice recognition part 32 Second voice recognition part 4 Character information display part 5 Character information replication part 6 Image information display part 7 Free description area information processing part 8 Free Description area information storage unit 9 Corresponding unit 10 Character information storage unit 11 Audio playback unit

Claims (11)

タッチパネル上の情報表示方法において、
文字情報表示部が、音声に対応する文字情報を、前記タッチパネルのある領域である第二領域に表示する文字情報表示ステップと、
文字情報複製部が、前記第二領域に表示された前記文字情報の少なくとも一部を、前記タッチパネルの前記第二領域とは異なる第一領域に複製する文字情報複製ステップと、
画像情報表示部が、前記タッチパネルの前記第一領域で入力された画像情報を、前記第一領域に複製された文字情報と共に第一領域に表示する画像情報表示ステップと、
自由記述領域情報記憶部が、前記第一領域に複製された文字情報と、前記第一領域で入力された画像情報のうち前記第一領域に複製された文字情報の近傍にあるものとを関連付けて記憶する自由記述領域情報記憶ステップと、
を含む情報表示方法。
In the information display method on the touch panel,
A character information display step in which the character information display unit displays character information corresponding to the sound in a second region which is a region where the touch panel is provided;
A character information duplicating step, wherein a character information duplicating unit duplicates at least a part of the character information displayed in the second area to a first area different from the second area of the touch panel;
An image information display step for displaying the image information input in the first area of the touch panel in the first area together with the character information replicated in the first area;
The free description area information storage unit associates the character information copied in the first area with the image information input in the first area that is in the vicinity of the character information copied in the first area. A free description area information storage step for storing
Information display method.
タッチパネル上の情報表示方法において、
文字情報表示部が、音声認識により得られた文字情報を、前記タッチパネルのある領域である第一領域に表示する文字情報表示ステップと、
画像情報表示部が、前記タッチパネルの前記第一領域で入力された画像情報を、前記文字情報と共に前記第一領域に表示する画像情報表示ステップと、
を含む情報表示方法。
In the information display method on the touch panel,
A character information display step for displaying character information obtained by voice recognition in a first region which is a region where the touch panel is provided; and
An image information display step for displaying image information input in the first area of the touch panel in the first area together with the character information;
Information display method.
請求項1の情報表示方法において、
前記音声に対応する文字情報は、前記音声を音声認識することにより得られた文字についての情報と、前記音声に基づいて書き起こされたテキストについての情報との少なくとも一方である、
情報表示方法。
In the information display method of Claim 1,
The character information corresponding to the speech is at least one of information about characters obtained by speech recognition of the speech and information about text transcribed based on the speech.
Information display method.
請求項1から3の何れかの情報表示方法において、
文字情報記憶部が、前記音声に対応する文字情報を記憶する文字情報記憶ステップと、
対応付部が、前記タッチパネルの前記第一領域における入力により画像情報が指定された場合には、その指定された画像情報と関連付けて記憶されている文字情報を前記自由記述領域情報記憶部から読み込み、その読み込まれた文字情報を含む文字情報を前記文字情報記憶部から読み込み前記第二領域又は前記第一領域に表示させる対応付ステップと、
を更に含む情報表示方法。
In the information display method in any one of Claim 1 to 3,
A character information storage unit for storing character information corresponding to the voice;
In the case where image information is designated by the input in the first area of the touch panel, the associating unit reads character information stored in association with the designated image information from the free description area information storage unit. An association step of reading character information including the read character information from the character information storage unit and displaying the character information on the second region or the first region;
An information display method further comprising:
請求項4の情報表示方法において、
前記対応付ステップは、前記タッチパネルの前記第一領域又は前記第二領域における入力により文字情報が指定された場合には、その指定された文字情報に含まれる文字情報と関連付けて記憶されている画像情報を前記自由記述領域情報記憶部から読み込み、その読み込まれた画像情報を上記第一領域に表示させるステップを更に含む、
情報表示方法。
In the information display method of Claim 4,
In the associating step, when character information is designated by input in the first area or the second area of the touch panel, an image stored in association with the character information included in the designated character information Further comprising reading information from the free description area information storage unit and displaying the read image information in the first area.
Information display method.
請求項1から3の何れかの情報表示方法において、
文字情報記憶部が、前記音声に対応する文字情報を記憶する文字情報記憶ステップと、
音声情報記憶部が、前記音声についての情報である音声情報を記憶する音声情報記憶ステップと、
対応付部が、前記タッチパネルの前記第一領域における入力により画像情報が指定された場合には、その指定された画像情報と関連付けて記憶されている文字情報を前記自由記述領域情報記憶部から読み込み、その読み込まれた文字情報を含む文字情報を前記文字情報記憶部から読み込み前記第二領域又は前記第一領域に表示させ、その指定された画像情報と関連付けて記憶されている文字情報に対応する音声情報を上記音声情報記憶部から読み込みその読み込まれた音声情報を再生させるステップ、
を更に含む情報表示方法。
In the information display method in any one of Claim 1 to 3,
A character information storage unit for storing character information corresponding to the voice;
A voice information storage step in which a voice information storage unit stores voice information which is information about the voice;
When image information is designated by the input in the first area of the touch panel, the associating unit reads character information stored in association with the designated image information from the free description area information storage unit. The character information including the read character information is read from the character information storage unit and displayed in the second area or the first area, and corresponds to the character information stored in association with the designated image information. Reading audio information from the audio information storage unit and reproducing the read audio information;
An information display method further comprising:
請求項1から3の何れかの情報表示方法において、
第一音声認識部が、簡易な音声認識方法である第一音声認識方法により前記音声を音声認識して、前記音声に対応する文字情報とする第一音声認識ステップ、
を更に含む情報表示方法。
In the information display method in any one of Claim 1 to 3,
A first voice recognition step in which the first voice recognition unit recognizes the voice by a first voice recognition method, which is a simple voice recognition method, and converts the voice into character information corresponding to the voice;
An information display method further comprising:
請求項4、5、6の何れかの情報表示方法において、
第一音声認識部が、第一音声認識方法により前記音声を音声認識して、前記音声に対応する文字情報とする第一音声認識ステップと、
第二音声認識部が、前記第一音声認識方法よりも音声認識の精度が高くその演算量が大きい第二音声認識方法により前記音声を音声認識して、前記音声に対応する文字情報を生成し、前記第一音声認識方法により生成された文字情報を前記第二音声認識方法により生成された文字情報に置き換える第二音声認識ステップと、
を更に含む情報表示方法。
In the information display method in any one of Claim 4, 5, and 6,
A first voice recognition step, wherein a first voice recognition unit recognizes the voice by a first voice recognition method to obtain character information corresponding to the voice;
A second voice recognition unit that recognizes the voice by a second voice recognition method having a higher voice recognition accuracy and a larger calculation amount than the first voice recognition method, and generates character information corresponding to the voice; A second voice recognition step of replacing the character information generated by the first voice recognition method with the character information generated by the second voice recognition method;
An information display method further comprising:
タッチパネル上に情報を表示する情報表示装置において、
音声に対応する文字情報を、前記タッチパネルのある領域である第二領域に表示する文字情報表示部と、
前記第二領域に表示された前記文字情報の少なくとも一部を、前記タッチパネルの前記第二領域とは異なる第一領域に複製する文字情報複製部と、
前記タッチパネルの前記第一領域で入力された画像情報を、前記第一領域に複製された文字情報と共に第一領域に表示する画像情報表示部と、
前記第一領域に複製された文字情報と、前記第一領域で入力された画像情報のうち前記第一領域に複製された文字情報の近傍にあるものとを関連付けて記憶する自由記述領域情報記憶部と、
を含む情報表示装置。
In an information display device that displays information on a touch panel,
A character information display unit for displaying character information corresponding to voice in a second region which is a region with the touch panel;
A character information duplicating unit that duplicates at least a part of the character information displayed in the second area in a first area different from the second area of the touch panel;
An image information display unit for displaying the image information input in the first area of the touch panel in the first area together with the character information duplicated in the first area;
Free description area information storage that associates and stores character information copied in the first area and image information input in the first area that is in the vicinity of the character information copied in the first area And
An information display device.
タッチパネル上に情報を表示する情報表示装置において、
音声認識により得られた文字情報を、前記タッチパネルのある領域である第一領域に表示する文字情報表示部と、
前記タッチパネルの前記第一領域で入力された画像情報を、前記文字情報と共に前記第一領域に表示する画像情報表示部と、
を含む情報表示装置。
In an information display device that displays information on a touch panel,
A character information display unit that displays character information obtained by voice recognition in a first region that is a region of the touch panel;
An image information display unit for displaying the image information input in the first area of the touch panel in the first area together with the character information;
An information display device.
請求項1から8の何れかの情報表示方法のステップをコンピュータに実現させるためのプログラム。   A program for causing a computer to realize the steps of the information display method according to claim 1.
JP2013230924A 2013-11-07 2013-11-07 Information display apparatus, method and program Active JP6095553B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013230924A JP6095553B2 (en) 2013-11-07 2013-11-07 Information display apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013230924A JP6095553B2 (en) 2013-11-07 2013-11-07 Information display apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2015091077A true JP2015091077A (en) 2015-05-11
JP6095553B2 JP6095553B2 (en) 2017-03-15

Family

ID=53194415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013230924A Active JP6095553B2 (en) 2013-11-07 2013-11-07 Information display apparatus, method and program

Country Status (1)

Country Link
JP (1) JP6095553B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017004270A (en) * 2015-06-10 2017-01-05 日本電信電話株式会社 Conference support system and conference support method
JP2018092365A (en) * 2016-12-02 2018-06-14 株式会社アドバンスト・メディア Information processing system, information processing device, information processing method, and program
JP2019185150A (en) * 2018-04-03 2019-10-24 株式会社ミクシィ Information processing device, search history storage method and search history storage program
JP2021078060A (en) * 2019-11-12 2021-05-20 パナソニックIpマネジメント株式会社 Subtitle correction system, subtitle correction method, and computer program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06176080A (en) * 1992-12-01 1994-06-24 N T T Data Tsushin Kk Image/data information display system
JP2000123007A (en) * 1998-10-16 2000-04-28 Chie Izawa Tablet with integrated display and tape rewriting system utilizing voice recognition
JP2002116797A (en) * 2000-10-11 2002-04-19 Canon Inc Voice processor and method for voice recognition and storage medium
JP2003242150A (en) * 2002-02-14 2003-08-29 Victor Co Of Japan Ltd Information processor
JP2004151614A (en) * 2002-11-01 2004-05-27 Nippon Hoso Kyokai <Nhk> Character data correction device, its method and program and method for generating caption
JP2004173058A (en) * 2002-11-21 2004-06-17 Nippon Telegr & Teleph Corp <Ntt> Method and device for visualizing conference information, and program and recording medium with the program recorded
JP2013012084A (en) * 2011-06-29 2013-01-17 Konica Minolta Business Technologies Inc Document processing device, document processing system, and program
JP2013125553A (en) * 2011-12-15 2013-06-24 Toshiba Corp Information processor and recording program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06176080A (en) * 1992-12-01 1994-06-24 N T T Data Tsushin Kk Image/data information display system
JP2000123007A (en) * 1998-10-16 2000-04-28 Chie Izawa Tablet with integrated display and tape rewriting system utilizing voice recognition
JP2002116797A (en) * 2000-10-11 2002-04-19 Canon Inc Voice processor and method for voice recognition and storage medium
JP2003242150A (en) * 2002-02-14 2003-08-29 Victor Co Of Japan Ltd Information processor
JP2004151614A (en) * 2002-11-01 2004-05-27 Nippon Hoso Kyokai <Nhk> Character data correction device, its method and program and method for generating caption
JP2004173058A (en) * 2002-11-21 2004-06-17 Nippon Telegr & Teleph Corp <Ntt> Method and device for visualizing conference information, and program and recording medium with the program recorded
JP2013012084A (en) * 2011-06-29 2013-01-17 Konica Minolta Business Technologies Inc Document processing device, document processing system, and program
JP2013125553A (en) * 2011-12-15 2013-06-24 Toshiba Corp Information processor and recording program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017004270A (en) * 2015-06-10 2017-01-05 日本電信電話株式会社 Conference support system and conference support method
JP2018092365A (en) * 2016-12-02 2018-06-14 株式会社アドバンスト・メディア Information processing system, information processing device, information processing method, and program
JP2019185150A (en) * 2018-04-03 2019-10-24 株式会社ミクシィ Information processing device, search history storage method and search history storage program
JP7057495B2 (en) 2018-04-03 2022-04-20 株式会社ミクシィ Information processing device, search history storage method and search history storage program
JP2021078060A (en) * 2019-11-12 2021-05-20 パナソニックIpマネジメント株式会社 Subtitle correction system, subtitle correction method, and computer program

Also Published As

Publication number Publication date
JP6095553B2 (en) 2017-03-15

Similar Documents

Publication Publication Date Title
JP5257330B2 (en) Statement recording device, statement recording method, program, and recording medium
JP2014219614A (en) Audio device, video device, and computer program
JP2021182438A (en) Moving image generating method, device, electronic apparatus, and computer readable medium
JP2015510602A (en) Management of auxiliary information playback
JP2018525691A (en) Human computer interaction method and system based on knowledge map
JP6095553B2 (en) Information display apparatus, method and program
TW201510774A (en) Apparatus and method for selecting a control object by voice recognition
US11651157B2 (en) Filler word detection through tokenizing and labeling of transcripts
JP2014222290A (en) Minute recording device, minute recording method, and program
TW201512968A (en) Apparatus and method for generating an event by voice recognition
JP2017004270A (en) Conference support system and conference support method
WO2019015133A1 (en) Lexicon management method and device for input method
JP2014085998A (en) Electronic note creation support device and program for electronic note creation support device
KR102036721B1 (en) Terminal device for supporting quick search for recorded voice and operating method thereof
CN113901186A (en) Telephone recording marking method, device, equipment and storage medium
CN104424955A (en) Audio graphical expression generation method and equipment, and audio searching method and equipment
JP2014067148A (en) Handwritten document processor and handwritten document processing method and program
JP2007018290A (en) Handwritten character input display supporting device and method and program
JPWO2018020828A1 (en) Translation apparatus and translation system
TW201506685A (en) Apparatus and method for selecting a control object by voice recognition
KR101467852B1 (en) Controlling method for reproduction of sound from playing musical instrument by electronic pen using prints code image is printed there on and Electronic pen performing therof
JP2020052262A (en) Correction candidate presentation method, correction candidate presentation program, and information processing device
JP5713782B2 (en) Information processing apparatus, information processing method, and program
JP5910222B2 (en) Information processing apparatus and information processing program
JP2016062062A (en) Voice output device, voice output program, and voice output method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170214

R150 Certificate of patent or registration of utility model

Ref document number: 6095553

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150