JP2015091077A - Information display device, method and program - Google Patents
Information display device, method and program Download PDFInfo
- Publication number
- JP2015091077A JP2015091077A JP2013230924A JP2013230924A JP2015091077A JP 2015091077 A JP2015091077 A JP 2015091077A JP 2013230924 A JP2013230924 A JP 2013230924A JP 2013230924 A JP2013230924 A JP 2013230924A JP 2015091077 A JP2015091077 A JP 2015091077A
- Authority
- JP
- Japan
- Prior art keywords
- information
- area
- character information
- voice
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000005516 engineering process Methods 0.000 abstract description 6
- 238000004904 shortening Methods 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 13
- 230000010365 information processing Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000012552 review Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000010076 replication Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
Images
Abstract
Description
この発明は、音声とその音声に付随するメモ書きとを記録及び/又は参照する技術に関する。 The present invention relates to a technique for recording and / or referring to a voice and a note accompanying the voice.
複数人の会議では、音声による意思疎通と、情報共有のための情報記録ツール(ホワイトボード等)とがしばしば用いられる。以下では、情報記録ツールとして、ホワイトボードが用いられる例を挙げて説明する。 In a multi-person conference, voice communication and information recording tools (such as a whiteboard) for information sharing are often used. Hereinafter, an example in which a whiteboard is used as an information recording tool will be described.
ホワイトボードには参加者が発言した単語列がそのまま記載され、その単語列に関する補足情報が追記される、といったことが頻繁に行われる。会議中にこうして作成されたホワイトボードは、会議中の意思疎通だけでなく、会議終了後の振り返りに用いられる。このとき、ホワイトボードの内容の中には、どのような文脈の会話において書かれたものか思い出せない記述が含まれる場合がある。 The whiteboard frequently includes a word string spoken by the participant, and supplementary information about the word string is additionally written. The whiteboard thus created during the meeting is used not only for communication during the meeting but also for reflection after the meeting. At this time, the contents of the whiteboard may include a description that cannot be remembered in what context of the conversation.
会議ではホワイトボード情報の他に、会議の音声情報が保存されることがある。この場合には、ホワイトボード中の記述で文脈不明な箇所に対して、該当箇所の音声を探し、再生するといったことが可能である。しかし、会議が長時間に渡る場合には該当箇所を探し出すことは容易ではない。従って、情報記録ツールと音声情報を紐づける技術は、会議内容把握作業の効率化に有効である。 In a conference, audio information of the conference may be stored in addition to the whiteboard information. In this case, it is possible to search for and reproduce the sound of the corresponding portion of the portion of the whiteboard whose context is unknown. However, it is not easy to find the corresponding part when the meeting is long. Therefore, the technology for associating the information recording tool with the audio information is effective in improving the efficiency of the meeting content grasping work.
情報記録ツールと音声情報を紐付ける会議内容把握支援技術は、これまでにも提案されている。 A conference content grasp support technology that links an information recording tool and audio information has been proposed so far.
特許文献1には、音声情報、映像情報、会議中に取得されるセンサ情報を時刻情報に基づいて関連づけ、1つの画面に出力する技術が記載されている。センサ情報には、例えばタッチパネルと描画用ペンで入力される文字情報や図形情報が含まれる。 Japanese Patent Application Laid-Open No. 2004-151561 describes a technique for associating audio information, video information, and sensor information acquired during a meeting based on time information and outputting the information on one screen. The sensor information includes, for example, character information and graphic information input with a touch panel and a drawing pen.
非特許文献1には、動画、音声、文字、図形、イメージ、手書きを含むマルチメディアを扱える遠隔会議システムが提案されている。マルチメディア情報は、時刻情報に基づいて同期され、1つの画面に出力される。 Non-Patent Document 1 proposes a remote conference system that can handle multimedia including moving images, voices, characters, figures, images, and handwriting. The multimedia information is synchronized based on the time information and is output on one screen.
特許文献1及び非特許文献1は何れも、音声と手書き情報を紐付けている。しかし、音声と手書き情報を紐付けたとき、手書き情報に関する会話内容が長時間に渡る場合、関連する部分をすべて聞きなおさなくてはならず、会話内容の把握に要する時間が長くなるという問題がある。
Both
この発明の目的は、会話内容の把握に要する時間を従来よりも短くすること可能とする情報表示方法、装置及びプログラムを提供することである。 An object of the present invention is to provide an information display method, apparatus, and program that make it possible to shorten the time required for grasping the content of a conversation compared to the prior art.
この発明の1つの態様による情報表示方法によれば、タッチパネル上の情報表示方法において、文字情報表示部が、音声に対応する文字情報を、タッチパネルのある領域である第二領域に表示する文字情報表示ステップと、文字情報複製部が、第二領域に表示された文字情報の少なくとも一部を、タッチパネルの第二領域とは異なる第一領域に複製する文字情報複製ステップと、画像情報表示部が、タッチパネルの第一領域で入力された画像情報を、第一領域に複製された文字情報と共に第一領域に表示する画像情報表示ステップと、自由記述領域情報記憶部が、第一領域に複製された文字情報と、第一領域で入力された画像情報のうち第一領域に複製された文字情報の近傍にあるものとを関連付けて記憶する自由記述領域情報記憶ステップと、を有している。 According to the information display method according to one aspect of the present invention, in the information display method on the touch panel, the character information display unit displays the character information corresponding to the sound in the second area which is the area where the touch panel is located. A display step, a character information replication unit that replicates at least part of the character information displayed in the second area in a first area different from the second area of the touch panel, and an image information display section The image information display step for displaying the image information input in the first area of the touch panel in the first area together with the character information copied in the first area, and the free description area information storage unit are copied in the first area. Free description area information storage step for storing the character information and the image information input in the first area in association with the character information copied in the first area , The has.
この発明の他の態様による情報表示方法によれば、タッチパネル上の情報表示方法において、文字情報表示部が、音声認識により得られた文字情報を、タッチパネルのある領域である第一領域に表示する文字情報表示ステップと、画像情報表示が、タッチパネルの第一領域で入力された画像情報を、文字情報と共に第一領域に表示する画像情報表示ステップと、を有している。 According to the information display method according to another aspect of the present invention, in the information display method on the touch panel, the character information display unit displays the character information obtained by the speech recognition in the first area that is the area where the touch panel is located. The character information display step and the image information display include an image information display step of displaying the image information input in the first area of the touch panel in the first area together with the character information.
音声と手書き情報とではなく、音声に紐づく文字情報と画像情報とを関連付けることで、画像情報に関連する会話内容が文字情報により一目で把握できるため、会話内容の把握に要する時間を従来よりも短くすることが可能となる。 By associating text information and image information associated with voice instead of voice and handwritten information, the conversation content related to the image information can be grasped at a glance from the character information, so the time required for grasping the conversation content has been conventionally increased. Can be shortened.
[第一実施形態]
第一実施形態の情報表示装置は、図1に示すように、音声入力部1、音声情報記憶部2、文字情報変換部3、文字情報表示部4、文字情報複製部5、画像情報表示部6、自由記述領域情報処理部7、自由記述領域情報記憶部8、対応付部9及び文字情報記憶部10を例えば備えている。
[First embodiment]
As shown in FIG. 1, the information display device according to the first embodiment includes a
情報表示装置は、記録フェーズ及び振り返りフェーズという異なる2つの動作モードがある。記録フェーズにおいては文字情報とそれに関連する画像情報とが記録され、振り返りフェーズにおいてはこれらの記録された情報が参照される。記録フェーズと振り返りフェーズとの切り替えは、例えばボタン操作等によりユーザが適宜切り替え可能であるとする。例えば会議に情報表示装置が用いられる場合には、会議開始及び終了ボタンを画面に配置し、会議開始ボタンが押されてから終了ボタンが押されるまでを会議実施時、それ以外を振り返り時とすればよい。また、振り返りボタンを追加し、会議実施時においてもそのボタンを押すことで、振り返り時の動作モードへ移行できるような構成も考えられる。 The information display device has two different operation modes of a recording phase and a retrospective phase. Character information and related image information are recorded in the recording phase, and these recorded information are referred to in the retrospective phase. It is assumed that the user can appropriately switch between the recording phase and the reflection phase, for example, by operating a button. For example, when an information display device is used for a conference, the conference start and end buttons are arranged on the screen. That's fine. In addition, a configuration is possible in which a review button is added, and the operation mode can be shifted to the review mode by pressing the button during the conference.
情報表示方法は、図3及び図4にそれぞれ例示した記録フェーズ及び振り返りフェーズの各処理を行うことにより実現される。 The information display method is realized by performing each process of the recording phase and the reflection phase illustrated in FIGS. 3 and 4 respectively.
<記録フェーズ>
音声入力部1は、マイクロフォン等の音を電気信号に変換する機器である。例えば会議実施時の音声が、音声入力部1に入力され電気信号に変換される(ステップR1)。変換された電気信号は、音声についての情報である音声情報として音声情報記憶部2に記憶される(ステップR2)。なお、第一実施形態においては、音声情報の記憶は行われなくてもよい。
<Recording phase>
The
文字情報変換部3は、音声入力部1に入力された音声に対応する文字情報を生成する(ステップR3)。例えば、文字情報変換部3は、音声情報記憶部2から読み込んだ音声情報に基づいて音声認識を行うことにより文字情報を生成する。生成された文字情報は、文字情報表示部4に提供される。また、生成された文字情報は、文字情報記憶部10に記憶される(ステップR4)。
The character
文字情報変換部3は、音声を構成する、任意の時間区間で分割された各発話に対し、発話IDを付与してもよい。また、発話に付随する情報がある場合には、その情報を発話IDに含めてもよい。発話に付随する情報とは、例えば、その発話を行った話者を識別するための話者IDやその発話の時刻情報等である。発話の区切りは、話者認識技術や無音区間検出技術等を用いて自動で行ってもよいし、手動で区間を区切ってもよい。例えば、句点を区切りとする一文を一発話として区切る。
The character
なお、音声に対応する文字情報の生成は、速記者等の人によって行われてもよい。この場合、音声に基づいて書き起こされたテキストについての情報が、音声に対応する文字情報となる。この場合は、文字情報変換部3は情報表示装置に備えられていなくてもよい。
The generation of the character information corresponding to the voice may be performed by a person such as a stenographer. In this case, the information about the text transcribed based on the speech becomes character information corresponding to the speech. In this case, the character
文字情報表示部4は、文字情報変換部3により生成された、音声に対応する文字情報を、タッチパネルのある領域である第二領域に表示する(ステップR5)。この例では、第二領域は、図7に例示する音声テキスト表示部101である。
The character information display unit 4 displays the character information corresponding to the voice generated by the character
発話IDや発話に付随する情報話者IDが存在する場合には、文字情報表示部4は、文字情報に加えて発話IDや発話に付随する情報話者IDを第二領域に表示してもよい。 When there is an utterance ID or an information speaker ID associated with the utterance, the character information display unit 4 displays the utterance ID or the information speaker ID associated with the utterance in addition to the character information in the second area. Good.
この例では、図7に示すようにタッチパネルは、自由に記述することができる自由記述領域部102である第一領域と、文字情報が表示される音声テキスト表示部101である第二領域とを含んでいる。タッチパネルは、タッチペンや指の接触があると、その接触部分の座標情報を生成することにより、座標情報の時系列を生成する。この座標情報の時系列に基づいて、例えば以下に述べる文字情報複製部5及び画像情報表示部6の処理が可能となる。
In this example, as shown in FIG. 7, the touch panel includes a first area that is a free
文字情報複製部5は、第二領域に表示された文字情報の少なくとも一部を、第一領域に複製する(ステップR6)。これにより、第二領域に表示された文字情報の少なくとも一部が第一領域に表示される。この文字情報複製部5の処理は、図8に示すように、第二領域である音声テキスト表示部101に表示されたテキストの一部が選択され、その選択されたテキストがタッチされそのまま音声テキスト表示部101から第一領域である自由記述領域部102にドラッグ&ドロップされた場合に行われる。
The character information duplication unit 5 duplicates at least a part of the character information displayed in the second area in the first area (step R6). Thereby, at least a part of the character information displayed in the second area is displayed in the first area. As shown in FIG. 8, the character information duplicating unit 5 performs processing by selecting a part of the text displayed on the voice
この場合、ドロップによりテキストの座標が定まった後、そのテキスト及びその座標が、自由記述領域情報処理部7に提供される。発話IDが付与されている場合には、そのテキストを含む発話の発話IDが更に自由記述領域情報処理部7に提供されてもよい。 In this case, after the coordinates of the text are determined by the drop, the text and the coordinates are provided to the free description area information processing unit 7. When the utterance ID is given, the utterance ID of the utterance including the text may be further provided to the free description area information processing unit 7.
また、タッチパネルの第一領域において、タッチペンや指を用いて文字、図形、記号等が入力されると、その入力に対応する画像についての情報である画像情報とその画像情報の座標情報が生成される。画像情報表示部6は、生成された画像情報を、第一領域に複製された文字情報と共に第一領域に表示する(ステップR7)。生成された画像情報及びその座標情報は、自由記述領域情報処理部7に提供される。
In addition, when characters, figures, symbols, etc. are input using the touch pen or finger in the first area of the touch panel, image information which is information about the image corresponding to the input and coordinate information of the image information are generated. The The image
なお、自由記述領域部102である第一領域の余白が不足した場合、ユーザが、現在表示されている自由記述領域部102を保存し、新規に白紙のページを作成することができるようにしてもよい。このとき、自由記述領域部102ごとにIDが振られる。各自由記述領域部102の座標は、(自由記述領域ID-座標値)のように一意に管理される。
If the margin of the first area which is the
自由記述領域情報処理部7は、第一領域に複製された文字情報と、第一領域で入力された画像情報のうち第一領域に複製された文字情報の近傍にあるものとを関連付けて自由記述領域情報記憶部8に記憶させる。言い換えれば、自由記述領域情報記憶部8は、第一領域に複製された文字情報と、第一領域で入力された画像情報のうち第一領域に複製された文字情報の近傍にあるものとを関連付けて記憶する(ステップR8)。 The free description area information processing unit 7 freely associates the character information copied to the first area with the image information input in the first area that is in the vicinity of the character information copied to the first area. It is stored in the description area information storage unit 8. In other words, the free description area information storage unit 8 stores the character information copied to the first area and the image information input in the first area that is in the vicinity of the character information copied to the first area. The information is stored in association (step R8).
自由記述領域情報処理部7は、具体的には、第一領域に複製された文字情報と、その文字情報の座標情報と、画像情報と、その画像情報の座標情報とを1つの自由記述セグメントとしてグループ化する。自由記述領域情報処理部7は、各自由記述セグメントに、自由記述セグメントIDを付与することにより、第一領域に複製された文字情報と、その文字情報の座標情報と、画像情報と、その画像情報の座標情報とを紐付ける。発話IDが付与されている場合には、自由記述セグメントに、発話IDを含めてもよい。また、自由記述領域部102が複数ページ存在する場合、座標情報は自由記述領域IDを含んだ一意の値となる。
Specifically, the free description area information processing unit 7 combines the character information copied to the first area, the coordinate information of the character information, the image information, and the coordinate information of the image information into one free description segment. Group as. The free description area information processing unit 7 assigns a free description segment ID to each free description segment, thereby reproducing character information copied to the first area, coordinate information of the character information, image information, and the image Link the coordinate information of the information. If an utterance ID is assigned, the utterance ID may be included in the free description segment. When there are a plurality of pages in the
このセグメント化の方法として、例えば、所定の時間内に例えば短い時間間隔で連続的に複製された複数の文字情報及び画像情報並びにこれらの座標情報を1つのグループとする方法や、ある座標の中心とした所定の形状の図形の範囲内に含まれる文字情報及び画像情報を1つのグループとする方法等がある。所定の形状の図形とは、例えば矩形、円、楕円等の環状の図形のことである。ある座標とは、文字情報の座標又は画像情報の座標である。このように、時間的又は空間的に近傍にある文字情報及び画像情報並びにこれらの座標情報が1つのグループとされる。 As this segmentation method, for example, a plurality of character information and image information continuously copied within a predetermined time, for example, at a short time interval, and a method of grouping these coordinate information into one group, or a center of a certain coordinate There is a method in which character information and image information included in a range of a figure having a predetermined shape are grouped. The figure having a predetermined shape is an annular figure such as a rectangle, a circle, or an ellipse. A certain coordinate is a coordinate of character information or a coordinate of image information. In this way, character information and image information that are close in time or space and their coordinate information are grouped into one group.
セグメントが決定された後、自由記述セグメントについての情報(例えば、第一文字情報、その文字情報の座標情報、画像情報、その画像情報の座標情報)と、自由記述セグメントIDとが、自由記述領域情報記憶部8に提供され記憶される。 After the segment is determined, the information about the free description segment (for example, the first character information, the coordinate information of the character information, the image information, the coordinate information of the image information) and the free description segment ID are the free description area information. It is provided and stored in the storage unit 8.
<振り返りフェーズ>
振り返りフェーズでは、タッチパネルの第一領域に画像情報及び複製された文字情報が表示されているとする。自由記述領域部102が複数ある場合には、ユーザは例えば画面スクロール等の操作により、所望の自由記述領域部102及び画像情報を参照することができるようにされている。
<Review Phase>
In the retrospective phase, it is assumed that image information and duplicated character information are displayed in the first area of the touch panel. When there are a plurality of free
タッチパネルの第一領域における入力により画像情報がユーザにより指定されたとする。この場合、対応付部9は、その指定された画像情報と関連付けて記憶されている文字情報を自由記述領域情報記憶部8から読み込み、その読み込まれた文字情報を含む文字情報を文字情報記憶部10から読み込み第二領域に表示させる(ステップS1)。 It is assumed that image information is designated by the user by input in the first area of the touch panel. In this case, the associating unit 9 reads the character information stored in association with the designated image information from the free description area information storage unit 8 and reads the character information including the read character information into the character information storage unit. 10 is read and displayed in the second area (step S1).
ユーザがタッチペンや指によりタッチパネルに接触すると、その接触部分の座標情報を生成される。例えば、この座標情報に基づいて、対応する文字情報が検索される。すなわち、生成された座標情報をキーとして自由記述領域情報記憶部8を参照して、その座標情報に対応する座標情報を有する自由記述セグメントを検索する。条件に合致する自由記述セグメントが見つかった場合には、その自由記述セグメントに含まれる文字情報を含む文字情報を第二領域に表示させる。 When the user touches the touch panel with a touch pen or a finger, coordinate information of the contact portion is generated. For example, corresponding character information is searched based on this coordinate information. That is, referring to the free description area information storage unit 8 using the generated coordinate information as a key, a free description segment having coordinate information corresponding to the coordinate information is searched. When a free description segment matching the condition is found, character information including character information included in the free description segment is displayed in the second area.
ここで、その座標情報に対応する座標情報を有する自由記述セグメントとは、例えば、その座標情報により特定される座標が、自由記述セグメントに含まれる文字情報の座標又は自由記述セグメントに含まれる画像情報の座標を含む所定の形状の図形に含まれる場合のその自由記述セグメントのことである。所定の形状の図形とは、例えば矩形、円、楕円等の環状の図形のことである。この所定の形状の図形は、自由記述セグメントを生成する際の所定の形状の図形と同じであっても異なってもよい。 Here, the free description segment having the coordinate information corresponding to the coordinate information is, for example, the coordinates specified by the coordinate information are the character information coordinates included in the free description segment or the image information included in the free description segment. This is a free description segment when it is included in a figure of a predetermined shape including the coordinates. The figure having a predetermined shape is an annular figure such as a rectangle, a circle, or an ellipse. The graphic having the predetermined shape may be the same as or different from the graphic having the predetermined shape when the free description segment is generated.
また、その自由記述セグメントに含まれる文字情報を含む文字情報とは、例えばその自由記述セグメントに含まれる文字情報を含む発話の全部又は一部である。発話IDが付与されている場合には、対応付部9は、その自由記述セグメントに含まれる発話IDと同じ発話IDを有する発話を文字情報記憶部10から読み込み、読み込んだ発話の全部又は一部を第二領域である音声テキスト表示部101に表示させる。
The character information including character information included in the free description segment is, for example, all or a part of an utterance including character information included in the free description segment. When the utterance ID is assigned, the associating unit 9 reads from the character
なお、対応付部9は、文字情報を第二領域に表示させる際に、その文字情報を強調してもよい。文字情報の強調は、文字情報をスクロールして画面の一番上のように目立つ場所に表示することや、テキストの色や背景色を変更するなどしてハイライトすることにより例えば行われる。 The association unit 9 may emphasize the character information when displaying the character information in the second area. The character information is emphasized, for example, by scrolling the character information and displaying it in a prominent place like the top of the screen, or by changing the text color or background color to highlight it.
このように、音声と手書き情報とではなく、文字情報と画像情報とを関連付けることで、画像情報に関連する会話内容が文字情報により一目で把握できるため、会話内容の把握に要する時間を従来よりも短くすることが可能となる。 In this way, by associating character information and image information rather than voice and handwritten information, the conversation content related to the image information can be grasped at a glance from the character information, so the time required for grasping the conversation content has been conventionally increased. Can be shortened.
また、図7に示すように、タッチパネルに2個の領域を設けて、文字情報を原則として音声テキスト表示部101に表示し、画像情報を自由記述領域部102に表示し、時間軸の異なる情報の閲覧を実現することにより、柔軟な内容把握作業が可能となる。
In addition, as shown in FIG. 7, two areas are provided on the touch panel, character information is displayed on the speech
[第二実施形態]
第一実施形態では、自由記述領域部102に記載された文字情報の提示をした。しかし、文字情報の生成を音声認識システムで行う場合には、文字情報に誤りが含まれる場合がある。そこで、第二実施形態では、文字情報のみならず、文字情報に対応する音声情報をユーザに提示する。これにより、ユーザは文字情報と音声情報とを把握することができ、会話内容をより正しく把握することができる。
[Second Embodiment]
In the first embodiment, the character information described in the
以下、第一実施形態と異なる部分を中心に説明する。第一実施形態と同様の部分については重複説明を省略する。 Hereinafter, a description will be given centering on differences from the first embodiment. A duplicate description of the same parts as in the first embodiment is omitted.
第二実施形態の情報表示装置は、図1に破線で示すように、音声再生部11を更に備えている。
The information display apparatus according to the second embodiment further includes an
<記録フェーズ>
第一実施形態においては音声情報の記憶は行われなくてもよかったが、第二実施形態においては、音声情報の記憶は必ず行われる。すなわち、音声入力部1から入力された音声についての情報である音声情報は、音声情報記憶部2に記憶される。その際、各音声情報に音声情報IDを付与してもよい。この場合、音声情報は音声情報IDと共に音声情報記憶部2に記憶される。
<Recording phase>
In the first embodiment, the audio information need not be stored, but in the second embodiment, the audio information is always stored. That is, voice information that is information about the voice input from the
発話IDが付与される場合には、文字情報変換部3は、各発話の発話IDと音声情報IDとを対応付ける。この対応付けに関する情報についても音声情報記憶部2に記憶される。
When the utterance ID is given, the character
記録フェーズにおける他の処理は、第一実施形態と同様である。 Other processes in the recording phase are the same as those in the first embodiment.
<振り返りフェーズ>
対応付部は、タッチパネルの第一領域における入力により画像情報が指定された場合には、その指定された画像情報と関連付けて記憶されている文字情報を自由記述領域情報記憶部8から読み込み、その読み込まれた文字情報を含む文字情報を文字情報記憶部10から読み込み第二領域に表示させ、その指定された画像情報と関連付けて記憶されている文字情報に対応する音声情報を音声情報記憶部2から読み込みその読み込まれた音声情報を音声再生部11に再生させる(ステップS1)。
<Review Phase>
When the image information is designated by input in the first area of the touch panel, the associating section reads the character information stored in association with the designated image information from the free description area information storage section 8, and Character information including the read character information is read from the character
対応付部9は、例えば、タッチパネルへの入力により指定された画像情報と関連付けて記憶されている文字情報を含む発話の発話IDを自由記述領域情報記憶部8に記憶されている自由記述セグメントから取得し、その発話IDに対応する音声情報IDを有する音声情報を音声情報記憶部2から読み込むことにより、音声情報を取得する。
For example, the associating unit 9 obtains the utterance ID of the utterance including the character information stored in association with the image information designated by the input to the touch panel from the free description segment stored in the free description area information storage unit 8. The voice information is acquired by reading the voice information having the voice information ID corresponding to the utterance ID from the voice
音声再生部11は、スピーカ、ヘッドフォン等の印加された電気信号に基づいて音を発生させる電気音響変換器である。
The
振り返りフェーズにおける他の処理は、第一実施形態と同様である。 Other processes in the retrospective phase are the same as those in the first embodiment.
[第三実施形態]
第一実施形態及び第二実施形態では、自由記述領域部102である第一領域の任意の箇所を指定すると、文字情報及び/又は音声情報の該当する部分がユーザに提示された。しかし、音声テキストである文字情報を追随して会議内容を把握するような場合には、文字情報から対応する画像情報を参照することができなければならない。
[Third embodiment]
In the first embodiment and the second embodiment, when an arbitrary portion of the first area which is the free
そこで、第三実施形態では、音声テキスト表示部101に表示された任意の文字情報を指定すると、対応する画像情報を表示する処理を更に行う。これにより、文字情報を追随しながら対応する画像情報を参照することができ、内容把握の効率化につながる。
Therefore, in the third embodiment, when arbitrary character information displayed on the voice
以下、第一実施形態と異なる部分を中心に説明する。第一実施形態及び第二実施形態と同様の部分については重複説明を省略する。 Hereinafter, a description will be given centering on differences from the first embodiment. A duplicate description of the same parts as those in the first embodiment and the second embodiment is omitted.
<記録フェーズ>
記録フェーズにおける他の処理は、第一実施形態及び第二実施形態と同様である。
<Recording phase>
Other processes in the recording phase are the same as those in the first embodiment and the second embodiment.
<振り返りフェーズ>
対応付部9は、タッチパネルの音声テキスト表示部101である第二領域における入力により文字情報が指定された場合には、その指定された文字情報に含まれる文字情報と関連付けて記憶されている画像情報を自由記述領域情報記憶部8から読み込み、その読み込まれた画像情報を第一領域に表示させる(ステップS1)。もちろん、対応付部9は、必要に応じて、画像情報のみならず、その画像情報と関連付けて記憶されている文字情報を自由記述領域情報記憶部8から読み込み第一領域に表示させてもよい。
<Review Phase>
When the character information is designated by the input in the second area, which is the voice
対応付部9は、具体的には、タッチパネルの第二領域における入力によりある文字情報が指定された場合、指定された文字情報に対応する発話IDを文字情報記憶部10から読み込む。自由記述領域部102が複数ページに渡る場合は、その自由記述領域IDも読み込まれる。そして、対応付部9は、読み込まれた発話IDをキーとして自由記述領域情報記憶部8を参照して、その発話IDと同じ発話IDを含む自由記述セグメントを検索する。条件に合致する自由記述セグメントが見つかった場合には、その自由記述セグメントに含まれる文字情報及び画像情報を自由記述領域情報記憶部8から読み込み第一領域に表示する。
Specifically, the correspondence unit 9 reads an utterance ID corresponding to the designated character information from the character
読み込まれた文字情報及び画像情報は、自由セグメントに含まれるこれらの座標情報により定まる座標の位置に表示されてもよいし、他の位置に表示されてもよい。読み込まれた文字情報及び画像情報は、強調されて表示されてもよい。文字情報及び画像情報の強調は、文字情報及び画像情報の色や背景色を変更するなどしてハイライトすることや、文字情報及び画像情報をアニメーションで動かすことにより例えば行われる。 The read character information and image information may be displayed at a coordinate position determined by the coordinate information included in the free segment, or may be displayed at another position. The read character information and image information may be displayed with emphasis. The emphasis of character information and image information is performed, for example, by highlighting the character information and image information by changing the color or background color, or by moving the character information and image information by animation.
振り返りフェーズにおける他の処理は、第一実施形態及び第二実施形態と同様である。 Other processes in the retrospective phase are the same as those in the first embodiment and the second embodiment.
[第四実施形態]
第一実施形態から第三実施形態では、文字情報変換部3として、音声認識システムや速記者による書き起しを想定していた。文字情報変換部3に音声認識システムを使う場合、発話音声が音声テキストとして表示されるタイムラグがなるべく少ないことが好ましい。一方、音声認識の精度を高めるために、音声認識システム内の音響モデルや言語モデルに複雑なものを用いたり、一度出力した認識結果を用いて再度精度の高い認識結果を出力するといった技術を用いたりすることがある。しかし、これらの技術は計算量が多く、音声テキストが出力されるまでにタイムラグが生じてしまう可能性がある。
[Fourth embodiment]
In the first to third embodiments, the character
そこで、第四実施形態では、例えば会議実施時には簡易的なモデルを用いてすばやく音声テキストを出力し、会議終了後に複雑なモデルや認識結果を使って精度を高める技術を用いて、文字情報記憶部10に保存されている音声テキストを修正する。これにより、会議実施時の音声テキスト生成のタイムラグを少なくし、かつ振り返り時に高精度な音声テキストを利用することが可能となる。 Therefore, in the fourth embodiment, for example, a text information storage unit is used to quickly output speech text using a simple model at the time of a conference, and improve accuracy using a complex model or a recognition result after the conference ends. 10 to modify the voice text stored in Thereby, it is possible to reduce the time lag of the voice text generation at the time of carrying out the conference, and to use the voice text with high accuracy when looking back.
以下、第一実施形態と異なる部分を中心に説明する。第一実施形態及び第二実施形態と同様の部分については重複説明を省略する。 Hereinafter, a description will be given centering on differences from the first embodiment. A duplicate description of the same parts as those in the first embodiment and the second embodiment is omitted.
第四実施形態の情報表示装置は、図2に示すように、文字情報変換部3に代えて第一音声認識部31及び第二音声認識部32を備えている点を除いては、第一実施形態の情報表示装置と同様である。
As shown in FIG. 2, the information display device according to the fourth embodiment includes a first
第四実施形態の情報表示方法は、図5及び図6にそれぞれ例示した学習フェーズ及び振り返りフェーズの各処理を行うことにより実現される。 The information display method of the fourth embodiment is realized by performing each process of the learning phase and the reflection phase illustrated in FIGS. 5 and 6, respectively.
<記録フェーズ>
第一音声認識部31は、文字情報変換部3に代わり、第一音声認識方法により音声入力部1に入力された音声を音声認識して、その音声に対応する文字情報とする(ステップR3)。第一音声認識方法は、簡易な音声認識方法である。生成された文字情報は、第一実施形態と同様にして、文字情報表示部4に表示され、文字情報記憶部10に記憶される。
<Recording phase>
The first
記録フェーズにおける他の処理は、第一実施形態及び第二実施形態と同様である。 Other processes in the recording phase are the same as those in the first embodiment and the second embodiment.
<振り返りフェーズ>
第二音声認識部32が、第二音声認識方法により音声入力部1に入力された音声を音声認識して、音声に対応する文字情報を生成し、第一音声認識方法により生成された文字情報を第二音声認識方法により生成された文字情報に置き換える(ステップS2)。ここで、第二音声認識方法は、第一音声認識方法よりも音声認識の精度が高くその演算量が大きいとする。
<Review Phase>
The second
具体的には、文字情報記憶部10に記憶された文字情報が、第二音声認識方法により生成された文字情報に置き換えられる。もちろん、更に、自由記述領域情報記憶部8に記憶されている文字情報について、第一音声認識方法により生成された文字情報から、第二音声認識方法により生成された文字情報に置き換えてもよい。
Specifically, the character information stored in the character
発話の発話IDと音声情報IDとが対応付けられている場合には、この対応付けに関する情報に基づいて文字情報の置き換えが行われてもよい。すなわち、ある音声情報IDの音声情報について第二音声認識方法により生成された文字情報は、その音声情報IDに対応する発話IDを有する発話の文字情報に置き換えられる。 When the utterance ID and the voice information ID are associated with each other, the character information may be replaced based on the information regarding the association. That is, the character information generated by the second speech recognition method for the sound information of a certain sound information ID is replaced with the character information of the utterance having the utterance ID corresponding to the sound information ID.
第二音声認識部32による処理は、振り返りフェーズが始まる前に、例えば学習フェーズの終了後に自動的に行われる。もちろん、ユーザの明示の指示があった後に、第二音声認識部32による処理が行われてもよい。
The processing by the second
[変形例等]
上記の実施形態では、会議実施時の音声が音声入力部1に入力される例を挙げて説明しているが、他の音声が音声入力部1に入力されてもよい。言い換えれば、情報表示装置及び方法は、会議録としての利用に限られるものではない。
[Modifications, etc.]
In the above-described embodiment, an example is described in which the audio at the time of the conference is input to the
上記の実施形態では、文字情報変換部3又は第一音声認識部31により生成された文字情報は、第二領域である音声テキスト表示部101に表示されたが、第一領域に表示されてもよい。また、この場合、第二領域である音声テキスト表示部101はタッチパネルに設けられていなくてもよい。
In the above embodiment, the character information generated by the character
上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。 The various processes described above are not only executed in time series according to the description, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. Needless to say, other modifications are possible without departing from the spirit of the present invention.
例えば、第一実施形態から第四実施形態を適宜組み合わせてもよい。言い換えれば、ある1つの情報表示装置が第一実施形態から第四実施形態の情報表示装置の機能を有していてもよい。この場合、ユーザは第一実施形態から第四実施形態の何れの情報表示装置の機能を使用するかを例えばスイッチにより選択可能であるとする。また、ある1つの情報表示方法として、第一実施形態から第四実施形態の情報表示方法の少なくとも2個の方法を行うことが可能であってもよい。これにより、更に柔軟な内容把握が可能となる。 For example, the first to fourth embodiments may be appropriately combined. In other words, one certain information display device may have the function of the information display device of the first to fourth embodiments. In this case, it is assumed that the user can select which function of the information display device of the first embodiment to the fourth embodiment is used by, for example, a switch. Further, as one information display method, it may be possible to perform at least two methods of the information display methods of the first embodiment to the fourth embodiment. This makes it possible to grasp the contents more flexibly.
上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は、非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。 When the above configuration is realized by a computer, the processing contents of the functions that each device should have are described by a program. By executing this program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. An example of a computer-readable recording medium is a non-transitory recording medium. Examples of such a recording medium are a magnetic recording device, an optical disk, a magneto-optical recording medium, a semiconductor memory, and the like.
このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。 This program is distributed, for example, by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。処理の実行時、このコンピュータは、自己の記録装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。 A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, this computer reads a program stored in its own recording device and executes a process according to the read program. As another execution form of the program, the computer may read the program directly from the portable recording medium and execute processing according to the program, and each time the program is transferred from the server computer to the computer. The processing according to the received program may be executed sequentially. The above-described processing may be executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by an execution instruction and result acquisition without transferring a program from the server computer to the computer. Good.
上記実施形態では、コンピュータ上で所定のプログラムを実行させて本装置の処理機能が実現されたが、これらの処理機能の少なくとも一部がハードウェアで実現されてもよい。 In the above embodiment, the processing functions of the apparatus are realized by executing a predetermined program on a computer. However, at least a part of these processing functions may be realized by hardware.
1 音声入力部
2 音声情報記憶部
3 文字情報変換部
31 第一音声認識部
32 第二音声認識部
4 文字情報表示部
5 文字情報複製部
6 画像情報表示部
7 自由記述領域情報処理部
8 自由記述領域情報記憶部
9 対応付部
10 文字情報記憶部
11 音声再生部
DESCRIPTION OF
Claims (11)
文字情報表示部が、音声に対応する文字情報を、前記タッチパネルのある領域である第二領域に表示する文字情報表示ステップと、
文字情報複製部が、前記第二領域に表示された前記文字情報の少なくとも一部を、前記タッチパネルの前記第二領域とは異なる第一領域に複製する文字情報複製ステップと、
画像情報表示部が、前記タッチパネルの前記第一領域で入力された画像情報を、前記第一領域に複製された文字情報と共に第一領域に表示する画像情報表示ステップと、
自由記述領域情報記憶部が、前記第一領域に複製された文字情報と、前記第一領域で入力された画像情報のうち前記第一領域に複製された文字情報の近傍にあるものとを関連付けて記憶する自由記述領域情報記憶ステップと、
を含む情報表示方法。 In the information display method on the touch panel,
A character information display step in which the character information display unit displays character information corresponding to the sound in a second region which is a region where the touch panel is provided;
A character information duplicating step, wherein a character information duplicating unit duplicates at least a part of the character information displayed in the second area to a first area different from the second area of the touch panel;
An image information display step for displaying the image information input in the first area of the touch panel in the first area together with the character information replicated in the first area;
The free description area information storage unit associates the character information copied in the first area with the image information input in the first area that is in the vicinity of the character information copied in the first area. A free description area information storage step for storing
Information display method.
文字情報表示部が、音声認識により得られた文字情報を、前記タッチパネルのある領域である第一領域に表示する文字情報表示ステップと、
画像情報表示部が、前記タッチパネルの前記第一領域で入力された画像情報を、前記文字情報と共に前記第一領域に表示する画像情報表示ステップと、
を含む情報表示方法。 In the information display method on the touch panel,
A character information display step for displaying character information obtained by voice recognition in a first region which is a region where the touch panel is provided; and
An image information display step for displaying image information input in the first area of the touch panel in the first area together with the character information;
Information display method.
前記音声に対応する文字情報は、前記音声を音声認識することにより得られた文字についての情報と、前記音声に基づいて書き起こされたテキストについての情報との少なくとも一方である、
情報表示方法。 In the information display method of Claim 1,
The character information corresponding to the speech is at least one of information about characters obtained by speech recognition of the speech and information about text transcribed based on the speech.
Information display method.
文字情報記憶部が、前記音声に対応する文字情報を記憶する文字情報記憶ステップと、
対応付部が、前記タッチパネルの前記第一領域における入力により画像情報が指定された場合には、その指定された画像情報と関連付けて記憶されている文字情報を前記自由記述領域情報記憶部から読み込み、その読み込まれた文字情報を含む文字情報を前記文字情報記憶部から読み込み前記第二領域又は前記第一領域に表示させる対応付ステップと、
を更に含む情報表示方法。 In the information display method in any one of Claim 1 to 3,
A character information storage unit for storing character information corresponding to the voice;
In the case where image information is designated by the input in the first area of the touch panel, the associating unit reads character information stored in association with the designated image information from the free description area information storage unit. An association step of reading character information including the read character information from the character information storage unit and displaying the character information on the second region or the first region;
An information display method further comprising:
前記対応付ステップは、前記タッチパネルの前記第一領域又は前記第二領域における入力により文字情報が指定された場合には、その指定された文字情報に含まれる文字情報と関連付けて記憶されている画像情報を前記自由記述領域情報記憶部から読み込み、その読み込まれた画像情報を上記第一領域に表示させるステップを更に含む、
情報表示方法。 In the information display method of Claim 4,
In the associating step, when character information is designated by input in the first area or the second area of the touch panel, an image stored in association with the character information included in the designated character information Further comprising reading information from the free description area information storage unit and displaying the read image information in the first area.
Information display method.
文字情報記憶部が、前記音声に対応する文字情報を記憶する文字情報記憶ステップと、
音声情報記憶部が、前記音声についての情報である音声情報を記憶する音声情報記憶ステップと、
対応付部が、前記タッチパネルの前記第一領域における入力により画像情報が指定された場合には、その指定された画像情報と関連付けて記憶されている文字情報を前記自由記述領域情報記憶部から読み込み、その読み込まれた文字情報を含む文字情報を前記文字情報記憶部から読み込み前記第二領域又は前記第一領域に表示させ、その指定された画像情報と関連付けて記憶されている文字情報に対応する音声情報を上記音声情報記憶部から読み込みその読み込まれた音声情報を再生させるステップ、
を更に含む情報表示方法。 In the information display method in any one of Claim 1 to 3,
A character information storage unit for storing character information corresponding to the voice;
A voice information storage step in which a voice information storage unit stores voice information which is information about the voice;
When image information is designated by the input in the first area of the touch panel, the associating unit reads character information stored in association with the designated image information from the free description area information storage unit. The character information including the read character information is read from the character information storage unit and displayed in the second area or the first area, and corresponds to the character information stored in association with the designated image information. Reading audio information from the audio information storage unit and reproducing the read audio information;
An information display method further comprising:
第一音声認識部が、簡易な音声認識方法である第一音声認識方法により前記音声を音声認識して、前記音声に対応する文字情報とする第一音声認識ステップ、
を更に含む情報表示方法。 In the information display method in any one of Claim 1 to 3,
A first voice recognition step in which the first voice recognition unit recognizes the voice by a first voice recognition method, which is a simple voice recognition method, and converts the voice into character information corresponding to the voice;
An information display method further comprising:
第一音声認識部が、第一音声認識方法により前記音声を音声認識して、前記音声に対応する文字情報とする第一音声認識ステップと、
第二音声認識部が、前記第一音声認識方法よりも音声認識の精度が高くその演算量が大きい第二音声認識方法により前記音声を音声認識して、前記音声に対応する文字情報を生成し、前記第一音声認識方法により生成された文字情報を前記第二音声認識方法により生成された文字情報に置き換える第二音声認識ステップと、
を更に含む情報表示方法。 In the information display method in any one of Claim 4, 5, and 6,
A first voice recognition step, wherein a first voice recognition unit recognizes the voice by a first voice recognition method to obtain character information corresponding to the voice;
A second voice recognition unit that recognizes the voice by a second voice recognition method having a higher voice recognition accuracy and a larger calculation amount than the first voice recognition method, and generates character information corresponding to the voice; A second voice recognition step of replacing the character information generated by the first voice recognition method with the character information generated by the second voice recognition method;
An information display method further comprising:
音声に対応する文字情報を、前記タッチパネルのある領域である第二領域に表示する文字情報表示部と、
前記第二領域に表示された前記文字情報の少なくとも一部を、前記タッチパネルの前記第二領域とは異なる第一領域に複製する文字情報複製部と、
前記タッチパネルの前記第一領域で入力された画像情報を、前記第一領域に複製された文字情報と共に第一領域に表示する画像情報表示部と、
前記第一領域に複製された文字情報と、前記第一領域で入力された画像情報のうち前記第一領域に複製された文字情報の近傍にあるものとを関連付けて記憶する自由記述領域情報記憶部と、
を含む情報表示装置。 In an information display device that displays information on a touch panel,
A character information display unit for displaying character information corresponding to voice in a second region which is a region with the touch panel;
A character information duplicating unit that duplicates at least a part of the character information displayed in the second area in a first area different from the second area of the touch panel;
An image information display unit for displaying the image information input in the first area of the touch panel in the first area together with the character information duplicated in the first area;
Free description area information storage that associates and stores character information copied in the first area and image information input in the first area that is in the vicinity of the character information copied in the first area And
An information display device.
音声認識により得られた文字情報を、前記タッチパネルのある領域である第一領域に表示する文字情報表示部と、
前記タッチパネルの前記第一領域で入力された画像情報を、前記文字情報と共に前記第一領域に表示する画像情報表示部と、
を含む情報表示装置。 In an information display device that displays information on a touch panel,
A character information display unit that displays character information obtained by voice recognition in a first region that is a region of the touch panel;
An image information display unit for displaying the image information input in the first area of the touch panel in the first area together with the character information;
An information display device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013230924A JP6095553B2 (en) | 2013-11-07 | 2013-11-07 | Information display apparatus, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013230924A JP6095553B2 (en) | 2013-11-07 | 2013-11-07 | Information display apparatus, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015091077A true JP2015091077A (en) | 2015-05-11 |
JP6095553B2 JP6095553B2 (en) | 2017-03-15 |
Family
ID=53194415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013230924A Active JP6095553B2 (en) | 2013-11-07 | 2013-11-07 | Information display apparatus, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6095553B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017004270A (en) * | 2015-06-10 | 2017-01-05 | 日本電信電話株式会社 | Conference support system and conference support method |
JP2018092365A (en) * | 2016-12-02 | 2018-06-14 | 株式会社アドバンスト・メディア | Information processing system, information processing device, information processing method, and program |
JP2019185150A (en) * | 2018-04-03 | 2019-10-24 | 株式会社ミクシィ | Information processing device, search history storage method and search history storage program |
JP2021078060A (en) * | 2019-11-12 | 2021-05-20 | パナソニックIpマネジメント株式会社 | Subtitle correction system, subtitle correction method, and computer program |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06176080A (en) * | 1992-12-01 | 1994-06-24 | N T T Data Tsushin Kk | Image/data information display system |
JP2000123007A (en) * | 1998-10-16 | 2000-04-28 | Chie Izawa | Tablet with integrated display and tape rewriting system utilizing voice recognition |
JP2002116797A (en) * | 2000-10-11 | 2002-04-19 | Canon Inc | Voice processor and method for voice recognition and storage medium |
JP2003242150A (en) * | 2002-02-14 | 2003-08-29 | Victor Co Of Japan Ltd | Information processor |
JP2004151614A (en) * | 2002-11-01 | 2004-05-27 | Nippon Hoso Kyokai <Nhk> | Character data correction device, its method and program and method for generating caption |
JP2004173058A (en) * | 2002-11-21 | 2004-06-17 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for visualizing conference information, and program and recording medium with the program recorded |
JP2013012084A (en) * | 2011-06-29 | 2013-01-17 | Konica Minolta Business Technologies Inc | Document processing device, document processing system, and program |
JP2013125553A (en) * | 2011-12-15 | 2013-06-24 | Toshiba Corp | Information processor and recording program |
-
2013
- 2013-11-07 JP JP2013230924A patent/JP6095553B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06176080A (en) * | 1992-12-01 | 1994-06-24 | N T T Data Tsushin Kk | Image/data information display system |
JP2000123007A (en) * | 1998-10-16 | 2000-04-28 | Chie Izawa | Tablet with integrated display and tape rewriting system utilizing voice recognition |
JP2002116797A (en) * | 2000-10-11 | 2002-04-19 | Canon Inc | Voice processor and method for voice recognition and storage medium |
JP2003242150A (en) * | 2002-02-14 | 2003-08-29 | Victor Co Of Japan Ltd | Information processor |
JP2004151614A (en) * | 2002-11-01 | 2004-05-27 | Nippon Hoso Kyokai <Nhk> | Character data correction device, its method and program and method for generating caption |
JP2004173058A (en) * | 2002-11-21 | 2004-06-17 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for visualizing conference information, and program and recording medium with the program recorded |
JP2013012084A (en) * | 2011-06-29 | 2013-01-17 | Konica Minolta Business Technologies Inc | Document processing device, document processing system, and program |
JP2013125553A (en) * | 2011-12-15 | 2013-06-24 | Toshiba Corp | Information processor and recording program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017004270A (en) * | 2015-06-10 | 2017-01-05 | 日本電信電話株式会社 | Conference support system and conference support method |
JP2018092365A (en) * | 2016-12-02 | 2018-06-14 | 株式会社アドバンスト・メディア | Information processing system, information processing device, information processing method, and program |
JP2019185150A (en) * | 2018-04-03 | 2019-10-24 | 株式会社ミクシィ | Information processing device, search history storage method and search history storage program |
JP7057495B2 (en) | 2018-04-03 | 2022-04-20 | 株式会社ミクシィ | Information processing device, search history storage method and search history storage program |
JP2021078060A (en) * | 2019-11-12 | 2021-05-20 | パナソニックIpマネジメント株式会社 | Subtitle correction system, subtitle correction method, and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP6095553B2 (en) | 2017-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5257330B2 (en) | Statement recording device, statement recording method, program, and recording medium | |
JP2014219614A (en) | Audio device, video device, and computer program | |
JP2021182438A (en) | Moving image generating method, device, electronic apparatus, and computer readable medium | |
JP2015510602A (en) | Management of auxiliary information playback | |
JP2018525691A (en) | Human computer interaction method and system based on knowledge map | |
JP6095553B2 (en) | Information display apparatus, method and program | |
TW201510774A (en) | Apparatus and method for selecting a control object by voice recognition | |
US11651157B2 (en) | Filler word detection through tokenizing and labeling of transcripts | |
JP2014222290A (en) | Minute recording device, minute recording method, and program | |
TW201512968A (en) | Apparatus and method for generating an event by voice recognition | |
JP2017004270A (en) | Conference support system and conference support method | |
WO2019015133A1 (en) | Lexicon management method and device for input method | |
JP2014085998A (en) | Electronic note creation support device and program for electronic note creation support device | |
KR102036721B1 (en) | Terminal device for supporting quick search for recorded voice and operating method thereof | |
CN113901186A (en) | Telephone recording marking method, device, equipment and storage medium | |
CN104424955A (en) | Audio graphical expression generation method and equipment, and audio searching method and equipment | |
JP2014067148A (en) | Handwritten document processor and handwritten document processing method and program | |
JP2007018290A (en) | Handwritten character input display supporting device and method and program | |
JPWO2018020828A1 (en) | Translation apparatus and translation system | |
TW201506685A (en) | Apparatus and method for selecting a control object by voice recognition | |
KR101467852B1 (en) | Controlling method for reproduction of sound from playing musical instrument by electronic pen using prints code image is printed there on and Electronic pen performing therof | |
JP2020052262A (en) | Correction candidate presentation method, correction candidate presentation program, and information processing device | |
JP5713782B2 (en) | Information processing apparatus, information processing method, and program | |
JP5910222B2 (en) | Information processing apparatus and information processing program | |
JP2016062062A (en) | Voice output device, voice output program, and voice output method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6095553 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |