JP2019016360A - Information processing apparatus and information processing method, and program - Google Patents

Information processing apparatus and information processing method, and program Download PDF

Info

Publication number
JP2019016360A
JP2019016360A JP2018140703A JP2018140703A JP2019016360A JP 2019016360 A JP2019016360 A JP 2019016360A JP 2018140703 A JP2018140703 A JP 2018140703A JP 2018140703 A JP2018140703 A JP 2018140703A JP 2019016360 A JP2019016360 A JP 2019016360A
Authority
JP
Japan
Prior art keywords
information processing
idea support
word
words
diagram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018140703A
Other languages
Japanese (ja)
Other versions
JP6822448B2 (en
Inventor
賢 青木
Masaru Aoki
賢 青木
直也 守田
Naoya Morita
直也 守田
宮崎 慎也
Shinya Miyazaki
慎也 宮崎
村上 和隆
Kazutaka Murakami
和隆 村上
康子 橋本
yasuko Hashimoto
康子 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018140703A priority Critical patent/JP6822448B2/en
Publication of JP2019016360A publication Critical patent/JP2019016360A/en
Application granted granted Critical
Publication of JP6822448B2 publication Critical patent/JP6822448B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To make it possible to share, among members, a portion being discussed for the goal of a conference.SOLUTION: Information processing apparatuses 2000, 2100, and 5000 each comprise: text conversion means that converts speech information during a conference into a text; word decomposition means that decomposes the text converted by the text conversion means into words; idea support diagram creation means that creates an idea support diagram represented by a two-dimensional diagram on the basis of the words decomposed by the word decomposition means; and idea support diagram display means that displays the idea support diagram created by the idea support diagram creation means in a visualized manner in real time so that a portion being discussed in the conference can be identified.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理システムに関する。   The present invention relates to an information processing system.

<マインドマップ>
独創的な着想を生み出す着想支援法として、様々な手法が既に提案され、知られている。
<Mind map>
Various methods have already been proposed and known as idea support methods for creating original ideas.

二次元図式的な着想支援法として、日本で広く用いられている方法として、川喜田二郎氏の紙カード式の「KJ法」があげられる。また、海外では英国のTony Buzan氏による「マインドマップ(MindMap)」も普及している。その他にもさまざまな二次元図式的着想支援法が開発されている。   As a two-dimensional schematic idea support method, Jiro Kawakita's paper card type “KJ method” is widely used in Japan. Overseas, “MindMap” by Tony Buzan from the UK is also popular. Various other two-dimensional schematic idea support methods have been developed.

タスクの記述された電子付箋をデスクトップに表示させる技術が知られている(例えば、特許文献1参照)。入力された複数のタスクを記憶部に格納し、当該記憶部に格納された一のタスクと他のタスクを関連付け、当該関連付けられた複数のタスクを組織化して図表を表示する。各ユーザの作業やスケジュール、アイデア、発言内容などのタスクを他人のタスクと関連付けさせて表示することによって、各タスクの位置づけを容易に把握できるようにし、業務の効率化を図る。   A technique for displaying an electronic sticky note in which a task is described on a desktop is known (for example, see Patent Document 1). A plurality of input tasks are stored in a storage unit, one task stored in the storage unit is associated with another task, the plurality of associated tasks are organized, and a chart is displayed. By displaying tasks such as each user's work, schedule, ideas, and remarks in association with other people's tasks, the position of each task can be easily grasped, and work efficiency is improved.

また、マインドマップ等の多項目表現を作成する際に、関連する項目を情報処理装置で自動生成し、着想や文章作成等を支援する技術が知られている(例えば、非特許文献2参照)。   In addition, when creating a multi-item expression such as a mind map, a technology is known in which related items are automatically generated by an information processing apparatus to support idea creation and sentence creation (see Non-Patent Document 2, for example). .

<会議の会話による音声情報処理>
会議の会話による音声情報は、議事録担当者が聞き取り、パーソナルコンピュータ(PC)などの情報処理端末を用いて手入力を行うやり方が一般的である。
<Voice information processing by conference conversation>
In general, audio information from a conference conversation is listened to by a person in charge of minutes, and manually input using an information processing terminal such as a personal computer (PC).

会話中の発話に関心または興味のある内容かどうかを分析し可視化する技術が知られている(例えば、特許文献3参照)。   There is known a technique for analyzing and visualizing whether or not the content is an interest or interest in an utterance during conversation (see, for example, Patent Document 3).

会議の音声情報から議事録を自動生成する技術が知られている(例えば、特許文献4参照)。   A technique for automatically generating minutes from audio information of a meeting is known (see, for example, Patent Document 4).

遠隔地でのネットワーク会議において、議事録を作成する技術が知られている(例えば、特許文献5参照)。   A technique for creating minutes in a network conference at a remote location is known (see, for example, Patent Document 5).

会議の振り返りの支援として、挙手、起立、板書などの動作解析、話者交代、話者同定から会議の重要部分を重み付けし、会議の重要部分の区間内における発話単語数、言い淀みの感動詞、声量、声量の変化率、音声のピッチ変化、顔の傾きからキーパーソンを推定する技術が知られている(例えば、特許文献6参照)。   As support for the review of the meeting, weighting the important parts of the meeting from motion analysis of raising hand, standing up, board writing, speaker change, speaker identification, etc. A technique for estimating a key person from a voice volume, a voice rate change rate, a voice pitch change, and a face inclination is known (for example, see Patent Document 6).

会議の参加者間でやり取りされる会話の音声信号を認識し、単語に分解し集計することにより、会議が本論から逸れているか否かを判断する技術が知られている(例えば、特許文献7参照)。   A technique for determining whether or not a conference deviates from the main topic by recognizing speech signals of conversations exchanged between conference participants, decomposing them into words, and collecting them (for example, Patent Document 7) is known. reference).

会議中の音声情報やマインドマップなどの着想支援法を使ったシステムでは、会議の目標に対して、現在どの部分を話しているかがわからず会議が効率よく進まない。また、会議で話さなければならないトピックに対してどのトピックは十分に議論ができていて、どのトピックが不十分であるかということもその場で把握することができない。   In a system that uses an idea support method such as voice information or mind map during a conference, the conference does not proceed efficiently because it does not know which part is currently spoken against the conference target. In addition, it is impossible to grasp on the spot which topics are sufficiently discussed with respect to topics that must be spoken at the meeting, and which topics are insufficient.

そこで、本発明は、会議などの目標に対して、どの部分を話しているかをメンバー間で共有させることを目的とする。   Therefore, an object of the present invention is to allow members to share which part is being spoken with respect to a goal such as a meeting.

開示の一実施例の情報処理装置は、
会議中の音声情報をテキストに変換するテキスト変換手段と、
前記テキスト変換手段により変換されたテキストを単語に分解する単語分解手段と、
前記単語分解手段により分解された単語に基づいて、二次元の図式で表される着想支援図を生成する着想支援図生成手段と、
前記着想支援図生成手段により生成された着想支援図について、前記会議中の議論している部分が判別可能であるようにリアルタイムに可視化表示する着想支援図表示手段と、
を備える。
An information processing apparatus according to an embodiment of the disclosure
Text conversion means for converting audio information during a meeting into text;
Word decomposing means for decomposing the text converted by the text converting means into words;
An idea support diagram generating means for generating an idea support diagram represented by a two-dimensional diagram based on the words decomposed by the word decomposing means;
About the idea support diagram generated by the idea support diagram generating means, an idea support diagram display means for visualizing and displaying in real time so that the part being discussed in the meeting can be identified,
Is provided.

開示の実施例によれば、会議などの目標に対して、どの部分を話しているかをメンバー間で共有させることができる。   According to the disclosed embodiment, it is possible to share which part is spoken with respect to a goal such as a meeting among members.

情報処理システムの一実施例を示す図である。It is a figure which shows one Example of an information processing system. 情報処理装置の一実施例を示す模式図である。It is a schematic diagram which shows one Example of information processing apparatus. 情報処理装置の一実施例を示す図である。It is a figure which shows one Example of information processing apparatus. 情報処理装置の一実施例を示す模式図である。It is a schematic diagram which shows one Example of information processing apparatus. 情報処理装置の一実施例を示す図である。It is a figure which shows one Example of information processing apparatus. 携帯端末装置の一実施例を示す図である。It is a figure which shows one Example of a portable terminal device. 情報処理装置の一実施例を示す機能ブロック図である。It is a functional block diagram which shows one Example of information processing apparatus. 携帯端末装置の一実施例を示す機能ブロック図である。It is a functional block diagram which shows one Example of a portable terminal device. 通信システムの動作(その1)の一実施例を示すシーケンスチャートである。It is a sequence chart which shows one Example of operation | movement (the 1) of a communication system. 通信システムの動作(その2)の一実施例を示すシーケンスチャートである。It is a sequence chart which shows one Example of operation | movement (the 2) of a communication system. 通信システムの動作(その3)の一実施例を示すシーケンスチャートである。It is a sequence chart which shows one Example of operation | movement (the 3) of a communication system. マインドマップの一実施例を示す図である。It is a figure which shows one Example of a mind map. マインドマップを生成する処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of the process which produces | generates a mind map. マインドマップが操作された際の表示処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of the display process when a mind map is operated. 関連語の選択処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of the selection process of a related word. 関連語の選択処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of the selection process of a related word. マインドマップを生成する処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process which produces | generates a mind map. 重み付け行列の一実施例を示す図である。It is a figure which shows one Example of a weighting matrix. マインドマップの一実施例を示す図である。It is a figure which shows one Example of a mind map. マインドマップのデータフォーマットの一実施例を示す図である。It is a figure which shows one Example of the data format of a mind map.

次に、本発明を実施するための形態を、以下の実施例に基づき図面を参照しつつ説明する。以下で説明する実施例は一例に過ぎず、本発明が適用される実施の形態は、以下の実施例に限られない。
なお、実施例を説明するための全図において、同一機能を有するものは同一符号を用い、繰り返しの説明は省略する。
Next, the form for implementing this invention is demonstrated, referring drawings based on the following Examples. Examples described below are merely examples, and embodiments to which the present invention is applied are not limited to the following examples.
In all the drawings for explaining the embodiments, the same reference numerals are used for those having the same function, and repeated explanation is omitted.

<実施例>
<情報処理システム>
図1は、情報処理システムの一実施例を示す。
<Example>
<Information processing system>
FIG. 1 shows an embodiment of an information processing system.

情報処理システムは、会議などにおける会話による音声情報、図式的に項目間を関連づけた表現などの着想支援図を用いて、着想能力、文書能力、コミュニケーション能力の向上などの支援を行う。図式的に項目間を関連づけた表現などの着想支援図には、KJ法や、マインドマップなどあるが、これらに限られない。   The information processing system supports improvement of the idea ability, document ability, communication ability, etc., using the idea support diagram such as the voice information by the conversation in the meeting or the like, and the expression that schematically associates the items. Inspiration support diagrams such as expressions that graphically relate items to each other include, but are not limited to, the KJ method and a mind map.

情報処理システムの一実施例は、着想支援図としてマインドマップにより支援を行う場合について説明する。マインドマップは、二次元の図式で表されるのが好ましい。情報処理システムの一実施例では、3人の参加者、つまり第1の参加者3100、第2の参加者3200、第3の参加者3300により会議が行われる。会議は、2人の参加者で行われてもよいし、4人以上の参加者で行われてもよい。   In an embodiment of the information processing system, a case where support is provided using a mind map as an idea support diagram will be described. The mind map is preferably represented in a two-dimensional diagram. In one embodiment of the information processing system, a conference is held by three participants, that is, a first participant 3100, a second participant 3200, and a third participant 3300. The meeting may be held by two participants or may be held by four or more participants.

会議システムには、情報処理装置2000及び2100と、携帯端末装置5000が含まれる。   The conference system includes information processing apparatuses 2000 and 2100 and a mobile terminal apparatus 5000.

第1の参加者3100は情報処理装置2000を有し、第2の参加者3200は情報処理装置2100を有し、第3の参加者3300は携帯端末装置5000を有する。   The first participant 3100 includes the information processing device 2000, the second participant 3200 includes the information processing device 2100, and the third participant 3300 includes the mobile terminal device 5000.

会議システムには、プロジェクタ3400と、スクリーン3500が含まれる。プロジェクタ3400は、スクリーン3500に投影する。   The conference system includes a projector 3400 and a screen 3500. Projector 3400 projects onto screen 3500.

プロジェクタ3400は、スクリーン3500を分割した各領域に複数の情報をそれぞれ投影する。図1に示される例では、プロジェクタ3400は、スクリーン3500を2つに分割した各領域に2つの情報をそれぞれ投影する。スクリーン3500の右側の領域には、モバイルパソコン3600から入力された画面が投影される。スクリーン3500の左側の領域には、モバイルパソコン3600から入力されたマインドマップ情報の画面情報が投影される。マインドマップ情報は、情報処理装置2000、及び2100、携帯端末装置5000で処理されたものである。   The projector 3400 projects a plurality of information on each area obtained by dividing the screen 3500. In the example illustrated in FIG. 1, the projector 3400 projects two pieces of information on each area obtained by dividing the screen 3500 into two parts. A screen input from the mobile personal computer 3600 is projected on the right side of the screen 3500. On the left area of the screen 3500, the screen information of the mind map information input from the mobile personal computer 3600 is projected. The mind map information is processed by the information processing apparatuses 2000 and 2100 and the mobile terminal apparatus 5000.

スクリーン3500の複数の領域に、複数の情報をそれぞれ表示することにより、参加者に、現時点の説明のポイントと、今までの会議の内容と現在の話し合いの内容を把握させることができる。また、参加者に、話し合いが不足している部分を把握させることができる。   By displaying a plurality of pieces of information in a plurality of areas of the screen 3500, it is possible for the participants to grasp the point of the current explanation, the contents of the conference so far, and the contents of the current discussion. In addition, the participants can be made aware of the lack of discussion.

プロジェクタ3400に赤外線センサが備えられ、スクリーン3500の左側に投影されている画面に手を当てることにより、該左側の画面を操作できるのが好ましい。図1に示される例では、スクリーン3500の左側には、マインドマップが表示される。この場合、マインドマップに手を当てることにより、マインドマップを操作できる。   It is preferable that the projector 3400 is provided with an infrared sensor, and that the left screen can be operated by touching the screen projected on the left side of the screen 3500. In the example shown in FIG. 1, a mind map is displayed on the left side of the screen 3500. In this case, the mind map can be operated by touching the mind map.

また、プロジェクタ3400に赤外線センサなどの接触されたことを検出する機能がない場合には、携帯端末装置5000や、モバイルパソコン3600の画面に表示されるマインドマップに触れることにより、マインドマップを操作するようにしてもよい。   When the projector 3400 does not have a function of detecting contact with an infrared sensor or the like, the mind map is operated by touching the mind map displayed on the screen of the mobile terminal device 5000 or the mobile personal computer 3600. You may do it.

<情報処理装置2000>
図2は、情報処理装置2000の一実施例を示す。図2には、情報処理装置2000の模式図を示す。
<Information processing apparatus 2000>
FIG. 2 shows an embodiment of the information processing apparatus 2000. In FIG. 2, the schematic diagram of the information processing apparatus 2000 is shown.

情報処理装置2000は、腕時計に含まれる。情報処理装置2000は、マイク2001と、ボタン2002と、ディスプレイ2003とを有する。   Information processing apparatus 2000 is included in a wristwatch. The information processing apparatus 2000 includes a microphone 2001, a button 2002, and a display 2003.

図3は、情報処理装置2000の一実施例を示す。図2には、情報処理装置2000のハードウェア構成が示される。   FIG. 3 shows an embodiment of the information processing apparatus 2000. FIG. 2 shows a hardware configuration of the information processing apparatus 2000.

情報処理装置2000は、マイク2001と、ボタン2002と、ディスプレイ2003と、ROM(Read Only Memory)2004と、プロセッサ2005と、RAM(Random Access Memory)2006と、ハードウェアアクセラレータ2007と、内蔵メモリ2008とを有する。   The information processing apparatus 2000 includes a microphone 2001, a button 2002, a display 2003, a ROM (Read Only Memory) 2004, a processor 2005, a RAM (Random Access Memory) 2006, a hardware accelerator 2007, and a built-in memory 2008. Have

マイク2001は、第1の参加者3100が話した音声(アナログ情報)をデジタル情報に変換する。マイク2001は、音声入力があったことを割り込みなどの信号を使ってプロセッサ2005に伝える。音声情報はRAM2006に一旦保存されてもよいし、内部バッファで直接プロセッサ2005に入力してもよい。   The microphone 2001 converts voice (analog information) spoken by the first participant 3100 into digital information. The microphone 2001 informs the processor 2005 that there has been an audio input using a signal such as an interrupt. The audio information may be temporarily stored in the RAM 2006 or may be directly input to the processor 2005 using an internal buffer.

プロセッサ2005は、ハードウェアアクセラレータ2007と連携して音声認識、形態素解析、マインドマップ化と順に処理を行う。   The processor 2005 performs processing in the order of speech recognition, morphological analysis, and mind mapping in cooperation with the hardware accelerator 2007.

ボタン2002は、時計の表示切替や日付、時刻調整、ストップウォッチの開始、停止を行う機能を有する。音声認識の認識精度を高めるために音声認識の開始と終了ボタンを設けてもよい。   The button 2002 has functions for switching the display of the clock, adjusting the date and time, and starting and stopping the stopwatch. In order to improve the recognition accuracy of voice recognition, a voice recognition start and end button may be provided.

ディスプレイ2003は、時計の表示を行う。   A display 2003 displays a clock.

ROM2004は、情報処理装置2000を起動する際に必要なブートローダ、ファイルシステム、OS(Operating System)を格納する。情報処理装置2000の起動時にプロセッサ2005はROM2004から起動プログラムを読込み、起動する。   The ROM 2004 stores a boot loader, a file system, and an OS (Operating System) necessary for starting up the information processing apparatus 2000. When the information processing apparatus 2000 is activated, the processor 2005 reads the activation program from the ROM 2004 and activates it.

内蔵メモリ2008は、電源をオフする際に一時的にマインドマップ情報、音声認識、形態素解析を行うための辞書、マインドマップ化を行うためのパラメータを保持する。内蔵メモリ2008は、不揮発メモリであるのが好ましい。   The built-in memory 2008 temporarily stores mind map information, a dictionary for performing speech recognition and morphological analysis, and parameters for performing mind mapping when the power is turned off. The built-in memory 2008 is preferably a non-volatile memory.

<情報処理装置2100>
図4は、情報処理装置2100の一実施例を示す。図4には、情報処理装置2100の模式図を示す。
<Information processing apparatus 2100>
FIG. 4 shows an embodiment of the information processing apparatus 2100. FIG. 4 shows a schematic diagram of the information processing apparatus 2100.

情報処理装置2100は、ICレコーダに含まれる。情報処理装置2100は、マイク2101と、スピーカ2102と、ディスプレイ2103と、ボタン2104とを有する。   Information processing apparatus 2100 is included in the IC recorder. The information processing apparatus 2100 includes a microphone 2101, a speaker 2102, a display 2103, and a button 2104.

図5は、情報処理装置2100の一実施例を示す。図5には、情報処理装置2100のハードウェア構成が示される。   FIG. 5 shows an embodiment of the information processing apparatus 2100. FIG. 5 shows a hardware configuration of the information processing apparatus 2100.

情報処理装置2100は、マイク2101と、スピーカ2102と、ディスプレイ2103と、ボタン2104と、内蔵メモリ2105と、ROM2106と、プロセッサ2107と、RAM2108と、ハードウェアアクセラレータ2109とを有する。   The information processing apparatus 2100 includes a microphone 2101, a speaker 2102, a display 2103, a button 2104, a built-in memory 2105, a ROM 2106, a processor 2107, a RAM 2108, and a hardware accelerator 2109.

マイク2101、内蔵メモリ2105、ROM2106、プロセッサ2107、RAM2108、及びハードウェアアクセラレータ2109は、それぞれ情報処理装置2000のマイク2001、内蔵メモリ2008、ROM2004、プロセッサ2005、RAM2006、及びハードウェアアクセラレータ2007と略同一である。   The microphone 2101, built-in memory 2105, ROM 2106, processor 2107, RAM 2108, and hardware accelerator 2109 are substantially the same as the microphone 2001, built-in memory 2008, ROM 2004, processor 2005, RAM 2006, and hardware accelerator 2007 of the information processing apparatus 2000. is there.

スピーカ2102は、ICレコーダとして音声を記録した後で再生する際に、音声を出力する。   The speaker 2102 outputs sound when playing back after recording the sound as an IC recorder.

ディスプレイ2103は、記録したどの音声ファイルを再生するかを表示し、ボタン2104と連携して選択して実行するためのユーザインタフェース(UI)の役割を果たす。   The display 2103 displays which recorded audio file is to be played, and plays the role of a user interface (UI) for selecting and executing in cooperation with the button 2104.

<携帯端末装置5000>
図6は、携帯端末装置5000の一実施例を示す。
<Mobile terminal device 5000>
FIG. 6 shows an embodiment of the mobile terminal device 5000.

携帯端末装置5000は、カメラ5001と、ディスプレイ5002と、ボタン5003と、マイク5004とを有する。   The mobile terminal device 5000 includes a camera 5001, a display 5002, a button 5003, and a microphone 5004.

ディスプレイ5002は、タッチパネルを有する。タッチパネルに接触することにより、種々の操作が可能である。例えば、ディスプレイ5002に表示されたマインドマップに接触することにより、プロジェクタ3400によりスクリーン3500に投影されたマインドマップと同期して、マインドマップを操作することができる。具体的には、ディスプレイ5002に表示されたマインドマップに接触することにより、ノードの挿入、削除、名前変更、切り取り、貼り付け、移動、展開又は省略などの操作を行うことができる。さらに、ディスプレイ5002に表示されたマインドマップに接触することにより、表示全体の拡大、縮小も行うことができる。   The display 5002 has a touch panel. Various operations are possible by touching the touch panel. For example, by touching the mind map displayed on the display 5002, the mind map can be operated in synchronization with the mind map projected on the screen 3500 by the projector 3400. Specifically, by touching the mind map displayed on the display 5002, operations such as insertion, deletion, renaming, cutting, pasting, moving, expanding, or omitting a node can be performed. Further, by touching the mind map displayed on the display 5002, the entire display can be enlarged or reduced.

また、ディスプレイ5002に表示されたノードをタッチすることにより、タッチしたノードの関連語をWeb検索して表示することや、ノードの単語が含まれる一文を表示することもできる。   Further, by touching a node displayed on the display 5002, a related word of the touched node can be searched and displayed on the Web, or a sentence including the word of the node can be displayed.

<情報処理装置2000の機能>
図7は、情報処理装置2000の機能の一実施例を示す。情報処理装置2100の機能は、情報処理装置2000の機能と略同一である。
<Function of Information Processing Device 2000>
FIG. 7 shows an example of functions of the information processing apparatus 2000. The function of the information processing apparatus 2100 is substantially the same as the function of the information processing apparatus 2000.

情報処理装置2000は、マイク2001と、時計部2050と、通信部2054と、マインドマップデータベース2061と、辞書データベース2062とを有する。   The information processing apparatus 2000 includes a microphone 2001, a clock unit 2050, a communication unit 2054, a mind map database 2061, and a dictionary database 2062.

プロセッサ2005がROM2004に格納されたプログラムに従って、OS2051と、ミドルウェア2052と、エンジン部2053として機能する。   The processor 2005 functions as an OS 2051, middleware 2052, and an engine unit 2053 according to a program stored in the ROM 2004.

マイク2001は、音声を入力してアナログ信号からデジタル信号に変換する。   The microphone 2001 receives sound and converts it from an analog signal to a digital signal.

時計部2050は通常の腕時計の機能を提供するユニットである。   The clock unit 2050 is a unit that provides the functions of a normal wristwatch.

OS(Operating System)2051は、Linux(登録商標)やAndroid(登録商標)などのマルチタスクをスケジューリングして実行することを可能とする基本ソフトウェアである。   An OS (Operating System) 2051 is basic software that makes it possible to schedule and execute multitasks such as Linux (registered trademark) and Android (registered trademark).

ミドルウェア2052は、基本ソフトウェア上で動作しエンジン部2053や通信部2054から利用されるライブラリ群である。   The middleware 2052 is a library group that operates on the basic software and is used by the engine unit 2053 and the communication unit 2054.

通信部2054は、情報処理装置2000とモバイルパソコン3600との間で通信するための通信プロトコルなどの制御を実行する。通信プロトコルの例は、HTTP(Hyper Text Transfer Protocol)などである。   The communication unit 2054 executes control such as a communication protocol for communicating between the information processing apparatus 2000 and the mobile personal computer 3600. An example of the communication protocol is HTTP (Hyper Text Transfer Protocol).

マインドマップデータベース2061は、情報処理装置2000が生成した会議の内容をマインドマップ化した情報を格納するデータベースである。   The mind map database 2061 is a database that stores information obtained by converting the content of the conference generated by the information processing apparatus 2000 into a mind map.

辞書データベース2062は、音声認識や形態素解析、マインドマップ生成などの一連の処理の中で利用する音響モデル、単語モデル、単語間の関連モデルを格納するデータベースである。   The dictionary database 2062 is a database that stores acoustic models, word models, and association models between words used in a series of processes such as speech recognition, morphological analysis, and mind map generation.

エンジン部2053には、テキスト変換手段としての音声認識部2055と、学習手段としての単語学習部2056と、検索手段としての検索部2057と、単語分解手段、フィルタ手段としての形態素解析部2058と、着想支援図生成手段としてのマインドマップ生成部2059と、操作処理手段としてのマインドマップ操作部2060とが含まれる。   The engine unit 2053 includes a speech recognition unit 2055 as a text conversion unit, a word learning unit 2056 as a learning unit, a search unit 2057 as a search unit, a word decomposition unit and a morpheme analysis unit 2058 as a filter unit, A mind map generation unit 2059 as an idea support diagram generation unit and a mind map operation unit 2060 as an operation processing unit are included.

音声認識部2055は、マイク2001から入力された音声信号の音声認識処理を行い、テキストへ変換する。音声認識部2055は、音声信号の音声認識処理の際に、辞書データベース2062に格納された音響モデル、単語モデル、単語間の関連モデルを利用するのが好ましい。音声認識部2055は、音声信号の音声認識処理の際に、内蔵メモリ2008に格納された情報を利用してもよい。   The voice recognition unit 2055 performs voice recognition processing of the voice signal input from the microphone 2001 and converts it into text. The voice recognition unit 2055 preferably uses an acoustic model, a word model, and a related model between words stored in the dictionary database 2062 during the voice recognition processing of the voice signal. The voice recognition unit 2055 may use information stored in the built-in memory 2008 at the time of voice recognition processing of a voice signal.

単語学習部2056は、マインドマップの操作で検索ボタンが押し下げ(タッチ)され、関連語が選択された際に、辞書データベース2062に格納された音響モデル、単語モデル、単語間の関連モデルを検索しても該当する単語が存在しない場合に新規単語として登録する。また、単語学習部2056は、マインドマップの操作で検索ボタンが押し下げ(タッチ)され、関連語が選択された際に、内蔵メモリ2008に格納された情報を検索しても該当する単語が存在しない場合に新規単語として登録する。該当する単語が存在しない場合に新規単語として登録することにより、辞書を学習させることができる。   The word learning unit 2056 searches for an acoustic model, a word model, and a related model between words stored in the dictionary database 2062 when the search button is pressed (touched) by a mind map operation and a related word is selected. Even if the corresponding word does not exist, it is registered as a new word. The word learning unit 2056 also searches for information stored in the built-in memory 2008 when a search button is pressed (touched) by a mind map operation and a related word is selected. Register as a new word. If the corresponding word does not exist, it is possible to learn the dictionary by registering it as a new word.

検索部2057は、マインドマップの操作で検索ボタンが押し下げ(タッチ)され、関連語をWeb検索する処理のロジック部分である。   The search unit 2057 is a logic part of a process for searching related words on the Web when the search button is pressed (touched) by a mind map operation.

形態素解析部2058は、音声認識部2055により音声認識することにより変換したテキストを品詞レベルの単語に分解する処理を行う。   The morphological analysis unit 2058 performs processing for decomposing the text converted by speech recognition by the speech recognition unit 2055 into words of the part of speech level.

マインドマップ生成部2059には、形態素解析部2058で品詞レベルに分解した単語が入力される。マインドマップ生成部2059は、形態素解析部2058からの単語に基づいてマインドマップを構築する。   The mind map generation unit 2059 receives the words decomposed into the part of speech level by the morphological analysis unit 2058. The mind map generation unit 2059 constructs a mind map based on the words from the morpheme analysis unit 2058.

マインドマップ操作部2060は、マインドマップへの操作に基づいて、該操作に応じた処理を実行する。マインドマップへの操作の例は、ノードの挿入、削除、名前変更、切り取り、貼り付け、移動、展開又は省略などの処理である。   The mind map operation unit 2060 executes processing according to the operation based on the operation to the mind map. Examples of operations on the mind map are processes such as insertion, deletion, renaming, cutting, pasting, moving, expanding or omitting nodes.

<携帯端末装置5000の機能>
図8は、携帯端末装置5000の機能の一実施例を示す。
<Function of mobile terminal device 5000>
FIG. 8 shows an example of functions of the mobile terminal device 5000.

携帯端末装置5000は、ハードウェア部5050を有する。ハードウェア部5050は、カメラ5001、ディスプレイ5002、ボタン5003、マイク5004、タッチパネル部5005、バッテリ5006、アンテナ5007、センサ5008、スピーカ5009、外部メモリスロット5010、マインドマップデータベース5057、辞書データベース5058を有する。   The mobile terminal device 5000 includes a hardware unit 5050. The hardware unit 5050 includes a camera 5001, a display 5002, a button 5003, a microphone 5004, a touch panel unit 5005, a battery 5006, an antenna 5007, a sensor 5008, a speaker 5009, an external memory slot 5010, a mind map database 5057, and a dictionary database 5058.

カメラ5001は、画像の撮影を行うユニットである。   The camera 5001 is a unit that captures an image.

ディスプレイ5002は、マインドマップの表示やその他のアプリケーション5056の情報を表示する。   The display 5002 displays a mind map display and other application 5056 information.

ボタン5003にはホームボタンが含まれる。ホームボタンが押し下げされることによりホーム画面に遷移する処理が実行される。   The button 5003 includes a home button. When the home button is pressed, a process for transitioning to the home screen is executed.

マイク5004は、音声信号をアナログ信号からデジタル信号に変換する。   The microphone 5004 converts an audio signal from an analog signal to a digital signal.

タッチパネル部5005は、タッチ(接触)によりユーザインタフェースを提供するユニットである。   The touch panel unit 5005 is a unit that provides a user interface by touch (contact).

バッテリ5006は、携帯端末装置5000に電源を供給するユニットである。   The battery 5006 is a unit that supplies power to the mobile terminal device 5000.

アンテナ5007は、無線通信を行うための電波受信に利用される。   The antenna 5007 is used for radio wave reception for performing wireless communication.

センサ5008の例は、加速度センサ、ジャイロセンサ、赤外線センサ、GPS(Global Positioning System)などである。   Examples of the sensor 5008 include an acceleration sensor, a gyro sensor, an infrared sensor, and a GPS (Global Positioning System).

スピーカ5009は、音声出力に使われYoutube(登録商標)などの動画の再生の際に、音を出力する。   The speaker 5009 is used for sound output and outputs sound when a moving image such as YouTube (registered trademark) is reproduced.

外部メモリスロット5010は、microSDカードやSDHCカードなどのメモリカードを挿入し、補助記憶として利用するためのインタフェースである。   The external memory slot 5010 is an interface for inserting a memory card such as a microSD card or an SDHC card and using it as an auxiliary memory.

マインドマップデータベース5057は、情報処理装置2000及び情報処理装置2100が生成した会議の内容をマインドマップ化した情報を格納するデータベースである。   The mind map database 5057 is a database that stores information obtained by converting the content of the conference generated by the information processing device 2000 and the information processing device 2100 into a mind map.

辞書データベース5058は、音声認識や形態素解析、マインドマップ生成などの一連の処理の中で利用する音響モデル、単語モデル、単語間の関連モデルを格納するデータベースである。   The dictionary database 5058 is a database that stores acoustic models, word models, and association models between words used in a series of processes such as speech recognition, morphological analysis, and mind map generation.

CPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従って、OS5051、ミドルウェア5052、アプリケーションラッパ部5053、その他のアプリケーション5056として機能する。   A CPU (not shown) functions as an OS 5051, middleware 5052, application wrapper unit 5053, and other applications 5056 according to a program stored in a storage unit (not shown).

OS5051は、Linux(登録商標)やAndroid(登録商標)などのマルチタスクをスケジューリングして実行することを可能とする基本ソフトウェアである。   The OS 5051 is basic software that makes it possible to schedule and execute multitasks such as Linux (registered trademark) and Android (registered trademark).

ミドルウェア5052は、基本ソフトウェア上で動作しエンジン部5054や通信部5055、その他のアプリケーション5056から利用されるライブラリ群である。   The middleware 5052 is a library group that operates on basic software and is used by the engine unit 5054, the communication unit 5055, and other applications 5056.

アプリケーションラッパ部5053は、携帯端末装置5000上で動作するようエンジン部5054とミドルウェア5052との間のインタフェースを接続する役割を担うユニットである。アプリケーションラッパ部5053は、エンジン部5054と、通信部5055とを有する。   The application wrapper unit 5053 is a unit that plays a role of connecting an interface between the engine unit 5054 and the middleware 5052 so as to operate on the mobile terminal device 5000. The application wrapper unit 5053 includes an engine unit 5054 and a communication unit 5055.

エンジン部5054は、図7を参照して説明したエンジン部2053と略同一であるため、説明を省略する。   The engine unit 5054 is substantially the same as the engine unit 2053 described with reference to FIG.

通信部5055は、モバイルパソコン3600との間で通信するための通信プロトコルなどを制御する。通信プロトコルの例は、HTTPなどである。   The communication unit 5055 controls a communication protocol for communicating with the mobile personal computer 3600. An example of the communication protocol is HTTP.

その他のアプリケーション5056の例は、Twitter(登録商標)、Facebook(登録商標)などの一般的なアプリケーションである。   Other examples of the application 5056 are general applications such as Twitter (registered trademark) and Facebook (registered trademark).

<通信システムの動作(その1)>
図9は、通信システムの動作(その1)の一実施例を示すシーケンスチャートである。
<Operation of communication system (1)>
FIG. 9 is a sequence chart showing an embodiment of the operation (part 1) of the communication system.

図9には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従って通信部2054としての機能を実行する処理が示される。また、図9には、主に、情報処理装置2100のプロセッサ2107がROM2106に格納されたプログラムに従って通信部としての機能を実行する処理が示される。また、図9には、主に、携帯端末装置5000のCPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従って通信部5055としての機能を実行する処理が示される。   FIG. 9 mainly illustrates processing in which the processor 2005 of the information processing apparatus 2000 executes a function as the communication unit 2054 according to a program stored in the ROM 2004. FIG. 9 mainly illustrates processing in which the processor 2107 of the information processing apparatus 2100 executes a function as a communication unit in accordance with a program stored in the ROM 2106. FIG. 9 mainly shows processing in which the CPU (not shown) of the mobile terminal device 5000 executes a function as the communication unit 5055 according to a program stored in a storage unit (not shown).

ステップS1では、情報処理装置2000は、モバイルパソコン3600に対して会議開始を要求する。このとき、接続するユーザ情報と再開するデータベース名を指定する。新規のデータベースとする場合には特に指定する必要は無い。   In step S <b> 1, the information processing apparatus 2000 requests the mobile personal computer 3600 to start a conference. At this time, user information to be connected and a database name to be resumed are designated. There is no need to specify a new database.

ステップS2では、会議開始要求を受けたモバイルパソコン3600は、ユーザ認証、データベースオープン等の前処理を実施する。   In step S2, the mobile personal computer 3600 that has received the conference start request performs pre-processing such as user authentication and database opening.

ステップS3では、モバイルパソコン3600は、前処理を実施した後、接続結果のOKあるいはNGとセッションIDを情報処理装置2000に返信する。ここで、セッションIDとは会議参加者の間でのみ共有することが可能な識別子である。通信システムの動作(その1)の一実施例では、モバイルパソコン3600は、接続結果のOKとセッションIDを情報処理装置2000に返信する。   In step S <b> 3, the mobile personal computer 3600 performs preprocessing, and then returns OK or NG of the connection result and the session ID to the information processing apparatus 2000. Here, the session ID is an identifier that can be shared only among conference participants. In one embodiment of the operation of the communication system (part 1), the mobile personal computer 3600 returns the connection result OK and the session ID to the information processing apparatus 2000.

ステップS4では、情報処理装置2100は、モバイルパソコン3600に対して、会議IDとユーザ情報を引数として接続要求を行う。   In step S4, the information processing apparatus 2100 makes a connection request to the mobile personal computer 3600 with the conference ID and user information as arguments.

ステップS5では、接続要求を受けたモバイルパソコン3600はメンバー追加の処理を行う。   In step S5, the mobile personal computer 3600 that has received the connection request performs a member addition process.

ステップS6では、メンバーの追加処理が完了したら、モバイルパソコン3600は情報処理装置2100に対して接続OK(あるいはNG)を返信する。   In step S 6, when the member addition process is completed, the mobile personal computer 3600 returns a connection OK (or NG) to the information processing apparatus 2100.

ステップS7では、携帯端末装置5000は、モバイルパソコン3600に対して、会議IDとユーザ情報を引数として接続要求を行う。   In step S7, the mobile terminal device 5000 makes a connection request to the mobile personal computer 3600 with the conference ID and user information as arguments.

ステップS8では、接続要求を受けたモバイルパソコン3600はメンバー追加の処理を行う。   In step S8, the mobile personal computer 3600 that has received the connection request performs member addition processing.

ステップS9では、メンバーの追加処理が完了したら、モバイルパソコン3600は携帯端末装置5000に対して接続OK(あるいはNG)を返信する。   In step S9, when the member addition process is completed, the mobile personal computer 3600 returns a connection OK (or NG) to the portable terminal device 5000.

ステップS10では、会議参加者の全てのデバイスがモバイルパソコン3600に接続できたら、情報処理装置2000から表示設定の要求を行う。ここで、IPアドレスとは、表示先のIPアドレスであり、この例ではプロジェクタ3400のIPアドレスである。この表示先設定要求は、情報処理装置2100、携帯端末装置5000が実施してもよい。   In step S 10, when all the devices of the conference participants are connected to the mobile personal computer 3600, a display setting request is made from the information processing apparatus 2000. Here, the IP address is a display destination IP address, which is the IP address of the projector 3400 in this example. This display destination setting request may be executed by the information processing device 2100 and the mobile terminal device 5000.

ステップS11では、表示先設定要求を受信すると、モバイルパソコン3600は、表示先登録を行う。   In step S11, when the display destination setting request is received, the mobile personal computer 3600 performs display destination registration.

ステップS12では、モバイルパソコン3600は、プロジェクタ3400に画面投影要求を送信する。ここで、引数のマインドマップとは、画面に投影するマインドマップ情報を指している。また、ステップS11で表示先登録を行うのは、会議終了時に表示終了や表示トラブル時の再表示を行うためである。   In step S 12, mobile personal computer 3600 transmits a screen projection request to projector 3400. Here, the argument mind map indicates the mind map information to be projected on the screen. The reason why the display destination is registered in step S11 is to perform display termination at the end of the conference and redisplay at the time of display trouble.

ステップS13では、プロジェクタ3400は、画面投影要求を受信すると、画面投影処理を実行する。   In step S13, upon receiving the screen projection request, projector 3400 executes screen projection processing.

ステップS14以降は、プロジェクタ3400で投影している画面を操作するために、携帯端末装置5000でも同じ画面を表示するためのシーケンスである。   Step S14 and subsequent steps are a sequence for displaying the same screen on the mobile terminal device 5000 in order to operate the screen projected by the projector 3400.

ステップS14では、携帯端末装置5000のIPアドレスとともに表示先設定要求をモバイルパソコン3600に送信する。   In step S 14, a display destination setting request is transmitted to mobile personal computer 3600 together with the IP address of portable terminal device 5000.

ステップS15では、モバイルパソコン3600は表示先追加登録を行う。   In step S15, the mobile personal computer 3600 performs display destination addition registration.

ステップS16では、モバイルパソコン3600は、マインドマップ情報を携帯端末装置5000に返信する。   In step S16, the mobile personal computer 3600 returns the mind map information to the mobile terminal device 5000.

ステップS17では、携帯端末装置5000は、モバイルパソコン3600から受信したマインドマップ情報を画面に表示する。   In step S17, portable terminal device 5000 displays the mind map information received from mobile personal computer 3600 on the screen.

<通信システムの動作(その2)>
図10は、通信システムの動作(その2)の一実施例を示すシーケンスチャートである。
<Operation of communication system (2)>
FIG. 10 is a sequence chart showing an embodiment of the operation (part 2) of the communication system.

図10には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従ってエンジン部2053としての機能を実行する処理が示される。また、図9には、主に、情報処理装置2100のプロセッサ2107がROM2106に格納されたプログラムに従ってエンジン部としての機能を実行する処理が示される。また、図9には、主に、携帯端末装置5000のCPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従ってエンジン部5054としての機能を実行する処理が示される。   FIG. 10 mainly illustrates processing in which the processor 2005 of the information processing apparatus 2000 executes a function as the engine unit 2053 according to a program stored in the ROM 2004. FIG. 9 mainly shows processing in which the processor 2107 of the information processing apparatus 2100 executes a function as an engine unit in accordance with a program stored in the ROM 2106. FIG. 9 mainly shows processing in which the CPU (not shown) of the mobile terminal device 5000 executes a function as the engine unit 5054 according to a program stored in a storage unit (not shown).

ステップS20では、参加者3100が発言した音声情報を情報処理装置2000が音声信号として入力し、音声認識、形態素解析、マインドマップ化、データベースへ保存する。   In step S20, the voice information uttered by the participant 3100 is input as a voice signal by the information processing apparatus 2000, and stored in voice recognition, morphological analysis, mind mapping, and database.

ステップS21では、情報処理装置2000はマインドマップ画面情報をモバイルパソコン3600に送信する。   In step S21, the information processing apparatus 2000 transmits mind map screen information to the mobile personal computer 3600.

ステップS22では、モバイルパソコン3600は、自身の画面表示を更新する。   In step S22, mobile personal computer 3600 updates its own screen display.

ステップS23では、同じ画面を表示しているプロジェクタ3400に表示更新を要求する。   In step S23, the projector 3400 displaying the same screen is requested to update the display.

ステップS24では、同じ画面を表示している携帯端末装置5000に表示更新を要求する。   In step S24, the mobile terminal device 5000 displaying the same screen is requested to update the display.

続いて、携帯端末装置5000でマインドマップ操作があった場合の処理について説明する。   Next, processing when a mind map operation is performed on the mobile terminal device 5000 will be described.

ステップS25では、携帯端末装置5000が操作に応じて画面の表示を更新する。   In step S25, the mobile terminal device 5000 updates the screen display according to the operation.

ステップS26では、携帯端末装置5000からモバイルパソコン3600へ表示更新を要求する。   In step S26, the mobile terminal device 5000 requests the mobile personal computer 3600 to update the display.

ステップS27では、モバイルパソコン3600は、携帯端末装置5000の要求を受けてプロジェクタ3400に対して表示の更新を要求する。   In step S27, the mobile personal computer 3600 requests the projector 3400 to update the display in response to the request from the mobile terminal device 5000.

ステップS28では、携帯端末装置5000は、マインドマップの表示情報をデータベースに保存するために、情報処理装置2000へマインドマップ表示情報を送信する。   In step S28, the portable terminal device 5000 transmits the mind map display information to the information processing device 2000 in order to save the mind map display information in the database.

ステップS29では、情報処理装置2000はデータベースへの保存を行う。   In step S29, the information processing apparatus 2000 performs storage in a database.

その後、参加者3300が発言した場合の処理について説明する。   Thereafter, processing when the participant 3300 speaks will be described.

ステップS30では、参加者3300が発言した音声情報を携帯端末装置5000が音声信号として入力し、音声認識し、形態素解析し、マインドマップ化し、データベースへ保存する。   In step S30, the voice information spoken by the participant 3300 is input by the mobile terminal device 5000 as a voice signal, voice-recognized, morphologically analyzed, converted into a mind map, and stored in a database.

ステップS31では、携帯端末装置5000はマインドマップ画面情報をモバイルパソコン3600に送信する。   In step S <b> 31, the mobile terminal device 5000 transmits mind map screen information to the mobile personal computer 3600.

ステップS32では、モバイルパソコン3600は、同じ画面を表示しているプロジェクタ3400にも表示画面の更新を要求する。ここで、表示画面の更新を要求する際に、モバイルパソコン3600を経由するのは、モバイルパソコン3600がサーバとして振舞うためである。   In step S32, the mobile personal computer 3600 requests the projector 3400 displaying the same screen to update the display screen. Here, when the display screen is requested to be updated, the mobile computer 3600 is routed because the mobile computer 3600 behaves as a server.

<通信システムの動作(その3)>
図11は、通信システムの動作(その3)の一実施例を示すシーケンスチャートである。
<Operation of communication system (part 3)>
FIG. 11 is a sequence chart showing an embodiment of the operation (part 3) of the communication system.

図11には、会議を終了する際の動作が示される。図11には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従って通信部2054としての機能を実行する処理が示される。   FIG. 11 shows an operation when the conference is ended. FIG. 11 mainly illustrates processing in which the processor 2005 of the information processing apparatus 2000 executes a function as the communication unit 2054 in accordance with a program stored in the ROM 2004.

ステップS40では、情報処理装置2000が接続終了要求を行う。図11では、情報処理装置2000により接続終了要求が実行される場合について示すが、情報処理装置2100により接続終了要求が実行されてもよいし、携帯端末装置5000により接続終了要求が実行されてもよい。   In step S40, the information processing apparatus 2000 makes a connection end request. Although FIG. 11 shows a case where a connection end request is executed by the information processing device 2000, a connection end request may be executed by the information processing device 2100, or a connection end request may be executed by the mobile terminal device 5000. Good.

ステップS41では、モバイルパソコン3600は会議終了処理を行う。具体的には、モバイルパソコン3600は、データベースを保存して閉じ、セッションをクリアし、表示をクリアするのが好ましい。また、モバイルパソコン3600は。表示をクリアする要求を携帯端末装置5000、プロジェクタ3400に送信するのが好ましい。   In step S41, the mobile personal computer 3600 performs a conference end process. Specifically, the mobile personal computer 3600 preferably stores and closes the database, clears the session, and clears the display. Mobile PC 3600. It is preferable to transmit a request for clearing the display to the portable terminal device 5000 and the projector 3400.

ステップS42では、会議終了処理が完了したら、情報処理装置2000に対して接続終了結果を返信する。ここで、仮に結果がNGである場合には、ユーザに終了するために必要な作業を伝えるのが好ましい。   In step S42, when the conference end process is completed, a connection end result is returned to the information processing apparatus 2000. Here, if the result is NG, it is preferable to inform the user of the work necessary to finish.

<マインドマップを操作する際の動作>
図12は、マインドマップの一実施例を示す。
<Operation when operating mind map>
FIG. 12 shows an example of a mind map.

"XXXXX"と表示された単語のノード1201をタッチすると、詳細ボタン1202、挿入ボタン1203、展開ボタン1204、検索ボタン1205が表示される。展開ボタン1204の代わりに省略ボタン1206が表示されることもある。   When a node 1201 of a word displayed as “XXXXX” is touched, a detail button 1202, an insert button 1203, an expand button 1204, and a search button 1205 are displayed. An ellipsis button 1206 may be displayed instead of the expand button 1204.

ノード1201自体を再度タッチすると、"XXXXX"という文字列を編集するモードになる。例えば、"XXXXY"などと名前を変更してEnterボタンを押すと名前の変更が確定される。   When the node 1201 itself is touched again, a mode for editing the character string “XXXXX” is entered. For example, change the name to "XXXXY" and press the Enter button to confirm the name change.

新規ノードを追加する場合には、挿入ボタン1203をタッチして作成したい位置まで枝を伸ばし離す。そうすると、新規ノードが生成される。新規ノードの名前については、空にして名前の変更をユーザに促すようにしてもよいし、適当な名前を付けて表示するようにしてもよい。   When adding a new node, the branch button is extended to a position to be created by touching the insert button 1203. Then, a new node is generated. The name of the new node may be empty to prompt the user to change the name, or may be displayed with an appropriate name.

展開ボタン1204をタッチした場合には、該タッチしたノードの子ノード以下のノードのうち、表示対象となっているノードが表示される。仮に、子ノード以下で省略状態となっているノードがあればそのノードは省略されたままとなる。省略ボタン1206の場合には展開ボタンと逆の操作となる。展開ボタン1204を押すと省略ボタン1206になり、省略ボタン1206を押すと展開ボタン1204になるのが好ましい。子ノード以下をもたないノードについてはこの展開(あるいは省略)ボタンは表示されない。   When the expand button 1204 is touched, a node to be displayed is displayed among the nodes below the child node of the touched node. If there is a node that is omitted below the child node, the node remains omitted. In the case of the abbreviated button 1206, the operation is the reverse of the expand button. It is preferable that when the expand button 1204 is pressed, an omission button 1206 is obtained, and when the omission button 1206 is pressed, an expand button 1204 is obtained. This expand (or omit) button is not displayed for nodes that have no children or less.

検索ボタン1205をタッチした際には、"XXXXX"という単語に関連する単語を設定された数、表示する。"XXXXX"という単語に関連する単語は、リング上に表示されてもよい。関連する単語に関しては、ウィキペディアなどの単語の意味を説明するサイトの関連語の部分を利用してもよい。例えば、「関連語2」を選択したとすると、"XXXXX"の子ノードとして「関連語2」が新規に追加される。このとき、辞書データベース2062あるいは5058を検索して、仮に辞書に「関連語2」がない場合には追加する学習処理も同時に行うのが好ましい。   When the search button 1205 is touched, a set number of words related to the word “XXXXX” are displayed. Words related to the word “XXXXX” may be displayed on the ring. As for related words, a related word portion of a site explaining the meaning of a word such as Wikipedia may be used. For example, if “related word 2” is selected, “related word 2” is newly added as a child node of “XXXXX”. At this time, it is preferable that the dictionary database 2062 or 5058 is searched, and if a “related word 2” is not found in the dictionary, a learning process to be added is simultaneously performed.

詳細ボタン1202をタッチした際には、会議の発言の中で"XXXXX"が含まれる一文をマインドマップデータベース2061あるいは5057より検索してポップアップ形式で表示するのが好ましい。   When the detail button 1202 is touched, it is preferable to search the mind map database 2061 or 5057 for a sentence including “XXXXX” in the speech of the conference and display it in a pop-up format.

<マインドマップを生成する処理>
図13は、マインドマップを生成する処理を示す。
<Process to generate mind map>
FIG. 13 shows a process for generating a mind map.

図13には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従ってエンジン部2053としての機能を実行する処理が示される。また、図13には、主に、情報処理装置2100のプロセッサ2107がROM2106に格納されたプログラムに従ってエンジン部としての機能を実行する処理が示される。また、図13には、主に、携帯端末装置5000のCPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従ってエンジン部5054としての機能を実行する処理が示される。   FIG. 13 mainly illustrates processing in which the processor 2005 of the information processing apparatus 2000 executes a function as the engine unit 2053 according to a program stored in the ROM 2004. FIG. 13 mainly illustrates processing in which the processor 2107 of the information processing apparatus 2100 executes a function as an engine unit in accordance with a program stored in the ROM 2106. FIG. 13 mainly shows processing in which the CPU (not shown) of the mobile terminal device 5000 executes the function as the engine unit 5054 in accordance with a program stored in a storage unit (not shown).

ステップS1302では、会議参加者の音声情報をマイク2001、2101、5004で拾いアナログ信号からデジタル信号へ変換する。   In step S1302, the audio information of the conference participants is picked up by the microphones 2001, 2101 and 5004 and converted from analog signals to digital signals.

ステップS1304では、ステップS1302により変換したデジタル音声信号を音声認識することによりテキストに変換する。   In step S1304, the digital voice signal converted in step S1302 is converted into text by voice recognition.

ステップS1306では、ステップS1304による音声認識の結果得られたテキストを、形態素解析し品詞レベルの単語に分解する。   In step S1306, the text obtained as a result of the speech recognition in step S1304 is morphologically analyzed and decomposed into parts of speech level words.

ステップS1308では、ステップS1306で品詞レベルに分解された単語から、単語毎の重要度と関連度の重み付けを計算し、マインドマップ形式(木構造)のデータを生成する。この時のデータの表現方法の例は、XML(eXtensible Markup Language)やJSON(JavaScript Object Notation)などの記法であるのが好ましい。   In step S1308, weighting of importance and relevance for each word is calculated from the words decomposed to the part of speech level in step S1306, and data in a mind map format (tree structure) is generated. An example of a data expression method at this time is preferably a notation such as XML (eXtensible Markup Language) or JSON (JavaScript Object Notation).

ステップS1310では、ステップS1308で生成されたマインドマップ形式のデータはマインドマップデータベース2061、5057に保存される。   In step S1310, the mind map format data generated in step S1308 is stored in the mind map databases 2061 and 5057.

<マインドマップが操作された際の表示処理>
図14は、マインドマップが操作された際の表示処理の一実施例を示す。
<Display process when the mind map is operated>
FIG. 14 shows an embodiment of display processing when a mind map is operated.

図13には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従ってエンジン部2053としての機能を実行する処理が示される。また、図13には、主に、情報処理装置2100のプロセッサ2107がROM2106に格納されたプログラムに従ってエンジン部としての機能を実行する処理が示される。また、図13には、主に、携帯端末装置5000のCPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従ってエンジン部5054としての機能を実行する処理が示される。   FIG. 13 mainly illustrates processing in which the processor 2005 of the information processing apparatus 2000 executes a function as the engine unit 2053 according to a program stored in the ROM 2004. FIG. 13 mainly illustrates processing in which the processor 2107 of the information processing apparatus 2100 executes a function as an engine unit in accordance with a program stored in the ROM 2106. FIG. 13 mainly shows processing in which the CPU (not shown) of the mobile terminal device 5000 executes the function as the engine unit 5054 in accordance with a program stored in a storage unit (not shown).

ステップS1402では、ノードが選択されることにより、図12に示されるように、検索ボタン1205と、詳細ボタン1202と、挿入ボタン1203と、展開ボタン1204又は省略ボタン1206の4つのボタンが表示される。   In step S1402, when a node is selected, as shown in FIG. 12, four buttons of a search button 1205, a detail button 1202, an insert button 1203, and an expand button 1204 or an omit button 1206 are displayed. .

ステップS1404では、検索ボタン1205が押下げられたか否かを判定する。   In step S1404, it is determined whether the search button 1205 has been pressed.

ステップS1406では、ステップS1404で検索ボタン1205が押下(タッチ)された場合、関連語をWeb検索する。関連語については、ウィキペディアなどの辞書サイトにある関連語を検索する方式が利用されるのが好ましい。   In step S1406, when the search button 1205 is pressed (touched) in step S1404, a web search is performed for related terms. As for the related words, it is preferable to use a method of searching for related words in a dictionary site such as Wikipedia.

ステップS1408では、ステップS1404で検索ボタンの押下(タッチ)がされない場合、詳細ボタンが押下げられたか否かを判定する。   In step S1408, if the search button is not pressed (touched) in step S1404, it is determined whether the detail button is pressed.

ステップS1410では、ステップS1408で詳細ボタンの押下(タッチ)がされた場合、マインドマップデータベース2061、及び5057からノードの単語が含まれる文書を取得する。   In step S1410, when the detail button is pressed (touched) in step S1408, a document including the word of the node is acquired from the mind map databases 2061 and 5057.

ステップS1412では、ステップS1408で詳細ボタンの押下(タッチ)がされない場合、再度ノードが押下げられたか否かを判定する。   In step S1412, if the detail button is not pressed (touched) in step S1408, it is determined whether the node is pressed again.

ステップS1414では、ステップS1412で再度ノードの押下(タッチ)がされた場合、そのノードの単語を編集できるモードに遷移する。   In step S1414, when the node is pressed (touched) again in step S1412, the mode is changed to a mode in which the word of the node can be edited.

ステップS1416では、ステップS1412で再度ノードの押下(タッチ)がない場合、挿入ボタンが押下げられたか否かを判定する。   In step S1416, if the node is not pressed (touched) again in step S1412, it is determined whether or not the insert button has been pressed.

ステップS1418では、ステップS1416で挿入ボタンが押下げされた場合、子ノードを追加するモードに遷移し、枝が伸された後にタッチが離された場合にノードが追加される。   In step S1418, when the insert button is pressed in step S1416, the mode transits to a mode for adding a child node, and a node is added when the touch is released after the branch is extended.

ステップS1420では、ステップS1416で挿入ボタンが押下げられない場合、展開ボタン又は省略ボタンが押下げられたか否かを判定する。   In step S1420, if the insert button is not pressed in step S1416, it is determined whether the expand button or the omit button is pressed.

ステップS1422では、ステップS1420で、展開ボタン又は省略ボタンが押下げされた場合、展開ボタンの場合には非表示にされている子ノード以下を表示し、省略ボタンの場合には表示されている子ノード以下を非表示にする。   In step S1422, when the expand button or the omission button is pressed in step S1420, in the case of the expand button, the hidden child nodes and below are displayed, and in the case of the omission button, the displayed child node is displayed. Hide below nodes.

ステップS1420で、展開ボタン、省略ボタンのいずれも押下げられない場合には終了する。   If it is determined in step S1420 that neither the expand button nor the omit button is pressed, the process ends.

ステップS1424では、ステップS1406により検索された関連語を、選択しているノードを囲むように設定された数だけ候補として表示する。または、ステップS1424では、ステップS1410により取得された文書をノードに対する吹き出しとしてポップアップ形式で表示する。または、ステップS1424では、ステップS1414により遷移した編集モードに従って、テキストフィールド及びカーソルを表示する。または、ステップS1424では、ステップS1418により追加した子ノードを表示する。または、ステップS1424では、ステップS1422による表示に従って表示する。   In step S1424, the related words searched in step S1406 are displayed as candidates by the number set so as to surround the selected node. Alternatively, in step S1424, the document acquired in step S1410 is displayed in a pop-up format as a balloon for the node. Alternatively, in step S1424, the text field and the cursor are displayed according to the edit mode transitioned in step S1414. Alternatively, in step S1424, the child node added in step S1418 is displayed. Or in step S1424, it displays according to the display by step S1422.

なお、スクリーン3500(キャンバス)をタッチしたまま上下左右に動かした場合に、その動きに従ってマインドマップ全体が平行移動するのが好ましい。ノードをタッチしたまま上下左右に動かした場合には、その動きに従ってタッチしたノードとそのノードの子ノード以下全体が平行移動するのが好ましい。   When the screen 3500 (canvas) is touched and moved up, down, left, and right, it is preferable that the entire mind map is translated in accordance with the movement. When a node is moved up, down, left, and right while touching, it is preferable that the touched node and the entire child node of the node move in parallel according to the movement.

<関連語の選択処理>
図15は、関連語の選択処理の一実施例を示す。
<Related word selection process>
FIG. 15 shows an example of related word selection processing.

図15には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従ってエンジン部2053としての機能を実行する処理が示される。また、図15には、主に、情報処理装置2100のプロセッサ2107がROM2106に格納されたプログラムに従ってエンジン部としての機能を実行する処理が示される。また、図15には、主に、携帯端末装置5000のCPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従ってエンジン部5054としての機能を実行する処理が示される。   FIG. 15 mainly illustrates processing in which the processor 2005 of the information processing apparatus 2000 executes a function as the engine unit 2053 according to a program stored in the ROM 2004. FIG. 15 mainly illustrates processing in which the processor 2107 of the information processing apparatus 2100 executes a function as an engine unit in accordance with a program stored in the ROM 2106. FIG. 15 mainly illustrates processing in which the CPU (not shown) of the mobile terminal device 5000 executes a function as the engine unit 5054 according to a program stored in a storage unit (not shown).

ステップS1502では、関連語を選択したイベントを受け付けると、図12に示されるように、選択した関連語を子ノードとして追加する。   In step S1502, when an event for selecting a related word is received, the selected related word is added as a child node as shown in FIG.

ステップS1504では、追加した関連語が、辞書データベース2062あるいは5058に登録済であるか否かを確認する。   In step S1504, it is confirmed whether or not the added related word is registered in the dictionary database 2062 or 5058.

追加した関連語が辞書データベース2062もしくは5058に登録済みである場合、終了する。   If the added related word is already registered in the dictionary database 2062 or 5058, the process ends.

ステップS1506では、追加した関連語が辞書データベース2062もしくは5058に登録済みでない場合、新規単語として追加処理を行う。   In step S1506, if the added related word is not already registered in the dictionary database 2062 or 5058, an addition process is performed as a new word.

追加した関連語が辞書データベース2062もしくは5058に登録済みでない場合に、新規単語として追加処理を行うことにより、ユーザは学習させていることを意識することなく、単語を追加することができる。   When the added related word is not registered in the dictionary database 2062 or 5058, the user can add a word without being aware of learning by performing an addition process as a new word.

<関連語の選択処理>
図16は、関連語の選択処理の一実施例を示す。
<Related word selection process>
FIG. 16 shows an example of related word selection processing.

図16には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従ってエンジン部2053としての機能を実行する処理が示される。また、図16には、主に、情報処理装置2100のプロセッサ2107がROM2106に格納されたプログラムに従ってエンジン部としての機能を実行する処理が示される。また、図16には、主に、携帯端末装置5000のCPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従ってエンジン部5054としての機能を実行する処理が示される。   FIG. 16 mainly illustrates processing in which the processor 2005 of the information processing apparatus 2000 executes a function as the engine unit 2053 in accordance with a program stored in the ROM 2004. FIG. 16 mainly illustrates processing in which the processor 2107 of the information processing apparatus 2100 executes a function as an engine unit in accordance with a program stored in the ROM 2106. FIG. 16 mainly shows processing in which the CPU (not shown) of the mobile terminal device 5000 executes a function as the engine unit 5054 according to a program stored in a storage unit (not shown).

ステップS1602では、情報処理装置2000のボタン2002、情報処理装置2100のボタン2104が操作されることにより、設定メニューから音声学習モードに切り替えて、音声学習に必要な定型テキストを朗読させる。また、携帯端末装置5000では設定メニューから音声学習モードに切り替えて、音声学習に必要な定型テキストを朗読させる。朗読するテキストは、ディスプレイ2003、2103、5002に表示される。   In step S1602, the button 2002 of the information processing device 2000 and the button 2104 of the information processing device 2100 are operated to switch from the setting menu to the speech learning mode to read the standard text necessary for speech learning. Also, the portable terminal device 5000 switches from the setting menu to the speech learning mode to read the fixed text necessary for speech learning. The text to be read is displayed on the displays 2003, 2103, and 5002.

ステップS1602では、入力された音声情報(アナログ信号)は、マイク2001、2101、5004でデジタル信号に変換される。音声認識部2055は、音響モデルを生成する。   In step S1602, the input audio information (analog signal) is converted into a digital signal by the microphones 2001, 2101 and 5004. The voice recognition unit 2055 generates an acoustic model.

ステップS1604では、ステップS1602で生成した音響モデルを、情報処理装置2000の内蔵メモリ2008、情報処理装置2100の内蔵メモリ2105あるいは辞書データベース5058に保存する。以上の処理により、個人個人の指向性をもたせることができるため、認識精度を上げることができる。   In step S1604, the acoustic model generated in step S1602 is stored in the internal memory 2008 of the information processing apparatus 2000, the internal memory 2105 of the information processing apparatus 2100, or the dictionary database 5058. Through the above processing, the directivity of the individual can be given, so that the recognition accuracy can be improved.

<マインドマップを生成する処理の詳細>
図17は、マインドマップを生成する処理の詳細を示す。
<Details of processing to generate mind map>
FIG. 17 shows details of processing for generating a mind map.

図17には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従ってエンジン部2053としての機能を実行する処理が示される。また、図17には、主に、情報処理装置2100のプロセッサ2107がROM2106に格納されたプログラムに従ってエンジン部としての機能を実行する処理が示される。また、図17には、主に、携帯端末装置5000のCPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従ってエンジン部5054としての機能を実行する処理が示される。   FIG. 17 mainly illustrates processing in which the processor 2005 of the information processing apparatus 2000 executes a function as the engine unit 2053 according to a program stored in the ROM 2004. FIG. 17 mainly illustrates processing in which the processor 2107 of the information processing apparatus 2100 executes a function as an engine unit in accordance with a program stored in the ROM 2106. FIG. 17 mainly illustrates processing in which the CPU (not shown) of the mobile terminal device 5000 executes a function as the engine unit 5054 according to a program stored in a storage unit (not shown).

ステップS1702では、品詞、種別でフィルタ処理を行う。例えば、品詞レベルに分解された単語を入力として、形態素解析で、品詞・種別でマインドマップ化において不要な品詞である単語を除外する。単語を除外することによりその後の処理を高速化することができる。   In step S1702, filter processing is performed by part of speech and type. For example, a word decomposed to the part of speech level is used as an input, and words that are unnecessary parts of speech in the mind mapping by part of speech and type are excluded by morphological analysis. By excluding words, the subsequent processing can be speeded up.

ステップS1704では、ステップS1702によるフィルタ処理後、単語連結・重み付け処理を行う。具体的には、「マインド」と「マップ」といった品詞レベルでは意味が違ってしまう単語について、連続する名詞は連結する処理を行う。また、単語(名詞)に接続する助詞から、その単語が文の中で主語として扱われているか、目的語として扱われているかを判定し、重要度の重み付けを行う。なお、この重要度は単語の出現頻度も考慮に入れるのが好ましい。文の終わりについては、意味の切れ目と判定し、マイナスの重み付けを行うのが好ましい。さらに、ユーザが事前に重要と位置付けてある単語に関してはさらに重み付けを行うものとする。   In step S1704, word filtering / weighting processing is performed after the filtering processing in step S1702. Specifically, consecutive nouns are connected to words that have different meanings at the part-of-speech level such as “mind” and “map”. In addition, from the particle connected to the word (noun), it is determined whether the word is treated as a subject or an object in the sentence, and weighting of importance is performed. Note that this importance level preferably takes into account the appearance frequency of words. Regarding the end of a sentence, it is preferable to determine that it is a break in meaning and to perform negative weighting. Furthermore, it is assumed that weighting is further performed on words that are positioned as important in advance by the user.

ステップS1706では、ステップS1704により個々の単語の重み付けが完了したら、重み付け行列を作成する。   In step S1706, when weighting of individual words is completed in step S1704, a weighting matrix is created.

図18は、重み付け行列の一実施例を示す。   FIG. 18 shows an example of a weighting matrix.

重み付け行列は、対角成分はステップS1704で求めた重要度の値が入る。対角成分以外は、単語間の関連度を数値化したものが入る。単語間の出現位置や意味的な関連から重み付けの値を決定する。   In the weighting matrix, the importance value obtained in step S1704 is entered in the diagonal component. Except for the diagonal component, a numerical value of the degree of association between words is entered. The weighting value is determined from the appearance position between words and the semantic relationship.

ステップS1708では、ステップS1706で重み付け行列が完成したら、マインドマップを構築する。   In step S1708, when the weighting matrix is completed in step S1706, a mind map is constructed.

図19は、マインドマップの一実施例を示す。   FIG. 19 shows an example of a mind map.

重要度が一番高いものがルートとなり、重要度が一番小さいものがリーフとなる。図19に示される例では、重要度が一番高い「単語4」がルートとなり、重要度が一番小さい「単語2」がリーフとなる。   The one with the highest importance is the root, and the one with the lowest importance is the leaf. In the example shown in FIG. 19, “word 4” having the highest importance is the root, and “word 2” having the lowest importance is the leaf.

<マインドマップのデータフォーマット>
図20は、マインドマップのデータフォーマットの一実施例を示す。
<Mind map data format>
FIG. 20 shows an embodiment of a mind map data format.

マインドマップは、マインドマップデータベース2061、5057に格納される。   The mind map is stored in mind map databases 2061 and 5057.

マインドマップのデータ形式の例は、ユーザ情報、会議(イベント)情報、単語情報の3つであるのが好ましい。   It is preferable that there are three examples of the mind map data format: user information, conference (event) information, and word information.

ユーザ情報は、所属、名前、保有するマインドマップをセットにしたものである。ユーザ情報は、保有するマインドマップより、個々の会議のマインドマップ情報を検索して取得することができる。   User information is a set of affiliation, name, and owned mind map. The user information can be acquired by searching for the mind map information of each conference from the held mind map.

会議情報は、ID、最終更新日時、作成者、マインドマップ情報をセットにしたものであり、イベント毎にデータが追加される。   The conference information is a set of ID, last update date, creator, and mind map information, and data is added for each event.

単語情報は、単語とその単語を含む文書をマッピングした情報であり、この単語情報により、マインドマップの各ノードの詳細情報を取得する際に高速に処理することができる。   The word information is information obtained by mapping a word and a document including the word, and can be processed at a high speed when detailed information of each node of the mind map is acquired based on the word information.

情報処理システムの一実施例によれば、会議中の音声情報を認識し、認識した単語の重要度を重み付けできる。さらに、情報処理システムの一実施例によれば、単語間の関連度についても重み付けしてマインドマップ形式でリアルタイムに会議中の議論している部分を全体に対してどの部分であるかを表示することができる。このようにすることにより、会議の目標に対して現在どの部分を話しているかをメンバー間で共有でき、会議の方向性をメンバー間で一致させながら効率よく会議を進行することができる。   According to one embodiment of the information processing system, it is possible to recognize voice information during a meeting and weight the importance of the recognized word. Furthermore, according to one embodiment of the information processing system, the degree of relevance between words is also weighted, and the part being discussed in the meeting is displayed in real time in the form of a mind map. be able to. In this way, it is possible to share which part is currently spoken with respect to the goal of the conference among the members, and it is possible to efficiently advance the conference while matching the direction of the conference between the members.

本発明は特定の実施例、変形例を参照しながら説明されてきたが、各実施例、変形例は単なる例示に過ぎず、当業者は様々な変形例、修正例、代替例、置換例等を理解するであろう。説明の便宜上、本発明の実施例に従った装置は機能的なブロック図を用いて説明されたが、そのような装置はハードウェアで、ソフトウエアで又はそれらの組み合わせで実現されてもよい。本発明は上記実施例に限定されず、本発明の精神から逸脱することなく、様々な変形例、修正例、代替例、置換例等が包含される。   Although the present invention has been described with reference to specific embodiments and modifications, each embodiment and modification is merely an example, and those skilled in the art will recognize various modifications, modifications, alternatives, substitutions, and the like. Will understand. For convenience of explanation, an apparatus according to an embodiment of the present invention has been described using a functional block diagram, but such an apparatus may be implemented in hardware, software, or a combination thereof. The present invention is not limited to the above-described embodiments, and various variations, modifications, alternatives, substitutions, and the like are included without departing from the spirit of the present invention.

2000 情報処理装置
2100 情報処理装置
3400 プロジェクタ
3500 スクリーン
3600 モバイルパソコン
5000 携帯端末装置
2000 Information processing apparatus 2100 Information processing apparatus 3400 Projector 3500 Screen 3600 Mobile personal computer 5000 Mobile terminal apparatus

特開2008−197765公報JP 2008-197765 A 特開2008−282228公報JP 2008-282228 A 特開2007−218933公報JP 2007-218933 A 特開2000−352995公報JP 2000-352995 A 特開2007−180828公報JP 2007-180828 A 特開2006−279111公報JP 2006-279111 A 特開2011−55160公報JP 2011-55160 A

開示の一実施例の情報処理装置は、
会議中の音声情報をテキストに変換するテキスト変換手段と、
前記テキスト変換手段により変換されたテキストを単語に分解する単語分解手段と、
前記単語を用いて、前記会議中の議論している部分が判別可能であるように可視化表示する表示手段と、
を備える。
An information processing apparatus according to an embodiment of the disclosure
Text conversion means for converting audio information during a meeting into text;
Word decomposing means for decomposing the text converted by the text converting means into words;
Using the word, and Viewing means that displays visualization as is discussed to have part in the conference can be determined,
Is provided.

Claims (10)

会議中の音声情報をテキストに変換するテキスト変換手段と、
前記テキスト変換手段により変換されたテキストを単語に分解する単語分解手段と、
前記単語分解手段により分解された単語に基づいて、二次元の図式で表される着想支援図を生成する着想支援図生成手段と、
前記着想支援図生成手段により生成された着想支援図について、前記会議中の議論している部分が判別可能であるようにリアルタイムに可視化表示する着想支援図表示手段と、
を備える情報処理装置。
Text conversion means for converting audio information during a meeting into text;
Word decomposing means for decomposing the text converted by the text converting means into words;
An idea support diagram generating means for generating an idea support diagram represented by a two-dimensional diagram based on the words decomposed by the word decomposing means;
About the idea support diagram generated by the idea support diagram generating means, an idea support diagram display means for visualizing and displaying in real time so that the part being discussed in the meeting can be identified,
An information processing apparatus comprising:
前記着想支援図生成手段により生成された着想支援図への操作に基づいて、該操作に応じた処理を実行する操作処理手段と、
前記着想支援図を生成する際に利用する単語を格納する辞書データベースと、
前記着想支援図に含まれる単語に関連する関連語をウェブ検索する検索手段と、
該検索手段により検索された関連語が前記辞書データベースに含まれない場合に、該辞書データベースに登録する学習手段と
を有する、請求項1に記載の情報処理装置。
Based on an operation to the idea support diagram generated by the idea support diagram generating means, an operation processing means for executing processing according to the operation;
A dictionary database for storing words used when generating the idea support diagram;
Search means for searching the web for related terms related to the words included in the idea support diagram;
The information processing apparatus according to claim 1, further comprising: a learning unit that registers in the dictionary database when the related word searched by the search unit is not included in the dictionary database.
前記単語分解手段により分解された単語から、所定の属性の単語を除外するフィルタ手段
を有し、
前記着想支援図生成手段は、前記単語分解手段により分解された単語のうち、前記フィルタ手段により除外された単語以外の単語に基づいて、前記着想支援図を生成する、請求項1又は2に記載の情報処理装置。
Filter means for excluding words having a predetermined attribute from the words decomposed by the word decomposition means;
The said idea support figure production | generation means produces | generates the said idea support figure based on words other than the word excluded by the said filter means among the words decomposed | disassembled by the said word decomposition | disassembly means. Information processing device.
前記着想支援図生成手段は、前記着想支援図を生成する際に、前記単語分解手段により分解された単語のうち、連続する名詞を連結する、請求項1ないし3のいずれか1項に記載の情報処理装置。   The said idea support figure production | generation means connects the continuous noun among the words decomposed | disassembled by the said word decomposition | disassembly means, when producing | generating the said idea support figure. Information processing device. 前記単語分解手段により分解された単語の重み付けを行う重み付け手段
を有し、
前記着想支援図生成手段は、前記着想支援図を生成する際に、前記重み付け手段により重み付けされた単語に基づいて、前記着想支援図を生成する、請求項1ないし4のいずれか1項に記載の情報処理装置。
Weighting means for weighting the words decomposed by the word decomposition means,
The said idea support figure production | generation means produces | generates the said idea support figure based on the word weighted by the said weighting means, when producing | generating the said idea support figure. Information processing device.
前記重み付け手段は、句点、予め指定された単語、及び名詞に後続する助詞の少なくとも1つに基づいて、単語の重み付けを行う、請求項5に記載の情報処理装置。   The information processing apparatus according to claim 5, wherein the weighting unit weights a word based on at least one of a phrase, a predesignated word, and a particle following a noun. 前記着想支援図生成手段は、前記着想支援図を生成する際に、単語の重要度と単語間の関連度を表す行列を生成する、請求項1ないし6のいずれか1項に記載の情報処理装置。   7. The information processing according to claim 1, wherein when generating the idea support diagram, the idea support diagram generating unit generates a matrix representing the importance level of words and the degree of association between words. 8. apparatus. 前記着想支援図には、マインドマップが含まれる、請求項1ないし7のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the idea support diagram includes a mind map. 会議中の音声情報をテキストに変換し、
前記変換されたテキストを単語に分解し、
前記分解された単語に基づいて、二次元の図式で表される着想支援図を生成し、
前記生成された着想支援図について、前記会議中の議論している部分が判別可能であるようにリアルタイムに可視化表示する、
情報処理装置における情報処理方法。
Convert audio information during the meeting into text,
Decomposing the converted text into words;
Based on the decomposed word, generate an idea support diagram represented by a two-dimensional diagram,
The generated idea support diagram is visualized and displayed in real time so that the part being discussed in the meeting can be identified,
Information processing method in information processing apparatus.
情報処理装置に、
会議中の音声情報をテキストに変換し、
前記変換されたテキストを単語に分解し、
前記分解された単語に基づいて、二次元の図式で表される着想支援図を生成し、
前記生成された着想支援図について、前記会議中の議論している部分が判別可能であるようにリアルタイムに可視化表示する、
処理を実行させるプログラム。
In the information processing device,
Convert audio information during the meeting into text,
Decomposing the converted text into words;
Based on the decomposed word, generate an idea support diagram represented by a two-dimensional diagram,
The generated idea support diagram is visualized and displayed in real time so that the part being discussed in the meeting can be identified,
A program that executes processing.
JP2018140703A 2018-07-26 2018-07-26 Information processing equipment, information processing methods and programs Active JP6822448B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018140703A JP6822448B2 (en) 2018-07-26 2018-07-26 Information processing equipment, information processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018140703A JP6822448B2 (en) 2018-07-26 2018-07-26 Information processing equipment, information processing methods and programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013049225A Division JP6375592B2 (en) 2013-03-12 2013-03-12 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2019016360A true JP2019016360A (en) 2019-01-31
JP6822448B2 JP6822448B2 (en) 2021-01-27

Family

ID=65358705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018140703A Active JP6822448B2 (en) 2018-07-26 2018-07-26 Information processing equipment, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP6822448B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4181114A1 (en) 2021-11-15 2023-05-17 Fujitsu Limited Virtual workspace shared by multiple terminals

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10301927A (en) * 1997-04-23 1998-11-13 Nec Software Ltd Electronic conference speech arrangement device
JP2000123041A (en) * 1998-10-19 2000-04-28 Nippon Telegr & Teleph Corp <Ntt> Similarity judging method, document retrieving device, document classifying device, storage medium stored with document retrieval program and storage medium stored with document classification program
JP2008282228A (en) * 2007-05-10 2008-11-20 Hi Enterprise:Kk Information processor, method, program and recording medium
JP2009501370A (en) * 2005-07-15 2009-01-15 シンク ソフトウェア ピーティーワイ リミテッド Method and apparatus for providing structured data for free text messages
JP2009032118A (en) * 2007-07-27 2009-02-12 Nec Corp Information structuring device, information structuring method, and program
JP2011043716A (en) * 2009-08-21 2011-03-03 Sharp Corp Information processing apparatus, conference system, information processing method and computer program
JP2012073396A (en) * 2010-09-28 2012-04-12 Toshiba Corp Conference support device, method and program
JP2012181358A (en) * 2011-03-01 2012-09-20 Nec Corp Text display time determination device, text display system, method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10301927A (en) * 1997-04-23 1998-11-13 Nec Software Ltd Electronic conference speech arrangement device
JP2000123041A (en) * 1998-10-19 2000-04-28 Nippon Telegr & Teleph Corp <Ntt> Similarity judging method, document retrieving device, document classifying device, storage medium stored with document retrieval program and storage medium stored with document classification program
JP2009501370A (en) * 2005-07-15 2009-01-15 シンク ソフトウェア ピーティーワイ リミテッド Method and apparatus for providing structured data for free text messages
JP2008282228A (en) * 2007-05-10 2008-11-20 Hi Enterprise:Kk Information processor, method, program and recording medium
JP2009032118A (en) * 2007-07-27 2009-02-12 Nec Corp Information structuring device, information structuring method, and program
JP2011043716A (en) * 2009-08-21 2011-03-03 Sharp Corp Information processing apparatus, conference system, information processing method and computer program
JP2012073396A (en) * 2010-09-28 2012-04-12 Toshiba Corp Conference support device, method and program
JP2012181358A (en) * 2011-03-01 2012-09-20 Nec Corp Text display time determination device, text display system, method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
趙雲超、外2名: "音声認識された議事録からの議論マップ自動生成", 2006年度人工知能学会全国大会(第20回)論文集 [CD−ROM], JPN6020017670, 7 June 2006 (2006-06-07), pages 1 - 4, ISSN: 0004270114 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4181114A1 (en) 2021-11-15 2023-05-17 Fujitsu Limited Virtual workspace shared by multiple terminals

Also Published As

Publication number Publication date
JP6822448B2 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
WO2019018061A1 (en) Automatic integration of image capture and recognition in a voice-based query to understand intent
CN110556127B (en) Method, device, equipment and medium for detecting voice recognition result
CN107040452B (en) Information processing method and device and computer readable storage medium
JP6375592B2 (en) Information processing apparatus, information processing method, and program
JP2009026108A (en) Idea support apparatus, idea support system, idea support program, and idea support method
JP7331044B2 (en) Information processing method, device, system, electronic device, storage medium and computer program
CN109782997B (en) Data processing method, device and storage medium
JP2014222290A (en) Minute recording device, minute recording method, and program
CN110660375B (en) Method, device and equipment for generating music
CN112269898A (en) Background music obtaining method and device, electronic equipment and readable storage medium
US20230139416A1 (en) Search content matching method, and electronic device and storage medium
WO2019169722A1 (en) Shortcut key recognition method and apparatus, device, and computer-readable storage medium
JP6822448B2 (en) Information processing equipment, information processing methods and programs
CN113055529B (en) Recording control method and recording control device
CN114064943A (en) Conference management method, conference management device, storage medium and electronic equipment
US11443738B2 (en) Electronic device processing user utterance and control method thereof
CN113220590A (en) Automatic testing method, device, equipment and medium for voice interaction application
CN113190307A (en) Control adding method, device, equipment and storage medium
CN112383662A (en) Information display method and device and electronic equipment
EP4141704A1 (en) Method and apparatus for music generation, electronic device, storage medium
WO2022213943A1 (en) Message sending method, message sending apparatus, electronic device, and storage medium
CN109684501A (en) Lyrics information generation method and its device
CN113160782B (en) Audio processing method and device, electronic equipment and readable storage medium
CN111640432B (en) Voice control method, voice control device, electronic equipment and storage medium
JPWO2017199486A1 (en) Information processing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180824

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R151 Written notification of patent or utility model registration

Ref document number: 6822448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151