JP6822448B2 - Information processing equipment, information processing methods and programs - Google Patents
Information processing equipment, information processing methods and programs Download PDFInfo
- Publication number
- JP6822448B2 JP6822448B2 JP2018140703A JP2018140703A JP6822448B2 JP 6822448 B2 JP6822448 B2 JP 6822448B2 JP 2018140703 A JP2018140703 A JP 2018140703A JP 2018140703 A JP2018140703 A JP 2018140703A JP 6822448 B2 JP6822448 B2 JP 6822448B2
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- mind map
- words
- word
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 95
- 238000003672 processing method Methods 0.000 title claims 2
- 238000000034 method Methods 0.000 claims description 68
- 238000012545 processing Methods 0.000 claims description 20
- 238000000354 decomposition reaction Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 239000002245 particle Substances 0.000 claims description 2
- 230000008569 process Effects 0.000 description 49
- 230000006870 function Effects 0.000 description 34
- 238000004891 communication Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 12
- 230000000877 morphologic effect Effects 0.000 description 11
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 101000934888 Homo sapiens Succinate dehydrogenase cytochrome b560 subunit, mitochondrial Proteins 0.000 description 1
- 102100025393 Succinate dehydrogenase cytochrome b560 subunit, mitochondrial Human genes 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、情報処理システムに関する。 The present invention relates to an information processing system.
<マインドマップ>
独創的な着想を生み出す着想支援法として、様々な手法が既に提案され、知られている。
<Mind map>
Various methods have already been proposed and are known as an idea support method for creating original ideas.
二次元図式的な着想支援法として、日本で広く用いられている方法として、川喜田二郎氏の紙カード式の「KJ法」があげられる。また、海外では英国のTony Buzan氏による「マインドマップ(MindMap)」も普及している。その他にもさまざまな二次元図式的着想支援法が開発されている。 As a two-dimensional schematic idea support method, a paper card type "KJ method" by Jiro Kawakita can be mentioned as a method widely used in Japan. In addition, "MindMap" by Tony Buzan of the United Kingdom is also widespread overseas. In addition, various two-dimensional schematic idea support methods have been developed.
タスクの記述された電子付箋をデスクトップに表示させる技術が知られている(例えば、特許文献1参照)。入力された複数のタスクを記憶部に格納し、当該記憶部に格納された一のタスクと他のタスクを関連付け、当該関連付けられた複数のタスクを組織化して図表を表示する。各ユーザの作業やスケジュール、アイデア、発言内容などのタスクを他人のタスクと関連付けさせて表示することによって、各タスクの位置づけを容易に把握できるようにし、業務の効率化を図る。 A technique for displaying an electronic sticky note on which a task is described on a desktop is known (see, for example, Patent Document 1). A plurality of input tasks are stored in a storage unit, one task stored in the storage unit is associated with another task, and the plurality of associated tasks are organized to display a chart. By displaying tasks such as the work, schedule, ideas, and remarks of each user in association with the tasks of others, the position of each task can be easily grasped and the efficiency of work is improved.
また、マインドマップ等の多項目表現を作成する際に、関連する項目を情報処理装置で自動生成し、着想や文章作成等を支援する技術が知られている(例えば、非特許文献2参照)。 Further, there is known a technique for automatically generating related items by an information processing device when creating a multi-item expression such as a mind map to support ideas and sentence creation (see, for example, Non-Patent Document 2). ..
<会議の会話による音声情報処理>
会議の会話による音声情報は、議事録担当者が聞き取り、パーソナルコンピュータ(PC)などの情報処理端末を用いて手入力を行うやり方が一般的である。
<Voice processing by conference conversation>
It is common for the person in charge of minutes to listen to the voice information from the conversation of the meeting and manually input it using an information processing terminal such as a personal computer (PC).
会話中の発話に関心または興味のある内容かどうかを分析し可視化する技術が知られている(例えば、特許文献3参照)。 A technique for analyzing and visualizing whether or not an utterance during a conversation is of interest or content of interest is known (see, for example, Patent Document 3).
会議の音声情報から議事録を自動生成する技術が知られている(例えば、特許文献4参照)。 A technique for automatically generating minutes from audio information of a meeting is known (see, for example, Patent Document 4).
遠隔地でのネットワーク会議において、議事録を作成する技術が知られている(例えば、特許文献5参照)。 A technique for creating minutes at a network conference in a remote location is known (see, for example, Patent Document 5).
会議の振り返りの支援として、挙手、起立、板書などの動作解析、話者交代、話者同定から会議の重要部分を重み付けし、会議の重要部分の区間内における発話単語数、言い淀みの感動詞、声量、声量の変化率、音声のピッチ変化、顔の傾きからキーパーソンを推定する技術が知られている(例えば、特許文献6参照)。 To support the reflection of the meeting, the important parts of the meeting are weighted from motion analysis such as raising hands, standing up, writing on the board, speaker change, and speaker identification, and the number of spoken words in the section of the important part of the meeting and the interjection of stagnation. , A technique for estimating a key person from a voice volume, a rate of change in voice volume, a change in voice pitch, and a tilt of a face is known (see, for example, Patent Document 6).
会議の参加者間でやり取りされる会話の音声信号を認識し、単語に分解し集計することにより、会議が本論から逸れているか否かを判断する技術が知られている(例えば、特許文献7参照)。 There is known a technique for determining whether or not a conference deviates from the main subject by recognizing a voice signal of a conversation exchanged between participants of a conference, decomposing it into words, and totaling them (for example, Patent Document 7). reference).
会議中の音声情報やマインドマップなどの着想支援法を使ったシステムでは、会議の目標に対して、現在どの部分を話しているかがわからず会議が効率よく進まない。また、会議で話さなければならないトピックに対してどのトピックは十分に議論ができていて、どのトピックが不十分であるかということもその場で把握することができない。 In a system that uses idea support methods such as voice information and mind maps during a meeting, the meeting does not proceed efficiently because it is not possible to know which part is currently being spoken with respect to the goal of the meeting. In addition, it is not possible to grasp on the spot which topics are sufficiently discussed and which topics are insufficient for the topics that must be discussed at the meeting.
そこで、本発明は、会議などの目標に対して、どの部分を話しているかをメンバー間で共有させることを目的とする。 Therefore, an object of the present invention is to allow members to share what part they are talking about with respect to a goal such as a meeting.
開示の一実施例の情報処理装置は、
会議中の音声情報をテキストに変換するテキスト変換手段と、
前記テキスト変換手段により変換されたテキストを単語に分解する単語分解手段と、
前記単語を用いて、マインドマップを生成する生成手段と、
前記会議中の議論している部分が前記マインドマップ全体に対していずれの部分であるかを前記マインドマップ上でリアルタイムに表示する表示手段と、
を備える。
The information processing device of one embodiment of the disclosure is
A text conversion method that converts voice information during a meeting into text,
A word decomposition means that decomposes the text converted by the text conversion means into words, and
A generation means for generating a mind map using the above words,
A display means for displaying in real time on the mind map which part of the mind map is being discussed during the meeting .
To be equipped.
開示の実施例によれば、会議などの目標に対して、どの部分を話しているかをメンバー間で共有させることができる。 According to the example of disclosure, members can share what part they are talking about with respect to a goal such as a meeting.
次に、本発明を実施するための形態を、以下の実施例に基づき図面を参照しつつ説明する。以下で説明する実施例は一例に過ぎず、本発明が適用される実施の形態は、以下の実施例に限られない。
なお、実施例を説明するための全図において、同一機能を有するものは同一符号を用い、繰り返しの説明は省略する。
Next, a mode for carrying out the present invention will be described with reference to the drawings based on the following examples. The examples described below are merely examples, and the embodiments to which the present invention is applied are not limited to the following examples.
In all the drawings for explaining the examples, those having the same function use the same reference numerals, and the repeated description will be omitted.
<実施例>
<情報処理システム>
図1は、情報処理システムの一実施例を示す。
<Example>
<Information processing system>
FIG. 1 shows an embodiment of an information processing system.
情報処理システムは、会議などにおける会話による音声情報、図式的に項目間を関連づけた表現などの着想支援図を用いて、着想能力、文書能力、コミュニケーション能力の向上などの支援を行う。図式的に項目間を関連づけた表現などの着想支援図には、KJ法や、マインドマップなどあるが、これらに限られない。 The information processing system provides support such as improvement of inspiration ability, document ability, and communication ability by using an idea support diagram such as voice information by conversation in a meeting or an expression in which items are graphically associated with each other. Idea support diagrams such as expressions that graphically relate items to each other include, but are not limited to, the KJ method and mind maps.
情報処理システムの一実施例は、着想支援図としてマインドマップにより支援を行う場合について説明する。マインドマップは、二次元の図式で表されるのが好ましい。情報処理システムの一実施例では、3人の参加者、つまり第1の参加者3100、第2の参加者3200、第3の参加者3300により会議が行われる。会議は、2人の参加者で行われてもよいし、4人以上の参加者で行われてもよい。
An embodiment of the information processing system describes a case where support is provided by a mind map as an idea support diagram. The mind map is preferably represented by a two-dimensional diagram. In one embodiment of the information processing system, a meeting is held by three participants, that is, a
会議システムには、情報処理装置2000及び2100と、携帯端末装置5000が含まれる。
The conference system includes
第1の参加者3100は情報処理装置2000を有し、第2の参加者3200は情報処理装置2100を有し、第3の参加者3300は携帯端末装置5000を有する。
The
会議システムには、プロジェクタ3400と、スクリーン3500が含まれる。プロジェクタ3400は、スクリーン3500に投影する。
The conferencing system includes a
プロジェクタ3400は、スクリーン3500を分割した各領域に複数の情報をそれぞれ投影する。図1に示される例では、プロジェクタ3400は、スクリーン3500を2つに分割した各領域に2つの情報をそれぞれ投影する。スクリーン3500の右側の領域には、モバイルパソコン3600から入力された画面が投影される。スクリーン3500の左側の領域には、モバイルパソコン3600から入力されたマインドマップ情報の画面情報が投影される。マインドマップ情報は、情報処理装置2000、及び2100、携帯端末装置5000で処理されたものである。
The
スクリーン3500の複数の領域に、複数の情報をそれぞれ表示することにより、参加者に、現時点の説明のポイントと、今までの会議の内容と現在の話し合いの内容を把握させることができる。また、参加者に、話し合いが不足している部分を把握させることができる。
By displaying a plurality of pieces of information in each of the plurality of areas of the
プロジェクタ3400に赤外線センサが備えられ、スクリーン3500の左側に投影されている画面に手を当てることにより、該左側の画面を操作できるのが好ましい。図1に示される例では、スクリーン3500の左側には、マインドマップが表示される。この場合、マインドマップに手を当てることにより、マインドマップを操作できる。
It is preferable that the
また、プロジェクタ3400に赤外線センサなどの接触されたことを検出する機能がない場合には、携帯端末装置5000や、モバイルパソコン3600の画面に表示されるマインドマップに触れることにより、マインドマップを操作するようにしてもよい。
If the
<情報処理装置2000>
図2は、情報処理装置2000の一実施例を示す。図2には、情報処理装置2000の模式図を示す。
<
FIG. 2 shows an embodiment of the
情報処理装置2000は、腕時計に含まれる。情報処理装置2000は、マイク2001と、ボタン2002と、ディスプレイ2003とを有する。
The
図3は、情報処理装置2000の一実施例を示す。図2には、情報処理装置2000のハードウェア構成が示される。
FIG. 3 shows an embodiment of the
情報処理装置2000は、マイク2001と、ボタン2002と、ディスプレイ2003と、ROM(Read Only Memory)2004と、プロセッサ2005と、RAM(Random Access Memory)2006と、ハードウェアアクセラレータ2007と、内蔵メモリ2008とを有する。
The
マイク2001は、第1の参加者3100が話した音声(アナログ情報)をデジタル情報に変換する。マイク2001は、音声入力があったことを割り込みなどの信号を使ってプロセッサ2005に伝える。音声情報はRAM2006に一旦保存されてもよいし、内部バッファで直接プロセッサ2005に入力してもよい。
The
プロセッサ2005は、ハードウェアアクセラレータ2007と連携して音声認識、形態素解析、マインドマップ化と順に処理を行う。
The
ボタン2002は、時計の表示切替や日付、時刻調整、ストップウォッチの開始、停止を行う機能を有する。音声認識の認識精度を高めるために音声認識の開始と終了ボタンを設けてもよい。
The
ディスプレイ2003は、時計の表示を行う。
The
ROM2004は、情報処理装置2000を起動する際に必要なブートローダ、ファイルシステム、OS(Operating System)を格納する。情報処理装置2000の起動時にプロセッサ2005はROM2004から起動プログラムを読込み、起動する。
The
内蔵メモリ2008は、電源をオフする際に一時的にマインドマップ情報、音声認識、形態素解析を行うための辞書、マインドマップ化を行うためのパラメータを保持する。内蔵メモリ2008は、不揮発メモリであるのが好ましい。
The built-in
<情報処理装置2100>
図4は、情報処理装置2100の一実施例を示す。図4には、情報処理装置2100の模式図を示す。
<
FIG. 4 shows an embodiment of the
情報処理装置2100は、ICレコーダに含まれる。情報処理装置2100は、マイク2101と、スピーカ2102と、ディスプレイ2103と、ボタン2104とを有する。
The
図5は、情報処理装置2100の一実施例を示す。図5には、情報処理装置2100のハードウェア構成が示される。
FIG. 5 shows an embodiment of the
情報処理装置2100は、マイク2101と、スピーカ2102と、ディスプレイ2103と、ボタン2104と、内蔵メモリ2105と、ROM2106と、プロセッサ2107と、RAM2108と、ハードウェアアクセラレータ2109とを有する。
The
マイク2101、内蔵メモリ2105、ROM2106、プロセッサ2107、RAM2108、及びハードウェアアクセラレータ2109は、それぞれ情報処理装置2000のマイク2001、内蔵メモリ2008、ROM2004、プロセッサ2005、RAM2006、及びハードウェアアクセラレータ2007と略同一である。
The
スピーカ2102は、ICレコーダとして音声を記録した後で再生する際に、音声を出力する。
The
ディスプレイ2103は、記録したどの音声ファイルを再生するかを表示し、ボタン2104と連携して選択して実行するためのユーザインタフェース(UI)の役割を果たす。
The
<携帯端末装置5000>
図6は、携帯端末装置5000の一実施例を示す。
<
FIG. 6 shows an embodiment of the
携帯端末装置5000は、カメラ5001と、ディスプレイ5002と、ボタン5003と、マイク5004とを有する。
The
ディスプレイ5002は、タッチパネルを有する。タッチパネルに接触することにより、種々の操作が可能である。例えば、ディスプレイ5002に表示されたマインドマップに接触することにより、プロジェクタ3400によりスクリーン3500に投影されたマインドマップと同期して、マインドマップを操作することができる。具体的には、ディスプレイ5002に表示されたマインドマップに接触することにより、ノードの挿入、削除、名前変更、切り取り、貼り付け、移動、展開又は省略などの操作を行うことができる。さらに、ディスプレイ5002に表示されたマインドマップに接触することにより、表示全体の拡大、縮小も行うことができる。
The
また、ディスプレイ5002に表示されたノードをタッチすることにより、タッチしたノードの関連語をWeb検索して表示することや、ノードの単語が含まれる一文を表示することもできる。
Further, by touching the node displayed on the
<情報処理装置2000の機能>
図7は、情報処理装置2000の機能の一実施例を示す。情報処理装置2100の機能は、情報処理装置2000の機能と略同一である。
<Functions of
FIG. 7 shows an embodiment of the function of the
情報処理装置2000は、マイク2001と、時計部2050と、通信部2054と、マインドマップデータベース2061と、辞書データベース2062とを有する。
The
プロセッサ2005がROM2004に格納されたプログラムに従って、OS2051と、ミドルウェア2052と、エンジン部2053として機能する。
The
マイク2001は、音声を入力してアナログ信号からデジタル信号に変換する。
The
時計部2050は通常の腕時計の機能を提供するユニットである。
The
OS(Operating System)2051は、Linux(登録商標)やAndroid(登録商標)などのマルチタスクをスケジューリングして実行することを可能とする基本ソフトウェアである。 The OS (Operating System) 2051 is basic software that enables scheduling and execution of multitasking such as Linux (registered trademark) and Android (registered trademark).
ミドルウェア2052は、基本ソフトウェア上で動作しエンジン部2053や通信部2054から利用されるライブラリ群である。
The
通信部2054は、情報処理装置2000とモバイルパソコン3600との間で通信するための通信プロトコルなどの制御を実行する。通信プロトコルの例は、HTTP(Hyper Text Transfer Protocol)などである。
The
マインドマップデータベース2061は、情報処理装置2000が生成した会議の内容をマインドマップ化した情報を格納するデータベースである。
The
辞書データベース2062は、音声認識や形態素解析、マインドマップ生成などの一連の処理の中で利用する音響モデル、単語モデル、単語間の関連モデルを格納するデータベースである。
The
エンジン部2053には、テキスト変換手段としての音声認識部2055と、学習手段としての単語学習部2056と、検索手段としての検索部2057と、単語分解手段、フィルタ手段としての形態素解析部2058と、着想支援図生成手段としてのマインドマップ生成部2059と、操作処理手段としてのマインドマップ操作部2060とが含まれる。
The
音声認識部2055は、マイク2001から入力された音声信号の音声認識処理を行い、テキストへ変換する。音声認識部2055は、音声信号の音声認識処理の際に、辞書データベース2062に格納された音響モデル、単語モデル、単語間の関連モデルを利用するのが好ましい。音声認識部2055は、音声信号の音声認識処理の際に、内蔵メモリ2008に格納された情報を利用してもよい。
The
単語学習部2056は、マインドマップの操作で検索ボタンが押し下げ(タッチ)され、関連語が選択された際に、辞書データベース2062に格納された音響モデル、単語モデル、単語間の関連モデルを検索しても該当する単語が存在しない場合に新規単語として登録する。また、単語学習部2056は、マインドマップの操作で検索ボタンが押し下げ(タッチ)され、関連語が選択された際に、内蔵メモリ2008に格納された情報を検索しても該当する単語が存在しない場合に新規単語として登録する。該当する単語が存在しない場合に新規単語として登録することにより、辞書を学習させることができる。
The
検索部2057は、マインドマップの操作で検索ボタンが押し下げ(タッチ)され、関連語をWeb検索する処理のロジック部分である。
The
形態素解析部2058は、音声認識部2055により音声認識することにより変換したテキストを品詞レベルの単語に分解する処理を行う。
The
マインドマップ生成部2059には、形態素解析部2058で品詞レベルに分解した単語が入力される。マインドマップ生成部2059は、形態素解析部2058からの単語に基づいてマインドマップを構築する。
In the mind
マインドマップ操作部2060は、マインドマップへの操作に基づいて、該操作に応じた処理を実行する。マインドマップへの操作の例は、ノードの挿入、削除、名前変更、切り取り、貼り付け、移動、展開又は省略などの処理である。
The mind
<携帯端末装置5000の機能>
図8は、携帯端末装置5000の機能の一実施例を示す。
<Functions of mobile
FIG. 8 shows an embodiment of the function of the
携帯端末装置5000は、ハードウェア部5050を有する。ハードウェア部5050は、カメラ5001、ディスプレイ5002、ボタン5003、マイク5004、タッチパネル部5005、バッテリ5006、アンテナ5007、センサ5008、スピーカ5009、外部メモリスロット5010、マインドマップデータベース5057、辞書データベース5058を有する。
The
カメラ5001は、画像の撮影を行うユニットである。
The
ディスプレイ5002は、マインドマップの表示やその他のアプリケーション5056の情報を表示する。
The
ボタン5003にはホームボタンが含まれる。ホームボタンが押し下げされることによりホーム画面に遷移する処理が実行される。
マイク5004は、音声信号をアナログ信号からデジタル信号に変換する。
The
タッチパネル部5005は、タッチ(接触)によりユーザインタフェースを提供するユニットである。
The
バッテリ5006は、携帯端末装置5000に電源を供給するユニットである。
The
アンテナ5007は、無線通信を行うための電波受信に利用される。
The
センサ5008の例は、加速度センサ、ジャイロセンサ、赤外線センサ、GPS(Global Positioning System)などである。
Examples of the
スピーカ5009は、音声出力に使われYoutube(登録商標)などの動画の再生の際に、音を出力する。
The
外部メモリスロット5010は、microSDカードやSDHCカードなどのメモリカードを挿入し、補助記憶として利用するためのインタフェースである。
The
マインドマップデータベース5057は、情報処理装置2000及び情報処理装置2100が生成した会議の内容をマインドマップ化した情報を格納するデータベースである。
The
辞書データベース5058は、音声認識や形態素解析、マインドマップ生成などの一連の処理の中で利用する音響モデル、単語モデル、単語間の関連モデルを格納するデータベースである。
The
CPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従って、OS5051、ミドルウェア5052、アプリケーションラッパ部5053、その他のアプリケーション5056として機能する。
A CPU (not shown) functions as an
OS5051は、Linux(登録商標)やAndroid(登録商標)などのマルチタスクをスケジューリングして実行することを可能とする基本ソフトウェアである。 OS5051 is basic software that enables scheduling and execution of multitasking such as Linux (registered trademark) and Android (registered trademark).
ミドルウェア5052は、基本ソフトウェア上で動作しエンジン部5054や通信部5055、その他のアプリケーション5056から利用されるライブラリ群である。
The
アプリケーションラッパ部5053は、携帯端末装置5000上で動作するようエンジン部5054とミドルウェア5052との間のインタフェースを接続する役割を担うユニットである。アプリケーションラッパ部5053は、エンジン部5054と、通信部5055とを有する。
The
エンジン部5054は、図7を参照して説明したエンジン部2053と略同一であるため、説明を省略する。
Since the
通信部5055は、モバイルパソコン3600との間で通信するための通信プロトコルなどを制御する。通信プロトコルの例は、HTTPなどである。
The
その他のアプリケーション5056の例は、Twitter(登録商標)、Facebook(登録商標)などの一般的なアプリケーションである。
Examples of
<通信システムの動作(その1)>
図9は、通信システムの動作(その1)の一実施例を示すシーケンスチャートである。
<Operation of communication system (1)>
FIG. 9 is a sequence chart showing an embodiment of the operation of the communication system (No. 1).
図9には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従って通信部2054としての機能を実行する処理が示される。また、図9には、主に、情報処理装置2100のプロセッサ2107がROM2106に格納されたプログラムに従って通信部としての機能を実行する処理が示される。また、図9には、主に、携帯端末装置5000のCPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従って通信部5055としての機能を実行する処理が示される。
FIG. 9 mainly shows a process in which the
ステップS1では、情報処理装置2000は、モバイルパソコン3600に対して会議開始を要求する。このとき、接続するユーザ情報と再開するデータベース名を指定する。新規のデータベースとする場合には特に指定する必要は無い。
In step S1, the
ステップS2では、会議開始要求を受けたモバイルパソコン3600は、ユーザ認証、データベースオープン等の前処理を実施する。
In step S2, the mobile
ステップS3では、モバイルパソコン3600は、前処理を実施した後、接続結果のOKあるいはNGとセッションIDを情報処理装置2000に返信する。ここで、セッションIDとは会議参加者の間でのみ共有することが可能な識別子である。通信システムの動作(その1)の一実施例では、モバイルパソコン3600は、接続結果のOKとセッションIDを情報処理装置2000に返信する。
In step S3, the mobile
ステップS4では、情報処理装置2100は、モバイルパソコン3600に対して、会議IDとユーザ情報を引数として接続要求を行う。
In step S4, the
ステップS5では、接続要求を受けたモバイルパソコン3600はメンバー追加の処理を行う。
In step S5, the mobile
ステップS6では、メンバーの追加処理が完了したら、モバイルパソコン3600は情報処理装置2100に対して接続OK(あるいはNG)を返信する。
In step S6, when the member addition processing is completed, the mobile
ステップS7では、携帯端末装置5000は、モバイルパソコン3600に対して、会議IDとユーザ情報を引数として接続要求を行う。
In step S7, the
ステップS8では、接続要求を受けたモバイルパソコン3600はメンバー追加の処理を行う。
In step S8, the mobile
ステップS9では、メンバーの追加処理が完了したら、モバイルパソコン3600は携帯端末装置5000に対して接続OK(あるいはNG)を返信する。
In step S9, when the member addition process is completed, the mobile
ステップS10では、会議参加者の全てのデバイスがモバイルパソコン3600に接続できたら、情報処理装置2000から表示設定の要求を行う。ここで、IPアドレスとは、表示先のIPアドレスであり、この例ではプロジェクタ3400のIPアドレスである。この表示先設定要求は、情報処理装置2100、携帯端末装置5000が実施してもよい。
In step S10, when all the devices of the conference participants can be connected to the mobile
ステップS11では、表示先設定要求を受信すると、モバイルパソコン3600は、表示先登録を行う。
In step S11, when the display destination setting request is received, the mobile
ステップS12では、モバイルパソコン3600は、プロジェクタ3400に画面投影要求を送信する。ここで、引数のマインドマップとは、画面に投影するマインドマップ情報を指している。また、ステップS11で表示先登録を行うのは、会議終了時に表示終了や表示トラブル時の再表示を行うためである。
In step S12, the mobile
ステップS13では、プロジェクタ3400は、画面投影要求を受信すると、画面投影処理を実行する。
In step S13, when the
ステップS14以降は、プロジェクタ3400で投影している画面を操作するために、携帯端末装置5000でも同じ画面を表示するためのシーケンスである。
From step S14 onward, in order to operate the screen projected by the
ステップS14では、携帯端末装置5000のIPアドレスとともに表示先設定要求をモバイルパソコン3600に送信する。
In step S14, the display destination setting request is transmitted to the mobile
ステップS15では、モバイルパソコン3600は表示先追加登録を行う。
In step S15, the mobile
ステップS16では、モバイルパソコン3600は、マインドマップ情報を携帯端末装置5000に返信する。
In step S16, the mobile
ステップS17では、携帯端末装置5000は、モバイルパソコン3600から受信したマインドマップ情報を画面に表示する。
In step S17, the
<通信システムの動作(その2)>
図10は、通信システムの動作(その2)の一実施例を示すシーケンスチャートである。
<Operation of communication system (2)>
FIG. 10 is a sequence chart showing an embodiment of the operation of the communication system (No. 2).
図10には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従ってエンジン部2053としての機能を実行する処理が示される。また、図9には、主に、情報処理装置2100のプロセッサ2107がROM2106に格納されたプログラムに従ってエンジン部としての機能を実行する処理が示される。また、図9には、主に、携帯端末装置5000のCPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従ってエンジン部5054としての機能を実行する処理が示される。
FIG. 10 mainly shows a process in which the
ステップS20では、参加者3100が発言した音声情報を情報処理装置2000が音声信号として入力し、音声認識、形態素解析、マインドマップ化、データベースへ保存する。
In step S20, the
ステップS21では、情報処理装置2000はマインドマップ画面情報をモバイルパソコン3600に送信する。
In step S21, the
ステップS22では、モバイルパソコン3600は、自身の画面表示を更新する。
In step S22, the mobile
ステップS23では、同じ画面を表示しているプロジェクタ3400に表示更新を要求する。
In step S23, the
ステップS24では、同じ画面を表示している携帯端末装置5000に表示更新を要求する。
In step S24, the
続いて、携帯端末装置5000でマインドマップ操作があった場合の処理について説明する。
Subsequently, the processing when there is a mind map operation in the
ステップS25では、携帯端末装置5000が操作に応じて画面の表示を更新する。
In step S25, the
ステップS26では、携帯端末装置5000からモバイルパソコン3600へ表示更新を要求する。
In step S26, the display update is requested from the
ステップS27では、モバイルパソコン3600は、携帯端末装置5000の要求を受けてプロジェクタ3400に対して表示の更新を要求する。
In step S27, the mobile
ステップS28では、携帯端末装置5000は、マインドマップの表示情報をデータベースに保存するために、情報処理装置2000へマインドマップ表示情報を送信する。
In step S28, the
ステップS29では、情報処理装置2000はデータベースへの保存を行う。
In step S29, the
その後、参加者3300が発言した場合の処理について説明する。
After that, the processing when the
ステップS30では、参加者3300が発言した音声情報を携帯端末装置5000が音声信号として入力し、音声認識し、形態素解析し、マインドマップ化し、データベースへ保存する。
In step S30, the
ステップS31では、携帯端末装置5000はマインドマップ画面情報をモバイルパソコン3600に送信する。
In step S31, the
ステップS32では、モバイルパソコン3600は、同じ画面を表示しているプロジェクタ3400にも表示画面の更新を要求する。ここで、表示画面の更新を要求する際に、モバイルパソコン3600を経由するのは、モバイルパソコン3600がサーバとして振舞うためである。
In step S32, the mobile
<通信システムの動作(その3)>
図11は、通信システムの動作(その3)の一実施例を示すシーケンスチャートである。
<Operation of communication system (3)>
FIG. 11 is a sequence chart showing an embodiment of the operation of the communication system (No. 3).
図11には、会議を終了する際の動作が示される。図11には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従って通信部2054としての機能を実行する処理が示される。
FIG. 11 shows an operation when the conference is ended. FIG. 11 mainly shows a process in which the
ステップS40では、情報処理装置2000が接続終了要求を行う。図11では、情報処理装置2000により接続終了要求が実行される場合について示すが、情報処理装置2100により接続終了要求が実行されてもよいし、携帯端末装置5000により接続終了要求が実行されてもよい。
In step S40, the
ステップS41では、モバイルパソコン3600は会議終了処理を行う。具体的には、モバイルパソコン3600は、データベースを保存して閉じ、セッションをクリアし、表示をクリアするのが好ましい。また、モバイルパソコン3600は。表示をクリアする要求を携帯端末装置5000、プロジェクタ3400に送信するのが好ましい。
In step S41, the mobile
ステップS42では、会議終了処理が完了したら、情報処理装置2000に対して接続終了結果を返信する。ここで、仮に結果がNGである場合には、ユーザに終了するために必要な作業を伝えるのが好ましい。
In step S42, when the conference end processing is completed, the connection end result is returned to the
<マインドマップを操作する際の動作>
図12は、マインドマップの一実施例を示す。
<Operation when operating the mind map>
FIG. 12 shows an example of a mind map.
"XXXXX"と表示された単語のノード1201をタッチすると、詳細ボタン1202、挿入ボタン1203、展開ボタン1204、検索ボタン1205が表示される。展開ボタン1204の代わりに省略ボタン1206が表示されることもある。
When the
ノード1201自体を再度タッチすると、"XXXXX"という文字列を編集するモードになる。例えば、"XXXXY"などと名前を変更してEnterボタンを押すと名前の変更が確定される。
If you touch the
新規ノードを追加する場合には、挿入ボタン1203をタッチして作成したい位置まで枝を伸ばし離す。そうすると、新規ノードが生成される。新規ノードの名前については、空にして名前の変更をユーザに促すようにしてもよいし、適当な名前を付けて表示するようにしてもよい。
When adding a new node, touch the
展開ボタン1204をタッチした場合には、該タッチしたノードの子ノード以下のノードのうち、表示対象となっているノードが表示される。仮に、子ノード以下で省略状態となっているノードがあればそのノードは省略されたままとなる。省略ボタン1206の場合には展開ボタンと逆の操作となる。展開ボタン1204を押すと省略ボタン1206になり、省略ボタン1206を押すと展開ボタン1204になるのが好ましい。子ノード以下をもたないノードについてはこの展開(あるいは省略)ボタンは表示されない。
When the expand
検索ボタン1205をタッチした際には、"XXXXX"という単語に関連する単語を設定された数、表示する。"XXXXX"という単語に関連する単語は、リング上に表示されてもよい。関連する単語に関しては、ウィキペディアなどの単語の意味を説明するサイトの関連語の部分を利用してもよい。例えば、「関連語2」を選択したとすると、"XXXXX"の子ノードとして「関連語2」が新規に追加される。このとき、辞書データベース2062あるいは5058を検索して、仮に辞書に「関連語2」がない場合には追加する学習処理も同時に行うのが好ましい。
When the
詳細ボタン1202をタッチした際には、会議の発言の中で"XXXXX"が含まれる一文をマインドマップデータベース2061あるいは5057より検索してポップアップ形式で表示するのが好ましい。
When the
<マインドマップを生成する処理>
図13は、マインドマップを生成する処理を示す。
<Process to generate mind map>
FIG. 13 shows a process of generating a mind map.
図13には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従ってエンジン部2053としての機能を実行する処理が示される。また、図13には、主に、情報処理装置2100のプロセッサ2107がROM2106に格納されたプログラムに従ってエンジン部としての機能を実行する処理が示される。また、図13には、主に、携帯端末装置5000のCPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従ってエンジン部5054としての機能を実行する処理が示される。
FIG. 13 mainly shows a process in which the
ステップS1302では、会議参加者の音声情報をマイク2001、2101、5004で拾いアナログ信号からデジタル信号へ変換する。
In step S1302, the voice information of the conference participants is picked up by the
ステップS1304では、ステップS1302により変換したデジタル音声信号を音声認識することによりテキストに変換する。 In step S1304, the digital voice signal converted in step S1302 is converted into text by voice recognition.
ステップS1306では、ステップS1304による音声認識の結果得られたテキストを、形態素解析し品詞レベルの単語に分解する。 In step S1306, the text obtained as a result of speech recognition in step S1304 is morphologically analyzed and decomposed into words at the part of speech level.
ステップS1308では、ステップS1306で品詞レベルに分解された単語から、単語毎の重要度と関連度の重み付けを計算し、マインドマップ形式(木構造)のデータを生成する。この時のデータの表現方法の例は、XML(eXtensible Markup Language)やJSON(JavaScript Object Notation)などの記法であるのが好ましい。 In step S1308, weighting of importance and relevance for each word is calculated from the words decomposed into part of speech level in step S1306, and data in a mind map format (tree structure) is generated. Examples of the data representation method at this time are preferably notations such as XML (eXtensible Markup Language) and JSON (JavaScript Object Notation).
ステップS1310では、ステップS1308で生成されたマインドマップ形式のデータはマインドマップデータベース2061、5057に保存される。
In step S1310, the mind map format data generated in step S1308 is stored in the
<マインドマップが操作された際の表示処理>
図14は、マインドマップが操作された際の表示処理の一実施例を示す。
<Display processing when the mind map is operated>
FIG. 14 shows an embodiment of the display process when the mind map is operated.
図13には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従ってエンジン部2053としての機能を実行する処理が示される。また、図13には、主に、情報処理装置2100のプロセッサ2107がROM2106に格納されたプログラムに従ってエンジン部としての機能を実行する処理が示される。また、図13には、主に、携帯端末装置5000のCPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従ってエンジン部5054としての機能を実行する処理が示される。
FIG. 13 mainly shows a process in which the
ステップS1402では、ノードが選択されることにより、図12に示されるように、検索ボタン1205と、詳細ボタン1202と、挿入ボタン1203と、展開ボタン1204又は省略ボタン1206の4つのボタンが表示される。
In step S1402, when the node is selected, four buttons, a
ステップS1404では、検索ボタン1205が押下げられたか否かを判定する。
In step S1404, it is determined whether or not the
ステップS1406では、ステップS1404で検索ボタン1205が押下(タッチ)された場合、関連語をWeb検索する。関連語については、ウィキペディアなどの辞書サイトにある関連語を検索する方式が利用されるのが好ましい。
In step S1406, when the
ステップS1408では、ステップS1404で検索ボタンの押下(タッチ)がされない場合、詳細ボタンが押下げられたか否かを判定する。 In step S1408, if the search button is not pressed (touched) in step S1404, it is determined whether or not the detail button is pressed.
ステップS1410では、ステップS1408で詳細ボタンの押下(タッチ)がされた場合、マインドマップデータベース2061、及び5057からノードの単語が含まれる文書を取得する。
In step S1410, when the detail button is pressed (touched) in step S1408, a document containing the word of the node is acquired from the
ステップS1412では、ステップS1408で詳細ボタンの押下(タッチ)がされない場合、再度ノードが押下げられたか否かを判定する。 In step S1412, if the detail button is not pressed (touched) in step S1408, it is determined whether or not the node is pressed again.
ステップS1414では、ステップS1412で再度ノードの押下(タッチ)がされた場合、そのノードの単語を編集できるモードに遷移する。 In step S1414, when the node is pressed (touched) again in step S1412, the mode transitions to the mode in which the word of the node can be edited.
ステップS1416では、ステップS1412で再度ノードの押下(タッチ)がない場合、挿入ボタンが押下げられたか否かを判定する。 In step S1416, if the node is not pressed (touched) again in step S1412, it is determined whether or not the insert button is pressed.
ステップS1418では、ステップS1416で挿入ボタンが押下げされた場合、子ノードを追加するモードに遷移し、枝が伸された後にタッチが離された場合にノードが追加される。 In step S1418, when the insert button is pressed in step S1416, the mode shifts to the mode for adding a child node, and the node is added when the touch is released after the branch is extended.
ステップS1420では、ステップS1416で挿入ボタンが押下げられない場合、展開ボタン又は省略ボタンが押下げられたか否かを判定する。 In step S1420, if the insert button is not pressed in step S1416, it is determined whether or not the expand button or the omit button is pressed.
ステップS1422では、ステップS1420で、展開ボタン又は省略ボタンが押下げされた場合、展開ボタンの場合には非表示にされている子ノード以下を表示し、省略ボタンの場合には表示されている子ノード以下を非表示にする。 In step S1422, when the expand button or the omit button is pressed in step S1420, the hidden child nodes and below are displayed in the case of the expand button, and the displayed children are displayed in the case of the omit button. Hide below the node.
ステップS1420で、展開ボタン、省略ボタンのいずれも押下げられない場合には終了する。 If neither the expand button nor the omit button is pressed down in step S1420, the process ends.
ステップS1424では、ステップS1406により検索された関連語を、選択しているノードを囲むように設定された数だけ候補として表示する。または、ステップS1424では、ステップS1410により取得された文書をノードに対する吹き出しとしてポップアップ形式で表示する。または、ステップS1424では、ステップS1414により遷移した編集モードに従って、テキストフィールド及びカーソルを表示する。または、ステップS1424では、ステップS1418により追加した子ノードを表示する。または、ステップS1424では、ステップS1422による表示に従って表示する。 In step S1424, the related words searched by step S1406 are displayed as candidates in the number set so as to surround the selected node. Alternatively, in step S1424, the document acquired in step S1410 is displayed in a pop-up format as a balloon for the node. Alternatively, in step S1424, the text field and the cursor are displayed according to the edit mode transitioned by step S1414. Alternatively, in step S1424, the child node added in step S1418 is displayed. Alternatively, in step S1424, the display is performed according to the display according to step S1422.
なお、スクリーン3500(キャンバス)をタッチしたまま上下左右に動かした場合に、その動きに従ってマインドマップ全体が平行移動するのが好ましい。ノードをタッチしたまま上下左右に動かした場合には、その動きに従ってタッチしたノードとそのノードの子ノード以下全体が平行移動するのが好ましい。 When the screen 3500 (canvas) is touched and moved up / down / left / right, it is preferable that the entire mind map moves in parallel according to the movement. When a node is touched and moved up / down / left / right, it is preferable that the touched node and the entire child node and below of the node move in parallel according to the movement.
<関連語の選択処理>
図15は、関連語の選択処理の一実施例を示す。
<Selection process of related words>
FIG. 15 shows an embodiment of the related word selection process.
図15には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従ってエンジン部2053としての機能を実行する処理が示される。また、図15には、主に、情報処理装置2100のプロセッサ2107がROM2106に格納されたプログラムに従ってエンジン部としての機能を実行する処理が示される。また、図15には、主に、携帯端末装置5000のCPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従ってエンジン部5054としての機能を実行する処理が示される。
FIG. 15 mainly shows a process in which the
ステップS1502では、関連語を選択したイベントを受け付けると、図12に示されるように、選択した関連語を子ノードとして追加する。 In step S1502, when the event in which the related word is selected is received, the selected related word is added as a child node as shown in FIG.
ステップS1504では、追加した関連語が、辞書データベース2062あるいは5058に登録済であるか否かを確認する。
In step S1504, it is confirmed whether or not the added related word is registered in the
追加した関連語が辞書データベース2062もしくは5058に登録済みである場合、終了する。
If the added related word is already registered in the
ステップS1506では、追加した関連語が辞書データベース2062もしくは5058に登録済みでない場合、新規単語として追加処理を行う。
In step S1506, if the added related word is not registered in the
追加した関連語が辞書データベース2062もしくは5058に登録済みでない場合に、新規単語として追加処理を行うことにより、ユーザは学習させていることを意識することなく、単語を追加することができる。
When the added related word is not registered in the
<関連語の選択処理>
図16は、関連語の選択処理の一実施例を示す。
<Selection process of related words>
FIG. 16 shows an embodiment of the related word selection process.
図16には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従ってエンジン部2053としての機能を実行する処理が示される。また、図16には、主に、情報処理装置2100のプロセッサ2107がROM2106に格納されたプログラムに従ってエンジン部としての機能を実行する処理が示される。また、図16には、主に、携帯端末装置5000のCPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従ってエンジン部5054としての機能を実行する処理が示される。
FIG. 16 mainly shows a process in which the
ステップS1602では、情報処理装置2000のボタン2002、情報処理装置2100のボタン2104が操作されることにより、設定メニューから音声学習モードに切り替えて、音声学習に必要な定型テキストを朗読させる。また、携帯端末装置5000では設定メニューから音声学習モードに切り替えて、音声学習に必要な定型テキストを朗読させる。朗読するテキストは、ディスプレイ2003、2103、5002に表示される。
In step S1602, the
ステップS1602では、入力された音声情報(アナログ信号)は、マイク2001、2101、5004でデジタル信号に変換される。音声認識部2055は、音響モデルを生成する。
In step S1602, the input audio information (analog signal) is converted into a digital signal by the
ステップS1604では、ステップS1602で生成した音響モデルを、情報処理装置2000の内蔵メモリ2008、情報処理装置2100の内蔵メモリ2105あるいは辞書データベース5058に保存する。以上の処理により、個人個人の指向性をもたせることができるため、認識精度を上げることができる。
In step S1604, the acoustic model generated in step S1602 is stored in the built-in
<マインドマップを生成する処理の詳細>
図17は、マインドマップを生成する処理の詳細を示す。
<Details of the process to generate a mind map>
FIG. 17 shows the details of the process of generating the mind map.
図17には、主に、情報処理装置2000のプロセッサ2005がROM2004に格納されたプログラムに従ってエンジン部2053としての機能を実行する処理が示される。また、図17には、主に、情報処理装置2100のプロセッサ2107がROM2106に格納されたプログラムに従ってエンジン部としての機能を実行する処理が示される。また、図17には、主に、携帯端末装置5000のCPU(図示なし)が記憶部(図示なし)に格納されたプログラムに従ってエンジン部5054としての機能を実行する処理が示される。
FIG. 17 mainly shows a process in which the
ステップS1702では、品詞、種別でフィルタ処理を行う。例えば、品詞レベルに分解された単語を入力として、形態素解析で、品詞・種別でマインドマップ化において不要な品詞である単語を除外する。単語を除外することによりその後の処理を高速化することができる。 In step S1702, filtering is performed by part of speech and type. For example, a word decomposed into part of speech is input, and words that are unnecessary part of speech in mind mapping by part of speech / type are excluded by morphological analysis. Subsequent processing can be speeded up by excluding words.
ステップS1704では、ステップS1702によるフィルタ処理後、単語連結・重み付け処理を行う。具体的には、「マインド」と「マップ」といった品詞レベルでは意味が違ってしまう単語について、連続する名詞は連結する処理を行う。また、単語(名詞)に接続する助詞から、その単語が文の中で主語として扱われているか、目的語として扱われているかを判定し、重要度の重み付けを行う。なお、この重要度は単語の出現頻度も考慮に入れるのが好ましい。文の終わりについては、意味の切れ目と判定し、マイナスの重み付けを行うのが好ましい。さらに、ユーザが事前に重要と位置付けてある単語に関してはさらに重み付けを行うものとする。 In step S1704, after the filter processing in step S1702, word concatenation / weighting processing is performed. Specifically, for words such as "mind" and "map" that have different meanings at the part-speech level, consecutive nouns are concatenated. In addition, from the particles connected to the word (noun), it is determined whether the word is treated as the subject or the object in the sentence, and the importance is weighted. It is preferable that this importance also takes into account the frequency of occurrence of words. It is preferable to determine that the end of the sentence is a break in meaning and give a negative weight. Furthermore, the words that the user has positioned as important in advance shall be further weighted.
ステップS1706では、ステップS1704により個々の単語の重み付けが完了したら、重み付け行列を作成する。 In step S1706, when the weighting of individual words is completed in step S1704, a weighting matrix is created.
図18は、重み付け行列の一実施例を示す。 FIG. 18 shows an example of a weighting matrix.
重み付け行列は、対角成分はステップS1704で求めた重要度の値が入る。対角成分以外は、単語間の関連度を数値化したものが入る。単語間の出現位置や意味的な関連から重み付けの値を決定する。 In the weighting matrix, the diagonal component is the value of the importance obtained in step S1704. Except for the diagonal component, the numerical value of the relevance between words is entered. The weighting value is determined from the position of occurrence between words and the semantic relationship.
ステップS1708では、ステップS1706で重み付け行列が完成したら、マインドマップを構築する。 In step S1708, when the weighting matrix is completed in step S1706, a mind map is constructed.
図19は、マインドマップの一実施例を示す。 FIG. 19 shows an example of a mind map.
重要度が一番高いものがルートとなり、重要度が一番小さいものがリーフとなる。図19に示される例では、重要度が一番高い「単語4」がルートとなり、重要度が一番小さい「単語2」がリーフとなる。 The one with the highest importance is the route, and the one with the least importance is the leaf. In the example shown in FIG. 19, "word 4" having the highest importance is the root, and "word 2" having the lowest importance is the leaf.
<マインドマップのデータフォーマット>
図20は、マインドマップのデータフォーマットの一実施例を示す。
<Mind map data format>
FIG. 20 shows an embodiment of a mind map data format.
マインドマップは、マインドマップデータベース2061、5057に格納される。
The mind map is stored in the
マインドマップのデータ形式の例は、ユーザ情報、会議(イベント)情報、単語情報の3つであるのが好ましい。 It is preferable that there are three examples of mind map data formats: user information, conference (event) information, and word information.
ユーザ情報は、所属、名前、保有するマインドマップをセットにしたものである。ユーザ情報は、保有するマインドマップより、個々の会議のマインドマップ情報を検索して取得することができる。 User information is a set of affiliation, name, and possessed mind map. The user information can be obtained by searching the mind map information of each meeting from the possessed mind map.
会議情報は、ID、最終更新日時、作成者、マインドマップ情報をセットにしたものであり、イベント毎にデータが追加される。 The meeting information is a set of ID, last update date and time, creator, and mind map information, and data is added for each event.
単語情報は、単語とその単語を含む文書をマッピングした情報であり、この単語情報により、マインドマップの各ノードの詳細情報を取得する際に高速に処理することができる。 The word information is information that maps a word and a document containing the word, and this word information can be processed at high speed when acquiring detailed information of each node of the mind map.
情報処理システムの一実施例によれば、会議中の音声情報を認識し、認識した単語の重要度を重み付けできる。さらに、情報処理システムの一実施例によれば、単語間の関連度についても重み付けしてマインドマップ形式でリアルタイムに会議中の議論している部分を全体に対してどの部分であるかを表示することができる。このようにすることにより、会議の目標に対して現在どの部分を話しているかをメンバー間で共有でき、会議の方向性をメンバー間で一致させながら効率よく会議を進行することができる。 According to one embodiment of the information processing system, the voice information during the meeting can be recognized and the importance of the recognized word can be weighted. Further, according to an embodiment of the information processing system, the degree of relevance between words is also weighted and the part of the discussion during the meeting is displayed in real time in a mind map format. be able to. By doing so, it is possible for the members to share what part they are currently talking about with respect to the goal of the meeting, and it is possible to efficiently proceed with the meeting while matching the direction of the meeting among the members.
本発明は特定の実施例、変形例を参照しながら説明されてきたが、各実施例、変形例は単なる例示に過ぎず、当業者は様々な変形例、修正例、代替例、置換例等を理解するであろう。説明の便宜上、本発明の実施例に従った装置は機能的なブロック図を用いて説明されたが、そのような装置はハードウェアで、ソフトウエアで又はそれらの組み合わせで実現されてもよい。本発明は上記実施例に限定されず、本発明の精神から逸脱することなく、様々な変形例、修正例、代替例、置換例等が包含される。 The present invention has been described with reference to specific examples and modifications, but each embodiment and modification is merely an example, and those skilled in the art can use various modifications, modifications, alternatives, substitutions, etc. Will understand. For convenience of explanation, devices according to the embodiments of the present invention have been described with reference to functional block diagrams, but such devices may be implemented in hardware, software, or a combination thereof. The present invention is not limited to the above examples, and various modifications, modifications, alternatives, substitutions, etc. are included without departing from the spirit of the present invention.
2000 情報処理装置
2100 情報処理装置
3400 プロジェクタ
3500 スクリーン
3600 モバイルパソコン
5000 携帯端末装置
2000
Claims (7)
前記テキスト変換手段により変換されたテキストを単語に分解する単語分解手段と、
前記単語を用いて、マインドマップを生成する生成手段と、
前記会議中の議論している部分が前記マインドマップ全体に対していずれの部分であるかを前記マインドマップ上でリアルタイムに表示する表示手段と、
を備える情報処理装置。 A text conversion method that converts voice information during a meeting into text,
A word decomposition means that decomposes the text converted by the text conversion means into words, and
A generation means for generating a mind map using the above words,
A display means for displaying in real time on the mind map which part of the mind map is being discussed during the meeting .
Information processing device equipped with.
を有する請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising a filter means for excluding words having a predetermined attribute from words decomposed by the word decomposition means.
を有する請求項1ないし3のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3, further comprising a weighting means for weighting words decomposed by the word decomposition means.
前記変換されたテキストを単語に分解し、
前記単語を用いて、マインドマップを生成し、
前記会議中の議論している部分が前記マインドマップ全体に対していずれの部分であるかを前記マインドマップ上でリアルタイムに表示する、
情報処理装置における情報処理方法。 Converts audio information during a meeting to text and
Break down the converted text into words
Using the above words, generate a mind map and
Which part of the whole mind map is being discussed during the meeting is displayed in real time on the mind map.
Information processing method in an information processing device.
会議中の音声情報をテキストに変換し、
前記変換されたテキストを単語に分解し、
前記単語を用いて、マインドマップを生成し、
前記会議中の議論している部分が前記マインドマップ全体に対していずれの部分であるかを前記マインドマップ上でリアルタイムに表示する、
処理を実行させるプログラム。 For information processing equipment
Converts audio information during a meeting to text and
Break down the converted text into words
Using the above words, generate a mind map and
Which part of the whole mind map is being discussed during the meeting is displayed in real time on the mind map.
A program that executes processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018140703A JP6822448B2 (en) | 2018-07-26 | 2018-07-26 | Information processing equipment, information processing methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018140703A JP6822448B2 (en) | 2018-07-26 | 2018-07-26 | Information processing equipment, information processing methods and programs |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013049225A Division JP6375592B2 (en) | 2013-03-12 | 2013-03-12 | Information processing apparatus, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019016360A JP2019016360A (en) | 2019-01-31 |
JP6822448B2 true JP6822448B2 (en) | 2021-01-27 |
Family
ID=65358705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018140703A Active JP6822448B2 (en) | 2018-07-26 | 2018-07-26 | Information processing equipment, information processing methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6822448B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023073154A (en) | 2021-11-15 | 2023-05-25 | 富士通株式会社 | Display control method and display control program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10301927A (en) * | 1997-04-23 | 1998-11-13 | Nec Software Ltd | Electronic conference speech arrangement device |
JP3577972B2 (en) * | 1998-10-19 | 2004-10-20 | 日本電信電話株式会社 | Similarity determination method, document search device, document classification device, storage medium storing document search program, and storage medium storing document classification program |
CA2614653A1 (en) * | 2005-07-15 | 2007-01-25 | Think Software Pty Ltd | Method and apparatus for providing structured data for free text messages |
JP2008282228A (en) * | 2007-05-10 | 2008-11-20 | Hi Enterprise:Kk | Information processor, method, program and recording medium |
JP5018313B2 (en) * | 2007-07-27 | 2012-09-05 | 日本電気株式会社 | Information structuring apparatus, information structuring method, and program |
JP2011043716A (en) * | 2009-08-21 | 2011-03-03 | Sharp Corp | Information processing apparatus, conference system, information processing method and computer program |
JP5159853B2 (en) * | 2010-09-28 | 2013-03-13 | 株式会社東芝 | Conference support apparatus, method and program |
JP2012181358A (en) * | 2011-03-01 | 2012-09-20 | Nec Corp | Text display time determination device, text display system, method, and program |
-
2018
- 2018-07-26 JP JP2018140703A patent/JP6822448B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019016360A (en) | 2019-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110556127B (en) | Method, device, equipment and medium for detecting voice recognition result | |
US20190027147A1 (en) | Automatic integration of image capture and recognition in a voice-based query to understand intent | |
CN110634483A (en) | Man-machine interaction method and device, electronic equipment and storage medium | |
EP2682931B1 (en) | Method and apparatus for recording and playing user voice in mobile terminal | |
CN109543021B (en) | Intelligent robot-oriented story data processing method and system | |
CN109710796A (en) | Voice-based image searching method, device, storage medium and terminal | |
JP6375592B2 (en) | Information processing apparatus, information processing method, and program | |
JP7331044B2 (en) | Information processing method, device, system, electronic device, storage medium and computer program | |
CN108509412A (en) | A kind of data processing method, device, electronic equipment and storage medium | |
JP7236551B2 (en) | CHARACTER RECOMMENDATION METHOD, CHARACTER RECOMMENDATION DEVICE, COMPUTER AND PROGRAM | |
CN113055529B (en) | Recording control method and recording control device | |
CN110444190A (en) | Method of speech processing, device, terminal device and storage medium | |
JP2014222290A (en) | Minute recording device, minute recording method, and program | |
CN109782997B (en) | Data processing method, device and storage medium | |
US20220308828A1 (en) | Voice assistant-enabled client application with user view context | |
US20230139416A1 (en) | Search content matching method, and electronic device and storage medium | |
CN113190307A (en) | Control adding method, device, equipment and storage medium | |
CN113220590A (en) | Automatic testing method, device, equipment and medium for voice interaction application | |
US11443738B2 (en) | Electronic device processing user utterance and control method thereof | |
CN109917988B (en) | Selected content display method, device, terminal and computer readable storage medium | |
JP6822448B2 (en) | Information processing equipment, information processing methods and programs | |
CN113593614B (en) | Image processing method and device | |
CN112383662B (en) | Information display method and device and electronic equipment | |
CN106372203A (en) | Information response method and device for smart terminal and smart terminal | |
US20190066676A1 (en) | Information processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180824 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200602 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200731 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201221 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6822448 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |