JP2022000767A - Information sharing assisting device, information sharing assisting method and program - Google Patents
Information sharing assisting device, information sharing assisting method and program Download PDFInfo
- Publication number
- JP2022000767A JP2022000767A JP2021139627A JP2021139627A JP2022000767A JP 2022000767 A JP2022000767 A JP 2022000767A JP 2021139627 A JP2021139627 A JP 2021139627A JP 2021139627 A JP2021139627 A JP 2021139627A JP 2022000767 A JP2022000767 A JP 2022000767A
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- image
- section
- support device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 23
- 238000012545 processing Methods 0.000 claims description 19
- 238000010586 diagram Methods 0.000 description 55
- 230000010365 information processing Effects 0.000 description 25
- 230000008569 process Effects 0.000 description 16
- 238000012552 review Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 239000000463 material Substances 0.000 description 4
- 238000005192 partition Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000001028 reflection method Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Abstract
Description
本発明は、情報共有支援装置、情報共有支援方法、およびプログラムに関する。 The present invention relates to an information sharing support device, an information sharing support method, and a program.
従来、モノとの相互作用である複数のインタラクションの組合せと、モノを利用した人々の知覚や反応である複数のユーザエクスペリエンスとの組み合わせと、複数のインタラクションの組合せとユーザエクスペリエンスとの組み合わせとの各々の組合せにおける相関係数を記憶するメモリと、ユーザからの情報の要求に対し、メモリの情報に基づいて情報を抽出する処理部とを備えるユーザエクスペリエンス予測装置が開示されている(例えば、特許文献1参照)。 Traditionally, a combination of multiple interactions that interact with things, a combination of multiple user experiences that are the perceptions and reactions of people who use things, and a combination of multiple interactions and user experiences, respectively. A user experience prediction device including a memory for storing a correlation coefficient in the combination of the above and a processing unit for extracting information based on the information in the memory in response to a request for information from the user is disclosed (for example, Patent Document). See 1).
しかしながら、上記の技術では、複数のユーザで有益な情報を共有することができない場合があった。 However, with the above technology, there are cases where useful information cannot be shared by a plurality of users.
本発明は、このような事情を考慮してなされたものであり、複数のユーザで有益な情報を共有することができる情報共有支援装置、情報共有支援方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and an object of the present invention is to provide an information sharing support device, an information sharing support method, and a program capable of sharing useful information among a plurality of users. Make it one.
本発明の一態様は、ユーザにより入力されたコメント情報が予め設定された区画に対するコメントであることを視認者が認識可能なように前記入力されたコメント情報を前記区画に対応付けた第1画像を生成する画像生成部と、前記画像生成部により生成された第1画像を少なくともユーザに提示する提示部と、を備える情報共有支援装置である。 One aspect of the present invention is a first image in which the input comment information is associated with the section so that the viewer can recognize that the comment information input by the user is a comment for a preset section. It is an information sharing support device including an image generation unit for generating an image, and a presentation unit for presenting at least a first image generated by the image generation unit to a user.
本発明の一態様によれば、複数のユーザで有益な情報を共有することができる。 According to one aspect of the present invention, useful information can be shared by a plurality of users.
以下、図面を参照し、本発明の情報共有支援装置、情報共有支援方法、およびプログラムの実施形態について説明する。 Hereinafter, the information sharing support device, the information sharing support method, and the embodiment of the program of the present invention will be described with reference to the drawings.
[概要]
本実施形態の情報共有支援装置は、例えば、「プロジェクトに関するリフレクション」などの手法に基づく情報の共有を支援する装置である。「プロジェクトに関するリフレクション」とは、一人一人の思いをチームで共有し、チームが持つノウハウを導き出す振り返り手法である。「プロジェクトに関するリフレクション」とは、例えば、チームのメンバーがプロジェクトを進める中で感じていることを振り返ったり、チームのメンバーがプロジェクトに取り組む原動力になっている実践の知性(例えばノウハウ)を抽出したりする活動である。
[Overview]
The information sharing support device of the present embodiment is a device that supports sharing of information based on a method such as "reflection on a project". "Reflective about a project" is a reflection method that shares the thoughts of each person with the team and derives the know-how of the team. "Reflective about a project" means, for example, looking back on what a team member feels while proceeding with a project, or extracting the practical intelligence (for example, know-how) that is the driving force for a team member to work on a project. It is an activity to do.
実施形態の情報共有支援装置は、一以上のプロセッサにより実現される。情報共有支援装置は、ユーザにより入力されたコメント情報を取得し、取得したコメント情報を、予め設定された区画に対応付けた第1画像を生成する。情報共有支援装置は、区画ごとのユーザによる着目度合を導出し、着目度合を反映させた第2画像を生成する。そして、情報共有支援装置は、上記の生成された画像をユーザに提示する。 The information sharing support device of the embodiment is realized by one or more processors. The information sharing support device acquires comment information input by the user, and generates a first image in which the acquired comment information is associated with a preset section. The information sharing support device derives the degree of attention by the user for each section, and generates a second image that reflects the degree of attention. Then, the information sharing support device presents the generated image to the user.
区画とは、例えば、タスクと項目との二軸で区分されたものである。「タスク」とは、プロジェクトにおいてクリアすべきタスクである。「項目」とは、プロジェクトにおける振り返り項目である。例えば、タスクをクリアする上で苦労したことや、苦労の乗り越え方、モチベーション、気づき、ノウハウなどである。「対応付け」とは、例えば、コメントが区画に対するコメントであることを識別可能にすることを含む。また、「対応付け」とは、区画内にコメントを含めることであってよい。 A partition is, for example, divided into two axes, a task and an item. A "task" is a task that should be cleared in a project. An "item" is a retrospective item in a project. For example, it is difficult to clear a task, how to overcome the hardship, motivation, awareness, know-how, etc. "Association" includes, for example, making it possible to identify that a comment is a comment for a partition. Further, the "correspondence" may include a comment in the partition.
「着目度合」は、例えば、区画に対応けられたコメント情報がユーザによって参照された度合に基づいて導出される。「参照」とは、例えば、ユーザがコメント情報を指定したり、拡大して視認したり、区画に着目することである。 The "degree of attention" is derived, for example, based on the degree of reference by the user to the comment information corresponding to the section. The “reference” means, for example, that the user specifies comment information, magnifies and visually recognizes the comment information, or pays attention to the section.
[構成]
図1は、リフレクション支援システム1の機能構成の一例を示す図である。リフレクション支援システム1は、例えば、一以上の端末装置10(図1では10−1〜10−3)と、情報共有支援装置100とを備える。これらの装置は、ネットワークNWを介して互いに通信する。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)、インターネット、専用回線、無線基地局、プロバイダなどを含む。
[composition]
FIG. 1 is a diagram showing an example of a functional configuration of the
[端末装置]
端末装置10は、ユーザによって使用される装置であり、例えば、スマートフォンなどの携帯電話、タブレット型コンピュータ、ノート型コンピュータ、デスクトップ型コンピュータなどである。また、端末装置10は、例えば、カメラやマイク、スピーカなどを備えてもよい。
[Terminal device]
The terminal device 10 is a device used by a user, and is, for example, a mobile phone such as a smartphone, a tablet computer, a notebook computer, a desktop computer, or the like. Further, the terminal device 10 may include, for example, a camera, a microphone, a speaker, and the like.
端末装置10では、ブラウザやアプリケーションプログラムなどのUA(User Agent)が起動する。ユーザは、端末装置10を操作して、情報共有支援装置100にアクセスして、所望の情報を入力したり、所望の情報を取得したりする。なお、後述する情報共有支援装置100の機能構成の一部または全部が端末装置10に含まれてもよいし、情報共有支援装置100の記憶部に記憶された情報の一部または全部が端末装置10の記憶部に記憶されてもよい。
In the terminal device 10, a UA (User Agent) such as a browser or an application program is activated. The user operates the terminal device 10 to access the information
端末装置10が、情報共有支援装置100にログインすると、例えば、端末装置10が備える、または端末装置10に接続されたマイクがオン状態に制御される。この状態で、ユーザがマイクに音声を入力すると、端末装置10は、入力された音声情報を情報共有支援装置100に送信する。情報共有支援装置100は、送信された音声を他の端末装置10に送信する。そして、この他の端末装置10は、取得した音声情報をスピーカに出力させる。これにより、端末装置10のユーザ間での会話が可能になる。また、端末装置10が、情報共有支援装置100にログインすると、端末装置10のカメラがオン状態に制御され、ユーザの画像が情報共有支援装置100に送信されもよい。これにより画像が各端末装置10間で共有される。
When the terminal device 10 logs in to the information
なお、端末装置10は、音声に代えて(または加えて)、テキストを情報共有支援装置100に送信してもよい。この場合、情報共有支援装置100は、送信されたテキストを他の端末装置10に送信する。これによりテキストが各端末装置10間で共有される。
The terminal device 10 may transmit text to the information sharing
[情報共有支援装置]
情報共有支援装置100は、例えば、通信部102と、情報管理部104と、情報処理部106と、画像生成部108と、音声解析部110と、変換処理部112と、提示部114と、記憶部120とを備える。情報管理部104、情報処理部106、画像生成部108、音声解析部110、変換処理部112、および提示部114は、CPU(Central Processing Unit)等のハードウェアプロセッサが、記憶装置に記憶されたプログラムを実行することにより実現される。また、これらの機能部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、上記のプログラムは、予め記憶装置に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体が情報共有支援装置100のドライブ装置に装着されることで記憶装置にインストールされてもよい。
[Information sharing support device]
The information sharing
記憶部120は、例えば、ROM(Read Only Memory)、フラッシュメモリ、SDカード、RAM(Random Access Memory)、HDD(Hard Disc Drive)、レジスタ等によって実現される。また、記憶部120は、NAS(Network Attached Storage)や外部ストレージサーバ装置等であってもよい。
The
記憶部120には、例えば、参加者情報122、音声情報124、拡大情報126、テキスト情報128、およびキーワード情報130が記憶されている。
The
図2は、参加者情報122の内容の一例を示す図である。参加者情報122は、例えば、端末装置10の識別情報(例えばIPアドレス;以下、端末ID)と、ユーザの識別情報(以下、ユーザID)と、後述する付箋の識別情報(以下、付箋ID)とが互いにに対応付けられた情報である。
FIG. 2 is a diagram showing an example of the contents of the
通信部102は、ネットワークNWを介して、端末装置10と通信する。通信部102は、例えば、NIC(Network Interface Card)等の通信インターフェースを含む。
The
情報管理部104は、通信部102の通信結果に基づいて、端末装置10により送信された情報を取得したり、取得した情報または自装置の処理結果を記憶部120に記憶させたりする。情報管理部104は、ユーザにより入力されたコメント情報や、ユーザが端末装置10のマイクに入力した音声情報を、端末装置10から取得する。
The
情報処理部106は、情報管理部104により取得されたコメント情報を、コメントを発案したユーザのユーザIDまたは当該ユーザが使用する端末装置10の端末IDに対応付け、更にコメント情報を、指定されたタスクと項目とが対応付けられた区画に対応付けた情報を記憶部120に記憶させる。情報処理部106は、区画に対する着目度合を導出し、導出結果を記憶部120に記憶させる。
The
画像生成部108は、情報管理部104により取得されたコメント情報に基づく各種画像を生成する。詳しくは、後述する。
The
音声解析部110は、情報管理部104により取得された音声情報に基づいて、ユーザごとの音声を認識する。
The
変換処理部112は、音声解析部110により認識された音声をテキスト化し、テキスト化したテキストと、テキストに対応する音声を発したユーザとを互いに対応付けたテキスト情報128を生成する。
The
提示部114は、画像生成部108により生成された画像をユーザに提示する。提示部114は、情報管理部104により取得された音声情報と、区画とを関連付けて、ユーザに提示する。
The
[タスクおよび振り返り項目を設定する処理]
情報共有支援装置100が、端末装置10に提供するウエブページの一例について説明する。例えば、情報共有支援装置100は、図3に示す画像IM1を端末装置10−1および10−2に提供する。画像IM1は、例えば、端末装置10の表示部に表示された付箋領域T1および送信ボタンB1を含む。
[Process for setting tasks and review items]
An example of a web page provided by the information sharing
付箋領域T1は、ユーザがリフレクションのテーマについて語り合いするための情報を入力する領域である。例えば、付箋領域T1には、テーマ(例えばプロジェクト)において「実施したこと」が入力される。ユーザが送信ボタンB1を操作すると、付箋領域T1に入力された情報が情報共有支援装置100に送信される。情報共有支援装置100の情報処理部106は、各端末装置10により送信された付箋領域T1に入力された情報を取得し、取得した付箋領域T1に入力された情報と、付箋IDと、端末装置10の識別情報(またはユーザの識別情報)とを互いに対応付けて記憶部120に記憶させる。
The sticky note area T1 is an area for inputting information for the user to discuss the theme of reflection. For example, in the sticky note area T1, "what has been done" in the theme (for example, a project) is input. When the user operates the transmission button B1, the information input in the sticky note area T1 is transmitted to the information sharing
上記のように、「実施したこと」が入力されると、情報共有支援装置100の提示部114は、端末装置10の依頼に応じて、図4に示す画像IM2を各端末装置10に提供する。画像IM2は、例えば、マトリックス状の表(以下、リフレクション図)が含まれる。リフレクション図は、テーマに関してリフレクションするためのマトリクスである。例えば、リフレクション図の、縦軸は振り返り項目1〜4で構成され、横軸はタスクの内容が表示されるタスク1〜4で構成される。
As described above, when "what has been done" is input, the
振り返り項目に対応する領域のそれぞれには、振り返り項目を入力する入力領域が設けられている。例えば、入力領域AR11をユーザが操作すると、プルダウンメニューが表示され、ユーザはプルダウンメニューから振り返り項目を選択することで入力領域AR11に振り返り項目を設定することができる。なお、振り返り項目は、手動で入力されてもよいし、予め設定されていてもよい。 Each of the areas corresponding to the retrospective items is provided with an input area for inputting the retrospective items. For example, when the user operates the input area AR11, a pull-down menu is displayed, and the user can set a retrospective item in the input area AR11 by selecting a retrospective item from the pull-down menu. The retrospective items may be manually input or may be preset.
タスクに対応する領域のそれぞれには、タスクを入力する入力領域AR12が設けられている。例えば、入力領域AR12をユーザが操作すると、プルダウンメニューが表示され、ユーザはプルダウンメニューからタスクを選択することで入力領域AR12にタスクを設定することができる。 Each of the areas corresponding to the task is provided with an input area AR12 for inputting the task. For example, when the user operates the input area AR12, a pull-down menu is displayed, and the user can set a task in the input area AR12 by selecting a task from the pull-down menu.
プルダウンメニューによって表示されるタスクは、例えば、付箋領域T1に入力され、端末装置10によって情報共有支援装置100に送信された内容である。例えば、ユーザは、語り合いをしながら、タスクが時系列に並ぶようにタスクを選択したり、重要度の高いタスクを選択したりすることができる。また、画像IM2において、ユーザが所定の操作または不図示のボタンを操作すると、付箋領域T1に入力された情報が一覧となって表示されてもよい。なお、タスクは、手動で入力されてもよい。
The task displayed by the pull-down menu is, for example, the content input to the sticky note area T1 and transmitted to the information sharing
上記のような処理が行われ、振り返り項目およびタスクが設定される。図5は、振り返り項目およびタクスが設定されたリフレクション図を含む画像IM3の一例を示す図である。 The above processing is performed, and the reflection items and tasks are set. FIG. 5 is a diagram showing an example of an image IM3 including a reflection diagram in which a retrospective item and a tax are set.
(シーケンス(その1))
図6は、リフレクション支援システム1により実行されるタスクおよび振り返り項目を設定する処理の流れを示すシーケンス図である。以下の説明では、端末装置10−1、10−2、および情報共有支援装置100の処理を中心に説明する。
(Sequence (1))
FIG. 6 is a sequence diagram showing a flow of a process for setting a task executed by the
まず、端末装置10−1および10−2が、情報共有支援装置100にアクセスし、ログインのための情報を入力すると(S10、S12)、情報共有支援装置100の情報処理部106が、端末装置10により入力された情報と、予め記憶部120に登録された情報とに基づいて認証処理を行う。そして、認証が成立すると、情報共有支援装置100は、端末装置10−1および10−2に前述した図3に示したようなウエブページを提供する(S14、S16)。
First, when the terminal devices 10-1 and 10-2 access the information sharing
次に、端末装置10−1が、例えば、マイクに入力された音声を音声情報として情報共有支援装置100に送信する(S18)。情報共有支援装置100の情報管理部104が、音声情報を取得する。情報処理部106が、音声情報を端末装置10の識別情報に対応付けて音声情報124として記憶部120に記憶させる(S20)。
Next, the terminal device 10-1 transmits, for example, the voice input to the microphone to the information sharing
図7は、音声情報124の内容の一例を示す図である。音声情報124は、音声情報、端末装置の識別情報、およびユーザの識別情報が互いに対応付けられた情報である。
FIG. 7 is a diagram showing an example of the contents of the
図6の説明に戻る。次に、提示部114が、端末装置10−1により送信された音声情報を、端末装置10−2に送信する(S22)。このように音声情報の送受信がされることにより、端末装置10を管理するユーザは会話をすることができる。
Returning to the description of FIG. Next, the
次に、端末装置10−2が、図3に示した付箋を情報共有支援装置100に送信し(S24)、端末装置10−1が、付箋を情報共有支援装置100に送信する(S26)。情報共有支援装置100の情報処理部106は、S24、S26で送信された付箋の情報を端末装置10の識別情報に対応付けて記憶部120に記憶させる(S28)。
Next, the terminal device 10-2 transmits the sticky note shown in FIG. 3 to the information sharing support device 100 (S24), and the terminal device 10-1 transmits the sticky note to the information sharing support device 100 (S26). The
次に、端末装置10−2が、タスクを設定する操作を行う(S30)。次に、画像生成部108が、リフレクション図における振り返り項目に対してタスクを設定した画像を生成する(S32)。そして、提示部114が、画像生成部108により生成された画像を端末装置10−1、10−2に提示する(S34、S36)。
Next, the terminal device 10-2 performs an operation for setting a task (S30). Next, the
[付箋を貼付する処理]
図8は、端末装置10に提供されるウエブページを示す画像IM4の一例を示す図である。例えば、情報共有支援装置100は、図8に示す画像IM4を端末装置10−1および10−2に提供する。画像IM4は、例えば、端末装置10の表示部に表示された付箋領域T2、付箋を貼る位置を指定する指定ボタンB10、送信ボタンB11、およびリフレクション図に戻るための戻るボタンB12を含む。ユーザがリフレクション図に戻るボタンB12を操作すると、画像IM4が図5の画像IM3に示したような画像に遷移する。
[Process to attach sticky notes]
FIG. 8 is a diagram showing an example of an image IM4 showing a web page provided to the terminal device 10. For example, the information sharing
付箋領域T2は、例えば、タスクに対する振り返り項目の内容が入力される。ユーザが指定ボタンB10を操作すると、振り返り項目とタスクの内容との組み合わせが表示される。ユーザが、組み合わせを指定すると、付箋領域T2に入力された情報が付箋として、リフレクション図において指定された組み合わせに対応する区画に対応付けられる。情報共有支援装置100の情報処理部106は、各端末装置10により送信された付箋領域T2に入力された情報を取得し、取得した付箋領域T2に入力された情報と、付箋IDと、端末装置10の識別情報と、指定された区画とを互いに対応付けて記憶部120に記憶させる。
In the sticky note area T2, for example, the content of a retrospective item for a task is input. When the user operates the designated button B10, the combination of the retrospective item and the task content is displayed. When the user specifies a combination, the information input to the sticky note area T2 is associated with the section corresponding to the combination specified in the reflection diagram as a sticky note. The
図9は、付箋が対応付けられたリフレクション図の画像IM5の一例を示す図である。画像IM5において、ユーザが送信した付箋がリフレクション図に貼付される。図9の画像IM5は、各端末装置10において共有される。これにより、ユーザは、各ユーザの考えを認識することができる。画像IM5は、「第1画像」の一例である。 FIG. 9 is a diagram showing an example of the image IM5 of the reflection diagram to which the sticky note is associated. In the image IM5, the sticky note transmitted by the user is attached to the reflection diagram. The image IM5 of FIG. 9 is shared by each terminal device 10. This allows the user to recognize each user's ideas. The image IM5 is an example of the "first image".
また、例えば、付箋には、コメント情報を発案したユーザまたは当該ユーザの使用する端末装置を識別可能な情報が付与される。例えば、付箋は、ユーザの識別情報(または端末装置の識別情報)が付与されたり、ユーザの識別情報ごとに異なる明度や色彩で表示されたりしてもよい。また、付箋が操作された場合に、ユーザの識別情報が表示されてもよい。これにより、ユーザは、各ユーザの考え方をユーザごとに認識することができる。 Further, for example, the sticky note is provided with information that can identify the user who proposed the comment information or the terminal device used by the user. For example, the sticky note may be given user identification information (or terminal device identification information), or may be displayed with different brightness and color for each user identification information. Further, when the sticky note is operated, the user's identification information may be displayed. As a result, the user can recognize the idea of each user for each user.
(シーケンス(その2))
図10は、リフレクション支援システム1により実行される付箋を貼付する処理の流れを示すシーケンス図である。
(Sequence (2))
FIG. 10 is a sequence diagram showing a flow of a sticky note affixing process executed by the
まず、情報共有支援装置100の提示部114が、ウエブページを端末装置10−1および10−2に提供する(S100、S102)。次に、端末装置10−1が、提供されたウエブページに含まれる付箋に意見を入力し、意見を含む付箋とユーザの識別情報とを互いに対応付けた情報を情報共有支援装置100に送信する(S104)。次に、情報共有支援装置100の情報処理部106は、リフレクション図において、付箋を指定された区画に対応付けて記憶部120に記憶させる(S106)。また、端末装置10−2が、提供されたウエブページにおける付箋に意見を入力し、意見を含む付箋とユーザの識別情報とを互いに対応付けた情報を情報共有支援装置100に送信する(S108)。次に、情報共有支援装置100の情報処理部106は、リフレクション図において、付箋を指定された区画に対応付けて記憶部120に記憶させる(S110)。
First, the
次に、画像生成部108が、リフレクション図において、付箋を指定された区画に対応付けた画像を生成する(S112)。次に、提示部114が、画像生成部108により生成された画像を端末装置10−1、10−2に提示する(S114、S116)。なお、S112の処理は、S106の処理の直後に行われ、提示部114は、画像生成部108により生成された画像を端末装置10−1に送信してもよい。
Next, the
[付箋をグループ化する処理]
図11は、付箋がグループ化された画像IM6の一例を示す図である。画像IM6には、リフレクション図に加え、更にグループ化ボタンB20、および階層図ボタンB21が含まれる。例えば、ユーザが、グループ化ボタンB20を操作して、グループ化したい付箋を選択すると、付箋はグループ化される。そして、グループ化された付箋は、他の付箋と識別可能な態様に変化する。また、グループ化は、複数の階層で行われてもよい。例えば、グループ化した付箋の中で、更に付箋はグループ化されてもよい。
[Process for grouping sticky notes]
FIG. 11 is a diagram showing an example of an image IM6 in which sticky notes are grouped. In addition to the reflection diagram, the image IM 6 further includes a grouping button B20 and a hierarchical diagram button B21. For example, when the user operates the grouping button B20 to select the sticky notes to be grouped, the sticky notes are grouped. Then, the grouped sticky notes are changed in a manner that can be distinguished from other sticky notes. Further, the grouping may be performed in a plurality of layers. For example, within the grouped sticky notes, the sticky notes may be further grouped.
また、区画に対して所定の操作が行われた場合に、操作が行われた区画に語り合いが終了したことを示す情報が対応付けられてもよい。 Further, when a predetermined operation is performed on the section, information indicating that the discussion is completed may be associated with the section on which the operation is performed.
上述したように、付箋がグループ化された後、階層図ボタンB21が操作されると、階層図が表示される。図12は、階層図を含む画像IM7の一例を示す図である。例えば、階層図において、タスクと振り返り項目ごとに、ユーザの見解がどのように推移しているかが表示される。例えば、第1階層において、ユーザA、Bの付箋がグループ化され、Cの付箋がグループ化されなかった場合、A、Bの見解がグループ化され、Cの見解とA、Bの見解とは枝分かれするようなアイコンを含む画像が生成される。例えば、第2階層において、ユーザAとユーザBとの付箋がグループ化されなかった場合、Aの見解とBの見解とは枝分かれするようなアイコンを含む画像が生成される。 As described above, when the hierarchy map button B21 is operated after the sticky notes are grouped, the hierarchy diagram is displayed. FIG. 12 is a diagram showing an example of an image IM7 including a hierarchical diagram. For example, in a hierarchical diagram, how the user's views are changing is displayed for each task and reflection item. For example, in the first layer, when the sticky notes of users A and B are grouped and the sticky notes of C are not grouped, the views of A and B are grouped, and the views of C and the views of A and B are. An image containing a branching icon is generated. For example, in the second layer, when the sticky notes of the user A and the user B are not grouped, an image including an icon that branches the views of A and B is generated.
上述したように、ユーザの見解がグループ化され、グループ化された見解が視認可能に端末装置10の表示部に表示される。この結果、ユーザは、語り合いの内容について理解を深めることができる。 As described above, the user's views are grouped, and the grouped views are visually displayed on the display unit of the terminal device 10. As a result, the user can deepen the understanding of the content of the discussion.
なお、ユーザの見解が階層化される処理は、音声解析処理やテキスト解析処理等によって行われてもよい。例えば、情報共有支援装置100は、ユーザの音声情報と、不図示の音声認識モデルと、不図示のテキスト認識モデルとに基づいて、ユーザの見解についてグループ化してもよい。例えば、音声解析部110が、音声をテキスト化するための音声認識モデル(不図示)を用いて、ユーザの音声情報をユーザに対応付けてテキスト化する。そして、変換処理部112が、テキスト化したテキストを、不図示のテキスト認識モデルを用いてグループ化する。テキスト認識モデルは、テキストの意味を解釈し、肯定的な発言であるか、否定的な発言であるかを識別するモデルである。例えば、ユーザAの発言の後に、ユーザBがAの発言を肯定するような発言をした場合、ユーザA、Bとの発言はグループ化される。
The process of layering the user's views may be performed by voice analysis process, text analysis process, or the like. For example, the information sharing
(シーケンス(その3))
図13は、リフレクション支援システム1により実行される見解が階層化される処理を示すシーケンス図である。
(Sequence (3))
FIG. 13 is a sequence diagram showing a process in which the views executed by the
まず、ユーザによって付箋が選択される操作が行われると、端末装置10−1は、操作に基づく情報を情報共有支援装置100に送信する(S200)。次に、情報共有支援装置100の情報処理部106は、操作に基づく情報を用いて付箋をグループ化し、グループ化した情報を記憶部120に記憶させる(S202)。次に、情報共有支援装置100の画像生成部108が、グループ化された付箋を含む画像を生成する(S204)。次に、提示部114が、生成された画像を端末装置10−1、および10−2に提供する(S206、S208)。
First, when an operation for selecting a sticky note is performed by the user, the terminal device 10-1 transmits information based on the operation to the information sharing support device 100 (S200). Next, the
次に、端末装置10−1が、情報共有支援装置100に階層図の提供を要求する(S210)。次に、情報共有支援装置100の画像生成部108が、S202でグループ化した処理に基づいて、階層図を含む画像を生成する(S212)。次に、提示部114が、生成された階層図の画像を端末装置10に提供する(S214)。
Next, the terminal device 10-1 requests the information sharing
[語り合い時間を視認化する処理]
図14は、リフレクション図の所定の領域が拡大表示された様子の一例を示す図である。ユーザが所定の操作を行うと、図14に示すようにリフレクション図の一部が拡大される。なお、例えば、振り返り項目3とタスク3とが対応付けられた区画を拡大する操作がされた場合、画像生成部108は、当該区画を拡大表示すると共に、当該区画に振り返り項目3のラベルとタスク3のラベルを対応付けた画像を生成する。例えば、図14の画像IM8の例では、領域AR21〜AR24のうち、領域AR22には振り返り項目3の内容が表示され、領域AR23にはタスク3の内容が表示され、領域AR24には当該区画のコメント情報が表示される。そして、提示部114が、生成された画像をユーザに提示する。
[Process to visualize the discussion time]
FIG. 14 is a diagram showing an example of a state in which a predetermined area of the reflection diagram is enlarged and displayed. When the user performs a predetermined operation, a part of the reflection diagram is enlarged as shown in FIG. For example, when the operation of enlarging the section in which the review item 3 and the task 3 are associated with each other is performed, the
情報処理部106が、拡大されたタスクと振り返り項目とに対応する区画(フォーカス領域)、リフレクション図が拡大された時間、および指定された付箋IDが互いに対応付けられた拡大情報126として記憶部120に記憶させる。図15は、拡大情報126の内容の一例を示す図である。情報管理部104は、拡大情報126を参照して、所定の区画に対する語り合い時間を推定し、推定結果をユーザに提供する。例えば、情報処理部106は、フォーカス領域に対応付けられた時間を合計して語り合い時間(「着目度合」の一例)を推定する。着目度合は、ユーザによって拡大操作が行われた区画の着目度合は大きくなるように導出される。画像生成部108は、情報処理部106により推定された語り合い時間を含む画像を生成する。
The
図16は、ユーザに提供される語り合い時間を含む画像IM9の一例を示す図である。画像IM9は、「第2画像」または「第3画像」の一例である。図16の各区画に含まれる四角柱は、その区画の振り返り項目とタスクとに対する語り合い時間(「着目度合」の一例)を示している。また、上記の区画における付箋の数は、その区画において対応付けられた付箋の数を示している。更に、画像IM9において、タスクと振り返り項目とに対する語り合いの合計時間が対応付けられている。上記の付箋の数、または合計時間は、「着目度合」の他の一例である。 FIG. 16 is a diagram showing an example of an image IM 9 including a talk time provided to a user. Image IM9 is an example of a "second image" or a "third image". The square pillar included in each section of FIG. 16 shows the discussion time (an example of "degree of attention") for the review item and the task of the section. Further, the number of sticky notes in the above section indicates the number of sticky notes associated with the section. Further, in the image IM9, the total time of the discussion between the task and the retrospective item is associated. The number of sticky notes or the total time mentioned above is another example of "degree of attention".
例えば、情報処理部106は、タスクごとの語り合い時間を合計する。画像生成部108は、合計した語り合い時間を含む画像IM9を生成する。また、情報処理部106は、タスクごとに代えて(或いは加えて)、振り返り項目ごとに語り合い時間を合計してもよい。例えば、情報処理部106は、区画に対応付けられたタスクと振り返り項目とのうち、タスク間(第1ラベル)に所定の共通性が存在する場合に、振り返り項目(第2ラベル)が共通する区画ごとの着目度合を集計する。そして、画像生成部108は、集計された値に基づく画像IM9#を生成する。図17は、画像IM9#の一例を示す図である。画像IM9#は、「第4画像」または「第3画像」の一例である。また、情報処理部106は、タスク間に共通性が存在しない場合に、タスクが共通する区画ごとの着目度合を集計する。
For example, the
「タスク間に所定の共通性が存在する」とは、タスクの内容に共通する単語が存在するタスクや、予め設定された単語やセンテンスが存在するタスクである。例えば、ウエブページの画面デザインがテーマとされた場合において、タスクの内容が「ラフスケッチのデザイン」、「プロトタイプのデザイン」、「完成版のデザイン」などが、共通性が存在するタスクの一例である。また、タスクの内容が「トップ画面のデザイン」、「第1サブ画面のデザイン」、「第2サブ画面のデザイン」などが、共通性が存在するタスクの一例である。なお、タスクごとに語り合い時間を算出するか、振り返り項目ごとに語り合い時間を算出するかを切り替えるためのボタンが画像IM9、または画像IM9#に含まれてもよい。 "There is a predetermined commonality between tasks" is a task in which a word common to the contents of the task exists, or a task in which a preset word or sentence exists. For example, when the theme is screen design of a web page, the tasks such as "rough sketch design", "prototype design", and "finished version design" are examples of tasks that have commonality. be. Further, the tasks such as "top screen design", "first sub screen design", and "second sub screen design" are examples of tasks having commonality. The image IM9 or the image IM9 # may include a button for switching between calculating the discussion time for each task and calculating the discussion time for each reflection item.
また、語り合いの合計時間に加え、後述する音声解析により抽出されたキーワードが区画やタスク、振り返り項目に付けられてもよい。また、図16または図17において、所定の区画に対して、ユーザが所定の操作を行うと、画像は、操作された区画を中心とした図14に示したような拡大図に遷移する。 Further, in addition to the total time of discussion, keywords extracted by voice analysis described later may be added to sections, tasks, and retrospective items. Further, in FIG. 16 or FIG. 17, when the user performs a predetermined operation on the predetermined section, the image transitions to an enlarged view as shown in FIG. 14 centering on the operated section.
上述したように、区画ごとの語り合い時間がユーザに視認可能に提供される。この結果、ユーザは、テーマにおいて語り合い時間が長かった項目やタスク等を容易に認識することができる。 As described above, the talk time for each section is visually provided to the user. As a result, the user can easily recognize items, tasks, and the like that have a long discussion time in the theme.
なお、情報処理部106は、区画に対応けられた付箋(コメント情報)がユーザによって参照された度合に基づいて、着目度合を導出してもよい。例えば、ユーザが、所定の付箋を指定(或いは指示)するような操作や拡大する操作を行っている時間を算出する。そして、情報処理部106は、操作を行っている時間が長いほど、その操作対象の付箋が対応付けられた区画の着目度合を大きい傾向で導出する。
The
また、ユーザが所定の操作を行うと、図18に示すように時間ごとの、区画と区画に含まれる指定された付箋IDとの対応関係を示す画像IM10がユーザに提供される。この画像は、画像生成部108により生成された画像であり、「音声のタイムテーブルと、区画とを関連付けた第5画像」の一例である。
Further, when the user performs a predetermined operation, as shown in FIG. 18, an image IM10 showing the correspondence relationship between the section and the designated sticky note ID included in the section is provided to the user for each hour. This image is an image generated by the
これにより、選択された付箋について語り合いされた時間が、ユーザにとって視認可能となる。例えば、ユーザが、所定の付箋IDの語り合いについて、音声を取得したい場合、付箋IDに対応付けられた時間に対応する音声を取得することにより、容易に付箋に対する語り合いの音声を取得することができる。 This makes the time spent talking about the selected sticky note visible to the user. For example, when the user wants to acquire the voice of the conversation of the predetermined sticky note ID, the voice of the conversation with the sticky note can be easily acquired by acquiring the voice corresponding to the time associated with the sticky note ID. ..
[シーケンス(その4)]
図19は、リフレクション支援システム1により実行される着目された付箋と、着目時間とが対応付けられる処理を示すシーケンス図である。
[Sequence (4)]
FIG. 19 is a sequence diagram showing a process in which the attention sticky note executed by the
まず、端末装置10が、所定の領域を拡大して表示することを指示する情報を情報共有支援装置100に送信する(S300)。次に、情報共有支援装置100の提示部114が、端末装置10により提供された指示に基づいて、画像生成部108により生成された所定の領域を拡大した画像を端末装置10に送信する(S302、S304)。次に、情報処理部106が、拡大した画像の領域と時間とを互いに対応付けて記憶部120に記憶させる(S306)。
First, the terminal device 10 transmits information instructing the information sharing
次に、所定の領域が拡大された画像が端末装置10の表示部に表示された状態で、ユーザが付箋を選択すると、端末装置10は、選択した付箋の情報を情報共有支援装置100に送信する(S308)。次に、情報処理部106が、選択された付箋と、時間とを互いに対応付けて記憶部120に記憶させる(S310)。次に、画像生成部108が、選択された付箋と、選択されていない付箋とを識別可能に表した画像を生成する。そして、提示部114が、画像生成部108により生成された画像を端末装置10に提供する(S312、S314)。
Next, when the user selects a sticky note while the image in which the predetermined area is enlarged is displayed on the display unit of the terminal device 10, the terminal device 10 transmits the information of the selected sticky note to the information sharing
[音声解析]
情報共有支援装置100の音声解析部110は、音声を解析して、頻出する単語であるキーワードを抽出してもよい。音声解析部110は、例えば、所定時間以内において、所定回数以上、出現した単語やセンテンスであり、且つ予め設定された単語やセンテンスとは異なる単語やセンテンスをキーワードとして抽出し、抽出したキーワードをキーワード情報130として記憶部120に記憶させる。予め設定された単語やセンテンスとは、日常の会話において一般的に使用される単語やセンテンスである。
[Voice analysis]
The
図20は、キーワード情報130の内容の一例を示す図である。キーワード情報130は、抽出されたキーワードと、キーワードが抽出された区画と、キーワードが出現した時間とが互いに対応付けられた情報である。
FIG. 20 is a diagram showing an example of the contents of the
例えば、提示部114は、ユーザからの要求に応じて、キーワード情報130を参照し、キーワード、キーワードが出現した区画、および出現時間を互いに対応付けた情報をユーザに提供する。これにより、語り合いにおけるキーワード、およびキーワードに関連する情報がユーザに視認可能に提供されるため、より語り合いの内容を容易に認識することができる。
For example, the
図21は、画像生成部108により生成される「まとめ」画像の一例を示す図である。「まとめ」画像は、上述した処理結果が対応付けられた情報およびノウハウ入力画面IM12を含むものである。「まとめ」画像は、例えば、ユーザが所定の操作を行うことでユーザに提示される。例えば、「まとめ」画像は、上記の図18に示した画像に加え、リフレクション図を開くためのボタンB30、タスクおよび項目に対応付けられた音声に対応するテキストを開くボタンB31、ノウハウをメンバーに送信するボタンB32が含まれる。
FIG. 21 is a diagram showing an example of a “summary” image generated by the
例えば、ボタンB30が操作されると、上記の図9等に示したリフレクション図が端末装置10の表示部に表示される。ボタンB31が操作されると、タクスと項目とに応じた音声に対応するテキストおよびキーワードを含むが画像IM13が表示される。この画像IM13において、テキストに対して、発言者を識別するための情報や、発言がされた時間、発言時に選択されていていた付箋ID等が対応付けられる。画像IM11または画像IM13は、「音声情報に基づく情報と、区画と、区画に対応付けられたコメントに関する情報とを互いに対応付けた第6画像」である。「まとめ」画像、または後述する画像IM13は、「解析部により解析された情報」の一例である。 For example, when the button B30 is operated, the reflection diagram shown in FIG. 9 or the like is displayed on the display unit of the terminal device 10. When the button B31 is operated, the image IM13 including the text and the keyword corresponding to the voice corresponding to the tax and the item is displayed. In the image IM 13, information for identifying the speaker, the time when the speaker was made, the sticky note ID selected at the time of the speech, and the like are associated with the text. The image IM 11 or the image IM 13 is a "sixth image in which information based on voice information, a section, and information about a comment associated with the section are associated with each other". The “summary” image or the image IM13 described later is an example of “information analyzed by the analysis unit”.
例えば、ユーザは、リフレクション図や、音声に対応するテキスト、キーワード等を参照しながら、ノウハウ入力画像IM13にノウハウを入力することで、ノウハウを蓄積する。例えば、場面(例えばタスク)ごとに、やること、心構え、動機などを入力して、ノウハウをまとめる。 For example, the user accumulates know-how by inputting the know-how into the know-how input image IM13 while referring to the reflection diagram, the text corresponding to the voice, the keyword, and the like. For example, input what to do, attitude, motive, etc. for each scene (for example, task) and summarize the know-how.
また、ノウハウ入力画像IM13の付箋の選択ボタンB40、B41、またはB42が操作されると、入力内容に対応付ける付箋の一覧(例えば付箋が対応付けられたリフレクション図)が表示部に表示される。ユーザが、付箋の一覧の中から付箋を選択すると、画像生成部108が、付箋の情報を入力内容に対応付けた画像や、付箋の内容を示す画像のリンクを入力内容に対応付けた画像を生成する。そして、ユーザが、ノウハウをまとめた後に、ボタンB32を操作すると、予め設定されたユーザの端末装置10に、まとめられたノウハウが送信される。
Further, when the sticky note selection buttons B40, B41, or B42 of the know-how input image IM13 are operated, a list of sticky notes associated with the input contents (for example, a reflection diagram associated with the sticky notes) is displayed on the display unit. When the user selects a sticky note from the list of sticky notes, the
このように、語り合いの各内容が関連付けられると共に可視化されるため、ユーザは、語り合いから得られるノウハウを容易にまとめたり、まとめた情報をユーザ間で共有したりすることができる。 In this way, since each content of the discussion is associated and visualized, the user can easily summarize the know-how obtained from the discussion and share the summarized information among the users.
[具体例]
以下、「プロジェクトに関するリフレクション」の実施内容について説明する。
実施タイミング;月1回程度、またはプロジェクトの進行上、切りのよいタイミングで行われる。
参加メンバー;振り返る範囲に関わっていたメンバー
[Concrete example]
The contents of "reflection on the project" will be described below.
Implementation timing: It is implemented about once a month, or at a good timing due to the progress of the project.
Participating members; members who were involved in the scope of looking back
(STEP1)事前準備
時間;30分
参加メンバー;プロジェクトの主要メンバー数人
用意するもの;リフレクション支援システム1(または情報共有支援装置100)、実施したことを思い出せる資料
やること;実施したことをリフレクション支援システムに提供される付箋に入力する。
(STEP1) Preparation time; 30 minutes Participating members; Several main members of the project Prepared; Reflection support system 1 (or information sharing support device 100), materials that remind you of what you have done; Reflection support for what you have done Fill in the sticky notes provided to the system.
(STEP2)リフレクションミーティング
時間;60〜90分
参加メンバー;チームメンバー(関係者なるべく全員)
用意するもの;リフレクション支援システム1(または情報共有支援装置100)、実施したことを思い出せる資料、その他資料
やること;タスクを実施したときに感じたことをリフレクション支援システム1に提供される付箋に入力する。また、タスクを実施したときに感じたことをメンバーで語り合いながら振り返る。
(STEP2) Reflective meeting time; 60-90 minutes Participating members; Team members (preferably all involved)
What to prepare; Reflection support system 1 (or information sharing support device 100), materials that remind you of what you have done, and other materials to do; Enter what you felt when you performed the task on the sticky note provided to
ミーティングを開始する前に、場のセッティングを行う。例えば、実施しことの手順、および振り返る範囲において実施したことを思い出せる資料をユーザが視認可能な状態する。また、ユーザの役割を決定する。例えば振り返りの司会進行を行う進行役、積極的にメンバーに質問する質問役、発言者の発言をメモや入力する記録役を決定する。 Set up the venue before starting the meeting. For example, the procedure of the implementation and the material that reminds the user of the implementation in the range of looking back are visible to the user. It also determines the role of the user. For example, a facilitator who conducts a retrospective moderator, a questioner who actively asks questions to members, and a recorder who notes and inputs the speaker's remarks are determined.
語り合いにおいて、振り返り項目に対して、例えば(1)〜(4)のような観点で質問をする。(1)「〇〇って具体的にはどんな感じだったのですか?」と質問し、具体的な中身を聞いて詳細を深堀する。(2)「○○はどういう風にやったのですか?」と質問し、詳細なやり方を聞く。(3)「なぜ○○を行ったのですか?」と質問し、実施した理由を聞く。(4)「〇〇さんはどうでしたか?」と質問し、同じ話題を発言の少ないメンバーにも聞く。上記のような語り合いの中で出た意見を、情報共有支援装置100に入力し、リフレクション図を作成したり、考察したりする。
In the discussion, ask questions about the retrospective items from the viewpoints of (1) to (4), for example. (1) Ask the question, "What exactly was XX like?", Ask the specific contents, and dig deeper into the details. (2) Ask "How did you do XX?" And ask how to do it in detail. (3) Ask "Why did you do XX?" And ask why you did it. (4) Ask "How was Mr. XX?" And ask the members who have few remarks about the same topic. The opinions expressed in the above discussion are input to the information sharing
(STEP3)ノウハウのまとめ
まとめ役のメンバーは、上述した図20に示した画像等を用いて、ノウハウをまとめる。そして、まとめられたノウハウはメンバー間で共有される。このようにノウハウなどの知性が共有される。
(STEP3) Summary of know-how The members of the coordinator summarize the know-how using the images and the like shown in FIG. 20 described above. And the summarized know-how is shared among the members. In this way, intelligence such as know-how is shared.
[変形例]
図22は、変形例のリフレクション支援システム1Aの構成図である。リフレクション支援システム1Aは、例えば、一以上の端末装置10と、情報共有支援装置100と、通話サーバ200とを備える。
[Modification example]
FIG. 22 is a configuration diagram of the reflection support system 1A of the modified example. The reflection support system 1A includes, for example, one or more terminal devices 10, an information sharing
通話サーバ200は、ユーザが端末装置10に入力した音声である音声情報を取得し、他の端末装置10、および情報共有支援装置100に取得した音声情報を送信する。通話サーバ200は、遠隔地の端末装置10間で会議や通話を行うためのシステムである。情報共有支援装置100は、通話サーバ200から取得した音声情報を解析する。例えば、記憶部120には、予めユーザの音声情報から抽出した音声の特徴量が、ユーザに対して対応付けられた特徴情報が記憶されている。音声の特徴量とは、声の周波数スペクトルに基づいて導出された指標である。音声解析部110は、上述した特徴情報を参照して、発話したユーザを特定する。
The
なお、複数の端末装置10は、通話サーバ200または情報共有支援装置100を介さずに直接的に通信し、音声情報を送受信してもよい。
The plurality of terminal devices 10 may directly communicate with each other without going through the
以上説明した実施形態によれば、情報共有支援装置100は、ユーザにより入力されたコメント情報を取得する情報管理部104と、情報管理部104により取得されたコメント情報を、予め設定された区画に対応付けた第1画像を生成する画像生成部108と、区画ごとのユーザによる着目度合を導出する情報処理部106とを備え、画像生成部108は、着目度合を反映させた第2画像を生成し、画像生成部108により生成された画像をユーザに提示する提示部114を更に備えることにより、複数のユーザで有益な情報を共有することができる。
According to the embodiment described above, the information sharing
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.
1、1A‥リフレクション支援システム、10‥端末装置、100‥情報共有支援装置、102‥通信部、104‥情報管理部、106‥情報処理部、108‥画像生成部、110‥音声解析部、112‥変換処理部、114‥提示部、120‥記憶部、122‥参加者情報、124‥音声情報、126‥拡大情報、128‥テキスト情報、130‥キーワード情報 1, 1A: Reflection support system, 10: Terminal device, 100: Information sharing support device, 102: Communication unit, 104: Information management unit, 106: Information processing unit, 108: Image generation unit, 110: Voice analysis unit, 112 Conversion processing unit, 114 presentation unit, 120 storage unit, 122 participant information, 124 voice information, 126 enlarged information, 128 text information, 130 keyword information
Claims (15)
前記画像生成部により生成された第1画像を少なくともユーザに提示する提示部と、
を備える情報共有支援装置。 An image generation unit that generates a first image in which the input comment information is associated with the section so that the viewer can recognize that the comment information input by the user is a comment for a preset section. ,
A presenting unit that presents at least the first image generated by the image generating unit to the user, and a presenting unit.
Information sharing support device equipped with.
請求項1に記載の情報共有支援装置。 The image generation unit associates the comment information with the designated section from among a plurality of sections based on the information in which the comment information input by the user and the section designated by the user are associated with each other. Generate the first image,
The information sharing support device according to claim 1.
請求項2に記載の情報共有支援装置。 Each of the plurality of sections is divided by at least two axes, the first label and the second label.
The information sharing support device according to claim 2.
前記一部とは異なる前記複数の区分の一部は、前記第2ラベルの項目が共通する、
請求項3に記載の情報共有支援装置。 The items of the first label are common to some of the plurality of categories, and the items of the first label are common.
The items of the second label are common to some of the plurality of categories different from the above.
The information sharing support device according to claim 3.
前記提示部は、前記画像生成部により生成された第2画像をユーザに提示する、
請求項1から4のうちいずれか1項に記載の情報共有支援装置。 The image generation unit generates a second image that reflects the degree of attention of the user for each section.
The presenting unit presents the second image generated by the image generation unit to the user.
The information sharing support device according to any one of claims 1 to 4.
請求項5に記載の情報共有支援装置。 Further provided with a processing unit for deriving the degree of attention based on the degree to which the comment information corresponding to the section is referred to by the user.
The information sharing support device according to claim 5.
請求項5または6に記載の情報共有支援装置。 The first image further includes a processing unit that increases the degree of attention of the section that has been enlarged by the user.
The information sharing support device according to claim 5 or 6.
請求項5から7のうちいずれか1項に記載の情報共有支援装置。 The image generation unit adds information that can identify the user who proposed the comment information or the terminal device used by the user to the comment information associated with the section.
The information sharing support device according to any one of claims 5 to 7.
前記画像生成部は、前記集計された値に基づく第3画像を生成する、
請求項5から8のうちいずれか1項に記載の情報共有支援装置。 It is equipped with a processing unit that aggregates the degree of attention for each section that has a common label attached to the section.
The image generation unit generates a third image based on the aggregated values.
The information sharing support device according to any one of claims 5 to 8.
前記第1ラベル間に所定の共通性が存在する場合に、前記第2ラベルが共通する区画の着目度合を集計し、
前記第1ラベル間に所定の共通性が存在しない場合に、前記第1ラベルが共通する区画の着目度合を集計する処理部を備え、
前記画像生成部は、前記集計された値に基づく第4画像を生成する、
請求項5から9のうちいずれか1項に記載の情報共有支援装置。 The section is divided into at least two axes, a first label and a second label.
When a predetermined commonality exists between the first labels, the degree of attention of the sections common to the second labels is totaled.
When there is no predetermined commonality between the first labels, a processing unit for totaling the degree of attention of the sections common to the first labels is provided.
The image generation unit generates a fourth image based on the aggregated values.
The information sharing support device according to any one of claims 5 to 9.
前記提示部は、前記画像生成部により生成された第5画像をユーザに提示する、
請求項5から10のうちいずれか1項に記載の情報共有支援装置。 The image generation unit generates a fifth image in which the timetable of voice information, which is the voice input by the user, is associated with the section.
The presenting unit presents the fifth image generated by the image generation unit to the user.
The information sharing support device according to any one of claims 5 to 10.
前記提示部は、前記画像生成部により生成された第6画像をユーザに提示する、
請求項5から11のうちいずれか1項に記載の情報共有支援装置。 The image generation unit generates a sixth image in which information based on voice information, which is voice input by a user, is associated with the section and information regarding comment information associated with the section.
The presenting unit presents the sixth image generated by the image generation unit to the user.
The information sharing support device according to any one of claims 5 to 11.
前記音声認識部により認識された音声をテキスト化し、前記テキスト化したテキストと前記テキストに対応する音声を発したユーザとを互いに対応付ける解析部と、を備え、
前記提示部は、前記解析部により解析された情報をユーザに提示する、
請求項5から12のうちいずれか1項に記載の情報共有支援装置。 A voice recognition unit that recognizes the voice of each user based on the voice information that is the voice input by the user,
It is provided with an analysis unit that converts the voice recognized by the voice recognition unit into text and associates the converted text with the user who has emitted the voice corresponding to the text.
The presenting unit presents the information analyzed by the analysis unit to the user.
The information sharing support device according to any one of claims 5 to 12.
ユーザにより入力されたコメント情報が予め設定された区画に対するコメントであることを視認者が認識可能なように前記入力されたコメント情報を前記区画に対応付けた第1画像を生成し、
前記生成した画像をユーザに提示する、
情報共有支援方法。 The computer
A first image in which the input comment information is associated with the section is generated so that the viewer can recognize that the comment information input by the user is a comment for a preset section.
Presenting the generated image to the user,
Information sharing support method.
ユーザにより入力されたコメント情報が予め設定された区画に対するコメントであることを視認者が認識可能なように前記入力されたコメント情報を前記区画に対応付けた第1画像を生成させ、
前記生成させた画像をユーザに提示させる、
プログラム。 On the computer
A first image in which the input comment information is associated with the section is generated so that the viewer can recognize that the comment information input by the user is a comment for a preset section.
To have the user present the generated image.
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021139627A JP7193595B2 (en) | 2018-09-10 | 2021-08-30 | INFORMATION SHARING SUPPORT DEVICE, INFORMATION SHARING SUPPORT METHOD, AND PROGRAM |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168538A JP6937730B2 (en) | 2018-09-10 | 2018-09-10 | Information sharing support equipment, information sharing support methods, and programs |
JP2021139627A JP7193595B2 (en) | 2018-09-10 | 2021-08-30 | INFORMATION SHARING SUPPORT DEVICE, INFORMATION SHARING SUPPORT METHOD, AND PROGRAM |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018168538A Division JP6937730B2 (en) | 2018-09-10 | 2018-09-10 | Information sharing support equipment, information sharing support methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022000767A true JP2022000767A (en) | 2022-01-04 |
JP7193595B2 JP7193595B2 (en) | 2022-12-20 |
Family
ID=69798368
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018168538A Active JP6937730B2 (en) | 2018-09-10 | 2018-09-10 | Information sharing support equipment, information sharing support methods, and programs |
JP2021139627A Active JP7193595B2 (en) | 2018-09-10 | 2021-08-30 | INFORMATION SHARING SUPPORT DEVICE, INFORMATION SHARING SUPPORT METHOD, AND PROGRAM |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018168538A Active JP6937730B2 (en) | 2018-09-10 | 2018-09-10 | Information sharing support equipment, information sharing support methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6937730B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7367483B2 (en) | 2019-11-21 | 2023-10-24 | 京セラドキュメントソリューションズ株式会社 | Electronic payment method, electronic payment device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011164696A (en) * | 2010-02-04 | 2011-08-25 | Ricoh Co Ltd | Network system, server apparatus, and groupware program |
JP2017084146A (en) * | 2015-10-29 | 2017-05-18 | 富士ゼロックス株式会社 | Information processing apparatus and information processing program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007286780A (en) * | 2006-04-14 | 2007-11-01 | Fuji Xerox Co Ltd | Electronic system, program and method for supporting electronic conference, and electronic conference controller |
JP2008097341A (en) * | 2006-10-12 | 2008-04-24 | Fujitsu Ltd | Improvement activity support program, method and device |
JP2009086952A (en) * | 2007-09-28 | 2009-04-23 | Fuji Xerox Co Ltd | Information processing system and information processing program |
JP5257330B2 (en) * | 2009-11-06 | 2013-08-07 | 株式会社リコー | Statement recording device, statement recording method, program, and recording medium |
JP6446766B2 (en) * | 2013-07-08 | 2019-01-09 | 株式会社リコー | Program, display control device, recording medium, and display control system |
CN107430851B (en) * | 2015-04-10 | 2021-01-12 | 株式会社东芝 | Speech presentation device and speech presentation method |
JP6875861B2 (en) * | 2017-01-05 | 2021-05-26 | 富士通株式会社 | Information processing methods, devices, and programs |
-
2018
- 2018-09-10 JP JP2018168538A patent/JP6937730B2/en active Active
-
2021
- 2021-08-30 JP JP2021139627A patent/JP7193595B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011164696A (en) * | 2010-02-04 | 2011-08-25 | Ricoh Co Ltd | Network system, server apparatus, and groupware program |
JP2017084146A (en) * | 2015-10-29 | 2017-05-18 | 富士ゼロックス株式会社 | Information processing apparatus and information processing program |
Also Published As
Publication number | Publication date |
---|---|
JP7193595B2 (en) | 2022-12-20 |
JP2020042471A (en) | 2020-03-19 |
JP6937730B2 (en) | 2021-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yung et al. | New realities: a systematic literature review on virtual reality and augmented reality in tourism research | |
Allen et al. | Smart-phone augmented reality for public participation in urban planning | |
EP3309731A1 (en) | Managing electronic meetings using artificial intelligence and meeting rules templates | |
EP3309730A1 (en) | Creating agendas for electronic meetings using artificial intelligence | |
Voss et al. | Evolution of a participatory GIS | |
Roth | Interactivity and cartography: A contemporary perspective on user interface and user experience design from geospatial professionals | |
US7822765B2 (en) | Component-based control system for collaborative exploratory search systems | |
Shin et al. | Design for experience innovation: understanding user experience in new product development | |
Giemza et al. | LEMONADE: a flexible authoring tool for integrated mobile learning scenarios | |
Comber et al. | Sustaining technological innovation: The example of videoconferencing in English Schools | |
EP1784721A2 (en) | Personal support infrastructure for development of user applications and interfaces | |
US11947894B2 (en) | Contextual real-time content highlighting on shared screens | |
JP7193595B2 (en) | INFORMATION SHARING SUPPORT DEVICE, INFORMATION SHARING SUPPORT METHOD, AND PROGRAM | |
Broomfield et al. | A qualitative evidence synthesis of the experiences and perspectives of communicating using augmentative and alternative communication (AAC) | |
Kassis et al. | Discovering factors that influence the use of augmented reality for communication on active highway construction sites | |
KR101677805B1 (en) | Method for collecting and providing learning contents via social learning, and user device and social learning server therefor | |
Braukhane et al. | The dark side of concurrent design: a story of improvisations, workarounds, nonsense and success | |
Beck | Evaluating human-computer interfaces for specification and comprehension of transient behavior in microservice-based software systems | |
White et al. | United we respond: One community, one voice | |
Rekrut et al. | Is co-creation superior to user centred design? preliminary results from user interface design for inclusive public transport | |
Stephens | Designer perceptions of user agency during the development of environmental risk visualization tools | |
Kyakulumbye et al. | Creating knowledge in the design thinking process: reflections on participatory design | |
US20240062674A1 (en) | Data feed interaction incentivization system using gamification tools | |
Ehret et al. | Context-adaptive mobile visualization and information management | |
Morton et al. | Get going on your data, evidence and feedback improvement journey |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7193595 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |