JP2022000767A - Information sharing assisting device, information sharing assisting method and program - Google Patents

Information sharing assisting device, information sharing assisting method and program Download PDF

Info

Publication number
JP2022000767A
JP2022000767A JP2021139627A JP2021139627A JP2022000767A JP 2022000767 A JP2022000767 A JP 2022000767A JP 2021139627 A JP2021139627 A JP 2021139627A JP 2021139627 A JP2021139627 A JP 2021139627A JP 2022000767 A JP2022000767 A JP 2022000767A
Authority
JP
Japan
Prior art keywords
information
user
image
section
support device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021139627A
Other languages
Japanese (ja)
Other versions
JP7193595B2 (en
Inventor
知惠美 瀧
Chiemi Taki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2021139627A priority Critical patent/JP7193595B2/en
Publication of JP2022000767A publication Critical patent/JP2022000767A/en
Application granted granted Critical
Publication of JP7193595B2 publication Critical patent/JP7193595B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To enable multiple users to share useful information.SOLUTION: An information sharing assisting device includes: an image creating unit that creates a first image which associates input comment information with a segment in such a way that a viewer can recognize that the comment information input by a user is a comment to the preset segment; and a presenting unit that presents the first image created by the image creating unit to at least the user.SELECTED DRAWING: Figure 1

Description

本発明は、情報共有支援装置、情報共有支援方法、およびプログラムに関する。 The present invention relates to an information sharing support device, an information sharing support method, and a program.

従来、モノとの相互作用である複数のインタラクションの組合せと、モノを利用した人々の知覚や反応である複数のユーザエクスペリエンスとの組み合わせと、複数のインタラクションの組合せとユーザエクスペリエンスとの組み合わせとの各々の組合せにおける相関係数を記憶するメモリと、ユーザからの情報の要求に対し、メモリの情報に基づいて情報を抽出する処理部とを備えるユーザエクスペリエンス予測装置が開示されている(例えば、特許文献1参照)。 Traditionally, a combination of multiple interactions that interact with things, a combination of multiple user experiences that are the perceptions and reactions of people who use things, and a combination of multiple interactions and user experiences, respectively. A user experience prediction device including a memory for storing a correlation coefficient in the combination of the above and a processing unit for extracting information based on the information in the memory in response to a request for information from the user is disclosed (for example, Patent Document). See 1).

特開2017−33426号公報Japanese Unexamined Patent Publication No. 2017-33426

しかしながら、上記の技術では、複数のユーザで有益な情報を共有することができない場合があった。 However, with the above technology, there are cases where useful information cannot be shared by a plurality of users.

本発明は、このような事情を考慮してなされたものであり、複数のユーザで有益な情報を共有することができる情報共有支援装置、情報共有支援方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and an object of the present invention is to provide an information sharing support device, an information sharing support method, and a program capable of sharing useful information among a plurality of users. Make it one.

本発明の一態様は、ユーザにより入力されたコメント情報が予め設定された区画に対するコメントであることを視認者が認識可能なように前記入力されたコメント情報を前記区画に対応付けた第1画像を生成する画像生成部と、前記画像生成部により生成された第1画像を少なくともユーザに提示する提示部と、を備える情報共有支援装置である。 One aspect of the present invention is a first image in which the input comment information is associated with the section so that the viewer can recognize that the comment information input by the user is a comment for a preset section. It is an information sharing support device including an image generation unit for generating an image, and a presentation unit for presenting at least a first image generated by the image generation unit to a user.

本発明の一態様によれば、複数のユーザで有益な情報を共有することができる。 According to one aspect of the present invention, useful information can be shared by a plurality of users.

リフレクション支援システム1の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of a reflection support system 1. 参加者情報122の内容の一例を示す図である。It is a figure which shows an example of the content of the participant information 122. 端末装置10に提供される画像IM1の一例を示す図である。It is a figure which shows an example of the image IM1 provided to the terminal apparatus 10. 各端末装置10に提供される画像IM2の一例を示す図である。It is a figure which shows an example of the image IM2 provided to each terminal apparatus 10. 振り返り項目およびタクスが設定されたリフレクション図を含む画像IM3の一例を示す図である。It is a figure which shows an example of the image IM3 which includes the reflection diagram which set the retrospective item and the tax. リフレクション支援システム1により実行されるタスクおよび振り返り項目を設定する処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of the process which sets the task executed by the reflection support system 1 and the reflection item. 音声情報124の内容の一例を示す図である。It is a figure which shows an example of the content of voice information 124. 端末装置10に提供されるウエブページを示す画像IM4の一例を示す図である。It is a figure which shows an example of the image IM4 which shows the web page provided to the terminal apparatus 10. 付箋が対応付けられたリフレクション図の画像IM5の一例を示す図である。It is a figure which shows an example of the image IM5 of the reflection figure with which a sticky note is associated. リフレクション支援システム1により実行される付箋を貼付する処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of the process of sticking a sticky note executed by the reflection support system 1. 付箋がグループ化された画像IM6の一例を示す図である。It is a figure which shows an example of the image IM6 which the sticky note is grouped. 階層図を含む画像IM7の一例を示す図である。It is a figure which shows an example of the image IM7 including a hierarchical diagram. リフレクション支援システム1により実行される見解が階層化される処理を示すシーケンス図である。It is a sequence diagram which shows the process which the view executed by the reflection support system 1 is hierarchized. リフレクション図の所定の領域が拡大表示された様子の一例を示す図である。It is a figure which shows an example of the appearance that a predetermined area of a reflection figure is enlarged and displayed. 拡大情報126の内容の一例を示す図である。It is a figure which shows an example of the contents of the enlarged information 126. ユーザに提供される語り合い時間を含む画像IM9の一例を示す図である。It is a figure which shows an example of the image IM9 including the talk time provided to a user. 画像IM9#の一例を示す図である。It is a figure which shows an example of the image IM9 #. 時間ごとの、区画と区画に含まれる指定された付箋IDとの対応関係を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows the correspondence | correspondence between a section and a designated sticky note ID included in a section for each time. リフレクション支援システム1により実行される着目された付箋と、着目時間とが対応付けられる処理を示すシーケンス図である。It is a sequence diagram which shows the process which the sticky note of interest executed by the reflection support system 1 and the attention time are associated with each other. キーワード情報130の内容の一例を示す図である。It is a figure which shows an example of the content of the keyword information 130. 画像生成部108により生成される「まとめ」画像の一例を示す図である。It is a figure which shows an example of the "summary" image generated by the image generation part 108. 変形例のリフレクション支援システム1Aの構成図である。It is a block diagram of the reflection support system 1A of a modification.

以下、図面を参照し、本発明の情報共有支援装置、情報共有支援方法、およびプログラムの実施形態について説明する。 Hereinafter, the information sharing support device, the information sharing support method, and the embodiment of the program of the present invention will be described with reference to the drawings.

[概要]
本実施形態の情報共有支援装置は、例えば、「プロジェクトに関するリフレクション」などの手法に基づく情報の共有を支援する装置である。「プロジェクトに関するリフレクション」とは、一人一人の思いをチームで共有し、チームが持つノウハウを導き出す振り返り手法である。「プロジェクトに関するリフレクション」とは、例えば、チームのメンバーがプロジェクトを進める中で感じていることを振り返ったり、チームのメンバーがプロジェクトに取り組む原動力になっている実践の知性(例えばノウハウ)を抽出したりする活動である。
[Overview]
The information sharing support device of the present embodiment is a device that supports sharing of information based on a method such as "reflection on a project". "Reflective about a project" is a reflection method that shares the thoughts of each person with the team and derives the know-how of the team. "Reflective about a project" means, for example, looking back on what a team member feels while proceeding with a project, or extracting the practical intelligence (for example, know-how) that is the driving force for a team member to work on a project. It is an activity to do.

実施形態の情報共有支援装置は、一以上のプロセッサにより実現される。情報共有支援装置は、ユーザにより入力されたコメント情報を取得し、取得したコメント情報を、予め設定された区画に対応付けた第1画像を生成する。情報共有支援装置は、区画ごとのユーザによる着目度合を導出し、着目度合を反映させた第2画像を生成する。そして、情報共有支援装置は、上記の生成された画像をユーザに提示する。 The information sharing support device of the embodiment is realized by one or more processors. The information sharing support device acquires comment information input by the user, and generates a first image in which the acquired comment information is associated with a preset section. The information sharing support device derives the degree of attention by the user for each section, and generates a second image that reflects the degree of attention. Then, the information sharing support device presents the generated image to the user.

区画とは、例えば、タスクと項目との二軸で区分されたものである。「タスク」とは、プロジェクトにおいてクリアすべきタスクである。「項目」とは、プロジェクトにおける振り返り項目である。例えば、タスクをクリアする上で苦労したことや、苦労の乗り越え方、モチベーション、気づき、ノウハウなどである。「対応付け」とは、例えば、コメントが区画に対するコメントであることを識別可能にすることを含む。また、「対応付け」とは、区画内にコメントを含めることであってよい。 A partition is, for example, divided into two axes, a task and an item. A "task" is a task that should be cleared in a project. An "item" is a retrospective item in a project. For example, it is difficult to clear a task, how to overcome the hardship, motivation, awareness, know-how, etc. "Association" includes, for example, making it possible to identify that a comment is a comment for a partition. Further, the "correspondence" may include a comment in the partition.

「着目度合」は、例えば、区画に対応けられたコメント情報がユーザによって参照された度合に基づいて導出される。「参照」とは、例えば、ユーザがコメント情報を指定したり、拡大して視認したり、区画に着目することである。 The "degree of attention" is derived, for example, based on the degree of reference by the user to the comment information corresponding to the section. The “reference” means, for example, that the user specifies comment information, magnifies and visually recognizes the comment information, or pays attention to the section.

[構成]
図1は、リフレクション支援システム1の機能構成の一例を示す図である。リフレクション支援システム1は、例えば、一以上の端末装置10(図1では10−1〜10−3)と、情報共有支援装置100とを備える。これらの装置は、ネットワークNWを介して互いに通信する。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)、インターネット、専用回線、無線基地局、プロバイダなどを含む。
[composition]
FIG. 1 is a diagram showing an example of a functional configuration of the reflection support system 1. The reflection support system 1 includes, for example, one or more terminal devices 10 (10-1 to 10-3 in FIG. 1) and an information sharing support device 100. These devices communicate with each other via the network NW. The network NW includes, for example, a WAN (Wide Area Network), a LAN (Local Area Network), the Internet, a dedicated line, a wireless base station, a provider, and the like.

[端末装置]
端末装置10は、ユーザによって使用される装置であり、例えば、スマートフォンなどの携帯電話、タブレット型コンピュータ、ノート型コンピュータ、デスクトップ型コンピュータなどである。また、端末装置10は、例えば、カメラやマイク、スピーカなどを備えてもよい。
[Terminal device]
The terminal device 10 is a device used by a user, and is, for example, a mobile phone such as a smartphone, a tablet computer, a notebook computer, a desktop computer, or the like. Further, the terminal device 10 may include, for example, a camera, a microphone, a speaker, and the like.

端末装置10では、ブラウザやアプリケーションプログラムなどのUA(User Agent)が起動する。ユーザは、端末装置10を操作して、情報共有支援装置100にアクセスして、所望の情報を入力したり、所望の情報を取得したりする。なお、後述する情報共有支援装置100の機能構成の一部または全部が端末装置10に含まれてもよいし、情報共有支援装置100の記憶部に記憶された情報の一部または全部が端末装置10の記憶部に記憶されてもよい。 In the terminal device 10, a UA (User Agent) such as a browser or an application program is activated. The user operates the terminal device 10 to access the information sharing support device 100 to input desired information or acquire desired information. The terminal device 10 may include a part or all of the functional configuration of the information sharing support device 100, which will be described later, or a part or all of the information stored in the storage unit of the information sharing support device 100. It may be stored in 10 storage units.

端末装置10が、情報共有支援装置100にログインすると、例えば、端末装置10が備える、または端末装置10に接続されたマイクがオン状態に制御される。この状態で、ユーザがマイクに音声を入力すると、端末装置10は、入力された音声情報を情報共有支援装置100に送信する。情報共有支援装置100は、送信された音声を他の端末装置10に送信する。そして、この他の端末装置10は、取得した音声情報をスピーカに出力させる。これにより、端末装置10のユーザ間での会話が可能になる。また、端末装置10が、情報共有支援装置100にログインすると、端末装置10のカメラがオン状態に制御され、ユーザの画像が情報共有支援装置100に送信されもよい。これにより画像が各端末装置10間で共有される。 When the terminal device 10 logs in to the information sharing support device 100, for example, the microphone included in the terminal device 10 or connected to the terminal device 10 is controlled to be turned on. When the user inputs voice to the microphone in this state, the terminal device 10 transmits the input voice information to the information sharing support device 100. The information sharing support device 100 transmits the transmitted voice to another terminal device 10. Then, the other terminal device 10 causes the speaker to output the acquired voice information. This enables conversations between users of the terminal device 10. Further, when the terminal device 10 logs in to the information sharing support device 100, the camera of the terminal device 10 may be controlled to be on, and the user's image may be transmitted to the information sharing support device 100. As a result, the image is shared between the terminal devices 10.

なお、端末装置10は、音声に代えて(または加えて)、テキストを情報共有支援装置100に送信してもよい。この場合、情報共有支援装置100は、送信されたテキストを他の端末装置10に送信する。これによりテキストが各端末装置10間で共有される。 The terminal device 10 may transmit text to the information sharing support device 100 instead of (or in addition to) the voice. In this case, the information sharing support device 100 transmits the transmitted text to another terminal device 10. As a result, the text is shared between the terminal devices 10.

[情報共有支援装置]
情報共有支援装置100は、例えば、通信部102と、情報管理部104と、情報処理部106と、画像生成部108と、音声解析部110と、変換処理部112と、提示部114と、記憶部120とを備える。情報管理部104、情報処理部106、画像生成部108、音声解析部110、変換処理部112、および提示部114は、CPU(Central Processing Unit)等のハードウェアプロセッサが、記憶装置に記憶されたプログラムを実行することにより実現される。また、これらの機能部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、上記のプログラムは、予め記憶装置に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体が情報共有支援装置100のドライブ装置に装着されることで記憶装置にインストールされてもよい。
[Information sharing support device]
The information sharing support device 100 includes, for example, a communication unit 102, an information management unit 104, an information processing unit 106, an image generation unit 108, a voice analysis unit 110, a conversion processing unit 112, a presentation unit 114, and storage. A unit 120 is provided. In the information management unit 104, the information processing unit 106, the image generation unit 108, the voice analysis unit 110, the conversion processing unit 112, and the presentation unit 114, a hardware processor such as a CPU (Central Processing Unit) is stored in a storage device. It is realized by executing the program. Further, these functional units may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), etc. It may be realized by the collaboration of software and hardware. Further, the above program may be stored in a storage device in advance, or is stored in a removable storage medium such as a DVD or a CD-ROM, and the storage medium is attached to the drive device of the information sharing support device 100. It may be installed in the storage device by being installed.

記憶部120は、例えば、ROM(Read Only Memory)、フラッシュメモリ、SDカード、RAM(Random Access Memory)、HDD(Hard Disc Drive)、レジスタ等によって実現される。また、記憶部120は、NAS(Network Attached Storage)や外部ストレージサーバ装置等であってもよい。 The storage unit 120 is realized by, for example, a ROM (Read Only Memory), a flash memory, an SD card, a RAM (Random Access Memory), an HDD (Hard Disc Drive), a register, or the like. Further, the storage unit 120 may be NAS (Network Attached Storage), an external storage server device, or the like.

記憶部120には、例えば、参加者情報122、音声情報124、拡大情報126、テキスト情報128、およびキーワード情報130が記憶されている。 The storage unit 120 stores, for example, participant information 122, voice information 124, enlarged information 126, text information 128, and keyword information 130.

図2は、参加者情報122の内容の一例を示す図である。参加者情報122は、例えば、端末装置10の識別情報(例えばIPアドレス;以下、端末ID)と、ユーザの識別情報(以下、ユーザID)と、後述する付箋の識別情報(以下、付箋ID)とが互いにに対応付けられた情報である。 FIG. 2 is a diagram showing an example of the contents of the participant information 122. Participant information 122 is, for example, identification information of the terminal device 10 (for example, IP address; hereinafter, terminal ID), user identification information (hereinafter, user ID), and identification information of a sticky note (hereinafter, sticky note ID) described later. Is the information associated with each other.

通信部102は、ネットワークNWを介して、端末装置10と通信する。通信部102は、例えば、NIC(Network Interface Card)等の通信インターフェースを含む。 The communication unit 102 communicates with the terminal device 10 via the network NW. The communication unit 102 includes, for example, a communication interface such as a NIC (Network Interface Card).

情報管理部104は、通信部102の通信結果に基づいて、端末装置10により送信された情報を取得したり、取得した情報または自装置の処理結果を記憶部120に記憶させたりする。情報管理部104は、ユーザにより入力されたコメント情報や、ユーザが端末装置10のマイクに入力した音声情報を、端末装置10から取得する。 The information management unit 104 acquires the information transmitted by the terminal device 10 based on the communication result of the communication unit 102, and stores the acquired information or the processing result of the own device in the storage unit 120. The information management unit 104 acquires the comment information input by the user and the voice information input by the user into the microphone of the terminal device 10 from the terminal device 10.

情報処理部106は、情報管理部104により取得されたコメント情報を、コメントを発案したユーザのユーザIDまたは当該ユーザが使用する端末装置10の端末IDに対応付け、更にコメント情報を、指定されたタスクと項目とが対応付けられた区画に対応付けた情報を記憶部120に記憶させる。情報処理部106は、区画に対する着目度合を導出し、導出結果を記憶部120に記憶させる。 The information processing unit 106 associates the comment information acquired by the information management unit 104 with the user ID of the user who proposed the comment or the terminal ID of the terminal device 10 used by the user, and further specifies the comment information. The storage unit 120 stores the information associated with the section to which the task and the item are associated. The information processing unit 106 derives the degree of attention to the partition and stores the derivation result in the storage unit 120.

画像生成部108は、情報管理部104により取得されたコメント情報に基づく各種画像を生成する。詳しくは、後述する。 The image generation unit 108 generates various images based on the comment information acquired by the information management unit 104. Details will be described later.

音声解析部110は、情報管理部104により取得された音声情報に基づいて、ユーザごとの音声を認識する。 The voice analysis unit 110 recognizes the voice of each user based on the voice information acquired by the information management unit 104.

変換処理部112は、音声解析部110により認識された音声をテキスト化し、テキスト化したテキストと、テキストに対応する音声を発したユーザとを互いに対応付けたテキスト情報128を生成する。 The conversion processing unit 112 converts the voice recognized by the voice analysis unit 110 into text, and generates text information 128 in which the text and the user who has emitted the voice corresponding to the text are associated with each other.

提示部114は、画像生成部108により生成された画像をユーザに提示する。提示部114は、情報管理部104により取得された音声情報と、区画とを関連付けて、ユーザに提示する。 The presentation unit 114 presents the image generated by the image generation unit 108 to the user. The presentation unit 114 associates the voice information acquired by the information management unit 104 with the section and presents it to the user.

[タスクおよび振り返り項目を設定する処理]
情報共有支援装置100が、端末装置10に提供するウエブページの一例について説明する。例えば、情報共有支援装置100は、図3に示す画像IM1を端末装置10−1および10−2に提供する。画像IM1は、例えば、端末装置10の表示部に表示された付箋領域T1および送信ボタンB1を含む。
[Process for setting tasks and review items]
An example of a web page provided by the information sharing support device 100 to the terminal device 10 will be described. For example, the information sharing support device 100 provides the image IM1 shown in FIG. 3 to the terminal devices 10-1 and 10-2. The image IM1 includes, for example, a sticky note area T1 and a transmission button B1 displayed on the display unit of the terminal device 10.

付箋領域T1は、ユーザがリフレクションのテーマについて語り合いするための情報を入力する領域である。例えば、付箋領域T1には、テーマ(例えばプロジェクト)において「実施したこと」が入力される。ユーザが送信ボタンB1を操作すると、付箋領域T1に入力された情報が情報共有支援装置100に送信される。情報共有支援装置100の情報処理部106は、各端末装置10により送信された付箋領域T1に入力された情報を取得し、取得した付箋領域T1に入力された情報と、付箋IDと、端末装置10の識別情報(またはユーザの識別情報)とを互いに対応付けて記憶部120に記憶させる。 The sticky note area T1 is an area for inputting information for the user to discuss the theme of reflection. For example, in the sticky note area T1, "what has been done" in the theme (for example, a project) is input. When the user operates the transmission button B1, the information input in the sticky note area T1 is transmitted to the information sharing support device 100. The information processing unit 106 of the information sharing support device 100 acquires the information input to the sticker area T1 transmitted by each terminal device 10, the information input to the acquired sticker area T1, the sticker ID, and the terminal device. The identification information (or the user's identification information) of 10 is associated with each other and stored in the storage unit 120.

上記のように、「実施したこと」が入力されると、情報共有支援装置100の提示部114は、端末装置10の依頼に応じて、図4に示す画像IM2を各端末装置10に提供する。画像IM2は、例えば、マトリックス状の表(以下、リフレクション図)が含まれる。リフレクション図は、テーマに関してリフレクションするためのマトリクスである。例えば、リフレクション図の、縦軸は振り返り項目1〜4で構成され、横軸はタスクの内容が表示されるタスク1〜4で構成される。 As described above, when "what has been done" is input, the presentation unit 114 of the information sharing support device 100 provides the image IM2 shown in FIG. 4 to each terminal device 10 in response to the request of the terminal device 10. .. The image IM2 includes, for example, a matrix-like table (hereinafter referred to as a reflection diagram). A reflection diagram is a matrix for reflection on a theme. For example, in the reflection diagram, the vertical axis is composed of review items 1 to 4, and the horizontal axis is composed of tasks 1 to 4 in which the contents of the task are displayed.

振り返り項目に対応する領域のそれぞれには、振り返り項目を入力する入力領域が設けられている。例えば、入力領域AR11をユーザが操作すると、プルダウンメニューが表示され、ユーザはプルダウンメニューから振り返り項目を選択することで入力領域AR11に振り返り項目を設定することができる。なお、振り返り項目は、手動で入力されてもよいし、予め設定されていてもよい。 Each of the areas corresponding to the retrospective items is provided with an input area for inputting the retrospective items. For example, when the user operates the input area AR11, a pull-down menu is displayed, and the user can set a retrospective item in the input area AR11 by selecting a retrospective item from the pull-down menu. The retrospective items may be manually input or may be preset.

タスクに対応する領域のそれぞれには、タスクを入力する入力領域AR12が設けられている。例えば、入力領域AR12をユーザが操作すると、プルダウンメニューが表示され、ユーザはプルダウンメニューからタスクを選択することで入力領域AR12にタスクを設定することができる。 Each of the areas corresponding to the task is provided with an input area AR12 for inputting the task. For example, when the user operates the input area AR12, a pull-down menu is displayed, and the user can set a task in the input area AR12 by selecting a task from the pull-down menu.

プルダウンメニューによって表示されるタスクは、例えば、付箋領域T1に入力され、端末装置10によって情報共有支援装置100に送信された内容である。例えば、ユーザは、語り合いをしながら、タスクが時系列に並ぶようにタスクを選択したり、重要度の高いタスクを選択したりすることができる。また、画像IM2において、ユーザが所定の操作または不図示のボタンを操作すると、付箋領域T1に入力された情報が一覧となって表示されてもよい。なお、タスクは、手動で入力されてもよい。 The task displayed by the pull-down menu is, for example, the content input to the sticky note area T1 and transmitted to the information sharing support device 100 by the terminal device 10. For example, the user can select tasks so that the tasks are arranged in chronological order, or select tasks of high importance while talking. Further, in the image IM2, when the user operates a predetermined operation or a button (not shown), the information input to the sticky note area T1 may be displayed as a list. The task may be manually entered.

上記のような処理が行われ、振り返り項目およびタスクが設定される。図5は、振り返り項目およびタクスが設定されたリフレクション図を含む画像IM3の一例を示す図である。 The above processing is performed, and the reflection items and tasks are set. FIG. 5 is a diagram showing an example of an image IM3 including a reflection diagram in which a retrospective item and a tax are set.

(シーケンス(その1))
図6は、リフレクション支援システム1により実行されるタスクおよび振り返り項目を設定する処理の流れを示すシーケンス図である。以下の説明では、端末装置10−1、10−2、および情報共有支援装置100の処理を中心に説明する。
(Sequence (1))
FIG. 6 is a sequence diagram showing a flow of a process for setting a task executed by the reflection support system 1 and a reflection item. In the following description, the processing of the terminal devices 10-1, 10-2, and the information sharing support device 100 will be mainly described.

まず、端末装置10−1および10−2が、情報共有支援装置100にアクセスし、ログインのための情報を入力すると(S10、S12)、情報共有支援装置100の情報処理部106が、端末装置10により入力された情報と、予め記憶部120に登録された情報とに基づいて認証処理を行う。そして、認証が成立すると、情報共有支援装置100は、端末装置10−1および10−2に前述した図3に示したようなウエブページを提供する(S14、S16)。 First, when the terminal devices 10-1 and 10-2 access the information sharing support device 100 and input information for login (S10, S12), the information processing unit 106 of the information sharing support device 100 causes the terminal device. The authentication process is performed based on the information input by 10 and the information registered in the storage unit 120 in advance. Then, when the authentication is established, the information sharing support device 100 provides the terminal devices 10-1 and 10-2 with a web page as shown in FIG. 3 described above (S14, S16).

次に、端末装置10−1が、例えば、マイクに入力された音声を音声情報として情報共有支援装置100に送信する(S18)。情報共有支援装置100の情報管理部104が、音声情報を取得する。情報処理部106が、音声情報を端末装置10の識別情報に対応付けて音声情報124として記憶部120に記憶させる(S20)。 Next, the terminal device 10-1 transmits, for example, the voice input to the microphone to the information sharing support device 100 as voice information (S18). The information management unit 104 of the information sharing support device 100 acquires voice information. The information processing unit 106 associates the voice information with the identification information of the terminal device 10 and stores it in the storage unit 120 as the voice information 124 (S20).

図7は、音声情報124の内容の一例を示す図である。音声情報124は、音声情報、端末装置の識別情報、およびユーザの識別情報が互いに対応付けられた情報である。 FIG. 7 is a diagram showing an example of the contents of the voice information 124. The voice information 124 is information in which voice information, terminal device identification information, and user identification information are associated with each other.

図6の説明に戻る。次に、提示部114が、端末装置10−1により送信された音声情報を、端末装置10−2に送信する(S22)。このように音声情報の送受信がされることにより、端末装置10を管理するユーザは会話をすることができる。 Returning to the description of FIG. Next, the presentation unit 114 transmits the voice information transmitted by the terminal device 10-1 to the terminal device 10-2 (S22). By transmitting and receiving voice information in this way, the user who manages the terminal device 10 can have a conversation.

次に、端末装置10−2が、図3に示した付箋を情報共有支援装置100に送信し(S24)、端末装置10−1が、付箋を情報共有支援装置100に送信する(S26)。情報共有支援装置100の情報処理部106は、S24、S26で送信された付箋の情報を端末装置10の識別情報に対応付けて記憶部120に記憶させる(S28)。 Next, the terminal device 10-2 transmits the sticky note shown in FIG. 3 to the information sharing support device 100 (S24), and the terminal device 10-1 transmits the sticky note to the information sharing support device 100 (S26). The information processing unit 106 of the information sharing support device 100 stores the sticky note information transmitted in S24 and S26 in the storage unit 120 in association with the identification information of the terminal device 10 (S28).

次に、端末装置10−2が、タスクを設定する操作を行う(S30)。次に、画像生成部108が、リフレクション図における振り返り項目に対してタスクを設定した画像を生成する(S32)。そして、提示部114が、画像生成部108により生成された画像を端末装置10−1、10−2に提示する(S34、S36)。 Next, the terminal device 10-2 performs an operation for setting a task (S30). Next, the image generation unit 108 generates an image in which a task is set for a reflection item in the reflection diagram (S32). Then, the presentation unit 114 presents the image generated by the image generation unit 108 to the terminal devices 10-1, 10-2 (S34, S36).

[付箋を貼付する処理]
図8は、端末装置10に提供されるウエブページを示す画像IM4の一例を示す図である。例えば、情報共有支援装置100は、図8に示す画像IM4を端末装置10−1および10−2に提供する。画像IM4は、例えば、端末装置10の表示部に表示された付箋領域T2、付箋を貼る位置を指定する指定ボタンB10、送信ボタンB11、およびリフレクション図に戻るための戻るボタンB12を含む。ユーザがリフレクション図に戻るボタンB12を操作すると、画像IM4が図5の画像IM3に示したような画像に遷移する。
[Process to attach sticky notes]
FIG. 8 is a diagram showing an example of an image IM4 showing a web page provided to the terminal device 10. For example, the information sharing support device 100 provides the image IM4 shown in FIG. 8 to the terminal devices 10-1 and 10-2. The image IM4 includes, for example, a sticky note area T2 displayed on the display unit of the terminal device 10, a designation button B10 for designating a position to attach the sticky note, a transmission button B11, and a return button B12 for returning to the reflection diagram. When the user operates the button B12 to return to the reflection diagram, the image IM4 transitions to the image as shown in the image IM3 of FIG.

付箋領域T2は、例えば、タスクに対する振り返り項目の内容が入力される。ユーザが指定ボタンB10を操作すると、振り返り項目とタスクの内容との組み合わせが表示される。ユーザが、組み合わせを指定すると、付箋領域T2に入力された情報が付箋として、リフレクション図において指定された組み合わせに対応する区画に対応付けられる。情報共有支援装置100の情報処理部106は、各端末装置10により送信された付箋領域T2に入力された情報を取得し、取得した付箋領域T2に入力された情報と、付箋IDと、端末装置10の識別情報と、指定された区画とを互いに対応付けて記憶部120に記憶させる。 In the sticky note area T2, for example, the content of a retrospective item for a task is input. When the user operates the designated button B10, the combination of the retrospective item and the task content is displayed. When the user specifies a combination, the information input to the sticky note area T2 is associated with the section corresponding to the combination specified in the reflection diagram as a sticky note. The information processing unit 106 of the information sharing support device 100 acquires the information input to the sticker area T2 transmitted by each terminal device 10, the information input to the acquired sticker area T2, the sticker ID, and the terminal device. The identification information of 10 and the designated section are associated with each other and stored in the storage unit 120.

図9は、付箋が対応付けられたリフレクション図の画像IM5の一例を示す図である。画像IM5において、ユーザが送信した付箋がリフレクション図に貼付される。図9の画像IM5は、各端末装置10において共有される。これにより、ユーザは、各ユーザの考えを認識することができる。画像IM5は、「第1画像」の一例である。 FIG. 9 is a diagram showing an example of the image IM5 of the reflection diagram to which the sticky note is associated. In the image IM5, the sticky note transmitted by the user is attached to the reflection diagram. The image IM5 of FIG. 9 is shared by each terminal device 10. This allows the user to recognize each user's ideas. The image IM5 is an example of the "first image".

また、例えば、付箋には、コメント情報を発案したユーザまたは当該ユーザの使用する端末装置を識別可能な情報が付与される。例えば、付箋は、ユーザの識別情報(または端末装置の識別情報)が付与されたり、ユーザの識別情報ごとに異なる明度や色彩で表示されたりしてもよい。また、付箋が操作された場合に、ユーザの識別情報が表示されてもよい。これにより、ユーザは、各ユーザの考え方をユーザごとに認識することができる。 Further, for example, the sticky note is provided with information that can identify the user who proposed the comment information or the terminal device used by the user. For example, the sticky note may be given user identification information (or terminal device identification information), or may be displayed with different brightness and color for each user identification information. Further, when the sticky note is operated, the user's identification information may be displayed. As a result, the user can recognize the idea of each user for each user.

(シーケンス(その2))
図10は、リフレクション支援システム1により実行される付箋を貼付する処理の流れを示すシーケンス図である。
(Sequence (2))
FIG. 10 is a sequence diagram showing a flow of a sticky note affixing process executed by the reflection support system 1.

まず、情報共有支援装置100の提示部114が、ウエブページを端末装置10−1および10−2に提供する(S100、S102)。次に、端末装置10−1が、提供されたウエブページに含まれる付箋に意見を入力し、意見を含む付箋とユーザの識別情報とを互いに対応付けた情報を情報共有支援装置100に送信する(S104)。次に、情報共有支援装置100の情報処理部106は、リフレクション図において、付箋を指定された区画に対応付けて記憶部120に記憶させる(S106)。また、端末装置10−2が、提供されたウエブページにおける付箋に意見を入力し、意見を含む付箋とユーザの識別情報とを互いに対応付けた情報を情報共有支援装置100に送信する(S108)。次に、情報共有支援装置100の情報処理部106は、リフレクション図において、付箋を指定された区画に対応付けて記憶部120に記憶させる(S110)。 First, the presentation unit 114 of the information sharing support device 100 provides a web page to the terminal devices 10-1 and 10-2 (S100, S102). Next, the terminal device 10-1 inputs an opinion into the sticky note included in the provided web page, and transmits information in which the sticky note including the opinion and the user's identification information are associated with each other to the information sharing support device 100. (S104). Next, the information processing unit 106 of the information sharing support device 100 stores the sticky note in the storage unit 120 in association with the designated section in the reflection diagram (S106). Further, the terminal device 10-2 inputs an opinion into the sticky note on the provided web page, and transmits information in which the sticky note including the opinion and the user's identification information are associated with each other to the information sharing support device 100 (S108). .. Next, the information processing unit 106 of the information sharing support device 100 stores the sticky note in the storage unit 120 in association with the designated section in the reflection diagram (S110).

次に、画像生成部108が、リフレクション図において、付箋を指定された区画に対応付けた画像を生成する(S112)。次に、提示部114が、画像生成部108により生成された画像を端末装置10−1、10−2に提示する(S114、S116)。なお、S112の処理は、S106の処理の直後に行われ、提示部114は、画像生成部108により生成された画像を端末装置10−1に送信してもよい。 Next, the image generation unit 108 generates an image in which the sticky note is associated with the designated section in the reflection diagram (S112). Next, the presentation unit 114 presents the image generated by the image generation unit 108 to the terminal devices 10-1, 10-2 (S114, S116). The processing of S112 is performed immediately after the processing of S106, and the presentation unit 114 may transmit the image generated by the image generation unit 108 to the terminal device 10-1.

[付箋をグループ化する処理]
図11は、付箋がグループ化された画像IM6の一例を示す図である。画像IM6には、リフレクション図に加え、更にグループ化ボタンB20、および階層図ボタンB21が含まれる。例えば、ユーザが、グループ化ボタンB20を操作して、グループ化したい付箋を選択すると、付箋はグループ化される。そして、グループ化された付箋は、他の付箋と識別可能な態様に変化する。また、グループ化は、複数の階層で行われてもよい。例えば、グループ化した付箋の中で、更に付箋はグループ化されてもよい。
[Process for grouping sticky notes]
FIG. 11 is a diagram showing an example of an image IM6 in which sticky notes are grouped. In addition to the reflection diagram, the image IM 6 further includes a grouping button B20 and a hierarchical diagram button B21. For example, when the user operates the grouping button B20 to select the sticky notes to be grouped, the sticky notes are grouped. Then, the grouped sticky notes are changed in a manner that can be distinguished from other sticky notes. Further, the grouping may be performed in a plurality of layers. For example, within the grouped sticky notes, the sticky notes may be further grouped.

また、区画に対して所定の操作が行われた場合に、操作が行われた区画に語り合いが終了したことを示す情報が対応付けられてもよい。 Further, when a predetermined operation is performed on the section, information indicating that the discussion is completed may be associated with the section on which the operation is performed.

上述したように、付箋がグループ化された後、階層図ボタンB21が操作されると、階層図が表示される。図12は、階層図を含む画像IM7の一例を示す図である。例えば、階層図において、タスクと振り返り項目ごとに、ユーザの見解がどのように推移しているかが表示される。例えば、第1階層において、ユーザA、Bの付箋がグループ化され、Cの付箋がグループ化されなかった場合、A、Bの見解がグループ化され、Cの見解とA、Bの見解とは枝分かれするようなアイコンを含む画像が生成される。例えば、第2階層において、ユーザAとユーザBとの付箋がグループ化されなかった場合、Aの見解とBの見解とは枝分かれするようなアイコンを含む画像が生成される。 As described above, when the hierarchy map button B21 is operated after the sticky notes are grouped, the hierarchy diagram is displayed. FIG. 12 is a diagram showing an example of an image IM7 including a hierarchical diagram. For example, in a hierarchical diagram, how the user's views are changing is displayed for each task and reflection item. For example, in the first layer, when the sticky notes of users A and B are grouped and the sticky notes of C are not grouped, the views of A and B are grouped, and the views of C and the views of A and B are. An image containing a branching icon is generated. For example, in the second layer, when the sticky notes of the user A and the user B are not grouped, an image including an icon that branches the views of A and B is generated.

上述したように、ユーザの見解がグループ化され、グループ化された見解が視認可能に端末装置10の表示部に表示される。この結果、ユーザは、語り合いの内容について理解を深めることができる。 As described above, the user's views are grouped, and the grouped views are visually displayed on the display unit of the terminal device 10. As a result, the user can deepen the understanding of the content of the discussion.

なお、ユーザの見解が階層化される処理は、音声解析処理やテキスト解析処理等によって行われてもよい。例えば、情報共有支援装置100は、ユーザの音声情報と、不図示の音声認識モデルと、不図示のテキスト認識モデルとに基づいて、ユーザの見解についてグループ化してもよい。例えば、音声解析部110が、音声をテキスト化するための音声認識モデル(不図示)を用いて、ユーザの音声情報をユーザに対応付けてテキスト化する。そして、変換処理部112が、テキスト化したテキストを、不図示のテキスト認識モデルを用いてグループ化する。テキスト認識モデルは、テキストの意味を解釈し、肯定的な発言であるか、否定的な発言であるかを識別するモデルである。例えば、ユーザAの発言の後に、ユーザBがAの発言を肯定するような発言をした場合、ユーザA、Bとの発言はグループ化される。 The process of layering the user's views may be performed by voice analysis process, text analysis process, or the like. For example, the information sharing support device 100 may group the user's views based on the user's voice information, a voice recognition model (not shown), and a text recognition model (not shown). For example, the voice analysis unit 110 associates the user's voice information with the user and converts it into text by using a voice recognition model (not shown) for converting the voice into text. Then, the conversion processing unit 112 groups the texts that have been converted into texts by using a text recognition model (not shown). The text recognition model is a model that interprets the meaning of text and discriminates whether it is a positive statement or a negative statement. For example, when the user B makes a statement that affirms the statement of the user A after the statement of the user A, the statements with the users A and B are grouped.

(シーケンス(その3))
図13は、リフレクション支援システム1により実行される見解が階層化される処理を示すシーケンス図である。
(Sequence (3))
FIG. 13 is a sequence diagram showing a process in which the views executed by the reflection support system 1 are layered.

まず、ユーザによって付箋が選択される操作が行われると、端末装置10−1は、操作に基づく情報を情報共有支援装置100に送信する(S200)。次に、情報共有支援装置100の情報処理部106は、操作に基づく情報を用いて付箋をグループ化し、グループ化した情報を記憶部120に記憶させる(S202)。次に、情報共有支援装置100の画像生成部108が、グループ化された付箋を含む画像を生成する(S204)。次に、提示部114が、生成された画像を端末装置10−1、および10−2に提供する(S206、S208)。 First, when an operation for selecting a sticky note is performed by the user, the terminal device 10-1 transmits information based on the operation to the information sharing support device 100 (S200). Next, the information processing unit 106 of the information sharing support device 100 groups the sticky notes using the information based on the operation, and stores the grouped information in the storage unit 120 (S202). Next, the image generation unit 108 of the information sharing support device 100 generates an image including the grouped sticky notes (S204). Next, the presentation unit 114 provides the generated images to the terminal devices 10-1 and 10-2 (S206, S208).

次に、端末装置10−1が、情報共有支援装置100に階層図の提供を要求する(S210)。次に、情報共有支援装置100の画像生成部108が、S202でグループ化した処理に基づいて、階層図を含む画像を生成する(S212)。次に、提示部114が、生成された階層図の画像を端末装置10に提供する(S214)。 Next, the terminal device 10-1 requests the information sharing support device 100 to provide a hierarchical diagram (S210). Next, the image generation unit 108 of the information sharing support device 100 generates an image including a hierarchical diagram based on the processing grouped in S202 (S212). Next, the presentation unit 114 provides the terminal device 10 with an image of the generated hierarchical diagram (S214).

[語り合い時間を視認化する処理]
図14は、リフレクション図の所定の領域が拡大表示された様子の一例を示す図である。ユーザが所定の操作を行うと、図14に示すようにリフレクション図の一部が拡大される。なお、例えば、振り返り項目3とタスク3とが対応付けられた区画を拡大する操作がされた場合、画像生成部108は、当該区画を拡大表示すると共に、当該区画に振り返り項目3のラベルとタスク3のラベルを対応付けた画像を生成する。例えば、図14の画像IM8の例では、領域AR21〜AR24のうち、領域AR22には振り返り項目3の内容が表示され、領域AR23にはタスク3の内容が表示され、領域AR24には当該区画のコメント情報が表示される。そして、提示部114が、生成された画像をユーザに提示する。
[Process to visualize the discussion time]
FIG. 14 is a diagram showing an example of a state in which a predetermined area of the reflection diagram is enlarged and displayed. When the user performs a predetermined operation, a part of the reflection diagram is enlarged as shown in FIG. For example, when the operation of enlarging the section in which the review item 3 and the task 3 are associated with each other is performed, the image generation unit 108 enlarges and displays the section and displays the label of the review item 3 and the task in the section. An image associated with the label of 3 is generated. For example, in the example of the image IM8 of FIG. 14, among the areas AR21 to AR24, the content of the retrospective item 3 is displayed in the area AR22, the content of the task 3 is displayed in the area AR23, and the area AR24 is the area of the relevant section. Comment information is displayed. Then, the presentation unit 114 presents the generated image to the user.

情報処理部106が、拡大されたタスクと振り返り項目とに対応する区画(フォーカス領域)、リフレクション図が拡大された時間、および指定された付箋IDが互いに対応付けられた拡大情報126として記憶部120に記憶させる。図15は、拡大情報126の内容の一例を示す図である。情報管理部104は、拡大情報126を参照して、所定の区画に対する語り合い時間を推定し、推定結果をユーザに提供する。例えば、情報処理部106は、フォーカス領域に対応付けられた時間を合計して語り合い時間(「着目度合」の一例)を推定する。着目度合は、ユーザによって拡大操作が行われた区画の着目度合は大きくなるように導出される。画像生成部108は、情報処理部106により推定された語り合い時間を含む画像を生成する。 The information processing unit 106 stores the division (focus area) corresponding to the enlarged task and the reflection item, the time when the reflection diagram is expanded, and the storage unit 120 as the enlarged information 126 in which the designated sticky note ID is associated with each other. To memorize. FIG. 15 is a diagram showing an example of the contents of the enlarged information 126. The information management unit 104 estimates the talk time for a predetermined section with reference to the enlarged information 126, and provides the estimation result to the user. For example, the information processing unit 106 totals the time associated with the focus area to estimate the talk time (an example of "degree of attention"). The degree of attention is derived so that the degree of attention of the section that has been expanded by the user becomes large. The image generation unit 108 generates an image including the talk time estimated by the information processing unit 106.

図16は、ユーザに提供される語り合い時間を含む画像IM9の一例を示す図である。画像IM9は、「第2画像」または「第3画像」の一例である。図16の各区画に含まれる四角柱は、その区画の振り返り項目とタスクとに対する語り合い時間(「着目度合」の一例)を示している。また、上記の区画における付箋の数は、その区画において対応付けられた付箋の数を示している。更に、画像IM9において、タスクと振り返り項目とに対する語り合いの合計時間が対応付けられている。上記の付箋の数、または合計時間は、「着目度合」の他の一例である。 FIG. 16 is a diagram showing an example of an image IM 9 including a talk time provided to a user. Image IM9 is an example of a "second image" or a "third image". The square pillar included in each section of FIG. 16 shows the discussion time (an example of "degree of attention") for the review item and the task of the section. Further, the number of sticky notes in the above section indicates the number of sticky notes associated with the section. Further, in the image IM9, the total time of the discussion between the task and the retrospective item is associated. The number of sticky notes or the total time mentioned above is another example of "degree of attention".

例えば、情報処理部106は、タスクごとの語り合い時間を合計する。画像生成部108は、合計した語り合い時間を含む画像IM9を生成する。また、情報処理部106は、タスクごとに代えて(或いは加えて)、振り返り項目ごとに語り合い時間を合計してもよい。例えば、情報処理部106は、区画に対応付けられたタスクと振り返り項目とのうち、タスク間(第1ラベル)に所定の共通性が存在する場合に、振り返り項目(第2ラベル)が共通する区画ごとの着目度合を集計する。そして、画像生成部108は、集計された値に基づく画像IM9#を生成する。図17は、画像IM9#の一例を示す図である。画像IM9#は、「第4画像」または「第3画像」の一例である。また、情報処理部106は、タスク間に共通性が存在しない場合に、タスクが共通する区画ごとの着目度合を集計する。 For example, the information processing unit 106 totals the discussion time for each task. The image generation unit 108 generates an image IM9 including the total talk time. Further, the information processing unit 106 may add up the discussion time for each review item instead of (or in addition to) each task. For example, the information processing unit 106 has a common review item (second label) when there is a predetermined commonality between the tasks (first label) among the task and the review item associated with the section. Aggregate the degree of attention for each section. Then, the image generation unit 108 generates the image IM9 # based on the aggregated values. FIG. 17 is a diagram showing an example of the image IM9 #. Image IM9 # is an example of a "fourth image" or a "third image". Further, the information processing unit 106 aggregates the degree of attention for each section in which the tasks are common when there is no commonality between the tasks.

「タスク間に所定の共通性が存在する」とは、タスクの内容に共通する単語が存在するタスクや、予め設定された単語やセンテンスが存在するタスクである。例えば、ウエブページの画面デザインがテーマとされた場合において、タスクの内容が「ラフスケッチのデザイン」、「プロトタイプのデザイン」、「完成版のデザイン」などが、共通性が存在するタスクの一例である。また、タスクの内容が「トップ画面のデザイン」、「第1サブ画面のデザイン」、「第2サブ画面のデザイン」などが、共通性が存在するタスクの一例である。なお、タスクごとに語り合い時間を算出するか、振り返り項目ごとに語り合い時間を算出するかを切り替えるためのボタンが画像IM9、または画像IM9#に含まれてもよい。 "There is a predetermined commonality between tasks" is a task in which a word common to the contents of the task exists, or a task in which a preset word or sentence exists. For example, when the theme is screen design of a web page, the tasks such as "rough sketch design", "prototype design", and "finished version design" are examples of tasks that have commonality. be. Further, the tasks such as "top screen design", "first sub screen design", and "second sub screen design" are examples of tasks having commonality. The image IM9 or the image IM9 # may include a button for switching between calculating the discussion time for each task and calculating the discussion time for each reflection item.

また、語り合いの合計時間に加え、後述する音声解析により抽出されたキーワードが区画やタスク、振り返り項目に付けられてもよい。また、図16または図17において、所定の区画に対して、ユーザが所定の操作を行うと、画像は、操作された区画を中心とした図14に示したような拡大図に遷移する。 Further, in addition to the total time of discussion, keywords extracted by voice analysis described later may be added to sections, tasks, and retrospective items. Further, in FIG. 16 or FIG. 17, when the user performs a predetermined operation on the predetermined section, the image transitions to an enlarged view as shown in FIG. 14 centering on the operated section.

上述したように、区画ごとの語り合い時間がユーザに視認可能に提供される。この結果、ユーザは、テーマにおいて語り合い時間が長かった項目やタスク等を容易に認識することができる。 As described above, the talk time for each section is visually provided to the user. As a result, the user can easily recognize items, tasks, and the like that have a long discussion time in the theme.

なお、情報処理部106は、区画に対応けられた付箋(コメント情報)がユーザによって参照された度合に基づいて、着目度合を導出してもよい。例えば、ユーザが、所定の付箋を指定(或いは指示)するような操作や拡大する操作を行っている時間を算出する。そして、情報処理部106は、操作を行っている時間が長いほど、その操作対象の付箋が対応付けられた区画の着目度合を大きい傾向で導出する。 The information processing unit 106 may derive the degree of attention based on the degree to which the sticky note (comment information) corresponding to the section is referred to by the user. For example, the time during which the user performs an operation such as designating (or instructing) a predetermined sticky note or an operation for expanding the sticky note is calculated. Then, the information processing unit 106 derives the degree of attention of the section to which the sticky note of the operation target is associated with a larger tendency as the operation time is longer.

また、ユーザが所定の操作を行うと、図18に示すように時間ごとの、区画と区画に含まれる指定された付箋IDとの対応関係を示す画像IM10がユーザに提供される。この画像は、画像生成部108により生成された画像であり、「音声のタイムテーブルと、区画とを関連付けた第5画像」の一例である。 Further, when the user performs a predetermined operation, as shown in FIG. 18, an image IM10 showing the correspondence relationship between the section and the designated sticky note ID included in the section is provided to the user for each hour. This image is an image generated by the image generation unit 108, and is an example of "a fifth image in which a voice timetable and a section are associated".

これにより、選択された付箋について語り合いされた時間が、ユーザにとって視認可能となる。例えば、ユーザが、所定の付箋IDの語り合いについて、音声を取得したい場合、付箋IDに対応付けられた時間に対応する音声を取得することにより、容易に付箋に対する語り合いの音声を取得することができる。 This makes the time spent talking about the selected sticky note visible to the user. For example, when the user wants to acquire the voice of the conversation of the predetermined sticky note ID, the voice of the conversation with the sticky note can be easily acquired by acquiring the voice corresponding to the time associated with the sticky note ID. ..

[シーケンス(その4)]
図19は、リフレクション支援システム1により実行される着目された付箋と、着目時間とが対応付けられる処理を示すシーケンス図である。
[Sequence (4)]
FIG. 19 is a sequence diagram showing a process in which the attention sticky note executed by the reflection support system 1 and the attention time are associated with each other.

まず、端末装置10が、所定の領域を拡大して表示することを指示する情報を情報共有支援装置100に送信する(S300)。次に、情報共有支援装置100の提示部114が、端末装置10により提供された指示に基づいて、画像生成部108により生成された所定の領域を拡大した画像を端末装置10に送信する(S302、S304)。次に、情報処理部106が、拡大した画像の領域と時間とを互いに対応付けて記憶部120に記憶させる(S306)。 First, the terminal device 10 transmits information instructing the information sharing support device 100 to enlarge and display a predetermined area (S300). Next, the presentation unit 114 of the information sharing support device 100 transmits an enlarged image of a predetermined area generated by the image generation unit 108 to the terminal device 10 based on the instruction provided by the terminal device 10 (S302. , S304). Next, the information processing unit 106 stores the enlarged image area and the time in the storage unit 120 in association with each other (S306).

次に、所定の領域が拡大された画像が端末装置10の表示部に表示された状態で、ユーザが付箋を選択すると、端末装置10は、選択した付箋の情報を情報共有支援装置100に送信する(S308)。次に、情報処理部106が、選択された付箋と、時間とを互いに対応付けて記憶部120に記憶させる(S310)。次に、画像生成部108が、選択された付箋と、選択されていない付箋とを識別可能に表した画像を生成する。そして、提示部114が、画像生成部108により生成された画像を端末装置10に提供する(S312、S314)。 Next, when the user selects a sticky note while the image in which the predetermined area is enlarged is displayed on the display unit of the terminal device 10, the terminal device 10 transmits the information of the selected sticky note to the information sharing support device 100. (S308). Next, the information processing unit 106 stores the selected sticky note and the time in the storage unit 120 in association with each other (S310). Next, the image generation unit 108 generates an image in which the selected sticky note and the non-selected sticky note are identifiable. Then, the presentation unit 114 provides the terminal device 10 with the image generated by the image generation unit 108 (S312, S314).

[音声解析]
情報共有支援装置100の音声解析部110は、音声を解析して、頻出する単語であるキーワードを抽出してもよい。音声解析部110は、例えば、所定時間以内において、所定回数以上、出現した単語やセンテンスであり、且つ予め設定された単語やセンテンスとは異なる単語やセンテンスをキーワードとして抽出し、抽出したキーワードをキーワード情報130として記憶部120に記憶させる。予め設定された単語やセンテンスとは、日常の会話において一般的に使用される単語やセンテンスである。
[Voice analysis]
The voice analysis unit 110 of the information sharing support device 100 may analyze the voice and extract keywords that are frequently used words. The speech analysis unit 110 extracts, for example, a word or sentence that appears more than a predetermined number of times within a predetermined time and is different from a preset word or sentence as a keyword, and uses the extracted keyword as a keyword. It is stored in the storage unit 120 as information 130. The preset words and sentences are words and sentences commonly used in daily conversation.

図20は、キーワード情報130の内容の一例を示す図である。キーワード情報130は、抽出されたキーワードと、キーワードが抽出された区画と、キーワードが出現した時間とが互いに対応付けられた情報である。 FIG. 20 is a diagram showing an example of the contents of the keyword information 130. The keyword information 130 is information in which the extracted keyword, the section from which the keyword is extracted, and the time when the keyword appears are associated with each other.

例えば、提示部114は、ユーザからの要求に応じて、キーワード情報130を参照し、キーワード、キーワードが出現した区画、および出現時間を互いに対応付けた情報をユーザに提供する。これにより、語り合いにおけるキーワード、およびキーワードに関連する情報がユーザに視認可能に提供されるため、より語り合いの内容を容易に認識することができる。 For example, the presentation unit 114 refers to the keyword information 130 in response to a request from the user, and provides the user with information in which the keyword, the section in which the keyword appears, and the appearance time are associated with each other. As a result, the keyword in the discussion and the information related to the keyword are visually provided to the user, so that the content of the discussion can be more easily recognized.

図21は、画像生成部108により生成される「まとめ」画像の一例を示す図である。「まとめ」画像は、上述した処理結果が対応付けられた情報およびノウハウ入力画面IM12を含むものである。「まとめ」画像は、例えば、ユーザが所定の操作を行うことでユーザに提示される。例えば、「まとめ」画像は、上記の図18に示した画像に加え、リフレクション図を開くためのボタンB30、タスクおよび項目に対応付けられた音声に対応するテキストを開くボタンB31、ノウハウをメンバーに送信するボタンB32が含まれる。 FIG. 21 is a diagram showing an example of a “summary” image generated by the image generation unit 108. The "summary" image includes the information associated with the above-mentioned processing result and the know-how input screen IM12. The "summary" image is presented to the user, for example, by performing a predetermined operation by the user. For example, in the "summary" image, in addition to the image shown in FIG. 18, the button B30 for opening the reflection diagram, the button B31 for opening the text corresponding to the voice associated with the task and the item, and the know-how are used as members. The button B32 to transmit is included.

例えば、ボタンB30が操作されると、上記の図9等に示したリフレクション図が端末装置10の表示部に表示される。ボタンB31が操作されると、タクスと項目とに応じた音声に対応するテキストおよびキーワードを含むが画像IM13が表示される。この画像IM13において、テキストに対して、発言者を識別するための情報や、発言がされた時間、発言時に選択されていていた付箋ID等が対応付けられる。画像IM11または画像IM13は、「音声情報に基づく情報と、区画と、区画に対応付けられたコメントに関する情報とを互いに対応付けた第6画像」である。「まとめ」画像、または後述する画像IM13は、「解析部により解析された情報」の一例である。 For example, when the button B30 is operated, the reflection diagram shown in FIG. 9 or the like is displayed on the display unit of the terminal device 10. When the button B31 is operated, the image IM13 including the text and the keyword corresponding to the voice corresponding to the tax and the item is displayed. In the image IM 13, information for identifying the speaker, the time when the speaker was made, the sticky note ID selected at the time of the speech, and the like are associated with the text. The image IM 11 or the image IM 13 is a "sixth image in which information based on voice information, a section, and information about a comment associated with the section are associated with each other". The “summary” image or the image IM13 described later is an example of “information analyzed by the analysis unit”.

例えば、ユーザは、リフレクション図や、音声に対応するテキスト、キーワード等を参照しながら、ノウハウ入力画像IM13にノウハウを入力することで、ノウハウを蓄積する。例えば、場面(例えばタスク)ごとに、やること、心構え、動機などを入力して、ノウハウをまとめる。 For example, the user accumulates know-how by inputting the know-how into the know-how input image IM13 while referring to the reflection diagram, the text corresponding to the voice, the keyword, and the like. For example, input what to do, attitude, motive, etc. for each scene (for example, task) and summarize the know-how.

また、ノウハウ入力画像IM13の付箋の選択ボタンB40、B41、またはB42が操作されると、入力内容に対応付ける付箋の一覧(例えば付箋が対応付けられたリフレクション図)が表示部に表示される。ユーザが、付箋の一覧の中から付箋を選択すると、画像生成部108が、付箋の情報を入力内容に対応付けた画像や、付箋の内容を示す画像のリンクを入力内容に対応付けた画像を生成する。そして、ユーザが、ノウハウをまとめた後に、ボタンB32を操作すると、予め設定されたユーザの端末装置10に、まとめられたノウハウが送信される。 Further, when the sticky note selection buttons B40, B41, or B42 of the know-how input image IM13 are operated, a list of sticky notes associated with the input contents (for example, a reflection diagram associated with the sticky notes) is displayed on the display unit. When the user selects a sticky note from the list of sticky notes, the image generation unit 108 creates an image in which the sticky note information is associated with the input content or an image in which the link of the image indicating the sticky note is associated with the input content. Generate. Then, when the user operates the button B32 after collecting the know-how, the collected know-how is transmitted to the user's terminal device 10 set in advance.

このように、語り合いの各内容が関連付けられると共に可視化されるため、ユーザは、語り合いから得られるノウハウを容易にまとめたり、まとめた情報をユーザ間で共有したりすることができる。 In this way, since each content of the discussion is associated and visualized, the user can easily summarize the know-how obtained from the discussion and share the summarized information among the users.

[具体例]
以下、「プロジェクトに関するリフレクション」の実施内容について説明する。
実施タイミング;月1回程度、またはプロジェクトの進行上、切りのよいタイミングで行われる。
参加メンバー;振り返る範囲に関わっていたメンバー
[Concrete example]
The contents of "reflection on the project" will be described below.
Implementation timing: It is implemented about once a month, or at a good timing due to the progress of the project.
Participating members; members who were involved in the scope of looking back

(STEP1)事前準備
時間;30分
参加メンバー;プロジェクトの主要メンバー数人
用意するもの;リフレクション支援システム1(または情報共有支援装置100)、実施したことを思い出せる資料
やること;実施したことをリフレクション支援システムに提供される付箋に入力する。
(STEP1) Preparation time; 30 minutes Participating members; Several main members of the project Prepared; Reflection support system 1 (or information sharing support device 100), materials that remind you of what you have done; Reflection support for what you have done Fill in the sticky notes provided to the system.

(STEP2)リフレクションミーティング
時間;60〜90分
参加メンバー;チームメンバー(関係者なるべく全員)
用意するもの;リフレクション支援システム1(または情報共有支援装置100)、実施したことを思い出せる資料、その他資料
やること;タスクを実施したときに感じたことをリフレクション支援システム1に提供される付箋に入力する。また、タスクを実施したときに感じたことをメンバーで語り合いながら振り返る。
(STEP2) Reflective meeting time; 60-90 minutes Participating members; Team members (preferably all involved)
What to prepare; Reflection support system 1 (or information sharing support device 100), materials that remind you of what you have done, and other materials to do; Enter what you felt when you performed the task on the sticky note provided to reflection support system 1. do. Also, look back on what you felt when you performed the task while discussing with the members.

ミーティングを開始する前に、場のセッティングを行う。例えば、実施しことの手順、および振り返る範囲において実施したことを思い出せる資料をユーザが視認可能な状態する。また、ユーザの役割を決定する。例えば振り返りの司会進行を行う進行役、積極的にメンバーに質問する質問役、発言者の発言をメモや入力する記録役を決定する。 Set up the venue before starting the meeting. For example, the procedure of the implementation and the material that reminds the user of the implementation in the range of looking back are visible to the user. It also determines the role of the user. For example, a facilitator who conducts a retrospective moderator, a questioner who actively asks questions to members, and a recorder who notes and inputs the speaker's remarks are determined.

語り合いにおいて、振り返り項目に対して、例えば(1)〜(4)のような観点で質問をする。(1)「〇〇って具体的にはどんな感じだったのですか?」と質問し、具体的な中身を聞いて詳細を深堀する。(2)「○○はどういう風にやったのですか?」と質問し、詳細なやり方を聞く。(3)「なぜ○○を行ったのですか?」と質問し、実施した理由を聞く。(4)「〇〇さんはどうでしたか?」と質問し、同じ話題を発言の少ないメンバーにも聞く。上記のような語り合いの中で出た意見を、情報共有支援装置100に入力し、リフレクション図を作成したり、考察したりする。 In the discussion, ask questions about the retrospective items from the viewpoints of (1) to (4), for example. (1) Ask the question, "What exactly was XX like?", Ask the specific contents, and dig deeper into the details. (2) Ask "How did you do XX?" And ask how to do it in detail. (3) Ask "Why did you do XX?" And ask why you did it. (4) Ask "How was Mr. XX?" And ask the members who have few remarks about the same topic. The opinions expressed in the above discussion are input to the information sharing support device 100 to create and consider a reflection diagram.

(STEP3)ノウハウのまとめ
まとめ役のメンバーは、上述した図20に示した画像等を用いて、ノウハウをまとめる。そして、まとめられたノウハウはメンバー間で共有される。このようにノウハウなどの知性が共有される。
(STEP3) Summary of know-how The members of the coordinator summarize the know-how using the images and the like shown in FIG. 20 described above. And the summarized know-how is shared among the members. In this way, intelligence such as know-how is shared.

[変形例]
図22は、変形例のリフレクション支援システム1Aの構成図である。リフレクション支援システム1Aは、例えば、一以上の端末装置10と、情報共有支援装置100と、通話サーバ200とを備える。
[Modification example]
FIG. 22 is a configuration diagram of the reflection support system 1A of the modified example. The reflection support system 1A includes, for example, one or more terminal devices 10, an information sharing support device 100, and a call server 200.

通話サーバ200は、ユーザが端末装置10に入力した音声である音声情報を取得し、他の端末装置10、および情報共有支援装置100に取得した音声情報を送信する。通話サーバ200は、遠隔地の端末装置10間で会議や通話を行うためのシステムである。情報共有支援装置100は、通話サーバ200から取得した音声情報を解析する。例えば、記憶部120には、予めユーザの音声情報から抽出した音声の特徴量が、ユーザに対して対応付けられた特徴情報が記憶されている。音声の特徴量とは、声の周波数スペクトルに基づいて導出された指標である。音声解析部110は、上述した特徴情報を参照して、発話したユーザを特定する。 The call server 200 acquires voice information that is voice input to the terminal device 10 by the user, and transmits the voice information acquired to the other terminal device 10 and the information sharing support device 100. The call server 200 is a system for conducting a conference or a call between the terminal devices 10 at a remote location. The information sharing support device 100 analyzes the voice information acquired from the call server 200. For example, the storage unit 120 stores the feature information in which the feature amount of the voice extracted from the voice information of the user in advance is associated with the user. The voice feature quantity is an index derived based on the frequency spectrum of voice. The voice analysis unit 110 refers to the above-mentioned feature information to identify the user who has spoken.

なお、複数の端末装置10は、通話サーバ200または情報共有支援装置100を介さずに直接的に通信し、音声情報を送受信してもよい。 The plurality of terminal devices 10 may directly communicate with each other without going through the call server 200 or the information sharing support device 100, and may transmit and receive voice information.

以上説明した実施形態によれば、情報共有支援装置100は、ユーザにより入力されたコメント情報を取得する情報管理部104と、情報管理部104により取得されたコメント情報を、予め設定された区画に対応付けた第1画像を生成する画像生成部108と、区画ごとのユーザによる着目度合を導出する情報処理部106とを備え、画像生成部108は、着目度合を反映させた第2画像を生成し、画像生成部108により生成された画像をユーザに提示する提示部114を更に備えることにより、複数のユーザで有益な情報を共有することができる。 According to the embodiment described above, the information sharing support device 100 puts the information management unit 104 that acquires the comment information input by the user and the comment information acquired by the information management unit 104 into a preset section. An image generation unit 108 that generates the associated first image and an information processing unit 106 that derives the degree of attention by the user for each section are provided, and the image generation unit 108 generates a second image that reflects the degree of attention. Further, by further providing a presentation unit 114 that presents the image generated by the image generation unit 108 to the user, useful information can be shared by a plurality of users.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

1、1A‥リフレクション支援システム、10‥端末装置、100‥情報共有支援装置、102‥通信部、104‥情報管理部、106‥情報処理部、108‥画像生成部、110‥音声解析部、112‥変換処理部、114‥提示部、120‥記憶部、122‥参加者情報、124‥音声情報、126‥拡大情報、128‥テキスト情報、130‥キーワード情報 1, 1A: Reflection support system, 10: Terminal device, 100: Information sharing support device, 102: Communication unit, 104: Information management unit, 106: Information processing unit, 108: Image generation unit, 110: Voice analysis unit, 112 Conversion processing unit, 114 presentation unit, 120 storage unit, 122 participant information, 124 voice information, 126 enlarged information, 128 text information, 130 keyword information

Claims (15)

ユーザにより入力されたコメント情報が予め設定された区画に対するコメントであることを視認者が認識可能なように前記入力されたコメント情報を前記区画に対応付けた第1画像を生成する画像生成部と、
前記画像生成部により生成された第1画像を少なくともユーザに提示する提示部と、
を備える情報共有支援装置。
An image generation unit that generates a first image in which the input comment information is associated with the section so that the viewer can recognize that the comment information input by the user is a comment for a preset section. ,
A presenting unit that presents at least the first image generated by the image generating unit to the user, and a presenting unit.
Information sharing support device equipped with.
前記画像生成部は、前記ユーザが入力したコメント情報と前記ユーザが指定した区画とが対応付けられた情報に基づいて、前記コメント情報を複数の区画の中から前記指定された区画に対応付けた第1画像を生成する、
請求項1に記載の情報共有支援装置。
The image generation unit associates the comment information with the designated section from among a plurality of sections based on the information in which the comment information input by the user and the section designated by the user are associated with each other. Generate the first image,
The information sharing support device according to claim 1.
前記複数の区画のそれぞれは、少なくとも、第1ラベルと第2ラベルの二軸で区分されている、
請求項2に記載の情報共有支援装置。
Each of the plurality of sections is divided by at least two axes, the first label and the second label.
The information sharing support device according to claim 2.
前記複数の区分の一部は、前記第1ラベルの項目が共通し、
前記一部とは異なる前記複数の区分の一部は、前記第2ラベルの項目が共通する、
請求項3に記載の情報共有支援装置。
The items of the first label are common to some of the plurality of categories, and the items of the first label are common.
The items of the second label are common to some of the plurality of categories different from the above.
The information sharing support device according to claim 3.
前記画像生成部は、前記区画ごとのユーザによる着目度合を反映させた第2画像を生成し、
前記提示部は、前記画像生成部により生成された第2画像をユーザに提示する、
請求項1から4のうちいずれか1項に記載の情報共有支援装置。
The image generation unit generates a second image that reflects the degree of attention of the user for each section.
The presenting unit presents the second image generated by the image generation unit to the user.
The information sharing support device according to any one of claims 1 to 4.
前記区画に対応けられた前記コメント情報がユーザによって参照された度合に基づいて、前記着目度合を導出する処理部を更に備える、
請求項5に記載の情報共有支援装置。
Further provided with a processing unit for deriving the degree of attention based on the degree to which the comment information corresponding to the section is referred to by the user.
The information sharing support device according to claim 5.
前記第1画像において、ユーザによって拡大操作が行われた区画の着目度合を大きくする処理部を更に備える、
請求項5または6に記載の情報共有支援装置。
The first image further includes a processing unit that increases the degree of attention of the section that has been enlarged by the user.
The information sharing support device according to claim 5 or 6.
前記画像生成部は、前記区画に対応付けたコメント情報に対して、前記コメント情報を発案したユーザまたは当該ユーザの使用する端末装置を識別可能な情報を付与する、
請求項5から7のうちいずれか1項に記載の情報共有支援装置。
The image generation unit adds information that can identify the user who proposed the comment information or the terminal device used by the user to the comment information associated with the section.
The information sharing support device according to any one of claims 5 to 7.
前記区画に付与されたラベルが共通する区画ごとの着目度合を集計する処理部を備え、
前記画像生成部は、前記集計された値に基づく第3画像を生成する、
請求項5から8のうちいずれか1項に記載の情報共有支援装置。
It is equipped with a processing unit that aggregates the degree of attention for each section that has a common label attached to the section.
The image generation unit generates a third image based on the aggregated values.
The information sharing support device according to any one of claims 5 to 8.
前記区画は、少なくとも、第1ラベルと第2ラベルの二軸で区分され、
前記第1ラベル間に所定の共通性が存在する場合に、前記第2ラベルが共通する区画の着目度合を集計し、
前記第1ラベル間に所定の共通性が存在しない場合に、前記第1ラベルが共通する区画の着目度合を集計する処理部を備え、
前記画像生成部は、前記集計された値に基づく第4画像を生成する、
請求項5から9のうちいずれか1項に記載の情報共有支援装置。
The section is divided into at least two axes, a first label and a second label.
When a predetermined commonality exists between the first labels, the degree of attention of the sections common to the second labels is totaled.
When there is no predetermined commonality between the first labels, a processing unit for totaling the degree of attention of the sections common to the first labels is provided.
The image generation unit generates a fourth image based on the aggregated values.
The information sharing support device according to any one of claims 5 to 9.
前記画像生成部は、ユーザにより入力された音声である音声情報のタイムテーブルと、前記区画とを関連付けた第5画像を生成し、
前記提示部は、前記画像生成部により生成された第5画像をユーザに提示する、
請求項5から10のうちいずれか1項に記載の情報共有支援装置。
The image generation unit generates a fifth image in which the timetable of voice information, which is the voice input by the user, is associated with the section.
The presenting unit presents the fifth image generated by the image generation unit to the user.
The information sharing support device according to any one of claims 5 to 10.
前記画像生成部は、ユーザにより入力された音声である音声情報に基づく情報と、前記区画と、前記区画に対応付けられたコメント情報に関する情報とを対応付けた第6画像を生成し、
前記提示部は、前記画像生成部により生成された第6画像をユーザに提示する、
請求項5から11のうちいずれか1項に記載の情報共有支援装置。
The image generation unit generates a sixth image in which information based on voice information, which is voice input by a user, is associated with the section and information regarding comment information associated with the section.
The presenting unit presents the sixth image generated by the image generation unit to the user.
The information sharing support device according to any one of claims 5 to 11.
ユーザにより入力された音声である音声情報に基づいて、ユーザごとの音声を認識する音声認識部と、
前記音声認識部により認識された音声をテキスト化し、前記テキスト化したテキストと前記テキストに対応する音声を発したユーザとを互いに対応付ける解析部と、を備え、
前記提示部は、前記解析部により解析された情報をユーザに提示する、
請求項5から12のうちいずれか1項に記載の情報共有支援装置。
A voice recognition unit that recognizes the voice of each user based on the voice information that is the voice input by the user,
It is provided with an analysis unit that converts the voice recognized by the voice recognition unit into text and associates the converted text with the user who has emitted the voice corresponding to the text.
The presenting unit presents the information analyzed by the analysis unit to the user.
The information sharing support device according to any one of claims 5 to 12.
コンピュータが、
ユーザにより入力されたコメント情報が予め設定された区画に対するコメントであることを視認者が認識可能なように前記入力されたコメント情報を前記区画に対応付けた第1画像を生成し、
前記生成した画像をユーザに提示する、
情報共有支援方法。
The computer
A first image in which the input comment information is associated with the section is generated so that the viewer can recognize that the comment information input by the user is a comment for a preset section.
Presenting the generated image to the user,
Information sharing support method.
コンピュータに、
ユーザにより入力されたコメント情報が予め設定された区画に対するコメントであることを視認者が認識可能なように前記入力されたコメント情報を前記区画に対応付けた第1画像を生成させ、
前記生成させた画像をユーザに提示させる、
プログラム。
On the computer
A first image in which the input comment information is associated with the section is generated so that the viewer can recognize that the comment information input by the user is a comment for a preset section.
To have the user present the generated image.
program.
JP2021139627A 2018-09-10 2021-08-30 INFORMATION SHARING SUPPORT DEVICE, INFORMATION SHARING SUPPORT METHOD, AND PROGRAM Active JP7193595B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021139627A JP7193595B2 (en) 2018-09-10 2021-08-30 INFORMATION SHARING SUPPORT DEVICE, INFORMATION SHARING SUPPORT METHOD, AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018168538A JP6937730B2 (en) 2018-09-10 2018-09-10 Information sharing support equipment, information sharing support methods, and programs
JP2021139627A JP7193595B2 (en) 2018-09-10 2021-08-30 INFORMATION SHARING SUPPORT DEVICE, INFORMATION SHARING SUPPORT METHOD, AND PROGRAM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018168538A Division JP6937730B2 (en) 2018-09-10 2018-09-10 Information sharing support equipment, information sharing support methods, and programs

Publications (2)

Publication Number Publication Date
JP2022000767A true JP2022000767A (en) 2022-01-04
JP7193595B2 JP7193595B2 (en) 2022-12-20

Family

ID=69798368

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018168538A Active JP6937730B2 (en) 2018-09-10 2018-09-10 Information sharing support equipment, information sharing support methods, and programs
JP2021139627A Active JP7193595B2 (en) 2018-09-10 2021-08-30 INFORMATION SHARING SUPPORT DEVICE, INFORMATION SHARING SUPPORT METHOD, AND PROGRAM

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018168538A Active JP6937730B2 (en) 2018-09-10 2018-09-10 Information sharing support equipment, information sharing support methods, and programs

Country Status (1)

Country Link
JP (2) JP6937730B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7367483B2 (en) 2019-11-21 2023-10-24 京セラドキュメントソリューションズ株式会社 Electronic payment method, electronic payment device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011164696A (en) * 2010-02-04 2011-08-25 Ricoh Co Ltd Network system, server apparatus, and groupware program
JP2017084146A (en) * 2015-10-29 2017-05-18 富士ゼロックス株式会社 Information processing apparatus and information processing program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007286780A (en) * 2006-04-14 2007-11-01 Fuji Xerox Co Ltd Electronic system, program and method for supporting electronic conference, and electronic conference controller
JP2008097341A (en) * 2006-10-12 2008-04-24 Fujitsu Ltd Improvement activity support program, method and device
JP2009086952A (en) * 2007-09-28 2009-04-23 Fuji Xerox Co Ltd Information processing system and information processing program
JP5257330B2 (en) * 2009-11-06 2013-08-07 株式会社リコー Statement recording device, statement recording method, program, and recording medium
JP6446766B2 (en) * 2013-07-08 2019-01-09 株式会社リコー Program, display control device, recording medium, and display control system
CN107430851B (en) * 2015-04-10 2021-01-12 株式会社东芝 Speech presentation device and speech presentation method
JP6875861B2 (en) * 2017-01-05 2021-05-26 富士通株式会社 Information processing methods, devices, and programs

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011164696A (en) * 2010-02-04 2011-08-25 Ricoh Co Ltd Network system, server apparatus, and groupware program
JP2017084146A (en) * 2015-10-29 2017-05-18 富士ゼロックス株式会社 Information processing apparatus and information processing program

Also Published As

Publication number Publication date
JP7193595B2 (en) 2022-12-20
JP2020042471A (en) 2020-03-19
JP6937730B2 (en) 2021-09-22

Similar Documents

Publication Publication Date Title
Yung et al. New realities: a systematic literature review on virtual reality and augmented reality in tourism research
Allen et al. Smart-phone augmented reality for public participation in urban planning
EP3309731A1 (en) Managing electronic meetings using artificial intelligence and meeting rules templates
EP3309730A1 (en) Creating agendas for electronic meetings using artificial intelligence
Voss et al. Evolution of a participatory GIS
Roth Interactivity and cartography: A contemporary perspective on user interface and user experience design from geospatial professionals
US7822765B2 (en) Component-based control system for collaborative exploratory search systems
Shin et al. Design for experience innovation: understanding user experience in new product development
Giemza et al. LEMONADE: a flexible authoring tool for integrated mobile learning scenarios
Comber et al. Sustaining technological innovation: The example of videoconferencing in English Schools
EP1784721A2 (en) Personal support infrastructure for development of user applications and interfaces
US11947894B2 (en) Contextual real-time content highlighting on shared screens
JP7193595B2 (en) INFORMATION SHARING SUPPORT DEVICE, INFORMATION SHARING SUPPORT METHOD, AND PROGRAM
Broomfield et al. A qualitative evidence synthesis of the experiences and perspectives of communicating using augmentative and alternative communication (AAC)
Kassis et al. Discovering factors that influence the use of augmented reality for communication on active highway construction sites
KR101677805B1 (en) Method for collecting and providing learning contents via social learning, and user device and social learning server therefor
Braukhane et al. The dark side of concurrent design: a story of improvisations, workarounds, nonsense and success
Beck Evaluating human-computer interfaces for specification and comprehension of transient behavior in microservice-based software systems
White et al. United we respond: One community, one voice
Rekrut et al. Is co-creation superior to user centred design? preliminary results from user interface design for inclusive public transport
Stephens Designer perceptions of user agency during the development of environmental risk visualization tools
Kyakulumbye et al. Creating knowledge in the design thinking process: reflections on participatory design
US20240062674A1 (en) Data feed interaction incentivization system using gamification tools
Ehret et al. Context-adaptive mobile visualization and information management
Morton et al. Get going on your data, evidence and feedback improvement journey

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221208

R150 Certificate of patent or registration of utility model

Ref document number: 7193595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350