JP6937730B2 - Information sharing support equipment, information sharing support methods, and programs - Google Patents

Information sharing support equipment, information sharing support methods, and programs Download PDF

Info

Publication number
JP6937730B2
JP6937730B2 JP2018168538A JP2018168538A JP6937730B2 JP 6937730 B2 JP6937730 B2 JP 6937730B2 JP 2018168538 A JP2018168538 A JP 2018168538A JP 2018168538 A JP2018168538 A JP 2018168538A JP 6937730 B2 JP6937730 B2 JP 6937730B2
Authority
JP
Japan
Prior art keywords
information
image
user
unit
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018168538A
Other languages
Japanese (ja)
Other versions
JP2020042471A (en
Inventor
知惠美 瀧
知惠美 瀧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018168538A priority Critical patent/JP6937730B2/en
Publication of JP2020042471A publication Critical patent/JP2020042471A/en
Priority to JP2021139627A priority patent/JP7193595B2/en
Application granted granted Critical
Publication of JP6937730B2 publication Critical patent/JP6937730B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、情報共有支援装置、情報共有支援方法、およびプログラムに関する。 The present invention relates to an information sharing support device, an information sharing support method, and a program.

従来、モノとの相互作用である複数のインタラクションの組合せと、モノを利用した人々の知覚や反応である複数のユーザエクスペリエンスとの組み合わせと、複数のインタラクションの組合せとユーザエクスペリエンスとの組み合わせとの各々の組合せにおける相関係数を記憶するメモリと、ユーザからの情報の要求に対し、メモリの情報に基づいて情報を抽出する処理部とを備えるユーザエクスペリエンス予測装置が開示されている(例えば、特許文献1参照)。 Traditionally, a combination of multiple interactions that interact with things, a combination of multiple user experiences that are the perceptions and reactions of people who use things, and a combination of multiple interactions and user experiences, respectively. A user experience prediction device including a memory for storing the correlation coefficient in the combination of the above and a processing unit for extracting information based on the information in the memory in response to a request for information from the user is disclosed (for example, Patent Document). 1).

特開2017−33426号公報Japanese Unexamined Patent Publication No. 2017-33426

しかしながら、上記の技術では、複数のユーザで有益な情報を共有することができない場合があった。 However, with the above technology, there are cases where useful information cannot be shared by a plurality of users.

本発明は、このような事情を考慮してなされたものであり、複数のユーザで有益な情報を共有することができる情報共有支援装置、情報共有支援方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and an object of the present invention is to provide an information sharing support device, an information sharing support method, and a program capable of sharing useful information among a plurality of users. Make one.

本発明の一態様は、ユーザにより入力されたコメント情報を取得する取得部と、前記取得部により取得されたコメント情報を、予め設定された区画に対応付けた第1画像を生成する画像生成部と、前記区画ごとのユーザによる着目度合を導出する処理部と、を備え、前記画像生成部は、前記着目度合を反映させた第2画像を生成し、前記画像生成部により生成された画像をユーザに提示する提示部を更に備える情報共有支援装置ある。 One aspect of the present invention is an acquisition unit that acquires comment information input by the user, and an image generation unit that generates a first image in which the comment information acquired by the acquisition unit is associated with a preset section. And a processing unit for deriving the degree of attention by the user for each section, the image generation unit generates a second image reflecting the degree of attention, and the image generated by the image generation unit is generated. There is an information sharing support device further provided with a presentation unit to be presented to the user.

本発明の一態様によれば、複数のユーザで有益な情報を共有することができる。 According to one aspect of the present invention, useful information can be shared by a plurality of users.

リフレクショ支援システム1の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the reflection support system 1. 参加者情報122の内容の一例を示す図である。It is a figure which shows an example of the content of the participant information 122. 端末装置10に提供される画像IM1の一例を示す図である。It is a figure which shows an example of the image IM1 provided to the terminal apparatus 10. 各端末装置10に提供される画像IM2の一例を示す図である。It is a figure which shows an example of the image IM2 provided to each terminal apparatus 10. 振り返り項目およびタクスが設定されたリフレクション図を含む画像IM3の一例を示す図である。It is a figure which shows an example of the image IM3 which includes the reflection figure which set the retrospective item and the tax. リフレクション支援システム1により実行されるタスクおよび振り返り項目を設定する処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of the process of setting the task executed by the reflection support system 1 and the reflection item. 音声情報124の内容の一例を示す図である。It is a figure which shows an example of the content of voice information 124. 端末装置10に提供されるウエブページを示す画像IM4の一例を示す図である。It is a figure which shows an example of the image IM4 which shows the web page provided to the terminal apparatus 10. 付箋が対応付けられたリフレクション図の画像IM5の一例を示す図である。It is a figure which shows an example of the image IM5 of the reflection figure with which a sticky note is associated. リフレクション支援システム1により実行される付箋を貼付する処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of the process of sticking a sticky note executed by the reflection support system 1. 付箋がグループ化された画像IM6の一例を示す図である。It is a figure which shows an example of the image IM6 which the sticky note is grouped. 階層図を含む画像IM7の一例を示す図である。It is a figure which shows an example of the image IM7 including a hierarchical diagram. リフレクション支援システム1により実行される見解が階層化される処理を示すシーケンス図である。It is a sequence diagram which shows the process which the view executed by the reflection support system 1 is hierarchized. リフレクション図の所定の領域が拡大表示された様子の一例を示す図である。It is a figure which shows an example of a state in which a predetermined area of a reflection figure is enlarged and displayed. 拡大情報126の内容の一例を示す図である。It is a figure which shows an example of the content of the enlarged information 126. ユーザに提供される語り合い時間を含む画像IM9の一例を示す図である。It is a figure which shows an example of the image IM9 including the talk time provided to a user. 画像IM9#の一例を示す図である。It is a figure which shows an example of the image IM9 #. 時間ごとの、区画と区画に含まれる指定された付箋IDとの対応関係を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows the correspondence relationship between the section and the designated sticky note ID included in the section for each time. リフレクション支援システム1により実行される着目された付箋と、着目時間とが対応付けられる処理を示すシーケンス図である。It is a sequence diagram which shows the process which the sticky note of interest executed by the reflection support system 1 and the attention time are associated with each other. キーワード情報130の内容の一例を示す図である。It is a figure which shows an example of the content of the keyword information 130. 画像生成部108により生成される「まとめ」画像の一例を示す図である。It is a figure which shows an example of the "summary" image generated by the image generation unit 108. 変形例のリフレクション支援システム1Aの構成図である。It is a block diagram of the reflection support system 1A of a modification.

以下、図面を参照し、本発明の情報共有支援装置、情報共有支援方法、およびプログラムの実施形態について説明する。 Hereinafter, the information sharing support device, the information sharing support method, and the embodiment of the program of the present invention will be described with reference to the drawings.

[概要]
本実施形態の情報共有支援装置は、例えば、「プロジェクトに関するリフレクション」などの手法に基づく情報の共有を支援する装置である。「プロジェクトに関するリフレクション」とは、一人一人の思いをチームで共有し、チームが持つノウハウを導き出す振り返り手法である。「プロジェクトに関するリフレクション」とは、例えば、チームのメンバーがプロジェクトを進める中で感じていることを振り返ったり、チームのメンバーがプロジェクトに取り組む原動力になっている実践の知性(例えばノウハウ)を抽出したりする活動である。
[Overview]
The information sharing support device of the present embodiment is a device that supports information sharing based on a method such as "reflection on a project". "Reflection about a project" is a reflection method that shares the thoughts of each person with the team and derives the know-how of the team. "Reflective about a project" means, for example, looking back on what a team member feels while proceeding with a project, or extracting the practical intelligence (for example, know-how) that is the driving force for a team member to work on a project. It is an activity to do.

実施形態の情報共有支援装置は、一以上のプロセッサにより実現される。情報共有支援装置は、ユーザにより入力されたコメント情報を取得し、取得したコメント情報を、予め設定された区画に対応付けた第1画像を生成する。情報共有支援装置は、区画ごとのユーザによる着目度合を導出し、着目度合を反映させた第2画像を生成する。そして、情報共有支援装置は、上記の生成された画像をユーザに提示する。 The information sharing support device of the embodiment is realized by one or more processors. The information sharing support device acquires the comment information input by the user, and generates a first image in which the acquired comment information is associated with a preset section. The information sharing support device derives the degree of attention of the user for each section and generates a second image that reflects the degree of attention. Then, the information sharing support device presents the generated image to the user.

区画とは、例えば、タスクと項目との二軸で区分されたものである。「タスク」とは、プロジェクトにおいてクリアすべきタスクである。「項目」とは、プロジェクトにおける振り返り項目である。例えば、タスクをクリアする上で苦労したことや、苦労の乗り越え方、モチベーション、気づき、ノウハウなどである。「対応付け」とは、例えば、コメントが区画に対するコメントであることを識別可能にすることを含む。また、「対応付け」とは、区画内にコメントを含めることであってよい。 A partition is, for example, divided into two axes, a task and an item. A "task" is a task that should be cleared in a project. An "item" is a retrospective item in a project. For example, it is difficult to clear a task, how to overcome the hardship, motivation, awareness, know-how, etc. “Association” includes, for example, making it possible to identify that a comment is a comment for a partition. Further, the "association" may include a comment in the partition.

「着目度合」は、例えば、区画に対応けられたコメント情報がユーザによって参照された度合に基づいて導出される。「参照」とは、例えば、ユーザがコメント情報を指定したり、拡大して視認したり、区画に着目することである。 The "degree of attention" is derived, for example, based on the degree in which the comment information corresponding to the section is referenced by the user. The “reference” means, for example, that the user specifies comment information, magnifies and visually recognizes the comment information, and pays attention to the section.

[構成]
図1は、リフレクション支援システム1の機能構成の一例を示す図である。リフレクション支援システム1は、例えば、一以上の端末装置10(図1では10−1〜10−3)と、情報共有支援装置100とを備える。これらの装置は、ネットワークNWを介して互いに通信する。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)、インターネット、専用回線、無線基地局、プロバイダなどを含む。
[composition]
FIG. 1 is a diagram showing an example of the functional configuration of the reflection support system 1. The reflection support system 1 includes, for example, one or more terminal devices 10 (10-1 to 10-3 in FIG. 1) and an information sharing support device 100. These devices communicate with each other via the network NW. The network NW includes, for example, WAN (Wide Area Network), LAN (Local Area Network), the Internet, a dedicated line, a wireless base station, a provider, and the like.

[端末装置]
端末装置10は、ユーザによって使用される装置であり、例えば、スマートフォンなどの携帯電話、タブレット型コンピュータ、ノート型コンピュータ、デスクトップ型コンピュータなどである。また、端末装置10は、例えば、カメラやマイク、スピーカなどを備えてもよい。
[Terminal device]
The terminal device 10 is a device used by a user, and is, for example, a mobile phone such as a smartphone, a tablet computer, a notebook computer, a desktop computer, or the like. Further, the terminal device 10 may include, for example, a camera, a microphone, a speaker, and the like.

端末装置10では、ブラウザやアプリケーションプログラムなどのUA(User Agent)が起動する。ユーザは、端末装置10を操作して、情報共有支援装置100にアクセスして、所望の情報を入力したり、所望の情報を取得したりする。なお、後述する情報共有支援装置100の機能構成の一部または全部が端末装置10に含まれてもよいし、情報共有支援装置100の記憶部に記憶された情報の一部または全部が端末装置10の記憶部に記憶されてもよい。 In the terminal device 10, a UA (User Agent) such as a browser or an application program is activated. The user operates the terminal device 10 to access the information sharing support device 100 to input desired information or acquire desired information. The terminal device 10 may include a part or all of the functional configuration of the information sharing support device 100, which will be described later, or a part or all of the information stored in the storage unit of the information sharing support device 100. It may be stored in 10 storage units.

端末装置10が、情報共有支援装置100にログインすると、例えば、端末装置10が備える、または端末装置10に接続されたマイクがオン状態に制御される。この状態で、ユーザがマイクに音声を入力すると、端末装置10は、入力された音声情報を情報共有支援装置100に送信する。情報共有支援装置100は、送信された音声を他の端末装置10に送信する。そして、この他の端末装置10は、取得した音声情報をスピーカに出力させる。これにより、端末装置10のユーザ間での会話が可能になる。また、端末装置10が、情報共有支援装置100にログインすると、端末装置10のカメラがオン状態に制御され、ユーザの画像が情報共有支援装置100に送信されもよい。これにより画像が各端末装置10間で共有される。 When the terminal device 10 logs in to the information sharing support device 100, for example, the microphone included in the terminal device 10 or connected to the terminal device 10 is controlled to be turned on. When the user inputs voice to the microphone in this state, the terminal device 10 transmits the input voice information to the information sharing support device 100. The information sharing support device 100 transmits the transmitted voice to another terminal device 10. Then, the other terminal device 10 causes the speaker to output the acquired voice information. This enables conversations between users of the terminal device 10. Further, when the terminal device 10 logs in to the information sharing support device 100, the camera of the terminal device 10 may be controlled to be turned on, and the user's image may be transmitted to the information sharing support device 100. As a result, the image is shared between the terminal devices 10.

なお、端末装置10は、音声に代えて(または加えて)、テキストを情報共有支援装置100に送信してもよい。この場合、情報共有支援装置100は、送信されたテキストを他の端末装置10に送信する。これによりテキストが各端末装置10間で共有される。 The terminal device 10 may transmit a text to the information sharing support device 100 instead of (or in addition to) the voice. In this case, the information sharing support device 100 transmits the transmitted text to another terminal device 10. As a result, the text is shared between the terminal devices 10.

[情報共有支援装置]
情報共有支援装置100は、例えば、通信部102と、情報管理部104と、情報処理部106と、画像生成部108と、音声解析部110と、変換処理部112と、提示部114と、記憶部120とを備える。情報管理部104、情報処理部106、画像生成部108、音声解析部110、変換処理部112、および提示部114は、CPU(Central Processing Unit)等のハードウェアプロセッサが、記憶装置に記憶されたプログラムを実行することにより実現される。また、これらの機能部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、上記のプログラムは、予め記憶装置に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体が情報共有支援装置100のドライブ装置に装着されることで記憶装置にインストールされてもよい。
[Information sharing support device]
The information sharing support device 100 includes, for example, a communication unit 102, an information management unit 104, an information processing unit 106, an image generation unit 108, a voice analysis unit 110, a conversion processing unit 112, a presentation unit 114, and storage. A unit 120 is provided. In the information management unit 104, the information processing unit 106, the image generation unit 108, the voice analysis unit 110, the conversion processing unit 112, and the presentation unit 114, a hardware processor such as a CPU (Central Processing Unit) is stored in a storage device. It is realized by executing the program. Further, these functional units may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit), etc. It may be realized by the collaboration of software and hardware. Further, the above program may be stored in a storage device in advance, or is stored in a removable storage medium such as a DVD or a CD-ROM, and the storage medium is attached to the drive device of the information sharing support device 100. It may be installed in the storage device by being installed.

記憶部120は、例えば、ROM(Read Only Memory)、フラッシュメモリ、SDカード、RAM(Random Access Memory)、HDD(Hard Disc Drive)、レジスタ等によって実現される。また、記憶部120は、NAS(Network Attached Storage)や外部ストレージサーバ装置等であってもよい。 The storage unit 120 is realized by, for example, a ROM (Read Only Memory), a flash memory, an SD card, a RAM (Random Access Memory), an HDD (Hard Disc Drive), a register, or the like. Further, the storage unit 120 may be a NAS (Network Attached Storage), an external storage server device, or the like.

記憶部120には、例えば、参加者情報122、音声情報124、拡大情報126、テキスト情報128、およびキーワード情報130が記憶されている。 Participant information 122, voice information 124, enlarged information 126, text information 128, and keyword information 130 are stored in the storage unit 120, for example.

図2は、参加者情報122の内容の一例を示す図である。参加者情報122は、例えば、端末装置10の識別情報(例えばIPアドレス;以下、端末ID)と、ユーザの識別情報(以下、ユーザID)と、後述する付箋の識別情報(以下、付箋ID)とが互いにに対応付けられた情報である。 FIG. 2 is a diagram showing an example of the contents of the participant information 122. Participant information 122 includes, for example, identification information of the terminal device 10 (for example, IP address; hereinafter, terminal ID), user identification information (hereinafter, user ID), and sticky note identification information (hereinafter, sticky note ID) described later. Is the information associated with each other.

通信部102は、ネットワークNWを介して、端末装置10と通信する。通信部102は、例えば、NIC(Network Interface Card)等の通信インターフェースを含む。 The communication unit 102 communicates with the terminal device 10 via the network NW. The communication unit 102 includes, for example, a communication interface such as a NIC (Network Interface Card).

情報管理部104は、通信部102の通信結果に基づいて、端末装置10により送信された情報を取得したり、取得した情報または自装置の処理結果を記憶部120に記憶させたりする。情報管理部104は、ユーザにより入力されたコメント情報や、ユーザが端末装置10のマイクに入力した音声情報を、端末装置10から取得する。 The information management unit 104 acquires the information transmitted by the terminal device 10 based on the communication result of the communication unit 102, and stores the acquired information or the processing result of the own device in the storage unit 120. The information management unit 104 acquires the comment information input by the user and the voice information input by the user into the microphone of the terminal device 10 from the terminal device 10.

情報処理部106は、情報管理部104により取得されたコメント情報を、コメントを発案したユーザのユーザIDまたは当該ユーザが使用する端末装置10の端末IDに対応付け、更にコメント情報を、指定されたタスクと項目とが対応付けられた区画に対応付けた情報を記憶部120に記憶させる。情報処理部106は、区画に対する着目度合を導出し、導出結果を記憶部120に記憶させる。 The information processing unit 106 associates the comment information acquired by the information management unit 104 with the user ID of the user who proposed the comment or the terminal ID of the terminal device 10 used by the user, and further specifies the comment information. The storage unit 120 stores the information associated with the section in which the task and the item are associated. The information processing unit 106 derives the degree of attention to the partition and stores the derivation result in the storage unit 120.

画像生成部108は、情報管理部104により取得されたコメント情報に基づく各種画像を生成する。詳しくは、後述する。 The image generation unit 108 generates various images based on the comment information acquired by the information management unit 104. Details will be described later.

音声解析部110は、情報管理部104により取得された音声情報に基づいて、ユーザごとの音声を認識する。 The voice analysis unit 110 recognizes the voice of each user based on the voice information acquired by the information management unit 104.

変換処理部112は、音声解析部110により認識された音声をテキスト化し、テキスト化したテキストと、テキストに対応する音声を発したユーザとを互いに対応付けたテキスト情報128を生成する。 The conversion processing unit 112 converts the voice recognized by the voice analysis unit 110 into text, and generates text information 128 in which the text and the user who has emitted the voice corresponding to the text are associated with each other.

提示部114は、画像生成部108により生成された画像をユーザに提示する。提示部114は、情報管理部104により取得された音声情報と、区画とを関連付けて、ユーザに提示する。 The presentation unit 114 presents the image generated by the image generation unit 108 to the user. The presentation unit 114 associates the voice information acquired by the information management unit 104 with the section and presents it to the user.

[タスクおよび振り返り項目を設定する処理]
情報共有支援装置100が、端末装置10に提供するウエブページの一例について説明する。例えば、情報共有支援装置100は、図3に示す画像IM1を端末装置10−1および10−2に提供する。画像IM1は、例えば、端末装置10の表示部に表示された付箋領域T1および送信ボタンB1を含む。
[Process for setting tasks and review items]
An example of a web page provided by the information sharing support device 100 to the terminal device 10 will be described. For example, the information sharing support device 100 provides the image IM1 shown in FIG. 3 to the terminal devices 10-1 and 10-2. The image IM1 includes, for example, a sticky note area T1 displayed on the display unit of the terminal device 10 and a transmission button B1.

付箋領域T1は、ユーザがリフレクションのテーマについて語り合いするための情報を入力する領域である。例えば、付箋領域T1には、テーマ(例えばプロジェクト)において「実施したこと」が入力される。ユーザが送信ボタンB1を操作すると、付箋領域T1に入力された情報が情報共有支援装置100に送信される。情報共有支援装置100の情報処理部106は、各端末装置10により送信された付箋領域T1に入力された情報を取得し、取得した付箋領域T1に入力された情報と、付箋IDと、端末装置10の識別情報(またはユーザの識別情報)とを互いに対応付けて記憶部120に記憶させる。 The sticky note area T1 is an area for inputting information for the user to discuss the theme of reflection. For example, in the sticky note area T1, "what has been done" in the theme (for example, a project) is input. When the user operates the transmission button B1, the information input in the sticky note area T1 is transmitted to the information sharing support device 100. The information processing unit 106 of the information sharing support device 100 acquires the information input to the sticker area T1 transmitted by each terminal device 10, the information input to the acquired sticker area T1, the sticker ID, and the terminal device. The identification information (or user identification information) of 10 is associated with each other and stored in the storage unit 120.

上記のように、「実施したこと」が入力されると、情報共有支援装置100の提示部114は、端末装置10の依頼に応じて、図4に示す画像IM2を各端末装置10に提供する。画像IM2は、例えば、マトリックス状の表(以下、リフレクション図)が含まれる。リフレクション図は、テーマに関してリフレクションするためのマトリクスである。例えば、リフレクション図の、縦軸は振り返り項目1〜4で構成され、横軸はタスクの内容が表示されるタスク1〜4で構成される。 As described above, when "what has been done" is input, the presentation unit 114 of the information sharing support device 100 provides the image IM2 shown in FIG. 4 to each terminal device 10 in response to the request of the terminal device 10. .. The image IM2 includes, for example, a matrix-like table (hereinafter, a reflection diagram). A reflection diagram is a matrix for reflecting on a theme. For example, in the reflection diagram, the vertical axis is composed of review items 1 to 4, and the horizontal axis is composed of tasks 1 to 4 in which the contents of the task are displayed.

振り返り項目に対応する領域のそれぞれには、振り返り項目を入力する入力領域が設けられている。例えば、入力領域AR11をユーザが操作すると、プルダウンメニューが表示され、ユーザはプルダウンメニューから振り返り項目を選択することで入力領域AR11に振り返り項目を設定することができる。なお、振り返り項目は、手動で入力されてもよいし、予め設定されていてもよい。 Each of the areas corresponding to the retrospective items is provided with an input area for inputting the retrospective items. For example, when the user operates the input area AR11, a pull-down menu is displayed, and the user can set a retrospective item in the input area AR11 by selecting a retrospective item from the pull-down menu. The retrospective items may be manually input or may be preset.

タスクに対応する領域のそれぞれには、タスクを入力する入力領域AR12が設けられている。例えば、入力領域AR12をユーザが操作すると、プルダウンメニューが表示され、ユーザはプルダウンメニューからタスクを選択することで入力領域AR12にタスクを設定することができる。 An input area AR12 for inputting a task is provided in each of the areas corresponding to the tasks. For example, when the user operates the input area AR12, a pull-down menu is displayed, and the user can set a task in the input area AR12 by selecting a task from the pull-down menu.

プルダウンメニューによって表示されるタスクは、例えば、付箋領域T1に入力され、端末装置10によって情報共有支援装置100に送信された内容である。例えば、ユーザは、語り合いをしながら、タスクが時系列に並ぶようにタスクを選択したり、重要度の高いタスクを選択したりすることができる。また、画像IM2において、ユーザが所定の操作または不図示のボタンを操作すると、付箋領域T1に入力された情報が一覧となって表示されてもよい。なお、タスクは、手動で入力されてもよい。 The task displayed by the pull-down menu is, for example, the content input to the sticky note area T1 and transmitted to the information sharing support device 100 by the terminal device 10. For example, the user can select tasks so that the tasks are arranged in chronological order or select tasks of high importance while talking with each other. Further, in the image IM2, when the user operates a predetermined operation or a button (not shown), the information input in the sticky note area T1 may be displayed as a list. The task may be manually entered.

上記のような処理が行われ、振り返り項目およびタスクが設定される。図5は、振り返り項目およびタクスが設定されたリフレクション図を含む画像IM3の一例を示す図である。 The above processing is performed, and the reflection items and tasks are set. FIG. 5 is a diagram showing an example of an image IM3 including a reflection diagram in which a reflection item and a tax are set.

(シーケンス(その1))
図6は、リフレクション支援システム1により実行されるタスクおよび振り返り項目を設定する処理の流れを示すシーケンス図である。以下の説明では、端末装置10−1、10−2、および情報共有支援装置100の処理を中心に説明する。
(Sequence (1))
FIG. 6 is a sequence diagram showing a flow of processing for setting tasks and reflection items executed by the reflection support system 1. In the following description, the processing of the terminal devices 10-1, 10-2, and the information sharing support device 100 will be mainly described.

まず、端末装置10−1および10−2が、情報共有支援装置100にアクセスし、ログインのための情報を入力すると(S10、S12)、情報共有支援装置100の情報処理部106が、端末装置10により入力された情報と、予め記憶部120に登録された情報とに基づいて認証処理を行う。そして、認証が成立すると、情報共有支援装置100は、端末装置10−1および10−2に前述した図3に示したようなウエブページを提供する(S14、S16)。 First, when the terminal devices 10-1 and 10-2 access the information sharing support device 100 and input information for login (S10, S12), the information processing unit 106 of the information sharing support device 100 moves to the terminal device. The authentication process is performed based on the information input by 10 and the information registered in the storage unit 120 in advance. Then, when the authentication is established, the information sharing support device 100 provides the terminal devices 10-1 and 10-2 with a web page as shown in FIG. 3 described above (S14, S16).

次に、端末装置10−1が、例えば、マイクに入力された音声を音声情報として情報共有支援装置100に送信する(S18)。情報共有支援装置100の情報管理部104が、音声情報を取得する。情報処理部106が、音声情報を端末装置10の識別情報に対応付けて音声情報124として記憶部120に記憶させる(S20)。 Next, the terminal device 10-1 transmits, for example, the voice input to the microphone to the information sharing support device 100 as voice information (S18). The information management unit 104 of the information sharing support device 100 acquires voice information. The information processing unit 106 associates the voice information with the identification information of the terminal device 10 and stores it in the storage unit 120 as the voice information 124 (S20).

図7は、音声情報124の内容の一例を示す図である。音声情報124は、音声情報、端末装置の識別情報、およびユーザの識別情報が互いに対応付けられた情報である。 FIG. 7 is a diagram showing an example of the contents of the voice information 124. The voice information 124 is information in which voice information, terminal device identification information, and user identification information are associated with each other.

図6の説明に戻る。次に、提示部114が、端末装置10−1により送信された音声情報を、端末装置10−2に送信する(S22)。このように音声情報の送受信がされることにより、端末装置10を管理するユーザは会話をすることができる。 Returning to the description of FIG. Next, the presenting unit 114 transmits the voice information transmitted by the terminal device 10-1 to the terminal device 10-2 (S22). By transmitting and receiving voice information in this way, the user who manages the terminal device 10 can have a conversation.

次に、端末装置10−2が、図3に示した付箋を情報共有支援装置100に送信し(S24)、端末装置10−1が、付箋を情報共有支援装置100に送信する(S26)。情報共有支援装置100の情報処理部106は、S24、S26で送信された付箋の情報を端末装置10の識別情報に対応付けて記憶部120に記憶させる(S28)。 Next, the terminal device 10-2 transmits the sticky note shown in FIG. 3 to the information sharing support device 100 (S24), and the terminal device 10-1 transmits the sticky note to the information sharing support device 100 (S26). The information processing unit 106 of the information sharing support device 100 stores the sticky note information transmitted in S24 and S26 in the storage unit 120 in association with the identification information of the terminal device 10 (S28).

次に、端末装置10−2が、タスクを設定する操作を行う(S30)。次に、画像生成部108が、リフレクション図における振り返り項目に対してタスクを設定した画像を生成する(S32)。そして、提示部114が、画像生成部108により生成された画像を端末装置10−1、10−2に提示する(S34、S36)。 Next, the terminal device 10-2 performs an operation of setting a task (S30). Next, the image generation unit 108 generates an image in which a task is set for the reflection item in the reflection diagram (S32). Then, the presentation unit 114 presents the image generated by the image generation unit 108 to the terminal devices 10-1 and 10-2 (S34, S36).

[付箋を貼付する処理]
図8は、端末装置10に提供されるウエブページを示す画像IM4の一例を示す図である。例えば、情報共有支援装置100は、図8に示す画像IM4を端末装置10−1および10−2に提供する。画像IM4は、例えば、端末装置10の表示部に表示された付箋領域T2、付箋を貼る位置を指定する指定ボタンB10、送信ボタンB11、およびリフレクション図に戻るための戻るボタンB12を含む。ユーザがリフレクション図に戻るボタンB12を操作すると、画像IM4が図5の画像IM3に示したような画像に遷移する。
[Processing to attach sticky notes]
FIG. 8 is a diagram showing an example of an image IM4 showing a web page provided to the terminal device 10. For example, the information sharing support device 100 provides the image IM4 shown in FIG. 8 to the terminal devices 10-1 and 10-2. The image IM4 includes, for example, a sticky note area T2 displayed on the display unit of the terminal device 10, a designation button B10 for designating a position to attach the sticky note, a transmission button B11, and a back button B12 for returning to the reflection diagram. When the user operates the button B12 to return to the reflection diagram, the image IM4 transitions to an image as shown in the image IM3 of FIG.

付箋領域T2は、例えば、タスクに対する振り返り項目の内容が入力される。ユーザが指定ボタンB10を操作すると、振り返り項目とタスクの内容との組み合わせが表示される。ユーザが、組み合わせを指定すると、付箋領域T2に入力された情報が付箋として、リフレクション図において指定された組み合わせに対応する区画に対応付けられる。情報共有支援装置100の情報処理部106は、各端末装置10により送信された付箋領域T2に入力された情報を取得し、取得した付箋領域T2に入力された情報と、付箋IDと、端末装置10の識別情報と、指定された区画とを互いに対応付けて記憶部120に記憶させる。 In the sticky note area T2, for example, the content of a review item for the task is input. When the user operates the designated button B10, the combination of the retrospective item and the task content is displayed. When the user specifies a combination, the information input to the sticky note area T2 is associated with the section corresponding to the combination specified in the reflection diagram as a sticky note. The information processing unit 106 of the information sharing support device 100 acquires the information input to the sticker area T2 transmitted by each terminal device 10, the information input to the acquired sticker area T2, the sticker ID, and the terminal device. The identification information of 10 and the designated section are associated with each other and stored in the storage unit 120.

図9は、付箋が対応付けられたリフレクション図の画像IM5の一例を示す図である。画像IM5において、ユーザが送信した付箋がリフレクション図に貼付される。図9の画像IM5は、各端末装置10において共有される。これにより、ユーザは、各ユーザの考えを認識することができる。画像IM5は、「第1画像」の一例である。 FIG. 9 is a diagram showing an example of the image IM5 of the reflection diagram to which the sticky note is associated. In the image IM5, the sticky note transmitted by the user is attached to the reflection diagram. The image IM5 of FIG. 9 is shared by each terminal device 10. This allows the user to recognize each user's thoughts. Image IM5 is an example of a "first image".

また、例えば、付箋には、コメント情報を発案したユーザまたは当該ユーザの使用する端末装置を識別可能な情報が付与される。例えば、付箋は、ユーザの識別情報(または端末装置の識別情報)が付与されたり、ユーザの識別情報ごとに異なる明度や色彩で表示されたりしてもよい。また、付箋が操作された場合に、ユーザの識別情報が表示されてもよい。これにより、ユーザは、各ユーザの考え方をユーザごとに認識することができる。 Further, for example, the sticky note is provided with information that can identify the user who proposed the comment information or the terminal device used by the user. For example, the sticky note may be given user identification information (or terminal device identification information), or may be displayed with different brightness or color for each user identification information. Further, when the sticky note is operated, the user's identification information may be displayed. As a result, the user can recognize the idea of each user for each user.

(シーケンス(その2))
図10は、リフレクション支援システム1により実行される付箋を貼付する処理の流れを示すシーケンス図である。
(Sequence (2))
FIG. 10 is a sequence diagram showing a flow of a sticky note sticking process executed by the reflection support system 1.

まず、情報共有支援装置100の提示部114が、ウエブページを端末装置10−1および10−2に提供する(S100、S102)。次に、端末装置10−1が、提供されたウエブページに含まれる付箋に意見を入力し、意見を含む付箋とユーザの識別情報とを互いに対応付けた情報を情報共有支援装置100に送信する(S104)。次に、情報共有支援装置100の情報処理部106は、リフレクション図において、付箋を指定された区画に対応付けて記憶部120に記憶させる(S106)。また、端末装置10−2が、提供されたウエブページにおける付箋に意見を入力し、意見を含む付箋とユーザの識別情報とを互いに対応付けた情報を情報共有支援装置100に送信する(S108)。次に、情報共有支援装置100の情報処理部106は、リフレクション図において、付箋を指定された区画に対応付けて記憶部120に記憶させる(S110)。 First, the presentation unit 114 of the information sharing support device 100 provides a web page to the terminal devices 10-1 and 10-2 (S100, S102). Next, the terminal device 10-1 inputs an opinion into the sticky note included in the provided web page, and transmits information in which the sticky note including the opinion and the user's identification information are associated with each other to the information sharing support device 100. (S104). Next, the information processing unit 106 of the information sharing support device 100 stores the sticky note in the storage unit 120 in association with the designated section in the reflection diagram (S106). Further, the terminal device 10-2 inputs an opinion into the sticky note on the provided web page, and transmits the information in which the sticky note including the opinion and the user's identification information are associated with each other to the information sharing support device 100 (S108). .. Next, the information processing unit 106 of the information sharing support device 100 stores the sticky note in the storage unit 120 in association with the designated section in the reflection diagram (S110).

次に、画像生成部108が、リフレクション図において、付箋を指定された区画に対応付けた画像を生成する(S112)。次に、提示部114が、画像生成部108により生成された画像を端末装置10−1、10−2に提示する(S114、S116)。なお、S112の処理は、S106の処理の直後に行われ、提示部114は、画像生成部108により生成された画像を端末装置10−1に送信してもよい。 Next, the image generation unit 108 generates an image in which the sticky note is associated with the designated section in the reflection diagram (S112). Next, the presentation unit 114 presents the image generated by the image generation unit 108 to the terminal devices 10-1 and 10-2 (S114, S116). The processing of S112 is performed immediately after the processing of S106, and the presentation unit 114 may transmit the image generated by the image generation unit 108 to the terminal device 10-1.

[付箋をグループ化する処理]
図11は、付箋がグループ化された画像IM6の一例を示す図である。画像IM6には、リフレクション図に加え、更にグループ化ボタンB20、および階層図ボタンB21が含まれる。例えば、ユーザが、グループ化ボタンB20を操作して、グループ化したい付箋を選択すると、付箋はグループ化される。そして、グループ化された付箋は、他の付箋と識別可能な態様に変化する。また、グループ化は、複数の階層で行われてもよい。例えば、グループ化した付箋の中で、更に付箋はグループ化されてもよい。
[Process for grouping sticky notes]
FIG. 11 is a diagram showing an example of an image IM6 in which sticky notes are grouped. In addition to the reflection diagram, the image IM6 further includes a grouping button B20 and a hierarchical diagram button B21. For example, when the user operates the grouping button B20 to select the sticky notes to be grouped, the sticky notes are grouped. Then, the grouped sticky notes change in a manner that can be distinguished from other sticky notes. In addition, grouping may be performed in a plurality of layers. For example, within the grouped sticky notes, the sticky notes may be further grouped.

また、区画に対して所定の操作が行われた場合に、操作が行われた区画に語り合いが終了したことを示す情報が対応付けられてもよい。 Further, when a predetermined operation is performed on the section, information indicating that the discussion is completed may be associated with the section on which the operation is performed.

上述したように、付箋がグループ化された後、階層図ボタンB21が操作されると、階層図が表示される。図12は、階層図を含む画像IM7の一例を示す図である。例えば、階層図において、タスクと振り返り項目ごとに、ユーザの見解がどのように推移しているかが表示される。例えば、第1階層において、ユーザA、Bの付箋がグループ化され、Cの付箋がグループ化されなかった場合、A、Bの見解がグループ化され、Cの見解とA、Bの見解とは枝分かれするようなアイコンを含む画像が生成される。例えば、第2階層において、ユーザAとユーザBとの付箋がグループ化されなかった場合、Aの見解とBの見解とは枝分かれするようなアイコンを含む画像が生成される。 As described above, when the hierarchical diagram button B21 is operated after the sticky notes are grouped, the hierarchical diagram is displayed. FIG. 12 is a diagram showing an example of the image IM7 including the hierarchical diagram. For example, in the hierarchical diagram, how the user's view is changing is displayed for each task and review item. For example, in the first layer, when the sticky notes of users A and B are grouped and the sticky notes of C are not grouped, the views of A and B are grouped, and the views of C and the views of A and B are An image containing a branching icon is generated. For example, in the second layer, when the sticky notes of the user A and the user B are not grouped, an image including an icon that branches the views of A and B is generated.

上述したように、ユーザの見解がグループ化され、グループ化された見解が視認可能に端末装置10の表示部に表示される。この結果、ユーザは、語り合いの内容について理解を深めることができる。 As described above, the user's views are grouped, and the grouped views are visibly displayed on the display unit of the terminal device 10. As a result, the user can deepen the understanding of the content of the discussion.

なお、ユーザの見解が階層化される処理は、音声解析処理やテキスト解析処理等によって行われてもよい。例えば、情報共有支援装置100は、ユーザの音声情報と、不図示の音声認識モデルと、不図示のテキスト認識モデルとに基づいて、ユーザの見解についてグループ化してもよい。例えば、音声解析部110が、音声をテキスト化するための音声認識モデル(不図示)を用いて、ユーザの音声情報をユーザに対応付けてテキスト化する。そして、変換処理部112が、テキスト化したテキストを、不図示のテキスト認識モデルを用いてグループ化する。テキスト認識モデルは、テキストの意味を解釈し、肯定的な発言であるか、否定的な発言であるかを識別するモデルである。例えば、ユーザAの発言の後に、ユーザBがAの発言を肯定するような発言をした場合、ユーザA、Bとの発言はグループ化される。 The process of layering the user's views may be performed by voice analysis process, text analysis process, or the like. For example, the information sharing support device 100 may group the user's views based on the user's voice information, the voice recognition model (not shown), and the text recognition model (not shown). For example, the voice analysis unit 110 uses a voice recognition model (not shown) for converting voice into text, and converts the user's voice information into text by associating it with the user. Then, the conversion processing unit 112 groups the texts that have been converted into texts by using a text recognition model (not shown). The text recognition model is a model that interprets the meaning of text and identifies whether it is a positive statement or a negative statement. For example, when user B makes a statement that affirms A's statement after the statement of user A, the statements with users A and B are grouped.

(シーケンス(その3))
図13は、リフレクション支援システム1により実行される見解が階層化される処理を示すシーケンス図である。
(Sequence (3))
FIG. 13 is a sequence diagram showing a process in which the views executed by the reflection support system 1 are layered.

まず、ユーザによって付箋が選択される操作が行われると、端末装置10−1は、操作に基づく情報を情報共有支援装置100に送信する(S200)。次に、情報共有支援装置100の情報処理部106は、操作に基づく情報を用いて付箋をグループ化し、グループ化した情報を記憶部120に記憶させる(S202)。次に、情報共有支援装置100の画像生成部108が、グループ化された付箋を含む画像を生成する(S204)。次に、提示部114が、生成された画像を端末装置10−1、および10−2に提供する(S206、S208)。 First, when an operation for selecting a sticky note is performed by the user, the terminal device 10-1 transmits information based on the operation to the information sharing support device 100 (S200). Next, the information processing unit 106 of the information sharing support device 100 groups the sticky notes using the information based on the operation, and stores the grouped information in the storage unit 120 (S202). Next, the image generation unit 108 of the information sharing support device 100 generates an image including the grouped sticky notes (S204). Next, the presentation unit 114 provides the generated images to the terminal devices 10-1 and 10-2 (S206, S208).

次に、端末装置10−1が、情報共有支援装置100に階層図の提供を要求する(S210)。次に、情報共有支援装置100の画像生成部108が、S202でグループ化した処理に基づいて、階層図を含む画像を生成する(S212)。次に、提示部114が、生成された階層図の画像を端末装置10に提供する(S214)。 Next, the terminal device 10-1 requests the information sharing support device 100 to provide a hierarchical diagram (S210). Next, the image generation unit 108 of the information sharing support device 100 generates an image including a hierarchical diagram based on the processing grouped in S202 (S212). Next, the presentation unit 114 provides the terminal device 10 with an image of the generated hierarchical diagram (S214).

[語り合い時間を視認化する処理]
図14は、リフレクション図の所定の領域が拡大表示された様子の一例を示す図である。ユーザが所定の操作を行うと、図14に示すようにリフレクション図の一部が拡大される。なお、例えば、振り返り項目3とタスク3とが対応付けられた区画を拡大する操作がされた場合、画像生成部108は、当該区画を拡大表示すると共に、当該区画に振り返り項目3のラベルとタスク3のラベルを対応付けた画像を生成する。例えば、図14の画像IM8の例では、領域AR21〜AR24のうち、領域AR22には振り返り項目3の内容が表示され、領域AR23にはタスク3の内容が表示され、領域AR24には当該区画のコメント情報が表示される。そして、提示部114が、生成された画像をユーザに提示する。
[Processing to visualize the discussion time]
FIG. 14 is a diagram showing an example of a state in which a predetermined area of the reflection diagram is enlarged and displayed. When the user performs a predetermined operation, a part of the reflection diagram is enlarged as shown in FIG. For example, when the operation of enlarging the section in which the review item 3 and the task 3 are associated with each other is performed, the image generation unit 108 enlarges and displays the section and displays the label of the review item 3 and the task in the section. An image associated with the label of 3 is generated. For example, in the example of the image IM8 of FIG. 14, among the areas AR21 to AR24, the content of the reflection item 3 is displayed in the area AR22, the content of the task 3 is displayed in the area AR23, and the area AR24 of the section concerned. Comment information is displayed. Then, the presentation unit 114 presents the generated image to the user.

情報処理部106が、拡大されたタスクと振り返り項目とに対応する区画(フォーカス領域)、リフレクション図が拡大された時間、および指定された付箋IDが互いに対応付けられた拡大情報126として記憶部120に記憶させる。図15は、拡大情報126の内容の一例を示す図である。情報管理部104は、拡大情報126を参照して、所定の区画に対する語り合い時間を推定し、推定結果をユーザに提供する。例えば、情報処理部106は、フォーカス領域に対応付けられた時間を合計して語り合い時間(「着目度合」の一例)を推定する。着目度合は、ユーザによって拡大操作が行われた区画の着目度合は大きくなるように導出される。画像生成部108は、情報処理部106により推定された語り合い時間を含む画像を生成する。 The information processing unit 106 stores the section (focus area) corresponding to the enlarged task and the reflection item, the time when the reflection diagram is enlarged, and the designated sticky note ID as the enlarged information 126 associated with each other. To memorize. FIG. 15 is a diagram showing an example of the contents of the enlarged information 126. The information management unit 104 estimates the talk time for a predetermined section with reference to the expanded information 126, and provides the estimation result to the user. For example, the information processing unit 106 sums the times associated with the focus area to estimate the talk time (an example of "degree of attention"). The degree of attention is derived so that the degree of attention of the section that has been expanded by the user becomes large. The image generation unit 108 generates an image including the talk time estimated by the information processing unit 106.

図16は、ユーザに提供される語り合い時間を含む画像IM9の一例を示す図である。画像IM9は、「第2画像」または「第3画像」の一例である。図16の各区画に含まれる四角柱は、その区画の振り返り項目とタスクとに対する語り合い時間(「着目度合」の一例)を示している。また、上記の区画における付箋の数は、その区画において対応付けられた付箋の数を示している。更に、画像IM9において、タスクと振り返り項目とに対する語り合いの合計時間が対応付けられている。上記の付箋の数、または合計時間は、「着目度合」の他の一例である。 FIG. 16 is a diagram showing an example of the image IM9 including the talk time provided to the user. Image IM9 is an example of a "second image" or a "third image". The square pillars included in each section of FIG. 16 indicate the discussion time (an example of "degree of attention") for the review item and the task of the section. The number of sticky notes in the above section indicates the number of sticky notes associated with the section. Further, in the image IM9, the total time of the discussion between the task and the retrospective item is associated. The number of sticky notes or the total time mentioned above is another example of "degree of attention".

例えば、情報処理部106は、タスクごとの語り合い時間を合計する。画像生成部108は、合計した語り合い時間を含む画像IM9を生成する。また、情報処理部106は、タスクごとに代えて(或いは加えて)、振り返り項目ごとに語り合い時間を合計してもよい。例えば、情報処理部106は、区画に対応付けられたタスクと振り返り項目とのうち、タスク間(第1ラベル)に所定の共通性が存在する場合に、振り返り項目(第2ラベル)が共通する区画ごとの着目度合を集計する。そして、画像生成部108は、集計された値に基づく画像IM9#を生成する。図17は、画像IM9#の一例を示す図である。画像IM9#は、「第4画像」または「第3画像」の一例である。また、情報処理部106は、タスク間に共通性が存在しない場合に、タスクが共通する区画ごとの着目度合を集計する。 For example, the information processing unit 106 totals the talk time for each task. The image generation unit 108 generates an image IM9 including the total talk time. Further, the information processing unit 106 may add up the discussion time for each review item instead of (or in addition to) each task. For example, the information processing unit 106 shares the review items (second label) when there is a predetermined commonality between the tasks (first label) among the tasks associated with the sections and the review items. Aggregate the degree of attention for each section. Then, the image generation unit 108 generates the image IM9 # based on the aggregated values. FIG. 17 is a diagram showing an example of the image IM9 #. Image IM9 # is an example of a "fourth image" or a "third image". In addition, the information processing unit 106 aggregates the degree of attention for each section in which the tasks are common when there is no commonality between the tasks.

「タスク間に所定の共通性が存在する」とは、タスクの内容に共通する単語が存在するタスクや、予め設定された単語やセンテンスが存在するタスクである。例えば、ウエブページの画面デザインがテーマとされた場合において、タスクの内容が「ラフスケッチのデザイン」、「プロトタイプのデザイン」、「完成版のデザイン」などが、共通性が存在するタスクの一例である。また、タスクの内容が「トップ画面のデザイン」、「第1サブ画面のデザイン」、「第2サブ画面のデザイン」などが、共通性が存在するタスクの一例である。なお、タスクごとに語り合い時間を算出するか、振り返り項目ごとに語り合い時間を算出するかを切り替えるためのボタンが画像IM9、または画像IM9#に含まれてもよい。 “There is a predetermined commonality between tasks” is a task in which words common to the contents of the task exist, or a task in which preset words or sentences exist. For example, when the theme is web page screen design, the task contents are "rough sketch design", "prototype design", "finished version design", etc., which are examples of tasks that have commonality. be. Further, the tasks such as "top screen design", "first sub screen design", and "second sub screen design" are examples of tasks having commonality. The image IM9 or the image IM9 # may include a button for switching between calculating the discussion time for each task and calculating the discussion time for each reflection item.

また、語り合いの合計時間に加え、後述する音声解析により抽出されたキーワードが区画やタスク、振り返り項目に付けられてもよい。また、図16または図17において、所定の区画に対して、ユーザが所定の操作を行うと、画像は、操作された区画を中心とした図14に示したような拡大図に遷移する。 In addition to the total time for discussion, keywords extracted by voice analysis, which will be described later, may be added to sections, tasks, and retrospective items. Further, in FIG. 16 or FIG. 17, when the user performs a predetermined operation on the predetermined section, the image transitions to an enlarged view as shown in FIG. 14 centering on the operated section.

上述したように、区画ごとの語り合い時間がユーザに視認可能に提供される。この結果、ユーザは、テーマにおいて語り合い時間が長かった項目やタスク等を容易に認識することができる。 As described above, the talk time for each section is visibly provided to the user. As a result, the user can easily recognize items, tasks, and the like that have a long discussion time in the theme.

なお、情報処理部106は、区画に対応けられた付箋(コメント情報)がユーザによって参照された度合に基づいて、着目度合を導出してもよい。例えば、ユーザが、所定の付箋を指定(或いは指示)するような操作や拡大する操作を行っている時間を算出する。そして、情報処理部106は、操作を行っている時間が長いほど、その操作対象の付箋が対応付けられた区画の着目度合を大きい傾向で導出する。 The information processing unit 106 may derive the degree of attention based on the degree to which the sticky note (comment information) corresponding to the section is referred to by the user. For example, the time during which the user performs an operation such as designating (or instructing) a predetermined sticky note or an operation for expanding the sticky note is calculated. Then, the information processing unit 106 derives the degree of attention of the section to which the sticky note of the operation target is associated with a larger tendency as the operation time is longer.

また、ユーザが所定の操作を行うと、図18に示すように時間ごとの、区画と区画に含まれる指定された付箋IDとの対応関係を示す画像IM10がユーザに提供される。この画像は、画像生成部108により生成された画像であり、「音声のタイムテーブルと、区画とを関連付けた第5画像」の一例である。 Further, when the user performs a predetermined operation, as shown in FIG. 18, an image IM10 showing the correspondence between the sections and the designated sticky note ID included in the sections is provided to the user for each hour. This image is an image generated by the image generation unit 108, and is an example of "a fifth image in which a voice timetable and a section are associated".

これにより、選択された付箋について語り合いされた時間が、ユーザにとって視認可能となる。例えば、ユーザが、所定の付箋IDの語り合いについて、音声を取得したい場合、付箋IDに対応付けられた時間に対応する音声を取得することにより、容易に付箋に対する語り合いの音声を取得することができる。 This makes the time spent talking about the selected sticky note visible to the user. For example, when the user wants to acquire the voice of the conversation of the predetermined sticky note ID, the voice of the conversation with the sticky note can be easily acquired by acquiring the voice corresponding to the time associated with the sticky note ID. ..

[シーケンス(その4)]
図19は、リフレクション支援システム1により実行される着目された付箋と、着目時間とが対応付けられる処理を示すシーケンス図である。
[Sequence (4)]
FIG. 19 is a sequence diagram showing a process in which the attention sticky note executed by the reflection support system 1 and the attention time are associated with each other.

まず、端末装置10が、所定の領域を拡大して表示することを指示する情報を情報共有支援装置100に送信する(S300)。次に、情報共有支援装置100の提示部114が、端末装置10により提供された指示に基づいて、画像生成部108により生成された所定の領域を拡大した画像を端末装置10に送信する(S302、S304)。次に、情報処理部106が、拡大した画像の領域と時間とを互いに対応付けて記憶部120に記憶させる(S306)。 First, the terminal device 10 transmits information instructing the information sharing support device 100 to enlarge and display a predetermined area (S300). Next, the presentation unit 114 of the information sharing support device 100 transmits an enlarged image of a predetermined area generated by the image generation unit 108 to the terminal device 10 based on the instruction provided by the terminal device 10 (S302. , S304). Next, the information processing unit 106 stores the enlarged image area and the time in the storage unit 120 in association with each other (S306).

次に、所定の領域が拡大された画像が端末装置10の表示部に表示された状態で、ユーザが付箋を選択すると、端末装置10は、選択した付箋の情報を情報共有支援装置100に送信する(S308)。次に、情報処理部106が、選択された付箋と、時間とを互いに対応付けて記憶部120に記憶させる(S310)。次に、画像生成部108が、選択された付箋と、選択されていない付箋とを識別可能に表した画像を生成する。そして、提示部114が、画像生成部108により生成された画像を端末装置10に提供する(S312、S314)。 Next, when the user selects a sticky note while the image in which the predetermined area is enlarged is displayed on the display unit of the terminal device 10, the terminal device 10 transmits the information of the selected sticky note to the information sharing support device 100. (S308). Next, the information processing unit 106 stores the selected sticky note and the time in the storage unit 120 in association with each other (S310). Next, the image generation unit 108 generates an image in which the selected sticky note and the non-selected sticky note are identifiable. Then, the presentation unit 114 provides the terminal device 10 with the image generated by the image generation unit 108 (S312, S314).

[音声解析]
情報共有支援装置100の音声解析部110は、音声を解析して、頻出する単語であるキーワードを抽出してもよい。音声解析部110は、例えば、所定時間以内において、所定回数以上、出現した単語やセンテンスであり、且つ予め設定された単語やセンテンスとは異なる単語やセンテンスをキーワードとして抽出し、抽出したキーワードをキーワード情報130として記憶部120に記憶させる。予め設定された単語やセンテンスとは、日常の会話において一般的に使用される単語やセンテンスである。
[Voice analysis]
The voice analysis unit 110 of the information sharing support device 100 may analyze the voice and extract keywords that are frequently used words. The voice analysis unit 110 extracts, for example, a word or sentence that appears a predetermined number of times or more within a predetermined time and is different from a preset word or sentence as a keyword, and uses the extracted keyword as a keyword. The information 130 is stored in the storage unit 120. The preset words and sentences are words and sentences commonly used in daily conversation.

図20は、キーワード情報130の内容の一例を示す図である。キーワード情報130は、抽出されたキーワードと、キーワードが抽出された区画と、キーワードが出現した時間とが互いに対応付けられた情報である。 FIG. 20 is a diagram showing an example of the contents of the keyword information 130. The keyword information 130 is information in which the extracted keyword, the section from which the keyword is extracted, and the time when the keyword appears are associated with each other.

例えば、提示部114は、ユーザからの要求に応じて、キーワード情報130を参照し、キーワード、キーワードが出現した区画、および出現時間を互いに対応付けた情報をユーザに提供する。これにより、語り合いにおけるキーワード、およびキーワードに関連する情報がユーザに視認可能に提供されるため、より語り合いの内容を容易に認識することができる。 For example, the presentation unit 114 refers to the keyword information 130 in response to a request from the user, and provides the user with information in which the keyword, the section in which the keyword appears, and the appearance time are associated with each other. As a result, the keyword in the discussion and the information related to the keyword are visually provided to the user, so that the content of the discussion can be more easily recognized.

図21は、画像生成部108により生成される「まとめ」画像の一例を示す図である。「まとめ」画像は、上述した処理結果が対応付けられた情報およびノウハウ入力画面IM12を含むものである。「まとめ」画像は、例えば、ユーザが所定の操作を行うことでユーザに提示される。例えば、「まとめ」画像は、上記の図18に示した画像に加え、リフレクション図を開くためのボタンB30、タスクおよび項目に対応付けられた音声に対応するテキストを開くボタンB31、ノウハウをメンバーに送信するボタンB32が含まれる。 FIG. 21 is a diagram showing an example of a “summary” image generated by the image generation unit 108. The "summary" image includes the information and know-how input screen IM12 associated with the above-mentioned processing results. The "summary" image is presented to the user, for example, by performing a predetermined operation by the user. For example, in the "summary" image, in addition to the image shown in FIG. 18, the button B30 for opening the reflection diagram, the button B31 for opening the text corresponding to the voice associated with the task and the item, and the know-how are used as members. A button B32 to transmit is included.

例えば、ボタンB30が操作されると、上記の図9等に示したリフレクション図が端末装置10の表示部に表示される。ボタンB31が操作されると、タクスと項目とに応じた音声に対応するテキストおよびキーワードを含むが画像IM13が表示される。この画像IM13において、テキストに対して、発言者を識別するための情報や、発言がされた時間、発言時に選択されていていた付箋ID等が対応付けられる。画像IM11または画像IM13は、「音声情報に基づく情報と、区画と、区画に対応付けられたコメントに関する情報とを互いに対応付けた第6画像」である。「まとめ」画像、または後述する画像IM13は、「解析部により解析された情報」の一例である。 For example, when the button B30 is operated, the reflection diagram shown in FIG. 9 or the like is displayed on the display unit of the terminal device 10. When the button B31 is operated, the image IM13 is displayed, including text and keywords corresponding to the voice according to the tax and the item. In the image IM 13, information for identifying the speaker, the time when the speaker was made, the sticky note ID selected at the time of the speech, and the like are associated with the text. The image IM 11 or the image IM 13 is a "sixth image in which information based on voice information, a section, and information about a comment associated with the section are associated with each other". The “summary” image or the image IM13 described later is an example of “information analyzed by the analysis unit”.

例えば、ユーザは、リフレクション図や、音声に対応するテキスト、キーワード等を参照しながら、ノウハウ入力画像IM13にノウハウを入力することで、ノウハウを蓄積する。例えば、場面(例えばタスク)ごとに、やること、心構え、動機などを入力して、ノウハウをまとめる。 For example, the user accumulates know-how by inputting the know-how into the know-how input image IM13 while referring to the reflection diagram, the text corresponding to the voice, the keyword, and the like. For example, for each scene (for example, a task), input what to do, attitude, motive, etc., and summarize the know-how.

また、ノウハウ入力画像IM13の付箋の選択ボタンB40、B41、またはB42が操作されると、入力内容に対応付ける付箋の一覧(例えば付箋が対応付けられたリフレクション図)が表示部に表示される。ユーザが、付箋の一覧の中から付箋を選択すると、画像生成部108が、付箋の情報を入力内容に対応付けた画像や、付箋の内容を示す画像のリンクを入力内容に対応付けた画像を生成する。そして、ユーザが、ノウハウをまとめた後に、ボタンB32を操作すると、予め設定されたユーザの端末装置10に、まとめられたノウハウが送信される。 Further, when the sticky note selection buttons B40, B41, or B42 of the know-how input image IM13 are operated, a list of sticky notes associated with the input contents (for example, a reflection diagram associated with the sticky notes) is displayed on the display unit. When the user selects a sticky note from the list of sticky notes, the image generation unit 108 creates an image in which the sticky note information is associated with the input content or an image in which the link of the image indicating the sticky note content is associated with the input content. Generate. Then, when the user operates the button B32 after collecting the know-how, the collected know-how is transmitted to the user's terminal device 10 set in advance.

このように、語り合いの各内容が関連付けられると共に可視化されるため、ユーザは、語り合いから得られるノウハウを容易にまとめたり、まとめた情報をユーザ間で共有したりすることができる。 In this way, since each content of the discussion is associated and visualized, the user can easily summarize the know-how obtained from the discussion and share the summarized information among the users.

[具体例]
以下、「プロジェクトに関するリフレクション」の実施内容について説明する。
実施タイミング;月1回程度、またはプロジェクトの進行上、切りのよいタイミングで行われる。
参加メンバー;振り返る範囲に関わっていたメンバー
[Concrete example]
The contents of "reflection on the project" will be described below.
Implementation timing: It is implemented about once a month, or at a good timing due to the progress of the project.
Participating members; members who were involved in the scope of looking back

(STEP1)事前準備
時間;30分
参加メンバー;プロジェクトの主要メンバー数人
用意するもの;リフレクショ支援システム1(または情報共有支援装置100)、実施したことを思い出せる資料
やること;実施したことをリフレクショ支援システムに提供される付箋に入力する。
(STEP1) Preparation time; 30 minutes Participating members; Several main members of the project Prepared; Reflection support system 1 (or information sharing support device 100), materials that remind you of what you have done; Reflect what you have done Fill in the sticky notes provided to the project support system.

(STEP2)リフレクションミーティング
時間;60〜90分
参加メンバー;チームメンバー(関係者なるべく全員)
用意するもの;リフレクショ支援システム1(または情報共有支援装置100)、実施したことを思い出せる資料、その他資料
やること;タスクを実施したときに感じたことをリフレクショ支援システム1に提供される付箋に入力する。また、タスクを実施したときに感じたことをメンバーで語り合いながら振り返る。
(STEP2) Reflection meeting time: 60-90 minutes Participating members; Team members (preferably all involved)
Things to prepare; Reflection support system 1 (or information sharing support device 100), materials that remind you of what you have done, and other materials What you do; Sticky notes that you feel when you perform the task Enter in. Also, look back on what you felt when you performed the task while discussing with the members.

ミーティングを開始する前に、場のセッティングを行う。例えば、実施しことの手順、および振り返る範囲において実施したことを思い出せる資料をユーザが視認可能な状態する。また、ユーザの役割を決定する。例えば振り返りの司会進行を行う進行役、積極的にメンバーに質問する質問役、発言者の発言をメモや入力する記録役を決定する。 Set up the venue before starting the meeting. For example, the procedure of the implementation and the material that reminds the user of the implementation in the range of looking back are made visible to the user. It also determines the role of the user. For example, a facilitator who conducts a retrospective moderator, a questioner who actively asks questions to members, and a recorder who notes and inputs the speaker's remarks are determined.

語り合いにおいて、振り返り項目に対して、例えば(1)〜(4)のような観点で質問をする。(1)「〇〇って具体的にはどんな感じだったのですか?」と質問し、具体的な中身を聞いて詳細を深堀する。(2)「○○はどういう風にやったのですか?」と質問し、詳細なやり方を聞く。(3)「なぜ○○を行ったのですか?」と質問し、実施した理由を聞く。(4)「〇〇さんはどうでしたか?」と質問し、同じ話題を発言の少ないメンバーにも聞く。上記のような語り合いの中で出た意見を、情報共有支援装置100に入力し、リフレクション図を作成したり、考察したりする。 In the discussion, ask questions about the retrospective items from the viewpoints of (1) to (4), for example. (1) Ask the question, "What exactly was XX like?", Ask the specific contents, and dig deeper into the details. (2) Ask the question, "How did you do XX?" And ask how to do it in detail. (3) Ask "Why did you do XX?" And ask why you did it. (4) Ask "How was Mr. XX?" And ask the members who have few remarks about the same topic. The opinions expressed in the above discussion are input to the information sharing support device 100 to create or consider a reflection diagram.

(STEP3)ノウハウのまとめ
まとめ役のメンバーは、上述した図20に示した画像等を用いて、ノウハウをまとめる。そして、まとめられたノウハウはメンバー間で共有される。このようにノウハウなどの知性が共有される。
(STEP3) Summary of know-how The members of the coordinator summarize the know-how using the images and the like shown in FIG. 20 described above. Then, the summarized know-how is shared among the members. In this way, intelligence such as know-how is shared.

[変形例]
図22は、変形例のリフレクショ支援システム1Aの構成図である。リフレクショ支援システム1Aは、例えば、一以上の端末装置10と、情報共有支援装置100と、通話サーバ200とを備える。
[Modification example]
FIG. 22 is a configuration diagram of the reflection support system 1A of the modified example. The reflection support system 1A includes, for example, one or more terminal devices 10, an information sharing support device 100, and a call server 200.

通話サーバ200は、ユーザが端末装置10に入力した音声である音声情報を取得し、他の端末装置10、および情報共有支援装置100に取得した音声情報を送信する。通話サーバ200は、遠隔地の端末装置10間で会議や通話を行うためのシステムである。情報共有支援装置100は、通話サーバ200から取得した音声情報を解析する。例えば、記憶部120には、予めユーザの音声情報から抽出した音声の特徴量が、ユーザに対して対応付けられた特徴情報が記憶されている。音声の特徴量とは、声の周波数スペクトルに基づいて導出された指標である。音声解析部110は、上述した特徴情報を参照して、発話したユーザを特定する。 The call server 200 acquires voice information that is voice input to the terminal device 10 by the user, and transmits the acquired voice information to the other terminal device 10 and the information sharing support device 100. The call server 200 is a system for conducting a conference or a call between the terminal devices 10 in a remote location. The information sharing support device 100 analyzes the voice information acquired from the call server 200. For example, the storage unit 120 stores the feature information in which the feature amount of the voice extracted from the voice information of the user in advance is associated with the user. The voice feature quantity is an index derived based on the frequency spectrum of the voice. The voice analysis unit 110 identifies the user who has spoken by referring to the above-mentioned feature information.

なお、複数の端末装置10は、通話サーバ200または情報共有支援装置100を介さずに直接的に通信し、音声情報を送受信してもよい。 The plurality of terminal devices 10 may directly communicate with each other without going through the call server 200 or the information sharing support device 100 to transmit and receive voice information.

以上説明した実施形態によれば、情報共有支援装置100は、ユーザにより入力されたコメント情報を取得する情報管理部104と、情報管理部104により取得されたコメント情報を、予め設定された区画に対応付けた第1画像を生成する画像生成部108と、区画ごとのユーザによる着目度合を導出する情報処理部106とを備え、画像生成部108は、着目度合を反映させた第2画像を生成し、画像生成部108により生成された画像をユーザに提示する提示部114を更に備えることにより、複数のユーザで有益な情報を共有することができる。 According to the embodiment described above, the information sharing support device 100 puts the information management unit 104 that acquires the comment information input by the user and the comment information acquired by the information management unit 104 into preset sections. An image generation unit 108 that generates the associated first image and an information processing unit 106 that derives the degree of attention by the user for each section are provided, and the image generation unit 108 generates a second image that reflects the degree of attention. Further, by further providing a presentation unit 114 that presents the image generated by the image generation unit 108 to the user, useful information can be shared by a plurality of users.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

1、1A‥リフレクショ支援システム、10‥端末装置、100‥情報共有支援装置、102‥通信部、104‥情報管理部、106‥情報処理部、108‥画像生成部、110‥音声解析部、112‥変換処理部、114‥提示部、120‥記憶部、122‥参加者情報、124‥音声情報、126‥拡大情報、128‥テキスト情報、130‥キーワード情報 1, 1A: Reflection support system, 10: Terminal device, 100: Information sharing support device, 102: Communication unit, 104: Information management unit, 106: Information processing unit, 108: Image generation unit, 110: Voice analysis unit, 112 ... Conversion processing unit, 114 ... Presentation unit, 120 ... Storage unit, 122 ... Participant information, 124 ... Voice information, 126 ... Enlarged information, 128 ... Text information, 130 ... Keyword information

Claims (11)

ユーザにより入力されたコメント情報を取得する取得部と、
前記取得部により取得されたコメント情報を、予め設定された区画に対応付けた第1画像を生成する画像生成部と、
前記区画ごとのユーザによる着目度合を導出する処理部と、を備え、
前記画像生成部は、前記着目度合を反映させた第2画像を生成し、
前記画像生成部により生成された画像をユーザに提示する提示部を更に備える、
情報共有支援装置。
An acquisition unit that acquires comment information entered by the user,
An image generation unit that generates a first image in which the comment information acquired by the acquisition unit is associated with a preset section, and an image generation unit.
It is provided with a processing unit for deriving the degree of attention of the user for each section.
The image generation unit generates a second image that reflects the degree of attention.
A presentation unit for presenting an image generated by the image generation unit to the user is further provided.
Information sharing support device.
前記処理部は、前記区画に対応けられた前記コメント情報がユーザによって参照された度合に基づいて、前記着目度合を導出する、
請求項1に記載の情報共有支援装置。
The processing unit derives the degree of attention based on the degree to which the comment information corresponding to the section is referred to by the user.
The information sharing support device according to claim 1.
前記処理部は、前記第1画像において、ユーザによって拡大操作が行われた区画の着目度合を大きくする、
請求項1または2に記載の情報共有支援装置。
The processing unit increases the degree of attention of the section in which the enlargement operation is performed by the user in the first image.
The information sharing support device according to claim 1 or 2.
前記画像生成部は、前記区画に対応付けたコメント情報に対して、前記コメント情報を発案したユーザまたは当該ユーザの使用する端末装置を識別可能な情報を付与する、
請求項1から3のうちいずれか1項に記載の情報共有支援装置。
The image generation unit adds information that can identify the user who proposed the comment information or the terminal device used by the user to the comment information associated with the section.
The information sharing support device according to any one of claims 1 to 3.
前記処理部は、前記区画に付与されたラベルが共通する区画ごとの着目度合を集計し、
前記画像生成部は、前記集計された値に基づく第3画像を生成する、
請求項1から4のうちいずれか1項に記載の情報共有支援装置。
The processing unit aggregates the degree of attention for each section in which the labels given to the sections are common.
The image generation unit generates a third image based on the aggregated values.
The information sharing support device according to any one of claims 1 to 4.
前記区画は、少なくとも、第1ラベルと第2ラベルの二軸で区分され、
前記処理部は、
前記第1ラベル間に所定の共通性が存在する場合に、前記第2ラベルが共通する区画の着目度合を集計し、
前記第1ラベル間に所定の共通性が存在しない場合に、前記第1ラベルが共通する区画の着目度合を集計し、
前記画像生成部は、前記集計された値に基づく第4画像を生成する、
請求項1から5のうちいずれか1項に記載の情報共有支援装置。
The compartment is divided by at least two axes, a first label and a second label.
The processing unit
When a predetermined commonality exists between the first labels, the degree of attention of the sections common to the second labels is totaled.
When a predetermined commonality does not exist between the first labels, the degree of attention of the sections common to the first labels is totaled.
The image generation unit generates a fourth image based on the aggregated values.
The information sharing support device according to any one of claims 1 to 5.
前記取得部は、前記ユーザにより入力された音声である音声情報を取得し、
前記画像生成部は、前記取得部により取得された音声情報のタイムテーブルと、前記区画とを関連付けた第5画像を生成し、
前記提示部は、前記画像生成部により生成された第5画像をユーザに提示する、
請求項1から6のうちいずれか1項に記載の情報共有支援装置。
The acquisition unit acquires voice information which is voice input by the user, and obtains voice information.
The image generation unit generates a fifth image in which the timetable of the voice information acquired by the acquisition unit and the section are associated with each other.
The presenting unit presents the fifth image generated by the image generating unit to the user.
The information sharing support device according to any one of claims 1 to 6.
前記取得部は、前記ユーザにより入力された音声である音声情報を取得し、
前記画像生成部は、前記音声情報に基づく情報と、前記区画と、前記区画に対応付けられたコメント情報に関する情報とを対応付けた第6画像を生成し、
前記提示部は、前記画像生成部により生成された第6画像をユーザに提示する、
請求項1から7のうちいずれか1項に記載の情報共有支援装置。
The acquisition unit acquires voice information which is voice input by the user, and obtains voice information.
The image generation unit generates a sixth image in which the information based on the voice information, the section, and the information related to the comment information associated with the section are associated with each other.
The presenting unit presents the sixth image generated by the image generating unit to the user.
The information sharing support device according to any one of claims 1 to 7.
前記取得部は、前記ユーザにより入力された音声である音声情報を取得し、
前記音声情報に基づいて、ユーザごとの音声を認識する音声認識部と、
前記音声認識部により認識された音声をテキスト化し、前記テキスト化したテキストと前記テキストに対応する音声を発したユーザとを互いに対応付ける解析部と、を備え、
前記提示部は、前記解析部により解析された情報をユーザに提示する、
請求項1から8のうちいずれか1項に記載の情報共有支援装置。
The acquisition unit acquires voice information which is voice input by the user, and obtains voice information.
A voice recognition unit that recognizes the voice of each user based on the voice information,
It is provided with an analysis unit that converts the voice recognized by the voice recognition unit into text and associates the converted text with a user who has emitted a voice corresponding to the text.
The presenting unit presents the information analyzed by the analysis unit to the user.
The information sharing support device according to any one of claims 1 to 8.
コンピュータが、
ユーザにより入力されたコメント情報を取得し、
前記取得されたコメント情報を、予め設定された区画に対応付けた第1画像を生成し、
前記区画ごとのユーザによる着目度合を導出し、
前記着目度合を反映させた第2画像を生成し、
前記生成された画像をユーザに提示する、
情報共有支援方法。
The computer
Get the comment information entered by the user and
A first image in which the acquired comment information is associated with a preset section is generated.
Derivation of the degree of attention by the user for each section
A second image that reflects the degree of attention is generated.
Presenting the generated image to the user,
Information sharing support method.
コンピュータに、
ユーザにより入力されたコメント情報を取得させ、
前記取得されたコメント情報を、予め設定された区画に対応付けた第1画像を生成させ、
前記区画ごとのユーザによる着目度合を導出させ、
前記着目度合を反映させた第2画像を生成させ、
前記生成された画像をユーザに提示させる、
プログラム。
On the computer
Get the comment information entered by the user
A first image in which the acquired comment information is associated with a preset section is generated.
The degree of attention by the user for each section is derived, and the degree of attention is derived.
A second image that reflects the degree of attention is generated.
To have the user present the generated image.
program.
JP2018168538A 2018-09-10 2018-09-10 Information sharing support equipment, information sharing support methods, and programs Active JP6937730B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018168538A JP6937730B2 (en) 2018-09-10 2018-09-10 Information sharing support equipment, information sharing support methods, and programs
JP2021139627A JP7193595B2 (en) 2018-09-10 2021-08-30 INFORMATION SHARING SUPPORT DEVICE, INFORMATION SHARING SUPPORT METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018168538A JP6937730B2 (en) 2018-09-10 2018-09-10 Information sharing support equipment, information sharing support methods, and programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021139627A Division JP7193595B2 (en) 2018-09-10 2021-08-30 INFORMATION SHARING SUPPORT DEVICE, INFORMATION SHARING SUPPORT METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2020042471A JP2020042471A (en) 2020-03-19
JP6937730B2 true JP6937730B2 (en) 2021-09-22

Family

ID=69798368

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018168538A Active JP6937730B2 (en) 2018-09-10 2018-09-10 Information sharing support equipment, information sharing support methods, and programs
JP2021139627A Active JP7193595B2 (en) 2018-09-10 2021-08-30 INFORMATION SHARING SUPPORT DEVICE, INFORMATION SHARING SUPPORT METHOD, AND PROGRAM

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021139627A Active JP7193595B2 (en) 2018-09-10 2021-08-30 INFORMATION SHARING SUPPORT DEVICE, INFORMATION SHARING SUPPORT METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (2) JP6937730B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7367483B2 (en) 2019-11-21 2023-10-24 京セラドキュメントソリューションズ株式会社 Electronic payment method, electronic payment device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007286780A (en) * 2006-04-14 2007-11-01 Fuji Xerox Co Ltd Electronic system, program and method for supporting electronic conference, and electronic conference controller
JP2008097341A (en) * 2006-10-12 2008-04-24 Fujitsu Ltd Improvement activity support program, method and device
JP2009086952A (en) * 2007-09-28 2009-04-23 Fuji Xerox Co Ltd Information processing system and information processing program
JP5257330B2 (en) * 2009-11-06 2013-08-07 株式会社リコー Statement recording device, statement recording method, program, and recording medium
JP5423444B2 (en) 2010-02-04 2014-02-19 株式会社リコー Network system, server device, and groupware program
JP6446766B2 (en) * 2013-07-08 2019-01-09 株式会社リコー Program, display control device, recording medium, and display control system
JP6618992B2 (en) * 2015-04-10 2019-12-11 株式会社東芝 Statement presentation device, statement presentation method, and program
JP6759552B2 (en) 2015-10-29 2020-09-23 富士ゼロックス株式会社 Information processing equipment and information processing programs
JP6875861B2 (en) * 2017-01-05 2021-05-26 富士通株式会社 Information processing methods, devices, and programs

Also Published As

Publication number Publication date
JP7193595B2 (en) 2022-12-20
JP2020042471A (en) 2020-03-19
JP2022000767A (en) 2022-01-04

Similar Documents

Publication Publication Date Title
Yung et al. New realities: a systematic literature review on virtual reality and augmented reality in tourism research
Allen et al. Smart-phone augmented reality for public participation in urban planning
Shin et al. Design for experience innovation: understanding user experience in new product development
CA2814549A1 (en) Method of visualizing the collective opinion of a group
Giemza et al. LEMONADE: a flexible authoring tool for integrated mobile learning scenarios
Chowdhury et al. Virtual environments as medium for laypeople to communicate and collaborate in urban design
CN109948151A (en) The method for constructing voice assistant
WO2006016208A2 (en) Personal support infrastructure for development of user applications and interfaces
CN112397061A (en) Online interaction method, device, equipment and storage medium
JP7193595B2 (en) INFORMATION SHARING SUPPORT DEVICE, INFORMATION SHARING SUPPORT METHOD, AND PROGRAM
Masclet et al. A socio-cognitive analysis of evaluation and idea generation activities during co-creative design sessions supported by spatial augmented reality
Kassis et al. Discovering factors that influence the use of augmented reality for communication on active highway construction sites
US11947894B2 (en) Contextual real-time content highlighting on shared screens
KR20230065339A (en) Model data processing method, device, electronic device and computer readable medium
KR101677805B1 (en) Method for collecting and providing learning contents via social learning, and user device and social learning server therefor
Braukhane et al. The dark side of concurrent design: a story of improvisations, workarounds, nonsense and success
Beck Evaluating human-computer interfaces for specification and comprehension of transient behavior in microservice-based software systems
White et al. United we respond: One community, one voice
Tian Application and analysis of artificial intelligence graphic element algorithm in digital media art design
Horchani et al. A platform for output dialogic strategies in natural multimodal dialogue systems
Augenstein et al. DESIGNING FOR BUSINESS MODEL COMPREHENSION–PRINCIPLES FOR AN EXTENDED BUSINESS MODEL TOOL
Rekrut et al. Is co-creation superior to user centred design? preliminary results from user interface design for inclusive public transport
Lant et al. Science preparedness and science response: perspectives on the dynamics of preparedness conference
McGinley et al. Accessing user information for use in design
Kyakulumbye et al. Creating knowledge in the design thinking process: reflections on participatory design

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210831

R150 Certificate of patent or registration of utility model

Ref document number: 6937730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350