JP2020042471A - 情報共有支援装置、情報共有支援方法、およびプログラム - Google Patents

情報共有支援装置、情報共有支援方法、およびプログラム Download PDF

Info

Publication number
JP2020042471A
JP2020042471A JP2018168538A JP2018168538A JP2020042471A JP 2020042471 A JP2020042471 A JP 2020042471A JP 2018168538 A JP2018168538 A JP 2018168538A JP 2018168538 A JP2018168538 A JP 2018168538A JP 2020042471 A JP2020042471 A JP 2020042471A
Authority
JP
Japan
Prior art keywords
information
image
user
unit
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018168538A
Other languages
English (en)
Other versions
JP6937730B2 (ja
Inventor
知惠美 瀧
Chiemi Taki
知惠美 瀧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LY Corp
Original Assignee
Z Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Z Holdings Corp filed Critical Z Holdings Corp
Priority to JP2018168538A priority Critical patent/JP6937730B2/ja
Publication of JP2020042471A publication Critical patent/JP2020042471A/ja
Priority to JP2021139627A priority patent/JP7193595B2/ja
Application granted granted Critical
Publication of JP6937730B2 publication Critical patent/JP6937730B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】複数のユーザで有益な情報を共有する。【解決手段】ユーザにより入力されたコメント情報を取得する取得部と、前記取得部により取得されたコメント情報を、予め設定された区画に対応付けた第1画像を生成する画像生成部と、前記区画ごとのユーザによる着目度合を導出する処理部と、を備え、前記画像生成部は、前記着目度合を反映させた第2画像を生成し、前記画像生成部により生成された画像をユーザに提示する提示部を更に備える情報共有支援装置ある。【選択図】図1

Description

本発明は、情報共有支援装置、情報共有支援方法、およびプログラムに関する。
従来、モノとの相互作用である複数のインタラクションの組合せと、モノを利用した人々の知覚や反応である複数のユーザエクスペリエンスとの組み合わせと、複数のインタラクションの組合せとユーザエクスペリエンスとの組み合わせとの各々の組合せにおける相関係数を記憶するメモリと、ユーザからの情報の要求に対し、メモリの情報に基づいて情報を抽出する処理部とを備えるユーザエクスペリエンス予測装置が開示されている(例えば、特許文献1参照)。
特開2017−33426号公報
しかしながら、上記の技術では、複数のユーザで有益な情報を共有することができない場合があった。
本発明は、このような事情を考慮してなされたものであり、複数のユーザで有益な情報を共有することができる情報共有支援装置、情報共有支援方法、およびプログラムを提供することを目的の一つとする。
本発明の一態様は、ユーザにより入力されたコメント情報を取得する取得部と、前記取得部により取得されたコメント情報を、予め設定された区画に対応付けた第1画像を生成する画像生成部と、前記区画ごとのユーザによる着目度合を導出する処理部と、を備え、前記画像生成部は、前記着目度合を反映させた第2画像を生成し、前記画像生成部により生成された画像をユーザに提示する提示部を更に備える情報共有支援装置ある。
本発明の一態様によれば、複数のユーザで有益な情報を共有することができる。
リフレクショ支援システム1の機能構成の一例を示す図である。 参加者情報122の内容の一例を示す図である。 端末装置10に提供される画像IM1の一例を示す図である。 各端末装置10に提供される画像IM2の一例を示す図である。 振り返り項目およびタクスが設定されたリフレクション図を含む画像IM3の一例を示す図である。 リフレクション支援システム1により実行されるタスクおよび振り返り項目を設定する処理の流れを示すシーケンス図である。 音声情報124の内容の一例を示す図である。 端末装置10に提供されるウエブページを示す画像IM4の一例を示す図である。 付箋が対応付けられたリフレクション図の画像IM5の一例を示す図である。 リフレクション支援システム1により実行される付箋を貼付する処理の流れを示すシーケンス図である。 付箋がグループ化された画像IM6の一例を示す図である。 階層図を含む画像IM7の一例を示す図である。 リフレクション支援システム1により実行される見解が階層化される処理を示すシーケンス図である。 リフレクション図の所定の領域が拡大表示された様子の一例を示す図である。 拡大情報126の内容の一例を示す図である。 ユーザに提供される語り合い時間を含む画像IM9の一例を示す図である。 画像IM9#の一例を示す図である。 時間ごとの、区画と区画に含まれる指定された付箋IDとの対応関係を示す画像の一例を示す図である。 リフレクション支援システム1により実行される着目された付箋と、着目時間とが対応付けられる処理を示すシーケンス図である。 キーワード情報130の内容の一例を示す図である。 画像生成部108により生成される「まとめ」画像の一例を示す図である。 変形例のリフレクション支援システム1Aの構成図である。
以下、図面を参照し、本発明の情報共有支援装置、情報共有支援方法、およびプログラムの実施形態について説明する。
[概要]
本実施形態の情報共有支援装置は、例えば、「プロジェクトに関するリフレクション」などの手法に基づく情報の共有を支援する装置である。「プロジェクトに関するリフレクション」とは、一人一人の思いをチームで共有し、チームが持つノウハウを導き出す振り返り手法である。「プロジェクトに関するリフレクション」とは、例えば、チームのメンバーがプロジェクトを進める中で感じていることを振り返ったり、チームのメンバーがプロジェクトに取り組む原動力になっている実践の知性(例えばノウハウ)を抽出したりする活動である。
実施形態の情報共有支援装置は、一以上のプロセッサにより実現される。情報共有支援装置は、ユーザにより入力されたコメント情報を取得し、取得したコメント情報を、予め設定された区画に対応付けた第1画像を生成する。情報共有支援装置は、区画ごとのユーザによる着目度合を導出し、着目度合を反映させた第2画像を生成する。そして、情報共有支援装置は、上記の生成された画像をユーザに提示する。
区画とは、例えば、タスクと項目との二軸で区分されたものである。「タスク」とは、プロジェクトにおいてクリアすべきタスクである。「項目」とは、プロジェクトにおける振り返り項目である。例えば、タスクをクリアする上で苦労したことや、苦労の乗り越え方、モチベーション、気づき、ノウハウなどである。「対応付け」とは、例えば、コメントが区画に対するコメントであることを識別可能にすることを含む。また、「対応付け」とは、区画内にコメントを含めることであってよい。
「着目度合」は、例えば、区画に対応けられたコメント情報がユーザによって参照された度合に基づいて導出される。「参照」とは、例えば、ユーザがコメント情報を指定したり、拡大して視認したり、区画に着目することである。
[構成]
図1は、リフレクション支援システム1の機能構成の一例を示す図である。リフレクション支援システム1は、例えば、一以上の端末装置10(図1では10−1〜10−3)と、情報共有支援装置100とを備える。これらの装置は、ネットワークNWを介して互いに通信する。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)、インターネット、専用回線、無線基地局、プロバイダなどを含む。
[端末装置]
端末装置10は、ユーザによって使用される装置であり、例えば、スマートフォンなどの携帯電話、タブレット型コンピュータ、ノート型コンピュータ、デスクトップ型コンピュータなどである。また、端末装置10は、例えば、カメラやマイク、スピーカなどを備えてもよい。
端末装置10では、ブラウザやアプリケーションプログラムなどのUA(User Agent)が起動する。ユーザは、端末装置10を操作して、情報共有支援装置100にアクセスして、所望の情報を入力したり、所望の情報を取得したりする。なお、後述する情報共有支援装置100の機能構成の一部または全部が端末装置10に含まれてもよいし、情報共有支援装置100の記憶部に記憶された情報の一部または全部が端末装置10の記憶部に記憶されてもよい。
端末装置10が、情報共有支援装置100にログインすると、例えば、端末装置10が備える、または端末装置10に接続されたマイクがオン状態に制御される。この状態で、ユーザがマイクに音声を入力すると、端末装置10は、入力された音声情報を情報共有支援装置100に送信する。情報共有支援装置100は、送信された音声を他の端末装置10に送信する。そして、この他の端末装置10は、取得した音声情報をスピーカに出力させる。これにより、端末装置10のユーザ間での会話が可能になる。また、端末装置10が、情報共有支援装置100にログインすると、端末装置10のカメラがオン状態に制御され、ユーザの画像が情報共有支援装置100に送信されもよい。これにより画像が各端末装置10間で共有される。
なお、端末装置10は、音声に代えて(または加えて)、テキストを情報共有支援装置100に送信してもよい。この場合、情報共有支援装置100は、送信されたテキストを他の端末装置10に送信する。これによりテキストが各端末装置10間で共有される。
[情報共有支援装置]
情報共有支援装置100は、例えば、通信部102と、情報管理部104と、情報処理部106と、画像生成部108と、音声解析部110と、変換処理部112と、提示部114と、記憶部120とを備える。情報管理部104、情報処理部106、画像生成部108、音声解析部110、変換処理部112、および提示部114は、CPU(Central Processing Unit)等のハードウェアプロセッサが、記憶装置に記憶されたプログラムを実行することにより実現される。また、これらの機能部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、上記のプログラムは、予め記憶装置に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体が情報共有支援装置100のドライブ装置に装着されることで記憶装置にインストールされてもよい。
記憶部120は、例えば、ROM(Read Only Memory)、フラッシュメモリ、SDカード、RAM(Random Access Memory)、HDD(Hard Disc Drive)、レジスタ等によって実現される。また、記憶部120は、NAS(Network Attached Storage)や外部ストレージサーバ装置等であってもよい。
記憶部120には、例えば、参加者情報122、音声情報124、拡大情報126、テキスト情報128、およびキーワード情報130が記憶されている。
図2は、参加者情報122の内容の一例を示す図である。参加者情報122は、例えば、端末装置10の識別情報(例えばIPアドレス;以下、端末ID)と、ユーザの識別情報(以下、ユーザID)と、後述する付箋の識別情報(以下、付箋ID)とが互いにに対応付けられた情報である。
通信部102は、ネットワークNWを介して、端末装置10と通信する。通信部102は、例えば、NIC(Network Interface Card)等の通信インターフェースを含む。
情報管理部104は、通信部102の通信結果に基づいて、端末装置10により送信された情報を取得したり、取得した情報または自装置の処理結果を記憶部120に記憶させたりする。情報管理部104は、ユーザにより入力されたコメント情報や、ユーザが端末装置10のマイクに入力した音声情報を、端末装置10から取得する。
情報処理部106は、情報管理部104により取得されたコメント情報を、コメントを発案したユーザのユーザIDまたは当該ユーザが使用する端末装置10の端末IDに対応付け、更にコメント情報を、指定されたタスクと項目とが対応付けられた区画に対応付けた情報を記憶部120に記憶させる。情報処理部106は、区画に対する着目度合を導出し、導出結果を記憶部120に記憶させる。
画像生成部108は、情報管理部104により取得されたコメント情報に基づく各種画像を生成する。詳しくは、後述する。
音声解析部110は、情報管理部104により取得された音声情報に基づいて、ユーザごとの音声を認識する。
変換処理部112は、音声解析部110により認識された音声をテキスト化し、テキスト化したテキストと、テキストに対応する音声を発したユーザとを互いに対応付けたテキスト情報128を生成する。
提示部114は、画像生成部108により生成された画像をユーザに提示する。提示部114は、情報管理部104により取得された音声情報と、区画とを関連付けて、ユーザに提示する。
[タスクおよび振り返り項目を設定する処理]
情報共有支援装置100が、端末装置10に提供するウエブページの一例について説明する。例えば、情報共有支援装置100は、図3に示す画像IM1を端末装置10−1および10−2に提供する。画像IM1は、例えば、端末装置10の表示部に表示された付箋領域T1および送信ボタンB1を含む。
付箋領域T1は、ユーザがリフレクションのテーマについて語り合いするための情報を入力する領域である。例えば、付箋領域T1には、テーマ(例えばプロジェクト)において「実施したこと」が入力される。ユーザが送信ボタンB1を操作すると、付箋領域T1に入力された情報が情報共有支援装置100に送信される。情報共有支援装置100の情報処理部106は、各端末装置10により送信された付箋領域T1に入力された情報を取得し、取得した付箋領域T1に入力された情報と、付箋IDと、端末装置10の識別情報(またはユーザの識別情報)とを互いに対応付けて記憶部120に記憶させる。
上記のように、「実施したこと」が入力されると、情報共有支援装置100の提示部114は、端末装置10の依頼に応じて、図4に示す画像IM2を各端末装置10に提供する。画像IM2は、例えば、マトリックス状の表(以下、リフレクション図)が含まれる。リフレクション図は、テーマに関してリフレクションするためのマトリクスである。例えば、リフレクション図の、縦軸は振り返り項目1〜4で構成され、横軸はタスクの内容が表示されるタスク1〜4で構成される。
振り返り項目に対応する領域のそれぞれには、振り返り項目を入力する入力領域が設けられている。例えば、入力領域AR11をユーザが操作すると、プルダウンメニューが表示され、ユーザはプルダウンメニューから振り返り項目を選択することで入力領域AR11に振り返り項目を設定することができる。なお、振り返り項目は、手動で入力されてもよいし、予め設定されていてもよい。
タスクに対応する領域のそれぞれには、タスクを入力する入力領域AR12が設けられている。例えば、入力領域AR12をユーザが操作すると、プルダウンメニューが表示され、ユーザはプルダウンメニューからタスクを選択することで入力領域AR12にタスクを設定することができる。
プルダウンメニューによって表示されるタスクは、例えば、付箋領域T1に入力され、端末装置10によって情報共有支援装置100に送信された内容である。例えば、ユーザは、語り合いをしながら、タスクが時系列に並ぶようにタスクを選択したり、重要度の高いタスクを選択したりすることができる。また、画像IM2において、ユーザが所定の操作または不図示のボタンを操作すると、付箋領域T1に入力された情報が一覧となって表示されてもよい。なお、タスクは、手動で入力されてもよい。
上記のような処理が行われ、振り返り項目およびタスクが設定される。図5は、振り返り項目およびタクスが設定されたリフレクション図を含む画像IM3の一例を示す図である。
(シーケンス(その1))
図6は、リフレクション支援システム1により実行されるタスクおよび振り返り項目を設定する処理の流れを示すシーケンス図である。以下の説明では、端末装置10−1、10−2、および情報共有支援装置100の処理を中心に説明する。
まず、端末装置10−1および10−2が、情報共有支援装置100にアクセスし、ログインのための情報を入力すると(S10、S12)、情報共有支援装置100の情報処理部106が、端末装置10により入力された情報と、予め記憶部120に登録された情報とに基づいて認証処理を行う。そして、認証が成立すると、情報共有支援装置100は、端末装置10−1および10−2に前述した図3に示したようなウエブページを提供する(S14、S16)。
次に、端末装置10−1が、例えば、マイクに入力された音声を音声情報として情報共有支援装置100に送信する(S18)。情報共有支援装置100の情報管理部104が、音声情報を取得する。情報処理部106が、音声情報を端末装置10の識別情報に対応付けて音声情報124として記憶部120に記憶させる(S20)。
図7は、音声情報124の内容の一例を示す図である。音声情報124は、音声情報、端末装置の識別情報、およびユーザの識別情報が互いに対応付けられた情報である。
図6の説明に戻る。次に、提示部114が、端末装置10−1により送信された音声情報を、端末装置10−2に送信する(S22)。このように音声情報の送受信がされることにより、端末装置10を管理するユーザは会話をすることができる。
次に、端末装置10−2が、図3に示した付箋を情報共有支援装置100に送信し(S24)、端末装置10−1が、付箋を情報共有支援装置100に送信する(S26)。情報共有支援装置100の情報処理部106は、S24、S26で送信された付箋の情報を端末装置10の識別情報に対応付けて記憶部120に記憶させる(S28)。
次に、端末装置10−2が、タスクを設定する操作を行う(S30)。次に、画像生成部108が、リフレクション図における振り返り項目に対してタスクを設定した画像を生成する(S32)。そして、提示部114が、画像生成部108により生成された画像を端末装置10−1、10−2に提示する(S34、S36)。
[付箋を貼付する処理]
図8は、端末装置10に提供されるウエブページを示す画像IM4の一例を示す図である。例えば、情報共有支援装置100は、図8に示す画像IM4を端末装置10−1および10−2に提供する。画像IM4は、例えば、端末装置10の表示部に表示された付箋領域T2、付箋を貼る位置を指定する指定ボタンB10、送信ボタンB11、およびリフレクション図に戻るための戻るボタンB12を含む。ユーザがリフレクション図に戻るボタンB12を操作すると、画像IM4が図5の画像IM3に示したような画像に遷移する。
付箋領域T2は、例えば、タスクに対する振り返り項目の内容が入力される。ユーザが指定ボタンB10を操作すると、振り返り項目とタスクの内容との組み合わせが表示される。ユーザが、組み合わせを指定すると、付箋領域T2に入力された情報が付箋として、リフレクション図において指定された組み合わせに対応する区画に対応付けられる。情報共有支援装置100の情報処理部106は、各端末装置10により送信された付箋領域T2に入力された情報を取得し、取得した付箋領域T2に入力された情報と、付箋IDと、端末装置10の識別情報と、指定された区画とを互いに対応付けて記憶部120に記憶させる。
図9は、付箋が対応付けられたリフレクション図の画像IM5の一例を示す図である。画像IM5において、ユーザが送信した付箋がリフレクション図に貼付される。図9の画像IM5は、各端末装置10において共有される。これにより、ユーザは、各ユーザの考えを認識することができる。画像IM5は、「第1画像」の一例である。
また、例えば、付箋には、コメント情報を発案したユーザまたは当該ユーザの使用する端末装置を識別可能な情報が付与される。例えば、付箋は、ユーザの識別情報(または端末装置の識別情報)が付与されたり、ユーザの識別情報ごとに異なる明度や色彩で表示されたりしてもよい。また、付箋が操作された場合に、ユーザの識別情報が表示されてもよい。これにより、ユーザは、各ユーザの考え方をユーザごとに認識することができる。
(シーケンス(その2))
図10は、リフレクション支援システム1により実行される付箋を貼付する処理の流れを示すシーケンス図である。
まず、情報共有支援装置100の提示部114が、ウエブページを端末装置10−1および10−2に提供する(S100、S102)。次に、端末装置10−1が、提供されたウエブページに含まれる付箋に意見を入力し、意見を含む付箋とユーザの識別情報とを互いに対応付けた情報を情報共有支援装置100に送信する(S104)。次に、情報共有支援装置100の情報処理部106は、リフレクション図において、付箋を指定された区画に対応付けて記憶部120に記憶させる(S106)。また、端末装置10−2が、提供されたウエブページにおける付箋に意見を入力し、意見を含む付箋とユーザの識別情報とを互いに対応付けた情報を情報共有支援装置100に送信する(S108)。次に、情報共有支援装置100の情報処理部106は、リフレクション図において、付箋を指定された区画に対応付けて記憶部120に記憶させる(S110)。
次に、画像生成部108が、リフレクション図において、付箋を指定された区画に対応付けた画像を生成する(S112)。次に、提示部114が、画像生成部108により生成された画像を端末装置10−1、10−2に提示する(S114、S116)。なお、S112の処理は、S106の処理の直後に行われ、提示部114は、画像生成部108により生成された画像を端末装置10−1に送信してもよい。
[付箋をグループ化する処理]
図11は、付箋がグループ化された画像IM6の一例を示す図である。画像IM6には、リフレクション図に加え、更にグループ化ボタンB20、および階層図ボタンB21が含まれる。例えば、ユーザが、グループ化ボタンB20を操作して、グループ化したい付箋を選択すると、付箋はグループ化される。そして、グループ化された付箋は、他の付箋と識別可能な態様に変化する。また、グループ化は、複数の階層で行われてもよい。例えば、グループ化した付箋の中で、更に付箋はグループ化されてもよい。
また、区画に対して所定の操作が行われた場合に、操作が行われた区画に語り合いが終了したことを示す情報が対応付けられてもよい。
上述したように、付箋がグループ化された後、階層図ボタンB21が操作されると、階層図が表示される。図12は、階層図を含む画像IM7の一例を示す図である。例えば、階層図において、タスクと振り返り項目ごとに、ユーザの見解がどのように推移しているかが表示される。例えば、第1階層において、ユーザA、Bの付箋がグループ化され、Cの付箋がグループ化されなかった場合、A、Bの見解がグループ化され、Cの見解とA、Bの見解とは枝分かれするようなアイコンを含む画像が生成される。例えば、第2階層において、ユーザAとユーザBとの付箋がグループ化されなかった場合、Aの見解とBの見解とは枝分かれするようなアイコンを含む画像が生成される。
上述したように、ユーザの見解がグループ化され、グループ化された見解が視認可能に端末装置10の表示部に表示される。この結果、ユーザは、語り合いの内容について理解を深めることができる。
なお、ユーザの見解が階層化される処理は、音声解析処理やテキスト解析処理等によって行われてもよい。例えば、情報共有支援装置100は、ユーザの音声情報と、不図示の音声認識モデルと、不図示のテキスト認識モデルとに基づいて、ユーザの見解についてグループ化してもよい。例えば、音声解析部110が、音声をテキスト化するための音声認識モデル(不図示)を用いて、ユーザの音声情報をユーザに対応付けてテキスト化する。そして、変換処理部112が、テキスト化したテキストを、不図示のテキスト認識モデルを用いてグループ化する。テキスト認識モデルは、テキストの意味を解釈し、肯定的な発言であるか、否定的な発言であるかを識別するモデルである。例えば、ユーザAの発言の後に、ユーザBがAの発言を肯定するような発言をした場合、ユーザA、Bとの発言はグループ化される。
(シーケンス(その3))
図13は、リフレクション支援システム1により実行される見解が階層化される処理を示すシーケンス図である。
まず、ユーザによって付箋が選択される操作が行われると、端末装置10−1は、操作に基づく情報を情報共有支援装置100に送信する(S200)。次に、情報共有支援装置100の情報処理部106は、操作に基づく情報を用いて付箋をグループ化し、グループ化した情報を記憶部120に記憶させる(S202)。次に、情報共有支援装置100の画像生成部108が、グループ化された付箋を含む画像を生成する(S204)。次に、提示部114が、生成された画像を端末装置10−1、および10−2に提供する(S206、S208)。
次に、端末装置10−1が、情報共有支援装置100に階層図の提供を要求する(S210)。次に、情報共有支援装置100の画像生成部108が、S202でグループ化した処理に基づいて、階層図を含む画像を生成する(S212)。次に、提示部114が、生成された階層図の画像を端末装置10に提供する(S214)。
[語り合い時間を視認化する処理]
図14は、リフレクション図の所定の領域が拡大表示された様子の一例を示す図である。ユーザが所定の操作を行うと、図14に示すようにリフレクション図の一部が拡大される。なお、例えば、振り返り項目3とタスク3とが対応付けられた区画を拡大する操作がされた場合、画像生成部108は、当該区画を拡大表示すると共に、当該区画に振り返り項目3のラベルとタスク3のラベルを対応付けた画像を生成する。例えば、図14の画像IM8の例では、領域AR21〜AR24のうち、領域AR22には振り返り項目3の内容が表示され、領域AR23にはタスク3の内容が表示され、領域AR24には当該区画のコメント情報が表示される。そして、提示部114が、生成された画像をユーザに提示する。
情報処理部106が、拡大されたタスクと振り返り項目とに対応する区画(フォーカス領域)、リフレクション図が拡大された時間、および指定された付箋IDが互いに対応付けられた拡大情報126として記憶部120に記憶させる。図15は、拡大情報126の内容の一例を示す図である。情報管理部104は、拡大情報126を参照して、所定の区画に対する語り合い時間を推定し、推定結果をユーザに提供する。例えば、情報処理部106は、フォーカス領域に対応付けられた時間を合計して語り合い時間(「着目度合」の一例)を推定する。着目度合は、ユーザによって拡大操作が行われた区画の着目度合は大きくなるように導出される。画像生成部108は、情報処理部106により推定された語り合い時間を含む画像を生成する。
図16は、ユーザに提供される語り合い時間を含む画像IM9の一例を示す図である。画像IM9は、「第2画像」または「第3画像」の一例である。図16の各区画に含まれる四角柱は、その区画の振り返り項目とタスクとに対する語り合い時間(「着目度合」の一例)を示している。また、上記の区画における付箋の数は、その区画において対応付けられた付箋の数を示している。更に、画像IM9において、タスクと振り返り項目とに対する語り合いの合計時間が対応付けられている。上記の付箋の数、または合計時間は、「着目度合」の他の一例である。
例えば、情報処理部106は、タスクごとの語り合い時間を合計する。画像生成部108は、合計した語り合い時間を含む画像IM9を生成する。また、情報処理部106は、タスクごとに代えて(或いは加えて)、振り返り項目ごとに語り合い時間を合計してもよい。例えば、情報処理部106は、区画に対応付けられたタスクと振り返り項目とのうち、タスク間(第1ラベル)に所定の共通性が存在する場合に、振り返り項目(第2ラベル)が共通する区画ごとの着目度合を集計する。そして、画像生成部108は、集計された値に基づく画像IM9#を生成する。図17は、画像IM9#の一例を示す図である。画像IM9#は、「第4画像」または「第3画像」の一例である。また、情報処理部106は、タスク間に共通性が存在しない場合に、タスクが共通する区画ごとの着目度合を集計する。
「タスク間に所定の共通性が存在する」とは、タスクの内容に共通する単語が存在するタスクや、予め設定された単語やセンテンスが存在するタスクである。例えば、ウエブページの画面デザインがテーマとされた場合において、タスクの内容が「ラフスケッチのデザイン」、「プロトタイプのデザイン」、「完成版のデザイン」などが、共通性が存在するタスクの一例である。また、タスクの内容が「トップ画面のデザイン」、「第1サブ画面のデザイン」、「第2サブ画面のデザイン」などが、共通性が存在するタスクの一例である。なお、タスクごとに語り合い時間を算出するか、振り返り項目ごとに語り合い時間を算出するかを切り替えるためのボタンが画像IM9、または画像IM9#に含まれてもよい。
また、語り合いの合計時間に加え、後述する音声解析により抽出されたキーワードが区画やタスク、振り返り項目に付けられてもよい。また、図16または図17において、所定の区画に対して、ユーザが所定の操作を行うと、画像は、操作された区画を中心とした図14に示したような拡大図に遷移する。
上述したように、区画ごとの語り合い時間がユーザに視認可能に提供される。この結果、ユーザは、テーマにおいて語り合い時間が長かった項目やタスク等を容易に認識することができる。
なお、情報処理部106は、区画に対応けられた付箋(コメント情報)がユーザによって参照された度合に基づいて、着目度合を導出してもよい。例えば、ユーザが、所定の付箋を指定(或いは指示)するような操作や拡大する操作を行っている時間を算出する。そして、情報処理部106は、操作を行っている時間が長いほど、その操作対象の付箋が対応付けられた区画の着目度合を大きい傾向で導出する。
また、ユーザが所定の操作を行うと、図18に示すように時間ごとの、区画と区画に含まれる指定された付箋IDとの対応関係を示す画像IM10がユーザに提供される。この画像は、画像生成部108により生成された画像であり、「音声のタイムテーブルと、区画とを関連付けた第5画像」の一例である。
これにより、選択された付箋について語り合いされた時間が、ユーザにとって視認可能となる。例えば、ユーザが、所定の付箋IDの語り合いについて、音声を取得したい場合、付箋IDに対応付けられた時間に対応する音声を取得することにより、容易に付箋に対する語り合いの音声を取得することができる。
[シーケンス(その4)]
図19は、リフレクション支援システム1により実行される着目された付箋と、着目時間とが対応付けられる処理を示すシーケンス図である。
まず、端末装置10が、所定の領域を拡大して表示することを指示する情報を情報共有支援装置100に送信する(S300)。次に、情報共有支援装置100の提示部114が、端末装置10により提供された指示に基づいて、画像生成部108により生成された所定の領域を拡大した画像を端末装置10に送信する(S302、S304)。次に、情報処理部106が、拡大した画像の領域と時間とを互いに対応付けて記憶部120に記憶させる(S306)。
次に、所定の領域が拡大された画像が端末装置10の表示部に表示された状態で、ユーザが付箋を選択すると、端末装置10は、選択した付箋の情報を情報共有支援装置100に送信する(S308)。次に、情報処理部106が、選択された付箋と、時間とを互いに対応付けて記憶部120に記憶させる(S310)。次に、画像生成部108が、選択された付箋と、選択されていない付箋とを識別可能に表した画像を生成する。そして、提示部114が、画像生成部108により生成された画像を端末装置10に提供する(S312、S314)。
[音声解析]
情報共有支援装置100の音声解析部110は、音声を解析して、頻出する単語であるキーワードを抽出してもよい。音声解析部110は、例えば、所定時間以内において、所定回数以上、出現した単語やセンテンスであり、且つ予め設定された単語やセンテンスとは異なる単語やセンテンスをキーワードとして抽出し、抽出したキーワードをキーワード情報130として記憶部120に記憶させる。予め設定された単語やセンテンスとは、日常の会話において一般的に使用される単語やセンテンスである。
図20は、キーワード情報130の内容の一例を示す図である。キーワード情報130は、抽出されたキーワードと、キーワードが抽出された区画と、キーワードが出現した時間とが互いに対応付けられた情報である。
例えば、提示部114は、ユーザからの要求に応じて、キーワード情報130を参照し、キーワード、キーワードが出現した区画、および出現時間を互いに対応付けた情報をユーザに提供する。これにより、語り合いにおけるキーワード、およびキーワードに関連する情報がユーザに視認可能に提供されるため、より語り合いの内容を容易に認識することができる。
図21は、画像生成部108により生成される「まとめ」画像の一例を示す図である。「まとめ」画像は、上述した処理結果が対応付けられた情報およびノウハウ入力画面IM12を含むものである。「まとめ」画像は、例えば、ユーザが所定の操作を行うことでユーザに提示される。例えば、「まとめ」画像は、上記の図18に示した画像に加え、リフレクション図を開くためのボタンB30、タスクおよび項目に対応付けられた音声に対応するテキストを開くボタンB31、ノウハウをメンバーに送信するボタンB32が含まれる。
例えば、ボタンB30が操作されると、上記の図9等に示したリフレクション図が端末装置10の表示部に表示される。ボタンB31が操作されると、タクスと項目とに応じた音声に対応するテキストおよびキーワードを含むが画像IM13が表示される。この画像IM13において、テキストに対して、発言者を識別するための情報や、発言がされた時間、発言時に選択されていていた付箋ID等が対応付けられる。画像IM11または画像IM13は、「音声情報に基づく情報と、区画と、区画に対応付けられたコメントに関する情報とを互いに対応付けた第6画像」である。「まとめ」画像、または後述する画像IM13は、「解析部により解析された情報」の一例である。
例えば、ユーザは、リフレクション図や、音声に対応するテキスト、キーワード等を参照しながら、ノウハウ入力画像IM13にノウハウを入力することで、ノウハウを蓄積する。例えば、場面(例えばタスク)ごとに、やること、心構え、動機などを入力して、ノウハウをまとめる。
また、ノウハウ入力画像IM13の付箋の選択ボタンB40、B41、またはB42が操作されると、入力内容に対応付ける付箋の一覧(例えば付箋が対応付けられたリフレクション図)が表示部に表示される。ユーザが、付箋の一覧の中から付箋を選択すると、画像生成部108が、付箋の情報を入力内容に対応付けた画像や、付箋の内容を示す画像のリンクを入力内容に対応付けた画像を生成する。そして、ユーザが、ノウハウをまとめた後に、ボタンB32を操作すると、予め設定されたユーザの端末装置10に、まとめられたノウハウが送信される。
このように、語り合いの各内容が関連付けられると共に可視化されるため、ユーザは、語り合いから得られるノウハウを容易にまとめたり、まとめた情報をユーザ間で共有したりすることができる。
[具体例]
以下、「プロジェクトに関するリフレクション」の実施内容について説明する。
実施タイミング;月1回程度、またはプロジェクトの進行上、切りのよいタイミングで行われる。
参加メンバー;振り返る範囲に関わっていたメンバー
(STEP1)事前準備
時間;30分
参加メンバー;プロジェクトの主要メンバー数人
用意するもの;リフレクショ支援システム1(または情報共有支援装置100)、実施したことを思い出せる資料
やること;実施したことをリフレクショ支援システムに提供される付箋に入力する。
(STEP2)リフレクションミーティング
時間;60〜90分
参加メンバー;チームメンバー(関係者なるべく全員)
用意するもの;リフレクショ支援システム1(または情報共有支援装置100)、実施したことを思い出せる資料、その他資料
やること;タスクを実施したときに感じたことをリフレクショ支援システム1に提供される付箋に入力する。また、タスクを実施したときに感じたことをメンバーで語り合いながら振り返る。
ミーティングを開始する前に、場のセッティングを行う。例えば、実施しことの手順、および振り返る範囲において実施したことを思い出せる資料をユーザが視認可能な状態する。また、ユーザの役割を決定する。例えば振り返りの司会進行を行う進行役、積極的にメンバーに質問する質問役、発言者の発言をメモや入力する記録役を決定する。
語り合いにおいて、振り返り項目に対して、例えば(1)〜(4)のような観点で質問をする。(1)「〇〇って具体的にはどんな感じだったのですか?」と質問し、具体的な中身を聞いて詳細を深堀する。(2)「○○はどういう風にやったのですか?」と質問し、詳細なやり方を聞く。(3)「なぜ○○を行ったのですか?」と質問し、実施した理由を聞く。(4)「〇〇さんはどうでしたか?」と質問し、同じ話題を発言の少ないメンバーにも聞く。上記のような語り合いの中で出た意見を、情報共有支援装置100に入力し、リフレクション図を作成したり、考察したりする。
(STEP3)ノウハウのまとめ
まとめ役のメンバーは、上述した図20に示した画像等を用いて、ノウハウをまとめる。そして、まとめられたノウハウはメンバー間で共有される。このようにノウハウなどの知性が共有される。
[変形例]
図22は、変形例のリフレクショ支援システム1Aの構成図である。リフレクショ支援システム1Aは、例えば、一以上の端末装置10と、情報共有支援装置100と、通話サーバ200とを備える。
通話サーバ200は、ユーザが端末装置10に入力した音声である音声情報を取得し、他の端末装置10、および情報共有支援装置100に取得した音声情報を送信する。通話サーバ200は、遠隔地の端末装置10間で会議や通話を行うためのシステムである。情報共有支援装置100は、通話サーバ200から取得した音声情報を解析する。例えば、記憶部120には、予めユーザの音声情報から抽出した音声の特徴量が、ユーザに対して対応付けられた特徴情報が記憶されている。音声の特徴量とは、声の周波数スペクトルに基づいて導出された指標である。音声解析部110は、上述した特徴情報を参照して、発話したユーザを特定する。
なお、複数の端末装置10は、通話サーバ200または情報共有支援装置100を介さずに直接的に通信し、音声情報を送受信してもよい。
以上説明した実施形態によれば、情報共有支援装置100は、ユーザにより入力されたコメント情報を取得する情報管理部104と、情報管理部104により取得されたコメント情報を、予め設定された区画に対応付けた第1画像を生成する画像生成部108と、区画ごとのユーザによる着目度合を導出する情報処理部106とを備え、画像生成部108は、着目度合を反映させた第2画像を生成し、画像生成部108により生成された画像をユーザに提示する提示部114を更に備えることにより、複数のユーザで有益な情報を共有することができる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1、1A‥リフレクショ支援システム、10‥端末装置、100‥情報共有支援装置、102‥通信部、104‥情報管理部、106‥情報処理部、108‥画像生成部、110‥音声解析部、112‥変換処理部、114‥提示部、120‥記憶部、122‥参加者情報、124‥音声情報、126‥拡大情報、128‥テキスト情報、130‥キーワード情報

Claims (11)

  1. ユーザにより入力されたコメント情報を取得する取得部と、
    前記取得部により取得されたコメント情報を、予め設定された区画に対応付けた第1画像を生成する画像生成部と、
    前記区画ごとのユーザによる着目度合を導出する処理部と、を備え、
    前記画像生成部は、前記着目度合を反映させた第2画像を生成し、
    前記画像生成部により生成された画像をユーザに提示する提示部を更に備える、
    情報共有支援装置。
  2. 前記処理部は、前記区画に対応けられた前記コメント情報がユーザによって参照された度合に基づいて、前記着目度合を導出する、
    請求項1に記載の情報共有支援装置。
  3. 前記処理部は、前記第1画像において、ユーザによって拡大操作が行われた区画の着目度合を大きくする、
    請求項1または2に記載の情報共有支援装置。
  4. 前記画像生成部は、前記区画に対応付けたコメント情報に対して、前記コメント情報を発案したユーザまたは当該ユーザの使用する端末装置を識別可能な情報を付与する、
    請求項1から3のうちいずれか1項に記載の情報共有支援装置。
  5. 前記処理部は、前記区画に付与されたラベルが共通する区画ごとの着目度合を集計し、
    前記画像生成部は、前記集計された値に基づく第3画像を生成する、
    請求項1から4のうちいずれか1項に記載の情報共有支援装置。
  6. 前記区画は、少なくとも、第1ラベルと第2ラベルの二軸で区分され、
    前記処理部は、
    前記第1ラベル間に所定の共通性が存在する場合に、前記第2ラベルが共通する区画の着目度合を集計し、
    前記第1ラベル間に所定の共通性が存在しない場合に、前記第1ラベルが共通する区画の着目度合を集計し、
    前記画像生成部は、前記集計された値に基づく第4画像を生成する、
    請求項1から5のうちいずれか1項に記載の情報共有支援装置。
  7. 前記取得部は、前記ユーザにより入力された音声である音声情報を取得し、
    前記画像生成部は、前記取得部により取得された音声情報のタイムテーブルと、前記区画とを関連付けた第5画像を生成し、
    前記提示部は、前記画像生成部により生成された第5画像をユーザに提示する、
    請求項1から6のうちいずれか1項に記載の情報共有支援装置。
  8. 前記取得部は、前記ユーザにより入力された音声である音声情報を取得し、
    前記画像生成部は、前記音声情報に基づく情報と、前記区画と、前記区画に対応付けられたコメント情報に関する情報とを対応付けた第6画像を生成し、
    前記提示部は、前記画像生成部により生成された第6画像をユーザに提示する、
    請求項1から7のうちいずれか1項に記載の情報共有支援装置。
  9. 前記取得部は、前記ユーザにより入力された音声である音声情報を取得し、
    前記音声情報に基づいて、ユーザごとの音声を認識する音声認識部と、
    前記音声認識部により認識された音声をテキスト化し、前記テキスト化したテキストと前記テキストに対応する音声を発したユーザとを互いに対応付ける解析部と、を備え、
    前記提示部は、前記解析部により解析された情報をユーザに提示する、
    請求項1から8のうちいずれか1項に記載の情報共有支援装置。
  10. コンピュータが、
    ユーザにより入力されたコメント情報を取得し、
    前記取得されたコメント情報を、予め設定された区画に対応付けた第1画像を生成し、
    前記区画ごとのユーザによる着目度合を導出し、
    前記着目度合を反映させた第2画像を生成し、
    前記生成された画像をユーザに提示する、
    情報共有支援方法。
  11. コンピュータに、
    ユーザにより入力されたコメント情報を取得させ、
    前記取得されたコメント情報を、予め設定された区画に対応付けた第1画像を生成させ、
    前記区画ごとのユーザによる着目度合を導出させ、
    前記着目度合を反映させた第2画像を生成させ、
    前記生成された画像をユーザに提示させる、
    プログラム。
JP2018168538A 2018-09-10 2018-09-10 情報共有支援装置、情報共有支援方法、およびプログラム Active JP6937730B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018168538A JP6937730B2 (ja) 2018-09-10 2018-09-10 情報共有支援装置、情報共有支援方法、およびプログラム
JP2021139627A JP7193595B2 (ja) 2018-09-10 2021-08-30 情報共有支援装置、情報共有支援方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018168538A JP6937730B2 (ja) 2018-09-10 2018-09-10 情報共有支援装置、情報共有支援方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021139627A Division JP7193595B2 (ja) 2018-09-10 2021-08-30 情報共有支援装置、情報共有支援方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020042471A true JP2020042471A (ja) 2020-03-19
JP6937730B2 JP6937730B2 (ja) 2021-09-22

Family

ID=69798368

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018168538A Active JP6937730B2 (ja) 2018-09-10 2018-09-10 情報共有支援装置、情報共有支援方法、およびプログラム
JP2021139627A Active JP7193595B2 (ja) 2018-09-10 2021-08-30 情報共有支援装置、情報共有支援方法、およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021139627A Active JP7193595B2 (ja) 2018-09-10 2021-08-30 情報共有支援装置、情報共有支援方法、およびプログラム

Country Status (1)

Country Link
JP (2) JP6937730B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7367483B2 (ja) 2019-11-21 2023-10-24 京セラドキュメントソリューションズ株式会社 電子決裁方法、電子決裁装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007286780A (ja) * 2006-04-14 2007-11-01 Fuji Xerox Co Ltd 電子会議システム、電子会議支援プログラム及び方法、電子会議制御装置
JP2008097341A (ja) * 2006-10-12 2008-04-24 Fujitsu Ltd 改善活動支援プログラム、方法及び装置
JP2009086952A (ja) * 2007-09-28 2009-04-23 Fuji Xerox Co Ltd 情報処理システム及び情報処理プログラム
US20110112835A1 (en) * 2009-11-06 2011-05-12 Makoto Shinnishi Comment recording apparatus, method, program, and storage medium
JP2015018013A (ja) * 2013-07-08 2015-01-29 株式会社リコー 表示制御装置、プログラム及び記録媒体
WO2016163028A1 (ja) * 2015-04-10 2016-10-13 株式会社東芝 発言提示装置、発言提示方法およびプログラム
JP2018109893A (ja) * 2017-01-05 2018-07-12 富士通株式会社 情報処理方法、装置、及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5423444B2 (ja) * 2010-02-04 2014-02-19 株式会社リコー ネットワークシステム、サーバ装置、及びグループウェアプログラム
JP6759552B2 (ja) * 2015-10-29 2020-09-23 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007286780A (ja) * 2006-04-14 2007-11-01 Fuji Xerox Co Ltd 電子会議システム、電子会議支援プログラム及び方法、電子会議制御装置
JP2008097341A (ja) * 2006-10-12 2008-04-24 Fujitsu Ltd 改善活動支援プログラム、方法及び装置
JP2009086952A (ja) * 2007-09-28 2009-04-23 Fuji Xerox Co Ltd 情報処理システム及び情報処理プログラム
US20110112835A1 (en) * 2009-11-06 2011-05-12 Makoto Shinnishi Comment recording apparatus, method, program, and storage medium
JP2011100355A (ja) * 2009-11-06 2011-05-19 Ricoh Co Ltd 発言記録装置、発言記録方法、プログラム及び記録媒体
JP2015018013A (ja) * 2013-07-08 2015-01-29 株式会社リコー 表示制御装置、プログラム及び記録媒体
WO2016163028A1 (ja) * 2015-04-10 2016-10-13 株式会社東芝 発言提示装置、発言提示方法およびプログラム
JP2018109893A (ja) * 2017-01-05 2018-07-12 富士通株式会社 情報処理方法、装置、及びプログラム

Also Published As

Publication number Publication date
JP2022000767A (ja) 2022-01-04
JP6937730B2 (ja) 2021-09-22
JP7193595B2 (ja) 2022-12-20

Similar Documents

Publication Publication Date Title
JP6969653B2 (ja) 電子会議システム
JP6866860B2 (ja) 電子会議システム
US11394667B2 (en) Chatbot skills systems and methods
JP6911155B2 (ja) 取得画像に関連したメタデータの記憶
JP2018063699A (ja) 人工知能及び会議ルールテンプレートを用いる電子会議の管理
US20120016661A1 (en) System, method and device for intelligent textual conversation system
JP2003510724A (ja) パーセプション管理用ポジショニングシステム
JP2020521210A (ja) 情報処理方法及び端末、コンピュータ記憶媒体
CN110263186A (zh) 用于识别、选择和呈现媒体内容项目的方法和系统
Giemza et al. LEMONADE: a flexible authoring tool for integrated mobile learning scenarios
JP2007243253A (ja) 情報配信システム及び情報配信方法
KR20190058066A (ko) 상담데이터 관리 방법 및 장치
JP7096172B2 (ja) キャラクタ性に応じた形容発話を含む対話シナリオを生成する装置、プログラム及び方法
JP7193595B2 (ja) 情報共有支援装置、情報共有支援方法、およびプログラム
CN109564580A (zh) 使用消息交换线程促进有效搜索
CN114064943A (zh) 会议管理方法、装置、存储介质及电子设备
CN109165180A (zh) 一种提高房源经纪人作业效率的方法和系统
Kassis et al. Discovering factors that influence the use of augmented reality for communication on active highway construction sites
KR101677805B1 (ko) 소셜 러닝을 통한 러닝 콘텐츠 수집 및 제공 방법, 이를 위한 사용자 단말 및 소셜 러닝 서버
Gonsalves et al. Designing an Interactive Chatbot for Educational Assistance using Rasa Framework
WO2020070906A1 (ja) ワークショップ支援システム及びワークショップ支援方法
Porta et al. A multimodal mobile B2B dialogue interface on the iPhone
Williams Developing Accessible Collection and Presentation Methods for Observational Data
Tran et al. Virtual office assistant on Magic Mirror
Ida Growth and Branching of Natural Language Processing

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210831

R150 Certificate of patent or registration of utility model

Ref document number: 6937730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350