JP2022141305A - 情報処理装置、及び情報処理プログラム - Google Patents
情報処理装置、及び情報処理プログラム Download PDFInfo
- Publication number
- JP2022141305A JP2022141305A JP2021041536A JP2021041536A JP2022141305A JP 2022141305 A JP2022141305 A JP 2022141305A JP 2021041536 A JP2021041536 A JP 2021041536A JP 2021041536 A JP2021041536 A JP 2021041536A JP 2022141305 A JP2022141305 A JP 2022141305A
- Authority
- JP
- Japan
- Prior art keywords
- user
- user data
- information
- chat room
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 66
- 238000004891 communication Methods 0.000 claims abstract description 53
- 230000004044 response Effects 0.000 claims description 64
- 238000000034 method Methods 0.000 claims description 50
- 238000012545 processing Methods 0.000 claims description 46
- 230000008569 process Effects 0.000 claims description 43
- 230000008451 emotion Effects 0.000 claims description 34
- 230000000694 effects Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 2
- 230000007704 transition Effects 0.000 claims 1
- 238000006243 chemical reaction Methods 0.000 abstract description 10
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 27
- 240000004050 Pentaglottis sempervirens Species 0.000 description 26
- 230000009471 action Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 19
- 230000008921 facial expression Effects 0.000 description 15
- 230000008859 change Effects 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 9
- 230000002996 emotional effect Effects 0.000 description 8
- 102220470087 Ribonucleoside-diphosphate reductase subunit M2_S20A_mutation Human genes 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 206010041308 Soliloquy Diseases 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010021703 Indifference Diseases 0.000 description 1
- 102220486681 Putative uncharacterized protein PRO1854_S10A_mutation Human genes 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/02—Details
- H04L12/16—Arrangements for providing special services to substations
- H04L12/18—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast
- H04L12/1813—Arrangements for providing special services to substations for broadcast or conference, e.g. multicast for computer conferences, e.g. chat rooms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/04—Real-time or near real-time messaging, e.g. instant messaging [IM]
- H04L51/046—Interoperability with other network applications or services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/07—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
- H04L51/08—Annexed information, e.g. attachments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/52—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Information Transfer Between Computers (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】チャットルームに投稿されたユーザデータから、各ユーザが行っているコミュニケーションの状況を把握する。【解決手段】チャットサーバ6は、チャットルーム10に投稿されたユーザデータを取得し、取得したユーザデータ及びユーザデータに対するリプライやユーザの反応の少なくとも1つをユーザデータの投稿を行ったユーザとユーザデータの投稿時間に関連付けて生成した関連付け情報を、ユーザの指示に従って複数の表示形態に切り替えて表示する。【選択図】図1
Description
本発明は、情報処理装置、及び情報処理プログラムに関する。
特許文献1には、複数の端末装置と通信可能に接続され、端末装置から受信したメッセージを他の端末装置に送信する情報処理システムであって、前記端末装置から受信したメッセージのスペルチェックを実行するチェック手段と、前記チェック手段によりスペルミスが発見された場合に、スペルミスが修正されたスペルを含むメッセージを前記他の端末装置に送信する送信手段と、を備える情報処理システムが開示されている。
特許文献2には、データの特徴を可視化するプログラムであって、少なくとも一つの変数に基づいてラベリングされたデータを取得する処理と、前記取得したデータの変数をパラメータとして特徴ベクトルを生成する処理と、前記生成した特徴ベクトルを多次元空間にマッピングする処理と、前記マッピングされた特徴ベクトルを画面に表示する処理と、の一連の処理を、コンピュータに実行させるプログラムが開示されている。
テレワークの普及に伴い、互いに離れた場所にいるユーザ同士がチャットを用いたグループウェアでコミュニケーションをとることがある。
チャットが行われるチャットルームでは、文字等のユーザデータを用いた会話が時系列に沿って表示されるため、例えば途中からチャットに参加したユーザがチャットルームで行われている会話の内容を把握するためには、チャットルームに投稿された会話を遡って読む必要がある。また、チャットルームでは複数の話題が並行して行われることもあり、どの会話がどの話題に対する発言であるのか、また、誰が会話に参加しているのかわかりにくいことがある。
本発明は、チャットルームに投稿されたユーザデータから、各ユーザが行っているコミュニケーションの状況を把握することができる情報処理装置、及び情報処理プログラムを提供することを目的とする。
第1態様に係る情報処理装置は、プロセッサを備え、前記プロセッサは、複数のユーザが参加するチャットルームに投稿されたユーザデータを取得し、取得した前記ユーザデータ及び前記ユーザデータに対する応答情報の少なくとも1つを前記ユーザデータの投稿を行ったユーザと前記ユーザデータの投稿時間に関連付けた関連付け情報を、複数の表示形態に切り替えて表示する。
第2態様に係る情報処理装置は、第1態様に係る情報処理装置において、前記プロセッサは、前記ユーザデータに付加された感情情報、及び前記ユーザデータに対する応答情報の少なくとも1つを用いて前記ユーザデータの各々を複数のカテゴリーに分類し、分類したカテゴリー毎に前記関連付け情報を異なる表示形態で表示する。
第3態様に係る情報処理装置は、第2態様に係る情報処理装置において、前記プロセッサは、前記応答情報を有する前記ユーザデータが含まれるカテゴリーにおいて、共通の前記ユーザデータを起点とする一連の応答情報を1つのコミュニケーションを形成するグループとして分割し、起点となる前記ユーザデータに対する応答情報の応答度合いに応じて前記グループ毎の表示形態を変化させる。
第4態様に係る情報処理装置は、第2態様又は第3態様に係る情報処理装置において、前記プロセッサは、前記チャットルームに参加するユーザが使用している情報機器の表示属性を取得し、取得したユーザ毎の前記情報機器の表示属性に従って、カテゴリー毎に分類された前記関連付け情報の表示形態を前記情報機器毎に変化させる。
第5態様に係る情報処理装置は、第1態様~第4態様の何れかの態様に係る情報処理装置において、前記プロセッサは、前記チャットルームに投稿された前記ユーザデータをユーザが指定した条件に従って抽出し、抽出した前記ユーザデータを用いて各ユーザの前記関連付け情報を表示する。
第6態様に係る情報処理装置は、第5態様に係る情報処理装置において、前記プロセッサは、時系列に沿って抽出したユーザ毎の前記ユーザデータを一覧表示する一覧画面を表示し、前記ユーザ毎に前記一覧画面から特定の期間におけるユーザの活動状況を記録した報告書を生成する。
第7態様に係る情報処理装置は、第6態様に係る情報処理装置において、前記プロセッサは、前記一覧画面において、前記ユーザデータによるコミュニケーションの相手がわかるように前記ユーザデータを表示する。
第8態様に係る情報処理装置は、第1態様~第7態様の何れかの態様に係る情報処理装置において、前記プロセッサは、ユーザが発する音声からユーザの感情を推定し、推定した感情の種類が切り替わる変わり目で前記音声を分割し、分割した各々の前記音声を表す文字に対して、推定したユーザの感情を表す感情情報を付加した前記ユーザデータを生成する。
第9態様に係る情報処理装置は、第8態様に係る情報処理装置において、前記プロセッサは、前記ユーザデータに付加されている感情情報を、ユーザが指定した感情情報に変更する。
第10態様に係る情報処理装置は、第8態様又は第9態様に係る情報処理装置において、前記プロセッサは、前記音声を分割して生成した前記ユーザデータを、ユーザが指定した分割位置で分割し直して前記チャットルームに表示する。
第11態様に係る情報処理装置は、第8態様~第10態様の何れかの態様に係る情報処理装置において、前記プロセッサは、音声から推定したユーザの感情と、音声を発するユーザを撮影したユーザ画像から推定したユーザの感情を組み合わせて、ユーザの感情を推定する。
第12態様に係る情報処理装置は、第8態様~第11態様の何れかの態様に係る情報処理装置において、前記プロセッサは、推定したユーザの感情を表す感情情報と対応付けられた吹き出しを用いて、前記チャットルームに前記ユーザデータを表示する。
第13態様に係る情報処理プログラムは、コンピュータに、複数のユーザが参加するチャットルームに投稿されたユーザデータを取得し、取得した前記ユーザデータ及び前記ユーザデータに対する応答情報の少なくとも1つを前記ユーザデータの投稿を行ったユーザと前記ユーザデータの投稿時間に関連付けた関連付け情報を、複数の表示形態に切り替えて表示する処理を実行させるプログラムである。
第1態様、及び第13態様によれば、チャットルームに投稿されたユーザデータから、各ユーザが行っているコミュニケーションの状況を把握することができる、という効果を有する。
第2態様によれば、分類されたカテゴリーに応じた表示形態で、各ユーザが行っているコミュニケーションの状況を把握することができる、という効果を有する。
第3態様によれば、会話の対象となっている話題毎に、各ユーザが行っているコミュニケーションの状況を把握することができる、という効果を有する。
第4態様によれば、ユーザが使用している情報機器の表示属性にあわせて、各ユーザが行っているコミュニケーションの状況を表示することができる、という効果を有する。
第5態様によれば、ユーザが指定した条件で、各ユーザが行っているコミュニケーションの状況を表示することができる、という効果を有する。
第6態様によれば、ユーザがチャットルームでチャットを行うだけで日報を生成することができる、という効果を有する。
第7態様によれば、ユーザはチャットルームに投稿されたユーザデータを遡って確認することなく、時系列に沿ったユーザ間におけるコミュニケーションの流れを把握することができる、という効果を有する。
第8態様によれば、ユーザがチャットルームに投稿したい内容を喋るだけで、どのような感情で発言したかユーザデータに含めることができる、という効果を有する。
第9態様によれば、ユーザの実際の感情とは異なる感情を表す感情情報がユーザデータに付加された場合であっても、ユーザデータに正しい感情情報を付加し直すことができる、という効果を有する。
第10態様によれば、音声から生成されたユーザデータが正しい分割位置で分割されていない場合であっても、ユーザデータを正しい分割位置で分割し直すことができる、という効果を有する。
第11態様によれば、音声からユーザの感情を推定するよりも、ユーザの感情を精度よく推定することができる、という効果を有する。
第12態様によれば、ユーザがチャットルームに送信したユーザデータに余分な文字を追加することなく、ユーザデータにユーザの感情を付加することができる、という効果を有する。
以下、本実施形態について図面を参照しながら説明する。なお、同じ構成要素及び同じ処理には全図面を通して同じ符号を付与し、重複する説明を省略する。
図1は、本実施形態に係る情報処理システム1の一例を示す図である。図1に示すように、情報処理システム1は、WEBサーバ4、チャットサーバ6、及びデータサーバ8を含み、WEBサーバ4、チャットサーバ6、及びデータサーバ8はLAN(Local Area Network)5で接続されている。情報処理システム1は、インターネット3に接続されたWEBサーバ4を経由して、同じくインターネット3に接続された各々のユーザが使用するユーザ端末2にチャットサービスを提供する。
「チャット」とは、ユーザが文字や画像を通じてリアルタイムに会話、つぶやき、依頼、お知らせ、忘備録の記入、及び報告といった情報伝達を行うことである。情報処理システム1は、チャットが行われる場所、すなわち「チャットルーム10」を各ユーザに提供する。チャットルーム10に投稿された情報は、ユーザ端末2を通じてチャットルーム10に参加する各々のユーザによって共有される。以降では、ユーザがユーザ端末2を通じてチャットルーム10に投稿する情報を「ユーザデータ」という。
WEBサーバ4は、ユーザ端末2の各々からユーザデータを受け付けてチャットサーバ6に通知すると共に、チャットルーム10で行われているコミュニケーションの状況をユーザに通知する情報画面をユーザ端末2に送信する。
情報処理装置の一例であるチャットサーバ6は、WEBサーバ4からユーザデータを受け付けると、ユーザデータ及びユーザデータに対する応答としてチャットルーム10に投稿されたユーザデータである応答情報の少なくとも1つを、ユーザデータの投稿を行ったユーザとユーザデータの投稿時間に関連付けた関連付け情報を生成する。すなわち、関連付け情報とは、チャットルーム10で行われているコミュニケーションの状況を表す情報の総称である。このような機能を有するチャットサーバ6は、チャット制御部6A及び表示切り替え部6Bを備える。
チャット制御部6Aは、チャットルーム10の管理及び関連付け情報の生成に関する処理を行う。具体的には、チャット制御部6Aは表示切り替え部6Bを制御して、チャットルーム10に投稿されたユーザデータから、ユーザによって指示された表示形態に従った関連付け情報を生成し、生成した関連付け情報を指示された表示形態で表示した情報画面をWEBサーバ4経由でユーザ端末2に配信する。
図2は、チャットルーム10の一例を示す図である。チャットルーム10では、ユーザデータの投稿者と対応付けられたユーザデータが投稿順に上から表示される。すなわち、チャットルーム10は、関連付け情報を表示する表示形態の一例である。
チャットルームに投稿されたユーザデータは吹き出し12に囲まれて表示される。吹き出し12には、ユーザデータを投稿したユーザの感情や心理状態を表す情報、すなわち感情情報が対応付けられている。ユーザ同士が対面で会話した場合には、例えばユーザの表情、声の大きさ及び高さ、並びに、発声速度から発言したユーザの感情や心理状態を把握することができる。しかしながら、チャットルーム10上でのチャットでは相手の表情や声の感じがわからないため、チャットルーム10に参加するユーザは、チャットルーム10に投稿されたユーザデータの内容だけでは感じ取ることが困難な、ユーザデータを投稿したユーザの感情や心理状態を、吹き出し12を通じて知ることができる。以降では、チャットルーム10に投稿されたユーザデータの内容だけでは感じ取ることが困難なユーザの感情や心理状態を「ニュアンス」という。
図3は、チャットルーム10で用いられる吹き出し12の一例を示す図である。吹き出し12には、例えばつぶやきに用いられる吹き出し12A、メモに用いられる吹き出し12B、お知らせに用いられる吹き出し12C、通常の投稿及びリプライに用いられる吹き出し12D、及び急ぎの投稿及びリプライに用いられる吹き出し12Eが存在する。
つぶやきに用いられる吹き出し12Aは、例えば他のユーザからの応答を特に期待していない発言、すなわち独り言としてチャットルーム10に投稿されたユーザデータに用いられる。以降では、吹き出し12Aで表示されるユーザデータを単に「つぶやき」ということがある。
メモに用いられる吹き出し12Bは、例えば自分への忘備録としてチャットルーム10に投稿されたユーザデータに用いられる。以降では、吹き出し12Bで表示されるユーザデータを単に「メモ」ということがある。
お知らせに用いられる吹き出し12Cは、例えばチャットルーム10の参加者に知らせたい事柄としてチャットルーム10に投稿されたユーザデータに用いられる。以降では、吹き出し12Cで表示されるユーザデータを単に「お知らせ」ということがある。
通常の投稿及びリプライに用いられる吹き出し12Dは、例えば独り言でも自分への忘備録でも他のユーザに知らせたい事柄でもないユーザデータに用いられる。以降では、吹き出し12Dで表示されるユーザデータを単に「通常の投稿及びリプライ」ということがある。
急ぎの投稿及びリプライに用いられる吹き出し12Eは、通常の投稿及びリプライの中でも、特に急いで他のユーザに知らせたいユーザデータ、及び何らかの反応がすぐに欲しいユーザデータに用いられる。以降では、吹き出し12Eで表示されるユーザデータを単に「急ぎの投稿及びリプライ」ということがある。
なお、吹き出し12A~12Eを区別して説明する必要がない場合、総称して「吹き出し12」という。
図3に示すように、各々の種類の吹き出し12には予め定めされたアイコン14が対応付けられており、チャット制御部6Aは、予め対応付けられたアイコン14を付加した吹き出し12をチャットルーム10に表示するように(図2参照)表示切り替え部6Bを制御する。
チャットルーム10に参加するユーザは、チャットルーム10にユーザデータと共に表示されたアイコン14を選択することで、アイコン14に予め対応付けられているユーザの感情をユーザデータに対する反応としてチャットルーム10に投稿することができる。すなわち、ユーザデータを投稿したユーザは、自分でユーザデータと共に表示するアイコン14をチャットサーバ6に指示しなくても、チャット制御部6Aがユーザデータに対応付けられる吹き出し12の種類に応じて、自律的に吹き出し12によって表される感情情報に対応したアイコン14をユーザデータと共にチャットルーム10に表示する。
例えばつぶやきに用いられる吹き出し12Aには、つぶやきに対して曖昧な同意や共感、及び疑問などを示すアイコン14が対応付けられている。具体的には、アイコン14Aは、つぶやきに対して曖昧な疑問がある場合に選択されるアイコン14であり、アイコン14Bは、つぶやきに対して曖昧な同意や共感が得られる場合に選択されるアイコン14である。
メモに用いられる吹き出し12Bには、ユーザデータを投稿した自分へのメモやアクション項目への反映及び対応意思の表示などを示すアイコン14が対応付けられている。具体的には、アイコン14Cは、メモに示した内容がやらなければならないアクション項目(「ToDo項目」ともいう)である場合に選択されるアイコン14であり、アイコン14Dは、アクション項目が既に何らかの行動をとっている着手済みのアクション項目である場合に選択されるアイコン14であり、アイコン14Eは、アクション項目が既に終了した実施済みのアクション項目である場合に選択されるアイコン14である。説明の便宜上、アイコン14Cを「アクションアイコン14C」、アイコン14Dを「着手アイコン14D」、及びアイコン14Eを「完了アイコン14E」ということがある。
お知らせに用いられる吹き出し12Cには、お知らせの内容を確認したことの表明などを示すアイコン14が対応付けられている。具体的には、アイコン14Fは、お知らせの内容への賛同(いわゆる「いいね」)を表明する場合に選択されるアイコン14であり、アイコン14Gは、アイコン14Fよりもお知らせの内容への積極的な賛同を表明する場合に選択されるアイコン14である。
また、通常の投稿及びリプライに用いられる吹き出し12Dには、例えば「いいね」のように投稿やリプライに対する気持ちを示すアイコン14Fが対応付けられ、急ぎの投稿及びリプライに用いられる吹き出し12Eには、例えば投稿やリプライの内容を確認し、内容に賛同したことを表明するアイコン14Fの他、アクション項目への反映などを示すアイコン14Cが対応付けられている。
なお、アイコン14A~14Gを区別して説明する必要がない場合、総称して「アイコン14」という。また、図3に示した各々の種類の吹き出し12に対応付けられるアイコン14は一例であり、チャット制御部6Aは、ユーザの指示に従って各々の種類の吹き出し12に対応付けるアイコン14の変更、削除、及び追加を行うことができる。
このようにユーザデータに対するリプライ、及びアイコン14を選択することでユーザデータに反映されるユーザの反応は、ユーザデータに対する応答情報の一例である。
図4は、チャット制御部6Aが何れの種類の吹き出し12を用いてユーザデータをチャットルーム10に表示するのかを説明した、吹き出し12の推定方法の概略を示す図である。
図4に示すように、ユーザはユーザデータをチャットルーム10に投稿する場合、ユーザ端末2のキーボードやタッチパネルといった入力装置2Aでユーザのニュアンスを指定し、ユーザ端末2からユーザデータと共にユーザのニュアンスをWEBサーバ4経由でチャットサーバ6に送信する。すなわち、ユーザデータが文字で表される場合、チャット制御部6Aは、ユーザが指定したニュアンスに従ってチャットルーム10に表示されるユーザデータの吹き出し12を特定する。
なお、ユーザ端末2からチャットサーバ6に送信するユーザデータは文字ではなく音声であってよい。この場合、ユーザがマイク9に向かって発した音声がユーザ端末2で音声データに変化され、WEBサーバ4経由でチャットサーバ6に送信される。
チャット制御部6Aは、音声で表されるユーザデータを文字で表したユーザデータに変換してチャットルーム10に表示すると共に、取得した音声からユーザのニュアンスを推定する。
ユーザ端末2にカメラ7が接続されている場合、ユーザはマイク9に向かって音声を発している自分の表情をカメラ7で撮影し、カメラ7で撮影した画像(「ユーザ画像」という)を音声と共にWEBサーバ4経由でチャットサーバ6に送信してもよい。この場合、チャット制御部6Aは、音声及びユーザ画像からユーザのニュアンスを推定する。
このように、ユーザデータを投稿したユーザのニュアンスは音声だけでも推定可能であるが、以降では一例として、チャット制御部6Aは、音声及びユーザ画像を用いてユーザのニュアンスを推定することにする。音声及びユーザ画像を用いたユーザのニュアンスの推定方法については後ほど詳細に説明する。
一方、図1のチャットサーバ6における表示切り替え部6Bは、チャット制御部6Aの指示に従った表示形態で関連付け情報を表示する情報画面を生成する。
データサーバ8は、チャットルーム10及び関連付け情報に関するデータを記憶する記憶装置である。
チャットサーバ6は、ユーザ端末2から受け付けたユーザデータをチャットルーム10と対応付けて、データサーバ8のユーザデータDB(Database)8Aに記憶する。また、チャットサーバ6は、各々の表示形態に対応した関連付け情報を表示形態毎に分類して、データサーバ8の分類データDB8Bに記憶する。なお、チャットサーバ6とデータサーバ8を分離せずに、チャットサーバ6をデータサーバ8と一体化させた構成であってもよい。
これまで説明してきた関連付け情報の表示形態には、例えば「俯瞰ビュー16」及び「履歴ビュー18」が存在する。
図5は俯瞰ビュー16の一例を示す図である。俯瞰ビュー16は、ユーザのニュアンスを表す吹き出し12の種類、及びユーザデータに対する応答情報の少なくとも1つを用いて、チャットルーム10に投稿されたユーザデータの各々を複数のカテゴリーに分類し、分類したカテゴリー毎に関連付け情報を異なる表示形態で表示する情報画面の一例である。具体的には、俯瞰ビュー16は、例えばユーザデータの表示に用いられた吹き出し12の種類、ユーザデータの投稿量、ユーザデータに対する応答情報の種類及び投稿量、ユーザデータ及び応答情報の投稿間隔及び投稿時間、ユーザデータ及び応答情報を投稿したユーザに関する属性、ユーザデータと共に投稿されたファイルの内容、並びに、応答情報の投稿対象であるユーザデータの少なくとも1つを用いて分類されたカテゴリー毎に関連付け情報を異なる表示形態で表示する。
なお、図5に示した俯瞰ビュー16では、チャットルーム10に投稿されたユーザデータが「ダッシュボード」、「お知らせ」、及び「コミュニケーション」という3つのカテゴリーに分類され、チャットルーム10で行われているコミュニケーションの状況がカテゴリー毎に異なる表示形態で表示されている。
俯瞰ビュー16におけるダッシュボードは、アクションアイコン14C、着手アイコン14D、及び完了アイコン14Eの選択状況に基づき、チャットルーム10に投稿されたメモを、単なるメモと、アクション項目を伴うメモとに分類し、アクション項目を伴うメモである場合には、更にアクション項目の進捗状況に応じてメモを分類して表示する。
俯瞰ビュー16におけるお知らせは、チャットルーム10に投稿されたお知らせだけをまとめて表示する。
俯瞰ビュー16におけるコミュニケーションは、チャットルーム10に投稿された共通のユーザデータを起点とする一連の応答情報を、起点となるユーザデータと共に1つのコミュニケーションを形成するグループ17として分割し、起点となるユーザデータに対する応答情報の応答度合いに応じてグループ17毎の表示形態を変化させて表示する。
説明の便宜上、俯瞰ビュー16におけるダッシュボードの表示範囲を「ダッシュボード領域」、お知らせの表示範囲を「お知らせ領域」、及びコミュニケーションの表示範囲を「コミュニケーション領域」という。
なお、応答情報の応答度合いとは、チャットの盛り上がり具合を表す指標であり、例えば単位時間当たりの応答情報の投稿数、及び応答情報を投稿したユーザの数が多いほど、応答度合いが高い、すなわち、チャットが盛り上がっていることを表している。図5の例では、チャットルーム10に投稿されたユーザデータが、グループ17A~17Cの3つのグループ17に分割されてコミュニケーション領域に表示されている。このうち、予め定めた応答度合い以上でチャットが行われているグループ17Aに対しては、Hotラベルが表示されている。
グループ17Cにはファイルを表すアイコン14Hが表示されているが、ユーザはユーザデータにファイルを添付してチャットルーム10に投稿することもできる。したがって、ファイルが添付されているユーザデータを表示する場合には、ファイルが添付されていることを示すアイコン14Hが表示される。
一方、図6は、履歴ビュー18の一例を示す図である。履歴ビュー18は、チャットルーム10に投稿されたユーザデータをユーザが指定した条件に従って抽出し、抽出したユーザデータを用いて各ユーザの関連付け情報を表示する情報画面の一例である。
図6の例では、ユーザによって指定された指定日におけるAさんとBさんのそれぞれのコミュニケーションの状況が時間帯毎に分類されて履歴ビュー18に表示されている。履歴ビュー18に表示されるマーク13は、ユーザ毎、かつ、時間帯毎のコミュニケーションの状況を視覚的に表す付加情報である。例えばマーク13Aはユーザが会議に出席していることを表し、マーク13Bはユーザがチャットルーム10につぶやきを投稿したことを表し、マーク13Cはユーザがつぶやき以外のユーザデータをチャットルーム10に投稿し、他のユーザとチャットを行っていることを表す。
ユーザが会議に出席しているか否かは、例えばチャット制御部6Aが、図示しないスケジュールサーバからユーザ毎のスケジュールを取得することで特定できる。このように、履歴ビュー18ではチャットルーム10に投稿されたユーザデータ以外にも、例えばチャットルーム10に参加しているユーザのスケジュール、ユーザ端末2の稼働状態、及びユーザの退勤情報のようなユーザに関する各種情報が表示可能である。すなわち、履歴ビュー18では、ユーザのコミュニケーションの状況を含んだ行動履歴が把握できる。
なお、対応する時間帯がユーザの勤務時間外である場合、勤務時間外の時間帯が勤務時間とは異なる形態で表示される。また、ユーザ端末2に電源が入っていない場合やユーザがユーザ端末2にログインしていない等、ユーザがチャットルーム10で他のユーザとコミュニケーションをとることができない状態にあった場合は、ユーザが当該状態にあった時間帯に“OFF”と表示される。図6に示す履歴ビュー18の例では、ユーザの勤務時間外の時間帯をグレーアウトしている。したがって、12月1日の12:00~13:00は、Bさんが勤務時間外であったことがわかる。
なお、グレーアウトとは、記載内容が確認できる程度の濃さの灰色で特定の箇所(この場合、時間帯の枠内)を塗りつぶす表示形態である。当然のことながら、灰色以外の色で特定の箇所を塗りつぶしてもよい。
ユーザデータ、ユーザのスケジュール、ユーザ端末2の稼働状態、及びユーザの退勤情報は履歴ビュー18の表示に用いられる情報の一例であり、こうした履歴ビュー18を表示するために用いられる情報を「履歴情報」という。
履歴ビュー18の表示に関してユーザが指定できる条件は日付だけに限られず、例えば履歴ビュー18に表示するユーザ、時間帯の幅、及び表示する履歴情報の種類、表示される履歴情報の種類によって変化する各時間帯の表示範囲における背景色等、少なくとも1つを指定することができる。
チャット制御部6Aは、各々のユーザからの指示により、ユーザ端末2毎に俯瞰ビュー16と履歴ビュー18を切り替えてユーザ端末2に表示するが、ユーザからの指示により、チャットルーム10、俯瞰ビュー16、及び履歴ビュー18の少なくとも2つを一緒にユーザ端末2に表示してもよい。俯瞰ビュー16及び履歴ビュー18も、分類したユーザデータを異なる表示形態で表示するカテゴリーの一例である。
図1に示したチャットサーバ6は、例えばコンピュータ20を用いて構成される。図7は、コンピュータ20を用いたチャットサーバ6の構成例を示す図である。
コンピュータ20は、図1に示したチャットサーバ6の機能の実行を担うプロセッサの一例であるCPU(Central Processing Unit)21、コンピュータ20をチャットサーバ6として機能させる情報処理プログラムを記憶するROM(Read Only Memory)22、CPU21の一時的な作業領域として使用されるRAM(Random Access Memory)23、不揮発性メモリ24、及び入出力インターフェース(I/O)25を備える。CPU21、ROM22、RAM23、不揮発性メモリ24、及びI/O25はバス26を介して各々接続されている。
不揮発性メモリ24は、不揮発性メモリ24に供給される電力が遮断されても記憶した情報が維持される記憶装置の一例であり、例えば半導体メモリが用いられるがハードディスクを用いてもよい。不揮発性メモリ24には、例えばCPU21が情報処理プログラムを実行する場合に参照する閾値等のパラメータが記憶される。
I/O25には、例えば通信ユニット27、入力ユニット28、及び表示ユニット29が接続される。
通信ユニット27はLAN5に接続され、WEBサーバ4経由でユーザ端末2とデータ通信を行うと共に、データサーバ8とデータ通信を行う通信プロトコルを備える。
入力ユニット28は、チャットサーバ6の操作者からの指示を受け付けてCPU21に通知する装置であり、例えばボタン、タッチパネル、キーボード、ポインティングデバイス、及びマウスが用いられる。
表示ユニット29は、CPU21によって処理された情報を視覚的に出力する装置であり、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、及び映像をスクリーンに投影するプロジェクタのような表示デバイスが用いられる。
なお、チャットサーバ6はインターネット3経由での遠隔操作も可能であるため、コンピュータ20において、入力ユニット28及び表示ユニット29は必ずしも必須のユニットではない。
次に、図4に示したように、ユーザが音声でチャットルーム10にユーザデータを投稿した場合における、ユーザのニュアンスの推定方法について説明する。
図8は、例えばチャットサーバ6がWEBサーバ4経由でユーザ端末2からユーザデータを音声で受け付けた場合に、チャットサーバ6のCPU21によって実行されるニュアンス推定処理の流れの一例を示すフローチャートである。
ニュアンス推定処理を規定する情報処理プログラムは、例えばチャットサーバ6のROM22に予め記憶されている。チャットサーバ6のCPU21は、ROM22に記憶される情報処理プログラムを読み込み、ニュアンス推定処理を実行する。
なお、既に説明したように、音声で表されたユーザデータにはカメラ7で撮影したユーザ画像が付加されている。
まず、ステップS10において、CPU21は、公知の音声解析手法を用いてユーザデータの音声を解析し、ユーザデータの音声を文字に変換すると共に、ユーザのニュアンスを推定する。音声から推定されるユーザのニュアンスを「音声ニュアンス」という。
例えばCPU21は、ユーザデータから得られる音声ニュアンスの確からしさを、予め定めた音声ニュアンスの種類毎にポイント化して設定する。
図9は、ポイントを用いてユーザのニュアンスを推定するニュアンス推定処理を説明する図であり、図9(A)は、音声ニュアンスのポイント化について説明した図である。
図9(A)に示すように、予め定めた音声ニュアンスの種類として「つぶやき」、「アピール」、「急ぎ」、及び「事務的」が存在する場合、CPU21は、各々の音声ニュアンスの種類毎にポイントを設定する。ポイントが高い音声ニュアンスほど、音声で表されたユーザデータに潜在的に現れているユーザの感情を高い確率で表していることになる。説明の便宜上、音声ニュアンスに対して設定されるポイントを「音声ポイント」という。
ここでは一例として、音声ニュアンスを「つぶやき」、「アピール」、「急ぎ」、及び「事務的」の4種類に分類したが、例えば「落ち着き」や「感情的」のように、他の種類に分類してもよいことは言うまでもない。
ステップS20において、CPU21は、公知の画像解析手法を用いてユーザデータに付加されたユーザ画像を解析し、ユーザのニュアンスを推定する。ユーザ画像から推定されるユーザのニュアンスを「表情ニュアンス」という。
例えばCPU21は、ユーザデータから得られる表情ニュアンスの確からしさを、予め定めた表情ニュアンスの種類毎にポイント化して設定する。図9(B)は、表情ニュアンスのポイント化について説明した図である。
図9(B)に示すように、予め定めた表情ニュアンスの種類として「肯定的」、「中立」、及び「否定的」が存在する場合、CPU21は、各々の表情ニュアンスの種類毎にポイントを設定する。ポイントが高い表情ニュアンスほど、ユーザ画像に潜在的に現れているユーザの感情を高い確率で表していることになる。説明の便宜上、表情ニュアンスに対して設定されるポイントを「表情ポイント」という。
ここでは一例として、表情ニュアンスを「肯定的」、「中立」、及び「否定的」の3種類に分類したが、例えば「疑問」や「無関心」のように、他の種類に分類してもよいことは言うまでもない。
ステップS30において、CPU21は、ステップS10で設定した音声ニュアンスの種類毎の音声ポイントと、ステップS20で設定した表情ニュアンスの種類毎の表情ポイントを用いて、吹き出し12の種類毎にポイントを算出する。例えばCPU21は、音声ニュアンスの種類毎の音声ポイントと表情ニュアンスの種類毎の表情ポイントを説明変数とし、吹き出し12の種類毎のポイント(「吹き出しポイント」という)を目的変数とする予め定めた評価関数を用いて、吹き出し12の種類毎に吹き出しポイントを算出する。
図9(C)は、吹き出し12のポイント化について説明した図であり、吹き出し12の種類毎に吹き出しポイントが設定された様子を示している。図9(C)の場合、CPU21は、吹き出しポイントが最も高いメモに用いられる吹き出し12Bを、ユーザデータの表示に用いる吹き出し12の候補として選択する。
すなわち、CPU21は、音声から推定したユーザの音声ニュアンスと、ユーザ画像から推定したユーザの表情ニュアンスを組み合わせて、ユーザのニュアンスを推定する。
ステップS40において、CPU21は、ユーザデータの表示に用いる吹き出し12の候補を表示した吹き出し選択ダイアログ11を生成し、音声で表されるユーザデータを送信してきたユーザ端末2に生成した吹き出し選択ダイアログ11を表示する。
図10は、吹き出し選択ダイアログ11の一例を示す図である。吹き出し選択ダイアログ11の「自動選択された吹き出し」の欄には、文字に変換されたユーザデータが、ステップS30で選択された吹き出しポイントが最も高い吹き出し12によって表示される。吹き出し選択ダイアログ11の「おすすめの吹き出しを見る」の欄には、文字に変換されたユーザデータが、例えば「自動選択された吹き出し」の欄に表示された吹き出し12以外の吹き出し12であって、吹き出しポイントが予め定めた閾値以上である吹き出し12によって表示される。
音声でユーザデータを投稿したユーザは、吹き出し選択ダイアログ11に表示された吹き出し12の候補の中から、自分のニュアンスを最も正しく表している吹き出し12を選択する。CPU21は、吹き出し選択ダイアログ11を通じてユーザ端末2から吹き出しの選択結果を受け付けると、文字に変換されたユーザデータを選択された吹き出し12でチャットルーム10に表示する。
なお、CPU21は、吹き出し選択ダイアログ11に「その他の吹き出しを選択」という項目を表示し、ユーザによって当該項目が選択された場合には、吹き出し選択ダイアログ11に表示していない他の種類の吹き出し12をすべて表示し、ユーザに吹き出し12を選択させてもよい。
図8のステップS10での音声解析により、例えばユーザデータに、最初はつぶやきの傾向が見られるのに途中でアピールの傾向に切り替わるような異なる複数のニュアンスが含まれていると解析されることがある。
このような場合、CPU21は、ニュアンスの切り替わる変わり目でユーザデータを分割し、分割したユーザデータ毎に各々のニュアンスに沿った吹き出し12の候補を選択してもよい。すなわち、チャットルーム10には、CPU21によって分割されたユーザデータが、分割された各々のユーザデータから推定されたユーザのニュアンスに対応した吹き出し12で表示される。
CPU21はニュアンスの変わり目を音声に含まれる周波数の変化、及び音量の変化の少なくとも1つを用いて判定してもよく、音声の途切れた箇所、すなわち、音声と音声の間に存在する予め定めた期間以上の無音箇所をニュアンスの変わり目として判定してもよい。無音箇所とは、音量が無音判定のために予め定めた閾値未満となる箇所をいう。
また、音声の途中で「ところで」や「そういえば」といった接続詞が現れた場合、話題の切り替わりと共にユーザのニュアンスが変化することがある。したがって、CPU21は、音声の周波数変化を解析することで、音声から接続詞に該当する言葉が発せられた箇所を特定し、当該箇所をニュアンスの変わり目として判定してもよい。具体的には、CPU21は、例えば不揮発性メモリ14に予め記憶されている、接続詞に該当する言葉が発せられた場合の音声の周波数データとユーザの音声とを比較することで、音声から接続詞に該当する言葉が発せられた箇所を特定する。
この場合、ユーザデータがユーザの意図しない箇所で分割されることもあるため、CPU21は、ユーザから正しい分割位置を受け付け、ユーザが指定した分割位置でユーザデータを分割し直して再びチャットルーム10に表示してもよい。
当然のことながら、CPU21は、例えば文字で表されるユーザデータのように、自らが分割していないユーザデータであっても、ユーザから分割位置を受け付け、ユーザが指定した分割位置でユーザデータを分割し直して再びチャットルーム10に表示してもよい。更に、CPU21は、ユーザデータをチャットルーム10に表示した後であっても、ユーザから特定のユーザデータに対する吹き出し12の変更指示を受け付け、ユーザが指定した吹き出し12の種類で、指定されたユーザデータの吹き出し12の種類を変更してもよい。
上記では、ユーザ端末2からユーザデータを音声で受け付けた場合にニュアンス推定処理を実行する例について説明したが、CPU21は、例えば文字で表されたユーザデータであっても、ユーザによるニュアンスの指定が行われていない場合には、ニュアンス推定処理を行うようにしてもよい。
図11は、文字で表されたユーザデータに対するニュアンス推定処理の流れの一例を示すフローチャートである。図11に示すフローチャートが図8に示した音声で表されたユーザデータのニュアンス推定処理のフローチャートと異なる点は、ステップS10及びS20がそれぞれステップS10A及びS20Aに置き換えられ、ステップS15が新たに追加された点である。
ステップS10Aにおいて、CPU21は、公知の自然言語解析手法を用いてユーザデータの文脈を解析し、ユーザのニュアンスを推定する。ユーザデータの文脈から推定されるユーザのニュアンスを「文字ニュアンス」という。
CPU21は、ユーザデータから得られる文字ニュアンスの確からしさを、予め定めた文字ニュアンスの種類毎にポイント化して設定する。説明の便宜上、文字ニュアンスに対して設定されるポイントを「文字ポイント」という。
ステップS15において、CPU21は、ユーザデータにファイルが添付されているか否かを判定する。ユーザデータにファイルが添付されている場合にはステップS20Aに移行する。
ステップS20Aにおいて、CPU21はファイルの内容を解析し、ユーザのニュアンスを推定する。ファイルから推定されるユーザのニュアンスを「ファイルニュアンス」という。
CPU21は、ファイルから得られるファイルニュアンスの確からしさを、予め定めたファイルニュアンスの種類毎にポイント化して設定する。説明の便宜上、ファイルニュアンスに対して設定されるポイントを「ファイルポイント」という。
例えばCPU21は、ファイルが会議資料であれば「事務的」と推定し、ファイルに「至急連絡ください」と記載されている場合には「急ぎ」と推定し、単なる風景画像であれば「つぶやき」と推定する。また、ファイルが人物の写真である場合には、CPU21は、写真に写る人物の表情からユーザのニュアンスを推定してもよい。
一方、ステップS15の判定処理でユーザデータにファイルが添付されていないと判定された場合には、ステップS20Aの処理を実行することなくステップS30に移行する。
以降は図8で説明した処理の流れに従い、CPU21は、ステップS10Aで設定した文字ニュアンスの種類毎の文字ポイントと、ステップS20Aで設定したファイルニュアンスの種類毎のファイルポイントが存在すればファイルポイントを用いて、吹き出し12の種類毎に吹き出しポイントを算出し、ユーザデータの表示に用いる吹き出し12の候補を表示した吹き出し選択ダイアログ11をユーザ端末2に表示する。
このように、CPU21は、文字で表されたユーザデータの文脈及びユーザデータに添付されたファイルの内容から、ユーザのニュアンスに沿った吹き出し12の候補をユーザに提示することができる。
なお、図8及び図11に示したニュアンス推定処理では、CPU21は、吹き出し選択ダイアログ11にユーザデータの表示に用いる吹き出し12の候補を表示し、ユーザに使用する吹き出し12を選択させたが、ユーザに吹き出し12を選択させることなく、吹き出しポイントが最も高い吹き出し12を用いてチャットルーム10にユーザデータを表示してもよい。ユーザに吹き出し12を選択させるか否かは設定により変更可能とする。
次に、俯瞰ビュー16の表示例について説明する。
図12は、例えばチャットサーバ6がWEBサーバ4経由でユーザ端末2から俯瞰ビュー16の表示指示を受け付けた場合に、チャットサーバ6のCPU21によって実行される俯瞰ビュー表示処理の流れの一例を示すフローチャートである。
俯瞰ビュー表示処理を規定する情報処理プログラムは、例えばチャットサーバ6のROM22に予め記憶されている。チャットサーバ6のCPU21は、ROM22に記憶される情報処理プログラムを読み込み、俯瞰ビュー表示処理を実行する。
ステップS100において、CPU21は、チャットルーム10で行われているコミュニケーションの状況をコミュニケーション領域に表示するコミュニケーション表示処理を実行する。
ステップS200において、CPU21は、チャットルーム10に投稿されたメモに関する情報をダッシュボード領域に表示するダッシュボード表示処理を実行する。
ステップS300において、CPU21は、チャットルーム10に投稿されたお知らせに関する情報をお知らせ領域に表示するお知らせ表示処理を実行する。
図13は、図12のステップS100におけるコミュニケーション表示処理の流れの一例を詳細に示すフローチャートである。
まず、ステップS110において、CPU21は、チャットルーム10に投稿されたユーザデータに対する応答情報をその対応関係に従って追跡し、一連の応答情報の起点となるユーザデータをルートとするツリー構造を生成する。生成されたツリー構造の各要素が、それぞれコミュニケーション領域における独立したグループ17を形成する。
応答情報の対応関係は、例えば応答情報がリプライであれば、ユーザデータに「@ユーザ名」の形式で記載されているリプライの宛先ユーザ名を参照することで追跡でき、応答情報がアイコン14の選択によるユーザの反応であれば、選択されたアイコン14と対応付けられているユーザデータを参照することで追跡できる。
しかしながら、ユーザデータの中には、ユーザデータに対するユーザの反応を示すものではなく、一見単なるつぶやきやメモのように見えるが、実は他のユーザデータに対する応答情報であるものが存在する。このように他のユーザデータとの対応関係が明示されていないユーザデータが存在すると、こうしたユーザデータはステップS110で生成したツリー構造に含まれないため、チャットルーム10で行われているコミュニケーションの状況を正しく反映できないことになる。
したがって、ステップS120において、CPU21は、公知の自然言語解析手法を用いてユーザデータの文脈を解析し、他のユーザデータとの対応関係が明示されていないユーザデータであっても、文脈からみて他のユーザデータの応答情報となっているユーザデータを検出してツリー構造に含めるツリー構造分析を行う。
ステップS130において、CPU21は、各々のグループ17の応答情報に対して応答分析を行い、例えば応答情報の投稿量及び応答情報を投稿したユーザの人数の少なくとも1つによって表される応答情報の応答度合いに従って、各々のグループ17の表示形態を変更する。
図5に示したグループ17Aに対するHotラベルの表示は、応答度合いに従った表示形態の変更例である。
この他にも、CPU21は、例えば応答度合いが高いグループ17ほど他のグループ17よりグループ17の表示範囲を大きくしたり、応答度合いが高いグループ17ほど他のグループ17よりコミュニケーション領域の中央に近づけて表示したりしてもよい。また、CPU21は、応答度合いに応じてグループ17の表示に用いる文字のフォントを変更したり、グループ17の表示範囲の背景色や応答情報及び起点となるユーザデータを表示する文字の色や大きさを変更したりしてもよい。
ステップS140において、CPU21は、各々のグループ17の応答情報に対して公知の自然言語解析手法を用いた感情分析を行い、反対意見が多いのか、それとも賛成意見が多いのかによって各々のグループ17の表示形態を変更する。
例えばCPU21は、起点となるユーザデータの提案に対して反対意見が多い場合には当該グループ17に「×」を表示し、賛成意見が多い場合には当該グループ17に「○」を表示する。また、CPU21は、賛成意見と反対意見の割合を数値で表示したり、賛成意見と反対意見の割合に応じてグループ17の表示に用いる文字のフォントを変更したり、グループ17の表示範囲の背景色及び文字の色や大きさを変更したりしてもよい。
更に、CPU21は、賛成意見と反対意見の割合に応じて、コミュニケーション領域における各々のグループ17の表示位置を変更してもよい。例えばCPU21は、コミュニケーション領域の中央を境界として左側に反対意見よりも賛成意見の方が多いグループ17を表示し、右側に賛成意見よりも反対意見の方が多いグループ17を表示する。
ステップS150において、CPU21は、各々のグループ17の応答情報に対してタイムライン分析を行い、応答情報の投稿間隔、単位時間あたりの投稿頻度、投稿時間、最後の応答情報が投稿されてからの経過時間の少なくとも1つによって表される応答情報の応答度合いに従って、各々のグループ17の表示形態を変更する。
例えばCPU21は、投稿時間の新しい応答情報ほど、グループ17内で大きく表示したり、単位時間あたりの応答情報の投稿頻度が高いグループ17ほど、他のグループ17よりグループ17の表示範囲を大きくしたり、グループ17の表示範囲の背景色や応答情報及び起点となるユーザデータを表示する文字の色や大きさを変更したりしてもよい。
この他にも、CPU21は、投稿された応答情報の数が最も多い時間帯を文字、記号、図形、及び色の少なくとも1つを用いてグループ17に表示してもよい。
なお、CPU21は、ユーザデータ及び応答情報を投稿したユーザのユーザ名やユーザを表すアバター若しくはユーザアイコン(以降、「ユーザ情報」という)もユーザデータ及び応答情報と一緒にグループ17に表示する。ユーザ情報はユーザに関する属性の一例である。
以上により、図13に示すコミュニケーション表示処理を終了する。コミュニケーション表示処理によって、図5に示す俯瞰ビュー16のコミュニケーション領域に、チャットルーム10で行われているコミュニケーションが話題毎に分類されて表示されると共に、ユーザは話題毎にチャットの盛り上がり具合を把握することができる。
図14は、図12のステップS200におけるダッシュボード表示処理の流れの一例を詳細に示すフローチャートである。
ステップS210において、CPU21は、チャットルーム10に投稿されている何れか1つのメモを取得する。
ステップS220において、CPU21は、ステップS210で取得したメモ(以降、「取得メモ」という)に対してアクションアイコン14Cが選択されているか否かを判定する。アクションアイコン14Cが選択されていない場合にはステップS230に移行する。
この場合、取得メモはアクション項目ではなく単なるメモということになる。したがって、ステップS230において、CPU21は、取得メモと取得メモを投稿したユーザのユーザ情報を対応付けてダッシュボードのメモ欄に表示する。
一方、ステップS220の判定処理でアクションアイコン14Cが選択されていると判定された場合、ステップS240に移行する。
ステップS240において、CPU21は、取得メモに対して着手アイコン14Dが選択されているか否かを判定する。着手アイコン14Dが選択されていない場合にはステップS250に移行する。
この場合、取得メモはアクション項目を伴うメモであるが、ユーザは何も行動をとっていないことになる。したがって、ステップS250において、CPU21は、取得メモと取得メモを投稿したユーザのユーザ情報を対応付けてダッシュボードの未着手欄に表示する。
一方、ステップS240の判定処理で着手アイコン14Dが選択されていると判定された場合、ステップS260に移行する。
ステップS260において、CPU21は、取得メモに対して完了アイコン14Eが選択されているか否かを判定する。完了アイコン14Eが選択されている場合にはステップS270に移行する。
この場合、取得メモで表されるアクション項目は実施済みということになる。したがって、ステップS270において、CPU21は、取得メモと取得メモを投稿したユーザのユーザ情報を対応付けてダッシュボードの実施済み欄に表示する。
一方、ステップS260の判定処理で完了アイコン14Eが選択されていないと判定された場合、ステップS280に移行する。
この場合、取得メモで表されるアクション項目はユーザによって着手済みであるがまだ完了していないことになる。したがって、ステップS280において、CPU21は、取得メモと取得メモを投稿したユーザのユーザ情報を対応付けてダッシュボードの実施中欄に表示する。
取得メモと取得メモを投稿したユーザのユーザ情報をダッシュボードの何れかの欄に表示したことから、ステップS290において、CPU21は、チャットルーム10に未取得のメモが存在するか否かを判定する。未取得のメモが存在する場合にはステップS210に移行し、CPU21は、未取得のメモから何れか1つのメモを新たな取得メモとして取得する。すなわち、CPU21は、ステップS290の判定処理でチャットルーム10に未取得のメモは存在しないと判定するまでステップS210~S290を繰り返し実行して、チャットルーム10に投稿されている各々のメモをダッシュボードの何れかの欄に分類して表示する処理を行う。
ステップS290の判定処理でチャットルーム10に未取得のメモは存在しないと判定された場合、図14に示すダッシュボード表示処理を終了する。
ダッシュボード表示処理により、図5に示した俯瞰ビュー16のダッシュボードのように、メモが単なるメモと、アクション項目を伴うメモとに分類され、アクション項目を伴うメモは、更にアクション項目の進捗状況に応じて「未着手」、「実施中」、及び「実施済み」に分類される。なお、ダッシュボードの「未着手」、「実施中」、及び「実施済み」のタグの横に表示される数字は、各々のアクション項目の欄に分類されたメモの件数を表している。
図15は、図12のステップS300におけるお知らせ表示処理の流れの一例を詳細に示すフローチャートである。
ステップS310において、CPU21は、チャットルーム10に投稿されている何れか1つのお知らせを取得する。
ステップS320において、CPU21は、本処理の実行開始時刻(以降、「現在時刻」という)を取得し、現在時刻とステップS310で取得したお知らせ(以降、「取得お知らせ」という)がチャットルーム10に投稿された投稿時間との差分である経過時間を算出し、RAM23に記憶する。CPU21は、例えばCPU21に内蔵されたクロックから現在時刻を取得するが、インターネット3に接続される図示しない時刻サーバから現在時刻を取得してもよい。
ステップS330において、CPU21は、RAM23から経過時間を取得し、経過時間が保持時間を超えているか否かを判定する。保持時間とは、経過時間の長さに基づいて取得お知らせの表示形態を決定するために用いられる時間であり、例えば不揮発性メモリ24に予め記憶されている。経過時間が保持時間より長い場合、取得お知らせがチャットルーム10に投稿されてからの時間が経ちすぎて、例えば取得お知らせによって通知されている会議の開始時間が既に経過している等、取得お知らせによって通知される情報の価値が低下していることを意味する。
したがって、経過時間が保持時間を超えている場合にはステップS340に移行し、ステップS340において、CPU21は、取得お知らせがお知らせ領域で他のお知らせより目立たないように、例えば図5に示したようにグレーアウトしてお知らせ領域に表示する。
一方、ステップS330の判定処理で経過時間が保持時間以下であると判定された場合にはステップS350に移行する。
ステップS350において、CPU21は、今度は経過時間が強調時間を超えているか否かを判定する。強調時間も保持時間と同様に、経過時間の長さに基づいて取得お知らせの表示形態を決定するために用いられる時間であり、例えば不揮発性メモリ24に予め記憶されている。なお、保持時間と強調時間の間には「保持時間>強調時間」の関係があり、保持時間及び強調時間はユーザによって変更可能である。経過時間が強調時間以下である場合、取得お知らせがチャットルーム10に投稿されてからの時間がそれほど経っておらず、例えば取得お知らせによって通知されている会議がこれから開かれようとしているためできるだけその事実を広く周知したい等、取得お知らせによって通知される情報の価値が高いことを意味する。
したがって、経過時間が強調時間以下の場合にはステップS360に移行し、ステップS360において、CPU21は、取得お知らせがお知らせ領域で他のお知らせより目立つように、取得お知らせを強調してお知らせ領域に表示する。取得お知らせを強調して表示するとは、例えば他のお知らせより取得お知らせの文字を大きくしたり、文字の色を変えたり、文字の太さを変えたり、背景色を変えたり、文字のフォントを変えたり、ユーザの注意を惹きつけるために例えば「重要」といった文字や画像を取得お知らせに付加したりすることをいう。
一方、ステップS350の判定処理で経過時間が強調時間を超えていると判定された場合にはステップS370に移行する。この場合、取得お知らせは他のお知らせより強調して表示する必要はないが、グレーアウトするほど昔のお知らせでもないことになる。
したがって、ステップS370において、CPU21は、予め定めた標準の表示形態で取得お知らせをお知らせ領域に表示する。標準の表示形態とは、ステップS360における取得お知らせの強調表示よりも目立たず、ステップS340における取得お知らせのグレーアウトよりも目立つ中間の表示形態のことである。
ステップS340、S360、及びS370によって取得お知らせを俯瞰ビュー16のお知らせ領域に表示した後、ステップS380において、CPU21は、チャットルーム10に未取得のお知らせが存在するか否かを判定する。未取得のお知らせが存在する場合にはステップS310に移行し、CPU21は、未取得のお知らせから何れか1つのお知らせを新たな取得お知らせとして取得する。すなわち、CPU21は、ステップS380の判定処理でチャットルーム10に未取得のお知らせは存在しないと判定するまでステップS310~S380を繰り返し実行して、チャットルーム10に投稿されている各々のお知らせを経過時間に基づく表示形態でお知らせ領域に表示する処理を行う。
ステップS380の判定処理でチャットルーム10に未取得のお知らせは存在しないと判定された場合、図15に示すお知らせ表示処理を終了する。
なお、図15のステップS340では、取得お知らせを他のお知らせより目立たせないようにするためグレーアウトして表示したが、取得お知らせをお知らせ領域に表示しないようにしてもよい。
以上により、チャットルーム10に投稿されたユーザデータが、俯瞰ビュー16のダッシュボード領域、お知らせ領域、及びコミュニケーション領域に異なる表示形態で表示され、図12に示した俯瞰ビュー表示処理を終了する。
次に、履歴ビュー18の表示例について説明する。
図16は、図2に示したチャットルーム10(「標準形式のチャットルーム10」という)を、ユーザからの指示に従って他の表示形態で表示した表示例を示す図である。図16に示したチャットルーム10は、吹き出し12を用いずにユーザデータだけを表示する掲示板形式のチャットルーム10である。掲示板形式のチャットルーム10では、各々のユーザデータが枠で区切られたタイムテーブル形式で表示されるため、吹き出し12及びアイコン14といったユーザデータ以外の表示を伴う標準形式のチャットルーム10より表示がシンプルになり、ユーザデータだけに集中してコミュニケーションの状況を把握することができる。CPU21は、ユーザからの指示に従って、標準形式のチャットルーム10と、掲示板形式のチャットルーム10の表示切り替えを行う。すなわち、チャットルーム10も、関連付け情報を異なる表示形態で表示するカテゴリーの一例である。
掲示板形式のチャットルーム10にはボタン10Aが含まれ、ユーザがユーザ端末2でボタン10Aを選択すると、CPU21は、図17に示す履歴ビュー18をボタン10Aが選択されたユーザ端末2に表示する。なお、履歴ビュー18を表示するためには必ずしもチャットルーム10の表示形態を掲示板形式に切り替える必要はなく、例えば標準形式のチャットルーム10にもボタン10Aを表示することで、標準形式のチャットルーム10からも履歴ビュー18の表示が可能である。ボタン10Aが選択された場合、CPU21は、標準形式若しくは掲示板形式のチャットルーム10を履歴ビュー18に切り替えて表示しても、標準形式若しくは掲示板形式のチャットルーム10と一緒に履歴ビュー18を表示してもどちらでもよい。
図18は、例えばチャットサーバ6がWEBサーバ4経由でユーザ端末2から履歴ビュー18の表示指示を受け付けた場合に、チャットサーバ6のCPU21によって実行される履歴ビュー表示処理の流れの一例を示すフローチャートである。
履歴ビュー表示処理を規定する情報処理プログラムは、例えばチャットサーバ6のROM22に予め記憶されている。チャットサーバ6のCPU21は、ROM22に記憶される情報処理プログラムを読み込み、履歴ビュー表示処理を実行する。
ここでは一例として、ユーザによりユーザデータの抽出条件として特定の日付が指定され、当該指定日におけるチャットルーム10でのコミュニケーション状況を指定時間(例えば1時間とする)毎に分類して履歴ビュー18に表示する例について説明する。
ステップS400において、CPU21は、ユーザによって指定された指定時間、すなわち1時間毎に指定日の時間を分割して1時間毎の時間帯を設定する。具体的には、例えば9:00~10:00、及び10:00~11:00というように1時間毎に区切った時間帯を設定する。
ステップS410において、CPU21は、ステップS400で設定した時間帯から何れか1つの時間帯を選択する。説明の便宜上、ここで選択した時間帯を「選択時間帯」という。
ステップS420において、CPU21は、チャットルーム10に参加しているユーザ毎に、投稿時間が選択時間帯に含まれるユーザデータを含んだ履歴情報を取得する。
ステップS430において、CPU21は、ステップS420で取得したユーザ毎の履歴情報を選択時間帯と対応付けてユーザ端末2に表示する。
この場合、CPU21は、履歴情報の種類に従って、履歴情報毎にマーク13を表示する。また、CPU21は、履歴情報に含まれる各ユーザ端末2の稼働状態及び各ユーザの退勤情報に従い、時間帯のグレーアウト及び時間帯へのOFF表示を行う。
履歴情報がユーザデータの場合、CPU21は、ユーザデータと対応付けられているアイコン14をユーザデータと一緒に表示してもよい。履歴ビュー18に表示したアイコン14もチャットルーム10に表示されるアイコン14と同じく、ユーザによる選択が可能である。また、ユーザデータにファイルが添付されている場合、CPU21は、ファイルを表すアイコン14H(図5参照)をユーザデータと一緒に表示してもよい。
ステップS440において、CPU21は、ステップS400で設定した時間帯の中に未選択の時間帯があるか否かを判定する。未選択の時間帯がある場合にはステップS410に移行し、CPU21は、未選択の時間帯から何れか1つの時間帯を新たな時間帯として選択する。すなわち、CPU21は、ステップS440の判定処理で未選択の時間帯はないと判定するまでステップS410~S440を繰り返し実行して、ユーザ毎の履歴情報を選択した各々の時間帯と対応付けてユーザ端末2に表示する処理を行う。
ステップS440の判定処理で未選択の時間帯がないと判定された場合、図18に示す履歴ビュー表示処理を終了する。以上により、履歴ビュー18の表示指示を送信してきたユーザ端末2に、図17に示したような履歴ビュー18が表示される。履歴ビュー18は、時系列に沿ってチャットルーム10から抽出したユーザ毎のユーザデータを一覧表示することから一覧画面の一例でもある。
なお、図18のステップS430では、ユーザ毎の履歴情報を選択時間帯と対応付けた履歴ビュー18を表示したが、履歴ビュー18に表示されるユーザの中には、外国で暮らしているユーザが存在することもある。このような場合、時差により、履歴ビュー18に表示されている時間帯と外国で暮らしているユーザの現地時間とが異なることがある。したがって、CPU21は、履歴ビュー18の時間帯表示を、履歴ビュー18で選択されたユーザが暮らす地域のタイムゾーンにあわせて切り替えてもよい。また、CPU21は、例えばAさんにおける9:00はBさんにとって何時なのかという対応付けがわかるように、履歴ビュー18で選択されたユーザが暮らす地域のタイムゾーンにあわせて表示した時間帯を、履歴ビュー18を閲覧しているユーザが暮らす地域のタイムゾーンにあわせて表示した時間帯と一緒に履歴ビュー18に表示してもよい。
図12に示した俯瞰ビュー表示処理で説明したように、CPU21は、チャットルーム10において起点となるユーザデータに対する応答情報の対応関係を解析可能である。したがって、CPU21は、履歴ビュー18をユーザ端末2に表示する場合、応答関係にあるユーザデータを明示して履歴ビュー18に表示してもよい。
例えば図17に示した履歴ビュー18において、10:00~11:00の時間帯におけるAさんの「ありがとうございました」というユーザデータは、同じ時間帯におけるCさんの「FAX送信しました」というユーザデータに対するリプライであるとする。この場合、CPU21は、例えばCさんの「FAX送信しました」の文字色とAさんの「ありがとうございました」の文字色を他のユーザデータの文字色とは異なる共通の色に変えて、応答関係がわかるように履歴ビュー18を表示する。この他、CPU21は、ユーザがCさんの「FAX送信しました」の文字を選択した場合、Aさんの「ありがとうございました」の文字を点滅させたり、Aさんの「ありがとうございました」の文字を表示したポップアップダイアログをCさんの「FAX送信しました」の文字の周囲に表示させたりしてもよい。
一方、ここでは履歴ビュー18の表示に関する条件の指定として、履歴ビュー18に表示する履歴情報の指定日と履歴情報を分類する時間帯の長さが指定された場合の履歴ビュー表示処理について説明したが、CPU21は、更に履歴ビュー18の表示に関する別の条件を取得してもよい。
例えば特定のアイコン14(例えば賛同を表すアイコン14F)が選択されたユーザデータだけを履歴ビュー18に表示するという条件が指定された場合、CPU21は、アイコン14Fが選択されたユーザデータだけをチャットルーム10から抽出してユーザ毎、かつ、時間帯毎に履歴ビュー18に表示する。
また、ユーザが履歴ビュー18に表示されているファイルを表すアイコン14Hを選択した場合、CPU21は、選択されたアイコン14Hが対応付けられたファイルの配布先のユーザ名や当該ファイルに関してユーザ間で交わされたユーザデータをチャットルーム10から取得し、ユーザ間のコミュニケーションの流れがわかるように時系列に並べ替えたユーザデータを、ユーザデータを投稿したユーザ名と共に例えばポップアップダイアログに表示してもよい。
また、履歴ビュー18ではユーザ毎の履歴情報が時系列に沿って一覧表示されていることから、CPU21は、選択されたユーザに関する履歴情報を履歴ビュー18から取得し、日報、週報、及び月報といった特定の期間におけるユーザの活動状況を記録した報告書を作成してもよい。報告書はファイルとして作成され、報告書のファイル形式に制約はなく、例えばXML(Extensible Markup Language)のようなドキュメント形式やCSV(Comma Separated Value)形式で作成される。
なお、ユーザ端末2として、例えばスマートフォン30やデスクトップコンピュータ32といったインターネット3に接続可能な様々な種類の情報機器が用いられるが、情報機器によってチャットルーム10、俯瞰ビュー16、及び履歴ビュー18を表示する画面の表示範囲が異なる。
したがって、CPU21は、例えばユーザ端末2の画面サイズのように各ユーザ端末2における画面の表示範囲の大きさがわかる表示属性をユーザ端末2から取得し、取得したユーザ端末2毎の表示属性に従って、カテゴリー毎に分類された関連付け情報の表示形態を変化させた方が好ましい場合がある。
具体的には、ユーザ端末2にスマートフォン30が用いられている場合、デスクトップコンピュータ32より画面の表示範囲が狭くなる。したがって、スマートフォン30に俯瞰ビュー16を表示する場合には、CPU21は、図5に示した俯瞰ビュー16全体を表示するのではなく、ダッシュボード、お知らせ、及びコミュニケーションのうちユーザによって指定されたカテゴリーだけを表示してもよい。
図19は、スマートフォン30に俯瞰ビュー16のコミュニケーション領域のみを表示する表示例を示す図である。スマートフォン30は横方向よりも上下方向に長い形状を有し、ユーザは上下方向に画面をスクロールして画面内の情報を閲覧することから、画面内で情報を横方向に並べるよりも上下方向に並べた方がユーザにとって情報の閲覧が容易になる。
したがって、CPU21は、デスクトップコンピュータ32では図5に示した俯瞰ビュー16のコミュニケーション領域のように各グループ17を横方向に幅を持たせて表示していたものを、スマートフォン30では図19に示す俯瞰ビュー16のコミュニケーション領域のように上下方向に並べ替えて表示する。この場合、CPU21は、例えば応答情報の応答度合いが高いグループ17ほど上に表示されるようにグループ17の表示順序を並べ替えてもよい。更に、図19に示す俯瞰ビュー16のコミュニケーション領域では、CPU21は、応答度合いが高いグループ17ほど大きく表示している。
一方、図20は、デスクトップコンピュータ32に表示される俯瞰ビュー16の表示例を示す図である。ユーザ端末2が共に同じデスクトップコンピュータ32であったとしても、CPU21は、画面の表示範囲がより広いデスクトップコンピュータ32では、例えば図5に示した俯瞰ビュー16のダッシュボードを図20に示すダッシュボードのように大きく表示してもよい。なお、図20に示す俯瞰ビュー16のコミュニケーション領域では、CPU21は、応答度合いが高いグループ17ほど画面に大きく表示すると共に、他のグループ17よりもコミュニケーション領域の中央に近づけて表示している。
以上、実施形態を用いて情報処理システム1におけるチャットサーバ6の一態様について説明したが、開示したチャットサーバ6の形態は一例であり、チャットサーバ6の形態は実施形態に記載の範囲に限定されない。本開示の要旨を逸脱しない範囲で実施形態に多様な変更又は改良を加えることができ、当該変更又は改良を加えた形態も開示の技術的範囲に含まれる。例えば、本開示の要旨を逸脱しない範囲で、図8及び図11に示したニュアンス処理、図12に示した俯瞰ビュー表示処理、図13に示したコミュニケーション表示処理、図14に示したダッシュボード表示処理、図15に示したお知らせ表示処理、並びに、図18に示した履歴ビュー表示処理の順序を変更してもよい。
また、上記の実施形態では、一例として上述した各処理をソフトウエアで実現する形態について説明した。しかしながら、図8、図11~図15、及び図18のフローチャートと同等の処理をハードウエアで処理させるようにしてもよい。この場合、各処理をソフトウエアで実現した場合と比較して処理の高速化が図られる。
上記の実施形態において、プロセッサとは広義的なプロセッサを指し、汎用的なプロセッサ(例えばCPU21)や、専用のプロセッサ(例えば GPU:Graphics Processing Unit、ASIC:Application Specific Integrated Circuit、FPGA:Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。
また、上記の実施形態におけるプロセッサの動作は、1つのプロセッサによって成すのみでなく、物理的に離れた位置に存在する複数のプロセッサが協働して成すものであってもよい。また、プロセッサの各動作の順序は上記の実施形態において記載した順序のみに限定されるものではなく、適宜変更してもよい。
上記の実施形態では、ROM22に情報処理プログラムが記憶されている例について説明したが、情報処理プログラムの記憶先はROM22に限定されない。本開示の情報処理プログラムは、コンピュータ20で読み取り可能な記憶媒体に記録された形態で提供することも可能である。例えば情報処理プログラムをCD-ROM(Compact Disk Read Only Memory)及びDVD-ROM(Digital Versatile Disk Read Only Memory)のような光ディスクに記録した形態で提供してもよい。また、情報処理プログラムを、USB(Universal Serial Bus)メモリ及びメモリカードのような可搬型の半導体メモリに記録した形態で提供してもよい。ROM22、不揮発性メモリ24、CD-ROM、DVD-ROM、USB、及びメモリカードは非一時的(non-transitory)記憶媒体の一例である。
更に、チャットサーバ6は、インターネット3に接続された外部装置から情報処理プログラムをダウンロードし、ダウンロードした情報処理プログラムを記憶装置に記憶してもよい。この場合、チャットサーバ6のCPU21は、外部装置からダウンロードした情報処理プログラムを読み込んで各処理を実行する。
1 情報処理システム、2 ユーザ端末、2A (ユーザ端末の)入力装置、3 インターネット、4 WEBサーバ、6 チャットサーバ、6A チャット制御部、6B 表示切り替え部、7 カメラ、8 データサーバ、8A ユーザデータDB、8B 分類データDB、9 マイク、10 チャットルーム、10A ボタン、11 吹き出し選択ダイアログ、13(13A、13B、13C) マーク、14(14A、14B、14C、14D、14E、14F、14G、14H) アイコン、16 俯瞰ビュー、17 グループ、18 履歴ビュー、20 コンピュータ、21 CPU、22 ROM、23 RAM、24 不揮発性メモリ、25 I/O、26 バス、27 通信ユニット、28 入力ユニット、29 表示ユニット、30 スマートフォン、32 デスクトップコンピュータ
Claims (13)
- プロセッサを備え、
前記プロセッサは、
複数のユーザが参加するチャットルームに投稿されたユーザデータを取得し、
取得した前記ユーザデータ及び前記ユーザデータに対する応答情報の少なくとも1つを前記ユーザデータの投稿を行ったユーザと前記ユーザデータの投稿時間に関連付けた関連付け情報を、複数の表示形態に切り替えて表示する
情報処理装置。 - 前記プロセッサは、前記ユーザデータに付加された感情情報、及び前記ユーザデータに対する応答情報の少なくとも1つを用いて前記ユーザデータの各々を複数のカテゴリーに分類し、
分類したカテゴリー毎に前記関連付け情報を異なる表示形態で表示する
請求項1記載の情報処理装置。 - 前記プロセッサは、前記応答情報を有する前記ユーザデータが含まれるカテゴリーにおいて、共通の前記ユーザデータを起点とする一連の応答情報を1つのコミュニケーションを形成するグループとして分割し、起点となる前記ユーザデータに対する応答情報の応答度合いに応じて前記グループ毎の表示形態を変化させる
請求項2記載の情報処理装置。 - 前記プロセッサは、前記チャットルームに参加するユーザが使用している情報機器の表示属性を取得し、
取得したユーザ毎の前記情報機器の表示属性に従って、カテゴリー毎に分類された前記関連付け情報の表示形態を前記情報機器毎に変化させる
請求項2又は請求項3記載の情報処理装置。 - 前記プロセッサは、前記チャットルームに投稿された前記ユーザデータをユーザが指定した条件に従って抽出し、抽出した前記ユーザデータを用いて各ユーザの前記関連付け情報を表示する
請求項1~請求項4の何れか1項に記載の情報処理装置。 - 前記プロセッサは、時系列に沿って抽出したユーザ毎の前記ユーザデータを一覧表示する一覧画面を表示し、前記ユーザ毎に前記一覧画面から特定の期間におけるユーザの活動状況を記録した報告書を生成する
請求項5記載の情報処理装置。 - 前記プロセッサは、前記一覧画面において、前記ユーザデータによるコミュニケーションの相手がわかるように前記ユーザデータを表示する
請求項6記載の情報処理装置。 - 前記プロセッサは、ユーザが発する音声からユーザの感情を推定し、
推定した感情の種類が切り替わる変わり目で前記音声を分割し、
分割した各々の前記音声を表す文字に対して、推定したユーザの感情を表す感情情報を付加した前記ユーザデータを生成する
請求項1~請求項7の何れか1項に記載の情報処理装置。 - 前記プロセッサは、前記ユーザデータに付加されている感情情報を、ユーザが指定した感情情報に変更する
請求項8記載の情報処理装置。 - 前記プロセッサは、前記音声を分割して生成した前記ユーザデータを、ユーザが指定した分割位置で分割し直して前記チャットルームに表示する
請求項8又は請求項9記載の情報処理装置。 - 前記プロセッサは、音声から推定したユーザの感情と、音声を発するユーザを撮影したユーザ画像から推定したユーザの感情を組み合わせて、ユーザの感情を推定する
請求項8~請求項10の何れか1項に記載の情報処理装置。 - 前記プロセッサは、推定したユーザの感情を表す感情情報と対応付けられた吹き出しを用いて、前記チャットルームに前記ユーザデータを表示する
請求項8~請求項11の何れか1項に記載の情報処理装置。 - コンピュータに、
複数のユーザが参加するチャットルームに投稿されたユーザデータを取得し、
取得した前記ユーザデータ及び前記ユーザデータに対する応答情報の少なくとも1つを前記ユーザデータの投稿を行ったユーザと前記ユーザデータの投稿時間に関連付けた関連付け情報を、複数の表示形態に切り替えて表示する処理を実行させる
情報処理プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021041536A JP2022141305A (ja) | 2021-03-15 | 2021-03-15 | 情報処理装置、及び情報処理プログラム |
US17/375,783 US11716298B2 (en) | 2021-03-15 | 2021-07-14 | Information processing apparatus, information processing method, and non-transitory computer readable medium |
CN202111037667.5A CN115086260A (zh) | 2021-03-15 | 2021-09-06 | 信息处理装置、信息处理方法以及计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021041536A JP2022141305A (ja) | 2021-03-15 | 2021-03-15 | 情報処理装置、及び情報処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022141305A true JP2022141305A (ja) | 2022-09-29 |
Family
ID=83194357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021041536A Pending JP2022141305A (ja) | 2021-03-15 | 2021-03-15 | 情報処理装置、及び情報処理プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11716298B2 (ja) |
JP (1) | JP2022141305A (ja) |
CN (1) | CN115086260A (ja) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7343561B1 (en) * | 2003-12-19 | 2008-03-11 | Apple Inc. | Method and apparatus for message display |
US8756514B2 (en) * | 2008-04-25 | 2014-06-17 | International Business Machines Corporation | System and method for real-time scheduling |
US20140157153A1 (en) * | 2012-12-05 | 2014-06-05 | Jenny Yuen | Select User Avatar on Detected Emotion |
JP2014134895A (ja) | 2013-01-08 | 2014-07-24 | Kddi Corp | プログラム、端末装置およびデータ処理方法 |
JP6728950B2 (ja) | 2015-12-07 | 2020-07-22 | 株式会社リコー | 情報処理システム、端末装置及びプログラム |
KR102572701B1 (ko) * | 2018-08-17 | 2023-08-31 | 삼성전자주식회사 | 사용자의 상태 정보에 기초하여 응답 메시지를 제공하는 전자 장치 및 그 동작 방법 |
US11133025B2 (en) * | 2019-11-07 | 2021-09-28 | Sling Media Pvt Ltd | Method and system for speech emotion recognition |
-
2021
- 2021-03-15 JP JP2021041536A patent/JP2022141305A/ja active Pending
- 2021-07-14 US US17/375,783 patent/US11716298B2/en active Active
- 2021-09-06 CN CN202111037667.5A patent/CN115086260A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN115086260A (zh) | 2022-09-20 |
US20220294750A1 (en) | 2022-09-15 |
US11716298B2 (en) | 2023-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6961994B2 (ja) | デバイス上でのメッセージ管理とドキュメント生成のためのシステムと方法、メッセージの管理プログラム、モバイルデバイス | |
Van Deursen et al. | Digital skills: Unlocking the information society | |
JP6961993B2 (ja) | デバイス上でのメッセージ管理とドキュメント生成のためのシステムと方法、メッセージの管理プログラム、モバイルデバイス | |
EP4027614A1 (en) | Automated messaging reply-to | |
US11848900B2 (en) | Contextual messaging in video conference | |
Tang et al. | (Mis) communication through stickers in online group discussions: A multiple-case study | |
WO2023039065A1 (en) | Dynamic background selection in a chat interface | |
CN111369275B (zh) | 识别和描述群体方法、协调装置及计算机可读取存储介质 | |
KR20160150627A (ko) | 처리 장치, 처리 시스템 및 처리 방법 | |
JP2022141305A (ja) | 情報処理装置、及び情報処理プログラム | |
Hafner | Discourse and computer-mediated communication | |
JP7152453B2 (ja) | 情報処理装置、情報処理方法、情報処理プログラム及び情報処理システム | |
Kurzweg et al. | Body language of avatars in vr meetings as communication status cue: Recommendations for interaction design and implementation | |
Li et al. | Instant annotation: early design experiences in supporting cross-cultural group chat | |
Gust | User-oriented appropriateness: a theoretical model of written text on Facebook for improved PR communication | |
US11706042B2 (en) | Spatial chat view dashboard | |
US11871151B2 (en) | Spatialized display of chat messages | |
US20230082002A1 (en) | Spatial chat view | |
US20230085162A1 (en) | Spatial location and grouping of chat participants | |
JP2020141400A (ja) | 通話制御装置、通話制御方法、音声変換のための文字入力装置、音声変換のための文字入力方法およびプログラム | |
van Dijk et al. | Current Levels of Internet Skills | |
Saeed | Exploring the visual interface in Remote Simultaneous Interpreting | |
Strobl | StroCards: Simplified Presentation of Web Accessibility Test Results | |
Stupnikova | Non-Verbal Communication in Business Negotiations between Finland and Estonia | |
WO2023192200A1 (en) | Systems and methods for attending and analyzing virtual meetings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240226 |