JP7057011B1 - 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム - Google Patents

二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム Download PDF

Info

Publication number
JP7057011B1
JP7057011B1 JP2021105704A JP2021105704A JP7057011B1 JP 7057011 B1 JP7057011 B1 JP 7057011B1 JP 2021105704 A JP2021105704 A JP 2021105704A JP 2021105704 A JP2021105704 A JP 2021105704A JP 7057011 B1 JP7057011 B1 JP 7057011B1
Authority
JP
Japan
Prior art keywords
person
communication
advice
computer system
parties
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021105704A
Other languages
English (en)
Other versions
JP2023004165A (ja
Inventor
英貴 本田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kakeai Inc
Original Assignee
Kakeai Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kakeai Inc filed Critical Kakeai Inc
Priority to JP2021105704A priority Critical patent/JP7057011B1/ja
Priority to JP2021210878A priority patent/JP7057029B1/ja
Priority to JP2022060135A priority patent/JP2023004866A/ja
Publication of JP7057011B1 publication Critical patent/JP7057011B1/ja
Application granted granted Critical
Priority to CA3224031A priority patent/CA3224031A1/en
Priority to CN202280045255.2A priority patent/CN117561709A/zh
Priority to KR1020247002928A priority patent/KR20240037976A/ko
Priority to PCT/JP2022/025378 priority patent/WO2022270632A1/ja
Priority to EP22828548.2A priority patent/EP4362444A1/en
Priority to US18/572,683 priority patent/US20240297954A1/en
Priority to BR112023027406A priority patent/BR112023027406A2/pt
Publication of JP2023004165A publication Critical patent/JP2023004165A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/105Human resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06398Performance of employee with respect to a job function
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y20/00Information sensed or collected by the things
    • G16Y20/40Information sensed or collected by the things relating to personal data, e.g. biometric data, records or preferences
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/20Analytics; Diagnosis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Signal Processing (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Educational Administration (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Primary Health Care (AREA)
  • Educational Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Development Economics (AREA)
  • Biomedical Technology (AREA)
  • Game Theory and Decision Science (AREA)
  • Telephonic Communication Services (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

【課題】二者間のコミュニケーションの質を向上させるために、二者間のコミュニケーションを支援するためのコンピュータシステム、方法、およびプログラムを提供すること【解決手段】二者間のコミュニケーションを支援するためのコンピュータシステムは、前記二者のうちの第1の人物が前記コミュニケーションにおいて前記二者のうちの第2の人物に期待する対応を示す情報を受信することと、前記コミュニケーション中の音声および/または映像を受信することと、前記情報と、前記音声および/または前記映像とに基づいて、前記コミュニケーションにおけるアドバイスを導出することと、前記導出されたアドバイスを前記コミュニケーション中に提供することとを行うように構成されている。【選択図】図2

Description

本発明は、コミュニケーションを支援するためのコンピュータシステム、方法、およびプログラムに関し、具体的には、二者間(第1の人物と第2の人物との間)のコミュニケーションを支援するためのコンピュータシステム、方法およびプログラムに関する。
組織において、部下と上司との面談がしばしば行われる。これは、例えば、部下の目標設定、進捗管理、および成果報告等の目的のために行われる。このような面談を支援するためのシステムが知られている(特許文献1)。
このような面談のうち、上司と部下とが1対1で行う「1on1ミーティング」(または「1on1」)と呼ばれる面談がある。「1on1」は、部下が主導権を持って上司と対話をすることで、部下の成長を促すことを目的としている。
特開2006-190162号公報
本発明の発明者は、「1on1」を含め、二者間のコミュニケーションにおいて、二者のうちの一方が他方に対して適切なかかわり方ができるように促すことができれば、二者間のコミュニケーションの質が向上するはずであると考えた。
本発明は、二者間のコミュニケーションの質を向上させるために、二者間のコミュニケーションを支援するためのコンピュータシステム、方法、およびプログラムを提供することを目的としている。
本発明は、例えば、以下の項目を提供する。
(項目1)
二者間のコミュニケーションを支援するためのコンピュータシステムであって、
前記二者のうちの第1の人物が前記コミュニケーションにおいて前記二者のうちの第2の人物に期待する対応を示す情報を受信する第1の受信手段と、
前記コミュニケーション中の音声および/または映像を受信する第2の受信手段と、
前記情報と、前記音声および/または前記映像とに基づいて、前記コミュニケーションにおけるアドバイスを導出する導出手段と、
前記導出されたアドバイスを前記コミュニケーション中に提供する提供手段と
を備えるコンピュータシステム。
(項目2)
前記導出手段は、前記期待する対応に関連付けられた少なくとも1つの基準を前記音声および/または前記映像が満たすときに、前記少なくとも1つの基準に関連付けられた前記アドバイスを導出する、項目1に記載のコンピュータシステム。
(項目3)
前記コミュニケーションの結果に基づいて、前記少なくとも1つの基準を変更する変更手段をさらに備える、項目2に記載のコンピュータシステム。
(項目4)
前記変更手段は、
(i)前記コミュニケーション中にアドバイスを提供しなかったときに、前記少なくとも1つの基準を緩和するように、前記少なくとも1つの基準を変更し、
(ii)前記コミュニケーション中にアドバイスを提供したが前記コミュニケーションに対する評価が低かったときに、前記少なくとも1つの基準を強化するように、前記少なくとも1つの基準を変更する、
項目3に記載のコンピュータシステム。
(項目5)
前記第2の受信手段は、少なくとも前記音声を受信し、
前記導出手段は、前記音声から前記第1の人物および/または前記第2の人物の音声の特徴を抽出し、
少なくとも、前記入力と、前記音声の特徴とに基づいて、前記アドバイスを導出する、
項目1~4のいずれか一項に記載のコンピュータシステム。
(項目6)
前記第1の人物の前記音声の特徴は、前記第1の人物が所定の文言を発話したときの音声の高さ、前記第1の人物が所定の文言を発話したときの音声の速度、前記第1の人物が所定の文言を発話したときの音声の大きさ、前記第1の人物が所定の文言を発話した回数のうちの少なくとも1つを含む、項目5に記載のコンピュータシステム。
(項目7)
前記第2の人物の前記音声の特徴は、前記第2の人物の発話に含まれている文言を含む、項目5または項目6に記載のコンピュータシステム。
(項目8)
前記第1の人物および前記第2の人物の音声の特徴は、前記第1の人物の発話時間と前記第2の人物の発話時間との比を含む、項目5~7のいずれか一項に記載のコンピュータシステム。
(項目9)
前記第2の受信手段は、少なくとも前記映像を受信し、
前記導出手段は、
前記映像から前記第1の人物および/または前記第2の人物の動きの特徴を抽出し、
少なくとも、前記入力と、前記動きの特徴とに基づいて、前記アドバイスを導出する、項目1~8のいずれか一項に記載のコンピュータシステム。
(項目10)
前記動きは、顔の動き、腕の動き、頭部の動きのうちの少なくとも1つを含む、項目9に記載のコンピュータシステム。
(項目11)
前記動きの特徴は、うなずきの大きさ、うなずきの速度、うなずきの頻度、眉間のしわ、表情のうちの少なくとも1つを含む、項目9に記載のコンピュータシステム。
(項目12)
前記提供手段は、前記コミュニケーション中に前記第1の人物および/または前記第2の人物に対して表示される映像上に前記アドバイスを表示する、項目1~11のいずれか一項に記載のコンピュータシステム。
(項目13)
前記アドバイスは、前記第2の人物に提供され、
前記アドバイスは、前記コミュニケーションにおいて前記第2の人物が留意すべきことを含む、項目1~12のいずれか一項に記載のコンピュータシステム。
(項目14)
前記第1の人物は、組織におけるメンバーであり、前記第2の人物は、前記メンバーの上司である、項目1~13のいずれか一項に記載のコンピュータシステム。
(項目15)
二者間のコミュニケーションを支援するための方法であって、
前記二者のうちの第1の人物が前記コミュニケーションにおいて前記二者のうちの第2の人物に期待する対応を示す入力を受信することと、
前記コミュニケーション中の音声および/または映像を受信することと、
前記入力と、前記音声および/または前記映像とに基づいて、前記コミュニケーションにおけるアドバイスを導出することと、
前記導出されたアドバイスを前記コミュニケーション中に提供することと
を含む方法。
(項目15A)
上記項目の1つまたは複数に記載の特徴を有する、項目15に記載の方法。
(項目16)
二者間のコミュニケーションを支援するためのプログラムであって、前記プログラムは、プロセッサ部を備えるコンピュータシステムにおいて実行され、前記プログラムは、
前記二者のうちの第1の人物が前記コミュニケーションにおいて前記二者のうちの第2の人物に期待する対応を示す入力を受信することと、
前記コミュニケーション中の音声および/または映像を受信することと、
前記入力と、前記音声および/または前記映像とに基づいて、前記コミュニケーションにおけるアドバイスを導出することと、
前記導出されたアドバイスを前記コミュニケーション中に提供することと
を含む処理を前記プロセッサ部に行わせる、プログラム。
(項目16A)
上記項目の1つまたは複数に記載の特徴を有する、項目16に記載のプログラム。
(項目17)
二者間のコミュニケーションを支援するためのプログラムを記憶するコンピュータ読み取り可能な記憶媒体であって、前記プログラムは、プロセッサ部を備えるコンピュータシステムにおいて実行され、前記プログラムは、
前記二者のうちの第1の人物が前記コミュニケーションにおいて前記二者のうちの第2の人物に期待する対応を示す入力を受信することと、
前記コミュニケーション中の音声および/または映像を受信することと、
前記入力と、前記音声および/または前記映像とに基づいて、前記コミュニケーションにおけるアドバイスを導出することと、
前記導出されたアドバイスを前記コミュニケーション中に提供することと
を含む処理を前記プロセッサ部に行わせる、コンピュータ読み取り可能な記憶媒体。
(項目17A)
上記項目の1つまたは複数に記載の特徴を有する、項目17に記載のコンピュータ読み取り可能な記憶媒体。
本発明によれば、二者間のコミュニケーションを支援するためのコンピュータシステム、方法、およびプログラムを提供することができ、これにより、二者間のコミュニケーションの質を向上させることができる。
部下が使用する情報端末の表示部に表示される画面の一例を示す図 部下が使用する情報端末の表示部に表示される画面の一例を示す図 部下が使用する情報端末の表示部に表示される画面の一例を示す図 上司が使用する情報端末の表示部に表示される画面の一例を示す図 二者間のコミュニケーションを支援するためのコンピュータシステム100の構成の一例を示す図 データベース部200に格納されている、二者間のコミュニケーションを支援するために提供され得るアドバイスのデータ構成の一例を示す図 データベース部200に格納されている、二者間のコミュニケーションを支援するために提供され得るアドバイスのデータ構成の別の一例を示す図 端末装置300の構成の一例を示す図 プロセッサ部120の構成の一例を示す図 プロセッサ部120の代替実施形態であるプロセッサ部120’の構成の一例を示す図 二者間のコミュニケーションを支援するためのコンピュータシステム100による処理700の一例を示すフローチャート ステップS703における導出手段123による処理の一例を示すフローチャート 二者間のコミュニケーションを支援するためのコンピュータシステム100による別の処理800の一例を示すフローチャート ステップS802における変更手段126による処理の一例を示すフローチャート
1.定義
本明細書において、「二者」とは、任意の二人の人物のことをいう。一実施形態において、「二者」とは、何らかの上下関係を有する二人の人物のことをいう。ここで、何らかの上下関係は、例えば、地位的な上下関係(例えば、上司-部下の関係、先生-生徒の関係等)であってもよいし、年齢的な上下関係(例えば、年上-年下の関係等)、経験または知識に基づく上下関係(例えば、玄人-素人の関係等)であってもよい。なお、経験または知識に基づく上下関係は、基準となる経験または知識に応じて上下関係が入れ替わり得る。例えば、A、Bの二者は、或る分野においてAがBよりも知識が豊富である場合にはAがBよりも上位となり得、別の分野においてBがAよりも知識が豊富である場合にはBがAよりも上位になり得る。
本明細書において、「二者のうちの第1の人物」とは、任意の二人の人物のうちの一方のことをいう。一実施形態において、「二者のうちの第1の人物」とは、何らかの上下関係を有する二人の人物のうちの下位の人物のことをいう。例えば、「二者のうちの第1の人物」は、上司-部下の関係における部下、先生-生徒の関係における生徒、年上-年下の関係における年下の人物、玄人-素人の関係における素人を含む。
本明細書において、「二者のうちの第2の人物」とは、任意の二人の人物のうちの他方のことをいう。一実施形態において、「二者のうちの第2の人物」とは、何らかの上下関係を有する二人の人物のうちの上位の人物のことをいう。例えば、「二者のうちの第2の人物」は、上司-部下の関係における上司、先生-生徒の関係における先生、年上-年下の関係における年上の人物、玄人-素人の関係における玄人を含む。
本明細書において、「二者間のコミュニケーション」とは、二者が1対1で行うコミュニケーションのことをいう。「二者間のコミュニケーション」は、例えば、仕事におけるコミュニケーション、学校生活におけるコミュニケーション、家庭生活におけるコミュニケーション、趣味活動におけるコミュニケーション等、任意のフィールドにおけるコミュニケーションを含む。
以下、図面を参照しながら、本発明の実施の形態を説明する。
2.二者間のコミュニケーションを支援するためのアプリケーション
本発明の発明者は、二者間のコミュニケーションを支援するためのアプリケーションを開発した。二者間のコミュニケーションを支援するためのアプリケーションは、二者間のコミュニケーションにおける個々人への関わり方を改善することができる。コミュニケーションを行う二者はそれぞれ、二者間のコミュニケーションを支援するためのアプリケーションを利用することにより、そのコミュニケーションの質を向上させることができる。
以下では、二者が上司と部下との二者であり、第1の人物が部下(図1~図2では、「AAAAA」と称されている)であり、第2の人物が上司(図1~図2では、「課長太郎」と称されている)であり、部下と上司とが「1on1ミーティング」を行い、二者間のコミュニケーションを支援するためのアプリケーションが、1on1ミーティングを支援する場合を例に説明する。
部下および上司は、1on1ミーティングを行うために情報端末(例えば、スマートフォン、タブレット、パーソナルコンピュータ等)を使用して、1on1ミーティングを支援するためのアプリケーションを利用することができる。1on1ミーティングを支援するためのアプリケーションは、ウェブブラウザを介して利用可能なウェブアプリケーションであってもよいし、端末装置にインストールされたアプリケーションであってもよい。1on1ミーティングは、1on1ミーティングを支援するためのアプリケーションを利用して、ビデオ通話を介して行われることができる。
1on1ミーティングを支援するためのアプリケーションは、上司と部下との1on1ミーティングを管理する機能を有している。例えば、1on1ミーティングの日程を入力することで、その日程の前に、上司および部下は、1on1ミーティングのリマインダを受けることができる。例えば、1on1ミーティング後に1on1ミーティングでの成果を入力することで、1on1ミーティングでの成果が蓄積され、これにより、上司および部下は、過去の成果を参照することができる。
図1A~図1Cは、部下が使用する情報端末の表示部に表示される画面の一例を示す。
図1Aは、1on1ミーティングのためのアジェンダ設定依頼が通知された画面10の一例を示す。
画面10では、1on1ミーティング詳細表示部11の上方に、1on1ミーティングのためのアジェンダ設定依頼表示部12が表示されている。
1on1ミーティング詳細表示部11には、次に開催される1on1ミーティングの詳細が表示されている。例えば、1on1ミーティング詳細表示部11には、次回1on1ミーティングの日時、前回の1on1ミーティングからの宿題、次回1on1ミーティングで話してみたいトピックおよび期待する対応、次回1on1ミーティング用のメモ等が表示されている。部下は、1on1ミーティング詳細表示部11を見て、次回の1on1ミーティングに備えることができる。
アジェンダ設定依頼表示部12には、次回以降の1on1ミーティングの中で、アジェンダが未だ設定されていない1on1ミーティングについて、アジェンダを設定するよう促すアジェンダ設定依頼が通知される。アジェンダ設定依頼は、例えば、次回1on1ミーティングの日程の任意の時間前に通知される。例えば、アジェンダ設定依頼は、次回1on1ミーティングの1時間前、3時間前、6時間前、12時間前、1日前、3日前、または1週間前に通知され得る。アジェンダ設定依頼表示部12には、アジェンダが未だ設定されていない1on1ミーティングがすべて表示されるようにしてもよいし、アジェンダが未だ設定されていない1on1ミーティングのうちの一部、例えば、直近の1つ、2つ、3つ等が表示されるようにしてもよい。図1Aに示される例では、次回以降1つの1on1ミーティング(上司課長太郎さんとの1on1ミーティング)についてアジェンダを設定するよう通知されている。
アジェンダ設定依頼表示部12は、「設定する」ボタン13を含む。「設定する」ボタンを選択すると、図1Bに示される画面20に遷移する。
図1Bは、1on1ミーティングのためのアジェンダを設定するための画面20の一例を示す。図1Bに示される例では、画面20は、上司課長太郎さんとの1on1ミーティングでのアジェンダを設定するための画面である。
画面20は、宿題表示部21と、トピック入力部22と、メモ欄25とを含む。
宿題表示部21には、部下に課せられている前回からの宿題が表示される。例えば、「業務プロセスの改善案を考える」、「関係部署へのヒアリングを依頼する」という宿題が表示されている。
トピック入力部22には、上司課長太郎さんとの1on1ミーティングで話題としたいトピック(またはテーマ)を入力することができる。なお、本明細書では、「トピック」および「テーマ」は、同義的に使用される。トピックは、例えば、図1Bに示されるように多肢選択形式で入力されるようにしてもよいし、自由形式で入力されるようにしてもよい。トピックが入力されると、そのトピックでの話についての対応入力部23が表示されるようになる。トピックは、例えば、業務に関することであってもよいし、人間関係に関することであってもよいし、部下自身に関することであってもよい。トピックは、二者間のコミュニケーションで話題となり得る任意の事項であり得る。例えば、学校生活における1on1ミーティングでは、トピックは、学業に関すること、進路に関すること、友人関係に関すること、家庭に関すること等であり得る。
対応入力部23には、各トピックでの話について、上司課長太郎さんに期待する対応(あるいは、行動および/または態度)を入力することができる。期待する対応は、例えば、図1Bに示されるように多肢選択形式で入力されるようにしてもよいし、自由形式で入力されるようにしてもよい。期待する対応は、例えば、「具体的なアドバイスがほしい」、「一緒に考えてほしい」、「話を聞いてほしい」、「意見を聞きたい」、「報告したい」等であり得る。期待する対応は、例えば、具体的な行動であってもよいし、具体的な態度であってもよい。
メモ欄25には、メモを自由に入力することができる。例えば、1on1ミーティングでの自分用のカンペを入力することができる。入力されたメモは、1on1ミーティングの最中に表示させることができるため、カンペを見ながら1on1ミーティングに取り組むこともできる。
トピックおよび期待する対応を入力すると、アジェンダ設定が完了する。
図1Cは、上司と部下との1on1ミーティングの最中に表示される画面30の一例を示す。上司と部下との1on1ミーティングは、ビデオ通話を介して行われる。
画面30は、映像表示部31と、アドバイス表示部32とを含む。
映像表示部31には、1on1ミーティング中の相手の映像が表示される。加えて、1on1ミーティング中の自身の映像も表示され得る。本例では、1on1ミーティング中の上司課長太郎さんの映像が表示されており、自身の映像も小さく表示されている。
アドバイス表示部32には、1on1ミーティングにおける部下に対するアドバイスが表示される。アドバイス表示部32に表示されるアドバイスは、現在進行中の1on1ミーティングにおいて、どのようなことに留意すべきか等を示すアドバイスメッセージを含む。例えば、部下は、提示される情報を基にして、現在進行中の1on1ミーティングにおいてどのようなことに留意すべきかを自ら気づくことができ、現在進行中の1on1ミーティングの質を高めるよう努めることができる。
アドバイス表示部32は、部下に対するアドバイスが必要ないときは表示されず、部下に対するアドバイスが必要だと判断されたときに表示されることができる。アドバイス表示部32は、映像表示部31にオーバーレイして表示される、すなわち、映像表示部31に表示された映像上に表示されるようにしてもよいし、映像表示部31の外部に表示されるようにしてもよい。
本例では、現在進行中の1on1ミーティングにおいて、「もう少し突っ込んだ質問をしましょう。」というアドバイスメッセージが表示されている。アドバイスメッセージは、個々の部下に対して一律のアドバイスであってもよいし、個々の部下各々の特徴に基づいて決定される個別のアドバイスであってもよい。なお、アドバイスは、アドバイスメッセージまたは文に限定されず、例えば、単語、句、節、図であってもよい。例えば、図は、動作をアドバイスするために利用され得る。
図2は、上司が使用する情報端末の表示部に表示される画面の一例を示す。
図2は、上司と部下との1on1ミーティングの最中に表示される画面40の一例を示す。上述したように、上司と部下との1on1ミーティングは、ビデオ通話を介して行われる。
画面40は、映像表示部41と、期待する対応表示部42と、アドバイス表示部43とを含む。
映像表示部41には、1on1ミーティング中の相手の映像が表示される。加えて、1on1ミーティング中の自身の映像も表示され得る。本例では、1on1ミーティング中の部下AAAAAさんの映像が表示されており、自身の映像も小さく表示されている。
期待する対応表示部42には、部下が上司課長太郎さんとの1on1ミーティングで期待する対応が表示される。期待する対応は、図1Bの画面20の対応入力部23に入力されたものであり得る。例えば、上司は、期待する対応表示部42に表示される情報から、部下が何を求めているのかを把握することができる。これにより、上司は、部下の希望および期待に沿うように、1on1ミーティングで部下とコミュニケーションをとることができ、これは、ひいては、質の高い二者間のコミュニケーションにつながる。
期待する対応表示部42は、1on1ミーティング中に常に表示されるようにしてもよいし、1on1ミーティング中に一時的に(例えば、1on1ミーティングの冒頭の所定期間中、上司が操作したときに、または後述するアドバイス表示部43が表示されているときに等)表示されるようにしてもよい。期待する対応表示部42は、映像表示部41にオーバーレイして表示される、すなわち、映像表示部41に表示された映像上に表示されるようにしてもよいし、映像表示部41の外部に表示されるようにしてもよい。
アドバイス表示部43には、1on1ミーティングにおける上司に対するアドバイスが表示される。アドバイス表示部43に表示されるアドバイスは、現在進行中の1on1ミーティングにおいて、どのようなことに留意すべきか等を示すアドバイスメッセージを含む。例えば、上司は、提示される情報を基にして、現在進行中の1on1ミーティングにおいてどのようなことに留意すべきかを自ら気づくことができ、現在進行中の1on1ミーティングの質を高めるよう努めることができる。
アドバイス表示部43は、上司に対するアドバイスが必要ないときは表示されず、上司に対するアドバイスが必要だと判断されたときに表示されることができる。アドバイス表示部43は、映像表示部41にオーバーレイして表示される、すなわち、映像表示部41に表示された映像上に表示されるようにしてもよいし、映像表示部41の外部に表示されるようにしてもよい。
本例では、現在進行中の1on1ミーティングにおいて、「もう少し具体的に伝えてみましょう。」というアドバイスメッセージが表示されている。アドバイスメッセージは、個々の上司に対して一律のアドバイスであってもよいし、個々の上司各々の特徴に基づいて決定される個別のアドバイスであってもよい。なお、アドバイスは、アドバイスメッセージまたは文に限定されず、例えば、単語、句、節、図であってもよい。例えば、図は、動作をアドバイスするために利用され得る。
1on1ミーティングが終了した後、部下は、上司課長太郎さんとの1on1ミーティングを評価することができる。評価は、例えば、画面30が評価画面(図示せず)に遷移した後に行われることができる。
部下は、例えば、上司課長太郎さんとの1on1ミーティング全体の評価である全体評価を入力することができる。全体評価は、例えば、1on1ミーティングに満足したか否か等の2段階評価であってもよいし、1on1ミーティングに満足した度合を示す多段階評価であってもよい。
部下は、例えば、全体評価に加えて、または、全体評価に代えて、1on1ミーティングでの上司による対応に対する個別評価を入力することができる。個別評価は、例えば、各トピックの話について、期待していた対応がなされたか否か、またはなされた対応に満足するか否か等の2段階評価であってもよいし、なされた対応に満足した度合を示す多段階評価であってもよい。
1on1ミーティングが終了した後、上司は、部下AAAAAさんとの1on1ミーティングを評価することができる。評価は、例えば、画面40が評価画面(図示せず)に遷移した後に行われることができる。
上司は、例えば、部下AAAAAさんとの1on1ミーティング全体の評価である全体評価を入力することができる。全体評価は、例えば、部下が満足する1on1ミーティングを行うことができたか否か等の2段階評価であってもよいし、部下が満足する1on1ミーティングを行うことができた度合を示す多段階評価であってもよい。
上司は、例えば、全体評価に加えて、または、全体評価に代えて、1on1ミーティングでの部下の期待に応えることができたかの個別評価を入力することができる。個別評価は、例えば、各トピックの話について、期待された対応を行うことができたか否か等の2段階評価であってもよいし、期待された対応を行うことができた度合を示す多段階評価であってもよい。
画面20、画面30、画面40に入力された情報は、1on1ミーティングを支援するためのアプリケーションに蓄積され、後の1on1ミーティングのために利用される。後の1on1ミーティングは、部下「AAAAA」と上司「課長太郎」との1on1ミーティングであってもよいし、部下「AAAAA」と別の上司との1on1ミーティングであってもよいし、別の部下と上司「課長太郎」との1on1ミーティングであってもよいし、別の部下と別の上司との1on1ミーティングであってもよい。
上述した例では、1on1ミーティングがビデオ通話を介して行われることを説明したが、本発明が支援する対象のコミュニケーションは、ビデオ通話を介した1on1ミーティングに限定されない。本発明は、二者間のコミュニケーションにおいて、二者のうちの少なくとも一方の音声および/または映像を取得することができる限り、任意の態様のコミュニケーションを支援することができる。このようなコミュニケーションは、例えば、
上述した例では、上司と部下との間の1on1ミーティングを支援することを例に説明したが、本発明が支援する対象のコミュニケーションは、上司と部下との間の1on1ミーティングに限定されない。本発明は、二者間のコミュニケーションにおいて、二者のうちの一方が二者のうちの他方に期待する対応が予め設定される限り、任意の二者による1対1の任意のコミュニケーションを支援することができる。このようなコミュニケーションは、例えば、或る会社のマネージャAさん(上司)が部下に対する効果的な力の引き出し方を別の会社のマネージャBさん(上司)から学ぶためのAさんとBさんとの間のコミュニケーション、或る会社のメンバーCさん(部下)が円滑な会議の進め方や将来のキャリア形成の仕方を別の会社のマネージャDさん(上司)から学ぶためのCさんとDさんとの間のコミュニケーション、高校生Eさんが効果的な受験勉強の仕方を大学生Fさんから学ぶためのEさんとFさんとの間のコミュニケーション、或る人物Gさんがスキルアップのために、または、習い事として、専門家Hさんまたは知見・経験を有する人物Iさんから学ぶためのGさんとHさんまたはIさんとの間のコミュニケーション等を含むが、これらに限定されない。
上述した二者間のコミュニケーションを支援するためのアプリケーションは、例えば、後述する二者間のコミュニケーションを支援するためのコンピュータシステムによって実装されてもよい。二者間のコミュニケーションを支援するためのコンピュータシステムによって、二者間のコミュニケーションにおける個々人への関わり方を改善することができる。
3.二者間のコミュニケーションを支援するためのコンピュータシステムの構成
図3は、二者間のコミュニケーションを支援するためのコンピュータシステム100の構成の一例を示す。
コンピュータシステム100は、データベース部200に接続されている。また、コンピュータシステム100は、少なくとも1つの端末装置300にネットワーク400を介して接続されている。
なお、図3では、3つの端末装置300が示されているが、端末装置300の数はこれに限定されない。任意の数の端末装置300が、ネットワーク400を介してシステム100に接続され得る。
ネットワーク400は、任意の種類のネットワークであり得る。ネットワーク400は、例えば、インターネットであってもよいし、LANであってもよい。ネットワーク400は、有線ネットワークであってもよいし、無線ネットワークであってもよい。
コンピュータシステム100は、二者間のコミュニケーションを支援するためのアプリケーションを提供するサービスプロバイダに設置されているコンピュータ(例えば、サーバ装置)であり得る。端末装置300は、二者間のコミュニケーションにおける二者が利用するコンピュータ(例えば、端末装置)であり得る。例えば、上述した例では、端末装置300のうちの1つが、上司が利用するコンピュータであり、端末装置300のうちの別の1つが、部下が利用するコンピュータであり得る。ここで、コンピュータ(サーバ装置または端末装置)は、任意のタイプのコンピュータであり得る。例えば、端末装置は、スマートフォン、タブレット、パーソナルコンピュータ、スマートグラス、スマートウォッチ等の任意のタイプの端末装置であり得る。
コンピュータシステム100は、インターフェース部110と、プロセッサ部120と、メモリ130部とを備える。コンピュータシステム100は、データベース部200に接続されている。
インターフェース部110は、コンピュータシステム100の外部と情報のやり取りを行う。コンピュータシステム100のプロセッサ部120は、インターフェース部110を介して、コンピュータシステム100の外部から情報を受信することが可能であり、コンピュータシステム100の外部に情報を送信することが可能である。インターフェース部110は、任意の形式で情報のやり取りを行うことができる。第1の人物が使用する情報端末および第2の人物が使用する情報端末は、インターフェース部110を介して、コンピュータシステム100と通信することができる。
インターフェース部110は、例えば、コンピュータシステム100に情報を入力することを可能にする入力部を備える。入力部が、どのような態様でコンピュータシステム100に情報を入力することを可能にするかは問わない。例えば、入力部が受信器である場合、受信器がネットワークを介してコンピュータシステム100の外部から情報を受信することにより入力してもよい。この場合、ネットワークの種類は問わない。例えば、受信器は、インターネットを介して情報を受信してもよいし、LANを介して情報を受信してもよい。
インターフェース部110は、例えば、コンピュータシステム100から情報を出力することを可能にする出力部を備える。出力部が、どのような態様でコンピュータシステム100から情報を出力することを可能にするかは問わない。例えば、出力部が送信器である場合、送信器がネットワークを介してコンピュータシステム100の外部に情報を送信することにより出力してもよい。この場合、ネットワークの種類は問わない。例えば、送信器は、インターネットを介して情報を送信してもよいし、LANを介して情報を送信してもよい。
プロセッサ部120は、コンピュータシステム100の処理を実行し、かつ、コンピュータシステム100全体の動作を制御する。プロセッサ部120は、メモリ部130に格納されているプログラムを読み出し、そのプログラムを実行する。これにより、コンピュータシステム100を所望のステップを実行するシステムとして機能させることが可能である。プロセッサ部120は、単一のプロセッサによって実装されてもよいし、複数のプロセッサによって実装されてもよい。
メモリ部130は、コンピュータシステム100の処理を実行するために必要とされるプログラムやそのプログラムの実行に必要とされるデータ等を格納する。メモリ部130は、二者間のコミュニケーションを支援するための処理をプロセッサ部120に行わせるためのプログラム(例えば、後述する図7、図8に示される処理を実現するプログラム)を格納してもよい。ここで、プログラムをどのようにしてメモリ部130に格納するかは問わない。例えば、プログラムは、メモリ部130にプリインストールされていてもよい。あるいは、プログラムは、ネットワークを経由してダウンロードされることによってメモリ部130にインストールされるようにしてもよい。この場合、ネットワークの種類は問わない。メモリ部130は、任意の記憶手段によって実装され得る。あるいは、プログラムは、コンピュータ読み取り可能な記憶媒体に記憶され、コンピュータ読み取り可能な記憶媒体を読み取ることによってメモリ部130にインストールされるようにしてもよい。
データベース部200には、二者間のコミュニケーションを支援するために利用され得る種々の情報が格納されている。
データベース部200には、二者間のコミュニケーションを支援するために提供され得るアドバイスが格納されている。提供され得るアドバイスは、例えば、二者間のコミュニケーションにおいて期待される対応と、二者間のコミュニケーションにおいて取得され得る音声から抽出される特徴および/または映像から抽出される特徴に関連付けられて格納され得る。一実施形態において、提供され得るアドバイスは、二者間のコミュニケーションにおいて期待される対応に応じた基準と関連付けられて格納され得る。基準は、音声から抽出される特徴に関する基準および/または映像から抽出される特徴に関する基準であり得る。
図4Aは、データベース部200に格納されている、二者間のコミュニケーションを支援するために提供され得るアドバイスのデータ構成の一例を示す。図4Aに示される例では、第2の人物に対するアドバイスが示されている。
二者間のコミュニケーションを支援するために提供され得るアドバイスは、二者間のコミュニケーションにおいて第2の人物が第1の人物に期待する対応と、基準とに関連付けられて格納されている。基準は、二者間のコミュニケーションにおいて取得される音声から抽出される特徴および/または映像から抽出される特徴に関する基準である。各基準は、それぞれの対応に関連付けられており、対応毎に基準が異なっている。
音声から抽出される特徴に関する基準は、第1の人物の音声から抽出される特徴に関する基準、第2の人物の音声から抽出される特徴に関する基準、第1の人物の発話時間および第2の人物の発話時間に関する基準を含む。
第1の人物の音声から抽出される特徴に関する基準は、例えば、第1の人物の音声中の特定の文言の過不足に関する。例えば、二者間のコミュニケーション中の所定期間の間の第1の人物の音声中に特定の文言が含まれていなかった場合に、この基準を満たすものとしてもよいし、例えば、二者間のコミュニケーション中の所定期間の間の第1の人物の音声中に特定の文言が所定の回数よりも少なく含まれていた場合に、この基準を満たすものとしてもよいし、例えば、二者間のコミュニケーション中の所定期間の間の第1の人物の音声中に特定の文言が所定の回数よりも多く含まれていた場合に、この基準を満たすものとしてもよい。所定期間は、例えば、二者間のコミュニケーションの開始5分間、開始10分間、開始30分間、開始5分経過後から10分間等の任意の期間であり得る。所定の回数は、例えば、2回、3回、5回、10回等の任意の回数であり得る。
特定の文言は、例えば、「具体的には」、「まず」、「次に」、「わかりました」、「それはたいへんですね」、「どうしようか」、「アイデアはありますか?」等の文言を含むがこれらに限定されない。任意の文言が、特定の文言として設定され得る。
第2の人物の音声から抽出される特徴に関する基準は、例えば、第2の人物の音声中の特定の文言の音声の高さ、速度、大きさ、および/または回数に関する。例えば、二者間のコミュニケーション中の所定期間の間の第2の人物の音声中に含まれていた特定の文言の音声の高さが所定の高さ(Hz)以上または以下であった場合に、この基準を満たすものとしてもよいし、例えば、二者間のコミュニケーション中の所定期間の間の第2の人物の音声中に含まれていた特定の文言の音声の速度が所定の速度(所定の文言全体を発話する秒数)以上または以下であった場合に、この基準を満たすものとしてもよいし、例えば、二者間のコミュニケーション中の所定期間の間の第2の人物の音声中に含まれていた特定の文言の音声の大きさが所定の大きさ(dB)以上または以下であった場合に、この基準を満たすものとしてもよいし、例えば、二者間のコミュニケーション中の所定期間の間の第2の人物の音声中に含まれていた特定の文言の回数が所定の回数以上または以下であった場合に、この基準を満たすものとしてもよい。所定期間は、例えば、二者間のコミュニケーションの開始5分間、開始10分間、開始30分間、開始5分経過後から10分間等の任意の期間であり得る。
好ましくは、第2の人物の音声から抽出される特徴に関する基準は、第2の人物の音声中の特定の文言の音声の高さに関する。音声の高さには、発話者の気持ちが出やすい傾向があり、音声の高さを基準に用いることにより、第2の人物の気持ちを精度よく推定することができるようになり、ひいては、アドバイスの精度の向上につながるからである。他の好ましい例では、第2の人物の音声から抽出される特徴に関する基準は、例えば、第2の人物の音声中の特定の文言の音声の高さおよび速度に関し、別の好ましい例では、第2の人物の音声から抽出される特徴に関する基準は、第2の人物の音声中の特定の文言の音声の高さ、速度、および大きさに関し、別の好ましい例では、第2の人物の音声から抽出される特徴に関する基準は、第2の人物の音声中の特定の文言の音声の高さ、速度、大きさ、および回数に関する。音声の高さに発話者の気持ちが最も出やすく、次いで、速度、大きさ、回数の順で発話者の気持ちが出やすく、これらを基準に用いることにより、第2の人物の気持ちをより精度よく推定することができるようになり、ひいては、アドバイスの精度のさらなる向上につながるからである。
特定の文言は、例えば、「はい」、「理解しました」、「でも」、「しかし」、「やってみます」、「たしかに」等の文言を含むがこれらに限定されない。任意の文言が、特定の文言として設定され得る。
第1の人物の発話時間および第2の人物の発話時間に関する基準は、例えば、第1の人物の発話時間と第2の人物の発話時間との割合に関する。例えば、二者間のコミュニケーション中の所定期間の間の第1の人物の発話時間と第2の人物の発話時間との割合が所定の割合以上または以下であった場合に、この基準を満たすものとしてもよい。所定期間は、例えば、二者間のコミュニケーションの開始5分間、開始10分間、開始30分間、開始5分経過後から10分間等の任意の期間であり得る。
映像から抽出される特徴に関する基準は、第2の人物の映像から抽出される特徴に関する基準を含む。なお、映像から抽出される特徴に関する基準は、第2の人物の映像から抽出される特徴に関する基準に加えて、またはこれに代えて、第1の人物の映像から抽出される特徴に関する基準を含むようにしてもよい。
第2の人物の映像から抽出される特徴に関する基準は、例えば、第2の人物の動きの有無、大きさ、速度、頻度に関する。例えば、二者間のコミュニケーション中の所定期間の間の第2の人物の映像中に顔の動き(例えば、表情の変化、眉間のしわ)が含まれていたまたは含まれていなかった場合に、この基準を満たすものとしてもよいし、例えば、二者間のコミュニケーション中の所定期間の間の第2の人物の映像中に含まれていた動きの大きさが所定の大きさ(運動距離)以上または以下であった場合に、この基準を満たすものとしてもよいし、例えば、二者間のコミュニケーション中の所定期間の間の第2の人物の映像中に含まれていた動きの速度が所定の速度(運動速度)以上または以下であった場合に、この基準を満たすものとしてもよいし、例えば、二者間のコミュニケーション中の所定期間の間の第2の人物の映像中に含まれていた動きの頻度が所定の頻度(所定期間あたりの回数)以上または以下であった場合に、この基準を満たすものとしてもよい。所定期間は、例えば、二者間のコミュニケーションの開始5分間、開始10分間、開始30分間、開始5分経過後から10分間等の任意の期間であり得る。
第2の人物の動きは、例えば、顔の動き、腕の動き、頭部の動きを含むがこれらに限定されない。第2の人物の動きは、二者間のコミュニケーションにおいて映像から抽出可能な任意の動きであり得る。より具体的には、第2の人物の動きは、うなずきであり得る。
例えば、図4Aに示される例では、「具体的なアドバイスが欲しい」という期待する対応が、“「具体的には」の文言が無い”という第1の人物の音声から抽出される特徴に関する基準と、“「はい」、「理解しました」の音声の速度が閾値以下、かつ、大きさが閾値以下”という第2の人物の音声から抽出される特徴に関する基準と、“第1の人物の発話時間:第2の人物の発話時間が3:7より大きい”という第1の人物の発話時間および第2の人物の発話時間に関する基準と、「もう少し具体的に伝えてみましょう!」というアドバイスと関連付けられて格納されている。例えば、「一緒に考えてほしい」という期待する対応が、“「たしかに」の音声の大きさが閾値以下”という第2の人物の音声から抽出される特徴に関する基準と、“第1の人物の発話時間:第2の人物の発話時間が5:5より大きい”という第1の人物の発話時間および第2の人物の発話時間に関する基準と、“手振りの大きさが所定値以上”という第2の人物の映像に関する基準と、「話しすぎです」というアドバイスと関連付けられて格納されている。
このように、対応は、第1の人物の音声から抽出される特徴に関する基準、第2の人物の音声から抽出される特徴に関する基準、第1の人物の発話時間および第2の人物の発話時間に関する基準、2の人物の映像に関する基準のうちの少なくとも1つと、アドバイスと関連付けられて格納され得る。これにより、或る対応が指定されたときに、その対応に関連付けられた基準が満たされた場合に、関連付けられたアドバイスを導出することができるようになる。
図4Bは、データベース部200に格納されている、二者間のコミュニケーションを支援するために提供され得るアドバイスのデータ構成の別の一例を示す。図4Bに示される例では、第1の人物に対するアドバイスが示されている。
図4Bに示されるアドバイスは、図4Aで示されるアドバイスと同様の態様でデータベース部200に格納されている。図4Bに示される第1の人物に対するアドバイスは、図4Aに示される第2の人物に対するアドバイスと対になるアドバイスであり得る。
データベース部200に格納されるアドバイスは、例えば、組織の属性に関連付けられて格納されてもよい。例えば、データベース部200に格納される企業向けのアドバイスは、第一次産業の組織向けのアドバイス、第二次産業の組織向けのアドバイス、第三次産業の組織向けのアドバイスに区分されて格納され得る。例えば、データベース部200に格納される学生向けのアドバイスは、小学生の組織向けのアドバイス、中学生の組織向けのアドバイス、高校生の組織向けのアドバイス、大学生の組織向けのアドバイスに区分されて格納され得る。これにより、属性が異なる組織毎に異なるアドバイスを提供することができるようになる。
本発明では、データベース部200にアドバイスを格納するタイミングは問わない。アドバイスは、例えば、二者間のコミュニケーションを支援するためのサービスを提供するサービスプロバイダによってデータベース部200に予め格納されていてもよい。あるいは、アドバイスは、例えば、コンピュータシステム100を利用してサービスを運用している間に、第2の人物に相当するユーザによって入力されて格納されるようにしてもよい。
また、本発明では、アドバイスと関連付けられる基準は、固定されたものであってもよいし、変更されるものであってもよい。好ましくは、アドバイスと関連付けられる基準は、アドバイスが提供された二者間のコミュニケーションに対する、二者のうちの一方または両方からの評価に基づいて変更され得る。アドバイスと関連付けられる基準は、例えば、図8Aおよび図8Bを参照して後述する処理によって変更され得る。
図3に示される例では、データベース部200は、コンピュータシステム100の外部に設けられているが、本発明はこれに限定されない。データベース部200をコンピュータシステム100の内部に設けることも可能である。このとき、データベース部200は、メモリ部130を実装する記憶手段と同一の記憶手段によって実装されてもよいし、メモリ部130を実装する記憶手段とは別の記憶手段によって実装されてもよい。いずれにせよ、データベース部200は、コンピュータシステム100のための格納部として構成される。データベース部200の構成は、特定のハードウェア構成に限定されない。例えば、データベース部200は、単一のハードウェア部品で構成されてもよいし、複数のハードウェア部品で構成されてもよい。例えば、データベース部200は、コンピュータシステム100の外付けハードディスク装置として構成されてもよいし、ネットワークを介して接続されるクラウド上のストレージとして構成されてもよい。
図5は、端末装置300の構成の一例を示す。
端末装置300は、インターフェース部310と、入力部320と、表示部330と、メモリ部340と、プロセッサ部350と、撮像部360と、音声出力部370とを備える。
インターフェース部310は、ネットワーク400を介した通信を制御する。端末装置300のプロセッサ部350は、インターフェース部310を介して、端末装置300の外部から情報を受信することが可能であり、端末装置300の外部に情報を送信することが可能である。インターフェース部310は、任意の方法で通信を制御し得る。
入力部320は、ユーザが情報を端末装置300に入力することを可能にする。入力部320が、どのような態様で、ユーザが情報を端末装置300に入力することを可能にするかは問わない。例えば、入力部320がタッチパネルである場合には、ユーザがタッチパネルにタッチすることによって情報を入力するようにしてもよい。あるいは、入力部320がマウスである場合には、ユーザがマウスを操作することによって情報を入力するようにしてもよい。あるいは、入力部320がキーボードである場合には、ユーザがキーボードのキーを押下することによって情報を入力するようにしてもよい。あるいは、入力部がマイクである場合には、ユーザがマイクに音声を入力することによって情報を入力するようにしてもよい。あるいは、入力部がデータ読み取り装置である場合には、コンピュータシステム100に接続された記憶媒体から情報を読み取ることによって情報を入力するようにしてもよい。
表示部330は、情報を表示するための任意のディスプレイであり得る。例えば、表示部330には、図1~図2に示される画面が表示される。
メモリ部340には、端末装置300における処理を実行するためのプログラムやそのプログラムの実行に必要とされるデータ等が格納されている。メモリ部340には、例えば、二者間のコミュニケーションを支援するためのアプリケーションが格納されている。メモリ部340には、任意の機能を実装するアプリケーションが格納されていてもよい。ここで、プログラムをどのようにしてメモリ部340に格納するかは問わない。例えば、プログラムは、メモリ部340にプリインストールされていてもよい。あるいは、プログラムは、ネットワーク400を経由してダウンロードされることによってメモリ部340にインストールされるようにしてもよい。メモリ部340は、任意の記憶手段によって実装され得る。
プロセッサ部350は、端末装置300全体の動作を制御する。プロセッサ部350は、メモリ部340に格納されているプログラムを読み出し、そのプログラムを実行する。これにより、端末装置300を所望のステップを実行する装置として機能させることが可能である。プロセッサ部350は、単一のプロセッサによって実装されてもよいし、複数のプロセッサによって実装されてもよい。
撮像部360は、静止画または動画を撮影することが可能な任意の手段である。音声入力部360は、例えば、カメラである。カメラは、端末装置300に内蔵のカメラであってもよいし、端末装置300に取り付けられる外部カメラであってもよい。
音声出力部370は、音声を出力するための任意の手段である。音声出力部370は、例えば、スピーカーである。
図4Aに示される例では、端末装置300の各構成要素が端末装置300内に設けられているが、本発明はこれに限定されない。端末装置300の各構成要素のいずれかが端末装置300の外部に設けられることも可能である。例えば、入力部320、表示部330、メモリ部340、プロセッサ部350、撮像部360、音声出力部370のそれぞれが別々のハードウェア部品で構成されている場合には、各ハードウェア部品が任意のネットワークを介して接続されてもよい。このとき、ネットワークの種類は問わない。各ハードウェア部品は、例えば、LANを介して接続されてもよいし、無線接続されてもよいし、有線接続されてもよい。端末装置300は、特定のハードウェア構成には限定されない。例えば、プロセッサ部350をデジタル回路ではなくアナログ回路によって構成することも本発明の範囲内である。端末装置300の構成は、その機能を実現できる限りにおいて上述したものに限定されない。
図6Aは、プロセッサ部120の構成の一例を示す。
プロセッサ部120は、第1の受信手段121と、第2の受信手段122と、導出手段123と、提供手段124とを備える。
第1の受信手段121は、第1の人物が二者間のコミュニケーションにおいて第2の人物に期待する対応を示す情報を受信するように構成されている。第1の受信手段121は、例えば、インターフェース部110を介して、コンピュータシステム100の外部から情報を受信することができる。
第1の人物が二者間のコミュニケーションにおいて第2の人物に期待する対応は、第1の人物が使用する端末装置300に入力部320(例えば、キーボードまたはタッチパネル)を介して入力されることができ、入力された情報は、端末装置300からインターフェース部110を介してコンピュータシステム100に入力され得る。例えば、第1の人物が、第2の人物との二者間のコミュニケーションの前に、図1Bに示される画面20の対応入力部23に期待する対応を入力すると、入力された期待する対応を示す情報が、インターフェース部110を介してコンピュータシステム100に入力され、第1の受信手段121がインターフェース部110からその情報を受信する。
第2の受信手段122は、二者間のコミュニケーション中の音声および/または映像を受信するように構成されている。第2の受信手段122は、例えば、インターフェース部110を介して、コンピュータシステム100の外部から、二者間のコミュニケーション中の音声および/または映像を受信することができる。
二者間のコミュニケーション中の音声および/または映像は、第1の人物の音声および/または映像であってもよいし、第2の人物の音声および/または映像であってもよいし、その両方であってもよい。好ましくは、第2の受信手段122は、第1の人物の音声および/または映像と、第2の人物の音声および/または映像とを受信し得る。
第1の人物の音声は、第1の人物が使用する端末装置300に入力部320(例えば、マイク)を介して入力されることができ、入力された音声は、端末装置300からインターフェース部110を介してコンピュータシステム100に入力され得る。第1の人物の映像は、第1の人物が使用する端末装置300に撮像部360(例えば、カメラ)を介して入力されることができ、入力された映像は、端末装置300からインターフェース部110を介してコンピュータシステム100に入力され得る。
第2の人物の音声は、第2の人物が使用する端末装置300に入力部320(例えば、マイク)を介して入力されることができ、入力された音声は、端末装置300からインターフェース部110を介してコンピュータシステム100に入力され得る。第2の人物の映像は、第2の人物が使用する端末装置300に撮像部360(例えば、カメラ)を介して入力されることができ、入力された映像は、端末装置300からインターフェース部110を介してコンピュータシステム100に入力され得る。
導出手段123は、第1の受信手段121によって受信された情報と、第2の受信手段122によって受信された音声および/または映像に基づいて、二者間のコミュニケーションにおけるアドバイスを導出するように構成されている。導出手段123は、例えば、データベース部200に格納されているアドバイスのうち、受信された情報が示す期待する対応と、音声および/または映像との両方に関連付けられたアドバイスを導出することができる。より具体的には、導出手段123は、受信された情報が示す期待する対応に関連付けられた基準を、音声および/または映像が満たすときに、その対応および基準と関連付けられたアドバイスを導出することができる。例えば、音声および/または映像が基準を満たさないとき、導出手段123は、アドバイスを導出しないようにすることができる。基準は、対応およびアドバイスに関連付けられてデータベース部200に格納され得る。
導出手段123は、例えば、第2の受信手段122によって受信された音声から、第1の人物の音声の特徴および/または第2の人物の音声の特徴を抽出し、抽出された音声の特徴を基準と比較することができる。第1の人物の音声の特徴は、第1の人物が所定の文言を発話したときの音声の高さ、第1の人物が所定の文言を発話したときの音声の速度、第1の人物が所定の文言を発話したときの音声の大きさ、第1の人物が所定の文言を発話した回数のうちの少なくとも1つを含む。導出手段123は、音声認識の分野において公知または将来的に公知となる手段を用いて、所定の文言の音声を識別し、識別された音声の高さ、速度、大きさ、回数を測定することができる。
第2の人物の音声の特徴は、第2の人物の発話に含まれている所定の文言であり得る。導出手段123は、音声認識の分野において公知または将来的に公知となる手段を用いて、所定の文言の音声を識別し、所定の文言が存在するか否かを判定することができ、あるいは、所定の文言が出現する回数を測定することができる。
第1の人物の音声の特徴および第2の人物の音声の特徴は、第1の人物の発話時間および第2の人物の発話時間であり得る。導出手段123は、音声認識の分野において公知または将来的に公知となる手段を用いて、第1の人物の音声および第2の人物の音声を識別し、第1の人物の発話時間および第2の人物の発話時間を測定することができる。
導出手段123は、例えば、第2の受信手段122によって受信された映像から、第1の人物の動きの特徴および/または第2の人物の動きの特徴を抽出し、抽出された動きの特徴を基準と比較することができる。動きは、顔の動き(例えば、表情の変化、眉間のしわ)、腕の動き、頭部の動き(例えば、うなずき)のうちの少なくとも1つを含む。動きの特徴は、これらの動きの有無、大きさ、速度、頻度のうちの少なくとも1つを含む。導出手段123は、動き認識の分野において公知または将来的に公知となる手段を用いて、所定の動き識別し、識別された動きの有無を判定することができ、あるいは、識別された動きの大きさ、速度、頻度を測定することができる。
例えば、図4Aに示されるように、アドバイスが、対応と基準とに関連付けられてデータベース部200に格納されている場合を例に説明する。第1の受信手段121によって受信された情報が、「具体的なアドバイスが欲しい」が期待する対応であると示す場合、導出手段123は、第2の受信手段122によって受信された第1の人物の音声から「具体的には」、「まず」、「次に」の文言を識別し、「具体的には」の文言の有無および「まず」、「次に」の文言の有無を判定する。さらに、導出手段123は、第2の受信手段122によって受信された音声から「はい」の文言の音声の高さ、ならびに「理解しました」の文言の音声の高さおよび大きさを測定し、「はい」の文言の音声の高さが閾値(例えば、320Hz)以下であるか、ならびに、「理解しました」の文言の音声の高さが閾値(例えば、300Hz)以下であるかおよび大きさが閾値(例えば、60dB)以下であるかを判定する。さらに、導出手段123は、第2の受信手段122によって受信された音声から第1の人物の発話時間および第2の人物の発話時間を測定し、第1の人物の発話時間と第2の人物の発話時間との割合が3:7よりも大きいかを判定する。導出手段123は、アドバイスに関連付けられた基準のうちの少なくとも一部が満たされたときにそのアドバイスを導出するようにしてもよいし、アドバイスに関連付けられた基準の全部が満たされたときにそのアドバイスを導出するようにしてもよい。
例えば、「もう少し具体的に伝えてみましょう!」というアドバイスには、(1)「具体的には」の文言が存在しない、(2)「はい」の文言の音声の高さが閾値以下であり、かつ「理解しました」の文言の音声の高さが閾値以下である、(3)第1の人物の発話時間と第2の人物の発話時間との割合が3:7よりも大きい、という基準が関連付けられている。例えば、(1)~(3)のうちの少なくとも1つが満たされたときに導出手段123は、「もう少し具体的に伝えてみましょう!」というアドバイスを導出するようにしてもよいし、(1)~(3)のすべてが満たされたときに導出手段123は、「もう少し具体的に伝えてみましょう!」というアドバイスを導出するようにしてもよい。
例えば、「相手が納得していないかもしれません!」というアドバイスには、(1)「まず」および「次に」の文言が存在しない、(2)「理解しました」の文言の音声の高さが閾値以下であり、かつ「理解しました」の文言の音声の大きさが閾値以下である、(3)第1の人物の発話時間と第2の人物の発話時間との割合が3:7よりも大きい、という基準が関連付けられているため、例えば、(1)~(3)のうちの少なくとも1つが満たされたときに導出手段123は、「相手が納得していないかもしれません!」というアドバイスを導出するようにしてもよいし、(1)~(3)のすべてが満たされたときに導出手段123は、「相手が納得していないかもしれません!」というアドバイスを導出するようにしてもよい。
複数のアドバイスに関連付けられた基準が満たされたときは、導出手段123は、その複数のアドバイスのすべてを導出するようにしてもよいし、その複数のアドバイスのうちの一部を導出するようにしてもよい。
このように、導出手段123は、音声および/または映像が、対応に関連付けられた基準を満たすか否かを判定し、基準が満たされた場合に、対応するアドバイスを導出することができる。
提供手段124は、導出手段123によって導出されたアドバイスを、二者間のコミュニケーション中に提供するように構成されている。提供手段124は、第1の人物に対してアドバイスを提供するようにしてもよいし、第2の人物に対してアドバイスを提供するようにしてもよいし、第1の人物と第2の人物との両方に提供するようにしてもよい。例えば、導出手段123によって導出されたアドバイスが第1の人物に向けたものである場合、提供手段124は、アドバイスを第1の人物に提供することができる。例えば、導出手段123によって導出されたアドバイスが第2の人物に向けたものである場合、提供手段124は、アドバイスを第2の人物に提供することができる。提供手段124は、インターフェース部110を介して、アドバイスを提供することができる。ここで、どのようにしてアドバイスを提供するかは問わない。例えば、第1の人物が使用する端末装置300にインターフェース部110を介してアドバイスを送信し、端末装置300の表示部330にアドバイスを表示することができる。アドバイスは、例えば、図1Cに示されるように、画面30の映像上に表示される。例えば、第2の人物が使用する端末装置300にインターフェース部110を介してアドバイスを送信し、端末装置300の表示部330にアドバイスを表示することができる。アドバイスは、例えば、図2に示されるように、画面40の映像上に表示される。
提供手段124が第1の人物と第2の人物との両方にアドバイスを提供する場合には、提供されるアドバイスは、対となるアドバイスであることが好ましい。
例えば、第1の人物は、提供されたアドバイスから、第2の人物に期待する対応をしてもらうにはどのようにすべきか、第2の人物に期待する対応をしてもらうにはどのようなことに留意すべきか等を知ることができ、第2の人物に期待する対応をしてもらうための行動または態度を取ることができる。これにより、二者間のコミュニケーションの質が向上し得る。
例えば、第2の人物は、提供されたアドバイスから、第1の人物が期待する対応に応えるまたは第1の人物に満足してもらうためにはどのようにすべきか、第1の人物が期待する対応に応えるまたは第1の人物に満足してもらうためにはどのようなことに留意すべきか等を知ることができ、第1の人物が期待する対応に応えるまたは第1の人物に満足してもらうための行動または態度を取ることができる。これにより、二者間のコミュニケーションの質が向上し得る。
また、これらのアドバイスは、コミュニケーション中に得られた音声および/または映像、すなわち、直近の音声および/または映像に基づいているため、アドバイスとしての精度が高く、二者間のコミュニケーションの質を効果的に高めることができる。
図6Bは、プロセッサ部120の代替実施形態であるプロセッサ部120’の構成の一例を示す。プロセッサ部120’は、取得手段125および変更手段126を備える点を除いて、プロセッサ部120と同様の構成を有する。プロセッサ部120’は、アドバイスを導出するための基準を変更することができ、プロセッサ部120’は、変更された基準に基づいて、アドバイスを導出することができる。図6Bでは、図6Aに示される構成要素と同一の構成要素には同一の参照番号を付し、ここでは詳細な説明を省略する。
プロセッサ部120’は、第1の受信手段121と、第2の受信手段122と、導出手段123と、提供手段124と、取得手段125と、変更手段126とを備える。
取得手段125は、すでに行われた二者間のコミュニケーションの結果を取得するように構成されている。取得手段125は、例えば、インターフェース部110を介して、コンピュータシステム100の外部から結果を取得するようにしてもよいし、コンピュータシステム100の内部(例えば、記憶手段)から結果を取得するようにしてもよい。すでに行われた二者間のコミュニケーションの結果は、例えば、そのコミュニケーションでコンピュータシステム100がアドバイスを提供したか否か、および/または、そのコミュニケーションに対する評価であり得る。
評価は、第1の人物による評価である。評価は、第1の人物が使用する端末装置300に入力部320(例えば、キーボードまたはタッチパネル)を介して入力されることができ、入力された情報は、端末装置300からインターフェース部110を介してコンピュータシステム100に入力され得る。例えば、第1の人物が、第2の人物との二者間のコミュニケーションの後に評価入力画面(図示せず)にそのコミュニケーションでの評価を入力すると、入力された評価が、インターフェース部110を介してコンピュータシステム100に入力され、取得手段125がインターフェース部110からその評価を受信する。
評価は、例えば、第2の人物とのコミュニケーションに満足したか否かの2段階評価であってもよいし、第2の人物とのコミュニケーションに満足した度合を示す多段階評価であってもよい。
評価は、第2の人物による評価であってもよい。評価は、第2の人物が使用する端末装置300に入力部320(例えば、キーボードまたはタッチパネル)を介して入力されることができ、入力された情報は、端末装置300からインターフェース部110を介してコンピュータシステム100に入力され得る。例えば、第2の人物が、第1の人物との二者間のコミュニケーションの後に評価入力画面(図示せず)にそのコミュニケーションでの評価を入力すると、入力された評価が、インターフェース部110を介してコンピュータシステム100に入力され、取得手段125がインターフェース部110からその評価を受信する。
変更手段126は、取得手段125によって取得された過去の二者間のコミュニケーションの結果に基づいて、導出手段123がアドバイスを導出するときに基づく基準を変更するように構成されている。過去の二者間のコミュニケーションの結果は、例えば、そのコミュニケーションでコンピュータシステム100がアドバイスを提供したか否か、および/または、そのコミュニケーションに対する評価であり得る。例えば、過去の二者間のコミュニケーションにおいて、コンピュータシステム100がアドバイスを提供したものの、そのコミュニケーションに対する評価が平均よりも悪かった場合、すなわち、コンピュータシステム100によるアドバイスが効果的ではなかったといえる場合、アドバイスの導出ロジックを変更するために、変更手段126は、基準を変更することができる。あるいは、例えば、過去の二者間のコミュニケーションにおいて、コンピュータシステム100がアドバイスを提供しなかった場合、アドバイスの導出ロジックを変更するために、変更手段126は、基準を変更することができる。これは、コンピュータシステム100がアドバイスを提供しないよりはアドバイスを提供した方が、コミュニケーションの質が向上するという考えに基づいている。
変更手段126は、例えば、コンピュータシステム100がアドバイスを提供したものの、そのコミュニケーションに対する評価が平均よりも悪かった場合、基準を強化するように変更することができる。これにより、コンピュータシステム100によってアドバイスが提供され難くなる。例えば、変更手段126は、少なくとも1つの基準を引き上げること、および/または、新たな基準を追加することによって、基準を強化することができる。新たな基準は、例えば、別の対応に関連付けられた基準であってもよいし、好ましくは、別のコミュニケーションであって、評価が高かったコミュニケーションにおいて用いられた基準であり得る。
変更手段126は、例えば、コンピュータシステム100がアドバイスを提供しなかった場合、基準を緩和するように変更することができる。これにより、コンピュータシステム100によってアドバイスが提供されやすくなる。例えば、変更手段126は、少なくとも1つの基準を引き下げること、および/または、少なくとも1つの基準を取り除くことによって、基準を緩和することができる。例えば、変更手段126は、過去の二者間のコミュニケーションにおいて利用された基準と、そのコミュニケーションにおいて取得された音声および/または映像とを比較し、相違する部分を特定する。そして、変更手段126は、相違する部分について基準を変更することができる。例えば、変更手段126は、相違する部分を基準から取り除くことができる。あるいは、例えば、変更手段126は、相違する部分を緩和することができる。
これにより、導出手段123は、変更された基準を用いて、アドバイスを導出することができるようになる。
このように、過去のコミュニケーションの評価に基づいて基準を変更することにより、アドバイスを導出するロジックが洗練され、導出手段123によって導出されるアドバイスの質が向上し得る。これにより、二者間のコミュニケーションの質を高めることができる。
なお、上述したコンピュータシステム100の各構成要素は、単一のハードウェア部品で構成されていてもよいし、複数のハードウェア部品で構成されていてもよい。複数のハードウェア部品で構成される場合は、各ハードウェア部品が接続される態様は問わない。各ハードウェア部品は、無線で接続されてもよいし、有線で接続されてもよい。本発明のコンピュータシステム100は、特定のハードウェア構成には限定されない。プロセッサ部120をデジタル回路ではなくアナログ回路によって構成することも本発明の範囲内である。本発明のコンピュータシステム100の構成は、その機能を実現できる限りにおいて上述したものに限定されない。
4.二者間のコミュニケーションを支援するためのコンピュータシステムによる処理
図7Aは、二者間のコミュニケーションを支援するためのコンピュータシステム100による処理700の一例を示すフローチャートである。処理700は、コンピュータシステム100のプロセッサ部120において実行される。
ステップS701では、プロセッサ部120の第1の受信手段121が、第1の人物が二者間のコミュニケーションにおいて第2の人物に期待する対応を示す情報を受信する。第1の受信手段121は、例えば、インターフェース部110を介して、コンピュータシステム100の外部から情報を受信することができる。
ステップS702では、プロセッサ部120の第2の受信手段122が、二者間のコミュニケーション中の音声および/または映像を受信する。第2の受信手段122は、例えば、インターフェース部110を介して、コンピュータシステム100の外部から、二者間のコミュニケーション中の音声および/または映像を受信することができる。
ステップS703では、プロセッサ部120の導出手段123が、ステップS701で受信された情報と、ステップS702で受信された音声および/または映像とに基づいて、二者間のコミュニケーションにおけるアドバイスを導出する。導出手段123は、例えば、データベース部200に格納されているアドバイスのうち、受信された情報が示す期待する対応と、音声および/または映像との両方に関連付けられたアドバイスを導出することができる。より具体的には、導出手段123は、受信された情報が示す期待する対応に関連付けられた基準を、音声および/または映像が満たすときに、その対応および基準と関連付けられたアドバイスを導出することができる。例えば、音声および/または映像が基準を満たさないとき、導出手段123は、アドバイスを導出しないようにすることができる。
導出手段123は、例えば、図7Bを参照して後述する処理により、アドバイスを導出することができる。
ステップS704では、プロセッサ部120の提供手段124が、ステップS703で導出されたアドバイスを二者間のコミュニケーション中に提供する。提供手段124は、第1の人物に対してアドバイスを提供するようにしてもよいし、第2の人物に対してアドバイスを提供するようにしてもよいし、第1の人物と第2の人物との両方に提供するようにしてもよい。例えば、導出手段123によって導出されたアドバイスが第1の人物に向けたものである場合、提供手段124は、アドバイスを第1の人物に提供することができる。例えば、導出手段123によって導出されたアドバイスが第2の人物に向けたものである場合、提供手段124は、アドバイスを第2の人物に提供することができる。
提供手段124は、インターフェース部110を介して、アドバイスを提供することができる。例えば、第1の人物が使用する端末装置300にインターフェース部110を介してアドバイスを送信し、端末装置300の表示部330にアドバイスを表示することができる。アドバイスは、例えば、図1Cに示されるように、画面30の映像上に表示される。例えば、第2の人物が使用する端末装置300にインターフェース部110を介してアドバイスを送信し、端末装置300の表示部330にアドバイスを表示することができる。アドバイスは、例えば、図2に示されるように、画面40の映像上に表示される。
処理700により、第1の人物および/または第2の人物は、二者間のコミュニケーション中にアドバイスを受けることができ、二者間のコミュニケーションにおいて相手と最適なかかわりをすることができるように努めることができる。これにより、コミュニケーションの質が向上し得る。
図7Bは、ステップS703における導出手段123による処理の一例を示すフローチャートである。
ステップS7031では、導出手段123は、ステップS701で受信された情報が示す、第1の人物が第2の人物に期待する対応に関連付けられた基準を参照する。基準は、例えば、対応と、アドバイスとに関連付けられてデータベース部200に格納されている。例えば、ステップS701で受信された情報が複数の対応を示す場合には、導出手段123は、複数の対応のそれぞれに関連付けられた基準を参照することができる。
ステップS7032では、導出手段123は、ステップS702で受信された音声および/または映像が、ステップS7031で参照された基準を満たすか否かを判定する。基準を満たすと判定された場合、ステップS7033に進み、基準を満たさないと判定された場合、ステップS7034に進む。
導出手段123は、例えば、第2の受信手段122によって受信された音声から、第1の人物の音声の特徴および/または第2の人物の音声の特徴を抽出し、抽出された音声の特徴を基準と比較することができる。加えて、または、代替として、導出手段123は、例えば、第2の受信手段122によって受信された映像から、第1の人物の動きの特徴および/または第2の人物の動きの特徴を抽出し、抽出された動きの特徴を基準と比較することができる。
例えば、図4Aに示されるように、1つの対応に対して複数の基準が関連付けられているとき、導出手段123は、複数の基準のそれぞれについて、ステップS702で受信された音声および/または映像が基準を満たすか否かを判定する。例えば、「具体的なアドバイスが欲しい」という対応について、(1)「具体的には」の文言が存在しない、(2)「はい」の文言の音声の高さが閾値以下であり、かつ「理解しました」の文言の音声の高さが閾値以下である、(3)第1の人物の発話時間と第2の人物の発話時間との割合が3:7よりも大きい、という第1の基準と、(1)「まず」および「次に」の文言が存在しない、(2)「理解しました」の文言の音声の高さが閾値以下であり、かつ「理解しました」の文言の音声の大きさが閾値以下である、(3)第1の人物の発話時間と第2の人物の発話時間との割合が3:7よりも大きい、という第2の基準とが関連付けられている場合、第1の基準と第2の基準とのそれぞれについて、基準を満たすか否かが判定される。
例えば、上記の第1の基準および第2の基準のように、基準が複数に細分されている場合、細分された部分のうちの少なくとも一部を満たす場合に、基準を満たすとしてステップS7033に進むようにしてもよいし、細分された部分の全部を満たす場合に、基準を満たすとしてステップS7033に進むようにしてもよい。すなわち、上記の第1の基準を例にすると、(1)~(3)のうちの少なくとも一部を満たす場合に、基準を満たすとしてステップS7033に進むようにしてもよいし、1)~(3)の全部を満たす場合に、基準を満たすとしてステップS7033に進むようにしてもよい。
ステップS7033では、導出手段123は、満たすと判定された基準に関連付けられたアドバイスを導出する。具体的には、導出手段123は、データベース部200に基準と関連付けられて格納されているアドバイスを導出する。複数の基準を満たすと判定された場合には、複数の基準のそれぞれについて、関連付けられたアドバイスを導出することになる。
ステップS7034では、導出手段123は、アドバイスを導出しないことを決定する。処理は、ステップS704に進むことなく、ここで終了することができる。
ステップS7033で導出されたアドバイスがステップS704で提供されることになる。
図8Aは、二者間のコミュニケーションを支援するためのコンピュータシステム100による別の処理800の一例を示すフローチャートである。処理800は、コンピュータシステム100のプロセッサ部120’において実行される。処理800は、導出手段123がアドバイスを導出するための基準を変更するための処理である。
ステップS801では、プロセッサ部120’の取得手段125が、すでに行われた二者間のコミュニケーションの結果を取得する。取得手段125は、例えば、インターフェース部110を介して、コンピュータシステム100の外部から結果を受信するようにしてもよいし、コンピュータシステム100の内部(例えば、記憶手段)から結果を取得するようにしてもよい。すでに行われた二者間のコミュニケーションの結果は、例えば、そのコミュニケーションでコンピュータシステム100がアドバイスを提供したか否か、および/または、そのコミュニケーションに対する評価であり得る。評価は、第1の人物による評価であってもよいし、第2の人物による評価であってもよい。好ましくは、評価は、第1の人物による評価であり得る。
ステップS802では、プロセッサ部120’の変更手段126が、ステップS801で取得された結果に基づいて、アドバイスを導出するための少なくとも1つの基準を変更する。
変更手段126は、例えば、図8Bを参照して後述する処理により、アドバイスを導出するための基準を変更することができる。
処理800により、導出手段123は、変更された基準を用いて、アドバイスを導出することができるようになる。このように、過去のコミュニケーションの評価に基づいて基準を変更することにより、アドバイスを導出するロジックが洗練され、導出手段12によって導出されるアドバイスの質が向上し得る。これにより、二者間のコミュニケーションの質を高めることができる。
図8Bは、ステップS802における変更手段126による処理の一例を示すフローチャートである。
ステップS8021では、変更手段126が、ステップS801で取得された結果に基づいて、過去の二者間のコミュニケーションにおいて、コンピュータシステム100がアドバイスを提供したか否かを判定する。過去の二者間のコミュニケーションにおいてコンピュータシステム100がアドバイスを提供したと判定されると、ステップS8022に進み、コンピュータシステム100がアドバイスを提供しなかったと判定されると、ステップS8023に進む。
ステップS8022では、変更手段126が、ステップS801で取得された結果に基づいて、過去の二者間コミュニケーションに対する評価が、高いか(例えば、高低の2値の評価のうちの高であるか、平均値よりも高いか等)否かを判定する。評価が低いと判定されると、ステップS8024に進み、評価が高いと判定されると、ステップS8025に進む。
ステップS8023では、変更手段126が、基準を緩和するように、基準を変更する。これにより、コンピュータシステム100によってアドバイスが提供されやすくなる。例えば、変更手段126は、少なくとも1つの基準を引き下げること、および/または、少なくとも1つの基準を取り除くことによって、基準を緩和することができる。例えば、変更手段126は、当該過去のコミュニケーションにおいて取得された音声および/または映像と、当該過去のコミュニケーションにおいて用いられた基準とを比較し、相違する部分を特定する。そして、変更手段126は、相違する部分について、基準を変更する。例えば、変更手段126は、相違する部分を基準から取り除くことができる。あるいは、例えば、変更手段126は、相違する部分を緩和または強化することができる。
ステップS8024では、変更手段126が、基準を強化するように変更する。これにより、コンピュータシステム100によってアドバイスが提供され難くなる。例えば、変更手段126は、少なくとも1つの基準を引き上げること、および/または、新たな基準を追加することによって、基準を強化することができる。例えば、変更手段126は、当該過去のコミュニケーションにおいて取得された音声および/または映像と、当該過去のコミュニケーションにおいて用いられた基準とを比較し、基準との差異が相対的に小さい部分(すなわち、当該過去のコミュニケーションにおいて取得された音声および/または映像が基準を辛うじて満たす部分)を特定する。そして、変更手段126は、基準との差異が相対的に小さい部分について、基準を変更する。例えば、変更手段126は、当該過去のコミュニケーションにおいて取得された音声および/または映像が基準を満たさなくなるように、基準を引き上げることができる。
ステップS8025では、変更手段126は、基準を変更しないことを決定する。過去のコミュニケーションにおいて用いられたロジックは十分であると判断することができるからである。これにより、処理を終了することができる。
このようにして、変更手段126は、アドバイスを導出するための基準を変更することができる。
具体例を用いて、処理800を説明する。
ある時点の1on1ミーティングにおいて、上司Xさんへ提示する「相手と一緒に考えましょう!」というアドバイスの導出ロジックは下記であったとする。
以下の基準を満たす場合「開始30分」で「相手と一緒に考えましょう!」というアドバイスを出す。
●会話開始30分以内に、上司Xさんから発された言葉に下記が含まれていること。
「何に困ってるの?」
「それは大変ですねー」
●会話開始30分までの間に、部下Aさんの声の高さ・大きさ・スピード・回数が以下を満たすこと
「そうですね」:320Hz以上、64dB以上、0.21秒以下、2.1回以上
「なるほどー」:290Hz以上、61dB以上、0.35秒以下、3.2回以上
●開始30分までの部下Aさんの発話時間と、上司Xさんの発話時間との割合
部下Aさん45%、上司Xさん55%
これに対し「開始30分」では対話中に上記の基準を満たさなかったため、コンピュータシステム100から「相手と一緒に考えましょう!」というアドバイスは提供されなかったとする。
ステップS801では、取得手段125が、1on1ミーティングの結果を取得する。
ステップS802では、変更手段126が上記基準を変更する。
当該1on1ミーティングでアドバイスを提供していなかった(S8021でNo)ので、ステップS8023で、変更手段126は、基準を緩和するように変更する。
変更手段126は、例えば、当該1on1ミーティングで得られた音声と、当該基準とを比較する。当該1on1ミーティングで得られた音声と、当該基準とを比較した結果、下記のような相違する部分があった。
○会話開始30分以内に、上司Xさんから発された言葉に「それは大変ですねー」は含まれていなかった。
○会話開始30分までの間に、部下Aさんの「そうですね」の声が62dBであった。
変更手段126は、次回以降の1on1ミーティングに向け、下記のように基準を変更することができる。
●会話開始30分以内に、上司Xさんから発された言葉に下記が含まれていること。
「何に困ってるの?」
●会話開始30分までの間に、部下Aさんの声の高さ・大きさ・スピード・回数が以下を満たすこと
「そうですね」:320Hz以上、62dB以上、0.21秒以下、2.1回以上
「なるほどー」:290Hz以上、61dB以上、0.35秒以下、3.2回以上
●開始30分までの部下Aさんの発話時間と、上司Xさんの発話時間との割合
部下Aさん45%、上司Xさん55%
このように緩和することにより、コンピュータシステム100は、アドバイスを提供し易くなる。例えば、次回以降の1on1ミーティングにおいて、当該1on1ミーティングと同一のコミュニケーションがなされた場合には、基準を満たすことになり、アドバイスが提供されるようになる。
このようにして、アドバイスを導出するためのロジックが洗練され、次回以降の1on1ミーティングにおいて、より精度よくアドバイスを提供することができるようになる。
別の具体例を用いて、処理800を説明する。
ある時点の1on1ミーティングにおいて、上司Xさんへ提示する「相手と一緒に考えましょう!」というアドバイスの導出ロジックは下記であったとする。
以下の基準を満たす場合「開始30分」で「相手と一緒に考えましょう!」というアドバイスを出す。
●会話開始30分以内に、上司Xさんから発された言葉に下記が含まれていること。
「何に困ってるの?」
「それは大変ですねー」
●会話開始30分までの間に、部下Aさんの声の高さ・大きさ・スピード・回数が以下を満たすこと
「そうですね」:320Hz以上、64dB以上、0.21秒以下、2.1回以上
「なるほどー」:290Hz以上、61dB以上、0.35秒以下、3.2回以上
●開始30分までの部下Aさんの発話時間と、上司Xさんの発話時間との割合
部下Aさん45%、上司Xさん55%
これに対し「開始30分」では対話中に上記の基準を満たしたため、コンピュータシステム100から「相手と一緒に考えましょう!」というアドバイスが提供されたとする。
ステップS801では、取得手段125が、1on1ミーティングの結果を受信する。
部下Aさんが評価した1on1ミーティングの満足度は、6段階中の1点と、部下Aさんと上司Xさんとの過去の1on1ミーティングの満足度の平均を大きく下回っていた。
ステップS802では、変更手段126が上記基準を変更する。
当該1on1ミーティングでアドバイスを提供しており(S8021でYes)、評価は低い(S8022での)ので、ステップS8024で、変更手段126は、基準を強化するように変更する。
変更手段126は、例えば、当該1on1ミーティングで得られた音声と、当該基準とを比較する。当該1on1ミーティングで得られた音声と、当該基準とを比較した結果、下記のような、基準との差が最も小さい部分があった。
○会話開始30分までの間に、部下Aさんの「そうですね」の声が325Hzであった。
変更手段126は、次回以降の1on1ミーティングに向け、下記のように基準を変更することができる。
●会話開始30分以内に、上司Xさんから発された言葉に下記が含まれていること。
「何に困ってるの?」
「それは大変ですねー」
●会話開始30分までの間に、部下Aさんの声の高さ・大きさ・スピード・回数が以下を満たすこと
「そうですね」:330Hz以上、64dB以上、0.21秒以下、2.1回以上
「なるほどー」:290Hz以上、61dB以上、0.35秒以下、3.2回以上
●開始30分までの部下Aさんの発話時間と、上司Xさんの発話時間との割合
部下Aさん45%、上司Xさん55%
このように緩和することにより、コンピュータシステム100は、アドバイスを提供し難くなる。例えば、次回以降の1on1ミーティングにおいて、当該1on1ミーティングと同一のコミュニケーションがなされた場合には、基準を満たさないことになり、アドバイスが提供されないようになる。
このように、アドバイスを提供する基準の緩和および強化を繰り返すことで、最適な基準(すなわち、アドバイスが提供され、かつコミュニケーションに対する評価も高い状態を達成することができる基準)を導き出すことができる。
なお、上述した例では、特定の順序で各ステップが行われることを説明したが、各ステップが行われる順序は示されるものに限定されない。各ステップは、論理的に可能な任意の順序で行われることができる。
図7A、図7B、図8A、図8Bを参照して上述した例では、図7A、図7B、図8A、図8Bに示される各ステップの処理は、プロセッサ部120またはプロセッサ部120’とメモリ部130に格納されたプログラムとによって実現することが説明されたが、本発明はこれに限定されない。図7A、図7B、図8A、図8Bに示される各ステップの処理のうちの少なくとも1つは、制御回路などのハードウェア構成によって実現されてもよい。
上述した例では、コンピュータシステム100がサーバ装置として実装されることを例に説明してきたが、本発明は、これに限定されない。コンピュータシステム100は、任意の情報端末装置(例えば、端末装置300)によって実装されることもできる。
本発明は、上述した実施形態に限定されるものではない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。当業者は、本発明の具体的な好ましい実施形態の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。
本発明は、二者間のコミュニケーションを支援するためのコンピュータシステム、方法、プログラムを提供するものとして有用である。
100 コンピュータシステム
110 インターフェース部
120、120’ プロセッサ部
130 メモリ部

Claims (15)

  1. 二者間のコミュニケーションを支援するためのコンピュータシステムであって、前記二者のうちの第1の人物は、第1の端末装置を利用し、前記二者のうちの第2の人物は、第2の端末装置を利用し、前記コミュニケーションは、前記第1の端末装置および前記第2の端末装置を介して行われ、前記コンピュータシステムは、
    前記二者のうちの第1の人物が前記コミュニケーションにおいて前記二者のうちの第2の人物に期待する対応を示す情報を受信する第1の受信手段と、
    前記コミュニケーション中の音声および/または映像を受信する第2の受信手段と、
    前記情報と、前記音声および/または前記映像とに基づいて、前記コミュニケーションにおけるアドバイスを導出する導出手段であって、前記導出手段は、前記期待する対応に関連付けられた少なくとも1つの基準を前記音声および/または前記映像が満たすときに、前記少なくとも1つの基準に関連付けられた前記アドバイスを導出する、導出手段と、
    前記導出されたアドバイスを前記コミュニケーション中に提供する提供手段と
    を備えるコンピュータシステム。
  2. 前記コミュニケーションの結果に基づいて、前記少なくとも1つの基準を変更する変更手段をさらに備える、請求項に記載のコンピュータシステム。
  3. 前記変更手段は、
    (i)前記コミュニケーション中にアドバイスを提供しなかったときに、前記少なくとも1つの基準を緩和するように、前記少なくとも1つの基準を変更し、
    (ii)前記コミュニケーション中にアドバイスを提供したが前記コミュニケーションに対する評価が低かったときに、前記少なくとも1つの基準を強化するように、前記少なくとも1つの基準を変更する、
    請求項に記載のコンピュータシステム。
  4. 前記第2の受信手段は、少なくとも前記音声を受信し、
    前記導出手段は、前記音声から前記第1の人物および/または前記第2の人物の音声の特徴を抽出し、
    少なくとも、前記情報と、前記音声の特徴とに基づいて、前記アドバイスを導出する、
    請求項1~のいずれか一項に記載のコンピュータシステム。
  5. 前記第1の人物の前記音声の特徴は、前記第1の人物が所定の文言を発話したときの音声の高さ、前記第1の人物が所定の文言を発話したときの音声の速度、前記第1の人物が所定の文言を発話したときの音声の大きさ、前記第1の人物が所定の文言を発話した回数のうちの少なくとも1つを含む、請求項に記載のコンピュータシステム。
  6. 前記第2の人物の前記音声の特徴は、前記第2の人物の発話に含まれている文言を含む、請求項または請求項に記載のコンピュータシステム。
  7. 前記第1の人物および前記第2の人物の音声の特徴は、前記第1の人物の発話時間と前記第2の人物の発話時間との比を含む、請求項のいずれか一項に記載のコンピュータシステム。
  8. 前記第2の受信手段は、少なくとも前記映像を受信し、
    前記導出手段は、
    前記映像から前記第1の人物および/または前記第2の人物の動きの特徴を抽出し、
    少なくとも、前記情報と、前記動きの特徴とに基づいて、前記アドバイスを導出する、請求項1~のいずれか一項に記載のコンピュータシステム。
  9. 前記動きは、顔の動き、腕の動き、頭部の動きのうちの少なくとも1つを含む、請求項に記載のコンピュータシステム。
  10. 前記動きの特徴は、うなずきの大きさ、うなずきの速度、うなずきの頻度、眉間のしわ、表情のうちの少なくとも1つを含む、請求項に記載のコンピュータシステム。
  11. 前記提供手段は、前記コミュニケーション中に前記第1の端末装置および/または前記第2の端末装置に表示される映像上に前記アドバイスを表示する、請求項1~10のいずれか一項に記載のコンピュータシステム。
  12. 前記アドバイスは、前記第2の端末装置を介して前記第2の人物に提供され、
    前記アドバイスは、前記コミュニケーションにおいて前記第2の人物が留意すべきことを含む、請求項1~11のいずれか一項に記載のコンピュータシステム。
  13. 前記第1の人物は、組織におけるメンバーであり、前記第2の人物は、前記メンバーの上司である、請求項1~12のいずれか一項に記載のコンピュータシステム。
  14. 二者間のコミュニケーションを支援するための方法であって、前記二者のうちの第1の人物は、第1の端末装置を利用し、前記二者のうちの第2の人物は、第2の端末装置を利用し、前記コミュニケーションは、前記第1の端末装置および前記第2の端末装置を介して行われ、前記方法は、プロセッサ部を備えるコンピュータシステムにおいて実行され、前記方法は、
    前記プロセッサ部が、前記二者のうちの第1の人物が前記コミュニケーションにおいて前記二者のうちの第2の人物に期待する対応を示す情報を受信することと、
    前記プロセッサ部が、前記コミュニケーション中の音声および/または映像を受信することと、
    前記プロセッサ部が、前記情報と、前記音声および/または前記映像とに基づいて、前記コミュニケーションにおけるアドバイスを導出することであって、前記導出することは、前記期待する対応に関連付けられた少なくとも1つの基準を前記音声および/または前記映像が満たすときに、前記少なくとも1つの基準に関連付けられた前記アドバイスを導出することを含む、ことと、
    前記プロセッサ部が、前記導出されたアドバイスを前記コミュニケーション中に提供することと
    を含む方法。
  15. 二者間のコミュニケーションを支援するためのプログラムであって、前記二者のうちの第1の人物は、第1の端末装置を利用し、前記二者のうちの第2の人物は、第2の端末装置を利用し、前記コミュニケーションは、前記第1の端末装置および前記第2の端末装置を介して行われ、前記プログラムは、プロセッサ部を備えるコンピュータシステムにおいて実行され、前記プログラムは、
    前記二者のうちの第1の人物が前記コミュニケーションにおいて前記二者のうちの第2の人物に期待する対応を示す情報を受信することと、
    前記コミュニケーション中の音声および/または映像を受信することと、
    前記情報と、前記音声および/または前記映像とに基づいて、前記コミュニケーションにおけるアドバイスを導出することであって、前記導出することは、前記期待する対応に関連付けられた少なくとも1つの基準を前記音声および/または前記映像が満たすときに、前記少なくとも1つの基準に関連付けられた前記アドバイスを導出することを含む、ことと、
    前記導出されたアドバイスを前記コミュニケーション中に提供することと
    を含む処理を前記プロセッサ部に行わせる、プログラム。
JP2021105704A 2021-06-25 2021-06-25 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム Active JP7057011B1 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
JP2021105704A JP7057011B1 (ja) 2021-06-25 2021-06-25 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム
JP2021210878A JP7057029B1 (ja) 2021-06-25 2021-12-24 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム
JP2022060135A JP2023004866A (ja) 2021-06-25 2022-03-31 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム
CA3224031A CA3224031A1 (en) 2021-06-25 2022-06-24 Computer system, method, and program for improving relations with individual parties in two-party communication
CN202280045255.2A CN117561709A (zh) 2021-06-25 2022-06-24 在两者之间的沟通中用于改善向各个人的联系方式的计算机系统、方法及程序
KR1020247002928A KR20240037976A (ko) 2021-06-25 2022-06-24 양자 간 커뮤니케이션에서 개개인 간의 관계를 개선하기 위한 컴퓨터 시스템, 방법, 및 프로그램
PCT/JP2022/025378 WO2022270632A1 (ja) 2021-06-25 2022-06-24 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム
EP22828548.2A EP4362444A1 (en) 2021-06-25 2022-06-24 Computer system, method, and program for improving relations with individual parties in two-party communication
US18/572,683 US20240297954A1 (en) 2021-06-25 2022-06-24 Computer system, method, and program for improving relations with individual parties in two-party communication
BR112023027406A BR112023027406A2 (pt) 2021-06-25 2022-06-24 Sistema de computador, método e programa para aperfeiçoar as relações com interlocutores individuais em comunicação entre dois interlocutores

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021105704A JP7057011B1 (ja) 2021-06-25 2021-06-25 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2021210878A Division JP7057029B1 (ja) 2021-06-25 2021-12-24 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム
JP2022060135A Division JP2023004866A (ja) 2021-06-25 2022-03-31 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP7057011B1 true JP7057011B1 (ja) 2022-04-19
JP2023004165A JP2023004165A (ja) 2023-01-17

Family

ID=81291714

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021105704A Active JP7057011B1 (ja) 2021-06-25 2021-06-25 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム
JP2022060135A Pending JP2023004866A (ja) 2021-06-25 2022-03-31 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022060135A Pending JP2023004866A (ja) 2021-06-25 2022-03-31 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム

Country Status (8)

Country Link
US (1) US20240297954A1 (ja)
EP (1) EP4362444A1 (ja)
JP (2) JP7057011B1 (ja)
KR (1) KR20240037976A (ja)
CN (1) CN117561709A (ja)
BR (1) BR112023027406A2 (ja)
CA (1) CA3224031A1 (ja)
WO (1) WO2022270632A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016178329A1 (ja) 2015-05-07 2016-11-10 ソニー株式会社 情報処理システム、制御方法、および記憶媒体
JP6813219B1 (ja) 2020-04-03 2021-01-13 株式会社Kakeai 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006190162A (ja) 2005-01-07 2006-07-20 Communication Design:Kk 面談支援装置、面談支援方法及び面談支援システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016178329A1 (ja) 2015-05-07 2016-11-10 ソニー株式会社 情報処理システム、制御方法、および記憶媒体
JP6813219B1 (ja) 2020-04-03 2021-01-13 株式会社Kakeai 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム

Also Published As

Publication number Publication date
WO2022270632A1 (ja) 2022-12-29
CA3224031A1 (en) 2022-12-29
JP2023004866A (ja) 2023-01-17
US20240297954A1 (en) 2024-09-05
BR112023027406A2 (pt) 2024-03-12
EP4362444A1 (en) 2024-05-01
CN117561709A (zh) 2024-02-13
KR20240037976A (ko) 2024-03-22
JP2023004165A (ja) 2023-01-17

Similar Documents

Publication Publication Date Title
Betts Lost in translation: Importance of effective communication in online education
Themeli et al. Tele-proximity: Tele-community of inquiry model. Facial cues for social, cognitive, and teacher presence in distance education
JP6813219B1 (ja) 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム
Amerstorfer The dynamism of strategic learning: Complexity theory in strategic L2 development
Bradburn Surveys as social interactions
Seita et al. Deaf and hard-of-hearing users' preferences for hearing speakers' behavior during technology-mediated in-person and remote conversations
Kapur The types of communication
Niebuhr et al. Virtual reality as a digital learning tool in entrepreneurship: How virtual environments help entrepreneurs give more charismatic investor pitches
Daniels et al. The impact of avatar teachers on student learning and engagement in a virtual learning environment for online STEM courses
Chandler Opening new worlds for those with autism: technology is creating great new possibilities for those on every part of the spectrum
Esteves et al. The teachers have something to say: lessons learned from US PK-12 teachers during the COVID-impacted 2020-21 school year
Childes et al. The use of technology for phone and face-to-face communication after total laryngectomy
Anderson Accessibility challenges of video conferencing technology
JP7057029B1 (ja) 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム
JP7057011B1 (ja) 二者間のコミュニケーションにおいて個々人への関わり方を改善するためのコンピュータシステム、方法、およびプログラム
Brock et al. Exploring the discursive positioning of members of a literacy professional learning community
JP7152453B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び情報処理システム
Vuković et al. Importance of presentation skills in contemporary business
Palinko et al. Improving teacher-student communication during lectures using a robot and an online messaging/voting system
Chan et al. Making telecommunications services accessible to people with severe communication disabilities
Neubauer Chinese language instruction with novice learners: Target language topic development, engagement, and comprehension in online and hybrid classrooms
GIERDOWSKI et al. Designing and Conducting Inclusive Research: How a Global Technology Company and an Online Research Platform Partnered to Explore the Technology Experiences of Users Who Are Deaf and Hard of Hearing
Davidson Youth counsellors' experiences of telephone counselling: a qualitative exploration
Dittrich et al. Learning about Sustainability in a Global Context of Digital Transformation in Teacher Education: Exemplary Vignettes of Experience in Webinars
Ginotite Achieving a successful workshop: crafting a training for presentation skills

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210625

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220331

R150 Certificate of patent or registration of utility model

Ref document number: 7057011

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150