JP2021099670A - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP2021099670A
JP2021099670A JP2019231255A JP2019231255A JP2021099670A JP 2021099670 A JP2021099670 A JP 2021099670A JP 2019231255 A JP2019231255 A JP 2019231255A JP 2019231255 A JP2019231255 A JP 2019231255A JP 2021099670 A JP2021099670 A JP 2021099670A
Authority
JP
Japan
Prior art keywords
communication
information
state
dialogue
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019231255A
Other languages
English (en)
Inventor
良太 水谷
Ryota Mizutani
良太 水谷
彰 一星
Akira Ichiboshi
彰 一星
一成 小松崎
Kazunari Komatsuzaki
一成 小松崎
内橋 真吾
Shingo Uchihashi
真吾 内橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Business Innovation Corp filed Critical Fujifilm Business Innovation Corp
Priority to JP2019231255A priority Critical patent/JP2021099670A/ja
Priority to US16/888,977 priority patent/US20210193170A1/en
Publication of JP2021099670A publication Critical patent/JP2021099670A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/002Monitoring the patient using a local or closed circuit, e.g. in a room or building
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones

Abstract

【課題】業務で行われる意思の疎通の改善を支援することが可能な情報処理装置及びプログラムを提供する。【解決手段】情報処理装置は、利用者の間で意思の疎通が行われている場面の種類を示す情報、及び利用者から取得した生体に関する生体情報に応じて特定される意思の疎通の状態を示す情報から、意思の疎通の質の善し悪しを評価した評価結果を出力するよう制御するプロセッサを備える。【選択図】図2

Description

本発明は、情報処理装置及びプログラムに関する。
従来、コミュニケーションの創造性をコントロールする情報処理装置が提案されている(例えば、特許文献1参照。)。
特許文献1に記載された情報処理装置は、集団の場に属する参加者の生体情報を計測する計測装置により計測された生体情報を用いて前記参加者の自律神経の活性度を算出する算出部と、前記算出された活性度に対応する設計態様で前記集団の場におけるコミュニケーションの進行計画を設計する設計部と、前記設計された進行計画を提示する提示部とを有する。
特開2019−101928号公報
本発明の課題は、業務で行われる意思の疎通の改善を支援することが可能な情報処理装置及びプログラムを提供することにある。
[1]利用者の間で意思の疎通が行われている場面の種類を示す情報、及び前記利用者から取得した生体に関する生体情報に応じて特定される前記意思の疎通の状態を示す情報から、前記意思の疎通の質の善し悪しを評価した評価結果を出力するよう制御するプロセッサを備える、
情報処理装置。
[2]前記プロセッサは、前記利用者により構成される集団の特性及び前記意思の疎通で行われる対話の特性に応じて、前記場面の種類を特定するよう制御する、
前記[1]に記載の情報処理装置。
[3]前記プロセッサは、前記集団の特性として、前記利用者の人数又は前記集団における前記対話の継続性に応じて前記場面の種類を特定するよう制御する、
前記[2]に記載の情報処理装置。
[4]前記プロセッサは、前記利用者の発話の量を示す情報と、前記生体情報から得られる前記利用者の前記意思の疎通に対する内的な状態を示す内的情報と、に応じて、前記意思の疎通の質を推定するよう制御する、
前記[1]乃至[3]の何れか1つに記載の情報処理装置。
[5]前記プロセッサは、前記内的情報として、心理的に快の状態の傾向にあるか不快の状態の傾向にあるかを示す指標を用いて前記意思の疎通の質を推定するよう制御する、
前記[4]に記載の情報処理装置。
[6]利用者の間で意思の疎通が行われている場面の種類を示す情報、及び前記利用者の生体に関する生体情報に応じて特定される前記意思の疎通の状態を示す情報から、前記意思の疎通を改善するための対応策を示す情報を出力するプロセッサを備える、
情報処理装置。
[7]プロセッサに、
利用者の間で意思の疎通が行われている場面の種類を示す情報、及び前記利用者から取得した生体に関する生体情報に応じて特定される前記意思の疎通の状態を示す情報から、前記意思の疎通の質の善し悪しを評価した評価結果を出力させるためのプログラム。
請求項1、6、7に係る発明によれば、業務で行われる意思の疎通の改善を支援することができる。
請求項2に係る発明によれば、集団の特性や対話の特性に応じて、意思の疎通の改善を支援することができる。
請求項3に係る発明によれば、集団の人数や対話の継続性に応じて、意思の疎通の改善を支援することができる。
請求項4に係る発明によれば、意思の疎通の質に応じて改善を支援することができる。
請求項5に係る発明によれば、意思の疎通の参加者の心理に関わる情報に応じて意思の疎通の改善を支援することができる。
図1は、本発明の実施の形態に係る情報処理システムの構成の一例を模式的に示す図である。 図2は、図1に示す情報処理装置の制御系の一例を示すブロック図である。 図3は、コミュニケーションタイプ情報の一例を示す図である。 図4は、コミュニケーションタイプ情報の他の一例を示す図である。 図5は、コミュニケーション状態情報の一例を示す図である。 図6は、フィードバック情報テーブルの一例を示す図である。 図7は、図1に示す情報処理装置の動作の一例を示すフローチャートである。 図8は、図1に示す行動対話情報取得装置の構成の一例を示す図である。 図9は、行動対話情報取得装置による対話の検知の一例を示す図であり、(a)は、会議室における利用者の活動の一例を示す図であり、(b)及び(c)は、行動対話取得装置から得られる信号の一例を示すタイミングチャートである。 図10は、図1に示す生体情報取得装置の構成の一例を示す図である。 図11は、変形例に係る情報処理装置の制御系の一例を示すブロック図である。 図12は、チームにおけるコミュニケーションの質の変動の一例を概略的に示す図である。 図13は、場の状態の一例を示す図であり、(a)は、良い状態の一例を示す図、(b)は、中程度の状態の一例を示す図、(c)は、悪い状態の一例を示す図である。 図14は、行動対話情報取得装置及び生体情報取得装置の具体例をテーブルでまとめて示す図である。
以下、本発明の実施の形態について図面を参照して説明する。なお、各図中、実質的に同一の機能を有する構成要素については、同一の符号を付してその重複した説明を省略する。
[実施の形態]
(情報処理システム1)
図1は、本発明の実施の形態に係る情報処理システムの構成の一例を示す図である。この情報処理システム1は、例えば、居室(レンタルオフィス、シェアオフィスを含む。以下、「オフィス」ともいう。)、工場等の職場や、学校、教室等の学びの場等の利用者Pが活動する場所あるいは領域(以下、「活動エリア」ともいう。)に適用される。図1は、情報処理システム1をオフィスに適用した場合を示す。
図1に示すように、この情報処理システム1は、情報処理装置2と、利用者Pa,Pbの行動に関するデータ(以下、「行動データ」ともいう。)、及び対話に関する情報(以下、「対話データ」ともいう。また、行動データ及び対話データを総称して「行動対話データ」ともいう。行動対話データの詳細については、後述する。)を取得する行動対話情報取得装置3と、電波の強度を用いて行動対話情報取得装置3との距離を測定する機能を有する基地局3aと、利用者Pa,Pbの生体に関する情報(以下、「生体データ」ともいう。)を取得する生体情報取得装置5と、これら行動対話情報取得装置3、基地局3a及び生体情報取得装置5と情報処理装置2とを通信可能に接続するネットワーク6と、を有して構成されている。
行動対話情報取得装置3及び生体情報取得装置5は、利用者Pa,Pbが身に着けていてもよく、利用者Pa,Pbから離れていてもよい。基地局3aは、予め定められた特定の位置に固定的に設けられている。以下、利用者Pa,Pbのうち、話し手となる方を「発話者Pa」ともいい、もう一方を「聞き手Pb」ともいい、発話者Paと聞き手Pbとを区別して特定しない場合は両者を総称して「利用者P」、「参加者P」又は「メンバP」ともいう。以下、各構成の詳細をそれぞれ説明する。
(情報処理装置2)
図2は、情報処理装置2の制御系の一例を示すブロック図である。この情報処理装置2は、例えば、パーソナルコンピュータ等からなるサーバ装置である。この情報処理装置2は、各部を制御する制御部20と、各種のデータを記憶する記憶部21と、外部の装置(すなわち、上述した行動対話情報取得装置3、基地局3a、生体情報取得装置5及び端末装置等)との間でネットワーク6を介して通信するネットワーク通信部28と、を備える。
〔制御部20〕
制御部20は、CPU(Central Processing Unit)等のプロセッサ20aや、インターフェース等から構成されている。プロセッサ20aは、記憶部21に記憶されたプログラム210に従って動作することにより、受付手段200、検知手段201、特定手段202、推定手段203、集計手段204、判定手段205、決定手段206、通知手段207等として機能する。各手段200〜207の詳細については、後述する。
〔記憶部21〕
記憶部21は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク等から構成され、プログラム210や、コミュニケーションタイプ情報211(図3、図4参照)、コミュニケーション状態情報212(図5参照)、フィードバック情報テーブル213(図6参照)、属性情報214、スケジュールデータ215等の各種データを記憶する。
このうち、属性情報214は、利用者Pの氏名、所属、肩書、身分、地位、経験年数等の属性を示す情報である。スケジュールデータ215は、利用者Pが一定の期間にどのような予定を有しているかを示す情報である。コミュニケーションタイプ情報211、コミュニケーション状態情報212及びフィードバック情報テーブル213の詳細については、後述する。
〔ネットワーク通信部28〕
ネットワーク通信部28は、NIC(Network Interface Card)等によって実現され、ネットワーク6を介して外部の各装置との間で情報や信号を送受信する。
〔制御部20の各手段〕
(受付手段200)
受付手段200は、外部の装置から送信された各種のデータ、情報、信号等を受け付ける。具体的には、受付手段200は、行動対話情報取得装置3から送信された行動対話データを受け付ける。また、受付手段200は、生体情報取得装置5から送信された生体データを受け付ける。
(検知手段201)
検知手段201は、受付手段200により受け付けられた各種のデータから特定の信号を検知する。例えば、検知手段201は、行動対話データから発話を示す信号を検知する。また、検知手段201は、例えば、発話者Paを識別する情報、発話者Paの位置を特定する情報、他の参加者Pと対話しているか否かを示す情報等、検出された発話に関する情報をさらに検出する。
(特定手段202)
特定手段202は、受付手段200により受け付けられた行動対話データに応じて、利用者Pの間で意思の疎通(以下、「コミュニケーション」ともいう。)が行われている場面の種類又は種別(以下、単に「タイプ」又は「コミュニケーションタイプ」ともいう。)を特定する。
具体的には、特定手段202は、行動対話データを記憶部21に記憶されたコミュニケーションタイプ情報211と照らし合わせ、行動対話データがコミュニケーションタイプ情報211で分類されたどの領域に該当するかを特定する。
ここで、コミュニケーションタイプには、例えば、「面談や議論」、「議論」、「報告(あるいは、説教)」、「プレゼンテーション」等のようなコミュニケーションの規模や態様等それ自体の性質によって分類される種類や、「初対面の者が多く含まれる」、「アイディア出し」、「チームミーティング」等のようなコミュニケーションの目的、用途、内容、参加者の性質等の状況によって分類される種別等がある。
また、コミュニケーションタイプを特定するために用いられるデータとしては、例えば、参加者Pの発話の長さや発話の回数や頻度(以下、「発話量」ともいう。)、複数の参加者Pがいる場合における発話量における均等性(以下、「バランス」ともいう。)、参加者Pの人数等の行動対話データから導ける情報や、参加者Pの属性情報214、各参加者Pの予定を示すスケジュールデータ215等の予め記録されている情報等が該当する。なお、行動対話データから導ける情報は、特定手段202が行動対話データから算出してもよい。
(推定手段203)
推定手段203は、各利用者Pがそのコミュニケーションに対してどのように感じているか、つまり各利用者Pに係るコミュニケーションに対して抱いている内的な状態(以下、「コミュニケーション状態」ともいう。)を推定する。
具体的には、推定手段203は、行動対話データと生体データから得られる利用者Pの内的情報(後述する。)とを、記憶部21に記憶されたコミュニケーション状態情報212と照らし合わせ、行動対話データ及び生体データがコミュニケーション状態情報212で分類されたどの領域に該当するかを特定することによりコミュニケーション状態を推定する。
ここで、コミュニケーション状態は、利用者Pの当該コミュニケーションに対する感じ方等の主観を示す表現と、利用者Pが実行している行為を示す表現と、により構成される項目で表わされる。具体的には、コミュニケーション状態は、例えば、「興味深く聞いている」、「夢中で話をしている」、「怒りながら話している」等の項目で表わされる(図5参照)。
利用者Pの内的状態とは、利用者Pの精神的又は心理的な状態や心の動き等の内的な状態をいう。利用者Pの内的状態には、例えば、当該利用者Pが快い状態の傾向にあるか不快な状態の傾向にあるかを表わす「快不快」、当該利用者Pにかかっている心理的な負担を表わす「ストレス」、当該利用者Pの感情の動きを表わす「情動」等がある。
これら利用者Pの内的状態を表わす「快不快」、「ストレス」及び「情動」は、は、定量的な指標を用いて評価してよい。また、この指標は、各利用者Pの生体データを分析することにより求められる。この分析は、推定手段203が行ってよい。
(集計手段204)
集計手段204は、コミュニケーション状態の集計を行う。具体的には、集計手段204は、推定手段203によって利用者Pごとに推定されたコミュニケーション状態を集計して、当該コミュニケーションを実施している集団(以下、「グループ」ともいう。)におけるコミュニケーション状態を求める。
集計手段204は、例えば、当該グループに特定のコミュニケーション状態のメンバPがどの程度を占めているか、あるいは、当該グループにいずれのコミュニケーション状態を有するメンバPが混在しているか、等の集計を行う。なお、「程度」については、例えば、「Aが大半」等のような定性的な情報でもよい。
(判定手段205)
判定手段205は、コミュニケーションタイプ及びコミュニケーション状態に応じて、当該コミュニケーションの善し悪し(以下、「コミュニケーションの質」ともいう。)を判定する。なお、どのようなコミュニケーションが「良し」でどのようなコミュニケーションが「悪い」かについては、予め定めてよい。
具体的には、特定手段202により特定されたコミュニケーションタイプ及び推定手段203により推定されたコミュニケーション状態を、記憶部21に記憶されたフィードバック情報テーブル213と照らし合わせることにより、対応する質を抽出することによりコミュニケーションの質を判定する。
また、判定手段205は、コミュニケーションタイプ及びコミュニケーション状態に応じて、処方(以下、「フィードバック」ともいう)が必要か否かを判定する。
(決定手段206)
決定手段206は、判定手段205によりフィードバックが必要と判定された場合、コミュニケーションタイプ及びコミュニケーション状態に応じたフィードバックの内容及び方法を決定する。
具体的には、特定手段202により特定されたコミュニケーションタイプ及び推定手段203により推定されたコミュニケーション状態を、記憶部21に記憶されたフィードバック情報テーブル213と照らし合わせることにより、対応するフィードバックの内容及び方法を決定する。
(通知手段207)
通知手段207は、決定手段206による決定に応じてフィードバックを実施する。
〔記憶部21に記憶された情報及びテーブル〕
(コミュニケーションタイプ情報211)
図3は、コミュニケーションタイプ情報の一例を示す図である。コミュニケーションタイプ情報211は、行動対話データからコミュニケーションタイプを特定するために用いられる情報である。具体的には、コミュニケーションタイプ情報211は、コミュニケーションタイプを特定するための1種以上の情報(すなわち、パラメータ)とこのパラメータに対応する数値的な範囲とが、例えば、テーブル等の形式で記録された情報である。なお、図3及び図4は、説明の便宜上、コミュニケーションタイプを特定するための2種のパラメータを、直交する2種の座標軸で構成される平面上にマップ状に視覚化して示したものである。
図3に示すように、コミュニケーションタイプは、例えば、グループの特性、及びコミュニケーション中に行われる対話の特性によって分類される。グループの特性には、例えば、グループを構成するメンバP(すわなち、当該コミュニケーションの参加者P)の人数が該当する。また、対話の特性には、例えば、対話が動的か静的か、すなわち、発話者Paが特定の参加者Pに限定されていないかどうかを示す指標が該当する。
具体的には、グループの特性が少人数であり、かつ、対話の特性が動的である場合(領域I)、少ない人数で発話の切り替えが頻繁となるコミュニケーションの態様として「面談、議論」が該当する。また、グループの特性が多人数であり、かつ、対話の特性が動的である場合(領域II)、多い人数で発話の切り替えが頻繁となるコミュニケーションの態様として「議論」が該当する。
グループの特性が少人数であり、かつ、対話の特性が静的である場合(領域III)、少ない人数で特定の参加者Pが発話している傾向にあるコミュニケーションの態様として「報告」や「説教」が該当する。グループの特性が多人数であり、かつ、対話の特性が静的である場合(領域IV)、少ない人数で特定の参加者Pが発話している傾向にあるコミュニケーションの態様として「プレゼンテーション」が該当する。
図4は、コミュニケーションタイプ情報の他の一例を示す図である。図4に示すように、コミュニケーションタイプは、グループの特性として、当該グループが一時的に形成されたものか継続的な形成されているものかを示す継続性を用いて分類してもよい。
具体的には、グループが一時的なものである場合(領域V)、初対面同士の参加者Pが多い状況でのコミュニケーションに該当し、グループが継続的なものである場合(領域VI)、チームミーティング等のような一定の集団性を有する状況でのコミュニケーションに該当する。
また、対話の特性が動的である場合(領域VII)、ブレインストーミング等のような参加者P同士で互いにアイディアを出し合うことを目的の中心としたコミュニケーションに該当し、対話の特性が動的である場合(領域VIII)、プレゼンテーション等のコミュニケーションに該当する。
上述した領域V〜VIIIの領域が重複した部分では、それぞれの領域が有する特徴をともに有するコミュニケーションに該当する。一例を挙げて説明すると、グループの特性が一時的なものであって、かつ、対話の特性が動的な場合(V及びVI)、初対面の参加者Pが多い状況でアイディアを出し合うブレインストーミングに係るコミュニケーションに該当する。V及びVI以外の組み合わせについては、詳細な説明は省略する。
(コミュニケーション状態情報212)
図5は、コミュニケーション状態情報の一例を示す図である。コミュニケーション状態情報212は、メンバPごとにコミュニケーション状態を特定するために用いられる情報である。具体的には、コミュニケーション状態情報212は、コミュニケーション状態を特定するための1種以上のパラメータとこのパラメータに対応する数値的な範囲とが、例えば、テーブル等の形式で記録された情報である。なお、図5は、図3及び図4と同様に、説明の便宜上、コミュニケーション状態を特定するための2種のパラメータを、直交する2種の座標軸で構成される平面上にマップ状に視覚化して示したものである。
図5に示すように、コミュニケーション状態は、例えば、参加者Pの発話量、及び参加者Pの内的状態を示す指標の一例として「快」又は「不快」を示す評価値に応じて分類される。また、コミュニケーション状態には、例えば、「A.興味深く聞いている」、「B.夢中で話をしている」、「C.傍観、興味なし」、「D.事務的に話している」、「E.言いたいことが言えていない」及び「F.怒りながら話している」等の6つの状態に分類される。分類の個数及び内容は、これらに限定されるものではない。
具体的には、発話量によって、行為として「聞いている」状態か「話している」状態かを分類するとともに、内的状態によって、興味や夢中等の心境下にある積極的な状態か、抑圧、圧迫、忍耐、怒り等を抱えた消極的な状態かを分類する。
より具体的には、一例として、発話量が少なく、かつ、内的状態が「不快」の傾向にある場合、発話が何らかの圧力で抑えられ一方的に聞いている状態、すなわち、「E.言いたいことが言えていない」状態に分類される。また、他の一例として、発話量が多く、かつ、内的状態が「快」の傾向にある場合、「B.夢中で話をしている」状態に分類される。
(フィードバック情報テーブル213)
図6は、フィードバック情報テーブル213の一例を示す図である。フィードバック情報テーブル213は、コミュニケーションタイプとコミュニケーション状態とを掛け合わせて、コミュニケーションの質の判定及びフィードバックの内容及び方法の特定を行うための情報である。
フィードバック情報テーブル213には、「コミュニケーションタイプ」欄と、「メンバの理想の状態」欄と、「メンバの実際の状態」欄と、「コミュニケーションの質」欄と、「想定される事態」欄と、「処方(フィールド)」欄と、が設けられている。このうち、「コミュニケーションタイプ」及び「メンバの実際の状態」は、入力値であり、「コミュニケーションの質」及び「処方(フィールド)」は、該入力値に応じた出力値である。なお、各欄に記載された「A」〜「F」の記号は、図5に示すコミュニケーション状態情報212中で定義された「A」〜「F」に対応する。
「コミュニケーションタイプ」欄には、上述したコミュニケーションタイプが記録されている。なお、図6では、図3で説明した領域I〜IVのみを例示的に列挙している。
「メンバの理想の状態」欄には、コミュニケーションタイプごとに予め定められた理想とするコミュニケーション状態が記録されている。例えば、コミュニケーションタイプが「面談」や「議論」の場合、図5に示す「B.夢中で話をしている」状態が理想の状態であると定義されている。
「メンバの実際の状態」欄には、メンバPのコミュニケーション状態が記録されている。「メンバの実際の状態」欄には、例えば、「Bが大半」(すなわち、グループを構成しているメンバPのうち大半のメンバPのコミュニケーション状態が「B.夢中で話をしている」状態であること。)や、「Aが大半」(すなわち、グループを構成しているメンバPのうち大半のメンバPのコミュニケーション状態が「A.興味深く聞いている」状態であること。)、「FとE」(すなわち、グループの中に「E.言いたいことが言えていない」状態のメンバPと「F.怒りながら話している」状態のメンバPとが混在していること。)等の情報が記録されている。これらの情報は、推定手段203によってメンバPごとに推定されたコミュニケーション状態を集計手段204によってグループごとに定性的に集計された情報と照合される。
「コミュニケーションの質」欄には、コミュニケーションの質を示す情報が記録されている。コミュニケーションの質を示す情報には、例えば、「非常に良い」、「やや悪い」、「悪い」、「非常に悪い」等の情報が記録されている。
コミュニケーションの質は、必ずしも上述の例のように4つの段階に分類される必要はなく、2段階、3段階でもよく、より細かく5段階以上に分類してもよい。あるいは、コミュニケーションの質は、数値を用いて定量的に表わしてもよい。
「想定される事態」欄には、コミュニケーション状態が「メンバの実際の状態」欄に記録された状態にある場合に想定される、当該コミュニケーションにおいてどのような事態が生じているか、を例示する情報が記録されている。
「処方(フィールド)」欄には、コミュニケーションの質に応じて行うべきフィードバックの内容及び方法を示す情報が記録されている。「処方(フィールド)」欄には、例えば、「Aに発言を促す」(すなわち、グループを構成しているメンバPのうち「A.興味深く聞いている」状態のメンバPに発言をするよう促すこと。)や、「Fに冷静になるように促す」(すなわち、グループを構成しているメンバPのうち「F.怒りながら話している」状態のメンバPに冷静になるよう促すこと。)等の情報が記録されている。なお、テーブル中の「−」は、特にフィードバックが必要でないことを示す。
〔実施の形態の動作〕
図7は、本発明の実施の形態に係る情報処理装置2の動作の一例を示すフローチャートである。受付手段200は、行動対話情報取得装置3によって取得され情報処理装置2に送信された行動対話データを受け付ける(S1)。検知手段201は、行動対話データから発話を示す信号の検知を行う(S2)。
検知手段201は、行動対話データから発話を検知すると(S2:Yes)、特定手段202は、当該発話を行っているメンバPにより構成されるグループを特定するとともに、グループを構成するメンバPの人数(以下、単に「グループの人数」ともいう。)を特定する(S3)。
次に、特定手段202は、コミュニケーションタイプを特定する(S4)。このとき、特定手段202は、予め記憶部21に記憶された属性情報214やスケジュールデータ215を参照してもよい。
次に、受付手段200は、生体情報取得装置5によって取得され情報処理装置2に送信された、グループを構成する各メンバPに係る生体情報を受け付ける(S6)。推定手段203は、生体情報等に応じて各メンバPの内的状態を求め(S7)、この内的状態等に応じて各メンバPのコミュニケーション状態を推定する(S8)。
ステップS6〜S8に係る受付手段200による生体情報の受け付け、並びに推定手段203による内的状態の導出及びコミュニケーション状態の推定のステップは、グループのメンバP全員に対して行う(S5:Yes)。
次に、集計手段204は、メンバPごとのコミュニケーション状態を集計してグループのコミュニケーション状態を求める(S9)。判定手段205は、フィードバック情報テーブル213を参照して、コミュニケーションタイプ及びコミュニケーション状態に応じたコミュニケーションの質を判定する(S10)。
判定手段205は、フィードバック情報テーブル213を参照して、フィードバックが必要か否かをさらに判定する(S11)。判定手段205によりフィードバックが必要と判定された場合(S11:Yes)、決定手段206は、フィードバック情報テーブル213を参照して、フィードバックの内容及び方法を決定する(S12)。
通知手段207は、決定手段206による決定に従って、フィードバックを実施する(S13)。
(行動対話情報取得装置3)
図8は、行動対話情報取得装置3の構成の一例を示す図である。行動対話情報取得装置3は、行動及び発話や対話に関する情報を取得する装置である。
図8に示すように、行動対話情報取得装置3は、例えば、対話データを取得するセンサ部を備えた本体部30と、本体部30を利用者Pが自身の身体に近い位置で固定的に保持するためのストラップ部31と、を備えている。例えば、行動対話情報取得装置3は、利用者Pの首から下げて使用される。
本体部30は、利用者Pがストラップ部31を首から下げて使用している状態において、口元からの距離が異なる複数のマイク301,302を備えている。具体的には、複数のマイク301,302は、ストラップ部31に設けられた第1のマイク301と、本体部30に設けられた第2のマイク302と、を含む。
このように、利用者Pの口元からの距離が異なる複数のマイク301,302を設けることで、利用者P自身が発した声を検知する場合、発話の検知のタイミングに時間差が生じるのに対して、第三者が発した声を検知する場合、発話の検知のタイミングの時間差は小さく抑えられる。行動対話情報取得装置3は、かかる原理を利用して、自他の音声を区別して特定できるようになっている。
また、行動対話情報取得装置3は、複数の基地局3aとの間で距離を測定することにより、利用者Pの位置や行動を特定できるようになっている。
本実施の形態では、行動対話情報取得装置3は、利用者Pの位置や発話の情報を取得できるものであればよく、例えば、カメラ及び指向性を有するマイクとを含む検出装置であってもよい。
図9は、行動対話情報取得装置3による対話の検知の一例を示す図であり、(a)は、会議室における利用者Pの活動の一例を示す図であり、(b)及び(c)は、行動対話取得装置から得られる信号の一例を示すタイミングチャートである。なお、実際の利用者Pは、行動対話情報取得装置3を身に着けているが、図9(a)は、行動対話情報取得装置3を省略して描いた。
図9(a)に示すように、複数(例えば、6人)の利用者Pが、例えば会議室R等の活動エリアで活動しているものとする。このうち、2人の利用者P(「Aさん」及び「Bさん」とする。)が、対話を行っているとする。
この場合、行動対話情報取得装置3は、図9(b)及び(c)に示されるような信号を取得する。縦軸について、「ON」は、発話している状態を示し、「OFF」は、発話していない状態を示す。一例として、異なる2人が対話する場合、図9(b)及び(c)に示すように、発話している状態が交互に出現するような信号が得られる。
(生体情報取得装置5)
図10は、生体情報取得装置5の構成の一例を示す図である。生体情報取得装置5は、例えば、活動エリアにおける利用者Pの活動時の生体データを測定する。なお、生体情報取得装置5は、利用者Pの活動時に限らず、例えば、利用者Pが横になっている状態や、仮眠、睡眠等の非活動時の状態における生体情報を測定してもよい。
生体データは、身体が発する情報であり、例えば、以下の情報でもよい。
(a)体動を示す情報(例えば、体動による加速度、行動を示すパターン等)
(b)活動量(例えば、歩数、消費カロリー等)
(c)バイタル情報(例えば、心拍数、脈波、脈拍数、呼吸数、体温、血圧等)
本実施の形態では、生体情報取得装置5は、特に、自律神経のバランスに係る、心拍の間隔(例えば、秒又はミリ秒)、低周波成分(LH)、高周波成分(HF)等を測定する。
生体情報取得装置5は、利用者Pの身体に装着する装着型のものを用いるのが好ましい。本実施の形態では、図10に示すように、生体情報取得装置5は、主として手首に装着して用いるリストバンド型ある。また、生体情報取得装置5は、各種のセンサを備えたセンサ部510と測定されたデータ等の表示及び情報の入力や操作を行う操作表示部511とを含む本体部51と、手首に装着するためのベルトからなる装着部52と、を備えている。センサ部510は、予め定められたタイミングや周期で、本体部51が密着している身体から各種の生体データを取得する。センサ部510には、例えば、体動を測定する加速度計が含まれる。
生体情報取得装置5は、必ずしもリストバンド型に限定されるものではなく、生体データを取得できるものであればよい。生体情報取得装置5は、例えば、指に装着する指輪型、腰に装着するベルト型、上半身に着用して左右の腕、肩、胸、背中等に接触してするシャツ型、頭に被せるヘッド型、頭部に装着する眼鏡型あるいはゴーグル型、耳に装着するイヤホン型、体の一部に張り付ける貼り付け型等でもよい。また、生体情報取得装置5は、必ずしも身体に装着するものでなくてもよく、例えば、ヘモグロビンによる光の吸収を捉えることによって心拍数を計測する機能を有するカメラ等でもよい。
(ネットワーク6)
ネットワーク6は、例えば、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、インターネット、イントラネット等の通信網であり、有線でも無線でもよい。
<変形例1>
図11は、変形例に係る情報処理装置2の制御系の一例を示すブロック図である。変形例に係る情報処理装置2は、算出手段208をさらに備える点で、上述の実施の形態に係る情報処理装置2と相違する。以下、上述の実施の形態と同一の構成及び機能を有する要素については同一の符号を付してその詳細な説明を省略するとともに、上述の実施の形態に係る情報処理装置2と異なる点を中心に説明する。
図11に示すように、変形例に係る情報処理装置2のプロセッサ20aは、上記の実施の形態で説明した手段200〜207に加えて、算出手段208としてさらに機能する。
算出手段208は、コミュニケーションの質をチームごとに予め定められた算出方法(すなわち、アルゴリズム)によって集計して、チームのコミュニケーション状態について総合的に判断するための指数(以下、「コミュニケーション指数」又は「Team Communication Quality Index:TCQI」ともいう。)を算出する。
また、算出手段208は、TCQIの時間的な変動の傾向(以下、「トレンド」ともいう。)をさらに分析するとともに、チームのコミュニケーション状態を可視化して出力する。また、算出手段208は、TCQIが予め定められた閾値を跨いだとき、コミュニケーション状態が悪化したことを示す警告を出力する。
図12は、チームにおけるコミュニケーションの質の変動の一例を概略的に示す図である。縦軸は、TCQIを示し、ここでは、値の大きい方を「良い」とし、値の小さい方を「悪い」と定義する。横軸は、時間軸であり、単位は、例えば、「日にち」である。
図12に示すように、チームにおけるコミュニケーション状態が徐々に悪化すると、TCQIは、時間とともに減少する(矢印「Y」参照。)。このTCQIが予め定められた閾値よりも小さくなると、算出手段208は、警告を出力する。
警告が出力された後、何らかのフィードバックが行われ、チームのコミュニケーション状態が改善されたとすると、TCQIは、再び大きくなる(矢印「Y」参照。)。その後の一定の期間、TCQIは上昇を続けるも、再び下がる傾向に転じる場合がある(矢印「Y」参照。)。かかる場合、TCQIが再び予め定められた閾値よりも小さくなると、算出手段208は、再び警告を出力する。なお、ここでのフィールドバックは、必ずしも図6に示したフィードバック情報テーブル213に記録された内容に限られず、例えば、チームの主たるメンバに他のメンバとの1対1での対話を促すことや、チーム内で雑談の機会を設けるよう促すこと等が該当する。
<変形例2>
チームのコミュニケーション状態については、例えば、発話量や、ストレスの度合い(以下、「ストレスレベル」ともいう。)の分散で評価した「場の状態」を示す量Sを指標として用いてよい。ストレスを示す指標は、発話者Paの生体データから求めてよい。ここでは、ストレスを示す指標として、心拍の低周波成分(LH)を高周波成分(HF)で除した値を用いた。ストレスは、発話者Paの内的状態の一例である。
場の状態を示す量Sは、例えば、次の式(1)を用いて求めてよい。
場の状態を示す量S=VAR(発話量)×VAR(ストレス/発話量)・・・(1)
ここで、「VAR」とは、分散度合いを表す関数であり評価値を算出するものである。ここでは、「VAR」は、発話量に対して「多」、「中」、「少」の3段階の評価値を出力するとともに、「ストレス/発話量」に対して「高」、「中」、「低」の3段階の評価値を出力するものとする。
また、Sの値は、小さいほど場の状態が良い状態であることを示し、大きいほど場の状態が悪い状態であることを示す。「ストレス/発話量」は、ストレスを示す指標を発話量で規格化した値であり、例えば、ストレスを示す指標を発話量で除した値としてよい。「ストレス/発話量」は、ストレスレベルの一例である。
図13は、場の状態(S)の一例を示す図であり、(a)は、良い状態の一例を示す図、(b)は、中程度の状態の一例を示す図、(c)は、悪い状態の一例を示す図である。図13(a)に示すように、参加者P間における発話量及びストレスレベルの均等性がともに高い場合、Sの値は、小さい値、すなわち、良い状態を示す値となる。
図13(b)に示すように、参加者P間における発話量の均等性は低いが、ストレスレベルが同程度の場合、Sの値は、中程度の値、すなわち、中程度の状態を示す値となる。
図13(c)に示すように、参加者P間における発話量及びストレスレベルの均等性がともに低い場合、Sの値は、大きい値、すなわち、悪い状態を示す値となる。
<変形例3>
図14は、行動対話情報取得装置3及び生体情報取得装置5の具体例をテーブルでまとめて示す図である。行動対話情報取得装置3及び生体情報取得装置5は、上述の実施の形態で説明したものに限定されるものではない。図14に示すように、行動対話情報取得装置3として、例えば、画像認識機能を有するカメラ等、非装着型の装置を用いてもよい。
以上、本発明の実施の形態を説明したが、本発明の実施の形態は上記実施の形態に限定されるものではなく、本発明の要旨を変更しない範囲内で種々の変形、実施が可能である。例えば、「コミュニケーションタイプ」のバリエーションは、上述したものに限られない。例えば、コミュニケーションタイプを特定するためには、必ずしも2種類のパラメータを用いなくてもよく、1種のみのパラメータ(例えば、人数のみや対話の特性のみ等)を用いて分類してもよい。また、「コミュニケーションタイプ」は、必ずしも特定手段202によって特定されたものに限定されるものではなく、手入力された情報を用いてもよい。
制御部20の各手段は、それぞれ一部又は全部を再構成可能回路(FPGA:Field Programmable Gate Array)、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)等のハードウエア回路によって構成してもよい。
また、上記実施の形態の構成要素の一部を省くことや変更することが可能である。また、本発明の要旨を変更しない範囲内で、上記実施の形態のフローにおいて、ステップの追加、削除、変更、入替え等が可能である。また、上記実施の形態で用いたプログラムをCD−ROM等のコンピュータで読み取り可能な記録媒体に記録して提供することができ、クラウドサーバ等の外部サーバに格納しておき、ネットワークを介して利用することもできる。
1…情報処理システム
2…情報処理装置
20…制御部
20a…プロセッサ
200…受付手段
201…検知手段
202…特定手段
203…推定手段
204…集計手段
205…判定手段
206…決定手段
207…通知手段
208…算出手段
21…記憶部
210…プログラム
211…コミュニケーションタイプ情報
212…コミュニケーション状態情報
213…フィードバック情報テーブル
214…属性情報
215…スケジュールデータ
28…ネットワーク通信部
3…行動対話情報取得装置
3a…基地局
30…本体部
301,302…マイク
31…ストラップ部
5…生体情報取得装置
51…本体部
52…装着部
510…センサ部
511…操作表示部
6…ネットワーク

Claims (7)

  1. 利用者の間で意思の疎通が行われている場面の種類を示す情報、及び前記利用者から取得した生体に関する生体情報に応じて特定される前記意思の疎通の状態を示す情報から、前記意思の疎通の質の善し悪しを評価した評価結果を出力するよう制御するプロセッサを備える、
    情報処理装置。
  2. 前記プロセッサは、前記利用者により構成される集団の特性及び前記意思の疎通で行われる対話の特性に応じて、前記場面の種類を特定するよう制御する、
    請求項1に記載の情報処理装置。
  3. 前記プロセッサは、前記集団の特性として、前記利用者の人数又は前記集団における前記対話の継続性に応じて前記場面の種類を特定するよう制御する、
    請求項2に記載の情報処理装置。
  4. 前記プロセッサは、前記利用者の発話の量を示す情報と、前記生体情報から得られる前記利用者の前記意思の疎通に対する内的な状態を示す内的情報と、に応じて、前記意思の疎通の質を推定するよう制御する、
    請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 前記プロセッサは、前記内的情報として、心理的に快の状態の傾向にあるか不快の状態の傾向にあるかを示す指標を用いて前記意思の疎通の質を推定するよう制御する、
    請求項4に記載の情報処理装置。
  6. 利用者の間で意思の疎通が行われている場面の種類を示す情報、及び前記利用者の生体に関する生体情報に応じて特定される前記意思の疎通の状態を示す情報から、前記意思の疎通を改善するための対応策を示す情報を出力するプロセッサを備える、
    情報処理装置。
  7. プロセッサに、
    利用者の間で意思の疎通が行われている場面の種類を示す情報、及び前記利用者から取得した生体に関する生体情報に応じて特定される前記意思の疎通の状態を示す情報から、前記意思の疎通の質の善し悪しを評価した評価結果を出力させるためのプログラム。
JP2019231255A 2019-12-23 2019-12-23 情報処理装置及びプログラム Pending JP2021099670A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019231255A JP2021099670A (ja) 2019-12-23 2019-12-23 情報処理装置及びプログラム
US16/888,977 US20210193170A1 (en) 2019-12-23 2020-06-01 Information processing apparatus and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019231255A JP2021099670A (ja) 2019-12-23 2019-12-23 情報処理装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2021099670A true JP2021099670A (ja) 2021-07-01

Family

ID=76438668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019231255A Pending JP2021099670A (ja) 2019-12-23 2019-12-23 情報処理装置及びプログラム

Country Status (2)

Country Link
US (1) US20210193170A1 (ja)
JP (1) JP2021099670A (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5283257B2 (ja) * 2008-06-06 2013-09-04 Kddi株式会社 通信制御装置
CN108347457A (zh) * 2017-01-25 2018-07-31 电信科学技术研究院 一种通信方法和通信设备
WO2019139101A1 (ja) * 2018-01-12 2019-07-18 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US20210193170A1 (en) 2021-06-24

Similar Documents

Publication Publication Date Title
US10944708B2 (en) Conversation agent
JP6610661B2 (ja) 情報処理装置、制御方法、およびプログラム
JP3824848B2 (ja) 通信装置および通信方法
WO2020160475A1 (en) Detection of physical abuse or neglect using data from ear-wearable devices
US20210161482A1 (en) Information processing device, information processing method, and computer program
GB2478034A (en) Systems for inducing change in a human physiological characteristic representative of an emotional state
JP7036046B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2004112518A (ja) 情報提供装置
Budner et al. " Making you happy makes me happy"--Measuring Individual Mood with Smartwatches
JP2018139087A (ja) 感情推定サーバ装置、感情推定方法、提示装置及び感情推定システム
JP2020048917A (ja) 咀嚼や笑みに係る量に基づき食事を評価可能な装置、プログラム及び方法
JP2019062490A (ja) 制御装置、制御方法、プログラム及び制御システム
JP7359437B2 (ja) 情報処理装置、プログラム、及び、方法
CN114379567A (zh) 基于驾驶员状态和情境的会议
Arnrich A survey on measuring happiness with smart phones
US20200357504A1 (en) Information processing apparatus, information processing method, and recording medium
JP7209200B2 (ja) 空間提案システム、及び、空間提案方法
JP7081129B2 (ja) 情報処理装置及びプログラム
JP2021099670A (ja) 情報処理装置及びプログラム
WO2022065446A1 (ja) 感情判定装置、感情判定方法及び感情判定プログラム
JPWO2019220745A1 (ja) 情報処理システム、情報処理方法、および記録媒体
Artiran et al. Measuring social modulation of gaze in autism spectrum condition with virtual reality interviews
JP2006136742A (ja) 通信装置
JP2022049326A (ja) 情報処理装置及びプログラム
JP2019101872A (ja) 情報処理装置、及びプログラム