JP2019159707A - 情報提示装置、情報提示方法及び情報提示プログラム - Google Patents
情報提示装置、情報提示方法及び情報提示プログラム Download PDFInfo
- Publication number
- JP2019159707A JP2019159707A JP2018044552A JP2018044552A JP2019159707A JP 2019159707 A JP2019159707 A JP 2019159707A JP 2018044552 A JP2018044552 A JP 2018044552A JP 2018044552 A JP2018044552 A JP 2018044552A JP 2019159707 A JP2019159707 A JP 2019159707A
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- situation
- information
- determined
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000000694 effects Effects 0.000 claims abstract description 41
- 230000008451 emotion Effects 0.000 claims description 17
- 210000004556 brain Anatomy 0.000 claims description 13
- 230000008569 process Effects 0.000 description 36
- 238000010586 diagram Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 17
- 238000001228 spectrum Methods 0.000 description 13
- 238000013461 design Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 241001522296 Erithacus rubecula Species 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 239000012141 concentrate Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 208000019901 Anxiety disease Diseases 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 210000005037 parasympathetic nerve Anatomy 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Tourism & Hospitality (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Child & Adolescent Psychology (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Primary Health Care (AREA)
- Human Resources & Organizations (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Electrically Operated Instructional Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
脳波、脈波及び前記人の感情の少なくとも一つの情報から、前記人が会話に集中している度合いを示す集中レベルを判定し、前記音声の情報から、前記会話において前記人が発話している度合いを示す発話レベルを判定し、前記音声の情報から、前記会話において発話している前記人の人数を示す発話人数を判定し、判定結果から、前記会話の状況を定める。
図3は、情報提示装置のハードウェア構成を示すブロック図である。
図5は、情報取得装置の機能構成の例を示すブロック図である。
図6は、教師が用いる端末の機能構成の例を示すブロック図である。
図7は、発話レベルの判定基準を表す図である。
上述のように、情報提示装置10は、発話人数判定部111として、会話中の音声の情報から、会話において発話している人数を示す発話人数を判定する。
図8は、集中レベルの判定基準を表す図である。図9は、人の感情を表す円環モデルの例を示す図である。図10は、集中レベルの別の判定基準を示す図である。
上記実施形態においては、図11のステップS105のアドバイスを決定する処理において、具体的に図12の処理を用いる場合について説明した。変形例では、図12の処理に代えて、あるいは図12の処理と並行して、図16の処理を実行する。
上記実施形態では、教師の端末30において、アドバイスを提示する形態について説明した。しかし、集団の会話の進行をコントロールするのは必ずしも教師だけではない。例えば、集団の中に、進行役の生徒を設定し、当該生徒が会話の進行をコントロールする場合がある。あるいは、特に進行役がなくても、集団でアドバイスを参考にして、会話の進行を決定することも考えうる。このような場合、テーブル50におかれた、情報取得装置20により、生徒に直接アドバイスを提示してもよい。この場合、例えば、図15に示すような画面が、情報取得装置20の提示部203に表示される。あるいは、情報取得装置20に設けられたスピーカーから、音声によりアドバイスを提示しても良い。
10 情報提示装置
11 CPU
12 ROM
13 RAM
14 ストレージ
15 通信インタフェース
19 バス
20 情報取得装置
30 端末
40 クラウドサーバ
41 データベース
50 テーブル
101 取得部
102 状況特定部
103 アドバイス決定部
104 提示部
105 フィードバック処理部
110 発話レベル判定部
111 発話人数判定部
112 集中レベル判定部
201 音声取得部
202 生体情報取得部
203 提示部
301 入力部
302 表示部
500、501、503 メニュー
502 表示ウィンドウ
A、B、C エリア
X、Y、Z 学校
Claims (15)
- 特定のテーマについて会話中の複数の人からなる集団の前記人の活動に関する活動情報を取得する取得部と、
前記取得部により取得した前記活動情報から定まる会話の状況に応じて、前記会話の進行に関するアドバイスを提示する提示部と、
を有する情報提示装置。 - 前記活動情報は、前記複数の人の各々が発した音声の情報、及び前記複数の人の各々の生体に関する生体情報の少なくとも一方である請求項1に記載の情報提示装置。
- 前記取得部により前記音声の情報及び前記生体情報のうちの音声の情報が取得される場合、前記音声の情報から特定される発話時間及び発話人数の少なくとも一方から前記会話の状況を定め、
前記取得部により前記音声の情報及び前記生体情報のうちの生体情報が取得される場合、前記生体情報として取得される脳波、脈波及び前記生体情報から特定される前記人の感情の少なくとも一つの情報から前記会話の状況を定め、
前記取得部により前記音声の情報及び前記生体情報の両方が取得される場合、前記音声の情報から特定される発話時間及び発話人数、並びに前記生体情報として取得される脳波、脈波及び前記生体情報から特定される前記人の感情の少なくとも一つの情報から前記会話の状況を定める、状況特定部をさらに有する請求項2に記載の情報提示装置。 - 前記状況特定部は、
脳波、脈波及び前記人の感情の少なくとも一つの情報から、前記人が会話に集中している度合いを示す集中レベルを判定し、
前記音声の情報から、前記会話において前記人が発話している度合いを示す発話レベルを判定し、
前記音声の情報から、前記会話において発話している前記人の人数を示す発話人数を判定し、
判定結果から、前記会話の状況を定める請求項3に記載の情報提示装置。 - 前記状況特定部は、第1の時間の間、前記人からの発話がなく、判定した前記集中レベルが第1の閾値以下である場合、前記会話の状況が、前記人が会話に集中していない状況であると特定し、
前記提示部は、前記状況特定部が特定した状況に対する前記アドバイスとして、会話の内容を変更することを提示する請求項4に記載の情報提示装置。 - 前記状況特定部は、判定した前記発話レベルが第2の閾値より低い状況が第2の時間以上継続した場合に、前記会話の状況が、緊張のため会話が少ない状況であると特定し、
前記提示部は、前記状況特定部が特定した状況に対する前記アドバイスとして、複数の前記人に順に発話の機会を与えることを提示する請求項5に記載の情報提示装置。 - 前記状況特定部は、判定した前記発話レベルが前記第2の閾値以上で、判定した前記集中レベルが前記第1の閾値より大きく、判定した前記発話人数が、第1の人数以下で、会話の時間が第3の時間以上である場合、前記会話の状況が、発言者数が偏っている状況であると特定し、
前記提示部は、前記状況特定部が特定した状況に対する前記アドバイスとして、発言していない前記人の発言を促すことを提示する請求項6に記載の情報提示装置。 - 前記状況特定部は、判定した前記発話レベルが前記第2の閾値以上で、かつ判定した前記集中レベルが前記第1の閾値以下である状況が第4の時間以上継続した場合で、会話が雑談であると判断される場合、前記会話の状況が、会話の内容と会話のテーマとの関連が低く、人が集中していない状況であると特定し、
前記提示部は、前記状況特定部が特定した状況に対する前記アドバイスとして、前記会話の目的を再確認することを提示する請求項7に記載の情報提示装置。 - 前記状況特定部は、判定した前記発話レベルが前記第2の閾値以上で、かつ前記集中レベルが前記第1の閾値以下である状況が第4の時間以上継続した場合で、会話が雑談でないと判断される場合、前記会話の状況が、発言の多さに対して集中レベルが低い状況であると特定し、
前記提示部は、前記状況特定部が特定した状況に対する前記アドバイスとして、休息をいれることを提示する請求項8に記載の情報提示装置。 - 前記状況特定部は、
前記脳波及び前記人の感情のそれぞれから、前記人が会話に集中している度合いを示す集中レベルを判定し、さらに、前記人の感情から、前記人が会話に肯定的か否定的かを判定し、
前記脳波により判定した前記集中レベルが第3の閾値以上で、前記人の感情により判定した前記集中レベルが、第4の閾値以上で、かつ前記人が会話に肯定的である場合に、前記会話の状況が、前記人の発言を、他の前記人が集中して聞いていない状況であると特定し、
前記提示部は、前記状況特定部が特定した状況に対する前記アドバイスとして、発言した前記人に再度発言を促すことを提示する請求項3〜9のいずれか一項に記載の情報提示装置。 - 前記提示部は、前記アドバイスを表示可能な表示部に、前記活動情報から定まる前記会話の状況と、前記会話の状況に応じたアドバイスとを表示させる請求項1〜10のいずれか一項に記載の情報提示装置。
- 前記提示部は、前記集団が複数ある場合、複数の前記集団の各々の前記会話の状況を前記表示部に表示させる請求項11に記載の情報提示装置。
- 前記提示部は、複数の前記集団の各々の前記会話の状況を表す指標を求め、前記指標が閾値よりも小さいグループが他の集団と区別されるように、前記表示部に表示させる請求項12に記載の情報提示装置。
- 特定のテーマについて会話中の複数の人からなる集団の前記人の活動に関する活動情報を取得する取得ステップと、
前記取得ステップにおいて取得した前記活動情報から定まる会話の状況に応じて、前記会話の進行に関するアドバイスを提示する提示部ステップと、
を有する情報提示方法。 - 特定のテーマについて会話中の複数の人からなる集団の前記人の活動に関する活動情報を取得する取得ステップと、
前記取得ステップにおいて取得した前記活動情報から定まる会話の状況に応じて、前記会話の進行に関するアドバイスを提示する提示部ステップと、
をコンピュータに実行させる情報提示プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018044552A JP2019159707A (ja) | 2018-03-12 | 2018-03-12 | 情報提示装置、情報提示方法及び情報提示プログラム |
US16/121,289 US10580434B2 (en) | 2018-03-12 | 2018-09-04 | Information presentation apparatus, information presentation method, and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018044552A JP2019159707A (ja) | 2018-03-12 | 2018-03-12 | 情報提示装置、情報提示方法及び情報提示プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019159707A true JP2019159707A (ja) | 2019-09-19 |
Family
ID=67843398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018044552A Pending JP2019159707A (ja) | 2018-03-12 | 2018-03-12 | 情報提示装置、情報提示方法及び情報提示プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10580434B2 (ja) |
JP (1) | JP2019159707A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023175929A1 (ja) * | 2022-03-18 | 2023-09-21 | 日本電気株式会社 | 指導支援装置、指導支援方法及びコンピュータ読み取り可能な記録媒体 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019159707A (ja) * | 2018-03-12 | 2019-09-19 | 富士ゼロックス株式会社 | 情報提示装置、情報提示方法及び情報提示プログラム |
US11354507B2 (en) * | 2018-09-13 | 2022-06-07 | International Business Machines Corporation | Compared sentiment queues |
CN112598557B (zh) * | 2021-03-02 | 2021-06-25 | 广东财经大学 | 一种基于大数据的学生学习行为数据分析系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008272019A (ja) * | 2007-04-25 | 2008-11-13 | Oki Electric Ind Co Ltd | 集団感情認識支援システム |
JP2011081504A (ja) * | 2009-10-05 | 2011-04-21 | Hitachi Ltd | 会議支援システムおよびプログラム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6427137B2 (en) * | 1999-08-31 | 2002-07-30 | Accenture Llp | System, method and article of manufacture for a voice analysis system that detects nervousness for preventing fraud |
US7590538B2 (en) * | 1999-08-31 | 2009-09-15 | Accenture Llp | Voice recognition system for navigating on the internet |
US6353810B1 (en) * | 1999-08-31 | 2002-03-05 | Accenture Llp | System, method and article of manufacture for an emotion detection system improving emotion recognition |
US6151571A (en) * | 1999-08-31 | 2000-11-21 | Andersen Consulting | System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters |
US6697457B2 (en) * | 1999-08-31 | 2004-02-24 | Accenture Llp | Voice messaging system that organizes voice messages based on detected emotion |
US6480826B2 (en) * | 1999-08-31 | 2002-11-12 | Accenture Llp | System and method for a telephonic emotion detection that provides operator feedback |
US6275806B1 (en) * | 1999-08-31 | 2001-08-14 | Andersen Consulting, Llp | System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters |
US6463415B2 (en) * | 1999-08-31 | 2002-10-08 | Accenture Llp | 69voice authentication system and method for regulating border crossing |
JP2004237022A (ja) * | 2002-12-11 | 2004-08-26 | Sony Corp | 情報処理装置および方法、プログラム、並びに記録媒体 |
US9300790B2 (en) * | 2005-06-24 | 2016-03-29 | Securus Technologies, Inc. | Multi-party conversation analyzer and logger |
JP2007114702A (ja) | 2005-10-24 | 2007-05-10 | Sanseido Co Ltd | 学習指導・評価資料 |
US20080240379A1 (en) * | 2006-08-03 | 2008-10-02 | Pudding Ltd. | Automatic retrieval and presentation of information relevant to the context of a user's conversation |
US20100041958A1 (en) * | 2008-04-24 | 2010-02-18 | Searete Llc | Computational system and method for memory modification |
JP5772051B2 (ja) | 2011-02-22 | 2015-09-02 | 富士通株式会社 | 情報処理装置、指導案評価プログラム及び指導案評価方法 |
JP6142616B2 (ja) | 2013-03-27 | 2017-06-07 | 富士通株式会社 | ディスカッション支援プログラム、ディスカッション支援方法、及び情報処理装置 |
KR101549908B1 (ko) * | 2014-07-02 | 2015-09-08 | 전우성 | 스트레스 완화 및 집중력 향상을 위한 백색소음 발생 헤드셋 및 그를 이용한 백색소음 발생 방법 |
JP2019159707A (ja) * | 2018-03-12 | 2019-09-19 | 富士ゼロックス株式会社 | 情報提示装置、情報提示方法及び情報提示プログラム |
-
2018
- 2018-03-12 JP JP2018044552A patent/JP2019159707A/ja active Pending
- 2018-09-04 US US16/121,289 patent/US10580434B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008272019A (ja) * | 2007-04-25 | 2008-11-13 | Oki Electric Ind Co Ltd | 集団感情認識支援システム |
JP2011081504A (ja) * | 2009-10-05 | 2011-04-21 | Hitachi Ltd | 会議支援システムおよびプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023175929A1 (ja) * | 2022-03-18 | 2023-09-21 | 日本電気株式会社 | 指導支援装置、指導支援方法及びコンピュータ読み取り可能な記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
US10580434B2 (en) | 2020-03-03 |
US20190279656A1 (en) | 2019-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9953650B1 (en) | Systems, apparatus and methods for using biofeedback for altering speech | |
US11455985B2 (en) | Information processing apparatus | |
Boyd et al. | SayWAT: Augmenting face-to-face conversations for adults with autism | |
Morett | When hands speak louder than words: The role of gesture in the communication, encoding, and recall of words in a novel second language | |
JP2019159707A (ja) | 情報提示装置、情報提示方法及び情報提示プログラム | |
CN110767290A (zh) | 一种交互型情绪疏导及心理辅导机器人 | |
JP6419924B1 (ja) | 学習支援システムおよび学習支援方法 | |
Tanaka et al. | Teaching social communication skills through human-agent interaction | |
Niebuhr et al. | Virtual reality as a digital learning tool in entrepreneurship: How virtual environments help entrepreneurs give more charismatic investor pitches | |
Siegert et al. | How do we speak with Alexa: Subjective and objective assessments of changes in speaking style between HC and HH conversations | |
Wynn et al. | Rhythm perception, speaking rate entrainment, and conversational quality: A mediated model | |
Laban et al. | Building long-term human–robot relationships: Examining disclosure, perception and well-being across time | |
McNaney et al. | StammerApp: Designing a Mobile Application to Support Self-Reflection and Goal Setting for People Who Stammer | |
JP2007030050A (ja) | ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法 | |
Kölln et al. | Identifying User Experience Aspects for Voice User Interfaces with Intensive Users. | |
Tanaka et al. | Nocoa+: Multimodal computer-based training for social and communication skills | |
Chu et al. | Encoding and decoding hidden meanings in face-to-face communication: Understanding the role of verbal and nonverbal behaviors in indirect replies. | |
Allison et al. | ‘Verbal Strategies’ Used by Occupational Therapists in Direct Client Encounters | |
WO2019198299A1 (ja) | 情報処理装置及び情報処理方法 | |
Lerner et al. | In search of the role’s footprints in client-therapist dialogues | |
Dubus | Interpreters' self-perceptions of their use of self when interpreting in health and behavioral health settings | |
Hird et al. | Facilitating use of speech recognition software for people with disabilities: A comparison of three treatments | |
van Zaalen et al. | Clinical success using the audio-visual feedback training for cluttering | |
JP2020173415A (ja) | 教材提示システム及び教材提示方法 | |
Cohen | Training and application of correct information unit analysis to structured and Unstructured discourse |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210226 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210322 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220126 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220621 |