JP6884952B1 - 状態確認プログラム - Google Patents
状態確認プログラム Download PDFInfo
- Publication number
- JP6884952B1 JP6884952B1 JP2020012283A JP2020012283A JP6884952B1 JP 6884952 B1 JP6884952 B1 JP 6884952B1 JP 2020012283 A JP2020012283 A JP 2020012283A JP 2020012283 A JP2020012283 A JP 2020012283A JP 6884952 B1 JP6884952 B1 JP 6884952B1
- Authority
- JP
- Japan
- Prior art keywords
- words
- user
- category
- voice
- count
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012790 confirmation Methods 0.000 claims abstract description 18
- 230000006996 mental state Effects 0.000 abstract description 16
- 238000010586 diagram Methods 0.000 abstract 1
- 230000008451 emotion Effects 0.000 description 14
- 238000000034 method Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000007405 data analysis Methods 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 230000036316 preload Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 208000019901 Anxiety disease Diseases 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000036506 anxiety Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 206010048909 Boredom Diseases 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 206010040007 Sense of oppression Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013210 evaluation model Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004630 mental health Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/65—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Hospice & Palliative Care (AREA)
- Heart & Thoracic Surgery (AREA)
- Educational Technology (AREA)
- Child & Adolescent Psychology (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Developmental Disabilities (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
たとえば、特許文献1には、特定個人用の感情推定装置の推定精度が向上された感情推定装置が提供されている。具体的には、感情推定装置は、音声データを取得する取得部と、取得した音声データの音声データ解析を実施する音声データ解析部と、音声データ解析に基づき音声データの特徴を抽出する特徴抽出部と、抽出された特徴を、特定の抽出区間ごとに複数のパターンに分類し、その出現頻度を解析する頻度解析部と、分類したパターンの出現頻度が閾値以上と判別された音声データに対して、発話時の感情状態が平静状態であることを示すニュートラルのラベルを付与する第1ラベル付与部と、を備える。また、感情推定装置は、ニュートラルのラベルが付与された音声データを教師データに追加した特定個人用の教師データに基づいて、感情推定器を特定個人の発話時の感情状態を推定する感情推定器として個人適応させる感情推定器適応処理部を備える。
また、特許文献2には、ユーザーとの間で音声による円滑なコミュニケーションを実現することのできる情報処理装置が提案されている。具体的には、複数の選択肢をユーザーに提示し、当該複数の選択肢のいずれかを選択するユーザーの発話内容を認識し、認識されるユーザーの発話内容に含まれる語句が、予め用意された複数の選択肢のそれぞれに対応する辞書に含まれる語句と対応するか否かに基づいて、ユーザーが選択した選択肢を特定する情報処理装置である。
特許文献3には、「ときめき」感情を測定するための技術が提供されている。具体的には、データベースを有する情報処理装置を用いて、「ときめき」感情を評価する方法は、予め定められた感情を示す語句である感情語がそれぞれ分類されている5以上の感情因子についての回答者の状態を示す数値データである負荷前因子得点を取得し、負荷前因子得点を取得した後に、前記回答者の状態を変化させる要因である心理負荷を与えられた回答者の状態を示す数値データである負荷後因子得点を取得し、負荷前因子得点と負荷後因子得点とを用いて、心理負荷前と心理負荷後における、回答者の状態の変化を示す数値データである得点変化量を取得し、データベースに予め記憶されている、得点変化量に応じて「ときめき」感情の変化を評価する評価モデル、を用いて、心理負荷によって生じる「ときめき」感情を評価する、というものである。
すなわち、本発明は以下の各発明を提供するものである。
1.コンピュータ又はサーバーに格納され、コンピュータ又はサーバーに、
使用者の音声と使用者以外の者の音声とを識別して使用者の音声にかかる言葉と使用者以外の者の音声にかかる言葉とを区別して認識する音声認識ステップ、
認識された使用者の言葉を、予め整理されたデータベースにおいて予め設定されたカテゴリーにおけるいずれのカテゴリーに該当するかを照合する照合ステップ、及び
照合されたカテゴリー毎の該当単語数をもって使用者の精神的な状態を確認する確認ステップを実行させる状態確認プログラム。
2.上記照合ステップにおいて、上記カテゴリーがポジティブな言葉のカテゴリーを含み、上記言葉がポジティブな言葉である場合には上記のカテゴリーに該当するとして処理する
1記載の状態確認プログラム。
3.上記確認ステップが、使用者の言葉における上記のポジティブな言葉のカテゴリーに該当する言葉の数と、使用者以外の者の言葉における上記のカテゴリーに該当する言葉の数とを用いて使用者の状態を判定するステップを含む、2記載の状態確認プログラム。
4.上記確認ステップが、使用者の言葉における上記のポジティブな言葉のカテゴリーに該当する言葉の数と、ネガティブな言葉のカテゴリーに該当する言葉の数とを用いて使用者の状態を判定する2記載の状態確認プログラム。
本発明の状態確認プログラムは、コンピュータ又はサーバーに格納され、コンピュータ又はサーバーに、以下の各ステップを実行させるものである。
使用者の音声と使用者以外の者の音声とを識別して使用者の音声にかかる言葉と使用者以外の者の音声にかかる言葉とを区別して認識する音声認識ステップS1、
認識された使用者の言葉を、予め整理されたデータベースにおいて予め設定されたカテゴリーにおけるいずれのカテゴリーに該当するかを照合する照合ステップS2、及び
照合されたカテゴリー毎の該当単語数をもって使用者の精神的な状態を確認する確認ステップS3。
以下、詳細に説明する。
本実施形態において状態確認プログラムは、図1に示すように、コンピュータ10を含む装置1により実行される。コンピュータ10は、ランダム・アクセス・メモリ(RAM)等のメモリ11、少なくとも一つの中央処理演算装置(CPU)13、記録媒体15を備える。また、キーボードやポインティングデバイス(例えば、 マウスやタッチパッド)等の1以上のユーザ・インターフェース機器(図示せず)を備える。また、インターネット等のデータ通信ネットワークにコンピュータシステムを接続するネットワーク・インタフェース(図示せず)を備える。装置1は、マイク20を備える。液晶ディスプレイ(LCD)パネル装置等のディスプレイ30に連結されて、各種情報を利用者に表示する。マイク20及びディスプレイ30は、コンピュータ10の一部を構成する部品であってもよい。
本発明においては、コンピュータとしては、いわゆるスマートフォンやタブレット端末等の携帯端末を用いることもでき、この場合、マイクやディスプレイは1部品を構成することになる。
また、オペレーティングシステムとしては、通常の32ビットまたは64ビットのものが用いられる他、一般的にコンピュータシステムに用いられる、ウェブサーバーソフトウェアやスクリプト言語モジュール等の標準的な多数のソフトウェアモジュールを含む。また、利用者や専門家の用いるコンピュータも、同様のコンピュータシステムに後述するプログラムを格納して本実施形態の運用支援装置として機能させることが必要となる。
そして、このコンピュータは、後述するプログラムが格納されていることにより、取得したデータをデータベースに照合する照合部、照合した結果を元に所定の確認を行う確認部、及び所定の情報を使用者に表示する表示部として機能する。
本発明のプログラムは、以下の各ステップを実行することで、使用者の状態を判定するものである。ここで「状態」とは、使用者の感情・精神面での状態を意味し、具体的には、感謝、喜び、好き、悲しみ、恐怖・不安・驚き、嫌い、怒り、退屈、悔やむ、心が傷つく、感動、興奮・緊張・気持ちが高ぶる・心が乱れる、安心等の状態を意味する。また、これらの状態の程度も本発明における「状態」に含まれる。本発明においては、好ましくは、感謝、喜び、好き、感動、安心等のポジティブな状態と、悲しみ、恐怖・不安・驚き、嫌い、怒り、悔やむ、心が傷つく等のネガティブな状態との2つの状態で把握する。
以下、本発明のプログラムについて、図2を参照して説明する。
音声認識ステップS1は、使用者の音声と使用者以外の者の音声とを識別して使用者の音声にかかる言葉と使用者以外の者の音声にかかる言葉とを区別して認識するステップである。
(音声の登録)
このステップにおいては、まず、使用者の音声の登録を行う。スタート画面として、ディスプレイ装置に使用に関するコマンドを表示させる。それらのコマンドから「声の登録」を選択すると、使用者に発音を促す画面を表示して、使用者に所定の音声を発音させて、かかる音声を使用者として記録媒体に格納する。
(使用時:音声の抽出)
そして、使用時においては、マイク20を常にオンにするようにコンピュータ10に指示し、マイク20から音声を常時コンピュータ10に入力するように設定する。そして、使用者の音声を音声認識モデルにより認識し、認識した使用者の音声にかかる言葉を抽出する。ここで音声認識モデルは公知の手法を特に制限なく用いることができ、たとえば音声の中は数成分を分析し、波形を切り出すことにより特徴量を把握し、音素モデルを作成し、かかる音素モデルと一致する音声を使用者の音声として把握する手法等を用いることができる。また、言葉の抽出は、予め記録媒体に格納された言語データベースに照合することにより単語に分解することにより行う。そして、抽出された使用者の音声にかかる言葉は一旦記録媒体に格納される。
(他人の音声の抽出)
ここで、他人の音声についても同様に音声の抽出を行うように設定することができる。このように設定すると、他人の発する音声も単語に分解して、他人の言葉として記録媒体に一時的に格納される。また、使用者以外に特定人を他に複数人指定して、音声の登録を行い、使用者と同様に使用することができるように設定することも可能である。そして、抽出した他人の音声にかかる言葉を後述する照合ステップや確認ステップに移行させることができる。
照合ステップS2は、認識された使用者の言葉、及び他人の言葉を抽出した場合には当該他人の言葉を、予め整理されたデータベースにおいて予め設定されたカテゴリーにおけるいずれのカテゴリーに該当するかを照合するステップである。照合ステップS2において、上記カテゴリーは、好ましくはポジティブな言葉のカテゴリーとネガティブな言葉のカテゴリーである。そして、認識された使用者の言葉又は他人の言葉が、ポジティブな言葉である場合にはポジティブなカテゴリーに該当するとし、ネガティブな言葉である場合にはネガティブなカテゴリーに該当するとして処理する。
(データベースの構築)
本ステップにおいては、照合を行う前提として、データベースの構築を行う(図2に図示せず)。データベースには、以下のカテゴリー及びサブカテゴリーに属する単語を登録する。また、言語も以下に示す日本語だけではなく、対応する外国語、たとえば英語、スペイン語、中国語、韓国語、フランス語、ドイツ語等各国の言語を登録する。
カテゴリー(2種):ポジティブ、ネガティブ
サブカテゴリー:
ポジティブなカテゴリーに属するサブカテゴリー;感謝(たとえば、ありがとう、お礼申し上げます、恐縮です。感謝の言葉もありません、おかげさまで、助かりました、痛み入ります等)、喜び(たとえば、最高、嬉しい、楽しい、幸せ、気持ちいい、スッキリ、満足、ワクワク、ラッキー等)、興味(たとえば、好き、いいね、感動、ときめく等)、及び安心(たとえば、ホッとする等)、希望(たとえば、できそう、望む、楽しみ、ワクワク等)、誇り(たとえば、誇りに思う等)、愉快(たとえば、ハッピー等)、鼓舞(たとえば、頑張れ、ファイト等)、長敬(たとえば、すごいね等)、愛(たとえば、愛してる、ラブ等)等。
ネガティブなカテゴリーに属するサブカテゴリー;悲しみ(たとえば、つらい、苦しい、悲しい、寂しい、哀れ、寂しい、惨め、がっかり、切ない等)、恐怖(たとえば、怖い、予想外、不安、心配等)、嫌い(たとえば、嫌い、憎む、嫉妬、恨む等)、怒り(たとえば、不愉快、ふざけるな等)、自責(たとえば、悔しい、悔やむ等)、圧迫(たとえば、窮屈、身がすくむ等)、侮辱(たとえば、悪口等)、欺瞞(たとえば、騙す等)、困惑(たとえば、悩む、困る等)、恥辱(たとえば、屈辱等)、憎悪(たとえば、殺す等)等。、
(単語の照合)
音声認識ステップS1において認識された使用者の言葉及び他人の言葉をデータベースに登録されている言葉と照合し、該当する言葉がある場合には、その言葉のサブカテゴリーとカテゴリーとを認識する。
特に、言葉が感謝のサブカテゴリーに属する上記照合ステップにおいて、上記カテゴリーが感謝のカテゴリーを含み、上記言葉が感謝を表す言葉である場合には上記の感謝のカテゴリーに該当するとして認識し、処理する。
この処理が完了した時点で、次の確認ステップに移行するが、音声認識ステップS1及び照合ステップS2は本プログラムを実行状態にしている間は常に実行されている。
確認ステップS3は、照合されたカテゴリー毎の該当単語数をもって使用者の精神的な状態を確認するステップである。
確認ステップS3においては、まず、照合ステップS2で得られたカテゴリー及びサブカテゴリー情報を元に、カテゴリーに属する言葉の数及びサブカテゴリーに属する言葉のの数をそれぞれカウントする。そして、所定の単位時間、たとえば、1時間、1日、1週間、1ヶ月、1年の設定に基づき、いかなるカテゴリーの言葉をどれだけの数発言しているかをディスプレイ30に表示するように指示する。たとえば、感謝のカテゴリーに属する言葉を毎日カウントするように設定し、1日で5回発言した日の場合には、「感謝の発言数 5」と表示する。また、ポジティブのカテゴリーに属する言葉を毎日カウントするように設定し、1日で30回発言した日の場合には、「ポジティブな発言数 30」と表示する。このように表示することにより、単位時間あたりどのような言葉をどれほどの数発言しているかを容易に知ることができ、使用者がどのような精神的な状態にあるかを容易に知ることができる。
(ステップS31)
また、確認ステップS3は、使用者自身のポジティブなカテゴリーに属する言葉の発言数とネガティブなカテゴリーに属する言葉の発言数とを対比することで、より詳細に使用者の精神的な状態を判定するステップS31を含むことができる。
このステップS31は、上述のカウントを実行することで、各カテゴリー及びサブカテゴリーに該当する言葉をすべてカウントすることができるので、各カテゴリー及び各サブカテゴリーのカウント数を用いて、幸福度を算出する等して、精神的な状態を判定することができる。すなわち、閾値〔(ポジティブな言葉の数(カウント数)/全カウント数)×100〕>50の場合には、幸福度高とし、50以下の場合には幸福度低とする等して判定を行うことができる。
「ポジティブな人だけがうまくいく3:1の法則」(バーバラ・フレデリクソン著、日本実業出版社刊)によると、ポジティブ感情とネガティブ感情との割合が3:1であると思考の上昇スパイラルが形成され、生き生きと成長することができるとされているが、本発明者の研究成果によると、実際に感じただけではなく、言葉として発する場合には、過半数がポジティブな言葉である場合に、幸せを感じていると判断することができることを知見している。
特に、図2には示さないが、サブカテゴリーである「感謝」に着目することが精神的な状態を判定する上で効果的であることを本発明者は知見している。かかる観点から、「感謝」のカテゴリーに属する言葉のカウント数が、ネガティブな言葉のカウント数を上回っている場合には、特に幸福度が高いと判定することが可能である。また、ネガティブな言葉のカウント数の半分の数以上のカウント数であり、且つネガティブな言葉のカウント数以下の場合には、幸福度有りと、半分の数未満の場合には幸福度低と判定することができる。たとえば、感謝に属する言葉の数が10/1日であった場合に、ネガティブな言葉の数が9/1日であれば幸福度高、19/1日であれば幸福度有り、21/1日であれば幸福度低と判断することができる。
確認ステップS3は、使用者の言葉における上記のポジティブな言葉のカテゴリーに該当する言葉の数と、使用者以外の者の言葉における上記のカテゴリーに該当する言葉の数とを用いて使用者の状態を判定するステップS32を含むことができる。
このステップS32は、上述のカウントを実行することで、各カテゴリー及びサブカテゴリーに該当する言葉をすべてカウントすることができるので、各カテゴリー及び各サブカテゴリーのカウント数を用いて、幸福度を算出する等して、精神的な状態を判定することができる。すなわち、閾値〔(使用者のポジティブな言葉の数(カウント数)/使用者及び他人のポジティブな言葉の数(カウント数))×100〕>50の場合には、幸福度高とし、50以下の場合には幸福度低とする等して判定を行うことができる。このように判定するのは、使用者がポジティブな言葉を発している場合のほうが、自己満足度が高く、他人に言われている場合に比してより幸福を感じる場合が多いことを本発明者が知見したことに起因する。
特に、図2には示さないが、サブカテゴリーである「感謝」に着目することが精神的な状態を判定する上で効果的であることを本発明者は知見しいる。したがって、かかる観点から、「感謝」のカテゴリーに属する言葉のカウント数で判定した場合に、特に幸福度を詳細に図ることが可能であるので、閾値を〔(使用者の感謝の言葉の数(カウント数)/使用者及び他人の感謝の言葉の数(カウント数))×100〕として判定を行うのが好ましい。
また、ステップS31とステップS32とは組合せることも可能である。すなわち、使用者自身のポジティブなカテゴリーに属する言葉の発言数とネガティブなカテゴリーに属する言葉の発言数とを対比すると共に、使用者の言葉における上記のポジティブな言葉のカテゴリーに該当する言葉の数と、使用者以外の者の言葉における上記のカテゴリーに該当する言葉の数とを用いて使用者の状態を判定することができる。この場合には、ステップS31とステップS32とを、いずれを先に行っても又は同時に行っても良い。更にそれぞれのステップS31及びS32において詳述した式をそれぞれプログラム中に設定して、当該式に代入する事により各ステップを実行するようにしてもよい。
そして、これらのステップが完了した場合には、ディスプレイ30に結果を表示するようにコンピュータに指示する。
本実施形態のプログラムが格納されたコンピュータを備える装置1は以下のようにして使用することができる。
すなわち、マイク20を通じて使用者及び使用者の周囲にいる他人の音声を取得し、音声認識ステップS1により使用者の音声及び他人の音声を振り分け、それぞれの音声にかかる言葉を抽出する。そして、照合ステップS2において、抽出された言葉をデータベースの言葉と照合して、それぞれ使用者と他人の別を認識した上で、カテゴリー及びサブカテゴリーのいずれに該当するかを抽出確認する。
そして、確認ステップS3において、カテゴリー及びサブカテゴリー数のカウントを行い、カウント数をディスプレイに表示すると共に、ステップS31及びステップS32を実行し、所定の閾値以上か否かを確認して、更に詳細に精神的な状態としての幸福度を判定して表示することができる。
このように、本実施形態のプログラムが格納された装置1は、音声を取得する取得部、取得した音声データをデータベースに照合する照合部、照合した結果を元に所定の判定を行う判定部、及び所定の情報を使用者に表示する表示部として機能する。
そして、本実施形態のプログラムが格納されたコンピュータを備える装置1によれば、単純な作業が中心であるため、コンピュータが迅速に処理可能であり、コンピュータへの負担が小さい。また、単純なカウント数の表示や、幸福度の高低といった使用者が簡易に理解することが可能なアウトプットを行うことが可能である。
このように、本発明のプログラムは、コンピュータやサーバー(携帯端末を含む)により、手軽に状態、特に精神の状態の判定を行うことができるので、できるだけポジティブに生活する上での指標を手軽に得ることができる。また、他人に不快感を与えず人間関係をスムーズに進行させるための活動を手軽に行うことができるという利点もあり、他人との関係をより好適なものとし、使用者自身の生活をより充実させることがかのうなものである。
たとえば、上述の例ではいわゆるパーソナルコンピュータを用いた例を示して説明したが、これに制限されず、タブレットやスマートフォン等の携帯端末をコンピュータとして用いても良い。
Claims (2)
- コンピュータ又はサーバーに格納され、コンピュータ又はサーバーに、
使用者の音声と使用者以外の者の音声とを識別して使用者の音声にかかる言葉と使用者以外の者の音声にかかる言葉とを区別して認識する音声認識ステップ、
認識された使用者の言葉を、予め整理されたデータベースにおいて予め設定されたカテゴリーにおけるいずれのカテゴリーに該当するかを照合する照合ステップ、及び
照合されたカテゴリー毎の該当単語数をもって使用者の精神的な状態を確認する確認ステップを実行させるプログラムであって、
上記照合ステップにおいて、上記カテゴリーがポジティブな言葉のカテゴリーを含み、上記言葉がポジティブな言葉である場合には上記のカテゴリーに該当するとして処理し、
上記確認ステップが、使用者の言葉における上記のポジティブな言葉のカテゴリーに該当する言葉の数と、ネガティブな言葉のカテゴリーに該当する言葉の数とを用いて使用者の状態を判定するステップであって、
上記のポジティブな言葉のカテゴリーに属する言葉のうち感謝のカテゴリーに属する言葉のカウント数が、ネガティブな言葉のカウント数を上回っている場合には、特に幸福度が高いと判定し、ネガティブな言葉のカウント数の半分の数以上のカウント数であり、且つネガティブな言葉のカウント数以下の場合には、幸福度有りと判定し、ネガティブな言葉のカウント数の半分の数未満の場合には幸福度低と判定するステップである
状態確認プログラム。 - 上記確認ステップが、使用者の言葉における上記のポジティブな言葉のカテゴリーに該当する言葉の数と、使用者以外の者の言葉における上記のカテゴリーに該当する言葉の数とを用いて、閾値=〔(使用者の感謝の言葉の数(カウント数)/使用者及び他人の感謝の言葉の数(カウント数))×100〕の式に当てはめて、閾値>50の場合には、幸福度高とし、50以下の場合には幸福度低とすることで使用者の状態を判定するステップを含む、請求項1記載の状態確認プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020012283A JP6884952B1 (ja) | 2020-01-29 | 2020-01-29 | 状態確認プログラム |
PCT/JP2021/002811 WO2021153605A1 (ja) | 2020-01-29 | 2021-01-27 | 状態確認プログラム |
CN202180011690.9A CN115023696A (zh) | 2020-01-29 | 2021-01-27 | 一种状态确认程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020012283A JP6884952B1 (ja) | 2020-01-29 | 2020-01-29 | 状態確認プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6884952B1 true JP6884952B1 (ja) | 2021-06-09 |
JP2021117870A JP2021117870A (ja) | 2021-08-10 |
Family
ID=76218223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020012283A Active JP6884952B1 (ja) | 2020-01-29 | 2020-01-29 | 状態確認プログラム |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6884952B1 (ja) |
CN (1) | CN115023696A (ja) |
WO (1) | WO2021153605A1 (ja) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004021121A (ja) * | 2002-06-19 | 2004-01-22 | Nec Corp | 音声対話制御装置 |
US9742913B2 (en) * | 2014-03-31 | 2017-08-22 | Genesys Telecommunications Laboratories, Inc. | Recording user communications |
JP2016092582A (ja) * | 2014-11-04 | 2016-05-23 | 株式会社東芝 | コールセンター支援システム、及び支援方法 |
WO2016178327A1 (ja) * | 2015-05-01 | 2016-11-10 | ソニー株式会社 | 情報処理システム、通信デバイス、制御方法、および記憶媒体 |
JP6576141B2 (ja) * | 2015-07-28 | 2019-09-18 | Kddi株式会社 | 特性語によってグループ状態を推定可能なプログラム |
JP2018041120A (ja) * | 2016-09-05 | 2018-03-15 | 富士通株式会社 | 業務評価方法、業務評価装置および業務評価プログラム |
JP6675527B2 (ja) * | 2017-06-26 | 2020-04-01 | Fairy Devices株式会社 | 音声入出力装置 |
-
2020
- 2020-01-29 JP JP2020012283A patent/JP6884952B1/ja active Active
-
2021
- 2021-01-27 CN CN202180011690.9A patent/CN115023696A/zh active Pending
- 2021-01-27 WO PCT/JP2021/002811 patent/WO2021153605A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN115023696A (zh) | 2022-09-06 |
WO2021153605A1 (ja) | 2021-08-05 |
JP2021117870A (ja) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dressler et al. | Sociophonological methods in the study of sociolinguistic variation in Viennese German | |
Pittam | Voice in social interaction | |
AU2009299102B2 (en) | Measuring cognitive load | |
Marchi et al. | Emotion in the speech of children with autism spectrum conditions: Prosody and everything else | |
CN111300443B (zh) | 基于法律咨询机器人的情绪安抚方法 | |
US20190279656A1 (en) | Information presentation apparatus, information presentation method, and non-transitory computer readable medium | |
Wang et al. | Depression speech recognition with a three-dimensional convolutional network | |
CN108806686B (zh) | 一种语音搜题应用的启动控制方法及家教设备 | |
Patel et al. | Vocal behavior | |
Zimman | 11 Sociolinguistic Agency and the Gendered Voice: Metalinguistic Negotiations of Vocal Masculinization among Female-to-Male Transgender Speakers | |
JP4451038B2 (ja) | 助言システム及び助言方法 | |
JP2018200650A (ja) | 言語情報分析装置および方法 | |
JP6884952B1 (ja) | 状態確認プログラム | |
JP7369110B2 (ja) | 会話支援装置、会話支援システム、会話支援方法およびプログラム | |
Breuer | Qualitative methods in the study of biographies, interactions and everyday life contexts: The development of a research style | |
Klasmeyer et al. | Emotional voice variability in speaker verification | |
Gryzhak | Evaluative Adjectives In The Portrayal Of Victorian Women | |
Tanner | Redefining wernicke's area: Receptive language and discourse semantics | |
JP2012252181A (ja) | 文章認識能力評価システム、文章認識能力評価プログラム、文章認識能力評価プログラムが記憶された記憶媒体及び文章認識能力評価方法 | |
Richardson et al. | Story grammar analysis in persons with aphasia | |
Drożdżowicz | What Do We Experience When Listening to a Familiar Language? | |
Zablotskay et al. | Conversation peculiarities of people with different verbal intelligence | |
Danieli et al. | Annotation of Complex Emotions in Real-Life Dialogues: The Case of Empathy | |
Shaikh et al. | DEIXIS IN TRUMP’S FINAL REMARKS AS PRESIDENT | |
Cannizzaro et al. | Speech content analysis in feigned depression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200708 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200708 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200714 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200812 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210406 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210414 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6884952 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |