JP6884952B1 - 状態確認プログラム - Google Patents

状態確認プログラム Download PDF

Info

Publication number
JP6884952B1
JP6884952B1 JP2020012283A JP2020012283A JP6884952B1 JP 6884952 B1 JP6884952 B1 JP 6884952B1 JP 2020012283 A JP2020012283 A JP 2020012283A JP 2020012283 A JP2020012283 A JP 2020012283A JP 6884952 B1 JP6884952 B1 JP 6884952B1
Authority
JP
Japan
Prior art keywords
words
user
category
voice
count
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020012283A
Other languages
English (en)
Other versions
JP2021117870A (ja
Inventor
武蔵原一人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CREDEAL CO., LTD.
Original Assignee
CREDEAL CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CREDEAL CO., LTD. filed Critical CREDEAL CO., LTD.
Priority to JP2020012283A priority Critical patent/JP6884952B1/ja
Priority to PCT/JP2021/002811 priority patent/WO2021153605A1/ja
Priority to CN202180011690.9A priority patent/CN115023696A/zh
Application granted granted Critical
Publication of JP6884952B1 publication Critical patent/JP6884952B1/ja
Publication of JP2021117870A publication Critical patent/JP2021117870A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/65Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Hospice & Palliative Care (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Educational Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Developmental Disabilities (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】迅速に処理可能で、コンピュータへの負担が小さく、使用者が簡易に理解することが可能なアウトプットを行うことが可能な、状態確認プログラムを提供する。【解決手段】状態確認プログラムは、使用者の音声と使用者以外の者の音声とを識別して使用者の音声にかかる言葉と使用者以外の者の音声にかかる言葉とを区別して認識する音声認識ステップS1と、認識された使用者の言葉を、予め整理されたデータベースにおいて予め設定されたカテゴリーにおけるいずれのカテゴリーに該当するかを照合する照合ステップS2と、照合されたカテゴリー毎の該当単語数をもって使用者の精神的な状態を確認する確認ステップS3と、を備える。【選択図】図2

Description

本発明は、使用者の精神的な状態を把握するためのプログラムに関し、更に詳細には、簡易に日々の使用者の精神的な状態を把握することができる状態確認プログラムに関するものである。
人の精神状態を把握しておくことは、精神衛生上重要であるほか、円滑なコミュニケーションの観点、健全な社会の形成の観点からも重要である。近年、IT技術の進歩に伴い、人の精神的な状態を機械的に把握する試みが多数提案されている。
たとえば、特許文献1には、特定個人用の感情推定装置の推定精度が向上された感情推定装置が提供されている。具体的には、感情推定装置は、音声データを取得する取得部と、取得した音声データの音声データ解析を実施する音声データ解析部と、音声データ解析に基づき音声データの特徴を抽出する特徴抽出部と、抽出された特徴を、特定の抽出区間ごとに複数のパターンに分類し、その出現頻度を解析する頻度解析部と、分類したパターンの出現頻度が閾値以上と判別された音声データに対して、発話時の感情状態が平静状態であることを示すニュートラルのラベルを付与する第1ラベル付与部と、を備える。また、感情推定装置は、ニュートラルのラベルが付与された音声データを教師データに追加した特定個人用の教師データに基づいて、感情推定器を特定個人の発話時の感情状態を推定する感情推定器として個人適応させる感情推定器適応処理部を備える。
また、特許文献2には、ユーザーとの間で音声による円滑なコミュニケーションを実現することのできる情報処理装置が提案されている。具体的には、複数の選択肢をユーザーに提示し、当該複数の選択肢のいずれかを選択するユーザーの発話内容を認識し、認識されるユーザーの発話内容に含まれる語句が、予め用意された複数の選択肢のそれぞれに対応する辞書に含まれる語句と対応するか否かに基づいて、ユーザーが選択した選択肢を特定する情報処理装置である。
特許文献3には、「ときめき」感情を測定するための技術が提供されている。具体的には、データベースを有する情報処理装置を用いて、「ときめき」感情を評価する方法は、予め定められた感情を示す語句である感情語がそれぞれ分類されている5以上の感情因子についての回答者の状態を示す数値データである負荷前因子得点を取得し、負荷前因子得点を取得した後に、前記回答者の状態を変化させる要因である心理負荷を与えられた回答者の状態を示す数値データである負荷後因子得点を取得し、負荷前因子得点と負荷後因子得点とを用いて、心理負荷前と心理負荷後における、回答者の状態の変化を示す数値データである得点変化量を取得し、データベースに予め記憶されている、得点変化量に応じて「ときめき」感情の変化を評価する評価モデル、を用いて、心理負荷によって生じる「ときめき」感情を評価する、というものである。
特開2017-138509号公報 WO2017/175351号公報 特開2019-185173号公報
しかしながら、上述の各提案は、未だに多数の工程を経なければ精神的な状態の判定ができないものであり、処理に時間がかかる、コンピュータへの負担が大きい等の問題があった。また、得られる結果も複雑な判定を行うものであるため、心理学や精神医学にあまり詳しくない一般の使用者が容易に理解することができないものであるという問題があった。
したがって、本発明の目的は、迅速に処理可能で、コンピュータへの負担が小さく、使用者が簡易に理解することが可能なアウトプットを行うことが可能な、状態確認プログラムを提供することにある。
本発明者らは、上記課題を解消すべく鋭意検討した結果、言葉のカテゴリー分けが重要であり、各カテゴリーに属する言葉を認識させて、カウントすることにより上記目的を達成し得ることを知見し、本発明を完成するに至った。
すなわち、本発明は以下の各発明を提供するものである。
1.コンピュータ又はサーバーに格納され、コンピュータ又はサーバーに、
使用者の音声と使用者以外の者の音声とを識別して使用者の音声にかかる言葉と使用者以外の者の音声にかかる言葉とを区別して認識する音声認識ステップ、
認識された使用者の言葉を、予め整理されたデータベースにおいて予め設定されたカテゴリーにおけるいずれのカテゴリーに該当するかを照合する照合ステップ、及び
照合されたカテゴリー毎の該当単語数をもって使用者の精神的な状態を確認する確認ステップを実行させる状態確認プログラム。
2.上記照合ステップにおいて、上記カテゴリーがポジティブな言葉のカテゴリーを含み、上記言葉がポジティブな言葉である場合には上記のカテゴリーに該当するとして処理する
1記載の状態確認プログラム。
3.上記確認ステップが、使用者の言葉における上記のポジティブな言葉のカテゴリーに該当する言葉の数と、使用者以外の者の言葉における上記のカテゴリーに該当する言葉の数とを用いて使用者の状態を判定するステップを含む、2記載の状態確認プログラム。
4.上記確認ステップが、使用者の言葉における上記のポジティブな言葉のカテゴリーに該当する言葉の数と、ネガティブな言葉のカテゴリーに該当する言葉の数とを用いて使用者の状態を判定する2記載の状態確認プログラム。
本発明の状態確認プログラムは、迅速に処理可能で、コンピュータへの負担が小さく、使用者が簡易に理解することが可能なアウトプットを行うことが可能なものである。
図1は、本発明の状態確認プログラムを具備する装置の全体構成を示す模式図である。 図2は、本発明の状態確認プログラムの1実施形態を示すフローシートである。
1装置;10;11メモリ;13中央処理演算装置(CPU);15記録媒体;;20マイク;30ディスプレイ
以下、本発明を更に詳細に説明するが、本発明は以下の説明に制限されるものではない。
本発明の状態確認プログラムは、コンピュータ又はサーバーに格納され、コンピュータ又はサーバーに、以下の各ステップを実行させるものである。
使用者の音声と使用者以外の者の音声とを識別して使用者の音声にかかる言葉と使用者以外の者の音声にかかる言葉とを区別して認識する音声認識ステップS1、
認識された使用者の言葉を、予め整理されたデータベースにおいて予め設定されたカテゴリーにおけるいずれのカテゴリーに該当するかを照合する照合ステップS2、及び
照合されたカテゴリー毎の該当単語数をもって使用者の精神的な状態を確認する確認ステップS3。
以下、詳細に説明する。
<コンピュータ>
本実施形態において状態確認プログラムは、図1に示すように、コンピュータ10を含む装置1により実行される。コンピュータ10は、ランダム・アクセス・メモリ(RAM)等のメモリ11、少なくとも一つの中央処理演算装置(CPU)13、記録媒体15を備える。また、キーボードやポインティングデバイス(例えば、 マウスやタッチパッド)等の1以上のユーザ・インターフェース機器(図示せず)を備える。また、インターネット等のデータ通信ネットワークにコンピュータシステムを接続するネットワーク・インタフェース(図示せず)を備える。装置1は、マイク20を備える。液晶ディスプレイ(LCD)パネル装置等のディスプレイ30に連結されて、各種情報を利用者に表示する。マイク20及びディスプレイ30は、コンピュータ10の一部を構成する部品であってもよい。
本発明においては、コンピュータとしては、いわゆるスマートフォンやタブレット端末等の携帯端末を用いることもでき、この場合、マイクやディスプレイは1部品を構成することになる。
また、オペレーティングシステムとしては、通常の32ビットまたは64ビットのものが用いられる他、一般的にコンピュータシステムに用いられる、ウェブサーバーソフトウェアやスクリプト言語モジュール等の標準的な多数のソフトウェアモジュールを含む。また、利用者や専門家の用いるコンピュータも、同様のコンピュータシステムに後述するプログラムを格納して本実施形態の運用支援装置として機能させることが必要となる。
そして、このコンピュータは、後述するプログラムが格納されていることにより、取得したデータをデータベースに照合する照合部、照合した結果を元に所定の確認を行う確認部、及び所定の情報を使用者に表示する表示部として機能する。
〔プログラム〕
本発明のプログラムは、以下の各ステップを実行することで、使用者の状態を判定するものである。ここで「状態」とは、使用者の感情・精神面での状態を意味し、具体的には、感謝、喜び、好き、悲しみ、恐怖・不安・驚き、嫌い、怒り、退屈、悔やむ、心が傷つく、感動、興奮・緊張・気持ちが高ぶる・心が乱れる、安心等の状態を意味する。また、これらの状態の程度も本発明における「状態」に含まれる。本発明においては、好ましくは、感謝、喜び、好き、感動、安心等のポジティブな状態と、悲しみ、恐怖・不安・驚き、嫌い、怒り、悔やむ、心が傷つく等のネガティブな状態との2つの状態で把握する。
以下、本発明のプログラムについて、図2を参照して説明する。
〔音声認識ステップS1〕
音声認識ステップS1は、使用者の音声と使用者以外の者の音声とを識別して使用者の音声にかかる言葉と使用者以外の者の音声にかかる言葉とを区別して認識するステップである。
(音声の登録)
このステップにおいては、まず、使用者の音声の登録を行う。スタート画面として、ディスプレイ装置に使用に関するコマンドを表示させる。それらのコマンドから「声の登録」を選択すると、使用者に発音を促す画面を表示して、使用者に所定の音声を発音させて、かかる音声を使用者として記録媒体に格納する。
(使用時:音声の抽出)
そして、使用時においては、マイク20を常にオンにするようにコンピュータ10に指示し、マイク20から音声を常時コンピュータ10に入力するように設定する。そして、使用者の音声を音声認識モデルにより認識し、認識した使用者の音声にかかる言葉を抽出する。ここで音声認識モデルは公知の手法を特に制限なく用いることができ、たとえば音声の中は数成分を分析し、波形を切り出すことにより特徴量を把握し、音素モデルを作成し、かかる音素モデルと一致する音声を使用者の音声として把握する手法等を用いることができる。また、言葉の抽出は、予め記録媒体に格納された言語データベースに照合することにより単語に分解することにより行う。そして、抽出された使用者の音声にかかる言葉は一旦記録媒体に格納される。
(他人の音声の抽出)
ここで、他人の音声についても同様に音声の抽出を行うように設定することができる。このように設定すると、他人の発する音声も単語に分解して、他人の言葉として記録媒体に一時的に格納される。また、使用者以外に特定人を他に複数人指定して、音声の登録を行い、使用者と同様に使用することができるように設定することも可能である。そして、抽出した他人の音声にかかる言葉を後述する照合ステップや確認ステップに移行させることができる。
〔照合ステップS2〕
照合ステップS2は、認識された使用者の言葉、及び他人の言葉を抽出した場合には当該他人の言葉を、予め整理されたデータベースにおいて予め設定されたカテゴリーにおけるいずれのカテゴリーに該当するかを照合するステップである。照合ステップS2において、上記カテゴリーは、好ましくはポジティブな言葉のカテゴリーとネガティブな言葉のカテゴリーである。そして、認識された使用者の言葉又は他人の言葉が、ポジティブな言葉である場合にはポジティブなカテゴリーに該当するとし、ネガティブな言葉である場合にはネガティブなカテゴリーに該当するとして処理する。
(データベースの構築)
本ステップにおいては、照合を行う前提として、データベースの構築を行う(図2に図示せず)。データベースには、以下のカテゴリー及びサブカテゴリーに属する単語を登録する。また、言語も以下に示す日本語だけではなく、対応する外国語、たとえば英語、スペイン語、中国語、韓国語、フランス語、ドイツ語等各国の言語を登録する。
カテゴリー(2種):ポジティブ、ネガティブ
サブカテゴリー:
ポジティブなカテゴリーに属するサブカテゴリー;感謝(たとえば、ありがとう、お礼申し上げます、恐縮です。感謝の言葉もありません、おかげさまで、助かりました、痛み入ります等)、喜び(たとえば、最高、嬉しい、楽しい、幸せ、気持ちいい、スッキリ、満足、ワクワク、ラッキー等)、興味(たとえば、好き、いいね、感動、ときめく等)、及び安心(たとえば、ホッとする等)、希望(たとえば、できそう、望む、楽しみ、ワクワク等)、誇り(たとえば、誇りに思う等)、愉快(たとえば、ハッピー等)、鼓舞(たとえば、頑張れ、ファイト等)、長敬(たとえば、すごいね等)、愛(たとえば、愛してる、ラブ等)等。
ネガティブなカテゴリーに属するサブカテゴリー;悲しみ(たとえば、つらい、苦しい、悲しい、寂しい、哀れ、寂しい、惨め、がっかり、切ない等)、恐怖(たとえば、怖い、予想外、不安、心配等)、嫌い(たとえば、嫌い、憎む、嫉妬、恨む等)、怒り(たとえば、不愉快、ふざけるな等)、自責(たとえば、悔しい、悔やむ等)、圧迫(たとえば、窮屈、身がすくむ等)、侮辱(たとえば、悪口等)、欺瞞(たとえば、騙す等)、困惑(たとえば、悩む、困る等)、恥辱(たとえば、屈辱等)、憎悪(たとえば、殺す等)等。、
(単語の照合)
音声認識ステップS1において認識された使用者の言葉及び他人の言葉をデータベースに登録されている言葉と照合し、該当する言葉がある場合には、その言葉のサブカテゴリーとカテゴリーとを認識する。
特に、言葉が感謝のサブカテゴリーに属する上記照合ステップにおいて、上記カテゴリーが感謝のカテゴリーを含み、上記言葉が感謝を表す言葉である場合には上記の感謝のカテゴリーに該当するとして認識し、処理する。
この処理が完了した時点で、次の確認ステップに移行するが、音声認識ステップS1及び照合ステップS2は本プログラムを実行状態にしている間は常に実行されている。
〔確認ステップS3〕
確認ステップS3は、照合されたカテゴリー毎の該当単語数をもって使用者の精神的な状態を確認するステップである。
確認ステップS3においては、まず、照合ステップS2で得られたカテゴリー及びサブカテゴリー情報を元に、カテゴリーに属する言葉の数及びサブカテゴリーに属する言葉のの数をそれぞれカウントする。そして、所定の単位時間、たとえば、1時間、1日、1週間、1ヶ月、1年の設定に基づき、いかなるカテゴリーの言葉をどれだけの数発言しているかをディスプレイ30に表示するように指示する。たとえば、感謝のカテゴリーに属する言葉を毎日カウントするように設定し、1日で5回発言した日の場合には、「感謝の発言数 5」と表示する。また、ポジティブのカテゴリーに属する言葉を毎日カウントするように設定し、1日で30回発言した日の場合には、「ポジティブな発言数 30」と表示する。このように表示することにより、単位時間あたりどのような言葉をどれほどの数発言しているかを容易に知ることができ、使用者がどのような精神的な状態にあるかを容易に知ることができる。
(ステップS31)
また、確認ステップS3は、使用者自身のポジティブなカテゴリーに属する言葉の発言数とネガティブなカテゴリーに属する言葉の発言数とを対比することで、より詳細に使用者の精神的な状態を判定するステップS31を含むことができる。
このステップS31は、上述のカウントを実行することで、各カテゴリー及びサブカテゴリーに該当する言葉をすべてカウントすることができるので、各カテゴリー及び各サブカテゴリーのカウント数を用いて、幸福度を算出する等して、精神的な状態を判定することができる。すなわち、閾値〔(ポジティブな言葉の数(カウント数)/全カウント数)×100〕>50の場合には、幸福度高とし、50以下の場合には幸福度低とする等して判定を行うことができる。
「ポジティブな人だけがうまくいく3:1の法則」(バーバラ・フレデリクソン著、日本実業出版社刊)によると、ポジティブ感情とネガティブ感情との割合が3:1であると思考の上昇スパイラルが形成され、生き生きと成長することができるとされているが、本発明者の研究成果によると、実際に感じただけではなく、言葉として発する場合には、過半数がポジティブな言葉である場合に、幸せを感じていると判断することができることを知見している。
特に、図2には示さないが、サブカテゴリーである「感謝」に着目することが精神的な状態を判定する上で効果的であることを本発明者は知見している。かかる観点から、「感謝」のカテゴリーに属する言葉のカウント数が、ネガティブな言葉のカウント数を上回っている場合には、特に幸福度が高いと判定することが可能である。また、ネガティブな言葉のカウント数の半分の数以上のカウント数であり、且つネガティブな言葉のカウント数以下の場合には、幸福度有りと、半分の数未満の場合には幸福度低と判定することができる。たとえば、感謝に属する言葉の数が10/1日であった場合に、ネガティブな言葉の数が9/1日であれば幸福度高、19/1日であれば幸福度有り、21/1日であれば幸福度低と判断することができる。
(ステップS32)
確認ステップS3は、使用者の言葉における上記のポジティブな言葉のカテゴリーに該当する言葉の数と、使用者以外の者の言葉における上記のカテゴリーに該当する言葉の数とを用いて使用者の状態を判定するステップS32を含むことができる。
このステップS32は、上述のカウントを実行することで、各カテゴリー及びサブカテゴリーに該当する言葉をすべてカウントすることができるので、各カテゴリー及び各サブカテゴリーのカウント数を用いて、幸福度を算出する等して、精神的な状態を判定することができる。すなわち、閾値〔(使用者のポジティブな言葉の数(カウント数)/使用者及び他人のポジティブな言葉の数(カウント数))×100〕>50の場合には、幸福度高とし、50以下の場合には幸福度低とする等して判定を行うことができる。このように判定するのは、使用者がポジティブな言葉を発している場合のほうが、自己満足度が高く、他人に言われている場合に比してより幸福を感じる場合が多いことを本発明者が知見したことに起因する。
特に、図2には示さないが、サブカテゴリーである「感謝」に着目することが精神的な状態を判定する上で効果的であることを本発明者は知見しいる。したがって、かかる観点から、「感謝」のカテゴリーに属する言葉のカウント数で判定した場合に、特に幸福度を詳細に図ることが可能であるので、閾値を〔(使用者の感謝の言葉の数(カウント数)/使用者及び他人の感謝の言葉の数(カウント数))×100〕として判定を行うのが好ましい。
また、ステップS31とステップS32とは組合せることも可能である。すなわち、使用者自身のポジティブなカテゴリーに属する言葉の発言数とネガティブなカテゴリーに属する言葉の発言数とを対比すると共に、使用者の言葉における上記のポジティブな言葉のカテゴリーに該当する言葉の数と、使用者以外の者の言葉における上記のカテゴリーに該当する言葉の数とを用いて使用者の状態を判定することができる。この場合には、ステップS31とステップS32とを、いずれを先に行っても又は同時に行っても良い。更にそれぞれのステップS31及びS32において詳述した式をそれぞれプログラム中に設定して、当該式に代入する事により各ステップを実行するようにしてもよい。
そして、これらのステップが完了した場合には、ディスプレイ30に結果を表示するようにコンピュータに指示する。
〔使用例及び作用効果〕
本実施形態のプログラムが格納されたコンピュータを備える装置1は以下のようにして使用することができる。
すなわち、マイク20を通じて使用者及び使用者の周囲にいる他人の音声を取得し、音声認識ステップS1により使用者の音声及び他人の音声を振り分け、それぞれの音声にかかる言葉を抽出する。そして、照合ステップS2において、抽出された言葉をデータベースの言葉と照合して、それぞれ使用者と他人の別を認識した上で、カテゴリー及びサブカテゴリーのいずれに該当するかを抽出確認する。
そして、確認ステップS3において、カテゴリー及びサブカテゴリー数のカウントを行い、カウント数をディスプレイに表示すると共に、ステップS31及びステップS32を実行し、所定の閾値以上か否かを確認して、更に詳細に精神的な状態としての幸福度を判定して表示することができる。
このように、本実施形態のプログラムが格納された装置1は、音声を取得する取得部、取得した音声データをデータベースに照合する照合部、照合した結果を元に所定の判定を行う判定部、及び所定の情報を使用者に表示する表示部として機能する。
そして、本実施形態のプログラムが格納されたコンピュータを備える装置1によれば、単純な作業が中心であるため、コンピュータが迅速に処理可能であり、コンピュータへの負担が小さい。また、単純なカウント数の表示や、幸福度の高低といった使用者が簡易に理解することが可能なアウトプットを行うことが可能である。
このように、本発明のプログラムは、コンピュータやサーバー(携帯端末を含む)により、手軽に状態、特に精神の状態の判定を行うことができるので、できるだけポジティブに生活する上での指標を手軽に得ることができる。また、他人に不快感を与えず人間関係をスムーズに進行させるための活動を手軽に行うことができるという利点もあり、他人との関係をより好適なものとし、使用者自身の生活をより充実させることがかのうなものである。
なお、本発明は上述の実施形態に何ら制限されるものではなく、本発明の趣旨を逸脱しない範囲で種々変更可能である。
たとえば、上述の例ではいわゆるパーソナルコンピュータを用いた例を示して説明したが、これに制限されず、タブレットやスマートフォン等の携帯端末をコンピュータとして用いても良い。

Claims (2)

  1. コンピュータ又はサーバーに格納され、コンピュータ又はサーバーに、
    使用者の音声と使用者以外の者の音声とを識別して使用者の音声にかかる言葉と使用者以外の者の音声にかかる言葉とを区別して認識する音声認識ステップ、
    認識された使用者の言葉を、予め整理されたデータベースにおいて予め設定されたカテゴリーにおけるいずれのカテゴリーに該当するかを照合する照合ステップ、及び
    照合されたカテゴリー毎の該当単語数をもって使用者の精神的な状態を確認する確認ステップを実行させるプログラムであって、
    上記照合ステップにおいて、上記カテゴリーがポジティブな言葉のカテゴリーを含み、上記言葉がポジティブな言葉である場合には上記のカテゴリーに該当するとして処理し、
    上記確認ステップが、使用者の言葉における上記のポジティブな言葉のカテゴリーに該当する言葉の数と、ネガティブな言葉のカテゴリーに該当する言葉の数とを用いて使用者の状態を判定するステップであって、
    上記のポジティブな言葉のカテゴリーに属する言葉のうち感謝のカテゴリーに属する言葉のカウント数が、ネガティブな言葉のカウント数を上回っている場合には、特に幸福度が高いと判定し、ネガティブな言葉のカウント数の半分の数以上のカウント数であり、且つネガティブな言葉のカウント数以下の場合には、幸福度有りと判定し、ネガティブな言葉のカウント数の半分の数未満の場合には幸福度低と判定するステップである
    状態確認プログラム。
  2. 上記確認ステップが、使用者の言葉における上記のポジティブな言葉のカテゴリーに該当する言葉の数と、使用者以外の者の言葉における上記のカテゴリーに該当する言葉の数とを用いて、閾値=〔(使用者の感謝の言葉の数(カウント数)/使用者及び他人の感謝の言葉の数(カウント数))×100〕の式に当てはめて、閾値>50の場合には、幸福度高とし、50以下の場合には幸福度低とすることで使用者の状態を判定するステップを含む、請求項記載の状態確認プログラム。

JP2020012283A 2020-01-29 2020-01-29 状態確認プログラム Active JP6884952B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020012283A JP6884952B1 (ja) 2020-01-29 2020-01-29 状態確認プログラム
PCT/JP2021/002811 WO2021153605A1 (ja) 2020-01-29 2021-01-27 状態確認プログラム
CN202180011690.9A CN115023696A (zh) 2020-01-29 2021-01-27 一种状态确认程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020012283A JP6884952B1 (ja) 2020-01-29 2020-01-29 状態確認プログラム

Publications (2)

Publication Number Publication Date
JP6884952B1 true JP6884952B1 (ja) 2021-06-09
JP2021117870A JP2021117870A (ja) 2021-08-10

Family

ID=76218223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020012283A Active JP6884952B1 (ja) 2020-01-29 2020-01-29 状態確認プログラム

Country Status (3)

Country Link
JP (1) JP6884952B1 (ja)
CN (1) CN115023696A (ja)
WO (1) WO2021153605A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021121A (ja) * 2002-06-19 2004-01-22 Nec Corp 音声対話制御装置
US9742913B2 (en) * 2014-03-31 2017-08-22 Genesys Telecommunications Laboratories, Inc. Recording user communications
JP2016092582A (ja) * 2014-11-04 2016-05-23 株式会社東芝 コールセンター支援システム、及び支援方法
CN107533735B (zh) * 2015-05-01 2022-06-07 索尼公司 信息处理系统、通信装置、控制方法和存储介质
JP6576141B2 (ja) * 2015-07-28 2019-09-18 Kddi株式会社 特性語によってグループ状態を推定可能なプログラム
JP2018041120A (ja) * 2016-09-05 2018-03-15 富士通株式会社 業務評価方法、業務評価装置および業務評価プログラム
JP6675527B2 (ja) * 2017-06-26 2020-04-01 Fairy Devices株式会社 音声入出力装置

Also Published As

Publication number Publication date
JP2021117870A (ja) 2021-08-10
WO2021153605A1 (ja) 2021-08-05
CN115023696A (zh) 2022-09-06

Similar Documents

Publication Publication Date Title
Dressler et al. Sociophonological methods in the study of sociolinguistic variation in Viennese German
Hellbernd et al. Prosody conveys speaker’s intentions: Acoustic cues for speech act perception
Pittam Voice in social interaction
AU2009299102B2 (en) Measuring cognitive load
Marchi et al. Emotion in the speech of children with autism spectrum conditions: Prosody and everything else
US20190279656A1 (en) Information presentation apparatus, information presentation method, and non-transitory computer readable medium
CN108806686B (zh) 一种语音搜题应用的启动控制方法及家教设备
CN111300443B (zh) 基于法律咨询机器人的情绪安抚方法
Wang et al. Depression speech recognition with a three-dimensional convolutional network
Patel et al. Vocal behavior
Zimman 11 Sociolinguistic Agency and the Gendered Voice: Metalinguistic Negotiations of Vocal Masculinization among Female-to-Male Transgender Speakers
JP2018200650A (ja) 言語情報分析装置および方法
JP6884952B1 (ja) 状態確認プログラム
JP4451038B2 (ja) 助言システム及び助言方法
Breuer Qualitative methods in the study of biographies, interactions and everyday life contexts: The development of a research style
Klasmeyer et al. Emotional voice variability in speaker verification
JP7369110B2 (ja) 会話支援装置、会話支援システム、会話支援方法およびプログラム
Tanner Redefining wernicke's area: Receptive language and discourse semantics
Gryzhak Evaluative Adjectives In The Portrayal Of Victorian Women
JP2012252181A (ja) 文章認識能力評価システム、文章認識能力評価プログラム、文章認識能力評価プログラムが記憶された記憶媒体及び文章認識能力評価方法
Richardson et al. Story grammar analysis in persons with aphasia
Drożdżowicz What Do We Experience When Listening to a Familiar Language?
Danieli et al. Annotation of Complex Emotions in Real-Life Dialogues: The Case of Empathy
Shaikh et al. DEIXIS IN TRUMP’S FINAL REMARKS AS PRESIDENT
Cannizzaro et al. Speech content analysis in feigned depression

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200708

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200714

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210414

R150 Certificate of patent or registration of utility model

Ref document number: 6884952

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150