JP2010134937A - 状況認知装置およびこれを用いた状況認知方法 - Google Patents

状況認知装置およびこれを用いた状況認知方法

Info

Publication number
JP2010134937A
JP2010134937A JP2009278770A JP2009278770A JP2010134937A JP 2010134937 A JP2010134937 A JP 2010134937A JP 2009278770 A JP2009278770 A JP 2009278770A JP 2009278770 A JP2009278770 A JP 2009278770A JP 2010134937 A JP2010134937 A JP 2010134937A
Authority
JP
Japan
Prior art keywords
recognition
user
unit
situation
recognizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009278770A
Other languages
English (en)
Inventor
Yongju Jung
ヨンジュ ジョン
Munsung Han
ムンスン ハン
Dongwan Ryoo
ドンワン リュ
Changseok Bae
チャンソク ペ
Jin Tae Kim
ジンテ キム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020090104128A external-priority patent/KR101329100B1/ko
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2010134937A publication Critical patent/JP2010134937A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本発明は、ユーザの感情状態を認知する状況認知装置および状況認知方法を提供する。
【解決手段】状況認知装置は、音声信号に基づいてユーザの感情状態を認識する音声基盤認識部、動きに基づいて前記ユーザの感情状態を認識する動き基盤認識部、前記ユーザが属している場所を認識する位置認識部、および前記音声基盤認識部、前記動き基盤認識部、および前記位置認識部の認識結果を分析して前記ユーザの状況を認知する融合認識部を備える。よって、ユーザに発生した事故や危険状況などを迅速で正確に認識することができる。
【選択図】図1

Description

本発明は状況認知装置およびこれを用いた状況認知方法に関し、状況認知技術(context awareness technology)、特に多重センサの測定結果を融合してユーザの感情状態を認識する技術に関する。
状況認知技術(context awareness technology)は、通信およびコンピューティング能力を持ち、周辺状況を認識し判断して人間に有用な情報を提供するための技術である。状況認知に用いられる状況情報は、ユーザが相互作用をする時点に利用できる全ての情報であって、ヒト、オブジェクトの位置および活動状態などを含む。このような状況情報の収集および交換によって周辺状況を認知し、解釈および推論のような処理過程を経てユーザに特定状況に適切なサービスを提供できる状況認知技術は、特にユビキタス環境と共に医療、教育、災難、救助、およびショッピングなど、社会の全分野にかけて多くの影響を与える技術として期待を集めている。実際、今日の多くの応用技術のための状況認知技術が開発されており、これを実際システムに適用するための多くの研究が行われている。
状況認知技術を実際システムに適用するためには、先ず、状況に対する明確な定義が先行しなければならず、状況に必要な技術構造に対する理解が必要である。すなわち、状況認知技術は状況の定義に応じて全く異なる様々な技術分野に適用され得るし、適切な状況認識のために全く異なる様々な技術が用いられ得る。
最近、相当な成果をあげた状況認知技術は、状況を「位置」と定義し、ユーザ間の近接性、ユーザと機器間の距離などを測定して好適なサービスを提供する技術である。また、インターネットに基づいて様々なプラットフォームとサービスを適切に選別して提供するが、ユーザの位置や接続ネットワークの範囲に適応化されたり、ユーザの位置や接続ネットワークの範囲とは関係なく、ユーザの個人的な好みや要求に適応化されたりしたデータサービスを提供する状況認知技術が紹介されたことがある。
従来の状況認知技術に対する研究は、ウェブ上でユーザの動作パターンなどのユーザ状況を分析するか、ユーザの位置に適応化されたサービスを提供することに集中している。
既に紹介された技術は、個人の感情状態を分析し、感情状態に応じて適応化されたサービスを提供する状況認知システムに関する技術ではない。すなわち、ユーザに発生した事故や危険などを迅速で正確に認識できるように効果的にユーザの感情状態を認識し、それに基づいて危険状況を認識/判断できる状況認知装置は通信技術の発達と共にその活用価値と必要性が増加してきた。
さらには、ユーザの感情状態を分析するためにユーザが着用している様々なセンサからの測定値を用いる場合、様々な測定値を効率的に融合して正確に状況を認知することが非常に重要である。
特開2006-0267464号公報
本発明は、上述したような従来技術の問題点を解決するために導き出されたものであって、状況をユーザの感情状態と定義し、ユーザに発生した事故や危険状況などを迅速で正確に認識できるようにすることを目的とする。
また、本発明は、ユーザの音声、動き変化、ユーザが位置する場所、およびユーザのスケジュールなど、ユーザの感情認識に重要な多重センサの認識結果を活用して効率的にユーザの感情状態を認識することを目的とする。
また、本発明は、ユーザが位置する場所およびユーザのスケジュールを考慮して状況認識を遂行することにより、より正確な状況認知を可能にすることを目的とする。
また、本発明は、銀行やコンビニエンス・ストアーなどに泥棒が侵入した場合などの危急状況時に、非常ベルを押すなどの危険な行動をすることがなくても危険状況を外部に知らせることを目的とする。
前記目的を達成するための本発明に係る状況認知装置は、音声信号に基づいてユーザの感情状態を認識する音声基盤認識部;動きに基づいて前記ユーザの感情状態を認識する動き基盤認識部;前記ユーザが属している場所を認識する位置認識部;および前記音声基盤認識部、前記動き基盤認識部、および前記位置認識部の認識結果を分析して前記ユーザの状況を認知する融合認識部;を含むことを特徴とする。
前記融合認識部は、前記音声基盤認識部、動き基盤認識部、および位置認識部のうちの少なくとも一つの認識結果に対する確率値を生成し、前記確率値から前記ユーザの状況を認知することを特徴とする。
前記融合認識部は、ベイジアンネットワーク(Bayesian Network)、ニューラルネットワーク(Neural Network)、HMM(Hidden Markov Model)、ボーティング(voting)、およびファジー(Fuzzy)のうちのいずれか一つのアルゴリズムを利用して前記ユーザの状況を認知することを特徴とする。
前記音声基盤認識部は、前記ユーザの音声入力を収集する音声信号収集部;時間および/または周波数領域において、前記ユーザの感情変化時点を検出する変化時点検出部;前記感情変化時点から一定時間の間のデータを分析し、音声信号に基づいたユーザの感情状態を認識する分析/認識部;および前記分析/認識部によって認識されたユーザの感情状態がどの程度の正確度を有しているかに対する確率値を生成する確率値生成部;を含むことを特徴とする。
前記動き基盤認識部は、一つ以上のセンサまたはカメラからデータを収集するデータ収集部;前記センサまたは前記カメラによるセンシングデータを管理するデータ制御部;感情表現ジェスチャーおよびアクチビティを認識するための特徴を抽出する特徴抽出部;前記特徴に基づいて前記ユーザの感情を表わす行動を認識する分析/認識部;および前記分析/認識部によって認識されたユーザの感情状態がどの程度の正確度を有しているかに対する確率値を生成する確率値生成部;を含むことを特徴とする。
前記融合認識部は、前記音声基盤認識部、動き基盤認識部、および位置認識部を制御する管理部;前記ユーザのスケジュールのうちから状況認知の考慮になり得るほどのものを提供するスケジュール処理部;および前記音声基盤認識部、動き基盤認識部、位置認識部、およびスケジュール管理部から提供されるデータを融合認識して前記ユーザの状況を判断する融合認識/判断部;を含むことを特徴とする。
前記ユーザのスケジュールを管理し検索するスケジュール管理部をさらに含み、前記融合認識部は、前記スケジュール管理部から前記ユーザのスケジュール情報の提供を受け、それを考慮して前記ユーザの状況を認知することを特徴とする。
前記スケジュール管理部は、前記ユーザのスケジュールのうちから状況認知の考慮になり得るほどのものを抽出し、前記スケジュール情報として前記融合認識部に提供することを特徴とする。
一方、前記目的を達成するための本発明に係る状況認知方法は、音声信号に基づいたユーザの感情状態認識結果を受信するステップ;動きに基づいた前記ユーザの感情状態認識結果を受信するステップ;前記ユーザが属している場所認識結果を受信するステップ;および前記認識結果を全て考慮して前記ユーザの状況を融合認知するステップ;を含むことを特徴とする。
前記融合認知するステップは、前記音声信号に基づいたユーザの感情状態認識結果がどの程度の正確度を有しているかに対する確率値を生成するステップを含むことを特徴とする。
前記融合認知するステップは、前記動きに基づいたユーザの感情状態認識結果がどの程度の正確度を有しているかに対する確率値を生成するステップをさらに含むことを特徴とする。
前記融合認知するステップは、前記音声信号に基づいたユーザの感情状態認識結果、前記動きに基づいた前記ユーザの感情状態認識結果、および前記場所認識結果のうちの少なくとも一つの認識結果に対する確率値から前記ユーザの状況を認知することを特徴とする。
前記融合認知するステップは、ベイジアンネットワーク(Bayesian Network)、ニューラルネットワーク(Neural Network)、HMM(Hidden Markov Model)、ボーティング(voting)、およびファジー(Fuzzy)のうちのいずれか一つのアルゴリズムを利用して前記ユーザの状況を認知することを特徴とする。
前記ユーザのスケジュール情報を受信するステップをさらに含み、前記融合認知するステップは、前記スケジュール情報を考慮して前記ユーザの状況を認知することを特徴とする。
前記スケジュール情報を受信するステップは、前記ユーザのスケジュールのうちの状況認知の考慮になり得るほどのものであると判断し抽出されたものだけを受信することを特徴とする。
本発明によって次のような効果を得ることができる。
本発明によれば、状況をユーザの感情状態と定義し、ユーザに発生した事故や危険状況などを迅速で正確に認識することができるため、特に危険に相対的にぜい弱な子供や女性または老人の安全に寄与することができる。
また、本発明は、ユーザの音声、動き変化、ユーザが位置する場所、およびユーザのスケジュールなど、ユーザの感情認識に重要な多重センサの認識結果を活用して効率的にユーザの感情状態を認識することができる。
また、本発明は、ユーザが位置する場所およびユーザのスケジュールを考慮して状況認識を遂行することにより、より正確な状況認知が可能である。
また、本発明は、銀行やコンビニエンス・ストアーなどに泥棒が侵入した場合などの危急状況時に、非常ベルを押すなどの危険な行動をすることがなくても危険状況を外部に知らせることができる。
本発明の一実施形態による状況認知装置のブロック図である。 図1に示された音声基盤認識部の一例を示すブロック図である。 図1に示された動き基盤認識部の一例を示すブロック図である。 図1に示された融合認識部の一例を示すブロック図である。 本発明の一実施形態による状況認知方法を示す動作フローチャートである。
本発明を添付図面を参照してより詳細に説明すれば次の通りである。但し、繰り返される説明、本発明の要旨を濁す恐れがある公知機能および構成に対する詳細な説明は省略する。本発明の実施形態は、当業界で平均的な知識を有する者に本発明をより完全に説明するために提供されるものである。よって、図面における要素の形状および大きさなどはより明確な説明のために誇張され得る。
以下、本発明による好ましい実施形態について添付図面を参照してより詳細に説明する。
図1は、本発明の一実施形態による状況認知装置のブロック図である。
図1を参照すれば、本発明の一実施形態による状況認知装置は、音声基盤認識部110、動き基盤認識部120、位置認識部130、BAN通信部140、融合認識部150、スケジュール管理部160、およびスケジュールデータベース170を含む。
音声基盤認識部110は、マイクなどの音声入力装置を介して入力された信号から感情変化時点を検出し、検出された感情変化時点から一定時間の間のユーザ音声データを周波数および/または時間領域において分析して、恐れ、喜び、怒り、安定などのような感情状態を分析/認識し、認識結果をBAN(Body Area Network;人体通信網)などのネットワークを介して伝送する。この時、音声基盤認識部110は、感情状態認識結果がどの程度の正確度を有しているかに対する確率値を生成する。感情状態認識結果は生成された確率値を含む概念であってもよい。
動き基盤認識部120は、複数のセンサまたはカメラから加速度を収集し、収集されたデータから特徴を抽出し、抽出された特徴と学習モデルを利用して歩き、走り、立ち、拒否、ずるずる引きずられること、立っていること、および震えるなどのような感情表現ジェスチャー(gesture)およびアクチビティ(activity)を認識し、認識結果をBANなどを介して伝送する。
この時、動き基盤認識部120は、感情状態認識結果がどの程度の正確度を有しているかに対する確率値を生成する。感情状態認識結果は生成された確率値を含む概念であってもよい。
位置認識部130は、GPSおよび/または重力センサを利用してGPS情報および/または重力値を測定し、測定された結果およびマップを利用してユーザが属している場所を認識する。この時、場所認識結果は重力センサを利用して測定した重力値によって補正されることができる。また、場所は建物の層を含む概念であってもよい。
実施形態によっては、位置認識部130は、GPS収集モジュール、重力値測定モジュール、マップを用いた位置変換モジュール、および重力値を用いた場所変換モジュールを含んで構成することができる。
GPSなどを利用してマップ上におけるユーザの位置を識別する技術に対しては、一般的に公示されている技術を利用するため、それに対する具体的な説明は省略する。
実施形態によっては、位置認識部130は、時間などに応じたユーザの位置に関するパターンデータベースを構築し、様々な学習アルゴリズムによって位置認識結果を提供することもできる。この時、位置認識結果は、位置認識結果がどの程度の正確度を有しているかに対する確率値を含む概念であってもよい。この時、位置認識部130は、以下にて音声基盤認識部110などを通じて紹介する学習アルゴリズムを利用して位置認識および確率値を生成することができる。
このように場所情報を状況認識する際に考慮するのは、第1場所における特定の感情状態が有する意味と第2場所における特定の感情状態が有する意味とが異なり得るためである。例えば、ユーザが突然激烈に動きながら大声を出すという感情状態が感知された場合、ユーザの位置が野球場であれば危険状態である可能性が低いが、ユーザの位置が図書館であれば危険状態である可能性が大きい。
スケジュール管理部160は、ユーザからスケジュールの入力を受け、スケジュール統計を提供し、要請に応じて時間別スケジュール検索結果を提供する。
スケジュール管理部160は、ユーザのスケジュールパターンを分析してパターンデータベースを構築することもできる。
スケジュールデータベース170は、ユーザのスケジュールデータを格納し、スケジュール管理部160の要請に応じてそれをスケジュール管理部160に提供する。
このように、スケジュール情報を状況認識する際に考慮するのは、ユーザが現在どのスケジュールを遂行しているかにより、ユーザの感情状態が有する意味が異なり得るためである。
実施形態によっては、スケジュール管理部160は、スケジュール入力モジュール、スケジュール統計管理モジュール、時間別スケジュール検索モジュール、およびスケジュールパターン分析モジュールを含んで構成することができる。
BAN通信部140は、音声基盤認識部110、動き基盤認識部120、および位置認識部130とデータを交換する。図1にはBAN通信部140を別途のブロックで示したが、実施形態によっては、BAN通信部140は融合認識部150などの他のブロックの一部として実現することもできる。
融合認識部150は、音声基盤認識部110、動き基盤認識部120、位置認識部130、およびスケジュール管理部160から提供される情報を融合認識し、それに基づいて状況を認知する。
融合認識部150は、音声基盤認識部110、動き基盤認識部120、および位置認識部のうちのいずれか一つ以上から確率値が提供される場合、確率値を利用して感情状態を認識/判断することにより、確率に基づいた融合認識/判断を行うこともできる。
融合認識部150は、音声基盤認識部110、動き基盤認識部120、位置認識部130、およびスケジュール管理部160から提供される情報に基づいて確率モデルを構築することができる。この時、融合認識部150は、確率モデルに基づき、音声基盤認識部110、動き基盤認識部120、位置認識部130、およびスケジュール管理部160から提供される情報に応じて状況認識を行うことができる。
図2は、図1に示された音声基盤認識部110の一例を示すブロック図である。
図2を参照すれば、図1に示された音声基盤認識部は、音声信号収集部210、変化時点検出部220、分析/認識部230、確率値生成部240、およびBAN通信部250を含む。
音声信号収集部210はマイクなどを介してユーザの音声入力を収集する。この時、音声信号収集部210は、ユーザの音声入力を電気信号に変換し、サンプリングおよびアナログ−デジタル変換をすることができる。さらには、音声信号収集部210はデジタル変換された信号を量子化することができる。
また、音声信号収集部210は、高周波および低周波向上モジュールを利用してS/N比を改善することができる。
変化時点検出部220は、時間/周波数領域において、Teagerエネルギやピッチ(pitch)または平坦度(smoothness)などを利用して感情状態が変化する時点を検出する。
例えば、感情状態が変化する時点は、語節単位中のピッチや平坦度が急激に変化する時点であり得る。
音声区間を検出する方法は、J.C.Junqua、B.Mark、and B.Reaves、‘A Robust Algorithm for Word Boundary Detection in the Presence of Noise’、IEEE transaction Speech and Audio Processing、Vol.2、No.3、1994に開示された方法など、様々な方法によって随行することができる。
分析/認識部230は、感情変化時点から一定時間の間のデータを、周波数領域および/または時間領域において、Teagerエネルギ、ピッチまたは平坦度の変化を分析して感情状態を認識する。
例えば、分析/認識部230は、一定時間の間に急激な平坦度変化が持続すれば、測定結果を驚きなどの不安な感情状態にマッピングさせることができる。
この時、分析/認識部230は様々なユーザの感情状態に対応する音声パターンに関するデータベースを含み、様々なパターンマッチング(pattern matching)技法によって感情状態を認識することができる。パターンマッチングに対しては、R.Duda and P.Hart、‘Pattern Classification and Scene Analysis’、John Wiley & Sons、1973など、様々な方式が紹介されている。
Teagerエネルギ、ピッチまたは平坦度の変化を用いた音声認識技術は論文などを通じて様々な方式が紹介されているが、変化時点検出部220および分析認識部230は、その機能を遂行するための具体的な実現方式が特定方式に限定されるものではない。
確率値生成部240は、分析/認識部230によって認識されたユーザの感情状態がどの程度の正確度を有しているかを確率的な結果に変換する。
例えば、確率値生成部240は、HMM(Hidden Markov Model)における出力確率を確率値に出力することができる。HMMおよび出力確率などに対しては、韓国公開特許第1999−0037460号などに詳細に開示されている。
BAN通信部250は、認識された感情状態および/または対応する確率値をBANなどのネットワークを介して無線で伝送する。
図3は、図1に示された動き基盤認識部120の一例を示すブロック図である。
図3を参照すれば、図1に示された動き基盤認識部120は、データ収集部310、BAN通信部320、データ制御部330、特徴抽出部340、分析/認識部350、確率値生成部360、およびBAN通信部370を含む。
データ収集部310は、センサまたはカメラ個数に対応して一つ以上備えることができ、センサまたはカメラからデータを収集する。
BAN通信部320は、データ収集部310によって収集されたデータをBANなどのネットワークを介して無線で伝送する。
データ制御部330は、BAN通信部320を介してセンサまたはカメラの状態をチェックし、データ収集部310を介して提供されるセンサまたはカメラからのデータが同期化するようにする。
特徴抽出部340は、提供されたセンサまたはカメラからのデータから感情表現ジェスチャーおよびアクチビティを認識するための特徴を抽出する。
この時、特徴抽出部340は加速度値間の差や軌跡などを特徴として用いることができる。
分析/認識部350は、歩き、走り、立ち、および座りなどの行動アクチビティと、拒否、手をあげること、もがくこと、ずるずる引きずられること、倒れなどのような個人の感情を表わすジェスチャーをスレッショウルド(Threshold)に基づくrule−based方法、またはニューラルネットワーク(neural network)、HMM、SVM(support vector machine)などのような学習アルゴリズムを利用して認識する。
確率値生成部360は、認識された感情状態がどの程度の正確度を有しているかを示す確率値を生成する。
BAN通信部370は、認識された感情状態および/または対応する確率値をBANなどのネットワークを介して無線で伝送する。
図3を参照して説明した動き基盤認識部の分析/認識部350、確率値生成部360、およびBAN通信部370は、センサまたはカメラから収集されたデータに基づいて動きを認識するということを除いては、図2に示された分析/認識部230、確率値生成部240、およびBAN通信部250と類似する方式によって動作する。
図3を参照して具体的に説明していないセンサから動作を認識する技術に関しては、韓国公開特許第2007−0031658号などに詳細に開示されている。
図4は、図1に示された融合認識部150の一例を示すブロック図である。
図4を参照すれば、図1に示された融合認識部150は、管理部410、スケジュール処理部420、融合認識/判断部430、および通信部440を含む。
管理部410は、図1に示された音声基盤認識部110、動き基盤認識部120、および位置認識部130を制御して各ブロックから出力値を受信し、各ブロックのエラー制御および同期化を行う。
スケジュール処理部420は、ユーザのスケジュールのうちから状況認知の考慮になり得るものを抽出して融合認識/判断部430に提供する。
例えば、スケジュール処理部420は、1日のスケジュール中の主要場所と関連したスケジュール情報を提供することができる。
例えば、ユーザのスケジュールは固有コードに区分され、スケジュール処理部420は既に設定された特定コードに該当するスケジュールを抽出することができる。
融合認識/判断部430は、音声基盤認識部110、動き基盤認識部120、位置認識部130、およびスケジュール管理部160から提供されるデータを融合認識して危険状況を判断する。
この時、融合認識は、ベイジアンネットワーク(Bayesian Network)、ニューラルネットワーク(Neural Network)、HMM(Hidden Markov Model)、ボーティング(voting)、ファジー(Fuzzy)、およびSVM(Support Vector Machine)のうちのいずれか一つのアルゴリズムを利用して行うことができる。
また、融合認識/判断部430は、音声基盤認識結果、動き基盤認識結果、場所認識結果、およびスケジュール情報のうちの二つ以上を効率的に融合するために融合モデルを生成することができる。このために、従来から用いられるベイジアンネットワーク(Bayesian Network)、ニューラルネットワーク(Neural Network)、HMM(Hidden Markov Model)、ボーティング(voting)、またはファジー(Fuzzy)などの様々な学習アルゴリズムを利用することができる。
ここで説明していない融合認識および融合モデルの生成に関する具体的な内容は、韓国公開特許第2008−0050994号などに詳細に開示されている。
実施形態によっては、融合認識/判断部430は、音声基盤認識結果、動き基盤認識結果、および場所認識結果のうちのいずれか一つ以上によって提供される確率値を用いてユーザの危険状況を融合認識/判断することもできる。
特に、融合認識/判断部430は、融合モデルの生成時、位置認識部130およびスケジュール管理部160から提供される情報を利用して、より正確にユーザの状態を認識することができる。
通信部440は、融合認識/判断部430の認知結果をネットワークを介して伝送する。この時、ネットワークは、WLAN(Wireless LAN)やBANなどの無線ネットワークであってもよい。
以上、各ブロックが無線ネットワークを介して通信する場合を例にして説明したが、本発明の実施形態で説明したネットワークは有線ネットワークであってもよい。
図5は、本発明の一実施形態による状況認知方法を示すフローチャートである。図5を参照すれば、本発明の一実施形態による状況認知方法は、音声信号に基づいたユーザの感情状態認識結果を受信する(S510)。この時、感情状態認識結果は確率値を含むことができる。
また、本発明の一実施形態による状況認知方法は、動きに基づいた前記ユーザの感情状態認識結果を受信する(S520)。この時、感情状態認識結果は確率値を含むことができる。
また、本発明の一実施形態による状況認知方法は、前記ユーザが属している場所認識結果を受信する(S530)。この時、場所認識結果は確率値を含むことができる。
また、本発明の一実施形態による状況認知方法は、前記ユーザのスケジュール情報を受信する(S540)。この時、‘S540’ステップは、前記ユーザのスケジュールのうちの状況認知の考慮になり得るものであると判断し抽出されたものだけを受信することができる。
また、本発明の一実施形態による状況認知方法は、前記認識結果およびスケジュール情報を全て考慮して前記ユーザの状況を融合認知する(S550)。
この時、‘S550’ステップは、音声信号に基づいたユーザの感情状態認識結果、動きに基づいたユーザの感情状態認識結果、場所認識結果のうちの少なくとも一つに含まれた確率値を分析して前記ユーザの状況を認知することができる。この時、‘S550’ステップは、ベイジアンネットワーク(Bayesian Network)、ニューラルネットワーク(Neural Network)、HMM(Hidden Markov Model)、ボーティング(voting)、およびファジー(Fuzzy)のうちのいずれか一つのアルゴリズムを利用して前記ユーザの状況を認知することができる。
図5に示された各ステップは、図5に示された順、その逆順、または同時に行われることができる。
以上のように図面と明細書により本発明の最適な実施形態が開示された。ここでは特定の用語が用いられているが、これは、単に本発明を説明するための目的で用いられたものであって、意味限定や特許請求の範囲に記載された本発明の範囲を制限するためのものではない。よって、本技術分野の通常の知識を有した者であれば、これより、様々な変形および均等な他の実施形態が可能であるということを理解するはずである。したがって、本発明の真の技術的保護範囲は添付された特許請求の範囲の技術的思想によって定められなければならない。
110:音声基盤認識部
120:動き基盤認識部
130:位置認識部
150:融合認識部
160:スケジュール管理部

Claims (13)

  1. 音声信号に基づいてユーザの感情状態を認識する音声基盤認識部;
    動きに基づいて前記ユーザの感情状態を認識する動き基盤認識部;
    前記ユーザが属している場所を認識する位置認識部;および
    前記音声基盤認識部、前記動き基盤認識部、および前記位置認識部の認識結果を分析して前記ユーザの状況を認知する融合認識部;を含むことを特徴とする状況認知装置。
  2. 前記融合認識部は、
    前記音声基盤認識部、動き基盤認識部、および位置認識部のうちの少なくとも一つの認識結果に対する確率値を生成し、前記確率値から前記ユーザの状況を認知することを特徴とする、請求項1に記載の状況認知装置。
  3. 前記音声基盤認識部は、
    前記ユーザの音声入力を収集する音声信号収集部;
    時間および/または周波数領域において、前記ユーザの感情変化時点を検出する変化時点検出部;
    前記感情変化時点から一定時間の間のデータを分析し、音声信号に基づいたユーザの感情状態を認識する分析/認識部;および
    前記分析/認識部によって認識されたユーザの感情状態がどの程度の正確度を有しているかに対する確率値を生成する確率値生成部;を含むことを特徴とする、請求項1に記載の状況認知装置。
  4. 前記動き基盤認識部は、
    一つ以上のセンサまたはカメラからデータを収集するデータ収集部;
    前記センサまたは前記カメラによるセンシングデータを管理するデータ制御部;
    感情表現ジェスチャーおよびアクチビティを認識するための特徴を抽出する特徴抽出部;
    前記特徴に基づいて前記ユーザの感情を表わす行動を認識する分析/認識部;および
    前記分析/認識部によって認識されたユーザの感情状態がどの程度の正確度を有しているかに対する確率値を生成する確率値生成部;を含むことを特徴とする、請求項1に記載の状況認知装置。
  5. 前記融合認識部は、
    前記音声基盤認識部、動き基盤認識部、および位置認識部を制御する管理部;
    前記ユーザのスケジュールのうちから状況認知の考慮になり得るほどのものを提供するスケジュール処理部;および
    前記音声基盤認識部、動き基盤認識部、位置認識部、およびスケジュール管理部から提供されるデータを融合認識して前記ユーザの状況を判断する融合認識/判断部;を含むことを特徴とする、請求項1に記載の状況認知装置。
  6. 前記ユーザのスケジュールを管理し検索するスケジュール管理部;をさらに含み、
    前記融合認識部は、前記スケジュール管理部から前記ユーザのスケジュール情報の提供を受け、それを考慮して前記ユーザの状況を認知することを特徴とする、請求項1に記載の状況認知装置。
  7. 前記スケジュール管理部は、
    前記ユーザのスケジュールのうちから状況認知の考慮になり得るほどの項目を抽出し、前記スケジュール情報として前記融合認識部に提供することを特徴とする、請求項6に記載の状況認知装置。
  8. 音声信号に基づいたユーザの感情状態認識結果を受信するステップ;
    動きに基づいた前記ユーザの感情状態認識結果を受信するステップ;
    前記ユーザが属している場所認識結果を受信するステップ;および
    前記認識結果を全て考慮して前記ユーザの状況を融合認知するステップ;を含むことを特徴とする状況認知方法。
  9. 前記融合認知するステップは、
    前記音声信号に基づいたユーザの感情状態認識結果がどの程度の正確度を有しているかに対する確率値を生成するステップ;を含むことを特徴とする、請求項8に記載の状況認知方法。
  10. 前記融合認知するステップは、
    前記動きに基づいたユーザの感情状態認識結果がどの程度の正確度を有しているかに対する確率値を生成するステップ;をさらに含むことを特徴とする、請求項8に記載の状況認知方法。
  11. 前記融合認知するステップは、
    前記音声信号に基づいたユーザの感情状態認識結果、前記動きに基づいた前記ユーザの感情状態認識結果、および前記場所認識結果のうちの少なくとも一つの認識結果に対する確率値から前記ユーザの状況を認知することを特徴とする、請求項8に記載の状況認知方法。
  12. 前記ユーザのスケジュール情報を受信するステップ;をさらに含み、
    前記融合認知するステップは、前記スケジュール情報を考慮して前記ユーザの状況を認知することを特徴とする、請求項8に記載の状況認知方法。
  13. 前記スケジュール情報を受信するステップは、
    前記ユーザのスケジュールのうちの状況認知の考慮になり得るほどの事項であると判断し抽出されたものだけを受信することを特徴とする、請求項12に記載の状況認知方法。
JP2009278770A 2008-12-08 2009-12-08 状況認知装置およびこれを用いた状況認知方法 Pending JP2010134937A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20080124131 2008-12-08
KR1020090104128A KR101329100B1 (ko) 2008-12-08 2009-10-30 상황 인지 장치 및 이를 이용한 상황 인지 방법

Publications (1)

Publication Number Publication Date
JP2010134937A true JP2010134937A (ja) 2010-06-17

Family

ID=42232068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009278770A Pending JP2010134937A (ja) 2008-12-08 2009-12-08 状況認知装置およびこれを用いた状況認知方法

Country Status (2)

Country Link
US (1) US8442832B2 (ja)
JP (1) JP2010134937A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150003585A (ko) * 2013-07-01 2015-01-09 상명대학교서울산학협력단 인체 미동 분석을 이용한 감성 판단 방법
WO2016113968A1 (ja) * 2015-01-14 2016-07-21 ソニー株式会社 ナビゲーションシステム、クライアント端末装置、制御方法、および記憶媒体
JP2018124972A (ja) * 2016-12-06 2018-08-09 ゼネラル・エレクトリック・カンパニイ ワンショット学習を通じた群衆解析
WO2020175969A1 (ko) * 2019-02-28 2020-09-03 주식회사 하가 감정 인식 장치 및 감정 인식 방법

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200342979A1 (en) * 2010-06-07 2020-10-29 Affectiva, Inc. Distributed analysis for cognitive state metrics
KR20120024247A (ko) * 2010-09-06 2012-03-14 삼성전자주식회사 사용자의 제스처를 인식하여 이동 장치를 동작하는 방법 및 그 이동 장치
US9558738B2 (en) * 2011-03-08 2017-01-31 At&T Intellectual Property I, L.P. System and method for speech recognition modeling for mobile voice search
US8756061B2 (en) 2011-04-01 2014-06-17 Sony Computer Entertainment Inc. Speech syllable/vowel/phone boundary detection using auditory attention cues
JP6031735B2 (ja) * 2011-06-13 2016-11-24 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
CN102337835A (zh) * 2011-09-23 2012-02-01 毛玉平 一种智能型防盗门
US9402576B2 (en) * 2012-09-12 2016-08-02 International Business Machines Corporation Electronic communication warning and modification
US10038885B2 (en) 2012-10-17 2018-07-31 Facebook, Inc. Continuous capture with augmented reality
US10032233B2 (en) * 2012-10-17 2018-07-24 Facebook, Inc. Social context in augmented reality
US9031293B2 (en) * 2012-10-19 2015-05-12 Sony Computer Entertainment Inc. Multi-modal sensor based emotion recognition and emotional interface
US20150245189A1 (en) 2012-10-19 2015-08-27 Srikanth Nalluri Personal safety and emergency services
US9020822B2 (en) 2012-10-19 2015-04-28 Sony Computer Entertainment Inc. Emotion recognition using auditory attention cues extracted from users voice
US9672811B2 (en) 2012-11-29 2017-06-06 Sony Interactive Entertainment Inc. Combining auditory attention cues with phoneme posterior scores for phone/vowel/syllable boundary detection
US9135248B2 (en) 2013-03-13 2015-09-15 Arris Technology, Inc. Context demographic determination system
US10304325B2 (en) 2013-03-13 2019-05-28 Arris Enterprises Llc Context health determination system
US9692839B2 (en) 2013-03-13 2017-06-27 Arris Enterprises, Inc. Context emotion determination system
KR102191306B1 (ko) * 2014-01-22 2020-12-15 삼성전자주식회사 음성 감정 인식 시스템 및 방법
CN114461062A (zh) 2014-11-07 2022-05-10 索尼公司 信息处理系统、控制方法和计算机可读存储介质
KR101625304B1 (ko) * 2014-11-18 2016-05-27 경희대학교 산학협력단 음향 정보에 기초한 사용자 다수 행위 인식 방법
WO2016170810A1 (ja) * 2015-04-23 2016-10-27 ソニー株式会社 情報処理装置、制御方法、およびプログラム
CN105681318A (zh) * 2016-02-03 2016-06-15 百度在线网络技术(北京)有限公司 基于人工智能的语音识别的信息推送方法和装置
WO2018073832A1 (en) * 2016-10-20 2018-04-26 Rn Chidakashi Technologies Pvt. Ltd. Emotionally intelligent companion device
CN108039181B (zh) * 2017-11-02 2021-02-12 北京捷通华声科技股份有限公司 一种声音信号的情感信息分析方法和装置
KR102419007B1 (ko) 2018-04-10 2022-07-08 한국전자통신연구원 위험상황 알림 장치 및 방법
CN110782622A (zh) * 2018-07-25 2020-02-11 杭州海康威视数字技术股份有限公司 一种安全监控系统、安全检测方法、装置及电子设备
CN111402925B (zh) * 2020-03-12 2023-10-10 阿波罗智联(北京)科技有限公司 语音调节的方法、装置、电子设备、车载系统和可读介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001083984A (ja) * 1999-09-09 2001-03-30 Alpine Electronics Inc インタフェース装置
JP2001327472A (ja) * 2000-03-14 2001-11-27 Toshiba Corp 身体装着型生活支援装置および方法
JP2005237561A (ja) * 2004-02-25 2005-09-08 Canon Inc 情報処理装置及び方法
JP2006004409A (ja) * 2004-05-11 2006-01-05 Matsushita Electric Ind Co Ltd 電子書籍装置および電子書籍装置における表示方法
JP2007065969A (ja) * 2005-08-31 2007-03-15 Osaka Prefecture Univ 表情から心理状態を推定する方法
WO2008032787A1 (fr) * 2006-09-13 2008-03-20 Nippon Telegraph And Telephone Corporation ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
US6249780B1 (en) * 1998-08-06 2001-06-19 Yamaha Hatsudoki Kabushiki Kaisha Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object
KR100425342B1 (ko) 2000-09-02 2004-03-30 삼성전자주식회사 신체 및 감정 상태 인식 장치 및 방법
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
US7999857B2 (en) * 2003-07-25 2011-08-16 Stresscam Operations and Systems Ltd. Voice, lip-reading, face and emotion stress analysis, fuzzy logic intelligent camera system
KR100673613B1 (ko) 2004-01-17 2007-01-24 주식회사 헬스피아 이동통신 단말기
KR100775534B1 (ko) 2004-10-12 2007-11-15 주식회사 케이티프리텔 응급 상황을 감지하기 위한 원격 보호 단말기, 시스템 및방법
JP4587854B2 (ja) 2005-03-23 2010-11-24 東京電力株式会社 感情解析装置、感情解析プログラム、プログラム格納媒体
KR20060105312A (ko) 2005-04-04 2006-10-11 주식회사 현대오토넷 음성인식기능을 이용한 유아 안전 경보장치와 안전 경보제어방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001083984A (ja) * 1999-09-09 2001-03-30 Alpine Electronics Inc インタフェース装置
JP2001327472A (ja) * 2000-03-14 2001-11-27 Toshiba Corp 身体装着型生活支援装置および方法
JP2005237561A (ja) * 2004-02-25 2005-09-08 Canon Inc 情報処理装置及び方法
JP2006004409A (ja) * 2004-05-11 2006-01-05 Matsushita Electric Ind Co Ltd 電子書籍装置および電子書籍装置における表示方法
JP2007065969A (ja) * 2005-08-31 2007-03-15 Osaka Prefecture Univ 表情から心理状態を推定する方法
WO2008032787A1 (fr) * 2006-09-13 2008-03-20 Nippon Telegraph And Telephone Corporation ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
牛田 博英: "感情を持つ人工システム", 日本ファジィ学会誌, vol. 第12巻,第6, JPN6012007520, 15 December 2000 (2000-12-15), JP, pages 44 - 51, ISSN: 0002146898 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150003585A (ko) * 2013-07-01 2015-01-09 상명대학교서울산학협력단 인체 미동 분석을 이용한 감성 판단 방법
KR102122973B1 (ko) * 2013-07-01 2020-06-15 상명대학교산학협력단 인체 미동 분석을 이용한 감성 판단 방법
WO2016113968A1 (ja) * 2015-01-14 2016-07-21 ソニー株式会社 ナビゲーションシステム、クライアント端末装置、制御方法、および記憶媒体
JPWO2016113968A1 (ja) * 2015-01-14 2017-10-19 ソニー株式会社 ナビゲーションシステム、クライアント端末装置、制御方法、および記憶媒体
US10408629B2 (en) 2015-01-14 2019-09-10 Sony Corporation Navigation system, client terminal device, control method, and storage medium
JP2020095045A (ja) * 2015-01-14 2020-06-18 ソニー株式会社 ナビゲーションシステム、クライアント端末装置、制御方法、記憶媒体、およびプログラム
JP2018124972A (ja) * 2016-12-06 2018-08-09 ゼネラル・エレクトリック・カンパニイ ワンショット学習を通じた群衆解析
WO2020175969A1 (ko) * 2019-02-28 2020-09-03 주식회사 하가 감정 인식 장치 및 감정 인식 방법

Also Published As

Publication number Publication date
US20100145695A1 (en) 2010-06-10
US8442832B2 (en) 2013-05-14

Similar Documents

Publication Publication Date Title
JP2010134937A (ja) 状況認知装置およびこれを用いた状況認知方法
Koshmak et al. Challenges and issues in multisensor fusion approach for fall detection
Lentzas et al. Non-intrusive human activity recognition and abnormal behavior detection on elderly people: A review
Mubashir et al. A survey on fall detection: Principles and approaches
Lee et al. Development of an enhanced threshold-based fall detection system using smartphones with built-in accelerometers
Clarkson et al. Recognizing user context via wearable sensors
Zhang et al. A comprehensive study of smartphone-based indoor activity recognition via Xgboost
KR101329100B1 (ko) 상황 인지 장치 및 이를 이용한 상황 인지 방법
Li et al. Cross-Safe: A computer vision-based approach to make all intersection-related pedestrian signals accessible for the visually impaired
WO2012020591A1 (ja) 個体識別システム、特徴量特定装置、特徴量特定方法および記録媒体
Raja et al. Applicability of RF-based methods for emotion recognition: A survey
Parnandi et al. Coarse in-building localization with smartphones
JP2010128594A (ja) 動作検出装置および動作検出方法
Şengül et al. Fusion of smartphone sensor data for classification of daily user activities
Kim et al. Deep neural network-based indoor emergency awareness using contextual information from sound, human activity, and indoor position on mobile device
Pipelidis et al. A novel lightweight particle filter for indoor localization
JP2020052856A (ja) 救援支援サーバ、救援支援システム及びプログラム
Nizam et al. Classification of daily life activities for human fall detection: a systematic review of the techniques and approaches
Fan et al. Fall detection with unobtrusive infrared array sensors
Pham et al. Real-time traffic activity detection using mobile devices
Doukas et al. Enabling human status awareness in assistive environments based on advanced sound and motion data classification
Doukas et al. An assistive environment for improving human safety utilizing advanced sound and motion data classification
Kausar et al. Fall detection in the elderly using different machine learning algorithms with optimal window size
Faye et al. Toward a characterization of human activities using smart devices: A micro/macro approach
CN113472945B (zh) 一种基于碰撞检测的数据传输方法、系统和移动设备

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120425

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120727