JP2010134937A - 状況認知装置およびこれを用いた状況認知方法 - Google Patents
状況認知装置およびこれを用いた状況認知方法Info
- Publication number
- JP2010134937A JP2010134937A JP2009278770A JP2009278770A JP2010134937A JP 2010134937 A JP2010134937 A JP 2010134937A JP 2009278770 A JP2009278770 A JP 2009278770A JP 2009278770 A JP2009278770 A JP 2009278770A JP 2010134937 A JP2010134937 A JP 2010134937A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- user
- unit
- situation
- recognizing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000004927 fusion Effects 0.000 claims description 48
- 230000002996 emotional effect Effects 0.000 claims description 46
- 230000008451 emotion Effects 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 8
- 230000005236 sound signal Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 230000009471 action Effects 0.000 claims description 4
- 230000019771 cognition Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000005484 gravity Effects 0.000 description 6
- 238000013480 data collection Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008909 emotion recognition Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 206010044565 Tremor Diseases 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】状況認知装置は、音声信号に基づいてユーザの感情状態を認識する音声基盤認識部、動きに基づいて前記ユーザの感情状態を認識する動き基盤認識部、前記ユーザが属している場所を認識する位置認識部、および前記音声基盤認識部、前記動き基盤認識部、および前記位置認識部の認識結果を分析して前記ユーザの状況を認知する融合認識部を備える。よって、ユーザに発生した事故や危険状況などを迅速で正確に認識することができる。
【選択図】図1
Description
既に紹介された技術は、個人の感情状態を分析し、感情状態に応じて適応化されたサービスを提供する状況認知システムに関する技術ではない。すなわち、ユーザに発生した事故や危険などを迅速で正確に認識できるように効果的にユーザの感情状態を認識し、それに基づいて危険状況を認識/判断できる状況認知装置は通信技術の発達と共にその活用価値と必要性が増加してきた。
本発明によれば、状況をユーザの感情状態と定義し、ユーザに発生した事故や危険状況などを迅速で正確に認識することができるため、特に危険に相対的にぜい弱な子供や女性または老人の安全に寄与することができる。
図1は、本発明の一実施形態による状況認知装置のブロック図である。
図1を参照すれば、本発明の一実施形態による状況認知装置は、音声基盤認識部110、動き基盤認識部120、位置認識部130、BAN通信部140、融合認識部150、スケジュール管理部160、およびスケジュールデータベース170を含む。
スケジュール管理部160は、ユーザのスケジュールパターンを分析してパターンデータベースを構築することもできる。
図2を参照すれば、図1に示された音声基盤認識部は、音声信号収集部210、変化時点検出部220、分析/認識部230、確率値生成部240、およびBAN通信部250を含む。
また、音声信号収集部210は、高周波および低周波向上モジュールを利用してS/N比を改善することができる。
例えば、感情状態が変化する時点は、語節単位中のピッチや平坦度が急激に変化する時点であり得る。
例えば、分析/認識部230は、一定時間の間に急激な平坦度変化が持続すれば、測定結果を驚きなどの不安な感情状態にマッピングさせることができる。
例えば、確率値生成部240は、HMM(Hidden Markov Model)における出力確率を確率値に出力することができる。HMMおよび出力確率などに対しては、韓国公開特許第1999−0037460号などに詳細に開示されている。
図3を参照すれば、図1に示された動き基盤認識部120は、データ収集部310、BAN通信部320、データ制御部330、特徴抽出部340、分析/認識部350、確率値生成部360、およびBAN通信部370を含む。
この時、特徴抽出部340は加速度値間の差や軌跡などを特徴として用いることができる。
図3を参照して具体的に説明していないセンサから動作を認識する技術に関しては、韓国公開特許第2007−0031658号などに詳細に開示されている。
図4を参照すれば、図1に示された融合認識部150は、管理部410、スケジュール処理部420、融合認識/判断部430、および通信部440を含む。
例えば、スケジュール処理部420は、1日のスケジュール中の主要場所と関連したスケジュール情報を提供することができる。
例えば、ユーザのスケジュールは固有コードに区分され、スケジュール処理部420は既に設定された特定コードに該当するスケジュールを抽出することができる。
この時、融合認識は、ベイジアンネットワーク(Bayesian Network)、ニューラルネットワーク(Neural Network)、HMM(Hidden Markov Model)、ボーティング(voting)、ファジー(Fuzzy)、およびSVM(Support Vector Machine)のうちのいずれか一つのアルゴリズムを利用して行うことができる。
実施形態によっては、融合認識/判断部430は、音声基盤認識結果、動き基盤認識結果、および場所認識結果のうちのいずれか一つ以上によって提供される確率値を用いてユーザの危険状況を融合認識/判断することもできる。
以上、各ブロックが無線ネットワークを介して通信する場合を例にして説明したが、本発明の実施形態で説明したネットワークは有線ネットワークであってもよい。
また、本発明の一実施形態による状況認知方法は、前記ユーザが属している場所認識結果を受信する(S530)。この時、場所認識結果は確率値を含むことができる。
図5に示された各ステップは、図5に示された順、その逆順、または同時に行われることができる。
120:動き基盤認識部
130:位置認識部
150:融合認識部
160:スケジュール管理部
Claims (13)
- 音声信号に基づいてユーザの感情状態を認識する音声基盤認識部;
動きに基づいて前記ユーザの感情状態を認識する動き基盤認識部;
前記ユーザが属している場所を認識する位置認識部;および
前記音声基盤認識部、前記動き基盤認識部、および前記位置認識部の認識結果を分析して前記ユーザの状況を認知する融合認識部;を含むことを特徴とする状況認知装置。 - 前記融合認識部は、
前記音声基盤認識部、動き基盤認識部、および位置認識部のうちの少なくとも一つの認識結果に対する確率値を生成し、前記確率値から前記ユーザの状況を認知することを特徴とする、請求項1に記載の状況認知装置。 - 前記音声基盤認識部は、
前記ユーザの音声入力を収集する音声信号収集部;
時間および/または周波数領域において、前記ユーザの感情変化時点を検出する変化時点検出部;
前記感情変化時点から一定時間の間のデータを分析し、音声信号に基づいたユーザの感情状態を認識する分析/認識部;および
前記分析/認識部によって認識されたユーザの感情状態がどの程度の正確度を有しているかに対する確率値を生成する確率値生成部;を含むことを特徴とする、請求項1に記載の状況認知装置。 - 前記動き基盤認識部は、
一つ以上のセンサまたはカメラからデータを収集するデータ収集部;
前記センサまたは前記カメラによるセンシングデータを管理するデータ制御部;
感情表現ジェスチャーおよびアクチビティを認識するための特徴を抽出する特徴抽出部;
前記特徴に基づいて前記ユーザの感情を表わす行動を認識する分析/認識部;および
前記分析/認識部によって認識されたユーザの感情状態がどの程度の正確度を有しているかに対する確率値を生成する確率値生成部;を含むことを特徴とする、請求項1に記載の状況認知装置。 - 前記融合認識部は、
前記音声基盤認識部、動き基盤認識部、および位置認識部を制御する管理部;
前記ユーザのスケジュールのうちから状況認知の考慮になり得るほどのものを提供するスケジュール処理部;および
前記音声基盤認識部、動き基盤認識部、位置認識部、およびスケジュール管理部から提供されるデータを融合認識して前記ユーザの状況を判断する融合認識/判断部;を含むことを特徴とする、請求項1に記載の状況認知装置。 - 前記ユーザのスケジュールを管理し検索するスケジュール管理部;をさらに含み、
前記融合認識部は、前記スケジュール管理部から前記ユーザのスケジュール情報の提供を受け、それを考慮して前記ユーザの状況を認知することを特徴とする、請求項1に記載の状況認知装置。 - 前記スケジュール管理部は、
前記ユーザのスケジュールのうちから状況認知の考慮になり得るほどの項目を抽出し、前記スケジュール情報として前記融合認識部に提供することを特徴とする、請求項6に記載の状況認知装置。 - 音声信号に基づいたユーザの感情状態認識結果を受信するステップ;
動きに基づいた前記ユーザの感情状態認識結果を受信するステップ;
前記ユーザが属している場所認識結果を受信するステップ;および
前記認識結果を全て考慮して前記ユーザの状況を融合認知するステップ;を含むことを特徴とする状況認知方法。 - 前記融合認知するステップは、
前記音声信号に基づいたユーザの感情状態認識結果がどの程度の正確度を有しているかに対する確率値を生成するステップ;を含むことを特徴とする、請求項8に記載の状況認知方法。 - 前記融合認知するステップは、
前記動きに基づいたユーザの感情状態認識結果がどの程度の正確度を有しているかに対する確率値を生成するステップ;をさらに含むことを特徴とする、請求項8に記載の状況認知方法。 - 前記融合認知するステップは、
前記音声信号に基づいたユーザの感情状態認識結果、前記動きに基づいた前記ユーザの感情状態認識結果、および前記場所認識結果のうちの少なくとも一つの認識結果に対する確率値から前記ユーザの状況を認知することを特徴とする、請求項8に記載の状況認知方法。 - 前記ユーザのスケジュール情報を受信するステップ;をさらに含み、
前記融合認知するステップは、前記スケジュール情報を考慮して前記ユーザの状況を認知することを特徴とする、請求項8に記載の状況認知方法。 - 前記スケジュール情報を受信するステップは、
前記ユーザのスケジュールのうちの状況認知の考慮になり得るほどの事項であると判断し抽出されたものだけを受信することを特徴とする、請求項12に記載の状況認知方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20080124131 | 2008-12-08 | ||
KR1020090104128A KR101329100B1 (ko) | 2008-12-08 | 2009-10-30 | 상황 인지 장치 및 이를 이용한 상황 인지 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010134937A true JP2010134937A (ja) | 2010-06-17 |
Family
ID=42232068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009278770A Pending JP2010134937A (ja) | 2008-12-08 | 2009-12-08 | 状況認知装置およびこれを用いた状況認知方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8442832B2 (ja) |
JP (1) | JP2010134937A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150003585A (ko) * | 2013-07-01 | 2015-01-09 | 상명대학교서울산학협력단 | 인체 미동 분석을 이용한 감성 판단 방법 |
WO2016113968A1 (ja) * | 2015-01-14 | 2016-07-21 | ソニー株式会社 | ナビゲーションシステム、クライアント端末装置、制御方法、および記憶媒体 |
JP2018124972A (ja) * | 2016-12-06 | 2018-08-09 | ゼネラル・エレクトリック・カンパニイ | ワンショット学習を通じた群衆解析 |
WO2020175969A1 (ko) * | 2019-02-28 | 2020-09-03 | 주식회사 하가 | 감정 인식 장치 및 감정 인식 방법 |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200342979A1 (en) * | 2010-06-07 | 2020-10-29 | Affectiva, Inc. | Distributed analysis for cognitive state metrics |
KR20120024247A (ko) * | 2010-09-06 | 2012-03-14 | 삼성전자주식회사 | 사용자의 제스처를 인식하여 이동 장치를 동작하는 방법 및 그 이동 장치 |
US9558738B2 (en) * | 2011-03-08 | 2017-01-31 | At&T Intellectual Property I, L.P. | System and method for speech recognition modeling for mobile voice search |
US8756061B2 (en) | 2011-04-01 | 2014-06-17 | Sony Computer Entertainment Inc. | Speech syllable/vowel/phone boundary detection using auditory attention cues |
JP6031735B2 (ja) * | 2011-06-13 | 2016-11-24 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
CN102337835A (zh) * | 2011-09-23 | 2012-02-01 | 毛玉平 | 一种智能型防盗门 |
US9402576B2 (en) * | 2012-09-12 | 2016-08-02 | International Business Machines Corporation | Electronic communication warning and modification |
US10038885B2 (en) | 2012-10-17 | 2018-07-31 | Facebook, Inc. | Continuous capture with augmented reality |
US10032233B2 (en) * | 2012-10-17 | 2018-07-24 | Facebook, Inc. | Social context in augmented reality |
US9031293B2 (en) * | 2012-10-19 | 2015-05-12 | Sony Computer Entertainment Inc. | Multi-modal sensor based emotion recognition and emotional interface |
US20150245189A1 (en) | 2012-10-19 | 2015-08-27 | Srikanth Nalluri | Personal safety and emergency services |
US9020822B2 (en) | 2012-10-19 | 2015-04-28 | Sony Computer Entertainment Inc. | Emotion recognition using auditory attention cues extracted from users voice |
US9672811B2 (en) | 2012-11-29 | 2017-06-06 | Sony Interactive Entertainment Inc. | Combining auditory attention cues with phoneme posterior scores for phone/vowel/syllable boundary detection |
US9135248B2 (en) | 2013-03-13 | 2015-09-15 | Arris Technology, Inc. | Context demographic determination system |
US10304325B2 (en) | 2013-03-13 | 2019-05-28 | Arris Enterprises Llc | Context health determination system |
US9692839B2 (en) | 2013-03-13 | 2017-06-27 | Arris Enterprises, Inc. | Context emotion determination system |
KR102191306B1 (ko) * | 2014-01-22 | 2020-12-15 | 삼성전자주식회사 | 음성 감정 인식 시스템 및 방법 |
CN114461062A (zh) | 2014-11-07 | 2022-05-10 | 索尼公司 | 信息处理系统、控制方法和计算机可读存储介质 |
KR101625304B1 (ko) * | 2014-11-18 | 2016-05-27 | 경희대학교 산학협력단 | 음향 정보에 기초한 사용자 다수 행위 인식 방법 |
WO2016170810A1 (ja) * | 2015-04-23 | 2016-10-27 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
CN105681318A (zh) * | 2016-02-03 | 2016-06-15 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音识别的信息推送方法和装置 |
WO2018073832A1 (en) * | 2016-10-20 | 2018-04-26 | Rn Chidakashi Technologies Pvt. Ltd. | Emotionally intelligent companion device |
CN108039181B (zh) * | 2017-11-02 | 2021-02-12 | 北京捷通华声科技股份有限公司 | 一种声音信号的情感信息分析方法和装置 |
KR102419007B1 (ko) | 2018-04-10 | 2022-07-08 | 한국전자통신연구원 | 위험상황 알림 장치 및 방법 |
CN110782622A (zh) * | 2018-07-25 | 2020-02-11 | 杭州海康威视数字技术股份有限公司 | 一种安全监控系统、安全检测方法、装置及电子设备 |
CN111402925B (zh) * | 2020-03-12 | 2023-10-10 | 阿波罗智联(北京)科技有限公司 | 语音调节的方法、装置、电子设备、车载系统和可读介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001083984A (ja) * | 1999-09-09 | 2001-03-30 | Alpine Electronics Inc | インタフェース装置 |
JP2001327472A (ja) * | 2000-03-14 | 2001-11-27 | Toshiba Corp | 身体装着型生活支援装置および方法 |
JP2005237561A (ja) * | 2004-02-25 | 2005-09-08 | Canon Inc | 情報処理装置及び方法 |
JP2006004409A (ja) * | 2004-05-11 | 2006-01-05 | Matsushita Electric Ind Co Ltd | 電子書籍装置および電子書籍装置における表示方法 |
JP2007065969A (ja) * | 2005-08-31 | 2007-03-15 | Osaka Prefecture Univ | 表情から心理状態を推定する方法 |
WO2008032787A1 (fr) * | 2006-09-13 | 2008-03-20 | Nippon Telegraph And Telephone Corporation | ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10289006A (ja) * | 1997-04-11 | 1998-10-27 | Yamaha Motor Co Ltd | 疑似感情を用いた制御対象の制御方法 |
US6249780B1 (en) * | 1998-08-06 | 2001-06-19 | Yamaha Hatsudoki Kabushiki Kaisha | Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object |
KR100425342B1 (ko) | 2000-09-02 | 2004-03-30 | 삼성전자주식회사 | 신체 및 감정 상태 인식 장치 및 방법 |
TWI221574B (en) * | 2000-09-13 | 2004-10-01 | Agi Inc | Sentiment sensing method, perception generation method and device thereof and software |
US7999857B2 (en) * | 2003-07-25 | 2011-08-16 | Stresscam Operations and Systems Ltd. | Voice, lip-reading, face and emotion stress analysis, fuzzy logic intelligent camera system |
KR100673613B1 (ko) | 2004-01-17 | 2007-01-24 | 주식회사 헬스피아 | 이동통신 단말기 |
KR100775534B1 (ko) | 2004-10-12 | 2007-11-15 | 주식회사 케이티프리텔 | 응급 상황을 감지하기 위한 원격 보호 단말기, 시스템 및방법 |
JP4587854B2 (ja) | 2005-03-23 | 2010-11-24 | 東京電力株式会社 | 感情解析装置、感情解析プログラム、プログラム格納媒体 |
KR20060105312A (ko) | 2005-04-04 | 2006-10-11 | 주식회사 현대오토넷 | 음성인식기능을 이용한 유아 안전 경보장치와 안전 경보제어방법 |
-
2009
- 2009-12-07 US US12/632,010 patent/US8442832B2/en not_active Expired - Fee Related
- 2009-12-08 JP JP2009278770A patent/JP2010134937A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001083984A (ja) * | 1999-09-09 | 2001-03-30 | Alpine Electronics Inc | インタフェース装置 |
JP2001327472A (ja) * | 2000-03-14 | 2001-11-27 | Toshiba Corp | 身体装着型生活支援装置および方法 |
JP2005237561A (ja) * | 2004-02-25 | 2005-09-08 | Canon Inc | 情報処理装置及び方法 |
JP2006004409A (ja) * | 2004-05-11 | 2006-01-05 | Matsushita Electric Ind Co Ltd | 電子書籍装置および電子書籍装置における表示方法 |
JP2007065969A (ja) * | 2005-08-31 | 2007-03-15 | Osaka Prefecture Univ | 表情から心理状態を推定する方法 |
WO2008032787A1 (fr) * | 2006-09-13 | 2008-03-20 | Nippon Telegraph And Telephone Corporation | ProcÉDÉ de dÉtection de sensations, dispositif de dÉtection de sensations, programme de dÉtection de sensations contenant le procÉDÉ, et support d'enregistrement contenant le programme |
Non-Patent Citations (1)
Title |
---|
牛田 博英: "感情を持つ人工システム", 日本ファジィ学会誌, vol. 第12巻,第6, JPN6012007520, 15 December 2000 (2000-12-15), JP, pages 44 - 51, ISSN: 0002146898 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150003585A (ko) * | 2013-07-01 | 2015-01-09 | 상명대학교서울산학협력단 | 인체 미동 분석을 이용한 감성 판단 방법 |
KR102122973B1 (ko) * | 2013-07-01 | 2020-06-15 | 상명대학교산학협력단 | 인체 미동 분석을 이용한 감성 판단 방법 |
WO2016113968A1 (ja) * | 2015-01-14 | 2016-07-21 | ソニー株式会社 | ナビゲーションシステム、クライアント端末装置、制御方法、および記憶媒体 |
JPWO2016113968A1 (ja) * | 2015-01-14 | 2017-10-19 | ソニー株式会社 | ナビゲーションシステム、クライアント端末装置、制御方法、および記憶媒体 |
US10408629B2 (en) | 2015-01-14 | 2019-09-10 | Sony Corporation | Navigation system, client terminal device, control method, and storage medium |
JP2020095045A (ja) * | 2015-01-14 | 2020-06-18 | ソニー株式会社 | ナビゲーションシステム、クライアント端末装置、制御方法、記憶媒体、およびプログラム |
JP2018124972A (ja) * | 2016-12-06 | 2018-08-09 | ゼネラル・エレクトリック・カンパニイ | ワンショット学習を通じた群衆解析 |
WO2020175969A1 (ko) * | 2019-02-28 | 2020-09-03 | 주식회사 하가 | 감정 인식 장치 및 감정 인식 방법 |
Also Published As
Publication number | Publication date |
---|---|
US20100145695A1 (en) | 2010-06-10 |
US8442832B2 (en) | 2013-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010134937A (ja) | 状況認知装置およびこれを用いた状況認知方法 | |
Koshmak et al. | Challenges and issues in multisensor fusion approach for fall detection | |
Lentzas et al. | Non-intrusive human activity recognition and abnormal behavior detection on elderly people: A review | |
Mubashir et al. | A survey on fall detection: Principles and approaches | |
Lee et al. | Development of an enhanced threshold-based fall detection system using smartphones with built-in accelerometers | |
Clarkson et al. | Recognizing user context via wearable sensors | |
Zhang et al. | A comprehensive study of smartphone-based indoor activity recognition via Xgboost | |
KR101329100B1 (ko) | 상황 인지 장치 및 이를 이용한 상황 인지 방법 | |
Li et al. | Cross-Safe: A computer vision-based approach to make all intersection-related pedestrian signals accessible for the visually impaired | |
WO2012020591A1 (ja) | 個体識別システム、特徴量特定装置、特徴量特定方法および記録媒体 | |
Raja et al. | Applicability of RF-based methods for emotion recognition: A survey | |
Parnandi et al. | Coarse in-building localization with smartphones | |
JP2010128594A (ja) | 動作検出装置および動作検出方法 | |
Şengül et al. | Fusion of smartphone sensor data for classification of daily user activities | |
Kim et al. | Deep neural network-based indoor emergency awareness using contextual information from sound, human activity, and indoor position on mobile device | |
Pipelidis et al. | A novel lightweight particle filter for indoor localization | |
JP2020052856A (ja) | 救援支援サーバ、救援支援システム及びプログラム | |
Nizam et al. | Classification of daily life activities for human fall detection: a systematic review of the techniques and approaches | |
Fan et al. | Fall detection with unobtrusive infrared array sensors | |
Pham et al. | Real-time traffic activity detection using mobile devices | |
Doukas et al. | Enabling human status awareness in assistive environments based on advanced sound and motion data classification | |
Doukas et al. | An assistive environment for improving human safety utilizing advanced sound and motion data classification | |
Kausar et al. | Fall detection in the elderly using different machine learning algorithms with optimal window size | |
Faye et al. | Toward a characterization of human activities using smart devices: A micro/macro approach | |
CN113472945B (zh) | 一种基于碰撞检测的数据传输方法、系统和移动设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110513 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120425 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120727 |