JP2016507099A - 頭部装着型ディスプレイにおいて物理的握手を活用すること - Google Patents
頭部装着型ディスプレイにおいて物理的握手を活用すること Download PDFInfo
- Publication number
- JP2016507099A JP2016507099A JP2015552856A JP2015552856A JP2016507099A JP 2016507099 A JP2016507099 A JP 2016507099A JP 2015552856 A JP2015552856 A JP 2015552856A JP 2015552856 A JP2015552856 A JP 2015552856A JP 2016507099 A JP2016507099 A JP 2016507099A
- Authority
- JP
- Japan
- Prior art keywords
- person
- encounter
- user
- action
- determining whether
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Neurosurgery (AREA)
- Neurology (AREA)
- Dermatology (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
Claims (44)
- インターフェースデバイスに関する情報を管理するための方法であって、前記方法は、
前記インターフェースデバイスのユーザと人物の目下の物理的遭遇、および前記ユーザと人物の非物理的遭遇のうちの1つを検出することと、
目下の物理的遭遇が検出される場合、前記目下の物理的遭遇が最初の遭遇であるか、後続の遭遇であるかを決定することと、
前記目下の物理的遭遇が最初の遭遇である場合、以前遭遇した人物のデータベースに前記人物に関連付けられたコンテンツを追加することと、
前記目下の物理的遭遇が後続の遭遇である場合、すなわち目下の非物理的遭遇が検出される場合、前記人物が前記ユーザによって知られているかどうかを決定することと、
前記人物が前記ユーザによって知られていない場合、前記人物に対応する情報を前記インターフェースデバイスに提示することと、
を備える、方法。 - 目下の物理的遭遇を検出することは、
前記ユーザのボディ部から感知された電気的活動が前記ユーザの第1のアクションを示すかどうかを決定することと、
前記ユーザのボディ部から感知された動き活動が前記ユーザの第2のアクションを示すかどうかを決定することと、
のうちの1つまたは両方を備える、請求項1に記載の方法。 - 感知された電気的活動が第1のアクションを示すかどうかを決定することは、
前記第1のアクションに対応する電気的活動の基準と、前記感知された電気的活動を比較することと、
前記基準が満たされるとき、前記第1のアクションが生じたと結論付けることと、
を備える、請求項2に記載の方法。 - 感知された動き活動が第2のアクションを示すかどうかを決定することは、
前記第2のアクションに対応する動き活動の基準と、前記感知された動き活動を比較することと、
前記基準が満たされるとき、前記第2のアクションが生じたと結論付けることと、
を備える、請求項2に記載の方法。 - 前記第1のアクションは掌握することを備え、前記第2のアクションが上下運動を備える、請求項2に記載の方法。
- 目下の非物理的遭遇を検出することは、人物の属性が前記ユーザと前記人物との間の接近した空間的関係に対応する基準を満たすかどうかを決定することを備える、請求項1に記載の方法。
- 属性は、前記人物の画像、または前記人物のサウンド、のうちの1つまたは複数を備える、請求項1に記載の方法。
- 前記目下の物理的遭遇が最初の遭遇であるか、後続の遭遇であるかを決定することは、
前記ユーザによって以前遭遇された人々の画像のデータベースにおける画像と、前記人物の画像を比較することと、
前記人物の前記画像が、前記データベースにおける画像に一致しない場合、前記目下の物理的遭遇が最初の遭遇であると結論付けることと、
前記人物の前記画像が、前記データベースにおける画像に一致する場合、前記目下の物理的遭遇が後続の遭遇であると結論付けることと、
を備える、請求項1に記載の方法。 - 前記人物が前記ユーザによって知られているかどうかを決定することは、
前記人物の目下の属性を取得することと、
前記人物の前記属性に一致するデータベース内の属性に関連付けられたタグのために、既知の人物の前記データベースを走査することと、ここにおいて、前記タグは、前記人物が前記ユーザによって知られていることを示す、
を備える、請求項1に記載の方法。 - 前記目下の属性は、前記人物の画像、および前記人物のサウンド、のうちのすくなくとも1つを備える、請求項9に記載の方法。
- 前記インターフェースデバイスに情報を提示することは、前記人物の属性に一致するデータベース内の属性に関連付けられた情報のために、前記データベースを走査することを備え、前記情報は、前記人物の識別、および前記ユーザと前記人物の以前の遭遇の概要、のうちの少なくとも1つを含む、請求項1に記載の方法。
- 前記情報は、画像、音声、またはビデオのうちの1つまたは複数として提示される、請求項11に記載の方法。
- インターフェースデバイスに関する情報を管理するためのシステムであって、前記システムは、
前記インターフェースデバイスのユーザと人物の目下の物理的遭遇の1つを検出するための手段と、
前記ユーザと人物の非物理的遭遇を検出するための手段と、
検出された目下の物理的遭遇が最初の遭遇であるか、後続の遭遇であるかを決定するための手段と、
前記目下の物理的遭遇が最初の遭遇であるとき、以前遭遇した人物のデータベースに前記人物に関連付けられたコンテンツを追加するための手段と、
前記目下の物理的遭遇が後続の遭遇である、すなわち目下の非物理的遭遇が検出されるとき、前記人物が前記ユーザによって知られているかどうかを決定するための手段と、
前記人物が前記ユーザによって知られていないとき、前記人物に対応する情報を前記インターフェースデバイスに提示するための手段と、
を備える、システム。 - 目下の物理的遭遇を検出するための前記手段は、
前記ユーザのボディ部から感知された電気的活動が前記ユーザの第1のアクションを示すかどうかを決定するための手段と、
前記ユーザのボディ部から感知された動き活動が前記ユーザの第2のアクションを示すかどうかを決定するための手段と、
のうちの1つまたは両方を備える、請求項13に記載のシステム。 - 感知された電気的活動が第1のアクションを示すかどうかを決定するための前記手段は、
前記第1のアクションに対応する電気的活動の基準と、前記感知された電気的活動を比較することと、
前記基準が満たされるとき、前記第1のアクションが生じたと結論付けることと、
を行うように構成される、請求項14に記載のシステム。 - 感知された動き活動が第2のアクションを示すかどうかを決定するための前記手段は、
前記第2のアクションに対応する動き活動の基準と、前記感知された動き活動を比較することと、
前記基準が満たされるとき、前記第2のアクションが生じたと結論付けることと、
を行うように構成される、請求項14に記載のシステム。 - 目下の非物理的遭遇を検出するための前記手段は、人物の属性が前記ユーザと前記人物との間の接近した空間的関係に対応する基準を満たすかどうかを決定するように構成される、請求項13に記載のシステム。
- 前記目下の物理的遭遇が最初の遭遇であるか、後続の遭遇であるかを決定するための前記手段は、
前記ユーザによって以前遭遇された人々の画像のデータベースにおける画像と、前記人物の画像を比較することと、
前記人物の前記画像が、前記データベースにおける画像に一致しない場合、前記目下の物理的遭遇が最初の遭遇であると結論付けることと、
前記人物の前記画像が、前記データベースにおける画像に一致する場合、前記目下の物理的遭遇が後続の遭遇であると結論付けることと、
を行うように構成される、請求項13に記載のシステム。 - 前記人物が前記ユーザによって知られているかどうかを決定するための前記手段は、
前記人物の目下の属性を取得することと、
前記人物の前記属性に一致するデータベース内の属性に関連付けられたタグのために、既知の人物の前記データベースを走査することと、ここにおいて、前記タグは、前記人物が前記ユーザによって知られていることを示す、
を行うように構成される、請求項13に記載のシステム。 - 前記インターフェースデバイスに情報を提示するための手段は、前記人物の属性に一致するデータベース内の属性に関連付けられた情報のために、前記データベースを走査するように構成され、前記情報は、前記人物の識別、および前記ユーザと前記人物の以前の遭遇の概要、のうちの少なくとも1つを含む、請求項13に記載のシステム。
- インターフェースデバイスに関する情報を管理するためのシステムであって、前記システムは、
前記インターフェースデバイスのユーザと人物の目下の物理的遭遇を検出することと、
前記ユーザと人物の非物理的遭遇を検出することと、
検出された目下の物理的遭遇が最初の遭遇であるか、後続の遭遇であるかを決定することと、
前記目下の物理的遭遇が最初の遭遇であるとき、以前遭遇した人物のデータベースに前記人物に関連付けられたコンテンツを追加することと、
前記目下の物理的遭遇が後続の遭遇である、すなわち目下の非物理的遭遇が検出されるとき、前記人物が前記ユーザによって知られているかどうかを決定することと、
前記人物が前記ユーザによって知られていない場合、前記人物に対応する情報を前記インターフェースデバイスに提示することと、
を行うように構成された1つまたは複数の処理システム
を備える、システム。 - インターフェースデバイスに関する情報を管理するためのコンピュータプログラム製品であって、前記製品は、
前記インターフェースデバイスのユーザと人物の目下の物理的遭遇を検出することと、
前記ユーザと人物の非物理的遭遇を検出することと、
検出された目下の物理的遭遇が最初の遭遇であるか、後続の遭遇であるかを決定することと、
前記目下の物理的遭遇が最初の遭遇であるとき、以前遭遇した人物のデータベースに前記人物に関連付けられたコンテンツを追加することと、
前記目下の物理的遭遇が後続の遭遇である、すなわち目下の非物理的遭遇が検出されるとき、前記人物が前記ユーザによって知られているかどうかを決定することと、
前記人物が前記ユーザによって知られていないとき、前記人物に対応する情報を前記インターフェースデバイスに提示することと、
のためのコードを備える、1つまたは複数のコンピュータ可読媒体、
を備える、コンピュータプログラム製品。 - インターフェースデバイスに関する情報を管理するための方法であって、前記方法は、
前記インターフェースデバイスのユーザと人物の目下の物理的遭遇の検出の指示を受信することと、
前記目下の物理的遭遇が最初の遭遇であるか、後続の遭遇であるかを決定することと、
前記目下の物理的遭遇が最初の遭遇であるとき、以前遭遇した人物のデータベースに前記人物に関連付けられたコンテンツを追加することと、
を備える、方法。 - 前記目下の物理的遭遇が最初の遭遇であるか、後続の遭遇であるかを決定することは、
前記ユーザによって以前遭遇された人々の画像のデータベースにおける画像と、前記人物の画像を比較することと、
前記人物の前記画像が、前記データベースにおける画像に一致しない場合、前記目下の物理的遭遇が最初の遭遇であると結論付けることと、
前記人物の前記画像が、前記データベースにおける画像に一致する場合、前記目下の物理的遭遇が後続の遭遇であると結論付けることと、
を備える、請求項23に記載の方法。 - 前記目下の物理的遭遇が後続の遭遇であるとき、前記人物が前記ユーザによって知られているかどうかを決定することと、
前記人物が前記ユーザによって知られていないとき、前記人物に対応する情報を前記インターフェースデバイスに提示することと、
をさらに備える、請求項23に記載の方法。 - 前記人物が前記ユーザによって知られているかどうかを決定することは、
前記人物の目下の属性を取得することと、
前記人物の前記属性に一致するデータベース内の属性に関連付けられたタグのために、既知の人物の前記データベースを走査することと、ここにおいて、前記タグは、前記人物が前記ユーザによって知られていることを示す、
を備える、請求項25に記載の方法。 - 前記インターフェースデバイスに情報を提示することは、前記人物の属性に一致するデータベース内の属性に関連付けられた情報のために、前記データベースを走査することを備え、前記情報は、前記人物の識別、および前記ユーザと前記人物の以前の遭遇の概要、のうちの少なくとも1つを含む、請求項25に記載の方法。
- インターフェースデバイスに関する情報を管理するための装置であって、前記装置は、
前記インターフェースデバイスのユーザと人物の目下の物理的遭遇の検出の指示を受信するための手段と、
前記目下の物理的遭遇が最初の遭遇であるか、後続の遭遇であるかを決定するための手段と、
前記目下の物理的遭遇が最初の遭遇であるとき、以前遭遇した人物のデータベースに前記人物に関連付けられたコンテンツを追加するための手段と、
を備える、装置。 - 前記目下の物理的遭遇が最初の遭遇であるか、後続の遭遇であるかを決定するための前記手段は、
前記ユーザによって以前遭遇された人々の画像のデータベースにおける画像と、前記人物の画像を比較することと、
前記人物の前記画像が、前記データベースにおける画像に一致しない場合、前記目下の物理的遭遇が最初の遭遇であると結論付けることと、
前記人物の前記画像が、前記データベースにおける画像に一致する場合、前記目下の物理的遭遇が後続の遭遇であると結論付けることと、
を行うように構成される、請求項28に記載の装置。 - 前記目下の物理的遭遇が後続の遭遇であるとき、前記人物が前記ユーザによって知られているかどうかを決定するための手段と、
前記人物が前記ユーザによって知られていないとき、前記人物に対応する情報を前記インターフェースデバイスに提示するための手段と、
をさらに備える、請求項28に記載の装置。 - 前記人物が前記ユーザによって知られているかどうかを決定するための前記手段は、
前記人物の目下の属性を取得することと、
前記人物の前記属性に一致するデータベース内の属性に関連付けられたタグのために、既知の人物の前記データベースを走査することと、ここにおいて、前記タグは、前記人物が前記ユーザによって知られていることを示す、
を行うように構成される、請求項30に記載の装置。 - 前記インターフェースデバイスに情報を提示するための手段は、前記人物の属性に一致するデータベース内の属性に関連付けられた情報のために、前記データベースを走査するように構成され、前記情報は、前記人物の識別、および前記ユーザと前記人物の以前の遭遇の概要、のうちの少なくとも1つを含む、請求項30に記載の装置。
- インターフェースデバイスに関する情報を管理するための装置であって、前記装置は、
前記インターフェースデバイスのユーザと人物の目下の物理的遭遇の検出の指示を受信することと、
前記目下の物理的遭遇が最初の遭遇であるか、後続の遭遇であるかを決定することと、
前記目下の物理的遭遇が最初の遭遇であるとき、以前遭遇した人物のデータベースに前記人物に関連付けられたコンテンツを追加することと、
を行うように構成された処理システム、
を備える、装置。 - インターフェースデバイスに関する情報を管理するためのコンピュータプログラム製品であって、前記製品は、
前記インターフェースデバイスのユーザと人物の目下の物理的遭遇の検出の指示を受信することと、
前記目下の物理的遭遇が最初の遭遇であるか、後続の遭遇であるかを決定することと、
前記目下の物理的遭遇が最初の遭遇であるとき、以前遭遇した人物のデータベースに前記人物に関連付けられたコンテンツを追加することと、
のためのコードを備える1つまたは複数のコンピュータ可読媒体、
を備える、コンピュータプログラム製品。 - 検出デバイスのユーザと別の人物の物理的対話を検出する方法であって、前記方法は、
前記ユーザのボディ部から感知された電気的活動が、前記物理的対話に関連付けられた前記ユーザによる第1のアクションを示すかどうかを決定することと、
前記ユーザのボディ部から感知された動き活動が、前記物理的対話に関連付けられた前記ユーザによる第2のアクションを示すかどうかを決定することと、
を備える、方法。 - 感知された電気的活動が第1のアクションを示すかどうかを決定することは、
前記第1のアクションに対応する電気的活動の基準と、前記感知された電気的活動を比較することと、
前記基準が満たされるとき、前記第1のアクションが生じたと結論付けることと、
を備える、請求項35に記載の方法。 - 感知された動き活動が第2のアクションを示すかどうかを決定することは、
前記第2のアクションに対応する動き活動の基準と、前記感知された動き活動を比較することと、
前記基準が満たされるとき、前記第2のアクションが生じたと結論付けることと、
を備える、請求項35に記載の方法。 - 前記第1のアクションは手の掌握を備え、前記第2のアクションが上下の腕の運動を備える、請求項35に記載の方法。
- 検出デバイスのユーザと別の人物の物理的対話を検出する装置であって、前記装置は、
前記ユーザのボディ部から感知された電気的活動が、前記物理的対話に関連付けられた前記ユーザによる第1のアクションを示すかどうかを決定するための手段と、
前記ユーザのボディ部から感知された動き活動が、前記物理的対話に関連付けられた前記ユーザによる第2のアクションを示すかどうかを決定するための手段と、
を備える、装置。 - 感知された電気的活動が第1のアクションを示すかどうかを決定するための前記手段は、
前記第1のアクションに対応する電気的活動の基準と、前記感知された電気的活動を比較することと、
前記基準が満たされるとき、前記第1のアクションが生じたと結論付けることと、
を行うように構成される、請求項39に記載の装置。 - 感知された動き活動が第2のアクションを示すかどうかを決定するための前記手段は、
前記第2のアクションに対応する動き活動の基準と、前記感知された動き活動を比較することと、
前記基準が満たされるとき、前記第2のアクションが生じたと結論付けることと、
を行うように構成される、請求項39に記載の装置。 - 前記第1のアクションは手の掌握を備え、前記第2のアクションが上下の腕の運動を備える、請求項39に記載の装置。
- 検出デバイスのユーザと別の人物の物理的対話を検出するための装置であって、前記装置は、
前記ユーザのボディ部から感知された電気的活動が、前記物理的対話に関連付けられた前記ユーザによる第1のアクションを示すかどうかを決定することと、
前記ユーザのボディ部から感知された動き活動が、前記物理的対話に関連付けられた前記ユーザによる第2のアクションを示すかどうかを決定することと、
を行うように構成された処理システム、
を備える、装置。 - 検出デバイスのユーザと別の人物の物理的対話を検出するためのコンピュータプログラム製品であって、前記製品は、
前記ユーザのボディ部から感知された電気的活動が、前記物理的対話に関連付けられた前記ユーザによる第1のアクションを示すかどうかを決定することと、
前記ユーザのボディ部から感知された動き活動が、前記物理的対話に関連付けられた前記ユーザによる第2のアクションを示すかどうかを決定することと、
のためのコードを備えるコンピュータ可読媒体、
を備える、コンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/740,432 | 2013-01-14 | ||
US13/740,432 US9134792B2 (en) | 2013-01-14 | 2013-01-14 | Leveraging physical handshaking in head mounted displays |
PCT/US2014/011280 WO2014110500A1 (en) | 2013-01-14 | 2014-01-13 | Leveraging physical handshaking in head mounted displays |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016507099A true JP2016507099A (ja) | 2016-03-07 |
JP2016507099A5 JP2016507099A5 (ja) | 2017-02-09 |
JP6407889B2 JP6407889B2 (ja) | 2018-10-17 |
Family
ID=50070677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015552856A Expired - Fee Related JP6407889B2 (ja) | 2013-01-14 | 2014-01-13 | 頭部装着型ディスプレイにおいて物理的握手を活用すること |
Country Status (7)
Country | Link |
---|---|
US (1) | US9134792B2 (ja) |
EP (1) | EP2943854B1 (ja) |
JP (1) | JP6407889B2 (ja) |
KR (1) | KR102243977B1 (ja) |
CN (1) | CN104919396B (ja) |
ES (1) | ES2813611T3 (ja) |
WO (1) | WO2014110500A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019185077A (ja) * | 2018-03-31 | 2019-10-24 | Nl技研株式会社 | 認知支援システム、認知支援装置、および認知支援サーバ |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102158209B1 (ko) * | 2013-07-26 | 2020-09-22 | 엘지전자 주식회사 | 전자기기 |
US9646084B2 (en) * | 2014-01-31 | 2017-05-09 | Here Global B.V. | Causation of storage of handshake greeting audio information |
US9456070B2 (en) | 2014-09-11 | 2016-09-27 | Ebay Inc. | Methods and systems for recalling second party interactions with mobile devices |
US10311869B2 (en) | 2014-10-21 | 2019-06-04 | Robert Bosch Gmbh | Method and system for automation of response selection and composition in dialog systems |
US9635167B2 (en) | 2015-09-29 | 2017-04-25 | Paypal, Inc. | Conversation assistance system |
US10152545B2 (en) * | 2015-10-20 | 2018-12-11 | Adobe Systems Incorporated | Personalized recommendations using localized regularization |
JPWO2017154136A1 (ja) * | 2016-03-09 | 2018-08-30 | マクセル株式会社 | 携帯情報端末及びそれに用いる情報処理方法 |
CN106094989A (zh) * | 2016-06-10 | 2016-11-09 | 北京行云时空科技有限公司 | 一种增强现实图像定位显示方法、装置和系统 |
US20180150204A1 (en) * | 2016-11-30 | 2018-05-31 | Google Inc. | Switching of active objects in an augmented and/or virtual reality environment |
EP3528091A1 (en) * | 2018-02-14 | 2019-08-21 | Koninklijke Philips N.V. | Personal care device localization |
US20230122450A1 (en) * | 2021-10-20 | 2023-04-20 | Google Llc | Anchored messages for augmented reality |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002358149A (ja) * | 2001-06-01 | 2002-12-13 | Sony Corp | ユーザ入力装置 |
JP2008118526A (ja) * | 2006-11-07 | 2008-05-22 | Sony Corp | 撮像装置、撮像方法 |
JP2010061265A (ja) * | 2008-09-02 | 2010-03-18 | Fujifilm Corp | 人物検索登録システム |
US20120045093A1 (en) * | 2010-08-23 | 2012-02-23 | Nokia Corporation | Method and apparatus for recognizing objects in media content |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6038333A (en) * | 1998-03-16 | 2000-03-14 | Hewlett-Packard Company | Person identifier and management system |
US20070140532A1 (en) * | 2005-12-20 | 2007-06-21 | Goffin Glen P | Method and apparatus for providing user profiling based on facial recognition |
US7751597B2 (en) | 2006-11-14 | 2010-07-06 | Lctank Llc | Apparatus and method for identifying a name corresponding to a face or voice using a database |
JP4988016B2 (ja) | 2009-08-27 | 2012-08-01 | 韓國電子通信研究院 | 指の動き検出装置およびその方法 |
US20120249797A1 (en) | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
WO2011106798A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
KR101672215B1 (ko) * | 2010-04-26 | 2016-11-04 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 방법 |
US20120026191A1 (en) | 2010-07-05 | 2012-02-02 | Sony Ericsson Mobile Communications Ab | Method for displaying augmentation information in an augmented reality system |
US20120019557A1 (en) | 2010-07-22 | 2012-01-26 | Sony Ericsson Mobile Communications Ab | Displaying augmented reality information |
KR101761314B1 (ko) | 2010-12-03 | 2017-07-26 | 삼성전자주식회사 | 생체 신호 측정 로봇 및 그 제어방법 |
KR20120064900A (ko) | 2010-12-10 | 2012-06-20 | 곽진호 | 사생활보호 기능이 구현되는 통신단말기 및 통신방법, 사생활보호 기능 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체 |
-
2013
- 2013-01-14 US US13/740,432 patent/US9134792B2/en active Active
-
2014
- 2014-01-13 WO PCT/US2014/011280 patent/WO2014110500A1/en active Application Filing
- 2014-01-13 JP JP2015552856A patent/JP6407889B2/ja not_active Expired - Fee Related
- 2014-01-13 ES ES14703467T patent/ES2813611T3/es active Active
- 2014-01-13 KR KR1020157021365A patent/KR102243977B1/ko active IP Right Grant
- 2014-01-13 CN CN201480004378.7A patent/CN104919396B/zh active Active
- 2014-01-13 EP EP14703467.2A patent/EP2943854B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002358149A (ja) * | 2001-06-01 | 2002-12-13 | Sony Corp | ユーザ入力装置 |
US20040243342A1 (en) * | 2001-06-01 | 2004-12-02 | Junichi Rekimoto | User input apparatus |
JP2008118526A (ja) * | 2006-11-07 | 2008-05-22 | Sony Corp | 撮像装置、撮像方法 |
JP2010061265A (ja) * | 2008-09-02 | 2010-03-18 | Fujifilm Corp | 人物検索登録システム |
US20120045093A1 (en) * | 2010-08-23 | 2012-02-23 | Nokia Corporation | Method and apparatus for recognizing objects in media content |
Non-Patent Citations (5)
Title |
---|
AUGIMERI ET AL.: "A Cooperative Approach for Handshake Detection based on Body Sensor Networks", IN PROC. OF 2010 IEEE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN, AND CYBERNETICS [ONLINE], JPN6017044490, October 2010 (2010-10-01), pages 281 - 288, XP031805646, ISSN: 0003686615 * |
岡 秀郎 他: "スポーツパフォーマンスのロボット工学的再評価", 精密工学会 学術講演会 講演論文集1959−2002年, JPN6017044494, 25 May 2009 (2009-05-25), JP, pages 635, ISSN: 0003686619 * |
水谷晶彦 他: "ウェアラブルコンピュータと短距離無線通信の連携 時計型コンピュータWatchPadによる実装例", FIT2002 情報科学技術フォーラム 一般講演論文集 第4分冊, JPN6017044491, 13 September 2002 (2002-09-13), JP, pages 219 - 220, ISSN: 0003686616 * |
田中 健太 他: "顔認識による過去に会った人物の情報提示システム", 映像情報メディア学会技術報告, vol. 第36巻 第9号, JPN6017044492, 13 February 2012 (2012-02-13), pages 183 - 187, ISSN: 0003686617 * |
辻 敏夫 他: "生体信号でロボットを自在に操る", 電子情報通信学会誌, vol. 第90巻 第10号, JPN6017044493, 1 October 2007 (2007-10-01), pages 854 - 858, ISSN: 0003686618 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019185077A (ja) * | 2018-03-31 | 2019-10-24 | Nl技研株式会社 | 認知支援システム、認知支援装置、および認知支援サーバ |
Also Published As
Publication number | Publication date |
---|---|
KR20150106425A (ko) | 2015-09-21 |
ES2813611T3 (es) | 2021-03-24 |
EP2943854A1 (en) | 2015-11-18 |
KR102243977B1 (ko) | 2021-04-22 |
CN104919396A (zh) | 2015-09-16 |
JP6407889B2 (ja) | 2018-10-17 |
US20140198956A1 (en) | 2014-07-17 |
CN104919396B (zh) | 2017-09-15 |
WO2014110500A1 (en) | 2014-07-17 |
US9134792B2 (en) | 2015-09-15 |
EP2943854B1 (en) | 2020-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6407889B2 (ja) | 頭部装着型ディスプレイにおいて物理的握手を活用すること | |
JP6227669B2 (ja) | 表面上でのジェスチャ認識のためのemgの使用 | |
WO2020211701A1 (zh) | 模型训练方法、情绪识别方法及相关装置和设备 | |
US10139898B2 (en) | Distracted browsing modes | |
WO2021190078A1 (zh) | 短视频的生成方法、装置、相关设备及介质 | |
US20150091790A1 (en) | Classification of gesture detection systems through use of known and yet to be worn sensors | |
KR102223693B1 (ko) | Nui 관여의 검출 | |
JP2018521381A (ja) | 感情検出システム | |
JP2018506760A (ja) | ストップモーションコンテンツの増強 | |
JP2019504409A (ja) | ユーザ挙動ベースのコンテンツ推奨のためのシステムおよび方法 | |
US10514752B2 (en) | Methods and apparatus to determine objects to present in virtual reality environments | |
JP2013545163A (ja) | サーマルイメージングを用いたユーザインタフェースシステムおよび方法 | |
JP2014021986A (ja) | コンテンツ提供方法及びそれを適用したディスプレイ装置 | |
US20160267176A1 (en) | Dynamic Presentation of Data Items Based on Prioritized Associations | |
JP2015505430A (ja) | 携帯電子機器及び携帯電子機器を使用してメディアを記録する方法 | |
CN113764099A (zh) | 基于人工智能的心理状态分析方法、装置、设备及介质 | |
WO2017175447A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11328187B2 (en) | Information processing apparatus and information processing method | |
US10401968B2 (en) | Determining digit movement from frequency data | |
TW202021534A (zh) | 異常肺音標記的方法及裝置 | |
EP3686755B1 (en) | Automatic reference finding in audiovisual scenes | |
Hevesi et al. | Wearable eye tracking for multisensor physical activity recognition | |
Srinivas et al. | A survey report on mobile eye-based Human-Computer Interaction | |
TW201907292A (zh) | 多媒體檔案管理方法及電子裝置 | |
JP2021105935A (ja) | 物体検索装置、物体検索方法、及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161214 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180717 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180821 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180919 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6407889 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |