JP2016511488A - センサフュージョンを介した対話式入力の拡張 - Google Patents
センサフュージョンを介した対話式入力の拡張 Download PDFInfo
- Publication number
- JP2016511488A JP2016511488A JP2016501322A JP2016501322A JP2016511488A JP 2016511488 A JP2016511488 A JP 2016511488A JP 2016501322 A JP2016501322 A JP 2016501322A JP 2016501322 A JP2016501322 A JP 2016501322A JP 2016511488 A JP2016511488 A JP 2016511488A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- input data
- sensor
- input
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002452 interceptive effect Effects 0.000 title abstract description 18
- 230000004927 fusion Effects 0.000 title description 4
- 230000007704 transition Effects 0.000 claims abstract description 69
- 238000000034 method Methods 0.000 claims abstract description 59
- 238000001514 detection method Methods 0.000 claims description 39
- 238000002604 ultrasonography Methods 0.000 claims description 14
- 230000015654 memory Effects 0.000 claims description 6
- 230000000977 initiatory effect Effects 0.000 claims 2
- 230000033001 locomotion Effects 0.000 description 49
- 210000003811 finger Anatomy 0.000 description 44
- 230000009471 action Effects 0.000 description 19
- 238000012545 processing Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 10
- 230000003993 interaction Effects 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 230000001360 synchronised effect Effects 0.000 description 6
- 210000004247 hand Anatomy 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
Abstract
Description
104 ユーザデバイス
106 参照符号
202 開いた手
204 ユーザデバイス
206 参照符号
302 デバイス
304 前面センサ
306 側面センサ
308 上端センサ
502 ユーザ
504 ユーザデバイス
506 参照符号
602 指
604 ユーザデバイス
606 参照符号
702 指
704 ユーザデバイス
706 参照符号
Claims (37)
- 第1のセンサで、制御オブジェクトによる入力の少なくとも一部を検出するステップと、
前記制御オブジェクトが、遷移領域に位置付けられていることを決定するステップと、
前記制御オブジェクトが、前記遷移領域に位置付けられているとの前記決定に少なくとも部分的に基づいて、第2のセンサで、同一の入力の後続部分を検出するか否かを決定するステップと
を備える、方法。 - 前記遷移領域はさらに、少なくとも前記第1のセンサから前記第2のセンサへのハンドオフの間、入力に対する精度の高い連続した解像度が存在する領域を備える、請求項1に記載の方法。
- 前記検出するステップは、ユーザデバイスによって、オンスクリーンの入力データを捕捉するステップを備え、
前記方法はさらに、
前記第2のセンサで、前記入力の前記後続部分を検出すると決定されたとき、シームレスなユーザ入力を提供するために、前記オンスクリーンの入力データをオフスクリーンのデータと組み合わせるステップを備える、請求項1に記載の方法。 - 前記オンスクリーンの入力データを捕捉する前記ステップはさらに、スクリーン上でタッチレスなジェスチャ入力データを捕捉するステップを備え、前記オフスクリーンのデータはさらに、オフスクリーンのタッチレスなジェスチャ入力データを備え、前記方法はさらに、前記スクリーン上で捕捉された前記タッチレスなジェスチャ入力データを、前記オフスクリーンのタッチレスなジェスチャ入力データと同期するステップを備える、請求項3に記載の方法。
- 前記オンスクリーンの入力データを捕捉する前記ステップはさらに、オンスクリーンのタッチ入力データを捕捉するステップを備え、前記オフスクリーンのデータはさらに、タッチレスなジェスチャデータを備え、前記方法はさらに、前記オンスクリーンのタッチ入力データを前記タッチレスなジェスチャデータと組み合わせる前記ステップを介して、動作を制御するステップを備える、請求項3に記載の方法。
- 前記オンスクリーンのタッチ入力データを前記タッチレスなジェスチャデータと組み合わせる前記ステップは、1つの連続したコマンドを生成する、請求項5に記載の方法。
- 前記制御オブジェクトが、前記遷移領域に位置付けられていると決定すると、オフスクリーンのジェスチャ検出を開始するステップをさらに備える、請求項1に記載の方法。
- 前記オフスクリーンのジェスチャ検出はさらに、ユーザデバイスの1つまたは複数の端上で、超音波または1もしくは複数の広角度撮像素子を使用することを備える、請求項7に記載の方法。
- 前記ユーザデバイス上で、タッチスクリーンまたは前面対向画像センサを使用してオンスクリーンの入力データを捕捉するステップをさらに備える、請求項8に記載の方法。
- 前記制御オブジェクトが、前記遷移領域内に位置付けられている間、前記第1のセンサおよび前記第2のセンサの両方を使用して、前記制御オブジェクトから入力を検出するステップをさらに備える、請求項1に記載の方法。
- 前記検出するステップはさらに、ユーザデバイスによって、オフスクリーンの入力データを捕捉するステップを備え、
前記方法はさらに、
前記第2のセンサで、前記入力の前記後続部分を検出すると決定されたとき、シームレスなユーザ入力を提供するために、前記オフスクリーンの入力データを、オンスクリーンのデータと組み合わせるステップを備える、請求項1に記載の方法。 - 前記オフスクリーンの入力データを捕捉する前記ステップはさらに、オフスクリーンのタッチレスなジェスチャ入力データを捕捉するステップを備え、前記オンスクリーンのデータはさらに、オンスクリーンのタッチレスなジェスチャ入力データを備え、前記方法はさらに、前記オフスクリーンのタッチレスなジェスチャ入力データを、前記オンスクリーンのタッチレスなジェスチャ入力データと同期するためのステップを備える、請求項11に記載の方法。
- 1つまたは複数の入力を検出するように構成された複数のセンサと、
1つまたは複数のプロセッサと、
複数の機械可読命令を記憶するように適合された1つまたは複数のメモリと
を備えたシステムであって、前記命令は、前記1つまたは複数のプロセッサによって実行されると、前記システムに、
前記複数のセンサの第1のセンサで、制御オブジェクトによる入力の少なくとも一部を検出し、
前記制御オブジェクトが、遷移領域に位置付けられていることを決定し、および、
前記制御オブジェクトが、前記遷移領域に位置付けられているとの前記決定に少なくとも部分的に基づいて、前記複数のセンサの第2のセンサで、前記入力の後続部分を検出するか否かを決定する
ことをさせるように適合された、システム。 - 前記遷移領域はさらに、少なくとも前記第1のセンサから前記第2のセンサへのハンドオフの間、入力に対する精度の高い連続した解像度が存在する領域を備える、請求項13に記載のシステム。
- 前記複数の機械可読命令は、前記1つまたは複数のプロセッサによって実行されると、前記システムに、
前記第1のセンサで、オンスクリーンの入力データを捕捉し、および、
前記第2のセンサで、前記入力の前記後続部分を検出すると決定されたとき、シームレスな入力を提供するために、前記オンスクリーンの入力データを、前記第2のセンサで捕捉されたオフスクリーンの入力データを組み合わせる
ことをさせるように適合された、請求項13に記載のシステム。 - 前記複数の機械可読命令は、前記1つまたは複数のプロセッサによって実行されると、前記システムに、ユーザデバイスのタッチスクリーンまたは前面対向センサを使用して前記オンスクリーンの入力データを捕捉することをさせるように適合された、請求項15に記載のシステム。
- 前記オンスクリーンの入力データはさらに、スクリーン上で捕捉されたタッチレスなジェスチャ入力データを備え、前記オフスクリーンの入力データはさらに、オフスクリーンのタッチレスなジェスチャ入力データを備え、前記複数の機械可読命令は、前記1つまたは複数のプロセッサによって実行されると、前記システムに、前記スクリーン上で捕捉された前記タッチレスなジェスチャ入力データを、前記オフスクリーンのタッチレスなジェスチャ入力データと同期することをさせるように適合された、請求項15に記載のシステム。
- 前記オンスクリーンの入力データはさらに、オンスクリーンのタッチ入力データを備え、前記オフスクリーンの入力データはさらに、タッチレスなジェスチャデータを備え、前記複数の機械可読命令は、前記1つまたは複数のプロセッサによって実行されると、前記システムに、前記オンスクリーンのタッチ入力データを前記タッチレスなジェスチャデータと組み合わせることを介して動作を制御することをさせるように適合された、請求項15に記載のシステム。
- 前記複数の機械可読命令は、前記1つまたは複数のプロセッサによって実行されると、前記システムに、前記オンスクリーンのタッチ入力データを前記タッチレスなジェスチャデータと組み合わせることを介して1つの連続したコマンドを生成することをさせるように適合された、請求項18に記載のシステム。
- 前記複数の機械可読命令は、前記1つまたは複数のプロセッサによって実行されると、前記システムに、前記制御オブジェクトが、前記遷移領域に位置付けられていると決定すると、オフスクリーンのジェスチャ検出を開始することをさせるように適合された、請求項13に記載のシステム。
- 前記複数の機械可読命令は、前記1つまたは複数のプロセッサによって実行されると、前記システムに、ユーザデバイスの1つまたは複数の端上で、超音波または1もしくは複数の広角度撮像素子を使用することによって、前記制御オブジェクトが、前記遷移領域に位置付けられていると決定すると、前記オフスクリーンのジェスチャ検出を開始することをさせるように適合された、請求項20に記載のシステム。
- 前記複数の機械可読命令は、前記1つまたは複数のプロセッサによって実行されると、前記システムに、前記制御オブジェクトが、前記遷移領域に位置付けられている間、前記第1のセンサおよび前記第2のセンサの両方を使用して、前記制御オブジェクトから入力を検出することをさせるように適合された、請求項13に記載のシステム。
- 前記複数の機械可読命令は、前記1つまたは複数のプロセッサによって実行されると、前記システムに、
前記第1のセンサで、オフスクリーンの入力データを捕捉し、および、
前記第2のセンサで、前記入力の前記後続部分を検出すると決定されたとき、シームレスなユーザ入力を提供するために、前記オフスクリーンの入力データを、前記第2のセンサで捕捉されたオンスクリーンのデータと組み合わせる
ことをさせるように適合された、請求項13に記載のシステム。 - 前記オフスクリーンの入力データはさらに、オフスクリーンのタッチレスなジェスチャ入力データを備え、前記オンスクリーンのデータはさらに、オンスクリーンのタッチレスなジェスチャ入力データを備え、前記複数の機械可読命令は、前記1つまたは複数のプロセッサによって実行されると、前記システムに、前記オフスクリーンのタッチレスなジェスチャ入力データを、前記オンスクリーンのタッチレスなジェスチャ入力データと同期することをさせるように適合された、請求項23に記載のシステム。
- 制御オブジェクトによる入力の少なくとも一部を検出するための第1の手段と、
前記制御オブジェクトが、遷移領域に位置付けられていることを決定するための手段と、
前記制御オブジェクトが、前記遷移領域に位置付けられているとの前記決定に少なくとも部分的に基づいて、検出するための第2の手段で、同一の入力の後続部分を検出するか否かを決定するための手段と
を備える、装置。 - 前記遷移領域はさらに、少なくとも検出するための前記第1の手段から、前記検出するための第2の手段へのハンドオフの間、入力に対する精度の高い連続した解像度が存在する領域を備える、請求項25に記載の装置。
- 検出するための前記第1の手段はさらに、オンスクリーンの入力データを捕捉するための手段を備え、前記装置はさらに、検出するための前記第2の手段で、前記入力の前記後続部分を検出すると決定されたとき、シームレスなユーザ入力を提供するために、前記オンスクリーンの入力データを、オフスクリーンのデータと組み合わせるための手段を備える、請求項25に記載の装置。
- 前記オンスクリーンの入力データを捕捉するための前記手段はさらに、スクリーン上でのタッチレスなジェスチャ入力データを捕捉するための手段を備え、前記オフスクリーンのデータはさらに、オフスクリーンのタッチレスなジェスチャ入力データを備え、前記装置はさらに、前記タッチレスなジェスチャ入力データを、前記オフスクリーンのタッチレスなジェスチャ入力データと同期するための手段を備える、請求項27に記載の装置。
- 前記オンスクリーンの入力データを捕捉するための前記手段はさらに、オンスクリーンのタッチ入力データを捕捉するための手段を備え、前記オフスクリーンのデータはさらに、タッチレスなジェスチャデータを備え、前記装置はさらに、前記オンスクリーンのタッチ入力データを、前記タッチレスなジェスチャデータと組み合わせることを介して、動作を制御するための手段を備える、請求項27に記載の装置。
- 前記オンスクリーンのタッチ入力データを、前記タッチレスなジェスチャデータと組み合わせるための手段を使用することによって、1つの連続したコマンドを生成するための手段をさらに備える、請求項29に記載の装置。
- 前記制御オブジェクトが、前記遷移領域に位置付けられていると決定すると、オフスクリーンのジェスチャを検出するための手段を開始するための手段をさらに備える、請求項25に記載の装置。
- オフスクリーンのジェスチャを検出するための前記手段はさらに、ユーザデバイスの1つまたは複数の端上で、超音波または1もしくは複数の広角度撮像素子を使用する手段を備える、請求項31に記載の装置。
- ユーザデバイスのタッチスクリーンまたは前面対向センサを使用して、オンスクリーンの入力データを捕捉するための手段をさらに備える、請求項32に記載の装置。
- 前記制御オブジェクトが、前記遷移領域内に位置付けられている間、前記制御オブジェクトから入力を検出するために、検出するための前記第1の手段および検出するための前記第2の手段の両方が使用される、請求項25に記載の装置。
- 検出するための前記第1の手段はさらに、オフスクリーンの入力データを捕捉するための手段を備え、前記装置はさらに、
検出するための前記第2の手段で、前記入力の前記後続部分を検出すると決定されたとき、シームレスなユーザ入力を提供するために、前記オフスクリーンの入力データを、オンスクリーンのデータと組み合わせるための手段を備える、請求項25に記載の装置。 - 前記オフスクリーンの入力データを捕捉するための前記手段はさらに、オフスクリーンのタッチレスなジェスチャ入力データを捕捉するための手段を備え、前記オンスクリーンのデータはさらに、オンスクリーンのタッチレスなジェスチャ入力データを備え、前記装置はさらに、前記オフスクリーンのタッチレスなジェスチャ入力データを、前記オンスクリーンのタッチレスなジェスチャ入力データと同期するための手段を備える、請求項35に記載の装置。
- コンピュータ可読命令が記憶された非一時的コンピュータ可読媒体であって、前記命令は、プロセッサによって実行されると、前記プロセッサに、
第1のセンサで、制御オブジェクトによる入力の少なくとも一部を検出し、
前記制御オブジェクトが、遷移領域に位置付けられていることを決定し、および、
前記制御オブジェクトが、前記遷移領域に位置付けられているとの前記決定に少なくとも部分的に基づいて、第2のセンサで、前記入力の後続部分を検出するか否かを決定する
ことをさせる、非一時的コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/843,727 US20140267142A1 (en) | 2013-03-15 | 2013-03-15 | Extending interactive inputs via sensor fusion |
US13/843,727 | 2013-03-15 | ||
PCT/US2014/023705 WO2014150589A1 (en) | 2013-03-15 | 2014-03-11 | Extending interactive inputs via sensor fusion |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016511488A true JP2016511488A (ja) | 2016-04-14 |
JP2016511488A5 JP2016511488A5 (ja) | 2017-03-23 |
Family
ID=50543666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016501322A Pending JP2016511488A (ja) | 2013-03-15 | 2014-03-11 | センサフュージョンを介した対話式入力の拡張 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20140267142A1 (ja) |
EP (1) | EP2972674A1 (ja) |
JP (1) | JP2016511488A (ja) |
KR (1) | KR20150130379A (ja) |
CN (1) | CN105144033A (ja) |
BR (1) | BR112015023803A2 (ja) |
WO (1) | WO2014150589A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016058061A (ja) * | 2014-09-08 | 2016-04-21 | 井上 文彦 | 電子機器 |
JP2020086998A (ja) * | 2018-11-27 | 2020-06-04 | ローム株式会社 | 入力デバイス、自動車 |
JP2020177428A (ja) * | 2019-04-17 | 2020-10-29 | 京セラ株式会社 | 電子機器、制御方法、及びプログラム |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9152306B2 (en) * | 2011-03-29 | 2015-10-06 | Intel Corporation | Techniques for touch and non-touch user interaction input |
US9389690B2 (en) | 2012-03-01 | 2016-07-12 | Qualcomm Incorporated | Gesture detection based on information from multiple types of sensors |
KR102051418B1 (ko) * | 2012-09-28 | 2019-12-03 | 삼성전자주식회사 | 영상에 포함된 객체를 선택하기 위한 사용자 인터페이스 제어 장치 및 그 방법 그리고 영상 입력 장치 |
US9672627B1 (en) * | 2013-05-09 | 2017-06-06 | Amazon Technologies, Inc. | Multiple camera based motion tracking |
US20150042580A1 (en) * | 2013-08-08 | 2015-02-12 | Lg Electronics Inc. | Mobile terminal and a method of controlling the mobile terminal |
WO2015022498A1 (en) * | 2013-08-15 | 2015-02-19 | Elliptic Laboratories As | Touchless user interfaces |
US20150077345A1 (en) * | 2013-09-16 | 2015-03-19 | Microsoft Corporation | Simultaneous Hover and Touch Interface |
KR102209332B1 (ko) * | 2014-01-06 | 2021-02-01 | 삼성디스플레이 주식회사 | 스트레쳐블 표시장치 및 이의 제어방법 |
JP6573457B2 (ja) * | 2015-02-10 | 2019-09-11 | 任天堂株式会社 | 情報処理システム |
JP6519075B2 (ja) * | 2015-02-10 | 2019-05-29 | 任天堂株式会社 | 情報処理装置、情報処理プログラム、情報処理システム、および、情報処理方法 |
JPWO2016157951A1 (ja) * | 2015-03-31 | 2018-01-25 | ソニー株式会社 | 表示制御装置、表示制御方法および記録媒体 |
US9507974B1 (en) * | 2015-06-10 | 2016-11-29 | Hand Held Products, Inc. | Indicia-reading systems having an interface with a user's nervous system |
US20170351336A1 (en) * | 2016-06-07 | 2017-12-07 | Stmicroelectronics, Inc. | Time of flight based gesture control devices, systems and methods |
CN109040416A (zh) * | 2018-05-30 | 2018-12-18 | 努比亚技术有限公司 | 一种终端显示控制方法、终端及计算机可读存储介质 |
KR101963900B1 (ko) | 2019-01-23 | 2019-03-29 | 이재복 | 경추 보호 기능을 갖는 배게 |
JP7298447B2 (ja) * | 2019-11-08 | 2023-06-27 | 横河電機株式会社 | 検出装置、検出方法及び検出プログラム |
EP4179417A1 (en) | 2020-07-10 | 2023-05-17 | Telefonaktiebolaget LM ERICSSON (PUBL) | Method and device for receiving user input |
EP4348410A1 (en) | 2021-05-27 | 2024-04-10 | Telefonaktiebolaget LM Ericsson (publ) | One-handed operation of a device user interface |
US11693483B2 (en) * | 2021-11-10 | 2023-07-04 | Huawei Technologies Co., Ltd. | Methods and systems of display edge interactions in a gesture-controlled device |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005202950A (ja) * | 2004-01-02 | 2005-07-28 | Smart Technol Inc | 概ね隣接している入力領域を定めている、複数の重なっている座標入力副領域にまたがったポインタ追跡 |
JP2010238148A (ja) * | 2009-03-31 | 2010-10-21 | Kyocera Corp | ユーザインタフェース装置及び携帯端末装置 |
EP2284655A2 (en) * | 2009-07-27 | 2011-02-16 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling electronic device using user interaction |
JP2011097128A (ja) * | 2009-10-27 | 2011-05-12 | Kyocera Corp | 携帯端末装置 |
WO2011103219A2 (en) * | 2010-02-19 | 2011-08-25 | Microsoft Corporation | On and off-screen gesture combinations |
JP2011237949A (ja) * | 2010-05-07 | 2011-11-24 | Nec Casio Mobile Communications Ltd | 情報処理装置、情報生成方法及びプログラム |
JP2012256110A (ja) * | 2011-06-07 | 2012-12-27 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8677285B2 (en) * | 2008-02-01 | 2014-03-18 | Wimm Labs, Inc. | User interface of a small touch sensitive display for an electronic data and communication device |
KR101404367B1 (ko) * | 2008-07-15 | 2014-06-20 | 임머숀 코퍼레이션 | 메시지 콘텐츠를 진동촉각 메시징을 위한 가상 물리적 속성들로 맵핑하기 위한 시스템 및 방법 |
KR20110112831A (ko) * | 2009-01-05 | 2011-10-13 | 스마트 테크놀러지스 유엘씨 | 제스처 인식 방법 및 이 방법을 이용하는 대화형 입력 시스템 |
US8619029B2 (en) * | 2009-05-22 | 2013-12-31 | Motorola Mobility Llc | Electronic device with sensing assembly and method for interpreting consecutive gestures |
US8799827B2 (en) * | 2010-02-19 | 2014-08-05 | Microsoft Corporation | Page manipulations using on and off-screen gestures |
JP4865053B2 (ja) * | 2010-04-22 | 2012-02-01 | 株式会社東芝 | 情報処理装置およびドラッグ制御方法 |
US8933907B2 (en) * | 2010-04-30 | 2015-01-13 | Microchip Technology Incorporated | Capacitive touch system using both self and mutual capacitance |
US9262015B2 (en) * | 2010-06-28 | 2016-02-16 | Intel Corporation | System for portable tangible interaction |
JP5601083B2 (ja) * | 2010-08-16 | 2014-10-08 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
TWI444867B (zh) * | 2011-03-17 | 2014-07-11 | Kyocera Corp | 觸感顯示裝置以及觸感顯示裝置的控制方法 |
US8736583B2 (en) * | 2011-03-29 | 2014-05-27 | Intel Corporation | Virtual links between different displays to present a single virtual object |
US20120280900A1 (en) * | 2011-05-06 | 2012-11-08 | Nokia Corporation | Gesture recognition using plural sensors |
US9170676B2 (en) * | 2013-03-15 | 2015-10-27 | Qualcomm Incorporated | Enhancing touch inputs with gestures |
US9746929B2 (en) * | 2014-10-29 | 2017-08-29 | Qualcomm Incorporated | Gesture recognition using gesture elements |
-
2013
- 2013-03-15 US US13/843,727 patent/US20140267142A1/en not_active Abandoned
-
2014
- 2014-03-11 KR KR1020157027773A patent/KR20150130379A/ko not_active Application Discontinuation
- 2014-03-11 JP JP2016501322A patent/JP2016511488A/ja active Pending
- 2014-03-11 CN CN201480013978.XA patent/CN105144033A/zh active Pending
- 2014-03-11 BR BR112015023803A patent/BR112015023803A2/pt not_active IP Right Cessation
- 2014-03-11 WO PCT/US2014/023705 patent/WO2014150589A1/en active Application Filing
- 2014-03-11 EP EP14719141.5A patent/EP2972674A1/en not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005202950A (ja) * | 2004-01-02 | 2005-07-28 | Smart Technol Inc | 概ね隣接している入力領域を定めている、複数の重なっている座標入力副領域にまたがったポインタ追跡 |
JP2010238148A (ja) * | 2009-03-31 | 2010-10-21 | Kyocera Corp | ユーザインタフェース装置及び携帯端末装置 |
EP2284655A2 (en) * | 2009-07-27 | 2011-02-16 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling electronic device using user interaction |
JP2011097128A (ja) * | 2009-10-27 | 2011-05-12 | Kyocera Corp | 携帯端末装置 |
WO2011103219A2 (en) * | 2010-02-19 | 2011-08-25 | Microsoft Corporation | On and off-screen gesture combinations |
JP2011237949A (ja) * | 2010-05-07 | 2011-11-24 | Nec Casio Mobile Communications Ltd | 情報処理装置、情報生成方法及びプログラム |
JP2012256110A (ja) * | 2011-06-07 | 2012-12-27 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016058061A (ja) * | 2014-09-08 | 2016-04-21 | 井上 文彦 | 電子機器 |
JP2020086998A (ja) * | 2018-11-27 | 2020-06-04 | ローム株式会社 | 入力デバイス、自動車 |
JP7280032B2 (ja) | 2018-11-27 | 2023-05-23 | ローム株式会社 | 入力デバイス、自動車 |
US11941208B2 (en) | 2018-11-27 | 2024-03-26 | Rohm Co., Ltd. | Input device and automobile including the same |
JP2020177428A (ja) * | 2019-04-17 | 2020-10-29 | 京セラ株式会社 | 電子機器、制御方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20140267142A1 (en) | 2014-09-18 |
WO2014150589A1 (en) | 2014-09-25 |
BR112015023803A2 (pt) | 2017-07-18 |
CN105144033A (zh) | 2015-12-09 |
KR20150130379A (ko) | 2015-11-23 |
EP2972674A1 (en) | 2016-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016511488A (ja) | センサフュージョンを介した対話式入力の拡張 | |
US11599154B2 (en) | Adaptive enclosure for a mobile computing device | |
US11632600B2 (en) | Devices, methods, and graphical user interfaces for depth-based annotation | |
US11808562B2 (en) | Devices and methods for measuring using augmented reality | |
JP6464138B2 (ja) | ジェスチャによるタッチ入力の向上 | |
US20220044354A1 (en) | Automatic cropping of video content | |
DK179350B1 (en) | Device, Method, and Graphical User Interface for Navigating Media Content | |
US11941764B2 (en) | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments | |
US20120054670A1 (en) | Apparatus and method for scrolling displayed information | |
US11443453B2 (en) | Method and device for detecting planes and/or quadtrees for use as a virtual substrate | |
KR102343783B1 (ko) | 모션 또는 그의 부재에 기초한 터치 기반 디바이스 상의 제어 인터페이스의 제시 | |
US20130055119A1 (en) | Device, Method, and Graphical User Interface for Variable Speed Navigation | |
US11112959B2 (en) | Linking multiple windows in a user interface display | |
US10521101B2 (en) | Scroll mode for touch/pointing control | |
US20240153219A1 (en) | Systems, Methods, and Graphical User Interfaces for Adding Effects in Augmented Reality Environments | |
TWI564780B (zh) | 觸控螢幕姿態技術 | |
WO2014166044A1 (en) | Method and device for user input |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20150909 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170216 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180412 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190225 |