JPWO2015141328A1 - 情報処理装置、制御方法、およびプログラム - Google Patents
情報処理装置、制御方法、およびプログラム Download PDFInfo
- Publication number
- JPWO2015141328A1 JPWO2015141328A1 JP2016508591A JP2016508591A JPWO2015141328A1 JP WO2015141328 A1 JPWO2015141328 A1 JP WO2015141328A1 JP 2016508591 A JP2016508591 A JP 2016508591A JP 2016508591 A JP2016508591 A JP 2016508591A JP WO2015141328 A1 JPWO2015141328 A1 JP WO2015141328A1
- Authority
- JP
- Japan
- Prior art keywords
- state
- arm
- information processing
- processing apparatus
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
-
- G—PHYSICS
- G04—HOROLOGY
- G04B—MECHANICALLY-DRIVEN CLOCKS OR WATCHES; MECHANICAL PARTS OF CLOCKS OR WATCHES IN GENERAL; TIME PIECES USING THE POSITION OF THE SUN, MOON OR STARS
- G04B37/00—Cases
- G04B37/14—Suspending devices, supports or stands for time-pieces insofar as they form part of the case
- G04B37/1486—Arrangements for fixing to a bracelet
-
- G—PHYSICS
- G04—HOROLOGY
- G04B—MECHANICALLY-DRIVEN CLOCKS OR WATCHES; MECHANICAL PARTS OF CLOCKS OR WATCHES IN GENERAL; TIME PIECES USING THE POSITION OF THE SUN, MOON OR STARS
- G04B47/00—Time-pieces combined with other articles which do not interfere with the running or the time-keeping of the time-piece
- G04B47/06—Time-pieces combined with other articles which do not interfere with the running or the time-keeping of the time-piece with attached measuring instruments, e.g. pedometer, barometer, thermometer or compass
-
- G—PHYSICS
- G04—HOROLOGY
- G04D—APPARATUS OR TOOLS SPECIALLY DESIGNED FOR MAKING OR MAINTAINING CLOCKS OR WATCHES
- G04D99/00—Subject matter not provided for in other groups of this subclass
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G17/00—Structural details; Housings
- G04G17/08—Housings
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/02—Detectors of external physical values, e.g. temperature
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/04—Input or output devices integrated in time-pieces using radio waves
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/06—Input or output devices integrated in time-pieces using voice
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G9/00—Visual time or date indication means
- G04G9/0064—Visual time or date indication means in which functions not related to time can be displayed
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G99/00—Subject matter not provided for in other groups of this subclass
- G04G99/006—Electronic time-pieces using a microcomputer, e.g. for multi-function clocks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/033—Indexing scheme relating to G06F3/033
- G06F2203/0339—Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
1.本開示の一実施形態による情報処理装置の概要
2.基本構成
3.状態に応じたデバイス制御例
3−1.状態1、状態2、状態3におけるデバイス制御例
3−2.状態1、状態2、状態4におけるデバイス制御例
3−3.右腕装着時(状態5)のデバイス制御例
3−4.状態6におけるデバイス制御例
4.まとめ
まず、本開示の一実施形態による情報処理装置の概要について図1および図2を参照して説明する。図1は、情報処理装置の外観構成を示す図であって、図2は、情報処理装置の装着状態を説明する図である。
ここで、図2に示すように、一方の腕200に装着された情報処理装置10のタッチパネル12から操作入力を行う際は、もう一方の腕を使うため、両腕を使用する必要があった。したがって、腕の動きを検知することによるジェスチャ入力が可能となれば、情報処理装置10を装着した片方の腕200を動かすだけで操作入力を行うことができ、情報処理装置10の利便性が向上する。
図3は、本実施形態による情報処理装置10の基本構成を示すブロック図である。図10に示すように、情報処理装置10は、主制御部11、タッチパネルディスプレイ12、モーションセンサ13、記憶部14、スピーカ15、マイク16、および通信部17を有する。
主制御部11は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ、インターフェース部を備えたマイクロコンピュータにより構成され、情報処理装置10の各構成を制御する。
タッチパネルディスプレイ12は、上述したように、表示部および操作部(例えばタッチセンサ)の機能を有する。
モーションセンサ13は、情報処理装置10が装着された腕200の状態(動き)を検知するセンサであって、例えば加速度センサ、ジャイロセンサ、または地磁気センサ等の空間的な動きや角度を検出するデバイスにより実現される。また、モーションセンサ13は、複数種類のセンサが組み合わせられたものであってもよい。
通信部17は、外部装置と接続し、データの送受信を行う機能を有する。例えば通信部17は、ユーザが所持するスマートフォンと接続してデータの送受信を行ってもよいし、ネットワークを介して所定のサーバと接続してデータの送受信を行ってもよい。また、通信部17は、携帯電話網またはインターネット網を介して、音声信号の送受信を行ってもよい。
記憶部14は、主制御部11が各種処理を実行するためのプログラム等を記憶する。例えば、記憶部14は、デバイス制御部112が、認識された状態に応じて行う各種デバイスに対する所定の制御内容に関するデータを格納する。
スピーカ15は、音声(オーディオ信号)を出力する機能を有する。例えば、スピーカ15は、アラーム等によりユーザへの通知を行ったり、通話中は受話音声を出力したりする。
マイク16は、音声(オーディオ信号)を入力する機能を有する。例えば、マイク16は、ユーザによる音声入力を受付けたり、通話中はユーザの発話音声を収音したりする。
<3−1.状態1、状態2、状態3におけるデバイス制御例>
まず、状態1〜状態3におけるデバイス制御例について、図5〜図8を参照して説明する。図5は、状態1〜状態3について説明する図である。図5左に示す状態1は、情報処理装置10が装着された腕(手)を下げた状態を示し、図5中央に示す状態2は、腕(手)を身体の前面下部に構えた状態(情報処理装置10の表示画面を閲覧するために腕を上げた状態)を示し、状態3は、腕(手)を耳元に構えた状態(裏側スピーカ15bと裏側マイク16b(手首内側)を顔の付近に持っていき通話を行っている状態)を示す。
図7に示すように、例えば腕を下げた状態1ではタッチ操作が行われることがないと想定されるのでタッチセンサがOFFに制御される。また、モーションセンサ13が複数のセンサ(例えば加速度センサおよびジャイロセンサ)を含む場合、一方のセンサがONにされ、他方のセンサがOFFにされる。ONにされたセンサに対しては、さらにサンプリングレートを低く制御することで、消費電力を節約することができる。サンプリングレートの低さは、状態1から状態2、または状態3への変化が検知できる程度であればよい。なお、図7に示す例では、ジャイロセンサの方が、消費電力が大きいため、ジャイロセンサをOFFにして加速度センサをONにしているが、本実施形態はこれに限定されず、逆の制御であってもよい。
続いて、上記状態1において通話やメールの通知があると、ユーザは腕を身体の前方に上げて情報処理装置10の表示画面を自身に向けて閲覧できる状態2に構える。このとき、認識部111は、状態1から状態2の遷移を認識し、認識結果をデバイス制御部112に出力する。デバイス制御部112は、状態2に遷移したことに応じて、各デバイスに対して所定の制御を行う。
次に、上記状態2において通話の発信者を確認し、当該通話に応答する場合、そのまま腕を上げて、手首内側を顔の付近に持っていき、手を耳元に構える状態3(図5参照)に遷移する。このとき、認識部111は、状態2から状態3の遷移を認識し、認識結果をデバイス制御部112に出力する。デバイス制御部112は、状態3に遷移したことに応じて、各デバイスに対して所定の制御を行う。
次に、状態2における他のジェスチャ入力について図9〜図12を参照して説明する。図9は、状態1、状態2、状態4について説明する図である。図9左に示す状態1と、図9中央に示す状態2は、図5を参照して説明した状態1および状態2と同様である。
なお、図11に示すデバイス制御は一例であって、本実施形態はこれに限定されず、例えばモーションセンサが1つであって、また、スピーカが1つであってもよい。この場合、各状態に応じたデバイス制御は例えば図12に示す通り行われる。図12は、状態1、状態2、状態4における各デバイスの他の制御一覧を示す図である。
また、腕の回転に応じて異なるユーザコンテキストが認識されてもよい。以下、図13を参照して説明する。
続いて、装着された腕の左右に応じたデバイス制御例について、図14〜図20を参照して説明する。図14は、状態1、状態2、状態5について説明する図である。図14左に示す状態1と、図14中央に示す状態2は、図5を参照して説明した状態1および状態2と同様であって、いずれも左腕に情報処理装置10が装着されている。
図18は、タッチセンサの検出可能領域について説明する図である。図18に示すように、本実施形態による情報処理装置10は、地図等の画面が表示されるタッチパネルディスプレイ12の領域外もタッチセンサの操作可能領域20とする構成であってもよい。この場合、ユーザは、画面領域外を使って地図等の画面に対するズーム操作を行うことができる。すなわち、情報処理装置10の主制御部11は、画面領域の左右にタッチ検出領域を設け、この領域に対する操作を画面のズームの操作に割り当てる。
次に、情報処理装置10がカメラ機能を有している場合に、カメラを構えた状態6におけるデバイス制御例について図21〜図24を参照して説明する。本実施形態による情報処理装置10の構成は、図1〜図3に示す例に限定されず、例えば撮像部(以下、カメラと称す)をさらに有する場合も想定される。
図23に示すデバイス制御は一例であって、本実施形態はこれに限定されず、例えばモーションセンサが1つであって、また、スピーカが1つであってもよい。この場合、各状態に応じたデバイス制御は例えば図24に示す通り行われる。図24は、状態1、状態2、状態6における各デバイスの他の制御一覧を示す図である。
以上説明したように、本開示の実施形態による腕時計型端末の情報処理装置10は、左右いずれの腕に装着されているかを判断した上で腕の状態を認識し、認識した腕の状態に基づいて情報処理装置10の各デバイスを制御することができる。
(1)
ユーザの右腕または左腕のいずれに装着されているかを判断する判断部と、
腕の状態を認識する認識部と、
認識された腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行う制御部と、
を備え、
前記認識部は、前記判断部による判断結果に応じて、前記腕の状態を認識する際に用いるパラメータの設定を切り替える、情報処理装置。
(2)
前記情報処理装置は、腕時計型デバイスである、前記(1)に記載の情報処理装置。
(3)
前記制御部は、認識された腕の状態に対応するユーザコンテキストに応じて各デバイスの制御を行う、前記(1)または(2)に記載の情報処理装置。
(4)
前記判断部は、腕の動きを検出するモーションセンサにより取得された値に基づいて、前記情報処理装置が右腕または左腕のいずれに装着されているかを判断する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記判断部は、腕の動きを検出するモーションセンサにより取得された値を用いた機械学習により、前記情報処理装置が右腕または左腕のいずれに装着されているかを判断する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(6)
前記判断部は、ユーザ入力に基づいて、前記情報処理装置が右腕または左腕のいずれに装着されているかを判断する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(7)
前記認識部は、前記判断部による判断結果に応じて、前記パラメータの正負を切り替える、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)
情報処理装置に設けられるデバイスは、表示部、操作部、モーションセンサ、スピーカ、マイクロフォン、および撮像部の少なくともいずれかである、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
ユーザの右腕または左腕のいずれに装着されているかを判断することと、
判断結果に応じて、腕の状態を認識する際に用いるパラメータの設定を切り替えて、腕の状態を認識することと、
認識された前記腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行うこと、
を含む、制御方法。
(10)
コンピュータを、
ユーザの右腕または左腕のいずれに装着されているかを判断する判断部と、
腕の状態を認識する認識部と、
認識された腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行う制御部と、
として機能させ、
前記認識部は、前記判断部による判断結果に応じて、前記腕の状態を認識する際に用いるパラメータの設定を切り替える、プログラム。
11 主制御部
110 判断部
111 認識部
112 デバイス制御部
12 タッチパネルディスプレイ
13 モーションセンサ
14 記憶部
15、15a、15b スピーカ
16、16a、16b マイクロフォン
17 通信部
Claims (10)
- ユーザの右腕または左腕のいずれに装着されているかを判断する判断部と、
腕の状態を認識する認識部と、
認識された腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行う制御部と、
を備え、
前記認識部は、前記判断部による判断結果に応じて、前記腕の状態を認識する際に用いるパラメータの設定を切り替える、情報処理装置。 - 前記情報処理装置は、腕時計型デバイスである、請求項1に記載の情報処理装置。
- 前記制御部は、認識された腕の状態に対応するユーザコンテキストに応じて各デバイスの制御を行う、請求項1に記載の情報処理装置。
- 前記判断部は、腕の動きを検出するモーションセンサにより取得された値に基づいて、前記情報処理装置が右腕または左腕のいずれに装着されているかを判断する、請求項1に記載の情報処理装置。
- 前記判断部は、腕の動きを検出するモーションセンサにより取得された値を用いた機械学習により、前記情報処理装置が右腕または左腕のいずれに装着されているかを判断する、請求項1に記載の情報処理装置。
- 前記判断部は、ユーザ入力に基づいて、前記情報処理装置が右腕または左腕のいずれに装着されているかを判断する、請求項1に記載の情報処理装置。
- 前記認識部は、前記判断部による判断結果に応じて、前記パラメータの正負を切り替える、請求項1に記載の情報処理装置。
- 情報処理装置に設けられるデバイスは、表示部、操作部、モーションセンサ、スピーカ、マイクロフォン、および撮像部の少なくともいずれかである、請求項1に記載の情報処理装置。
- ユーザの右腕または左腕のいずれに装着されているかを判断することと、
判断結果に応じて、腕の状態を認識する際に用いるパラメータの設定を切り替えて、腕の状態を認識することと、
認識された前記腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行うこと、
を含む、制御方法。 - コンピュータを、
ユーザの右腕または左腕のいずれに装着されているかを判断する判断部と、
腕の状態を認識する認識部と、
認識された腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行う制御部と、
として機能させ、
前記認識部は、前記判断部による判断結果に応じて、前記腕の状態を認識する際に用いるパラメータの設定を切り替える、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014055052 | 2014-03-18 | ||
JP2014055052 | 2014-03-18 | ||
PCT/JP2015/053564 WO2015141328A1 (ja) | 2014-03-18 | 2015-02-09 | 情報処理装置、制御方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2015141328A1 true JPWO2015141328A1 (ja) | 2017-04-06 |
Family
ID=54144308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016508591A Pending JPWO2015141328A1 (ja) | 2014-03-18 | 2015-02-09 | 情報処理装置、制御方法、およびプログラム |
Country Status (6)
Country | Link |
---|---|
US (4) | US10345761B2 (ja) |
EP (1) | EP3121687A4 (ja) |
JP (1) | JPWO2015141328A1 (ja) |
KR (1) | KR102269526B1 (ja) |
CN (1) | CN106068488A (ja) |
WO (1) | WO2015141328A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102244856B1 (ko) * | 2014-04-22 | 2021-04-27 | 삼성전자 주식회사 | 웨어러블 장치와의 사용자 인터랙션을 제공하는 방법 및 이를 수행하는 웨어러블 장치 |
WO2016035571A1 (ja) * | 2014-09-04 | 2016-03-10 | ソニー株式会社 | 情報表示装置及びその情報表示方法、プログラム、並びに、通信システム |
KR102273591B1 (ko) * | 2014-09-29 | 2021-07-06 | 현대엠엔소프트 주식회사 | 네비게이션 정보를 표시하는 웨어러블 단말기 및 네비게이션 장치 및 그 표시 방법 |
JP6459684B2 (ja) * | 2015-03-23 | 2019-01-30 | カシオ計算機株式会社 | 情報出力装置、情報出力方法及びプログラム |
KR20160121318A (ko) * | 2015-04-10 | 2016-10-19 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 사용자 인터페이스 제공 방법 |
JP6561782B2 (ja) * | 2015-11-06 | 2019-08-21 | 富士通コネクテッドテクノロジーズ株式会社 | 電子機器及び表示制御プログラム |
TWI585555B (zh) | 2015-11-06 | 2017-06-01 | Princo Corp | Watch, wear device, emergency method and quick dial law |
CN105955479B (zh) * | 2016-04-29 | 2019-11-26 | 联想(北京)有限公司 | 一种信息处理方法及穿戴式设备 |
CN106020445A (zh) * | 2016-05-05 | 2016-10-12 | 广东小天才科技有限公司 | 一种自动识别左右手佩戴的方法及穿戴设备 |
JP2018147031A (ja) * | 2017-03-01 | 2018-09-20 | 株式会社メガチップス | 動作解析装置、情報受付システムおよび入力受付方法 |
EP3732549B1 (en) * | 2017-12-29 | 2022-06-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method for predicting a motion of an object and method for generating a virtual reality view |
JP2019175159A (ja) | 2018-03-28 | 2019-10-10 | カシオ計算機株式会社 | 電子機器、音声入力感度制御方法、及び音声入力感度制御プログラム |
CN114253405A (zh) * | 2020-09-22 | 2022-03-29 | Oppo(重庆)智能科技有限公司 | 佩戴检测方法、装置、可穿戴设备及存储介质 |
JP2022153776A (ja) * | 2021-03-30 | 2022-10-13 | セイコーエプソン株式会社 | 装着型画像表示装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013061176A (ja) * | 2011-09-12 | 2013-04-04 | Seiko Epson Corp | 腕装着型の電子機器およびその制御方法 |
EP2698686A2 (en) * | 2012-07-27 | 2014-02-19 | LG Electronics Inc. | Wrist-wearable terminal and control method thereof |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002358149A (ja) | 2001-06-01 | 2002-12-13 | Sony Corp | ユーザ入力装置 |
JP3471775B2 (ja) | 2001-08-27 | 2003-12-02 | ヤマハメタニクス株式会社 | マイクホルダ |
JP2009147761A (ja) * | 2007-12-14 | 2009-07-02 | Sony Ericsson Mobilecommunications Japan Inc | 携帯端末 |
US8781791B2 (en) * | 2010-09-30 | 2014-07-15 | Fitbit, Inc. | Touchscreen with dynamically-defined areas having different scanning modes |
US9002420B2 (en) * | 2011-01-19 | 2015-04-07 | Ram Pattikonda | Watch having an interface to a mobile communications device |
US9367085B2 (en) * | 2012-01-26 | 2016-06-14 | Google Technology Holdings LLC | Portable electronic device and method for controlling operation thereof taking into account which limb possesses the electronic device |
US8947382B2 (en) * | 2012-02-28 | 2015-02-03 | Motorola Mobility Llc | Wearable display device, corresponding systems, and method for presenting output on the same |
US9229838B2 (en) * | 2012-07-09 | 2016-01-05 | International Business Machines Corporation | Modeling and evaluating application performance in a new environment |
KR102087137B1 (ko) * | 2013-03-15 | 2020-03-10 | 엘지전자 주식회사 | 제어 장치 및 그것의 제어 방법 |
KR102043145B1 (ko) * | 2012-07-27 | 2019-11-11 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
US20140337621A1 (en) * | 2013-05-07 | 2014-11-13 | Serguei Nakhimov | Wearable communication device, security complex and user interface |
US9606721B2 (en) * | 2013-07-22 | 2017-03-28 | Lg Electronics Inc. | Mobile terminal and control method thereof |
CN103442129A (zh) * | 2013-08-09 | 2013-12-11 | 宇龙计算机通信科技(深圳)有限公司 | 智能手表与移动终端的交互方法及系统 |
US10146416B2 (en) * | 2014-01-29 | 2018-12-04 | Ingenious.Ventures, LLC | Systems and methods for sensory interface |
US20170003765A1 (en) * | 2014-01-31 | 2017-01-05 | Apple Inc. | Automatic orientation of a device |
WO2015122879A1 (en) * | 2014-02-11 | 2015-08-20 | Bodhi Technology Ventures Llc | Detecting the limb wearing a wearable electronic device |
US20160034980A1 (en) * | 2014-07-31 | 2016-02-04 | iCracked Inc. | Method and system to evaluate the condition of client equipment and accurately assess the price and extent of repairs |
-
2015
- 2015-02-09 WO PCT/JP2015/053564 patent/WO2015141328A1/ja active Application Filing
- 2015-02-09 EP EP15765782.6A patent/EP3121687A4/en active Pending
- 2015-02-09 KR KR1020167021035A patent/KR102269526B1/ko active IP Right Grant
- 2015-02-09 US US15/119,054 patent/US10345761B2/en active Active
- 2015-02-09 JP JP2016508591A patent/JPWO2015141328A1/ja active Pending
- 2015-02-09 CN CN201580012548.0A patent/CN106068488A/zh active Pending
-
2019
- 2019-05-13 US US16/410,469 patent/US10466654B2/en active Active
- 2019-09-30 US US16/587,375 patent/US10996635B2/en active Active
-
2021
- 2021-04-28 US US17/243,027 patent/US11340560B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013061176A (ja) * | 2011-09-12 | 2013-04-04 | Seiko Epson Corp | 腕装着型の電子機器およびその制御方法 |
EP2698686A2 (en) * | 2012-07-27 | 2014-02-19 | LG Electronics Inc. | Wrist-wearable terminal and control method thereof |
Non-Patent Citations (1)
Title |
---|
間野 裕行 HIROYUKI MANO: "ユビキタスセンサとウェアラブルセンサによるユビキタスホーム内での行動判別と映像検索 Action Classific", 電子情報通信学会技術研究報告 VOL.106 NO.608 IEICE TECHNICAL REPORT, vol. 第106巻 第608号, JPN6018043895, 12 March 2007 (2007-03-12), JP, pages 5 - 70 * |
Also Published As
Publication number | Publication date |
---|---|
EP3121687A4 (en) | 2017-11-01 |
WO2015141328A1 (ja) | 2015-09-24 |
US10466654B2 (en) | 2019-11-05 |
CN106068488A (zh) | 2016-11-02 |
KR102269526B1 (ko) | 2021-06-25 |
KR20160133414A (ko) | 2016-11-22 |
US20170052512A1 (en) | 2017-02-23 |
US10345761B2 (en) | 2019-07-09 |
US20210247723A1 (en) | 2021-08-12 |
US10996635B2 (en) | 2021-05-04 |
EP3121687A1 (en) | 2017-01-25 |
US20200026245A1 (en) | 2020-01-23 |
US20190265654A1 (en) | 2019-08-29 |
US11340560B2 (en) | 2022-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11340560B2 (en) | Information processing apparatus, control method, and program | |
KR102102647B1 (ko) | 무선 리시버 및 그 제어 방법 | |
KR101959609B1 (ko) | 손목 착용 장치의 경사에 적어도 부분적으로 기초하는 동작의 수행 | |
CN109831636B (zh) | 互动视频控制方法、终端及计算机可读存储介质 | |
US20150187357A1 (en) | Natural input based virtual ui system for mobile devices | |
KR20150144668A (ko) | 이동 단말기 및 그 제어 방법 | |
EP2667339A1 (en) | Mobile terminal and control method thereof | |
KR20150045257A (ko) | 웨어러블 디바이스 및 그 제어 방법 | |
TWI590640B (zh) | 通話方法及其電子裝置 | |
CN110764730A (zh) | 播放音频数据的方法和装置 | |
EP3340026B1 (en) | Watch-type mobile terminal | |
JP2016139947A (ja) | 携帯端末 | |
WO2019062611A1 (zh) | 消息处理方法、消息查看方法和终端 | |
JP2016062600A (ja) | 移動端末機及びその制御方法 | |
CN108391007A (zh) | 一种应用程序的音量设置方法及移动终端 | |
JP5929698B2 (ja) | 通信システムおよびプログラム | |
JP6587918B2 (ja) | 電子機器、電子機器の制御方法、電子機器の制御装置、制御プログラム及び電子機器システム | |
JP6591167B2 (ja) | 電子機器 | |
JP2016009441A (ja) | 携帯電子機器、携帯電子機器の制御方法およびプログラム | |
JP2019118134A (ja) | 情報処理装置、通信制御方法およびコンピュータプログラム | |
JP6897693B2 (ja) | 携帯情報端末、携帯情報端末制御方法、プログラム | |
CN114257680B (zh) | 来电显示的方法、用户设备、存储介质及电子设备 | |
JP2019082823A (ja) | 電子機器 | |
JP2016192136A (ja) | 表示制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180112 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181227 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190507 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |