JP2017004458A - 入力装置、入力制御方法、および、入力制御プログラム - Google Patents
入力装置、入力制御方法、および、入力制御プログラム Download PDFInfo
- Publication number
- JP2017004458A JP2017004458A JP2015121028A JP2015121028A JP2017004458A JP 2017004458 A JP2017004458 A JP 2017004458A JP 2015121028 A JP2015121028 A JP 2015121028A JP 2015121028 A JP2015121028 A JP 2015121028A JP 2017004458 A JP2017004458 A JP 2017004458A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- user
- input
- infrared light
- input device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
Abstract
【解決手段】入力装置は、ユーザの手に装着され、照射部、撮像部、測定部、生成部、送信部を備える。照射部は、所定の形状の第1の赤外光パターンをユーザの指に照射する。撮像部は、ユーザの指での反射によって得られた第2の赤外光パターンを撮像する。測定部は、ユーザの指の動きにより生じる振動の大きさを測定する。生成部は、第2の赤外光パターンと第1の赤外光パターンを用いて、ユーザの指の位置の変化の軌跡を特定すると共に、軌跡と振動の大きさの組み合わせに対応する入力信号を生成する。送信部は、入力信号を、入力先の装置に送信する。
【選択図】図1
Description
図2は、入力装置20の構成の例を説明する図である。入力装置20は、送受信部21、照射部25、撮像部26、制御部30、記憶部40を備える。送受信部21は、送信部22と受信部23を有する。制御部30は、測定部31と生成部32を有する。
以下、入力信号の特定方法を、赤外光パターンを用いた指の位置の特定やユーザの指の位置の変化の特定方法の例と、測定部31での振動を用いた判定処理の例に分けて説明する。なお、以下で説明する特定方法の例や判定処理の例は、理解を助けるための例であり、実装に応じて変形されうる。
図5は、赤外光の照射パターンの例を説明する図である。図5の例では、赤外光パターンは、ドット状である。照射部25から照射される赤外光の性質に応じて、照射部25からユーザの指までの距離に応じて、指に照射される赤外光のパターンの変動は異なる。
D2/D1=(L2+ΔL)/L2 ・・・(1)
d2/d1=L1/(L1+ΔL)×(L2+ΔL)/L2 ・・・(2)
ΔL=(d1−d2)/{(d2/L1)−(d1/L2)} ・・・(3)
図10は、加速度の測定結果の例を示す図である。図10のG31は、測定部31が観測した加速度の時間変化の例である。G31の縦軸は加速度であり、横軸は時間である。測定部31は、加速度の測定結果を生成部32に出力する。生成部32は、観測された加速度の絶対値が閾値aを超えると、ユーザがタップ操作を行った際の振動を観測したと判定する。すなわち、測定された加速度がaを超えるか、−aよりも小さい値である場合に、生成部32は、タップ操作に伴う振動を検出したと判定する。図10のG31の例では、加速度の絶対値が閾値aを超えていないので、生成部32は、タップ操作が行われていないと判定する。一方、図10のG32では、時刻t1での加速度の測定値の絶対値は閾値aを超えているので、生成部32は、ユーザが時刻t1にタップ操作を行ったと判定する。
以下、実施形態にかかる入力信号の特定方法を用いて行われる入力装置20からの入力処理と端末10の操作の例を説明する。なお、以下の操作例では、比較的拡散の大きい赤外光を用いた赤外光パターンがユーザの指に照射されている場合を例として説明するが、拡散の小さい赤外光が照射されても良い。
第1の操作例では、選択可能な領域を含む画像が表示されている画面において、選択可能な領域の各々が入力装置20で検出された指に対応付けられている場合の処理の例を説明する。
第2の操作例では、選択可能な領域を含む画像が表示されている画面において、選択可能な領域の各々が入力装置20で検出された指に対応付けられていない場合の処理の例を説明する。
第3の操作例では、画像が表示されている画面において、画面の表示の拡大や縮小(ピンチアウト、ピンチイン)を行なう場合の処理の例を説明する。第3の操作例では、誤操作が起きにくくするために、通常、ユーザが画面の表示の拡大や縮小に使用する指として入力装置20が記憶している指による操作が行われている場合に、拡大や縮小の処理が行われる場合を説明する。なお、第3の操作例でも、入力装置20において観測された指の識別子は、アルファベットのfに続けて、観測された指の番号の組み合わせとして表わされる。また、指の識別子に含められる番号は、観測されている指のうちで、X座標の平均値が小さい指ほど、小さい値が関連付けられるように生成される。
第4の操作例では、画面に表示された画像の回転を行なう場合の処理の例を説明する。第4の操作例では、誤操作が起きにくくするために、ユーザが画面に表示された画像の回転に使用する指として入力装置20が記憶している指による操作が行われている場合に、回転の処理が行われる場合を説明する。なお、第4の操作例でも、各指の識別子として、第3の操作例と同様の識別子が使用される。以下の例では、入力装置20は、画面に表示される画像の回転処理が指f1と指f2で行われることを、記憶部40に記憶しているものとする。
第5の操作例では、画面に表示された画像の表示位置を変更する場合の処理の例を説明する。
第6の操作例では、生成部32は、操作中の指の形によって、指の検出位置のZ軸方向の変化のパターンが異なることを用いて、誤操作を減らす場合の例を説明する。
実施形態は上記に限られるものではなく、様々に変形可能である。以下にその例をいくつか述べる。
(付記1)
ユーザの手に装着される入力装置であって、
所定の形状の第1の赤外光パターンを前記ユーザの指に照射する照射部と、
前記ユーザの指での反射によって得られた第2の赤外光パターンを撮像する撮像部と、
前記ユーザの指の動きにより生じる振動の大きさを測定する測定部と、
前記第2の赤外光パターンと前記第1の赤外光パターンを用いて、前記ユーザの指の位置の変化の軌跡を特定すると共に、前記軌跡と前記振動の大きさの組み合わせに対応する入力信号を生成する生成部と、
前記入力信号を、入力先の装置に送信する送信部
を備えることを特徴とする入力装置。
(付記2)
前記生成部は、
前記軌跡の長さが第1の閾値より長い場合、前記ユーザからの入力処理を検出したと判定して、前記入力信号を生成し、
前記軌跡の長さが前記第1の閾値以下の場合、前記ユーザの入力処理は行われていないと判定して、前記入力信号を生成しない
ことを特徴とする付記1に記載の入力装置。
(付記3)
前記生成部は、
前記第1の閾値より長い軌跡が得られた期間に前記測定部が観測した振動の大きさが第2の閾値を超えると、前記入力先の装置が備える画面に表示された画像の特定の位置への入力である第1の操作の発生を通知する情報を前記入力信号に含め、
前記第1の閾値より長い軌跡が得られた時刻に観測された前記振動の大きさが前記第2の閾値以下の場合、前記画面に表示された画像上での位置の変動を伴う第2の操作の発生を通知する情報と、前記軌跡に含まれる複数の位置の座標の情報を前記入力信号とする
ことを特徴とする付記2に記載の入力装置。
(付記4)
前記第1の操作と第2の操作の各々に対応付けて、当該操作に使用される指の種類を記憶する記憶部
をさらに備え、
前記生成部は、
前記撮像部で撮像された撮像画像から複数の指が検出される場合、前記撮像画像での検出位置を用いて、前記複数の指の各々を特定し、
前記第1または第2の操作を検出すると、検出した対象操作に使用された指を、前記撮像画像を用いて特定し、
前記対象操作に使用された指が前記対象操作に対応付けられていない場合、前記対象操作は誤操作であると判定すると共に、前記入力信号を生成しない
ことを特徴とする付記3に記載の入力装置。
(付記5)
前記記憶部は、前記第1の操作と前記第2の操作の各々に対応付けて、当該操作を行っている指の検出位置の前記撮像部からの距離と当該操作を行っている指の先端からの高さを用いて表わされる指の形状をさらに記憶し
前記生成部は、
前記撮像部で検出された前記第2の赤外光パターンを用いて検出した指の形状から、撮像対象となった指で行われている操作の種類を特定し、
前記検出した指の形状を用いた特定結果と、前記ユーザの指の位置の変化の軌跡と前記振動の大きさの組み合わせから特定した特定結果が一致しない場合、前記入力信号を生成しない
ことを特徴とする付記3または4に記載の入力装置。
(付記6)
前記生成部は、前記撮像部で撮像された撮像画像から複数の指が検出される場合、前記撮像画像での検出位置を用いて、前記複数の指の各々を特定し、
前記入力信号に、前記入力信号で通知する操作を行った指を識別する情報を含める
ことを特徴とする付記1〜3のいずれか一項に記載の入力装置。
(付記7)
ユーザの手に装着される入力装置が、
所定の形状の第1の赤外光パターンを前記ユーザの指に照射し、
前記ユーザの指での反射によって得られた第2の赤外光パターンを撮像し、
前記ユーザの指の動きにより生じる振動の大きさを測定し、
前記第2の赤外光パターンと前記第1の赤外光パターンを用いて、前記ユーザの指の位置の変化の軌跡を特定すると共に、前記軌跡と前記振動の大きさの組み合わせに対応する入力信号を生成し、
前記入力信号を、入力先の装置に送信する
処理を行うことを特徴とする入力制御方法。
(付記8)
前記入力装置は、
前記軌跡の長さが第1の閾値より長い場合、前記ユーザからの入力処理を検出したと判定して、前記入力信号を生成し、
前記軌跡の長さが前記第1の閾値以下の場合、前記ユーザの入力処理は行われていないと判定して、前記入力信号を生成しない
ことを特徴とする付記7に記載の入力制御方法。
(付記9)
前記入力装置は、
前記第1の閾値より長い軌跡が得られた期間に観測した振動の大きさが第2の閾値を超えると、前記入力先の装置が備える画面に表示された画像の特定の位置への入力である第1の操作の発生を通知する情報を前記入力信号に含め、
前記第1の閾値より長い軌跡が得られた時刻に観測した前記振動の大きさが前記第2の閾値以下の場合、前記画面に表示された画像上での位置の変動を伴う第2の操作の発生を通知する情報と、前記軌跡に含まれる複数の位置の座標の情報を前記入力信号とする
ことを特徴とする付記8に記載の入力制御方法。
(付記10)
前記入力装置は、前記第1の操作と前記第2の操作の各々に対応付けて、当該操作に使用される指の種類を記憶しており、
撮像した撮像画像から複数の指が検出される場合、前記撮像画像での検出位置を用いて、前記複数の指の各々を特定し、
前記第1または第2の操作を検出すると、検出した対象操作に使用された指を、前記撮像画像を用いて特定し、
前記対象操作に使用された指が前記対象操作に対応付けられていない場合、前記対象操作は誤操作であると判定すると共に、前記入力信号を生成しない
ことを特徴とする付記9に記載の入力制御方法。
(付記11)
前記入力装置は、前記第1の操作と前記第2の操作の各々に対応付けて、当該操作を行っている指の検出位置の前記撮像部からの距離と当該操作を行っている指の先端からの高さを用いて表わされる指の形状をさらに記憶しており、
前記第2の赤外光パターンを用いて検出した指の形状から、撮像対象となった指で行われている操作の種類を特定し、
前記検出した指の形状を用いた特定結果と、前記ユーザの指の位置の変化の軌跡と前記振動の大きさの組み合わせから特定した特定結果が一致しない場合、前記入力信号を生成しない
ことを特徴とする付記9または10に記載の入力制御方法。
(付記12)
ユーザの手に装着される入力装置に、
所定の形状の第1の赤外光パターンを前記ユーザの指に照射し、
前記ユーザの指での反射によって得られた第2の赤外光パターンを撮像し、
前記ユーザの指の動きにより生じる振動の大きさを測定し、
前記第2の赤外光パターンと前記第1の赤外光パターンを用いて、前記ユーザの指の位置の変化の軌跡を特定すると共に、前記軌跡と前記振動の大きさの組み合わせに対応する入力信号を生成し、
前記入力信号を、入力先の装置に送信する
処理を行わせることを特徴とする入力制御プログラム。
(付記13)
前記入力装置に、
前記軌跡の長さが第1の閾値より長い場合、前記ユーザからの入力処理を検出したと判定して、前記入力信号を生成し、
前記軌跡の長さが前記第1の閾値以下の場合、前記ユーザの入力処理は行われていないと判定して、前記入力信号を生成しない
処理をさらに行わせることを特徴とする付記12に記載の入力制御プログラム。
(付記14)
前記入力装置に、
前記第1の閾値より長い軌跡が得られた期間に観測した振動の大きさが第2の閾値を超えると、前記入力先の装置が備える画面に表示された画像の特定の位置への入力である第1の操作の発生を通知する情報を前記入力信号に含め、
前記第1の閾値より長い軌跡が得られた時刻に観測した前記振動の大きさが前記第2の閾値以下の場合、前記画面に表示された画像上での位置の変動を伴う第2の操作の発生を通知する情報と、前記軌跡に含まれる複数の位置の座標の情報を前記入力信号とする
処理をさらに行わせることを特徴とする付記13に記載の入力制御プログラム。
(付記15)
前記入力装置は、前記第1の操作と前記第2の操作の各々に対応付けて、当該操作に使用される指の種類を記憶しており、
前記入力装置に、
撮像した撮像画像から複数の指が検出される場合、前記撮像画像での検出位置を用いて、前記複数の指の各々を特定し、
前記第1または第2の操作を検出すると、検出した対象操作に使用された指を、前記撮像画像を用いて特定し、
前記対象操作に使用された指が前記対象操作に対応付けられていない場合、前記対象操作は誤操作であると判定すると共に、前記入力信号を生成しない
処理をさらに行わせることを特徴とする付記14に記載の入力制御プログラム。
20 入力装置
21 送受信部
22 送信部
23 受信部
25 照射部
26 撮像部
30 制御部
31 測定部
32 生成部
40 記憶部
101 プロセッサ
102 RAM
103 ROM
104 加速度センサ
105 通信インタフェース
111 レンズ
112 赤外光LED
113 赤外線カメラ
Claims (7)
- ユーザの手に装着される入力装置であって、
所定の形状の第1の赤外光パターンを前記ユーザの指に照射する照射部と、
前記ユーザの指での反射によって得られた第2の赤外光パターンを撮像する撮像部と、
前記ユーザの指の動きにより生じる振動の大きさを測定する測定部と、
前記第2の赤外光パターンと前記第1の赤外光パターンを用いて、前記ユーザの指の位置の変化の軌跡を特定すると共に、前記軌跡と前記振動の大きさの組み合わせに対応する入力信号を生成する生成部と、
前記入力信号を、入力先の装置に送信する送信部
を備えることを特徴とする入力装置。 - 前記生成部は、
前記軌跡の長さが第1の閾値より長い場合、前記ユーザからの入力処理を検出したと判定して、前記入力信号を生成し、
前記軌跡の長さが前記第1の閾値以下の場合、前記ユーザの入力処理は行われていないと判定して、前記入力信号を生成しない
ことを特徴とする請求項1に記載の入力装置。 - 前記生成部は、
前記第1の閾値より長い軌跡が得られた期間に前記測定部が観測した振動の大きさが第2の閾値を超えると、前記入力先の装置が備える画面に表示された画像の特定の位置への入力である第1の操作の発生を通知する情報を前記入力信号に含め、
前記第1の閾値より長い軌跡が得られた時刻に観測された前記振動の大きさが前記第2の閾値以下の場合、前記画面に表示された画像上での位置の変動を伴う第2の操作の発生を通知する情報と、前記軌跡に含まれる複数の位置の座標の情報を前記入力信号とする
ことを特徴とする請求項2に記載の入力装置。 - 前記第1の操作と第2の操作の各々に対応付けて、当該操作に使用される指の種類を記憶する記憶部
をさらに備え、
前記生成部は、
前記撮像部で撮像された撮像画像から複数の指が検出される場合、前記撮像画像での検出位置を用いて、前記複数の指の各々を特定し、
前記第1または第2の操作を検出すると、検出した対象操作に使用された指を、前記撮像画像を用いて特定し、
前記対象操作に使用された指が前記対象操作に対応付けられていない場合、前記対象操作は誤操作であると判定すると共に、前記入力信号を生成しない
ことを特徴とする請求項3に記載の入力装置。 - 前記記憶部は、前記第1の操作と前記第2の操作の各々に対応付けて、当該操作を行っている指の検出位置の前記撮像部からの距離と当該操作を行っている指の先端からの高さを用いて表わされる指の形状をさらに記憶し
前記生成部は、
前記撮像部で検出された前記第2の赤外光パターンを用いて検出した指の形状から、撮像対象となった指で行われている操作の種類を特定し、
前記検出した指の形状を用いた特定結果と、前記ユーザの指の位置の変化の軌跡と前記振動の大きさの組み合わせから特定した特定結果が一致しない場合、前記入力信号を生成しない
ことを特徴とする請求項3または4に記載の入力装置。 - ユーザの手に装着される入力装置が、
所定の形状の第1の赤外光パターンを前記ユーザの指に照射し、
前記ユーザの指での反射によって得られた第2の赤外光パターンを撮像し、
前記ユーザの指の動きにより生じる振動の大きさを測定し、
前記第2の赤外光パターンと前記第1の赤外光パターンを用いて、前記ユーザの指の位置の変化の軌跡を特定すると共に、前記軌跡と前記振動の大きさの組み合わせに対応する入力信号を生成し、
前記入力信号を、入力先の装置に送信する
処理を行うことを特徴とする入力制御方法。 - ユーザの手に装着される入力装置に、
所定の形状の第1の赤外光パターンを前記ユーザの指に照射し、
前記ユーザの指での反射によって得られた第2の赤外光パターンを撮像し、
前記ユーザの指の動きにより生じる振動の大きさを測定し、
前記第2の赤外光パターンと前記第1の赤外光パターンを用いて、前記ユーザの指の位置の変化の軌跡を特定すると共に、前記軌跡と前記振動の大きさの組み合わせに対応する入力信号を生成し、
前記入力信号を、入力先の装置に送信する
処理を行わせることを特徴とする入力制御プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015121028A JP2017004458A (ja) | 2015-06-16 | 2015-06-16 | 入力装置、入力制御方法、および、入力制御プログラム |
US15/149,936 US20160370861A1 (en) | 2015-06-16 | 2016-05-09 | Input device and input control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015121028A JP2017004458A (ja) | 2015-06-16 | 2015-06-16 | 入力装置、入力制御方法、および、入力制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017004458A true JP2017004458A (ja) | 2017-01-05 |
Family
ID=57588042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015121028A Pending JP2017004458A (ja) | 2015-06-16 | 2015-06-16 | 入力装置、入力制御方法、および、入力制御プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20160370861A1 (ja) |
JP (1) | JP2017004458A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021075632A1 (ko) * | 2019-10-18 | 2021-04-22 | 엘지전자 주식회사 | Xr 디바이스 및 그 제어 방법 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108255294A (zh) * | 2017-12-12 | 2018-07-06 | 北京克科技有限公司 | 一种虚拟现实环境中的用户接触反馈系统、方法及设备 |
RU2765237C2 (ru) * | 2018-03-16 | 2022-01-27 | Дмитрий Леонидович Раков | Способ ввода информации и устройство для его осуществления |
KR102203933B1 (ko) * | 2018-11-26 | 2021-01-15 | 재단법인 실감교류인체감응솔루션연구단 | 다수의 손가락을 이용한 모션 캡쳐 인터페이스 방법 및 장치 |
US20220391170A1 (en) * | 2021-06-04 | 2022-12-08 | Samsung Electronics Co., Ltd. | Apparatus and method for signal processing |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008293501A (ja) * | 2001-09-07 | 2008-12-04 | Harmonic Research Inc | 改良型のワイヤレス式制御デバイス |
JP2012073830A (ja) * | 2010-09-29 | 2012-04-12 | Pioneer Electronic Corp | インターフェース装置 |
US20140139422A1 (en) * | 2012-11-20 | 2014-05-22 | Samsung Electronics Company, Ltd. | User Gesture Input to Wearable Electronic Device Involving Outward-Facing Sensor of Device |
US20140267024A1 (en) * | 2013-03-15 | 2014-09-18 | Eric Jeffrey Keller | Computing interface system |
US20150084884A1 (en) * | 2012-03-15 | 2015-03-26 | Ibrahim Farid Cherradi El Fadili | Extending the free fingers typing technology and introducing the finger taps language technology |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE20022244U1 (de) * | 1999-07-01 | 2001-11-08 | Immersion Corp | Steuerung vibrotaktiler Empfindungen für Haptische Rückkopplungsvorrichtungen |
US8035612B2 (en) * | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
WO2008010024A1 (en) * | 2006-07-16 | 2008-01-24 | Cherradi I | Free fingers typing technology |
-
2015
- 2015-06-16 JP JP2015121028A patent/JP2017004458A/ja active Pending
-
2016
- 2016-05-09 US US15/149,936 patent/US20160370861A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008293501A (ja) * | 2001-09-07 | 2008-12-04 | Harmonic Research Inc | 改良型のワイヤレス式制御デバイス |
JP2012073830A (ja) * | 2010-09-29 | 2012-04-12 | Pioneer Electronic Corp | インターフェース装置 |
US20150084884A1 (en) * | 2012-03-15 | 2015-03-26 | Ibrahim Farid Cherradi El Fadili | Extending the free fingers typing technology and introducing the finger taps language technology |
US20140139422A1 (en) * | 2012-11-20 | 2014-05-22 | Samsung Electronics Company, Ltd. | User Gesture Input to Wearable Electronic Device Involving Outward-Facing Sensor of Device |
US20140267024A1 (en) * | 2013-03-15 | 2014-09-18 | Eric Jeffrey Keller | Computing interface system |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021075632A1 (ko) * | 2019-10-18 | 2021-04-22 | 엘지전자 주식회사 | Xr 디바이스 및 그 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
US20160370861A1 (en) | 2016-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017004458A (ja) | 入力装置、入力制御方法、および、入力制御プログラム | |
US11467674B2 (en) | Performing an action associated with a motion based input | |
KR102063621B1 (ko) | 웨어러블 기기의 스크린의 표시 방법 및 웨어러블 기기 | |
US8279182B2 (en) | User input device and method using fingerprint recognition sensor | |
US10162466B2 (en) | Portable device and method of modifying touched position | |
US10073493B2 (en) | Device and method for controlling a display panel | |
US7518595B2 (en) | Pointing device control apparatus and method, electronic instrument, and computer program for the pointing device control apparatus | |
US20110187660A1 (en) | Mobile type image display device, method for controlling the same and information memory medium | |
JP2015087824A (ja) | 画面操作装置および画面操作方法 | |
KR20150127530A (ko) | 포터블 디바이스의 사용자 입력 방법 및 상기 사용자 입력 방법이 수행되는 포터블 디바이스 | |
JP5815932B2 (ja) | 電子機器 | |
KR20100078294A (ko) | 진동 패턴 생성 방법 및 이를 이용한 휴대 단말기 | |
JP2011081506A (ja) | 映像表示装置、および、その表示制御方法 | |
EP3260964B1 (en) | Mobile terminal and method for controlling the same | |
JP2013061848A (ja) | 非接触入力装置 | |
KR20100028012A (ko) | 제어 장치, 입력 장치, 제어 시스템, 핸드헬드형 정보 처리 장치 및 제어 방법 | |
US10592721B2 (en) | Biometric authentication device | |
CN105094616B (zh) | 触摸屏控制方法及装置 | |
EP3614239B1 (en) | Electronic device control in response to finger rotation upon fingerprint sensor and corresponding methods | |
JP5912929B2 (ja) | 表示装置、処理方法及びプログラム | |
JP2017027098A (ja) | 操作認識装置、操作認識方法及びプログラム | |
JP2017207848A (ja) | 携帯情報端末、装着腕判定方法、装着向き判定方法、及びプログラム | |
JP6088787B2 (ja) | プログラム、情報処理装置、情報処理方法および情報処理システム | |
US20090298538A1 (en) | Multifunction mobile phone and method thereof | |
JP2012146220A (ja) | ジェスチャ入力装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180306 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180409 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180409 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20180725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181113 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190514 |