JP2013114647A - Gesture input system - Google Patents

Gesture input system Download PDF

Info

Publication number
JP2013114647A
JP2013114647A JP2011263363A JP2011263363A JP2013114647A JP 2013114647 A JP2013114647 A JP 2013114647A JP 2011263363 A JP2011263363 A JP 2011263363A JP 2011263363 A JP2011263363 A JP 2011263363A JP 2013114647 A JP2013114647 A JP 2013114647A
Authority
JP
Japan
Prior art keywords
screen
gesture
hand
input system
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011263363A
Other languages
Japanese (ja)
Inventor
Takashi Komuro
孝 小室
Yu Takai
優 高井
Teruho Fujii
照穂 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EXVISION Inc
Original Assignee
EXVISION Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EXVISION Inc filed Critical EXVISION Inc
Priority to JP2011263363A priority Critical patent/JP2013114647A/en
Publication of JP2013114647A publication Critical patent/JP2013114647A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a gesture system that has a character input function applicable to practical use and is capable of recognizing a movement of a hand part below the elbow with less physical burden on a user and responding to a quick gesture.SOLUTION: An image sensor 3 images a movement of mainly a hand 2 of a user 1. The gesture system performs image processing and recognition in real time on the captured video image, and displays the result on a screen 4 of a television or a smart phone, so that the user 1 can easily operate a device such as a television with a gesture of the hand 2 without burden.

Description

本発明は、ジェスチャーによりテレビ、ゲーム、スマートフォンなどの機器を操作するユーザインタフェース技術に関する。   The present invention relates to a user interface technology for operating devices such as a television, a game, and a smartphone by a gesture.

従来のジェスチャーシステムは、認識のための解像度があまり高くなく、手や指の動きを認識することが困難であった。そのため特許文献1に示すように、大きな動作即ち手全体(腕)や体全体の動き(ボディアクション)を基本にしている。そのため、1)ユーザへの肉体的負担が大きい。2)画面上の小さなオブジェクト(機械制御アイコン)を操作するのが困難である。などの問題があった。またフレームレートも低く(30〜60FPS)このために、ユーザの素早いジェスチャーに対応することが困難になり、これも使い勝手を悪くしている。   In the conventional gesture system, the resolution for recognition is not so high, and it is difficult to recognize the movements of hands and fingers. For this reason, as shown in Patent Document 1, a large movement, that is, the movement of the entire hand (arm) or the entire body (body action) is basically used. Therefore, 1) The physical burden on the user is large. 2) It is difficult to operate a small object (machine control icon) on the screen. There were problems such as. In addition, the frame rate is low (30 to 60 FPS), which makes it difficult to respond to a user's quick gestures, which also deteriorates usability.

リモコンシステムは、リモコンに装備されたボタンの操作によって命令を実行するために、多くのボタンが装備されているが、それら一つ一つの機能を十分理解し、正確に操作するのに時間がかかる。また、紛失した時や、汚れた手では使えないという問題もある。文字入力はさらに困難で、リモコンに小型のキーボードが付いたものもあるが、遠くにあるモニターを見ながら文字をスムーズに入力するためには、ブラインドタッチができることが求められる。   The remote control system is equipped with many buttons to execute commands by operating the buttons on the remote control, but it takes time to fully understand each of these functions and operate them accurately. . There is also a problem that it cannot be used when it is lost or with dirty hands. Character input is even more difficult, and some remote controllers have a small keyboard, but in order to enter characters smoothly while looking at a distant monitor, blind touch is required.

スマートフォンのユーザインタフェースは、多くはタッチパネルベースとなっている。タッチパネルベースのユーザインタフェースの問題点は、指等でパネルに触れる際に、パネルに描かれたボタン、キー等のオブジェクトを指等が覆い隠すので、ユーザがオブジェクトの位置を正確に認識できないという問題がある。特に指の大きい大人或いは欧米人にとってはこれが問題になる場合が多い(いわゆるFat Finger Problem)。   Many smartphone user interfaces are based on touch panels. The problem with the touch-panel-based user interface is that when you touch the panel with your finger etc., the object such as buttons and keys drawn on the panel is covered with your finger etc., so the user cannot accurately recognize the position of the object There is. This is often a problem for adults with large fingers or Westerners (so-called Fat Finger Problem).

特開平10−31551号公報Japanese Patent Laid-Open No. 10-31551

解決しようとする問題点は以上のような点であり、本発明は、ユーザへの肉体的負担の少ない肘より先の手先部分の動きを認識でき、実用に耐える文字入力機能を持ちかつ素早いジェスチャーに対応できるジェスチャーシステムを提供することを目的になされたものである。   The problems to be solved are as described above, and the present invention is capable of recognizing the movement of the hand part ahead of the elbow with less physical burden on the user, has a character input function that can withstand practical use, and is a quick gesture. It was made for the purpose of providing a gesture system that can handle the above.

そのため本発明は、操作者の手及び指の動きを動画撮影する撮影手段と、操作対象機器の画面に操作パネルを表示する操作パネル表示手段と、撮影した手の動きに連動してポインターを動画表示するポインター表示手段とを備え、操作者の手及び指の動作を高速度・高解像度の画像センサで撮像し、その撮像された映像に対し、リアルタイムに画像処理、認識を行い、その結果と操作パネルを操作対象機器の画面に表示することによって、操作者が手及び指のジェスチャー動作によって操作対象機器を負荷なく簡単に操作できることを最も主要な特徴とする。   For this reason, the present invention provides a shooting means for shooting a motion of an operator's hand and fingers, an operation panel display means for displaying an operation panel on the screen of the operation target device, and a pointer moving in accordance with the movement of the shot hand. A pointer display means for displaying, and capturing the motion of the operator's hand and fingers with a high-speed and high-resolution image sensor, performing image processing and recognition on the captured image in real time, By displaying the operation panel on the screen of the operation target device, the most important feature is that the operator can easily operate the operation target device without a load by gesture operations of hands and fingers.

本発明は、操作者の手及び指の動作を高速度・高解像度の画像センサで撮像するので、画面上の小さなオブジェクトも手、指の素早い動作に対応して正確にかつ素早く操作でき、ユーザに快適な使用感を提供する。素早い動作に対応することによって、他のジェスチャー、例えば動画中の移動しているオブジェクトを選択しそのオブジェクトに対して命令を実行できる。また肘から上の主に手、指のジェスチャー動作なのでユーザに負担がかからない。文字入力も両手で素早く快適に行える。   The present invention captures the motion of the operator's hand and fingers with a high-speed, high-resolution image sensor, so that even a small object on the screen can be accurately and quickly operated in response to a quick motion of the hand or finger. Provide a comfortable feeling to use. By responding to a quick action, another gesture, for example, a moving object in a moving image can be selected and a command can be executed on that object. In addition, the user is not burdened by the gesture operation of the hands and fingers mainly above the elbow. Character input can be done quickly and comfortably with both hands.

本発明を実施したジェスチャー入力システムの構成図である。It is a block diagram of the gesture input system which implemented this invention. 高速画像演算処理のフローチャートである。It is a flowchart of a high-speed image calculation process.

以下、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below.

図1に、本発明を実施したジェスチャー入力システムの構成図を示す。
ジェスチャー入力システムは、ユーザ1の主に手2の動作を画像センサ3で撮像し、その撮像された映像に対し、リアルタイムに画像処理、認識を行い、その結果をテレビ、スマートフォン等のスクリーン4に表示することによって、ユーザ1が手2のジェスチャー動作によってテレビ等のデバイスを負荷なく簡単に操作できることを実現する。画像センサ3は、その中に高速画像演算プロセッサーが一体に組み込まれ、コンパクトにテレビ等の筐体に装着される。ジェスチャーは、手首より上の動作(指先及び指一本の動作を含む)でも可能で、高速画像演算プロセッサーはジェスチャー動作の手及び指等の形状を認識する。
FIG. 1 shows a configuration diagram of a gesture input system embodying the present invention.
The gesture input system captures mainly the motion of the hand 2 of the user 1 with the image sensor 3, performs image processing and recognition on the captured image in real time, and outputs the result to the screen 4 of a TV, a smartphone or the like. The display realizes that the user 1 can easily operate a device such as a television by a gesture operation of the hand 2 without load. The image sensor 3 has a high-speed image arithmetic processor integrated therein, and is compactly mounted on a housing such as a television. The gesture can be an action above the wrist (including a fingertip and a single finger), and the high-speed image processor recognizes the shape of the hand, the finger, etc. of the gesture action.

本ジェスチャーシステムでは、ジェスチャーの際の人間の手2、指の素早い動きを十分正確にとらえるため従来この分野で使われていない100FPS以上の高速かつ、640×480以上の高解像度の画像センサ3を採用し手2、及び指のジェスチャー動作を、素早く、正確に認識し、従来にない快適なユーザインタフェースを、TV、ゲーム機器等に提供するものである。   In this gesture system, the image sensor 3 having a high speed of 100 FPS or higher and a high resolution of 640 × 480 or higher, which has not been used in this field in the past, can be used to accurately capture the quick movement of the human hand 2 and fingers during the gesture. Adopting the hand 2 and finger gesture motions quickly and accurately, and providing a comfortable user interface unprecedented to TVs, game machines and the like.

ユーザ1に快適なユーザインタフェースを実現するため、従来のシステムに見られる、片手での操作だけではなく、両手を使ったジェスチャーも提供する。   In order to realize a user interface comfortable for the user 1, not only an operation with one hand, which is seen in a conventional system, but also a gesture using both hands is provided.

本ジェスチャーシステムでは、画面上に1〜2のポインター(ハンドアイコン)を表示し、そのポインターを両手の指を使った簡単なジェスチャー操作を実行することにより、様々な操作、例えば視聴したいプログラムの検索及び選択(テレビのチャネル切り替え、番組表から視聴したい番組の選択等に相当)、スクリーンに複数のウィンドウの表示、移動、そのウィンドウを両手或いは片手を使って大きさの変更、画面上に表示された仮想キーボードに対して2つのポインターを指で操作することにより文字入力する、コマンドを指定する、などを実現できるように設計されている。   In this gesture system, 1-2 pointers (hand icons) are displayed on the screen, and simple gesture operations using the fingers of both hands are used to search for various operations, for example, programs to be viewed. And selection (equivalent to switching TV channels, selecting programs to watch from the program guide, etc.), displaying and moving multiple windows on the screen, changing the size of the windows using both hands or one hand, displayed on the screen It is designed so that characters can be input and commands can be specified by operating two pointers on the virtual keyboard with a finger.

ユーザ1は、両腕の肘より先の手2指の操作だけでジェスチャーを実現するので、テレビのような日常頻繁に行う操作でも疲労なく継続的に操作をすることができる。   Since the user 1 realizes the gesture only by operating the two fingers ahead of the elbows of both arms, the user 1 can perform the operation continuously without fatigue even with the daily operations such as television.

テレビ等の大きなスクリーン5を持った、両手2の指の全部又は一部を使ったジェスチャー操作が適した場合に、その文字入力の際に使われるキーボードは、その手2の自然な動きに対応したキー配列とデザインを持つ。   When a gesture operation using all or part of the fingers of both hands 2 with a large screen 5 such as a TV is suitable, the keyboard used for character input corresponds to the natural movement of the hands 2 With a key layout and design.

ジェスチャーのタップ操作(キーボードのキーが押されたり、メニュー上のボタンが押された状況を実現する動作)を高速にかつ安定して実現するために、手2操作の位置、移動情報に加え、その速度、加速度を認識に利用する。   In addition to the position and movement information of hand 2 operation, in order to realize gesture tap operation (operation that realizes the situation where a key on the keyboard or a button on the menu is pressed) at high speed and stably, The speed and acceleration are used for recognition.

画像センサから得られる手指に関する複数の適切な特徴量を使って手2、指の認識を行う。   Recognition of the hand 2 and the finger is performed using a plurality of appropriate feature amounts related to the finger obtained from the image sensor.

スマートフォンの場合、機器背面の振動素子による触覚フィードバックを行う。   In the case of a smartphone, tactile feedback is performed by the vibration element on the back of the device.

指、手2の対象機器との前後の動きによってズーミングを実現、3次元映像の作画を行えるようにする。   Zooming is realized by the back and forth movement of the finger and hand 2 with the target device so that 3D video can be drawn.

図2に、高速画像演算処理のフローチャートを示す。
高速画像演算処理は、まず、センサーの環境パラメータの設定(パラメータは環境の変化によって随時調整)を行い(ステップ1)、次に、画像の取り込みを行い(ステップ2)、次に、ジェスチャー動作をする手、指の位置、形状等を複数フレームに亘ってその形状、動作速度、色情報を総合的に判断し、同定する(ステップ3)。次に、同定した手、指の属性・特徴量(特徴的な手、指の部位の位置、大きさ、形状、動作速度等)の抽出と計算を行い(ステップ4)、次に、同定した手の属性・特徴量から、ジェスチャー操作を認識し、システム(OS)に提供し(ステップ5)、次に、システムプログラム、アプリケーションプログラムがジェスチャー操作情報を、システム(OS)から入手し、ジェスチャーUI(ユーザインタフェース)を実現する(ステップ6)。
FIG. 2 shows a flowchart of high-speed image calculation processing.
In the high-speed image calculation process, first, environmental parameters of the sensor are set (parameters are adjusted as needed according to environmental changes) (step 1), then an image is captured (step 2), and then gesture operation is performed. The position, shape, and the like of the hand, the finger, etc. are comprehensively judged and identified over a plurality of frames (step 3). Next, extraction and calculation of identified hand / finger attributes / features (characteristic hand, finger part position, size, shape, motion speed, etc.) were performed (step 4), and then identified. The gesture operation is recognized from the hand attributes / features and provided to the system (OS) (step 5). Next, the system program and application program obtain the gesture operation information from the system (OS), and the gesture UI. (User interface) is realized (step 6).

すなわち、ジェスチャーサブシステムで、ユーザのジェスチャー動作を動画として取り込み、そこでの画像処理、ジェスチャー認識処理を経て、手、指の形状、相対的移動量、速度加速度等を計測し、それらのデータからジェスチャー動作の意味を認識する処理を行いそれから、画像上のポインターの位置、移動量、ポインターその時点でのステート(状態とその意味、状態の変化を指し示すデータ等)を作成し、データセットとして、TV側システムに提供し、ジェスチャーによるユーザインタフェースシステムを実現する。   In other words, the gesture subsystem captures the user's gesture motion as a moving image, and through image processing and gesture recognition processing there, the hand, finger shape, relative movement amount, speed acceleration, etc. are measured, and the gesture is determined from those data. The process of recognizing the meaning of the operation is performed, and then the position of the pointer on the image, the amount of movement, and the state at that point (data indicating the state and its meaning, state change, etc.) are created, and the TV set is used as a data set. Provide a side system to realize a user interface system by gesture.

以上のような構成で、ユーザが手を任意に素早く振るとジェスチャーシステムはその画像中の手とその動きを認識して、ジェスチャー認識をスタートする。この際に肘より先の手先部分を動かす操作で、スクリーン上のすべてのポイントを操作できるように、図1の点線で示す腕の捜査範囲とスクリーン画面をマッチングさせるためのキャリブレーションを行う。   With the above configuration, when the user shakes his / her hand arbitrarily and quickly, the gesture system recognizes the hand and its movement in the image and starts gesture recognition. At this time, calibration is performed to match the arm search range indicated by the dotted line in FIG. 1 with the screen screen so that all the points on the screen can be operated by moving the hand portion beyond the elbow.

文字入力は、両手の指の操作によって実現し、画面上にジェスチャー文字入力に最適化された仮想キーボードを表示し、そこに描かれたキーを両手の指で2つのポインターを操作することによって実現する。キーを選択押すジェスチャーは、指の姿勢、動き、速度、加速度を素早く正確に認識することによって実現する。   Character input is realized by the operation of fingers of both hands, a virtual keyboard optimized for gesture character input is displayed on the screen, and the keys drawn there are operated by operating two pointers with fingers of both hands To do. The gesture of selecting and pressing a key is realized by quickly and accurately recognizing the posture, movement, speed, and acceleration of the finger.

また、手、指の姿勢、その指の手全体の動きに対する相対的な動き、速度、加速度を測定、認識して、タップ、ドラッグ、フリック等を認識する。   Further, it measures and recognizes the hand, finger posture, relative movement, speed, and acceleration relative to the movement of the entire hand of the finger to recognize taps, drags, flicks, and the like.

本ジェスチャーシステムは、例えばスマートフォンにおいて、指の3次元位置を使って画面上の3次元映像の描画機能を提供する。さらに指やこの場合は目の3次元位置を視点と定義して、画面上に3次元映像を表現しその指、目が3次元で定義する視点に応じて3次元映像を提供する機能を提供する。例えばこれはマップ等のストリートビューのコントロールする機能の提供をする。   This gesture system provides, for example, a 3D video rendering function on a screen using a 3D position of a finger in a smartphone. In addition, a 3D position of the finger and in this case the eye is defined as the viewpoint, and a 3D image is displayed on the screen. To do. For example, this provides a function for controlling a street view such as a map.

また、ジェスチャーシステムの動作環境(リビングルーム等)で、誤動作が発生する可能性がある環境状態になった場合その誤動作の原因(以降障害物と呼ぶ。例えば非常に強い光源の存在、部屋全体の不適切な照度等)となるものをユーザに示唆し、それを取り除く、問題を解消してもらうために、映像情報をスクリーン上の一つのウィンドウに表示し、その障害物の存在をユーザに認識させ、取り除くことを可能にするための機能を提供する。   Also, if the gesture system operating environment (living room, etc.) is in an environmental state where malfunction may occur, the cause of the malfunction (hereinafter referred to as an obstacle. For example, the presence of a very strong light source, In order to suggest to the user what is inappropriate illuminance, etc., remove it, and solve the problem, display the video information in one window on the screen and recognize the presence of the obstacle to the user Provide a function that allows you to remove and remove.

なお、手、指の位置、動き、加速度、形状の認識は、手の色情報、色の勾配情報等から使った輪郭データとそのフレーム毎の変化を計算し、さらに手の形状のモデルとの比較をすることにより、手、指の位置、動き、加速度、形状の認識をする。   In addition, hand, finger position, movement, acceleration, and shape are recognized by calculating contour data used from hand color information, color gradient information, etc. By comparing, the hand, finger position, movement, acceleration, and shape are recognized.

1 ユーザ
2 手
3 画像センサ
4 スクリーン
1 user 2 hand 3 image sensor 4 screen

Claims (6)

操作者の手及び指の動きを動画撮影する撮影手段と、
操作対象機器の画面に操作パネルを表示する操作パネル表示手段と、
撮影した手の動きに連動してポインターを動画表示するポインター表示手段と、
を備え、
操作者の手及び指の動作を高速度・高解像度の画像センサで撮像し、その撮像された映像に対し、リアルタイムに画像処理、認識を行い、その結果と操作パネルを操作対象機器の画面に表示することによって、操作者が手及び指のジェスチャー動作によって操作対象機器を負荷なく簡単に操作できることを特徴とするジェスチャー入力システム。
Photographing means for photographing the movement of the operator's hand and fingers;
Operation panel display means for displaying the operation panel on the screen of the operation target device;
Pointer display means for displaying a pointer as a movie in conjunction with the movement of the photographed hand;
With
The operator's hand and finger movements are imaged with a high-speed, high-resolution image sensor, and the captured images are processed and recognized in real time. The results and the operation panel are displayed on the screen of the operation target device. A gesture input system characterized in that, by displaying, an operator can easily operate an operation target device without a load by a gesture operation of a hand and a finger.
前記ポインターが操作者の手及び指の動きを適切に連想させる形状であることを特徴とする請求項1記載のジェスチャー入力システム。   The gesture input system according to claim 1, wherein the pointer has a shape that appropriately associates movements of an operator's hand and fingers. 前記ジェスチャー動作が両手操作を含むことを特徴とする請求項1記載のジェスチャー入力システム。   The gesture input system according to claim 1, wherein the gesture operation includes a two-hand operation. 前記画面制御がテレビのチャネル切替え、音量調整、番組検索及び番組選択、テレビ画面に表示された複数のウィンドウの移動、リサイジング等の基本動作及びテレビ上のオンラインショッピングのための動画に含まれる静止あるいは動いている物品の選択操作、ソーシャルネットワークアプリケーション等のテレビを介したコミュニケーションに使われる文字入力、番組検索等のための文字入力、視聴者の意見を収集するための投票のための操作、を含むことを特徴とする請求項1記載のジェスチャー入力システム。   The screen control includes the basic operations such as TV channel switching, volume adjustment, program search and program selection, movement of a plurality of windows displayed on the TV screen, resizing, and still images included in videos for online shopping on the TV. Or, selection of moving items, input of characters used for communication via television such as social network applications, input of characters for searching programs, and operations for voting to collect viewers' opinions The gesture input system according to claim 1, further comprising: 前記ジェスチャーの動作によって画面表示する操作パネルが選択されることを特徴とする請求項1記載のジェスチャー入力システム。   The gesture input system according to claim 1, wherein an operation panel to be displayed on the screen is selected by the gesture operation. 前記ジェスチャー動作が
画面や、スクロールバーを慣性を持たせスクロールさせるフリック操作、
画面の表示ウィンドウを移動させるドラッグ操作、
画面表示を拡大・縮小させるピンチ操作、
画面上のボタンを押してキー入力するタップ操作、
画面上のレバーを移動させるスライド操作、
画面上のボリュームを回転させる回転操作、
画面上のメニューを検索する検索操作、
画面上に表示された、静止及び動いているオブジェクトを選択する操作
文字入力のための画面上のキーボードの両手・両指での操作
のいずれかを含むことを特徴とする請求項1記載のジェスチャー入力システム。
The gesture operation is a flick operation that scrolls the screen or scroll bar with inertia,
Drag operation to move the display window on the screen,
Pinch operation to enlarge / reduce the screen display,
Tap operation to press keys on the screen and enter keys,
Slide operation to move the lever on the screen,
Rotation operation to rotate the volume on the screen,
Search operation to search the menu on the screen,
The gesture according to claim 1, comprising any one of operations with both hands and fingers of a keyboard on the screen for inputting an operation character for selecting a stationary and moving object displayed on the screen. Input system.
JP2011263363A 2011-12-01 2011-12-01 Gesture input system Pending JP2013114647A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011263363A JP2013114647A (en) 2011-12-01 2011-12-01 Gesture input system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011263363A JP2013114647A (en) 2011-12-01 2011-12-01 Gesture input system

Publications (1)

Publication Number Publication Date
JP2013114647A true JP2013114647A (en) 2013-06-10

Family

ID=48710097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011263363A Pending JP2013114647A (en) 2011-12-01 2011-12-01 Gesture input system

Country Status (1)

Country Link
JP (1) JP2013114647A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015075767A1 (en) * 2013-11-19 2015-05-28 日立マクセル株式会社 Projection-type video display device
JP2015125781A (en) * 2013-12-26 2015-07-06 ビステオン グローバル テクノロジーズ インコーポレイテッド System and method for rendering virtual representation of hand
CN104916601A (en) * 2014-03-10 2015-09-16 三菱电机株式会社 Semiconductor device and method of manufacturing the same
JP2015180998A (en) * 2014-03-05 2015-10-15 株式会社ビーマップ Menu proposal system
KR20160103381A (en) * 2015-02-24 2016-09-01 전자부품연구원 Character input apparatus based on hand gesture and method thereof
WO2019159760A1 (en) * 2018-02-19 2019-08-22 株式会社村上開明堂 Operation detection device and operation detection method
KR20220027721A (en) * 2020-08-27 2022-03-08 카페24 주식회사 Method, Apparatus and System for Automatic Registering Product Reviews Being Selective

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844490A (en) * 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd Interface device
JP2005043954A (en) * 2003-07-22 2005-02-17 Sharp Corp Virtual keyboard system
JP2005354568A (en) * 2004-06-14 2005-12-22 Sony Corp Physical information acquisition method, physical information acquisition device and semiconductor device for detecting physical value distribution
JP2008072682A (en) * 2007-02-09 2008-03-27 Casio Comput Co Ltd Imaging apparatus
JP2008146243A (en) * 2006-12-07 2008-06-26 Toshiba Corp Information processor, information processing method and program
JP2009130563A (en) * 2007-11-22 2009-06-11 Sony Corp Unit, method, and program for processing data, imaging apparatus, and method and program for controlling the same
JP2011191423A (en) * 2010-03-12 2011-09-29 Honda Motor Co Ltd Device and method for recognition of speech

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844490A (en) * 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd Interface device
JP2005043954A (en) * 2003-07-22 2005-02-17 Sharp Corp Virtual keyboard system
JP2005354568A (en) * 2004-06-14 2005-12-22 Sony Corp Physical information acquisition method, physical information acquisition device and semiconductor device for detecting physical value distribution
JP2008146243A (en) * 2006-12-07 2008-06-26 Toshiba Corp Information processor, information processing method and program
JP2008072682A (en) * 2007-02-09 2008-03-27 Casio Comput Co Ltd Imaging apparatus
JP2009130563A (en) * 2007-11-22 2009-06-11 Sony Corp Unit, method, and program for processing data, imaging apparatus, and method and program for controlling the same
JP2011191423A (en) * 2010-03-12 2011-09-29 Honda Motor Co Ltd Device and method for recognition of speech

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9927923B2 (en) 2013-11-19 2018-03-27 Hitachi Maxell, Ltd. Projection-type video display device
JP5973087B2 (en) * 2013-11-19 2016-08-23 日立マクセル株式会社 Projection-type image display device
WO2015075767A1 (en) * 2013-11-19 2015-05-28 日立マクセル株式会社 Projection-type video display device
US10191594B2 (en) 2013-11-19 2019-01-29 Maxell, Ltd. Projection-type video display device
JP2015125781A (en) * 2013-12-26 2015-07-06 ビステオン グローバル テクノロジーズ インコーポレイテッド System and method for rendering virtual representation of hand
JP2015180998A (en) * 2014-03-05 2015-10-15 株式会社ビーマップ Menu proposal system
CN104916601A (en) * 2014-03-10 2015-09-16 三菱电机株式会社 Semiconductor device and method of manufacturing the same
KR101654710B1 (en) 2015-02-24 2016-09-06 전자부품연구원 Character input apparatus based on hand gesture and method thereof
US9811167B2 (en) 2015-02-24 2017-11-07 Korea Electronics Technology Institute Apparatus and method for inputting character based on hand gesture
KR20160103381A (en) * 2015-02-24 2016-09-01 전자부품연구원 Character input apparatus based on hand gesture and method thereof
WO2019159760A1 (en) * 2018-02-19 2019-08-22 株式会社村上開明堂 Operation detection device and operation detection method
JPWO2019159760A1 (en) * 2018-02-19 2021-01-28 株式会社村上開明堂 Operation detection device and operation detection method
US11237673B2 (en) 2018-02-19 2022-02-01 Murakami Corporation Operation detection device and operation detection method
JP7286613B2 (en) 2018-02-19 2023-06-05 株式会社村上開明堂 Operation detection device and operation detection method
KR20220027721A (en) * 2020-08-27 2022-03-08 카페24 주식회사 Method, Apparatus and System for Automatic Registering Product Reviews Being Selective
KR102642109B1 (en) * 2020-08-27 2024-03-04 카페24 주식회사 Method, Apparatus and System for Automatic Registering Product Reviews Being Selective

Similar Documents

Publication Publication Date Title
JP5167523B2 (en) Operation input device, operation determination method, and program
JP5515067B2 (en) Operation input device, operation determination method, and program
WO2012039140A1 (en) Operation input apparatus, operation input method, and program
EP2983064B1 (en) Information processing apparatus, information processing method, and program
US8866781B2 (en) Contactless gesture-based control method and apparatus
US8666115B2 (en) Computer vision gesture based control of a device
CN105814522B (en) Device and method for displaying user interface of virtual input device based on motion recognition
JP6165485B2 (en) AR gesture user interface system for mobile terminals
JP2013114647A (en) Gesture input system
US20150143283A1 (en) Information processing device, display control method, and program
JP6390799B2 (en) Input device, input method, and program
KR20120096849A (en) An apparatus and method for inputting command using gesture
US20140053115A1 (en) Computer vision gesture based control of a device
KR20120126508A (en) method for recognizing touch input in virtual touch apparatus without pointer
US20120313968A1 (en) Image display system, information processing apparatus, display device, and image display method
KR101435773B1 (en) Remote control device and remote control method of smart TV.
CN112954209B (en) Photographing method and device, electronic equipment and medium
KR101272458B1 (en) virtual touch apparatus and method without pointer on the screen
JP2015122124A (en) Information apparatus with data input function by virtual mouse
KR102480568B1 (en) A device and method for displaying a user interface(ui) of virtual input device based on motion rocognition
JP5733056B2 (en) Data input method with virtual mouse
TW201925989A (en) Interactive system
US20220392170A1 (en) Interactive Display Devices in Extended Reality Environments
KR20150049661A (en) Apparatus and method for processing input information of touchpad
CN115328312A (en) Control method, apparatus, device, storage medium, and program product for display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150113