JP5831883B2 - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP5831883B2 JP5831883B2 JP2012236127A JP2012236127A JP5831883B2 JP 5831883 B2 JP5831883 B2 JP 5831883B2 JP 2012236127 A JP2012236127 A JP 2012236127A JP 2012236127 A JP2012236127 A JP 2012236127A JP 5831883 B2 JP5831883 B2 JP 5831883B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- palm
- information processing
- user
- specified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、ジェスチャー操作が可能な情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing apparatus capable of performing a gesture operation, an information processing method, and a program.
近年、技術の進歩により種々の機能を有する情報処理装置が開発されており、ジェスチャー操作が可能なパーソナルコンピュータが挙げられる(例えば、特許文献1参照)。
特許文献1に記載の発明は、「インターフェース装置及びその方法」に関するものであり、具体的には「テレビやコンピュータ等の機器を操作するためのインターフェース装置におけるジェスチャー情報表示部は、操作に用いるジェスチャーの一覧、ジェスチャー認識部の認識結果、及び操作者の手と思われる部分の画像を表示し、操作者はジェスチャーを覚えることなく画面を確認しながら操作を行えるようになると共に、ジェスチャー認識部に認識させやすいように操作者が行うジェスチャーを修正することが可能となり、操作性が向上する」ものである。
In recent years, information processing apparatuses having various functions have been developed due to technological progress, and a personal computer capable of performing a gesture operation can be cited (for example, see Patent Document 1).
The invention described in
しかしながら、特許文献1に記載の発明は、ジェスチャーを覚えることなくその都度画面を確認しながら操作を行うため、ジェスチャー動作開始から認識まで時間がかかり、画面を確認しながらジェスチャー動作を行うため認識率について改善の余地がある。
However, since the invention described in
そこで、本発明の目的は、ジェスチャー動作の認識率の向上を図った情報処理装置、情報処理方法、及びプログラムを提供することにある。 Accordingly, an object of the present invention is to provide an information processing apparatus, an information processing method, and a program that improve the recognition rate of gesture motion.
上記課題を解決するため、請求項1記載の発明は、アプリケーションを実行する実行手段と、前記アプリケーションの実行結果を表示する表示手段と、ユーザーの手の平を撮影して画像データに変換する撮影手段と、前記撮影手段からの複数の画像データに基づいて前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する解析手段と、前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する制御手段と、を備えた情報処理装置において、解析手段によってジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行うとともにユーザーの手の平を囲むように矩形を表示する表示手段をさらに備えたことを特徴とする。
In order to solve the above-mentioned problem, the invention described in
本発明によれば、ジェスチャー動作の認識率の向上を図った情報処理装置、情報処理方法、及びプログラムの提供を実現できる。 ADVANTAGE OF THE INVENTION According to this invention, provision of the information processing apparatus, the information processing method, and program which aimed at the improvement of the recognition rate of gesture operation | movement is realizable.
次に本実施形態について図面を参照して説明する。
本実施形態では、情報処理装置がノートパソコンの場合で説明するが、本発明はノートパソコンに限定されるものではなく、デスクトップパソコンであってもよい。
Next, the present embodiment will be described with reference to the drawings.
In this embodiment, the case where the information processing apparatus is a notebook personal computer will be described. However, the present invention is not limited to a notebook personal computer, and may be a desktop personal computer.
<構 成>
図1(a)は、一実施形態に係るノートパソコンを使用中の状態を示す外観斜視図であり、図1(b)は、図1(a)に示したノートパソコンのユーザー側から見た外観斜視図である。
このノートパソコン100は、キーボード101やマウス102による操作の他、Webカメラ(以下、カメラと表記する。)103でユーザーの手の平を認識し、認識した手の平の動き(ジェスチャー、もしくはハンドジェスチャーとも言う)によりノートパソコン100で一定の操作を行うことができるようになっている。
液晶表示装置104は、通常の表示を行う他、ユーザーの顔や手を表示したり、ジェスチャー操作練習のための画像を表示したりできるようになっている。
<Configuration>
FIG. 1A is an external perspective view showing a state in which the notebook computer according to one embodiment is being used, and FIG. 1B is a view from the user side of the notebook computer shown in FIG. It is an external perspective view.
The
The liquid
図2は、情報処理装置としてのノートパソコンの一実施形態を示すブロック図である。
ノートパソコン100は、ハードウェア的には通常のノートパソコンと同様であり、キーボード101、マウス102、撮影手段としてのカメラ(Webカメラ)103、表示装置104、光学読取装置105、HDD(Hard Disc Drive)106、制御部107、RAM(Random Access Memory:読み出し/書き込みメモリ)108、ROM(Read Only Memory:読み出し専用メモリ)109、及びI/O(Input/Output)110を有するが、本発明はこれに限定されるものではなく、地上波デジタルテレビジョン放送を視聴するためのチューナーやインターネット接続を行うためのモデムをそなえていてもよい。尚、111はバスラインである。
FIG. 2 is a block diagram showing an embodiment of a notebook personal computer as an information processing apparatus.
The
キーボード101は、QWERTY配列の英字キー、数字キー、テンキー、スペースキー、エンターキー、ファンクションキー、デリートキー、スペースキー等の通常の入力キーを有する。
The
マウス102は、少なくとも左ボタン、右ボタンを有しており、ホイールボタンを有してもよい。尚、図ではマウス102はケーブルでノートパソコン100に接続されているが、本発明はこれに限定されるものではなく、マウス102はワイヤレスでノートパソコン100に接続されていてもよい。
The
カメラ103は、ノートパソコン100の上側筐体の上側の中央にユーザー側に向かって設けられており、例えばCCD(Charge-Coupled Device)が用いられる。
The
表示装置104は、解析手段107cによってジェスチャーが特定されたとき、特定されたジェスチャーに対応する表示もしくは制御部の制御による表示を行う機能を有し、例えば液晶ディスプレイが用いられるが、液晶ディスプレイの代わりにプラズマディスプレイを用いてもよい。
The
光学読取装置105は、例えば、DVD(Digital Versatile Disc)、CD(Compact Disc)、CDR(CD Recordable)等の光学媒体を読み取る装置である。
The
HDD106は、文字データ、画像データ、音声データ等のデータをRAM108に比べて大容量のデータを記憶するための記憶装置である。HDD106の代わりにSSD(Solid State Drive)を用いてもよい。
The
制御部107は、ノートパソコン100を統括制御する機能を有し、例えば、マイクロプロセッサのCPU(Central Processing Unit:中央演算処理装置)を含む回路である。制御部107は、ソフトウェアとして入力制御手段107a、トレーニング手段107b、解析手段107c、割り込み制御手段107d、ディスク制御手段107e、表示装置制御手段107f、及び実行手段107gを有する。
The
入力制御手段107aは、キーボード101、マウス102、カメラ103、及び光学読取装置105からデータを管理する。
The
トレーニング手段107bは、ソフトウェアで構成され、ユーザーの手の平の動作をジェスチャーとして認識する認識精度を向上させるため、ジェスチャーアプリケーション(以下、ジェスチャーアプリと表記)の初回起動時に、強制的にジェスチャーの練習を実行させる機能を有する。
本実施形態におけるジェスチャーは、ノートパソコン100のカメラ103の撮影可能な範囲(カメラ画像内とも言う)におけるユーザーの手の平の動作を意味する。
The training means 107b is configured by software, and forcibly practice gestures at the first activation of a gesture application (hereinafter referred to as a gesture application) in order to improve recognition accuracy for recognizing a user's palm movement as a gesture. It has a function to make it.
The gesture in the present embodiment means a palm action of the user in a range that can be taken by the
解析手段107cは、ソフトウェアで構成され、カメラ103からの画像データを解析してユーザーの手の平の動作をジェスチャーとして認識する機能を有する。
割り込み制御手段107dは、あるプログラムの処理中に他のプログラムの処理を割り込ませる割り込み処理の制御を行う。
ディスク制御手段107eは、光学読取装置105に挿入された光学媒体の種類を判別し、文字データ、画像データ、音声データの読み出しの管理を行う。
表示装置制御手段107fは、表示装置104の画像表示を管理する。
実行手段107gは、アプリケーションを実行する。
The
The
The
The display
The
RAM108は、例えばフラッシュメモリが用いられる。
ROM109は、例えばマスクROMが用いられる。
I/O109は、ノートパソコン100と、図には示されないUSB(Universal Serial Bus)フラッシュメモリを含む外部のデバイスとのデータの授受を管理する。
For example, a flash memory is used as the
For example, a mask ROM is used as the
The I /
図3(a)〜(n)は、図1に示したノートパソコン100に用いられるジェスチャーの一例を示す図であり、ユーザー自身の手の動きをユーザーの視点から見た図である。本実施形態では、ユーザーが右手をカメラ103にかざした場合で説明するが左手であってもよい。
図中の矢印で、一本線の矢印(→)は手形状や手の状態の遷移を表し、中抜きの矢印は手の平の移動を表す。
本実施形態において12種類のジェスチャーにより、ノートパソコン100を操作しているが、本発明はこれに限定されるものではない。
図3(a)は、ユーザーの右手によるマウスカーソル操作を示す図であり、両矢印のように移動させる場合を示しているが限定されるものではない。
図3(b)は、「パー→グー→パー」のように手の平を開いたり閉じたりすることで左クリックのジェスチャー動作となる。
図3(c)〜(e)は、「パー→グー→グーで動かす→パー」のように手の平を動かすことでドラッグ及びドロップのジェスチャー動作となる。
図3(f)は、手の平を拡げたまま矢印方向(右方向)にクリックより素早く動かすことで右フリックのジェスチャー動作となる。ここで、「フリック」とは、本来タッチパネルにおける操作の一種であり、画面を軽く払うように指を動かすことであるが、手の平を素早く動かすことを含む。
3A to 3N are diagrams showing examples of gestures used in the
In the figure, a single-line arrow (→) represents a transition of a hand shape or a hand state, and a hollow arrow represents a movement of the palm.
In the present embodiment, the
FIG. 3A is a diagram showing a mouse cursor operation by the user's right hand, and shows a case of moving as indicated by a double arrow, but is not limited thereto.
In FIG. 3B, a left-click gesture operation is performed by opening and closing the palm like “par → goo → par”.
3C to 3E, a gesture operation of dragging and dropping is performed by moving the palm like “par → goo → moving with goo → par”.
In FIG. 3 (f), a gesture operation of a right flick is performed by moving more quickly than clicking in the arrow direction (right direction) with the palm spread. Here, “flick” is originally a kind of operation on the touch panel, which is to move a finger so as to lightly touch the screen, but includes quickly moving the palm.
図3(g)は、手の平を拡げたまま矢印方向(左方向)にクリックより素早く動かすことで左フリックのジェスチャー動作となる。 In FIG. 3 (g), a gesture operation of a left flick is performed by moving more quickly than clicking in the arrow direction (left direction) with the palm spread.
図3(h)は、手の平を拡げたまま矢印方向(上方向)にクリックより素早く動かすことで上フリックのジェスチャー動作となる。 In FIG. 3 (h), an upward flick gesture is performed by moving the finger in the direction of the arrow (upward) more quickly than clicking with the palm extended.
図3(i)は、手の平を拡げたまま矢印方向(下方向)にクリックより素早く動かすことで下フリックのジェスチャー動作となる。 In FIG. 3 (i), a gesture operation of a lower flick is made by moving the hand in the direction of the arrow (downward) more quickly than clicking with the palm expanded.
図3(j)は、手の平を拡げたままノートパソコン100の表示装置104程度の大きさの時計方向の円(直径10cm〜20cm程度)を描くことで時計回りのサークルのジェスチャー動作となる。
FIG. 3J shows a clockwise circle gesture operation by drawing a clockwise circle (diameter of about 10 cm to 20 cm) about the size of the
図3(k)は、手の平を拡げたままノートパソコン100の表示装置104程度の大きさの反時計方向の円(直径10cm〜20cm程度)を描くことで反時計回りのサークルのジェスチャー動作となる。
FIG. 3K shows a counterclockwise circle gesture operation by drawing a counterclockwise circle (diameter of about 10 cm to 20 cm) of the size of the
図3(l)は、手の平を拡げたままノートパソコン100の表示装置104に向かって押し指すことでプッシュのジェスチャー動作となる。
In FIG. 3L, a push gesture operation is performed by pushing toward the
図3(m)は、手の平を拡げたままノートパソコン100の表示装置104から離れる方向に押し指すことでプルのジェスチャー動作となる。
FIG. 3 (m) shows a pull gesture operation by pushing and pointing away from the
図3(n)は、手の平を拡げたままノートパソコン100の表示装置104に向かって左右に振ることでウェイブのジェスチャー動作となる。本ジェスチャー動作をウェイブともいう。
In FIG. 3 (n), a wave gesture operation is performed by swinging left and right toward the
ここで、「クリック」はマウスの左クリック、「ドラッグ&ドロップ」はマウスのドラッグ&ドロップに対応する。また、右フリックは、「進む」、左フリックは「戻る」、上フリックは「上スクロール」、下フリックは「下スクロール」、時計回りのサークルは「拡大」、反時計回りのサークルは「縮小」、「プル」は、図示しない携帯情報端末の起動、「ウェイブ」は、スタート画面に戻るコマンド操作に対応する。 Here, “click” corresponds to the left click of the mouse, and “drag and drop” corresponds to the drag and drop of the mouse. Also, right flick is "forward", left flick is "back", upper flick is "up scroll", lower flick is "down scroll", clockwise circle is "enlarge", counterclockwise circle is "reduced" “,” “Pull” corresponds to activation of a portable information terminal (not shown), and “wave” corresponds to a command operation for returning to the start screen.
<動 作>
図4は、図1に示したノートパソコンの動作を説明するためのフローチャートの一例である。図5は、図1に示したノートパソコンにおいて、ジェスチャーアプリの初回起動時に表示される画面の一例である。図6は、ジェスチャー練習をする場合に表示されるジェスチャー認識成功の場合の画面の一例であり、図7は、ジェスチャー練習をする場合に表示されるジェスチャー認識失敗の場合の画面の一例である。図8は、ジェスチャー練習を終了したときに表示される画面の一例であり、図9は、ジェスチャー機能を起動させたときに表示される画面の一例である。
<Operation>
FIG. 4 is an example of a flowchart for explaining the operation of the notebook computer shown in FIG. FIG. 5 is an example of a screen displayed when the gesture app is first activated in the notebook computer shown in FIG. FIG. 6 is an example of a screen in the case of successful gesture recognition displayed when performing a gesture practice, and FIG. 7 is an example of a screen in the case of a gesture recognition failure displayed when performing a gesture practice. FIG. 8 is an example of a screen that is displayed when the gesture practice is finished, and FIG. 9 is an example of a screen that is displayed when the gesture function is activated.
図4に示すフローチャートの動作の主体は、図2に示した制御部107である。
制御部107は、ジェスチャーアプリが起動されたか否かを判断し(ステップS1)、ジェスチャーアプリが起動されない場合は待機し(ステップS1/No)、ジェスチャーアプリが起動された場合は、図5に示すメニュー画面を表示する。
図5において、メニュー画面としてのジェスチャー機能の設定の画面には、注意書きの一例として、「ハンドジェスチャーでは、リモコンやマウスを使わずに手の平のジェスチャーだけで情報処理装置の操作をおこなうことができます。」の文字情報が表示される。情報処理装置の操作とは、前述したカーソル操作やコマンド操作を意味する。
The main body of the operation of the flowchart shown in FIG. 4 is the
The
In FIG. 5, the gesture function setting screen as a menu screen is an example of a note. “Hand gestures allow the user to operate the information processing device with only a palm gesture without using a remote control or a mouse. "Is displayed. The operation of the information processing apparatus means the above-described cursor operation or command operation.
図5に示す画面の左側には複数(図では4つであるが限定されない。)のボタンB1〜B4が表示される。このうち「練習する」及び「キャンセル」のボタンB1、B4のみアクティブになっている。これは、ジェスチャーアプリの初回起動時にユーザーに強制的に練習させるためである。「練習する」のボタンB1の横には例えば、「各ジェスチャーの方法を練習することができます。ハンドジェスチャーを快適に使うには練習することをおすすめします。」の文字情報が表示される。ハンドジェスチャーを快適に使うにはジェスチャーの認識率を向上させる必要があり、そのため、ユーザーに練習することを促しているのである。「キャンセル」のボタンB4は表示されている画面を終了するためのボタンである。 On the left side of the screen shown in FIG. 5, a plurality of buttons (four in the figure, but not limited) B1 to B4 are displayed. Of these, only the “practice” and “cancel” buttons B1 and B4 are active. This is to force the user to practice when the gesture app is first activated. Next to the “Practice” button B1, for example, the text information “I can practice each gesture method. I recommend you practice to use hand gestures comfortably” is displayed. . In order to use hand gestures comfortably, it is necessary to improve the recognition rate of gestures, which encourages users to practice. The “Cancel” button B4 is a button for ending the displayed screen.
ユーザーによりボタンB1がマウス102もしくはキーボード101により押されることで練習画面1頁目を表示するか否か判断する(ステップS2)。
制御部107は、ユーザーにより、ボタンB1が押されたと判断した場合(ステップS2/Yes)、カメラ103で撮影したユーザーの手を含む画像を図6に示すようにハンドジェスチャーの練習画面として表示する。練習画面の表示と共に音声や文字による説明を行ってもよい。このとき、制御部107は、ユーザーの手の平の動作を解析する(ステップS3)。
ジェスチャーの認識が成功したか否かを判断し(ステップS4)、認識に成功した場合(ステップS4/Yes)、認識成功のアイコン表示を行う。
It is determined whether or not the first page of the practice screen is displayed when the user presses the button B1 with the
When the
It is determined whether or not the recognition of the gesture is successful (step S4). When the recognition is successful (step S4 / Yes), a recognition success icon is displayed.
ここで、図6に示す画面において、左側にジェスチャーのお手本画像が表示され、右側にモニターウィンドウが表示される。モニターウィンドウの上側にはガイドアイコンが表示される。お手本動画とモニターウィンドウ、ガイドアイコンの位置関係はこの限りではない。尚、本実施形態ではガイドアイコンが表示される場合で説明しているが、本発明はこれに限定されるものではなく、ガイドアイコンは表示されなくてもよい。
モニターウィンドウにはユーザーの手の平の位置を抽出していることを表示するための枠が表示される。
Here, on the screen shown in FIG. 6, a model image of the gesture is displayed on the left side, and a monitor window is displayed on the right side. A guide icon is displayed on the upper side of the monitor window. The positional relationship between the model video, the monitor window, and the guide icon is not limited to this. In this embodiment, the guide icon is displayed. However, the present invention is not limited to this, and the guide icon may not be displayed.
A frame for displaying that the palm position of the user is extracted is displayed on the monitor window.
お手本画像としては、例えば、インストラクターの動画像またはアニメ動画像もしくはインストラクターの静止画像またはアニメ静止画像を1コマずつ表示するスライド表示画像が挙げられる。お手本画像が表示されると同時にジェスチャーの説明の音声を発生させるか、もしくは説明文をお手本画像中に表示してもよい。 Examples of the model image include a slide display image that displays a moving image of an instructor or an animation moving image or a still image of an instructor or an animation still image one frame at a time. At the same time as the model image is displayed, a voice explaining the gesture may be generated, or an explanatory text may be displayed in the model image.
モニターウィンドウは、カメラ103で撮影されたユーザーの手を含む画像が表示されるが、そのまま表示すると、お手本画像としてのインストラクターの手の平の動きと左右が逆になり、ユーザーが混乱するおそれがあるので、左右反転させてインストラクターと同じ動きを表示するようになっている。モニターウィンドウのうち、ユーザーの手の平を囲むように矩形が表示される。これは、ノートパソコン100の画像処理において、手の平を抽出していることを表示することにより、ユーザーに手の平が画面内に位置するように注意を促すためである。
The monitor window displays an image including the user's hand taken by the
お手本画像の上側には、認識成功の説明文として例えば、「認識されると右側にあるガイドアイコンが光ります。認識されました。よかったですねぇ〜。じゃあ次頁へ。」と表示され、お手本画像のインストラクターが笑顔になっていてもよい。この場合、認識成功の説明文の右側に表示されるガイドアイコンの中の該当するアイコンが明るくなる(もしくはアイコンが点滅してもよい。)。この光るアイコンが認識成功のアイコンとなる。
認識結果の下には、「次のジェスチャー練習に進むには「>」を押してください。前のジェスチャーの練習に戻るには「<」を押してください。」の文字情報が表示されている。この表示に従ってユーザーが「>」、もしくは「<」を選択することにより、練習したいジェスチャーのお手本画像が表示される。
モニターウィンドウの右下側には終了のボタンが表示されている。
On the upper side of the model image, for example, “The guide icon on the right side will shine when recognized. It was recognized. The image instructor may be smiling. In this case, the corresponding icon among the guide icons displayed on the right side of the description of the recognition success is brightened (or the icon may blink). This glowing icon is an icon for successful recognition.
Below the recognition result, press “>” to go to the next gesture practice. To return to the previous gesture practice, press “<”. "Is displayed. When the user selects “>” or “<” according to this display, a model image of the gesture to be practiced is displayed.
A close button is displayed on the lower right side of the monitor window.
ジェスチャーの認識が失敗した場合(ステップS4/No)、認識失敗の画像表示を行う(ステップS12)。 When gesture recognition fails (step S4 / No), a recognition failure image is displayed (step S12).
認識失敗の画像表示としての図7において、お手本画面の上側の説明文として例えば「認識されると右側にあるガイドアイコンが光ります。認識されませんでした。もう一回やってみて。もう少し早く動かしてね〜。」と表示される。この場合にはガイドアイコンは発光したり点滅したりせず、インストラクターの笑顔が真顔になっていてもよい。
ユーザーは、再度手の平をインストラクターの動きに会わせて動かしてノートパソコン100に解析させることができる。
認識成功のアイコン表示がなされると(ステップS5)、制御部107は練習を終了するか否かを判断し(ステップS6)、練習を終了しない場合、すなわちジェスチャー練習を継続する場合(ステップS6/No)、ユーザーが選択したジェスチャーの練習画面の表示を行い(ステップS11)、ステップS3に戻る。
In FIG. 7 as an image display of recognition failure, for example, the explanation text on the upper side of the model screen is, for example, “The guide icon on the right side shines when it is recognized. It was not recognized. Try it again. Is displayed. " In this case, the guide icon does not light up or flash, and the instructor's smile may be a straight face.
The user can move the palm again to meet the instructor's movement and cause the
When the recognition success icon is displayed (step S5), the
終了のボタンをキーボード101もしくはマウス102の操作によりクリックすると(ステップS6/Yes)、ハンドジェスチャーの画面が終了して、ステップS7に進む。
When the end button is clicked by operating the
ステップS7に進むと、図8に示すジェスチャー機能の設定画面が表示される。図8に示す画面と図5に示す画面との相違点は、ボタンB2、B3がアクティブになっている点である。ボタンB2は、ジェスチャー機能を使用するためのボタンであり、ボタンB3はジェスチャー機能を終了するためのボタンである。
すなわち、ジェスチャー練習が終了すると、ジェスチャー機能を使用することができるのである。
When the processing proceeds to step S7, the gesture function setting screen shown in FIG. 8 is displayed. The difference between the screen shown in FIG. 8 and the screen shown in FIG. 5 is that the buttons B2 and B3 are active. The button B2 is a button for using the gesture function, and the button B3 is a button for ending the gesture function.
That is, when the gesture practice is completed, the gesture function can be used.
ユーザーがキーボード101もしくはマウス102によりボタンB2をクリックすると、ジェスチャー入力の動作が開始し(ステップS7)、図9に示す画面が表示される。画面の中央には、例えば数秒間「ジェスチャー機能起動」の文字情報が表示される。画面の右下の隅には画面の十数分の1程度の大きさのモニターウィンドウが表示される。画面の上方にはジェスチャーのアイコンが表示される。ガイドアイコンは、練習画面同様、ジェスチャーが認識されると明るくなって(もしくは点滅してもよい)、ユーザーにジェスチャーが認識されたことのフィードバックを与える。
When the user clicks the button B2 with the
ここで、アイコンは、画面の中央ではなく周辺に表示されるようになっている。これは、画面に例えば地上デジタルテレビジョン放送やインターネット放送の画面を表示する際に邪魔にならないようにするためである。
制御部107は、ユーザーの手の平の動作を解析し(ステップS8)、ジェスチャーに対応した動作(例えば、クリックやフリック等の動作)を行う(ステップS9)。ジェスチャー入力を終了する場合には、画面の中の終了ボタン(例えば、画面右下の閉じるボタン)をクリックすることで終了する(ステップS10)。
Here, the icons are displayed not on the center of the screen but on the periphery. This is in order not to get in the way when displaying, for example, a digital terrestrial television broadcast or internet broadcast screen on the screen.
The
ここで、図8に示す画面は、ユーザーが2回目以降のジェスチャー操作を行う場合にジェスチャーの練習画面を表示するか否かを選択するための選択画面に対応する。
すなわち、ユーザーが練習画面の表示を選択した場合には練習画面を表示し、選択しない場合には、練習画面を省略してジェスチャー操作の本番画面としての図9を表示するのである。
Here, the screen shown in FIG. 8 corresponds to a selection screen for selecting whether or not to display a gesture practice screen when the user performs a gesture operation for the second time or later.
That is, when the user selects display of the practice screen, the practice screen is displayed, and when not selected, the practice screen is omitted and FIG. 9 is displayed as a production screen for gesture operation.
<作用効果>
以上において、本実施形態によれば、ジェスチャー認識結果のアイコン表示を行うので、ジェスチャー動作の認識率の向上を図ることができる。
<Effect>
As described above, according to the present embodiment, since the icon display of the gesture recognition result is performed, the recognition rate of the gesture motion can be improved.
<プログラム>
以上で説明した本発明にかかる情報処理装置は、コンピュータで処理を実行させるプログラムによって実現されている。コンピュータとしては、例えばパーソナルコンピュータやワークステーションなどの汎用的なものが挙げられるが、本発明はこれに限定されるものではない。よって、一例として、プログラムにより本発明を実現する場合の説明を以下で行う。
<Program>
The information processing apparatus according to the present invention described above is realized by a program that causes a computer to execute processing. Examples of the computer include general-purpose computers such as personal computers and workstations, but the present invention is not limited to this. Therefore, as an example, a case where the present invention is realized by a program will be described below.
例えば、
情報処理装置のコンピュータに、
実行手段が、アプリケーションを実行する手順、
表示手段が、アプリケーションの実行結果を表示する手順、
撮影手段が、ユーザーの手の平を撮影して画像データに変換する手順、
解析手段が、前記撮影手段からの複数の画像データに基づいて前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する手順、
制御手段が、前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する手順、
を実行させるプログラムにおいて、
表示手段が、ジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行う手順、
を実行させるプログラムが挙げられる。
For example,
In the computer of the information processing device,
A procedure in which the execution means executes the application;
A procedure in which the display means displays the execution result of the application;
A procedure for the photographing means to photograph the user's palm and convert it to image data,
Analyzing means, analyzing the palm movement based on a plurality of image data from the imaging means, to specify a gesture predefined as the palm movement pattern,
A procedure in which the control means performs a predefined process in association with the application being executed by the execution means and the specified gesture;
In a program that executes
A procedure in which the display means performs display corresponding to the specified gesture when the gesture is specified;
A program that executes
これにより、プログラムが実行可能なコンピュータ環境さえあれば、どこにおいても本発明に係る情報処理装置を実現することができる。
このようなプログラムは、コンピュータに読み取り可能な記憶媒体に記憶されていてもよい。
Thus, the information processing apparatus according to the present invention can be realized anywhere as long as there is a computer environment capable of executing the program.
Such a program may be stored in a computer-readable storage medium.
<記憶媒体>
ここで、記憶媒体としては、例えば、CD−ROM(Compact Disc Read Only Memory)、フレキシブルディスク(FD)、CD−R(CD Recordable)などのコンピュータで読み取り可能な記憶媒体、フラッシュメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)、FeRAM(強誘電体メモリ)等の半導体メモリやHDD(Hard Disc Drive)が挙げられる。
<Storage medium>
Here, examples of the storage medium include a computer-readable storage medium such as a CD-ROM (Compact Disc Read Only Memory), a flexible disk (FD), and a CD-R (CD Recordable), a flash memory, and a RAM (Random). Examples include semiconductor memories such as Access Memory (ROM), Read Only Memory (ROM), and FeRAM (ferroelectric memory), and HDD (Hard Disc Drive).
尚、上述した実施の形態は、本発明の好適な実施の形態の一例を示すものであり、本発明はそれに限定されることなく、その要旨を逸脱しない範囲内において、種々変形実施が可能である。
例えば、上述した実施の形態では、ジェスチャー練習をする場合で説明したが、本発明は、これに限定されるものではなく、ジェスチャー入力する場合に適用してもよい。
The above-described embodiment shows an example of a preferred embodiment of the present invention, and the present invention is not limited thereto, and various modifications can be made without departing from the scope of the invention. is there.
For example, in the above-described embodiment, the case where the gesture is practiced has been described. However, the present invention is not limited to this and may be applied to the case where the gesture is input.
100 ノートパソコン
101 キーボード
102 マウス
103 Webカメラ(カメラ)
104 液晶表示装置
105 光学読取装置
106 HDD
107 制御部
107a 入力制御手段
107b トレーニング手段
107c 解析手段
107d 割り込み手段
107e ディスク制御手段
107f 表示装置制御手段
107g 実行手段
108 RAM
109 ROM
110 I/O
111 バスライン
100
104 Liquid
107
109 ROM
110 I / O
111 bus line
Claims (6)
前記アプリケーションの実行結果を表示する表示手段と、
ユーザーの手の平を撮影して画像データに変換する撮影手段と、
前記撮影手段からの複数の画像データに基づいて前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する解析手段と、
前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する制御手段と、を備えた情報処理装置において、
解析手段によってジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行うとともにユーザーの手の平を囲むように矩形を表示する表示手段をさらに備えたことを特徴とする、情報処理装置。 An execution means for executing the application;
Display means for displaying an execution result of the application;
Photographing means for photographing a user's palm and converting it into image data;
Analysis means for analyzing the operation of the palm on the basis of a plurality of images data, I identify a predefined gesture as an operation pattern of the palm from the imaging means,
In an information processing apparatus comprising: an application executed by the execution unit; and a control unit that performs a predefined process in association with the specified gesture,
An information processing apparatus, further comprising display means for displaying a rectangle corresponding to the specified gesture and displaying a rectangle so as to surround the palm of the user when a gesture is specified by the analysis means.
ジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行うとともにユーザーの手の平を囲むように矩形を表示することを特徴とする情報処理方法。 The user's palm is photographed and converted into image data, the palm movement is analyzed based on a plurality of image data, a gesture predefined as the palm movement pattern is identified, and the application being executed and the In an information processing method for performing a predefined process in association with an identified gesture,
An information processing method, wherein when a gesture is specified, a display corresponding to the specified gesture is performed and a rectangle is displayed so as to surround the palm of the user .
実行手段が、アプリケーションを実行する手順、
表示手段が、前記アプリケーションの実行結果を表示する手順、
撮影手段が、ユーザーの手の平を撮影して画像データに変換する手順、
解析手段が、前記撮影手段からの複数の画像データに基づいて前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する手順、
制御手段が、前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する手順、
を実行させるプログラムにおいて、
前記表示手段が、ジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行うとともにユーザーの手の平を囲むように矩形を表示する手順、
を実行させることを特徴とするプログラム。 In the computer of the information processing device,
A procedure in which the execution means executes the application;
A display means for displaying an execution result of the application;
A procedure for the photographing means to photograph the user's palm and convert it to image data,
Analyzing means, analyzing the palm movement based on a plurality of image data from the imaging means, to specify a gesture predefined as the palm movement pattern,
A procedure in which the control means performs a predefined process in association with the application being executed by the execution means and the specified gesture;
In a program that executes
A step of displaying a rectangle so as to surround the palm of the user while the display means performs display corresponding to the specified gesture when a gesture is specified;
A program characterized by having executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012236127A JP5831883B2 (en) | 2012-10-25 | 2012-10-25 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012236127A JP5831883B2 (en) | 2012-10-25 | 2012-10-25 | Information processing apparatus, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014085966A JP2014085966A (en) | 2014-05-12 |
JP5831883B2 true JP5831883B2 (en) | 2015-12-09 |
Family
ID=50788943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012236127A Active JP5831883B2 (en) | 2012-10-25 | 2012-10-25 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5831883B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7504575B2 (en) * | 2019-10-21 | 2024-06-24 | 株式会社東海理化電機製作所 | CONTROL DEVICE, COMPUTER PROGRAM, AND AUTHENTICATION SYSTEM |
CN114489462B (en) * | 2021-12-31 | 2022-09-27 | 广州视声智能股份有限公司 | Wireless key switch panel and control method thereof |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4267648B2 (en) * | 2006-08-25 | 2009-05-27 | 株式会社東芝 | Interface device and method thereof |
-
2012
- 2012-10-25 JP JP2012236127A patent/JP5831883B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014085966A (en) | 2014-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7089879B2 (en) | Robot-based process automation | |
CN105814522B (en) | Device and method for displaying user interface of virtual input device based on motion recognition | |
RU2591671C2 (en) | Edge gesture | |
US9298266B2 (en) | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects | |
US20120268369A1 (en) | Depth Camera-Based Relative Gesture Detection | |
US20120304133A1 (en) | Edge gesture | |
US20120304131A1 (en) | Edge gesture | |
US11706476B2 (en) | User terminal apparatus, electronic apparatus, system, and control method thereof | |
US20110304649A1 (en) | Character selection | |
US20140009395A1 (en) | Method and system for controlling eye tracking | |
JP5344651B2 (en) | Information processing apparatus, control method, program, and information processing system | |
TW201403386A (en) | Eye controlling method and system | |
KR101488662B1 (en) | Device and method for providing interface interacting with a user using natural user interface device | |
JP5963291B2 (en) | Method and apparatus for inputting symbols from a touch sensitive screen | |
TWI442305B (en) | A operation method and a system of the multi-touch | |
JP5831882B2 (en) | Information processing apparatus, information processing method, and program | |
US20140317549A1 (en) | Method for Controlling Touchscreen by Using Virtual Trackball | |
US20130127745A1 (en) | Method for Multiple Touch Control Virtual Objects and System thereof | |
JP5831883B2 (en) | Information processing apparatus, information processing method, and program | |
JP2014085967A (en) | Information processing device, information processing method, and program | |
JP2014085964A (en) | Information processing method, information processing device, and program | |
US20120151409A1 (en) | Electronic Apparatus and Display Control Method | |
JP2014085965A (en) | Information processing device, information processing method, and program | |
TWI699670B (en) | Electronic system and method of freezing screen | |
JP6327834B2 (en) | Operation display device, operation display method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140401 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150924 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151020 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5831883 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |