JP2014085967A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2014085967A
JP2014085967A JP2012236128A JP2012236128A JP2014085967A JP 2014085967 A JP2014085967 A JP 2014085967A JP 2012236128 A JP2012236128 A JP 2012236128A JP 2012236128 A JP2012236128 A JP 2012236128A JP 2014085967 A JP2014085967 A JP 2014085967A
Authority
JP
Japan
Prior art keywords
palm
user
image data
gesture
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012236128A
Other languages
English (en)
Inventor
Masahiko Harada
雅彦 原田
Nao Kitamoto
直 北本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Personal Computers Ltd
Original Assignee
NEC Personal Computers Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Personal Computers Ltd filed Critical NEC Personal Computers Ltd
Priority to JP2012236128A priority Critical patent/JP2014085967A/ja
Publication of JP2014085967A publication Critical patent/JP2014085967A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】効率的なジェスチャー入力が可能な情報処理装置、情報処理方法、及びプログラムを提供する。
【解決手段】ユーザーの手の平を撮影して画像データに変換し、画像データからユーザーの手の平を検出し、複数の画像データにおいてユーザーの手の平として検出された部分を比較することにより手の平の動作を解析し、手の平の動作パターンとして予め定義されたジェスチャーを特定し、実行されているアプリケーションと特定されたジェスチャーとに関連づけて予め定義された処理をする際に、画像データからユーザーの手の平を検出している間、撮影手段で撮影された画像を表示する。
【選択図】図4

Description

本発明は、ジェスチャー操作が可能な情報処理装置、情報処理方法、及びプログラムに関する。
近年、技術の進歩により種々の機能を有する情報処理装置が開発されており、ジェスチャー操作が可能なパーソナルコンピュータが挙げられる(例えば、特許文献1参照)。
特許文献1に記載の発明は、「インターフェース装置及びその方法」に関するものであり、具体的には「テレビやコンピュータ等の機器を操作するためのインターフェース装置におけるジェスチャー情報表示部は、操作に用いるジェスチャーの一覧、ジェスチャー認識部の認識結果、及び操作者の手と思われる部分の画像を表示し、操作者はジェスチャーを覚えることなく画面を確認しながら操作を行えるようになると共に、ジェスチャー認識部に認識させやすいように操作者が行うジェスチャーを修正することが可能となり、操作性が向上する」ものである。
特開2008−52590号公報
しかし、特許文献1に記載の発明は、ジェスチャー入力する際には、ユーザーの手の平のモニター画像や手の平の動作がジェスチャーとして認識されたか否かの表示がなく、認識されているにもかかわらず、認識されてないと誤認して同じ動作を余分繰り返したため、予期しない動作が行われることがあり、効率的なジェスチャー入力が要望されていた。
そこで、本発明の目的は、効率的なジェスチャー入力が可能な情報処理装置、情報処理方法、及びプログラムを提供することにある。
上記課題を解決するため、請求項1記載の発明は、アプリケーションを実行する実行手段と、ユーザーの手の平を撮影して画像データに変換する撮影手段と、前記画像データから前記ユーザーの手の平を検出し、複数の画像データにおいて前記ユーザーの手の平として検出された部分を比較することにより前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する解析手段と、前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理をする制御手段と、を備えた情報処理装置において、前記解析手段が前記画像データから前記ユーザーの手の平を検出している間、前記撮影手段で撮影された画像を表示する表示手段をさらに有することを特徴とする。
本発明によれば、効率的なジェスチャー入力が可能な情報処理装置、情報処理方法、及びプログラムの提供を実現することができる。
(a)は、一実施形態に係るノートパソコンを使用中の状態を示す外観斜視図であり、(b)は、(a)に示したノートパソコンのユーザー側から見た外観斜視図である。 情報処理装置としてのノートパソコンの一実施形態を示すブロック図である。 (a)〜(n)は、図1に示したノートパソコン100に用いられるジェスチャーの一例を示す説明図である。 図1に示したノートパソコンの動作を説明するためのフローチャートの一例である。 図1に示したノートパソコン100の表示装置104に表示されるジェスチャー機能の設定画面の一例である。 図5に示した画面のうちのボタンB2が選択されたときに表示される画面の一例である。 図6に示した画面が表示された直後の状態を示す画面の一例である。 図1に示したノートパソコン100の設定画面の一例である。 図8に示した画面のガイドアイコンを開いたときの画面の一例である。 図1に示したノートパソコン100によりユーザーの手の平が認識されている時に表示される画面の一例である。 図10に示した画面において、ユーザーの手の平の動作が図1に示したノートパソコン100によりジェスチャーであると認識された場合の画面の一例である。 図11に示した画面において、ユーザーが手の平をカメラ103から外したときの画面の一例である。
次に本実施形態について図面を参照して説明する。
本実施形態では、情報処理装置がノートパソコンの場合で説明するが、本発明はノートパソコンに限定されるものではなく、デスクトップパソコンであってもよい。
<構 成>
図1(a)は、一実施形態に係るノートパソコンを使用中の状態を示す外観斜視図であり、図1(b)は、図1(a)に示したノートパソコンのユーザー側から見た外観斜視図である。
このノートパソコン100は、キーボード101やマウス102による操作の他、Webカメラ(以下、カメラと表記する。)103でユーザーの手を認識し、認識した手の平の動き(ジェスチャー、もしくはハンドジェスチャーとも言う)によりノートパソコン100で一定の操作を行うことができるようになっている。
液晶表示装置104は、通常の表示を行う他、ユーザーの顔や手を表示したり、ジェスチャー操作練習のための画像を表示したりできるようになっている。
図2は、情報処理装置としてのノートパソコンの一実施形態を示すブロック図である。
ノートパソコン100は、キーボード101、マウス102、撮影手段としてのカメラ(Webカメラ)103、表示手段としての表示装置104、光学読取装置105、HDD(Hard Disc Drive)106、制御手段としての制御部107、I/O(Input/Output)110を有する。111はバスラインである。
キーボード101は、QWERTY配列の英字キー、数字キー、テンキー、スペースキー、エンターキー、ファンクションキー、デリートキー、スペースキー等の通常の入力キーを有する。
マウス102は、少なくとも左ボタン、右ボタンを有しており、ホイールを有してもよい。尚、図ではマウス102はケーブルでノートパソコン100に接続されているが、本発明はこれに限定されるものではなく、マウス102はワイヤレスでノートパソコン100に接続されていてもよい。
カメラ103は、ノートパソコン100の上側筐体の上側の中央にユーザー側に向かって設けられており、例えばCCD(Charge-Coupled Device)が用いられる。
また、カメラ103が動作中に点灯するLED(Light-Emitting Diode)を搭載する。
表示装置104は、アプリケーションの実行結果を表示する装置であり、例えば液晶ディスプレイが用いられるが、液晶ディスプレイの代わりにプラズマディスプレイを用いてもよい。
光学読取装置105は、例えば、DVD(Digital Versatile Disc)、CD(Compact Disc)、CD−R(CD-Recordable)等の光学媒体を読み取る装置である。
HDD106は、文字データ、画像データ、音声データ等の大容量のデータを記憶するための記憶装置である。HDD106の代わりにSSD(Solid State Drive)を用いてもよい。
制御部107は、ノートパソコン100を統括制御する機能を有し、後述する実行手段107gで実行されているアプリケーションと特定されたジェスチャーとに関連づけて予め定義された処理をするデバイスであり、例えば、マイクロプロセッサのCPU(Central Processing Unit:中央演算処理装置)を含む回路である。制御部107は、ソフトウェアとして入力制御手段107a、トレーニング手段107b、解析手段107c、割り込み制御手段107d、ディスク制御手段107e、表示装置制御手段107f、及び実行手段107gを有する。
入力制御手段107aは、キーボード101、マウス102、カメラ103、及び光学読取装置105からデータを管理する。
トレーニング手段107bは、ソフトウェアで構成され、ユーザーの手の平の動作をジェスチャーとして認識する認識精度を向上させるため、ジェスチャーアプリケーション(以下、ジェスチャーアプリと表記)の初回起動時に、強制的にジェスチャーの練習を実行させる機能を有する。
トレーニング手段107cは、例えば、表示装置104にお手本画像とガイドアイコン群とモニターウィンドウとを表示し、ユーザーがお手本画像に表示されたインストラクターの動画像もしくはアニメ画像を見ながら手の平を移動させ、手の平の動作がジェスチャーであると認識されると、ガイドアイコン群の中から一致したガイドアイコンが点滅もしくは拡大表示されるようになっている。
本実施形態におけるジェスチャーは、ノートパソコン100のカメラ103の撮影可能な範囲(カメラ画像内とも言う)におけるユーザーの手の平の動作を意味する。
解析手段107cは、ソフトウェアで構成され、カメラ103からの画像データからユーザーの手の平を検出し、複数の画像データにおいてユーザーの手の平として検出された部分を比較することにより手の平の動作を解析し、手の平の動作パターンとして予め定義されたジェスチャーを特定する機能を有する。
割り込み制御手段107dは、あるプログラムの処理中に他のプログラムの処理を割り込ませる割り込み処理の制御を行う。
ディスク制御手段107eは、光学読取装置105に挿入された光学媒体の種類を判別し、文字データ、画像データ、音声データの読み出しの管理を行う。
表示装置制御手段107fは、表示装置104の画像表示を管理する。
実行手段107gは、アプリケーションを実行する。
I/O110は、ノートパソコン100と、図には示されないUSB(Universal Serial Bus)フラッシュメモリを含む外部のデバイスとのデータの授受を管理する。
図3(a)〜(n)は、図1に示したノートパソコン100に用いられるジェスチャーの一例を示した説明図であり、ユーザー自身の手の平の動きをユーザーの視点から見た図である。本実施形態では、ユーザーが右手をカメラ103にかざした場合で説明するが左手であってもよい。
図中の矢印で、一本線に矢印(→)は手形状や手の状態の遷移を表し、中抜きの矢印は手の平の移動を表す。
本実施形態において12種類のジェスチャーにより、ノートパソコン100を操作しているが、本発明はこれに限定されるものではない。
図3(a)は、ユーザーの右手によるマウスカーソル操作を示す図であり、両矢印のように移動させる場合を示しているが限定されるものではない。
図3(b)は、「パー→グー→パー」のように手の平を開いたり閉じたりすることで左クリックのジェスチャー動作となる。
図3(c)〜(e)は、「パー→グー→グーで動かす→パー」のように手の平を動かすことでドラッグ及びドロップのジェスチャー動作となる。
図3(f)は、手の平を拡げたまま矢印方向(右方向)にマウスカーソル操作より素早く動かすことで右フリックのジェスチャー動作となる。ここで、「フリック」とは、本来タッチパネルにおける操作の一種であり、画面を軽く払うように指を動かすことであるが、手の平を素早く動かすことを含む。
図3(g)は、手の平を拡げたまま矢印方向(左方向)にマウスカーソル操作より素早く動かすことで左フリックのジェスチャー動作となる。
図3(h)は、手の平を拡げたまま矢印方向(上方向)にマウスカーソル操作より素早く動かすことで上フリックのジェスチャー動作となる。
図3(i)は、手の平を拡げたまま矢印方向(下方向)にマウスカーソル操作より素早く動かすことで下フリックのジェスチャー動作となる。
図3(j)は、手の平を拡げたまま時計方向の円を描くことで時計回りのサークルのジェスチャー動作となる。
図3(k)は、手の平を拡げたまま反時計方向の円を描くことで反時計回りのサークルのジェスチャー動作となる。
図3(l)は、手の平を拡げたままノートパソコン100の表示装置104に向かって押し指すことでプッシュのジェスチャー動作となる。
図3(m)は、手の平を拡げたままノートパソコン100の表示装置104から離れる方向に押し指すことでプルのジェスチャー動作となる。
図3(n)は、手の平を拡げたままノートパソコン100の表示装置104に向かって左右に振ることでウェイブのジェスチャー動作となる。本ジェスチャー動作をウェイブともいう。
ここで、「クリック」はマウスの左クリック、「ドラッグ&ドロップ」はマウスのドラッグ&ドロップに対応する。また、右フリックは、「進む」、左フリックは「戻る」、上フリックは「上スクロール」、下フリックは「下スクロール」、時計回りのサークルは「拡大」、反時計回りのサークルは「縮小」、「プル」は、図示しない携帯情報端末の起動、「ウェイブ」は、スタート画面に戻るコマンド操作に対応する。
<表示画面>
図5は、図1に示したノートパソコン100の表示装置104に表示されるジェスチャー機能の設定画面の一例である。
図5において、メニュー画面としてのジェスチャー機能の設定の画面には、注意書きの一例として、「ハンドジェスチャーでは、リモコンやマウスを使わずに手の平のジェスチャーだけで情報処理装置の操作をおこなうことができます。」の文字情報が表示される。情報処理装置の操作とは、前述したカーソル操作やコマンド操作を意味する。
図5に示すボタンB1は、各ジェスチャーの方法を練習するためのボタンである。ボタンB2は、ジェスチャー機能を使用するためのボタンである。ボタンB3は、ジェスチャー機能を終了するためのボタンである。ボタンB4は、表示されている画面を終了するためのボタンである。
図6は、図5に示した画面のうちのボタンB2が選択されたときに表示される画面の一例である。
図6に示す画面は、ユーザーの手の平が認識されるとモニターウィンドウが表示され、認識されなくなると非表示になるように設定されている。まず、「ジェスチャー機能起動」の文字情報が数秒間表示される。ユーザーの手の平が認識されると画面上には、ユーザーの手の平の動作がジェスチャーとして認識されたか否かを表示するための認識アイコンがグレー表示され、画面右下にはカメラ103で撮影されたユーザーの画像(モニターウィンドウ)が表示される。ユーザーの手の平が撮影されているときは枠線が手の平を囲むように表示される。ユーザーの手の平が認識されなくなるとモニターウィンドウは非表示になる。尚、認識アイコン及びモニターウィンドウの位置は限定されるものではない。
図7は、図6に示した画面が表示された直後の状態を示す画面の一例である。
図7において、ユーザーが手の平をカメラ103から外すと、認識アイコン及びモニターウィンドウが非表示となる。
また、ノートパソコン100がジェスチャー入力可能な状態に設定されている時は、カメラ103のLEDが点灯するので、認識アイコン及びモニターウィンドウが非表示であってもユーザーはジェスチャー入力可能な状態に設定されていることを認識できる。LEDはカメラ103に搭載されたものでなくても構わない。
また、制御部107は、解析手段107cが画像データからユーザーの手の平を検出しなくなると、カメラ103で撮影された画像の表示を終了する機能を有する。
ここで、ユーザーがタスクトレイのアイコンを右クリックすると、図8に示す画面が表示される。
図8は、図1に示したノートパソコン100の設定画面の一例である。
図8に示す設定画面の上段において、起動に関する設定欄において、常駐起動の設定が可能であることが表示されている。同設定画面の中段に蛍光灯環境などにおけるちらつき補正の設定が可能であることが表示されている。設定値は、「自動」(デフォルト)、「50Hz」、「60Hz」の3つの中から選択が可能である。同設定画面の下段にモニターウィンドウの表示の設定が可能であることが表示されている。設定値は、「常に表示する」、「自動表示する」(デフォルト)、「常に表示しない」の3つの中から選択が可能である。同設定画面の最下段には全タブの設定項目をデフォルトに戻すための「購入時の設定に戻す」ボタン、「OK」ボタン、「キャンセル」ボタン、「適用」ボタン、及び「ヘルプ」ボタンが選択可能であることが表示されている。
図9は、図8に示した画面のガイドアイコンを開いたときの画面の一例である。
図9において、画面の上段のガイドアイコンは、ガイドアイコンの表示位置と表示方法についての設定を行う画面である。ガイドアイコン表示対象のアプリケーションが将来増加する場合は、スクロールさせて表示させることができる。画面の中段において、操作対象のアプリケーション毎に、ガイドアイコンの表示位置は、「上」、「下」、「左」「右」の4種類をプルダウンリストから選択できるようになっている。ガイドアイコンの表示方法を「常に表示する」、「自動表示する」、「常に表示しない」の3種類をプルダウンメニューから選択できる。画面の最下段の行に示す各ボタンは前出であるので、説明を省略する。
図10は、図1に示したノートパソコン100によりユーザーの手の平が認識されている時に表示される画面の一例である。
図10に示す画面において、認識アイコン、及びモニターウィンドウが表示されている。認識アイコンはグレー表示され、モニターウィンドウにはユーザーの手の平と枠とが表示されている。
このような状態で、ノートパソコン100がユーザーの手の平の動作をジェスチャーとして認識すると、認識アイコン列の中から該当する認識アイコンをグレー表示から通常表示にすることで、ユーザーの手の平の動作がジェスチャー動作であると認識されたことの確認をすることができるようになっている。
図11は、図10に示した画面において、ユーザーの手の平の動作が図1に示したノートパソコン100によりジェスチャーであると認識された場合の画面の一例である。
図11に示す認識アイコン群のうち、ユーザーの手の平の動作に対応したジェスチャーの認識アイコンがグレー表示から通常表示に変わるとともに、ジェスチャー動作に対応した動作が行われる。例えば、ジェスチャー動作が地上デジタルテレビ放送の受信であるとすると、画面に「弾丸みたいなトラベラー」の放送画面が表示され、放送画面の欄外に放送波の種類としての「地デジ」、放送局のチャンネルとしての「4ch」、「受信レベル74」が表示され、モニターウィンドウにはユーザーが手の平と共に表示されている。
図12は、図11に示した画面において、ユーザーが手の平をカメラ103から外したときの画面の一例である。
図12において、「弾丸みたいなトラベラー」の画像が表示され、認識アイコン群及びモニターウィンドウが非表示となっている。テレビ放送やDVDの視聴時には、これら認識アイコン群及びモニターウィンドウの表示は不要であり、放送画面や再生画面に集中することができる。
<動 作>
図4は、図1に示したノートパソコンの動作を説明するためのフローチャートの一例である。
図4に示す動作の前提として、ユーザーが既にトレーニング手段107cによるトレーニングを実施したことがあり、図8及び図9に示した設定画面により、認識アイコン群及びウィンドウモニターを表示するように設定してあるものとする。
図4に示すフローチャートの動作の主体は、図2に示した制御部107である。
図5に示した画面のボタンB2がユーザーにより選択されると、ジェスチャー入力のアプリケーションが作動する(ステップS1)。
制御部107は、手の平を認識したか否かをカメラ103からの画像を解析手段107cにより解析して認識し、ユーザーの手の平を認識した場合(ステップS2/Yes)、表示装置103にモニターウィンドウ及び認識アイコンを、例えば図11のようにグレー表示から通常表示にし(ステップS3)、ジェスチャー対応動作、例えば認識された手の平によるジェスチャーが特定されたら対応する動作を行う(ステップS4)。
制御部107は、ユーザーの手の平を一定時間(例えば、5秒)認識しない場合(ステップS2/No)、モニターウィンドウ及び認識アイコン群の表示を停止、すなわち図12のように非表示とする(ステップS6)。
制御部107は、ジェスチャー入力が終了したか否かを判断する。ジェスチャー入力が終了したか否かの判断は、図5に示したジェスチャー機能の設定画面においてボタンB3が選択されたか否かで行われる。ジェスチャー入力が終了でないと判断した場合(ステップS5/No)、ステップS2に戻り、ジェスチャー入力が終了したと判断した場合は終了する(ステップS5/Yes)。
<作用効果>
以上において、本実施形態によれば、ユーザーの手の平を撮影して画像データに変換し、複数の手の平として検出された部分を比較することにより手の平の動作を解析し、手の平の動作パターンとして予め定義されたジェスチャーを特定し、実行されているアプリケーションと特定されたジェスチャーとに関連づけて予め定義された処理をする際に、画像データからユーザーの手の平を検出している間、手の平の動作によって処理の指示が可能であることをユーザーに示す表示を行うことにより、効率的なジェスチャー入力が可能な情報処理装置、情報処理方法、及びプログラムの提供を実現することができる。
<プログラム>
以上で説明した本発明に係る情報処理装置は、コンピュータで処理を実行させるプログラムによって実現されている。コンピュータとしては、例えばパーソナルコンピュータやワークステーションなどの汎用的なものが挙げられるが、本発明はこれに限定されるものではない。よって、一例として、プログラムにより本発明を実現する場合の説明を以下で行う。
例えば、
情報処理装置のコンピュータに、
実行手段が、アプリケーションを実行する手順、
撮影手段が、ユーザーの手の平を撮影して画像データに変換する手順、
解析手段が、画像データからユーザーの手の平を検出し、複数の画像データにおいてユーザーの手の平として検出された部分を比較することにより手の平の動作を解析し、手の平の動作パターンとして予め定義されたジェスチャーを特定する手順、
制御手段が、実行手段で実行されているアプリケーションと特定されたジェスチャーとに関連づけて予め定義された処理をする手順、
を実行させるプログラムにおいて、
表示手段が、解析手段が画像データからユーザーの手の平を検出している間、前記撮影手段で撮影された画像の表示を行う手順、
を実行させるプログラムが挙げられる。
これにより、プログラムが実行可能なコンピュータ環境さえあれば、どこにおいても本発明に係る情報処理装置を実現することができる。
<記憶媒体>
このようなプログラムは、コンピュータに読み取り可能な記憶媒体に記憶されていてもよい。
ここで、記憶媒体としては、例えば、CD−ROM、フレキシブルディスク(FD)、CD−Rなどのコンピュータで読み取り可能な記憶媒体、フラッシュメモリ、RAM、ROM、FeRAM(強誘電体メモリ)等の半導体メモリやHDDが挙げられる。
尚、上述した実施の形態は、本発明の好適な実施の形態の一例を示すものであり、本発明はそれに限定されることなく、その要旨を逸脱しない範囲内において、種々変形実施が可能である。例えば、上述の説明では、ノートパソコンの場合で説明したが、デスクトップパソコンであってもよい。
100 ノートパソコン
101 キーボード
102 マウス
103 カメラ(Webカメラ)
104 液晶表示装置
105 光学読取装置
106 HDD
107 制御部
107a 入力制御手段
107b トレーニング手段
107c 解析手段
107d 割り込み制御手段
107e ディスク制御手段
107f 表示装置制御手段
107g 実行手段
108 RAM
109 ROM
110 I/O
111 バスライン
112 モデム
113 地デジチューナー

Claims (5)

  1. アプリケーションを実行する実行手段と、
    ユーザーの手の平を撮影して画像データに変換する撮影手段と、
    前記画像データから前記ユーザーの手の平を検出し、複数の画像データにおいて前記ユーザーの手の平として検出された部分を比較することにより前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する解析手段と、
    前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理をする制御手段と、を備えた情報処理装置において、
    前記解析手段が前記画像データから前記ユーザーの手の平を検出している間、前記撮影手段で撮影された画像を表示する表示手段をさらに有することを特徴とする情報処理装置。
  2. 前記解析手段が前記画像データから前記ユーザーの手の平を検出しなくなると、前記撮影手段で撮影された画像の表示を終了することを特徴とする請求項1記載の画像処理装置。
  3. 前記表示手段は、前記ユーザーの手の平の動作によって処理の指示が可能であることを前記ユーザーに示す表示として、前記撮影手段で撮影された、前記ユーザーの手の平として検出された部分を囲む枠線とともに表示することを特徴とする請求項2記載の情報処理装置。
  4. ユーザーの手の平を撮影して画像データに変換し、前記画像データから前記ユーザーの手の平を検出し、複数の画像データにおいて前記ユーザーの手の平として検出された部分を比較することにより前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定し、
    実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理をする情報処理方法において、
    前記画像データから前記ユーザーの手の平を検出している間、撮影された画像を表示することを前記ユーザーに示す表示を行うことを特徴とする情報処理方法。
  5. 情報処理装置のコンピュータに、
    実行手段が、アプリケーションを実行する手順、
    撮影手段が、ユーザーの手の平を撮影して画像データに変換する手順、
    解析手段が、前記画像データから前記ユーザーの手の平を検出し、複数の画像データにおいて前記ユーザーの手の平として検出された部分を比較することにより前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する手順、
    制御手段が、前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理をする手順、
    を実行させるプログラムにおいて、
    表示手段が、前記解析手段が前記画像データから前記ユーザーの手の平を検出している間、前記撮影手段で撮影された画像の表示を行う手順、
    を実行させることを特徴とするプログラム。
JP2012236128A 2012-10-25 2012-10-25 情報処理装置、情報処理方法、及びプログラム Pending JP2014085967A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012236128A JP2014085967A (ja) 2012-10-25 2012-10-25 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012236128A JP2014085967A (ja) 2012-10-25 2012-10-25 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2014085967A true JP2014085967A (ja) 2014-05-12

Family

ID=50788944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012236128A Pending JP2014085967A (ja) 2012-10-25 2012-10-25 情報処理装置、情報処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2014085967A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016148900A (ja) * 2015-02-10 2016-08-18 嘉泰 小笠原 電子機器
CN109491496A (zh) * 2017-09-12 2019-03-19 精工爱普生株式会社 头部佩戴型显示装置和头部佩戴型显示装置的控制方法
JP2021517285A (ja) * 2019-02-27 2021-07-15 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 表示方法及び装置、電子機器並びに記憶媒体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083302A (ja) * 2000-09-07 2002-03-22 Sony Corp 情報処理装置、動作認識処理方法及びプログラム格納媒体
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法
JP2010278962A (ja) * 2009-06-01 2010-12-09 Nec Casio Mobile Communications Ltd 撮像装置及びプログラム
JP2011186730A (ja) * 2010-03-08 2011-09-22 Sony Corp 情報処理装置および方法、並びにプログラム
WO2012070161A1 (ja) * 2010-11-24 2012-05-31 パナソニック株式会社 情報処理装置
JP2012182527A (ja) * 2011-02-28 2012-09-20 Toshiba Corp 電子機器およびインジケータの制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083302A (ja) * 2000-09-07 2002-03-22 Sony Corp 情報処理装置、動作認識処理方法及びプログラム格納媒体
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法
JP2010278962A (ja) * 2009-06-01 2010-12-09 Nec Casio Mobile Communications Ltd 撮像装置及びプログラム
JP2011186730A (ja) * 2010-03-08 2011-09-22 Sony Corp 情報処理装置および方法、並びにプログラム
WO2012070161A1 (ja) * 2010-11-24 2012-05-31 パナソニック株式会社 情報処理装置
JP2012182527A (ja) * 2011-02-28 2012-09-20 Toshiba Corp 電子機器およびインジケータの制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016148900A (ja) * 2015-02-10 2016-08-18 嘉泰 小笠原 電子機器
CN109491496A (zh) * 2017-09-12 2019-03-19 精工爱普生株式会社 头部佩戴型显示装置和头部佩戴型显示装置的控制方法
JP2021517285A (ja) * 2019-02-27 2021-07-15 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 表示方法及び装置、電子機器並びに記憶媒体
US11687209B2 (en) 2019-02-27 2023-06-27 Beijing Sensetime Technology Development Co., Ltd. Display method and apparatus for displaying display effects

Similar Documents

Publication Publication Date Title
US7849421B2 (en) Virtual mouse driving apparatus and method using two-handed gestures
TWI564757B (zh) 具有觸控螢幕的電腦裝置與其操作方法及電腦可讀媒體
CN105814522B (zh) 基于运动识别来显示虚拟输入设备的用户界面的设备和方法
KR100703771B1 (ko) 문자 입력판을 디스플레이하는 장치 및 방법
US8850356B2 (en) Information processing system and information processing apparatus
US20160350137A1 (en) Guide file creation program
JP2005092386A (ja) 画像選択装置および画像選択方法
KR102441357B1 (ko) 디스플레이 장치 및 그 제어 방법
JP6991486B2 (ja) 文字列に文字を挿入するための方法およびシステム
JP2011134001A (ja) 情報処理装置及び画面選択方法
EP2595047B1 (en) Method and apparatus for inputting character in touch device
JP5865615B2 (ja) 電子機器および制御方法
JP2010139686A (ja) プロジェクター、プログラムおよび情報記憶媒体
JP5963291B2 (ja) タッチセンシティブ・スクリーンからシンボルを入力する方法および装置
US20140317549A1 (en) Method for Controlling Touchscreen by Using Virtual Trackball
JP2014085967A (ja) 情報処理装置、情報処理方法、及びプログラム
JP5831882B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2011159082A (ja) 情報処理装置及び画像表示方法
US20120151409A1 (en) Electronic Apparatus and Display Control Method
JP5831883B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014085964A (ja) 情報処理方法、情報処理装置、及びプログラム
TW201635098A (zh) 書寫裝置及其操作方法
JP2014085965A (ja) 情報処理装置、情報処理方法、及びプログラム
JP5242748B2 (ja) 情報処理装置及び画面選択方法
US20150241982A1 (en) Apparatus and method for processing user input

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151201