JP2015035103A - Information processing device and program - Google Patents
Information processing device and program Download PDFInfo
- Publication number
- JP2015035103A JP2015035103A JP2013165485A JP2013165485A JP2015035103A JP 2015035103 A JP2015035103 A JP 2015035103A JP 2013165485 A JP2013165485 A JP 2013165485A JP 2013165485 A JP2013165485 A JP 2013165485A JP 2015035103 A JP2015035103 A JP 2015035103A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- screen
- information processing
- range
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 description 20
- 238000001514 detection method Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 11
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 230000009467 reduction Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.
プログラムが実行する処理を、ユーザのジェスチャに応じて制御するユーザインタフェースシステムが存在する。例えば、Leap Motion社のLeap Motion Controllerや、Microsoft社のKinect(登録商標)等がその一例である。 There is a user interface system that controls processing executed by a program according to a user's gesture. For example, Leap Motion Controller from Leap Motion, Kinect (registered trademark) from Microsoft, etc. are examples.
特許文献1には、手の軌跡を入力して情報の入力を行う手振り入力装置において、手の動作をCCDカメラ等で入力し、この入力結果から手の位置座標を検出し、入力結果から手の形状動作を判別し、判別の結果に応じた入力モードによって、検出手段の検出入力位置座標を入力する方式が開示されている。 In Japanese Patent Laid-Open No. 2004-260, a hand movement input device for inputting information by inputting a locus of a hand inputs a hand motion with a CCD camera or the like, detects a position coordinate of the hand from the input result, and detects a hand from the input result. A method is disclosed in which the shape and motion of the detection means are discriminated and the detection input position coordinates of the detection means are input by an input mode corresponding to the discrimination result.
特許文献2に開示された装置は、例えば人の手などを認識対象オブジェクトとして、カメラ撮影領域に設定された認識領域内における認識対象オブジェクトの動きを検出し、この動きに基づく動きカテゴリを決定して、決定した動きカテゴリに対応付けたコマンドを選択してPCなどの情報処理装置に入力してコマンド対応のデータ処理を実行させる。この装置では、二次元の撮影領域内に複数の認識領域を設定可能であり、各認識領域での認識対象オブジェクトの動きの組合せからコマンドを識別する。例えば、手が一連の動作の中で、第1の認識領域を下から上に、第2の認識領域を左から右に、第3の認識領域を上から下に、順に通過した場合、その手の動きがページをめくって次のページに進むコマンドを示すと認識するなどである。 The apparatus disclosed in Patent Literature 2 detects a movement of a recognition target object in a recognition area set as a camera photographing area, for example, using a human hand as a recognition target object, and determines a movement category based on the movement. Then, a command associated with the determined motion category is selected and input to an information processing apparatus such as a PC to execute data processing corresponding to the command. In this apparatus, a plurality of recognition areas can be set in a two-dimensional imaging area, and a command is identified from a combination of movements of recognition target objects in each recognition area. For example, if the hand passes through the first recognition area from bottom to top, the second recognition area from left to right, and the third recognition area from top to bottom, For example, it is recognized that the movement of the hand indicates a command to turn the page and advance to the next page.
特許文献3に開示された技術では、機器を制御するシステムが、ジェスチャーを認識するジェスチャー認識手段と、認識されたジェスチャーの背景対象の属性を認識する属性認識手段と、認識されたジェスチャーとその背景対象属性との組合せに基づく制御命令を生成して機器に発信する命令発信手段とを備える。この装置では、背景を変えることで、同一のジェスチャーを別の制御に対応づけることができる。 In the technique disclosed in Patent Document 3, a system for controlling a device includes a gesture recognition unit that recognizes a gesture, an attribute recognition unit that recognizes an attribute of a background object of the recognized gesture, a recognized gesture, and its background. Command sending means for generating a control command based on the combination with the target attribute and sending it to the device. In this apparatus, the same gesture can be associated with another control by changing the background.
本発明は、情報処理装置に対して同じジェスチャで異なる複数の操作を区別して指示可能とすることを目的とする。 An object of the present invention is to enable an information processing apparatus to distinguish and instruct a plurality of different operations using the same gesture.
請求項1に係る発明は、ジェスチャのパターンと位置の組合せに対応する操作を記憶した記憶手段と、ジェスチャ及び前記ジェスチャが行われた三次元の位置を認識するジェスチャ認識装置からユーザが行ったジェスチャのパターン及びジェスチャが行われた位置の情報を取得する取得手段と、前記取得手段が取得したジェスチャのパターンと位置との組合せに対応する操作を前記記憶手段から求め、求めた操作が実行されるよう制御を行う制御手段と、を有する情報処理装置である。 The invention according to claim 1 is a gesture performed by a user from a storage unit that stores an operation corresponding to a combination of a gesture pattern and a position, and a gesture recognition device that recognizes a gesture and a three-dimensional position where the gesture is performed. An acquisition unit that acquires information on the position where the pattern and the gesture are performed, and an operation corresponding to the combination of the pattern and position of the gesture acquired by the acquisition unit are obtained from the storage unit, and the obtained operation is executed. And an information processing apparatus having control means for performing control.
請求項2に係る発明は、前記記憶手段は、ジェスチャのパターンと位置の範囲との組合せに対応する操作を記憶しており、前記制御手段は、前記ジェスチャ認識装置からジェスチャの開始位置を取得するとその開始位置が属する前記範囲を拡張する、ことを特徴とする請求項1に記載の情報処理装置である。 According to a second aspect of the present invention, the storage means stores an operation corresponding to a combination of a gesture pattern and a position range, and the control means obtains a gesture start position from the gesture recognition device. The information processing apparatus according to claim 1, wherein the range to which the start position belongs is extended.
請求項3に係る発明は、前記制御手段は、前記求めた操作の種類を示す情報が前記情報処理装置の表示画面に表示されるよう制御を行う、ことを特徴とする請求項1または2に記載の情報処理装置である。 The invention according to claim 3 is characterized in that the control means performs control so that information indicating the obtained type of operation is displayed on a display screen of the information processing apparatus. The information processing apparatus described.
請求項4に係る発明は、前記位置は、前記情報処理装置の表示画面からの距離であることを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置である。 The invention according to claim 4 is the information processing apparatus according to any one of claims 1 to 3, wherein the position is a distance from a display screen of the information processing apparatus.
請求項5に係る発明は、前記記憶手段には、前記距離が大きくなるほど、同一種類の操作についての操作量を大きくする関係が記憶されている、ことを特徴とする請求項1〜4のいずれか1項に記載の情報処理装置である。 The invention according to claim 5 is characterized in that the storage means stores a relationship for increasing the operation amount for the same type of operation as the distance increases. The information processing apparatus according to claim 1.
請求項6に係る発明は、コンピュータを、ジェスチャのパターンと位置の組合せに対応する操作を記憶した記憶手段、ジェスチャ及び前記ジェスチャが行われた三次元の位置を認識するジェスチャ認識装置からユーザが行ったジェスチャのパターン及びジェスチャが行われた位置の情報を取得する取得手段、前記取得手段が取得したジェスチャのパターンと位置との組合せに対応する操作を前記記憶手段から求め、求めた操作が実行されるよう制御を行う制御手段、として機能させるためのプログラムである。 According to a sixth aspect of the present invention, a user performs a computer from a storage unit that stores an operation corresponding to a combination of a gesture pattern and a position, a gesture, and a gesture recognition device that recognizes a three-dimensional position where the gesture is performed. An acquisition unit that acquires information on a gesture pattern and a position where the gesture is performed, an operation corresponding to a combination of the gesture pattern and the position acquired by the acquisition unit is obtained from the storage unit, and the obtained operation is executed. It is a program for functioning as control means for performing control.
請求項1、6に係る発明によれば、情報処理装置に対して同じジェスチャで異なる複数の操作を区別して指示できる。 According to the first and sixth aspects of the invention, it is possible to distinguish and instruct a plurality of different operations with the same gesture to the information processing apparatus.
請求項2に係る発明よれば、一連のジェスチャの位置が当初の範囲からある程度外れても、当初認識された操作が続行しているものと認識することができる。 According to the second aspect of the present invention, even if the position of a series of gestures deviates from the initial range to some extent, it can be recognized that the initially recognized operation is continuing.
請求項3に係る発明よれば、ジェスチャによって指示した操作をユーザが認識できるようにすることができる。 According to the third aspect of the present invention, the user can recognize the operation instructed by the gesture.
請求項4に係る発明よれば、画面表示に関連する操作を、画面に対する遠近という分かりやすい基準で区別して指示することができる。 According to the invention which concerns on Claim 4, it can distinguish and instruct | indicate the operation relevant to a screen display by the easy-to-understand standard of perspective with respect to a screen.
請求項5に係る発明よれば、画面から遠い位置でのジェスチャほど大まかな操作を表すという直感的にわかりやすい基準に従った操作指示が可能となる。 According to the fifth aspect of the present invention, it is possible to provide an operation instruction in accordance with an intuitively easy-to-understand standard that a gesture at a position farther from the screen represents a rough operation.
図1を参照して、本実施形態におけるジェスチャ入力の考え方を説明する。図1に示すように、本実施形態では、ユーザが手の指先100等で行うジェスチャの表示装置14の画面からの距離方向についての位置に応じて、そのジェスチャが表す意味を切り換える。図1の例では、表示装置14に接続された情報処理装置(図示省略)は、指先100を移動させるというジェスチャを、そのジェスチャの位置が画面15に最も近い第1の範囲内の場合には「ペンツール」操作と解釈する。また、そのジェスチャの位置が第1の範囲よりも画面15から遠い第2の範囲内である場合には、「てのひらツール」操作と解釈し、第2の範囲よりも画面から最も遠い第3の範囲内である場合は、「ページ送り」操作と解釈する。図示した表示画像15a、15b、15cは、各操作が行われたときに画面15に表示されている画像の例である。 With reference to FIG. 1, the concept of the gesture input in this embodiment is demonstrated. As shown in FIG. 1, in the present embodiment, the meaning represented by a gesture is switched according to the position of the gesture performed by the user with the fingertip 100 of the hand or the like in the distance direction from the screen of the display device 14. In the example of FIG. 1, the information processing device (not shown) connected to the display device 14 performs a gesture of moving the fingertip 100 when the position of the gesture is within the first range closest to the screen 15. This is interpreted as a “pen tool” operation. Further, when the position of the gesture is within the second range farther from the screen 15 than the first range, it is interpreted as a “hand tool” operation, and the third farthest from the screen than the second range. If it is within the range, it is interpreted as a “page feed” operation. The illustrated display images 15a, 15b, and 15c are examples of images displayed on the screen 15 when each operation is performed.
ここで「ペンツール」操作は、表示画像15aが表す文書上に、指先100の移動軌跡に対応した曲線を描く操作である。「てのひらツール」操作は、画面15をスクロールする操作である。すなわち、指先100を「てのひらツール」に対応する第2の範囲内で画面15にほぼ平行に動かすと、文書のうち画面15上に表示画像15bとして表示される部分が、指先100を動かした方向にスクロールされる。「ページ送り」操作は、画面15に表示されるページを前に戻したり先に進めたりする操作である。例えば、指先100を第3の範囲内で画面15にほぼ平行に左側に動かすと、画面15上に表示画像15cとして表示されるページがページ番号の小さい方向に戻り、右側に動かすと、表示されるページがページ番号の大きい方向へと進む。 Here, the “pen tool” operation is an operation of drawing a curve corresponding to the movement locus of the fingertip 100 on the document represented by the display image 15a. The “hand tool” operation is an operation for scrolling the screen 15. That is, when the fingertip 100 is moved almost in parallel with the screen 15 within the second range corresponding to the “hand tool”, the portion of the document displayed as the display image 15b on the screen 15 is the direction in which the fingertip 100 is moved. Scroll to The “page advance” operation is an operation for moving the page displayed on the screen 15 forward or forward. For example, when the fingertip 100 is moved to the left side substantially parallel to the screen 15 within the third range, the page displayed as the display image 15c on the screen 15 returns to the smaller page number, and is displayed when moved to the right side. Page advances in the direction of increasing page number.
ジェスチャの検出は、モーションセンサ16により行う。モーションセンサ16としては、Leap Motion ControllerやKinect(登録商標)などの従来のセンサを用いてもよい。 The motion sensor 16 detects the gesture. As the motion sensor 16, a conventional sensor such as a Leap Motion Controller or Kinect (registered trademark) may be used.
以上に説明したように、本実施形態では、同じジェスチャ(例えば指先100を画面15にほぼ平行に動かす手振り)を、そのジェスチャが実施された位置(図示例では画面15からの距離)に応じて、異なった意味(すなわち操作)と解釈する。 As described above, in the present embodiment, the same gesture (for example, a hand movement that moves the fingertip 100 substantially parallel to the screen 15) is performed in accordance with the position at which the gesture is performed (distance from the screen 15 in the illustrated example). , To be interpreted as different meanings (ie operations).
次に、図2を参照して、本実施形態の情報処理装置の機能構成の例を説明する。図2に示すように、本実施形態の情報処理装置は、OS/アプリケーション10、表示ドライバ12、表示装置14、モーションセンサ16、センサドライバ18、ジェスチャエンコード部20、ジェスチャパターン制御部22及びジェスチャパターン管理部24を有する。このうち、表示装置14及びモーションセンサ16はハードウエアであり、他のものは典型的にはソフトウエアである。表示装置14及びモーションセンサ16は、情報処理装置の筐体に内蔵されていてもよいし、情報処理装置に外付けされるデバイスであってもよい。 Next, an example of a functional configuration of the information processing apparatus according to the present embodiment will be described with reference to FIG. As shown in FIG. 2, the information processing apparatus according to the present embodiment includes an OS / application 10, a display driver 12, a display device 14, a motion sensor 16, a sensor driver 18, a gesture encoding unit 20, a gesture pattern control unit 22, and a gesture pattern. A management unit 24 is included. Of these, the display device 14 and the motion sensor 16 are hardware, and the others are typically software. The display device 14 and the motion sensor 16 may be built in the housing of the information processing device or may be a device externally attached to the information processing device.
OS/アプリケーション10は、当該情報処理装置の基本ソフトであるオペレーティングシステム(OS)または、そのOS上で実行されるアプリケーションプログラムである。本実施形態との関連では、OS/アプリケーション10は、これから説明するジェスチャによる指示入力システムにより入力された操作指示の入力先である。すなわち、ジェスチャにより入力された操作指示は、OSまたはいずれかのアプリケーションプログラムに入力される。操作指示の入力先は、OS及びアプリケーションプログラムのうち、その入力の時点でアクティブ状態(すなわちユーザにより操作の入力対象に選択された状態)となっているものである。 The OS / application 10 is an operating system (OS) that is basic software of the information processing apparatus or an application program executed on the OS. In relation to the present embodiment, the OS / application 10 is an input destination of an operation instruction input by an instruction input system using a gesture described below. That is, the operation instruction input by the gesture is input to the OS or any application program. The input destination of the operation instruction is an active state (that is, a state selected by the user as an operation input target) at the time of the input of the OS and the application program.
表示ドライバ12は、表示装置14の表示動作を制御するデバイスドライバである。表示装置14は、OS/アプリケーション10が生成した表示画像を表示する液晶ディスプレイや有機ELディスプレイなどの装置である。 The display driver 12 is a device driver that controls the display operation of the display device 14. The display device 14 is a device such as a liquid crystal display or an organic EL display that displays a display image generated by the OS / application 10.
モーションセンサ16は、情報処理装置に対する指示入力のためのユーザのジェスチャを検出する装置である。ユーザのジェスチャは、ユーザの手や指、又はユーザが持つ指示棒などを用いて行われる。ユーザが指示入力のために動かす手や指、指示棒などのことを以下では「指示部」と呼ぶこととする。モーションセンサ16は、例えば、三角測量方式やTOF(Time Of Flight)方式等を用いた距離画像センサであり、ユーザが動かす指示部を含む視野内の距離画像をあらかじめ定めた時間間隔ごとに求めて出力する。距離画像には、計測対象範囲内にある各物体の表面の各点の三次元位置の情報が含まれる。特にこの実施形態との関連では、距離画像の情報から、指示部表面の各点の三次元位置の情報が得られる。 The motion sensor 16 is a device that detects a user gesture for inputting an instruction to the information processing device. The user's gesture is performed using the user's hand or finger, or an instruction bar held by the user. Hands, fingers, pointers, and the like that the user moves to input instructions are hereinafter referred to as “instruction units”. The motion sensor 16 is a distance image sensor using, for example, a triangulation method, a TOF (Time Of Flight) method, or the like, and obtains a distance image in the field of view including an instruction unit to be moved by a user at predetermined time intervals. Output. The distance image includes information on the three-dimensional position of each point on the surface of each object within the measurement target range. Particularly in connection with this embodiment, information on the three-dimensional position of each point on the surface of the pointing unit is obtained from the information on the distance image.
また、モーションセンサ16は、距離画像を出力する代わりに、距離画像を解析することで得られる特徴量を出力するものであってもよい。例えば、距離画像を解析することで、指先や指示棒の先端を抽出し、抽出した先端の三次元位置を特徴量として時々刻々、出力してもよい。複数の指先を検出した場合、各指先の位置の組を特徴量として出力してもよい。また、手の面を近似する平面を求め、その平面を表す特徴量を出力してもよい。 The motion sensor 16 may output a feature amount obtained by analyzing the distance image instead of outputting the distance image. For example, by analyzing the distance image, the tip of the fingertip or the pointing rod may be extracted, and the extracted three-dimensional position of the tip may be output as a feature amount every moment. When a plurality of fingertips are detected, a set of fingertip positions may be output as a feature amount. Further, a plane that approximates the surface of the hand may be obtained, and a feature amount representing the plane may be output.
センサドライバ18は、モーションセンサ16の動作を制御するデバイスドライバである。センサドライバ18は、モーションセンサ16が出力する検知信号(距離画像、または距離画像から求めた特徴量)を受け取ってジェスチャエンコード部20に渡す。 The sensor driver 18 is a device driver that controls the operation of the motion sensor 16. The sensor driver 18 receives a detection signal (distance image or a feature amount obtained from the distance image) output from the motion sensor 16 and passes it to the gesture encoding unit 20.
モーションセンサ16は、距離画像を生成するものに限るものではなく、ユーザの指示部(手や指示棒)の位置や動きを検出できるものであればどのような方式のものであってもよい。 The motion sensor 16 is not limited to the one that generates a distance image, and may be of any type as long as it can detect the position and movement of the user's instruction unit (hand or pointer).
ジェスチャエンコード部20は、センサドライバ18に対して動作指示を送ると共に、その動作指示に応じてセンサドライバ18経由でモーションセンサ16から入力される信号から、ジェスチャのパターンとジェスチャの実施位置を求める。モーションセンサ16から入力される信号は、モーションセンサ16の生の検出情報(例えば距離画像)の時系列、あるいは検出情報を処理して得た特徴量(例えば手の各指先の位置座標)の時系列などである。 The gesture encoding unit 20 sends an operation instruction to the sensor driver 18 and obtains a gesture pattern and a gesture execution position from a signal input from the motion sensor 16 via the sensor driver 18 according to the operation instruction. A signal input from the motion sensor 16 is a time series of raw detection information (for example, a distance image) of the motion sensor 16 or a feature amount (for example, a position coordinate of each fingertip of the hand) obtained by processing the detection information. Series.
ジェスチャのパターン(種類)には、例えば、複数の指の指先同士を近づける「ピンチイン」、指先同士を広げる「ピンチアウト」、手や指等を掃くように一方向に動かす「スワイプ」、(仮想的なオブジェクトを)「つかむ」動作、「つかんだ」状態の手を広げる(すなわち「つかんだ」オブジェクトを)「放す」動作、開いた手を「ひねる」動作、人差し指等の一本の指(あるいは揃えた数本の指)で「指さす」動作等、様々なものが考えられる。また、手の指を開いた状態か、手が握り拳の状態になっているか、指さしなどのように一本の指だけ伸ばした状態か、などの手の状態をモーションセンサ16の距離画像情報から判別することも可能であり、同じ手を移動させる動作でも、そのときの手の状態に応じて異なるジェスチャパターンと識別するようにしてもよい。また、「つかむ」動作の後「つかんだ」状態のまま手を動かすことを「ドラッグ」動作と定義するなど、複数の基本的な動作の組合せを1つのジェスチャとして定義することも可能である。ジェスチャエンコード部20が行うジェスチャパターンの認識処理は、Leap Motion Controller等の従来技術で用いられるものと同様のものでよい。 Gesture patterns (types) include, for example, “pinch-in” that brings the fingertips of multiple fingers closer together, “pinch-out” that spreads the fingertips, “swipe” that moves in one direction to sweep hands and fingers, etc. One hand (such as an index finger), a "grab" action, a "grasping" hand spread (ie, a "grabbed" object) "release" action, an open hand "twist" action, an index finger, etc. Alternatively, various operations such as “pointing” with several aligned fingers) can be considered. In addition, the state of the hand such as whether the finger of the hand is open, whether the hand is in a clenched fist, or in the state where only one finger is extended like a pointing finger, is determined from the distance image information of the motion sensor 16. It is also possible to discriminate, and even an operation of moving the same hand may be distinguished from a different gesture pattern depending on the state of the hand at that time. It is also possible to define a combination of a plurality of basic operations as one gesture, such as defining a “drag” operation to move a hand in a “grabbed” state after a “grab” operation. The gesture pattern recognition process performed by the gesture encoding unit 20 may be the same as that used in the prior art such as the Leap Motion Controller.
ジェスチャの実施位置は、ジェスチャが行われた場所の位置(この例では三次元的な位置)のことである。モーションセンサ16からの入力情報には、指示部(指先等)の位置情報が含まれているので、ジェスチャエンコード部20は、その位置情報から、ジェスチャの位置を認識すればよい。1つの例では、指示部の先端の位置をジェスチャの位置と認識する。例えば「指さす」ジェスチャの場合、モーションセンサ16から入力される指の先端の位置情報を、そのジェスチャの実施位置と認識すればよい。また、握り拳のようなある程度大きな体積のある指示部の場合、その重心や先端(上腕の延びる方向に沿った先端)などの代表位置を、その指示部によるジェスチャの位置としてもよい。指示部の先端が複数ある場合(例えば複数の指の先端がモーションセンサ16により検出された場合)には、例えばそれら複数の先端の位置の重心位置をジェスチャの位置としてもよいし、それら複数の先端の位置の集合(例えば各指の先端位置の組)をジェスチャの位置としてもよい。 The execution position of the gesture is a position (a three-dimensional position in this example) where the gesture is performed. Since the input information from the motion sensor 16 includes position information of an instruction unit (such as a fingertip), the gesture encoding unit 20 may recognize the position of the gesture from the position information. In one example, the position of the tip of the instruction unit is recognized as the gesture position. For example, in the case of a “pointing” gesture, the position information of the tip of the finger input from the motion sensor 16 may be recognized as the execution position of the gesture. In addition, in the case of an instruction unit having a somewhat large volume, such as a clenched fist, a representative position such as the center of gravity or the tip (tip along the direction in which the upper arm extends) may be used as the gesture position by the instruction unit. When there are a plurality of tips of the instruction unit (for example, when the tips of a plurality of fingers are detected by the motion sensor 16), for example, the position of the center of gravity of the positions of the plurality of tips may be used as the gesture position. A set of tip positions (for example, a set of tip positions of each finger) may be used as the gesture position.
ジェスチャは動作であり、時間的な幅を持つ。ジェスチャの実施位置は、その時間幅の中の1つの時点あるいは複数の時点での指示部の位置に基づき求める。 Gestures are movements and have a time range. The execution position of the gesture is obtained based on the position of the instruction unit at one time point or a plurality of time points in the time width.
1つの例では、ジェスチャの開始位置をそのジェスチャの実施位置と認識する。例えば、指示部(手など)がほぼ停止している状態(あるいはジェスチャと認識されない程度の低速で動いている状態)から急に(ある程度大きな加速度で)動き始めた場合、その動き始めの時点をジェスチャの開始時点とし、そのときの指示部の位置をジェスチャの開始位置としてもよい。 In one example, the start position of the gesture is recognized as the execution position of the gesture. For example, if the pointing unit (such as a hand) starts to move suddenly (with some large acceleration) from a state where it is almost stopped (or a state where it moves at a low speed that is not recognized as a gesture), The gesture start time may be set, and the position of the instruction unit at that time may be set as the gesture start position.
また、別の例では、認識されたジェスチャを構成する各時点での指示部の位置の平均位置や、そのジェスチャの時間幅の中央の時点での指示部の位置など、開始位置とは異なる代表位置をそのジェスチャの実施位置としてもよい。 In another example, the representative position is different from the start position, such as the average position of the pointing unit at each time point constituting the recognized gesture, or the position of the pointing unit at the central point in time of the gesture. The position may be the execution position of the gesture.
また、各時点での指示部の位置をすべてジェスチャの実施位置と捉えてもよい。例えば、線画を描く操作の場合、各時点での指先100の位置が、「線画を描く」ジェスチャの中での当該時点のペン先の位置に対応する。 In addition, all the positions of the instruction unit at each time point may be regarded as gesture execution positions. For example, in the case of an operation for drawing a line drawing, the position of the fingertip 100 at each time point corresponds to the position of the pen tip at that time point in the “drawing line drawing” gesture.
ジェスチャパターン制御部22は、ジェスチャエンコード部20に動作指示を送ると共に、ジェスチャエンコード部20から入力されるジェスチャのパターン及び実施位置の情報を受け取り、そのパターンと実施位置の組合せから、ユーザの操作指示を判定する。この判定では、ジェスチャパターン管理部24に管理されている操作指示の定義情報を参照する。 The gesture pattern control unit 22 sends an operation instruction to the gesture encoding unit 20 and also receives information on a gesture pattern and an execution position input from the gesture encoding unit 20, and receives a user operation instruction from the combination of the pattern and the execution position. Determine. In this determination, the operation instruction definition information managed by the gesture pattern management unit 24 is referred to.
図3に、ジェスチャパターン管理部24に管理されている操作指示の定義情報の一例を示す。図3に示す表の各行が、それぞれ1つの操作指示の定義情報である。各行は、「ID」、「ジェスチャ」、「アプリケーション」、「対応する操作」の項目を有する。「ID」は、この定義情報のエントリ(行)の識別情報である。「対応する操作」は、そのIDに対応する操作指示(ユーザがジェスチャにより指示する操作。言い換えればそのジェスチャの「意味」)の識別情報である。図示される「ペンツール」などの操作の意味については既に説明した。 FIG. 3 shows an example of operation instruction definition information managed by the gesture pattern management unit 24. Each row of the table shown in FIG. 3 is one piece of operation instruction definition information. Each row has items of “ID”, “gesture”, “application”, and “corresponding operation”. “ID” is identification information of an entry (row) of the definition information. “Corresponding operation” is identification information of an operation instruction corresponding to the ID (an operation instructed by a user by a gesture, in other words, “meaning” of the gesture). The meaning of the operation of the “pen tool” shown in the figure has already been described.
「位置」は、その操作指示に対応するジェスチャの位置範囲を表す。すなわち、ユーザのジェスチャが当該操作指示を示すものと認識されるには、そのジェスチャの実施位置がその「位置」に示される範囲内にある必要がある。図示例では、位置範囲はX,Y,Zの直行三次元座標で表される。ここでZ座標は、表示装置14の画面15に対して垂直なZ軸方向の座標であり、画面15上の点はZ=0であり、画面15の正面方向がZ軸の正の方向である。X,Y座標は、画面15の矩形形状の直交する2辺の方向に延びる座標軸である。 “Position” represents the position range of the gesture corresponding to the operation instruction. In other words, in order for the user's gesture to be recognized as indicating the operation instruction, the execution position of the gesture needs to be within the range indicated by the “position”. In the illustrated example, the position range is represented by orthogonal three-dimensional coordinates of X, Y, and Z. Here, the Z coordinate is a coordinate in the Z-axis direction perpendicular to the screen 15 of the display device 14, the point on the screen 15 is Z = 0, and the front direction of the screen 15 is the positive direction of the Z-axis. is there. The X and Y coordinates are coordinate axes extending in the direction of two orthogonal sides of the rectangular shape of the screen 15.
「ジェスチャ」は、その操作指示に対応するジェスチャのパターン(種類)を表す。なお、図に例示した「ドラッグ」というジェスチャは、タップ(指先等の指示部をたたくように動かす動作)などで指定した開始点から指示部を移動させる動作であり、マウスのドラッグ操作と同様、例えば画面15上で指定された開始点からカーソルを(指先の移動軌跡にしたがって)移動させる動作を表す。 “Gesture” represents a pattern (type) of a gesture corresponding to the operation instruction. In addition, the gesture “drag” illustrated in the figure is an operation of moving the instruction unit from the start point specified by tapping (an operation to move the instruction unit such as a fingertip). Similar to the mouse drag operation, For example, this represents an operation of moving the cursor (according to the movement locus of the fingertip) from the start point specified on the screen 15.
「アプリケーション」は、その操作指示の対象となるアプリケーションプログラムまたはOSの識別情報である。図に例示した「文書ビューア」は、PDF(Portable Document File)等のいずれかの文書フォーマットの電子文書の閲覧または編集に用いられるアプリケーションである。アプリケーションが異なれば、同じジェスチャでも異なる操作を指示するものと解釈され得る。 “Application” is identification information of an application program or OS that is the target of the operation instruction. The “document viewer” illustrated in the figure is an application used for browsing or editing an electronic document in any document format such as PDF (Portable Document File). Different applications can be interpreted to indicate different operations with the same gesture.
図3の例では、同じアプリケーション「文書ビューア」に対する同じ種類のジェスチャ「ドラッグ」が、位置範囲の異なる3つのケース(ID=1,2,3)に分類されている。それら各ケースの位置範囲は、X,Y方向については同じ範囲(すなわち画面15の矩形範囲)であるが、Z方向については異なっている。これら各ケースの位置範囲を図4に示す。図4に示すように、ID=1に対応する位置範囲は、図4の(1)に示すZ方向にについて0〜150mmの範囲の直方体の領域である。また、ID=2に対応する位置範囲は、(2)に示すZ方向について150〜300mmの範囲の直方体の領域であり、ID=3に対応する位置範囲は、(3)に示すZ方向について300〜450mmの範囲の直方体の領域である。 In the example of FIG. 3, the same type of gesture “drag” for the same application “document viewer” is classified into three cases (ID = 1, 2, 3) having different position ranges. The position ranges of these cases are the same range in the X and Y directions (that is, the rectangular range of the screen 15), but are different in the Z direction. The position ranges of these cases are shown in FIG. As shown in FIG. 4, the position range corresponding to ID = 1 is a rectangular parallelepiped region having a range of 0 to 150 mm in the Z direction shown in (1) of FIG. In addition, the position range corresponding to ID = 2 is a rectangular parallelepiped region in the range of 150 to 300 mm in the Z direction shown in (2), and the position range corresponding to ID = 3 is in the Z direction shown in (3). This is a rectangular parallelepiped region in the range of 300 to 450 mm.
図3に例示する定義情報が用いられる場合、同じジェスチャ「ドラッグ」が、画面15に最も近い範囲(ID=1)では「ペンツール」と解釈され、これよりも1段階遠い範囲では「てのひらツール」と解釈され、更に遠い範囲では「ページ送り」と解釈される。 When the definition information illustrated in FIG. 3 is used, the same gesture “drag” is interpreted as a “pen tool” in the range closest to the screen 15 (ID = 1), and in the range one step further than this, the “open palm tool”. It is interpreted as “page feed” in the far range.
ここで、「ペンツール」と「てのひらツール」と「ページ送り」とを比較した場合、「ページ送り」ではページを戻すのか進めるのかを指示すれば足りるのに対し、「てのひらツール」では表示画像をどの方向にどの程度スクロールするかを指示する必要がある。したがって、「てのひらツール」の方が「ページ送り」の場合よりも、ユーザの操作意図を伝えるために、より精密なジェスチャが要求される。また、「ペンツール」にてユーザの意図する線画を描くには、「てのひらツール」による画面スクロールよりも精密なジェスチャが要求される。 Here, when comparing the “Pen tool”, “Tenoko tool”, and “Page feed”, it is sufficient to indicate whether to return or advance the page in “Page feed”, whereas in the “Tenoko tool” the display image is displayed. It is necessary to indicate in which direction and how much to scroll. Therefore, a more precise gesture is required in order to convey the user's operation intention in the case of the “hand tool” than in the case of “page feed”. In addition, in order to draw a line drawing intended by the user with the “pen tool”, a more precise gesture is required than the screen scrolling with the “tent tool”.
図3に例示した定義情報では、より精密なジェスチャが要求される操作ほど、その操作に対応するジェスチャの位置範囲が画面15に近い範囲に設定されていることがわかる。この設定は、ユーザにとって直感的に理解しやすい。 In the definition information illustrated in FIG. 3, it can be seen that an operation requiring a more precise gesture sets the position range of the gesture corresponding to the operation to a range closer to the screen 15. This setting is easy to understand intuitively for the user.
なお、図3の例におけるX座標0〜500mmは画面15の横幅の範囲であり、Y座標0〜400mmは画面15の縦の高さの範囲である。図3(及び図4)の例では、各位置範囲のX,Y方向の幅は同じであったが、これはあくまで一例に過ぎない。この代わりに、例えば、画面15から離れるほど、位置範囲のX,Y方向の幅を広くしてもよい。 3, the X coordinate of 0 to 500 mm is the range of the horizontal width of the screen 15, and the Y coordinate of 0 to 400 mm is the range of the vertical height of the screen 15. In the example of FIG. 3 (and FIG. 4), the width of each position range in the X and Y directions is the same, but this is only an example. Instead, for example, the width of the position range in the X and Y directions may be increased as the distance from the screen 15 increases.
図3には、アプリケーションが1つしか示されていないが、ジェスチャによる操作入力が適用可能なアプリケーションが情報処理装置に複数インストールされている場合もある。このような場合、ジェスチャのパターンと位置範囲の組合せが同じであっても、適用先のアプリケーションが異なれば、「対応する操作」が異なる場合がある。 Although only one application is shown in FIG. 3, there may be a case where a plurality of applications to which an operation input by a gesture can be applied are installed in the information processing apparatus. In such a case, even if the combination of the gesture pattern and the position range is the same, the “corresponding operation” may be different if the application to be applied is different.
ジェスチャパターン制御部22は、図3に例示した定義情報を参照して、ジェスチャエンコード部20から入力されるジェスチャのパターンと実施位置との組合せに対応する操作指示(「対応する操作」)を特定する。またジェスチャ入力の適用先のアプリケーションが複数ある場合には、情報処理装置において現在アクティブ状態のアプリケーションと、ジェスチャエンコード部20から入力されるジェスチャのパターン及び実施位置との組合せに対応する操作指示を、図3に例示したような定義情報から特定する。なお、OSがアクティブ状態の場合(言い換えれば起動中のアプリケーションがすべてアクティブ状態でない場合)には、定義情報の中から、ジェスチャのパターン、実施位置及びOSの組合せに対応する操作指示が、ユーザのジェスチャの示す意味として特定される。 The gesture pattern control unit 22 specifies an operation instruction (“corresponding operation”) corresponding to the combination of the gesture pattern input from the gesture encoding unit 20 and the execution position with reference to the definition information illustrated in FIG. To do. Further, when there are a plurality of applications to which gesture input is applied, an operation instruction corresponding to a combination of an application currently active in the information processing apparatus, a gesture pattern input from the gesture encoding unit 20 and an execution position, It is specified from the definition information as exemplified in FIG. When the OS is in an active state (in other words, when all activated applications are not in an active state), an operation instruction corresponding to the combination of the gesture pattern, the execution position, and the OS is displayed from the definition information. It is specified as the meaning indicated by the gesture.
そして、ジェスチャパターン制御部22は、そのように特定したジェスチャの意味、すなわち操作指示を、現在アクティブ状態にあるアプリケーションまたはOS(OS/アプリケーション10)に入力する。この入力を受けたアプリケーションまたはOSは、その操作指示に応じた処理を実行する。 Then, the gesture pattern control unit 22 inputs the meaning of the gesture thus identified, that is, an operation instruction, to the currently active application or OS (OS / application 10). Upon receiving this input, the application or OS executes processing according to the operation instruction.
ジェスチャパターン管理部24が管理する定義情報は、カスタマイズ可能である。例えば、既存の操作指示の定義エントリを削除したり、既存の操作指示の定義エントリのうちのいずれかの項目を変更したり、位置範囲、ジェスチャ種類(パターン)、アプリケーション、及び操作指示(「対応する操作」)の組からなる新たな定義エントリを作成して定義情報に追加したりすることができる。 The definition information managed by the gesture pattern management unit 24 can be customized. For example, deleting an existing operation instruction definition entry, changing any item in the existing operation instruction definition entry, position range, gesture type (pattern), application, and operation instruction ( A new definition entry consisting of a set of “operations”) can be created and added to the definition information.
図5に、本実施形態のジェスチャエンコード部20、ジェスチャパターン制御部22及びジェスチャパターン管理部24が行う処理手順の一例を示す。この手順では、まずジェスチャエンコード部20が、センサドライバ18から入力されるモーションセンサ16の検出信号をエンコード(解析)し(S10)、そのエンコードの結果である特徴量の情報から、その検出信号が示すジェスチャのパターン及び実施位置を抽出する(S12)。次に、ジェスチャパターン制御部22が、現在アクティブ状態であるアプリケーションまたはOSと、抽出されたジェスチャのパターン及び実施位置と、の組合せに対応する操作指示を、ジェスチャパターン管理部24内の定義情報を参照して特定する(S14)。S14で、ジェスチャに対応する操作が見つからなかった場合(S16の判定結果がN)、図示例では、そのジェスチャを無効とし、S10に戻って次のジェスチャを認識する。S14で、ジェスチャに対応する操作指示が見つかった場合(S16の判定結果がY)、その操作指示を、そのアプリケーションまたはOSに入力する(S18)。この入力に応じ、そのアプリケーションまたはOSは、ユーザがジェスチャにより指示した操作を実行する。 FIG. 5 shows an example of a processing procedure performed by the gesture encoding unit 20, the gesture pattern control unit 22, and the gesture pattern management unit 24 of the present embodiment. In this procedure, first, the gesture encoding unit 20 encodes (analyzes) the detection signal of the motion sensor 16 input from the sensor driver 18 (S10), and the detection signal is obtained from the information on the feature amount as a result of the encoding. The pattern and the execution position of the gesture to be shown are extracted (S12). Next, the gesture pattern control unit 22 outputs an operation instruction corresponding to the combination of the application or OS currently in the active state, the extracted gesture pattern and the execution position, and the definition information in the gesture pattern management unit 24. It specifies with reference (S14). If no operation corresponding to the gesture is found in S14 (the determination result in S16 is N), the gesture is invalidated in the illustrated example, and the process returns to S10 to recognize the next gesture. If an operation instruction corresponding to the gesture is found in S14 (the determination result in S16 is Y), the operation instruction is input to the application or OS (S18). In response to this input, the application or OS executes an operation instructed by the user through the gesture.
さて、モーションセンサ16の検出信号が表す指示部(手など)の三次元位置は、モーションセンサ16の座標系での位置である。これに対し、図3に例示した操作指示の定義情報における「位置」は、情報処理装置に接続された表示装置14の画面15を基準とする座標系での位置である。したがって、本実施形態の処理を実現するには、モーションセンサ16の検出信号から求められる位置を、画面15を基準とする座標系での位置へと座標変換する必要がある。 Now, the three-dimensional position of the pointing unit (such as a hand) represented by the detection signal of the motion sensor 16 is the position of the motion sensor 16 in the coordinate system. On the other hand, the “position” in the definition information of the operation instruction illustrated in FIG. 3 is a position in a coordinate system based on the screen 15 of the display device 14 connected to the information processing apparatus. Therefore, in order to realize the processing of the present embodiment, it is necessary to coordinate-convert the position obtained from the detection signal of the motion sensor 16 into a position in a coordinate system with the screen 15 as a reference.
ここで、画面15とモーションセンサ16の位置関係が常に一定であれば、その座標変換は固定的である。この場合、その固定的な座標変換の情報をあらかじめ求めておき、ジェスチャエンコード部20などがその情報を用いて座標変換を行えばよい。画面を内蔵した筐体内にモーションセンサ16を内蔵した装置、例えば、タブレット端末に対してモーションセンサ16を内蔵したものや、デジタル複合機(プリンタ、スキャナ、コピー機、ファクシミリ装置などの機能を兼ね備えた多機能装置)のディスプレイにモーションセンサ16を内蔵したもの、などがこの一例である。 Here, if the positional relationship between the screen 15 and the motion sensor 16 is always constant, the coordinate transformation is fixed. In this case, information on the fixed coordinate conversion may be obtained in advance, and the gesture encoding unit 20 or the like may perform coordinate conversion using the information. A device with a built-in motion sensor 16 in a housing with a built-in screen, for example, a device having a built-in motion sensor 16 for a tablet terminal, or a digital multifunction device (printer, scanner, copier, facsimile machine, etc.) An example of this is a display having a motion sensor 16 built in a display of a multi-function device.
これに対し、画面15とモーションセンサ16の位置関係が可変の場合もある。例えば、モーションセンサ16が情報処理装置に対してケーブルや無線で接続される場合がその典型例である。また、情報処理装置がノート型PC(パーソナルコンピュータ)である場合でも、モーションセンサ16が本体(キーボードが設けられた筐体)に内蔵されている場合は、ディスプレイの開く角度が可変なので、ディスプレイとモーションセンサ16との位置関係は可変である。 On the other hand, the positional relationship between the screen 15 and the motion sensor 16 may be variable. For example, a typical example is a case where the motion sensor 16 is connected to the information processing apparatus by a cable or wirelessly. Even when the information processing apparatus is a notebook PC (personal computer), when the motion sensor 16 is built in the main body (a casing provided with a keyboard), the opening angle of the display is variable. The positional relationship with the motion sensor 16 is variable.
このように画面15とモーションセンサ16の位置関係が可変の場合、例えばモーションセンサ16を起動した際に、その座標変換を求めるためのキャリブレーション処理を行う。このキャリブレーション処理では、ユーザに画面15の四隅をタップ(指先で叩く動作)させ、それらタップされた位置をモーションセンサ16で求める。このとき求められる四隅の点の位置は、モーションセンサ16の座標系での位置である。例えば、この四隅の点のうちのあらかじめ定められた1つの点が画面15基準の座標系の原点であり、他の3点のうち原点に近い方から2つの点が、X軸及びY軸方向を規定する。また、その四隅の点が規定する面(画面15)に垂直な方向がZ軸方向である。この関係から、モーションセンサ16基準の座標系から画面15基準の座標系への座標変換を計算すればよい。 As described above, when the positional relationship between the screen 15 and the motion sensor 16 is variable, for example, when the motion sensor 16 is activated, a calibration process for obtaining the coordinate conversion is performed. In this calibration process, the user taps the four corners of the screen 15 (the operation of tapping with a fingertip), and the tapped positions are obtained by the motion sensor 16. The positions of the four corner points obtained at this time are positions in the coordinate system of the motion sensor 16. For example, one of the four corner points is the origin of the coordinate system based on the screen 15, and two of the other three points closer to the origin are in the X-axis and Y-axis directions. Is specified. The direction perpendicular to the plane (screen 15) defined by the four corner points is the Z-axis direction. From this relationship, coordinate conversion from the coordinate system based on the motion sensor 16 to the coordinate system based on the screen 15 may be calculated.
キャリブレーション処理を行う際、例えば、ジェスチャパターン制御部22が、情報処理装置の画面15に画面の四隅をタップするようメッセージを表示してもよい。 When performing the calibration process, for example, the gesture pattern control unit 22 may display a message to tap the four corners of the screen on the screen 15 of the information processing apparatus.
次に、第1の変形例を説明する。この変形例は、操作指示の定義情報が上記実施例の場合と異なる。この第1の変形例で用いる操作指示の定義情報の一例を図6に示す。 Next, a first modification will be described. This modification is different from the above-described embodiment in the definition information of the operation instruction. An example of the operation instruction definition information used in the first modification is shown in FIG.
図3との対比でわかるように、図6の定義情報は、複数のアプリケーションを想定したものである。 As can be seen in comparison with FIG. 3, the definition information in FIG. 6 assumes a plurality of applications.
この例では、「文書ビューア」に対する「指先を右に送る」ジェスチャは、「改ページ」(ページ番号が大きくなる方向へのページ送り)操作に対応づけられているが、同じ「改ページ」がジェスチャの実施位置に応じて2つに細分されている。すなわち、画面15からの距離が0〜100mmの位置範囲(ID=1)でそのジェスチャが行われた場合、そのジェスチャは1ページずつの改ページと解釈される。一方、画面15からの距離が100〜500mmの位置範囲(ID=2)でそのジェスチャが行われた場合、そのジェスチャは、1回のジェスチャでめくられるページ数が画面15からの距離に応じて線形に増えるタイプの改ページと解釈される。 In this example, the “send fingertip to the right” gesture for the “document viewer” is associated with the “page break” (page feed in the direction of increasing page numbers) operation. It is subdivided into two according to the position of the gesture. That is, when the gesture is performed in a position range (ID = 1) where the distance from the screen 15 is 0 to 100 mm, the gesture is interpreted as a page break for each page. On the other hand, when the gesture is performed in a position range (ID = 2) where the distance from the screen 15 is 100 to 500 mm, the number of pages turned by one gesture depends on the distance from the screen 15. It is interpreted as a type of page break that increases linearly.
図7に、「指先を右に送る」ジェスチャの意味の、ジェスチャ実施位置の画面からの距離に応じた変化の様子を示す。図7に示すように、「指先を右に送る」ジェスチャの実施位置が画面から0〜100mmの距離(Z座標)の範囲内の場合は、そのジェスチャは、文書ビューアに対して画面15に表示するページを1ページ先に進める操作指示を表す。また、そのジェスチャの実施位置が画面から500mmの距離の位置である場合、そのジェスチャは、表示中の文書の全ページ数をめくる操作指示と解され、文書ビューアはそのジェスチャに応じてその文書の最後のページを表示する。また、ジェスチャの実施位置の画面からの距離が100mm〜500mmの範囲内では、そのジェスチャにより進められるページ数は、1ページから文書の全ページ数の間で線形に増加するページ数のうち、その距離に応じたページ数となる。なお、1回あたりのページめくり数が異なる「改ページ」をそれぞれ別の操作と解すれば、Z座標が100mm〜500mmの範囲内で実施されるジェスチャは、それぞれその実施位置のZ座標毎に異なる操作を指示するものと捉えることもできる。 FIG. 7 shows how the meaning of the “send fingertip to the right” gesture changes according to the distance from the screen of the gesture execution position. As shown in FIG. 7, when the execution position of the “send fingertip to the right” gesture is within the range of 0 to 100 mm distance (Z coordinate) from the screen, the gesture is displayed on the screen 15 to the document viewer. This represents an operation instruction for advancing the page to be advanced by one page. If the gesture is performed at a distance of 500 mm from the screen, the gesture is interpreted as an operation instruction for turning the total number of pages of the document being displayed, and the document viewer determines the document according to the gesture. Display the last page. In addition, when the distance from the screen where the gesture is performed is within a range of 100 mm to 500 mm, the number of pages advanced by the gesture is the number of pages that linearly increases from one page to the total number of pages of the document. The number of pages depends on the distance. If “page breaks” with different numbers of page turning per time are interpreted as different operations, gestures performed within the Z coordinate range of 100 mm to 500 mm are different for each Z coordinate at the execution position. It can also be understood as an instruction for operation.
図6及び図7の例では、画面15から100mm以遠では、ジェスチャに応じてめくるページ数が画面15からの距離の増大に応じて連続的に増大したが、この代わりに、例えば図8に示すように距離の増大に応じてめくるページ数が段階的に増えるようにしてもよい。図7や図8に示すジェスチャ実施位置とページ数との関係は、ジェスチャに対応する操作指示の内容を規定する情報として、ジェスチャパターン管理部24に登録される。 In the example of FIGS. 6 and 7, the number of pages turned according to the gesture increases continuously with the increase of the distance from the screen 15 beyond 100 mm from the screen 15, but instead, for example, as shown in FIG. In this way, the number of pages to be turned may be increased stepwise as the distance increases. The relationship between the gesture execution position and the number of pages shown in FIG. 7 and FIG. 8 is registered in the gesture pattern management unit 24 as information defining the content of the operation instruction corresponding to the gesture.
次に、図9及び図10を参照して第2の変形例を説明する。この変形例では、ジェスチャによる操作指示に応じて、OS/アプリケーション10が、その操作指示に応じたGUI(グラフィカルユーザインタフェース)を画面表示する。図9は、操作指示に応じたGUIの例を示す図であり、図10は、この変形例における操作指示の定義情報の例である。 Next, a second modification will be described with reference to FIGS. In this modification, the OS / application 10 displays a GUI (graphical user interface) corresponding to the operation instruction on the screen in response to the operation instruction by the gesture. FIG. 9 is a diagram illustrating an example of a GUI according to an operation instruction, and FIG. 10 is an example of operation instruction definition information in this modification.
図10に示すように、この例では、画面15からの距離が0〜150mmの範囲内の位置で指先を左右に動かすジェスチャは、画面15に表示した画像の拡大縮小操作を解釈される。例えば、指先を左方向に動かすジェスチャは縮小指示であり、右方向に動かすジェスチャは拡大指示である。また、同じ画面15からの0〜150mmの距離内のジェスチャでも、握った拳を動かすジェスチャは、ページ内でのドラッグ操作と解釈される。ページ内ドラッグにより、例えばページ内での範囲指定等が行われる。この例では、同じ0〜150mmの距離範囲内で同じく手を右または左に動かす動作でも、手を握った状態で動かすか、指を一本伸ばして指先を動かすかで、ジェスチャの意味が異なる。 As shown in FIG. 10, in this example, a gesture for moving the fingertip to the left or right at a position within a range of 0 to 150 mm from the screen 15 is interpreted as an enlargement / reduction operation of the image displayed on the screen 15. For example, a gesture for moving the fingertip to the left is a reduction instruction, and a gesture for moving to the right is an enlargement instruction. Further, even a gesture within a distance of 0 to 150 mm from the same screen 15 is interpreted as a drag operation within the page. By dragging within the page, for example, range designation within the page is performed. In this example, even if the hand moves to the right or left within the same distance range of 0 to 150 mm, the meaning of the gesture differs depending on whether it is moved while holding the hand or the fingertip is moved by extending one finger. .
また、図10の例では、画面15からの距離が150〜300mmの範囲内で手を左右に移動させる動作は、1ページずつのページ送り操作と解釈される。例えば、手を左方向に動かすジェスチャは1ページ前に戻る操作を示し、右方向に動かすジェスチャは1ページ後ろに進む操作を示す。また、画面15からの距離が300〜450mmの範囲内で手を右または左に移動させる動作は、1回のジェスチャで複数ページを送る操作と解釈される。この場合も、例えば、手を左方向に動かすジェスチャは前のページに戻る操作を示し、右方向に動かすジェスチャは後ろのページに進む操作を示す。 Further, in the example of FIG. 10, the operation of moving the hand to the left or right within the range of the distance from the screen 15 of 150 to 300 mm is interpreted as a page turning operation for each page. For example, a gesture that moves the hand to the left indicates an operation of returning to the previous page, and a gesture that moves to the right indicates an operation of moving backward by one page. Further, the operation of moving the hand to the right or left within a range of 300 to 450 mm from the screen 15 is interpreted as an operation of sending a plurality of pages with one gesture. Also in this case, for example, a gesture for moving the hand to the left indicates an operation for returning to the previous page, and a gesture for moving to the right indicates an operation for proceeding to the next page.
図10の定義情報に従ってジェスチャ解釈を行った場合の情報処理装置の画面表示は,図9に例示したものとなる。例えば、画面15から距離0〜150mmの範囲で指先を右または左に動かすジェスチャ(「拡大縮小」)が行われた場合、画面15には表示画像15aが表示される。表示画像15aには、表示の拡大縮小率の入力指示のためのGUI152が表示される。このGUI152上のスライダー153を例えばマウスで選択して右または左にドラッグすると、表示画像を拡大または縮小することができる。この実施形態では、そのマウスによる操作の代わりに、画面15から距離0〜150mmの範囲で指先を右または左に動かすジェスチャを用いている。 The screen display of the information processing apparatus when the gesture interpretation is performed according to the definition information of FIG. 10 is as illustrated in FIG. For example, when a gesture (“enlargement / reduction”) for moving the fingertip to the right or left within a range of 0 to 150 mm from the screen 15 is performed, the display image 15 a is displayed on the screen 15. In the display image 15a, a GUI 152 for instructing input of a display enlargement / reduction ratio is displayed. When the slider 153 on the GUI 152 is selected with, for example, a mouse and dragged to the right or left, the display image can be enlarged or reduced. In this embodiment, instead of the operation by the mouse, a gesture for moving the fingertip to the right or left within the range of the distance of 0 to 150 mm from the screen 15 is used.
また、画面15から距離150〜300mmの範囲で手を右または左に動かすジェスチャ(「1ページ送り」)が行われた場合、画面15には表示画像15bが表示される。表示画像15bには、「現在表示中のページ番号/全ページ数」を示す表示と、前後各方向への1ページずつのページ送りを指示するGUIボタンを含んだGUI154が表示される。このジェスチャの他にも、マウス等によりGUI154のページ送りボタンをクリックしたりすることで、表示するページを戻したり進めたりすることができる。 When a gesture for moving the hand to the right or left within the range of a distance of 150 to 300 mm from the screen 15 (“page advance”) is performed, a display image 15 b is displayed on the screen 15. The display image 15b displays a GUI 154 including a display indicating “currently displayed page number / total number of pages” and a GUI button for instructing page feed one page at a time in the front and rear directions. In addition to this gesture, the page to be displayed can be returned or advanced by clicking the page feed button of the GUI 154 with a mouse or the like.
また、画面15から距離300〜450mmの範囲で手を右または左に動かすジェスチャ(複数ページ送り)が行われた場合、画面15には表示画像15cが表示される。表示画像15cには、各ページのサムネイル画像をページ順に並べたGUI156が表示される。このGUI156内のうち、メイン表示欄に表示されたページに対応するサムネイルは強調表示される。手を右に動かせば、その動かした距離に応じたページ数だけ進んだページがメイン表示欄に表示される。 Further, when a gesture of moving the hand to the right or left within the range of 300 to 450 mm from the screen 15 (multiple page feed) is performed, the display image 15c is displayed on the screen 15. The display image 15c displays a GUI 156 in which thumbnail images of each page are arranged in the page order. In this GUI 156, the thumbnail corresponding to the page displayed in the main display column is highlighted. If you move your hand to the right, pages that are advanced by the number of pages corresponding to the distance you moved are displayed in the main display area.
この例では、図9に例示したように画面15上に操作用のGUI152、154、156が表示されるので、ユーザは、この表示から現在のジェスチャで選択中の操作モードが「拡大縮小」、「1ページ送り」、「複数ページ送り」のいずれであるかを認識する。 In this example, as illustrated in FIG. 9, GUIs 152, 154, and 156 for operation are displayed on the screen 15, so that the user can select the operation mode selected with the current gesture from this display as “enlargement / reduction”, It recognizes whether it is “1 page feed” or “multiple page feed”.
なお、図9の例のようにジェスチャにより指示された操作に対応する操作用のGUI152、154、156を表示する代わりに、図11に示すように、その指示された操作を表すアイコン158a及び158bを画面15上に表示してもよい。 Instead of displaying the operation GUIs 152, 154, and 156 corresponding to the operation instructed by the gesture as in the example of FIG. 9, icons 158a and 158b representing the instructed operation are displayed as shown in FIG. May be displayed on the screen 15.
図11の(a)の例では、画面15から離れた位置で指を動かすジェスチャが、ジェスチャパターン制御部22により「てのひらツール」操作と認識される。ジェスチャパターン制御部22は、その認識結果に従い、OS/アプリケーション10(「文書ビューア」)に対して、「てのひらツール」操作の実行を指示すると共に、画面15上に表示した「文書ビューア」の操作モード選択用のアイコン群のうち「てのひらツール」のアイコン158aを選択(アクティブ)状態とするよう指示する。これにより、「てのひらツール」のアイコン158aが選択状態を示す表示形態となり、ユーザはこの表示から、現在選択中の操作モードが「てのひらツール」であることを知る。 In the example of FIG. 11A, a gesture of moving a finger at a position away from the screen 15 is recognized as a “hand tool” operation by the gesture pattern control unit 22. In accordance with the recognition result, the gesture pattern control unit 22 instructs the OS / application 10 (“document viewer”) to execute the “terahira tool” operation and operates the “document viewer” displayed on the screen 15. An instruction is given to select (active) the icon 158a of the “hand tool” from the mode selection icon group. Thereby, the icon 158a of the “terahira tool” becomes a display form indicating the selected state, and the user knows from this display that the currently selected operation mode is the “terahira tool”.
同様に,図11の(b)の例では、画面15に近い位置で指を動かすジェスチャが、ジェスチャパターン制御部22により「ペンツール」操作と認識される。ジェスチャパターン制御部22は、その認識結果に従い、OS/アプリケーション10(「文書ビューア」)に対して、「ペンツール」操作の実行を指示すると共に、画面15上に表示した「文書ビューア」の操作モード選択用のアイコン群のうち「ペンツール」のアイコン158bを選択状態とするよう指示する。これにより、「ペンツール」のアイコン158bが選択状態を示す表示形態となり、ユーザはこの表示から、現在選択中の操作モードが「ペンツール」であることを知る。 Similarly, in the example of FIG. 11B, a gesture of moving a finger at a position close to the screen 15 is recognized as a “pen tool” operation by the gesture pattern control unit 22. The gesture pattern control unit 22 instructs the OS / application 10 (“document viewer”) to execute the “pen tool” operation according to the recognition result, and also operates the operation mode of the “document viewer” displayed on the screen 15. An instruction is given to select the “pen tool” icon 158b in the selection icon group. As a result, the “Pen tool” icon 158b is in a display form indicating the selected state, and the user knows from this display that the currently selected operation mode is “Pen tool”.
次に、図12及び図13を参照して、第3の変形例を説明する。前述のように、本実施形態の制御の一例では、ジェスチャの実施位置(例えば画面15からの距離)がどの範囲にあるかに応じて、同じジェスチャの意味づけを変える。ここで、ジェスチャが行われている間の各時点の指示部(指先など)の位置をそのジェスチャの実施位置と捉える場合、複数の位置範囲にまたがるジェスチャが問題となる。例えば、図3の定義情報を用いる例において、ID=1の位置範囲(画面から0〜150mm)内で指先でドラッグジェスチャを行うことで「ペンツール」により画面上に線画の描画を開始した場合を考える。そのドラッグジェスチャの中で、指先が画面から遠ざかる方向に動き、ID=2の位置範囲(「てのひらツール」)に入ってしまうことが起こりえる。このような場合、1つの例として、指示部(指先など)が最初にジェスチャが認識された位置範囲から外れた時点で、そのジェスチャが終了したと見なす方式を採ってもよい。しかし、ユーザにとってみれば、指示部の連続した動きは画面からの距離がある程度変わっても同じ操作を意図したものである可能性が高いので、そのような場合でも同じ操作の続きと解釈した方がよい。 Next, a third modification will be described with reference to FIGS. As described above, in an example of the control of the present embodiment, the meaning of the same gesture is changed according to which range the gesture execution position (for example, the distance from the screen 15) is. Here, when the position of an instruction unit (such as a fingertip) at each time point while a gesture is being performed is regarded as the execution position of the gesture, a gesture that spans a plurality of position ranges becomes a problem. For example, in the example using the definition information in FIG. 3, a case where a line drawing is started on the screen by the “pen tool” by performing a drag gesture with a fingertip within a position range of ID = 1 (0 to 150 mm from the screen). Think. In the drag gesture, it is possible that the fingertip moves in a direction away from the screen and enters the position range of ID = 2 (“Tenoko Tool”). In such a case, as an example, a method may be adopted in which the gesture is considered to be completed when the instruction unit (such as a fingertip) deviates from the position range where the gesture is first recognized. However, for the user, the continuous movement of the pointing unit is likely to be the same operation even if the distance from the screen changes to some extent. Is good.
そこで、この変形例では、ジェスチャのパターンと実施位置の組合せからそのジェスチャの意味、すなわち「対応する操作」、を認識すると、その操作に対応する位置範囲を拡張する。その操作に対応する拡張(拡大)後の位置範囲は、通常時(拡張の前)の位置範囲を内包し、通常時の位置範囲よりも大きい。この拡張により、そのジェスチャの中で指先等の指示部が画面に対してある程度近づいたり遠ざかったりしても、その拡張された位置範囲から外れなければ、同じジェスチャが連続しているものと認識される。 Therefore, in this modification, when the meaning of the gesture, that is, “corresponding operation” is recognized from the combination of the gesture pattern and the execution position, the position range corresponding to the operation is expanded. The position range after expansion (enlargement) corresponding to the operation includes the position range at normal time (before expansion) and is larger than the position range at normal time. As a result of this extension, even if the pointing unit such as the fingertip moves closer or further away from the screen within the gesture, it is recognized that the same gesture is continuous unless it deviates from the extended position range. The
図12に、この変形例の処理手順の一例を示す。この手順では、まずジェスチャエンコード部20がモーションセンサ16の検出信号をエンコードし(S20)、そのエンコードの結果から、その検出信号が示すジェスチャのパターン及び実施位置を抽出する(S22)。次に、ジェスチャパターン制御部22が、S22の抽出結果に基づき、ジェスチャが開始されたかどうかを判定する(S24)。S24では、例えば、指示部(指先など)がモーションセンサ16の検知領域内に入ってきたとき、指示部が何の操作にも対応していない動作状態であるとき(例えばほぼ停止している場合)から急激に動き出したとき、指示部がジェスチャの開始を示す特定の動きを示したとき、指示部がジェスチャの終了を示す特定の動きを示した後に指示部の動きを検出した場合、指示部が検知領域内のあらかじめ定めた特定の座標をタッチする動作を示した場合などに、ジェスチャが開始されたと判定する。ジェスチャの開始を検知しなかった場合、S20に戻る。 FIG. 12 shows an example of the processing procedure of this modification. In this procedure, first, the gesture encoding unit 20 encodes the detection signal of the motion sensor 16 (S20), and extracts a gesture pattern and an execution position indicated by the detection signal from the result of the encoding (S22). Next, the gesture pattern control unit 22 determines whether or not a gesture is started based on the extraction result of S22 (S24). In S24, for example, when an instruction unit (such as a fingertip) enters the detection area of the motion sensor 16, or when the instruction unit is in an operation state that does not correspond to any operation (for example, almost stopped). ), When the instruction unit indicates a specific movement indicating the start of a gesture, when the instruction unit detects a movement of the instruction unit after indicating a specific movement indicating the end of the gesture, It is determined that the gesture has been started when, for example, indicates an operation of touching a predetermined specific coordinate in the detection area. If the start of the gesture is not detected, the process returns to S20.
S24でジェスチャの開始を検知した場合、ジェスチャパターン制御部22が、現在アクティブ状態であるアプリケーションまたはOSと、抽出されたジェスチャのパターン及び実施位置と、の組合せに対応する操作指示を、ジェスチャパターン管理部24を参照して特定する(S26)。S26で、ジェスチャに対応する操作が見つからなかった場合(S28の判定結果がN)、図示例では、そのジェスチャを無効とし、S20に戻って次のジェスチャを認識する。S26で、ジェスチャに対応する操作指示が見つかった場合(S28の判定結果がY)、その操作指示に対応する位置範囲を拡大すると共に(S39)、
その操作指示を、そのアプリケーションまたはOSに入力する(S32)。この入力に応じ、そのアプリケーションまたはOSは、ユーザがジェスチャにより指示した操作を実行する。処理はS20に戻り、ジェスチャの認識処理が続行される。なお、操作指示に対応する位置範囲を拡大した場合、その位置範囲に隣接する他の操作指示の位置範囲は、操作指示に対応する位置範囲が拡大された分だけ削減する。
When the start of the gesture is detected in S24, the gesture pattern control unit 22 performs an operation instruction corresponding to the combination of the currently active application or OS and the extracted gesture pattern and execution position with the gesture pattern management. It specifies with reference to the part 24 (S26). If the operation corresponding to the gesture is not found in S26 (the determination result in S28 is N), in the illustrated example, the gesture is invalidated, and the process returns to S20 to recognize the next gesture. If an operation instruction corresponding to the gesture is found in S26 (the determination result in S28 is Y), the position range corresponding to the operation instruction is expanded (S39),
The operation instruction is input to the application or OS (S32). In response to this input, the application or OS executes an operation instructed by the user through the gesture. The process returns to S20, and the gesture recognition process is continued. When the position range corresponding to the operation instruction is expanded, the position range of another operation instruction adjacent to the position range is reduced by the amount corresponding to the expanded position range corresponding to the operation instruction.
S24でジェスチャの開始ではないと判定した場合、ジェスチャパターン制御部22は、S20及びS22で抽出されたジェスチャのパターン及び実施位置が、現在選択中の操作に整合しているか否かを判定する(S34)。すなわち、ジェスチャの開始(S24の判定結果がY)時に、S26にて、ユーザがジェスチャにより選択した操作が特定されるが、その開始後に続くジェスチャが、その選択された操作に合致しているかを判定するのである。この判定はS26と同様ジェスチャのパターンと実施位置の組合せに基づき行われる。ただし、この判定では、操作指示の定義情報(例えば図3参照)として、ジェスチャ開始時に特定された操作に対応する位置範囲が拡大され、この位置範囲に隣接する他の操作に対応する位置範囲がその拡大分だけ縮小されたものを用いる。S22で抽出されたジェスチャのパターンが現在選択中の操作に対応するジェスチャパターンに該当しており、S22で抽出されたジェスチャ実施位置がその操作に対応する拡大された位置範囲内に属していれば、そのジェスチャは現在の操作に整合していると判定される。S34にて「整合している」と判定した場合、ジェスチャパターン制御部22は、そのジェスチャに応じた操作パラメータを、現在選択中の操作のパラメータとして、OS/アプリケーション10に送信する(S36)。例えば、ジェスチャ開始時にそのジェスチャが「ペンツール」操作であると判定された後、引き続き移動する指先の位置が、「ペンツール」に対応する位置範囲(ただしS30で拡大されたもの)内にあれば、その指先のX,Y座標に対応する画面15上の座標の情報が、「ペンツール」のペン先の座標を示すパラメータとして、ジェスチャパターン制御部22からOS/アプリケーションに通知される。S34にて「整合していない」と判定した場合、ジェスチャパターン制御部22は、OSまたはアプリケーションに対して、現在選択中の操作の選択解除を指示し(S38)、操作指示の定義情報におけるその操作に対応する位置範囲を、拡大前(通常時)の範囲へとリセットする。 When it is determined in S24 that the gesture is not started, the gesture pattern control unit 22 determines whether or not the gesture pattern and the execution position extracted in S20 and S22 are consistent with the currently selected operation ( S34). That is, when the gesture starts (when the determination result in S24 is Y), the operation selected by the user by the gesture is specified in S26. Whether the gesture following the start matches the selected operation is determined. Judgment is made. This determination is performed based on the combination of the gesture pattern and the execution position as in S26. However, in this determination, as the operation instruction definition information (see, for example, FIG. 3), the position range corresponding to the operation specified at the start of the gesture is expanded, and the position range corresponding to another operation adjacent to this position range is displayed. The one reduced by the enlargement is used. If the gesture pattern extracted in S22 corresponds to the gesture pattern corresponding to the currently selected operation, and the gesture execution position extracted in S22 belongs to the expanded position range corresponding to the operation. , It is determined that the gesture is consistent with the current operation. If it is determined in S34 that it is “consistent”, the gesture pattern control unit 22 transmits an operation parameter corresponding to the gesture to the OS / application 10 as a parameter of the currently selected operation (S36). For example, if it is determined that the gesture is a “pen tool” operation at the start of the gesture, and the position of the fingertip that continues to move is within the position range corresponding to the “pen tool” (though enlarged in S30), Information on the coordinates on the screen 15 corresponding to the X and Y coordinates of the fingertip is notified from the gesture pattern control unit 22 to the OS / application as a parameter indicating the coordinates of the pentip of the “pen tool”. If it is determined in S34 that it is “not consistent”, the gesture pattern control unit 22 instructs the OS or application to cancel the selection of the currently selected operation (S38), and that in the operation instruction definition information. The position range corresponding to the operation is reset to the range before enlargement (normal time).
以上、本発明の実施形態及び変形例について説明した。以上に説明した例では、操作指示に対応するジェスチャの位置範囲として、情報処理装置の画面に垂直な方向について区分された位置範囲を用いる場合を例示したが、これは一例に過ぎない。画面に平行な方向に区分された位置範囲や、画面に垂直な方向と平行な方向の両方について区分された位置範囲などを用いてもよい。 In the above, embodiment and the modification of this invention were demonstrated. In the example described above, the case where the position range divided in the direction perpendicular to the screen of the information processing apparatus is used as the position range of the gesture corresponding to the operation instruction is described as an example. A position range divided in a direction parallel to the screen or a position range divided in both a direction perpendicular to the screen and a direction parallel to the screen may be used.
また、以上の例では、画面15に対する表示と関連する操作(描画、スクロール、ページ送りなど)についてのジェスチャ入力の例を示したが、本実施形態の制御処理は、画面表示と関係しない操作にも適用可能である。例えば、電子楽器に対する操作指示の入力に本実施形態の仕組みを適用することも可能である。例えば同じ「ビブラート」を示すジェスチャでも、そのジェスチャの実施位置の電子楽器からの距離に応じてビブラートの量(音程の振れ幅)を変えるなどである。 In the above example, an example of gesture input for operations related to display on the screen 15 (drawing, scrolling, page turning, etc.) has been shown. However, the control processing of the present embodiment is an operation not related to screen display. Is also applicable. For example, the mechanism of the present embodiment can be applied to input of operation instructions for an electronic musical instrument. For example, even for a gesture indicating the same “vibrato”, the amount of vibrato (pitch amplitude) is changed in accordance with the distance from the electronic musical instrument at the position where the gesture is performed.
以上に説明した実施形態の処理は、例えば、パーソナルコンピュータやタブレット端末などのコンピュータ、デジタル複合機などの装置に内蔵されたコンピュータ等の、コンピュータ上で実行されるプログラムとして実装される。ここで言うコンピュータは、例えば、ハードウエアとして、CPU等のマイクロプロセッサ、ランダムアクセスメモリ(RAM)およびリードオンリメモリ(ROM)等のメモリ(一次記憶)、HDD(ハードディスクドライブ)やフラッシュメモリ等の二次記憶を制御する二次記憶コントローラ、各種I/O(入出力)インタフェース、無線又は有線のネットワークとの接続のための制御を行うネットワークインタフェース等が、たとえばバスを介して接続された回路構成を有する。また、そのバスに対し、例えばI/Oインタフェース経由で、CDやDVD、ブルーレイディスクなどの可搬型ディスク記録媒体に対する読み取り及び/又は書き込みのためのディスクドライブ、フラッシュメモリなどの各種規格の可搬型の不揮発性記録媒体に対する読み取り及び/又は書き込みのためのメモリリーダライタ、などが接続されてもよい。上に例示した各機能モジュールの処理内容が記述されたプログラムがCDやDVD等の記録媒体を経由して、又はネットワーク等の通信手段経由で、フラッシュメモリ等の二次記憶装置に保存され、コンピュータにインストールされる。二次記憶装置に記憶されたプログラムがRAMに読み出されCPU等のマイクロプロセッサにより実行されることにより、上に例示した機能モジュール群が実現される。 The processing of the embodiment described above is implemented as a program executed on a computer, such as a computer such as a personal computer or a tablet terminal, or a computer built in an apparatus such as a digital multifunction peripheral. The computer referred to here includes, for example, a microprocessor such as a CPU, a memory (primary storage) such as a random access memory (RAM) and a read only memory (ROM), a HDD (hard disk drive), a flash memory, and the like as hardware. A circuit configuration in which a secondary storage controller that controls secondary storage, various I / O (input / output) interfaces, a network interface that performs control for connection to a wireless or wired network, and the like are connected via a bus, for example. Have. In addition, various standards such as a disk drive and a flash memory for reading and / or writing to a portable disk recording medium such as a CD, a DVD, and a Blu-ray disk are connected to the bus via, for example, an I / O interface. A memory reader / writer for reading from and / or writing to the nonvolatile recording medium may be connected. A program in which the processing content of each functional module exemplified above is described is stored in a secondary storage device such as a flash memory via a recording medium such as a CD or DVD, or via a communication means such as a network, and the computer To be installed. The program stored in the secondary storage device is read into the RAM and executed by a microprocessor such as a CPU, thereby realizing the functional module group exemplified above.
10 OS/アプリケーション、12 表示ドライバ、14 表示装置、15 画面、15a,15b,15c 表示画像、16 モーションセンサ、18 センサドライバ、20 ジェスチャエンコード部、22 ジェスチャパターン制御部、24 ジェスチャパターン管理部。
10 OS / application, 12 display driver, 14 display device, 15 screen, 15a, 15b, 15c display image, 16 motion sensor, 18 sensor driver, 20 gesture encoding unit, 22 gesture pattern control unit, 24 gesture pattern management unit.
Claims (6)
ジェスチャ及び前記ジェスチャが行われた三次元の位置を認識するジェスチャ認識装置からユーザが行ったジェスチャのパターン及びジェスチャが行われた位置の情報を取得する取得手段と、
前記取得手段が取得したジェスチャのパターンと位置との組合せに対応する操作を前記記憶手段から求め、求めた操作が実行されるよう制御を行う制御手段と、
を有する情報処理装置。 Storage means for storing operations corresponding to combinations of gesture patterns and positions;
An acquisition means for acquiring a gesture pattern performed by a user and information on a position where the gesture is performed from a gesture recognition device that recognizes the gesture and the three-dimensional position where the gesture is performed;
Control means for obtaining an operation corresponding to the combination of the pattern and position of the gesture acquired by the acquisition means from the storage means, and performing control so that the obtained operation is executed;
An information processing apparatus.
前記制御手段は、前記ジェスチャ認識装置からジェスチャの開始位置を取得するとその開始位置が属する前記範囲を拡張する、
ことを特徴とする請求項1に記載の情報処理装置。 The storage means stores an operation corresponding to a combination of a gesture pattern and a position range,
The control means expands the range to which the start position belongs when acquiring the start position of the gesture from the gesture recognition device.
The information processing apparatus according to claim 1.
ジェスチャのパターンと位置の組合せに対応する操作を記憶した記憶手段、
ジェスチャ及び前記ジェスチャが行われた三次元の位置を認識するジェスチャ認識装置からユーザが行ったジェスチャのパターン及びジェスチャが行われた位置の情報を取得する取得手段、
前記取得手段が取得したジェスチャのパターンと位置との組合せに対応する操作を前記記憶手段から求め、求めた操作が実行されるよう制御を行う制御手段、
として機能させるためのプログラム。
Computer
Storage means for storing operations corresponding to combinations of gesture patterns and positions;
An acquisition means for acquiring a gesture pattern performed by a user and information on a position where the gesture is performed from a gesture recognition device that recognizes the gesture and a three-dimensional position where the gesture is performed;
Control means for obtaining an operation corresponding to the combination of the pattern and position of the gesture obtained by the obtaining means from the storage means and performing control so that the obtained operation is executed;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013165485A JP6248462B2 (en) | 2013-08-08 | 2013-08-08 | Information processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013165485A JP6248462B2 (en) | 2013-08-08 | 2013-08-08 | Information processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015035103A true JP2015035103A (en) | 2015-02-19 |
JP6248462B2 JP6248462B2 (en) | 2017-12-20 |
Family
ID=52543588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013165485A Active JP6248462B2 (en) | 2013-08-08 | 2013-08-08 | Information processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6248462B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016167268A (en) * | 2015-03-06 | 2016-09-15 | 国立大学法人 筑波大学 | Gesture modeling device, gesture modeling method, program for gesture modeling system, and gesture modeling system |
WO2016157501A1 (en) * | 2015-04-02 | 2016-10-06 | 三菱電機株式会社 | Display device and display method |
JP2016207210A (en) * | 2015-04-21 | 2016-12-08 | 株式会社カカオ | Method for providing volatile message service using instant message service, and terminal |
JP2017034580A (en) * | 2015-08-05 | 2017-02-09 | ミネベア株式会社 | Remote controller and variable apparatus system |
JP6169238B1 (en) * | 2016-09-21 | 2017-07-26 | 京セラ株式会社 | Electronic device, program, and control method |
WO2022030221A1 (en) * | 2020-08-07 | 2022-02-10 | ブラザー工業株式会社 | Program and electronic device |
US11867929B2 (en) | 2019-12-25 | 2024-01-09 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium |
US12111970B2 (en) | 2019-12-25 | 2024-10-08 | Fujifilm Business Innovation Corp. | Information processing device and non-transitory computer readable medium for controlling floating images and detecting gestures |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039844A (en) * | 2009-08-12 | 2011-02-24 | Shimane Prefecture | Image recognition device, operation decision method and program |
JP2011192081A (en) * | 2010-03-15 | 2011-09-29 | Canon Inc | Information processing apparatus and method of controlling the same |
US20120229377A1 (en) * | 2011-03-09 | 2012-09-13 | Kim Taehyeong | Display device and method for controlling the same |
JP2013045217A (en) * | 2011-08-23 | 2013-03-04 | Hitachi Consumer Electronics Co Ltd | Input device |
-
2013
- 2013-08-08 JP JP2013165485A patent/JP6248462B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039844A (en) * | 2009-08-12 | 2011-02-24 | Shimane Prefecture | Image recognition device, operation decision method and program |
JP2011192081A (en) * | 2010-03-15 | 2011-09-29 | Canon Inc | Information processing apparatus and method of controlling the same |
US20120229377A1 (en) * | 2011-03-09 | 2012-09-13 | Kim Taehyeong | Display device and method for controlling the same |
JP2013045217A (en) * | 2011-08-23 | 2013-03-04 | Hitachi Consumer Electronics Co Ltd | Input device |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016167268A (en) * | 2015-03-06 | 2016-09-15 | 国立大学法人 筑波大学 | Gesture modeling device, gesture modeling method, program for gesture modeling system, and gesture modeling system |
WO2016157501A1 (en) * | 2015-04-02 | 2016-10-06 | 三菱電機株式会社 | Display device and display method |
JP2016207210A (en) * | 2015-04-21 | 2016-12-08 | 株式会社カカオ | Method for providing volatile message service using instant message service, and terminal |
JP2017034580A (en) * | 2015-08-05 | 2017-02-09 | ミネベア株式会社 | Remote controller and variable apparatus system |
US10083601B2 (en) | 2015-08-05 | 2018-09-25 | Minebea Co., Ltd. | Remote control device and apparatus controlling system |
JP6169238B1 (en) * | 2016-09-21 | 2017-07-26 | 京セラ株式会社 | Electronic device, program, and control method |
JP2018049448A (en) * | 2016-09-21 | 2018-03-29 | 京セラ株式会社 | Electronic device, program and control method |
US11867929B2 (en) | 2019-12-25 | 2024-01-09 | Fujifilm Business Innovation Corp. | Information processing apparatus and non-transitory computer readable medium |
US12111970B2 (en) | 2019-12-25 | 2024-10-08 | Fujifilm Business Innovation Corp. | Information processing device and non-transitory computer readable medium for controlling floating images and detecting gestures |
WO2022030221A1 (en) * | 2020-08-07 | 2022-02-10 | ブラザー工業株式会社 | Program and electronic device |
JP7537171B2 (en) | 2020-08-07 | 2024-08-21 | ブラザー工業株式会社 | Programs and Electronic Devices |
Also Published As
Publication number | Publication date |
---|---|
JP6248462B2 (en) | 2017-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6248462B2 (en) | Information processing apparatus and program | |
JP5802667B2 (en) | Gesture input device and gesture input method | |
TWI438661B (en) | User interface device and method for in response to an input event | |
JP5751934B2 (en) | Information processing apparatus, information processing method, and program | |
US9552071B2 (en) | Information processing apparatus, information processing method and computer program | |
EP2835731B1 (en) | Image display apparatus, image display method, and image display program | |
JP5422724B1 (en) | Electronic apparatus and drawing method | |
US10599317B2 (en) | Information processing apparatus | |
US20110227947A1 (en) | Multi-Touch User Interface Interaction | |
US20100295806A1 (en) | Display control apparatus, display control method, and computer program | |
US20150154444A1 (en) | Electronic device and method | |
US20140157182A1 (en) | Method and apparatus for executing function executing command through gesture input | |
KR20130099186A (en) | Display device, user interface method, and program | |
US20140129931A1 (en) | Electronic apparatus and handwritten document processing method | |
US20190220185A1 (en) | Image measurement apparatus and computer readable medium | |
JP6025473B2 (en) | Information processing apparatus, information processing method, and program | |
JP2015035092A (en) | Display controller and method of controlling the same | |
JP5621407B2 (en) | Operation input device, program and method | |
JP5875262B2 (en) | Display control device | |
JP4879933B2 (en) | Screen display device, screen display method and program | |
US20140253479A1 (en) | Display device and display method | |
US20200341607A1 (en) | Scrolling interface control for computer display | |
JP5993072B1 (en) | Electronic device user interface, input processing method, and electronic device | |
JP6630164B2 (en) | Electronic device, control method therefor, program, and storage medium | |
JP6008904B2 (en) | Display control apparatus, display control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160513 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170321 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170815 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6248462 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |