JP5831883B2 - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP5831883B2
JP5831883B2 JP2012236127A JP2012236127A JP5831883B2 JP 5831883 B2 JP5831883 B2 JP 5831883B2 JP 2012236127 A JP2012236127 A JP 2012236127A JP 2012236127 A JP2012236127 A JP 2012236127A JP 5831883 B2 JP5831883 B2 JP 5831883B2
Authority
JP
Japan
Prior art keywords
gesture
palm
information processing
user
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012236127A
Other languages
Japanese (ja)
Other versions
JP2014085966A (en
Inventor
雅彦 原田
雅彦 原田
直 北本
直 北本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Personal Computers Ltd
Original Assignee
NEC Personal Computers Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Personal Computers Ltd filed Critical NEC Personal Computers Ltd
Priority to JP2012236127A priority Critical patent/JP5831883B2/en
Publication of JP2014085966A publication Critical patent/JP2014085966A/en
Application granted granted Critical
Publication of JP5831883B2 publication Critical patent/JP5831883B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ジェスチャー操作が可能な情報処理装置、情報処理方法、及びプログラムに関する。   The present invention relates to an information processing apparatus capable of performing a gesture operation, an information processing method, and a program.

近年、技術の進歩により種々の機能を有する情報処理装置が開発されており、ジェスチャー操作が可能なパーソナルコンピュータが挙げられる(例えば、特許文献1参照)。
特許文献1に記載の発明は、「インターフェース装置及びその方法」に関するものであり、具体的には「テレビやコンピュータ等の機器を操作するためのインターフェース装置におけるジェスチャー情報表示部は、操作に用いるジェスチャーの一覧、ジェスチャー認識部の認識結果、及び操作者の手と思われる部分の画像を表示し、操作者はジェスチャーを覚えることなく画面を確認しながら操作を行えるようになると共に、ジェスチャー認識部に認識させやすいように操作者が行うジェスチャーを修正することが可能となり、操作性が向上する」ものである。
In recent years, information processing apparatuses having various functions have been developed due to technological progress, and a personal computer capable of performing a gesture operation can be cited (for example, see Patent Document 1).
The invention described in Patent Document 1 relates to an “interface device and method thereof”. Specifically, “a gesture information display unit in an interface device for operating a device such as a television or a computer has a gesture used for the operation. List of gestures, recognition results of the gesture recognition unit, and an image of the part that seems to be an operator's hand, so that the operator can operate while checking the screen without memorizing the gesture, and in the gesture recognition unit It is possible to correct the gesture performed by the operator so that it can be easily recognized, and the operability is improved.

特開2008−52590号公報JP 2008-52590 A

しかしながら、特許文献1に記載の発明は、ジェスチャーを覚えることなくその都度画面を確認しながら操作を行うため、ジェスチャー動作開始から認識まで時間がかかり、画面を確認しながらジェスチャー動作を行うため認識率について改善の余地がある。   However, since the invention described in Patent Document 1 operates while confirming the screen each time without memorizing the gesture, it takes time from the start of the gesture operation to recognition, and the gesture operation is performed while confirming the screen. There is room for improvement.

そこで、本発明の目的は、ジェスチャー動作の認識率の向上を図った情報処理装置、情報処理方法、及びプログラムを提供することにある。   Accordingly, an object of the present invention is to provide an information processing apparatus, an information processing method, and a program that improve the recognition rate of gesture motion.

上記課題を解決するため、請求項1記載の発明は、アプリケーションを実行する実行手段と、前記アプリケーションの実行結果を表示する表示手段と、ユーザーの手の平を撮影して画像データに変換する撮影手段と、前記撮影手段からの複数の像データに基づいて前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する解析手段と、前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する制御手段と、を備えた情報処理装置において、解析手段によってジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行うとともにユーザーの手の平を囲むように矩形を表示する表示手段をさらに備えたことを特徴とする。 In order to solve the above-mentioned problem, the invention described in claim 1 includes an execution unit that executes an application, a display unit that displays an execution result of the application, and a shooting unit that captures a palm of a user and converts the image into image data. analyzes the operation of the palm on the basis of a plurality of images data from the imaging means, and analyzing means for identifying a predefined gesture as an operation pattern of the palm, and applications running in said execution means And an information processing apparatus including a control unit configured to perform a predetermined process in association with the specified gesture, when a gesture is specified by the analysis unit, display corresponding to the specified gesture is performed. further comprising a display means for displaying a rectangle to enclose the palm of the user with And features.

本発明によれば、ジェスチャー動作の認識率の向上を図った情報処理装置、情報処理方法、及びプログラムの提供を実現できる。   ADVANTAGE OF THE INVENTION According to this invention, provision of the information processing apparatus, the information processing method, and program which aimed at the improvement of the recognition rate of gesture operation | movement is realizable.

(a)は、一実施形態に係るノートパソコンを使用中の状態を示す外観斜視図であり、(b)は、(a)に示したノートパソコンのユーザー側から見た外観斜視図である。(A) is the external appearance perspective view which shows the state in use of the notebook computer which concerns on one Embodiment, (b) is the external appearance perspective view seen from the user side of the notebook computer shown to (a). 情報処理装置としてのノートパソコンの一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the notebook personal computer as information processing apparatus. (a)〜(n)は、図1に示したノートパソコン100に用いられるジェスチャーの一例を示す説明図である。(A)-(n) is explanatory drawing which shows an example of the gesture used for the notebook personal computer 100 shown in FIG. 図1に示したノートパソコンの動作を説明するためのフローチャートの一例である。It is an example of the flowchart for demonstrating operation | movement of the notebook computer shown in FIG. 図1に示したノートパソコンにおいて、ジェスチャーアプリの初回起動時に表示される画面の一例である。FIG. 3 is an example of a screen displayed when the gesture application is first activated in the notebook computer shown in FIG. 1. ジェスチャー練習をする場合に表示されるジェスチャー認識成功の場合の画面の一例である。It is an example of the screen in the case of gesture recognition success displayed when performing gesture practice. ジェスチャー練習をする場合に表示されるジェスチャー認識失敗の場合の画面の一例である。It is an example of the screen in the case of gesture recognition failure displayed when performing gesture practice. ジェスチャー練習を終了したときに表示される画面の一例である。It is an example of the screen displayed when gesture practice is complete | finished. ジェスチャー機能を起動させたときに表示される画面の一例である。It is an example of the screen displayed when a gesture function is started.

次に本実施形態について図面を参照して説明する。
本実施形態では、情報処理装置がノートパソコンの場合で説明するが、本発明はノートパソコンに限定されるものではなく、デスクトップパソコンであってもよい。
Next, the present embodiment will be described with reference to the drawings.
In this embodiment, the case where the information processing apparatus is a notebook personal computer will be described. However, the present invention is not limited to a notebook personal computer, and may be a desktop personal computer.

<構 成>
図1(a)は、一実施形態に係るノートパソコンを使用中の状態を示す外観斜視図であり、図1(b)は、図1(a)に示したノートパソコンのユーザー側から見た外観斜視図である。
このノートパソコン100は、キーボード101やマウス102による操作の他、Webカメラ(以下、カメラと表記する。)103でユーザーの手の平を認識し、認識した手の平の動き(ジェスチャー、もしくはハンドジェスチャーとも言う)によりノートパソコン100で一定の操作を行うことができるようになっている。
液晶表示装置104は、通常の表示を行う他、ユーザーの顔や手を表示したり、ジェスチャー操作練習のための画像を表示したりできるようになっている。
<Configuration>
FIG. 1A is an external perspective view showing a state in which the notebook computer according to one embodiment is being used, and FIG. 1B is a view from the user side of the notebook computer shown in FIG. It is an external perspective view.
The laptop computer 100 recognizes the palm of the user with a Web camera (hereinafter referred to as a camera) 103 in addition to operations with the keyboard 101 and the mouse 102, and recognizes the palm movement (also referred to as a gesture or hand gesture). Thus, a certain operation can be performed on the notebook personal computer 100.
The liquid crystal display device 104 is capable of displaying a user's face and hands and displaying an image for practicing gesture operation in addition to performing normal display.

図2は、情報処理装置としてのノートパソコンの一実施形態を示すブロック図である。
ノートパソコン100は、ハードウェア的には通常のノートパソコンと同様であり、キーボード101、マウス102、撮影手段としてのカメラ(Webカメラ)103、表示装置104、光学読取装置105、HDD(Hard Disc Drive)106、制御部107、RAM(Random Access Memory:読み出し/書き込みメモリ)108、ROM(Read Only Memory:読み出し専用メモリ)109、及びI/O(Input/Output)110を有するが、本発明はこれに限定されるものではなく、地上波デジタルテレビジョン放送を視聴するためのチューナーやインターネット接続を行うためのモデムをそなえていてもよい。尚、111はバスラインである。
FIG. 2 is a block diagram showing an embodiment of a notebook personal computer as an information processing apparatus.
The notebook computer 100 is similar to a normal notebook computer in terms of hardware, and includes a keyboard 101, a mouse 102, a camera (Web camera) 103 as a photographing means, a display device 104, an optical reading device 105, an HDD (Hard Disc Drive). ) 106, control unit 107, RAM (Random Access Memory) 108, ROM (Read Only Memory) 109, and I / O (Input / Output) 110. However, the present invention is not limited to this, and a tuner for viewing digital terrestrial television broadcasting and a modem for connecting to the Internet may be provided. Reference numeral 111 denotes a bus line.

キーボード101は、QWERTY配列の英字キー、数字キー、テンキー、スペースキー、エンターキー、ファンクションキー、デリートキー、スペースキー等の通常の入力キーを有する。   The keyboard 101 has normal input keys such as alphabetic keys in a QWERTY layout, numeric keys, numeric keys, space keys, enter keys, function keys, delete keys, and space keys.

マウス102は、少なくとも左ボタン、右ボタンを有しており、ホイールボタンを有してもよい。尚、図ではマウス102はケーブルでノートパソコン100に接続されているが、本発明はこれに限定されるものではなく、マウス102はワイヤレスでノートパソコン100に接続されていてもよい。   The mouse 102 has at least a left button and a right button, and may have a wheel button. In the figure, the mouse 102 is connected to the notebook computer 100 with a cable, but the present invention is not limited to this, and the mouse 102 may be connected to the notebook computer 100 wirelessly.

カメラ103は、ノートパソコン100の上側筐体の上側の中央にユーザー側に向かって設けられており、例えばCCD(Charge-Coupled Device)が用いられる。   The camera 103 is provided toward the user in the center of the upper side of the upper casing of the notebook computer 100, and for example, a CCD (Charge-Coupled Device) is used.

表示装置104は、解析手段107cによってジェスチャーが特定されたとき、特定されたジェスチャーに対応する表示もしくは制御部の制御による表示を行う機能を有し、例えば液晶ディスプレイが用いられるが、液晶ディスプレイの代わりにプラズマディスプレイを用いてもよい。   The display device 104 has a function of performing display corresponding to the specified gesture or display under the control of the control unit when the gesture is specified by the analyzing unit 107c. For example, a liquid crystal display is used, but the display device 104 is replaced with a liquid crystal display. Alternatively, a plasma display may be used.

光学読取装置105は、例えば、DVD(Digital Versatile Disc)、CD(Compact Disc)、CDR(CD Recordable)等の光学媒体を読み取る装置である。   The optical reading device 105 is a device that reads an optical medium such as a DVD (Digital Versatile Disc), a CD (Compact Disc), or a CDR (CD Recordable).

HDD106は、文字データ、画像データ、音声データ等のデータをRAM108に比べて大容量のデータを記憶するための記憶装置である。HDD106の代わりにSSD(Solid State Drive)を用いてもよい。   The HDD 106 is a storage device for storing large amounts of data such as character data, image data, and audio data as compared with the RAM 108. Instead of the HDD 106, an SSD (Solid State Drive) may be used.

制御部107は、ノートパソコン100を統括制御する機能を有し、例えば、マイクロプロセッサのCPU(Central Processing Unit:中央演算処理装置)を含む回路である。制御部107は、ソフトウェアとして入力制御手段107a、トレーニング手段107b、解析手段107c、割り込み制御手段107d、ディスク制御手段107e、表示装置制御手段107f、及び実行手段107gを有する。   The control unit 107 has a function of comprehensively controlling the notebook personal computer 100 and is, for example, a circuit including a CPU (Central Processing Unit) of a microprocessor. The control unit 107 includes input control means 107a, training means 107b, analysis means 107c, interrupt control means 107d, disk control means 107e, display device control means 107f, and execution means 107g as software.

入力制御手段107aは、キーボード101、マウス102、カメラ103、及び光学読取装置105からデータを管理する。   The input control unit 107 a manages data from the keyboard 101, the mouse 102, the camera 103, and the optical reading device 105.

トレーニング手段107bは、ソフトウェアで構成され、ユーザーの手の平の動作をジェスチャーとして認識する認識精度を向上させるため、ジェスチャーアプリケーション(以下、ジェスチャーアプリと表記)の初回起動時に、強制的にジェスチャーの練習を実行させる機能を有する。
本実施形態におけるジェスチャーは、ノートパソコン100のカメラ103の撮影可能な範囲(カメラ画像内とも言う)におけるユーザーの手の平の動作を意味する。
The training means 107b is configured by software, and forcibly practice gestures at the first activation of a gesture application (hereinafter referred to as a gesture application) in order to improve recognition accuracy for recognizing a user's palm movement as a gesture. It has a function to make it.
The gesture in the present embodiment means a palm action of the user in a range that can be taken by the camera 103 of the notebook computer 100 (also referred to as a camera image).

解析手段107cは、ソフトウェアで構成され、カメラ103からの画像データを解析してユーザーの手の平の動作をジェスチャーとして認識する機能を有する。
割り込み制御手段107dは、あるプログラムの処理中に他のプログラムの処理を割り込ませる割り込み処理の制御を行う。
ディスク制御手段107eは、光学読取装置105に挿入された光学媒体の種類を判別し、文字データ、画像データ、音声データの読み出しの管理を行う。
表示装置制御手段107fは、表示装置104の画像表示を管理する。
実行手段107gは、アプリケーションを実行する。
The analysis unit 107c is configured by software, and has a function of analyzing image data from the camera 103 and recognizing the palm movement of the user as a gesture.
The interrupt control unit 107d controls interrupt processing that interrupts processing of another program during processing of a certain program.
The disk control unit 107e determines the type of the optical medium inserted into the optical reader 105, and manages the reading of character data, image data, and audio data.
The display device control unit 107f manages the image display of the display device 104.
The execution unit 107g executes an application.

RAM108は、例えばフラッシュメモリが用いられる。
ROM109は、例えばマスクROMが用いられる。
I/O109は、ノートパソコン100と、図には示されないUSB(Universal Serial Bus)フラッシュメモリを含む外部のデバイスとのデータの授受を管理する。
For example, a flash memory is used as the RAM 108.
For example, a mask ROM is used as the ROM 109.
The I / O 109 manages data exchange between the notebook personal computer 100 and an external device including a USB (Universal Serial Bus) flash memory (not shown).

図3(a)〜(n)は、図1に示したノートパソコン100に用いられるジェスチャーの一例を示す図であり、ユーザー自身の手の動きをユーザーの視点から見た図である。本実施形態では、ユーザーが右手をカメラ103にかざした場合で説明するが左手であってもよい。
図中の矢印で、一本線の矢印(→)は手形状や手の状態の遷移を表し、中抜きの矢印は手の平の移動を表す。
本実施形態において12種類のジェスチャーにより、ノートパソコン100を操作しているが、本発明はこれに限定されるものではない。
図3(a)は、ユーザーの右手によるマウスカーソル操作を示す図であり、両矢印のように移動させる場合を示しているが限定されるものではない。
図3(b)は、「パー→グー→パー」のように手の平を開いたり閉じたりすることで左クリックのジェスチャー動作となる。
図3(c)〜(e)は、「パー→グー→グーで動かす→パー」のように手の平を動かすことでドラッグ及びドロップのジェスチャー動作となる。
図3(f)は、手の平を拡げたまま矢印方向(右方向)にクリックより素早く動かすことで右フリックのジェスチャー動作となる。ここで、「フリック」とは、本来タッチパネルにおける操作の一種であり、画面を軽く払うように指を動かすことであるが、手の平を素早く動かすことを含む。
3A to 3N are diagrams showing examples of gestures used in the notebook computer 100 shown in FIG. 1, and are views of the user's own hand movement as seen from the user's viewpoint. In this embodiment, the case where the user holds the right hand over the camera 103 will be described, but the left hand may be used.
In the figure, a single-line arrow (→) represents a transition of a hand shape or a hand state, and a hollow arrow represents a movement of the palm.
In the present embodiment, the notebook computer 100 is operated by 12 types of gestures, but the present invention is not limited to this.
FIG. 3A is a diagram showing a mouse cursor operation by the user's right hand, and shows a case of moving as indicated by a double arrow, but is not limited thereto.
In FIG. 3B, a left-click gesture operation is performed by opening and closing the palm like “par → goo → par”.
3C to 3E, a gesture operation of dragging and dropping is performed by moving the palm like “par → goo → moving with goo → par”.
In FIG. 3 (f), a gesture operation of a right flick is performed by moving more quickly than clicking in the arrow direction (right direction) with the palm spread. Here, “flick” is originally a kind of operation on the touch panel, which is to move a finger so as to lightly touch the screen, but includes quickly moving the palm.

図3(g)は、手の平を拡げたまま矢印方向(左方向)にクリックより素早く動かすことで左フリックのジェスチャー動作となる。   In FIG. 3 (g), a gesture operation of a left flick is performed by moving more quickly than clicking in the arrow direction (left direction) with the palm spread.

図3(h)は、手の平を拡げたまま矢印方向(上方向)にクリックより素早く動かすことで上フリックのジェスチャー動作となる。   In FIG. 3 (h), an upward flick gesture is performed by moving the finger in the direction of the arrow (upward) more quickly than clicking with the palm extended.

図3(i)は、手の平を拡げたまま矢印方向(下方向)にクリックより素早く動かすことで下フリックのジェスチャー動作となる。   In FIG. 3 (i), a gesture operation of a lower flick is made by moving the hand in the direction of the arrow (downward) more quickly than clicking with the palm expanded.

図3(j)は、手の平を拡げたままノートパソコン100の表示装置104程度の大きさの時計方向の円(直径10cm〜20cm程度)を描くことで時計回りのサークルのジェスチャー動作となる。   FIG. 3J shows a clockwise circle gesture operation by drawing a clockwise circle (diameter of about 10 cm to 20 cm) about the size of the display device 104 of the notebook personal computer 100 with the palm spread.

図3(k)は、手の平を拡げたままノートパソコン100の表示装置104程度の大きさの反時計方向の円(直径10cm〜20cm程度)を描くことで反時計回りのサークルのジェスチャー動作となる。   FIG. 3K shows a counterclockwise circle gesture operation by drawing a counterclockwise circle (diameter of about 10 cm to 20 cm) of the size of the display device 104 of the notebook personal computer 100 with the palm spread. .

図3(l)は、手の平を拡げたままノートパソコン100の表示装置104に向かって押し指すことでプッシュのジェスチャー動作となる。   In FIG. 3L, a push gesture operation is performed by pushing toward the display device 104 of the notebook personal computer 100 with the palm spread.

図3(m)は、手の平を拡げたままノートパソコン100の表示装置104から離れる方向に押し指すことでプルのジェスチャー動作となる。   FIG. 3 (m) shows a pull gesture operation by pushing and pointing away from the display device 104 of the notebook personal computer 100 with the palms extended.

図3(n)は、手の平を拡げたままノートパソコン100の表示装置104に向かって左右に振ることでウェイブのジェスチャー動作となる。本ジェスチャー動作をウェイブともいう。   In FIG. 3 (n), a wave gesture operation is performed by swinging left and right toward the display device 104 of the notebook computer 100 with the palm spread. This gesture movement is also called a wave.

ここで、「クリック」はマウスの左クリック、「ドラッグ&ドロップ」はマウスのドラッグ&ドロップに対応する。また、右フリックは、「進む」、左フリックは「戻る」、上フリックは「上スクロール」、下フリックは「下スクロール」、時計回りのサークルは「拡大」、反時計回りのサークルは「縮小」、「プル」は、図示しない携帯情報端末の起動、「ウェイブ」は、スタート画面に戻るコマンド操作に対応する。   Here, “click” corresponds to the left click of the mouse, and “drag and drop” corresponds to the drag and drop of the mouse. Also, right flick is "forward", left flick is "back", upper flick is "up scroll", lower flick is "down scroll", clockwise circle is "enlarge", counterclockwise circle is "reduced" “,” “Pull” corresponds to activation of a portable information terminal (not shown), and “wave” corresponds to a command operation for returning to the start screen.

<動 作>
図4は、図1に示したノートパソコンの動作を説明するためのフローチャートの一例である。図5は、図1に示したノートパソコンにおいて、ジェスチャーアプリの初回起動時に表示される画面の一例である。図6は、ジェスチャー練習をする場合に表示されるジェスチャー認識成功の場合の画面の一例であり、図7は、ジェスチャー練習をする場合に表示されるジェスチャー認識失敗の場合の画面の一例である。図8は、ジェスチャー練習を終了したときに表示される画面の一例であり、図9は、ジェスチャー機能を起動させたときに表示される画面の一例である。
<Operation>
FIG. 4 is an example of a flowchart for explaining the operation of the notebook computer shown in FIG. FIG. 5 is an example of a screen displayed when the gesture app is first activated in the notebook computer shown in FIG. FIG. 6 is an example of a screen in the case of successful gesture recognition displayed when performing a gesture practice, and FIG. 7 is an example of a screen in the case of a gesture recognition failure displayed when performing a gesture practice. FIG. 8 is an example of a screen that is displayed when the gesture practice is finished, and FIG. 9 is an example of a screen that is displayed when the gesture function is activated.

図4に示すフローチャートの動作の主体は、図2に示した制御部107である。
制御部107は、ジェスチャーアプリが起動されたか否かを判断し(ステップS1)、ジェスチャーアプリが起動されない場合は待機し(ステップS1/No)、ジェスチャーアプリが起動された場合は、図5に示すメニュー画面を表示する。
図5において、メニュー画面としてのジェスチャー機能の設定の画面には、注意書きの一例として、「ハンドジェスチャーでは、リモコンやマウスを使わずに手の平のジェスチャーだけで情報処理装置の操作をおこなうことができます。」の文字情報が表示される。情報処理装置の操作とは、前述したカーソル操作やコマンド操作を意味する。
The main body of the operation of the flowchart shown in FIG. 4 is the control unit 107 shown in FIG.
The control unit 107 determines whether or not the gesture app has been activated (step S1). If the gesture app is not activated, the control unit 107 waits (step S1 / No). If the gesture app is activated, the control unit 107 is illustrated in FIG. Display the menu screen.
In FIG. 5, the gesture function setting screen as a menu screen is an example of a note. “Hand gestures allow the user to operate the information processing device with only a palm gesture without using a remote control or a mouse. "Is displayed. The operation of the information processing apparatus means the above-described cursor operation or command operation.

図5に示す画面の左側には複数(図では4つであるが限定されない。)のボタンB1〜B4が表示される。このうち「練習する」及び「キャンセル」のボタンB1、B4のみアクティブになっている。これは、ジェスチャーアプリの初回起動時にユーザーに強制的に練習させるためである。「練習する」のボタンB1の横には例えば、「各ジェスチャーの方法を練習することができます。ハンドジェスチャーを快適に使うには練習することをおすすめします。」の文字情報が表示される。ハンドジェスチャーを快適に使うにはジェスチャーの認識率を向上させる必要があり、そのため、ユーザーに練習することを促しているのである。「キャンセル」のボタンB4は表示されている画面を終了するためのボタンである。   On the left side of the screen shown in FIG. 5, a plurality of buttons (four in the figure, but not limited) B1 to B4 are displayed. Of these, only the “practice” and “cancel” buttons B1 and B4 are active. This is to force the user to practice when the gesture app is first activated. Next to the “Practice” button B1, for example, the text information “I can practice each gesture method. I recommend you practice to use hand gestures comfortably” is displayed. . In order to use hand gestures comfortably, it is necessary to improve the recognition rate of gestures, which encourages users to practice. The “Cancel” button B4 is a button for ending the displayed screen.

ユーザーによりボタンB1がマウス102もしくはキーボード101により押されることで練習画面1頁目を表示するか否か判断する(ステップS2)。
制御部107は、ユーザーにより、ボタンB1が押されたと判断した場合(ステップS2/Yes)、カメラ103で撮影したユーザーの手を含む画像を図6に示すようにハンドジェスチャーの練習画面として表示する。練習画面の表示と共に音声や文字による説明を行ってもよい。このとき、制御部107は、ユーザーの手の平の動作を解析する(ステップS3)。
ジェスチャーの認識が成功したか否かを判断し(ステップS4)、認識に成功した場合(ステップS4/Yes)、認識成功のアイコン表示を行う。
It is determined whether or not the first page of the practice screen is displayed when the user presses the button B1 with the mouse 102 or the keyboard 101 (step S2).
When the control unit 107 determines that the user has pressed the button B1 (step S2 / Yes), the control unit 107 displays an image including the user's hand taken by the camera 103 as a hand gesture practice screen as shown in FIG. . You may give an explanation by a voice and a character with the display of a practice screen. At this time, the control unit 107 analyzes the palm movement of the user (step S3).
It is determined whether or not the recognition of the gesture is successful (step S4). When the recognition is successful (step S4 / Yes), a recognition success icon is displayed.

ここで、図6に示す画面において、左側にジェスチャーのお手本画像が表示され、右側にモニターウィンドウが表示される。モニターウィンドウの上側にはガイドアイコンが表示される。お手本動画とモニターウィンドウ、ガイドアイコンの位置関係はこの限りではない。尚、本実施形態ではガイドアイコンが表示される場合で説明しているが、本発明はこれに限定されるものではなく、ガイドアイコンは表示されなくてもよい。
モニターウィンドウにはユーザーの手の平の位置を抽出していることを表示するための枠が表示される。
Here, on the screen shown in FIG. 6, a model image of the gesture is displayed on the left side, and a monitor window is displayed on the right side. A guide icon is displayed on the upper side of the monitor window. The positional relationship between the model video, the monitor window, and the guide icon is not limited to this. In this embodiment, the guide icon is displayed. However, the present invention is not limited to this, and the guide icon may not be displayed.
A frame for displaying that the palm position of the user is extracted is displayed on the monitor window.

お手本画像としては、例えば、インストラクターの動画像またはアニメ動画像もしくはインストラクターの静止画像またはアニメ静止画像を1コマずつ表示するスライド表示画像が挙げられる。お手本画像が表示されると同時にジェスチャーの説明の音声を発生させるか、もしくは説明文をお手本画像中に表示してもよい。   Examples of the model image include a slide display image that displays a moving image of an instructor or an animation moving image or a still image of an instructor or an animation still image one frame at a time. At the same time as the model image is displayed, a voice explaining the gesture may be generated, or an explanatory text may be displayed in the model image.

モニターウィンドウは、カメラ103で撮影されたユーザーの手を含む画像が表示されるが、そのまま表示すると、お手本画像としてのインストラクターの手の平の動きと左右が逆になり、ユーザーが混乱するおそれがあるので、左右反転させてインストラクターと同じ動きを表示するようになっている。モニターウィンドウのうち、ユーザーの手の平を囲むように矩形が表示される。これは、ノートパソコン100の画像処理において、手の平を抽出していることを表示することにより、ユーザーに手の平が画面内に位置するように注意を促すためである。   The monitor window displays an image including the user's hand taken by the camera 103. However, if displayed as it is, the instructor's palm movement as a model image will be reversed and the user may be confused. It is designed to display the same movement as the instructor by flipping left and right. A rectangle is displayed around the user's palm in the monitor window. This is for displaying the fact that the palm is extracted in the image processing of the notebook personal computer 100, thereby urging the user to position the palm within the screen.

お手本画像の上側には、認識成功の説明文として例えば、「認識されると右側にあるガイドアイコンが光ります。認識されました。よかったですねぇ〜。じゃあ次頁へ。」と表示され、お手本画像のインストラクターが笑顔になっていてもよい。この場合、認識成功の説明文の右側に表示されるガイドアイコンの中の該当するアイコンが明るくなる(もしくはアイコンが点滅してもよい。)。この光るアイコンが認識成功のアイコンとなる。
認識結果の下には、「次のジェスチャー練習に進むには「>」を押してください。前のジェスチャーの練習に戻るには「<」を押してください。」の文字情報が表示されている。この表示に従ってユーザーが「>」、もしくは「<」を選択することにより、練習したいジェスチャーのお手本画像が表示される。
モニターウィンドウの右下側には終了のボタンが表示されている。
On the upper side of the model image, for example, “The guide icon on the right side will shine when recognized. It was recognized. The image instructor may be smiling. In this case, the corresponding icon among the guide icons displayed on the right side of the description of the recognition success is brightened (or the icon may blink). This glowing icon is an icon for successful recognition.
Below the recognition result, press “>” to go to the next gesture practice. To return to the previous gesture practice, press “<”. "Is displayed. When the user selects “>” or “<” according to this display, a model image of the gesture to be practiced is displayed.
A close button is displayed on the lower right side of the monitor window.

ジェスチャーの認識が失敗した場合(ステップS4/No)、認識失敗の画像表示を行う(ステップS12)。   When gesture recognition fails (step S4 / No), a recognition failure image is displayed (step S12).

認識失敗の画像表示としての図7において、お手本画面の上側の説明文として例えば「認識されると右側にあるガイドアイコンが光ります。認識されませんでした。もう一回やってみて。もう少し早く動かしてね〜。」と表示される。この場合にはガイドアイコンは発光したり点滅したりせず、インストラクターの笑顔が真顔になっていてもよい。
ユーザーは、再度手の平をインストラクターの動きに会わせて動かしてノートパソコン100に解析させることができる。
認識成功のアイコン表示がなされると(ステップS5)、制御部107は練習を終了するか否かを判断し(ステップS6)、練習を終了しない場合、すなわちジェスチャー練習を継続する場合(ステップS6/No)、ユーザーが選択したジェスチャーの練習画面の表示を行い(ステップS11)、ステップS3に戻る。
In FIG. 7 as an image display of recognition failure, for example, the explanation text on the upper side of the model screen is, for example, “The guide icon on the right side shines when it is recognized. It was not recognized. Try it again. Is displayed. " In this case, the guide icon does not light up or flash, and the instructor's smile may be a straight face.
The user can move the palm again to meet the instructor's movement and cause the notebook computer 100 to analyze it.
When the recognition success icon is displayed (step S5), the control unit 107 determines whether or not to end the practice (step S6). When the practice is not finished, that is, when the gesture practice is continued (step S6 / No), the practice screen of the gesture selected by the user is displayed (step S11), and the process returns to step S3.

終了のボタンをキーボード101もしくはマウス102の操作によりクリックすると(ステップS6/Yes)、ハンドジェスチャーの画面が終了して、ステップS7に進む。   When the end button is clicked by operating the keyboard 101 or the mouse 102 (step S6 / Yes), the hand gesture screen is ended and the process proceeds to step S7.

ステップS7に進むと、図8に示すジェスチャー機能の設定画面が表示される。図8に示す画面と図5に示す画面との相違点は、ボタンB2、B3がアクティブになっている点である。ボタンB2は、ジェスチャー機能を使用するためのボタンであり、ボタンB3はジェスチャー機能を終了するためのボタンである。
すなわち、ジェスチャー練習が終了すると、ジェスチャー機能を使用することができるのである。
When the processing proceeds to step S7, the gesture function setting screen shown in FIG. 8 is displayed. The difference between the screen shown in FIG. 8 and the screen shown in FIG. 5 is that the buttons B2 and B3 are active. The button B2 is a button for using the gesture function, and the button B3 is a button for ending the gesture function.
That is, when the gesture practice is completed, the gesture function can be used.

ユーザーがキーボード101もしくはマウス102によりボタンB2をクリックすると、ジェスチャー入力の動作が開始し(ステップS7)、図9に示す画面が表示される。画面の中央には、例えば数秒間「ジェスチャー機能起動」の文字情報が表示される。画面の右下の隅には画面の十数分の1程度の大きさのモニターウィンドウが表示される。画面の上方にはジェスチャーのアイコンが表示される。ガイドアイコンは、練習画面同様、ジェスチャーが認識されると明るくなって(もしくは点滅してもよい)、ユーザーにジェスチャーが認識されたことのフィードバックを与える。   When the user clicks the button B2 with the keyboard 101 or the mouse 102, the gesture input operation starts (step S7), and the screen shown in FIG. 9 is displayed. In the center of the screen, for example, the character information “gesture function activated” is displayed for a few seconds. In the lower right corner of the screen, a monitor window having a size of about one-tenth of the screen is displayed. A gesture icon is displayed at the top of the screen. As with the practice screen, the guide icon becomes brighter (or may blink) when the gesture is recognized, and gives feedback to the user that the gesture has been recognized.

ここで、アイコンは、画面の中央ではなく周辺に表示されるようになっている。これは、画面に例えば地上デジタルテレビジョン放送やインターネット放送の画面を表示する際に邪魔にならないようにするためである。
制御部107は、ユーザーの手の平の動作を解析し(ステップS8)、ジェスチャーに対応した動作(例えば、クリックやフリック等の動作)を行う(ステップS9)。ジェスチャー入力を終了する場合には、画面の中の終了ボタン(例えば、画面右下の閉じるボタン)をクリックすることで終了する(ステップS10)。
Here, the icons are displayed not on the center of the screen but on the periphery. This is in order not to get in the way when displaying, for example, a digital terrestrial television broadcast or internet broadcast screen on the screen.
The control unit 107 analyzes the user's palm movement (step S8), and performs an action corresponding to the gesture (for example, an action such as clicking or flicking) (step S9). When ending the gesture input, it is ended by clicking an end button (for example, a close button at the lower right of the screen) in the screen (step S10).

ここで、図8に示す画面は、ユーザーが2回目以降のジェスチャー操作を行う場合にジェスチャーの練習画面を表示するか否かを選択するための選択画面に対応する。
すなわち、ユーザーが練習画面の表示を選択した場合には練習画面を表示し、選択しない場合には、練習画面を省略してジェスチャー操作の本番画面としての図9を表示するのである。
Here, the screen shown in FIG. 8 corresponds to a selection screen for selecting whether or not to display a gesture practice screen when the user performs a gesture operation for the second time or later.
That is, when the user selects display of the practice screen, the practice screen is displayed, and when not selected, the practice screen is omitted and FIG. 9 is displayed as a production screen for gesture operation.

<作用効果>
以上において、本実施形態によれば、ジェスチャー認識結果のアイコン表示を行うので、ジェスチャー動作の認識率の向上を図ることができる。
<Effect>
As described above, according to the present embodiment, since the icon display of the gesture recognition result is performed, the recognition rate of the gesture motion can be improved.

<プログラム>
以上で説明した本発明にかかる情報処理装置は、コンピュータで処理を実行させるプログラムによって実現されている。コンピュータとしては、例えばパーソナルコンピュータやワークステーションなどの汎用的なものが挙げられるが、本発明はこれに限定されるものではない。よって、一例として、プログラムにより本発明を実現する場合の説明を以下で行う。
<Program>
The information processing apparatus according to the present invention described above is realized by a program that causes a computer to execute processing. Examples of the computer include general-purpose computers such as personal computers and workstations, but the present invention is not limited to this. Therefore, as an example, a case where the present invention is realized by a program will be described below.

例えば、
情報処理装置のコンピュータに、
実行手段が、アプリケーションを実行する手順、
表示手段が、アプリケーションの実行結果を表示する手順、
撮影手段が、ユーザーの手の平を撮影して画像データに変換する手順、
解析手段が、前記撮影手段からの複数の画像データに基づいて前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する手順、
制御手段が、前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する手順、
を実行させるプログラムにおいて、
表示手段が、ジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行う手順、
を実行させるプログラムが挙げられる。
For example,
In the computer of the information processing device,
A procedure in which the execution means executes the application;
A procedure in which the display means displays the execution result of the application;
A procedure for the photographing means to photograph the user's palm and convert it to image data,
Analyzing means, analyzing the palm movement based on a plurality of image data from the imaging means, to specify a gesture predefined as the palm movement pattern,
A procedure in which the control means performs a predefined process in association with the application being executed by the execution means and the specified gesture;
In a program that executes
A procedure in which the display means performs display corresponding to the specified gesture when the gesture is specified;
A program that executes

これにより、プログラムが実行可能なコンピュータ環境さえあれば、どこにおいても本発明に係る情報処理装置を実現することができる。
このようなプログラムは、コンピュータに読み取り可能な記憶媒体に記憶されていてもよい。
Thus, the information processing apparatus according to the present invention can be realized anywhere as long as there is a computer environment capable of executing the program.
Such a program may be stored in a computer-readable storage medium.

<記憶媒体>
ここで、記憶媒体としては、例えば、CD−ROM(Compact Disc Read Only Memory)、フレキシブルディスク(FD)、CD−R(CD Recordable)などのコンピュータで読み取り可能な記憶媒体、フラッシュメモリ、RAM(Random Access Memory)、ROM(Read Only Memory)、FeRAM(強誘電体メモリ)等の半導体メモリやHDD(Hard Disc Drive)が挙げられる。
<Storage medium>
Here, examples of the storage medium include a computer-readable storage medium such as a CD-ROM (Compact Disc Read Only Memory), a flexible disk (FD), and a CD-R (CD Recordable), a flash memory, and a RAM (Random). Examples include semiconductor memories such as Access Memory (ROM), Read Only Memory (ROM), and FeRAM (ferroelectric memory), and HDD (Hard Disc Drive).

尚、上述した実施の形態は、本発明の好適な実施の形態の一例を示すものであり、本発明はそれに限定されることなく、その要旨を逸脱しない範囲内において、種々変形実施が可能である。
例えば、上述した実施の形態では、ジェスチャー練習をする場合で説明したが、本発明は、これに限定されるものではなく、ジェスチャー入力する場合に適用してもよい。
The above-described embodiment shows an example of a preferred embodiment of the present invention, and the present invention is not limited thereto, and various modifications can be made without departing from the scope of the invention. is there.
For example, in the above-described embodiment, the case where the gesture is practiced has been described. However, the present invention is not limited to this and may be applied to the case where the gesture is input.

100 ノートパソコン
101 キーボード
102 マウス
103 Webカメラ(カメラ)
104 液晶表示装置
105 光学読取装置
106 HDD
107 制御部
107a 入力制御手段
107b トレーニング手段
107c 解析手段
107d 割り込み手段
107e ディスク制御手段
107f 表示装置制御手段
107g 実行手段
108 RAM
109 ROM
110 I/O
111 バスライン
100 Notebook PC 101 Keyboard 102 Mouse 103 Web Camera (Camera)
104 Liquid crystal display device 105 Optical reader 106 HDD
107 control section 107a input control means 107b training means 107c analysis means 107d interruption means 107e disk control means 107f display device control means 107g execution means 108 RAM
109 ROM
110 I / O
111 bus line

Claims (6)

アプリケーションを実行する実行手段と、
前記アプリケーションの実行結果を表示する表示手段と、
ユーザーの手の平を撮影して画像データに変換する撮影手段と、
前記撮影手段からの複数の像データに基づいて前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する解析手段と、
前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する制御手段と、を備えた情報処理装置において、
解析手段によってジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行うとともにユーザーの手の平を囲むように矩形を表示する表示手段をさらに備えたことを特徴とする、情報処理装置。
An execution means for executing the application;
Display means for displaying an execution result of the application;
Photographing means for photographing a user's palm and converting it into image data;
Analysis means for analyzing the operation of the palm on the basis of a plurality of images data, I identify a predefined gesture as an operation pattern of the palm from the imaging means,
In an information processing apparatus comprising: an application executed by the execution unit; and a control unit that performs a predefined process in association with the specified gesture,
An information processing apparatus, further comprising display means for displaying a rectangle corresponding to the specified gesture and displaying a rectangle so as to surround the palm of the user when a gesture is specified by the analysis means.
前記制御手段は、前記実行手段で実行されているアプリケーションと特定されたジェスチャーとに関連づけて予め定義された処理に対応する表示を行うことを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the control unit performs display corresponding to a process defined in advance in association with the application being executed by the execution unit and the specified gesture. 前記制御手段は、ガイドアイコンを表示させることを特徴とする、請求項1又は2記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the control unit displays a guide icon. 前記制御手段は、定義されたジェスチャーに対応して表示されているガイドアイコンのうち特定されたジェスチャーに対応するものの表示を、それ以外のガイドアイコンの表示と異なる表示を行うことを特徴とする、請求項1から3の何れか一項記載の情報処理装置。   The control means is characterized in that the display of the guide icon corresponding to the specified gesture among the guide icons displayed corresponding to the defined gesture is displayed differently from the display of the other guide icons. The information processing apparatus according to any one of claims 1 to 3. ユーザーの手の平を撮影して画像データに変換し、複数の画像データに基づいて前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定し、実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する情報処理方法において、
ジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行うとともにユーザーの手の平を囲むように矩形を表示することを特徴とする情報処理方法。
The user's palm is photographed and converted into image data, the palm movement is analyzed based on a plurality of image data, a gesture predefined as the palm movement pattern is identified, and the application being executed and the In an information processing method for performing a predefined process in association with an identified gesture,
An information processing method, wherein when a gesture is specified, a display corresponding to the specified gesture is performed and a rectangle is displayed so as to surround the palm of the user .
情報処理装置のコンピュータに、
実行手段が、アプリケーションを実行する手順、
表示手段が、前記アプリケーションの実行結果を表示する手順、
撮影手段が、ユーザーの手の平を撮影して画像データに変換する手順、
解析手段が、前記撮影手段からの複数の画像データに基づいて前記手の平の動作を解析し、前記手の平の動作パターンとして予め定義されたジェスチャーを特定する手順、
制御手段が、前記実行手段で実行されているアプリケーションと前記特定されたジェスチャーとに関連づけて予め定義された処理を実施する手順、
を実行させるプログラムにおいて、
前記表示手段が、ジェスチャーが特定されたとき、前記特定されたジェスチャーに対応する表示を行うとともにユーザーの手の平を囲むように矩形を表示する手順、
を実行させることを特徴とするプログラム。
In the computer of the information processing device,
A procedure in which the execution means executes the application;
A display means for displaying an execution result of the application;
A procedure for the photographing means to photograph the user's palm and convert it to image data,
Analyzing means, analyzing the palm movement based on a plurality of image data from the imaging means, to specify a gesture predefined as the palm movement pattern,
A procedure in which the control means performs a predefined process in association with the application being executed by the execution means and the specified gesture;
In a program that executes
A step of displaying a rectangle so as to surround the palm of the user while the display means performs display corresponding to the specified gesture when a gesture is specified;
A program characterized by having executed.
JP2012236127A 2012-10-25 2012-10-25 Information processing apparatus, information processing method, and program Active JP5831883B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012236127A JP5831883B2 (en) 2012-10-25 2012-10-25 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012236127A JP5831883B2 (en) 2012-10-25 2012-10-25 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2014085966A JP2014085966A (en) 2014-05-12
JP5831883B2 true JP5831883B2 (en) 2015-12-09

Family

ID=50788943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012236127A Active JP5831883B2 (en) 2012-10-25 2012-10-25 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP5831883B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7504575B2 (en) * 2019-10-21 2024-06-24 株式会社東海理化電機製作所 CONTROL DEVICE, COMPUTER PROGRAM, AND AUTHENTICATION SYSTEM
CN114489462B (en) * 2021-12-31 2022-09-27 广州视声智能股份有限公司 Wireless key switch panel and control method thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4267648B2 (en) * 2006-08-25 2009-05-27 株式会社東芝 Interface device and method thereof

Also Published As

Publication number Publication date
JP2014085966A (en) 2014-05-12

Similar Documents

Publication Publication Date Title
JP7089879B2 (en) Robot-based process automation
CN105814522B (en) Device and method for displaying user interface of virtual input device based on motion recognition
RU2591671C2 (en) Edge gesture
US9298266B2 (en) Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US20120268369A1 (en) Depth Camera-Based Relative Gesture Detection
US20120304133A1 (en) Edge gesture
US20120304131A1 (en) Edge gesture
US11706476B2 (en) User terminal apparatus, electronic apparatus, system, and control method thereof
US20110304649A1 (en) Character selection
US20140009395A1 (en) Method and system for controlling eye tracking
JP5344651B2 (en) Information processing apparatus, control method, program, and information processing system
TW201403386A (en) Eye controlling method and system
KR101488662B1 (en) Device and method for providing interface interacting with a user using natural user interface device
JP5963291B2 (en) Method and apparatus for inputting symbols from a touch sensitive screen
TWI442305B (en) A operation method and a system of the multi-touch
JP5831882B2 (en) Information processing apparatus, information processing method, and program
US20140317549A1 (en) Method for Controlling Touchscreen by Using Virtual Trackball
US20130127745A1 (en) Method for Multiple Touch Control Virtual Objects and System thereof
JP5831883B2 (en) Information processing apparatus, information processing method, and program
JP2014085967A (en) Information processing device, information processing method, and program
JP2014085964A (en) Information processing method, information processing device, and program
US20120151409A1 (en) Electronic Apparatus and Display Control Method
JP2014085965A (en) Information processing device, information processing method, and program
TWI699670B (en) Electronic system and method of freezing screen
JP6327834B2 (en) Operation display device, operation display method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151020

R150 Certificate of patent or registration of utility model

Ref document number: 5831883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250