JP2013069341A - Input method - Google Patents

Input method Download PDF

Info

Publication number
JP2013069341A
JP2013069341A JP2013002214A JP2013002214A JP2013069341A JP 2013069341 A JP2013069341 A JP 2013069341A JP 2013002214 A JP2013002214 A JP 2013002214A JP 2013002214 A JP2013002214 A JP 2013002214A JP 2013069341 A JP2013069341 A JP 2013069341A
Authority
JP
Japan
Prior art keywords
motion
input
unit
user
video signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013002214A
Other languages
Japanese (ja)
Other versions
JP5386645B2 (en
Inventor
Takashi Matsubara
孝志 松原
Mayumi Nakade
真弓 中出
Tomoya Ozaki
友哉 尾崎
Arihito Tsukada
有人 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2013002214A priority Critical patent/JP5386645B2/en
Publication of JP2013069341A publication Critical patent/JP2013069341A/en
Application granted granted Critical
Publication of JP5386645B2 publication Critical patent/JP5386645B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an input device that is user-friendly.SOLUTION: The input device relating to this invention includes an input part for receiving a prescribed motion image signal, a motion detection part for performing motion detection form the motion image signal inputted to the input part, a video signal processing part for outputting a prescribed video signal when motion detected by the motion detection part is prescribed motion, and a control part. The control part controls the motion detection part so as not to perform motion detection when the video signal processing part outputs the prescribed video signal.

Description

本発明は、ユーザの指示を入力する入力装置に関する。   The present invention relates to an input device for inputting a user instruction.

グラフィカルユーザインタフェース(以下、GUI)を介してユーザの操作を受け付け
ると同時にユーザに操作結果のフィードバックを与えるパソコンやテレビが普及している
2. Description of the Related Art PCs and televisions that accept user operations via a graphical user interface (hereinafter referred to as GUI) and simultaneously give feedback of operation results to users have become widespread.

たとえば、特許文献1には、人物の手足の動きの特徴を示す点の3次元座標を計測し、
抽出された特徴点のうち手以外の特徴点を利用して人物の3次元位置/姿勢を推定し、推
定されたユーザの3次元位置を基準点としてユーザ姿勢に応じて各座標軸が一意に定まる
ユーザ座標系を構成し、ユーザの手足の特徴点を該ユーザ座標系に変換することで、ユー
ザの位置/姿勢に依存しない特徴量を抽出し、
その時系列変化とジェスチャモデルとのマッチングをとり人物の行なったジェスチャを推
定するジェスチャ認識装置が開示される。
For example, Patent Document 1 measures the three-dimensional coordinates of points indicating the characteristics of the movement of a person's limbs,
Using the feature points other than the hand among the extracted feature points, the three-dimensional position / posture of the person is estimated, and each coordinate axis is uniquely determined according to the user posture using the estimated three-dimensional position of the user as a reference point. By configuring a user coordinate system and converting feature points of the user's limbs to the user coordinate system, feature quantities that do not depend on the user's position / posture are extracted,
A gesture recognition device is disclosed that estimates a gesture performed by a person by matching the time series change with a gesture model.

特開2000−149025JP 2000-149025 A

しかし、特許文献1に記載のジェスチャ認識装置をテレビ等の機器への入力操作に用い
た場合、ユーザを撮像した動画像が、該機器への入力を表すのか否かの区別がすることが
難しい。例えば、該機器への入力を示すためユーザが手で右方向を指し、その後で元に位
置に手を戻した場合、元の位置に手を戻した動きが左方向を指す入力動作として認識され
ることがある。つまり、特許文献1では、ユーザがジェスチャを行った際に、動きのどの
部分を装置への入力として受け付けるかについての仕組みについては考慮されていない。
However, when the gesture recognition device described in Patent Document 1 is used for an input operation to a device such as a television, it is difficult to distinguish whether a moving image captured of a user represents an input to the device. . For example, when the user points to the right with his hand to indicate input to the device and then returns his hand to the original position, the movement of returning his hand to the original position is recognized as an input operation pointing to the left. Sometimes. In other words, Patent Document 1 does not consider a mechanism regarding which part of movement is accepted as an input to the apparatus when the user performs a gesture.

さらに、機器やソフトウェアの操作においては、連続入力を行いたいという要望が存在
する。例えば、テレビを操作する際に、リモコンの音量調整ボタンを連続して押下するこ
とや、チャンネル切換えボタンを連続して押下することである。しかし、特許文献1では
、ジェスチャコマンドにより連続して入力する操作を円滑に行わせることは考慮されてい
ない。
Furthermore, there is a demand for continuous input in the operation of devices and software. For example, when operating a television, continuously pressing a volume control button of a remote controller or continuously pressing a channel switching button. However, in Patent Document 1, it is not considered to smoothly perform an operation of continuously inputting by a gesture command.

そこで、本発明は、かかる事情を考慮した上で、たとえば、ユーザに操作に有効な動作
の提示をすると同時にリアルタイムなフィードバックを与え、さらに連続した入力動作が
可能であり、ユーザにとって使い勝手の良い入力装置を提供することを目的とする。
Therefore, in consideration of such circumstances, the present invention, for example, presents an operation effective for the operation to the user and simultaneously provides real-time feedback, and further allows continuous input operation, which is convenient for the user. An object is to provide an apparatus.

本発明に係る入力装置は、所定の動き画像信号が入力される入力部と、前記入力部に入
力された動き画像信号から動き検出を行う動き検出部と、前記動き検出部により検出され
た動きが所定の動きであった場合に所定の映像信号を出力する映像信号処理部と、制御部
とを備え、前記制御部は、前記映像信号処理部により前記所定の映像信号が出力されてい
る場合には、前記動き検出部は動き検出を行わないように前記動き検出部を制御すること
を特徴とする。
An input device according to the present invention includes an input unit to which a predetermined motion image signal is input, a motion detection unit that performs motion detection from the motion image signal input to the input unit, and the motion detected by the motion detection unit. A video signal processing unit that outputs a predetermined video signal when the video signal is a predetermined motion, and a control unit, wherein the control unit outputs the predetermined video signal by the video signal processing unit The motion detection unit controls the motion detection unit so as not to perform motion detection.

たとえば、ユーザが手を振る動作をした後にはユーザの手が手を振る前の位置に戻る動
作が行われるが、前記アニメーションが継続しており項目が選択途中の状態ではユーザが
手の動きを認識しないことにより、ユーザの手が手を振る前の位置に戻る動きが項目の選
択操作として受け付けられないようにする。
For example, after the user shakes his hand, the user's hand returns to the position before the hand is shaken, but the animation continues and the user moves his hand when the item is being selected. By not recognizing, the movement of returning to the position before the user's hand waved is not accepted as the item selection operation.

本発明によると、たとえば、ユーザに操作に有効な動作の提示をすると同時にリアルタ
イムなフィードバックを与え、さらに連続した入力動作が可能であり、ユーザにとって使
い勝手の良い入力装置を提供することができる。
According to the present invention, for example, it is possible to provide an input device that presents a user with an effective operation for operation and at the same time provides a real-time feedback and can perform a continuous input operation and is convenient for the user.

実施例1の入力装置を示す概観図である。1 is an overview diagram showing an input device of Example 1. FIG. 実施例1の入力装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an input device according to a first embodiment. 実施例1の入力装置のユーザの操作方法を示す概観図である。FIG. 3 is an overview diagram illustrating a user operation method of the input device according to the first embodiment. 実施例1のGUIの動きとユーザの操作の対応を説明する概観図である。FIG. 6 is an overview diagram illustrating correspondence between GUI movement and user operation according to the first exemplary embodiment. 実施例1の入力装置の動作を説明する流れ図である。3 is a flowchart illustrating the operation of the input device according to the first embodiment. 実施例1のGUIの構成を示す概観図である。FIG. 3 is an overview diagram illustrating a configuration of a GUI according to the first embodiment. 実施例2のGUIの動きとユーザの操作の対応を説明する概観図である。FIG. 10 is an overview diagram illustrating a correspondence between a GUI movement and a user operation according to the second embodiment. 実施例2の入力装置の動作を説明する流れ図である。6 is a flowchart illustrating the operation of the input device according to the second embodiment. 実施例3のGUIの動きとユーザの操作の対応を説明する概観図である。FIG. 10 is an overview diagram illustrating a correspondence between a GUI movement and a user operation according to the third embodiment. 実施例3の入力装置の動作を説明する流れ図である。12 is a flowchart illustrating the operation of the input device according to the third embodiment. 実施例4の入力装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an input device according to a fourth embodiment. 実施例4のGUIの動きとポインタの動作の対応を説明する概観図である。FIG. 10 is an overview diagram illustrating correspondence between GUI movement and pointer movement according to the fourth embodiment.

以下、本発明を適用した各実施例について説明する。   Each embodiment to which the present invention is applied will be described below.

本実施例の入力装置100は、ユーザを撮像した動画像からユーザの手の動作を検出し
、該動作に応じてGUIの表示を変更することが可能な装置である。
図1は、表示部101、撮像部102、ユーザ103、メニュー項目104、選択項目1
05、により入力装置100をユーザが使用する際の動作環境の概観を示す。
The input device 100 according to the present exemplary embodiment is a device that can detect an operation of a user's hand from a moving image obtained by capturing an image of the user and change the GUI display according to the operation.
1 shows a display unit 101, an imaging unit 102, a user 103, a menu item 104, and a selection item 1.
05 shows an overview of the operating environment when the user uses the input device 100.

表示部101は、入力装置100の表示装置であり、例えば、液晶ディスプレイやプラ
ズマディスプレイ等の表示装置で構成される。表示部101は、表示パネルとパネル制御
回路とパネル制御ドライバとから構成され、後述する映像処理部202から供給されるデ
ータで構成される映像を表示パネルに表示する。撮像部102は、入力装置100に動画
像を入力するための装置であり、たとえばカメラである。ユーザ103は、入力装置10
0に対して操作を行うユーザである。メニュー項目104は表示部101に表示されるG
UIであり、複数の項目で構成されるメニューである。選択項目105は該メニュー項目
104の項目の中でユーザの操作により選択状態となっている項目である。
The display unit 101 is a display device of the input device 100, and is configured by a display device such as a liquid crystal display or a plasma display, for example. The display unit 101 is composed of a display panel, a panel control circuit, and a panel control driver, and displays a video composed of data supplied from a video processing unit 202 described later on the display panel. The imaging unit 102 is a device for inputting a moving image to the input device 100, and is, for example, a camera. The user 103 uses the input device 10
A user who performs an operation on 0. The menu item 104 is G displayed on the display unit 101.
It is a UI and a menu composed of a plurality of items. A selection item 105 is an item selected from the menu items 104 by a user operation.

入力装置100は、例えば図2に示すように、表示部101、撮像部102、動作検出
(動き検出)部200、システム制御部201、映像処理部202、を備える。
For example, as illustrated in FIG. 2, the input device 100 includes a display unit 101, an imaging unit 102, and motion detection.
A (motion detection) unit 200, a system control unit 201, and a video processing unit 202 are provided.

動作検出(動き検出)部200は、撮像部102から動画像信号を受信し、受信した動画
像信号より人物の動作を検出し、検出した動作を所定のコマンドとして出力する回路であ
る。
The motion detection (motion detection) unit 200 is a circuit that receives a moving image signal from the imaging unit 102, detects a human motion from the received moving image signal, and outputs the detected motion as a predetermined command.

システム制御部201は例えばマイクロプロセッサから構成され、動作検出(動き検出)
部200から受信したコマンドに応じて、映像表示部202の動作を制御する。
The system control unit 201 is composed of, for example, a microprocessor and detects motion (motion detection).
The operation of the video display unit 202 is controlled according to the command received from the unit 200.

映像処理部202は、例えば、ASIC、FPGA、MPU等の処理装置により構成さ
れる。映像処理部202は、システム制御部201の制御に従いGUIの映像データを、
表示部101で処理可能な形態に変換して出力する。
The video processing unit 202 is configured by a processing device such as an ASIC, FPGA, or MPU, for example. The video processing unit 202 converts the GUI video data according to the control of the system control unit 201.
The data is converted into a form that can be processed by the display unit 101 and output.

図3は、本発明の入力装置をユーザが操作する際のユーザの動作を示す。本発明ではユ
ーザが手を左右に振る操作により、ユーザが手を振った方向や速度に応じてメニュー項目
104が移動し、ユーザは手を左右に振る操作で任意の項目を選択項目105の位置に移
動させることにより項目の選択を行うことができる。認識ポイント301は該入力装置が
認識するユーザの手の位置を示している。手の振り302はユーザが該メニュー項目10
4を動かすために手を振った動きを示しており、該入力装置100に入力されるユーザの
操作となる。また、手の戻り303はユーザが手の振り302のように手を振った後に、
ユーザの手が手を振る前の位置に戻る動きを示している。
FIG. 3 shows a user's operation when the user operates the input device of the present invention. In the present invention, the menu item 104 is moved according to the direction and speed of the user's hand waving when the user shakes his / her hand, and the user moves the hand to the left / right to select any item. The item can be selected by moving to. A recognition point 301 indicates the position of the user's hand recognized by the input device. The hand shake 302 indicates that the menu item 10
4 shows a movement of waving a hand to move 4, and a user operation input to the input device 100. In addition, the hand return 303 is performed after the user shakes his / her hand like the hand shake 302.
The movement of the user's hand returning to the position before waving is shown.

図4は入力装置100をユーザが操作する際の、ユーザの手と表示部101に表示され
るGUIの状態を示している。
FIG. 4 shows the state of the GUI displayed on the user's hand and the display unit 101 when the user operates the input device 100.

次に、上記構成の入力装置100の動作を図1、図2、図3、図4、及び図5のフロー
チャートを参照して説明する。
Next, the operation of the input device 100 configured as described above will be described with reference to the flowcharts of FIGS. 1, 2, 3, 4, and 5.

入力装置100は、ユーザを撮像した動画像信号からユーザの手の動作を検出し、該動
作に応じてGUIの表示を変更することが可能な装置である。
The input device 100 is a device that can detect a motion of a user's hand from a moving image signal obtained by capturing an image of the user and change the display of the GUI according to the motion.

先ず、入力装置100がユーザの手の動きを検出し、該動作に応じてGUIの表示を変
更するまでの処理の流れについて、図2を参照して説明する。ユーザが、入力端末100
に対し、図示しない電源ボタンの押下等により、入力端末100の動作を開始させたとす
る。システム制御部201は前記動作の開始に応答して、映像処理部202にGUIの表
示を指示する。映像処理部202は前記指示に応答して、表示部101の入力に適した映
像信号を出力する。これにより、表示部101にはGUIが表示される。
First, the flow of processing until the input device 100 detects the movement of the user's hand and changes the display of the GUI according to the operation will be described with reference to FIG. The user enters the input terminal 100
On the other hand, it is assumed that the operation of the input terminal 100 is started by pressing a power button (not shown). In response to the start of the operation, the system control unit 201 instructs the video processing unit 202 to display a GUI. In response to the instruction, the video processing unit 202 outputs a video signal suitable for input to the display unit 101. As a result, the GUI is displayed on the display unit 101.

また、システム制御部201は前記動作の開始に応答して、撮像機102に対して動画
像の撮像の開始を指示する。撮像機102は前記指示に応答して、動画像の撮像を開始し
、撮像した動画像のデータを動作検出(動き検出)部200に出力する。動作検出(動き検
出)部200は受信した前記動画像から特徴点抽出などの方法を用いてユーザの手の位置
を検出し、該手の位置のデータをシステム制御部201に出力する。システム制御部20
1は該手の位置のデータからユーザの手の動きの方向や速度を算出し、予め決められた方
向に従い、且つ予め決められた速度以上の手の動きであれば、該方向や該速度に従い映像
処理部202にGUIの表示の変更を指示する。映像処理部202は前記指示に応答して
、GUIを構成するデータを変更し、該データに基づく表示部101の入力に適した映像
信号を出力する。これにより、表示部101に表示されるGUIが更新される。
In response to the start of the operation, the system control unit 201 instructs the imaging device 102 to start capturing a moving image. In response to the instruction, the imaging device 102 starts capturing a moving image and outputs the captured moving image data to the motion detection (motion detection) unit 200. The motion detection (motion detection) unit 200 detects the position of the user's hand from the received moving image using a method such as feature point extraction, and outputs the hand position data to the system control unit 201. System control unit 20
1 calculates the direction and speed of the user's hand movement from the hand position data, and follows the predetermined direction, and if the hand movement exceeds the predetermined speed, it follows the direction and the speed. The video processing unit 202 is instructed to change the GUI display. In response to the instruction, the video processing unit 202 changes data constituting the GUI and outputs a video signal suitable for input to the display unit 101 based on the data. Thereby, the GUI displayed on the display unit 101 is updated.

次に、入力装置100が、ユーザが手を動かす操作を入力として受け付ける際の動作の
詳細を図4及び図5のフローチャートを参照しながら説明する。先ず、ユーザは所定の手
順にて入力端末100の操作を開始する(ステップ500)。この時のユーザの手と表示
部101に表示されるGUIの状態の一例を図4の表示1に示す。前記操作の開始を受け
、入力端末100はユーザの手の動きの監視を開始する(ステップ501)。
Next, details of an operation when the input device 100 accepts an operation of moving the hand by the user as an input will be described with reference to the flowcharts of FIGS. 4 and 5. First, the user starts operating the input terminal 100 according to a predetermined procedure (step 500). An example of the state of the GUI displayed on the user's hand and the display unit 101 at this time is shown in a display 1 of FIG. In response to the start of the operation, the input terminal 100 starts monitoring the movement of the user's hand (step 501).

ユーザの手が所定の速度以上の速さで特定の方向に動いた場合(ステップ501:Ye
s)、図4の表示2に示すように、入力端末100はユーザの手が動いた方向や速度に従
いメニュー項目104のアニメーションを開始する。一方、ユーザの手が所定の速度以上
の速さで動いていない場合(ステップ501:No)、入力端末100はユーザの手の動
きの監視を継続する。次に入力装置100はステップ502で開始したアニメーションの
動作の継続状態を監視する(ステップ503:Yes)。
When the user's hand moves in a specific direction at a speed higher than a predetermined speed (step 501: Ye)
s) As shown in display 2 of FIG. 4, the input terminal 100 starts an animation of the menu item 104 in accordance with the direction and speed of movement of the user's hand. On the other hand, when the user's hand is not moving at a speed equal to or higher than the predetermined speed (step 501: No), the input terminal 100 continues to monitor the movement of the user's hand. Next, the input device 100 monitors the continuation state of the animation operation started in step 502 (step 503: Yes).

ここで該アニメーションは所定の時間をかけてメニュー項目104の移動を行う構成と
なっており、入力端末100は該アニメーションが動作中の場合は、前記ユーザの手の動
きの監視を行わない。これにより、図4の表示3に示すように前記アニメーションが動作
中はユーザが手の戻り303の動作を行った場合も、該動作はメニュー項目104の動き
に反映されず、手の振り302に従った操作が反映された状態となる。
Here, the animation is configured to move the menu item 104 over a predetermined time, and the input terminal 100 does not monitor the movement of the user's hand when the animation is operating. As a result, even if the user performs the hand return 303 operation while the animation is operating as shown in the display 3 of FIG. 4, the operation is not reflected in the movement of the menu item 104 and It will be in the state where the operation according to was reflected.

該アニメーションの動作が終わった際には(ステップ503:No)、入力装置100
はユーザが操作の終了を指示したかを確認し、操作が継続される場合は(ステップ504
:No)、再びユーザの手の動きの監視を行う。この時のユーザの手と表示部101に表
示されるGUIの状態は図4の表示4に示す通り、ユーザの手の位置は手の振り302の
動きを行う前の位置になり、メニュー項目104はユーザが手を動かした方向に従い別の
項目が選択された状態となるため、ユーザは再びメニュー項目104に対しての操作を開
始することができる。また、ステップ504において、ユーザが操作の終了を指示した際
は(ステップ504:Yes)、入力装置100はユーザの手の動きの監視等の動作を終
了する(ステップ505)。
When the operation of the animation is finished (step 503: No), the input device 100
Confirms whether the user has instructed to end the operation, and if the operation is continued (step 504).
: No), the movement of the user's hand is monitored again. The user's hand and the state of the GUI displayed on the display unit 101 at this time are as shown in display 4 of FIG. Since another item is selected according to the direction in which the user moves his / her hand, the user can start the operation on the menu item 104 again. In step 504, when the user gives an instruction to end the operation (step 504: Yes), the input device 100 ends the operation such as monitoring the movement of the user's hand (step 505).

このように、入力装置100は、ユーザが手を動かす方向や速度を認識し、該方向や該
速度に応じてメニュー項目104をアニメーションさせ、該アニメーションが動いている
間はユーザの手の動きを認識しないようにする。これにより、ユーザは、手を振って方向
を示した後に手の戻りの動きが認識されることなく手を元の位置に戻すことができるため
、手を振るだけの簡単な操作でメニュー項目の選択等の操作を連続して円滑に行うことが
できる。
As described above, the input device 100 recognizes the direction and speed in which the user moves the hand, animates the menu item 104 according to the direction and the speed, and moves the user's hand while the animation is moving. Do not recognize. As a result, the user can return the hand to the original position without recognizing the return movement of the hand after waving and indicating the direction. Operations such as selection can be performed continuously and smoothly.

また、本実施例では、映像信号処理部により所定の映像信号が出力されている場合には
、動作検出(動き検出)部は動作検出(動き検出)を行わないように構成したが、映像信号処
理部により所定の映像信号が出力されてから時間を制御部が計測し、この時間が所定値を
超えない場合に、動作検出(動き検出)部は動作検出(動き検出)を行わないように動作検出
(動き検出)部を制御してもよい。
Further, in this embodiment, when a predetermined video signal is output from the video signal processing unit, the motion detection (motion detection) unit is configured not to perform motion detection (motion detection). The control unit measures the time from when the predetermined video signal is output by the processing unit, and when this time does not exceed the predetermined value, the motion detection (motion detection) unit does not perform motion detection (motion detection). Motion detection
The (motion detection) unit may be controlled.

なお、前記表示部101に表示されるGUIは、例えば、図6に示すように、ユーザが
手を上下に振る動きで操作できるメニュー構成Aやメニュー構成Bや、ユーザが手を左右
に振る動きで操作できるメニュー構成Cのような構成でもよい。
Note that the GUI displayed on the display unit 101 is, for example, as shown in FIG. 6, menu configuration A or menu configuration B that allows the user to operate by moving his / her hand up or down, or movement that the user shakes his / her hand left or right A configuration such as menu configuration C that can be operated with the

次に、実施例2について説明する。本実施例では、実施例1の入力装置100において
説明した操作方法に加えて、ユーザが手を振る動きが所定の速度以下の場合にもメニュー
項目の操作が行えるようにした操作方法について説明する。入力装置100の構成や表示
部101に表示するGUIの構成は実施例1と同様であり、ユーザが手を振る動きの認識
方法が異なる。
Next, Example 2 will be described. In this embodiment, in addition to the operation method described in the input device 100 according to the first embodiment, an operation method is described in which the menu item can be operated even when the user shakes his or her hand at a predetermined speed or less. . The configuration of the input device 100 and the configuration of the GUI displayed on the display unit 101 are the same as those in the first embodiment, and the method for recognizing the movement of the user's hand is different.

以下、本実施例を図面に基づいて説明する。また、以下において、先の実施例と均等な
ものには同一の符合を付し、その説明は重複を避ける為に割愛する。
Hereinafter, the present embodiment will be described with reference to the drawings. Also, in the following, the same reference numerals are given to those equivalent to the previous embodiment, and the description thereof is omitted to avoid duplication.

図7は本実施例において入力装置100をユーザが操作する際の、ユーザの手と表示部
101に表示されるGUIの状態を示している。ユーザの手の動き701、702は、後
述する入力端末100の操作において、ユーザが所定の速度以下の速さでゆっくりと手を
動かした場合の手の動きを示している。
FIG. 7 shows the user's hand and the state of the GUI displayed on the display unit 101 when the user operates the input device 100 in this embodiment. The user's hand movements 701 and 702 indicate the movement of the hand when the user slowly moves his / her hand at a speed equal to or lower than a predetermined speed in the operation of the input terminal 100 described later.

本実施例の入力装置100の動作を図7及び図8のフローチャートを参照して説明する
The operation of the input device 100 of this embodiment will be described with reference to the flowcharts of FIGS.

先ず、ユーザは所定の手順にて入力端末100の操作を開始する(ステップ800)。
この時のユーザの手と表示部101に表示されるGUIの状態の一例を図7の表示1に示
す。前記操作の開始を受け、入力端末100はユーザの手の動きの監視を開始する(ステ
ップ801)。ユーザの手が特定の方向に動いている場合は(ステップ801:Yes)
、ユーザの手の動きの速度を算出する(ステップ802)。
First, the user starts operating the input terminal 100 in a predetermined procedure (step 800).
An example of the state of the GUI displayed on the user's hand and the display unit 101 at this time is shown in display 1 of FIG. In response to the start of the operation, the input terminal 100 starts monitoring the movement of the user's hand (step 801). When the user's hand is moving in a specific direction (step 801: Yes)
The speed of the user's hand movement is calculated (step 802).

この時、ユーザの手の動きが、所定の速度以上の速さではない場合は(ステップ802
:No)、図7の表示2や表示3に示すようにユーザが手を動かす方向に追従して、ユー
ザの手が動いた方向と動きの大きさに従いメニュー項目104を動かす。一方、ステップ
802においてユーザの手の動きが所定の速度以上の速さで動いた場合には、前記実施例
1と同様の動作となる。
At this time, if the movement of the user's hand is not faster than a predetermined speed (step 802).
: No), the menu item 104 is moved according to the direction and magnitude of the movement of the user's hand following the direction in which the user moves the hand as shown in the display 2 and the display 3 in FIG. On the other hand, when the user's hand moves at a speed equal to or higher than a predetermined speed in step 802, the operation is the same as in the first embodiment.

このように、入力装置100は、ユーザが手を動かす方向や速度を認識し、ユーザの手
の動きが所定の速度以下で動いている場合は、ユーザの手の動きの方向や動きの大きさに
従いメニュー項目104を動かし、ユーザの手の動きが所定の速度以上で動いた場合は、
手が動いた方向や該速度に応じてメニュー項目104のアニメーションを開始し、該アニ
メーションが動いている間はユーザの手の動きを認識しないようにする。
As described above, the input device 100 recognizes the direction and speed of the user's hand movement, and when the user's hand movement is moving at a predetermined speed or less, the direction and magnitude of the user's hand movement. If the menu item 104 is moved according to the above and the user's hand moves at a predetermined speed or higher,
The animation of the menu item 104 is started according to the direction and speed of the hand movement, and the movement of the user's hand is not recognized while the animation is moving.

これにより、ユーザは、小さな手の動きやゆっくりとした手の動きで入力装置100に
ユーザ自身の手の動きが正確に認識されていることを把握することができ、また、ユーザ
はどの程度の速さの手の動きでメニュー項目104の選択項目105の変更を行うことが
できるかを把握することができるため、実施例1の入力装置100の操作方法や操作の状
態をより円滑に把握し、より直感的に操作することできる。
Thereby, the user can grasp that the user's own hand movement is accurately recognized by the input device 100 with a small hand movement or a slow hand movement. Since it is possible to grasp whether the selection item 105 of the menu item 104 can be changed by the movement of the hand at high speed, the operation method and the operation state of the input device 100 according to the first embodiment can be grasped more smoothly. Can be operated more intuitively.

次に、実施例3について説明する。本実施例では、実施例1の入力装置100において
説明した操作方法に加えて、ユーザが手を振る動きでメニュー項目104のアニメーショ
ンが開始され、アニメーションが動いている間にユーザが手を動かし続けている場合は、
ユーザが手を振る方向に関係なく、前記アニメーションの動きを継続する操作が行えるよ
うにした操作方法について説明する。入力装置100の構成や表示部101に表示するG
UIの構成は実施例1と同様であり、ユーザが手を振る動きの認識方法が異なる。
Next, Example 3 will be described. In this embodiment, in addition to the operation method described in the input device 100 of the first embodiment, the animation of the menu item 104 is started by the movement of the user's hand, and the user continues to move the hand while the animation is moving. If you have
A description will be given of an operation method in which an operation for continuing the movement of the animation can be performed regardless of the direction in which the user shakes his / her hand. The configuration of the input device 100 and the G displayed on the display unit 101
The configuration of the UI is the same as that of the first embodiment, and the method for recognizing the movement of the user shaking hands is different.

以下、本実施例を図面に基づいて説明する。また、以下において、先の実施例と均等な
ものには同一の符合を付し、その説明は重複を避ける為に割愛する。
Hereinafter, the present embodiment will be described with reference to the drawings. Also, in the following, the same reference numerals are given to those equivalent to the previous embodiment, and the description thereof is omitted to avoid duplication.

図9は本実施例において入力装置100をユーザが操作する際の、ユーザの手と表示部
101に表示されるGUIの状態を示している。ユーザの手の動き900は、図9の表示
2においてユーザが手を振る動きでメニュー項目104のアニメーションが開始された後
に、ユーザが継続して手を振り続けた際の手の動きを示している。
FIG. 9 shows the user's hand and the state of the GUI displayed on the display unit 101 when the user operates the input device 100 in this embodiment. The user's hand movement 900 shows the movement of the hand when the user continues to shake his / her hand after the animation of the menu item 104 is started by the movement of the user's hand in the display 2 of FIG. Yes.

本実施例の入力装置100の動作を図9及び図10のフローチャートを参照して説明す
る。
The operation of the input device 100 of this embodiment will be described with reference to the flowcharts of FIGS.

先ず、ユーザは所定の手順にて入力端末100の操作を開始する(ステップ1000)
。この時のユーザの手と表示部101に表示されるGUIの状態の一例を図9の表示1に
示す。前記操作の開始を受け、入力端末100はユーザの手の動きの監視を開始する(ス
テップ1001)。ユーザの手が所定の速度以上の速さで特定の方向に動いた場合(ステ
ップ1001:Yes)、図9の表示2に示すように、入力端末100はユーザの手が動
いた方向や速度に従いメニュー項目104のアニメーションを開始する。
First, the user starts operating the input terminal 100 in a predetermined procedure (step 1000).
. An example of a GUI state displayed on the user's hand and the display unit 101 at this time is shown in a display 1 of FIG. In response to the start of the operation, the input terminal 100 starts monitoring the movement of the user's hand (step 1001). When the user's hand moves in a specific direction at a speed equal to or higher than a predetermined speed (step 1001: Yes), the input terminal 100 follows the direction and speed in which the user's hand moves as shown in display 2 of FIG. The animation of the menu item 104 is started.

さらに、入力端末100はユーザの手の動きの監視を継続し(ステップ1003)、ユ
ーザの手が所定の速度以上の速さで動き続けている場合は(ステップ1003:Yes)
、ユーザの手の動きの方向に関係なく、前記アニメーションを継続する。この時、該アニ
メーションは、図9の表示3に示すように、メニュー項目104の選択項目105が前記
アニメーションを開始する際に認識した始めの手の動きに従って、連続して次の項目が選
択されるように動作する。一方、ステップ1003においてユーザの手の動きが所定の速
度以上の速さで動き続けていない場合には、前記実施例1と同様の動作となる。
Further, the input terminal 100 continues to monitor the movement of the user's hand (step 1003), and when the user's hand continues to move at a speed equal to or higher than a predetermined speed (step 1003: Yes).
The animation is continued regardless of the direction of the user's hand movement. At this time, as shown in the display 3 of FIG. 9, the next item is continuously selected according to the movement of the first hand recognized when the selection item 105 of the menu item 104 starts the animation. To work. On the other hand, if the movement of the user's hand does not continue to move at a speed equal to or higher than the predetermined speed in step 1003, the operation is the same as in the first embodiment.

このように、入力装置100は、ユーザが手を動かす方向や速度を認識し、ユーザの手
の動きが所定の速度以上で動いた場合は、手が動いた方向や該速度に応じてメニュー項目
104のアニメーションを開始し、これに続いてユーザの手が所定の速度以上で動き続け
ている場合は、メニュー項目104が同じ方向にアニメーションを続け、選択項目105
が次々と変わるように動作する。
Thus, the input device 100 recognizes the direction and speed in which the user moves his / her hand, and if the user's hand moves at a predetermined speed or higher, the menu item depends on the direction or speed in which the user moves. When the animation of 104 is started and the user's hand continues to move at a predetermined speed or higher, the menu item 104 continues to animate in the same direction, and the selection item 105
Works to change one after another.

これにより、ユーザは、連続したメニュー項目の選択を行う場合は、はじめにメニュー
項目を動かす方向に手を振り、その後は手を振る方向に関係なく手を動かし続けるだけで
次々と項目を選択することができるため、より円滑に連続したメニュー項目の選択を行う
ことができる。
As a result, when selecting a series of menu items, the user must first shake the hand in the direction in which the menu item is moved, and then select items one after another by continuing to move the hand regardless of the direction in which the hand is shaken. Therefore, menu items can be selected more smoothly and continuously.

次に、実施例4について説明する。本実施例では、実施例1の入力装置100において
、マウスやタッチパッドなどのいわゆるポインティングデバイスや加速度センサ等のセン
サデバイスを介した入力が可能な場合に、実施例1と同等の操作方法を実現する入力装置
について説明する。
Next, Example 4 will be described. In the present embodiment, when the input device 100 according to the first embodiment can input via a so-called pointing device such as a mouse or a touch pad or a sensor device such as an acceleration sensor, an operation method equivalent to that of the first embodiment is realized. The input device to be described will be described.

以下、本実施例を図面に基づいて説明する。また、以下において、先の実施例と均等な
ものには同一の符合を付し、その説明は重複を避ける為に割愛する
実施例4の入力装置200は、マウスやタッチパッドなどのいわゆるポインティングデ
バイスや加速度センサ等のセンサデバイス介した入力が可能であり、図11に示すように
、入力部1100によりシステム制御部202に動き情報(ポインティング情報や方向を
示す情報)が入力される構成となっている。
Hereinafter, the present embodiment will be described with reference to the drawings. In addition, in the following, the same reference numerals are assigned to the equivalents of the previous embodiment, and the description is omitted to avoid duplication. The input device 200 of the fourth embodiment is a so-called pointing device such as a mouse or a touchpad As shown in FIG. 11, motion information (pointing information and information indicating direction) is input to the system control unit 202 by the input unit 1100 as shown in FIG. Yes.

また、図12は本実施例において入力装置100をユーザが操作する際の、入力部11
00から得られる入力結果の状態と表示部101に表示されるGUIの状態を示している
。カーソル1200は該入力結果に基づき画面上の特定の座標の位置が示されるカーソル
である。本実施例では、該カーソル1200の動きを、実施例1におけるユーザの手の動
きと同等に扱うことにより、ユーザは実施例1と同様の操作を行うことができる。また、
入力部1100が加速度センサ等のセンサデバイスで構成される場合は、カーソル120
0が表示部101に表示されることなく、該センサデバイスの出力情報を、実施例1にお
けるユーザの手の動きの情報と同等に扱うことにより、ユーザは実施例1と同様の操作を
行うことができる。
FIG. 12 shows the input unit 11 when the user operates the input device 100 in this embodiment.
The state of the input result obtained from 00 and the state of the GUI displayed on the display unit 101 are shown. A cursor 1200 is a cursor indicating the position of a specific coordinate on the screen based on the input result. In the present embodiment, the user can perform the same operation as in the first embodiment by handling the movement of the cursor 1200 equivalent to the movement of the user's hand in the first embodiment. Also,
When the input unit 1100 is configured by a sensor device such as an acceleration sensor, the cursor 120
By displaying the output information of the sensor device equivalent to the information on the movement of the user's hand in the first embodiment without displaying 0 on the display unit 101, the user performs the same operation as in the first embodiment. Can do.

これにより、本実施例の入力装置100は、入力装置100が前記撮像部102等の入
力手段を有さない場合も、ユーザは実施例1と同様の方法により、従来のポインティング
操作のような細かい操作を必要とせず、入力部1100に特定の方向に対する大きな動き
を入力するだけで、円滑にメニュー項目を選択する操作を行うことができる。
As a result, the input device 100 according to the present embodiment allows the user to perform the same operation as in the conventional pointing operation using the same method as in the first embodiment, even when the input device 100 does not include the input unit such as the imaging unit 102. An operation for smoothly selecting a menu item can be performed simply by inputting a large movement in a specific direction to the input unit 1100 without any operation.

100・・・入力装置、
101・・・表示部、
102・・・撮像部、
103・・・ユーザ、
104・・・メニュー項目、
105・・・選択項目、
200・・・動作検出(動き検出)部、
201・・・システム制御部、
202・・・映像処理部、
301・・・認識ポイント、
302・・・手の振り、
303・・・手の戻り、
701・・・手の動き、
702・・・手の動き、
900・・・手の動き、
1100・・・入力部、
1200・・・カーソル、
100 ... input device,
101 ... display unit,
102 ... Imaging unit,
103 ... user,
104 ... menu item,
105 ... selection item,
200: Motion detection (motion detection) unit,
201 ... system control unit,
202... Video processing unit,
301 ... recognition point,
302 ... Shaking hands,
303 ・ ・ ・ Return of hand,
701 ... Hand movement,
702 ... hand movement,
900 ... hand movement,
1100 ... input section,
1200 ... cursor,

Claims (10)

所定の動き画像信号が入力される入力部と、
前記入力部に入力された動き画像信号から動き検出を行う動き検出部と、
前記動き検出部により検出された動きが所定の動きであった場合に所定の映像信号を出
力する映像信号処理部と、
制御部とを備え、
前記制御部は、前記映像信号処理部により前記所定の映像信号が出力されている場合に
は、前記動き検出部は動き検出を行わないように前記動き検出部を制御することを特徴と
する入力装置。
An input unit to which a predetermined motion image signal is input;
A motion detection unit that performs motion detection from the motion image signal input to the input unit;
A video signal processor that outputs a predetermined video signal when the motion detected by the motion detector is a predetermined motion;
A control unit,
The control unit controls the motion detection unit so that the motion detection unit does not perform motion detection when the predetermined video signal is output by the video signal processing unit. apparatus.
請求項1に記載の入力装置において、
前記制御部は、前記映像信号処理部により前記所定の映像信号が出力されてから所定の
期間は、前記動き検出部は動き検出を行わないように前記動き検出部を制御することを特
徴とする入力装置。
The input device according to claim 1,
The control unit controls the motion detection unit so that the motion detection unit does not perform motion detection for a predetermined period after the predetermined video signal is output by the video signal processing unit. Input device.
請求項1に記載の入力装置において、
前記動き検出部は前記入力部に入力された動き画像信号の動きの速度を検出し、
前記制御部は、前記検出された動きの速度に応じた動きの映像を出力するように前記映
像信号処理部を制御することを特徴とする入力装置。
The input device according to claim 1,
The motion detection unit detects the speed of motion of the motion image signal input to the input unit,
The input unit, wherein the control unit controls the video signal processing unit so as to output a video of motion according to the detected speed of motion.
請求項1に記載の入力装置において、
前記動き検出部は前記入力部に入力された動き画像信号の動きの速度を検出し、
前記制御部は、前記検出された動きの速度の大きさが所定値以上の場合、連続的に映像
を出力するように前記映像信号処理部を制御することを特徴とする入力装置。
The input device according to claim 1,
The motion detection unit detects the speed of motion of the motion image signal input to the input unit,
The input device according to claim 1, wherein the control unit controls the video signal processing unit to continuously output video when the magnitude of the detected speed of motion is a predetermined value or more.
所定の動き画像信号が入力される入力部と、
前記入力部に入力された動き画像信号から動き検出を行う動き検出部と、
前記動き検出部により検出された動きが所定の動きであった場合に所定の映像信号を出
力する映像信号処理部と、
前記映像信号処理部から出力を表示する表示部と、
制御部とを備え、
前記制御部は、前記映像信号処理部により前記所定の映像信号が出力されている場合に
は、前記動き検出部は動き検出を行わないように前記動き検出部を制御することを特徴と
する表示装置。
An input unit to which a predetermined motion image signal is input;
A motion detection unit that performs motion detection from the motion image signal input to the input unit;
A video signal processor that outputs a predetermined video signal when the motion detected by the motion detector is a predetermined motion;
A display unit for displaying an output from the video signal processing unit;
A control unit,
The control unit controls the motion detection unit so that the motion detection unit does not perform motion detection when the predetermined video signal is output by the video signal processing unit. apparatus.
請求項5に記載の表示装置において、
前記制御部は、前記映像信号処理部により前記所定の映像信号が出力されてから所定の
期間は、前記動き検出部は動き検出を行わないように前記動き検出部を制御することを特
徴とする表示装置。
The display device according to claim 5,
The control unit controls the motion detection unit so that the motion detection unit does not perform motion detection for a predetermined period after the predetermined video signal is output by the video signal processing unit. Display device.
請求項5に記載の表示装置において、
前記動き検出部は前記入力部に入力された動き画像信号の動きの速度を検出し、
前記制御部は、前記検出された動きの速度に応じた動きの映像を出力するように前記映
像信号処理部を制御することを特徴とする表示装置。
The display device according to claim 5,
The motion detection unit detects the speed of motion of the motion image signal input to the input unit,
The display device, wherein the control unit controls the video signal processing unit so as to output a video of a motion corresponding to the speed of the detected motion.
請求項5に記載の表示装置において、
前記動き検出部は前記入力部に入力された動き画像信号の動きの速度を検出し、
前記制御部は、前記検出された動きの速度の大きさが所定値以上の場合、連続的に映像
を出力するように前記映像信号処理部を制御することを特徴とする表示装置。
The display device according to claim 5,
The motion detection unit detects the speed of motion of the motion image signal input to the input unit,
The display device, wherein the control unit controls the video signal processing unit to continuously output video when the magnitude of the speed of the detected motion is equal to or greater than a predetermined value.
所定の動き情報が入力される入力部と、
前記入力部により入力された動きが所定の動き情報であった場合に所定の映像信号を出
力する映像信号処理部と、
制御部とを備え、
前記制御部は、前記映像信号処理部により前記所定の映像信号が出力されている場合に
は、前記入力部は動き情報の入力を行わないように前記動き検出部を制御することを特徴
とする入力装置。
An input unit for inputting predetermined motion information;
A video signal processing unit that outputs a predetermined video signal when the motion input by the input unit is predetermined motion information;
A control unit,
The control unit controls the motion detection unit so that the input unit does not input motion information when the predetermined video signal is output by the video signal processing unit. Input device.
請求項9に記載の入力装置において、
前記所定の動き情報は、少なくともポインティング情報又は方向を示す情報のいずれか
1つを含むことを特徴とする入力装置。
The input device according to claim 9, wherein
The input device, wherein the predetermined motion information includes at least one of pointing information and information indicating a direction.
JP2013002214A 2013-01-10 2013-01-10 input method Active JP5386645B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013002214A JP5386645B2 (en) 2013-01-10 2013-01-10 input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013002214A JP5386645B2 (en) 2013-01-10 2013-01-10 input method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008249510A Division JP5183398B2 (en) 2008-09-29 2008-09-29 Input device

Publications (2)

Publication Number Publication Date
JP2013069341A true JP2013069341A (en) 2013-04-18
JP5386645B2 JP5386645B2 (en) 2014-01-15

Family

ID=48474879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013002214A Active JP5386645B2 (en) 2013-01-10 2013-01-10 input method

Country Status (1)

Country Link
JP (1) JP5386645B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015064660A (en) * 2013-09-24 2015-04-09 株式会社三菱東京Ufj銀行 Information processor and program
JP2015135572A (en) * 2014-01-16 2015-07-27 キヤノン株式会社 Information processing apparatus and control method of the same
JP2017194767A (en) * 2016-04-19 2017-10-26 株式会社東海理化電機製作所 Gesture discrimination device
JP2020107092A (en) * 2018-12-27 2020-07-09 株式会社コロプラ Program, method and information processing apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6011822B2 (en) * 2014-09-11 2016-10-19 パナソニックIpマネジメント株式会社 Transaction processing apparatus, transaction processing method, program, and transaction processing system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185369A (en) * 1997-09-11 1999-03-30 Toshiba Corp Device and method for indicating instruction, and device and method for automatic transaction
JP2007072564A (en) * 2005-09-05 2007-03-22 Sony Computer Entertainment Inc Multimedia reproduction apparatus, menu operation reception method, and computer program
JP2009537924A (en) * 2006-05-24 2009-10-29 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド Controlling data processing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185369A (en) * 1997-09-11 1999-03-30 Toshiba Corp Device and method for indicating instruction, and device and method for automatic transaction
JP2007072564A (en) * 2005-09-05 2007-03-22 Sony Computer Entertainment Inc Multimedia reproduction apparatus, menu operation reception method, and computer program
JP2009537924A (en) * 2006-05-24 2009-10-29 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド Controlling data processing

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015064660A (en) * 2013-09-24 2015-04-09 株式会社三菱東京Ufj銀行 Information processor and program
JP2015135572A (en) * 2014-01-16 2015-07-27 キヤノン株式会社 Information processing apparatus and control method of the same
JP2017194767A (en) * 2016-04-19 2017-10-26 株式会社東海理化電機製作所 Gesture discrimination device
JP2020107092A (en) * 2018-12-27 2020-07-09 株式会社コロプラ Program, method and information processing apparatus
JP7271171B2 (en) 2018-12-27 2023-05-11 株式会社コロプラ Program, method and information processing device

Also Published As

Publication number Publication date
JP5386645B2 (en) 2014-01-15

Similar Documents

Publication Publication Date Title
JP5183398B2 (en) Input device
JP5256109B2 (en) Display device
JP5205195B2 (en) Method of operation
US8693732B2 (en) Computer vision gesture based control of a device
JP5386645B2 (en) input method
US9405373B2 (en) Recognition apparatus
EP2908215B1 (en) Method and apparatus for gesture detection and display control
JP5581817B2 (en) Control system, control device, handheld device, control method and program.
JP2011081469A (en) Input device
CN103797513A (en) Computer vision based two hand control of content
US20140022171A1 (en) System and method for controlling an external system using a remote device with a depth sensor
JP5921981B2 (en) Video display device and video display method
JP2012027515A (en) Input method and input device
WO2013124845A1 (en) Computer vision based control of an icon on a display
JP2013114647A (en) Gesture input system
JP2015135572A (en) Information processing apparatus and control method of the same
JP2016095557A (en) Display control device and display control method
JP2006268212A (en) Instruction input device
JP6289655B2 (en) Screen operation apparatus and screen operation method
JP6008904B2 (en) Display control apparatus, display control method, and program
JP2013109538A (en) Input method and device
TW201419051A (en) Remote control system and method for computer
KR101394604B1 (en) method for implementing user interface based on motion detection and apparatus thereof
JP2015122124A (en) Information apparatus with data input function by virtual mouse
KR100758985B1 (en) Image display apparatus for operating user interface and method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130110

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131007

R150 Certificate of patent or registration of utility model

Ref document number: 5386645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250