JP2005332061A - Operation unit, operation input terminal, operation method, and operation program - Google Patents

Operation unit, operation input terminal, operation method, and operation program Download PDF

Info

Publication number
JP2005332061A
JP2005332061A JP2004147925A JP2004147925A JP2005332061A JP 2005332061 A JP2005332061 A JP 2005332061A JP 2004147925 A JP2004147925 A JP 2004147925A JP 2004147925 A JP2004147925 A JP 2004147925A JP 2005332061 A JP2005332061 A JP 2005332061A
Authority
JP
Japan
Prior art keywords
movement
image
camera device
feature point
data structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004147925A
Other languages
Japanese (ja)
Inventor
Masahiro Yuguchi
昌宏 湯口
Ken Tsutsuguchi
けん 筒口
Yoshinobu Tonomura
佳伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004147925A priority Critical patent/JP2005332061A/en
Publication of JP2005332061A publication Critical patent/JP2005332061A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an operation unit capable of intuitive and easy-to-understand operation input. <P>SOLUTION: The operation unit 9 for inputting operation, based on the travel of the position of a camera device 10 includes a photographing means for acquiring images photographed by the camera device 10; an operation detection means for detecting the travel of the position of the camera device 10 based on the images; and an operation outputting means for outputting operation correlated with the travel of the detected position. The operation detection means performs forward travel detection in which the camera device 10 travels in a direction for approaching an object to be photographed, when an image is enlarged in time series, and performs backward travel in which the camera device 10 travels in a direction moving away from the object to be photographed, when the image is shrunk in time series. The operation outputting means outputs operation corresponding to the travel. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、操作装置、操作入力端末、操作方法、および、操作プログラムに関する。   The present invention relates to an operation device, an operation input terminal, an operation method, and an operation program.

従来、携帯端末などの操作は、ボタンを押すことによって行われることが主となっている。さらに、端末の大きさによる制約から、ボタンの数はキーボードと比べ大変少なく、ボタン自体も小さくなっている。このため、利用者は、携帯端末を操作するために、ボタン押し動作を繰り返さなければならず、とても不便である。   Conventionally, the operation of a portable terminal or the like is mainly performed by pressing a button. In addition, due to restrictions on the size of the terminal, the number of buttons is very small compared to the keyboard, and the buttons themselves are also small. For this reason, in order to operate a portable terminal, a user must repeat a button press operation, which is very inconvenient.

このボタン押し動作を軽減する技術として、本願出願人による「携帯電話機用入力方法、および携帯電話機」がある(特許文献1)。これは、携帯端末の操作の際に、利用者の唇の動きなどから発話単語を認識することで、文章入力や端末操作の際のユーザのボタン押し動作を軽減する、というものである。この技術を用いれば、携帯端末の操作時のボタン押し操作を減らすことができる。
特開2002−252682号公報(段落[0007])
As a technique for reducing this button pressing operation, there is “a mobile phone input method and a mobile phone” by the applicant of the present application (Patent Document 1). This is to reduce the user's button press operation during text input or terminal operation by recognizing the spoken word from the movement of the user's lips during the operation of the mobile terminal. If this technique is used, the button press operation at the time of operation of a portable terminal can be reduced.
Japanese Patent Laying-Open No. 2002-252682 (paragraph [0007])

しかしながら、特許文献1などの従来の技術は、ボタン押しの操作や、口を動かしての操作など、操作が直感的ではなく、わかりにくいという問題があった。例えば、ボタン押しの操作では、1つのボタンに複数の操作が割り当てられたりしていたりするので、ボタンと操作との対応を、ユーザは正確に把握することが必要となり、操作性に難点があった。また、口を動かしての操作も同様に、ユーザは、口の動かし方と、その動かし方に対応付けられた操作を把握する負担を強いられる。   However, conventional techniques such as Patent Document 1 have a problem that operations such as a button pressing operation and a mouth moving operation are not intuitive and difficult to understand. For example, when a button is pressed, a plurality of operations are assigned to one button. Therefore, the user needs to accurately grasp the correspondence between the button and the operation, and there is a difficulty in operability. It was. Similarly, when the user moves the mouth, the user is forced to bear a burden of grasping how to move the mouth and the operation associated with the moving method.

そこで、本発明は、前記した問題を解決し、直感的でわかりやすい操作入力が可能な操作装置を提供することを、主な目的とする。   SUMMARY OF THE INVENTION Accordingly, it is a primary object of the present invention to provide an operating device that solves the above-described problems and enables intuitive and easy-to-understand operation input.

前記課題を解決するため、請求項1に記載の操作装置は、カメラ装置の位置の移動を元に操作を入力させる操作装置であって、
前記操作装置は、前記カメラ装置によって撮影された画像を取得する撮影手段と、前記画像をもとにカメラ装置の位置の移動を検出する操作検出手段と、前記検出された位置の移動に対応づけられている動作を出力する動作出力手段と、を含めて構成され、
前記操作検出手段は、前記画像が時系列に拡大されている場合に、前記カメラ装置が撮影対象に接近する方向へ移動する前移動として検出し、前記画像が時系列に縮小されている場合に、前記カメラ装置が撮影対象から遠ざかる方向へ移動する後移動として検出し、
前記動作出力手段は、前記前移動に対応する動作または前記後移動に対応づけられている動作のうち、少なくとも1つの動作を出力することを特徴とする。
In order to solve the above problem, the operation device according to claim 1 is an operation device that inputs an operation based on a movement of a position of a camera device,
The operating device is associated with a photographing unit that acquires an image photographed by the camera device, an operation detecting unit that detects a movement of the position of the camera device based on the image, and a movement of the detected position. Operation output means for outputting the operation being performed, and
When the image is enlarged in time series, the operation detection means detects the camera device as a pre-movement that moves in a direction approaching the shooting target, and the image is reduced in time series. , Detected as a movement after the camera device moves away from the object to be photographed,
The operation output means outputs at least one of an operation corresponding to the forward movement and an operation associated with the backward movement.

これにより、ユーザは、カメラ装置の位置の移動という直感的でわかりやすい操作入力方法によって、効率的に操作を入力することができる。   Thereby, the user can efficiently input an operation by an intuitive and easy-to-understand operation input method of moving the position of the camera device.

請求項2に記載の操作装置は、請求項1に記載の操作装置であって、前記操作装置は、階層化されたデータ構造へのアクセスを行うものとし、
前記前移動に対応づけられている動作は、前記データ構造を下位の階層へアクセスする動作とし、
前記後移動に対応づけられている動作は、前記データ構造を上位の階層へアクセスする動作とすることを特徴とする。
The operation device according to claim 2 is the operation device according to claim 1, wherein the operation device accesses a hierarchical data structure,
The operation associated with the previous movement is an operation of accessing the data structure to a lower hierarchy,
The operation associated with the post-movement is an operation for accessing the data structure to a higher hierarchy.

これにより、ユーザは、Webページなどの階層構造をもつデータに対して、あたかも積まれた書類であるかのようにアクセスすることができるので、アクセス操作を直感的に行うことができる。   As a result, the user can access data having a hierarchical structure such as a Web page as if it were a stacked document, so that an access operation can be performed intuitively.

請求項3に記載の操作装置は、請求項1または請求項2に記載の操作装置であって、前記操作検出手段は、前記画像から抽出される特徴点の位置の移動情報をもとに、前記画像の拡大または縮小を検出することを特徴とする。   The operation device according to claim 3 is the operation device according to claim 1 or 2, wherein the operation detection means is based on movement information of the position of the feature point extracted from the image. An enlargement or reduction of the image is detected.

これにより、カメラ装置の撮影画像からカメラ装置の位置の移動を取得することにより、カメラ装置を有する携帯電話などの、既存の資産を有効に活用することができる。   Thereby, by acquiring the movement of the position of the camera device from the captured image of the camera device, it is possible to effectively use existing assets such as a mobile phone having the camera device.

請求項4に記載の操作装置は、請求項3に記載の操作装置であって、前記特徴点は、前記画像から抽出される全ての特徴点の集合から、所定の選択窓の範囲内に位置する特徴点の集合を部分抽出して構成されることを特徴とする。   The operation device according to claim 4 is the operation device according to claim 3, wherein the feature points are located within a predetermined selection window from a set of all feature points extracted from the image. It is characterized in that it is constructed by partially extracting a set of feature points.

これにより、選択窓によって信頼度の高い特徴点が選択されて、その選択された特徴点をもとに、画像処理が行われるので、画像処理の精度が向上する。   Thereby, feature points with high reliability are selected by the selection window, and image processing is performed based on the selected feature points, so that the accuracy of image processing is improved.

請求項5に記載の操作装置は、請求項1ないし請求項4のいずれか1項に記載の操作装置であって、前記操作検出手段は、前記画像が時系列に平行移動されている場合に、平行移動されている方向を検出し、
前記動作出力手段は、前記平行移動されている方向へカーソルを移動させる動作を出力することを特徴とする。
The operation device according to claim 5 is the operation device according to any one of claims 1 to 4, wherein the operation detection means is used when the image is translated in time series. Detect the direction of translation,
The operation output means outputs an operation of moving a cursor in the parallel movement direction.

これにより、ユーザは、カメラ装置を3次元的に動かすことで、操作を直感的に行うことができる。   Accordingly, the user can intuitively perform the operation by moving the camera device three-dimensionally.

請求項6に記載の操作入力端末は、カメラ装置の位置の移動を元に操作を入力させる操作入力端末であって、
前記操作入力端末は、前記カメラ装置によって撮影された画像を取得する撮影手段と、前記画像をもとに検出されたカメラ装置の位置の移動に対応づけられている動作を出力する動作出力手段と、を含めて構成され、
前記カメラ装置の位置の移動は、前記カメラ装置が撮影対象に接近する方向へ移動する前移動、または、前記カメラ装置が撮影対象から遠ざかる方向へ移動する後移動のうち、少なくとも1つから構成され、
前記動作出力手段は、前記前移動に対応する動作または前記後移動に対応づけられている動作のうち、少なくとも1つの動作を出力することを特徴とする。
The operation input terminal according to claim 6 is an operation input terminal that inputs an operation based on the movement of the position of the camera device,
The operation input terminal includes a photographing unit that acquires an image photographed by the camera device, and an operation output unit that outputs an operation associated with the movement of the position of the camera device detected based on the image. , Including,
The movement of the position of the camera device includes at least one of a pre-movement in which the camera device moves in a direction approaching the object to be imaged and a post-movement in which the camera device moves in a direction away from the object to be imaged. ,
The operation output means outputs at least one of an operation corresponding to the forward movement and an operation associated with the backward movement.

これにより、ユーザは、カメラ装置の位置の移動という直感的でわかりやすい操作入力方法によって、効率的に操作を入力することができる。   Thereby, the user can efficiently input an operation by an intuitive and easy-to-understand operation input method of moving the position of the camera device.

請求項7に記載の操作入力端末は、請求項6に記載の操作入力端末であって、前記操作入力端末は、階層化されたデータ構造へのアクセスを行うものとし、
前記前移動に対応づけられている動作は、前記データ構造を下位の階層へアクセスする動作とし、
前記後移動に対応づけられている動作は、前記データ構造を上位の階層へアクセスする動作とすることを特徴とする。
The operation input terminal according to claim 7 is the operation input terminal according to claim 6, wherein the operation input terminal performs access to a hierarchical data structure,
The operation associated with the previous movement is an operation of accessing the data structure to a lower hierarchy,
The operation associated with the post-movement is an operation for accessing the data structure to a higher hierarchy.

これにより、ユーザは、Webページなどの階層構造をもつデータに対して、あたかも積まれた書類であるかのようにアクセスすることができるので、アクセス操作を直感的に行うことができる。   As a result, the user can access data having a hierarchical structure such as a Web page as if it were a stacked document, so that an access operation can be performed intuitively.

請求項8に記載の操作方法は、カメラ装置の位置の移動を元に操作を入力させる操作方法であって、
コンピュータが、前記カメラ装置によって撮影された画像を取得する撮影手順と、前記画像をもとにカメラ装置の位置の移動を検出する操作検出手順と、前記検出された位置の移動に対応づけられている動作を出力する動作出力手順と、を実行し、
前記操作検出手順は、前記画像が時系列に拡大されている場合に、前記カメラ装置が撮影対象に接近する方向へ移動する前移動として検出し、前記画像が時系列に縮小されている場合に、前記カメラ装置が撮影対象から遠ざかる方向へ移動する後移動として検出し、
前記動作出力手順は、前記前移動に対応する動作または前記後移動に対応づけられている動作のうち、少なくとも1つの動作を出力することを特徴とする。
The operation method according to claim 8 is an operation method for inputting an operation based on the movement of the position of the camera device,
The computer is associated with a shooting procedure for acquiring an image shot by the camera device, an operation detection procedure for detecting a movement of the position of the camera device based on the image, and a movement of the detected position. And an operation output procedure for outputting the operation being performed, and
The operation detection procedure detects when the camera device is moved in a direction approaching the object to be photographed when the image is enlarged in time series, and when the image is reduced in time series. , Detected as a movement after the camera device moves away from the object to be photographed,
The operation output procedure outputs at least one of the operations corresponding to the forward movement or the movements associated with the backward movement.

これにより、ユーザは、カメラ装置の位置の移動という直感的でわかりやすい操作入力方法によって、効率的に操作を入力することができる。   Thereby, the user can efficiently input an operation by an intuitive and easy-to-understand operation input method of moving the position of the camera device.

請求項9に記載の操作方法は、請求項8に記載の操作方法であって、前記コンピュータは、階層化されたデータ構造へのアクセスを行うものとし、
前記前移動に対応づけられている動作は、前記データ構造を下位の階層へアクセスする動作とし、
前記後移動に対応づけられている動作は、前記データ構造を上位の階層へアクセスする動作とすることを特徴とする。
The operation method according to claim 9 is the operation method according to claim 8, wherein the computer accesses a hierarchical data structure,
The operation associated with the previous movement is an operation of accessing the data structure to a lower hierarchy,
The operation associated with the post-movement is an operation for accessing the data structure to a higher hierarchy.

これにより、ユーザは、Webページなどの階層構造をもつデータに対して、あたかも積まれた書類であるかのようにアクセスすることができるので、アクセス操作を直感的に行うことができる。   As a result, the user can access data having a hierarchical structure such as a Web page as if it were a stacked document, so that an access operation can be performed intuitively.

請求項10に記載の操作プログラムは、請求項8または請求項9に記載の操作方法をコンピュータに実行させることを特徴とする。   An operation program according to a tenth aspect causes a computer to execute the operation method according to the eighth or ninth aspect.

これにより、ユーザは、カメラ装置の位置の移動という直感的でわかりやすい操作入力方法によって、効率的に操作を入力することができる。   Thereby, the user can efficiently input an operation by an intuitive and easy-to-understand operation input method of moving the position of the camera device.

本発明は、カメラを前後に動かすことで、選択ボタンやクリアボタンなどを押さなければならなかった操作を、直感的に行うことを特徴とする。この効果として、Webページのリンクを辿っていく操作を行う際に、ユーザはカメラ装置を前後に動かす操作を行うことになり、ユーザはWebページがあたかも立体的に存在しているように閲覧することが可能となる。   The present invention is characterized by intuitively performing an operation that had to press a selection button, a clear button, or the like by moving the camera back and forth. As an effect, when performing an operation of following the link of the Web page, the user performs an operation of moving the camera device back and forth, and the user views the Web page as if it existed in three dimensions. It becomes possible.

また、本発明では、画像から抽出される特徴点のトラッキングの際に、特徴点の選択窓を適用していることにより、トラッキングにかかる計算負荷を減らすことが可能になる。   In the present invention, the feature point selection window is applied when tracking the feature points extracted from the image, thereby reducing the calculation load for tracking.

さらに、ズーム検出のための参照フレーム数を各フレーム間で検出される特徴点の移動距離により変化させることにより、ズーム検出精度を向上することが可能になる。   Furthermore, the zoom detection accuracy can be improved by changing the number of reference frames for zoom detection according to the movement distance of the feature point detected between the frames.

以下に、本発明が適用される操作装置の一実施形態について、図面を参照して詳細に説明する。まず、本実施形態の操作装置の構成について、図1、図2、図5、図6、図7を参照して説明する。   Hereinafter, an embodiment of an operating device to which the present invention is applied will be described in detail with reference to the drawings. First, the configuration of the operating device according to the present embodiment will be described with reference to FIGS. 1, 2, 5, 6, and 7.

図7に示されるように本実施形態の操作装置9は、例えばユーザによって把持され、操作装置9のカメラ装置10が、画像を撮影する。ユーザは、カメラ装置10を3次元的に動かして、カメラ装置10の位置を移動させる。そして、操作装置9は、撮影された画像から、カメラ装置10の移動を検出する。   As illustrated in FIG. 7, the operation device 9 according to the present embodiment is held by a user, for example, and the camera device 10 of the operation device 9 captures an image. The user moves the camera device 10 three-dimensionally to move the position of the camera device 10. Then, the controller device 9 detects the movement of the camera device 10 from the captured image.

操作装置9に撮影画像を提供するカメラ装置10の移動方向について、図5を参照して説明する。図5は、カメラ装置10が、3次元の空間に配置された図である。3次元の空間は、X軸、Y軸、Z軸によって表現される。ここで、カメラ装置10は、撮影するためのレンズがZ軸の方向を向いているものとする。   The moving direction of the camera device 10 that provides a captured image to the operation device 9 will be described with reference to FIG. FIG. 5 is a diagram in which the camera device 10 is arranged in a three-dimensional space. A three-dimensional space is represented by an X axis, a Y axis, and a Z axis. Here, it is assumed that the camera device 10 has a lens for photographing in the Z-axis direction.

この場合、カメラ装置10を前後に移動することは、カメラ装置10をZ軸の方向に移動することを示す。さらに、カメラ装置10が前に移動することは、カメラ装置10が撮影対象に接近する旨を示し、カメラ装置10が後に移動することは、カメラ装置10が撮影対象から遠ざかる旨を示す。そして、カメラ装置10が左右に移動することは、カメラ装置10がX軸の方向に移動することを示し、カメラ装置10が上下に移動することは、カメラ装置10がY軸の方向に移動することを示す。   In this case, moving the camera device 10 back and forth indicates moving the camera device 10 in the Z-axis direction. Furthermore, the camera device 10 moving forward indicates that the camera device 10 approaches the object to be imaged, and the camera device 10 moving later indicates that the camera device 10 moves away from the object to be imaged. When the camera device 10 moves to the left and right, the camera device 10 moves in the direction of the X axis, and when the camera device 10 moves up and down, the camera device 10 moves in the direction of the Y axis. It shows that.

ここで、ユーザがカメラ装置10を把持する場合などでは、移動範囲が限定されることもある。例えば、ユーザが前移動による決定動作を入力させたい場合に、既にユーザの手が伸びきってしまっている場合や、カメラ装置10の移動先に障害物が存在する場合には、カメラ装置10の物理的な移動に制約が生じる。
そこで、カメラ装置10は、移動による操作の入力を受け付けるか否かをユーザに指定させる手段として、ボタンなどによる操作有効期間指定手段を設けてもよい。
これにより、カメラ装置10がこれ以上前に移動できない場合には、ユーザは、操作有効期間指定手段によって操作を無効にして、カメラ装置10を一旦後に下げ、再び操作有効期間指定手段によって、操作を有効にしてからカメラ装置10を前に移動させることが可能となる。よって、カメラの移動範囲が有限である場合においても、操作の入力回数に制約を生じさせることを、回避できる。
Here, when the user holds the camera apparatus 10, the movement range may be limited. For example, when the user wants to input a determination operation based on the previous movement, if the user's hand has already been extended, or if there is an obstacle at the movement destination of the camera apparatus 10, the camera apparatus 10 There are restrictions on physical movement.
Therefore, the camera device 10 may be provided with an operation validity period specifying means using buttons or the like as means for allowing the user to specify whether or not to accept an operation input by movement.
As a result, when the camera device 10 cannot move any further before, the user invalidates the operation by the operation validity period designating means, lowers the camera device 10 later, and again performs the operation by the operation validity period designation means. It becomes possible to move the camera apparatus 10 forward after enabling it. Therefore, even when the moving range of the camera is finite, it is possible to avoid restricting the number of operation inputs.

なお、以下の説明では、カメラ装置10が前に移動することを、「ズームインする」と定義し、カメラ装置10が後に移動することを、「ズームアウトする」と定義する。
ここで、ズームを変更する手段として、レンズのピントをハードウェアで調整するアナログズームや、撮影された画像の縮尺を画像処理によって変更するデジタルズームが、知られている。これらのアナログズームやデジタルズームは、それらの機能が対応付けられているズームボタンの押下などによって、ユーザに操作させるような構成が一般的であり、ズームボタンの押下は、カメラ装置10そのものの移動を伴わないことも、考えられる。
そこで、カメラ装置10は、装置本体の物理的な移動と、ズームボタンによるズーム機能の起動とを明確に区別するために、例えば、前記の操作有効期間指定手段を、ズームボタンに連動させる構成としてもよい。つまり、カメラ装置10は、ズームボタンが押されている間は、操作を無効とするための信号を、操作装置9に送信する画像に付加する。そして、操作装置9は、前記無効の信号を検出した場合には、画像処理によるズームの検出を行わないこととする。
これにより、装置本体の物理的な移動の検出を、より正確に実現することが可能となる。
In the following description, moving the camera device 10 forward is defined as “zoom in”, and moving the camera device 10 backward is defined as “zoom out”.
Here, as means for changing the zoom, there are known analog zoom for adjusting the focus of the lens by hardware, and digital zoom for changing the scale of the photographed image by image processing. These analog zooms and digital zooms generally have a configuration in which the user operates by pressing a zoom button associated with these functions, and pressing the zoom button does not move the camera device 10 itself. It can be considered not accompanied.
Therefore, in order to clearly distinguish the physical movement of the apparatus main body from the activation of the zoom function by the zoom button, the camera device 10 has, for example, a configuration in which the operation valid period designation unit is linked to the zoom button. Also good. That is, the camera device 10 adds a signal for invalidating the operation to the image to be transmitted to the operation device 9 while the zoom button is pressed. When the invalid signal is detected, the controller device 9 does not detect zoom by image processing.
This makes it possible to more accurately detect the physical movement of the apparatus main body.

次に、本発明が適用される操作装置9は、ユーザによるカメラ装置10の位置の移動を検出して、その移動方向に対応する動作を、操作の出力結果とすることを特徴とする。図6(A)は、提示するコンテンツの一例であるWebページ(P01〜P23)と、そのWebページにアクセスするためのカメラ装置10を用いたユーザ操作(左移動など)との対応を示す図である。   Next, the operation device 9 to which the present invention is applied is characterized in that the movement of the position of the camera device 10 by the user is detected, and the operation corresponding to the movement direction is set as the operation output result. FIG. 6A is a diagram illustrating a correspondence between a Web page (P01 to P23) that is an example of the content to be presented and a user operation (such as left movement) using the camera device 10 to access the Web page. It is.

例えば、ユーザが現在閲覧しているトップページであるP01から、順にリンクをたどって、P22のページを表示するための操作について、説明する。まず、ユーザは、カメラ装置10を左に移動させて、カーソル(図示省略)を、P11のページへのリンク文字の上に移動する。次に、ユーザは、カメラ装置10を前に移動させて、カーソルで選択されているP11のページへのリンクを選択(決定)することにより、P01のページからP11のページへと、表示を切り替える。さらに、ユーザは、カメラ装置10を右に移動させて、カーソルを、P22のページへのリンク文字の上に移動する。そして、ユーザは、カメラ装置10を前に移動させて、カーソルで選択されているP22のページへのリンクを選択(決定)することにより、P11のページからP22のページへと、表示を切り替える。   For example, an operation for displaying a page P22 by following links in order from P01 which is the top page currently being browsed by the user will be described. First, the user moves the camera device 10 to the left, and moves the cursor (not shown) on the link character to the page P11. Next, the user moves the camera device 10 forward and selects (determines) the link to the P11 page selected by the cursor, thereby switching the display from the P01 page to the P11 page. . Further, the user moves the camera device 10 to the right, and moves the cursor over the link character to the page P22. Then, the user moves the camera device 10 forward and selects (determines) the link to the P22 page selected by the cursor, thereby switching the display from the P11 page to the P22 page.

図6(B)は、本発明が適用される操作装置9の効果を説明する図である。コンテンツであるWebページについて、上位の階層から順にP01、P11、P21、P31、P41となり、各階層の間は、リンクで接続されている。ユーザは、カメラ装置10を前後に移動させることにより、これらの階層構造を、上位から下位および下位から上位に、効率的にアクセスすることができる。これにより、ユーザは、Webページが、あたかも積まれた書類であるかのように、アクセスすることができるので、アクセス操作を直感的に行うことができる。   FIG. 6B is a diagram illustrating the effect of the operation device 9 to which the present invention is applied. The Web pages that are the contents are P01, P11, P21, P31, and P41 in order from the upper layer, and the layers are connected by links. The user can efficiently access these hierarchical structures from the upper level to the lower level and from the lower level to the upper level by moving the camera apparatus 10 back and forth. As a result, the user can access the Web page as if it were a stacked document, so that the access operation can be performed intuitively.

図1に示す操作装置9は、操作の入力を受け付ける操作入力端末1と、入力された操作を解析する操作解析装置2と、を含めて構成される。操作装置9は、携帯電話やPDA(Personal Digital Assistance)などの携帯端末によって構成されてもよい。これにより、携帯端末の制約である操作ボタンの少なさをカバーして、多様な操作をユーザに入力させることができる。   The operation device 9 shown in FIG. 1 includes an operation input terminal 1 that receives an operation input and an operation analysis device 2 that analyzes the input operation. The operating device 9 may be configured by a mobile terminal such as a mobile phone or a PDA (Personal Digital Assistance). Accordingly, it is possible to allow the user to input various operations while covering the small number of operation buttons that are restrictions of the mobile terminal.

なお、操作装置9は、演算処理を行う際に用いられる記憶手段としてのメモリと、前記演算処理を行う演算処理装置とを少なくとも備えるコンピュータとして構成される。なお、メモリは、RAM(Random Access Memory)などにより構成される。演算処理は、CPU(Central Processing Unit)によって構成される演算処理装置が、メモリ上のプログラムを実行することで、実現される。   The operation device 9 is configured as a computer including at least a memory serving as a storage unit used when performing arithmetic processing and an arithmetic processing device that performs the arithmetic processing. The memory is constituted by a RAM (Random Access Memory) or the like. Arithmetic processing is realized by an arithmetic processing unit configured by a CPU (Central Processing Unit) executing a program on a memory.

操作装置9の撮影手段は、撮影して画像を作成するカメラ装置10と、カメラ装置10に撮影要求を送信し、画像を受信する画像取得部11と、を含めて構成される。   The photographing unit of the operation device 9 includes a camera device 10 that photographs and creates an image, and an image acquisition unit 11 that transmits a photographing request to the camera device 10 and receives an image.

操作装置9の操作検出手段は、撮影された画像に含まれる特徴点に関する情報を記憶する特徴点情報記憶部20と、撮影された画像に含まれる特徴点を抽出する画像特徴点抽出部21と、撮影された画像が初期フレームとして設定した場合に特徴点選択用の窓を適用することで特徴点の選択を行う選択用窓適用部22と、撮影された画像のフレームから検出される特徴点に識別用のIDを付与する特徴点ID付与部23と、特徴点情報登録部24と、連続して撮影されたフレーム間で特徴点を追跡する特徴点トラッキング部25と、特徴点の追跡結果から撮影された画像のズーム操作を検出するズーム検出部26と、を含めて構成される。   The operation detection means of the operating device 9 includes a feature point information storage unit 20 that stores information on feature points included in the captured image, an image feature point extraction unit 21 that extracts feature points included in the captured image, and the like. A selection window application unit 22 that selects a feature point by applying a feature point selection window when the captured image is set as an initial frame; and a feature point detected from the frame of the captured image A feature point ID assigning unit 23 that assigns an ID for identification, a feature point information registering unit 24, a feature point tracking unit 25 that tracks feature points between consecutively photographed frames, and a feature point tracking result And a zoom detection unit 26 that detects a zoom operation of the image taken from.

操作装置9の操作検出手段は、さらに、画像のフレーム数のカウント数を記憶するカウント記憶部30と、操作入力端末1のユーザを識別する情報を格納するユーザID情報記憶部31と、画像のフレーム数をカウントするフレームカウント部32と、画像の受信処理を開始してから、または、画像の受信処理の途中で初期化を行うことにより画像の受信処理を再開してから、最初に受信したフレームを初期フレームとして設定する初期フレーム設定部33と、を含めて構成される。   The operation detection means of the operation device 9 further includes a count storage unit 30 that stores the count of the number of frames of the image, a user ID information storage unit 31 that stores information for identifying the user of the operation input terminal 1, and an image The frame count unit 32 that counts the number of frames and the first reception after the image reception process is started or the image reception process is restarted by performing initialization during the image reception process. And an initial frame setting unit 33 that sets a frame as an initial frame.

操作装置9の動作出力手段は、入力された操作と、実行する動作との対応情報を記憶する出力設定記憶部40と、入力された操作から特定される動作を出力する情報出力部41と、動作を反映した結果を表示する表示装置42と、を含めて構成される。   The operation output means of the controller device 9 includes an output setting storage unit 40 that stores correspondence information between an input operation and an operation to be executed, an information output unit 41 that outputs an operation specified from the input operation, And a display device 42 that displays the result reflecting the operation.

画像取得部11は、カメラ装置10に画像撮影命令を送信し、ある既知の時間間隔にて画像を撮影させ、撮影された画像を受信する手段を有している。このとき、撮影の時間間隔としては、15分の1秒であったり、30分の1秒であってもよい。操作装置9にて撮影が可能な時間間隔であればよい。カメラ装置10は操作装置9と一体になっていてもよいし、またはケーブルなどで連結されている形状でもよい。または、カメラ装置10と無線通信するものとして、分離した状態でもよいものとする。   The image acquisition unit 11 includes means for transmitting an image capturing command to the camera device 10, capturing images at a certain known time interval, and receiving the captured images. At this time, the photographing time interval may be 1/15 second or 1/30 second. Any time interval may be used as long as the operation device 9 can shoot. The camera device 10 may be integrated with the operation device 9 or may be connected by a cable or the like. Alternatively, it may be in a separated state for wireless communication with the camera device 10.

画像特徴点抽出部21は、カメラ装置10にて撮影された画像に含まれる特徴点を取得する手段を有する。このとき、画像から抽出する特徴量としては、輝度情報や色相情報、輪郭、頂点などの情報を取得し、利用してもよいものとする。また、このとき、単一の特徴だけを利用するだけでなく、複数の特徴を同時に利用してもよいものとする。また、この画像特徴点検出部では、画像全体から特徴点を抽出するものとする。   The image feature point extraction unit 21 has means for acquiring feature points included in an image photographed by the camera device 10. At this time, as feature amounts extracted from the image, information such as luminance information, hue information, contours, and vertices may be acquired and used. At this time, not only a single feature but also a plurality of features may be used simultaneously. The image feature point detection unit extracts feature points from the entire image.

フレームカウント部32ではフレーム数のカウントを行う手段を有し、画像取得部11にて受信した画像が処理の初期フレームであった場合や、処理途中でトラッキング失敗した場合などに初期化を行った際には、フレーム数のカウントを初期化する手段も有するものとする。なお、フレーム数は、カメラ装置10から送信された動画像を構成する各画像(フレーム)について、カメラ装置10から受信した画像の数として、定義される。そして、フレーム数は、ズーム検出部26にて安定した検出結果を得るために、複数のフレーム間の特徴点の移動状況の統計(例えば、平均移動方向など)を計算するために、使用される。   The frame count unit 32 has means for counting the number of frames, and is initialized when the image received by the image acquisition unit 11 is an initial frame of processing or when tracking fails during processing. At this time, it is assumed that there is also means for initializing the count of the number of frames. The number of frames is defined as the number of images received from the camera device 10 for each image (frame) constituting the moving image transmitted from the camera device 10. The number of frames is used to calculate statistics (for example, the average moving direction) of feature points between a plurality of frames in order to obtain a stable detection result in the zoom detection unit 26. .

特徴点トラッキング部25は、フレーム内に含まれる特徴点のトラッキングを行う手段を有するものであり、各特徴点の位置変化を求める手段を有するものとする。このとき、特徴点にIDを付与しトラッキングを容易にしたり、初期フレームに対して特徴点の選択窓を適用し、特徴点を選択してもよいとする。また、特徴点が画面外に出てしまい、トラッキングを失敗した場合には、初期化を判断する手段を有していてもよいとする。   The feature point tracking unit 25 has means for tracking feature points included in a frame, and has means for obtaining a change in position of each feature point. At this time, it is assumed that the feature point may be selected by assigning an ID to the feature point to facilitate tracking, or by applying a feature point selection window to the initial frame. In addition, when the feature point goes out of the screen and tracking fails, it may be possible to have means for determining initialization.

なお、選択窓は、予め用意されたテンプレートを適用してもよいし、ユーザに領域を指定させてもよい。さらに、コンピュータが選択窓を算出する方法を適用してもよい。選択窓の算出法は、例えば、カメラ装置10が撮影対象とする画像領域について、カメラ装置10のオートフォーカスによって合わされた特定のピントに適合する領域と、ピントがずれている(画像がぼけている)領域とに分け、特定のピントに適合する領域を選択窓とする方式が、挙げられる。この方式により、ピントがずれている領域の特徴点の信頼性は低いので、これらの特徴点のノイズを低減することができる。   Note that a template prepared in advance may be applied to the selection window, or the user may designate an area. Further, a method in which the computer calculates the selection window may be applied. The calculation method of the selection window is such that, for example, an image region that is to be imaged by the camera device 10 is out of focus with a region that matches a specific focus adjusted by the autofocus of the camera device 10 (the image is blurred). ) A method of dividing a region into regions and selecting a region suitable for a specific focus as a selection window can be given. According to this method, since the reliability of the feature points in the out-of-focus area is low, noise of these feature points can be reduced.

特徴点情報登録部24では、特徴点トラッキング部25にて、トラッキングされた特徴点のフレーム間における変位情報などを特徴点情報記憶部20に登録する手段を有する。なお、変位情報は、フレーム間において対応する特徴点の位置の移動量として、定義される。ここで、登録する情報としては、特徴点識別用のID、初期フレームからの経過フレーム番号、撮影時間間隔情報、各フレームにおける各特徴点の位置情報、トラッキングが成功しているか否かについての情報、などの情報を登録してもよいものとする。特徴点情報記憶部20では、特徴点情報登録部24から入力された情報を記憶する手段を有する。   The feature point information registration unit 24 has means for registering, in the feature point information storage unit 20, displacement information between frames of the feature points tracked by the feature point tracking unit 25. The displacement information is defined as the amount of movement of the position of the corresponding feature point between frames. Here, as information to be registered, an ID for identifying a feature point, an elapsed frame number from the initial frame, shooting time interval information, position information of each feature point in each frame, information on whether or not tracking is successful Information such as, etc. may be registered. The feature point information storage unit 20 has means for storing information input from the feature point information registration unit 24.

ズーム検出部26では、特徴点情報記憶部20に記憶された情報を取得し、特徴点の変位情報からカメラの位置が初期フレームから前後に動いたか否かを検出する手段を有する。ここは、カメラ位置が初期フレームよりも前に動いた場合には、ズームインを行ったとし、また反対に初期フレームに比べ後ろに移動したと判断した場合にはズームアウトを行ったとみなすものとする。つまり、ズーム検出部26は、カメラ装置10によって撮影された画像に対する画像処理から、カメラ装置10の位置の移動を検出することを特徴とする。   The zoom detection unit 26 has means for acquiring information stored in the feature point information storage unit 20 and detecting whether the position of the camera has moved back and forth from the initial frame from the displacement information of the feature points. Here, if the camera position moves before the initial frame, it is assumed that the zoom-in has been performed, and conversely, if it is determined that the camera has moved behind the initial frame, it is assumed that the zoom-out has been performed. . That is, the zoom detection unit 26 is characterized by detecting the movement of the position of the camera device 10 from the image processing on the image captured by the camera device 10.

情報出力部41では、ズーム検出部26にてズームイン、ズームアウトの動作が行われたと判断した場合に、出力設定記憶部40に記憶された設定に従った内容の出力を行う手段を有するものとする。   The information output unit 41 includes means for outputting contents according to the settings stored in the output setting storage unit 40 when the zoom detection unit 26 determines that the zoom-in and zoom-out operations have been performed. To do.

出力設定記憶部40では、ズーム検出部26にてズームイン、ズームアウトが検出された際に、情報出力部41から出力する内容について設定を記憶しておく手段を有する。たとえば、ズームインが検出された場合には、「リターンキー」が押されたものとみなし、ズームアウトが検出された場合には、「クリア」ボタンが押された際の動作を行うものとする、などといった設定情報を記憶するものとする。   The output setting storage unit 40 includes means for storing settings for the contents output from the information output unit 41 when zoom-in and zoom-out are detected by the zoom detection unit 26. For example, when zoom-in is detected, it is assumed that the “return key” is pressed, and when zoom-out is detected, the operation when the “clear” button is pressed is performed. It is assumed that setting information such as is stored.

図2の概念図を用いて、本発明について説明する。   The present invention will be described with reference to the conceptual diagram of FIG.

符号S201は操作装置9に付属するカメラ装置10を用いて撮影した画像であるとする。撮影する被写体としては、カメラ周辺に存在し、静物であるものとする。被写体からの距離などは特に指定しないものとする。   Reference numeral S <b> 201 is an image captured using the camera device 10 attached to the operation device 9. The subject to be photographed is present around the camera and is a still life. The distance from the subject is not specified.

前記カメラ装置10にて撮影された画像を本装置に入力すると、画像に含まれる特徴点が抽出される。特徴点の抽出方法としては、輝度情報や色相情報、輪郭情報などを利用してもよいものとする。安定的に検出される特徴点が抽出されればよいものとする。   When an image captured by the camera device 10 is input to the present device, feature points included in the image are extracted. As a feature point extraction method, luminance information, hue information, contour information, and the like may be used. It is only necessary to extract feature points that are stably detected.

この前記抽出された特徴点のうち、特徴点選択用の窓を適用することで、画像の中心付近に存在する特徴点を選択できるようにする。この様子を示したものが符号S202である。符号S202では、画像に含まれた特徴点に対して矩形が重なった状態の窓を適用し、その窓に含まれる特徴点を選択している。これにより、画像中心からある程度の距離を持つ特徴点分布を得ることが可能となる。   Of the extracted feature points, a feature point selection window is applied so that feature points existing near the center of the image can be selected. This is shown by reference numeral S202. In step S202, a window in which rectangles overlap with feature points included in an image is applied, and feature points included in the window are selected. This makes it possible to obtain a feature point distribution having a certain distance from the center of the image.

このとき、窓の形状としては、符号S202のような矩形状でなくても円形でもよいとする。また、枠問の幅は、事前に設定しておくとしてもよいが、選択窓に含まれる特徴点の数や、画像の平均輝度、ヒストグラムの分布状況によって変化させてもよいとする。   At this time, the shape of the window is not limited to the rectangular shape as in S202 but may be circular. The width of the frame question may be set in advance, but may be changed depending on the number of feature points included in the selection window, the average luminance of the image, and the distribution status of the histogram.

特徴点の検出は、初期フレーム以外では画面全体で行う。そして、初期フレームで検出された特徴点をトラッキングすることで、特徴点位置の変化を求める。   The feature points are detected on the entire screen except for the initial frame. Then, the feature point detected in the initial frame is tracked to obtain a change in the feature point position.

符号S203、符号S204では、カメラが前後され、特徴点の位置が変化した状態を表す。変化前の特徴点を丸、移動語の特徴点をひし形にて示す。カメラが後ろに移動した場合には、画像に含まれる対象物の大きさは移動した分小さくなり、特徴点の分布は移動前よりも狭くなる。また、カメラが前に移動した場合には、画像内での対象物の大きさは移動した分大きくなるため、特徴点分布は移動前よりも広くなる。   Reference numerals S203 and S204 indicate a state in which the camera is moved back and forth and the position of the feature point is changed. Feature points before change are indicated by circles, and feature points of moving words are indicated by diamonds. When the camera moves backward, the size of the object included in the image becomes smaller as it moves, and the distribution of feature points becomes narrower than before the movement. In addition, when the camera moves forward, the size of the object in the image becomes larger as it moves, so that the feature point distribution becomes wider than before the movement.

前後移動の検出については、特徴点分布が放射状に広がったり狭まったりすることを利用する。特徴点を含む矩形などの図形面積が、初期フレームでの特徴点による図形面積に比べ、広がったり狭まったりした場合に、前後に移動したと判断してもよいし、または、全特徴点の移動ベクトルを求め、初期フレームでの特徴点位置に比べ、外側に向いているのか、内側に向いているのかを判断し、前後移動を検出するとしてもよい。   For detection of back-and-forth movement, the fact that the feature point distribution expands or narrows radially is used. When the area of a figure such as a rectangle that includes a feature point is larger or smaller than the figure area of the feature point in the initial frame, it may be determined that it has moved back and forth, or all feature points have moved The vector may be obtained, and it may be determined whether it is directed outward or inward compared to the feature point position in the initial frame, and forward / backward movement is detected.

ユーザがカメラを把持する場合による手ぶれなどのノイズに対応するために、特徴点の変位検出には数フレームの画像を取得するものとする。取得フレーム数は、各フレーム間での特徴点の位置変化の大きさから変化させるものとする。たとえば、カメラを前後にゆっくり動かす場合には、手ぶれなどの変位ノイズが多く含まれるため、取得フレームを多くし、逆に、カメラを急速に移動させる場合には、取得フレーム数は少なくても、前後移動が容易に検出されるため、少ないフレーム数にしてもよいものとする。   In order to cope with noise such as camera shake caused by the user holding the camera, an image of several frames is acquired for detecting the displacement of the feature point. The number of acquired frames is changed from the magnitude of the position change of the feature point between the frames. For example, when moving the camera slowly back and forth, there are many displacement noises such as camera shake, so there are many acquisition frames, and conversely, when moving the camera rapidly, even if the number of acquisition frames is small, Since the back-and-forth movement is easily detected, the number of frames may be reduced.

特徴点の変位からカメラの動きが検出された場合には、前後移動にそれぞれ対応させた出力をするものとする。この出力は、ある一定の出力を行ってもよいし、または、事前の設定により、特定の出力を行ってもよいものとする。なお、事前の設定は、例えば、前の移動を決定(エンター)動作とし、後の移動を戻る(リターン)動作とし、前後左右の移動をカーソルの前後左右の移動動作とするような、カメラの動きと画面への動作とを対応づける情報である。   When a camera movement is detected from the displacement of the feature point, an output corresponding to the back and forth movement is output. This output may be a certain output, or a specific output may be performed by a prior setting. In addition, the advance setting is, for example, a camera movement in which the previous movement is determined (enter), the subsequent movement is returned (return), and the forward / backward / left / right movement is the forward / backward / left / right movement of the cursor. This is information for associating movements with actions on the screen.

以上、操作装置9の構成について、説明した。次に、本実施形態の操作装置9の動作について、図1、図2、図5、図6、図7を参照しつつ、図3および図4に沿って説明する。   The configuration of the operation device 9 has been described above. Next, operation | movement of the operating device 9 of this embodiment is demonstrated along FIG.3 and FIG.4, referring FIG.1, FIG.2, FIG.5, FIG.6 and FIG.

まず、図3のフローチャートを用いて、説明を行う。なお、図3の動作の主体は、操作装置9である。   First, description will be made with reference to the flowchart of FIG. 3 is the operation device 9.

まず、画像要求送信処理(S301)ではカメラ装置10に対して、撮影要求を送信する。前記撮影要求は、撮影時問間隔や、撮影画像サイズなどの情報も含まれていてもよいものとする。   First, in the image request transmission process (S301), a shooting request is transmitted to the camera device 10. The photographing request may include information such as a photographing time interval and a photographed image size.

画像受信処理(S302)は、前記画像要求送信処理(S301)にてカメラ装置10に送信した内容で撮影された画像を受信する。ここで、カメラ装置10は、操作装置9に内蔵されていてもよいし、操作装置9と有線通信または無線通信により通信可能に構成されてもよい。なお、有線通信は、例えば、USB(Universal Serial Bus)規格によって行われる。   In the image reception process (S302), an image captured with the content transmitted to the camera device 10 in the image request transmission process (S301) is received. Here, the camera device 10 may be built in the operation device 9 or may be configured to be able to communicate with the operation device 9 by wired communication or wireless communication. Note that wired communication is performed, for example, according to the USB (Universal Serial Bus) standard.

操作装置9は、画像受信処理(S302)で受信した画像が初期フレームのものであるか否かを判断する。画像要求送信処理(S301)の実行回数が1回目であれば、初期フレームと判断し(S303、Yes)、フレームカウンタ初期化処理(S304)を実行する。ここで、初期フレームとして判断される条件として、特徴点のトラッキングが失敗した場合も含めるものとする。トラッキング失敗の場合には、カウンタ初期化要求が送信されるため、初期化要求を受信した時点で、初期フレームと判断してよいものとする。   The controller device 9 determines whether the image received in the image reception process (S302) is that of the initial frame. If the number of execution times of the image request transmission process (S301) is the first time, it is determined as an initial frame (S303, Yes), and a frame counter initialization process (S304) is executed. Here, the condition determined as the initial frame includes a case where the tracking of the feature point has failed. In the case of tracking failure, a counter initialization request is transmitted, so that it may be determined as an initial frame when the initialization request is received.

フレームカウント処理(S305)では、フレーム数のカウントを行う。フレームカウンタ初期化処理(S304)が実行された場合には、カウント数は初期化されているものとする。   In the frame count process (S305), the number of frames is counted. When the frame counter initialization process (S304) is executed, it is assumed that the count number has been initialized.

その後、特徴点検出処理(S308)にて画像中の特徴点を抽出する。特徴点抽出方法は、輝度情報や色相情報、または輪郭情報などを利用してもよいとする。または、これらの情報を組み合わせた手法を用い、入力画像により抽出方法を変化させてもよいとする。   Thereafter, feature points in the image are extracted by feature point detection processing (S308). The feature point extraction method may use luminance information, hue information, contour information, or the like. Alternatively, a method combining these pieces of information may be used, and the extraction method may be changed depending on the input image.

フレームのカウント数が初期化されている場合には(S309、Yes)、特徴点選択用の窓を適用するため、選択用窓適用処理(S310)を実行する。その後、特徴点ID付与処理(S311)にて選択した特徴点に対して特徴点ID付与処理(S311)を行い、選択した各特徴点にIDを付与する。   If the frame count has been initialized (S309, Yes), the selection window application process (S310) is executed to apply the feature point selection window. Thereafter, a feature point ID assigning process (S311) is performed on the feature point selected in the feature point ID assigning process (S311), and an ID is assigned to each selected feature point.

特徴点トラッキング処理(S312)は、IDを付与された特徴点をトラッキングする。特徴点情報記憶部20を参照し、特徴点の変位情報を算出する。   The feature point tracking process (S312) tracks the feature point assigned with the ID. With reference to the feature point information storage unit 20, the displacement information of the feature points is calculated.

特徴点情報登録処理(S314)では、特徴点IDを元に、各特徴点の変位情報、トラッキング結果などを特徴点情報記憶部20に登録する。S309にて初期フレームであると判断された場合には、特徴点のID情報や、位置情報などが登録され、次フレームでトラッキングを行うために参照される。   In the feature point information registration process (S314), the displacement information of each feature point, the tracking result, and the like are registered in the feature point information storage unit 20 based on the feature point ID. If it is determined in step S309 that the frame is an initial frame, feature point ID information, position information, and the like are registered and referred to for tracking in the next frame.

トラッキングが失敗したと判断された場合には(S315、Yes)、初期化要求処理(S316)が実行される。初期化要求処理(S316)では、初期化要求が画像受信処理(S302)に送られ、次の画像が受信された時点を初回の受信として見なすことになる。   If it is determined that the tracking has failed (S315, Yes), an initialization request process (S316) is executed. In the initialization request process (S316), the initialization request is sent to the image reception process (S302), and the time when the next image is received is regarded as the first reception.

トラッキングが成功した場合には(S315、No)、ズームイン、ズームアウトを検出するズーム検出処理(S317)を実行する。ここでは、フレームカウント数を参照し、ズームイン、ズームアウトの時間変化を求め、一定フレーム連続してどちらかの操作が行われた場合に検出結果を出力するものとする。ある一定時間における変化を閾値としておくことで、手ぶれなどの微小変化に対応するものとする。   If the tracking is successful (S315, No), a zoom detection process (S317) for detecting zoom-in and zoom-out is executed. Here, referring to the frame count number, the temporal change of zoom-in and zoom-out is obtained, and the detection result is output when either operation is performed continuously for a certain frame. By setting a change over a certain period of time as a threshold value, it is possible to deal with minute changes such as camera shake.

また、特徴点情報記憶部20を参照し、各フレーム間での変化量を求めることで、ズームイン、ズームアウトの操作が急速に行われたか、またはゆっくりと行われたかを変化量を求めることで検出でき、この変化量に合わせてズームの検出のための時間を変化させるとしてもよい。たとえば、急速にズームイン、ズームアウトの操作が行われた場合には、フレーム間の変化量が大きいことから、ズーム動作の検出のためのフレーム数を減らしても検出が容易であるため、フレーム数を減らすことができる。   Further, by referring to the feature point information storage unit 20 and obtaining the amount of change between frames, the amount of change is obtained by determining whether zoom-in and zoom-out operations have been performed rapidly or slowly. The time for detecting the zoom may be changed according to the amount of change. For example, when the zoom-in / zoom-out operation is performed rapidly, the amount of change between frames is large, so it is easy to detect even if the number of frames for zoom operation detection is reduced. Can be reduced.

逆に、ゆっくりとした操作である場合には、ズーム検出のためのフレーム数を多く取ることで、手ぶれなどのノイズに対応できるようになる。また、ズーム検出処理(S317)にて、複数のフレーム間における特徴点の変位の平均などの統計量を用いて、ある一定時間における各特徴点の移動方向を検出してもよいとする。   Conversely, when the operation is slow, it is possible to deal with noise such as camera shake by increasing the number of frames for zoom detection. In addition, in the zoom detection process (S317), it is assumed that the moving direction of each feature point in a certain period of time may be detected using a statistic such as an average of the displacement of feature points between a plurality of frames.

出力処理(S318)では、ズームイン、ズームアウトの動作が検出された場合に、それぞれの動作に対応づけられた出力を、出力設定記憶部40を参照して、事前の設定を元に情報出力部41が、表示装置42に操作を出力する。そして、終了継続の判断において、外部から終了命令が与えられた場合に、終了選択を行い、終了するものとする。   In the output process (S318), when the zoom-in and zoom-out operations are detected, the output associated with each operation is referred to the output setting storage unit 40 and the information output unit based on the previous settings. 41 outputs an operation to the display device 42. Then, in the determination of continuation, when an end command is given from the outside, an end selection is performed and the process ends.

本発明の処理をサーバ・クライアント間で行う場合について、図4を用いて説明する。なお、図4の動作の主体は、操作入力端末1(クライアントに対応)および操作解析装置2(サーバに対応)である。ここで、1台の操作解析装置2(サーバ)は、複数の操作入力端末1(クライアント)を扱ってもよい。そのため、個々の操作入力端末1には、端末を識別するためのIDが付されており、操作解析装置2とデータを通信する際には、端末を識別するためのIDが、通信の各パケットに含まれるようにする。   A case where the processing of the present invention is performed between a server and a client will be described with reference to FIG. 4 are the operation input terminal 1 (corresponding to the client) and the operation analysis device 2 (corresponding to the server). Here, one operation analysis apparatus 2 (server) may handle a plurality of operation input terminals 1 (clients). Therefore, an ID for identifying the terminal is attached to each operation input terminal 1. When communicating data with the operation analysis device 2, the ID for identifying the terminal is used for each communication packet. To be included.

図4は、図3と異なり、操作装置9の役割を、操作入力端末1と操作解析装置2とに分離することを特徴とする。これにより、操作解析装置2が画像処理を一括で行うので、操作入力端末1の計算の負担を軽減することができる。よって、操作入力端末1は、従来から普及している簡易的なプログラムが実行可能な携帯電話などに、操作入力端末1の処理を実現するプログラムをインストールするだけで済むので、ハードウェアの買い替えをせずに済む。これにより、本発明に関する操作装置9を、低コストで普及させることができる。   4 differs from FIG. 3 in that the role of the operation device 9 is separated into the operation input terminal 1 and the operation analysis device 2. Thereby, since the operation analysis apparatus 2 performs image processing collectively, the calculation burden of the operation input terminal 1 can be reduced. Therefore, the operation input terminal 1 only needs to install a program for realizing the processing of the operation input terminal 1 in a mobile phone or the like that can execute a simple program that has been widely used. You do n’t have to. Thereby, the operating device 9 according to the present invention can be spread at a low cost.

画像要求受信処理(S401)では、カメラ装置10に画像の送信を要求し、受信を行う。   In the image request reception process (S401), the camera apparatus 10 is requested to transmit an image and is received.

フレームカウント処理(S402)では、画像を取得した回数をカウントする。入力される画像を動画フレームの1フレームごととみなして、フレーム数をカウントする。   In the frame count process (S402), the number of times the image is acquired is counted. The input image is regarded as every moving image frame, and the number of frames is counted.

カウント記憶部30は、カウントしたフレーム数と保存しておく記憶手段であり、ユーザID情報記憶部31は、ユーザIDを保存しておく記憶手段である。なお、ユーザIDはサーバ側にデータを送信したときの、送信元の識別のために使用される。   The count storage unit 30 is a storage unit that stores the counted number of frames, and the user ID information storage unit 31 is a storage unit that stores a user ID. The user ID is used for identifying the transmission source when data is transmitted to the server side.

画像、ユーザID情報送信処理(S404)では、画像要求受信処理(S401)にて取得された画像と、ユーザIDをサーバ側に送信する。サーバ側に送信された画像は、画像、ユーザID情報受信処理(S405)にて受信される。ここで、画像情報とともに送られたユーザIDが認識され、ユーザの識別が行われる。ユーザIDから受信した画像データが初期フレームであるか否かを確認する。   In the image and user ID information transmission process (S404), the image acquired in the image request reception process (S401) and the user ID are transmitted to the server side. The image transmitted to the server side is received in the image and user ID information reception process (S405). Here, the user ID sent together with the image information is recognized, and the user is identified. It is confirmed whether the image data received from the user ID is an initial frame.

初期フレームである場合には(S407、Yes)、カウント初期化処理(S408)にてフレームカウンタのカウンタを初期化する。そして、フレームカウント処理(S409)にてフレームカウントが実行される。カウント初期化処理(S408)でカウントが初期化された場合には、カウントは初期化されるものとする。カウント情報は、カウント記憶部30で保存される。   If it is an initial frame (S407, Yes), the counter of the frame counter is initialized in the count initialization process (S408). Then, the frame count is executed in the frame count process (S409). When the count is initialized in the count initialization process (S408), the count is initialized. The count information is stored in the count storage unit 30.

特徴点抽出処理(S410)にて画像内の特徴点が抽出される。このとき、特徴点抽出方法としては、輝度分布であったり、色相情報であったりしてもよく、複数の画像特徴量を利用して抽出してもよい。また、画像情報から利用する特徴量を変えてもよいものとする。   In the feature point extraction process (S410), feature points in the image are extracted. At this time, the feature point extraction method may be a luminance distribution or hue information, and may be extracted using a plurality of image feature amounts. In addition, the feature amount used from the image information may be changed.

カウントがカウント初期化処理(S408)にて初期化されている場合には(S412、Yes)、特徴点の選択を行うために、選択用窓適用処理(S413)にて選択用の窓を適用する。この選択窓は、図2の202にて説明したような矩形を重ねた状態の窓であってもよいし、円形を重ねた状態の窓であってもよいものとする。選択された特徴点が、中心からある程度の距離をもって分布するようになればよいとする。   When the count is initialized by the count initialization process (S408) (S412, Yes), the selection window is applied by the selection window application process (S413) in order to select the feature point. To do. This selection window may be a window in which rectangles are overlapped as described in 202 of FIG. 2 or may be a window in which circles are overlapped. Assume that the selected feature points only need to be distributed with a certain distance from the center.

選択用窓適用処理(S413)にて選択された特徴点は、識別用ID付与処理(S414)にて識別用のIDを付与される。特徴点IDの情報と、特徴点の位置情報、フレームカウント数などが特徴点情報記憶部20に保存される。この特徴点情報記憶部20に保存された情報を元に、特徴点トラッキング処理(S416)にて特徴点のトラッキングを行う。   The feature point selected in the selection window application process (S413) is given an identification ID in the identification ID assignment process (S414). The feature point ID information, the feature point position information, the frame count number, and the like are stored in the feature point information storage unit 20. Based on the information stored in the feature point information storage unit 20, the feature points are tracked in the feature point tracking process (S416).

特徴点トラッキング処理(S416)によって、各フレーム間での特徴点の変位情報が得られる。この変位情報は、特徴点情報登録処理(S418)で特徴点情報記憶部20に保存される。   By the feature point tracking process (S416), the displacement information of the feature points between the frames is obtained. This displacement information is stored in the feature point information storage unit 20 in the feature point information registration process (S418).

このとき、トラッキングを失敗し、特徴点のトラッキングができなかった場合には(S419、Yes)、再度初期条件に戻すように初期化要求処理(S420)を実行する。この初期化要求処理(S420)にて初期化された際には、画像、ユーザID情報受信処理(S405)で画像が初めて入力された場合と同様に、カウント初期化処理(S408)が実行され、フレームカウンタが初期化される。   At this time, if tracking fails and feature points cannot be tracked (S419, Yes), initialization request processing (S420) is executed so as to return to the initial conditions again. When the image is initialized in the initialization request process (S420), the count initialization process (S408) is executed in the same manner as when an image is input for the first time in the image and user ID information reception process (S405). The frame counter is initialized.

トラッキングが成功した場合には(S419、No)、ズームが行われたか、否かを検出するズーム検出処理(S421)が実行される。ズームイン、ズームアウトが検出されたか否かの検出結果を検出結果送信処理(S422)にてクライアント側に送信する。このとき、送信される検出結果は、ズームイン、ズームアウト、検出なし、失敗などの情報を送信するものとする。   When the tracking is successful (S419, No), a zoom detection process (S421) for detecting whether or not zooming has been performed is executed. A detection result indicating whether zoom-in or zoom-out has been detected is transmitted to the client side in a detection result transmission process (S422). At this time, information such as zoom-in, zoom-out, no detection, or failure is transmitted as the detection result to be transmitted.

クライアントに送信された検出結果情報は、検出結果受信処理(S423)にて受信され、検出が成功したか否かを判断する。その結果、検出が成功していれば(S424、No)、ズームイン、ズームアウトに対応させた出力を出す。このとき、出力設定記憶部40の出力設定をもとにして出力を行うものとする。検出が成功しても失敗しても、終了・継続命令送信処理(S427)を実行する。   The detection result information transmitted to the client is received in the detection result reception process (S423), and it is determined whether or not the detection is successful. As a result, if the detection is successful (S424, No), an output corresponding to zoom-in and zoom-out is output. At this time, output is performed based on the output setting of the output setting storage unit 40. Whether the detection is successful or unsuccessful, an end / continuation command transmission process (S427) is executed.

この終了・継続命令はサーバ側の終了・継続命令受信処理(S428)にて受信される。受信結果から、終了命令が得られた場合には、サーバ側の処理は終了するものとする(S429、No)。これらの処理により、画像の特徴点の変位からカメラの前後移動を検出することが可能となる。   This end / continuation command is received in the server side end / continuation command reception process (S428). If an end command is obtained from the reception result, the server-side processing is ended (S429, No). With these processes, it is possible to detect the back-and-forth movement of the camera from the displacement of the feature points of the image.

以上説明した本発明は、以下のようにその趣旨を逸脱しない範囲で広く変形実施することができる。   The present invention described above can be widely modified without departing from the spirit thereof as follows.

例えば、カメラ装置10の移動と、カーソル動作との対応情報は、前記の対応情報に限定されず、様々な対応情報を活用してもよい。例えば、前の移動を戻る(リターン)動作とし、後の移動を決定(エンター)動作としてもよい。   For example, the correspondence information between the movement of the camera device 10 and the cursor operation is not limited to the correspondence information, and various correspondence information may be used. For example, the previous movement may be a return (return) action, and the subsequent movement may be a decision (enter) action.

本発明の一実施形態に関する操作装置の構成図である。It is a block diagram of the operating device regarding one Embodiment of this invention. 本発明の一実施形態に関する選択窓の処理の概念図である。It is a conceptual diagram of the process of the selection window regarding one Embodiment of this invention. 本発明の一実施形態に関する操作装置の処理を示すフローチャートである。It is a flowchart which shows the process of the operating device regarding one Embodiment of this invention. 本発明の一実施形態に関するサーバ・クライアント間で行う処理を示すフローチャートである。It is a flowchart which shows the process performed between the server and client regarding one Embodiment of this invention. 本発明の一実施形態に関するカメラ装置の移動の概念図である。It is a conceptual diagram of the movement of the camera apparatus regarding one Embodiment of this invention. 本発明の一実施形態に関する階層構造を持つデータ構造へのアクセスを示す図である。FIG. 4 is a diagram illustrating access to a data structure having a hierarchical structure according to an embodiment of the present invention. 本発明の一実施形態に関する操作装置の利用例を示す図である。It is a figure which shows the usage example of the operating device regarding one Embodiment of this invention.

符号の説明Explanation of symbols

1 操作入力端末
9 操作装置
10 カメラ装置
20 特徴点情報記憶部
21 画像特徴点抽出部
22 選択用窓適用部
26 ズーム検出部
40 出力設定記憶部
41 情報出力部
DESCRIPTION OF SYMBOLS 1 Operation input terminal 9 Operation apparatus 10 Camera apparatus 20 Feature point information storage part 21 Image feature point extraction part 22 Selection window application part 26 Zoom detection part 40 Output setting storage part 41 Information output part

Claims (10)

カメラ装置の位置の移動を元に操作を入力させる操作装置であって、
前記操作装置は、前記カメラ装置によって撮影された画像を取得する撮影手段と、前記画像をもとにカメラ装置の位置の移動を検出する操作検出手段と、前記検出された位置の移動に対応づけられている動作を出力する動作出力手段と、を含めて構成され、
前記操作検出手段は、前記画像が時系列に拡大されている場合に、前記カメラ装置が撮影対象に接近する方向へ移動する前移動として検出し、前記画像が時系列に縮小されている場合に、前記カメラ装置が撮影対象から遠ざかる方向へ移動する後移動として検出し、
前記動作出力手段は、前記前移動に対応する動作または前記後移動に対応づけられている動作のうち、少なくとも1つの動作を出力することを特徴とする操作装置。
An operation device for inputting an operation based on the movement of the position of the camera device,
The operating device is associated with a photographing unit that acquires an image photographed by the camera device, an operation detecting unit that detects a movement of the position of the camera device based on the image, and a movement of the detected position. Operation output means for outputting the operation being performed, and
When the image is enlarged in time series, the operation detection means detects the camera device as a pre-movement that moves in a direction approaching the shooting target, and the image is reduced in time series. , Detected as a movement after the camera device moves away from the object to be photographed,
The operation output means outputs at least one operation among an operation corresponding to the forward movement or an operation associated with the backward movement.
前記操作装置は、階層化されたデータ構造へのアクセスを行うものとし、
前記前移動に対応づけられている動作は、前記データ構造を下位の階層へアクセスする動作とし、
前記後移動に対応づけられている動作は、前記データ構造を上位の階層へアクセスする動作とすることを特徴とする請求項1に記載の操作装置。
The operating device shall access a hierarchical data structure,
The operation associated with the previous movement is an operation of accessing the data structure to a lower hierarchy,
The operation device according to claim 1, wherein the operation associated with the backward movement is an operation of accessing the data structure to an upper hierarchy.
前記操作検出手段は、前記画像から抽出される特徴点の位置の移動情報をもとに、前記画像の拡大または縮小を検出することを特徴とする請求項1または請求項2に記載の操作装置。   The operation device according to claim 1, wherein the operation detection unit detects enlargement or reduction of the image based on movement information of a position of a feature point extracted from the image. . 前記特徴点は、前記画像から抽出される全ての特徴点の集合から、所定の選択窓の範囲内に位置する特徴点の集合を部分的に抽出して構成されることを特徴とする請求項3に記載の操作装置。   The feature point is configured by partially extracting a set of feature points located within a predetermined selection window from a set of all feature points extracted from the image. 3. The operating device according to 3. 前記操作検出手段は、前記画像が時系列に平行移動されている場合に、平行移動されている方向を検出し、
前記動作出力手段は、前記平行移動されている方向へカーソルを移動させる動作を出力することを特徴とする請求項1ないし請求項4のいずれか1項に記載の操作装置。
The operation detection means detects the direction of translation when the image is translated in time series,
The operation device according to any one of claims 1 to 4, wherein the operation output means outputs an operation of moving a cursor in the direction of the parallel movement.
カメラ装置の位置の移動を元に操作を入力させる操作入力端末であって、
前記操作入力端末は、前記カメラ装置によって撮影された画像を取得する撮影手段と、前記画像をもとに検出されたカメラ装置の位置の移動に対応づけられている動作を出力する動作出力手段と、を含めて構成され、
前記カメラ装置の位置の移動は、前記カメラ装置が撮影対象に接近する方向へ移動する前移動、または、前記カメラ装置が撮影対象から遠ざかる方向へ移動する後移動のうち、少なくとも1つから構成され、
前記動作出力手段は、前記前移動に対応する動作または前記後移動に対応づけられている動作のうち、少なくとも1つの動作を、記憶手段から読み出して出力することを特徴とする操作入力端末。
An operation input terminal for inputting an operation based on the movement of the position of the camera device,
The operation input terminal includes a photographing unit that acquires an image photographed by the camera device, and an operation output unit that outputs an operation associated with the movement of the position of the camera device detected based on the image. , Including,
The movement of the position of the camera device includes at least one of a pre-movement in which the camera device moves in a direction approaching the object to be imaged and a post-movement in which the camera device moves in a direction away from the object to be imaged. ,
The operation input terminal is characterized in that at least one of the operations corresponding to the forward movement or the movements associated with the backward movement is read out from the storage means and output.
前記操作入力端末は、階層化されたデータ構造へのアクセスを行うものとし、
前記前移動に対応づけられている動作は、前記データ構造を下位の階層へアクセスする動作とし、
前記後移動に対応づけられている動作は、前記データ構造を上位の階層へアクセスする動作とすることを特徴とする請求項6に記載の操作入力端末。
The operation input terminal shall access a hierarchical data structure,
The operation associated with the previous movement is an operation of accessing the data structure to a lower hierarchy,
The operation input terminal according to claim 6, wherein the operation associated with the backward movement is an operation of accessing the data structure to a higher hierarchy.
カメラ装置の位置の移動を元に操作を入力させる操作方法であって、
コンピュータが、前記カメラ装置によって撮影された画像を取得する撮影手順と、前記画像をもとにカメラ装置の位置の移動を検出する操作検出手順と、前記検出された位置の移動に対応づけられている動作を出力する動作出力手順と、を実行し、
前記操作検出手順は、前記画像が時系列に拡大されている場合に、前記カメラ装置が撮影対象に接近する方向へ移動する前移動として検出し、前記画像が時系列に縮小されている場合に、前記カメラ装置が撮影対象から遠ざかる方向へ移動する後移動として検出し、
前記動作出力手順は、前記前移動に対応する動作または前記後移動に対応づけられている動作のうち、少なくとも1つの動作を出力することを特徴とする操作方法。
An operation method for inputting an operation based on the movement of the position of the camera device,
The computer is associated with a shooting procedure for acquiring an image shot by the camera device, an operation detection procedure for detecting a movement of the position of the camera device based on the image, and a movement of the detected position. And an operation output procedure for outputting the operation being performed, and
The operation detection procedure detects when the camera device is moved in a direction approaching the object to be photographed when the image is enlarged in time series, and when the image is reduced in time series. , Detected as a movement after the camera device moves away from the object to be photographed,
The operation output procedure outputs at least one operation among an operation corresponding to the forward movement or an operation associated with the backward movement.
前記コンピュータは、階層化されたデータ構造へのアクセスを行うものとし、
前記前移動に対応づけられている動作は、前記データ構造を下位の階層へアクセスする動作とし、
前記後移動に対応づけられている動作は、前記データ構造を上位の階層へアクセスする動作とすることを特徴とする請求項8に記載の操作方法。
The computer shall access a hierarchical data structure;
The operation associated with the previous movement is an operation of accessing the data structure to a lower hierarchy,
The operation method according to claim 8, wherein the operation associated with the backward movement is an operation of accessing the data structure to a higher hierarchy.
請求項8または請求項9に記載の操作方法をコンピュータに実行させるための操作プログラム。   An operation program for causing a computer to execute the operation method according to claim 8 or 9.
JP2004147925A 2004-05-18 2004-05-18 Operation unit, operation input terminal, operation method, and operation program Pending JP2005332061A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004147925A JP2005332061A (en) 2004-05-18 2004-05-18 Operation unit, operation input terminal, operation method, and operation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004147925A JP2005332061A (en) 2004-05-18 2004-05-18 Operation unit, operation input terminal, operation method, and operation program

Publications (1)

Publication Number Publication Date
JP2005332061A true JP2005332061A (en) 2005-12-02

Family

ID=35486706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004147925A Pending JP2005332061A (en) 2004-05-18 2004-05-18 Operation unit, operation input terminal, operation method, and operation program

Country Status (1)

Country Link
JP (1) JP2005332061A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010050842A (en) * 2008-08-22 2010-03-04 Sony Taiwan Ltd High dynamic stitching method for multi-lens camera system
JP4493730B2 (en) * 2008-07-31 2010-06-30 国立大学法人広島大学 Three-dimensional object display control apparatus and method
JP2019200787A (en) * 2018-05-09 2019-11-21 キヤノン株式会社 Image processor, method for processing image, imaging device, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4493730B2 (en) * 2008-07-31 2010-06-30 国立大学法人広島大学 Three-dimensional object display control apparatus and method
JPWO2010013336A1 (en) * 2008-07-31 2012-01-05 国立大学法人広島大学 Three-dimensional object display control apparatus and method
US8462105B2 (en) 2008-07-31 2013-06-11 Hiroshima University Three-dimensional object display control system and method thereof
JP2010050842A (en) * 2008-08-22 2010-03-04 Sony Taiwan Ltd High dynamic stitching method for multi-lens camera system
JP2019200787A (en) * 2018-05-09 2019-11-21 キヤノン株式会社 Image processor, method for processing image, imaging device, and program
JP7341712B2 (en) 2018-05-09 2023-09-11 キヤノン株式会社 Image processing device, image processing method, imaging device, and program

Similar Documents

Publication Publication Date Title
CN107493495B (en) Interactive position determining method, system, storage medium and intelligent terminal
JP6355829B2 (en) Gesture recognition device, gesture recognition method, and information processing device
JP5765019B2 (en) Display control apparatus, display control method, and program
CN111357296B (en) Video distribution device, video distribution system, video distribution method, and storage medium
EP2079009A1 (en) Apparatus and methods for a touch user interface using an image sensor
JP6314251B2 (en) Operation input device, operation input method and program
JP2017534933A (en) Instruction generation method and apparatus
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
CN109639896A (en) Block object detecting method, device, storage medium and mobile terminal
US11798177B2 (en) Hand tracking method, device and system
CN112714253B (en) Video recording method and device, electronic equipment and readable storage medium
US9268408B2 (en) Operating area determination method and system
CN102196176A (en) Information processing apparatus, information processing method, and program
KR20180131616A (en) Fingerprint Recognition Method, Device, Program and Storage Medium
JPWO2009142098A1 (en) Image processing apparatus, camera, image processing method and program
TW201939260A (en) Method, apparatus, and terminal for simulating mouse operation by using gesture
KR101503017B1 (en) Motion detecting method and apparatus
CN113253908A (en) Key function execution method, device, equipment and storage medium
KR20120028248A (en) Device and method for controlling gesture
CN107797748B (en) Virtual keyboard input method and device and robot
KR102070598B1 (en) Camera apparatus and method for controlling thereof
CN113282164A (en) Processing method and device
JP2005332061A (en) Operation unit, operation input terminal, operation method, and operation program
JP2013143578A (en) Image processing device and control method therefor
CN112529770A (en) Image processing method, image processing device, electronic equipment and readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080806

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080902